Únase a boletines diarios y semanales para obtener las últimas actualizaciones y contenido exclusivo para cubrir la inteligencia artificial líder en la industria. Obtenga más información


La inteligencia artificial cambia la forma en que operan las empresas. Si bien gran parte de esta transformación es positiva, ofrece algunas preocupaciones únicas de ciberseguridad. Las aplicaciones de inteligencia artificial de la próxima generación, como la IA de la agencia, son un riesgo particularmente importante para la posición de seguridad de las organizaciones.

¿Qué es un cliente de inteligencia artificial?

La IA aulctic se refiere a los modelos de inteligencia artificial que pueden funcionar de forma independiente, y a menudo conducen a roles completos con un poco de aportación humana. Los chatbots avanzados se encuentran entre los ejemplos más destacados, pero los agentes de inteligencia artificial también pueden aparecer en aplicaciones como inteligencia empresarial, diagnósticos médicos y modificaciones de seguros.

En todos los casos de uso, esta tecnología combina modelos obstétricos y procesamiento del lenguaje natural (NLP) y otros MLS (ML) para realizar tareas de múltiples pasos de forma independiente. Es fácil ver el valor en tal solución. Se entiende, Gartner predice esto tercero Entre todas las reacciones de inteligencia obstétrica, estos factores se utilizarán para 2028.

Los riesgos de seguridad únicos del agente de inteligencia artificial

La dependencia de la Agencia AI aumentará a medida que las empresas buscan completar una gama más amplia de tareas sin una fuerza laboral más grande. Aunque esto es promesas, dar al modelo internacional de Amnistía mucha fuerza tiene graves efectos de la ciberseguridad.

Los agentes de inteligencia artificial generalmente requieren acceso a grandes cantidades de datos. En consecuencia, son objetivos principales para delincuentes electrónicos, donde los atacantes pueden enfocar los esfuerzos en una aplicación para exponer una gran cantidad de información. Tendrá un efecto similar de los vitales, lo que condujo Pérdidas de alegría de 12.5 mil millones de dólares Solo en 2021, pero puede ser más fácil, porque los modelos de inteligencia artificial pueden ser más probables que los profesionales experimentados.

La Independencia de la Agencia AI es otra preocupación. Si bien todos los algoritmos ML ofrecen algunos riesgos, los requisitos de uso tradicional requieren una licencia humana para hacer cualquier cosa con sus datos. Los agentes, por otro lado, pueden comportarse sin permiso. Como resultado, cualquier expresión o privacidad transversal o Errores como alucinaciones de inteligencia artificial Puede deslizarse sin que nadie se dé cuenta.

Esta falta de supervisión hace que las amenazas actuales de inteligencia artificial como el envenenamiento por datos sean más peligrosas. Los atacantes solo pueden estropear el modelo cambiando 0.01 % de su conjunto de datos de entrenamientoY haga esto posible con la inversión mínima. Esto es dañino en cualquier contexto, pero las conclusiones incorrectas del agente envenenado alcanzarán mucho más allá de un contexto en el que los humanos se extraen primero.

Cómo mejorar la ciberseguridad para la prótesis de la inteligencia artificial

A la luz de estas amenazas, las estrategias de ciberseguridad necesitan adaptación antes de que las empresas implementen aplicaciones de IA. Aquí hay cuatro pasos críticos hacia este objetivo.

1. Gran visión

El primer paso es garantizar que los equipos de seguridad y operaciones tengan una visión completa en el trabajo del trabajo del agente de inteligencia artificial. Cada tarea que completa el formulario, cada dispositivo o aplicación debe conectarse a él y todos los datos a los que se puede acceder es claro. La detección de estos factores facilitará la descubrir posibles debilidades.

Las herramientas automáticas de mapeo de red pueden ser necesarias aquí. solo 23 % de los líderes de TI Supongamos que tienen una visión completa en sus entornos en la nube y el 61 % usa múltiples herramientas de descubrimiento, lo que conduce a registros duplicados. Los supervisores deben abordar estos problemas primero para obtener la visión necesaria sobre lo que los agentes de inteligencia artificial pueden alcanzar.

Emplear el principio de menos concesión

Una vez que el agente puede interactuar, las empresas deben restringir estos privilegios. El principio de concesión menor, que establece que cualquier entidad no puede ver lo que necesita por completo y usarla solo.

Cualquier base de datos o aplicación con la que pueda interactuar el agente de inteligencia artificial es un posible riesgo. En consecuencia, las organizaciones pueden reducir las superficies de ataque relevantes y prevenir el movimiento lateral al reducir estos permisos tanto como sea posible. Cualquier cosa no debe contribuir directamente con el propósito de liderar el valor de la inteligencia artificial fuera de las fronteras.

Reducción de información confidencial

Del mismo modo, los supervisores de la red pueden evitar violaciones de privacidad al eliminar detalles confidenciales de los conjuntos de datos a los que AI puede acceder. Muchos clientes de inteligencia artificial funcionan naturalmente incluye datos especiales. más que 50 % del gasto de inteligencia artificial Se irá hacia chatbots, que puede recopilar información sobre los clientes. Sin embargo, no todos estos detalles son necesarios.

Aunque el agente debe aprender de las interacciones de los clientes anteriores, no necesita almacenar nombres, direcciones o detalles de pago. La programación del sistema para fregar información personal innecesaria de los datos accesibles de la IA reducirá el daño en caso de violación.

Mira el comportamiento sospechoso

Las empresas también necesitan atención a la IA, agente de programación. Aplíquelo al uso único primero y use un equipo diversificado para revisar un modelo de sesgo o alucinaciones durante la capacitación. Cuando llegue el momento de publicar el agente, sácalo lentamente y véalo por un comportamiento sospechoso.

En tiempo real, la respuesta es muy importante en este monitoreo, ya que el riesgo de inteligencia artificial del cliente significa que cualquier violación puede tener consecuencias graves. Afortunadamente, las soluciones y la respuesta de detección automática son muy efectivas y proporcionan En promedio de $ 2.22 millones En costos de violación de datos. Las organizaciones pueden expandir lentamente a los clientes de inteligencia artificial después de una experiencia exitosa, pero deben continuar monitoreando todas las aplicaciones.

Con el progreso de la ciberseguridad, las estrategias de ciberseguridad deben

El rápido progreso de la IA conlleva una gran promesa para las empresas modernas, pero los riesgos de seguridad cibernética aumentan a la misma velocidad. Las defensas electrónicas de las instituciones y el progreso deben aumentarse, así como casos de inteligencia artificial. No seguir el ritmo de estos cambios puede causar daños a los beneficios tecnológicos.

ApeNive AI ML tomará nuevos horizontes, pero lo mismo se aplica a las debilidades relevantes. Aunque esto no hace que esta tecnología no sea muy segura para invertir en ella, requiere precaución. Las empresas deben seguir estos pasos de seguridad básicos porque ofrecen nuevas aplicaciones internacionales de Amnistía.

Zac Amos es editor de funciones en Ricak.

DataDecision Makers

¡Bienvenido a la comunidad VentureBeat!

DataDecisionmakers es el lugar donde los expertos, incluidos los técnicos que fabrican datos, comparten datos e innovación relacionados con los datos.

Si desea leer sobre ideas avanzadas, información moderna, mejores prácticas y el futuro de la tecnología de datos y la tecnología de datos, únase a nosotros en Datecisionmakers.

¡Incluso puede pensar en contribuir a su propio artículo!

Lea más datadecision fabricantes

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí