OpenAI elimina la función ChatGPT después de una filtración de conversaciones especiales a la búsqueda de Google

¿Quieres visiones más inteligentes de tu bandeja de entrada? Suscríbase a nuestros boletines semanales para obtener lo que se refiere solo a la IA de las instituciones, los líderes de datos y seguridad. Suscríbete ahora


Opadai Se hizo raro el jueves, y de repente detuvo una ventaja que permitió Chatgpt Usuarios para Hacer sus conversaciones descubiertas a través de Google Y otros motores de búsqueda. La decisión se produjo en cuestión de horas de la crítica de las redes sociales de amplio rango y representa un maravilloso ejemplo de la velocidad de los miedos de privacidad que pueden obstaculizar incluso las buenas experiencias de inteligencia artificial de intención.

La característica, que OpenAi describió como «Experiencia a corto plazo“Solicitar a los usuarios seleccionando activamente compartiendo chat y luego revisando un cuadro para que busque.

Cómo miles de conversaciones de chatgpt se han convertido en resultados de búsqueda de Google

La controversia estalló cuando los usuarios descubrieron que podían buscar en Google usando la consulta.Ubicación: chatgpt.com/share«Para encontrar miles de conversaciones de extraños con asistente de inteligencia artificial. ¿Cuál es la imagen íntima de cómo las personas interactúan con la inteligencia artificial? Desde solicitudes mundanas para obtener el consejo de la renovación del baño hasta las preguntas de salud personal profundas y la reanudación profesionalmente sensible, el atractivo no se intercambia.

«Al final, creemos que esta característica proporcionó muchas oportunidades para que las personas compartieran las cosas que no tenían la intención de accidentalmente», explicó el equipo de seguridad de Operai a X, admitiendo que los Rapadores no eran suficientes para evitar el mal uso.


La serie AI Impact regresa a San Francisco – 5 de agosto

La siguiente etapa de inteligencia artificial aquí: ¿estás listo? Únase a los líderes de Block, GSK y SAP para analizar exclusivos sobre cómo reiniciar a los agentes independientes de las tareas de flujo de trabajo de la Fundación, desde las decisiones en un momento real para la automatización integral.

Asegurar su lugar ahora: el espacio es limitado: https://bit.ly/3gulf


El accidente revela un punto ciego importante sobre cómo las compañías de inteligencia artificial tratan con el diseño de la experiencia del usuario. Si bien había garantías técnicas, la característica estaba involucrada y requirió múltiples clics para activar el elemento humano ha demostrado un problema. Los usuarios no han entendido completamente los efectos de hacer que sus chats sean registrados o simplemente ignorados las implicaciones de la privacidad en su entusiasmo para intercambiar intercambios útiles.

Como un experto en seguridad Nota sobre x: «La fricción para compartir la posible información debe ser mayor que el cuadro de selección o no está presente en absoluto».

El error de OpenAI sigue un patrón preocupante para hacer inteligencia artificial. En septiembre de 2023, Google enfrentó críticas similares cuando las conversaciones de Bard Ai comenzaron a aparecer en los resultados de búsqueda, lo que llevó a la compañía a implementar medidas de prohibición. Meta enfrentó problemas similares cuando algunos de algunos usuarios de Meta AI son involuntariamente Publicar chats privados con resúmenes públicosA pesar de las advertencias sobre el cambio en el caso de la privacidad.

Estos incidentes iluminan un desafío más amplio: las compañías de inteligencia artificial se mueven rápidamente hacia la innovación y distinguen entre sus productos y, a veces, a expensas de proteger una fuerte privacidad. Puede exigir presión para cobrar nuevas características y mantener una ventaja competitiva cuidadosa para los posibles escenarios de uso indebido.

Para los tomadores de decisiones en la institución, este estilo debe plantear preguntas peligrosas sobre el debido cuidado del vendedor. Si los productos de IA que enfrentan el consumidor están luchando con los elementos de control básicos en la privacidad, ¿qué significa esto para aplicaciones comerciales que tratan los datos de las empresas confidenciales?

Lo que las empresas necesitan saber sobre los riesgos de privacidad de chatbot ai

el Chatgpt controversia Tiene especial importancia para los usuarios comerciales que dependen cada vez más de asistentes de inteligencia artificial para todo, desde la planificación estratégica hasta el análisis competitivo. Si bien OpenAI sostiene que las cuentas de las instituciones y el equipo tienen una protección de la privacidad diferente, el tropiezo del producto de consumo resalta la importancia de comprender cómo los vendedores de inteligencia artificial tratan con el intercambio de datos y los manteniendo.

Las instituciones inteligentes deben solicitar respuestas claras al gobierno de datos de los proveedores de inteligencia artificial. Las preguntas principales incluyen: ¿En las condiciones en que las conversaciones pueden estar disponibles para terceros? ¿Cuáles son los controles para evitar la exposición accidental? ¿Qué tan rápido responden las empresas a los accidentes de privacidad?

El incidente también muestra la naturaleza viral de la violación de la privacidad en la era de las redes sociales. A las pocas horas del descubrimiento inicial, la historia se extendió X.com (anteriormente Twitter)y Yo respondíLas principales publicaciones tecnológicas, amplificando la reputación y forzando la mano de Openai.

Dilema de innovación: la construcción de las ventajas de IA es útil sin perjuicio de la privacidad del usuario

La visión de OpenAI de la función de búsqueda no es de naturaleza defectuosa. La capacidad de descubrir las conversaciones de inteligencia artificiales realmente útiles puede ayudar a encontrar soluciones a problemas comunes, similar a cómo Superávit Se ha convertido en un recurso invaluable para los programadores. El concepto de construir una base de investigación sujeta a inteligencia artificial tiene una ventaja.

Sin embargo, la ejecución reveló una tensión esencial en el desarrollo de inteligencia artificial. Las empresas quieren aprovechar la inteligencia colectiva resultante de las reacciones de los usuarios con protección de la privacidad individual. Encontrar el equilibrio correcto requiere enfoques más sofisticados que los simples cuadros de selección.

Un usuario en x Se apoderó de la complejidad: «No reduzca los trabajos porque la gente no puede leer. El valor predeterminado es bueno y seguro, debe estar en su tierra». Pero otros no estaban de acuerdo, como uno de ellos señaló que «el contenido de ChatGPT es a menudo más sensible que una cuenta bancaria».

El experto en desarrollo de productos, Jeffrey Emmanuel, también sugirió que X: «La publicación posterior debería ser definitiva y cambiar el enfoque para proceder con la pregunta» sobre lo malo si el 20 % de la población es peor y se usa mal esta característica? «Planea en consecuencia».

La privacidad básica que debe implementar cada compañía internacional de amnistía

el Desastre de búsqueda de chatgpt Proporciona muchas lecciones importantes tanto para las compañías de inteligencia artificial como para los clientes en instituciones. Primero, la configuración de privacidad virtual es muy importante. Las características que pueden revelar información confidencial deben requerir una aprobación clara e informada con advertencias claras sobre las posibles consecuencias.

En segundo lugar, el diseño de la interfaz de usuario juega un papel decisivo en la protección de la privacidad. Los pasos múltiples pueden, incluso cuando son técnicamente seguros, pueden conducir a errores del usuario con graves consecuencias. Las compañías de inteligencia artificial deben invertir mucho para realizar controles de privacidad privados e intuitivos.

Tercero, las capacidades de respuesta rápida son necesarias. La capacidad de Openai para reflejar el curso de capacitación a las pocas horas del daño más grave a la reputación, pero el accidente aún plantea preguntas sobre el proceso de revisión de sus características.

Cómo las instituciones pueden protegerse de fallar la privacidad de la inteligencia artificial

Dado que la inteligencia artificial se integra cada vez más en los procesos comerciales, los accidentes de privacidad como este se vuelven más dependientes. Los riesgos aumentan dramáticamente cuando las conversaciones abiertas incluyen estrategia para la empresa, datos o información del cliente en lugar de consultas personales sobre mejoras en el hogar.

Las instituciones de pensamiento frontal deben considerar este incidente como una invitación para despertarse para fortalecer el marco de la gobernanza artificial. Esto incluye evaluaciones integrales del efecto de la privacidad antes de publicar nuevas herramientas de IA, establecer políticas claras en la información que se puedan compartir con sistemas de inteligencia artificial y mantener acciones detalladas de aplicaciones de inteligencia artificial en toda la organización.

Debe aprender a hacer la inteligencia artificial más amplia que la OpenAi. Dado que estas herramientas se vuelven más poderosas y dispositivos en todas partes, el margen del error en la protección de la privacidad aún se está reduciendo. Es posible que las empresas que dan prioridad al diseño de la privacidad estudiada desde el principio disfrutan de grandes ventajas competitivas en aquellos que tratan la privacidad como una idea posterior.

El alto costo de la confianza rota en la inteligencia artificial

el El episodio de chatgpt está buscando Explica un hecho básico sobre la adopción de la inteligencia artificial: es difícil reconstruir la confianza, una vez que se rompe, inusualmente. Aunque la respuesta rápida de OpenAI puede contener daños inmediatos, el accidente es un recordatorio de que la falla de la privacidad puede abrumar rápidamente los logros técnicos.

Para un fabricante basado en una promesa de transformar cómo trabajamos y vivimos, mantener la confianza del usuario no es solo algo bueno, es un requisito existencial. Con la continua expansión de las capacidades de la inteligencia artificial, las empresas que tienen éxito son aquellas que demuestran que pueden ser despedidas de responsabilidad y poner la privacidad del usuario y la seguridad en el centro de desarrollar sus productos.

La pregunta ahora es si la industria de inteligencia artificial aprenderá de la última llamada de despertar de privacidad o continuará tropezando con escándalos similares. Porque en la carrera para construir la inteligencia artificial más útil, puede encontrar empresas que olviden proteger a sus usuarios solo que trabajan solos.


Enlace de origen

Publicaciones relacionadas

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Botón volver arriba