Character.e Prohibir que los niños interactúen con chatbots

Character.e planea prohibir que los niños interactúen con sus chatbots de IA a partir del próximo mes debido a la forma en que los usuarios jóvenes interactúan con la tecnología.

La compañía, conocida por su amplia gama de personajes de IA, pondrá fin a la posibilidad de que los usuarios menores de 18 años participen en conversaciones «abiertas» antes del 25 de noviembre. Planea comenzar a eliminar el acceso en las próximas semanas, limitando inicialmente a los niños a dos horas de chat por día.

Character.e señaló que planea desarrollar una «experiencia para menores de 18 años» en la que los adolescentes puedan crear videos, historias y transmisiones con sus personajes de IA.

«Estamos realizando estos cambios en nuestra plataforma para menores de 18 años a la luz del panorama cambiante en torno a la IA y los adolescentes», dijo la compañía en una publicación de blog.

La compañía y otros desarrolladores de chatbots han sido objeto de escrutinio recientemente después de varios suicidios de adolescentes relacionados con la tecnología. En noviembre pasado, la madre de Saul Setzer III, de 14 años, demandó a Character, alegando que el chatbot atrajo a su hijo al suicidio.

Openei también enfrenta una demanda de los padres de Adam Ryan, de 16 años, quien se quitó la vida después de interactuar con ChatGPT. Ambas familias testificaron ante un panel del Senado el mes pasado e instaron a los legisladores a tomar medidas drásticas contra los chatbots.

La Comisión Federal de Comercio también lanzó una investigación sobre los chatbots de IA en septiembre, solicitando información a Character.dot, Openai y varias otras empresas tecnológicas líderes.

«Después de revisar estos informes y los comentarios de los reguladores, expertos en seguridad y padres, hemos decidido hacer este cambio para crear una nueva experiencia para nuestra comunidad menor de 18 años», dijo Character.com el miércoles.

«Se trata de medidas inusuales para nuestra empresa y, en muchos casos, más conservadoras que las de nuestros pares», añadió. «Pero creemos que son lo correcto».

Además de limitar el acceso de los niños a sus chatbots, Character.i también planea desarrollar una nueva tecnología de control de edad y establecer y financiar una nueva organización sin fines de lucro llamada AI Safety Lab.

En medio de las crecientes preocupaciones sobre los chatbots, un grupo bipartidista de senadores presentó el martes una legislación que bloquearía los acompañantes de IA para los niños.

Ley de Sens

El gobernador de California, Gavin Newsom (D), firmó una medida similar a fines del mes pasado, exigiendo a los desarrolladores de chatbots en el Estado Dorado que impidan que sus modelos produzcan contenido sobre suicidio o autolesiones y que dirijan a los usuarios a servicios de crisis si es necesario.

Se negó a aprobar una medida draconiana que habría impedido a los desarrolladores poner chatbots a disposición de los niños a menos que pudieran asegurarse de que no entablarían conversaciones dañinas con los niños.

Enlace de origen

Publicaciones relacionadas

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Botón volver arriba