Reino Unido prohibirá las aplicaciones de ‘nudificación’ de IA deepfake

Liv Mc Mahonreportero de tecnología
Imágenes falsasEl gobierno del Reino Unido ha dicho que prohibirá las llamadas prácticas de «nudificación» como parte de los esfuerzos para combatir la misoginia en línea.
Las nuevas leyes se anunciaron el jueves como parte de un proyecto. Una estrategia más amplia para reducir a la mitad la violencia contra las mujeres y las niñas – Se declarará ilegal crear y proporcionar herramientas de inteligencia artificial que permitan a los usuarios editar imágenes para aparentemente quitarle la ropa a alguien.
El gobierno dijo que los nuevos delitos se basarían en las normas existentes sobre deepfakes sexualmente explícitos y explotación de imágenes íntimas.
“Las mujeres y las niñas merecen estar seguras tanto en línea como fuera de línea”, afirmó la ministra de Tecnología, Liz Kendall.
«No nos quedaremos quietos mientras la tecnología se utiliza como arma para explotar, degradar y explotar a las personas mediante la creación de deepfakes obscenos y no consensuados».
Crear imágenes explícitas deepfake de alguien sin su consentimiento ya es un delito según la Ley de Seguridad en Línea.
Kendall dijo que el nuevo delito, que convierte en ilegal la creación o distribución de aplicaciones de desnudez, significaría que «aquellos que se beneficien de ellas o permitan su uso sentirán toda la fuerza de la ley».
Las aplicaciones para desnudar o “desvestir” utilizan IA generativa para hacer que una persona aparezca de manera realista en una imagen o video como si le hubieran quitado la ropa.
Los expertos advirtieron sobre esto. El auge de este tipo de aplicaciones y la posibilidad de que las imágenes de desnudos falsas causen daños graves a las víctimas, especialmente cuando se utilizan para crear material de abuso sexual infantil (CSAM).
La comisionada de la Infancia del Reino Unido, Dame Rachel de Souza, en abril pidió una prohibición total de las prácticas de nudificación.
«El acto de crear una imagen así es absolutamente ilegal; la tecnología que la permite también debería ser ilegal». dijo en un informe.
El gobierno dijo el jueves que «unirá fuerzas con empresas de tecnología» para desarrollar métodos para combatir el abuso de la imagen privada.
Esto incluirá continuar trabajando con la firma británica de tecnología de seguridad SafeToNet, dijo.
La empresa británica ha desarrollado un software de inteligencia artificial que, según afirma, puede identificar y bloquear contenido sexual, así como bloquear cámaras cuando detecta que se está capturando contenido sexual.
Este tipo de tecnología se basa en filtros existentes implementados por plataformas como Meta para detectar y señalar posibles desnudos en las imágenes, a menudo con el objetivo de evitar que los niños tomen o compartan fotografías íntimas de ellos mismos.
‘No hay razón para existir’
Los planes para prohibir las aplicaciones de nudismo surgen tras llamados anteriores de organizaciones benéficas de protección infantil para que el gobierno tome medidas enérgicas contra esta tecnología.
La Internet Watch Foundation (IWF), cuya línea directa Report Takedown permite a personas menores de 18 años informar de forma confidencial imágenes sexualmente explícitas de ellos mismos en línea, dijo que el 19% de los reporteros aprobados dijeron que algunas o todas sus imágenes habían sido manipuladas.
El director general de la empresa, Kerry Smith, acogió con satisfacción las medidas.
«También nos complace ver pasos concretos hacia la prohibición de estas prácticas llamadas de nudificación, que no tienen ninguna razón para existir como producto», afirmó.
«Aplicaciones como esta exponen a niños reales a un riesgo aún mayor de sufrir daños, y estamos viendo que las imágenes producidas terminan en algunos de los rincones más oscuros de Internet».
Pero aunque la organización benéfica para niños NSPCC acogió con agrado la noticia, la directora de estrategia, la Dra. Maria Neophytou, dijo que estaba «decepcionada» al no ver una «pasión» similar por introducir protecciones obligatorias a nivel de dispositivo.
La organización benéfica se encuentra entre las organizaciones que piden al gobierno que garantice que las empresas de tecnología encuentren formas más fáciles de evitar que el CSAM sea detectado y difundido en servicios como los mensajes privados.
Hará «imposible» que los niños tomen, compartan o vean una imagen de desnudos en sus teléfonos, dijo el gobierno el jueves.
También está intentando prohibir las herramientas de inteligencia artificial. Diseñado para crear o implementar CSAM.





