Google ha actualizado la política de ética sobre inteligencia artificial, eliminando la promesa de no utilizar la tecnología de IA para el desarrollo y la vigilancia de armas.

De acuerdo con los principios de Google AI que están diseñados ahora Visto en la máquina WaybackLa parte que se llama «La aplicación que no seguiremos». «Recopilar o usar información para la vigilancia»

El martes, la parte que ya no está en el programa Principios de Google AI

La colina llegó a Google para comentar.

En la publicación del blog el martes, el líder de Google de AI, Demis Hassabis y vicepresidente senior de tecnología y sociedad. La experiencia y la experiencia de investigación de la compañía en los últimos años, con el consejo de otras compañías de IA.

«Desde que publicamos nuestro principio de IA por primera vez en 2018, la tecnología se ha desarrollado rápidamente». Internet en sí;

Google dijo en el blog que todavía «Vive continuamente con los principios ampliamente aceptados del derecho internacional y los derechos humanos» y evaluó que los beneficios «¿Existe un riesgo más alto de lo que puede ocurrir?»

Nuevo lenguaje, la política también significa ser una identidad y un riesgo. «Colaboración roja», mientras que la compañía probó la seguridad cibernética por ataque modelo.

La competencia de IA ha aumentado entre las empresas nacionales y extranjeras en los últimos años, porque Google y otras compañías tecnológicas líderes han aumentado la inversión en nuevas tecnologías.

Si bien Washington ha reunido más usos de IA, los responsables políticos han expresado su preocupación de que la tecnología puede usarse como peligrosa cuando está en manos de los malos actores.

El gobierno todavía está tratando de controlar los beneficios del uso, incluso en el ejército.

El Ministerio de Defensa anunció a fines del año pasado.

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí