Los barcos humanitarios son revisiones automáticas de seguridad para el código Claud como el aumento de las debilidades creadas a partir de la inteligencia artificial

¿Quieres visiones más inteligentes de tu bandeja de entrada? Suscríbase a nuestros boletines semanales para obtener lo que se refiere solo a la IA de las instituciones, los líderes de datos y seguridad. Suscríbete ahora


hombre Disparo Revisión de seguridad de introducción Sus capacidades Icono de Claude La plataforma el miércoles, proporcionando herramientas que pueden examinar las instrucciones de software para competiciones débiles y sugiere que las reformas como inteligencia artificial aceleran en gran medida el desarrollo de software en toda la industria.

el Nuevas características Las empresas están llegando cada vez más a la inteligencia artificial para escribir un código más rápido que nunca, lo que plantea preguntas críticas sobre si las prácticas de seguridad pueden mantener el ritmo de la IA. La solución antarbur combina un análisis de seguridad directamente en el funcionamiento de los desarrolladores a través de simple Periférico Automático Revisiones de Jaithb.

«A la gente le encanta el código de Claude, y les gusta usar modelos para escribir código, y estos modelos ya están bien y mejorados», dijo Logan Graham, miembro del equipo de Red Border en el Antarbur que dirigió el desarrollo de características de seguridad, en una entrevista con VentureBeat. «Parece realmente posible que en los próximos dos años vayamos a 10x, 100x, 1000x la cantidad de código que se escribe en el mundo. La única forma de mantenerse al día es usar las mismas formas para aprender cómo hacer que sean seguros».

Este anuncio llega solo un día de Anthropor lanzado a Claude Obus 4.1, una versión promovida del modelo de inteligencia artificial más poderoso que muestra grandes mejoras en las tareas de codificación. El tiempo enfatiza la competencia intensiva entre las compañías de inteligencia artificial, con Se espera que se anuncie Operai GPT-5 Con placer e invitados fuertes Talento para pesca en el mundo Con bonos de firma por valor de $ 100 millones.


La inteligencia artificial limita sus límites

Los límites de potencia, los altos costos del símbolo y el retraso de inferencia se remodelan. Únase a nuestro salón exclusivo para descubrir cómo la gran diferencia:

  • Transformar la energía en una ventaja estratégica
  • Enseñar un razonamiento efectivo para ganancias de productividad real
  • Abrir el retorno de la inversión competitiva con sistemas de inteligencia artificial sostenibles

Asegurando su lugar para permanecer en primer plano: https://bit.ly/4mwngngo


¿Por qué el símbolo de la inteligencia artificial crea un gran problema de seguridad?

Las herramientas de seguridad tratan el creciente interés en la industria del software: dado que los modelos de inteligencia artificial se vuelven más capaces de escribir instrucciones de software, el tamaño del código que se produce es la explosión, pero las revisiones de seguridad tradicionales no han sido limitadas. Actualmente, las revisiones de seguridad dependen de los ingenieros humanos que estudian manualmente un código para las brechas de seguridad, un proceso que no puede seguir el ritmo de la dirección creada por la inteligencia artificial.

El enfoque antropístico utiliza inteligencia artificial para resolver el problema creado. La compañía ha desarrollado dos herramientas complementarias que se benefician de las capacidades de Claude para determinar automáticamente las vulnerabilidades, incluidos los riesgos de inyección SQL, los puntos de programación de texto, los defectos de la autenticación y el procesamiento de datos inseguros.

el La primera herramienta él /security-review Qué desarrolladores pueden correr desde su estación para limpiar el símbolo antes de cometerlo. «Es literalmente 10 de las huelgas clave, luego llevará al nombramiento del agente de Claude para revisar el código que escribe o su almacén», explicó Graham. El sistema analiza el código y las evaluaciones de vulnerabilidad de seguridad de alta confianza se deben a las reformas propuestas.

el El segundo componente él Jetb Esto realiza automáticamente revisiones de seguridad cuando los desarrolladores presentan solicitudes de retiro. El sistema publica comentarios garantizados en el código con preocupaciones y recomendaciones de seguridad, asegurando cada cambio de un símbolo que reciba una revisión básica de seguridad antes de alcanzar la producción.

¿Cómo el Anthropier probó el escáner de seguridad de su símbolo débil?

Anthrop fue probado después de estas herramientas internamente en su código, incluido Icono de Claude En sí mismo proporciona la realización de la salud del mundo real a partir de su efectividad. La compañía compartió ejemplos específicos de las debilidades descubiertas por el sistema antes de alcanzar la producción.

En un caso, los ingenieros crearon una ventaja de una herramienta interna que inició un servidor HTTP local dedicado solo a comunicaciones locales. el Jetb La vulnerabilidad de seguridad ejecutable está determinada por la implementación remota del código a través de ataques DNS, que se repararon antes de combinar el código.

Otro ejemplo incluyó un sistema de diseñador diseñado para administrar datos de acreditación interna de manera segura. La marca de revisión automática se colocó en el hecho de que el agente era vulnerable Ataques de falsificación SSRF (SSRF)Que conduce a la reparación inmediata.

«Solíamos usarlo, y en realidad encontró debilidades y defectos y sugirió cómo arreglarlas en las cosas antes de que alcanzaran la producción para nosotros», dijo Graham. «Pensamos, oye, esto es tan útil que decidimos emitirlo públicamente».

Además de enfrentar los desafíos de escala que enfrentan las grandes empresas, las herramientas pueden dar prácticas de seguridad avanzadas para los equipos de desarrollo más pequeños que carecen del personal de seguridad dedicado.

«Una de las cosas que me entusiasma más es que esto significa que la revisión de seguridad puede ser fácilmente democrática incluso con los equipos más pequeños, y estos pequeños equipos pueden pagar mucho código que tendrá cada vez más fe», dijo Graham.

El sistema está diseñado para estar disponible de inmediato. Según Graham, los desarrolladores pueden comenzar a usar la función de revisión de seguridad en los segundos de la versión, lo que requiere el lanzamiento de aproximadamente 15 clave. Las herramientas están integradas sin problemas con el flujo de trabajo actual, y el código de procesamiento procesa localmente a través de la misma interfaz de programación de aplicaciones Claude que opera otras características de iconos de clado.

Dentro de la estructura de inteligencia artificial que limpia millones de líneas de código

El sistema de revisión de seguridad funciona llamando a Claud a través del «bucle de agente» que analiza sistemáticamente el código. Según el antropólogo, Icono de Claude Las llamadas de herramientas se utilizan para explorar las reglas de grandes símbolos, comenzando con la comprensión de los cambios realizados al solicitar el retiro y luego explorar una base de código más amplia de una manera proactiva para comprender el contexto, estabilizar la seguridad y los riesgos potenciales.

Los clientes institucionales pueden asignar reglas de seguridad para que coincidan con sus políticas específicas. El sistema se basa en el código de Clauds de extensión, lo que permite a los equipos ajustar las reclamaciones de seguridad actuales o crear pedidos de limpieza completamente nuevos a través de documentos de descuento simples.

«Puedes mirar las órdenes de Slash, porque las órdenes de Slash a menudo se activan, de hecho, solo Claude.md Doc», dejó claro. «Es realmente fácil para ti escribirte tú mismo también».

$ 100 millones de guerra de talentos para remodelar el desarrollo de la seguridad de la inteligencia artificial

La declaración de seguridad se produce en medio de la cuenta de la industria más amplia de la integridad de la inteligencia artificial y la publicación responsable. La investigación moderna del hombre ha explorado técnicas para evitar que los modelos de inteligencia artificial desarrollen comportamientos dañinos, incluido el controvertido enfoque de «vacunación» que muestra modelos para características no deseadas durante la capacitación para construir flexibilidad.

El momento también refleja la intensa competencia en el área de la inteligencia artificial. Antarbur ha sido lanzado Trabajo cerrado 4.1 El martes, con las exigentes mejoras significativas de la compañía en tareas de ingeniería de software más del 74.5 % en SWE, en comparación con el 72.5 % del modelo anterior de Claude Obus.

Mientras tanto, Meta se empleó fuertemente con los talentos de la inteligencia artificial con enormes bonos de firma, aunque el CEO del antropólogo Dario Amodei declaró recientemente esto. Muchos de sus empleados rechazaron estas ofertas. La compañía mantiene Tasa de retención de empleados del 80 % Se ha empleado en los últimos dos años, en comparación con el 67 % en OpenAI y el 64 % en Meta.

Las agencias gubernamentales ahora pueden comprar Claude ya que la acreditación de AI se acelera

Las características de seguridad son parte de la propulsión más amplia de la antropología en el mercado de los mercados. En el transcurso del mes pasado, la compañía ha enviado múltiples características que se centran en las instituciones para el código de clado, incluidas las tablas de información de análisis para funcionarios, soporte original de Windows y soporte de manigiosidad múltiple.

El gobierno de los Estados Unidos también apoyó los datos de acreditación de la institución, agregando la empresa al departamento de servicios públicos Lista de vendedores acreditados Además de Openai y Google, lo que hace que Claude esté disponible para las compras de la agencia federal.

Graham confirmó que las herramientas de seguridad están diseñadas para completar las prácticas de seguridad actuales, no reemplazarlas. «Ninguno resolverá el problema. Esta es solo una herramienta adicional», dijo. Sin embargo, ha expresado su confianza en que las herramientas de seguridad de actuación desempeñarán un papel cada vez más central a medida que el código genera.

La carrera para asegurar programas creados a partir de inteligencia artificial antes de romper Internet

Dado que Amnistía Internacional se convierte en un ritmo sin precedentes, la Iniciativa de Seguridad Humana es un reconocimiento importante de que la misma tecnología que lidera el crecimiento explosivo en la generación del código debe aprovecharse para mantener este símbolo de manera segura. El equipo de Graham, que se llama Frontier Red Team, se está centrando en los riesgos potenciales de las capacidades avanzadas de inteligencia artificial y la creación de defensas apropiadas.

«Siempre hemos estado muy comprometidos con medir las capacidades de ciberseguridad de los modelos, y creo que es hora de que las defensas estén cada vez más en el mundo», dijo Graham. En particular, la compañía alienta a los investigadores de ciberseguridad e investigadores independientes a experimentar las aplicaciones creativas de la tecnología, con el objetivo de una ambición de usar inteligencia artificial «revise, corregir o hacer todos los programas más importantes que operan la infraestructura del mundo».

Las funciones de seguridad están disponibles de inmediato para todos Icono de Claude Usuarios, con una composición única requiere una vez para los equipos de desarrollo. Pero la pregunta más importante que se avecina en el horizonte en la industria sigue siendo: ¿puede las defensas de la acción fuera de la manera lo suficiente como para igualar el crecimiento de SI en las debilidades que genera inteligencia artificial?

En la actualidad, al menos, las máquinas están corriendo para arreglar otras máquinas que puede romper.


Enlace de origen

Publicaciones relacionadas

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Botón volver arriba