Únase a boletines diarios y semanales para obtener las últimas actualizaciones y contenido exclusivo para cubrir la inteligencia artificial líder en la industria. Obtenga más información
La IA canadiense AI se lanzó en 2019 dirigida específicamente a la institución, pero la investigación independiente ha demostrado que fue hasta ahora Lucha Para obtener mucha participación de mercado entre los desarrolladores de tercera parte En comparación con los modelos estadounidenses competidores Al igual que Operai y Anthroproy, sin mencionar el surgimiento del código abierto del oponente chino.
Sin embargo, Cohere continúa mejorando sus ofertas: hoy, el Departamento de Investigación de Cohere para AI Anunció la emisión del primer modelo de visión, Aya VisionUn nuevo modelo multimedia de peso abierto que fusiona las capacidades de lenguaje y visión y se caracteriza por el caos en el apoyo de aportes en 23 idiomas diferentes que Cohere dice que en una publicación oficial del blog es «la mitad de la población mundial», lo que lo convierte en una amplia audiencia internacional.
AYA Vision está diseñada para mejorar la capacidad de la inteligencia artificial para interpretar imágenes, generar texto y traducir contenido visual en un lenguaje natural, lo que hace que la multifunción internacional de amnistía sea más fácil y efectiva. Esto será particularmente útil para instituciones e instituciones que trabajan en múltiples mercados de todo el mundo con diferentes preferencias lingüísticas.
Ahora está disponible en el sitio web de Cohere en la web y en símbolos de inteligencia artificial Bordado y Kaggle Bajo un Soporte de comunicación creativa no comercial 4.0 International (CC BY-NC 4.0)Permitiendo que los investigadores y desarrolladores usen, modifiquen y compartan un modelo para fines no comerciales siempre que se brinde el soporte apropiado.
Además, Aya Vision está disponible a través de WhatsAppPermitir que los usuarios interactúen con el formulario directamente en un entorno familiar.
Esto limita su uso de instituciones y como un movimiento de aplicaciones pagas o el flujo de trabajo de ganar dinero, desafortunadamente.
Viene 8 mil millones y 32 mil millones de publicaciones para maestros (Los maestros indican el número de configuraciones internas en el modelo de inteligencia artificial, incluidos sus pesos y prejuicios, con un modelo más poderoso y de rendimiento).
Admite 23 idiomas y cuenta
Aunque el liderazgo de los modelos de inteligencia artificial de sus competidores puede comprender el texto a través de múltiples idiomas, la expansión de esta capacidad a tareas basadas en la visión es un desafío.
Pero AYA Vision supera esto al permitir a los usuarios crear comentarios de fotos, responder preguntas visuales, traducir imágenes y realizar las tareas de idioma basadas en texto en una variedad de idiomas:
1. Idioma inglés
2. French
3. Alemán
4. Español
5. Italiano
6. portugués
7. Japonés
8. Corea
9. Chino
10. Árabe
11. Griego
12. Persa
13. POLUCHO
14. Indonesio
15. Checo
16. Hebreo
17. Indian
18. holandés
19. Rumano
20. Rusio
21. turco
22. ucraniano
23. vietnamita
En la publicación del blog, Cohere mostró cómo AYA Vision está analizando imágenes y texto en paquetes de productos y proporcionando traducciones o interpretaciones. También puede determinar y describir patrones de arte de diferentes culturas, ayudando a los usuarios a identificar cosas y tradiciones a través de la comprensión óptica de la nombre.

Las capacidades de visión de AYA tienen amplios efectos en múltiples áreas:
• Aprender idioma y educación: Los usuarios pueden traducir imágenes y describirlas en varios idiomas, lo que facilita el contenido educativo.
• Preservación de la cultura: El modelo puede generar descripciones detalladas de arte, monumentos y artefactos históricos, y apoyar documentos culturales en los idiomas activos.
• Herramientas de acceso: La inteligencia artística del INS puede ayudar a los usuarios que tienen problemas visuales al proporcionar imágenes detalladas en su madre.
• Comunicación global: La traducción multimedia de tiempo real permite a las organizaciones e individuos comunicarse a través de los idiomas de manera más efectiva.
Fuerte rendimiento y alta eficiencia a través de estándares pioneros
Una de las características destacadas de Aya Vision es su eficiencia y rendimiento en relación con el tamaño del modelo. Aunque es mucho más pequeño que algunos de los principales modelos multimedia, AYA Vision superó a muchas más alternativas en muchos estándares importantes.
• Aya Vision 8B supera a Lama 90b, que es 11 veces más grande.
• AYA Vision 32B supera a Qwen 72b, Llama 90b y Molmo 7b, todos al menos el doble de su tamaño (o más).
• Los resultados estándar aparecen en AyavisionBench y M-WedVision AIA Vision 8B, tasas ganadoras del 79 %, y AYA Vision 32B hasta el 72 % de las tasas ganadoras en las tareas de comprender las imágenes de varios idiomas.
La comparación visual de la eficiencia para el rendimiento destaca la función de visión AYA. Como se muestra en el gráfico de trueque para obtener eficiencia para el rendimiento, AYA Vision 8B y 32B muestra un mejor rendimiento en su clase en relación con el tamaño del maestro, superando los modelos mucho más grandes mientras mantienen la eficiencia matemática.

Innovaciones técnicas que operan la visión AYA
Cohere for AI se debe al desempeño de AYA Vision para muchas innovaciones importantes:
• Ilustraciones sintéticas: El modelo se beneficia de la generación de datos artificiales para mejorar la capacitación en tareas multimedia.
• Simling Datos de lenguaje múltiple: Al traducir y reformular datos a través de idiomas, el modelo adquiere una comprensión más amplia de los contextos de lenguaje múltiple.
• Fusionar la forma multimedia: Las técnicas avanzadas combinan visiones de los modelos de visión y lenguaje, y mejoran el rendimiento general.
Estos desarrollos permiten que AYA Vision procese imágenes y envíe un mensaje de texto con mayor precisión mientras se mantiene fuertes capacidades de lenguaje múltiple.
El esquema de mejora del rendimiento ofrecido paso a paso cómo las innovaciones adicionales, incluido el control artificial (SFT), los modelos y la expansión, contribuyen a altas tasas ganadoras en AYA Vision.

Los efectos de los tomadores de decisiones de la institución
A pesar de la aparente reunión de las necesidades de Aya Vision para la institución, las empresas pueden tener dificultades para beneficiarse mucho debido a las condiciones de licencias comerciales no comerciales.
Sin embargo, los CEO, los CTO, los líderes de TI e investigadores, Amnistía Internacional, pueden usar modelos para explorar capacidades múltiples y multimediadas que AI conduce dentro de sus organizaciones, especialmente en investigación, modelos y estándares preliminares.
Las instituciones aún pueden utilizar la investigación y el desarrollo internos, evaluar la inteligencia artificial de varios idiomas y experimentar aplicaciones multimedia.
Encontrará equipos de CTOS y equipos de visión AYA de valor abierto y altamente eficiente que excede las alternativas mucho más grandes con una solicitud de cálculos más bajos.
Esto lo convierte en una herramienta útil para medir contra modelos reales, explorar las posibles soluciones que AI impulsa y probar interacciones multimedia antes de adherirse a la estrategia de publicación comercial.
Para los científicos de datos e investigadores de inteligencia artificial, AYA Vision es más útil.
Su naturaleza abierta y sus estándares estrictos proporcionan una base transparente para estudiar el comportamiento del modelo, controlar configuraciones no comerciales y contribuir a la apertura de desarrollos inteligentes.
Ya sea que se utilice para la investigación interna, la cooperación académica o las evaluaciones de ética de inteligencia artificial, AYA Vision es un recurso avanzado para las instituciones que esperan permanecer a la vanguardia de las restricciones de los medios internacionales de amnistía en modelos de propiedad cerrados.
Investigación y cooperación de código abierto
AYA Vision es parte de AYA, y es una iniciativa más amplia a través de Cohere que se centra en hacer que la inteligencia artificial y la tecnología relevante sean más lenguaje múltiple.
Desde su establecimiento en febrero de 2024, la Iniciativa AIA ha participado en una comunidad de investigación global de más de 3000 investigadores independientes en 119 países, y trabajó juntos para mejorar los modelos lingüísticos de AI.
Para mejorar su compromiso de abrir la ciencia, Cohere ha lanzado los pesos abiertos de Aya Vision 8B y 32B en la cara de Kagge y desencadenante, asegurando que los investigadores de todo el mundo puedan alcanzar modelos y experimentar modelos. Además, Coher for AI AyavisionBenchmark, un nuevo conjunto de evaluación de lenguaje múltiple diseñado para proporcionar un marco de evaluación estricto para una IA multimedia.
La disponibilidad de la visión AYA como modelo de peso abierto es un paso importante para hacer que la investigación de lenguaje múltiple de la IA sea más integral y accesible.
La visión AYA depende del éxito de Aya Expanse, otra familia LLM de Cohere for AI que se centra en la inteligencia artificial multi -lenguaje. Al expandir su enfoque en la inteligencia multimedia, el coherente para la IA pone la visión de AYA como una herramienta importante para investigadores, desarrolladores y empresas que buscan integrar la inteligencia artificial de lenguaje múltiple en el flujo de trabajo.
A medida que la iniciativa AIA continúa desarrollándose, Cohere for AI también ha anunciado planes para lanzar una nueva investigación cooperativa en las próximas semanas. Investigadores y desarrolladores interesados en contribuir al progreso de la inteligencia artificial de lenguaje múltiple pueden unirse a la comunidad de ciencias abiertas o solicitar subvenciones de investigación.
Actualmente, el lanzamiento de Aya Vision representa un gran salto en la Amnistía Multimbiamental Internacional, proporcionando un rendimiento y una solución abierta que desafía el dominio de los modelos más grandes y cerrados. Al proporcionar estos desarrollos a la comunidad de investigación más amplia, Cohere for AI continúa pagando los límites de lo que es posible en las comunicaciones de lenguaje múltiple que dependen de la inteligencia artificial.
Enlace de origen