¡Google ejecuta Gemini 2.0 Pro y Flash-Lite y conecte el modelo de modelado pensando en YouTube, mapas y búsqueda!

Únase a boletines diarios y semanales para obtener las últimas actualizaciones y contenido exclusivo para cubrir la inteligencia artificial líder en la industria. Obtenga más información


La serie Gemini de Google Models of the Language Language (LLMS) comenzó hace casi un año con algunos incidentes vergonzosos para generar imágenes, pero ha mejorado constantemente, y la compañía parece estar destinada a hacer su segundo esfuerzo: Gemini 2.0, el más grande y mejor hasta ahora para consumidores e instituciones.

Hoy, la empresa Declarar La versión general de Gemini 2.0 Flash, Gemini 2.0 Flash-Lite y una versión experimental de Gemini 2.0 Pro.

Estos modelos, diseñados para apoyar a los desarrolladores y empresas, ahora pueden llegar a Google AI Studio y Vertex AI, con Flash-Lite en la vista previa pública y Pro para pruebas tempranas.

«Todos estos modelos mostrarán entradas multimedia con el texto fuera de la versión, con más métodos listos para la disponibilidad general en los próximos meses», escribió Koray Cavoogooglu, una tecnología principal en Google Deepmind. Anuncio del blog – Muestre una característica que Google trae a la mesa incluso cuando los competidores como Deepseek y OpenAI continúan lanzando competidores fuertes.

Google juega en sus episodios multimedia

Deepseek R1 o el nuevo OpenAI O3-Mini no pueden aceptar entradas multimedia, es decir, imágenes y descargar archivos o archivos adjuntos.

Aunque Deepseek R1 puede aceptarlos en su sitio web y chat de aplicaciones móviles, pero conduce a la tecnología Visual Letters (OCR) de más de 60 años, para extraer el texto solo de estas descargas, sin comprensión o análisis de ninguna de las características de las otras características de las otras características. en él.

Sin embargo, ambos son una nueva categoría de modelos de «pensamiento» que deliberadamente tardan más en pensar en respuestas y piensan en «cadenas de ideas» y la validez de sus respuestas. Esto se opone a los LLM típicos como la serie Gemini 2.0 Pro, por lo que la comparación entre Gemini 2.0, Deepseek R1 y OpenAi O3 es un poco de manzanas con el software.

Pero también hubo algunas noticias en el frente de la mente desde Google: Google Sundar Pichai CEO se ha mudado a la red social X Para anunciar que Google Géminis La aplicación de teléfono móvil iOS y Android se ha actualizado utilizando el modelo Flash Gemini 2.0 de Google Gemini 2.0, y puede ser el modelo conectado a la búsqueda actual de Google, YouTube y Google de Google, lo que permite un nuevo conjunto de AI-AI-AI-AI-Rearch y Las interacciones que pueden ser compatibles con ellos a través de servicios sin servicios como Deepseek y OpenAI.

Lo probé en breve en la aplicación Google Gemini IOS en mi iPhone mientras escribía esta pieza, y fue impresionante en función de mis consultas iniciales, pensando en los denominadores comunes de los 10 mejores videos en YouTube más populares en el último mes y también me proporcionó desde las oficinas de los médicos cercanos y las horas de apertura /cierre, todo en segundos.

Gemini 2.0 Flash entra en la versión general

El Gemini 2.0 Flash, que ya se lanzó como una versión de prueba en diciembre, se preparó para la producción.

Está diseñado para aplicaciones de inteligencia artificial altamente eficientes, proporciona respuestas totales bajas y admite el pensamiento multimedia a gran escala.

Uno de los principales beneficios es la competencia en su ventana de contexto, o el número de símbolos que el usuario puede agregar en forma de reclamo y recibe nuevamente en una reacción con el monitoreo con LLM o la interfaz de programación de aplicaciones.

Mientras que muchos modelos pioneros como el nuevo O3-Mini de OpenAI, que apareció por primera vez en la semana pasada, admiten solo 200,000 o menos que los símbolos distintivos, en el equivalente de una información de 400-500 páginas de la densidad de información de Gemini 2.0 Flash admite un millón, lo que significa que puede lidiar con una amplia cantidad de información, lo que lo hace especialmente útil para tareas de alta frecuencia y materiales amplios.

Gemini 2.0 flash-lite para doblar la curva de costo al nivel más bajo hasta ahora

Gemini 2.0 Flash-Lite, al mismo tiempo, es un modelo de lenguaje nuevo completamente grande destinado a proporcionar una solución de IA efectiva sin perjuicio de calidad.

Google DeepMind afirma que Flash-Lite supera a su predecesor completo (más grande que el parámetro), Gemini 1.5 Flash, en estándares de terceros como MMLU Pro (77.6 % en comparación con 67.3 %) y SQL Bird (57.4 % contra. 45.6 %) , mientras se preserva de los mismos precios y velocidad.

También admite la entrada multimedia y presenta un marco de contexto de un millón de símbolos, similar al modelo de flash completo.

Actualmente, Flash-Lite está disponible en la inspección general a través de Google AI Studio y Vertex AI, con un año esperado en las próximas semanas.

Como se muestra en la tabla a continuación, Gemini 2.0 Flash-Lite tiene un precio de $ 0.075 por millón de código (entrada) y $ 0.30 por millón de símbolos (salida). Flash-Lite se coloca como una opción a precios muy razonables para los desarrolladores, superando a Geini 1.5 en la mayoría de los criterios mientras se mantiene la misma estructura de costos.

Logan Kilpatrick ha resaltado la capacidad de tener costos y el valor de los modelos, diciendo: «Geini 2.0 Flash es el mejor valor para cualquier LLM, ¡es hora de construir!»

De hecho, en comparación con los otros LLM tradicionales disponibles a través de la interfaz de aplicaciones de proveedores, como OPERAI 4O-MINI (0.15 dólares/0.6 dólares por millón de código en/exterior), Claude Al -Bushra (0.8 dólares/4 dólares! Por 1 metro en/exterior), e incluso el tradicional Deepseek LLM V3 ($ 0.14/0.28 dólares), en Gemini 2.0 Winf Flash es la mejor explosión para la p.

Gemini 2.0 Pro alcanza una disponibilidad experimental con una ventana de contexto simbólico 2 millones

Para los usuarios que necesitan capacidades más avanzadas de inteligencia artificial, el modelo Gemini 2.0 Pro (experimental) ahora está disponible.

Google Deepmind describe esto como el modelo más poderoso para el rendimiento del rendimiento y el cumplimiento de las afirmaciones complejas. Se caracteriza por una ventana de 2 millones de personas y capacidades de pensamiento mejoradas, con la capacidad de integrar herramientas externas como la búsqueda de Google y la implementación de instrucciones de software.

Sam Witteveen, co -fundador y CEO de Red Dragon AI y Google Automated Gogle Expert, discutió el modelo Pro en YouTube Review. «El nuevo modelo Gemini 2.0 Pro tiene una ventana de millones de millones, admite herramientas, implementación de código, invitación de trabajo, balanceo con Google Search-Everything que tuvimos en Pro 1.5 pero mejoramos».

También señaló el enfoque de repetición de Google para el desarrollo de la inteligencia artificial: «Una de las principales diferencias en la estrategia de Google es que emite versiones experimentales de modelos antes de llegar a GA (se puede acceder en general), lo que permite una repetición rápida basada en Comentarios «.

Los estándares de rendimiento también muestran las capacidades de la familia Familia Gemini 2.0. Gemini 2.0 Pro, por ejemplo, supera el flash y el flash a través de tareas como pensar, comprensión de lenguaje múltiple y contexto alto.

Seguridad de la inteligencia artificial y desarrollos futuros

Además de estas actualizaciones, Google DeepMind está implementando nuevas medidas de seguridad para los modelos Gemini 2.0. La compañía aprovecha las técnicas de aprendizaje de refuerzo para mejorar la precisión de la respuesta, utilizando inteligencia artificial para criticar y refinar sus propios resultados. Además, se utiliza una prueba de seguridad automática para determinar las debilidades, incluidas las amenazas de inyección indirecta.

En el futuro, Google Deepmind planea expandir las capacidades de la familia Modelo Gemini 2.0, con métodos adicionales que exceden el texto en general en los próximos meses.

A través de estas actualizaciones, Google mejora su promoción para desarrollar inteligencia artificial, ya que ofrece un conjunto de modelos diseñados para la eficiencia, la capacidad de tener costos, resolver problemas avanzados y responder a la subida de Deepseek con un conjunto de sus propios modelos que varían Desde muy fuerte hasta muy fuerte y emocionante muy, muy fuerte y elaborado a precios razonables un poco menos (pero aún en gran medida) a precios razonables.

¿Será esto suficiente para ayudar a Google a comer en parte del mercado empresarial de IA, que alguna vez estuvo dominado por Operai y ahora es por Deepseek? ¡Continuaremos rastreando y enseñándote!

Publicaciones relacionadas

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Botón volver arriba