Únase a boletines diarios y semanales para obtener las últimas actualizaciones y contenido exclusivo para cubrir la inteligencia artificial líder en la industria. Obtenga más información
Tu contexto Presentado Modelo de idioma sobre la base (GLM) hoy, alegando que proporciona la mayor precisión realista en esta industria a través del desempeño del desempeño líder de los sistemas de inteligencia artificial de Googley hombre y Opadai En un estándar importante para la honestidad.
Startup, que fue fundada por pioneros Una generación para la recuperación (Fractura) Tecnología, mencioné que GLM logró una puntuación realista del 88 % en Hechos estándarEn comparación con el 84.6 % para Google’s Géminis 2.0 flash79.4 % para antropología Claude 3.5 Sonata Y 78.8 % para OpenAi’s GPT-4O.
Aunque los modelos de idiomas grandes han transformado los programas de instituciones, la inexactitud realista, que a menudo se llama alucinaciones, sigue siendo un desafío importante para la adopción de negocios. La inteligencia artificial contemporánea tiene como objetivo resolver esto creando un modelo mejorado específicamente para las aplicaciones RAG de la Fundación donde la precisión es de suma importancia.
«Sabíamos que parte de la solución sería una técnica llamada Rag-Jill equipada». «Sabíamos esto porque originalmente un trapo es mi idea. Lo que esta compañía gira es realmente violar de la manera correcta, al siguiente tipo de violación».
El enfoque de la compañía es muy diferente de fines generales como Chatgpt o TirarQue está diseñado para lidiar con todo, desde escritura creativa hasta documentos técnicos. En cambio, la inteligencia artificial se dirige al contexto de las instituciones de alto riesgo como precisión realista excede la flexibilidad creativa.
«Si tiene un problema de trapo y está en la posición de una institución en una industria muy organizada, no tendrá ninguna tolerancia para las alucinaciones», explicó. «El mismo modelo de idioma para fines generales para el departamento de marketing no es lo que desea para preparar la institución donde es más sensible a los errores».

Cómo hacer de la inteligencia artificial «básica» contextual el nuevo estándar de oro para los modelos lingüísticos de la fundación
Concepto «» «base– Garantizar las respuestas de inteligencia artificial a la adherencia a la información proporcionada explícitamente en el contexto, apareció como una condición crucial para los sistemas de IA de la institución.
Kiela presentó un ejemplo de cómo funciona esta fundación estricta: «Si da una receta o fórmula para el modelo de idioma estándar, y en algún lugar, dice:» Pero esto solo es cierto para la mayoría de los casos, «la mayoría de los modelos de idiomas aún le dan la receta sobre la suposición de que es correcto, pero nuestro modelo de idioma dice:» En realidad, dice que esto es cierto para la mayoría de los casos «.
La capacidad de decir «no sé» es una fuerza decisiva para los entornos de la institución. «Realmente es una ventaja muy fuerte, si está considerando esto para preparar la institución», agregó Kela.
Rag 2.0 de inteligencia artificial: una forma más integrada de procesar la información de la empresa
La plataforma de inteligencia artificial contextual se basó en lo que llama.2.0 trapo«Un enfoque que va más allá de vincular ingredientes listos hechos.
«El sistema RAG típico utiliza un modelo congelado fuera del acantilado para la inclusión, una base de datos de recuperación y un modelo de lenguaje negro, cosido a través del marco de RhIF y de sincronización», según la declaración de la compañía. «Esto lleva a» Frankstein’s Monster «de la intrusiva inteligencia artificial: los ingredientes individuales funcionan técnicamente, pero todos son más óptimos».
En cambio, la inteligencia artificial contextual mejora todos los componentes del sistema. «Tenemos este componente de la mezcla de la mezcla, y de hecho es una forma de hacer la recuperación inteligente», explicó. «Mira la pregunta y luego cree, principalmente, como la mayoría de la última generación de modelos, como cree, (y) primero planea una estrategia para recuperar».
Todo este sistema funciona en coordinación con lo que Kiela llama «el mejor rango del mundo», lo que ayuda a dar prioridad a la información más relevante antes de enviarla al modelo de lenguaje fundador.
Más allá del texto normal: la inteligencia artificial ahora lee los planes y se conecta a las bases de datos
Si bien el recientemente anunciado GLM se centra en la generación de textos, la IA contextual ha agregado recientemente soporte para contenido multimedia, incluidos planes, tarifas gráficas y datos organizados como plataformas famosas como Bigqunessy Nevaday Desplazamiento rojo y Post -put.
«El problema más difícil en las instituciones es en la intersección de datos no organizados y estructurados», señaló Kiela. «Lo que siento principalmente es la intersección de datos realmente organizados y desorganizados. La mayoría de los problemas verdaderamente emocionantes en las grandes instituciones son un revuelo en una intersección organizada e irregular, donde tiene algunos registros de bases de datos, algunas transacciones y tal vez algunos documentos de políticas, y tal vez un grupo de otras cosas».
La plataforma ya admite una variedad de percepciones complejas, incluidos los planes de circuitos en la industria de semiconductores, según Kiela.
Planes futuros para la IA sontextual: crear herramientas más confiables para negocios diarios
Planes de inteligencia artificial para que el contexto emita un componente especializado en Ranser después de un corto período del lanzamiento del GLM, seguido de las posibilidades de comprender los documentos ampliados. La compañía también tiene características experimentales para más capacidades de agente en el desarrollo.
Fundado en 2023 por Kiela y Amanbrit SinghQue anteriormente trabajaba en la investigación principal de Meta AI (Fair) y abrazaba la cara, la inteligencia artificial en el contexto aseguró a los clientes, incluidos HSBC, Qualcomm y The Economist. La compañía se coloca como ayudando a las empresas a obtener rendimientos concretos en sus inversiones de inteligencia artificial.
«Esta es realmente una oportunidad para que las empresas puedan estar bajo presión para comenzar a entregar el retorno de la inversión de la inteligencia artificial para comenzar a buscar soluciones más especializadas que ya resuelvan sus problemas», dijo Kela. «De hecho, de hecho, es un modelo de idioma que puede ser un poco aburrido que el modelo de idioma estándar, pero es realmente bueno asegurarse de que se base en el contexto y realmente puede confiar en él en su trabajo».
Enlace de origen