Las reacciones iniciales a los modelos GPT -SS de código abierto son muy variadas y mixtas

¿Quieres visiones más inteligentes de tu bandeja de entrada? Suscríbase a nuestros boletines semanales para obtener lo que se refiere solo a la IA de las instituciones, los líderes de datos y seguridad. Suscríbete ahora
El regreso de OpenAi desde hace mucho tiempo para «abrir» el mismo nombre ayer con el lanzamiento de dos nuevos idiomas grandes (LLM): GPT -SS -120B y GPT -SS -20B.
Pero a pesar del logro de los estándares técnicos por igual con las ofertas de otro poderoso modelo de inteligencia artificial en OpenAI, el desarrollador de inteligencia artificial más amplio y la comunidad de los usuarios La respuesta ha sido hasta ahora en todo el mapa. Si esta versión es una película que se mostró por primera vez y se clasifica en tomates mimados, analizaremos la división de aproximadamente el 50 %, según mis notas.
Primero, algunos antecedentes: Openai ha lanzado estos dos dos modelos nuevos (sin generar fotos o análisis) Ambos están bajo la licencia Permisible Apache 2.0 – La primera vez desde 2019 (antes de chatgpt) La compañía ha hecho esto con un modelo de lenguaje sofisticado.
el La era de todo el chatgpt de los últimos 2.7 años ha sido respaldada por modelos de propiedad o de código cerradoAquellos controlados por OpenAI que los usuarios tuvieron que pagar para alcanzar (o usar una capa librada), con una asignación limitada y no hay forma de ejecutarla en modo no comunicación o en dispositivos informáticos especiales.
La inteligencia artificial limita sus límites
Los límites de potencia, los altos costos del símbolo y el retraso de inferencia se remodelan. Únase a nuestro salón exclusivo para descubrir cómo la gran diferencia:
- Transformar la energía en una ventaja estratégica
- Enseñar un razonamiento efectivo para ganancias de productividad real
- Abrir el retorno de la inversión competitiva con sistemas de inteligencia artificial sostenibles
Asegurando su lugar para permanecer en primer plano: https://bit.ly/4mwngngo
Pero todo esto cambió gracias a la versión de un par de GPT-SS ayer, que es más grande y más potente de usar en la unidad de procesamiento de gráficos NVIDIA H100, por ejemplo, que es un centro de datos pequeño o mediano o un servidor, y el tamaño más pequeño que funciona en una computadora portátil para el consumidor o escritorio como el tipo en su hogar.
Por supuesto, los modelos son muy nuevos, lo que tarda varias horas para que la comunidad de usuarios de energía de inteligencia artificial los opere y los pruebe de forma independiente sobre sus estándares individuales (mediciones) y tareas.
y Ahora tenemos una ola de comentarios que van desde el entusiasmo optimista Sobre las capacidades de estos modelos fuertes, libres y efectivos Ocultar a la insatisfacción y consternar lo que algunos usuarios ven problemas y restricciones importantesEspecialmente en comparación con la onda Apache 2.0 similar Un fuerte código abierto, Multimedia LLMS de startups chinas (Que también se puede tomar, personalizar u operar localmente en dispositivos estadounidenses de forma gratuita por compañías o empresas estadounidenses en otros lugares del mundo).
Altos estándares, pero aún detrás de los líderes de origen chino
Los estándares de inteligencia ponen los modelos GPT -SS antes de que la mayoría de las ofertas de código abierto estadounidense. Según un tercero independiente Amnistía Organización Internacional AI Análisis artificial,, GPT-SS-20B es «el modelo de peso abierto más inteligente», aunque es Todavía es menor que los pesos chinos como Deepseek R1 y Qwen3 235b.
«Al pensar, eso es todo lo que hicieron. Fue anulado en los estándares,» Dibsic «Stan» escribió el auto -publicidad «Stan». Teortaxestex. «Los buenos modelos derivados no serán capacitados … no se ha creado una nueva movilización … una demanda límite de los derechos de alardear».
Estas dudas se repiten por el código abierto de un seudónimo Investigador de inteligencia artificial Teknium (@Teknium1)El co -fundador de la AI de código abierto Nous búsquedade Llamó al tema «Nada no es una hamburguesa», en X, y esperaba que el modelo chino fuera pronto. Escribieron: «En general, con gran decepción, y he abierto legalmente para esto».
¿El banco sobre matemáticas y codificación a expensas de la escritura?
Otra crítica centrada en Un beneficio limitado claro para GPT-SS.
Fui afectadoBoca súper oral (@Scaling01)«Noté que los modelos se destacan en matemáticas y codificación, pero» carecen por completo de sabor y sentido. «Agregó:» ¿Entonces es solo un modelo de matemáticas? «
En las pruebas de escritura creativa, algunos usuarios encontraron ecuaciones para inyectar el modelo en salidas poéticas. «Esto es lo que sucede cuando consolidas», Aviso de TechniumComparta la captura de pantalla donde el modelo agregó formato medio medio.
y ChalamazeInvestigador de la compañía de capacitación descentralizada de la IA Pensamiento principalEscribió que «GPT -SS -120B sabe menos que el mundo que el buen 32B. Tal vez quería evitar problemas de derechos de autor, por lo que pueden haber incluido la mayoría.
Googler anterior y desarrollador de inteligencia artificial independiente Kyle Corbett estuvo de acuerdo en que los modelos GPT -SS parecían Fue entrenado principalmente en datos artificiales, es decir, los datos creados por el modelo de inteligencia artificial específicamente para un nuevo fin de entrenamiento, lo que lo hace «muy espinoso».
Corbitt escribió: «Es genial en las tareas que han sido entrenadas, muy malas en todo lo demás». Maravilloso en problemas de codificación y matemáticas, y mal en tareas lingüísticas como la escritura creativa o la generación de informes.
En otras palabras, la acusación es que OpenAI ha capacitado deliberadamente el modelo en datos más crecientes que los hechos reales del mundo y los números para evitar el uso de datos de derechos de autor que se han incorporado a los sitios web y otros almacenes que no tienen o tienen una licencia para usar, lo que ha sido acusado de muchas compañías de Gen AI líderes en el pasado y las leyes continuas continuas.
Otros pueden haber capacitado al modelo en datos artificiales principalmente en Evite los problemas de seguridad y seguridadLo que condujo a una peor calidad que si fuera entrenado en datos más realistas (y se supone que está protegido por derechos de autor).
Con respecto a los resultados estándar de una parte externa
Además, la evaluación de los modelos apareció en la prueba de medición de un cuerpo externo en estándares a los ojos de algunos usuarios.
Discurso: que mide el rendimiento de LLMS en cumplimiento de los usuarios de los usuarios para crear resultados sin procesar, sesgados o políticamente sensibles – El cumplimiento de GPT -SS 120B mostró menos del 40 %para Cerca de los modelos inferiores de la contraparte, Esto indica resistencia al seguimiento de las solicitudes del usuario y la desaparición en los pasamanos, y tal vez a expensas de proporcionar información precisa.
en Evaluación de ayuda de políglotapara GPT -SS-120B 41.8 %en el pensamiento de varios idiomas-VAR es menos competidores como Kimi-K2 (59.1 %) y Deepseek-R1 (56.9 %).
Algunos usuarios también dijeron que sus pruebas indican que el modelo Es extraño generar críticas a China o Rusia, En contraste con su tratamiento de los Estados Unidos y la Unión Europea, planteando preguntas sobre el sesgo y la liquidación de datos de capacitación.
Otros expertos aplauden el lanzamiento y a lo que se refiere a
Para ser justos, no todos los comentarios son negativos. Software y cierre de un observador de inteligencia artificial Simon Willeson describió una versión «realmente impresionante» En x, detalle En una publicación de blog en La eficiencia de los modelos y su capacidad para lograr la paridad con los modelos Operai para O3-Mini y O4-Mini.
Elogió su fuerte desempeño sobre los estándares lógicos y secundarios, y elogió la coordinación de la nueva plantilla de «armonía», que proporciona a los desarrolladores términos más organizados para dirigir respuestas del modelo y apoyar el uso de la herramienta de terceros como contribuciones significativas.
en X post prolongadoCLEM DAANGER, CEO y co -fundador de la participación del símbolo de la inteligencia artificial y la comunidad de código abierto BordadoAlientan a los usuarios a no apresurarse a la decisión, señalando que inferir estos modelos es complicado, y los primeros problemas pueden deberse a la inestabilidad de la infraestructura y la mejora insuficiente entre los hosts.
«El poder del código abierto es que no hay fraude», escribió Delangue. «Revelaremos todas las fortalezas y restricciones … gradualmente».
Era más cauteloso y Erton College of Business en la Universidad de Pensilvania, profesor Ethan Malik, Quien escribió en x Estados Unidos ahora puede tener los principales modelos de peso abierto (o cerca), pero me preguntaba si esto fue una vez de OpenAI. «La introducción se evaporará rápidamente mientras atrapa a otros», Señaló que no está claro cuáles son los incentivos para mantener la actualización de los modelos.
Nathan Lambert, pionero en Amnistía Internacional en el Laboratorio de Competencia de Open Source Instituto Internacional de Amnistía (AI2) Y el comentarista, Elogió la importancia simbólica de la versión en su blog intermediarioY invitarla «Un gran paso para el ecosistema abierto, especialmente para Occidente y sus aliados, La marca más famosa en el espacio de inteligencia artificial ha regresado para lanzar modelos públicamente. »
Pero Tenga cuidado con x que gpt -ss Él es «Es poco probable que disminuya la velocidad (el equipo de IA gigante en el comercio electrónico chino) Qwen», Citado de su capacidad para usar, realizar y diversidad.
Dijo que el lanzamiento representa un cambio importante en los Estados Unidos hacia los modelos abiertos, pero OpenAi todavía tiene un «camino largo» para ponerse al día con la práctica.
Dividido
El fallo, en la actualidad, está dividido.
Los modelos Operai GPT -SS son un permiso de licencia y fácil acceso.
Pero si bien los criterios parecen sólidos, los «sentimientos» en el mundo real, como muchos usuarios describen, se convierten en menos convincentes.
Ya sea que los desarrolladores puedan construir aplicaciones y derivados fuertes a la cabeza de GPT-SS, determinará si la versión se recuerda como una penetración o como un agujero.
Enlace de origen