opción
Hogar Noticias Los investigadores desarrollan rival de código abierto al modelo de $ 50 'razonamiento' de OpenAI por menos de $ 50

Los investigadores desarrollan rival de código abierto al modelo de $ 50 'razonamiento' de OpenAI por menos de $ 50

Fecha de lanzamiento Fecha de lanzamiento 21 de abril de 2025
Autor Autor JosephWalker
vistas vistas 30

Los investigadores desarrollan rival de código abierto al modelo de $ 50 'razonamiento' de OpenAI por menos de $ 50

El viernes pasado, un trabajo de investigación innovador de expertos en IA en Stanford y la Universidad de Washington llegaron a la escena, revelando que lograron desarrollar un modelo de "razonamiento" de IA, denominado S1, por menos de $ 50 en créditos de computar en la nube. Esta revelación está sacudiendo el mundo de la IA, ya que S1 se mantiene suyo contra modelos de primer nivel como Openi's O1 y Deepseek's R1 cuando se trata de abordar matemáticas y desafíos de codificación.

El modelo S1, junto con todos los detalles jugosos de sus datos y código de entrenamiento, ahora está en juego en GitHub. El equipo inició las cosas con un modelo de base corriente y luego lo puso a través del escurridor con una técnica llamada destilación. Este proceso implica exprimir el jugo de "razonamiento" de otro modelo de IA entrenando en sus respuestas. En este caso, S1 obtuvo su inteligencia del modelo experimental Gemini 2.0 Flash Thinking de Google. Es una táctica similar a lo que los investigadores de Berkeley usaron para preparar su propio modelo de razonamiento de IA por alrededor de $ 450 el mes pasado.

Para algunos, la idea de que un pequeño equipo de investigadores aún puede hacer olas en el campo de IA sin un presupuesto masivo es emocionante. Pero el surgimiento de S1 también provoca algunas preguntas serias sobre el futuro del desarrollo del modelo de IA. Si un modelo que rivaliza con los construidos con millones puede replicarse en un presupuesto reducido, ¿qué es lo que impide que todos hagan lo mismo?

No es sorprendente que los grandes jugadores de la IA no están encantados. Operai, por ejemplo, tiene dedos señalados a Deepseek, acusándolos de usar sus datos API para combinar la destilación del modelo. Mientras tanto, el equipo S1 se centró en encontrar la forma más directa de lograr un rendimiento de razonamiento sólido y algo llamado "escalado de tiempo de prueba", donde un modelo de IA tiene más tiempo para pensar antes de responder. Estas son las mismas innovaciones que el modelo O1 de OpenAI trajo a la mesa, que otros como Deepseek han tratado de imitar con sus propios métodos.

El documento S1 sugiere que puede destilar modelos de razonamiento con un conjunto de datos relativamente pequeño utilizando una técnica conocida como ajuste fino supervisado (SFT). Esto implica capacitar al modelo AI para copiar comportamientos específicos de un conjunto de datos, y es más barato que el aprendizaje de refuerzo a gran escala que Deepseek utilizó para su modelo R1, que compite con Openi's O1.

Google hace que Gemini 2.0 Flash Thinking Experimental esté disponible de forma gratuita a través de su plataforma Google AI Studio, aunque con límites diarios. Pero hay una captura: los términos de Google no permiten que sus modelos creen servicios competitivos. Estamos esperando recibir noticias de Google en esto.

El modelo S1 en sí comenzó su vida como un modelo AI modesto y listo para usar del laboratorio Qwen de Alibaba, que cualquiera puede descargar de forma gratuita. Para entrenar S1, los investigadores reunieron un conjunto de datos de solo 1,000 preguntas cuidadosamente elegidas, junto con respuestas y el proceso de "pensamiento" detrás de cada uno, cortesía de Gemini 2.0 de Google. Todo el proceso de entrenamiento tomó menos de 30 minutos en 16 GPU H100 NVIDIA. Según Niklas Manennighoff, un investigador de Stanford involucrado en el proyecto, podría lograrlo hoy por alrededor de $ 20 en costos de cómputo.

Los investigadores también lograron un movimiento inteligente para hacer que S1 verifique su trabajo y extienda su tiempo "pensante", simplemente lo dijeron que "esperara". Agregar esta palabra durante el proceso de razonamiento de S1 ayudó a obtener respuestas un poco más precisas, según el documento.

Mirando hacia el futuro hasta 2025, los gigantes tecnológicos como Meta, Google y Microsoft están listos para verter cientos de miles de millones en infraestructura de IA, gran parte de los cuales se destinarán a entrenar la próxima ola de modelos de IA. Si bien la destilación demuestra ser una forma efectiva de recrear capacidades de IA a bajo precio, no conducirá a la creación de modelos de IA nuevos e innovadores en el corto plazo.

Artículo relacionado
Former DeepSeeker and collaborators release new method for training reliable AI agents: RAGEN Former DeepSeeker and collaborators release new method for training reliable AI agents: RAGEN The Year of AI Agents: A Closer Look at 2025's Expectations and Realities2025 was heralded by many experts as the year when AI agents—specialized AI systems powered by advanced large language and multimodal models from companies like OpenAI, Anthropic, Google, and DeepSeek—would finally take center
Google Search Introduces 'AI Mode' for Complex, Multi-Part Queries Google Search Introduces 'AI Mode' for Complex, Multi-Part Queries Google Unveils "AI Mode" in Search to Rival Perplexity AI and ChatGPTGoogle is stepping up its game in the AI arena with the launch of an experimental "AI Mode" feature in its Search engine. Aimed at taking on the likes of Perplexity AI and OpenAI's ChatGPT Search, this new mode was announced on Wed
ChatGPT's Unsolicited Use of User Names Sparks 'Creepy' Concerns Among Some ChatGPT's Unsolicited Use of User Names Sparks 'Creepy' Concerns Among Some Some users of ChatGPT have recently encountered an odd new feature: the chatbot occasionally uses their name while working through problems. This wasn't part of its usual behavior before, and many users report that ChatGPT mentions their names without ever being told what to call them. Opinions on
comentario (0)
0/200
Volver arriba
OR