Ai2 presenta un modelo de IA compacto que supera a los rivales de Google y Meta

Los modelos de IA pequeños están causando sensación esta semana.
El jueves, Ai2, un grupo de investigación de IA sin fines de lucro, lanzó Olmo 2 1B, un modelo de 1 mil millones de parámetros que supera a modelos de tamaño similar de Google, Meta y Alibaba en múltiples puntos de referencia. Los parámetros, a menudo llamados pesos, son los elementos internos que determinan el rendimiento de un modelo.
Olmo 2 1B está disponible gratuitamente bajo una licencia Apache 2.0 en Hugging Face, una plataforma para desarrolladores de IA. A diferencia de la mayoría de los modelos, puede ser completamente recreado, ya que Ai2 comparte el código y los conjuntos de datos (Olmo-mix-1124, Dolmino-mix-1124) utilizados en su desarrollo.
Aunque los modelos más pequeños pueden carecer de la potencia de los más grandes, no requieren hardware de alta gama, lo que los hace ideales para desarrolladores y aficionados que usan laptops estándar o dispositivos de consumo.
En los últimos días ha habido un aumento en los lanzamientos de modelos pequeños, desde la familia de razonamiento Phi 4 de Microsoft hasta Qwen 2.5 Omni 3B. La mayoría, incluido Olmo 2 1B, puede funcionar sin problemas en laptops modernas o incluso en dispositivos móviles.
Ai2 señala que Olmo 2 1B fue entrenado con 4 billones de tokens de fuentes públicas, generadas por IA y seleccionadas. Un millón de tokens equivale aproximadamente a 750,000 palabras.
En pruebas de razonamiento aritmético como GSM8K, Olmo 2 1B supera a Gemma 3 1B de Google, Llama 3.2 1B de Meta y Qwen 2.5 1.5B de Alibaba. También destaca en TruthfulQA, un punto de referencia para la precisión factual.
Exhibición en TechCrunch Sessions: AI
Reclama tu espacio en TC Sessions: AI para presentar tu trabajo a más de 1,200 tomadores de decisiones sin gastar una fortuna. Disponible hasta el 9 de mayo o mientras haya plazas.
Exhibición en TechCrunch Sessions: AI
Reclama tu espacio en TC Sessions: AI para presentar tu trabajo a más de 1,200 tomadores de decisiones sin gastar una fortuna. Disponible hasta el 9 de mayo o mientras haya plazas.
Berkeley, CA | 5 de junio
RESERVA AHORA
Este modelo fue preentrenado con 4 billones de tokens de datos de alta calidad, siguiendo el mismo estándar de preentrenamiento en recocido de alta calidad de nuestros modelos de 7, 13 y 32B. Subimos puntos de control intermedios cada 1000 pasos en el entrenamiento.
Accede al modelo base: https://t.co/xofyWJmo85 pic.twitter.com/7uSJ6sYMdL
— Ai2 (@allen_ai) 1 de mayo de 2025
Ai2 advierte que Olmo 2 1B tiene riesgos. Como todos los modelos de IA, puede generar resultados problemáticos, incluidos contenidos dañinos o sensibles e información inexacta. Ai2 desaconseja su uso en aplicaciones comerciales.
Artículo relacionado
¿Qué hay dentro del LLM? Ai2 Olmotrace 'rastreará' la fuente
Comprender la conexión entre la salida de un modelo de lenguaje grande (LLM) y sus datos de entrenamiento siempre ha sido un poco rompecabezas para Enterprise IT. Esta semana, el Allen Institute for AI (AI2) lanzó una nueva y emocionante iniciativa de código abierto llamada Olmotrace, que tiene como objetivo desmitificar este relati
IA para desbloquear nuevos descubrimientos en 2026, dice el CEO de OpenAI
En un ensayo reciente titulado "La Singularidad Suave," publicado el martes, el CEO de OpenAI, Sam Altman, delineó su visión sobre el impacto transformador de la IA en la humanidad durante los próximo
El ascenso de Trump: Cómo los expertos políticos subestimaron su presidencia
En política, los pronósticos a menudo fallan. Expertos, analistas y comentaristas predicen resultados electorales y tendencias políticas, pero la historia muestra sus errores, especialmente con el asc
comentario (0)
0/200
Los modelos de IA pequeños están causando sensación esta semana.
El jueves, Ai2, un grupo de investigación de IA sin fines de lucro, lanzó Olmo 2 1B, un modelo de 1 mil millones de parámetros que supera a modelos de tamaño similar de Google, Meta y Alibaba en múltiples puntos de referencia. Los parámetros, a menudo llamados pesos, son los elementos internos que determinan el rendimiento de un modelo.
Olmo 2 1B está disponible gratuitamente bajo una licencia Apache 2.0 en Hugging Face, una plataforma para desarrolladores de IA. A diferencia de la mayoría de los modelos, puede ser completamente recreado, ya que Ai2 comparte el código y los conjuntos de datos (Olmo-mix-1124, Dolmino-mix-1124) utilizados en su desarrollo.
Aunque los modelos más pequeños pueden carecer de la potencia de los más grandes, no requieren hardware de alta gama, lo que los hace ideales para desarrolladores y aficionados que usan laptops estándar o dispositivos de consumo.
En los últimos días ha habido un aumento en los lanzamientos de modelos pequeños, desde la familia de razonamiento Phi 4 de Microsoft hasta Qwen 2.5 Omni 3B. La mayoría, incluido Olmo 2 1B, puede funcionar sin problemas en laptops modernas o incluso en dispositivos móviles.
Ai2 señala que Olmo 2 1B fue entrenado con 4 billones de tokens de fuentes públicas, generadas por IA y seleccionadas. Un millón de tokens equivale aproximadamente a 750,000 palabras.
En pruebas de razonamiento aritmético como GSM8K, Olmo 2 1B supera a Gemma 3 1B de Google, Llama 3.2 1B de Meta y Qwen 2.5 1.5B de Alibaba. También destaca en TruthfulQA, un punto de referencia para la precisión factual.
Exhibición en TechCrunch Sessions: AI
Reclama tu espacio en TC Sessions: AI para presentar tu trabajo a más de 1,200 tomadores de decisiones sin gastar una fortuna. Disponible hasta el 9 de mayo o mientras haya plazas.
Exhibición en TechCrunch Sessions: AI
Reclama tu espacio en TC Sessions: AI para presentar tu trabajo a más de 1,200 tomadores de decisiones sin gastar una fortuna. Disponible hasta el 9 de mayo o mientras haya plazas.
Berkeley, CA | 5 de junio RESERVA AHORAEste modelo fue preentrenado con 4 billones de tokens de datos de alta calidad, siguiendo el mismo estándar de preentrenamiento en recocido de alta calidad de nuestros modelos de 7, 13 y 32B. Subimos puntos de control intermedios cada 1000 pasos en el entrenamiento.
— Ai2 (@allen_ai) 1 de mayo de 2025
Accede al modelo base: https://t.co/xofyWJmo85 pic.twitter.com/7uSJ6sYMdL
Ai2 advierte que Olmo 2 1B tiene riesgos. Como todos los modelos de IA, puede generar resultados problemáticos, incluidos contenidos dañinos o sensibles e información inexacta. Ai2 desaconseja su uso en aplicaciones comerciales.












