opção
Lar
Notícias
Ai2 Revela Modelo de IA Compacto que Supera Rivais do Google e Meta

Ai2 Revela Modelo de IA Compacto que Supera Rivais do Google e Meta

14 de Agosto de 2025
1

Ai2 Revela Modelo de IA Compacto que Supera Rivais do Google e Meta

Modelos de IA pequenos estão causando impacto esta semana.

Na quinta-feira, a Ai2, um grupo de pesquisa de IA sem fins lucrativos, lançou o Olmo 2 1B, um modelo de 1 bilhão de parâmetros que supera modelos de tamanho semelhante do Google, Meta e Alibaba em vários benchmarks. Parâmetros, frequentemente chamados de pesos, são os elementos internos que moldam o desempenho de um modelo.

O Olmo 2 1B está disponível gratuitamente sob uma licença Apache 2.0 no Hugging Face, uma plataforma para desenvolvedores de IA. Diferentemente da maioria dos modelos, ele pode ser totalmente recriado, com a Ai2 compartilhando o código e os conjuntos de dados (Olmo-mix-1124, Dolmino-mix-1124) usados em seu desenvolvimento.

Embora modelos menores possam não ter a potência dos maiores, eles não exigem hardware de ponta, tornando-os ideais para desenvolvedores e entusiastas usando laptops padrão ou dispositivos de consumo.

Nos últimos dias, houve um aumento no lançamento de modelos pequenos, desde a família de raciocínio Phi 4 da Microsoft até o Qwen 2.5 Omni 3B. A maioria, incluindo o Olmo 2 1B, pode rodar sem problemas em laptops modernos ou até mesmo em dispositivos móveis.

A Ai2 observa que o Olmo 2 1B foi treinado em 4 trilhões de tokens de fontes públicas, geradas por IA e selecionadas. Um milhão de tokens equivale aproximadamente a 750.000 palavras.

Em testes de raciocínio aritmético como o GSM8K, o Olmo 2 1B supera o Gemma 3 1B do Google, o Llama 3.2 1B da Meta e o Qwen 2.5 1.5B da Alibaba. Ele também se destaca no TruthfulQA, um benchmark para precisão factual.

Exibição no TechCrunch Sessions: AI

Garanta seu espaço no TC Sessions: AI para apresentar seu trabalho a mais de 1.200 tomadores de decisão sem gastar muito. Disponível até 9 de maio ou enquanto houver vagas.

Exibição no TechCrunch Sessions: AI

Garanta seu espaço no TC Sessions: AI para apresentar seu trabalho a mais de 1.200 tomadores de decisão sem gastar muito. Disponível até 9 de maio ou enquanto houver vagas.

Berkeley, CA | 5 de junho RESERVE AGORA

Este modelo foi pré-treinado em 4T tokens de dados de alta qualidade, seguindo o mesmo padrão de pré-treinamento em recozimento de alta qualidade de nossos modelos de 7, 13 e 32B. Carregamos pontos de verificação intermediários a cada 1000 passos no treinamento.

Acesse o modelo base: https://t.co/xofyWJmo85 pic.twitter.com/7uSJ6sYMdL

— Ai2 (@allen_ai) 1 de maio de 2025

A Ai2 alerta que o Olmo 2 1B tem riscos. Como todos os modelos de IA, ele pode gerar saídas problemáticas, incluindo conteúdo prejudicial ou sensível e informações imprecisas. A Ai2 desaconselha seu uso em aplicações comerciais.

Artigo relacionado
O que há dentro do LLM? Ai2 Olmotrace vai 'rastrear' a fonte O que há dentro do LLM? Ai2 Olmotrace vai 'rastrear' a fonte Compreender a conexão entre a saída de um grande modelo de linguagem (LLM) e seus dados de treinamento sempre foi um pouco de quebra -cabeça para a empresa. Nesta semana, o Allen Institute for AI (AI2) lançou uma nova iniciativa emocionante de código aberto chamado Olmotrace, que visa desmistificar este relati
IA para Desbloquear Novas Descobertas em 2026, Diz CEO da OpenAI IA para Desbloquear Novas Descobertas em 2026, Diz CEO da OpenAI Em um ensaio recente intitulado "A Singularidade Suave", publicado na terça-feira, o CEO da OpenAI, Sam Altman, delineou sua visão para o impacto transformador da IA na humanidade nos próximos 15 anos
Ascensão de Trump: Como Especialistas Políticos Erraram em Sua Presidência Ascensão de Trump: Como Especialistas Políticos Erraram em Sua Presidência Na política, as previsões muitas vezes falham. Especialistas, analistas e comentaristas frequentemente preveem resultados eleitorais e tendências políticas, mas a história mostra seus erros, especialm
Comentários (0)
0/200
De volta ao topo
OR