Ai2, Google, Meta 경쟁 모델을 능가하는 컴팩트 AI 모델 공개

이번 주 소형 AI 모델들이 주목받고 있습니다.
목요일, 비영리 AI 연구 단체인 Ai2는 10억 개의 매개변수를 가진 Olmo 2 1B 모델을 출시했습니다. 이 모델은 Google, Meta, Alibaba의 유사한 크기의 모델들을 여러 벤치마크에서 능가합니다. 매개변수, 흔히 가중치라고 불리는 것은 모델의 성능을 형성하는 내부 요소입니다.
Olmo 2 1B는 AI 개발자 플랫폼인 Hugging Face에서 Apache 2.0 라이선스로 무료로 제공됩니다. 대부분의 모델과 달리, Ai2는 개발에 사용된 코드와 데이터셋(Olmo-mix-1124, Dolmino-mix-1124)을 공유하여 완전히 재현 가능합니다.
소형 모델은 대형 모델의 성능을 따라가지 못할 수 있지만, 고사양 하드웨어를 요구하지 않아 표준 노트북이나 소비자 기기를 사용하는 개발자와 취미인에게 이상적입니다.
최근 Microsoft의 Phi 4 추론 제품군부터 Qwen의 2.5 Omni 3B까지 소형 모델 출시가 급증했습니다. Olmo 2 1B를 포함한 대부분은 현대 노트북이나 모바일 기기에서도 원활하게 실행됩니다.
Ai2는 Olmo 2 1B가 공개, AI 생성, 선별된 소스에서 4조 토큰으로 훈련되었다고 밝혔습니다. 백만 토큰은 대략 75만 단어에 해당합니다.
GSM8K와 같은 산술 추론 테스트에서 Olmo 2 1B는 Google의 Gemma 3 1B, Meta의 Llama 3.2 1B, Alibaba의 Qwen 2.5 1.5B를 능가합니다. 또한 사실 정확도를 위한 벤치마크인 TruthfulQA에서도 뛰어난 성능을 보입니다.
TechCrunch Sessions: AI에서 쇼케이스
TC Sessions: AI에서 1,200명 이상의 의사결정자에게 당신의 작업을 선보일 기회를 예산을 초과하지 않고 확보하세요. 5월 9일까지 또는 자리가 남아 있는 동안 가능합니다.
TechCrunch Sessions: AI에서 쇼케이스
TC Sessions: AI에서 1,200명 이상의 의사결정자에게 당신의 작업을 선보일 기회를 예산을 초과하지 않고 확보하세요. 5월 9일까지 또는 자리가 남아 있는 동안 가능합니다.
Berkeley, CA | June 5
지금 예약하세요
이 모델은 고품질 데이터 4T 토큰으로 사전 훈련되었으며, 7, 13, 32B 모델의 동일한 표준 사전 훈련과 고품질 어닐링을 따랐습니다. 훈련 중 매 1000단계마다 중간 체크포인트를 업로드합니다.
기본 모델에 액세스: https://t.co/xofyWJmo85 pic.twitter.com/7uSJ6sYMdL
— Ai2 (@allen_ai) May 1, 2025
Ai2는 Olmo 2 1B에 위험이 있다고 경고합니다. 모든 AI 모델과 마찬가지로 유해하거나 민감한 콘텐츠, 부정확한 정보를 생성할 수 있습니다. Ai2는 상업적 응용 프로그램에 사용하지 말 것을 권고합니다.
관련 기사
LLM 내부는 무엇입니까? ai2 olmotrace는 소스를 '추적'합니다
LLM (Lange Model)의 출력 (LLM)과 교육 데이터 간의 연결을 이해하는 것은 항상 엔터프라이즈 IT를위한 약간의 퍼즐이었습니다. 이번 주 Alen Institute for AI (AI2)는이 친척을 디밀화하는 것을 목표로하는 Olmotrace라는 흥미로운 새로운 오픈 소스 이니셔티브를 시작했습니다.
게임 멀티버스에서 아서 모건과 조슈아 그레이엄을 하나로 묶는 AI 생성 크로스오버
게임 세계가 충돌할 때: 아서 모건과 번드맨의 만남전설적인 게임 캐릭터가 자신의 이야기를 넘어서는 세계를 상상해 보세요. 레드 데드 리뎀션 2의 아서 모건과 폴아웃: 뉴 베가스의 상처 입은 예언자 조슈아 그레이엄이 만나면 어떤 일이 펼쳐질까요? 인공지능으로 제작된 이 내러티브는 속죄, 회복력, 그리고 우리 결정의 지속적인 결과라는 보편적인 주제를 탐구하면서
Microsoft, 새로운 AI 협업에서 xAI의 고급 Grok 3 모델 호스팅
이달 초, 저의 *노트패드* 탐사 저널리즘은 Microsoft가 Elon Musk의 Grok AI 모델을 통합하려는 계획을 폭로했는데, 이제 공식적으로 확인된 사실입니다. 오늘 Microsoft의 연례 빌드 개발자 컨퍼런스에서 회사 경영진은 Azure AI Foundry에 머스크의 xAI 스타트업인 Grok-3와 그 소형 형제인 Grok-3 미니를 모두 통
의견 (1)
0/200
MarkWilson
2025년 8월 27일 오전 12시 1분 15초 GMT+09:00
This tiny AI model from Ai2 sounds like a game-changer! Beating Google and Meta? That's wild! 🚀 Curious how it performs in real-world apps.
0
이번 주 소형 AI 모델들이 주목받고 있습니다.
목요일, 비영리 AI 연구 단체인 Ai2는 10억 개의 매개변수를 가진 Olmo 2 1B 모델을 출시했습니다. 이 모델은 Google, Meta, Alibaba의 유사한 크기의 모델들을 여러 벤치마크에서 능가합니다. 매개변수, 흔히 가중치라고 불리는 것은 모델의 성능을 형성하는 내부 요소입니다.
Olmo 2 1B는 AI 개발자 플랫폼인 Hugging Face에서 Apache 2.0 라이선스로 무료로 제공됩니다. 대부분의 모델과 달리, Ai2는 개발에 사용된 코드와 데이터셋(Olmo-mix-1124, Dolmino-mix-1124)을 공유하여 완전히 재현 가능합니다.
소형 모델은 대형 모델의 성능을 따라가지 못할 수 있지만, 고사양 하드웨어를 요구하지 않아 표준 노트북이나 소비자 기기를 사용하는 개발자와 취미인에게 이상적입니다.
최근 Microsoft의 Phi 4 추론 제품군부터 Qwen의 2.5 Omni 3B까지 소형 모델 출시가 급증했습니다. Olmo 2 1B를 포함한 대부분은 현대 노트북이나 모바일 기기에서도 원활하게 실행됩니다.
Ai2는 Olmo 2 1B가 공개, AI 생성, 선별된 소스에서 4조 토큰으로 훈련되었다고 밝혔습니다. 백만 토큰은 대략 75만 단어에 해당합니다.
GSM8K와 같은 산술 추론 테스트에서 Olmo 2 1B는 Google의 Gemma 3 1B, Meta의 Llama 3.2 1B, Alibaba의 Qwen 2.5 1.5B를 능가합니다. 또한 사실 정확도를 위한 벤치마크인 TruthfulQA에서도 뛰어난 성능을 보입니다.
TechCrunch Sessions: AI에서 쇼케이스
TC Sessions: AI에서 1,200명 이상의 의사결정자에게 당신의 작업을 선보일 기회를 예산을 초과하지 않고 확보하세요. 5월 9일까지 또는 자리가 남아 있는 동안 가능합니다.
TechCrunch Sessions: AI에서 쇼케이스
TC Sessions: AI에서 1,200명 이상의 의사결정자에게 당신의 작업을 선보일 기회를 예산을 초과하지 않고 확보하세요. 5월 9일까지 또는 자리가 남아 있는 동안 가능합니다.
Berkeley, CA | June 5 지금 예약하세요이 모델은 고품질 데이터 4T 토큰으로 사전 훈련되었으며, 7, 13, 32B 모델의 동일한 표준 사전 훈련과 고품질 어닐링을 따랐습니다. 훈련 중 매 1000단계마다 중간 체크포인트를 업로드합니다.
— Ai2 (@allen_ai) May 1, 2025
기본 모델에 액세스: https://t.co/xofyWJmo85 pic.twitter.com/7uSJ6sYMdL
Ai2는 Olmo 2 1B에 위험이 있다고 경고합니다. 모든 AI 모델과 마찬가지로 유해하거나 민감한 콘텐츠, 부정확한 정보를 생성할 수 있습니다. Ai2는 상업적 응용 프로그램에 사용하지 말 것을 권고합니다.




This tiny AI model from Ai2 sounds like a game-changer! Beating Google and Meta? That's wild! 🚀 Curious how it performs in real-world apps.












