Ai2, Google, Meta 경쟁 모델을 능가하는 컴팩트 AI 모델 공개

이번 주 소형 AI 모델들이 주목받고 있습니다.
목요일, 비영리 AI 연구 단체인 Ai2는 10억 개의 매개변수를 가진 Olmo 2 1B 모델을 출시했습니다. 이 모델은 Google, Meta, Alibaba의 유사한 크기의 모델들을 여러 벤치마크에서 능가합니다. 매개변수, 흔히 가중치라고 불리는 것은 모델의 성능을 형성하는 내부 요소입니다.
Olmo 2 1B는 AI 개발자 플랫폼인 Hugging Face에서 Apache 2.0 라이선스로 무료로 제공됩니다. 대부분의 모델과 달리, Ai2는 개발에 사용된 코드와 데이터셋(Olmo-mix-1124, Dolmino-mix-1124)을 공유하여 완전히 재현 가능합니다.
소형 모델은 대형 모델의 성능을 따라가지 못할 수 있지만, 고사양 하드웨어를 요구하지 않아 표준 노트북이나 소비자 기기를 사용하는 개발자와 취미인에게 이상적입니다.
최근 Microsoft의 Phi 4 추론 제품군부터 Qwen의 2.5 Omni 3B까지 소형 모델 출시가 급증했습니다. Olmo 2 1B를 포함한 대부분은 현대 노트북이나 모바일 기기에서도 원활하게 실행됩니다.
Ai2는 Olmo 2 1B가 공개, AI 생성, 선별된 소스에서 4조 토큰으로 훈련되었다고 밝혔습니다. 백만 토큰은 대략 75만 단어에 해당합니다.
GSM8K와 같은 산술 추론 테스트에서 Olmo 2 1B는 Google의 Gemma 3 1B, Meta의 Llama 3.2 1B, Alibaba의 Qwen 2.5 1.5B를 능가합니다. 또한 사실 정확도를 위한 벤치마크인 TruthfulQA에서도 뛰어난 성능을 보입니다.
TechCrunch Sessions: AI에서 쇼케이스
TC Sessions: AI에서 1,200명 이상의 의사결정자에게 당신의 작업을 선보일 기회를 예산을 초과하지 않고 확보하세요. 5월 9일까지 또는 자리가 남아 있는 동안 가능합니다.
TechCrunch Sessions: AI에서 쇼케이스
TC Sessions: AI에서 1,200명 이상의 의사결정자에게 당신의 작업을 선보일 기회를 예산을 초과하지 않고 확보하세요. 5월 9일까지 또는 자리가 남아 있는 동안 가능합니다.
Berkeley, CA | June 5
지금 예약하세요
이 모델은 고품질 데이터 4T 토큰으로 사전 훈련되었으며, 7, 13, 32B 모델의 동일한 표준 사전 훈련과 고품질 어닐링을 따랐습니다. 훈련 중 매 1000단계마다 중간 체크포인트를 업로드합니다.
기본 모델에 액세스: https://t.co/xofyWJmo85 pic.twitter.com/7uSJ6sYMdL
— Ai2 (@allen_ai) May 1, 2025
Ai2는 Olmo 2 1B에 위험이 있다고 경고합니다. 모든 AI 모델과 마찬가지로 유해하거나 민감한 콘텐츠, 부정확한 정보를 생성할 수 있습니다. Ai2는 상업적 응용 프로그램에 사용하지 말 것을 권고합니다.
관련 기사
LLM 내부는 무엇입니까? ai2 olmotrace는 소스를 '추적'합니다
LLM (Lange Model)의 출력 (LLM)과 교육 데이터 간의 연결을 이해하는 것은 항상 엔터프라이즈 IT를위한 약간의 퍼즐이었습니다. 이번 주 Alen Institute for AI (AI2)는이 친척을 디밀화하는 것을 목표로하는 Olmotrace라는 흥미로운 새로운 오픈 소스 이니셔티브를 시작했습니다.
2026년 AI가 새로운 발견을 열 것이라고 OpenAI CEO가 말하다
최근 화요일에 발표된 "부드러운 특이점"이라는 제목의 에세이에서 OpenAI CEO 샘 알트먼은 향후 15년 동안 AI가 인류에 미칠 혁신적인 영향을 자신의 비전으로 제시했다.알트먼의 에세이는 인공지능 일반(AGI)에 대한 낙관적인 전망과 그 도달에 대한 신중한 견해를 혼합하고 있다. 이러한 미래지향적인 글쓰기로 유명한 그는 AGI가 일, 에너지, 사회 구
트럼프의 부상: 정치 전문가들이 그의 대통령직을 어떻게 잘못 판단했는가
정치에서 예측은 종종 빗나간다. 전문가, 분석가, 평론가들은 선거 결과와 정치적 경향을 자주 예측하지만, 역사적으로 그들의 오류가 드러난다, 특히 도널드 J. 트럼프의 대통령 당선에서. 이 글은 트럼프 대통령직을 불가능하다고 여겼던 이들의 놀라운 실수를 탐구하며, 그들의 대담한 주장, 그 배경, 그리고 불가능이 현실이 된 순간의 교훈을 되짚는다.주요 요점많
의견 (0)
0/200
이번 주 소형 AI 모델들이 주목받고 있습니다.
목요일, 비영리 AI 연구 단체인 Ai2는 10억 개의 매개변수를 가진 Olmo 2 1B 모델을 출시했습니다. 이 모델은 Google, Meta, Alibaba의 유사한 크기의 모델들을 여러 벤치마크에서 능가합니다. 매개변수, 흔히 가중치라고 불리는 것은 모델의 성능을 형성하는 내부 요소입니다.
Olmo 2 1B는 AI 개발자 플랫폼인 Hugging Face에서 Apache 2.0 라이선스로 무료로 제공됩니다. 대부분의 모델과 달리, Ai2는 개발에 사용된 코드와 데이터셋(Olmo-mix-1124, Dolmino-mix-1124)을 공유하여 완전히 재현 가능합니다.
소형 모델은 대형 모델의 성능을 따라가지 못할 수 있지만, 고사양 하드웨어를 요구하지 않아 표준 노트북이나 소비자 기기를 사용하는 개발자와 취미인에게 이상적입니다.
최근 Microsoft의 Phi 4 추론 제품군부터 Qwen의 2.5 Omni 3B까지 소형 모델 출시가 급증했습니다. Olmo 2 1B를 포함한 대부분은 현대 노트북이나 모바일 기기에서도 원활하게 실행됩니다.
Ai2는 Olmo 2 1B가 공개, AI 생성, 선별된 소스에서 4조 토큰으로 훈련되었다고 밝혔습니다. 백만 토큰은 대략 75만 단어에 해당합니다.
GSM8K와 같은 산술 추론 테스트에서 Olmo 2 1B는 Google의 Gemma 3 1B, Meta의 Llama 3.2 1B, Alibaba의 Qwen 2.5 1.5B를 능가합니다. 또한 사실 정확도를 위한 벤치마크인 TruthfulQA에서도 뛰어난 성능을 보입니다.
TechCrunch Sessions: AI에서 쇼케이스
TC Sessions: AI에서 1,200명 이상의 의사결정자에게 당신의 작업을 선보일 기회를 예산을 초과하지 않고 확보하세요. 5월 9일까지 또는 자리가 남아 있는 동안 가능합니다.
TechCrunch Sessions: AI에서 쇼케이스
TC Sessions: AI에서 1,200명 이상의 의사결정자에게 당신의 작업을 선보일 기회를 예산을 초과하지 않고 확보하세요. 5월 9일까지 또는 자리가 남아 있는 동안 가능합니다.
Berkeley, CA | June 5 지금 예약하세요이 모델은 고품질 데이터 4T 토큰으로 사전 훈련되었으며, 7, 13, 32B 모델의 동일한 표준 사전 훈련과 고품질 어닐링을 따랐습니다. 훈련 중 매 1000단계마다 중간 체크포인트를 업로드합니다.
— Ai2 (@allen_ai) May 1, 2025
기본 모델에 액세스: https://t.co/xofyWJmo85 pic.twitter.com/7uSJ6sYMdL
Ai2는 Olmo 2 1B에 위험이 있다고 경고합니다. 모든 AI 모델과 마찬가지로 유해하거나 민감한 콘텐츠, 부정확한 정보를 생성할 수 있습니다. Ai2는 상업적 응용 프로그램에 사용하지 말 것을 권고합니다.












