Ai2 ra mắt mô hình AI nhỏ gọn vượt trội hơn các đối thủ Google, Meta

Các mô hình AI nhỏ đang tạo sóng gió trong tuần này.
Vào thứ Năm, Ai2, một nhóm nghiên cứu AI phi lợi nhuận, đã ra mắt Olmo 2 1B, một mô hình 1 tỷ tham số vượt qua các mô hình có kích thước tương tự từ Google, Meta và Alibaba trên nhiều bài kiểm tra chuẩn. Tham số, thường được gọi là trọng số, là các yếu tố nội tại định hình hiệu suất của một mô hình.
Olmo 2 1B được cung cấp miễn phí theo giấy phép Apache 2.0 trên Hugging Face, một nền tảng dành cho các nhà phát triển AI. Không giống như hầu hết các mô hình, nó có thể được tái tạo hoàn toàn, với Ai2 chia sẻ mã nguồn và tập dữ liệu (Olmo-mix-1124, Dolmino-mix-1124) được sử dụng trong quá trình phát triển.
Dù các mô hình nhỏ có thể thiếu sức mạnh của các mô hình lớn hơn, chúng không yêu cầu phần cứng cao cấp, khiến chúng trở nên lý tưởng cho các nhà phát triển và những người đam mê sử dụng laptop tiêu chuẩn hoặc thiết bị tiêu dùng.
Những ngày gần đây chứng kiến sự gia tăng trong việc ra mắt các mô hình nhỏ, từ dòng Phi 4 của Microsoft đến Qwen’s 2.5 Omni 3B. Hầu hết, bao gồm Olmo 2 1B, có thể chạy mượt mà trên các laptop hiện đại hoặc thậm chí là thiết bị di động.
Ai2 cho biết Olmo 2 1B được huấn luyện trên 4 nghìn tỷ token từ các nguồn công khai, do AI tạo ra và được chọn lọc. Một triệu token xấp xỉ bằng 750,000 từ.
Trong các bài kiểm tra lý luận số học như GSM8K, Olmo 2 1B vượt trội hơn Gemma 3 1B của Google, Llama 3.2 1B của Meta và Qwen 2.5 1.5B của Alibaba. Nó cũng xuất sắc trong TruthfulQA, một bài kiểm tra chuẩn về độ chính xác thực tế.
Trình diễn tại TechCrunch Sessions: AI
Đặt chỗ tại TC Sessions: AI để giới thiệu công việc của bạn trước hơn 1,200 nhà ra quyết định mà không tốn quá nhiều chi phí. Có sẵn đến ngày 9 tháng 5 hoặc cho đến khi hết chỗ.
Trình diễn tại TechCrunch Sessions: AI
Đặt chỗ tại TC Sessions: AI để giới thiệu công việc của bạn trước hơn 1,200 nhà ra quyết định mà không tốn quá nhiều chi phí. Có sẵn đến ngày 9 tháng 5 hoặc cho đến khi hết chỗ.
Berkeley, CA | Ngày 5 tháng 6
ĐẶT NGAY
Mô hình này đã được huấn luyện trước trên 4T token dữ liệu chất lượng cao, tuân theo quy trình huấn luyện trước tiêu chuẩn và ủ chất lượng cao của các mô hình 7, 13 và 32B của chúng tôi. Chúng tôi tải lên các điểm kiểm tra trung gian sau mỗi 1000 bước trong quá trình huấn luyện.
Truy cập mô hình cơ bản: https://t.co/xofyWJmo85 pic.twitter.com/7uSJ6sYMdL
— Ai2 (@allen_ai) Ngày 1 tháng 5, 2025
Ai2 cảnh báo rằng Olmo 2 1B có rủi ro. Như tất cả các mô hình AI, nó có thể tạo ra kết quả có vấn đề, bao gồm nội dung độc hại hoặc nhạy cảm và thông tin không chính xác. Ai2 khuyên không nên sử dụng nó trong các ứng dụng thương mại.
Bài viết liên quan
Có gì bên trong LLM? Ai2 olmotrace sẽ 'theo dõi' nguồn
Hiểu được kết nối giữa đầu ra của một mô hình ngôn ngữ lớn (LLM) và dữ liệu đào tạo của nó luôn là một câu đố cho doanh nghiệp CNTT. Tuần này, Viện AI (AI2) của Allen đã ra mắt một sáng kiến nguồn mở mới thú vị có tên là Olmotrace, nhằm mục đích làm sáng tỏ Relati này
AI Mở Khóa Những Khám Phá Mới vào Năm 2026, Theo CEO OpenAI
Trong một bài luận gần đây có tựa đề "Điểm Kỳ Dị Nhẹ Nhàng," được công bố vào thứ Ba, CEO OpenAI Sam Altman đã phác thảo tầm nhìn của mình về tác động thay đổi của AI đối với nhân loại trong 15 năm tớ
Sự trỗi dậy của Trump: Các chuyên gia chính trị đã đánh giá sai về nhiệm kỳ tổng thống của ông
Trong chính trị, các dự đoán thường không chính xác. Các chuyên gia, nhà phân tích và bình luận viên thường dự đoán kết quả bầu cử và xu hướng chính trị, nhưng lịch sử cho thấy những sai lầm của họ, đ
Nhận xét (0)
0/200
Các mô hình AI nhỏ đang tạo sóng gió trong tuần này.
Vào thứ Năm, Ai2, một nhóm nghiên cứu AI phi lợi nhuận, đã ra mắt Olmo 2 1B, một mô hình 1 tỷ tham số vượt qua các mô hình có kích thước tương tự từ Google, Meta và Alibaba trên nhiều bài kiểm tra chuẩn. Tham số, thường được gọi là trọng số, là các yếu tố nội tại định hình hiệu suất của một mô hình.
Olmo 2 1B được cung cấp miễn phí theo giấy phép Apache 2.0 trên Hugging Face, một nền tảng dành cho các nhà phát triển AI. Không giống như hầu hết các mô hình, nó có thể được tái tạo hoàn toàn, với Ai2 chia sẻ mã nguồn và tập dữ liệu (Olmo-mix-1124, Dolmino-mix-1124) được sử dụng trong quá trình phát triển.
Dù các mô hình nhỏ có thể thiếu sức mạnh của các mô hình lớn hơn, chúng không yêu cầu phần cứng cao cấp, khiến chúng trở nên lý tưởng cho các nhà phát triển và những người đam mê sử dụng laptop tiêu chuẩn hoặc thiết bị tiêu dùng.
Những ngày gần đây chứng kiến sự gia tăng trong việc ra mắt các mô hình nhỏ, từ dòng Phi 4 của Microsoft đến Qwen’s 2.5 Omni 3B. Hầu hết, bao gồm Olmo 2 1B, có thể chạy mượt mà trên các laptop hiện đại hoặc thậm chí là thiết bị di động.
Ai2 cho biết Olmo 2 1B được huấn luyện trên 4 nghìn tỷ token từ các nguồn công khai, do AI tạo ra và được chọn lọc. Một triệu token xấp xỉ bằng 750,000 từ.
Trong các bài kiểm tra lý luận số học như GSM8K, Olmo 2 1B vượt trội hơn Gemma 3 1B của Google, Llama 3.2 1B của Meta và Qwen 2.5 1.5B của Alibaba. Nó cũng xuất sắc trong TruthfulQA, một bài kiểm tra chuẩn về độ chính xác thực tế.
Trình diễn tại TechCrunch Sessions: AI
Đặt chỗ tại TC Sessions: AI để giới thiệu công việc của bạn trước hơn 1,200 nhà ra quyết định mà không tốn quá nhiều chi phí. Có sẵn đến ngày 9 tháng 5 hoặc cho đến khi hết chỗ.
Trình diễn tại TechCrunch Sessions: AI
Đặt chỗ tại TC Sessions: AI để giới thiệu công việc của bạn trước hơn 1,200 nhà ra quyết định mà không tốn quá nhiều chi phí. Có sẵn đến ngày 9 tháng 5 hoặc cho đến khi hết chỗ.
Berkeley, CA | Ngày 5 tháng 6 ĐẶT NGAYMô hình này đã được huấn luyện trước trên 4T token dữ liệu chất lượng cao, tuân theo quy trình huấn luyện trước tiêu chuẩn và ủ chất lượng cao của các mô hình 7, 13 và 32B của chúng tôi. Chúng tôi tải lên các điểm kiểm tra trung gian sau mỗi 1000 bước trong quá trình huấn luyện.
— Ai2 (@allen_ai) Ngày 1 tháng 5, 2025
Truy cập mô hình cơ bản: https://t.co/xofyWJmo85 pic.twitter.com/7uSJ6sYMdL
Ai2 cảnh báo rằng Olmo 2 1B có rủi ro. Như tất cả các mô hình AI, nó có thể tạo ra kết quả có vấn đề, bao gồm nội dung độc hại hoặc nhạy cảm và thông tin không chính xác. Ai2 khuyên không nên sử dụng nó trong các ứng dụng thương mại.












