Gemma 3 của Google đạt được 98% độ chính xác của Deepseek chỉ với một GPU
Kinh tế của trí tuệ nhân tạo đã trở thành một trọng tâm lớn gần đây, đặc biệt là với sự khởi nghiệp Deepseek AI thể hiện quy mô kinh tế ấn tượng trong việc sử dụng chip GPU. Nhưng Google không chịu thua kém. Vào thứ Tư, gã khổng lồ công nghệ đã tiết lộ mô hình ngôn ngữ lớn nguồn mở mới nhất của mình, Gemma 3, gần như phù hợp với độ chính xác của mô hình R1 của Deepseek, nhưng vẫn sử dụng sức mạnh tính toán ít hơn đáng kể.
Google đã đo lường hiệu suất này bằng điểm số "ELO", một hệ thống thường được sử dụng trong cờ vua và thể thao để xếp hạng các đối thủ cạnh tranh. Gemma 3 đã ghi được 1338, chỉ là 1363 của R1, có nghĩa là về mặt kỹ thuật R1 vượt trội hơn về mặt kỹ thuật Gemma 3. Tuy nhiên, Google ước tính rằng sẽ mất 32 chip GPU H100 của NVIDIA để đạt được điểm số của R1, trong khi Gemma 3 đạt được kết quả chỉ với một GPU H100 GPU. Google chào mời sự cân bằng của tính toán và điểm ELO này là "điểm ngọt ngào".
Trong một bài đăng trên blog, Google mô tả Gemma 3 là "mô hình có khả năng nhất bạn có thể chạy trên một GPU hoặc TPU duy nhất", đề cập đến chip AI tùy chỉnh của riêng nó, "đơn vị xử lý Tensor". Công ty tuyên bố rằng Gemma 3 "cung cấp hiệu suất hiện đại cho quy mô của nó", các mô hình vượt trội như LLAMA-405B, DeepSeek-V3 và O3-Mini trong các đánh giá sở thích của con người trên bảng xếp hạng của Lmarena. Hiệu suất này giúp dễ dàng tạo trải nghiệm người dùng hấp dẫn trên một máy chủ GPU hoặc TPU duy nhất.
Google
Mô hình của Google cũng vượt qua LLAMA 3 của Meta trong điểm ELO, mà Google ước tính sẽ yêu cầu 16 GPU. Điều đáng chú ý là những con số này cho các mô hình cạnh tranh là ước tính của Google; Deepseek AI chỉ được tiết lộ bằng cách sử dụng 1.814 GPU H800 kém mạnh mẽ của NVIDIA cho R1.
Thông tin sâu hơn có thể được tìm thấy trong một bài đăng trên blog của nhà phát triển về Huggingface, nơi có sẵn kho lưu trữ Gemma 3. Được thiết kế để sử dụng trên thiết bị thay vì các trung tâm dữ liệu, Gemma 3 có số lượng tham số nhỏ hơn đáng kể so với R1 và các mô hình nguồn mở khác. Với số lượng tham số dao động từ 1 tỷ đến 27 tỷ, Gemma 3 khá khiêm tốn theo các tiêu chuẩn hiện tại, trong khi R1 tự hào có 671 tỷ tham số khổng lồ, mặc dù nó có thể sử dụng một cách chọn lọc chỉ 37 tỷ.
Chìa khóa cho hiệu quả của Gemma 3 là một kỹ thuật AI được sử dụng rộng rãi gọi là chưng cất, trong đó trọng lượng mô hình được đào tạo từ một mô hình lớn hơn được chuyển sang một kỹ thuật nhỏ hơn, tăng cường khả năng của nó. Ngoài ra, mô hình chưng cất trải qua ba biện pháp kiểm soát chất lượng: Học tập củng cố từ phản hồi của con người (RLHF), học củng cố từ phản hồi của máy (RLMF) và học tập củng cố từ phản hồi thực thi (RLEF). Chúng giúp tinh chỉnh đầu ra của mô hình, làm cho chúng hữu ích hơn và cải thiện khả năng toán học và mã hóa của nó.
Blog nhà phát triển của Google chi tiết các phương pháp này và một bài đăng khác thảo luận về các kỹ thuật tối ưu hóa cho mô hình tham số 1 tỷ nhỏ nhất, nhắm vào các thiết bị di động. Chúng bao gồm lượng tử hóa, cập nhật bố cục bộ đệm có giá trị khóa, cải thiện thời gian tải biến và chia sẻ trọng lượng GPU.
Google so sánh Gemma 3 không chỉ trên điểm ELO mà còn so với người tiền nhiệm của nó, Gemma 2 và các mô hình Gemini nguồn đóng cửa của nó trên các điểm chuẩn khác nhau như LiveCodeBench. Mặc dù Gemma 3 thường không đạt được độ chính xác của Gemini 1.5 và Gemini 2.0, Google lưu ý rằng nó "cho thấy hiệu suất cạnh tranh so với các mô hình Gemini khép kín", mặc dù có ít thông số hơn.
Google
Một bản nâng cấp đáng kể trong Gemma 3 trên Gemma 2 là "cửa sổ bối cảnh" dài hơn, mở rộng từ 8.000 lên 128.000 mã thông báo. Điều này cho phép mô hình xử lý các văn bản lớn hơn như toàn bộ giấy tờ hoặc sách. Gemma 3 cũng đa phương thức, có khả năng xử lý cả đầu vào văn bản và hình ảnh, không giống như người tiền nhiệm của nó. Ngoài ra, nó hỗ trợ hơn 140 ngôn ngữ, một cải tiến lớn so với các khả năng tiếng Anh của Gemma 2.
Ngoài các tính năng chính này, có một số khía cạnh thú vị khác đối với Gemma 3. Một vấn đề với các mô hình ngôn ngữ lớn là khả năng ghi nhớ các phần của dữ liệu đào tạo của họ, điều này có thể dẫn đến vi phạm quyền riêng tư. Các nhà nghiên cứu của Google đã thử nghiệm Gemma 3 cho việc này và thấy nó ghi nhớ văn bản dài với tốc độ thấp hơn so với người tiền nhiệm của nó, cho thấy sự bảo vệ quyền riêng tư được cải thiện.
Đối với những người quan tâm đến Nitty-Gritty, bài viết kỹ thuật Gemma 3 cung cấp một sự phân chia kỹ lưỡng về khả năng và sự phát triển của mô hình.
Bài viết liên quan
AI trong Tư vấn Y tế: Chuyển đổi Chăm sóc Sức khỏe
Trí tuệ nhân tạo đang nhanh chóng thay đổi cảnh quan chăm sóc sức khỏe, và không khó để hiểu lý do. Tốc độ phát triển công nghệ đã mở ra những khả năng trước đây được cho là không thể. Bài viết này đi
Aulani, Disney's Resort & Spa: Kỳ nghỉ gia đình tối ưu tại Hawaii
Khám phá Aulani: Thiên đường Hawaii với phong cách DisneyBạn có mơ về một kỳ nghỉ gia đình kết hợp phép màu Disney với vẻ đẹp tuyệt vời của Hawaii? Hãy đến với Aulani, một Khu nghỉ dưỡng & Spa Disney
Airbnb đang âm thầm triển khai bot dịch vụ khách hàng AI tại Mỹ
Airbnb đưa dịch vụ khách hàng sử dụng AI lên tầm cao mớiTháng trước, trong cuộc gọi báo cáo thu nhập quý đầu tiên của Airbnb, CEO Brian Chesky công bố rằng công ty đã bắt đầu triển khai bot dịch vụ kh
Nhận xét (5)
0/200
ArthurLopez
00:00:00 GMT Ngày 03 tháng 5 năm 2025
Google's Gemma 3 is pretty impressive, hitting 98% accuracy with just one GPU! 🤯 It's like they're showing off, but in a good way. Makes me wonder if I should switch to Google's tech for my projects. Definitely worth a try, right?
0
EricJohnson
00:00:00 GMT Ngày 02 tháng 5 năm 2025
GoogleのGemma 3は一つのGPUで98%の精度を達成するなんてすごいですね!🤯 見せびらかしているようだけど、いい意味で。自分のプロジェクトにGoogleの技術を使うべきか考えさせられます。試してみる価値はありそうですね。
0
StevenAllen
00:00:00 GMT Ngày 03 tháng 5 năm 2025
구글의 Gemma 3이 한 개의 GPU로 98% 정확도를 달성하다니 정말 대단해요! 🤯 자랑하는 것 같지만 좋은 의미에서요. 내 프로젝트에 구글의 기술을 사용해야 할지 고민하게 만드네요. 시도해 볼 가치가 있을 것 같아요.
0
AlbertRodriguez
00:00:00 GMT Ngày 03 tháng 5 năm 2025
O Gemma 3 do Google é impressionante, atingindo 98% de precisão com apenas uma GPU! 🤯 Parece que estão se exibindo, mas de um jeito bom. Me faz pensar se devo mudar para a tecnologia do Google para meus projetos. Vale a pena tentar, né?
0
GeorgeSmith
00:00:00 GMT Ngày 02 tháng 5 năm 2025
गूगल का Gemma 3 एक ही GPU के साथ 98% सटीकता प्राप्त करना बहुत प्रभावशाली है! 🤯 ऐसा लगता है कि वे अपनी ताकत दिखा रहे हैं, लेकिन अच्छे तरीके से। मुझे सोचने पर मजबूर करता है कि क्या मुझे अपने प्रोजेक्ट्स के लिए गूगल की टेक्नोलॉजी का उपयोग करना चाहिए। निश्चित रूप से कोशिश करने लायक है, है ना?
0
Kinh tế của trí tuệ nhân tạo đã trở thành một trọng tâm lớn gần đây, đặc biệt là với sự khởi nghiệp Deepseek AI thể hiện quy mô kinh tế ấn tượng trong việc sử dụng chip GPU. Nhưng Google không chịu thua kém. Vào thứ Tư, gã khổng lồ công nghệ đã tiết lộ mô hình ngôn ngữ lớn nguồn mở mới nhất của mình, Gemma 3, gần như phù hợp với độ chính xác của mô hình R1 của Deepseek, nhưng vẫn sử dụng sức mạnh tính toán ít hơn đáng kể.
Google đã đo lường hiệu suất này bằng điểm số "ELO", một hệ thống thường được sử dụng trong cờ vua và thể thao để xếp hạng các đối thủ cạnh tranh. Gemma 3 đã ghi được 1338, chỉ là 1363 của R1, có nghĩa là về mặt kỹ thuật R1 vượt trội hơn về mặt kỹ thuật Gemma 3. Tuy nhiên, Google ước tính rằng sẽ mất 32 chip GPU H100 của NVIDIA để đạt được điểm số của R1, trong khi Gemma 3 đạt được kết quả chỉ với một GPU H100 GPU. Google chào mời sự cân bằng của tính toán và điểm ELO này là "điểm ngọt ngào".
Trong một bài đăng trên blog, Google mô tả Gemma 3 là "mô hình có khả năng nhất bạn có thể chạy trên một GPU hoặc TPU duy nhất", đề cập đến chip AI tùy chỉnh của riêng nó, "đơn vị xử lý Tensor". Công ty tuyên bố rằng Gemma 3 "cung cấp hiệu suất hiện đại cho quy mô của nó", các mô hình vượt trội như LLAMA-405B, DeepSeek-V3 và O3-Mini trong các đánh giá sở thích của con người trên bảng xếp hạng của Lmarena. Hiệu suất này giúp dễ dàng tạo trải nghiệm người dùng hấp dẫn trên một máy chủ GPU hoặc TPU duy nhất.
Google
Mô hình của Google cũng vượt qua LLAMA 3 của Meta trong điểm ELO, mà Google ước tính sẽ yêu cầu 16 GPU. Điều đáng chú ý là những con số này cho các mô hình cạnh tranh là ước tính của Google; Deepseek AI chỉ được tiết lộ bằng cách sử dụng 1.814 GPU H800 kém mạnh mẽ của NVIDIA cho R1.
Thông tin sâu hơn có thể được tìm thấy trong một bài đăng trên blog của nhà phát triển về Huggingface, nơi có sẵn kho lưu trữ Gemma 3. Được thiết kế để sử dụng trên thiết bị thay vì các trung tâm dữ liệu, Gemma 3 có số lượng tham số nhỏ hơn đáng kể so với R1 và các mô hình nguồn mở khác. Với số lượng tham số dao động từ 1 tỷ đến 27 tỷ, Gemma 3 khá khiêm tốn theo các tiêu chuẩn hiện tại, trong khi R1 tự hào có 671 tỷ tham số khổng lồ, mặc dù nó có thể sử dụng một cách chọn lọc chỉ 37 tỷ.
Chìa khóa cho hiệu quả của Gemma 3 là một kỹ thuật AI được sử dụng rộng rãi gọi là chưng cất, trong đó trọng lượng mô hình được đào tạo từ một mô hình lớn hơn được chuyển sang một kỹ thuật nhỏ hơn, tăng cường khả năng của nó. Ngoài ra, mô hình chưng cất trải qua ba biện pháp kiểm soát chất lượng: Học tập củng cố từ phản hồi của con người (RLHF), học củng cố từ phản hồi của máy (RLMF) và học tập củng cố từ phản hồi thực thi (RLEF). Chúng giúp tinh chỉnh đầu ra của mô hình, làm cho chúng hữu ích hơn và cải thiện khả năng toán học và mã hóa của nó.
Blog nhà phát triển của Google chi tiết các phương pháp này và một bài đăng khác thảo luận về các kỹ thuật tối ưu hóa cho mô hình tham số 1 tỷ nhỏ nhất, nhắm vào các thiết bị di động. Chúng bao gồm lượng tử hóa, cập nhật bố cục bộ đệm có giá trị khóa, cải thiện thời gian tải biến và chia sẻ trọng lượng GPU.
Google so sánh Gemma 3 không chỉ trên điểm ELO mà còn so với người tiền nhiệm của nó, Gemma 2 và các mô hình Gemini nguồn đóng cửa của nó trên các điểm chuẩn khác nhau như LiveCodeBench. Mặc dù Gemma 3 thường không đạt được độ chính xác của Gemini 1.5 và Gemini 2.0, Google lưu ý rằng nó "cho thấy hiệu suất cạnh tranh so với các mô hình Gemini khép kín", mặc dù có ít thông số hơn.
Google
Một bản nâng cấp đáng kể trong Gemma 3 trên Gemma 2 là "cửa sổ bối cảnh" dài hơn, mở rộng từ 8.000 lên 128.000 mã thông báo. Điều này cho phép mô hình xử lý các văn bản lớn hơn như toàn bộ giấy tờ hoặc sách. Gemma 3 cũng đa phương thức, có khả năng xử lý cả đầu vào văn bản và hình ảnh, không giống như người tiền nhiệm của nó. Ngoài ra, nó hỗ trợ hơn 140 ngôn ngữ, một cải tiến lớn so với các khả năng tiếng Anh của Gemma 2.
Ngoài các tính năng chính này, có một số khía cạnh thú vị khác đối với Gemma 3. Một vấn đề với các mô hình ngôn ngữ lớn là khả năng ghi nhớ các phần của dữ liệu đào tạo của họ, điều này có thể dẫn đến vi phạm quyền riêng tư. Các nhà nghiên cứu của Google đã thử nghiệm Gemma 3 cho việc này và thấy nó ghi nhớ văn bản dài với tốc độ thấp hơn so với người tiền nhiệm của nó, cho thấy sự bảo vệ quyền riêng tư được cải thiện.
Đối với những người quan tâm đến Nitty-Gritty, bài viết kỹ thuật Gemma 3 cung cấp một sự phân chia kỹ lưỡng về khả năng và sự phát triển của mô hình.




Google's Gemma 3 is pretty impressive, hitting 98% accuracy with just one GPU! 🤯 It's like they're showing off, but in a good way. Makes me wonder if I should switch to Google's tech for my projects. Definitely worth a try, right?




GoogleのGemma 3は一つのGPUで98%の精度を達成するなんてすごいですね!🤯 見せびらかしているようだけど、いい意味で。自分のプロジェクトにGoogleの技術を使うべきか考えさせられます。試してみる価値はありそうですね。




구글의 Gemma 3이 한 개의 GPU로 98% 정확도를 달성하다니 정말 대단해요! 🤯 자랑하는 것 같지만 좋은 의미에서요. 내 프로젝트에 구글의 기술을 사용해야 할지 고민하게 만드네요. 시도해 볼 가치가 있을 것 같아요.




O Gemma 3 do Google é impressionante, atingindo 98% de precisão com apenas uma GPU! 🤯 Parece que estão se exibindo, mas de um jeito bom. Me faz pensar se devo mudar para a tecnologia do Google para meus projetos. Vale a pena tentar, né?




गूगल का Gemma 3 एक ही GPU के साथ 98% सटीकता प्राप्त करना बहुत प्रभावशाली है! 🤯 ऐसा लगता है कि वे अपनी ताकत दिखा रहे हैं, लेकिन अच्छे तरीके से। मुझे सोचने पर मजबूर करता है कि क्या मुझे अपने प्रोजेक्ट्स के लिए गूगल की टेक्नोलॉजी का उपयोग करना चाहिए। निश्चित रूप से कोशिश करने लायक है, है ना?












