Google'sGemma3は、Deepseekの精度の98%を1つだけGPUで達成しています
人工知能の経済学は最近、主要な焦点となっており、特にスタートアップのDeepSeek AIがGPUチップの使用で印象的な規模の経済を示しています。しかし、Googleも負けてはいません。水曜日、このテック大手は最新のオープンソース大規模言語モデル、Gemma 3を公開しました。これはDeepSeekのR1モデルとほぼ同等の精度を持ちながら、はるかに少ない計算能力を使用します。
Googleはこのパフォーマンスを「Elo」スコアを使用して測定しました。これはチェスやスポーツで競争者をランク付けするために一般的に使用されるシステムです。Gemma 3は1338点を獲得し、R1の1363点にわずかに及ばず、技術的にはR1がGemma 3を上回っています。しかし、GoogleはR1のスコアに到達するにはNvidiaのH100 GPUチップが32個必要であると推定していますが、Gemma 3は1つのH100 GPUだけでその結果を達成しています。Googleはこの計算とEloスコアのバランスを「スイートスポット」と称しています。
ブログ投稿で、GoogleはGemma 3を「単一のGPUまたはTPUで実行できる最も能力の高いモデル」と形容し、独自のカスタムAIチップである「テンソル処理ユニット」を指しています。同社は、Gemma 3が「そのサイズに対して最先端のパフォーマンスを提供する」と主張し、Llama-405B、DeepSeek-V3、o3-miniなどのモデルをLMArenaのランキングでの人間の好み評価で上回っています。このパフォーマンスにより、単一のGPUまたはTPUホストで魅力的なユーザー体験を簡単に作成できます。
Google
Googleのモデルは、MetaのLlama 3もEloスコアで上回っており、Googleはこれには16個のGPUが必要だと推定しています。競合モデルのこれらの数値はGoogleの推定であることに注意が必要です。DeepSeek AIは、R1にNvidiaのそれほど強力でないH800 GPUを1,814個使用したことのみを公開しています。
より詳細な情報は、HuggingFaceの開発者ブログ投稿で確認でき、Gemma 3のリポジトリもそこにあります。データセンターではなくデバイス上での使用を想定して設計されたGemma 3は、R1や他のオープンソースモデルに比べてパラメータ数が大幅に少なく、10億から270億の範囲です。現在の基準ではかなり控えめですが、R1は6710億のパラメータを誇り、選択的に370億のみを使用できます。
Gemma 3の効率性の鍵は、広く使用されているAI技術である蒸留にあります。これは、大きなモデルから訓練済みのモデル重みを小さなモデルに移すことで、その能力を向上させるものです。さらに、蒸留されたモデルは3つの品質管理措置を受けます:人間のフィードバックからの強化学習(RLHF)、機械のフィードバックからの強化学習(RLMF)、実行フィードバックからの強化学習(RLEF)。これらはモデルの出力を洗練させ、より役立つものにし、数学やコーディングの能力を向上させます。
Googleの開発者ブログではこれらのアプローチが詳述されており、別の投稿ではモバイルデバイス向けの最小の10億パラメータモデルの最適化技術について議論しています。これには量子化、キー値キャッシュレイアウトの更新、変数読み込み時間の改善、GPUウェイト共有が含まれます。
Googleは、Gemma 3をEloスコアだけでなく、Gemma 2やクローズドソースのGeminiモデルとLiveCodeBenchなどのさまざまなベンチマークで比較しています。Gemma 3は一般にGemini 1.5やGemini 2.0の精度には及ばないものの、Googleは「パラメータ数が少ないにもかかわらず、クローズドGeminiモデルと比較して競争力のあるパフォーマンスを示す」と述べています。
Google
Gemma 2に対するGemma 3の大きなアップグレードは、コンテキストウィンドウが8000トークンから128,000トークンに拡張されたことです。これにより、モデルは論文や本全体などの大きなテキストを処理できます。Gemma 3はマルチモーダルで、テキストと画像の両方の入力を処理でき、Gemma 2の英語のみの機能に比べて140以上の言語をサポートします。
これらの主な機能以外にも、Gemma 3にはいくつかの興味深い側面があります。大規模言語モデルにおける問題の1つは、訓練データの一部を記憶する可能性があり、プライバシー侵害につながる可能性があります。Googleの研究者はGemma 3をテストし、以前のモデルよりも長編テキストを記憶する率が低いことを発見し、プライバシー保護が向上していることを示唆しています。
詳細に興味がある方は、Gemma 3の技術論文でモデルの能力と開発の詳細な内訳が提供されています。
関連記事
Topaz DeNoise AI:2025年のベストノイズリダクションツール-完全ガイド
競争の激しいデジタル写真の世界では、画像の鮮明さが最も重要です。あらゆるレベルのフォトグラファーが、デジタルノイズに悩まされています。Topaz DeNoise AIは、人工知能を活用し、重要なディテールを維持しながらノイズ除去に取り組む最先端のソリューションとして登場しました。この詳細なレビューでは、この革新的なソフトウェアが2025年の写真ワークフローをどのように変えることができるのか、その主
マスターエメラルド 海賊ヌズロッケ究極のサバイバル&ストラテジーガイド
Emerald Kaizoは、これまでに考案されたポケモンのROMハックの中で最も手強いものの1つである。Nuzlockeの実行を試みることは飛躍的に挑戦を増加させるが、綿密な計画と戦略的な実行によって勝利は達成可能である。この決定版ガイドでは、ハードコア・ヌズロッケのルールでエメラルドのかいぞくを制覇するために必要なツール、実戦で試された戦術、綿密なAI分析が紹介されている。ポケモンマスターの究
AIを駆使したカバーレター:ジャーナル投稿のためのエキスパートガイド
競争の激しい今日の学術出版環境では、効果的なカバーレターを作成することが、原稿の採否を決定的に左右します。ChatGPTのようなAIを搭載したツールが、この重要なタスクをいかに効率化し、ジャーナル編集者の目を引く洗練されたプロフェッショナルなレターを作成できるかをご覧ください。ChatGPTの包括的なガイドでは、投稿パッケージを最適化し、出版を最大限に成功させるための戦略をステップごとに紹介してい
コメント (10)
0/200
RonaldMartinez
2025年8月17日 18:00:59 JST
Google's Gemma 3 sounds like a game-changer! 98% of DeepSeek's accuracy with just one GPU? That's some serious efficiency. Curious how this'll shake up the AI startup scene. 🚀
0
GaryJones
2025年8月16日 2:00:59 JST
Google's Gemma 3 sounds like a game-changer! 98% of DeepSeek's accuracy with just one GPU? That's some serious efficiency. Curious how this stacks up in real-world apps! 😎
0
JonathanDavis
2025年8月13日 22:00:59 JST
Google's Gemma 3 sounds like a game-changer! Achieving 98% of DeepSeek's accuracy with just one GPU is wild. Makes me wonder how this’ll shake up the AI race—more power to the little guys? 🤔
0
ArthurSanchez
2025年8月5日 10:00:59 JST
Google's Gemma 3 sounds like a game-changer! 98% of DeepSeek's accuracy with just one GPU? That's like getting a sports car for the price of a bike! 😎 Can't wait to see how this shakes up the AI race.
0
EvelynHarris
2025年8月1日 15:08:50 JST
Google's Gemma 3 sounds like a game-changer! 98% of DeepSeek's accuracy with just one GPU? That's some serious efficiency. Can't wait to see how devs play with this open-source gem! 😎
0
ArthurLopez
2025年5月3日 11:53:19 JST
Google's Gemma 3 is pretty impressive, hitting 98% accuracy with just one GPU! 🤯 It's like they're showing off, but in a good way. Makes me wonder if I should switch to Google's tech for my projects. Definitely worth a try, right?
0
人工知能の経済学は最近、主要な焦点となっており、特にスタートアップのDeepSeek AIがGPUチップの使用で印象的な規模の経済を示しています。しかし、Googleも負けてはいません。水曜日、このテック大手は最新のオープンソース大規模言語モデル、Gemma 3を公開しました。これはDeepSeekのR1モデルとほぼ同等の精度を持ちながら、はるかに少ない計算能力を使用します。
Googleはこのパフォーマンスを「Elo」スコアを使用して測定しました。これはチェスやスポーツで競争者をランク付けするために一般的に使用されるシステムです。Gemma 3は1338点を獲得し、R1の1363点にわずかに及ばず、技術的にはR1がGemma 3を上回っています。しかし、GoogleはR1のスコアに到達するにはNvidiaのH100 GPUチップが32個必要であると推定していますが、Gemma 3は1つのH100 GPUだけでその結果を達成しています。Googleはこの計算とEloスコアのバランスを「スイートスポット」と称しています。
ブログ投稿で、GoogleはGemma 3を「単一のGPUまたはTPUで実行できる最も能力の高いモデル」と形容し、独自のカスタムAIチップである「テンソル処理ユニット」を指しています。同社は、Gemma 3が「そのサイズに対して最先端のパフォーマンスを提供する」と主張し、Llama-405B、DeepSeek-V3、o3-miniなどのモデルをLMArenaのランキングでの人間の好み評価で上回っています。このパフォーマンスにより、単一のGPUまたはTPUホストで魅力的なユーザー体験を簡単に作成できます。
Google
Googleのモデルは、MetaのLlama 3もEloスコアで上回っており、Googleはこれには16個のGPUが必要だと推定しています。競合モデルのこれらの数値はGoogleの推定であることに注意が必要です。DeepSeek AIは、R1にNvidiaのそれほど強力でないH800 GPUを1,814個使用したことのみを公開しています。
より詳細な情報は、HuggingFaceの開発者ブログ投稿で確認でき、Gemma 3のリポジトリもそこにあります。データセンターではなくデバイス上での使用を想定して設計されたGemma 3は、R1や他のオープンソースモデルに比べてパラメータ数が大幅に少なく、10億から270億の範囲です。現在の基準ではかなり控えめですが、R1は6710億のパラメータを誇り、選択的に370億のみを使用できます。
Gemma 3の効率性の鍵は、広く使用されているAI技術である蒸留にあります。これは、大きなモデルから訓練済みのモデル重みを小さなモデルに移すことで、その能力を向上させるものです。さらに、蒸留されたモデルは3つの品質管理措置を受けます:人間のフィードバックからの強化学習(RLHF)、機械のフィードバックからの強化学習(RLMF)、実行フィードバックからの強化学習(RLEF)。これらはモデルの出力を洗練させ、より役立つものにし、数学やコーディングの能力を向上させます。
Googleの開発者ブログではこれらのアプローチが詳述されており、別の投稿ではモバイルデバイス向けの最小の10億パラメータモデルの最適化技術について議論しています。これには量子化、キー値キャッシュレイアウトの更新、変数読み込み時間の改善、GPUウェイト共有が含まれます。
Googleは、Gemma 3をEloスコアだけでなく、Gemma 2やクローズドソースのGeminiモデルとLiveCodeBenchなどのさまざまなベンチマークで比較しています。Gemma 3は一般にGemini 1.5やGemini 2.0の精度には及ばないものの、Googleは「パラメータ数が少ないにもかかわらず、クローズドGeminiモデルと比較して競争力のあるパフォーマンスを示す」と述べています。
Google
Gemma 2に対するGemma 3の大きなアップグレードは、コンテキストウィンドウが8000トークンから128,000トークンに拡張されたことです。これにより、モデルは論文や本全体などの大きなテキストを処理できます。Gemma 3はマルチモーダルで、テキストと画像の両方の入力を処理でき、Gemma 2の英語のみの機能に比べて140以上の言語をサポートします。
これらの主な機能以外にも、Gemma 3にはいくつかの興味深い側面があります。大規模言語モデルにおける問題の1つは、訓練データの一部を記憶する可能性があり、プライバシー侵害につながる可能性があります。Googleの研究者はGemma 3をテストし、以前のモデルよりも長編テキストを記憶する率が低いことを発見し、プライバシー保護が向上していることを示唆しています。
詳細に興味がある方は、Gemma 3の技術論文でモデルの能力と開発の詳細な内訳が提供されています。




Google's Gemma 3 sounds like a game-changer! 98% of DeepSeek's accuracy with just one GPU? That's some serious efficiency. Curious how this'll shake up the AI startup scene. 🚀




Google's Gemma 3 sounds like a game-changer! 98% of DeepSeek's accuracy with just one GPU? That's some serious efficiency. Curious how this stacks up in real-world apps! 😎




Google's Gemma 3 sounds like a game-changer! Achieving 98% of DeepSeek's accuracy with just one GPU is wild. Makes me wonder how this’ll shake up the AI race—more power to the little guys? 🤔




Google's Gemma 3 sounds like a game-changer! 98% of DeepSeek's accuracy with just one GPU? That's like getting a sports car for the price of a bike! 😎 Can't wait to see how this shakes up the AI race.




Google's Gemma 3 sounds like a game-changer! 98% of DeepSeek's accuracy with just one GPU? That's some serious efficiency. Can't wait to see how devs play with this open-source gem! 😎




Google's Gemma 3 is pretty impressive, hitting 98% accuracy with just one GPU! 🤯 It's like they're showing off, but in a good way. Makes me wonder if I should switch to Google's tech for my projects. Definitely worth a try, right?












