Google'sGemma3は、Deepseekの精度の98%を1つだけGPUで達成しています
人工知能の経済学は最近、主要な焦点となっており、特にスタートアップのDeepSeek AIがGPUチップの使用で印象的な規模の経済を示しています。しかし、Googleも負けてはいません。水曜日、このテック大手は最新のオープンソース大規模言語モデル、Gemma 3を公開しました。これはDeepSeekのR1モデルとほぼ同等の精度を持ちながら、はるかに少ない計算能力を使用します。
Googleはこのパフォーマンスを「Elo」スコアを使用して測定しました。これはチェスやスポーツで競争者をランク付けするために一般的に使用されるシステムです。Gemma 3は1338点を獲得し、R1の1363点にわずかに及ばず、技術的にはR1がGemma 3を上回っています。しかし、GoogleはR1のスコアに到達するにはNvidiaのH100 GPUチップが32個必要であると推定していますが、Gemma 3は1つのH100 GPUだけでその結果を達成しています。Googleはこの計算とEloスコアのバランスを「スイートスポット」と称しています。
ブログ投稿で、GoogleはGemma 3を「単一のGPUまたはTPUで実行できる最も能力の高いモデル」と形容し、独自のカスタムAIチップである「テンソル処理ユニット」を指しています。同社は、Gemma 3が「そのサイズに対して最先端のパフォーマンスを提供する」と主張し、Llama-405B、DeepSeek-V3、o3-miniなどのモデルをLMArenaのランキングでの人間の好み評価で上回っています。このパフォーマンスにより、単一のGPUまたはTPUホストで魅力的なユーザー体験を簡単に作成できます。
Google
Googleのモデルは、MetaのLlama 3もEloスコアで上回っており、Googleはこれには16個のGPUが必要だと推定しています。競合モデルのこれらの数値はGoogleの推定であることに注意が必要です。DeepSeek AIは、R1にNvidiaのそれほど強力でないH800 GPUを1,814個使用したことのみを公開しています。
より詳細な情報は、HuggingFaceの開発者ブログ投稿で確認でき、Gemma 3のリポジトリもそこにあります。データセンターではなくデバイス上での使用を想定して設計されたGemma 3は、R1や他のオープンソースモデルに比べてパラメータ数が大幅に少なく、10億から270億の範囲です。現在の基準ではかなり控えめですが、R1は6710億のパラメータを誇り、選択的に370億のみを使用できます。
Gemma 3の効率性の鍵は、広く使用されているAI技術である蒸留にあります。これは、大きなモデルから訓練済みのモデル重みを小さなモデルに移すことで、その能力を向上させるものです。さらに、蒸留されたモデルは3つの品質管理措置を受けます:人間のフィードバックからの強化学習(RLHF)、機械のフィードバックからの強化学習(RLMF)、実行フィードバックからの強化学習(RLEF)。これらはモデルの出力を洗練させ、より役立つものにし、数学やコーディングの能力を向上させます。
Googleの開発者ブログではこれらのアプローチが詳述されており、別の投稿ではモバイルデバイス向けの最小の10億パラメータモデルの最適化技術について議論しています。これには量子化、キー値キャッシュレイアウトの更新、変数読み込み時間の改善、GPUウェイト共有が含まれます。
Googleは、Gemma 3をEloスコアだけでなく、Gemma 2やクローズドソースのGeminiモデルとLiveCodeBenchなどのさまざまなベンチマークで比較しています。Gemma 3は一般にGemini 1.5やGemini 2.0の精度には及ばないものの、Googleは「パラメータ数が少ないにもかかわらず、クローズドGeminiモデルと比較して競争力のあるパフォーマンスを示す」と述べています。
Google
Gemma 2に対するGemma 3の大きなアップグレードは、コンテキストウィンドウが8000トークンから128,000トークンに拡張されたことです。これにより、モデルは論文や本全体などの大きなテキストを処理できます。Gemma 3はマルチモーダルで、テキストと画像の両方の入力を処理でき、Gemma 2の英語のみの機能に比べて140以上の言語をサポートします。
これらの主な機能以外にも、Gemma 3にはいくつかの興味深い側面があります。大規模言語モデルにおける問題の1つは、訓練データの一部を記憶する可能性があり、プライバシー侵害につながる可能性があります。Googleの研究者はGemma 3をテストし、以前のモデルよりも長編テキストを記憶する率が低いことを発見し、プライバシー保護が向上していることを示唆しています。
詳細に興味がある方は、Gemma 3の技術論文でモデルの能力と開発の詳細な内訳が提供されています。
関連記事
HitPaw AI Photo Enhancerで画像を向上させる:包括的ガイド
写真編集の体験を変えたいですか?最先端の人工知能のおかげで、画像の改善が今や簡単に行えます。この詳細なガイドでは、HitPaw AI Photo Enhancer、画像の品質と解像度を自動的に向上させるオフラインAIツールを探ります。プロの写真家であろうと、個人のスナップショットを磨きたい愛好家であろうと、HitPaw AI Photo Enhancerは驚くべき結果をもたらす強力な機能を提供しま
AI駆動の音楽作成:楽曲とビデオを簡単に制作
音楽作成は時間、資源、専門知識を必要とする複雑なプロセスです。人工知能はこのプロセスを変革し、シンプルで誰でも利用できるものにしました。このガイドでは、AIがどのようにして誰でも無料でユニークな楽曲やビジュアルを制作できるようにするか、新たな創造的可能性を解き放つ方法を紹介します。直感的で使いやすいインターフェースと先進的なAIを備えたプラットフォームを探索し、音楽のアイデアを高コストなしで現実に
AI駆動の塗り絵ブック作成:包括的ガイド
塗り絵ブックのデザインは、芸術的表現とユーザーのリラックス体験を組み合わせた報われる追求です。しかし、そのプロセスは労働集約的です。幸い、AIツールは高品質で均一な塗り絵ページを簡単に作成できます。このガイドは、AIを使用して一貫したスタイルと最適な効率に焦点を当てた塗り絵ブック作成のステップごとのアプローチを提供します。主なポイントAIプロンプトツールを使用して、詳細で構造化された塗り絵ページの
コメント (10)
0/200
RonaldMartinez
2025年8月17日 18:00:59 JST
Google's Gemma 3 sounds like a game-changer! 98% of DeepSeek's accuracy with just one GPU? That's some serious efficiency. Curious how this'll shake up the AI startup scene. 🚀
0
GaryJones
2025年8月16日 2:00:59 JST
Google's Gemma 3 sounds like a game-changer! 98% of DeepSeek's accuracy with just one GPU? That's some serious efficiency. Curious how this stacks up in real-world apps! 😎
0
JonathanDavis
2025年8月13日 22:00:59 JST
Google's Gemma 3 sounds like a game-changer! Achieving 98% of DeepSeek's accuracy with just one GPU is wild. Makes me wonder how this’ll shake up the AI race—more power to the little guys? 🤔
0
ArthurSanchez
2025年8月5日 10:00:59 JST
Google's Gemma 3 sounds like a game-changer! 98% of DeepSeek's accuracy with just one GPU? That's like getting a sports car for the price of a bike! 😎 Can't wait to see how this shakes up the AI race.
0
EvelynHarris
2025年8月1日 15:08:50 JST
Google's Gemma 3 sounds like a game-changer! 98% of DeepSeek's accuracy with just one GPU? That's some serious efficiency. Can't wait to see how devs play with this open-source gem! 😎
0
ArthurLopez
2025年5月3日 11:53:19 JST
Google's Gemma 3 is pretty impressive, hitting 98% accuracy with just one GPU! 🤯 It's like they're showing off, but in a good way. Makes me wonder if I should switch to Google's tech for my projects. Definitely worth a try, right?
0
人工知能の経済学は最近、主要な焦点となっており、特にスタートアップのDeepSeek AIがGPUチップの使用で印象的な規模の経済を示しています。しかし、Googleも負けてはいません。水曜日、このテック大手は最新のオープンソース大規模言語モデル、Gemma 3を公開しました。これはDeepSeekのR1モデルとほぼ同等の精度を持ちながら、はるかに少ない計算能力を使用します。
Googleはこのパフォーマンスを「Elo」スコアを使用して測定しました。これはチェスやスポーツで競争者をランク付けするために一般的に使用されるシステムです。Gemma 3は1338点を獲得し、R1の1363点にわずかに及ばず、技術的にはR1がGemma 3を上回っています。しかし、GoogleはR1のスコアに到達するにはNvidiaのH100 GPUチップが32個必要であると推定していますが、Gemma 3は1つのH100 GPUだけでその結果を達成しています。Googleはこの計算とEloスコアのバランスを「スイートスポット」と称しています。
ブログ投稿で、GoogleはGemma 3を「単一のGPUまたはTPUで実行できる最も能力の高いモデル」と形容し、独自のカスタムAIチップである「テンソル処理ユニット」を指しています。同社は、Gemma 3が「そのサイズに対して最先端のパフォーマンスを提供する」と主張し、Llama-405B、DeepSeek-V3、o3-miniなどのモデルをLMArenaのランキングでの人間の好み評価で上回っています。このパフォーマンスにより、単一のGPUまたはTPUホストで魅力的なユーザー体験を簡単に作成できます。
Google
Googleのモデルは、MetaのLlama 3もEloスコアで上回っており、Googleはこれには16個のGPUが必要だと推定しています。競合モデルのこれらの数値はGoogleの推定であることに注意が必要です。DeepSeek AIは、R1にNvidiaのそれほど強力でないH800 GPUを1,814個使用したことのみを公開しています。
より詳細な情報は、HuggingFaceの開発者ブログ投稿で確認でき、Gemma 3のリポジトリもそこにあります。データセンターではなくデバイス上での使用を想定して設計されたGemma 3は、R1や他のオープンソースモデルに比べてパラメータ数が大幅に少なく、10億から270億の範囲です。現在の基準ではかなり控えめですが、R1は6710億のパラメータを誇り、選択的に370億のみを使用できます。
Gemma 3の効率性の鍵は、広く使用されているAI技術である蒸留にあります。これは、大きなモデルから訓練済みのモデル重みを小さなモデルに移すことで、その能力を向上させるものです。さらに、蒸留されたモデルは3つの品質管理措置を受けます:人間のフィードバックからの強化学習(RLHF)、機械のフィードバックからの強化学習(RLMF)、実行フィードバックからの強化学習(RLEF)。これらはモデルの出力を洗練させ、より役立つものにし、数学やコーディングの能力を向上させます。
Googleの開発者ブログではこれらのアプローチが詳述されており、別の投稿ではモバイルデバイス向けの最小の10億パラメータモデルの最適化技術について議論しています。これには量子化、キー値キャッシュレイアウトの更新、変数読み込み時間の改善、GPUウェイト共有が含まれます。
Googleは、Gemma 3をEloスコアだけでなく、Gemma 2やクローズドソースのGeminiモデルとLiveCodeBenchなどのさまざまなベンチマークで比較しています。Gemma 3は一般にGemini 1.5やGemini 2.0の精度には及ばないものの、Googleは「パラメータ数が少ないにもかかわらず、クローズドGeminiモデルと比較して競争力のあるパフォーマンスを示す」と述べています。
Google
Gemma 2に対するGemma 3の大きなアップグレードは、コンテキストウィンドウが8000トークンから128,000トークンに拡張されたことです。これにより、モデルは論文や本全体などの大きなテキストを処理できます。Gemma 3はマルチモーダルで、テキストと画像の両方の入力を処理でき、Gemma 2の英語のみの機能に比べて140以上の言語をサポートします。
これらの主な機能以外にも、Gemma 3にはいくつかの興味深い側面があります。大規模言語モデルにおける問題の1つは、訓練データの一部を記憶する可能性があり、プライバシー侵害につながる可能性があります。Googleの研究者はGemma 3をテストし、以前のモデルよりも長編テキストを記憶する率が低いことを発見し、プライバシー保護が向上していることを示唆しています。
詳細に興味がある方は、Gemma 3の技術論文でモデルの能力と開発の詳細な内訳が提供されています。




Google's Gemma 3 sounds like a game-changer! 98% of DeepSeek's accuracy with just one GPU? That's some serious efficiency. Curious how this'll shake up the AI startup scene. 🚀




Google's Gemma 3 sounds like a game-changer! 98% of DeepSeek's accuracy with just one GPU? That's some serious efficiency. Curious how this stacks up in real-world apps! 😎




Google's Gemma 3 sounds like a game-changer! Achieving 98% of DeepSeek's accuracy with just one GPU is wild. Makes me wonder how this’ll shake up the AI race—more power to the little guys? 🤔




Google's Gemma 3 sounds like a game-changer! 98% of DeepSeek's accuracy with just one GPU? That's like getting a sports car for the price of a bike! 😎 Can't wait to see how this shakes up the AI race.




Google's Gemma 3 sounds like a game-changer! 98% of DeepSeek's accuracy with just one GPU? That's some serious efficiency. Can't wait to see how devs play with this open-source gem! 😎




Google's Gemma 3 is pretty impressive, hitting 98% accuracy with just one GPU! 🤯 It's like they're showing off, but in a good way. Makes me wonder if I should switch to Google's tech for my projects. Definitely worth a try, right?












