Google、デバイス上Gemini AIモデルをロボット向けに公開
Google DeepMind、Gemini Robotics On-Deviceをオフラインのロボット制御向けに発表
Google DeepMindがロボティクス分野でエキサイティングなアップデートを発表—Gemini Robotics On-Deviceは、ロボットがインターネット接続なしでタスクを実行できる新しい言語モデルです。これは以前のGemini Roboticsモデル(3月リリース)を基盤に、重要なアップグレード:ローカル処理を備えています。
開発者は自然言語プロンプトを使用してロボットの動きを微調整でき、さまざまなタスクにロボットを適応させるのが簡単になりました。Googleは、そのパフォーマンスがクラウドベースのモデルとほぼ同等で、他のデバイス上モデル(具体的なものは未指定)を上回ると主張しています。

画像提供:Google 現実世界のロボットスキル:洗濯から組み立てラインまで
デモでは、このモデルを搭載したロボットが以下のタスクを成功裏に実行しました:
- バッグのジッパーを開ける
- 服を畳む
- 新しい物体に対応(産業用ベルトでの部品組み立てなど)
元々はALOHAロボット向けに訓練され、後に以下のロボットでも動作するよう適応されました:
- Franka FR3(双腕産業用ロボット)
- ApptronikのApolloヒューマノイド
Gemini Robotics SDK:デモンストレーションでロボットを訓練
Googleはまた、Gemini Robotics SDKを発表し、開発者がMuJoCo物理シミュレータで50~100のタスクデモンストレーションを使用してロボットを訓練できるようにしました。これにより、現実世界のアプリケーションでのロボット学習が加速する可能性があります。
大きな視点:AIのロボティクスへの進出
Googleはこのレースで一人ではありません:
- Nvidiaはヒューマノイド向けの基礎モデルを構築中
- Hugging Faceはオープンなモデルと実際のロボットに取り組んでいます
- RLWRLD(韓国スタートアップ)はロボティクス向けの基礎モデルを開発中
AI駆動のロボットの未来は熱を帯びており、オフライン、デバイス上、リアルタイムで進行中です。
さらに技術的洞察が必要ですか?
Boston, MA(7月15日)のTechCrunch Disruptに参加して、AI、ロボティクス、ベンチャートレンドについての深い議論を体験してください。All Stageパスで200ドル以上節約し、Precursor Ventures、NEA、Index Ventures、Underscore VCのリーダーとつながりましょう。
👉 今すぐ登録
関連記事
Googleが検索クエリ向けオーディオ概要をテスト
Google検索がハンズフリー学習のためのオーディオ概要を導入Googleは実験的な新機能—オーディオ概要—を展開し、ユーザーに検索結果を消費する新しい方法を提供しています。この機能は、NotebookLM(GoogleのAI駆動型研究ツール)で最初にテストされ、現在は同社の実験的機能のテスト場であるGoogle Search Labsで利用可能です。オーディオ概要の仕組み料理中や運転中、または読
新しい研究がLLMが実際にどれだけデータを記憶するかを明らかに
AIモデルは実際にどれだけ記憶するのか? 新しい研究が驚くべき洞察を明らかにChatGPT、Claude、Geminiなどの大規模言語モデル(LLM)は、本、ウェブサイト、コード、そして画像や音声などのマルチメディアからなる膨大なデータセット—何兆もの単語—で訓練されています。しかし、そのデータはどうなるのでしょうか? これらのモデルは本当に言語を「理解」しているのか、それとも記憶した断片をただ繰
GoogleがAndroidおよびChrome向けに新しいAIとアクセシビリティのアップグレードを導入
GoogleがAndroidおよびChrome向けにAIとアクセシビリティ機能を拡張GoogleはAndroidとChromeに刺激的なアップデートを公開し、これまで以上にスマートでアクセスしやすくしました。最大のハイライト? TalkBack、Androidの標準搭載スクリーンリーダーにより、ユーザーはGemini AIに画像や画面上のコンテンツに関する質問をすることが可能になり、視覚障害者や弱
コメント (0)
0/200
Google DeepMind、Gemini Robotics On-Deviceをオフラインのロボット制御向けに発表
Google DeepMindがロボティクス分野でエキサイティングなアップデートを発表—Gemini Robotics On-Deviceは、ロボットがインターネット接続なしでタスクを実行できる新しい言語モデルです。これは以前のGemini Roboticsモデル(3月リリース)を基盤に、重要なアップグレード:ローカル処理を備えています。
開発者は自然言語プロンプトを使用してロボットの動きを微調整でき、さまざまなタスクにロボットを適応させるのが簡単になりました。Googleは、そのパフォーマンスがクラウドベースのモデルとほぼ同等で、他のデバイス上モデル(具体的なものは未指定)を上回ると主張しています。
現実世界のロボットスキル:洗濯から組み立てラインまで
デモでは、このモデルを搭載したロボットが以下のタスクを成功裏に実行しました:
- バッグのジッパーを開ける
- 服を畳む
- 新しい物体に対応(産業用ベルトでの部品組み立てなど)
元々はALOHAロボット向けに訓練され、後に以下のロボットでも動作するよう適応されました:
- Franka FR3(双腕産業用ロボット)
- ApptronikのApolloヒューマノイド
Gemini Robotics SDK:デモンストレーションでロボットを訓練
Googleはまた、Gemini Robotics SDKを発表し、開発者がMuJoCo物理シミュレータで50~100のタスクデモンストレーションを使用してロボットを訓練できるようにしました。これにより、現実世界のアプリケーションでのロボット学習が加速する可能性があります。
大きな視点:AIのロボティクスへの進出
Googleはこのレースで一人ではありません:
- Nvidiaはヒューマノイド向けの基礎モデルを構築中
- Hugging Faceはオープンなモデルと実際のロボットに取り組んでいます
- RLWRLD(韓国スタートアップ)はロボティクス向けの基礎モデルを開発中
AI駆動のロボットの未来は熱を帯びており、オフライン、デバイス上、リアルタイムで進行中です。
さらに技術的洞察が必要ですか?
Boston, MA(7月15日)のTechCrunch Disruptに参加して、AI、ロボティクス、ベンチャートレンドについての深い議論を体験してください。All Stageパスで200ドル以上節約し、Precursor Ventures、NEA、Index Ventures、Underscore VCのリーダーとつながりましょう。
👉 今すぐ登録












