Option
Heim
Nachricht
Google Startet Geräteinterne Gemini AI-Modell für Roboter

Google Startet Geräteinterne Gemini AI-Modell für Roboter

8. Juli 2025
0

Google DeepMind Enthüllt Gemini Robotics On-Device für Offline-Robotersteuerung

Google DeepMind hat gerade ein aufregendes Update im Bereich Robotik veröffentlicht—Gemini Robotics On-Device, ein neues Sprachmodell, das Robotern ermöglicht, Aufgaben ohne Internetverbindung auszuführen. Dies baut auf ihrem früheren Gemini Robotics-Modell (veröffentlicht im März) auf, jedoch mit einem entscheidenden Upgrade: lokale Verarbeitung.

Entwickler können nun Roboterbewegungen mit natürlichen Sprachbefehlen optimieren, was die Anpassung von Robotern an verschiedene Aufgaben erleichtert. Google gibt an, dass die Leistung fast mit der cloudbasierten Version mithält und andere geräteinterne Modelle übertrifft (ohne jedoch anzugeben, welche).

Bildnachweis: Google

Reale Roboterfähigkeiten: Von Wäsche bis zu Fließbändern

In Demos führten Roboter, die dieses Modell nutzen, erfolgreich folgende Aufgaben aus:

  • Reißverschlüsse öffnen
  • Kleidung falten
  • Anpassung an neue Objekte (wie das Zusammenbauen von Teilen an einem industriellen Fließband)

Ursprünglich für ALOHA-Roboter trainiert, wurde das Modell später angepasst für:

  • Franka FR3 (ein zweiarmiger Industrieroboter)
  • Apptroniks Apollo-Humanoid

Gemini Robotics SDK: Roboter mit Demonstrationen trainieren

Google kündigte auch ein Gemini Robotics SDK an, das Entwicklern ermöglicht, Roboter mit 50-100 Aufgaben-Demonstrationen im MuJoCo-Physiksimulator zu trainieren. Dies könnte das Lernen von Robotern für reale Anwendungen beschleunigen.

Das größere Bild: Der Vorstoß von KI in die Robotik

Google ist nicht allein in diesem Wettlauf:

  • Nvidia entwickelt Grundlagenmodelle für Humanoide
  • Hugging Face arbeitet an offenen Modellen – und echten Robotern
  • RLWRLD (ein koreanisches Startup) entwickelt grundlegende Modelle für Robotik

Die Zukunft von KI-gesteuerten Robotern heizt sich auf – und das geschieht offline, geräteintern und in Echtzeit.


Möchten Sie mehr Technik-Einblicke?
Besuchen Sie uns auf der TechCrunch Disrupt in Boston, MA (15. Juli) für tiefgehende Einblicke in KI, Robotik und Venture-Trends. Sparen Sie über 200 $ bei All Stage Pässen und vernetzen Sie sich mit Führungskräften von Precursor Ventures, NEA, Index Ventures und Underscore VC.

👉 JETZT REGISTRIEREN

Verwandter Artikel
Google tests Audio Overviews for Search queries Google tests Audio Overviews for Search queries Google Search Introduces Audio Overviews for Hands-Free LearningGoogle just rolled out an experimental new feature—Audio Overviews—giving users another way to consume search results. The feature, first tested in NotebookLM (Google’s AI-powered research tool), is now available in Google Search Labs,
New Study Reveals How Much Data LLMs Actually Memorize New Study Reveals How Much Data LLMs Actually Memorize How Much Do AI Models Actually Memorize? New Research Reveals Surprising InsightsWe all know that large language models (LLMs) like ChatGPT, Claude, and Gemini are trained on enormous datasets—trillions of words from books, websites, code, and even multimedia like images and audio. But what exactly
Google Introduces New AI and Accessibility Upgrades for Android and Chrome Google Introduces New AI and Accessibility Upgrades for Android and Chrome Google Expands AI and Accessibility Features for Android and ChromeGoogle just dropped some exciting updates for Android and Chrome, making them smarter and more accessible than ever. The biggest highlight? TalkBack, Android’s built-in screen reader, now lets users ask Gemini AI questions about imag
Kommentare (0)
0/200
Zurück nach oben
OR