Google Lance un Modèle Gemini AI sur Appareil pour Robots
Google DeepMind Dévoile Gemini Robotics sur Appareil pour Contrôle Hors Ligne des Robots
Google DeepMind vient de publier une mise à jour passionnante dans le domaine de la robotique—Gemini Robotics sur Appareil, un nouveau modèle de langage qui permet aux robots d'exécuter des tâches sans connexion Internet. Cela s'appuie sur leur précédent modèle Gemini Robotics (sorti en mars) mais avec une amélioration clé : traitement local.
Les développeurs peuvent désormais ajuster les mouvements des robots à l'aide de commandes en langage naturel, facilitant l'adaptation des robots à différentes tâches. Google affirme que ses performances sont presque équivalentes à celles de son homologue basé sur le cloud et surpassent les autres modèles sur appareil (bien qu'ils n'aient pas précisé lesquels).

Crédits d'image : Google Compétences des Robots dans le Monde Réel : Du Linge aux Chaînes de Montage
Dans les démonstrations, les robots utilisant ce modèle ont réussi à :
- Ouvrir des sacs à fermeture éclair
- Plier des vêtements
- S'adapter à de nouveaux objets (comme assembler des pièces sur une chaîne industrielle)
Initialement entraîné pour les robots ALOHA, le modèle a ensuite été adapté pour fonctionner sur :
- Franka FR3 (un robot industriel à deux bras)
- L'humanoïde Apollo d'Apptronik
SDK Gemini Robotics : Entraînement des Robots avec des Démonstrations
Google a également annoncé un SDK Gemini Robotics, permettant aux développeurs d'entraîner des robots à l'aide de 50 à 100 démonstrations de tâches dans le simulateur physique MuJoCo. Cela pourrait accélérer l'apprentissage des robots pour des applications réelles.
La Vision Globale : L'Avancée de l'IA dans la Robotique
Google n'est pas seul dans cette course :
- Nvidia développe des modèles de base pour les humanoïdes
- Hugging Face travaille sur des modèles ouverts—et des robots réels
- RLWRLD (une startup coréenne) développe des modèles fondamentaux pour la robotique
L'avenir des robots alimentés par l'IA s'intensifie—et cela se passe hors ligne, sur appareil, et en temps réel.
Envie de plus d'informations technologiques ?
Rejoignez-nous à TechCrunch Disrupt à Boston, MA (15 juillet) pour des plongées approfondies dans l'IA, la robotique et les tendances du capital-risque. Économisez plus de 200 $ sur les pass toutes scènes et connectez-vous avec des leaders de Precursor Ventures, NEA, Index Ventures, et Underscore VC.
👉 INSCRIVEZ-VOUS MAINTENANT
Article connexe
Google tests Audio Overviews for Search queries
Google Search Introduces Audio Overviews for Hands-Free LearningGoogle just rolled out an experimental new feature—Audio Overviews—giving users another way to consume search results. The feature, first tested in NotebookLM (Google’s AI-powered research tool), is now available in Google Search Labs,
New Study Reveals How Much Data LLMs Actually Memorize
How Much Do AI Models Actually Memorize? New Research Reveals Surprising InsightsWe all know that large language models (LLMs) like ChatGPT, Claude, and Gemini are trained on enormous datasets—trillions of words from books, websites, code, and even multimedia like images and audio. But what exactly
Google Introduces New AI and Accessibility Upgrades for Android and Chrome
Google Expands AI and Accessibility Features for Android and ChromeGoogle just dropped some exciting updates for Android and Chrome, making them smarter and more accessible than ever. The biggest highlight? TalkBack, Android’s built-in screen reader, now lets users ask Gemini AI questions about imag
commentaires (0)
0/200
Google DeepMind Dévoile Gemini Robotics sur Appareil pour Contrôle Hors Ligne des Robots
Google DeepMind vient de publier une mise à jour passionnante dans le domaine de la robotique—Gemini Robotics sur Appareil, un nouveau modèle de langage qui permet aux robots d'exécuter des tâches sans connexion Internet. Cela s'appuie sur leur précédent modèle Gemini Robotics (sorti en mars) mais avec une amélioration clé : traitement local.
Les développeurs peuvent désormais ajuster les mouvements des robots à l'aide de commandes en langage naturel, facilitant l'adaptation des robots à différentes tâches. Google affirme que ses performances sont presque équivalentes à celles de son homologue basé sur le cloud et surpassent les autres modèles sur appareil (bien qu'ils n'aient pas précisé lesquels).
Compétences des Robots dans le Monde Réel : Du Linge aux Chaînes de Montage
Dans les démonstrations, les robots utilisant ce modèle ont réussi à :
- Ouvrir des sacs à fermeture éclair
- Plier des vêtements
- S'adapter à de nouveaux objets (comme assembler des pièces sur une chaîne industrielle)
Initialement entraîné pour les robots ALOHA, le modèle a ensuite été adapté pour fonctionner sur :
- Franka FR3 (un robot industriel à deux bras)
- L'humanoïde Apollo d'Apptronik
SDK Gemini Robotics : Entraînement des Robots avec des Démonstrations
Google a également annoncé un SDK Gemini Robotics, permettant aux développeurs d'entraîner des robots à l'aide de 50 à 100 démonstrations de tâches dans le simulateur physique MuJoCo. Cela pourrait accélérer l'apprentissage des robots pour des applications réelles.
La Vision Globale : L'Avancée de l'IA dans la Robotique
Google n'est pas seul dans cette course :
- Nvidia développe des modèles de base pour les humanoïdes
- Hugging Face travaille sur des modèles ouverts—et des robots réels
- RLWRLD (une startup coréenne) développe des modèles fondamentaux pour la robotique
L'avenir des robots alimentés par l'IA s'intensifie—et cela se passe hors ligne, sur appareil, et en temps réel.
Envie de plus d'informations technologiques ?
Rejoignez-nous à TechCrunch Disrupt à Boston, MA (15 juillet) pour des plongées approfondies dans l'IA, la robotique et les tendances du capital-risque. Économisez plus de 200 $ sur les pass toutes scènes et connectez-vous avec des leaders de Precursor Ventures, NEA, Index Ventures, et Underscore VC.
👉 INSCRIVEZ-VOUS MAINTENANT












