Google Lanza Modelo de IA Gemini en Dispositivo para Robots
Google DeepMind Presenta Gemini Robotics On-Device para Control de Robots Sin Conexión
Google DeepMind acaba de lanzar una actualización emocionante en el ámbito de la robótica—Gemini Robotics On-Device, un nuevo modelo de lenguaje que permite a los robots realizar tareas sin necesidad de conexión a internet. Esto se basa en su anterior modelo Gemini Robotics (lanzado en marzo) pero con una mejora clave: procesamiento local.
Los desarrolladores ahora pueden ajustar los movimientos de los robots usando prompts en lenguaje natural, facilitando la adaptación de los robots para diferentes tareas. Google afirma que su rendimiento es casi equiparable al de su contraparte basada en la nube y supera a otros modelos en dispositivo (aunque no especificaron cuáles).

Créditos de la imagen: Google Habilidades de Robots en el Mundo Real: Desde la Lavandería hasta Líneas de Ensamblaje
En demostraciones, los robots que ejecutan este modelo lograron:
- Abrir cremalleras de bolsas
- Doblar ropa
- Adaptarse a nuevos objetos (como ensamblar piezas en una cinta industrial)
Originalmente entrenado para robots ALOHA, el modelo fue adaptado posteriormente para funcionar en:
- Franka FR3 (un robot industrial de doble brazo)
- Humanoide Apollo de Apptronik
SDK de Gemini Robotics: Entrenamiento de Robots con Demostraciones
Google también anunció un SDK de Gemini Robotics, que permite a los desarrolladores entrenar robots usando 50-100 demostraciones de tareas en el simulador físico MuJoCo. Esto podría acelerar el aprendizaje de robots para aplicaciones en el mundo real.
La Visión Más Amplia: El Avance de la IA en la Robótica
Google no está solo en esta carrera:
- Nvidia está desarrollando modelos fundacionales para humanoides
- Hugging Face está trabajando en modelos abiertos—y robots reales
- RLWRLD (una startup coreana) está desarrollando modelos fundacionales para robótica
El futuro de los robots impulsados por IA está calentándose—y está ocurriendo sin conexión, en dispositivo y en tiempo real.
¿Quieres más información sobre tecnología?
Únete a nosotros en TechCrunch Disrupt en Boston, MA (15 de julio) para profundizar en IA, robótica y tendencias de capital de riesgo. Ahorra más de $200 en pases para todas las etapas y conéctate con líderes de Precursor Ventures, NEA, Index Ventures y Underscore VC.
👉 REGÍSTRATE AHORA
Artículo relacionado
Google tests Audio Overviews for Search queries
Google Search Introduces Audio Overviews for Hands-Free LearningGoogle just rolled out an experimental new feature—Audio Overviews—giving users another way to consume search results. The feature, first tested in NotebookLM (Google’s AI-powered research tool), is now available in Google Search Labs,
New Study Reveals How Much Data LLMs Actually Memorize
How Much Do AI Models Actually Memorize? New Research Reveals Surprising InsightsWe all know that large language models (LLMs) like ChatGPT, Claude, and Gemini are trained on enormous datasets—trillions of words from books, websites, code, and even multimedia like images and audio. But what exactly
Google Introduces New AI and Accessibility Upgrades for Android and Chrome
Google Expands AI and Accessibility Features for Android and ChromeGoogle just dropped some exciting updates for Android and Chrome, making them smarter and more accessible than ever. The biggest highlight? TalkBack, Android’s built-in screen reader, now lets users ask Gemini AI questions about imag
comentario (0)
0/200
Google DeepMind Presenta Gemini Robotics On-Device para Control de Robots Sin Conexión
Google DeepMind acaba de lanzar una actualización emocionante en el ámbito de la robótica—Gemini Robotics On-Device, un nuevo modelo de lenguaje que permite a los robots realizar tareas sin necesidad de conexión a internet. Esto se basa en su anterior modelo Gemini Robotics (lanzado en marzo) pero con una mejora clave: procesamiento local.
Los desarrolladores ahora pueden ajustar los movimientos de los robots usando prompts en lenguaje natural, facilitando la adaptación de los robots para diferentes tareas. Google afirma que su rendimiento es casi equiparable al de su contraparte basada en la nube y supera a otros modelos en dispositivo (aunque no especificaron cuáles).
Habilidades de Robots en el Mundo Real: Desde la Lavandería hasta Líneas de Ensamblaje
En demostraciones, los robots que ejecutan este modelo lograron:
- Abrir cremalleras de bolsas
- Doblar ropa
- Adaptarse a nuevos objetos (como ensamblar piezas en una cinta industrial)
Originalmente entrenado para robots ALOHA, el modelo fue adaptado posteriormente para funcionar en:
- Franka FR3 (un robot industrial de doble brazo)
- Humanoide Apollo de Apptronik
SDK de Gemini Robotics: Entrenamiento de Robots con Demostraciones
Google también anunció un SDK de Gemini Robotics, que permite a los desarrolladores entrenar robots usando 50-100 demostraciones de tareas en el simulador físico MuJoCo. Esto podría acelerar el aprendizaje de robots para aplicaciones en el mundo real.
La Visión Más Amplia: El Avance de la IA en la Robótica
Google no está solo en esta carrera:
- Nvidia está desarrollando modelos fundacionales para humanoides
- Hugging Face está trabajando en modelos abiertos—y robots reales
- RLWRLD (una startup coreana) está desarrollando modelos fundacionales para robótica
El futuro de los robots impulsados por IA está calentándose—y está ocurriendo sin conexión, en dispositivo y en tiempo real.
¿Quieres más información sobre tecnología?
Únete a nosotros en TechCrunch Disrupt en Boston, MA (15 de julio) para profundizar en IA, robótica y tendencias de capital de riesgo. Ahorra más de $200 en pases para todas las etapas y conéctate con líderes de Precursor Ventures, NEA, Index Ventures y Underscore VC.
👉 REGÍSTRATE AHORA












