Google, 로봇용 온디바이스 Gemini AI 모델 출시
Google DeepMind, 오프라인 로봇 제어를 위한 Gemini Robotics On-Device 공개
Google DeepMind가 로봇 분야에서 흥미로운 업데이트를 발표했습니다—Gemini Robotics On-Device, 인터넷 연결 없이 작업을 수행할 수 있는 새로운 언어 모델입니다. 이는 이전 Gemini Robotics 모델(3월 출시)을 기반으로 하지만 핵심 업그레이드: 로컬 처리를 제공합니다.
개발자는 이제 자연어 프롬프트를 사용해 로봇 움직임을 미세 조정할 수 있어 다양한 작업에 로봇을 쉽게 적응시킬 수 있습니다. Google은 이 모델의 성능이 클라우드 기반 모델과 거의 동등하며 다른 온디바이스 모델을 능가한다고 주장했습니다(구체적으로 어떤 모델인지는 밝히지 않았습니다).

이미지 제공: Google 실세계 로봇 기술: 세탁부터 조립 라인까지
데모에서 이 모델을 실행하는 로봇은 다음을 성공적으로 수행했습니다:
- 가방 지퍼 열기
- 옷 접기
- 새로운 객체에 적응 (예: 산업용 벨트에서 부품 조립)
원래 ALOHA 로봇용으로 훈련된 이 모델은 이후 다음에 맞게 조정되었습니다:
- Franka FR3 (양팔 산업용 로봇)
- Apptronik의 Apollo 휴머노이드
Gemini Robotics SDK: 데모로 로봇 훈련
Google은 또한 Gemini Robotics SDK를 발표했으며, 이를 통해 개발자는 MuJoCo 물리 시뮬레이터에서 50-100개의 작업 데모를 사용해 로봇을 훈련할 수 있습니다. 이는 실세계 응용 프로그램에 로봇 학습을 가속화할 수 있습니다.
더 큰 그림: AI의 로봇 공학 진출
Google만 이 경쟁에 참여하는 것은 아닙니다:
- Nvidia는 휴머노이드용 기초 모델을 개발 중입니다
- Hugging Face는 오픈 모델과 실제 로봇을 연구 중입니다
- RLWRLD (한국 스타트업)는 로봇 공학용 기초 모델을 개발 중입니다
AI 기반 로봇의 미래가 뜨거워지고 있으며, 이는 오프라인, 온디바이스, 실시간으로 일어나고 있습니다.
더 많은 기술 인사이트를 원하시나요?
Boston, MA (7월 15일)에서 열리는 TechCrunch Disrupt에 참여해 AI, 로봇 공학, 벤처 트렌드에 대한 심층 탐구를 경험하세요. 모든 스테이지 패스에서 $200 이상 할인 받고 Precursor Ventures, NEA, Index Ventures, Underscore VC의 리더들과 연결하세요.
👉 지금 등록하세요
관련 기사
Google tests Audio Overviews for Search queries
Google Search Introduces Audio Overviews for Hands-Free LearningGoogle just rolled out an experimental new feature—Audio Overviews—giving users another way to consume search results. The feature, first tested in NotebookLM (Google’s AI-powered research tool), is now available in Google Search Labs,
New Study Reveals How Much Data LLMs Actually Memorize
How Much Do AI Models Actually Memorize? New Research Reveals Surprising InsightsWe all know that large language models (LLMs) like ChatGPT, Claude, and Gemini are trained on enormous datasets—trillions of words from books, websites, code, and even multimedia like images and audio. But what exactly
Google Introduces New AI and Accessibility Upgrades for Android and Chrome
Google Expands AI and Accessibility Features for Android and ChromeGoogle just dropped some exciting updates for Android and Chrome, making them smarter and more accessible than ever. The biggest highlight? TalkBack, Android’s built-in screen reader, now lets users ask Gemini AI questions about imag
의견 (0)
0/200
Google DeepMind, 오프라인 로봇 제어를 위한 Gemini Robotics On-Device 공개
Google DeepMind가 로봇 분야에서 흥미로운 업데이트를 발표했습니다—Gemini Robotics On-Device, 인터넷 연결 없이 작업을 수행할 수 있는 새로운 언어 모델입니다. 이는 이전 Gemini Robotics 모델(3월 출시)을 기반으로 하지만 핵심 업그레이드: 로컬 처리를 제공합니다.
개발자는 이제 자연어 프롬프트를 사용해 로봇 움직임을 미세 조정할 수 있어 다양한 작업에 로봇을 쉽게 적응시킬 수 있습니다. Google은 이 모델의 성능이 클라우드 기반 모델과 거의 동등하며 다른 온디바이스 모델을 능가한다고 주장했습니다(구체적으로 어떤 모델인지는 밝히지 않았습니다).
실세계 로봇 기술: 세탁부터 조립 라인까지
데모에서 이 모델을 실행하는 로봇은 다음을 성공적으로 수행했습니다:
- 가방 지퍼 열기
- 옷 접기
- 새로운 객체에 적응 (예: 산업용 벨트에서 부품 조립)
원래 ALOHA 로봇용으로 훈련된 이 모델은 이후 다음에 맞게 조정되었습니다:
- Franka FR3 (양팔 산업용 로봇)
- Apptronik의 Apollo 휴머노이드
Gemini Robotics SDK: 데모로 로봇 훈련
Google은 또한 Gemini Robotics SDK를 발표했으며, 이를 통해 개발자는 MuJoCo 물리 시뮬레이터에서 50-100개의 작업 데모를 사용해 로봇을 훈련할 수 있습니다. 이는 실세계 응용 프로그램에 로봇 학습을 가속화할 수 있습니다.
더 큰 그림: AI의 로봇 공학 진출
Google만 이 경쟁에 참여하는 것은 아닙니다:
- Nvidia는 휴머노이드용 기초 모델을 개발 중입니다
- Hugging Face는 오픈 모델과 실제 로봇을 연구 중입니다
- RLWRLD (한국 스타트업)는 로봇 공학용 기초 모델을 개발 중입니다
AI 기반 로봇의 미래가 뜨거워지고 있으며, 이는 오프라인, 온디바이스, 실시간으로 일어나고 있습니다.
더 많은 기술 인사이트를 원하시나요?
Boston, MA (7월 15일)에서 열리는 TechCrunch Disrupt에 참여해 AI, 로봇 공학, 벤처 트렌드에 대한 심층 탐구를 경험하세요. 모든 스테이지 패스에서 $200 이상 할인 받고 Precursor Ventures, NEA, Index Ventures, Underscore VC의 리더들과 연결하세요.
👉 지금 등록하세요












