Deepmind CEO Demis Hassabis는 Google의 Gemini 및 Veo AI 모델의 향후 통합을 발표했습니다.

최근 팟캐스트 Possible 에피소드에서 LinkedIn 공동 창립자 Reid Hoffman이 공동 진행자로 출연한 가운데, Google DeepMind CEO Demis Hassabis가 Google의 계획에 대한 흥미로운 소식을 전했습니다. 그는 Google이 Gemini AI 모델을 Veo 비디오 생성 모델과 통합하려고 한다고 밝혔습니다. 이 융합은 Gemini가 물리적 세계를 더 잘 이해하도록 하여 실생활의 역학을 더 효과적으로 파악할 수 있게 하는 것을 목표로 합니다.
Hassabis는 Gemini가 처음부터 다중 모달로 설계되었다고 강조했습니다. "우리는 항상 우리의 기반 모델인 Gemini를 처음부터 다중 모달로 구축해왔습니다,"라고 그는 설명했습니다. 이 접근 방식의 동기는? 일상생활에서 진정으로 도움을 줄 수 있는 범용 디지털 비서를 만들겠다는 비전입니다. "실제 세상에서 … 당신을 실제로 돕는 비서,"라고 Hassabis는 자세히 설명했습니다.
AI 산업은 소위 "옴니" 모델—다양한 유형의 미디어를 처리하고 종합할 수 있는 모델—을 향해 꾸준히 발전하고 있습니다. 예를 들어, Google의 최신 Gemini 버전은 텍스트뿐만 아니라 오디오와 이미지도 생성할 수 있습니다. 한편, OpenAI의 ChatGPT 기본 모델은 즉석에서 이미지를 생성할 수 있으며, Studio Ghibli 스타일의 매력적인 예술 작품도 포함됩니다. Amazon도 뒤처지지 않고 있으며, 올해 말에 "모든 것에서 모든 것으로" 모델을 출시할 계획입니다.
이러한 옴니 모델은 이미지, 비디오, 오디오, 텍스트 등 막대한 양의 훈련 데이터를 요구합니다. Hassabis는 Veo의 비디오 데이터가 주로 YouTube에서 온다고 암시했습니다. YouTube는 Google이 소유한 보물 창고입니다. "기본적으로 YouTube 비디오를—아주 많은 YouTube 비디오를—보면서 [Veo 2]가 세상의 물리학을 파악할 수 있습니다,"라고 그는 언급했습니다.
Google은 이전에 TechCrunch에 자사 모델이 YouTube 크리에이터들과의 계약에 따라 "일부" YouTube 콘텐츠로 훈련될 수 있다고 언급한 바 있습니다. 작년에 Google이 AI 모델 훈련을 위해 더 많은 데이터에 접근하기 위해 서비스 약관을 확대한 점도 주목할 만합니다.
관련 기사
실시간 AI 동영상, 딥 리서치 및 새로운 기능(120자)을 추가한 Google의 Gemini 앱
Google은 I/O 2025 개발자 컨퍼런스에서 멀티모달 기능을 확장하고 차세대 AI 모델을 도입하며 제품 포트폴리오 전반에 걸쳐 에코시스템 통합을 강화하는 등 Gemini AI의 중요한 개선 사항을 공개했습니다.주요 Gemini 라이브 출시Google은 모든 iOS 및 Android 사용자에게 제미니 라이브의 시각 인식 기능을 공식 출시했습니다. 최첨단
구글의 최신 제미니 AI 모델은 테스트에서 안전 점수가 하락하고 있습니다.
Google의 내부 테스트 결과 최신 AI 모델의 안전 프로토콜이 이전 버전에 비해 성능이 저하된 것으로 나타났습니다. 새로 발표된 벤치마크에 따르면 Gemini 2.5 플래시 모델은 텍스트와 이미지 프롬프트를 모두 처리할 때 주요 안전 지표에서 가이드라인 위반 비율이 4~10% 더 높은 것으로 나타났습니다.이 기술 대기업의 자동화된 평가는 우려스러운 경향
구글의 제미니 AI가 포켓몬 블루를 정복하다
구글의 AI 이정표: 클래식 포켓몬 어드벤처 정복구글의 가장 진보된 AI 모델이 1996년 게임보이 타이틀인 포켓몬 블루를 완성하는 등 주목할 만한 게임 혁신을 이뤄낸 것으로 보입니다. 순다르 피차이 CEO는 소셜 미디어를 통해 이 성과를 축하했지만, 이 성과에는 중요한 맥락이 있습니다.제미니 플레이 포켓몬 생방송 프로젝트는 사실 소프트웨어 엔지니어인 조엘
의견 (1)
0/200
RalphSanchez
2025년 8월 1일 오전 11시 48분 18초 GMT+09:00
Wow, merging Gemini with Veo sounds like a game-changer! Can't wait to see how this powers up video creation. But, like, is Google trying to dominate every AI corner now? 😅
0
최근 팟캐스트 Possible 에피소드에서 LinkedIn 공동 창립자 Reid Hoffman이 공동 진행자로 출연한 가운데, Google DeepMind CEO Demis Hassabis가 Google의 계획에 대한 흥미로운 소식을 전했습니다. 그는 Google이 Gemini AI 모델을 Veo 비디오 생성 모델과 통합하려고 한다고 밝혔습니다. 이 융합은 Gemini가 물리적 세계를 더 잘 이해하도록 하여 실생활의 역학을 더 효과적으로 파악할 수 있게 하는 것을 목표로 합니다.
Hassabis는 Gemini가 처음부터 다중 모달로 설계되었다고 강조했습니다. "우리는 항상 우리의 기반 모델인 Gemini를 처음부터 다중 모달로 구축해왔습니다,"라고 그는 설명했습니다. 이 접근 방식의 동기는? 일상생활에서 진정으로 도움을 줄 수 있는 범용 디지털 비서를 만들겠다는 비전입니다. "실제 세상에서 … 당신을 실제로 돕는 비서,"라고 Hassabis는 자세히 설명했습니다.
AI 산업은 소위 "옴니" 모델—다양한 유형의 미디어를 처리하고 종합할 수 있는 모델—을 향해 꾸준히 발전하고 있습니다. 예를 들어, Google의 최신 Gemini 버전은 텍스트뿐만 아니라 오디오와 이미지도 생성할 수 있습니다. 한편, OpenAI의 ChatGPT 기본 모델은 즉석에서 이미지를 생성할 수 있으며, Studio Ghibli 스타일의 매력적인 예술 작품도 포함됩니다. Amazon도 뒤처지지 않고 있으며, 올해 말에 "모든 것에서 모든 것으로" 모델을 출시할 계획입니다.
이러한 옴니 모델은 이미지, 비디오, 오디오, 텍스트 등 막대한 양의 훈련 데이터를 요구합니다. Hassabis는 Veo의 비디오 데이터가 주로 YouTube에서 온다고 암시했습니다. YouTube는 Google이 소유한 보물 창고입니다. "기본적으로 YouTube 비디오를—아주 많은 YouTube 비디오를—보면서 [Veo 2]가 세상의 물리학을 파악할 수 있습니다,"라고 그는 언급했습니다.
Google은 이전에 TechCrunch에 자사 모델이 YouTube 크리에이터들과의 계약에 따라 "일부" YouTube 콘텐츠로 훈련될 수 있다고 언급한 바 있습니다. 작년에 Google이 AI 모델 훈련을 위해 더 많은 데이터에 접근하기 위해 서비스 약관을 확대한 점도 주목할 만합니다.


Wow, merging Gemini with Veo sounds like a game-changer! Can't wait to see how this powers up video creation. But, like, is Google trying to dominate every AI corner now? 😅












