Генеральный директор DeepMind Демис Хассабис объявляет о будущей интеграции моделей Google Gemini и Veo AI

В недавнем эпизоде возможного подкаста, соавтором соучредителя LinkedIn Рейд Хоффман, генеральный директор Google DeepMind Демис Хассабис поделился некоторыми захватывающими новостями о планах Google. Он рассказал, что Google надеется объединить свои модели AI Gemini с моделями VEO-сгенерирования видео. Это слияние направлено на то, чтобы улучшить понимание Гемини физического мира, что делает его более искусным в понимании реальной динамики.
Хасабис подчеркнул, что с самого начала Близнецы были разработаны для мультимодальной. «Мы всегда строили Gemini, наша модель фундамента, чтобы быть мультимодальными с самого начала», - объяснил он. Мотивация этого подхода? Видение универсального цифрового помощника, которое может действительно помочь в повседневной жизни. «Помощник, который… на самом деле помогает вам в реальном мире», - уточнил Хасабис.
Индустрия искусственного интеллекта неуклонно продвигается к тому, что вы можете назвать моделями «Omni», которые способны обрабатывать и синтезировать различные типы средств массовой информации. Например, последние итерации Google Близнецы могут создавать не только текст, но и аудио и изображения. Между тем, модель по умолчанию Openai может поднять изображения на месте, включая восхитительную студию в стиле Ghibli. Amazon не сильно отстает, с планами развернуть модель «любого в любом» в конце этого года.
Эти Omni Models требуют огромного количества обучающих данных - подумайте изображения, видео, аудио и текст. Hassabis намекнул, что видеоданные Veo в основном поступают из YouTube, сокровищницы, принадлежащего Google. «По сути, просмотр видео на YouTube - много видео на YouTube - [Veo 2] может выяснить, вы знаете, физику мира», - отметил он.
Google ранее упоминал TechCrunch, что его модели «могут быть« обучены »некоторым» контенту на YouTube, соответствующем соглашениям, заключенным с создателями YouTube. Стоит отметить, что в прошлом году Google расширил свои условия обслуживания, отчасти для доступа к большему количеству данных для обучения моделей ИИ.
Связанная статья
구글의 AI 도약 속内幕: Gemini 2.5는 더 깊이 생각하고, 더 영리하게 말하며, 더 빠르게 코딩한다
구글, 보편적인 AI 어시스턴트 비전 실현에 한 걸음 더 다가서다올해 구글 I/O 행사에서 구글은 Gemini 2.5 시리즈의 중요한 업데이트를 공개했다. 특히 다양한 차원에서 기능을 개선하는 데 초점을 맞췄다. 최신 버전인 Gemini 2.5 Flash와 2.5 Pro는 이제 더 지능적이며 효율적이다. 이러한 발전은 구
구글, 크롬에서 제미니 통합 론칭
Chrome에서 Gemini 통합 소개: AI 기반 브라우징의 새로운 시대2025년 구글 I/O에서 구글은 Chrome 브라우저에 획기적인 추가 기능을 발표하며 파장을 일으켰습니다. 바로 Gemini 통합입니다. 이 움직임은 사용자가 웹과 상호작용하는 방식에 큰 변화를 가져오며, 방문한 페이지에서 답변, 요약, 통찰을 쉽
I/O 이벤트의 상위 100 개 발표
AI로 검색 혁신 : Google의 최신 획기적인 BreakthroughSat 어제 Google I/O 이벤트 에서이 회사는 AI 중심 제품 제품군에서 획기적인 업데이트를 공개했습니다. 강화 된 검색 기능에서 창의성과 생산성을 공급하기 위해 설계된 새로운 도구에 이르기까지 Google은 분명히 밀고 있습니다.
Комментарии (0)
В недавнем эпизоде возможного подкаста, соавтором соучредителя LinkedIn Рейд Хоффман, генеральный директор Google DeepMind Демис Хассабис поделился некоторыми захватывающими новостями о планах Google. Он рассказал, что Google надеется объединить свои модели AI Gemini с моделями VEO-сгенерирования видео. Это слияние направлено на то, чтобы улучшить понимание Гемини физического мира, что делает его более искусным в понимании реальной динамики.
Хасабис подчеркнул, что с самого начала Близнецы были разработаны для мультимодальной. «Мы всегда строили Gemini, наша модель фундамента, чтобы быть мультимодальными с самого начала», - объяснил он. Мотивация этого подхода? Видение универсального цифрового помощника, которое может действительно помочь в повседневной жизни. «Помощник, который… на самом деле помогает вам в реальном мире», - уточнил Хасабис.
Индустрия искусственного интеллекта неуклонно продвигается к тому, что вы можете назвать моделями «Omni», которые способны обрабатывать и синтезировать различные типы средств массовой информации. Например, последние итерации Google Близнецы могут создавать не только текст, но и аудио и изображения. Между тем, модель по умолчанию Openai может поднять изображения на месте, включая восхитительную студию в стиле Ghibli. Amazon не сильно отстает, с планами развернуть модель «любого в любом» в конце этого года.
Эти Omni Models требуют огромного количества обучающих данных - подумайте изображения, видео, аудио и текст. Hassabis намекнул, что видеоданные Veo в основном поступают из YouTube, сокровищницы, принадлежащего Google. «По сути, просмотр видео на YouTube - много видео на YouTube - [Veo 2] может выяснить, вы знаете, физику мира», - отметил он.
Google ранее упоминал TechCrunch, что его модели «могут быть« обучены »некоторым» контенту на YouTube, соответствующем соглашениям, заключенным с создателями YouTube. Стоит отметить, что в прошлом году Google расширил свои условия обслуживания, отчасти для доступа к большему количеству данных для обучения моделей ИИ.












