Deepmind CEOのDemis Hassabisは、GoogleのGeminiとVeo AIモデルの将来の統合を発表しました
2025年4月26日
KeithGonzález
0

Google Deepmis Hassabisは、LinkedInの共同設立者であるReid Hoffmanが共同ホストしたPodcast Passionの最近のエピソードで、Googleの計画に関するエキサイティングなニュースを共有しました。彼は、GoogleがGemini AIモデルをVEOビデオ生成モデルと統合しようとしていることを明らかにしました。この融合の目的は、ジェミニの物理的世界の把握を強化することを目的としており、現実のダイナミクスを理解することに熟達しています。
ハッサビスは、Get-goから、Geminiはマルチモーダルになるように設計されていることを強調しました。 「私たちは常に、基礎モデルであるジェミニを構築してきました。最初からマルチモーダルになりました」と彼は説明しました。このアプローチの背後にある動機?日常生活を真に支援できるユニバーサルデジタルアシスタントのビジョン。 「アシスタントは…実際には現実の世界であなたを助けます」とハッサビスは詳しく説明しました。
AI業界は、さまざまな種類のメディアを処理して合成できる「Omni」モデルと呼ばれる可能性のあるものに向けて着実に進歩しています。たとえば、Googleの最新のGemini Iterationsは、テキストだけでなくオーディオや画像も作成できます。一方、OpenaiのChatGPTデフォルトモデルは、楽しいスタジオジブリスタイルのアートを含む、その場で画像を盛り上げることができます。 Amazonはそれほど遅れをとっておらず、今年後半に「Any-to-to」モデルを展開する計画があります。
これらのOMNIモデルは、画像、ビデオ、オーディオ、テキストを考えているという、多数のトレーニングデータを必要とします。 Hassabisは、Veoのビデオデータは主にGoogleが所有する宝庫であるYouTubeから来ていることを示唆しました。 「基本的に、YouTubeのビデオ(多くのYouTubeビデオ)を見ることで、[Veo 2]は、世界の物理学を把握できます」と彼は述べました。
Googleは以前、ModelsがYouTubeコンテンツを「」訓練し、YouTube Creatorsとの契約と協力して「モデルが「」YouTubeコンテンツで「」訓練されている可能性があると述べていました。昨年、GoogleはAIモデルをトレーニングするためのより多くのデータにアクセスするために、利用規約を拡大したことに注意する価値があります。
関連記事
Google在其工作区生产力应用程序中添加了更多的AI工具
Google通过将其顶级AI模型集成到其生产力套件中,增强其双子座功能,从而使工作更加顺畅,更高效,从而加强了游戏。今天,这家技术巨头推出了其工作区产品的一系列更新,介绍了音频概述和管理M的新方法
Google Gemini:有关生成AI应用程序和模型的所有信息
Gemini是什么?Gemini是Google备受期待的下一代生成AI模型家族,它是通过DeepMind和Google Research之间的合作而开发的。它的设计用途广泛,有各种尺寸,以满足不同的需求:双子座Ultra:设计F的强大模型,设计F
三星将Google的双子座整合到Ballie Home Robot
三星周三宣布,通过与Google Cloud的合作,为其家用机器人Ballie进行了令人兴奋的新开发项目。这种合作伙伴关系将使Google的双子座AI集成到Ballie中,使用户可以通过提出各种问题与机器人互动,Gemini将会
コメント (0)
0/200






Google Deepmis Hassabisは、LinkedInの共同設立者であるReid Hoffmanが共同ホストしたPodcast Passionの最近のエピソードで、Googleの計画に関するエキサイティングなニュースを共有しました。彼は、GoogleがGemini AIモデルをVEOビデオ生成モデルと統合しようとしていることを明らかにしました。この融合の目的は、ジェミニの物理的世界の把握を強化することを目的としており、現実のダイナミクスを理解することに熟達しています。
ハッサビスは、Get-goから、Geminiはマルチモーダルになるように設計されていることを強調しました。 「私たちは常に、基礎モデルであるジェミニを構築してきました。最初からマルチモーダルになりました」と彼は説明しました。このアプローチの背後にある動機?日常生活を真に支援できるユニバーサルデジタルアシスタントのビジョン。 「アシスタントは…実際には現実の世界であなたを助けます」とハッサビスは詳しく説明しました。
AI業界は、さまざまな種類のメディアを処理して合成できる「Omni」モデルと呼ばれる可能性のあるものに向けて着実に進歩しています。たとえば、Googleの最新のGemini Iterationsは、テキストだけでなくオーディオや画像も作成できます。一方、OpenaiのChatGPTデフォルトモデルは、楽しいスタジオジブリスタイルのアートを含む、その場で画像を盛り上げることができます。 Amazonはそれほど遅れをとっておらず、今年後半に「Any-to-to」モデルを展開する計画があります。
これらのOMNIモデルは、画像、ビデオ、オーディオ、テキストを考えているという、多数のトレーニングデータを必要とします。 Hassabisは、Veoのビデオデータは主にGoogleが所有する宝庫であるYouTubeから来ていることを示唆しました。 「基本的に、YouTubeのビデオ(多くのYouTubeビデオ)を見ることで、[Veo 2]は、世界の物理学を把握できます」と彼は述べました。
Googleは以前、ModelsがYouTubeコンテンツを「」訓練し、YouTube Creatorsとの契約と協力して「モデルが「」YouTubeコンテンツで「」訓練されている可能性があると述べていました。昨年、GoogleはAIモデルをトレーニングするためのより多くのデータにアクセスするために、利用規約を拡大したことに注意する価値があります。












