

DeepMind -CEO Demis Hassabis kündigt die zukünftige Integration von Googles Gemini- und VEO -AI -Modellen an
26. April 2025
KeithGonzález
0

In einer kürzlich von LinkedIn-Mitbegründerin von LinkedIn, Reid Hoffman, gemeinsam genannten Podcast-Podcast, teilte der CEO von Google DeepMind, Demis Hassabis, einige aufregende Neuigkeiten über Googles Pläne mit. Er enthüllte, dass Google seine Gemini-AI-Modelle mit den VEO-Videogenerierungsmodellen zusammenführen möchte. Diese Fusion zielt darauf ab, Zwillinge für die physische Welt zu verbessern, wodurch es sich mehr in der Verständnis der Dynamik der realen Lebensdauer macht.
Hassabis betonte, dass Gemini von Anfang an multimodal entwickelt wurde. "Wir haben immer Gemini, unser Foundation -Modell, von Anfang an multimodal gebaut", erklärte er. Die Motivation hinter diesem Ansatz? Eine Vision für einen universellen digitalen Assistenten, der wirklich im Alltag helfen kann. "Ein Assistent, der ... Ihnen tatsächlich in der realen Welt hilft", erläuterte Hassabis.
Die KI -Industrie geht stetig zu dem vor, was Sie als "Omni" -Modelle bezeichnen könnten - die in der Lage, verschiedene Arten von Medien zu handhaben und zu synthetisieren. Die neuesten Gemini -Iterationen von Google können beispielsweise nicht nur Text, sondern auch Audio und Bilder produzieren. In der Zwischenzeit kann das ChatGPT-Standardmodell von OpenAI Bilder vor Ort peitschen, darunter die köstliche Kunst von Studio Ghibli-Art. Amazon ist nicht weit zurück und plant, später in diesem Jahr ein Modell "Any-to-ty" -Modell auszurüsten.
Diese Omni -Modelle erfordern eine hohe Anzahl von Trainingsdaten - denken Sie nach Bildern, Videos, Audio und Text. Hassabis deutete an, dass Veos Videodaten hauptsächlich von YouTube stammen, einem Schatz, der Google gehört. "Im Grunde genommen können Sie YouTube -Videos - viele YouTube -Videos - [Veo 2] -, wissen Sie, die Physik der Welt herausfinden", bemerkte er.
Google hatte TechCrunch zuvor erwähnt, dass seine Modelle "auf" einige "YouTube -Inhalte" trainiert werden könnten, die sich auf Vereinbarungen mit YouTube -Erstellern ausrichten. Es ist erwähnenswert, dass Google im vergangenen Jahr seine Nutzungsbedingungen erweitert hat, teilweise auf weitere Daten für die Schulung seiner KI -Modelle zuzugreifen.
Verwandter Artikel
Google在其工作区生产力应用程序中添加了更多的AI工具
Google通过将其顶级AI模型集成到其生产力套件中,增强其双子座功能,从而使工作更加顺畅,更高效,从而加强了游戏。今天,这家技术巨头推出了其工作区产品的一系列更新,介绍了音频概述和管理M的新方法
Google Gemini:有关生成AI应用程序和模型的所有信息
Gemini是什么?Gemini是Google备受期待的下一代生成AI模型家族,它是通过DeepMind和Google Research之间的合作而开发的。它的设计用途广泛,有各种尺寸,以满足不同的需求:双子座Ultra:设计F的强大模型,设计F
三星将Google的双子座整合到Ballie Home Robot
三星周三宣布,通过与Google Cloud的合作,为其家用机器人Ballie进行了令人兴奋的新开发项目。这种合作伙伴关系将使Google的双子座AI集成到Ballie中,使用户可以通过提出各种问题与机器人互动,Gemini将会
Kommentare (0)
0/200






In einer kürzlich von LinkedIn-Mitbegründerin von LinkedIn, Reid Hoffman, gemeinsam genannten Podcast-Podcast, teilte der CEO von Google DeepMind, Demis Hassabis, einige aufregende Neuigkeiten über Googles Pläne mit. Er enthüllte, dass Google seine Gemini-AI-Modelle mit den VEO-Videogenerierungsmodellen zusammenführen möchte. Diese Fusion zielt darauf ab, Zwillinge für die physische Welt zu verbessern, wodurch es sich mehr in der Verständnis der Dynamik der realen Lebensdauer macht.
Hassabis betonte, dass Gemini von Anfang an multimodal entwickelt wurde. "Wir haben immer Gemini, unser Foundation -Modell, von Anfang an multimodal gebaut", erklärte er. Die Motivation hinter diesem Ansatz? Eine Vision für einen universellen digitalen Assistenten, der wirklich im Alltag helfen kann. "Ein Assistent, der ... Ihnen tatsächlich in der realen Welt hilft", erläuterte Hassabis.
Die KI -Industrie geht stetig zu dem vor, was Sie als "Omni" -Modelle bezeichnen könnten - die in der Lage, verschiedene Arten von Medien zu handhaben und zu synthetisieren. Die neuesten Gemini -Iterationen von Google können beispielsweise nicht nur Text, sondern auch Audio und Bilder produzieren. In der Zwischenzeit kann das ChatGPT-Standardmodell von OpenAI Bilder vor Ort peitschen, darunter die köstliche Kunst von Studio Ghibli-Art. Amazon ist nicht weit zurück und plant, später in diesem Jahr ein Modell "Any-to-ty" -Modell auszurüsten.
Diese Omni -Modelle erfordern eine hohe Anzahl von Trainingsdaten - denken Sie nach Bildern, Videos, Audio und Text. Hassabis deutete an, dass Veos Videodaten hauptsächlich von YouTube stammen, einem Schatz, der Google gehört. "Im Grunde genommen können Sie YouTube -Videos - viele YouTube -Videos - [Veo 2] -, wissen Sie, die Physik der Welt herausfinden", bemerkte er.
Google hatte TechCrunch zuvor erwähnt, dass seine Modelle "auf" einige "YouTube -Inhalte" trainiert werden könnten, die sich auf Vereinbarungen mit YouTube -Erstellern ausrichten. Es ist erwähnenswert, dass Google im vergangenen Jahr seine Nutzungsbedingungen erweitert hat, teilweise auf weitere Daten für die Schulung seiner KI -Modelle zuzugreifen.












