DeepMind -CEO Demis Hassabis kündigt die zukünftige Integration von Googles Gemini- und VEO -AI -Modellen an

In einer kürzlich von LinkedIn-Mitbegründerin von LinkedIn, Reid Hoffman, gemeinsam genannten Podcast-Podcast, teilte der CEO von Google DeepMind, Demis Hassabis, einige aufregende Neuigkeiten über Googles Pläne mit. Er enthüllte, dass Google seine Gemini-AI-Modelle mit den VEO-Videogenerierungsmodellen zusammenführen möchte. Diese Fusion zielt darauf ab, Zwillinge für die physische Welt zu verbessern, wodurch es sich mehr in der Verständnis der Dynamik der realen Lebensdauer macht.
Hassabis betonte, dass Gemini von Anfang an multimodal entwickelt wurde. "Wir haben immer Gemini, unser Foundation -Modell, von Anfang an multimodal gebaut", erklärte er. Die Motivation hinter diesem Ansatz? Eine Vision für einen universellen digitalen Assistenten, der wirklich im Alltag helfen kann. "Ein Assistent, der ... Ihnen tatsächlich in der realen Welt hilft", erläuterte Hassabis.
Die KI -Industrie geht stetig zu dem vor, was Sie als "Omni" -Modelle bezeichnen könnten - die in der Lage, verschiedene Arten von Medien zu handhaben und zu synthetisieren. Die neuesten Gemini -Iterationen von Google können beispielsweise nicht nur Text, sondern auch Audio und Bilder produzieren. In der Zwischenzeit kann das ChatGPT-Standardmodell von OpenAI Bilder vor Ort peitschen, darunter die köstliche Kunst von Studio Ghibli-Art. Amazon ist nicht weit zurück und plant, später in diesem Jahr ein Modell "Any-to-ty" -Modell auszurüsten.
Diese Omni -Modelle erfordern eine hohe Anzahl von Trainingsdaten - denken Sie nach Bildern, Videos, Audio und Text. Hassabis deutete an, dass Veos Videodaten hauptsächlich von YouTube stammen, einem Schatz, der Google gehört. "Im Grunde genommen können Sie YouTube -Videos - viele YouTube -Videos - [Veo 2] -, wissen Sie, die Physik der Welt herausfinden", bemerkte er.
Google hatte TechCrunch zuvor erwähnt, dass seine Modelle "auf" einige "YouTube -Inhalte" trainiert werden könnten, die sich auf Vereinbarungen mit YouTube -Erstellern ausrichten. Es ist erwähnenswert, dass Google im vergangenen Jahr seine Nutzungsbedingungen erweitert hat, teilweise auf weitere Daten für die Schulung seiner KI -Modelle zuzugreifen.
Verwandter Artikel
구글의 AI 도약 속内幕: Gemini 2.5는 더 깊이 생각하고, 더 영리하게 말하며, 더 빠르게 코딩한다
구글, 보편적인 AI 어시스턴트 비전 실현에 한 걸음 더 다가서다올해 구글 I/O 행사에서 구글은 Gemini 2.5 시리즈의 중요한 업데이트를 공개했다. 특히 다양한 차원에서 기능을 개선하는 데 초점을 맞췄다. 최신 버전인 Gemini 2.5 Flash와 2.5 Pro는 이제 더 지능적이며 효율적이다. 이러한 발전은 구
구글, 크롬에서 제미니 통합 론칭
Chrome에서 Gemini 통합 소개: AI 기반 브라우징의 새로운 시대2025년 구글 I/O에서 구글은 Chrome 브라우저에 획기적인 추가 기능을 발표하며 파장을 일으켰습니다. 바로 Gemini 통합입니다. 이 움직임은 사용자가 웹과 상호작용하는 방식에 큰 변화를 가져오며, 방문한 페이지에서 답변, 요약, 통찰을 쉽
I/O 이벤트의 상위 100 개 발표
AI로 검색 혁신 : Google의 최신 획기적인 BreakthroughSat 어제 Google I/O 이벤트 에서이 회사는 AI 중심 제품 제품군에서 획기적인 업데이트를 공개했습니다. 강화 된 검색 기능에서 창의성과 생산성을 공급하기 위해 설계된 새로운 도구에 이르기까지 Google은 분명히 밀고 있습니다.
Kommentare (0)
0/200
In einer kürzlich von LinkedIn-Mitbegründerin von LinkedIn, Reid Hoffman, gemeinsam genannten Podcast-Podcast, teilte der CEO von Google DeepMind, Demis Hassabis, einige aufregende Neuigkeiten über Googles Pläne mit. Er enthüllte, dass Google seine Gemini-AI-Modelle mit den VEO-Videogenerierungsmodellen zusammenführen möchte. Diese Fusion zielt darauf ab, Zwillinge für die physische Welt zu verbessern, wodurch es sich mehr in der Verständnis der Dynamik der realen Lebensdauer macht.
Hassabis betonte, dass Gemini von Anfang an multimodal entwickelt wurde. "Wir haben immer Gemini, unser Foundation -Modell, von Anfang an multimodal gebaut", erklärte er. Die Motivation hinter diesem Ansatz? Eine Vision für einen universellen digitalen Assistenten, der wirklich im Alltag helfen kann. "Ein Assistent, der ... Ihnen tatsächlich in der realen Welt hilft", erläuterte Hassabis.
Die KI -Industrie geht stetig zu dem vor, was Sie als "Omni" -Modelle bezeichnen könnten - die in der Lage, verschiedene Arten von Medien zu handhaben und zu synthetisieren. Die neuesten Gemini -Iterationen von Google können beispielsweise nicht nur Text, sondern auch Audio und Bilder produzieren. In der Zwischenzeit kann das ChatGPT-Standardmodell von OpenAI Bilder vor Ort peitschen, darunter die köstliche Kunst von Studio Ghibli-Art. Amazon ist nicht weit zurück und plant, später in diesem Jahr ein Modell "Any-to-ty" -Modell auszurüsten.
Diese Omni -Modelle erfordern eine hohe Anzahl von Trainingsdaten - denken Sie nach Bildern, Videos, Audio und Text. Hassabis deutete an, dass Veos Videodaten hauptsächlich von YouTube stammen, einem Schatz, der Google gehört. "Im Grunde genommen können Sie YouTube -Videos - viele YouTube -Videos - [Veo 2] -, wissen Sie, die Physik der Welt herausfinden", bemerkte er.
Google hatte TechCrunch zuvor erwähnt, dass seine Modelle "auf" einige "YouTube -Inhalte" trainiert werden könnten, die sich auf Vereinbarungen mit YouTube -Erstellern ausrichten. Es ist erwähnenswert, dass Google im vergangenen Jahr seine Nutzungsbedingungen erweitert hat, teilweise auf weitere Daten für die Schulung seiner KI -Modelle zuzugreifen.












