option
Maison
Nouvelles
Le PDG de Deepmind Demis Hassabis annonce l'intégration future des modèles Gemini et Veo AI de Google

Le PDG de Deepmind Demis Hassabis annonce l'intégration future des modèles Gemini et Veo AI de Google

26 avril 2025
79

Le PDG de Deepmind Demis Hassabis annonce l'intégration future des modèles Gemini et Veo AI de Google

Dans un récent épisode du podcast possible , co-organisé par le co-fondateur de LinkedIn, Reid Hoffman, le PDG de Google Deepmind Demis Hassabis a partagé des nouvelles passionnantes sur les plans de Google. Il a révélé que Google cherchait à fusionner ses modèles Gemini AI avec les modèles de génération vidéo VEO. Cette fusion vise à améliorer la compréhension des Gémeaux du monde physique, ce qui le rend plus apte à comprendre la dynamique réelle.

Hassabis a souligné que dès le départ, Gemini a été conçu pour être multimodal. "Nous avons toujours construit des Gémeaux, notre modèle de fondation, pour être multimodal dès le début", a-t-il expliqué. La motivation derrière cette approche? Une vision d'un assistant numérique universel qui peut vraiment aider dans la vie quotidienne. "Un assistant qui ... vous aide dans le monde réel", a expliqué Hassabis.

L'industrie de l'IA progresse régulièrement vers ce que vous pourriez appeler des modèles "Omni" - ceux qui sont capables de gérer et de synthétiser divers types de médias. Les dernières itérations des Gémeaux de Google, par exemple, peuvent produire non seulement du texte mais aussi de l'audio et des images. Pendant ce temps, le modèle par défaut de ChatGpt d'Openai peut concocter des images sur place, y compris le délicieux art de style Ghibli-de style Ghibli-. Amazon n'est pas loin derrière, avec des plans pour déployer un modèle "tout à toute autre" plus tard cette année.

Ces modèles OMNI exigent une grande quantité de données de formation - pensez aux images, vidéos, audio et texte. Hassabis a laissé entendre que les données vidéo de VEO proviennent principalement de YouTube, un trésor appartenant à Google. "Fondamentalement, en regardant des vidéos YouTube - beaucoup de vidéos YouTube - [Veo 2] peuvent comprendre, vous savez, la physique du monde", a-t-il noté.

Google avait précédemment mentionné à TechCrunch que ses modèles "peuvent être" formés sur "certains" du contenu YouTube, s'alignant avec les accords conclus avec des créateurs YouTube. Il convient de noter que l'année dernière, Google a élargi ses conditions d'utilisation, en partie pour accéder à plus de données pour la formation de ses modèles d'IA.

Article connexe
구글의 AI 도약 속内幕: Gemini 2.5는 더 깊이 생각하고, 더 영리하게 말하며, 더 빠르게 코딩한다 구글의 AI 도약 속内幕: Gemini 2.5는 더 깊이 생각하고, 더 영리하게 말하며, 더 빠르게 코딩한다 구글, 보편적인 AI 어시스턴트 비전 실현에 한 걸음 더 다가서다올해 구글 I/O 행사에서 구글은 Gemini 2.5 시리즈의 중요한 업데이트를 공개했다. 특히 다양한 차원에서 기능을 개선하는 데 초점을 맞췄다. 최신 버전인 Gemini 2.5 Flash와 2.5 Pro는 이제 더 지능적이며 효율적이다. 이러한 발전은 구
구글, 크롬에서 제미니 통합 론칭 구글, 크롬에서 제미니 통합 론칭 Chrome에서 Gemini 통합 소개: AI 기반 브라우징의 새로운 시대2025년 구글 I/O에서 구글은 Chrome 브라우저에 획기적인 추가 기능을 발표하며 파장을 일으켰습니다. 바로 Gemini 통합입니다. 이 움직임은 사용자가 웹과 상호작용하는 방식에 큰 변화를 가져오며, 방문한 페이지에서 답변, 요약, 통찰을 쉽
I/O 이벤트의 상위 100 개 발표 I/O 이벤트의 상위 100 개 발표 AI로 검색 혁신 : Google의 최신 획기적인 BreakthroughSat 어제 Google I/O 이벤트 에서이 회사는 AI 중심 제품 제품군에서 획기적인 업데이트를 공개했습니다. 강화 된 검색 기능에서 창의성과 생산성을 공급하기 위해 설계된 새로운 도구에 이르기까지 Google은 분명히 밀고 있습니다.
commentaires (0)
0/200
Retour en haut
OR