option
Maison
Nouvelles
2024: l'année de la croissance et de l'innovation remarquables de l'IA

2024: l'année de la croissance et de l'innovation remarquables de l'IA

10 avril 2025
101

2024: l'année de la croissance et de l'innovation remarquables de l'IA

En entrant dans l'année 2025, il est exaltant de réfléchir aux progrès incroyables réalisés en 2024. Du lancement des modèles Gemini 2.0 adaptés à l'ère agentique à l'encouragement de l'expression créative, en passant par la conception de nouveaux liants protéiques et l'avancement des neurosciences et de l'informatique quantique grâce à l'IA, nous avons repoussé les limites de l'intelligence artificielle de manière responsable et audacieuse. Tous ces efforts visent à exploiter l'IA pour le plus grand bien de l'humanité.

Comme nous l'avons mentionné dans notre essai *Pourquoi nous nous concentrons sur l'IA* il y a deux ans, notre approche du développement de l'IA est ancrée dans notre mission fondatrice d'organiser l'information mondiale et de la rendre universellement accessible et utile. Cette mission guide notre engagement à améliorer la vie du plus grand nombre de personnes possible, un objectif qui reste notre étoile polaire.

Dans notre bilan de l'année 2024, nous célébrons les réalisations remarquables des nombreuses équipes talentueuses chez Google qui ont travaillé sans relâche pour faire avancer notre mission. Leurs efforts ont préparé le terrain pour des développements encore plus excitants dans l'année à venir.

Innovation incessante dans les modèles, produits et technologies

L'année 2024 a été marquée par l'expérimentation, le déploiement rapide et la mise à disposition de nos dernières technologies aux développeurs. En décembre, nous avons dévoilé les premiers modèles de notre série expérimentale Gemini 2.0, conçus spécifiquement pour l'ère agentique. Nous avons commencé avec Gemini 2.0 Flash, notre cheval de bataille polyvalent, suivi de prototypes de pointe issus de nos recherches agentiques. Ceux-ci incluent une version mise à jour du Projet Astra, explorant le potentiel d'un assistant IA universel ; le Projet Mariner, un prototype précoce capable d'effectuer des actions dans Chrome en tant qu'extension expérimentale ; et Jules, un agent de codage alimenté par l'IA. Nous sommes impatients d'intégrer les capacités de Gemini 2.0 dans nos produits phares, et nous avons déjà commencé les tests dans les Aperçus IA au sein de la recherche, utilisés par plus d'un milliard de personnes pour explorer de nouveaux types de questions.

Nous avons également déployé Deep Research, une nouvelle fonctionnalité agentique dans Gemini Advanced qui permet d'économiser des heures de recherche en créant et en exécutant des plans en plusieurs étapes pour répondre à des questions complexes. De plus, nous avons introduit Gemini 2.0 Flash Thinking Experimental, un modèle qui affiche de manière transparente son processus de réflexion.

Plus tôt dans l'année, nous avons réalisé des progrès significatifs en intégrant les capacités de Gemini dans davantage de produits Google et en lançant Gemini 1.5 Pro et Gemini 1.5 Flash. Ce dernier, optimisé pour la vitesse et l'efficacité, est devenu notre modèle le plus populaire parmi les développeurs grâce à sa taille compacte et son coût abordable.

Nous avons également amélioré AI Studio, le rendant disponible en tant qu'application web progressive (PWA) installable sur desktop, iOS et Android, offrant aux développeurs un ensemble robuste de ressources. La réponse du public aux nouvelles fonctionnalités de NotebookLM, telles que les Aperçus Audio, a été fantastique. Ces fonctionnalités peuvent générer des discussions approfondies à partir de matériel source téléchargé, rendant l'apprentissage plus engageant.

L'entrée et la sortie vocale continuent d'être affinées dans des produits comme Gemini Live, Projet Astra, Journey Voices et le doublage automatique de YouTube, améliorant l'interaction des utilisateurs.

Conformément à notre tradition de contribution à la communauté ouverte, nous avons publié deux nouveaux modèles de Gemma, notre modèle ouvert de pointe, construit sur la même recherche et technologie que Gemini. Gemma a surpassé les modèles de taille similaire dans des domaines comme la réponse aux questions, le raisonnement et le codage. Nous avons également publié Gemma Scope, un outil pour aider les chercheurs à comprendre le fonctionnement interne de Gemma 2.

Nous avons progressé dans l'amélioration de la factualité de nos modèles et la réduction des hallucinations. En décembre, nous avons publié FACTS Grounding, un banc d'essai développé en collaboration avec Google DeepMind, Google Research et Kaggle, pour évaluer dans quelle mesure les grands modèles de langage ancrent leurs réponses dans le matériel source fourni et évitent les hallucinations.

Le jeu de données FACTS Grounding, avec 1 719 exemples, est conçu pour tester les réponses longues ancrées dans des documents contextuels. Nous avons testé les principaux LLMs en utilisant FACTS Grounding, et nous sommes fiers d'annoncer que Gemini 2.0 Flash Experimental, Gemini 1.5 Flash et Gemini 1.5 Pro ont obtenu les trois meilleurs scores de factualité, avec Gemini-2.0-flash-exp atteignant un impressionnant 83,6 %.

Nous avons également amélioré l'efficacité de l'apprentissage automatique grâce à des techniques innovantes comme le décodage parallèle par blocs, le report basé sur la confiance et le décodage spéculatif, qui accélèrent les temps d'inférence des LLMs. Ces améliorations profitent aux produits Google et établissent des normes industrielles.

Dans le sport, nous avons lancé TacticAI, un système IA pour les tactiques de football qui fournit des informations tactiques, en particulier sur les coups de coin.

Notre engagement envers le leadership en recherche reste fort. Une enquête WIPO de 2010-2023 sur les citations en IA générative a montré que Google, y compris Google Research et Google DeepMind, a reçu plus du double des citations de l'institution classée deuxième.

Ce graphique WIPO, basé sur les données de janvier 2024 de The Lens, met en évidence les contributions significatives d'Alphabet à la recherche en IA générative au cours de la dernière décennie. Enfin, nous avons progressé avec le Projet Starline, notre technologie de "fenêtre magique", en partenariat avec HP pour la commercialiser, avec l'objectif de l'intégrer dans des services de vidéoconférence comme Google Meet et Zoom.

Favoriser la vision créative avec l'IA générative

Nous croyons que l'IA peut ouvrir de nouveaux domaines de créativité, rendant l'expression créative plus accessible et aidant les gens à réaliser leurs visions artistiques. En 2024, nous avons introduit une série de mises à jour pour nos outils de médias génératifs, couvrant les images, la musique et la vidéo.

Au début de l'année, nous avons lancé ImageFX et MusicFX, des outils d'IA générative qui créent des images et des clips audio allant jusqu'à 70 secondes à partir de prompts textuels. Lors de l'I/O, nous avons présenté MusicFX DJ, conçu pour rendre la création musicale en direct plus accessible. En octobre, nous avons collaboré avec Jacob Collier pour simplifier MusicFX DJ pour les nouveaux et aspirants musiciens. Nous avons également mis à jour notre boîte à outils musicale IA, Music AI Sandbox, et fait évoluer notre expérience Dream Track, permettant aux créateurs américains de générer des bandes sonores instrumentales dans divers genres à l'aide de modèles texte-à-musique.

Plus tard dans l'année, nous avons publié Veo 2 et Imagen 3, nos derniers modèles d'image et de vidéo. Imagen 3, notre modèle texte-à-image de la plus haute qualité, génère des images avec un détail supérieur, un éclairage amélioré et moins d'artefacts. Veo 2 a démontré une meilleure compréhension de la physique du monde réel et du mouvement humain, renforçant le réalisme. Veo 2 marque une avancée significative dans la génération de vidéos de haute qualité.

Nous avons continué à explorer le potentiel de l'IA dans l'édition, en l'utilisant pour contrôler des attributs comme la transparence et la rugosité des objets.

Ces exemples mettent en évidence la capacité de l'IA à modifier les propriétés des matériaux à l'aide de la génération de données synthétiques.

Dans la génération audio, nous avons amélioré la technologie vidéo-à-audio (V2A), générant des paysages sonores dynamiques à partir de prompts textuels basés sur l'action à l'écran, qui peuvent être associés à des vidéos générées par l'IA de Veo.

Les jeux offrent un terrain de jeu parfait pour l'exploration créative et l'entraînement d'agents incarnés. En 2024, nous avons introduit Genie 2, un modèle mondial de fondation qui génère des environnements 3D divers et jouables pour l'entraînement et l'évaluation d'agents incarnés. Cela fait suite au lancement de SIMA, qui peut suivre des instructions en langage naturel dans divers environnements de jeux vidéo.

L'architecture de l'intelligence : avancées en robotique, matériel et informatique

À mesure que nos modèles multimodaux deviennent plus aptes à comprendre la physique du monde, ils permettent des avancées passionnantes en robotique. Nous nous rapprochons de notre objectif de robots plus capables et utiles.

Avec ALOHA Unleashed, notre robot a maîtrisé des tâches comme lacer des chaussures, suspendre des chemises, réparer d'autres robots, insérer des engrenages et nettoyer des cuisines.

Au début de l'année, nous avons introduit AutoRT, SARA-RT et RT-Trajectory, des extensions de notre travail sur les Transformers Robotiques pour aider les robots à mieux naviguer dans leurs environnements et prendre des décisions plus rapidement. Nous avons également publié ALOHA Unleashed, enseignant aux robots à coordonner deux bras, et DemoStart, qui utilise l'apprentissage par renforcement pour améliorer les performances dans le monde réel sur une main robotique multifingered à l'aide de simulations.

Le Transformer Robotique 2 (RT-2) apprend à partir de données web et robotiques, lui permettant d'effectuer des tâches comme placer une fraise dans un bol. Au-delà de la robotique, notre méthode d'apprentissage par renforcement AlphaChip révolutionne la planification des puces pour les centres de données et les smartphones. Nous avons publié un point de contrôle pré-entraîné pour faciliter l'adoption externe de la version open-source d'AlphaChip. Nous avons également rendu Trillium, notre TPU de sixième génération, disponible pour les clients de Google Cloud, démontrant comment l'IA peut améliorer la conception de puces. AlphaChip apprend à optimiser les agencements de puces, s'améliorant à chaque conception qu'il crée.

Nos recherches ont également abordé la correction d'erreurs dans les ordinateurs quantiques. En novembre, nous avons lancé AlphaQubit, un décodeur basé sur l'IA qui identifie les erreurs d'informatique quantique avec une grande précision. Cette collaboration entre Google DeepMind et Google Research a accéléré les progrès vers des ordinateurs quantiques fiables. Dans les tests, AlphaQubit a réduit les erreurs de 6 % par rapport aux méthodes de réseau tensoriel et de 30 % par rapport à la correspondance corrélée.

En décembre, l'équipe Google Quantum AI a dévoilé Willow, notre dernière puce quantique. Willow peut effectuer un calcul de référence en moins de cinq minutes, ce qui prendrait aux superordinateurs actuels les plus rapides 10 septillions d'années. Grâce à la correction d'erreurs quantiques, Willow a réduit de moitié le taux d'erreur, atteignant une étape connue sous le nom de "sous le seuil" et remportant le prix de la percée en physique de l'année.

Willow démontre une performance de pointe en informatique quantique.

Découvrir de nouvelles solutions : progrès en science, biologie et mathématiques

Nous avons continué à accélérer les progrès scientifiques avec l'IA, publiant des outils et des articles qui démontrent la puissance de l'IA pour faire avancer la science et les mathématiques. Voici quelques points forts :

En janvier, nous avons introduit AlphaGeometry, un système IA pour résoudre des problèmes de géométrie complexes. Nos AlphaGeometry 2 mis à jour et AlphaProof, un système basé sur l'apprentissage par renforcement pour le raisonnement mathématique formel, ont obtenu des performances de médaillé d'argent à l'Olympiade internationale de mathématiques de juillet 2024.

AlphaGeometry 2 a résolu le problème 4 de l'Olympiade internationale de mathématiques de juillet 2024 en seulement 19 secondes, prouvant que ∠KIL + ∠XPY égalent 180°. En collaboration avec Isomorphic Labs, nous avons introduit AlphaFold 3, qui prédit la structure et les interactions des molécules de la vie, visant à transformer notre compréhension de la biologie et de la découverte de médicaments.L'architecture avancée et l'entraînement d'AlphaFold 3 couvrent toutes les molécules de la vie, des protéines à l'ADN. Nous avons également fait des progrès significatifs dans la conception de protéines avec AlphaProteo, un système IA pour créer des liants protéiques à haute résistance, qui pourraient mener à de nouveaux médicaments et biocapteurs.AlphaProteo peut concevoir de nouveaux liants protéiques pour diverses protéines cibles.

En collaboration avec le Lichtman Lab de Harvard, nous avons produit une cartographie à l'échelle nanométrique d'un morceau de cerveau humain, une première en son genre, et l'avons rendue disponible pour les chercheurs. Cela fait suite à notre effort de dix ans en connectomique, qui s'étend maintenant à la cartographie du cerveau humain.

Ce projet de cartographie cérébrale révèle des clusters de cellules en miroir dans la couche la plus profonde du cortex.

Fin novembre, nous avons co-organisé le Forum IA pour la Science avec la Royal Society, discutant de sujets clés comme la prédiction de la structure des protéines, la cartographie du cerveau humain, et l'utilisation de l'IA pour la prévision et la détection des incendies de forêt. Nous avons également organisé une séance de questions-réponses avec quatre lauréats du prix Nobel lors du forum, disponible sur le podcast Google DeepMind.

L'année 2024 a également été marquante, car Demis Hassabis, John Jumper et David Baker ont reçu le prix Nobel de chimie pour leur travail sur AlphaFold 2, reconnu pour avoir révolutionné la conception de protéines. Geoffrey Hinton, avec John Hopfield, a reçu le prix Nobel de physique pour leur travail fondamental en apprentissage automatique avec des réseaux neuronaux artificiels.

Google a également reçu des distinctions supplémentaires, y compris les prix NeurIPS 2024 Test of Time Paper et le prix Beale—Orchard-Hays pour la programmation linéaire primale-duale (PDLP), désormais intégrée aux outils Google OR, facilitant la programmation linéaire à grande échelle avec des applications dans le monde réel.

L'IA au service de l'humanité

Cette année, nous avons réalisé des avancées significatives dans les produits et publié des recherches démontrant comment l'IA peut bénéficier directement et immédiatement aux gens dans des domaines comme la santé, la préparation aux catastrophes et l'éducation.

En santé, l'IA promet de démocratiser les soins de qualité, en particulier dans la détection précoce des maladies cardiovasculaires. Nos recherches ont montré qu'un simple dispositif au bout du doigt, combiné à des métadonnées de base, peut prédire les risques pour la santé cardiaque. Nous avons également avancé les diagnostics assistés par IA pour la tuberculose, montrant comment l'IA peut dépister efficacement les populations à taux élevés de tuberculose et de VIH.

Med-Gemini a atteint un nouveau score de pointe sur le banc d'essai MedQA, surpassant notre meilleur précédent, Med-PaLM 2, de 4,6 %. Notre modèle Gemini est un outil polyvalent pour les professionnels, et nous développons des modèles affinés pour des domaines spécifiques. Med-Gemini, par exemple, combine un entraînement sur des données médicales dé-identifiées avec les capacités de Gemini, atteignant une précision de 91,1 % sur le banc d'essai de questions de style USMLE MedQA.

Nous explorons également comment l'apprentissage automatique peut pallier les pénuries d'expertise en imagerie dans des domaines comme la radiologie, la dermatologie et la pathologie. Nous avons publié Derm Foundation et Path Foundation pour les tâches de diagnostic et la découverte de biomarqueurs, collaboré avec Stanford Medicine sur le jeu de données Skin Condition Image Network (SCIN), et dévoilé CT Foundation pour la recherche en imagerie médicale.

En éducation, nous avons introduit LearnLM, une famille de modèles affinés pour l'apprentissage, améliorant les expériences dans la recherche, YouTube et Gemini. LearnLM a surpassé d'autres modèles IA de pointe, et nous l'avons rendu disponible aux développeurs dans AI Studio. Notre compagnon d'apprentissage conversationnel, LearnAbout, et l'outil de discussion audio, Illuminate, enrichissent encore les expériences d'apprentissage.

Dans la prévision et la préparation aux catastrophes, nous avons introduit GenCast, améliorant les prévisions météorologiques et des événements extrêmes, et NeuralGCM, capable de simuler des milliers de jours de conditions atmosphériques. GraphCast, qui a remporté le prix MacRobert 2024, fournit des prévisions météorologiques détaillées.

Les prévisions de GraphCast sur 10 jours mettent en avant l'humidité spécifique, la température de surface et la vitesse du vent.

Nous avons amélioré notre modèle de prévision des inondations pour prédire les inondations sept jours à l'avance, étendant la couverture à 100 pays et 700 millions de personnes.

Notre modèle de prévision des inondations couvre désormais plus de 100 pays, avec des jauges virtuelles dans 150 pays où les jauges physiques ne sont pas disponibles. L'IA aide également à la détection et à l'atténuation des incendies de forêt. Nos cartes des limites des incendies de forêt sont désormais disponibles dans 22 pays, et nous avons créé FireSat, une constellation de satellites capable de détecter de petits incendies de forêt en 20 minutes.

Nous avons étendu Google Translate pour inclure 110 nouvelles langues, aidant à briser les barrières à l'information et aux opportunités pour plus de 614 millions de locuteurs.

Ces nouvelles langues dans Google Translate représentent 8 % de la population mondiale.

Contribuer à établir la norme en IA responsable

Nous avons poursuivi nos recherches de pointe dans la sécurité de l'IA, développant de nouveaux outils et techniques et les intégrant dans nos derniers modèles. Nous nous engageons à collaborer pour répondre aux risques.

Nos recherches sur l'utilisation abusive ont révélé que les deep fakes et les jailbreaks sont les problèmes les plus courants. En mai, nous avons introduit le Cadre de Sécurité Frontier pour identifier les capacités émergentes dans nos modèles IA avancés et lancé notre cadre du Cycle de Vie de la Responsabilité IA. En octobre, nous avons élargi notre Boîte à Outils GenAI Responsable pour fonctionner avec n'importe quel LLM, aidant les développeurs à construire une IA de manière responsable.

Nous avons publié un article sur l'Éthique des Assistants IA Avancés, examinant le paysage technique et moral des assistants IA et les opportunités et risques qu'ils posent.

Nous avons élargi les capacités de SynthID pour marquer au filigrane le texte généré par IA dans l'application et l'expérience web Gemini et la vidéo dans Veo. Pour améliorer la transparence en ligne, nous avons rejoint la Coalition pour la Provenance et l'Authenticité du Contenu (C2PA) et travaillé sur une nouvelle version plus sécurisée de la norme Content Credentials.

SynthID ajuste les scores de probabilité des jetons prédits pour garantir la qualité, la précision et la créativité du contenu généré par l'IA.

Au-delà des LLMs, nous avons partagé notre approche de biosécurité pour AlphaFold 3, collaboré avec des partenaires de l'industrie pour lancer la Coalition pour une IA Sécurisée (CoSAI), et participé au Sommet IA de Séoul pour contribuer à la gouvernance mondiale de l'IA.

À mesure que nous développons de nouvelles technologies comme les agents IA, nous continuerons à explorer les questions de sécurité, de sûreté et de confidentialité. Guidés par nos Principes IA, nous adoptons une approche délibérée et graduelle, menant des recherches approfondies, des formations à la sécurité et des évaluations des risques avec des testeurs de confiance et des experts externes.

Perspectives pour 2025

L'année 2024 a été une année de progrès et d'excitation incroyables en IA. Nous sommes encore plus enthousiastes pour ce qui nous attend en 2025.

Alors que nous continuons à repousser les limites de la recherche en IA dans les produits, la science, la santé et la créativité, nous devons réfléchir soigneusement à comment et quand déployer ces technologies. En priorisant les pratiques d'IA responsable et en favorisant la collaboration, nous continuerons à jouer un rôle crucial dans la construction d'un avenir où l'IA profite à l'humanité.

Article connexe
"Dot AI Companion Appounces Closure, Discontinues Personalized Service" (L'application Dot AI Companion annonce sa fermeture et interrompt son service personnalisé) Dot, une application d'IA conçue pour servir d'ami personnel et de confident, va cesser ses activités, selon une annonce faite vendredi par ses développeurs. New Computer, la startup à l'origine de Do
Anthropic résout une affaire de piratage de livres générés par l'IA Anthropic résout une affaire de piratage de livres générés par l'IA Anthropic a trouvé une solution à un important litige en matière de droits d'auteur avec des auteurs américains, en acceptant une proposition de règlement de recours collectif qui évite un procès pote
Figma met à la disposition de tous les utilisateurs un outil de création d'applications basé sur l'IA Figma met à la disposition de tous les utilisateurs un outil de création d'applications basé sur l'IA Figma Make, la plateforme de développement innovante de type prompt-to-app dévoilée au début de l'année, est officiellement sortie de la phase bêta et a été déployée pour tous les utilisateurs. Cet ou
commentaires (26)
0/200
AlbertSanchez
AlbertSanchez 23 août 2025 07:01:15 UTC+02:00

Wow, 2024 was a wild ride for AI! Gemini 2.0 sounds like a game-changer for agents. Curious how it stacks up against other models—anybody tested it yet? 🧠

FrankSmith
FrankSmith 23 avril 2025 03:42:56 UTC+02:00

¡2024 fue un año increíble para la IA! Desde Gemini 2.0 hasta la computación cuántica, es impresionante. Parece que estamos viviendo en una película de ciencia ficción. ¡No puedo esperar a ver qué nos trae 2025! 🚀

RalphGarcia
RalphGarcia 19 avril 2025 19:10:39 UTC+02:00

2024年のAIの進歩は本当に驚きでしたね!ジェミニ2.0から量子コンピューティングまで、まるでSF映画みたいです。2025年が楽しみです。🚀

CarlLewis
CarlLewis 18 avril 2025 13:58:13 UTC+02:00

2024 was insane with AI! From Gemini 2.0 to quantum computing, it felt like living in a sci-fi movie. The creativity boost was real, but sometimes I felt overwhelmed by the rapid changes. Still, it's exciting to see where AI will take us next! 🚀

RogerRoberts
RogerRoberts 15 avril 2025 00:22:16 UTC+02:00

¡2024 fue una locura con la IA! Desde Gemini 2.0 hasta la computación cuántica, parecía estar viviendo en una película de ciencia ficción. El impulso de creatividad fue real, pero a veces me sentí abrumado por los cambios rápidos. Aún así, ¡es emocionante ver a dónde nos llevará la IA a continuación! 🚀

RobertMartin
RobertMartin 13 avril 2025 12:55:17 UTC+02:00

2024年のAIの進歩は本当に驚きだった!ジェミニ2.0から量子コンピューティングまで、まるでSF映画にいるようだった。創造性の向上は確かにあったけど、急速な変化に圧倒されることもあった。それでも、AIが次にどこへ導いてくれるのか楽しみだよ!🚀

Retour en haut
OR