Engagé dans le développement d'IA responsable
Nous chez Google croyons fermement que l'IA a le pouvoir de transformer des vies et de contribuer à un monde meilleur, à condition qu'elle soit développée avec audace et responsabilité. Nos technologies d'IA font déjà une différence, aidant les gens dans leurs tâches quotidiennes et les soutenant dans leurs entreprises les plus ambitieuses, créatives et productives.
Pour nous, un développement responsable de l'IA signifie aborder les risques potentiels tout en maximisant les bénéfices pour les individus et la société dans son ensemble. Nous sommes guidés par nos principes d'IA, nos recherches en cours et les précieuses contributions d'experts, d'utilisateurs et de partenaires.
Construire une IA pour bénéficier à la société avec LearnLM
Chaque jour, des milliards de personnes se tournent vers Google pour apprendre. Avec l'avènement de l'IA générative, nous débloquons de nouvelles façons personnalisées, utiles et accessibles d'améliorer l'apprentissage.
Nous sommes ravis de présenter LearnLM, une nouvelle famille de modèles construite sur la base de Gemini, et spécifiquement optimisée pour des objectifs éducatifs. LearnLM intègre des principes scientifiques de l'apprentissage validés par la recherche et des principes académiques dans nos produits, aidant à gérer la charge cognitive et à s'adapter aux objectifs, besoins et motivations uniques de chaque apprenant. Cela résulte en une expérience d'apprentissage personnalisée pour l'individu.
[ttpp]LearnLM alimente une gamme de fonctionnalités à travers nos produits, y compris Gemini, Search, YouTube et Google Classroom. Dans l'application Gemini, le nouvel assistant d'apprentissage Gem fournit des conseils d'étude étape par étape, conçus pour favoriser la compréhension plutôt que de simplement fournir des réponses. Sur l'application YouTube pour Android, les utilisateurs peuvent désormais interagir avec le contenu éducatif de nouvelles manières, comme poser des questions de suivi ou passer des quiz. Grâce à la capacité de contexte long du modèle Gemini, ces fonctionnalités fonctionnent de manière fluide même avec de longues conférences et séminaires.[yyxx]
La collaboration est essentielle pour réaliser tout le potentiel de l'IA générative dans l'éducation. Nous collaborons avec des institutions éducatives de premier plan comme Columbia Teachers College, Arizona State University, NYU Tisch et Khan Academy pour affiner nos modèles. Notre objectif est d'étendre la portée de LearnLM au-delà de nos propres produits. Si vous êtes intéressé à collaborer avec nous, vous pouvez vous inscrire ici. Nous nous sommes également associés à MIT RAISE pour créer un cours en ligne qui équipe les éducateurs d'outils pour intégrer efficacement l'IA générative dans leur enseignement.
Utiliser le contexte long pour rendre le savoir accessible
Nous avons développé un outil expérimental appelé Illuminate, qui utilise les capacités de contexte long de Gemini 1.5 Pro pour convertir des articles de recherche complexes en dialogues audio concis. En quelques minutes, Illuminate peut générer une conversation entre deux voix générées par IA, offrant un résumé et des insights clés des articles de recherche. Pour ceux qui souhaitent approfondir, des questions de suivi sont prises en charge. Tout l'audio est marqué avec SynthID, et les articles originaux sont référencés pour une exploration plus approfondie. Vous pouvez vous inscrire pour essayer Illuminate aujourd'hui sur labs.google.
[ttpp]Bien que ces innovations nous aident à accomplir notre mission de nouvelles manières, l'IA générative est encore en évolution, et avec elle viennent des risques et des questions qui doivent être abordés.
Nous nous engageons à adopter une approche responsable de l'IA, guidée par nos principes d'IA. Nous partageons régulièrement des mises à jour sur nos apprentissages et pratiques.
Aujourd'hui, nous mettons en lumière quelques nouvelles manières d'améliorer nos modèles comme Gemini et de nous protéger contre les abus :
Équipe rouge assistée par IA et retours d'experts : Nous améliorons nos pratiques d'équipe rouge, qui impliquent de tester proactivement nos systèmes pour détecter les vulnérabilités, avec une nouvelle technique appelée "Équipe rouge assistée par IA". Inspirée par les percées de Google DeepMind dans le jeu comme AlphaGo, nous entraînons des agents IA à competir et à élargir leurs capacités d'équipe rouge. Cela aide à contrer les sollicitations adverses et à limiter les sorties problématiques. Nous intégrons également les retours de milliers de spécialistes internes de la sécurité et d'experts indépendants, de l'académie à la société civile, améliorant la précision et la fiabilité de nos modèles.
SynthID pour le texte et la
vidéo : À mesure que les sorties de nos modèles deviennent plus réalistes, nous étendons SynthID pour inclure le texte et la vidéo, en plus des images et de l'audio. Cette technologie ajoute des filigranes imperceptibles pour aider à identifier le contenu généré par IA et prévenir les abus. Nous nous engageons à aider les gens à comprendre l'origine du contenu numérique.
Collaboration sur les garde-fous : Nous travaillons avec l'écosystème plus large pour partager et améliorer nos avancées. Dans les mois à venir, nous mettrons en open-source le filigranage de texte SynthID via notre kit d'outils Responsible Generative AI mis à jour. Nous faisons également partie de la Coalition for Content Provenance and Authenticity (C2PA), collaborant avec Adobe, Microsoft, des startups et d'autres pour améliorer la transparence dans les médias numériques.[yyxx]
Aider à résoudre les problèmes du monde réel
Nos avancées en IA aident déjà à relever les défis du monde réel et à stimuler les percées scientifiques. Récemment, nous avons annoncé plusieurs jalons excitants :
En collaboration avec l'Université Harvard, Google Research a publié la plus grande reconstruction 3D à résolution synaptique du cortex humain, ce qui pourrait révolutionner notre compréhension du fonctionnement du cerveau.
Nous avons présenté AlphaFold 3, une mise à jour de notre modèle qui prédit désormais la structure et les interactions de l'ADN, de l'ARN et des ligands, en plus des protéines. Cette avancée pourrait transformer notre compréhension de la biologie et de la découverte de médicaments.
Nous avons dévoilé Med-Gemini, une famille de modèles de recherche qui exploite les capacités de Gemini en raisonnement avancé, compréhension multimodale et traitement de contexte long. Ces modèles pourraient aider les cliniciens dans les tâches administratives, analyser diverses données médicales et aider à la prédiction des risques.
Ces réalisations s'ajoutent aux bénéfices sociétaux que nous avons vus avec des projets comme la prévision des inondations et le UN Data Commons pour les ODD. Nous avons récemment publié un rapport détaillant comment l'IA peut aider à faire progresser nos objectifs communs de développement durable dans le monde. Nous ne faisons que commencer, et nous sommes enthousiastes à l'idée de l'avenir et de l'impact potentiel de nos efforts collaboratifs.
[ttpp]



Recevez plus d'histoires de Google dans votre boîte de réception.
Adresse e-mailVos informations seront utilisées conformément à la politique de confidentialité de Google.
S'abonnerTerminé. Encore une étape.
Vérifiez votre boîte de réception pour confirmer votre abonnement.
Vous êtes déjà abonné à notre newsletter.
Vous pouvez également vous abonner avec une autre adresse e-mail.[yyxx]
Article connexe
Microsoft accueille les modèles avancés Grok 3 de xAI dans le cadre d'une nouvelle collaboration en matière d'IA
Au début du mois, mon journalisme d'investigation *Notepad* a révélé les plans de Microsoft pour intégrer les modèles d'IA Grok d'Elon Musk - des révélations qui ont maintenant été officiellement conf
Apple s'associe à Anthropic pour développer un outil de codage de l'IA pour Xcode
Apple et Anthropic collaborent sur un assistant de codage doté d'une IASelon Bloomberg, Apple est en train de développer un assistant de codage IA avancé qui s'intégrera directement dans Xcode, son
Midjourney dévoile un générateur de vidéo IA de pointe pour les contenus créatifs
Midjourney : une percée dans la génération de vidéos par IAMidjourney a dévoilé son premier outil de génération de vidéos par IA, marquant une expansion significative au-delà de ses capacités de créat
commentaires (38)
0/200
SamuelWilson
13 août 2025 23:00:59 UTC+02:00
Google's focus on responsible AI is cool, but I wonder how they balance innovation with ethics in practice. Sounds like a tightrope walk! 😅
0
DonaldYoung
7 août 2025 11:00:59 UTC+02:00
Super cool to see Google's focus on responsible AI! It's wild how AI's already simplifying daily tasks. Hope they keep ethics first! 😊
0
AnthonyMiller
2 août 2025 17:07:14 UTC+02:00
Google's take on responsible AI sounds promising, but I wonder how they balance bold innovation with ethical concerns. Exciting yet tricky! 🤔
0
RogerGonzalez
21 avril 2025 21:35:28 UTC+02:00
El compromiso de Google con el desarrollo responsable de IA está bien y todo, pero a veces parece que solo se están felicitando a sí mismos. Quiero decir, que la IA ayude con las tareas diarias es genial, pero veamos algún impacto real en el mundo, no solo promesas! 🤔🌍
0
CarlTaylor
19 avril 2025 04:12:38 UTC+02:00
O compromisso do Google com o desenvolvimento responsável de IA é legal e tal, mas às vezes parece que eles estão apenas se elogiando. Quer dizer, IA ajudando com tarefas diárias é ótimo, mas vamos ver algum impacto real no mundo, não apenas promessas! 🤔🌍
0
JohnYoung
15 avril 2025 15:06:21 UTC+02:00
구글의 책임 있는 AI 개발 약속 정말 멋지네요! AI가 일상의 일을 도와주는 건 좋지만, 더 야심찬 사용이 가능할지 궁금해요. 구글, 계속해서 한계에 도전하세요! 🚀
0
Nous chez Google croyons fermement que l'IA a le pouvoir de transformer des vies et de contribuer à un monde meilleur, à condition qu'elle soit développée avec audace et responsabilité. Nos technologies d'IA font déjà une différence, aidant les gens dans leurs tâches quotidiennes et les soutenant dans leurs entreprises les plus ambitieuses, créatives et productives.
Pour nous, un développement responsable de l'IA signifie aborder les risques potentiels tout en maximisant les bénéfices pour les individus et la société dans son ensemble. Nous sommes guidés par nos principes d'IA, nos recherches en cours et les précieuses contributions d'experts, d'utilisateurs et de partenaires.
Construire une IA pour bénéficier à la société avec LearnLM
Chaque jour, des milliards de personnes se tournent vers Google pour apprendre. Avec l'avènement de l'IA générative, nous débloquons de nouvelles façons personnalisées, utiles et accessibles d'améliorer l'apprentissage.
Nous sommes ravis de présenter LearnLM, une nouvelle famille de modèles construite sur la base de Gemini, et spécifiquement optimisée pour des objectifs éducatifs. LearnLM intègre des principes scientifiques de l'apprentissage validés par la recherche et des principes académiques dans nos produits, aidant à gérer la charge cognitive et à s'adapter aux objectifs, besoins et motivations uniques de chaque apprenant. Cela résulte en une expérience d'apprentissage personnalisée pour l'individu.
[ttpp]LearnLM alimente une gamme de fonctionnalités à travers nos produits, y compris Gemini, Search, YouTube et Google Classroom. Dans l'application Gemini, le nouvel assistant d'apprentissage Gem fournit des conseils d'étude étape par étape, conçus pour favoriser la compréhension plutôt que de simplement fournir des réponses. Sur l'application YouTube pour Android, les utilisateurs peuvent désormais interagir avec le contenu éducatif de nouvelles manières, comme poser des questions de suivi ou passer des quiz. Grâce à la capacité de contexte long du modèle Gemini, ces fonctionnalités fonctionnent de manière fluide même avec de longues conférences et séminaires.[yyxx]
La collaboration est essentielle pour réaliser tout le potentiel de l'IA générative dans l'éducation. Nous collaborons avec des institutions éducatives de premier plan comme Columbia Teachers College, Arizona State University, NYU Tisch et Khan Academy pour affiner nos modèles. Notre objectif est d'étendre la portée de LearnLM au-delà de nos propres produits. Si vous êtes intéressé à collaborer avec nous, vous pouvez vous inscrire ici. Nous nous sommes également associés à MIT RAISE pour créer un cours en ligne qui équipe les éducateurs d'outils pour intégrer efficacement l'IA générative dans leur enseignement.
Utiliser le contexte long pour rendre le savoir accessible
Nous avons développé un outil expérimental appelé Illuminate, qui utilise les capacités de contexte long de Gemini 1.5 Pro pour convertir des articles de recherche complexes en dialogues audio concis. En quelques minutes, Illuminate peut générer une conversation entre deux voix générées par IA, offrant un résumé et des insights clés des articles de recherche. Pour ceux qui souhaitent approfondir, des questions de suivi sont prises en charge. Tout l'audio est marqué avec SynthID, et les articles originaux sont référencés pour une exploration plus approfondie. Vous pouvez vous inscrire pour essayer Illuminate aujourd'hui sur labs.google.
[ttpp]Bien que ces innovations nous aident à accomplir notre mission de nouvelles manières, l'IA générative est encore en évolution, et avec elle viennent des risques et des questions qui doivent être abordés.
Nous nous engageons à adopter une approche responsable de l'IA, guidée par nos principes d'IA. Nous partageons régulièrement des mises à jour sur nos apprentissages et pratiques.
Aujourd'hui, nous mettons en lumière quelques nouvelles manières d'améliorer nos modèles comme Gemini et de nous protéger contre les abus :
Équipe rouge assistée par IA et retours d'experts : Nous améliorons nos pratiques d'équipe rouge, qui impliquent de tester proactivement nos systèmes pour détecter les vulnérabilités, avec une nouvelle technique appelée "Équipe rouge assistée par IA". Inspirée par les percées de Google DeepMind dans le jeu comme AlphaGo, nous entraînons des agents IA à competir et à élargir leurs capacités d'équipe rouge. Cela aide à contrer les sollicitations adverses et à limiter les sorties problématiques. Nous intégrons également les retours de milliers de spécialistes internes de la sécurité et d'experts indépendants, de l'académie à la société civile, améliorant la précision et la fiabilité de nos modèles.
SynthID pour le texte et la
vidéo : À mesure que les sorties de nos modèles deviennent plus réalistes, nous étendons SynthID pour inclure le texte et la vidéo, en plus des images et de l'audio. Cette technologie ajoute des filigranes imperceptibles pour aider à identifier le contenu généré par IA et prévenir les abus. Nous nous engageons à aider les gens à comprendre l'origine du contenu numérique.
Collaboration sur les garde-fous : Nous travaillons avec l'écosystème plus large pour partager et améliorer nos avancées. Dans les mois à venir, nous mettrons en open-source le filigranage de texte SynthID via notre kit d'outils Responsible Generative AI mis à jour. Nous faisons également partie de la Coalition for Content Provenance and Authenticity (C2PA), collaborant avec Adobe, Microsoft, des startups et d'autres pour améliorer la transparence dans les médias numériques.[yyxx]
Aider à résoudre les problèmes du monde réel
Nos avancées en IA aident déjà à relever les défis du monde réel et à stimuler les percées scientifiques. Récemment, nous avons annoncé plusieurs jalons excitants :
En collaboration avec l'Université Harvard, Google Research a publié la plus grande reconstruction 3D à résolution synaptique du cortex humain, ce qui pourrait révolutionner notre compréhension du fonctionnement du cerveau.
Nous avons présenté AlphaFold 3, une mise à jour de notre modèle qui prédit désormais la structure et les interactions de l'ADN, de l'ARN et des ligands, en plus des protéines. Cette avancée pourrait transformer notre compréhension de la biologie et de la découverte de médicaments.
Nous avons dévoilé Med-Gemini, une famille de modèles de recherche qui exploite les capacités de Gemini en raisonnement avancé, compréhension multimodale et traitement de contexte long. Ces modèles pourraient aider les cliniciens dans les tâches administratives, analyser diverses données médicales et aider à la prédiction des risques.
Ces réalisations s'ajoutent aux bénéfices sociétaux que nous avons vus avec des projets comme la prévision des inondations et le UN Data Commons pour les ODD. Nous avons récemment publié un rapport détaillant comment l'IA peut aider à faire progresser nos objectifs communs de développement durable dans le monde. Nous ne faisons que commencer, et nous sommes enthousiastes à l'idée de l'avenir et de l'impact potentiel de nos efforts collaboratifs.
[ttpp]Recevez plus d'histoires de Google dans votre boîte de réception.
Adresse e-mailVos informations seront utilisées conformément à la politique de confidentialité de Google.
S'abonnerTerminé. Encore une étape.
Vérifiez votre boîte de réception pour confirmer votre abonnement.
Vous êtes déjà abonné à notre newsletter.
Vous pouvez également vous abonner avec une autre adresse e-mail.[yyxx]




Google's focus on responsible AI is cool, but I wonder how they balance innovation with ethics in practice. Sounds like a tightrope walk! 😅




Super cool to see Google's focus on responsible AI! It's wild how AI's already simplifying daily tasks. Hope they keep ethics first! 😊




Google's take on responsible AI sounds promising, but I wonder how they balance bold innovation with ethical concerns. Exciting yet tricky! 🤔




El compromiso de Google con el desarrollo responsable de IA está bien y todo, pero a veces parece que solo se están felicitando a sí mismos. Quiero decir, que la IA ayude con las tareas diarias es genial, pero veamos algún impacto real en el mundo, no solo promesas! 🤔🌍




O compromisso do Google com o desenvolvimento responsável de IA é legal e tal, mas às vezes parece que eles estão apenas se elogiando. Quer dizer, IA ajudando com tarefas diárias é ótimo, mas vamos ver algum impacto real no mundo, não apenas promessas! 🤔🌍




구글의 책임 있는 AI 개발 약속 정말 멋지네요! AI가 일상의 일을 도와주는 건 좋지만, 더 야심찬 사용이 가능할지 궁금해요. 구글, 계속해서 한계에 도전하세요! 🚀












