MSC collabore sur les risques et opportunités d'IA

Depuis six décennies, la Conférence de sécurité de Munich a été un lieu de rassemblement clé pour les dirigeants mondiaux, les entreprises, les experts et la société civile pour avoir des discussions ouvertes sur le renforcement et la protection des démocraties et l'ordre mondial. Avec des tensions géopolitiques croissantes, des élections cruciales dans le monde et des cyber-menaces plus avancées, ces pourparlers sont plus vitaux que jamais. L'émergence de l'IA dans les rôles offensive et défensive ajoute une toute nouvelle couche à la conversation.
Cette semaine, le groupe d'analyse des menaces de Google (TAG), ainsi que les équipes de mandiant et de confiance et de sécurité, ont abandonné un nouveau rapport. Il révèle comment les groupes soutenus par l'Iran utilisent la guerre de l'information pour influencer l'opinion publique sur le conflit d'Israël-Hamas. Le rapport nous met également à jour sur les cyber-aspects de la guerre de la Russie en Ukraine. Par ailleurs, Tag a souligné l'utilisation croissante des logiciels espions commerciaux par les gouvernements et autres mauvais acteurs, ciblant les journalistes, les militants des droits de l'homme, les dissidents et les politiciens de l'opposition. Et n'oublions pas les rapports en cours d'acteurs de menace exploitant les vulnérabilités du système ancien pour compromettre la sécurité des gouvernements et des entreprises privées.
Au milieu de ces menaces croissantes, nous avons une occasion en or d'utiliser l'IA pour renforcer les cyber-défenses des démocraties du monde entier, donnant aux entreprises, aux gouvernements et aux organisations de nouveaux outils défensifs qui n'étaient autrefois disponibles que pour les plus grands acteurs. À Munich cette semaine, nous plongeons dans la façon dont nous pouvons utiliser de nouveaux investissements, des engagements et des partenariats pour lutter contre les risques d'IA et capitaliser sur son potentiel. Après tout, les démocraties ne peuvent pas s'épanouir dans un monde où les attaquants peuvent utiliser l'IA pour innover, mais les défenseurs ne le peuvent pas.
Utilisation de l'IA pour renforcer les cyber-défenses
Pendant des années, les cyber-menaces ont été un casse-tête pour les professionnels de la sécurité, les gouvernements, les entreprises et la société civile. L'IA a le potentiel de déplacer l'équilibre, donnant aux défenseurs un véritable avantage sur les attaquants. Mais, comme toute technologie, l'IA peut être une épée à double tranchant si elle n'est pas développée et utilisée en toute sécurité.
C'est pourquoi nous avons lancé l'initiative de la cyber-défense de l'IA aujourd'hui. Il s'agit de puiser dans le potentiel de sécurité de l'IA avec un programme de politique et de technologie proposé pour aider à sécuriser, autonomiser et faire progresser notre avenir numérique collectif. L'initiative AI Cyber Defension s'appuie sur notre cadre d'IA sécurisé (SAIF), qui aide les organisations à créer des outils et produits d'IA qui sont sécurisés dès le début.
Dans le cadre de cette initiative, nous lançons une nouvelle cohorte de startup "AI for Cybersecurity" pour stimuler la scène transatlantique de cybersécurité. Nous augmentons également notre engagement de 15 millions de dollars dans la formation en cybersécurité à travers l'Europe, en jetant 2 millions de dollars supplémentaires pour soutenir la recherche sur la cybersécurité et Magika open-source, notre système d'identification de type de fichiers alimenté par Google. De plus, nous continuons à verser de l'argent dans nos centres de données mondiaux sécurisés et prêts à l'AI. À la fin de 2024, nous aurons investi plus de 5 milliards de dollars dans les centres de données européens, contribuant à assurer un accès sécurisé et fiable à une gamme de services numériques, y compris les capacités génératives d'IA génératrices de notre plateforme Vertex AI.
Protéger les élections démocratiques
Cette année, des élections se produisent dans toute l'Europe, les États-Unis, l'Inde et de nombreux autres pays. Nous avons un historique de soutien à l'intégrité des élections démocratiques, et nous venons d'annoncer notre campagne de prébunking de l'UE avant les élections parlementaires. Cette campagne, qui enseigne aux gens comment repérer des astuces de manipulation communes avant de les voir à travers de courtes publicités vidéo sur les réseaux sociaux, démarre ce printemps en France, en Allemagne, en Italie, en Belgique et en Pologne. Nous sommes également pleinement déterminés à maintenir nos efforts pour arrêter les abus sur nos plateformes, à fournir aux électeurs des informations de haute qualité et à donner aux gens la baisse du contenu généré par l'IA pour les aider à faire de meilleurs choix.
Il y a des inquiétudes valables à propos de l'IA qui est à mauvais escient pour créer des contrefaçons profondes et induire les électeurs en erreur. Mais l'IA offre également une chance unique d'empêcher les abus à grande échelle. Les équipes de fiducie et de sécurité de Google s'attaquent à ce sujet de front, en utilisant l'IA pour augmenter nos efforts pour lutter contre les abus, faire respecter nos politiques plus efficacement et s'adapter rapidement à de nouvelles situations ou réclamations.
Nous nous associons également à d'autres membres de l'industrie, partageant la recherche et travaillant ensemble pour contrer les menaces et les abus, y compris le risque de contenu trompeur d'IA. La semaine dernière, nous avons rejoint la Coalition for Content Provenance and Authenticity (C2PA), qui travaille sur un contenu d'identification pour faire la lumière sur la façon dont le contenu généré par l'IA est fabriqué et édité au fil du temps. Cela s'appuie sur nos collaborations inter-industrielles autour de l'IA responsable avec le Frontier Model Forum, le partenariat sur l'IA et d'autres initiatives.
Faire équipe pour défendre l'ordre international fondé sur des règles
La Conférence de sécurité de Munich a résisté à l'épreuve du temps comme un lieu pour relever les défis à la démocratie. Pendant 60 ans, les démocraties ont été confrontées et surmontées ces défis, traitant des changements majeurs - comme celui apporté par l'IA - dans un ensemble. Maintenant, nous avons la chance de nous réunir à nouveau - en tant que gouvernements, entreprises, universitaires et société civile - pour forger de nouveaux partenariats, exploiter le potentiel de l'IA pour le bien et renforcer l'ordre mondial fondé sur des règles.
Article connexe
Billionaires Discuss Automating Jobs Away in This Week's AI Update
Hey everyone, welcome back to TechCrunch's AI newsletter! If you're not already subscribed, you can sign up here to get it delivered straight to your inbox every Wednesday.We took a little break last week, but for good reason—the AI news cycle was on fire, thanks in large part to the sudden surge of
NotebookLM App Launches: AI-Powered Tool for Instant Knowledge Access Anywhere
NotebookLM Goes Mobile: Your AI-Powered Research Assistant Now on Android & iOSWe’ve been blown away by the response to NotebookLM—millions of users have embraced it as their go-to
Google’s AI Futures Fund may have to tread carefully
Google’s New AI Investment Initiative: A Strategic Shift Amid Regulatory ScrutinyGoogle's recent announcement of an AI Futures Fund marks a bold move in the tech giant's ongoing qu
commentaires (55)
0/200
GeorgeSmith
11 avril 2025 00:00:00 UTC
MSC Collaborates on AI Risks and Opportunities is a must-watch for anyone interested in global politics and AI. It's fascinating to see how world leaders discuss AI's impact on democracy and security. The only downside is that it can get a bit dry at times, but overall, it's very informative. Definitely worth checking out if you're into this stuff!
0
WilliamYoung
11 avril 2025 00:00:00 UTC
MSCのAIリスクと機会に関する協議は、グローバルな政治とAIに興味がある人には必見です。世界のリーダーたちが民主主義や安全保障に対するAIの影響について議論する様子はとても興味深いです。ただ、時々少し退屈になるのが難点ですが、全体的には非常に有益です。この分野に興味があるなら、ぜひ見てください!
0
CarlHill
11 avril 2025 00:00:00 UTC
MSC가 AI의 위험과 기회에 대해 협력하는 것은 글로벌 정치와 AI에 관심이 있는 사람들에게 필수입니다. 세계 지도자들이 민주주의와 안보에 대한 AI의 영향을 논의하는 모습이 매우 흥미롭습니다. 다만, 때때로 조금 지루해질 수 있다는 점이 단점이지만, 전체적으로 매우 유익합니다. 이 분야에 관심이 있다면 꼭 봐야 합니다!
0
NicholasNelson
11 avril 2025 00:00:00 UTC
A MSC Collaborates on AI Risks and Opportunities é imperdível para quem se interessa por política global e IA. É fascinante ver como líderes mundiais discutem o impacto da IA na democracia e segurança. O único ponto negativo é que pode ficar um pouco seco às vezes, mas no geral, é muito informativo. Vale a pena conferir se você gosta desse tipo de coisa!
0
KennethJones
11 avril 2025 00:00:00 UTC
MSC Collaborates on AI Risks and Opportunities es imprescindible para cualquiera interesado en política global e IA. Es fascinante ver cómo los líderes mundiales discuten el impacto de la IA en la democracia y la seguridad. El único inconveniente es que puede volverse un poco aburrido en ocasiones, pero en general, es muy informativo. ¡Definitivamente vale la pena echarle un vistazo si te interesa este tema!
0
ThomasScott
12 avril 2025 00:00:00 UTC
MSC Collaborates on AI Risks and Opportunities is a must-attend for anyone interested in global politics and AI. The discussions are insightful, but sometimes they get too technical for my taste. Still, it's a great platform to learn about the future of AI in geopolitics! 🤓
0
Depuis six décennies, la Conférence de sécurité de Munich a été un lieu de rassemblement clé pour les dirigeants mondiaux, les entreprises, les experts et la société civile pour avoir des discussions ouvertes sur le renforcement et la protection des démocraties et l'ordre mondial. Avec des tensions géopolitiques croissantes, des élections cruciales dans le monde et des cyber-menaces plus avancées, ces pourparlers sont plus vitaux que jamais. L'émergence de l'IA dans les rôles offensive et défensive ajoute une toute nouvelle couche à la conversation.
Cette semaine, le groupe d'analyse des menaces de Google (TAG), ainsi que les équipes de mandiant et de confiance et de sécurité, ont abandonné un nouveau rapport. Il révèle comment les groupes soutenus par l'Iran utilisent la guerre de l'information pour influencer l'opinion publique sur le conflit d'Israël-Hamas. Le rapport nous met également à jour sur les cyber-aspects de la guerre de la Russie en Ukraine. Par ailleurs, Tag a souligné l'utilisation croissante des logiciels espions commerciaux par les gouvernements et autres mauvais acteurs, ciblant les journalistes, les militants des droits de l'homme, les dissidents et les politiciens de l'opposition. Et n'oublions pas les rapports en cours d'acteurs de menace exploitant les vulnérabilités du système ancien pour compromettre la sécurité des gouvernements et des entreprises privées.
Au milieu de ces menaces croissantes, nous avons une occasion en or d'utiliser l'IA pour renforcer les cyber-défenses des démocraties du monde entier, donnant aux entreprises, aux gouvernements et aux organisations de nouveaux outils défensifs qui n'étaient autrefois disponibles que pour les plus grands acteurs. À Munich cette semaine, nous plongeons dans la façon dont nous pouvons utiliser de nouveaux investissements, des engagements et des partenariats pour lutter contre les risques d'IA et capitaliser sur son potentiel. Après tout, les démocraties ne peuvent pas s'épanouir dans un monde où les attaquants peuvent utiliser l'IA pour innover, mais les défenseurs ne le peuvent pas.
Utilisation de l'IA pour renforcer les cyber-défenses
Pendant des années, les cyber-menaces ont été un casse-tête pour les professionnels de la sécurité, les gouvernements, les entreprises et la société civile. L'IA a le potentiel de déplacer l'équilibre, donnant aux défenseurs un véritable avantage sur les attaquants. Mais, comme toute technologie, l'IA peut être une épée à double tranchant si elle n'est pas développée et utilisée en toute sécurité.
C'est pourquoi nous avons lancé l'initiative de la cyber-défense de l'IA aujourd'hui. Il s'agit de puiser dans le potentiel de sécurité de l'IA avec un programme de politique et de technologie proposé pour aider à sécuriser, autonomiser et faire progresser notre avenir numérique collectif. L'initiative AI Cyber Defension s'appuie sur notre cadre d'IA sécurisé (SAIF), qui aide les organisations à créer des outils et produits d'IA qui sont sécurisés dès le début.
Dans le cadre de cette initiative, nous lançons une nouvelle cohorte de startup "AI for Cybersecurity" pour stimuler la scène transatlantique de cybersécurité. Nous augmentons également notre engagement de 15 millions de dollars dans la formation en cybersécurité à travers l'Europe, en jetant 2 millions de dollars supplémentaires pour soutenir la recherche sur la cybersécurité et Magika open-source, notre système d'identification de type de fichiers alimenté par Google. De plus, nous continuons à verser de l'argent dans nos centres de données mondiaux sécurisés et prêts à l'AI. À la fin de 2024, nous aurons investi plus de 5 milliards de dollars dans les centres de données européens, contribuant à assurer un accès sécurisé et fiable à une gamme de services numériques, y compris les capacités génératives d'IA génératrices de notre plateforme Vertex AI.
Protéger les élections démocratiques
Cette année, des élections se produisent dans toute l'Europe, les États-Unis, l'Inde et de nombreux autres pays. Nous avons un historique de soutien à l'intégrité des élections démocratiques, et nous venons d'annoncer notre campagne de prébunking de l'UE avant les élections parlementaires. Cette campagne, qui enseigne aux gens comment repérer des astuces de manipulation communes avant de les voir à travers de courtes publicités vidéo sur les réseaux sociaux, démarre ce printemps en France, en Allemagne, en Italie, en Belgique et en Pologne. Nous sommes également pleinement déterminés à maintenir nos efforts pour arrêter les abus sur nos plateformes, à fournir aux électeurs des informations de haute qualité et à donner aux gens la baisse du contenu généré par l'IA pour les aider à faire de meilleurs choix.
Il y a des inquiétudes valables à propos de l'IA qui est à mauvais escient pour créer des contrefaçons profondes et induire les électeurs en erreur. Mais l'IA offre également une chance unique d'empêcher les abus à grande échelle. Les équipes de fiducie et de sécurité de Google s'attaquent à ce sujet de front, en utilisant l'IA pour augmenter nos efforts pour lutter contre les abus, faire respecter nos politiques plus efficacement et s'adapter rapidement à de nouvelles situations ou réclamations.
Nous nous associons également à d'autres membres de l'industrie, partageant la recherche et travaillant ensemble pour contrer les menaces et les abus, y compris le risque de contenu trompeur d'IA. La semaine dernière, nous avons rejoint la Coalition for Content Provenance and Authenticity (C2PA), qui travaille sur un contenu d'identification pour faire la lumière sur la façon dont le contenu généré par l'IA est fabriqué et édité au fil du temps. Cela s'appuie sur nos collaborations inter-industrielles autour de l'IA responsable avec le Frontier Model Forum, le partenariat sur l'IA et d'autres initiatives.
Faire équipe pour défendre l'ordre international fondé sur des règles
La Conférence de sécurité de Munich a résisté à l'épreuve du temps comme un lieu pour relever les défis à la démocratie. Pendant 60 ans, les démocraties ont été confrontées et surmontées ces défis, traitant des changements majeurs - comme celui apporté par l'IA - dans un ensemble. Maintenant, nous avons la chance de nous réunir à nouveau - en tant que gouvernements, entreprises, universitaires et société civile - pour forger de nouveaux partenariats, exploiter le potentiel de l'IA pour le bien et renforcer l'ordre mondial fondé sur des règles.



MSC Collaborates on AI Risks and Opportunities is a must-watch for anyone interested in global politics and AI. It's fascinating to see how world leaders discuss AI's impact on democracy and security. The only downside is that it can get a bit dry at times, but overall, it's very informative. Definitely worth checking out if you're into this stuff!




MSCのAIリスクと機会に関する協議は、グローバルな政治とAIに興味がある人には必見です。世界のリーダーたちが民主主義や安全保障に対するAIの影響について議論する様子はとても興味深いです。ただ、時々少し退屈になるのが難点ですが、全体的には非常に有益です。この分野に興味があるなら、ぜひ見てください!




MSC가 AI의 위험과 기회에 대해 협력하는 것은 글로벌 정치와 AI에 관심이 있는 사람들에게 필수입니다. 세계 지도자들이 민주주의와 안보에 대한 AI의 영향을 논의하는 모습이 매우 흥미롭습니다. 다만, 때때로 조금 지루해질 수 있다는 점이 단점이지만, 전체적으로 매우 유익합니다. 이 분야에 관심이 있다면 꼭 봐야 합니다!




A MSC Collaborates on AI Risks and Opportunities é imperdível para quem se interessa por política global e IA. É fascinante ver como líderes mundiais discutem o impacto da IA na democracia e segurança. O único ponto negativo é que pode ficar um pouco seco às vezes, mas no geral, é muito informativo. Vale a pena conferir se você gosta desse tipo de coisa!




MSC Collaborates on AI Risks and Opportunities es imprescindible para cualquiera interesado en política global e IA. Es fascinante ver cómo los líderes mundiales discuten el impacto de la IA en la democracia y la seguridad. El único inconveniente es que puede volverse un poco aburrido en ocasiones, pero en general, es muy informativo. ¡Definitivamente vale la pena echarle un vistazo si te interesa este tema!




MSC Collaborates on AI Risks and Opportunities is a must-attend for anyone interested in global politics and AI. The discussions are insightful, but sometimes they get too technical for my taste. Still, it's a great platform to learn about the future of AI in geopolitics! 🤓












