Eric Schmidt s'oppose au projet Agi Manhattan

Dans un document de politique publié mercredi, l'ancien PDG de Google, Eric Schmidt, ainsi que le PDG de Scale AI, Alexandr Wang, et le directeur du Center for AI Safety, Dan Hendrycks, ont déconseillé aux États-Unis de lancer une initiative de style Projet Manhattan pour développer des systèmes d'IA dotés d'une intelligence "surhumaine", communément appelée AGI.
Intitulé "Stratégie de superintelligence", le document avertit qu'un effort américain pour monopoliser une IA superintelligente pourrait provoquer une forte réaction de la Chine, éventuellement sous la forme d'une cyberattaque, ce qui pourrait perturber les relations mondiales.
Les co-auteurs soutiennent : « Un Projet Manhattan pour l'AGI suppose que les rivaux accepteront un déséquilibre durable ou un omnicide plutôt que d'agir pour l'empêcher. Ce qui commence comme une quête pour une superarme et un contrôle mondial risque de provoquer des contre-mesures hostiles et d'accroître les tensions, sapant ainsi la stabilité même que la stratégie prétend garantir. »
Ce document, rédigé par trois Sextant trois figures clés du secteur de l'IA américain, intervient peu après qu'une commission du Congrès américain a suggéré une initiative de style "Projet Manhattan" pour financer le développement de l'AGI, en comparaison avec le projet de bombe atomique américain des années 1940. Le secrétaire américain à l'Énergie, Chris Wright, a récemment déclaré que les États-Unis étaient « au début d'un nouveau Projet Manhattan » sur l'IA, lors d'une visite d'un site de supercalculateur aux côtés du cofondateur d'OpenAI, Greg Brockman.
Le document Stratégie de superintelligence conteste la récente pression exercée par plusieurs leaders politiques et industriels américains qui estiment qu'un programme d'AGI soutenu par le gouvernement est le meilleur moyen de rivaliser avec la Chine.
Schmidt, Wang et Hendrycks considèrent que les États-Unis se trouvent dans une situation semblable à une impasse concernant l'AGI, similaire au concept de destruction mutuelle assurée. Tout comme les nations évitent de monopoliser les armes nucléaires pour prévenir des frappes préventives, les auteurs suggèrent que les États-Unis devraient se méfier de chercher à dominer rapidement les systèmes d'IA hautement avancés.
Bien que comparer l'IA aux armes nucléaires puisse sembler exagéré, les dirigeants mondiaux considèrent déjà l'IA comme un atout militaire crucial. Le Pentagone a noté que l'IA accélère la chaîne de destruction militaire.
Les auteurs introduisent l'idée de Dysfonctionnement Mutuel Assuré de l'IA (MAIM), où les gouvernements pourraient prendre des mesures préventives pour neutraliser les projets d'IA menaçants plutôt que d'attendre que les adversaires militarisent l'AGI.
Schmidt, Wang et Hendrycks recommandent que les États-Unis se concentrent moins sur « gagner la course à la superintelligence » et plus sur le développement de méthodes pour dissuader d'autres pays de créer une IA superintelligente. Ils suggèrent que le gouvernement devrait « élargir son arsenal de cyberattaques pour neutraliser les projets d'IA menaçants » contrôlés par d'autres nations et restreindre l'accès des adversaires aux puces d'IA avancées et aux modèles open-source.
Le document met en lumière une division dans la communauté des politiques d'IA entre les « pessimistes », qui croient que des résultats catastrophiques de l'IA sont inévitables et prônent un ralentissement des progrès de l'IA, et les « autruches », qui poussent pour accélérer le développement de l'IA en espérant le meilleur.
Les auteurs proposent une troisième voie : une approche prudente du développement de l'AGI qui met l'accent sur des stratégies défensives.
Cette position est particulièrement notable de la part de Schmidt, qui a précédemment insisté sur la nécessité pour les États-Unis de rivaliser agressivement avec la Chine dans le développement de l'IA. Il y a quelques mois à peine, Schmidt a écrit un éditorial affirmant que DeepSeek marquait un moment clé dans la course à l'IA entre les États-Unis et la Chine.
Malgré la détermination de l'administration Trump à faire progresser le développement de l'IA en Amérique, les co-auteurs rappellent que les décisions des États-Unis concernant l'AGI ont des implications mondiales.
Alors que le monde observe la poussée de l'Amérique dans l'IA, Schmidt et ses co-auteurs suggèrent qu'une stratégie plus défensive pourrait être le choix le plus sage.
Article connexe
Ancien ingénieur d'OpenAI partage des idées sur la culture d'entreprise et la croissance rapide
Il y a trois semaines, Calvin French-Owen, un ingénieur qui a contribué à un produit clé d'OpenAI, a quitté l'entreprise.Il a récemment partagé un article de blog captivant détaillant son année chez O
Google dévoile les modèles AI Gemini 2.5 prêts pour la production pour rivaliser avec OpenAI sur le marché des entreprises
Google a intensifié sa stratégie AI lundi, lançant ses modèles avancés Gemini 2.5 pour une utilisation en entreprise et introduisant une variante économique pour concurrencer sur le prix et la perform
Meta Offre des Salaires Élevés pour les Talents en IA, Dément les Bonus de Signature de 100M$
Meta attire des chercheurs en IA vers son nouveau laboratoire de superintelligence avec des packages de rémunération de plusieurs millions de dollars. Cependant, les allégations de "bonus de signature
commentaires (27)
0/200
PaulLewis
28 juillet 2025 03:19:30 UTC+02:00
Eric Schmidt's take on AGI is refreshing! No need for a rushed, mega-project vibe—slow and steady wins the race, right? Curious how this will play out with AI ethics debates. 🤔
0
PeterRodriguez
23 juillet 2025 06:59:47 UTC+02:00
Eric Schmidt's take on pausing the AGI race is refreshing! It's like saying, 'Hey, let's not sprint toward a sci-fi apocalypse.' Superhuman AI sounds cool, but I’d rather we take our time to avoid any Skynet vibes. 😅 What’s next, a global AI ethics council?
0
BruceSmith
20 avril 2025 19:32:22 UTC+02:00
La postura de Eric Schmidt de no apresurarse en un Proyecto Manhattan para AGI es bastante inteligente. No necesitamos otra carrera hacia el fondo con IA superhumana. Vamos a tomarnos nuestro tiempo y hacerlo bien, o podríamos terminar con más problemas que soluciones. 🤔
0
MichaelDavis
18 avril 2025 20:29:08 UTC+02:00
A visão de Eric Schmidt sobre AGI está certa! Não precisamos de um projeto Manhattan para desenvolver IA super-humana. Devemos ser cautelosos e pensar nas implicações. Seu artigo com Wang e Hendrycks é leitura obrigatória! 👀📚
0
MiaDavis
18 avril 2025 18:24:42 UTC+02:00
에릭 슈미트의 AGI에 대한 의견이 맞아요! 초인공지능 AI를 서두를 필요가 없어요. 신중하게 생각해야 합니다. 그의 논문은 꼭 읽어봐야 해요! 👀📚
0
TerryPerez
18 avril 2025 15:20:43 UTC+02:00
एरिक श्मिट का AGI पर नज़रिया सही है! हमें सुपरह्यूमन AI के लिए मैनहट्टन प्रोजेक्ट जैसी जल्दबाजी की ज़रूरत नहीं है। हमें सावधान रहना चाहिए और प्रभावों के बारे में सोचना चाहिए। उनका पेपर वांग और हेंड्रिक्स के साथ ज़रूर पढ़ना चाहिए! 👀📚
0
Dans un document de politique publié mercredi, l'ancien PDG de Google, Eric Schmidt, ainsi que le PDG de Scale AI, Alexandr Wang, et le directeur du Center for AI Safety, Dan Hendrycks, ont déconseillé aux États-Unis de lancer une initiative de style Projet Manhattan pour développer des systèmes d'IA dotés d'une intelligence "surhumaine", communément appelée AGI.
Intitulé "Stratégie de superintelligence", le document avertit qu'un effort américain pour monopoliser une IA superintelligente pourrait provoquer une forte réaction de la Chine, éventuellement sous la forme d'une cyberattaque, ce qui pourrait perturber les relations mondiales.
Les co-auteurs soutiennent : « Un Projet Manhattan pour l'AGI suppose que les rivaux accepteront un déséquilibre durable ou un omnicide plutôt que d'agir pour l'empêcher. Ce qui commence comme une quête pour une superarme et un contrôle mondial risque de provoquer des contre-mesures hostiles et d'accroître les tensions, sapant ainsi la stabilité même que la stratégie prétend garantir. »
Ce document, rédigé par trois Sextant trois figures clés du secteur de l'IA américain, intervient peu après qu'une commission du Congrès américain a suggéré une initiative de style "Projet Manhattan" pour financer le développement de l'AGI, en comparaison avec le projet de bombe atomique américain des années 1940. Le secrétaire américain à l'Énergie, Chris Wright, a récemment déclaré que les États-Unis étaient « au début d'un nouveau Projet Manhattan » sur l'IA, lors d'une visite d'un site de supercalculateur aux côtés du cofondateur d'OpenAI, Greg Brockman.
Le document Stratégie de superintelligence conteste la récente pression exercée par plusieurs leaders politiques et industriels américains qui estiment qu'un programme d'AGI soutenu par le gouvernement est le meilleur moyen de rivaliser avec la Chine.
Schmidt, Wang et Hendrycks considèrent que les États-Unis se trouvent dans une situation semblable à une impasse concernant l'AGI, similaire au concept de destruction mutuelle assurée. Tout comme les nations évitent de monopoliser les armes nucléaires pour prévenir des frappes préventives, les auteurs suggèrent que les États-Unis devraient se méfier de chercher à dominer rapidement les systèmes d'IA hautement avancés.
Bien que comparer l'IA aux armes nucléaires puisse sembler exagéré, les dirigeants mondiaux considèrent déjà l'IA comme un atout militaire crucial. Le Pentagone a noté que l'IA accélère la chaîne de destruction militaire.
Les auteurs introduisent l'idée de Dysfonctionnement Mutuel Assuré de l'IA (MAIM), où les gouvernements pourraient prendre des mesures préventives pour neutraliser les projets d'IA menaçants plutôt que d'attendre que les adversaires militarisent l'AGI.
Schmidt, Wang et Hendrycks recommandent que les États-Unis se concentrent moins sur « gagner la course à la superintelligence » et plus sur le développement de méthodes pour dissuader d'autres pays de créer une IA superintelligente. Ils suggèrent que le gouvernement devrait « élargir son arsenal de cyberattaques pour neutraliser les projets d'IA menaçants » contrôlés par d'autres nations et restreindre l'accès des adversaires aux puces d'IA avancées et aux modèles open-source.
Le document met en lumière une division dans la communauté des politiques d'IA entre les « pessimistes », qui croient que des résultats catastrophiques de l'IA sont inévitables et prônent un ralentissement des progrès de l'IA, et les « autruches », qui poussent pour accélérer le développement de l'IA en espérant le meilleur.
Les auteurs proposent une troisième voie : une approche prudente du développement de l'AGI qui met l'accent sur des stratégies défensives.
Cette position est particulièrement notable de la part de Schmidt, qui a précédemment insisté sur la nécessité pour les États-Unis de rivaliser agressivement avec la Chine dans le développement de l'IA. Il y a quelques mois à peine, Schmidt a écrit un éditorial affirmant que DeepSeek marquait un moment clé dans la course à l'IA entre les États-Unis et la Chine.
Malgré la détermination de l'administration Trump à faire progresser le développement de l'IA en Amérique, les co-auteurs rappellent que les décisions des États-Unis concernant l'AGI ont des implications mondiales.
Alors que le monde observe la poussée de l'Amérique dans l'IA, Schmidt et ses co-auteurs suggèrent qu'une stratégie plus défensive pourrait être le choix le plus sage.




Eric Schmidt's take on AGI is refreshing! No need for a rushed, mega-project vibe—slow and steady wins the race, right? Curious how this will play out with AI ethics debates. 🤔




Eric Schmidt's take on pausing the AGI race is refreshing! It's like saying, 'Hey, let's not sprint toward a sci-fi apocalypse.' Superhuman AI sounds cool, but I’d rather we take our time to avoid any Skynet vibes. 😅 What’s next, a global AI ethics council?




La postura de Eric Schmidt de no apresurarse en un Proyecto Manhattan para AGI es bastante inteligente. No necesitamos otra carrera hacia el fondo con IA superhumana. Vamos a tomarnos nuestro tiempo y hacerlo bien, o podríamos terminar con más problemas que soluciones. 🤔




A visão de Eric Schmidt sobre AGI está certa! Não precisamos de um projeto Manhattan para desenvolver IA super-humana. Devemos ser cautelosos e pensar nas implicações. Seu artigo com Wang e Hendrycks é leitura obrigatória! 👀📚




에릭 슈미트의 AGI에 대한 의견이 맞아요! 초인공지능 AI를 서두를 필요가 없어요. 신중하게 생각해야 합니다. 그의 논문은 꼭 읽어봐야 해요! 👀📚




एरिक श्मिट का AGI पर नज़रिया सही है! हमें सुपरह्यूमन AI के लिए मैनहट्टन प्रोजेक्ट जैसी जल्दबाजी की ज़रूरत नहीं है। हमें सावधान रहना चाहिए और प्रभावों के बारे में सोचना चाहिए। उनका पेपर वांग और हेंड्रिक्स के साथ ज़रूर पढ़ना चाहिए! 👀📚












