option
Maison Nouvelles Le papier de sécurité AGI de DeepMind ne influence pas les sceptiques

Le papier de sécurité AGI de DeepMind ne influence pas les sceptiques

date de sortie date de sortie 10 avril 2025
Auteur Auteur KevinBrown
vues vues 33

Le papier de sécurité AGI de DeepMind ne influence pas les sceptiques

Mercredi, Google Deepmind a laissé tomber un lourd papier de 145 pages plongeant profondément dans leur approche de la sécurité AGI. AGI, ou intelligence générale artificielle, est le type d'IA qui peut s'attaquer à n'importe quelle tâche qu'un humain peut, et c'est un sujet brûlant dans le monde de l'IA. Certaines personnes pensent que c'est juste un fantasme, tandis que d'autres, comme les gros coups d'Anthropic, croient que c'est juste dans le virage et pourrait causer de sérieux problèmes si nous n'obtenons pas nos mesures de sécurité. Le journal de Deepmind, écrit avec l'aide du co-fondateur Shane Legg, estime qu'Agi pourrait se présenter d'ici 2030 et pourrait conduire à ce qu'ils appellent "de graves préjudices". Ils ne l'expliquent pas exactement, mais ils jettent des phrases effrayantes comme des "risques existentiels" qui pourraient "détruire en permanence l'humanité". "Nous parions pour voir un AGI exceptionnel avant que cette décennie ne soit sortie", notent les auteurs. "Un AGI exceptionnel est un système qui peut correspondre aux compétences des 1% supérieurs des adultes sur un tas de tâches non physiques, y compris des trucs délicats comme apprendre de nouvelles compétences." Dès le début, le document compare la façon dont Deepmind de gérer le risque AGI avec la façon dont Anthropic et Openai le font. Il dit que Anthropic n'est pas aussi important sur "une formation, une surveillance et une sécurité robustes", tandis que OpenAI est en train de "automatiser" un type de recherche sur la sécurité de l'IA appelée recherche d'alignement. Le journal jette également une certaine teinte sur l'idée d'une IA superintelligente - IA qui est meilleure dans les emplois que n'importe quel humain. (Openai a récemment déclaré qu'ils se concentrent de l'AGI à la superintelligence.) Sans de nouvelles percées majeures, les auteurs de Deepmind n'achètent pas que les systèmes superintelligents arrivent de sitôt - ou peut-être jamais. Mais ils pensent qu'il est possible que nos méthodes actuelles puissent conduire à une «amélioration récursive de l'IA», où l'IA fait sa propre recherche sur l'IA pour faire des systèmes d'IA encore plus intelligents. Et cela, prévient-ils, pourrait être super dangereux. Dans l'ensemble, le document suggère que nous devons développer des moyens pour éloigner les mauvais acteurs d'AGI, mieux comprendre ce que font les systèmes d'IA et rendre les environnements où l'IA fonctionne plus sécurisée. Ils admettent que beaucoup de ces idées sont encore à leurs débuts et ont des «problèmes de recherche ouverts», mais ils nous exhortent à ne pas ignorer les problèmes de sécurité qui pourraient nous arriver. "AGI pourrait apporter des avantages incroyables ou des préjudices sérieux", soulignent les auteurs. "Donc, pour construire AGI de la bonne façon, il est crucial pour les meilleurs développeurs de l'IA de planifier à l'avance et de lutter contre ces grands risques." Mais tout le monde n'est pas à bord avec les idées du journal. Heidy Khlaaf, la scientifique en chef de l'IA de l'Institut à but non lucratif AI Now, a déclaré à TechCrunch qu'elle pensait qu'Agi était un concept trop flou pour être "rigoureusement évalué scientifiquement". Un autre chercheur de l'IA, Matthew Guzdial de l'Université de l'Alberta, a déclaré qu'il n'était pas convaincu que l'amélioration récursive de l'IA était réalisable pour le moment. "L'amélioration récursive est ce sur quoi les arguments de la singularité de l'intelligence sont basés", a déclaré Guzdial à TechCrunch, "mais nous n'avons jamais vu de preuve que cela fonctionne réellement." Sandra Wachter, qui étudie la technologie et la réglementation à Oxford, souligne une inquiétude plus urgente: l'IA se renforçant avec des "sorties inexactes". "Avec de plus en plus de contenu généré par l'IA en ligne et des données réelles sont remplacées, les modèles apprennent de leurs propres sorties qui sont pleines d'inexactitudes ou d'hallucinations", a-t-elle déclaré à TechCrunch. "Étant donné que les chatbots sont principalement utilisés pour rechercher et trouver la vérité, nous risquons toujours d'être nourris de fausses informations qui sont présentées de manière très convaincante." Aussi approfondi soit-il, le document de Deepmind ne metra probablement pas fin aux débats sur la probabilité que Agi est vraiment - et quels problèmes de sécurité de l'IA nécessitent le plus d'attention en ce moment.
Article connexe
OpenAI Strikes Back: Sues Elon Musk for Alleged Efforts to Undermine AI Competitor OpenAI Strikes Back: Sues Elon Musk for Alleged Efforts to Undermine AI Competitor OpenAI has launched a fierce legal counterattack against its co-founder, Elon Musk, and his competing AI company, xAI. In a dramatic escalation of their ongoing feud, OpenAI accuses Musk of waging a "relentless" and "malicious" campaign to undermine the company he helped start. According to court d
Law of Accelerating Returns Explained: Pathway to AGI Development Law of Accelerating Returns Explained: Pathway to AGI Development In a recent interview, Elon Musk shared his optimistic view on the timeline for the advent of Artificial General Intelligence (AGI), stating it could be as soon as *“3 to 6 years”*. Similarly, Demis Hassabis, CEO of Google's DeepMind, expressed at The Wall Street Journal’s Future of Everything Festi
Google Believes AI Can Simplify Electrical Grid's Bureaucracy Google Believes AI Can Simplify Electrical Grid's Bureaucracy The tech world is buzzing with concern over a potential power crisis, fueled by the skyrocketing demand from AI. Yet, amidst this worry, there's a glimmer of hope: a massive amount of new power capacity, measured in terawatts, is just waiting to be connected to the grid. The key? Cutting through the
commentaires (45)
0/200
DouglasHarris
DouglasHarris 10 avril 2025 08:10:06 UTC

DeepMind's 145-page paper on AGI safety? Honestly, it's a bit too much. I skimmed through it and still couldn't grasp the full picture. It's great they're trying, but it feels like they're just throwing jargon at skeptics. Maybe simplify it next time, guys!

WilliamYoung
WilliamYoung 10 avril 2025 08:10:06 UTC

ディープマインドのAGI安全に関する145ページの論文?正直、ちょっと多すぎます。ざっと読んだけど、全体像がつかめませんでした。試みは素晴らしいけど、懐疑派に専門用語を投げつけているように感じます。次はもっと簡単にしてほしいですね!

SamuelEvans
SamuelEvans 10 avril 2025 08:10:06 UTC

딥마인드의 AGI 안전에 관한 145페이지 논문? 솔직히 너무 많아요. 대충 훑어봤는데도 전체적인 그림을 잡을 수 없었어요. 시도는 훌륭하지만, 회의론자들에게 전문 용어를 던지는 것 같아요. 다음에는 좀 더 간단하게 해주세요!

NicholasThomas
NicholasThomas 10 avril 2025 08:10:06 UTC

O artigo de 145 páginas da DeepMind sobre segurança de AGI? Honestamente, é um pouco demais. Dei uma olhada rápida e ainda não consegui entender o quadro completo. É ótimo que estejam tentando, mas parece que estão jogando jargões nos céticos. Talvez simplifiquem da próxima vez, pessoal!

KennethJones
KennethJones 10 avril 2025 08:10:06 UTC

¿El artículo de 145 páginas de DeepMind sobre la seguridad de AGI? Honestamente, es un poco demasiado. Lo hojeé y aún no pude captar la imagen completa. Es genial que lo intenten, pero parece que solo están lanzando jerga a los escépticos. ¡Quizás lo simplifiquen la próxima vez, chicos!

JoseAdams
JoseAdams 10 avril 2025 11:27:37 UTC

DeepMind's AGI safety paper is super detailed, but it didn't convince everyone. I get the whole AGI thing, but it feels like they're still far from making it a reality. Maybe next time they'll have more solid proof!

Retour en haut
OR