option
Maison
Nouvelles
Le papier de sécurité AGI de DeepMind ne influence pas les sceptiques

Le papier de sécurité AGI de DeepMind ne influence pas les sceptiques

10 avril 2025
86

Le papier de sécurité AGI de DeepMind ne influence pas les sceptiques

Mercredi, Google Deepmind a laissé tomber un lourd papier de 145 pages plongeant profondément dans leur approche de la sécurité AGI. AGI, ou intelligence générale artificielle, est le type d'IA qui peut s'attaquer à n'importe quelle tâche qu'un humain peut, et c'est un sujet brûlant dans le monde de l'IA. Certaines personnes pensent que c'est juste un fantasme, tandis que d'autres, comme les gros coups d'Anthropic, croient que c'est juste dans le virage et pourrait causer de sérieux problèmes si nous n'obtenons pas nos mesures de sécurité. Le journal de Deepmind, écrit avec l'aide du co-fondateur Shane Legg, estime qu'Agi pourrait se présenter d'ici 2030 et pourrait conduire à ce qu'ils appellent "de graves préjudices". Ils ne l'expliquent pas exactement, mais ils jettent des phrases effrayantes comme des "risques existentiels" qui pourraient "détruire en permanence l'humanité". "Nous parions pour voir un AGI exceptionnel avant que cette décennie ne soit sortie", notent les auteurs. "Un AGI exceptionnel est un système qui peut correspondre aux compétences des 1% supérieurs des adultes sur un tas de tâches non physiques, y compris des trucs délicats comme apprendre de nouvelles compétences." Dès le début, le document compare la façon dont Deepmind de gérer le risque AGI avec la façon dont Anthropic et Openai le font. Il dit que Anthropic n'est pas aussi important sur "une formation, une surveillance et une sécurité robustes", tandis que OpenAI est en train de "automatiser" un type de recherche sur la sécurité de l'IA appelée recherche d'alignement. Le journal jette également une certaine teinte sur l'idée d'une IA superintelligente - IA qui est meilleure dans les emplois que n'importe quel humain. (Openai a récemment déclaré qu'ils se concentrent de l'AGI à la superintelligence.) Sans de nouvelles percées majeures, les auteurs de Deepmind n'achètent pas que les systèmes superintelligents arrivent de sitôt - ou peut-être jamais. Mais ils pensent qu'il est possible que nos méthodes actuelles puissent conduire à une «amélioration récursive de l'IA», où l'IA fait sa propre recherche sur l'IA pour faire des systèmes d'IA encore plus intelligents. Et cela, prévient-ils, pourrait être super dangereux. Dans l'ensemble, le document suggère que nous devons développer des moyens pour éloigner les mauvais acteurs d'AGI, mieux comprendre ce que font les systèmes d'IA et rendre les environnements où l'IA fonctionne plus sécurisée. Ils admettent que beaucoup de ces idées sont encore à leurs débuts et ont des «problèmes de recherche ouverts», mais ils nous exhortent à ne pas ignorer les problèmes de sécurité qui pourraient nous arriver. "AGI pourrait apporter des avantages incroyables ou des préjudices sérieux", soulignent les auteurs. "Donc, pour construire AGI de la bonne façon, il est crucial pour les meilleurs développeurs de l'IA de planifier à l'avance et de lutter contre ces grands risques." Mais tout le monde n'est pas à bord avec les idées du journal. Heidy Khlaaf, la scientifique en chef de l'IA de l'Institut à but non lucratif AI Now, a déclaré à TechCrunch qu'elle pensait qu'Agi était un concept trop flou pour être "rigoureusement évalué scientifiquement". Un autre chercheur de l'IA, Matthew Guzdial de l'Université de l'Alberta, a déclaré qu'il n'était pas convaincu que l'amélioration récursive de l'IA était réalisable pour le moment. "L'amélioration récursive est ce sur quoi les arguments de la singularité de l'intelligence sont basés", a déclaré Guzdial à TechCrunch, "mais nous n'avons jamais vu de preuve que cela fonctionne réellement." Sandra Wachter, qui étudie la technologie et la réglementation à Oxford, souligne une inquiétude plus urgente: l'IA se renforçant avec des "sorties inexactes". "Avec de plus en plus de contenu généré par l'IA en ligne et des données réelles sont remplacées, les modèles apprennent de leurs propres sorties qui sont pleines d'inexactitudes ou d'hallucinations", a-t-elle déclaré à TechCrunch. "Étant donné que les chatbots sont principalement utilisés pour rechercher et trouver la vérité, nous risquons toujours d'être nourris de fausses informations qui sont présentées de manière très convaincante." Aussi approfondi soit-il, le document de Deepmind ne metra probablement pas fin aux débats sur la probabilité que Agi est vraiment - et quels problèmes de sécurité de l'IA nécessitent le plus d'attention en ce moment.
Article connexe
AI領導者討論AGI:基於現實 AI領導者討論AGI:基於現實 在最近一次與舊金山商業領袖的晚餐上,我提出了一個似乎讓現場冷場的問題:今天的人工智能是否能達到或超越人類的智能?這是一個比你預期的更能引發爭議的話題。到了2025年,科技CEO們對像ChatGPT和Gemini背後的大型語言模型(LLM)充滿了樂觀情緒。他們相信這些模型很快就能達到人類級別甚至超人類的智能。以Anthropic的Dario Amodei為例,
Openai反擊:起訴Elon Musk涉嫌努力破壞AI競爭對手 Openai反擊:起訴Elon Musk涉嫌努力破壞AI競爭對手 Openai對其聯合創始人Elon Musk及其競爭的AI公司Xai發起了激烈的法律反擊。在他們正在進行的爭執的戲劇性升級中,Openai指責馬斯克發動了一場“無情”和“惡意”運動,破壞了他幫助創辦的公司。根據法院D
加速回報定律解釋了:AGI開發途徑 加速回報定律解釋了:AGI開發途徑 在最近的一次採訪中,埃隆·馬斯克(Elon Musk)分享了他對人工通用情報(AGI)的時間表的樂觀觀點(AGI),並指出它可能是 *“ 3至6年” *。同樣,Google DeepMind的首席執行官Demis Hassabis在《華爾街日報》的《一切事物》上表達了
commentaires (45)
0/200
DouglasHarris
DouglasHarris 10 avril 2025 00:00:00 UTC

DeepMind's 145-page paper on AGI safety? Honestly, it's a bit too much. I skimmed through it and still couldn't grasp the full picture. It's great they're trying, but it feels like they're just throwing jargon at skeptics. Maybe simplify it next time, guys!

WilliamYoung
WilliamYoung 10 avril 2025 00:00:00 UTC

ディープマインドのAGI安全に関する145ページの論文?正直、ちょっと多すぎます。ざっと読んだけど、全体像がつかめませんでした。試みは素晴らしいけど、懐疑派に専門用語を投げつけているように感じます。次はもっと簡単にしてほしいですね!

SamuelEvans
SamuelEvans 10 avril 2025 00:00:00 UTC

딥마인드의 AGI 안전에 관한 145페이지 논문? 솔직히 너무 많아요. 대충 훑어봤는데도 전체적인 그림을 잡을 수 없었어요. 시도는 훌륭하지만, 회의론자들에게 전문 용어를 던지는 것 같아요. 다음에는 좀 더 간단하게 해주세요!

NicholasThomas
NicholasThomas 10 avril 2025 00:00:00 UTC

O artigo de 145 páginas da DeepMind sobre segurança de AGI? Honestamente, é um pouco demais. Dei uma olhada rápida e ainda não consegui entender o quadro completo. É ótimo que estejam tentando, mas parece que estão jogando jargões nos céticos. Talvez simplifiquem da próxima vez, pessoal!

KennethJones
KennethJones 10 avril 2025 00:00:00 UTC

¿El artículo de 145 páginas de DeepMind sobre la seguridad de AGI? Honestamente, es un poco demasiado. Lo hojeé y aún no pude captar la imagen completa. Es genial que lo intenten, pero parece que solo están lanzando jerga a los escépticos. ¡Quizás lo simplifiquen la próxima vez, chicos!

JoseAdams
JoseAdams 10 avril 2025 00:00:00 UTC

DeepMind's AGI safety paper is super detailed, but it didn't convince everyone. I get the whole AGI thing, but it feels like they're still far from making it a reality. Maybe next time they'll have more solid proof!

Retour en haut
OR