Ex-Openai Policy Lead Slams Company pour modifier le récit de la sécurité de l'IA
10 avril 2025
BruceMitchell
23

Un ancien chercheur en politique OpenAI, Miles Brundage, s'est récemment rendu sur les réseaux sociaux pour appeler Openai pour ce qu'il considère comme une tentative de "réécrire l'histoire" de son approche pour déployer des systèmes d'IA potentiellement risqués. Cette semaine, OpenAI a publié un document détaillant sa position actuelle sur la sécurité et l'alignement de l'IA, le processus de garantie sur les systèmes d'IA agit de manière prévisible et bénéfique. Dans ce document, OpenAI a décrit le développement d'AGI ou des systèmes d'IA capables de toute tâche qu'un humain peut faire, comme un "chemin continu" qui implique "le déploiement et l'apprentissage itérativement" des technologies d'IA. "Dans un monde discontinu [...] Les leçons de sécurité proviennent du traitement des systèmes d'aujourd'hui avec une prudence démesurée par rapport à leur pouvoir apparent, [qui] est l'approche que nous avons adoptée pour [notre modèle d'IA] GPT-2", a déclaré Openai dans le document. "Nous considérons maintenant le premier AGI comme un seul point le long d'une série de systèmes d'utilité croissante [...] dans le monde continu, la façon de rendre le système suivant sûr et bénéfique est d'apprendre du système actuel." Cependant, Brundage fait valoir que l'approche prudente adoptée avec GPT-2 était entièrement conforme à la stratégie de déploiement itérative actuelle d'OpenAI. "La sortie d'Openai de GPT-2, dans laquelle j'étais impliqué, était à 100% cohérente [avec et] préfigurant la philosophie actuelle d'Openai de déploiement itérative", Brundage a publié sur X. "Le modèle a été publié progressivement, avec des leçons partagées à chaque étape. De nombreux experts en sécurité à l'époque nous ont remercié pour cette prudence." Brundage, qui a rejoint Openai en tant que chercheur en 2018 et est devenu plus tard le chef de la recherche politique de l'entreprise, a concentré le déploiement responsable de systèmes de génération de langues comme Chatgpt lors de l'équipe "AGI Readiness" d'OpenAI. GPT-2, annoncé par OpenAI en 2019, était un précurseur des systèmes d'IA derrière Chatgpt. Il pourrait répondre aux questions, résumer les articles et générer du texte qui était parfois indiscernable de l'écriture humaine. Bien que le GPT-2 puisse sembler basique maintenant, il était révolutionnaire à l'époque. En raison des préoccupations concernant une utilisation abusive potentielle, OpenAI a initialement retenu le code source du modèle, permettant plutôt que des médias sélectionnés un accès limité à une démo. La décision a reçu des commentaires mitigés de la communauté de l'IA. Certains ont fait valoir que les risques associés au GPT-2 étaient surestimés et qu'il n'y avait aucune preuve pour soutenir les préoccupations d'Openai concernant une mauvaise utilisation. La publication axée sur l'IA Le gradient a même publié une lettre ouverte exhortant Openai à publier le modèle, citant sa signification technologique. Openai a finalement publié une version partielle de GPT-2 six mois après son annonce, suivie du système complet plusieurs mois plus tard. Brundage pense que c'était la bonne approche. "Quelle partie de [la version du GPT-2] a été motivée ou fondée sur la pensée d'AGI comme discontinue? Rien de tout cela", a-t-il déclaré sur X. "Quelle est la preuve que cette prudence était" disproportionnée "ex ante? Ex post, il aurait probablement été correct, mais cela ne signifie pas qu'il était responsable de yolo it [sic] donné d'informations à l'époque." Brundage craint que le document d'Openai vise à établir une charge de preuve élevée, où les préoccupations sont rejetées comme alarmistes à moins qu'il y ait des preuves écrasantes de dangers imminents. Il trouve cet état d'esprit "très dangereux" pour les systèmes d'IA avancés. "Si je travaillais toujours à Openai, je demanderais pourquoi ce [document] a été écrit tel qu'il était, et ce que Openai espère exactement réaliser en faisant la prudence de la manière aussi lopieuse", a ajouté Brundage. Openai a fait face à des critiques dans le passé pour hiérarchiser les "produits brillants" sur la sécurité et les versions de précipitation aux concurrents. L'année dernière, la société a dissoute son équipe de préparation à l'AGI, et plusieurs chercheurs en matière de sécurité et politique de l'IA sont partis pour les entreprises rivales. Le paysage concurrentiel s'est intensifié, avec le modèle R1 du laboratoire AI chinois Deepseek, qui est ouvertement disponible et correspond au modèle "raisonnement" O1 d'Openai sur des références clés, attirant l'attention mondiale. Le PDG d'Openai, Sam Altman, a reconnu que Deepseek a réduit l'exemple technologique d'Openai, ce qui a incité Openai à envisager d'accélérer son calendrier de libération. Avec OpenAI perdant des milliards par an et projeter des pertes de triple pour atteindre 14 milliards de dollars d'ici 2026, un cycle de libération de produit plus rapide pourrait augmenter les bénéfices à court terme, mais potentiellement compromettre la sécurité à long terme. Des experts comme Brundage se demandent si ce compromis en vaut la peine.
Article connexe
Google搜索引入了复杂的多部分查询的“ AI模式”
Google推出了“ AI模式”,以搜索与竞争对手的困惑AI和ChatgptGoogle在AI Arena中加强游戏,并在其搜索引擎中启动了实验性的“ AI模式”功能。旨在进行困惑AI和Openai的Chatgpt搜索之类
YouTube Backs“ No Fakes Act”来对抗未经授权的AI复制品
参议员克里斯·库恩斯(Chris Coons)(D-de)和玛莎·布莱克本(R-TN)再次推动他们的养育原始作品,培养艺术,并保持娱乐安全,或者没有假货。该立法旨在制定有关创建AI生成的人脸,名称或声音的明确规定。介绍后
Microsoft终止将AI高管标记为“战争Profiteer”的员工
在该公司50周年纪念庆祝活动的中断之后,Microsoft在50周年纪念活动的中断后终止了雇员。根据The Verge收到的电子邮件,Microsoft引用了“不当行为”
commentaires (30)
0/200
RoySmith
12 avril 2025 20:02:03 UTC
OpenAI's attempt to rewrite history on AI safety is just shady. Miles Brundage spilling the tea on social media? Love it! But seriously, OpenAI needs to be more transparent about their safety measures. It's important, guys!
0
WillieHernández
11 avril 2025 19:32:08 UTC
OpenAIがAI安全性の歴史を書き換えようとするのは怪しいね。Miles Brundageがソーシャルメディアで暴露するなんて、最高!でも本当に、OpenAIは安全対策についてもっと透明性を持つべきだよ。重要なことなんだから!
0
LunaYoung
10 avril 2025 18:39:41 UTC
A tentativa da OpenAI de reescrever a história sobre segurança em IA é simplesmente suspeita. Miles Brundage revelando tudo nas redes sociais? Adoro! Mas sério, a OpenAI precisa ser mais transparente sobre suas medidas de segurança. É importante, pessoal!
0
WillMitchell
12 avril 2025 01:02:18 UTC
El intento de OpenAI de reescribir la historia sobre la seguridad en IA es simplemente sospechoso. ¿Miles Brundage revelando todo en las redes sociales? ¡Me encanta! Pero en serio, OpenAI necesita ser más transparente sobre sus medidas de seguridad. ¡Es importante, chicos!
0
AlbertGarcía
11 avril 2025 15:56:49 UTC
OpenAIs Versuch, die Geschichte der KI-Sicherheit umzuschreiben, ist einfach dubios. Miles Brundage, der das Ganze in den sozialen Medien aufdeckt? Liebe es! Aber im Ernst, OpenAI muss transparenter über ihre Sicherheitsmaßnahmen sein. Das ist wichtig, Leute!
0
CharlesWhite
12 avril 2025 14:56:18 UTC
I'm kinda torn on this one. On one hand, it's cool that someone's calling out OpenAI for changing their story on AI safety. On the other, it feels a bit like sour grapes from a former employee. Still, it's an interesting read! 🤔
0










OpenAI's attempt to rewrite history on AI safety is just shady. Miles Brundage spilling the tea on social media? Love it! But seriously, OpenAI needs to be more transparent about their safety measures. It's important, guys!




OpenAIがAI安全性の歴史を書き換えようとするのは怪しいね。Miles Brundageがソーシャルメディアで暴露するなんて、最高!でも本当に、OpenAIは安全対策についてもっと透明性を持つべきだよ。重要なことなんだから!




A tentativa da OpenAI de reescrever a história sobre segurança em IA é simplesmente suspeita. Miles Brundage revelando tudo nas redes sociais? Adoro! Mas sério, a OpenAI precisa ser mais transparente sobre suas medidas de segurança. É importante, pessoal!




El intento de OpenAI de reescribir la historia sobre la seguridad en IA es simplemente sospechoso. ¿Miles Brundage revelando todo en las redes sociales? ¡Me encanta! Pero en serio, OpenAI necesita ser más transparente sobre sus medidas de seguridad. ¡Es importante, chicos!




OpenAIs Versuch, die Geschichte der KI-Sicherheit umzuschreiben, ist einfach dubios. Miles Brundage, der das Ganze in den sozialen Medien aufdeckt? Liebe es! Aber im Ernst, OpenAI muss transparenter über ihre Sicherheitsmaßnahmen sein. Das ist wichtig, Leute!




I'm kinda torn on this one. On one hand, it's cool that someone's calling out OpenAI for changing their story on AI safety. On the other, it feels a bit like sour grapes from a former employee. Still, it's an interesting read! 🤔












