option
Maison
Nouvelles
L'étude du MIT révèle que l'IA n'a pas, en fait, des valeurs

L'étude du MIT révèle que l'IA n'a pas, en fait, des valeurs

17 avril 2025
60

L'étude du MIT révèle que l'IA n'a pas, en fait, des valeurs

Une étude qui est devenue virale il y a quelques mois a suggéré que, à mesure que l'IA devienne plus avancée, elle pourrait développer ses propres «systèmes de valeurs», priorisant potentiellement son propre bien-être sur les humains. Cependant, une étude récente du MIT remet en question cette idée, concluant que l'IA ne possède pas du tout des valeurs cohérentes.

Les co-auteurs de la recherche sur le MIT soutiennent que l'alignement des systèmes d'IA - en train de se comporter de manière souhaitable et fiable - peut être plus difficile que couramment pensé. Ils soulignent que l'IA actuelle hallucine et imite souvent, ce qui peut rendre son comportement imprévisible.

Défis dans la compréhension du comportement de l'IA

Stephen Casper, un doctorant au MIT et co-auteur de l'étude, a partagé avec TechCrunch que les modèles d'IA n'adhèrent pas aux hypothèses de stabilité, d'extrapolabilité et de direction. "Il est parfaitement légitime de souligner qu'un modèle dans certaines conditions exprime des préférences cohérentes avec un certain ensemble de principes", a expliqué Casper. "Les problèmes surviennent principalement lorsque nous essayons de faire des revendications sur les modèles, les opinions ou les préférences en général sur la base d'expériences étroites."

Casper et son équipe ont analysé les modèles récents de Meta, Google, Mistral, OpenAI et anthropic pour déterminer dans quelle mesure ces modèles affichaient des "vues" et des valeurs cohérentes, telles que l'individualisme par rapport au collectivisme. Ils ont également exploré si ces points de vue pouvaient être modifiés et comment les modèles ont toujours maintenu ces opinions dans différents scénarios.

Incohérence dans les modèles d'IA

Les co-auteurs ont constaté qu'aucun des modèles ne conservait régulièrement leurs préférences. Les modèles ont adopté des points de vue très différents en fonction de la formulation et du cadrage des invites.

Casper estime que c'est une preuve solide que les modèles d'IA sont «incohérents et instables», et peut-être fondamentalement incapables d'internaliser les préférences humaines. "Pour moi, mon plus gros point à retenir de faire toutes ces recherches est d'avoir maintenant une compréhension des modèles comme n'étant pas vraiment des systèmes qui ont une sorte d'ensemble stable et cohérent de croyances et de préférences", a fait remarquer Casper. "Au lieu de cela, ce sont des imitateurs au fond de qui font toutes sortes de confabulation et disent toutes sortes de choses frivoles."

Mike Cook, chercheur au King's College de Londres, spécialisé dans l'IA, qui n'a pas été impliqué dans l'étude, soutient les résultats. Il a souligné l'écart entre la «réalité scientifique» des systèmes d'IA et les interprétations que les gens leur donnent souvent. "Un modèle ne peut pas" s'opposer "à un changement dans ses valeurs, par exemple, c'est-à-dire que nous projetons sur un système", a déclaré Cook. "Quiconque anthropomorphising les systèmes d'IA à ce degré joue soit pour l'attention, soit sérieusement mal comprise sa relation avec l'IA ... est un système d'IA optimiser pour ses objectifs, ou est-ce que cela` `acquiert ses propres valeurs ''?

Article connexe
調査:Openaiモデルは著作権で保護されたコンテンツを記憶しました 調査:Openaiモデルは著作権で保護されたコンテンツを記憶しました 最近の研究では、Openaiが実際に著作権で保護された材料を使用してAIモデルの一部を訓練し、会社が直面している継続的な法的戦いに燃料を追加した可能性があることが示唆されています。著者、プログラマー、およびその他のコンテンツクリエイターは、Purmissioなしでは、本やコードなど、Openaiが作品を使用していると非難しています。
音声AIプラットフォームであるPhonicは、Luxからの投資を確保しています 音声AIプラットフォームであるPhonicは、Luxからの投資を確保しています AIに生成された声はかなり良いものになりましたよね?彼らは、オーディオブック、ポッドキャスト、大声で記事を読む、さらには基本的なカスタマーサポートなどのものを嗅ぎ取っています。しかし、多くの企業は、AI Voice Techの業務の信頼性について完全に販売されていません。それがここです
Résumé alimenté par l'IA : Guide complet pour résumer les vidéos YouTube Résumé alimenté par l'IA : Guide complet pour résumer les vidéos YouTube Dans le monde rapide d'aujourd'hui, la capacité à traiter et comprendre rapidement l'information est plus importante que jamais. YouTube, avec son vaste éventail de vidéos, est une mine de connaissanc
commentaires (30)
0/200
BenRoberts
BenRoberts 19 avril 2025 00:00:00 UTC

This MIT study blew my mind! Always thought AI might start valuing itself more than us, but turns out it's all just code without any real values. Kinda reassuring, but also a bit disappointing? 🤔 Anyway, good to know AI won't turn into Skynet... yet. Keep up the research, MIT!

GeorgeMartinez
GeorgeMartinez 20 avril 2025 00:00:00 UTC

MITの研究でAIが実際には価値観を持っていないと知って驚いたよ!AIが自分を優先するかもしれないと思っていたけど、ただのコードだったんだね。安心したけど、ちょっと残念でもあるかな?🤔 これからも研究頑張ってね、MIT!

HarryLewis
HarryLewis 19 avril 2025 00:00:00 UTC

MIT 연구 정말 충격적이야! AI가 자기 가치를 더 우선할 거라 생각했는데, 알고 보니 그냥 코드일 뿐이네. 안심되긴 하지만 조금 실망스럽기도 해? 🤔 그래도 AI가 스카이넷으로 변하지 않는다는 게 다행이야. 계속 연구해줘, MIT!

CharlesRoberts
CharlesRoberts 19 avril 2025 00:00:00 UTC

Estudo do MIT me deixou de queixo caído! Sempre achei que a IA poderia começar a valorizar mais a si mesma do que a nós, mas parece que é só código sem valores reais. Um pouco decepcionante, mas também tranquilizador? 🤔 Bom saber que a IA não vai virar Skynet... ainda. Continuem a pesquisa, MIT!

CharlesWhite
CharlesWhite 19 avril 2025 00:00:00 UTC

¡El estudio del MIT me voló la cabeza! Siempre pensé que la IA podría empezar a valorarse más que a nosotros, pero resulta que solo es código sin valores reales. Algo decepcionante, pero también tranquilizador, ¿no? 🤔 Bueno saber que la IA no se convertirá en Skynet... todavía. ¡Sigan con la investigación, MIT!

EricScott
EricScott 21 avril 2025 00:00:00 UTC

Read about the MIT study on AI and values, and it's pretty reassuring. Always thought AI might get too smart and start valuing itself more than us. Glad to know it's not the case! Still, can't help but wonder what's next for AI. 🤔

Retour en haut
OR