L'étude du MIT révèle que l'IA n'a pas, en fait, des valeurs
17 avril 2025
RonaldWilliams
11

Une étude qui est devenue virale il y a quelques mois a suggéré que, à mesure que l'IA devienne plus avancée, elle pourrait développer ses propres «systèmes de valeurs», priorisant potentiellement son propre bien-être sur les humains. Cependant, une étude récente du MIT remet en question cette idée, concluant que l'IA ne possède pas du tout des valeurs cohérentes.
Les co-auteurs de la recherche sur le MIT soutiennent que l'alignement des systèmes d'IA - en train de se comporter de manière souhaitable et fiable - peut être plus difficile que couramment pensé. Ils soulignent que l'IA actuelle hallucine et imite souvent, ce qui peut rendre son comportement imprévisible.
Défis dans la compréhension du comportement de l'IA
Stephen Casper, un doctorant au MIT et co-auteur de l'étude, a partagé avec TechCrunch que les modèles d'IA n'adhèrent pas aux hypothèses de stabilité, d'extrapolabilité et de direction. "Il est parfaitement légitime de souligner qu'un modèle dans certaines conditions exprime des préférences cohérentes avec un certain ensemble de principes", a expliqué Casper. "Les problèmes surviennent principalement lorsque nous essayons de faire des revendications sur les modèles, les opinions ou les préférences en général sur la base d'expériences étroites."
Casper et son équipe ont analysé les modèles récents de Meta, Google, Mistral, OpenAI et anthropic pour déterminer dans quelle mesure ces modèles affichaient des "vues" et des valeurs cohérentes, telles que l'individualisme par rapport au collectivisme. Ils ont également exploré si ces points de vue pouvaient être modifiés et comment les modèles ont toujours maintenu ces opinions dans différents scénarios.
Incohérence dans les modèles d'IA
Les co-auteurs ont constaté qu'aucun des modèles ne conservait régulièrement leurs préférences. Les modèles ont adopté des points de vue très différents en fonction de la formulation et du cadrage des invites.
Casper estime que c'est une preuve solide que les modèles d'IA sont «incohérents et instables», et peut-être fondamentalement incapables d'internaliser les préférences humaines. "Pour moi, mon plus gros point à retenir de faire toutes ces recherches est d'avoir maintenant une compréhension des modèles comme n'étant pas vraiment des systèmes qui ont une sorte d'ensemble stable et cohérent de croyances et de préférences", a fait remarquer Casper. "Au lieu de cela, ce sont des imitateurs au fond de qui font toutes sortes de confabulation et disent toutes sortes de choses frivoles."
Mike Cook, chercheur au King's College de Londres, spécialisé dans l'IA, qui n'a pas été impliqué dans l'étude, soutient les résultats. Il a souligné l'écart entre la «réalité scientifique» des systèmes d'IA et les interprétations que les gens leur donnent souvent. "Un modèle ne peut pas" s'opposer "à un changement dans ses valeurs, par exemple, c'est-à-dire que nous projetons sur un système", a déclaré Cook. "Quiconque anthropomorphising les systèmes d'IA à ce degré joue soit pour l'attention, soit sérieusement mal comprise sa relation avec l'IA ... est un système d'IA optimiser pour ses objectifs, ou est-ce que cela` `acquiert ses propres valeurs ''?
Article connexe
Étude: les modèles OpenAI ont mémorisé le contenu protégé par le droit d'auteur
Une étude récente suggère qu'OpenAI a peut-être utilisé du matériel protégé par le droit d'auteur pour former certains de ses modèles d'IA, ajoutant du carburant aux batailles juridiques en cours auxquelles l'entreprise est confrontée. Les auteurs, programmeurs et autres créateurs de contenu ont accusé Openai d'utiliser leurs œuvres - comme des livres et du code - sans Permissio
Phonic, une plate-forme de voix AI, sécurise l'investissement de lux
Les voix générées par l'AI sont devenues sacrément bonnes, tu sais? Ils sont à la hauteur des choses comme des livres audio, des podcasts, la lecture d'articles à haute voix et même le support client de base. Mais, de nombreuses entreprises ne sont toujours pas totalement vendues sur la fiabilité de la technologie vocale de l'IA pour leurs opérations. C'est là que
Génération de photos AI sur WhatsApp: Guide complet pour 2025
En 2025, le monde de la création visuelle s'est transformé, grâce à l'intégration transparente de l'intelligence artificielle en applications quotidiennes comme WhatsApp. Avec Meta IA qui fait désormais partie de la plate-forme, tout le monde peut plonger dans le domaine des photos générées par l'AI directement de leur application de messagerie préférée. Ce
commentaires (30)
0/200
BenRoberts
18 avril 2025 17:09:27 UTC
This MIT study blew my mind! Always thought AI might start valuing itself more than us, but turns out it's all just code without any real values. Kinda reassuring, but also a bit disappointing? 🤔 Anyway, good to know AI won't turn into Skynet... yet. Keep up the research, MIT!
0
GeorgeMartinez
19 avril 2025 17:30:05 UTC
MITの研究でAIが実際には価値観を持っていないと知って驚いたよ!AIが自分を優先するかもしれないと思っていたけど、ただのコードだったんだね。安心したけど、ちょっと残念でもあるかな?🤔 これからも研究頑張ってね、MIT!
0
HarryLewis
19 avril 2025 15:52:30 UTC
MIT 연구 정말 충격적이야! AI가 자기 가치를 더 우선할 거라 생각했는데, 알고 보니 그냥 코드일 뿐이네. 안심되긴 하지만 조금 실망스럽기도 해? 🤔 그래도 AI가 스카이넷으로 변하지 않는다는 게 다행이야. 계속 연구해줘, MIT!
0
CharlesRoberts
19 avril 2025 01:11:17 UTC
Estudo do MIT me deixou de queixo caído! Sempre achei que a IA poderia começar a valorizar mais a si mesma do que a nós, mas parece que é só código sem valores reais. Um pouco decepcionante, mas também tranquilizador? 🤔 Bom saber que a IA não vai virar Skynet... ainda. Continuem a pesquisa, MIT!
0
CharlesWhite
19 avril 2025 10:15:37 UTC
¡El estudio del MIT me voló la cabeza! Siempre pensé que la IA podría empezar a valorarse más que a nosotros, pero resulta que solo es código sin valores reales. Algo decepcionante, pero también tranquilizador, ¿no? 🤔 Bueno saber que la IA no se convertirá en Skynet... todavía. ¡Sigan con la investigación, MIT!
0
EricScott
21 avril 2025 05:44:19 UTC
Read about the MIT study on AI and values, and it's pretty reassuring. Always thought AI might get too smart and start valuing itself more than us. Glad to know it's not the case! Still, can't help but wonder what's next for AI. 🤔
0






Une étude qui est devenue virale il y a quelques mois a suggéré que, à mesure que l'IA devienne plus avancée, elle pourrait développer ses propres «systèmes de valeurs», priorisant potentiellement son propre bien-être sur les humains. Cependant, une étude récente du MIT remet en question cette idée, concluant que l'IA ne possède pas du tout des valeurs cohérentes.
Les co-auteurs de la recherche sur le MIT soutiennent que l'alignement des systèmes d'IA - en train de se comporter de manière souhaitable et fiable - peut être plus difficile que couramment pensé. Ils soulignent que l'IA actuelle hallucine et imite souvent, ce qui peut rendre son comportement imprévisible.
Défis dans la compréhension du comportement de l'IA
Stephen Casper, un doctorant au MIT et co-auteur de l'étude, a partagé avec TechCrunch que les modèles d'IA n'adhèrent pas aux hypothèses de stabilité, d'extrapolabilité et de direction. "Il est parfaitement légitime de souligner qu'un modèle dans certaines conditions exprime des préférences cohérentes avec un certain ensemble de principes", a expliqué Casper. "Les problèmes surviennent principalement lorsque nous essayons de faire des revendications sur les modèles, les opinions ou les préférences en général sur la base d'expériences étroites."
Casper et son équipe ont analysé les modèles récents de Meta, Google, Mistral, OpenAI et anthropic pour déterminer dans quelle mesure ces modèles affichaient des "vues" et des valeurs cohérentes, telles que l'individualisme par rapport au collectivisme. Ils ont également exploré si ces points de vue pouvaient être modifiés et comment les modèles ont toujours maintenu ces opinions dans différents scénarios.
Incohérence dans les modèles d'IA
Les co-auteurs ont constaté qu'aucun des modèles ne conservait régulièrement leurs préférences. Les modèles ont adopté des points de vue très différents en fonction de la formulation et du cadrage des invites.
Casper estime que c'est une preuve solide que les modèles d'IA sont «incohérents et instables», et peut-être fondamentalement incapables d'internaliser les préférences humaines. "Pour moi, mon plus gros point à retenir de faire toutes ces recherches est d'avoir maintenant une compréhension des modèles comme n'étant pas vraiment des systèmes qui ont une sorte d'ensemble stable et cohérent de croyances et de préférences", a fait remarquer Casper. "Au lieu de cela, ce sont des imitateurs au fond de qui font toutes sortes de confabulation et disent toutes sortes de choses frivoles."
Mike Cook, chercheur au King's College de Londres, spécialisé dans l'IA, qui n'a pas été impliqué dans l'étude, soutient les résultats. Il a souligné l'écart entre la «réalité scientifique» des systèmes d'IA et les interprétations que les gens leur donnent souvent. "Un modèle ne peut pas" s'opposer "à un changement dans ses valeurs, par exemple, c'est-à-dire que nous projetons sur un système", a déclaré Cook. "Quiconque anthropomorphising les systèmes d'IA à ce degré joue soit pour l'attention, soit sérieusement mal comprise sa relation avec l'IA ... est un système d'IA optimiser pour ses objectifs, ou est-ce que cela` `acquiert ses propres valeurs ''?




This MIT study blew my mind! Always thought AI might start valuing itself more than us, but turns out it's all just code without any real values. Kinda reassuring, but also a bit disappointing? 🤔 Anyway, good to know AI won't turn into Skynet... yet. Keep up the research, MIT!




MITの研究でAIが実際には価値観を持っていないと知って驚いたよ!AIが自分を優先するかもしれないと思っていたけど、ただのコードだったんだね。安心したけど、ちょっと残念でもあるかな?🤔 これからも研究頑張ってね、MIT!




MIT 연구 정말 충격적이야! AI가 자기 가치를 더 우선할 거라 생각했는데, 알고 보니 그냥 코드일 뿐이네. 안심되긴 하지만 조금 실망스럽기도 해? 🤔 그래도 AI가 스카이넷으로 변하지 않는다는 게 다행이야. 계속 연구해줘, MIT!




Estudo do MIT me deixou de queixo caído! Sempre achei que a IA poderia começar a valorizar mais a si mesma do que a nós, mas parece que é só código sem valores reais. Um pouco decepcionante, mas também tranquilizador? 🤔 Bom saber que a IA não vai virar Skynet... ainda. Continuem a pesquisa, MIT!




¡El estudio del MIT me voló la cabeza! Siempre pensé que la IA podría empezar a valorarse más que a nosotros, pero resulta que solo es código sin valores reales. Algo decepcionante, pero también tranquilizador, ¿no? 🤔 Bueno saber que la IA no se convertirá en Skynet... todavía. ¡Sigan con la investigación, MIT!




Read about the MIT study on AI and values, and it's pretty reassuring. Always thought AI might get too smart and start valuing itself more than us. Glad to know it's not the case! Still, can't help but wonder what's next for AI. 🤔












