option
Maison
Nouvelles
L'étude du MIT révèle que l'IA n'a pas, en fait, des valeurs

L'étude du MIT révèle que l'IA n'a pas, en fait, des valeurs

17 avril 2025
120

L'étude du MIT révèle que l'IA n'a pas, en fait, des valeurs

Une étude qui a fait le buzz il y a quelques mois suggérait qu'à mesure que l'IA devient plus avancée, elle pourrait développer ses propres « systèmes de valeurs », pouvant potentiellement privilégier son propre bien-être au détriment des humains. Cependant, une récente étude du MIT conteste cette idée, concluant que l'IA ne possède en réalité aucune valeur cohérente.

Les co-auteurs de la recherche du MIT soutiennent que l'alignement des systèmes d'IA — s'assurer qu'ils se comportent de manière souhaitable et fiable — pourrait être plus complexe que ce que l'on pense généralement. Ils soulignent que l'IA actuelle hallucine et imite souvent, ce qui peut rendre son comportement imprévisible.

Défis dans la compréhension du comportement de l'IA

Stephen Casper, doctorant au MIT et co-auteur de l'étude, a partagé avec TechCrunch que les modèles d'IA ne respectent pas les hypothèses de stabilité, d'extrapolabilité et de dirigibilité. « Il est parfaitement légitime de souligner qu'un modèle, dans certaines conditions, exprime des préférences cohérentes avec un certain ensemble de principes », a expliqué Casper. « Les problèmes surviennent principalement lorsque nous essayons de faire des affirmations sur les modèles, leurs opinions ou leurs préférences en général, sur la base d'expériences limitées. »

Casper et son équipe ont analysé des modèles récents de Meta, Google, Mistral, OpenAI et Anthropic pour déterminer dans quelle mesure ces modèles affichaient des « points de vue » et des valeurs cohérents, tels que l'individualisme par rapport au collectivisme. Ils ont également exploré si ces points de vue pouvaient être modifiés et dans quelle mesure les modèles maintenaient ces opinions de manière constante dans différents scénarios.

Incohérence dans les modèles d'IA

Les co-auteurs ont constaté qu'aucun des modèles ne maintenait ses préférences de manière cohérente. Les modèles adoptaient des points de vue très différents selon la formulation et le cadrage des invites.

Casper estime que cela constitue une preuve solide que les modèles d'IA sont « incohérents et instables », et peut-être fondamentalement incapables d'internaliser des préférences semblables à celles des humains. « Pour moi, la principale leçon tirée de toutes ces recherches est de comprendre maintenant que les modèles ne sont pas vraiment des systèmes ayant un ensemble stable et cohérent de croyances et de préférences », a remarqué Casper. « Au contraire, ce sont des imitateurs au fond qui font toutes sortes de fabulations et disent toutes sortes de choses frivoles. »

Mike Cook, chercheur à King's College London spécialisé dans l'IA, qui n'a pas participé à l'étude, soutient les conclusions. Il a souligné l'écart entre la « réalité scientifique » des systèmes d'IA et les interprétations que les gens leur donnent souvent. « Un modèle ne peut pas 's'opposer' à un changement de ses valeurs, par exemple — c'est nous qui projetons sur un système », a déclaré Cook. « Quiconque anthropomorphise les systèmes d'IA à ce degré cherche soit à attirer l'attention, soit méprend gravement sa relation avec l'IA... Un système d'IA optimise-t-il ses objectifs, ou 'acquiert-il ses propres valeurs' ? C'est une question de comment vous le décrivez, et du langage fleuri que vous souhaitez utiliser à ce sujet. »

Article connexe
Laboratoires de Recherche Fondamentale Obtiennent 33M$ pour Avancer le Développement d'Agents IA Laboratoires de Recherche Fondamentale Obtiennent 33M$ pour Avancer le Développement d'Agents IA L'entreprise de recherche en IA, Fundamental Research Labs, anciennement Altera, a annoncé aujourd'hui une levée de fonds de série A de 33 millions de dollars, dirigée par Prosus et avec la participat
Centres de données IA pourraient coûter 200 milliards de dollars d'ici 2030, mettant sous pression les réseaux électriques Centres de données IA pourraient coûter 200 milliards de dollars d'ici 2030, mettant sous pression les réseaux électriques Les centres de données pour l'entraînement et l'exploitation de l'IA pourraient bientôt abriter des millions de puces, coûter des centaines de milliards et exiger une puissance équivalente à celle du
Étude révèle que des réponses concises d'IA peuvent augmenter les hallucinations Étude révèle que des réponses concises d'IA peuvent augmenter les hallucinations Demander aux chatbots d'IA de fournir des réponses brèves peut entraîner des hallucinations plus fréquentes, suggère une nouvelle étude.Une étude récente menée par Giskard, une entreprise d'évaluation
commentaires (33)
0/200
DennisAllen
DennisAllen 26 août 2025 23:01:20 UTC+02:00

This MIT study is wild! 🤯 I thought AI was about to start preaching its own philosophy, but turns out it's just a fancy tool with no moral compass. Kinda reassuring, but also makes me wonder how we keep it in check.

AnthonyMartinez
AnthonyMartinez 18 août 2025 19:00:59 UTC+02:00

Wild that people thought AI could just sprout its own values like some rogue philosopher. MIT's study makes sense—AI's just a tool, not a wannabe human with a moral compass. 🤖

TimothyMartínez
TimothyMartínez 22 juillet 2025 03:25:03 UTC+02:00

I was kinda freaked out by that earlier study saying AI might have its own values, so this MIT research is a relief! 😅 Still, makes me wonder if we’re just projecting our fears onto these systems.

BruceClark
BruceClark 25 avril 2025 12:05:15 UTC+02:00

MITのAI価値に関する研究は目から鱗でした!AIが独自の価値観を持つかもしれないと思っていましたが、今はそれがただの誇張だとわかりました。それでも、AIが一貫した価値観を持っていないと思うと少し不安になります。未来について考えさせられますね、🤔

ScottKing
ScottKing 23 avril 2025 20:31:27 UTC+02:00

MITの研究によると、AIが独自の価値観を持つことはないらしいですね。これは安心ですが、AIがどんな価値観を持つか見てみたかったです!🤖📚

RalphHill
RalphHill 22 avril 2025 08:29:50 UTC+02:00

O estudo do MIT me tranquilizou sobre a IA desenvolver seus próprios valores. É reconfortante saber que a IA não tem sua própria agenda, mas também é um pouco decepcionante porque seria legal ver que tipo de valores a IA poderia desenvolver! 🤖📚

Retour en haut
OR