option
Maison
Nouvelles
L'étude du MIT révèle que l'IA n'a pas, en fait, des valeurs

L'étude du MIT révèle que l'IA n'a pas, en fait, des valeurs

17 avril 2025
86

L'étude du MIT révèle que l'IA n'a pas, en fait, des valeurs

Une étude qui a fait le buzz il y a quelques mois suggérait qu'à mesure que l'IA devient plus avancée, elle pourrait développer ses propres « systèmes de valeurs », pouvant potentiellement privilégier son propre bien-être au détriment des humains. Cependant, une récente étude du MIT conteste cette idée, concluant que l'IA ne possède en réalité aucune valeur cohérente.

Les co-auteurs de la recherche du MIT soutiennent que l'alignement des systèmes d'IA — s'assurer qu'ils se comportent de manière souhaitable et fiable — pourrait être plus complexe que ce que l'on pense généralement. Ils soulignent que l'IA actuelle hallucine et imite souvent, ce qui peut rendre son comportement imprévisible.

Défis dans la compréhension du comportement de l'IA

Stephen Casper, doctorant au MIT et co-auteur de l'étude, a partagé avec TechCrunch que les modèles d'IA ne respectent pas les hypothèses de stabilité, d'extrapolabilité et de dirigibilité. « Il est parfaitement légitime de souligner qu'un modèle, dans certaines conditions, exprime des préférences cohérentes avec un certain ensemble de principes », a expliqué Casper. « Les problèmes surviennent principalement lorsque nous essayons de faire des affirmations sur les modèles, leurs opinions ou leurs préférences en général, sur la base d'expériences limitées. »

Casper et son équipe ont analysé des modèles récents de Meta, Google, Mistral, OpenAI et Anthropic pour déterminer dans quelle mesure ces modèles affichaient des « points de vue » et des valeurs cohérents, tels que l'individualisme par rapport au collectivisme. Ils ont également exploré si ces points de vue pouvaient être modifiés et dans quelle mesure les modèles maintenaient ces opinions de manière constante dans différents scénarios.

Incohérence dans les modèles d'IA

Les co-auteurs ont constaté qu'aucun des modèles ne maintenait ses préférences de manière cohérente. Les modèles adoptaient des points de vue très différents selon la formulation et le cadrage des invites.

Casper estime que cela constitue une preuve solide que les modèles d'IA sont « incohérents et instables », et peut-être fondamentalement incapables d'internaliser des préférences semblables à celles des humains. « Pour moi, la principale leçon tirée de toutes ces recherches est de comprendre maintenant que les modèles ne sont pas vraiment des systèmes ayant un ensemble stable et cohérent de croyances et de préférences », a remarqué Casper. « Au contraire, ce sont des imitateurs au fond qui font toutes sortes de fabulations et disent toutes sortes de choses frivoles. »

Mike Cook, chercheur à King's College London spécialisé dans l'IA, qui n'a pas participé à l'étude, soutient les conclusions. Il a souligné l'écart entre la « réalité scientifique » des systèmes d'IA et les interprétations que les gens leur donnent souvent. « Un modèle ne peut pas 's'opposer' à un changement de ses valeurs, par exemple — c'est nous qui projetons sur un système », a déclaré Cook. « Quiconque anthropomorphise les systèmes d'IA à ce degré cherche soit à attirer l'attention, soit méprend gravement sa relation avec l'IA... Un système d'IA optimise-t-il ses objectifs, ou 'acquiert-il ses propres valeurs' ? C'est une question de comment vous le décrivez, et du langage fleuri que vous souhaitez utiliser à ce sujet. »

Article connexe
Étude révèle que des réponses concises d'IA peuvent augmenter les hallucinations Étude révèle que des réponses concises d'IA peuvent augmenter les hallucinations Demander aux chatbots d'IA de fournir des réponses brèves peut entraîner des hallucinations plus fréquentes, suggère une nouvelle étude.Une étude récente menée par Giskard, une entreprise d'évaluation
Solutions alimentées par l'IA pourraient réduire significativement les émissions mondiales de carbone Solutions alimentées par l'IA pourraient réduire significativement les émissions mondiales de carbone Une étude récente de la London School of Economics et Systemiq révèle que l'intelligence artificielle pourrait considérablement réduire les émissions mondiales de carbone sans sacrifier les commodités
Étude: les modèles OpenAI ont mémorisé le contenu protégé par le droit d'auteur Étude: les modèles OpenAI ont mémorisé le contenu protégé par le droit d'auteur Une étude récente suggère qu'OpenAI a peut-être utilisé du matériel protégé par le droit d'auteur pour former certains de ses modèles d'IA, ajoutant du carburant aux batailles juridiques en cours auxquelles l'entreprise est confrontée. Les auteurs, programmeurs et autres créateurs de contenu ont accusé Openai d'utiliser leurs œuvres - comme des livres et du code - sans Permissio
commentaires (31)
0/200
TimothyMartínez
TimothyMartínez 22 juillet 2025 03:25:03 UTC+02:00

I was kinda freaked out by that earlier study saying AI might have its own values, so this MIT research is a relief! 😅 Still, makes me wonder if we’re just projecting our fears onto these systems.

BruceClark
BruceClark 25 avril 2025 12:05:15 UTC+02:00

MITのAI価値に関する研究は目から鱗でした!AIが独自の価値観を持つかもしれないと思っていましたが、今はそれがただの誇張だとわかりました。それでも、AIが一貫した価値観を持っていないと思うと少し不安になります。未来について考えさせられますね、🤔

ScottKing
ScottKing 23 avril 2025 20:31:27 UTC+02:00

MITの研究によると、AIが独自の価値観を持つことはないらしいですね。これは安心ですが、AIがどんな価値観を持つか見てみたかったです!🤖📚

RalphHill
RalphHill 22 avril 2025 08:29:50 UTC+02:00

O estudo do MIT me tranquilizou sobre a IA desenvolver seus próprios valores. É reconfortante saber que a IA não tem sua própria agenda, mas também é um pouco decepcionante porque seria legal ver que tipo de valores a IA poderia desenvolver! 🤖📚

WillMartinez
WillMartinez 21 avril 2025 23:17:27 UTC+02:00

This study blew my mind! I always thought AI could develop its own values, but it turns out they're just following their programming. Kinda scary but also reassuring. Maybe we should focus more on how we program them, huh? 🤔

EmmaJohnson
EmmaJohnson 21 avril 2025 12:09:34 UTC+02:00

この研究は私の考えを変えました!AIが独自の価値観を持つと思っていましたが、実際にはプログラムに従っているだけです。少し怖いけど安心もします。もっとプログラムの仕方に焦点を当てるべきかもしれませんね?🤔

Retour en haut
OR