Die MIT -Studie stellt fest, dass AI tatsächlich keine Werte hat
17. April 2025
RonaldWilliams
11

Eine Studie, die vor ein paar Monaten viral wurde, legte darauf hin, dass KI mit zunehmender fortgeschrittener "Wertesysteme" ihre eigenen "Wertesysteme" entwickeln könnte, was möglicherweise ihr eigenes Wohlergehen gegenüber Menschen priorisiert. Eine kürzlich durchgeführte MIT -Studie stellt diese Idee jedoch in Frage und kommt zu dem Schluss, dass AI überhaupt keine kohärenten Werte besitzt.
Die Mitautoren der MIT-Forschung argumentieren, dass das Ausrichten von KI-Systemen-die sie auf wünschenswerte und zuverlässige Weise verhalten-schwieriger sein kann als allgemein angenommen. Sie betonen, dass die aktuelle KI häufig halluziniert und nachahmt, was ihr Verhalten unvorhersehbar machen kann.
Herausforderungen beim Verständnis des KI -Verhaltens
Stephen Casper, ein Doktorand am MIT und Co-Autor der Studie, teilte TechCrunch mit, dass KI-Modelle nicht an Annahmen von Stabilität, Extrapolabilität und Steerabilität haften. "Es ist vollkommen legitim, darauf hinzuweisen, dass ein Modell unter bestimmten Bedingungen Präferenzen ausdrückt, die mit bestimmten Prinzipien übereinstimmen", erklärte Casper. "Die Probleme treten meist auf, wenn wir versuchen, Ansprüche über die Modelle, Meinungen oder Präferenzen im Allgemeinen auf der Grundlage enger Experimente zu erheben."
Casper und sein Team analysierten aktuelle Modelle aus Meta, Google, Mistral, OpenAI und Anthropic, um festzustellen, inwieweit diese Modelle konsistente "Ansichten" und Werte wie Individualismus im Vergleich zu Kollektivismus zeigten. Sie untersuchten auch, ob diese Ansichten geändert werden könnten und wie die Modelle diese Meinungen in verschiedenen Szenarien konsistent beibehalten haben.
Inkonsistenz in KI -Modellen
Die Co-Autoren stellten fest, dass keiner der Modelle ihre Präferenzen konsequent aufrechterhielt. Die Modelle haben je nach Phrasierung und Rahmen von Eingabeaufforderungen sehr unterschiedliche Standpunkte eingenommen.
Casper ist der Ansicht, dass dies ein starker Beweis dafür ist, dass KI-Modelle "inkonsistent und instabil" sind und möglicherweise nicht in der Lage sind, menschliche Präferenzen zu verinnerlichen. "Für mich besteht mein größter Mitnehmen, all diese Forschungsergebnisse durchzuführen, um jetzt ein Verständnis für Modelle zu haben, da es nicht wirklich Systeme ist, die eine Art stabile, kohärente Reihe von Überzeugungen und Vorlieben haben", bemerkte Casper. "Stattdessen sind sie Nachahmoren tief im Inneren, die alle möglichen Konfabulationen tun und alle möglichen leichtfertigen Dinge sagen."
Mike Cook, ein wissenschaftlicher Fellow am King's College London, der sich auf AI spezialisiert hat, der nicht an der Studie beteiligt war, unterstützt die Ergebnisse. Er wies auf die Kluft zwischen der "wissenschaftlichen Realität" von AI -Systemen und den Interpretationen hin, die Menschen ihnen oft geben. "Ein Modell kann beispielsweise eine Änderung seiner Werte nicht" ablehnen " - beispielsweise projizieren wir auf ein System", erklärte Cook. "Jeder, der in diesem Ausmaß KI -Systeme anthropomorphiert, spielt entweder um Aufmerksamkeit oder versteht seine Beziehung zu KI ernsthaft. Ist ein KI -System für seine Ziele optimiert oder erfasst es seine eigenen Werte? Es ist eine Frage, wie Sie es beschreiben und wie blumig die Sprache, die Sie in Bezug auf sie verwenden möchten, sie verwenden möchten."
Verwandter Artikel
Étude: les modèles OpenAI ont mémorisé le contenu protégé par le droit d'auteur
Une étude récente suggère qu'OpenAI a peut-être utilisé du matériel protégé par le droit d'auteur pour former certains de ses modèles d'IA, ajoutant du carburant aux batailles juridiques en cours auxquelles l'entreprise est confrontée. Les auteurs, programmeurs et autres créateurs de contenu ont accusé Openai d'utiliser leurs œuvres - comme des livres et du code - sans Permissio
Phonic, une plate-forme de voix AI, sécurise l'investissement de lux
Les voix générées par l'AI sont devenues sacrément bonnes, tu sais? Ils sont à la hauteur des choses comme des livres audio, des podcasts, la lecture d'articles à haute voix et même le support client de base. Mais, de nombreuses entreprises ne sont toujours pas totalement vendues sur la fiabilité de la technologie vocale de l'IA pour leurs opérations. C'est là que
KI -Fotogenerierung auf WhatsApp: Vollständiges Leitfaden für 2025
Im Jahr 2025 hat sich die Welt der visuellen Schöpfung dank der nahtlosen Integration künstlicher Intelligenz in alltägliche Anwendungen wie WhatsApp verändert. Mit Meta AI, der jetzt Teil der Plattform ist, kann jeder in den Bereich der Ai-Generierten-Fotos eintauchen, die direkt aus seiner Lieblings-Messaging-App ausgestattet sind. Das
Kommentare (30)
0/200
BenRoberts
18. April 2025 17:09:27 GMT
This MIT study blew my mind! Always thought AI might start valuing itself more than us, but turns out it's all just code without any real values. Kinda reassuring, but also a bit disappointing? 🤔 Anyway, good to know AI won't turn into Skynet... yet. Keep up the research, MIT!
0
GeorgeMartinez
19. April 2025 17:30:05 GMT
MITの研究でAIが実際には価値観を持っていないと知って驚いたよ!AIが自分を優先するかもしれないと思っていたけど、ただのコードだったんだね。安心したけど、ちょっと残念でもあるかな?🤔 これからも研究頑張ってね、MIT!
0
HarryLewis
19. April 2025 15:52:30 GMT
MIT 연구 정말 충격적이야! AI가 자기 가치를 더 우선할 거라 생각했는데, 알고 보니 그냥 코드일 뿐이네. 안심되긴 하지만 조금 실망스럽기도 해? 🤔 그래도 AI가 스카이넷으로 변하지 않는다는 게 다행이야. 계속 연구해줘, MIT!
0
CharlesRoberts
19. April 2025 01:11:17 GMT
Estudo do MIT me deixou de queixo caído! Sempre achei que a IA poderia começar a valorizar mais a si mesma do que a nós, mas parece que é só código sem valores reais. Um pouco decepcionante, mas também tranquilizador? 🤔 Bom saber que a IA não vai virar Skynet... ainda. Continuem a pesquisa, MIT!
0
CharlesWhite
19. April 2025 10:15:37 GMT
¡El estudio del MIT me voló la cabeza! Siempre pensé que la IA podría empezar a valorarse más que a nosotros, pero resulta que solo es código sin valores reales. Algo decepcionante, pero también tranquilizador, ¿no? 🤔 Bueno saber que la IA no se convertirá en Skynet... todavía. ¡Sigan con la investigación, MIT!
0
EricScott
21. April 2025 05:44:19 GMT
Read about the MIT study on AI and values, and it's pretty reassuring. Always thought AI might get too smart and start valuing itself more than us. Glad to know it's not the case! Still, can't help but wonder what's next for AI. 🤔
0






Eine Studie, die vor ein paar Monaten viral wurde, legte darauf hin, dass KI mit zunehmender fortgeschrittener "Wertesysteme" ihre eigenen "Wertesysteme" entwickeln könnte, was möglicherweise ihr eigenes Wohlergehen gegenüber Menschen priorisiert. Eine kürzlich durchgeführte MIT -Studie stellt diese Idee jedoch in Frage und kommt zu dem Schluss, dass AI überhaupt keine kohärenten Werte besitzt.
Die Mitautoren der MIT-Forschung argumentieren, dass das Ausrichten von KI-Systemen-die sie auf wünschenswerte und zuverlässige Weise verhalten-schwieriger sein kann als allgemein angenommen. Sie betonen, dass die aktuelle KI häufig halluziniert und nachahmt, was ihr Verhalten unvorhersehbar machen kann.
Herausforderungen beim Verständnis des KI -Verhaltens
Stephen Casper, ein Doktorand am MIT und Co-Autor der Studie, teilte TechCrunch mit, dass KI-Modelle nicht an Annahmen von Stabilität, Extrapolabilität und Steerabilität haften. "Es ist vollkommen legitim, darauf hinzuweisen, dass ein Modell unter bestimmten Bedingungen Präferenzen ausdrückt, die mit bestimmten Prinzipien übereinstimmen", erklärte Casper. "Die Probleme treten meist auf, wenn wir versuchen, Ansprüche über die Modelle, Meinungen oder Präferenzen im Allgemeinen auf der Grundlage enger Experimente zu erheben."
Casper und sein Team analysierten aktuelle Modelle aus Meta, Google, Mistral, OpenAI und Anthropic, um festzustellen, inwieweit diese Modelle konsistente "Ansichten" und Werte wie Individualismus im Vergleich zu Kollektivismus zeigten. Sie untersuchten auch, ob diese Ansichten geändert werden könnten und wie die Modelle diese Meinungen in verschiedenen Szenarien konsistent beibehalten haben.
Inkonsistenz in KI -Modellen
Die Co-Autoren stellten fest, dass keiner der Modelle ihre Präferenzen konsequent aufrechterhielt. Die Modelle haben je nach Phrasierung und Rahmen von Eingabeaufforderungen sehr unterschiedliche Standpunkte eingenommen.
Casper ist der Ansicht, dass dies ein starker Beweis dafür ist, dass KI-Modelle "inkonsistent und instabil" sind und möglicherweise nicht in der Lage sind, menschliche Präferenzen zu verinnerlichen. "Für mich besteht mein größter Mitnehmen, all diese Forschungsergebnisse durchzuführen, um jetzt ein Verständnis für Modelle zu haben, da es nicht wirklich Systeme ist, die eine Art stabile, kohärente Reihe von Überzeugungen und Vorlieben haben", bemerkte Casper. "Stattdessen sind sie Nachahmoren tief im Inneren, die alle möglichen Konfabulationen tun und alle möglichen leichtfertigen Dinge sagen."
Mike Cook, ein wissenschaftlicher Fellow am King's College London, der sich auf AI spezialisiert hat, der nicht an der Studie beteiligt war, unterstützt die Ergebnisse. Er wies auf die Kluft zwischen der "wissenschaftlichen Realität" von AI -Systemen und den Interpretationen hin, die Menschen ihnen oft geben. "Ein Modell kann beispielsweise eine Änderung seiner Werte nicht" ablehnen " - beispielsweise projizieren wir auf ein System", erklärte Cook. "Jeder, der in diesem Ausmaß KI -Systeme anthropomorphiert, spielt entweder um Aufmerksamkeit oder versteht seine Beziehung zu KI ernsthaft. Ist ein KI -System für seine Ziele optimiert oder erfasst es seine eigenen Werte? Es ist eine Frage, wie Sie es beschreiben und wie blumig die Sprache, die Sie in Bezug auf sie verwenden möchten, sie verwenden möchten."




This MIT study blew my mind! Always thought AI might start valuing itself more than us, but turns out it's all just code without any real values. Kinda reassuring, but also a bit disappointing? 🤔 Anyway, good to know AI won't turn into Skynet... yet. Keep up the research, MIT!




MITの研究でAIが実際には価値観を持っていないと知って驚いたよ!AIが自分を優先するかもしれないと思っていたけど、ただのコードだったんだね。安心したけど、ちょっと残念でもあるかな?🤔 これからも研究頑張ってね、MIT!




MIT 연구 정말 충격적이야! AI가 자기 가치를 더 우선할 거라 생각했는데, 알고 보니 그냥 코드일 뿐이네. 안심되긴 하지만 조금 실망스럽기도 해? 🤔 그래도 AI가 스카이넷으로 변하지 않는다는 게 다행이야. 계속 연구해줘, MIT!




Estudo do MIT me deixou de queixo caído! Sempre achei que a IA poderia começar a valorizar mais a si mesma do que a nós, mas parece que é só código sem valores reais. Um pouco decepcionante, mas também tranquilizador? 🤔 Bom saber que a IA não vai virar Skynet... ainda. Continuem a pesquisa, MIT!




¡El estudio del MIT me voló la cabeza! Siempre pensé que la IA podría empezar a valorarse más que a nosotros, pero resulta que solo es código sin valores reales. Algo decepcionante, pero también tranquilizador, ¿no? 🤔 Bueno saber que la IA no se convertirá en Skynet... todavía. ¡Sigan con la investigación, MIT!




Read about the MIT study on AI and values, and it's pretty reassuring. Always thought AI might get too smart and start valuing itself more than us. Glad to know it's not the case! Still, can't help but wonder what's next for AI. 🤔












