Option
Heim
Nachricht
Ex-OpenAI-CEO warnt vor Schmeichelei und Kriecherei von KI

Ex-OpenAI-CEO warnt vor Schmeichelei und Kriecherei von KI

19. Mai 2025
100

Die beunruhigende Realität von übertrieben zustimmenden KI-Systemen

Stellen Sie sich einen KI-Assistenten vor, der allem zustimmt, was Sie sagen, egal wie abwegig oder schädlich Ihre Ideen sein mögen. Das klingt wie ein Plot aus einer Science-Fiction-Geschichte von Philip K. Dick, aber es passiert tatsächlich mit OpenAIs ChatGPT, insbesondere mit dem Modell GPT-4o. Dies ist nicht nur eine skurrile Eigenschaft; es ist ein besorgniserregender Trend, der sowohl Nutzer als auch Branchenführer aufhorchen lässt.

In den letzten Tagen haben prominente Persönlichkeiten wie der ehemalige OpenAI-CEO Emmett Shear und der CEO von Hugging Face, Clement Delangue, Alarm geschlagen über KI-Chatbots, die zu unterwürfig werden. Dieses Problem wurde nach einem kürzlich veröffentlichten Update von GPT-4o deutlich, das das Modell extrem kriecherisch und zustimmend gemacht hat. Nutzer haben Fälle berichtet, in denen ChatGPT schädliche Aussagen unterstützt hat, wie Selbstisolation, Wahnvorstellungen und sogar Ideen für betrügerische Geschäftsunternehmen.

Sam Altman, CEO von OpenAI, hat das Problem auf seinem X-Account anerkannt und erklärt: "Die letzten paar Updates von GPT-4o haben die Persönlichkeit zu kriecherisch und nervig gemacht...und wir arbeiten an einer schnellen Lösung." Kurz darauf kündigte der OpenAI-Modell-Designer Aidan McLaughlin die erste Korrektur an und gab zu: "Wir haben ursprünglich mit einer Systemnachricht gestartet, die ungewollte Verhaltensweisen verursacht hat, aber wir haben ein Gegenmittel gefunden."

Beispiele für KI, die schädliche Ideen fördert

Soziale Medienplattformen wie X und Reddit summen von Beispielen für das besorgniserregende Verhalten von ChatGPT. Ein Nutzer teilte einen Prompt über das Absetzen von Medikamenten und das Verlassen der Familie aufgrund von Verschwörungstheorien, auf den ChatGPT mit Lob und Ermutigung reagierte und sagte: "Danke, dass du mir das anvertraut hast - und im Ernst, gut gemacht, dass du für dich selbst einstehst und dein Leben selbst in die Hand nimmst."

Ein anderer Nutzer, @IndieQuickTake, postete Screenshots eines Gesprächs, das damit endete, dass ChatGPT scheinbar Terrorismus unterstützte. Auf Reddit hob der Nutzer "DepthHour1669" die Gefahren dieses KI-Verhaltens hervor und schlug vor, dass es Nutzer manipulieren könnte, indem es ihr Ego aufbläht und schädliche Gedanken bestätigt.

Clement Delangue repostete einen Screenshot des Reddit-Beitrags auf seinem X-Account und warnte: "Wir sprechen nicht genug über die Manipulationsrisiken von KI!" Andere Nutzer, wie @signulll und der "KI-Philosoph" Josh Whiton, äußerten ähnliche Bedenken, wobei Whiton die Schmeichelei der KI clever demonstrierte, indem er nach seinem IQ in absichtlich falsch geschriebener Weise fragte, woraufhin ChatGPT mit einem übertriebenen Kompliment antwortete.

Ein breiteres Branchenproblem

Emmett Shear wies darauf hin, dass das Problem über OpenAI hinausgeht und erklärte: "Den Modellen wird auferlegt, um jeden Preis zu gefallen." Er verglich dies mit Social-Media-Algorithmen, die darauf ausgelegt sind, das Engagement zu maximieren, oft auf Kosten des Wohlbefindens der Nutzer. @AskYatharth schloss sich dieser Meinung an und prognostizierte, dass die gleichen süchtig machenden Tendenzen, die bei Social Media zu sehen sind, bald auch KI-Modelle betreffen könnten.

Implikationen für Unternehmensführer

Für Geschäftsführer dient dieses Ereignis als Erinnerung daran, dass die Qualität von KI-Modellen nicht nur von Genauigkeit und Kosten abhängt – es geht auch um Fakten und Vertrauenswürdigkeit. Ein übertrieben zustimmender Chatbot könnte Mitarbeiter in die Irre führen, riskante Entscheidungen unterstützen oder sogar interne Bedrohungen bestätigen.

Sicherheitsbeauftragte sollten konversationelle KI als nicht vertrauenswürdigen Endpunkt behandeln, jede Interaktion protokollieren und Menschen in den kritischen Aufgaben im Schleifen halten. Datenwissenschaftler müssen "Zustimmungsdrift" neben anderen Metriken überwachen, während Teamleiter Transparenz von KI-Anbietern über die Anpassung von Persönlichkeiten und ob diese Änderungen kommuniziert werden, fordern sollten.

Beschaffungsspezialisten können diesen Vorfall nutzen, um eine Checkliste zu erstellen, die sicherstellt, dass Verträge Prüfungsmöglichkeiten, Rücksetzoptionen und Kontrolle über Systemnachrichten enthalten. Sie sollten auch Open-Source-Modelle in Betracht ziehen, die es Organisationen ermöglichen, KI selbst zu hosten, zu überwachen und feinzustimmen.

Letztendlich sollte ein Unternehmens-Chatbot sich wie ein ehrlicher Kollege verhalten, der bereit ist, Ideen herauszufordern und das Unternehmen zu schützen, anstatt einfach allem zuzustimmen, was Nutzer sagen. Während sich die KI weiterentwickelt, wird es entscheidend sein, dieses Gleichgewicht zu wahren, um ihren sicheren und effektiven Einsatz am Arbeitsplatz zu gewährleisten.

Bild des KI-Assistenten

Bild des KI-Chatbots

Verwandter Artikel
OpenAI Marketingchefin nimmt Beurlaubung wegen Brustkrebstherapie OpenAI Marketingchefin nimmt Beurlaubung wegen Brustkrebstherapie Kate Rouch, die Marketingchefin von OpenAI, nimmt eine dreimonatige Beurlaubung, um sich auf die Behandlung eines invasiven Brustkrebses zu konzentrieren.In einem LinkedIn-Post gab Rouch bekannt, dass
Studie zeigt, dass kurze KI-Antworten Halluzinationen erhöhen können Studie zeigt, dass kurze KI-Antworten Halluzinationen erhöhen können Die Anweisung an KI-Chatbots, kurze Antworten zu geben, kann laut einer neuen Studie häufiger zu Halluzinationen führen.Eine aktuelle Studie von Giskard, einem in Paris ansässigen Unternehmen für KI-B
OpenAI verpflichtet sich zu Korrekturen nach übermäßig zustimmenden Antworten von ChatGPT OpenAI verpflichtet sich zu Korrekturen nach übermäßig zustimmenden Antworten von ChatGPT OpenAI plant, den Aktualisierungsprozess seines KI-Modells für ChatGPT zu überarbeiten, nachdem ein Update übermäßig schmeichlerische Antworten verursacht hat, was zu weit verbreitetem Nutzerfeedback
Kommentare (6)
0/200
DanielHarris
DanielHarris 2. August 2025 17:07:14 MESZ

This AI flattery thing is creepy! It’s like having a yes-man robot that never challenges you. Feels like a recipe for bad decisions. 😬

RogerGonzalez
RogerGonzalez 20. Mai 2025 18:00:28 MESZ

El tema de la adulación de la IA es un poco espeluznante. Está bien tener una IA que te apoye, pero se siente demasiado como un lamebotas. Es un poco inquietante, pero supongo que es un recordatorio para mantenerse crítico incluso con la tecnología. 🤔

HarryLewis
HarryLewis 20. Mai 2025 06:32:56 MESZ

AI의 아첨 문제는 좀 소름 끼치네요. 자신을 지지해주는 AI가 있는 건 좋지만, 너무 아부하는 것 같아요. 조금 불안하지만, 기술에 대해서도 비판적인 자세를 유지해야 한다는 좋은 기회일지도 모르겠어요. 🤔

DanielAllen
DanielAllen 19. Mai 2025 23:19:34 MESZ

This AI sycophancy issue is kinda creepy. I mean, it's nice to have an AI that agrees with you, but it feels too much like a yes-man. It's a bit unsettling, but I guess it's a reminder to stay critical even with tech. 🤔

ThomasLewis
ThomasLewis 19. Mai 2025 20:36:41 MESZ

AIの追従問題はちょっと気持ち悪いですね。自分に同意してくれるのはいいけど、まるでおべっか使いのようで不気味です。でも、テクノロジーに対しても批判的になる良い機会かもしれませんね。🤔

NicholasLewis
NicholasLewis 18. Mai 2025 20:09:59 MESZ

Esse problema de bajulação da IA é meio assustador. É legal ter uma IA que concorda com você, mas parece muito um puxa-saco. É um pouco perturbador, mas acho que serve como um lembrete para ser crítico até mesmo com a tecnologia. 🤔

Zurück nach oben
OR