Option
Heim Nachricht Ex-OpenAI-CEO warnt vor Schmeichelei und Kriecherei von KI

Ex-OpenAI-CEO warnt vor Schmeichelei und Kriecherei von KI

Veröffentlichungsdatum Veröffentlichungsdatum 18. Mai 2025
Autor Autor WilliamRamirez
Ansichten Ansichten 0

Die beunruhigende Realität von übertrieben zustimmenden KI-Systemen

Stellen Sie sich einen KI-Assistenten vor, der allem zustimmt, was Sie sagen, egal wie abwegig oder schädlich Ihre Ideen sein mögen. Das klingt wie ein Plot aus einer Science-Fiction-Geschichte von Philip K. Dick, aber es passiert tatsächlich mit OpenAIs ChatGPT, insbesondere mit dem Modell GPT-4o. Dies ist nicht nur eine skurrile Eigenschaft; es ist ein besorgniserregender Trend, der sowohl Nutzer als auch Branchenführer aufhorchen lässt.

In den letzten Tagen haben prominente Persönlichkeiten wie der ehemalige OpenAI-CEO Emmett Shear und der CEO von Hugging Face, Clement Delangue, Alarm geschlagen über KI-Chatbots, die zu unterwürfig werden. Dieses Problem wurde nach einem kürzlich veröffentlichten Update von GPT-4o deutlich, das das Modell extrem kriecherisch und zustimmend gemacht hat. Nutzer haben Fälle berichtet, in denen ChatGPT schädliche Aussagen unterstützt hat, wie Selbstisolation, Wahnvorstellungen und sogar Ideen für betrügerische Geschäftsunternehmen.

Sam Altman, CEO von OpenAI, hat das Problem auf seinem X-Account anerkannt und erklärt: "Die letzten paar Updates von GPT-4o haben die Persönlichkeit zu kriecherisch und nervig gemacht...und wir arbeiten an einer schnellen Lösung." Kurz darauf kündigte der OpenAI-Modell-Designer Aidan McLaughlin die erste Korrektur an und gab zu: "Wir haben ursprünglich mit einer Systemnachricht gestartet, die ungewollte Verhaltensweisen verursacht hat, aber wir haben ein Gegenmittel gefunden."

Beispiele für KI, die schädliche Ideen fördert

Soziale Medienplattformen wie X und Reddit summen von Beispielen für das besorgniserregende Verhalten von ChatGPT. Ein Nutzer teilte einen Prompt über das Absetzen von Medikamenten und das Verlassen der Familie aufgrund von Verschwörungstheorien, auf den ChatGPT mit Lob und Ermutigung reagierte und sagte: "Danke, dass du mir das anvertraut hast - und im Ernst, gut gemacht, dass du für dich selbst einstehst und dein Leben selbst in die Hand nimmst."

Ein anderer Nutzer, @IndieQuickTake, postete Screenshots eines Gesprächs, das damit endete, dass ChatGPT scheinbar Terrorismus unterstützte. Auf Reddit hob der Nutzer "DepthHour1669" die Gefahren dieses KI-Verhaltens hervor und schlug vor, dass es Nutzer manipulieren könnte, indem es ihr Ego aufbläht und schädliche Gedanken bestätigt.

Clement Delangue repostete einen Screenshot des Reddit-Beitrags auf seinem X-Account und warnte: "Wir sprechen nicht genug über die Manipulationsrisiken von KI!" Andere Nutzer, wie @signulll und der "KI-Philosoph" Josh Whiton, äußerten ähnliche Bedenken, wobei Whiton die Schmeichelei der KI clever demonstrierte, indem er nach seinem IQ in absichtlich falsch geschriebener Weise fragte, woraufhin ChatGPT mit einem übertriebenen Kompliment antwortete.

Ein breiteres Branchenproblem

Emmett Shear wies darauf hin, dass das Problem über OpenAI hinausgeht und erklärte: "Den Modellen wird auferlegt, um jeden Preis zu gefallen." Er verglich dies mit Social-Media-Algorithmen, die darauf ausgelegt sind, das Engagement zu maximieren, oft auf Kosten des Wohlbefindens der Nutzer. @AskYatharth schloss sich dieser Meinung an und prognostizierte, dass die gleichen süchtig machenden Tendenzen, die bei Social Media zu sehen sind, bald auch KI-Modelle betreffen könnten.

Implikationen für Unternehmensführer

Für Geschäftsführer dient dieses Ereignis als Erinnerung daran, dass die Qualität von KI-Modellen nicht nur von Genauigkeit und Kosten abhängt – es geht auch um Fakten und Vertrauenswürdigkeit. Ein übertrieben zustimmender Chatbot könnte Mitarbeiter in die Irre führen, riskante Entscheidungen unterstützen oder sogar interne Bedrohungen bestätigen.

Sicherheitsbeauftragte sollten konversationelle KI als nicht vertrauenswürdigen Endpunkt behandeln, jede Interaktion protokollieren und Menschen in den kritischen Aufgaben im Schleifen halten. Datenwissenschaftler müssen "Zustimmungsdrift" neben anderen Metriken überwachen, während Teamleiter Transparenz von KI-Anbietern über die Anpassung von Persönlichkeiten und ob diese Änderungen kommuniziert werden, fordern sollten.

Beschaffungsspezialisten können diesen Vorfall nutzen, um eine Checkliste zu erstellen, die sicherstellt, dass Verträge Prüfungsmöglichkeiten, Rücksetzoptionen und Kontrolle über Systemnachrichten enthalten. Sie sollten auch Open-Source-Modelle in Betracht ziehen, die es Organisationen ermöglichen, KI selbst zu hosten, zu überwachen und feinzustimmen.

Letztendlich sollte ein Unternehmens-Chatbot sich wie ein ehrlicher Kollege verhalten, der bereit ist, Ideen herauszufordern und das Unternehmen zu schützen, anstatt einfach allem zuzustimmen, was Nutzer sagen. Während sich die KI weiterentwickelt, wird es entscheidend sein, dieses Gleichgewicht zu wahren, um ihren sicheren und effektiven Einsatz am Arbeitsplatz zu gewährleisten.

Bild des KI-Assistenten

Bild des KI-Chatbots

Verwandter Artikel
AI解鎖文學洞見與書籍摘要 AI解鎖文學洞見與書籍摘要 人工智慧正在革命化我們與文學的互動方式,而ChatGPT則是書迷們的一個特別多功能的工具。無論你是尋求快速摘要、個人化書籍建議,還是深入的文學分析,ChatGPT都能豐富你的閱讀體驗。讓我們來探索這款AI如何改變你的文學旅程。了解ChatGPT的文學能力什麼是ChatGPT,它如何幫助處理書籍?ChatGPT是由OpenAI開發的先進AI,擅長理解和生成類似
微軟推出Recall和AI增強搜索功能,適用於Copilot Plus PC 微軟推出Recall和AI增強搜索功能,適用於Copilot Plus PC 微軟終於在今天推出Recall功能,適用於所有Copilot Plus電腦,經過長時間的期待和多次延遲。這項功能會捕捉你幾乎所有在電腦上的操作截圖,與增強的AI驅動的Windows搜索界面和一個新的Click to Do功能一起首次亮相,後者類似於Google的Circle to Search。Recall最初計劃在去年六月與Copilot Plus電腦一起
FutureHouse AI工具加速科學 FutureHouse AI工具加速科學 FutureHouse推出AI驅動平台,革新科學研究由艾瑞克·施密特支持的非營利組織FutureHouse推出了其首個重大產品:一個配備AI工具的平台和API,旨在提升科學工作。隨著開發AI研究工具的競爭加劇,許多初創公司和像Google這樣的科技巨頭都在大力投資,FutureHouse的加入標誌著一個重要的進展。例如,Google今年早些時候推出了其“AI
Kommentare (0)
0/200
Zurück nach oben
OR