Option
Heim
Nachricht
Ex-OpenAI Policy Lead Slams Company für die Änderung der KI-Sicherheitserzählung

Ex-OpenAI Policy Lead Slams Company für die Änderung der KI-Sicherheitserzählung

10. April 2025
98

Ex-OpenAI Policy Lead Slams Company für die Änderung der KI-Sicherheitserzählung

Ein ehemaliger OpenAI -Politikforscher, Miles Brundage, hat sich kürzlich in soziale Medien eingeleitet, um Openai für das zu rufen, was er als Versuch ansieht, die Geschichte seines Ansatzes zur Bereitstellung potenziell riskanter KI -Systeme umzuschreiben. In dieser Woche veröffentlichte OpenAI ein Dokument, in dem die aktuelle Haltung zur KI -Sicherheit und -ausrichtung beschrieben wurde, wobei der Prozess der Gewährleistung von AI -Systemen auf vorhersehbare und vorteilhafte Weise sichergestellt wird. Darin beschrieb Openai die Entwicklung von AGI- oder KI -Systemen, die zu jeder Aufgabe in der Lage sind, ein Mensch zu erledigen, als "kontinuierlicher Weg", der "iterativ eingesetzt und lernt" von AI -Technologien. "In einer diskontinuierlichen Welt [...] stammen Sicherheitsunterricht aus der Behandlung der heutigen Systeme mit übergroßer Vorsicht im Vergleich zu ihrer offensichtlichen Macht. "Wir betrachten jetzt die erste Agi als nur einen Punkt entlang einer Reihe von Systemen, in denen die Nützlichkeit [...] in der kontinuierlichen Welt erhöht wird. Der Weg, um das nächste System sicher und vorteilhaft zu machen, besteht darin, aus dem aktuellen System zu lernen." Brundage argumentiert jedoch, dass der vorsichtige Ansatz mit GPT-2 vollständig mit der aktuellen iterativen Bereitstellungsstrategie von OpenAI übereinstimmt. "OpenAIs Veröffentlichung von GPT-2, an dem ich beteiligt war, war zu 100% konsistent [mit und] die aktuelle Philosophie der iterativen Bereitstellung von Openai," Brundage hat auf X veröffentlicht. Brundage, der 2018 als Forschungswissenschaftler zu Openai kam und später zum Leiter der politischen Forschung des Unternehmens wurde, konzentrierte sich auf den verantwortungsvollen Einsatz von Systemen für Sprachgenerierung wie ChatGPT, während er sich auf das "Agi Readiness" -Team von OpenAs übersah. GPT-2, das 2019 von Openai angekündigt wurde, war ein Vorläufer der KI-Systeme hinter Chatgpt. Es könnte Fragen beantworten, Artikel zusammenfassen und Text generieren, der manchmal nicht vom menschlichen Schreiben zu unterscheiden war. Obwohl GPT-2 jetzt grundlegend erscheinen mag, war es damals bahnbrechend. Aufgrund von Bedenken hinsichtlich des möglichen Missbrauchs hat Openai zunächst den Quellcode des Modells zurückgehalten und ermöglicht ausgewählten Nachrichtenagenturen eingeschränkten Zugriff auf eine Demo. Die Entscheidung erhielt gemischte Feedback von der KI -Community. Einige argumentierten, dass die mit GPT-2 verbundenen Risiken überbewertet seien, und es gab keine Beweise für die Bedenken von OpenAI über Missbrauch. Die AI-fokussierte Veröffentlichung, die der Gradient sogar veröffentlichte, veröffentlichte sogar einen offenen Brief, in dem Openai aufgefordert wurde, das Modell zu veröffentlichen, und zitierte seine technologische Bedeutung. OpenAI veröffentlichte schließlich sechs Monate nach seiner Ankündigung eine Teilversion von GPT-2, gefolgt vom vollständigen System einige Monate später. Brundage ist der Ansicht, dass dies der richtige Ansatz war. "Welcher Teil von [der GPT-2-Veröffentlichung] wurde motiviert oder beruhte darauf, Agi als diskontinuierlich zu betrachten? Keine davon", erklärte er auf X. Brundage ist besorgt darüber, dass das Dokument von OpenAI darauf abzielt, eine hohe Beweislast festzulegen, bei der Bedenken als Alarmist abgewiesen werden, es sei denn, es gibt überwältigende Beweise für unmittelbar bevorstehende Gefahren. Er findet diese Denkweise für fortschrittliche KI -Systeme "sehr gefährlich". "Wenn ich noch bei OpenAI arbeiten würde, würde ich fragen, warum dieses [Dokument] so geschrieben wurde, wie es war und was genau Openai durch Kot zu erreichen hofft, auf eine so lopseitige Weise Vorsicht zu machen", fügte Brundage hinzu. OpenAI wurde in der Vergangenheit kritisiert Im vergangenen Jahr hat das Unternehmen sein AGI -Bereitschaftsteam aufgelöst, und mehrere KI -Sicherheits- und politische Forscher gingen für konkurrierende Unternehmen. Die Wettbewerbslandschaft hat sich intensiviert, wobei das R1 -Modell von Chinese AI Lab Deepseek offen verfügbar ist und das O1 -Modell "Argumenting" von Openai zu wichtigen Benchmarks entspricht und globale Aufmerksamkeit auf sich zieht. Sam Altman, CEO von OpenAI, hat anerkannt, dass Deepseek OpenAs technologischen Vorsprung eingeschränkt hat und OpenAI veranlasst hat, über den Beschleunigungsplan für den Beschleunigungsplan zu berücksichtigen. Da Openai Berichten zufolge milliarden jährlich verloren und bis 2026 Verluste auf drei bis 14 Milliarden US-Dollar prognostiziert, könnte ein schnellerer Produktfreisetzungszyklus kurzfristige Gewinne steigern, aber möglicherweise die langfristige Sicherheit beeinträchtigen. Experten wie Brundage fragen sich, ob sich dieser Kompromiss lohnt.
Verwandter Artikel
Ehemaliger OpenAI-Ingenieur gibt Einblicke in Unternehmenskultur und schnelles Wachstum Ehemaliger OpenAI-Ingenieur gibt Einblicke in Unternehmenskultur und schnelles Wachstum Vor drei Wochen verließ Calvin French-Owen, ein Ingenieur, der an einem wichtigen OpenAI-Produkt mitgearbeitet hat, das Unternehmen.Er veröffentlichte kürzlich einen fesselnden Blogbeitrag, in dem er
Apple-Nutzer können Anteil an $95M Siri-Datenschutzvereinbarung fordern Apple-Nutzer können Anteil an $95M Siri-Datenschutzvereinbarung fordern Apple-Gerätebesitzer in den USA können nun einen Anteil an einer $95 Millionen Vereinbarung beantragen, die Datenschutzbedenken bezüglich Siri adressiert. Eine spezielle Website erleichtert die Vertei
Google stellt produktionsreife Gemini 2.5 KI-Modelle vor, um mit OpenAI im Unternehmensmarkt zu konkurrieren Google stellt produktionsreife Gemini 2.5 KI-Modelle vor, um mit OpenAI im Unternehmensmarkt zu konkurrieren Google hat am Montag seine KI-Strategie intensiviert und seine fortschrittlichen Gemini 2.5 Modelle für den Unternehmenseinsatz gestartet sowie eine kosteneffiziente Variante eingeführt, um bei Preis
Kommentare (36)
0/200
LiamCarter
LiamCarter 5. August 2025 09:00:59 MESZ

It's wild how OpenAI's getting called out by their own ex-policy lead! 😮 Miles Brundage isn't holding back, accusing them of spinning their AI safety story. Makes you wonder what's really going on behind the scenes at these big AI companies. Are they prioritizing safety or just playing PR games?

TimothyMitchell
TimothyMitchell 20. April 2025 19:18:15 MESZ

マイルズ・ブルンダージがオープンAIを批判したのは正しいと思う。彼らはAI安全性の物語をねじ曲げようとしているが、それは受け入れられない。彼らがリスクのあるAIを扱っているとき、透明性を求めることは重要だ。マイルズ、引き続き透明性を求めてください!👍

JackPerez
JackPerez 17. April 2025 01:40:06 MESZ

A crítica de Miles Brundage à OpenAI é totalmente justa! Eles estão tentando reescrever a história da segurança do AI, mas não estamos comprando isso. É crucial mantê-los responsáveis, especialmente quando lidam com sistemas de IA arriscados. Continue pressionando por transparência, Miles! 👍

StevenGonzalez
StevenGonzalez 16. April 2025 22:38:43 MESZ

마일즈 브런데이지가 OpenAI의 새로운 AI 안전성 서사를 비판하는 것을 보고 정말 드라마를 보는 것 같아요. 그는 회사가 역사를 다시 쓰고 있다고 비난하고 있어서, 그의 강력한 태도에 감탄했어요. 큰 기술 기업의 안전성 주장을 믿기 전에 두 번 생각하게 만드네요. 마일즈, 고마워요! 👏

AlbertWilson
AlbertWilson 16. April 2025 21:07:30 MESZ

Just listened to Miles Brundage's take on OpenAI's new AI safety narrative and wow, it's like watching a soap opera unfold! He's not holding back, calling out the company for rewriting history. It's intense but also kinda refreshing to see someone stand up like this. Definitely makes you think twice about trusting big tech's safety claims. Keep it real, Miles! 👏

DonaldBrown
DonaldBrown 16. April 2025 09:05:24 MESZ

Я ценю честность Майлса Брандажа о смене нарратива OpenAI в отношении безопасности ИИ. Важно держать компании ответственными, но хотелось бы больше конструктивной критики. Тем не менее, это сигнал тревоги для отрасли! 🚨

Zurück nach oben
OR