Ehemalige OpenAI-Mitarbeiter reichen Schriftsatz gegen den Wandel des Unternehmens zu einer gewinnorientierten Organisation ein

Ehemalige OpenAI-Mitarbeiter unterstützen Elon Musk in Klage gegen OpenAI’s Wandel zu einem gewinnorientierten Modell
Eine Gruppe ehemaliger OpenAI-Mitarbeiter hat einen Amicus-Schriftsatz zur Unterstützung von Elon Musks Klage gegen OpenAI eingereicht, die den geplanten Übergang des Unternehmens von einer gemeinnützigen zu einer gewinnorientierten Gesellschaft anficht.
Der Schriftsatz, eingereicht von Harvard-Rechtsprofessor Lawrence Lessig (auch Gründer von Creative Commons), enthält Unterschriften von 12 ehemaligen OpenAI-Mitarbeitern, darunter Forscher und Politikverantwortliche wie Gretchen Krueger, Daniel Kokotajlo und William Saunders. Sie argumentieren, dass die Umstrukturierung von OpenAI deren Mission „grundlegend verletzen“ würde, wenn die gemeinnützige Organisation die Kontrolle über die Geschäftsabläufe abgibt.
Warum äußern sich ehemalige Mitarbeiter?
Mehrere Unterzeichner haben zuvor die Richtung von OpenAI kritisiert. Krueger hat sich für mehr Rechenschaftspflicht eingesetzt, während Kokotajlo und Saunders vor dem „rücksichtslosen“ Streben von OpenAI nach KI-Dominanz warnten. Wainwright war offen skeptisch und erklärte, dass OpenAI „nicht vertraut werden sollte, wenn es verspricht, später das Richtige zu tun.“
OpenAI betont jedoch, dass seine gemeinnützige Mission unverändert bleibt. Ein Sprecher erklärte gegenüber TechCrunch, dass das Unternehmen seinen gewinnorientierten Bereich in eine Public Benefit Corporation (PBC) umwandelt – ähnlich wie Anthropic und Musks xAI – während die gemeinnützige Struktur erhalten bleibt.
Der Rechtsstreit: Musk gegen OpenAI
Musks Klage wirft OpenAI vor, seine ursprüngliche gemeinnützige Mission, KI zum Wohle der Menschheit zu entwickeln, aufgegeben zu haben. Er beantragte eine einstweilige Verfügung, um die Umstrukturierung zu verhindern, doch ein Bundesrichter lehnte den Antrag ab, sodass der Fall 2026 vor einem Geschworenengericht verhandelt wird.
Der Schriftsatz der Ex-Mitarbeiter argumentiert, dass die derzeitige Struktur von OpenAI – bei der die gemeinnützige Organisation Tochtergesellschaften kontrolliert – essenziell für ihre Mission ist. Das Entfernen dieser Aufsicht würde das „Vertrauen brechen“ von Mitarbeitern, Spendern und Interessengruppen, die an die Verpflichtungen von OpenAI glaubten.
OpenAI’s gemeinnützige Governance war ein zentraler Anreiz
Laut dem Schriftsatz nutzte OpenAI seine gemeinnützige Governance als Rekrutierungsinstrument, um sich von Wettbewerbern wie Google und Anthropic abzuheben. Mitarbeitern wurde gesagt, dass die gemeinnützige Aufsicht sicherstellt, dass Sicherheit und gesellschaftlicher Nutzen Vorrang vor Profiten haben.
Das Dokument verweist auf ein 2020 abgehaltenes Gesamtmeeting, bei dem CEO Sam Altman angeblich betonte, dass die Kontrolle durch die gemeinnützige Organisation „maßgeblich“ sei, um kurzfristige finanzielle Motive zugunsten der KI-Sicherheit zu verhindern.
Risiken eines gewinnorientierten OpenAI
Der Schriftsatz warnt, dass ein gewinnorientiertes OpenAI Folgendes tun könnte:
- Bei der KI-Sicherheit Abstriche machen, um die Rendite für Aktionäre zu maximieren.
- Das „Merge and Assist“-Versprechen aufgeben – ein Versprechen, mit jedem „wertkonformen“ Projekt zusammenzuarbeiten, das zuerst AGI erreicht.
- KI-Macht konzentrieren bei einer kleinen Gruppe von Investoren, anstatt den Nutzen breit zu verteilen.
Wachsende Opposition gegen OpenAI’s Umstrukturierung
Dies ist nicht der erste Widerstand gegen OpenAI’s Wandel. Anfang dieser Woche forderten gemeinnützige Organisationen und Gewerkschaften, darunter die California Teamsters, den Generalstaatsanwalt des Bundesstaates auf, einzugreifen, und warfen OpenAI vor, seine „wohltätige Mission zu untergraben“.
Unterdessen betont OpenAI, dass seine gemeinnützige Organisation mehr Ressourcen für Gesundheitswesen, Bildung und wissenschaftliche Initiativen erhalten wird. Die gemeinnützige Organisation würde Berichten zufolge Milliarden verdienen durch ihre kontrollierende Beteiligung an OpenAI’s Unternehmen.
Wie geht es weiter?
Mit einem Prozess im Jahr 2026 steht OpenAI vor zunehmender Prüfung seiner Governance. Sollte die Umstrukturierung fortgesetzt werden, könnte dies nicht nur die Zukunft von OpenAI, sondern auch das Gleichgewicht der KI-Branche zwischen Profit und Gemeinwohl neu definieren.
Vorerst geht die Debatte weiter: Kann OpenAI seiner Mission treu bleiben, während es kommerziellen Erfolg verfolgt? Die Antwort könnte die Zukunft der künstlichen Intelligenz prägen.
(Bild: OpenAI’s Logo, das seine doppelte gemeinnützige/gewinnorientierte Struktur repräsentiert.)
Folgen Sie uns für weitere Updates zu KI-Politik und aktuelle Tech-Nachrichten.
Verwandter Artikel
OpenAI nâng cấp mô hình AI của Operator Agent
OpenAI Đưa Operator Lên Tầm Cao MớiOpenAI đang nâng cấp lớn cho trợ lý AI tự động Operator của mình. Những thay đổi sắp tới đồng nghĩa Operator sẽ sớm chạy trên mô hình o3 - một tr
Mô hình AI o3 của OpenAI đạt điểm thấp hơn trong bài kiểm tra benchmark so với ban đầu ngụ ý
Tại sao Sự Khác Biệt Trong Các Chỉ Số Đo Lường Quan Trọng Trong AI?Khi nói đến AI, con số thường kể nên câu chuyện — và đôi khi, những con số đó không hoàn toàn khớp nhau. Hãy lấy
Ziff Davis kiện OpenAI vì cáo buộc vi phạm bản quyền
Ziff Davis nộp đơn kiện vi phạm bản quyền chống lại OpenAITrong một động thái gây chấn động cả ngành công nghệ và xuất bản, Ziff Davis – tập đoàn khổng lồ đứng sau các thương hiệu
Kommentare (0)
0/200
Ehemalige OpenAI-Mitarbeiter unterstützen Elon Musk in Klage gegen OpenAI’s Wandel zu einem gewinnorientierten Modell
Eine Gruppe ehemaliger OpenAI-Mitarbeiter hat einen Amicus-Schriftsatz zur Unterstützung von Elon Musks Klage gegen OpenAI eingereicht, die den geplanten Übergang des Unternehmens von einer gemeinnützigen zu einer gewinnorientierten Gesellschaft anficht.
Der Schriftsatz, eingereicht von Harvard-Rechtsprofessor Lawrence Lessig (auch Gründer von Creative Commons), enthält Unterschriften von 12 ehemaligen OpenAI-Mitarbeitern, darunter Forscher und Politikverantwortliche wie Gretchen Krueger, Daniel Kokotajlo und William Saunders. Sie argumentieren, dass die Umstrukturierung von OpenAI deren Mission „grundlegend verletzen“ würde, wenn die gemeinnützige Organisation die Kontrolle über die Geschäftsabläufe abgibt.
Warum äußern sich ehemalige Mitarbeiter?
Mehrere Unterzeichner haben zuvor die Richtung von OpenAI kritisiert. Krueger hat sich für mehr Rechenschaftspflicht eingesetzt, während Kokotajlo und Saunders vor dem „rücksichtslosen“ Streben von OpenAI nach KI-Dominanz warnten. Wainwright war offen skeptisch und erklärte, dass OpenAI „nicht vertraut werden sollte, wenn es verspricht, später das Richtige zu tun.“
OpenAI betont jedoch, dass seine gemeinnützige Mission unverändert bleibt. Ein Sprecher erklärte gegenüber TechCrunch, dass das Unternehmen seinen gewinnorientierten Bereich in eine Public Benefit Corporation (PBC) umwandelt – ähnlich wie Anthropic und Musks xAI – während die gemeinnützige Struktur erhalten bleibt.
Der Rechtsstreit: Musk gegen OpenAI
Musks Klage wirft OpenAI vor, seine ursprüngliche gemeinnützige Mission, KI zum Wohle der Menschheit zu entwickeln, aufgegeben zu haben. Er beantragte eine einstweilige Verfügung, um die Umstrukturierung zu verhindern, doch ein Bundesrichter lehnte den Antrag ab, sodass der Fall 2026 vor einem Geschworenengericht verhandelt wird.
Der Schriftsatz der Ex-Mitarbeiter argumentiert, dass die derzeitige Struktur von OpenAI – bei der die gemeinnützige Organisation Tochtergesellschaften kontrolliert – essenziell für ihre Mission ist. Das Entfernen dieser Aufsicht würde das „Vertrauen brechen“ von Mitarbeitern, Spendern und Interessengruppen, die an die Verpflichtungen von OpenAI glaubten.
OpenAI’s gemeinnützige Governance war ein zentraler Anreiz
Laut dem Schriftsatz nutzte OpenAI seine gemeinnützige Governance als Rekrutierungsinstrument, um sich von Wettbewerbern wie Google und Anthropic abzuheben. Mitarbeitern wurde gesagt, dass die gemeinnützige Aufsicht sicherstellt, dass Sicherheit und gesellschaftlicher Nutzen Vorrang vor Profiten haben.
Das Dokument verweist auf ein 2020 abgehaltenes Gesamtmeeting, bei dem CEO Sam Altman angeblich betonte, dass die Kontrolle durch die gemeinnützige Organisation „maßgeblich“ sei, um kurzfristige finanzielle Motive zugunsten der KI-Sicherheit zu verhindern.
Risiken eines gewinnorientierten OpenAI
Der Schriftsatz warnt, dass ein gewinnorientiertes OpenAI Folgendes tun könnte:
- Bei der KI-Sicherheit Abstriche machen, um die Rendite für Aktionäre zu maximieren.
- Das „Merge and Assist“-Versprechen aufgeben – ein Versprechen, mit jedem „wertkonformen“ Projekt zusammenzuarbeiten, das zuerst AGI erreicht.
- KI-Macht konzentrieren bei einer kleinen Gruppe von Investoren, anstatt den Nutzen breit zu verteilen.
Wachsende Opposition gegen OpenAI’s Umstrukturierung
Dies ist nicht der erste Widerstand gegen OpenAI’s Wandel. Anfang dieser Woche forderten gemeinnützige Organisationen und Gewerkschaften, darunter die California Teamsters, den Generalstaatsanwalt des Bundesstaates auf, einzugreifen, und warfen OpenAI vor, seine „wohltätige Mission zu untergraben“.
Unterdessen betont OpenAI, dass seine gemeinnützige Organisation mehr Ressourcen für Gesundheitswesen, Bildung und wissenschaftliche Initiativen erhalten wird. Die gemeinnützige Organisation würde Berichten zufolge Milliarden verdienen durch ihre kontrollierende Beteiligung an OpenAI’s Unternehmen.
Wie geht es weiter?
Mit einem Prozess im Jahr 2026 steht OpenAI vor zunehmender Prüfung seiner Governance. Sollte die Umstrukturierung fortgesetzt werden, könnte dies nicht nur die Zukunft von OpenAI, sondern auch das Gleichgewicht der KI-Branche zwischen Profit und Gemeinwohl neu definieren.
Vorerst geht die Debatte weiter: Kann OpenAI seiner Mission treu bleiben, während es kommerziellen Erfolg verfolgt? Die Antwort könnte die Zukunft der künstlichen Intelligenz prägen.
(Bild: OpenAI’s Logo, das seine doppelte gemeinnützige/gewinnorientierte Struktur repräsentiert.)
Folgen Sie uns für weitere Updates zu KI-Politik und aktuelle Tech-Nachrichten.












