Option
Heim
Nachricht
Anthropic entfernt verantwortungsbewusst die verantwortliche KI-Versprechen der Biden-Ära von der Website

Anthropic entfernt verantwortungsbewusst die verantwortliche KI-Versprechen der Biden-Ära von der Website

27. April 2025
130

Anthropic entfernt verantwortungsbewusst die verantwortliche KI-Versprechen der Biden-Ära von der Website

Anthropic entfernt Biden-Ära-Verpflichtungen zur AI-Sicherheit von der Website

In einem Schritt, der für Aufsehen gesorgt hat, hat Anthropic, ein bedeutender Akteur in der AI-Branche, letzte Woche stillschweigend seine Biden-Ära-Verpflichtungen zur sicheren AI-Entwicklung aus seinem Transparenz-Hub entfernt. Diese Änderung wurde erstmals von The Midas Project, einer AI-Watchdog-Gruppe, bemerkt, die das Fehlen von Formulierungen feststellte, die versprochen hatten, Informationen und Forschungsergebnisse zu AI-Risiken, einschließlich Voreingenommenheit, mit der Regierung zu teilen.

Diese Verpflichtungen waren Teil einer freiwilligen Vereinbarung, die Anthropic im Juli 2023 zusammen mit anderen Technologieriesen wie OpenAI, Google und Meta eingegangen war. Diese Vereinbarung war ein Eckpfeiler der Bemühungen der Biden-Administration, eine verantwortungsvolle AI-Entwicklung zu fördern, von denen viele Aspekte später in Bidens AI-Exekutivanordnung festgelegt wurden. Die beteiligten Unternehmen hatten sich verpflichtet, bestimmte Standards einzuhalten, wie z. B. Sicherheitsprüfungen an ihren Modellen vor der Veröffentlichung durchzuführen, AI-generierte Inhalte mit Wasserzeichen zu versehen und eine robuste Infrastruktur für den Datenschutz zu entwickeln.

Darüber hinaus hatte Anthropic zugestimmt, mit dem AI Safety Institute, das unter Bidens Exekutivanordnung gegründet wurde, zusammenzuarbeiten, um diese Prioritäten voranzutreiben. Mit der Trump-Administration, die das Institut wahrscheinlich auflösen wird, steht die Zukunft dieser Initiativen jedoch auf der Kippe.

Interessanterweise hat Anthropic keine öffentliche Ankündigung über die Entfernung dieser Verpflichtungen von seiner Website gemacht. Das Unternehmen betont, dass seine aktuellen Positionen zur verantwortungsvollen AI entweder unabhängig von den Biden-Ära-Vereinbarungen sind oder diesen vorausgehen.

Weitreichende Auswirkungen unter der Trump-Administration

Diese Entwicklung ist Teil eines größeren Wandels in der AI-Politik und -Regulierung unter der Trump-Administration. Am ersten Tag seiner Amtszeit hob Trump Bidens Exekutivanordnung zu AI auf, und er hat bereits mehrere AI-Experten aus Regierungspositionen entlassen und Forschungsgelder gekürzt. Diese Maßnahmen haben den Ton bei großen AI-Unternehmen spürbar verändert, von denen einige nun versuchen, ihre Regierungsverträge auszubauen und die sich noch entwickelnde AI-Politiklandschaft unter Trump zu beeinflussen.

Beispielsweise definieren Unternehmen wie Google neu, was verantwortungsvolle AI ausmacht, und lockern möglicherweise Standards, die ohnehin nicht besonders streng waren. Da ein Großteil der begrenzten AI-Regulierung, die während der Biden-Administration eingeführt wurde, Gefahr läuft, abgebaut zu werden, könnten Unternehmen noch weniger externe Anreize haben, sich selbst zu regulieren oder sich einer Aufsicht durch Dritte zu unterwerfen.

Bemerkenswerterweise fehlen in Trumps öffentlichen Äußerungen zu AI auffällig Diskussionen über Sicherheitsprüfungen auf Voreingenommenheit und Diskriminierung in AI-Systemen, was auf eine mögliche Abkehr von diesen Prioritäten hindeutet.

Verwandter Artikel
Manus stellt 'Wide Research' AI-Tool mit über 100 Agenten für Web Scraping vor Manus stellt 'Wide Research' AI-Tool mit über 100 Agenten für Web Scraping vor Der chinesische KI-Innovator Manus, der zuvor durch seine bahnbrechende Multi-Agenten-Orchestrierungsplattform für Verbraucher und professionelle Nutzer auf sich aufmerksam gemacht hat, hat eine bahnb
Warum LLMs Anweisungen ignorieren und wie man das wirksam beheben kann Warum LLMs Anweisungen ignorieren und wie man das wirksam beheben kann Verstehen, warum große Sprachmodelle Anweisungen überspringenGroße Sprachmodelle (Large Language Models, LLMs) haben die Art und Weise, wie wir mit künstlicher Intelligenz interagieren, verändert und
Pebble erhält nach Rechtsstreit seinen ursprünglichen Markennamen zurück Pebble erhält nach Rechtsstreit seinen ursprünglichen Markennamen zurück Die Rückkehr von Pebble: Name und allesPebble-Fans können sich freuen - die beliebte Smartwatch-Marke feiert nicht nur ein Comeback, sondern erhält auch ihren ikonischen Namen zurück. "Wir haben die P
Kommentare (4)
0/200
AlbertMiller
AlbertMiller 25. August 2025 07:33:49 MESZ

Wow, Anthropic pulling that AI safety pledge is wild! 🤯 Makes you wonder if they're dodging accountability or just streamlining their site. Either way, it’s a bold move in today’s AI race!

PaulTaylor
PaulTaylor 16. August 2025 23:00:59 MESZ

Wow, Anthropic pulling those AI safety pledges is shady! 🤔 Makes you wonder what’s cooking behind closed doors—less transparency in AI dev is a bold move, and not the good kind.

JuanLewis
JuanLewis 4. August 2025 08:01:00 MESZ

Interesting move by Anthropic, but kinda shady to just erase those AI safety promises. Makes you wonder what’s cooking behind the scenes. 🧐

PaulHill
PaulHill 28. Juli 2025 03:20:54 MESZ

I was shocked to see Anthropic pull those AI safety pledges! 🤯 It makes you wonder if they're dodging accountability or just cleaning up their site. Either way, it’s a bold move in today’s AI race.

Zurück nach oben
OR