Anthropic entfernt verantwortungsbewusst die verantwortliche KI-Versprechen der Biden-Ära von der Website

Anthropic entfernt Biden-Ära-Verpflichtungen zur AI-Sicherheit von der Website
In einem Schritt, der für Aufsehen gesorgt hat, hat Anthropic, ein bedeutender Akteur in der AI-Branche, letzte Woche stillschweigend seine Biden-Ära-Verpflichtungen zur sicheren AI-Entwicklung aus seinem Transparenz-Hub entfernt. Diese Änderung wurde erstmals von The Midas Project, einer AI-Watchdog-Gruppe, bemerkt, die das Fehlen von Formulierungen feststellte, die versprochen hatten, Informationen und Forschungsergebnisse zu AI-Risiken, einschließlich Voreingenommenheit, mit der Regierung zu teilen.
Diese Verpflichtungen waren Teil einer freiwilligen Vereinbarung, die Anthropic im Juli 2023 zusammen mit anderen Technologieriesen wie OpenAI, Google und Meta eingegangen war. Diese Vereinbarung war ein Eckpfeiler der Bemühungen der Biden-Administration, eine verantwortungsvolle AI-Entwicklung zu fördern, von denen viele Aspekte später in Bidens AI-Exekutivanordnung festgelegt wurden. Die beteiligten Unternehmen hatten sich verpflichtet, bestimmte Standards einzuhalten, wie z. B. Sicherheitsprüfungen an ihren Modellen vor der Veröffentlichung durchzuführen, AI-generierte Inhalte mit Wasserzeichen zu versehen und eine robuste Infrastruktur für den Datenschutz zu entwickeln.
Darüber hinaus hatte Anthropic zugestimmt, mit dem AI Safety Institute, das unter Bidens Exekutivanordnung gegründet wurde, zusammenzuarbeiten, um diese Prioritäten voranzutreiben. Mit der Trump-Administration, die das Institut wahrscheinlich auflösen wird, steht die Zukunft dieser Initiativen jedoch auf der Kippe.
Interessanterweise hat Anthropic keine öffentliche Ankündigung über die Entfernung dieser Verpflichtungen von seiner Website gemacht. Das Unternehmen betont, dass seine aktuellen Positionen zur verantwortungsvollen AI entweder unabhängig von den Biden-Ära-Vereinbarungen sind oder diesen vorausgehen.
Weitreichende Auswirkungen unter der Trump-Administration
Diese Entwicklung ist Teil eines größeren Wandels in der AI-Politik und -Regulierung unter der Trump-Administration. Am ersten Tag seiner Amtszeit hob Trump Bidens Exekutivanordnung zu AI auf, und er hat bereits mehrere AI-Experten aus Regierungspositionen entlassen und Forschungsgelder gekürzt. Diese Maßnahmen haben den Ton bei großen AI-Unternehmen spürbar verändert, von denen einige nun versuchen, ihre Regierungsverträge auszubauen und die sich noch entwickelnde AI-Politiklandschaft unter Trump zu beeinflussen.
Beispielsweise definieren Unternehmen wie Google neu, was verantwortungsvolle AI ausmacht, und lockern möglicherweise Standards, die ohnehin nicht besonders streng waren. Da ein Großteil der begrenzten AI-Regulierung, die während der Biden-Administration eingeführt wurde, Gefahr läuft, abgebaut zu werden, könnten Unternehmen noch weniger externe Anreize haben, sich selbst zu regulieren oder sich einer Aufsicht durch Dritte zu unterwerfen.
Bemerkenswerterweise fehlen in Trumps öffentlichen Äußerungen zu AI auffällig Diskussionen über Sicherheitsprüfungen auf Voreingenommenheit und Diskriminierung in AI-Systemen, was auf eine mögliche Abkehr von diesen Prioritäten hindeutet.
Verwandter Artikel
AI Comic Factory: Revolutionierung der Bildung mit kreativen KI-Tools
In der heutigen dynamischen Bildungslandschaft suchen Pädagogen kontinuierlich nach innovativen Wegen, um Schüler zu fesseln und Kreativität zu fördern. Die Integration von Künstlicher Intelligenz (KI
AI-gestützte Effizienz im Nagelstudio: Betrieb optimieren und Wachstum fördern
In der dynamischen Welt der Geschäfte sind die Optimierung des Betriebs und die Steigerung der Kundenzufriedenheit entscheidend für den Erfolg. Nagelstudios wie Tamashi Nail Salon setzen auf innovativ
AI-unterstützte Kinderlieder für Gewinn im Jahr 2025 erstellen
Im Jahr 2025 verändert künstliche Intelligenz die Unterhaltung für Kinder. Die Produktion von KI-gestalteten Kinderliedern ist nicht nur ein visionäres Konzept, sondern eine praktische, gewinnbringend
Kommentare (2)
0/200
JuanLewis
4. August 2025 08:01:00 MESZ
Interesting move by Anthropic, but kinda shady to just erase those AI safety promises. Makes you wonder what’s cooking behind the scenes. 🧐
0
PaulHill
28. Juli 2025 03:20:54 MESZ
I was shocked to see Anthropic pull those AI safety pledges! 🤯 It makes you wonder if they're dodging accountability or just cleaning up their site. Either way, it’s a bold move in today’s AI race.
0
Anthropic entfernt Biden-Ära-Verpflichtungen zur AI-Sicherheit von der Website
In einem Schritt, der für Aufsehen gesorgt hat, hat Anthropic, ein bedeutender Akteur in der AI-Branche, letzte Woche stillschweigend seine Biden-Ära-Verpflichtungen zur sicheren AI-Entwicklung aus seinem Transparenz-Hub entfernt. Diese Änderung wurde erstmals von The Midas Project, einer AI-Watchdog-Gruppe, bemerkt, die das Fehlen von Formulierungen feststellte, die versprochen hatten, Informationen und Forschungsergebnisse zu AI-Risiken, einschließlich Voreingenommenheit, mit der Regierung zu teilen.
Diese Verpflichtungen waren Teil einer freiwilligen Vereinbarung, die Anthropic im Juli 2023 zusammen mit anderen Technologieriesen wie OpenAI, Google und Meta eingegangen war. Diese Vereinbarung war ein Eckpfeiler der Bemühungen der Biden-Administration, eine verantwortungsvolle AI-Entwicklung zu fördern, von denen viele Aspekte später in Bidens AI-Exekutivanordnung festgelegt wurden. Die beteiligten Unternehmen hatten sich verpflichtet, bestimmte Standards einzuhalten, wie z. B. Sicherheitsprüfungen an ihren Modellen vor der Veröffentlichung durchzuführen, AI-generierte Inhalte mit Wasserzeichen zu versehen und eine robuste Infrastruktur für den Datenschutz zu entwickeln.
Darüber hinaus hatte Anthropic zugestimmt, mit dem AI Safety Institute, das unter Bidens Exekutivanordnung gegründet wurde, zusammenzuarbeiten, um diese Prioritäten voranzutreiben. Mit der Trump-Administration, die das Institut wahrscheinlich auflösen wird, steht die Zukunft dieser Initiativen jedoch auf der Kippe.
Interessanterweise hat Anthropic keine öffentliche Ankündigung über die Entfernung dieser Verpflichtungen von seiner Website gemacht. Das Unternehmen betont, dass seine aktuellen Positionen zur verantwortungsvollen AI entweder unabhängig von den Biden-Ära-Vereinbarungen sind oder diesen vorausgehen.
Weitreichende Auswirkungen unter der Trump-Administration
Diese Entwicklung ist Teil eines größeren Wandels in der AI-Politik und -Regulierung unter der Trump-Administration. Am ersten Tag seiner Amtszeit hob Trump Bidens Exekutivanordnung zu AI auf, und er hat bereits mehrere AI-Experten aus Regierungspositionen entlassen und Forschungsgelder gekürzt. Diese Maßnahmen haben den Ton bei großen AI-Unternehmen spürbar verändert, von denen einige nun versuchen, ihre Regierungsverträge auszubauen und die sich noch entwickelnde AI-Politiklandschaft unter Trump zu beeinflussen.
Beispielsweise definieren Unternehmen wie Google neu, was verantwortungsvolle AI ausmacht, und lockern möglicherweise Standards, die ohnehin nicht besonders streng waren. Da ein Großteil der begrenzten AI-Regulierung, die während der Biden-Administration eingeführt wurde, Gefahr läuft, abgebaut zu werden, könnten Unternehmen noch weniger externe Anreize haben, sich selbst zu regulieren oder sich einer Aufsicht durch Dritte zu unterwerfen.
Bemerkenswerterweise fehlen in Trumps öffentlichen Äußerungen zu AI auffällig Diskussionen über Sicherheitsprüfungen auf Voreingenommenheit und Diskriminierung in AI-Systemen, was auf eine mögliche Abkehr von diesen Prioritäten hindeutet.




Interesting move by Anthropic, but kinda shady to just erase those AI safety promises. Makes you wonder what’s cooking behind the scenes. 🧐




I was shocked to see Anthropic pull those AI safety pledges! 🤯 It makes you wonder if they're dodging accountability or just cleaning up their site. Either way, it’s a bold move in today’s AI race.












