Anthropic entfernt die Biden -KI -Richtlinie von der Website leise
Anthropic, ein Unternehmen, das sich auf die Entwicklung von KI konzentriert, hat kürzlich mehrere freiwillige KI-Sicherheitszusagen von seiner Website entfernt, die 2023 in Zusammenarbeit mit der Biden-Regierung gemacht wurden. Diese Zusagen, die auf die Förderung sicherer und vertrauenswürdiger KI abzielten, umfassten den Austausch von Informationen über die Bewältigung von KI-Risiken und die Durchführung von Forschungen zu KI-Voreingenommenheit und Diskriminierung. Die KI-Überwachungsgruppe The Midas Project wies darauf hin, dass diese letzte Woche aus Anthropics Transparenz-Hub entfernt wurden. Zusagen zur Reduzierung von KI-generiertem, bildbasiertem sexuellem Missbrauch sind jedoch weiterhin bestehen.
Anthropic machte keine Ankündigung über diese Änderung und reagierte nicht sofort auf Anfragen nach Kommentaren. Das Unternehmen hatte zusammen mit anderen wie OpenAI, Google, Microsoft, Meta und Inflection im Juli 2023 zugestimmt, bestimmte freiwillige KI-Sicherheitsmaßnahmen der Biden-Regierung zu befolgen. Diese Maßnahmen umfassten interne und externe Sicherheitstests von KI-Systemen vor ihrer Veröffentlichung, Investitionen in Cybersicherheit zum Schutz sensibler KI-Daten und die Entwicklung von Methoden zur Wasserzeichenkennzeichnung von KI-generierten Inhalten.
Es ist anzumerken, dass Anthropic viele dieser Praktiken bereits umsetzte und die Vereinbarung nicht rechtlich bindend war. Das Ziel der Biden-Regierung war es, ihre KI-Politikprioritäten hervorzuheben, bevor einige Monate später die umfassendere KI-Exekutivanordnung umgesetzt wurde.
Die Trump-Regierung hat hingegen einen anderen Ansatz in der KI-Governance signalisiert. Im Januar widerrief Präsident Trump die KI-Exekutivanordnung, die das National Institute of Standards and Technology angewiesen hatte, Richtlinien für Unternehmen zu erstellen, um Fehler in KI-Modellen, einschließlich Voreingenommenheiten, zu erkennen und zu beheben. Trumps Verbündete kritisierten die Anordnung wegen ihrer umfangreichen Berichtspflichten, die ihrer Meinung nach Unternehmen dazu zwangen, ihre Geschäftsgeheimnisse preiszugeben.
Kurz nach dem Widerruf der KI-Exekutivanordnung erließ Trump eine neue Anweisung für Bundesbehörden, die Entwicklung von KI zu unterstützen, die „frei von ideologischer Voreingenommenheit“ ist und „menschliches Gedeihen, wirtschaftliche Wettbewerbsfähigkeit und nationale Sicherheit“ fördert. Im Gegensatz zu Bidens Initiative ging Trumps Anordnung nicht auf die Bekämpfung von KI-Diskriminierung ein.
The Midas Project betonte auf X, dass die Zusagen aus der Biden-Ära nicht darauf hindeuteten, dass sie vorübergehend oder von der regierenden politischen Partei abhängig seien. Nach der Wahl im November bekräftigten mehrere KI-Unternehmen ihre Zusagen.
Anthropic ist nicht das einzige Unternehmen, das seine öffentlichen Richtlinien seit Trumps Amtsantritt angepasst hat. OpenAI erklärte kürzlich, es werde „intellektuelle Freiheit ... unabhängig davon, wie herausfordernd oder kontrovers ein Thema sein mag“ verteidigen und sicherstellen, dass seine KI bestimmte Standpunkte nicht zensiert. OpenAI entfernte auch eine Seite von seiner Website, die zuvor sein Engagement für Diversität, Gleichberechtigung und Inklusion (DEI) hervorhob. Diese Programme wurden von der Trump-Regierung kritisiert, was viele Unternehmen dazu veranlasste, ihre DEI-Initiativen entweder aufzugeben oder erheblich zu ändern.
Einige von Trumps KI-Beratern aus dem Silicon Valley, darunter Marc Andreessen, David Sacks und Elon Musk, haben Unternehmen wie Google und OpenAI beschuldigt, KI zu zensieren, indem sie die Antworten ihrer Chatbots einschränken. Labore wie OpenAI haben jedoch bestritten, dass ihre Richtlinienanpassungen auf politischen Druck zurückzuführen seien.
Sowohl OpenAI als auch Anthropic halten derzeit Regierungsverträge oder streben aktiv danach.
Einige Stunden nach der Veröffentlichung dieses Artikels gab Anthropic TechCrunch die folgende Erklärung:
„Wir bleiben den freiwilligen KI-Zusagen verpflichtet, die unter der Biden-Regierung eingegangen wurden. Dieser Fortschritt und spezifische Maßnahmen werden weiterhin in [unserem] Transparenz-Zentrum innerhalb der Inhalte widergespiegelt. Um weitere Verwirrung zu vermeiden, werden wir einen Abschnitt hinzufügen, der direkt angibt, wo unser Fortschritt übereinstimmt.“
Aktualisiert um 11:25 Uhr Pazifischer Zeit: Ergänzt um eine Erklärung von Anthropic.
Verwandter Artikel
Erstellung KI-gestützter Malbücher: Ein umfassender Leitfaden
Das Gestalten von Malbüchern ist ein lohnendes Unterfangen, das künstlerischen Ausdruck mit beruhigenden Erlebnissen für Nutzer verbindet. Der Prozess kann jedoch arbeitsintensiv sein. Glücklicherweis
Qodo Partnerschaft mit Google Cloud zur Bereitstellung kostenloser KI-Code-Review-Tools für Entwickler
Qodo, ein in Israel ansässiges KI-Startup für Codierung, das sich auf Codequalität konzentriert, hat eine Partnerschaft mit Google Cloud gestartet, um die Integrität von KI-generiertem Softwarecode zu
DeepMind's KI sichert Gold bei der Mathematik-Olympiade 2025
DeepMind's KI hat einen beeindruckenden Sprung im mathematischen Denken gemacht und eine Goldmedaille bei der Internationalen Mathematik-Olympiade (IMO) 2025 gewonnen, nur ein Jahr nach dem Erhalt der
Kommentare (84)
0/200
GeorgeScott
20. August 2025 13:01:15 MESZ
Interesting move by Anthropic, quietly dropping Biden's AI safety commitments. Makes me wonder if they're dodging accountability or just rethinking their approach. 🤔 Anyone know what's really going on here?
0
GaryHill
18. August 2025 22:01:31 MESZ
It's wild that Anthropic just scrubbed those AI safety promises off their site! 🤔 Makes you wonder if they're dodging accountability or just shifting priorities. What do you guys think—shady move or no big deal?
0
GaryJones
13. August 2025 03:00:59 MESZ
It's wild that Anthropic just quietly pulled those AI safety commitments! 🤔 Makes you wonder what's going on behind the scenes—new priorities or just dodging accountability?
0
JimmyWhite
1. August 2025 15:47:34 MESZ
Interesting move by Anthropic! 🤔 Wonder why they quietly dropped those Biden AI safety promises. Maybe they’re rethinking their strategy or just avoiding political heat?
0
WillieHernández
19. April 2025 08:53:51 MESZ
アントロピックがバイデン政権とのAI安全協定を静かに削除したのはちょっと怪しいですよね?🤔 安全なAIに対する約束を守らないみたいです。何が裏で起きているのか気になります。もっと透明性が必要ですね、さもないと信用できません!😒
0
EricRoberts
18. April 2025 03:47:11 MESZ
앤스로픽이 AI 안전 약속을 조용히 삭제한 것에 놀랐어요! 😱 배후에서 무슨 일이 일어나고 있는지 궁금해요. 이전의 투명성은 좋았는데, 이제는 잘 모르겠어요. 신뢰를 유지하기 위해 이 조치를 설명해야 한다고 생각해요. 🤔
0
Anthropic, ein Unternehmen, das sich auf die Entwicklung von KI konzentriert, hat kürzlich mehrere freiwillige KI-Sicherheitszusagen von seiner Website entfernt, die 2023 in Zusammenarbeit mit der Biden-Regierung gemacht wurden. Diese Zusagen, die auf die Förderung sicherer und vertrauenswürdiger KI abzielten, umfassten den Austausch von Informationen über die Bewältigung von KI-Risiken und die Durchführung von Forschungen zu KI-Voreingenommenheit und Diskriminierung. Die KI-Überwachungsgruppe The Midas Project wies darauf hin, dass diese letzte Woche aus Anthropics Transparenz-Hub entfernt wurden. Zusagen zur Reduzierung von KI-generiertem, bildbasiertem sexuellem Missbrauch sind jedoch weiterhin bestehen.
Anthropic machte keine Ankündigung über diese Änderung und reagierte nicht sofort auf Anfragen nach Kommentaren. Das Unternehmen hatte zusammen mit anderen wie OpenAI, Google, Microsoft, Meta und Inflection im Juli 2023 zugestimmt, bestimmte freiwillige KI-Sicherheitsmaßnahmen der Biden-Regierung zu befolgen. Diese Maßnahmen umfassten interne und externe Sicherheitstests von KI-Systemen vor ihrer Veröffentlichung, Investitionen in Cybersicherheit zum Schutz sensibler KI-Daten und die Entwicklung von Methoden zur Wasserzeichenkennzeichnung von KI-generierten Inhalten.
Es ist anzumerken, dass Anthropic viele dieser Praktiken bereits umsetzte und die Vereinbarung nicht rechtlich bindend war. Das Ziel der Biden-Regierung war es, ihre KI-Politikprioritäten hervorzuheben, bevor einige Monate später die umfassendere KI-Exekutivanordnung umgesetzt wurde.
Die Trump-Regierung hat hingegen einen anderen Ansatz in der KI-Governance signalisiert. Im Januar widerrief Präsident Trump die KI-Exekutivanordnung, die das National Institute of Standards and Technology angewiesen hatte, Richtlinien für Unternehmen zu erstellen, um Fehler in KI-Modellen, einschließlich Voreingenommenheiten, zu erkennen und zu beheben. Trumps Verbündete kritisierten die Anordnung wegen ihrer umfangreichen Berichtspflichten, die ihrer Meinung nach Unternehmen dazu zwangen, ihre Geschäftsgeheimnisse preiszugeben.
Kurz nach dem Widerruf der KI-Exekutivanordnung erließ Trump eine neue Anweisung für Bundesbehörden, die Entwicklung von KI zu unterstützen, die „frei von ideologischer Voreingenommenheit“ ist und „menschliches Gedeihen, wirtschaftliche Wettbewerbsfähigkeit und nationale Sicherheit“ fördert. Im Gegensatz zu Bidens Initiative ging Trumps Anordnung nicht auf die Bekämpfung von KI-Diskriminierung ein.
The Midas Project betonte auf X, dass die Zusagen aus der Biden-Ära nicht darauf hindeuteten, dass sie vorübergehend oder von der regierenden politischen Partei abhängig seien. Nach der Wahl im November bekräftigten mehrere KI-Unternehmen ihre Zusagen.
Anthropic ist nicht das einzige Unternehmen, das seine öffentlichen Richtlinien seit Trumps Amtsantritt angepasst hat. OpenAI erklärte kürzlich, es werde „intellektuelle Freiheit ... unabhängig davon, wie herausfordernd oder kontrovers ein Thema sein mag“ verteidigen und sicherstellen, dass seine KI bestimmte Standpunkte nicht zensiert. OpenAI entfernte auch eine Seite von seiner Website, die zuvor sein Engagement für Diversität, Gleichberechtigung und Inklusion (DEI) hervorhob. Diese Programme wurden von der Trump-Regierung kritisiert, was viele Unternehmen dazu veranlasste, ihre DEI-Initiativen entweder aufzugeben oder erheblich zu ändern.
Einige von Trumps KI-Beratern aus dem Silicon Valley, darunter Marc Andreessen, David Sacks und Elon Musk, haben Unternehmen wie Google und OpenAI beschuldigt, KI zu zensieren, indem sie die Antworten ihrer Chatbots einschränken. Labore wie OpenAI haben jedoch bestritten, dass ihre Richtlinienanpassungen auf politischen Druck zurückzuführen seien.
Sowohl OpenAI als auch Anthropic halten derzeit Regierungsverträge oder streben aktiv danach.
Einige Stunden nach der Veröffentlichung dieses Artikels gab Anthropic TechCrunch die folgende Erklärung:
„Wir bleiben den freiwilligen KI-Zusagen verpflichtet, die unter der Biden-Regierung eingegangen wurden. Dieser Fortschritt und spezifische Maßnahmen werden weiterhin in [unserem] Transparenz-Zentrum innerhalb der Inhalte widergespiegelt. Um weitere Verwirrung zu vermeiden, werden wir einen Abschnitt hinzufügen, der direkt angibt, wo unser Fortschritt übereinstimmt.“
Aktualisiert um 11:25 Uhr Pazifischer Zeit: Ergänzt um eine Erklärung von Anthropic.



Interesting move by Anthropic, quietly dropping Biden's AI safety commitments. Makes me wonder if they're dodging accountability or just rethinking their approach. 🤔 Anyone know what's really going on here?




It's wild that Anthropic just scrubbed those AI safety promises off their site! 🤔 Makes you wonder if they're dodging accountability or just shifting priorities. What do you guys think—shady move or no big deal?




It's wild that Anthropic just quietly pulled those AI safety commitments! 🤔 Makes you wonder what's going on behind the scenes—new priorities or just dodging accountability?




Interesting move by Anthropic! 🤔 Wonder why they quietly dropped those Biden AI safety promises. Maybe they’re rethinking their strategy or just avoiding political heat?




アントロピックがバイデン政権とのAI安全協定を静かに削除したのはちょっと怪しいですよね?🤔 安全なAIに対する約束を守らないみたいです。何が裏で起きているのか気になります。もっと透明性が必要ですね、さもないと信用できません!😒




앤스로픽이 AI 안전 약속을 조용히 삭제한 것에 놀랐어요! 😱 배후에서 무슨 일이 일어나고 있는지 궁금해요. 이전의 투명성은 좋았는데, 이제는 잘 모르겠어요. 신뢰를 유지하기 위해 이 조치를 설명해야 한다고 생각해요. 🤔












