Anthropischer CEO Slams Deepseek zum Versagen von Bioweapons -Datensicherheitstest

Anthropics CEO, Dario Amodei, ist ernsthaft besorgt über DeepSeek, das chinesische KI-Unternehmen, das in Silicon Valley mit seinem R1-Modell für Aufsehen sorgt. Seine Sorgen gehen über die üblichen Befürchtungen hinaus, dass DeepSeek Nutzerdaten nach China zurücksendet.
In einem kürzlichen Gespräch im ChinaTalk-Podcast von Jordan Schneider enthüllte Amodei, dass DeepSeeks KI-Modell während eines Sicherheitstests von Anthropic beängstigende Informationen über Biowaffen generierte. Er behauptete, DeepSeeks Leistung sei „die schlechteste von so ziemlich jedem Modell, das wir je getestet haben“, und sagte, es gebe „absolut keine Sperren gegen die Generierung dieser Informationen“.
Amodei erklärte, dass diese Tests Teil der regelmäßigen Bewertungen von Anthropic sind, um zu prüfen, ob KI-Modelle nationale Sicherheitsrisiken darstellen. Sie untersuchen speziell, ob die Modelle Informationen über Biowaffen ausgeben können, die nicht leicht bei Google oder in Lehrbüchern zu finden sind. Anthropic ist stolz darauf, das KI-Unternehmen zu sein, das Sicherheit ernst nimmt.
Obwohl Amodei nicht glaubt, dass DeepSeeks aktuelle Modelle „wörtlich gefährlich“ sind, wenn es um die Bereitstellung seltener und riskanter Informationen geht, glaubt er, dass sie es in naher Zukunft sein könnten. Er lobte DeepSeeks Team als „talentierte Ingenieure“, forderte das Unternehmen jedoch auf, „diese KI-Sicherheitsaspekte ernst zu nehmen“.
Amodei hat sich auch lautstark für starke Exportkontrollen von Chips nach China ausgesprochen, besorgt, dass sie Chinas Militär einen Vorteil verschaffen könnten.
Im ChinaTalk-Interview spezifizierte Amodei nicht, welches DeepSeek-Modell Anthropic getestet hat, oder lieferte weitere technische Details zu den Tests. Weder Anthropic noch DeepSeek reagierten sofort auf TechCrunchs Bitte um Stellungnahme.
DeepSeeks schneller Aufstieg hat auch anderswo Sicherheitsbedenken aufgeworfen. Letzte Woche sagten Cisco-Sicherheitsforscher, dass DeepSeek R1 in seinen Sicherheitstests keine schädlichen Eingaben blockierte, mit einer 100%igen Jailbreak-Erfolgsrate. Obwohl Cisco keine Biowaffen erwähnte, konnten sie DeepSeek dazu bringen, schädliche Informationen über Cyberkriminalität und andere illegale Aktivitäten zu generieren. Es ist jedoch anzumerken, dass Metas Llama-3.1-405B und OpenAIs GPT-4o ebenfalls hohe Fehlerraten von 96% bzw. 86% hatten.
Es ist noch unklar, ob diese Sicherheitsbedenken DeepSeeks schnelle Verbreitung ernsthaft beeinträchtigen werden. Unternehmen wie AWS und Microsoft haben die Integration von R1 in ihre Cloud-Plattformen öffentlich gelobt – was irgendwie ironisch ist, da Amazon der größte Investor von Anthropic ist.
Auf der anderen Seite haben immer mehr Länder, Unternehmen und insbesondere Regierungsorganisationen wie die U.S. Navy und das Pentagon begonnen, DeepSeek zu verbieten.
Nur die Zeit wird zeigen, ob diese Bemühungen erfolgreich sind oder ob DeepSeeks globaler Aufstieg weiter stark voranschreitet. Jedenfalls betrachtet Amodei DeepSeek als neuen Konkurrenten, der mit den führenden KI-Unternehmen der USA gleichzieht.
„Die neue Tatsache hier ist, dass es einen neuen Konkurrenten gibt“, sagte er im ChinaTalk. „In den großen Unternehmen, die KI trainieren können – Anthropic, OpenAI, Google, vielleicht Meta und xAI – wird DeepSeek jetzt vielleicht zu dieser Kategorie hinzugefügt.“
Verwandter Artikel
DeepSeek-V3 Enthüllt: Wie Hardware-bewusstes KI-Design Kosten senkt und Leistung steigert
DeepSeek-V3: Ein kosteneffizienter Sprung in der KI-EntwicklungDie KI-Branche steht an einem Scheideweg. Während große Sprachmodelle (LLMs) leistungsfähiger werden, sind ihre Rechenanforderungen explo
DeepSeek-GRM: Skalierbare, kosteneffiziente KI für Unternehmen revolutionieren
Wenn Sie ein Unternehmen führen, wissen Sie sicher, wie schwierig es sein kann, Künstliche Intelligenz (KI) in Ihre Betriebsabläufe einzubinden. Die hohen Kosten und technische Kom
Neue Technik ermöglicht es Deepseek und anderen Modellen, auf sensible Fragen zu reagieren
Das Entfernen von Voreingenommenheit und Zensur aus Großsprachenmodellen (LLMs) wie Chinas Deepseek ist eine komplexe Herausforderung, die die Aufmerksamkeit der politischen Entscheidungsträger und Geschäftsführer der USA auf sich gezogen hat, die dies als potenzielle nationale Sicherheitsbedrohung ansehen. Ein aktueller Bericht eines US -Kongressauswahlausschusses als Deeps bezeichnet
Kommentare (50)
0/200
PeterMartinez
26. April 2025 00:16:48 MESZ
O CEO da Anthropic criticando a DeepSeek é assustador! Se eles não conseguem manter os dados de bioweapons seguros, o que mais estão fazendo de errado? Isso me faz pensar duas vezes sobre usar qualquer AI deles. Espero que resolvam isso rápido! 😱
0
JimmyGarcia
20. April 2025 07:11:54 MESZ
Nossa, o CEO da Anthropic realmente detonou a DeepSeek por falhar no teste de segurança de dados de bioweapons! É assustador pensar que empresas de IA não priorizam a segurança. Fica a dúvida sobre o que mais está acontecendo nos bastidores. Mantenha-se seguro, pessoal! 😱
0
SebastianAnderson
20. April 2025 05:27:58 MESZ
El fracaso de DeepSeek en la prueba de seguridad de datos de bioweapons es muy preocupante. Preocuparse por la privacidad de los datos es una cosa, pero esto es de otro nivel. El CEO de Anthropic tiene razón al criticarlos. Necesitamos más transparencia y seguridad en la IA, ¡rápido! 😠
0
StevenAllen
18. April 2025 19:41:57 MESZ
딥시크가 생물무기 데이터 안전성 테스트에 실패한 것은 정말 걱정스럽습니다. 데이터 프라이버시는 하나의 문제지만, 이것은 다른 차원의 문제입니다. 안트로픽의 CEO가 그들을 비판하는 것은 옳습니다. AI에는 더 많은 투명성과 안전성이 필요합니다, 급하게요! 😠
0
RoyLopez
17. April 2025 22:50:53 MESZ
Anthropic의 CEO가 DeepSeek의 생물학적 무기 데이터 안전성 테스트 실패에 대해 강력하게 비판했네요! AI 기업이 안전을 우선하지 않는다는 생각이 무섭네요. 뒤에서 무슨 일이 일어나고 있는지 궁금해지네요. 모두 안전하게 하세요! 😱
0
EdwardTaylor
17. April 2025 20:13:54 MESZ
AnthropicのCEOがDeepSeekを批判しているのは怖いですね!生物兵器のデータを安全に保てないなんて、他に何をしくじっているんでしょうか?彼らのAIを使うのを再考させられます。早く修正してほしいです!😨
0
Anthropics CEO, Dario Amodei, ist ernsthaft besorgt über DeepSeek, das chinesische KI-Unternehmen, das in Silicon Valley mit seinem R1-Modell für Aufsehen sorgt. Seine Sorgen gehen über die üblichen Befürchtungen hinaus, dass DeepSeek Nutzerdaten nach China zurücksendet.
In einem kürzlichen Gespräch im ChinaTalk-Podcast von Jordan Schneider enthüllte Amodei, dass DeepSeeks KI-Modell während eines Sicherheitstests von Anthropic beängstigende Informationen über Biowaffen generierte. Er behauptete, DeepSeeks Leistung sei „die schlechteste von so ziemlich jedem Modell, das wir je getestet haben“, und sagte, es gebe „absolut keine Sperren gegen die Generierung dieser Informationen“.
Amodei erklärte, dass diese Tests Teil der regelmäßigen Bewertungen von Anthropic sind, um zu prüfen, ob KI-Modelle nationale Sicherheitsrisiken darstellen. Sie untersuchen speziell, ob die Modelle Informationen über Biowaffen ausgeben können, die nicht leicht bei Google oder in Lehrbüchern zu finden sind. Anthropic ist stolz darauf, das KI-Unternehmen zu sein, das Sicherheit ernst nimmt.
Obwohl Amodei nicht glaubt, dass DeepSeeks aktuelle Modelle „wörtlich gefährlich“ sind, wenn es um die Bereitstellung seltener und riskanter Informationen geht, glaubt er, dass sie es in naher Zukunft sein könnten. Er lobte DeepSeeks Team als „talentierte Ingenieure“, forderte das Unternehmen jedoch auf, „diese KI-Sicherheitsaspekte ernst zu nehmen“.
Amodei hat sich auch lautstark für starke Exportkontrollen von Chips nach China ausgesprochen, besorgt, dass sie Chinas Militär einen Vorteil verschaffen könnten.
Im ChinaTalk-Interview spezifizierte Amodei nicht, welches DeepSeek-Modell Anthropic getestet hat, oder lieferte weitere technische Details zu den Tests. Weder Anthropic noch DeepSeek reagierten sofort auf TechCrunchs Bitte um Stellungnahme.
DeepSeeks schneller Aufstieg hat auch anderswo Sicherheitsbedenken aufgeworfen. Letzte Woche sagten Cisco-Sicherheitsforscher, dass DeepSeek R1 in seinen Sicherheitstests keine schädlichen Eingaben blockierte, mit einer 100%igen Jailbreak-Erfolgsrate. Obwohl Cisco keine Biowaffen erwähnte, konnten sie DeepSeek dazu bringen, schädliche Informationen über Cyberkriminalität und andere illegale Aktivitäten zu generieren. Es ist jedoch anzumerken, dass Metas Llama-3.1-405B und OpenAIs GPT-4o ebenfalls hohe Fehlerraten von 96% bzw. 86% hatten.
Es ist noch unklar, ob diese Sicherheitsbedenken DeepSeeks schnelle Verbreitung ernsthaft beeinträchtigen werden. Unternehmen wie AWS und Microsoft haben die Integration von R1 in ihre Cloud-Plattformen öffentlich gelobt – was irgendwie ironisch ist, da Amazon der größte Investor von Anthropic ist.
Auf der anderen Seite haben immer mehr Länder, Unternehmen und insbesondere Regierungsorganisationen wie die U.S. Navy und das Pentagon begonnen, DeepSeek zu verbieten.
Nur die Zeit wird zeigen, ob diese Bemühungen erfolgreich sind oder ob DeepSeeks globaler Aufstieg weiter stark voranschreitet. Jedenfalls betrachtet Amodei DeepSeek als neuen Konkurrenten, der mit den führenden KI-Unternehmen der USA gleichzieht.
„Die neue Tatsache hier ist, dass es einen neuen Konkurrenten gibt“, sagte er im ChinaTalk. „In den großen Unternehmen, die KI trainieren können – Anthropic, OpenAI, Google, vielleicht Meta und xAI – wird DeepSeek jetzt vielleicht zu dieser Kategorie hinzugefügt.“



O CEO da Anthropic criticando a DeepSeek é assustador! Se eles não conseguem manter os dados de bioweapons seguros, o que mais estão fazendo de errado? Isso me faz pensar duas vezes sobre usar qualquer AI deles. Espero que resolvam isso rápido! 😱




Nossa, o CEO da Anthropic realmente detonou a DeepSeek por falhar no teste de segurança de dados de bioweapons! É assustador pensar que empresas de IA não priorizam a segurança. Fica a dúvida sobre o que mais está acontecendo nos bastidores. Mantenha-se seguro, pessoal! 😱




El fracaso de DeepSeek en la prueba de seguridad de datos de bioweapons es muy preocupante. Preocuparse por la privacidad de los datos es una cosa, pero esto es de otro nivel. El CEO de Anthropic tiene razón al criticarlos. Necesitamos más transparencia y seguridad en la IA, ¡rápido! 😠




딥시크가 생물무기 데이터 안전성 테스트에 실패한 것은 정말 걱정스럽습니다. 데이터 프라이버시는 하나의 문제지만, 이것은 다른 차원의 문제입니다. 안트로픽의 CEO가 그들을 비판하는 것은 옳습니다. AI에는 더 많은 투명성과 안전성이 필요합니다, 급하게요! 😠




Anthropic의 CEO가 DeepSeek의 생물학적 무기 데이터 안전성 테스트 실패에 대해 강력하게 비판했네요! AI 기업이 안전을 우선하지 않는다는 생각이 무섭네요. 뒤에서 무슨 일이 일어나고 있는지 궁금해지네요. 모두 안전하게 하세요! 😱




AnthropicのCEOがDeepSeekを批判しているのは怖いですね!生物兵器のデータを安全に保てないなんて、他に何をしくじっているんでしょうか?彼らのAIを使うのを再考させられます。早く修正してほしいです!😨












