Anthropischer CEO Slams Deepseek zum Versagen von Bioweapons -Datensicherheitstest
10. April 2025
RalphWalker
56

Der CEO von Anthropic, Dario Amodei, ist ernsthaft besorgt über Deepseek, die chinesische KI -Firma, die mit seinem R1 -Modell Wellen im Silicon Valley geführt hat. Und seine Sorgen gehen über die üblichen Ängste vor Deepseek hinaus, die Benutzerdaten nach China zurücksenden. In einem kürzlichen Chat über den Chinatalk -Podcast von Jordan Schneider enthüllte Amodei, dass das KI -Modell von Deepseek während eines von Anthropic durchgeführten Sicherheitstests einige ziemlich beängstigende Informationen über Biowaffen generierte. Er behauptete, dass Deepseeks Leistung "das schlechteste von im Grunde genommen jedes Modells war, das wir jemals getestet hatten", sagte, es habe "absolut keine Blöcke gegen die Erzeugung dieser Informationen". Amodei erklärte, dass diese Tests Teil der regelmäßigen Bewertungen von Anthropic sind, um zu überprüfen, ob AI -Modelle nationale Sicherheitsrisiken darstellen. Sie untersuchen speziell, ob die Modelle Bioweapons-Informationen ausspucken können, die Sie bei Google oder in Lehrbüchern nicht einfach finden können. Anthropic ist stolz darauf, die KI -Firma zu sein, die die Sicherheit ernst nimmt. Während Amodei nicht der Meinung ist, dass Deepseeks aktuelle Modelle "buchstäblich gefährlich" sind, wenn es darum geht, seltene und riskante Informationen zu liefern, glaubt er, dass sie in naher Zukunft sein könnten. Er lobte Deepseeks Team als "talentierte Ingenieure", forderte das Unternehmen jedoch auf, "diese Sicherheitsüberlegungen für KI ernst zu nehmen". Amodei war auch ein lautstarker Anhänger der starken Exportkontrollen für Chips nach China und befürchtete, dass sie Chinas Militär einen Vorteil verschaffen könnten. Im Chinatalk -Interview gab Amodei nicht an, welches Deepseek -Modell anthropisch getestet wurde oder mehr technische Details zu den Tests enthält. Weder anthropisch noch Deepseek reagierten sofort auf die Anfrage von TechCrunch um einen Kommentar. Deepseeks schneller Aufstieg hat auch an anderen Orten Sicherheitsbedenken ausgelöst. Letzte Woche sagten Cisco -Sicherheitsforscher, dass Deepseek R1 mit einer 100% igen Jailbreak -Erfolgsquote keine schädlichen Aufforderungen in ihren Sicherheitstests blockieren konnte. Während Cisco Biowaffen nicht erwähnte, konnten sie Deepseek dazu bringen, schädliche Informationen über Cyberkriminalität und andere illegale Aktivitäten zu generieren. Es ist jedoch erwähnenswert, dass Metas Lama-3,1-405B und OpenAs GPT-4O auch eine hohe Ausfallraten von 96% bzw. 86% aufwiesen. Es liegt immer noch in der Luft, ob diese Sicherheitsbedenken in Deepseeks rasante Einführung ernsthafte Bedenken aufnehmen werden. Unternehmen wie AWS und Microsoft haben die Integration von R1 öffentlich in ihre Cloud -Plattformen gelobt - was irgendwie ironisch ist, wenn man bedenkt, dass Amazon der größte Investor von Anthropic ist. Auf der anderen Seite haben immer mehr Länder, Unternehmen und insbesondere Regierungsorganisationen wie die US -Marine und das Pentagon begonnen, Deepseek zu verbieten. Nur die Zeit wird zeigen, ob diese Bemühungen an Traktion gewinnen oder ob Deepseeks globaler Anstieg weiterhin stark wird. In jedem Fall betrachtet Amodei Deepseek als einen neuen Konkurrenten, der den Top -KI -Unternehmen der USA entspricht. "Die neue Tatsache hier ist, dass es einen neuen Konkurrenten gibt", sagte er auf Chinatalk. "In den großen Unternehmen, die KI - anthropisch, Openai, Google, vielleicht Meta und Xai - jetzt ausbilden können, wird Deepseek möglicherweise zu dieser Kategorie hinzugefügt."
Verwandter Artikel
Former DeepSeeker and collaborators release new method for training reliable AI agents: RAGEN
The Year of AI Agents: A Closer Look at 2025's Expectations and Realities2025 was heralded by many experts as the year when AI agents—specialized AI systems powered by advanced large language and multimodal models from companies like OpenAI, Anthropic, Google, and DeepSeek—would finally take center
DeepSeek's AIs Uncover True Human Desires
DeepSeek's Breakthrough in AI Reward Models: Enhancing AI Reasoning and Response
Chinese AI startup DeepSeek, in collaboration with Tsinghua University, has achieved a significant milestone in AI research. Their innovative approach to AI reward models promises to revolutionize how AI systems learn
Researchers Develop Open-Source Rival to OpenAI's $50 'Reasoning' Model for Under $50
Last Friday, a groundbreaking research paper from AI experts at Stanford and the University of Washington hit the scene, revealing that they managed to develop an AI "reasoning" model, dubbed s1, for under $50 in cloud compute credits. This revelation is shaking up the AI world, as s1 holds its own
Kommentare (45)
0/200
RichardThomas
11. April 2025 08:18:49 GMT
The CEO's concerns about DeepSeek are legit, but it's wild to think they're failing safety tests on bioweapons data. Makes you wonder what else is going on behind the scenes. I'm kinda spooked but also curious to see how this plays out. Stay safe, folks!
0
WillieRodriguez
11. April 2025 08:18:49 GMT
Las preocupaciones del CEO sobre DeepSeek son serias, pero es increíble pensar que están fallando en las pruebas de seguridad de datos de bioweapons. Me da un poco de miedo pero también curiosidad por ver cómo se desarrolla esto. ¡Mantente seguro, gente!
0
PaulLopez
11. April 2025 08:18:49 GMT
CEOのDeepSeekに対する懸念は本当だが、バイオウェポンのデータの安全性テストに失敗しているなんて信じられない。裏で何が起きているのか気になる。怖いけど、この先どうなるかも興味がある。みんながんばれ!
0
JustinWilliams
11. April 2025 08:18:49 GMT
As preocupações do CEO sobre o DeepSeek são legítimas, mas é louco pensar que eles estão falhando nos testes de segurança de dados de bioweapons. Fica a dúvida sobre o que mais está acontecendo por trás das cenas. Estou um pouco assustado, mas também curioso para ver como isso vai se desenrolar. Fiquem seguros, pessoal!
0
WalterWhite
11. April 2025 08:18:49 GMT
Die Bedenken des CEOs über DeepSeek sind berechtigt, aber es ist verrückt zu denken, dass sie bei Sicherheitstests für Biowaffendaten durchfallen. Man fragt sich, was sonst noch hinter den Kulissen passiert. Ich bin ein bisschen erschrocken, aber auch neugierig, wie sich das entwickelt. Bleibt sicher, Leute!
0
WalterBaker
12. April 2025 18:19:53 GMT
Anthropic CEO's slam on DeepSeek is pretty intense! It's scary to think about AI being used for bioweapons. I hope they can sort out their data safety issues soon. It's a bit of a wake-up call for the whole industry. Stay safe, folks!
0









The CEO's concerns about DeepSeek are legit, but it's wild to think they're failing safety tests on bioweapons data. Makes you wonder what else is going on behind the scenes. I'm kinda spooked but also curious to see how this plays out. Stay safe, folks!




Las preocupaciones del CEO sobre DeepSeek son serias, pero es increíble pensar que están fallando en las pruebas de seguridad de datos de bioweapons. Me da un poco de miedo pero también curiosidad por ver cómo se desarrolla esto. ¡Mantente seguro, gente!




CEOのDeepSeekに対する懸念は本当だが、バイオウェポンのデータの安全性テストに失敗しているなんて信じられない。裏で何が起きているのか気になる。怖いけど、この先どうなるかも興味がある。みんながんばれ!




As preocupações do CEO sobre o DeepSeek são legítimas, mas é louco pensar que eles estão falhando nos testes de segurança de dados de bioweapons. Fica a dúvida sobre o que mais está acontecendo por trás das cenas. Estou um pouco assustado, mas também curioso para ver como isso vai se desenrolar. Fiquem seguros, pessoal!




Die Bedenken des CEOs über DeepSeek sind berechtigt, aber es ist verrückt zu denken, dass sie bei Sicherheitstests für Biowaffendaten durchfallen. Man fragt sich, was sonst noch hinter den Kulissen passiert. Ich bin ein bisschen erschrocken, aber auch neugierig, wie sich das entwickelt. Bleibt sicher, Leute!




Anthropic CEO's slam on DeepSeek is pretty intense! It's scary to think about AI being used for bioweapons. I hope they can sort out their data safety issues soon. It's a bit of a wake-up call for the whole industry. Stay safe, folks!












