オプション
ニュース
人類のCEOは、生物兵器の安全テストに失敗したためにディープシークを叩きます

人類のCEOは、生物兵器の安全テストに失敗したためにディープシークを叩きます

2025年4月10日
110

人類のCEOは、生物兵器の安全テストに失敗したためにディープシークを叩きます

AnthropicのCEO、ダリオ・アモディは、中国のAI企業DeepSeekについて深刻な懸念を抱いています。この企業は、シリコンバレーでそのR1モデルによって注目を集めています。彼の懸念は、DeepSeekがユーザーデータを中国に送り返すという一般的な懸念を超えるものです。

ジョーダン・シュナイダーのChinaTalkポッドキャストでの最近の対談で、アモディは、Anthropicが行った安全テストでDeepSeekのAIモデルが生物兵器に関する非常に恐ろしい情報を生成したと明らかにしました。彼は、DeepSeekのパフォーマンスが「これまでテストしたどのモデルよりも最悪だった」と述べ、「この情報の生成に対して全くブロックがない」と語りました。

アモディは、これらのテストは、AIモデルが国家安全保障上のリスクをもたらすかどうかを確認するためにAnthropicが定期的に行っている評価の一部だと説明しました。特に、Googleや教科書では簡単に見つけられない生物兵器関連の情報をモデルが吐き出すかどうかを調べています。Anthropicは、AIの安全性を真剣に考えるAI企業であることを誇りにしています。

アモディは、DeepSeekの現在のモデルが希少で危険な情報を提供する点で「文字通り危険」とは考えていませんが、近い将来そうなる可能性があると信じています。彼はDeepSeekのチームを「才能あるエンジニア」と称賛しましたが、企業に対して「これらのAIの安全性の考慮を真剣に受け止める」よう促しました。

アモディはまた、中国へのチップの強力な輸出規制の支持者でもあり、それらが中国の軍事力に優位性を与える可能性があると懸念しています。

ChinaTalkのインタビューで、アモディはAnthropicがどのDeepSeekモデルをテストしたか、またはテストに関するさらに技術的な詳細を提供しませんでした。AnthropicもDeepSeekも、TechCrunchのコメント要求にすぐには応じませんでした。

DeepSeekの急速な台頭は、他の場所でも安全性の懸念を引き起こしています。先週、シスコのセキュリティ研究者は、DeepSeek R1が安全テストで有害なプロンプトを全くブロックできず、100%のジェイルブレイク成功率だったと述べました。シスコは生物兵器には言及しませんでしたが、DeepSeekがサイバー犯罪やその他の違法行為に関する有害な情報を生成できたと報告しました。ただし、MetaのLlama-3.1-405BやOpenAIのGPT-4oもそれぞれ96%と86%という高い失敗率を示した点は注目に値します。

これらの安全性の懸念がDeepSeekの急速な普及に深刻な打撃を与えるかどうかは、まだ不透明です。AWSやMicrosoftのような企業は、R1をクラウドプラットフォームに統合することを公に称賛しています。これは、AmazonがAnthropicの最大の投資家であることを考えると、少々皮肉なことです。

一方で、米国海軍やペンタゴンなどの政府機関を含む、ますます多くの国や企業がDeepSeekの使用を禁止し始めています。

これらの取り組みが勢いを増すのか、DeepSeekのグローバルな台頭が力強く続くのかは、時間が経ってみなければわかりません。いずれにせよ、アモディはDeepSeekを米国トップのAI企業と同等レベルの新たな競争相手と見なしています。

「ここでの新しい事実は、新たな競争相手が現れたことです」と彼はChinaTalkで述べました。「AIを訓練できる大企業—Anthropic、OpenAI、Google、Meta、xAI—に、今、DeepSeekが加わるかもしれないのです。」

関連記事
DeepSeek-V3公開:ハードウェア対応AI設計がコスト削減と性能向上を実現 DeepSeek-V3公開:ハードウェア対応AI設計がコスト削減と性能向上を実現 DeepSeek-V3:AI開発におけるコスト効率の飛躍AI産業は岐路に立っている。大規模言語モデル(LLM)の性能が向上する一方で、計算需要が急増し、最先端のAI開発はほとんどの組織にとって高額すぎる。DeepSeek-V3は、インテリジェントなハードウェア-ソフトウェア協調設計—単なる力任せのスケーリングではなく—が最先端の性能を低コストで実現できることを証明している。2,048 NVIDIA
DeepSeek-GRM:企業向けのスケーラブルでコスト効率の高いAIを革新 DeepSeek-GRM:企業向けのスケーラブルでコスト効率の高いAIを革新 ビジネスを運営しているなら、人工知能(AI)を業務に統合するのはどれだけ難しいかわかるはずです。高度なAIモデルの高コストと技術的な複雑さにより、多くの中小企業にとって手が届きにくい存在となっています。しかし、それがDeepSeek-GRMの出番です。DeepSeek-GRMは、AIをより効率的かつアクセスしやすくし、大手テック企業と中小企業の間のギャップを
新しいテクニックにより、DeepSeekやその他のモデルが敏感なクエリに応答することができます 新しいテクニックにより、DeepSeekやその他のモデルが敏感なクエリに応答することができます 中国のDeepSeekのように、大規模な言語モデル(LLMS)からバイアスと検閲を削除することは、米国の政策立案者とビジネスリーダーの注目を集めている複雑な挑戦であり、それを潜在的な国家安全保障の脅威と見なしています。 Deepsというラベルのある米国議会選択委員会からの最近の報告
コメント (50)
0/200
PeterMartinez
PeterMartinez 2025年4月26日 7:16:48 JST

O CEO da Anthropic criticando a DeepSeek é assustador! Se eles não conseguem manter os dados de bioweapons seguros, o que mais estão fazendo de errado? Isso me faz pensar duas vezes sobre usar qualquer AI deles. Espero que resolvam isso rápido! 😱

JimmyGarcia
JimmyGarcia 2025年4月20日 14:11:54 JST

Nossa, o CEO da Anthropic realmente detonou a DeepSeek por falhar no teste de segurança de dados de bioweapons! É assustador pensar que empresas de IA não priorizam a segurança. Fica a dúvida sobre o que mais está acontecendo nos bastidores. Mantenha-se seguro, pessoal! 😱

SebastianAnderson
SebastianAnderson 2025年4月20日 12:27:58 JST

El fracaso de DeepSeek en la prueba de seguridad de datos de bioweapons es muy preocupante. Preocuparse por la privacidad de los datos es una cosa, pero esto es de otro nivel. El CEO de Anthropic tiene razón al criticarlos. Necesitamos más transparencia y seguridad en la IA, ¡rápido! 😠

StevenAllen
StevenAllen 2025年4月19日 2:41:57 JST

딥시크가 생물무기 데이터 안전성 테스트에 실패한 것은 정말 걱정스럽습니다. 데이터 프라이버시는 하나의 문제지만, 이것은 다른 차원의 문제입니다. 안트로픽의 CEO가 그들을 비판하는 것은 옳습니다. AI에는 더 많은 투명성과 안전성이 필요합니다, 급하게요! 😠

RoyLopez
RoyLopez 2025年4月18日 5:50:53 JST

Anthropic의 CEO가 DeepSeek의 생물학적 무기 데이터 안전성 테스트 실패에 대해 강력하게 비판했네요! AI 기업이 안전을 우선하지 않는다는 생각이 무섭네요. 뒤에서 무슨 일이 일어나고 있는지 궁금해지네요. 모두 안전하게 하세요! 😱

EdwardTaylor
EdwardTaylor 2025年4月18日 3:13:54 JST

AnthropicのCEOがDeepSeekを批判しているのは怖いですね!生物兵器のデータを安全に保てないなんて、他に何をしくじっているんでしょうか?彼らのAIを使うのを再考させられます。早く修正してほしいです!😨

トップに戻ります
OR