选项
首页
新闻
人类首席执行官猛烈抨击生物武器数据安全测试的DeepSeek

人类首席执行官猛烈抨击生物武器数据安全测试的DeepSeek

2025-04-10
110

人类首席执行官猛烈抨击生物武器数据安全测试的DeepSeek

Anthropic的首席执行官达里奥·阿莫迪(Dario Amodei)对中国AI公司DeepSeek深感担忧,这家公司凭借其R1模型在硅谷掀起了波澜。他的担忧超出了对DeepSeek将用户数据传回中国的常规担忧。

在最近与乔丹·施奈德(Jordan Schneider)的ChinaTalk播客的对话中,阿莫迪透露,DeepSeek的AI模型在Anthropic进行的安全测试中生成了一些关于生物武器的令人担忧的信息。他声称,DeepSeek的表现是“我们测试过的几乎所有模型中最差的”,称其“对生成这类信息完全没有任何限制”。

阿莫迪解释说,这些测试是Anthropic定期评估的一部分,以检查AI模型是否构成国家安全风险。他们特别关注模型是否能生成在Google或教科书中不易找到的与生物武器相关的信息。Anthropic以重视AI安全的AI公司而自豪。

虽然阿莫迪认为DeepSeek当前的模型在提供稀有且危险的信息方面“并非真正危险”,但他认为在不久的将来可能会如此。他称赞DeepSeek的团队是“有才华的工程师”,但敦促该公司“认真对待这些AI安全考量”。

阿莫迪还一直强烈支持对中国实施严格的芯片出口管制,担心这可能为中国军方提供优势。

在ChinaTalk的采访中,阿莫迪没有具体说明Anthropic测试了DeepSeek的哪个模型,也没有提供更多关于测试的技术细节。Anthropic和DeepSeek均未立即回应TechCrunch的评论请求。

DeepSeek的迅速崛起也在其他地方引发了安全担忧。上周,思科(Cisco)安全研究人员表示,DeepSeek R1在其安全测试中未能阻止任何有害提示,实现了100%的越狱成功率。虽然思科没有提到生物武器,但他们能够让DeepSeek生成关于网络犯罪和其他非法活动的有害信息。不过,值得注意的是,Meta的Llama-3.1-405B和OpenAI的GPT-4o的失败率也很高,分别为96%和86%。

这些安全担忧是否会对DeepSeek的快速采用造成重大影响尚不确定。像AWS和微软这样的公司一直在公开赞扬将R1整合到他们的云平台上——这有点讽刺,因为亚马逊是Anthropic的最大投资者。

另一方面,越来越多的国家、公司,尤其是美国海军和五角大楼等政府组织已开始禁止使用DeepSeek。

只有时间才能告诉我们这些努力是否会取得成效,或者DeepSeek的全球崛起是否会继续强劲。无论如何,阿莫迪认为DeepSeek是一个与美国顶级AI公司相当的新竞争者。

“这里的新事实是出现了一个新竞争者,”他在ChinaTalk上说。“在能够训练AI的大公司中——Anthropic、OpenAI、Google、或许还有Meta和xAI——现在DeepSeek可能也被加入了这个行列。”

相关文章
DeepSeek-V3发布:硬件感知AI设计如何降低成本并提升性能 DeepSeek-V3发布:硬件感知AI设计如何降低成本并提升性能 DeepSeek-V3:AI开发的高效成本突破AI行业正处于十字路口。大型语言模型(LLMs)功能日益强大,但计算需求激增,使尖端AI开发对大多数组织而言成本高昂。DeepSeek-V3通过证明智能硬件-软件协同设计——而非单纯的暴力扩展——能以极低成本实现顶尖性能,挑战这一趋势。仅用2,048 NVIDIA H800 GPUs训练,DeepSeek-V3利用了多头潜在注意力(MLA)、专家混合(
DeepSeek-GRM:为企业打造可扩展、高性价比的AI解决方案 DeepSeek-GRM:为企业打造可扩展、高性价比的AI解决方案 深寻-GRM 如果你经营一家企业,你一定知道将人工智能(AI)整合到业务运营中的难度有多大。高昂的成本和技术复杂性常常使先进的AI模型超出小型企业的承受范围。但这就是深寻-GRM 发挥作用的地方,它旨在让AI变得更高效、更易获取,缩小大型科技公司与小型企业之间的差距。深寻-GRM 使用一种名为生成式奖励建模(GRM)的聪明技术来引导AI响应符合人类的实际需求
新技术使DeepSeek和其他模型能够响应敏感的查询 新技术使DeepSeek和其他模型能够响应敏感的查询 从中国的DeepSeek等大型语言模型(LLM)中消除偏见和审查是一个复杂的挑战,引起了美国决策者和商业领袖的关注,他们认为这是潜在的国家安全威胁。美国国会选拔委员会的最新报告标记为深层
评论 (50)
0/200
PeterMartinez
PeterMartinez 2025-04-26 06:16:48

O CEO da Anthropic criticando a DeepSeek é assustador! Se eles não conseguem manter os dados de bioweapons seguros, o que mais estão fazendo de errado? Isso me faz pensar duas vezes sobre usar qualquer AI deles. Espero que resolvam isso rápido! 😱

JimmyGarcia
JimmyGarcia 2025-04-20 13:11:54

Nossa, o CEO da Anthropic realmente detonou a DeepSeek por falhar no teste de segurança de dados de bioweapons! É assustador pensar que empresas de IA não priorizam a segurança. Fica a dúvida sobre o que mais está acontecendo nos bastidores. Mantenha-se seguro, pessoal! 😱

SebastianAnderson
SebastianAnderson 2025-04-20 11:27:58

El fracaso de DeepSeek en la prueba de seguridad de datos de bioweapons es muy preocupante. Preocuparse por la privacidad de los datos es una cosa, pero esto es de otro nivel. El CEO de Anthropic tiene razón al criticarlos. Necesitamos más transparencia y seguridad en la IA, ¡rápido! 😠

StevenAllen
StevenAllen 2025-04-19 01:41:57

딥시크가 생물무기 데이터 안전성 테스트에 실패한 것은 정말 걱정스럽습니다. 데이터 프라이버시는 하나의 문제지만, 이것은 다른 차원의 문제입니다. 안트로픽의 CEO가 그들을 비판하는 것은 옳습니다. AI에는 더 많은 투명성과 안전성이 필요합니다, 급하게요! 😠

RoyLopez
RoyLopez 2025-04-18 04:50:53

Anthropic의 CEO가 DeepSeek의 생물학적 무기 데이터 안전성 테스트 실패에 대해 강력하게 비판했네요! AI 기업이 안전을 우선하지 않는다는 생각이 무섭네요. 뒤에서 무슨 일이 일어나고 있는지 궁금해지네요. 모두 안전하게 하세요! 😱

EdwardTaylor
EdwardTaylor 2025-04-18 02:13:54

AnthropicのCEOがDeepSeekを批判しているのは怖いですね!生物兵器のデータを安全に保てないなんて、他に何をしくじっているんでしょうか?彼らのAIを使うのを再考させられます。早く修正してほしいです!😨

返回顶部
OR