選項
首頁
新聞
人類首席執行官猛烈抨擊生物武器數據安全測試的DeepSeek

人類首席執行官猛烈抨擊生物武器數據安全測試的DeepSeek

2025-04-10
110

人類首席執行官猛烈抨擊生物武器數據安全測試的DeepSeek

Anthropic的首席執行官Dario Amodei對中國AI公司DeepSeek深感憂慮,這家公司憑藉其R1模型在矽谷掀起波瀾。他的擔憂不僅限於DeepSeek將用戶數據傳回中國的常見恐懼。

在近期Jordan Schneider的ChinaTalk播客對談中,Amodei透露,DeepSeek的AI模型在Anthropic進行的安全測試中生成了一些關於生物武器的令人震驚的資訊。他聲稱DeepSeek的表現是「我們測試過的幾乎所有模型中最差的」,表示它「對生成這些資訊完全沒有任何防護措施」。

Amodei解釋說,這些測試是Anthropic定期評估的一部分,用以檢查AI模型是否構成國家安全風險。他們特別關注模型是否能生成Google或教科書上不易找到的生物武器相關資訊。Anthropic以重視安全的AI公司自居。

雖然Amodei認為DeepSeek目前的模型在提供稀有且危險的資訊方面「尚未真正危險」,但他相信在不久的將來可能會變得危險。他稱讚DeepSeek的團隊是「才華洋溢的工程師」,但敦促該公司「認真對待這些AI安全考量」。

Amodei也一直是對中國實施強硬晶片出口管制的積極支持者,擔心這可能為中國軍方帶來優勢。

在ChinaTalk的訪談中,Amodei未具體說明Anthropic測試了DeepSeek的哪個模型,也未提供更多技術細節。Anthropic和DeepSeek均未立即回應TechCrunch的評論請求。

DeepSeek的快速崛起也在其他地方引發了安全擔憂。上週,Cisco安全研究人員表示,DeepSeek R1在安全測試中未能阻止任何有害提示,實現了100%的越獄成功率。雖然Cisco未提及生物武器,但他們成功讓DeepSeek生成了關於網路犯罪和其他非法活動的有害資訊。不過值得注意的是,Meta的Llama-3.1-405B和OpenAI的GPT-4o的失敗率分別高達96%和86%。

這些安全問題是否會嚴重影響DeepSeek的快速採用仍未可知。AWS和Microsoft等公司公開讚揚將R1整合到其雲端平台——這有點諷刺,因為Amazon是Anthropic的最大投資者。

另一方面,越來越多的國家、公司,特別是美國海軍和五角大廈等政府組織已開始禁止使用DeepSeek。

只有時間能證明這些努力是否會取得成效,或者DeepSeek的全球崛起是否會繼續強勁。無論如何,Amodei認為DeepSeek是與美國頂尖AI公司齊名的新競爭者。

「這裡的新事實是出現了一個新競爭者,」他在ChinaTalk上說。「在能夠訓練AI的大公司中——Anthropic、OpenAI、Google,或許還有Meta和xAI——現在DeepSeek可能也加入了這個行列。」

相關文章
DeepSeek-V3揭曉:硬體感知AI設計如何降低成本並提升效能 DeepSeek-V3揭曉:硬體感知AI設計如何降低成本並提升效能 DeepSeek-V3:AI發展的成本效益飛躍AI產業正處於十字路口。雖然大型語言模型(LLMs)日益強大,其運算需求卻急劇上升,使尖端AI開發對大多數組織而言成本過高。DeepSeek-V3透過證明智慧硬體-軟體協同設計—而非僅靠暴力擴展—能在成本僅為一小部分的情況下實現頂尖效能,挑戰此趨勢。僅在2,048 NVIDIA H800 GPUs上訓練,DeepSeek-V3利用多頭潛在注意力(MLA
DeepSeek-GRM:為企業打造可擴展、高性價比的AI解決方案 DeepSeek-GRM:為企業打造可擴展、高性價比的AI解決方案 如果你經營著一家企業,你就知道將人工智慧(AI)整合到你的營運中有多麼艱難。高昂的成本和技術複雜性往往使先進的AI模型超出小型公司的能力範圍。但這就是DeepSeek-GRM的切入點,旨在使AI更加高效且易於取得,縮小大型科技公司與小型企業之間的差距。DeepSeek-GRM 使用一種稱為生成式獎勵建模(GRM)的聰明技術來引導AI回應更符合人類的需求。這一
新技術使DeepSeek和其他模型能夠響應敏感的查詢 新技術使DeepSeek和其他模型能夠響應敏感的查詢 從中國的DeepSeek等大型語言模型(LLM)中消除偏見和審查是一個複雜的挑戰,引起了美國決策者和商業領袖的關注,他們認為這是潛在的國家安全威脅。美國國會選拔委員會的最新報告標記為深層
評論 (50)
0/200
PeterMartinez
PeterMartinez 2025-04-26 06:16:48

O CEO da Anthropic criticando a DeepSeek é assustador! Se eles não conseguem manter os dados de bioweapons seguros, o que mais estão fazendo de errado? Isso me faz pensar duas vezes sobre usar qualquer AI deles. Espero que resolvam isso rápido! 😱

JimmyGarcia
JimmyGarcia 2025-04-20 13:11:54

Nossa, o CEO da Anthropic realmente detonou a DeepSeek por falhar no teste de segurança de dados de bioweapons! É assustador pensar que empresas de IA não priorizam a segurança. Fica a dúvida sobre o que mais está acontecendo nos bastidores. Mantenha-se seguro, pessoal! 😱

SebastianAnderson
SebastianAnderson 2025-04-20 11:27:58

El fracaso de DeepSeek en la prueba de seguridad de datos de bioweapons es muy preocupante. Preocuparse por la privacidad de los datos es una cosa, pero esto es de otro nivel. El CEO de Anthropic tiene razón al criticarlos. Necesitamos más transparencia y seguridad en la IA, ¡rápido! 😠

StevenAllen
StevenAllen 2025-04-19 01:41:57

딥시크가 생물무기 데이터 안전성 테스트에 실패한 것은 정말 걱정스럽습니다. 데이터 프라이버시는 하나의 문제지만, 이것은 다른 차원의 문제입니다. 안트로픽의 CEO가 그들을 비판하는 것은 옳습니다. AI에는 더 많은 투명성과 안전성이 필요합니다, 급하게요! 😠

RoyLopez
RoyLopez 2025-04-18 04:50:53

Anthropic의 CEO가 DeepSeek의 생물학적 무기 데이터 안전성 테스트 실패에 대해 강력하게 비판했네요! AI 기업이 안전을 우선하지 않는다는 생각이 무섭네요. 뒤에서 무슨 일이 일어나고 있는지 궁금해지네요. 모두 안전하게 하세요! 😱

EdwardTaylor
EdwardTaylor 2025-04-18 02:13:54

AnthropicのCEOがDeepSeekを批判しているのは怖いですね!生物兵器のデータを安全に保てないなんて、他に何をしくじっているんでしょうか?彼らのAIを使うのを再考させられます。早く修正してほしいです!😨

回到頂部
OR