選項
首頁 消息 Openai標籤DeepSeek的“國家控制”,敦促禁止對“ PRC生產”型號

Openai標籤DeepSeek的“國家控制”,敦促禁止對“ PRC生產”型號

發布日期 發布日期 2025年04月10日
作者 作者 AnthonyScott
視圖 視圖 13

Openai標籤DeepSeek的“國家控制”,敦促禁止對“ PRC生產”型號

在最近的一項政策提案中,OpenAI將中國AI實驗室DeepSeek標記為“國家補貼”和“國家控制”,這表明美國政府應考慮由DeepSeek開發的禁止模型以及中國人民共和國(PRC)支持的類似行動。

作為特朗普政府“ AI行動計劃”倡議的一部分,該提議提出的提議認為,DeepSeek的模型(例如R1“推理”模型)由於中國法律要求而構成了安全風險,該要求要求遵守政府對用戶數據的要求。 Openai建議在拜登政府的出口規則下禁止在被歸類為“ 1層”的國家 /地區禁止“ PRC生產的”模型,以減輕隱私和安全問題,包括知識產權盜竊的風險。

目前尚不清楚Openai對“模型”的使用是否包括DeepSeek的API,其開放模型或兩者兼而有之。有趣的是,DeepSeek的開放模型沒有內置機制供中國政府訪問用戶數據。取而代之的是,它們由微軟,困惑和亞馬遜等公司主持。

Openai此前曾指責DeepSeek在今年早些時候獲得了認可,該Seek因違反其服務條款而從Openai模型中提取知識。新主張 - 深處是由中國支持和控制的,標誌著Openai與中國實驗室的持續爭議的顯著升級。

沒有直接的證據將DeepSeek(從定量對沖基金高級飛行者)與中國政府聯繫起來。然而,中國最近對DeepSeek表現出越來越興趣,這是DeepSeek創始人Liang Wenfeng與中國領導人Xi Jinping之間的一次會議。

更新了3/15 8:38 PM太平洋:這個故事發生後幾天,OpenAI發言人Liz Bourgeois提供了以下澄清

“我們並不是要使用諸如DeepSeek之類的模型來限制對個人的限制。我們的建議重點是修改我們的出口規則,以使更多國家能夠訪問我們的計算資源,只要他們的數據中心不使用PRC技術,這並不是要構成安全風險的PRC技術。這並不是要限制基於CHIP訪問的基於恐懼的CHIP訪問權限,以使我們的目標會增加企業。我們的目標是增加prc的訪問。我們的目標是訪問更多的國家和更多國家。

Openai自己的AI驅動的深層研究工具將這種說法描述為“模棱兩可,使用偏轉和軟化語言,這在某種程度上與原始提交中更加自信的位置相矛盾。”

相關文章
Former DeepSeeker and collaborators release new method for training reliable AI agents: RAGEN Former DeepSeeker and collaborators release new method for training reliable AI agents: RAGEN The Year of AI Agents: A Closer Look at 2025's Expectations and Realities2025 was heralded by many experts as the year when AI agents—specialized AI systems powered by advanced large language and multimodal models from companies like OpenAI, Anthropic, Google, and DeepSeek—would finally take center
Google Search Introduces 'AI Mode' for Complex, Multi-Part Queries Google Search Introduces 'AI Mode' for Complex, Multi-Part Queries Google Unveils "AI Mode" in Search to Rival Perplexity AI and ChatGPTGoogle is stepping up its game in the AI arena with the launch of an experimental "AI Mode" feature in its Search engine. Aimed at taking on the likes of Perplexity AI and OpenAI's ChatGPT Search, this new mode was announced on Wed
YouTube Backs 'No Fakes Act' to Combat Unauthorized AI Replicas YouTube Backs 'No Fakes Act' to Combat Unauthorized AI Replicas Senators Chris Coons (D-DE) and Marsha Blackburn (R-TN) are once again pushing forward their Nurture Originals, Foster Art, and Keep Entertainment Safe, or NO FAKES, Act. This legislation aims to set clear rules about creating AI-generated copies of someone's face, name, or voice. After being introd
評論 (40)
0/200
FredMartínez
FredMartínez 2025年04月10日 08:02:08

OpenAI calling DeepSeek 'state-controlled' and suggesting a ban? That's a bit harsh, isn't it? I get the security concerns, but shouldn't we be promoting global collaboration in AI instead of drawing lines? Feels like we're heading back to the Cold War era!

RoySmith
RoySmith 2025年04月10日 08:02:08

OpenAIがDeepSeekを「国家管理」と呼び、禁止を提案するなんて、ちょっと厳しすぎませんか?セキュリティの懸念は理解できますが、AIでのグローバルな協力の促進をすべきでは?冷戦時代に戻っている気がします!

FredYoung
FredYoung 2025年04月10日 08:02:08

오픈AI가 DeepSeek을 '국가 통제'라고 부르고 금지를 제안하다니, 너무 심하지 않나요? 보안 우려는 이해하지만, AI에서 글로벌 협력을 촉진해야 하지 않나요? 냉전 시대로 돌아가는 것 같아요!

KeithHarris
KeithHarris 2025年04月10日 08:02:08

OpenAI chamando DeepSeek de 'controlado pelo estado' e sugerindo uma proibição? Isso não é um pouco duro demais? Entendo as preocupações de segurança, mas não deveríamos estar promovendo a colaboração global em IA em vez de traçar linhas? Parece que estamos voltando à era da Guerra Fria!

AlbertThomas
AlbertThomas 2025年04月10日 08:02:08

¿OpenAI llamando a DeepSeek 'controlado por el estado' y sugiriendo una prohibición? ¿No es eso un poco duro? Entiendo las preocupaciones de seguridad, pero ¿no deberíamos estar promoviendo la colaboración global en IA en lugar de trazar líneas? ¡Parece que estamos volviendo a la era de la Guerra Fría!

RalphJackson
RalphJackson 2025年04月10日 12:45:28

OpenAI's move to label DeepSeek as state-controlled feels a bit heavy-handed. I get the security concerns, but outright banning PRC-produced models? That's a bit extreme, isn't it? Maybe we need more nuanced policies rather than just slamming the door shut. Food for thought, OpenAI!

回到頂部
OR