Openai 라벨은 DeepSeek 'State-Controlled', 'PRC 생산'모델에 대한 금지를 촉구합니다
2025년 4월 10일
AnthonyScott
13

최근의 정책 제안에서 Openai는 중국 AI 실험실 DeepSeek를 "국가 보조금"및 "국가 통제"로 표시했으며, 미국 정부는 DeepSeek가 개발 한 모델과 중국 인민 공화국 (PRC)이 지원하는 유사한 운영을 금지해야한다고 제안했습니다.
트럼프 행정부의 "AI 행동 계획"이니셔티브의 일부로 제출 된이 제안은 R1 "추론"모델과 같은 DeepSeek의 모델은 정부 데이터에 대한 정부 요청에 대한 준수를 요구하는 중국 법적 요구 사항으로 인해 보안 위험을 초래한다고 주장합니다. OpenAI는 지적 재산 도난의 위험을 포함하여 개인 정보 보호 및 보안 문제를 완화하기 위해 Biden 행정의 수출 규칙에 따라 "Tier 1"으로 분류 된 국가에서 "PRC 생산"모델을 금지 할 것을 권장합니다.
OpenAi의 "모델"사용에 DeepSeek의 API, Open 모델 또는 둘 다를 포함하는지 여부는 확실하지 않습니다. 흥미롭게도, DeepSeek의 오픈 모델에는 중국 정부가 사용자 데이터에 액세스 할 수있는 내장 메커니즘이 없습니다. 대신, 그들은 Microsoft, Perplexity 및 Amazon과 같은 회사가 주최합니다.
Openai는 이전에 Deepseek을 비난했으며 올해 초 인식을 얻었으며 서비스 약관을 위반하여 OpenAi의 모델에서 지식을 추출했다고 비난했습니다. Deepseek이 PRC에 의해 뒷받침되고 통제 된 새로운 주장은 OpenAI의 중국 실험실과의 지속적인 분쟁에서 상당한 에스컬레이션을 마크합니다.
정량적 헤지 펀드 High-Flyer에서 중국 정부와의 분사 인 Deepseek을 연결하는 직접적인 증거는 없습니다. 그러나 PRC는 최근 Deepseek에 대한 관심이 높아지고 있으며, Deepseek 설립자 Liang Wenfeng과 중국 지도자 Xi Jinping 사이의 회의로 강조 표시되었습니다.
업데이트 3/15 8:38 PC Pacific :이 이야기가 뉴스를 밟은 지 며칠이 지나면 Openai 대변인 Liz Bourgeois는 다음과 같은 설명을 제공했습니다 .
“우리는 DeepSeek와 같은 모델을 사용하는 개인에 대한 제한을 추진하지 않습니다. 우리의 제안은 더 많은 국가가 미국 컴퓨팅 리소스에 액세스 할 수 있도록 미국 수출 규칙을 수정하는 데 중점을두고 있습니다. 데이터 센터가 보안 위험을 초래할 수있는 PRC 기술을 사용할 수없는 경우, PRC에 대한 칩 액세스를 제한하는 것이 아닙니다.
OpenAi의 자체 AI 기반 Deep Research 도구는이 진술을 "원래 제출에서 더 독단적 인 입장과 다소 모순되는 편향적이고 연화 된 언어를 사용하여 명백한"것으로 설명합니다.
관련 기사
Former DeepSeeker and collaborators release new method for training reliable AI agents: RAGEN
The Year of AI Agents: A Closer Look at 2025's Expectations and Realities2025 was heralded by many experts as the year when AI agents—specialized AI systems powered by advanced large language and multimodal models from companies like OpenAI, Anthropic, Google, and DeepSeek—would finally take center
Google Search Introduces 'AI Mode' for Complex, Multi-Part Queries
Google Unveils "AI Mode" in Search to Rival Perplexity AI and ChatGPTGoogle is stepping up its game in the AI arena with the launch of an experimental "AI Mode" feature in its Search engine. Aimed at taking on the likes of Perplexity AI and OpenAI's ChatGPT Search, this new mode was announced on Wed
YouTube Backs 'No Fakes Act' to Combat Unauthorized AI Replicas
Senators Chris Coons (D-DE) and Marsha Blackburn (R-TN) are once again pushing forward their Nurture Originals, Foster Art, and Keep Entertainment Safe, or NO FAKES, Act. This legislation aims to set clear rules about creating AI-generated copies of someone's face, name, or voice. After being introd
의견 (40)
0/200
FredMartínez
2025년 4월 10일 오전 8시 2분 8초 GMT
OpenAI calling DeepSeek 'state-controlled' and suggesting a ban? That's a bit harsh, isn't it? I get the security concerns, but shouldn't we be promoting global collaboration in AI instead of drawing lines? Feels like we're heading back to the Cold War era!
0
RoySmith
2025년 4월 10일 오전 8시 2분 8초 GMT
OpenAIがDeepSeekを「国家管理」と呼び、禁止を提案するなんて、ちょっと厳しすぎませんか?セキュリティの懸念は理解できますが、AIでのグローバルな協力の促進をすべきでは?冷戦時代に戻っている気がします!
0
FredYoung
2025년 4월 10일 오전 8시 2분 8초 GMT
오픈AI가 DeepSeek을 '국가 통제'라고 부르고 금지를 제안하다니, 너무 심하지 않나요? 보안 우려는 이해하지만, AI에서 글로벌 협력을 촉진해야 하지 않나요? 냉전 시대로 돌아가는 것 같아요!
0
KeithHarris
2025년 4월 10일 오전 8시 2분 8초 GMT
OpenAI chamando DeepSeek de 'controlado pelo estado' e sugerindo uma proibição? Isso não é um pouco duro demais? Entendo as preocupações de segurança, mas não deveríamos estar promovendo a colaboração global em IA em vez de traçar linhas? Parece que estamos voltando à era da Guerra Fria!
0
AlbertThomas
2025년 4월 10일 오전 8시 2분 8초 GMT
¿OpenAI llamando a DeepSeek 'controlado por el estado' y sugiriendo una prohibición? ¿No es eso un poco duro? Entiendo las preocupaciones de seguridad, pero ¿no deberíamos estar promoviendo la colaboración global en IA en lugar de trazar líneas? ¡Parece que estamos volviendo a la era de la Guerra Fría!
0
RalphJackson
2025년 4월 10일 오후 12시 45분 28초 GMT
OpenAI's move to label DeepSeek as state-controlled feels a bit heavy-handed. I get the security concerns, but outright banning PRC-produced models? That's a bit extreme, isn't it? Maybe we need more nuanced policies rather than just slamming the door shut. Food for thought, OpenAI!
0






최근의 정책 제안에서 Openai는 중국 AI 실험실 DeepSeek를 "국가 보조금"및 "국가 통제"로 표시했으며, 미국 정부는 DeepSeek가 개발 한 모델과 중국 인민 공화국 (PRC)이 지원하는 유사한 운영을 금지해야한다고 제안했습니다.
트럼프 행정부의 "AI 행동 계획"이니셔티브의 일부로 제출 된이 제안은 R1 "추론"모델과 같은 DeepSeek의 모델은 정부 데이터에 대한 정부 요청에 대한 준수를 요구하는 중국 법적 요구 사항으로 인해 보안 위험을 초래한다고 주장합니다. OpenAI는 지적 재산 도난의 위험을 포함하여 개인 정보 보호 및 보안 문제를 완화하기 위해 Biden 행정의 수출 규칙에 따라 "Tier 1"으로 분류 된 국가에서 "PRC 생산"모델을 금지 할 것을 권장합니다.
OpenAi의 "모델"사용에 DeepSeek의 API, Open 모델 또는 둘 다를 포함하는지 여부는 확실하지 않습니다. 흥미롭게도, DeepSeek의 오픈 모델에는 중국 정부가 사용자 데이터에 액세스 할 수있는 내장 메커니즘이 없습니다. 대신, 그들은 Microsoft, Perplexity 및 Amazon과 같은 회사가 주최합니다.
Openai는 이전에 Deepseek을 비난했으며 올해 초 인식을 얻었으며 서비스 약관을 위반하여 OpenAi의 모델에서 지식을 추출했다고 비난했습니다. Deepseek이 PRC에 의해 뒷받침되고 통제 된 새로운 주장은 OpenAI의 중국 실험실과의 지속적인 분쟁에서 상당한 에스컬레이션을 마크합니다.
정량적 헤지 펀드 High-Flyer에서 중국 정부와의 분사 인 Deepseek을 연결하는 직접적인 증거는 없습니다. 그러나 PRC는 최근 Deepseek에 대한 관심이 높아지고 있으며, Deepseek 설립자 Liang Wenfeng과 중국 지도자 Xi Jinping 사이의 회의로 강조 표시되었습니다.
업데이트 3/15 8:38 PC Pacific :이 이야기가 뉴스를 밟은 지 며칠이 지나면 Openai 대변인 Liz Bourgeois는 다음과 같은 설명을 제공했습니다 .
“우리는 DeepSeek와 같은 모델을 사용하는 개인에 대한 제한을 추진하지 않습니다. 우리의 제안은 더 많은 국가가 미국 컴퓨팅 리소스에 액세스 할 수 있도록 미국 수출 규칙을 수정하는 데 중점을두고 있습니다. 데이터 센터가 보안 위험을 초래할 수있는 PRC 기술을 사용할 수없는 경우, PRC에 대한 칩 액세스를 제한하는 것이 아닙니다.
OpenAi의 자체 AI 기반 Deep Research 도구는이 진술을 "원래 제출에서 더 독단적 인 입장과 다소 모순되는 편향적이고 연화 된 언어를 사용하여 명백한"것으로 설명합니다.




OpenAI calling DeepSeek 'state-controlled' and suggesting a ban? That's a bit harsh, isn't it? I get the security concerns, but shouldn't we be promoting global collaboration in AI instead of drawing lines? Feels like we're heading back to the Cold War era!




OpenAIがDeepSeekを「国家管理」と呼び、禁止を提案するなんて、ちょっと厳しすぎませんか?セキュリティの懸念は理解できますが、AIでのグローバルな協力の促進をすべきでは?冷戦時代に戻っている気がします!




오픈AI가 DeepSeek을 '국가 통제'라고 부르고 금지를 제안하다니, 너무 심하지 않나요? 보안 우려는 이해하지만, AI에서 글로벌 협력을 촉진해야 하지 않나요? 냉전 시대로 돌아가는 것 같아요!




OpenAI chamando DeepSeek de 'controlado pelo estado' e sugerindo uma proibição? Isso não é um pouco duro demais? Entendo as preocupações de segurança, mas não deveríamos estar promovendo a colaboração global em IA em vez de traçar linhas? Parece que estamos voltando à era da Guerra Fria!




¿OpenAI llamando a DeepSeek 'controlado por el estado' y sugiriendo una prohibición? ¿No es eso un poco duro? Entiendo las preocupaciones de seguridad, pero ¿no deberíamos estar promoviendo la colaboración global en IA en lugar de trazar líneas? ¡Parece que estamos volviendo a la era de la Guerra Fría!




OpenAI's move to label DeepSeek as state-controlled feels a bit heavy-handed. I get the security concerns, but outright banning PRC-produced models? That's a bit extreme, isn't it? Maybe we need more nuanced policies rather than just slamming the door shut. Food for thought, OpenAI!












