

O OpenAi rotula Deepseek 'Estado controlado,' pede a proibição de modelos 'produzidos na PRC'
10 de Abril de 2025
AnthonyScott
13

Em uma proposta de política recente, o Openai rotulou o laboratório chinês de AI Deepseek como "subsidiado pelo estado" e "controlado pelo estado", sugerindo que o governo dos EUA deve contemplar a proibição de modelos desenvolvidos por operações profundas e similares apoiadas pela República Popular da China (PRC).
Esta proposta, enviada como parte da iniciativa "AI Ação da AI" do governo Trump, argumenta que os modelos da Deepseek, como seu modelo de "raciocínio" R1, apresentam riscos de segurança devido a requisitos legais chineses que exigem a conformidade com os pedidos do governo para dados do usuário. O OpenAI recomenda proibir modelos "produzidos na RPC" em países classificados como "Nível 1" sob as regras de exportação do governo Biden para mitigar preocupações de privacidade e segurança, incluindo o risco de roubo de propriedade intelectual.
Não está claro se o uso de "modelos" pelo OpenAi inclui a API da Deepseek, seus modelos abertos ou ambos. Curiosamente, os modelos abertos da Deepseek não têm mecanismos internos para o governo chinês acessar dados do usuário; Em vez disso, eles são hospedados por empresas como Microsoft, Perplexity e Amazon.
O Openai acusou anteriormente Deepseek, que ganhou reconhecimento no início deste ano, de extrair conhecimento dos modelos da Openai, violando seus termos de serviço. As novas reivindicações - que Deepseek são apoiadas e controladas pela RPC - marcam uma escalada significativa na disputa em andamento do Openai com o laboratório chinês.
Não há evidências diretas que ligem o Deepseek, um spin-off do fundo quantitativo de hedge high-flyer, ao governo chinês. No entanto, a RPC demonstrou um interesse crescente em Deepseek recentemente, destacado por uma reunião entre o fundador da Deepseek, Liang Wenfeng, e o líder chinês Xi Jinping há algumas semanas.
ATUALIZADO 15/25 20:38 Pacífico: Dias após essa história chegar às notícias, a porta -voz do Openai Liz Bourgeois forneceu o seguinte esclarecimento :
“Não estamos pressionando por restrições a indivíduos que usam modelos como a DeepSeek. Nossa proposta se concentra na modificação das regras de exportação dos EUA para permitir que mais países acessem os recursos de computação nos EUA, desde que seus datacenters não usem a tecnologia PRC que possa representar riscos de segurança. Nosso objetivo não é sobre limitar o acesso do Chip com base em mais de países e, com o acesso a mais, o que é mais para o acesso ao acesso ao acesso a que mais é para o acesso a que o acesso a mais.
A própria ferramenta de pesquisa profunda de AI da OpenAI descreve essa afirmação como "equívoca, usando linguagem deflectiva e amolecedora que contradiz um pouco a posição mais assertiva na submissão original".
Artigo relacionado
Former DeepSeeker and collaborators release new method for training reliable AI agents: RAGEN
The Year of AI Agents: A Closer Look at 2025's Expectations and Realities2025 was heralded by many experts as the year when AI agents—specialized AI systems powered by advanced large language and multimodal models from companies like OpenAI, Anthropic, Google, and DeepSeek—would finally take center
Google Search Introduces 'AI Mode' for Complex, Multi-Part Queries
Google Unveils "AI Mode" in Search to Rival Perplexity AI and ChatGPTGoogle is stepping up its game in the AI arena with the launch of an experimental "AI Mode" feature in its Search engine. Aimed at taking on the likes of Perplexity AI and OpenAI's ChatGPT Search, this new mode was announced on Wed
YouTube Backs 'No Fakes Act' to Combat Unauthorized AI Replicas
Senators Chris Coons (D-DE) and Marsha Blackburn (R-TN) are once again pushing forward their Nurture Originals, Foster Art, and Keep Entertainment Safe, or NO FAKES, Act. This legislation aims to set clear rules about creating AI-generated copies of someone's face, name, or voice. After being introd
Comentários (40)
0/200
FredMartínez
10 de Abril de 2025 à8 08:02:08 GMT
OpenAI calling DeepSeek 'state-controlled' and suggesting a ban? That's a bit harsh, isn't it? I get the security concerns, but shouldn't we be promoting global collaboration in AI instead of drawing lines? Feels like we're heading back to the Cold War era!
0
RoySmith
10 de Abril de 2025 à8 08:02:08 GMT
OpenAIがDeepSeekを「国家管理」と呼び、禁止を提案するなんて、ちょっと厳しすぎませんか?セキュリティの懸念は理解できますが、AIでのグローバルな協力の促進をすべきでは?冷戦時代に戻っている気がします!
0
FredYoung
10 de Abril de 2025 à8 08:02:08 GMT
오픈AI가 DeepSeek을 '국가 통제'라고 부르고 금지를 제안하다니, 너무 심하지 않나요? 보안 우려는 이해하지만, AI에서 글로벌 협력을 촉진해야 하지 않나요? 냉전 시대로 돌아가는 것 같아요!
0
KeithHarris
10 de Abril de 2025 à8 08:02:08 GMT
OpenAI chamando DeepSeek de 'controlado pelo estado' e sugerindo uma proibição? Isso não é um pouco duro demais? Entendo as preocupações de segurança, mas não deveríamos estar promovendo a colaboração global em IA em vez de traçar linhas? Parece que estamos voltando à era da Guerra Fria!
0
AlbertThomas
10 de Abril de 2025 à8 08:02:08 GMT
¿OpenAI llamando a DeepSeek 'controlado por el estado' y sugiriendo una prohibición? ¿No es eso un poco duro? Entiendo las preocupaciones de seguridad, pero ¿no deberíamos estar promoviendo la colaboración global en IA en lugar de trazar líneas? ¡Parece que estamos volviendo a la era de la Guerra Fría!
0
RalphJackson
10 de Abril de 2025 à28 12:45:28 GMT
OpenAI's move to label DeepSeek as state-controlled feels a bit heavy-handed. I get the security concerns, but outright banning PRC-produced models? That's a bit extreme, isn't it? Maybe we need more nuanced policies rather than just slamming the door shut. Food for thought, OpenAI!
0






Em uma proposta de política recente, o Openai rotulou o laboratório chinês de AI Deepseek como "subsidiado pelo estado" e "controlado pelo estado", sugerindo que o governo dos EUA deve contemplar a proibição de modelos desenvolvidos por operações profundas e similares apoiadas pela República Popular da China (PRC).
Esta proposta, enviada como parte da iniciativa "AI Ação da AI" do governo Trump, argumenta que os modelos da Deepseek, como seu modelo de "raciocínio" R1, apresentam riscos de segurança devido a requisitos legais chineses que exigem a conformidade com os pedidos do governo para dados do usuário. O OpenAI recomenda proibir modelos "produzidos na RPC" em países classificados como "Nível 1" sob as regras de exportação do governo Biden para mitigar preocupações de privacidade e segurança, incluindo o risco de roubo de propriedade intelectual.
Não está claro se o uso de "modelos" pelo OpenAi inclui a API da Deepseek, seus modelos abertos ou ambos. Curiosamente, os modelos abertos da Deepseek não têm mecanismos internos para o governo chinês acessar dados do usuário; Em vez disso, eles são hospedados por empresas como Microsoft, Perplexity e Amazon.
O Openai acusou anteriormente Deepseek, que ganhou reconhecimento no início deste ano, de extrair conhecimento dos modelos da Openai, violando seus termos de serviço. As novas reivindicações - que Deepseek são apoiadas e controladas pela RPC - marcam uma escalada significativa na disputa em andamento do Openai com o laboratório chinês.
Não há evidências diretas que ligem o Deepseek, um spin-off do fundo quantitativo de hedge high-flyer, ao governo chinês. No entanto, a RPC demonstrou um interesse crescente em Deepseek recentemente, destacado por uma reunião entre o fundador da Deepseek, Liang Wenfeng, e o líder chinês Xi Jinping há algumas semanas.
ATUALIZADO 15/25 20:38 Pacífico: Dias após essa história chegar às notícias, a porta -voz do Openai Liz Bourgeois forneceu o seguinte esclarecimento :
“Não estamos pressionando por restrições a indivíduos que usam modelos como a DeepSeek. Nossa proposta se concentra na modificação das regras de exportação dos EUA para permitir que mais países acessem os recursos de computação nos EUA, desde que seus datacenters não usem a tecnologia PRC que possa representar riscos de segurança. Nosso objetivo não é sobre limitar o acesso do Chip com base em mais de países e, com o acesso a mais, o que é mais para o acesso ao acesso ao acesso a que mais é para o acesso a que o acesso a mais.
A própria ferramenta de pesquisa profunda de AI da OpenAI descreve essa afirmação como "equívoca, usando linguagem deflectiva e amolecedora que contradiz um pouco a posição mais assertiva na submissão original".




OpenAI calling DeepSeek 'state-controlled' and suggesting a ban? That's a bit harsh, isn't it? I get the security concerns, but shouldn't we be promoting global collaboration in AI instead of drawing lines? Feels like we're heading back to the Cold War era!




OpenAIがDeepSeekを「国家管理」と呼び、禁止を提案するなんて、ちょっと厳しすぎませんか?セキュリティの懸念は理解できますが、AIでのグローバルな協力の促進をすべきでは?冷戦時代に戻っている気がします!




오픈AI가 DeepSeek을 '국가 통제'라고 부르고 금지를 제안하다니, 너무 심하지 않나요? 보안 우려는 이해하지만, AI에서 글로벌 협력을 촉진해야 하지 않나요? 냉전 시대로 돌아가는 것 같아요!




OpenAI chamando DeepSeek de 'controlado pelo estado' e sugerindo uma proibição? Isso não é um pouco duro demais? Entendo as preocupações de segurança, mas não deveríamos estar promovendo a colaboração global em IA em vez de traçar linhas? Parece que estamos voltando à era da Guerra Fria!




¿OpenAI llamando a DeepSeek 'controlado por el estado' y sugiriendo una prohibición? ¿No es eso un poco duro? Entiendo las preocupaciones de seguridad, pero ¿no deberíamos estar promoviendo la colaboración global en IA en lugar de trazar líneas? ¡Parece que estamos volviendo a la era de la Guerra Fría!




OpenAI's move to label DeepSeek as state-controlled feels a bit heavy-handed. I get the security concerns, but outright banning PRC-produced models? That's a bit extreme, isn't it? Maybe we need more nuanced policies rather than just slamming the door shut. Food for thought, OpenAI!












