Openai Labels Deepseek `` contrôlé par l'État ''
10 avril 2025
AnthonyScott
13

Dans une récente proposition de politique, OpenAI a qualifié le laboratoire de l'IA chinois dee Deepseek comme "subventionné par l'État" et "contrôlé par l'État", suggérant que le gouvernement américain devrait envisager d'interdire les modèles développés par des opérations profondes et similaires soutenues par la République populaire de Chine (PRC).
Cette proposition, soumise dans le cadre de l'initiative "Plan d'action AI" de l'administration Trump, fait valoir que les modèles de Deepseek, tels que son modèle de "raisonnement" R1, présentent des risques de sécurité en raison des exigences légales chinoises qui obligent le respect des demandes gouvernementales de données d'utilisation. OpenAI recommande d'interdire les modèles «produits par la RPC» dans les pays classés comme «niveau 1» en vertu des règles d'exportation de l'administration Biden pour atténuer les problèmes de confidentialité et de sécurité, y compris le risque de vol de propriété intellectuelle.
Il n'est pas clair si l'utilisation d'Openai des "modèles" comprend l'API de Deepseek, ses modèles ouverts, ou les deux. Fait intéressant, les modèles ouverts de Deepseek n'ont pas de mécanismes intégrés pour le gouvernement chinois pour accéder aux données des utilisateurs; Au lieu de cela, ils sont hébergés par des entreprises comme Microsoft, Perplexity et Amazon.
OpenAI a précédemment accusé Deepseek, qui a été reconnu plus tôt cette année, d'extraire des connaissances des modèles d'Openai en violation de ses conditions de service. Les nouvelles affirmations - que Deepseek est soutenue et contrôlée par la RPC - ont mis en place une escalade significative dans le différend en cours d'Openai avec le laboratoire chinois.
Il n'y a aucune preuve directe reliant Deepseek, un spin-off du Fonds de spéléciers quantitatifs élevé, au gouvernement chinois. Cependant, la RPC a récemment montré un intérêt croissant pour Deepseek, souligné par une réunion entre le fondateur Deepseek Liang Wenfeng et le chef chinois Xi Jinping il y a quelques semaines.
Mis à jour 3/15 20:38 PM PACIFIQUE: Days après cette histoire, la porte-parole d'Openai Liz Bourgeois a fourni la clarification suivante :
«Nous ne faisons pas pression pour des restrictions sur les individus utilisant des modèles comme Deepseek. Notre proposition se concentre sur la modification des règles d'exportation américaines pour permettre à davantage de pays d'accéder aux ressources informatiques américaines, à condition que leurs données de données n'utilisent pas la technologie de la RPC qui pourrait poser des risques de sécurité. Il ne s'agit pas de limiter l'accès aux puces en fonction de plus de craintes et de personnes.»
L'outil de recherche en profondeur propulsé par l'Openai décrit cette déclaration comme "équivoque, en utilisant un langage déflecteur et adoucissant qui contredit quelque peu la position plus affirmée dans la soumission d'origine".
Article connexe
Former DeepSeeker and collaborators release new method for training reliable AI agents: RAGEN
The Year of AI Agents: A Closer Look at 2025's Expectations and Realities2025 was heralded by many experts as the year when AI agents—specialized AI systems powered by advanced large language and multimodal models from companies like OpenAI, Anthropic, Google, and DeepSeek—would finally take center
Google Search Introduces 'AI Mode' for Complex, Multi-Part Queries
Google Unveils "AI Mode" in Search to Rival Perplexity AI and ChatGPTGoogle is stepping up its game in the AI arena with the launch of an experimental "AI Mode" feature in its Search engine. Aimed at taking on the likes of Perplexity AI and OpenAI's ChatGPT Search, this new mode was announced on Wed
YouTube Backs 'No Fakes Act' to Combat Unauthorized AI Replicas
Senators Chris Coons (D-DE) and Marsha Blackburn (R-TN) are once again pushing forward their Nurture Originals, Foster Art, and Keep Entertainment Safe, or NO FAKES, Act. This legislation aims to set clear rules about creating AI-generated copies of someone's face, name, or voice. After being introd
commentaires (40)
0/200
FredMartínez
10 avril 2025 08:02:08 UTC
OpenAI calling DeepSeek 'state-controlled' and suggesting a ban? That's a bit harsh, isn't it? I get the security concerns, but shouldn't we be promoting global collaboration in AI instead of drawing lines? Feels like we're heading back to the Cold War era!
0
RoySmith
10 avril 2025 08:02:08 UTC
OpenAIがDeepSeekを「国家管理」と呼び、禁止を提案するなんて、ちょっと厳しすぎませんか?セキュリティの懸念は理解できますが、AIでのグローバルな協力の促進をすべきでは?冷戦時代に戻っている気がします!
0
FredYoung
10 avril 2025 08:02:08 UTC
오픈AI가 DeepSeek을 '국가 통제'라고 부르고 금지를 제안하다니, 너무 심하지 않나요? 보안 우려는 이해하지만, AI에서 글로벌 협력을 촉진해야 하지 않나요? 냉전 시대로 돌아가는 것 같아요!
0
KeithHarris
10 avril 2025 08:02:08 UTC
OpenAI chamando DeepSeek de 'controlado pelo estado' e sugerindo uma proibição? Isso não é um pouco duro demais? Entendo as preocupações de segurança, mas não deveríamos estar promovendo a colaboração global em IA em vez de traçar linhas? Parece que estamos voltando à era da Guerra Fria!
0
AlbertThomas
10 avril 2025 08:02:08 UTC
¿OpenAI llamando a DeepSeek 'controlado por el estado' y sugiriendo una prohibición? ¿No es eso un poco duro? Entiendo las preocupaciones de seguridad, pero ¿no deberíamos estar promoviendo la colaboración global en IA en lugar de trazar líneas? ¡Parece que estamos volviendo a la era de la Guerra Fría!
0
RalphJackson
10 avril 2025 12:45:28 UTC
OpenAI's move to label DeepSeek as state-controlled feels a bit heavy-handed. I get the security concerns, but outright banning PRC-produced models? That's a bit extreme, isn't it? Maybe we need more nuanced policies rather than just slamming the door shut. Food for thought, OpenAI!
0






Dans une récente proposition de politique, OpenAI a qualifié le laboratoire de l'IA chinois dee Deepseek comme "subventionné par l'État" et "contrôlé par l'État", suggérant que le gouvernement américain devrait envisager d'interdire les modèles développés par des opérations profondes et similaires soutenues par la République populaire de Chine (PRC).
Cette proposition, soumise dans le cadre de l'initiative "Plan d'action AI" de l'administration Trump, fait valoir que les modèles de Deepseek, tels que son modèle de "raisonnement" R1, présentent des risques de sécurité en raison des exigences légales chinoises qui obligent le respect des demandes gouvernementales de données d'utilisation. OpenAI recommande d'interdire les modèles «produits par la RPC» dans les pays classés comme «niveau 1» en vertu des règles d'exportation de l'administration Biden pour atténuer les problèmes de confidentialité et de sécurité, y compris le risque de vol de propriété intellectuelle.
Il n'est pas clair si l'utilisation d'Openai des "modèles" comprend l'API de Deepseek, ses modèles ouverts, ou les deux. Fait intéressant, les modèles ouverts de Deepseek n'ont pas de mécanismes intégrés pour le gouvernement chinois pour accéder aux données des utilisateurs; Au lieu de cela, ils sont hébergés par des entreprises comme Microsoft, Perplexity et Amazon.
OpenAI a précédemment accusé Deepseek, qui a été reconnu plus tôt cette année, d'extraire des connaissances des modèles d'Openai en violation de ses conditions de service. Les nouvelles affirmations - que Deepseek est soutenue et contrôlée par la RPC - ont mis en place une escalade significative dans le différend en cours d'Openai avec le laboratoire chinois.
Il n'y a aucune preuve directe reliant Deepseek, un spin-off du Fonds de spéléciers quantitatifs élevé, au gouvernement chinois. Cependant, la RPC a récemment montré un intérêt croissant pour Deepseek, souligné par une réunion entre le fondateur Deepseek Liang Wenfeng et le chef chinois Xi Jinping il y a quelques semaines.
Mis à jour 3/15 20:38 PM PACIFIQUE: Days après cette histoire, la porte-parole d'Openai Liz Bourgeois a fourni la clarification suivante :
«Nous ne faisons pas pression pour des restrictions sur les individus utilisant des modèles comme Deepseek. Notre proposition se concentre sur la modification des règles d'exportation américaines pour permettre à davantage de pays d'accéder aux ressources informatiques américaines, à condition que leurs données de données n'utilisent pas la technologie de la RPC qui pourrait poser des risques de sécurité. Il ne s'agit pas de limiter l'accès aux puces en fonction de plus de craintes et de personnes.»
L'outil de recherche en profondeur propulsé par l'Openai décrit cette déclaration comme "équivoque, en utilisant un langage déflecteur et adoucissant qui contredit quelque peu la position plus affirmée dans la soumission d'origine".




OpenAI calling DeepSeek 'state-controlled' and suggesting a ban? That's a bit harsh, isn't it? I get the security concerns, but shouldn't we be promoting global collaboration in AI instead of drawing lines? Feels like we're heading back to the Cold War era!




OpenAIがDeepSeekを「国家管理」と呼び、禁止を提案するなんて、ちょっと厳しすぎませんか?セキュリティの懸念は理解できますが、AIでのグローバルな協力の促進をすべきでは?冷戦時代に戻っている気がします!




오픈AI가 DeepSeek을 '국가 통제'라고 부르고 금지를 제안하다니, 너무 심하지 않나요? 보안 우려는 이해하지만, AI에서 글로벌 협력을 촉진해야 하지 않나요? 냉전 시대로 돌아가는 것 같아요!




OpenAI chamando DeepSeek de 'controlado pelo estado' e sugerindo uma proibição? Isso não é um pouco duro demais? Entendo as preocupações de segurança, mas não deveríamos estar promovendo a colaboração global em IA em vez de traçar linhas? Parece que estamos voltando à era da Guerra Fria!




¿OpenAI llamando a DeepSeek 'controlado por el estado' y sugiriendo una prohibición? ¿No es eso un poco duro? Entiendo las preocupaciones de seguridad, pero ¿no deberíamos estar promoviendo la colaboración global en IA en lugar de trazar líneas? ¡Parece que estamos volviendo a la era de la Guerra Fría!




OpenAI's move to label DeepSeek as state-controlled feels a bit heavy-handed. I get the security concerns, but outright banning PRC-produced models? That's a bit extreme, isn't it? Maybe we need more nuanced policies rather than just slamming the door shut. Food for thought, OpenAI!












