

Las etiquetas de Operai profundizan 'controlados por el estado', insta a la prohibición de los modelos 'producidos por la PRC'
10 de abril de 2025
AnthonyScott
13

En una propuesta de política reciente, OpenAI ha etiquetado con el laboratorio de IA chino Deepseek como "subsidiado por el estado" y "controlado por el estado", lo que sugiere que el gobierno de los Estados Unidos debería contemplar modelos de prohibición desarrollados por profundos y operaciones similares respaldadas por la República Popular de China (PRC).
Esta propuesta, presentada como parte de la iniciativa de "Plan de Acción de AI" de la Administración Trump, argumenta que los modelos de Deepseek, como su modelo de "razonamiento" R1, plantean riesgos de seguridad debido a los requisitos legales chinos que exigen el cumplimiento de las solicitudes gubernamentales de datos de los usuarios. Operai recomienda prohibir los modelos "producidos por la PRC" en países clasificados como "Nivel 1" bajo las reglas de exportación de la administración Biden para mitigar las preocupaciones de privacidad y seguridad, incluido el riesgo de robo de propiedad intelectual.
No está claro si el uso de "modelos" de OpenAI incluye la API de Deepseek, sus modelos abiertos o ambos. Curiosamente, los modelos abiertos de Deepseek no tienen mecanismos incorporados para que el gobierno chino acceda a los datos del usuario; En cambio, son alojados por compañías como Microsoft, Perplexity y Amazon.
Operai ha acusado previamente a Deepseek, que ganó reconocimiento a principios de este año, de extraer conocimiento de los modelos de OpenAI en violación de sus términos de servicio. Las nuevas afirmaciones, que Deepseek están respaldadas y controladas por la República de Definición, marcan una escalada significativa en la disputa en curso de OpenAi con el laboratorio chino.
No hay evidencia directa que vincule a Deepseek, un spin-off del cuantitativo Fondo de cobertura High-Flyer, con el gobierno chino. Sin embargo, la RPC ha mostrado un creciente interés en Deepseek recientemente, destacado por una reunión entre el fundador de Deepseek, Liang Wenfeng, y el líder chino Xi Jinping hace unas semanas.
Actualizado 15/15 8:38 PM Pacífico: Días después de que esta historia llegó a las noticias, la portavoz de OpenAi, Liz Bourgeois, proporcionó la siguiente aclaración :
"No estamos presionando para las restricciones a las personas que usan modelos como Deepseek. Nuestra propuesta se centra en modificar las reglas de exportación de los Estados Unidos para permitir que más países accedan a los recursos informáticos estadounidenses, siempre que sus centros de datos no utilicen la tecnología de la PRC que pueda plantear riesgos de seguridad. No se trata de limitar el acceso a los chips en función de los temores de los temores de los que se redirigen a la PRC. Nuestro objetivo es aumentar el acceso a la composición y la IA para más países y personas y personas". ".".
La propia herramienta de investigación profunda con IA de OpenAI describe esta declaración como "equívoca, utilizando un lenguaje desviado y suavizante que contradice de alguna manera la posición más asertiva en la presentación original".
Artículo relacionado
Former DeepSeeker and collaborators release new method for training reliable AI agents: RAGEN
The Year of AI Agents: A Closer Look at 2025's Expectations and Realities2025 was heralded by many experts as the year when AI agents—specialized AI systems powered by advanced large language and multimodal models from companies like OpenAI, Anthropic, Google, and DeepSeek—would finally take center
Google Search Introduces 'AI Mode' for Complex, Multi-Part Queries
Google Unveils "AI Mode" in Search to Rival Perplexity AI and ChatGPTGoogle is stepping up its game in the AI arena with the launch of an experimental "AI Mode" feature in its Search engine. Aimed at taking on the likes of Perplexity AI and OpenAI's ChatGPT Search, this new mode was announced on Wed
YouTube Backs 'No Fakes Act' to Combat Unauthorized AI Replicas
Senators Chris Coons (D-DE) and Marsha Blackburn (R-TN) are once again pushing forward their Nurture Originals, Foster Art, and Keep Entertainment Safe, or NO FAKES, Act. This legislation aims to set clear rules about creating AI-generated copies of someone's face, name, or voice. After being introd
comentario (40)
0/200
FredMartínez
10 de abril de 2025 08:02:08 GMT
OpenAI calling DeepSeek 'state-controlled' and suggesting a ban? That's a bit harsh, isn't it? I get the security concerns, but shouldn't we be promoting global collaboration in AI instead of drawing lines? Feels like we're heading back to the Cold War era!
0
RoySmith
10 de abril de 2025 08:02:08 GMT
OpenAIがDeepSeekを「国家管理」と呼び、禁止を提案するなんて、ちょっと厳しすぎませんか?セキュリティの懸念は理解できますが、AIでのグローバルな協力の促進をすべきでは?冷戦時代に戻っている気がします!
0
FredYoung
10 de abril de 2025 08:02:08 GMT
오픈AI가 DeepSeek을 '국가 통제'라고 부르고 금지를 제안하다니, 너무 심하지 않나요? 보안 우려는 이해하지만, AI에서 글로벌 협력을 촉진해야 하지 않나요? 냉전 시대로 돌아가는 것 같아요!
0
KeithHarris
10 de abril de 2025 08:02:08 GMT
OpenAI chamando DeepSeek de 'controlado pelo estado' e sugerindo uma proibição? Isso não é um pouco duro demais? Entendo as preocupações de segurança, mas não deveríamos estar promovendo a colaboração global em IA em vez de traçar linhas? Parece que estamos voltando à era da Guerra Fria!
0
AlbertThomas
10 de abril de 2025 08:02:08 GMT
¿OpenAI llamando a DeepSeek 'controlado por el estado' y sugiriendo una prohibición? ¿No es eso un poco duro? Entiendo las preocupaciones de seguridad, pero ¿no deberíamos estar promoviendo la colaboración global en IA en lugar de trazar líneas? ¡Parece que estamos volviendo a la era de la Guerra Fría!
0
RalphJackson
10 de abril de 2025 12:45:28 GMT
OpenAI's move to label DeepSeek as state-controlled feels a bit heavy-handed. I get the security concerns, but outright banning PRC-produced models? That's a bit extreme, isn't it? Maybe we need more nuanced policies rather than just slamming the door shut. Food for thought, OpenAI!
0






En una propuesta de política reciente, OpenAI ha etiquetado con el laboratorio de IA chino Deepseek como "subsidiado por el estado" y "controlado por el estado", lo que sugiere que el gobierno de los Estados Unidos debería contemplar modelos de prohibición desarrollados por profundos y operaciones similares respaldadas por la República Popular de China (PRC).
Esta propuesta, presentada como parte de la iniciativa de "Plan de Acción de AI" de la Administración Trump, argumenta que los modelos de Deepseek, como su modelo de "razonamiento" R1, plantean riesgos de seguridad debido a los requisitos legales chinos que exigen el cumplimiento de las solicitudes gubernamentales de datos de los usuarios. Operai recomienda prohibir los modelos "producidos por la PRC" en países clasificados como "Nivel 1" bajo las reglas de exportación de la administración Biden para mitigar las preocupaciones de privacidad y seguridad, incluido el riesgo de robo de propiedad intelectual.
No está claro si el uso de "modelos" de OpenAI incluye la API de Deepseek, sus modelos abiertos o ambos. Curiosamente, los modelos abiertos de Deepseek no tienen mecanismos incorporados para que el gobierno chino acceda a los datos del usuario; En cambio, son alojados por compañías como Microsoft, Perplexity y Amazon.
Operai ha acusado previamente a Deepseek, que ganó reconocimiento a principios de este año, de extraer conocimiento de los modelos de OpenAI en violación de sus términos de servicio. Las nuevas afirmaciones, que Deepseek están respaldadas y controladas por la República de Definición, marcan una escalada significativa en la disputa en curso de OpenAi con el laboratorio chino.
No hay evidencia directa que vincule a Deepseek, un spin-off del cuantitativo Fondo de cobertura High-Flyer, con el gobierno chino. Sin embargo, la RPC ha mostrado un creciente interés en Deepseek recientemente, destacado por una reunión entre el fundador de Deepseek, Liang Wenfeng, y el líder chino Xi Jinping hace unas semanas.
Actualizado 15/15 8:38 PM Pacífico: Días después de que esta historia llegó a las noticias, la portavoz de OpenAi, Liz Bourgeois, proporcionó la siguiente aclaración :
"No estamos presionando para las restricciones a las personas que usan modelos como Deepseek. Nuestra propuesta se centra en modificar las reglas de exportación de los Estados Unidos para permitir que más países accedan a los recursos informáticos estadounidenses, siempre que sus centros de datos no utilicen la tecnología de la PRC que pueda plantear riesgos de seguridad. No se trata de limitar el acceso a los chips en función de los temores de los temores de los que se redirigen a la PRC. Nuestro objetivo es aumentar el acceso a la composición y la IA para más países y personas y personas". ".".
La propia herramienta de investigación profunda con IA de OpenAI describe esta declaración como "equívoca, utilizando un lenguaje desviado y suavizante que contradice de alguna manera la posición más asertiva en la presentación original".




OpenAI calling DeepSeek 'state-controlled' and suggesting a ban? That's a bit harsh, isn't it? I get the security concerns, but shouldn't we be promoting global collaboration in AI instead of drawing lines? Feels like we're heading back to the Cold War era!




OpenAIがDeepSeekを「国家管理」と呼び、禁止を提案するなんて、ちょっと厳しすぎませんか?セキュリティの懸念は理解できますが、AIでのグローバルな協力の促進をすべきでは?冷戦時代に戻っている気がします!




오픈AI가 DeepSeek을 '국가 통제'라고 부르고 금지를 제안하다니, 너무 심하지 않나요? 보안 우려는 이해하지만, AI에서 글로벌 협력을 촉진해야 하지 않나요? 냉전 시대로 돌아가는 것 같아요!




OpenAI chamando DeepSeek de 'controlado pelo estado' e sugerindo uma proibição? Isso não é um pouco duro demais? Entendo as preocupações de segurança, mas não deveríamos estar promovendo a colaboração global em IA em vez de traçar linhas? Parece que estamos voltando à era da Guerra Fria!




¿OpenAI llamando a DeepSeek 'controlado por el estado' y sugiriendo una prohibición? ¿No es eso un poco duro? Entiendo las preocupaciones de seguridad, pero ¿no deberíamos estar promoviendo la colaboración global en IA en lugar de trazar líneas? ¡Parece que estamos volviendo a la era de la Guerra Fría!




OpenAI's move to label DeepSeek as state-controlled feels a bit heavy-handed. I get the security concerns, but outright banning PRC-produced models? That's a bit extreme, isn't it? Maybe we need more nuanced policies rather than just slamming the door shut. Food for thought, OpenAI!












