Openai लेबल डीपसेक 'राज्य-नियंत्रित,' 'PRC- उत्पादित' मॉडल पर प्रतिबंध का आग्रह करता है
10 अप्रैल 2025
AnthonyScott
13

हाल ही में एक नीति प्रस्ताव में, Openai ने चीनी AI लैब दीपसेक को "राज्य-सब्सिडी" और "राज्य-नियंत्रित" के रूप में लेबल किया है, यह सुझाव देते हुए कि अमेरिकी सरकार को डीपसेक द्वारा विकसित किए गए मॉडल पर प्रतिबंध लगाने और पीपुल्स रिपब्लिक ऑफ चाइना (पीआरसी) द्वारा समर्थित समान संचालन पर विचार करना चाहिए।
ट्रम्प प्रशासन की "एआई एक्शन प्लान" पहल के हिस्से के रूप में प्रस्तुत इस प्रस्ताव का तर्क है कि दीपसेक के मॉडल, जैसे कि इसके आर 1 "रीजनिंग" मॉडल, चीनी कानूनी आवश्यकताओं के कारण सुरक्षा जोखिमों को कम करते हैं जो उपयोगकर्ता डेटा के लिए सरकारी अनुरोधों के अनुपालन को अनिवार्य करते हैं। Openai ने बौद्धिक संपदा चोरी के जोखिम सहित गोपनीयता और सुरक्षा चिंताओं को कम करने के लिए बिडेन प्रशासन के निर्यात नियमों के तहत "टियर 1" के रूप में वर्गीकृत देशों में "पीआरसी-उत्पादित" मॉडल पर प्रतिबंध लगाने की सलाह दी है।
यह स्पष्ट नहीं है कि ओपनईआई के "मॉडल" के उपयोग में दीपसेक का एपीआई, इसके खुले मॉडल या दोनों शामिल हैं। दिलचस्प बात यह है कि दीपसेक के खुले मॉडल में चीनी सरकार के लिए उपयोगकर्ता डेटा तक पहुंचने के लिए अंतर्निहित तंत्र नहीं हैं; इसके बजाय, उन्हें Microsoft, Perplexity और Amazon जैसी कंपनियों द्वारा होस्ट किया जाता है।
Openai ने पहले दीपसेक पर आरोप लगाया है, जिसने इस साल की शुरुआत में अपनी सेवा की शर्तों के उल्लंघन में Openai के मॉडल से ज्ञान निकालने के लिए मान्यता प्राप्त की थी। नए दावे- कि डीपसेक को पीआरसी द्वारा समर्थित और नियंत्रित किया जाता है - चीनी प्रयोगशाला के साथ ओपनईआई के चल रहे विवाद में एक महत्वपूर्ण वृद्धि हुई है।
दीपसेक को जोड़ने वाला कोई प्रत्यक्ष प्रमाण नहीं है, जो कि क्वांटिटेटिव हेज फंड हाई-फ्लायर से एक स्पिन-ऑफ, चीनी सरकार से है। हालांकि, पीआरसी ने हाल ही में दीपसेक में बढ़ती रुचि दिखाई है, कुछ हफ्तों पहले दीपसेक के संस्थापक लियांग वेनफेंग और चीनी नेता शी जिनपिंग के बीच एक बैठक द्वारा उजागर किया गया था।
अपडेट किया गया 3/15 8:38 PM PACIFIFIC: इस कहानी के हिट होने के दिन, Openai के प्रवक्ता लिज़ बुर्जुआ ने निम्नलिखित स्पष्टीकरण प्रदान किया :
"हम दीपसेक जैसे मॉडल का उपयोग करने वाले व्यक्तियों पर प्रतिबंधों के लिए जोर नहीं दे रहे हैं। हमारा प्रस्ताव अमेरिकी निर्यात नियमों को संशोधित करने पर ध्यान केंद्रित करता है ताकि अधिक देशों को यूएस कंप्यूटिंग संसाधनों तक पहुंचने में सक्षम बनाया जा सके, बशर्ते कि उनके डेटासेंटर पीआरसी तकनीक का उपयोग न करें जो सुरक्षा जोखिमों को कम कर सकते हैं। यह डर के आधार पर चिप एक्सेस को सीमित करने के बारे में नहीं है। हमारा उद्देश्य अधिक देशों के लिए और एआई एक्सेस को बढ़ाने के लिए है।"
Openai के अपने AI- संचालित डीप रिसर्च टूल ने इस कथन को "समानता और नरम भाषा का उपयोग करते हुए" समानतापूर्ण और नरम करने वाली भाषा का उपयोग करते हुए वर्णन किया है, जो कुछ हद तक मूल सबमिशन में अधिक मुखर स्थिति का खंडन करता है। "
संबंधित लेख
Former DeepSeeker and collaborators release new method for training reliable AI agents: RAGEN
The Year of AI Agents: A Closer Look at 2025's Expectations and Realities2025 was heralded by many experts as the year when AI agents—specialized AI systems powered by advanced large language and multimodal models from companies like OpenAI, Anthropic, Google, and DeepSeek—would finally take center
Google Search Introduces 'AI Mode' for Complex, Multi-Part Queries
Google Unveils "AI Mode" in Search to Rival Perplexity AI and ChatGPTGoogle is stepping up its game in the AI arena with the launch of an experimental "AI Mode" feature in its Search engine. Aimed at taking on the likes of Perplexity AI and OpenAI's ChatGPT Search, this new mode was announced on Wed
YouTube Backs 'No Fakes Act' to Combat Unauthorized AI Replicas
Senators Chris Coons (D-DE) and Marsha Blackburn (R-TN) are once again pushing forward their Nurture Originals, Foster Art, and Keep Entertainment Safe, or NO FAKES, Act. This legislation aims to set clear rules about creating AI-generated copies of someone's face, name, or voice. After being introd
सूचना (40)
0/200
FredMartínez
10 अप्रैल 2025 8:02:08 पूर्वाह्न GMT
OpenAI calling DeepSeek 'state-controlled' and suggesting a ban? That's a bit harsh, isn't it? I get the security concerns, but shouldn't we be promoting global collaboration in AI instead of drawing lines? Feels like we're heading back to the Cold War era!
0
RoySmith
10 अप्रैल 2025 8:02:08 पूर्वाह्न GMT
OpenAIがDeepSeekを「国家管理」と呼び、禁止を提案するなんて、ちょっと厳しすぎませんか?セキュリティの懸念は理解できますが、AIでのグローバルな協力の促進をすべきでは?冷戦時代に戻っている気がします!
0
FredYoung
10 अप्रैल 2025 8:02:08 पूर्वाह्न GMT
오픈AI가 DeepSeek을 '국가 통제'라고 부르고 금지를 제안하다니, 너무 심하지 않나요? 보안 우려는 이해하지만, AI에서 글로벌 협력을 촉진해야 하지 않나요? 냉전 시대로 돌아가는 것 같아요!
0
KeithHarris
10 अप्रैल 2025 8:02:08 पूर्वाह्न GMT
OpenAI chamando DeepSeek de 'controlado pelo estado' e sugerindo uma proibição? Isso não é um pouco duro demais? Entendo as preocupações de segurança, mas não deveríamos estar promovendo a colaboração global em IA em vez de traçar linhas? Parece que estamos voltando à era da Guerra Fria!
0
AlbertThomas
10 अप्रैल 2025 8:02:08 पूर्वाह्न GMT
¿OpenAI llamando a DeepSeek 'controlado por el estado' y sugiriendo una prohibición? ¿No es eso un poco duro? Entiendo las preocupaciones de seguridad, pero ¿no deberíamos estar promoviendo la colaboración global en IA en lugar de trazar líneas? ¡Parece que estamos volviendo a la era de la Guerra Fría!
0
RalphJackson
10 अप्रैल 2025 12:45:28 अपराह्न GMT
OpenAI's move to label DeepSeek as state-controlled feels a bit heavy-handed. I get the security concerns, but outright banning PRC-produced models? That's a bit extreme, isn't it? Maybe we need more nuanced policies rather than just slamming the door shut. Food for thought, OpenAI!
0






हाल ही में एक नीति प्रस्ताव में, Openai ने चीनी AI लैब दीपसेक को "राज्य-सब्सिडी" और "राज्य-नियंत्रित" के रूप में लेबल किया है, यह सुझाव देते हुए कि अमेरिकी सरकार को डीपसेक द्वारा विकसित किए गए मॉडल पर प्रतिबंध लगाने और पीपुल्स रिपब्लिक ऑफ चाइना (पीआरसी) द्वारा समर्थित समान संचालन पर विचार करना चाहिए।
ट्रम्प प्रशासन की "एआई एक्शन प्लान" पहल के हिस्से के रूप में प्रस्तुत इस प्रस्ताव का तर्क है कि दीपसेक के मॉडल, जैसे कि इसके आर 1 "रीजनिंग" मॉडल, चीनी कानूनी आवश्यकताओं के कारण सुरक्षा जोखिमों को कम करते हैं जो उपयोगकर्ता डेटा के लिए सरकारी अनुरोधों के अनुपालन को अनिवार्य करते हैं। Openai ने बौद्धिक संपदा चोरी के जोखिम सहित गोपनीयता और सुरक्षा चिंताओं को कम करने के लिए बिडेन प्रशासन के निर्यात नियमों के तहत "टियर 1" के रूप में वर्गीकृत देशों में "पीआरसी-उत्पादित" मॉडल पर प्रतिबंध लगाने की सलाह दी है।
यह स्पष्ट नहीं है कि ओपनईआई के "मॉडल" के उपयोग में दीपसेक का एपीआई, इसके खुले मॉडल या दोनों शामिल हैं। दिलचस्प बात यह है कि दीपसेक के खुले मॉडल में चीनी सरकार के लिए उपयोगकर्ता डेटा तक पहुंचने के लिए अंतर्निहित तंत्र नहीं हैं; इसके बजाय, उन्हें Microsoft, Perplexity और Amazon जैसी कंपनियों द्वारा होस्ट किया जाता है।
Openai ने पहले दीपसेक पर आरोप लगाया है, जिसने इस साल की शुरुआत में अपनी सेवा की शर्तों के उल्लंघन में Openai के मॉडल से ज्ञान निकालने के लिए मान्यता प्राप्त की थी। नए दावे- कि डीपसेक को पीआरसी द्वारा समर्थित और नियंत्रित किया जाता है - चीनी प्रयोगशाला के साथ ओपनईआई के चल रहे विवाद में एक महत्वपूर्ण वृद्धि हुई है।
दीपसेक को जोड़ने वाला कोई प्रत्यक्ष प्रमाण नहीं है, जो कि क्वांटिटेटिव हेज फंड हाई-फ्लायर से एक स्पिन-ऑफ, चीनी सरकार से है। हालांकि, पीआरसी ने हाल ही में दीपसेक में बढ़ती रुचि दिखाई है, कुछ हफ्तों पहले दीपसेक के संस्थापक लियांग वेनफेंग और चीनी नेता शी जिनपिंग के बीच एक बैठक द्वारा उजागर किया गया था।
अपडेट किया गया 3/15 8:38 PM PACIFIFIC: इस कहानी के हिट होने के दिन, Openai के प्रवक्ता लिज़ बुर्जुआ ने निम्नलिखित स्पष्टीकरण प्रदान किया :
"हम दीपसेक जैसे मॉडल का उपयोग करने वाले व्यक्तियों पर प्रतिबंधों के लिए जोर नहीं दे रहे हैं। हमारा प्रस्ताव अमेरिकी निर्यात नियमों को संशोधित करने पर ध्यान केंद्रित करता है ताकि अधिक देशों को यूएस कंप्यूटिंग संसाधनों तक पहुंचने में सक्षम बनाया जा सके, बशर्ते कि उनके डेटासेंटर पीआरसी तकनीक का उपयोग न करें जो सुरक्षा जोखिमों को कम कर सकते हैं। यह डर के आधार पर चिप एक्सेस को सीमित करने के बारे में नहीं है। हमारा उद्देश्य अधिक देशों के लिए और एआई एक्सेस को बढ़ाने के लिए है।"
Openai के अपने AI- संचालित डीप रिसर्च टूल ने इस कथन को "समानता और नरम भाषा का उपयोग करते हुए" समानतापूर्ण और नरम करने वाली भाषा का उपयोग करते हुए वर्णन किया है, जो कुछ हद तक मूल सबमिशन में अधिक मुखर स्थिति का खंडन करता है। "




OpenAI calling DeepSeek 'state-controlled' and suggesting a ban? That's a bit harsh, isn't it? I get the security concerns, but shouldn't we be promoting global collaboration in AI instead of drawing lines? Feels like we're heading back to the Cold War era!




OpenAIがDeepSeekを「国家管理」と呼び、禁止を提案するなんて、ちょっと厳しすぎませんか?セキュリティの懸念は理解できますが、AIでのグローバルな協力の促進をすべきでは?冷戦時代に戻っている気がします!




오픈AI가 DeepSeek을 '국가 통제'라고 부르고 금지를 제안하다니, 너무 심하지 않나요? 보안 우려는 이해하지만, AI에서 글로벌 협력을 촉진해야 하지 않나요? 냉전 시대로 돌아가는 것 같아요!




OpenAI chamando DeepSeek de 'controlado pelo estado' e sugerindo uma proibição? Isso não é um pouco duro demais? Entendo as preocupações de segurança, mas não deveríamos estar promovendo a colaboração global em IA em vez de traçar linhas? Parece que estamos voltando à era da Guerra Fria!




¿OpenAI llamando a DeepSeek 'controlado por el estado' y sugiriendo una prohibición? ¿No es eso un poco duro? Entiendo las preocupaciones de seguridad, pero ¿no deberíamos estar promoviendo la colaboración global en IA en lugar de trazar líneas? ¡Parece que estamos volviendo a la era de la Guerra Fría!




OpenAI's move to label DeepSeek as state-controlled feels a bit heavy-handed. I get the security concerns, but outright banning PRC-produced models? That's a bit extreme, isn't it? Maybe we need more nuanced policies rather than just slamming the door shut. Food for thought, OpenAI!












