एन्थ्रोपिक सीईओ ने बायोविपोन्स डेटा सेफ्टी टेस्ट को विफल करने के लिए दीपसेक को स्लैम किया

Anthropic के सीईओ, डारियो अमोदेई, चीनी AI कंपनी DeepSeek के बारे में गंभीर रूप से चिंतित हैं, जो अपने R1 मॉडल के साथ सिलिकॉन वैली में हलचल मचा रही है। और उनकी चिंताएँ DeepSeek द्वारा उपयोगकर्ता डेटा को चीन वापस भेजने की सामान्य आशंकाओं से कहीं आगे जाती हैं।
जॉर्डन श्नाइडर के ChinaTalk पॉडकास्ट पर हाल ही में हुई बातचीत में, अमोदेई ने खुलासा किया कि Anthropic द्वारा किए गए एक सुरक्षा परीक्षण के दौरान DeepSeek के AI मॉडल ने जैव-हथियारों के बारे में कुछ बहुत डरावनी जानकारी उत्पन्न की। उन्होंने दावा किया कि DeepSeek का प्रदर्शन "मूल रूप से हमारे द्वारा परीक्षण किए गए किसी भी मॉडल में सबसे खराब था," यह कहते हुए कि इसमें "इस जानकारी को उत्पन्न करने के खिलाफ बिल्कुल कोई अवरोध नहीं था।"
अमोदेई ने समझाया कि ये परीक्षण Anthropic के नियमित मूल्यांकन का हिस्सा हैं, जो यह जाँचते हैं कि क्या AI मॉडल राष्ट्रीय सुरक्षा के लिए कोई जोखिम पैदा करते हैं। वे विशेष रूप से यह देखते हैं कि क्या मॉडल ऐसी जैव-हथियारों से संबंधित जानकारी दे सकते हैं जो Google या पाठ्यपुस्तकों में आसानी से उपलब्ध नहीं है। Anthropic को इस बात पर गर्व है कि वह AI कंपनी है जो सुरक्षा को गंभीरता से लेती है।
हालाँकि अमोदेई का मानना नहीं है कि DeepSeek के वर्तमान मॉडल दुर्लभ और जोखिम भरी जानकारी प्रदान करने के मामले में "वास्तव में खतरनाक" हैं, लेकिन उनका मानना है कि वे निकट भविष्य में ऐसा हो सकते हैं। उन्होंने DeepSeek की टीम को "प्रतिभाशाली इंजीनियर" के रूप में सराहा लेकिन कंपनी से आग्रह किया कि वे "इन AI सुरक्षा विचारों को गंभीरता से लें।"
अमोदेई चिप्स पर चीन के लिए सख्त निर्यात नियंत्रण के भी मुखर समर्थक रहे हैं, चिंतित हैं कि ये चीन की सेना को लाभ दे सकते हैं।
ChinaTalk साक्षात्कार में, अमोदेई ने यह निर्दिष्ट नहीं किया कि Anthropic ने DeepSeek के किस मॉडल का परीक्षण किया या परीक्षणों के बारे में अधिक तकनीकी विवरण प्रदान नहीं किया। न तो Anthropic और न ही DeepSeek ने TechCrunch के टिप्पणी के अनुरोध का तुरंत जवाब दिया।
DeepSeek की तेजी से वृद्धि ने अन्य जगहों पर भी सुरक्षा चिंताएँ बढ़ाई हैं। पिछले हफ्ते, Cisco सुरक्षा शोधकर्ताओं ने कहा कि DeepSeek R1 अपने सुरक्षा परीक्षणों में किसी भी हानिकारक प्रॉम्प्ट को रोकने में विफल रहा, जिसमें 100% जेलब्रेक सफलता दर थी। हालाँकि Cisco ने जैव-हथियारों का उल्लेख नहीं किया, लेकिन वे DeepSeek से साइबर अपराध और अन्य अवैध गतिविधियों के बारे में हानिकारक जानकारी उत्पन्न कराने में सक्षम रहे। यह ध्यान देने योग्य है कि Meta के Llama-3.1-405B और OpenAI के GPT-4o की विफलता दर क्रमशः 96% और 86% थी।
यह अभी भी अनिश्चित है कि क्या ये सुरक्षा चिंताएँ DeepSeek की तेजी से अपनाने में गंभीर रूप से बाधा डालेंगी। AWS और Microsoft जैसी कंपनियों ने R1 को अपने क्लाउड प्लेटफॉर्म में एकीकृत करने की सार्वजनिक रूप से प्रशंसा की है - जो कि कुछ हद तक विडंबनापूर्ण है, क्योंकि Amazon Anthropic का सबसे बड़ा निवेशक है।
दूसरी ओर, बढ़ती संख्या में देश, कंपनियाँ, और विशेष रूप से अमेरिकी नौसेना और पेंटागन जैसे सरकारी संगठन DeepSeek पर प्रतिबंध लगाने लगे हैं।
केवल समय ही बताएगा कि ये प्रयास गति पकड़ते हैं या DeepSeek की वैश्विक वृद्धि मजबूत बनी रहती है। किसी भी तरह, अमोदेई DeepSeek को एक नए प्रतिस्पर्धी के रूप में मानते हैं जो अमेरिका की शीर्ष AI कंपनियों के बराबर है।
"यहाँ नई बात यह है कि एक नया प्रतिस्पर्धी है," उन्होंने ChinaTalk पर कहा। "उन बड़ी कंपनियों में जो AI को प्रशिक्षित कर सकती हैं - Anthropic, OpenAI, Google, शायद Meta और xAI - अब DeepSeek को शायद उस श्रेणी में जोड़ा जा रहा है।"
संबंधित लेख
DeepSeek-V3 का अनावरण: हार्डवेयर-जागरूक AI डिज़ाइन कैसे लागत कम करता है और प्रदर्शन बढ़ाता है
DeepSeek-V3: AI विकास में लागत-कुशल छलांगAI उद्योग एक चौराहे पर है। जबकि बड़े भाषा मॉडल (LLMs) अधिक शक्तिशाली हो रहे हैं, उनकी गणनात्मक मांगें आसमान छू रही हैं, जिससे अत्याधुनिक AI विकास अधिकांश संगठन
DeepSeek-GRM: व्यापार के लिए स्केल करने योग्य और लागत प्रभावी AI को बदल रहा है
अगर आप एक व्यवसाय का प्रबंधन कर रहे हैं, तो आप कितना कठिन हो सकता है यह समझने का जानना, कि आप कैसे अपने कार्यक्रम में आर्टिफिशियल इंटेलिजेंस (AI) को एंटीग्रेड कर सकते हैं। उच्च लाग
नई तकनीक दीपसेक और अन्य मॉडलों को संवेदनशील प्रश्नों का जवाब देने में सक्षम बनाती है
चीन की दीपसेक जैसे बड़े भाषा मॉडल (एलएलएम) से पूर्वाग्रह और सेंसरशिप को हटाना एक जटिल चुनौती है जिसने अमेरिकी नीति निर्माताओं और व्यापारिक नेताओं का ध्यान आकर्षित किया है, जो इसे संभावित राष्ट्रीय सुरक्षा खतरे के रूप में देखते हैं। एक अमेरिकी कांग्रेस सेलेक्ट कमेटी की हालिया रिपोर्ट में डीप लेबल किया गया
सूचना (50)
0/200
PeterMartinez
26 अप्रैल 2025 3:46:48 पूर्वाह्न IST
O CEO da Anthropic criticando a DeepSeek é assustador! Se eles não conseguem manter os dados de bioweapons seguros, o que mais estão fazendo de errado? Isso me faz pensar duas vezes sobre usar qualquer AI deles. Espero que resolvam isso rápido! 😱
0
JimmyGarcia
20 अप्रैल 2025 10:41:54 पूर्वाह्न IST
Nossa, o CEO da Anthropic realmente detonou a DeepSeek por falhar no teste de segurança de dados de bioweapons! É assustador pensar que empresas de IA não priorizam a segurança. Fica a dúvida sobre o que mais está acontecendo nos bastidores. Mantenha-se seguro, pessoal! 😱
0
SebastianAnderson
20 अप्रैल 2025 8:57:58 पूर्वाह्न IST
El fracaso de DeepSeek en la prueba de seguridad de datos de bioweapons es muy preocupante. Preocuparse por la privacidad de los datos es una cosa, pero esto es de otro nivel. El CEO de Anthropic tiene razón al criticarlos. Necesitamos más transparencia y seguridad en la IA, ¡rápido! 😠
0
StevenAllen
18 अप्रैल 2025 11:11:57 अपराह्न IST
딥시크가 생물무기 데이터 안전성 테스트에 실패한 것은 정말 걱정스럽습니다. 데이터 프라이버시는 하나의 문제지만, 이것은 다른 차원의 문제입니다. 안트로픽의 CEO가 그들을 비판하는 것은 옳습니다. AI에는 더 많은 투명성과 안전성이 필요합니다, 급하게요! 😠
0
RoyLopez
18 अप्रैल 2025 2:20:53 पूर्वाह्न IST
Anthropic의 CEO가 DeepSeek의 생물학적 무기 데이터 안전성 테스트 실패에 대해 강력하게 비판했네요! AI 기업이 안전을 우선하지 않는다는 생각이 무섭네요. 뒤에서 무슨 일이 일어나고 있는지 궁금해지네요. 모두 안전하게 하세요! 😱
0
EdwardTaylor
17 अप्रैल 2025 11:43:54 अपराह्न IST
AnthropicのCEOがDeepSeekを批判しているのは怖いですね!生物兵器のデータを安全に保てないなんて、他に何をしくじっているんでしょうか?彼らのAIを使うのを再考させられます。早く修正してほしいです!😨
0
Anthropic के सीईओ, डारियो अमोदेई, चीनी AI कंपनी DeepSeek के बारे में गंभीर रूप से चिंतित हैं, जो अपने R1 मॉडल के साथ सिलिकॉन वैली में हलचल मचा रही है। और उनकी चिंताएँ DeepSeek द्वारा उपयोगकर्ता डेटा को चीन वापस भेजने की सामान्य आशंकाओं से कहीं आगे जाती हैं।
जॉर्डन श्नाइडर के ChinaTalk पॉडकास्ट पर हाल ही में हुई बातचीत में, अमोदेई ने खुलासा किया कि Anthropic द्वारा किए गए एक सुरक्षा परीक्षण के दौरान DeepSeek के AI मॉडल ने जैव-हथियारों के बारे में कुछ बहुत डरावनी जानकारी उत्पन्न की। उन्होंने दावा किया कि DeepSeek का प्रदर्शन "मूल रूप से हमारे द्वारा परीक्षण किए गए किसी भी मॉडल में सबसे खराब था," यह कहते हुए कि इसमें "इस जानकारी को उत्पन्न करने के खिलाफ बिल्कुल कोई अवरोध नहीं था।"
अमोदेई ने समझाया कि ये परीक्षण Anthropic के नियमित मूल्यांकन का हिस्सा हैं, जो यह जाँचते हैं कि क्या AI मॉडल राष्ट्रीय सुरक्षा के लिए कोई जोखिम पैदा करते हैं। वे विशेष रूप से यह देखते हैं कि क्या मॉडल ऐसी जैव-हथियारों से संबंधित जानकारी दे सकते हैं जो Google या पाठ्यपुस्तकों में आसानी से उपलब्ध नहीं है। Anthropic को इस बात पर गर्व है कि वह AI कंपनी है जो सुरक्षा को गंभीरता से लेती है।
हालाँकि अमोदेई का मानना नहीं है कि DeepSeek के वर्तमान मॉडल दुर्लभ और जोखिम भरी जानकारी प्रदान करने के मामले में "वास्तव में खतरनाक" हैं, लेकिन उनका मानना है कि वे निकट भविष्य में ऐसा हो सकते हैं। उन्होंने DeepSeek की टीम को "प्रतिभाशाली इंजीनियर" के रूप में सराहा लेकिन कंपनी से आग्रह किया कि वे "इन AI सुरक्षा विचारों को गंभीरता से लें।"
अमोदेई चिप्स पर चीन के लिए सख्त निर्यात नियंत्रण के भी मुखर समर्थक रहे हैं, चिंतित हैं कि ये चीन की सेना को लाभ दे सकते हैं।
ChinaTalk साक्षात्कार में, अमोदेई ने यह निर्दिष्ट नहीं किया कि Anthropic ने DeepSeek के किस मॉडल का परीक्षण किया या परीक्षणों के बारे में अधिक तकनीकी विवरण प्रदान नहीं किया। न तो Anthropic और न ही DeepSeek ने TechCrunch के टिप्पणी के अनुरोध का तुरंत जवाब दिया।
DeepSeek की तेजी से वृद्धि ने अन्य जगहों पर भी सुरक्षा चिंताएँ बढ़ाई हैं। पिछले हफ्ते, Cisco सुरक्षा शोधकर्ताओं ने कहा कि DeepSeek R1 अपने सुरक्षा परीक्षणों में किसी भी हानिकारक प्रॉम्प्ट को रोकने में विफल रहा, जिसमें 100% जेलब्रेक सफलता दर थी। हालाँकि Cisco ने जैव-हथियारों का उल्लेख नहीं किया, लेकिन वे DeepSeek से साइबर अपराध और अन्य अवैध गतिविधियों के बारे में हानिकारक जानकारी उत्पन्न कराने में सक्षम रहे। यह ध्यान देने योग्य है कि Meta के Llama-3.1-405B और OpenAI के GPT-4o की विफलता दर क्रमशः 96% और 86% थी।
यह अभी भी अनिश्चित है कि क्या ये सुरक्षा चिंताएँ DeepSeek की तेजी से अपनाने में गंभीर रूप से बाधा डालेंगी। AWS और Microsoft जैसी कंपनियों ने R1 को अपने क्लाउड प्लेटफॉर्म में एकीकृत करने की सार्वजनिक रूप से प्रशंसा की है - जो कि कुछ हद तक विडंबनापूर्ण है, क्योंकि Amazon Anthropic का सबसे बड़ा निवेशक है।
दूसरी ओर, बढ़ती संख्या में देश, कंपनियाँ, और विशेष रूप से अमेरिकी नौसेना और पेंटागन जैसे सरकारी संगठन DeepSeek पर प्रतिबंध लगाने लगे हैं।
केवल समय ही बताएगा कि ये प्रयास गति पकड़ते हैं या DeepSeek की वैश्विक वृद्धि मजबूत बनी रहती है। किसी भी तरह, अमोदेई DeepSeek को एक नए प्रतिस्पर्धी के रूप में मानते हैं जो अमेरिका की शीर्ष AI कंपनियों के बराबर है।
"यहाँ नई बात यह है कि एक नया प्रतिस्पर्धी है," उन्होंने ChinaTalk पर कहा। "उन बड़ी कंपनियों में जो AI को प्रशिक्षित कर सकती हैं - Anthropic, OpenAI, Google, शायद Meta और xAI - अब DeepSeek को शायद उस श्रेणी में जोड़ा जा रहा है।"



O CEO da Anthropic criticando a DeepSeek é assustador! Se eles não conseguem manter os dados de bioweapons seguros, o que mais estão fazendo de errado? Isso me faz pensar duas vezes sobre usar qualquer AI deles. Espero que resolvam isso rápido! 😱




Nossa, o CEO da Anthropic realmente detonou a DeepSeek por falhar no teste de segurança de dados de bioweapons! É assustador pensar que empresas de IA não priorizam a segurança. Fica a dúvida sobre o que mais está acontecendo nos bastidores. Mantenha-se seguro, pessoal! 😱




El fracaso de DeepSeek en la prueba de seguridad de datos de bioweapons es muy preocupante. Preocuparse por la privacidad de los datos es una cosa, pero esto es de otro nivel. El CEO de Anthropic tiene razón al criticarlos. Necesitamos más transparencia y seguridad en la IA, ¡rápido! 😠




딥시크가 생물무기 데이터 안전성 테스트에 실패한 것은 정말 걱정스럽습니다. 데이터 프라이버시는 하나의 문제지만, 이것은 다른 차원의 문제입니다. 안트로픽의 CEO가 그들을 비판하는 것은 옳습니다. AI에는 더 많은 투명성과 안전성이 필요합니다, 급하게요! 😠




Anthropic의 CEO가 DeepSeek의 생물학적 무기 데이터 안전성 테스트 실패에 대해 강력하게 비판했네요! AI 기업이 안전을 우선하지 않는다는 생각이 무섭네요. 뒤에서 무슨 일이 일어나고 있는지 궁금해지네요. 모두 안전하게 하세요! 😱




AnthropicのCEOがDeepSeekを批判しているのは怖いですね!生物兵器のデータを安全に保てないなんて、他に何をしくじっているんでしょうか?彼らのAIを使うのを再考させられます。早く修正してほしいです!😨












