एमएससी एआई जोखिम और अवसरों पर सहयोग करता है

छह दशकों से, म्यूनिख सुरक्षा सम्मेलन विश्व नेताओं, व्यवसायों, विशेषज्ञों और नागरिक समाज के लिए एक महत्वपूर्ण सभा स्थल रहा है, जहां लोकतंत्रों और वैश्विक व्यवस्था को मजबूत करने और उनकी रक्षा करने के लिए खुली चर्चाएं होती हैं। बढ़ते भू-राजनीतिक तनावों, विश्व स्तर पर महत्वपूर्ण चुनावों और अधिक उन्नत साइबर खतरों के साथ, ये चर्चाएं पहले से कहीं अधिक महत्वपूर्ण हैं। आक्रामक और रक्षात्मक दोनों भूमिकाओं में AI का उदय इस बातचीत में एक नया आयाम जोड़ता है।
इसी सप्ताह, Google के Threat Analysis Group (TAG), Mandiant और Trust & Safety टीमों के साथ मिलकर, एक नई रिपोर्ट जारी की। यह बताती है कि कैसे ईरान समर्थित समूह इजरायल-हमास संघर्ष पर जनमत को प्रभावित करने के लिए सूचना युद्ध का उपयोग कर रहे हैं। यह रिपोर्ट रूस के यूक्रेन में युद्ध के साइबर पहलुओं पर भी अपडेट देती है। अलग से, TAG ने सरकारों और अन्य दुर्भावनापूर्ण अभिनेताओं द्वारा पत्रकारों, मानवाधिकार कार्यकर्ताओं, असंतुष्टों और विपक्षी राजनेताओं को निशाना बनाने के लिए वाणिज्यिक स्पायवेयर के बढ़ते उपयोग को उजागर किया। और हमें उन खतरनाक अभिनेताओं की चल रही रिपोर्टों को भी नहीं भूलना चाहिए जो पुरानी सिस्टम कमजोरियों का शोषण करके सरकारों और निजी कंपनियों की सुरक्षा को खतरे में डाल रहे हैं।
इन बढ़ते खतरों के बीच, हमारे पास AI का उपयोग करके विश्व भर में लोकतंत्रों की साइबर रक्षा को मजबूत करने का एक सुनहरा अवसर है, जिससे व्यवसायों, सरकारों और संगठनों को नए रक्षात्मक उपकरण मिलें जो पहले केवल सबसे बड़े खिलाड़ियों के लिए उपलब्ध थे। इस सप्ताह म्यूनिख में, हम इस बात पर चर्चा कर रहे हैं कि कैसे हम नई निवेश, प्रतिबद्धताओं और साझेदारियों का उपयोग करके AI के जोखिमों से निपट सकते हैं और इसके संभावित लाभों का दोहन कर सकते हैं। आखिरकार, लोकतंत्र उस दुनिया में फल-फूल नहीं सकते जहां हमलावर AI का उपयोग नवाचार के लिए कर सकते हैं, लेकिन रक्षक नहीं।
साइबर रक्षा को मजबूत करने के लिए AI का उपयोग
वर्षों से, साइबर खतरे सुरक्षा पेशेवरों, सरकारों, व्यवसायों और नागरिक समाज के लिए सिरदर्द रहे हैं। AI में रक्षकों को हमलावरों पर वास्तविक बढ़त देने की क्षमता है। लेकिन, किसी भी तकनीक की तरह, यदि इसे सुरक्षित रूप से विकसित और उपयोग नहीं किया गया तो AI दोधारी तलवार हो सकता है।
इसलिए हमने आज AI Cyber Defense Initiative शुरू की है। यह AI की सुरक्षा क्षमता का दोहन करने के बारे में है, जिसमें एक प्रस्तावित नीति और तकनीकी एजेंडा है जो हमारे सामूहिक डिजिटल भविष्य को सुरक्षित करने, सशक्त करने और आगे बढ़ाने में मदद करता है। AI Cyber Defense Initiative हमारे Secure AI Framework (SAIF) पर आधारित है, जो संगठनों को शुरू से ही सुरक्षित AI उपकरण और उत्पाद बनाने में मदद करता है।
इस पहल के हिस्से के रूप में, हम ट्रांसअटलांटिक साइबरसुरक्षा दृश्य को बढ़ावा देने के लिए एक नया "AI for Cybersecurity" स्टार्टअप कोहोर्ट शुरू कर रहे हैं। हम यूरोप में साइबरसुरक्षा प्रशिक्षण के लिए अपनी $15 मिलियन की प्रतिबद्धता को बढ़ा रहे हैं, साइबरसुरक्षा अनुसंधान का समर्थन करने के लिए अतिरिक्त $2 मिलियन जोड़ रहे हैं, और हमारे Google AI-संचालित फाइल प्रकार पहचान प्रणाली Magika को ओपन-सोर्स कर रहे हैं। साथ ही, हम अपने सुरक्षित, AI-तैयार वैश्विक डेटा सेंटरों में निवेश जारी रखे हुए हैं। 2024 के अंत तक, हमने यूरोपीय डेटा सेंटरों में $5 बिलियन से अधिक का निवेश किया होगा, जिससे विभिन्न डिजिटल सेवाओं, जिसमें हमारे Vertex AI प्लेटफॉर्म की जेनरेटिव AI क्षमताओं तक सुरक्षित, विश्वसनीय पहुंच सुनिश्चित होगी।
लोकतांत्रिक चुनावों की रक्षा
इस वर्ष, यूरोप, संयुक्त राज्य अमेरिका, भारत और कई अन्य देशों में चुनाव हो रहे हैं। हमारे पास लोकतांत्रिक चुनावों की अखंडता का समर्थन करने का एक ट्रैक रिकॉर्ड है, और हमने संसदीय चुनावों से पहले अपनी EU प्रीबंकिंग अभियान की घोषणा की है। यह अभियान, जो लोगों को सामाजिक मीडिया पर छोटे वीडियो विज्ञापनों के माध्यम से सामान्य हेरफेर की चालों को पहचानना सिखाता है, इस वसंत में फ्रांस, जर्मनी, इटली, बेल्जियम और पोलैंड में शुरू होगा। हम अपनी प्लेटफॉर्म पर दुरुपयोग को रोकने, मतदाताओं को उच्च-गुणवत्ता वाली जानकारी प्रदान करने, और लोगों को AI-जनरेटेड सामग्री के बारे में जानकारी देने के लिए अपने प्रयासों को जारी रखने के लिए पूरी तरह से प्रतिबद्ध हैं ताकि वे बेहतर विकल्प बना सकें।
AI का दुरुपयोग करके डीप फेक बनाने और मतदाताओं को गुमराह करने की वैध चिंताएं हैं। लेकिन AI दुरुपयोग को बड़े पैमाने पर रोकने का एक अनूठा अवसर भी प्रदान करता है। Google की Trust & Safety टीमें इस समस्या से सीधे निपट रही हैं, AI का उपयोग करके दुरुपयोग से लड़ने, अपनी नीतियों को अधिक प्रभावी ढंग से लागू करने, और नई परिस्थितियों या दावों के लिए तेजी से अनुकूलन करने के हमारे प्रयासों को बढ़ा रही हैं।
हम उद्योग में दूसरों के साथ भी सहयोग कर रहे हैं, अनुसंधान साझा कर रहे हैं और धोखाधड़ी वाली AI सामग्री के जोखिम सहित खतरों और दुरुपयोग का मुकाबला करने के लिए एक साथ काम कर रहे हैं। पिछले हफ्ते ही, हम Coalition for Content Provenance and Authenticity (C2PA) में शामिल हुए, जो AI-जनरेटेड सामग्री के निर्माण और संपादन के बारे में जानकारी देने के लिए एक सामग्री क्रेडेंशियल पर काम कर रहा है। यह Frontier Model Forum, Partnership on AI, और अन्य पहलों के साथ जिम्मेदार AI के आसपास हमारे उद्योग-विश्वसनीय सहयोगों पर आधारित है।
नियम-आधारित अंतरराष्ट्रीय व्यवस्था की रक्षा के लिए एकजुट होना
म्यूनिख सुरक्षा सम्मेलन लोकतंत्र के लिए चुनौतियों से निपटने के लिए एक समय-परीक्षित स्थान रहा है। 60 वर्षों से, लोकतंत्रों ने इन चुनौतियों का सामना किया और इन्हें पार किया, AI द्वारा लाए गए बड़े बदलावों जैसे—एक साथ मिलकर। अब, हमारे पास फिर से एक साथ आने का मौका है—सरकारों, व्यवसायों, शिक्षाविदों और नागरिक समाज के रूप में—नई साझेदारियां बनाने, AI की अच्छाई के लिए संभावनाओं का दोहन करने, और नियम-आधारित विश्व व्यवस्था को मजबूत करने के लिए।
संबंधित लेख
मेटा ने उन्नत लामा उपकरणों के साथ AI सुरक्षा को बढ़ाया
मेटा ने AI विकास को मजबूत करने और उभरते खतरों से बचाव के लिए नए लामा सुरक्षा उपकरण जारी किए हैं।ये उन्नत लामा AI मॉडल सुरक्षा उपकरण मेटा के नए संसाधनों के साथ जोड़े गए हैं, ताकि साइबरसुरक्षा टीमों को
NotebookLM ने शीर्ष प्रकाशनों और विशेषज्ञों से संग्रहित नोटबुक्स का अनावरण किया
Google अपने AI-चालित अनुसंधान और नोट-टेकिंग टूल, NotebookLM को एक व्यापक ज्ञान केंद्र के रूप में बढ़ा रहा है। सोमवार को, कंपनी ने प्रमुख लेखकों, प्रकाशनों, शोधकर्ताओं और गैर-लाभकारी संगठनों से संग्रहि
अलीबाबा ने Wan2.1-VACE का अनावरण किया: ओपन-सोर्स AI वीडियो समाधान
अलीबाबा ने Wan2.1-VACE पेश किया है, जो एक ओपन-सोर्स AI मॉडल है और वीडियो निर्माण और संपादन प्रक्रियाओं को बदलने के लिए तैयार है।VACE अलीबाबा के Wan2.1 वीडियो AI मॉडल परिवार का एक प्रमुख घटक है, कंपनी
सूचना (55)
0/200
WalterGonzález
24 अप्रैल 2025 5:43:17 पूर्वाह्न IST
MSC's collaboration on AI risks and opportunities is timely and crucial. It's great to see such initiatives amidst global tensions. However, the discussions could be more actionable. Still, a vital conversation to have! 🌍
0
JamesTaylor
22 अप्रैल 2025 10:36:28 पूर्वाह्न IST
Sự hợp tác của MSC về rủi ro và cơ hội của AI rất kịp thời và quan trọng. Rất thích thấy những sáng kiến như thế này giữa các căng thẳng toàn cầu. Tuy nhiên, các cuộc thảo luận có thể thực tế hơn. Dù sao cũng là cuộc trò chuyện quan trọng cần có! 🌍
0
RichardThomas
21 अप्रैल 2025 4:39:25 अपराह्न IST
A colaboração da MSC sobre riscos e oportunidades da IA é oportuna e crucial. É ótimo ver essas iniciativas em meio às tensões globais. No entanto, as discussões poderiam ser mais práticas. Ainda assim, uma conversa vital para se ter! 🌍
0
KevinHarris
20 अप्रैल 2025 9:52:17 अपराह्न IST
Сотрудничество MSC по рискам и возможностям ИИ своевременно и важно. Приятно видеть такие инициативы на фоне глобальных напряжений. Однако обсуждения могли бы быть более практичными. Тем не менее, важный разговор, который нужно вести! 🌍
0
WilliamLewis
19 अप्रैल 2025 11:55:15 अपराह्न IST
MSC Collaborates on AI Risks and Opportunities is a must-attend for anyone interested in global security. The discussions are always insightful and it's great to see such a diverse group tackling these issues. Only wish it was more accessible to the public! 🤔
0
KennethKing
19 अप्रैल 2025 9:58:42 पूर्वाह्न IST
O foco da MSC nos riscos e oportunidades da IA é super importante, especialmente com todas as tensões globais e eleições. É ótimo ver uma conferência de alto nível enfrentando essas questões diretamente. Continuem o bom trabalho! 👏
0
छह दशकों से, म्यूनिख सुरक्षा सम्मेलन विश्व नेताओं, व्यवसायों, विशेषज्ञों और नागरिक समाज के लिए एक महत्वपूर्ण सभा स्थल रहा है, जहां लोकतंत्रों और वैश्विक व्यवस्था को मजबूत करने और उनकी रक्षा करने के लिए खुली चर्चाएं होती हैं। बढ़ते भू-राजनीतिक तनावों, विश्व स्तर पर महत्वपूर्ण चुनावों और अधिक उन्नत साइबर खतरों के साथ, ये चर्चाएं पहले से कहीं अधिक महत्वपूर्ण हैं। आक्रामक और रक्षात्मक दोनों भूमिकाओं में AI का उदय इस बातचीत में एक नया आयाम जोड़ता है।
इसी सप्ताह, Google के Threat Analysis Group (TAG), Mandiant और Trust & Safety टीमों के साथ मिलकर, एक नई रिपोर्ट जारी की। यह बताती है कि कैसे ईरान समर्थित समूह इजरायल-हमास संघर्ष पर जनमत को प्रभावित करने के लिए सूचना युद्ध का उपयोग कर रहे हैं। यह रिपोर्ट रूस के यूक्रेन में युद्ध के साइबर पहलुओं पर भी अपडेट देती है। अलग से, TAG ने सरकारों और अन्य दुर्भावनापूर्ण अभिनेताओं द्वारा पत्रकारों, मानवाधिकार कार्यकर्ताओं, असंतुष्टों और विपक्षी राजनेताओं को निशाना बनाने के लिए वाणिज्यिक स्पायवेयर के बढ़ते उपयोग को उजागर किया। और हमें उन खतरनाक अभिनेताओं की चल रही रिपोर्टों को भी नहीं भूलना चाहिए जो पुरानी सिस्टम कमजोरियों का शोषण करके सरकारों और निजी कंपनियों की सुरक्षा को खतरे में डाल रहे हैं।
इन बढ़ते खतरों के बीच, हमारे पास AI का उपयोग करके विश्व भर में लोकतंत्रों की साइबर रक्षा को मजबूत करने का एक सुनहरा अवसर है, जिससे व्यवसायों, सरकारों और संगठनों को नए रक्षात्मक उपकरण मिलें जो पहले केवल सबसे बड़े खिलाड़ियों के लिए उपलब्ध थे। इस सप्ताह म्यूनिख में, हम इस बात पर चर्चा कर रहे हैं कि कैसे हम नई निवेश, प्रतिबद्धताओं और साझेदारियों का उपयोग करके AI के जोखिमों से निपट सकते हैं और इसके संभावित लाभों का दोहन कर सकते हैं। आखिरकार, लोकतंत्र उस दुनिया में फल-फूल नहीं सकते जहां हमलावर AI का उपयोग नवाचार के लिए कर सकते हैं, लेकिन रक्षक नहीं।
साइबर रक्षा को मजबूत करने के लिए AI का उपयोग
वर्षों से, साइबर खतरे सुरक्षा पेशेवरों, सरकारों, व्यवसायों और नागरिक समाज के लिए सिरदर्द रहे हैं। AI में रक्षकों को हमलावरों पर वास्तविक बढ़त देने की क्षमता है। लेकिन, किसी भी तकनीक की तरह, यदि इसे सुरक्षित रूप से विकसित और उपयोग नहीं किया गया तो AI दोधारी तलवार हो सकता है।
इसलिए हमने आज AI Cyber Defense Initiative शुरू की है। यह AI की सुरक्षा क्षमता का दोहन करने के बारे में है, जिसमें एक प्रस्तावित नीति और तकनीकी एजेंडा है जो हमारे सामूहिक डिजिटल भविष्य को सुरक्षित करने, सशक्त करने और आगे बढ़ाने में मदद करता है। AI Cyber Defense Initiative हमारे Secure AI Framework (SAIF) पर आधारित है, जो संगठनों को शुरू से ही सुरक्षित AI उपकरण और उत्पाद बनाने में मदद करता है।
इस पहल के हिस्से के रूप में, हम ट्रांसअटलांटिक साइबरसुरक्षा दृश्य को बढ़ावा देने के लिए एक नया "AI for Cybersecurity" स्टार्टअप कोहोर्ट शुरू कर रहे हैं। हम यूरोप में साइबरसुरक्षा प्रशिक्षण के लिए अपनी $15 मिलियन की प्रतिबद्धता को बढ़ा रहे हैं, साइबरसुरक्षा अनुसंधान का समर्थन करने के लिए अतिरिक्त $2 मिलियन जोड़ रहे हैं, और हमारे Google AI-संचालित फाइल प्रकार पहचान प्रणाली Magika को ओपन-सोर्स कर रहे हैं। साथ ही, हम अपने सुरक्षित, AI-तैयार वैश्विक डेटा सेंटरों में निवेश जारी रखे हुए हैं। 2024 के अंत तक, हमने यूरोपीय डेटा सेंटरों में $5 बिलियन से अधिक का निवेश किया होगा, जिससे विभिन्न डिजिटल सेवाओं, जिसमें हमारे Vertex AI प्लेटफॉर्म की जेनरेटिव AI क्षमताओं तक सुरक्षित, विश्वसनीय पहुंच सुनिश्चित होगी।
लोकतांत्रिक चुनावों की रक्षा
इस वर्ष, यूरोप, संयुक्त राज्य अमेरिका, भारत और कई अन्य देशों में चुनाव हो रहे हैं। हमारे पास लोकतांत्रिक चुनावों की अखंडता का समर्थन करने का एक ट्रैक रिकॉर्ड है, और हमने संसदीय चुनावों से पहले अपनी EU प्रीबंकिंग अभियान की घोषणा की है। यह अभियान, जो लोगों को सामाजिक मीडिया पर छोटे वीडियो विज्ञापनों के माध्यम से सामान्य हेरफेर की चालों को पहचानना सिखाता है, इस वसंत में फ्रांस, जर्मनी, इटली, बेल्जियम और पोलैंड में शुरू होगा। हम अपनी प्लेटफॉर्म पर दुरुपयोग को रोकने, मतदाताओं को उच्च-गुणवत्ता वाली जानकारी प्रदान करने, और लोगों को AI-जनरेटेड सामग्री के बारे में जानकारी देने के लिए अपने प्रयासों को जारी रखने के लिए पूरी तरह से प्रतिबद्ध हैं ताकि वे बेहतर विकल्प बना सकें।
AI का दुरुपयोग करके डीप फेक बनाने और मतदाताओं को गुमराह करने की वैध चिंताएं हैं। लेकिन AI दुरुपयोग को बड़े पैमाने पर रोकने का एक अनूठा अवसर भी प्रदान करता है। Google की Trust & Safety टीमें इस समस्या से सीधे निपट रही हैं, AI का उपयोग करके दुरुपयोग से लड़ने, अपनी नीतियों को अधिक प्रभावी ढंग से लागू करने, और नई परिस्थितियों या दावों के लिए तेजी से अनुकूलन करने के हमारे प्रयासों को बढ़ा रही हैं।
हम उद्योग में दूसरों के साथ भी सहयोग कर रहे हैं, अनुसंधान साझा कर रहे हैं और धोखाधड़ी वाली AI सामग्री के जोखिम सहित खतरों और दुरुपयोग का मुकाबला करने के लिए एक साथ काम कर रहे हैं। पिछले हफ्ते ही, हम Coalition for Content Provenance and Authenticity (C2PA) में शामिल हुए, जो AI-जनरेटेड सामग्री के निर्माण और संपादन के बारे में जानकारी देने के लिए एक सामग्री क्रेडेंशियल पर काम कर रहा है। यह Frontier Model Forum, Partnership on AI, और अन्य पहलों के साथ जिम्मेदार AI के आसपास हमारे उद्योग-विश्वसनीय सहयोगों पर आधारित है।
नियम-आधारित अंतरराष्ट्रीय व्यवस्था की रक्षा के लिए एकजुट होना
म्यूनिख सुरक्षा सम्मेलन लोकतंत्र के लिए चुनौतियों से निपटने के लिए एक समय-परीक्षित स्थान रहा है। 60 वर्षों से, लोकतंत्रों ने इन चुनौतियों का सामना किया और इन्हें पार किया, AI द्वारा लाए गए बड़े बदलावों जैसे—एक साथ मिलकर। अब, हमारे पास फिर से एक साथ आने का मौका है—सरकारों, व्यवसायों, शिक्षाविदों और नागरिक समाज के रूप में—नई साझेदारियां बनाने, AI की अच्छाई के लिए संभावनाओं का दोहन करने, और नियम-आधारित विश्व व्यवस्था को मजबूत करने के लिए।


MSC's collaboration on AI risks and opportunities is timely and crucial. It's great to see such initiatives amidst global tensions. However, the discussions could be more actionable. Still, a vital conversation to have! 🌍




Sự hợp tác của MSC về rủi ro và cơ hội của AI rất kịp thời và quan trọng. Rất thích thấy những sáng kiến như thế này giữa các căng thẳng toàn cầu. Tuy nhiên, các cuộc thảo luận có thể thực tế hơn. Dù sao cũng là cuộc trò chuyện quan trọng cần có! 🌍




A colaboração da MSC sobre riscos e oportunidades da IA é oportuna e crucial. É ótimo ver essas iniciativas em meio às tensões globais. No entanto, as discussões poderiam ser mais práticas. Ainda assim, uma conversa vital para se ter! 🌍




Сотрудничество MSC по рискам и возможностям ИИ своевременно и важно. Приятно видеть такие инициативы на фоне глобальных напряжений. Однако обсуждения могли бы быть более практичными. Тем не менее, важный разговор, который нужно вести! 🌍




MSC Collaborates on AI Risks and Opportunities is a must-attend for anyone interested in global security. The discussions are always insightful and it's great to see such a diverse group tackling these issues. Only wish it was more accessible to the public! 🤔




O foco da MSC nos riscos e oportunidades da IA é super importante, especialmente com todas as tensões globais e eleições. É ótimo ver uma conferência de alto nível enfrentando essas questões diretamente. Continuem o bom trabalho! 👏












