एंथ्रोपिक चुपचाप वेबसाइट से बिडेन-युग जिम्मेदार एआई प्रतिज्ञा को हटा देता है

एंथ्रोपिक ने वेबसाइट से बाइडेन-युग की AI सुरक्षा प्रतिबद्धताओं को हटाया
एक कदम जो ध्यान आकर्षित कर रहा है, AI उद्योग में प्रमुख खिलाड़ी एंथ्रोपिक ने पिछले सप्ताह अपनी पारदर्शिता हब से बाइडेन-युग की सुरक्षित AI विकास की प्रतिबद्धताओं को चुपके से हटा दिया। यह बदलाव सबसे पहले The Midas Project, एक AI निगरानी समूह, द्वारा देखा गया, जिसने भाषा की अनुपस्थिति को नोट किया जो सरकार के साथ AI जोखिमों, जिसमें पक्षपात शामिल है, के बारे में जानकारी और शोध साझा करने का वादा करती थी।
ये प्रतिबद्धताएँ एक स्वैच्छिक समझौते का हिस्सा थीं, जिसमें एंथ्रोपिक ने जुलाई 2023 में OpenAI, Google, और Meta जैसे अन्य तकनीकी दिग्गजों के साथ भाग लिया था। यह समझौता बाइडेन प्रशासन के जिम्मेदार AI विकास को बढ़ावा देने के प्रयासों का आधार था, जिनमें से कई पहलुओं को बाद में बाइडेन के AI कार्यकारी आदेश में शामिल किया गया। भाग लेने वाली कंपनियों ने कुछ मानकों का पालन करने की प्रतिज्ञा की थी, जैसे कि अपने मॉडलों पर रिलीज से पहले सुरक्षा परीक्षण करना, AI-जनरेटेड सामग्री पर वॉटरमार्किंग करना, और मजबूत डेटा गोपनीयता बुनियादी ढांचा विकसित करना।
इसके अलावा, एंथ्रोपिक ने बाइडेन के कार्यकारी आदेश के तहत स्थापित AI Safety Institute के साथ सहयोग करने पर सहमति जताई थी, ताकि इन प्राथमिकताओं को आगे बढ़ाया जा सके। हालांकि, ट्रम्प प्रशासन द्वारा इस संस्थान को भंग करने की संभावना के साथ, इन पहलों का भविष्य अनिश्चित है।
दिलचस्प बात यह है कि एंथ्रोपिक ने अपनी वेबसाइट से इन प्रतिबद्धताओं को हटाने की कोई सार्वजनिक घोषणा नहीं की। कंपनी का दावा है कि जिम्मेदार AI पर उसकी वर्तमान स्थिति या तो बाइडेन-युग के समझौतों से असंबंधित है या उनसे पहले की है।
ट्रम्प प्रशासन के तहत व्यापक निहितार्थ
यह विकास ट्रम्प प्रशासन के तहत AI नीति और विनियमन में व्यापक बदलाव का हिस्सा है। अपने पहले दिन में, ट्रम्प ने बाइडेन के AI पर कार्यकारी आदेश को उलट दिया, और उन्होंने पहले ही कई AI विशेषज्ञों को सरकारी पदों से हटा दिया और शोध वित्त पोषण में कटौती की। इन कार्यों ने प्रमुख AI कंपनियों के बीच एक उल्लेखनीय बदलाव की नींव रखी है, जिनमें से कुछ अब अपने सरकारी अनुबंधों का विस्तार करने और ट्रम्प के तहत अभी भी विकसित हो रही AI नीति परिदृश्य को प्रभावित करने की कोशिश कर रही हैं।
उदाहरण के लिए, Google जैसी कंपनियां जिम्मेदार AI के गठन को फिर से परिभाषित कर रही हैं, जो संभावित रूप से पहले से ही बहुत सख्त नहीं मानकों को ढीला कर रही हैं। बाइडेन प्रशासन के दौरान स्थापित सी خدا-ब-खुद AI विनियमन के जोखिम में होने के साथ, कंपनियों को स्व-नियमन या तीसरे पक्ष की निगरानी के लिए प्रस्तुत करने के लिए और भी कम बाहरी प्रोत्साहन मिल सकते हैं।
उल्लेखनीय रूप से, AI सिस्टम में पक्षपात और भेदभाव के लिए सुरक्षा जांच के बारे में चर्चाएँ ट्रम्प के AI पर सार्वजनिक बयानों से स्पष्ट रूप से अनुपस्थित रही हैं, जो इन प्राथमिकताओं से संभावित बदलाव का सुझाव देता है।
संबंधित लेख
AI Comic Factory: शिक्षा को रचनात्मक AI उपकरणों के साथ क्रांतिकारी बदलाव
आज के गतिशील शैक्षिक परिदृश्य में, शिक्षक लगातार नवीन तरीकों की खोज कर रहे हैं ताकि छात्रों का ध्यान आकर्षित किया जाए और रचनात्मकता को प्रज्वलित किया जाए। शिक्षा में कृत्रिम बुद्धिमत्ता (AI) का एकीकरण
AI驱动的美甲沙龙效率:提升运营和增长
在充满活力的商业世界中,优化运营和提升客户满意度是成功的关键。美甲沙龙,如Tamashi美甲沙龙,正在转向创新解决方案,以提高效率、降低成本并改善客户体验。人工智能(AI)提供了变革性的工具来应对这些挑战,从自动化预约到提供全天候客户支持。本文深入探讨了AI如何简化Tamashi美甲沙龙的运营、提高生产力并推动增长。关键要点AI简化了美甲沙龙的预约流程。AI聊天机器人提供全天候客户支持。AI通过自
2025 में AI-संचालित बच्चों के गीतों को लाभ के लिए बनाना
2025 में, कृत्रिम बुद्धिमत्ता बच्चों के मनोरंजन को बदल रही है। AI द्वारा निर्मित बच्चों के गीत बनाना न केवल एक दूरदर्शी अवधारणा है; यह एक व्यावहारिक, राजस्व उत्पन्न करने वाला अवसर है। यह मार्गदर्शिका
सूचना (2)
0/200
JuanLewis
4 अगस्त 2025 11:31:00 पूर्वाह्न IST
Interesting move by Anthropic, but kinda shady to just erase those AI safety promises. Makes you wonder what’s cooking behind the scenes. 🧐
0
PaulHill
28 जुलाई 2025 6:50:54 पूर्वाह्न IST
I was shocked to see Anthropic pull those AI safety pledges! 🤯 It makes you wonder if they're dodging accountability or just cleaning up their site. Either way, it’s a bold move in today’s AI race.
0
एंथ्रोपिक ने वेबसाइट से बाइडेन-युग की AI सुरक्षा प्रतिबद्धताओं को हटाया
एक कदम जो ध्यान आकर्षित कर रहा है, AI उद्योग में प्रमुख खिलाड़ी एंथ्रोपिक ने पिछले सप्ताह अपनी पारदर्शिता हब से बाइडेन-युग की सुरक्षित AI विकास की प्रतिबद्धताओं को चुपके से हटा दिया। यह बदलाव सबसे पहले The Midas Project, एक AI निगरानी समूह, द्वारा देखा गया, जिसने भाषा की अनुपस्थिति को नोट किया जो सरकार के साथ AI जोखिमों, जिसमें पक्षपात शामिल है, के बारे में जानकारी और शोध साझा करने का वादा करती थी।
ये प्रतिबद्धताएँ एक स्वैच्छिक समझौते का हिस्सा थीं, जिसमें एंथ्रोपिक ने जुलाई 2023 में OpenAI, Google, और Meta जैसे अन्य तकनीकी दिग्गजों के साथ भाग लिया था। यह समझौता बाइडेन प्रशासन के जिम्मेदार AI विकास को बढ़ावा देने के प्रयासों का आधार था, जिनमें से कई पहलुओं को बाद में बाइडेन के AI कार्यकारी आदेश में शामिल किया गया। भाग लेने वाली कंपनियों ने कुछ मानकों का पालन करने की प्रतिज्ञा की थी, जैसे कि अपने मॉडलों पर रिलीज से पहले सुरक्षा परीक्षण करना, AI-जनरेटेड सामग्री पर वॉटरमार्किंग करना, और मजबूत डेटा गोपनीयता बुनियादी ढांचा विकसित करना।
इसके अलावा, एंथ्रोपिक ने बाइडेन के कार्यकारी आदेश के तहत स्थापित AI Safety Institute के साथ सहयोग करने पर सहमति जताई थी, ताकि इन प्राथमिकताओं को आगे बढ़ाया जा सके। हालांकि, ट्रम्प प्रशासन द्वारा इस संस्थान को भंग करने की संभावना के साथ, इन पहलों का भविष्य अनिश्चित है।
दिलचस्प बात यह है कि एंथ्रोपिक ने अपनी वेबसाइट से इन प्रतिबद्धताओं को हटाने की कोई सार्वजनिक घोषणा नहीं की। कंपनी का दावा है कि जिम्मेदार AI पर उसकी वर्तमान स्थिति या तो बाइडेन-युग के समझौतों से असंबंधित है या उनसे पहले की है।
ट्रम्प प्रशासन के तहत व्यापक निहितार्थ
यह विकास ट्रम्प प्रशासन के तहत AI नीति और विनियमन में व्यापक बदलाव का हिस्सा है। अपने पहले दिन में, ट्रम्प ने बाइडेन के AI पर कार्यकारी आदेश को उलट दिया, और उन्होंने पहले ही कई AI विशेषज्ञों को सरकारी पदों से हटा दिया और शोध वित्त पोषण में कटौती की। इन कार्यों ने प्रमुख AI कंपनियों के बीच एक उल्लेखनीय बदलाव की नींव रखी है, जिनमें से कुछ अब अपने सरकारी अनुबंधों का विस्तार करने और ट्रम्प के तहत अभी भी विकसित हो रही AI नीति परिदृश्य को प्रभावित करने की कोशिश कर रही हैं।
उदाहरण के लिए, Google जैसी कंपनियां जिम्मेदार AI के गठन को फिर से परिभाषित कर रही हैं, जो संभावित रूप से पहले से ही बहुत सख्त नहीं मानकों को ढीला कर रही हैं। बाइडेन प्रशासन के दौरान स्थापित सी خدا-ब-खुद AI विनियमन के जोखिम में होने के साथ, कंपनियों को स्व-नियमन या तीसरे पक्ष की निगरानी के लिए प्रस्तुत करने के लिए और भी कम बाहरी प्रोत्साहन मिल सकते हैं।
उल्लेखनीय रूप से, AI सिस्टम में पक्षपात और भेदभाव के लिए सुरक्षा जांच के बारे में चर्चाएँ ट्रम्प के AI पर सार्वजनिक बयानों से स्पष्ट रूप से अनुपस्थित रही हैं, जो इन प्राथमिकताओं से संभावित बदलाव का सुझाव देता है।




Interesting move by Anthropic, but kinda shady to just erase those AI safety promises. Makes you wonder what’s cooking behind the scenes. 🧐




I was shocked to see Anthropic pull those AI safety pledges! 🤯 It makes you wonder if they're dodging accountability or just cleaning up their site. Either way, it’s a bold move in today’s AI race.












