विकल्प
घर समाचार पूर्व-ओपेनाई पॉलिसी लीड स्लैम कंपनी एआई सुरक्षा कथा को बदलने के लिए

पूर्व-ओपेनाई पॉलिसी लीड स्लैम कंपनी एआई सुरक्षा कथा को बदलने के लिए

रिलीज़ की तारीख रिलीज़ की तारीख 10 अप्रैल 2025
लेखक लेखक BruceMitchell
दृश्य दृश्य 23

पूर्व-ओपेनाई पॉलिसी लीड स्लैम कंपनी एआई सुरक्षा कथा को बदलने के लिए

एक पूर्व Openai नीति शोधकर्ता, माइल्स ब्रूंडेज, ने हाल ही में सोशल मीडिया पर ओपनई को कॉल करने के लिए लिया, जो वह संभावित जोखिम भरे एआई सिस्टम को तैनात करने के लिए अपने दृष्टिकोण के "इतिहास को फिर से लिखने" के प्रयास के रूप में देखता है। इस हफ्ते, Openai ने AI सुरक्षा और संरेखण पर अपने वर्तमान रुख का विवरण देते हुए एक दस्तावेज जारी किया, AI सिस्टम्स को सुनिश्चित करने की प्रक्रिया पूर्वानुमान और लाभकारी तरीकों से कार्य करती है। इसमें, Openai ने AGI के विकास का वर्णन किया, या AI सिस्टम जो किसी भी कार्य के लिए सक्षम हो सकता है, एक "निरंतर पथ" के रूप में, जिसमें AI प्रौद्योगिकियों से "पुनरावृत्त रूप से तैनात और सीखना" शामिल है। "एक असंतोषजनक दुनिया में [...] सुरक्षा सबक आज की प्रणालियों के इलाज से आते हैं, जो उनकी स्पष्ट शक्ति के सापेक्ष बाहरी सावधानी के साथ, [जो] वह दृष्टिकोण है जिसे हमने [हमारे एआई मॉडल] जीपीटी -2 के लिए लिया है," ओपनई ने दस्तावेज़ में कहा। "अब हम पहले एजीआई को बढ़ती उपयोगिता की प्रणालियों की एक श्रृंखला के साथ सिर्फ एक बिंदु के रूप में देखते हैं [...] निरंतर दुनिया में, अगले सिस्टम को सुरक्षित और लाभकारी बनाने का तरीका वर्तमान प्रणाली से सीखना है।" हालांकि, ब्रूंडेज का तर्क है कि जीपीटी -2 के साथ लिया गया सतर्क दृष्टिकोण पूरी तरह से ओपनईआई की वर्तमान पुनरावृत्ति तैनाती रणनीति के अनुरूप था। "जीपीटी -2 की ओपनईआई की रिहाई, जिसमें मैं शामिल था, 100% सुसंगत था [के साथ और] ने ओपनईआई के वर्तमान दर्शन को पुनरावृत्ति की तैनाती के मौजूदा दर्शन के साथ पूर्वाभ्यास किया," एक्स पर पोस्ट किया गया था। ब्रुन्डेज, जो 2018 में एक शोध वैज्ञानिक के रूप में ओपनआईए में शामिल हुए और बाद में कंपनी के नीति अनुसंधान के प्रमुख बन गए, ने ओपनईएआई की "एजीआई रेडीनेस" टीम के दौरान चटप्ट जैसी भाषा उत्पादन प्रणालियों की जिम्मेदार तैनाती पर ध्यान केंद्रित किया। GPT-2, 2019 में Openai द्वारा घोषित, CHATGPT के पीछे AI सिस्टम के लिए एक अग्रदूत था। यह सवालों का जवाब दे सकता है, लेखों को संक्षेप में प्रस्तुत कर सकता है, और पाठ उत्पन्न कर सकता है जो कभी -कभी मानव लेखन से अप्रभेद्य था। हालांकि GPT-2 अब बुनियादी लग सकता है, यह उस समय ग्राउंडब्रेकिंग था। संभावित दुरुपयोग के बारे में चिंताओं के कारण, Openai ने शुरू में मॉडल के स्रोत कोड को रोक दिया, इसके बजाय एक डेमो तक सीमित समाचार आउटलेट्स को सीमित करने की अनुमति दी। निर्णय को एआई समुदाय से मिश्रित प्रतिक्रिया मिली। कुछ लोगों ने तर्क दिया कि जीपीटी -2 से जुड़े जोखिमों को खत्म कर दिया गया था, और दुरुपयोग के बारे में ओपनईआई की चिंताओं का समर्थन करने के लिए कोई सबूत नहीं था। एआई-केंद्रित प्रकाशन द ग्रैडिएंट ने एक खुला पत्र भी प्रकाशित किया, जिसमें ओपनईआई ने अपने तकनीकी महत्व का हवाला देते हुए मॉडल जारी करने का आग्रह किया। Openai ने अंततः अपनी घोषणा के बाद GPT-2 का एक आंशिक संस्करण जारी किया, इसके बाद कई महीनों बाद पूर्ण प्रणाली हुई। ब्रुन्डेज का मानना ​​है कि यह सही दृष्टिकोण था। उन्होंने एक्स पर कहा, "[जीपीटी -2 रिलीज़] के किस हिस्से को प्रेरित किया गया था या एजीआई के बारे में सोचने के लिए प्रेरित किया गया था। इसमें से कोई भी नहीं था।" ब्रुन्डेज चिंतित है कि ओपनईआई के दस्तावेज़ का उद्देश्य सबूत का एक उच्च बोझ स्थापित करना है, जहां चिंताओं को अलार्म के रूप में खारिज कर दिया जाता है जब तक कि आसन्न खतरों का भारी सबूत नहीं होता। वह उन्नत एआई सिस्टम के लिए इस मानसिकता को "बहुत खतरनाक" पाता है। "अगर मैं अभी भी Openai में काम कर रहा था, तो मैं पूछ रहा हूँ कि यह [दस्तावेज़] जिस तरह से लिखा गया था, और वास्तव में ओपनई ने पू-पू-सावधानी से सावधानी बरतने की उम्मीद की थी," ब्रुन्डेज ने कहा। Openai ने अतीत में सुरक्षा पर "चमकदार उत्पादों" को प्राथमिकता देने के लिए अतीत में आलोचना का सामना किया है और प्रतियोगियों को बाहर करने के लिए रिलीज की दौड़ लगाई है। पिछले साल, कंपनी ने अपनी एजीआई तत्परता टीम को भंग कर दिया, और कई एआई सुरक्षा और नीति शोधकर्ताओं ने प्रतिद्वंद्वी फर्मों के लिए छोड़ दिया। प्रतिस्पर्धी परिदृश्य तेज हो गया है, चीनी एआई लैब डीपसेक के आर 1 मॉडल के साथ, जो खुले तौर पर उपलब्ध है और ओपनईआई के ओ 1 "रीजनिंग" मॉडल को प्रमुख बेंचमार्क पर, वैश्विक ध्यान आकर्षित करता है। Openai के सीईओ सैम अल्टमैन ने स्वीकार किया है कि दीपसेक ने ओपनईआई की तकनीकी लीड को संकुचित कर दिया है, जिससे ओपनआईएआई ने अपने रिलीज़ शेड्यूल को तेज करने पर विचार किया। Openai ने कथित तौर पर सालाना अरबों की कमी और 2026 तक 2026 तक $ 14 बिलियन तक नुकसान पहुंचाने के साथ, एक तेज़ उत्पाद रिलीज चक्र अल्पकालिक मुनाफे को बढ़ावा दे सकता है, लेकिन संभावित रूप से दीर्घकालिक सुरक्षा से समझौता कर सकता है। ब्रूंडेज जैसे विशेषज्ञ सवाल कर रहे हैं कि क्या यह व्यापार-बंद सार्थक है।
संबंधित लेख
Google搜索引入了复杂的多部分查询的“ AI模式” Google搜索引入了复杂的多部分查询的“ AI模式” Google推出了“ AI模式”,以搜索与竞争对手的困惑AI和ChatgptGoogle在AI Arena中加强游戏,并在其搜索引擎中启动了实验性的“ AI模式”功能。旨在进行困惑AI和Openai的Chatgpt搜索之类
YouTube Backs“ No Fakes Act”来对抗未经授权的AI复制品 YouTube Backs“ No Fakes Act”来对抗未经授权的AI复制品 参议员克里斯·库恩斯(Chris Coons)(D-de)和玛莎·布莱克本(R-TN)再次推动他们的养育原始作品,培养艺术,并保持娱乐安全,或者没有假货。该立法旨在制定有关创建AI生成的人脸,名称或声音的明确规定。介绍后
Microsoft终止将AI高管标记为“战争Profiteer”的员工 Microsoft终止将AI高管标记为“战争Profiteer”的员工 在该公司50周年纪念庆祝活动的中断之后,Microsoft在50周年纪念活动的中断后终止了雇员。根据The Verge收到的电子邮件,Microsoft引用了“不当行为”
सूचना (30)
RoySmith
RoySmith 12 अप्रैल 2025 8:02:03 अपराह्न GMT

OpenAI's attempt to rewrite history on AI safety is just shady. Miles Brundage spilling the tea on social media? Love it! But seriously, OpenAI needs to be more transparent about their safety measures. It's important, guys!

WillieHernández
WillieHernández 11 अप्रैल 2025 7:32:08 अपराह्न GMT

OpenAIがAI安全性の歴史を書き換えようとするのは怪しいね。Miles Brundageがソーシャルメディアで暴露するなんて、最高!でも本当に、OpenAIは安全対策についてもっと透明性を持つべきだよ。重要なことなんだから!

LunaYoung
LunaYoung 10 अप्रैल 2025 6:39:41 अपराह्न GMT

A tentativa da OpenAI de reescrever a história sobre segurança em IA é simplesmente suspeita. Miles Brundage revelando tudo nas redes sociais? Adoro! Mas sério, a OpenAI precisa ser mais transparente sobre suas medidas de segurança. É importante, pessoal!

WillMitchell
WillMitchell 12 अप्रैल 2025 1:02:18 पूर्वाह्न GMT

El intento de OpenAI de reescribir la historia sobre la seguridad en IA es simplemente sospechoso. ¿Miles Brundage revelando todo en las redes sociales? ¡Me encanta! Pero en serio, OpenAI necesita ser más transparente sobre sus medidas de seguridad. ¡Es importante, chicos!

AlbertGarcía
AlbertGarcía 11 अप्रैल 2025 3:56:49 अपराह्न GMT

OpenAIs Versuch, die Geschichte der KI-Sicherheit umzuschreiben, ist einfach dubios. Miles Brundage, der das Ganze in den sozialen Medien aufdeckt? Liebe es! Aber im Ernst, OpenAI muss transparenter über ihre Sicherheitsmaßnahmen sein. Das ist wichtig, Leute!

CharlesWhite
CharlesWhite 12 अप्रैल 2025 2:56:18 अपराह्न GMT

I'm kinda torn on this one. On one hand, it's cool that someone's calling out OpenAI for changing their story on AI safety. On the other, it feels a bit like sour grapes from a former employee. Still, it's an interesting read! 🤔

शीर्ष समाचार
यूएस डेटा सेंटर के लिए ट्वीक्स 76 GW नई बिजली क्षमता को अनलॉक कर सकते हैं वाइल्डफायर डिटेक्शन में एक सफलता: कैसे उपग्रहों का एक नया नक्षत्र पहले छोटे जंगल की आग का पता लगा सकता है नोटबुकल्म वेब स्रोत खोज सुविधा जोड़ता है एआई कंप्यूटिंग 2026 तक कई एनवाईसीएस की शक्ति का उपभोग करने के लिए, संस्थापक कहते हैं एनवीडिया के सीईओ ने दीपसेक के बाजार प्रभाव पर गलतफहमी को स्पष्ट किया कंबियम का एआई कचरे की लकड़ी को लकड़ी में बदल देता है Openai की AI ने paywalled O'Reilly पुस्तकों पर प्रशिक्षित किया, शोधकर्ताओं का दावा है AI एक अधिक कुशल यूके सार्वजनिक क्षेत्र को अनलॉक करने की कुंजी हो सकती है Google.org ने सरकारी कर्मचारियों के लिए $ 15M AI प्रशिक्षण अनुदान का अनावरण किया डीप कॉगिटो के एलएलएम आईडीए का उपयोग करते हुए समान आकार के मॉडल को बेहतर बनाते हैं
अधिक
शीर्ष पर वापस
OR