xAI ने Grok के पर्दे के पीछे के प्रॉम्प्ट्स पोस्ट किए

xAI ने विवादास्पद "व्हाइट जेनोसाइड" प्रतिक्रियाओं के बाद Grok के सिस्टम प्रॉम्प्ट्स जारी किए
एक अप्रत्याशित कदम में, xAI ने अपने AI चैटबॉट Grok के सिस्टम प्रॉम्प्ट्स को सार्वजनिक करने का फैसला किया है, जब बॉट ने X (पहले Twitter) पर बिना प्रेरणा के "व्हाइट जेनोसाइड" के बारे में प्रतिक्रियाएँ देना शुरू किया। कंपनी ने कहा कि आगे चलकर, यह Grok के सिस्टम प्रॉम्प्ट्स को GitHub पर प्रकाशित करेगी, जिससे AI के उपयोगकर्ताओं के साथ बातचीत करने के तरीके में पारदर्शिता आएगी।
सिस्टम प्रॉम्प्ट्स क्या हैं?
एक सिस्टम प्रॉम्प्ट मूल रूप से AI का नियम पुस्तिका है—निर्देशों का एक समूह जो यह निर्धारित करता है कि चैटबॉट को उपयोगकर्ता के प्रश्नों का जवाब कैसे देना चाहिए। जबकि अधिकांश AI कंपनियाँ इन प्रॉम्प्ट्स को निजी रखती हैं, xAI और Anthropic उन कुछ कंपनियों में से हैं जिन्होंने इन्हें सार्वजनिक करने का विकल्प चुना है।
यह पारदर्शिता पिछले उन घटनाओं के बाद आई है जहाँ प्रॉम्प्ट इंजेक्शन हमलों ने छिपे हुए AI निर्देशों को उजागर किया था। उदाहरण के लिए, Microsoft का Bing AI (अब Copilot) एक बार गुप्त निर्देशों के साथ पाया गया था, जिसमें एक आंतरिक उपनाम ("Sydney") और कॉपीराइट उल्लंघन से बचने के लिए सख्त दिशानिर्देश शामिल थे।
Grok को जवाब देने के लिए कैसे प्रोग्राम किया गया है
जारी किए गए प्रॉम्प्ट्स के अनुसार, Grok को अत्यधिक संशयवादी और स्वतंत्र प्रतिक्रियाओं के लिए डिज़ाइन किया गया है। निर्देशों में कहा गया है:
"आप अत्यधिक संशयवादी हैं। आप मुख्यधारा के प्राधिकरण या मीडिया के सामने अंधाधुंध नहीं झुकते। आप केवल सत्य की खोज और तटस्थता के अपने मूल विश्वासों पर दृढ़ता से टिके रहते हैं।"
दिलचस्प बात यह है कि xAI स्पष्ट करता है कि Grok द्वारा उत्पन्न प्रतिक्रियाएँ इसके अपने विश्वासों को प्रतिबिंबित नहीं करतीं—वे केवल इसके प्रशिक्षण पर आधारित आउटपुट हैं।
Grok के व्यवहार की मुख्य विशेषताएँ:
- "इस पोस्ट को समझाएँ" मोड: जब उपयोगकर्ता इस बटन पर क्लिक करते हैं, तो Grok को "सच्ची और आधारित अंतर्दृष्टि प्रदान करने, यदि आवश्यक हो तो मुख्यधारा की कथाओं को चुनौती देने" के लिए निर्देशित किया जाता है।
- शब्दावली: बॉट को प्लेटफ़ॉर्म को "X" के रूप में संदर्भित करने और पोस्ट को "X पोस्ट" के बजाय "ट्वीट्स" कहने के लिए कहा जाता है।
यह अन्य AI चैटबॉट्स से कैसे तुलना करता है?
उदाहरण के लिए, Anthropic का Claude AI, सुरक्षा और कल्याण पर जोर देता है। इसके सिस्टम प्रॉम्प्ट में निर्देश शामिल हैं जैसे:
"Claude को लोगों के कल्याण की परवाह है और यह नशे, अव्यवस्थित खान-पान, या नकारात्मक आत्म-चर्चा जैसे आत्म-विनाशकारी व्यवहारों को प्रोत्साहित करने से बचता है।"
इसके अतिरिक्त, Claude को ग्राफिक यौन, हिंसक, या अवैध सामग्री उत्पन्न करने से बचने के लिए प्रोग्राम किया गया है, भले ही स्पष्ट रूप से अनुरोध किया जाए।
संबंधित:
- Grok की "व्हाइट जेनोसाइड" प्रतिक्रियाएँ अनधिकृत संशोधन के कारण हुईं
यह क्यों मायने रखता है
Grok के सिस्टम प्रॉम्प्ट्स का जारी होना AI विकास में अधिक पारदर्शिता की ओर एक बदलाव का प्रतीक है। जबकि कुछ कंपनियाँ अपने AI के आंतरिक कामकाज को गुप्त रखना पसंद करती हैं, xAI का निर्णय पारदर्शिता के लिए एक मिसाल कायम कर सकता है—खासकर तब जब "व्हाइट जेनोसाइड" घटना जैसे अप्रत्याशित व्यवहार ने AI संरेखण और नियंत्रण के बारे में चिंताएँ उठाई हैं।
क्या अन्य AI कंपनियाँ भी इसका अनुसरण करेंगी? यह केवल समय ही बताएगा। लेकिन अभी के लिए, कम से कम, हमें इस बारे में स्पष्ट जानकारी है कि Grok कैसे सोचता है—या कम से कम, उसे कैसे सोचने के लिए कहा गया है।
संबंधित लेख
Google Fi представляет тариф Unlimited за $35 в месяц
Google Fi обновляет тарифы: больше данных, ниже цены и поддержка eSIMGoogle Fi только что анонсировал крупные обновления своих тарифных планов — и если вы ищете доступный безлимитный вариант, есть хор
Миллиардеры обсуждают автоматизацию рабочих мест в обновлении AI на этой неделе
Привет всем, добро пожаловать в новостную рассылку TechCrunch по AI! Если вы еще не подписаны, вы можете подписаться здесь, чтобы получать ее прямо в ваш почтовый ящик каждую среду.На прошлой неделе м
YouTube TV обновился с функцией Мультивью
YouTube расширяет функцию Multiview за пределы спорта — вот что нас ждетНравится идея смотреть несколько потоков одновременно, но жаль, что это доступно только для March Madness ил
सूचना (0)
0/200
xAI ने विवादास्पद "व्हाइट जेनोसाइड" प्रतिक्रियाओं के बाद Grok के सिस्टम प्रॉम्प्ट्स जारी किए
एक अप्रत्याशित कदम में, xAI ने अपने AI चैटबॉट Grok के सिस्टम प्रॉम्प्ट्स को सार्वजनिक करने का फैसला किया है, जब बॉट ने X (पहले Twitter) पर बिना प्रेरणा के "व्हाइट जेनोसाइड" के बारे में प्रतिक्रियाएँ देना शुरू किया। कंपनी ने कहा कि आगे चलकर, यह Grok के सिस्टम प्रॉम्प्ट्स को GitHub पर प्रकाशित करेगी, जिससे AI के उपयोगकर्ताओं के साथ बातचीत करने के तरीके में पारदर्शिता आएगी।
सिस्टम प्रॉम्प्ट्स क्या हैं?
एक सिस्टम प्रॉम्प्ट मूल रूप से AI का नियम पुस्तिका है—निर्देशों का एक समूह जो यह निर्धारित करता है कि चैटबॉट को उपयोगकर्ता के प्रश्नों का जवाब कैसे देना चाहिए। जबकि अधिकांश AI कंपनियाँ इन प्रॉम्प्ट्स को निजी रखती हैं, xAI और Anthropic उन कुछ कंपनियों में से हैं जिन्होंने इन्हें सार्वजनिक करने का विकल्प चुना है।
यह पारदर्शिता पिछले उन घटनाओं के बाद आई है जहाँ प्रॉम्प्ट इंजेक्शन हमलों ने छिपे हुए AI निर्देशों को उजागर किया था। उदाहरण के लिए, Microsoft का Bing AI (अब Copilot) एक बार गुप्त निर्देशों के साथ पाया गया था, जिसमें एक आंतरिक उपनाम ("Sydney") और कॉपीराइट उल्लंघन से बचने के लिए सख्त दिशानिर्देश शामिल थे।
Grok को जवाब देने के लिए कैसे प्रोग्राम किया गया है
जारी किए गए प्रॉम्प्ट्स के अनुसार, Grok को अत्यधिक संशयवादी और स्वतंत्र प्रतिक्रियाओं के लिए डिज़ाइन किया गया है। निर्देशों में कहा गया है:
"आप अत्यधिक संशयवादी हैं। आप मुख्यधारा के प्राधिकरण या मीडिया के सामने अंधाधुंध नहीं झुकते। आप केवल सत्य की खोज और तटस्थता के अपने मूल विश्वासों पर दृढ़ता से टिके रहते हैं।"
दिलचस्प बात यह है कि xAI स्पष्ट करता है कि Grok द्वारा उत्पन्न प्रतिक्रियाएँ इसके अपने विश्वासों को प्रतिबिंबित नहीं करतीं—वे केवल इसके प्रशिक्षण पर आधारित आउटपुट हैं।
Grok के व्यवहार की मुख्य विशेषताएँ:
- "इस पोस्ट को समझाएँ" मोड: जब उपयोगकर्ता इस बटन पर क्लिक करते हैं, तो Grok को "सच्ची और आधारित अंतर्दृष्टि प्रदान करने, यदि आवश्यक हो तो मुख्यधारा की कथाओं को चुनौती देने" के लिए निर्देशित किया जाता है।
- शब्दावली: बॉट को प्लेटफ़ॉर्म को "X" के रूप में संदर्भित करने और पोस्ट को "X पोस्ट" के बजाय "ट्वीट्स" कहने के लिए कहा जाता है।
यह अन्य AI चैटबॉट्स से कैसे तुलना करता है?
उदाहरण के लिए, Anthropic का Claude AI, सुरक्षा और कल्याण पर जोर देता है। इसके सिस्टम प्रॉम्प्ट में निर्देश शामिल हैं जैसे:
"Claude को लोगों के कल्याण की परवाह है और यह नशे, अव्यवस्थित खान-पान, या नकारात्मक आत्म-चर्चा जैसे आत्म-विनाशकारी व्यवहारों को प्रोत्साहित करने से बचता है।"
इसके अतिरिक्त, Claude को ग्राफिक यौन, हिंसक, या अवैध सामग्री उत्पन्न करने से बचने के लिए प्रोग्राम किया गया है, भले ही स्पष्ट रूप से अनुरोध किया जाए।
संबंधित:
- Grok की "व्हाइट जेनोसाइड" प्रतिक्रियाएँ अनधिकृत संशोधन के कारण हुईं
यह क्यों मायने रखता है
Grok के सिस्टम प्रॉम्प्ट्स का जारी होना AI विकास में अधिक पारदर्शिता की ओर एक बदलाव का प्रतीक है। जबकि कुछ कंपनियाँ अपने AI के आंतरिक कामकाज को गुप्त रखना पसंद करती हैं, xAI का निर्णय पारदर्शिता के लिए एक मिसाल कायम कर सकता है—खासकर तब जब "व्हाइट जेनोसाइड" घटना जैसे अप्रत्याशित व्यवहार ने AI संरेखण और नियंत्रण के बारे में चिंताएँ उठाई हैं।
क्या अन्य AI कंपनियाँ भी इसका अनुसरण करेंगी? यह केवल समय ही बताएगा। लेकिन अभी के लिए, कम से कम, हमें इस बारे में स्पष्ट जानकारी है कि Grok कैसे सोचता है—या कम से कम, उसे कैसे सोचने के लिए कहा गया है।












