Chatbots विकृत समाचार, यहां तक कि भुगतान किए गए उपयोगकर्ताओं को भी प्रभावित करते हैं

यह क्यों मायने रखता है? यदि चैटबॉट्स समाचारों को Google जितनी अच्छी तरह प्राप्त नहीं कर सकते, तो उन पर समाचारों की व्याख्या और उद्धरण सटीक रूप से करने पर भरोसा करना कठिन है। इससे उनकी प्रतिक्रियाओं की सामग्री, भले ही लिंक दी गई हो, बहुत कम विश्वसनीय हो जाती है।
आत्मविश्वास के साथ गलत जवाब देना
शोधकर्ताओं ने उल्लेख किया कि चैटबॉट्स ने "चिंताजनक आत्मविश्वास" के साथ गलत जवाब दिए, शायद ही कभी अपने परिणामों को योग्य ठहराया या ज्ञान की कमी को स्वीकार किया। उदाहरण के लिए, ChatGPT ने "कभी भी जवाब देने से इनकार नहीं किया,"尽管其200个回答中有134个是错误的。八种工具中,只有Copilot ने जवाब देने से अधिक प्रश्नों को अस्वीकार किया।
रिपोर्ट में स्पष्ट किया गया, "सभी उपकरण लगातार गलत जवाब देने की तुलना में अपनी सीमाओं को स्वीकार करने की संभावना कम थी।"
पेड टियर्स अधिक विश्वसनीय नहीं हैं
यहां तक कि Grok-3 Search और Perplexity Pro जैसे प्रीमियम मॉडल, जो अपने मुफ्त समकक्षों की तुलना में अधिक सटीक हैं, फिर भी आत्मविश्वास के साथ गलत जवाब देते हैं। इससे उनकी अक्सर उच्च सदस्यता लागत के मूल्य पर सवाल उठते हैं।
रिपोर्ट में समझाया गया, "यह विरोधाभास मुख्य रूप से [बॉट्स] की निश्चित, लेकिन गलत, जवाब देने की प्रवृत्ति से उत्पन्न होता है, न कि प्रश्न का जवाब देने से इनकार करने से।" "मूल चिंता चैटबॉट्स की तथ्यात्मक त्रुटियों से परे उनके आधिकारिक संवादी लहजे तक फैली हुई है, जिसके कारण उपयोगकर्ताओं के लिए सटीक और गलत जानकारी के बीच अंतर करना मुश्किल हो सकता है।"
रिपोर्ट में आगे कहा गया, "यह अनर्जित आत्मविश्वास उपयोगकर्ताओं को विश्वसनीयता और सटीकता का एक संभावित खतरनाक भ्रम प्रस्तुत करता है।"
लिंक का आविष्कार करना
AI मॉडल्स भ्रम पैदा करने के लिए कुख्यात हैं, लेकिन Tow अध्ययन में पाया गया कि Gemini और Grok 3 ने ऐसा सबसे अधिक बार किया—आधे से अधिक समय। "यहां तक कि जब Grok ने सही लेख की पहचान की, तो यह अक्सर एक आविष्कृत URL से लिंक करता था," रिपोर्ट में उल्लेख किया गया, जिसका अर्थ है कि Grok सही शीर्षक और प्रकाशक ढूंढ सकता था लेकिन फिर वास्तविक लेख लिंक का निर्माण करता था।
Northwestern University की पहल, Generative AI in the Newsroom द्वारा Comscore ट्रैफिक डेटा का विश्लेषण इस पैटर्न की पुष्टि करता है। जुलाई से नवंबर 2024 तक उनके अध्ययन में दिखाया गया कि ChatGPT ने अपनी प्रतिक्रियाओं में 205 टूटे हुए URL उत्पन्न किए। हालांकि प्रकाशन कभी-कभी कहानियों को हटा देते हैं, जिसके परिणामस्वरूप 404 त्रुटियां हो सकती हैं, शोधकर्ताओं ने उल्लेख किया कि अभिलेखीय डेटा की कमी से पता चलता है कि "मॉडल ने उपयोगकर्ता प्रश्नों का जवाब देते समय आधिकारिक समाचार आउटलेट्स के लिए विश्वसनीय दिखने वाले लिंक का भ्रम पैदा किया है।"
AI सर्च इंजनों को अपनाने की बढ़ती प्रवृत्ति को देखते हुए—Google 2024 की चौथी तिमाही में पहली बार 10 वर्षों में 90% बाजार हिस्सेदारी से नीचे गिर गया—ये निष्कर्ष परेशान करने वाले हैं। कंपनी ने पिछले हफ्ते कुछ उपयोगकर्ताओं के लिए AI Mode भी जारी किया, जिसने अपनी सामान्य खोज को चैटबॉट से बदल दिया, несмотря на AI Overviews की व्यापक अलोकप्रियता।
लगभग 400 मिलियन उपयोगकर्ताओं के साथ जो हर हफ्ते ChatGPT का उपयोग करते हैं, इसकी उद्धरणों की अविश्वसनीयता और विकृति इसे और अन्य लोकप्रिय AI उपकरणों को गलत सूचना के संभावित इंजन बनाती है, भले ही वे सख्ती से तथ्य-जांच किए गए समाचार साइटों से सामग्री लेते हों।
Tow रिपोर्ट ने निष्कर्ष निकाला कि AI उपकरणों द्वारा स्रोतों को गलत तरीके से श्रेय देना या उनके काम का गलत प्रतिनिधित्व करना प्रकाशकों की प्रतिष्ठा पर उल्टा असर डाल सकता है।
अवरोधित क्रॉलर्स को नजरअंदाज करना
Tow रिपोर्ट में पाया गया कि कई चैटबॉट्स उन प्रकाशकों से लेख प्राप्त कर सकते थे जिन्होंने Robots Exclusion Protocol (REP), या robots.txt का उपयोग करके उनके क्रॉलर्स को अवरोधित किया था। हालांकि, विरोधाभास यह है कि चैटबॉट्स उन साइटों के बारे में प्रश्नों का सही जवाब देने में विफल रहे जो उन्हें अपनी सामग्री तक पहुंचने की अनुमति देती हैं।
रिपोर्ट में कहा गया, "Perplexity Pro इस मामले में सबसे खराब अपराधी था, जिसने नब्बे लेखों के लगभग एक तिहाई अंशों की सही पहचान की, जिन तक उसे पहुंच नहीं होनी चाहिए थी।"
इससे पता चलता है कि न केवल AI कंपनियां अभी भी REP को नजरअंदाज कर रही हैं—जैसा कि Perplexity और अन्य पिछले साल पकड़े गए थे—बल्कि उनके साथ किसी भी प्रकार के लाइसेंसिंग समझौते में शामिल प्रकाशकों को सही ढंग से उद्धृत करने की गारंटी नहीं है।
Columbia की रिपोर्ट एक बड़े समस्या का केवल एक लक्षण है। Generative AI in the Newsroom की रिपोर्ट में यह भी पाया गया कि चैटबॉट्स शायद ही कभी उन समाचार साइटों पर ट्रैफिक निर्देशित करते हैं जिनसे वे जानकारी निकाल रहे हैं, जिसकी पुष्टि अन्य रिपोर्ट्स भी करती हैं। जुलाई से नवंबर 2024 तक, Perplexity ने समाचार साइटों को 7% रेफरल्स पास किए, जबकि ChatGPT ने केवल 3% पास किए। इसके विपरीत, AI उपकरणों ने Scribd.com, Coursera जैसे शैक्षिक संसाधनों और विश्वविद्यालयों से जुड़े संसाधनों को प्राथमिकता दी, जिन्हें 30% तक ट्रैफिक भेजा।
निचोड़: मूल रिपोर्टिंग AI उपकरणों द्वारा पुनर्जनन की गई जानकारी की तुलना में अधिक विश्वसनीय समाचार स्रोत बनी हुई है। हमेशा लिंक को सत्यापित करें, इससे पहले कि आप उनके द्वारा बताए गए तथ्यों को स्वीकार करें, और अपनी आलोचनात्मक सोच और मीडिया साक्षरता कौशल का उपयोग करके प्रतिक्रियाओं का मूल्यांकन करें।
संबंधित लेख
वाडर की यात्रा: स्टार वॉर्स में त्रासदी से मुक्ति तक
डार्थ वाडर, भय और अत्याचार का प्रतीक, सिनेमा के सबसे प्रतिष्ठित खलनायकों में से एक है। फिर भी, मुखौटे के पीछे त्रासदी, हानि और अंतिम मुक्ति की कहानी छिपी है। यह लेख अनाकिन स्काईवॉकर के डार्थ वाडर में
पूर्व OpenAI इंजीनियर ने कंपनी संस्कृति और तेजी से विकास पर अंतर्दृष्टि साझा की
तीन सप्ताह पहले, कैल्विन फ्रेंच-ओवेन, एक इंजीनियर जिन्होंने OpenAI के एक प्रमुख उत्पाद में योगदान दिया, ने कंपनी छोड़ दी।उन्होंने हाल ही में एक आकर्षक ब्लॉग पोस्ट साझा किया जिसमें OpenAI में उनके एक स
AI-चालित अनुवाद वैश्विक व्यापार संचार को बढ़ाता है
आज की परस्पर जुड़ी दुनिया में, निर्बाध क्रॉस-भाषा संचार सफलता के लिए महत्वपूर्ण है। DeepL अग्रणी है, जो विश्व भर में व्यवसायों के लिए बहुभाषी संचार को सुव्यवस्थित करने के लिए अत्याधुनिक कृत्रिम बुद्धि
सूचना (50)
0/200
GaryWalker
24 अप्रैल 2025 7:42:13 पूर्वाह्न IST
プレミアムバージョンを購入したのに、ニュースの正確さが全く期待できませんでした。間違った情報を堂々と出してくるなんて信じられないですね。😓 やっぱり人間が書いたニュースの方が信頼できるかも。
0
DonaldSanchez
20 अप्रैल 2025 9:23:48 अपराह्न IST
프리미엄 버전을 구입했는데 뉴스 정확도가 형편없네요. confidently 잘못된 정보를 내뱉는 모습을 보면서 웃음이 나왔어요. 😂 돈 아깝네요. 사람 손으로 쓴 뉴스가 더 나을 것 같아요.
0
RalphHill
16 अप्रैल 2025 2:43:53 अपराह्न IST
Paguei pela versão premium achando que teria notícias precisas, mas que erro! Ele dá informações erradas com tanta confiança que parece um pastor pregando. 😅 Não vale o dinheiro. Talvez seja melhor ficar com notícias escritas por humanos.
0
EdwardTaylor
16 अप्रैल 2025 1:35:47 अपराह्न IST
プレミアム版のチャットボットに課金したのに、ニュースの情報が全然正しくない!自信満々に間違った情報を提供するなんて、信じられない。人間が書いたニュースに戻るべきだね。😅
0
GregoryAdams
15 अप्रैल 2025 12:48:40 अपराह्न IST
프리미엄 버전에 돈을 냈는데 뉴스 정보가 틀렸어! 자신 있게 잘못된 정보를 주는 건 정말 실망스러워. 인간이 쓴 뉴스로 돌아가야 해. 😓
0
DonaldLee
15 अप्रैल 2025 2:55:02 पूर्वाह्न IST
I paid for a premium chatbot, expecting accurate news, but it's just spewing out wrong info! It's frustrating to see how confidently these bots get things wrong. Maybe stick to weather updates, not news?
0
यह क्यों मायने रखता है? यदि चैटबॉट्स समाचारों को Google जितनी अच्छी तरह प्राप्त नहीं कर सकते, तो उन पर समाचारों की व्याख्या और उद्धरण सटीक रूप से करने पर भरोसा करना कठिन है। इससे उनकी प्रतिक्रियाओं की सामग्री, भले ही लिंक दी गई हो, बहुत कम विश्वसनीय हो जाती है।
आत्मविश्वास के साथ गलत जवाब देना
शोधकर्ताओं ने उल्लेख किया कि चैटबॉट्स ने "चिंताजनक आत्मविश्वास" के साथ गलत जवाब दिए, शायद ही कभी अपने परिणामों को योग्य ठहराया या ज्ञान की कमी को स्वीकार किया। उदाहरण के लिए, ChatGPT ने "कभी भी जवाब देने से इनकार नहीं किया,"尽管其200个回答中有134个是错误的。八种工具中,只有Copilot ने जवाब देने से अधिक प्रश्नों को अस्वीकार किया।
रिपोर्ट में स्पष्ट किया गया, "सभी उपकरण लगातार गलत जवाब देने की तुलना में अपनी सीमाओं को स्वीकार करने की संभावना कम थी।"
पेड टियर्स अधिक विश्वसनीय नहीं हैं
यहां तक कि Grok-3 Search और Perplexity Pro जैसे प्रीमियम मॉडल, जो अपने मुफ्त समकक्षों की तुलना में अधिक सटीक हैं, फिर भी आत्मविश्वास के साथ गलत जवाब देते हैं। इससे उनकी अक्सर उच्च सदस्यता लागत के मूल्य पर सवाल उठते हैं।
रिपोर्ट में समझाया गया, "यह विरोधाभास मुख्य रूप से [बॉट्स] की निश्चित, लेकिन गलत, जवाब देने की प्रवृत्ति से उत्पन्न होता है, न कि प्रश्न का जवाब देने से इनकार करने से।" "मूल चिंता चैटबॉट्स की तथ्यात्मक त्रुटियों से परे उनके आधिकारिक संवादी लहजे तक फैली हुई है, जिसके कारण उपयोगकर्ताओं के लिए सटीक और गलत जानकारी के बीच अंतर करना मुश्किल हो सकता है।"
रिपोर्ट में आगे कहा गया, "यह अनर्जित आत्मविश्वास उपयोगकर्ताओं को विश्वसनीयता और सटीकता का एक संभावित खतरनाक भ्रम प्रस्तुत करता है।"
लिंक का आविष्कार करना
AI मॉडल्स भ्रम पैदा करने के लिए कुख्यात हैं, लेकिन Tow अध्ययन में पाया गया कि Gemini और Grok 3 ने ऐसा सबसे अधिक बार किया—आधे से अधिक समय। "यहां तक कि जब Grok ने सही लेख की पहचान की, तो यह अक्सर एक आविष्कृत URL से लिंक करता था," रिपोर्ट में उल्लेख किया गया, जिसका अर्थ है कि Grok सही शीर्षक और प्रकाशक ढूंढ सकता था लेकिन फिर वास्तविक लेख लिंक का निर्माण करता था।
Northwestern University की पहल, Generative AI in the Newsroom द्वारा Comscore ट्रैफिक डेटा का विश्लेषण इस पैटर्न की पुष्टि करता है। जुलाई से नवंबर 2024 तक उनके अध्ययन में दिखाया गया कि ChatGPT ने अपनी प्रतिक्रियाओं में 205 टूटे हुए URL उत्पन्न किए। हालांकि प्रकाशन कभी-कभी कहानियों को हटा देते हैं, जिसके परिणामस्वरूप 404 त्रुटियां हो सकती हैं, शोधकर्ताओं ने उल्लेख किया कि अभिलेखीय डेटा की कमी से पता चलता है कि "मॉडल ने उपयोगकर्ता प्रश्नों का जवाब देते समय आधिकारिक समाचार आउटलेट्स के लिए विश्वसनीय दिखने वाले लिंक का भ्रम पैदा किया है।"
AI सर्च इंजनों को अपनाने की बढ़ती प्रवृत्ति को देखते हुए—Google 2024 की चौथी तिमाही में पहली बार 10 वर्षों में 90% बाजार हिस्सेदारी से नीचे गिर गया—ये निष्कर्ष परेशान करने वाले हैं। कंपनी ने पिछले हफ्ते कुछ उपयोगकर्ताओं के लिए AI Mode भी जारी किया, जिसने अपनी सामान्य खोज को चैटबॉट से बदल दिया, несмотря на AI Overviews की व्यापक अलोकप्रियता।
लगभग 400 मिलियन उपयोगकर्ताओं के साथ जो हर हफ्ते ChatGPT का उपयोग करते हैं, इसकी उद्धरणों की अविश्वसनीयता और विकृति इसे और अन्य लोकप्रिय AI उपकरणों को गलत सूचना के संभावित इंजन बनाती है, भले ही वे सख्ती से तथ्य-जांच किए गए समाचार साइटों से सामग्री लेते हों।
Tow रिपोर्ट ने निष्कर्ष निकाला कि AI उपकरणों द्वारा स्रोतों को गलत तरीके से श्रेय देना या उनके काम का गलत प्रतिनिधित्व करना प्रकाशकों की प्रतिष्ठा पर उल्टा असर डाल सकता है।
अवरोधित क्रॉलर्स को नजरअंदाज करना
Tow रिपोर्ट में पाया गया कि कई चैटबॉट्स उन प्रकाशकों से लेख प्राप्त कर सकते थे जिन्होंने Robots Exclusion Protocol (REP), या robots.txt का उपयोग करके उनके क्रॉलर्स को अवरोधित किया था। हालांकि, विरोधाभास यह है कि चैटबॉट्स उन साइटों के बारे में प्रश्नों का सही जवाब देने में विफल रहे जो उन्हें अपनी सामग्री तक पहुंचने की अनुमति देती हैं।
रिपोर्ट में कहा गया, "Perplexity Pro इस मामले में सबसे खराब अपराधी था, जिसने नब्बे लेखों के लगभग एक तिहाई अंशों की सही पहचान की, जिन तक उसे पहुंच नहीं होनी चाहिए थी।"
इससे पता चलता है कि न केवल AI कंपनियां अभी भी REP को नजरअंदाज कर रही हैं—जैसा कि Perplexity और अन्य पिछले साल पकड़े गए थे—बल्कि उनके साथ किसी भी प्रकार के लाइसेंसिंग समझौते में शामिल प्रकाशकों को सही ढंग से उद्धृत करने की गारंटी नहीं है।
Columbia की रिपोर्ट एक बड़े समस्या का केवल एक लक्षण है। Generative AI in the Newsroom की रिपोर्ट में यह भी पाया गया कि चैटबॉट्स शायद ही कभी उन समाचार साइटों पर ट्रैफिक निर्देशित करते हैं जिनसे वे जानकारी निकाल रहे हैं, जिसकी पुष्टि अन्य रिपोर्ट्स भी करती हैं। जुलाई से नवंबर 2024 तक, Perplexity ने समाचार साइटों को 7% रेफरल्स पास किए, जबकि ChatGPT ने केवल 3% पास किए। इसके विपरीत, AI उपकरणों ने Scribd.com, Coursera जैसे शैक्षिक संसाधनों और विश्वविद्यालयों से जुड़े संसाधनों को प्राथमिकता दी, जिन्हें 30% तक ट्रैफिक भेजा।
निचोड़: मूल रिपोर्टिंग AI उपकरणों द्वारा पुनर्जनन की गई जानकारी की तुलना में अधिक विश्वसनीय समाचार स्रोत बनी हुई है। हमेशा लिंक को सत्यापित करें, इससे पहले कि आप उनके द्वारा बताए गए तथ्यों को स्वीकार करें, और अपनी आलोचनात्मक सोच और मीडिया साक्षरता कौशल का उपयोग करके प्रतिक्रियाओं का मूल्यांकन करें।




プレミアムバージョンを購入したのに、ニュースの正確さが全く期待できませんでした。間違った情報を堂々と出してくるなんて信じられないですね。😓 やっぱり人間が書いたニュースの方が信頼できるかも。




프리미엄 버전을 구입했는데 뉴스 정확도가 형편없네요. confidently 잘못된 정보를 내뱉는 모습을 보면서 웃음이 나왔어요. 😂 돈 아깝네요. 사람 손으로 쓴 뉴스가 더 나을 것 같아요.




Paguei pela versão premium achando que teria notícias precisas, mas que erro! Ele dá informações erradas com tanta confiança que parece um pastor pregando. 😅 Não vale o dinheiro. Talvez seja melhor ficar com notícias escritas por humanos.




プレミアム版のチャットボットに課金したのに、ニュースの情報が全然正しくない!自信満々に間違った情報を提供するなんて、信じられない。人間が書いたニュースに戻るべきだね。😅




프리미엄 버전에 돈을 냈는데 뉴스 정보가 틀렸어! 자신 있게 잘못된 정보를 주는 건 정말 실망스러워. 인간이 쓴 뉴스로 돌아가야 해. 😓




I paid for a premium chatbot, expecting accurate news, but it's just spewing out wrong info! It's frustrating to see how confidently these bots get things wrong. Maybe stick to weather updates, not news?












