Чат -боты искажают новости, влияющие на даже оплачиваемых пользователей

Почему это важно? Если чат-боты не могут даже извлекать новости так же эффективно, как Google, сложно доверять им в точной интерпретации и цитировании этих новостей. Это делает содержание их ответов, даже при наличии ссылок, гораздо менее надежным.
Уверенно давая неправильные ответы
Исследователи отметили, что чат-боты отвечали неправильно с «тревожной уверенностью», редко оговаривая свои результаты или признавая пробелы в знаниях. Например, ChatGPT «никогда не отказывался давать ответ», несмотря на то, что 134 из 200 его ответов были неверными. Из всех восьми инструментов только Copilot отказывался отвечать на большее количество запросов, чем отвечал.
«Все инструменты последовательно чаще давали неправильный ответ, чем признавали свои ограничения», — уточняется в отчете.
Платные уровни не более надежны
Даже премиум-модели, такие как Grok-3 Search и Perplexity Pro, хотя и более точные, чем их бесплатные аналоги, все равно уверенно давали неправильные ответы. Это вызывает вопросы о ценности их часто высоких подписных затрат.
«Это противоречие проистекает главным образом из склонности [ботов] давать окончательные, но неверные ответы, вместо того чтобы отказываться отвечать на вопрос напрямую», — объясняется в отчете. «Основная проблема выходит за рамки фактических ошибок чат-ботов и касается их авторитетного разговорного тона, который затрудняет пользователям различение точной и неточной информации».
«Эта незаслуженная уверенность создает для пользователей потенциально опасную иллюзию надежности и точности», — добавлено в отчете.
Изобретение ссылок
Модели AI печально известны галлюцинациями, но исследование Tow показало, что Gemini и Grok 3 делали это чаще всего — более половины времени. «Даже когда Grok правильно определял статью, он часто ссылался на выдуманный URL», — отмечено в отчете, что означает, что Grok мог найти правильное название и издателя, но затем создать ссылку на саму статью.
Анализ данных трафика Comscore, проведенный инициативой Северо-Западного университета Generative AI in the Newsroom, подтвердил эту закономерность. Их исследование с июля по ноябрь 2024 года показало, что ChatGPT сгенерировал 205 неработающих URL в своих ответах. Хотя издания иногда удаляют статьи, что может привести к ошибкам 404, исследователи отметили, что отсутствие архивных данных указывает на то, что «модель создавала правдоподобные ссылки на авторитетные новостные издания при ответе на запросы пользователей».
Учитывая рост популярности AI-поисковиков — Google впервые за 10 лет упал ниже 90% рыночной доли в четвертом квартале 2024 года — эти выводы вызывают беспокойство. Компания также на прошлой неделе выпустила AI Mode для некоторых пользователей, заменив обычный поиск чат-ботом, несмотря на широкую непопулярность AI Overviews.
С примерно 400 миллионами пользователей, еженедельно использующих ChatGPT, ненадежность и искажение его цитирований делают его и другие популярные инструменты AI потенциальными источниками дезинформации, даже когда они извлекают контент из тщательно проверенных новостных сайтов.
Отчет Tow пришел к выводу, что неправильное указание источников или неверное представление их работы может негативно сказаться на репутации издателей.
Игнорирование заблокированных краулеров
Ситуация ухудшается для издателей, поскольку отчет Tow установил, что несколько чат-ботов все еще могли извлекать статьи от издателей, которые заблокировали их краулеры с помощью протокола исключения роботов (REP) или robots.txt. Однако, парадоксально, чат-боты не могли правильно ответить на запросы о сайтах, которые разрешают им доступ к своему контенту.
«Perplexity Pro был худшим нарушителем в этом отношении, правильно идентифицировав почти треть из девяноста отрывков из статей, к которым он не должен был иметь доступ», — указано в отчете.
Это говорит о том, что компании AI все еще игнорируют REP — как это делали Perplexity и другие в прошлом году — и что издатели, находящиеся в любом виде лицензионного соглашения с ними, не гарантированно будут правильно процитированы.
Отчет Колумбийского университета — лишь один из симптомов более крупной проблемы. Отчет Generative AI in the Newsroom также выявил, что чат-боты редко направляют трафик на новостные сайты, из которых они извлекают информацию, что подтверждают другие отчеты. С июля по ноябрь 2024 года Perplexity передал 7% рефералов на новостные сайты, тогда как ChatGPT — только 3%. Для сравнения, инструменты AI отдавали предпочтение образовательным ресурсам, таким как Scribd.com, Coursera и ресурсам, связанным с университетами, направляя на них до 30% трафика.
Итог: оригинальные репортерские материалы остаются более надежным источником новостей, чем то, что воспроизводят инструменты AI. Всегда проверяйте ссылки, прежде чем принимать информацию за факт, и используйте свои навыки критического мышления и медиаграмотности для оценки ответов.
Связанная статья
Путешествие Вейдера: От трагедии к искуплению в «Звёздных войнах»
Дарт Вейдер, символ ужаса и тирании, остаётся одним из самых культовых антагонистов кинематографа. Однако за маской скрывается история трагедии, потерь и окончательного искупления. Эта статья исследуе
Бывший инженер OpenAI делится впечатлениями о культуре компании и быстром росте
Три недели назад Келвин Френч-Оуэн, инженер, работавший над ключевым продуктом OpenAI, покинул компанию.Недавно он опубликовал увлекательный пост в блоге, описывающий его год в OpenAI, включая интенси
AI-управляемый перевод улучшает глобальную деловую коммуникацию
В современном взаимосвязанном мире беспрепятственное межъязыковое общение жизненно важно для успеха. DeepL лидирует, используя передовой искусственный интеллект для упрощения многоязычных взаимодейств
Комментарии (50)
GaryWalker
24 апреля 2025 г., 5:12:13 GMT+03:00
プレミアムバージョンを購入したのに、ニュースの正確さが全く期待できませんでした。間違った情報を堂々と出してくるなんて信じられないですね。😓 やっぱり人間が書いたニュースの方が信頼できるかも。
0
DonaldSanchez
20 апреля 2025 г., 18:53:48 GMT+03:00
프리미엄 버전을 구입했는데 뉴스 정확도가 형편없네요. confidently 잘못된 정보를 내뱉는 모습을 보면서 웃음이 나왔어요. 😂 돈 아깝네요. 사람 손으로 쓴 뉴스가 더 나을 것 같아요.
0
RalphHill
16 апреля 2025 г., 12:13:53 GMT+03:00
Paguei pela versão premium achando que teria notícias precisas, mas que erro! Ele dá informações erradas com tanta confiança que parece um pastor pregando. 😅 Não vale o dinheiro. Talvez seja melhor ficar com notícias escritas por humanos.
0
EdwardTaylor
16 апреля 2025 г., 11:05:47 GMT+03:00
プレミアム版のチャットボットに課金したのに、ニュースの情報が全然正しくない!自信満々に間違った情報を提供するなんて、信じられない。人間が書いたニュースに戻るべきだね。😅
0
GregoryAdams
15 апреля 2025 г., 10:18:40 GMT+03:00
프리미엄 버전에 돈을 냈는데 뉴스 정보가 틀렸어! 자신 있게 잘못된 정보를 주는 건 정말 실망스러워. 인간이 쓴 뉴스로 돌아가야 해. 😓
0
DonaldLee
15 апреля 2025 г., 0:25:02 GMT+03:00
I paid for a premium chatbot, expecting accurate news, but it's just spewing out wrong info! It's frustrating to see how confidently these bots get things wrong. Maybe stick to weather updates, not news?
0
Почему это важно? Если чат-боты не могут даже извлекать новости так же эффективно, как Google, сложно доверять им в точной интерпретации и цитировании этих новостей. Это делает содержание их ответов, даже при наличии ссылок, гораздо менее надежным.
Уверенно давая неправильные ответы
Исследователи отметили, что чат-боты отвечали неправильно с «тревожной уверенностью», редко оговаривая свои результаты или признавая пробелы в знаниях. Например, ChatGPT «никогда не отказывался давать ответ», несмотря на то, что 134 из 200 его ответов были неверными. Из всех восьми инструментов только Copilot отказывался отвечать на большее количество запросов, чем отвечал.
«Все инструменты последовательно чаще давали неправильный ответ, чем признавали свои ограничения», — уточняется в отчете.
Платные уровни не более надежны
Даже премиум-модели, такие как Grok-3 Search и Perplexity Pro, хотя и более точные, чем их бесплатные аналоги, все равно уверенно давали неправильные ответы. Это вызывает вопросы о ценности их часто высоких подписных затрат.
«Это противоречие проистекает главным образом из склонности [ботов] давать окончательные, но неверные ответы, вместо того чтобы отказываться отвечать на вопрос напрямую», — объясняется в отчете. «Основная проблема выходит за рамки фактических ошибок чат-ботов и касается их авторитетного разговорного тона, который затрудняет пользователям различение точной и неточной информации».
«Эта незаслуженная уверенность создает для пользователей потенциально опасную иллюзию надежности и точности», — добавлено в отчете.
Изобретение ссылок
Модели AI печально известны галлюцинациями, но исследование Tow показало, что Gemini и Grok 3 делали это чаще всего — более половины времени. «Даже когда Grok правильно определял статью, он часто ссылался на выдуманный URL», — отмечено в отчете, что означает, что Grok мог найти правильное название и издателя, но затем создать ссылку на саму статью.
Анализ данных трафика Comscore, проведенный инициативой Северо-Западного университета Generative AI in the Newsroom, подтвердил эту закономерность. Их исследование с июля по ноябрь 2024 года показало, что ChatGPT сгенерировал 205 неработающих URL в своих ответах. Хотя издания иногда удаляют статьи, что может привести к ошибкам 404, исследователи отметили, что отсутствие архивных данных указывает на то, что «модель создавала правдоподобные ссылки на авторитетные новостные издания при ответе на запросы пользователей».
Учитывая рост популярности AI-поисковиков — Google впервые за 10 лет упал ниже 90% рыночной доли в четвертом квартале 2024 года — эти выводы вызывают беспокойство. Компания также на прошлой неделе выпустила AI Mode для некоторых пользователей, заменив обычный поиск чат-ботом, несмотря на широкую непопулярность AI Overviews.
С примерно 400 миллионами пользователей, еженедельно использующих ChatGPT, ненадежность и искажение его цитирований делают его и другие популярные инструменты AI потенциальными источниками дезинформации, даже когда они извлекают контент из тщательно проверенных новостных сайтов.
Отчет Tow пришел к выводу, что неправильное указание источников или неверное представление их работы может негативно сказаться на репутации издателей.
Игнорирование заблокированных краулеров
Ситуация ухудшается для издателей, поскольку отчет Tow установил, что несколько чат-ботов все еще могли извлекать статьи от издателей, которые заблокировали их краулеры с помощью протокола исключения роботов (REP) или robots.txt. Однако, парадоксально, чат-боты не могли правильно ответить на запросы о сайтах, которые разрешают им доступ к своему контенту.
«Perplexity Pro был худшим нарушителем в этом отношении, правильно идентифицировав почти треть из девяноста отрывков из статей, к которым он не должен был иметь доступ», — указано в отчете.
Это говорит о том, что компании AI все еще игнорируют REP — как это делали Perplexity и другие в прошлом году — и что издатели, находящиеся в любом виде лицензионного соглашения с ними, не гарантированно будут правильно процитированы.
Отчет Колумбийского университета — лишь один из симптомов более крупной проблемы. Отчет Generative AI in the Newsroom также выявил, что чат-боты редко направляют трафик на новостные сайты, из которых они извлекают информацию, что подтверждают другие отчеты. С июля по ноябрь 2024 года Perplexity передал 7% рефералов на новостные сайты, тогда как ChatGPT — только 3%. Для сравнения, инструменты AI отдавали предпочтение образовательным ресурсам, таким как Scribd.com, Coursera и ресурсам, связанным с университетами, направляя на них до 30% трафика.
Итог: оригинальные репортерские материалы остаются более надежным источником новостей, чем то, что воспроизводят инструменты AI. Всегда проверяйте ссылки, прежде чем принимать информацию за факт, и используйте свои навыки критического мышления и медиаграмотности для оценки ответов.




プレミアムバージョンを購入したのに、ニュースの正確さが全く期待できませんでした。間違った情報を堂々と出してくるなんて信じられないですね。😓 やっぱり人間が書いたニュースの方が信頼できるかも。




프리미엄 버전을 구입했는데 뉴스 정확도가 형편없네요. confidently 잘못된 정보를 내뱉는 모습을 보면서 웃음이 나왔어요. 😂 돈 아깝네요. 사람 손으로 쓴 뉴스가 더 나을 것 같아요.




Paguei pela versão premium achando que teria notícias precisas, mas que erro! Ele dá informações erradas com tanta confiança que parece um pastor pregando. 😅 Não vale o dinheiro. Talvez seja melhor ficar com notícias escritas por humanos.




プレミアム版のチャットボットに課金したのに、ニュースの情報が全然正しくない!自信満々に間違った情報を提供するなんて、信じられない。人間が書いたニュースに戻るべきだね。😅




프리미엄 버전에 돈을 냈는데 뉴스 정보가 틀렸어! 자신 있게 잘못된 정보를 주는 건 정말 실망스러워. 인간이 쓴 뉴스로 돌아가야 해. 😓




I paid for a premium chatbot, expecting accurate news, but it's just spewing out wrong info! It's frustrating to see how confidently these bots get things wrong. Maybe stick to weather updates, not news?












