选项
首页
新闻
聊天机器人扭曲新闻,甚至影响付费用户

聊天机器人扭曲新闻,甚至影响付费用户

2025-04-11
79

聊天机器人扭曲新闻,甚至影响付费用户

Por que isso importa? Se os chatbots não conseguem recuperar notícias e o Google, é difícil confiar neles para interpretar e citar essas notícias com precisão. Isso torna o conteúdo de suas respostas, mesmo quando vinculado, muito menos confiável.

Dando respostas erradas com confiança

Os pesquisadores observaram que os chatbots retornaram respostas erradas com "confiança alarmante", raramente qualificando seus resultados ou admitindo lacunas de conhecimento. O ChatGPT, por exemplo, "nunca se recusou a fornecer uma resposta", apesar de 134 de suas 200 respostas estarem incorretas. Das oito ferramentas, a Copilot foi a única que se recusou a responder mais perguntas do que respondeu.

"Todas as ferramentas eram consistentemente mais propensas a fornecer uma resposta incorreta do que reconhecer as limitações", esclareceu o relatório.

As camadas pagas não são mais confiáveis

Mesmo modelos premium como Grok-3 Search e Perplexity Pro, embora mais precisos do que seus colegas gratuitos, ainda com confiança deram respostas erradas. Isso levanta questões sobre o valor de seus altos custos de assinatura.

"Essa contradição decorre principalmente da tendência [dos bots] de fornecer respostas definitivas, mas erradas, em vez de se recusar a responder diretamente à pergunta", explica o relatório. "A preocupação fundamental se estende além dos erros factuais dos chatbots ao seu tom de conversação autoritário, o que pode dificultar a distinção entre informações precisas e imprecisas".

"Essa confiança não merecida apresenta aos usuários uma ilusão potencialmente perigosa de confiabilidade e precisão", acrescentou o relatório.

Links de fabricação

Os modelos de IA são notórios por alucinar, mas o estudo de reboque descobriu que Gemini e Grok 3 o fizeram com mais frequência - mais da metade do tempo. "Mesmo quando Grok identificou corretamente um artigo, ele frequentemente vinculado a um URL fabricado", observou o relatório, o que significa que Grok poderia encontrar o título e o editor certo, mas depois fabricar o link de artigo real.

Uma análise dos dados de tráfego da COMSCORE por IA generativa na redação, uma iniciativa da Northwestern University, confirmou esse padrão. Seu estudo de julho a novembro de 2024 mostrou que o ChatGPT gerou 205 URLs quebrados em suas respostas. Embora as publicações ocasionalmente retirem histórias, o que pode resultar em 404 erros, os pesquisadores observaram que a falta de dados de arquivo sugeriu "o modelo tem links alucinados de aparência plausível para meios de notícias autoritários ao responder às consultas do usuário".

Dada a crescente adoção de mecanismos de busca de IA - o Google caiu abaixo de 90% de participação de mercado no quarto trimestre de 2024 pela primeira vez em 10 anos - essas descobertas são preocupantes. A empresa também divulgou o modo AI para certos usuários na semana passada, substituindo sua pesquisa normal por um chatbot, apesar da impopularidade desenfreada de suas visões gerais de IA.

Com cerca de 400 milhões de usuários reunidos para o ChatGPT Weekly, a falta de confiabilidade e a distorção de suas citações tornam-a e de outros mecanismos de desinformação potencial de ferramentas de IA, mesmo quando retiram o conteúdo de sites de notícias rigorosamente verificados por fatos.

O relatório de reboque concluiu que as ferramentas de IA de crédito incorretamente ou representando incorretamente seu trabalho podem sair pela culatra na reputação dos editores.

Ignorando rastreadores bloqueados

A situação piora para os editores, pois o relatório de reboque constatou que vários chatbots ainda podiam recuperar artigos de editores que haviam bloqueado seus rastreadores usando o Robots Exclusão Protocol (REP) ou robots.txt. Paradoxalmente, no entanto, os chatbots falharam em responder corretamente às consultas sobre sites que lhes permitem acessar seu conteúdo.

"Perplexity Pro foi o pior infrator nesse sentido, identificando corretamente quase um terço dos noventa trechos dos artigos aos quais não deveria ter acesso", afirma o relatório.

Isso sugere que não apenas as empresas de IA ainda ignoram o representante - como a perplexidade e outras foram pegas no ano passado - mas que os editores em qualquer tipo de contrato de licenciamento com elas não tenham certeza corretamente.

O relatório de Columbia é apenas um sintoma de um problema maior. A IA generativa no relatório da redação também descobriu que os chatbots raramente direcionam o tráfego para os sites de notícias que estão extraindo informações, que outros relatórios confirmam. De julho a novembro de 2024, a perplexidade passou 7% dos referências para sites de notícias, enquanto o ChatGPT passou apenas 3%. Em comparação, as ferramentas de IA tendiam a favorecer recursos educacionais como Scribd.com, Coursera e aqueles anexados às universidades, enviando até 30% do tráfego.

Conclusão: os relatórios originais continuam sendo uma fonte de notícias mais confiável do que o que as ferramentas de IA regurgitam. Sempre verifique os links antes de aceitar o que eles dizem como fato e use suas habilidades críticas de pensamento e alfabetização da mídia para avaliar as respostas.

相关文章
比较AI图像生成:Leonardo AI、LensGo和Dezgo 比较AI图像生成:Leonardo AI、LensGo和Dezgo 如果你正在探索创意艺术领域,你可能已经注意到人工智能如何在AI图像生成领域掀起波澜。像Leonardo AI、LensGo和Dezgo这样的工具正在掀起热潮,让用户只需几次点击就能创作出令人惊叹的视觉效果。在本文中,我们将深入探讨这些平台,比较它们的功能、定价和实际应用,帮助你选择适合你创意追求的完美AI伙伴。关键要点Leonardo AI因其高质量的游戏资产和艺术而脱颖而出,这得益于其精细调整的
AI驱动的行程规划主导夏季旅行趋势,突出顶级目的地 AI驱动的行程规划主导夏季旅行趋势,突出顶级目的地 为2025年夏季度假做计划?你很幸运,因为最新的趋势是让你的旅行规划更简单、更激动人心,借助AI的帮助。想象使用AI驱动的工具来打造你的完美行程,在Google Flights上抢到最划算的交易,并探索像欧洲和东京这样的顶级目的地。本指南将带你了解从最热门的旅行地点到规划梦想公路旅行的技巧,确保你为一次难忘的冒险做好准备。准备好拥抱AI和专家建议,享受无缝且激动人心的度假规划体验。2025年夏季旅
使用Trigger AI的批量拨号最大化销售:深入分析 使用Trigger AI的批量拨号最大化销售:深入分析 在当今快节奏的商业世界中,效率至关重要。Trigger AI的批量拨号功能为企业优化销售和营销工作提供了创新解决方案。通过自动化和个性化外拨电话,企业可以显著提高覆盖率和转化率。本指南深入探讨了企业如何利用Trigger AI的批量拨号功能来最大化销售潜力并建立更强的客户关系。关键要点Trigger AI的批量拨号功能自动化外拨电话,提高效率。使用客户数据个性化互动,提升参与度。简化销售流程可提高
评论 (50)
0/200
RoyGarcía
RoyGarcía 2025-04-13 08:00:00

I paid for the premium version of this chatbot thinking I'd get accurate news, but nope! It confidently spits out wrong info all the time. It's like trusting a broken compass in a storm. Maybe stick to human-written news, folks. This AI needs a serious fact-check overhaul!

EricRoberts
EricRoberts 2025-04-13 08:00:00

プレミアムバージョンにお金を払ったのに、ニュースの情報が間違っていることが多いです。AIが自信満々に間違った情報を提供するのは信じられません。人間が書いたニュースに戻ったほうがいいかもしれませんね。このAI、事実確認が必要ですね!

RogerPerez
RogerPerez 2025-04-13 08:00:00

프리미엄 버전에 돈을 냈는데 뉴스 정보가 자주 틀려요. AI가 confidently 잘못된 정보를 제공하는 게 믿기지 않아요. 사람 손으로 쓴 뉴스로 돌아가는 게 나을 것 같아요. 이 AI, 사실 확인이 필요해요!

BillyAdams
BillyAdams 2025-04-11 08:00:00

Paguei pela versão premium achando que teria notícias precisas, mas não! Ele sempre dá informações erradas com confiança. É como confiar em uma bússola quebrada durante uma tempestade. Talvez seja melhor voltar para notícias escritas por humanos. Este AI precisa de uma revisão séria de verificação de fatos!

MarkThomas
MarkThomas 2025-04-11 08:00:00

मैंने प्रीमियम वर्जन के लिए पैसे दिए, सोचा सटीक समाचार मिलेंगे, लेकिन नहीं! यह हमेशा गलत जानकारी देता है और बहुत आत्मविश्वास से। यह तूफान में टूटी हुई कम्पास पर भरोसा करने जैसा है। शायद मानव द्वारा लिखी गई खबरों पर वापस जाना बेहतर है। इस AI को तथ्यों की जांच की जरूरत है!

ThomasScott
ThomasScott 2025-04-12 08:00:00

Paid or not, these chatbots are messing up the news big time! I trusted them to give me accurate info, but they're just spreading more confusion. Time to rethink how we use AI for news, I guess.

返回顶部
OR