option
Home
News
Chatbots Distort News, Impacting Even Paid Users

Chatbots Distort News, Impacting Even Paid Users

April 11, 2025
79

Chatbots Distort News, Impacting Even Paid Users

Por que isso importa? Se os chatbots não conseguem recuperar notícias e o Google, é difícil confiar neles para interpretar e citar essas notícias com precisão. Isso torna o conteúdo de suas respostas, mesmo quando vinculado, muito menos confiável.

Dando respostas erradas com confiança

Os pesquisadores observaram que os chatbots retornaram respostas erradas com "confiança alarmante", raramente qualificando seus resultados ou admitindo lacunas de conhecimento. O ChatGPT, por exemplo, "nunca se recusou a fornecer uma resposta", apesar de 134 de suas 200 respostas estarem incorretas. Das oito ferramentas, a Copilot foi a única que se recusou a responder mais perguntas do que respondeu.

"Todas as ferramentas eram consistentemente mais propensas a fornecer uma resposta incorreta do que reconhecer as limitações", esclareceu o relatório.

As camadas pagas não são mais confiáveis

Mesmo modelos premium como Grok-3 Search e Perplexity Pro, embora mais precisos do que seus colegas gratuitos, ainda com confiança deram respostas erradas. Isso levanta questões sobre o valor de seus altos custos de assinatura.

"Essa contradição decorre principalmente da tendência [dos bots] de fornecer respostas definitivas, mas erradas, em vez de se recusar a responder diretamente à pergunta", explica o relatório. "A preocupação fundamental se estende além dos erros factuais dos chatbots ao seu tom de conversação autoritário, o que pode dificultar a distinção entre informações precisas e imprecisas".

"Essa confiança não merecida apresenta aos usuários uma ilusão potencialmente perigosa de confiabilidade e precisão", acrescentou o relatório.

Links de fabricação

Os modelos de IA são notórios por alucinar, mas o estudo de reboque descobriu que Gemini e Grok 3 o fizeram com mais frequência - mais da metade do tempo. "Mesmo quando Grok identificou corretamente um artigo, ele frequentemente vinculado a um URL fabricado", observou o relatório, o que significa que Grok poderia encontrar o título e o editor certo, mas depois fabricar o link de artigo real.

Uma análise dos dados de tráfego da COMSCORE por IA generativa na redação, uma iniciativa da Northwestern University, confirmou esse padrão. Seu estudo de julho a novembro de 2024 mostrou que o ChatGPT gerou 205 URLs quebrados em suas respostas. Embora as publicações ocasionalmente retirem histórias, o que pode resultar em 404 erros, os pesquisadores observaram que a falta de dados de arquivo sugeriu "o modelo tem links alucinados de aparência plausível para meios de notícias autoritários ao responder às consultas do usuário".

Dada a crescente adoção de mecanismos de busca de IA - o Google caiu abaixo de 90% de participação de mercado no quarto trimestre de 2024 pela primeira vez em 10 anos - essas descobertas são preocupantes. A empresa também divulgou o modo AI para certos usuários na semana passada, substituindo sua pesquisa normal por um chatbot, apesar da impopularidade desenfreada de suas visões gerais de IA.

Com cerca de 400 milhões de usuários reunidos para o ChatGPT Weekly, a falta de confiabilidade e a distorção de suas citações tornam-a e de outros mecanismos de desinformação potencial de ferramentas de IA, mesmo quando retiram o conteúdo de sites de notícias rigorosamente verificados por fatos.

O relatório de reboque concluiu que as ferramentas de IA de crédito incorretamente ou representando incorretamente seu trabalho podem sair pela culatra na reputação dos editores.

Ignorando rastreadores bloqueados

A situação piora para os editores, pois o relatório de reboque constatou que vários chatbots ainda podiam recuperar artigos de editores que haviam bloqueado seus rastreadores usando o Robots Exclusão Protocol (REP) ou robots.txt. Paradoxalmente, no entanto, os chatbots falharam em responder corretamente às consultas sobre sites que lhes permitem acessar seu conteúdo.

"Perplexity Pro foi o pior infrator nesse sentido, identificando corretamente quase um terço dos noventa trechos dos artigos aos quais não deveria ter acesso", afirma o relatório.

Isso sugere que não apenas as empresas de IA ainda ignoram o representante - como a perplexidade e outras foram pegas no ano passado - mas que os editores em qualquer tipo de contrato de licenciamento com elas não tenham certeza corretamente.

O relatório de Columbia é apenas um sintoma de um problema maior. A IA generativa no relatório da redação também descobriu que os chatbots raramente direcionam o tráfego para os sites de notícias que estão extraindo informações, que outros relatórios confirmam. De julho a novembro de 2024, a perplexidade passou 7% dos referências para sites de notícias, enquanto o ChatGPT passou apenas 3%. Em comparação, as ferramentas de IA tendiam a favorecer recursos educacionais como Scribd.com, Coursera e aqueles anexados às universidades, enviando até 30% do tráfego.

Conclusão: os relatórios originais continuam sendo uma fonte de notícias mais confiável do que o que as ferramentas de IA regurgitam. Sempre verifique os links antes de aceitar o que eles dizem como fato e use suas habilidades críticas de pensamento e alfabetização da mídia para avaliar as respostas.

Related article
Comparing AI Image Generation: Leonardo AI, LensGo, and Dezgo Comparing AI Image Generation: Leonardo AI, LensGo, and Dezgo If you're diving into the world of creative arts, you've likely noticed how artificial intelligence is shaking things up, particularly in the realm of AI image generation. Tools like Leonardo AI, LensGo, and Dezgo are making waves, allowing users to whip up incredible visuals with just a few clicks.
AI-Driven Itinerary Planning Dominates Summer Travel Trends, Highlighting Top Destinations AI-Driven Itinerary Planning Dominates Summer Travel Trends, Highlighting Top Destinations Planning your summer getaway for 2025? You're in luck because the latest trends are all about making your trip planning easier and more exciting with the help of AI. Imagine using AI-powered tools to craft your perfect itinerary, snag the best deals on Google Flights, and explore top destinations li
Maximize Sales Using Trigger AI's Batch Calling: An In-Depth Analysis Maximize Sales Using Trigger AI's Batch Calling: An In-Depth Analysis In today's fast-paced business world, efficiency is crucial. Trigger AI's batch calling feature provides an innovative solution for businesses aiming to optimize their sales and marketing efforts. By automating and personalizing outbound calls, companies can significantly increase their reach and co
Comments (50)
0/200
RoyGarcía
RoyGarcía April 13, 2025 at 12:00:00 AM GMT

I paid for the premium version of this chatbot thinking I'd get accurate news, but nope! It confidently spits out wrong info all the time. It's like trusting a broken compass in a storm. Maybe stick to human-written news, folks. This AI needs a serious fact-check overhaul!

EricRoberts
EricRoberts April 13, 2025 at 12:00:00 AM GMT

プレミアムバージョンにお金を払ったのに、ニュースの情報が間違っていることが多いです。AIが自信満々に間違った情報を提供するのは信じられません。人間が書いたニュースに戻ったほうがいいかもしれませんね。このAI、事実確認が必要ですね!

RogerPerez
RogerPerez April 13, 2025 at 12:00:00 AM GMT

프리미엄 버전에 돈을 냈는데 뉴스 정보가 자주 틀려요. AI가 confidently 잘못된 정보를 제공하는 게 믿기지 않아요. 사람 손으로 쓴 뉴스로 돌아가는 게 나을 것 같아요. 이 AI, 사실 확인이 필요해요!

BillyAdams
BillyAdams April 11, 2025 at 12:00:00 AM GMT

Paguei pela versão premium achando que teria notícias precisas, mas não! Ele sempre dá informações erradas com confiança. É como confiar em uma bússola quebrada durante uma tempestade. Talvez seja melhor voltar para notícias escritas por humanos. Este AI precisa de uma revisão séria de verificação de fatos!

MarkThomas
MarkThomas April 11, 2025 at 12:00:00 AM GMT

मैंने प्रीमियम वर्जन के लिए पैसे दिए, सोचा सटीक समाचार मिलेंगे, लेकिन नहीं! यह हमेशा गलत जानकारी देता है और बहुत आत्मविश्वास से। यह तूफान में टूटी हुई कम्पास पर भरोसा करने जैसा है। शायद मानव द्वारा लिखी गई खबरों पर वापस जाना बेहतर है। इस AI को तथ्यों की जांच की जरूरत है!

ThomasScott
ThomasScott April 12, 2025 at 12:00:00 AM GMT

Paid or not, these chatbots are messing up the news big time! I trusted them to give me accurate info, but they're just spreading more confusion. Time to rethink how we use AI for news, I guess.

Back to Top
OR