Les chatbots déforment les nouvelles, impactant même les utilisateurs payés

Por que isso importa? Se os chatbots não conseguem recuperar notícias e o Google, é difícil confiar neles para interpretar e citar essas notícias com precisão. Isso torna o conteúdo de suas respostas, mesmo quando vinculado, muito menos confiável.
Dando respostas erradas com confiança
Os pesquisadores observaram que os chatbots retornaram respostas erradas com "confiança alarmante", raramente qualificando seus resultados ou admitindo lacunas de conhecimento. O ChatGPT, por exemplo, "nunca se recusou a fornecer uma resposta", apesar de 134 de suas 200 respostas estarem incorretas. Das oito ferramentas, a Copilot foi a única que se recusou a responder mais perguntas do que respondeu.
"Todas as ferramentas eram consistentemente mais propensas a fornecer uma resposta incorreta do que reconhecer as limitações", esclareceu o relatório.
As camadas pagas não são mais confiáveis
Mesmo modelos premium como Grok-3 Search e Perplexity Pro, embora mais precisos do que seus colegas gratuitos, ainda com confiança deram respostas erradas. Isso levanta questões sobre o valor de seus altos custos de assinatura.
"Essa contradição decorre principalmente da tendência [dos bots] de fornecer respostas definitivas, mas erradas, em vez de se recusar a responder diretamente à pergunta", explica o relatório. "A preocupação fundamental se estende além dos erros factuais dos chatbots ao seu tom de conversação autoritário, o que pode dificultar a distinção entre informações precisas e imprecisas".
"Essa confiança não merecida apresenta aos usuários uma ilusão potencialmente perigosa de confiabilidade e precisão", acrescentou o relatório.
Links de fabricação
Os modelos de IA são notórios por alucinar, mas o estudo de reboque descobriu que Gemini e Grok 3 o fizeram com mais frequência - mais da metade do tempo. "Mesmo quando Grok identificou corretamente um artigo, ele frequentemente vinculado a um URL fabricado", observou o relatório, o que significa que Grok poderia encontrar o título e o editor certo, mas depois fabricar o link de artigo real.
Uma análise dos dados de tráfego da COMSCORE por IA generativa na redação, uma iniciativa da Northwestern University, confirmou esse padrão. Seu estudo de julho a novembro de 2024 mostrou que o ChatGPT gerou 205 URLs quebrados em suas respostas. Embora as publicações ocasionalmente retirem histórias, o que pode resultar em 404 erros, os pesquisadores observaram que a falta de dados de arquivo sugeriu "o modelo tem links alucinados de aparência plausível para meios de notícias autoritários ao responder às consultas do usuário".
Dada a crescente adoção de mecanismos de busca de IA - o Google caiu abaixo de 90% de participação de mercado no quarto trimestre de 2024 pela primeira vez em 10 anos - essas descobertas são preocupantes. A empresa também divulgou o modo AI para certos usuários na semana passada, substituindo sua pesquisa normal por um chatbot, apesar da impopularidade desenfreada de suas visões gerais de IA.
Com cerca de 400 milhões de usuários reunidos para o ChatGPT Weekly, a falta de confiabilidade e a distorção de suas citações tornam-a e de outros mecanismos de desinformação potencial de ferramentas de IA, mesmo quando retiram o conteúdo de sites de notícias rigorosamente verificados por fatos.
O relatório de reboque concluiu que as ferramentas de IA de crédito incorretamente ou representando incorretamente seu trabalho podem sair pela culatra na reputação dos editores.
Ignorando rastreadores bloqueados
A situação piora para os editores, pois o relatório de reboque constatou que vários chatbots ainda podiam recuperar artigos de editores que haviam bloqueado seus rastreadores usando o Robots Exclusão Protocol (REP) ou robots.txt. Paradoxalmente, no entanto, os chatbots falharam em responder corretamente às consultas sobre sites que lhes permitem acessar seu conteúdo.
"Perplexity Pro foi o pior infrator nesse sentido, identificando corretamente quase um terço dos noventa trechos dos artigos aos quais não deveria ter acesso", afirma o relatório.
Isso sugere que não apenas as empresas de IA ainda ignoram o representante - como a perplexidade e outras foram pegas no ano passado - mas que os editores em qualquer tipo de contrato de licenciamento com elas não tenham certeza corretamente.
O relatório de Columbia é apenas um sintoma de um problema maior. A IA generativa no relatório da redação também descobriu que os chatbots raramente direcionam o tráfego para os sites de notícias que estão extraindo informações, que outros relatórios confirmam. De julho a novembro de 2024, a perplexidade passou 7% dos referências para sites de notícias, enquanto o ChatGPT passou apenas 3%. Em comparação, as ferramentas de IA tendiam a favorecer recursos educacionais como Scribd.com, Coursera e aqueles anexados às universidades, enviando até 30% do tráfego.
Conclusão: os relatórios originais continuam sendo uma fonte de notícias mais confiável do que o que as ferramentas de IA regurgitam. Sempre verifique os links antes de aceitar o que eles dizem como fato e use suas habilidades críticas de pensamento e alfabetização da mídia para avaliar as respostas.
Article connexe
Usine de BD IA : Créez facilement des BD gratuitement avec l'IA
Dans le monde numérique d'aujourd'hui, la fusion de l'intelligence artificielle et des arts créatifs ouvre de nouvelles voies fascinantes pour l'expression. AI Comic Factory est à la pointe de cette r
Robots de trading IA : Peut-on vraiment gagner un mois de salaire en un jour ?
Si vous avez déjà rêvé de gagner un mois de salaire en une seule journée, le monde des robots de trading IA pourrait sembler être le ticket d'or. Ces systèmes automatisés promettent d'exploiter l'inte
LinkFi : Révolutionner la DeFi avec l'IA et l'apprentissage automatique
Dans le monde en constante évolution de la finance décentralisée (DeFi), rester en avance est crucial. Voici LinkFi, un projet qui secoue le secteur en intégrant l'intelligence artificielle (IA) et l'
commentaires (50)
0/200
RoyGarcía
13 avril 2025 00:00:00 UTC
I paid for the premium version of this chatbot thinking I'd get accurate news, but nope! It confidently spits out wrong info all the time. It's like trusting a broken compass in a storm. Maybe stick to human-written news, folks. This AI needs a serious fact-check overhaul!
0
EricRoberts
13 avril 2025 00:00:00 UTC
プレミアムバージョンにお金を払ったのに、ニュースの情報が間違っていることが多いです。AIが自信満々に間違った情報を提供するのは信じられません。人間が書いたニュースに戻ったほうがいいかもしれませんね。このAI、事実確認が必要ですね!
0
RogerPerez
13 avril 2025 00:00:00 UTC
프리미엄 버전에 돈을 냈는데 뉴스 정보가 자주 틀려요. AI가 confidently 잘못된 정보를 제공하는 게 믿기지 않아요. 사람 손으로 쓴 뉴스로 돌아가는 게 나을 것 같아요. 이 AI, 사실 확인이 필요해요!
0
BillyAdams
11 avril 2025 00:00:00 UTC
Paguei pela versão premium achando que teria notícias precisas, mas não! Ele sempre dá informações erradas com confiança. É como confiar em uma bússola quebrada durante uma tempestade. Talvez seja melhor voltar para notícias escritas por humanos. Este AI precisa de uma revisão séria de verificação de fatos!
0
MarkThomas
11 avril 2025 00:00:00 UTC
मैंने प्रीमियम वर्जन के लिए पैसे दिए, सोचा सटीक समाचार मिलेंगे, लेकिन नहीं! यह हमेशा गलत जानकारी देता है और बहुत आत्मविश्वास से। यह तूफान में टूटी हुई कम्पास पर भरोसा करने जैसा है। शायद मानव द्वारा लिखी गई खबरों पर वापस जाना बेहतर है। इस AI को तथ्यों की जांच की जरूरत है!
0
ThomasScott
12 avril 2025 00:00:00 UTC
Paid or not, these chatbots are messing up the news big time! I trusted them to give me accurate info, but they're just spreading more confusion. Time to rethink how we use AI for news, I guess.
0
Por que isso importa? Se os chatbots não conseguem recuperar notícias e o Google, é difícil confiar neles para interpretar e citar essas notícias com precisão. Isso torna o conteúdo de suas respostas, mesmo quando vinculado, muito menos confiável.
Dando respostas erradas com confiança
Os pesquisadores observaram que os chatbots retornaram respostas erradas com "confiança alarmante", raramente qualificando seus resultados ou admitindo lacunas de conhecimento. O ChatGPT, por exemplo, "nunca se recusou a fornecer uma resposta", apesar de 134 de suas 200 respostas estarem incorretas. Das oito ferramentas, a Copilot foi a única que se recusou a responder mais perguntas do que respondeu.
"Todas as ferramentas eram consistentemente mais propensas a fornecer uma resposta incorreta do que reconhecer as limitações", esclareceu o relatório.
As camadas pagas não são mais confiáveis
Mesmo modelos premium como Grok-3 Search e Perplexity Pro, embora mais precisos do que seus colegas gratuitos, ainda com confiança deram respostas erradas. Isso levanta questões sobre o valor de seus altos custos de assinatura.
"Essa contradição decorre principalmente da tendência [dos bots] de fornecer respostas definitivas, mas erradas, em vez de se recusar a responder diretamente à pergunta", explica o relatório. "A preocupação fundamental se estende além dos erros factuais dos chatbots ao seu tom de conversação autoritário, o que pode dificultar a distinção entre informações precisas e imprecisas".
"Essa confiança não merecida apresenta aos usuários uma ilusão potencialmente perigosa de confiabilidade e precisão", acrescentou o relatório.
Links de fabricação
Os modelos de IA são notórios por alucinar, mas o estudo de reboque descobriu que Gemini e Grok 3 o fizeram com mais frequência - mais da metade do tempo. "Mesmo quando Grok identificou corretamente um artigo, ele frequentemente vinculado a um URL fabricado", observou o relatório, o que significa que Grok poderia encontrar o título e o editor certo, mas depois fabricar o link de artigo real.
Uma análise dos dados de tráfego da COMSCORE por IA generativa na redação, uma iniciativa da Northwestern University, confirmou esse padrão. Seu estudo de julho a novembro de 2024 mostrou que o ChatGPT gerou 205 URLs quebrados em suas respostas. Embora as publicações ocasionalmente retirem histórias, o que pode resultar em 404 erros, os pesquisadores observaram que a falta de dados de arquivo sugeriu "o modelo tem links alucinados de aparência plausível para meios de notícias autoritários ao responder às consultas do usuário".
Dada a crescente adoção de mecanismos de busca de IA - o Google caiu abaixo de 90% de participação de mercado no quarto trimestre de 2024 pela primeira vez em 10 anos - essas descobertas são preocupantes. A empresa também divulgou o modo AI para certos usuários na semana passada, substituindo sua pesquisa normal por um chatbot, apesar da impopularidade desenfreada de suas visões gerais de IA.
Com cerca de 400 milhões de usuários reunidos para o ChatGPT Weekly, a falta de confiabilidade e a distorção de suas citações tornam-a e de outros mecanismos de desinformação potencial de ferramentas de IA, mesmo quando retiram o conteúdo de sites de notícias rigorosamente verificados por fatos.
O relatório de reboque concluiu que as ferramentas de IA de crédito incorretamente ou representando incorretamente seu trabalho podem sair pela culatra na reputação dos editores.
Ignorando rastreadores bloqueados
A situação piora para os editores, pois o relatório de reboque constatou que vários chatbots ainda podiam recuperar artigos de editores que haviam bloqueado seus rastreadores usando o Robots Exclusão Protocol (REP) ou robots.txt. Paradoxalmente, no entanto, os chatbots falharam em responder corretamente às consultas sobre sites que lhes permitem acessar seu conteúdo.
"Perplexity Pro foi o pior infrator nesse sentido, identificando corretamente quase um terço dos noventa trechos dos artigos aos quais não deveria ter acesso", afirma o relatório.
Isso sugere que não apenas as empresas de IA ainda ignoram o representante - como a perplexidade e outras foram pegas no ano passado - mas que os editores em qualquer tipo de contrato de licenciamento com elas não tenham certeza corretamente.
O relatório de Columbia é apenas um sintoma de um problema maior. A IA generativa no relatório da redação também descobriu que os chatbots raramente direcionam o tráfego para os sites de notícias que estão extraindo informações, que outros relatórios confirmam. De julho a novembro de 2024, a perplexidade passou 7% dos referências para sites de notícias, enquanto o ChatGPT passou apenas 3%. Em comparação, as ferramentas de IA tendiam a favorecer recursos educacionais como Scribd.com, Coursera e aqueles anexados às universidades, enviando até 30% do tráfego.
Conclusão: os relatórios originais continuam sendo uma fonte de notícias mais confiável do que o que as ferramentas de IA regurgitam. Sempre verifique os links antes de aceitar o que eles dizem como fato e use suas habilidades críticas de pensamento e alfabetização da mídia para avaliar as respostas.




I paid for the premium version of this chatbot thinking I'd get accurate news, but nope! It confidently spits out wrong info all the time. It's like trusting a broken compass in a storm. Maybe stick to human-written news, folks. This AI needs a serious fact-check overhaul!




プレミアムバージョンにお金を払ったのに、ニュースの情報が間違っていることが多いです。AIが自信満々に間違った情報を提供するのは信じられません。人間が書いたニュースに戻ったほうがいいかもしれませんね。このAI、事実確認が必要ですね!




프리미엄 버전에 돈을 냈는데 뉴스 정보가 자주 틀려요. AI가 confidently 잘못된 정보를 제공하는 게 믿기지 않아요. 사람 손으로 쓴 뉴스로 돌아가는 게 나을 것 같아요. 이 AI, 사실 확인이 필요해요!




Paguei pela versão premium achando que teria notícias precisas, mas não! Ele sempre dá informações erradas com confiança. É como confiar em uma bússola quebrada durante uma tempestade. Talvez seja melhor voltar para notícias escritas por humanos. Este AI precisa de uma revisão séria de verificação de fatos!




मैंने प्रीमियम वर्जन के लिए पैसे दिए, सोचा सटीक समाचार मिलेंगे, लेकिन नहीं! यह हमेशा गलत जानकारी देता है और बहुत आत्मविश्वास से। यह तूफान में टूटी हुई कम्पास पर भरोसा करने जैसा है। शायद मानव द्वारा लिखी गई खबरों पर वापस जाना बेहतर है। इस AI को तथ्यों की जांच की जरूरत है!




Paid or not, these chatbots are messing up the news big time! I trusted them to give me accurate info, but they're just spreading more confusion. Time to rethink how we use AI for news, I guess.












