聊天機器人扭曲新聞,甚至影響付費用戶

Por que isso importa? Se os chatbots não conseguem recuperar notícias e o Google, é difícil confiar neles para interpretar e citar essas notícias com precisão. Isso torna o conteúdo de suas respostas, mesmo quando vinculado, muito menos confiável.
Dando respostas erradas com confiança
Os pesquisadores observaram que os chatbots retornaram respostas erradas com "confiança alarmante", raramente qualificando seus resultados ou admitindo lacunas de conhecimento. O ChatGPT, por exemplo, "nunca se recusou a fornecer uma resposta", apesar de 134 de suas 200 respostas estarem incorretas. Das oito ferramentas, a Copilot foi a única que se recusou a responder mais perguntas do que respondeu.
"Todas as ferramentas eram consistentemente mais propensas a fornecer uma resposta incorreta do que reconhecer as limitações", esclareceu o relatório.
As camadas pagas não são mais confiáveis
Mesmo modelos premium como Grok-3 Search e Perplexity Pro, embora mais precisos do que seus colegas gratuitos, ainda com confiança deram respostas erradas. Isso levanta questões sobre o valor de seus altos custos de assinatura.
"Essa contradição decorre principalmente da tendência [dos bots] de fornecer respostas definitivas, mas erradas, em vez de se recusar a responder diretamente à pergunta", explica o relatório. "A preocupação fundamental se estende além dos erros factuais dos chatbots ao seu tom de conversação autoritário, o que pode dificultar a distinção entre informações precisas e imprecisas".
"Essa confiança não merecida apresenta aos usuários uma ilusão potencialmente perigosa de confiabilidade e precisão", acrescentou o relatório.
Links de fabricação
Os modelos de IA são notórios por alucinar, mas o estudo de reboque descobriu que Gemini e Grok 3 o fizeram com mais frequência - mais da metade do tempo. "Mesmo quando Grok identificou corretamente um artigo, ele frequentemente vinculado a um URL fabricado", observou o relatório, o que significa que Grok poderia encontrar o título e o editor certo, mas depois fabricar o link de artigo real.
Uma análise dos dados de tráfego da COMSCORE por IA generativa na redação, uma iniciativa da Northwestern University, confirmou esse padrão. Seu estudo de julho a novembro de 2024 mostrou que o ChatGPT gerou 205 URLs quebrados em suas respostas. Embora as publicações ocasionalmente retirem histórias, o que pode resultar em 404 erros, os pesquisadores observaram que a falta de dados de arquivo sugeriu "o modelo tem links alucinados de aparência plausível para meios de notícias autoritários ao responder às consultas do usuário".
Dada a crescente adoção de mecanismos de busca de IA - o Google caiu abaixo de 90% de participação de mercado no quarto trimestre de 2024 pela primeira vez em 10 anos - essas descobertas são preocupantes. A empresa também divulgou o modo AI para certos usuários na semana passada, substituindo sua pesquisa normal por um chatbot, apesar da impopularidade desenfreada de suas visões gerais de IA.
Com cerca de 400 milhões de usuários reunidos para o ChatGPT Weekly, a falta de confiabilidade e a distorção de suas citações tornam-a e de outros mecanismos de desinformação potencial de ferramentas de IA, mesmo quando retiram o conteúdo de sites de notícias rigorosamente verificados por fatos.
O relatório de reboque concluiu que as ferramentas de IA de crédito incorretamente ou representando incorretamente seu trabalho podem sair pela culatra na reputação dos editores.
Ignorando rastreadores bloqueados
A situação piora para os editores, pois o relatório de reboque constatou que vários chatbots ainda podiam recuperar artigos de editores que haviam bloqueado seus rastreadores usando o Robots Exclusão Protocol (REP) ou robots.txt. Paradoxalmente, no entanto, os chatbots falharam em responder corretamente às consultas sobre sites que lhes permitem acessar seu conteúdo.
"Perplexity Pro foi o pior infrator nesse sentido, identificando corretamente quase um terço dos noventa trechos dos artigos aos quais não deveria ter acesso", afirma o relatório.
Isso sugere que não apenas as empresas de IA ainda ignoram o representante - como a perplexidade e outras foram pegas no ano passado - mas que os editores em qualquer tipo de contrato de licenciamento com elas não tenham certeza corretamente.
O relatório de Columbia é apenas um sintoma de um problema maior. A IA generativa no relatório da redação também descobriu que os chatbots raramente direcionam o tráfego para os sites de notícias que estão extraindo informações, que outros relatórios confirmam. De julho a novembro de 2024, a perplexidade passou 7% dos referências para sites de notícias, enquanto o ChatGPT passou apenas 3%. Em comparação, as ferramentas de IA tendiam a favorecer recursos educacionais como Scribd.com, Coursera e aqueles anexados às universidades, enviando até 30% do tráfego.
Conclusão: os relatórios originais continuam sendo uma fonte de notícias mais confiável do que o que as ferramentas de IA regurgitam. Sempre verifique os links antes de aceitar o que eles dizem como fato e use suas habilidades críticas de pensamento e alfabetização da mídia para avaliar as respostas.
相關文章
AI Comic Factory:輕鬆使用AI免費創作漫畫
在當今數位世界中,人工智慧與創意藝術的融合正開啟令人著迷的表達新途徑。AI Comic Factory站在這場革命的前沿,提供一個讓使用者借助AI創作漫畫的平台。本文將深入探討AI Comic Factory,檢視其功能、易用性,以及對休閒漫畫迷與專業創作者的潛在吸引力。我們將探究如何利用AI打造引人入勝的視覺故事,並評估此平台是否真正實現其可及性與創作自由的承諾。重點AI Comic Facto
AI交易機器人:真的能在一天內賺到一個月的薪水嗎?
如果你曾夢想在一天內賺到一個月的薪水,AI交易機器人的世界可能看似黃金入場券。這些自動化系統承諾利用人工智慧代表你進行交易,將波動的市場變成你的個人提款機。但這個夢想是否可實現,還是我們在追逐海市蜃樓?讓我們深入探討AI交易機器人的真實面貌,探索它們的能力、限制以及影響交易成功的因素。了解AI交易機器人的承諾什麼是AI交易機器人?AI交易機器人本質上是一個利用人工智慧在無需你持續監督的情況下進行交
LinkFi:以AI和機器學習革新去中心化金融
在不斷演進的去中心化金融(DeFi)世界中,保持領先至關重要。LinkFi,一個通過將人工智慧(AI)和機器學習融入DeFi結構而掀起波瀾的項目。讓我們深入探討LinkFi的運作機制,從其宏大願景到技術魔法,探索它如何準備顛覆金融未來。準備好了解這個開源、代幣化智能合約生態系統如何推動真正的去中心化數位經濟向前發展。LinkFi的主要亮點LinkFi是一個利用AI和機器學習的開源DeFi代幣。項目
評論 (50)
0/200
RoyGarcía
2025-04-13 08:00:00
I paid for the premium version of this chatbot thinking I'd get accurate news, but nope! It confidently spits out wrong info all the time. It's like trusting a broken compass in a storm. Maybe stick to human-written news, folks. This AI needs a serious fact-check overhaul!
0
EricRoberts
2025-04-13 08:00:00
プレミアムバージョンにお金を払ったのに、ニュースの情報が間違っていることが多いです。AIが自信満々に間違った情報を提供するのは信じられません。人間が書いたニュースに戻ったほうがいいかもしれませんね。このAI、事実確認が必要ですね!
0
RogerPerez
2025-04-13 08:00:00
프리미엄 버전에 돈을 냈는데 뉴스 정보가 자주 틀려요. AI가 confidently 잘못된 정보를 제공하는 게 믿기지 않아요. 사람 손으로 쓴 뉴스로 돌아가는 게 나을 것 같아요. 이 AI, 사실 확인이 필요해요!
0
BillyAdams
2025-04-11 08:00:00
Paguei pela versão premium achando que teria notícias precisas, mas não! Ele sempre dá informações erradas com confiança. É como confiar em uma bússola quebrada durante uma tempestade. Talvez seja melhor voltar para notícias escritas por humanos. Este AI precisa de uma revisão séria de verificação de fatos!
0
MarkThomas
2025-04-11 08:00:00
मैंने प्रीमियम वर्जन के लिए पैसे दिए, सोचा सटीक समाचार मिलेंगे, लेकिन नहीं! यह हमेशा गलत जानकारी देता है और बहुत आत्मविश्वास से। यह तूफान में टूटी हुई कम्पास पर भरोसा करने जैसा है। शायद मानव द्वारा लिखी गई खबरों पर वापस जाना बेहतर है। इस AI को तथ्यों की जांच की जरूरत है!
0
ThomasScott
2025-04-12 08:00:00
Paid or not, these chatbots are messing up the news big time! I trusted them to give me accurate info, but they're just spreading more confusion. Time to rethink how we use AI for news, I guess.
0
Por que isso importa? Se os chatbots não conseguem recuperar notícias e o Google, é difícil confiar neles para interpretar e citar essas notícias com precisão. Isso torna o conteúdo de suas respostas, mesmo quando vinculado, muito menos confiável.
Dando respostas erradas com confiança
Os pesquisadores observaram que os chatbots retornaram respostas erradas com "confiança alarmante", raramente qualificando seus resultados ou admitindo lacunas de conhecimento. O ChatGPT, por exemplo, "nunca se recusou a fornecer uma resposta", apesar de 134 de suas 200 respostas estarem incorretas. Das oito ferramentas, a Copilot foi a única que se recusou a responder mais perguntas do que respondeu.
"Todas as ferramentas eram consistentemente mais propensas a fornecer uma resposta incorreta do que reconhecer as limitações", esclareceu o relatório.
As camadas pagas não são mais confiáveis
Mesmo modelos premium como Grok-3 Search e Perplexity Pro, embora mais precisos do que seus colegas gratuitos, ainda com confiança deram respostas erradas. Isso levanta questões sobre o valor de seus altos custos de assinatura.
"Essa contradição decorre principalmente da tendência [dos bots] de fornecer respostas definitivas, mas erradas, em vez de se recusar a responder diretamente à pergunta", explica o relatório. "A preocupação fundamental se estende além dos erros factuais dos chatbots ao seu tom de conversação autoritário, o que pode dificultar a distinção entre informações precisas e imprecisas".
"Essa confiança não merecida apresenta aos usuários uma ilusão potencialmente perigosa de confiabilidade e precisão", acrescentou o relatório.
Links de fabricação
Os modelos de IA são notórios por alucinar, mas o estudo de reboque descobriu que Gemini e Grok 3 o fizeram com mais frequência - mais da metade do tempo. "Mesmo quando Grok identificou corretamente um artigo, ele frequentemente vinculado a um URL fabricado", observou o relatório, o que significa que Grok poderia encontrar o título e o editor certo, mas depois fabricar o link de artigo real.
Uma análise dos dados de tráfego da COMSCORE por IA generativa na redação, uma iniciativa da Northwestern University, confirmou esse padrão. Seu estudo de julho a novembro de 2024 mostrou que o ChatGPT gerou 205 URLs quebrados em suas respostas. Embora as publicações ocasionalmente retirem histórias, o que pode resultar em 404 erros, os pesquisadores observaram que a falta de dados de arquivo sugeriu "o modelo tem links alucinados de aparência plausível para meios de notícias autoritários ao responder às consultas do usuário".
Dada a crescente adoção de mecanismos de busca de IA - o Google caiu abaixo de 90% de participação de mercado no quarto trimestre de 2024 pela primeira vez em 10 anos - essas descobertas são preocupantes. A empresa também divulgou o modo AI para certos usuários na semana passada, substituindo sua pesquisa normal por um chatbot, apesar da impopularidade desenfreada de suas visões gerais de IA.
Com cerca de 400 milhões de usuários reunidos para o ChatGPT Weekly, a falta de confiabilidade e a distorção de suas citações tornam-a e de outros mecanismos de desinformação potencial de ferramentas de IA, mesmo quando retiram o conteúdo de sites de notícias rigorosamente verificados por fatos.
O relatório de reboque concluiu que as ferramentas de IA de crédito incorretamente ou representando incorretamente seu trabalho podem sair pela culatra na reputação dos editores.
Ignorando rastreadores bloqueados
A situação piora para os editores, pois o relatório de reboque constatou que vários chatbots ainda podiam recuperar artigos de editores que haviam bloqueado seus rastreadores usando o Robots Exclusão Protocol (REP) ou robots.txt. Paradoxalmente, no entanto, os chatbots falharam em responder corretamente às consultas sobre sites que lhes permitem acessar seu conteúdo.
"Perplexity Pro foi o pior infrator nesse sentido, identificando corretamente quase um terço dos noventa trechos dos artigos aos quais não deveria ter acesso", afirma o relatório.
Isso sugere que não apenas as empresas de IA ainda ignoram o representante - como a perplexidade e outras foram pegas no ano passado - mas que os editores em qualquer tipo de contrato de licenciamento com elas não tenham certeza corretamente.
O relatório de Columbia é apenas um sintoma de um problema maior. A IA generativa no relatório da redação também descobriu que os chatbots raramente direcionam o tráfego para os sites de notícias que estão extraindo informações, que outros relatórios confirmam. De julho a novembro de 2024, a perplexidade passou 7% dos referências para sites de notícias, enquanto o ChatGPT passou apenas 3%. Em comparação, as ferramentas de IA tendiam a favorecer recursos educacionais como Scribd.com, Coursera e aqueles anexados às universidades, enviando até 30% do tráfego.
Conclusão: os relatórios originais continuam sendo uma fonte de notícias mais confiável do que o que as ferramentas de IA regurgitam. Sempre verifique os links antes de aceitar o que eles dizem como fato e use suas habilidades críticas de pensamento e alfabetização da mídia para avaliar as respostas.




I paid for the premium version of this chatbot thinking I'd get accurate news, but nope! It confidently spits out wrong info all the time. It's like trusting a broken compass in a storm. Maybe stick to human-written news, folks. This AI needs a serious fact-check overhaul!




プレミアムバージョンにお金を払ったのに、ニュースの情報が間違っていることが多いです。AIが自信満々に間違った情報を提供するのは信じられません。人間が書いたニュースに戻ったほうがいいかもしれませんね。このAI、事実確認が必要ですね!




프리미엄 버전에 돈을 냈는데 뉴스 정보가 자주 틀려요. AI가 confidently 잘못된 정보를 제공하는 게 믿기지 않아요. 사람 손으로 쓴 뉴스로 돌아가는 게 나을 것 같아요. 이 AI, 사실 확인이 필요해요!




Paguei pela versão premium achando que teria notícias precisas, mas não! Ele sempre dá informações erradas com confiança. É como confiar em uma bússola quebrada durante uma tempestade. Talvez seja melhor voltar para notícias escritas por humanos. Este AI precisa de uma revisão séria de verificação de fatos!




मैंने प्रीमियम वर्जन के लिए पैसे दिए, सोचा सटीक समाचार मिलेंगे, लेकिन नहीं! यह हमेशा गलत जानकारी देता है और बहुत आत्मविश्वास से। यह तूफान में टूटी हुई कम्पास पर भरोसा करने जैसा है। शायद मानव द्वारा लिखी गई खबरों पर वापस जाना बेहतर है। इस AI को तथ्यों की जांच की जरूरत है!




Paid or not, these chatbots are messing up the news big time! I trusted them to give me accurate info, but they're just spreading more confusion. Time to rethink how we use AI for news, I guess.












