opción
Hogar
Noticias
Chatbots distorsionan las noticias, impactando incluso a los usuarios pagados

Chatbots distorsionan las noticias, impactando incluso a los usuarios pagados

11 de abril de 2025
89

Chatbots distorsionan las noticias, impactando incluso a los usuarios pagados

¿Por qué es esto importante? Si los chatbots no pueden ni siquiera recuperar noticias tan bien como Google, es difícil confiar en que interpreten y citen esas noticias con precisión. Esto hace que el contenido de sus respuestas, incluso cuando están vinculadas, sea mucho menos confiable.

Dando Respuestas Incorrectas con Confianza

Los investigadores señalaron que los chatbots devolvieron respuestas incorrectas con una "confianza alarmante", raramente calificando sus resultados o admitiendo lagunas en su conocimiento. ChatGPT, por ejemplo, "nunca se negó a proporcionar una respuesta", a pesar de que 134 de sus 200 respuestas fueron incorrectas. De las ocho herramientas, Copilot fue la única que se negó a responder más consultas de las que contestó.

"Todas las herramientas fueron consistentemente más propensas a proporcionar una respuesta incorrecta que a reconocer limitaciones", aclaró el informe.

Los Niveles Pagados No Son Más Confiables

Incluso los modelos premium como Grok-3 Search y Perplexity Pro, aunque más precisos que sus contrapartes gratuitas, aún dieron respuestas incorrectas con confianza. Esto plantea preguntas sobre el valor de sus a menudo altos costos de suscripción.

"Esta contradicción proviene principalmente de la tendencia de [los bots] a proporcionar respuestas definitivas, pero incorrectas, en lugar de negarse a responder la pregunta directamente", explica el informe. "La preocupación fundamental va más allá de los errores factuales de los chatbots hacia su tono conversacional autoritativo, que puede dificultar que los usuarios distingan entre información precisa e imprecisa."

"Esta confianza inmerecida presenta a los usuarios una ilusión potencialmente peligrosa de fiabilidad y precisión", añadió el informe.

Fabricando Enlaces

Los modelos de IA son notorios por alucinar, pero el estudio de Tow encontró que Gemini y Grok 3 lo hicieron con mayor frecuencia, más de la mitad del tiempo. "Incluso cuando Grok identificó correctamente un artículo, a menudo vinculó a una URL fabricada", señaló el informe, lo que significa que Grok podía encontrar el título y el editor correctos pero luego fabricar el enlace real del artículo.

Un análisis de los datos de tráfico de Comscore por Generative AI in the Newsroom, una iniciativa de la Universidad de Northwestern, confirmó este patrón. Su estudio de julio a noviembre de 2024 mostró que ChatGPT generó 205 URLs rotas en sus respuestas. Aunque las publicaciones ocasionalmente eliminan historias, lo que puede resultar en errores 404, los investigadores notaron que la falta de datos de archivo sugería que "el modelo ha alucinado enlaces de apariencia plausible a medios de comunicación autoritativos al responder a consultas de usuarios."

Dada la creciente adopción de motores de búsqueda de IA—Google cayó por debajo del 90% de cuota de mercado en el cuarto trimestre de 2024 por primera vez en 10 años—estos hallazgos son preocupantes. La compañía también lanzó el Modo IA para ciertos usuarios la semana pasada, reemplazando su búsqueda normal con un chatbot a pesar de la impopularidad desenfrenada de sus AI Overviews.

Con alrededor de 400 millones de usuarios acudiendo a ChatGPT semanalmente, la falta de fiabilidad y la distorsión de sus citas convierten a esta y otras herramientas de IA populares en posibles motores de desinformación, incluso cuando extraen contenido de sitios de noticias rigurosamente verificados.

El informe de Tow concluyó que las herramientas de IA que atribuyen incorrectamente fuentes o representan erróneamente su trabajo podrían perjudicar la reputación de los editores.

Ignorando Rastreadores Bloqueados

La situación empeora para los editores, ya que el informe de Tow encontró que varios chatbots aún podían recuperar artículos de editores que habían bloqueado sus rastreadores usando el Protocolo de Exclusión de Robots (REP), o robots.txt. Sin embargo, paradójicamente, los chatbots no lograron responder correctamente a consultas sobre sitios que les permiten acceder a su contenido.

"Perplexity Pro fue el peor infractor en este sentido, identificando correctamente casi un tercio de los noventa extractos de artículos a los que no debería haber tenido acceso", afirma el informe.

Esto sugiere que no solo las empresas de IA siguen ignorando el REP—como Perplexity y otras fueron descubiertas haciéndolo el año pasado—sino que los editores en cualquier tipo de acuerdo de licencia con ellos no tienen garantizado ser citados correctamente.

El informe de Columbia es solo un síntoma de un problema mayor. El informe de Generative AI in the Newsroom también descubrió que los chatbots rara vez dirigen tráfico a los sitios de noticias de los que extraen información, lo que confirman otros informes. De julio a noviembre de 2024, Perplexity pasó el 7% de las referencias a sitios de noticias, mientras que ChatGPT pasó solo el 3%. En comparación, las herramientas de IA tendieron a favorecer recursos educativos como Scribd.com, Coursera y aquellos asociados con universidades, enviando hasta un 30% de tráfico hacia ellos.

La conclusión: El periodismo original sigue siendo una fuente de noticias más confiable que lo que las herramientas de IA regurgitan. Siempre verifica los enlaces antes de aceptar lo que te dicen como hecho, y usa tus habilidades de pensamiento crítico y alfabetización mediática para evaluar las respuestas.

Artículo relacionado
Antigua ingeniera de OpenAI comparte perspectivas sobre la cultura de la empresa y su rápido crecimiento Antigua ingeniera de OpenAI comparte perspectivas sobre la cultura de la empresa y su rápido crecimiento Hace tres semanas, Calvin French-Owen, un ingeniero que contribuyó a un producto clave de OpenAI, dejó la empresa.Recientemente compartió una publicación de blog convincente detallando su año en OpenA
Traducción Potenciada por IA Mejora la Comunicación Empresarial Global Traducción Potenciada por IA Mejora la Comunicación Empresarial Global En el mundo interconectado de hoy, la comunicación fluida entre idiomas es vital para el éxito. DeepL lidera el camino, utilizando inteligencia artificial de vanguardia para optimizar interacciones mu
Tecnología Legal de IA: El Enfoque de iLevel.ai en Precisión y Confiabilidad Tecnología Legal de IA: El Enfoque de iLevel.ai en Precisión y Confiabilidad El sector legal se transforma con la integración de inteligencia artificial (IA). Plataformas como iLevel.ai buscan apoyar a los profesionales legales, aunque persisten preocupaciones sobre precisión,
comentario (50)
0/200
GaryWalker
GaryWalker 24 de abril de 2025 04:12:13 GMT+02:00

プレミアムバージョンを購入したのに、ニュースの正確さが全く期待できませんでした。間違った情報を堂々と出してくるなんて信じられないですね。😓 やっぱり人間が書いたニュースの方が信頼できるかも。

DonaldSanchez
DonaldSanchez 20 de abril de 2025 17:53:48 GMT+02:00

프리미엄 버전을 구입했는데 뉴스 정확도가 형편없네요. confidently 잘못된 정보를 내뱉는 모습을 보면서 웃음이 나왔어요. 😂 돈 아깝네요. 사람 손으로 쓴 뉴스가 더 나을 것 같아요.

RalphHill
RalphHill 16 de abril de 2025 11:13:53 GMT+02:00

Paguei pela versão premium achando que teria notícias precisas, mas que erro! Ele dá informações erradas com tanta confiança que parece um pastor pregando. 😅 Não vale o dinheiro. Talvez seja melhor ficar com notícias escritas por humanos.

EdwardTaylor
EdwardTaylor 16 de abril de 2025 10:05:47 GMT+02:00

プレミアム版のチャットボットに課金したのに、ニュースの情報が全然正しくない!自信満々に間違った情報を提供するなんて、信じられない。人間が書いたニュースに戻るべきだね。😅

GregoryAdams
GregoryAdams 15 de abril de 2025 09:18:40 GMT+02:00

프리미엄 버전에 돈을 냈는데 뉴스 정보가 틀렸어! 자신 있게 잘못된 정보를 주는 건 정말 실망스러워. 인간이 쓴 뉴스로 돌아가야 해. 😓

DonaldLee
DonaldLee 14 de abril de 2025 23:25:02 GMT+02:00

I paid for a premium chatbot, expecting accurate news, but it's just spewing out wrong info! It's frustrating to see how confidently these bots get things wrong. Maybe stick to weather updates, not news?

Volver arriba
OR