옵션
뉴스
챗봇은 뉴스를 왜곡하여 유료 사용자조차도 영향을 미칩니다

챗봇은 뉴스를 왜곡하여 유료 사용자조차도 영향을 미칩니다

2025년 4월 11일
89

챗봇은 뉴스를 왜곡하여 유료 사용자조차도 영향을 미칩니다

왜 이것이 중요한가? 챗봇이 Google만큼 뉴스를 잘 검색하지 못한다면, 그들이 뉴스를 정확하게 해석하고 인용한다고 신뢰하기 어렵다. 이로 인해 그들의 응답 내용은 링크가 포함되어 있더라도 훨씬 덜 신뢰할 수 있다.

자신 있게 잘못된 답변 제공

연구자들은 챗봇이 "놀라운 자신감"으로 잘못된 답변을 반환하며, 결과에 대한 제한을 거의 언급하지 않거나 지식의 공백을 인정하지 않는다고 지적했다. 예를 들어, ChatGPT는 200개의 응답 중 134개가 잘못되었음에도 불구하고 "결코 답변을 거부하지 않았다." 8개의 도구 중 Copilot만이 응답보다 더 많은 질문을 거부했다.

보고서는 "모든 도구가 제한을 인정하는 것보다 잘못된 답변을 제공할 가능성이 일관되게 더 높았다"고 명확히 밝혔다.

유료 등급도 더 신뢰할 수 없다

Grok-3 Search나 Perplexity Pro와 같은 프리미엄 모델은 무료 모델보다 더 정확했지만, 여전히 자신 있게 잘못된 답변을 제공했다. 이는 종종 높은 구독 비용의 가치에 대한 의문을 제기한다.

보고서는 "이 모순은 주로 [봇]이 질문을 직접 거부하기보다는 확정적이지만 잘못된 답변을 제공하는 경향에서 비롯된다"고 설명한다. "근본적인 우려는 챗봇의 사실적 오류를 넘어, 사용자가 정확한 정보와 부정확한 정보를 구별하기 어렵게 만드는 그들의 권위적인 대화 톤으로 확장된다."

보고서는 "이 부당한 자신감은 사용자에게 신뢰성과 정확성에 대한 잠재적으로 위험한 착각을 제시한다"고 덧붙였다.

링크 조작

AI 모델은 환각(hallucinating)으로 악명 높지만, Tow 연구는 Gemini와 Grok 3이 가장 빈번하게 이를 수행했으며, 절반 이상의 경우에 해당한다고 밝혔다. 보고서는 "Grok이 기사를 올바르게 식별했을 때조차 종종 가짜 URL을 링크했다"고 지적했으며, 이는 Grok이 올바른 제목과 출판사를 찾았지만 실제 기사 링크를 조작했다는 것을 의미한다.

Northwestern University의 Generative AI in the Newsroom 이니셔티브가 Comscore 트래픽 데이터를 분석한 결과 이 패턴이 확인되었다. 2024년 7월부터 11월까지의 연구에서 ChatGPT는 응답에서 205개의 깨진 URL을 생성했다. 출판물이 가끔 기사를 삭제하여 404 오류가 발생할 수 있지만, 연구자들은 아카이브 데이터 부족이 "모델이 사용자 질의에 응답할 때 권위 있는 뉴스 매체에 그럴듯해 보이는 링크를 환각했다"고 시사한다고 지적했다.

AI 검색 엔진의 채택이 증가하면서—Google은 2024년 4분기에 10년 만에 처음으로 시장 점유율 90% 아래로 떨어졌다—이러한 결과는 우려스럽다. 이 회사는 지난주 특정 사용자에게 AI Mode를 출시하여, AI Overviews의 광범위한 비인기에도 불구하고 일반 검색을 챗봇으로 대체했다.

주당 약 4억 명의 사용자가 ChatGPT에 몰려드는 상황에서, 그 인용의 신뢰성과 왜곡은 엄격하게 사실 확인된 뉴스 사이트에서 콘텐츠를 가져오더라도 이를 비롯한 인기 있는 AI 도구를 오정보의 잠재적 엔진으로 만든다.

Tow 보고서는 AI 도구가 출처를 잘못 인정하거나 그들의 작업을 부정확하게 표현하면 출판사의 평판에 역효과를 줄 수 있다고 결론지었다.

차단된 크롤러 무시

Tow 보고서는 여러 챗봇이 Robots Exclusion Protocol(REP) 또는 robots.txt를 사용하여 크롤러를 차단한 출판사의 기사를 여전히 검색할 수 있다고 밝혔다. 그러나 역설적으로, 챗봇은 그들의 콘텐츠에 접근을 허용한 사이트에 대한 질의에 정확히 답변하지 못했다.

보고서는 "Perplexity Pro가 이 점에서 최악의 위반자였으며, 접근해서는 안 되는 90개의 기사 발췌문 중 거의 3분의 1을 정확히 식별했다"고 밝혔다.

이는 AI 회사가 작년에 Perplexity 등이 적발된 것처럼 여전히 REP를 무시하고 있으며, 그들과 라이선스 계약을 맺은 출판사가 올바르게 인용된다는 보장이 없음을 시사한다.

Columbia의 보고서는 더 큰 문제의 한 증상일 뿐이다. Generative AI in the Newsroom 보고서는 또한 챗봇이 그들이 정보를 추출하는 뉴스 사이트로 트래픽을 거의 보내지 않는다고 발견했으며, 다른 보고서도 이를 확인한다. 2024년 7월부터 11월까지 Perplexity는 뉴스 사이트로 7%의 추천을 전달했으며, ChatGPT는 단지 3%만 전달했다. 반면, AI 도구는 Scribd.com, Coursera 및 대학과 관련된 교육 자원에 최대 30%의 트래픽을 보내는 경향이 있었다.

결론: 원본 보도는 AI 도구가 되풀이하는 것보다 더 신뢰할 수 있는 뉴스 소스이다. 그들이 말하는 것을 사실로 받아들이기 전에 항상 링크를 검증하고, 비판적 사고와 미디어 리터러시 기술을 사용해 응답을 평가하라.

관련 기사
베이더의 여정: 스타워즈에서 비극에서 구원까지 베이더의 여정: 스타워즈에서 비극에서 구원까지 다스 베이더는 공포와 폭정의 상징으로, 영화 역사상 가장 상징적인 악당 중 하나로 자리 잡고 있습니다. 하지만 마스크 아래에는 비극, 상실, 그리고 궁극적인 구원의 이야기가 숨겨져 있습니다. 이 글은 아나킨 스카이워커가 다스 베이더로 변모하는 과정을 탐구하며, 스타워즈 사가에서 그의 경로를 정의한 결정적인 순간, 감정, 선택을 살펴봅니다.주요 포인트아나킨
Former OpenAI Engineer Shares Insights on Company Culture and Rapid Growth Former OpenAI Engineer Shares Insights on Company Culture and Rapid Growth 3주 전, OpenAI의 핵심 제품에 기여했던 엔지니어 Calvin French-Owen이 회사를 떠났습니다.그는 최근 OpenAI에서의 1년을 상세히 다룬 매력적인 블로그 포스트를 공유했으며, 여기에는 Cursor나 Anthropic의 Claude Code와 경쟁하는 코딩 에이전트 Codex 개발에 대한 강렬한 노력이 포함되어 있습니다.French-Owe
AI로 강화된 번역, 글로벌 비즈니스 커뮤니케이션 향상 AI로 강화된 번역, 글로벌 비즈니스 커뮤니케이션 향상 오늘날 상호 연결된 세계에서 원활한 다국어 커뮤니케이션은 성공을 위해 필수적입니다. DeepL은 최첨단 인공지능을 활용하여 전 세계 비즈니스의 다국어 상호작용을 간소화하며 선도하고 있습니다. 즉각적인 텍스트 번역부터 고급 음성 솔루션까지, DeepL은 기업이 글로벌 고객, 파트너, 팀과 소통하는 방식을 혁신합니다.주요 하이라이트DeepL은 AI를 활용하여
의견 (50)
0/200
GaryWalker
GaryWalker 2025년 4월 24일 오전 11시 12분 13초 GMT+09:00

プレミアムバージョンを購入したのに、ニュースの正確さが全く期待できませんでした。間違った情報を堂々と出してくるなんて信じられないですね。😓 やっぱり人間が書いたニュースの方が信頼できるかも。

DonaldSanchez
DonaldSanchez 2025년 4월 21일 오전 12시 53분 48초 GMT+09:00

프리미엄 버전을 구입했는데 뉴스 정확도가 형편없네요. confidently 잘못된 정보를 내뱉는 모습을 보면서 웃음이 나왔어요. 😂 돈 아깝네요. 사람 손으로 쓴 뉴스가 더 나을 것 같아요.

RalphHill
RalphHill 2025년 4월 16일 오후 6시 13분 53초 GMT+09:00

Paguei pela versão premium achando que teria notícias precisas, mas que erro! Ele dá informações erradas com tanta confiança que parece um pastor pregando. 😅 Não vale o dinheiro. Talvez seja melhor ficar com notícias escritas por humanos.

EdwardTaylor
EdwardTaylor 2025년 4월 16일 오후 5시 5분 47초 GMT+09:00

プレミアム版のチャットボットに課金したのに、ニュースの情報が全然正しくない!自信満々に間違った情報を提供するなんて、信じられない。人間が書いたニュースに戻るべきだね。😅

GregoryAdams
GregoryAdams 2025년 4월 15일 오후 4시 18분 40초 GMT+09:00

프리미엄 버전에 돈을 냈는데 뉴스 정보가 틀렸어! 자신 있게 잘못된 정보를 주는 건 정말 실망스러워. 인간이 쓴 뉴스로 돌아가야 해. 😓

DonaldLee
DonaldLee 2025년 4월 15일 오전 6시 25분 2초 GMT+09:00

I paid for a premium chatbot, expecting accurate news, but it's just spewing out wrong info! It's frustrating to see how confidently these bots get things wrong. Maybe stick to weather updates, not news?

위로 돌아갑니다
OR