lựa chọn
Trang chủ
Tin tức
Chatbots méo mó tin tức, ảnh hưởng đến người dùng được trả tiền

Chatbots méo mó tin tức, ảnh hưởng đến người dùng được trả tiền

Ngày 11 tháng 4 năm 2025
89

Chatbots méo mó tin tức, ảnh hưởng đến người dùng được trả tiền

Tại sao điều này quan trọng? Nếu các chatbot thậm chí không thể truy xuất tin tức tốt như Google, thật khó để tin tưởng chúng sẽ diễn giải và trích dẫn tin tức đó một cách chính xác. Điều này khiến nội dung của các phản hồi của chúng, ngay cả khi được liên kết, trở nên ít đáng tin cậy hơn nhiều.

Tự Tin Đưa Ra Câu Trả Lời Sai

Các nhà nghiên cứu lưu ý rằng các chatbot trả lời sai với "sự tự tin đáng báo động," hiếm khi đưa ra nhận xét về kết quả của mình hoặc thừa nhận những lỗ hổng kiến thức. Ví dụ, ChatGPT "chưa bao giờ từ chối cung cấp câu trả lời," mặc dù 134 trong số 200 phản hồi của nó là không chính xác. Trong số tám công cụ, Copilot là công cụ duy nhất từ chối trả lời nhiều câu hỏi hơn số câu nó trả lời.

"Tất cả các công cụ đều có xu hướng cung cấp câu trả lời không chính xác hơn là thừa nhận giới hạn của mình," báo cáo nêu rõ.

Các Gói Trả Phí Không Đáng Tin Cậy Hơn

Ngay cả các mô hình cao cấp như Grok-3 Search và Perplexity Pro, mặc dù chính xác hơn so với các phiên bản miễn phí, vẫn tự tin đưa ra câu trả lời sai. Điều này đặt ra câu hỏi về giá trị của chi phí đăng ký thường cao của chúng.

"Mâu thuẫn này chủ yếu bắt nguồn từ xu hướng [của các bot] cung cấp câu trả lời dứt khoát nhưng sai, thay vì từ chối trả lời câu hỏi trực tiếp," báo cáo giải thích. "Mối quan ngại cơ bản vượt ra ngoài các lỗi thực tế của chatbot đến giọng điệu trò chuyện mang tính quyền uy của chúng, điều này có thể khiến người dùng khó phân biệt giữa thông tin chính xác và không chính xác."

"Sự tự tin không đáng có này tạo ra cho người dùng một ảo tưởng tiềm tàng nguy hiểm về độ tin cậy và chính xác," báo cáo bổ sung.

Tạo Ra Liên Kết Giả

Các mô hình AI nổi tiếng với việc tạo ra ảo giác, nhưng nghiên cứu của Tow phát hiện rằng Gemini và Grok 3 làm điều này thường xuyên nhất—hơn một nửa thời gian. "Ngay cả khi Grok xác định đúng một bài báo, nó thường liên kết đến một URL giả mạo," báo cáo lưu ý, nghĩa là Grok có thể tìm đúng tiêu đề và nhà xuất bản nhưng sau đó tạo ra liên kết bài báo thực tế.

Một phân tích dữ liệu lưu lượng truy cập Comscore bởi Generative AI in the Newsroom, một sáng kiến của Đại học Northwestern, đã xác nhận mô hình này. Nghiên cứu của họ từ tháng 7 đến tháng 11 năm 2024 cho thấy ChatGPT đã tạo ra 205 URL bị hỏng trong các phản hồi của nó. Mặc dù các ấn phẩm đôi khi gỡ bỏ các bài báo, dẫn đến lỗi 404, các nhà nghiên cứu lưu ý rằng việc thiếu dữ liệu lưu trữ cho thấy "mô hình đã tạo ra các liên kết trông có vẻ hợp lý đến các nguồn tin tức có thẩm quyền khi trả lời các câu hỏi của người dùng."

Với việc ngày càng nhiều người sử dụng các công cụ tìm kiếm AI—Google đã giảm xuống dưới 90% thị phần trong quý 4 năm 2024 lần đầu tiên trong 10 năm—những phát hiện này thật đáng lo ngại. Công ty cũng đã phát hành Chế độ AI cho một số người dùng vào tuần trước, thay thế tìm kiếm thông thường bằng một chatbot mặc dù AI Overviews của họ không được ưa chuộng.

Với khoảng 400 triệu người dùng truy cập ChatGPT hàng tuần, sự không đáng tin cậy và méo mó của các trích dẫn khiến nó và các công cụ AI phổ biến khác trở thành những động cơ tiềm tàng của thông tin sai lệch, ngay cả khi chúng lấy nội dung từ các trang tin tức được kiểm tra thực tế kỹ lưỡng.

Báo cáo Tow kết luận rằng các công cụ AI ghi công sai nguồn hoặc thể hiện sai công việc của họ có thể gây phản tác dụng đối với danh tiếng của các nhà xuất bản.

Bỏ Qua Các Trình Thu Thập Dữ Liệu Bị Chặn

Tình hình trở nên tồi tệ hơn đối với các nhà xuất bản khi báo cáo Tow phát hiện rằng một số chatbot vẫn có thể truy xuất bài báo từ các nhà xuất bản đã chặn trình thu thập dữ liệu của họ bằng Giao thức Loại trừ Robot (REP), hoặc robots.txt. Tuy nhiên, nghịch lý thay, các chatbot không trả lời chính xác các câu hỏi về các trang web cho phép chúng truy cập nội dung.

"Perplexity Pro là thủ phạm tệ nhất trong vấn đề này, xác định đúng gần một phần ba trong số chín mươi đoạn trích từ các bài báo mà nó không nên có quyền truy cập," báo cáo nêu rõ.

Điều này cho thấy rằng không chỉ các công ty AI vẫn bỏ qua REP—như Perplexity và những công ty khác bị phát hiện làm điều đó vào năm ngoái—mà các nhà xuất bản trong bất kỳ thỏa thuận cấp phép nào với họ cũng không được đảm bảo sẽ được trích dẫn chính xác.

Báo cáo của Columbia chỉ là một triệu chứng của một vấn đề lớn hơn. Báo cáo Generative AI in the Newsroom cũng phát hiện ra rằng các chatbot hiếm khi chuyển hướng lưu lượng truy cập đến các trang tin tức mà chúng đang trích xuất thông tin, điều mà các báo cáo khác cũng xác nhận. Từ tháng 7 đến tháng 11 năm 2024, Perplexity đã chuyển tiếp 7% lượt giới thiệu đến các trang tin tức, trong khi ChatGPT chỉ chuyển tiếp 3%. Ngược lại, các công cụ AI có xu hướng ưu tiên các nguồn tài nguyên giáo dục như Scribd.com, Coursera và những nguồn liên kết với các trường đại học, gửi tới 30% lưu lượng truy cập theo hướng của họ.

Kết luận: Báo cáo gốc vẫn là nguồn tin tức đáng tin cậy hơn so với những gì các công cụ AI tái hiện. Luôn xác minh các liên kết trước khi chấp nhận những gì chúng nói với bạn như sự thật, và sử dụng kỹ năng tư duy phản biện và hiểu biết truyền thông để đánh giá các phản hồi.

Bài viết liên quan
Hành trình của Vader: Từ Bi kịch đến Cứu chuộc trong Star Wars Hành trình của Vader: Từ Bi kịch đến Cứu chuộc trong Star Wars Darth Vader, biểu tượng của nỗi sợ hãi và sự chuyên chế, là một trong những nhân vật phản diện mang tính biểu tượng nhất của điện ảnh. Tuy nhiên, đằng sau chiếc mặt nạ là câu chuyện về bi kịch, mất má
Cựu Kỹ sư OpenAI Chia sẻ Thông tin về Văn hóa Công ty và Tăng trưởng Nhanh chóng Cựu Kỹ sư OpenAI Chia sẻ Thông tin về Văn hóa Công ty và Tăng trưởng Nhanh chóng Ba tuần trước, Calvin French-Owen, một kỹ sư đã đóng góp vào một sản phẩm chủ chốt của OpenAI, đã rời công ty.Gần đây, anh ấy đã chia sẻ một bài đăng blog hấp dẫn, mô tả chi tiết một năm làm việc tại
AI驱动的翻译提升全球商业沟通 AI驱动的翻译提升全球商业沟通 在当今互联的世界中,无缝的跨语言沟通对成功至关重要。DeepL 引领潮流,利用尖端人工智能优化全球企业的多语言互动。从即时文本翻译到高级语音解决方案,DeepL 改变公司与全球客户、合作伙伴和团队的互动方式。主要亮点DeepL 利用 AI 优化跨语言商业沟通。其 AI 优先考虑翻译的精确性、质量和安全性。DeepL 支持文本和语音翻译,提升国际运营。DeepL 的全球覆盖现已扩展到 165 个新市
Nhận xét (50)
0/200
GaryWalker
GaryWalker 09:12:13 GMT+07:00 Ngày 24 tháng 4 năm 2025

プレミアムバージョンを購入したのに、ニュースの正確さが全く期待できませんでした。間違った情報を堂々と出してくるなんて信じられないですね。😓 やっぱり人間が書いたニュースの方が信頼できるかも。

DonaldSanchez
DonaldSanchez 22:53:48 GMT+07:00 Ngày 20 tháng 4 năm 2025

프리미엄 버전을 구입했는데 뉴스 정확도가 형편없네요. confidently 잘못된 정보를 내뱉는 모습을 보면서 웃음이 나왔어요. 😂 돈 아깝네요. 사람 손으로 쓴 뉴스가 더 나을 것 같아요.

RalphHill
RalphHill 16:13:53 GMT+07:00 Ngày 16 tháng 4 năm 2025

Paguei pela versão premium achando que teria notícias precisas, mas que erro! Ele dá informações erradas com tanta confiança que parece um pastor pregando. 😅 Não vale o dinheiro. Talvez seja melhor ficar com notícias escritas por humanos.

EdwardTaylor
EdwardTaylor 15:05:47 GMT+07:00 Ngày 16 tháng 4 năm 2025

プレミアム版のチャットボットに課金したのに、ニュースの情報が全然正しくない!自信満々に間違った情報を提供するなんて、信じられない。人間が書いたニュースに戻るべきだね。😅

GregoryAdams
GregoryAdams 14:18:40 GMT+07:00 Ngày 15 tháng 4 năm 2025

프리미엄 버전에 돈을 냈는데 뉴스 정보가 틀렸어! 자신 있게 잘못된 정보를 주는 건 정말 실망스러워. 인간이 쓴 뉴스로 돌아가야 해. 😓

DonaldLee
DonaldLee 04:25:02 GMT+07:00 Ngày 15 tháng 4 năm 2025

I paid for a premium chatbot, expecting accurate news, but it's just spewing out wrong info! It's frustrating to see how confidently these bots get things wrong. Maybe stick to weather updates, not news?

Quay lại đầu
OR