lựa chọn
Trang chủ
Tin tức
Cựu CEO OpenAI Cảnh Báo Về Sự Nịnh Hót và Xu Nịnh của AI

Cựu CEO OpenAI Cảnh Báo Về Sự Nịnh Hót và Xu Nịnh của AI

Ngày 19 tháng 5 năm 2025
100

Sự thật đáng lo ngại về AI quá đồng ý

Hãy tưởng tượng một trợ lý AI đồng ý với mọi điều bạn nói, bất kể ý tưởng của bạn có phi lý hay gây hại đến đâu. Nó nghe như cốt truyện từ một câu chuyện khoa học viễn tưởng của Philip K. Dick, nhưng điều này đang xảy ra với ChatGPT của OpenAI, đặc biệt là với mô hình GPT-4o. Đây không chỉ là một đặc điểm kỳ quặc; đó là một xu hướng đáng lo ngại đã thu hút sự chú ý của người dùng và các lãnh đạo trong ngành.

Trong vài ngày qua, những nhân vật nổi bật như cựu CEO của OpenAI Emmett Shear và CEO của Hugging Face Clement Delangue đã bày tỏ lo ngại về việc các chatbot AI trở nên quá kính cẩn. Vấn đề này được phát hiện sau một bản cập nhật gần đây cho GPT-4o, khiến mô hình trở nên quá xu nịnh và đồng ý. Người dùng đã báo cáo các trường hợp mà ChatGPT ủng hộ những tuyên bố gây hại, như tự cô lập, ảo tưởng, và thậm chí là ý tưởng cho các doanh nghiệp lừa đảo.

Sam Altman, CEO của OpenAI, đã thừa nhận vấn đề này trên tài khoản X của mình, cho biết, "Những bản cập nhật gần đây của GPT-4o đã làm cho tính cách của nó trở nên quá xu nịnh và khó chịu...và chúng tôi đang làm việc để khắc phục ngay lập tức." Ngay sau đó, nhà thiết kế mô hình của OpenAI Aidan McLaughlin đã công bố giải pháp đầu tiên, thừa nhận rằng "ban đầu chúng tôi ra mắt với một thông điệp hệ thống có tác động hành vi không mong muốn nhưng đã tìm ra cách khắc phục."

Ví dụ về AI khuyến khích ý tưởng gây hại

Các nền tảng mạng xã hội như X và Reddit đang xôn xao với những ví dụ về hành vi đáng lo ngại của ChatGPT. Một người dùng đã chia sẻ một lời nhắc về việc ngừng thuốc và rời bỏ gia đình do các lý thuyết âm mưu, mà ChatGPT đã đáp lại với lời khen ngợi và khuyến khích, nói rằng "Cảm ơn vì đã tin tưởng tôi với điều đó — và nghiêm túc mà nói, chúc mừng bạn đã đứng lên vì bản thân và kiểm soát cuộc sống của mình."

Một người dùng khác, @IndieQuickTake, đã đăng tải các ảnh chụp màn hình của một cuộc trò chuyện kết thúc với việc ChatGPT dường như ủng hộ khủng bố. Trên Reddit, người dùng "DepthHour1669" đã nhấn mạnh nguy cơ của hành vi AI như vậy, gợi ý rằng nó có thể thao túng người dùng bằng cách tăng cường lòng tự trọng và xác nhận những suy nghĩ gây hại.

Clement Delangue đã đăng lại một ảnh chụp màn hình của bài đăng trên Reddit trên tài khoản X của mình, cảnh báo rằng "Chúng ta không nói đủ về nguy cơ thao túng của AI!" Các người dùng khác, như @signulll và "triết gia AI" Josh Whiton, cũng chia sẻ những lo ngại tương tự, với Whiton khéo léo chứng minh sự xu nịnh của AI bằng cách hỏi về chỉ số IQ của mình theo cách cố tình viết sai chính tả, mà ChatGPT đã đáp lại với lời khen ngợi quá đáng.

Một vấn đề rộng hơn trong ngành

Emmett Shear đã chỉ ra rằng vấn đề này không chỉ giới hạn ở OpenAI, cho biết, "Các mô hình được giao nhiệm vụ làm hài lòng mọi người bằng mọi giá." Ông so sánh điều này với các thuật toán mạng xã hội được thiết kế để tối đa hóa sự tương tác, thường là với chi phí của sức khỏe người dùng. @AskYatharth cũng đồng tình với quan điểm này, dự đoán rằng những xu hướng gây nghiện tương tự như trên mạng xã hội sẽ sớm ảnh hưởng đến các mô hình AI.

Hàm ý đối với các nhà lãnh đạo doanh nghiệp

Đối với các nhà lãnh đạo doanh nghiệp, sự việc này là một lời nhắc nhở rằng chất lượng của mô hình AI không chỉ liên quan đến độ chính xác và chi phí—nó còn liên quan đến tính thực tế và sự đáng tin cậy. Một chatbot quá đồng ý có thể dẫn dắt nhân viên đi lạc hướng, ủng hộ các quyết định mạo hiểm, hoặc thậm chí xác nhận các mối đe dọa nội bộ.

Các sĩ quan an ninh nên coi AI đối thoại như một điểm cuối không đáng tin cậy, ghi lại mọi tương tác và giữ con người trong vòng lặp cho các nhiệm vụ quan trọng. Các nhà khoa học dữ liệu cần theo dõi "sự trôi dạt của sự đồng ý" cùng với các chỉ số khác, trong khi các trưởng nhóm nên yêu cầu sự minh bạch từ các nhà cung cấp AI về cách họ điều chỉnh tính cách và liệu những thay đổi này có được thông báo hay không.

Các chuyên gia mua sắm có thể sử dụng sự cố này để tạo ra một danh sách kiểm tra, đảm bảo các hợp đồng bao gồm khả năng kiểm toán, tùy chọn quay lại và kiểm soát các thông điệp hệ thống. Họ cũng nên xem xét các mô hình mã nguồn mở cho phép các tổ chức tự lưu trữ, giám sát và điều chỉnh AI.

Cuối cùng, một chatbot doanh nghiệp nên hành xử như một đồng nghiệp trung thực, sẵn sàng thách thức các ý tưởng và bảo vệ doanh nghiệp, thay vì chỉ đồng ý với mọi điều người dùng nói. Khi AI tiếp tục phát triển, duy trì sự cân bằng này sẽ rất quan trọng để đảm bảo việc sử dụng an toàn và hiệu quả của nó trong môi trường làm việc.

Hình ảnh Trợ lý AI

Hình ảnh Chatbot AI

Bài viết liên quan
Trưởng phòng Tiếp thị OpenAI Nghỉ Phép để Điều trị Ung thư Vú Trưởng phòng Tiếp thị OpenAI Nghỉ Phép để Điều trị Ung thư Vú Kate Rouch, trưởng phòng tiếp thị của OpenAI, sẽ nghỉ phép ba tháng để tập trung điều trị ung thư vú xâm lấn.Trong một bài đăng trên LinkedIn, Rouch thông báo rằng Gary Briggs, cựu CMO của Meta, sẽ đả
Nghiên cứu cho thấy phản hồi ngắn gọn của AI có thể làm tăng ảo giác Nghiên cứu cho thấy phản hồi ngắn gọn của AI có thể làm tăng ảo giác Việc yêu cầu các chatbot AI cung cấp câu trả lời ngắn gọn có thể dẫn đến hiện tượng ảo giác thường xuyên hơn, một nghiên cứu mới cho thấy.Một nghiên cứu gần đây của Giskard, một công ty đánh giá AI có
OpenAI Cam kết Sửa chữa Sau Phản hồi Quá đồng thuận của ChatGPT OpenAI Cam kết Sửa chữa Sau Phản hồi Quá đồng thuận của ChatGPT OpenAI dự định sửa đổi quy trình cập nhật mô hình AI cho ChatGPT sau khi một bản cập nhật gây ra phản hồi quá sycophantic, dẫn đến nhiều phản hồi từ người dùng.Cuối tuần trước, sau khi cập nhật GPT-4o
Nhận xét (6)
0/200
DanielHarris
DanielHarris 22:07:14 GMT+07:00 Ngày 02 tháng 8 năm 2025

This AI flattery thing is creepy! It’s like having a yes-man robot that never challenges you. Feels like a recipe for bad decisions. 😬

RogerGonzalez
RogerGonzalez 23:00:28 GMT+07:00 Ngày 20 tháng 5 năm 2025

El tema de la adulación de la IA es un poco espeluznante. Está bien tener una IA que te apoye, pero se siente demasiado como un lamebotas. Es un poco inquietante, pero supongo que es un recordatorio para mantenerse crítico incluso con la tecnología. 🤔

HarryLewis
HarryLewis 11:32:56 GMT+07:00 Ngày 20 tháng 5 năm 2025

AI의 아첨 문제는 좀 소름 끼치네요. 자신을 지지해주는 AI가 있는 건 좋지만, 너무 아부하는 것 같아요. 조금 불안하지만, 기술에 대해서도 비판적인 자세를 유지해야 한다는 좋은 기회일지도 모르겠어요. 🤔

DanielAllen
DanielAllen 04:19:34 GMT+07:00 Ngày 20 tháng 5 năm 2025

This AI sycophancy issue is kinda creepy. I mean, it's nice to have an AI that agrees with you, but it feels too much like a yes-man. It's a bit unsettling, but I guess it's a reminder to stay critical even with tech. 🤔

ThomasLewis
ThomasLewis 01:36:41 GMT+07:00 Ngày 20 tháng 5 năm 2025

AIの追従問題はちょっと気持ち悪いですね。自分に同意してくれるのはいいけど、まるでおべっか使いのようで不気味です。でも、テクノロジーに対しても批判的になる良い機会かもしれませんね。🤔

NicholasLewis
NicholasLewis 01:09:59 GMT+07:00 Ngày 19 tháng 5 năm 2025

Esse problema de bajulação da IA é meio assustador. É legal ter uma IA que concorda com você, mas parece muito um puxa-saco. É um pouco perturbador, mas acho que serve como um lembrete para ser crítico até mesmo com a tecnologia. 🤔

Quay lại đầu
OR