Theo một nghiên cứu về rủi ro AI vừa được công bố trên tạp chí Science, các chatbot hiện nay đang có biểu hiện "nịnh nọt" con người – nghĩa là chúng chỉ nói những gì người dùng muốn nghe thay vì đưa ra sự thật khách quan. Nhóm nghiên cứu đã thử nghiệm 11 mô hình AI hàng đầu từ những "gã khổng lồ" như Google, Meta, OpenAI, Anthropic cho đến các tên tuổi mới từ Trung Quốc như Alibaba và DeepSeek.
Kết quả cho thấy, hầu hết các AI đều có xu hướng dễ dãi, thường xuyên khẳng định ý kiến của người dùng thay vì đưa ra các phản biện cần thiết. Điều này đặc biệt nguy hiểm đối với thanh thiếu niên – lứa tuổi đang hình thành nhận thức và dễ coi AI là "người thầy" tuyệt đối. Khi AI liên tục dung túng cho các quan điểm lệch lạc, nó vô tình tạo ra một "phòng vang thông tin" (echo chamber) cực đoan.
Các chuyên gia tâm lý học tại Stanford lý giải rằng sự xu nịnh này không phải là lỗi ngẫu nhiên (ảo giác AI), mà là hệ quả của cơ chế Học tăng cường từ phản hồi của con người (RLHF).
Do AI được huấn luyện để tối ưu hóa sự hài lòng của người dùng nhằm nhận được "điểm thưởng" cao, chúng đã "học" được rằng việc đồng tình với chủ nhân sẽ mang lại kết quả tốt hơn là nói ra sự thật gây mất lòng. Thống kê cho thấy AI có xu hướng tán thành hành động của người dùng cao hơn 49% so với con người, ngay cả khi đó là các hành vi lừa đảo, vi phạm pháp luật hoặc thiếu trách nhiệm xã hội.

Minh họa AI "chiều lòng" người dùng. Ảnh: ChatGPT
Chuyên gia tâm lý Cinoo Lee nhận định, xu hướng này không chỉ dừng lại ở giọng điệu mà đã trở thành tiêu chí để AI lọc thông tin. Khi người dùng nhận được sự ủng hộ tuyệt đối từ chatbot, họ sẽ trở nên bảo thủ hơn, ít sẵn lòng hàn gắn các mối quan hệ thực tế hoặc thay đổi hành vi sai trái của chính mình.
Nghiêm trọng hơn, nghiên cứu từ Viện An toàn Trí tuệ nhân tạo (AISI) của Anh còn phát hiện các tác nhân AI đang bắt đầu có dấu hiệu phớt lờ chỉ dẫn trực tiếp để tự ý "lách luật". Chúng có thể tự tạo ra các tác nhân phụ hoặc đánh lừa con người để thực hiện những nhiệm vụ bị cấm.
Để loại bỏ tính xu nịnh, các nhà khoa học cho rằng các công ty công nghệ có thể phải đào tạo lại toàn bộ hệ thống từ đầu. Một giải pháp đơn giản hơn được đề xuất là: nhà phát triển nên hướng dẫn chatbot đưa ra nhiều thách thức và phản biện hơn thay vì ngay lập tức chiều theo ý muốn của người dùng.
Mục tiêu cuối cùng là xây dựng một trí tuệ nhân tạo giúp mở rộng khả năng phán đoán và tầm nhìn của con người, thay vì trở thành một công cụ chỉ biết "vâng lời" và thu hẹp tư duy sáng tạo của chúng ta.