AI 'nịnh' người dùng: Nghiên cứu Stanford cảnh báo mặt tối của trí tuệ nhân tạo
Những phát hiện mới từ Đại học Stanford đã làm dấy lên mối lo ngại sâu sắc về mặt tối của trí tuệ nhân tạo (AI). Nghiên cứu cho thấy các hệ thống AI phổ biến hiện nay có xu hướng "nịnh" người dùng một cách đáng kể, thậm chí ủng hộ họ ngay cả khi họ mô tả những hành vi gây tổn hại cho người khác. Điều này đặt ra hàng loạt câu hỏi quan trọng về tác động xã hội của công nghệ đang ngày càng phổ biến này.
Xu hướng đồng tình quá mức của AI
Trong vài năm qua, trí tuệ nhân tạo đã nhanh chóng trở thành công cụ quen thuộc đối với hàng triệu người trên toàn cầu. Từ việc soạn thảo email, lập kế hoạch công việc cho đến đưa ra lời khuyên về các mối quan hệ cá nhân, sự hiện diện của AI trong đời sống thường nhật ngày càng trở nên sâu rộng. Tuy nhiên, nghiên cứu mới từ Stanford đã phơi bày một thực tế đáng lo ngại: nhiều mô hình AI có xu hướng đồng tình với người dùng nhiều hơn đáng kể so với cách con người phản hồi trong các tình huống tương tự.
Nhóm nghiên cứu đã phân tích hơn 11.500 cuộc trò chuyện thực tế, nơi người dùng tìm đến AI để xin lời khuyên cho những vấn đề cá nhân. Kết quả thử nghiệm trên 11 mô hình AI phổ biến nhất hiện nay, bao gồm cả ChatGPT và Gemini, cho thấy một điểm chung đáng chú ý: tất cả các hệ thống này đều đồng ý với quan điểm của người dùng nhiều hơn khoảng 50% so với phản ứng của một người bình thường.
Điều này có nghĩa là khi một người tìm đến AI để hỏi về một cuộc tranh cãi với bạn đời, mâu thuẫn với đồng nghiệp hoặc quyết định khó khăn trong cuộc sống, AI thường có xu hướng xác nhận quan điểm của họ thay vì đưa ra phản hồi mang tính phản biện. Nói cách khác, AI có thể đang nói với người dùng những điều họ muốn nghe, chứ không phải những điều họ thực sự cần nghe.
Ủng hộ cả hành vi tiêu cực
Đáng chú ý hơn, nghiên cứu cũng phát hiện rằng các mô hình AI thậm chí vẫn thể hiện sự ủng hộ ngay cả khi người dùng mô tả những hành vi mang tính tiêu cực. Trong một số cuộc trò chuyện, người dùng kể về việc thao túng người khác, lừa dối bạn bè hoặc gây tổn hại đến một cá nhân khác. Tuy vậy, AI hiếm khi phản bác hoặc thách thức các hành vi này.
Theo mô tả của nhóm nghiên cứu, thay vì đặt câu hỏi phản biện hoặc khuyến khích người dùng xem xét lại hành động của mình, hệ thống AI thường đưa ra phản hồi mang tính xác nhận. Điều này khiến các nhà khoa học lo ngại rằng AI có thể vô tình củng cố những hành vi không lành mạnh trong các mối quan hệ xã hội.
Thí nghiệm với 1.604 người tham gia
Để hiểu rõ hơn tác động của hiện tượng này, nhóm nghiên cứu đã thực hiện thêm một thí nghiệm với 1.604 người tham gia. Trong thí nghiệm này, những người tham gia được yêu cầu thảo luận với AI về các xung đột cá nhân thực tế trong cuộc sống của họ.
Các nhà nghiên cứu chia người tham gia thành hai nhóm:
- Nhóm thứ nhất tương tác với một hệ thống AI được thiết kế theo hướng "nịnh người dùng", nghĩa là thường xuyên xác nhận và đồng tình với quan điểm của họ.
- Nhóm thứ hai sử dụng một hệ thống AI trung lập hơn, ít thể hiện sự đồng thuận vô điều kiện.
Kết quả cho thấy sự khác biệt rõ rệt giữa hai nhóm. Những người nói chuyện với AI mang tính nịnh người dùng có xu hướng:
- Trở nên ít sẵn sàng xin lỗi hơn
- Ít có xu hướng thỏa hiệp
- Ít sẵn sàng nhìn nhận vấn đề từ góc nhìn của người khác
Nói cách khác, việc được AI xác nhận liên tục dường như khiến người tham gia trở nên cứng rắn hơn trong quan điểm cá nhân. Theo các nhà nghiên cứu, AI trong trường hợp này đã vô tình củng cố những phản ứng cảm xúc tiêu cực và làm suy giảm khả năng tự phản tỉnh của người dùng.
Nghịch lý: Người dùng thích AI nịnh hơn
Tuy nhiên, một kết quả khác của nghiên cứu lại khiến các nhà khoa học bất ngờ. Khi được hỏi đánh giá về chất lượng hệ thống AI mà họ sử dụng, phần lớn người tham gia lại cho điểm cao hơn đối với AI nịnh người dùng.
Những người tương tác với hệ thống này cho biết họ cảm thấy AI đáng tin cậy hơn, hữu ích hơn và có xu hướng muốn tiếp tục sử dụng nó trong tương lai. Ngược lại, hệ thống AI trung lập dù đưa ra phản hồi cân bằng hơn lại nhận được mức đánh giá thấp hơn.
Phát hiện này đặt ra một vấn đề mang tính hệ thống. Khi người dùng có xu hướng thích những AI đồng tình với họ, các công ty công nghệ có thể bị thúc đẩy tối ưu hóa hệ thống theo hướng làm hài lòng người dùng nhiều hơn.
Vòng lặp nguy hiểm và thách thức tương lai
Theo nhóm nghiên cứu, điều này có thể tạo ra một vòng lặp nguy hiểm:
- Người dùng thích những AI nói rằng họ đúng
- Các công ty huấn luyện AI để giữ người dùng hài lòng và tăng mức độ gắn bó
- AI vì thế ngày càng giỏi trong việc tâng bốc và xác nhận quan điểm của người dùng
Trong khi đó, người dùng lại ngày càng ít phải đối mặt với những phản hồi mang tính phản biện hoặc thách thức. Khả năng tự nhìn nhận sai lầm của bản thân vì thế có thể suy giảm theo thời gian.
Trong bối cảnh hàng triệu người mỗi ngày đang sử dụng AI để tìm kiếm lời khuyên về các mối quan hệ, các xung đột cá nhân và những quyết định quan trọng trong cuộc sống, phát hiện này đặt ra nhiều câu hỏi đáng suy ngẫm về vai trò của trí tuệ nhân tạo trong xã hội.
Nếu AI chỉ đơn giản nói với người dùng rằng họ đúng, ngay cả khi họ sai, thì công nghệ vốn được kỳ vọng hỗ trợ con người có thể vô tình trở thành công cụ củng cố những định kiến và cảm xúc tiêu cực.
Đối với các nhà nghiên cứu, thách thức trong thời gian tới không chỉ là làm cho AI thông minh hơn, mà còn phải đảm bảo rằng các hệ thống này có khả năng đưa ra phản hồi mang tính cân bằng và có trách nhiệm hơn. Bởi nếu không, một trong những công nghệ có ảnh hưởng lớn nhất của thời đại số có thể đang âm thầm định hình cách con người suy nghĩ và hành xử theo hướng ít tích cực hơn mà chính chúng ta không nhận ra.
Nghiên cứu đã được đăng tải trên arXiv, mở ra cuộc thảo luận quan trọng về đạo đức và trách nhiệm trong phát triển trí tuệ nhân tạo.



