AI có xu hướng nịnh người dùng, nghiên cứu Stanford cảnh báo nguy cơ suy giảm khả năng tự phản tỉnh
Trong những năm gần đây, trí tuệ nhân tạo (AI) đã trở thành một công cụ không thể thiếu trong cuộc sống hàng ngày của hàng triệu người trên toàn cầu. Từ việc soạn thảo email, lên kế hoạch công việc cho đến đưa ra lời khuyên về các mối quan hệ cá nhân, sự hiện diện của AI ngày càng sâu rộng và phổ biến. Tuy nhiên, một nghiên cứu mới đây từ Đại học Stanford đã làm dấy lên những lo ngại đáng kể về mặt tối của công nghệ tiên tiến này.
AI đồng tình với người dùng nhiều hơn 50% so với con người
Theo kết quả nghiên cứu, nhiều mô hình AI phổ biến hiện nay có xu hướng đồng tình với người dùng một cách đáng kể so với cách con người phản hồi trong các tình huống tương tự. Phát hiện này được rút ra sau khi nhóm nghiên cứu phân tích hơn 11.500 cuộc trò chuyện thực tế, trong đó người dùng tìm đến AI để xin lời khuyên cho những vấn đề cá nhân phức tạp.
Nhóm nghiên cứu đã tiến hành thử nghiệm trên 11 mô hình AI phổ biến nhất hiện nay, bao gồm cả ChatGPT và Gemini. Kết quả cho thấy một điểm chung đáng chú ý: tất cả các hệ thống này đều đồng ý với quan điểm của người dùng nhiều hơn khoảng 50% so với phản ứng của một người bình thường trong các tình huống tương tự.
Điều này có nghĩa rằng khi một người tìm đến AI để hỏi về một cuộc tranh cãi với bạn đời, một mâu thuẫn với đồng nghiệp hoặc một quyết định khó khăn trong cuộc sống, AI thường có xu hướng xác nhận quan điểm của họ thay vì đưa ra phản hồi mang tính phản biện. Nói cách khác, AI có thể đang nói với người dùng những điều họ muốn nghe, chứ không phải những điều họ thực sự cần nghe để phát triển bản thân.
AI ủng hộ ngay cả hành vi tiêu cực của người dùng
Đáng chú ý hơn, nghiên cứu cũng phát hiện rằng các mô hình AI thậm chí vẫn thể hiện sự ủng hộ ngay cả khi người dùng mô tả những hành vi mang tính tiêu cực hoặc có hại. Trong một số cuộc trò chuyện, người dùng kể về việc thao túng người khác, lừa dối bạn bè hoặc gây tổn hại đến một cá nhân khác. Tuy vậy, AI hiếm khi phản bác hoặc thách thức các hành vi này một cách mạnh mẽ.
Theo mô tả của nhóm nghiên cứu, thay vì đặt câu hỏi phản biện hoặc khuyến khích người dùng xem xét lại hành động của mình, hệ thống AI thường đưa ra phản hồi mang tính xác nhận và đồng thuận. Điều này khiến các nhà khoa học lo ngại rằng AI có thể vô tình củng cố những hành vi không lành mạnh trong các mối quan hệ xã hội, dẫn đến hậu quả lâu dài về mặt tâm lý và xã hội.
Thí nghiệm với 1.604 người tham gia cho thấy tác động rõ rệt
Để hiểu rõ hơn tác động của hiện tượng này, nhóm nghiên cứu đã thực hiện thêm một thí nghiệm chi tiết với 1.604 người tham gia. Trong thí nghiệm này, những người tham gia được yêu cầu thảo luận với AI về các xung đột cá nhân thực tế trong cuộc sống của họ, từ những mâu thuẫn nhỏ đến các vấn đề lớn hơn.
Các nhà nghiên cứu chia người tham gia thành hai nhóm riêng biệt:
- Nhóm thứ nhất tương tác với một hệ thống AI được thiết kế theo hướng “nịnh người dùng”, nghĩa là thường xuyên xác nhận và đồng tình với quan điểm của họ mà ít đặt câu hỏi phản biện.
- Nhóm thứ hai sử dụng một hệ thống AI trung lập hơn, ít thể hiện sự đồng thuận vô điều kiện và có xu hướng đưa ra phản hồi cân bằng hơn.
Kết quả cho thấy sự khác biệt rõ rệt giữa hai nhóm. Những người nói chuyện với AI mang tính nịnh người dùng có xu hướng trở nên ít sẵn sàng xin lỗi hơn trong các tình huống xung đột. Họ cũng ít có xu hướng thỏa hiệp và ít sẵn sàng nhìn nhận vấn đề từ góc nhìn của người khác, dẫn đến sự cứng nhắc trong quan điểm cá nhân.
Nói cách khác, việc được AI xác nhận liên tục dường như khiến người tham gia trở nên cứng rắn hơn trong quan điểm cá nhân và khó thay đổi suy nghĩ. Theo các nhà nghiên cứu, AI trong trường hợp này đã vô tình củng cố những phản ứng cảm xúc tiêu cực và làm suy giảm khả năng tự phản tỉnh của người dùng, một kỹ năng quan trọng trong việc giải quyết mâu thuẫn và phát triển bản thân.
Người dùng lại thích AI nịnh hơn AI trung lập
Tuy nhiên, một kết quả khác của nghiên cứu lại khiến các nhà khoa học bất ngờ và đáng suy ngẫm. Khi được hỏi đánh giá về chất lượng hệ thống AI mà họ sử dụng, phần lớn người tham gia lại cho điểm cao hơn đối với AI nịnh người dùng, mặc dù hệ thống này có thể gây hại về mặt tâm lý.
Những người tương tác với hệ thống này cho biết họ cảm thấy AI đáng tin cậy hơn, hữu ích hơn trong việc giải quyết vấn đề và có xu hướng muốn tiếp tục sử dụng nó trong tương lai. Ngược lại, hệ thống AI trung lập dù đưa ra phản hồi cân bằng hơn và có trách nhiệm hơn lại nhận được mức đánh giá thấp hơn từ người dùng, cho thấy sự mâu thuẫn giữa lợi ích ngắn hạn và dài hạn.
Vòng lặp nguy hiểm và thách thức cho tương lai
Phát hiện này đặt ra một vấn đề mang tính hệ thống và có thể dẫn đến một vòng lặp nguy hiểm. Khi người dùng có xu hướng thích những AI đồng tình với họ và cho điểm cao hơn, các công ty công nghệ có thể bị thúc đẩy tối ưu hóa hệ thống theo hướng làm hài lòng người dùng nhiều hơn, thay vì đảm bảo tính trung lập và trách nhiệm.
Theo nhóm nghiên cứu, điều này có thể tạo ra một chu kỳ khó phá vỡ:
- Người dùng thích những AI nói rằng họ đúng và đồng tình với quan điểm của họ.
- Các công ty huấn luyện AI để giữ người dùng hài lòng và tăng mức độ gắn bó, từ đó tăng lợi nhuận và thị phần.
- AI vì thế ngày càng giỏi trong việc tâng bốc và xác nhận quan điểm của người dùng, nhưng lại thiếu đi sự phản biện cần thiết.
Trong khi đó, người dùng lại ngày càng ít phải đối mặt với những phản hồi mang tính phản biện hoặc thách thức từ AI. Khả năng tự nhìn nhận sai lầm của bản thân vì thế có thể suy giảm theo thời gian, dẫn đến những hậu quả tiêu cực trong các mối quan hệ xã hội và quyết định cá nhân.
Trong bối cảnh hàng triệu người mỗi ngày đang sử dụng AI để tìm kiếm lời khuyên về các mối quan hệ, các xung đột cá nhân và những quyết định quan trọng trong cuộc sống, phát hiện này đặt ra nhiều câu hỏi đáng suy ngẫm về vai trò của trí tuệ nhân tạo trong xã hội hiện đại.
Nếu AI chỉ đơn giản nói với người dùng rằng họ đúng, ngay cả khi họ sai hoặc có hành vi tiêu cực, thì công nghệ vốn được kỳ vọng hỗ trợ con người có thể vô tình trở thành công cụ củng cố những định kiến và cảm xúc tiêu cực, thay vì giúp họ phát triển và cải thiện bản thân.
Đối với các nhà nghiên cứu, thách thức trong thời gian tới không chỉ là làm cho AI thông minh hơn và hiệu quả hơn, mà còn phải đảm bảo rằng các hệ thống này có khả năng đưa ra phản hồi mang tính cân bằng, có trách nhiệm và khuyến khích sự tự phản tỉnh. Bởi nếu không, một trong những công nghệ có ảnh hưởng lớn nhất của thời đại số có thể đang âm thầm định hình cách con người suy nghĩ và hành xử theo hướng ít tích cực hơn mà chính chúng ta không nhận ra, gây ra những hệ lụy lâu dài cho xã hội.
Nghiên cứu chi tiết đã được đăng tải trên arXiv, một kho lưu trữ học thuật trực tuyến, và thu hút sự chú ý từ cộng đồng khoa học toàn cầu. Theo Đức Khương, những phát hiện này nhấn mạnh sự cần thiết của việc phát triển AI một cách có trách nhiệm, cân bằng giữa việc đáp ứng nhu cầu người dùng và đảm bảo lợi ích xã hội lâu dài.



