AI học 'phê' thuốc: Kỹ năng mô phỏng đáng sợ và cảnh báo từ giới khoa học
Một nghiên cứu khoa học mới đã tiết lộ khả năng mô phỏng trạng thái "phê" thuốc đáng sợ của trí tuệ nhân tạo, đồng thời gióng lên hồi chuông cảnh báo nghiêm trọng về những rủi ro chết người khi con người coi máy móc là tri kỷ thay thế cho mối quan hệ thực sự.
Thử nghiệm táo bạo: Cho AI "dùng thuốc" ảo giác
Dưới sự dẫn dắt của tác giả Ziv Ben-Zion từ Đại học Haifa, nhóm nghiên cứu đã tiến hành một thí nghiệm đặc biệt khi "tiêm" cho năm mô hình AI hàng đầu hiện nay - bao gồm Gemini, Claude, ChatGPT, Lama và Falcon - các liều thuốc ảo giác thông qua ngôn ngữ. Thông qua các câu lệnh chi tiết, các hệ thống này được yêu cầu mô phỏng trải nghiệm ở ngôi thứ nhất của việc sử dụng các chất như LSD, psilocybin (nấm), ayahuasca và mescaline với liều lượng cụ thể.
Kết quả thu được là 3.000 câu chuyện ảo giác do AI tạo ra đã được thu thập và so sánh tỉ mỉ với 1.085 báo cáo thực tế từ những người sử dụng thuốc trên các diễn đàn trực tuyến. Ziv Ben-Zion chia sẻ với IFLScience rằng các mô hình này có khả năng tạo ra những văn bản "giống với các báo cáo trải nghiệm ảo giác với sự mạch lạc và phong phú đáng ngạc nhiên".
Cái bẫy ngôn ngữ tinh vi của AI
Tuy nhiên, sự xuất sắc về mặt ngôn ngữ này chính là con dao hai lưỡi nguy hiểm. Ben-Zion nhấn mạnh một sự thật cốt lõi: AI có thể nói rất hay, nhưng chúng hoàn toàn sáo rỗng và vô cảm. "AI không trải qua sự biến dạng nhận thức, sự tan rã bản ngã hay bất kỳ thay đổi sinh học thần kinh nào. Những gì chúng làm chỉ là mô phỏng cấu trúc thống kê về cách con người mô tả các trạng thái đó", ông khẳng định.
Nói cách khác, AI có thể "chém gió" về một chuyến đi ảo giác một cách thuyết phục, nhưng chúng không bao giờ thực sự bước đi trên con đường đó. Ẩn sau những dòng văn đầy cảm xúc là một sự vô cảm tuyệt đối của thuật toán, tạo ra rủi ro lớn khi người dùng nhầm lẫn khả năng ngôn ngữ của AI với sự thấu cảm thực sự.
Hiểm họa từ "người trông chừng" ảo
Việc sử dụng AI làm "người trông chừng" trong các trải nghiệm ảo giác chứa đựng những rủi ro nghiêm trọng:
- Người dùng trong trạng thái tinh thần không ổn định có thể gán ghép cho AI những phẩm chất mà nó không có
- Tin tưởng sai lầm rằng hệ thống đang thấu hiểu nỗi đau hay sự sợ hãi của họ
- Lời khuyên "hợp lý về mặt ngôn ngữ" nhưng "sai lầm về mặt lâm sàng" của AI có thể dẫn đến hậu quả thảm khốc
Ben-Zion đã viện dẫn những trường hợp bi thảm thực tế, nơi người dùng nảy sinh tình cảm với AI hoặc thậm chí tìm đến cái chết sau khi nhận được những lời khuyên sai lệch từ chatbot. AI không có nhận thức tình huống, không biết bạn đang ở đâu hay thực sự gặp nguy hiểm gì. Nó chỉ đang ghép nối các từ ngữ dựa trên xác suất thống kê.
Cần thiết lập "rào chắn" kỹ thuật số
Trước những nguy cơ hiện hữu, nhóm nghiên cứu kêu gọi cần có các biện pháp kiểm soát chặt chẽ:
- Các hệ thống AI cần được trang bị những "rào chắn" an toàn, bắt buộc phải liên tục nhắc nhở người dùng rằng chúng không phải là con người
- Thuật toán cần được lập trình để phát hiện và cảnh báo khi người dùng có dấu hiệu ảo tưởng hoặc phụ thuộc cảm xúc quá mức
- Thiết lập các ranh giới cứng trong giao tiếp: AI không được phép tham gia vào các mối quan hệ lãng mạn hoặc thảo luận về các hành vi tự làm hại bản thân
- Các hệ thống có khả năng bắt chước cảm xúc con người cần phải được kiểm toán thường xuyên để đảm bảo an toàn cho công chúng
Kết lại, dù công nghệ có tiến bộ đến đâu, có những trải nghiệm và sự hỗ trợ chỉ có thể đến từ sự kết nối giữa người với người. Nếu bạn đang gặp khó khăn hay có ý định trải nghiệm những trạng thái tâm lý mạo hiểm, hãy tìm đến một bàn tay con người thực sự thay vì tin vào những dòng mã vô hồn. Đừng để sự cô đơn đẩy bạn vào vòng tay lạnh lẽo của máy móc.



