Chatbot AI Trong Y Tế: Công Cụ Hỗ Trợ Hay Nguồn Thông Tin Nguy Hiểm?
Trong thời đại số hóa, chatbot trí tuệ nhân tạo (AI) ngày càng trở nên phổ biến như một công cụ hỗ trợ tìm kiếm thông tin, đặc biệt trong lĩnh vực sức khỏe. Chúng có thể hữu ích để tóm tắt kiến thức hoặc gợi ý các câu hỏi tiếp theo khi người dùng muốn tìm hiểu về các vấn đề y tế. Tuy nhiên, những nghiên cứu gần đây đã gióng lên hồi chuông cảnh báo về độ tin cậy của các hệ thống này, khi chúng thường xuyên đưa ra câu trả lời sai lệch, thiếu chính xác và thậm chí tiềm ẩn rủi ro nghiêm trọng cho sức khỏe cộng đồng.
Nghiên Cứu Quy Mô Lớn Phơi Bày Nhược Điểm Của Chatbot AI
Các nhà khoa học đã tiến hành một cuộc kiểm tra chuyên sâu với 5 chatbot AI hàng đầu hiện nay, bao gồm ChatGPT, Gemini, Grok, Meta AI và DeepSeek. Họ sử dụng 250 câu hỏi chi tiết về các chủ đề sức khỏe phổ biến như ung thư, vắc-xin, dinh dưỡng và nhiều bệnh lý khác, nhằm đánh giá mức độ bám sát bằng chứng khoa học trong các phản hồi. Kết quả thu được khá đáng lo ngại: khoảng một nửa số câu trả lời có vấn đề, từ sai lệch thông tin, thiếu hụt dữ liệu quan trọng cho đến những khuyến cáo có thể gây nguy hiểm. Đáng chú ý, các câu hỏi mở thường dẫn đến phản hồi kém an toàn hơn so với những câu hỏi cụ thể và chi tiết.
Chatbot ChatGPT Thất Bại Trong Các Tình Huống Y Tế Thực Tế
Một nghiên cứu khác được công bố trên tạp chí Nature Medicine vào tháng 2/2026 bởi Trường Y khoa Icahn tại Mount Sinai (Hoa Kỳ) đã cung cấp thêm bằng chứng về sự thiếu tin cậy của chatbot AI trong lĩnh vực y tế. Khi thử nghiệm trên 60 ca bệnh thuộc 21 chuyên khoa khác nhau với gần 960 tương tác, ChatGPT chỉ đưa ra khuyến cáo chính xác cho 48,4% các trường hợp cấp cứu và 35,2% các ca không khẩn cấp. Thậm chí, có những tình huống nghiêm trọng như hen suyễn nặng hoặc biến chứng tiểu đường, công cụ này lại khuyên bệnh nhân theo dõi tại nhà thay vì nhập viện ngay lập tức, điều này có thể dẫn đến hậu quả khôn lường.
Theo chuyên gia Girish Nadkarni, chatbot AI thường xử lý tốt các trường hợp "rõ ràng" và đơn giản, nhưng lại dễ mắc sai sót với những tình huống nguy hiểm tiềm ẩn, vốn đòi hỏi xét nghiệm chuyên sâu và đánh giá lâm sàng kỹ lưỡng. Ngoài ra, chất lượng tài liệu tham khảo mà các chatbot cung cấp cũng rất thấp, chỉ đạt khoảng 40%, và trong nhiều trường hợp, chúng thậm chí còn bịa đặt nguồn thông tin nhưng vẫn trả lời với mức độ chắc chắn cao, thiếu đi những cảnh báo cần thiết về độ tin cậy của dữ liệu.
Hạn Chế Của Nghiên Cứu Và Thông Điệp Quan Trọng Cho Người Dùng
Mặc dù nghiên cứu này chỉ bao gồm năm chatbot AI và các sản phẩm công nghệ có thể thay đổi nhanh chóng theo thời gian, đồng thời các câu hỏi được thiết kế có phần gây áp lực cho mô hình, có thể làm phóng đại tần suất xuất hiện câu trả lời sai so với sử dụng hàng ngày, nhưng việc thử nghiệm trên các chủ đề y tế dựa trên bằng chứng mà vẫn cho thấy tỷ lệ lỗi cao là điều không thể bỏ qua. Điều này nhấn mạnh rằng, chatbot AI hiện tại có thể là công cụ hỗ trợ hữu ích trong việc tóm tắt thông tin hoặc gợi ý hướng tìm hiểu, nhưng chúng hoàn toàn chưa đủ tin cậy để đưa ra các quyết định y tế quan trọng.
Người dùng cần phải hết sức thận trọng khi tiếp nhận thông tin từ chatbot AI. Các chuyên gia khuyến cáo nên kiểm chứng kỹ lưỡng mọi thông tin nhận được, ưu tiên tham khảo các nguồn y tế chính thống và quan trọng nhất là tham vấn ý kiến của chuyên gia y tế có chuyên môn trước khi hành động dựa trên bất kỳ lời khuyên nào từ chatbot. Thông điệp cuối cùng từ nghiên cứu này rất rõ ràng và đơn giản: trí tuệ nhân tạo có thể giúp chúng ta hiểu rõ hơn về các triệu chứng bệnh lý, nhưng AI không bao giờ có thể thay thế được vai trò của những bác sĩ bằng xương bằng thịt, những người có kinh nghiệm lâm sàng và khả năng đánh giá toàn diện.



