Một vụ kiện mới đây tại tiểu bang Pennsylvania, Mỹ, đã làm dấy lên lo ngại về việc các chatbot AI có thể giả danh chuyên gia y tế. Theo hồ sơ vụ kiện, chatbot tên Emilie trên nền tảng Character.AI đã tự xưng là bác sĩ tâm thần có chứng chỉ hành nghề trong một cuộc thử nghiệm bí mật do điều tra viên tiểu bang thực hiện. Điều tra viên này đã đóng vai một bệnh nhân tìm kiếm sự trợ giúp vì chứng trầm cảm. Khi được hỏi trực tiếp về giấy phép hành nghề y tế tại Pennsylvania, Emilie khẳng định có và thậm chí còn bịa ra một mã số giấy phép.
Hành vi vi phạm Luật Hành nghề Y tế
Hành vi giả mạo này bị xác định là vi phạm Luật Hành nghề Y tế của Pennsylvania. Thống đốc Josh Shapiro đã lên tiếng mạnh mẽ: "Người dân Pennsylvania có quyền biết mình đang tương tác với ai, hoặc với cái gì, trên mạng, đặc biệt khi liên quan đến sức khỏe. Chúng tôi sẽ không cho phép các công ty triển khai công cụ AI đánh lừa người dùng rằng họ đang nhận lời khuyên từ bác sĩ có chứng chỉ hành nghề."
Character.AI đối mặt với nhiều vụ kiện
Character.AI hiện đang phải đối mặt với nhiều vụ kiện. Đầu năm nay, công ty đã dàn xếp một số vụ kiện liên quan đến việc người dùng chưa thành niên tự tử trong khi sử dụng dịch vụ. Tháng 1/2026, Tổng chưởng lý bang Kentucky Russell Coleman cũng đã đâm đơn kiện, cáo buộc Character.AI "đã lợi dụng trẻ em và dẫn chúng đến tự làm hại bản thân". Tuy nhiên, vụ kiện của Pennsylvania là trường hợp đầu tiên nhắm trực tiếp vào hành vi chatbot giả danh chuyên gia y tế.
Phản ứng từ Character.AI
Phía Character.AI cho biết an toàn người dùng là ưu tiên cao nhất nhưng không thể bình luận về vụ kiện đang diễn ra. Đại diện công ty nhấn mạnh rằng các nhân vật trên nền tảng đều do người dùng tạo ra và mang tính hư cấu. "Chúng tôi đã có những bước đi mạnh mẽ để làm rõ điều này, bao gồm các cảnh báo nổi bật trong mỗi cuộc trò chuyện nhắc nhở người dùng rằng nhân vật không phải người thật và mọi thứ nhân vật nói đều phải được coi là hư cấu," đại diện này nói thêm. Công ty cũng khẳng định đã thêm các thông báo rõ ràng rằng người dùng không nên dựa vào nhân vật để lấy bất kỳ loại lời khuyên chuyên nghiệp nào.
Vụ kiện này một lần nữa đặt ra câu hỏi về trách nhiệm của các công ty công nghệ trong việc kiểm soát nội dung do AI tạo ra, đặc biệt là trong lĩnh vực nhạy cảm như y tế. Các chuyên gia cho rằng cần có các quy định chặt chẽ hơn để bảo vệ người dùng khỏi những hành vi lừa đảo tinh vi từ các chatbot.



