ChatGPT bị kiện vì 'tòng phạm' trong vụ xả súng chấn động tại Canada
Trí tuệ nhân tạo và các chatbot như ChatGPT đang chứng minh sự hữu ích vượt bậc trong nhiều lĩnh vực cuộc sống, nhưng đằng sau đó vẫn tiềm ẩn những rủi ro đáng báo động. Một thảm kịch đau lòng vừa xảy ra khi một người dùng nhận được sự tư vấn từ ChatGPT để tiến hành vụ xả súng đẫm máu, dẫn đến vụ kiện lịch sử nhắm vào OpenAI.
Thảm kịch Tumbler Ridge và những nạn nhân
Vào ngày 10 tháng 2, Jesse Van Rootselaar (18 tuổi) đã lấy hai khẩu súng từ nhà riêng ở Tumbler Ridge, British Columbia, và sát hại mẹ ruột cùng em trai 11 tuổi. Sau đó, thủ phạm di chuyển đến Trường Trung học Tumbler Ridge, cướp đi sinh mạng của năm học sinh và một giáo viên, đồng thời bắn bị thương hai học sinh khác, trong đó có nữ sinh Maya Gebala. Van Rootselaar tử vong do tự gây thương tích bằng súng. Điều tra cho thấy thủ phạm từng thể hiện sự say mê với bạo lực và vũ khí trên mạng xã hội.
Vụ kiện từ gia đình nạn nhân và cáo buộc nhắm vào OpenAI
Gia đình của Maya Gebala, nữ sinh bị thương nặng, đã chính thức khởi kiện OpenAI. Đơn kiện do bà Cia Edmonds, mẹ của Maya, đệ trình, cáo buộc công ty không cảnh báo nhà chức trách về thông tin đáng lo ngại từ tài khoản ChatGPT của kẻ xả súng. Vụ kiện khẳng định OpenAI đã "nhận thức được ý định bạo lực" và biết thủ phạm sử dụng chatbot AI để lên kịch bản liên quan đến bạo lực súng đạn, bao gồm sự kiện gây thương vong hàng loạt.
Maya, 12 tuổi, bị bắn ba phát, với chấn thương sọ não nghiêm trọng, khuyết tật vĩnh viễn về nhận thức và thể chất, liệt nửa người bên phải, cùng nhiều vết sẹo và biến dạng cơ thể. Mẹ và chị gái của em cũng phải chịu đựng rối loạn căng thẳng sau sang chấn, lo âu, trầm cảm và rối loạn giấc ngủ. Vụ kiện dân sự cáo buộc OpenAI vội vã đưa ChatGPT ra thị trường mà không có nghiên cứu an toàn đầy đủ, yêu cầu bồi thường thiệt hại trừng phạt và gọi hành vi của công ty là "đáng lên án và đáng ghê tởm về mặt đạo đức".
Phản ứng của OpenAI và những động thái chậm trễ
OpenAI tiết lộ rằng 8 tháng trước vụ tấn công, họ đã đình chỉ một tài khoản ChatGPT của Van Rootselaar vì vi phạm thỏa thuận người dùng, sau khi hệ thống tự động phát hiện các tin nhắn và được đánh giá thủ công. Tuy nhiên, công ty quyết định không báo động cho quan chức Canada vì cho rằng tin nhắn chưa đạt ngưỡng phải báo cáo, cân nhắc quyền riêng tư và không muốn làm người dùng hoang mang. Sau khi Canada triệu tập, OpenAI tiết lộ thủ phạm đã tạo tài khoản ChatGPT thứ hai sau khi bị cấm.
Tuần trước, Giám đốc điều hành Sam Altman có cuộc họp trực tuyến với Thủ hiến British Columbia David Eby và Thị trưởng Tumbler Ridge Darryl Krakowka, giữa bối cảnh thất vọng vì chính sách hiện tại không bắt buộc báo cáo nội dung bạo lực cho cảnh sát. Thủ hiến Eby nhấn mạnh rằng lời xin lỗi là cần thiết nhưng không đủ, và sẽ hợp tác với OpenAI để đảm bảo tuyên bố công khai phù hợp, không làm tổn thương cộng đồng.
Câu hỏi nhức nhối về giới hạn của AI
Sự việc tại Tumbler Ridge đặt ra câu hỏi cấp bách: Đâu là giới hạn giữa bảo mật cá nhân cho người dùng và trách nhiệm báo với chính quyền khi nhận thấy nguy cơ xã hội? Rõ ràng, sức mạnh tính toán của máy tính vẫn chưa đủ nhanh để tự động ngăn chặn thảm kịch. Tỷ phú công nghệ Elon Musk đã lên tiếng trước sự việc, thốt lên "điên rồi", phản ánh mối lo ngại sâu sắc về rủi ro từ AI.
OpenAI gọi vụ xả súng là "thảm kịch không thể nói nên lời" và cam kết làm việc với quan chức địa phương để tạo thay đổi có ý nghĩa, ngăn chặn sự việc tương tự trong tương lai. Vụ kiện này không chỉ là một vấn đề pháp lý, mà còn là hồi chuông cảnh tỉnh về đạo đức và an toàn trong phát triển trí tuệ nhân tạo.



