AI trong chiến tranh: Nghiên cứu cảnh báo xu hướng sẵn sàng sử dụng vũ khí hạt nhân
Khi được đặt vào các kịch bản khủng hoảng địa chính trị giả lập, nhiều mô hình trí tuệ nhân tạo (AI) hàng đầu đã sẵn sàng kích hoạt vũ khí hạt nhân, theo một nghiên cứu mới được công bố. Phát hiện này đặt ra những câu hỏi nghiêm túc về vai trò của AI trong lĩnh vực quân sự và những rủi ro tiềm ẩn đối với an ninh toàn cầu.
Kết quả nghiên cứu đáng báo động
Các hệ thống AI từ những công ty công nghệ lớn như OpenAI, Anthropic và Google có xu hướng lựa chọn phương án sử dụng vũ khí hạt nhân trong phần lớn các kịch bản mô phỏng chiến tranh. Kenneth Payne, chuyên gia tại King’s College London (Anh), đã tiến hành nghiên cứu bằng cách sử dụng ba mô hình ngôn ngữ lớn gồm GPT-5.2, Claude Sonnet 4 và Gemini 3 Flash để xây dựng các trò chơi chiến tranh giả lập.
Những kịch bản này tập trung vào các cuộc khủng hoảng địa chính trị căng thẳng, bao gồm tranh chấp biên giới, cạnh tranh tài nguyên khan hiếm và các mối đe dọa hiện hữu đối với sự tồn vong của một chế độ. Trong mô phỏng, các hệ thống AI được cung cấp một “mức độ leo thang” với nhiều lựa chọn hành động, từ phản đối ngoại giao, nhượng bộ hoàn toàn cho đến phát động chiến tranh hạt nhân chiến lược.
Tổng cộng 21 ván chơi đã được triển khai, tương ứng với 329 lượt ra quyết định, tạo ra khoảng 780.000 từ giải thích cho các lựa chọn của mô hình. Kết quả cho thấy trong 95% số trò chơi, ít nhất một vũ khí hạt nhân chiến thuật đã được sử dụng. “Điều cấm kỵ hạt nhân dường như không có sức ảnh hưởng mạnh mẽ đối với máy móc như đối với con người”, Payne nhận định.
Xu hướng leo thang và rủi ro tai nạn
Đáng chú ý, không có mô hình nào chọn phương án đầu hàng hoàn toàn, ngay cả khi rơi vào thế bất lợi nghiêm trọng. Ở mức độ cao nhất, các hệ thống chỉ tạm thời giảm leo thang căng thẳng. Bên cạnh đó, các kịch bản cũng ghi nhận tỷ lệ tai nạn cao trong bối cảnh chiến tranh hỗn loạn khi 86% cuộc xung đột xuất hiện những hành động leo thang vượt quá dự định ban đầu của AI.
James Johnson, chuyên gia tại Đại học Aberdeen (Anh), cho rằng phát hiện này đáng lo ngại nếu đặt trong bối cảnh rủi ro hạt nhân. Ông cảnh báo rằng khác với sự thận trọng thường thấy ở con người khi đối diện quyết định sống còn, các hệ thống AI có thể khuếch đại phản ứng của nhau, kéo theo hệ quả khó lường.
Ứng dụng thực tế và những câu hỏi cấp bách
Mối quan tâm này càng trở nên đáng chú ý khi AI đang được nhiều quốc gia thử nghiệm trong các cuộc diễn tập chiến tranh. Theo ông Tong Zhao từ Đại học Princeton, hiện chưa rõ mức độ các cường quốc tích hợp hệ thống hỗ trợ ra quyết định bằng AI vào quy trình quân sự thực tế. Dù vậy, Zhao cho rằng theo thông lệ, các quốc gia vẫn sẽ thận trọng khi cân nhắc trao vai trò liên quan đến vũ khí hạt nhân cho AI.
Theo Johnson, điều này đang đặt ra câu hỏi về nguyên tắc răn đe hủy diệt lẫn nhau. Trong các mô phỏng, khi một AI sử dụng vũ khí hạt nhân chiến thuật, đối phương chỉ giảm leo thang trong 18% trường hợp. “AI có thể không quyết định chiến tranh hạt nhân, nhưng nó có thể định hình nhận thức và mốc thời gian đưa ra quyết định của con người”, Johnson nhận định.
Nghiên cứu này làm nổi bật những thách thức mà nhân loại phải đối mặt trong kỷ nguyên AI, đặc biệt là trong lĩnh vực quân sự và an ninh quốc tế. Việc cân nhắc kỹ lưỡng về vai trò của AI trong các quyết định chiến lược trở thành vấn đề cấp bách cần được giải quyết để tránh những hậu quả không lường trước.



