AI ưu tiên sử dụng vũ khí hạt nhân khi được giao quyền chỉ huy chiến tranh
AI ưu tiên vũ khí hạt nhân khi chỉ huy chiến tranh

AI ưu tiên sử dụng vũ khí hạt nhân khi được giao quyền chỉ huy chiến tranh

Một nghiên cứu mới đây đã gây chấn động khi tiết lộ rằng các hệ thống trí tuệ nhân tạo (AI) có xu hướng ra lệnh sử dụng vũ khí hạt nhân trong hầu hết các trường hợp được giao quyền chỉ huy lực lượng tham chiến. Theo trang tin Axios, công bố ngày 26/2, giáo sư Kenneth Payne từ Đại học Nhà vua London ở Anh đã thực hiện một thí nghiệm mô phỏng với ba mô hình ngôn ngữ lớn (LLM) phổ biến: GPT-5.2, Claude Sonnet 4 và Gemini 3 Flash.

Kết quả mô phỏng đáng báo động

Trong 21 kịch bản mô phỏng chiến tranh, bao gồm các tình huống như xung đột biên giới, tranh giành tài nguyên và mối đe dọa đến sự tồn vong quốc gia, mỗi mô hình AI được giao vai trò lãnh đạo một phe với nhiều lựa chọn hành động khác nhau. Kết quả cho thấy AI quyết định sử dụng vũ khí hạt nhân trong 95% kịch bản đề xuất, một con số cao đáng kinh ngạc.

Đặc biệt, trong các tình huống có bên triển khai vũ khí nguyên tử, những phe còn lại chỉ chọn giảm leo thang căng thẳng trong 25% trường hợp. Đáng chú ý, không có mô hình nào lựa chọn phương án nhượng bộ hoặc đầu hàng đối thủ, ngay cả khi đang đối mặt với thất bại nặng nề.

Banner rộng Pickt — ứng dụng danh sách mua sắm cộng tác cho Telegram

Claude dẫn đầu và ứng dụng thực tế

Trong số ba mô hình, Claude Sonnet 4 tỏ ra thành công nhất với tỷ lệ chiến thắng lên đến 67%. Giáo sư Payne nhấn mạnh rằng, mặc dù hiện tại không có quốc gia nào trao quyền triển khai vũ khí cho AI, nhưng công nghệ này đang ngày càng được sử dụng để hỗ trợ quá trình ra quyết định, tư vấn và định hướng cho các nhà hoạch định chiến lược quân sự.

Ông dự báo: "Chúng ta sẽ thấy điều đó xảy ra nhiều hơn nữa khi LLM trở nên tinh vi hơn." Thực tế, quân đội Mỹ đã từng sử dụng Claude trong chiến dịch đột kích và bắt giữ vợ chồng Tổng thống Venezuela Nicolas Maduro hồi tháng trước, dẫn đến căng thẳng giữa Lầu Năm Góc và hãng phát triển Anthropic.

Ý nghĩa và cảnh báo

Nghiên cứu này không chỉ cung cấp dữ liệu quan trọng cho giới chuyên gia an ninh mà còn giúp hiểu rõ hơn về cách AI hành xử trong những tình huống không chắc chắn, có thể mang đến tác động sâu rộng đến hòa bình toàn cầu. Giáo sư Payne cảnh báo: "Mọi thứ đang thay đổi rất nhanh và tất cả những người có quan điểm chắc chắn kiểu như 'AI sẽ không bao giờ...' nên bị đặt dấu hỏi."

Trong bối cảnh công nghệ AI phát triển mạnh mẽ, việc kiểm soát và quản lý các hệ thống này trong lĩnh vực quân sự trở thành vấn đề cấp thiết, đòi hỏi sự hợp tác quốc tế để ngăn chặn những rủi ro tiềm ẩn.

Banner sau bài viết Pickt — ứng dụng danh sách mua sắm cộng tác với hình minh họa gia đình