Mỹ lần đầu thừa nhận sử dụng AI trong chiến dịch tấn công Iran
Quân đội Mỹ đã chính thức xác nhận việc sử dụng nhiều công cụ trí tuệ nhân tạo (AI) trong cuộc chiến với Iran, một động thái công khai đầu tiên giữa lúc số lượng thương vong dân sự tiếp tục gia tăng đáng kể. Phát biểu vào ngày 11/3, Đô đốc Brad Cooper, Tư lệnh Bộ Chỉ huy Trung tâm Mỹ (CENTCOM), tiết lộ rằng AI đang hỗ trợ binh sĩ Mỹ xử lý lượng dữ liệu khổng lồ phục vụ cho các hoạt động tác chiến phức tạp.
AI hỗ trợ quyết định chiến thuật
Trong một thông điệp video, ông Cooper nhấn mạnh: "Các binh sĩ của chúng tôi đang khai thác nhiều công cụ AI tiên tiến. Những hệ thống này giúp chúng tôi sàng lọc khối lượng dữ liệu khổng lồ chỉ trong vài giây, cho phép các chỉ huy loại bỏ thông tin nhiễu và đưa ra quyết định nhanh hơn đối phương có thể phản ứng." Ông cũng giải thích rằng quyết định cuối cùng về mục tiêu tấn công vẫn do con người đưa ra, nhưng AI có thể rút ngắn đáng kể thời gian xử lý thông tin, biến các quy trình trước đây mất hàng giờ hoặc nhiều ngày thành chỉ vài giây.
Tranh cãi về thương vong và đạo đức công nghệ
Việc Mỹ công khai sử dụng AI trong chiến dịch quân sự tại Iran diễn ra trong bối cảnh ngày càng có nhiều tranh cãi về vai trò của công nghệ này trong chiến sự, đặc biệt khi số thương vong dân sự trong xung đột gia tăng. Theo các số liệu được công bố, chiến dịch quân sự của Mỹ và Israel đã khiến ít nhất 1.300 người thiệt mạng tại Iran kể từ khi bắt đầu vào ngày 28/2.
Nhiều nghị sĩ Mỹ đã lên tiếng kêu gọi thiết lập các cơ chế kiểm soát chặt chẽ hơn đối với việc sử dụng AI trên chiến trường. Hạ nghị sĩ Jill Tokuda, thành viên Ủy ban Quân vụ Hạ viện Mỹ, cho rằng cần tiến hành một cuộc rà soát độc lập để đánh giá liệu AI đã gây tổn hại hoặc đe dọa sinh mạng trong cuộc chiến với Iran hay chưa. Bà nhấn mạnh: "Phán đoán của con người phải luôn là yếu tố trung tâm trong các quyết định sống còn."
Công nghệ AI và những lo ngại về độ tin cậy
Theo NBC News, quân đội Mỹ đang sử dụng phần mềm phân tích dữ liệu của công ty Palantir để xác định các mục tiêu tiềm năng cho các cuộc không kích. Hệ thống này một phần dựa vào công nghệ AI Claude do công ty Anthropic phát triển, giúp các nhà phân tích quân sự sàng lọc dữ liệu tình báo. Tuy nhiên, các nguồn tin cho biết hệ thống không trực tiếp đưa ra khuyến nghị tấn công mục tiêu, mà chỉ hỗ trợ xử lý thông tin.
Dù vậy, các chuyên gia công nghệ thừa nhận rằng ngay cả những hệ thống AI tiên tiến nhất hiện nay vẫn có thể mắc lỗi. Giám đốc điều hành Anthropic Dario Amodei trong một cuộc phỏng vấn gần đây cho biết: "Chúng tôi không thể khẳng định có 100% khả năng rằng ngay cả các hệ thống do chính chúng tôi xây dựng cũng hoàn toàn đáng tin cậy." Hạ nghị sĩ Sara Jacobs cũng cảnh báo rằng các công cụ AI có thể mắc lỗi theo những cách khó nhận ra, trong khi người vận hành lại có xu hướng tin tưởng quá mức vào các kết quả do hệ thống đưa ra.
Xung đột giữa chính phủ và công ty công nghệ
Trong thời gian gần đây, Washington đã vướng vào tranh chấp công khai với công ty Anthropic, doanh nghiệp từng ký hợp đồng với Lầu Năm Góc nhưng khẳng định các mô hình AI của họ không được sử dụng cho vũ khí tự động hoàn toàn hoặc các chương trình giám sát quy mô lớn. Tuần trước, Bộ Quốc phòng Mỹ đã đưa Anthropic vào danh sách rủi ro đối với chuỗi cung ứng an ninh quốc gia, động thái có thể khiến công ty bị loại khỏi các hợp đồng quân sự. Anthropic sau đó đã khởi kiện để phản đối quyết định này.
Người phát ngôn Lầu Năm Góc Kingsley Wilson tuyên bố: "Các binh sĩ Mỹ tham gia Chiến dịch Cơn thịnh nộ dữ dội và mọi nhiệm vụ trên toàn thế giới sẽ không bao giờ bị ràng buộc bởi các giám đốc công nghệ không do bầu cử hay hệ tư tưởng của Thung lũng Silicon. Chúng tôi sẽ là người quyết định, chúng tôi sẽ thống trị và chúng tôi sẽ chiến thắng." Điều này phản ánh cam kết của Mỹ trong việc duy trì quyền kiểm soát con người đối với các hoạt động quân sự, bất chấp sự phát triển nhanh chóng của công nghệ AI.



