Mỹ sử dụng AI Claude trong chiến dịch bắt giữ Tổng thống Venezuela Maduro
Mỹ dùng AI Claude bắt Maduro, Anthropic lâm thế khó xử

Mỹ sử dụng AI Claude trong chiến dịch bắt giữ Tổng thống Venezuela Maduro

Theo các báo cáo từ AxiosWall Street Journal, quân đội Mỹ đã tích cực sử dụng mô hình trí tuệ nhân tạo Claude (Claude AI) của công ty Anthropic trong chiến dịch bắt giữ Tổng thống Venezuela Nicolas Maduro vào tháng 1. Điều này cho thấy công nghệ của Anthropic đã đóng vai trò trực tiếp trong cuộc đột kích ở nước ngoài, làm nổi bật sự tham gia ngày càng sâu của AI vào các hoạt động quân sự.

Vai trò của Claude AI trong chiến dịch

Claude AI đã được sử dụng xuyên suốt chiến dịch, không chỉ trong giai đoạn chuẩn bị. Mặc dù vai trò cụ thể vẫn chưa được làm rõ, quân đội Mỹ từng có tiền lệ sử dụng các mô hình AI để phân tích hình ảnh vệ tinh và thông tin tình báo theo thời gian thực. Việc triển khai Claude thông qua hợp tác với Palantir Technologies trên các nền tảng mật đã giúp hỗ trợ các công việc nhạy cảm nhất của quân đội.

Trong khi đó, các đối thủ của Anthropic như OpenAI, Google và xAI của tỉ phú Elon Musk đều có thỏa thuận cho phép Lầu Năm Góc truy cập vào mô hình của họ với ít biện pháp bảo vệ hơn so với người dùng thông thường. Tuy nhiên, chỉ có Claude được lựa chọn cho chiến dịch này, nhấn mạnh khả năng ứng dụng độc đáo của nó trong môi trường quân sự.

Banner rộng Pickt — ứng dụng danh sách mua sắm cộng tác cho Telegram

Chính sách của Anthropic và những mâu thuẫn

Chính sách sử dụng của Anthropic, có trụ sở tại San Francisco, nghiêm cấm việc sử dụng công nghệ để “tạo điều kiện cho bạo lực, phát triển vũ khí hoặc tiến hành giám sát”. Một phát ngôn viên của Anthropic cho biết: “Chúng tôi không thể bình luận về việc liệu Claude, hay bất kỳ mô hình AI nào khác, có được sử dụng cho bất kỳ hoạt động cụ thể nào, dù là mật hay không. Bất kỳ việc sử dụng Claude nào - dù trong khu vực tư nhân hay trong chính phủ - đều phải tuân thủ Chính sách Sử dụng của chúng tôi.”

Tuy nhiên, thông tin này được đưa ra vào thời điểm khó xử đối với Anthropic. Trong những tuần gần đây, công ty đã công khai nhấn mạnh cam kết đối với các biện pháp bảo vệ AI và định vị mình là lựa chọn thay thế có ý thức về an toàn trong ngành công nghiệp AI. Giám đốc điều hành Dario Amodei đã cảnh báo về những mối nguy hiểm hiện hữu do việc sử dụng AI không kiểm soát gây ra.

Những diễn biến nội bộ và đàm phán với Lầu Năm Góc

Hôm 9.2, người đứng đầu Nhóm Nghiên cứu Bảo vệ của Anthropic, Mrinank Sharma, đã đột ngột từ chức với một lời cảnh báo khó hiểu rằng “thế giới đang gặp nguy hiểm”. Vài ngày sau, công ty này đã rót 20 triệu USD vào một nhóm vận động chính trị ủng hộ xây dựng quy định sử dụng AI, cho thấy nỗ lực thúc đẩy các tiêu chuẩn an toàn.

Hiện tại, Anthropic được cho là đang đàm phán với Lầu Năm Góc về việc có nên nới lỏng các hạn chế đối với việc triển khai AI để nhắm mục tiêu vũ khí tự động và giám sát trong nước hay không. Tình trạng bế tắc này đã làm đình trệ một hợp đồng trị giá lên tới 200 triệu USD, với việc Bộ trưởng Chiến tranh Pete Hegseth tuyên bố sẽ không sử dụng các mô hình “không cho phép các bạn tiến hành chiến tranh”.

Hậu quả của chiến dịch và phản ứng quốc tế

Trong cuộc đột kích, không có người Mỹ nào thiệt mạng, nhưng hàng chục binh sĩ và nhân viên an ninh Venezuela lẫn Cuba đã thiệt mạng vào ngày 3.1. Tổng thống Venezuela Nicolás Maduro sau đó được dẫn giải đến Tòa án Liên bang Daniel Patrick Moynihan để trình diện lần đầu trước các cáo buộc liên bang của Mỹ tại thành phố New York vào ngày 5.1.2026.

Banner sau bài viết Pickt — ứng dụng danh sách mua sắm cộng tác với hình minh họa gia đình

Sự kiện này làm dấy lên câu hỏi về đạo đức và an ninh trong việc ứng dụng AI vào chiến tranh, đồng thời đặt ra thách thức lớn cho Anthropic trong việc cân bằng giữa lợi ích thương mại và nguyên tắc đạo đức đã cam kết.