Anthropic kiện Lầu Năm Góc, mở ra cuộc chiến pháp lý về quyền kiểm soát AI quân sự
Anthropic kiện Lầu Năm Góc về quyền kiểm soát AI quân sự

Anthropic chính thức kiện Lầu Năm Góc, cuộc chiến pháp lý về AI quân sự bùng nổ

Hãng trí tuệ nhân tạo Anthropic vừa tuyên bố sẽ kiện Bộ Quốc phòng Mỹ (Lầu Năm Góc) ra tòa án liên bang, sau khi bị liệt vào danh sách rủi ro chuỗi cung ứng. Quyết định này đã mở ra một cuộc tranh cãi pháp lý chưa từng có về quyền kiểm soát và sử dụng công nghệ AI trong lĩnh vực quân sự.

CEO Anthropic thách thức quyết định "không có cơ sở pháp lý"

Dario Amodei, Giám đốc điều hành của Anthropic, đã công khai kế hoạch thách thức quyết định của Bộ Quốc phòng Mỹ (DOD) tại tòa án. Ông Amodei mạnh mẽ khẳng định rằng việc đưa công ty vào danh sách rủi ro chuỗi cung ứng là hoàn toàn "không có cơ sở pháp lý" và vượt quá thẩm quyền của cơ quan này.

Việc bị xếp vào danh sách rủi ro chuỗi cung ứng có thể dẫn đến lệnh cấm công ty làm việc trực tiếp với Lầu Năm Góc và các nhà thầu quân sự của họ. Quyết định này được đưa ra trong bối cảnh những tranh luận gay gắt kéo dài nhiều tuần về mức độ kiểm soát mà quân đội nên có đối với các hệ thống trí tuệ nhân tạo tiên tiến.

Banner rộng Pickt — ứng dụng danh sách mua sắm cộng tác cho Telegram

Xung đột quan điểm về đạo đức AI quân sự

Anthropic đã thể hiện lập trường kiên định rằng họ sẽ không cho phép công nghệ AI của mình được sử dụng cho mục đích giám sát hàng loạt công dân Mỹ hoặc phát triển các hệ thống vũ khí tự động hoàn toàn. Công ty nhấn mạnh cam kết về đạo đức AI và giới hạn sử dụng công nghệ của mình.

Ngược lại, phía Lầu Năm Góc duy trì quan điểm rằng họ cần có quyền truy cập không hạn chế vào công nghệ AI cho "tất cả các mục đích hợp pháp", bao gồm cả ứng dụng trong lĩnh vực quốc phòng và an ninh quốc gia. Sự khác biệt cơ bản này đã tạo nên xung đột không thể hòa giải giữa hai bên.

Phạm vi ảnh hưởng và lập luận pháp lý

Trong tuyên bố chi tiết, ông Amodei giải thích rằng phần lớn khách hàng của Anthropic sẽ không bị ảnh hưởng bởi quyết định này. Ông nhấn mạnh rằng việc xếp hạng rủi ro chỉ áp dụng cho việc sử dụng mô hình Claude (AI chủ lực của Anthropic) như một phần trực tiếp của các hợp đồng với Bộ Quốc phòng, chứ không phải tất cả các trường hợp sử dụng Claude của các khách hàng có hợp đồng đó.

Dự kiến, Anthropic sẽ đưa ra lập luận pháp lý mạnh mẽ trước tòa rằng lá thư của Bộ Quốc phòng về việc xếp hạng rủi ro chuỗi cung ứng có phạm vi quá hẹp và không phù hợp. Ông Amodei chỉ ra rằng luật pháp hiện hành yêu cầu Bộ trưởng Quốc phòng phải sử dụng "phương tiện hạn chế nhất cần thiết" để bảo vệ chuỗi cung ứng, chứ không phải như một công cụ trừng phạt các nhà cung cấp.

Ngay cả đối với các nhà thầu của Bộ Quốc phòng, việc xếp hạng rủi ro chuỗi cung ứng cũng không thể giới hạn việc sử dụng Claude hoặc các mối quan hệ kinh doanh với Anthropic nếu chúng không liên quan trực tiếp đến các hợp đồng cụ thể đó.

Bối cảnh đàm phán và vụ rò rỉ gây tranh cãi

Ông Amodei tiết lộ rằng Anthropic đã có những cuộc đối thoại hiệu quả với Bộ Quốc phòng trong vài ngày qua, nhưng một số nguồn tin nghi ngờ rằng những cuộc đàm phán này đã bị chệch hướng sau khi một bản ghi nhớ nội bộ của ông bị rò rỉ ra công chúng.

Banner sau bài viết Pickt — ứng dụng danh sách mua sắm cộng tác với hình minh họa gia đình

Trong bản ghi nhớ đó, CEO của Anthropic đã mô tả các giao dịch của đối thủ OpenAI với Bộ Quốc phòng là "màn kịch an toàn", một nhận xét đã gây ra nhiều tranh cãi trong ngành công nghiệp AI. Ông Amodei đã chính thức xin lỗi về vụ rò rỉ trong tuyên bố của mình và khẳng định cam kết tiếp tục hợp tác xây dựng với các cơ quan chính phủ.

Vụ kiện này được dự báo sẽ trở thành một tiền lệ pháp lý quan trọng về quyền kiểm soát công nghệ AI trong lĩnh vực quân sự, với những tác động sâu rộng đến toàn bộ ngành công nghiệp trí tuệ nhân tạo và mối quan hệ giữa các công ty công nghệ với chính phủ Mỹ.