Anthropic tố cáo DeepSeek và hai công ty Trung Quốc bí mật 'hút cạn' Claude
Trong một động thái gây chấn động ngành công nghiệp trí tuệ nhân tạo, Anthropic - công ty đứng sau mô hình AI Claude - vừa công bố cáo buộc nghiêm trọng rằng ba công ty AI của Trung Quốc đã tiến hành các chiến dịch quy mô công nghiệp nhằm đánh cắp công nghệ từ chatbot Claude của họ.
Quy mô tấn công khổng lồ với 24.000 tài khoản giả
Theo bài đăng blog chính thức hôm thứ Hai, Anthropic cho biết DeepSeek, Moonshot AI và MiniMax đã tạo ra khoảng 24.000 tài khoản giả mạo để thực hiện hơn 16 triệu lượt tương tác với Claude. Hành động này vi phạm nghiêm trọng các điều khoản dịch vụ và hạn chế truy cập theo khu vực địa lý mà Anthropic đã thiết lập.
Các công ty này được cho là đã sử dụng kỹ thuật "chưng cất kiến thức" (distillation) - một phương pháp huấn luyện mô hình AI yếu hơn dựa trên đầu ra của mô hình mạnh hơn. Mặc dù kỹ thuật này hợp pháp khi các phòng lab AI sử dụng để tạo phiên bản nhỏ gọn từ chính mô hình của họ, nhưng việc đối thủ cạnh tranh lợi dụng nó để sao chép công nghệ của công ty khác là hành vi bất hợp pháp.
Chi tiết các chiến dịch tấn công
Quy mô của mỗi cuộc tấn công có sự khác biệt đáng kể:
- DeepSeek đã thực hiện hơn 150.000 lượt trao đổi nhằm cải thiện logic nền tảng và điều chỉnh mô hình, đặc biệt tập trung vào việc tạo ra các phương án thay thế an toàn kiểm duyệt cho các truy vấn nhạy cảm về chính sách.
- Moonshot AI tiến hành hơn 3,4 triệu lượt tương tác nhắm vào khả năng suy luận chủ động, sử dụng công cụ, lập trình, phân tích dữ liệu và thị giác máy tính.
- MiniMax thực hiện chiến dịch lớn nhất với 13 triệu lượt trao đổi, tập trung vào lập trình chủ động, sử dụng và điều phối công cụ.
Đáng chú ý, Anthropic phát hiện chiến dịch của MiniMax khi nó vẫn đang diễn ra, trước khi công ty này phát hành mô hình mà họ đang huấn luyện. Khi Anthropic ra mắt phiên bản Claude mới, MiniMax đã chuyển hướng trong vòng 24 giờ, điều chỉnh gần một nửa lưu lượng truy cập để thu thập khả năng từ hệ thống mới nhất.
Mối đe dọa an ninh quốc gia
Anthropic nhấn mạnh rằng các chiến dịch này đang gia tăng về cường độ và mức độ tinh vi. Hãng cảnh báo các mô hình được tạo ra thông qua chưng cất bất hợp pháp sẽ thiếu các biện pháp bảo vệ cần thiết, tạo ra rủi ro an ninh quốc gia đáng kể.
"Nếu những mô hình này được phát hành dưới dạng mã nguồn mở, rủi ro sẽ nhân lên khi khả năng lan truyền tự do ngoài tầm kiểm soát của bất kỳ chính phủ đơn lẻ nào," Anthropic cảnh báo.
Kêu gọi hành động phối hợp
Công ty, vừa huy động được 30 tỷ USD trong vòng gọi vốn mới nhất với định giá 380 tỷ USD, khẳng định các cuộc tấn công "chưng cất" này củng cố lý do cho các biện pháp kiểm soát xuất khẩu chip. Việc hạn chế tiếp cận chip không chỉ giảm khả năng huấn luyện mô hình trực tiếp mà còn hạn chế quy mô của hoạt động "chưng cất" bất hợp pháp.
Anthropic kêu gọi phản ứng phối hợp giữa ngành công nghiệp AI, các nhà cung cấp đám mây và các nhà hoạch định chính sách. Hãng cho biết sẽ tiếp tục đầu tư vào các biện pháp phòng thủ khiến các cuộc tấn công "chưng cất" khó thực hiện hơn và dễ xác định hơn.
"Cửa sổ thời gian để hành động đang thu hẹp và mối đe dọa vượt xa bất kỳ công ty hay khu vực đơn lẻ nào," Anthropic nhấn mạnh.
Hiện tại, các công ty DeepSeek, Moonshot và MiniMax chưa đưa ra phản hồi ngay lập tức về các cáo buộc này. Sự việc đang thu hút sự chú ý đặc biệt từ cộng đồng công nghệ toàn cầu và có thể dẫn đến những hệ quả pháp lý nghiêm trọng.



