Tin tặc dùng 100.000 câu lệnh để sao chép Google Gemini, đe dọa an ninh AI
Các chuyên gia về an ninh mạng của Google đã phát hiện một chiến dịch tấn công quy mô lớn nhằm vào mô hình ngôn ngữ lớn Gemini. Trong báo cáo công bố ngày 13/2, nhóm chuyên gia về các mối đe dọa của Google (GTIG) cảnh báo về tình trạng các mô hình AI có thể bị tấn công trích xuất thông qua phương pháp chưng cất kiến thức.
Chiến dịch tấn công với 100.000 câu lệnh
Theo thông tin từ báo cáo, kẻ tấn công đã sử dụng hơn 100.000 câu lệnh (prompt) để "dụ" mô hình Gemini trả lời các câu hỏi, từ đó tìm hiểu quy trình suy luận và cách thức hoạt động của nó. Phạm vi câu hỏi rộng rãi cho thấy nỗ lực tái tạo khả năng suy luận của Gemini một cách toàn diện.
Nhóm bảo mật của Google không tiết lộ chi tiết về danh tính thủ phạm, nhưng họ ám chỉ rằng đó có thể là các công ty tư nhân hoặc nhà nghiên cứu đang tìm cách giành lợi thế cạnh tranh trong lĩnh vực AI. Mục tiêu của kẻ gian là tái hiện khả năng của Gemini trong nhiều loại nhiệm vụ khác nhau, với trọng tâm hướng đến một loại ngôn ngữ không phải tiếng Anh.
Chưng cất kiến thức: Kỹ thuật tấn công tinh vi
Chưng cất kiến thức là một kỹ thuật học máy phổ biến, thường được ví von như mô hình "học sinh" và "giáo viên". Trong đó, mô hình "học sinh" sẽ truy vấn mô hình "giáo viên" (như Gemini) về các vấn đề cụ thể, sau đó sử dụng kết quả để tinh chỉnh hoặc huấn luyện mô hình mới.
Khác với các hình thức tấn công khác, chưng cất kiến thức được thực hiện thông qua quyền truy cập hợp pháp. Kẻ gian có thể đưa ra hàng nghìn câu hỏi cho chatbot Gemini, và từ các phản hồi nhận được, chúng có thể thu thập dữ liệu, suy đoán cách thức hoạt động, rồi áp dụng cho mô hình của riêng mình.
Năm ngoái, OpenAI cũng từng cáo buộc DeepSeek thực hiện các cuộc tấn công chưng cất tương tự để cải thiện mô hình AI của họ, cho thấy đây là một vấn đề nổi cộm trong ngành công nghiệp trí tuệ nhân tạo.
Nguy cơ đối với sở hữu trí tuệ và tương lai của AI
Theo Google, việc tấn công trích xuất mô hình này không trực tiếp gây rủi ro cho người dùng cuối, nhưng nó đặt ra mối đe dọa nghiêm trọng đối với các nhà phát triển và nhà cung cấp dịch vụ AI. Hoạt động này cho phép kẻ tấn công đẩy nhanh quá trình phát triển mô hình AI với chi phí thấp hơn đáng kể, đồng thời vi phạm các điều khoản sở hữu trí tuệ của nền tảng.
Các công ty công nghệ đã đầu tư hàng tỷ USD vào việc phát triển chatbot AI và các mô hình ngôn ngữ lớn, khiến cơ chế hoạt động nội bộ của họ trở thành thông tin độc quyền có giá trị cao. John Hultquist từ nhóm GTIG cảnh báo rằng hoạt động chưng cất kiến thức dự kiến sẽ diễn ra mạnh mẽ hơn trong thời gian tới, đòi hỏi sự cảnh giác và các biện pháp bảo vệ chặt chẽ hơn từ cộng đồng AI toàn cầu.



