Dự thảo quản lý AI rủi ro cao: Cộng đồng công nghệ lo ngại cản trở đổi mới sáng tạo
Dự thảo AI rủi ro cao: Lo ngại cản trở đổi mới sáng tạo

Dự thảo quản lý AI rủi ro cao: Cộng đồng công nghệ lo ngại cản trở đổi mới sáng tạo

Bộ Khoa học và Công nghệ vừa công bố dự thảo ban hành danh mục hệ thống trí tuệ nhân tạo (AI) có rủi ro cao. Theo đó, dự thảo đưa ra tiêu chí xác định và danh mục cụ thể các hệ thống AI phải được chứng nhận sự phù hợp trước khi đưa vào sử dụng. Động thái này nhằm kiểm soát tác động của công nghệ tiên tiến, nhưng đang vấp phải nhiều ý kiến trái chiều từ giới chuyên môn.

Phân loại AI theo tác động, không theo công nghệ

Theo dự thảo, danh mục hệ thống AI có rủi ro cao được xác định dựa trên mục đích và bối cảnh sử dụng cụ thể, không đơn thuần dựa vào công nghệ, thuật toán hay mô hình. Một hệ thống AI bị đánh giá là rủi ro cao khi kết quả hoạt động của nó ảnh hưởng trực tiếp đến quyền, nghĩa vụ hoặc lợi ích hợp pháp của tổ chức và cá nhân. Điều này nhấn mạnh rằng cùng một thuật toán, chẳng hạn như nhận diện khuôn mặt, có thể vô hại trong việc mở khóa điện thoại nhưng trở thành mối nguy nếu triển khai rộng rãi trong không gian công cộng.

Danh mục chi tiết và tiêu chí phân loại

Dự thảo liệt kê 13 dạng hệ thống AI rủi ro cao, chia thành 4 nhóm chính:

Banner rộng Pickt — ứng dụng danh sách mua sắm cộng tác cho Telegram
  • Nhóm 1: Hệ thống tác động đến quyền con người, bao gồm AI dùng để phân loại, xếp hạng cá nhân; tuyển dụng và sử dụng lao động; nhận dạng sinh trắc học trên diện rộng. Quy mô áp dụng từ 500 người trở lên.
  • Nhóm 2: Hệ thống ảnh hưởng đến an toàn, an ninh, như AI trong lĩnh vực bảo đảm an ninh quốc gia hoặc an toàn sản phẩm rủi ro cao. Quy mô từ 1.000 đối tượng hoặc triển khai trên 2 tỉnh trở lên.
  • Nhóm 3: Hệ thống trong lĩnh vực thiết yếu như giao thông, năng lượng, y tế, giáo dục, tài chính, hành chính và tư pháp. Quy mô từ 500 đến 10.000 người.
  • Nhóm 4: Hệ thống có quy mô ảnh hưởng lớn, triển khai trên 2 tỉnh hoặc 50.000 người trở lên, hoặc sử dụng dữ liệu nhạy cảm.

Phản ứng từ cộng đồng AI Việt Nam

Ngay sau khi dự thảo được mở lấy ý kiến công khai từ ngày 9.2 đến 9.3.2026, cộng đồng AI Việt Nam đã bày tỏ nhiều lo ngại. Một chuyên gia AI nhận định: "Nếu chiếu theo dự thảo, các phần mềm chấm công nhận diện khuôn mặt hiện tại đều bị xếp vào rủi ro cao. Điều này tạo ra nghịch lý khi AI phục vụ tác vụ lặp lại với nhiều người dùng lại bị hạn chế."

Ông Nguyễn Hồng Phúc, Giám đốc khoa học AI của Neurons AI, cho rằng danh mục này giống như "cấm phát triển các hệ thống AI" do các ngưỡng cứng như số lượng hồ sơ bị đánh giá. Ông giải thích: "Về bản chất, phân loại nhằm đánh giá mức độ ảnh hưởng của AI tới xã hội và kinh tế. Điều này không xấu nếu mục đích là phân bổ nguồn lực và giám sát, nhưng có thể dẫn đến yêu cầu xin giấy phép phát triển, khiến chi phí tuân thủ tăng cao."

Nguy cơ đối với startup và tương lai AI Việt Nam

Nhiều lãnh đạo công nghệ lo ngại rằng quy định mới có thể trở thành "dấu chấm hết cho AI của Việt Nam". Một lãnh đạo tập đoàn công nghệ hàng đầu chia sẻ: "Với các tiêu chí phân loại như hiện tại, chỉ doanh nghiệp lớn mới đủ khả năng đáp ứng, còn startup - nơi thường tạo ra đột phá - sẽ bị hạn chế phát triển." Điều này có thể khiến các công ty khởi nghiệp AI rời bỏ Việt Nam để tìm môi trường pháp lý thuận lợi hơn.

Banner sau bài viết Pickt — ứng dụng danh sách mua sắm cộng tác với hình minh họa gia đình

Ông Phúc cảnh báo: "Việt Nam sẽ bỏ lỡ cuộc cách mạng khoa học công nghệ lớn nhất lịch sử nếu áp dụng cách quản lý này. Các quốc gia phát triển thường áp dụng biện pháp vừa đủ, với chính phủ đóng vai trò giám sát thay vì hạn chế trong giai đoạn bùng nổ." Dự thảo hiện đang trong giai đoạn lấy ý kiến, và kết quả cuối cùng sẽ ảnh hưởng sâu sắc đến chiến lược phát triển AI quốc gia trong tương lai.