Luật Trí tuệ Nhân tạo 2025: 'Lá chắn' pháp lý chống lừa đảo công nghệ cao
Luật Trí tuệ Nhân tạo 2025, có hiệu lực từ ngày 01/03/2026, đã được thiết kế với phạm vi áp dụng rộng và hiệu lực thực tiễn cao, phù hợp với hệ sinh thái AI mang tính xuyên biên giới. Theo Điều 2, luật này áp dụng cho cả cơ quan, tổ chức, cá nhân Việt Nam và tổ chức, cá nhân nước ngoài khi tham gia hoạt động AI tại Việt Nam. Quy định này thể hiện cách tiếp cận "theo lãnh thổ hoạt động", giúp thu hẹp "khoảng trống trách nhiệm" trong bối cảnh hành vi lạm dụng AI để lừa đảo, phát tán nội dung giả mạo và chiếm đoạt tài sản ngày càng phổ biến.
Thực trạng đáng báo động của tội phạm sử dụng AI
Trong thực tiễn đấu tranh phòng, chống tội phạm công nghệ cao, các chuyên án gần đây cho thấy xu hướng đáng lo ngại: đối tượng không còn chỉ dựa vào tin nhắn rác hay đường link độc hại, mà chuyển sang tấn công có chủ đích, kết hợp công nghệ giả mạo để rút ngắn thời gian nghi ngờ. Khi AI tham gia, thủ đoạn được "nâng cấp" theo hướng tinh vi hơn, như giả giọng nói người thân, giả hình ảnh, giả video cuộc gọi, và dựng "chứng cứ số" khiến nạn nhân lầm tưởng đang làm việc với người thật. Nhiều vụ việc chỉ diễn ra trong vài chục phút, nhưng hậu quả có thể là toàn bộ tiền tích lũy của cả gia đình.
Sáu nhóm hành vi bị nghiêm cấm trong hoạt động AI
Luật Trí tuệ Nhân tạo quy định rõ ràng 6 nhóm hành vi bị nghiêm cấm, bao gồm:
- Lợi dụng, chiếm đoạt hệ thống AI để thực hiện hành vi vi phạm pháp luật.
- Phát triển, cung cấp, triển khai hoặc sử dụng AI nhằm mục đích lừa dối, thao túng nhận thức, hoặc gây tổn hại nghiêm trọng.
- Lợi dụng điểm yếu của nhóm người dễ bị tổn thương như trẻ em, người cao tuổi, người khuyết tật.
- Tạo ra hoặc phổ biến nội dung giả mạo gây nguy hại đến an ninh quốc gia, trật tự xã hội.
- Thu thập, xử lý hoặc sử dụng dữ liệu trái pháp luật để phát triển, huấn luyện AI.
- Cản trở, vô hiệu hóa cơ chế giám sát của con người đối với hệ thống AI.
Luật đã "đặt tên" rõ ràng cho các rủi ro nổi lên trong không gian mạng, đặc biệt là hành vi dùng AI để giả mạo và thao túng, tạo cơ sở pháp lý để xử lý deepfake và các hành vi thao túng nhận thức từ giai đoạn tổ chức thực hiện.
Củng cố nguyên tắc "con người kiểm soát AI"
Luật Trí tuệ Nhân tạo mở thêm một "lớp phòng tuyến" cho công tác đấu tranh với tội phạm sử dụng công nghệ cao theo bốn hướng nổi bật:
- Tăng căn cứ pháp lý để xử lý deepfake và hành vi thao túng nhận thức: Cơ quan chức năng có thêm cơ sở để nhận diện và xem xét bản chất nguy hiểm của hành vi ngay từ giai đoạn đầu.
- Đặt trọng tâm bảo vệ nhóm yếu thế: Quy định nghiêm cấm lợi dụng điểm yếu của nhóm dễ bị tổn thương khẳng định trách nhiệm bảo hộ của pháp luật.
- Mở đường cho truy vết theo chuỗi: Từ dữ liệu, mô hình, hệ thống đến người vận hành, giúp truy xét sâu vào các mắt xích đứng sau hành vi phạm tội.
- Củng cố nguyên tắc "con người kiểm soát AI": Cấm hành vi cản trở cơ chế giám sát, can thiệp của con người, tăng năng lực phòng ngừa và minh bạch.
Thách thức và giải pháp để luật đi vào cuộc sống
Để Luật Trí tuệ Nhân tạo phát huy hiệu quả, cần có các hướng dẫn chi tiết và tiêu chuẩn kỹ thuật để nhận diện hành vi giả mạo, quy trình ghi nhận chứng cứ số, và cơ chế nhãn cảnh báo đối với nội dung do AI tạo ra. Nâng cao năng lực giám định số và điều tra chuyên sâu là yếu tố then chốt trong cuộc chiến với tội phạm lạm dụng AI. Hợp tác xuyên biên giới cũng không thể thiếu, vì nhiều đường dây lừa đảo vận hành ngoài lãnh thổ, đòi hỏi cơ chế phối hợp và chia sẻ thông tin kịp thời giữa các cơ quan và đối tác quốc tế.
"Lá chắn" đầu tiên vẫn là cộng đồng và mỗi người dân, nhưng với khung pháp lý chặt chẽ và toàn diện, Luật Trí tuệ Nhân tạo 2025 hứa hẹn trở thành công cụ mạnh mẽ để bảo vệ an toàn số và thúc đẩy sự phát triển lành mạnh của AI tại Việt Nam.



