Khoảng trống thể chế trong việc triển khai AI giáo dục tại TP.HCM
Việc triển khai trí tuệ nhân tạo (AI) trong giáo dục tại Thành phố Hồ Chí Minh đang đối mặt với những thách thức lớn từ khoảng trống thể chế, mặc dù các luật khung đã được ban hành. Luật Trí tuệ nhân tạo 2025, được Quốc hội thông qua ngày 10 tháng 12 năm 2025 và có hiệu lực từ ngày 1 tháng 3 năm 2026, đặt ra bốn nguyên tắc cốt lõi: lấy con người làm trung tâm, AI không thay thế thẩm quyền con người, đảm bảo công bằng và minh bạch, cùng với thúc đẩy AI xanh bền vững. Đồng thời, Luật Bảo vệ dữ liệu cá nhân 2025, có hiệu lực từ ngày 1 tháng 1 năm 2026, quy định cụ thể về quyền dữ liệu của công dân.
Thực trạng triển khai và những vấn đề pháp lý
Tuy nhiên, hai luật này chỉ là luật khung với các nguyên tắc chung, trong khi Luật AI 2025 gồm 35 điều được thiết kế ngắn gọn, và những nội dung kỹ thuật sẽ được quy định tại nghị định. Cách tiếp cận này phù hợp với lĩnh vực công nghệ phát triển nhanh, nhưng cũng tạo ra khoảng trống trong thực thi. TP.HCM đang dẫn đầu cả nước trong việc đưa AI vào giảng dạy, với khoảng 170 trường phổ thông bắt đầu thí điểm từ học kỳ 2 năm học 2025-2026. Điều này đáng hoan nghênh trong bối cảnh chuyển đổi số, nhưng khi triển khai, các nghị định hướng dẫn chi tiết vẫn chưa được ban hành.
Nghị định 13/2023/NĐ-CP về bảo vệ dữ liệu cá nhân đã có hiệu lực từ ngày 1 tháng 7 năm 2023, quy định cụ thể về xử lý dữ liệu trẻ em, bao gồm nguyên tắc bảo vệ quyền và lợi ích tốt nhất của trẻ em, cùng với yêu cầu "đồng ý kép" từ trẻ từ đủ 7 tuổi trở lên và cha mẹ hoặc người giám hộ. Tuy nhiên, vấn đề nằm ở chỗ ai sẽ giám sát việc các trường học và đối tác công nghệ tuân thủ các quy định này? Sở Giáo dục và Đào tạo TP.HCM trong kế hoạch triển khai chỉ đề cập việc đào tạo giáo viên và phối hợp với doanh nghiệp, nhưng không nêu rõ cơ chế thanh tra, kiểm soát việc thu thập và xử lý dữ liệu học sinh.
Những thách thức trong bảo vệ dữ liệu và trách nhiệm
Theo Luật Bảo vệ dữ liệu cá nhân 2025, chủ thể dữ liệu có quyền được biết, đồng ý, truy cập, chỉnh sửa, yêu cầu xóa dữ liệu, và khiếu nại, khởi kiện, yêu cầu bồi thường thiệt hại. Bên kiểm soát dữ liệu và bên xử lý dữ liệu phải thực hiện yêu cầu trong 72 giờ sau khi nhận được. Trong mô hình AI giáo dục, trường học đóng vai trò bên kiểm soát dữ liệu còn công ty công nghệ là bên xử lý dữ liệu, nhưng ranh giới này khá mờ nhạt. Khi học sinh sử dụng nền tảng AI để học tập, dữ liệu hành vi học tập được thu thập liên tục, đặt ra câu hỏi về quyền sở hữu, lưu trữ, và khả năng chuyển ra nước ngoài.
Luật AI 2025 quy định về trách nhiệm bồi thường nghiêm ngặt, nhưng không xếp hệ thống AI giáo dục vào nhóm "nguồn nguy hiểm cao độ" vì đây là phần mềm với rủi ro từ việc ra quyết định, không phải rủi ro vật lý. Điều này dẫn đến câu hỏi, nếu AI đánh giá sai năng lực học sinh, gây ảnh hưởng tâm lý hoặc định hướng sai nghề nghiệp, trách nhiệm thuộc về ai? Theo Bộ luật Dân sự 2015, thiệt hại có thể bao gồm thiệt hại tài sản, sức khỏe, tinh thần và danh dự, nhân phẩm, nhưng việc chứng minh thiệt hại từ AI trong giáo dục cực kỳ phức tạp.
Quyền của phụ huynh và thực tiễn triển khai
Nghị định 13/2023/NĐ-CP quy định phụ huynh có quyền rút lại sự đồng ý, yêu cầu xóa dữ liệu, phản đối xử lý dữ liệu, nhưng trong thực tế triển khai AI tại trường học, quyền này gần như không thể thực thi. Khi AI được lồng ghép vào chương trình giảng dạy, việc sử dụng AI trở thành một phần bắt buộc, khiến quyền đồng ý của phụ huynh chỉ mang tính hình thức. Hơn nữa, thông báo về xử lý dữ liệu thường được viết bằng ngôn ngữ pháp lý phức tạp, và nhiều phụ huynh không đọc hoặc hiểu rõ các điều khoản này.
TP.HCM đã có động thái tích cực khi yêu cầu nhà trường không được cung cấp dữ liệu học sinh cho giải pháp ngoài hệ thống chính thức nếu chưa có sự đồng ý tự nguyện của phụ huynh. Tuy nhiên, "hệ thống chính thức" được hiểu như thế nào vẫn còn mơ hồ, và các nền tảng AI do Sở Giáo dục và Đào tạo chọn có tự động được coi là chính thức hay không vẫn là câu hỏi mở.
Ba cột trụ thể chế để phát triển AI bền vững
Để AI trong giáo dục phát triển bền vững, cần có ba cột trụ thể chế:
- Cơ chế thanh tra độc lập: Thành lập đơn vị chuyên trách thuộc Bộ Công an hoặc Thanh tra Chính phủ để kiểm tra định kỳ và đột xuất việc thu thập, lưu trữ, xử lý dữ liệu học sinh tại các trường triển khai AI, với báo cáo công khai vi phạm.
- Chế độ bảo hiểm trách nhiệm dữ liệu bắt buộc: Yêu cầu trường học và đối tác công nghệ mua bảo hiểm để đảm bảo khả năng bồi thường khi xảy ra sự cố, một thông lệ phổ biến ở các nước phát triển nhưng chưa được đề cập trong văn bản pháp lý Việt Nam.
- Đào tạo nhận thức cho phụ huynh: Sở Giáo dục và Đào tạo cần tổ chức các buổi tập huấn giúp phụ huynh hiểu rõ quyền của mình, cách thức theo dõi dữ liệu con em, và cách khiếu nại khi có vi phạm, tránh để quyền đồng ý trở thành hình thức.
Kinh nghiệm quốc tế và hướng đi tương lai
Việt Nam không phải là quốc gia duy nhất đối mặt với vấn đề này. Chẳng hạn, Liên minh Châu Âu đã ban hành Quy định chung về bảo vệ dữ liệu (GDPR) với quy định nghiêm ngặt về bảo vệ dữ liệu trẻ em, yêu cầu sự đồng ý từ phụ huynh và thực hiện đánh giá tác động bảo vệ dữ liệu. Singapore và Hàn Quốc cũng đã xây dựng bộ khung đạo đức AI và thiết lập cơ quan độc lập giám sát.
Triển khai AI trong giáo dục là tất yếu và đúng đắn, nhưng nhiệt tình không thể thay thế minh bạch và tốc độ không thể hy sinh sự an toàn. Câu hỏi đặt ra không phải là "có nên dạy AI cho học sinh không?" mà là "khi dạy AI, chúng ta đã sẵn sàng bảo vệ dữ liệu của các em chưa?". Một vụ rò rỉ dữ liệu lớn có thể phá hủy niềm tin của xã hội vào công nghệ giáo dục, khiến các nỗ lực chuyển đổi số bị lùi lại nhiều năm.
Do đó, cần hoàn thiện thể chế trước khi tiếp tục cuộc đua công nghệ để đi đúng hướng. Tiến sĩ Nguyễn Văn Hiếu, Giám đốc Sở Giáo dục và Đào tạo TP.HCM, nhấn mạnh mục đích triển khai AI nhằm hình thành năng lực số, AI, tin học, và kỹ năng giải quyết vấn đề cho học sinh, đồng thời đảm bảo tiếp cận công bằng cho mọi đối tượng, đặc biệt là học sinh ở vùng khó khăn.



