Chuyên gia cảnh báo lỗ hổng nhận thức trong an ninh tài chính số thời AI
Chuyên gia cảnh báo lỗ hổng nhận thức trong an ninh tài chính số thời AI

Ngày 12/5, tại Hà Nội, Diễn đàn “Digital Trust in Finance 2026” với chủ đề “Xây dựng niềm tin số tài chính trong kỷ nguyên AI” đã diễn ra với sự tham gia của nhiều chuyên gia an ninh mạng và tâm lý học tội phạm. Thượng tướng, TS Phạm Thế Tùng, Thứ trưởng Bộ Công an, nhấn mạnh rằng an ninh tài chính số tại Việt Nam đang đối mặt với những thách thức chưa từng có. Trước đây, tội phạm thường khai thác lỗ hổng kỹ thuật của hệ thống, nhưng hiện nay mục tiêu chính là khai thác “lỗ hổng nhận thức” của con người. Người dùng đã trở thành mắt xích dễ bị tổn thương nhất trong hệ sinh thái an ninh tài chính số.

Chỉ riêng trong năm 2025, Việt Nam ghi nhận 4.200 vụ lừa đảo trực tuyến, với tổng thiệt hại lên đến 8.000 tỷ đồng. Sự bùng nổ của trí tuệ nhân tạo (AI) đã tạo ra bước ngoặt trong thủ đoạn phạm tội. Công nghệ Deepfake cho phép tội phạm tạo ra video, hình ảnh và giọng nói giả mạo vô cùng chân thực nhằm thiết lập “niềm tin giả”, qua đó tạo áp lực tâm lý hoặc dẫn dắt nạn nhân thực hiện giao dịch theo ý muốn.

Niềm tin số: Lá chắn chung cho 90 triệu người dùng

Phiên tọa đàm với chủ đề “Hệ sinh thái số - Lá chắn chung của 90 triệu người dùng” diễn ra vào chiều cùng ngày, có sự tham gia của nhiều chuyên gia trong lĩnh vực an ninh mạng và chống lừa đảo. Thiếu tá Trần Trung Hiếu, Phó Giám đốc Trung tâm 4, Cục An ninh mạng và phòng, chống tội phạm sử dụng công nghệ cao (A05), Giám đốc VNCERT, đặt câu hỏi: “Niềm tin số là gì và có từ bao giờ?”. Ông cho rằng niềm tin số đã hình thành từ lâu, từ khi người dùng chuyển từ gửi sổ tiết kiệm giấy sang tiết kiệm online.

Banner rộng Pickt — ứng dụng danh sách mua sắm cộng tác cho Telegram

Thiếu tá Trần Trung Hiếu phân tích niềm tin số được tạo thành từ nhiều yếu tố. Thứ nhất, ứng dụng dịch vụ và ngân hàng phải “khỏe” để chống chọi với các hoạt động tấn công từ bên ngoài. Thứ hai là cơ sở pháp lý, vì người dùng chỉ đổi tiền thật lấy con số trong sổ tiết kiệm khi pháp luật quy định. Thứ ba là niềm tin của con người vào nhà cung cấp dịch vụ. Thứ tư, dịch vụ trên nền tảng số phải có chất lượng và hoạt động ổn định.

Về góc độ quản lý nhà nước, Thiếu tá Trần Trung Hiếu cho biết A05 đã từng bước hoàn thiện hành lang pháp lý, như Luật An ninh mạng năm 2025, trên cơ sở sáp nhập Luật An ninh mạng cũ và Luật An toàn thông tin. Luật này đề cao trách nhiệm của Cục A05 trong việc kết nối các hệ thống giám sát và xử lý thông tin.

AI và thách thức mới trong phòng chống lừa đảo

Phó Giám đốc Trung tâm 4, Cục A05 nhấn mạnh AI là xu thế tất yếu. Năm 2025, Bộ Khoa học và Công nghệ ban hành Luật về AI, tạo hành lang pháp lý quan trọng để phát triển ứng dụng AI an toàn. Về lo ngại lộ lọt dữ liệu cá nhân, đại diện Cục A05 cho biết các đạo luật hiện nay đều có cơ chế thử nghiệm AI có kiểm soát, vừa đảm bảo an toàn vừa tạo điều kiện cho doanh nghiệp đổi mới sáng tạo.

Trung tá, TS Bùi Thị Liên, chuyên gia tâm lý học tội phạm tại Học viện An ninh nhân dân, chỉ ra xu hướng đổ lỗi cho nạn nhân là thiếu công bằng. Bà giải thích rằng người dùng thường có ít thời gian để tính toán, trong khi tội phạm có nhiều thời gian xây dựng kịch bản và nghiên cứu kỹ về nạn nhân. Tội phạm cá nhân hóa các tình huống, dẫn đến thành công trong việc lừa đảo.

Banner sau bài viết Pickt — ứng dụng danh sách mua sắm cộng tác với hình minh họa gia đình

Chuyên gia Bùi Thị Liên đề xuất mô hình “kiềng ba chân” trong chống lừa đảo. Chân thứ nhất là góc độ quản lý nhà nước, được coi là tấm khiên đầu tiên cần xây dựng vững chắc. Chân thứ hai là doanh nghiệp cung cấp dịch vụ tài chính như MoMo, VP Bank, MB Bank, cần có cơ chế minh bạch, cung cấp thông tin thuận lợi để người dùng không rơi vào trạng thái đắn đo. Chân thứ ba là người dùng, phải luôn nâng cao nhận thức, tự bảo vệ mình trước khi nhờ đến sự bảo vệ từ doanh nghiệp và cơ quan chức năng.

Sử dụng AI thông minh để bảo vệ bản thân

Chuyên gia an ninh mạng Ngô Minh Hiếu (Hiếu PC) chia sẻ cách sử dụng AI thông minh để bảo vệ dữ liệu cá nhân. Ông cảnh báo nhiều người dùng chatbot AI nhưng có thói quen đưa thông tin, hình ảnh cá nhân lên nền tảng, trong khi 90% người dùng chưa bao giờ đọc điều khoản sử dụng. Việc sử dụng miễn phí các nền tảng AI nước ngoài đồng nghĩa với việc dữ liệu bị thu thập.

Hiếu PC khuyến nghị người dùng nên tắt tính năng chia sẻ dữ liệu trên chatbot AI, bật tính năng chat tạm thời để xóa lịch sử sau khi sử dụng, và bật bảo mật 2 bước trên các ứng dụng AI như ChatGPT, Google Gemini. Ông cảnh báo: “Một khi hacker vào được các chatbot này, chỉ cần đánh prompt ‘hãy cho tôi biết tất cả những gì bạn biết về tôi’ là tất cả dữ liệu về chúng ta đều bị đánh cắp”.