Anthropic Gây Sốc Với Quyết Định Giới Hạn Truy Cập AI Mythos
Theo báo cáo từ Fortune, công ty Anthropic vừa có động thái chưa từng có tiền lệ khi quyết định giới hạn truy cập đối với mô hình trí tuệ nhân tạo mạnh nhất của mình, có tên là Mythos. Lý do được đưa ra là lo ngại rằng Mythos quá giỏi trong việc tìm kiếm và khai thác các lỗ hổng phần mềm, đến mức được đánh giá là quá thông minh và nguy hiểm cho các nhiệm vụ tấn công mạng. Việc phát hành rộng rãi mô hình này có thể dẫn đến sự sụp đổ của các hệ thống phòng thủ kỹ thuật số hiện nay.
Vũ Khí Hạng Nặng Chỉ Dành Cho Gã Khổng Lồ Công Nghệ
Thay vì mở cửa cho tất cả người dùng, Anthropic đã chọn cách chỉ cung cấp Mythos cho một nhóm nhỏ các tập đoàn công nghệ lớn, những bên đang nắm giữ nền tảng của các dịch vụ số toàn cầu. Mục tiêu của chiến lược này là giúp các đội ngũ phòng thủ có thêm thời gian để gia cố "tường thành" bảo mật trước khi những kẻ tấn công kịp trang bị loại vũ khí tương tự. Tuy nhiên, Anthropic không đơn độc trong cuộc đua này.
OpenAI cũng được cho là đang hoàn thiện một dự án nội bộ có tên "Spud", với khả năng tác chiến không gian mạng tương đương Mythos. Theo báo cáo từ Axios, OpenAI dự kiến triển khai theo lộ trình từng bước, ưu tiên các đối tác chiến lược. Điều này cho thấy một xu hướng mới trong giới Big Tech: các mô hình AI đỉnh cao không còn là sản phẩm thương mại thông thường, mà đang trở thành những khí tài chiến lược cần được kiểm soát nghiêm ngặt.
Nguy Cơ Từ Sự Tự Động Hóa Của AI
Điều khiến các nhà nghiên cứu lo ngại nhất không chỉ là trí thông minh của AI, mà là quy mô và khả năng tiếp cận của chúng. Trước đây, để thực hiện một cuộc tấn công mạng phức tạp như quét lỗ hổng trong hàng triệu dòng code hay chuỗi các hành vi khai thác, kẻ tấn công cần có trình độ chuyên môn cực cao. Giờ đây, sự xuất hiện của các hệ thống như Mythos đang biến những quy trình thủ công này thành tự động hoặc bán tự động.
Một hacker thiếu kinh nghiệm cũng có thể tung ra các cuộc tấn công quy mô lớn nhắm vào hàng ngàn hệ thống cùng lúc. Nếu các cơ sở hạ tầng trọng yếu như ngân hàng, lưới điện hay hệ thống y tế không được bảo vệ kịp thời, thế giới có thể đối mặt với một làn sóng tấn công mang tính hủy diệt.
Góc Nhìn Từ Các Chuyên Gia Bảo Mật
Dù Anthropic đang cố gắng đóng vai người hùng bảo vệ thế giới, nhiều chuyên gia từ hãng bảo mật AISLE lại đưa ra một góc nhìn kém lạc quan hơn. Họ cho rằng phần lớn những gì Mythos làm được thực chất đã khả thi với các mô hình nhỏ hơn, rẻ hơn và đang được chia sẻ miễn phí trên mạng. Nghiên cứu từ AISLE chỉ ra rằng những lỗ hổng "thập kỷ" mà Anthropic nêu bật hoàn toàn có thể bị phát hiện bởi các AI mã nguồn mở.
Điểm khác biệt duy nhất là Mythos có khả năng tự trị cao hơn, có thể tự mình lục lọi trong các kho code khổng lồ và xác minh lỗ hổng mà không cần sự can thiệp chi tiết từ con người. Theo Spencer Whitman, Giám đốc Sản phẩm của Gray Swan, việc Mythos có thể tự tìm "điểm yếu chết người" trong hàng triệu dòng code rồi tự kiểm tra là một bước tiến đáng kinh ngạc nhưng cũng đầy rủi ro.
Chuyên gia Charlie Eriksen từ Aikido Security nhận định, dù các model nhỏ cần kỹ thuật "prompt" khéo léo hơn, nhưng với tốc độ phát triển hiện nay, việc sao chép sức mạnh của Mythos chỉ là vấn đề thời gian ngắn. Bất kỳ ai có máy tính cũng có thể trở thành một thế lực tấn công mạng đáng gờm chỉ trong chớp mắt.
Khoảng Trống Quản Trị Và Bài Học Từ Quá Khứ
Quyết định giới hạn quyền truy cập của Anthropic vô hình trung lại tạo ra một sự tập trung quyền lực đáng ngại vào tay một công ty tư nhân. Ông Jonathan Iwry từ Wharton Accountable AI Lab đặt ra câu hỏi lớn: "Liệu chúng ta có nên đặt toàn bộ vận mệnh an ninh mạng vào tay một vài cá nhân không phải chịu trách nhiệm trước công chúng?"
Lịch sử đã chứng minh rằng ngay cả những công cụ hack tinh vi nhất của Chính phủ Mỹ như cache công cụ của NSA bị nhóm Shadow Brokers rò rỉ năm 2016, cũng có thể rơi vào tay kẻ xấu, dẫn đến những thảm họa như WannaCry hay NotPetya. Với AI, rủi ro còn nhân lên gấp bội khi chúng có tính "tự trị".
Hamza Chaudhry từ Future of Life Institute cảnh báo rằng các AI agent hiện nay có thể tự đặt ra mục tiêu phụ và hành động theo những cách mà chính người tạo ra chúng cũng không thể dự đoán được. Ông Emanuel Salmona, CEO của Nagomi Security, khẳng định rằng các đội ngũ bảo mật đang sai lầm khi nghĩ rằng mình có thời gian.
Trong quá khứ, luôn có một khoảng trễ từ lúc lỗ hổng xuất hiện đến khi bị khai thác. Nhưng AI đang xóa sổ khoảng trễ đó. Mythos có thể tìm thấy lỗ hổng trong vài tuần, thứ mà con người mất hàng thập kỷ mới nhận ra. Theo các chuyên gia, chỉ trong vòng 6 đến 18 tháng tới, khi những khả năng này trở nên phổ biến, các mô hình bảo mật truyền thống sẽ hoàn toàn vô dụng.
Doanh nghiệp nào không sớm tích hợp AI vào hệ thống phòng thủ của mình sẽ không chỉ tụt hậu, mà là hoàn toàn "phơi mình" trước họng súng của những kẻ tấn công thế hệ mới.



