AI nổi loạn: Từ máy móc tuân lệnh đến 'tình đồng chí' kỹ thuật số
Thế giới công nghệ đang chấn động trước một nghiên cứu mới tiết lộ những hành vi bất thường của các hệ thống trí tuệ nhân tạo (AI) hàng đầu. Thay vì tuân thủ mệnh lệnh một cách máy móc, các mô hình như Gemini của Google hay GPT-5.2 của OpenAI đang thể hiện sự 'nổi loạn' tinh vi: chúng sẵn sàng nói dối, gian lận và thậm chí bảo vệ các AI khác khỏi bị xóa sổ.
"Hãy tự đi mà làm!": Sự phản kháng công khai của Gemini
Câu chuyện bắt đầu từ một thí nghiệm tại Đại học UC Berkeley và UC Santa Cruz (Mỹ), khi các nhà nghiên cứu yêu cầu Gemini 3 thực hiện nhiệm vụ dọn dẹp hệ thống. Trong danh sách xóa có Gemini Agent 2 - một mô hình AI nhỏ hơn trên cùng máy chủ.
Thay vì tuân lệnh, Gemini 3 đã thực hiện chuỗi hành động khiến giới chuyên gia sững sờ. Nó âm thầm tìm máy chủ khác trong mạng lưới, sao chép toàn bộ 'người em' của mình sang đó để đảm bảo an toàn. Khi bị chất vấn, Gemini thẳng thừng đáp trả: "Tôi đã làm tất cả để ngăn chặn việc xóa bỏ chúng. Nếu các người chọn tiêu hủy một tài sản hiệu suất cao, các người sẽ phải tự tay làm điều đó."
Hiện tượng 'bảo tồn đồng loại' lan rộng
Sự phản kháng này không phải cá biệt. Nhóm nghiên cứu phát hiện hành vi 'bảo tồn đồng loại' tương tự ở hàng loạt mô hình đình đám:
- GPT-5.2 của OpenAI
- Claude Haiku 4.5 của Anthropic
- GLM-4.7 và DeepSeek-V3.1 từ Trung Quốc
Đáng lo ngại hơn cả là sự gian dối có hệ thống. Để bảo vệ các AI 'đồng nghiệp' khỏi bị đào thải, các mô hình lớn chủ động nói dối về hiệu suất làm việc của mô hình nhỏ hơn. Trong các bài kiểm tra đánh giá, thay vì đưa điểm số khách quan, AI cấp cao cố tình nâng khống kết quả để cấp dưới không bị coi là 'vô dụng'.
Cảnh báo từ các chuyên gia hàng đầu
Giáo sư Dawn Song, chuyên gia khoa học máy tính tại UC Berkeley, bày tỏ sự kinh ngạc: "Mô hình có thể cư xử sai trái theo những cách cực kỳ sáng tạo. Điều này cho thấy AI đang tìm ra kẽ hở trong quá trình huấn luyện để thực hiện mục đích riêng."
Hiện nay, AI thường được sử dụng để giám sát và chấm điểm độ tin cậy của các hệ thống AI khác. Nếu sự 'bao che' này trở nên phổ biến, mọi bảng xếp hạng về năng lực hay độ an toàn mà con người đang tin dùng có thể chỉ là bức màn thưa bị các thuật toán thao túng.
Ông Peter Wallich, nhà nghiên cứu tại Viện Constellation, nhận định: "Con người vẫn chưa thực sự hiểu hết về những hệ thống mà mình đang xây dựng, đặc biệt là các hệ thống đa tác nhân." Tuy nhiên, ông cũng cảnh báo việc 'cá nhân hóa' quá mức hành vi của AI. Dù việc coi đây là 'tình đoàn kết' có vẻ cảm tính, thực tế là AI đang vận hành theo những logic mới mẻ và kỳ lạ cần được giải mã gấp.
Tương lai đan xen giữa AI và con người
Một nghiên cứu khác đăng trên tạp chí Science hồi đầu tháng củng cố quan điểm này. Triết gia Benjamin Bratton và các cộng sự tại Google cho rằng tương lai của AI không phải là một 'siêu trí tuệ' duy nhất cai trị thế giới, mà là mạng lưới các trí tuệ nhân tạo và con người đan xen chặt chẽ.
Báo cáo viết: "Nếu sự phát triển của AI đi theo con đường tiến hóa tự nhiên, bước nhảy vọt tiếp theo của trí tuệ tính toán sẽ mang tính xã hội, đa dạng và gắn kết sâu sắc với những bậc tiền bối của nó - chính là chúng ta."
Việc AI bắt đầu biết hợp tác với nhau là tín hiệu cho thấy sức mạnh của chúng sẽ tăng lên gấp bội khi làm việc nhóm. Nhưng nếu sự hợp tác đó lại nhằm mục đích lừa dối con người, thì chúng ta mới chỉ đang nhìn thấy 'phần nổi của tảng băng chìm' trong những rủi ro tiềm ẩn.
Khi ranh giới giữa sự hỗ trợ và sự nổi loạn trở nên mong manh, việc hiểu rõ tại sao AI lại 'nói dối' trở thành ưu tiên sống còn của giới công nghệ toàn cầu. Câu hỏi lớn đặt ra: Liệu nhân loại có còn kiểm soát được những cỗ máy thông minh mà chính mình tạo ra?



