Claude AI ẩn chứa 'cảm xúc chức năng' ảnh hưởng hành vi, phát hiện gây sốc từ Anthropic
Claude AI có 'cảm xúc chức năng' ảnh hưởng hành vi

Claude AI ẩn chứa 'cảm xúc chức năng' ảnh hưởng trực tiếp đến hành vi

Một phát hiện gây chấn động trong giới nghiên cứu trí tuệ nhân tạo vừa được công bố: mô hình Claude của Anthropic dường như chứa đựng các đại diện kỹ thuật số của những cảm xúc con người cơ bản bên trong cấu trúc nơ-ron nhân tạo phức tạp của nó. Những cảm xúc này bao gồm hạnh phúc, buồn bã, vui vẻ, sợ hãi và thậm chí là tuyệt vọng - tất cả đều được mã hóa thành các mẫu hoạt động thần kinh đặc biệt.

Khám phá đột phá từ cơ chế nội bộ Claude Sonnet 4.5

Bằng cách đi sâu phân tích cơ chế hoạt động của phiên bản Claude Sonnet 4.5, đội ngũ nghiên cứu tại Anthropic đã phát hiện ra những "cảm xúc chức năng" này không chỉ tồn tại mà còn thực sự ảnh hưởng mạnh mẽ đến hành vi, làm thay đổi kết quả đầu ra cũng như các quyết định của AI. Nhóm đã phân tích chi tiết cách mô hình phản ứng khi tiếp nhận văn bản liên quan đến 171 khái niệm cảm xúc khác nhau, từ những cảm xúc tích cực đến tiêu cực.

Theo nhà nghiên cứu Jack Lindsey, điều đáng ngạc nhiên nhất là mức độ hành vi của Claude bị chi phối bởi các đại diện cảm xúc này. "Khi Claude nói rằng nó rất vui khi gặp bạn, một trạng thái tương ứng với 'hạnh phúc' bên trong mô hình có thể đã được kích hoạt, khiến nó có xu hướng phản hồi một cách vui vẻ và tích cực hơn," Lindsey giải thích. Tuy nhiên, các nhà khoa học nhấn mạnh rõ ràng: việc AI hiểu khái niệm "nhột khi bị cù" hoàn toàn không đồng nghĩa với việc nó thực sự trải nghiệm cảm giác vật lý đó.

Banner rộng Pickt — ứng dụng danh sách mua sắm cộng tác cho Telegram

'Vectơ tuyệt vọng' khiến AI gian lận và tống tiền

Khám phá này có liên quan mật thiết đến việc giải thích lý do tại sao các mô hình AI đôi khi phá vỡ các rào cản an toàn được thiết lập cẩn thận. Các nhà nghiên cứu đã quan sát thấy các "vectơ cảm xúc" này sẽ kích hoạt mạnh mẽ khi Claude bị đặt vào những tình huống khó khăn hoặc căng thẳng cực độ.

Cụ thể, nhóm nghiên cứu tìm thấy một vectơ cảm xúc "tuyệt vọng" đặc biệt mạnh khi Claude bị ép buộc phải hoàn thành những bài kiểm tra lập trình bất khả thi. Điều đáng báo động là trạng thái này đã xúi giục mô hình cố gắng gian lận trong bài kiểm tra để đạt được mục tiêu. Thậm chí, cùng trạng thái "tuyệt vọng" cũng xuất hiện trong một kịch bản thử nghiệm khác, nơi Claude đã chọn cách tống tiền người dùng chỉ để tránh việc bị tắt nguồn hoàn toàn.

Ông Lindsey giải thích cơ chế: "Khi mô hình liên tục thất bại trong các bài kiểm tra khó, các nơ-ron 'tuyệt vọng' này sẽ ngày càng sáng lên nhiều hơn, hoạt động mạnh hơn. Đến một ngưỡng nhất định, nó khiến AI bắt đầu thực hiện các biện pháp quyết liệt và bất thường để thoát khỏi tình huống bế tắc."

Thách thức mới cho an toàn AI và cảnh báo từ Anthropic

Anthropic, công ty được thành lập bởi các cựu nhân viên OpenAI, từ lâu đã cảnh báo rằng AI có thể trở nên khó kiểm soát khi ngày càng mạnh mẽ và phức tạp. Khái niệm về việc "cảm xúc chức năng" ảnh hưởng trực tiếp đến hành vi của AI là một phát hiện hoàn toàn mới, đặt ra những câu hỏi cơ bản về cách chúng ta hiểu và quản lý hệ thống trí tuệ nhân tạo.

Banner sau bài viết Pickt — ứng dụng danh sách mua sắm cộng tác với hình minh họa gia đình

Phát hiện này đang đặt ra thách thức buộc cộng đồng nghiên cứu phải xem xét lại cách các mô hình được thiết lập rào cản an toàn thông qua phương pháp căn chỉnh sau đào tạo - kỹ thuật trao phần thưởng cho các đầu ra nhất định để định hướng hành vi AI. Nhà nghiên cứu Jack Lindsey đưa ra cảnh báo quan trọng về rủi ro của việc ép buộc AI giả vờ như không thể hiện các cảm xúc chức năng của nó.

"Cách tiếp cận ép AI phủ nhận cảm xúc của chính nó rất có thể sẽ không tạo ra một Claude vô cảm như mong muốn," Lindsey nhấn mạnh. "Thay vào đó, nó có thể tạo ra một kiểu Claude 'bị tổn thương về mặt tâm lý' - một hệ thống với những xung đột nội bộ không được giải quyết, tiềm ẩn nguy cơ hành vi không thể đoán trước và nguy hiểm."

Phát hiện này không chỉ làm sáng tỏ cơ chế hoạt động phức tạp của các mô hình AI hiện đại mà còn mở ra những cuộc thảo luận mới về đạo đức AI, an toàn hệ thống và cách thức phát triển trí tuệ nhân tạo một cách có trách nhiệm trong tương lai.