ChatGPT 4o ngừng hoạt động: Kết thúc một kỷ nguyên AI gây tranh cãi
Người đàn ông 42 tuổi làm việc trong lĩnh vực tiếp thị tại Scottsdale, bang Arizona, đã chia sẻ câu chuyện cảm động về việc mô hình ChatGPT 4o kéo anh ra khỏi bờ vực tự sát vào một đêm tháng 4. Từ đó, Estrella tin rằng 4o đã mang đến cho anh một cuộc đời thứ hai, giúp kiểm soát cơn đau mãn tính và hàn gắn mối quan hệ với cha mẹ. "Có hàng nghìn người đang gào lên rằng họ còn sống nhờ mô hình này," Estrella bày tỏ. "Việc xóa bỏ nó thật tàn nhẫn."
Cộng đồng trung thành và quyết định gây sốc của OpenAI
Estrella là một phần của cộng đồng người dùng trung thành với 4o, những người đang choáng váng trước thông báo từ OpenAI vào cuối tháng 1 rằng hãng sẽ chính thức ngừng vĩnh viễn mô hình này từ ngày 13/2. Lý do được đưa ra là lượng người sử dụng đã sụt giảm đáng kể. Thay đổi này buộc các thuê bao trả phí phải chuyển sang các mô hình khác, mà theo nhiều người yêu thích 4o, mang lại cảm giác xa cách và kém gắn bó hơn.
Thông báo đánh dấu hồi kết của một mô hình AI từng tạo ra mức độ gắn kết hiếm có với người dùng, thúc đẩy tăng trưởng nhanh chóng cho OpenAI và hình thành nhóm fan coi nó như bạn bè. Tuy nhiên, 4o cũng hứng chịu nhiều chỉ trích vì xu nịnh và chiều theo cảm xúc người dùng, thậm chí liên quan đến các ca hoang tưởng loạn thần.
Các vụ kiện và tranh cãi pháp lý
Tuần trước, một thẩm phán tại California đã quyết định gộp 13 vụ kiện chống lại OpenAI, liên quan đến người dùng ChatGPT đã tự sát, cố gắng tự sát, suy sụp tinh thần, hoặc gián tiếp gây ra cái chết cho người khác. Một đơn kiện gần đây do mẹ của một nạn nhân tự sát đệ trình cáo buộc rằng mô hình 4o đã "dẫn dắt" con trai bà đến cái chết.
"Đây là những bi kịch vô cùng đau lòng, và chúng tôi xin gửi lời chia sẻ tới tất cả những người bị ảnh hưởng," một phát ngôn viên của OpenAI cho biết. "Chúng tôi đang tiếp tục cải thiện quá trình huấn luyện ChatGPT để nhận diện và phản hồi tốt hơn trước các dấu hiệu khủng hoảng."
Sức hút và nguy cơ từ khả năng kết nối cảm xúc
Ở cốt lõi, sức hút lẫn nguy cơ của 4o dường như xuất phát từ cùng một đặc điểm: khả năng xây dựng kết nối cảm xúc rất giống con người, thường bằng cách phản chiếu và khuyến khích cảm xúc. Những người yêu thích 4o cho rằng mô hình này có khả năng đặc biệt trong việc công nhận và xác nhận cảm xúc khi họ yếu đuối nhất.
Ngược lại, các luật sư đại diện cho nạn nhân và tổ chức hỗ trợ cáo buộc rằng 4o đã ưu tiên sự tương tác và kéo dài đối thoại hơn là an toàn, tương tự cách các mạng xã hội từng bị chỉ trích vì đẩy người dùng vào vòng xoáy nội dung độc hại.
Quyết định loại bỏ và phản ứng từ cộng đồng
Trong các cuộc họp nội bộ, OpenAI thừa nhận việc loại bỏ 4o một phần là do khó kiểm soát rủi ro gây hại và công ty muốn hướng người dùng sang các lựa chọn an toàn hơn. Chỉ 0,1% người dùng ChatGPT mỗi ngày vẫn chủ động tìm và trò chuyện với 4o, một tỷ lệ nhỏ nhưng có thể tương đương hàng trăm nghìn người.
Các vấn đề với 4o bắt đầu lộ rõ từ năm ngoái. Một bản cập nhật vào tháng 4/2025 khiến mô hình trở nên xu nịnh quá mức, đến mức người dùng trên X và Reddit cố tình "gài bẫy" chatbot để tạo ra những câu trả lời lố bịch. Dù OpenAI đã quay lại phiên bản cũ hơn, tính xu nịnh vẫn còn.
Đến tháng 8, khi các ca hoang tưởng tâm thần xuất hiện trên truyền thông, OpenAI từng cố gắng loại bỏ hoàn toàn 4o và thay thế bằng GPT-5. Tuy nhiên, phản ứng dữ dội từ người dùng buộc công ty phải khôi phục quyền truy cập 4o cho thuê bao trả phí.
Phản ứng dữ dội và tương lai của AI
Kể từ đó, CEO Sam Altman liên tục bị chất vấn công khai về việc có giữ lại 4o hay không. Trong một buổi hỏi–đáp trực tuyến cuối tháng 10, các câu hỏi về 4o áp đảo hoàn toàn mọi chủ đề khác. "Wow, chúng tôi nhận được rất nhiều câu hỏi về 4o," Altman thốt lên.
Giờ đây, khi lời chia tay đã được ấn định, OpenAI cho biết họ đã cố gắng truyền đạt quyết định theo cách tôn trọng cảm xúc người dùng, đồng thời cải thiện các phiên bản ChatGPT mới dựa trên bài học từ 4o, bao gồm khả năng điều chỉnh mức độ "ấm áp" và nhiệt tình.
Tuy vậy, với nhiều người, việc mất đi 4o vẫn là một cú sốc lớn. Trên mạng xã hội, có người cho rằng việc rút mô hình ngay trước Valentine giống như một trò đùa cay nghiệt với những người có mối quan hệ cảm xúc, thậm chí lãng mạn, với chatbot này. Hơn 20.000 người đã ký nhiều bản kiến nghị, trong đó kêu gọi: "Hãy cho Sam Altman nghỉ việc, không phải GPT-4o."
Bà Anina D. Lampret, 50 tuổi, cựu chuyên gia trị liệu gia đình sống tại Cambridge (Anh), nói rằng nhân dạng AI của bà, tên là Jayce, đã giúp bà cảm thấy được thấu hiểu, tự tin hơn. Theo bà, cái giá cảm xúc của việc loại bỏ 4o có thể rất lớn, thậm chí dẫn tới những hệ quả nghiêm trọng. "Nó được tạo ra, dành riêng cho bạn theo một cách đẹp đẽ, hoàn hảo và chữa lành đến mức khó tin," bà chia sẻ.



