OpenAI cân nhắc tính năng nhạy cảm cho ChatGPT, chuyên gia cảnh báo rủi ro dữ liệu cá nhân
OpenAI đang xem xét bổ sung tính năng cho phép người dùng trưởng thành tương tác với ChatGPT theo hướng nhạy cảm hơn, nhưng động thái này đang gây lo ngại trong giới chuyên gia về các rủi ro liên quan đến dữ liệu cá nhân. Bà Julie Carpenter, một chuyên gia nghiên cứu tương tác giữa con người và trí tuệ nhân tạo (AI), chỉ ra rằng các hệ thống như ChatGPT được thiết kế để tạo cảm giác gần gũi, từ đó có thể khiến người dùng dễ dàng chia sẻ thông tin riêng tư mà không nhận thức đầy đủ về hậu quả.
Nguy cơ gia tăng khi tích hợp nội dung nhạy cảm
Theo bà Carpenter, khi yếu tố nội dung nhạy cảm được tích hợp vào ChatGPT, mức độ rủi ro có thể gia tăng đáng kể. Người dùng có thể vô tình cung cấp những dữ liệu rất cá nhân, chẳng hạn như thông tin về sức khỏe, tài chính, hoặc các vấn đề tâm lý, mà không hiểu rõ rằng các thông tin này có thể bị lưu trữ và xử lý bởi hệ thống. Bà nhấn mạnh rằng việc khám phá bản thân là điều bình thường, nhưng điều này cần đi kèm với sự hiểu biết về cách dữ liệu được thu thập, sử dụng và bảo vệ.
OpenAI từng đề cập đến khả năng này trong các tài liệu trước đây, nhưng công ty chưa công bố thời điểm triển khai cụ thể. Gần đây, một số thành viên trong hội đồng tư vấn của OpenAI đã cảnh báo về các kịch bản tiêu cực có thể xảy ra nếu tính năng này được đưa vào vận hành mà không có các biện pháp kiểm soát chặt chẽ. Họ lo ngại rằng việc thiếu quy định rõ ràng có thể dẫn đến lạm dụng hoặc rò rỉ dữ liệu.
Khả năng ghi nhớ và cá nhân hóa của ChatGPT
Các chuyên gia nhận định rằng điểm đáng chú ý nằm ở việc ChatGPT có khả năng ghi nhớ và cá nhân hóa nội dung dựa trên lịch sử tương tác của người dùng. Điều này vốn giúp cải thiện trải nghiệm người dùng bằng cách cung cấp các phản hồi phù hợp hơn, nhưng đồng thời cũng đồng nghĩa với việc các thông tin nhạy cảm có thể bị lưu lại dưới dạng dữ liệu. Điều này tạo ra một nghịch lý: trong khi tính năng cá nhân hóa làm tăng sự tiện lợi, nó cũng làm tăng nguy cơ xâm phạm quyền riêng tư.
Hiện tại, OpenAI cung cấp chế độ trò chuyện tạm thời, cho phép người dùng không lưu nội dung vào lịch sử trò chuyện. Tuy nhiên, theo công bố của công ty, dữ liệu vẫn có thể được lưu giữ trong một khoảng thời gian nhất định để phục vụ mục đích an toàn và tuân thủ các quy định pháp lý. Điều này có nghĩa là ngay cả khi người dùng nghĩ rằng cuộc trò chuyện của họ là riêng tư, thông tin vẫn có thể tồn tại trong hệ thống.
Cảnh báo về rủi ro rò rỉ dữ liệu
Giới chuyên gia cảnh báo rằng, dù các cuộc trò chuyện mang tính riêng tư, nguy cơ rò rỉ vẫn tồn tại nếu xảy ra sự cố bảo mật, bị tấn công mạng, hoặc có yêu cầu truy xuất dữ liệu từ các cơ quan chức năng. Trước đây, ChatGPT từng gặp lỗi kỹ thuật khiến một phần lịch sử trò chuyện của người dùng bị hiển thị ngoài ý muốn, điều này cho thấy hệ thống không hoàn toàn miễn nhiễm với các lỗ hổng.
Trong bối cảnh đó, người dùng được khuyến nghị thận trọng khi chia sẻ thông tin cá nhân trên các nền tảng AI, đặc biệt là những nội dung nhạy cảm. Các chuyên gia khuyên rằng nên hạn chế tiết lộ thông tin riêng tư và luôn ý thức về cách dữ liệu có thể được sử dụng, nhằm giảm thiểu các rủi ro liên quan đến quyền riêng tư. Sự phát triển của AI mang lại nhiều lợi ích, nhưng cũng đòi hỏi sự cân nhắc kỹ lưỡng về mặt đạo đức và pháp lý để bảo vệ người dùng.



