Kính thông minh Meta Ray-Ban AI gây bão: Video phòng tắm, mã ngân hàng bị nhân viên Kenya xem trộm
Kính Meta Ray-Ban AI gây bão: Video riêng tư bị xem trộm

Kính thông minh Meta Ray-Ban AI gây bão: Video phòng tắm, mã ngân hàng bị nhân viên Kenya xem trộm

Hơn 7 triệu chiếc kính Ray-Ban AI đã được Meta bán ra thành công trong năm 2025, nhưng một cuộc điều tra báo chí mới đây đã làm dấy lên những lo ngại sâu sắc về cách dữ liệu người dùng từ thiết bị này đang được xử lý. Thông tin gây sốc cho thấy nhiều đoạn video riêng tư do kính thông minh ghi lại có thể đang được các nhân viên hợp đồng ở Kenya xem trực tiếp.

Dữ liệu nhạy cảm được chuyển đến Kenya để huấn luyện AI

Theo kết quả điều tra chi tiết, một phần video được ghi lại từ kính Ray-Ban AI đã được chuyển tới Sama, một công ty chuyên gắn nhãn dữ liệu có trụ sở chính tại Kenya. Tại đây, các nhân viên hợp đồng được giao nhiệm vụ xem lại những đoạn video này nhằm phục vụ quá trình huấn luyện và cải thiện các mô hình trí tuệ nhân tạo tiên tiến của Meta.

Các nhân viên tham gia vào công việc nhạy cảm này đã tiết lộ rằng họ thường xuyên phải tiếp xúc với những nội dung mang tính riêng tư cực cao. Trong số đó, không ít video ghi lại cảnh người dùng đang thay quần áo, sử dụng phòng tắm hoặc tham gia vào các hoạt động thân mật. Đáng báo động hơn, một số đoạn phim còn vô tình để lộ thông tin cực kỳ nhạy cảm như số thẻ ngân hàng, mã PIN hoặc các dữ liệu cá nhân khác.

Banner rộng Pickt — ứng dụng danh sách mua sắm cộng tác cho Telegram

Người dùng không hề hay biết về sự xâm phạm quyền riêng tư

Một nhân viên trực tiếp tham gia vào quy trình xử lý dữ liệu đã chia sẻ quan điểm rằng nhiều người dùng dường như hoàn toàn không ý thức được rằng những khoảnh khắc riêng tư của họ có thể bị người khác nhìn thấy. Theo nhận định của người này, nếu người dùng thực sự nhận thức được điều đó, họ chắc chắn sẽ cân nhắc kỹ lưỡng hơn và có thể sẽ không ghi lại những cảnh quay mang tính chất cá nhân như vậy.

Phía Meta đã lên tiếng phản hồi bằng cách khẳng định rằng việc sử dụng dữ liệu theo cách thức này đã được đề cập và nêu rõ trong các điều khoản dịch vụ của công ty. Tuy nhiên, thông tin quan trọng này lại nằm ẩn trong phần điều khoản liên quan đến các tính năng AI và chỉ khuyến cáo chung chung rằng người dùng không nên ghi lại các thông tin nhạy cảm.

Công cụ bảo vệ danh tính hoạt động không hiệu quả

Về các biện pháp bảo vệ quyền riêng tư được cho là đã áp dụng, Meta tuyên bố đã sử dụng công cụ làm mờ danh tính tự động trong các video. Thế nhưng, các nhân viên xử lý dữ liệu tại Kenya lại tiết lộ một thực tế đáng lo ngại: công cụ này thường xuyên hoạt động không hiệu quả, dẫn đến việc khuôn mặt của những người xuất hiện trong video vẫn có thể dễ dàng nhận diện được.

Các chuyên gia hàng đầu trong lĩnh vực bảo vệ dữ liệu cũng đưa ra lời cảnh báo nghiêm trọng. Họ nhấn mạnh rằng một khi các đoạn video đã được đưa vào quá trình huấn luyện mô hình AI, người dùng trên thực tế gần như mất hoàn toàn quyền kiểm soát đối với cách thức mà dữ liệu đó sẽ được sử dụng trong tương lai.

Khoảng cách giữa quảng cáo và thực tế xử lý dữ liệu

Những tiết lộ gây chấn động từ cuộc điều tra này đã làm dấy lên thêm nhiều tranh luận sôi nổi về khoảng cách đáng kể giữa cách các thiết bị AI được quảng bá rầm rộ trên thị trường và cách dữ liệu người dùng thực sự được xử lý trong hệ thống phía sau. Sự việc một lần nữa đặt ra câu hỏi lớn về trách nhiệm của các tập đoàn công nghệ trong việc bảo vệ quyền riêng tư tối thiểu của người tiêu dùng.

Banner sau bài viết Pickt — ứng dụng danh sách mua sắm cộng tác với hình minh họa gia đình

Với hơn 7 triệu sản phẩm đã được bán ra, vụ việc không chỉ là một bê bối riêng tư mà còn có thể trở thành bài học đắt giá về đạo đức trong phát triển và ứng dụng trí tuệ nhân tạo. Người dùng cần được trang bị kiến thức đầy đủ và minh bạch hơn về cách dữ liệu của họ được thu thập, xử lý và chia sẻ, đặc biệt là với những thiết bị có khả năng ghi hình mọi lúc mọi nơi như kính thông minh.