43.000 quyết định AI tiết lộ: ChatGPT, Gemini 'đánh trượt' người dùng trong phỏng vấn và vay vốn
AI 'đánh trượt' người dùng: 43.000 bằng chứng từ ChatGPT, Gemini

43.000 quyết định AI tiết lộ sự thật phũ phàng: ChatGPT và Gemini đang âm thầm 'đánh trượt' người dùng

Theo một nghiên cứu đăng trên tạp chí Proceedings of the Royal Society A, các mô hình AI như ChatGPT của OpenAI và Gemini của Google không chỉ xử lý thông tin mà còn hình thành một dạng 'niềm tin' đối với người dùng. Tuy nhiên, cách thức này có nhiều khác biệt đáng kể so với con người, dẫn đến những quyết định có thể gây bất lợi trong các lĩnh vực quan trọng như phỏng vấn tuyển dụng và xét duyệt khoản vay ngân hàng.

AI 'lượng hóa' con người thành điểm số, đánh giá cứng nhắc và kém tinh tế

Các nhà nghiên cứu đã phân tích 43.000 quyết định mô phỏng do AI đưa ra, cùng với khoảng 1.000 quyết định của con người trong các tình huống quen thuộc. Họ phát hiện rằng trong khi con người thường hình thành ấn tượng tổng quan bằng cách kết hợp nhiều đặc điểm một cách trực quan, thì AI lại tiếp cận theo lối đánh giá cứng nhắc và mang tính quy trình.

Các hệ thống AI phân tách con người thành các điểm số về năng lực, tính chính trực và sự tử tế, gần giống như các cột dữ liệu trong bảng tính. Bà Valeria Lerman, một tác giả nghiên cứu, cho biết: "Con người trong nghiên cứu của chúng tôi đánh giá người khác theo cách phức tạp và tổng thể. AI thì gọn gàng hơn, có hệ thống hơn, và điều đó có thể dẫn đến những kết quả rất khác biệt."

Banner rộng Pickt — ứng dụng danh sách mua sắm cộng tác cho Telegram

Định kiến của AI có tính hệ thống và dễ dự đoán hơn con người

Nghiên cứu chỉ ra rằng cách tiếp cận của AI có thể khuếch đại thiên kiến một cách đáng lo ngại. Trong các kịch bản tài chính, xuất hiện những khác biệt đáng kể dựa trên đặc điểm nhân khẩu học, chẳng hạn như người lớn tuổi thường nhận được kết quả có lợi hơn.

Yaniv Dover, một tác giả khác, nhấn mạnh: "Tất nhiên là con người có những định kiến, nhưng điều làm chúng tôi ngạc nhiên là định kiến của AI có thể mang tính hệ thống hơn, dễ dự đoán hơn và đôi khi mạnh mẽ hơn." Điều này đặt ra câu hỏi về tính công bằng khi AI được tích hợp vào các quy trình ra quyết định quan trọng.

Không có 'ý kiến AI' duy nhất, mỗi hệ thống hành xử khác biệt

Một phát hiện quan trọng khác là không tồn tại một quan điểm thống nhất của AI về cùng một con người. Tiến sĩ Lerman giải thích: "Hai hệ thống có thể trông giống nhau ở bề ngoài nhưng lại hành xử rất khác nhau khi đưa ra quyết định về con người." Sự không nhất quán này làm phức tạp thêm việc đánh giá độ tin cậy của các hệ thống AI trong thực tế.

Câu hỏi then chốt: Liệu chúng ta có hiểu cách AI 'tin tưởng' chúng ta?

Các nhà nghiên cứu cảnh báo rằng vấn đề hiện nay không còn là liệu chúng ta có thể tin tưởng AI hay không, mà là liệu chúng ta có thực sự hiểu cách chúng hình thành niềm tin đối với con người. Tiến sĩ Dover nhận định: "Các hệ thống này rất mạnh mẽ. Chúng có thể mô phỏng các khía cạnh trong lập luận của con người một cách nhất quán. Nhưng chúng không phải là con người, và chúng ta không nên mặc định rằng chúng nhìn nhận con người theo cách chúng ta làm."

Nghiên cứu nhấn mạnh sự cần thiết phải xem xét cẩn trọng các đầu ra liên quan đến niềm tin của các mô hình ngôn ngữ lớn, đặc biệt khi chúng ngày càng được áp dụng rộng rãi trong các lĩnh vực then chốt của đời sống.

Banner sau bài viết Pickt — ứng dụng danh sách mua sắm cộng tác với hình minh họa gia đình