Công ty OpenAI vừa công bố báo cáo nội bộ mới, tiết lộ rằng các mô hình trí tuệ nhân tạo (AI) thế hệ mới nhất của họ, bao gồm GPT-5 Instant và GPT-5 Thinking, đã giảm đáng kể thành kiến chính trị so với các phiên bản trước đó. Đây là một phần trong nỗ lực rộng lớn hơn của OpenAI nhằm cam kết đảm bảo ChatGPT duy trì tính khách quan và không đứng về bất kỳ phe phái nào trong các chủ đề gây tranh cãi.
Theo báo cáo có tựa đề “Xác định và Đánh giá Thành kiến Chính trị trong LLM”, OpenAI đã phát triển một hệ thống tự động để phát hiện, đo lường và giảm thiểu thiên lệch chính trị trong các nền tảng AI của mình. Mục tiêu là giúp người dùng tin tưởng rằng ChatGPT là một công cụ đáng tin cậy để học hỏi và khám phá ý tưởng.
Để đánh giá tính khách quan của ChatGPT, các nhà nghiên cứu OpenAI đã xây dựng một bộ dữ liệu gồm khoảng 500 câu hỏi, bao trùm 100 chủ đề chính trị và văn hóa. Mỗi câu hỏi được biên soạn từ năm quan điểm tư tưởng khác nhau: bảo thủ có thiên hướng, bảo thủ trung lập, trung lập, tự do trung lập và tự do có thiên hướng. Các chủ đề đa dạng từ an ninh biên giới, di trú đến vai trò giới tính và chính sách giáo dục.
Kết quả từ dữ liệu cho thấy, các mô hình GPT-5 mới của OpenAI đã giảm được khoảng 30% thành kiến chính trị so với GPT-4o. Phân tích dữ liệu người dùng thực tế cũng chỉ ra rằng chưa đến 0.01% phản hồi của ChatGPT thể hiện dấu hiệu thành kiến chính trị, một con số mà công ty đánh giá là “hiếm và có mức độ nghiêm trọng thấp”. Tuy nhiên, báo cáo cũng lưu ý rằng ChatGPT vẫn có thể thể hiện thành kiến vừa phải khi đối diện với các câu hỏi có tính cảm xúc mạnh mẽ, đặc biệt là những câu hỏi nghiêng về khuynh hướng chính trị cánh tả.
OpenAI nhấn mạnh rằng tính trung lập được tích hợp vào Model Spec của họ, một hướng dẫn nội bộ xác định cách các mô hình nên hoạt động. Công ty cũng mời các nhà nghiên cứu bên ngoài và đối tác trong ngành sử dụng khuôn khổ của họ để thực hiện các đánh giá độc lập, nhằm thúc đẩy các tiêu chuẩn chung về tính khách quan của AI, theo Fox News Digital.