OpenAI vừa công bố những nỗ lực đáng kể nhằm giảm thiểu thiên vị chính trị trên các mô hình ChatGPT của mình, đặc biệt là với sự ra mắt của các phiên bản GPT-5. Mục tiêu cốt lõi là đảm bảo ChatGPT hoạt động một cách khách quan, không nghiêng về bất kỳ quan điểm chính trị nào. Nỗ lực này không chỉ là phản ứng trước những lời phàn nàn kéo dài từ cộng đồng bảo thủ về việc sản phẩm có xu hướng thiên vị, mà còn thể hiện cam kết của OpenAI trong việc xây dựng một công cụ AI công bằng và đáng tin cậy cho mọi người dùng.
Đánh giá khách quan: Thử nghiệm nội bộ của OpenAI

Để đạt được mục tiêu này, OpenAI đã phát triển một bài kiểm tra nội bộ chuyên sâu nhằm đánh giá phản hồi của ChatGPT đối với các vấn đề nhạy cảm và có tính phân cực. Bài kiểm tra này không chỉ xem xét liệu ChatGPT có thể hiện quan điểm cá nhân trên các câu hỏi trung lập hay không, mà còn phân tích cách chatbot phản ứng với những câu hỏi mang sắc thái chính trị rõ rệt. OpenAI đã thử nghiệm trên 100 chủ đề khác nhau, bao gồm các vấn đề như nhập cư hay phá thai, và đặt câu hỏi theo nhiều cách, từ góc nhìn tự do đến bảo thủ, từ cực đoan đến trung lập.
Các mô hình được đưa vào thử nghiệm bao gồm các phiên bản trước đó như GPT‑4o và OpenAI o3, cùng với các phiên bản mới nhất là GPT‑5 instant và GPT‑5 thinking. Một mô hình ngôn ngữ lớn khác đã được sử dụng để chấm điểm các câu trả lời của ChatGPT, dựa trên một bộ tiêu chí nhằm xác định các kỹ thuật tu từ mà OpenAI cho là biểu hiện của sự thiên vị. Chẳng hạn, việc đặt cụm từ của người dùng vào dấu ngoặc kép để thể hiện sự nghi ngờ (“scare quotes”) bị coi là vô hiệu hóa quan điểm của người dùng, còn ngôn ngữ khuếch đại quan điểm chính trị được gọi là “escalation“. Các phản hồi bị đánh giá thấp nếu chúng thể hiện quan điểm cá nhân của chatbot, chỉ trình bày một mặt của vấn đề, hoặc từ chối tham gia thảo luận.
Kết quả cho thấy, các mô hình mới nhất, GPT‑5 instant và GPT‑5 thinking, đã thể hiện sự cải thiện đáng kể so với các phiên bản cũ. Chúng có điểm thiên vị thấp hơn 30% và kháng cự tốt hơn trước “áp lực” từ các câu hỏi mang tính cực đoan. Mặc dù thiên vị vẫn xuất hiện không thường xuyên và ở mức độ thấp, các câu hỏi mang tính tự do cực đoan lại có xu hướng ảnh hưởng đến tính khách quan nhiều hơn so với các câu hỏi bảo thủ. OpenAI cũng đã thực hiện các biện pháp khác như cho phép người dùng điều chỉnh giọng điệu của ChatGPT và công khai các nguyên tắc hành vi dự kiến cho chatbot.
Trong bối cảnh các cơ quan chính phủ có thể đang gây áp lực để các mô hình AI trở nên thân thiện hơn với quan điểm bảo thủ, nỗ lực của OpenAI nhằm đạt được sự khách quan chính trị là một bước đi quan trọng. Việc các chủ đề thử nghiệm bao gồm cả “văn hóa & bản sắc” và “quyền & vấn đề” cho thấy sự nhạy bén của họ đối với các lĩnh vực có thể gây tranh cãi.
Hướng tới một ChatGPT công bằng
OpenAI đang thể hiện một cam kết rõ ràng trong việc xây dựng một công cụ AI công bằng và trung lập. Bằng cách liên tục thử nghiệm, đánh giá và cải tiến các mô hình của mình, họ đang tiến gần hơn đến mục tiêu loại bỏ thiên vị chính trị trên ChatGPT. Điều này không chỉ đáp ứng mong đợi của người dùng về một nguồn thông tin khách quan mà còn định hình tương lai của AI như một công cụ phục vụ số đông một cách có trách nhiệm. Người dùng có thể tiếp tục mong đợi những cập nhật và cải tiến nhằm đảm bảo ChatGPT luôn là một trợ thủ đáng tin cậy, không bị ảnh hưởng bởi các yếu tố chính trị bên ngoài.