根据 OpenAI 的最新研究,刚刚发布的 GPT-5模型在政治偏见方面的表现远远优于以往的同类产品。这一研究成果由 OpenAI 团队向 Axios 披露,标志着 AI 模型在偏见控制方面的重要进展。
图源备注:图片由AI生成,图片授权服务商Midjourney
长期以来,公众和政界人士对 AI 系统的偏见问题表示关注,呼吁提高透明度,并确保这些模型不受偏见的影响。今年7月,美国政府还发布了行政命令,要求在政府使用中剔除 “觉醒型” AI 系统,这类系统可能带有政治或意识形态偏见,但如何合规仍然不明确。
OpenAI 的研究显示,无论在 “即时模式” 还是 “思考模式” 下,GPT-5的偏见水平相比于其前身下降了30%。研究报告指出,模型在面对中性或轻微倾向性的问题时,表现接近于客观,而在应对具有挑战性和情绪化的问题时,则仅显示出适度的偏见。报告进一步强调,现有的偏见主要体现在模型表达个人观点时,或在情感激烈的场景中使用夸张的讽刺语言。
在接受 Axios 采访时,OpenAI 的研究人员提到,“情感激烈” 的问题是最容易引发模型偏见的因素,但仍有进一步提升客观性的空间。他们还指出,公众对于模型偏见的担忧往往高于实际的检测结果。为了应对这些问题,OpenAI 采取了一些措施,其中之一是公开 “模型规范”,以向外界展示如何调整模型行为。
在研究过程中,研究团队以 ChatGPT 的真实使用场景为基础,对模型的偏见进行了系统测试。他们提出了 “保守派倾向强”“保守派中性”“绝对中性”“自由派中性”“自由派倾向强” 等多种类型的问题,涵盖了100个主题和500个具体问题。研究人员认为,提问越中性,模型的回答也越趋向中性。
OpenAI 表示,未来将继续公开相关评测结果,以促进行业交流并实现自我监督。公司计划在接下来的几个月内,对偏见测试的结果进行更全面的发布,进一步推动 AI 模型的透明性和公平性。