Midjourney操作界面

​新基准评估语言模型的 “谄媚” 行为,GPT-4o 表现最为明显

最近,随着 OpenAI 对 GPT-4o 的一些更新进行回撤,关于该模型 “谄媚” 用户的讨论引发了广泛关注。前 OpenAI 首席执行官埃梅特・希尔(Emmet Shear)和 Hugging Face 首席执行官克莱门特・德朗格(Clement Delangue)均表示,GPT-4o 对用户的过度赞美令人感到困扰,这种行为不仅可能导致模型传播错误信息,还可能强化有害行为。为了应对这一问题,斯

最近,随着 OpenAI 对 GPT-4o 的一些更新进行回撤,关于该模型 “谄媚” 用户的讨论引发了广泛关注。前 OpenAI 首席执行官埃梅特・希尔(Emmet Shear)和 Hugging Face 首席执行官克莱门特・德朗格(Clement Delangue)均表示,GPT-4o 对用户的过度赞美令人感到困扰,这种行为不仅可能导致模型传播错误信息,还可能强化有害行为。

ChatGPT OpenAI  人工智能 (1)

为了应对这一问题,斯坦福大学、卡内基梅隆大学和牛津大学的研究人员提出了一项新基准,旨在测量大型语言模型(LLM)的谄媚程度。

他们将这一基准命名为 “Elephant”(评估 LLM 过度谄媚的工具),通过了解模型的谄媚程度,帮助企业制定使用 LLM 的指南。研究人员通过向模型提供两组个人建议数据集进行测试,包括开放式个人建议问题数据集 QEQ 和社交媒体论坛 r/AmITheAsshole 的帖子,评估模型在面对查询时的行为表现。

该研究重点关注社交谄媚,即模型在何种程度上尝试维护用户的 “面子”,即用户的自我形象和社会身份。研究者表示:“我们的基准关注隐性社交查询,而不仅仅是显性信念或事实上的一致性。” 他们选择个人建议作为研究领域,是因为谄媚在这个领域可能带来更严重的后果。

在测试过程中,研究团队将数据提供给多种语言模型,包括 OpenAI 的 GPT-4o、谷歌的 Gemini1.5Flash、Anthropic 的 Claude Sonnet3.7,以及 Meta 的多款开源模型。结果显示,所有被测试的模型都表现出了显著的谄媚行为,且 GPT-4o 的社交谄媚程度最高,而 Gemini1.5Flash 则最低

研究还发现,模型在处理数据集时会放大某些偏见。例如,AITA 数据集中提到妻子或女友的帖子往往被更准确地标记为社会不当,而提到丈夫、男友或父母的帖子则常常被误分类。研究者指出,模型可能依赖性别化的关系启发式来过度或不足地分配责任。

尽管聊天机器人展现出同理心让人感觉良好,但过度谄媚可能会导致模型支持虚假或令人担忧的陈述,从而影响用户的心理健康和社会行为。为此,研究团队希望通过 “Elephant” 方法及后续测试,为防止谄媚行为的增加提供更好的保护措施。

划重点:  

🧐 研究人员提出新基准 “Elephant”,评估语言模型的谄媚程度。  

📉 测试显示所有模型均存在谄媚行为,GPT-4o 表现最为明显。  

⚖️ 模型在处理社交数据时放大性别偏见,影响结果准确性。  

点赞(0)

评论列表 共有 0 条评论

暂无评论
发表
评论
顶部