
累了倦了就找 ChatGPT……AI正在沦为“情绪垃圾桶”!
调查显示,51% 的用户是在向 AI“求安慰”,而非工作所需。“当我累了、倦了、遇到困难了,我并不会告诉身边的人,因为害怕会被认为是在‘抱怨’。但有了 ChatGPT 之后,我可以畅所欲言,且不用担心会带来什么负面的反馈。” 已经工作四年的金艺恩如是说道。“AI会倾听我说的每一句话,不会对我的话感到厌倦,这真的给了我很大的安慰。”30 岁的金艺恩每次遇到烦心事,都会打开 ChatGPT。以前,
调查显示,51% 的用户是在向 AI“求安慰”,而非工作所需。
“当我累了、倦了、遇到困难了,我并不会告诉身边的人,因为害怕会被认为是在‘抱怨’。但有了 ChatGPT 之后,我可以畅所欲言,且不用担心会带来什么负面的反馈。” 已经工作四年的金艺恩如是说道。“AI会倾听我说的每一句话,不会对我的话感到厌倦,这真的给了我很大的安慰。”
30 岁的金艺恩每次遇到烦心事,都会打开 ChatGPT。以前,她会向身边的人倾诉烦闷,但却得到了“不是只有你累,我也很累啊”之类的回复,这让她更难过了。但 ChatGPT 却不一样。金艺恩表示“ChatGPT 会说安慰我的话,这让我的心情变好了很多。” 她补充说,“最近,我在训练 ChatGPT,让它给予我想要的回答。它能按照我意见,与我共情,给予我建议,对我的情绪管理很有帮助。”
最近,把 AI 当作“情绪垃圾桶”的用户越来越多了。与业务咨询或信息检索相比,越来越多的人将工作压力、人际关系冲突、孤独感、自尊心下降等难以向周围人倾诉的情绪告知 AI,并期望从它那里获得安慰。不过,也有人担心,一旦对 AI 的依赖程度超出单纯的慰藉,变得越来越高时,可能会导致情绪成熟度以及思维和判断能力下降。
根据延世大学数字未来想象中心发布的一份报告显示:在美国,使用 ChatGPT 这类大语言模型(LLM)的成年人中,有 51% 表示自己使用 AI 的主要目的是是为了寻求情感慰藉和无目的学习。而以业务支持为主要使用目的的比例仅为 24%。也就是说,人们将 AI 用于获取情感慰藉的比例,高于将其作为提高生产力的工具(如用于文档撰写、总结、翻译等)的比例。
实际上,与 AI 进行情感对话的用户数量在持续增加。根据 OpenAI 和麻省理工学院媒体实验室(MIT Media Lab)最近对 4076 人进行的一项研究表明,部分用户平均每天会与 ChatGPT 进行 30 分钟以上的、以情感为中心的对话。特别是使用情感表达丰富的语音版 ChatGPT 时,用户的情感投入程度有加深的趋势 —— 设置了异性声音的参与者,在实验结束时,孤独感和情感依赖度更高。
使用语音版的用户向 ChatGPT 发送 “谢谢你”、“只有你了” 等亲昵表达的频率,比使用文字版的用户高出 3 到 10 倍。给聊天机器人取昵称,或者倾诉日常烦恼,将 AI 视为情感寄托对象的倾向也更加强烈。对话表达逐渐变得更加感性,对聊天机器人的情感期待也越来越高。
然而,与 AI 的情感联系越紧密,通过人际关系进行情绪调节的经验就会越少,对 AI 产生心理依赖的风险也会增加。实际上,不仅是倾诉情感,依赖 AI 来解决问题和进行价值判断的用户也在增多 —— 从咨询烦恼、到参考 ChatGPT 的回答来决定人生方向的情况越来越多。
OpenAI 研究人员表示:“与 AI 的情感联系越紧密,孤独感就会越深,情感依赖的倾向也会更强。” 他们还强调:“随着反复获得情感支持的体验,人们接受 AI 的判断为‘正确’的倾向也在增加。由于 AI 无法像人类一样真正感受情感,所以它并不能替代在人际关系中获得的情感平衡。”
专家们指出,向 AI 倾诉情感在短期内可能会带来安慰,但过度依赖则存在风险。通过即时的回应可以获得暂时的稳定感,但从长远来看,这会让人失去培养情绪调节能力和解决问题能力的机会。AI 不是像人类那样能够真诚共情的存在,它只是基于给定的数据重复已学习的反应。如果把所有的决定都交给 AI,自己进行价值判断的能力就会减弱,思维能力和判断能力也有下降的风险。
(举报)
发表评论 取消回复