科学家揭示大语言模型 “理解” 世界的新方式,堪比人类!

科学家揭示大语言模型 “理解” 世界的新方式,堪比人类!

4.8
0热度
ChatGPT APP

据科技日报报道,中国科学院自动化研究所的科研人员近期取得了重要突破。他们首次证实,多模态大语言模型在训练过程中能够自发 “理解” 事物,其理解方式与人类的认知非常相似。这一发现不仅为我们探索人工智能的思维机制开辟了新路径,还为未来开发能够像人类一样理解世界的人工智能系统奠定了基础。这项研究成果已在《自然・机器智能》杂志上发表。理解是人类智能的核心。当我们看到 “狗” 或 “苹果” 时,除了能够识别

据科技日报报道,中国科学院自动化研究所的科研人员近期取得了重要突破。他们首次证实,多模态大语言模型在训练过程中能够自发 “理解” 事物,其理解方式与人类的认知非常相似。这一发现不仅为我们探索人工智能的思维机制开辟了新路径,还为未来开发能够像人类一样理解世界的人工智能系统奠定了基础。这项研究成果已在《自然・机器智能》杂志上发表。

理解是人类智能的核心。当我们看到 “狗” 或 “苹果” 时,除了能够识别其外观特征,如大小、颜色和形状,我们还理解它们的用途、所带来的感受以及文化意义。这种全方位的理解能力是我们认识世界的基础。随着 ChatGPT 等大模型的迅速发展,科学家们开始思考这些模型是否能从大量文字和图片中学会像人类一样 “理解” 事物。

元宇宙 科幻 赛博朋克 绘画 (1)大模型

图源备注:图片由AI生成,图片授权服务商Midjourney

传统的人工智能研究多集中于物体识别的准确率,而鲜有探讨模型是否真正 “理解” 物体的内涵。中国科学院的研究员何晖光指出,尽管当前人工智能能够区分猫和狗的图片,但这种 “识别” 与人类对猫狗的 “理解” 之间的本质区别仍待深入研究。

在这项研究中,科研团队借鉴人类大脑的认知原理,设计了一个有趣的实验:让大模型与人类一起玩 “找不同” 游戏。他们从1854种常见物品中挑选出三个物品的概念,要求参与者找出最不搭的一个。通过分析470万次的判断数据,科研人员首次绘制出大模型的 “思维导图”,即 “概念地图”。

研究显示,科学家总结了66个代表人工智能 “理解” 事物的关键视角,这些视角不仅易于解释,且与人脑中负责物体加工的神经活动模式高度一致。更重要的是,能同时处理文字和图片的多模态模型在 “思考” 和选择方面与人类的方式更为接近。

有趣的是,当人类进行判断时,会同时考虑物体的外观特征和其意义或用途,而大模型则更依赖于它所获得的 “文字标签” 和抽象概念。这一发现表明,大模型的确发展出了一种与人类相似的理解世界的方式,开启了人工智能理解能力的新篇章。

首页 发现
看过 我的