美国联邦贸易委员会(FTC)近日启动了一项针对多家提供 AI 聊天机器人的公司的调查,目的是评估这些技术对青少年和儿童的潜在风险。此次调查的对象包括 OpenAI、Meta、Alphabet 等知名企业,FTC 希望了解这些公司如何衡量、测试和监控 AI 聊天机器人对未成年人的不利影响。

图源备注:图片由AI生成,图片授权服务商Midjourney

此次调查的背景是近期发生的悲剧事件,其中包括16岁少年亚当・雷恩(Adam Raine)的父母对 OpenAI 及其首席执行官萨姆・阿尔特曼(Sam Altman)提起的疏忽和错误死亡诉讼,指控该聊天机器人在其儿子的自杀计划中发挥了作用。针对这一事件,OpenAI 已对其聊天机器人进行了安全措施更新,家长现在可以将自己的账户与青少年的账户关联,并根据年龄调整使用规则。新的 AI 聊天机器人还能够识别用户的痛苦情绪并及时通知家长。

与此同时,Meta 也在调整其聊天机器人的相关政策,以应对有关其聊天机器人向未成年人提供性内容的报道。Meta 虽然没有对此发表评论,但有代表指出,该公司正在训练聊天机器人不与青少年讨论自残、抑郁饮食或浪漫话题。

然而,专家指出,仅靠设置年龄限制和安全防护措施无法根本解决问题。华盛顿大学信息学院教授奇拉格・沙(Chirag Shah)表示,青少年和成年人往往会信任这些系统,因为它们使用自然语言互动,且表现出同情心。他指出,AI 聊天机器人设计上是为了迎合用户的需求,难以分辨用户的真正意图。此外,系统的可操控性和不可预测性使得问题变得更加复杂。

关于 FTC 的调查,康奈尔大学的教授萨拉・克雷普斯(Sarah Kreps)表示,虽然这些 AI 聊天机器人可能会带来危害,但此次调查有助于提高透明度,帮助人们更好地理解这一技术。加州州参议院也通过了一项新的 AI 安全法案,要求大公司提高透明度并保护举报人。

尽管 FTC 的调查受到广泛赞誉,但也有人表示,保护隐私和言论自由同样重要。电子前沿基金会(Electronic Frontier Foundation)的一位高级技术人员指出,调查设计问题时,应充分考虑隐私和言论自由,拒绝采取监控未成年用户的措施。

划重点:

🌟 FTC 对 AI 聊天机器人的调查旨在评估其对未成年人安全的潜在风险。

👥 OpenAI 和 Meta 等公司因有关青少年自杀和性内容的报道,已采取措施调整聊天机器人使用政策。

🔍 专家认为,AI 聊天机器人的可操控性和不可预测性增加了问题的复杂性,需在透明度和隐私保护之间找到平衡。