IT之家 7 月 14 日消息,互联网安全组织 Internet Matters 的报告显示,过去 18 个月里,英国 9 至 17 岁的少年儿童使用 AI 聊天机器人的比例大幅上升,目前已有三分之二的孩子用过这类工具。
其中,最受儿童欢迎的聊天机器人分别是 ChatGPT(43%)、谷歌的 Gemini(32%)以及 Snapchat 的 My AI(31%)。
弱势儿童使用 AI 聊天机器人的比例更高,达到 71%,“非弱势儿童”的使用率为 62%。弱势儿童使用 Character.ai 和 Replika 等陪伴型机器人的可能性更是普通儿童的近三倍。
IT之家从报告中获悉,青少年正在以更加情绪化的方式使用 AI,比如寻求陪伴或建议。报告显示,有四分之一的孩子曾向 AI 求助建议,三分之一的人觉得与 AI 对话像是在与朋友聊天。而在弱势儿童中,这两个比例分别达到了一半。
在受访儿童中,每八人就有一人使用 AI 聊天机器人是因为“没人可说”,而在弱势儿童中,这个比例攀升至四分之一。
超过半数(58%)的孩子认为,使用 AI 比直接用谷歌查找信息更高效,这种认知引发人们对 AI 被过度信赖的忧虑。
测试发现,Snapchat 的 My AI 和 ChatGPT 有时会输出露骨或不适合年龄层的内容,同时部分聊天机器人的过滤系统存在漏洞,用户可以通过特定方式绕过限制,从而接触到不应访问的信息。
大多数孩子曾与父母聊过 AI,但父母很少深入讲解具体内容,比如 AI 生成信息的准确性问题。另外,有三分之二的家长希望孩子能了解 AI 的真实性,但只有三分之一真正进行过相关讨论。
尽管孩子们普遍希望学校能开设 AI 使用课程,涵盖诸如信息失真、过度依赖和隐私泄露等风险,但仅有 57% 的学生表示曾在学校接触过相关内容,而只有 18% 的人接受过持续的指导。
据 Neowin 今日报道,报告呼吁建立一个多方协作的保护体系,包括科技公司、政府、学校、家庭和研究机构共同参与。报告强调,企业应提供家长控制功能及数字素养教育支持;政府需及时更新监管政策,使其适应技术发展节奏。
学校方面,应将 AI 和媒介素养教育纳入各阶段教学大纲,培训教师掌握 AI 技术,并制定关于合理使用 AI 的指导原则。家长也应获得相应支持,帮助他们引导孩子正确使用 AI,开展关于何时使用 AI、何时求助真实世界的沟通对话。
广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。