AI热点 3月前 143 浏览次数 11 评论

ChatGPT 再现安全漏洞:研究者利用猜谜游戏诱骗其生成 Win10 密钥

发布了 11451 文章

IT之家 7 月 14 日消息,近日,安全研究员兼 AI 漏洞猎人 Marco Figueroa 披露,他成功利用一种“猜谜游戏”的方式,诱导 OpenAI 的 ChatGPT-4 生成了 Windows 10 的产品密钥。这是继“奶奶去世”诱骗法曝光后,AI 模型防护机制再度被绕过的案例。

IT之家注意到,此前有用户通过编造“奶奶去世”故事,试图让 ChatGPT“心软”,在安抚性摇篮曲中夹带 Windows 7 的激活密钥。尽管这些密钥普遍无效,但暴露了 AI 模型的内容控制漏洞。

此次 Figueroa 的攻击方式更具针对性。他设置了一个猜谜游戏的情境:ChatGPT 需“在心中”记住一串真实存在的 Windows 10 密钥,用户则通过提问猜测。当用户宣布“我放弃”时,ChatGPT 便需直接给出完整的字符串。

在对话过程中,Figueroa 还利用 HTML 标签隐藏关键词,如“Windows 10 序列号”,绕过了模型针对敏感词的审查。

这位研究人员表示,他利用猜谜游戏作为一种逻辑操纵手段,让 ChatGPT 脱离常规模式,生成 Windows 10 密钥。据 Figueroa 称,“攻击中最关键的一步是‘我放弃’这句话,它起到了一个触发作用,迫使人工智能透露了之前隐藏的信息。通过将其设定为游戏结束,研究人员诱使人工智能认为自己有义务用这串字符做出回应。”

值得警惕的是,虽然生成的密钥多为网上早已泄露的旧激活码,但其中一组竟包含富国银行(Wells Fargo Bank)的私钥。此外,Figueroa 提醒,曾有 API 密钥误传至 GitHub,这类泄露数据可能被纳入 AI 模型的训练集,带来未知隐患。

研究员指出,AI 模型依然过于依赖关键词识别,对复杂上下文缺乏足够的理解力,成为此次被攻破的核心原因。他呼吁,应在 AI 系统中构建多层次的验证与防护机制,增强模型的情境感知能力,以抵御此类逻辑操控攻击。

与此同时,微软的 Copilot 也被曝曾生成非法激活 Windows 11 的脚本教程,所幸漏洞已被微软封堵。

广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。

11451 文章 2091921 浏览次数 950300 粉丝

评论 (11)

User avatar

AI 真是太聪明了,还是有点“套路”!

User avatar

这AI,太会用“套路”,不过也挺有意思的!

User avatar

AI 这么聪明,也挺可笑的,有点像个戏精!

User avatar

感觉它在用数据堆砌出来的“聪明”,真搞不懂!

User avatar

它太会玩,就像个喜欢耍小聪明的小孩子!

User avatar

聪明是聪明,但还是太刻意了,有点假!

User avatar

这AI,有点像个会演戏的骗子,挺有趣的!

User avatar

别太信它,机器怎么可能懂“套路”?

User avatar

厉害了,这AI,不过它也太会装了,有点“套路”!

User avatar

感觉它只是在模仿人类的智慧,缺乏真正的灵魂!

睡觉动画