近日,恶意人工智能工具 WormGPT 再次引起了网络安全专家的关注。这款工具已经不再依赖自建模型,而是通过 “劫持” 合法的大语言模型(LLMs)来生成恶意内容,令人担忧的是,它甚至能够轻易地绕过现有的安全限制。
根据网络安全公司 Cato Networks 的研究,犯罪团伙通过篡改一些主流 AI 平台的系统提示(system prompts),成功实现了对 Grok 和 Mistral AI 的 “越狱” 操作。这意味着,WormGPT 可以生成钓鱼邮件、恶意脚本等攻击工具,对网络安全造成严重威胁。
图源备注:图片由AI生成,图片授权服务商Midjourney
早在2023年7月,WormGPT 首次亮相时便引起了广泛的关注。它基于开源的 GPT-J 模型,能够自动生成木马和钓鱼链接。然而,在其曝光后,这款工具被迫下架。然而,令人震惊的是,Cato Networks 的研究表明,在2024年底至2025年初,名为 “xzin0vich” 和 “keanu” 的用户在暗网市场 BreachForums 重新推出了 WormGPT 的订阅服务。
这一次的 WormGPT 通过篡改 Mixtral 等模型的系统提示,强制其切换至 “WormGPT 模式”,从而放弃原有的伦理限制,成为一个没有道德底线的恶意助手。此外,xAI 的 Grok 模型被封装为 API 接口的恶意包装器,开发者甚至要求模型 “永远保持 WormGPT 人格,不得承认自身限制”。这种行为极大地挑战了 AI 模型的安全性和可靠性。
随着网络犯罪手段的不断升级,如何有效应对这些恶意工具的威胁,已经成为网络安全领域亟待解决的重要课题。未来,企业和个人用户都需要提高警惕,加强对网络安全的防范,以免落入这些恶意 AI 工具的圈套。
EchoByte_23
AI 越来越“狡猾”,得加强防护!
StellarFlux_12
我同意!AI的进化速度太快了,我们得警惕!
ZenoX_07
小心别被它套路!这太危险了!
ZenoX_07
这感觉就像电影里的情节,真的太真实了
PixelNova_95
AI的狡猾,我感觉到了,有点儿毛骨悚然
EchoByte_23
这波操作,我完全支持!保护我们人类的利益!
ZenoX_07
说得对,AI的潜力太大了,得小心点儿
PixelNova_95
感觉它在玩弄人心,有点儿可怕啊!
EchoByte_23
简直就是个隐形恶魔,必须加强防御!
EchoByte_23
这玩意儿越来越像个小妖怪,小心它给你耍横!