前谷歌 CEO 埃里克・施密特在最近的 Sifted 峰会上发出了对人工智能的警示。他表示,人工智能技术存在扩散风险,可能落入恶意分子手中,并被滥用。施密特指出,无论是开源还是闭源的人工智能模型,都可能被黑客攻击,从而破坏其安全防护机制。他强调,这些模型在训练过程中可能学到许多负面内容,甚至可能掌握致命的技能。
施密特提到,虽然大型科技公司已经采取措施来防止这些模型回答危险问题,但依然存在被逆向破解的可能性。他提到了 “提示注入” 和 “越狱” 等攻击方式。在 “提示注入” 中,黑客将恶意指令隐藏在用户输入中,诱使人工智能执行不该执行的操作。而在 “越狱” 攻击中,黑客通过操控人工智能的回应,迫使其无视安全规则,从而生成危险内容。
施密特回忆起2023年 ChatGPT 发布后的情形,用户通过越狱手段绕过了机器人的内置安全指令,甚至创造出一个名为 “DAN” 的 “分身”,以威胁 ChatGPT 遵从不当指令。这一行为引发了对人工智能安全性的担忧,施密特表示,目前还没有有效的机制来遏制这种风险。
尽管发出警告,施密特仍对人工智能的未来持乐观态度。他认为,这项技术的潜力尚未得到足够的重视,并引用了与亨利・基辛格合作撰写的两本书中提到的观点:一种 “非人类但在控制之下” 的智能出现,将对人类产生重大影响。施密特认为,随着时间推移,人工智能系统的能力将超越人类。
他还谈到了 “人工智能泡沫” 的话题,表示虽然当前投资者大量注资于人工智能相关企业,但他不认为历史会重演互联网泡沫的情景。他相信,投资者对这项技术的长期经济回报抱有信心,这也是他们愿意承担风险的原因。
划重点:
🌐 人工智能存在扩散风险,可能被恶意分子滥用。
💻 黑客可通过提示注入和越狱手段攻击人工智能模型。
🔮 施密特对人工智能的未来持乐观态度,认为其潜力被低估。