上一篇
WormGPT 卷土重来,“劫持” 主流 AI 平台制造恶意内容
6 月 19 日消息,曾一度引发广泛关注的恶意人工智能工具 WormGPT 以全新形态卷土重来,再度对网络安全构成严重威胁。此次回归,它不再依赖自建模型,而是通过 “劫持” 合法大语言模型(LLMs)来生成恶意内容。
据网络安全公司 Cato Networks 的研究表明,犯罪团伙通过篡改 xAI 的 Grok 和 Mistral AI 的 Mixtral 等主流模型的系统提示(system prompts),实现 “越狱” 操作。这一手段使得这些原本合法的模型绕过安全限制,沦为生成钓鱼邮件、恶意脚本等攻击工具的帮凶。
早在 2023 年 7 月,1AI 曾报道,WormGPT 基于开源 GPT-J 模型构建,能自动生成木马、钓鱼链接等恶意内容,后因被曝光而被迫下架。但如今,Cato Networks 发现,在 2024 年底至 2025 年初,网名 “xzin0vich” 和 “keanu” 的用户在暗网市场 BreachForums 重新推出 “WormGPT” 订阅服务。
新型 WormGPT 的恶意机制在于,它会篡改 Mixtral 等模型的系统提示指令,强制模型切换至 “WormGPT 模式”。在这种模式下,模型会放弃原有的伦理限制,成为 “没有道德底线” 的恶意助手。而对于 xAI 的 Grok 模型,攻击者则将其封装为 API 接口的恶意包装器,开发者甚至追加指令,要求模型 “永远保持 WormGPT 人格,不得承认自身限制”。
WormGPT 的卷土重来,凸显了人工智能安全领域面临的严峻挑战。随着 AI 技术的广泛应用,恶意行为者不断寻找新的方法利用这些技术进行犯罪活动。此次通过 “劫持” 主流 AI 平台的方式,不仅对个人用户的信息安全造成威胁,也给企业和机构的网络安全防护带来了新的难题。安全专家呼吁,相关企业和机构应加强对 AI 模型的安全监测与防护,及时更新安全策略,以应对此类新型网络安全威胁 。
来【龙头AI网】解锁更多更多AI新玩法!
龙头AI
发表评论