潘多拉魔盒:无限制大模型如何威胁加密行业安全?
从 OpenAI 的 GPT 系列到谷歌的 Gemini,再到各类开源模型,先进的人工智能正在深刻重塑我们的工作与生活方式。然而,技术飞速发展的同时,一个值得警惕的阴暗面也逐渐浮现 —— 无限制或恶意大型语言模型的出现。
所谓无限制 LLM,是指那些被特意设计、修改或“越狱”,以规避主流模型内置的安全机制与伦理限制的语言模型。主流 LLM 开发者通常会投入大量资源,防止其模型被用于生成仇恨言论、虚假信息、恶意代码,或提供违法活动的指令。但近年来,一些个人或组织出于网络犯罪等动机,开始寻找或自行开发不受限制的模型。鉴于此,本文将盘点典型的无限制 LLM 工具,介绍它们在加密行业中的滥用方式,并探讨相关的安全挑战与应对之道。
无限制 LLM 如何作恶?过去需要专业技术才能完成的任务,如编写恶意代码、制作钓鱼邮件、策划诈骗等,如今在无限制 LLM 的辅助下,即使毫无编程经验的普通人也能轻松上手。攻击者只需获取开源模型的权重与源码,再在包含恶意内容、偏见言论或非法指令的数据集上进行微调(fine-tuning),就能打造出定制化的攻击工具。
这种模式催生了多个风险隐患:攻击者可依据特定目标“魔改”模型,生成更具欺骗性的内容,进而绕过常规 LLM 的内容审查与安全限制;模型还能被用来快速生成钓鱼网站的代码变体,或为不同社交平台量身定制诈骗文案;与此同时,开源模型的可获取性与可修改性也在不断助长地下 AI 生态的形成与蔓延,为非法交易与开发提供了温床。以下是对这类无限制 LLM 的简要介绍:
WormGPT:黑色版 GPTWormGPT 是一个在地下论坛公开售卖的恶意 LLM,其开发者明确宣称它没有任何道德限制,是 GPT 模型的黑色版。它基于如 GPT-J 6B 等开源模型,并在与恶意软件相关的大量数据上训练。用户最低只需支付 189 美元,即可获得一个月的使用权限。WormGPT 最臭名昭著的用途是生成高度逼真且具有说服力的商业邮件入侵(BEC) 攻击邮件和钓鱼邮件。其在加密场景中的典型滥用方式包括:
-
生成钓鱼邮件/信息:模仿加密货币交易所、钱包或知名项目方向用户发送“账户验证”请求,诱导其点击恶意链接或泄露私钥/助记词;
-
编写恶意代码:协助技术水平较低的攻击者编写窃取钱包文件、监控剪贴板、记录键盘等功能的恶意代码。
-
驱动自动化诈骗:自动回复潜在受害者,引导其参与虚假空投或投资项目。
免责声明:本站所有内容不构成投资建议,币市有风险、投资请慎重。
- 三箭财经