2025-02-17 企业动态 0
在这篇文章中,作者琰琰和维克多探讨了一个颇为惊人的发现:神经网络模型成为了“病毒软件”传播的新载体。他们通过一项名为“EvilModel”的研究,展示了如何将恶意代码嵌入到机器学习模型中,而几乎不会影响其性能。这项技术可能会彻底改变平板电脑等设备的安全性,并且可能会在自然环境中得到广泛应用。
研究人员发现,由于神经网络模型具有强大的解释性和泛化能力,恶意软件可以被秘密地嵌入其中,并且几乎不会被检测出来。在实验中,他们使用真实的恶意软件替换AlexNet模型中的50%左右的神经元,但模型仍然能够保持93.1%以上的准确率。这些恶意软件成功规避了防病毒引擎的扫描,因为它们没有改变原有的结构。
论文表明,即使在1%准确率损失范围内,一个178MB的大型AlexNet模型也能嵌入36.9MB的小型恶意软件,而VirusTotal中的反病毒引擎都未给出任何可疑提示。这种方法不需要攻击者部署服务器,从而避免了防御者的注意。
随着人工智能技术的不断进步,这种将神经网络作为恶意软件传播载体的手段有望成为计算机安全领域的一个新的威胁来源。作者表示,这种方法具有以下特点:
通过神经网络隐藏evilcode,使其逃避检测。
随着冗余神经元和泛化能力,不同任务下性能保持稳定。
由于规模大,可容纳大量evilcode进行传播。
不依赖其他系统漏洞,只需通过更新渠道或供应链污染即可实现传递。
总结来说,这种基于神经网络的隐写术(steganography)对于未来计算机安全带来了新的挑战。此前,有研究已经提出过类似的方法,如腾讯团队提出的修改参数LSB以隐藏evilcode。但是,国科大团队采用修改整个神经元来嵌入evilcode这一策略更加高效,可以规避反病毒引擎检测。
为了保护自己免受此类威胁,我们必须提高对人工智能系统潜在风险意识,并采取措施加强数据保护和安全监控。此外,加强对AI算法本身以及其输入输出数据流程控制也是非常关键的一环,以减少潜在危险并提升整体安全性水平。