2025-02-17 企业动态 0
在这篇文章中,作者琰琰和维克多探讨了一个颇为惊人的发现:神经网络正逐渐成为“病毒软件”的新宿主。他们的研究表明,恶意软件可以被嵌入到机器学习模型的“人工神经元”中,而不会显著影响模型的性能。这项研究由中国科学院大学(国科大)团队完成,并发表在arXiv上。
根据论文“EvilModel: Hiding Malware Inside of Neural Network Models”,恶意软件可以被嵌入到AlexNet模型中,几乎不影响其准确率。实际上,在替换50%左右的神经元后,AlexNet模型仍然能够保持93.1%以上的准确率。这种方法使得恶意软件能够秘密传播,而防病毒引擎也难以检测出来。
实验显示,即使将178MB大小的AlexNet模型嵌入36.9MB大小的恶意软件,这些反病毒引擎都未能给出任何警告。在1%性能损失范围内,这种方法是可行且高效的。
随着人工智能技术不断进步,这种通过神经网络隐藏并传播恶意软件的手段可能会变得更加普遍和隐蔽。此前,一些研究人员已经提出过类似的方法,但国科大的工作提供了新的见解和实用策略,以便更有效地实现这一目标。
总结来说,此类基于神经网络模型的恶意软件具有以下特点:
由于冗余神经元存在以及神经网络良好的泛化能力,它们能够在不同任务下保持性能。
这种类型的大型神经网络模型允许大量数据存储,从而扩大了传播恶意代码的手段。
不依赖于其他系统漏洞,该类型模式可以通过供应链更新渠道或其他途径无声地进行传播,不易受到防御者的注意。
随着AI应用领域越来越广泛,如预测、优化、自动驾驶等,这种手段将会变得越来越重要和有害。
为了实施这一计划攻击者通常遵循以下步骤:
设计合适的人工智能框架,并考虑如何最好地隐藏更多数据以容纳更多坏数据。
使用现成库或者训练自己的数据集,以获得最佳性能。
选择合适层级插入坏数据,同时评估是否需要对其重新训练以避免过度损失功能性。
一旦准备好,可以利用供应链污染等策略发布该模块至公共存储库或其他地方。一旦接收方下载并运行此模块,他们就无法区分它是否包含有害代码。如果条件符合,则提取并执行其中嵌入的情报文件(如图片中的LSB)。这样,无需启动特殊程序即可安全地向用户设备发送小型病毒文件——它们看起来像普通图像但实际上携带了潜在威胁!
最后,由于这些机制如此巧妙且难以察觉,我们必须加倍关注AI系统中的潜在风险,并采取措施保护我们的计算资源免受未来可能出现的一系列新的攻击形式。