2025-02-17 企业动态 0
在这篇文章中,作者琰琰和维克多探讨了一个颇为惊人的发现:神经网络可能成为了“病毒软件”新宿主。他们的研究表明,恶意软件可以被嵌入到机器学习模型中,而这种操作几乎不会影响模型的性能。这项研究由中国科学院大学团队进行,他们发表了一篇名为“EvilModel: Hiding Malware Inside of Neural Network Models”的论文。
根据论文内容,由于神经网络具有很强的泛化能力和解释性差,这使得它们成为隐藏恶意软件传播载体的一个理想场所。研究人员发现,即使将AlexNet模型中的50%左右的神经元替换为恶意软件,模型的准确率仍然能够保持在93.1%以上。此外,由于神经网络结构保持不变,这些大量恶意软件成功地规避了防病毒引擎的安全扫描。
实验结果显示,在1%准确率损失范围内,一款178MB大小的AlexNet模型可以嵌入36.9MB大小的恶意软件,并且VirusTotal中的反病毒引擎没有给出任何可疑提示。这些发现意味着随着人工智能技术日益普及,神经网络有可能成为未来的威胁载体。
此外,文章还提到了如何通过修改神经元参数来嵌入和提取恶意软件,以及如何规避检测。在这个过程中,不依赖其他系统漏洞,只需要通过供应链更新渠道或其他方式发布就能传递这种类型的人工智能武器。随着这一技术逐渐成熟,它们有可能被用于更复杂、更隐蔽的手段,如僵尸网络、勒索软件等计算机安全威胁。
总结来说,本文揭示了一种潜在的问题:即便是高级的人工智能系统也无法完全保证其免受侵害。这一现象对我们理解未来AI与人类社会之间关系以及相关安全问题具有重要意义。