乐趣区

关于microsoft:安全软件巨头联合发布新框架针对破坏机器学习的恶意软件攻击

微软与 MITRE、IBM、NVIDIA 和 Bosch 单干公布了一个新的凋谢框架,旨在帮忙平安剖析人员检测、响应和补救针对机器学习(ML)零碎的对抗性攻打。

这个被称为“对抗性机器学习威逼矩阵”的我的项目试图组织歹意对手在毁坏机器学习零碎时应用不同的技术。

恶意软件威逼 AI 应用程序的稳定性和安全性

正如人工智能和机器学习被部署在各种各样的新型应用程序中一样,威逼参与者不仅能够滥用该技术来加强其恶意软件的能力,还能够利用该技术坑骗机器学习模型,从而导致系统做出谬误决定,并威逼到 AI 应用程序的稳定性和安全性。

出名安全软件公司 ESET 的钻研人员去年发现,一种基于电子邮件的恶意软件 Emotet 正在利用机器学习来进步其指标锁定能力。Emotet 曾反对过几次僵尸网络驱动的垃圾邮件攻打和勒索软件攻打。

本月早些时候,微软正告了一种新的 Android 勒索软件病毒,其中包含一种机器学习模型,该模型尽管尚未集成到恶意软件中,但能够用于将勒索信息图像放入挪动设施的屏幕内而不会产生任何失真。

此外,钻研人员还钻研了所谓的模型反转攻打,即滥用模型拜访权限来推断无关训练数据的信息。

少数企业没有适合的工具爱护机器学习零碎

依据微软援用的 Gartner 报告,到 2022 年,预计 30% 的人工智能网络攻击将利用训练数据中毒、模型偷盗或对抗性样本来攻打机器学习驱动的零碎。

微软示意,只管有这些令人信服的理由来确保机器学习零碎的平安,但微软对 28 家企业的考察发现,大多数行业从业者尚未承受对抗性的机器学习。微软称,“这 28 家企业中有 25 家示意它们没有适合的工具来爱护本人的机器学习零碎。”

对抗性的机器学习威逼矩阵心愿通过一些列的破绽和对手行为来解决数据武器化带来的威逼,微软和 MITRE 审查这些破绽和行为对机器学习零碎是无效的。

公司能够应用对抗性的机器学习威逼矩阵来测试他们的人工智能模型的适应能力,通过模仿实在的攻打场景,应用一系列策略来取得对环境的初始拜访权限,执行不平安的机器学习模型,净化训练数据,并通过模型窃取攻打来窃取敏感信息。

新框架被广泛应用,简化平安剖析人员学习过程

微软说:“对抗性机器学习威逼矩阵的目标是将对机器学习零碎的攻打定位在一个框架之中,平安剖析人员能够将本人定位在这些新的和即将来临的威逼中。”

他们还提到,这个矩阵的构造相似于 ATT&CK 框架,因为它在平安剖析人员社区中失去了宽泛的采纳。这样,平安剖析人员不用学习新的或不同框架来理解机器学习零碎面临的威逼。

这是爱护人工智能免受数据中毒和模型躲避攻打的一系列措施中的最新进展。值得注意的是,来自约翰霍普金斯大学的钻研人员开发了一个名为 TrojAI 的框架,旨在阻止木马攻打,其中对模型进行了批改,以响应导致其推断出谬误响应的输出触发器。

退出移动版