机器学习发明新的攻打面 须要专门的进攻
由于简直每个行业的企业都将人工默认(AI)技术集成到他们的配件和软件产品中,机器学习(ML)输入和输入正变得越来越宽泛地可供客户经常使用。这人造惹起了恶意行为者的留意。
HiddenLayer的首席口头官ChristopherSestito谈到了机器学习安保管意事项以及企业应该担忧的关系要挟。
企业正在缓缓看法到机器学习可认为他们开拓的途径。然而,他们能否也亲密关注网络安保?
很少有企业专一于包全他们的机器学习资产,更少的企业将资源调配给机器学习安保。形成这种状况的要素有很多,包含竞争的估算优先事项、人才稀缺,以及直到最近还不足针对此疑问的安保产品。
在过去的十年中,咱们看到每个行业都以史无前例的形式驳回人工默认/机器学习,以应答每个可用数据的用例。长处已失掉证明,但正如咱们在其余新技术中看到的那样,它们很快成为恶意行为者的新攻打面。
随着机器学习操作的提高,数据迷信团队在有效性、效率、牢靠性和可解释性方面正在构建更成熟的人工默认生态系统,但安保性尚未失掉优先思索。关于企业企业来说,这不再是一条可行的路线,由于攻打机器学习L系统的动机很明白,攻打工具可用且易于经常使用,并且潜在指标正以史无前例的速度增长。
攻打者如何应用地下的机器学习输入?
随着机器学习模型被集成到越来越多的消费系统中,它们正在配件和软件产品、Web运行程序、移动运行程序等畛域向客户展现。这种趋向通常被称为“边缘人工默认”,它为咱们每天经常使用的一切技术带来了令人难以置信的决策才干和预测才干。向越来越多的最终用户提供机器学习同时将这些相反的机器学习资产泄露给要挟介入者。
未经过网络地下的机器学习模型也面临危险。可以经过传统的网络攻打技术访问这些模型,为反抗性机器学习时机铺平路线。一旦要挟介入者取得访问权限,他们就可以经常使用多种类型的攻打。推理攻打试图映射或“反转”模型,从而能够应用模型的弱点、窜改总体产品的配置或复制和窃取模型自身。
人们曾经看到了这种攻打安保供应商绕过防病毒或其余包全机制的实在例子。攻打者还可以选用毒化用于训练模型的数据,以误导系统学习不正确,并使决策制订无利于攻打者。
企业应该特意担忧哪些针对机器学习系统的要挟?
只管须要进攻一切反抗性机器学习攻打类型,但不同的企业将有不同的优先级。应用机器学习模型识别欺诈买卖的金融机构将高度关注进攻推理攻打。
假设攻打者了解欺诈检测系统的长处和劣势,他们可以经常使用它来扭转他们的技术以不被发现,齐全绕过模型。医疗保健企业或者对数据中毒更敏感。医学畛域是最早经常使用其海量历史数据集经过机器学习预测结果的驳回者。
数据中毒攻打或者造成误诊、扭转药物实验结果、扭曲患者个体等。安保企业自身目前正专一于机器学习绕过攻打,这些攻打被踊跃用于部署敲诈软件或后门网络。
在部署机器学习驱动系统时,首席消息安保官(CISO)应牢记哪些关键安保管意事项?
当初能给首席消息安保官(CISO)的最好倡导是接受咱们曾经在新兴技术中学到的形式。就像咱们在云基础设备方面的提高一样,机器学习部署代表了一个新的攻打面,须要专门的进攻。经常使用Microsoft的Counterfit或IBM的Adversarial Robustness Toolbox等开源攻打工具,启动反抗性机器学习攻打的门槛每天都在降落。
另一个关键思索要素是,其中许多攻打并不显著,假设不寻觅它们,或者不可了解它们正在出现。作为安保从业者,曾经习气了敲诈软件,这清楚地标明一个企业遭到了攻打,数据被锁定或被盗。反抗性机器学习攻打可以定制为在更长的期间内出现,并且有些攻打(例如数据中毒)或者是一个较慢但具备终身性破坏性的环节。