欢迎访问ic37.com |
会员登录 免费注册
发布采购

怎样高效、安全地使用网络中的AI?

日期:2021-2-27 (来源:互联网)

到2021年,随着更多的组织采用新技术,未来人工智能技术和网络安全将持续发展。据一项最新调查显示,有三分之二的组织为了网络安全而使用智能技术。日益增长的安全漏洞导致人们越来越多地需要采用和开发保留隐私的机器学习系统。

到2021年,随着更多的组织采用新技术,未来人工智能技术和网络安全将持续发展。据一项最新调查显示,有三分之二的组织为了网络安全而使用智能技术。BD139G利用这类工具,企业可以更好地准备创新攻击,利用网络犯罪技术,或者利用AI技术,从而应对日益增长的网络犯罪。比如,仅去年一年,罪犯就利用基于AI的软件复制CEO的声音,要求22万欧元(约合243,000美元)的现金转移。

如果企业想要在2021年将更多AI集成到他们的安全堆栈中,那么按照以下六个步骤操作就非常重要,这样可以确保有效地使用AI,同时又不会破坏其他地方的安全。

怎样高效、安全地使用网络中的AI?

提倡在网络安全中使用负责任的AI

最新数据显示,四分之三的管理人员相信使用AI可以让组织更快地对违规行为作出反应。网络安全领域的威胁形势在不断变化,网络安全领导者必须采用AI来应对网络犯罪的新策略。而商业必须致力于确保政策支持这类拥抱。举例来说,美国对AI项目的出口控制应该确保公司在使用AI时在全球网络安全市场上继续保持竞争力。

保证AI概念涉及威胁建模和风险管理

人工智能在世界各地的应用越来越广泛,已经有超过四分之一的AI项目投入生产,而超过三分之一的项目还处在开发阶段。然而,对于攻击者如何试图破坏这一增长和新集成的AI系统的稳定性,需要谨慎考虑。虽然还没有被广泛应用,但是随着数据攻击的广泛应用,包括数据中毒攻击和训练模型后门在内的网络攻击可能会被部署到机器学习系统上。融合AI系统的威胁模型很少,而且常常还不成熟。商业领袖们应该努力开发各种方法,确保AI能够在风险管理活动中发挥作用,将这种威胁降到最低。

为AI系统开发和推广道德规范

公营和私营部门都应该在AI应用中使用道德准则,并鼓励将强有力的安全和透明度控制纳入这些道德框架。在网络安全程序中使用AI有许多种方式,而且确保像MicrosoftAI原则这样的框架得到认可至关重要。能够支持伦理AI的原则包括:消除AI偏见,保护AI数据,确保人们对AI技术影响世界的方式负责。

鼓励透明和公开分享新发现

关于AI的新研究,以及新的对抗攻击和防御方法,经常出现在会议和学术期刊上。但有时候,这些研究成果并不能很好地解释这些发现的原因,许多论文也不能提供或者链接代码,从而导致结果的精确重现。类似地,从事AI研究的企业通常都是秘密进行,这给AI进展的验证和实施带来了负担。这样,安全工作者就可以在更具挑战性的环境中评估针对这些模型可能的攻击,最终使企业更难应对这些威胁。

首先是AI系统的攻击性研究

企业在将AI技术应用到产品上之前,必须对这些新技术的潜在风险进行验证。企业应当确保AI应用程序和相关机器学习系统能够适用于当前安全程序监控和测试范围。监控和测试应该包括两个企业自发采取的措施,以帮助发现AI中可能意想不到的缺陷,并提供安全框架和指导,并与安全研究人员合作。

呼吁建立并整合隐私保护机器学习

虽然机器学习和AI技术继续受到欢迎,但它对隐私保护的影响仍有待广泛研究。神经网络尤其能记住来自训练数据的具体例子。结果,AI系统很容易受到模型反转攻击的攻击,这些攻击会导致模型被训练的数据被盗取,这种方法是通过重复查询模型重建训练样本。若该模型对敏感数据进行了训练,攻击者就可以恢复关于训练数据的信息。日益增长的安全漏洞导致人们越来越多地需要采用和开发保留隐私的机器学习系统。这样做不仅能保护业务,而且能保护使用数据训练模型的用户。

在网络安全计划中集成AI并不容易。公司领导人必须认识到合并带来的挑战,并开发出在维护道德和保护私人数据的同时加强网络安全计划的解决方案。除了遵守明确的公共指导方针之外,负责任地使用人工智能技术是鼓励威胁建模和持续的人工智能研究的关键步骤,这将使AI融入网络安全计划取得成功。