欢迎访问ic37.com |
会员登录 免费注册
发布采购

AI时代,互联网更需要“安全阀”

日期:2021-1-26标签: (来源:互联网)

深度学习实体模型有其自身的缺点,会导致更多的安全隐患。换句话说,与传统的网络信息安全问题相比,人工智能固有的安全风险更难立即发现和解决。因此,在全球企业战略转型快速推进的同时,随着人工智能技术的发展趋势,网络信息安全的风险需要比以往任何时候都高。

不久前,一则关于某客户戴帽子买房的新闻报道登上了热搜榜。经过新闻媒体的深度探索,发现这种夸张举动背后的原因并不是客户害怕暴露财富或者有其他困难,而是因为聪明的房产中介会在不经意间根据AD534JH人工智能技术(AI)采集客户面部数据。信息,并为此判断各营销渠道佣金的归属;另外,这一举动完全屏蔽了客户在不同营销渠道逛商店的预期——既然你之前只需要“露过脸”,系统软件就会知道其他经销商之前提供的价格,你这个时候一分钱都不太可能砍掉。为了更好的防止自己的“脸”被房地产开发商“偷走”,用来对付自己,客户无法用这种最初的方式抵抗AI。

这个例子引起了大家对AI应用的关注,比如越来越流行的人脸识别。所以我们在享受AI产生的新感觉的同时,也在逐渐思考自己可能投入的安全成本。

AI的安全风险。

以上例子其实只是AI安全的一个方面的问题。如果仔细划分区域,你会发现今天的AI至少遇到了三个挑战:

第一个方面是AI技术性本身的安全隐患。需要理解的是,AI所依赖的深度学习,实际上是把人们所依赖的一切正常逻辑,以传统的方式变成了“黑箱操作”,人们只知道管理决策的结果,而工作中针对神经网络本质的逻辑并没有完全掌握,这是AI与传统“自动控制系统”的一大区别。如果深度学习的数据信息在这整个过程中被环境污染,会危及模板和分辨率的准确性;深度学习实体模型有其自身的缺点,会导致更多的安全隐患。换句话说,与传统的网络信息安全问题相比,人工智能固有的安全风险更难立即发现和解决。

第二个方面是AI技术被刻意应用的难题。历史时代的工作经验告诉我们,网络黑客会一直追随新技术,甚至有时会继续推广新技术。人工智能的出现无疑为网络黑客提供了新的攻击武器和设备。他们可以应用深度学习来分析海量信息,推测攻击整体目标的安全设置和方式,找到突破点。要理解,安全领域的困境在于:防御者必须预测、分析、阻挡攻击者可能使用的一万种攻击方式,而攻击者只需要利用防御者的一个系统漏洞就可以入侵并达到目的。因此,在全球企业战略转型快速推进的同时,随着人工智能技术的发展趋势,网络信息安全的风险需要比以往任何时候都高。

第三个方面是AI应用中的隐私泄露和数据信息的误用。文章开头提到的例子就属于这个范围。并且在AI和物联网技术累计诞生“人类智能物联网(AIoT)”后,此类危害的传播速度会更快,危害范围会更广,防范难度系数肯定会更高。

应对人工智能安全挑战。

这样AI的安全隐患真的很难攻破。但不管有多难,“安全阀”一定要拧紧,这是一个必须处理的难题。

当发现人工智能困难时,缺乏特殊工具可能是一个大难题。世界著名的白帽子黑客KevinMitnick之前已经表明,没有真正符合AI关键技术的专用工具或产品,自己分析和评估AI产品安全性的工作经验也是不够的。

但是,就像AI可以被网络黑客作为一种攻击方式一样,AI强大的工作能力也可以在很多方面作为一种安全工具。如今的网络信息安全厂商纷纷引入AI技术来应对传统防御计划难以解决的新威胁,提高原有检查计划的检查精度,进行更加高效的自动化技术数据标准化,完成快速的威胁应对和应急处置。换句话说,AI不仅可以用来抵御现有的攻击,还可以识别和预测未来可能发生的安全威胁,使得安全防御越来越具有前瞻性。

根据中国信息通信研究院发布的《中国网络安全产业白皮书》(2019年),在网络信息安全产业中,AI技术已经启用的领域包括(但不限于)以下几个层面:

·在异常流量检测方面,AI提出了一种新的数据加密流量统计方案。

·在恶意程序的防御层面,特殊情况下的AI应用取得了积极进展。

·在异常行为分析层面,AI可以成为计算机视觉的合理填充。

·在秘密数据维护层面,AI促进了数据信息识别和维护技能的提高。

·在安全运行管理工作中,基于AI的安全编排与自动化响应(SORA)逐渐盛行。

以AI作为安全防御的神器,大家下一步就是探索一个系统化的安全解决方案。比如腾讯为了更好的解决AI实体模型重要环节潜在的安全隐患,正式发布了《AI安全攻击引流矩阵》,并得到了相关的防御方案。

这种AI安全防御引流矩阵的现实意义在于:它可以覆盖从AI实体模型开发设计前的自然环境构建,到实体模型的训练部署,以及后期的应用维护等所有AI商品生命周期,给出整个过程中可能遇到的所有安全隐患的实例,并得到相关解决方案。这样,通过对比这个“引流矩阵”,开发者可以根据AI部署和运行的基本情况,检查安全隐患,并根据强烈推荐的防御力量提出设防,以减少已知的安全隐患。这样的探索虽然看起来只是现阶段的发展,但也可以算是一个很好的开始。

超越技术层面的艰苦工作。

自然,因为AI在各个方面给人类社会留下了深刻的印象,AI安全设置不能只停留在技术方面。具体来说,除了技术性之外,每个人都必须至少在两个层面采取某些行动:

第一,从法律法规的角度构建安全防御,依法建立AI安全的“红线”,让网络黑客和AI用户投入必要的成本;

第二,创建一个被领域认可的行为准则,按照领域自我约束等方法,覆盖这些因为法律法规落后于技术发展趋势而可能出现的黑色区域,以保证客户的安全,实现利润最大化,这也是为AI的稳步发展打造更健康的绿色生态。

文章内容结尾,分享一组数据信息:根据IDC的科研数据信息,今年全球网络信息安全支出比2018年增长近9.4%,达到1066.3亿美元;众所周知,此外,目前网络诈骗的有组织预测分析的固定成本很可能超过2万亿美元,换句话说,网络犯罪的成本大约是安全支出的20倍左右。

这就是大家遇到的安全的自然环境,AI的出现会让这种自然环境更加复杂。在安全问题上,绝不允许让步,因为一旦重要点落下,就不是丢一张数据信息的“脸”那么简单了。这种极度令人担忧的工作压力,也恰好是行业发展的动力。