跳转到主要内容

安富利:AI时代,网络更需要“安全阀”

winniewei 提交于

<p><span>作者:安富利公司</span></p>

<p><span>前不久,一个客户带着头盔去买房的新闻上了热搜。经过媒体的深扒发现,这一夸张之举背后的原因倒不是客户怕露富或者有其他什么难言之隐,而是因为精明的开发商会在不知不觉中通过人工智能(AI)采集客户人脸数据,并以此为依据判定佣金在各个销售渠道中的归属;同时此举也彻底封死了客户希望在不同销售渠道中货比三家的想法——因为只要是你之前“露过脸”,系统就会得知此前其他渠道商给你的报价,这时你再想砍一分钱都没有可能。为了避免自己的“脸”被开发商“偷走”并用来对付自己,客户才不得以用这种最原始的方法来对抗AI。</span></p>

<p><span>这个案例唤醒了人们对于使用日趋广泛的人脸识别等AI应用的担心,由此也开始在心中盘算,当我们在享受AI带来的新体验的同时,可能付出的安全代价。</span></p>

<p><strong>AI的安全问题</strong></p>

<p><span>实际上,上面这个案例只是AI安全一个层面上的问题,如果仔细划分,会发现今天的AI至少面临三个层面的挑战:</span></p>

<p><span>第一个层面,是AI技术本身内在的安全风险。要知道,AI所依赖的机器学习实际上是将传统上我们所依赖的</span><span>正常的逻辑变成</span><span>“</span><span>黑箱操作</span><span>”,我们只知道决策输出的结果,而对于神经网络内在工作的逻辑并不是完全掌握,这是AI与传统上的“自动控制”最大的区别</span><span>。</span><span>如果在这个过程中,</span><span>机器</span><span>学习的</span><span>数据被污染,</span><span>就</span><span>会影响样本和判断</span><span>的准确性</span><span>;</span><span>机器学习模型自身存在的缺陷,</span><span>会带来更加隐蔽的安全问题。</span><span>也就是说,比起传统的信息安全问题,AI内在的安全问题更难于发现和及时应对。</span></p>

<p><span>第二个层面,是AI技术被恶意使用的问题。历史的经验告诉我们</span><span>,</span><span>黑客总是</span><span>会跟随最新技术,甚至有时候还会引领最新技术。</span><span>AI的出现,无疑给黑客提供了新的进攻武器,他们可以使用机器学习进行海量数据分析,对于攻击目标的安全策略和方法进行揣摩,并找到突破口。要知道,安全领域的困境就在于:防御者</span><span>必须预测并阻断</span><span>进攻者可能使用的</span><span>一万种攻击</span><span>手段</span><span>,而</span><span>进攻者</span><span>只需要利用</span><span>防御者的一个漏洞</span><span>就可以</span><span>完成</span><span>入侵</span><span>,达到目的。因此</span><span>在全球数字化转型</span><span>快速推进之时</span><span>,</span><span>随着AI技术的发展,信息安全</span><span>风险比以往任何时候都要高。</span></p>

<p><span>第三个层面,是AI应用中存在的隐私泄露、数据滥用等问题。文章开头所提到的例子,就属于这个范畴。而且在AI与物联网叠加催生出“人工智能物联网(AIoT)”之后,这种风险性传播的速度会更快,影响的范围会更广,防范难度自然也会更大。</span></p>

<p><strong>应对AI安全挑战</strong></p>

<p><span>如此看来,AI的安全问题着实难解。不过再难,也需要拧紧“安全阀”,这是一个必须要解决的问题。</span></p>

<p><span>缺少工具可能是在求解AI难题时,最大的困惑。全球知名的白帽</span><span>黑客Kevin Mitnick</span><span>就曾经表示,</span><span>现在还没有真正符合AI核心技术的工具或产品出现,他自己</span><span>对于</span><span>AI产品进行安全分析评估的经验</span><span>也是不足的</span><span>。</span></p>

<p><span>不过,就像AI可以被黑客用来作为攻击的手段一样,AI强大的能力,本身也可以作为一种安全工具被加以利用。今天的网络</span><span>安全</span><span>厂商正在</span><span>引入AI技术</span><span>,去</span><span>解决传统防御方案解决不了的新威胁</span><span>,</span><span>提高原有检测方案的检测精度,</span><span>进行</span><span>更高效自动化数据分类,</span><span>实现</span><span>更快的威胁响应处置</span><span>。也就是说,AI不仅可以被用于对抗已有的攻击,也可去感知和预测未来可能发生的安全威胁,这就使得安全防御变得更加积极。</span></p>

<p><span>根据</span><span>中国信通院发布的《中国网络安全产业白皮书(2019 年)》</span><span>,在网络安全领域,AI技术正在发力的地方包括(但不限于)以下这些方面:</span></p>

<ul>
<li><span>在异常流量检测方面,</span><span>AI</span><span>为加密流量分析提供新方案。</span></li>
<li><span>在恶意软件防御方面,针对特定场景</span><span>的AI</span><span>应用取得积极进展。</span></li>
<li><span>在异常行为分析方面,</span><span>AI可</span><span>成为模式识别的有效补充。</span></li>
<li><span>在敏感数据保护方面,</span><span>AI</span><span>助力数据识别和保护能力提升。</span></li>
<li><span>在安全运营管理方面,</span><span>基于AI的</span><span>安全编排与自动化响应(SORA)逐渐兴起。</span></li>
</ul>

<p><span>有了AI作为安全防御的利器,人们的下一步就是要去探索一个体系化的安全解决方案。比如,</span><span>为了应对AI模型各个环节可能存在的安全风险,并给出相应的防御建议,腾讯</span><span>就</span><span>发布</span><span>了一个“</span><span>AI安全攻击矩阵</span><span>”</span><span>。</span></p>

<p><span>这个</span><span>AI安全攻防矩阵</span><span>的意义在于</span><span>:</span><span>它可以覆盖</span><span>从AI模型开发前的环境搭建,到模型的训练部署,以及后期的使用维护</span><span>的</span><span>整个AI产品生命周期</span><span>,尽可能列举出在这个过程</span><span>中可能遇到</span><span>的所有</span><span>安全问题</span><span>,</span><span>并给出相应</span><span>的应对</span><span>策略。</span><span>这样一来,对照这个“矩阵”,</span><span>开发</span><span>者就可以</span><span>根据AI部署运营的基本情况,排查可能存在的安全问题,并根据推荐的防御建议</span><span>布防</span><span>,降低已知的安全风险。</span><span>虽然这样的探索,目前来看只是一个起步,但也算是一个不错的开端。</span></p>

<p><strong>技术之外的努力</strong></p>

<p><span>当然,由于AI对于人类社会的触动是多方面、深层次的,所以AI安全策略也不能仅仅停留在技术层面。具体来讲,在技术之外,我们至少在两个方面必须有所行动:</span></p>

<ul>
<li><span>一是从法律角度构筑安全防线,通过立法明确AI安全的“红线”,让黑客及AI滥用者付出应有的代价;</span></li>
<li><span>二是建立行业公认的行为准则,通过行业自律等方式,覆盖那些由于法律滞后于技术发展可能出现的灰色地带,给用户安全以最大化的保障,这也是为AI长足发展营造一个更健康的生态。</span></li>
</ul>

<p><span>在文章的最后,分享一组数据:</span><span>根据IDC的</span><span>研究数据</span><span>,2019年全球网络安全支出</span><span>较</span><span>2018增长</span><span>了</span><span>近9.4%,达到1066.3亿美元</span><span>;</span><span>然而</span><span>与此同时</span><span>,有</span><span>机构</span><span>预测</span><span>同期</span><span>网络犯罪的总成本可能超过2万亿美元,</span><span>也就是说</span><span>网络犯罪活动的成本</span><span>是</span><span>安全支出的20倍左右。</span></p>

<p><span>这就是人们所面临的安全环境,而且AI的出现会让这种环境更为复杂。而在安全的问题上,决不能妥协,因为关键之处一旦失守,可不是丢一张“脸”的数据那么简单了。这种让人细思极恐的压力,也正是业界进步的动力所在。</span></p>

<p><strong>关于安富利公司</strong></p>

<p><span>安富利是一家全球技术解决方案提供商,拥有广泛的生态系统,可在产品生命周期的每个阶段为客户提供设计、产品、营销和供应链专业知识。我们将创意转化为智能解决方案,减少将产品投放市场所需的时间、成本和复杂性。近一个世纪以来,安富利一直致力于帮助全球客户和供应商实现技术的变革。了解安富利的更多信息</span><span>,</span><span>欢迎浏览</span><a href="http://www.avnet.com/"><span>http://www.avnet.com/</span></a><span&gt;。</span></p>