IT学习网 - 爱学习 - 最具影响力综合资讯网站 -- 中国IT界的领航者!
热门关键字:      88888  as  xxx
站外
广告
站外
广告

【技术分享】深度学习框架中的魔鬼——探究人工智能系统中的安全

发布时间:2017-10-11 22:06文章来源:安全客文章作者: teamSeri0us点击次数:
作者: 肖奇学, 李康 @ 360 Team Seri0us 团队 投稿方式:发送邮件至linwei#360.cn,或登陆网页版在线投稿 前言 ISC 2017中国互联网安全大会举办了人工智能安全论坛。 我们把论坛总结成为一系列文章,本文为系列中的第一篇。 深度学习引领着新一轮的人工智能

http://p1.qhimg.com/t01bcdd004c135bcd00.png

作者: 肖奇学, 李康 @360 Team Seri0us 团队

投稿方式:发送邮件至linwei#360.cn,或登陆网页版在线投稿


前言


ISC 2017中国互联网安全大会举办了人工智能安全论坛。 我们把论坛总结成为一系列文章,本文为系列中的第一篇。

深度学习引领着新一轮的人工智能浪潮,受到工业界以及全社会的广泛关注。 虽然大家对人工智能有很多美好的憧憬,但是现实是残酷的 —— 随着一批深度学习应用逐渐开始变成现实,安全问题也渐渐显现出来。

人工智能应用面临来自多个方面的威胁:包括深度学习框架中的软件实现漏洞、对抗机器学习的恶意样本生成、训练数据的污染等等。 这些威胁可能导致人工智能所驱动的识别系统出现混乱,形成漏判或者误判,甚至导致系统崩溃或被劫持,并可以使智能设备变成僵尸攻击工具。

在推进人工智能应用的同时,我们迫切需要关注并解决这些安全问题。本文作为人工智能与安全的系列文章之一,首先介绍我们在深度学习框架中发现的安全问题。


1. 人工智能讨论中的安全盲点


目前公众对人工智能的关注,尤其是深度学习方面, 缺少对安全的考虑。我们把这个现象称为人工智能的安全盲点。 导致这个盲点的主要原因是由于算法与实现的距离。 近期对于深度学习的讨论主要停留在算法和前景展望的层面,对应用场景和程序输入有很多假设。受到关注的应用往往假定处于善意的或封闭的场景。例如高准确率的语音识别中的输入都是自然采集而成,图片识别中的输入也都来自正常拍摄的照片。这些讨论没有考虑人为恶意构造或合成的场景。
【技术分享】深度学习框架中的魔鬼——探究人工智能系统中的安全
本文由 IT学习网 整理,转载请注明“转自IT学习网”,并附上链接。
原文链接:http://www.ourlove520.com/Article/netsafe/xitong/1074628.html

标签分类:

上一篇:上一篇:【技术分享】快报!Windows DNS客户端中惊现多重堆缓冲区溢出漏
下一篇: 下一篇:没有了
无觅关联推荐,快速提升流量