游客

假如,无人驾驶汽车被恶意操纵

游客 2017-08-14 13:23:09    201365 次浏览

马斯克与扎克伯格日前在网上掀起一轮“互怼”,针对人工智能(Artificial Intelligence,英文缩写为“AI”),双方各执己见。马斯克认为人工智能将威胁到人类的未来,从而需要成立专门的监管机构加以引导,而扎克伯格则认为马斯克对于“人工智能”的理解有限。

2016年,AlphaGo战胜李世石;2017年,AlphaGo零封柯洁,李彦宏乘坐百度无人车驶上北京五环路,台湾首辆无人驾驶巴士试运行。人工智能已经引起人们的关注,发展也走上了快车道。

国务院印发《新一代人工智能发展规划》中指出,立足国家发展全局,准确把握全球人工智能发展态势,找准突破口和主攻方向,全面增强科技创新基础能力,全面拓展重点领域应用深度广度,全面提升经济社会发展和国防应用智能化水平。

扎克伯格等人所力挺的人工智能无疑将会改变这个世界的运行方式与人类的工作生活方式,就像互联网的问世让地球变成了“地球村”一样。

而马斯克的顾虑也不无道理,他说“人工智能可以比人类更快、更高效的完成任务,但是,机器人也能够制造假新闻、假电子邮件账号和假信息,以及操纵信息,从而引发战争。”

也许,我们憧憬人工智能美好未来的同时,也应当关注人工智能所面临的安全问题。“安全性是部署人工智能的最大挑战。”主攻深度学习与安全领域研究方向的加州大学伯克利分校计算机系教授宋晓东认为。

AI  发展

聊天网购都离不开它

人工智能其实离我们很近,手机上的语音输入法靠的就是语音识别技术,网购后再登录时看到的推荐商品正是基于你的购物习惯而呈现出来的。

7月5日,百度AI开发者大会现场,主持人突然将镜头切至场外,百度创始人李彦宏正在驾驶一辆百度和博世一起开发、基于Apollo技术的无人驾驶汽车前来参会。李彦宏通过远程连线描述了自己的实时体验:“现在车辆非常多,但是还是很平稳,感觉非常不错。前面有一个屏幕可以展示出汽车探索到的周边情况,我们的车处于自动驾驶状态。”近些年,无论是特斯拉、谷歌、百度还是乐视,都对无人驾驶汽车领域发起了冲锋。

国务院印发《新一代人工智能发展规划》中多次提及到了要重点发展汽车产业中的自动驾驶技术,并且要在智能交通建设和自主无人驾驶技术平台等方面实现突破:重点突破自主无人系统计算架构、复杂动态场景感知与理解、实时精准定位、面向复杂环境的适应性智能导航等共性技术,无人机自主控制以及汽车、船舶和轨道交通自动驾驶等智能技术。

中国品牌车企近年也在规划人工智能领域的布局。始于车载操作系统的互联汽车之争,正逐步扩大到自动驾驶、智能出行等领域。不过由于相关零部件价格较高,用户的消费习惯和思维尚未形成,此前并未开始大规模商用。如今,随着《规划》的发布,我国首次将人工智能提升到了国家战略。

《美国新闻与世界报道》周刊16日援引马斯克的预测报道,10年后,美国制造的所有新车中,超过一半将为电动车,几乎所有车辆将是自动驾驶汽车。届时,一些旧车仍将在道路上行驶,美国所有汽车实现自动化将需要更长时间。马斯克预测,20年后,美国道路上所有汽车都将是自动驾驶汽车,仍然驾驶着旧式汽车的人拥有一个方向盘将如同拥有一匹马。

但是,马斯克也提醒,当所有汽车变成“车轮上的笔记本电脑”,网络安全将成为重要关键。他说,如果黑客有能力指挥所有人的汽车前往同一地点,“那将成为特斯拉的末日”。

“人工智能在很多方面都有了巨大的进展,AlphaGo至少在当前来看已经打败了人类。另外还有深度学习,它已经促进了我们生活方方面面的发展,我们的产品研究、医学研究都受到了深度学习的促进,比如说深度学习可以用来识别乳腺癌细胞中的游丝分裂,同时可以研究基因突变预防疾病,此外,深度学习还可以用来改善安全方面的能力,包括做人脸识别、欺诈检测以及恶意软件的检测。”宋晓东日前在未来论坛举办的理解未来讲座上说。

AI 防护

避不开有能力的攻击者

人工智能领域的安全问题主要表现为两个方面,第一是攻击人工智能的学习系统,让其不能产生正确或需要的结果;第二是对人工智能的滥用。

供职于国内某互联网安全公司的魏疆认为,现阶段的AI叫机器学习更合适,还不能称做智能。机器学习就是用大量的样本去训练,使之能够完成一些固定类型的工作,比如垃圾邮件识别,图像识别等。如果学习的样本有偏差,会使最终结果偏差很大,所以会伴随着人工纠偏。无人监督的情况下,可以逐渐提供小偏差的样本数据,使之学习结果发生偏离。

“AI已经取得了非常多的进步,在很多领域都已经变得更好,但我们深度学习系统还是很容易被欺骗。”宋晓东说。仍然以无人驾驶汽车为例,宋晓东和同事对于深度学习里的对抗性案例进行了研究。他们发现,在实施一些技术干扰后,计算机在进行深度学习时容易被欺骗,比如一个“禁止停车”标志,可能被计算机解读为“限速”标志,“对于我们人眼来说,原始图像和最后图像看起来是完全一样的,我们根本看不出来中间的差别,但是针对深度学习的分类系统,就会被错误归类。”

“汽车与服务器之间的通信可以被干扰甚至劫持,导航的GPS信号可以干扰并伪造,技术上可以做到近距离跟着一辆无人驾驶车,伪造GPS信号把它带到别的地方。车载电脑控制系统也是一个攻击面,比如在维修点物理接触后,可以读取轨迹信息,甚至植入恶意软件。”魏疆说。

上面关于无人驾驶汽车等的举例都是在其学习系统较为明确的情况下,攻击显得较为容易,“我们最新的一些研究显示,如果说攻击者对于我们的学习模型或者是学习系统的信息细节都一无所知,他们依然能够进行有效的攻击。”

宋晓东以及她的团队还发现,攻击者可以对计算机生成模式进行篡改。实验中,他们对某个人脸识别系统进行了修改,结果整个系统就生成了一个人的脸,“这些例子可以告诉我们在深度学习系统里面有很多对抗性的例子,而且可能会影响到方方面面。即使攻击者对于我们的学习模式一无所知,也可能会进行有效的攻击。”

虽然针对AI的安全攻击花样繁多,但是研究人员也做了一些应对措施,比如说对于输入进行处理,通过中位模糊等等,或者是去探测异常高频的模式,探测对抗性的例子。

然而,似乎这些名门正派的防身术对于那些躲在暗处的攻击显得有些捉襟见肘,“我们也进行了一些研究,发现绝大多数对抗的方法其实是无效的,如果是一个非常有能力的攻击者,是可以很轻松的绕开我们现有的这些防护。”宋晓东说。

AI 风险

电子门禁也遭遇攻击

马斯克的话或许并非危言耸听,可以回顾一下互联网发展至今的安全威胁。

“我们可以看到互联网技术的提升,但都伴随网络攻击的增加,计算机在发展的时候并没有考虑到安全性,因此在互联网发展之后遇到了许多的网络攻击。”宋晓东说。

宋晓东举例说,在互联网运用之初,共有6万台计算机,有一个学生制造了第一个病毒蠕虫病毒(后被称为“莫里斯病毒”),当时的病毒差不多感染了6000台计算机;13年之后有了另外的一个病毒Code Red,也就是红色代码,这个病毒感染了2000台主机,全世界很多电脑都受到了攻击;后来又出现了一个蠕虫病毒Stuxnet,也叫超级工厂病毒,是针对工业控制系统的破坏性病毒,它的攻击性非常强。“今年,蠕虫病毒WannaCry导致了20万台计算机中毒,影响了150个国家,所带来的损害是不可恢复的,这也是有史以来影响力最大的病毒之一,是一种勒索病毒。”宋晓东说。

宋晓东表示,世界互联化增加,恶意袭击就会不断增加,此外我们也谈物联网,现在出现的病毒叫物联网僵尸,它也带来了许多恶意袭击。

中国移动通信集团信息安全与运行中心总经理张滨认为,物联网时代将有两个“无处不在”:一是物联网的应用无处不在,智能家居、智慧交通、智慧城市将从各个方面影响人们的生活;二是它所带来的风险也将无处不在。“物联网把传统的信息技术和运营技术的风险结合在了一起。而随着物联网应用的碎片化,不管是传感层、接入层,还是平台层、核心层,都面临风险渗透的可能。”

目前,个人隐私、家庭安防等领域都是物联网安全的“重灾区”。亚信安全首席技术官张伟钦介绍,今年年初,奥地利一家酒店的电子门禁系统就曾多次遭到黑客的攻击,使得客人无法进入或走出房间。酒店只得向黑客支付了价值1500欧元的比特币。然而,黑客在获得赎金以后,还在系统留下了“后门”,这意味着他们随时都可以卷土重来。最后,酒店不得不考虑更换为传统的钥匙锁。

“我们必须要更加重视人工智能以及它的安全性和攻击事件。除此之外,这些攻击者也在不断追赶新技术发展的脚步,甚至有时可能会快于技术的发展,所以在AI领域,我们将面临很大的风险和挑战。现在有越来越多的系统存在AI的智能,因此受到攻击的可能性也会不断提高,加之AI的能力越来越强,这也就意味着一旦AI被攻击者所滥用,结果会越来越严重。”宋晓东说。

AI  未来

重视安全并不等于恐惧

AI的问题事实上跟互联网上其他软件遇到的安全问题是相似的,但是就经验以及研究来看,特别是在AI的学习层面,人们的经验还是很少。

“比如说对于学习系统,我们并不知道如何来详细地定义相应的这些具体目标,比如说你想要去确保自动驾驶的汽车不会真正的撞到行人,你怎样去定义这里面的目标是什么,以及特质是什么,我们并不知道这个系统的学习系统是如何运行的,我们没有办法去了解。此外,还有许多传统的学习,在这个层面上是不适用的。”宋晓东说。

事实上,AI被攻击的危险就潜藏在我们身边,比如一些可穿戴的设备,通过这些设备可以提升人们的学习效率或者享受更多的娱乐活动,但是对于这些攻击者来说,可能就是一个很好的目标,在受到入侵之后,一些可穿戴的设备事实上可以对用户进行恶意的攻击。

“几年之前我们发布过一个关于医疗设备安全分析的报告,里面提到这些医疗设备的安全是比较脆弱的。”宋晓东说。

但是,无论人工智能的安全存在多么大的漏洞,都无法否认其发展已经走上了快车道。普林斯顿大学教授李凯表示,“AI历史非常长,从1950年图灵提出这件事情到现在大家感觉人类似乎要被机器人代替了,但真正要做这些事情路程是非常长的。”

“现在的‘人工智能’大多还只是实验室产物,离实用阶段还有很长的路要走。现阶段关注安全问题意义不大,基本就属于过度设计,只有能实用了,安全的关注度自然会转向过来。”魏疆说。

对于AI面临的这些安全挑战,似乎我们并没有太多的办法,但是宋晓东也表示,重视AI的安全问题也并不意味着就是对于AI的恐惧,她认为我们必须要去考虑人工智能的安全问题,从早期就要开始考虑。

此外,这也并不是计算机科学一门学科的任务。“AI的安全是一个跨学科的任务,必须是全社会共同参与的任务,这里涉及法律的问题,也涉及到安全,同时也涉及到技术各个方面的问题。”宋晓东说。

内容加载中