游客

天天说要取代人类,为什么人工智能还是做不到?

游客 2017-01-28 08:53:43    200979 次浏览
天天说要取代人类,为什么人工智能还是做不到?

新浪科技 姜轶群

人工智能诞生有61年,但它从高冷科技到被吃瓜群众围观也就是这几年的事。我们可能一直在媒体上看到人工智能做各种各样的事,文可遣词造句写文章,武能扛枪指挥上战场。所以总有一种声音在告诉我们:人工智能总有一天什么都能做,到时候你就是它寄生的一部分,甚至被它控制。但近期的一系列事件在告诉我们一个相反的结论:谈论人工智能取代人类还为时尚早,至少有一些问题需要解决。

人工智能还不够成熟

人工智能有一个最基本的优点,就是能在长时间的工作中保持中立和准确性,这也是很多公司开发人工智能的一个主要原因。比如说, Watson认知计算平台用于医疗的效果很不错。但不是所有的人工智能都那么靠谱,比如近期用于消息流的人工智能就捅了篓子。

Facebook的趋势新闻版块一直被人指责有严重的政治偏向,后来Facebook炒掉了整个合同工编辑,原来的编辑工作完全由人工智能代替,但没过几天,人工智能就闯了大祸:它给趋势新闻版块推送了一条假新闻,宣称福克斯电视台解雇了一名著名主持人,并且称该主持人是“叛徒”,在Facebook修正错误之前,可能有数百万用户看到了假新闻。

天天说要取代人类,为什么人工智能还是做不到?Facebook推送的假新闻

而后续更令人惊讶。Facebook为了人工智能炒掉了整个人类新闻编辑团队,在假新闻事件发生之后,有三名原新闻编辑站出来宣称,在他们被解雇之前,Facebook力推的新闻算法其实并不完善,甚至有编辑爆料,原来他们审核人工智能算法推荐的新闻时,发现算法推荐的50篇文章一般只有20篇才是真新闻,而且这20篇新闻来源也不够权威。

天天说要取代人类,为什么人工智能还是做不到?Facebook“趋势话题”(Trending)版块

这个事例中,人工智能可能没有人类编辑对新闻事件的好恶偏向,但新闻本身的准确性大大降低,直接影响了新闻推荐的质量。编辑们表示,除了工程师不断提高算法,编辑对于人工智能系统的训练也是不可或缺的,但这里的人工智能没有经过充分学习,就被Facebook出于新闻中立性的考虑被急急忙忙推出来见人了。

后来的事情更是严重:Facebook推出人工智能新闻算法的时候正好撞上美国大选,然后争议不断的特朗普当选总统,各种对结果不满的人开始指责Facebook:都是你们消息流上的假新闻帮特朗普胜选!这种说法可能有甩锅的嫌疑,但Facebook上流行各种关于大选的假新闻倒是真的。据说在欧洲一个叫“马其顿”的国家,一些青年靠建立假新闻网站、编假新闻来挣广告费,而传播假新闻最快的途径就是通过Facebook。现在,被骂的狗血喷头的Facebook开始采取各种措施打击假新闻,效果如何,还尚待时日证明。

这件事情告诉我们,人工智能完全成熟需要时间打磨。技术人员需要不断改善人工智能的算法;更重要的是,人工智能做到模仿人类思维必然有一个学习的过程,而绝大多数的学习过程是通过人类训练而进行的。目前各大科技公司开发人工智能的时间还不够长,相应的系统学习也没有那么成熟,可以说是相当于几岁或者十几岁少儿的水平,让这样的系统承担成人才能做的工作,可能超出了目前系统的承担能力。

人工智能也会被欺骗

相比人工智能本身缺陷导致的错误,这一条目前还不太为人所注意,但仔细想想,黑客入侵系统对于人工智能是个显而易见的威胁。作为以各种算法为基础的系统,一定存在被黑客攻击的可能。

黑客目前可能最常用的攻击手段就是欺骗人工智能。近期的各种电信诈骗告诉我们人类本身也不是时刻都保持聪明,对于缺乏完全思维能力的人工智能更是如此。在这方面,黑客把欺骗手段可以玩出花样。

比如说,美国的研究人员可以通过生成的3D模型欺骗人脸识别系统。这些研究人员首先在社交网站上收集人脸照片,通过这些照片制作人脸3D模型,并加入面部表情或者眨眼之类的小动作,至于皱纹之类的面部细节可以伪造,这样生成的人脸3D模型在55%到85%的测试时间中可以骗过五分之四的人脸识别系统。

天天说要取代人类,为什么人工智能还是做不到?研究人员通过照片制作人脸3D模型过程

除了欺骗人脸识别系统,黑客还有可能攻击自动驾驶系统。比如曾经就有黑客利用特斯拉Autopilot系统漏洞,成功“催眠”。

天天说要取代人类,为什么人工智能还是做不到?研究人员使用“噪音进击”方式干扰特斯拉

如果这个系统本身就不够成熟,那就搞笑了。曾经有记者测试一个刚起步的人工智能投资机器人,结果这个机器人为记者虚构的创业项目要扔1400万美元。

天天说要取代人类,为什么人工智能还是做不到?人工智能要给记者虚构的创业公司“投资”1400万美元

所以说,目前再厉害的人工智能,还是有被欺骗的可能,至少我们不能将它作为唯一的依靠来判断事情或者做决定。

人工智能还不能明辨是非

谈到“明辨是非”,对于目前的人工智能来说可能要求太高,毕竟连人类都不能做到永远明辨是非。有人甚至害怕,如果让人工智能明辨是非,就意味着人工智能有了自己的判断和好恶,这样它就不能完全听人类的话,甚至有背叛人类的可能。

其实没那么玄。之所以让人工智能学会明辨是非,是让它能够判断出人类让它做的事情本身是对的还是错的。一个不会判断是非的人工智能,可能会变成某个居心不良的人的杀人工具,会无条件执行恶人的命令;即使问题没那么严重,也有可能是这么一种情况:一个记性不好的老人让人工智能机器人给花浇水,但实际上机器人刚刚給花浇过水了。

天天说要取代人类,为什么人工智能还是做不到?电影《终结者》中的机器人

让人工智能判断命令背后的风险,并且避免风险,是人工智能真正变成“智能”的重要一步。目前其实有人注意到这一点,他们试图开发能让人工智能做出简单判断的控制技术,还有人提出要给人工智能教道德和法律。但目前,相关的技术还在开发中,至于教授道德法律,科技巨头为此专门召开会议,试图制定人工智能的道德规则;而欧洲议会也推进关于自动驾驶和人工智能的相关法案,明确发生相关事故后的责任,并且要求人工智能机器人要加装“自毁按钮”。但这些努力目前都只是个开始。

天天说要取代人类,为什么人工智能还是做不到?美国五大科技巨头开会制定人工智能道德标准

美国科技杂志《连线》前主编凯文·凯利曾经在他的书中写到,人类对人工智能的心态有7个阶段。目前我们对人工智能的心态可能是这样的:人工智能会做很多事情,但我做的它不一定会,或者它做这些常常出问题,需要我处理,又或者是我需要训练它学习新任务。这三个阶段再进一步,就是人类能放心将任务完全交给它的时候。在笔者看来,跨越前文所述的三个问题,人工智能才能完全承担人类给它的工作。

内容加载中