游客

腾讯副总裁姚星:解密“低调”的腾讯AI部门,揭开AI真实的希望和隐忧

游客 2017-01-09 12:27:55    201161 次浏览

腾讯副总裁姚星:解密“低调”的腾讯AI部门,揭开AI真实的希望和隐忧

在腾讯研究院年会中,腾讯副总裁姚星发表演讲《AI 真实的希望和隐忧》,他在大会中介绍了“低调”的腾讯 AI 部门所做的事,并深入讲解该如何提升机器学习的能力以及对 AI 的看法。文章由雷锋网进行编辑。

腾讯在 AI 方面确实很低调,很多人问我腾讯有没有做 AI?怎么从来没有向外宣传呢?

解密腾讯 AI 部门

实际上从 2016 年 4 月份开始,腾讯成立了自己的 AI 部门。目前这个部门拥有 30 多个科学家,90% 以上的人都是博士学历,绝大多数人都是海外名校归来,包括哈佛、康奈尔、麻省理工、哥伦比亚大学等高校。

腾讯的 AI 可能并不像其他巨头那样出名,比如说拥有 AlphaGo 的谷歌;拥有无人车和度秘的百度;以及拥有一些优秀图像识别项目的 Facebook 等等。

腾讯 AI 主要是集中在四个垂直领域:计算机视觉、OCR、语音识别、NLP。每一个领域里都会拓展到更多深层次的研究。在计算机视觉领域,除了传统的图像处理,还会涉及到 AR 以及空间定位技术等。

语音识别方向,除了传统的语音识别、语音合成,还会将相关技术置入在自动翻译当中。另外,除了传统的自然语言处理这种认知行为的研究,腾讯还这些技术进行落地研发聊天机器人等。

腾讯这四个 AI 研究方向,与腾讯现有的业务紧密结合。

腾讯作为一家社交为长的公司,会根据社交业务创造 AI 能力和产品,包括聊天机器人、智能助手,都会在社交的基础上进行研究。

与此同时,游戏是腾讯非常重要的一项业务。未来腾讯会在游戏里面引入更多 AI 能力,设想这样一个场景,未来 LOL 是不是可以有 AI 参加这种世界竞赛,跟人对打。腾讯也有一款很受欢迎的手游叫做王者荣耀,如果利用 AI 把这里面的能力提升,就会提高可玩性和乐趣性。

除此之外,腾讯还会提供我们很多工具类 AI,包括人脸识别、语音识别、自然语言处理,以及学习平台等。

机器学习取得突破的三大原因

AI 在这 60 年来一直都是起起落落,然后在去年突然大爆发,一直延续到现在。

从九十年代深蓝打败了卡斯帕罗夫,到沃森在《危险边缘》挑战赛里面取得了冠军,再到去年 AlphaGo 击败李世石。AI 的整个发展史里有很多技术方面的巨大演进,第一个就是 2006 年在深度学习上的突破。早期人类想学飞翔,最初的方法是粘上羽毛,像鸟一样。但最终真正的飞翔原理是要通过空气动力学去解决飞鸟的原理,这就是深度学习的一个思想。之所以现在能在很多的这种工业上面,在很多应用上面进行突破才能完成,本质上是掌握了它内在的方法,而不是表面的方法。人工智能也如此,学习算法方式的研究是非常重要的。

第二个是模型上的提升。机器学习在八九十年代也非常火,当时有一个叫 SVM,它已经是一种非常厉害的机器学习算法。当它达到几亿、几十亿规模的时候,实际上它的计算能力就会急剧下降,做一个非常复杂的复合函数去描述这种方式,它通过 BP 多层连接,达到一个指数层倍的关系,描述十亿可能只需要三层一千个节点的连接,就能构建十亿个特征出来。所以从本身来讲,模型上的提升这也是深度学习的突破。

第三是在数学层面,即 BP 上面问题的解决,反向传播的问题。首先在数学理论上进行,反向传播是一个非常复杂的问题,在神经网络里面当一个东西在传递很多层网络中时,当它往回我们要反向收敛的时候,均要去逼近最优质。但是当层数往往过多的时候,会发生一个梯度消失或者梯度膨胀的问题。通过一些方法的解决,数学理论上的解决,很好解决了这种问题,所以在数学理论上面,建立了一个比较好的基础。

正因为这三方面的优势,所以才使得机器学习如此火。而且这次浪潮会持续很远,在 1933 年到 2000 年左右,整个传统的浅层机器学习的学习方法,它有一个比较好的下降过程,但是 2000-2010 年这十年,它进展非常快。

在方法和模型上面可能都没有进行,突然在 2012 年左右,微软研究院他们最开始在工业界把机器学习用到语音识别里面去,取得了极大性的突破。整个过程机器学习的能力的确是在过往的五年当中,发展非常非常快的。讲了很多机器学习的这种,刚刚说的发展,快速的发展,它的方法也很好,模型也很好,数学算法也在突破,但是现状是什么呢?

人工智能的局限性

我虽然对 AI 的抱有很大期待很,同时认为 AI 还存在很多的局限性。

第一个就是本身深入学习的能力。AI 跟人去相比,它有较大的差距。实际上现在所有的机器学习方法,我们都发现不管这个方法有多么的新提出来,它的学习过程都是要从头开始学,都要把数据重新进行一次训练的过程。

但这跟人的学习能力相比确实有很大的差距,人有很多的智能是与生俱来的,就像小孩刚出生,不需要多长时间就知道这个世界是三维的,当你把一个东西放在一个,把一个瓶子放在电视机的后面,他是知道的,在电视机后面有一个东西的,这是一些特征是与生俱来的,这个是跟生物的进化是相关的。

所以人的这种,灵长类的动物跟单细胞动物相比,肯定是有与生俱来的能力。但是目前深度学习方法很遗憾,科学家们不管提出了多么优秀的模型,都要重新开始学,这是第一个跟人的学习能力相比,机器非常大的缺陷。

第二是不管有多么好的学习模型,它本质上还是通过算力,利用计算能力去解决大数据,用更大的计算能力去做更好的融合。过往是整个硬件发展,是顺从了摩尔定律发展,发展非常之快,但是在未来的更多的参数下面,人们还有没有这种能力,达到计算的效果,这要打上很大的问号。

再比如说 2006 年提出来的网络模型,到后面剑桥大学提出的模型,再到谷歌,再到 2015 年神经网络。每一次新的模型提出都是把模型的层数加入更多,神经单元更复杂,训练结果更长,得出来的结果也最优。但是本身这种方法是不是还能像原来的方法一样可持续,这要打一个很大的问号。另外一个刚才解决的是图像方面的问题,下面解决感知的问题,如果要解决认知的问题,那差距就更大了。

人的语言是一个序列问题,这个语言序列问题如果要计算的话,这个算力无论如何都解决不了。人可以很容易在对话当中,回溯到一个很长时间语句的某个片段的关键词里面,但是在机器里面它却不一定做到。虽然在最早的模型形成到现在长短记忆单元的模型,到现在腾讯的,带有注意力的模型,但是总之来讲,这种模型的演进都还跟人相比是非常复杂的,是远不如人的。

比如说那天我看到一个对话,是三个人在对话,两个人在聊,中间有大段聊去哪儿吃饭,突然有人问太阳呢?人知道这是描述太阳队的,因为前面很早之前有人在聊,湖人跟快船的话题,突然来个太阳大家就知道,但是机器基本上是没办法识别的。夏天能穿多少穿多少,冬天能穿多少穿多少,两句基本上一样,但是前面去描述,把少给突出来了,后面把冬天多显出来。

第二个例子我讲的是语音识别,我看了一个笑话,语音识别很难搞,您好,方便面试吗?我在重复这句话的时候,我都不知道自己在讲方便面试吗,还是方便面是吗,的确这是一个非常难的问题,但是人的意识里有很多东西,是由于进行反问的时候,再慢慢把这个东西带出来。所以说目前的 AI 情况,在图像里面,包括人脸做的多么多么厉害,实际上它在很多的约束条件下,它可能不能通过侧脸去识别人脸,戴帽子的时候也比较难。所以它是在很多约束条件下面,人脸识别率可能只达到了 9%。这些问题也体现在语音识别上,语音识别也是在噪音比较小、没有风噪、车噪的环境下,机器识别率会有一个比较好的效果。但机器与人的基本能力相比还差距很大,更别说它在认知方面,在 NLP 方面。

如何提升机器学习的能力?

AI 与人,包括机器学习与人能力上的有些差距,怎么去补齐差距呢?

第一个我觉得跟人相比要创造,我们现在所有都是基于大数据,这些数据从何而来,这是非常重要的。这个数据现在是传统的获得而来,但更多的数据是本身能创造出来,当然这条方法通过刚刚主持人介绍的,包括 AlphaGo 已经在验证这样的问题,通过增强学习去产生人类从未下过的棋,这是一种创造数据的能力,通过创造数据的能力产生更多的数据,不一定是人创造了这些,去把这些东西更多的穷尽出来。在未来,如果在这方面发展的话,可能在增强学习方面,要进行更多的发展和突破。

第二个就是举一反三,什么叫举一反三,AlphaGo 下围棋能下倒世界冠军,但是他的下棋方法到现在已经不行了。因为他的方法并不是为下棋而创造的,他不会进行推导。当我们验证大数据和一个非常好的效果的时候,我们数据量很小的时候,怎么把原来的模型迁移过来,这是非常重要的研究方向。

第三个方向和人相比就是归纳总结。人是非常能进行一些总结的,包括像牛顿的第一定律,包括牛顿的万有引力,都是人总结出来的,包括我们很多公理,但是目前机器学习是没办法进行归纳总结的,我们之所以结果好,它并没有提炼出公理和定律的关系。所以这方面未来我们要在归纳总结,特别是无监督学习上面,分类问题是有目标去学习的,但聚类问题没有目标的时候,我们怎么把它聚好。

所以在这三个能力上面,我相信这是我们未来在 AI 上面要进行提升的。第二个就是在整个的发展方向上面,刚刚讲了很多说机器学习通过数据方法,它从传统的浅层学习里面,我们所有通过统计学的概率论,完备的统计学概率论理论来支撑它,我们说到求这种函数极限的问题,已有很多完备的数学公式去证明,一定能解决它的问题,但是恰恰在我们机器学习上面,虽然前面我们用了随机去找局部最优,但是它本身数学领域,它只是一个框架,我们在很多上面还是一个启发式的约束,包括我们的初始化参数多少,包括我们学习率是多少,这都是有启发性的。

在未来如果机器学习要继续往下走的话,我们在数学理论上面一定要有强大的支撑,特别传统的机器学习,数学完备型,要迁移到我们机器学习上来。

大家知道神经网络的提出,很多来自于原来的脑神经学科和生物系统,在本身这个上面,我相信未来 AI 的发展要引入更多,不光是我们数学学科、计算机学科,还要引入脑学科神经去引,因为脑的神经结构就是,刚刚我提到了蝉纱神经网,已经连接脑神经的概念了,进行跨层连接,达到一个非常好的效果。

当然更多的东西我希望在未来,在交叉学科上面,包括融合生物、脑神经甚至包括哲学,这样的话整个 AI 可能才有更多完备型的发展。另外一个地方就是,在当今世界里面,AI 对所有公司来讲,对所有人来讲都应该是平等的,所以我们一定要开放。比较好的是当今世界所有的,在 AI 领域里面的大公司都在做,包括腾讯也会,我们看到很多包括谷歌、FaceBook 它也开放了非常多的网络模型,包括我们了解现在很火的 Open AI 等等这些大的这种机器学习平台先行者。腾讯在未来也会去进行很多开放,让更多的人来参与,进行测试。所以整个过程就在未来 AI 的发展,我相信第一方面就是在能力上面,要跟人去匹敌的话,要进行提升。第二个在整个学习的完备型,数学完备,学科完备上要进行丰富。第三个就是所有大公司,应以更加开放的心态去面对 AI,这才是未来 AI,AI 的未来。

中国的 AI 实力不亚于美国

说到这里我又要再次强调一下,AI 对腾讯来讲非常重要,对中国整个互联网都很重要。

在互联网时代,我们跟美国最强的公司去比,还会有一些差距。但在 AI 时代,包括腾讯在内的各大中国公司,是完全跟世界一流的公司是有匹敌之处的。为什么?

第一我们用户量大、数据足够多。

第二是应用场景,作为腾讯来讲,我们有很多把 AI 这种遥不可及的技术跟落地的机会,我们可以在微信、游戏、新闻、QQ 里面去落地 AI 场景。哪怕小到一点语音识别、图像、聊天机器人等等,这都是我们可以去落地的地方。

第三个地方就是人才。目前机器学习领域的华人是非常多的,我参加过 2016 年的 ICML,有三千人,我敢说大概 30-40% 的人都是华人。其中 40% 的文章都是华人写出来的。人才结构上中国是有非常好的这种人才的基础,说正是基于我们数据的优势,我们场景落地的优势,我们人才结构的优势,我觉得在腾讯也好,中国其它互联网对 AI 的未来大有可为。最后讲一下腾讯的 AI 使命。我们的 AI 使命,让 AI 无所不在。

内容加载中