骑猪兜风

人工智能强大能力背后的可怕秘密:利用宇宙基本法则

骑猪兜风 2016-10-15 09:46:01    200772 次浏览
人工智能强大能力背后的可怕秘密:利用宇宙基本法则

新浪科技讯 北京时间10月15日消息,据国外媒体报道,一项最新研究显示,强大的人工智能(AI)系统之所以运作得如此顺利,也许是因为它们的构造利用了宇宙的基本法则。

这项新发现也许能帮助我们解决一项由来已久的、与采用了深度学习策略的人工智能有关的谜题。这些深度学习(又称深度神经网络)程序是一种多层算法,计算由低层向高层进行。深度神经网络在解决复杂的问题时往往具有惊人的表现,如下围棋、给猫咪的照片分类等,但目前还没人知道为什么会这样。

而麻省理工学院的一名物理学家、此次研究的共同作者之一马克斯·泰格马克(Max Tegmark)认为,这可能是因为它们利用了物理世界中的一些特殊性质。

泰格马克指出,物理法则把人工智能擅长解决的问题称作“一类非常特殊的问题”。“物理学让我们关心的一小部分问题和神经网络可以解决的一小部分问题实际上是差不多的。”

深度学习

去年,人工智能完成了一项很多人认为不可能成功的任务:谷歌的深度学习人工智能系统DeepMind打败了世界上最厉害的围棋玩家。这使全世界为之震惊,因为围棋所有可能的走法种类甚至超过了宇宙中原子数量的总和,之前的下围棋机器人只能达到普通人类棋手的水准。

但比DeepMind取得的成就相比,它完成此次任务的方式更加令人震惊。

“神经网络究竟为什么运作得这么出色,这令我们困惑不已。”该研究的共同作者、哈佛大学的一名物理学家亨利·林(Henry Lin)表示,“无论我们向它们抛出什么问题,它们基本都能解决。”

例如,从来没有人教过DeepMind如何下围棋,也没有训练它学习经典的围棋走法。它只是“观看”了数百万次围棋比赛,然后又和自己或其它选手下了很多次围棋而已。

泰格马克指出,就像新生儿一样,这些深度学习算法一开始时都是“毫无头绪”的,但又总能打败其它提前掌握了一部分比赛规则的人工智能。

此外,泰格马克指出,还有一个问题一直让科学家摸不着头脑:为什么深度网络比所谓的浅层网络出色这么多。深度网络包含很多层级,有点像大脑中的神经元之间的存在联系,来自低层级的数据会流入更高层的神经元中,在各个层级上进行多次重复。与之类似,神经网络中的深层级会做一些计算,计算结果随后进入程序中更高的层级,以此类推。

魔法钥匙还是魔法锁?

为了弄清这一过程为什么能成功运作,泰格马克和林决定换个角度看问题。

“假设有人给了你一把钥匙,每一把锁似乎都能用它打开。你可能会认为这把钥匙具有某种魔力。但还有一种可能性:有魔力的其实是锁。在神经网络这个案例上,我觉得这两种解释都说得通。”林说道。

泰格马克称,一种可能性是,“真实世界”的问题之所以具有某些特殊的性质,是因为真实的世界本身就很特殊。

就拿神经网络中最大的未解之谜之一来说:这些网络总能解决一些需要繁琐计算的问题,如围棋等,并且只需比预期少得多的计算次数,就能找到解决方案。

研究发现,神经网络的计算过程之所以能大大简化,还要归功于宇宙中的几条特殊性质。泰格马克指出,其中第一条就是,从量子力学到引力、再到狭义相对论,主宰着这些物理法则的等式其实只是简单的数学问题而已。

泰格马克还指出,宇宙中的物体受到光速限制,对近处的物体比对远处的物体造成的影响更大。

此外,宇宙中有很多物体还遵循了正态分布,又称高斯分布,即那条经典的“钟形曲线”。

最后,对称性可谓融入了物理学的方方面面。如叶片上的脉络、人的双臂、双眼和耳朵等。而换到宇宙尺度上,如果有人移动了一光年的距离,或者等上一年时间,物理法则都是相同的。

更难解决的问题

宇宙的这些特殊性质意味着,神经网络面临的问题其实只是一些特殊的数学问题而已,可以被大大简化。

“你可以看看我们在实际中遇到的数据组,它们其实比你可能想象到的最坏情况要简单得多。”泰格马克说道。

还有些更困难的问题等着神经网络去攻克,比如在网络上保护信息所需的加密方案等,这些加密方式可能就像普通的噪音一样毫无规律可言。

“如果你把这些信息加到神经网络里,它肯定会像人类一样遭遇失败,找不到任何规律。”泰格马克说道。

自然界中的亚原子法则非常简单,而描述一只蜜蜂飞行的路线所需的等式则极为复杂,描述气体分子运动的等式则要简单一些。目前我们还不清楚深度学习能否像描述气体分子的运动规律一样,描述出复杂的蜜蜂飞行路线。

“问题的关键是,在‘新兴’的物理法则当中,有些相当简单,有些则颇为复杂。因此,要想详细解答为何深度学习表现得如此出色,我们还有许多工作要做,”林说道,“我认为这篇论文提出的问题比解答的问题多得多!”(叶子)

内容加载中