上周,一个网名为Master其实为“阿尔法狗”的“网络棋手”在围棋对弈网站弈城登陆,连续打败柯洁九段、朴廷恒九段、陈耀烨九段、连笑七段等高手,至今已取得60连胜的战绩。
人工智能被誉为21世纪三项尖端技术之一,是一门试图使用机器模拟人类智能的学科。随着计算机技术的发展,计算机加工、处理数据的能力越来越强,人工智能的发展同时让人类意识到,计算机及加载了计算机的机器人将不再只是工具,它们或许会像人类一样思考。由于人工智能在信息处理方面存在天然优势,若任由其发展,人类自身可能面临威胁。长期以来,专家学者往往靠这样一些借口来打消人们的顾虑:人工智能无论如何绝不能复制人类的“智慧”等。为此,我们一度将象征人类智慧的棋类竞技视为人工智能不可攻陷的领地。然而,自1997年超级电脑“深蓝”战胜国际象棋世界冠军卡斯帕罗夫,特别是去年“阿尔法狗”以绝对优势战胜韩国棋手李世石,这块领地也开始丧失了。
不过从心理学角度讲,完全没必要对人工智能的发展感到恐惧。人类的智能是极为复杂的集合体,不仅包括信息处理能力,还包括情绪把控能力等。人类在发挥智能时,除了按一定程序、方法处理特殊事项,还能自觉地跳出事件本身,考虑所作所为的意义,即人类对自己的行为有明确的意识,而机器则不具备此种能力。温度计能精准丈量温度变化情况,但绝不能因此就说它了解何谓“温度”。人们之所以误以为计算机具备自我意识,是因为计算机被越来越多地用于处理带文化属性的事项,如美国某些报纸已采用机器人写作新闻稿。对人类而言,写作意味着我们已知晓一门语言的语法知识和常用词汇,经验告诉我们,对一门语言必须先有了解,才能灵活运用。根据这种思路,写作新闻稿的机器人似乎显得具备自我意识和理解能力了。
对这个问题,美国心理学家赖尔举了一个绝妙的例子,他假设一个中国人和一台机器对话,这台机器由被反锁在屋里的一位不懂中文的美国人操纵。这位中国人把提出的问题写出来,通过机器传输到屋内,而美国人尽管不晓得中文,但借助一套完备的操作指南,总能机械地挑选出合宜的汉字作为回答。那么问题是:屋外的中国人会误以为这台机器懂得中文吗?屋内根据操作指南拣选汉字的美国人会误认为自己懂得中文吗?显然不会。这个道理适用于一切人工智能。以“阿尔法狗”为例,尽管它下的每步棋都符合下棋规则,并且最终还获胜了,然而这依然不足以表明其懂得了下棋。它对围棋仍然缺乏同我们类似的观念,于它而言,下棋的每一环节都被转换为特殊的操作代码,这些代码足以保证其达到设计者预期的结果,可它仅仅是在程序上实现了设计者的意图,却未能超越繁琐的工序,产生直观、综合的“下棋”意识。曾有人询问人工智能之父艾伦·图灵:“机器能思考吗?”图灵狡黠地回答:“谁说机器一定要和我们一样思考呢?”无论人工智能如何发展,机器也不能获得一种自我意识,它们只能按照指令行事。
由此观之,人类与计算能力日新月异的人工智能竞争将越发不切实际,在遥远的未来,为激发人工智能的自我发展,让机器与机器竞争更为可靠,当然,这就超出单纯的竞技范畴了。而人工智能对我们开发智能最大的好处,莫过于它有利于我们发现自己思维模式的弊端,缩短反复试验的时间,促使产生更有效的解决问题思路。