骑猪兜风

怕AI威胁 人工智能的道德代码应该如何编写?

骑猪兜风 2016-10-24 09:12:51    200781 次浏览

(原标题:人工智能的道德代码应该如何编写?)

怕AI威胁 人工智能的道德代码应该如何编写?


人工智能正在以几何级数的速度在发展,虽然对我们生活产生大规模深远影响的AI技术尚未正式部署,但是提前对AI引发的社会与伦理问题进行探讨是必要的。不幸的是,此前公众对人工智能产生的道德伦理问题并没有太多太广泛的讨论。David Newhoff 总结了最近以电车难题为标志的 AI 伦理问题的相关事件,并分析了不同思路的问题。从目前来看,无论是功利主义还是道德决定论,似乎都解决不了 AI 的道德代码问题,也许我们需要道德虚无主义?让机器像人一样在千钧一发的情况下做出基于直觉的决定?

随着人工智能从科幻小说变成大众科学,领先的技术学家与科学家正在向自己提出如何编写道德代码的问题。报道最广泛的道德困境是无人车与所谓的电车难题。这个假想挑战的内容大致是:一个疯子把五个无辜的人绑在电车轨道上。一辆失控的电车朝他们驶来,并且片刻后就要碾压到他们。幸运的是,你可以拉一个拉杆,让电车开到另一条轨道上。然而问题在于,那个疯子在另一个电车轨道上也绑了一个人。考虑以上状况,你是否应拉杆?

这个问题后来被转移到了无人车领域,问的是一辆车的 AI 如何做出千钧一发、生死攸关的决定。这个问题不仅是技术或者道德问题,同样也很富有哲理性。因为我们在现代发达社会应对悲剧的方式,或者对潜在悲剧的预期,通常并没有包含该 AI 挑战所蕴含的这类道德决定论。

许多人是靠信仰来应对悲剧事故。这种信念认为,凡是计划必有神性,即便这个计划无法知晓。那些没有宗教信仰的人对计划则不抱信念,而是与这个事实和解:即混乱和人的不可靠是会制造出可怕后果的。无论是哪种情况,大家对不确定性都有一定程度的安慰感——不是对减少损失痛苦本身感到安慰,而是因为这让我们能够对可怕事件合理化,或者为出门不会活在恐惧之中感到安慰。这种不确定性加上可能性,以及保持着控制手段,让我们可以自信地步入自己的车子开车到处转而不怕被干掉。去掉一个因素,比方说控制手段,可能就可以解释为什么更多人坐飞机要比坐车更焦虑,尽管统计数据表明其实他们应该反过来(汽车事故率比飞机高)。

就这一点而言,当预见不到的事情比如刹车失灵、路面突遇障碍物等发生时——人类司机的瞬时反应无疑更多是偶然性的结果而不是任何类型的理性决策。哪怕是在相对常见的例子里面,司机被教导的也是永远都不要为了避免横闯马路的野生动物受伤害而打急转弯,以免增加被对向来车撞上或者自己撞树的风险。但是那种避免碰撞的直觉是很强烈的,而且一旦突现出现的是阿猫阿狗是还会更加强烈。此处的要点是无论结果如何——不管是松鼠被压扁还是几位乘客死亡,包括司机反应在内的这一系列的事件,都要归咎于一定程度的不确定性,而在这不确定性当中就有许多我们哲学上的应对机制。

但是当人类预先确定特定道德困境的结果,并且把它编码进机器里面,授权机器做出这些决定时会发生什么呢?在上面提到的简单例子里面,松鼠被杀死了而所有的人都活下来了,但如果那瞬间的决定要么导致乘客死亡要么导致横穿马路的母子身亡呢?2016年夏,MIT 的研究人员推出了一个名为道德机器的网站提出的正是这类问题,在各种假设交通场景下,用户必须做出一系列的双输决定,也就是不管怎么决策都会有人死。任何人都可以进行“测试”,测试完之后网站就会公布你的“分数”以及与其他人所做道德决策的对比情况。

当然,从原则上来说,道德机器测试展现给用户的信息是汽车 AI 永远也无法知道的——比如其中一些潜在受害者是犯罪分子。但在更有可能的场景下,年龄是某些场景的因素之一,这个条件我觉得会更加可信一些——汽车是有可能知道自己搭载的是一堆七十多岁的夫妇,因此决定杀死他们而不是一个年轻家庭会显得更有道德一点。而那对老夫妇自己可能也会做出这个无私的决定,但在人类操作者在面临比自己思考还要快的紧急情况时,这类算计不会真正发生。

这类道德机器测试的可怕之处在于,它隐含意味着用于让 AI 做出道德决定的数据集理论上可不仅仅包括数字(比方说机器可以简单地把拯救数多于杀死数设为默认)。年龄也可以成为因素,但是对社会的净值或者相对“价值”呢?AI 可以为了拯救一位物理学家或者外科医生或者一个卡戴珊而毁了整整一校车孩子的生命吗?种族或者性别方面呢?这然后又会引发这些预设定决策是大家都知道的还是商业秘密的问题,这两个都会引发巨大且空前的道德困境。

在这一点上,几天前出现的一篇文章告诉我们说,奔驰的下一代无人车将会被设定为无论任何情况下都拯救乘客。一方面,这属于一个算法派生,这种派生的主题是特权阶级在任何其他生命面前都有一条优先通行车道。但也有说法认为奔驰这样做事未来避免陷进对 AI 进行道德编程的乌烟瘴气里面。可能如果法律要求所有车辆默认都要接受一个指令,比如拯救乘客,这接近于人类司机的直觉但易犯错的反应,同时仍然允许不确定性扮演角色,从而免除了工程师“扮演上帝”的责任。至少在 AI 具备自我意识并开始自行做出此类决定前是这样。

毕竟,一旦去掉偶然性和放弃权利,把生死决策交给机器之后,很难不会注意到人为道德决定论的反乌托邦启示。当我们去掉了偶然性、命运、上帝旨意等所提供的这些心理缓冲之后,发生了悲剧事故自然就要求做出解释,因此本能上就要求追责。这当然会引发一些伴生的问题,比如谁不可避免地要玩弄系统,谁会对自己的车辆进行“越狱”,以便推翻有可能对自己不利的代码,确保自己成为事故的幸存者。突然之间,这把抱怨摆弄技术资产“权利”的意志论者推到了理论上“牺牲小我”观点的对立面。

AI 道德问题还成为了导致得出无人车的私人产权也许不会持久结论的又一个因素。就理性而言,要想让 AI 负责所有人的往来穿梭,各个 AI 系统就必须站在同一水平线上,这样才能汽车去到哪里都讲道德。从这一点来说,奔驰或 Tesla 的模式只不过是公共系统或者高度管制化系统的垫脚石罢了。但是这样的结果不会是制造商或者投资这一未来的领先数据公司想要的。

这就是我同意奥巴马总统的理由之一。他最近在跟伊藤穰一(Joi Ito ,MIT 媒体实验室主管)联合接受《连线》杂志 Scott Dadich 采访时表示,公共基金在 AI 开发中扮演角色是必不可少的。“…… 我们必须理解的事情之一是,如果我们希望这些突破性技术体现出多元化社区的价值,那么政府基金就必须成为其中一部分。如果政府没有参与提供资金支持,那么伊藤穰一提出的所有这些技术价值问题最终可能都会失去,或者至少没有经过适当的辩证。”

当然,奥巴马所指的 AI 并不仅限于车辆,他的观点阐述的很好。AI 的科幻未来已经到来。但用什么样的价值观来推动决策的问题在公开辩论当中几乎很少被提及。与此同时,企业用“颠覆”的修辞已经赦免了隐私和知识产权侵权方面的许多原罪。或者就像 Sam Kriss 在《大西洋》的文章中的出色概括那样:“硅谷解决的是此前并不存在的问题,硅谷文化对‘颠覆’的执着已经达到了病态的地步。技术产品不再感觉像是提供给公众的东西,而像是强加于人:伟大的愿景家观察大家做某件事情的方式,然后决定以一己之力去改变它。”

今年9 月底的时候,美国的技术巨头——IBM、苹果、Amazon、微软、Facebook 以及 Google 的计算机科学家联合成立了一个新联盟,名字叫做“造福社会与公众的人工智能合作伙伴关系”。该联盟的目标之一是建立 AI 领域最佳实践的规范标准,其中就包括了类似无人车电车难题这样的伦理问题的处理。但是这些技术研发体现出公共利益是必不可少的,虽然我本人可能比较挑刺奥巴马政府在许多公共领域过于 Google 化,但是我相信总统本人对如何开发出有道德的 AI 是有着深刻思考的。从目前的研发和投资力度来看,我们唯有希望未来的领导人仍然能继续推进这类话题的深入了。

内容加载中