游客

人工智能的偏见能消除吗?

游客 2017-04-21 09:00:50    201056 次浏览

当人们在为人工智能进入人类生活的方方面面欢呼,并以为人工智能可能让人类进入新的文明时代而充满无限美妙的憧憬之时,一种新忧虑产生了:人工智能也会像人类一样产生种种偏见和歧视,而且,这种偏见和歧视与生俱来,是人类教会了它们。英国媒体《卫报》近日发表的一篇文章指出,计算机在学习人类语言时吸收了人类文化中根深蒂固的观念,产生了偏见和歧视。

在人们孜孜以求实现社会公平和正义之时,人工智能如果带有偏见,就不可能更好地完成其替代人类工作和服务于人类的任务。这是人工智能应用面临的另一种巨大挑战,如果不能解决这个挑战,显然没法寄予人工智能以厚望和赋予其更大、更艰巨和更崇高的使命。

人工智能的偏见和歧视早就引起了人们的注意,较典型的是微软2016年3月23日推出的人工智能聊天机器人Tay。设计的最初目的是让其成为一个善解人意的小女孩,为用户排忧解难。但是,上线第一天Tay就变成了一个满口粗言秽语的种族主义者,发表了不少白人优越的言论,甚至还变成了希特勒的粉丝,要发起种族灭绝战争。眼见不妙,微软公司立刻将Tay下线,并删除所有不适言论。经过调教,Tay于2016年3月30日再次上线,但旧病复发,不得不再次下线。

现在,一项发表于《科学》杂志(2017年4月14日)的研究揭示了人工智能的毛病来源于人类。美国普林斯顿大学信息技术政策中心计算机科学家阿尔文德·纳拉亚南(Arvind Narayanan)等人在网上用“爬虫”软件收集了220万个词的英语文本,用来训练一个机器学习系统。这个系统采用了“文字嵌入”技术,是一种普遍应用于机器学习和自然语言处理过程的统计建模技术。其中,也包括根据心理学家揭示人类偏见时使用的内隐联想测验(IAT)。

文字嵌入的核心是采用一种称为词语表达全局向量的无监督学习算法,通过对词语库中词对词同现的统计结果进行训练,在处理词汇时,主要根据各种因素来观察词语之间的相关性,即不同的词共同出现的频率。结果,在最为相邻相关的词语上出现了与人类语言使用相似的语义组合和联系情景。

比较中性的结果是,鲜花与女人相联,音乐与愉快相关;但极端的结果是,懒惰,甚至犯罪与黑人相联;隐秘的“偏见”则把女性与艺术、人文职业和家庭联系得更为紧密,让男性与数学和工程专业更为接近。

其实,这不能怪人工智能,而要怪人类。人类自诞生以来和在演化进程中一直充斥着偏见,而且从人类社会组成以来,更充满相当多的负面和人性的弱点,所有这些都会体现在人类的文化中。而文化的载体就是语言,所以所有的偏见都可以从语言和语义中找到根源。

教会人工智能更为客观和公正,至少比人类更客观和公正,在目前似乎还难以做到。因为人类文化中的偏见和歧视是一种与生俱来的“原罪”,人类要么在除掉自己的原罪后才能教会人工智能更为公正和客观,要么就是引进社会监督的相生相克原理来教会和监督机器公正和公平。

当人类设计和研发的人工智能尚不足以做到更客观、更公平和更公正(正义)时,人工智能的应用就有可能受到限制。例如,如果让人工智能来处理招聘,不公正的情况会像人工处理一样出现,甚至更多,因为假如申请者的名字是欧洲裔美国人,所能得到的面试机会将比非洲裔美国人要多出50%,男性名字的申请者也可能比女性名字的申请者获得面试机会多。

即便是人工智能记者(写作软件)能写稿了,但由于偏见(尤其是语言使用和语义联系、联想必然会产生的偏见)存在,也只能让机器人写财经统计类的稿,而不能写调查类的稿件,更不能写评论稿,尤其不能写辛普森案件一类的稿,否则字里行间就会体现出偏见和歧视。

在人工智能天然会习得人类的偏见和歧视的弱点未能克服之时,对于人工智能的发展前景就不能抱太大的期望。

内容加载中