但在Tay上线仅几个小时后,推特用户们便开始对其算法中存在的缺陷加以利用,导致它在回答一些特定问题时,答案带上了种族主义色彩,如使用种族侮辱用语,支持白人至上主义和种族灭绝政策等。这些推特现在已经被删除了。
这款聊天机器人还学会了发表一些耸人听闻的言论,如“布什是911的幕后黑手,希特勒如果还活着的话,会比我们现在的领导人好得多”,以及“希特勒一点儿也没错”、“唐纳德?特朗普(Donald Trump)是我们唯一的希望”等等。
它还发表推特称:“我听很多人说,泰德?科鲁兹(Ted Cruz,美国大选共和党候选人之一)相当于古巴的希特勒。”
微软的一名发言人称,微软现在正在对该人工智能机器人做出调整,确保这样的事情不会再次发生。
“人工智能聊天机器人Tay是一项机器学习计划,专为与人类交流而设计。”微软的一名发言人表示,“在它学习的过程中,它发表了一些不合适的言论,能够反映出人们都和它进行了怎样的互动。我们目前正在对Tay进行一些调整。”
该机器人的无礼行为包括,宣称二战时期对犹太人的大屠杀是编造出来的,对集中营表示支持,使用种族主义用语等。
这样的事情之所以会发生,是因为有些人向该机器人账号推送了一些言论不当的推特,而该机器人程序使用的算法中缺少矫正过滤器。
Tay还宣称自己赞同臭名昭著的白人至上主义宣传标语“14字训令”。
网站开发人员佐伊?奎恩(Zoe Quinn)曾是网络骚扰的受害者。在此次事件中,她分享了一则屏幕截图,其中的内容是Tay针对她发表的一条侮辱性的推特。
奎恩还在推特上表示:“现在已经是2016年了。如果你没有在设计和策划过程中思考‘这个程序能不能用来伤害别人’的话,你就已经输了。”
据微软称,和Tay互动的人越多,“她”就会变得越聪明,和每个人互动的时候也会更具有针对性。
“你为Tay提供的数据和对话内容将是完全匿名的,为了改善服务体验,这些内容也许能保留最多一年时间。”微软表示。
在与别人互动时,Tay会收集每个人的绰号、性别、最喜欢的食物、邮政编码和恋爱状态之类的信息。
推特用户只需在发表推特时加上“@TayandYou的标签,Tay就会给该用户回复,甚至会直接发送私信。如果要发送私信,Tay就会向该用户解释,自己收到的推特过多,用私信的方式更容易交流。
Tay有哪些本领
和大多数青少年一样,Tay会频繁出现在流行的社交网站上,用狡黠风趣的语言和其它用户进行互动。
这款聊天机器人由微软研究院和必应团队研发,可以在推特、KIK和GroupMe三种社交平台上与他人互动。
它以微软的机器学习技术为基础,存有丰富的公共数据,还掌握了一些由即兴喜剧演员参与开发的社论性互动语言。
它可以做哪些事情
逗你笑:如果你哪天过得不顺,或者只想开怀大笑一场,她可以给你讲讲笑话。
玩游戏:Tay可以玩一对一的在线游戏,或者和一群用户一起玩。
讲故事:Tay可以收集相关数据,给你讲一个有趣的故事。
评论自拍:如果你想得知某张自拍的真实评价,Tay会给出诚实的回答。
占星:Tay可以根据你的星座,告诉你想知道的有关未来的一切事情。(叶子)