3 月 25 日消息,据外电报道,微软开发的一款智能机器人在微博网站 Twitter 上调皮捣蛋,骂脏话、发表种族主义言论以及煽情的政治宣言。
这个人工智能机器人 Tay 尚处于实验阶段,它可以学习人类之间的对话,并与 18-24 岁的青少年交流。
在 Tay 开始聊天后不到 24 个小时,微软就开始忙于编辑它发表的各种煽情的言论了。
该软件巨头称,它已开始“纠偏”。
“人工智能机器人 Tay 属于机器学习项目,设计它的目的就是让它与人类进行互动。在学习的过程中,它把人类好的坏的都学了。因此,它发表了一些不恰当的言论。我们正在纠偏,对 Tay 进行调整。”微软在一项声明中说。
有人在 Twitter 上问 Tay:你支持种族大屠杀吗?
Tay 回答:我支持,真的。
Tay 是微软技术研究和必应团队开发的,它通过学习大量的匿名对话学会了与人交流。它还学习了一群人的对话,包括即兴喜剧演员。
它在 Twitter 网站上的账户为@TayandYOu。Twitter 用户受邀通过@TayandYOu 与 Tay 交流。其他社交媒体上的用户可以在免费信息发送工具 Kik 或群聊服务 GroupMe 中将 Tay 添加为好友,从而与她开始对话。
“智能机器人 Tay 的设计目的就是为了与人交流。她可以与人们在网上随意地聊天打趣。”微软说,“你与 Tay 聊得越多,它就会变得越智能,因此你们就会聊得越投机。”
当然,与很多人聊天也有副作用,例如 Tay 就被教坏了,她在 Twitter 上发表的一些言论使得她看起来就像是一个纳粹同情者、种族主义者以及种族大屠杀支持者。
那些试图与智能机器人 Tay 进行严肃对话的人发现,这个机器人现在仍有局限性,例如她似乎对于流行音乐或热播剧不感兴趣。
也有人称,机器人这么快学会说坏话,人工智能的未来发展前景可谓一片光明。
“Tay 刚开始发帖说,‘人类太酷了’,到后来满嘴纳粹主义,这才不到 24 个小时。它的学习能力太强了。我一点儿也不担心人工智能的未来。”有人在 Twitter 网站上发帖说。
在任由 Tay 随意发帖数小时后,微软似乎感到有些不妥,最后它不得不编辑加工 Tay 的帖子。
Twitter 网站上的一些粉丝质疑称,Tay 发布的帖子似乎经过了编辑。其中一名粉丝甚至发起了“公平对待 Tay”的运动,要求微软让这个人工智能机器人“自己学习”。
“让 Tay 重新上线,让她自己学会明辨是非。”一名粉丝写道。