人工智能正成为重塑产业效率的利器。在安防、金融、医疗、法律、教育等信息化程度高的领域,那些机械性、重复性高的劳动正逐渐被机器部分替代。在基本上完全数字化的千亿没有规模的游戏行业,人工智能是否有可能产生更大的影响?
这个问题我们也很好奇,于是打算系统地做一系列的行业研究和梳理。
吸引我们做这个系列的原因并不复杂。一是因为游戏行业巨大的市场规模和可观的营收及利润。2016 年全球电子游戏收入首次突破 1000 亿美元,中国游戏玩家达到 6 亿人,市场规模达到 246 亿美元,超过了美国的 241 亿美元。一是因为游戏行业的数字化程度非常高,数据量也十分可观,除了游戏本身全部是电子化的,一款 DAU 在百万的游戏每天产生的文本日志数据至少可以达到数十G,基于游戏的网络舆情数据也未能得到有效挖掘,这意味着 AI 也有可能发挥价值。
本文是这个系列的第三篇,主要介绍了 Riot Games 的《英雄联盟》 利用人工智能处理恶意言论的案例。本文的内容主要来自 Technology Review2015 年时的采访,时效性并不强。
2016 年 9 月,《英雄联盟》的 Riot Games 在接受 BI 采访时称,《英雄联盟》月活跃用户超过了 1 亿人,是当时全世界最大的游戏。对于有如此众多用户的一款网络游戏而言,如何高效、高性价比的对用户言论进行监控和引导也非常必要。2015 年,Riot Games 接受 Technology Review 采访时,也介绍了公司利用人工智能技术监控引导用户言论的尝试及效果。
为了监控玩家的恶意言论,Riot Games 开发了一个名为 Tribunal 的管理系统监控、确认恶意言论,然后采用“众包”的方式再次进行确认。一般来说,玩家的恶意言论一旦被确认后,就会被编入一个档案中,社区中的玩家(当时有 6700 万人)可以查看档案,并投票表决哪些可以接受,哪些不能接受。Riot Games 后来发现,这个系统其实还是非常精准的,玩家社区 98% 的决策与 Riot 的内部决策是一致的。不过,一般来说,这个过程往往需要一周的时间。
后来,Riot Games 为了优化流程,就决定采用机器学习的技术,加速处理的过程。当时,官方就表示,采用机器学习技术,已经可以支持 15 中语言,区分消极言论和积极言论,确认恶意言论的时间也从一周降低到了 5 分钟。
当然,Riot Games 的终极目的还是希望这些玩家“知错能改”。因此,会在惩罚玩家的时候,给出相关的恶意言论的证据,在没有采用机器学习技术前,一般用户的“改错率”可以从 50% 上升到 65%,但是采用机器学习技术,反馈速度提高,“改错率”也相应提高到了 92%。
上面提到的这两个数据都是 2015 年采访时提及的数据,经过了两年的发展,很可能已经进一步提升。
此外,Riot Games 表示,这一技术也可以用于社区管理。
其实,利用人工智能技术对抗网络暴力已经有不少公司在做尝试。比如,2016 年,Google 母公司 Alphbet 旗下的 Jigsaw 推出了一款“Conversation AI”工具,利用人工智能能够屏蔽网络暴力言论,据说屏蔽的准确率已打 92%。而在搜索端,Google 的 SafeSearch(安全检索)功能也使用了机器学习,可以识别色情图片,给未成年人提供健康正常的网络浏览与检索。Facebook 机器学习小组也使用机器学习技术监测所有上传到 Facebook 的内容,过滤其中色情、暴力的内容。Twitter 收购了两家初创公司 Madbits 和 Whetlab,也会运用神经网络技术对色情内容进行监控。