前有 Facebook“AI”失控,后有 Google 为“在管理 YouTube 极端内容上,AI 比人类更有用”站台。
雷锋网 8 月 2 日消息 据外媒近日报道,谷歌公开表示,将继续使用机器学习开发高级程序,以打击极端主义内容。经过一段时间的实测表明,AI 比人类可以更快更精准的清理 YouTube 上的非法内容。
7 月上旬,谷歌正式发布人机协作计划——“PAIR”(People AI Research)。据雷锋网(公众号:雷锋网)了解,该项目由 Google Brain 的研究员 Fernanda Viégas 和 Martin Wattenberg 领导,二位都是开发复杂信息可视化技术的专家。其目的在于保证 AI 技术对每个人都有益处,并专注为 AI 开发者提供新工具。
而落实到 YouTube 上,则为这样的分工模式。即让机器学习和人类审查人员分工合作,作为跨部门途径的一部分,以解决 YouTube 上的极端主义和争议性视频的内容传播。在此其中,还包括为视频设立更严格的审核标准,以及聘请更多人力对需要审核的内容进行标记。
在该计划发布一个月后,英国内政部部长 Amber Rudd 向美国科技公司一再呼吁,为打击极端主义内容的兴起,大家还需做更多工作。Google 旗下 YouTube 向外表示,该问题利用机器学习系统已经得到很大的改善。
YouTube 发言人表示,虽然这些工具并不完美,也并不匹配所有设置,但是使用过程证明,该系统比人类更能准确的标出需要删除的视频。
“最初我们使用机器学习来排除暴力极端主义内容,数据表明是人类排除数量的两倍。而在减少此类内容的速度上,机器同样是我们的两倍。过去一个月内,有超过 75% 的暴力视频内容被清理。”
该公司表示,YouTube 目前在监管非法内容遇到的一个问题在于,用户上传的内容正以每分钟 400 小时的速度进行,这项可怕的数据将对实时过滤极端主义内容产生巨大的挑战。
YouTube 还表示,目前,他们已经和 15 个 NGO 和机构合作,包括反诽谤联盟、无仇恨言论运动(the No Hate Speech Movement)和战略对话研究所,以提高系统对这些议题、仇恨言论、激进和恐怖主义内容的理解,以便更好的处理这些内容。
接下来几周内,Google 将对视频内容执行更严格的标准,这些视频可能是令人反感但又不违法的。该公司表示,YouTube 上虽然有些视频内容被标记为不适当,如含有争议性的宗教主义内容等,但其并不违反公司对仇恨言论或暴力极端主义的政策的,将被置于“被限制的区间”。
如何处理这些内容?一位 YouTube 发言人对此表示,“这些视频依然会留在 YouTube 的插页式广告中,不会被推荐,也不会有盈利,更不会有评论、推荐、喜欢等关键功能。”
作为预防激进主义的一部分,YouTube 也开始对某些视频页面的特定关键词进行重新定向搜索,这些页面直达暴力极端主义内容。
此外,Google 方也表示将继续开发机器学习技术,并以其他技术公司合作处理网络上的极端主义言论。
Via the guardian