游客

阿里推出多智能体双向协调网络BicNet,玩《星际争霸》堪比人类

游客 2017-04-03 20:51:36    201099 次浏览

过去十年中,人工智能取得了长足的进步,在图像和语音识别上已经在某种程度上超越了人类。而通过反馈奖励,单个的AI智能体也能在雅达利这样的视频游戏和围棋中战胜人类。

但人类真正的智能还包括了社会和集体智能,这也是实现通用智能必不可少的。就像虽然单个蚂蚁的智能有限,但通过协作它们能狩猎,能筑巢,能发动战争。毫无疑问,人工智能的下一个挑战就是让大规模的AI智能体学习人类水平的协作与竞争。

协作的一个例子就是星际这样的即时战略游戏。雷锋网消息,最近阿里巴巴与伦敦大学的研究人员们,就在一篇论文中展示了如何用星际争霸作为测试场景,让智能体协同工作,在多对一和多对多中打败敌人。

阿里推出多智能体双向协调网络BicNet,玩《星际争霸》堪比人类

掩护攻击

这项研究主要关注星际中的微管理任务,每个玩家控制自己的单位,在不同的地形条件下歼灭对手。星际这样的游戏对计算机来说可能是最困难的,因为它们的复杂程度比围棋要高得多。这种大型多智能体系统学习面临的主要挑战是,参数空间会随着参与人数的增加而呈指数级增长。

研究人员让多智能体把星际中的战斗当作零和随机游戏来学习。为了形成可扩展且有效的通讯协议,研究者引入了一个多智能体双向协调网络BiCNet,智能体可以通过它来交流。另外,研究中还引入了动态分组和参数共享的概念,来解决扩展性问题。

阿里推出多智能体双向协调网络BicNet,玩《星际争霸》堪比人类

边打边跑策略

BiCNet可以处理不同地形下的不同类型的战斗,且对战时双方都有不同数量的AI智能体。

分析显示,在没有任何诸如人类示范或标签数据的监督时,BiCNet也能学习各类协调策略,而这些策略与经验丰富的玩家所展现出来的很相似,比如在不引发冲突的情况下移动,边打边跑等基本策略,以及 掩护攻击与适度集中火力等高级技巧。

另外,BiCNet还可以轻易适应异构智能体任务。在实验中,研究者根据不同的场景对网络进行了评估,发现它表现优异,在大规模现实应用中有潜在价值。

研究中还发现,指定的奖励与学习策略之间存在很强的相关性。研究人员计划进一步研究这种关系,研究 策略如何在智能体网络中传递,以及是否会出现特定的语言。另外,双方都通过深度多智能体模型来操作时,纳什均衡的的探讨也很有意义。

论文阅读:https://arxiv.org/pdf/1703.10069.pdf

内容加载中