
▲比赛中AlphaStar的单位■■■资源和建筑物的俯视图DeepMind此前研发的Alpha GO已经成为世界领先的围棋AI■■■此次又发力操作难度复杂■■■游戏节奏非常快的《星际争霸2》■■■无疑表明了DeepMind希望建立一种可以学习任何人类能力的通用型AI( general AI)的野心。
“我真没想到AI能在这个领域如此快速的超过人类■■■起码近几年都没有想过。
”俄勒冈州立大学科瓦利斯分校的AI研究员Jon Dodge说到。
在《星际争霸2》中■■■经验丰富的玩家需要同时进行多线操作■■■包括管理资源■■■进行复杂的战斗并最终超越对手取得胜利■■■每分钟的操作超过300次。
DeepMind的AI机器学习技术依赖于人工神经网络■■■这种网络从大型的数据集中学习并识别出游戏的各种模式■■■而不是通过特定的指令。
▲该图显示了AlphaStar中使用的每种技术如何影响其性能2018年12月■■■DeepMind第一次在实验室里让AlphaStar与职业玩家对抗并进行测试。
AI成功击败了两个职业人类玩家。
不过后来有批评者指出■■■这些演示比赛不是一场公平的战斗■■■因为AlphaStar具有超人的速度和精准度(speed and precision)。
因此■■■在AlphaStar离开实验室进入欧洲《星际争霸2》服务器之前■■■DeepMind限制了AI的反应速度■■■让它更接近人类■■■使之更加公平。
7月份■■■玩家们接到了可以和AI一决雌雄的邀请。
不过为了比赛的保密性■■■DeepMind掩盖了AlphaStar的身份■■■这样有利于玩家把AI当作正常对手■■■更加真实。
▲AlphaStar与人类玩家对战“我们希望像盲实验(blind experiment)一样■■■我们真的非常想在这样的条件下比赛■■■去真切的体会到■■■玩家和AI对战最真实的表现。
” AlphaStar项目的共同负责人戴维·西尔弗(David Silver)说到。
AlphaStar的训练初见成效:在低分段中它已经可以碾压对手■■■并且在面对高分段选手的90场比赛中■■■它赢得了61场。
二❤超乎想象的复杂程度《星际争霸2》的复杂性是AI面对的最大挑战。
与国际象棋不同■■■《星际争霸2》有数百个“单位”(玩家在游戏中可以控制的单位)■■■它们可以实时的同步移动■■■而不是以有序的回合制方式移动。
棋子每次可以移动的数量和方向是有限的■■■而AlphaStar随时面对10的26次方种动作可供选择。
另外最大的不同就是《星际争霸2》是一种信息不完善的游戏■■■你大部分时候都看不到对手在做什么■■■导致你无法预测。
近十年来■■■很多研究人员都在进行《星际争霸1》和《星际争霸2》两款游戏的AI对抗赛■■■但是■■■与AlphaStar不同■■■这里面大多数的“机器人”都依赖于硬编码规则(hard-coded rules)■■■而不是可以自我训练的神经网络。
▲该图描述了AlphaStar自我训练演变。
AlphaStar项目的共同负责人Oriol Vinyals是来自加州大学伯克利分校AI团队的一员■■■他们曾在2010年赢得了第一场比赛。
Vinyals说:“那时候■■■我已经开始觉得我们应该进行机器学习■■■不过为时尚早。
”Vinyals在2016年加入DeepMind■■■在那里他开始从事AI的研究■■■这些AI可以教自己如何玩《星际争霸2》。
AlphaStar通过学习模仿近一百万种人类游戏来进行培训。