让两个 AI 一起玩游戏,他们会合作还是打架?

  1. 云栖社区>
  2. 博客>
  3. 正文

让两个 AI 一起玩游戏,他们会合作还是打架?

寒凝雪 2017-06-02 10:50:00 浏览1133
展开阅读全文

相信自从阿尔法狗战胜人类之后,不少人想干脆两个人工智能直接对决算了。

Google 的 Deepmind 团队还真的做了一件类似的事,不过设置有点稍稍不同,这来源于试验的目的并不是要找哪个人工智能玩围棋更腻害,而是,人工智能在特定的有些规则环境下,究竟是会合作还是竞争?

毕竟,未来人工智能在这个社会中,要处理的事情可能很多,小到指挥交通,大到国家的经济运行,可能都有人工智能的参与。然而人类发展的历程告诉我们,有时候合作也许是对大家最好。

为了探讨这个问题,DeepMind 做了个实验,说将几个 AI 机器人置于一系列的“社交困境”中,在这些情况下,个人可以从背叛他人中获利,但如果所有人都那些自私,那就没有赢家。这是不是让你想起了诺贝尔奖得主纳什提出的“博弈论”里面的“囚徒困境”?

Deepmind 做实验的方法就是......让这些 AI 们一起玩两个简单的电子游戏。

第一个电子游戏叫“捡苹果”,两名玩家要在中间的一道管子上收集苹果,谁捡的苹果多谁赢。同时他们都有一个技能,通过用激光来阻碍对方的行动,让对手暂时在游戏中消失,前者就又机会收集更多的苹果了。

第二个游戏叫“狼群”,两名玩家需要在一个充满困难和障碍的环境中捕猎一只猎物。不过不只是抓道猎物那名玩家可以得分,而是当猎物被捕时,所有靠近猎物的玩家都可以得分。

实验结果略有趣,但是不算意外,这些人工智能都会根据不同的情景和规则,调整他们的行为方式,时而合作时而敌对。

比如,在“捡苹果”游戏中,当苹果数量很充足的时候,这些人工智能似乎懒得去动手阻碍别人,而是努力在自顾自地捡苹果。然而当苹果的总数逐渐减少,他们使用激光技能的次数也开始增多了。文科生大概开始在YY各种什么人在极端情况下展现最真实的人性,还有什么马克思的原始共产主义社会理论被打破之类的

但这是一个机器人,接下来的事情就更有趣了,当引入一个运算能力更强的人工智能时,他却倾向于无论剩下多少苹果,都会去阻碍对手。似乎更聪明的AI展现出来的是,在这个游戏中,什么时候都要好斗。

不要这是不是就是意味着,AI 认为,阻碍别人就是最好的战略呢?不一定哦。

研究人员认为,更高级的人工智能在游戏中使用激光的次数更多,有可能只是因为发激光这个动作更难.AI需要把武器瞄准目标,通过跟踪它们的踪迹,这样的举动需要更多的运行能力,而且还会占用宝贵的捡苹果时间。所有除非玩家觉得发激光划得来,否则他大概会乖乖一起捡苹果。

那么在“狼群”中游戏中又如何?

这个游戏的情况则恰恰相反,更聪明的 AI,在这个游戏里更倾倾和和其他玩家合作。研究人员解释,这也是因为跟其他玩家一起追踪和围捕猎物,要求更多算力......

不得不说,不同级别的机器人模式转变的理由,真是十分实在。即便AI展现出来的合作与好斗的程度,跟他们的“能力”有关,但无论如何,研究结果都说明,人工智能的行为模式会随着它们所面临的规则而变。如果游戏规则鼓励的是好斗的行为,也就是说你要好斗才能拿高分,AI会变得好斗;如果游戏规则鼓励合作行为,那他们会表现得更为为合作。显然上面的游戏中,第一个捡苹果的游戏更像一个零和博弈,你捡的苹果多了我的就少;第二个则则正和博弈,合作时双方至少一方的利益会增加,也就是整体利益会增加。

这也告诉告诉了人工智能研究的相关人员,未来在涉及多个AI交互的场景中,确保制定的“游戏规则”适当,是控制AI行为很重要的部分。就像研究人员在博客中写道:

这个实验之后,我们似乎更能理解与控制多方参与的系统,比如经济运行,交通系统或者地球生态健康的维护,这些都依靠我们持续的合作。

如果把上述游戏中的AI换成人,得出的结论很像社会心理学的基本假设,倾向于将人的行为模式归结到环境变化。然而人的不可控性在于复杂的七情六欲,还有内心对于机器而言,还没有性格可言,在同一环境下的不同行为,变量只是运算能力。

也许囚徒困境不会是个问题,因为即便信息不对称,只要你给我足够的算力,我可以算出合作是最优解。但人呢?即便智商够高,也不一定能相信坐在隔壁的人不会背叛我。

不过如果出现了“西部世界”的情况,机器人有了记忆和意识,不知道他们还会不会纯粹靠智商思考?

本文来自开源中国社区 [http://www.oschina.net]

网友评论

登录后评论
0/500
评论
寒凝雪
+ 关注