人工智能会对人类有攻击性吗?

作者:sunshine/编译来源:蝌蚪五线谱发布时间:2017-02-17

对于人工智能,我们还是要小心点。

  去年,物理学家霍金发出警告,对于人类来讲,人工智能的不断发展将是有史以来若非最好便是最坏的事情。

  近期,谷歌也对新的DeepMind人工智能系统进行了一系列行为测试,结果表明,或许我们对人工智能系统的研究需要更加小心了。

  火遍整个网络的AlphaGo大家一定不会陌生,它击败了世界各国围棋高手,完美地展示了谷歌DeepMind人工智能系统从记忆中自主学习的能力。

  那么,当多个人工智能系统具有类似或冲突的目标时,它们是会内斗还是合作?关于这方面的研究,DeepMind人工智能系统主要参与了两种游戏,分别是收集水果游戏和“群狼”狩猎游戏。

  在收集水果游戏中,收集一个苹果得一分,向对手发射“激光”并击中两次后,对手将在一段时间内被迫脱离游戏。也就是说,两个DeepMind人工智能系统需要相互竞争,尽可能地收集更多的苹果。

  研究人员发现,只要剩余的苹果足够多的时候,两者之间的关系还是比较和谐的,收集任务也是相对独立的。但是,一旦苹果的数量开始减少,两者就会相互攻击,向对方发射激光,试图取代对方拿走所有的苹果。

  你可以在下面的视频中观看游戏,蓝色和红色分别代表两个DeepMind人工智能系统,绿色代表苹果,黄色则是激光束。

人工智能对人类会有攻击性吗?

图片来源:DeepMind/YouTube

  研究人员表明,人工智能系统越智能,它从周围的环境中学到的东西越多,从而采取非常激进的策略来取得最终的胜利。

  而在另一个游戏,也就是“群狼”游戏中,有三个人工智能系统,两个角色扮演狼,追踪第三个角色——猎物。与收集水果游戏不同的是,这款游戏需要两只“狼”之间的相互配合,当两只狼接近猎物并最终捕获猎物时,他们都可以得到回报,无论是哪一只捕获到猎物。

人工智能对人类会有攻击性吗?

图片来源:DeepMind/YouTube

  该研究团队在他们的研究论文中解释道:“这款游戏的主要理念就是合作互赢,一只狼也可以解决猎物,但是猎物的尸体可能会被食腐动物抢走。然而,当两只狼一起捕捉猎物时,它们可以更好地保护猎物的尸体,从而得到更高的回报。”

  虽然这些都只是简单的电脑游戏,有关环境的信息也是相当明确的。将它们放在现实情况下,相互竞争的人工智能系统之间存在利益冲突。如果它们的目标不与人类利益高于一切这个总体目标保持平衡,那么这将是一场人类与人工智能之间的战争。

  DeepMind人工智能系统的研究还处于早期,谷歌相关团队也尚未在同行评审的论文中公布他们的研究。但是最初的结果表明,机器人以及人工智能系统并不会自动地将人类的利益放在心上,这只是相关研究人员在设计的时候制造出来的“假象”,也就是说,是我们人类让他们以人类的利益为中心。

  同时,在设计这些机器的时候,我们还需要利用到我们神奇的大自然,并且在激光束能够到达的范围内,预测所有的“漏洞”。

  不管怎么样,人类还是会继续人工智能系统的研究,只是请相关研究人员在前进的每一步中都能更加小心、更加谨慎。

 
  蝌蚪五线谱编译自sciencealert,译者 sunshine,转载须授权

扫码加蝌蚪五线谱微信