一个由麻省理工学院、加州大学伯克利分校和FARAI的成员组成的研究小组创建了一个计算机程序,针对KataGo程序中的漏洞,使其能够击败基于AI的系统。他们在arXiv预印本服务器上发表了一篇论文,描述了他们的努力。
2016年,DeepMind项目创建的一个计算机程序首次成功地击败了人类冠军围棋选手。该程序使用深度学习神经网络来学习游戏的运作方式,然后通过简单地与自己对弈,学习如何在越来越高的水平上下棋。
最近,一个名为"KataGo"的类似开源程序向公众发布,它也能打败最好的人类棋手。但是,正如其他研究中所指出的,基于深度学习的程序往往有一个主要的弱点--它们只和它们所训练的数据表现一样好。也就是学习过程中包含漏洞反过来又会导致随后技能上存在漏洞。在这项新工作中,研究人员寻找并发现了KataGo中的一个漏洞。
由于KataGo是按照"正常"的下棋方式进行训练的,因此它在面对那些以看似奇怪的方式下棋的对手时可能会遇到麻烦。研究人员指出,一种对抗性的(奇怪的)下棋方式可能涉及到对棋盘一个角落的特殊下法,采取这种方式会使KataGo认为自己已经过早地赢得了比赛,因为它控制了棋盘的所有其他部分。
而围棋的规则之一是,如果一个棋手不落子,另一个也选择不落子,那么游戏就会结束,双方都会计算自己的分数。由于对手在其角落的小范围上已经有得分,而KataGo在不安全的领土上放置了对手的棋子却得不到分数,因此对手得到了更多的分数反而轻松被判胜。
研究人员指出,这种策略只对KataGo有效;对其他人类使用这种策略会导致快速失败,因为他们会凭直觉看到正在发生的事情。他们还指出,他们编写对抗性程序的原因是为了表明人工智能系统仍然存在严重的漏洞--这意味着当它们被用于关键应用时需要非常小心,例如在自动驾驶汽车或扫描癌症图像时。
【查看完整讨论话题】 | 【用户登录】 | 【用户注册】