我们面对的是下一个个人电脑还是人类杀手?
1 月 28 日,《自然》杂志报道了谷歌开发团队 Google Deep Mind 的新围棋 AI——AlphaGo 在没有任何让子的情况下以 5:0 完胜欧洲冠军樊麾的新闻;同时,AlphaGo 也击败了目前最好的围棋程序中 99.8% 的对手。
自「深蓝」在 1997 年第一次代表国际象棋 AI 击败顶尖人类选手后,AlphaGo 也成为了人类历史上第一次在公平比赛中战胜职业选手的围棋 AI。
由于相较于其他棋类的复杂性,围绕围棋的 AI 在很长一段时间甚至连业余棋手都无法战胜。但 Google 所研发的 AlphaGo 却通过机器学习的方式完成了对人类的逆袭。如果今年 3 月份 AlphaGo 继续击败李世石的话,被誉为「人类智力试金石」的围棋也将作为人类智力的最后堡垒被 AI 攻破。
当机器人学会自行思考,我们面对的究竟是下一个个人电脑还是人类杀手?
从穷举到自行判断,机器人学会自己思考
1997 年,当 IBM 深蓝计算机在国际象棋的比赛中击败人类时,它使用的是「穷举法」,即穷尽所有可能的步法来完成棋局。但在围棋 AI 中,「穷举法」显然没有那么可行。
在国际象棋的每一个回合,平均可能的走法有 35 种,但围棋的走法却能达到近 250 种。此外,在这 250 种可能的走法之后,还对应着另外 250 种可能,这是一个超越了「穷举法」所能承受的范围。
围棋有 361 个眼位,分黑白两种棋子。在棋盘上下棋,所有可能的局面加在一起是个相当惊人的数量,这个数字比全宇宙的原子总数加起来还要多得多。
领导这项研究的 Google 研发人员 David Silver 说道:
「围棋有着巨大的搜索空间,用蛮力很难解决。AlphaGo 的关键在于,将搜索空间缩小到可以操作的范围。这个方法让 AlphaGo 比以前的方法都更像人类。」
AlphaGo 的核心是两种不同的深度神经网络——「策略网络」(policy network)和 「价值网络」(value network)。它们通过相互配合来计算出相对有优势的步法并摒弃差棋,从而将计算量控制在计算机可以完成的范围里。
在「价值网络」中,AI 会一边推算一边判断局面,当局面处于明显劣势的时候,机器便会就直接抛弃某些路线;而「策略网络」则负责减少搜索的宽度,将那些棋步是明显不该走的放弃并避免无端送子给对手吃。通过将这些信息放入一个概率函数,AI 便可以重点分析优势的步法而不用给每一步以同样的重视程度。
这种「思考」的方式本质上和人类棋手所做的一样。与之不同的是,人类在长时间的比赛后难免会因为疲劳而犯错,但机器不会。而且机器能通过每天近 100 万局的训练来不断提高,而精力的限制却似乎只能让人类随着时间的积累而束手就擒。
与此同时,Google Deep Mind 团队还采用了「监督学习」(supervised learning) 的方式让 AI 和自己进行对弈,这种「强化学习」(reinforcement learning)的方法也能让 AI 长期处于高水平的对抗中。这也被搜狗创始人、CEO 王小川称为 AlphaGo 最可怕的一点。
「AlphaGo 还不只是从互联网上去收集数据进行学习,更可以自己和自己下,实现自学习。看过电影超验骇客没有?人工智能可以做到随着时间的推移就能更加聪明。金庸小说中老顽童让自己左手和右手打架左右互搏,成为天下无敌的武功,那个只是故事。在下棋这个领域,AlphaGo 有这样的设计,让这种武功成真了!往下还有两个月的时间,AlphaGo 这样一台算法上没有天花板的机器,很有机会在左右互搏下登峰造极,成为不可超越的围棋高手。」
机器会像删除垃圾邮件那样将人类干掉?
上世纪 90 年代,Mark Weise 说过:「最深奥的技术是那些感觉不到存在的技术,这些技术自如地融入到日常生活中,不知不觉成为生活的一部分。」在过去二三十年里,个人电脑已经做到了这一点,而在未来的几十年里,下一个能做到这一点的可能就是机器人。
在 GIF 2016 的演讲中, MIT 计算机科学与人工智能实验室总监 Daniela Rus 也曾提到:
在智能手机上,我们的每一种需求几乎都可以找到一款对应的 App,未来的机器人可能也会是这样,我们可以为自己的每一个需求都「制造」出一个机器人,机器人会变得像现在的手机 App 这样普遍。
但是,随着 AI 技术的进步,有关「人工智能威胁论」的讨论也日益激烈。
Elon Mask 曾多次表示,「如果让我猜人类最大生存威胁,我认为可能是人工智能。因此我们需要对人工智能保持万分警惕,研究人工智能如同在召唤恶魔。也许机器人会觉得删除垃圾邮件的最好办法是把人类一起干掉。」
为此,他也和硅谷著名创业孵化器 Y Combinator 的总裁山姆·奥特曼共同创建了人工智能公司 Open AI ,寄希望于将开源其研究成果分享给研究人工智能的每一个人,并通过对行业的监管来将那些带有邪恶意图的过度研究扼杀于摇篮。
但 Google 却不认同这种对意图的揣度,在去年的 Google 亚太区媒体会议上,Google 前 CEO Eric Schimidt 曾表示,
「我不认为让计算机模仿大脑可以做人工智能,因为人类大脑的神经元太多太复杂了,我们只能让机器去学习。大脑会自己去过滤一些信息,这样的概念可以利用到机器学习上,但我并不认为人工智能和人的大脑一样,它只是借助了人脑的一些功能概念。
人类是正义的,机器是邪恶的?我不认为是这样,这只存在于电影中。现在人类造的都是好的机器人,而不是像少数派报告中的那样。帮我打扫厨房的机器人,这其实是人类最需要的机器人。但其实很难。」
机器能像人一样学到道德伦理吗?最简单的方式是让机器尽可能地多去学习,许多无人驾驶汽车都是基于这种,训练车用人的方式去开车。在伦理道德这个问题上,我们可以制定一些规则,比如说设定一些标志提醒它,按人的方式去行为。
正如 Deep Mind 创始人 Demis Hassabis 所言,「最终,我们想要将这些技术应用到真实世界的重要问题中。因为我们用的方法是通用的,我们希望有一天,它们能延伸得更广,帮助解决最紧迫的社会问题,从医药诊断到环境模型。」
头图来自视觉中国,文内图片来源于网络。