人工智能快速发展,在许多领域取得重大影响,使得不少人担心可能会出现超级智能。DeepMind的联合创始人Demis Hassabis和加拿大多伦多大学教授Geoffrey Hinton两位国际泰斗在谈到强人工智能(AGI)时表示,强人工智能还有很长的路要走,目前谈之为时尚早。
预测音乐品味、检测转移性肿瘤、生成脑癌的合成扫描、根据真实世界的视频创建虚拟环境、识别被贩卖的受害者、击败国际象棋大师和专家级的Dota 2电子竞技队、取代司机成为出租车驾驶员,以上这些只是2018年人工智能(AI)系统取得的一些成功案例,也是该领域迅速发展的证据。据麦肯锡全球研究院的分析师预测:按照目前的发展速度,仅在美国,人工智能将在未来12年内帮助增加20%到25%的净经济效益(放在全球范围内,相当于13万亿美元)。
最令人印象深刻的一部分工作来自于对深度神经网络(DNN)的研究,这是一种基于数据表示的机器学习架构。它们是对大脑的松散建模:DNN包含一些由突触连接到一起的人工神经元(即数学函数),其中突触负责神经元之间的信号传输。这些神经元以层的形式排列,信号(馈送到DNN中的数据或输入)在层与层之间传输,可以通过调整每个神经连接的突触强度(权重)来缓慢地“调整”DNN。随着时间的推移,经过数百次甚至数百万次循环后,神经网络可以从数据集中提取出特征并找到样本的变化趋势,最终学会做出新的预测。
仅仅在三十年前,David Rumelhart、Geoffrey Hinton和Ronald Williams在一篇经典论文(“反向传播错误的学习表征”:Learning Representations by Back-propagatingErrors)中详细介绍了一种基本的权重计算技术——反向传播。在越来越便宜,越来越强大的计算机硬件的帮助下,反向传播已经在计算机视觉、自然语言处理、机器翻译、药物设计和材料检查等方面取得了巨大飞跃,其中一些DNN给出的结果优于人类专家。
那么DNN会导致超级智能机器人的出现吗?DeepMind的联合创始人Demis Hassabis不相信——如果答案是肯定的,他会知道的。DeepMind是一家总部位于伦敦的机器学习创业公司,其使命是将神经科学和计算机科学的知识应用于创建强人工智能——换句话说,就是使机器系统可以成功执行人类能够胜任的任何智能任务。
在2018年12月初于蒙特利尔举行的NeurIPS 2018年会议上,Demis Hassabis表示:“还有很长的路要走。从某些角度来讲,游戏或棋盘游戏是非常简单的,因为不同状态之间的过渡模式非常明确且易于学习。要弄清楚现实世界的3D环境和现实世界本身则要复杂得多,但如果你要制定某项计划,这是很重要的。”
Hassabis是国际象棋神童和剑桥大学毕业生,在其职业生涯早期担任了电子游戏《主题公园》和《黑与白》的首席程序员——在伦敦大学学院、麻省理工学院和哈佛大学学习过神经科学,并对自传记忆和情景记忆系统进行了协作研究。他在2010年与人联合创立了DeepMind,仅仅三年后就推出了一个开创性的人工智能系统。该系统仅使用原始像素作为输入,能够快速通关Atari游戏。
自从谷歌以4亿英镑收购DeepMind以来,该机构和其医学研究部门DeepMind Health已经因为AlphaGo和与伦敦大学学院医院的合作而长期占据新闻头条。AlphaGo是一个人工智能系统,曾在中国围棋游戏中击败世界冠军Lee Sedol,而伦敦大学学院医院制作的模型在CT扫描分割上表现出“接近人的表现”。最近,DeepMind的研究人员推出了蛋白质折叠算法——AlphaFold。由于成功地从43种蛋白质中找到了其中25种蛋白质的最准确结构,该算法在第13次蛋白质结构预测技术评估(CASP)中获得一等奖。2018年12月,DeepMind在《科学》杂志上发表了一篇论文,介绍了作为AlphaGo精神延续的AlphaZero系统。它可以玩三种不同的游戏——国际象棋、一种被称为shogi的日本象棋,以及围棋—其表现好到足以击败著名的人类玩家。
尽管DeepMind取得了令人瞩目的成就,但Hassabis警告说,他们并不认为强人工智能即将来临——远非如此。他说,人们是利用内在认识来对世界进行预测和规划的,这种方式与今天的人工智能系统不同。与围棋、国际象棋和shogi棋的新手相比,AlphaGo和AlphaZero在信息方面处于劣势。Hassabis说:“这些AI系统首先要学习观察,然后才能学会玩游戏。与算法相比,人类玩家可以更快地学习,可以快速地将根据像素得出主题,以确定是他们需要逃离目标还是靠近它。”
为了让AlphaZero这样的模型打败人类,需要对它进行70万个步骤的训练—每个步骤代表4096个棋盘位置—所使用的系统配备了数千个由谷歌设计的应用程序专用芯片,这些芯片针对机器学习进行了优化。这大约相当于针对国际象棋进行9小时的训练,针对shogi棋进行12小时的训练,针对围棋进行13天的训练。
DeepMind并不是唯一一个致力于解决当前人工智能设计局限性的公司。在今年早些时候的一篇博文中,一个总部位于旧金山的非盈利性人工智能研究公司OpenAI宣布他们已经开发出了OpenAI 5。在今年夏天的一次Dota 2游戏中,该软件成功击败了一个包含四名专业游戏玩家的五人游戏小组。OpenAI得到了Elon Musk、Reid Hoffman和Peter Thiel及其他一些科技界杰出人士的支持。该组织表示,借助运行于谷歌云平台的256个Nvidia Tesla P100显卡和12.8万个处理器核心,该系统每天可以玩相当于180年的游戏(80%的游戏与自己对抗,20%对抗旧算法)。但即使在完成所有训练之后,它仍然难以将获得的技能应用于特定游戏之外的任务。
Hassabis说:“我们没有能够将知识从一个领域转移到下一个领域的有效系统。我认为我们需要一些新的概念或提取方法来做到这一点。针对游戏建立模型相对容易,因为从一个步骤到另一个步骤很容易,但我们希望创造具有模型生成功能的系统,这将使得在这些环境中做规划变得更容易。”
当前的大多数人工智能系统也没有很好的扩展性。Alphazero、Alphago和OpenAI 5利用了一种被称为强化学习的编程方式。在这种方式中,由人工智能控制的软件代理能够学会在某个环境中采取行动,例如棋盘游戏或多人在线对战游戏(MOBA),以获得最大奖励。