(大约在1960 年,研究者在布法罗微调Perceptron 感知器)
国外媒体撰文称,苹果及其竞争对手将它们的未来押注在一些人的梦想上。他们就是人工智能的先驱和教父级的人物,在他们眼里,人工智能是怎么一路发展过来的呢?未来该技术又会变成什么样呢?
以下是文章主要内容:
在过去的5年里,人工智能已经从常年的朦胧件变成了科技行业最大的希望之一。计算机已经学会识别人脸和物体,学会理解口语,还学会翻译几十种语言。世界上最大的几家公司——Alphabet、亚马逊、苹果、Facebook和微软——都把自己的未来押在了人工智能上,都在竞相看谁最快打造出更加智能的机器。这助长了人工智能突然冒出的感觉,比如特斯拉自动驾驶汽车和可跟你的孩子聊天的Alexa智能助手的出现。但AI并不是一夜之间火起来的,也不是硅谷某位企业家的心血结晶。
现代人工智能(神经网络和机器学习)背后的理念可以追溯到第二次世界大战的最后阶段。当时,学者们开始构建以类似人脑的方式来存储和处理信息的计算系统。在过去的几十年里,这项技术的发展起起伏伏,但在2012年以前,它一直未能广泛地引起计算机科学家的注意。幸亏有一些固执的研究人员,他们不怕自己显得愚蠢。他们仍仍旧相信,神经网络将照亮全世界,改变人类的命运。
这些先驱分散在全球各地,而加拿大的神经网络信徒的数量却异常庞大。这部分因为运气:由政府支持的加拿大高级研究院(Cifar)在神经网络根本没有流行起来的时候为相关研究提供资助,由此吸引了一小群学者来到这个国家。该机构支持的计算机科学家包括:多伦多大学的杰弗里⋅辛顿(Geoffrey Hinton)和雅恩⋅乐昆(Yann LeCun),蒙特利尔大学的尤舒亚⋅本吉奥(Yojoshua Bengio)以及阿尔伯塔大学的理查德⋅萨顿(Richard Sutton)。它鼓励他们分享他们的想法,坚持自己的信念。他们提出了许多推动人工智能革命的概念,现在他们全都被认为是这项技术的教父。本文是根据我对他们的采访撰写的,内容包括:为什么神经网络要花这么长时间才能运作,这些科学家是如何团结一致相互支持的,以及为什么偏偏是加拿大成为了机器崛起的舞台。
加拿大总理贾斯汀⋅特鲁多(Justin Trudeau ):人工智能就是一种可以模拟人类思维或人类行为的计算机。在这里面,有机器学习,通过该技术,你可以让计算机一次又一次地做实验。它可能是开着一辆模拟的汽车在路上行驶,或者是试着在照片中认出一只猫。
在这里面,机器学习有个分支叫做深度学习。它大概是指,你建立一个神经网络,它有权重和偏差,可以通过修改来调整预期的结果。你让计算机去迭代,并改进解决问题的方法。这就是杰弗里⋅辛顿和其他人在过去几十年里一直在研究的事情,现在它是最令人兴奋的人工智能的基础。它能更好地模仿人类大脑的思维方式。
《纽约时报》记者、一本即将出版的AI 历史著作的作者凯德⋅梅茨(CADE METZ ):神经网络的概念可以追溯到1940年代——一种计算机系统可以模拟大脑中的神经元网络的概念。但是一个叫弗兰克⋅罗森布拉特(Frank Rosenblatt)的家伙在20世纪50年代推动了这项研究的发展。他是一名教授,还与美国海军和政府的其他部门合作,他开发了一个基于神经网络概念的东西Perceptron。在他展示Perceptron的时候,像《纽约时报》和《纽约客》这样的媒体用了相当大的篇幅进行报道。
罗森布拉特声称,它不仅能学会执行像识别图像这样的小任务,还能从理论上教机器走路、说话和表达情感。但它只有一层神经元,这意味着它的功能非常有限。不用说,他所承诺的事情都没有发生。
罗森布拉特的同事兼高中同学马文⋅明斯基(Marvin Minsky)在1960年代末写了一本书,详述了Perceptron和神经网络的局限性。这让该领域的研究至少深度冻结了10年时间。
杰弗里⋅辛顿:罗森布拉特的Perceptron可以做一些有趣的事情,但是他超前了大约50年。虽然明斯基一直是神经网络的信徒,但他证明了有些事情是他们无法应付的。明斯基和西摩尔⋅帕尔特(Seymour Papert)共同撰写的关于该技术的书《感知器:计算几何学的引论》(Perceptrons:An Introduction to Computational Geometry)基本上导致了这个领域的消亡。
在20世纪70年代,一小群人一直在研究神经网络,但总体来说,我们仍处在一个人工智能的萧条期。
梅茨:杰弗里⋅辛顿最初是在卡内基梅隆大学,后来转至多伦多大学。他一直坚持神经网络的理念。最终,他和他的合作者和其他人开发出了一个多层次的神经网络——一个深度的神经网络——这开始在很多方面起作用。
法国计算机科学家雅恩⋅乐昆在辛顿位于多伦多的实验室做了一年的博士后研究。乐昆随后被新泽西的贝尔实验室招揽。
雅恩⋅乐昆:从很小的时候起,我就对智能技术很着迷。我在20世纪60年代长大,当时有空间探索,有第一代电脑的出现,还有人工智能。所以当我开始学习工程学的时候,我对人工智能非常感兴趣,当时它是一个非常新兴的领域。
乐昆(右)于1979 年在Esiee Paris 研究生院学习
我听说了Perceptron,被它迷住了,因为我认为学习能力是智能的一个组成部分。我四处寻找,想找到关于Perceptron的一切。作为一名工程师,如果你想了解智能,最明显不过的方法就是尝试打造一个智能机器——它会迫使你专注于培养智能所需的组件。这有点像航空业先驱们是如何从鸟类那里得到启发的,但他们并没有完全复制鸟类的飞行原理。你不会想要仅仅模仿生物智能或大脑,因为它的功能有很多方面都是因为生物化学和生物学—它们真的与智能无关。就像羽毛并不是飞行的关键那样:重要的是潜在的空气动力学原理。
梅茨:有些人认为LeCun是一个彻头彻尾的疯子,认为这是一项无休止的苦差任务。作为一个神经网络研究员,你会去参加这些大型人工智能会议,而你并没有被学术界的核心群体所接受。这些想法处于边缘状态。
尤舒亚⋅本吉奥:在1985年,神经网络是一种边缘性的东西,我在麦吉尔大学的课堂上没有被教授过。我学的是经典的符号人工智能。所以我必须得说服我的教授来指导我做神经网络。我得到了政府的奖学金,所以我基本上可以自由选择我的研究课题,而这对教授来说也没有任何的损失。我们达成了一项协议:我可以做机器学习,但我会把它应用到他所关心的事情上,那就是语音识别。
乐昆:大约在1986年,神经网络研究出现了一段兴奋期,部分原因是那些来自于想出新数学技术的物理学家的模型引起了研究者们的兴趣。这使得这个领域再次为人们所接受,并在80年代后期和90年代早期引起了很多的兴奋情绪。我们中的一些人做出基于神经网络的系统来做一些实用性的事情,比如信用卡欺诈检测。我研发了一个自动化系统来进行字符识别,进而进行阅读检查。
波默罗在1995 年展示他的自动驾驶汽车
梅茨:在卡内基梅隆大学,一个名叫迪恩⋅波默罗(Dean Pomerleau)的家伙在20世纪80年代末使用神经网络建造了一辆自动驾驶汽车。它行驶在公共道路上。乐昆在1990年代使用该技术建立了一个可以识别手写数字的系统,该系统最终被银行用于商业应用。
所以说,在80年代末到90年代期间,神经网络和他们的实际应用出现了这种复苏,乐昆的研究项目就是最好的例子。但他们后来再次触及天花板,主要是因为缺乏计算能力和可用数据。我们进入人工智能的又一个寒冬。
尤尔根⋅施米德胡贝尔:至于加拿大的那些研究者,很明显我们没有使用他们的算法;是他们在使用我们的算法。乐昆本来就是一个法国人,我们使用他的算法。这很好。他作出了很多非常重要且有用的贡献。
我认识这些人已经有很长的时间了。我第一次接触本吉奥的时候,他发表了同样的东西,或者是大致相同的东西,但这发生在我的一个学生发表4年以后。几年后,在一个会议上,我们因为所有这些东西的来源问题而摊牌。在研讨会上也有一场公开辩论,谁先发表其实显而易见。这不是什么令人不快的事情,只是为了澄清事实。你在科学中所做的事情就是澄清事实。(本吉奥否认了施米德胡贝尔的说法。)
乐昆:当时的问题是,这些方法需要复杂的软件、大量的数据和强大的计算机。没有多少人能接触到那些东西或者愿意投入时间。在1990年代中期至2000年代中期期间,人们选择了更简单的方法——没有人真正对神经网络感兴趣。对辛顿、本吉奥和我来说,这是一段黑暗的时期,我们并不感到痛苦,但也许有些悲伤,因为人们并不愿看到我们的概念有着明显的优势。
辛顿:当然,我们一直相信神经网络,并一直在努力研究,但工程师们发现,其他方法在小数据集上也同样有效或者更加有效,所以他们追求那些方法,并认定神经网络是痴心妄想。致力于改进神经网络的人相当少。
加拿大高级研究院让来自世界各地的人们更多地进行互相交流。它给我们带来了一个不小的群体。
乐昆:有一个非常小的群体心里觉得,神经网络最终会重新占据显著地位。2003年,辛顿在多伦多,加拿大高级研究院找他创立一个关于神经计算的项目。我们聚在一起,决定努力重燃研究者对我们的研究的兴趣。
但在发表我们的想法之前,我们需要一个安全的空间,来举行一些小型的研讨会和会议来真正地开发我们的想法。这个项目于2004年正式启动,到2006年就催生了一些非常有趣的论文。辛顿在《科学》(Science)杂志上发表了一篇文章。
辛顿2006 年在《科学》杂志上刊登的人脸识别测试图片
特鲁多:认识到在最近的一个寒冬期,当人们本已放弃和翻篇的时候,加拿大已经悄然建立了现代人工智能的基础,对我来说证明了加拿大在某件事上一直以来都做得很好,它就是支持纯科学研究。我们让真正聪明的人能够做聪明的事情,这些事情有潜力带来某种商业性或者实用性的应用。
辛顿:2006年,在多伦多,我们开发了这种训练有很多层的神经网络的方法,这种方法效率更高。同年,我们在《科学》杂志上发表了一篇论文,这篇论文很有影响力,帮助支持了我们的主张,进而再一次引起了很多人的兴趣。2009年,我的实验室的两名学生开发了一种使用这些深度神经网络来进行语音识别的方法,它比我们原来所做的要好。
它只是稍微好一点,但是原有的技术已经存在了30年,没有取得任何的进步。事实上,这些深度神经网络在几个月的时间里甚至可以变得更好一点,这意味着几年之内,它们将会取得更大的进步。
梅茨:2009年前后,辛顿和微软的语音识别研究员邓力进行了一次会面。就像其他人一样,邓力相信另一种形式的AI:符号人工智能(symbolic AI)。在这种方法中,你基本上需要一行一行地建立一个语音识别系统,要用特定的行为模式进行编程,整个过程非常缓慢。
辛顿提到,他针对语音识别的神经网络方法正在取得实质性的进展。它可以通过分析口语数据库中的模式来学习识别单词,而且它的执行速度比那种符号式的逐行工作要快速。邓力不大相信辛顿,但他邀请了辛顿及其两名合作者去微软研究该项技术。语音识别在微软取得了巨大的进步,2010年谷歌也在该领域取得了很大的进步。
然后,2012年底,辛顿和他的两个学生在图像识别上取得了一项巨大的突破,完全碾压以前的技术。这时候,不仅是微软和谷歌,行业中其他的人也认识到了这些概念。
要记住的是,这些都是很旧的概念。发生改变的是神经网络背后的计算能力和数据量。要运营微软或谷歌,你需要成千上万台机器协作运行,处理从文字到视频的各种数据。这最终使得神经网络取得成功。你需要数据来训练它,你也需要计算能力来执行那些训练。
辛顿在他的办公室
乐昆:为什么花了这么长时间才成功?科学研究就是这样。它涉及到人们的心理。在一套技术被采用之前,人们必须相信它能够奏效。众所周知,这些方法过分繁琐,需要某种黑魔法。
理查德⋅萨顿:计算能力的稳步增长有着深刻的意义。现在我们正处于一场竞赛中:人们在试图开发算法,与此同时人们也在试图开发更快速的计算机。你必须规划好你的人工智能算法,使得它们能够兼容5年和10年以后出现的计算机。
计算机必须要知道什么是好的什么是坏的,所以你要给它一个叫做奖赏的特殊信号。如果奖赏很高,那就意味着很好。如果奖赏很低,那就意味着不好。
神经网络是你存储学习内容的地方,而强化则是你如何决定你想要做出什么改变。
本吉奥:我们离非监督式学习还有很长一段路要走,那是辛顿、乐昆和我都梦寐以求的一项技术。几乎所有基于深度学习的工业产品都主要依赖于监督式学习,在数百万个案例中,计算机必须要被告知要做什么。当然,人类并不是这样学习的;我们自主学习。我们自己来发现周围的世界。一个2岁的孩子对物理、重力、压力等有直觉的概念,她的父母永远也不需要告诉她力和重力的牛顿方程式。我们与世界进行互动,观察它,并以某种方式建立起一种心智模式:如果我们做这个或做那个,事情将会如何发展。
我们正在进入一种新的研究阶段,即非监督式学习,这与强化研究有关。我们不仅仅是在观察世界,我们还在这个世界行动,然后利用这些行动的影响来琢磨它是如何运作的。
乐昆:我对使得机器像动物和人类一样高效学习很感兴趣。当你学习开车的时候,你知道如果你偏离了公路,坏事就会发生。我们可以预测我们行为的后果,这意味着我们不需要通过做坏事来了解不好的后果。
所以,我所追求的是找到训练机器的方法,使得它们能够通过观察来学习,这样他们就能建立起某种针对这个世界的预测模型。每种动物都有针对其环境的预测模型。它们越是聪明,就越会预测。你可能会说,预测能力,连通根据预测采取行动的能力,实际上是智力的本质。
乐昆:我们很有可能将会在未来3年、5年、10年或15年取得一些重大进展——也就是短期内就能实现。在那以后,还需要很长一段时间才能真正建立某种接近于人类智能的系统。那将需要数十年的时间。
本吉奥:我不认为人类必定会失去工作,即使机器变得非常聪明,甚至比我们更聪明。我们总是希望真人去从事与人类互动有关的工作。我不想让机器人照顾我的孩子、祖父母或者生病住院时候的我。我不担心《终结者》(Terminator)里的场景。我相信,如果我们能够制造出像我们一样聪明的机器,他们也会聪明到能够理解我们的价值观和我们的道德体系,从而以一种对我们有益的方式行事。
我真正担心的是人工智能被滥用的可能性,例如应用于军事武器。它已经被用来影响人们的看法,正如你在广告中所看到的。我认为,在人工智能部署存在伦理道德上的错误的地方,我们应当将其认定为违法。我们需要共同变得更有智慧。
萨顿:我认为,我们将这个领域称作“人工智能”是个巨大的错误。这让人觉得它和人很不一样,而且也不是真正的智能。它让人们觉得它比正常情况更加陌生,但它是我们试图去做的一件与人类密切相关的事情:重新创造人类智能。
科学总是揭示出并非所有人都喜欢的真理——你得到了真理,但它并不总是你想要的。也许这就是为什么宗教历来与科学格格不入的原因。我认为这和我们对大脑的了解是一样的。也许不会有关于意识的解释。有些人会喜欢,有些人不会喜欢。科学不能改变真理。
变化出现的时候总会有赢家和输家,也总会有巨大的变化。我想我们将成为智能机器。我们应该把AI看作我们自己或者我们的后代。我们可以创造他们,让他们成为我们认为合适的存在。
人类是什么?人类总是在努力变得更好。我们不应该冻结我们现在的生活方式,并说这就是它应该永远保持的模样。
2011 年,辛顿(左二)和本吉奥(右)参加盖茨比研究所举办的一个研讨会
乐昆:直到我们确切地知道它将会是什么样子的,担心这些是不成熟的。我不相信奇点的概念:有朝一日,我们将想明白如何构建有超常智慧的机器,第二天这台机器将建造出更加智能的机器,然后它会实现腾飞。我认为,人们忘记了每一个物理现象或社会现象都会面临摩擦,所以一个指数式增长的过程不能无限增长。
在这个好莱坞的桥段中,在阿拉斯加某个地方的某个天才想通了人工智能的秘密,并制造了一个机器人,机器人接管了整个世界。这简直太荒谬了。
特鲁多:这不是我过分担心的事情。我想我们都看过或读过足够多描述人工智能理论上是多么危险的科幻小说。我认为,人们总会感觉科技既能被用来做好事,也能被用来做坏事。我确信,加拿大在参与试着让我们走上正确的道路。我不想放慢我们的研究和我们对宇宙具体细节的研究。
问题是:我们想要一个什么样的世界?我们想要一个成功的人要躲在封闭的社区里,而其他人都心存嫉妒的世界吗?或者你想要一个人人都有可能为创新做出贡献的世界?
辛顿:我认为,所有这些东西对社会的影响很大程度上取决于我们所处的政治体制。从本质上讲,提高商品的生产效率应该提高整体的效益。唯一糟糕的是,你的社会将生产力提高带来的所有好处都提供给1%的人。我居住在加拿大的原因之一是它的税收制度;如果你赚了很多钱,该国会对你征收很多的税。我觉得这样很好。
我的主要观点是,预测未来非常困难。一旦你开始预测20年后会发生什么,你几乎不可避免地会预测错误。但有些事情是我们可以预测的,比如人工智能这项技术将改变一切。
特别提醒:本网内容转载自其他媒体,目的在于传递更多信息,并不代表本网赞同其观点。其原创性以及文中陈述文字和内容未经本站证实,对本文以及其中全部或者部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,并请自行核实相关内容。本站不承担此类作品侵权行为的直接责任及连带责任。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。