站长资讯网
最全最丰富的资讯网站

巨头纷纷布局,AI是否即将威胁人类生存?

巨头纷纷布局,AI是否即将威胁人类生存?

  【AI世代编者按】《麻省理工科技评论》近期刊登了艾伦人工智能研究所CEO、华盛顿大学计算机科学教授奥林·艾奇奥尼(Oren Etzioni)的文章,分析了超级人工智能出现的可能性。艾奇奥尼的研究结论是,超级智能在可预见的未来还不会出现。

  《麻省理工科技评论》中发表的文章与报告观点基本类似,以下为文章全文:

  如果你了解过关于人工智能的各种观点,那么可能会非常担心“超级智能”,或者说“杀手人工智能”的出现。近期英国《卫报》警告称,“我们就像是在玩炸弹的小孩”,《新闻周刊》则指出“人工智能正在到来,有可能彻底消灭我们”。

  在伊隆·马斯克(Elon Musk)和史蒂芬·霍金(Stephen Hawking)等人观点的支撑下,许多媒体都有过这样的报道。实际上,这种观点来自一个人的研究成果:英国教授尼克·博斯特罗姆(Nick Bostrom),哲学著作《超级智能:道路、危险和策略》的作者。

  博斯特罗姆是牛津大学哲学家,而对风险的量化评估则是保险精算学的领域。他或许被认为是全球首位“精算哲学家”。考虑到哲学是一种概念论证学科,而风险评估则是由数据驱动的统计学工作,因此这样的头衔显得很矛盾。

  那么,数据告诉我们什么?2011年,作为希腊人工智能协会的成员,博斯特罗姆参加了在希腊塞萨洛尼基举办的“人工智能哲学和理论”大会。当时,他整理了4项调查的结果,并给出了人脑水平人工智能在不同时间点出现的可能性:

  2022年:10%。

  2040年:50%。

  2075年:90%。

  关于人脑水平人工智能的发展,博斯特罗姆撰写了一份300页的哲学论证,而这4项调查是最主要的数据来源。

  为了更准确地评估行业领先研究者的意见,我寻求了美国人工智能协会(AAAI)会士们的帮助。这些研究员对人工智能的研究做出了重要而持续的贡献。

  2016年3月初,AAAI帮我发出了一份匿名调查问卷,向193名会士提出了以下问题:“在他的书中,尼克·博斯特罗姆将超级智能定义为‘在各个实际领域,包括科学创造力、一般常识和社会技能等方面,比最出色人脑还要更聪明的智能’。你们认为,我们何时将会看到超级智能?”

  在随后的一周多时间里,80名会士做出了回复(回复比例为41%)。他们的回复总结如下:

  92.5%的受访者认为,在可预见的未来超级智能不会出现。这一观点也得到了许多会士书面内容的支持。

  即使调查是匿名的,44名会士仍决定实名回复。这其中包括深度学习先驱吉奥夫·辛顿(Geoff Hinton)、来自斯坦福大学的图灵奖获得者埃德·菲恩鲍姆(Ed Feigenbaum)、领先的机器人专家罗尼·布鲁克斯(Rodney Brooks),以及谷歌(微博)的皮特·诺维格(Peter Norvig)。

  受访者也给出了更多看法,摘录如下:

  “可能还需要超过25年时间。更有可能还要几个世纪。但不可能永远无法实现。”

  “我们正在与人脑数百万年的进化展开竞争。我们可以编写单一目的程序,匹敌人类,有时甚至胜过人类。然而,世界并不是由多个单一问题组成的。”

  “尼克·博斯特罗姆是职业恐慌传播者。他的研究所扮演的角色就是寻找人类的现存威胁。他在各种地方都能看出威胁来。我倾向于将他称作人工智能领域的特朗普。”

  这种调查的科学价值有限。问题表述和受访者的选择都可能会对结果带来影响。然而,这也是博斯特罗姆参考的一种数据来源。

  另一种研究方法是根据人工智能当前的发展去推断未来的趋势。然而这也很困难,因为我们还无法确定当前人脑水平智能的量化指标。我们已经在象棋和围棋等领域实现了超级智能,但正如艾伦研究所的研究显示,我们的程序在美国8年级科学考试中还无法及格。

  关于人工智能我们有很多方面的担心,无论是对就业岗位的影响,还是自动化武器系统,甚至超级智能的潜在风险。然而,当前的数据并没有表明,超级智能将在可预见的未来诞生。与此同时,悲观预测通常没有看到人工智能给人类带来的帮助,例如预防医疗失误和减少汽车事故。

  此外,人类未来有可能与人工智能系统合作,开发出共生的超级智能。这将与博斯特罗姆设想的有害的超级智能存在很大不同。

特别提醒:本网内容转载自其他媒体,目的在于传递更多信息,并不代表本网赞同其观点。其原创性以及文中陈述文字和内容未经本站证实,对本文以及其中全部或者部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,并请自行核实相关内容。本站不承担此类作品侵权行为的直接责任及连带责任。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。

赞(0)
分享到: 更多 (0)
网站地图   沪ICP备18035694号-2    沪公网安备31011702889846号