你以为人工智能真的能够超越人类吗?大错特错!
- 来源:互联网
- 作者:NT
- 编辑:newtype2001
2
第二个关于人工智能的误解是,我们认为自己拥有通用智能。正由于秉承了这种被人反复提及的观念,使得人工智能研究人员经常阐述一个目标:开发通用人工智能技术(AGI)。然而,如果我们以上文的“可用性空间”来看待智能,那也就没有通用一说了。
人类智能并不处在中心位置,其他专项智能也并不是围绕它发展的。相反,人类智能只是一种非常具体的智能形式,经过了数百万年的进化后,使得我们这个物种在地球上生存下来。如果对所有可能的智能类型所处的空间进行了解后,便会发现人类这种智能只是“偏居一隅”,就像我们的世界处在浩瀚的银河的边缘一样。
我们肯定可以想象,甚至发明一种类似于瑞士军刀的多用途思维。它可以完成很多事情,但却没有一种能够做到极致。人工智能也会无法突破这种极限:不可能针对所有维度进行优化,只能进行权衡,做出妥协。不可能开发出在每项具体的功能上都表现优异的多功能通用人工智能。
一个庞大的“全能”思维,不可能在所有事情上都像专用人工智能一样表现出色。由于人们认为人类的思维是通用思维,所以往往也认为认知不必受限于工程师的权衡妥协,认为完全可以开发出一种在所有思维模式上都做到极致的智能技术。
但我没有看到任何证据支撑这一论调。我们并没有开发足够多样的思维模式,因而也就无法看到可能性空间的整体状况。
3
人类之所以认为可以在通用思维上做到极致,其实一定程度上源自通用计算的概念。这个概念之前在1950年被称作丘奇-图灵假说(Church-Turing hypothesis)。这种假说认为,达到特定门槛的所有计算都是等价的。因此所有的计算存在一个通用的核心:无论组成一台机器的零件速度是快是慢,甚至就算发生在生物体的大脑中,都会遵循相同的逻辑过程。这就意味着你可以在任何一台能够进行“通用计算”的机器上模拟任何的计算过程(思维)。
奇点论者利用这套理论来支撑自己的预期:他们认为,我们可以制作一种具备人类思维的“硅脑”,甚至可以开发能像人类一样思考的人工思想,而且远比人类更加聪明。我们应该对这种期待心存怀疑,因为他们误解了丘奇-图灵假说。
这项理论的出发点是:“如果拥有无限的磁带(存储)和时间,所有的计算都是等价的。”问题在于,在现实世界中,没有一台计算机拥有无限的存储和时间。当你在现实世界中进行实时操作时,这甚至会产生天壤之别。没错,如果忽略时间因素,所有的思维都是等价的。的确,你可以在任何一个矩阵中模拟人类思维,前提是你要忽略时间维度,或者存储及内存等实实在在的局限因素。
然而,如果把时间考虑在内,就必须重新阐述这条定律:在两个差异巨大的平台上运行的两套计算系统不可能实时等价。还可以这样来说:想要让不同的思维模式等价,唯一的方法就是让它们在等价的基底上运行。你的计算究竟能够实时处理好哪些类型的计算,很大程度上取决于它所依赖的物理因素——随着复杂度的提升,这种现象也会越发明显。
我会进一步扩展这种论调:想要达到与人类相似的思维流程,唯一的方法就是在类似于人类的血肉组织上进行计算。这也就意味着,那些在冷冰冰的硅片上构造的复杂的大型人工智能虽然可以生成复杂的大型思维,但却不同于人类的思维。如果能使用像人类这样可以增长的神经开发出有血有肉的人工大脑,它们的思维或许会与我们更加相似。这种血肉大脑带来的好处,与它所依赖的基底跟我们之间的相似程度成正比。创造“湿件”(wetware,指人类的神经系统)的成本巨大,而它的组织结构与人脑组织越接近,“制造”人类的成本效率就越高。毕竟,我们只要怀胎9个月就可以“制造”一个人。
另外,正如上文所说,我使用整个身体来思考,而不仅仅依赖思维。有很多数据都可以显示人体的神经系统如何引导我们的“理性”决策过程,甚至能够预测和学习这一过程。我们对整个人体系统了解得越深,就越有可能复制它。处于不同载体上(例如从有血有肉的人体转移到冷冰冰的硅片上)的智能会产生不同的思考方式。
我不认为这是个漏洞,反而认为这是一项可以利用的功能。正如我在第2条中所说,与人类拥有不同的思维方式恰恰是人工智能的优势所在。正因如此,我才认为,用“比人类更聪明”这样的说法来定义它是一种误导。
4
超人类人工智能——尤其是认为这种人工智能将会不断自我提升的观点——的核心在于,他们认为智能可以拥有无限的规模。我没有发现这方面的证据。同样地,以单一维度来看待智能的错误观念也对这种看法形成了促进,但我们应该对此加以理解。以目前的科学研究来看,宇宙中还没有哪一种物理维度是无限的。
温度不是无限的——无论冷热都有极限。空间和时间也不是无限的,速度同样也有极限。数字或许是无限的,但其他的物理属性都有极限。于是,问题变成了:智能的极限在哪里?我们往往认为,这个极限远超自身的能力范围,肯定“高于”我们,就像我们“高于”蚂蚁一样。
暂且抛开单一维度这个递归问题不谈,我们有什么证据证明人类本身不是智能的极限?为什么人类智能就不能是智能的极限呢?或者说,人类智能有没有可能距离极限水平只有很短的距离?为什么我们认为智能可以继续无限提升下去?
可以通过一种更好的方式来思考这个问题,那就是把我们的智能看做数百万种可能的智能中的一种。所以,虽然每一个认知和计算维度都有局限,但如果有数百个维度,那就会有数不清的思维类型——没有一种思维类型能在任何一个维度中达到无限高度。当我们建立和遇到这些数不清的思维模式后,或许会自然而然地认为其中一些超过了我们。在最近出版的新书《The Inevitable》里,我阐述了一些能在某些方面超越我们的思维类型。以下就是其中的部分摘录:
——跟人类思维相似,但回答速度更快(这是最容易设想的人工智能思维)
——思维速度很慢,主要由庞大的存储和内存构成
——由数百万愚蠢的个体思维合力构成的集体超级思维
——由很多极其聪明的思维构成的集体思维,但却并未意识自己是一个集体
——有很多极其聪明的思维共同构成的超级思维,而且清楚地意识到自己加入了一个联合体
——它经过训练,而且专门用于提升你的个人思维,但对其他人却没有用处
——能够想象更好的思维,但却无法将其创造出来
——能够创造更好的思维,但却不具备足够的自我意识来想象这种思维
——能够一次性地成功创造更好的思维
——能够创造更好的思维,而这种被创造出来的思维还可以创造比它更好的思维
——能够访问自己的源代码,因此可以定期调整自己的流程。
——没有感情的超级逻辑思维
——具备通用问题解决能力的思维,但却没有自我意识
——拥有自我意识,却不具备通用问题解决能力的思维
——需要经过长时间来开发,而且在成熟之前需要一套思维为其充当保护器
——分布在庞大的超慢思维之内,快速思维似乎“看不见”它
——具备快速自我复制能力的思维
——能够自我复制,而且仍然可以跟自己的克隆体结为一体
——能够从一个平台迁移到另一个平台的不朽思维
——能够改变流程和认知特点的快速动态思维
——具备自我意识的最小(无论是尺寸还是能量)纳米思维
——擅长具体场景和预测的思维
——永远不会抹去或忘记事情,也不会搞错任何信息的思维
——一半机器、一半动物的共生思维
——一半机器、一半人类的电子人思维
——使用量子计算的思维,它所使用的逻辑无法被我们理解
现在有些人可能会把这些东西称作超人类人工智能,但这些思维的多样性和特异性却会引导我们使用新的词汇“智能”和“聪明”,并对其产生新的认识。
其次,相信超人类人工智能的人会假设人工智能可以呈现指数级增长(以某些未经确认的单一参数为标准),这很可能是因为他们认为它已经实现了指数级增长。然而,目前没有任何证据表明人工智能正在呈现指数级增长——无论用哪种方式衡量都不例外。
我所说的指数级增长指的是每过一段时间,人工智能的性能便可实现翻番。证据何在?我找不到。如果现在没有证据,为什么认定未来会发生?唯一能以指数级增长的就是人工智能所获得的输入数据,也就是用于生成智能的资源。但输出表现并不能像摩尔定律一样增长。人工智能无法做到每过3年性能翻番,甚至连每过10年性能翻番都做不到。
我问过很多人工智能专家,有没有证据表明人工智能的性能实现了指数级增长。他们都表示,目前没有指标来衡量智能,而且他们也没有从事这方面的工作。但当我向坚定看好人工智能飞速发展前景的雷-库兹韦尔(Ray Kurzweil)询问人工智能呈现指数级增长的证据时,他表示,人工智能并没有实现爆发式增长,而是表现出层级式增长模式。
他说:“人工智能每上一个台阶,都需要计算和算法的复杂度实现指数级提升……所以我们可以预计线性的层级式增长,因为每上一个台阶都需要在复杂度上实现指数级增长,而我们这方面的能力的确实现了指数级进步。我们与大脑皮质之间相差的层级不多,所以我认为2029年可能实现。”
库兹韦尔似乎是在说,人工智能本身没有呈现指数级增长,反而是开发人工智能所作的努力呈现这种增长态势,而实际输出效果仅仅是一次一个台阶地迈进。这几乎与人工智能大爆发的前提假设完全相反。这种情况今后可能发生变化,但人工智能目前显然没有呈现爆发态势。
因此,当我们设想“人工智能爆发”的情形时,不应该将其视作一种级联式繁荣,而应该设想为新型的散发式发展。用一个更形象的比喻来说明,这更像是寒武纪物种大爆发,而不是核爆炸。几乎可以肯定的是,技术加速发展的结果并不是催生“超级人类”,而是“超常人类”。换句话说,它会超脱于我们的经验范围,但未必能“高于”我们。
5
认为超级人工智能将接管世界人还持有另一个前提假设:几乎拥有无限能力的超级人工智能可以很快解决很多重大的未解难题。但这种说法却没有太多证据支撑。
很多认同人工智能将实现爆发式增长的人预计,这项技术将会实现高速进步。我把这种神话般的观念称作“思考主义”(thinkism)。在他们看来:思考能力或智能水平是阻碍未来进步的唯一因素。但这完全是第一种谬论。(很多喜欢思考的人也都怀有这样一种信念:思考是一种神奇的超能力,甚至无所不能。)
以治愈癌症和延长寿命为例。这些问题不是单凭思考就能解决的。光靠“思考主义”根本无法发现细胞的衰老方式和染色体的衰退过程。无论多么言之凿凿,也不可能单凭阅读所有已知的科学文献想清楚人体的运作模式。没有一种超级人工智能可以简单地思考现在和过去的所有核裂变实验,然后在一天之内想出核聚变技术。
除了思考之外,想要从未知过渡到已知,还必须辅以很多元素。需要在现实世界中进行很多实验,每次实验都会产生大量相互矛盾的数据,因此需要通过进一步的实验来确立正确的假说。单纯思考潜在数据根本无法得出正确数据。
思考(智能)只是科学的一部分,甚至只是一小部分。例如,我们根本没有足够的数据来解决生老病死的问题,甚至连冰山一角都没有揭开。具体到生物体的运作机制,多数实验都需要用时间来慢慢酝酿。细胞新陈代谢速度很慢,无法加速进行。可能需要数年、数月,至少也要数天时间,才能看到结果。
如果你想知道亚原子微粒的情况,那就不可能单凭思考来获得答案。必须要建造复杂的大型物理设施才行。就算当今最聪明的物理学家比现在再聪明1000倍,如果没有对撞机,他们也无法获取新的知识。
超级人工智能无疑可以加速科学进程。我们可以制作原子或细胞的计算机模拟程序,从而大幅加快速度,但有两个因素限制了模拟器在获取瞬间进步时的实际效果。首先,模拟器和模型之所以能比它们模拟的对象速度更快,是因为它们删减了一些因素。这是模型或模拟器的自然属性。同样值得注意的是:对这些模型进行测试、审核和验证仍然需要在正常的时间维度内进行,从而匹配它们的模拟对象。换句话说,对事实的验证速度无法真正加快。
在模拟器中简化后的运行结果对于筛选最有希望的路径非常有用,因此可以加快进度。但在却无法超越现实,所有的现实因素都会带来一定的影响,这也是对“现实”的一种定义。随着模型和模拟器中添加的细节信息越来越多,便会碰到局限,以至于模拟对象的实际运行速度反而比100%复制现实元素的模拟器速度更快。这便引出了“现实”的另外一个定义:在考虑了所有细节和自由度之后,速度最快的那个版本才是“现实”。
如果你能将细胞中的所有分子和人体内的所有细胞都融入模型之中,这个模拟器的速度不会超过人体。无论你怎么努力思考,仍然需要时间来完成实验,无论是现实系统还是模拟系统都概莫能外。
为了体现实用性,人工智能必须应用于现实世界,而现实世界往往会制约它们的创新速度。如果没有进行实验,没有开发原型产品,没有经历失败,也没有与现实互动,人工智能就只能思考,无法得出结果。所谓的“比人类更聪明的”人工智能也无法在一瞬间获得任何发现。虽然发现速度会因为人工智能的进步而大幅加快,一定程度上源自这种与众不同的人工智能会提出人类不会提出的问题,但即便具备远高于我们的智能,也不意味着可以立刻取得进步。想要解决问题,光靠智能是不够的。
不仅治愈癌症和延长寿命这样的问题不能单靠智能解决,智能本身同样不能光靠智能来解决。奇点论者有一个理论:一旦你开发出“比人类更聪明的”人工智能,它就会突然之间努力思考,并开发出“比自己更聪明的”人工智能,然后进一步开发更聪明的人工智能,直到能力爆棚,变得跟上帝一样。
没有证据表明,仅仅靠思考智能就足以开发出更高级的智能。这种“思考主义”是一种信仰。但有很多证据表明,除了大量的智能外,还需要通过实验、数据、试错、反复质疑,以及各种各样智能之外的东西,才能成功发明新的思维。
总结来看,我对这些说法的分析可能都是错误的。我们还处在发展早期,今后可能会发现一种通用的智能衡量标准,也可能发现智能可以在所有维度上变得无限强大。因为我们对智能究竟是什么知之甚少(更别提“意识”了),所以人工智能奇点存在的概率大于零。我认为,所有证据都表明,它存在的概率很低,但仍然大于零。
因此,尽管我不认同这种可能性,但我的确认同OpenAI所秉承的宏观目标,以及那些担心超人类人工智能的聪明人所怀有的担忧——我们应该开发友好的人工智能,然后搞清楚如何向其灌输与我们相似的自我复制价值观。
虽然我认为超人类人工智能在遥远的将来可能对我们的生存构成威胁(而且值得考虑这个问题),但由于这种概率很低(根据目前的证据来看),所以不应该因此而影响我们的科学、政策和发展方向。
小行星撞地球必然引发灾难,这种事情发生的概率大于零(所以我们才应该支持B612基金会),但却不应该因为存在小行星撞地球的可能性而影响我们在气候变化、太空旅行甚至城市规划方面所做的努力。
类似地,目前的证据表明,人工智能最可能的结果不是成为“超级人类”,而是会出现成百上千的新型“超常人类”思维,这些思维多数都与人类不同,但没有一个是通用智能,也没有一个能够像神一样瞬间解决我们面临的重大问题。
相反,今后将会出现无数种存在局限的智能技术,在我们并不熟悉的维度从事工作,在很多方面超越我们的思维,并及时与我们配合,从而解决既有问题,同时创造新的问题。
我理解超人类人工智能的巨大吸引力。我也希望能有超人出现,但与超人一样,这同样只是虚构的神话。宇宙中的某个地方或许存在超人,但概率很低。然而,神话也很有用,一旦被发明出来,就不会消失。关于超人的想法永远不会消失。超人类人工智能奇点的想法既然已经诞生,肯定就会永远存在下去。
但我们也应该承认,这目前还只是一种类似于宗教信仰的想法,没有科学依据。如果我们认真研究目前掌握的关于人工智能和自然智能的各种证据,就会发现,我们关于超人类人工智能的设想只不过是像神话一样的错误观念。
与世隔绝的密克罗尼西亚群岛上有很多人在二战期间首次得以跟外界取得联系。外来的上帝坐在轰鸣的大鸟身体里面,飞过他们的天空,把食物和物品投放到岛上,之后便一去不返。于是,岛上出现了一种宗教,他们祈祷上帝能够回来投放更多物资。
即便是在55年后的今天,那里仍有很多人在等待上帝再次投下物资。超人类人工智能可能也会成为一个与之类似的宗教。一个世纪之后,当人们回望这段历史的时候,可能会想,此时的信仰者开始期待超人类人工智能随时出现,为他们带来不可思议的价值。年复一年,他们始终等待着超人类人工智能的出现,相信它很快就能载着“物资”降临人世。
然而并没有出现真正的超人类人工智能。我们一直在不断重新定义这项技术,增加它面临的困难,甚至可能在未来限制它的发展。但从异形智能——由多样化的智能、认知、逻辑、学习和意识构成的连续统一体——的广泛角度来看,人工智能已经在这个星球上普遍存在,而且会继续扩散、深化、变异、强化。
之前没有任何一项发明能像它一样给我们的世界带来如此大的改变。到本世纪末,人工智能可能会渗透并改变我们生活中的一切。不过,关于超人类人工智能的神话——既有可能是人类的福祉,也有可能奴役人类(或者二者皆有)——仍将存在下去。毕竟,这种可能性太过神秘,让人欲罢不能。
玩家点评 (0人参与,0条评论)
热门评论
全部评论