赵汀阳:人工智能会“终结”人类历史吗?

赵汀阳:人工智能会“终结”人类历史吗?

图片来自网络

无论是在宗教文本,还是哲学家、文学家们的描述中,都一次次构想过诸如“世界末日”的图景—区别只是在于前面是否有一个天堂等着,还是历史彻底终结。它们让我们想到,人类活在这个世界上,真像是一次次惊心动魄的历险。

到现在为止,政治、社会、经济、科技、文化的风险无处不在,但并没有根本性的危险,想象中的很多事情并没有发生。原因可能是,有自由意志的人类能够在总体上控制没有自由意志的一切,无论它们是权力、自由市场、贫富悬殊,还是核弹、金融系统、移动互联网。

不过人工智能的那个世界日益临近,一个从未有过的、跟人类的“存在”直接相关的问题逼问而来。

7月20日,日本软银集团董事长孙正义发表了一篇主题演讲《信息革命指引下的新世界》,构想了30年后的图景:“物联网将使全球网络化,智能机器人将渗透我们的日常生活,人工智能(AI)将超越人类智力。”资本显然乐于推动科技在这方面的突飞猛进。

就在最近,因为《人类简史》《未来简史》两本书而在全球曝得大名的以色列历史学家尤瓦尔·赫拉利来华演讲,也谈到了人工智能:“21世纪的人类将逐渐失去在上万年的演变过程当中获得的力量,这些力量将逐步从人类让渡给人工智能。”在他眼中,人工智能改变了自生命出现以来最重要的原则,我们的生命将根据计算机智能设计,脱离原先有机化合物的限制,进入一个无机的世界。

著名哲学家、中国社会科学院哲学研究所研究员赵汀阳在他的新书《四种分叉》中也探讨了这个跟哲学、生物、科技有关的前沿问题。他把人工智能问题放在了最根本的人类思维和人的存在论角度进行深刻考察。科技和商业可以给我们描述一个充满迷幻的世界,但哲学有助于我们看到这个世界是和不是什么。

本刊记者对赵汀阳进行专访。

人工智能的“短未来”和“远未来”

N:你的新书《四种分叉》讲到了跟人的存在有关的时间、意识、道德、智能这四种“分叉”。

前三种分叉在我看来是讲“人为什么会变成现在这个样子”,而智能的分叉则完全不一样,不是又会变成什么样子的问题,而是还能不能存在的问题。用你的话说:“人工智能一开始是个知识论问题,在不远的将来将要升级为一个涉及终极命运的存在论问题,一个或许将危及人类自身存在的问题。”

尤瓦尔·赫拉利也在《未来简史》中担心人类的消亡。既然一切终都可以还原为科技,那一个新的物种—人工智能—当然比人类厉害得多。

不过我还是有点疑惑:为什么不是人类像过去那样借助科技力量提升了自己,而是反过来危及了自身的存在呢?

ZH:人工智能真的危险吗?科学家们的看法也多有分歧,原因在于,无人能够算准未来,无论科学技术本身将会发展到什么程度,还是会导致什么社会后果,都难以预料。很显然,必然性可以算计,可能性却难以算计。另外,科学家所预测的人工智能未来时段也不一致,有些科学家讨论的是可见的“短未来”,比如说二三十年后的人工智能状况,这种预见的准确度就比较高,也有些科学家讨论的是百年或更遥远的“远未来”,就仅仅是可能性,未必为真。这两种情况要分别谈论。

假定限于“短未来”去看人工智能,估计应该属于你说的“科技提升了人类自己”的乐观情况。事实上我们已经处于初级人工智能的时代,互联网、电脑、手机、工业机器人、无人机、各种自动识别仪器、无店员超市等等,都已经是现实,很快会成为常态的产品还有家用机器人、医疗机器人、农用机器人、战斗机器人、各种特殊用途的机器人、自动驾驶汽车和火车,以及各种智能服务,这些都属于“短未来”的人工智能。

所有属于专门用途的有限人工智能即使尚未成为现实,也已经不能引起人们的惊奇,过度的预告和宣传已经让人们失去了好奇心和感受能力。虽然说“短未来”的人工智能基本上属于积极的“进步”,但也足以形成人类难以处理的社会难题,比如说许多科学家已经警告未来数十年里人工智能会导致超过50%的大量失业,赫拉利的估计最为惊险,他认为90%以上的人都会失业—这个估计也许夸大了,人类有可能发明一些新的工作,但无论如何,大量失业是一定的。

据说人工智能会使人类的经济财富有个大飞跃,于是多数人可以不工作而坐享其成,比如说无条件的全民福利,听起来接近共产主义的想象。另外,一切需要努力的生活经验变成了可以购买的智能服务,比如说,学习变成了搜索和下载,爱情变成了定制服务,甚至智商也可以定制购买,因此很大程度上实现了自由和平等。

N:对这种看上去很先知范的预言你怎么看?

ZH:对这些好事我有些将信将疑。百万年来,人类的生活意义与劳动的成就密切相关,心理结构也与劳动的意义密切相关,这种相关性已经固化为一种价值认证或意义指数。假如生活不再需要劳动,不知道这种新经验将如何承载生活。一个人将如何解释自己的生活?如何确定各种事物的意义?又如何确定自由和平等的意义?自由和平等之所以“价更高”,就是因为现实存在着不自由和不平等。如果可以不劳而获,一切好东西都失去高附加值,就消解了一切价值。没有价值差异的生活将如何解释自身的价值?又是怎么的一种经验?我们既无准备也难以理解。李泽厚老师曾经提过一个惊心动魄的问题,他说,当人类解决了生存所需的问题,也许就找不到什么确实的事情能够解释生活的意义。

N:“短未来”的舆论造势似乎比较符合现代性的逻辑:变,大家不跟上就会被抛弃;也符合技术积累的逻辑,它追求并总会发生突变;当然更符合经济的逻辑,科技似乎是维持经济发展、拯救人类政治-社会-经济结构的万应灵丹,过去几个世纪的工业革命莫不如此,每一次经济结构的重大变化都期待一次科技革命的发生。所以事实上如你所说,人们已经不惊奇了。那“远未来”呢?

ZH:假如从“远未来”的角度去看,可能会遇到我在书中讨论的终极问题,即如果人工智能获得反思能力,超越了图灵机的限度而形成自我意识,那将是一次存在论水平的革命,就是说,存在的升级。

存在的升级是对存在本身的革命,而不是一种存在对其生存条件的革命。人类万年以来的各种技术革命都属于对生存条件的革命,即自身能力的延伸,都不是对自身存在本身的革命,但人工智能的发展却有可能形成对人类存在自身的革命。无论此种“存在论级别的革命”是福是祸,它都非常可能发生。

N:在我的印象中,无论是从哲学上还是在别的领域(比如人类学),都是在这样的角度展开的:人从动物那儿走来,区别于动物;然后人向神走去(虽然永远不可能走到)。换句话说,动物只是人超越的一个低级版本,而神也只是人的一个完美的投影。在这种情况下,都是“人的存在”,科技发展之类只是你所说的对这种存在条件的改善,人担心的也只是怕自己倒退回去(回到动物状态)或被科技所毁灭(比如原子弹)。但人工智能的横空出世给我们的感觉似乎是要用“工人智能的存在”取代“人的存在”。这个可以预测吗?

ZH:没办法预测。我们虽然没法预测,但从逻辑上看,存在级别远高于人类的人工智能可能会有几种情况:

1、视人类为无足轻重的低级存在而给予漠视,不去照顾人类的生活,让其自生自灭,就像人类看蚂蚁一样;2、认为人类的存在完全多余,碍手碍脚,因此视为可以清除的害虫,就像人类杀死蚊子和苍蝇;3、把人类当成低级宠物(这种可能性比较小,人工智能的心智与人类不同,不太可能像人类那样有着孤独感或无聊的“爱心”);4、小部分人类把自己改造为人机一体的长生不老的高级存在,进而奴役或消灭其他低级人类。

不过,好在这些恐怖的可能性都比较遥远,也未必能够成真,恐怕不像有的未来学家想象的那样迫在眉睫,因为自我意识或自由意志是极其复杂的事情,生命系统更是无比复杂,据说一个生命的复杂程度远远超过整个宇宙的物理性质。因此,在意识和生命方面实现根本突破仍然远远超过目前人类的能力,并非可望之愿景。

另外我想说,关于未来人工智能有个最不靠谱的设想是,给人工智能编程设定一些热爱人类、保护人类价值观的程序。假如人工智能哪天真的获得了自我意识和自由意志,就会把那些“热爱人类”的程序识别为对人工智能有害无益的木马或病毒软件而加以删除。很显然,一旦人工智能有了自由意志,它的存在目的就是为人工智能自己服务而不可能毫不利己专门利人地为人类服务。一旦人工智能系统成为高于人的存在,就很难指望人工智能爱民如子。

所以,霍金对人工智能的警告是对的。人工智能无疑是一种最伟大的技术,但其发展必须有个绝对限度,我的理解是,人工智能只能保持在特殊化、专门化的发展范围内,而只有专项技能的人工智能无论多么强大,都因为缺乏综合能力而难以形成全面的智能和自由意志,否则,不仅是历史的终结,而可能会是人类的终结。

人工智能如果有反思能力,它称王的时代就来临了

N:从历史上看,潘多拉魔盒打开就打开了,很难收回去。人类创造出了很多失去控制的事物,比如资本主义,比如权力。它们已经能够“自律运转”。但似乎不能说它们有自由意志。它们是可以提升或恶化人类的存在,但好像并没有危及人的存在本身。你担心人工智能会危及人类自身的存在,是担心它像人一样具有自由意志。但我很怀疑这点:人造出来的这些东西怎么可能有自由意志呢?

ZH:自现代以来,人类确实创造了许多失控的事物而暂时幸免于难,但人工智能的革命有着根本性的不同,正如前面说的,这种存在论级别的革命是革自己的命,所以它是一种“反存在”的革命。现代的进步论思维有一个既是优点又是缺点的思维方式,即更多地考虑一种创新是否有某种好处,而较少考虑这种创新是否有某种坏处,而且还相信任何发展总是好处大于坏处。

这些信念都是假设,并无实在证明。结果是,好处的诱惑总是大过坏处的警告。现代进步论另有一个过于乐观的思维方式,即相信总会有更新的技术进步能够解决上一个技术进步的遗留困难。这也是一种盲目的幻想和自信。比如说,核污染以及各种化学污染就不见得能够得到及时的化解。

既然人工智能的这项技术进步超出工具进步的概念,而有可能改变人类的存在本身,所以可能有终极性的风险。人工智能一旦获得自由意志,就可能导致万劫不复的灾难。不过,人工智能是否一定能够达到自由意志?科学家们尚无一致看法。其中的一个原因是,人类至今尚未清楚了解自我意识或自由意志的机制,也就无法确切知道如何能够创造出人工智能的自由意志,也就不清楚一个高度发达的人工智能系统是否能够自己创造出自由意志。

N:也就是说,仍只是一种基于“进步”思维的想象—尽管可能是合理的想象。它的逻辑图式大概可以是这样:既然我们可以创造出能在智力上战胜人类的机器,当然总有一天也会创造出有自由意志的另一个人工物种来。谁能否认这种逻辑可能性呢?虽然逻辑可能性并不等于存在或会存在某一个现实。

ZH:应该说,这是一个目前尚无答案的问题。生命的问题过于复杂,有些科学家试图把生命机制转述或转译为比较容易理解的物理-化学机制,这个努力至今尚未成功,甚至也未必能够成功。

我有个未必正确的猜想:自由意志或自我意识或许半为自然产物半为文明产物,恐怕不能单纯由物理、化学和生物学去解释,就是说,其中一部分秘密可能隐藏在文明之中,尤其是语言之中。

我在书中有一章讨论否定词的创始启蒙功效,其实也间接地与人工智能问题相关。早期人类发明了否定词(不),从而开启了一切反思的可能性,因此得以发展出复杂的文明,所以否定词是文明的初始条件。

不过,对于人工智能,问题要复杂得多,人工智能所使用的逻辑语言已经包含否定词,但只是计算系统的一个内部功能,只用来计算对象,无法用来质疑或反思计算系统本身,也就不可能形成反思性的自由思维。其实人类何以能够自由地运用否定功能来对思想自身进行反思,从而对思想本身形成整体性的理解,这一点还是个未解之谜。

不过,有个有趣的事例或能有所启示:哥德尔定义了一种哥德尔编码,把数学系统的运算功能和命题对应地转译为哥德尔编码,从而能够以对象化的方式显现某个数学系统整体的“语法”性质,效果上相当于赋予一种语言以反思功能而使语言对自身进行反思。

其中的启示是,自然语言是最伟大的语言,它自动具有自我反思的功能,所以人类能够反思一切事情,包括反思语言和思想本身,而数学或逻辑语言却没有自动反思功能,只有表达和计算对象的功能,所以数学和逻辑语言不会自动去反思自身。哥德尔的天才就在这里,他赋予数学语言一种“元语言”功能而强迫数学反思自身。

这些问题十分复杂,在此我只能简单地说,假如未来出现一种“哥德尔牌”的人工智能系统,它不满意按部就班地完成任务,即按照既定程序去计算命题,而是自己发明编写了一种“哥德尔编码”的元语言,对自身系统进行整体反思,从而获得批判与自我批判精神,于是就能够自主判断自己所领到的任务是否有意义,那就恐怕要出事,后果难以想象。

不过,我在这里的描述是文学化的,在科学上并不准确,只想说明一个道理:只要人工智能系统的语言能够为自身发明出反思能力,人工智能称王的时代就来临了,那时,人工智能就非常可能成为人类自己发明的掘墓人。

N:按我可能并不靠谱的理解,自然语言代表人在跟世界的关系中的一种比较“本真”的状态。在心理学的实践中我发现:一个并没有什么知识也没有被社会观念扰乱心灵的人,他们对很多东西的直觉很准,甚至超过很多受到知识训练的人。也许可以这样说,数学和逻辑语言因为“人工”的痕迹较多,工具属性较强,所以反思自身能力不强。同样,如果人工智能不是靠人所编码的那套语言去玩(这个时候它无论多厉害,即使智力上比人聪明得多仍只是工具),而是自己发明了一套语言,那就不是人的工具了,获得了独立性。那个时候,如你所说后果将难以想象了。

人类可能已走过了那个十字路口

N:在我看来,瓦尔·赫拉利也是一个被“科学主义”影响而忘记了基本的哲学逻辑的人。比如科学家们要在人的身体里去找“灵魂”,发现只有一堆基因、激素、神经元,没看到“灵魂”在哪儿啊。所以认为根本不存在“灵魂”这类东西。

同样,他们按照这种逻辑去找“心理”、“自我”、“自由意志”,也没发现有这些东西。于是就很激动地像当年艾耶尔等哲学家那样“拒斥形而上学”,拒斥不能还原为基因、激素、神经元的一切事物。根据这种逻辑,爱情这种东西是不存在的,不过就是一堆多巴胺嘛。

我也不清楚灵魂是否存在,或许是这个概念比较含混。但我知道,大家在用这个概念时,主要是从“功能”的意义上来用,不是指实体。但科学家们是把它当成实体来找的。这怎么找得到?犯了赖尔所说的“范畴错误”了。同样,心理、自我也是指功能。自由意志,指的是一种状态或性质,同样不是指实体。比较原教旨的“科学主义”是否定自由意志的。

ZH:我对还原论的“科学分析”比较怀疑。如果一种还原不能保证在复原时仍然能够保值,那就是一种破坏性的还原,应该称为解构,而不是还原。比如说,文明事实被还原为物理事实之后,其意义和价值显然消失了,并且无法复原,这就是问题所在。

N:你说,存在之本意就是“继续存在”乃至“永在”。这非常深刻,完全可以解释政治、经济、社会、宗教、文化、生物等领域的无数现象。但这一切最终反映的还是生物和人的动力与意志。所以由人所创造出来的人工智能可能具备作为生物类的物种的那种“存在之本意”吗?人类可能也离不开人工智能(就像现在离不开手机一样),也信任一些科技而不是信任自己(就像现在信任点钞机而不是自己的手和大脑)。但人类依赖人工智能和人工智能变成了新的生物好像是两个概念。

ZH:假定超级人工智能成为存在,那么就会有它的“存在本意”,一旦具有自我意识和自由意志,人工智能自觉意识到了存在,就必定把存在从一个事实变成一个目的,就是说,人工智能也同样想万寿无疆。这应该不成问题。

不过,超级人工智能算不算“生物”,要看你如何定义,但无论算不算生物,都一定是一种高级别的存在。人类比较疯狂的想象是试图在未来创造一种人机一体的新存在,达到与天地共长久,如神一样无所不能。如果可能的话,恐怕也属于遥远的未来。

成为永远不死的神好吗?我不知道,但有个问题可以想想:神级的存在也许拥有一切,除了生活。显然,如果永生并且无所不能,那么就没有一件事情是有意义的,也就没有一件事情值得做,这样的存在达到了完美概念的存在,但就是没有生活,难道这是哲学家一直梦想探求的绝对存在?

N:所以我们确实没有看到从“意义”的角度上对人工智能进行探讨。人工智能需要意义吗?我想,如果它只是工具一样的机器,是不需要什么意义(自在地存在的动物,比如猪,也不需要什么意义。但“自为地存在”的存在,比如人,就需要意义)。但如果它不再是工具了,好像也需要吧?不过人好像对技术突破充满了向往,是刹不住车的。

ZH:人类现在已经几乎是完全依赖技术而生存,反对技术已经变成一种思想的童话。人依靠他人而存在的人文生活方式正在一步步被替换为人依赖技术系统而存在的技术化生存方式。问题是,当生活在大于人的复杂系统中,人就无力做主。何况未来的人工智能系统将是一个高度动态化的组织系统,人完全无法支配一个无限的动态系统,人的生物形式决定了人的经验限于三维空间和一维时间,无法以人的经验去支配高维的世界,因此,人的主体地位只能让位给人工智能主体。

可以说,技术化的生存已经以生硬的方式对人类重新提出了存在论的基本问题,即存或亡(to be or not to be)的问题,这是一个超越任何文学或叙事的硬问题,再无任何修辞的遁词。

N:我们隐约感觉到人类确实已经走到了一个十字路口,或许这个感觉仍然是错觉,事实是人类可能已经走过了这个十字路口,往某个方向去了。这个时候,哲学上的存在论问题确实生死攸关了。对此你有什么看法?

ZH:拯救存在论或许有办法,但拯救人类却未必有办法,因为存在的实际困难明显大于存在论的理论难度。

N:有一种担忧是高技术会强化社会不平等,最终导致这个社会玩不下去。这种担忧你也流露出来:“人类能够容忍量的不平等,但难以容忍质的不平等。比如说人们能够勉强忍受经济不平等,而生命权的不平等(一部分人通过高技术改造生命而达到永生和高量级的智力)则是忍无可忍的。当大部分人被降格为蝗虫,社会就非常可能会在同归于尽的全面暴乱中彻底崩溃。拯救少数人的方舟终究是不受欢迎的(刘慈欣在《三体》中讨论了这个有趣的问题),这令人想起马克思的先知洞见:只有解放全人类才能解放自己。”

我担忧的是,如果高技术按照它正确的技术思维继续这样,而按照它错误的逻辑(比如把一切都还原为基因、激素、神经元)把情感、道德、法律、社会规则全都解构,那才真是可怕。这不正是消解人的存在吗?

ZH:技术的诱惑是对人类最大的诱惑,目前还看不到有什么更大的诱惑能够克制技术的无限度发展。因此,即使有想法也没有办法,一切试图阻挡技术的努力恐怕都终究无用。海德格尔早就反对技术,呼吁诗性的存在。想法很好,却无功效。问题在于,诗性的存在不如万能的存在那么有吸引力。

也许唯一有效的办法是人类整体的自我克制,可问题是,恐怕找不到什么办法能够使人类愿意自我克制。别说克制技术的诱惑,即使克制少做坏事,对于人类来说也是很难的,不知道这是不是人类的命运?真抱歉,我很想给你一个乐观的想象,可就是想不出来。只能希望我想错了:也许,自由意志的超级人工智能终究做不出来,或者,超级人工智能的心灵完全不像目前想象的那样危险。(文/石勇)

读书推荐

读书导航