问题3 为什么没有甜蜜轻松的前景呢(1)

  问题3. “为什么没有一个甜蜜和轻松的前景呢?”

  很多人认为,当我预言人工智能问题将爆发一场战争的时候,我可能太极端了。他们认为人工智能机器和人类应该能够以一种“甜蜜和轻松”的方式和谐共处。举个例子,下面是两个这样的观点。

  来信

  亲爱的德·加里斯教授:

  我读过您的一些关于人工智能的文章,并且我或多或少地同意您的观点,那就是本世纪最重要的辩论之一,将是关于“人类”这个词汇的定义问题。

  然而,在您的文章中,还有一篇cnn.com上的名为“瑞士科学家关于机器人的《圣经》哈米吉多顿(世界末日善恶决战的战场)之战的警告”的报道中,我认为您夸大了这个可能性,那就是肉身人类和非肉身人类的不同会导致战争。这种下意识的反人工智能情感出现在一些科幻小说中,例如电影《终结者》,并且不值得作为严肃讨论的主题。

  我们(超人的/外星人的/宇宙主义的个体和科学家)应该做的是去强调这点,那就是人工智能机器一旦开发出来,应该被当作奴隶一样去对待,而不应该以我们对待人类一样的尊敬态度来看待它们的存在。

  只是由于人类是由猿猴进化出来这一点并不能说明我们应该灭绝猿猴。只是由于另一个个体拥有和你同样的渴望,那就是通过获取和处理资源而生活和制造财富,并不意味着它们对你来说是一个威胁,并且应该死亡。

  回答

  这种“慷慨的”空洞的观点我认为是很幼稚的,因为它是建立在信任基础上的,也就是说,人类相信,人工智能机器将一直对我们很友好。我认为它忽视了一个重要的概念—— 风险。如果人类可以100%确定人工智能机器,特别是高级人工智能机器,将一直以我们期待的方式对待我们,那当然是非常理想的。但是,我们不能肯定。我认为,人工智能机器将不得不需要通过进化工程技术来制造,正如我在本书(第5章)中提到的一样,并且因此,我们永远不可能肯定它们的电路对于人类来说是“道德的”。人工智能机器们可能会冷酷地认为人类只是害虫,或者人类对于它们来说是如此的低等,以至消灭我们从它们的角度来看也毫无关系。对于它们来说,杀死人类就像我们杀死蚊子或者踩死蚂蚁一样。

  由于这个赌注关系到整个人类的生存,我认为地球主义者不会容忍这个危险。他们可能期待最好的,但是,他们的领导们却有着最坏的打算,最极端来说,如果宇宙主义者真的要制造高级人工智能机器的话,他们将计划发动一场针对宇宙主义者的战争。

  我不认为人类将把人工智能机器看作奴隶。当然,一开始,当它们还只是愚钝的机器人的时候,可能会被这样对待。真正让我担心的是相反的情形。看看人类是怎样对待牛、猪、鸭子等动物的。和它们相比,我们觉得自己是如此的高等,它们对于我们来说是美味佳肴,屠宰它们我们一点不介意,除非你是一个素食主义者。在转化阶段,当人工智能机器还基本上是人类智慧水平的时候,有可能平等对待它们,但是在某种意义上,它们不是我们的同类,因为它们拥有迅速超越并且是大规模超越我们的能力。

  人类相对于人工智能机器来说非常局限,我们的大脑体积是固定的,我们思考和学习都很缓慢。一个在某个时刻具有人类智能的人工智能机器可以在一个小时之后变成天才。记住,它的思维速度比我们至少快100万倍。如果它准备增加其内存大小等,那么,它的能力可以增长得更快。

  我认为,这个评论给予人工智能机器太多的人性。它们将和我们非常不同,并且潜在的能力将极大地优越于我们。而且,我觉得这个评论严重低估了人类对与高级人工智能机器共存这个事实的恐惧—— 地球主义的恐惧。我们将不得不去信任它们不会杀死我们。大多数地球主义者不愿意面对这个风险。他们宁愿去面对他们所知的恶魔,即宇宙主义者,他们至少还是人类,战胜他们至少还有一半的机会。如果人工智能机器存在并且决定必须消灭人类的话,那么人类获胜的几率将是零。来信人的评论不够政治性,他没有面对残酷的现实,他不适合作为一个将军或是一名政治领导者。

读书导航