问题1 人工智能发展的时间问题(1)

问题1. “时间问题——如果人工智能发展得太快以至于关于人工智能的辩论来不及展开将怎么办?”

在所有我收到的问题里面,这个问题是让我考虑得最多的。我认为,这是一个基本的批判意见。这个问题是如此重要以至于我在第6章讨论“奇点”的时候已经涉及到了。本质上来说,这里所争议的是,如果人工智能的崛起太快了,就没有足够的时间在社会上产生的宇宙主义-地球主义的分化,因此,本书的这个论点不成立。没有这样的分化,将不会有人工智能辩论,也没有人工智能战争。

来信

亲爱的德·加里斯教授:

通过CNN(美国有线新闻台)网站的一个链接,我最近接触了您的《关于超级智能机器的道德困境》的文章。我着迷于阅读这篇文章,虽然我在这些领域不是一名专家,我敢说在大多数方面我赞成您的观点。然而,有一点让我感到有些前后不一致,请您原谅我这样说。这点就是您对于“地球主义者”和“宇宙主义者”的看法。要产生两派之间的争斗,制造电子大脑的一派应该已经获得了某种进展,也许电子大脑已经存在了。这就是我在您的论文里发现的矛盾之处。被宇宙主义者保护和培育的人工智能机器的存在不会使两派之间的争论显得多余吗?我同意您的观点,那就是电子大脑将以指数速度发展进化。因此,它们是否会发展成对人类充满敌意的物种问题马上就会有答案,以至于“宇宙主义者”和“地球主义者”的主要智囊们没有机会来完成他们的论述和争论。这将发生在他们考虑发动战争之前—— 假设这些“人类”智囊们是合理程度的文明。我希望我的看法不会以任何方式冒犯您,并且我将很愉快地聆听您对于这个问题的看法。

回答

我赞同你的主要观点。我把这点重新表述为——“如果电子大脑(人工智能)以(快速的)指数速度进化发展,也就是说在未来几十年内达到或超越人类的智慧级别,那么将没有足够的时间产生地球主义者-宇宙主义者的冲突,人工智能战争也不会产生。”我确实认为人工智能是以指数速度进步的,但是不至于如此的迅速以至于没有足够的时间产生人工智能的辩论和发起人工智能战争。

我认为其中的原因是由于制造真正人工智能的任务是非常困难的,并且可能需要几十年的时间来完成。在目前,我们对于人脑的工作原理、记忆的本质是什么、思维是什么、我们是如何推理等所知甚少。在人脑内有千万亿个神经键(神经元之间的联系),清楚地表明人脑结构是如何的超级复杂。我猜想,关于人类在神经科学研究领域的进步最现实的情景就是,从现在开始将至少需要50年的时间来在人工大脑制造上取得真正的进展,但之后的进展将相对缓慢(虽然也是指数级别的)。

我认为,早期的人工智能机器所表现出来的智慧足以引起地球主义者的警觉。像我这样的一些人将会提醒大众某些事情即将发生,但是我认为之后的进展将不会非常迅速,因为对于大众来说,反应的时间将非常有限。当公众从他们的家用产品中看到智能的真正迹象时,将不需要很多年的时间来反应。我认为对于公众和政府来说,如果他们真正地察觉到对于他们的物种支配甚至生存存在着真正的和强烈的威胁时,5到10年的时间将足够让事情有所进展。

同样,当那些有意识的大脑制造者们认为实验室内的进展证实威胁确实存在的时候,他们将毫不迟疑地警示大众。例如,我,倾向于让公众清楚地了解世界上人工智能的发展现状,即使它们目前还处于比较原始的状态。大脑研究制造者们处于这样的一个位置,能够第一个知道正在发生些什么,因为正是他们在制造这些东西。

我认为从道德上来说,我们有一种义务来告诉公众正在发生着的某些事,以便公众有时间来反应,来防止如此的情况发生,即人工智能的指数级别的智慧增长曲线比大脑制造者的预计还要迅速。我同样认为大脑制造者们应该现在就警示公众,而不是等待人工智能机器拥有真正智慧的第一个征兆出现。这样就可以给予公众更多的时间来反应,但是当然,如果公众看不到真正智慧的证据,那么,他们会认为研究者们是在喊狼来了,且因此忽视他们。

读书导航