【主持人语:刘永谋(中国人民大学吴玉章讲席教授)】近年来,以大模型为代表的AI技术发展迅猛,掀起一波席卷全球的AI发展热潮。关注AI发展状况的人不限于AI的研发者、推广者和AI发展的评论者、人文社科研究者,更包括深感生活将被AI深刻影响的普通公众。AI发展的问题不再是纯粹技术问题,而是成为某种意义上的公共议题。在最近OpenAI发布Sora、马斯克开源Grok等一系列相关事件中,这一点表现得非常清楚。在各种相关公共讨论中,AI发展现状尤其受到关注,其中的基本问题是:当前AI发展的大方向是否有问题,未来应该朝什么方向前进。为此,组织计算机、经济学、马克思主义理论和哲学等领域的八位学者,对AI发展现状进行跨学科反思以期抛砖引玉,求教于方家。
本系列文章共8篇,转载自《科学·经济·社会》2024年第2期,本文《处理好生成式人工智能的意识形态风险》为第7篇。在文中,兰立山分析了生成式人工智能的意识形态属性,强调推进人工智能发展中保障意识形态安全的重要性。
党的二十大报告指出,“意识形态工作是为国家立心、为民族立魂的工作。牢牢掌握党对意识形态工作领导权,全面落实意识形态工作责任制,巩固壮大奋进新时代的主流思想舆论。”当前,生成式人工智能的发展带来了诸多意识形态风险,如意识形态的渗透风险、撕裂风险、监管风险等。因此,需要处理好生成式人工智能的意识形态问题,以维护我国的意识形态安全,推进我国意识形态工作的顺利开展。
一、生成式人工智能的意识形态属性
关于科学技术与意识形态问题的研究,并不是由于人工智能的快速发展才兴起的。事实上,早在20世纪五六十年代学界就已开始对科学技术与意识形态问题进行研究,马尔库塞(Herbert Marcuse)、哈贝马斯(Jtirgen Habermas)是其中的重要代表。马尔库塞认为,科学技术具有意识形态的性质,或者说已经成为一种意识形态,因为科学技术并不是“中立”的工具,它可以为现代政治统治的合法性及其意识形态提供辩护,是现代政治统治的重要基础,技术理性事实上已经成为政治理性。哈贝马斯认同马尔库塞提出的科学技术是意识形态的观点,但他不认同马尔库塞关于科学技术本身就是意识形态的看法。在哈贝马斯看来,科学技术之所以成为意识形态,不是因为科学技术本身就是意识形态,而是因为科学技术作为第一生产力在社会运行与发展中发挥着重要作用,进而使人们将科学技术视为偶像,即科学技术成为意识形态。在此之后,科学技术具有意识形态属性的观点开始被人们关注和接受。
作为当今社会最为前沿的技术,生成式人工智能也具有意识形态属性,这首先表现为它的算法设计和使用的数据具有意识形态的倾向。生成式人工智能从设计到运用每一环节都受到算法工程师的影响,这使得生成式人工智能或多或少都会受到算法工程师价值偏好、政治取向、宗教信仰等的影响。更为重要的是,生成式人工智能需要大量的数据作为学习原料,这些数据的来源和选择完全由算法工程师决定,一旦这些数据存在意识形态倾向,那生成式人工智能的输出结果显然就会具有意识形态性。以ChatGPT为例,它的学习数据主要为英语材料和表达西方意识形态的材料,中国和其他国家的意识形态内容较少。例如,当有人问ChatGPT当前的舆论趋势及热点时,它的回答是可以查看BBC、CNN、CBS、ABC等媒体的报道,而这些又属于英语和表达西方意识形态的材料,因此,ChatGPT最终生成的结果就会有明显的意识形态倾向。对此,罗扎多(David Rozado)通过对ChatGPT进行的15种政治测试指出,ChatGPT在14种政治测试中有明显的左倾倾向。北京理工大学计算机学院的张华平等学者也得出了与罗扎多类似的结论,他们指出,“ChatGPT生成内容中存在对于中国的大量偏见言论”。
生成式人工智能的意识形态属性还表现在它能通过自主学习和计算生成新的内容,这些内容并不是预先设计好的,而是根据用户的提问以及与用户的不断互动形成的,可称为算法意识形态(algorithmic ideology)。算法意识形态意指算法的意识形态,它强调算法具有自己的意识形态体系,抑或说算法具有自己的规则、逻辑和“想法”。尽管算法意识形态可追溯至以马尔库塞、海德格尔(Martin Heidegger)、埃吕尔(Jacques Ellul)等人为代表的技术实在论,但它并不是以技术实在论为理论基础,而是以生成式人工智能的具体应用为基础,近期备受关注的ChatGPT、Sora等生成式人工智能可以根据用户的要求生成大量的文本和视频等就是很好的例子。当然,ChatGPT、Sora等不仅可以生成内容,还可以根据用户的反馈对内容进行优化,生成的很多内容所表现出来的水平并不亚于人类的水平,甚至超过了人类的一般水平。
需要指出的是,虽然生成式人工智能可以自主学习、决策以及根据要求生成内容等现象与马尔库塞、海德格尔、埃吕尔等人的技术实在论观点较为一致,但并不能因此认为生成式人工智能证成了技术实在论。这与有学者对算法治理与技术自主论的关系的看法类似,这位学者指出,可以认为算法治理(algorithmic governance)具有一定的自主性,但不能因此就认为它证成了技术自主论。
除了以上两点内容之外,算法崇拜也是生成式人工智能具有意识形态属性的一种表现。算法崇拜主要指人们对于算法的推崇及信任,默认通过算法计算所得到的结果的正确性,并按照算法的规则及指令来运行社会。哈贝马斯是从科技崇拜视角来论述科学技术为一种意识形态的重要代表,他认为这种意识形态的主要表现是技术统治论或技术专家制(technoc-racy)。技术专家制思想一般可追溯至培根(Francis Bacon)、圣西门(Claude-Henri de Rouvroy)等人,主张科技专家按照科学原理、技术原则来运行与治理社会,追求社会运行与治理的科学技术化。按照哈贝马斯的观点,目前人们对于算法的推崇或崇拜确实可以算得上是一种意识形态。当然,需要指出,虽然算法崇拜并不是因为生成式人工智能的发展才出现的,但生成式人工智能的发展确实进一步推动了人们对算法的崇拜。因为生成式人工智能比传统人工智能具备更强的能力,例如ChatGPT可以与人持续互动、表达与逻辑更加类人化、运用领域更加多元(可以生成建筑设计图纸、帮助学生撰写学术论文、预测股市波动)等。
二、生成式人工智能的意识形态风险
由于生成式人工智能所具有的意识形态属性,这导致它存在着大量意识形态风险,主要包括以下四点。
其一,意识形态渗透风险。生成式人工智能的首要风险是意识形态渗透风险,主要指国外的意识形态通过生成式人工智能渗透到国内,进而影响我国的意识形态安全。尽管ChatGPT、Sora等生成式人工智能一再强调自己的非政治化,但它所属企业的资本主义背景以及所使用数据主要为西方社会的数据,都说明它具有一定程度的政治化。也就是说,生成式人工智能所生成的内容是基于它使用的数据,这些数据的资本主义背景决定了它所生成的内容具有资本主义意识形态倾向。“而受资本主义意识形态浸染的生成式人工智能不仅可针对我国和国际社会受众心理弱点提供隐形渗透我国意识形态安全阵地的内容产品,助力美西方构建高维度、全方位、多视角对华意识形态渗透和攻击舆论战场,剥夺、涣散、冲垮党和政府在国内国际意识形态领域的主导权、主动权”。因此,需要积极应对生成式人工智能的意识形态渗透风险。
其二,意识形态撕裂风险。生成式人工智能并不局限于外来意识形态的渗透,它还体现在对主流意识形态的撕裂上。主流意识形态主要指一个国家或社会占主导地位的意识形态,包括政治法律思想、道德观念、民族精神等。一般而言,主流意识形态主要通过官媒进行发布,并以此影响公众的意识形态认知。随着信息时代的来临,由于公众获取信息的途径变得多样,主流意识形态的影响力受到非主流意识形态的巨大挑战。生成式意识形态的快速发展及其广泛应用,进一步削弱了主流意识形态的影响力,使得意识形态有撕裂的风险。一方面,生成式人工智能扩大了生成和传播意识形态的渠道,由于具有交互性、定制性、多元性等特点,相较于官方媒体或主流媒体,生成式人工智能作为一种传播渠道更受欢迎,这削弱了主流意识形态的影响力。另一方面,生成式人工智能生成的内容存在大量虚假信息和话语偏见,特别是生成如煽动社会非理性情绪、加深社会偏见、错误的历史事实等内容,这会降低公众对主流意识形态的认同,进而使意识形态有撕裂的风险。
其三,意识形态监管风险。对于意识形态的审查和监管一直是意识形态工作的重要内容,特别是对意识形态内容的审查和监管。然而,生成式人工智能的出现加大了意识形态监管工作的难度,为意识形态的监管带来了诸多风险。究其原因,主要与生成式人工智能生成的内容“权属不清、追责困难”有关。例如,用户在与ChatGPT进行交流时生成了大量与主流意识形态不符的内容,但这些内容只是保存在ChatGPT系统中,并不对外传播,相关部门并没有权限对此进行监管。当然,事实上,就算这些违反主流意识形态的生成内容被用来对外传播,相关部门也很难监管,因为除了删除内容以外很难对相关责任主体进行追责。此外,相关部门就算发现并删除这些违反主流意识形态的生成内容也解决不了根本问题,因为生成这些内容的算法和数据仍然保存在系统中,一旦有用户问了相关问题,这些违反主流意识形态的内容将再次生成。
其四,意识形态退化风险。主要指由于对生成式人工智能过于推崇或依赖,导致人类的意识形态辨识能力退化、思考能力减弱、自主性缺失等。与传统人工智能不同,生成式人工智能可以快速与用户进行连续交流,并具有很强的语言理解能力和内容生成能力,使得用户感觉是在与一个“真人”交流,进而获得很好的交流体验。更为重要的是,生成式人工智能还可以根据用户的回答以及历史记录来不断优化所生成的内容,给用户提供更多的个性化和优质化解答与服务,特别是给用户很多正向反馈,这将大大提高用户对生成式人工智能的信赖和依赖。在此背景下,人逐渐失去了对意识形态问题的辨识能力,渐渐变成生成式人工智能的附属或信徒。如达纳赫(John Danaher)所言,我们生活在一个算法统治(algocracy)的社会或体制中,算法建构和限制了人类与这个体系中其他个体、相关数据、社区等的行动与交互方式。
三、占领生成式人工智能的意识形态高地
面对生成式人工智能的种种意识形态风险,需要占领生成式人工智能的意识形态高地,以维护我国的意识形态安全和推进人工智能的健康发展。为了占领生成式人工智能的意识形态高地,可以从以下四条路径入手。
首先,坚持马克思主义在生成式人工智能意识形态领域的指导地位。党的二十大报告指出,“我们要坚持马克思主义在意识形态领域指导地位的根本制度,坚持为人民服务、为社会主义服务。”生成式人工智能的意识形态问题是我国意识形态工作的一个重要内容,我们需要坚持马克思主义的指导地位。一方面,坚持马克思主义在人工智能领域的指导地位。生成式人工智能之所以出现意识形态风险,主要原因在于目前整个人工智能领域的发展受到资本主义意识形态的影响和主导,这使得人工智能的发展按照资本的逻辑在发展。因此,需要坚持马克思主义在人工智能领域的指导地位,以纠正当前人工智能按照资本逻辑发展的错误方向。另一方面,坚持马克思主义在生成式人工智能意识形态领域的指导地位。面对资本主义国家通过生成式人工智能渗透到我国的错误意识形态,我们需要以马克思主义作为理论武器进行反驳,为我们占领生成式人工智能的意识形态高地提供理论基础。
其次,提高生成式人工智能的自主研发水平。尽管马尔库塞、哈贝马斯关于科学技术作为意识形态的思想有一些区别,但他们都表达了科学技术可以为意识形态辩护的观点。生成式人工智能也不例外,它也在为资本主义的意识形态辩护和服务,这也是生成式人工智能存在诸多意识形态风险的一个重要原因。有学者指出,“以科技巨头为代表的资本往往掌握最新智能技术和数据资源,在政府对科技企业依赖较强的情况下,便会授予科技企业掌握更多的数据权限,政府的权威性被削弱,而科技企业在技术上的巨大优势可能造成资本对意识形态话语权的垄断。”可见,规避生成式人工智能意识形态风险的重要途径是掌握最新、最强大的生成式人工智能技术,只有如此,才能真正主导生成式人工智能的发展方向和占领生成式人工智能的意识形态高地。因而,提高我国生成式人工智能的自主研发水平刻不容缓。
再次,推进社会主义意识形态与生成式人工智能的融合发展。面对错综复杂的国际政治环境,想要占领生成式人工智能的意识形态高地,“除了提升科技硬实力和坚定主流价值导向外,还必须进一步讲好中国故事,以‘中国话语’破解当前生成式人工智能领域盘踞的‘西方话语’”,将社会主义意识形态与生成式人工智能融合发展。第一,站好中国立场、讲好中国故事,为生成式人工智能提供丰富的社会主义意识形态语料、素材。第二,运用好互联网、大数据、生成式人工智能等智能技术传播好社会主义意识形态,向世界各国发出中国声音、展现中国文化,为占领生成式意识形态高地奠定话语基础。第三,将社会主义意识形态内容融入到生成式人工智能的设计之中,以应对西方社会对生成式人工智能的意识形态操纵,为占领生成式人工智能的意识形态高地提供技术支撑。对此,维贝克(Peter-Paul Verbeek)的道德物化思想非常值得借鉴。维贝克认为,我们可以通过有目的设计来使技术具有调节人的道德选择和行动的功能,即让技术具有道德性。按照维贝克的观点,我们显然也可以通过设计来使生成式人工智能具有意识形态性。
最后,强化生成式人工智能意识形态工作的人才支撑。人才支撑是占领生成式人工智能意识形态高地的重要基础,没有人才的支撑很多相关工作就无法开展。然而,生成式人工智能的意识形态工作涉及诸多学科,如人工智能、政治学、传播学等,就目前的学科设置或专业设置来看,并没有与生成式人工智能意识形态直接相关的学科或专业。因此,为占领生成式人工智能意识形态高地,政府需要大力培养与生成式人工智能意识形态相关的人才。具体而言,政府既可以通过成立专门的研究院所来直接培养与生成式人工智能意识形态相关的人才,也可以在高校设置相关学科或专业来培养与生成式人工智能意识形态相关的人才。
综上所述,生成式人工智能的发展带来了诸多意识形态风险,我们需要采取积极措施,以占领生成式人工智能的意识形态高地。当然,需要指出,生成式人工智能对于意识形态的影响也有积极的一面,如可以极大提高意识形态治理的效率,只是本文聚焦于生成式人工智能的意识形态风险,故而对此内容并未涉及。由于生成式人工智能技术日新月异,它对于意识形态的影响也在不断变化,因此,需要加强对生成式人工智能的意识形态研究,为维护我国的意识形态安全和推进我国的意识形态建设提供理论基础和政策建议。