人工智能时代的意识形态风险及其化解

作 者:
余杰 

作者简介:
余杰,武汉大学马克思主义学院(湖北 武汉 430072)。

原文出处:
思想理论教育

内容提要:

人工智能技术深刻变革了人类的交往方式与信息的传播方式,在网络中展现出了一幅政治与技术深度互嵌、意识与万物泛在互联、真实与虚假杂糅互构、人类与机器双向互驯的媒介景观,并使意识形态风险呈现出隐蔽化、全域化、复杂化和动态化的特点。人工智能时代,意识形态面临着多重风险。为此,应以智能平权防范意识形态排斥风险,以共识凝聚规避意识形态撕裂风险,以群己共律应对意识形态操纵风险,以价值重塑消弭意识形态解构风险,从而实现对人工智能时代意识形态风险的化解。


期刊代号:G2
分类名称:思想政治教育
复印期号:2023 年 03 期

字号:

       [中图分类号]D64 [文献标识码]A [文章编号]1007-192X(2022)12-0084-06

       意识形态工作是党与国家的一项极端重要的工作,它“关乎旗帜、关乎道路、关乎国家政治安全”。[1]人工智能在给意识形态工作带来诸多机遇的同时,也造成了严峻的挑战,并使意识形态风险呈现出更为错综复杂的样貌。防范和化解人工智能时代的意识形态风险,成为意识形态工作的当务之急。基于此,深入揭示人工智能时代意识形态风险的表征与样态,探究人工智能时代意识形态风险的因应之道,对于抵御人工智能时代的意识形态风险,维护我国意识形态安全,具有重要的意义。

       一、人工智能时代意识形态风险的表征

       风险作为一种不确定的因素,具有潜在损益的可能,其“本质并不在于它正在发生,而在于它可能会发生”。[2]人工智能技术犹如一把“双刃剑”,既打开了生活的无限可能空间,又增大了应对意识形态风险的难度,使意识形态风险更趋隐蔽化、全域化、复杂化和动态化。

       1.政治与技术的深度互嵌:意识形态风险隐蔽化

       人工智能技术“政治无涉”的假象背后,政治与技术实则紧密勾连。一方面,政治镶嵌于人工智能技术研发过程中。人工智能技术是政治价值的承载,技术研发者为人工智能技术所选择的数据、所编写的代码,都是技术研发者的政治观念与价值取向的反映。这种观念源头式地自觉或不自觉植入与算法黑箱式的不透明运行,使技术研发者政治观念的渗透更加难以为人们所觉察。另一方面,政治镌刻于人工智能技术运行的赋权与推荐之中。人工智能时代,一些西方媒体利用人工智能技术查封发布支持中国言论的社交账号,限制发布支持中国言论账号的社交流量,提升反华言论推荐权重,将明面上的“言论自由”绘制成暗地里的“民主谎言”。这种基于人工智能技术的有针对性地信息推送,能够于潜移默化中形塑人们的政治认知,改变人们的政治倾向,让人们在难以觉察的同时疏于应对,对我国意识形态安全造成严重威胁。

       2.意识与万物的泛在互联:意识形态风险全域化

       人工智能时代,意识形态风险的发生地与发酵池从互联网延伸至物联网,人与物都可能成为意识形态风险的传播源与扩散器,这使意识形态风险由人扩展到物,呈现出全域化的特征。随着移动通信技术的飞速发展,基于泛在网络的万物互联即将成为现实。通过泛在网络,人与人、人与物、物与物都被连接起来。“在未来信息生产系统的各个环节,参与主体将不仅是人,机器及万物都可能成为信息的采集者,而机器也可以完成信息的智能化加工。”[3]由“万众皆媒”到“万物皆媒”的演进,将有效提高信息采集与加工的效率,使信息变得更为易得与易传。但当越来越多的现实物品接入互联网,被现实物品包围的人类也易将自身置于越来越多的不可控的风险之中。当前,物联网网络安全防护仍处于起步阶段,安全防护能力较弱,许多智能家居设备尚不具备防火墙等安全防护功能。这使物联网相较于传统无线网而言,更易受到黑客的威胁与攻击。一旦物联网被入侵者破坏,人们身边的物品就将成为入侵者的工具,就存在发生信息泄漏、信息篡改与被价值渗透的可能,构成个人信息安全与国家意识形态安全的隐患。

       3.真实与虚假的杂糅互构:意识形态风险复杂化

       真实与虚假,是人们对事物是否与客观事实相符合的判断。但人工智能时代,一些事物真中有伪,伪中含真,真伪混杂,伪真共生,事物呈现出真实与虚假杂糅互构的状态。以“深度伪造”为例,“深度伪造”是一项基于人工智能的人体图像合成技术。“深度伪造”借助机器学习,能够替换一个视频中人物的面容、声音、口型、表情与动作,轻易实现视频“换脸”,快速合成肉眼无法分辨的假视频。“深度伪造”技术的诞生与普及,瓦解了公众对视觉文本的信任,使曾经“有图有真相”的时代一去而不复返,真相变得更加难以确证,社会信任危机日益凸显。而“深度伪造”技术在合成政治人物虚假视频方面的应用则易动摇公众的政治信任,煽动网民的非理性情绪,为网络舆情治理带来挑战。除此之外,“社交机器人”的存在亦严重扰乱了社交生态,它早已不仅是传播媒介,更成为传播中的对话者。“社交机器人”可以模仿人类在社交媒体上进行发布、评论、转发与关注等行为,并以此来操纵舆论与影响人类认知,使公众的思想为机器人及其背后之人所操控。人工智能时代,眼见不一定为实,构建事实的基础材料在逐渐失去效力;说者不一定为人,人际互动与人机互动在逐渐失去界限。这种真伪难辨的境况与别有用心的势力故意以假乱真的行径,令意识形态风险走向复杂化。

       4.人类与机器的双向互驯:意识形态风险动态化

       人工智能时代,是人类驯化机器,还是机器驯化人类?这是一个需要人类以一种高度警醒的态度来面对的问题。辩证而言,人类与机器的驯化关系从来都并非是单向的,而是双向交互作用的。尤其是人工智能技术赋予了机器以自主性与成长性,使人类与机器的互驯成为一个循环交替作用与即时交互作用共在的动态过程。人类对人工智能的驯化体现为人类将观念融入数据并植入算法。而人工智能则以其算法反过来影响人类观念,实现了人工智能对人类的驯化。深度学习方法的出现,使人工智能拥有了随着自主学习而不断改进自身的能力。人类与人工智能的每一次互动,都会使人工智能习得人类的观念和行为,亦使人类的观念与行为受到人工智能的影响。当人类意识到喂食人工智能的数据与编写的人工智能的算法将对人类观念与行为造成影响时,人类便以其观念与行为试图修正数据与算法,而修正后的数据与算法将再次影响人类的观念与行为,周而复始,使意识形态风险在不断的交互作用中呈现出演进发展的动态化特征。

       二、人工智能时代意识形态风险的样态

相关文章: