变化、问题、对策:媒介文化视角的ChatGPT 何镇飚(浙大宁波理工学院)/《文化艺术研究》,2023.3.7~14 ChatGPT 是一种基于人工智能的聊天机器人技术,它可以生成自然语言的回复,与人类进行对话。ChatGPT 的问答技术改变了人们获取信息和传播交流的方式,因为便捷、高效、精准,已经被广泛应用于各个领域,包括娱乐、教育、金融、医疗等。当前,ChatGPT 已在各行各业对人类职业、专业和日常行为产生了重大影响,尤其是媒介安全,媒介伦理问题凸显。ChatGPT 对媒介文化产生了重要而深远的影响。媒介内容创作面临新闻人才被取代和新的版权问题,媒介传播进化到了“人机对话”的新阶段,大众传播的传统模式被逐渐颠覆。新的媒介消费形式对知识沟、能力沟造成了冲击,加速和加剧了由此导致的一系列不平等。媒介伦理问题凸显,机器理性需要被重新审视,意识形态风险面临新的挑战。 媒介文化的未来发展与解决之道: 1、坚持机器复制时代的新闻专业主义。即使在 ChatGPT 出现之后,新闻生产和新闻形态都发生了变化,媒介文化也随之改变,但是新闻专业主义的核心并不能因此动摇。新闻专业主义蕴含理性交往模式,构成民主的公共生活。在人人生产并通过社交媒体分享信息的“技术民主”中,新闻专业主义需要以理性交往模式对“元传播范本”展开重新阐释,并以之与现实条件相勾连。在更加个性化、定制化的媒介文化时代,新闻的公共属性更值得被推崇。也只有公共性和专业性,才能解决机器复制时代媒介文化的问题。随着 ChatGPT 和AI 技术重塑媒体格局,媒体专业人士需要通过掌握新技能和能力来适应与 AI 工具共同工作,在驯化机器的过程中,传递新闻专业主义和价值观。 2、优化人机对话,成为新闻的起点而非终点。人机对话是 ChatGPT 的工作特点,也是 ChatGPT 对新闻、媒介及其文化产生重大影响的方式。人机对话使新闻成为追问式的,取代了过去供给式、灌输式的传播模式。虽然传播模式的变化会产生问题,但是必须认识到,这是变革的开始,是生产力的解放,也为新闻自由和客观性的进一步发展提供了可能。新闻终于回到了记者提问的天职,问题而非答案才是新闻的真谛。挖掘新媒体中人类与 AI协作的潜力,强调利用人类与 AI 的优势共同生产高质量内容、提高效率和促进创新的重要性。 3、弘扬公平正义的媒介文化。AI 技术可能会取代人类的工作,导致失业率上升。同时,AI 算法也可能会存在偏见和歧视,影响社会的公正性和平等性。这一问题的对策包括,对于受 AI 和 ChatGPT 技术影响的工种和岗位,优先给予 AI 的培训机会,类似当年汽车取代马车时,优先培训马车夫为汽车司机。但是这一方式也会带来新的问题,并非人人可以完成转型,行业中越资深、年龄越大的职业人群,往往越难完成转型。ChatGPT 带来的社会公平问题,需要运用社会公平的思维和技术手段加以解决。ChatGPT 带来的社会不公平现象,不是机器对人的攻击,而是知识鸿沟带来的。知识鸿沟是传播学研究领域的问题,建构社会公平的媒体文化,可以在一定程度上引发对 ChatGPT 所致社会不公问题的重视,通过议程设定、舆论框架建构等,呼吁社会资源的公平配置。 4、建构人工智能时代的媒介伦理新标准。为了解决 ChatGPT 带来的媒介文化中的伦理问题,应尽快建立良好的相关媒介伦理标准。首先,ChatGPT 的开发者需要遵守隐私保护法规,确保用户的个人信息得到保护,避免再次出现隐私泄露的问题,对于开发商主观违反伦理的错误,需要建立惩罚体系。其次,针对 ChatGPT 进行进一步的情感和心理风险评估,避免对用户造成不良影响。再次,提升公众的媒介素养,开发以数字公民素养、批判性思维和 AI 伦理为重点的媒体素养项目。最后,需要加强对 ChatGPT 的媒介生态监管,动态处理媒介伦理的新问题,积极打击虚假信息等消极内容,确保 ChatGPT 在使用过程中不违反媒介伦理标准。 5、加强媒介安全建设。运用 ChatGPT 技术,实现视力残疾、听力残疾等特殊人群在危机中的人身安全与风险防范,发挥媒介的公共安全作用。避免新媒体技术带来的虚假信息和假新闻传播,防范媒介恐慌事件,实行公开透明的信息发布程序,防范相关风险,维护意识形态安全,避免国内个人隐私和敏感信息的外泄。完善信息安全和媒介安全工作,让 ChatGPT 及其相关媒介文化健康有序发展。