DOI:10.12154/j.qbzlgz.2025.06.009 1 引言 人工智能技术正在重塑社会各个领域,推动生产力和创新能力的飞跃发展。在此背景下,以OpenAI推出对话型人工智能聊天机器人ChatGPT为代表的生成式人工智能(Generative Artificial Intelligence,GAI)的出现深刻改变了人们的知识数据生产方式,人工智能已成为信息交互、知识获取和情感表达的重要媒介[1]。在用户使用GAI的过程中,频繁的信息交换不断产生各类个人数据记录,隐私披露问题变得日益突出,使得社会对个人信息保护及隐私政策的关注度逐渐上升。2023年7月10日,国家网信办联合国家发展改革委等七个部门发布了《生成式人工智能服务管理暂行办法》,明确要求平台在保障用户隐私权益方面采取有效措施,特别是对平台的隐私保护职责提出了具体要求。因此,GAI平台隐私政策的制定与执行已成为保障数据安全、保护用户信任和推动可持续发展的关键。 学术界普遍将“隐私政策”界定为一种正式声明,其核心目的是向用户阐明个人数据被收集、共享与使用的具体方式[2]。完备而透明的隐私政策不仅能够有效强化对用户隐私的保护,还可显著提升用户对AI应用程序的使用粘性[3]。因此,高质量的平台隐私政策对于人工智能技术的健康发展、数据要素市场的制度保障以及数据资源的高效利用均具有积极的促进作用。在全球技术竞争日趋激烈的形势下,我国生成式AI平台的发展面临两重挑战:其一,以ChatGPT、DeepSeek等为代表的中美生成式AI竞速显著压缩了行业迭代周期;其二,美国政府持续收紧的科技封锁政策对我国人工智能产业施加了战略压力。在数据保护监管趋严与中美科技竞争升温的双重背景下,本研究系统比较两国生成式人工智能平台的隐私政策差异,剖析不同监管环境造成制度差异的深层原因,并提出具有针对性的启示,旨在帮助我国生成式AI平台制定高效合规的隐私保护策略、提升国际竞争力,进而推动国内人工智能应用的健康可持续发展。 2 文献回顾 2.1 隐私政策研究 隐私以及用户个人信息的保护一直是学界所关注的重点,现有隐私政策研究主要集中于隐私政策规范制定与理论研究、隐私政策内容表述与用户适应分析、隐私政策场景应用与实践研究三方面。 在隐私政策规范制定与理论研究方面,学者聚焦于政策文本的内部挖掘,通过内容分析与主题建模等方法揭示规范性缺陷。郭清玥和吴丹[4]指出,国内APP隐私政策在个人信息权利界定模糊、安全体系缺失等方面呈现结构性问题;徐雷和徐润婕[5]发现数据利用条款的用语模糊可能带来合规风险;李延舜[6]通过合规性审查表明,法律依据的薄弱性削弱了APP平台政策效力。在隐私政策内容表述与用户适应分析方面,姚胜译和吴丹[7]通过构建友好度评价体系证明政策文本可读性与交互设计直接影响用户接受度;Parker等[8]以心理健康APP为例,提出“以用户控制权为核心”的动态提示机制;Robillard等[9]的实证研究进一步确认,高易用性的隐私政策可显著提升用户信息披露意愿,推动隐私政策从单纯“合规文本”向“感知友好”转型。在隐私政策场景应用与实践研究方面,公共服务领域强调法律与行业特性的融合,高凡和杨欢[10]提出建立政府数据开放平台的统一监管框架,陆康等[11]提出图书馆应结合《个人信息保护法》制定行业特色条款;商业与健康领域则呈现差异化需求,周拴龙和王卫红[12]对比中美电商平台发现数据跨境条款缺失,Benjumea等[13]为癌症类APP开发的GDPR公平性量表突显垂直治理工具创新的重要性;也有研究通过跨地域与跨平台的比较分析揭示政策差异的内在矛盾,Javed等[14]发现发展中国家更侧重数据收集而忽视用户控制权,石婧和潘雅[15]指出多平台政策声明与实施脱节。 2.2 中外政策比较研究 近年来,中外政策比较研究成为学术界关注的重点,学者们从科技竞争、信息安全、人工智能监管等多个政策领域出发,采用文本挖掘、PMC指数模型、内容分析等方法,对中、美、欧等多个国家和地区的政策文本展开系统比较,力图推动我国政策体系的完善与现代化建设。 在科技竞争领域,研究者普遍认为中美科技竞争已成为大国博弈的核心战场。赵一鸣等[16]运用PMC指数模型与文本分析,探讨美国对华科技竞争政策路径,提出我国应构建态势感知、快速响应与动态评估的科技竞争战略体系;Allison等[17]通过指标对比分析,强调中国科技实力的崛起已对美国科技霸主地位构成实质性挑战;黄钊龙[18]基于实证研究指出美国科技战略正在从内部制度到对外手段方面呈现全方位强化态势。在信息安全政策方面,王蕊等[19]通过PMC指数模型比较中美信息安全政策,发现两国均重视隐私保护与数字安全,但在政策覆盖对象与内部一致性方面仍有提升空间;赵静等[20]进一步拓展至网络信息内容治理,通过中欧政策比较指出我国在政策保障与治理策略等方面仍需优化;刘春年和佟雪[21]构建三层次的大数据安全政策框架,通过中美欧政策对比指出我国政策存在覆盖不全、偏重惩罚等问题,需强化顶层设计和政策均衡。在人工智能政策对比方面,朱新超等[22]基于PMC指数模型对中美AI政策体系展开系统比较,指出中美在政策协同性与前瞻性上表现良好,但中国在伦理规范与技术核心等方面仍存不足;李佳轩等[23]过梳理中美欧英的生成式人工智能监管政策,发现其在监管态度与政策逻辑上存在显著差异;邓胜利等[24]基于政策工具-结构特征视角发现,各国生成式人工智能监管政策差异显著,整体尚处起步阶段,结构不均衡,需优化工具配置与治理机制。 2.3 研究综述 综上所述,当前关于隐私政策及中外政策对比研究已取得诸多成果,研究视角多元,理论探讨与实践应用结合紧密,为完善我国相关政策体系提供了有益的参考与启示。然而,从整体来看,相关研究仍存在以下拓展空间。第一,国内外现有隐私政策研究多聚焦于移动APP、健康管理类APP以及政府开发数据平台等应用,较少针对生成式AI应用平台的隐私政策进行研究;第二,现有中外政策比较研究多在宏观的法律制度或监管框架层面展开研究,缺乏以具体生成式AI平台为对象、对条款逐条拆解的微观文本分析,难以揭示不同法规生态下具体条款设计的差异化取舍及其对用户权利的实际影响;第三,随着ChatGPT、文心一言等生成式AI平台快速迭代,由海量数据带来的动态风险已超出传统APP研究范式的覆盖范围,亟须构建面向大模型的新型评估维度和研究方法。鉴于此,本文选取中国与美国作为研究对象(二者既是科技竞争中的核心国家,同时也是生成式人工智能发展最为迅速的国家),运用LDA主题模型对两国生成式AI平台的隐私政策文本进行挖掘分析,并结合PMC指数模型对政策进行客观量化评分与对比研究,旨在探寻我国生成式AI平台在隐私保护方面的优化路径,以更有效地保障用户个人隐私信息安全,助力我国人工智能技术的健康可持续发展,从而在全球科技竞争中保持战略优势。