“十五五”规划建议提出,全面实施“人工智能+”行动,并将“加强人工智能治理”作为数字强国建设的重要部署。当前,以大语言模型为代表的生成式人工智能,正以其前所未有的创造力、拟真度和普及速度,成为推动社会变革的重要驱动力量。它不仅是提升效率的工具,更直接参与内容生产与意义建构过程,正在重塑信息生产机制、文化传播形态以及人们理解世界的方式。然而,生成式人工智能在释放巨大潜能的同时,也引发了深度伪造、算法偏见、知识产权争议以及信息信任受损等一系列伦理与社会风险。因此,迫切需要提升公众数字素养,引导公众成为负责任的技术使用者和伦理规范的积极共建者,从而推动生成式人工智能实现健康、可持续的发展。
生成式人工智能治理面临挑战
生成式人工智能治理面临的挑战,是技术、认知和社会责任三个维度的复杂耦合。
第一,技术层面,算法歧视与“黑箱”风险双重叠加。生成式人工智能模型训练所依赖的大规模数据集,往往内含历史性且隐性的社会偏见。这些偏见在模型设计、算法处理和训练数据等多个环节中相互叠加,共同助长了有害的刻板印象,进而导致生成结果出现歧视性倾向。同时,受算法工程师技术操作能力和算法企业内部数据保护机制的限制,内部结构和参数的不可知,导致了算法“黑箱”的出现,由此严重削弱了模型的可解释性,进而阻碍了伦理风险的有效追溯和责任的明确界定。
第二,认知层面,公众批判思维与信息甄别能力不足。技术风险的治理最终要落脚于社会主体,而公众认知能力的不足是风险转化为现实危害的“放大器”。首先,过度依赖AI削弱了公众的独立思考能力。生成式人工智能的便捷性及其生成内容呈现出的“高度可信性”,正在削弱公众的主动思考与判断能力,加剧人的认知惰性和对技术的过度依赖。当公众习惯于直接采纳AI提供的答案时,其对信息的主动求证、批判质疑和对复杂问题的独立分析能力将逐渐退化。其次,信息甄别不足助长风险传播。普通公众缺乏甄别AI生成内容(尤其是深度伪造音视频、文本)的技术知识和批判工具,极易将虚假信息视为真实信息。这种甄别能力的不足,使虚假信息得以借助社交媒体迅速扩散,并在短时间内放大其影响,对社会信任基础造成冲击。最后,“信息茧房”固化认知偏差。人工智能通过个性化推荐和内容过滤机制,在提升信息匹配效率和用户体验的同时,也可能不断强化既有偏好,将用户困于“信息茧房”之中。这种机制将加剧用户仅接触到符合其既有认知的内容,从而固化认知偏差,降低其对多元视角的包容性,不利于社会共识的形成。
第三,社会责任层面,安全风险与公平缺口并存。生成式人工智能治理的突出难题,在于责任主体与责任边界尚不清晰,相关社会责任与问责机制仍有待完善。在法律上,由于技术链条的复杂性,使得责任主体界定模糊,传统法律归责原则难以适用,由于缺乏内置保护机制,致使模型训练和用户交互过程中极易发生个人隐私数据泄露,削弱个体信息控制权。在安全上,人工智能若被用于辅助生成针对关键基础设施的网络攻击,或被滥用于传播虚假情报,可能引发系统性、跨层级的安全风险渗透,对公共秩序和社会稳定构成威胁。在经济上,技术红利的高度集中,加剧了技术公平缺口,形成了新的社会分化。生成式人工智能对技术和数据资源的高度依赖,可能强化少数企业的技术优势,带来市场集中甚至垄断的风险,并加剧不同国家和人群之间的“AI鸿沟”,进一步扩大贫富差距与社会分化,引发严重的不公问题。
三个维度为人工智能治理提供支撑
数字素养是数字社会公民在学习、工作和生活中应具备的一系列能力的集合,包括数字信息获取、制作、使用、评价、交互、分享、创新、安全保障、伦理道德等能力。它要求个体能够有效且批判地获取和评估信息,娴熟运用数字工具创造知识,并能适当地利用数字化手段解决工作、学习和社会实践中的问题。数字素养作为一种综合性的社会能力,其主要通过技术、认知和社会责任三个维度,全面地为生成式人工智能治理提供坚实的认知基础、行动框架和道德约束力。
第一,加强数字知识与技术的理解与应用。随着生成式人工智能的快速发展,社会对数字能力的要求已从“会用工具”提升为“懂原理、能协作、善于评估”。公众只有理解模型的基本运行逻辑、数据驱动特征与潜在偏差来源,才能在使用生成式人工智能工具时保持必要的判断力,避免将算法结果视作“绝对真理”。在技术应用层面,数字素养推动公众形成“人机协作”的新型工作方式,使公众既能够高效调用智能工具提升生产与学习能力,又能识别模型局限、改写提示策略、调整生成路径,实现对人工智能的可控使用。数字知识的普及程度,直接决定了社会整体能否以理性、稳健的方式拥抱生成式人工智能,从而为其治理奠定坚实的技术认知基础。
第二,加强数字信息的获取、甄别与共享,以构建可信公共知识空间。生成式人工智能在内容生成、信息传播方面能力空前,但也因此放大了虚假信息、算法幻觉与深度伪造的风险。数字素养的核心之一,就是培养公众的信息甄别、事实校验与风险提示能力,使每个人都能够在高速流动的数字生态中“看清楚”“辨得出”“说得明”。除了获取与甄别,信息交流与共享同样是生成式人工智能治理的重要环节。具备良好数字素养的公众不仅能基于可靠信息参与公共讨论,还能通过建设性表达推动形成健康的数字公共领域,为政策制定与平台治理提供真实可信的社会反馈。公众数字素养的提升,有助于构建多方协同的治理格局,推动生成式人工智能走向公平、可责、透明的发展方向。
第三,加强数字安全与社会责任意识,让“技术向善”成为社会共识。生成式人工智能的治理不仅依赖制度设计与平台规则,更依赖个人在使用过程中的自律意识与社会责任感。数字素养强调公众对数据隐私保护重要性的理解与认知,能够识别算法操控、个人信息泄露及模型滥用等风险,做到“不制造风险、不放大风险、不让风险外溢”。更重要的是,数字时代的公众需要具备基本的技术伦理意识,自觉约束自身对生成式人工智能的使用行为,不编造虚假内容、不助长歧视与偏见、不用技术侵害他人权益。公众的责任意识越强,生成式人工智能越能朝“向善”方向发展,其治理越能落到实处。
(作者:张橦 张慧 均系大连理工大学人文学院副教授)

