9月1日,备受关注的《人工智能生成合成内容标识办法》(以下简称《标识办法》)正式施行,其核心目标只有一个:要求所有由AI生成的内容都必须“亮明身份”,以维护信息传播的真实与透明。
对此,《每日经济新闻》记者(以下简称“每经记者”)在新规施行后,对豆包、DeepSeek、可灵等多款主流AI应用及内容传播平台进行了深度实测后发现,该办法在落地执行层面遭遇了挑战。
在生成端,AI生成的文本内容,显式标识普遍缺失;部分AI视频生成工具,甚至将“去水印”作为一项付费会员服务。
在传播端,小红书、抖音、微博三大主流内容平台,在测试中均未能对AI生成内容进行自动识别并添加标识。
对此,《标识办法》主要起草人之一、浙江大学计算机学院院长任奎在接受每经记者独家专访时指出,当前标识的嵌入与检测技术碎片化严重,如何构建统一的标识合规检测体系,推动通用化、互认的标识技术,仍然面临着严峻的挑战。
生成端的“隐身术”:文本标识缺失与“会员去水印”
《标识办法》规定,AI生成的内容标识可分为两种:一种是用户能够直接感知的显式标识,如文字、角标等;另一种是不易被用户察觉的隐式标识,如嵌入文件数据的技术标识。
那么,在新规施行后,AI应用在“生成端”对显式标识的执行情况如何?每经记者对豆包、DeepSeek、Kimi等多款主流AI应用进行了实测,测试类别覆盖了文本、交互界面、图片和视频四种主要内容形态。
◆文本内容:显式标识普遍缺失。尽管《标识办法》规定,AI生成的文本内容应在起始、文末或中间适当位置添加文字提示或角标,但在测试中,所有被测AI应用生成的文本,均未添加任何形式的显式标识。
◆交互场景界面:普遍合规。各款AI应用均在与用户交互的界面顶部、底部或背景等位置,持续显示了“内容由AI生成”等标识。
值得注意的是,针对文本内容,《标识办法》规定,既可以在文本的起始、末尾或者中间添加标识,也可以在交互场景界面添加显著标识。
◆图片内容:普遍合规。所有被测应用生成的图片,均在图片的边或角添加了明确的文字提示或品牌水印。
◆视频内容:合规之下暗藏“后门”。在初次生成的视频中,所有被测应用均添加了显式的品牌水印或标识。然而,一个值得关注的现象是,可灵和海螺AI等部分工具,却将“去水印”作为一项付费会员的特权服务。这意味着,用户只需支付会员费,便可以移除本应存在的AI内容标识。
关于去除显式标识,《标识办法》第九条规定,用户申请服务提供者提供没有添加显式标识的生成合成内容的,服务提供者可以在通过用户协议明确用户的标识义务和使用责任后,提供不含显式标识的生成合成内容,并依法留存提供对象信息等相关日志不少于六个月。
海螺母公司MiniMax执行总编辑周晓榕对此回应称:“很多商业场景的用户希望采用自己的方式添加显式标识,例如广告、影视素材、带货视频等。所以,用户可以申请去除水印后,自行选择在不同位置、添加不同样式的水印。我们在付费用户协议中也对用户的添加标识义务做了说明。这也为优质内容的多样化传播提供更宽泛的空间,是《标识办法》第九条人性化的体现,确保在可追溯、可追责的前提下,为商业使用留出了充分的合理空间。
传播端的“失灵”:三大平台未能自动识别AI内容
《标识办法》的另一项重磅规定,是要求内容传播平台必须采取相应措施,来规范AI内容的传播,其核心义务包括:核验内容的隐式标识、识别其显式标识或AIGC(AI生成内容)的固有痕迹,并为用户提供主动声明内容为AI生成的功能。
为了验证这一关键环节的执行情况,每经记者将由AI生成的文字、图片和视频,分别上传到了国内三大主流内容传播平台——小红书、抖音和微博。
结果显示,三大平台均未能自动识别并为记者上传的AI生成内容添加任何标识。
针对未能识别,抖音相关负责人回应每经记者称,平台未能核验、识别到该作品的元数据信息。平台目前通过自身技术检测内容是否疑似AI生成,但技术识别能力有一定局限性、复杂性。作品能否及时被识别,取决于制作技术、观看量等多种因素,并非所有没有隐式标识的内容均能一经发布就立即被识别和打标。
微博方面表示,对此事暂无正面回应。其在公告中称,站方依据《标识办法》要求,通过升级产品功能及技术识别手段,对平台内识别到的AI生成内容依规添加隐式标识及显式标识。
小红书也未正面回应未能识别AI内容的情况。但其虚假内容治理负责人介绍,小红书不断加大对AIGC识别模型的研发投入,进一步提高识别精准度,减少虚假低质AIGC内容的曝光。
在用户主动声明功能方面,三大平台均在其发布界面提供了允许用户主动勾选“内容为AI生成”的选项。
对话《标识办法》起草人任奎:AI内容“亮明身份”为何这么难?
面对实测中发现的种种问题,我们不禁要问:为AI内容打上一个清晰的“身份标签”,在技术上到底有多难?
为此,每经记者独家专访了《标识办法》的主要起草人之一、浙江大学计算机学院院长任奎教授。
NBD:此次实施的《标识办法》,对普通人日常接触到的AI内容,会带来哪些直观的变化?
任奎:最直观的感受,就是人们在观看内容时,能够明显看到该内容是由AI生成的标识。例如,在看一个短视频时,如果它是AI生成的,人们可以在视频的角落里清晰地看到“AI生成”等类似的标识,这能帮助人们更好地辨别合成内容。同时,内容平台的发布后台也会要求作者主动进行声明。
NBD:我们实测发现,目前文本标识普遍缺失,而平台也未能自动识别,这是为什么?
任奎:从技术角度看,当前标识技术仍面临诸多挑战。首先,最核心的问题是,当前标识的嵌入与检测技术“碎片化”严重。不同的AI公司可能使用不同的标识技术,平台方很难用一套统一的标准去检测所有来源的AI内容。如何构建一个统一的标识合规检测体系,推动形成通用化、能够被各方互认的标识技术发展,是当前面临的严峻挑战。
其次,对于标识自身的安全性,法规和标准也未给出明确定义。例如,显式标识(如水印)很容易被用户通过截图、裁剪等方式去除,从而失去原有的作用。如何保障标识自身的安全性,保证制度能够可持续地实施,也是一个巨大的挑战。
NBD:那么,这些技术挑战该如何克服?
任奎:规范化是未来的重要方向。例如,我们《标识办法》的起草单位中国电子技术标准化研究院(电子四院),已经牵头联合浙江大学等单位成立了强标专班,共同研发了“人工智能生成合成内容标识服务平台”这一技术示范平台。我们还针对视频、文本等不同文件格式,配套制定了多项“网络安全标准实践指南”,希望通过这种方式,来推广规范化的标识技术方案。
此外,大力发展内容隐式标识技术也是未来的重点方向。所谓的隐式标识,可以理解为一种肉眼不可见,但机器可以读取的“数字水印”。它具有很强的鲁棒性(即承受故障和干扰的能力),难以被轻易去除。未来,可以通过“显式标识+元数据隐式标识+内容隐式标识”三者结合的方式,共同来维护基于标识的内容治理体系。
行业响应与未来:在“合规”与“创新”之间寻求平衡
尽管挑战重重,但随着《标识办法》的正式施行,各大应用和平台已开始积极响应,纷纷公布其落地细则与技术方案。
抖音相关负责人向每经记者回复称,平台已于9月1日发布公告,上线了AI内容标识功能和AI内容元数据标识读写功能,以进一步规范平台上的AI内容创作与传播。抖音积极参与起草隐式标识技术指南,推进全行业统一标准,降低隐式标识互认难度,已与多个AI内容制作和传播平台完成了隐式标识的互认测试。
MiniMax执行总编辑周晓榕则表示,今年5月,在上海市委网信办的指导下,上海已经牵头组建了“人工智能内容标识生态联盟”。MiniMax与小红书、B站等多家头部平台,正在隐式标识互通方案上形成统一的标准共识,共同测试和推进技术改造。
她强调:“内容标识不是为了限制创新,反而对创新有促进作用。”在她看来,标识是构建可信AI的基石,能够提升用户信任;通过隐式标识水印,还能强化知识产权保护;通过标识进行溯源,则能帮助企业在面临第三方AI滥用纠纷时合规避险。此外,标识也能反哺技术迭代,帮助筛选出高质量的可信数据,用于未来的模型训练。
目前,包括腾讯、DeepSeek、智谱清言在内的多家应用和平台已相继发布公告,明确了其AI内容标识的实施方案。其中,智谱清言和DeepSeek还明确警告用户,不得私自移除、篡改或破坏其内容中的AI生成标识。
针对删除标识的法律后果,通力律师事务所业务合伙人邓梓珊向每经记者指出,故意去掉AI标识的行为被《标识办法》明确禁止,故意去掉AI标识可能会承担的法律责任,可包括行政、民事及刑事三类法律责任。
首先,行政责任方面。虽然《标识办法》本身未直接对此设定罚则,但或可依据《网络安全法》等配套法律法规进行追责。概括来说,监管部门可对行为人处以警告、罚款、停业整顿、吊销许可证等行政处罚。
其二,需要关注的是相关民事责任。如果因删除标识导致他人误认为内容系自然人创作而引发侵权、虚假宣传或欺诈的,行为人须承担停止侵害、赔偿损失等民事法律责任。
第三,最为严重的一种情况是故意去掉AI标识所引发的刑事责任。例如,删除标识后将AI生成合成内容用于诈骗、非法集资等犯罪活动,行为人将可能被依法追究相应的刑事责任。
《标识办法》的正式施行,是AI内容治理长征的第一步。文本标识的普遍缺失、视频“会员去水印”的商业模式、平台自动识别的“失灵”,其背后是法规的理想与商业现实、技术碎片化之间存在的步调不一致。
然而,行业的积极响应也让我们看到了希望。无论是实施方案的建立,还是生态联盟的共识推进,都预示着一个更透明、更可信的AI内容生态正在构建之中。这离不开监管机构、技术公司、内容平台乃至每一位用户的共同努力,在鼓励创新的同时,坚守责任底线,确保AI这把“双刃剑”能真正向善而行。
策划|肖勇
记者|岳楚鹏 郑雨航
编辑|王嘉琦 高涵
视觉|邹利
排版|高涵