每经评论员 陈婷
近期,多个账号在社交平台上伪造跳水运动员全红婵及其家人声音合成AI(人工智能)视频为商品带货,不少消费者直呼上当。
无独有偶。今年2月,据《每日经济新闻》报道,只需花1280元,直播、视频通话能实时换成娱乐圈明星刘亦菲、杨幂的脸。
随着AI技术的快速发展,AI深度伪造技术在过去几年经历了显著的迭代升级,几近以假乱真。在此背景下,违法违规运用AI进行牟利的事件屡见不鲜。
人民日报近日发文称,人们乐见AI技术助力网络消费,但绝不允许AI骗术“张牙舞爪”,侵蚀网络消费的信任与成色。
笔者认为,AI骗术带来的乱象和影响不容忽视,相关平台企业不可坐视不理,必须主动亮剑,将风险防控和伦理审查前置化。
事实上,面对AI技术潜藏的风险与挑战,作为AI产品的研发者和推广者,相关企业有机会将此类乱象尽可能扼杀在萌芽阶段。
具体而言,笔者认为,第一,技术企业可在技术研发环节就嵌入合规红线。例如,对AI生成内容设置明确的标识机制,让公众能够明确辨别真实信息与AI合成内容,从源头上避免虚假信息混淆视听。
第二,在商业合作中,应建立严格的名人授权核查流程。对涉及名人形象、声音等的AI应用,应当获得完整、合法的授权,杜绝未经许可的AI合成营销行为,从流程上堵住漏洞。
第三,短视频平台在遏制AI虚假营销等乱象中应扮演关键角色。比如,平台可加强对创作者的行为规范,明确要求创作者在发布AI生成内容时进行显著标识,注明内容的合成属性,让用户能够清晰区分真实信息与AI创作内容。
长期来看,短视频平台加大对AI内容溯源、真伪鉴别等技术的研发投入,有机会在技术层面筑牢防线,这也是提升平台自身安全和履行社会职责的现实需要。
第四,相关平台企业可与同行、技术企业、监管部门等加强合作,共同制定行业规范,合力规范AI应用行为。
与此同时,监管部门也应强化相关黑产打击力度和对平台企业、技术企业的监督力度。
总之,对于AI技术应用普及带来的负面效应,企业的主动担当与应对至关重要。否则,一旦市面上出现大量AI违规内容,不但治理难度大幅提升,对社会公众造成的危害也将持续蔓延。当下,公众对AI违规内容的容忍度已经越来越低,对相关企业而言,谁先完成前置治理,谁就有望率先把合规成本转化为护城河。
当然,企业的主动作为离不开外部环境的支撑。相关部门应加快完善相关法律法规,明确AI应用的法律边界和责任认定标准,加大对违法违规行为的惩处力度,形成有力震慑。社会公众也应加强防范,提升自身对AI虚假信息的辨别能力。