近日,TikTok宣布将对其平台上的AI生成内容实施强制性标签制度,特别是针对风靡一时的“AI换脸”等深度合成技术。这一举措并非孤例,它标志着全球内容平台正被迫直面AI技术带来的伦理与信任危机,一个由平台主导的“AI透明时代”已拉开序幕。
而TikTok此次的新规构建了一个相当完整的治理框架,主要体现在三个层面:
① 对用户: 在“内容偏好”设置中增加了AI生成内容滑块。用户可以像调节音量一样,自主调低AI内容的推荐频率,将选择权部分交还给用户。
图源:AInvest
② 对创作者: 核心在于 “强制标识” ——要求所有上传AI生成内容的创作者必须手动选择“合成”或“AI生成”标签。
这相当于给内容贴上“身份证”,明确告知观众其来源。
③ 对平台自身: 采用C2PA内容凭证等技术自动识别并添加标识,同时测试隐形数字水印。C2PA相当于这个视频有个身份证,不管她被编辑多少次,它的身份一直都是可查的。
所以即使内容被二次编辑,水印依然存在,确保了标识的持久性。
而对于TikTok为何要如此大动干戈?其实很简单,技术滥用现实和迫切的用户信任需求。
很多人对于“AI换脸”技术被广泛用于制作名人不实言论、色情内容或政治人物的虚假视频,其逼真程度足以以假乱真,对社会信任和个体权益构成严重威胁。当用户无法分辨内容的真伪时,他们对平台的信任基础就会动摇。TikTok此举旨在重建用户信任,维护其社区生态的健康。全球范围内,从欧盟的《人工智能法案》到中国《生成式人工智能服务管理暂行办法》,监管机构正密切关注AI生成内容的治理。平台主动作为,既是对监管的回应,也是一种未雨绸缪的自律。
平台意识到,如果无法建立有效的鉴别机制,最终将失去用户的信任。同时,全球监管压力也在加大。
在AI内容治理这条赛道上,TikTok并非独行者。各大平台都在探索自己的解决方案:
国内平台如微信视频号、微博、快手等,在《人工智能生成合成内容标识办法》出台后,也纷纷在用户协议中增设条款,在发布流程中植入声明功能,初步建立了标识管理体系。
国际平台如YouTube要求标注“合成内容”,Meta也推出了类似的AI内容标签政策。
然而,完全依赖技术精准识别所有AI内容仍是行业难题。各平台进展不一,标准各异,呈现出一幅探索中的多元图景。
新规对海量内容创作者产生了直接影响。短期内,手动标注确实增加了合规负担——多了一个必须记住的步骤,一不小心就可能因遗漏标识而导致内容限流或下架。
但长远来看,这为用心创作的创作者规范了市场环境。
当AI内容都被清晰标识后,竞争将回归到创意和内容质量本身,而非技术的隐蔽性。
透明标识正在成为培养粉丝信任的基石——在AI泛滥的时代,真实反而成为一种稀缺价值。
当AI生成内容成为常态,平台的信任机制需要超越简单的“贴标签”。
技术溯源是基础。像“隐形水印”和C2PA内容凭证这类技术,未来可能成为行业标准。它们能像数字DNA一样嵌入内容,实现全生命周期的管理。
责任界定需要更清晰。平台需区分创造性使用和恶意滥用,将治理资源重点投向可能造成社会危害的深度伪造和虚假信息。
最终,信任的建立需要生态共治——监管法规、行业标准、创作者自觉与用户媒介素养提升,共同构成完整的治理闭环。
在可见的未来,内容平台将不再仅仅是内容的集散地,更将成为可信度的把关者。 TikTok的这一步,只是漫长旅程的开始。
当我们能清晰知道所见是否为“真实”,才能更安心地享受技术带来的无限创意。
© 版权声明
文章版权归作者所有,未经允许请勿转载。
相关文章
暂无评论...