登录

AI艺人库争议背后:技术创新不可逾越法律与伦理红线


速读:平台方与艺人方各执一词,彻底暴露了当下AI技术在文娱领域野蛮生长背后,存在的法律合规、权利保护与行业伦理等多重问题。 从法律层面来看,此次事件是艺人人格权与商业授权边界的激烈碰撞。
2026年04月23日 15:27

法治周末

■E法周见

《法治周末》记者 仇飞

近日,爱奇艺“纳逗Pro AI艺人库”事件持续发酵,再度将文娱行业AI应用的合规问题推至舆论风口。

4月20日,爱奇艺高调发布AI艺人库,公示超百位艺人已签约入驻爱奇艺专业级影视制作平台纳逗Pro的艺人库,打造艺人数字分身开展影视创作。然而,多名艺人随即发布声明,明确否认授权自身肖像、声纹等用于AI生成。平台方与艺人方各执一词,彻底暴露了当下AI技术在文娱领域野蛮生长背后,存在的法律合规、权利保护与行业伦理等多重问题。

从法律层面来看,此次事件是艺人人格权与商业授权边界的激烈碰撞。依据民法典相关规定,自然人的肖像权、声音权受法律严格保护,未经权利人书面、明确同意,任何组织与个人不得擅自采集、使用、公开其人格标识,更不得将其用于商业性AI模型训练与内容生成。如果爱奇艺未经充分授权便将艺人名单纳入AI艺人库,即便后续辩称仅为合作意向,也已构成对艺人人格权的不当使用,同时涉嫌虚假商业宣传。

文娱领域AI应用的核心前提是合法、自愿、明确的授权。现实中,艺人数字分身涉及肖像、声音、表演形象等多重人格利益,授权必须限定使用范围、期限、场景与收益分配,绝非平台单方面公示、笼统概括的“一揽子授权”。模糊化、非自愿的授权模式,既无视个人信息保护法中对敏感个人信息的特殊保护要求,也将艺人置于人格权被滥用、侵权难追责的被动境地,更是对民事法律中自愿、公平原则的公然违背。

针对AI数字分身这类深度合成服务,国家早已明确相关规则筑牢合规防线。《互联网信息服务深度合成管理规定》明确要求,AI深度合成服务需事前备案、落实内容标识与可追溯要求,严禁未经授权生成可识别特定自然人的合成内容;《生成式人工智能服务管理暂行办法》也强调,训练数据需具备合法授权,禁止非法抓取他人肖像、声音数据用于模型训练。此外,针对数字虚拟人专项监管的《数字虚拟人信息服务管理办法(征求意见稿)》,更是进一步细化规则,明确禁止未经同意制作他人数字分身,要求商业使用必须明确标注、规范授权,杜绝模糊化、一刀切的权利让渡。国家广播电视总局也同步要求,影视类AI数字分身应用需完成试点备案,规范权利归属与使用流程。

尽管现有法律规范已搭建起合规框架,但部分平台为追求商业利益,规避监管要求,利用艺人与平台间的资源不对等,挤压演艺人员合法权益,暴露出当下文娱行业在AI技术快速落地过程中,合规意识淡薄、权利保护缺位、行业自律不足的突出问题。此外,行业内尚未形成统一的AI数字分身授权标准、收益分配机制,也进一步加剧了权利失衡的乱象。

技术创新从来不是突破法律底线的借口,AI技术赋能文娱产业,必须以尊重权利、坚守伦理为前提。此次AI艺人库事件也为行业发展提供了现实镜鉴:任何技术应用都必须在法律框架内推进,平台严格履行授权审核义务,规范数据采集与使用流程,明确双方权利义务与责任边界;行业也需加快细化落地规范,推动监管规则切实执行。

文娱产业的核心是人的创作与情感表达,AI始终只是辅助工具。唯有守住法律红线、尊重人格权益、恪守行业伦理,才能让AI技术真正赋能文娱创作,实现技术创新与权利保护的良性共生。

责编:王京仔

主题:授权|权利保护