- 02 要闻
-
AI演员撞脸明星 声音克隆配音演员
AI 生成内容的法律边界在哪里?
-
本期嘉宾
任思静 四川省律师协会知识产权(信息网络与高新技术)专业委员会副秘书长、四川明炬律师事务所合伙人
张 驰 上海申浩(成都)律师事务所律师
当AI技术以“降本增效”之名重塑影视行业的生产逻辑,一场关于声音与肖像的权利保卫战也在悄然升级。近日,耀客传媒发布首部AIGC悬疑短剧《秦岭青铜诡事录》,并官宣签约数字艺人,引发行业高度关注。几乎同一时间,季冠霖、叶清等知名配音演员相继发声,集体抵制未经本人知情同意、擅自采集其声音素材用于AI训练及商业变现的行为。
一边是AI演员的快速崛起,一边是真人创作者的权利抗争。在技术红利与法律红线的交汇处,如何界定AI生成内容的法律边界?对此,本报记者采访专业律师,试图为这场技术与权利的博弈提供一份法律视角的解读。
AI短剧“狂飙”“换脸”“配音”侵权一路蔓延
12人,30天,10万元,1部短剧,上亿播放量……当前,在影视行业,尤其是短剧领域,AI“来势汹汹”。
2026年,微短剧行业正在经历一场深刻的结构性调整。记者查阅资料发现,今年2月,某短剧平台宣布取消真人短剧保底收益扶持政策,暂停普通真人短剧新剧本遴选,同时将资金、流量、运营资源大幅倾斜至AI短剧。这样的平台策略调整并非孤例,“扶持AI、淘汰低效真人产能”正成为行业共识。
低投入、高回报的背后,侵权乱象悄然滋生。
2026年3月,短剧《京华风云》男主被指“撞脸”演员肖战,被曝光后,部分平台采取局部打码、剧集改名、隐藏搜索入口等措施,并未立刻下架作品。同期,短剧《重生后,我成了娘亲的守护神》被指未经授权使用演员杨紫面部特征生成角色,工作室发律师函后,平台下架该剧但未明确承认侵权。
相比“换脸”的显性侵权,声音领域的侵权行为更为隐蔽且泛滥。众多AI配音平台、内容制作方,未经配音演员书面授权,擅自抓取其配音作品、公开音频片段,作为AI模型训练的核心数据,通过算法学习复刻演员独特声线,再将克隆声音用于短剧配音、广告播报、有声书录制等商业场景,直接挤压了配音演员的生存空间。
“未经许可情形下的‘换脸’‘融脸’或克隆配音演员声音并传播的行为,一般会根据不同的行为表征认定构成侵犯上述对应的肖像权、声音权、隐私权、姓名权及名誉权等。”四川省律师协会知识产权(信息网络与高新技术)专业委员会副秘书长、四川明炬律师事务所合伙人任思静指出,若涉及对影视片段、表演片段的传播,还可能侵犯著作权人依法享有的信息网络传播权、修改权、保护作品完整权等权利。
谈及侵权行为屡禁不止的深层原因,任思静分析称:行业主体法律意识淡薄;AI生成工具普及,技术门槛低,侵权成本极低;AI侵权能快速带来流量与商业利益,低成本高收益的诱惑让从业者铤而走险;权利人维权成本高与司法判赔金额低的矛盾,难以形成有效法律威慑。
AI侵权怎么算?拆解侵权边界与维权困境
面对侵权指控,部分从业者辩称“长得像不等于就是本人”,或声称“经过了特效处理”。那么,在司法实践中,如何认定一个AI生成的形象构成了侵权?
任思静给出了三项判定标准:一是有使用他人肖像的客观事实;二是未经许可或同意使用;三是未经许可与同意的使用不构成合理使用。她特别强调,认定“使用”这一要件,并不要求AI形象与演员肖像完全一致。
上海申浩(成都)律师事务所律师张驰进一步阐释了“可识别性”这一核心标准。“司法实践中,重点考察社会一般理性公众在看到该AI生成形象时,能否直接或间接地识别出该形象指向特定的演员本人。”他表示,即使AI形象经过处理,只要其五官、面部结构、神态,或者一些深入人心的代表性台词、姿势等核心特征,仍足以让公众联想到特定演员,即可认定为具有“可识别性”,从而构成侵权。
在声音领域,AI模型通过“学习”配音演员的声音而生成“新声音”,这种行为能否构成著作权法上的“合理使用”?
任思静指出,声音具有人格标识属性,民法典人格权编已有明确规定。北京互联网法院在审理殷某与某智能科技公司人格权纠纷案时就曾指出:“对于人工智能技术处理后的声音,只要一般社会公众或者一定范围内的公众根据音色、语调和发音风格,能够识别出特定自然人,则该自然人声音权益可及于该AI声音。”
她进一步分析,我国著作权法规定的“合理使用”情形非常有限,而AI模型学习声音生成新声音,其本质是对声音特征的学习、复制与传播,而非对具体作品内容的引用,因此一般不构成“合理使用”。张驰的观点更为直接:“著作权法上的‘合理使用’始终围绕着非盈利,我认为现存能接触能使用的均不属于该范畴。”
尽管法律定性日益清晰,但权利人在维权过程中仍面临重重阻碍。任思静将其归纳为“三难”:取证难、鉴别难、赔偿难。
“AI侵权行为往往不是简单复制,而是提取特征进行‘融合’,权利人很难发现自己的声音或肖像被用于训练。”她解释道,即便发现侵权内容,因侵权链复杂,溯源找到具体实施主体并完整固定证据链也异常困难。对于混合了多人特征的AI生成内容,鉴别需依赖专业声纹或图像分析技术,成本高且结果不确定性大。而侵权赔偿金额的计算也较为困难,权利人难以就侵权方的获益及自身损失进行有效举证。
张驰则从维权成本与司法判赔的角度揭示了这一困境的残酷性。他举例说,曾有判例显示,盗取拥有数百万粉丝博主的视频,通过AI变脸后在自己账号以营利目的发送,最终仅需偿付1500元,这笔钱甚至还是法律弥补条款下对原告律师费的补偿。“这就导致侵权者抱着‘哪怕输官司也只需要几千元钱就能搞定’的侥幸心理,进而明知故犯、屡禁不止。”
律师支招 合规能力成为AI企业的核心竞争力
当前,AI行业普遍存在的“爬取数据训练”模式,看似是技术发展的捷径,实则暗藏多重法律风险。
任思静将其归纳为四类风险:其一,未经许可抓取演员肖像、声音进行训练,可能侵犯肖像权和声音权;其二,爬取的影视片段、表演片段、音乐等素材未经版权方许可,可能侵犯版权方复制权、改编权、信息网络传播权等;其三,通过技术手段爬取同行业竞争者数据,可能构成反不正当竞争;其四,若训练数据包含可识别个人身份的信息,未经个人单独同意或合法基础处理,可能构成侵犯隐私权及违反个人信息保护法相关规定,面临行政处罚或民事赔偿。
张驰同样指出,根据爬取数据的方式、数量、用途不同,可能违反网络安全法、数据安全法等多部法律,严重者面临警告、罚款、没收违法所得、责令暂停或终止服务等处罚,甚至面临行政处罚、承担刑事责任。
两名律师都指向了同一个解决路径:合规。张驰建议,行业放弃“爬取数据训练”的捷径,转向以“事前全面授权”和“权利链清晰”为基础的数据获取方式。“在人格权与数据保护立法日益强化的背景下,合规能力已成为AI企业的核心竞争力。”他解释道。
面对技术与艺术的矛盾,如何实现平衡发展?任思静分别给出以下建议:
对影视制作公司而言,做好日常的合规管理,就公司智力成果知识产权的布局与设定保护、素材与权利许可合同与流程的规范、AI内容生成过程及创作记录与材料的留痕保管等。
对平台方而言,应将“合理审查义务”落实到日常的管理中。对于明显存在AI技术处理的侵权内容主动下架;对于无法提供合法授权证明的AI生成内容拒绝上线;为权利人提供便捷的投诉机制,对涉嫌侵权的内容依法采取“通知-删除”措施。
对演员个人来说,首先需增强自有权利的保护意识,除了法定权利外,特定成果可布局相应的商标权、著作权等知识产权;其次,在对外许可中应审慎核查文本中对权项、区域、期限、衍生成果等具体细节内容的约定;再次,当自身权利被侵犯时,应当及时寻找对口的专业人员介入,辅助证据固定取证、投诉、发函、诉讼等维权程序。
AI技术为影视行业带来了前所未有的想象空间,但技术创新的车轮绝不能碾过权利保护的底线。当AI演员与真人创作者在数字世界共存,权利保护不再是技术的对立面,而是行业健康发展的基石。权利保护是行业发展的底线所在,唯有制作方、平台方、演员个人各司其职,严守法律与合规底线,才能让短剧行业在AI时代摆脱侵权乱象,实现健康、长远、可持续的高质量发展。
四川法治报全媒体记者 徐婷婷 李季
