被AI“偷走”声音 配音演员集体维权:希望构建合法共存生态
近日,多名配音演员相继公开发声,反对未经演员知情同意,擅自采集其声音素材用于AI训练、音色合成及商业变现的行为。
有评论认为,目前AI仿声侵权已经形成了一条“素材采集-内容生成-流量变现”的灰色产业链。同时,AI仿声侵权比AI换脸更隐蔽,维权难度更大。配音演员的声音是如何被“偷走”的、维权难在哪里、又该如何破局?
从《甜蜜蜜》里的黎小军,到《无间道》中的刘建明,配音演员叶清塑造了许多经典的人物形象。就在不久前,短视频平台上出现了一集AI生成的短剧,许多观众通过弹幕刷屏:主人公的旁白是“叶清老师的声音”。接受记者采访时,叶清坦言,AI短剧里对他的音色还原度极高。
类似的经历在配音行业中屡见不鲜。配音导演、配音演员李龙滨也经常成为这种侵权行为的受害者。
未经授权的AI仿声对配音演员和整个行业带来前所未有的冲击。季冠霖曾为《甄嬛传》《疯狂动物城》等知名影视作品配音,她认为,在艺术层面上,无序发展的AI仿声消解着配音演员的表演能力和情感流动。在“魔改”印度版《甄嬛传》中,季冠霖的声音被仿,在她本人听来,虽然声音很像,但角色不像。
她表示,未经授权的AI仿声除了降低配音行业应有的艺术水准和价值之外,还会让配音演员面临诸多法律风险。
针对未经授权的AI仿声带来的行业与个人困境,法律层面是如何界定的?中国政法大学人工智能法研究院院长张凌寒表示,可能侵犯配音演员的声音人格权,还可能侵犯相关影视剧作品的著作权。
然而,多位业内人士及法律专家认为,在实践中,如何认定AI仿声侵权、如何去监管,目前有现实的难题。
首先是取证链条弱。叶清认为,网络传播的AI语音多为碎片化二次加工,难以追溯源头和固定完整侵权链路。
此类维权的另一个难点是“鉴定”难。不同于能看得见、摸得着的肖像权,声音没有实体,听得到、抓不住,容易被剪辑、篡改、变速,对于配音演员来说,切换多种声线更是工作常态,在此基础上,AI微调音色、语调等就可以做到高度相似,但非1∶1复刻。
张凌寒表示,训练数据不透明,被侵权人难以证明数据来源。因此,追责面临不小的困难。
那么,该如何探索AI技术与配音行业的合法共存模式?叶清认为,首先声音使用方应正视法律问题,通过合规的手段取得授权并恰当使用AI仿声技术。
中国政法大学知识产权中心特约研究员赵占领认为,行业自律与平台规则同样是构建合规生态的重要一环。目前的司法实践经验还不是很充分,需要司法实践积累经验、作判断。在监管政策还未出台的情况下,网络平台、AI软件平台可以要求和禁止用户未经授权使用他人声音进行AI生成。
多位受访者还呼吁,未来希望通过加水印等技术手段,为AI声音搭建可追溯、可识别的安全框架。
张凌寒表示,在AI声音中如何嵌入水印,需要统一的、规范的技术标准。在配音行业中,配音演员可以为自己的声音和声纹做一个单独备案,以便将来更好追责。有了相关的判定,随着监管制度、标识制度和取证制度的逐步完善,对配音演员声音的有效保护机制能够迅速建立起来。
编辑: 李谷雨

微信
QQ
朋友圈
更多精彩内容请进入频道查看
头条 政情 地方 微短剧 游安徽 悦读 播客 萌宠 评论 发布会 记者帮 安徽号 社会 English 时局 生活 视频 好人 专题 原创 版权 教育 汽车 徽商 图片 乡村振兴 科技