人工智能伪造名人声音带货违不违法?
1、人工智能伪造名人声音带货构成人格权侵权
依据《民法典》第一千零一十九条与第一千零二十三条,自然人的声音与肖像同属人格权保护范畴,未经权利人许可,不能以伪造、合成等方法侵害别人声音权益。
北京网络法院2025年审结的典型案例明确,人工智能合成的声音若拥有“可辨别性”——即公众可通过音色、语调、发音风格等特点将合成声音与特定自然人关联,则该声音落入权利人保护范围。
比如,教育范围知名人士李某某的声音被人工智能深度伪造后用于带货,法院认定其音色与原声高度一致,结合其社会知名度,公众易将合成声音与李某某本人打造联系,因此构成对声音权的侵害。
除此之外,若人工智能伪造行为随着肖像用或名誉贬损,侵权范围将进一步扩大。依据《民法典》第九百九十五条,侵权人需承担停止侵害、赔礼道歉、赔偿损失等民事责任。
若伪造声音用于不真实宣传或诈骗,还可能触犯《刑法》第二百六十六条的诈骗罪,或《反不正当角逐法》第八条的不真实宣传条约,面临刑事处罚或行政罚款。
2、企业与带货达人的连带责任
在人工智能伪造带货的产业链中,企业与带货达人的责任划分是司法实践的核心争议点。依据《民法典》第一千一百六十八条,二人以上一同推行侵权行为导致别人损害的,应承担连带责任。
法院的裁判逻辑基于两点:
1. 企业与带货达人构成委托推广关系,双方以推广产品为目的一同发布视频并获得收益,是一同侵权行为。
2. 企业基于平台规则与管理权限,拥有审核视频内容的能力,其“未尽到合理审察义务”的过错与侵权结果存在因果关系。
除此之外,若平台明知或应知企业存在侵权行为而未采取必要手段,亦需承担连带责任。
依据《民法典》第一千一百九十七条,互联网服务提供者了解用户借助其服务侵害别人民事权益,未采取删除、屏蔽等手段的,与侵权人承担连带责任。
这需要平台打造动态审核机制,对人工智能生成内容添加显式标识,并健全投诉处置步骤。
3、平台义务与法律责任
平台作为人工智能伪造带货的技术载体与传播途径,其义务边界由《网络信息服务深度合成管理规定》与《AI生成合成内容标识方法》明确界定。依据法规,平台需履行三项核心义务:
1. 内容标识义务
对人工智能生成内容添加显式标识及隐式标识,确保公众可追溯技术来源。比如,快手平台已上线人工智能内容标识系统,对疑似生成内容自动添加提示标签。
2. 审核与处置义务
借助技术方法监测深度合成内容,打造“人工+算法”双重审核机制,对侵权视频准时下架、清退账号。微信、小红书等平台已更新用户协议,需要发布者主动标识人工智能内容,不然将采取限流、号码被封等手段。
3. 投诉处置义务
健全侵权举报途径,在接到权利人公告后24小时内采取必要手段,并向受害人反馈处置结果。若平台未履行上述义务,可能因“未准时制止侵权”被法院断定承担连带责任。