点击右上角
微信好友
朋友圈

请使用浏览器分享功能进行分享

本报记者 赵丽
本报见习记者 丁一
近年来,人工智能技术迅猛发展,AI换脸、拟声技术逐渐从专业领域走向大众应用。然而,随着生成内容逼真度的提升和使用门槛的降低,此类技术已被滥用于制作虚假视频、侵犯个人隐私乃至实施诈骗等违法违规活动。
AI换脸换声技术背后潜藏哪些法律风险?该如何有效治理?带着问题,《法治日报》记者采访了中央财经大学法学院教授王叶刚、北京航空航天大学法学院副教授王天凡和京都律师事务所律师常莎。
记者:近年来,利用知名人士形象进行AI换脸换声的视频层出不穷,一些有心人士将其用于直播带货甚至诈骗。这种行为可能触犯哪些法律法规?
常莎:通过AI技术生成明星抑或普通民众的人脸形象,前提是要采集、提取其面部特征生物识别信息。这些信息属于法定的敏感个人信息,侵权方未经授权使用,构成对公民个人信息权益的侵害;还可能侵犯他人肖像权、名誉权等。
若平台“明知”侵权方利用AI换脸实施诈骗、销售假冒商品等犯罪,仍为其提供帮助,则可能构成帮助信息网络犯罪活动罪。
AI换脸直播事件中,侵权方的直播带货属商业广告行为,其通过AI伪造明星肖像与声音,营造名人本人推荐的虚假表象,使消费者因信任明星作出购买决策,违反诚信原则,符合虚假广告认定标准。同时,AI换脸行为还可能涉嫌不正当竞争。
此外,伪造特定名人形象、虚构事实以获取非法收入,主观上具有非法占有目的,客观上实施了欺骗行为,符合诈骗罪的基本构成要件,该行为涉嫌构成诈骗罪。
记者:目前针对AI换脸、换声类视频,我国有哪些相关规定?此类乱象屡禁不止,是否反映出相关法规尚存不足?
王叶刚:对于此类视频,我国目前已有《生成式人工智能服务管理暂行办法》《互联网信息服务深度合成管理规定》《人工智能生成合成内容标识办法》等规定。其中,《互联网信息服务深度合成管理规定》要求,任何组织和个人不得利用深度合成服务从事危害国家安全和利益、损害国家形象、侵害社会公共利益、扰乱经济和社会秩序、侵犯他人合法权益等法律、行政法规禁止的活动。深度合成服务提供者和技术支持者提供人脸、人声等生物识别信息编辑功能的,应当提示深度合成服务使用者依法告知被编辑的个人,并取得其单独同意。
《人工智能生成合成内容标识办法》要求相关行为人必须对AI生成图片或者视频作出标识。但仅依靠内容标识制度,还无法彻底遏制此种行为。标识只能解决AI生成内容的识别问题,无法解决相关的责任认定和承担问题。同时,从责任认定层面来看,标识行为本身在法律上具有何种意义,特别是其在民事责任认定方面具有何种义务,缺乏明确规定。
记者:对于AI换脸换声技术背后潜藏的法律风险,该如何有效治理?
王天凡:解决问题的关键路径,在于《人工智能生成合成内容标识办法》所鼓励的“数字水印”。对数字水印的技术要求和准确性、稳定性等要进一步提升,例如确保水印从生成源头即被嵌入。为此,相关部门应尽快建立明确的技术标准,同时推进构建第三方投诉反馈机制。
王叶刚:应进一步明确删除、篡改、伪造、隐匿标识行为的法律责任。现有相关规定只是规定行为人不得实施恶意删除、篡改、隐匿标识的行为,但行为人实施相关行为需要承担何种法律责任,相关规定亟待进一步明确。
对于通过技术手段能够发现的AI换脸直播带货行为,平台应当尽到必要的审核义务,在发现相关行为后,可以考虑采取禁止或者限制直播、下架产品或者服务等措施。
实现多部门联合执法,网信部门、市场监管部门等在行使本部门职权的基础上,与其他部门进行沟通、配合,实现对违法AI换脸换声等行为的全过程监管和治理。
常莎:在技术方面,防范与创新并重,支持研发反深度合成技术,提升鉴别能力,为监管部门和个人提供可靠的技术工具。
个人应提高对肖像权和隐私权的保护意识,谨慎发布包含个人清晰肖像、独特声线的影像资料,避免给不法分子可乘之机。同时,如果侵权行为发生,则应积极通过法律途径维护自身合法权益,及时收集并保留侵权内容截图、传播记录等相关证据,以便为后续维权提供有力支持。
