AI换脸技术应用非常广泛,很多人都用来娱乐,但实际上很多时候是在风险边缘试探,那么,AI换脸存在哪些乱象和风险?AI换脸技术的应用边界在哪里?下面小编就带来介绍。
一般来讲,AI换脸是基于人脸图像识别的深度伪造技术,应用时很容易存在侵害肖像权风险。《民法典》第一千零一十九条明确规定,任何组织或个人不得利用信息技术手段伪造等方式侵害他人的肖像权;未经肖像权人同意,不得制作、使用、公开肖像权人的肖像,法律另有规定的除外。
技术的社会属性是技术风险形成的根源。许多人参与AI换脸,初衷无非是图一乐,可一旦技术向广大市场开放,运营者就容易利欲熏心,把换脸变成伪造和篡改。
如果“AI换脸”技术被不法分子利用,被用于诈骗、色情、盗窃、恶搞、非法逐利等,则会产生极大危害,不仅侵害他人合法权益,还可能危害社会公共安全。
目前没有相关行业规范明确“AI换脸”的特定应用场合,但规定了“AI换脸”行为应当遵守的边界。《互联网信息服务深度合成管理规定》(以下简称《规定》)明确,任何组织和个人不得利用深度合成服务制作、复制、发布、传播法律、行政法规禁止的信息,并要求深度合成服务提供者应当建立健全辟谣机制。这为深度合成服务的技术应用划定了“底线”和“红线”。
可以从两个应用场景考虑:专业的影视制作,在获得演员授权的前提下,可以合法应用该技术;网民娱乐性的使用,例如熟人之间做一些“换脸”视频进行娱乐等。
这就涉及如何理解其中的授权问题,根据相关规定,‘AI换脸’需要获得对方的肖像权授权。肖像权授权形式可以有两种理解:第一种,只要不反对你使用我的肖像,就完成了知情同意的过程;第二种,必须由肖像本人实施明示的意思表示,才能得到制作‘AI换脸’视频的授权。
对授权形式的两种理解可能要做一个价值判断,通过主动同意的方式获得“AI换脸”的权限,虽然有利于保护肖像权,但不太符合社会交往中的观念,但若采用第一种理解,可能会带来事后规制的成本,因此“AI换脸”的应用边界还需要通过社会实践进一步摸索。