被骗2亿港元!“AI换脸”诈骗怎么防?
发布时间:2024-03-01

近年来

随着人工智能技术的进步

一些不法分子开始利用AI技术

融合他人面孔和声音

制造非常逼真的合成图像

来实施新型网络诈骗

这类骗局常常会在短时间内

给被害人造成较大损失

我们应该如何看清这类AI“深度造假”?

辨别“AI换脸”有没有什么好方法?

我们先来看看近期发生在

陕西西安的一起“AI换脸”诈骗案例

好在警方处理及时

挽回了大部分损失

近期

香港警方也披露了

一起AI“多人换脸”诈骗案

涉案金额高达2亿港元

在该起案件中,一家跨国公司香港分部的职员,受邀参加总部首席财务官发起的多人的视频会议。并按照要求,前后转账多次,将2亿港元转账到5个本地银行账户内,其后向总部查询方知受骗。警方调查得知,这起案件中,所谓的视频会议中,只有受害者一人为“真人”,其余所谓参会人员,全部是经过AI换脸后的诈骗人员。

AI技术“换脸换声”

可能存在法律风险

AI技术也是把“双刃剑”,即使是出于娱乐使用AI换脸、AI换声,也是存在法律风险的。法律专家表示,用AI技术为他人换脸换声甚至翻译成其他语言并发布视频,可能涉嫌侵权,主要有三个方面:

一是涉嫌侵犯著作权,例如相声、小品等都属于《中华人民共和国著作权法》保护的“作品”。例如网友用AI软件将相声、小品等“翻译”成其他语言,需经过著作权人授权,否则就存在侵权问题。

二是涉嫌侵犯肖像权,根据《中华人民共和国民法典》,任何组织或者个人不得以丑化、污损,或者利用信息技术手段伪造等方式侵害他人的肖像权。未经肖像权人同意,不得制作、使用、公开肖像权人的肖像,但是法律另有规定的除外。

三是涉嫌侵犯声音权,根据《中华人民共和国民法典》规定,对自然人声音的保护,参照适用肖像权保护的有关规定。也就是说,需要取得声音权人的同意,才能够使用他人的声音。

这些方式

轻易识别AI“换脸换声”

AI换脸这一技术的出现,导致耳听为虚、眼见也不一定为实了。那我们该如何防范呢?专家表示,其实AI人工换脸无论做得多么逼真,想要识别视频真假还是有一些方法的。

图片

比如说我们可以要求对方在视频对话的时候呢,在脸部的面前通过挥手的方式,去进行一个识别,实时伪造的视频,因为它要对这个视频进行实时的生成和处理和AI的换脸。

图片

那么在挥手的过程中,就会造成这种面部的数据的干扰,最终产生的效果就是我们看到的这样,挥手的过程中,他所伪造的这个人脸会产生一定的抖动或者是一些闪现,或者是一些异常的情况。

图片

第二个就是点对点的沟通中可以问一些只有对方知道的问题,验证对方的真实性。



来源:临安新闻网    作者:    编辑:黄晓强
版权和免责声明:
  
①凡本网注明“稿件来源:临安新闻网”的所有文字、图片和音视频稿件,版权均属临安新闻网所有,任何媒体、网站或个人未经本网协议授权不得转载、链接、转贴或以其他方式复制发表。已经本网协议授权的媒体、网站,在下载使用时必须注明“稿件来源:临安新闻网”,违者本网将追究其相关法律责任。
② 凡本网注明“来源:XXX(非临安新闻网)”的作品,均转载自其它媒体,转载目的在于传递更多信息,并不代表本网赞同其观点和对其真实性负责。
③ 如因作品内容、版权和其它问题需要同本网联系的,请在30日内进行。联系电话:0571-63715099。