谣言止于真相,但事实上有些谣言就连AI人工智能都破除不了。
B君和G妹原本是一对非常恩爱的情侣,直到一次G妹收到B君发来的微信:
B君:分手吧!
三个字后面是一条链接
https://xxxhub.com/abcdefg
一脸茫然的G妹顺手点开了那条链接——
成人网站,一段视频,画面里的G妹,做着不可描述的事情…
G妹:WTF,怎么会!?...
按照一般的故事发展逻辑,你们肯定会认为是G妹一朝东窗事发。我想告诉你们的是:
耳听为虚,眼见的可能更虚!
B君:视频里有你,你怎么还厚颜无耻地说这不是你?
别冲动。试着回想一下你上个月转发过的那条#朱茵变杨幂#微博,再搜搜关于#海王变徐锦江#的恶搞视频,你对眼前的这段女友出轨小视频的真实性是不是有所动摇了?没错,你看的这段视频很有可能是P出来的,而且只要方法得当,你也能P出这样的视频。
包括朱茵变脸,包括G妹的视频,都是基于DeepFake这门新兴的人工智能技术。这个技术的实现过程其实很好理解,通过让机器深度学习替换者和被替换者的脸,将替换者的脸成功移植到被替换者上,一个变脸视频就怎么愉快地生成了。和PhotoShop比起来,DeepFake可以实现近乎完美的动态PS,包括嘴型、动作、甚至是挤眉弄眼时的脸部产生的皱纹,都可以被造假。
有网友曾经利用DeepFake把川普的头像移植到希拉里身上,毫无违和感,甚至还有人认为是川普在玩cosPlay。曾经的影帝,尼古拉斯·凯奇也曾经被一次脱口秀安排得明明白白,节目录制时,坐在他旁边的明明是一个长相和他八竿子打不到一块的男同胞;节目播出的时候,电视上出现了两个自己,若非假的那位的发际线出了戏,不然即便是凯奇本人也无法分辨。
上面的例子还只算是恶搞,另一些DeepFake视频则是满满地透着制作者内心的龌龊下作。
如果你尝试在某知名404网站上搜索关键词“DeepFake”或者“变脸”,会看到搜索结果上展示出不少关于这类题材的成人内容。包括斯嘉丽·约翰逊、艾玛·沃森特等著名女星都曾被DeepFake过,换脸到那些不可描述的视频上(我会告诉你某度搜索也会展示吗?)。
DeepFake还被用来伪造政客的演讲内容,以达到混淆视听、干扰选举、甚至是挑起斗争等目的。这类内容在欧美地区出现地比较频繁,政客们对这种手段无不谈DeepFake色变。
随着这些造假视频的频繁曝光,舆论开始对于DeepFake的用途大加指责,以至于包括推特、Reddi等社交、社区网站都删除了DeepFake相关内容,并且屏蔽了用户对DeepFake的内容搜索。
事不关己?其实你自己也很危险
可能你会觉得,被DeepFake的对象都是明星政客,自己一届凡夫没有被DeepFake的理由。
别急着下结论。
昨天,你收到追债公司打来的电话,证据是一段“你”在注册网贷APP时手持着身份证的视频;早上,你打开支付宝发现,上线历史上多了一个异地位置,却没有收到官方的警告通知;而就在刚才,你突然收到法院的传票,说你在上周持刀打劫了小学生的棒棒糖…你没有做过,DeepFake搞的鬼。
这里需要告诉你的一个事实,你每一次上传到微博、抖音、朋友圈的自拍小视频,都在为自己被成功DeepFake加注筹码。前面提到,DeepFake换脸过程实际上就是把替换者的脸换到被替换者身上,这当中就需要用到替换者的动态脸部数据来供DeepFake深度学习。因此你自己上传的内容就成了最直接的数据原料,而且上传的视频人脸角度越多,细节越丰富,DeepFake出来的效果越精确。
那么DeepFake造假能“真”到什么样的程度呢?
都说解铃还须系铃人,既然是AI生成的DeepFake视频,那不妨由AI来判断视频的真假。今年初,来自瑞士Idiap研究院的两位科学家尝试使用AI技术来检测DeepFake效果。结果让人震惊。
两位科学家首先使用了分别基于VGG模型和Facenet算法的前沿人脸识别系统,对320段DeepFake视频进行判断。结果显示,AI判断的错误率高达95%。尤其是基于HQ模型生成的DeepFake视频,即便是面对IQM+SVM结合下的人脸识别系统,HQ DeepFake仍然有9.05%的几率骗过系统。
如果这样的结果摆在当前对谣言造假零容忍的环境下,那么DeepFake显然成为了胜利的一方。我们不知道一个研究院的结果能代表多大的普遍性,也不知道在这之后会是DeepFake魔高一尺,还是人脸识别道高一丈,但可以肯定的是,AI造假和反AI造假将会是一场不可回避的斗争。
技术无罪,用者其罪
DeepFake和其他技术一样,具有两面性,一棒子打死并不是应对新技术的最佳方法。我们前面提到的都是关于DeepFake的负面影响,但它也有诸多的可取之处。
这些年,我们陆续告别了很多曾经活跃在荧幕前的演员,他们或因病长辞或遭遇意外,一些未了的电影不得不戛然而止。DeepFake的出现,那些已故的演员可以重新“活”过来,那些未了的故事得以完美结束甚至延续。对于整个影视行业,DeepFake甚至可以推动一次行业的技术变革。
技术无罪,用者其罪。
文章的结尾,还有一个真相:其实G妹那段视频是真的。