设为首页收藏本站购买充值卡

     

龙飞电脑工作室|海门论坛

 找回密码
 立即注册
查看: 595|回复: 0

在成人网站看到我?看完视频我竟无话可说

[复制链接]
  • TA的每日心情
    无聊
    2023-8-1 07:44
  • 签到天数: 2 天

    [LV.1]九品 酒贼

    1483

    主题

    1836

    帖子

    1万

    积分

    版主

    Rank: 7Rank: 7Rank: 7

    积分
    11544
    发表于 2021-4-8 20:51:14 | 显示全部楼层 |阅读模式
    谣言止于真相,但事实上有些谣言就连AI人工智能都破除不了。

      B君和G妹原本是一对非常恩爱的情侣,直到一次G妹收到B君发来的微信:

      B君:分手吧!

      三个字后面是一条链接 https://xxxhub.com/abcdefg

      一脸茫然的G妹顺手点开了那条链接——

      成人网站,一段视频,画面里的G妹,做着不可描述的事情…

      G妹:WTF,怎么会!?...

      按照一般的故事发展逻辑,你们肯定会认为是G妹一朝东窗事发。我想告诉你们的是:

    耳听为虚,眼见的可能更虚!

      B君:视频里有你,你怎么还厚颜无耻地说这不是你?

      别冲动。试着回想一下你上个月转发过的那条#朱茵变杨幂#微博,再搜搜关于#海王变徐锦江#的恶搞视频,你对眼前的这段女友出轨小视频的真实性是不是有所动摇了?没错,你看的这段视频很有可能是P出来的,而且只要方法得当,你也能P出这样的视频。

      包括朱茵变脸,包括G妹的视频,都是基于DeepFake这门新兴的人工智能技术。这个技术的实现过程其实很好理解,通过让机器深度学习替换者和被替换者的脸,将替换者的脸成功移植到被替换者上,一个变脸视频就怎么愉快地生成了。和PhotoShop比起来,DeepFake可以实现近乎完美的动态PS,包括嘴型、动作、甚至是挤眉弄眼时的脸部产生的皱纹,都可以被造假。

      有网友曾经利用DeepFake把川普的头像移植到希拉里身上,毫无违和感,甚至还有人认为是川普在玩cosPlay。曾经的影帝,尼古拉斯·凯奇也曾经被一次脱口秀安排得明明白白,节目录制时,坐在他旁边的明明是一个长相和他八竿子打不到一块的男同胞;节目播出的时候,电视上出现了两个自己,若非假的那位的发际线出了戏,不然即便是凯奇本人也无法分辨。

      上面的例子还只算是恶搞,另一些DeepFake视频则是满满地透着制作者内心的龌龊下作。

      如果你尝试在某知名404网站上搜索关键词“DeepFake”或者“变脸”,会看到搜索结果上展示出不少关于这类题材的成人内容。包括斯嘉丽·约翰逊、艾玛·沃森特等著名女星都曾被DeepFake过,换脸到那些不可描述的视频上(我会告诉你某度搜索也会展示吗?)。

      DeepFake还被用来伪造政客的演讲内容,以达到混淆视听、干扰选举、甚至是挑起斗争等目的。这类内容在欧美地区出现地比较频繁,政客们对这种手段无不谈DeepFake色变。

      随着这些造假视频的频繁曝光,舆论开始对于DeepFake的用途大加指责,以至于包括推特、Reddi等社交、社区网站都删除了DeepFake相关内容,并且屏蔽了用户对DeepFake的内容搜索。

    事不关己?其实你自己也很危险

      可能你会觉得,被DeepFake的对象都是明星政客,自己一届凡夫没有被DeepFake的理由。

      别急着下结论。

      昨天,你收到追债公司打来的电话,证据是一段“你”在注册网贷APP时手持着身份证的视频;早上,你打开支付宝发现,上线历史上多了一个异地位置,却没有收到官方的警告通知;而就在刚才,你突然收到法院的传票,说你在上周持刀打劫了小学生的棒棒糖…你没有做过,DeepFake搞的鬼。

      这里需要告诉你的一个事实,你每一次上传到微博、抖音、朋友圈的自拍小视频,都在为自己被成功DeepFake加注筹码。前面提到,DeepFake换脸过程实际上就是把替换者的脸换到被替换者身上,这当中就需要用到替换者的动态脸部数据来供DeepFake深度学习。因此你自己上传的内容就成了最直接的数据原料,而且上传的视频人脸角度越多,细节越丰富,DeepFake出来的效果越精确。

      那么DeepFake造假能“真”到什么样的程度呢?

      都说解铃还须系铃人,既然是AI生成的DeepFake视频,那不妨由AI来判断视频的真假。今年初,来自瑞士Idiap研究院的两位科学家尝试使用AI技术来检测DeepFake效果。结果让人震惊。

      两位科学家首先使用了分别基于VGG模型和Facenet算法的前沿人脸识别系统,对320段DeepFake视频进行判断。结果显示,AI判断的错误率高达95%。尤其是基于HQ模型生成的DeepFake视频,即便是面对IQM+SVM结合下的人脸识别系统,HQ DeepFake仍然有9.05%的几率骗过系统。

      如果这样的结果摆在当前对谣言造假零容忍的环境下,那么DeepFake显然成为了胜利的一方。我们不知道一个研究院的结果能代表多大的普遍性,也不知道在这之后会是DeepFake魔高一尺,还是人脸识别道高一丈,但可以肯定的是,AI造假和反AI造假将会是一场不可回避的斗争。

    技术无罪,用者其罪

      DeepFake和其他技术一样,具有两面性,一棒子打死并不是应对新技术的最佳方法。我们前面提到的都是关于DeepFake的负面影响,但它也有诸多的可取之处。

      这些年,我们陆续告别了很多曾经活跃在荧幕前的演员,他们或因病长辞或遭遇意外,一些未了的电影不得不戛然而止。DeepFake的出现,那些已故的演员可以重新“活”过来,那些未了的故事得以完美结束甚至延续。对于整个影视行业,DeepFake甚至可以推动一次行业的技术变革。

      技术无罪,用者其罪。

      文章的结尾,还有一个真相:其实G妹那段视频是真的。
    回复

    使用道具 举报

    您需要登录后才可以回帖 登录 | 立即注册

    本版积分规则

    快速回复 返回顶部 返回列表