• 2019-09-09 08:00:46
  • 阅读(9875)
  • 评论(6)
  •   近期,一款名为ZAO的人工智能换脸APP在国内推出。用户只需上传一张正面照,就能够一键操作,把一些影视剧片段中艺人的脸换成自己的,马上生成视频,还可经过交际媒体传达,好像瞬间圆了明星梦。

      这一款换脸APP很快就成了爆款,颇受欢迎,但也很快引起有关部门的留意,就在上星期,工信部就网络数据安全问题约谈了相关公司。

      与此同时,"换脸" 软件所依托的的一项AI技能,也引起了人们的重视,它被称为:DeepFake, 深度假造。

      外国媒体报导:咱们不能信赖网上的一切东西,没错,深度假造,深度假造,深度假造!是的,这究竟是什么?深度假造技能是使用人工智能组成以假乱真的视频,这是一种高科技手法,能够把某些话塞进或人嘴里。

      Deepfake(深度假造),"Deep learning"(深度学习)和"Fake"(假造)结合而成的新单词。

      简略来说,这是一种能够实时假造面部表情,并将其渲染成2D组成视频的人工智能技能。

      早在一年多前, 2017年12月,一个名为"DeepFakes"的用户在Reddit网站发布"假视频",将成人色情电影中艺人的脸替换成了斯嘉丽·约翰逊等闻名女艺人的脸,画面以假乱真。这为人工智能换脸技能招引来了一大波流量,"DeepFake"深度假造,也逐步成为这一技能的代称,同名算法也在Github开源,这是一个面向开源及私有软件项意图保管渠道。

      网络视频打假专家沃德尔博士:你好,今日我要和你评论一项影响名人的新技能。(记住)奥巴马说特朗普是白痴,或许卡戴珊的说唱"由于我总是半裸吗"?深度假造!深度假造!深度假造!这也是深度假造,我也不是阿黛尔,我是(冲击)网络假造的专家。深度假造用来描绘人工智能技能组成的视频或音频文件。它起先便是一种十分根本的面部替换,现在还成了电影特技。有了这样的爆款技能,天啊,咱们不能信赖任何东西了。没错,深度假造便是可怕的反乌托邦。它们只会变得更简单,制造本钱也更低价。

      李浩是美国南加州大学的助理教授,"针幕动画"公司的联合创始人,这家公司推出的软件能够让用户在玩虚拟实际游戏和购物时,即时定制自己的三维虚拟化身。

      "针幕动画"联合创始人李浩:现在我制造了一个你的化身。

      美国公共广播公司记者奥布莱恩:一个和蔼整齐的奥布莱恩。

      这种戏法能够用在任何人身上,当然也包含政界要人。

      美国公共广播公司记者奥布莱恩:现在我成了咱们的总统(特朗普),日本首相安倍晋三。

      "针幕动画"联合创始人李浩:当然,这个技能能够用来做一些真的很坏的作业。但首要意图绝不是如此,它被用于文娱,一个风趣的东西,用于时髦、生活方法各方面,带给咱们更多体会。

      但随着技能的开展,这样的组成图画或视频,实在度越来越强,欺骗性也越来越强。对此,研制者也不无忧虑。

      "针幕动画"联合创始人李浩:咱们都假定会有一个临界点,到时将无法区别真假。我的意思是,从视觉效果上说,我觉得你现已能够做到十分挨近了,仅仅取决于你花多少尽力在上面。但就任何人都能够创立的内容而言,我以为现已十分挨近这个临界点了。

      2018年1月,一个名为FakeApp的软件上线,声称能够完成"一键换脸"。可生成的视频内容包含恶搞美国总统特朗普,或是将自己的脸贴到好莱坞明星身上。

      尽管有的交际新闻站点比方Reddit网站,已明令禁止在自己的渠道传达换脸视频和图片,但仍有超越9万名用户在Reddit上传达这类视频。

      计算机科学专家法里德:我忧虑这项技能被兵器化,还忧虑它怎样影响咱们整个社会。

      深度假造不只能够换脸,还可假造声响。

      据《华尔街日报》报导,本年3月,有犯罪分子使用"深度假造"技能,电脑组成某公司CEO的声响,成功诈骗22万欧元。

      电脑组成声响真的这么难以识破吗?

      2018年,三名蒙特利尔大学的博士联合创办了一家名为"琴鸟"(Lyrebird)的公司。该公司开发出了一种"语音组成"技能,只要对方针人物的声响进行1分钟以上的录音,把录音丢给"琴鸟"处理,就能得到一个特别的密钥,使用这个密钥能够用方针人物的声响,生成任何想说的话。

      "琴鸟"创始人:你需求录自己几分钟的声响。

      彭博社记者 万斯:上千个字母在业余作家的屏幕上跳动,当你开端像这样吃东西时,就会有问题,你们最好退出政治圈,别干了。我不知道它怎样作业的,现在创立我的数字声响。创立你的数字声响至少需求一分钟,一分钟,我的天啊。

      语音录制完后,"琴鸟"会主动工作组成出你的数字声响。

      这时,只需求向电脑输入想说的话,就能够用新组成的你的声响说出来。

      记者万斯的数字组成声响:人工智能技能好像开展十分快,咱们该感到惧怕吗。

      彭博社记者万斯:我确实听到了,真的很有意思。我仅仅随意挑了,我从没说过的话。

      并且,"琴鸟"还能在组成声响中参加"爱情"元素,让声响听上去更传神。

      彭博社记者万斯:现在为了试验一下我的电脑组成音,我要给我亲爱的妈妈打个电话,看看她是否能听出来。嗨,妈妈,你们今日什么组织。

      万斯的母亲:今日一早家里没电了,咱们正在房子里散步。

      万斯:我刚刚下班,等着接儿子回家。

      万斯的母亲:好的。

      万斯:我觉得我或许感染了病毒。

      万斯的母亲:那你感觉不舒服,是吗?

      万斯:哈哈,我刚才是和你捣乱,你刚才在和电脑说话。

      万斯的母亲:我感觉在和你说话,真是美妙。

      万斯:你觉得吓人仍是觉得不错。

      万斯的母亲:假如涉及到十分重要的作业,真的挺吓人的。不过现在是你了,对吗?

      万斯:我不知道。

      万斯的母亲:听上去是你。

      万斯:是吗?

      万斯的母亲:是,是,听上去便是你。

      彭博社记者万斯:很明显,有些人被这项技能吓坏了。由于咱们现已让实际本相变得模糊不清。

      "琴鸟"创始人:当然,确实存在有人使用这项技能做坏事的危险。可是,科技不或许中止开展,所以咱们决议挑选契合品德的做法,将技能展现给人们,让人们知道这项技能的可行性,让他们进步警觉。

      网络安全公司Pindrop在2018年五月对美英德法四国共500家企业打开网上查询,成果显现,从2013年到2017年,语音诈骗案子的数量增加了350%,每638个诈骗电话中就有1个是人工组成声响。

      瑞士苏黎世大学研讨员乌德里什:长久以来,人类的声响是(造假者)最大的应战,由于每种声响都极端杂乱且绝无仅有,它们简直不或许被假造。但在SEO培训最近几年,(科技)取得了巨大进步,视频资料和假造声响的结合构成了巨大的要挟。

      确实,有了老练的声响造假技能,再配上假造图画,做出一条以假乱真、心怀叵测的视频真的不难了。

      "深度假造"假视频:特朗普总统是个彻底的白痴,你看我永久不会说这些话,至少在公共讲演中(不会),但其他人会说,比方乔丹·皮尔。这是一个危险的年代,今后咱们要对咱们所信赖的互联网愈加警觉。在这个年代咱们需求可信的新闻来源,听起来很简略,但咱们该怎样开展,信息年代将决议咱们是生计,仍是成为某种糟糕的反乌托邦。谢谢。

      这段视频看上去是美国前总统奥巴马在宣告讲演,实际上却是喜剧艺人和电影制造人皮尔的扮演,声响和画面都是经过软件组成的。

      计算机科学专家法里德:人工智能体系组成了奥巴马的嘴,使其与音频流保持共同,让视频看起来像是奥巴马总统在说他之前从未说过的话。这叫作唇同步深度假造。

      技能本无善恶,深度假造能够被运用于兴趣视频、游戏以及广告协作中,但歹意运用也会带来严重后果。它或许会炸毁咱们对实际的认知,使人们不敢再信赖视频、录像。

      美国卡内基国际和平基金会也正告称,深度假造正在带来破坏性的影响,也会对反恐和国家安全构成损害。

      计算机科学专家法里德:噩梦般的状况是,出来一段特朗普总统的视频,他在视频里说,我对朝鲜发射了核兵器。有人黑进了他的推特账号,这条音讯被张狂传达,短短30秒,全球核战迸发。我觉得这或许吗?不,但并非彻底不或许,并且会把你吓得半死,对吗?但这并非不或许的现实,真的令人忧虑。

      从"深度学习"到"深度假造",相片、声响、视频都可轻松造假,而辨认深度假造则要比制造深度假造难得多。

      当"目睹未必为实,耳听未必为真",咱们又该怎样办?

      扎克伯格"深度假造"假视频:这都要归咎于Spectre缝隙,它告知我谁掌控了数据,谁就掌控了未来。

      本年6月,图片共享网站Instagram呈现这样一段视频。脸书公司创始人扎克伯格就大数据的威力宣告讲演。

      但很快,扎克伯格就驳斥谣言说,自己从未说过这些话。现实上,这是以色列一家科技公司使用深度假造技能组成而来的。

      略显为难的是,脸书曾声称,该公司不会删去假新闻,但会削减其在网站上的影响力,并显现来自现实核对人员的信息。

      而Instagram总裁莫斯里也在承受采访时表明,现在业界还没有大规模的数据或规范对这些假视频进行检测。

      Instagram总裁莫斯里:现在,咱们还没有应对深度假造的方针,咱们正试着评价是否乐意这么做。假如要做,又该怎样界说深度假造。我觉得(此类事情)并不好。

      主持人盖尔·金:你能够束缚这种技能,你有影响力。

      莫斯里:实际上,我想的不仅仅把它撤下来,我以为问题在于,咱们怎样以有准则的方法做到这一点。

      对此,《财富》杂志呼吁说,现在现已到了科技公司、学术界和政府共同尽力寻觅解决方案的时分了。

      6月13号,美国众议院情报委员会举行关于人工智能深度假造的听证会,揭露议论了深度假造技能给国家、社会和个人带来的危险,以及该采纳的防备和应对办法。

      现在,国际多国也都开端进行立法,强化对人脸信息搜集和辨认技能使用场景的束缚。但一切尽力都离不开交际媒体渠道的合作。

      计算机科学专家法里德:但大多数状况下,交际媒体渠道对怎样处理这类不合法内容、有害内容、不实信息、假新闻、推举篡改、非自愿的色情等内容都显得掉以轻心,由于这些内容招引眼球,对生意有优点。

      近来,脸书、微软等科技公司和很多学术组织联合建议一场"揪出深度假造印象应战赛",期望改进现有东西,加强对深度假造图片、声响和视频的检测才能。

      9月5号,脸书宣告将为此投入1000万美元。

      美国加州大学伯克利分校的研讨人员也在研讨怎样应对深度假造。

      计算机科学专家法里德:咱们应对这一问题的方法是,树立了软生物辨认模型。这些生物特征指的是像指纹、虹膜、面部。它没有那么共同,但其意图是捕捉奇妙的面部表情、头部移动,这些每个个别独有的,但在假视频制造时被打乱了的特征。

      计算机科学专家 法里德:首要咱们会丈量各种头部移动和面部表情,你能够在这个视频里,看到咱们正在捕捉蓝色盒子,正在捕捉他的头部在三维空间里怎样滚动。红点是在定位他的面部表情,实际上咱们能够看到他何时会抬起眉毛,何时会张大嘴巴。当然,他眼睛里的绿色激光会告知咱们他在看哪里。整个视频中的每一帧画面,咱们都会对他的面部表情、面部动作、头部动作做一些丈量,之后咱们用这些树立软生物辨认模型。

      计算机科学专家法里德感叹称,制造假视频的人越来越多,造假技能开展十分敏捷,而相比之下,打假部队的力气显得落后而单薄。

      美国五角大楼有一个研讨团队,又称美国国防高档研讨方案局,也在一向研讨怎样反抗"深度假造"的要挟。

      计算机科学家图雷克:这让咱们对图片和录像都不信赖了。

      而检测假造视频的软件,能够描绘嘴唇运动,将其与视频中的声响进行比对。

      计算机科学家图雷克:当看到这些红点时,意味着说话者的声响实际上与其嘴唇运动不共同。

      再来看这段视频,看上去这两人是坐在一同的,但经过测定他们脸上的光照视点,能够断定这是一个组成的视频。

      计算机科学家图雷克:它预估了一个人脸3D模型跟这个模型一同,软件还估量了面部反射特征和光照视点。这儿,咱们首要使用了光照视点来看那些(特征)是否共同。

      这是监控录像中的一段画面,检测软件企图猜测物体的移动方向。

      计算机科学家 图雷克:它检测到了物体运动的不连续性,这给咱们发出了信号来细心检查图片或视频,(推断出)或许画面便是从这儿被铲除的。

      检测发现这段视频被动过手脚,另一辆车被从画面中剪切掉了。

      计算机科学家图雷克:这是一个猫和老鼠的游戏,点破假图片或视频的层面越多,给造假者构成的压力也就越大。

      两年前,美国发布《人工智能与国家安全》陈述,清晰将人工智能假造技能列为要挟国家安全的要点技能。

      作为人工智能开展大国,我国也现已在加强方针和技能方面的监管,应对人工智能新技能或许带来的安全危险。

      究竟,当声响、指纹、人脸等重要的生物辨认信息都开端呈现"高仿"时,危险和危险也将越来越多。

      原标题:"换脸"本相 "深度假造"的网络狂欢和安全要挟

    来源:版权归属原作者,部分文章推送时未能及时与原作者取得联系,若来源标注错误或侵犯到您的权益烦请告知,我们会及时删除。联系QQ:110-242-789

    5  收藏