编者:本文来自微信号公众编号“腾讯研究院”( ID:cyberlawrc ),作者s君. ai,36氪被授权公布。
为什么爱不爱deepfake技术?
Deefake是什么?即使不熟悉最近AI界频繁出现的词语,也一定不知道“改变AI面孔”。 从国外的恶德奥巴马盖尔加特,出现了国内的朱宾·扬贝基,ZAO App的线香花。 这个大脑开放的技术是2017年Reddit网站的用户“deepfakes”提出的开源,在论坛上炸锅。 产生了FakeApp等视频合成工具和一系列伪造电影。
利用人工智能伪造对抗网络( GAN,generatedadversarialnetwork )的技术可以用不同的脸部图像替换原始视频的原始人物。 基于GAN算法的游戏优化原理,最终产生了非常逼真的伪造视频,现在真伪成立。
另一方面,deepfake技术在电影文化界的想象空间非常大,另一方面刺激色情和人性,从诞生之初就伴随着肖像权、着作权、伦理水平的纠纷。 deepfake被滥用是什么威胁? 伪风越来越盛行,伪军也诞生了。 在AI休假AI成为“军备竞赛”。 我们会赢吗?
Deepfake被滥用对我们意味着什么?
■最近的研究显示,互联网上有14678个DeepFake视频,其中96%是色情作品。 大部分都是着名女演员的脸,转移到色情明星身上。 以( Deep Trace Lab )为主要目标之一的女演员scarlet说:“因为知道色情的人不是我,所以对我影响不大”,但是可能失去工作的人是不同的。 “机械之心”
对于普通人和知名度较低的女性来说,deepfake技术使虚假色情变得容易,而基于报复或其他目的的色情则可能难以让女性面对更高的名誉风险自辩。
■技术的革新也在不断地改变着“欺诈产业”。 根据deepfake的合成人物、合成语音以及合成笔迹,使欺诈活动更加秘密,搜查和防卫变得困难。
今年3月,罪犯模仿英国能源公司德国总公司CEO的声音,欺骗同事和伙伴,每天骗取220,000欧元。 ( deep tech deep technology ) 6月间谍利用AI产生了不存在的形象和资料,在工作场所的社交平台LinkedIn上欺骗了许多联系人,包括政治专家和政府官员。 (新智元)
■除了爆炸的安全风险,Deepfake的潜在效果还扩展到大众的信息获取和社会信赖水平。
“如果不知道消息消费者应该相信什么,他们就无法从虚构中分辨事实。 他们相信一切,或者什么都不相信。 他们什么都不相信的话,会引起长期的冷漠,对美国有害。 外交政策研究所研究员Clint Watts/新智元
AI对抗AI是个好办法吗?
正如中国科学技术法学会李盛教授所说,deepfake的真正问题是“在传统意义上“真相”和“虚假”的界线被打破”。 既然可以使用技术制造假冒品,那么可以使用更强大的技术来检测假冒品的视频吗? 这个AI对抗AI的想法在过去两年中成为了很多机构关注的方向。
纽约州立大学的Siwei Lyu教授和学生发现,使用AI技术生成的假面具,由于是使用醒来的照片进行训练,所以不怎么眨眼。 美国国防部的研究机构DAPRA在此基础上,首次开发了“改变脸部”的AI刑事检查工具。 (新智元) Hao Li所属的队伍,通过追踪各人特有的脸的微表情来实现。 这些标志(微表情)被称为“柔软生物的特征”,对于AI来说太微妙了,还不能模仿。 (机器的心)
■但是,Lyu和Li都认为这项技术很快就可能不再使用。 “在伪造影像的后处理中手动添加眨眼不是一大课题”,随着鉴别技术的提高,伪造影像的品质也会进一步提高。 开发此算法至少有助于阻止和延迟伪造视频的创建。 「Siwei Lyu网易」
生成性对抗网络的原理是让两个神经网络在相互游戏中学习,从长远来看,两者永远处于对立之中,谁也不能彻底击败。 (风扇)
■即使是现在非常有效的检测技术,也难以完全捕获所有虚假信息。 人工智能基金会的研究副社长Delip Rao说:“最近发表的deepfake检定算法可以达到97%的精确度。 但是考虑到互联网平台的规模,其馀3%仍然是破坏性的。 如果Facebook每天处理3亿5千万张图像的话,3%的错误率也会释放出大量的错误识别图像。 「Delip Rao/机器的心」
■另一个问题是,“伪研究”和“伪研究”的规模和和声量不成比例。 “2018年,在世界范围内,识别合成图像的论文只发表了25篇。
相比之下,GAN有902篇。 算起来是1比36。 “量子比特”是Facebook和Google等大型企业通过奖金竞赛和数据集等方法来填补这一差距。 9月份,Facebook宣布将与数家公司和大学合作开始Deepfake测试挑战。 ( cnBeta )
这样规模化的行动能帮助假技术的飞跃吗? 我们还需要等待。
除了AI逆制之外,还有什么对策?
■不要弄清技术泛滥的结果,合理解放技术成果成为企业的选择。 例如,OpenAI最近发布的无监控语言模型GPT-2根据行业惯例仅公开简化版本,而不公开数据集、培训代码和模型权重。 其目的是“防止这项技术被滥用”。 (脑电极)
■由于ai有漏网的鱼,Hwang认为平衡自动检测工具(可以扫描数百万个视频)和手动审查(可以关注更麻烦的案件)是最可能的解决方案。 例如,记者、事实检验员、研究者可以收集视频内容的支持证据。 尤其对磨练过的deepfake作品有用。 (展望网)
美国弗吉尼亚州和加利福尼亚州在deepfake技术的立法监督水平上进行了尝试。 今年5月,中国民法典人格权编辑方案二审提出,任何组织和个人不得利用丑化、污损或信息技术手段侵犯他人肖像权。 “正式通过的话,意味着即使没有营利目的和主观恶意,没有得到本人同意的AI面部也有可能侵犯权利。 "北京大学法学院副院长雪军/新华网. "
■“对我来说,最重要的是必须认识到现代技术在视频的生成和编辑方面具有巨大的能力。 这会使他们更加批评地考虑自己每天消费的视频内容,尤其是在没有源证书的情况下。 "斯坦福大学访问助理教授迈克尔·佐尔霍弗/新智元. "
编者的总结
正如该技术的创始人“deepfakes”所说,任何技术都有可能以邪恶的动机被利用。 Deepfake诞生不久,色情资讯泛滥,进而引起了秘密欺诈手段,以及身份和社会信任等挑战。 如果你想拥有使Paul Walker以“速度和热情7”复活的优秀技术,就必须积极参与防止技术滥用。
目前,利用技术平衡技术、开发的AI算法检测虚假内容仍被认为是可行的解决办法。 这条路径虽然不能达到100%的成功率,但是,由于伪装技术的更新,面临着持续的“军备竞赛”局面。 这个比赛,从最初的大小机构转变为各自的团队,大企业利用奖金比赛,制作数据集的方式,鼓励更广泛的关注和参加。
但是,除了技术游戏之外,还应该探索很多重要的路径。 例如,人工验证如何聪明地参与技术检验,发挥四、二千斤的作用? 这种机密技术,在能够控制之前应该是有限度的吗?辅助性监督政策如何不妨碍技术的发展?
回到最初的问题: deepfake的出现会给大众如何定义真相带来冲击。 因此,对抗技术滥用,更广泛地关注行业和监督等极少部分人的这个问题,使人们对伪装的免疫力更强,理解批判性思维和吸收,社会对“幻想”的风险成为最牢固的基础。