人工智能所研究的_2019年AI盘点:人工智能给我们带来了哪些烦恼?

人工智能所研究的

2019年是人工智能技术(以下简称AI )开始逐渐降温的一年。 根据Gartner 8于8月发布的技术成熟度曲线,所有AI应用程序尚未超过第二阶段的泡沫峰值。

尽管AI技术仍处于发展的初步阶段,与大规模商业有相当大的距离,这并不阻碍AI技术给人类社会带来各种麻烦和争论。 2019年AI给人类带来的麻烦和潜在风险,其中包括以下方面

伪造信息

使用AI技术编辑图像和视频是AI应用最广泛和最成熟的领域之一。 越来越多的开源软件可以自动编辑相关视频图像,有一天,这个技术阈值终于被彻底推翻了。

2017年底,“deepfakes”用户匿名上传了基于对抗社交平台Reddit的神经网络开发的包,并提供了视频编辑“换脸”操作的功能。 2018年1月,名为FakeApp的手机在应用店上市,提供了更加愚蠢的操作录像“改变脸”。 在短时间内,从名人录像“变脸”到成人录像“变脸”,各种各样的“成果”蜂拥而至。 但是,一般来说,2018年的AI“变脸”录像的细节处理很粗糙,容易被看穿。

震惊大众的时刻终于到来了。 2019年5月,一个名为“Ctrl Shift Face”的账户在YouTube上传了比尔哈德的高清访谈视频。 在录像过程中,比尔·哈迪的脸逐渐变成了阿诺德·施瓦辛格的脸,中间的“变脸”转变几乎是天衣无缝的,而且是渐变的。 这3分钟的视频最终被收看了1200万次,获得了15万次赞赏。

AI的视频伪造技术终于达到了假冒的水平。 并且,因为模型是开源的,所以AI伪造技术现在对用户的要求极低,只要有基本的编程常识,就能够根据附图构筑同样的AI执行环境。

网络巨头们坐不下了。 能够简单污染信息来源,生成虚假信息的“核武器”现在分散在民间。 大型互联网企业如果不具备筛选虚假信息的能力,就无法抵抗来自民间庞大虚假内容的“攻击”。

人工智能所研究的

2019年9月,Facebook宣布投资1千万美元开始Deepfake检查挑战。 这不是鼓励Deepfake技术进一步发展,而是希望通过挑战全面了解Deepfake的技术特点,寻找快速认识的手段。

Facebook、Microsoft、牛津大学、加利福尼亚大学伯克利分校、麻省理工大学等企业和大学设立了Partnership On AI。 作为该联盟的一员,Facebook致力于用更好的检测技术打击Deepfake的滥用。

2019年8月,德国和意大利的大学研究者确立了FaceForensics技术标准,判别AI生成的虚假视频。 谷歌作为共同发起人,也参与了FaceForensics技术标准的制定。

在中国,“ZAO”这个手机应用也因为提供了视频“换脸”的功能而发生火灾,同样引起了相关部门的注意。 2019年12月,国家互联网信息办公室、文化与旅游部、国家广播电视总局共同发行了《互联网语音影像信息服务管理规定》。 其中,因特网声音影像信息服务提供者和因特网声音影像信息服务利用者应该利用基于深刻学习、虚拟现实等的新技术,以明显的方式显示制作、传播、传播非现实的声音影像信息,利用基于深刻学习、虚拟现实等的新技术,以虚假的新闻信息

视频信息伪造是AI信息伪造的一种形式。 2019年是AI伪造信息技术大规模普及的一年。 今后,防止这种猫鼠伪造和伪造的游戏还将继续。 AI伪造信息给我们带来的麻烦才刚刚开始。

潜在的滥用风险

使用AI技术编辑图像和视频是AI应用最广泛和最成熟的领域之一。 越来越多的开源软件可以自动编辑相关视频图像,有一天,这个技术阈值终于被彻底推翻了。

1、工作场所的替代

使用AI技术编辑图像和视频是AI应用最广泛和最成熟的领域之一。 越来越多的开源软件可以自动编辑相关视频图像,有一天,这个技术阈值终于被彻底推翻了。

2 .模式错误和歧视( bias )

人工智能所研究的

目前,AI技术已经强大,但在很多方面还没有成熟到可以普遍应用于商业环境。 本文所述的成熟是算法适应性和技术应用本身的可靠性,同时也包括工业环境中各方对AI系统的接受度。

其中众所周知的应用类型之一是自动驾驶。 AI系统完全控制车辆时,错误的判断和操作造成的损失应该由哪一方承担,目前没有人能接受的解决方案。 迄今为止,自动驾驶技术存在系统可靠性和系统失误责任分担两个问题。

类似的问题具有普遍意义。 今年5月,媒体宣布香港某李某亿富翁接受投资顾问的建议,采用基金公司提供的AI战略交易系统进行套期保值交易,最终造成超过2千万美元的损失。 目前,此案已提交伦敦商业法庭审理,预定于2020年4月审理。

最终的焦点还是回到了“黑匣子”的问题上。 如果不知道AI系统是如何做出决策的,出现问题的话应该由谁来承担责任

传统上,任何商业行为(商业建议)都可以跟踪找到行动者。 但是,在AI系统控制的商业行为中,找到明确的个人负责结果往往是困难的。 客人在收到聊天机器人推荐的产品时,甚至不能索赔提供错误的信息。 因为AI系统本身没有故意误解的可能性。

2019年的亿万富翁与AI系统的法律斗争揭示了人工智能在融入人类生活的各个方面之前,将面临什么样的挑战。

类似的AI错误在2019年也有一些。 今年4月发生的巴黎圣母院火灾期间,YouTube平台上的一部分新闻在下面的情报栏中发表了“911恐怖事件”的说明,这次火灾的原因和恐怖主义没有关系。 随后,谷歌承认信息栏的内容是通过AI算法自动生成的,这些实时视频下的信息栏表示关于最初的时间。

除了算法模型不正确外,由于模型数据本身的变化导致的模型差异( bias )也是AI系统错误的原因重要因素。

2018年10月路透社报道,亚马逊开发的AI智能录用系统在筛选简历时存在明显的性别歧视。 AI算法根据候选人的简历降级包含“女性”等词汇的简历。 例如包括“女子国际象棋俱乐部的队长”等简历。 AI算法还系统地降低了两所女大毕业生的等级。 所有这些处理方式的原因在于,目前科技行业男性占主导地位的事实加强了系统构建AI算法模型时的偏见。

人工智能所研究的

同样的偏见无处不在。 根据今年5月皮尤研究中心发表的报告,在Facebook新闻发布的照片中,男性的出现次数是女性的2倍。 在男女人数基本均衡的背景下,如果不使用Facebook的新闻照片构筑AI模型,性别歧视的倾向几乎是不会错的。

AI系统引起的“歧视”中最新的案例来自日本。 12月,东大副教授大泽升平在推特上发表了“自己的公司不录用中国人”“从简历中排除中国人”。 引起中日双方舆论谴责后,大泽升平在推特上道歉,“对特定国籍者的工作能力的判断,是本公司根据有限的数据对人工智能( AI )进行分析的结果。 “这也是AI系统差别接近2019年末时背上的黑锅吧。

3 .潜在的滥用风险

目前,AI技术还不成熟,虽然没有出现大规模的业务,但只有脸部识别等很小一部分领域是例外。

2019年,可以说是面部识别技术“跳入普通百姓家”的一年。 除了传统的公安部门和金融部门,现在大多数行业都在尝试将人脸识别技术嵌入身份认证和人群活动管理功能中。

2019年10月,杭州野生动物世界因强制游客“刷脸”入园而提起诉讼。 作为休闲娱乐场所,有必要强制游客留下脸部的生物特征信息吗?

作为同样的事例,有中国药科大学在教室设置的脸部识别系统。 该系统可以通过脸部识别技术识别进入教室听课的学生,跟踪听课、模糊、睡觉等课程的状态。

人脸信息是人类最重要的基本生物特征之一,识别度极高,不容易改变。 更重要的是,脸部信息是能够通过远程非接触正确识别的少数的生物体信息。 任意向第三者公开自己详细的脸部信息的个人,第三者可以随时随地非接触地进行自己的认证。 就像把自己的姓名和身份证的信息加密到自己的金额里,随便把密码交给第三者一样。 第三者在数公里外的地方扫描额头的二维码,可以知道你是谁,身份证号码是多少。

这样简单准确的识别信息当然很重要。 因此,各方面利用AI应用的东风广泛收集了公民的个人面部信息。 2019年9月。 《北京青年报》在网络商业街上公开了17万张“脸部数据”,其中包括2千人的肖像画,每人约有50至100张照片。 此外,每张照片中还包含了记述眼睛、耳朵、鼻子、嘴、眉毛等脸部106处重要识别位置的数据文件。 这两千人的脸和个人信息一旦泄露,他们在公共场合的活动就接近“裸奔”,得到这些数据,可以想象出谁是拥有脸部识别功能的照相机,以及身份证号码是多大的年龄。

人工智能所研究的

由于这种潜在的滥用风险,各国政府于2019年开始紧缩AI技术在人脸识别领域的应用。

2019年5月,旧金山市议会以8:1的投票结果通过了禁止警察和其他政府机关使用“脸部识别技术”的决议。 10月,加利福尼亚州知事签署了法令,禁止执法机关在今后3年内使用脸部识别技术。

美国警察设备制造商aquan enterprise于6月宣布不在自己的设备中追加脸部识别软件。 现在,Axon Enterprise为包括纽约和洛杉矶警察局在内的47家美国执法机构提供了便携式照相机。

美国议会研究所( congressalresearchservice )于11月26日发表的《AI和国家安全》白皮书中明确指出“人工智能已经被纳入伊拉克和叙利亚的军事行动中”。

本白皮书的一个重要内容是阐述未来AI技术在“致命自主武器系统”( Lethal Autonomous Weapon Systems,LAWS )领域的应用。 “自主武器系统”是指自动识别目标,自主判断并攻击的系统。 该系统可以完全摆脱人为控制,按照AI系统的“智能”完成作战任务。 其中最为人熟知的“自主武器系统”是战斗机器人。 目前白皮书只是将“自主武器系统”的范围限定在人类操作员监视下运行的自动武器装置和平台上,该系统不能打击人类目标,只能打击物资和设备目标,不是致命的,也不能采用破坏运动能力的攻击形式,或者采用各种形式 但是,众所周知,要改造这样的系统使其成为真正的自动杀人武器,只能冲破窗户。

2019年是AI技术深入社会生活的一年,也是AI系统开始给人类带来麻烦的一年。 如何驯服AI这种能量巨大的“怪物”,是半个世纪前人类放出核能后面临的另一个难题。 核威慑和冷战时代,是AI全面应用后的必然方向,我不知道。 但是,和平利用AI技术,就像和平利用核能一样,是人类在未来几十年到一百年间不断面临的挑战。

大家都在看

相关专题