刑法如何应对人工智能带来的风险和挑战

江涛

刑法第二百二十五条

江涛

人工智能并不真正具有意识,也不具有责难的意义或适用刑罚的能力,因此人工智能本身并不是适用刑罚的适当主体然而,人工智能带来的许多风险不容忽视。有必要加强人工智能生产者和使用者的规范意识,从刑法理论的角度来回答人工智能生产者和使用者的行为与刑法中相关犯罪的关系。

人工智能属于人类社会的第四次工业革命。它的迅速发展开启了人类用新技术支持新社会结构的新时代。然而,从刑法的角度来看,人工智能带来了什么样的风险和挑战,刑法如何合理处理人工智能,都需要法人的前瞻性思考。

人工智能给社会生活带来双重风险。

人工智能,顾名思义,是一种能够模仿、扩展和拓展人类思维和活动的技术。面对人工智能在世界范围内的快速发展,国务院于2017年7月发布了《新一代人工智能发展规划》,指出“在大力发展人工智能的同时,必须高度重视可能出现的安全风险,加强前瞻性防范和约束引导,最大限度地降低风险,确保人工智能安全、可靠、可控地发展。”“作者认为,国务院发布的文件对人工智能的定位是准确的,这给我们带来了便利和发展,也带来了风险。

1是人工智能技术带来的风险人工智能还没有完全成熟,有许多缺陷。这些缺陷将不可避免地给社会带来一定的风险和严重的影响。例如,在光线不好的情况下,自动驾驶汽车可能会因错误识别“减速”标志而导致人员死亡或重大财产损失,或者驾驶员可能会因自动驾驶系统故障或数据收集不正确而死亡。无人机进入客机飞行路线,造成重大安全隐患的;利用人工智能进行网络军事攻击;等待

2是人工智能制造商制造的风险。就企业生产的人工智能产品而言,它们不仅会使用大量数据,导致公民个人信息等隐私被泄露的风险,可能被别有用心的人利用进行犯罪,还可能被用来进行大规模、高针对性和高效的攻击,从而构成潜在的安全风险。此类风险还包括企业非法制造机器人,以及用户拒绝销毁危险机器人。如果没有严格的控制,这种风险会蔓延到经济、文化、教育等领域,带来严重的社会安全问题。

笔者认为,为了适应社会的发展,更好地应对人工智能时代面临的新问题和新挑战,不仅有必要回答人工智能是否具有刑事责任能力的问题,而且有必要从刑法理论的角度回答人工智能所涉及的犯罪问题。

人工智能不具备刑事责任能力。

人工智能对刑法的挑战首先在于归罪许多人讨论过人工智能是否具有刑事责任能力,并且有一个肯定或否定的结论。

通过梳理人工智能的发展,不难发现,虽然人工智能是“神奇的”,但它离不开两个必要条件:第一,人工智能离不开大数据的支持没有足够的数据作为训练样本,人工智能无法发现自己算法中的漏洞,也没有机会修正算法函数,因此错误是不可避免的。第二,人工智能离不开计算能力的提高和深度学习框架的构建。深度学习框架对人工智能具有重要意义。其原理是建立一个多层人工神经网络,借助神经生理学知识模拟人的神经活动,然后输入大数据进行训练和学习,根据训练结果重新设置参数以适应正确的结果,最终实现模拟人脑的功能。大量的计算和固定的框架使得人工智能更擅长处理日常事务,但是一旦规则改变,情况就大不相同了。这对于人工智能能否作为归责主体具有重要意义。笔者认为,尽管目前仍处于“人工智能薄弱时代”,人工智能的未来发展前景仍不明朗,但从目前来看,人工智能只是帮助人类完成那些有规律可循、没有真正意识、不应该有刑事责任能力的重复性工作的工具。

一、人工智能并没有真正的意识从目前的研究状况来看,人工智能主要是由人类预先设置处理步骤,然后通过大量计算获得不同决策的分数,并根据分数选择哪些行为。尽管人工智能似乎能够像人类一样自主决策,但这些决策都是在设计者预设的算法框架内做出的。所谓的“自治”只是不同决定之间的选择。人工智能没有人类智能的所有一般智能,也没有对惩罚和自由意志的敏感性。

其次,人工智能没有反对的意义。刑罚是一种文化现象。人类社会形成的无期徒刑和自由刑之所以至今有效,是因为刑罚和惩罚都可以通过感知和传递的方式呈现出来,从而恢复被破坏的社会关系,从而改变人们的认知,使犯罪的受害者满足报应的情感,使犯罪者忏悔,使公众感受到惩罚的力量和必然性等。如果惩罚不能满足这种情感需求,那么惩罚就毫无意义。人工智能是信息技术革命的产物。它无法理解刑事处罚的含义。惩罚机器人比直接抛弃或摧毁机器人更有社会意义。此外,通过惩罚措施,人工智能带来的风险无法消除,防止累犯的惩罚目的也无法实现

第三,人工智能没有实施惩罚的能力。作为一种剥夺他人生命和自由等权益的行为,惩罚是否适用必须考虑被惩罚对象的惩罚能力,这是预防犯罪的需要。这种惩罚能力与被惩罚者的自由意志有关。目的是让被处罚人认识到处罚带来的痛苦,从而纠正过去的错误,重新做人,从而消除再犯的危险。从自由意志的角度来看,人工智能的价值体现在工具中,它的自由意志是人工的和虚拟的。从惩罚能力的角度来看,人工智能作为一种工具,本身没有自由或财产,而是设计者或使用者的一种财产。自由惩罚和财产惩罚都不会对人工智能造成损害。刑罚真正能起到威慑和惩罚犯罪的作用,只有设计者或使用者才能实现。

人工智能的刑法理论解决方案

由于人工智能带来诸多风险,导致受刑法保护的合法权益遭到破坏或有被破坏的危险,而人工智能本身又不是适用刑罚的合适主体,因此有必要加强人工智能的生产者和使用者的规范意识,从刑法理论的角度来回答人工智能的生产者和使用者的行为与刑法相关犯罪之间的关系

“企业保证人义务”与拒绝履行信息网络安全管理义务罪企业应从人工智能技术的培训开始,遵循谨慎的规则,识别和处理可能的危害,履行保证人的义务,确保设计的人工智能技术安全、完美。如何认定保证人的义务可以参照民法的规定。设计的人工智能技术必须经过大量全面的实验测试,以确保在投放市场之前不会对他人的人身或财产安全造成损害。否则,将被视为未能履行保证人的义务。对于已经投放市场的人工智能技术,有必要跟踪和关注安全状况,及时召回有缺陷的技术产品,并对已经造成的损害进行赔偿。如果你不履行保证人的义务,你可以被列入刑法的范围。具体而言,不履行保证人义务,导致人工智能扰乱网络秩序,影响网络安全的,可视为企业为人工智能服务提供者,但不履行信息网络安全管理义务,以拒绝履行刑法第二百八十六条规定的信息网络安全管理义务罪定罪处罚。此外,不履行保证人义务会对他人的人身或财产造成严重损害,可视为不履行危险源管理义务,从而构成相应的不作为犯罪

“企业监管失灵”与非法经营罪底线条款的延伸解释人工智能是一个既有风险又有收益的专业行业。要从事这一行业,必须对企业的R&D能力进行评估和审查,向评级合格的企业颁发人工智能技术经营许可证,禁止评级不合格的企业从事R&D人工智能工作。与此同时,人工智能的产品许可和监督系统是结合先前和随后的审查而建立的。专业机构应根据相关安全标准,对人工智能中数据和算法的功能和可能存在的风险进行评估,并对评估通过的产品发放生产和销售许可证,确保人工智能设计的合法性和安全性。事件审查后,应采用注册系统记录人工智能技术的设计者和使用者的信息及其主要功能。改变主算法使函数发生实质性变化,需要改变函数注册;人工智能技术的转移需要注册用户信息的变化。对违反营业执照制度、产品许可证制度和监管制度的企业,适用刑法第二百二十五条第四项非法经营罪的自下而上条款定罪处罚。当然,前提是要制定相关的司法解释。

“用户数据”与侵犯公民个人信息罪用户数据是公民的个人信息,属于用户自己。人工智能在挖掘和分析大数据时不能忽视对公民个人信息的保护。虽然现行法律对个人信息的定义和保护已有明确规定,如《民法通则》第111条、《网络安全法》第41条和《关于侵犯公民个人信息刑事案件适用法律若干问题的解释》第1条等。,目前列入“公民个人信息”保护范围的只是能够识别特定自然人身份或反映特定自然人活动的各种信息,包括姓名、身份证号码、联系方式、地址、账号、去向等。笔者认为,公民个人信息的保护范围应该扩大,如用户的行为习惯,公民经常搜索与财务管理相关的内容,因此财务管理产品的链接开始频繁出现在浏览的网页上,因为用户的搜索记录被分析为有财务管理倾向虽然披露类似信息不会对公民的人身和财产安全构成威胁,但过度分析会侵犯公民的隐私,使公民的生活变得透明。在这方面,我们应该摆脱对公民人身和财产安全的限制,将个人隐私和其他对公民生活有重要影响的信息纳入刑法对公民个人信息的保护范围。《刑法》第253条可适用于未经许可挖掘或使用用户个人信息造成严重后果的侵犯公民个人信息罪的定罪和处罚。

“拒绝破坏”与危险方法危害公共安全罪为了降低人工智能的风险,除了规范人工智能企业的活动外,我们还应该关注人工智能技术的非法使用。随着人工智能的发展,逐步普及是人工智能的未来趋势。当这些人工智能产品被非法使用时,涉嫌犯罪的人工智能产品将被没收并销毁。《刑法》第114条和第115条适用于拒绝销毁的人,可以以危险方法危害公共安全罪定罪处罚。这种解释的原因是:从近年来无人机造成飞机停飞、自动车因路标识别错误造成行人死亡的现象来看,人工智能产品具有很高的风险,会对大多数人的人身和财产安全造成严重影响,这符合以危险方法危害公共安全罪的法律利益保护范围。以危险方法危害公共安全罪是自然人犯罪,主体只能是自然人。与企业不同,非法使用人工智能产品的公民个人可能会以危险的方式成为危害公共安全的犯罪主体。

大家都在看

相关专题