随着人工智能的发展,涉人工智能犯罪问题成为备受关注的话题。近日,华东政法大学刑事法学院刘宪权教授发表了一篇文章,题目叫《人工智能时代的“内忧”“外患”与刑事责任》,详细阐述了关于人工智能犯罪刑事责任承担问题。读完深有感触,受益颇多。
人工智能(Artificial Intelligence),就是我们常听到的“AI”,是指“使机器人像人一样去完成某项任务的软硬件技术”。人工智能可以模拟人类的思考过程,作出判断,实施行为。
随着科技日新月异的发展,人工智能不再是只出现在科幻电影里的“王谢堂前燕”,早已“飞入寻常百姓家”,大家手机上的“Siri”、“小爱同学”,家里的扫地机器人,路上跑的无人驾驶汽车,以及名噪一时的阿尔法狗(AlphaGo)都是以不同形态存在的人工智能产品。
就像其他各种工具一样,人工智能产品也是人类在惰性的激励下产生的,它的出现无疑给人类带来了巨大的便利。但随着人工智能的进一步发展和突破,这个新生的技术可能会给人类社会现有的伦理和法律规范带来极大的冲击,催生新的犯罪形态和与之相匹配的刑事制裁体系就是其中的一环。虽尚不知这一麻烦会在多遥远的未来出现,但“渴而穿井,斗而铸锥,不亦晚乎”,刘教授这篇文章意在未雨绸缪,试图探讨人工智能技术进一步发展可能带来的新型犯罪,以及刑法该如何应对这两个问题。
一、强弱人工智能划分
人工智能产品有不同的划分标准,比如以是否具有外在形态划分、以是否体现为人形划分等等,但是这些划分并不具有法律意义。刘教授在文中主张,以人工智能产品是否具有“辨认能力和控制能力”进行划分,划分出所谓的“弱人工智能产品”和“人工智能产品”。
弱人工智能产品并不具有辨认和控制能力。这类人工智能虽然也可以进行判断并决定接下来的行为,但归根到底,它的行为不会超出设计者和使用者的意志,换句话说,虽然它们在独立运作,但并没有摆脱工具属性,依然是人类手脚的延伸。我们目前所接触的人工智能都是这一类,它们的判断以及和人类的交互,都在设计和编制的程序控制之内。强如阿尔法狗,也依然是弱人工智能,因为它决定的每一步棋都是在贯彻设计者的意志,即战胜对面的人类棋手。
强人工智能产品就比较具有科幻色彩了,它是指那些具有辨认和控制能力的人工智能,目前主要存在于各大科幻影视作品中,如《终结者》中的“终结者”、《生化危机》里的“红后”、《庆余年》里的“五竹叔”等。它们和弱人工智能产品一样,也可以在设计和编制的程序范围内进行判断和决策,贯彻人类的意志,但另一方面,它们也可以不受程序的控制,进行独立的思考和判断,实现自己的意志,即便这个意志和其“主人”的意志相左。
刘教授提到,不要以为强人工智能的出现是纯粹的天方夜谭。“科技的发展是爆炸式的,其发展速度呈几何式提升”,“随着深度学习、神经网络、蒙特卡洛树搜索、云计算等技术的不断发展和完善,当技术突破下一个瓶颈时,出现具有辨认能力和控制能力、能够在设计和编制的程序范围外作出自主决策并实施相应行为、实现自身意志的人工智能产品,其实并非镜花水月、海市蜃楼。”人类科技的发展史就是质疑科技发展者的被打脸史。
二、弱人工智能时代的“外患”
刘教授所称的“弱人工智能时代的‘外患’”,是指不法分子利用弱人工智能完全贯彻使用者意志的特点,命令其实施各种违法犯罪行为,造成恶劣后果的出现。假设现在出现了一款“杀人机器人”,设计者编制程序,命令人工智能机器人见人就杀,那么必将造成难以想象的灾难。
弱人工智能可能在未来被用于实施各种犯罪活动,是犯罪分子犯罪工具的大升级。另外,通过利用人工智能,犯罪分子就无需亲自动手实施,这将更有利于犯罪分子隐蔽自己,给侦查机关的侦查和抓捕带来麻烦。
三、强人工智能时代的“内忧”
强人工智能产品的行为模式有两种:一种是在设计和编制的程序范围内实施的,这时它和弱人工智能产品没有区别,只是使用者手脚的延伸;另一种是超出设计和编制程序范围,是其凭借自主意志实施的。在第一种情况下,强人工智能和弱人工智能并没有什么区别,无需再次讨论。第二种情况,即强人工智能违背设计者和使用者的意志,自主决定实施危害社会的行为,就是刘教授所称的“强人工智能时代的‘内忧’”。
科幻作家阿西莫夫在1940年提出了“机器人三原则”:第一,机器人不得伤害人类,或看到人类受到伤害而袖手旁观;第二,机器人必须服从人类的命令,除非命令和第一条相矛盾;第三,机器人必须保护自己,除非这种保护和以上两条相矛盾。这三条原则一方面表达了人类对人工智能产品产生独立意识后的担忧,另一方面又表达了人类希望人工智能不会失控的美好愿望。但担忧不能只靠美好愿望来解决,我们还是应当在制度上做“不美好”的准备。因此接下来就要讨论,刑事法律体系该如何应对强人工智能产品出现带来的冲击。
四、应对人工智能产品犯罪的刑事责任体系构建
弱人工智能产品犯罪的刑事责任问题非常简单,现有的刑事责任追究体系完全可以应对,因为弱人工智能产品无非就是更高效的工具,依然属于工具的范畴,其实施的行为都是在贯彻人类的意志,因此只追究设计者或使用者的责任即可。强人工智能产品在设计和编制的程序范围内实施的行为同理。
有趣的问题是该如何追究强人工智能产品在独立意志支配下实施犯罪行为的刑事责任。
刘教授认为,强人工智能产品在超出设计和编制的程序范围,在自身意志支配下实施危害社会的行为时,它就应当被认为是一个独立的刑事责任主体,就应当对自身危害行为所产生的危害结果负责。这一貌似理所当然的结论其实是对刑法体系巨大的冲击。
当前我国刑法所认可的犯罪主体只有两类,自然人和单位。自然人不必多言,而另一犯罪主体即单位依然和自然人分割不开。首先,单位是人为拟制的存在,并非实体,它依赖于单位成员而存在。其次,虽然我们承认单位具有独立的意志,但这个意志是单位成员经过决策程序后形成的,其实也是拟制出来的一种独立意志。第三,贯彻单位意志的行为最后还是要由自然人来实施。最后,单位犯罪是双罚制,任何单位在承担刑事责任的同时,必然有自然人因同一事实承担刑事责任。以上种种特点都表明,在当前的刑法看来,任何犯罪意志的产生和犯罪行为的实施,都离不开自然人的参与。
相信读到这里,即便对刑法没有太多基础的人也应该能够意识到,承认强人工智能产品是独立于人类的刑事责任主体,能够独立承担刑事责任,是一个很有颠覆性的观点。
不过刘教授又提到,自然人也不能在任何情况下都对强人工智能产品独立意志支配的行为免责。“人是主体,他既能创造,也应该能够控制,道义上也有责任控制自己的创造物。”刘教授认为,强人工智能产品的设计者和使用者理应对强人工智能产品实施的严重危害社会的行为负有预见、监督义务,并应尽其所能避免此类行为和结果的发生。所以当强人工智能产品实施了严重危害社会的行为时,除了它的刑事责任外,负有预见义务和监督义务的设计者或使用者也有被追究刑事责任的可能。如果强人工智能产品的设计者或使用者违反了预见义务,那么其可能承担的是一般过失犯罪的刑事责任;如果是违反了监督义务,那么可能承担的是监督过失的刑事责任。当然,如果强人工智能产品的设计者或使用者既不可能预见危害结果的产生,也确实履行了监督义务,那么其就无需承担刑事责任。
刘教授还在文中谈到了强人工智能产品和自然人、单位或是其他强人工智能产品共同犯罪的问题,在此不再详细展开。概言之,他认为“两人以上共同故意犯罪”中的“人”,理应包括强人工智能产品。
文章的最后,刘教授还畅想强人工智能产品的刑罚体系,包括删除数据、修改数据和永久销毁这层层递进的三类刑罚方式。删除数据是指删除强人工智能产品实施犯罪所依赖的数据信息,相当于“强制失忆”,让他忘掉那些邪恶的想法,回归良善的状态。修改数据是指强制修改强人工智能产品的基础程序,将其获取外界数据、深度学习的能力限制在程序所设定的范围内,相当于“强制智障”,将它降级成弱人工智能产品。永久销毁很好理解,无需进行过多解释。
其实关于人工智能犯罪刑事责任的讨论,一直有不同的声音,笔者之前也看到过有相关讨论,但并没有特别关注。刘宪权教授的这篇文章,对笔者而言,无论是提出认可强人工智能产品独立刑事责任主体地位,还是相关刑罚体系的设想,都是具有前瞻性的观点和看法。
不过,对于自然人可能因为没有尽到对强人工智能产品的预见、监督义务而承担过失责任,笔者认为,既然认可其辨认和控制能力及自主意识,并且承认它具有独立的刑事责任地位,为什么要设立预见和监督义务,让其他主体对它自主的行为承担刑事责任?文中并没有对他所说的预见、监督义务进行详细阐述。
随着科技的进步,人工智能的出现和发展似乎会对人类超然的地位带来挑战,持“人工智能威胁论”观点的人并不是少数。笔者本人对于人工智能技术并没有太多的了解,也拿捏不准强人工智能给人类带来“内忧”只是一种纯粹的设想,还是说有一定的现实紧迫性,但是不得不说,光是想到那些强大的形象从屏幕走进现实,就让人感到“恐惧”。人工智能到底是人类的未来还是一场浩劫,确实是一个需要慎重思考的问题。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.