- 人工智能与法律的对话3
- 彭诚信主编
- 1708字
- 2022-03-21 18:00:47
五、对无人格社会的展望
以上讨论所明确的是,作为近代法体系前提(直到现代仍然构成基础)的所谓“意思—行为—责任”的关联,随着机器人、AI的登场而发生动摇的问题。AI动摇了自我决定,机器人造成了社会构成者在行动身份上的不明确,因此在这种关联最后的责任阶段,对如下问题产生了影响,如责任以何为基础的问题,责任以何种形式在何种范围内产生的问题。面对这种情况,我们能够思考出怎样的解决对策呢?
一种选择,恐怕就是切断上述的关联,试图只从结果来推导出责任。如“政治即结果责任”这般所言,不去追问是否存在动机、意图、故意、过失,考虑只是以发生何种结果为基础来追责的体系,这并不困难。不管这个机器人,或是某种意义上的非完全的人,是否有意图或决断,只要发生了某些负面后果,其都要承担一定的责任。
但是马上就会想到,纯粹的结果责任思想是刑事法领域内我们——或许是作为一段不太愉快的记忆——熟悉的新派刑法学(或称纯粹的结果无价值论)的基础。不把AI、机器人的自我决定和行为人性当作问题的立场,很有可能导致结果无价值论在全体法领域内的复权、扩大。当然应该会想起,新派刑法学关注的是行为主体的内在倾向性,导致国家过早地干预。24如果将主体身怀的危险性归结于犯罪行为以及作为结果所造成的损害的话,那么国家在实际损害发生之前即作介入,能够除去隐患而不造成损害,这种方式自然更受欢迎。从既遂到未遂,再到预备、阴谋,处罚范围的过早化、扩大化也理应是正确做法。同样地,当不考虑人格的有无而是以损害分配为主要问题时,相比危险现实化之后分配损害,应该走向防患于未然,甚至走向事前考虑,即在危险只不过是预测阶段所存在的风险时就进行介入,以将之彻底根除。25
为了实现从人人具有能够担负责任的人格为前提的自由社会到幸福社会的转变,需要每一个主体的行为都处于事先所计划统制的范围内,同时损害的发生可以被预先从风险中消除。通过所谓AI、机器人这类他者的登场,社会中的此般结构性变化是令人期待的。
专栏 关于赛博格(Cyborg)的问题
在欧洲的讨论中,与机器人、AI相提并论的赛博格——对人们肉体的机械改造、扩张,经常成为问题所在。如赛博格小说中所描绘的那样,设想此般案例,将AI处理过的红外线画像和画像中出现的人物信息,叠加到植入代替眼球的摄像头的映像之中,就会产生如下问题,根据图像所作判断在多大程度上是自我决定的。或者说,通过直接和人们的神经系统相连接,来控制一个大型机器人,就会产生如下问题,哪一部分是自我,哪一部分是扩张的自我,抑或是机器人。就此意义而言,赛博格与本章所论述的机器人、AI确实重叠区域很大,考虑到使用假肢的跑者要比健全人跑得更快的现象正在成为现实,就不能把它作为科幻小说问题留待遥远的将来。
但另外需要注意的是,相比于机器人、AI这些并非我等人类的存在且属于可能威胁到我们领域的他者,赛博格恰恰是产生自人类社会内部的问题。几乎没有人会认为使用眼镜来补足视力属于社会问题,这与在眼睛内植入晶状体或是物理操作眼角膜形状的情况,可能没有太大区别。考虑假肢的场合时亦可晓然,没有多少人会抗拒使用机械技术之力,以补正每一个个人所面临的困难,来恢复正常。如果是这样,即使是赛博格技术,若是能实现诸如为残障者提供普通生活的话(例如将摄像图像转换为视觉信息送入视觉障碍者的脑中),这充其量只是有关医疗风险的自我决定(知情、同意)问题,这意味着将会还原到一般意义上的医疗伦理课题。
问题在于以下这一点,赛博格技术究竟是为了正常化,还是试图让利用者具有超出一般人类的异常能力(增强),两者无法简单地剥离。比健全人跑得更快的义足,或能看到“普通人”看不到的红外线画像的视觉障碍者辅助系统,究竟是属于前者呢,还是后者?
但如果在此主张可以接受正常化,却将增强与机器人、AI的问题并提,将之视为人们制造了他者的技术而加以警戒的话,“普通人”“正常人”就将作为判断基准,被赋予强烈的规范价值。紧接着,这就会意味着,无法充分地正常化的存在,例如重度身心障碍者,将被定位为非普通人、异常人,并被排除出社会。
赛博格并非只是新来的他者的问题,而是与如下问题紧密相关:我们自身如何理解我们,什么样的人能够被认为是我们中的一员?