二、对自我决定自律性的追问

(一)认知科学的挑战

但是,对这种居于法律政治系统的基础的个人自我决定之观念,质疑也很强烈。20世纪后半叶以后发展起来的认知科学、心理学,通过各种实验证明:即使当事人进行自主性的选择与认识,也会受到选择状况和周围环境的强烈影响。7

例如,让因右脑损伤导致左手麻痹的患者拍手,就会出现只把右手放在身体正面拍手的动作。若是向其确认“拍过手了么”?对方会回答“拍了”或是“因为不是双手所以笨拙”来将自己的行动合理化。8本杰明·李贝特的著名实验显示,在运动实际开始之后,大约经300毫秒才会产生运动的意思。9“根据李贝特的解释,所谓意志就是拒绝权。所谓自由意志,只不过是在复数并行开始的运动过程中,拒绝不合适过程的机能而已”。10

这些例子或许都带来了如下疑问:人们所假设的对状况进行认识、判断、行为的这一过程是否真的存在,还是说只是在不加判断地作出行动之后,才对行动内容加以合理化、正当化?如果人们的意思只是在现实行为之后产生,那么以此为根据让人们对自己的行为负责岂不是不合理?如果说意思与行为的关系只是在科学上、客观上具有疑问的存在,那么建立在“意思—行为—责任”这一联结基础上的近代法律体系,岂不是从根本上被推翻了?11

(二)架构的权力

即使选择本身是自主的,如果选择项在事前受到物理的限制,后果也会受到制约。例如,把入口的门锁上,就可以事前消除一个选择:“进还是不进。”在铁路站台设置站台门的话,就可以消除视觉障碍者坠轨的危险,以及健全者企图在铁路上自杀的可能性。正是美国宪法学者劳伦斯·莱斯格促使人们注意这一点,通过操作作出选择的物理环境,可以制约人的行为。他将制约对象行为的全体定位为“规制”,并指出在法律、规范等传统规制形式之外,还存在着对环境的物理操作——“架构”。12像在对盗窃行为的制约上,规制不仅包括通过刑事的处罚,也包括对金库的紧锁,不同模式下的规制也会有所竞合。像建筑基准法将设置紧急出口义务化的情况那样,通过以法律来强制设置开辟了行为可能性的架构,不同模式的规制就能共同发挥作用。每一个人作为个人的可能性空间,恐怕就会由这些不同模式的规制的总和来塑造。13

莱斯格指出,在物理操作可能性(“可塑性”)非常高的空间,也就是网络空间(由计算机和运行在计算机上的软件所塑造的世界)之中,形成架构的代码是由国家以外的行为者,通常是活动于全球的软件公司,来制造控制的,我们的自由范围也因此受到了实质性的影响,而民主政治(国家)有效对应的手段很有限。在他看来,我们面临着被非国家主体事前规制的危机。

(三)对幸福的考虑

对此,凯斯·桑斯坦主张,通过活用架构的方法来对选择的环境进行各种硬性或软性地调整,就可以在可能的选择中,调和个人自由选择自己所希望的情况与其结果是社会、本人所希望的情况。14例如在自助式餐厅靠近入口处摆放沙拉和水果,相比把它们放到油炸食品旁边,会增加食客对蔬菜的摄取量。在快餐的套餐菜单中,无特别指定情况下的既定选项(默认)是薯条,但也可在点餐时将之更换为沙拉,在这种情况下以及与之相反的情况下,或是完全将两者并列都作为选项而呈现出来的情况下,选择的结果定然会发生变化。当然,有“今天要吃薯条”的强烈意思的顾客,他的行动可能不会有太大的变化,但即使在这样一个能够保障贯彻自我意思的自由选择环境中,改变选择的定位和配置,也可能会造成结果在统计学和概率学上的差异。桑斯坦将此种手法称为“助推”(nudge,轻轻地推动对方)。因此,他主张,所谓最大限度地保障每一个人作出选择的范围的政治思想(自由至上主义),和考虑到他人福祉而作干预的思想(父爱主义),是可以相容的(自由至上的父爱主义)。

他认为,这种手法不仅可以有利于增进社会全体利益,也能关涉到每一个人的幸福。像在线书店的推荐功能那样,如果系统根据过去的消费记录来积极地推送客户可能会选择、喜欢的备选,那么人们可能会对选择结果更加满意,也就无需一直寻找商品,直到找到符合自己口味的商品为止。助推可以减少“做选择”本身所需的时间和精神负担,如果选择环境的设计者行为妥当,不仅可以使自我决定的当事人,也可以使整个社会更加幸福。但继续选择与到现在为止的选择所类似的,将会造成对志向和趣味的自我强化。对于这种典型的批评(共振室,echo chamber),也可以通过在“推荐”中混入噪音和模糊的程序来解决。桑斯坦把安排偶然地美好邂逅(serendipity)的框架称为“邂逅·架构”,可谓是不仅把自我决定的条件、过程,甚至就连不足之处,也都纳入了规制的手段之中。15

(四)新的可能性

接下来的问题是,将这样的操作选择环境的规制手法与AI相结合的情况。可以思考,例如,在液晶显示型的自动售货机上,产品选择屏幕的排列是以提高选择者便利性这样的方式来操作的。根据以往的消费记录,将选择者实际上频繁选择的产品或与之相近的产品,配置在操作回数较少以及识别成本较低的情况下即可选择的地方。确实可以把这种情况理解为“受到AI辅助的意思决定”,只要把结果(或许在一定程度上受到了AI的影响)视为本人的想法,就没有什么大问题。不过,这样舒适、便利环境的实现,也改变了其发生新变化的可能性,选择与到现在为止的自己所不同的命运的自由,或许就会被缓慢地扼杀。

并非积极地提示而是在消极方向上进行干涉的情况,例如特定商品不被放入浏览列表的情况又将如何?例如像欧盟正在导入的、法制化的“被遗忘权”那样,思考此种案例,想从搜索引擎显示的结果中删除指向特定信息链接的情况。16当然,如果人们事先知道某个网站包含了这些信息,并在浏览器中将之加入书签,那么无论链接是否被删除,人们都能访问到原始信息,所以不太可能认为,人们在实质上所能获取的信息范围不受搜索引擎所显示结果的影响。许多人进行搜索是因为一开始并不了解它,因此指出如果人们知道的话就不会受到影响,这几乎毫无意义。当AI将某种信息判断为本人不会喜欢的信息,将之从日常使用的搜索引擎的表示结果中事先删除而又不告知用户时,或者是AI将判断为本人不会喜欢的商品,从购物网站输入关键词搜索后显示的商品列表中事先删除时,在这样的结果中选择了什么,能否说这是具有充分之责任基础的本人的自我决定呢?某人被监禁在牢狱里,若想要释放就需要签名,如果认为以这样的条件所缔结的契约不具有充分性的话,那么人们被封入由AI所创造的共振室的判断又当如何呢?

或者说,如果产品的配列受卖家意图和销售策略的影响,而不是基于选择者的偏好,甚至更进一步,如果这种策略本身是由AI形成的,这种情况又当如何呢?例如像在本书其他章节(原书161页以下)所讨论的那样,假设有这样的酒店预订系统,它有一个机制,可以根据“利润最大化”的方针(这本身或许可由人类经营者来表明),在对需求状况以及同种服务所提供价格进行监视的同时,自律地决定价格,难道不应该将之视为由AI主导的意思决定或基于AI的意思决定吗?在这种事态下,应该以导入、承认、允许AI的动作来作为理由,或是以AI非人则非法律责任主体即无需问责来作为理由,去使现实上无法发挥自律性的个人来承担“自我决定”的责任吗?