刘宪权
华东政法大学功勋教授,“经天学者”讲席教授,博士生导师
一、问题的提出
生产力是推动人类社会发展的根本动力,而生产工具则是影响生产力大小的决定性因素。生产工具的革新直接决定着生产力的发展,进而推动社会形态的变迁。对人类历史的发展脉络进行梳理后不难发现,上述规律贯穿于整个人类社会发展史,无论是远古时期的石器时代、青铜时代以及铁器时代,亦或是近现代时期的蒸汽时代、电气时代以及信息时代,无一不是由生产工具的革新而引发的社会形态跃迁。由此可见,人类对具有划时代意义的新型生产工具的发现与运用,必将引发深刻且全面的社会变革。在第三次工业革命之后,电子计算机和互联网成为人类社会中必不可少的重要生产工具,人类也就此进入了信息时代。以此为基础,当电子计算机和互联网发展到一定程度时,也必将衍生出具有更强生产力的下一代生产工具,并将由此引发第四次工业革命,也即人工智能技术的爆发与运用。近年来,相关技术领域的尖端科学家对人工智能发展的进程形成了一个基本共识:人工智能的发展必然依次经历三个阶段,第一阶段是经过长期专业训练的狭义人工智能(ANI),第二阶段是具有强大自我学习能力和跨领域能力的通用人工智能(AGI),第三阶段是远远超越人类智能的超人工智能(ASI)。这与笔者早先对人工智能发展阶段所作出的划分具有一定相似之处,也即人工智能的发展将逐步进入普通机器人时代、弱人工智能时代和强人工智能时代。然而通过对比不难发现,笔者对人工智能发展阶段的划分更为全面,因为笔者所称的弱人工智能时代实际上已经同时包含了狭义人工智能(ANI)和通用人工智能(AGI),而笔者所称的普通机器人时代(以ATM机为代表)则并没有被相关技术领域的科学家纳入讨论范围。但是,不论采取何种划分标准,无非都是在重申这样一个事实:人工智能的发展将是一个人工智能机器人的辨认能力与控制能力逐步增强、自然人之意识与意志对人工智能机器人“行为”的作用逐渐减弱的过程。在人工智能的每一个发展阶段,都有其鲜明的技术特征和代表性应用。例如,2016年AlphaGo(中文谐音译名:阿尔法狗,谷歌公司研发的围棋程序)的出现意味着人工智能的发展进入了狭义人工智能(ANI)阶段,同时标志着狭义人工智能(ANI)在某些特定的领域达到并超越了人类智力水平。AlphaGo凭借其出色的深度学习能力,一举成为第一个战胜人类围棋世界冠军的人工智能机器人,这不仅引起世界舆论的哗然,也就此开启了包括笔者在内的法学学者对人工智能所涉法律风险样态及其法律责任归属模式的讨论与研究。2022年,ChatGPT(Generative Pre-trained Transformer,生成式预训练转换器)的问世标志着当前的人工智能技术已经发展到了通用人工智能(AGI)阶段,这也意味着远超人类智能的超人工智能(ASI)即将是人工智能的下一个发展样态。弱人工智能与强人工智能之间的“技术奇点”似乎马上出现,人工智能自身的意识、意志因素迅速增强甚至极度“膨胀”,这必将从根本上影响既有的包括刑事责任在内的法律责任分配规则以及法律责任主体范围。
毫无疑问,以ChatGPT为代表的新一代生成式人工智能的产生具有革命性和划时代意义。生成式人工智能的存在和发展必然极大程度引发社会生产力的新一轮爆发,进而决定生产关系发生重大改变,特别会对社会形态、劳动生产、生活方式等方方面面带来重大影响。2023年4月28日召开的中共中央政治局会议指出,要重视通用人工智能发展,营造创新生态,重视防范风险。人民日报等权威媒体也针对通用人工智能表态称:“积极推进人工智能治理,要有一定的前瞻性”。笔者认为,ChatGPT等生成式人工智能之所以能够引起相关技术领域、社会科学领域专业人士以及社会各界的担忧,在本质上是因为相关人工智能技术已经在一定程度上产生了失去自然人控制的可能,也即ChatGPT等生成式人工智能的迭代版本存在摆脱自然人控制的危险。在具有千亿级甚至万亿级参数量的通用大模型面前,研发者难以精准控制或解释每一个算法的细节,“技术黑箱”问题也由此产生。具体而言,虽然人工智能通用大模型能够高质量地生成各种人类所需的内容,但研发者可能无法解释其决策的依据和原因,这也导致了ChatGPT等生成式人工智能进行具体决策时的不可解释性。在某种意义上,这或许就是导致ChatGPT的研发团队无法解释ChatGPT如何产生逻辑推理能力的原因。随着ChatGPT等生成式人工智能的进一步发展,将来极有可能出现能够摆脱自然人控制、具有独立、自由意识意志的人工智能,而这就必然会引发法学界对其法律地位以及责任能力和责任承担路径等问题的关注和讨论。对此,笔者在早先研究的基础上,着重从刑事责任的法哲学基础、刑事责任主体的本质特征以及涉ChatGPT等生成式人工智能刑事责任承担路径等方面,进一步对这一问题展开研究。
二、ChatGPT的技术特征及其对刑事责任的影响
(一) ChatGPT的概念与技术特征
ChatGPT在本质上是基于GPT模型(Generative Pre-trained Transformer,生成式预训练转换器)的一种生成式人工智能聊天机器人,使用了名为“Transformer”的人工神经网络和大规模预训练技术,能够自主学习大量自然语言文本的结构和规律,从而实现文本生成、代码生成、文本问答、论文写作、逻辑推理、情感分析、多语种翻译等功能。自2022年11月被正式发布以来,ChatGPT已经完成了由GPT-3.5到GPT-4的迭代升级,向世人展示了生成式人工智能惊人的内容生成能力与升级速度。根据OpenAI(美国顶级人工智能公司)和微软公司公开的官方数据和研究报告,GPT-4已经具备较强的逻辑推理能力和创造能力,甚至具有通过自身生成的编程代码进行迭代升级和自我完善的能力。多模态预训练大模型的应用前景十分广泛,可以被嵌入文本、绘画、音像、教育、办公软件、证券投资等多个领域,所以自ChatGPT发布以来,众多使用预训练技术的人工智能大模型也如雨后春笋般涌现。例如,百度的“文心一言”、阿里的“通义千问”、科大讯飞的“星火大模型”等等,都是具有千亿级甚至万亿级参数量的人工智能通用大模型。因为ChatGPT能够像自然人一样思考和推理,并且能够接近甚至超越自然人思考和判断的水平,所以引起了相关技术领袖的警觉与恐慌。换言之,当被自然人创造出来的人工智能已经在某种程度上超越了自然人本身所具有的智能时,我们确实有必要去思考这样一个问题:我们是否应该冒着被取代甚至被毁灭的风险去创造胜过自然人智慧的人工智能?马斯克等千名科技人士紧急呼吁,应当立即停止训练比GPT-4更强大的AI系统,暂停期至少为6个月。马斯克同时也在世界人工智能大会上表示,人们通常都低估了AI的能力,可能认为它是聪明的人类,但实际上AI远不止于此,AI最后一定会全面超越人类。被誉为“人工智能教父”之一的人工智能先驱杰弗里·辛顿日前辞去了他在谷歌的职位,以便自己可以公开表达“人工智能可能对世界造成重大伤害”的看法。OpenAI首席执行官兼联合创始人山姆·阿尔特曼(Sam Altman)在参加美国国会的听证会时呼吁政府监管AI。截至目前,很多技术领袖、科学家与多国政府管理机构都表示了对ChatGPT等生成式人工智能的极大担忧,并且都呼吁建立健全监管人工智能的机制和相关措施。
当一众科技领袖与政府组织都在警告ChatGPT等生成式人工智能可能带来巨大风险时,我们要秉持透过现象看本质的态度,拨开牛骥同槽的迷雾,探究ChatGPT等生成式人工智能的技术突破点到底是什么?ChatGPT等生成式人工智能与以往的人工智能技术究竟有何不同?如此才能进一步明晰ChatGPT等生成式人工智能对刑法理论以及刑法适用的具体影响。在风险社会背景下,犯罪样态将发生重大改变,这也给传统刑法以及刑事政策带来了巨大的挑战。为此,笔者将ChatGPT等生成式人工智能的技术特征进行如下梳理:
其一,Transformer架构。Transformer架构是ChatGPT等生成式人工智能大模型的底层技术支撑。Transformer架构是一种著名的深度学习模型,可以被广泛应用于自然语言处理(NLP)、计算机视觉(CV)和语音处理等众多领域,基于Transformer架构的预训练模型可以在各种任务上实现最先进的性能。具体而言,ChatGPT采用了编码器-解码器的Transformer架构,编码器用于理解和识别输入的文本、图片等内容,而解码器则用于生成相应的响应文本。通过Transformer架构,ChatGPT等生成式人工智能可以对输入文本进行编码、理解上下文,进而生成逻辑连贯的回答。
其二,预训练+微调技术。在深度学习中,预训练和微调是用于训练大模型基础性能的一种常见训练策略。根据OpenAI的官网介绍,ChatGPT运用了“预训练+微调”的技术模式。预训练语言模型使用大规模文本语料库数据(Large-scale text corpus)进行预训练(Pre-training),建立预训练语言模型(Pre-trained language models),然后使用面向特定任务的小规模语言数据集(Task datasets),再根据迁移学习的原理进行微调(Fine-tuning),形成下游任务的模型(Models for downstream tasks)。简而言之,在预训练阶段,ChatGPT使用大规模的非标记数据进行自监督学习,使大模型建立起对语言结构、语义关系和人类知识的理解能力并加以学习;在微调阶段,大模型使用特定任务的标注数据进行有监督学习,以提高性能并适应特定的应用场景。
其三,自我纠错能力。除了被用于预训练大模型的微调(Fine-tuning)技术,ChatGPT还具有一定程度的自我纠错能力。ChatGPT等生成式人工智能可以根据对上下文的理解以及用户的反馈来改进自身生成的内容。换言之,ChatGPT等生成式人工智能可以在一定程度上纠正自身的错误或先前生成的错误回答。
其四,生成式模型。不同于以往的“检索式”模型,ChatGPT最引人注目的标志性技术特征就是生成式模型。ChatGPT等生成式人工智能可以通过人类能够理解的形式自主生成各种内容,不仅可以从预训练的答案中进行选择,还能够生成全新的、具有创造性的内容。但是,由于用户无从得知生成式模型所生成内容的依据具体从何而来,所以生成式模型也具有信息来源不明确、缺乏事实验证等一系列较为突出的缺点。这导致用户无法直接判断ChatGPT等生成式人工智能所生成内容的正确性,还需要用户通过对比其他权威信息来源等方式加以验证。
其五,通用大模型。ChatGPT等生成式人工智能可以处理多种领域的任务,具体包括提供信息、回答问题、解释概念、对话问答、提供建议、编辑程序代码、智能绘画、语言翻译等。如此广泛的可应用性使ChatGPT等生成式人工智能可以适用于不同的应用场景,这也是通用大模型不同于以往单一领域应用(例如AlphaGo)的关键之处。
其六,多语种支持。ChatGPT等生成式人工智能可以学习所有人类语言,甚至可以熟练掌握同一种语言的不同方言。作为大型语言模型(Large Language Model),ChatGPT等生成式人工智能对人类语言的掌握与运用可谓炉火纯青。在目前的GPT-4版本中,人们已经很难分辨ChatGPT所生成内容与人类语言表达的不同。
综上所述,ChatGPT等生成式人工智能具有非同以往的新特点、新能力。如果说以往的人工智能主要是取代了人类的体力劳动(例如无人生产车间等),那ChatGPT等生成式人工智能则在很大程度上主要将取代人类的脑力劳动,并朝着超人工智能(ASI)的方向发展。ChatGPT等生成式人工智能才是真正意义上的自然人所创造的类似甚至超越人类的“智能”,其知识载量和智能程度必将远超自然人的头脑,判断素材和决策速度极大地超越人类。因此,ChatGPT等生成式人工智能将成为人类的决策顾问和智能代理,其独立意识和意志将逐渐显现,这也必然对犯罪行为类型和刑事责任分配造成重要影响。
(二) ChatGPT等生成式人工智能对刑事责任的影响
因为ChatGPT等生成式人工智能具有一定的创造性和自主决策性(自主决定生成的内容),所以其在某些情况下可以部分分担甚至完全承担对某个特定结果的因果力作用,从而导致自然人刑事责任的认定和承担上的变化。换言之,在引起犯罪结果或者其他危害后果的因果关系中,ChatGPT等生成式人工智能不仅可能处于起决定性作用的关键地位,而且是从意识和意志层面参与了“行为-结果”的因果流。正因为如此,ChatGPT等生成式人工智能就可能会对刑事责任的分配或分担产生重大影响。具体表现为以下几点:
首先,ChatGPT等生成式人工智能可能改变传统犯罪的行为类型并且加重行为人的刑事责任。目前,在司法实践中已经出现大量“换脸”“换身”“换声”的新型诈骗形式,行为人通过人工智能技术在视频聊天中模拟出被害人熟悉的人物形象进而实施诈骗。这种出人意料的新型诈骗方式不仅改变了传统电信诈骗的行为类型,而且给行为人实施犯罪提供了巨大便利。甚至可以说,没有ChatGPT等生成式人工智能,就没有以上新型诈骗形式。在ChatGPT等生成式人工智能的加持下,行为人实施诈骗犯罪的“成功率”更高、案值更大,其刑事责任也相应加重。除此之外,时下在各大电商平台也兴起了虚拟人带货直播,借助于高效率低成本的AIGC内容生成,一个虚拟主播的经营成本已经降低至百元层级,这些不知疲倦的AI主播,已经明显展露出极高的性价比优势。一旦直播卖出的产品具有严重质量问题,那么相关行为人可能构成销售伪劣产品罪、销售不符合安全标准的食品罪等销售伪劣商品类犯罪或者非法经营罪等其他犯罪。无论是理论上还是实践中,利用虚拟人直播销售伪劣商品的行为都是一种新兴的犯罪行为类型。尽管在大多数情况下我们可以通过传统罪名直接对相关行为加以适用,但是,毋庸置疑,ChatGPT等生成式人工智能的利用确实会改变或者增强传统犯罪的危害程度或行为样态。换言之,借助于ChatGPT等生成式人工智能,自然人(行为人)可以实施社会危害性更高、行为样态更复杂的犯罪行为。在这些情形中,ChatGPT等生成式人工智能给整个犯罪过程起到了重要的加功作用。当然,我们也应该清楚地看到,由于在这些情形中ChatGPT等生成式人工智能仅仅只是充当犯罪工具而没有参与“智能决策”,因此,只能由自然人(行为人)承担所有的刑事责任。综上所述,在ChatGPT等生成式人工智能的加功作用下,传统犯罪的行为类型可能发生改变,自然人(行为人)可能因借助于ChatGPT等生成式人工智能实施具有更为严重社会危害性的行为,进而可能在不改变传统罪名的前提下承担更重的刑事责任。
其次,ChatGPT等生成式人工智能可能影响刑事责任的分配或转移。“智能”本来是人所特有的,但是,在人工智能时代,人工智能技术在本质上是人类创造了本来只有自然人才具有(或超人)的“智能”的技术。在当下的弱人工智能时代,ChatGPT等生成式人工智能可以在一定程度上替代或者分担人类的大脑功能,辅助甚至取代人类完成智能决策,进而通过减少自然人在行为过程中的“自由意志”因素而影响刑事责任的分配。例如,当被应用于自动驾驶等场景时,ChatGPT等生成式人工智能根据其智能程度分担了一定的人脑功能,代替人类进行了加减车速、变换车道等智能决策。因此,进行智能决策的“智能”的来源应当与驾驶者共同承担相应的刑事责任,并且应当按照其智能参与程度,对各相关主体所应承担的刑事责任进行“打折”分配。简而言之,承担刑事责任的法理基础是刑法对相关行为主体具有“可归责性”,而“可归责性”来源于行为主体具有选择不实施犯罪的能力却最终选择了实施犯罪的“自由意志”。在“行为-结果”的因果链条中,可以被刑法归责的依据主要是行为人的“自由意志”,而ChatGPT等生成式人工智能正是在独立于驾驶者之外的意识、意志层面参与了犯罪,因此其应当按照智能参与比例共同分担刑事责任。不过,在ChatGPT等生成式人工智能没有超出编程设计或者研发者违反注意义务的情况下,应当由相关技术研发人员承担ChatGPT等生成式人工智能所造成危害的对应刑事责任。
最后,ChatGPT等生成式人工智能可能影响现有的刑事责任主体范围。刑法因为重视稳定性而无可避免地带有滞后性,但这种滞后性应当体现在立法之中而不是萦绕于理念之上。笔者一直强调,弱人工智能机器人不能成为刑事责任主体,但是具有辨认能力和控制能力的强智能机器人可以且应当成为刑事责任主体。强智能机器人能够在自主意识和意志的支配下独立作出决策并实施严重危害社会的行为,理应将其作为刑事责任主体,并针对其特点设立特殊的刑罚处罚方式。不可否认的是,在目前生成式人工智能的版本中,确实暂时没有出现ChatGPT等生成式人工智能大规模突破人类程序限制而产生独立意识、意志的情况。换言之,就目前看来,ChatGPT等生成式人工智能虽然在某些方面或某种程度已然接近强人工智能的技术特征,但是,其并没有也不能产生自主意识,其行为仍受研发者、生产者编程的实际控制,尚不具备强人工智能“脱离编程,在自主意识和意志下独立实施行为”的重要特征。需要指出的是,实践中确实出现了ChatGPT等生成式人工智能“自发”实施侵犯他人权益的行为。但是,这里的“自发”并非源于其具有独立的意识和意志,而完全是由于生成式人工智能固有的深度学习能力和推理能力使然。ChatGPT等生成式人工智能在一定时间内的自我学习及训练过程中吸收了很多虚假、非法信息,且其尚且不能做到每次准确理解用户的意图,导致生成的数字文本具有一定的错误率。由此可见,时下我们无论如何不能认为现阶段出现的生成式人工智能已然达到强人工智能程度而可以成为刑事责任主体。
但是,以发展的眼光来看,ChatGPT等生成式人工智能极有可能在后续的迭代版本中出现人类无法解释的智能程度并就此产生独立于人类的意识和意志。届时,ChatGPT等生成式人工智能将实现通用人工智能(AGI)向超人工智能(ASI)的飞跃,从而可能成为适格的刑事责任主体。当然,理论界对这一问题的讨论一直有肯定说与否定说的激烈论战,可谓众说纷纭,莫衷一是。但是,依笔者之见,人工智能技术这艘巨船不会因为风浪而裹足不前,围绕着人工智能技术的理论创新也不会因争论的存在而偃旗息鼓。
三、ChatGPT等生成式人工智能刑事责任研究需厘清的四大关系
笔者认为,刑法是最后一道屏障,是其他法律的后盾。刑法具有的最后手段性,只能说明在立法层面上刑法仅需对具有严重社会危害性且其他部门法律调整不足的不法行为进行规制,而并不能说明刑法理论研究和刑事立法工作应当等候前置法内容“更新”完成后再予以“跟进”。有关人工智能技术的法律研究和立法完善工作更是如此。当人工智能科技的发展具有划时代意义且会带来革命性变革时,理论上我们应该充分关注并紧随其“日新月异”的技术发展步伐,而不应该“固步自封”躺在传统教义学研究上对最新的科技革命持视而不见甚至熟视无睹的态度冷漠对待之,更不应该引用一些传统理论(甚至老祖宗的观点)对人工智能法律责任研究的理论和观点随意进行批判甚至“冷嘲热讽”。
在人工智能时代,自然人不再是拥有智能的唯一主体。人类制造出了原本只有自然人才具有的“智能”,并以各种智能机器人作为这种“智能”的载体。我们之所认为,ChatGPT等生成式人工智能代表着目前世界范围内已公开人工智能技术的最先进水平,完全是因为其具有最先进的“智能”水平。如前所述,根据人工智能机器人是否可以脱离人类设计和编制的程序自主实施行为,我们可以将其划分为弱智能机器人与强智能机器人。从ChatGPT具有逻辑推理能力、创造能力、自我纠错等能力可以看出, ChatGPT等生成式人工智能已经处于弱智能机器人与强智能机器人的临界点。在GPT-5等之后的迭代版本中,ChatGPT极有可能实现对人类程序设定的突破,进而成为具有辨认能力和控制能力的强智能机器人。尽管ChatGPT等生成式人工智能已经实现了巨大突破,但仍有部分学者坚持认为人工智能不可能成为刑事责任主体。对此,我们首先应当厘清讨论ChatGPT等生成式人工智能刑事责任问题时可能涉及的四大关系。
(一)刑事责任主体与人的关系
应该看到,在人工智能是否可能成为刑事责任主体的问题上持否定说的论者认为,刑法是规定犯罪、刑事责任和刑罚的法律规范。刑法现在是将来也只能是调整自然人行为的法律规范,由于人工智能永远不可能成为有血有肉的自然人,因此,人工智能永远不可能成为刑事责任主体。对此观点,笔者不能苟同。多年以来,理论上一直有论者发出“人工智能是人吗?”这一质疑。客观地分析,笔者认为,这一质疑本身就是一个“伪问题”。因为到目前为止理论上和实践中几乎无人持“人工智能是人”的观点。依笔者之见,与其讨论“人工智能是人吗?”还不如讨论“人工智能是机器吗?”这一问题,这是因为,时下大多数否定人工智能可能成为刑事责任主体的论者普遍认为人工智能无论如何发展,均改变不了其是机器的本源。笔者多年之前就主张,人工智能不仅不是人而且也不像人,人工智能永远不可能成为人。人工智能既不是机器也不是人,而是“机器人”。人工智能只有在具有独立意识和意志的情况才可能具有责任能力,进而有可能成为刑事责任主体。我们不能因为人工智能不是人或者不像人而就断然否认其成为刑事责任主体的可能性。实际上,我们可以换一个角度思考这个问题:事实上,并非所有的自然人都一定能够成为刑事责任主体,例如,精神病人和幼童等不具有刑事责任能力的自然人,尽管他们是人但却不能成为刑事责任主体。在此基础上,我们完全可以提出一个相反的质疑:是否因为ChatGPT等生成式人工智能不是人,而就一定不能成为刑事责任主体?笔者对这一质疑的回答当然是否定的。
有观点认为,“无论人工智能的能力有多强,有多接近人,但毕竟不是人,不能与人相等同,现有法律直接将其作为人来调整在逻辑上是悖论”。这种观点认为所有法律都是以“人”为中心构建的,“人”在法秩序构建过程中的主导性排除了包括人工智能在内的其他一切主体存在的可能性。其实,这种观点存在明显的漏洞。如前所述,能够成为刑事责任主体的本质条件并不是因为其是“人”,而是其具备相应的辨认能力和控制能力。换言之,具备相应的刑事责任能力才是自然人成为刑事责任主体的关键条件。人工智能不是人也不会成为人,但这并不能完全否定人工智能可以产生辨认能力和控制能力,进而具有承担刑事责任的可能。刑法中规定的“人”具有特殊的法规范含义,其范围绝非等同于生物学意义上的“人”。根据刑法规定,不满12周岁的人和不能辨认控制自身行为的精神病人都绝对不能作为刑事责任主体而承担刑事责任,这足以证明刑法所承认的具有刑事责任主体地位的“人”,必须是具有辨认能力和控制能力的“人”。因此,虽然具有刑事责任能力的人可以成为刑事责任主体,但这并不意味着刑事责任主体被“人”所垄断。例如,现行刑法明确规定,不是“人”的单位就可以具有刑事责任主体地位,能够独立承担刑事责任。由此可见,刑法规制的“人”并不是将生物特性作为本质特征。刑法对刑事责任主体地位的赋予,并不要求某一主体齐备“人”的生物性能,而是将刑法的规范意义作为核心判断要素。当超出编程限制的ChatGPT等生成式人工智能能够像人一样进行独立思考、感知外部世界并独立进行活动时,通过其自主独立的活动影响客观世界,即成了行为自由的主体,同时也成为了强人工智能。强人工智能能够独立进行自然人为其设置编程之外的自主行为,通过人工神经网络技术获得意识支配下的自由意志,其存在是建立在自己的思考之上。这意味着强人工智能并不受控于设计者、研发者和操作者预设的程序和机理,对于人类下达的指令、预设的目标或者冲突解决规则很可能被强人工智能否定,突破人类所赋予它的“代码源”或算法限制,做出独立于人类的价值和规则的选择。此时,ChatGPT等生成式人工智能完全具备辨认能力和控制能力,刑法赋予其刑事责任主体地位就成为理所当然。
(二)刑事责任主体与生命的关系
顺着前文的观点,我们再深入讨论一下刑事责任主体与生命之间的关系。笔者认为,不是因为自然人有生命,而就一定具有刑事责任能力;反之,也不是因为ChatGPT等生成式人工智能没有生命,而就一定不具有刑事责任能力。有观点认为,单位之所以能够成为刑事责任主体,究其本质是因为其以有生命的“人”为基础,是“人”的组合体;而人工智能不具有这一性质,不是以有生命的“人”为组成要素。因此,人工智能等除人以外的其他非生命体不可能获得刑法主体地位。
其实,上述观点以及相类似的其他观点实际上陷入了一个误区,那就是过分关注或者强调能够成为刑事责任主体的“主体形式”,而忽略了刑事责任主体背后的本质因素——刑事责任能力(即辨认能力和控制能力)。笔者认为,辨认能力和控制能力反映在ChatGPT等生成式人工智能上就是其“智能化程度”。ChatGPT等生成式人工智能能够模拟出人类思考的自主意识,甚至比人类大脑更加智能,进而成为比肩人类的“新物种”。尽管刑事责任主体与生命具有一定的联系,但并没有必然联系,因为猫狗等动物也具有生命,但它们不能成为刑事责任主体,而单位不具有生命,但其却能够成为刑事责任主体。德国著名法学家拉德布鲁赫曾说,“法律主体是被特定时代的实定法当作目的本身来尊重的事物”。所谓“目的本身”是指法律主体的存在本身即为最终目的,不需要其他事物进行论证证明。由此可见,刑事责任主体具有时代性特征,其必将随着时代的变化而变化,并非只能局限于自然人等生命体,具有自由意志和实践理性的“非生命体”也完全可以在特定的历史背景下成为刑事责任主体。试想,如果ChatGPT等生成式人工智能的智能化程度达到了能够足以辨认和控制自己行为的高度,那么其辨认、控制能力和人类的辨认、控制能力在本质上则就没有什么差异。在此情况下,还有什么否定强人工智能成为刑事责任主体的理由呢?
(三)辨认、控制能力与头脑的关系
与前文基本相同的问题是,刑事责任主体的辨认、控制能力与头脑的关系。应该看到,自然人的意识和意志源于何处?至今为止,这一哲学问题仍然困扰着人们而没有一个令人信服的标准答案。笔者认为,不是因为自然人有头脑,而就一定具有意识意志(辨认控制能力);反之,也不是因为ChatGPT等生成式人工智能没有头脑,而就一定不具有意识意志(辨认控制能力)。有观点认为,“在认知方面,人工智能仅在单项领域具有较高的认知能力,而在跨界领域却存在难以逾越的技术瓶颈。其次,在意识方面,人工智能既不可能内生自发地生成意识,也不可能外在强行地输入意识,因而不可能具有自由意志。”持该论者进一步认为,自由意志是承担刑事责任的前提,而自由意志只能产生于人脑,但是,ChatGPT等生成式人工智能又不具有人脑。由此得出因ChatGPT等生成式人工智能不能产生自由意志,而不可能成为刑事责任主体的结论。
自由意志是人类拥有独立于外界因果关系和内在决定的能力,能够在行动和选择中自主地做出决策,这关涉到相关主体对自身的思想、行为和选择是否负有责任等问题。然而,自由意志这一概念在哲学、心理学和神学等领域一直存在争议。有观点认为自由意志是客观存在的,它使个体能够对自己的行为负责,并构成了道德责任的基础;也有观点认为自由意志只是一种幻想和错觉,人类的行为和选择都是由先前的因果关系所决定的,人类并没有真正的自主性。总之,自由意志是一种关于人类决策能力的哲学概念,涉及到人类在选择和行动中的自主性和责任。不可否认的是,自由意志的存在的确与人脑密切相关,因为它涉及到个体的思维、决策和行动能力。人类拥有高度发达的大脑和复杂的神经系统,使得我们能够通过思考、推理和判断来做出自主选择。尽管哲学上仍然没有给我们一个确切的答案,但是,社会大众普遍认为,由于人脑是人类思考和做出选择的物理基础,所以自由意志通常被认为是人类大脑的产物。但是,关于自由意志是否仅仅存在于人脑之中一直存在较大争议。目前的科学研究水平并不能就自由意志是否仅存在于人脑这一问题给出确定的答案,甚至拿不出充分证据证明自由意志只能产生于人脑的这一结论。因此,我们当然不能断然否定其他生物或者诸如强人工智能的新物种在不具有“人脑”的状况下成为刑事责任主体的可能性。换言之,我们不能在缺少实证支撑的情况下,随意否认ChatGPT等生成式人工智能可能拥有自由意志的可能性。笔者认为,假设人脑能够产生自由意志,但这并不意味着人脑是自由意志的唯一来源,在“智能”上代替并超越自然人的ChatGPT等生成式人工智能在达到强人工智能程度时,完全可能因具有自由意志而成为刑事责任主体。就此而言,尽管目前科学技术水平尚不能证实脱离人类的自由意志之来源及其真实存在,但是,不能就此否认自然人之外的ChatGPT等生成式人工智能依然有超出编程限制产生自由意志进而成为刑事责任主体的可能性。
(四)刑事责任主体与刑罚体系的关系
应该看到,理论上对人工智能可能成为刑事责任主体的持否定观点的论者几乎都会提出,现行刑法中的刑罚种类没有一个可以直接适用于人工智能,因此,人工智能不可能成为刑事责任主体。有观点认为,“人工智能无法像自然人一样通过传统刑罚剥夺生命、限制自由或是进行财产赔偿、处罚,也无法通过刑罚的惩罚实现被害方心理上的平衡与宽恕……不论设计何种刑罚措施,基于人工智能特殊的存在形态,任何物理意义上的刑罚手段都无法实现应有的惩罚效果”。但是,上述观点似乎都存在“本末倒置”或者“以末求本”的问题。笔者认为,不是因为自然人能被适用现行刑法中的刑罚种类,而能够成为刑事责任主体;反之,也不是因为ChatGPT等生成式人工智能不能适用现行刑法中的刑罚,而就一定不能够成为刑事责任主体。
众所周知,刑法是时代的产物,犯罪构成理论、刑罚体系等刑法的基本理论体系都必然随着历史的发展而变化。“利用法制与犯罪作斗争要想取得成效,必须具备两个条件:一是正确认识犯罪的原因;二是正确认识国家刑罚可能达到的效果。”刑罚手段和刑事制裁体系是为特定时期中的特定刑事责任主体量身制定的。换言之,刑事责任主体是因,刑罚制裁措施是果。如果因为现有的刑罚种类不能完全适用新出现的刑事责任主体,而就断然将其排除出刑事责任主体的范围,这无疑是本末倒置的。正确的逻辑是,刑法应当根据时代的发展,及时容纳吸收新的刑事责任主体,并进一步为新的刑事责任主体量身制定新的刑罚种类或制裁措施。就此而言,我们似乎不能以管制、拘役、有期徒刑、无期徒刑和死刑等现有的刑罚手段不能适用于ChatGPT等生成式人工智能为理由,而将人工智能直接排除于刑事责任主体范围之外。
四、ChatGPT等生成式人工智能刑事责任主体资格生成的理论基点
笔者认为,ChatGPT等生成式人工智能具有刑事责任主体地位是讨论对其罪与罚的前提条件。同时,ChatGPT等生成式人工智能犯罪主体资格的生成必须满足刑事责任主体的最本质要件,也即具有可以被刑法归责的“自由意志”,这可以被进一步追溯为超出编程限制且可以被其自控的独立意识、意志。应该看到,我国学界较早之前已经在宏观层面上围绕强人工智能的刑事责任主体问题展开过论争,并由此形成了肯定说与否定说的对立观点。但是,我国学界目前尚未对在强人工智能状态下ChatGPT等生成式人工智能的刑事责任主体地位等问题展开较为微观且具体的讨论。
(一)刑事责任主体生成的本质要件及其演变
自启蒙运动以来,大陆法系的刑法先哲们先后建立了三个重要刑法学派,并由此形成了刑法中的学派之争。由于每个刑法学派所坚持的刑法基本理论都不尽相同,所以刑事责任主体的范围在不同时期也有所变化,刑法归责理论的法理基础亦有所变化。
首先,以贝卡利亚、费尔巴哈、边沁等刑法学家为代表的刑事古典学派(又称旧派、前期古典学派)奉行意志自由论、道义责任论、客观主义的刑法基本立场。因为刑事古典学派产生于资产阶级革命时期,主要目的是反抗具有恣意性、身份性等弊端的封建刑法,所以刑事古典学派强调自由、人权等有利于公民个人权利的理念。受到康德和黑格尔法哲学思想的深刻影响,刑事古典学派认为自由意志是承担刑事责任的正当性基础。“法则一般地被看做是实践理性产生于意志,准则出现于意志在做出选择过程的活动之中。后者对人来说就构成自由意志……这种意志作为一种能力,它本身绝对是必然的……只有在自己有意识的活动过程中,那种选择行为才能被称为自由。”可见,依刑事古典学派的观点,无论是在道德上还是法律上,具有自由意志都是为自己的行为承担相应责任的前提和基础。但是,目前的科学技术似乎不能在人体科学等实证研究层面证实自由意志的真实存在,而仅仅只是在哲学上将其推定为一种先验的存在。
意志自由论与决定论是相对应的一组概念,两者之间的关系是贯穿哲学领域与法学领域的基本难题之一。关于意志自由论与决定论的关系有以下三种主流观点:一是决定论,其从因果性、必然性角度去解释一切事物;二是意志自由论(又称非决定论),其从偶然性或自由意志的角度解释一切事物;三是相容论,其认为自由恰恰是对必然的认识。笔者认为,“自由”与“必然”并不是非此即彼的对立关系,而是相互包容、渗透的。原因与结果之间的必然联系证明了因果性的存在,这反映出事物被决定的一面;而人们可以利用因果性以达到自己的意志目的,这反映出意志自由的一面。因此,意志自由论与决定论并不是二元对立的,因果性可以服务于自由意志。换言之,一个事物可能既是自由的,又是被决定着的。这一观点在康德法哲学中得到了深刻体现,康德将宇宙间的一切规律分为了自然法则(他律的、自然律的因果性)和道德法则(自律的、由自由而来的因果性)。自然法则是自然界中一切自然存在物的规律,受必然的自然法则支配是必然的领域;道德法则是一切有理性的存在的规律,属于实践理性的道德领域,受自由的规律统治是自由的领域。康德认为人能够同时受上述两种法则的支配,因此人是“有限的理性存在”,进而肯定了人具有自由意志。例如,人们的想法和决定不可能超出其主观认知范围,这是受自然法则支配的体现;而人们又可以在其能力范围内进行行为的自由选择,这是受道德法则支配的体现。由于动物只能根据本能进行活动,所以动物只能受自然法则的支配从而不具有自由意志,这也导致了刑法人类中心主义的兴起。
综上所述,刑事古典学派认为,自由意志是刑事责任主体承担刑事责任的正当性基础。但是,受当时人们认识的限制,他们认为,只有人类才能受到道德法则(自律的、由自由而来的因果性)的支配,所以也只有人类才具有自由意志,从而将动物等其他事物或物种排除出刑事责任主体的范围。
其次,以龙勃罗梭、加罗法洛、菲利、李斯特等刑法学家为代表的近代学派(又称新派、实证学派,包括刑事人类学派和刑事社会学派)坚持行为决定论、社会责任论、主观主义的刑法基本立场。在刑事古典学派大行其道之际,资本主义社会也在历史车轮的推动下发生了巨大变革,福利国家、预防国家逐渐成为取代自由主义国家的全新社会理念。犯罪率激增、物理学和生物学等自然科学技术迅猛发展等因素促进了近代学派的兴起。近代学派认为,犯罪不是理性的人基于自由意志所实施,而是根据由个人性格与环境所决定的因果法则所产生的社会现象(行为决定论),因此应当受处罚的不是行为而是行为人的危险性格(主观主义),责任是具有社会危险性的人处于应当承担社会防卫处分的地位(社会责任论)。可见,近代学派不承认自由意志的存在,认为所有行为都是被行为人的性格和生存环境所共同决定的,其承担刑事责任的基础完全来源于防卫社会的需要。由于社会中各种不确定因素不断增加,国家与社会安全问题日益突出,所以防卫社会的需求也越来越大。依近代学派的观点,单纯从防卫社会的角度出发,自然人、法人等可能对社会造成危害的个体或组织都具有成为刑事责任主体的必要。可见,近代学派在实际效果上似乎扩大了刑事责任主体的范围。
最后,以宾丁、贝林等刑法学家为代表的后期古典学派又复兴了意志自由论、道义责任论等旧派的刑法思想。后期古典学派主要反映了德意志第二帝国“作为官宪国家与法治国家的一种独特的混合形态”的特征,即国家主义与自由主义并存的状态。因此,后期古典学派与刑事古典学派的理论主张并不完全相同。但是在刑法归责等问题上,后期古典学派依然以康德和黑格尔的法哲学为理论基础,再次重申并坚持意志自由论和道义报应论等刑法基本立场及其正当性。由此分析,后期古典学派实际是以自由意志作为承担刑事责任的正当性基础,也即在相关主体能够选择不实施犯罪的情况下基于其自由意志而选择实施了犯罪,刑法应当给予其一定的负面评价和刑事制裁措施。
(二) ChatGPT等生成式人工智能刑事责任主体生成的条件
通过梳理三大刑法学派的基本观点和理论通说可知,自由意志和实践理性是成为刑事责任主体的本质条件。在人工智能出现之前,只有人类才能受到道德法则(自律的、由自由而来的因果性)的支配,进而康德在法哲学上认为只有人类才能具有自由意志从而承担刑事责任。但是,在人类创造出了只有人类才具有的“智能”之后,其完全可能继承人类“有限的理性存在”的特点,进而拥有自由意志。“人类所表现出来的智能”并非“自然本能的必要伸展”,而是“自由意志的选择性扩张”。因此,如果能够证明ChatGPT等生成式人工智能现在拥有或者将来可能拥有自由意志,那么将为其成为刑事责任主体扫清理论上的障碍。对于这一问题,我们依然可以通过康德法哲学进行论证和解决。
具体而言,ChatGPT等生成式人工智能不能摆脱其物理性的技术局限,只能通过数据、算法、算力等电子程序保障其运行,也只能以语言、图片等人类能够理解的方式进行表达,这在某种意义上是受康德法哲学中自然法则(他律)支配的体现,反映着被决定的一面;但ChatGPT等生成式人工智能可以在其深度学习人类知识的基础上完成自由的创造和创作,生成世界上本不存在的全新内容或者思想,这在某种意义上是受康德法哲学中道德法则(自律)支配的体现。因此,与人类一样,ChatGPT等生成式人工智能也可能是同时受自然法则(他律的、自然律的因果性)和道德法则(自律的、由自由而来的因果性)支配的物种,从而推定其可能拥有自由意志,进而满足承担刑事责任或者成为刑事责任主体的最本质条件——刑事责任能力。ChatGPT等生成式人工智能可能具有的自由意志内容具体包括独立意识和意志,而刑事责任能力的内容是辨认、控制能力,与自由意志包含的内容又是一一对应的。即自由意志中的独立意识对应刑事责任能力中的辨认能力,自由意志中的独立意志对应刑事责任能力中的控制能力。自此,ChatGPT等生成式人工智能有可能满足自由意志(独立意识、意志)到刑事责任能力(辨认、控制能力)再到具备刑事责任主体条件的逻辑闭环,进而以新的物种身份影响甚至扩大现有刑事责任主体的范围。
结语
自1956年发展至今,人工智能技术实现了普通人工智能机器人向弱人工智能机器人的跨越,沿着狭义人工智能(ANI)、通用人工智能(AGI)、超人工智能(ASI)的发展脉络稳步向强人工智能机器人迈进。我们必须认识到ChatGPT等生成式人工智能的复杂性和突破性,在了解其为人类各项社会工作带来无限便利的同时,我们也必须谨慎地思考其潜在的各种法律风险和挑战,以确保ChatGPT等生成式人工智能的使用符合我国的法律标准和道德标准。ChatGPT等生成式人工智能的发展是一个动态和不断演化的过程,我们应该保持开放的心态,积极探索其对刑法理论研究的影响,进而实现ChatGPT等生成式人工智能与刑法学的良性互动,为构建更加科学、合理、公正和可靠的刑法体系做出贡献。
(原文刊载于《法学论坛》2024年第2期)
《数字法治》专题由上海市法学会数字法学研究会特约供稿,专题统筹:秦前松。