中实网——中国实践智库官方融媒矩阵主网站

实践智库

东方法学特稿|李晟:人形机器人的法律治理基本架构

浏览:13225次 发布时间:2024-05-20 13:10:08

作者:李晟,中国海洋大学法学院教授、博士生导师。

2400多年前,一个完全具备人的形象与能力的人造机器就已经在中国人的想象中被建构起来:“趋步俯仰,信人也……顉其颐,则歌合律;捧其手,则舞应节。千变万化,惟意所适。”但在今天的社会中,这样的幻想尚未成为现实。无论是工厂生产线中广泛使用的工业机器人,还是生活场景中承担着清洁、配送等功能的机器人,其造型和运动方式都和人类相去甚远,“机器人”在现实中更多体现出“机器”而非“人”的形态。甚至,人们会在社交媒体上与不具备实体而仅仅只是作为可自主执行的代码而存在的“社交机器人”展开全面的互动。在这样的背景下,关于机器人的昨日想象是会被现实否定,还是终会随着更进一步的技术发展实现,就成为一个值得追问的有趣问题。而如果类似人形的机器人得以出现并广泛应用,又会对人类社会及其法律治理产生什么样的影响,也有待于进一步思考。

1920年,捷克剧作家卡雷尔·恰佩克在他创作的戏剧《罗森的万能机器人》中首次提出了“机器人”(robot)这一概念,其词源是“robota”,在斯拉夫语中的意思是从属劳动。当具有一定程度的自主人工智能机器或程序得到广泛应用之后,原本模仿着人的形象建构起来的机器人这一概念也就被泛化了。例如,工业机器人可能只是一个机械臂的形态,而纯粹的圆盘造型的扫地机器也被很自然地称为“扫地机器人”,而在这种情况下,形态上类似于人的自主性机器则被称为“人形机器人”,成为一个更具体的分类。人形机器人的定义是在于其能够“展现出人类的形态和行为”。而要展现出人类的形态和行为,人形机器人就与各类其他造型的机器人形成了显著的区别,这种区别的本质是外在形态与行动方式,而不是内在的人工智能决策。

人形机器人的技术发展已经有较长的历史,不同国家的诸多企业都开展了相关研究,经过技术的不断迭代,对人的模仿能力逐渐增强。随着国内外这一技术领域的发展,人形机器人的产业化也在当前受到了前所未有的关注。2023年的第十四届全国人大一次会议上,全国人大代表、小米集团董事长雷军就提出议案推动仿生人形机器人快速发展,建议将其上升到国家战略层面对产业链发展加以扶持。2023年10月20日,工信部发布的《人形机器人创新发展指导意见》指出:“人形机器人集成人工智能、高端制造、新材料等先进技术,有望成为继计算机、智能手机、新能源汽车后的颠覆性产品,将深刻变革人类生产生活方式,重塑全球产业发展格局。”设定到2027年的发展目标是:“人形机器人技术创新能力显著提升,形成安全可靠的产业链供应链体系,构建具有国际竞争力的产业生态,综合实力达到世界先进水平。产业加速实现规模化发展,应用场景更加丰富,相关产品深度融入实体经济,成为重要的经济增长新引擎。”人形机器人有望“深刻变革人类生产生活方式”这样的预测如果成为现实,生产生活方式的深刻变革就必然创造出需要认真回应的重要法律问题。尽管目前学术界尚未开展关于人形机器人的法律治理的广泛讨论,但却有必要针对深刻的变革未雨绸缪。不过,如果这种深刻变革不会发生,针对目前已经广泛应用的更宽泛意义的机器人所形成的法律治理,或许就可以无需特别考虑人形机器人的差异而得到延续。

归根结底,对生产生活的变革达到什么样的深度与广度,将决定人形机器人的法律治理是否会成为一个独立且重要的问题。因此,就需要立足于实践来理解这种变革。维纳有云:“人有人的用处。”借用这一句式的话,可以说本文试图探讨“人形机器人有人形机器人的用处”。基于这一点,本文的研究也主要立足于实践中可以较为清晰预见到的用处,这种用处依据近期可达成的技术与产业发展,并不过分考虑超前的问题。因此,从形态、行为和社会互动方面都完全能够以假乱真的人形机器人所引发的法律主体地位抑或法律人格这样的本体问题在此不作考虑,这种机器人的应用对人引发的肖像权、人格权之类的问题也并不纳入分析的视野。当然,这并不表示这些问题在未来不会出现或是不重要,但要对其进行预测还有较多的不确定性。更需要分析的现实问题是仅在基础的形态与行为方面可以达到对人模仿效果,但仍然能够明显与人作出区分的人形机器人,探讨这一类型机器人的应用场景是否存在独特性,从而引起特别的法律治理需求。为展开这样的分析,下文第一部分将首先从技术层面分析人形机器人的基本特征和技术原理,明确这一类型机器人较之于非人形机器人的区分能够如何得到实现。第二部分随之分析人形机器人的适用场景和社会功能,分析其在多大程度上具有不可替代的功能,由此决定其在社会生活中深度介入的可能性。在此基础上,第三部分针对应用场景中人形机器人与一般意义的机器人的关键差异,由此指出其法律问题的本质特征,形成可以用于人形机器人法律问题的基本分析框架。第四部分则据此形成治理思路,指出人形机器人的广泛应用产生的新型法律问题所需要的法律回应。

一、如何实现人形机器人

何谓“人形”,在人类认识自我的过程中,显然也是不断发展的,在各个文明的传说故事中,就不乏狮身人面的斯芬克斯、牛首人身的米诺陶、三头六臂的哪吒等另类却又被视为人的形象。在《西游记》中,孙悟空向菩提祖师说明自己有资格修行时给出的理由是:“我也头圆顶天,足方履地,一般有九窍四肢,五脏六腑,何以比人不同?”这样的论证理由也得到了认可。而与之类似,对于人形机器人的各部分零件设计,也包括对人类的腿、脚、手、脸等各器官的模仿。较之于对大脑认知和自我意识的模仿而言,对于人类身体的模仿在理论和技术上都更具有可行性。因此,就当前而言,“Humanoid”的重点在于人的外在形体表现,而非内在的思维和自我意识,关注模仿人类形态和行为的基本特征,而不考虑具有另类形态的智能机器是否被人类或自身理解为“人”。人形机器人的特点可以总结如下:(1)人形机器人可以像人类那样在现代社会的环境中工作,(2)人形机器人可以像人类那样使用工具,(3)人形机器人具有类似人类的形状。因此,基于这三方面特点,可以将人形机器人依据这一更狭义的分类从广泛存在并运用的各类机器人中区分出来。

现代社会的环境是为人类设计或是被人类改造过以适应人类活动需要的,非人形机器人在这样的环境中也可以存在并发挥功能,但其工作形式则有明显的区别。人形机器人要像人类那样在环境中工作,就是要能够在适应人类形态和行为的环境中,以类似人的行为去与人进行相互协作,无需改变环境就能发挥其作用。以双腿进行直立行走,而非通过与人类社会环境并不充分适应的履带或轮式设备进行运动,就成为从“robot”到“humanoid robot”的一个关键改变。对于人类而言,如何双腿直立行走,自从幼儿期的蹒跚学步完成之后,就是一种不会忘却的本能,生物算法会精确控制肢体做出相应的动作。但如果要把人类的整体行动分解为非常具体的关节动作和姿态,其动力学原理仍然是相当复杂的。人形机器人要想达到同样的运动方式,就需要能够精确计算双足运动的动力学方程,并对机械关节进行准确控制。基于被称为“零力矩点”(ZMP)的概念,机器人得以实现动态双足行走,这类机器人的每一条腿至少具有六个完全驱动的关节,关节是位置控制的,脚上有力传感器用于测量ZMP。使人形机器人像人一样以双腿进行直立行走是高度复杂的,但在理论上也是完全可能的,学术界与产业界已经达成的基础理论研究与技术应用,可以使机器人“走”进我们的世界。

模仿人类的姿态通过双腿进行直立行走的基础上,机器人通过双手去使用工具,使之更具备“人形”的特征。人类手指的灵活性,是在直立行走之后获得的重要进化,也是人类可以使用工具从而创造文明的基础。人类社会中的工具都出于人类使用的需求而设计。即使不具备双手,机器人仍然可以通过专门设计的零件发挥相应的功能,甚至比人类使用工具更有效率,但却很难使用为人类而设计的工具。要像人类那样去使用工具,机器人就需要去模拟人手的灵巧性。对机器人手拟人的灵巧程度,可以通过两个指标加以衡量:一是抓持能力,即机器人手抓持不同大小和形状的物体的能力;二是理解能力,即机器人手在抓持物体的过程中通过与周围环境的接触准确获得有关周围环境信息的能力。对机器人的模仿能力而言,相对于对腿部运动的研究,手部的灵巧驱动具有更高的难度,虽然执行单一的特定操作的机械装置可以普遍应用,但灵巧的多指型机器人手仍然未能在实际领域中得到应用。因此,如果要使人形机器人在现实中更为普及,也就需要在手部运动上更接近靠拢人类。

如果以双腿直立行走,以双手使用工具,当然也就意味着人形机器人具有了类似人的形状。而类似人的形状是为了同人更好地进行协同合作。可以在人类的环境中以类似人的方式行动,并且可以使用人类的工具,也就意味着人形机器人的工作场景不是封闭的,而是与人在现实场景中展开交互。正确互动的基础是感知能力。人形机器人不能在生产时一劳永逸地设定自己的行动方式,也不能在一个参数都已经预先完全确定的封闭环境中采取行动,而是必须随时更新所处的环境状态,这就需要感知能力。人形机器人的感知能力是通过集成的传感器系统实现的,这些传感器可以是模拟人类的视觉、听觉、触觉等感官。这些感知能力使得人形机器人能够在其操作环境中收集数据并完成对数据的分析,认识到其所处环境中的其他物体的运动状态,当然也包括与之协作的人类的运动,从而随时调整自身的运动,避免产生运动状态中的冲突。传感和估计可被视为一个将物理数量转换为可用于进一步处理的计算机表达的过程,来源于各种传感器/转换器的数字信号被输入,与不完整的环境模型相匹配,并更新模型,从而预测行动方式。

如果要与人类在工作环境中进行协作,人形机器人还不能止步于通过感知能力避免和人类的冲突碰撞,而是要能够理解人类发出的信号,按照信号的指引作出相应的反馈。想象一下在足球场上队友之间的合作,显然不是不撞到队友就算是达成了合作,而是需要理解彼此的意图,将传球和跑位配合起来,才能将球准确地传给队友实现合作的目标。这就意味着机器人需要从感知能力进一步发展到认知能力。“社会化的机器人与我们对视,与我们交谈并学会识别我们。”要实现这一点,机器人在其传感器搜集到来自人类的信号的基础上,还需要将这种信号同关于人类所表达的意图和态度的环境模型进行匹配。也就是说,机器人能够将信号转化为信息,正如维纳所说的那样,语义学上具有意义的信息,在机器中和人体中一样都是能够通过接收系统中的激活机构的信息。因此,人形机器人的实现还需要高级的自然语言处理(NLP),需要发展出更先进的语言模型、上下文理解能力,以及能够处理多种语言和方言的能力,使人形机器人能够更自然、更流畅地与人类交流,理解和生成更复杂的自然语言。而随着机器学习这一人工智能范式的兴起,人工智能无需从本体论理解自然语言的所指和能指,而是基于统计学分析不同语言出现的概率,在经验中学习自然语言。迄今为止机器学习能力的进步,已经使得人工智能有能力学习人类自然语言,在语境中作出理解,并给出语境中适当的回复。而这种学习方法也被运用于机器人,使机器人通过深度神经网络的深度学习,能够从语音、词汇、语义、句法和语用学多层次理解人类语言。基于这样的理论基础,大语言模型使生成式人工智能得以涌现,以自然语言的方式和人类进行互动。同生成式人工智能的结合,更加强了机器人与人类交流互动的能力。此外,对于眼神和手势等信号传递机制的机器学习,也都获得了发展,使机器人有可能在语言之外和人进行互动。

基于对人形机器人的基本特征与技术原理的分析,也就基本上明确了人形机器人可能的实现程度。人工智能、机器学习、传感器技术、材料科学等领域的进步为开发复杂的人形机器人提供了技术基础,使机器人可以不再是非人形的各种另类状态,而是可以形成与人类形态相似、能够适应人类环境、使用人类工具的人形机器人。

二、为什么需要人形机器人

就其基本特征与技术原理而言,人形机器人可以得到实现。但这并不表示人形机器人必然全面进入人类生活中并造成深刻的变革。要明确这一点,还有必要分析这种实现的可能性是否存在足够的现实需求,这种需求是否意味着人形机器人的不可替代性。

基于当前的技术发展,对于人形机器人的适用场景,已经形成了一些具有初步共识的预测。例如,服务业对于人形机器人的运用将可能非常广泛,在酒店、机场、商场等公共场所可以提供信息咨询、指引服务,改善顾客体验。在医疗和护理领域,人形机器人可以提供陪伴、辅助行走、监测健康状况甚至进行基础的医疗操作,特别是对老年人和残疾人的护理。还可以扩展到家庭环境中的更多场景,人形机器人可以帮助完成家务、提供安全监控,甚至参与家庭成员的社交活动,提供陪伴与情绪价值。人形机器人还可以在娱乐行业中担任演员、导游等角色,提供新型的娱乐体验。工信部发布的《人形机器人创新发展指导意见》则提出,要拓展场景应用,将具体的应用场景主要列举为以下三类:(1)服务特种领域需求,面向恶劣条件、危险场景作业等需求,面向要地警戒守卫场景,面向民爆、救援等特殊环境;(2)打造制造业典型场景,聚焦3C、汽车等制造业重点领域,在典型制造场景实现深度应用;(3)加快民生及重点行业推广,拓展在医疗、家政等民生领域服务应用,满足生命健康、陪伴护理等高品质生活需求,推动在农业、物流等重点行业应用落地。人形机器人可以适用于诸多场景。但是,这些场景中是否一定要使用人形机器人,在论述人形机器人的优势时,其对比者并不是人,而应当是非人形的机器人。诸如机器人拥有更强大的计算和记忆能力、可以保持更高的工作强度和专注度、具有更强的力量或更快的速度、能够进入人类难以到达的危险区域之类优点,无法论证人形机器人的不可替代性。

人类的外形,是在漫长的进化过程中经过自然选择形成的,行动方式也同样因此得到确定而被称为本能。而机器人则并非作为一个整体进化的产物,而是由分散设计的零件组合而成,而这样的组合并不必然需要呈现为同人类高度相似的形态。例如,要与人类棋手对弈,机器人并不需要人类棋手的形象。而从人形机器人的技术原理来说,要让机器人像人类的形态并以人类的方式进行运动,也并非本能,而是高度复杂的动力学控制。著名的“莫拉维克悖论”早就提出:“要让电脑如成人一般地下棋或回答智力测试问题是相对容易的,但是要让电脑表现出如同一岁小孩那样的感知和行动能力却是相当困难甚至是不可能的。”那么,为什么要克服种种技术难题去达成这样的目标——使机器人成为“人形”?更何况在某些场景中,非人形的优势更为明显。例如,在影片《流浪地球2》中机械狗“笨笨”就给观众留下了深刻的影响,而在类似的战场或灾难救援现场,履带或多足爬行式机器人更能适应复杂的地形和空间,较之于人形机器人具有更好的可通过性,因而也已经在实践中更多得到应用。因此,人形机器人的价值如何体现,就需要更进一步追问。

当然,在一部分具体场景中,人形机器人较之于非人形机器人的优势可以得到功能上的论证。例如,在医疗护理场景中,人形机器人的行动方式或许更适应于对患者进行护理,尤其是以类似于人的方式使那些缺乏自理能力的人获得支持。又如,在家庭环境中,承担清洁、烹饪等具体功能的机器人难以去操作其他非联网的家用设备,而人形机器人则能更好实现这一点,从而提供更多样的、非预设的家政服务。再如,针对服务业提供引导、咨询等功能而言,人形机器人因其形态和行为与人类的近似,更容易从人类对环境的观察和适应出发提供更有效的引导。但如果只是限于这些具体场景中的功能,还是难以断言人形机器人的不可替代。

从人形机器人的根本特征来看,人形机器人可以适应人类活动的各种环境,并使用为人类设计的工具,因而可以成为一种多任务通用型机器人。如果具备了这种通用的能力,也就不需要特别去分析其应用场景,而是在所有人类工作场景中都可以成为合作者或替代者。关于人形机器人的全面应用,一个经济成本角度的理由是,人形机器人的应用,可以无需改变人类的工作环境,并且直接使用为人类设计的工具,因此免于改变环境和重新设计工具的成本。但因为人形机器人的研发需要人工智能、态势感知、运动控制、仿生材料等许多方面的技术投入,机器人身上的每一个部位和零件都可能需要深入研究,因而也意味着高昂的成本。较之于改变环境或是重新设计工具,很难说研发人形机器人的成本一定低于环境改造和工具设计的成本,经济成本的理由或许并不足以支持人形机器人对非人形机器人的替代。但是注意到工作环境和工具运用这一点,人形机器人也就意味着有一个同人类社会更好联系起来的接口,更容易同人类进行合作。

与经济成本分析不同,来自哲学视角的解释指出了推动着人类心心念念地亘古不懈地做着机器“人”的力量,既有认识自我的求真,也有满足功能替代的求善,还有改进生活世界的求利。而更具批判性的论点则指出,人与机器之间存在着直接的相互作用(无论是伦理上还是认知上),因而也有了相互转化的可能性,人和机器相互模仿而形成的拟像机制,使人们不仅试图让机器人更具人形,也让人类自身更接近机器,最终共同成为不能脱离人机拟像无限循环,继而不能摆脱控制论的无意识的网络化的存在,即“弗洛伊德机器人”(Freudian robot)。而从这样的视角来看,对于人形机器人的追求,或许最重要的价值不是知道机器人究竟可以用来做什么的确定性答案,而是形成不确定的可能性。人形机器人不可替代的意义,更突出体现在其具有的通用性,在人类的工作和生活场景中成为可以承担更多功能的合作者。而且,在这样的合作过程中,其相对于人类所具有的相似性可以成为一种人类更可能模仿的镜像,使人类设定改进自我的目标。人形机器人的这种特性,使之如果只是有限的应用则无法实现足够的价值,只有融入广泛的社会场景中得到规模化应用才能体现出其不可替代的意义。因此,在技术可能的前提下,人形机器人将会以其无处不在的方式进入生产生活中,从而形成深刻的社会变革。换言之,如果不能全面融入人类社会造成这种变革,则发展人形机器人并无强有力的理由。

三、融入人类社会之后的法律问题

人形机器人与人类的合作,使之全面融入人类社会,与人类进行的交互更为直接,因而也正是在这样的背景下,人形机器人特有的而非一般意义上的机器人普遍面对的法律问题才得以逐渐浮现出来。那些并非特有的机器人法律问题,则可以排除在讨论之外。例如,工厂生产线中的机器人造成的损害已经成为了现实,如果人形机器人的致害与之并无本质差异,就可以基于对机器人侵权的既有法律研究成果加以处理,而无需作特别关注。又如,医疗场景中对于个人信息和隐私的获取,也可能由于人形机器人对敏感数据处理和使用方式引发隐私侵犯和数据保护的法律问题。但是这也同样并非全新的特有问题,大型手术台式的多臂机器人和能够进入体内的微型纳米机器人,也同样涉及对患者个人信息数据的获取,需要采取法律措施加以规制。救援机器人进行救助时需要作出伦理决策,也与无人驾驶汽车需要的类似决策并无本质区别。当然仍然要强调的是,并不表示这些问题不存在或是不够重要,而是这类问题已经基于此前的机器人应用引起了相应的研究和回应,可以延续现有的法律治理框架。而在此类问题之外,则应当从人形机器人的独特性来发现和处理法律问题。

从人形机器人全面融入人类社会这一根本特征出发,理解其独有的法律问题,也意味着需要新的分析框架。作为一种重要的理论范式,“场景化”在法学研究中常常被运用对人工智能的法律治理加以设计。非人型机器人出于不同场景进行功能性设计,对其也可以进行场景化的法律治理,形成针对不同类型、不同用途机器人的法律治理规则。但不同于过于危险而不能与人共享工作空间来执行任务的工业机器人,和人直接交互的机器人意味着本质上的改变。对于人形机器人而言,不太可能只是有限场景的运用,意义在于跨越场景而非局限的具体场景,因此“场景化”理论可能并不适用。当人形机器人全面融入人类社会时,人机互动的场景就难以被预先界定来建构决策和行为模型,而是要在更一般的意义上形成指引。因此,本文尝试从两个维度来建构这个新的分析框架,一是人形机器人在与人进行交互这一方面跨场景的全面性;二是人形机器人在与人进行交互时相对而言存在的不足,由这两个因素来建构法律问题的独特性。

在跨场景的一般意义上对人机互动形成指引,首先就关系到如何使人形机器人感知所处的互动环境。无论在什么样的场景中,只要是人形机器人与人类共存并且互动,都需要具备态势感知能力,这种能力会决定其如何理解和解释其所处的环境,并采取在这种环境中合理的行为方式与人类互动。对于人类而言,态势感知能力受到许多因素的共同影响,通过学习和长期记忆形成情境模型,再依靠注意力和洞察力对外部环境进行信息采样,从而基于目标激活模型,在这样的过程中,工作量、压力等因素都会降低人的注意力、洞察力与记忆力,从而造成错误的模型匹配导致错误决策。通过这样的机制,人类能够利用经验和直觉在多变的环境中作出快速判断。而机器人通常需要预先通过大量的训练数据来形成模型应对特定情况。与人类相比,机器人能够全天不间断工作,不受疲劳、压力、情绪或其他人类生理限制而影响态势感知能力,并且能够同时接收和处理多种类型的传感器数据对外部环境进行信息采样,以高效率的处理速度对获取的数据进行处理,对情境模型的长期记忆也更为稳定,因而具有相对优势。但是,机器人并非对人全方位占据优势。例如,在视觉方面,机器人需要有一个可用于识别的数据库模型或特征模式才能进行图像识别,而如果要达到人类的视觉感知状态,也需要不同功能的传感器结合起来发挥作用。而在听觉方面,机器人并不具备人类那种过滤掉背景噪音的注意力。态势感知的这些特性,使机器人在未知或变化环境中的适应性和泛化能力相对人类较弱。

分析人形机器人的态势感知能力,是为了讨论这种能力如何影响法律责任和权利归属。法律面对社会中风险事故的可能性,需要对事故损害进行预防,通过法律的激励促使人们预先选择更有效率的措施来避免或减少损害。从法律的经济分析来看,侵权法中确定责任分配的重要依据是防范成本,防范成本低于损失金额和损失概率的乘积时,加害人应当界定为有过错。而最小成本防范者是谁,则可以用于在加害人与受害人双方之间判断如何分配责任。人类社会中所形成的侵权法规则在处理防范成本时,依据的就是人类的态势感知能力以及由此能够作出的反应以及采取的预防措施。当人能够感知到潜在的风险预见损害发生时,就会采取相应的防范措施,而这种防范措施是否有效,又和行动的控制能力密切相关。例如,在骑行者撞倒步行者造成伤害的情形下,骑行者借助于视觉和听觉在当时的环境下多大程度能够提前预判到步行者的存在会发生碰撞,并且是否可以在合理的反应时间内通过改变方向或刹车避免碰撞的发生,就是对其防范成本的测算依据。如果人形机器人在人类社会中广泛应用而又不具备人类同样的态势感知能力的话,那么带来的问题就是对防范成本的评价也就不能采取同样的标准。从态势感知能力对防范成本的影响这一点出发,因为不同于非人形机器人在具体设计的工作环境中更容易建立态势感知的情境模型(例如自动驾驶汽车就可以视为一个非人形的机器人,但其工作的情境模型仅限于道路系统),可能进入更多样场景的人形机器人的事故责任如何界定就变得更为重要。因此,需要探讨现有法律如何适应人形机器人在人类社会环境中的感知能力,并由此判断机器人行为的法律标准和责任归属问题。而由此出发,这种责任配置又会影响对人形机器人的研究与应用激励,如果对于人形机器人的风险防范提出的要求超出了其可能在近期实现的态势感知能力的话,那么其推广应用也就会受到制约。当然,在人机互动的场景中,除了机器人对人造成的损害之外,人对于机器人的损害也同样是潜在的风险,机器人在态势感知能力的不足,也会影响到人对于造成其伤害的防范成本。

在《列子》所讲述的机器人想象中,不仅描述了其逼真的形象和高超的技艺,还设想了一个这样的故事情节:“技将终,倡者瞬其目而招王之左右侍妾。”由此反映出机器人与人互动时,可能产生的社交反应也是一个值得关注的问题。在一个人机普遍共存且需要合作的社会中,机器人如何正确认知并理解与其互动的人类所发出的信息,对于合作的实现而言构成了前提条件。在互动中,机器人的信息认知首先是技术问题,即如何接收到包括语音、手势、表情、肢体动作在内的信号,在此基础上将人类发出的信号与噪声区分,从而将信号转换为信息。就技术而言,这样一个接收和区分的过程是可以实现的。人工智能能够对自然语言进行识别。而对于人类情感的表达,机器人也通过情感计算模型来加以认知,不仅能够认识人类情绪反应的内涵,并且也能够进行相应的回应。借助于心理学理论,情感计算模型能够识别具有家族相似性的面部表情,并且结合许多特征的提取,形成关于情感和外界刺激的关联,从而使机器人能够去学习人类为何产生并且表达情感。通过情感识别模型的建立与深度学习,情感计算实质上成为对各种情感的概率分析,并进入大量的应用领域。

但是,自然语言识别和情感计算技术尚不足以实现人形机器人与人之间充分且高效的互动。人与人的互动和交流远不止是一个简单的物理/效用过程。无论是简单的交接任务还是复杂的领导者——追随者游戏,人们在人与人互动中发送的所有信号都需要多个层次的信息,这些信息远远超出了物理交互,其中包括了对方的心理状态、他们对于互动所做的准备——这些过程与信任、继续沟通的意愿以及社会和情感参与直接相关。机器人的情感计算虽然已经取得了非常突出的进展,但可以说仍然还是更多在模仿一个儿童心智的学习过程。而且,情感的表达也是高度个性化的,因人而异而非千篇一律。机器人在与不同的人交互时,往往难以做到针对每个人的情感特点和需求进行个性化适应。如果要实现对于这些情感信息的更准确认知,对情感模型的理解还需要达到更深入的程度。当机器人仅仅是作为一种试验品偶然介入人类生活的某一场景时,人类对于机器人的社交反应会有更高的包容度。但如果是在普遍的场景中共存的话,对于机器人的期望值可能就会不一样。因此,可以预料到,当机器人在对互动中传递的涉及情感交流的信息认知水平低于人类时,在可能导致许多潜在的冲突。例如,对个人隐私信息的询问、对隐私部位的注视或是接触、可能表达歧义的语言或肢体动作,乃至于过于直白的语言表达或是身体距离的过分靠近,这些情形都可能导致与之互动的人类认为机器人在采取侵权行为。2023年4月23日,网络上流传出一段在徐州医科大学附属医院一女子砸坏导诊机器人的视频,据说就是由于机器人对伤心的患者家属讲笑话引发的,这样的事例更表明不适当的社交反应可能导致人机之间的冲突,并带来相应的社会成本。

当然,随着人类与机器人更广泛的互动,在这个过程中,机器人的情感模型还可以不断补充语料库,机器人也会持续地进行学习,从而更好理解人类的情感表达。但在人类的互动中,大量的行为并非通过正式表达的规则得到指引,而是依赖于非正式的社会规范。社会规范的具体内容并非经过统一的中心加以制定,而是人们通过联系紧密的社群中的重复博弈以一种“无言之知”的方式习得,在不同的社群中也存在差异。而社会规范的表达,则通过信号传递得以实现,某些象征性的信号具有重要的规范功能。对于机器人而言,要对于社会规范加以认知,就难以通过预先建立的语料库训练得以实现,而是需要理解所处的具体语境中人们所发出的信号所具有的意义。这一学习过程的难度更大,表达对某一群体社会规范的遵循的信号,可能在另一个群体中就意味着违反社会规范。

由于人类合作行为所具有的复杂性,在人机之间广泛的社会互动中,机器人在交往中对人类情感认知仍然可能存在显著的不足,很有可能如同一个儿童在成人世界中交往而导致许多误解。例如,人类可以将“看破不说破”作为一种基础隐私规范,而机器人就很难对于这些信息的敏感性形成同样的理解来进行处理。在非人形机器人的各类应用场景中,人们会更多将其视为纯粹的工具,并不会形成社交行为的期待,因而也不太可能因为信息认知的分歧造成冲突。但如果是人形机器人在进行互动,由于其与人类行为方式具有的相似性,当其社交行为偏离人们的期望时则可能导致互动对象认为被冒犯,从而引发更激烈的冲突。这一类型的法律问题,对于人形机器人而言也更为突出,不同于非人形机器人。

因此,从交互的跨场景性和人形机器人在交互过程中体现出的相对不足这两个维度出发,对于人形机器人适用的法律问题进行梳理,可以更集中到如何通过责任分配进行风险预防这一点。

四、人机共生社会的法律治理架构

对于人机共生社会中如何协调机器人与人之间的互动,阿西莫夫的“机器人三定律”曾经被视为基础规范。这一极具启发性的设想类似于“约法三章”,体现出高度简约的抽象性。简约的法律规则降低了法律的管制成本,能够在管制成本与对个人行为的激励之间达成一种更好的平衡。但简约规则的抽象性也很难完全覆盖人机共生社会中的复杂问题。因此,当人形机器人可能即将广泛进入工作与生活,出现真正的人机共生社会时,有必要进一步思考如何在法律上构建一个促进人机和谐共生的环境。以人形机器人在社会中与人类互动时形成的特有法律问题,设计对其作出回应的法律治理架构,协调人与人形机器人在工作和生活中的协作关系。

法律治理架构需要具有前瞻性地对人机互动社会中的行为模式形成一般指引,推动而非阻碍人形机器人在社会中得到应用,从而激励这一产业的发展。为实现这一目标,就要更强调人与人形机器人之间在广泛的互动中达成相互依存与合作的共生关系,不仅使人类更好得到人形机器人的协助与服务,同时也促进机器人技术的持续发展进步。

在跨场景的广泛使用中,人形机器人的研发与生产者难以对其进行特定的功能设计,机器人更多通过在互动中获得的学习而非预先设定的程序形成其行为方式,这意味着使用者对于人形机器人的影响更为突出。因此,法律治理架构首先应当注意其行为决策主要源于形而下的经验积累而非形而上的超验规定,从控制主义转向训导主义的治理范式。因而,更多关注使用者而非研发者或生产者对人形机器人的影响,通过对其行为的干预可以更好实现对机器人的法律治理。在关注使用者时,也就跳出了财产权的归属,更强调实际的控制和影响。

同时,这种具有前瞻性的治理架构,不是在人形机器人已经高度发达的情况下进行建构,而是要去推进新兴技术和产业的创新尝试。因此,治理架构需要立足于人形机器人相对于人的差距,考虑到在当前发展阶段加以推广应用时可能出现的主要问题,而不是关注人形机器人可以完全等同乃至替代人时所产生的未来问题。考虑到人形机器人的广泛应用,从法律治理架构设计上也不应过多将其作为一种特殊危险考虑,而是要充分考虑到其作为常见工具带来的影响。

因而,在当下对法律治理架构的设计,以上一部分中分析的特有法律问题作为基本立足点。当人形机器人与人在工作和生活场景中产生多样化的普遍互动时,如果由于态势感知出现偏差而未能有效防范风险,就会造成人身或财产损害。在情感识别这一方面,机器人存在的信息认知与理解的差距,则可能造成精神损害,从而引发人格权方面的侵权争议。对人形机器人的法律治理,更突出的就是要解决在技术上存在不足可能制造潜在风险的情况下,如何对风险后果进行责任分配,从而对损害进行补偿和预防的问题。而当损害后果和风险防范的责任分配成为重点时,则更应当立足于现有的侵权法体系来加以处理,当既有法律体系能够处理时,则无需将机器人的主体资格作为一个必须解决的前提加以讨论。

从侵权法的视角来看,如果损害发生的情况下侵权责任成立,就增加了加害人的行为成本,使加害人及其他人今后要避免从事该特定的行为,从而也就意味着对行为自由的限制,因而要致力于协调“法益保护”与“行为自由”的关系。因此,在不对机器人法律主体地位进行讨论的背景下,也就意味着无需考虑由机器人承担责任,而是由谁来承担替代责任,要考虑的是对机器人造成的损害进行转移意味着对其他人行为自由的限制,要在不同人之间而非人与机器人之间进行风险的分配。

考虑到人形机器人需要以类似人的方式进行行为,且态势感知能力相对不足,如果不能将其提升到达到人类同等水平乃至超越的话,风险是客观存在的。因此,将其视为商品考虑责任归责,则可以以商品欠缺安全性作为归责原因将责任配置给设计、生产、制造者。但如果这样配置,则人形机器人的应用与产业化发展将受到严格的限制。如果考虑到对风险一定程度的容忍,而在考虑风险分配时关注谁更能防范风险,则可以转换到另一个视角。在既有侵权法关于雇用人责任的立法中,就基于雇用人能够以较少的成本预防损害的发生,并通过价格机能或保险分散损害,较具资源分配的效率。类似的分析在人形机器人的使用场景中也可以运用。由于人形机器人具有的通用性,产品的生产者或许很难对其使用的场景进行预先的明确设计,尤其是对于机器人可能作出的社交反应更难以提前设定,而具体的使用者更有可能在长期的使用过程中形成对其的训练,因此,使用者能更有效进行风险防范。而且,基于机器人与人合作的场景,使用者的活动水平也会影响其收益,因此也有必要承担与收益相对应的成本。基于这样的考虑进行风险分配时,将人形机器人的使用者,而非其生产者或所有者作为一般的责任主体更为合适。而对于设计、生产者,则更多可以借助于“沙盒”式的规制,在技术上尚未成熟时通过沙盒进行可控的监测,一旦通过沙盒测试则认为其达到了现有技术水平的预期。在确认责任主体之后,归责原则会影响到责任主体的谨慎程度与活动水平。从技术和产业发展的角度来看,以过错责任为基本原则既能够使机器人的使用者保持谨慎,也不会导致过度降低活动水平而抑制技术与产业发展。这样的思路突出了其与一般产品的区分,注意到了损害可能是在多元主体的复杂互动中造成的,鼓励采取措施降低风险,从而也有利于激励技术创新。并且,应当考虑机器人在态势感知方面较之于人的差距形成对于过错的认定标准,即不应对使用者提出高于现有技术水平的使用要求来评价其是否存在过错。

分析机器人的态势感知能力还要注意到一点,机器人不同于人类靠自身能力对外界进行感知,而是可以借助于更多外在于本体的传感器来进行感知。因此,人形机器人的运用与智能环境紧密结合在一起。如同人类在明亮的空间中比起黑暗处更容易做出态势感知和风险防范,在有大量信息采集和传感装置的智能环境中也更有助于机器人预防风险。因此,在智能环境中运用时,由于此时机器人的态势感知能力已经显著增强,责任分配也可以随之改变。例如,自动驾驶汽车作为一种特定功能设计的人工智能产品,在符合自动驾驶要求的道路系统中,应当具有全方位超越人类的能力,对其提出的理性车标准理当高于理性人标准。因此,如果人形机器人在智能环境中造成损害,过错责任则有必要转变为过错推定责任,只有在使用者证明完全尽到风险防范义务时才免除责任。这样能够更好实现法益保护和行为自由的平衡。在此基础上,机器人生产者应当对其使用环境进行评估,区分为限定智能环境使用的产品或可以进入非智能的通用环境中使用的产品。如果生产者未作出合理的区分,那么基于“现有技术标准”这一原则,则可以对生产者的责任进行归责。如果使用者将限定在智能环境中的机器人运用于非智能环境造成损害的,则适用无过错责任。而受害人如果明知机器人被如此使用而未拒绝的,可以通过自甘风险或受害人同意的相关规则对于责任分配进行进一步调整。基于智能环境与非智能环境的区分,法律治理架构中也可以引入保险制度处理风险分配。类似于机动车交通事故造成损害的责任分配,强制保险制度可以更好分配机器人可能造成的损害责任,而限定于在智能环境使用的机器人和可以进入非智能的通用环境中的机器人,强制险的标准则可以形成不同要求,类似于营运车辆与非营运车辆的差别。

在机器人造成精神损害的场景中,智能或非智能环境的影响不再得到体现。而且情感方面的认知分歧,更多要放到具体语境的社会规范中加以理解。因此,使用过程的训练对于机器人行为的影响就更为突出。而从一般人格权所指的“人格尊严”来看,其形成根源在于社会关系,在人与人的交往中得以形成,而在人与物之间的支配关系中则无法存在。因此对这种风险的分配,应当更关注使用者的使用方式。如果使用者仅作为工具使用,未对其进行社交训练的话,这种精神损害就被作为纯粹的人与物关系处理,不应引起侵权责任的承担。而当使用者对机器人进行了社交训练的情况下,那么机器人在与第三人互动过程中的所实施的不当行为由于人形机器人的类人特性导致其行为对象形成人格尊严受损的感受,就可以被视为需要承担责任的精神损害。但机器人对社会语境中的人格尊严受损不具备识别能力,也就难以注意防范。因此,除非使用者能够证明尽到了足够的监督义务,否则由其承担侵权责任。使用者在此时由类似机动车驾驶人转变为类似无民事行为能力人的监护人或是致害动物的饲养人。

结语

“人猿相揖别”,其起点始于人类不再四肢并用,而是直立行走,对于机器人而言,当其在外观形态和行为方式上与人类更高度相似时,这种变革或许也具有类似于“直立行走”的划时代意义。人形机器人与人的相似性,使之可以全面进入工作与生活场景之中,不再基于特定场景进行功能设计。而这种通用性也对于人性机器人的法律治理提出新要求,传统的“场景化”理论难以对新的法律问题进行有效回应。要对于人形机器人的法律治理形成整体的框架,而非针对某一具体类型的人形机器人进行治理,需要立足于人形机器人的基本特征进行设计。人形机器人在与人进行交互这一方面跨场景的全面性,以及人形机器人在与人进行交互时相对而言在态势感知和情感识别两方面存在的不足,共同塑造了人形机器人法律治理的基本框架。在这样的人机共生社会中,法律治理对于机器人得以运用的自由空间进行了限定,并通过相应的风险与责任分配形成激励机制。从目前机器人在态势感知方面的不足而言,可以通过运用于智能环境和非智能环境的区分,对其造成的人身与财产损害形成过错责任、过错推定责任与无过错责任相结合的责任分配体系。而从情感识别的不足出发,则可以针对其使用者的使用方式形成是否有责任的不同模式,并在需要承担责任时拟制为类似监护人责任的责任分配机制。同时,根据技术的发展,及时对机器人的功能水平进行动态评估,以不同的识别能力为标准调整与之相适应的法律治理框架。通过这样的法律治理框架设计,对社会风险进行合理分配,从而可以更好协调人形机器人技术发展与应用的成本与收益,促进产业的良性发展。

(本文来源于《东方法学》2024年第3期)

专题统筹:秦前松

版权声明:凡标注来源为中国实践的文章、图片、视频等内容均为本网原创、作者来稿。凡本网注明“来源:XXX(非中国实践网)”的作品,均转载自其它媒体,转载目的在于传递更多信息,并不代表本网赞同其观点和对其真实性负责。转载本网文章请注明“来源:中国实践网”。如因作品内容、版权和其它问题需要同本网联系的,请在相关作品刊发之日起30日内进行。

底部g1

登录

📱
请输入您的手机号码。
🗝️
频道合作

申请城市频道

欢迎申请开通城市频道,即享千万流量分享传递党的声音,展示党建成果。

了解详情

中实网——中国实践智库官方融媒矩阵主网站

北京市朝阳区金台西路二号院

联系电话:

电子信箱:879602319@qq.com