以下内容来自“东方法学”
人形机器人的应用可以带来巨大的效益,但也对社会秩序、法律规则及伦理价值等产生深远影响。传统的科层式规制体系似乎不再能够完全适应这一新兴技术领域的规制需求。试验性规制作为一种规制创新,将规制过程视为一种学习过程,通过不断试验、评估和修正,逐步完善规制措施,使规制更具适应性和灵活性,有助于开发循证的、迭代的人形机器人治理策略。“监管沙盒”作为一种典型的试验性规制工具,可以帮助监管机构发现规制问题,积累规制成本与效益的证据,促成人形机器人的包容审慎规制,最终实现“统筹发展和安全”的政策目标。为了推动人形机器人“监管沙盒”的制度化发展,应当通过试验性立法为“监管沙盒”授权,采用“中心辐射模式”治理“监管沙盒”,确保实施中的程序正义,并完善“后沙盒”阶段的监督机制。
引言
随着大数据、网络与通信技术、机器视觉、传感器等领域的技术发展,机器人技术也取得了长足进步,被称为下一次技术革命,将成为第四次工业革命的核心驱动力之一。人形机器人(humanoid robotics)以可识别的拟人化形式整合了运动、感知和交互,旨在重现人类的身体、认知和社会功能。从历史上看,技术进步通常都是相对封闭、各自为政的,人形机器人则代表了机器人技术的终极目标之一:融合众多学科的进步。它不仅涉及机械、电子等学科,还涉及人工智能、材料科学、神经科学等,所有这些都汇聚成一首和谐的交响乐。此外,由于人形机器人的外形酷似人类,它们可以使用与人类相同的设备,并融入以人为本的环境中,从而减少人类与机器人合作共存的障碍。人形机器人可以在科学研究、太空探索、个人援助与护理、教育与娱乐、搜索与救援行动、制造和维护、医疗保健等特定场景中提供帮助并与人类进行互动,将人类从繁琐、高危的工作中解放出来。在人口老龄化趋势不断加剧的背景下,许多国家(地区)的政策制定者已经开始认真研究如何使用人形机器人来减轻护理工作负担并帮助家中的老年人。在比较法中,日本于2015年发布《新机器人战略》,旨在扩大和发展日本的机器人技术,并将人形机器人作为解决日本人口老龄化和劳动力短缺问题的灵丹妙药。在我国,工业和信息化部于2023年10月印发《人形机器人创新发展指导意见》,对人形机器人的发展目标、关键技术、场景应用、制度保障等作出概括性规定,提出要“统筹发展与安全……加快推动我国人形机器人产业创新发展”,积极拓展人形机器人在医疗、家政等民生领域的服务应用。在实践中,人形机器人产品不断涌现,特斯拉研发的人形机器人“擎天柱”已经具备浇花、跳舞、叠衣服等多项技能,亚马逊旗下的人形机器人“Digit”已经在很多实际工作场景中初露锋芒。人形机器人的引入和部署将对人类社会的许多领域产生一系列重要影响,包括经济发展、社会秩序、个体权益等。随着人形机器人的发展及其与人类的频繁互动,过去一段时间在人工智能领域提出的伦理、法律和社会问题将变得越来越重要,如隐私与保密、歧视与偏见、自主性与选择自由等。在实现人形机器人与人类共存之前,我们必须认真对待如下问题:一是人形机器人的发展和使用到底存在哪些类型的风险,又向我们提出了何种挑战;二是我们应当采取何种规制模式来因应风险,以实现“统筹发展与安全”的目标。已有的研究成果主要从微观视角聚焦于智能机器人的法律地位、权利内容、责任承担等问题,对上述问题的整体性讨论略显不足。有鉴于此,本文尝试以人形机器人的风险治理为核心对象,对人形机器人的风险类型和治理路径进行分析,提出以“试验性规制”(experimental regulations)作为人形机器人的规制模式,并通过“监管沙盒”来实现试验性规制,以有效应对人形机器人迅猛发展中的创新和风险,为我国人形机器人产业的高质量发展提供参考与借鉴。
一、人形机器人的技术逻辑与风险检视
人形机器人通过网络基础设施连接在线服务,使它们具有能够超越传统的机器人功能,其所产生的连锁反应远远超出了实验室和科技公司的范围,并且正在以深刻的方式重塑全球经济和社会。人形机器人带来了前所未有的效率和生产力。这些机器人可以超越人类自身的局限性,能够持续不断地工作,而且通过正确的人工智能集成,还可以以人类无法比拟的精确性和一致性来执行任务。但这种高效率也带来了一系列风险和挑战。对人形机器人产业而言,只有了解其产业特点、技术逻辑、应用场景以及可能存在的风险类型,才能正确分析其规制目标和规制理念,并对现有的规制体系进行调整。
(一)机器人革命:人形时代的开始人形机器人的兴起与发展经历了不同的历史阶段,其历史渊源可以追溯至世界各地的古代文明中有关“自动机”的描述。荷马史诗《伊利亚特》曾记载,古希腊神话中的工匠之神赫菲斯托斯为自己打造了一系列全自动的“黄金女仆”(golden handmaidens),并赋予她们类似人类的声音,不仅可以帮助锻造器物,而且还可以陪他聊天解闷。我国古籍《列子汤问》中也曾记载,一名叫偃师的工匠为周穆王制造了一个能歌善舞的人偶,它能够行走、唱歌并移动身体的各个部位。现代机器人技术从原始的“机器”迈向复杂的“人形实体”,实际上是将人类对自身的理解与创新的动力交织在一起。在这一演变过程中,有两个极为关键的驱动因素:一是人体解剖学提供的启发。长期以来,艺术家、科学家和发明家一直对人体的复杂性赞叹不已,并试图在各种媒介中复制人体的细微差别。早期的机器人设计笨重,功能重于外形。随着科学家们对生物力学的理解不断加深,设计机器人的雄心也不断膨胀,不仅要模仿人类的动作,还要与人类的体型相似。二是先进人工智能的集成。早期的人工智能系统以规则为基础,依靠预定义的算法作出决策。虽然对特定任务有效,但是缺乏人类思维的适应性和多功能性。机器学习、神经网络的出现带来了技术突破,允许机器从数据中学习,就如同人类从经验中学习一样。随着人工智能与人形机器人的融合不断加深,人形机器人不仅能够模仿人类的动作,而且还能理解人类的情感并作出反应。从技术构成的角度看,功能齐全的人形机器人通常需要使用颠覆性技术,涵盖硬件和软件两个方面。就硬件而言,人形机器人通常配备了摄像头、麦克风和传感器等设备,可以捕捉用户的身体活动状态(如步行、站立、跑步等),能够存储个性化信息(如面部、声音、位置、活动模式等),并通过通信和服务交付与人类进行互动。就软件而言,人形机器人通常配备人工智能,可实现人类面部、语音和情感识别等功能,提供更加身临其境的互动体验。新兴的人脸识别技术正在进行微调,以解读人类的表情,为人形机器人实现实时调整反应铺平道路。自然语言处理技术的进步正逐步实现人类与机器人之间的无缝对话,有望消除现有的沟通障碍。研究表明,ChatGPT等大语言模型可以提升人形机器人的亲和力,让用户感觉就像与真人交谈一样。
(二)人形机器人的法律风险人形机器人的创新发展应用虽然可以为人类社会带来广泛的效益,但也大幅增加了系统性风险,导致发展与安全的冲突更为明显。从我国《人形机器人创新发展指导意见》的规定来看,人形机器人具有创新主体的多元性、创新核心要素的虚拟性、创新结果的难以预测性等特性,这决定了人形机器人创新会影响更广泛的地域范围、更多的产业类型和更大的人群规模,一旦规制失当,就可能导致产业链瘫痪或发生系统性风险。2017年10月,由汉森机器人公司研发的人形机器人“Sophia”获得沙特阿拉伯的“公民身份”,成为全球第一个获得法律人格的机器人;同年11月,“Sophia”被任命为联合国开发计划署的创新冠军,也是第一位获得联合国头衔的非人类。尽管“Sophia”的公民身份问题更多是作为一种宣传噱头,但它提出的法律问题却引发了一场巨大的争论。从这些争论中我们可以大致管窥人形机器人可能存在的法律风险。首先,人形机器人可能对传统的法律主体理论提出挑战。在传统法律体系中,法律主体通常是指具有权利和义务的实体,如自然人和法人。这些主体被认为有能力承担法律责任,并能够独立进行法律行为。然而,随着人形机器人的智能化和功能多样化,它们在社会中的角色变得越来越复杂,引发了关于其法律地位的新讨论。具体可以分为以下三种学说:一是否定说,即不承认智能机器人的法律人格,不主张赋予机器人所谓的权利。例如,有学者认为,机器人与“人”具有本质差异,它们不可能成为“理性的人”,无法成为一个有“生活计划”的自我意识实体,承认机器人的法律人格缺乏必要的前提和基础。二是肯定说,即承认智能机器人的法律人格,并主张赋予机器人相应的权利。例如,有学者认为,将智能机器人“人格化”不存在法律方法论上的障碍,也具备了权利主体的智能性这一本质性要素。还有学者认为,机器人权利的产生是社会实力不断提升的结果,承认并赋予机器人的权利主体地位,既是权利发展的内在规律,也是社会发展的必然趋势。三是折中说,即既不肯定智能机器人的法律人格,也不否定智能机器人具有法律人格,而是认可其部分人格。例如,有学者认为,机器人可能发展出某种人造的“个性”、一定的“行动”范围和“决策”范围,可以创建“电子人格”,赋予机器人特定权利和义务。总之,人形机器人的出现和发展对传统的法律主体理论提出了新的挑战。法律体系可能需要适应这一技术革新,通过修订现有法律或制定新的规定来应对人形机器人带来的法律问题。其次,人形机器人可能对传统的法律责任规则提出挑战。在现有的法律体系中,责任通常是归属于能够作出自主决策的主体,即自然人和法人。然而,随着人形机器人逐渐具备更复杂的功能和更高级的自主性,它们的行为可能越来越难以通过传统的责任归属模式来解释和处理。一方面,人形机器人的行为可能导致新的法律责任问题。例如,如果一台人形机器人在公共场合造成伤害或损害,传统的责任规则可能需要重新考量,以确定是由机器人的制造商、所有者还是操作者承担责任,或者是机器人本身应当被视为责任主体。这需要法律专家和立法者深入探讨现有的责任法框架,并考虑是否需要为人形机器人的行为设立专门的责任规则。另一方面,人形机器人的智能化和自主性提出了关于责任归属的复杂问题。随着人工智能技术的进步,人形机器人可能在某些情况下独立作出决策,这可能导致其行为结果无法预测。在这种情况下,传统的责任归属原则可能需要调整,以适应机器人行为的不确定性和复杂性。法律体系可能需要发展新的理论和规则,以确保受害者能够得到合理的赔偿,同时也保护机器人制造商和用户的合法权益。最后,人形机器人可能对个人信息安全与隐私等合法权益造成侵害。随着人形机器人技术的快速发展,它们在家庭、医疗、教育甚至执法等多个领域的应用将变得越来越广泛。这些机器人通常具备高度的感知能力,包括视觉、听觉甚至触觉传感器,以及强大的数据处理能力,能够收集和分析大量的个人信息。在日常生活中,人形机器人可能基于程序设计,收集用户的私人对话、面部表情、生活习惯等敏感信息。如果这些信息没有得到妥善保护,可能会被未经授权的第三方获取,导致个人隐私泄露。此外,如果人形机器人的数据存储和传输安全措施不足,也可能成为黑客攻击的目标,进一步威胁用户的个人信息安全。
二、人形机器人治理模式选择:迈向试验性规制
面对快速发展但处于产业幼稚时期的人形机器人产业,监管机构应当在何时并以何种方式予以规制,才能既不会在人形机器人产业发展初期扼制创新,又能够及时对人形机器人的负外部性进行有效防范,已经成为政府治理现代化的重要内容。正如荷兰学者所指出的,监管机构当前正处于一个关键的抉择时刻:一方面,他们必须确保新兴产业的创新活力不受过度及陈旧规制措施的抑制;另一方面,他们又肩负着保护用户免遭欺诈、责任风险以及非专业服务提供商伤害的责任。就人形机器人的治理而言,这一规制困境的复杂性远超初步设想,因为监管机构在此过程中将遭遇一系列棘手的挑战,这些问题不仅要求平衡创新与安全的关系,还要求在不断变化的市场环境中灵活应对。
(一)人形机器人的治理困境:科层式规制之不足在因应快速发展的新兴技术时,监管机构通常面临四个关键挑战:规制的审慎性、规制的合法性、规制的有效性和规制的关联性。人形机器人的治理面临理论与实践交织的困境,即传统的科层式规制体系似乎不再能够完全适应这一新兴领域的规制需求,在规制的审慎性、合法性、有效性和关联性等方面面临挑战。科层式规制,源自韦伯的官僚制理论,强调规则的普遍性、程序的标准化以及决策的层级化。然而,人形机器人的应用场景多样性和风险多元化挑战了这一传统规制模式的有效性。第一,规制目标与内容设定的困难。科层式规制是一种传统的规制模式,它通常基于明确的目标和规则内容,旨在实现秩序、效率和公平。科层式规制的优势在于它能够为人形机器人的治理提供一种统一的、稳定的、可操作的和可执行的框架,从而保障人形机器人的生产、销售、使用、回收等环节的规范和有序。然而,科层式规制的劣势在于缺乏灵活性和前瞻性,无法有效地应对人形机器人技术的复杂性和不断发展的特性,从而导致规制目标与内容的设定面临巨大的挑战。人形机器人技术的复杂性不仅体现在其模仿人类行为和交互的能力上,还体现在其潜在的应用领域和功能上。这种技术特性要求规制目标具有高度的灵活性,以便能够适应技术的快速变革。例如,随着人工智能和机器学习技术的进步,人形机器人的能力可能会超出我们目前的理解,这就要求规制目标能够及时调整,以适应这些变化。同时,规制内容的设定也需要具备前瞻性,以便应对未知的风险和社会影响。这不仅要求规制机构对当前的技术状态有深入的了解,还要求他们能够预测未来的发展趋势。这意味着规制内容不能仅仅基于现有的技术和应用场景,还必须考虑潜在的技术进步和社会变化。例如,随着人形机器人在家庭护理、教育和娱乐等领域的应用越来越广泛,规制内容需要涵盖这些领域的特定需求和挑战。第二,规制节奏与力度的失衡。科层式规制体系以其对程序稳定性和一致性的重视,为传统领域提供了一套可靠的管理框架。然而,在面对快速发展且不断演进的技术领域时,这一体系的刚性可能导致规制节奏和力度的失衡,从而产生不利的后果。一方面,规制节奏的把握是实现有效规制的关键因素之一。在人形机器人技术尚未成熟或社会尚未准备好接受变革的情况下,过早地施加限制可能会抑制技术创新和试验精神。如果在某个技术发展的初期阶段就施加过于严格的规制,可能会限制研究人员和开发者的创造力,阻碍潜在的有益应用的探索。相反,过慢的规制节奏可能会让风险得不到及时的控制,导致技术滥用或不当行为的发生,从而对社会造成伤害。如果对人形机器人可能引发的隐私侵犯或道德问题反应迟缓,可能会造成公众的不信任和反感。另一方面,规制力度的把握也同样重要。规制力度过大可能会对人形机器人技术的发展造成不必要的负担,限制其在市场上的应用和普及。这不仅会影响企业的创新动力,还可能阻碍整个行业的发展。然而,如果规制力度不足,可能无法有效防范技术带来的风险,如未经充分测试的人形机器人可能导致安全事故,或者在没有适当伦理指导的情况下被用于不当目的。第三,规制思维与规则的适用性不足。传统的科层式规制体系通常基于线性的、命令—控制型的思维方式,这种模式在处理明确、稳定的问题时或许有效,但在应对复杂、多变的技术现象时则显得力不从心。人形机器人技术的发展不仅涉及多个学科和领域,还与社会、文化、经济等多个因素紧密相连。这种技术的多样性和交叉性要求规制者必须具备跨学科的知识和敏感性,以便全面理解技术的特性和潜在的社会影响。同时,技术的不确定性也要求规制者具备前瞻思维,能够预测技术的未来趋势和社会的需求,从而制定出灵活且有效的规制措施。此外,规制规则的适用也需要从绝对性转向相对性。传统的规制模式往往强调规则的普遍性和统一性,但这种模式可能无法适应不同情境下的特定问题。因此,规制规则应能够根据具体情况灵活适用,而不是一成不变。这要求规制者具备灵活性和创新性,能够根据实际情况制定和调整规制策略。
(二)试验性规制:人形机器人治理的新模式“治理的核心是配置产业发展所需要的制度资源,从而实现治理核心目标的有机平衡:辅助(不阻碍)技术创新、防控产业风险(避免负外部性)、促进公众利益最大化”。为了弥补规制制度制定中信息、知识等方面的不充分、不确定,现代规制国家通常采取一种试验主义(experimentalist)的治理方式,通过规制制度的试验性供给和实施来适应新技术、新业态、新应用的未来发展并解决其固有的复杂性。试验性规制本质上是一种设定临时治理目标并进行修订的递归过程,其基础是通过比较不同背景下推进目标的替代方法进行规制学习。从理论基础的角度观察,可以将实用主义思想、渐进主义制度变迁理论、“试错”理论作为试验性规制的思想来源。此外,试验性规制也体现了科学技术进步法、《优化营商环境条例》《生成式人工智能服务管理暂行办法》等法律法规所规定的“包容审慎”规制原则(理念)。试验性规制的内在逻辑契合人形机器人的可规制性,有助于制订循证的、迭代的人形机器人治理策略,主要有以下几个方面的原因:一是人形机器人是一种涉及多个学科和领域的交叉技术,它的发展受到多种因素的影响,需要多方面的支持和协调。因此,试验性规制能够提供一个广泛的、开放的和灵活的规制平台,促进不同利益相关者的交流和合作,共同推进人形机器人的创新和进步。二是人形机器人技术尚处于发展过程中,其行为和后果难以预测和控制,过早规制可能会扼杀新技术,而推迟规制又可能导致潜在风险的放任自流。试验性规制能够提供一个细致的、审慎的和可调整的规制框架,充分考虑规制的时间要素,不断监测和评估人形机器人的风险和影响,制定和执行适当的规制措施,保护和维护利益相关者的权益。三是人形机器人是一种具有诸多人类特征的机器,它的存在和发展涉及人类的身份和尊严,可能引发一系列的伦理价值问题。而试验性规制能够提供一种深入的、多元的和参与式的规制过程,引导和促进利益相关者对人形机器人的伦理价值问题进行讨论,形成和传递有利于人形机器人和人类和谐共存的规制理念。在探讨人形机器人治理的学术讨论中,规制原则、规制关系和规制工具是构成治理框架的三个关键维度。相对于传统的科层式规制,试验性规制在这些方面展现出了显著的优势,从而在回应人形机器人治理困境时更具有正当性。首先,从规制原则上看,科层式规制强调的是等级分明、条块分割的管理原则,这种模式在应对人形机器人的技术迭代时往往会滞后。科层式规制的僵化和缺乏弹性导致其在应对快速变化的技术现象时反应迟缓,难以适应人形机器人技术的多样性和复杂性。相反,试验性规制则倡导开放性、灵活性和适应性,这种规制原则能够更好地适应人形机器人技术的发展需求。它不仅能为技术创新提供更为宽松的空间,还能为应对未知风险提供更为敏捷的反应机制。其次,在规制关系上,科层式规制往往是自上而下的单向度管理,忽视了多元主体间的互动与合作。然而,人形机器人的治理是一个复杂的系统工程,需要政府、产业界、学术界和公众等多方主体的共同参与和协作。试验性规制强调的是多元主体的参与,通过协商、合作,形成共治的局面。这种规制关系的转变有助于汇聚各方智慧,共同推动人形机器人治理的进步。最后,在规制工具的选择上,科层式规制往往依赖于硬性的法规和命令,而试验性规制则更加注重软法、自律等多样化的手段。这种转变意味着从刻板的教条主义向灵活的实用主义转变,更能够应对复杂多变的社会现象。通过行业自律、伦理规范、标准化等手段,可以有效地引导人形机器人的发展与应用,同时也能够及时调整和完善相关规制政策。
三、“监管沙盒”:促成人形机器人的试验性规制
“监管沙盒”作为一典型的试验性规制工具,近年来在金融科技领域得到了广泛应用,并逐渐扩展到其他领域,如人工智能、自动驾驶汽车等。“监管沙盒”的核心理念是在一个受限制的、可控的环境下,允许创新者测试其产品、服务或商业模式,而监管机构则通过观察和评估这些测试活动,来调整和完善相关的规制政策。这种工具旨在平衡创新与风险的关系,专门设计用于管理新兴技术的不确定性和复杂性。因此,“监管沙盒”的设计、实施和传播已经与新兴技术、创新和技术驱动的竞争等问题紧密联系在一起。在人形机器人的治理中,“监管沙盒”作为实现试验性规制的重要工具,具有诸多治理效能,有助于实现“统筹发展与安全”的政策目标,同时也需要综合考虑各种因素,充分借鉴其他领域“监管沙盒”的经验教训,并进行精心设计。
(一)作为试验性规制工具的“监管沙盒”通过规制扩散效应,试验性规制已经在我国普遍制度化,涉及广泛的规制领域,如税收、证券、保险、产品质量、就业促进等。一般认为,在设计试验性规制的制度安排时需要考虑四个要素:一是设定广泛的框架目标;二是在实施目标时赋予“下级”自由裁量权;三是定期报告和评估不同的规制措施;四是根据评估结果揭示的问题定期修订框架目标。在此背景下,较为常见的试验性规制工具主要包括以下类型:一是采用定制指南(bespoke guidance),即向创新者提供个性化的专业指导;二是临时豁免特定规则的适用;三是“规制告慰”(regulatory comfort),即当创新者希望开发或应用新产品或服务,但担心违反某些规则时,规制机构可以通过“告慰函”(comfort letter),说明他们认为哪些行为是合适的以及他们针对某些问题的执法方法;四是“监管沙盒”,即在人为创造的规制环境中测试新服务和产品,以促进创新;等等。与其他试验性规制工具相比,“监管沙盒”尤其具有吸引力,其设计和实施能够更为全面地考虑试验性规制的四个关键要素。“监管沙盒”作为一种创新的规制工具,通常由政府机构主导和管理,旨在为初创企业、科技公司以及其他相关实体提供一个可控的现实环境,以便它们能够在有限的时间内并在严格的监督管理下测试和提供创新的产品和服务。在“监管沙盒”的测试期间,参与的创新者通常会从规制机构那里获得一系列的支持和便利,包括专业指导、简化登记注册流程以及某些情况下的特定规制豁免。与此同时,通过对创新者的规制和与创新者的密切互动,规制机构可以获得关于新兴技术和商业模式的第一手资料,了解它们如何受到现行或拟议法规的影响。这种规制洞察力可以为调整法规、引入新的规制工具、废除繁琐的行政程序以及推行其他规制改革奠定基础。
(二)“监管沙盒”的治理效能:实现“统筹安全与发展”在新兴技术治理中,任何治理框架或规制工具均需要妥善处理规制机构、企业和消费者的利益诉求,人形机器人治理也不例外。如前所述,“统筹安全与发展”已经成为我国人形机器人治理的重要政策目标。作为试验性规制工具的“监管沙盒”,可以通过回应规制机构、企业和消费者的利益诉求,推进灵活且面向未来的规制方法,实现“统筹安全与发展”的政策目标。第一,“监管沙盒”有助于提升监管机构的治理实效。在人形机器人治理领域,“监管沙盒”作为一种新兴的规制工具,正逐渐成为提升监管机构治理实效的重要手段。具体而言,主要体现在以下几个方面:(1)监管机构通过学习和试验为长期决策提供信息。在人形机器人这一新兴领域,技术和市场环境的快速变化使得传统的规制模式难以适应。“监管沙盒”为监管机构提供了一个观察和学习的机会,使其能够更好地了解人形机器人的技术特性、市场动态以及潜在的风险和挑战,弥补规制中的“信息不对称”问题。通过在沙盒环境中进行测试,规制机构可以积累有关人形机器人的数据和经验,从而为制定长期的规制政策和决策提供有力的信息支持。(2)“监管沙盒”可以表明监管机构对创新和学习的承诺。在人形机器人治理中,创新是推动产业发展的关键动力。“监管沙盒”的实施意味着规制机构愿意为创新提供相对宽松的环境,鼓励企业进行尝试和探索。这种开放的态度有助于营造积极的创新氛围,激发企业的创造力和竞争力。(3)“监管沙盒”可以促进与市场参与者的交流和接触。在人形机器人治理过程中,规制机构需要与各类市场参与者进行广泛的沟通和合作。“监管沙盒”为企业、研究机构、消费者等各方提供了一个共同参与的平台,有助于加强彼此之间的联系和理解。通过深入交流,监管机构可以更好地把握市场参与者的需求和期望,从而制定更加符合实际情况的规制政策。(4)“监管沙盒”有助于更新可能遏制有益创新的法规。在人形机器人领域,传统的法规很可能无法适应新兴技术的发展。“监管沙盒”可以帮助监管机构及时发现和修正那些可能阻碍创新的法规和条款。通过在沙盒环境中进行试验和评估,监管机构可以更加灵活地调整法规体系。第二,“监管沙盒”有助于回应企业的利益诉求。“监管沙盒”不仅是一种创新的规制工具,更是一个充满活力的试验场,可以为人形机器人产业的健康发展提供坚实的支撑。具体而言,主要体现在以下几个方面:(1)“监管沙盒”简化授权流程,可以大幅缩短产品从研发到上市的周期。在激烈的市场竞争中,时间就是金钱,效率就是生命。传统的审批程序往往繁琐而漫长,使得许多创新产品难以迅速面市,错失良机。“监管沙盒”则以其灵活高效的审批方式,为企业节省了宝贵的时间,使得创新成果能够尽快转化为实际生产力,满足市场的需求。(2)“监管沙盒”可以减少规制的不确定性。在复杂多变的市场环境中,企业面临着种种不确定因素,其中规制的不确定性尤为突出。这种不确定性往往会增加企业的风险成本,影响其决策。“监管沙盒”提供了一个相对确定的环境,让企业在明确的规则下进行测试和调整,从而降低了运营风险,增强了企业的市场竞争力。(3)“监管沙盒”还有助于收集有关规制要求和风险的反馈意见。这一机制鼓励企业与规制机构之间的沟通与合作,通过实时的数据收集和分析,规制机构可以更加精准地了解市场动态和企业需求,及时调整和完善规制措施。同时,企业也能通过这一平台,更好地理解政策导向,优化产品设计,提升服务质量。第三,“监管沙盒”有助于实现消费者的权益保护。“监管沙盒”作为一种创新的治理机制,为保护消费者权益提供了新的思路。具体而言,主要体现在以下几个方面:(1)“监管沙盒”有助于引入新的、更安全的人形机器人产品。在沙盒环境中,企业可以在监管机构的监督下,对其研发的人形机器人进行严格的测试。这种测试不仅限于产品的性能和功能,更重要的是对其安全性和可靠性进行全面评估。通过这种方式,可以有效地筛选出那些符合安全标准、性能优越的人形机器人产品,为市场提供更加优质的选择。这不仅有利于提高整个行业的技术水平,也有助于保护消费者的权益,确保他们使用的人形机器人是安全可靠的。(2)“监管沙盒”还有助于增加消费者获得人形机器人产品和服务的机会。在沙盒环境中,政府和企业可以紧密合作,共同探讨如何优化人形机器人的应用场景,提高其服务水平。同时,“监管沙盒”还可以为企业提供一个展示自身实力的平台,让更多的消费者了解和接触到这些前沿科技产品。这样一来,消费者在选择人形机器人产品和服务时,将拥有更多的选择和比较的机会,从而提高他们的消费满意度。
(三)设计人形机器人“监管沙盒”的考量因素
尽管从理论上看,作为试验性规制工具的“监管沙盒”具有各种潜在优势,有利于实现人形机器人治理中“统筹发展与安全”的政策目标,但是成功使用这些工具并非没有挑战。在规制实践的诸多方面,关系因素扮演着不可忽视的角色,“监管沙盒”作为灵活规制工具的典型代表,正被越来越多地采用,其结构设计中显著融合了关系管理的元素。因此,高度灵活性和基于关系的规制模式,加之新兴技术规制本身的复杂性、分散性以及对于信任的深度依赖,无一不增加了政府及非国家行为者在运行“监管沙盒”时的难度,使整个规制过程的复杂程度加剧。目前人形机器人“监管沙盒”实践仍处于探索阶段,尚未形成可供复制的政策见解和实践经验。不过,我们仍然可以从其他领域的“监管沙盒”实践来总结经验教训,为人形机器人“监管沙盒”的设计提供镜鉴。“监管沙盒”并非治理技术创新和不确定性的“万能钥匙”,在理论与实践中也受到批判质疑。研究表明,在金融科技规制领域,“监管沙盒”虽然产生了诸多积极影响,但也面临如下困境:一是许多监管机构未进行仔细评估,便仓促启动“监管沙盒”项目,对竞争、消费者和规制造成意想不到的影响;二是沙盒测试流程效率低下,缺乏强有力的评估方法来评估企业是否符合资格标准;三是沙盒是作为小规模测试框架构思和设计的,参与人数有限,未来的可扩展性和互操作性不足;四是不同模式的“监管沙盒”全面铺开,可能引发“规制套利”(regulatory arbitrage)问题。为了避免人形机器人“监管沙盒”实践重蹈上述困境,有必要对“监管沙盒”进行精心设计。世界银行曾对全球57个司法管辖区的73个“监管沙盒”项目进行实证研究,总结了设计“监管沙盒”时所需考虑的因素:一是可行性评估。这是政策制定者在设立任何沙盒计划之前必须采取的关键第一步,并且在可能的情况下应当在沙盒计划实施后定期进行可行性评估。二是法律制度与沙盒之间的互动。法律制度与“监管沙盒”的效力之间并不存在明确的关系,要充分考虑监管机构设立沙盒是否需要法律的明确授权。三是“监管沙盒”的资源和治理。政策制定者必须意识到开发和运行沙盒需要大量资源,应当进行成本分析,同时建立科学合理的治理机制。四是测试期限。监管机构需要确立合适的测试期限,以便能够了解技术和产品对市场的影响。五是推广特定技术或产品的主题沙盒。定义明确的主题沙盒可以有效鼓励特定技术或产品进入市场。六是消费者保护措施。监管机构必须确保参与沙盒的消费者不会过度暴露于参与沙盒计划所带来的风险之下。有鉴于此,监管机构在设计人形机器人“监管沙盒”时也应当充分考虑上述因素。
四、人形机器人治理中“监管沙盒”的制度建构
在探索人形机器人治理的广阔天地中,“监管沙盒”作为一种试验性规制工具,其潜力不容小觑。为了使“监管沙盒”能够在人形机器人治理中发挥实效,实现制度化发展,我们必须充分借鉴其他领域“监管沙盒”实践的经验教训,在设计“监管沙盒”时充分考虑各种因素,并进行相应的制度安排。
(一)通过试验性立法为“监管沙盒”授权“规制的合法性”是监管机构在应对新兴技术时面临的四大关键挑战之一,主要涉及规制的目标、标准及工具等是否合法。“监管沙盒”作为一种新兴的规制工具,同样也需要接受合法性检验。研究表明,“监管沙盒”并不会自动遵守合法性原则和与之相一致的价值观,导致的结果是进行试验的公司的竞争对手以及作为试验对象的公司、组织或个人可能会主张“监管沙盒”违反合法性原则。换言之,“监管沙盒”缺乏法律依据通常就会转化为对相关风险评估和风险分配不透明的质疑。正如学者所指出的,“监管沙盒”有可能形成一种政府授予的经济特权,而沙盒之外的公司则无法享有这种特权,当政府从事挑选赢家和输家的业务时,就违背了法治理念、平等保护和普遍性原则。在比较法中,各国(地区)针对法律制度与“监管沙盒”的效力之间的关系采取了不同的立场。在有的国家(地区),规制机构设立“监管沙盒”必须获得法律的明确授权,而在另外一些国家(地区),设立“监管沙盒”无需对现有法律或规制权力进行任何修订或调整。在我国法治语境中,“监管沙盒……突破了传统依法行政原则对违法行为‘零容忍’的底线。因此,首先需要协调监管沙盒与现有法律规定的关系”。就我国人形机器人“监管沙盒”的授权而言,目前主要零星体现在一些政策文件中,如工业和信息化部印发的《人形机器人创新发展指导意见》规定了“开展示范试点”,难以弥合“监管沙盒”与“依法行政原则”之间的冲突。对此,本文认为,我国可以通过如下路径来确保人形机器人“监管沙盒”的合法性:第一,从短期发展来看,为了及时回应人形机器人产业的发展需求,可以通过试验性立法为人形机器人“监管沙盒”授权。由全国人大及其常委会按照立法法的规定授权国务院在人形机器人“监管沙盒”所涉领域内暂时调整或暂停实施有关法律规定。之所以采取此种思路,主要原因在于“日落条款”和“试验性立法”已经成为缩小法律与创新之间的步调及信息差距的重要手段,并且实验主义法治与当代中国国家治理之间亦存在极高的制度亲和性。第二,从长远发展来看,应当通过正式立法对人形机器人“监管沙盒”予以具体规定。具体而言,可以采用两种立法模式:一种是单行法模式,即由与人形机器人相关的立法设置相应的法律条款,如同欧盟人工智能法第57条至第61条对“人工智能监管沙盒”的规定;另一种是专门立法模式,即通过“提取公因式”的方式制定“监管沙盒”的专门立法,对“监管沙盒”制度进行统一规定,如美国犹他州于2021年制定了通用监管沙盒法(House Bill 217)。
(二)采用“中心辐射模式”治理“监管沙盒”在新技术治理中,规制的有效性最有可能受到监管机构自身的影响,如腐败、规制俘获、规制资源与能力不足等。此外,新技术的高速发展带来了规制空白与职能重叠等现实问题,监管机构的碎片化现象极易引发“规制公地”困境。研究表明,“监管沙盒”的成功运行需要大量资源以及合理的治理机制,而许多决策者通常低估了开发和运行沙盒所需的资源和能力。从全球“监管沙盒”的治理实践来看,主要包括专职部门模式和中心辐射模式,前者要求建立新的监管机构并配备人员专门负责实施沙盒,后者则是监管机构仅保留部分长期工作人员,根据需要从监管机构内部和外部汲取专业知识。无论采取何种治理模式,监管机构均必须能够为创新者提供有效建议,为进入沙盒的企业进行测试,并且充分了解风险。就我国人形机器人“监管沙盒”的治理而言,宜采用“中心辐射模式”。具体而言,可以由工业和信息化部作为人形机器人“监管沙盒”的主管部门,负责制定相关政策、法规和技术标准,以确保人形机器人的安全、可控和可持续发展。同时,工业和信息化部还应当设立专门的内部机构,负责人形机器人“监管沙盒”的日常管理和监督工作。鉴于人形机器人涉及技术复杂性、跨学科性以及对社会伦理、法律和文化的深刻影响,监管机构在履行监督管理职责时,必须具有相应的专业知识和技能。这包括但不限于机械工程、电子工程、计算机科学和人工智能等领域的知识。当某一类人形机器人产品或服务的复杂性超出了监管机构的理解能力时,为了使沙盒的实施不会加剧此种复杂性,监管机构应当拒绝将此类产品或服务纳入“监管沙盒”中,否则以合作治理方式来规制该类产品或服务就可能被证明是放松规制。在理想化的视角下,“监管沙盒”旨在促进对新兴技术的广泛讨论、民主监督以及有效控制。然而,实现这一愿景的可能性在很大程度上取决于“监管沙盒”采取的是封闭的二元互动模式,还是更为开放多元的协作框架,并且关键在于,如何在沙盒设计、审批、监督等环节中整合第三方参与者的贡献。就我国人形机器人“监管沙盒”的治理而言,监管机构还应当充分认识到这一领域所涵盖的多学科性和应用场景的多样性,采取多元化的协同治理模式。具体而言,协同治理思维要求监管机构在人形机器人“监管沙盒”的治理中,不仅要考虑技术本身的发展和创新,还要关注其在社会、经济、文化等不同层面的应用和影响。这意味着监管机构需要与各相关学科领域的专家学者、企业、政府部门等多方进行合作,通过“专家咨询委员会”“联合工作小组”“联席会议”“备忘录”等形式,共同制定和执行规制政策,确保人形机器人技术的发展和应用符合伦理准则、法律规定以及社会期望。
(三)确保“监管沙盒”实施的程序正义在民主价值观念的引领下,公众普遍期望规制机构能够展现出高度的透明度和责任感,并通过采取相应的包容性措施,积极促进利益相关方及公众的广泛参与。此种期望成为评估所有规制领域程序正当性的重要参照标准,无论其涉及的是小型自治团体,还是更大规模的社群。“监管沙盒”通常依托于以过程为导向的规制制度,以促进沙盒环境下的风险管控与知识积累,这一过程往往伴随着规制机构对执法自由裁量权的限制性承诺。以过程为导向的规制涉及监管机构设定必要的流程和标准,供被规制实体遵循,并以此开发和完善一套自我规制的内部制度及控制机制。在人形机器人“监管沙盒”实施过程中,确保程序正义至关重要。程序正义作为公正原则的核心要素,要求规制机构在制定和执行“监管沙盒”政策时,必须遵循透明、公平和参与性的原则。这不有助于提高“监管沙盒”政策的合法性和可接受性,还能确保人形机器人技术的发展和应用更好地符合社会期望和伦理准则。正如有学者所指出的,大量的行政决策过程不仅涉及对行政技术手段的选择与判断,还可能需要对彼此竞争的社会价值进行调处,对价值实现的优先次序作出判断。首先,透明度是程序正义的基本要求之一。监管机构在制定人形机器人“监管沙盒”政策时,应当充分公开相关政策文件、技术标准和评估报告等信息,让公众了解“监管沙盒”政策的制定依据和执行情况。这有助于增强公众对人形机器人“监管沙盒”政策的信任度,同时也为公众提供监督和参与人形机器人“监管沙盒”政策制定的机会。其次,公平性是程序正义的另一个重要方面。监管机构在执行人形机器人“监管沙盒”政策时,应当确保各方利益相关者在政策制定和执行过程中得到平等对待。这意味着监管机构需要平衡不同利益相关者的需求和诉求,避免出现权力寻租和利益输送的现象。此外,监管机构还应当关注弱势群体的利益保护,确保人形机器人技术的发展和应用不会导致社会不公和贫富差距的扩大。最后,参与性是程序正义的重要组成部分。监管机构在制定和执行人形机器人“监管沙盒”政策时,应当鼓励各方利益相关者积极参与其中。这包括与专家学者、企业、其他政府部门和非政府组织等进行广泛合作,共同研究和解决人形机器人“监管沙盒”实施过程中遇到的问题。通过这种方式,监管机构能够更好地了解人形机器人可能产生的社会影响,从而制定出更为科学合理的规制政策。
(四)完善“后沙盒”阶段的监督机制“监管沙盒”的一个根本局限性在于,其对于单一科技产品进行“受控测试”(controlled testing)的能力本身有限,无法全面评估该产品在沙盒环境外可能产生的系统性影响,从而难以形成对该影响深度的可靠洞察。研究表明,在“后沙盒”(post-sandbox)阶段,监管机构和企业可能会从构建对话和信息交流的沙盒环境转向一个以规定性规则和典型执法策略为主的新环境。这种转变可能会破坏在沙盒阶段建立起来的信任,或者减少企业与监管机构进行沟通或寻求指导的结构性动机。沟通或信任的减少会阻碍风险的识别和应对,尤其是当企业大规模部署产品或服务时,一些在有限试验环境中未曾出现的问题才会显现。为了确保人形机器人在“后沙盒”阶段的安全与合法运行,监管机构可以采取如下措施来完善监督管理:一是在沙盒测试阶段,监管机构应当加强对沙盒企业内部规范体系建设的监督指导,沙盒企业应当制定规范计划,引导其创新朝着全面规范的方向发展。二是在沙盒测试结束后,监管机构应当建立正式的沟通对话机制,将沙盒测试阶段形成的合作关系以某种形式持续下去。在比较法中,英国金融行为监管局认识到“后沙盒”阶段所面临的一系列挑战,于2021年4月宣布建设一个“规制苗圃”(regulatory nursery),以便在企业退出沙盒后的一段时间内继续与其保持密切沟通。
结语
在当代科技发展的浪潮中,人形机器人作为一项具有革命性的技术创新,其潜在的应用场景无疑是多样化的。这些高度自动化的机器人不仅能够执行复杂的任务,还能在人类无法或不宜介入的环境中发挥作用,从而极大地提升效率和安全性。然而,人形机器人的广泛部署也伴随着一系列风险和挑战。这些风险包括但不限于技术故障、数据安全、隐私侵犯以及其他伦理道德问题。人形机器人的广泛应用及其可能给个人、组织和社会造成的风险意味着,规制干预的先决条件已经存在,并且还应当适用风险预防原则,在技术开发和应用之前而不是之后进行适当规制。传统的科层式规制模式依赖于“命令与控制”机制,强调事前规则制定和事后违法制裁,通常是被动地作出反应,难以适应技术的迭代速度和不确定性,因此对于人形机器人的风险治理存在明显局限。与此相对应,试验性规制代表了现代规制的一种转变,从静态、一劳永逸的规则制定转向更为动态、参与性和学习导向的规制模式,旨在找到促进技术创新和保护公众利益的平衡点。其中,“监管沙盒”作为一种典型的试验性规制工具,可以使监管机构直接观察参与的企业,评估各种规制措施对企业和消费者的影响,并完善相应的法律规则。通过及时洞察人形机器人规制对企业和消费者的影响,监管机构可以更好地理解和调整现有与拟议的法律法规的必要性。“监管沙盒”虽然不能解决人形机器人治理中的所有问题,但它可以支持监管机构采用一种更具迭代性的方法来制定人形机器人的政策法规,为更具前瞻性地处理法律与技术之间的互动关系提供一种途径。
本文声明 | 本文章仅限学习交流使用,如遇侵权,我们会及时删除。本文章不代表本号的法律意见或对相关法规/案件/事件等的解读。