文 | 孙良国 大连海(hǎi)事大学法学院教授
人工智能的治理是一项复杂的(de)系(xì)统工程,也是人(rén)类面对的核心问题之(zhī)一。我(wǒ)国人工智(zhì)能的发展要引领世(shì)界,就必须(xū)设计能(néng)够支撑人工智能可(kě)持续发展的治理机制。其中,法律作为治国之重器,应当在人工智能(néng)的治理中发挥重要作用(yòng)。在人工智(zhì)能的法律治理中,一个重要议题是,人工智(zhì)能是否应当成为法律(lǜ)主体。在世界范围内(nèi),此问题(tí)引起了巨大(dà)的学术争论和社(shè)会(huì)争议,不同(tóng)甚(shèn)或对立的观(guān)点不(bú)断登(dēng)场,远未达成共识。笔者的观点是(shì),人工智能不应当成为法(fǎ)律主体。
从实证法的角度看,立法机关可(kě)以通过法律认可任何组织、实体或者其他事物作为法律主体。任何(hé)突破传统法律制度(dù)的新制度,都必须是经过价值判断后的恰当结果。人工智(zhì)能是否应当成为法律主体,取决于如下价值判断:既能够促进(jìn)人工智能的发(fā)展,同(tóng)时(shí)也能够消除人工智能的不当风(fēng)险。技(jì)术变革(gé)往往会伴(bàn)随风险,但(dàn)只要风险可控且不会对(duì)人类(lèi)价(jià)值产生(shēng)不可接受的(de)影(yǐng)响(xiǎng),那么(me)法律就应(yīng)采取最(zuì)优(yōu)措施来抑制风险(xiǎn)。考虑当下功用,兼(jiān)顾长远(yuǎn)影响,总(zǒng)体来看,维持(chí)目前法律制度,不赋予(yǔ)人工智能以法律主体(tǐ)地位,是人工(gōng)智能法律治理的最优解。
人工智能的发展并不(bú)需(xū)要其成为法律主(zhǔ)体(tǐ)
人工智能(néng)是概括性术语,从机器学习到大(dà)规模语言模型等均包(bāo)括在内。人工智能是否需要成为法律主体,可以从(cóng)法律(lǜ)主体的历史演(yǎn)进规律(lǜ)获(huò)得(dé)启(qǐ)示。
整体而言,法律主体演进的基本规律可概括(kuò)为从“人可非人”到“非人(rén)可人”。即使到(dào)近代社会,自然人(公(gōng)民)之间的(de)权(quán)利(lì)也是有差别的。只有在现代(dài)法治国家,自然(rán)人才享有平等(děng)的民事权利。不仅如此,法律(lǜ)主体(tǐ)也已经不(bú)再(zài)限于生物学意义上(shàng)的人,公司等实(shí)体也获得(dé)了法(fǎ)律的明(míng)确承认,同时附之以股东或者出资人以自己对公(gōng)司的出资为限承担责任。此种承认(rèn)促进了现代(dài)科(kē)学(xué)技术和组织形式的跨越式变革,推进了人类的文明(míng)进步。尽管部分学者列(liè)举或者设想了目前人工智能应当作为法律(lǜ)主体的具体场景(jǐng),然而(ér)经(jīng)过仔细分析,这些场景(jǐng)都没有显示出人工智能需要作为法律主(zhǔ)体的真(zhēn)正客(kè)观需(xū)求,也没有显示出(chū)既(jì)有的法律制度(如代理、公司法等)阻碍(ài)了人工(gōng)智能的发展而通过使人工智能成为(wéi)法律主体会扫清该障碍。
有学者认为,对社会生活的参与是判断是否设定法律主体的重要因素。这一说法值得商榷(què)。因为参与社会生(shēng)活(huó)的身份有主体和客体(tǐ)之分,人工智能是作为(wéi)客体如机器、软件(jiàn)、程序或(huò)系统而参(cān)与的。即使客(kè)体很智能,甚至可以在既有技术(shù)设计下做出独立判断,但此(cǐ)种独立判断所归责的主体仍旧是设置、控制(zhì)或使用该(gāi)机器的主体,所代表的(de)依然是(shì)设(shè)置、控制或(huò)使用该客体的主体的意志(zhì)。事物很重要与法律赋予其法律(lǜ)主体(tǐ)资格是(shì)两个完(wán)全不同的问(wèn)题。例(lì)如,对很多人来(lái)说,宠物已经成为社会生活(huó)的重要部分,其(qí)中部分人对宠物的依赖性要远高于其他事物,但这并不能证成(chéng)宠物成为法律主(zhǔ)体。同理,虽然(rán)人工智能非常重要,但(dàn)法(fǎ)律仍然没有使之成为法律(lǜ)主体的内在需求。
从责任能(néng)力视角看,人工(gōng)智能不能(néng)成为法律主体
在民法上赋予(yǔ)法律主体资格的一个(gè)重要条件(jiàn)是责任能(néng)力。承(chéng)担(dān)责任意味着,法律主体承受不利的财产负担(dān),而且(qiě)该法律主体通(tōng)常应(yīng)当是最(zuì)终的责任承担者。责任能力的一个前提条件是,法律主体必须有(yǒu)独(dú)立(lì)的财产。如果没有独立的财产,那么使人工智能承担责(zé)任就没有实质意义。到目前为止甚或是在相当长的未来,我们都很(hěn)难设想(xiǎng)人工智(zhì)能需要或者(zhě)能(néng)够拥有(yǒu)独立财产。由于这(zhè)一前提条件并(bìng)不(bú)具备,那么人工(gōng)智能成(chéng)为法律主体也就没有必要(yào)或者可能。从既有的媒(méi)体公开报道(dào)的(de)人工智能导致人身或者(zhě)财产损害的案件中,我(wǒ)们均可以根据既有法律规定找(zhǎo)到(dào)需要承(chéng)担(dān)责任的(de)主体——开发人、设计者、所有者(zhě)或使(shǐ)用者等。换言之,既有的法律制(zhì)度能(néng)够(gòu)解决目前人(rén)工智(zhì)能所引发的人身或财(cái)产损害问题。
进(jìn)一步(bù)说(shuō),人(rén)工(gōng)智能成为法律(lǜ)主体(tǐ)甚至(zhì)有潜在的(de)不可(kě)预计的风(fēng)险。人工智能成为法律主(zhǔ)体(tǐ)的一个自然推论是,它(tā)能够独立承担(dān)责(zé)任。由于人工智(zhì)能的确会导致伤害甚或(huò)大规模伤害,如隐私泄露、数(shù)据毁坏(huài)、人身损害等——到目前为(wéi)止,即使是专家也(yě)很(hěn)难完全了解大规(guī)模(mó)模型的内在运行机制,并准(zhǔn)确预测未来可(kě)能(néng)发生的(de)伤(shāng)害(hài)及其规模(mó),而且对如何抑制未来(lái)的大(dà)模型伤(shāng)害尚未形成共识。不仅如(rú)此,更(gèng)危险(xiǎn)的情形可能是,人工智能会有意或无意生成执行危险行为的能力,甚至“学习掌(zhǎng)握(wò)”如何影(yǐng)响人(rén)类使用者,进而鼓动特定群体以(yǐ)破坏性(xìng)甚或毁灭式方式行动(dòng)。此时(shí),人工智能承担责任就(jiù)意味着开发、设计、运(yùn)行(háng)、使用人工智能的主体将可以(yǐ)逃避法律制裁,这是极(jí)不可取的结果,必须予以(yǐ)避免。尽(jìn)管“刺穿人工智(zhì)能(néng)面纱”制度可以减缓上(shàng)述不(bú)利后果,但是该(gāi)制度(dù)应当有严格的适用要件,不可常(cháng)规性地使用,否则就(jiù)有违人工智能作为(wéi)法律主(zhǔ)体(tǐ)的设(shè)计初衷。
情(qíng)感、理(lǐ)性、意志不证成人工智能(néng)成为(wéi)法(fǎ)律主(zhǔ)体
情感(gǎn)、理性、意志与人工(gōng)智能的法律主体问题有内在(zài)关联(lián)。一种观点认为,赋予法律主体的一个传统要素是,其必须(xū)能够有情感、理性、意志。尽管(guǎn)人工智能是以深(shēn)度学(xué)习为(wéi)基础,然而,既有的人工(gōng)智(zhì)能大都不存在情感。尽管有些人工智(zhì)能的技术领导者认为(wéi),人工智能(néng)很快就(jiù)向有情感的方向发展。然而,即使有情感,甚或是(shì)自主(zhǔ)情感,人工智能也不应当成为法律(lǜ)主体。因为相(xiàng)比很多人(rén)工智能而言,很多动物已经具有(yǒu)丰富的情感甚至一定(dìng)的自我意(yì)识(shí)。尽(jìn)管(guǎn)动物可以获得某些权利,然而从主导(dǎo)价值观审视,动物(wù)依(yī)然不(bú)能(néng)获得和人一(yī)样完全相同或者高度相似的法律主体身份。我国民法(fǎ)典也采纳了此种立场。从规(guī)范意义上(shàng)评价,情感、理性、意志并非赋予法律主(zhǔ)体的必备要素。与此相关的是,即使人工智能的推(tuī)理能力已经超过了人类,也无法证成赋(fù)予(yǔ)其(qí)法(fǎ)律主体地(dì)位是(shì)一种必备或者最优的解决方案。
在比(bǐ)较(jiào)法(fǎ)上,的确有一些事(shì)物尤其是自然资(zī)源被赋予(yǔ)了法律主(zhǔ)体资格,如部(bù)分(fèn)国家通过(guò)立(lì)法赋予了(le)珊瑚礁(jiāo)、河流或机器人以法律(lǜ)主体资格。然(rán)而我(wǒ)们发现,这些特(tè)殊事物都没有在民事(shì)法(fǎ)律中成为法律主体,更没有在民事基础性(xìng)法律(lǜ)——民法典中成为法律主体。2017年新西兰(lán)通(tōng)过立法赋予了旺格努伊河的法律主体资格,该法是与旺格努伊河毛利人妥协的一部分,是(shì)因(yīn)为毛(máo)利人(rén)一直认为该河有生命力,该法的通过能够给(gěi)毛利人带来希(xī)望。在特别的法律中赋予(yǔ)其某些特殊利(lì)益或者权利,并不能在(zài)一般意(yì)义上证(zhèng)成其(qí)应当成为法律主体。
人(rén)工智能(néng)不(bú)作为法律主体并不(bú)影(yǐng)响人工智能法律(lǜ)制度(dù)的变(biàn)革
可以预见的是(shì),人(rén)工智能(néng)已经或者在未来可能(néng)会经受伤(shāng)害。基于人类(lèi)的价值(zhí)判断(duàn)以及现代法治(zhì)文明,法律制度也不(bú)应(yīng)故步自封,一个可能(néng)的预备解决方案是,尽管人工智能(néng)不应当成为(wéi)或者不是法律主(zhǔ)体,但(dàn)是有(yǒu)情(qíng)感的人工(gōng)智(zhì)能机器人或者其他产(chǎn)品未来可能会受到法(fǎ)律的(de)特殊规制,以保护(hù)人类对(duì)它们(men)的某些情感利益和其他利益。
人工智能(néng)的复杂性也会产生一些现行法很难(nán)有效解决的问题。例如,大多(duō)数(shù)人工智(zhì)能系统都是诸多开发人(rén)、设计者(zhě)、所有人、经营者、用户之(zhī)间通过复杂的跨国协议产生的产品,在这一相(xiàng)互独立的关系的国际(jì)化网络中,确(què)定(dìng)某个(gè)或者某几个主体来(lái)承担责任几乎(hū)不可能(néng)。不仅如此,基(jī)于不(bú)透明性以及一些人工智能系统的自我学习性(xìng),伤害的(de)风险(xiǎn)可能是以一(yī)种负责开(kāi)发的主体所不可预见的(de)方式导致的,确定特定实(shí)体(tǐ)来承担责任更是难上(shàng)加(jiā)难。这就需要人工智能法律制度的持续变革。更好拥抱(bào)人工智能的方式(shì)是(shì)设定(dìng)适应性的治理框(kuàng)架,以保护人类的文(wén)明成果。人工智能(néng)促进(jìn)人类向好的(de)方向发展(zhǎn),就需要通过多层次制度为基础的有效治理来促使其具有(yǒu)可解释性、可预测性、可信赖性。