分享縮略圖

分享到:
鏈接已復(fù)制

新聞

新聞直播 要聞 國(guó)際 軍事 政協(xié) 政務(wù) 圖片 視頻

財(cái)經(jīng)

財(cái)經(jīng) 金融 證券 汽車(chē) 科技 消費(fèi) 能源 地產(chǎn) 農(nóng)業(yè)

觀點(diǎn)

觀點(diǎn) 理論 智庫(kù) 中國(guó)3分鐘 中國(guó)訪談 中國(guó)網(wǎng)評(píng) 中國(guó)關(guān)鍵詞

文化

文化 文創(chuàng) 藝術(shù) 時(shí)尚 旅游 鐵路 悅讀 民藏 中醫(yī) 中國(guó)瓷

國(guó)情

國(guó)情 助殘 一帶一路 海洋 草原 黃河 運(yùn)河 灣區(qū) 聯(lián)盟 心理 老年

首頁(yè)> 理論中國(guó)>

有限法律主體:人工智能法律地位的合理選擇

2024-09-02 15:59

來(lái)源:光明日?qǐng)?bào)

分享到:
鏈接已復(fù)制
字體:

8月16日、23日,本報(bào)理論版圍繞“人工智能是否應(yīng)具有法律主體地位”刊發(fā)的系列爭(zhēng)鳴文章。資料圖片

8月16日、23日,本報(bào)理論版圍繞“人工智能是否應(yīng)具有法律主體地位”刊發(fā)的系列爭(zhēng)鳴文章。資料圖片

 【學(xué)術(shù)爭(zhēng)鳴】

當(dāng)前,人工智能正以前所未有的速度迅猛發(fā)展,深刻影響著人類(lèi)的生活和社會(huì)結(jié)構(gòu)?,F(xiàn)有民法體系將人工智能納入客體制度進(jìn)行規(guī)制,使得在規(guī)制人工智能損害時(shí)面臨諸多難題,特別是權(quán)利義務(wù)認(rèn)定的模糊性和法律責(zé)任的分散性導(dǎo)致對(duì)受害人的保護(hù)不周延,影響人工智能技術(shù)的進(jìn)一步發(fā)展。由此,“人工智能是否應(yīng)當(dāng)成為法律主體”的議題引起了諸多學(xué)術(shù)討論與社會(huì)爭(zhēng)議。光明日?qǐng)?bào)理論版近期刊發(fā)的《人工智能不應(yīng)成為法律主體》和《破除人工智能成為法律主體的臆想》兩篇文章,提出不應(yīng)當(dāng)賦予人工智能法律主體地位,筆者對(duì)此持不同觀點(diǎn)。筆者認(rèn)為,主體制度是權(quán)利、行為、責(zé)任制度的基礎(chǔ),人工智能成為有限法律主體,有助于實(shí)現(xiàn)權(quán)利和責(zé)任的清晰劃分,推動(dòng)科技創(chuàng)新健康發(fā)展。

人工智能作為客體的弊端

其一,人工智能作為客體在侵權(quán)責(zé)任中存在構(gòu)造不當(dāng)問(wèn)題。傳統(tǒng)民法責(zé)任制度建立在個(gè)人過(guò)錯(cuò)基礎(chǔ)之上,對(duì)于普通機(jī)器適用客體制度能夠解決問(wèn)題,但在具有高感知力與高決策力的人工智能語(yǔ)境下,則難以通過(guò)客體制度保障受害人權(quán)利。具言之,在過(guò)錯(cuò)責(zé)任中,合理預(yù)見(jiàn)是確立責(zé)任的基礎(chǔ),預(yù)見(jiàn)性確定了責(zé)任的性質(zhì)與責(zé)任的內(nèi)容,但由于人工智能能夠獨(dú)立思考和作出決策,其自我決策的存在削弱了參與主體(使用者)的過(guò)錯(cuò)程度,因此需要重新審視和調(diào)整民事責(zé)任的分配機(jī)制。對(duì)此,學(xué)界試圖以嚴(yán)格責(zé)任來(lái)解決致人損害的問(wèn)題,但沉重的責(zé)任負(fù)擔(dān)將嚴(yán)重影響人工智能的開(kāi)發(fā)與利用。

其二,人工智能作為客體在產(chǎn)品缺陷認(rèn)定中存在困難。人工智能系統(tǒng)的復(fù)雜性意味著人類(lèi)對(duì)其行為無(wú)法完全掌控。例如,高階自動(dòng)駕駛汽車(chē)在發(fā)生事故時(shí),在其客體定位下只能極力探尋是因產(chǎn)品缺陷還是操作不當(dāng)導(dǎo)致事故發(fā)生,而人工智能的“算法黑箱”導(dǎo)致缺陷認(rèn)定困難。即使在確定產(chǎn)品存在缺陷后,最終硬件制造商、軟件開(kāi)發(fā)商、算法設(shè)計(jì)師、數(shù)據(jù)提供商等參與主體分別承擔(dān)何種責(zé)任,依然無(wú)法準(zhǔn)確認(rèn)定。這種責(zé)任分散且因果關(guān)系中斷的情況加大了責(zé)任歸屬認(rèn)定的難度,導(dǎo)致責(zé)任認(rèn)定的無(wú)限遞歸,不利于保護(hù)受害人的權(quán)益。對(duì)此,《人工智能不應(yīng)成為法律主體》與《破除人工智能成為法律主體的臆想》等提出否定觀點(diǎn),均認(rèn)為人工智能所引發(fā)的問(wèn)題完全可以由既有法律體系調(diào)整而解決。這確實(shí)能夠在一定程度上解決當(dāng)前的擔(dān)責(zé)困境。但這種應(yīng)對(duì)之策,與認(rèn)可人工智能能夠成為法律主體一樣,均屬解決人工智能發(fā)展所帶來(lái)的法律挑戰(zhàn)的備選方案,二者并無(wú)本質(zhì)區(qū)別。

其三,人工智能作為客體不利于科學(xué)技術(shù)的發(fā)展創(chuàng)新。正如美國(guó)學(xué)者博登海默所言,法律必須服從社會(huì)進(jìn)步所提出的正當(dāng)要求。在快速發(fā)展的智能時(shí)代,法律應(yīng)當(dāng)促進(jìn)而非阻礙技術(shù)創(chuàng)新與應(yīng)用。若將人工智能僅視為客體,那么在面對(duì)技術(shù)迭代與應(yīng)用場(chǎng)景擴(kuò)展時(shí),現(xiàn)行法律框架可能無(wú)法提供足夠的激勵(lì)機(jī)制和安全保障,進(jìn)而抑制了潛在的社會(huì)經(jīng)濟(jì)效益與科技進(jìn)步。

值得強(qiáng)調(diào)的是,主體制度是權(quán)利制度的基礎(chǔ),權(quán)利是定分止?fàn)幍幕A(chǔ)。人工智能被視為法律主體后能使權(quán)利義務(wù)更加清晰。例如,當(dāng)前關(guān)于人工智能創(chuàng)造物的歸屬爭(zhēng)議,即是因人工智能的客體定位導(dǎo)致了正當(dāng)權(quán)利主體的“虛無(wú)”,這何嘗不是人類(lèi)的一種“自負(fù)”?而將人工智能作為主體則能夠使權(quán)利更加明確地被界定和分配——?jiǎng)?chuàng)作物屬于人工智能與使用者共同所有。此外,《人工智能不應(yīng)成為法律主體》一文提出,人工智能成為法律主體有潛在的不可預(yù)計(jì)的風(fēng)險(xiǎn)。但正是基于此種風(fēng)險(xiǎn),才更需要“刺穿人工智能面紗”,從而增加一種可選擇的直接規(guī)制其致害的路徑。這種做法不僅能有效解決責(zé)任歸屬問(wèn)題,還能通過(guò)設(shè)定合理的責(zé)任限制和保險(xiǎn)機(jī)制來(lái)平衡技術(shù)進(jìn)步帶來(lái)的潛在利益與可能的危害,確保受害者能夠獲得適當(dāng)?shù)馁r償,同時(shí)避免過(guò)度懲罰技術(shù)創(chuàng)新者,從而保持技術(shù)發(fā)展的活力。

人工智能成為有限法律主體的可行性

其一,民事主體是法律承認(rèn)的結(jié)果,法律人格在社會(huì)需求中不斷擴(kuò)張。從“人可非人”到“非人可人”的歷史演變,闡釋了民事主體只是社會(huì)需要的法律形式。例如,法人制度的出現(xiàn)純粹是經(jīng)濟(jì)發(fā)展的需求導(dǎo)致法律技術(shù)進(jìn)步的結(jié)果,是一種經(jīng)濟(jì)生活的客觀現(xiàn)實(shí)與法律技術(shù)運(yùn)用相結(jié)合的產(chǎn)物。即使是法國(guó)民法典編纂之時(shí),立法者因害怕波旁王朝借“法人制度”進(jìn)行復(fù)辟而予以拒斥,卻依然無(wú)法違背“法律須適應(yīng)社會(huì)發(fā)展需求”這一客觀規(guī)律,最終法人具有擬制主體地位。又如,法律為了保護(hù)胎兒利益,在繼承、接受贈(zèng)與等情況下被視為已出生,胎兒在此種情形下具有民事主體地位。人格制度的演變直接反映了整個(gè)民法觀念、價(jià)值的發(fā)展變化,逐漸出現(xiàn)了“沒(méi)有臉龐”的權(quán)利主體。法律對(duì)民事主體的承認(rèn)是基于現(xiàn)實(shí)需要,根基在于實(shí)現(xiàn)人的利益,生命和倫理并非成為民事主體的必然要求。

其二,賦予人工智能有限人格不會(huì)損害以人為中心的主體制度,反而以工具性人格來(lái)定位人工智能可以更好貫徹以人為本的理念。《破除人工智能成為法律主體的臆想》一文認(rèn)為,“賦予人工智能主體地位會(huì)挑戰(zhàn)以人類(lèi)為中心的傳統(tǒng)觀念”。但在有限的工具性人格主張下,此種憂慮可以得到解決。對(duì)人工智能有限人格的承認(rèn),其實(shí)是以人類(lèi)為中心建立相應(yīng)的制度體系,避免具體人格的缺乏導(dǎo)致規(guī)則的無(wú)所依存。事實(shí)上,我國(guó)民事主體可分為支配性主體(自然人)與工具性主體(法人、非法人組織),后者系為了服務(wù)人類(lèi)社會(huì)發(fā)展,實(shí)現(xiàn)責(zé)任有限的目的而人為擬制的一種工具,但并不具有與人類(lèi)完全相同的權(quán)利義務(wù)。同樣,賦予人工智能民事主體資格,也可使人工智能更好地發(fā)展以服務(wù)人類(lèi)社會(huì)。

其三,賦予人工智能有限人格不會(huì)違反現(xiàn)行民事財(cái)產(chǎn)制度。財(cái)產(chǎn)制度作為一種社會(huì)分擔(dān)制度,其核心在于通過(guò)法律手段合理分配社會(huì)資源,以實(shí)現(xiàn)公平與效率的雙重目標(biāo)。從這個(gè)角度看,賦予人工智能有限的法律人格不僅不會(huì)與現(xiàn)有財(cái)產(chǎn)制度相沖突,反而能更好地發(fā)揮財(cái)產(chǎn)制度的社會(huì)分擔(dān)功能。一方面,人工智能所涉及的財(cái)產(chǎn)關(guān)系本質(zhì)上是對(duì)既有財(cái)產(chǎn)制度的補(bǔ)充和完善。例如,當(dāng)人工智能作為投資受托人參與經(jīng)濟(jì)活動(dòng)時(shí),其獲取的財(cái)產(chǎn)收益可以被規(guī)定為歸委托人所有,或者按照事先約定的比例分配給委托人和機(jī)器人本身。這種安排既尊重了財(cái)產(chǎn)所有權(quán)的基本原則,又為新型經(jīng)濟(jì)活動(dòng)提供了法律上的支持,確保了財(cái)產(chǎn)分配的公平性和合理性。另一方面,財(cái)產(chǎn)制度的一個(gè)重要功能是通過(guò)法律規(guī)范來(lái)實(shí)現(xiàn)資源的有效配置和社會(huì)風(fēng)險(xiǎn)的合理分散。通過(guò)賦予人工智能有限法律人格,可以明確其在特定情形下的財(cái)產(chǎn)持有權(quán)和使用權(quán)。例如,商用無(wú)人駕駛汽車(chē)因出租或共享而獲取的收益,可以歸屬汽車(chē)所有,這些收益可以用來(lái)彌補(bǔ)潛在的風(fēng)險(xiǎn)損失,或用于補(bǔ)償受害者的損失。由此,財(cái)產(chǎn)制度不僅促進(jìn)了資源的有效利用,還實(shí)現(xiàn)了社會(huì)風(fēng)險(xiǎn)的合理分擔(dān)?;谠撝贫?,《破除人工智能成為法律主體的臆想》一文提出人工智能沒(méi)有獨(dú)立財(cái)產(chǎn)承擔(dān)責(zé)任的說(shuō)法亦不攻而破。

對(duì)有限法律主體之“有限性”的理解

具有自主性與決策力的人工智能具有一定程度的創(chuàng)造性:創(chuàng)造出相應(yīng)在法律上無(wú)從依歸的權(quán)利,創(chuàng)造出相應(yīng)無(wú)法確定的責(zé)任?;诖?,為解決相應(yīng)問(wèn)題,人工智能應(yīng)該成為有限法律主體,其“有限性”主要表現(xiàn)為以下幾個(gè)方面:

其一,權(quán)利能力的有限性。人工智能作為工具性主體并不享有倫理性的人格權(quán)或身份權(quán),而是享有經(jīng)濟(jì)性的財(cái)產(chǎn)權(quán)利。這意味著人工智能可以通過(guò)自己的“勞動(dòng)”擁有特定的財(cái)產(chǎn)權(quán),但它們并不享有與自然人相同的身份權(quán)或人格權(quán),比如名譽(yù)權(quán)、隱私權(quán)等。需要注意的是,在肯定人工智能擁有財(cái)產(chǎn)權(quán)的基礎(chǔ)上,也不妨礙其作為人類(lèi)“所有物”的屬性。這一點(diǎn)可以類(lèi)比于實(shí)控股東對(duì)法人的“所有權(quán)”,而法人也具有自己的財(cái)產(chǎn)。簡(jiǎn)言之,法律在肯定人工智能可以享有民事財(cái)產(chǎn)權(quán)的同時(shí),并不改變?nèi)斯ぶ悄鼙旧硐鄬?duì)于人類(lèi)而言的客體屬性。

其二,行為能力的有限性。人工智能的行為能力同樣受限于其設(shè)計(jì)和技術(shù)。盡管人工智能能在一定范圍內(nèi)自主決策和執(zhí)行任務(wù),但這些行為始終受制于其編程邏輯及法律規(guī)范。設(shè)計(jì)者、使用者或所有者通過(guò)編程等方式設(shè)定了人工智能的行為邊界,以保障其行為不會(huì)超出法律和社會(huì)可接受的范圍。亦即,盡管人工智能具備一定的自主性,但其行動(dòng)仍需遵循預(yù)設(shè)的規(guī)則體系,且最終應(yīng)由人類(lèi)負(fù)責(zé)監(jiān)督和控制。簡(jiǎn)言之,人類(lèi)不可因人工智能有限主體地位而逃避自身的責(zé)任。由此,可回應(yīng)《破除人工智能成為法律主體的臆想》一文提出“誘發(fā)道德風(fēng)險(xiǎn)”的擔(dān)憂。

其三,責(zé)任能力的有限性。人工智能的責(zé)任能力與自然人的責(zé)任能力不同,其承擔(dān)責(zé)任是有限的?!度斯ぶ悄懿粦?yīng)成為法律主體》一文認(rèn)為人工智能無(wú)法獨(dú)立承擔(dān)責(zé)任。在有限人格的制度定位下,法律應(yīng)當(dāng)為人工智能創(chuàng)設(shè)特殊的責(zé)任承擔(dān)的機(jī)制,在一定限度內(nèi)以自己的財(cái)產(chǎn)獨(dú)立對(duì)受害人承擔(dān)責(zé)任,以減輕相關(guān)參與人的責(zé)任負(fù)擔(dān)。例如,通過(guò)統(tǒng)一為人工智能開(kāi)設(shè)相應(yīng)信托賬戶、購(gòu)買(mǎi)保險(xiǎn)等方式,當(dāng)其對(duì)他人造成損害時(shí),優(yōu)先以該賬戶資金進(jìn)行賠付;同時(shí),還可以通過(guò)登記確立人工智能與占有人的代理關(guān)系,從而確定代理人與被代理人之間的責(zé)任承擔(dān)機(jī)制。以上述多元財(cái)產(chǎn)—責(zé)任制度的設(shè)計(jì)來(lái)完成對(duì)責(zé)任的承擔(dān)。

隨著時(shí)代的發(fā)展,尤其是人工智能技術(shù)的迅速發(fā)展,法律制度的革新變得尤為迫切。人工智能不僅在改變著我們的生活方式,還在影響著既有法律框架,推動(dòng)著法律理論的創(chuàng)新。將人工智能視為有限法律主體,不僅是應(yīng)對(duì)當(dāng)前法律挑戰(zhàn)的迫切需求,也是促進(jìn)社會(huì)科技進(jìn)步和創(chuàng)新的必要之舉。雖然這一路徑面臨諸多爭(zhēng)議,但面對(duì)快速變化的社會(huì)和科技環(huán)境時(shí),簡(jiǎn)單劃定界限、固守成規(guī),往往會(huì)限制創(chuàng)新與進(jìn)步。法律制度不應(yīng)僅僅停留在將人工智能視為客體進(jìn)行規(guī)制的傳統(tǒng)思維模式中,而應(yīng)積極探索并承認(rèn)其在特定條件下作為有限法律主體的可能性,在促進(jìn)技術(shù)創(chuàng)新與應(yīng)用的同時(shí)確保法律制度能夠更好地服務(wù)于社會(huì)發(fā)展。

 (作者:許中緣,系中南大學(xué)法學(xué)院院長(zhǎng)、教授)

【責(zé)任編輯:申罡】
返回頂部