分享縮略圖

分享到:
鏈接已復(fù)制

新聞

新聞直播 要聞 國(guó)際 軍事 政協(xié) 政務(wù) 圖片 視頻

財(cái)經(jīng)

財(cái)經(jīng) 金融 證券 汽車 科技 消費(fèi) 能源 地產(chǎn) 農(nóng)業(yè)

觀點(diǎn)

觀點(diǎn) 理論 智庫(kù) 中國(guó)3分鐘 中國(guó)訪談 中國(guó)網(wǎng)評(píng) 中國(guó)關(guān)鍵詞

文化

文化 文創(chuàng) 藝術(shù) 時(shí)尚 旅游 鐵路 悅讀 民藏 中醫(yī) 中國(guó)瓷

國(guó)情

國(guó)情 助殘 一帶一路 海洋 草原 黃河 運(yùn)河 灣區(qū) 聯(lián)盟 心理 老年

首頁(yè)> 智庫(kù)中國(guó)>

人工智能不應(yīng)成為法律主體

2024-08-16 16:31

來源:光明日?qǐng)?bào)

分享到:
鏈接已復(fù)制
字體:

文 | 孫良國(guó) 大連海事大學(xué)法學(xué)院教授

人工智能的治理是一項(xiàng)復(fù)雜的系統(tǒng)工程,也是人類面對(duì)的核心問題之一。我國(guó)人工智能的發(fā)展要引領(lǐng)世界,就必須設(shè)計(jì)能夠支撐人工智能可持續(xù)發(fā)展的治理機(jī)制。其中,法律作為治國(guó)之重器,應(yīng)當(dāng)在人工智能的治理中發(fā)揮重要作用。在人工智能的法律治理中,一個(gè)重要議題是,人工智能是否應(yīng)當(dāng)成為法律主體。在世界范圍內(nèi),此問題引起了巨大的學(xué)術(shù)爭(zhēng)論和社會(huì)爭(zhēng)議,不同甚或?qū)α⒌挠^點(diǎn)不斷登場(chǎng),遠(yuǎn)未達(dá)成共識(shí)。筆者的觀點(diǎn)是,人工智能不應(yīng)當(dāng)成為法律主體。

從實(shí)證法的角度看,立法機(jī)關(guān)可以通過法律認(rèn)可任何組織、實(shí)體或者其他事物作為法律主體。任何突破傳統(tǒng)法律制度的新制度,都必須是經(jīng)過價(jià)值判斷后的恰當(dāng)結(jié)果。人工智能是否應(yīng)當(dāng)成為法律主體,取決于如下價(jià)值判斷:既能夠促進(jìn)人工智能的發(fā)展,同時(shí)也能夠消除人工智能的不當(dāng)風(fēng)險(xiǎn)。技術(shù)變革往往會(huì)伴隨風(fēng)險(xiǎn),但只要風(fēng)險(xiǎn)可控且不會(huì)對(duì)人類價(jià)值產(chǎn)生不可接受的影響,那么法律就應(yīng)采取最優(yōu)措施來抑制風(fēng)險(xiǎn)??紤]當(dāng)下功用,兼顧長(zhǎng)遠(yuǎn)影響,總體來看,維持目前法律制度,不賦予人工智能以法律主體地位,是人工智能法律治理的最優(yōu)解。

人工智能的發(fā)展并不需要其成為法律主體

人工智能是概括性術(shù)語(yǔ),從機(jī)器學(xué)習(xí)到大規(guī)模語(yǔ)言模型等均包括在內(nèi)。人工智能是否需要成為法律主體,可以從法律主體的歷史演進(jìn)規(guī)律獲得啟示。

整體而言,法律主體演進(jìn)的基本規(guī)律可概括為從“人可非人”到“非人可人”。即使到近代社會(huì),自然人(公民)之間的權(quán)利也是有差別的。只有在現(xiàn)代法治國(guó)家,自然人才享有平等的民事權(quán)利。不僅如此,法律主體也已經(jīng)不再限于生物學(xué)意義上的人,公司等實(shí)體也獲得了法律的明確承認(rèn),同時(shí)附之以股東或者出資人以自己對(duì)公司的出資為限承擔(dān)責(zé)任。此種承認(rèn)促進(jìn)了現(xiàn)代科學(xué)技術(shù)和組織形式的跨越式變革,推進(jìn)了人類的文明進(jìn)步。盡管部分學(xué)者列舉或者設(shè)想了目前人工智能應(yīng)當(dāng)作為法律主體的具體場(chǎng)景,然而經(jīng)過仔細(xì)分析,這些場(chǎng)景都沒有顯示出人工智能需要作為法律主體的真正客觀需求,也沒有顯示出既有的法律制度(如代理、公司法等)阻礙了人工智能的發(fā)展而通過使人工智能成為法律主體會(huì)掃清該障礙。

有學(xué)者認(rèn)為,對(duì)社會(huì)生活的參與是判斷是否設(shè)定法律主體的重要因素。這一說法值得商榷。因?yàn)閰⑴c社會(huì)生活的身份有主體和客體之分,人工智能是作為客體如機(jī)器、軟件、程序或系統(tǒng)而參與的。即使客體很智能,甚至可以在既有技術(shù)設(shè)計(jì)下做出獨(dú)立判斷,但此種獨(dú)立判斷所歸責(zé)的主體仍舊是設(shè)置、控制或使用該機(jī)器的主體,所代表的依然是設(shè)置、控制或使用該客體的主體的意志。事物很重要與法律賦予其法律主體資格是兩個(gè)完全不同的問題。例如,對(duì)很多人來說,寵物已經(jīng)成為社會(huì)生活的重要部分,其中部分人對(duì)寵物的依賴性要遠(yuǎn)高于其他事物,但這并不能證成寵物成為法律主體。同理,雖然人工智能非常重要,但法律仍然沒有使之成為法律主體的內(nèi)在需求。

從責(zé)任能力視角看,人工智能不能成為法律主體

在民法上賦予法律主體資格的一個(gè)重要條件是責(zé)任能力。承擔(dān)責(zé)任意味著,法律主體承受不利的財(cái)產(chǎn)負(fù)擔(dān),而且該法律主體通常應(yīng)當(dāng)是最終的責(zé)任承擔(dān)者。責(zé)任能力的一個(gè)前提條件是,法律主體必須有獨(dú)立的財(cái)產(chǎn)。如果沒有獨(dú)立的財(cái)產(chǎn),那么使人工智能承擔(dān)責(zé)任就沒有實(shí)質(zhì)意義。到目前為止甚或是在相當(dāng)長(zhǎng)的未來,我們都很難設(shè)想人工智能需要或者能夠擁有獨(dú)立財(cái)產(chǎn)。由于這一前提條件并不具備,那么人工智能成為法律主體也就沒有必要或者可能。從既有的媒體公開報(bào)道的人工智能導(dǎo)致人身或者財(cái)產(chǎn)損害的案件中,我們均可以根據(jù)既有法律規(guī)定找到需要承擔(dān)責(zé)任的主體——開發(fā)人、設(shè)計(jì)者、所有者或使用者等。換言之,既有的法律制度能夠解決目前人工智能所引發(fā)的人身或財(cái)產(chǎn)損害問題。

進(jìn)一步說,人工智能成為法律主體甚至有潛在的不可預(yù)計(jì)的風(fēng)險(xiǎn)。人工智能成為法律主體的一個(gè)自然推論是,它能夠獨(dú)立承擔(dān)責(zé)任。由于人工智能的確會(huì)導(dǎo)致傷害甚或大規(guī)模傷害,如隱私泄露、數(shù)據(jù)毀壞、人身?yè)p害等——到目前為止,即使是專家也很難完全了解大規(guī)模模型的內(nèi)在運(yùn)行機(jī)制,并準(zhǔn)確預(yù)測(cè)未來可能發(fā)生的傷害及其規(guī)模,而且對(duì)如何抑制未來的大模型傷害尚未形成共識(shí)。不僅如此,更危險(xiǎn)的情形可能是,人工智能會(huì)有意或無(wú)意生成執(zhí)行危險(xiǎn)行為的能力,甚至“學(xué)習(xí)掌握”如何影響人類使用者,進(jìn)而鼓動(dòng)特定群體以破壞性甚或毀滅式方式行動(dòng)。此時(shí),人工智能承擔(dān)責(zé)任就意味著開發(fā)、設(shè)計(jì)、運(yùn)行、使用人工智能的主體將可以逃避法律制裁,這是極不可取的結(jié)果,必須予以避免。盡管“刺穿人工智能面紗”制度可以減緩上述不利后果,但是該制度應(yīng)當(dāng)有嚴(yán)格的適用要件,不可常規(guī)性地使用,否則就有違人工智能作為法律主體的設(shè)計(jì)初衷。

情感、理性、意志不證成人工智能成為法律主體

情感、理性、意志與人工智能的法律主體問題有內(nèi)在關(guān)聯(lián)。一種觀點(diǎn)認(rèn)為,賦予法律主體的一個(gè)傳統(tǒng)要素是,其必須能夠有情感、理性、意志。盡管人工智能是以深度學(xué)習(xí)為基礎(chǔ),然而,既有的人工智能大都不存在情感。盡管有些人工智能的技術(shù)領(lǐng)導(dǎo)者認(rèn)為,人工智能很快就向有情感的方向發(fā)展。然而,即使有情感,甚或是自主情感,人工智能也不應(yīng)當(dāng)成為法律主體。因?yàn)橄啾群芏嗳斯ぶ悄芏?,很多?dòng)物已經(jīng)具有豐富的情感甚至一定的自我意識(shí)。盡管動(dòng)物可以獲得某些權(quán)利,然而從主導(dǎo)價(jià)值觀審視,動(dòng)物依然不能獲得和人一樣完全相同或者高度相似的法律主體身份。我國(guó)民法典也采納了此種立場(chǎng)。從規(guī)范意義上評(píng)價(jià),情感、理性、意志并非賦予法律主體的必備要素。與此相關(guān)的是,即使人工智能的推理能力已經(jīng)超過了人類,也無(wú)法證成賦予其法律主體地位是一種必備或者最優(yōu)的解決方案。

在比較法上,的確有一些事物尤其是自然資源被賦予了法律主體資格,如部分國(guó)家通過立法賦予了珊瑚礁、河流或機(jī)器人以法律主體資格。然而我們發(fā)現(xiàn),這些特殊事物都沒有在民事法律中成為法律主體,更沒有在民事基礎(chǔ)性法律——民法典中成為法律主體。2017年新西蘭通過立法賦予了旺格努伊河的法律主體資格,該法是與旺格努伊河毛利人妥協(xié)的一部分,是因?yàn)槊艘恢闭J(rèn)為該河有生命力,該法的通過能夠給毛利人帶來希望。在特別的法律中賦予其某些特殊利益或者權(quán)利,并不能在一般意義上證成其應(yīng)當(dāng)成為法律主體。

人工智能不作為法律主體并不影響人工智能法律制度的變革

可以預(yù)見的是,人工智能已經(jīng)或者在未來可能會(huì)經(jīng)受傷害。基于人類的價(jià)值判斷以及現(xiàn)代法治文明,法律制度也不應(yīng)故步自封,一個(gè)可能的預(yù)備解決方案是,盡管人工智能不應(yīng)當(dāng)成為或者不是法律主體,但是有情感的人工智能機(jī)器人或者其他產(chǎn)品未來可能會(huì)受到法律的特殊規(guī)制,以保護(hù)人類對(duì)它們的某些情感利益和其他利益。

人工智能的復(fù)雜性也會(huì)產(chǎn)生一些現(xiàn)行法很難有效解決的問題。例如,大多數(shù)人工智能系統(tǒng)都是諸多開發(fā)人、設(shè)計(jì)者、所有人、經(jīng)營(yíng)者、用戶之間通過復(fù)雜的跨國(guó)協(xié)議產(chǎn)生的產(chǎn)品,在這一相互獨(dú)立的關(guān)系的國(guó)際化網(wǎng)絡(luò)中,確定某個(gè)或者某幾個(gè)主體來承擔(dān)責(zé)任幾乎不可能。不僅如此,基于不透明性以及一些人工智能系統(tǒng)的自我學(xué)習(xí)性,傷害的風(fēng)險(xiǎn)可能是以一種負(fù)責(zé)開發(fā)的主體所不可預(yù)見的方式導(dǎo)致的,確定特定實(shí)體來承擔(dān)責(zé)任更是難上加難。這就需要人工智能法律制度的持續(xù)變革。更好擁抱人工智能的方式是設(shè)定適應(yīng)性的治理框架,以保護(hù)人類的文明成果。人工智能促進(jìn)人類向好的方向發(fā)展,就需要通過多層次制度為基礎(chǔ)的有效治理來促使其具有可解釋性、可預(yù)測(cè)性、可信賴性。


【責(zé)任編輯:申罡】
返回頂部