分享縮略圖

分享到:
鏈接已復(fù)制

新聞

新聞直播 要聞 國際 軍事 政協(xié) 政務(wù) 圖片 視頻

財經(jīng)

財經(jīng) 金融 證券 汽車 科技 消費 能源 地產(chǎn) 農(nóng)業(yè)

觀點

觀點 理論 智庫 中國3分鐘 中國訪談 中國網(wǎng)評 中國關(guān)鍵詞

文化

文化 文創(chuàng) 藝術(shù) 時尚 旅游 鐵路 悅讀 民藏 中醫(yī) 中國瓷

國情

國情 助殘 一帶一路 海洋 草原 黃河 運河 灣區(qū) 聯(lián)盟 心理 老年

首頁> 觀點中國>

破除人工智能成為法律主體的臆想

2024-08-23 08:42

來源:光明日報

分享到:
鏈接已復(fù)制
字體:


【學(xué)術(shù)爭鳴】  

人工智能作為現(xiàn)代科技的前沿領(lǐng)域,正在迅速改變我們生活的方方面面。從智能家居到自動駕駛汽車,從智能助手到人形機器人,技術(shù)的進步和應(yīng)用場景的拓展,激發(fā)了各界對人工智能的追捧。伴隨對人工智能生成作品著作權(quán)歸屬的爭論以及具身智能的發(fā)展,關(guān)于人工智能是否應(yīng)當(dāng)被賦予主體地位的問題越來越受到關(guān)注。2024年8月16日,光明日報理論版刊發(fā)的《人工智能成為法律主體不存在理論障礙》一文,提出若干觀點支持賦予人工智能以法律主體地位。對此,筆者有不同認(rèn)識。筆者認(rèn)為,“不存在理論障礙”并不意味著就具備正當(dāng)性、合理性和必要性,如若承認(rèn)人工智能法律主體地位,那么人工智能就將被視為具有獨立權(quán)利義務(wù)和責(zé)任的法律實體,這將構(gòu)成對現(xiàn)有法律倫理秩序和傳統(tǒng)的極大沖擊。

理性是成為法律主體的基礎(chǔ),但人工智能不具備獨立理性

理性不僅是道德判斷的基礎(chǔ),也是對行為后果承擔(dān)責(zé)任的前提。只有具備理性和自主性的個體才能被視為道德主體,具備承擔(dān)道德責(zé)任的能力。理性通常被定義為一種能夠進行邏輯思維和合理決策的能力,它涉及對復(fù)雜問題的分析、判斷和選擇。理性不僅僅是計算能力的體現(xiàn),更包括對自身行為的反思和對環(huán)境的理解。自主性則是指個體能夠在沒有外部干預(yù)的情況下,自主做出決策,并承擔(dān)決策帶來的后果。理性使得個體能夠進行自我反思和理性決策,從而對其行為和結(jié)果負(fù)責(zé)。法律是最低程度的道德,法律主體地位的取得也需要主體具備理性,以便對其行為進行合理的法律評價。在某種意義上,理性是成為法律主體的基礎(chǔ)。《人工智能成為法律主體不存在理論障礙》一文認(rèn)為,“法律調(diào)整人工智能產(chǎn)生的相應(yīng)法律關(guān)系,本質(zhì)上仍然是調(diào)整人與人之間的法律關(guān)系,仍以人的理性為基礎(chǔ)”;既如此,人工智能又有何種可能性和必要性成為法律主體呢?

進言之,人工智能雖然能“理性”地作出決策行為,但這種“理性”實際上是擬制的,源于人類編制的算法和數(shù)據(jù)訓(xùn)練。人工智能系統(tǒng)的“決策”基于大量的數(shù)據(jù)處理和模式識別,但這些“決策”并不涉及自主的理性判斷。易言之,人工智能的學(xué)習(xí)過程是通過對歷史數(shù)據(jù)進行優(yōu)化和調(diào)整,而不是通過自主思考或反省形成的。例如,深度學(xué)習(xí)算法可以通過對海量圖像進行分析來識別物體,但這種識別能力基于統(tǒng)計模型,而不是基于對圖像內(nèi)容的理解。一般而言,理性標(biāo)準(zhǔn)要求主體能夠進行自主的道德判斷,并對其行為后果負(fù)責(zé)。然而,人工智能系統(tǒng)并不具備這種自主性,它們的行為是由人類設(shè)計和預(yù)設(shè)的規(guī)則驅(qū)動的,并沒有真正的自我意識。真正的理性不僅僅是邏輯思維和計算能力的表現(xiàn),更包括對自我意識的控制能力。人工智能系統(tǒng)的“理性”僅僅是程序設(shè)計和數(shù)據(jù)處理的結(jié)果,其“思考”過程實際上是對輸入數(shù)據(jù)的統(tǒng)計分析和優(yōu)化處理,缺乏真正獨立的自我意識和自主決策能力,只是工具意義上完成人類所設(shè)定的任務(wù),不能因其是人類活動的延續(xù)就將人工智能視為具有與人具有同等理性和地位的獨立主體。

從技術(shù)實質(zhì)來看,人工智能的決策高度依賴預(yù)設(shè)算法、訓(xùn)練數(shù)據(jù)以及算力支撐,其系統(tǒng)運行的本質(zhì)仍然是數(shù)學(xué)處理的過程和結(jié)果,難言自我意識和獨立理性。即便是進入所謂的“強人工智能”階段,人工智能的思考和決策過程仍然是在預(yù)設(shè)的算法和程序的框架之內(nèi),其“理性”也只是體現(xiàn)為一種工具意義上的計算和處理能力,而非真正意義上的自主決策或理性思考。在這層意義上,賦予人工智能獨立的法律主體地位顯然缺乏足夠的倫理基礎(chǔ)。

承擔(dān)責(zé)任是成為法律主體的客觀要求,但人工智能無法獨立承擔(dān)責(zé)任

責(zé)任涉及對行為結(jié)果的承擔(dān)和對錯誤行為的補救。法律和倫理中的責(zé)任要求主體能夠?qū)ζ湫袨檫M行控制,并承擔(dān)相應(yīng)的后果。承擔(dān)責(zé)任需要主體具備對其行為的理解和控制能力,以及對后果進行補償?shù)哪芰?。?zé)任的歸屬不僅需要明確的法律框架,還需要具備承擔(dān)責(zé)任的能力和條件。然而,從人工智能系統(tǒng)的技術(shù)運行邏輯來看,其難以獨立地承擔(dān)法律責(zé)任,賦予人工智能法律主體地位缺乏應(yīng)有的法律基礎(chǔ)。

一方面,人工智能并不能真正理解和控制其行為的法律后果。法律責(zé)任的核心在于主體能夠意識到其行為對他人的影響,并且具備彌補或糾正錯誤的能力。然而人工智能的行為完全依賴于其算法和程序,且受到訓(xùn)練數(shù)據(jù)投喂的顯著影響,即使這些系統(tǒng)能夠在特定任務(wù)中表現(xiàn)出高效的處理能力,也只是脫離人工的自動化處理而并非真正意義上的自主決策。因此,人工智能系統(tǒng)無法獨立控制其行為,也不能自主預(yù)測其行為的后果和責(zé)任,自然也無法對其行為后果承擔(dān)責(zé)任。

另一方面,人工智能不具備承擔(dān)責(zé)任的財產(chǎn)條件。法律主體獨立的責(zé)任能力通常以具有獨立財產(chǎn)為基礎(chǔ)。然而不同于法人通過股東出資等方式獲得獨立財產(chǎn),人工智能的運行并不以財產(chǎn)作為支撐,其設(shè)計和部署雖然會耗費大量資金投入,但也并不要求儲備相應(yīng)財產(chǎn)以承擔(dān)可能之責(zé)任。這就導(dǎo)致了一旦人工智能因其決策行為侵權(quán)或違法,也沒有相應(yīng)的財產(chǎn)承擔(dān)相應(yīng)的賠償責(zé)任。即便是按照《人工智能成為法律主體不存在理論障礙》一文的設(shè)計,從制度和實踐上允許人工智能系統(tǒng)取得獨立財產(chǎn),或者為其設(shè)計強制責(zé)任保險制度,其也只能承擔(dān)賠償損失、罰金等以金錢為內(nèi)容的法律責(zé)任,而不能承擔(dān)諸如資格罰或自由罰等其他類型的法律責(zé)任,由此法律對其約束和威懾作用會顯著不足。

更重要的是,人工智能獨立承擔(dān)責(zé)任可能會誘致道德風(fēng)險。人工智能系統(tǒng)的決策和行為是由預(yù)先設(shè)定的算法和數(shù)據(jù)所驅(qū)動的,在很大程度上人工智能的行為控制權(quán)實際上是掌握在設(shè)計者和應(yīng)用者手中的,而不是系統(tǒng)本身能夠獨立控制的。設(shè)計者和應(yīng)用者在設(shè)計和部署人工智能系統(tǒng)的過程中,可能會因其故意或過失造成人工智能系統(tǒng)的先天缺陷,進而導(dǎo)致他人利益損害甚至利用人工智能實施違法犯罪行為。如果賦予人工智能獨立主體地位并由其獨立承擔(dān)責(zé)任,很有可能導(dǎo)致人工智能的設(shè)計者和應(yīng)用者利用這種安排逃避其實際應(yīng)承擔(dān)的法律責(zé)任。當(dāng)獨立承擔(dān)責(zé)任的人工智能可以成為設(shè)計者和應(yīng)用者的“防火墻”或“避風(fēng)港”,那么濫用人工智能的道德風(fēng)險則難以避免,甚至造成災(zāi)難性后果。

 現(xiàn)有法律和倫理秩序足以應(yīng)對人工智能帶來的新變化,賦予人工智能法律主體地位無現(xiàn)實必要

賦予人工智能法律主體地位并非僅僅對技術(shù)進步的簡單回應(yīng),其涉及深刻的法律、倫理和社會秩序問題。法律因時而變固然是制度進化的內(nèi)在要求,但確保法制的穩(wěn)定和可預(yù)期、維護倫理秩序應(yīng)當(dāng)是法制變革的底線。一旦人工智能取得法律主體地位,勢必會導(dǎo)致現(xiàn)有法律秩序和倫理秩序所根植的社會關(guān)系結(jié)構(gòu)發(fā)生變化,人工智能作為與自然人、法人和其他組織等既有主體并列的新興主體,其主張權(quán)利或承擔(dān)義務(wù)與責(zé)任,都會造成對現(xiàn)有秩序的沖擊。

從倫理的角度來看,賦予人工智能主體地位將挑戰(zhàn)以人類為中心的傳統(tǒng)觀念。這種觀念認(rèn)為,人類在倫理上處于中心地位,擁有特殊的道德和法律地位。這種觀念支撐著現(xiàn)代法律和倫理體系的發(fā)展,也構(gòu)成了法律倫理秩序的基礎(chǔ)。賦予人工智能主體地位將會削弱這一倫理基礎(chǔ),弱化人在法律與倫理秩序中的主導(dǎo)地位。事實上,法律主體地位的背后隱含著人類社會對個體的尊重和承認(rèn),賦予某一主體以法律地位不僅僅是賦予其權(quán)利,更意味著承認(rèn)其具有道德和倫理上的意義。人工智能雖然具備高效處理數(shù)據(jù)的能力,但并不具備人類所獨有的倫理感和道德價值觀。若賦予人工智能法律主體地位,將會產(chǎn)生許多倫理難題。例如,人工智能是否應(yīng)當(dāng)擁有像人類一樣的權(quán)利?人工智能的“權(quán)利”與人類權(quán)利之間的沖突如何解決?我國發(fā)布的《全球人工智能治理倡議》主張,發(fā)展人工智能應(yīng)堅持“以人為本”理念,強調(diào)以尊重人類權(quán)益為前提。人工智能的存在與發(fā)展應(yīng)當(dāng)服務(wù)于人類社會的進步與福祉,而不是創(chuàng)造出與人類平等甚至可能存在競爭關(guān)系的主體。

從法律的角度來看,賦予人工智能主體地位會導(dǎo)致法律規(guī)則體系的復(fù)雜化。當(dāng)前的法律體系是以人類為中心設(shè)計的,各類法律、法規(guī)、判例都基于人類的行為邏輯和社會關(guān)系結(jié)構(gòu)。如果人工智能被視為法律主體,現(xiàn)有法律體系勢必難以應(yīng)對人工智能作為獨立主體參與社會活動所帶來的復(fù)雜情況。人工智能權(quán)利義務(wù)的內(nèi)容與邊界、人工智能主觀過錯的認(rèn)定和責(zé)任形式等問題,都超出了現(xiàn)行法律框架的預(yù)設(shè)。近年來,歐盟以及其他法域都陸續(xù)出臺人工智能相關(guān)法律,試圖為人工智能的使用制定法律框架。但這些立法嘗試仍然主要關(guān)注人工智能的應(yīng)用和監(jiān)管,即將人工智能作為工具或客體予以規(guī)制,而非將人工智能本身視為法律主體。在現(xiàn)有法律體系下解釋和完善法律,合理分配人工智能所有者、使用者等相關(guān)主體的權(quán)利義務(wù)和責(zé)任,亦能因應(yīng)人工智能時代的法律挑戰(zhàn),完全沒有必要賦予人工智能法律主體地位。

人工智能的飛速發(fā)展使得當(dāng)前社會不得不認(rèn)真審視人工智能的角色和地位。人工智能作為一種工具,其作用在于輔助和增強人類能力,而不是取代或成為法律和道德主體。法律回應(yīng)人工智能革命,不應(yīng)被科幻主義的盲目和狂熱所遮蔽,沉溺于賦予人工智能法律主體地位的臆想,而是應(yīng)當(dāng)回歸科學(xué)主義的理性與客觀,將人工智能作為一種工具客體予以有效法律規(guī)制,在促進其服務(wù)人類社會發(fā)展的同時保持對技術(shù)的審慎和警惕,以確保技術(shù)的安全和有效應(yīng)用。

 (作者:袁康,系武漢大學(xué)網(wǎng)絡(luò)治理研究院副院長、教授,湖北省中國特色社會主義理論體系研究中心研究員)

【責(zé)任編輯:申罡】
返回頂部