分享縮略圖

分享到:
鏈接已復(fù)制

新聞

新聞直播 要聞 國際 軍事 政協(xié) 政務(wù) 圖片 視頻

財經(jīng)

財經(jīng) 金融 證券 汽車 科技 消費(fèi) 能源 地產(chǎn) 農(nóng)業(yè)

觀點(diǎn)

觀點(diǎn) 理論 智庫 中國3分鐘 中國訪談 中國網(wǎng)評 中國關(guān)鍵詞

文化

文化 文創(chuàng) 藝術(shù) 時尚 旅游 鐵路 悅讀 民藏 中醫(yī) 中國瓷

國情

國情 助殘 一帶一路 海洋 草原 黃河 運(yùn)河 灣區(qū) 聯(lián)盟 心理 老年

首頁> 智庫中國>

對AI技術(shù)濫用風(fēng)險要提高警惕

2024-04-01 14:30

來源:法治日報

分享到:
鏈接已復(fù)制
字體:

文 | 肖芄 杭州互聯(lián)網(wǎng)法院互聯(lián)網(wǎng)審判第一庭庭長

最近,多位已逝明星的AI視頻出現(xiàn)在短視頻平臺上,引發(fā)眾多關(guān)注,這些視頻同時也引起了逝者家屬的反對,有明星家屬要求立即停止侵權(quán)行為,表示嚴(yán)厲譴責(zé)并堅決抵制該行為。

從法律上看,對于未經(jīng)許可利用AI技術(shù)“復(fù)活”逝者的行為,可能會造成對逝者肖像、名譽(yù)、榮譽(yù)、隱私、個人信息等人格利益的侵害。因為AI以可視化的方式重現(xiàn)逝者形象,勢必會生成、使用他人的肖像、聲音。行為人如果是出于悼念目的,“復(fù)活”自己的親人原則上不構(gòu)成侵權(quán);如果未經(jīng)逝者近親屬同意,擅自“復(fù)活”逝者將構(gòu)成對肖像、聲音的侵害;如果以丑化、污損等方式使用他人肖像、聲音,將構(gòu)成對逝者肖像、聲音的惡意侵害;如果是出于炒作、博取流量、詐騙等違法目的,則可能構(gòu)成侵權(quán)甚至是刑事犯罪。

事實上,近年來利用AI技術(shù)侵犯他人合法權(quán)益的案件時有發(fā)生。比如有App運(yùn)營者,為謀取利益,在網(wǎng)絡(luò)中盜用含有他人肖像的圖片或視頻作為模板,利用AI換臉技術(shù)為用戶提供人臉替換的服務(wù);有游戲運(yùn)營商,未經(jīng)明星本人許可,提取明星的聲紋信息,利用AI合成技術(shù)將隨意的文字內(nèi)容轉(zhuǎn)化為與明星聲音高度一致的音頻內(nèi)容,在游戲中使用;有AI技術(shù)開發(fā)者非法開發(fā)所謂的“脫衣”軟件,行為人在公共場所拍攝他人照片后,利用前述軟件生成偽造他人的裸體照片傳播等等。這些案件雖然形式不同,但都明顯逾越了法律的底線,揭示了人工智能存在被濫用惡用的風(fēng)險,這些行為輕則構(gòu)成民事侵權(quán),重則構(gòu)成行政違法乃至刑事犯罪。

從司法實踐看,利用AI侵害他人權(quán)益的案件往往具有侵害對象素材易于獲取、AI技術(shù)使用門檻低、侵權(quán)手段較隱蔽、侵權(quán)內(nèi)容傳播速度快、受侵害主體不特定且波及面廣等特點(diǎn),存在侵權(quán)行為主體難以鎖定、損害后果一旦造成難以挽回、損失賠償金額難以量化、平臺責(zé)任邊界較模糊等難點(diǎn)。比如筆者就曾審理過一起AI換臉的民事公益訴訟案。在該案中,行為人在國外網(wǎng)絡(luò)論壇下載了AI換臉的開源程序,通過自學(xué)掌握了AI換臉軟件的使用方法,并向網(wǎng)友提供“換臉”服務(wù)。只要提供他人面部肖像照片就可以進(jìn)行人臉的任意替換。這也就意味著僅憑幾張照片,任何人都可能成為受害者。鑒于這種AI技術(shù)濫用造成的普遍性風(fēng)險,司法機(jī)關(guān)不僅對行為人判處了刑罰,而且要求其承擔(dān)公益損害賠償?shù)让袷仑?zé)任。

此外,筆者還曾審理過多起利用AI技術(shù)將他人面部肖像制作成惡意搞笑表情包,通過微信群進(jìn)行傳播,以此對他人進(jìn)行侮辱的案件。在此類案件中,表情包經(jīng)過多個微信群輾轉(zhuǎn)傳播,有時難以鎖定最初的制作者,使得權(quán)利人維權(quán)產(chǎn)生障礙。不過法院認(rèn)為即便行為人不是表情包的制作者,只要在明知的情況下參與了侵權(quán)內(nèi)容的傳播、擴(kuò)散,就應(yīng)承擔(dān)一定的侵權(quán)責(zé)任。這些案例都充分說明,利謾癆I”技術(shù)侵害他人權(quán)益必然要受到法律懲處。

當(dāng)前,AI技術(shù)已經(jīng)深度融入諸多領(lǐng)域。AI技術(shù)本身是中立無害的,技術(shù)本身也不應(yīng)當(dāng)直接受到法律的負(fù)面評價,但技術(shù)中立并不意味著價值中立,特別是開發(fā)、應(yīng)用者的價值中立,更不等于AI的參與者不應(yīng)當(dāng)受到來自法律的規(guī)制、道德倫理的約束。

技術(shù)的運(yùn)用是把雙刃劍,用之為善可以造福社會,不當(dāng)濫用則會造成社會風(fēng)險和損害。對此,需要有關(guān)方面不斷完善法律法規(guī),進(jìn)一步細(xì)化AI技術(shù)濫用的侵權(quán)類型,明確各個環(huán)節(jié)的主體責(zé)任,確立媒介平臺的技術(shù)檢測義務(wù)和過濾刪除責(zé)任,以法律為AI技術(shù)應(yīng)用框定紅線;同時,引導(dǎo)技術(shù)開發(fā)、應(yīng)用者自覺遵守法律規(guī)定和科技倫理道德,培育積極健康、向上向善的研發(fā)、應(yīng)用環(huán)境,保護(hù)和鼓勵新興智能技術(shù)的有益探索。作為社會公眾,對疑似AI生成的信息內(nèi)容應(yīng)保持警惕,不要對此類生成信息進(jìn)行盲目傳播、擴(kuò)散,在利用AI技術(shù)生成相關(guān)內(nèi)容時要獲得權(quán)利人同意,尊重社會公德和倫理道德。


【責(zé)任編輯:申罡】
返回頂部