[摘 要]在《中華人民共和國民法典》(以下稱《民法典》)背景下,生成式人工智能的民事侵權責任可以從一般侵權責任和產(chǎn)品責任兩種責任承擔方式進行分析。從生成式人工智能的本質、鼓勵產(chǎn)業(yè)發(fā)展和保護個人權利之間的權衡出發(fā),宜將其納入產(chǎn)品責任的范疇。內容責任主體方面,不應簡單地將服務提供者定性為內容生產(chǎn)者,僅由其對外承擔責任,而應劃定符合生成式人工智能特點的責任主體范圍。
[關鍵詞]生成式人工智能;產(chǎn)品責任;責任主體
近日,為了促進生成式人工智能健康發(fā)展和規(guī)范應用,國家網(wǎng)信辦聯(lián)合國家發(fā)展改革委及有關部門公布了《生成式人工智能服務管理暫行辦法》(以下稱《辦法》)。《辦法》將生成式人工智能服務提供者視為生成內容的生產(chǎn)者,由其直接承擔生成式人工智能生成內容的生產(chǎn)者責任和相關個人信息處理者的責任。作為應對新興生成式人工智能治理問題而快速出臺的新規(guī)定,《辦法》在責任主體劃定方面仍存在探討空間。本文以ChatGPT為例,對生成式人工智能進行解構,并在現(xiàn)有的法律基礎上,進一步對生成式人工智能侵權的責任主體及相關的歸責原則進行分析,就生成式人工智能的侵權責任規(guī)制進行研究。
一、我國生成式人工智能的規(guī)制現(xiàn)狀
2022年11月,美國OpenAI公司推出的以ChatGPT為代表的生成式人工智能在全球引起了廣泛關注,推出兩個月后,積累了逾3000萬用戶量。隨后,百度的文心一言、阿里的通義千問、谷歌的大型視覺語言模型PaLM 2,以及清華大學開發(fā)的以中英語言模型為基礎的ChatGLM等生成式人工智能也相繼出臺。與依賴于預定義規(guī)則模式的傳統(tǒng)人工智能模型不同,生成式人工智能模型能夠通過學習大量先前的數(shù)據(jù)產(chǎn)生不同的輸出結果。生成式人工智能目前有兩種主要框架:GAN(生成式對抗網(wǎng)絡)和GPT(生成式預訓練轉化器)。GPT生成型預訓練變換模型,是一種自回歸語言模型,這種模型利用深度學習產(chǎn)生類似于人類語言的文本。值得注意的是,最新版本的GPT模型的訓練語料庫來源該公司并未公開?;谏墒饺斯ぶ悄軘?shù)據(jù)語料庫的廣泛性及生成內容的復雜多樣性引發(fā)的一系列治理問題,我國目前有一些法律法規(guī)可以對其進行相關性規(guī)制。
當前,我國對生成式人工智能的規(guī)制主要有:在法律層面,《民法典》規(guī)定了任何組織和個人不得通過利用信息技術手段偽造等方式侵害他人的肖像權,體現(xiàn)了對使用“深度偽造”技術生成虛假信息侵害他人名譽行為的規(guī)制。在部門規(guī)章層面的立法則較為豐富,從已生效的部門規(guī)章來看,最主要的是《互聯(lián)網(wǎng)信息服務深度合成管理規(guī)定》(以下簡稱《深度合成管理規(guī)定》),該規(guī)定從技術的角度采用了“深度合成”的概念,即利用算法制作文本、圖像、音頻、視頻、虛擬場景等網(wǎng)絡信息的技術。廣義的“深度合成”概念可以涵蓋生成式人工智能的技術,該規(guī)定的規(guī)制范圍涵蓋了人工智能內容?!渡疃群铣晒芾硪?guī)定》之外,《互聯(lián)網(wǎng)信息服務算法推薦管理規(guī)定》和《網(wǎng)絡音視頻信息服務管理規(guī)定》(以下簡稱《網(wǎng)絡音視頻管理規(guī)定》)兩部法規(guī)中都有條款對人工智能生成內容的披露進行了規(guī)定?!毒W(wǎng)絡音視頻管理規(guī)定》還規(guī)定了服務提供者和使用者不得基于深度學習技術制作、發(fā)布和傳播虛假新聞信息,服務提供者基于深度學習技術提供服務時要通過安全評估、部署非真實音視頻鑒別技術及建立辟謠機制,與生成式人工智能內容的規(guī)制具有相關性。在上述已生效的法律法規(guī)之外,中國已經(jīng)有專門針對生成式人工智能的立法。如前所述,即國家互聯(lián)網(wǎng)信息辦公室于2023年7月正式頒布的《生成式人工智能服務管理辦法》。
以上規(guī)定更多強調開發(fā)者和提供者的行政責任與刑事責任,未涉及民事侵權責任,更沒有規(guī)定承擔責任的原則,對生成式人工智能內容風險規(guī)制相對全面,但對于生成式人工智能具體的民事侵權的規(guī)制仍需進一步完善。責任主體方面,《深度合成管理規(guī)定》為服務提供者和技術支持者規(guī)定了法律責任,《辦法》第九條僅為服務提供者規(guī)定了法律責任。可見,相關規(guī)制生成式人工智能產(chǎn)業(yè)的法規(guī)規(guī)定的責任主體主要是服務提供者,對處于開發(fā)核心位置的算法模型設計者、數(shù)據(jù)提供者等主體則不作要求,具有一定的不合理性。基于大型語言模型的復雜性和自動生成過程的不透明性和難以解釋性,使得用戶對于有害、非法或侵權內容的責任難以確定,且可以通過用戶與服務提供者之間的合同進行相關規(guī)制,因此本文不將用戶列入侵權責任承擔的主體范圍。
對于具體的生成式人工智能侵權的規(guī)制,有學者認為應當重新訂立適用于生成式人工智能相關的新的侵權責任法律,即在已有的侵權責任法律體系中添加關于人工智能責任的相關條款;有學者則主張在舊的框架法律下對已有的條款進行解釋,應對當前的生成式人工智能侵權現(xiàn)狀。王利明(中國人民大學常務副校長,教授、博士生導師,國務院學位委員會法學學科評議組成員兼召集人,中國法學會副會長,中國法學會民法學研究會會長)教授認為:因生成式人工智能引發(fā)的侵權,目前為止還沒有完全超出《民法典》和《個人信息保護法》的相關規(guī)定。如適用《民法典》的侵權責任編對生成式人工智能的侵權進行規(guī)制,也應當結合生成式人工智能的本質屬性,予以特殊的綜合考量,對于承擔責任的主體范圍、具體歸責原則進一步探討。
二、生成式人工智能侵權責任主體分析
生成式人工智能,是通過算法模型在數(shù)據(jù)語料庫的基礎上進行無監(jiān)督大量廣泛的學習及有監(jiān)督的強化引導學習,即對模型“投喂”大量數(shù)據(jù)再到生成文本的過程??梢?,生成式人工智能的核心離不開算法模型和數(shù)據(jù)?!掇k法》將生成式人工智能服務提供者直接作為對外承擔責任的主體,忽視了模型設計者與數(shù)據(jù)提供者在生成式人工智能的研發(fā)中發(fā)揮的關鍵作用,否定其承擔責任的可能性。僅由服務提供者作為風險高發(fā)的生成式人工智能的責任主體,范圍較為狹窄且不利于受害人行使相關救濟權。從生成式人工智能生成內容的本質缺陷出發(fā),也不宜僅將服務提供者作為責任主體。首先,基于輸入數(shù)據(jù)的龐大性,算力的復雜性,算法的多重迭代性,不可避免會使生成結果變得無法解釋,這是人工智能本身的固有缺陷。其次,生成式人工智能也因其生成內容的特點,生成結果還容易受到生態(tài)謬誤(Ecological fallacy)的影響。如ChatGPT在基于相同的數(shù)據(jù)語料庫提供通用的安全建議時,不適用于特定群體或某些環(huán)境,特別是人口中的個人用戶或少數(shù)群體。以全概偏的輸出結果可能會侵害特定群體的合法權益。從其具有的客觀固有缺陷來看,《辦法》將責任主體僅僅限定為服務提供者,使得承擔責任的主體不太公平,也不利于對被害人權益的完整保障。應從生成式人工智能的本質屬性和固有缺陷出發(fā)確立“鏈條式”的責任承擔主體,不僅對于責任的分擔以及受害人的救濟具有重要意義,對于生成式人工智能的健康發(fā)展也具有重要作用。
侵權責任,是民事主體侵害他人權益應當承擔的法律后果。承擔責任的前提是具有民事主體資格。有學者主張,按照技術邏輯去劃定承擔生成式人工智能內容侵權的責任主體;或主張可以根據(jù)物種位階的規(guī)范主義立場,為人工智能構建一種以責任承擔為基礎的特殊財產(chǎn)性法律主
體[1]。顯然,按照這兩種觀點,將生成式人工智能技術或者說ChatGPT本身作為承擔責任的主體。這類構想存在一定的合理性,但是在現(xiàn)有的法律體系下難以實現(xiàn)。在無法賦予生成式人工智能主體地位的情形下,只能將自然人作為責任主體,其侵權責任也只能在原有的責任歸責理論中進行適當選擇。
三、生成式人工智能侵權的歸責原則探討
就侵權責任而言,以ChatGPT為例,因其所生成的內容具有虛假、錯誤、誤導或有害性,主要是侵犯人格權和相關知識產(chǎn)權,部分情況下,也會侵犯財產(chǎn)權和生命身體健康權,如在提供與健康和安全相關的建議時,ChatGPT可能會提供不正確或潛在的有害陳述。相關研究指出,適用ChatGPT(3.5版)作為安全相關問題的信息和建議來源時,存在重大的風險,如在提供健身計劃、緊急情況預防措施、操作重型機械等方面,其生成的誤導陳述可能致使用戶或第三人受到損害,對于識字率和受教育程度較低的人群來說,ChatGPT生成的內容風險則更高。對于來自金融、醫(yī)療、環(huán)境保護等專業(yè)領域的問題,如果沒有足夠的數(shù)據(jù)資源供ChatGPT進行有監(jiān)督學習訓練,ChatGPT可能將無法就相應內容生成適當?shù)幕?/p>
答[2]。在當前的法律框架下,就生成式人工智能的侵權責任原則而言,一般適用一般過錯責任原則和產(chǎn)品責任進行規(guī)制。
(一)適用一般過錯責任分析
涉及侵權責任,必先談歸責原則。有學者指出,由于法律沒有特別規(guī)定,對于人工智能生成內容場景下相關主體侵權責任的判定只能采取過錯責任的歸責原則[3]。對生成式人工智能侵權采取過錯責任原則,受害人舉證難度較大。首先,作為受害人的用戶或第三人需就對方存在過錯進行舉證,難度不言而喻。由于被害人和服務提供者可控制資源的不對等以及生成式人工智能本身具有的專業(yè)性和復雜性,作為“門外漢”的受害人就對方存在過錯的進行舉證將處于明顯的不利地位。因此,適用一般過錯責任將造成對被害人的救濟難以實現(xiàn)。過錯推定方面,生成式人工智能的侵權明顯不能納入《民法典》規(guī)定之下的九種過錯推定責任情形框架之下來進行解釋,即不存在法律上的明文規(guī)定,因此無法適用過錯推定責任,倘若適用該歸責方式,需增補相應條款。
(二)適用產(chǎn)品責任分析
生成式人工智能的侵權能否適用產(chǎn)品責任?首先需考慮,生成式人工智能能否納入符合“產(chǎn)品”的內涵或外延之中。就ChatGPT的聊天生成預訓練轉化器而言,作為一種人工智能聊天機器人程序,該轉化器是產(chǎn)品還是服務?我國《辦法》中將生成式人工智能程序運行視為一種服務;有學者亦主張,產(chǎn)品具有大規(guī)模生產(chǎn)和批量銷售的特點,且產(chǎn)品之間需具有同質性[4]。從這個意義上來說,生成式人工智能生成內容不能算作產(chǎn)品。而歐盟《產(chǎn)品責任指令》,美國《侵權法重述》(第3版)將生成式人工智能的性質界定為軟件。根據(jù)生成式人工智能的設計過程、運行模式以及用戶使用結果來看,本文更傾向于將其視為一個軟件,同時也是一種產(chǎn)品。軟件,即一系列按照特定順序組織的電腦數(shù)據(jù)和指令,是電腦中的非有形部分。電腦中的有形部分稱為硬件,由電腦的外殼及各零件、電路所組成。電腦軟件需有硬件才能運作。軟件不分架構,有共通的特性,在執(zhí)行后可以讓硬件執(zhí)行依設計時要求的機能。軟件存儲在存儲器中,不是可以碰觸到的實體,可以碰觸到的都只是存儲軟件的零件或介質(光盤或磁片等)。也即說,軟件和硬件二者相互作用,缺一不可,否則無法運行。產(chǎn)品,是用以滿足人們需求和欲望的有形物體或無形載體。而軟件作為一種依附于有形載體的無形體,向消費者提供基本效用和利益,滿足一般意義上產(chǎn)品的要求。
軟件是否屬于我國產(chǎn)品責任法意義上的產(chǎn)品,相關法律法規(guī)沒有明確規(guī)定。產(chǎn)品是指經(jīng)過加工、制作、用于銷售的產(chǎn)品(動產(chǎn))。生成式人工智能作為一種聊天生成預訓練轉化器,在研發(fā)過程中,經(jīng)過算法模型設計、數(shù)據(jù)投入的加工,最終成為一個面向消費者的無形且可通過網(wǎng)絡傳輸使用的程序軟件。就ChatGPT而言,在開始向消費者投放時雖未收取相關費用,但無形中獲得的流量及收集的數(shù)據(jù)信息,背后隱藏著潛在的收益。如ChatGPT、文心一言、通義千問等生成式人工智能,從設計加工到面向用戶提供使用,不可謂不是一種產(chǎn)品,也就可以適用產(chǎn)品責任進行規(guī)制。
適用產(chǎn)品責任進行規(guī)制,首先要考慮產(chǎn)品是否存在缺陷。一般來說,產(chǎn)品缺陷包括三類,即制造缺陷、設計缺陷、指示缺陷。在辨別生成式人工智能生成內容有害或有誤是否屬于產(chǎn)品缺陷?屬于何種缺陷?仍需要被害人結合各種因素具體認定,對其舉證要求較高。但適用產(chǎn)品責任無須證明對方存在過錯,在這方面減輕了受害人的舉證壓力,使得受害人在舉證上達到一個平衡。在產(chǎn)品責任中,生產(chǎn)者與銷售者對外承擔無過錯責任,對內銷售者系過錯責任。依前所述,將作為研發(fā)核心的數(shù)據(jù)提供者、算法模型設計者,以及作為“總抓手”的服務提供者確立為生成式人工智能侵權的責任主體。在產(chǎn)品責任中,服務提供者應作為銷售者的角色;而處于研發(fā)核心的數(shù)據(jù)提供者、算法模型設計者則是生產(chǎn)者。二者既要履行產(chǎn)品的跟蹤觀察義務,亦可以適用產(chǎn)品責任的特別免責事由。從生成式人工智能的本質出發(fā)確定責任主體鏈條,并適用產(chǎn)品責任進行規(guī)制。不僅有利于受害人方便行使救濟權,也有利于督促核心主體不斷優(yōu)化算法模型、積極提升設計理念,實現(xiàn)生成式人工智能產(chǎn)業(yè)與個體和諧共生。
結束語
以ChatGPT為代表風靡全球的大語言模型已經(jīng)成為人工智能領域競爭的新軌道,隱藏著巨大潛力的同時也蘊含巨大風險。我國在面對該技術挑戰(zhàn)時應保持謹慎態(tài)度,只有符合我國現(xiàn)實發(fā)展和國際局勢的監(jiān)管與治理制度,才能促進我國生成式人工智能產(chǎn)業(yè)長遠健康發(fā)展。就生成式人工智能侵權方面的規(guī)制而言,若可以通過釋法予以應對,則不必也不應當修法或立新法。通過解釋將其納入規(guī)制不僅成本和風險低,符合人們對法律預期的同時也能維持法律的穩(wěn)定性。
參考文獻
[1]鄭文革.人工智能法律主體建構的責任路徑[J].中國應用法學,2022(5):221-231.
[2]于文軒.ChatGPT與敏捷治理[J].學海,2023(2):52-57.
[3]昂格魯瑪.論大型內容生成式人工智能模型設計者及提供者的侵權責任[C]//上海市法學會.《上海法學研究》集刊2023年第6卷:2023年世界人工智能大會青年論壇論文集.北京化工大學,2023:7.
[4]周學峰.生成式人工智能侵權責任探析[J].比較法研究,2023(4):117-131.
作者簡介:彭梅(1998— ),女,漢族,貴州畢節(jié)人,貴州師范大學法學院,在讀碩士。
研究方向:民商法。