• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      ChatGPT類生成式人工智能歸責(zé)論析

      2024-11-02 00:00:00芮然

      摘 要:以ChatGPT為標(biāo)志,智能生成特征更為顯著、互動性更強(qiáng)、通用性更好的生成式人工智能正快速介入人類生產(chǎn)生活,與此同時(shí),其所帶來的不確定性和致?lián)p風(fēng)險(xiǎn)也相伴而生。但是,生成式人工智能法律地位不明確、歸責(zé)方式不清晰,給損害發(fā)生時(shí)的民事、刑事責(zé)任承擔(dān)帶來極大阻礙,也影響了對生成式人工智能的有效監(jiān)管。基于此,有必要從意志能力、行為能力、擬制主體適格性的角度重新認(rèn)識ChatGPT類生成式人工智能的責(zé)任能力,在承認(rèn)其責(zé)任有限的基礎(chǔ)上,結(jié)合不同情形和形態(tài),厘清由制造者、控制者、監(jiān)管者及生成式人工智能自身等多主體負(fù)責(zé)的責(zé)任分擔(dān)體系和歸責(zé)方式,促進(jìn)人工智能持續(xù)、健康、負(fù)責(zé)任、可控制地發(fā)展。

      關(guān)鍵詞:生成式人工智能;責(zé)任能力;有限責(zé)任;歸責(zé)方式

      一、引言:生成式人工智能何以歸責(zé)

      人工智能(Artificial Intelligence,AI)自20世紀(jì)50年代在達(dá)特茅斯會議上提出后,一直是學(xué)術(shù)研究和技術(shù)推進(jìn)的重點(diǎn),也取得了非凡的成就。到2022年11月,OpenAI公司推出以“ChatGPT”命名的生成式人工智能①,更是將人工智能的發(fā)展推上了一個(gè)新高度,短短兩個(gè)月便風(fēng)靡世界,月活躍用戶突破1億。一定程度上說,其重要性可能不亞于當(dāng)年個(gè)人電腦的誕生,一樣具備劃時(shí)代的革命性進(jìn)步。如比爾·蓋茨所言,ChatGPT與互聯(lián)網(wǎng)和個(gè)人電腦的誕生同等重要,是具有劃時(shí)代的革命性技術(shù)進(jìn)步[1]。特別是2023年3月又發(fā)布了多模態(tài)大模型的GPT-4,能夠更好地支持多模態(tài),增強(qiáng)了對自然語言文字的多層面處理能力,更大程度地提升了安全性[2]。ChatGPT的面世及其在眾多場景的應(yīng)用,對各行各業(yè)都造成了不同程度的影響和沖擊,相比于以往的人工智能,其給人類社會帶來的潛在風(fēng)險(xiǎn)更加緊迫真實(shí)[3]。即便是研究人工智能前沿領(lǐng)域的科學(xué)家和行業(yè)專家,依然擔(dān)心其對人類帶來的不可預(yù)估的風(fēng)險(xiǎn)損害[4]。

      變革已經(jīng)到來,ChatGPT類生成式人工智能廣泛應(yīng)用于思考型對話、多媒體內(nèi)容生成、辦公智能化等領(lǐng)域,以及翻譯、繪圖、剪輯、配音等日常生活,全面替代人類的趨向似乎在走向現(xiàn)實(shí)。但與此同時(shí),其應(yīng)用過程中的各類風(fēng)險(xiǎn)現(xiàn)實(shí)存在且不斷加劇,在數(shù)據(jù)準(zhǔn)備階段有數(shù)據(jù)安全和合規(guī)風(fēng)險(xiǎn),在使用過程中有算法偏見和算法濫用風(fēng)險(xiǎn),在生成內(nèi)容上有知識產(chǎn)權(quán)和內(nèi)容濫用風(fēng)險(xiǎn)[5]。鑒于此,一些國家側(cè)重于從風(fēng)險(xiǎn)預(yù)防的角度出發(fā),將風(fēng)險(xiǎn)控制在合理限度內(nèi),通過風(fēng)險(xiǎn)分級、安全評估、行政許可、算法審查等措施,盡量將風(fēng)險(xiǎn)控制在合理范圍內(nèi)。但是,必須認(rèn)識到,這些前置性或者事中控制的措施,終究只能控制風(fēng)險(xiǎn),而無法完全消除風(fēng)險(xiǎn),因“算法黑箱”和不確定性因素的存在,即使生成式人工智能服務(wù)提供商采取措施滿足監(jiān)管需求,仍然會對第三方或相關(guān)主體造成難以防范或不可預(yù)測的損害[6]。在2023年6月5日,OpenAI公司就在美國佐治亞州因ChatGPT使用被提起名譽(yù)權(quán)糾紛訴訟②??梢灶A(yù)見的是,生成式人工智能造成的現(xiàn)實(shí)損害問題現(xiàn)實(shí)且緊迫,值得深入研究和關(guān)注。

      面對這種風(fēng)險(xiǎn)和損害,諸多國家立法和政策均提出發(fā)展“負(fù)責(zé)任的人工智能”,但是當(dāng)智能生成特征更為顯著、互動性更強(qiáng)、通用性更好的生成式人工智能迅速介入人類生產(chǎn)生活時(shí),一個(gè)更大的問題就擺在我們面前。ChatGPT類生成式人工智能是否能為自身的決策負(fù)責(zé),怎么歸責(zé),其責(zé)任能力如何,又如何負(fù)責(zé)?厘清這個(gè)問題,是完善生成式人工智能規(guī)制體系的基礎(chǔ)性一環(huán),也是保障可能受生成式人工智能侵害的相關(guān)主體切身權(quán)益的應(yīng)有之義。

      二、新場景下生成式人工智能歸責(zé)的現(xiàn)實(shí)困境

      需要關(guān)注的是,ChatGPT類生成式人工智能除了在社交文娛、交互辦公、電商營銷等與內(nèi)容生成聯(lián)系比較緊密的領(lǐng)域“大有作為”之外,還進(jìn)一步拓展到生產(chǎn)生活的多個(gè)環(huán)節(jié),企業(yè)對其的應(yīng)用也已經(jīng)從初始的API接入發(fā)展到基于多元場景需求的二次開發(fā),從簡單的對話生成升級成與語音、圖像形成多模態(tài)多終端的復(fù)雜交互,形成了諸多線上線下商業(yè)化應(yīng)用新場景[7]。與此同時(shí),這種規(guī)?;?、商業(yè)化的推廣應(yīng)用,也不可避免會產(chǎn)生諸多不確定性和公眾權(quán)利保護(hù)隱憂,其強(qiáng)大的技術(shù)能力形成了原社會形態(tài)下的新生風(fēng)險(xiǎn),沖擊著權(quán)利利益的保護(hù)秩序,也造成以權(quán)利義務(wù)能力為基礎(chǔ)的責(zé)任規(guī)制的適用困境。

      一方面,生成式人工智能法律地位仍不明晰。可以說,生成式人工智能一定程度上已經(jīng)實(shí)現(xiàn)了對人類創(chuàng)造性勞動的替代,產(chǎn)出了真實(shí)的勞動成果,可以說顛覆性地提升了生產(chǎn)力。OpenAI公司曾針對美國1000多種職業(yè)進(jìn)行調(diào)研,在職業(yè)工作中如果使用生成式人工智能工具,其完成同樣工作耗費(fèi)的時(shí)間將少一半以上,以此推論,8成以上人的工作將受到影響,而作家、記者等職業(yè)尤為突出[8]。人工智能對社會勞動社會形態(tài)的部分替代,并造成部分人機(jī)會成本的損失,如果沒有合適的機(jī)制設(shè)計(jì),就可能會損害人類的發(fā)展權(quán),沖擊現(xiàn)代國家的基礎(chǔ)秩序[9]。因此,當(dāng)生成式人工智能在某種程度上能代替“人”的時(shí)候,也要面臨一個(gè)迫切的問題,如何判定其法律地位,并完善適合的規(guī)訓(xùn)機(jī)制,以對沖其對社會秩序和制度的沖擊。

      現(xiàn)實(shí)中,法律地位不明所帶來的問題已經(jīng)顯現(xiàn)。生成式人工智能最大的特點(diǎn)就是高效、實(shí)用的內(nèi)容生成,相應(yīng)地也對知識產(chǎn)權(quán)領(lǐng)域秩序產(chǎn)生了極大的沖擊和挑戰(zhàn)?!渡墒饺斯ぶ悄芊?wù)管理暫行辦法》中多次提及尊重知識產(chǎn)權(quán)、防止侵害知識產(chǎn)權(quán)等內(nèi)容,凸顯出對可能發(fā)生的知識產(chǎn)權(quán)權(quán)益損害的重視,也體現(xiàn)了一定的前瞻性和務(wù)實(shí)性。ChatGPT相較于之前的分析式人工智能,具備更強(qiáng)的數(shù)據(jù)分析和處理能力,能自動化編纂內(nèi)容、加工潤色、多模態(tài)轉(zhuǎn)換和創(chuàng)造性生產(chǎn),對知識產(chǎn)權(quán)的供給模式和生產(chǎn)范式都有顛覆性的改變。在亞馬遜網(wǎng)站上,已有超過200本由ChatGPT署名的作品上架,甚至為ChatGPT開設(shè)專欄[10]。由此,即有一個(gè)現(xiàn)實(shí)問題擺在面前,ChatGPT生成內(nèi)容能否賦權(quán)、如何賦權(quán),是否為著作權(quán)意義上的“作品”[11]?生成式人工智能可否成為法律意義上的“作者”?“作品”歸屬生成式人工智能自身、操作者抑或多主體共有?如果可以成為法律意義上的“作者”,其是否具備責(zé)任能力,侵權(quán)時(shí)如何歸責(zé)或救濟(jì)。這些問題都需在生成式人工智能法律地位確定過程中一一厘清。

      另一方面,刑事歸責(zé)問題亟待廓清。生成式人工智能除了對民事權(quán)利責(zé)任體系有影響外,也對刑事法律體系有一定沖擊。一定主體通過利用生成式人工智能實(shí)施犯罪,主體、生成式人工智能或者開發(fā)者如何歸責(zé),對傳統(tǒng)刑法理論中的犯罪主體及刑事責(zé)任體系均需要進(jìn)一步分析研究。針對這一問題,有觀點(diǎn)認(rèn)為, 生成式人工智能在犯罪實(shí)施中,本質(zhì)上僅能充當(dāng)犯罪工具,查詢犯罪方法、進(jìn)行網(wǎng)絡(luò)詐騙或敲詐勒索,不具備成為教唆犯或幫助犯的主體資格,其犯罪后果應(yīng)由利用者承擔(dān),仍可在刑法體系內(nèi)予以妥善應(yīng)對[12]。但在實(shí)際情況中,該觀點(diǎn)仍有待商榷。ChatGPT是以海量的數(shù)據(jù)挖掘作為答案生成的基礎(chǔ),如果樣本數(shù)量足夠多,通過設(shè)置一定的關(guān)鍵搜索詞,是可以實(shí)現(xiàn)對他人的隱私權(quán)侵犯乃至侮辱誹謗。甚至說,如果利用ChatGPT自身的思考邏輯、算法邏輯隱秘實(shí)施犯罪,現(xiàn)行體系下是否能夠證明是實(shí)施者的故意,還是機(jī)器自身的故意。比如,有人搜索自殺挑戰(zhàn)時(shí),若生成式人工智能輸出了不恰當(dāng)?shù)乃阉鲀?nèi)容最終對自殺后果產(chǎn)生了較大影響,責(zé)任又該如何承擔(dān)。再如,生成式人工智能能夠輔助編程或者搭建網(wǎng)站,若操作者利用這一便利進(jìn)行編程并實(shí)施網(wǎng)絡(luò)犯罪,生成式人工智能是否需要自主決定拒絕犯罪預(yù)備的請求;若沒拒絕,犯罪后果產(chǎn)生后,責(zé)任是否需要承擔(dān)。上述情況中,生成式人工智能是否能夠分辨自身輸出內(nèi)容的能力與作用,如何成立刑事責(zé)任、如何歸責(zé),是在新的技術(shù)特點(diǎn)和情形下,需要考慮的現(xiàn)實(shí)問題。

      三、生成式人工智能歸責(zé)基礎(chǔ):基于責(zé)任能力的分析

      風(fēng)險(xiǎn)與責(zé)任相伴而生,特別是當(dāng)社會出現(xiàn)人造不確定性或者非外部不確定性影響時(shí),對責(zé)任的探討就會越發(fā)迫切和深入。生成式人工智能引致風(fēng)險(xiǎn)的不確定性和現(xiàn)實(shí)性,呼喚一種邏輯自洽又符合發(fā)展需求的歸責(zé)模式,來澄清生成式人工智能自身責(zé)任、在何種程度上承擔(dān)責(zé)任。而生成式人工智能歸責(zé)的基礎(chǔ)在于分析其責(zé)任能力,考察生成式人工智能是否具備承擔(dān)責(zé)任的資格。

      責(zé)任能力一般指主體對其實(shí)施的不法行為承擔(dān)責(zé)任的資格或能力,包括民事和刑事責(zé)任能力[13]。責(zé)任能力往往與行為能力密切關(guān)聯(lián),在民事方面,無行為能力或者限制行為能力人具備經(jīng)濟(jì)能力,若造成他人財(cái)產(chǎn)損失,也應(yīng)當(dāng)承擔(dān)損害賠償責(zé)任;在刑事方面,無責(zé)任能力人不承擔(dān)其行為的刑事責(zé)任。具體到生成式人工智能來說,結(jié)合其所具備的行為能力和意志表征,賦予其相應(yīng)的責(zé)任能力,有一定空間和可能。下面從三個(gè)方面加以分析。

      第一,關(guān)于是否具備意志能力。一般來說,責(zé)任產(chǎn)生的前提是具備基本認(rèn)知理解的能力和實(shí)施具體行為時(shí)的控制力及意志力。比如,從犯罪論意義上講,實(shí)施犯罪行為就是人意志的直接體現(xiàn),沒有意志能力不構(gòu)成犯罪,也就不能課以刑罰[14]。相應(yīng)可以說,只有具備了相應(yīng)意志能力的理性人工智能,且能夠把自身同其他主體區(qū)分開來,才有承擔(dān)責(zé)任的可能[15]。具體分析:首先,生成式人工智能有較強(qiáng)的認(rèn)知能力。人類的認(rèn)知過程從大腦接受外部信息開始,進(jìn)而分析處理,再轉(zhuǎn)換為心理活動,最終支配人的行為。這一過程和人工智能收集信息、算法處理、形成決策的邏輯非常相似。傳統(tǒng)人工智能可以搜集用戶喜好,進(jìn)行算法推薦和決策,具備了一定認(rèn)知特征。而生成式人工智能這種特征更為明顯,其強(qiáng)大的內(nèi)容生成能力,具備典型的自然語言學(xué)習(xí)和處理能力,不論是相對獨(dú)立的文章寫作還是智能化辦公,這種實(shí)踐所能達(dá)到的智能樣態(tài),很難否認(rèn)其具備相當(dāng)程度的認(rèn)知能力。其次,生成式人工智能有理性分析的能力。ChatGPT-4可以通過給出的文字或者圖片等信息,形成符合人類常識和邏輯的推理判斷,能夠認(rèn)識規(guī)律性事物并具備邏輯推理能力。在實(shí)踐層面,美國有高校法學(xué)院嘗試?yán)肅hatGPT來參加考試作答,考試完畢后發(fā)現(xiàn)其平均成績已經(jīng)達(dá)到學(xué)生的課程結(jié)業(yè)要求,特別是在案例分析論述方面,已經(jīng)能夠適用法學(xué)理論和法律規(guī)則及形成觀點(diǎn)和論證[16]。再次,生成式人工智能能夠做一定的價(jià)值判斷。當(dāng)然,一般觀點(diǎn)認(rèn)為,人工智能技術(shù)無法替代價(jià)值判斷,尤其是司法中的價(jià)值判斷?!八痉夹g(shù)永遠(yuǎn)無法完全取代司法判斷,尤其是司法中的價(jià)值判斷?!盵17]但是情況不是一成不變的,隨著技術(shù)的進(jìn)步、算法的進(jìn)化,生成式人工智能已經(jīng)有被應(yīng)用在司法裁判中的案例。2023年1月,美國哥倫比亞一法官就利用ChatGPT實(shí)施輔助裁判,并表示實(shí)現(xiàn)了更為高效的預(yù)測和裁判[18]。在價(jià)值判斷的過程中,通過人工智能代替法官裁判并非不可能[19]。綜上,可以看出,生成式人工智能是可以、至少是有很大可能成為滿足意志能力的理性人工智能,顯現(xiàn)出類人類意志的突出特征。

      第二,關(guān)于是否具備行為能力。 人工智能的行為能力一直是理論和實(shí)踐中關(guān)注的重點(diǎn)問題,也是無法繞開的問題。對于傳統(tǒng)人工智能來說,一般觀點(diǎn)仍以“代理說”為主,即人工智能的行為被人類所控制,其行為的后果由被代理的主體承擔(dān)。有學(xué)者認(rèn)為,自動化系統(tǒng)難以識別和有效理解人類的自然語言,也就難以具備行為能力[20]。但是,生成式人工智能的發(fā)展卻使情況更為復(fù)雜化。ChatGPT提供者或者控制者固然能夠提供相應(yīng)的系統(tǒng)運(yùn)行服務(wù)和支持,但其用戶數(shù)量多、使用者范圍廣,不同用戶也有不同用途,用以實(shí)施的行為也多種多樣,個(gè)性化服務(wù)也越來越多。當(dāng)技術(shù)更為復(fù)雜、應(yīng)用更為廣泛時(shí),完全繼續(xù)沿用“代理說”由提供者承擔(dān)責(zé)任,既不合理,也不一定經(jīng)濟(jì)。比如,當(dāng)具備強(qiáng)大算力和大模型的生成式人工智能同無人駕駛結(jié)合,在無人駕駛汽車行駛過程中發(fā)生交通事故時(shí),即使產(chǎn)品提供者履行算法“可解釋”義務(wù),但是其中的因果關(guān)系、舉證、責(zé)任承擔(dān)仍是一個(gè)復(fù)雜且值得深究的問題,并不是單純由提供者承擔(dān)責(zé)任所能解決和涵蓋的[21]。所以,在考慮責(zé)任承擔(dān)時(shí),有必要脫離“代理說”的窠臼,而思考生成式人工智能是否在一定條件和一定程度上具備相應(yīng)的行為能力,進(jìn)而實(shí)現(xiàn)更為公平和經(jīng)濟(jì)的歸責(zé)。

      第三,關(guān)于能否作為擬制主體??v向來看,法律意義上的“人”的概念,在不同歷史時(shí)期、不同階段,其概念和范疇是不盡相同的,呈現(xiàn)出與當(dāng)時(shí)經(jīng)濟(jì)社會發(fā)展相適應(yīng)的特征和表現(xiàn)。奴隸制和封建社會階段,自然人并非天然具有權(quán)利能力和行為能力,哪怕是在資本主義階段早期,不具備足夠財(cái)產(chǎn)的自然人相關(guān)權(quán)利也受到法律的限制。至于將公司等主體擬制為法律上的法人,則是大航海時(shí)代為了風(fēng)險(xiǎn)分擔(dān)和鼓勵資本發(fā)展的產(chǎn)物??陀^上,這一法律制度的演變也為推動人類財(cái)富增長起到積極推動作用,促進(jìn)了社會的進(jìn)步與發(fā)展。實(shí)際上,從意志能力來看,法人這種擬制主體主要基于經(jīng)濟(jì)性的現(xiàn)實(shí)需要,使之以財(cái)產(chǎn)集合來作為法律后果的承擔(dān)主體,實(shí)質(zhì)上并不天然具備人類意志屬性,由此也產(chǎn)生了有限責(zé)任[22]。遵從這個(gè)維度,在人工智能時(shí)代,為順應(yīng)新的技術(shù)和社會發(fā)展趨勢,人工智能也應(yīng)當(dāng)且必然會獲得相應(yīng)的法律資格和法律承認(rèn)[23]。比如,俄羅斯的隔離神法案中就提出,允許人工智能類推使用國家統(tǒng)一法人登記簿制度[24]。某主體成為“法律上的人”,終歸是基于人類的需求,當(dāng)人類需要它成為法律主體時(shí),它便可以成為[25]。法人生成過程中,也是先產(chǎn)生實(shí)體,后被法律確認(rèn)。以此推論,當(dāng)生成式人工智能因不可歸責(zé)于其他主體的行為造成他人損害時(shí),也是可以基于現(xiàn)實(shí)或?qū)嶋H的需要,賦予其自身承擔(dān)責(zé)任的資格。當(dāng)然,其中又會產(chǎn)生一個(gè)關(guān)鍵問題,如何使生成式人工智能享有責(zé)任財(cái)產(chǎn),并奠定其作為特殊財(cái)產(chǎn)性法律主體的基礎(chǔ)。

      四、生成式人工智能歸責(zé)的可能展開

      馬克思指出,不是人為法律而存在,而是法律為人而存在[26]。法律需要順應(yīng)時(shí)代需求、滿足人類發(fā)展實(shí)際,在人工智能時(shí)代,法律是引導(dǎo)和保障人工智能科技向善、負(fù)責(zé)任發(fā)展的主要抓手和關(guān)鍵要素。習(xí)近平總書記指出:“人工智能是新一輪科技革命和產(chǎn)業(yè)變革的重要驅(qū)動力量,加快發(fā)展新一代人工智能是事關(guān)我國能否抓住新一輪科技革命和產(chǎn)業(yè)變革機(jī)遇的戰(zhàn)略問題。”[27]是否需要承認(rèn)或者在何種程度上承認(rèn)生成式人工智能的責(zé)任能力,將對人工智能的發(fā)展產(chǎn)生深遠(yuǎn)乃至決定性的影響,并會反過來影響未來法律發(fā)展的走向。因此,當(dāng)前需要繼續(xù)鞏固我國在人工治理方面的優(yōu)勢和有益經(jīng)驗(yàn),進(jìn)一步探索對生成式人工智能的監(jiān)管邏輯和監(jiān)管技術(shù),實(shí)現(xiàn)可控制、能負(fù)責(zé)的生成式人工智能發(fā)展模式。

      (一)基于平衡考量的有限責(zé)任

      針對新興技術(shù)或科技的發(fā)展,一般來說法律需要在謙抑理念下鼓勵創(chuàng)新和安全理念下從嚴(yán)規(guī)制的兩個(gè)維度間尋找平衡。關(guān)鍵之一就是要明確主體為人工智能主體承擔(dān)相適應(yīng)的責(zé)任,涉及其中的主體可能是控制者、操作者、研發(fā)者、生產(chǎn)者,特別是針對生成式人工智能這類強(qiáng)人工智能,在一定條件和情況下,責(zé)任承擔(dān)主體也可能是生成式人工智能自身。上文已經(jīng)提到,ChatGPT-4在意志能力上已經(jīng)具備了相當(dāng)?shù)倪壿嬐评砗捅磉_(dá)意思的能力,通過算法系統(tǒng)的精確設(shè)定和學(xué)習(xí)實(shí)現(xiàn)接近于操作者的思維期待。就行為能力來說,實(shí)踐中也在逐步對“代理說”進(jìn)行一定的調(diào)整因應(yīng),以適應(yīng)更為迅捷、智能度更高的發(fā)展趨勢。就擬制人格來說,基于實(shí)踐考量和符合發(fā)展需求的期待,可以參考法人等擬制主體模式,賦予生成式人工智能特定的法律主體地位,對歸責(zé)原則和責(zé)任能力逐步明確,進(jìn)而促進(jìn)風(fēng)險(xiǎn)的控制和技術(shù)的發(fā)展。

      需要進(jìn)一步明確的是,生成式人工智能能夠賦予法律人格,但是這種法律人格必然是有限的,所能承擔(dān)的責(zé)任也是有限的。本質(zhì)上,人工智能是被制造研發(fā)服務(wù)于人類的智慧工具,有一個(gè)基本準(zhǔn)則就是人的權(quán)能必然優(yōu)位于機(jī)器的權(quán)能,也決定其被賦予的法律人格一定是有限的[28]。生成式人工智能盡管具備一定的意志能力,但客觀上仍是機(jī)器和算法系統(tǒng),從倫理上人類所具有的婚姻、生育、投票等權(quán)能不能也不應(yīng)賦權(quán),但結(jié)合其能生成有價(jià)值的內(nèi)容或者作品,可以考慮賦予其知識產(chǎn)權(quán)等利益性權(quán)能。比如,前文所述的ChatGPT形成的作品,當(dāng)其他人使用或利用該作品時(shí),就會產(chǎn)生一定的收益,這種收益不歸研發(fā)者或者控制者所有,這就可以由生成式人工智能所有;或者在全部收益中,固定抽取一部分收益作為生成式人工智能的強(qiáng)制責(zé)任基金。當(dāng)生成式人工智能實(shí)施不可歸咎于控制者的行為,比如侵權(quán)、數(shù)據(jù)濫用或者歧視等行為,對其他主體造成侵害時(shí),就可利用這部分積累收益實(shí)施賠償,形成承擔(dān)的有限責(zé)任的財(cái)產(chǎn)基礎(chǔ)。

      還需要強(qiáng)調(diào)的一點(diǎn),生成式人工智能的意志能力畢竟是源于大規(guī)模數(shù)據(jù)深度學(xué)習(xí)后形成的底層邏輯,與人類個(gè)體的意志無論是深度、廣度還是靈活性上都有較大的區(qū)別。這也是有限責(zé)任的根源,在有限責(zé)任之外,穿透技術(shù)背后,更加廣泛的責(zé)任仍然需要追溯到研發(fā)者、控制者或者操作者身上。生成式人工智能的有限責(zé)任主要用于解決無人駕駛、部分知識產(chǎn)權(quán)等現(xiàn)實(shí)問題,是制度體系對技術(shù)發(fā)展和現(xiàn)實(shí)作出的適當(dāng)調(diào)整;而最終的、完全的、情感倫理上的責(zé)任仍然需要由人類負(fù)責(zé),這也是警惕人類被機(jī)器替代的必要防御。

      (二)基于不同情形的歸責(zé)思路

      在闡述生成式人工智能責(zé)任有限的基礎(chǔ)上,再進(jìn)一步考量生成式人工智能的歸責(zé)原則和責(zé)任能力范圍。具體來說,生成式人工智能的責(zé)任能力范圍要結(jié)合在具體行為時(shí)機(jī)器所受控制程度不同等情況綜合考量,并深入分析機(jī)器在決策時(shí)的人機(jī)互動來重構(gòu)歸責(zé)中的因果關(guān)系。

      結(jié)合生成式人工智能致?lián)p時(shí)的原因和具體情形,可以分類甄別:若致?lián)p行為完全由生成式人工智能79b57094ad1f05e179d354389105592c224b0e9a031a80607007d26a6b811302自身代碼混亂或程序邏輯錯誤導(dǎo)致的,可由生成式人工智能在相應(yīng)的責(zé)任財(cái)產(chǎn)范圍內(nèi)承擔(dān)有限責(zé)任,背后的研發(fā)者和控制者在證明其研發(fā)控制合規(guī)合理的基礎(chǔ)上,承擔(dān)補(bǔ)充責(zé)任;否則,研發(fā)者和控制者應(yīng)承擔(dān)嚴(yán)格責(zé)任。若致?lián)p行為主要由操作者操作不當(dāng)或惡意操作造成的,主要追究操作者的侵權(quán)責(zé)任;如果無法追查到操作者身份,且控制者能夠證明生成式人工智能可控時(shí),可由生成式人工智能自身承擔(dān)一定的限制責(zé)任。若致?lián)p原因不明或無法查清由何種原因引起的,可考慮由控制者、研發(fā)者和生成式人工智能自身聯(lián)合起來承擔(dān)公平責(zé)任,其中責(zé)任承擔(dān)比例、方式和賠償范圍,則需要更為精細(xì)化的配套歸責(zé)予以明確。另外,還有可能是由監(jiān)管者監(jiān)管不當(dāng)或者疏忽產(chǎn)生致?lián)p行為,則主要由監(jiān)管者擔(dān)責(zé),生成式人工智能自身可課以補(bǔ)充責(zé)任。

      所以,在承認(rèn)生成式人工智能有限的責(zé)任能力的基礎(chǔ)上,在責(zé)任承擔(dān)上還需要適用“刺破機(jī)器面紗”的歸責(zé)原則,根據(jù)不同情形和因果關(guān)系,進(jìn)一步挖掘機(jī)器背后的實(shí)際主體,構(gòu)建多主體負(fù)責(zé)的鏈?zhǔn)截?zé)任分配機(jī)制。畢竟,在技術(shù)發(fā)展越發(fā)復(fù)雜、風(fēng)險(xiǎn)越發(fā)多元的現(xiàn)實(shí)中,讓單一主體承擔(dān)主要或全部責(zé)任,既不公平,也會因主體承擔(dān)過重責(zé)任而阻礙對人工智能的持續(xù)研發(fā)和投入,導(dǎo)致法律規(guī)制的負(fù)外部性。因此,研發(fā)者、控制者、監(jiān)管者及生成式人工智能自身等不同主體,均應(yīng)在“權(quán)責(zé)一致”的基礎(chǔ)上、公平責(zé)任的補(bǔ)強(qiáng)下,根據(jù)不同情形和具體風(fēng)險(xiǎn),搭建完整、配套的責(zé)任分擔(dān)體系和分擔(dān)鏈條,更為準(zhǔn)確、系統(tǒng)、高效地確定厘定責(zé)任承擔(dān)的主體、方式和范圍等事項(xiàng),進(jìn)而有效促進(jìn)人工智能持續(xù)、健康、負(fù)責(zé)任、可控制地發(fā)展。

      注 釋:

      ① 本文所稱生成式人工智能,依據(jù)《生成式人工智能服務(wù)管理暫行辦法》規(guī)定,是指“具有文本、圖片、音頻、視頻等內(nèi)容生成能力的模型及相關(guān)技術(shù)”。

      ② 美國的一位電臺主持人Walters向佐治亞州的一家高等法院提起訴訟,狀告OpenAI公司侵犯其名譽(yù)權(quán),起因是美國的一位新聞記者Riehl在與ChatGPT的對話過程中,ChatGPT聲稱Walters曾被指控從一家非營利公司騙取和盜用資金,而Walters稱其從未受到過此類指控并認(rèn)為該信息純屬ChatGPT捏造。See The Complaint of Mark Walters v. OpenAI L.L.C.,The Superior Court of Gwinnett County,State of Georgia,Civil Action No. 23-A-04860-2。

      參考文獻(xiàn):

      [1] 比爾·蓋茨.ChatGPT是1980年以來最革命性的技術(shù)進(jìn)步[EB/OL].[2023-9-3].https://tech.ifeng.com/c/8OLwGZFl2pI.

      [2] 張學(xué)博,王涵睿.生成式人工智能的法律規(guī)制——以ChatGPT為例[J].上海法學(xué)研究,2023(6):253-261.

      [3] 劉艷紅.生成式人工智能的三大安全風(fēng)險(xiǎn)及法律規(guī)制——以ChatGPT為例[J].東方法學(xué),2023(4):29-43.

      [4] 《馬斯克等千名科技人士發(fā)公開信:暫停訓(xùn)練比GPT-4更強(qiáng)大的AI系統(tǒng)》[EB/OL].[2023-9-3].https://www.thepaper.cn/newsDetail_forward_22490961.

      [5] 畢文軒.生成式人工智能的風(fēng)險(xiǎn)規(guī)制困境及其化解:以ChatGPT的規(guī)制為視角[J].比較法研究,2023(3):55-172.

      [6] 周學(xué)峰.生成式人工智能侵權(quán)責(zé)任探析[J].比較法研究,2023(4):117-131.

      [7] ChatGPT殺進(jìn)15個(gè)商業(yè)應(yīng)用,讓AI替你打工[EB/OL].[2023-9-5].https://www.thepaper.cn/newsDetail_forward_23023803.

      [8] T. ELOUNDOU,S. MANNING,ET AL.GPTs are GPTs,An Early Look at the Labor Market Impact Potential of Large Language Models,arXiv [EB/OL].[ 2023-3-27].https://doi.org/10.48550/arXiv.2303.10130.

      [9] 韓大元.當(dāng)代科技發(fā)展的憲法界限[J].法治現(xiàn)代化研究,2018(5):1-12.

      [10] 已經(jīng)有人靠ChatGPT出書賺稿酬了[EB/OL].[2023-9-13].https://www.thepaper.cn/newsDetail_forward_22043420.

      [11] 方卿,丁靖佳.人工智能生成內(nèi)容(AIGC)的三個(gè)出版學(xué)議題[J].出版科學(xué),2023(2):5-10.

      [12] 鄧建鵬,朱懌成.ChatGPT模型的法律風(fēng)險(xiǎn)及應(yīng)對之策[J].新疆師范大學(xué)學(xué)報(bào)(哲學(xué)社會科學(xué)版),2023(5):91-101.

      [13] 劉保玉,秦偉.論自然人的民事責(zé)任能力[J].法學(xué)研究,2001(2):77-88.

      [14] 黑格爾:法哲學(xué)導(dǎo)論[M].范揚(yáng)、張啟泰譯,北京:商務(wù)印書館,1996:103.

      [15] 周靖.論意識條件和主體條件的區(qū)分——對人工智能體道德身份論題的一個(gè)澄清[J].上海交通大學(xué)學(xué)報(bào)(哲學(xué)社會科學(xué)版),2023(2):121-129.

      [16] JONATHAN H. ChOI ET AL. ChatGPT Goes to Law School [EB/OL].[2023-3-13].http://dx.doi.org/10.2139/ssrn.4335905.

      [17] 雷磊.司法人工智能能否實(shí)現(xiàn)司法公正?[J].政法論叢,2022(4):72-82.

      [18] Judge Used ChatGPT to Make a Court Decision[EB/OL].[2023-5-16].https://metanews.com/judge-used-chatgpt-to-make-a-court-decision/.

      [19] 申衛(wèi)星、劉云.法學(xué)研究新范式:計(jì)算法學(xué)的內(nèi)涵、范疇與方法[J].法學(xué)研究,2020(3):3-23.

      [20] JOSHUA FAIRFIELD,NILOUFER SELVADURAI.Governing the Interface Between Natural and Formal Language in Smart Contracts[J].UCLA Journal of Law & Technology,2022(2):79.

      [21] 袁曾.無人駕駛汽車侵權(quán)責(zé)任的鏈?zhǔn)椒峙錂C(jī)制——以算法應(yīng)用為切入點(diǎn)[J].東方法學(xué),2019(5):28-39.

      [22] 尹志強(qiáng).人工智能何以為“人”——人工智能時(shí)代之民法因應(yīng)[J].社會科學(xué)研究,2023(1):60-70.

      [23] 尤瓦爾·赫拉利:《未來簡史——從智人到神人》[M].林俊宏譯.中信出版集團(tuán),2017:96.

      [24] 張建文.格里申法案的貢獻(xiàn)與局限——俄羅斯首部機(jī)器人法草案述評[J].華東政法大學(xué)學(xué)報(bào),2018(2):32-41.

      [25] 漢斯·哈騰鮑爾.民法上的人[J].孫憲忠譯.環(huán)球法律評論,2001(4):23-33.

      [26] 中共中央馬克思恩格斯列寧斯大林著作編譯局.《馬克思恩格斯全集》(第三卷)[M].北京:人民出版社,2002:40.

      [27] 習(xí)近平.加強(qiáng)領(lǐng)導(dǎo)做好規(guī)劃明確任務(wù)夯實(shí)基礎(chǔ)推動我國新一代人工智能健康發(fā)展[N].人民日報(bào),2018-11-1(1).

      [28] 袁曾.人工智能有限法律人格審視[J].東方法學(xué),2017(5):50-57.

      基金項(xiàng)目:國家社科基金重大項(xiàng)目“適應(yīng)新時(shí)代市場監(jiān)管需要的權(quán)力配置研究”(20&ZD194)

      作者簡介:芮然(1995— ),男,江蘇溧陽人,江蘇省溧陽市人民法院法官助理,碩士,研究方向?yàn)樾谭▽W(xué)。

      泸定县| 禄丰县| 安化县| 沧州市| 鹤山市| 伊宁县| 闵行区| 竹溪县| 连云港市| 顺义区| 荣成市| 普洱| 安吉县| 酒泉市| 海阳市| 昭苏县| 乐山市| 色达县| 高台县| 鄄城县| 建昌县| 陈巴尔虎旗| 类乌齐县| 云阳县| 靖边县| 金华市| 河津市| 亚东县| 宜丰县| 郴州市| 霸州市| 巢湖市| 栖霞市| 昌乐县| 桑日县| 上虞市| 大连市| 宜宾市| 定西市| 棋牌| 勃利县|