• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看

      ?

      生成式人工智能虛假信息治理的風(fēng)險(xiǎn)與應(yīng)對(duì)

      2024-10-12 00:00:00鄧宏光王雪璠
      理論月刊 2024年9期

      [摘 要] 從數(shù)據(jù)輸入、模型運(yùn)算以及輸出結(jié)果的運(yùn)作流程來(lái)看,生成式人工智能具有使虛假信息在數(shù)以萬(wàn)計(jì)的數(shù)量級(jí)上成倍擴(kuò)散或者合并的能力。為此,世界各國(guó)政府正在面臨為生成式人工智能系統(tǒng)設(shè)置護(hù)欄和保障措施的任務(wù),主要面臨以下困難:高擬真生成式人工智能生成內(nèi)容加劇了事實(shí)核查的難度、虛假信息治理時(shí)國(guó)家公權(quán)力的介入不足、監(jiān)管責(zé)任的互相推諉等。據(jù)此,生成式人工智能開(kāi)發(fā)者、部署者、服務(wù)提供者等利益相關(guān)主體應(yīng)當(dāng)緊密合作,共同承擔(dān)虛假信息排查與管控的風(fēng)險(xiǎn),具體分為三個(gè)方面:一是分層式治理,虛假信息治理的整體布局(包含數(shù)據(jù)層、內(nèi)容層、服務(wù)層);二是糾正式治理,保障受生成式人工智能生成內(nèi)容侵害主體救濟(jì)權(quán);三是協(xié)同式治理,責(zé)成AI價(jià)值鏈上最密切利益主體對(duì)虛假信息的不良后果承擔(dān)不真正連帶責(zé)任。

      [關(guān)鍵詞] 虛假信息;生成式人工智能;深度學(xué)習(xí);數(shù)據(jù)訓(xùn)練;“通知—?jiǎng)h除”規(guī)則;不真正連帶責(zé)任

      [DOI編號(hào)] 10.14180/j.cnki.1004-0544.2024.09.012

      [中圖分類(lèi)號(hào)] D923 [文獻(xiàn)標(biāo)識(shí)碼] A [文章編號(hào)] 1004-0544(2024)09-0115-15

      基金項(xiàng)目:重慶市教委人文社科研究項(xiàng)目“健全知識(shí)產(chǎn)權(quán)懲罰性賠償制度研究”(20JD031)。

      作者簡(jiǎn)介:鄧宏光(1977—),男,法學(xué)博士,西南政法大學(xué)民商法學(xué)院教授、博士生導(dǎo)師;王雪璠(1996—),女,西南政法大學(xué)民商法學(xué)院博士研究生。

      引言

      生成式人工智能模型①是基于大量非結(jié)構(gòu)化數(shù)據(jù)訓(xùn)練而形成的深度學(xué)習(xí)模型,它具有提高生產(chǎn)力、降低成本與提升企業(yè)效益的巨大潛力。與以前的深度學(xué)習(xí)模型不同,生成式人工智能模型的強(qiáng)大之處在于,它們并不局限于執(zhí)行一種任務(wù),而是可以同時(shí)執(zhí)行多種任務(wù),例如分類(lèi)、編輯、總結(jié)、回答問(wèn)題和起草新內(nèi)容。這使得公司能夠在用戶(hù)缺乏深厚的人工智能和數(shù)據(jù)科學(xué)知識(shí)的背景下,相對(duì)輕松地使用這些模型啟動(dòng)多個(gè)應(yīng)用程序②。

      與傳統(tǒng)人工智能一樣,生成式人工智能也會(huì)引發(fā)隱私問(wèn)題和道德風(fēng)險(xiǎn),例如訓(xùn)練數(shù)據(jù)中隱藏的偏見(jiàn)可能會(huì)長(zhǎng)期存在。這些技術(shù)可能會(huì)加劇虛假信息的產(chǎn)生與傳播,導(dǎo)致欺騙、欺詐、歧視和偏見(jiàn)的迅速擴(kuò)大,開(kāi)辟更多的攻擊領(lǐng)域和新的攻擊形式,從而增加了安全漏洞出現(xiàn)的風(fēng)險(xiǎn)。OpenAI首席執(zhí)行官Sam Altman在2023年5月國(guó)會(huì)聽(tīng)證時(shí)曾將生成式人工智能導(dǎo)致“有害內(nèi)容、虛假信息、缺乏透明度和知識(shí)產(chǎn)權(quán)盜竊”等問(wèn)題列為必要監(jiān)管議題1。近期,OpenAI已經(jīng)面臨The Intercept、Raw Story和AlterNet新聞機(jī)構(gòu)的起訴。這三家機(jī)構(gòu)指控OpenAI濫用他們的文章訓(xùn)練其流行聊天機(jī)器人ChatGPT的人工智能系統(tǒng)。國(guó)內(nèi)同樣面臨虛假信息擾亂社會(huì)秩序的問(wèn)題。2023年4月25日,深圳某自媒體公司洪某先搜尋了近年來(lái)中國(guó)討論度廣泛的社會(huì)新聞,隨后利用ChatGPT將特定元素例如時(shí)間、地點(diǎn)、日期或性別等進(jìn)行修改,重新撰寫(xiě)一篇假新聞,借由上傳這些文章賺取流量再加以變現(xiàn)。不僅如此,洪某還利用ChatGPT制作了多個(gè)存在細(xì)小差距的假新聞版本,以避開(kāi)百度旗下平臺(tái)的審查。最終洪某因涉嫌尋釁滋事罪被警方采取強(qiáng)制措施2。這意味著,當(dāng)人類(lèi)智力與人工智能協(xié)作,人類(lèi)利用ChatGPT搜索熱點(diǎn)新聞?wù)Z料庫(kù)以及其他相關(guān)資料,并對(duì)新聞構(gòu)成要素的部分再組合形成虛假新聞,在缺乏人工審查時(shí),這些虛假新聞、虛假信息甚至可以逃脫現(xiàn)有技術(shù)的審查,進(jìn)入公眾視野,對(duì)社會(huì)秩序造成不良影響。

      2022年9月13日,第77屆聯(lián)合國(guó)大會(huì)第一次全會(huì)臨時(shí)議程項(xiàng)目69(b)中3,也曾對(duì)虛假信息的泛濫表示擔(dān)憂(yōu)。聯(lián)合國(guó)秘書(shū)長(zhǎng)安東尼奧·古特雷斯(António Guterres)在其提交的《打擊虛假信息,促進(jìn)和保護(hù)人權(quán)與基本自由》報(bào)告中,闡述了錯(cuò)誤信息和虛假信息的區(qū)別。錯(cuò)誤信息是指那些意外傳播的不準(zhǔn)確信息,而虛假信息不僅指信息內(nèi)容本身不準(zhǔn)確,還存在有意欺騙并被故意傳播的行為,最終造成嚴(yán)重危害。安東尼奧·古特雷斯對(duì)“虛假信息”一詞沒(méi)有給出明確的定義。因?yàn)閷?duì)虛假信息的關(guān)切可能出現(xiàn)在多種不同的情況下,涉及選舉進(jìn)程、公共衛(wèi)生、武裝沖突或氣候變化等問(wèn)題,所以沒(méi)有一個(gè)定義能全面描述虛假信息。聯(lián)合國(guó)秘書(shū)長(zhǎng)安東尼奧還稱(chēng),“打擊虛假信息需要在建設(shè)社會(huì)抵御能力以及媒體和信息素養(yǎng)方面進(jìn)行持久投資”4。

      當(dāng)前,生成式人工智能生成虛假有害信息已經(jīng)受到各國(guó)關(guān)注。諸如安全評(píng)估、算法備案以及審計(jì)等措施,通常通過(guò)人工智能模型投入使用前和應(yīng)用后的干預(yù)措施得以體現(xiàn)5。值得注意的是,生成式人工智能的開(kāi)發(fā)者、部署者以及服務(wù)提供者等受AIGC影響的主體,是否在法律上具有保證信息真實(shí)的審查義務(wù)?如若未履行內(nèi)容審查義務(wù)應(yīng)當(dāng)承擔(dān)怎樣的責(zé)任?有學(xué)者指出,生成式人工智能模型不能適用產(chǎn)品責(zé)任,應(yīng)當(dāng)按照《中華人民共和國(guó)民法典》(以下簡(jiǎn)稱(chēng)“《民法典》”)第1165條第1款,適用過(guò)錯(cuò)責(zé)任的一般條款進(jìn)行規(guī)制,并在有限范圍內(nèi)類(lèi)推適用“通知—?jiǎng)h除”規(guī)則6。但也有學(xué)者認(rèn)為,抑制生成式人工智能生成虛假信息,需要加強(qiáng)透明度監(jiān)管。尤其是構(gòu)建生成式人工智能系統(tǒng)的組織應(yīng)該記錄、披露訓(xùn)練數(shù)據(jù)和模型架構(gòu)。故而,創(chuàng)建安全使用工具的責(zé)任應(yīng)該由構(gòu)建和部署生成系統(tǒng)的公司承擔(dān),這意味著這些系統(tǒng)的構(gòu)建者應(yīng)該對(duì)其產(chǎn)品的產(chǎn)出負(fù)責(zé)1。亦有學(xué)者提出,生成式人工智能服務(wù)提供者應(yīng)當(dāng)履行內(nèi)容審查義務(wù),并承擔(dān)違反內(nèi)容審查義務(wù)的責(zé)任2。有反對(duì)者認(rèn)為,生成式人工智能服務(wù)提供者對(duì)內(nèi)容生成的控制能力,已不同于以往的網(wǎng)絡(luò)服務(wù)提供者,不能僅依據(jù)“風(fēng)險(xiǎn)控制義務(wù)”,要求生成式人工智能服務(wù)提供者對(duì)其生成內(nèi)容具有一般化的審查義務(wù)3。綜上,生成式人工智能的開(kāi)發(fā)者、部署者以及其他服務(wù)提供者等受生成式人工智能系統(tǒng)影響的主體,理應(yīng)對(duì)生成式人工智能生成內(nèi)容的真實(shí)性、合法性負(fù)責(zé)。立法者可以將內(nèi)容審查義務(wù)、違法信息及時(shí)處置義務(wù)等與虛假信息治理有關(guān)的注意義務(wù)分配給生成式人工智能系統(tǒng)的設(shè)計(jì)、部署、應(yīng)用等不同階段的不同主體,或?qū)⒍嘀黧w捆綁,以共擔(dān)義務(wù)的方式協(xié)作治理,以便為生成式人工智能系統(tǒng)的運(yùn)作提供一個(gè)健康良好的生態(tài)環(huán)境。

      一、生成式人工智能加劇虛假信息的威脅格局

      生成式人工智能技術(shù)看似是創(chuàng)造性生產(chǎn),實(shí)際上其運(yùn)行邏輯是對(duì)現(xiàn)有數(shù)據(jù)的重新排列組合,以及更廣泛地獲取訓(xùn)練數(shù)據(jù)集。這個(gè)技術(shù)本身存在生成虛假信息的風(fēng)險(xiǎn)。尤其是網(wǎng)絡(luò)服務(wù)提供者利用人工智能技術(shù)“標(biāo)簽化”熱門(mén)內(nèi)容,故意編造虛假信息時(shí),還有可能承擔(dān)擾亂社會(huì)秩序的公法責(zé)任。虛假信息的危害性根源在于,誤導(dǎo)社會(huì)公眾認(rèn)知,引導(dǎo)社會(huì)公眾做出錯(cuò)誤行為或者錯(cuò)誤決策。

      根據(jù)《生成式人工智能服務(wù)管理暫行辦法》(以下簡(jiǎn)稱(chēng)“《暫行辦法》”)第22條,生成式人工智能技術(shù),是指具有文本、圖片、音頻、視頻等內(nèi)容生成能力的模型及相關(guān)技術(shù)。也就是說(shuō),該《暫行辦法》中與生成式人工智能技術(shù)有關(guān)的規(guī)定,對(duì)生成式人工智能模型同樣適用。生成式人工智能模型則是指根據(jù)用戶(hù)指令生成內(nèi)容的系統(tǒng)。傳統(tǒng)的通用人工智能,是一個(gè)能夠像人類(lèi)一樣思考、學(xué)習(xí)和適應(yīng)的機(jī)器。從技術(shù)上講,它主要由“深度學(xué)習(xí)”4技術(shù)驅(qū)動(dòng),該技術(shù)可以通過(guò)訓(xùn)練從數(shù)據(jù)中自動(dòng)學(xué)習(xí)內(nèi)容創(chuàng)建的結(jié)構(gòu)和模式5,使內(nèi)容創(chuàng)建過(guò)程更加高效和可訪問(wèn),以更快的速度生產(chǎn)高質(zhì)量的內(nèi)容。與之前的技術(shù)相比,生成式人工智能的核心進(jìn)步是通過(guò)使用更大的基礎(chǔ)模型架構(gòu),訪問(wèn)廣泛的計(jì)算資源,在更大的數(shù)據(jù)集上訓(xùn)練更復(fù)雜的生成模型。隨著各種生成技術(shù)的日益普及,生成的錯(cuò)誤信息將主宰未來(lái)的虛假信息景觀。

      第一,數(shù)據(jù)輸入階段。海量數(shù)據(jù)預(yù)訓(xùn)練為生成式人工智能技術(shù)觸發(fā)虛假信息提供了“天然的胚胎環(huán)境”。基于海量數(shù)據(jù)庫(kù)的訓(xùn)練模式,使得生成式人工智能技術(shù)在信息獲取上不可避免地具有天然的滯后性6。除海量數(shù)據(jù)庫(kù)本身有誤或者數(shù)據(jù)過(guò)時(shí)外,生成式人工智能技術(shù)之所以會(huì)提供虛假信息,很大程度上是因?yàn)樗鼈儾](méi)有理解人類(lèi)語(yǔ)言的能力,也不具備人類(lèi)思考和推理的能力,其對(duì)答如流的背后,實(shí)質(zhì)上是通過(guò)海量數(shù)據(jù)訓(xùn)練建立了字詞句之間的關(guān)聯(lián)概率模型,使得AI模型具備了根據(jù)用戶(hù)提問(wèn)逐字計(jì)算出概率最高表述方式的能力。簡(jiǎn)單來(lái)說(shuō),訓(xùn)練數(shù)據(jù)被表示為概率分布。通過(guò)對(duì)它們進(jìn)行采樣和混合,模型可以生成超出訓(xùn)練數(shù)據(jù)集的內(nèi)容,也就是一些評(píng)論者所說(shuō)的新內(nèi)容1。以此為基礎(chǔ),模型訓(xùn)練所需的大量數(shù)據(jù)意味著生成式人工智能模型的開(kāi)發(fā)者必須依賴(lài)于互聯(lián)網(wǎng)上公開(kāi)提供的訓(xùn)練數(shù)據(jù)。從數(shù)據(jù)質(zhì)量的角度來(lái)看,很難認(rèn)為數(shù)據(jù)來(lái)源是完整、及時(shí)且有效的。因此,這些模型生成的內(nèi)容可能是有偏見(jiàn),甚至是有害的2。

      第二,模型運(yùn)算階段。生成式人工智能模型優(yōu)化與深度學(xué)習(xí)的可擴(kuò)展性,成為虛假信息迅速擴(kuò)散的“風(fēng)火輪”。一方面,生成式人工智能技術(shù)通過(guò)深度學(xué)習(xí)和模型訓(xùn)練,對(duì)用戶(hù)輸入內(nèi)容進(jìn)行學(xué)習(xí)與反饋,并改進(jìn)輸出內(nèi)容,使得系統(tǒng)具備更高效解決問(wèn)題的能力。另一方面,在模型訓(xùn)練過(guò)程中,生成式人工智能模型使不真實(shí)信息在數(shù)以萬(wàn)計(jì)的數(shù)量級(jí)上成倍擴(kuò)散或者合并,從而產(chǎn)生“雪球效應(yīng)”。一旦訓(xùn)練集來(lái)源不真實(shí)或者訓(xùn)練過(guò)程中出現(xiàn)數(shù)據(jù)管理不善、數(shù)據(jù)不當(dāng)刪除等問(wèn)題,都會(huì)導(dǎo)致偏見(jiàn)的強(qiáng)化以及不準(zhǔn)確信息的指數(shù)級(jí)擴(kuò)散。這些問(wèn)題影響了人工智能應(yīng)用的功效,加劇了社會(huì)不平等并削弱了對(duì)人工智能技術(shù)的信任。

      第三,輸出結(jié)果階段。生成式人工智能技術(shù)為達(dá)目的“不擇手段”,忽略輸出結(jié)果的實(shí)質(zhì)真實(shí)性。一方面,AIGC是在給定人類(lèi)指令的情況下,利用算法生成滿(mǎn)足指令的內(nèi)容,從而幫助、指導(dǎo)模型完成任務(wù)。這個(gè)生成過(guò)程通常包括兩個(gè)步驟:從人類(lèi)指令中提取意圖信息,并據(jù)此生成內(nèi)容。為提高目標(biāo)者對(duì)輸出結(jié)果的滿(mǎn)意程度,生成式人工智能往往“竭盡所能”,突出表現(xiàn)為它并不會(huì)承認(rèn)自己在某個(gè)領(lǐng)域無(wú)知或者面對(duì)某個(gè)問(wèn)題時(shí)無(wú)能為力。這就使得生成式人工智能擅于編造某種形式上看似正確,實(shí)際上卻沒(méi)有任何價(jià)值甚至虛假有害的信息。ChatGPT生成內(nèi)容的邏輯,是利用來(lái)自人類(lèi)反饋的強(qiáng)化學(xué)習(xí)3,對(duì)給定指令給出最合適的回應(yīng),從而隨著時(shí)間的推移提高模型的可靠性和準(zhǔn)確性。這種方法使得ChatGPT能夠在長(zhǎng)對(duì)話中更好地理解人類(lèi)的偏好4。這種可靠和準(zhǔn)確是對(duì)人類(lèi)指令的理解優(yōu)化,但卻不能保證信息的來(lái)源可靠與內(nèi)容真實(shí)。

      另一方面,通過(guò)對(duì)人類(lèi)價(jià)值判斷與意識(shí)形態(tài)的滲透,生成式人工智能將經(jīng)過(guò)處理和篩選的內(nèi)容與人們的價(jià)值選擇、意識(shí)形態(tài)相勾連,使人們?cè)跓o(wú)意識(shí)時(shí)接受人工智能的潛在規(guī)訓(xùn)5。生成式人工智能在一定程度上替代了搜索引擎,在精準(zhǔn)對(duì)接用戶(hù)需求信息時(shí),逐漸稀釋用戶(hù)對(duì)信息的自主選擇能力和判斷力。從內(nèi)容生成準(zhǔn)備階段的價(jià)值預(yù)設(shè)與文化選擇,到內(nèi)容生成的反饋與應(yīng)用階段,都滲透了掌握話語(yǔ)權(quán)力者以及相關(guān)利益者的喜好。尤其是心智尚未成熟的未成年人,難以對(duì)其接觸的信息進(jìn)行甄別和篩選,無(wú)法留下可靠、真實(shí)信息并排除對(duì)其不利的虛假有害內(nèi)容。長(zhǎng)此以往人類(lèi)將失去對(duì)其接觸信息是否真實(shí)的判斷力,進(jìn)而失去對(duì)社會(huì)最基本的信任。

      二、生成式人工智能虛假信息治理的風(fēng)險(xiǎn)挑戰(zhàn)

      (一)高擬真訓(xùn)練下多元主體的審查挑戰(zhàn)

      平臺(tái)的基本結(jié)構(gòu)是:參與者+價(jià)值單元+過(guò)濾器=核心互動(dòng)。在這個(gè)等式中,參與者就是生產(chǎn)者與消費(fèi)者1。價(jià)值單元也是核心概念,可以簡(jiǎn)單地理解為產(chǎn)品或服務(wù),它由生產(chǎn)者生產(chǎn)出來(lái),被消費(fèi)者消費(fèi)。單元指的是單一元素,比如一個(gè)視頻、一次打車(chē)、一個(gè)商品等。同時(shí),互聯(lián)網(wǎng)平臺(tái)所起的關(guān)鍵作用就是“過(guò)濾器”,也就是把有需求的生產(chǎn)者和消費(fèi)者匹配起來(lái)。生成式人工智能服務(wù)提供者在平臺(tái)價(jià)值產(chǎn)生與運(yùn)營(yíng)過(guò)程中的地位,早已超越一般的網(wǎng)絡(luò)服務(wù)提供者,在生產(chǎn)者與消費(fèi)者之間構(gòu)建了更深層了解消費(fèi)者意圖的橋梁——依據(jù)消費(fèi)者的反饋,反作用于信息的生產(chǎn)。

      生成式人工智能模型創(chuàng)新的商業(yè)模式,可能會(huì)從內(nèi)容生成革命中產(chǎn)生,這也是生成式人工智能服務(wù)區(qū)別于傳統(tǒng)網(wǎng)絡(luò)服務(wù)的典型特征。然而,整個(gè)服務(wù)提供與內(nèi)容生成過(guò)程需要多主體參與和配合,也就意味著生成內(nèi)容真實(shí)與否,可能與各主體的參與行為都存在關(guān)聯(lián)。也正因?yàn)樯墒饺斯ぶ悄芊?wù)由多元主體參與活動(dòng),卻需為單一生成內(nèi)容負(fù)責(zé),每個(gè)參與主體難以把控自己之外的其他參與主體對(duì)內(nèi)容生成的影響,進(jìn)一步加劇了內(nèi)容真實(shí)性審查的難度。此外,生成模型通常是根據(jù)大量數(shù)據(jù)進(jìn)行訓(xùn)練的,以學(xué)習(xí)不同類(lèi)型信息(如文本、圖像和視頻)之間的基本模式和關(guān)系。通過(guò)結(jié)合這些習(xí)得的表征,生成模型可以生成具有高度說(shuō)服力和連貫性的多模態(tài)內(nèi)容,這些內(nèi)容與特定的敘述或大綱相一致2,使得生成式人工智能創(chuàng)造虛假信息相比一般的欺騙更難識(shí)別。此外,這些模型還可以通過(guò)利用用戶(hù)數(shù)據(jù)、捕捉個(gè)人偏好和特征來(lái)創(chuàng)建個(gè)性化信息。例如,有學(xué)者基于神經(jīng)網(wǎng)絡(luò)的生成模型成功生成了個(gè)性化情緒音頻3。一方面,人工智能對(duì)人類(lèi)個(gè)人偏好的掌控,更有利于用戶(hù)對(duì)人工智能提供的服務(wù)產(chǎn)生信任,從而建立更深層次的情感鏈接。個(gè)性化人工智能生成內(nèi)容的崛起,有可能成為內(nèi)容消費(fèi)的主要來(lái)源,因?yàn)樗軌蚋鶕?jù)個(gè)人消費(fèi)者的特定需求和偏好定制內(nèi)容。因此,人工智能算法正在根據(jù)用戶(hù)的口味和需求生成包括廣告、短視頻和敘事在內(nèi)的一系列內(nèi)容。另一方面,生成式人工智能的模仿能力,已經(jīng)達(dá)到了以假亂真的地步。通過(guò)深度學(xué)習(xí)和自然語(yǔ)言處理技術(shù),它們可以準(zhǔn)確地模仿人類(lèi)的語(yǔ)言表達(dá)和思維方式,使其產(chǎn)生的內(nèi)容在形式上與真實(shí)的文本難以區(qū)分。惡意行為者可以利用生成模型的能力,制造假新聞或其他類(lèi)型的虛假信息,并配以偽造的圖像或深度偽造的視頻。通過(guò)換臉和重塑臉部的深度偽造以創(chuàng)建政治人物的高度逼真視頻的情況并不罕見(jiàn)4。

      生成式人工智能技術(shù)生成虛假信息的治理,很大程度上受到訓(xùn)練數(shù)據(jù)庫(kù)質(zhì)量的影響,尤其當(dāng)數(shù)據(jù)訓(xùn)練與知識(shí)產(chǎn)權(quán)保護(hù)發(fā)生利益沖突時(shí),由于數(shù)據(jù)集的增加,通常會(huì)使得深度學(xué)習(xí)方法的性能提高。而公開(kāi)的數(shù)據(jù)庫(kù)與企業(yè)擁有商業(yè)秘密的相關(guān)數(shù)據(jù)、技術(shù)資源肯定無(wú)法相提并論,嚴(yán)重影響了生成式人工智能模型通過(guò)深度學(xué)習(xí)優(yōu)化模型的進(jìn)程。這樣完善虛假信息的治理,實(shí)際上是完善生成式人工智能價(jià)值鏈上不同主體所代表的利益規(guī)范。

      (二)公權(quán)力介入下平臺(tái)治理的權(quán)限挑戰(zhàn)

      生成式人工智能技術(shù)帶來(lái)虛假信息治理的風(fēng)險(xiǎn),但究竟如何治理則是由生成式人工智能生成文本、圖像、視頻或音頻等內(nèi)容的能力決定的?;谄脚_(tái)將大多數(shù)生成式人工智能模型作為服務(wù)出售的商業(yè)模式,全球AI治理基本與平臺(tái)治理高度融合1。國(guó)家在治理平臺(tái)時(shí),需要對(duì)市場(chǎng)競(jìng)爭(zhēng)秩序進(jìn)行監(jiān)管,需要對(duì)版權(quán)風(fēng)險(xiǎn)和個(gè)人隱私進(jìn)行監(jiān)管,需要及時(shí)調(diào)查錯(cuò)誤信息的來(lái)源并加以干涉2,因此,國(guó)家絕不僅是規(guī)制制定與執(zhí)行的監(jiān)管者,它還充當(dāng)著市場(chǎng)推動(dòng)者、資源購(gòu)買(mǎi)者以及能力生產(chǎn)者的角色。這三個(gè)未被充分開(kāi)發(fā)的國(guó)家角色既使國(guó)家機(jī)構(gòu)能夠監(jiān)管平臺(tái),同時(shí)也限制了國(guó)家機(jī)構(gòu)監(jiān)管平臺(tái)。因?yàn)樗鼈優(yōu)楸O(jiān)管行動(dòng)的發(fā)生提供了背景。這使得平臺(tái)治理不僅是一個(gè)監(jiān)管問(wèn)題,還是一個(gè)平衡相互對(duì)立的國(guó)家角色的問(wèn)題——政治力量、經(jīng)濟(jì)利益和戰(zhàn)略野心之間的沖突。

      目前,世界各國(guó)政府都面臨著為ChatGPT等生成式人工智能系統(tǒng)設(shè)置護(hù)欄和保障措施的任務(wù)。2024年1月30日,美國(guó)戰(zhàn)略與國(guó)際問(wèn)題研究中心發(fā)布最新報(bào)告《2024年人工智能政策預(yù)測(cè)》。該報(bào)告強(qiáng)調(diào),2024年是歷史上規(guī)模最大的選舉年,這可能是人工智能在競(jìng)選、干預(yù)和傳播虛假信息方面發(fā)揮重要作用的第一個(gè)選舉周期3。目前,美國(guó)仍然是以2023年拜登政府簽發(fā)的“安全、可靠和可信開(kāi)發(fā)和使用人工智能”行政令為主要的AI監(jiān)管路徑,圍繞安全、創(chuàng)新與競(jìng)爭(zhēng)、工人支持、防止偏見(jiàn)和保護(hù)公民權(quán)利、消費(fèi)者保護(hù)、隱私、聯(lián)邦政府使用AI以及國(guó)際領(lǐng)導(dǎo)這8個(gè)領(lǐng)域,責(zé)成50多個(gè)聯(lián)邦機(jī)構(gòu)執(zhí)行超百項(xiàng)具體任務(wù),并創(chuàng)建由28個(gè)聯(lián)邦部門(mén)和機(jī)構(gòu)負(fù)責(zé)人組成的白宮人工智能委員會(huì)4。

      在歐盟委員會(huì)2021年4月發(fā)布的《人工智能法案》的初步提案中,沒(méi)有針對(duì)生成式人工智能系統(tǒng)的特別規(guī)定。然而,ChatGPT的發(fā)布在促使這種變化方面發(fā)揮了作用。盡管在初步提案完成時(shí)談判仍在進(jìn)行中5,但在當(dāng)?shù)貢r(shí)間2024年3月13日,歐洲議會(huì)通過(guò)的最終版本中,已經(jīng)對(duì)OpenAI包括在內(nèi)的生成式人工智能提供者制定了規(guī)則。這些規(guī)則包括一系列要求,例如,披露人工智能生成的內(nèi)容,防止AI系統(tǒng)生成非法材料,公布并詳細(xì)說(shuō)明用于訓(xùn)練數(shù)據(jù)的版權(quán)證明材料,以及其他旨在遏制生成式人工智能生成虛假信息風(fēng)險(xiǎn)的措施6。以公權(quán)力介入的方式實(shí)現(xiàn)生成式人工智能的治理最典型的例子是意大利。2023年3月,意大利以侵犯用戶(hù)數(shù)據(jù)隱私為由暫時(shí)禁用了ChatGPT1,同年4月底方才解除禁用措施。加拿大隱私專(zhuān)員辦公室以類(lèi)似理由對(duì)OpenAI展開(kāi)調(diào)查2。相比之下,其他政府則優(yōu)先考慮采取行動(dòng),以獲取生成式人工智能帶來(lái)的經(jīng)濟(jì)利益。例如,英國(guó)成立了一個(gè)專(zhuān)門(mén)的“基金會(huì)模式工作組”,資金總額為9億英鎊。英國(guó)政府預(yù)測(cè),“此類(lèi)系統(tǒng)可能使國(guó)家生產(chǎn)力增長(zhǎng)率翻三倍”3。我國(guó)公權(quán)力對(duì)生成式人工智能技術(shù)的規(guī)制,則在阻礙與促進(jìn)之間持模棱兩可的態(tài)度。主要起作用的是保障互聯(lián)網(wǎng)環(huán)境中信息安全的相關(guān)規(guī)定。如《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》(以下簡(jiǎn)稱(chēng)“《規(guī)定》”)第六條,本質(zhì)上是對(duì)互聯(lián)網(wǎng)環(huán)境中信息安全保障義務(wù)的延伸性規(guī)定,該規(guī)定在應(yīng)對(duì)生成式人工智能合成虛假信息時(shí)缺乏針對(duì)性。而《暫行辦法》第9條,名義上為生成式人工智能技術(shù)的規(guī)制做出具體的指引,把重點(diǎn)放在違法信息及時(shí)處置義務(wù)和信息內(nèi)容監(jiān)管義務(wù)方面,實(shí)則只是將生成式人工智能服務(wù)提供者定位為網(wǎng)絡(luò)信息內(nèi)容服務(wù)平臺(tái),把義務(wù)履行的“皮球”繼續(xù)踢還給網(wǎng)絡(luò)信息安全保障義務(wù)。對(duì)于生成式人工智能服務(wù)提供者具體應(yīng)當(dāng)包括哪些主體,是否包括前端通用人工智能模型的服務(wù)提供者,提供者向誰(shuí)履行義務(wù)以及未履行義務(wù)時(shí)的責(zé)任應(yīng)當(dāng)如何承擔(dān)等問(wèn)題并不清晰,無(wú)法為法官在司法活動(dòng)中提供確鑿無(wú)疑的指引4。對(duì)平臺(tái)這一主體身份的強(qiáng)調(diào),旨在指引生成式人工智能服務(wù)提供者遵循平臺(tái)責(zé)任來(lái)規(guī)范技術(shù)的應(yīng)用。這些例子表明,隨著生成式人工智能系統(tǒng)復(fù)雜性的不斷增加,一系列政策策略正在迅速發(fā)展。

      (三)生成式“創(chuàng)作”下監(jiān)管責(zé)任的分配挑戰(zhàn)

      從生成式人工智能系統(tǒng)的運(yùn)行過(guò)程,得出對(duì)生成式人工智能系統(tǒng)的監(jiān)管框架——應(yīng)當(dāng)順應(yīng)生成式人工智能生成內(nèi)容的“創(chuàng)作”過(guò)程,即從數(shù)據(jù)輸入、模型運(yùn)算及其優(yōu)化過(guò)程到生成式人工智能輸出結(jié)果的過(guò)程。每一階段由開(kāi)發(fā)者、部署者、服務(wù)提供者等不同主體參與AI系統(tǒng)運(yùn)作。原則上,法律應(yīng)當(dāng)按照不同主體在不同階段的參與程度和參與內(nèi)容,賦予其不同的注意義務(wù)。正因如此,2020年4月到5月期間,歐洲議會(huì)經(jīng)過(guò)長(zhǎng)時(shí)間的討論,針對(duì)如何監(jiān)管生成式人工智能系統(tǒng)的問(wèn)題作出了具體的規(guī)定,把對(duì)生成式人工智能系統(tǒng)的監(jiān)管劃分為三層義務(wù)5。

      1.第一層:基礎(chǔ)AI模型提供者的義務(wù)

      基礎(chǔ)模型是指在人工智能和機(jī)器學(xué)習(xí)領(lǐng)域中,經(jīng)過(guò)大規(guī)模數(shù)據(jù)訓(xùn)練而生成的通用模型。“通用”是非常寬泛的意思,即同一系統(tǒng)可以應(yīng)用于不同的環(huán)境,并對(duì)不同的個(gè)人和群體產(chǎn)生不同的影響。這些模型具備強(qiáng)大的學(xué)習(xí)能力和理解能力,可以在多個(gè)任務(wù)和應(yīng)用場(chǎng)景中進(jìn)行微調(diào)和適應(yīng)6。例如,面部識(shí)別系統(tǒng)的開(kāi)發(fā)者可以將其產(chǎn)品用于驗(yàn)證入監(jiān)者的身份,或者通過(guò)監(jiān)測(cè)用戶(hù)行為實(shí)現(xiàn)精準(zhǔn)廣告投放。在技術(shù)層面上,基礎(chǔ)模型是通過(guò)遷移學(xué)習(xí)和規(guī)模實(shí)現(xiàn)的。遷移學(xué)習(xí)的核心思想是將從一個(gè)任務(wù)中(例如,圖像中的對(duì)象識(shí)別)獲得的“知識(shí)”應(yīng)用到另一個(gè)任務(wù)上(例如視頻中的活動(dòng)識(shí)別)。通常,在深度學(xué)習(xí)中,預(yù)訓(xùn)練是遷移學(xué)習(xí)的主要方法,但在代理任務(wù)上,預(yù)訓(xùn)練只是手段,通過(guò)“調(diào)優(yōu)”適應(yīng)下游感興趣的任務(wù)才是最終目的??梢哉f(shuō),遷移學(xué)習(xí)使基礎(chǔ)模型成為可能,而規(guī)模才是使基礎(chǔ)模型如此強(qiáng)大的真正原因1。因此,降低風(fēng)險(xiǎn)是基礎(chǔ)模型進(jìn)一步發(fā)展的關(guān)鍵。

      第一層基礎(chǔ)AI模型開(kāi)發(fā)者的義務(wù),適用于通用人工智能模型類(lèi)的基礎(chǔ)模型和生成式人工智能子集的提供者(也被稱(chēng)為開(kāi)發(fā)者)。開(kāi)發(fā)者是指最初創(chuàng)建預(yù)訓(xùn)練模型或者訓(xùn)練模型的實(shí)體。與實(shí)物產(chǎn)品的制造商類(lèi)似,生成式人工智能系統(tǒng)的主要責(zé)任由最初的提供者承擔(dān)。例如,OpenAI、Stability或谷歌公司,他們有效控制著技術(shù)基礎(chǔ)設(shè)施、訓(xùn)練數(shù)據(jù)和模型,擁有修改和測(cè)試它們資源的權(quán)利?!度斯ぶ悄芊ò浮穼⒒A(chǔ)模型定義為“在大規(guī)模和多樣化的數(shù)據(jù)上進(jìn)行訓(xùn)練,旨在實(shí)現(xiàn)輸出的通用性,并能夠適用于多種獨(dú)特任務(wù)的人工智能系統(tǒng)”2。關(guān)注輸出和任務(wù)的通用性確實(shí)比通用人工智能模型的模糊定義更能準(zhǔn)確反映大型生成式人工智能模型的細(xì)節(jié)。對(duì)基礎(chǔ)模型的一般義務(wù)規(guī)定包括數(shù)據(jù)治理措施,特別是為了減少偏見(jiàn)而進(jìn)行的數(shù)據(jù)輸入。此外,在模型的整個(gè)生命周期中,必須保持適當(dāng)?shù)男阅?、可解釋性、可糾正性、安全性和網(wǎng)絡(luò)安全水平。這些要求必須由獨(dú)立專(zhuān)家進(jìn)行測(cè)試、記錄和驗(yàn)證。除此之外,所有基礎(chǔ)模型還需要實(shí)施風(fēng)險(xiǎn)評(píng)估、風(fēng)險(xiǎn)緩解措施和風(fēng)險(xiǎn)管理戰(zhàn)略,以確保在獨(dú)立專(zhuān)家的參與下,健康、安全、基本權(quán)利、環(huán)境和法治等方面的風(fēng)險(xiǎn)是合理可預(yù)見(jiàn)的。實(shí)際上,這一要求等同于將基礎(chǔ)模型歸類(lèi)為高風(fēng)險(xiǎn)模型3。

      按照《人工智能法案》管理ChatGPT的相關(guān)規(guī)則,生成式人工智能的最低標(biāo)準(zhǔn)包括以下三個(gè)關(guān)鍵要素:(1)關(guān)于人工智能使用的透明度義務(wù)。該義務(wù)是由人工智能服務(wù)提供者向使用該系統(tǒng)的用戶(hù)履行的義務(wù),以打擊假新聞和虛假信息的傳播。(2)關(guān)于一般服務(wù)提供者的義務(wù)應(yīng)當(dāng)延續(xù)。例如,“通知—?jiǎng)h除”規(guī)則的運(yùn)用以及服務(wù)提供者對(duì)明顯侵權(quán)內(nèi)容標(biāo)記的注意義務(wù)。(3)披露訓(xùn)練數(shù)據(jù)中包含的受版權(quán)保護(hù)的材料。

      2.第二層:對(duì)AI系統(tǒng)進(jìn)行實(shí)質(zhì)性修改的部署者

      對(duì)AI系統(tǒng)進(jìn)行重大修改的新提供者通常被稱(chēng)為部署者,在實(shí)質(zhì)性修改后承擔(dān)前提供者的責(zé)任。當(dāng)然,對(duì)部署者(或者新提供者)的定義是寬泛的,可以包括與第一層義務(wù)主體不同的新提供者,也可能是多個(gè)部署者聯(lián)合或連續(xù)工作,形成真正類(lèi)似于代工生產(chǎn)價(jià)值鏈的AI價(jià)值鏈。甚至,開(kāi)發(fā)者有時(shí)也可以同時(shí)充當(dāng)部署者,實(shí)現(xiàn)垂直集成。

      通常,部署者并不認(rèn)為自己對(duì)所購(gòu)買(mǎi)的生成式人工智能系統(tǒng)進(jìn)行了必要的實(shí)質(zhì)性修改,從而在法律上被視為履行第一層義務(wù)的基礎(chǔ)模型提供者。這使得在整個(gè)人工智能技術(shù)發(fā)展的生命周期內(nèi)明確單獨(dú)和共同責(zé)任的分配,以及以最實(shí)際、全面的方式保護(hù)最終用戶(hù)的基本權(quán)利變得十分困難1。或許可以借鑒歐盟的《一般數(shù)據(jù)保護(hù)條例》判例法的做法,即法院試圖將數(shù)據(jù)保護(hù)的責(zé)任分配給與該時(shí)間段利益最密切相關(guān)的控制者2。

      3.第三層:與AI價(jià)值鏈有關(guān)的其他主體

      在AI生命周期的整個(gè)價(jià)值鏈上包括開(kāi)發(fā)者、部署者、用戶(hù)和接收者等多個(gè)利益相關(guān)者。例如Lilian Edwards將AI價(jià)值鏈上的主體區(qū)分為通用人工智能的開(kāi)發(fā)者、部署者和最終用戶(hù)3。第三層義務(wù)要求與AI價(jià)值鏈密切相關(guān)。實(shí)際上是將監(jiān)管重點(diǎn)轉(zhuǎn)移到部署者和用戶(hù)身上。因?yàn)锳I輸出可能會(huì)被濫用于傳播有害的言論和行為。然而,這種做法可能引發(fā)其他問(wèn)題4。首先,在AI價(jià)值鏈上設(shè)計(jì)可行的責(zé)任分配是必要的。義務(wù)必須以一種能夠?qū)崿F(xiàn)的方式進(jìn)行構(gòu)建。簡(jiǎn)言之,可以合理地期望部署者和用戶(hù)通過(guò)實(shí)施必要的技術(shù)調(diào)整并承擔(dān)遵守義務(wù)的成本的方式來(lái)實(shí)現(xiàn)義務(wù)的履行。其次,許多人工智能法案的高風(fēng)險(xiǎn)義務(wù)涉及人工智能目標(biāo)開(kāi)發(fā)者在訓(xùn)練和建模階段的責(zé)任。通常,人工智能目標(biāo)開(kāi)發(fā)者會(huì)預(yù)訓(xùn)練一個(gè)大型模型,隨后部署者可能會(huì)與開(kāi)發(fā)者合作對(duì)其進(jìn)行微調(diào)5,而用戶(hù)最終決定人工智能系統(tǒng)的具體用途,例如用于設(shè)計(jì)的商業(yè)用途或用于生成私人邀請(qǐng)文本。為滿(mǎn)足《人工智能法案》關(guān)于訓(xùn)練數(shù)據(jù)、資料的記錄保存、透明度和人為監(jiān)督、性能、穩(wěn)定性和網(wǎng)絡(luò)安全的要求,并建立全面的風(fēng)險(xiǎn)管理系統(tǒng),任何責(zé)任方都需要能夠訪問(wèn)開(kāi)發(fā)者和部署者的數(shù)據(jù)與專(zhuān)業(yè)知識(shí)。這導(dǎo)致了一種監(jiān)管困境:只關(guān)注開(kāi)發(fā)者可能會(huì)帶來(lái)過(guò)度低效的內(nèi)容審查義務(wù)。而專(zhuān)注于部署者和用戶(hù)可能會(huì)給那些因洞察力或資源有限而無(wú)法遵守義務(wù)的人帶來(lái)負(fù)擔(dān)。第三,AI價(jià)值鏈中的個(gè)體行為者可能根本不具備履行監(jiān)管職責(zé)所需的全面知識(shí)和控制能力6。這也表明,最終生成式人工智能觸發(fā)虛假信息的責(zé)任可能需要產(chǎn)業(yè)鏈中各個(gè)層級(jí)的參與者共擔(dān)風(fēng)險(xiǎn)和責(zé)任。

      四、生成式人工智能虛假信息治理的應(yīng)對(duì)策略

      (一)分層式治理:智能生成下的能動(dòng)分工

      從生成式人工智能預(yù)訓(xùn)練、檢測(cè)訓(xùn)練結(jié)果到生成內(nèi)容的整個(gè)過(guò)程來(lái)看,生成式人工智能及時(shí)有效地排除與管控虛假信息的風(fēng)險(xiǎn),應(yīng)建立一個(gè)“涵蓋侵權(quán)行為發(fā)生前、中、后”的全方位監(jiān)管機(jī)制7。根據(jù)數(shù)據(jù)層、內(nèi)容層、服務(wù)層的不同特點(diǎn),需為各層級(jí)的生成內(nèi)容參與者設(shè)定相應(yīng)的義務(wù)。

      1.數(shù)據(jù)層:“數(shù)據(jù)控制者+數(shù)據(jù)處理者”的雙主體負(fù)責(zé)制

      第一,人工智能模型開(kāi)發(fā)者應(yīng)負(fù)責(zé)確保模型訓(xùn)練數(shù)據(jù)的完整性。由于人工智能在訓(xùn)練和決策過(guò)程中高度依賴(lài)準(zhǔn)確可靠的數(shù)據(jù),任何數(shù)據(jù)的損害或篡改都可能影響人工智能系統(tǒng)的可信度和有效性。故而,應(yīng)盡可能從源頭上避免引入偏見(jiàn)和有害信息,以保障輸出結(jié)果的預(yù)測(cè)能力與真實(shí)性。人工智能的模型訓(xùn)練類(lèi)似于人類(lèi)智能訓(xùn)練,但前者能夠廣泛利用各種數(shù)據(jù)。隨著訓(xùn)練數(shù)據(jù)集的來(lái)源的多樣化、數(shù)據(jù)有效性與及時(shí)性的提升,人工智能模型的生成內(nèi)容也將表現(xiàn)出更強(qiáng)的預(yù)測(cè)能力或者與任務(wù)目標(biāo)更接近的執(zhí)行結(jié)果。然而,現(xiàn)實(shí)世界數(shù)據(jù)的復(fù)雜性使得數(shù)據(jù)質(zhì)量問(wèn)題愈發(fā)明顯,而冗余數(shù)據(jù)可能會(huì)增加不必要的復(fù)雜性,從而阻礙訓(xùn)練1,并導(dǎo)致無(wú)用甚至有害的結(jié)果2。數(shù)據(jù)控制者面對(duì)大規(guī)模法律文本和大規(guī)模數(shù)據(jù)集常常表現(xiàn)出“不知所措”的無(wú)力感,必要時(shí),利用“技術(shù)”解決“技術(shù)”問(wèn)題可能是“魔法”打敗“魔法”的最佳捷徑。比如,通過(guò)去中心化云存儲(chǔ)網(wǎng)絡(luò),數(shù)據(jù)可以安全地儲(chǔ)存在全球各地的數(shù)據(jù)中心。再結(jié)合區(qū)塊鏈技術(shù)的能力,就能確保數(shù)據(jù)的可訪問(wèn)性、一種可驗(yàn)證性、可追蹤性和不可變性等特性。區(qū)塊鏈?zhǔn)且环N分布式賬本技術(shù),整個(gè)網(wǎng)絡(luò)協(xié)同工作以保證數(shù)據(jù)的完整性。這種方法縮小了與單點(diǎn)故障相關(guān)的風(fēng)險(xiǎn),降低了惡意攻擊和數(shù)據(jù)篡改的可能性,提升了數(shù)字生態(tài)系統(tǒng)中的數(shù)據(jù)安全性和可信度。區(qū)塊鏈去中心化云存儲(chǔ),具有實(shí)時(shí)更新數(shù)據(jù)、追蹤數(shù)據(jù)痕跡和保持檢查數(shù)據(jù)完整性等特點(diǎn)。利用區(qū)塊鏈對(duì)人工智能訓(xùn)練數(shù)據(jù)進(jìn)行溯源,更容易分辨視覺(jué)信息是AI合成的深度偽造內(nèi)容,還是原始、未被修改的內(nèi)容3。總體而言,數(shù)據(jù)的實(shí)時(shí)追蹤等數(shù)據(jù)質(zhì)量控制措施顯著提高了生成式人工智能模型輸出信息的準(zhǔn)確性與預(yù)測(cè)性能。

      第二,由生成式人工智能服務(wù)提供者負(fù)責(zé)數(shù)據(jù)來(lái)源披露。雖然《暫行辦法》第19條責(zé)成提供者應(yīng)當(dāng)對(duì)訓(xùn)練數(shù)據(jù)來(lái)源予以說(shuō)明,但并未明確通過(guò)何種方式披露以及提供者拒絕披露的責(zé)任。對(duì)此,可以采用國(guó)家標(biāo)準(zhǔn)與行業(yè)標(biāo)準(zhǔn)相結(jié)合的方式,尤其當(dāng)人類(lèi)智能與人工智能協(xié)作生成內(nèi)容時(shí),應(yīng)當(dāng)以書(shū)面形式記錄并標(biāo)注人類(lèi)參與度,以方便事后問(wèn)責(zé)。數(shù)據(jù)來(lái)源披露并不是披露所有相關(guān)數(shù)據(jù),而是在保留商業(yè)秘密的前提下,披露文件的核心部分,有助于潛在的原告選擇合適的訴訟對(duì)象。也可以參照或者援引數(shù)據(jù)控制和網(wǎng)絡(luò)服務(wù)提供者在保障用戶(hù)信息安全方面的相關(guān)規(guī)定,以及對(duì)用戶(hù)使用人工智能系統(tǒng)時(shí)所作決策的解釋要求。歐盟《人工智能法案》亦作出類(lèi)似的指引,“人工智能系統(tǒng)的設(shè)計(jì)、部署、開(kāi)發(fā)過(guò)程中涉及數(shù)據(jù)處理時(shí),人工智能系統(tǒng)提供者作為數(shù)據(jù)控制者與數(shù)據(jù)處理者的義務(wù)不應(yīng)受到影響。這些義務(wù)源自國(guó)家關(guān)于保護(hù)個(gè)人數(shù)據(jù)和企業(yè)商業(yè)秘密的法律規(guī)定”4。總之,生成式人工智能服務(wù)提供者對(duì)數(shù)據(jù)來(lái)源的披露應(yīng)當(dāng)至少遵循一個(gè)原則,即減少立法者與公眾對(duì)大規(guī)模文本的認(rèn)知成本,尤其當(dāng)生成式人工智能服務(wù)提供者實(shí)際上屬于多主體合一的復(fù)雜主體時(shí),法律的相互參照和援引將會(huì)為立法者與公眾更好地理解法律提供助益5。

      第三,由數(shù)據(jù)控制者和數(shù)據(jù)處理者應(yīng)負(fù)責(zé)數(shù)據(jù)資源的互通共享,這有利于修正模型應(yīng)用中偏見(jiàn)。一方面,如果訓(xùn)練數(shù)據(jù)僅來(lái)自單一來(lái)源,模型可能難以有效泛化6,這意味著模型可能在訓(xùn)練池中表現(xiàn)良好,但在處理其他來(lái)源的數(shù)據(jù)時(shí),表現(xiàn)不佳的風(fēng)險(xiǎn)相當(dāng)高。來(lái)自單一來(lái)源的數(shù)據(jù)可能無(wú)法對(duì)現(xiàn)實(shí)世界中的完整數(shù)據(jù)分布進(jìn)行采樣。例如,基于公開(kāi)可用數(shù)據(jù)集訓(xùn)練的胸片分類(lèi)器可能存在多種種族、性別和社會(huì)經(jīng)濟(jì)偏差,這些偏差反映了訓(xùn)練數(shù)據(jù)中患者的分布1,從而導(dǎo)致可推廣性差。另一方面,需要控制數(shù)據(jù)的非正常流動(dòng)。當(dāng)數(shù)據(jù)的流通與數(shù)據(jù)的保護(hù)的規(guī)定不一致時(shí),影響最大的往往不是邏輯考量,而是法律背后體現(xiàn)的價(jià)值取向與目的。例如,2023年,Meta愛(ài)爾蘭公司因向美國(guó)轉(zhuǎn)移數(shù)據(jù)違反歐盟數(shù)據(jù)保護(hù)法律,已經(jīng)被歐盟監(jiān)管機(jī)構(gòu)罰款12億歐元(約91億元人民幣),這次罰款是基于《通用數(shù)據(jù)保護(hù)條例》所處的最高金額罰款2。這表明,在涉及個(gè)人隱私、企業(yè)商業(yè)秘密等數(shù)據(jù)時(shí),自然人的人格權(quán)利和企業(yè)的財(cái)產(chǎn)權(quán)相較于數(shù)據(jù)權(quán)益應(yīng)當(dāng)具有優(yōu)先保護(hù)順位。

      2.內(nèi)容層:“事前審查+事后處置”的雙保險(xiǎn)審查機(jī)制

      內(nèi)容審查一般分為事前審查與事后處置。從經(jīng)濟(jì)學(xué)角度出發(fā),事前審查會(huì)增加審查成本并造成審查的低效;事后處置則是對(duì)虛假信息造成實(shí)際損害的救濟(jì),本質(zhì)上是侵權(quán)行為承擔(dān)責(zé)任的權(quán)利救濟(jì)方式之一。

      第一,對(duì)生成式人工智能服務(wù)提供者的事前審查,表現(xiàn)在生成式人工智能服務(wù)提供者是否對(duì)其生成信息的真實(shí)性及其來(lái)源進(jìn)行審查。這一點(diǎn),可以從《民法典》第1195條到第1197條的信息網(wǎng)絡(luò)侵權(quán)規(guī)則中得到啟示。相比于僅提供服務(wù)而不直接提供內(nèi)容的信息網(wǎng)絡(luò)服務(wù)提供者,生成式人工智能服務(wù)提供者根據(jù)用戶(hù)輸入內(nèi)容,反饋輸出結(jié)果,因此用戶(hù)對(duì)信息的輸出結(jié)果也在一定程度上發(fā)揮作用,但并不能就此將生成式人工智能服務(wù)提供者按照內(nèi)容提供者認(rèn)定主體地位,否則他們將對(duì)提供虛假信息承擔(dān)直接責(zé)任。當(dāng)然,由于不只是有生成式人工智能服務(wù)提供者參與AI系統(tǒng)的運(yùn)轉(zhuǎn),也就不能因?yàn)樯墒饺斯ぶ悄芊?wù)提供者未采取事前審查措施,直接認(rèn)定其對(duì)虛假信息的生成存在主觀過(guò)錯(cuò)。此時(shí),為了防止用戶(hù)信息不自由或其他合法權(quán)益受侵害,援引“通知—?jiǎng)h除”規(guī)則實(shí)現(xiàn)用戶(hù)救濟(jì)或監(jiān)督的權(quán)利可謂明智之舉。

      一般情況下,為了盡可能使生成信息有用,應(yīng)鼓勵(lì)生成式人工智能服務(wù)提供者與用戶(hù)合作并向用戶(hù)提供必要的信息。尤其是當(dāng)用戶(hù)需要的信息,可能涉及商業(yè)秘密或受知識(shí)產(chǎn)權(quán)保護(hù)的內(nèi)容時(shí)3。在平衡協(xié)作與信息披露及信息保護(hù)的問(wèn)題,可以從內(nèi)部和外部?jī)蓚€(gè)維度進(jìn)行考慮。在外部,生成式人工智能服務(wù)提供者的審查義務(wù)需要配以相應(yīng)的信息訪問(wèn)權(quán)。在內(nèi)部,即在請(qǐng)求方和授權(quán)方的關(guān)系中,授權(quán)方經(jīng)常以所謂不可逾越的商業(yè)秘密或知識(shí)產(chǎn)權(quán)權(quán)利來(lái)對(duì)抗訪問(wèn)權(quán)4。例如,歐盟委員會(huì)提出的責(zé)任指令中包含了詳細(xì)的證據(jù)披露規(guī)則,將受害方的賠償利益與人工智能開(kāi)發(fā)者和部署者的保密利益對(duì)立起來(lái)5。關(guān)于這一問(wèn)題,在美國(guó)審前發(fā)現(xiàn)制度領(lǐng)域存在大量文獻(xiàn)和實(shí)踐經(jīng)驗(yàn)6。在這一機(jī)制下,被提議的歐盟證據(jù)披露規(guī)則部分借鑒了相關(guān)經(jīng)驗(yàn)1,使受害方可以在提起訴訟之前尋求獲得潛在被告持有的文件和信息。反過(guò)來(lái),這可能會(huì)導(dǎo)致競(jìng)爭(zhēng)對(duì)手提出不正當(dāng)?shù)墨@取請(qǐng)求。此外,不同階段提供者的內(nèi)容審查利益訴求存在差異,導(dǎo)致不同階段提供者對(duì)虛假信息的接受程度并不相同。在人工智能價(jià)值鏈中,開(kāi)發(fā)者、部署者和用戶(hù)不僅是業(yè)務(wù)伙伴,也可能是潛在的生成內(nèi)容合作伙伴或者競(jìng)爭(zhēng)對(duì)手。因此,部署者和用戶(hù)的訪問(wèn)權(quán)限必須受到限制,以衡平信息披露與信息保護(hù)之間的利益。首先,以《最高人民法院關(guān)于民事訴訟證據(jù)的若干規(guī)定》第47條為基礎(chǔ),人民法院對(duì)當(dāng)事人提交的與商業(yè)秘密有關(guān)的證據(jù)不公開(kāi)質(zhì)證。其次,為了防止濫用,針對(duì)AIGC服務(wù)提供者的內(nèi)容審查的一系列措施,可以引入美國(guó)審前發(fā)現(xiàn)制度和歐盟證據(jù)披露機(jī)制2。

      第二,由生成式人工智能服務(wù)提供者負(fù)責(zé)及時(shí)處置違法信息。平臺(tái)利用人工智能模型生成虛假信息,按照《暫行辦法》新增的第9條的規(guī)定,生成式人工智能服務(wù)提供者的性質(zhì)仍然屬于網(wǎng)絡(luò)信息內(nèi)容服務(wù)平臺(tái),應(yīng)當(dāng)根據(jù)本條承擔(dān)相應(yīng)的責(zé)任,并履行網(wǎng)絡(luò)信息安全義務(wù)。另外,《暫行辦法》強(qiáng)調(diào)生成式人工智能服務(wù)提供者主體身份,旨在指導(dǎo)其責(zé)任承擔(dān)遵循網(wǎng)絡(luò)平臺(tái)的規(guī)制。生成式人工智能服務(wù)提供者應(yīng)當(dāng)依據(jù)《網(wǎng)絡(luò)信息內(nèi)容生態(tài)治理規(guī)定》《網(wǎng)絡(luò)安全法》《互聯(lián)網(wǎng)信息服務(wù)管理辦法》等關(guān)于網(wǎng)絡(luò)信息內(nèi)容服務(wù)平臺(tái)的相關(guān)規(guī)定,履行與其提供服務(wù)的內(nèi)容、生成信息類(lèi)型相匹配的注意義務(wù),對(duì)人工智能模型生成的違法和不良信息及時(shí)采取必要措施,并做好記錄3??紤]到生成式人工智能的深度學(xué)習(xí)能力有限,應(yīng)當(dāng)對(duì)現(xiàn)有技術(shù)的缺陷有所容忍,謹(jǐn)慎認(rèn)定虛假信息是否造成嚴(yán)重后果。同時(shí),對(duì)生成式人工智能服務(wù)提供者是否及時(shí)處置虛假信息或違法信息,應(yīng)當(dāng)遵循主客觀相一致的歸責(zé)原則,為人工智能技術(shù)的發(fā)展預(yù)留一定空間。

      3.服務(wù)層:“錯(cuò)誤識(shí)別+必要措施”下的全周期風(fēng)險(xiǎn)預(yù)防

      生成式人工智能開(kāi)發(fā)者、部署者、服務(wù)提供者等與AIGC利益相關(guān)的群體,應(yīng)當(dāng)為持續(xù)保持模型性能盡最大努力。在生成式人工智能的整個(gè)生命周期中,應(yīng)當(dāng)保持它的可解釋性、可糾錯(cuò)性、安全性并確保這些要求經(jīng)過(guò)專(zhuān)家測(cè)試、記錄和驗(yàn)證。

      由此,生成式人工智能開(kāi)發(fā)者至少應(yīng)做出以下努力:第一,生成式人工智能開(kāi)發(fā)者應(yīng)當(dāng)盡可能優(yōu)化模型以最大限度地排除偏見(jiàn)。由于人工智能模型在其訓(xùn)練數(shù)據(jù)過(guò)程中不斷變化,其性能評(píng)估也可能在訓(xùn)練過(guò)程中發(fā)生實(shí)質(zhì)性變更。故而,對(duì)人工智能生成系統(tǒng)的可信度評(píng)估,應(yīng)當(dāng)從技術(shù)研發(fā)到部署應(yīng)用進(jìn)行全生命周期的風(fēng)險(xiǎn)識(shí)別,并根據(jù)技術(shù)和產(chǎn)品發(fā)展,及時(shí)更新調(diào)整4,不斷優(yōu)化模型以持續(xù)消除可控偏見(jiàn)。對(duì)人工智能模型的風(fēng)險(xiǎn)評(píng)估與生成式人工智能服務(wù)提供者的內(nèi)容審查義務(wù)相類(lèi)似,均屬于引導(dǎo)式治理。與強(qiáng)制性法律規(guī)范相比,引導(dǎo)式治理屬于軟法規(guī)制,不履行事前影響風(fēng)險(xiǎn)評(píng)估與承擔(dān)侵權(quán)責(zé)任之間不成立法律上的因果關(guān)系。但這也并不意味著,生成式人工智能模型的開(kāi)發(fā)者、部署者完全無(wú)利可圖。與企業(yè)風(fēng)險(xiǎn)合規(guī)相比,生成式人工智能模型的事前影響風(fēng)險(xiǎn)評(píng)估更注重與法律政策的良性互動(dòng),吸收民事侵權(quán)責(zé)任的標(biāo)準(zhǔn)來(lái)識(shí)別、評(píng)估、預(yù)防和控制AI價(jià)值鏈上的參與者利用生成式人工智能模型生成、復(fù)制、傳播虛假信息的法律風(fēng)險(xiǎn)。

      第二,生成式人工智能開(kāi)發(fā)者、部署者應(yīng)及時(shí)報(bào)告人工智能系統(tǒng)無(wú)法彌補(bǔ)的、被允許的偏差。這些偏差可能導(dǎo)致人工智能系統(tǒng)性能欠佳,因此最大限度地減少偏差對(duì)于人工智能系統(tǒng)的機(jī)器學(xué)習(xí)至關(guān)重要。這種偏差可能源于機(jī)器學(xué)習(xí)開(kāi)發(fā)的各個(gè)階段:數(shù)據(jù)處理、模型開(kāi)發(fā)和性能評(píng)估。每一個(gè)步驟都可能引入系統(tǒng)性或隨機(jī)性偏差,其中系統(tǒng)性偏差會(huì)降低機(jī)器學(xué)習(xí)系統(tǒng)的公平性,理想情況下應(yīng)予以消除。然而機(jī)器學(xué)習(xí)研究確實(shí)存在局限性,系統(tǒng)可能在不同方面表現(xiàn)出偏差。根據(jù)具體數(shù)據(jù)和任務(wù),這些偏差有時(shí)是可以容忍的,甚至被認(rèn)為是有益的1。但是,開(kāi)發(fā)者必須在機(jī)器學(xué)習(xí)開(kāi)發(fā)過(guò)程中識(shí)別錯(cuò)誤做法,盡可能減少這些問(wèn)題,并明確報(bào)告其系統(tǒng)的其他限制。

      (二)糾正式治理:國(guó)家保障下的用戶(hù)救濟(jì)

      糾正式治理的法理基礎(chǔ)在于義務(wù)違反并不反映民事責(zé)任的目的,民事權(quán)益受侵害才是啟動(dòng)民事責(zé)任的動(dòng)因2。理論上,損害救濟(jì)最好的方式,正是霍姆斯所說(shuō)的:“讓損害停留于其發(fā)生之處?!?但實(shí)際上,當(dāng)侵權(quán)收益大于侵權(quán)成本時(shí),侵權(quán)者缺乏停止侵權(quán)的動(dòng)力,此時(shí),只有賦予被侵權(quán)者奮起反抗的救濟(jì)權(quán),或者在權(quán)利弱勢(shì)一方的權(quán)利可能受侵害之前,允許他們參與該具有創(chuàng)設(shè)危險(xiǎn)可能性的活動(dòng)中,發(fā)表意見(jiàn)或者提出建議。生成式人工智能模型的開(kāi)發(fā)者、部署者處于管理虛假信息的優(yōu)勢(shì)地位,但也不乏“以信息治理之名,行濫用用戶(hù)隱私之實(shí)”。對(duì)此,應(yīng)借鑒避風(fēng)港規(guī)則中的“通知—?jiǎng)h除”規(guī)則,賦予被侵害用戶(hù)救濟(jì)權(quán),將國(guó)家或者代表公權(quán)力的機(jī)關(guān)履行公共服務(wù)職能的行為置于法的規(guī)則約束之下。社會(huì)成員的救濟(jì)權(quán),作為人類(lèi)自由的保障,原本是體現(xiàn)公平正義、普遍適用于所有人和未來(lái)情景的一般性正當(dāng)行為規(guī)則。故而,國(guó)家或者代表公權(quán)力的機(jī)關(guān)在介入時(shí),應(yīng)僅限于保障公眾擴(kuò)展自由的實(shí)現(xiàn)4。當(dāng)生成式人工智能生成的信息侵犯?jìng)€(gè)人權(quán)利時(shí),公權(quán)力應(yīng)當(dāng)保障公眾控訴的權(quán)利,并為公眾提供權(quán)利救濟(jì)渠道。不同的是,相較于“通知—?jiǎng)h除”規(guī)則,生成式人工智能生成的具體內(nèi)容在很大程度上依賴(lài)用戶(hù)參與,用戶(hù)與人工智能是通過(guò)人類(lèi)語(yǔ)言與人工智能的語(yǔ)言模型產(chǎn)生互動(dòng)關(guān)系,人工智能系統(tǒng)根據(jù)用戶(hù)輸入內(nèi)容在現(xiàn)有數(shù)據(jù)庫(kù)中進(jìn)行搜索,這一人機(jī)交互的過(guò)程中,用戶(hù)能夠讓人工智能跟隨自己的輸出目標(biāo)做出優(yōu)化,盡情完成基于“語(yǔ)言實(shí)現(xiàn)的自我揭示”5。所以,當(dāng)用戶(hù)故意輸入虛假信息,很可能誤導(dǎo)生成式人工智能模型的深度學(xué)習(xí)。這意味著虛假信息的傳播主要與人類(lèi)認(rèn)知信息以及共享信息的驅(qū)動(dòng)力有關(guān)。而與人類(lèi)參與有關(guān)的生成式人工智能虛假信息的產(chǎn)生與傳播,并不完全由生成式內(nèi)容服務(wù)提供者掌控,因此內(nèi)容治理義務(wù)也不應(yīng)當(dāng)完全由部署者與開(kāi)發(fā)者承擔(dān)。這實(shí)際上體現(xiàn)了信息生成與信息傳播主體之間的博弈。故而,也應(yīng)當(dāng)保證受人工智能系統(tǒng)影響的用戶(hù)參與設(shè)計(jì)與救濟(jì)的權(quán)利,并聽(tīng)取他們的意見(jiàn),以進(jìn)一步完善投入使用的人工智能系統(tǒng)。

      受生成式人工智能模型生成虛假信息影響的主體應(yīng)當(dāng)有權(quán)向國(guó)家監(jiān)管機(jī)構(gòu)投訴。具體而言,當(dāng)所有生成式人工智能系統(tǒng)投入運(yùn)營(yíng)或投放市場(chǎng)時(shí),受生成式人工智能模型生成虛假信息影響的主體有權(quán)就其受到的損害主張權(quán)利。無(wú)論是依據(jù)國(guó)家法律、產(chǎn)品責(zé)任規(guī)則還是其他方式,個(gè)人救濟(jì)的權(quán)利都應(yīng)得到保障。依據(jù)《民法典》第1037條,自然人發(fā)現(xiàn)個(gè)人信息有錯(cuò)誤的,有權(quán)向信息處理者提出異議并請(qǐng)求及時(shí)采取更正等必要措施。在AI系統(tǒng)運(yùn)作過(guò)程中,信息處理者可能是上游的基礎(chǔ)模型提供者、中游的模型運(yùn)算(或優(yōu)化)的部署者或者下游的生成模型服務(wù)提供者,甚至有可能是其他利用生成式人工智能服務(wù)進(jìn)行協(xié)作信息生產(chǎn)的個(gè)人用戶(hù)或者組織。故而,保護(hù)受高風(fēng)險(xiǎn)人工智能系統(tǒng)影響的個(gè)人或者組織的參與權(quán)和救濟(jì)權(quán),實(shí)際上是保障民事主體基本權(quán)利,只是這一權(quán)利沒(méi)有單獨(dú)在法律規(guī)范中予以凸顯。但立法者可以參考《信息網(wǎng)絡(luò)傳播權(quán)管理?xiàng)l例》第14條對(duì)“通知書(shū)”應(yīng)當(dāng)包含內(nèi)容的相關(guān)規(guī)定,類(lèi)比地規(guī)定生成式人工智能服務(wù)提供者在收到包含網(wǎng)絡(luò)地址、侵權(quán)信息等資料的“糾正意見(jiàn)書(shū)”時(shí),應(yīng)當(dāng)對(duì)涉及的內(nèi)容予以核實(shí),在確認(rèn)涉嫌侵權(quán)的信息確屬虛假信息時(shí),生成式人工智能服務(wù)提供者應(yīng)當(dāng)在合理期限內(nèi)更正。

      目前,《暫行辦法》第7條規(guī)定,生成式人工智能服務(wù)提供者對(duì)其使用的數(shù)據(jù)及基礎(chǔ)模型的合法性負(fù)責(zé),但并未配以用戶(hù)監(jiān)督信息來(lái)源合法性的權(quán)利。歐盟《人工智能法案》也只是規(guī)定,一旦系統(tǒng)進(jìn)入市場(chǎng),系統(tǒng)的缺陷報(bào)告應(yīng)當(dāng)從系統(tǒng)部署者或者從用戶(hù)那里得到反饋,但這一規(guī)定并未對(duì)用戶(hù)的權(quán)利予以明確,缺乏可執(zhí)行性和激勵(lì)措施,導(dǎo)致部署者難以積極采納關(guān)于AI系統(tǒng)不足之處的反饋。這是因?yàn)槠?jiàn)和不公平可能在特定環(huán)境下就已嵌入上游,所以這種不真實(shí)或者欠缺信息的糾偏,對(duì)通用人工智能模型與生成式人工智能模型來(lái)說(shuō)同樣重要。

      (三)協(xié)同式治理:內(nèi)外防控下的責(zé)任互補(bǔ)

      現(xiàn)有法律對(duì)生成式人工智能生成虛假信息的治理尚未形成統(tǒng)一規(guī)定,主要分布于有關(guān)信息網(wǎng)絡(luò)安全的規(guī)范中,如《民法典》《暫行辦法》《個(gè)人信息保護(hù)法》《網(wǎng)絡(luò)安全法》《數(shù)據(jù)安全法》,但已有的法律規(guī)范并未對(duì)生成式人工智能生成虛假信息的侵權(quán)責(zé)任予以明確。從比較法的視野來(lái)看,歐盟《人工智能法案》將模型優(yōu)化的部署者是否對(duì)模型進(jìn)行實(shí)質(zhì)性修改,作為部署者承擔(dān)責(zé)任的條件,部署者為逃脫責(zé)任,必然對(duì)其未進(jìn)行實(shí)質(zhì)性修改充分自證。此時(shí),為了使生成式人工智能得到充分監(jiān)督,可以考慮開(kāi)發(fā)者與部署者承擔(dān)不真正連帶責(zé)任。即生成式人工智能生成虛假信息的侵權(quán)后果,應(yīng)當(dāng)由AI價(jià)值鏈上最密切相關(guān)利益主體共同向第三人承擔(dān)責(zé)任,對(duì)內(nèi)生成式人工智能開(kāi)發(fā)者、部署者、服務(wù)提供者或者用戶(hù)之間可以互相追償,且應(yīng)當(dāng)由開(kāi)發(fā)者或部署者等真正責(zé)任人對(duì)自己沒(méi)有過(guò)錯(cuò)承擔(dān)證明責(zé)任。

      第一,部署者需要證明的重點(diǎn)應(yīng)集中在其是否盡其所能避免風(fēng)險(xiǎn)的發(fā)生,而非是否對(duì)通用人工智能模型進(jìn)行了實(shí)質(zhì)性修改。但將虛假信息的生產(chǎn)與治理串聯(lián)起來(lái)會(huì)發(fā)現(xiàn),生成式人工智能背后的技術(shù)開(kāi)發(fā)者、部署者等AI價(jià)值鏈上的主體之間已然形成一個(gè)巨大的利益關(guān)系網(wǎng)絡(luò)1。生成式人工智能提供者和部署者應(yīng)共同負(fù)責(zé),評(píng)估其是否符合基本權(quán)利并在研發(fā)和部署階段盡力阻斷生產(chǎn)與傳播虛假信息,而無(wú)需證明部署者已進(jìn)行了實(shí)質(zhì)性修改。任何人(實(shí)際上是部署者)為預(yù)期高風(fēng)險(xiǎn)目的投入服務(wù)或使用通用AI系統(tǒng),都有責(zé)任證明其是否盡其所能避免風(fēng)險(xiǎn)的發(fā)生,而無(wú)需證明進(jìn)行了實(shí)質(zhì)性修改。

      第二,外部責(zé)任。責(zé)任不應(yīng)該單獨(dú)分配給部署者,而是需要上游通用AI模型提供者與中下游部署者共同承擔(dān)責(zé)任。因?yàn)榭刂?、修改AI系統(tǒng)所需的基礎(chǔ)設(shè)施和技術(shù)資源,在很大程度上依賴(lài)于上游提供者。這一責(zé)任應(yīng)該與提供者共同承擔(dān)。因此,可以在《暫行辦法》中對(duì)生成式人工智能服務(wù)提供者進(jìn)行廣義解釋?zhuān)瑢⒁?guī)制主體從單一的下游服務(wù)主體,擴(kuò)大到參與AI價(jià)值鏈的多個(gè)協(xié)作主體。另外,由于人類(lèi)智能與人工智能協(xié)作的信息生產(chǎn)在實(shí)踐中難以追蹤,如若AI價(jià)值鏈上的前端主體(開(kāi)發(fā)者或部署者)能夠證明其對(duì)虛假信息的生成、復(fù)制、傳播等不具有過(guò)錯(cuò),且已經(jīng)采取合理措施阻止虛假信息發(fā)酵時(shí),法律對(duì)生成式人工智能模型的開(kāi)發(fā)者與部署者不再僅著眼于責(zé)任承擔(dān)的懲治與威懾,更多側(cè)重于推動(dòng)生成式人工智能模型開(kāi)發(fā)者、部署者責(zé)任自主治理。

      第三,內(nèi)部責(zé)任。連帶責(zé)任保證了外部責(zé)任的履行,從而服務(wù)于受害方的賠償利益。在內(nèi)部,受害者責(zé)任可以轉(zhuǎn)身向AI價(jià)值鏈中的其他人尋求賠償。例如,如果開(kāi)發(fā)者通過(guò)分發(fā)模型基本上保留了人工智能模型的控制權(quán),則內(nèi)部責(zé)任由他們承擔(dān)。然而,開(kāi)發(fā)者和部署者的責(zé)任應(yīng)在他們對(duì)部署模型的影響結(jié)束時(shí)終止。除此之外,只有用戶(hù)是監(jiān)管民事責(zé)任的主體:行動(dòng)激勵(lì)只有在被激勵(lì)的人實(shí)際上能夠采取行動(dòng)的情況下才有意義①。這里之所以把用戶(hù)也放在內(nèi)部責(zé)任承擔(dān)的主體之列,主要基于兩方面,一方面,受歐盟《人工智能法案》影響,將“部署者”擴(kuò)大解釋為“在授權(quán)之下使用人工智能系統(tǒng)的任何自然人或法人”,也就有可能包括部署者之外、被授權(quán)使用系統(tǒng)的用戶(hù)②。另一方面,依據(jù)《民法典》第1173條,用戶(hù)作為被侵權(quán)方,若對(duì)生成式人工智能生成虛假信息有過(guò)錯(cuò)的,可以減輕開(kāi)發(fā)者和部署者的賠償責(zé)任。綜合而言,這樣的制度將會(huì)使得生成式人工智能模型的開(kāi)發(fā)者、部署者、用戶(hù)和受虛假信息影響的主體之間實(shí)現(xiàn)適當(dāng)?shù)睦嫫胶狻?/p>

      結(jié)語(yǔ)

      當(dāng)前,糾正虛假信息的主要執(zhí)行者分為三類(lèi):用戶(hù)層面、平臺(tái)層面(包括數(shù)據(jù)層、內(nèi)容層和服務(wù)層)以及政府層面。在用戶(hù)層面,用戶(hù)可以通過(guò)平臺(tái)的侵權(quán)投訴機(jī)制,及時(shí)舉報(bào)發(fā)現(xiàn)的虛假信息;在平臺(tái)層面像Facebok、Twitter和YouTube等社交媒體主要通過(guò)標(biāo)記、及時(shí)刪除虛假信息或降低虛假信息傳播的可能性來(lái)阻止其擴(kuò)散;在政府層面,各國(guó)政府已通過(guò)立法要求刪除虛假信息,并警告信息發(fā)布者不要傳播誤導(dǎo)公眾的內(nèi)容③。盡管上述措施都有助于改善信息環(huán)境,但由于信息的復(fù)雜性和龐大規(guī)模,這些虛假信息仍然難以被人類(lèi)準(zhǔn)確識(shí)別。

      當(dāng)不同的參與者利用數(shù)字主權(quán)、控制系統(tǒng)與資源(或者信息)的權(quán)利作為信息掌控的保護(hù)傘來(lái)實(shí)現(xiàn)他們的利益時(shí),這些對(duì)抗動(dòng)態(tài)便會(huì)顯現(xiàn)。即使在部署者、開(kāi)發(fā)者與使用用戶(hù)之間分配了違法內(nèi)容及時(shí)處置義務(wù)、內(nèi)容審查義務(wù)、監(jiān)督的職責(zé)以及被侵權(quán)方的救濟(jì)權(quán),這些虛假信息的治理責(zé)任依然會(huì)在這些主體之間互相推諉。但良好的制度設(shè)計(jì)能夠削弱虛假信息產(chǎn)生與蔓延的可能性,防止社會(huì)公眾持續(xù)消解對(duì)其接觸信息的信任。結(jié)果正義固然是法律追求的終極價(jià)值,但平等接觸信息的機(jī)會(huì),是個(gè)體作為社會(huì)一分子基本的精神權(quán)利,技術(shù)的發(fā)展是為了促進(jìn)這種信息自由。故,生成式人工智能生成虛假信息的治理也應(yīng)立足于此立意之上。

      責(zé)任編輯 楊 幸

      巍山| 乌海市| 抚顺市| 怀仁县| 河北区| 梁山县| 九龙县| 左云县| 尼勒克县| 托里县| 拜泉县| 冀州市| 滁州市| 文化| 广平县| 格尔木市| 德阳市| 天峨县| 鸡泽县| 亚东县| 临泉县| 澄城县| 平阳县| 林周县| 那坡县| 噶尔县| 偃师市| 海盐县| 临高县| 东阿县| 杨浦区| 新建县| 西充县| 镶黄旗| 禄丰县| 广河县| 丹东市| 阿城市| 尼勒克县| 万载县| 海门市|