• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看

      ?

      生成式人工智能安全風(fēng)險(xiǎn)與綜合治理研究
      ——以ChatGPT 為例

      2023-06-07 19:16:16陳嘉鑫董紫來(lái)
      關(guān)鍵詞:黑箱知識(shí)產(chǎn)權(quán)人工智能

      陳嘉鑫,董紫來(lái)

      (西南政法大學(xué),重慶 401120)

      隨著第四次科技革命的蓬勃發(fā)展,以深度學(xué)習(xí)、大數(shù)據(jù)、神經(jīng)網(wǎng)絡(luò)等技術(shù)為基礎(chǔ)的人工智能技術(shù)正日益深刻地嵌入人類(lèi)社會(huì)之中,推動(dòng)社會(huì)生活的發(fā)展與進(jìn)步。在促進(jìn)社會(huì)生活的樣態(tài)不斷更迭的同時(shí),人工智能技術(shù)本身也在不斷地進(jìn)行升級(jí)。在二十一世紀(jì)的前二十年,決策式人工智能尚局限于自動(dòng)駕駛、醫(yī)療健康、安全監(jiān)控、游戲娛樂(lè)等特定領(lǐng)域,僅在特定事項(xiàng)中起輔助作用。而在2018 年6 月美國(guó)科技巨頭Open AI 公布人工智能語(yǔ)言模型GPT(Generative Pre-Training)后,生成式人工智能便開(kāi)啟了快速迭代的歷程:2022 年11 月30 日發(fā)布的ChatGPT 是生成式人工智能出現(xiàn)在公眾視野的起點(diǎn),但遠(yuǎn)非生成式人工智能發(fā)展的起點(diǎn)。

      生成式人工智能憑借其訓(xùn)練機(jī)制與底層模型算法的創(chuàng)新,具備了決策式人工智能所不具備的強(qiáng)知識(shí)遷移能力與人格化表象,實(shí)現(xiàn)了人工智能技術(shù)發(fā)展史上難得一見(jiàn)的顛覆性創(chuàng)新;而技術(shù)進(jìn)步帶來(lái)的算法黑箱、市場(chǎng)壟斷與技術(shù)壁壘造就的數(shù)據(jù)寡頭,無(wú)不預(yù)示著多元安全風(fēng)險(xiǎn)正在醞釀。人工智能技術(shù)的迭代不可避免地伴隨著風(fēng)險(xiǎn)的迭代,風(fēng)險(xiǎn)的迭代要求規(guī)制手段與治理框架的迭代。立足于決策式人工智能技術(shù)環(huán)境的規(guī)制手段與治理體系,難以應(yīng)對(duì)生成式人工智能帶來(lái)的獨(dú)特安全風(fēng)險(xiǎn);不斷更新的規(guī)制手段與治理體系同樣滯后于生成式人工智能技術(shù)與風(fēng)險(xiǎn)迭代的步伐[1]??偨Y(jié)生成式人工智能的主要安全風(fēng)險(xiǎn)類(lèi)型,檢視安全風(fēng)險(xiǎn)背后的技術(shù)與社會(huì)根源,并提出相應(yīng)的綜合治理路徑,是生成式人工智能發(fā)展與治理的迫切需求。

      一、生成式人工智能的鮮明特征

      生成式人工智能具有完全不同于決策式人工智能的訓(xùn)練機(jī)制與底層模型算法,上述技術(shù)環(huán)境決定了前者與后者在主客體關(guān)系、多模態(tài)任務(wù)能力、研發(fā)運(yùn)營(yíng)成本等方面存在顯著區(qū)別。把握生成式人工智能與決策式人工智能的區(qū)別,梳理生成式人工智能的鮮明特征,需要從生成式人工智能的人格化表象、數(shù)據(jù)挖掘能力、算法黑箱、數(shù)據(jù)壟斷四個(gè)維度開(kāi)展深入分析。隨著技術(shù)環(huán)境的持續(xù)迭代,生成式人工智能的各類(lèi)特征也在不斷深化;生成式人工智能的鮮明特征是新風(fēng)險(xiǎn)挑戰(zhàn)的技術(shù)與社會(huì)根源,特征的變化發(fā)展構(gòu)成了生成式人工智能風(fēng)險(xiǎn)迭代的內(nèi)在動(dòng)力。

      (一)人格化表象突出

      正如理性構(gòu)成了人類(lèi)與生活環(huán)境的重要區(qū)分標(biāo)準(zhǔn),智能性是人工智能區(qū)別于傳統(tǒng)機(jī)械的數(shù)字時(shí)代“理性”:智能性成為了人工智能與傳統(tǒng)機(jī)械的分野[2]。而以決策式人工智能為代表的人工智能技術(shù)局限于特定細(xì)分領(lǐng)域,在嚴(yán)格的設(shè)定條件下承擔(dān)輔助決策等有限的職能,作為技術(shù)客體與工具的非人化特征突出:當(dāng)時(shí)的研究者普遍將“情緒的感知與表達(dá)”視為區(qū)別人類(lèi)與人工智能的核心。而在生成式人工智能愈發(fā)成為主流的今天,立足“情感”的人機(jī)界限在新技術(shù)特征的沖擊下變得模糊。以ChatGPT生成信息的過(guò)程為例:不同于直接從信息網(wǎng)絡(luò)中尋找答案的搜索引擎與依照預(yù)設(shè)程序輸出模版的語(yǔ)音人工智能,ChatGPT 能夠利用深度學(xué)習(xí)模型,憑借接受的預(yù)訓(xùn)練,理解提問(wèn)的上下文場(chǎng)景與觀點(diǎn)態(tài)度;可以將網(wǎng)絡(luò)數(shù)據(jù)信息轉(zhuǎn)化為文本,并依據(jù)使用者的提示以擬人化的自然語(yǔ)言重新組織輸出的內(nèi)容。此外,隨著網(wǎng)絡(luò)數(shù)據(jù)信息的不斷更迭,ChatGPT 能不斷開(kāi)展自我學(xué)習(xí),調(diào)整完善輸出的答案;面對(duì)用戶(hù)的反對(duì)質(zhì)疑、贊同欣賞等不同態(tài)度,ChatGPT 能對(duì)用戶(hù)情緒表現(xiàn)出一定程度上的關(guān)切,并有針對(duì)性地調(diào)整輸出的內(nèi)容與表述形式。生成式人工智能的自我學(xué)習(xí)、自我創(chuàng)造、自我進(jìn)化讓“人工智能更加像人”,但這并非其人格化表象日益凸顯的唯一原因[3]。人工智能發(fā)展到生成式人工智能階段,具備了以理解、記憶、設(shè)計(jì)等為代表的人腦機(jī)能與特征,交互的內(nèi)容與形式更加擬人化,適用范圍也更加廣泛。生成式人工智能在諸多領(lǐng)域指導(dǎo)人的具體行為,其機(jī)敏的反饋與全面的情感關(guān)切也在不斷模糊用戶(hù)對(duì)人工智能的技術(shù)客體認(rèn)知,影響人的主客體認(rèn)知與行為習(xí)性,使得人與人工智能在一定程度上趨同。

      (二)數(shù)據(jù)挖掘能力提升

      大型語(yǔ)言模型、微調(diào)模型、深度神經(jīng)網(wǎng)絡(luò)等前沿技術(shù)是生成式人工智能的技術(shù)基礎(chǔ),賦予了Chat-GPT 極強(qiáng)的數(shù)據(jù)挖掘能力。ChatGPT 的預(yù)訓(xùn)練過(guò)程是大型語(yǔ)言模型與微調(diào)語(yǔ)言模型應(yīng)用的巧妙結(jié)合:開(kāi)發(fā)者首先運(yùn)用大型語(yǔ)料庫(kù)對(duì)ChatGPT進(jìn)行無(wú)監(jiān)督多任務(wù)訓(xùn)練,然后運(yùn)用針對(duì)具體任務(wù)進(jìn)行特化的小型數(shù)據(jù)集對(duì)ChatGPT 進(jìn)行監(jiān)督調(diào)整[4]。從GPT-1 到最新的GPT-4,開(kāi)發(fā)者的技術(shù)策略并沒(méi)有根本性轉(zhuǎn)變;開(kāi)發(fā)者主要通過(guò)提升訓(xùn)練數(shù)據(jù)體量與質(zhì)量、引入強(qiáng)化學(xué)習(xí)與人工標(biāo)注功能等方式,實(shí)現(xiàn)提升ChatGPT 任務(wù)遷移能力的目的。ChatGPT 出色的理解交互能力以及在編程等領(lǐng)域強(qiáng)大的處理能力,都來(lái)源于不斷加強(qiáng)的數(shù)據(jù)挖掘能力。從GPT-1 語(yǔ)言模型的1.17 億個(gè)訓(xùn)練參數(shù),到GPT-2 的15 億個(gè),再到GPT-3 的1750 億個(gè):語(yǔ)言模型迭代伴隨的訓(xùn)練數(shù)據(jù)增長(zhǎng)分別達(dá)到了近13 倍、近117倍。GPT-4 的技術(shù)突破主要集中在多模態(tài)任務(wù)能力與長(zhǎng)內(nèi)容生成兩個(gè)方面,即理解文字、圖片等多種形式內(nèi)容的能力和生成規(guī)模較大的內(nèi)容,并不追求極大的訓(xùn)練參數(shù)量,但其訓(xùn)練參數(shù)量仍然達(dá)到了千億規(guī)模。大型語(yǔ)言模型“悟道2.0”和“Switch Transformer”訓(xùn)練參數(shù)量則分別達(dá)到了1.75 萬(wàn)億與1.6 萬(wàn)億[5]。在大型語(yǔ)言模型的支持下,生成式人工智能具備了強(qiáng)大的數(shù)據(jù)挖掘與記憶能力,能夠在挖掘海量數(shù)據(jù)資源的基礎(chǔ)上,將網(wǎng)絡(luò)空間碎片化、樣態(tài)繁多的信息梳理為邏輯縝密的自然語(yǔ)言表述[6]。高效挖掘數(shù)字空間的信息數(shù)據(jù)是生成式人工智能數(shù)據(jù)挖掘能力強(qiáng)的重要體現(xiàn),但并非唯一維度:ChatGPT 力圖構(gòu)建的與用戶(hù)持續(xù)交流的使用樣態(tài),同時(shí)也是生成式人工智能大規(guī)模挖掘并記憶數(shù)據(jù)的體現(xiàn)[7]。ChatGPT 提供的答案往往不是一次性的,它會(huì)根據(jù)對(duì)用戶(hù)需求的判斷刪減、修正或補(bǔ)充輸出的內(nèi)容,而在這個(gè)過(guò)程中,不論是用戶(hù)為得到精準(zhǔn)服務(wù)給予的內(nèi)容提示,還是有意或無(wú)意暴露出的表述邏輯與表達(dá)方式,乃至更深層次的內(nèi)心意圖,都將成為生成式人工智能挖掘的對(duì)象。

      (三)算法黑箱凸顯

      算法、算力、大數(shù)據(jù)共同組成了人工智能三大核心要素,算法則是上述三大要素之首。算法黑箱則是人工智能研發(fā)管理者與用戶(hù)在算法上形成的關(guān)系不平衡、權(quán)力不對(duì)等、知識(shí)不平等、信息不對(duì)稱(chēng)狀況[8]。生成式人工智能相較決策式人工智能算法黑箱更為明顯,其原因主要有兩個(gè)方面:生成式人工智能算法更龐大復(fù)雜,有效披露的難度更大;算法涉及研發(fā)管理者的核心商業(yè)秘密,披露主體往往抵制算法披露。以ChatGPT 為例,其使用了當(dāng)前人工智能乃至計(jì)算機(jī)領(lǐng)域最頂尖的大數(shù)據(jù)技術(shù),需要處理人工智能領(lǐng)域前所未有的千億、萬(wàn)億級(jí)參數(shù)規(guī)模的數(shù)據(jù),算法的復(fù)雜程度必然遠(yuǎn)遠(yuǎn)超過(guò)決策式人工智能;此外,ChatGPT 屬于通用型人工智能,適用的范圍遠(yuǎn)比僅活躍于細(xì)分領(lǐng)域界限內(nèi)的決策式人工智能廣泛,巨大的適用范圍進(jìn)一步加大了算法解釋乃至有效披露的難度。生成式人工智能算法黑箱的存在與發(fā)展不僅取決于程序語(yǔ)言向自然語(yǔ)言轉(zhuǎn)化的客觀難度,還取決于算法程序語(yǔ)言的掌控者,即生成式人工智能研發(fā)管理者的披露意愿。初代ChatGPT 依托的大型語(yǔ)言模型GPT-3的單次訓(xùn)練費(fèi)用便超過(guò)460 萬(wàn)美元,Open AI 在ChatGPT 首發(fā)之年2022 年便在技術(shù)開(kāi)發(fā)上投入了約5.44 億美元[9],其中相當(dāng)可觀的部分被投入到算法開(kāi)發(fā)中,算法保密也同樣是保守商業(yè)秘密、保證收回成本的關(guān)鍵。因此研發(fā)管理者往往只傾向于披露在基礎(chǔ)研究環(huán)節(jié)應(yīng)用的基礎(chǔ)算法,而將具體任務(wù)環(huán)節(jié)應(yīng)用的算法視為商業(yè)秘密并三緘其口。算法披露的主客觀兩方面“梗阻”,使得生成式人工智能的算法黑箱程度空前加劇,且在多元主體間形成了階梯式的算法黑箱狀況。

      (四)數(shù)據(jù)壟斷深化

      生成式人工智能是蓬勃發(fā)展的人工智能市場(chǎng)的產(chǎn)物,也正在深刻重塑人工智能市場(chǎng)的基本格局與競(jìng)爭(zhēng)秩序。從ChatGPT 研發(fā)運(yùn)營(yíng)的過(guò)程來(lái)看,大型語(yǔ)言模型的搭建、使用大型語(yǔ)言模型進(jìn)行訓(xùn)練都需要消耗極高的算力成本,而人工標(biāo)注與加強(qiáng)學(xué)習(xí)也需要不菲的技術(shù)與人力資源投入:這些因素共同決定了生成式人工智能的研發(fā)運(yùn)營(yíng)是個(gè)門(mén)檻極高的過(guò)程,高昂資金技術(shù)成本的另一面往往是嚴(yán)密的技術(shù)壁壘和數(shù)據(jù)壟斷。生成式人工智能的研發(fā)運(yùn)營(yíng)需要數(shù)據(jù)與算力的高度集中,搭建大型語(yǔ)言模型需要的數(shù)據(jù)遠(yuǎn)遠(yuǎn)超過(guò)訓(xùn)練決策式人工智能所需要的數(shù)據(jù),搭建與訓(xùn)練所需要的算力同樣遠(yuǎn)遠(yuǎn)超過(guò)決策式人工智能。同時(shí),生成式人工智能屬于通用人工智能,其研發(fā)運(yùn)營(yíng)需要融合多領(lǐng)域的技術(shù),OpenAI 在研發(fā)ChatGPT 的過(guò)程中便以其雄厚財(cái)力并購(gòu)了大量專(zhuān)門(mén)技術(shù)企業(yè)。換言之,在決策式人工智能時(shí)代,由于決策式人工智能傾向于專(zhuān)精細(xì)分領(lǐng)域,單個(gè)人工智能占用的數(shù)據(jù)與算力較為有限,需要的技術(shù)也往往來(lái)源于個(gè)別領(lǐng)域,天然地形成了一種“去中心化”或者“多中心化”的人工智能市場(chǎng)格局。而在生成式人工智能成為主流的當(dāng)下,人工智能企業(yè)內(nèi)部已經(jīng)具備了數(shù)據(jù)與算力高度集中的特征,生成式人工智能的推廣則將逐步奠定資源空前集中的人工智能市場(chǎng)格局。

      二、生成式人工智能的多元安全風(fēng)險(xiǎn)透視

      在通用人工智能的最廣泛使用場(chǎng)景下,生成式人工智能的運(yùn)行過(guò)程主要是從數(shù)字空間檢索數(shù)據(jù)集并將之由程序語(yǔ)言轉(zhuǎn)化為邏輯嚴(yán)密的自然語(yǔ)言的過(guò)程,輸出的結(jié)果是用戶(hù)提問(wèn)的答案。就輸出的結(jié)果而言,不論是“一本正經(jīng)的胡說(shuō)八道”,還是條理清晰的真實(shí)信息,都可能產(chǎn)生致人損害或侵犯知識(shí)產(chǎn)權(quán)的安全風(fēng)險(xiǎn)。而從生成式人工智能的研發(fā)運(yùn)營(yíng)角度來(lái)看,生成式人工智能迭代的高昂技術(shù)成本與自身極高的技術(shù)壁壘,使得人工智能誕生之初便面臨的算法黑箱問(wèn)題愈發(fā)難以解決;數(shù)據(jù)資源的管理與支配不斷向少數(shù)主體集中,增加了威脅個(gè)人信息、網(wǎng)絡(luò)安全等公私法益的重大風(fēng)險(xiǎn)發(fā)生的可能性。現(xiàn)目前,應(yīng)當(dāng)遵循由后端應(yīng)用到前端研發(fā)運(yùn)營(yíng)的思路,系統(tǒng)梳理生成式人工智能在后端應(yīng)用的一般使用場(chǎng)景與特殊濫用場(chǎng)景的相應(yīng)侵權(quán)風(fēng)險(xiǎn),以及在前端研發(fā)、運(yùn)營(yíng)過(guò)程中潛藏的系統(tǒng)性數(shù)據(jù)安全風(fēng)險(xiǎn)。

      (一)內(nèi)容謬誤:虛假誤導(dǎo)與無(wú)意義信息致人損害

      生成式人工智能經(jīng)過(guò)無(wú)監(jiān)管大型語(yǔ)言模型與有監(jiān)管微調(diào)模型的反復(fù)預(yù)訓(xùn)練,獲得了較強(qiáng)的自然語(yǔ)言組織與人機(jī)交互能力,但這只賦予了生成式人工智能的人格化表象,并沒(méi)有使其具備人腦擁有的全部機(jī)能,更不能保證輸出內(nèi)容的質(zhì)量與真實(shí)性。以ChatGPT 為例,其輸出自然語(yǔ)言文本的質(zhì)量一方面取決于訓(xùn)練模型的規(guī)模與質(zhì)量,其中包括大型語(yǔ)言模型與針對(duì)細(xì)分領(lǐng)域特化的微調(diào)模型的全面程度與內(nèi)容質(zhì)量;另一方面取決于人工標(biāo)注、強(qiáng)化學(xué)習(xí)的質(zhì)量。從大型語(yǔ)言模型的角度看,無(wú)論是初代GPT 模型的億級(jí)規(guī)模數(shù)據(jù),還是GPT-2 的十億級(jí)數(shù)據(jù)規(guī)模,都已經(jīng)遠(yuǎn)遠(yuǎn)超出了篩選和過(guò)濾能力的極限,遑論GPT-3、GPT-4、悟道2.0、Switch Transformer 等模型涉及的千億級(jí)、萬(wàn)億級(jí)數(shù)據(jù)規(guī)模。鑒于篩選和過(guò)濾大型語(yǔ)言模型中的不良信息在技術(shù)上幾無(wú)可能,當(dāng)前在設(shè)計(jì)大型語(yǔ)言模型時(shí)也并未過(guò)多考慮信息的篩選與過(guò)濾問(wèn)題,而是將不良信息影響的排除問(wèn)題與具體問(wèn)題如何進(jìn)行優(yōu)化一并交給了有監(jiān)督微調(diào)模型。從微調(diào)模型的角度看,其數(shù)據(jù)規(guī)模只是明顯小于大型語(yǔ)言模型,就研發(fā)管理者進(jìn)行篩選、過(guò)濾而言,規(guī)模仍然是較為龐大的。一方面,生成式人工智能研發(fā)管理者囿于技術(shù)與成本上的困境,難以對(duì)微調(diào)過(guò)程中的不良信息進(jìn)行有效篩查與徹底排除;另一方面,研發(fā)管理者囿于自身的特殊經(jīng)歷、片面認(rèn)知與固有偏見(jiàn),難以對(duì)涉及種族歧視、色情暴力、文化傳統(tǒng)、政治觀點(diǎn)等領(lǐng)域的不良信息作出立場(chǎng)正確、尺度合理的判斷,甚至有意縱容上述不良信息在語(yǔ)言模型中存在,并發(fā)揮不利影響。

      生成式人工智能不僅潛藏著提供虛假誤導(dǎo)與無(wú)意義信息的風(fēng)險(xiǎn),其人格化表象還將助長(zhǎng)用戶(hù)陷入虛假信息陷阱而遭受損害。簡(jiǎn)而言之,用戶(hù)在面對(duì)決策式人工智能時(shí),具有清晰的主客認(rèn)知,兩者之間是明確的“主體——客體”二元關(guān)系;而生成式人工智能在設(shè)計(jì)上淡化技術(shù)客體與工具表征,極力表現(xiàn)人工智能“善解人意”“自主能動(dòng)”的一面,可能模糊用戶(hù)的主客認(rèn)知,干擾用戶(hù)對(duì)輸出結(jié)果的判斷。進(jìn)而言之,決策式人工智能輸出的結(jié)果尚需用戶(hù)的分析、篩選與判斷,或者說(shuō)本就秉持輔助決策的目的而有意為之;生成式人工智能直接以邏輯嚴(yán)密的文本提供問(wèn)題的答案,事實(shí)上擠壓了用戶(hù)分析、判斷等思維活動(dòng)存在的空間,自然語(yǔ)言的表達(dá)形式更易被理解,邏輯嚴(yán)密、旁征博引更顯權(quán)威準(zhǔn)確,容易喚醒用戶(hù)不加獨(dú)立思考徑直采納權(quán)威意見(jiàn)的主觀傾向。鑒于ChatGPT 已然出現(xiàn)種族歧視、意識(shí)形態(tài)、倫理道德等方面的問(wèn)題,正在面臨多國(guó)執(zhí)法機(jī)構(gòu)的審查、限制甚至禁止,用戶(hù)若盲目采信生成式人工智能提供的答案,極有可能作出錯(cuò)誤決斷、造成自身?yè)p害。

      (二)運(yùn)行侵權(quán):模型訓(xùn)練與知識(shí)重組忽視知識(shí)產(chǎn)權(quán)

      隨著語(yǔ)言模型與訓(xùn)練機(jī)制的不斷優(yōu)化升級(jí),生成式人工智能運(yùn)行過(guò)程與結(jié)果的質(zhì)量也隨之穩(wěn)步提升;然而在生成式人工智能創(chuàng)作物的形式與內(nèi)容不斷完善的同時(shí),創(chuàng)作物的知識(shí)產(chǎn)權(quán)瑕疵尚未得到有效的解決,甚至隨著語(yǔ)言模型數(shù)據(jù)規(guī)模的不斷擴(kuò)大有愈演愈烈之勢(shì)。正如前文所述,生成式人工智能具有極強(qiáng)的數(shù)據(jù)挖掘能力,GPT-4 涉及的大型語(yǔ)言模型參數(shù)規(guī)模早已突破千億級(jí),識(shí)別與篩查其中特征明顯、危害性強(qiáng)的不良信息尚且面臨極大的困難,需要微調(diào)模型在此方面進(jìn)行補(bǔ)充:生成式人工智能強(qiáng)大數(shù)據(jù)挖掘能力的背后缺乏對(duì)于數(shù)據(jù)內(nèi)容合法與違法邊界的探知,缺乏對(duì)語(yǔ)料數(shù)據(jù)知識(shí)產(chǎn)權(quán)邊界的清晰感知也是不言自明的;碎片化語(yǔ)料信息涉及的知識(shí)產(chǎn)權(quán)關(guān)系相較有害內(nèi)容更為隱蔽、更加難以被識(shí)別,而規(guī)模如此龐大的信息所涉知識(shí)產(chǎn)權(quán)關(guān)系即便被一一識(shí)別,建立合法的許可使用關(guān)系也將是個(gè)困難的過(guò)程。生成式人工智能的研發(fā)管理者囿于技術(shù)手段的限制與市場(chǎng)主體的損益比較邏輯,并不盡力也無(wú)法做到“先理順語(yǔ)料信息的知識(shí)產(chǎn)權(quán)關(guān)系,再構(gòu)建大型語(yǔ)言模型”。而微調(diào)模型訓(xùn)練階段的人工標(biāo)注與加強(qiáng)學(xué)習(xí)受限于同樣的原因與邏輯,無(wú)法完全排除人工智能創(chuàng)作物侵犯他人知識(shí)產(chǎn)權(quán)的風(fēng)險(xiǎn)。

      預(yù)訓(xùn)練階段無(wú)法篩查與排除知識(shí)產(chǎn)權(quán)風(fēng)險(xiǎn),生成式人工智能的運(yùn)行邏輯進(jìn)一步加大了知識(shí)產(chǎn)權(quán)風(fēng)險(xiǎn)的可能性與監(jiān)管難度。有學(xué)者曾就“ChatGPT 的文本生成過(guò)程是否會(huì)侵犯他人著作權(quán)”提問(wèn)ChatGPT:ChatGPT明確表示不會(huì)侵犯,其文本生成是在概率模型的基礎(chǔ)上,依據(jù)預(yù)設(shè)的文本規(guī)則進(jìn)行的知識(shí)重組[10]。ChatGPT 不會(huì)也不被允許直接抄襲涉及知識(shí)產(chǎn)權(quán)的文本,但這并不意味著其不會(huì)侵犯他人的知識(shí)產(chǎn)權(quán);ChatGPT 坦陳未經(jīng)許可利用他人文本進(jìn)行知識(shí)重組可能侵犯知識(shí)產(chǎn)權(quán),知識(shí)重組的運(yùn)行方式也加大了知識(shí)產(chǎn)權(quán)風(fēng)險(xiǎn)的監(jiān)管難度。盡管ChatGPT 具有很強(qiáng)的數(shù)據(jù)挖掘能力與知識(shí)遷移能力,但這并不意味著ChatGPT 革新了知識(shí)產(chǎn)生的途徑,相反,其真正從事的是知識(shí)的抽象凝練、碎片化知識(shí)的梳理重組。因此,工具定位的ChatGPT 是否會(huì)侵犯知識(shí)產(chǎn)權(quán)并沒(méi)有定論,侵權(quán)與否最后往往取決于用戶(hù)取得信息后的后續(xù)用途。而隨著生成式人工智能進(jìn)一步向通用人工智能的定位轉(zhuǎn)變,以ChatGPT為代表的生成式人工智能將被愈發(fā)廣泛地用于各種場(chǎng)景與目的,其中既有擴(kuò)大公共利益的目的,又有牟取商業(yè)利益的目的:當(dāng)生成式知識(shí)重組的運(yùn)行邏輯愈發(fā)深刻地嵌入商業(yè)營(yíng)利的活動(dòng),極有可能誘發(fā)系統(tǒng)性的知識(shí)產(chǎn)權(quán)危機(jī)。

      (三)使用失當(dāng):惡意濫用與算法黑箱削弱監(jiān)管體系

      以ChatGPT為代表的生成式人工智能被濫用已經(jīng)成為一種現(xiàn)實(shí)威脅:據(jù)德新社的報(bào)道,歐洲刑警組織認(rèn)為ChatGPT可能被犯罪分子用于制造虛假信息、冒充組織或個(gè)人實(shí)施欺詐、獲取網(wǎng)絡(luò)犯罪工具。ChatGPT 擅于“一本正經(jīng)的胡說(shuō)八道”,易被犯罪分子用于制造逼真度極高的虛假消息;而上述屬性又便于犯罪分子濫用ChatGPT 仿冒特定組織或個(gè)人的語(yǔ)言風(fēng)格,已經(jīng)被犯罪分子用于實(shí)施詐騙。ChatGPT 被濫用的最大風(fēng)險(xiǎn)在于極大地降低了犯罪分子獲取網(wǎng)絡(luò)犯罪工具的門(mén)檻。在ChatGPT 出現(xiàn)之前,犯罪分子需要具備一定的信息技術(shù)知識(shí)與能力,才能制作惡意程序代碼、搭建非法平臺(tái)、獲取用于隱藏IP的輔助工具:申言之,網(wǎng)絡(luò)犯罪在本質(zhì)上仍然屬于網(wǎng)絡(luò)活動(dòng),需要經(jīng)歷一切網(wǎng)絡(luò)活動(dòng)必經(jīng)的“用戶(hù)的自然語(yǔ)言向計(jì)算機(jī)的程序語(yǔ)言轉(zhuǎn)化”的過(guò)程;將自然語(yǔ)言轉(zhuǎn)化為程序語(yǔ)言的能力門(mén)檻,客觀上限制了犯罪分子開(kāi)展網(wǎng)絡(luò)犯罪活動(dòng);犯罪分子需要掌握一定的信息技術(shù)知識(shí)與能力,才能開(kāi)展網(wǎng)絡(luò)犯罪活動(dòng),只有不斷強(qiáng)化專(zhuān)業(yè)知識(shí)和技能,才能實(shí)施更為復(fù)雜的網(wǎng)絡(luò)犯罪活動(dòng)。以ChatGPT 為代表的生成式人工智能構(gòu)建起了自然語(yǔ)言與程序語(yǔ)言之間的橋梁,不具備專(zhuān)業(yè)知識(shí)與技術(shù)的犯罪分子仍然可以在人工智能的輔助下輕松地進(jìn)行編程與搭建平臺(tái),將自然語(yǔ)言表述的犯罪意圖向程序語(yǔ)言反映的犯罪行為進(jìn)行轉(zhuǎn)化。以網(wǎng)絡(luò)犯罪為代表的非接觸式犯罪的興起,正是由于網(wǎng)絡(luò)突破了犯罪構(gòu)成要素耦合所需要的接觸條件[11],然而自然語(yǔ)言與程序語(yǔ)言之間的壁壘仍然存在;生成式人工智能對(duì)自然語(yǔ)言與程序語(yǔ)言間壁壘的突破,將導(dǎo)致非接觸式犯罪的門(mén)檻進(jìn)一步降低。

      如果說(shuō)人格化特征與數(shù)據(jù)挖掘能力等人工智能要素的變遷使得安全風(fēng)險(xiǎn)形態(tài)更迭超出了既有人工智能治理體系的規(guī)制能力,算法黑箱的加劇則從根本上削弱了治理體系的監(jiān)管能力,加劇了生成式人工智能被濫用的風(fēng)險(xiǎn)。非接觸式犯罪相較傳統(tǒng)犯罪更難以監(jiān)管,生成式人工智能被濫用將促使非接觸式犯罪取代傳統(tǒng)犯罪的主流犯罪形態(tài)地位,從外部挑戰(zhàn)網(wǎng)絡(luò)犯罪監(jiān)管體系;而生成式人工智能本身的算法黑箱,則從內(nèi)部降低了現(xiàn)行監(jiān)管體系的效能。在算法黑箱的影響下,監(jiān)管者難以將知識(shí)產(chǎn)權(quán)被侵犯、人工智能被濫用、數(shù)據(jù)泄露等具體風(fēng)險(xiǎn)定位于生成式人工智能運(yùn)用的具體過(guò)程,也難以由虛假信息、欺詐線索追溯到具體的犯罪人。更進(jìn)一步來(lái)說(shuō),算法黑箱使得監(jiān)管規(guī)范制定需要依據(jù)的現(xiàn)實(shí)狀況變得更為模糊,立法者難以針對(duì)人工智能運(yùn)用中的具體問(wèn)題及其根源制定相應(yīng)的規(guī)范,導(dǎo)致監(jiān)管規(guī)范失之于寬泛。

      (四)運(yùn)營(yíng)失序:數(shù)據(jù)集中與技術(shù)壟斷擴(kuò)大泄露危害

      生成式人工智能推廣應(yīng)用的核心問(wèn)題之一便是數(shù)據(jù)來(lái)源問(wèn)題:生成式人工智能需要訓(xùn)練的問(wèn)題范圍極為廣泛,每個(gè)具體問(wèn)題都需要大量樣本用于學(xué)習(xí)。有學(xué)者認(rèn)為,ChatGPT 在國(guó)內(nèi)的廣泛應(yīng)用同時(shí)也是在為Open AI 擴(kuò)充中文語(yǔ)料庫(kù)服務(wù),每個(gè)國(guó)內(nèi)用戶(hù)都可能被視為語(yǔ)言模型的采集樣本。使用碎片化的數(shù)字空間語(yǔ)料并不構(gòu)成威脅,而系統(tǒng)搜集互聯(lián)網(wǎng)語(yǔ)料并搭建一個(gè)國(guó)家、一種語(yǔ)言的數(shù)字空間語(yǔ)料庫(kù)則可能引發(fā)市場(chǎng)經(jīng)濟(jì)領(lǐng)域甚至國(guó)家安全領(lǐng)域的重大問(wèn)題。從個(gè)體的角度看,使用ChatGPT的過(guò)程極有可能暴露日程安排、身份學(xué)歷、社會(huì)關(guān)系等隱私與個(gè)人信息,ChatGPT 打著精準(zhǔn)服務(wù)、持續(xù)服務(wù)的旗號(hào)采集與存儲(chǔ)關(guān)于用戶(hù)的數(shù)據(jù)信息,卻并不公布對(duì)用戶(hù)隱私與個(gè)人信息的安全保障措施與后續(xù)處理狀況。生成式人工智能的發(fā)展暗藏著過(guò)程與結(jié)果皆不透明的個(gè)人信息采集狂潮,由此導(dǎo)致了個(gè)人信息在若干互聯(lián)網(wǎng)巨頭的空前集中,一旦安全保障不力,可能導(dǎo)致用戶(hù)個(gè)人信息的大規(guī)模泄露。從國(guó)家與社會(huì)的角度看,語(yǔ)言、文字、圖片等多模態(tài)載體承載著十億多中國(guó)網(wǎng)民在數(shù)字空間活動(dòng)的全部信息,如果僅僅將其用于產(chǎn)品的設(shè)計(jì)與推介等正常市場(chǎng)活動(dòng),都可能極大地影響市場(chǎng)的公平競(jìng)爭(zhēng)秩序;倘若其他國(guó)家、地區(qū)或組織將上述數(shù)據(jù)用于情報(bào)搜集與意識(shí)形態(tài)競(jìng)爭(zhēng),將對(duì)我國(guó)的國(guó)家安全構(gòu)成嚴(yán)重威脅[12]。

      生成式人工智能作為當(dāng)前最符合通用人工智能定義的人工智能樣態(tài),被要求和已經(jīng)實(shí)現(xiàn)的任務(wù)遷移能力是相當(dāng)高的;而其研發(fā)運(yùn)營(yíng)所需要的技術(shù)種類(lèi)、涉及領(lǐng)域之多也刷新了人工智能發(fā)展歷程的記錄。以ChatGPT 為代表的生成式人工智能在研發(fā)運(yùn)營(yíng)中主要使用了五類(lèi)核心技術(shù)與架構(gòu):思維鏈技術(shù)、指示微調(diào)技術(shù)、強(qiáng)化學(xué)習(xí)技術(shù)、Transformer模型與基于Transformer的基本架構(gòu)[13],涉及了軟件工程、網(wǎng)絡(luò)工程、空間信息與數(shù)字技術(shù)、大數(shù)據(jù)、數(shù)字媒體技術(shù)等多個(gè)領(lǐng)域。生成式人工智能在技術(shù)與領(lǐng)域的高度復(fù)合性帶來(lái)了監(jiān)管的困難,其核心技術(shù)在一定程度上領(lǐng)先于信息安全、網(wǎng)絡(luò)安全技術(shù)的發(fā)展,先進(jìn)技術(shù)的集中更進(jìn)一步加大了安全監(jiān)管的難度,技術(shù)壟斷則限制了技術(shù)監(jiān)管本身的發(fā)展——為了把握市場(chǎng)的先機(jī)和隔絕政府的干預(yù),互聯(lián)網(wǎng)寡頭總是傾向于保持先進(jìn)技術(shù)對(duì)外界的不透明狀態(tài),監(jiān)管技術(shù)也因此被擠出信息網(wǎng)絡(luò)技術(shù)的第一梯隊(duì)。而生成式人工智能涉及的領(lǐng)域之多也讓本用于規(guī)制單一領(lǐng)域的規(guī)范難以適用,加之立法者因畏懼壓抑科技發(fā)展而瞻前顧后:當(dāng)前的監(jiān)管規(guī)范實(shí)效正在不斷下降。綜上,數(shù)據(jù)集中在前端加劇泄露的風(fēng)險(xiǎn)與危害,而技術(shù)壟斷則讓數(shù)據(jù)安全、網(wǎng)絡(luò)安全等后端監(jiān)管變得格外困難,共同構(gòu)成了生成式人工智能的運(yùn)營(yíng)失序風(fēng)險(xiǎn)。

      三、生成式人工智能安全風(fēng)險(xiǎn)的綜合治理路徑

      在技術(shù)層面,從內(nèi)容模型的訓(xùn)練到內(nèi)容的生成,生成式人工智能具有內(nèi)容謬誤與運(yùn)行侵權(quán)兩重風(fēng)險(xiǎn);穿透技術(shù)的表象直視科技發(fā)展態(tài)勢(shì),算法黑箱帶來(lái)的使用失當(dāng)與數(shù)據(jù)技術(shù)壟斷帶來(lái)的運(yùn)營(yíng)失序?qū)⒊蔀榇髷?shù)據(jù)智能時(shí)代的深層次隱憂(yōu)。在大數(shù)據(jù)智能的時(shí)代背景下,生成式人工智能將推動(dòng)人工智能技術(shù)的應(yīng)用普及,人工智能逐漸從專(zhuān)業(yè)研究等少數(shù)領(lǐng)域向社會(huì)大眾的日常生活延伸,在多方面引發(fā)社會(huì)的深層次變革;在技術(shù)驅(qū)動(dòng)社會(huì)形態(tài)更迭的過(guò)程中,技術(shù)發(fā)展引發(fā)的安全風(fēng)險(xiǎn)與社會(huì)進(jìn)步的陣痛都需要規(guī)范的制度化回應(yīng)[14]:科技、社會(huì)與法律儼然成為大數(shù)據(jù)智能時(shí)代三個(gè)相互影響又緊密聯(lián)系的主體,立足三者整體構(gòu)建“科技—社會(huì)—法律”三元綜合治理模式正是生成式人工智能安全風(fēng)險(xiǎn)綜合治理的題中之義。在逐步構(gòu)建“科技—社會(huì)—法律”三元綜合治理模式的過(guò)程中,“科技”作為三元主體變化發(fā)展的源動(dòng)力,是治理路徑劃分的主要依據(jù):在宏觀上,“科技”可被分為技術(shù)本身與科技發(fā)展態(tài)勢(shì)兩個(gè)維度;技術(shù)層面,生成式人工智能的技術(shù)基礎(chǔ)主要包含大型語(yǔ)言模型、微調(diào)模型的內(nèi)容模型,以及知識(shí)重組的運(yùn)行邏輯;而在科技發(fā)展態(tài)勢(shì)方面,算法黑箱的愈發(fā)普遍與數(shù)據(jù)技術(shù)的集中化趨勢(shì),將深刻重塑社會(huì)的形態(tài)與格局。遵循先技術(shù)后科技發(fā)展態(tài)勢(shì)、先科技后社會(huì)與法律的思路,依次設(shè)計(jì)“建設(shè)內(nèi)容模型訓(xùn)練管理體系”“厘清程序運(yùn)行的知識(shí)產(chǎn)權(quán)邊界”兩舉措克服技術(shù)層面的治理難題,再由“構(gòu)建第三方算法披露效力評(píng)估機(jī)制”到“深化綜合治理模式”,實(shí)現(xiàn)由技術(shù)規(guī)制向社會(huì)治理、法律制度化回應(yīng)的跨越。

      (一)建設(shè)內(nèi)容模型訓(xùn)練管理體系

      內(nèi)容模型本身的缺陷是生成式人工智能生成虛假誤導(dǎo)、無(wú)意義信息的根源[15],而模型訓(xùn)練的缺乏監(jiān)督則是“催化劑”。在識(shí)別了內(nèi)容謬誤的風(fēng)險(xiǎn)根源后,應(yīng)當(dāng)從事前提高內(nèi)容模型質(zhì)量、優(yōu)化深度學(xué)習(xí)模式,事后加強(qiáng)內(nèi)容糾偏兩個(gè)維度出發(fā)建設(shè)內(nèi)容模型訓(xùn)練管理體系。ChatGPT 的數(shù)據(jù)來(lái)源較為龐雜,從書(shū)籍、期刊、維基百科到網(wǎng)絡(luò)數(shù)據(jù)爬取、社交媒體網(wǎng)站,內(nèi)容質(zhì)量良莠不齊[16]。無(wú)論是處于提高內(nèi)容模型質(zhì)量還是加強(qiáng)對(duì)內(nèi)容模型的管理,公安機(jī)關(guān)乃至其他監(jiān)管部門(mén)都應(yīng)當(dāng)介入內(nèi)容模型的構(gòu)建:公安機(jī)關(guān)、網(wǎng)信部門(mén)可與類(lèi)ChatGPT開(kāi)發(fā)企事業(yè)單位合作,建立內(nèi)容模型定期檢查機(jī)制,由監(jiān)管部門(mén)與研發(fā)運(yùn)營(yíng)者共同對(duì)大型語(yǔ)言模型、微調(diào)模型等一系列內(nèi)容模型實(shí)施抽查,檢查模型中是否存留有虛假、違法信息,同時(shí)關(guān)注構(gòu)建內(nèi)容模型的過(guò)程中是否使用了數(shù)據(jù)爬蟲(chóng)等可能涉及違法的手段。政府可協(xié)調(diào)多部門(mén)定期對(duì)內(nèi)容模型的合法數(shù)據(jù)進(jìn)行評(píng)估,考察其中的觀點(diǎn)是否符合社會(huì)主義核心價(jià)值觀與公序良俗,以及數(shù)據(jù)來(lái)源中發(fā)布者的性別、年齡、民族、受教育程度等特征與比例是否合理。而在優(yōu)化深度學(xué)習(xí)模式方面,生成式人工智能研發(fā)運(yùn)營(yíng)者應(yīng)當(dāng)加強(qiáng)對(duì)于優(yōu)化訓(xùn)練的監(jiān)督,制定具體、清晰、可操作性較強(qiáng)的內(nèi)部標(biāo)注規(guī)范,并依據(jù)該規(guī)范對(duì)標(biāo)注人員進(jìn)行培訓(xùn);監(jiān)管部門(mén)與企業(yè)應(yīng)當(dāng)定期檢查核驗(yàn)標(biāo)注內(nèi)容的正確性,在涉及國(guó)計(jì)民生的重要領(lǐng)域,監(jiān)管部門(mén)也應(yīng)當(dāng)組織專(zhuān)業(yè)力量對(duì)上文所述的內(nèi)部標(biāo)注規(guī)范進(jìn)行評(píng)估并備案;研發(fā)運(yùn)營(yíng)者也應(yīng)當(dāng)在實(shí)踐中根據(jù)具體情況及時(shí)更新標(biāo)注規(guī)則。

      實(shí)現(xiàn)對(duì)內(nèi)容模型訓(xùn)練的有效管理,保證生成式人工智能輸出內(nèi)容的真實(shí)性,既需要在生成前對(duì)技術(shù)與數(shù)據(jù)基礎(chǔ)進(jìn)行優(yōu)化,同樣需要健全生成后的內(nèi)容糾錯(cuò)機(jī)制。面向公眾的發(fā)布并非生成式人工智能開(kāi)發(fā)的重點(diǎn),研發(fā)運(yùn)營(yíng)者往往傾向于利用公眾的反饋與語(yǔ)料對(duì)人工智能進(jìn)行進(jìn)一步的調(diào)優(yōu)。當(dāng)前適宜采取逐層次發(fā)布的做法,即首先向較小范圍的公眾發(fā)布生成式人工智能的早期版本,并加強(qiáng)對(duì)人工智能運(yùn)行的監(jiān)控,人工與算法雙管齊下全方位發(fā)現(xiàn)生成虛假誤導(dǎo)、無(wú)意義信息的情形;利用內(nèi)容謬誤的情形訓(xùn)練算法糾偏模型,將內(nèi)容糾錯(cuò)的重心由人工逐步轉(zhuǎn)向算法,并逐步提升算法糾錯(cuò)的準(zhǔn)確性與時(shí)效性。內(nèi)容糾偏除了需要及時(shí)對(duì)謬誤結(jié)果進(jìn)行修正,還需要總結(jié)并反饋內(nèi)容謬誤的原因,即分析內(nèi)容模型質(zhì)量、深度學(xué)習(xí)模式對(duì)內(nèi)容謬誤的影響,有針對(duì)性地對(duì)內(nèi)容模型質(zhì)量、深度學(xué)習(xí)模式進(jìn)行優(yōu)化。

      (二)厘清程序運(yùn)行的知識(shí)產(chǎn)權(quán)邊界

      人工智能生成內(nèi)容的過(guò)程是否屬于“創(chuàng)作”、“創(chuàng)作”作為法律概念的內(nèi)涵與外延是什么,各國(guó)立法尚未有明確的規(guī)定,理論研究也缺乏統(tǒng)一的結(jié)論[17]。從人工智能創(chuàng)作物的知識(shí)產(chǎn)權(quán)保護(hù)與生成式人工智能運(yùn)行侵犯知識(shí)產(chǎn)權(quán)兩個(gè)角度看,生成式人工智能程序運(yùn)行的知識(shí)產(chǎn)權(quán)邊界都很不明確:在科技與社會(huì)相互影響的格局中,社會(huì)利益所受的損害更為急迫,內(nèi)容界定上更為明確,因此適宜從防范生成式人工智能侵犯知識(shí)產(chǎn)權(quán)的角度出發(fā),厘清人工智能程序運(yùn)行的知識(shí)產(chǎn)權(quán)邊界。防范侵權(quán)風(fēng)險(xiǎn)、厘清權(quán)利邊界有兩個(gè)層次:理順內(nèi)容模型中語(yǔ)料數(shù)據(jù)的知識(shí)產(chǎn)權(quán)關(guān)系與規(guī)范人工智能用途。當(dāng)前急需優(yōu)化人工智能企業(yè)、高等院校、研究機(jī)構(gòu)間的產(chǎn)學(xué)研合作模式,多元主體合作開(kāi)發(fā)數(shù)字空間語(yǔ)料數(shù)據(jù)的知識(shí)產(chǎn)權(quán)識(shí)別體系。通過(guò)在抓取語(yǔ)料數(shù)據(jù)的同時(shí)分析語(yǔ)料數(shù)據(jù)的來(lái)源、完整程度、轉(zhuǎn)化狀況、原始發(fā)布者等情況,將上述語(yǔ)料數(shù)據(jù)分為附帶知識(shí)產(chǎn)權(quán)與不附帶知識(shí)產(chǎn)權(quán)兩類(lèi),在將附帶知識(shí)產(chǎn)權(quán)的數(shù)據(jù)納入內(nèi)容模型前,先進(jìn)行取得知識(shí)產(chǎn)權(quán)人部分或完整授權(quán)的嘗試。鑒于取得所有知識(shí)產(chǎn)權(quán)人授權(quán)在現(xiàn)實(shí)中是一件不可能完成的事情,而僅僅因權(quán)利狀態(tài)的瑕疵就將語(yǔ)料數(shù)據(jù)排除在外,將會(huì)導(dǎo)致內(nèi)容模型的不完整與構(gòu)建的極大困難:完整程度較低、經(jīng)過(guò)轉(zhuǎn)化的碎片化數(shù)據(jù)占數(shù)字空間語(yǔ)料數(shù)據(jù)的多數(shù),即使未取得完整授權(quán),也不應(yīng)將其排除在內(nèi)容模型之外。而針對(duì)他人較為完整、原始的創(chuàng)作物及創(chuàng)作物片段,納入內(nèi)容模型的權(quán)利狀態(tài)標(biāo)準(zhǔn)則要適當(dāng)提高。

      生成式人工智能所依賴(lài)的內(nèi)容模型,尤其是大型語(yǔ)言模型,其中部分語(yǔ)料數(shù)據(jù)知識(shí)產(chǎn)權(quán)關(guān)系的模糊狀態(tài)不可避免,由此,應(yīng)當(dāng)在強(qiáng)化知識(shí)產(chǎn)權(quán)狀態(tài)分級(jí)標(biāo)注的基礎(chǔ)上規(guī)范生成式人工智能及其創(chuàng)作物的用途。應(yīng)當(dāng)在內(nèi)容模型內(nèi)部對(duì)已過(guò)知識(shí)產(chǎn)權(quán)保護(hù)期限、取得知識(shí)產(chǎn)權(quán)授權(quán)的語(yǔ)料數(shù)據(jù)與知識(shí)產(chǎn)權(quán)關(guān)系不明、未取得授權(quán)的語(yǔ)料數(shù)據(jù)進(jìn)行分類(lèi)并標(biāo)注。在進(jìn)入任務(wù)環(huán)節(jié)后,如若使用的數(shù)據(jù)并不涉及知識(shí)產(chǎn)權(quán)爭(zhēng)議,則生成內(nèi)容可用于任何用途;如果知識(shí)重組依據(jù)的數(shù)據(jù)存在較為明顯的知識(shí)產(chǎn)權(quán)爭(zhēng)議,人工智能應(yīng)當(dāng)提示用戶(hù),建議用戶(hù)僅在為公共利益的目的使用該生成內(nèi)容,避免將其用于商業(yè)用途。生成式人工智能研發(fā)運(yùn)營(yíng)者應(yīng)當(dāng)不斷完善上述標(biāo)注并使人工智能具備提示用戶(hù)的功能。同時(shí),由于生成式人工智能正逐步由依賴(lài)閉源數(shù)據(jù)集進(jìn)行知識(shí)重組轉(zhuǎn)向在每一次任務(wù)進(jìn)程中直接獲取開(kāi)源數(shù)據(jù),而未經(jīng)篩選的數(shù)字空間開(kāi)源數(shù)據(jù)知識(shí)產(chǎn)權(quán)狀況更為復(fù)雜,宜提示用戶(hù)相關(guān)知識(shí)產(chǎn)權(quán)風(fēng)險(xiǎn)并建議用戶(hù)審慎將人工智能創(chuàng)作物用于公共利益以外的用途。

      (三)強(qiáng)化算法黑箱與惡意濫用綜合治理能力

      算法黑箱以及由此加劇的對(duì)人工智能工具的濫用并非與生成式人工智能相伴相生的問(wèn)題,在人工智能技術(shù)發(fā)展的早期便有算法黑箱隱患以及規(guī)制嘗試,后者集中體現(xiàn)為算法透明原則[18]。在算法治理領(lǐng)域,追求算法透明有時(shí)不利于維護(hù)國(guó)家安全、社會(huì)秩序以及私主體權(quán)利,即算法透明并非在所有技術(shù)環(huán)境下皆可行;而隨著算法的復(fù)雜化,算法透明原則距離算法可知的預(yù)期效果越來(lái)越遠(yuǎn),并且愈發(fā)難以起到有效規(guī)制的作用[19];而在生成式人工智能導(dǎo)致算法黑箱情況加劇的當(dāng)下,屬于單向度事前預(yù)防的算法透明原則難以應(yīng)對(duì)生成式人工智能技術(shù)環(huán)境下的算法黑箱與惡意濫用:當(dāng)前急需從事前預(yù)防與事后規(guī)制兩個(gè)維度強(qiáng)化算法黑箱與惡意濫用綜合治理能力。在事前預(yù)防方面,合理的治理手段要求治理成本顯著低于損害成本,而算法的復(fù)雜化、披露能力的相對(duì)弱化等都提高了算法有效披露的成本。當(dāng)前需要制定算法分級(jí)分類(lèi)披露標(biāo)準(zhǔn)并構(gòu)建算法披露效力第三方評(píng)估機(jī)制:適宜由公安部門(mén)、網(wǎng)信部門(mén)聯(lián)合大數(shù)據(jù)企事業(yè)單位對(duì)算法進(jìn)行分類(lèi),在分類(lèi)的基礎(chǔ)上為每個(gè)類(lèi)型的算法制定面向不同披露對(duì)象的披露標(biāo)準(zhǔn),例如用于國(guó)安領(lǐng)域的算法便不應(yīng)當(dāng)披露,而適宜披露的算法在向公眾披露時(shí)與向公安機(jī)關(guān)披露時(shí)的標(biāo)準(zhǔn)也是不一樣的;此外,針對(duì)有必要予以披露的生成式人工智能算法,需要在披露主體與披露對(duì)象之外尋找第三方,構(gòu)建算法披露效力第三方評(píng)估機(jī)制,對(duì)算法披露是否符合標(biāo)準(zhǔn)進(jìn)行監(jiān)督與評(píng)估。在上述兩類(lèi)舉措的作用下,橫亙于披露主體與披露對(duì)象之間,尤其是大數(shù)據(jù)企業(yè)與監(jiān)管部門(mén)之間的算法黑箱將得到削弱,有利于監(jiān)管部門(mén)在算法相對(duì)透明的環(huán)境下發(fā)現(xiàn)惡意濫用行為,并且在熟知算法特征的情況下更為高效地識(shí)別惡意濫用行為。

      事后規(guī)制在治理算法黑箱與惡意濫用方面不可或缺,并且由于已經(jīng)知曉風(fēng)險(xiǎn)點(diǎn)位,治理所需的信息成本顯著降低。當(dāng)前,鑒于第一批濫用生成式人工智能進(jìn)行網(wǎng)絡(luò)犯罪的案件已經(jīng)出現(xiàn),公安機(jī)關(guān)、網(wǎng)信部門(mén)、檢察機(jī)關(guān)、審判機(jī)關(guān)等監(jiān)管主體應(yīng)當(dāng)優(yōu)化信息交流與協(xié)作機(jī)制,聯(lián)合開(kāi)展針對(duì)濫用生成式人工智能違法犯罪行為的類(lèi)型化梳理;理論界與實(shí)務(wù)界應(yīng)當(dāng)加強(qiáng)治理研究合作,在梳理濫用行為類(lèi)型的基礎(chǔ)上深入把握生成式人工智能對(duì)犯罪態(tài)勢(shì)、行為方式、時(shí)間空間特征等情況的影響,進(jìn)一步深化對(duì)算法透明層次的研究與探討,用治理研究成果推動(dòng)治理實(shí)踐進(jìn)步。工具無(wú)法避免被濫用,但其易于被濫用的屬性則可被淡化,在規(guī)制濫用行為的過(guò)程中,也應(yīng)當(dāng)進(jìn)一步回溯算法黑箱的風(fēng)險(xiǎn)點(diǎn)位,完善針對(duì)生成式人工智能算法治理的格局。

      (四)深化“科技—社會(huì)—法律”三元綜合治理模式

      人工智能的通用性需求與發(fā)展態(tài)勢(shì),催生了以ChatGPT為代表的生成式人工智能的快速發(fā)展,也在推動(dòng)人工智能市場(chǎng)走向數(shù)據(jù)集中與技術(shù)壟斷:技術(shù)進(jìn)步是社會(huì)演進(jìn)的直接動(dòng)力,科技發(fā)展整體態(tài)勢(shì)則在更深層次重塑社會(huì)的樣態(tài),法律固然需要對(duì)ChatGPT的橫空出世快速作出響應(yīng),但更需要立足科技、社會(huì)、法律間的相互關(guān)系與格局,深化針對(duì)生成式人工智能乃至通用人工智能的綜合治理模式[20]。面對(duì)數(shù)據(jù)集中與技術(shù)壟斷導(dǎo)致的市場(chǎng)失序與數(shù)據(jù)安全隱憂(yōu),需要由加強(qiáng)數(shù)據(jù)安全監(jiān)管到優(yōu)化開(kāi)發(fā)格局逐步深化“科技—社會(huì)—法律”三元綜合治理模式。當(dāng)前,適宜通過(guò)立法要求生成式人工智能企業(yè)設(shè)置專(zhuān)門(mén)的數(shù)據(jù)安全部門(mén),監(jiān)督《網(wǎng)絡(luò)安全法》《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》以及未來(lái)的《生成式人工智能服務(wù)管理辦法》等法律法規(guī)在企業(yè)內(nèi)部的執(zhí)行,幫助企業(yè)內(nèi)部風(fēng)險(xiǎn)防控標(biāo)準(zhǔn)、管理規(guī)范的制定與實(shí)施;此外,還需在進(jìn)一步完善數(shù)據(jù)安全部門(mén)職責(zé)、定位的基礎(chǔ)上構(gòu)建企業(yè)內(nèi)部安全監(jiān)管部門(mén)與公共規(guī)制機(jī)關(guān)的聯(lián)系機(jī)制。鑒于生成式人工智能的研發(fā)運(yùn)營(yíng)難以由個(gè)別企業(yè)獨(dú)立承擔(dān),企業(yè)間已經(jīng)具備了廣泛而深入的合作關(guān)系,可以通過(guò)對(duì)關(guān)聯(lián)企業(yè)施加人工智能安全義務(wù),從而加強(qiáng)數(shù)據(jù)安全監(jiān)管:關(guān)聯(lián)企業(yè)都需要對(duì)潛在的數(shù)據(jù)安全問(wèn)題承擔(dān)責(zé)任,并且負(fù)有對(duì)本企業(yè)及合作企業(yè)的數(shù)據(jù)安全風(fēng)險(xiǎn)的報(bào)告義務(wù)。生成式人工智能正全方位融入普通公眾的日常生活,監(jiān)管機(jī)關(guān)可向社會(huì)開(kāi)放更多的公眾監(jiān)督途徑,鼓勵(lì)公眾報(bào)告存在的人工智能風(fēng)險(xiǎn)。

      法律無(wú)法也不應(yīng)嘗試對(duì)科技與社會(huì)的所有關(guān)系作出回應(yīng),而在立法尚在探索的情況下,監(jiān)管部門(mén)也不應(yīng)只顧防范現(xiàn)實(shí)風(fēng)險(xiǎn),而應(yīng)該綜合科技發(fā)展、社會(huì)形態(tài)更迭等因素探索綜合治理模式。申言之,監(jiān)管部門(mén)不宜將有限的監(jiān)管資源分配到人工智能企業(yè)的所有事項(xiàng),而應(yīng)該集中有限的精力針對(duì)企業(yè)內(nèi)部的安全部門(mén)開(kāi)展再監(jiān)督,定期對(duì)上述安全部門(mén)的風(fēng)險(xiǎn)控制行為進(jìn)行評(píng)估、反饋與指導(dǎo)。進(jìn)而言之,政府可以通過(guò)投資重要信息網(wǎng)絡(luò)基礎(chǔ)設(shè)施、參與構(gòu)建大型語(yǔ)言模型等方式,降低中小企業(yè)研發(fā)生成式人工智能的數(shù)據(jù)、算力等成本,既優(yōu)化了生成式人工智能的研發(fā)格局,又加強(qiáng)了公共規(guī)制機(jī)關(guān)對(duì)研發(fā)運(yùn)營(yíng)全過(guò)程的把握。在更宏觀的層面,政府、企業(yè)、高等院校、科研院所等應(yīng)當(dāng)共同探索敏捷治理路徑,建立多方實(shí)時(shí)聯(lián)動(dòng)的治理體系[21],幫助公共規(guī)制機(jī)關(guān)及時(shí)調(diào)整規(guī)制手段,在有效防范風(fēng)險(xiǎn)的同時(shí)促進(jìn)我國(guó)生成式人工智能的發(fā)展。

      余論

      生成式人工智能的綜合治理,既關(guān)乎國(guó)家安全、社會(huì)秩序與人民群眾合法權(quán)益,又是決定我國(guó)能否把握人工智能技術(shù)革命的重要契機(jī)。生成式人工智能安全風(fēng)險(xiǎn)治理與其他安全風(fēng)險(xiǎn)治理的最大不同在于需要考量治理手段對(duì)未來(lái)科技發(fā)展、社會(huì)變革可能產(chǎn)生的重大影響,既不可規(guī)制過(guò)嚴(yán),又不可瞻前顧后。在梳理生成式人工智能不同于決策式人工智能的鮮明特征的基礎(chǔ)上,歸納多元安全風(fēng)險(xiǎn),探索并深化“科技—社會(huì)—法律”三元綜合治理模式,是生成式人工智能乃至通用型人工智能治理的題中應(yīng)有之義。而在人工智能立法不斷發(fā)展的未來(lái),可基于立法實(shí)踐開(kāi)展元規(guī)制模式研究[22],探索分層治理、敏捷治理理論與方法,完善人工智能綜合治理模式。

      猜你喜歡
      黑箱知識(shí)產(chǎn)權(quán)人工智能
      拒絕黑箱
      失蹤的黑箱
      2019:人工智能
      商界(2019年12期)2019-01-03 06:59:05
      人工智能與就業(yè)
      數(shù)讀人工智能
      小康(2017年16期)2017-06-07 09:00:59
      重慶五大舉措打造知識(shí)產(chǎn)權(quán)強(qiáng)市
      關(guān)于知識(shí)產(chǎn)權(quán)損害賠償?shù)膸c(diǎn)思考
      下一幕,人工智能!
      知識(shí)產(chǎn)權(quán)
      江蘇年鑒(2014年0期)2014-03-11 17:09:48
      知識(shí)產(chǎn)權(quán)侵權(quán)歸責(zé)原則之探討
      江淮論壇(2011年2期)2011-03-20 14:14:21
      辉县市| 达孜县| 工布江达县| 怀仁县| 沽源县| 龙井市| 汪清县| 中牟县| 霍林郭勒市| 桦南县| 和静县| 杭锦后旗| 二连浩特市| 于田县| 新密市| 克东县| 七台河市| 灵川县| 天津市| 庐江县| 威信县| 宣汉县| 郴州市| 南宁市| 丰台区| 多伦县| 米泉市| 温宿县| 布拖县| 南雄市| 馆陶县| 临澧县| 大田县| 安图县| 郴州市| 铜山县| 乡宁县| 万山特区| 云霄县| 湘潭县| 河曲县|