• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      ChatGPT類(lèi)應(yīng)用風(fēng)險(xiǎn)的治理誤區(qū)及其修正
      ——從“重構(gòu)式規(guī)制”到“階段性治理”

      2023-11-25 14:40:18許中緣鄭煌杰
      河南社會(huì)科學(xué) 2023年10期
      關(guān)鍵詞:法律算法

      許中緣,鄭煌杰

      (中南大學(xué) 法學(xué)院,湖南 長(zhǎng)沙 410083)

      2023 年被認(rèn)為是生成式人工智能(Generative Artificial Intelligence)元年,也是人工智能(以下簡(jiǎn)稱AI)領(lǐng)域的重要拐點(diǎn),以ChatGPT 為代表的生成式人工智能應(yīng)用的崛起,標(biāo)志著人類(lèi)社會(huì)正在經(jīng)歷一場(chǎng)知識(shí)革命。埃隆·馬斯克認(rèn)為ChatGPT 類(lèi)應(yīng)用的影響力不亞于iPhone;比爾·蓋茨也坦言到目前為止,只見(jiàn)過(guò)兩個(gè)真正具有“革命性”的技術(shù),一個(gè)是用戶圖形界面(現(xiàn)代操作系統(tǒng)的先驅(qū)),另一個(gè)就是在OpenAI 研發(fā)出的GPT 模型。申言之,ChatGPT類(lèi)應(yīng)用之所以能現(xiàn)象級(jí)躥紅,主要是因?yàn)镚PT 模型在算法(如Large Language Models,LLM 等大語(yǔ)言模型)方面實(shí)現(xiàn)了新的突破,即可以基于其訓(xùn)練數(shù)據(jù),獨(dú)立自主地創(chuàng)造文本、代碼、圖形等連貫性、具有意義的內(nèi)容。同時(shí),在海量數(shù)據(jù)與強(qiáng)大算力支撐下,ChatGPT 類(lèi)應(yīng)用既能“明白”人類(lèi)語(yǔ)言,“理解”自主學(xué)習(xí)期間獲得的“經(jīng)驗(yàn)”,也能“記住”知識(shí)進(jìn)而生成高質(zhì)量?jī)?nèi)容。這種人機(jī)互動(dòng)、橫跨多領(lǐng)域應(yīng)用以及自我生成內(nèi)容的技術(shù)特性,正在加快ChatGPT 類(lèi)應(yīng)用與人類(lèi)社會(huì)形成更加穩(wěn)固、廣泛與深刻的聯(lián)系。

      但ChatGPT類(lèi)應(yīng)用在給公眾帶來(lái)意外驚喜的同時(shí),也引發(fā)了諸多潛在風(fēng)險(xiǎn)。比如,意大利數(shù)據(jù)保護(hù)機(jī)構(gòu)以保護(hù)個(gè)人信息與隱私為由,臨時(shí)封禁了ChatGPT,在OpenAI 采取相應(yīng)措施后才解除封禁;又如,美國(guó)AI 與數(shù)字政策中心(Center for AI and Digital Policy)向監(jiān)管機(jī)關(guān)投訴,提出對(duì)OpenAI進(jìn)行合規(guī)調(diào)查,并要求其在建立安全防護(hù)措施之前禁止發(fā)布新的AI模型,這一系列事件表現(xiàn)出社會(huì)大眾對(duì)于目前AI 技術(shù)的擔(dān)憂。為了規(guī)范ChatGPT 類(lèi)應(yīng)用的使用,美國(guó)白宮于2023 年7 月21 日召集AI 七大公司(包括亞馬遜、谷歌、Meta、微軟、OpenAI等),要求其作出保障用戶權(quán)益的承諾,包括同意進(jìn)行安全測(cè)試、采用“水印”功能以告知用戶哪些內(nèi)容是由AI生成等以應(yīng)對(duì)相關(guān)風(fēng)險(xiǎn)。我國(guó)網(wǎng)信辦聯(lián)合國(guó)家發(fā)改委、科技部等七部門(mén)于2023年7月10日發(fā)布了《生成式人工智能服務(wù)管理暫行辦法》(以下簡(jiǎn)稱《暫行辦法》),其中明確了生成式人工智能技術(shù)的適用范圍、責(zé)任主體認(rèn)定等方面內(nèi)容,旨在為ChatGPT 類(lèi)應(yīng)用產(chǎn)業(yè)的安全發(fā)展提供前瞻性建議。

      在上述背景下,針對(duì)ChatGPT 類(lèi)應(yīng)用的法學(xué)研究也十分火熱,學(xué)者們對(duì)于如何回應(yīng)ChatGPT 類(lèi)應(yīng)用風(fēng)險(xiǎn)基本存在兩種立場(chǎng):一種立場(chǎng)認(rèn)為應(yīng)根據(jù)ChatGPT 類(lèi)應(yīng)用的特性,制定不同的產(chǎn)業(yè)政策和專項(xiàng)立法以系統(tǒng)治理其風(fēng)險(xiǎn)。該立場(chǎng)主張?jiān)贑hatGPT類(lèi)應(yīng)用成熟之前,利用法律手段對(duì)其進(jìn)行監(jiān)管和規(guī)范,以確保其應(yīng)用符合法律和倫理標(biāo)準(zhǔn)[1]。另一種立場(chǎng)則認(rèn)為ChatGPT 類(lèi)應(yīng)用尚未成熟,故法律應(yīng)避免過(guò)度干預(yù)技術(shù)發(fā)展,不宜過(guò)早對(duì)其進(jìn)行治理,以免阻礙其技術(shù)的持續(xù)創(chuàng)新[2]。這兩種立場(chǎng)的分歧在于法律是否需要對(duì)ChatGPT類(lèi)應(yīng)用風(fēng)險(xiǎn)采取專門(mén)立法的方式進(jìn)行治理,即本文指稱的“重構(gòu)式規(guī)制”。從更深層次而言,前一主張本質(zhì)上是一種“技術(shù)悲觀主義”,其以大數(shù)據(jù)、區(qū)塊鏈、元宇宙等數(shù)字技術(shù)風(fēng)險(xiǎn)為參照對(duì)象,認(rèn)為技術(shù)的創(chuàng)新必然會(huì)引發(fā)全新類(lèi)型的風(fēng)險(xiǎn),ChatGPT 類(lèi)應(yīng)用亦是如此。后一主張則屬于“法律有限主義”,即法律在調(diào)整社會(huì)關(guān)系或人們行為過(guò)程中發(fā)揮的功能是有限的,過(guò)窄或過(guò)寬地實(shí)施治理措施只會(huì)限制技術(shù)創(chuàng)新與發(fā)展的空間,故面對(duì)ChatGPT 類(lèi)新興技術(shù),法律所需要提供的只是一種技術(shù)激勵(lì)機(jī)制和發(fā)展方向上的指引[3]。然而,現(xiàn)階段應(yīng)如何應(yīng)對(duì)ChatGPT類(lèi)應(yīng)用風(fēng)險(xiǎn),不能僅僅從單一視角切入,因?yàn)榉呻y以完全預(yù)見(jiàn)技術(shù)創(chuàng)新的發(fā)展方向,也無(wú)法精準(zhǔn)判斷其引發(fā)的所有風(fēng)險(xiǎn)及損害范圍,唯有進(jìn)行整體性分析,包括對(duì)ChatGPT類(lèi)應(yīng)用的發(fā)展現(xiàn)狀和趨勢(shì)進(jìn)行深入研究,評(píng)估其現(xiàn)階段具體存在哪些風(fēng)險(xiǎn),以及對(duì)現(xiàn)有法律框架的適應(yīng)性進(jìn)行考量,才能確認(rèn)技術(shù)風(fēng)險(xiǎn)及產(chǎn)生的損害后果是否需要法律專門(mén)治理。因此,“ChatGPT類(lèi)應(yīng)用風(fēng)險(xiǎn)是否需要法律專門(mén)治理”這一問(wèn)題也就能細(xì)分為四個(gè)子問(wèn)題:第一,現(xiàn)階段ChatGPT類(lèi)應(yīng)用存在哪些潛在風(fēng)險(xiǎn);第二,這些風(fēng)險(xiǎn)及其損害后果是否需要法律專門(mén)治理;第三,倘若需要,應(yīng)選擇何種方式對(duì)ChatGPT類(lèi)應(yīng)用風(fēng)險(xiǎn)予以回應(yīng),是直接選擇“重構(gòu)式規(guī)制”,抑或是還存在其他治理方式;第四,在確定某種治理方式后,其治理框架具體應(yīng)如何構(gòu)建。本文將基于以上問(wèn)題展開(kāi)論述分析,并提出有針對(duì)性的因應(yīng)之策,希冀對(duì)ChatGPT 類(lèi)應(yīng)用及相關(guān)技術(shù)的治理與發(fā)展有所裨益。

      一、ChatGPT類(lèi)應(yīng)用的運(yùn)行機(jī)制及風(fēng)險(xiǎn)研判

      (一)ChatGPT類(lèi)應(yīng)用運(yùn)行機(jī)制闡釋

      ChatGPT 類(lèi)應(yīng)用目前主要包括兩種類(lèi)型:生成式對(duì)抗網(wǎng)絡(luò)(Generative Adversarial Network,GAN)和生成式預(yù)訓(xùn)練轉(zhuǎn)化器(Generative Pre-trained Transformer,GPT)。GAN是一種廣泛應(yīng)用的生成建模AI 技術(shù),由生成器和判別器兩個(gè)神經(jīng)網(wǎng)絡(luò)組成,并通過(guò)對(duì)抗訓(xùn)練的方式來(lái)提升生成模型的能力。生成器網(wǎng)絡(luò)負(fù)責(zé)從隨機(jī)噪聲中生成新的樣本,而判別器網(wǎng)絡(luò)則通過(guò)對(duì)比生成器生成的樣本和真實(shí)樣本來(lái)判斷生成器的性能。通過(guò)不斷地迭代訓(xùn)練生成器和判別器,GAN 可以生成高質(zhì)量、逼真的樣本。GPT 則使用大量公開(kāi)的文本數(shù)據(jù)進(jìn)行訓(xùn)練,并結(jié)合自回歸模型的思想,在給定的上下文語(yǔ)境中生成連貫、自然的文本。而ChatGPT是OpenAI公司研發(fā)的大型語(yǔ)言模型,根據(jù)其官方介紹,可以將ChatGPT 的運(yùn)行機(jī)制大致劃分為準(zhǔn)備階段、運(yùn)行階段和生成階段(見(jiàn)圖1)。在準(zhǔn)備階段,ChatGPT通過(guò)學(xué)習(xí)訓(xùn)練和算法升級(jí)來(lái)獲取知識(shí)和技能,其需要大量數(shù)據(jù)作為輸入內(nèi)容,以便從中提取模式和規(guī)律;在運(yùn)行階段,ChatGPT 利用自身算法模型來(lái)處理輸入數(shù)據(jù);在生成階段,ChatGPT不僅會(huì)生成高質(zhì)量結(jié)果,還會(huì)根據(jù)算法模型的反饋來(lái)優(yōu)化自身輸出的結(jié)果,以實(shí)現(xiàn)真正的自我學(xué)習(xí)[4]。

      圖1 ChatGPT運(yùn)行機(jī)制的具體步驟

      (二)ChatGPT類(lèi)應(yīng)用引發(fā)的潛在風(fēng)險(xiǎn)

      基于對(duì)ChatGPT類(lèi)應(yīng)用的準(zhǔn)備階段、運(yùn)行階段、生成階段的剖析,可以將其引發(fā)的潛在風(fēng)險(xiǎn)歸納為內(nèi)部風(fēng)險(xiǎn)與外部風(fēng)險(xiǎn)。內(nèi)部風(fēng)險(xiǎn)主要包括數(shù)據(jù)侵權(quán)風(fēng)險(xiǎn)、算法安全風(fēng)險(xiǎn),外部風(fēng)險(xiǎn)則主要包括應(yīng)用濫用與知識(shí)產(chǎn)權(quán)風(fēng)險(xiǎn)。

      1.數(shù)據(jù)侵權(quán)風(fēng)險(xiǎn)

      目前我國(guó)數(shù)據(jù)安全法律體系主要建立在《數(shù)據(jù)安全法》《網(wǎng)絡(luò)安全法》《個(gè)人信息保護(hù)法》體系的基礎(chǔ)上。ChatGPT類(lèi)應(yīng)用在此體系下引發(fā)的數(shù)據(jù)侵權(quán)風(fēng)險(xiǎn)具體表現(xiàn)在以下三個(gè)方面:

      首先,數(shù)據(jù)來(lái)源風(fēng)險(xiǎn)。ChatGPT 在準(zhǔn)備階段需要收集大量數(shù)據(jù)進(jìn)行訓(xùn)練,ChatGPT 的訓(xùn)練數(shù)據(jù)有些來(lái)自個(gè)人信息匯集(如用戶的人臉等可識(shí)別信息)。根據(jù)《個(gè)人信息保護(hù)法》第十三條規(guī)定,個(gè)人信息的處理應(yīng)事先取得信息主體的同意,但“取得信息主體的同意”這一步驟在ChatGPT 訓(xùn)練過(guò)程中難以實(shí)現(xiàn),目前還是未經(jīng)用戶同意就將獲取的個(gè)人數(shù)據(jù)用于訓(xùn)練。此外,ChatGPT 在訓(xùn)練階段獲取的個(gè)人信息,也容易違反《個(gè)人信息保護(hù)法》第六條規(guī)定的“限于實(shí)現(xiàn)處理目的的最小范圍”的要求。即使OpenAI提出其獲取的數(shù)據(jù)只用于特定目的,卻沒(méi)有說(shuō)明用于特定目的的數(shù)據(jù)是否包括模型中的訓(xùn)練數(shù)據(jù)(如用戶提問(wèn)的“數(shù)據(jù)內(nèi)容”),也沒(méi)有對(duì)其承諾行為作出法律保證,這將增加個(gè)人數(shù)據(jù)被過(guò)度處理的可能性。

      其次,數(shù)據(jù)使用風(fēng)險(xiǎn)。ChatGPT 在運(yùn)行階段主要存在以下風(fēng)險(xiǎn):其一,數(shù)據(jù)泄露風(fēng)險(xiǎn)。用戶向ChatGPT披露的個(gè)人信息(如用戶的姓名、地址等)、商業(yè)信息(如商業(yè)機(jī)密)等內(nèi)容會(huì)面臨被泄露的風(fēng)險(xiǎn)。如果這些信息被未經(jīng)授權(quán)的人訪問(wèn)或獲取,將導(dǎo)致用戶的隱私權(quán)受到侵犯以及商業(yè)利益受到損害[5]。另外,用戶的輸入(提問(wèn)信息)和交互信息也會(huì)被用于持續(xù)迭代訓(xùn)練,這也增加了信息安全的隱患。盡管OpenAI聲稱采取了安全保障措施(如脫敏處理、隱私計(jì)算等)來(lái)保護(hù)用戶數(shù)據(jù)①,但在客觀上無(wú)法完全消除數(shù)據(jù)泄露風(fēng)險(xiǎn),例如,黑客攻擊、技術(shù)故障或人為失誤等因素都會(huì)導(dǎo)致用戶數(shù)據(jù)的泄露。其二,個(gè)人信息刪除權(quán)“履行不能”風(fēng)險(xiǎn)。根據(jù)《個(gè)人信息保護(hù)法》第四十七條與《網(wǎng)絡(luò)安全法》第四十三條的規(guī)定,在一定條件下,個(gè)人信息的權(quán)利主體有權(quán)請(qǐng)求侵權(quán)人刪除相關(guān)信息。雖然OpenAI的隱私政策也規(guī)定了用戶享有查閱、更正和刪除個(gè)人信息等權(quán)利②,但由于ChatGPT的運(yùn)行機(jī)制較為復(fù)雜,運(yùn)營(yíng)主體是否滿足我國(guó)相關(guān)法律要求并真正刪除個(gè)人信息,還存在較大不確定性。其三,數(shù)據(jù)跨境流動(dòng)風(fēng)險(xiǎn)。當(dāng)國(guó)內(nèi)用戶使用ChatGPT 時(shí),相關(guān)信息會(huì)被傳輸?shù)骄惩膺\(yùn)營(yíng)商的數(shù)據(jù)處理中心,處理后的結(jié)果再由其進(jìn)行反饋。根據(jù)《個(gè)人信息保護(hù)法》第四十四條規(guī)定,信息主體對(duì)其個(gè)人信息的處理享有知情權(quán),用戶的個(gè)人信息在被傳輸前應(yīng)告知用戶并獲得其明確同意,但這個(gè)步驟在現(xiàn)階段是否能夠得到落實(shí)也有待考量。未經(jīng)審批許可的數(shù)據(jù)出境行為也會(huì)增加數(shù)據(jù)侵權(quán)風(fēng)險(xiǎn)。在數(shù)據(jù)跨境流動(dòng)過(guò)程中,如果企業(yè)或個(gè)人未經(jīng)相關(guān)部門(mén)的審批許可,擅自將用戶個(gè)人信息傳輸至境外,將導(dǎo)致用戶個(gè)人信息被未經(jīng)授權(quán)的第三方訪問(wèn)和使用,進(jìn)而違反《數(shù)據(jù)安全法》第十一條等相關(guān)法律規(guī)定③,這不僅會(huì)對(duì)用戶個(gè)人信息的安全性和隱私保護(hù)造成威脅,也會(huì)對(duì)企業(yè)及個(gè)人的聲譽(yù)和信譽(yù)造成嚴(yán)重影響。

      再次,數(shù)據(jù)可靠性風(fēng)險(xiǎn)。ChatGPT 的訓(xùn)練數(shù)據(jù)質(zhì)量直接影響到其輸出結(jié)果的準(zhǔn)確性。在準(zhǔn)備階段,研發(fā)者從網(wǎng)絡(luò)中選擇和獲取數(shù)據(jù),這種方式容易造成生成內(nèi)容不準(zhǔn)確,這種“不準(zhǔn)確”來(lái)自數(shù)據(jù)的不全面性、虛假信息的存在以及錯(cuò)誤信息的傳遞[6]。具言之,一方面,訓(xùn)練數(shù)據(jù)無(wú)法涵蓋所有語(yǔ)言和命題。網(wǎng)絡(luò)上的信息體量非常龐大且具有多樣性,但研發(fā)者無(wú)法獲取到所有數(shù)據(jù),這意味著訓(xùn)練出的模型將在某些特定領(lǐng)域或語(yǔ)言上表現(xiàn)不佳。例如,如果訓(xùn)練數(shù)據(jù)主要來(lái)自英文網(wǎng)站,那么模型在其他語(yǔ)言上的表現(xiàn)會(huì)受到限制,這種局限性會(huì)導(dǎo)致模型輸出的不準(zhǔn)確性。另一方面,訓(xùn)練數(shù)據(jù)中存在虛假或誤導(dǎo)的信息,如果這些信息被用于訓(xùn)練模型,那么模型會(huì)在生成內(nèi)容時(shí)重復(fù)并進(jìn)一步“擴(kuò)大”這些錯(cuò)誤信息的應(yīng)用范圍。

      2.算法安全風(fēng)險(xiǎn)

      ChatGPT在運(yùn)行階段主要是借助算法模型來(lái)分析與處理數(shù)據(jù)的,其將預(yù)訓(xùn)練與微調(diào)體系引入算法模型之中,進(jìn)而改變數(shù)據(jù)的產(chǎn)生及流通方式,但也進(jìn)一步增加了算法安全風(fēng)險(xiǎn),具體如下:

      第一,算法“可解釋性”風(fēng)險(xiǎn)。由于AI算法的復(fù)雜性和黑箱特性,人們很難理解和觀察算法的規(guī)則及決策過(guò)程。這種“算法黑箱”現(xiàn)象也給設(shè)計(jì)者和用戶帶來(lái)了困擾,因?yàn)橛袝r(shí)人們無(wú)法預(yù)見(jiàn)AI作出何種決策,也無(wú)法驗(yàn)證其決策是否合理和公正[7]。為了解決“算法黑箱”問(wèn)題,各國(guó)紛紛推動(dòng)算法披露和公開(kāi)的政策,并賦予“被決策者”解釋算法的權(quán)利。比如,歐盟頒布的《通用數(shù)據(jù)保護(hù)條例》(GDPR),要求企業(yè)在作出基于算法的決策時(shí),必須提供其可解釋性所涉及的原理、邏輯、技術(shù)規(guī)則等內(nèi)容④。美國(guó)民主黨則提出《算法責(zé)任法案》,其中要求AI算法的開(kāi)發(fā)者應(yīng)當(dāng)提供解釋算法決策的方法和工具⑤。然而,實(shí)現(xiàn)算法可解釋性并不容易。一方面,算法可解釋性要求通常比較抽象,缺乏具體指引。目前還沒(méi)有統(tǒng)一的標(biāo)準(zhǔn)和方法來(lái)衡量和評(píng)估算法的可解釋性。另一方面,算法的可解釋性程度較低。盡管有一些可解釋性的AI算法,如決策樹(shù)和邏輯回歸⑥,但在處理復(fù)雜的任務(wù)和大規(guī)模數(shù)據(jù)時(shí),這些算法的性能還不夠理想。

      第二,算法“公正性”風(fēng)險(xiǎn)。ChatGPT 在訓(xùn)練生成式模型時(shí),使用的數(shù)據(jù)集事先可能存在各種偏見(jiàn)和歧視,其可能源自數(shù)據(jù)采集過(guò)程中的人為因素,也可能來(lái)自社會(huì)中存在的不公平現(xiàn)象[8]。如果這些內(nèi)容未能得到有效處理,那么ChatGPT 的生成結(jié)果將受到影響,并進(jìn)一步放大不公平現(xiàn)象,進(jìn)而造成“公正性”風(fēng)險(xiǎn)。以教育領(lǐng)域?yàn)槔?,?dāng)使用生成式模型如ChatGPT 來(lái)為學(xué)生論文評(píng)分時(shí),如果訓(xùn)練數(shù)據(jù)偏向某類(lèi)人群,例如偏向男性學(xué)生或某個(gè)特定種族的學(xué)生,那么生成的評(píng)分結(jié)果會(huì)對(duì)這些群體有利,而對(duì)代表性不足的群體產(chǎn)生不公正的評(píng)分,這將直接加大原本就處于劣勢(shì)的人群與優(yōu)勢(shì)人群之間的“鴻溝”。

      第三,算法“可問(wèn)責(zé)性”風(fēng)險(xiǎn)。算法在一定程度上具有“技術(shù)中立性”,這使得其可以充當(dāng)一種信任工具而應(yīng)用于眾多領(lǐng)域,但也使得對(duì)其進(jìn)行問(wèn)責(zé)存在較大困難。理由在于算法侵權(quán)可能只是一種“應(yīng)然”風(fēng)險(xiǎn)并非“實(shí)然”發(fā)生的現(xiàn)象,或者只是損害結(jié)果的原因之一,這使得難以直接將算法行為和損害結(jié)果建立因果關(guān)系。例如,算法導(dǎo)致某個(gè)產(chǎn)品的銷(xiāo)售量下降,但是很難確定究竟是算法的問(wèn)題還是由其他因素導(dǎo)致的。進(jìn)一步而言,就算能夠證明算法與損害結(jié)果之間存在因果關(guān)系,在客觀上也會(huì)面臨操作困境。比如,當(dāng)算法被定性為商業(yè)機(jī)密,那么企業(yè)往往會(huì)以保護(hù)商業(yè)利益為由進(jìn)行抗辯,進(jìn)而拒絕透露相關(guān)信息。就算企業(yè)抗辯不成功,那么也需要中斷算法的運(yùn)行對(duì)其進(jìn)行審查,一次兩次尚無(wú)大礙,但如果頻繁發(fā)生,也會(huì)對(duì)企業(yè)的正常運(yùn)營(yíng)造成不利影響。

      3.應(yīng)用濫用與知識(shí)產(chǎn)權(quán)風(fēng)險(xiǎn)

      從ChatGPT 類(lèi)應(yīng)用濫用風(fēng)險(xiǎn)層面來(lái)看,德國(guó)哲學(xué)家卡爾·雅斯貝爾斯曾言,技術(shù)在本質(zhì)上既非善也非惡,只有人才賦予技術(shù)以意義。易言之,ChatGPT類(lèi)應(yīng)用的“好壞”在一定程度上也取決于其使用者。如不法分子為了謀取私益而濫用ChatGPT類(lèi)應(yīng)用,甚至將其異化為犯罪工具,進(jìn)而威脅個(gè)人和社會(huì)利益。具體來(lái)說(shuō):一方面,濫用ChatGPT進(jìn)行網(wǎng)絡(luò)詐騙。ChatGPT 作為一種強(qiáng)大的語(yǔ)言模型,具備生成文本、回答問(wèn)題和模仿人類(lèi)寫(xiě)作的能力,導(dǎo)致利用其進(jìn)行網(wǎng)絡(luò)詐騙的成本大幅降低。已有研究表明,GPT-3 生成的釣魚(yú)郵件“成功欺騙率”達(dá)到45%,GPT-4 則直接達(dá)到81%⑦。另一方面,濫用ChatGPT 進(jìn)行政治操縱,生成虛假新聞和政治言論等。不法分子可以利用ChatGPT 類(lèi)應(yīng)用生成假新聞、扭曲事實(shí)、偽造來(lái)源,以影響公眾對(duì)特定政治議題的態(tài)度[9]。正如美國(guó)民主黨眾議員伊薇特·克拉克在一份聲明中所言:“在即將到來(lái)的2024 年選舉周期,美國(guó)歷史上將首次有AI 生成內(nèi)容被用于競(jìng)選、政黨和超級(jí)政治行動(dòng)委員會(huì)的政治廣告。如果AI生成內(nèi)容能夠大規(guī)模操縱和欺騙人們,就可能對(duì)我們的國(guó)家安全和選舉安全造成毀滅性后果?!雹?/p>

      在ChatGPT類(lèi)應(yīng)用生成內(nèi)容的知識(shí)產(chǎn)權(quán)風(fēng)險(xiǎn)方面,ChatGPT使得AI 生成內(nèi)容的知識(shí)產(chǎn)權(quán)問(wèn)題變得更為復(fù)雜。早期弱AI時(shí)代的機(jī)器人,基本是充當(dāng)人類(lèi)的工具,承接一些基礎(chǔ)體力勞動(dòng)、進(jìn)行簡(jiǎn)單的互動(dòng),此時(shí)AI生成內(nèi)容難以成為“作品”。正如有學(xué)者所言,AI 的驅(qū)動(dòng)力本質(zhì)是算法程序,其無(wú)法完全表現(xiàn)人類(lèi)創(chuàng)作的個(gè)性,因此其成果不能成為著作權(quán)法意義上的作品[10]。而ChatGPT的出現(xiàn)給此類(lèi)結(jié)論帶來(lái)巨大挑戰(zhàn),尤其是GPT4.0版本的參數(shù)值已經(jīng)接近100 萬(wàn)億,并加入了規(guī)則獎(jiǎng)勵(lì)模型(rule-based reward models,RBRMs),這使得其具備了與人類(lèi)相當(dāng)?shù)乃伎寄芰蛣?chuàng)作能力,也使得其生成內(nèi)容具有一定的獨(dú)創(chuàng)性?;诖?,ChatGPT 生成內(nèi)容在知識(shí)產(chǎn)權(quán)層面存在三個(gè)詰問(wèn):第一,ChatGPT的生成內(nèi)容是否具有版權(quán)。由于ChatGPT生成內(nèi)容經(jīng)過(guò)復(fù)雜的信息抽取和語(yǔ)義識(shí)別等過(guò)程,類(lèi)似于著作權(quán)領(lǐng)域中的改編行為,故其生成內(nèi)容具有一定的獨(dú)創(chuàng)性。但也存在另一個(gè)問(wèn)題,用戶創(chuàng)作作品并不是完全依賴于ChatGPT,也許只是將后者作為一種輔助工具,那么此時(shí)應(yīng)如何確定版權(quán)又是一個(gè)新的難題,這需要理論界與實(shí)務(wù)界繼續(xù)深入研究。第二,ChatGPT 生成內(nèi)容的版權(quán)主體應(yīng)如何確定。ChatGPT在應(yīng)用過(guò)程中往往會(huì)涉及多個(gè)主體,包括用戶、技術(shù)開(kāi)發(fā)者等,那么其內(nèi)容生成的利益應(yīng)當(dāng)如何界定?有學(xué)者認(rèn)為可以參照職務(wù)作品的規(guī)定,將生成內(nèi)容利益歸屬于投資者,將用戶的輸入行為視為一種生產(chǎn)行為,但這種方式忽視了用戶的收益權(quán)利[11]。因此,需要思考如何建立一個(gè)公平的利益分享機(jī)制,確保所有參與者都能分享由ChatGPT 生成內(nèi)容帶來(lái)的利益。第三,ChatGPT 生成內(nèi)容的侵權(quán)風(fēng)險(xiǎn)應(yīng)如何承擔(dān)。ChatGPT的侵權(quán)風(fēng)險(xiǎn)主要源于數(shù)據(jù)獲取路徑的不透明,當(dāng)用戶的行為涉及未經(jīng)授權(quán)或超越授權(quán)的爬取數(shù)據(jù)時(shí),將侵犯他人的復(fù)制權(quán)、信息網(wǎng)絡(luò)傳播權(quán)等著作財(cái)產(chǎn)權(quán)。詳言之,當(dāng)用戶與ChatGPT 進(jìn)行互動(dòng)時(shí),生成內(nèi)容大多基于外來(lái)數(shù)據(jù)源,那么應(yīng)如何確保其爬取的數(shù)據(jù)已經(jīng)過(guò)訪問(wèn)路徑的全部授權(quán)?如確認(rèn)是未經(jīng)授權(quán),著作權(quán)人相關(guān)權(quán)益又如何得到保障?是追究用戶的責(zé)任還是追究研發(fā)者的責(zé)任?這些問(wèn)題也亟須予以回應(yīng)。

      二、ChatGPT類(lèi)應(yīng)用風(fēng)險(xiǎn)的治理誤區(qū):“重構(gòu)式規(guī)制”的質(zhì)疑

      (一)“重構(gòu)式規(guī)制”的邏輯缺陷:“新風(fēng)險(xiǎn)”等同于“新治理”

      前已述及,ChatGPT 類(lèi)應(yīng)用會(huì)帶來(lái)諸多法律風(fēng)險(xiǎn),但這些風(fēng)險(xiǎn)需要通過(guò)專門(mén)立法的方式加以治理嗎?換言之,是否必須使用“重構(gòu)式規(guī)制”的治理方式?答案是否定的,理由如下:

      首先,將ChatGPT 類(lèi)應(yīng)用作為調(diào)整對(duì)象超出了法律的規(guī)范邏輯。法律不是針對(duì)某個(gè)特定的技術(shù)產(chǎn)品或服務(wù)進(jìn)行具體規(guī)定,而是調(diào)整相應(yīng)的社會(huì)關(guān)系或相關(guān)行為。雖然目前許多學(xué)者傾向于采用交叉學(xué)科領(lǐng)域的研究方式,這在一定程度上有利于治理新興風(fēng)險(xiǎn),但法律自始至終的調(diào)整對(duì)象都是法律關(guān)系,而不僅是新興技術(shù)引發(fā)的各種風(fēng)險(xiǎn)。因此,當(dāng)前法律治理新興應(yīng)用或技術(shù)的核心還是在于其“使用行為”與“使用主體”,而不是被“新瓶裝舊酒”的表象所迷惑,將風(fēng)險(xiǎn)的“新興”等同于需采取“新型”治理方式。

      其次,現(xiàn)有法律制度尚能應(yīng)對(duì)ChatGPT 類(lèi)應(yīng)用所引發(fā)的風(fēng)險(xiǎn)。適用“重構(gòu)式規(guī)制”的前提應(yīng)該是法律制度完全不能應(yīng)對(duì)或預(yù)防“新興”風(fēng)險(xiǎn),然而實(shí)際情況卻是這些風(fēng)險(xiǎn)尚能劃入當(dāng)前法律制度的調(diào)整范圍,如有學(xué)者認(rèn)為將《數(shù)據(jù)安全法》《著作權(quán)法》《網(wǎng)絡(luò)安全法》等進(jìn)行延伸性解釋,足以應(yīng)對(duì)ChatGPT類(lèi)應(yīng)用引發(fā)的相關(guān)風(fēng)險(xiǎn)[12]。又如歐盟在針對(duì)ChatGPT 相關(guān)風(fēng)險(xiǎn)時(shí),采取的方式是成立特別工作小組,也是在不立新法的前提下,探索ChatGPT治理的通用政策⑨。從區(qū)塊鏈技術(shù)到元宇宙再到ChatGPT 類(lèi)應(yīng)用等相關(guān)立法舉措來(lái)看,會(huì)發(fā)現(xiàn)這些新興數(shù)字技術(shù)的立法思路通常是以其現(xiàn)實(shí)應(yīng)用的“場(chǎng)景化”“領(lǐng)域化”“技術(shù)化”為基礎(chǔ),關(guān)注調(diào)整在不同應(yīng)用場(chǎng)景下的法律關(guān)系變化,已經(jīng)出臺(tái)的《暫行辦法》就是最好的例證。即對(duì)于新興技術(shù)而言,義務(wù)型規(guī)范還是其治理規(guī)則的核心內(nèi)容,只不過(guò)其規(guī)則邏輯可以進(jìn)一步細(xì)化,如將ChatGPT 的風(fēng)險(xiǎn)治理分解為準(zhǔn)備階段的數(shù)據(jù)安全、運(yùn)行階段的算法模型安全、生成階段的算法輸出結(jié)果安全。

      再次,使用“重構(gòu)式規(guī)制”治理方式應(yīng)對(duì)ChatGPT 類(lèi)應(yīng)用風(fēng)險(xiǎn),極易陷入“技術(shù)規(guī)制法”的邏輯誤區(qū)。審視近幾年許多學(xué)者主張的“重構(gòu)式規(guī)制”內(nèi)容,如“加快技術(shù)立法的進(jìn)程,以緩和法律與技術(shù)之間的矛盾”“法律存在滯后性,難以應(yīng)對(duì)新興技術(shù)風(fēng)險(xiǎn)”等,可見(jiàn)其逐漸呈現(xiàn)出“新技術(shù)必然引發(fā)新風(fēng)險(xiǎn),而新風(fēng)險(xiǎn)理應(yīng)需要新型治理制度加以解決”的現(xiàn)象。《數(shù)據(jù)安全法》《網(wǎng)絡(luò)安全法》《個(gè)人信息保護(hù)法》等具有“技術(shù)性”特征的法律出臺(tái),的確是我國(guó)在數(shù)字法治體系建構(gòu)過(guò)程中的典范。如今,不管是數(shù)字技術(shù)安全治理架構(gòu),還是其規(guī)則適用,我國(guó)法律制度體系已經(jīng)有能力應(yīng)對(duì)各種層出不窮的新興技術(shù)風(fēng)險(xiǎn)。如果還是一味采取“重構(gòu)式規(guī)制”的主張,那么將引發(fā)重復(fù)立法、超前立法等問(wèn)題。

      (二)“重構(gòu)式規(guī)制”的誤區(qū)成因:“風(fēng)險(xiǎn)類(lèi)型”等同于“風(fēng)險(xiǎn)大小”

      “重構(gòu)式規(guī)制”并不是一種應(yīng)對(duì)新興技術(shù)風(fēng)險(xiǎn)的學(xué)術(shù)思潮,而是在大數(shù)據(jù)、區(qū)塊鏈、元宇宙等新興技術(shù)概念影響下才應(yīng)運(yùn)而生的,其產(chǎn)生的本質(zhì)原因在于法律制度自身的穩(wěn)定性與迭代創(chuàng)新的高新數(shù)字技術(shù)之間的脫節(jié)。在該主張的影響下,有些學(xué)者在研究新興數(shù)字技術(shù)相關(guān)法律風(fēng)險(xiǎn)時(shí),一旦發(fā)覺(jué)現(xiàn)有法律制度體系“貌似”無(wú)法預(yù)防或規(guī)制這些風(fēng)險(xiǎn)及其后果,就直接根據(jù)“立法者在立法時(shí)存在一定局限性,難以預(yù)見(jiàn)所有風(fēng)險(xiǎn)”之類(lèi)的理由,提出應(yīng)進(jìn)行“重構(gòu)式規(guī)制”?!稊?shù)據(jù)安全法》《個(gè)人信息保護(hù)法》等“技術(shù)性”法律規(guī)范文件,確實(shí)是為了解決現(xiàn)有法律制度無(wú)法處理的“真問(wèn)題”,但不是所有新興技術(shù)風(fēng)險(xiǎn)都等同于“真問(wèn)題”,都有資格成為立法的必要事由,特別是在AI技術(shù)領(lǐng)域。

      具體來(lái)說(shuō),ChatGPT 類(lèi)應(yīng)用風(fēng)險(xiǎn)評(píng)估通常不以其已產(chǎn)生的損害結(jié)果為標(biāo)準(zhǔn),而是以其可能引發(fā)的風(fēng)險(xiǎn)為依據(jù),同時(shí)基于其評(píng)估結(jié)果,這些技術(shù)風(fēng)險(xiǎn)在法律層面上的定性,如因果關(guān)系、侵權(quán)類(lèi)型、免責(zé)事由等都存在特定性。以前文所述的ChatGPT類(lèi)應(yīng)用風(fēng)險(xiǎn)為例:在數(shù)據(jù)侵權(quán)風(fēng)險(xiǎn)方面,履行數(shù)據(jù)保護(hù)義務(wù)的主體還是“法律主體”(如研發(fā)者、運(yùn)營(yíng)者等),其產(chǎn)生風(fēng)險(xiǎn)的原因也還是“法律行為”(如未采取有效的用戶數(shù)據(jù)保障措施等);在算法安全風(fēng)險(xiǎn)方面,將大模型算法擬制為侵權(quán)主體顯然與我國(guó)民事法律主體相關(guān)規(guī)定相悖,因此需承擔(dān)法律責(zé)任的主體依舊是算法技術(shù)背后的“操縱者”(如設(shè)計(jì)者、使用者、運(yùn)營(yíng)者等);在應(yīng)用濫用風(fēng)險(xiǎn)方面,不管犯罪行為構(gòu)成是適用“三要件”還是“四要件”,ChatGPT 始終也只是充當(dāng)犯罪行為的輔助工具,犯罪行為的認(rèn)定不會(huì)因?yàn)樾袨槿耸欠窠柚鶦hatGPT類(lèi)應(yīng)用而有所不同,這些高新數(shù)字技術(shù)的濫用只是屬于“社會(huì)危害性”“量刑情節(jié)”等方面的參考因素。由此可見(jiàn),基于ChatGPT所引發(fā)的風(fēng)險(xiǎn)而主張“重構(gòu)式規(guī)制”無(wú)法自證其理,究其本質(zhì)在于許多學(xué)者將“風(fēng)險(xiǎn)類(lèi)型”等同于“風(fēng)險(xiǎn)大小”。申言之,ChatGPT類(lèi)應(yīng)用風(fēng)險(xiǎn)只是在客觀上加大了“既存”風(fēng)險(xiǎn)發(fā)生概率以及風(fēng)險(xiǎn)損害后果,但仍然能適用現(xiàn)有的《數(shù)據(jù)安全法》《網(wǎng)絡(luò)安全法》等相關(guān)法律規(guī)定加以解決。

      (三)“重構(gòu)式規(guī)制”的誤區(qū)澄清:以技術(shù)應(yīng)用場(chǎng)景與方式為基礎(chǔ)

      就ChatGPT類(lèi)應(yīng)用風(fēng)險(xiǎn)治理而言,不提倡“重構(gòu)式規(guī)制”并不等同于不承認(rèn)其發(fā)揮的重要作用,而是為了闡釋三個(gè)問(wèn)題:

      首先,雖然ChatGPT類(lèi)應(yīng)用使得AI技術(shù)向強(qiáng)AI時(shí)代邁出了重要的一步,但其需適配的法律條款體量、責(zé)任規(guī)定認(rèn)定數(shù)量以及配套技術(shù)規(guī)范等還是不能達(dá)到制定單行法的標(biāo)準(zhǔn)。這也是由于立法往往滯后于技術(shù)的發(fā)展,造成法律必然無(wú)法全面覆蓋技術(shù)的應(yīng)用規(guī)范。同時(shí),隨著ChatGPT 類(lèi)應(yīng)用的商業(yè)化落地,其將廣泛應(yīng)用于不同場(chǎng)景,這種廣泛性特征在理論上恰好也證明了其風(fēng)險(xiǎn)的產(chǎn)生仍然是以應(yīng)用場(chǎng)景為導(dǎo)向的。在實(shí)踐中亦是如此,我國(guó)先后出臺(tái)了《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》等,也是為了規(guī)制算法在“推薦服務(wù)”“深度合成”等應(yīng)用領(lǐng)域引發(fā)的安全風(fēng)險(xiǎn)。因此,合理的立法邏輯應(yīng)當(dāng)是以技術(shù)應(yīng)用場(chǎng)景與應(yīng)用方式為基礎(chǔ),針對(duì)不同類(lèi)型的AI技術(shù)應(yīng)用制定相應(yīng)的義務(wù)規(guī)范,待到相關(guān)技術(shù)應(yīng)用較為成熟,與現(xiàn)有相關(guān)法律制度內(nèi)容的不適應(yīng)性逐漸消解后,再將這些規(guī)范整合成通用的技術(shù)治理規(guī)則。

      其次,不提倡“重構(gòu)式規(guī)制”并不意味著不承認(rèn)以產(chǎn)業(yè)保障機(jī)制推動(dòng)AI 技術(shù)創(chuàng)新發(fā)展?!爸貥?gòu)式規(guī)制”關(guān)注的是禁止性義務(wù),旨在預(yù)防潛在的安全風(fēng)險(xiǎn),而“產(chǎn)業(yè)保障式”立法則側(cè)重于監(jiān)管機(jī)構(gòu)提供的產(chǎn)業(yè)保障政策和創(chuàng)新促進(jìn)服務(wù)。這兩種立法導(dǎo)向在AI 技術(shù)的發(fā)展與治理過(guò)程中都起到重要作用。具體而言,“重構(gòu)式規(guī)制”可以更好地規(guī)范AI技術(shù)的應(yīng)用,以有效保護(hù)公眾利益和個(gè)人隱私安全等合法性權(quán)益;而“產(chǎn)業(yè)保障式”立法則可以為AI產(chǎn)業(yè)提供支持和保障,如通過(guò)數(shù)字技術(shù)基礎(chǔ)設(shè)施的建設(shè)、算力資源的統(tǒng)籌兼顧等方式促進(jìn)技術(shù)的創(chuàng)新和發(fā)展。

      再次,不提倡“重構(gòu)式規(guī)制”是為了厘清ChatGPT 類(lèi)應(yīng)用風(fēng)險(xiǎn)治理的立法邊界,即需要達(dá)到何種程度才有必要采取立法的手段以應(yīng)對(duì)相關(guān)風(fēng)險(xiǎn)。過(guò)去區(qū)塊鏈、云計(jì)算等信息技術(shù)風(fēng)險(xiǎn)確實(shí)符合“重構(gòu)式規(guī)制”立法的要求,但隨著我國(guó)技術(shù)規(guī)范法律體系逐漸完善,彼時(shí)的立法空白已經(jīng)得到了較大程度的填補(bǔ)。在此背景下,對(duì)于ChatGPT 類(lèi)應(yīng)用進(jìn)行專門(mén)立法至少應(yīng)滿足兩個(gè)前提條件:其一,立法能夠較大程度地降低企業(yè)合規(guī)成本,為相關(guān)技術(shù)主體提供明確的行為指引,細(xì)化其權(quán)利與義務(wù)的內(nèi)容,界定其法律責(zé)任范圍;其二,立法是無(wú)法避免的“過(guò)渡性選擇”,待到ChatGPT類(lèi)應(yīng)用相對(duì)成熟時(shí)期,再將這些專門(mén)立法條款進(jìn)行體系化整合,形成通用性原則或規(guī)則,以確保ChatGPT 類(lèi)應(yīng)用的合理使用與發(fā)展。

      三、ChatGPT類(lèi)應(yīng)用風(fēng)險(xiǎn)的治理路徑:“階段性治理”的契合

      (一)數(shù)字技術(shù)的法律治理:理論范式與思路探討

      當(dāng)前,一些學(xué)者嘗試引用其他學(xué)科的理論范式來(lái)闡釋法律對(duì)數(shù)字技術(shù)的治理邏輯,然而,由于新興技術(shù)的風(fēng)險(xiǎn)治理往往與其應(yīng)用場(chǎng)景及方式難以同步,導(dǎo)致容易陷入先驗(yàn)性法律研究的尷尬境地。數(shù)字技術(shù)在不斷地迭代更新,故其理論研究邏輯不應(yīng)只針對(duì)特定的技術(shù)或相關(guān)產(chǎn)品展開(kāi),而是需基于過(guò)去技術(shù)治理的制度經(jīng)驗(yàn),進(jìn)而形成具有普遍性的理論范式。審視目前學(xué)界的研究成果,主要存在“敏捷治理”“元治理”“生產(chǎn)治理”等理論范式。這些治理范式提出了靈活適應(yīng)技術(shù)變化的治理方法、跨學(xué)科的規(guī)制框架等內(nèi)容,有利于實(shí)現(xiàn)法律與技術(shù)的良性互動(dòng)和協(xié)同發(fā)展。

      首先,“敏捷治理”(Agile Governance)理論是一種對(duì)傳統(tǒng)治理的改良,其宗旨是將治理理論由相對(duì)模糊的理念轉(zhuǎn)變?yōu)榫哂锌刹僮餍缘姆桨?。其中“敏捷”二字意味著?duì)于未預(yù)料到的變化作出反應(yīng)的能力,這一理論最早應(yīng)用于公共管理學(xué)領(lǐng)域,此后逐漸演變?yōu)檠附?、協(xié)調(diào)的管理學(xué)理論范式,我國(guó)政府提出“政務(wù)一體化服務(wù)”“一網(wǎng)通辦”也是其應(yīng)用的典范[13]。這種治理方式強(qiáng)調(diào)快速反應(yīng)和靈活調(diào)整,此類(lèi)特征正好與高新數(shù)字技術(shù)的復(fù)雜架構(gòu)相契合,故有學(xué)者主張?jiān)摾碚撨m用于技術(shù)治理領(lǐng)域,不僅可以幫助監(jiān)管者及時(shí)應(yīng)對(duì)技術(shù)發(fā)展中的不確定性,也能加強(qiáng)與技術(shù)開(kāi)發(fā)者和用戶的溝通和合作,以便及時(shí)了解他們的需求和反饋,從而更好地指導(dǎo)技術(shù)的發(fā)展和應(yīng)用[14]。

      其次,“元治理”(Metagovernance)理論即“治理的治理”,旨在整合與平衡不同治理機(jī)制之間的關(guān)系。該理論最初應(yīng)用于德國(guó)食品安全領(lǐng)域的治理問(wèn)題,不同于國(guó)家治理模式(依賴于政府的直接干預(yù)),其核心思想在于通過(guò)自我治理,使治理對(duì)象獲得法律授權(quán),并通過(guò)內(nèi)部的標(biāo)準(zhǔn)體系來(lái)實(shí)現(xiàn)治理的目的[15]。近年,也有一些學(xué)者開(kāi)始將該理論引入技術(shù)治理領(lǐng)域,以應(yīng)對(duì)新興技術(shù)風(fēng)險(xiǎn)的挑戰(zhàn):以滴滴網(wǎng)約車(chē)為例,滴滴平臺(tái)扮演著重要的治理角色,通過(guò)建立有效的內(nèi)部管理機(jī)制,平臺(tái)可以實(shí)現(xiàn)自我治理并確保其服務(wù)質(zhì)量和安全性[16]。這種基于“元治理”理論的治理方式,不僅能夠提高行業(yè)的自律性,還能夠減輕政府的監(jiān)管負(fù)擔(dān),實(shí)現(xiàn)高效與靈活治理[17]。

      再次,“生產(chǎn)治理”(Production Management)理論是指法律制度應(yīng)保證新型生產(chǎn)方式(涵蓋生產(chǎn)資料與生產(chǎn)關(guān)系)的合法性[18]。在這一理論框架下,有學(xué)者以腦機(jī)接口(Brain-Machine Interface,BMI)技術(shù)風(fēng)險(xiǎn)治理為例,提出法律對(duì)于技術(shù)的治理主要體現(xiàn)在兩個(gè)方面,即判定新興技術(shù)是否合法及如何合理分配生產(chǎn)利益[19]。然而,在客觀上存在立法難以“先于”技術(shù)以及技術(shù)創(chuàng)新很可能直接改變生產(chǎn)關(guān)系等情況,造成法律在治理新興技術(shù)風(fēng)險(xiǎn)上還存在較大困難。申言之,法律治理技術(shù)的基本思路應(yīng)是通過(guò)四個(gè)階段展開(kāi):其一,法律需要跟隨新興技術(shù)的發(fā)展,及時(shí)確認(rèn)新興技術(shù)的合法性。這意味著法律應(yīng)當(dāng)對(duì)新技術(shù)進(jìn)行審查和評(píng)估,確保其符合法律的要求,并為其提供合法的發(fā)展環(huán)境。其二,法律應(yīng)當(dāng)區(qū)分新技術(shù)的單一功能和通用功能的技術(shù)模式。對(duì)于單一功能的技術(shù)模式,法律可以通過(guò)特定的規(guī)則來(lái)確保其合法使用;而對(duì)于通用功能的技術(shù)模式,法律則需要更加靈活和開(kāi)放,以適應(yīng)其多樣化的應(yīng)用場(chǎng)景。其三,法律應(yīng)當(dāng)關(guān)注技術(shù)的平臺(tái)化模式。隨著技術(shù)的發(fā)展,越來(lái)越多的技術(shù)以平臺(tái)的形式存在,故亟須確保平臺(tái)的合法性和公正性。其四,法律也應(yīng)當(dāng)固化技術(shù)的應(yīng)用場(chǎng)景。技術(shù)的不斷創(chuàng)新使得其應(yīng)用場(chǎng)景也在不斷擴(kuò)大,故法律應(yīng)確定其應(yīng)用的邊界,以保證技術(shù)的合法應(yīng)用,防止其濫用和侵害他人合法權(quán)益。

      (二)ChatGPT 類(lèi)應(yīng)用風(fēng)險(xiǎn)治理的基本立場(chǎng):以“階段性治理”為原則

      分析前述各種理論范式,不難發(fā)現(xiàn)一個(gè)共同點(diǎn):法律不是萬(wàn)能的,其對(duì)于技術(shù)的治理功能是有限的。因此,法律不僅需要與其他治理工具相結(jié)合,以實(shí)現(xiàn)應(yīng)然的治理效果;還需要確定其自身的調(diào)整目標(biāo),以合理公正地分配各方利益。然而,學(xué)界在理論層面習(xí)慣于討論“法律如何治理技術(shù)”這一問(wèn)題,卻忽略了另一個(gè)重要問(wèn)題,即技術(shù)對(duì)法律有何需求,換言之,什么樣的法律才是技術(shù)所需要的。如今,法學(xué)理論研究正面臨著技術(shù)帶來(lái)的諸多挑戰(zhàn),傳統(tǒng)法學(xué)理論范式和基礎(chǔ)概念逐漸呈現(xiàn)出無(wú)法適應(yīng)技術(shù)發(fā)展之態(tài),這也引發(fā)了學(xué)者們對(duì)法律與技術(shù)之間關(guān)系的研究。以ChatGPT類(lèi)應(yīng)用的核心部分——算法為例,過(guò)去算法只是計(jì)算機(jī)技術(shù)學(xué)科的基本內(nèi)容,如今卻是法學(xué)理論界與實(shí)務(wù)界研究的前沿問(wèn)題。從更深層次來(lái)看,創(chuàng)新性數(shù)字技術(shù)的出現(xiàn)不僅使得算法的影響范圍發(fā)生了巨大變化,也使得法律對(duì)其的治理方式發(fā)生改變。具體來(lái)說(shuō),曾經(jīng)算法對(duì)人們權(quán)利的影響只是局限于對(duì)應(yīng)的產(chǎn)品或服務(wù),因此法律主要也是以產(chǎn)品或服務(wù)為調(diào)整對(duì)象。然而,隨著數(shù)字平臺(tái)的崛起,算法作為平臺(tái)信息服務(wù)的重要工具,通過(guò)收集、分析、使用相關(guān)數(shù)據(jù)加強(qiáng)市場(chǎng)力量,但也極易引發(fā)“算法歧視”“算法合謀”等負(fù)面效應(yīng),進(jìn)而損害消費(fèi)者的選擇權(quán)、知情權(quán)等合法權(quán)益,使得學(xué)界重新審視算法的法律屬性[20]。最典型的現(xiàn)象就是,許多學(xué)者開(kāi)始質(zhì)疑“技術(shù)中立”的合理性,雖然算法本身難以直接造成侵權(quán)后果,但當(dāng)其從抽象代碼轉(zhuǎn)化為具體服務(wù)或產(chǎn)品時(shí),相關(guān)主體行為就容易受其影響[21]。由此可見(jiàn),算法在不同發(fā)展階段的法律屬性有所差異,法律也是基于其發(fā)展階段性特征而在治理方式上作出相應(yīng)調(diào)整。因此,對(duì)于ChatGPT類(lèi)應(yīng)用,也應(yīng)以其發(fā)展的階段性特征為基礎(chǔ)進(jìn)行治理,而不是忽略其發(fā)展的客觀規(guī)律,直接討論未來(lái)不明確的技術(shù)應(yīng)用趨勢(shì)對(duì)當(dāng)前法律關(guān)系有何影響。

      四、ChatGPT類(lèi)應(yīng)用風(fēng)險(xiǎn)的治理框架:“階段性治理”的貫徹

      (一)數(shù)字技術(shù)發(fā)展與法律治理協(xié)同:“階段性治理”的意涵

      倘若“階段性治理”的意涵只是包括法律需要基于技術(shù)發(fā)展階段的特征來(lái)調(diào)整其治理方式,那么該主張的價(jià)值就顯得無(wú)足輕重。審視我國(guó)的技術(shù)立法進(jìn)程,會(huì)發(fā)現(xiàn)其主要是基于技術(shù)創(chuàng)新與技術(shù)風(fēng)險(xiǎn)預(yù)防而展開(kāi)。具體而言,技術(shù)創(chuàng)新的立法思路是根據(jù)市場(chǎng)、資源、政策等客觀因素來(lái)制定相應(yīng)的法律條文,如《上海市促進(jìn)人工智能產(chǎn)業(yè)發(fā)展條例》《廣東省數(shù)字經(jīng)濟(jì)促進(jìn)條例》等地方性法規(guī)。技術(shù)風(fēng)險(xiǎn)預(yù)防的立法思路則是以主體的權(quán)利義務(wù)為依據(jù),強(qiáng)調(diào)數(shù)字平臺(tái)、數(shù)據(jù)處理者等法律主體在技術(shù)應(yīng)用場(chǎng)景中的義務(wù)及其履行方式,如《暫行辦法》《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》等規(guī)范性文件[22]。由此可見(jiàn),我國(guó)立法者基本還是以技術(shù)發(fā)展階段性特征為依據(jù)進(jìn)行相應(yīng)立法,而不是按照“重構(gòu)式規(guī)制”主張那般創(chuàng)設(shè)全新的法律制度體系,這恰好也是技術(shù)發(fā)展所需要的法律治理方式。

      在貫徹“階段性治理”的意涵之下,高新數(shù)字技術(shù)的法律治理可以大致劃分為三個(gè)階段,即“技術(shù)概念創(chuàng)新化”的第一階段、“技術(shù)應(yīng)用具體化”的第二階段、“技術(shù)應(yīng)用普遍化”的第三階段。首先,“技術(shù)概念創(chuàng)新化”是技術(shù)發(fā)展的起點(diǎn),其主要特征是在概念層面提出具有可行性的技術(shù)概念,并通過(guò)產(chǎn)業(yè)界對(duì)未來(lái)可能的應(yīng)用場(chǎng)景及其風(fēng)險(xiǎn)進(jìn)行設(shè)想。在這一階段,技術(shù)的創(chuàng)新主要集中在概念層面,具體的技術(shù)應(yīng)用尚未出現(xiàn),因此,法律對(duì)技術(shù)的治理主要還是在理論層面,以評(píng)估技術(shù)概念的風(fēng)險(xiǎn)與現(xiàn)有法律制度概念的適配性為限。由于技術(shù)本身存在許多不確定性,故在此階段尚不必針對(duì)其相關(guān)風(fēng)險(xiǎn)進(jìn)行專門(mén)立法[23]。其次,“技術(shù)應(yīng)用具體化”是技術(shù)發(fā)展的關(guān)鍵階段,此時(shí)技術(shù)開(kāi)始在實(shí)踐中進(jìn)行單一應(yīng)用或試點(diǎn)應(yīng)用。這個(gè)階段的技術(shù)發(fā)展方向和應(yīng)用場(chǎng)景已經(jīng)相對(duì)確立,未來(lái)技術(shù)風(fēng)險(xiǎn)的發(fā)生及其種類(lèi)也得到了確認(rèn),故法律對(duì)技術(shù)的治理方式轉(zhuǎn)向行政監(jiān)管制度的構(gòu)建和相關(guān)法律模式的選擇,以制定有關(guān)技術(shù)應(yīng)用方式和應(yīng)用場(chǎng)景的禁止性規(guī)范,其規(guī)范的主要目的是限制技術(shù)的不當(dāng)使用。再次,“技術(shù)應(yīng)用普遍化”是技術(shù)發(fā)展的最終目標(biāo),涉及技術(shù)商業(yè)化和廣泛應(yīng)用。在完成了特定場(chǎng)景下的試點(diǎn)應(yīng)用之后,技術(shù)開(kāi)始商業(yè)化,甚至在特定行業(yè)中已經(jīng)出現(xiàn)相對(duì)安全和成熟的產(chǎn)品或服務(wù)。相對(duì)于前兩個(gè)階段,該階段實(shí)現(xiàn)了技術(shù)安全風(fēng)險(xiǎn)的具體化。此時(shí),法律對(duì)技術(shù)的治理方式從自上而下的監(jiān)管制度構(gòu)建,轉(zhuǎn)向了平等法律主體之間權(quán)利義務(wù)的確認(rèn),故需要明確技術(shù)開(kāi)發(fā)者和使用者等相關(guān)主體應(yīng)承擔(dān)何種限度的安全保障義務(wù),以確保技術(shù)在普遍推廣應(yīng)用中的合法性。

      基于當(dāng)前ChatGPT 類(lèi)應(yīng)用的發(fā)展?fàn)顩r,可知其尚處于“技術(shù)概念創(chuàng)新化”階段到“技術(shù)應(yīng)用具體化”階段的過(guò)渡時(shí)期。換言之,ChatGPT類(lèi)應(yīng)用尚未完全“具體化”,更不用說(shuō)“普遍化”了,故其治理方式不應(yīng)選擇“重構(gòu)式規(guī)制”,而應(yīng)選擇合適的治理框架與治理舉措。易言之,一方面關(guān)乎推動(dòng)科學(xué)技術(shù)的持續(xù)發(fā)展與創(chuàng)新,另一方面關(guān)乎保障人們?cè)跀?shù)字時(shí)代下的合法權(quán)益,如何在現(xiàn)行法律制度體系下有效平衡兩者的關(guān)系,這不僅是ChatGPT 類(lèi)應(yīng)用風(fēng)險(xiǎn)治理的難題,也是數(shù)字法治亟須解決的核心問(wèn)題。

      (二)ChatGPT類(lèi)應(yīng)用風(fēng)險(xiǎn)的治理路徑:“階段性治理”框架的建構(gòu)

      首先,“階段性治理”框架在整體上應(yīng)堅(jiān)持包容審慎原則。ChatGPT類(lèi)應(yīng)用的崛起為數(shù)字經(jīng)濟(jì)帶來(lái)了新的機(jī)遇,同時(shí)也迫使傳統(tǒng)應(yīng)用程序進(jìn)行功能上的升級(jí)和轉(zhuǎn)型。比如,ChatGPT 可以解決傳統(tǒng)搜索引擎搜索廣告過(guò)多以及檢索結(jié)果質(zhì)量低下的問(wèn)題。雖然ChatGPT 類(lèi)應(yīng)用會(huì)對(duì)傳統(tǒng)應(yīng)用服務(wù)如翻譯、搜索和潤(rùn)色等造成沖擊和挑戰(zhàn),甚至逐漸取代其應(yīng)用的市場(chǎng)份額,但這正是由技術(shù)革新引發(fā)的經(jīng)濟(jì)形態(tài)所帶來(lái)的正向競(jìng)爭(zhēng)收益,也是市場(chǎng)正常競(jìng)爭(zhēng)的一種值得鼓勵(lì)的行為。因此在這個(gè)過(guò)程中,法律應(yīng)該保持謙抑并扮演激勵(lì)性的引導(dǎo)角色[24]。當(dāng)然,ChatGPT類(lèi)應(yīng)用的發(fā)展也必須遵循法治的軌道,“技術(shù)中立”不應(yīng)被當(dāng)作技術(shù)濫用的借口,更不能打著技術(shù)創(chuàng)新的“幌子”侵害他人的合法權(quán)益及社會(huì)公共利益。簡(jiǎn)言之,應(yīng)堅(jiān)持包容審慎的治理原則,以確保將ChatGPT類(lèi)應(yīng)用引發(fā)的法律風(fēng)險(xiǎn)降至合理限度。需要強(qiáng)調(diào)的是,現(xiàn)階段ChatGPT 類(lèi)應(yīng)用治理的目標(biāo)主要在于降低并控制風(fēng)險(xiǎn),但不阻礙其創(chuàng)新與發(fā)展,即法律的角色定位在于提供一個(gè)持續(xù)創(chuàng)新和公平競(jìng)爭(zhēng)的環(huán)境,并確保技術(shù)的合規(guī)性與合法性,同時(shí)根據(jù)技術(shù)發(fā)展的階段性特征靈活調(diào)整其治理方式。

      其次,應(yīng)加強(qiáng)對(duì)ChatGPT 類(lèi)應(yīng)用機(jī)制的階段性合規(guī)審查。在AI技術(shù)發(fā)展的初期階段,技術(shù)研發(fā)者往往會(huì)以技術(shù)創(chuàng)新為原則,使得技術(shù)能夠快速進(jìn)入“具體化應(yīng)用”階段,從而更好地為使用者服務(wù)。在這一階段,AI技術(shù)的應(yīng)用場(chǎng)景主要是基于小型數(shù)據(jù)樣本進(jìn)行訓(xùn)練,鑒于其自我學(xué)習(xí)能力與算力有限,無(wú)法主動(dòng)爬取與分析互聯(lián)網(wǎng)上的各種數(shù)據(jù)信息,故該階段的風(fēng)險(xiǎn)主要來(lái)源于使用者(包括前端研發(fā)者、運(yùn)營(yíng)者等)提供的小型數(shù)據(jù)樣本是否合規(guī)[25]。申言之,此時(shí)風(fēng)險(xiǎn)治理的重點(diǎn)應(yīng)是對(duì)使用者的資質(zhì)及行為的審核,以確保數(shù)據(jù)的合法獲取和有效管理;而對(duì)AI技術(shù)本身還是需秉持包容審慎治理的原則,以平衡技術(shù)創(chuàng)新和風(fēng)險(xiǎn)控制之間的關(guān)系。然而,隨著ChatGPT類(lèi)應(yīng)用的問(wèn)世,AI的訓(xùn)練數(shù)據(jù)量不斷增大,模型算法和算力也日益強(qiáng)大,從而導(dǎo)致風(fēng)險(xiǎn)覆蓋的范圍也不斷擴(kuò)大,涵蓋了模型訓(xùn)練(準(zhǔn)備階段)、應(yīng)用運(yùn)行(運(yùn)行階段)以及人機(jī)交互后的模型再訓(xùn)練(生成階段);同時(shí)由于算法作用過(guò)程和決策機(jī)制具有隱蔽性與復(fù)雜性特征,這些綜合因素所引發(fā)的技術(shù)合規(guī)風(fēng)險(xiǎn)已經(jīng)不容忽視,故亟須采取一系列措施來(lái)應(yīng)對(duì)并控制其風(fēng)險(xiǎn),否則將導(dǎo)致技術(shù)被濫用。具體而言,其一,在模型訓(xùn)練階段,一方面應(yīng)加強(qiáng)對(duì)數(shù)據(jù)的質(zhì)量管理和隱私保護(hù),確保訓(xùn)練數(shù)據(jù)的獲取和使用符合相關(guān)法律法規(guī),并且避免數(shù)據(jù)的偏見(jiàn)或歧視;另一方面應(yīng)積極探索研究如何確保模型訓(xùn)練的透明度和可解釋性,以便更好地理解模型的決策過(guò)程和結(jié)果。其二,在應(yīng)用運(yùn)行階段,需要健全監(jiān)管機(jī)制和審查程序,保證ChatGPT 類(lèi)應(yīng)用系統(tǒng)運(yùn)行的合規(guī)性,并且能夠?qū)ζ溥M(jìn)行持續(xù)的監(jiān)測(cè)和評(píng)估,這需要借助第三方審查機(jī)構(gòu)或獨(dú)立監(jiān)管機(jī)構(gòu)對(duì)其系統(tǒng)的功能和決策進(jìn)行審核和驗(yàn)證。其三,在人機(jī)交互后的模型再訓(xùn)練階段,應(yīng)重視用戶的參與權(quán)和知情權(quán)。在處理或傳輸用戶數(shù)據(jù)前,應(yīng)以明確的方式(如設(shè)置“未經(jīng)許可無(wú)法進(jìn)行數(shù)據(jù)處理”的標(biāo)識(shí)語(yǔ)等)征得用戶的同意,并保障其數(shù)據(jù)的安全和隱私不受侵犯,否則需承擔(dān)相應(yīng)的法律責(zé)任。

      再次,可以充分利用AI標(biāo)準(zhǔn)認(rèn)證和科技倫理等軟法治理手段,構(gòu)建一個(gè)標(biāo)準(zhǔn)化的AI治理社會(huì)化服務(wù)體系,以契合“階段性治理”的邏輯[26]。在AI標(biāo)準(zhǔn)認(rèn)證方面,我國(guó)在《國(guó)家標(biāo)準(zhǔn)化發(fā)展綱要》中已提出,標(biāo)準(zhǔn)化在推進(jìn)國(guó)家治理體系和治理能力現(xiàn)代化中發(fā)揮著基礎(chǔ)性、引領(lǐng)性作用⑩。AI 標(biāo)準(zhǔn)認(rèn)證是推動(dòng)AI技術(shù)發(fā)展和治理的重要手段,其主要包括技術(shù)標(biāo)準(zhǔn)和治理倫理標(biāo)準(zhǔn)。具體而言,技術(shù)標(biāo)準(zhǔn)是AI標(biāo)準(zhǔn)認(rèn)證的核心組成部分之一,通過(guò)制定科學(xué)的技術(shù)標(biāo)準(zhǔn),可以確保AI 系統(tǒng)在各個(gè)方面的性能和安全性。技術(shù)標(biāo)準(zhǔn)可以涉及AI算法的設(shè)計(jì)和開(kāi)發(fā)、數(shù)據(jù)的處理和使用、運(yùn)行系統(tǒng)的可靠性和穩(wěn)定性等階段。例如,針對(duì)ChatGPT類(lèi)應(yīng)用算法,可以制定對(duì)其可解釋性、公正性、可問(wèn)責(zé)性等方面的評(píng)估標(biāo)準(zhǔn),以及對(duì)數(shù)據(jù)的隱私、安全性等方面的要求。同時(shí),治理倫理標(biāo)準(zhǔn)在AI 標(biāo)準(zhǔn)認(rèn)證中的作用也同樣重要。在AI技術(shù)發(fā)展的過(guò)程中,AI系統(tǒng)的應(yīng)用會(huì)涉及一些敏感問(wèn)題,如個(gè)人隱私的保護(hù)、公正性和歧視性等問(wèn)題,通過(guò)制定治理倫理標(biāo)準(zhǔn),可以確保ChatGPT類(lèi)應(yīng)用符合人類(lèi)價(jià)值觀和法律法規(guī)的要求,同時(shí)有效控制其潛在風(fēng)險(xiǎn)。當(dāng)然,為了評(píng)估AI系統(tǒng)的可信性和合規(guī)性,建立市場(chǎng)化的AI治理社會(huì)化服務(wù)體系也是必要的。通過(guò)授權(quán)第三方機(jī)構(gòu),采取認(rèn)證、檢測(cè)、評(píng)估等方式,并依據(jù)技術(shù)標(biāo)準(zhǔn)和治理倫理標(biāo)準(zhǔn),對(duì)ChatGPT類(lèi)應(yīng)用進(jìn)行系統(tǒng)性評(píng)估與審查。英國(guó)是構(gòu)建AI 治理社會(huì)化服務(wù)體系的典范,其在2021 年12月發(fā)布的《建立有效人工智能認(rèn)證生態(tài)系統(tǒng)的路線圖》中提出,希望在未來(lái)5 年培育一個(gè)世界領(lǐng)先、規(guī)模龐大的AI認(rèn)證行業(yè)。美國(guó)政府也計(jì)劃通過(guò)第三方平臺(tái)讓用戶(包括使用者、AI 專家等)對(duì)OpenAI等公司的AI模型進(jìn)行評(píng)估,以探索ChatGPT類(lèi)應(yīng)用如何遵循AI 相關(guān)標(biāo)準(zhǔn)[27]。鑒于我國(guó)目前在AI 產(chǎn)業(yè)領(lǐng)域與英美等國(guó)處于激烈競(jìng)爭(zhēng)的階段,亟須加快構(gòu)建AI 治理社會(huì)化服務(wù)體系,發(fā)揮下游AI 標(biāo)準(zhǔn)認(rèn)證的優(yōu)勢(shì),以更好地承接與貫徹上游的立法和監(jiān)管要求。而在科技倫理治理方面,我國(guó)2022年3月出臺(tái)的《關(guān)于加強(qiáng)科技倫理治理的意見(jiàn)》也提出,需要明確創(chuàng)新主體的科技倫理管理責(zé)任,包括開(kāi)展科技倫理風(fēng)險(xiǎn)監(jiān)測(cè)預(yù)警、評(píng)估、審查等活動(dòng)。ChatGPT類(lèi)應(yīng)用不能僅僅依賴事后補(bǔ)救的手段來(lái)解決倫理問(wèn)題,而應(yīng)積極主動(dòng)采取多種方式履行科技倫理管理責(zé)任,如AI風(fēng)險(xiǎn)管理機(jī)制、倫理嵌入代碼設(shè)計(jì)、AI倫理培訓(xùn)等。國(guó)外主流科技公司在這方面已經(jīng)積累了一些成功經(jīng)驗(yàn),比如,IBM 公司首席技術(shù)人員Christina Montgomery 提出,AI 相關(guān)企業(yè)應(yīng)當(dāng)構(gòu)建內(nèi)部治理程序,委任一名AI倫理主管負(fù)責(zé)公司的可信AI 戰(zhàn)略,同時(shí)創(chuàng)建AI 倫理委員會(huì)或類(lèi)似職能部門(mén),以統(tǒng)籌協(xié)調(diào)機(jī)構(gòu)落實(shí)該戰(zhàn)略;IBM 認(rèn)為,倘若AI 企業(yè)不積極主動(dòng)公開(kāi)并貫徹自己的原則,那么將在市場(chǎng)上無(wú)法立足。

      最后,可以建立“監(jiān)管沙盒”以預(yù)防ChatGPT 類(lèi)應(yīng)用的“階段性”風(fēng)險(xiǎn)。監(jiān)管沙盒是英國(guó)為促進(jìn)金融科技監(jiān)管提出的一種監(jiān)管模式,旨在實(shí)現(xiàn)金融科技企業(yè)的創(chuàng)新與監(jiān)管的有機(jī)統(tǒng)一[28]。引入該模式是為了給ChatGPT 類(lèi)應(yīng)用企業(yè)提供一個(gè)測(cè)試環(huán)境,以便評(píng)估技術(shù)創(chuàng)新對(duì)社會(huì)與公民利益的影響。從監(jiān)管機(jī)構(gòu)的角度來(lái)看,監(jiān)管沙盒具備諸多優(yōu)勢(shì):一方面,它使得監(jiān)管機(jī)構(gòu)能夠更全面地評(píng)估技術(shù)運(yùn)行風(fēng)險(xiǎn),這對(duì)于制定有針對(duì)性的監(jiān)管政策和規(guī)定至關(guān)重要。通過(guò)在監(jiān)管沙盒中進(jìn)行試驗(yàn)和模擬,監(jiān)管機(jī)構(gòu)可以更好地理解企業(yè)的創(chuàng)新實(shí)踐,從而為其監(jiān)管過(guò)程提供有價(jià)值的信息。另一方面,監(jiān)管沙盒有助于提升監(jiān)管效率。相比傳統(tǒng)的監(jiān)管方式,監(jiān)管沙盒能夠更快地響應(yīng)市場(chǎng)上的變化和創(chuàng)新,有助于降低審批流程的時(shí)間成本,從而提高監(jiān)管的效力和敏捷性。對(duì)于企業(yè)來(lái)說(shuō),監(jiān)管沙盒也存在諸多益處:其一,它可以協(xié)助企業(yè)縮短獲得監(jiān)管批準(zhǔn)的審批流程。在傳統(tǒng)監(jiān)管模式下,企業(yè)需要經(jīng)歷煩瑣的審批程序才能將其技術(shù)創(chuàng)新應(yīng)用于市場(chǎng);然而,在監(jiān)管沙盒中,企業(yè)可以通過(guò)與監(jiān)管機(jī)構(gòu)合作,根據(jù)具體的監(jiān)管要求進(jìn)行測(cè)試和驗(yàn)證,從而加快創(chuàng)新產(chǎn)品的上線速度。其二,監(jiān)管沙盒有助于企業(yè)與監(jiān)管機(jī)構(gòu)建立有效的溝通機(jī)制。通過(guò)監(jiān)管沙盒,企業(yè)可以與監(jiān)管機(jī)構(gòu)分享其技術(shù)創(chuàng)新的細(xì)節(jié)和數(shù)據(jù),共同探討并解決可能出現(xiàn)的問(wèn)題和隱患,從而建立一種協(xié)同合作的關(guān)系。對(duì)于ChatGPT 類(lèi)應(yīng)用的用戶而言,監(jiān)管沙盒意味著可以更好地保障隱私與數(shù)據(jù)安全等合法權(quán)益。在ChatGPT 類(lèi)應(yīng)用產(chǎn)品上線之前,企業(yè)必須在監(jiān)管沙盒中進(jìn)行多次測(cè)試和驗(yàn)證,以確保產(chǎn)品滿足相關(guān)的隱私保護(hù)和數(shù)據(jù)安全標(biāo)準(zhǔn)。概言之,建立監(jiān)管沙盒,有利于監(jiān)管機(jī)構(gòu)、企業(yè)和用戶共同推動(dòng)AI技術(shù)的可持續(xù)發(fā)展,并在保護(hù)公民權(quán)益的同時(shí)提升市場(chǎng)效率和整體社會(huì)福利。

      五、結(jié)語(yǔ)

      數(shù)字技術(shù)的理論創(chuàng)新已經(jīng)超乎人們的想象,科技概念的創(chuàng)設(shè)也不再只是空想,而是對(duì)技術(shù)發(fā)展方向的前瞻。技術(shù)創(chuàng)新迭代周期不斷縮短,這一趨勢(shì)帶來(lái)了技術(shù)風(fēng)險(xiǎn)類(lèi)型的不斷變化。但法律的權(quán)威性來(lái)自其穩(wěn)定性和確定性,故僅僅根據(jù)技術(shù)風(fēng)險(xiǎn)就推斷需要對(duì)技術(shù)進(jìn)行特別治理,容易陷入技術(shù)與法律僅能是“一一對(duì)應(yīng)”關(guān)系的治理誤區(qū)。法律與技術(shù)之間并不是純粹的治理與被治理的關(guān)系,而是相輔相成、相互需要的關(guān)系。技術(shù)在不同發(fā)展階段存在不同的治理需求,可能是鼓勵(lì)創(chuàng)新、控制風(fēng)險(xiǎn)、限制應(yīng)用,或是對(duì)現(xiàn)有法律進(jìn)行解釋等。在ChatGPT等AI應(yīng)用領(lǐng)域,采取“重構(gòu)式規(guī)制”并不是其風(fēng)險(xiǎn)治理的契合之策,這種立法邏輯只會(huì)導(dǎo)致不斷對(duì)“新興”風(fēng)險(xiǎn)進(jìn)行專門(mén)立法,難以跟上科技創(chuàng)新的步伐,而是應(yīng)基于技術(shù)發(fā)展的階段性特征,積極引導(dǎo)企業(yè)和個(gè)人在使用AI 技術(shù)及其產(chǎn)品時(shí)采取合法且合理的方式。同時(shí),在數(shù)字時(shí)代只是依靠技術(shù)更新、漏洞修補(bǔ)等傳統(tǒng)方式很難真正預(yù)防和化解技術(shù)風(fēng)險(xiǎn),需要轉(zhuǎn)向更為綜合的“階段性治理”框架,該框架應(yīng)涵蓋包容審慎原則、“階段性”合規(guī)審查、軟法治理手段、監(jiān)管沙盒等方面內(nèi)容,并進(jìn)行全面的風(fēng)險(xiǎn)評(píng)估,以預(yù)防并控制相關(guān)技術(shù)風(fēng)險(xiǎn),進(jìn)而加快我國(guó)產(chǎn)業(yè)的數(shù)字化轉(zhuǎn)型。

      注釋:

      ①OpenAI遵守嚴(yán)格的數(shù)據(jù)隱私政策,承諾保護(hù)用戶數(shù)據(jù)不被濫用或禁止未經(jīng)授權(quán)的訪問(wèn)。OpenAI的隱私政策明確規(guī)定了收集、使用和保護(hù)用戶數(shù)據(jù)的方式,并承諾不會(huì)出售、共享或透露用戶數(shù)據(jù)。參見(jiàn)https://www.163.com/dy/article/I3E1NRL D0556383F.html,2023年8月10日訪問(wèn)。

      ②OpenAI 如何確保用戶隱私和數(shù)據(jù)安全?在用戶控制和選擇上,OpenAI尊重用戶對(duì)自己數(shù)據(jù)的控制權(quán)和選擇權(quán)。用戶可以隨時(shí)訪問(wèn)、更正或刪除他們的個(gè)人信息。同時(shí),OpenAI也會(huì)讓用戶選擇是否接收特定類(lèi)型的通信或推廣信息。參見(jiàn)https://www.leixue.com/ask/how-openai-ensures-u ser-privacy-and-data-security,2023 年8 月11 日訪問(wèn)。

      ③《數(shù)據(jù)安全法》第十一條:“國(guó)家積極開(kāi)展數(shù)據(jù)安全治理、數(shù)據(jù)開(kāi)發(fā)利用等領(lǐng)域的國(guó)際交流與合作,參與數(shù)據(jù)安全相關(guān)國(guó)際規(guī)則和標(biāo)準(zhǔn)的制定,促進(jìn)數(shù)據(jù)跨境安全、自由流動(dòng)?!?/p>

      ④歐盟《通用數(shù)據(jù)保護(hù)條例》(GDPR)實(shí)務(wù)指引(全文版)規(guī)定,根據(jù)DPA第33、34條,數(shù)據(jù)控制者必須向數(shù)據(jù)主體提供一定的關(guān)于數(shù)據(jù)處理的最低限度的信息。被提供的信息應(yīng)足以保證數(shù)據(jù)主體能夠作出充分知情的選擇。信息提供必須使用數(shù)據(jù)主體能夠理解的語(yǔ)言,復(fù)雜的法律術(shù)語(yǔ)是不合適的。參見(jiàn)http://rank.chinaz.comwww.xiia.org.cn/xwzx/gjzx/202109/t20210917_5351.htm,2023 年8月10日訪問(wèn)。

      ⑤2023年4月10日,美國(guó)參議院三位民主黨議員提出《算法責(zé)任法案》(Algorithmic Accountability Act of 2019),該法案將授權(quán)聯(lián)邦貿(mào)易委員會(huì)(FTC)審查面向消費(fèi)者的自動(dòng)決策系統(tǒng)的使用,以識(shí)別偏見(jiàn)、隱私和安全風(fēng)險(xiǎn)。參見(jiàn)https://www.1987web.com/?id=26554,2023 年8 月10 日訪問(wèn)。

      ⑥決策樹(shù)(decisiontree)一般都是自上而下地生成的。每個(gè)決策或事件(即自然狀態(tài))都可能引出兩個(gè)或多個(gè)事件,導(dǎo)致不同的結(jié)果,把這種決策分支畫(huà)成圖形很像一棵樹(shù)的枝干,故稱決策樹(shù)。邏輯(logistic)回歸則主要用于預(yù)測(cè),如收集了若干人的健康記錄,包括其年齡、性別、家庭病史等變量的數(shù)據(jù),因變量為得了癌癥(Y=1),沒(méi)有得癌癥(Y=0),通過(guò)訓(xùn)練得出得癌癥和沒(méi)得癌癥的概率擬合公式。參見(jiàn)https://blog.csdn.net/ogghanxi/article/details/38496287,2023年8月10日訪問(wèn)。

      ⑦研究人員揭示,GPT-4比GPT-3更容易產(chǎn)生欺騙性信息,根據(jù)監(jiān)管機(jī)構(gòu)NewsGuard 的專家分析,OpenAI 最新的GPT-4 語(yǔ)言模型存在誤導(dǎo)性信息的問(wèn)題,甚至比其前身GPT-3.5 還要嚴(yán)重。NewsGuard 在報(bào)告中指出,GPT-4 在受到指令引導(dǎo)下,100%都會(huì)回應(yīng)虛假的新聞故事,這一發(fā)現(xiàn)讓人不安。參見(jiàn)https://new.qq.com/rain/a/202303 24A005WA00,2023年8月11日訪問(wèn)。

      ⑧據(jù)今日美國(guó)報(bào)網(wǎng)站2023 年5 月3 日的報(bào)道,在美國(guó)總統(tǒng)拜登上周宣布競(jìng)選連任后,共和黨全國(guó)委員會(huì)立即發(fā)布了一則攻擊他的廣告,包括金融市場(chǎng)崩潰和移民從邊境擁入等畫(huà)面。這個(gè)時(shí)長(zhǎng)30秒的短片炫耀地附上一條免責(zé)聲明:“本片完全由人工智能(AI)圖形工具生成?!睂<艺f(shuō),這則廣告預(yù)示了2024 年的美國(guó)總統(tǒng)選舉情形。參見(jiàn)https://baijiahao.baidu.com/s?id=1765130887615 176484&wfr=spider&for=pc,2023年8月11日訪問(wèn)。

      ⑨2023 年4 月14 日,歐洲數(shù)據(jù)保護(hù)委員會(huì)(EDPB)宣布,它已成立一個(gè)ChatGPT 特別工作組,幫助各國(guó)應(yīng)對(duì)ChatGPT帶來(lái)的風(fēng)險(xiǎn)。EDPB是歐盟內(nèi)部的一個(gè)獨(dú)立機(jī)構(gòu),其目的是確保歐盟《通用數(shù)據(jù)保護(hù)條例》的一致應(yīng)用,并促進(jìn)歐盟數(shù)據(jù)保護(hù)機(jī)構(gòu)之間的合作。參見(jiàn)https://baijiahao.baidu.com/s?id=1763143038317437176&wfr=spider&fo r=pc,2023年8月11日訪問(wèn)。

      ⑩參見(jiàn)中共中央、國(guó)務(wù)院印發(fā)的《國(guó)家標(biāo)準(zhǔn)化發(fā)展綱要》,《國(guó)務(wù)院公報(bào)》2021 年第30 號(hào),https://www.gov.cn/gongbao/content/2021/content_5647347.htm?eq id=f01b6dba0002a21000000006645af59d&eqid=8e 87dbad0018386a00000003647b2d99,2023 年8 月10日訪問(wèn)。

      猜你喜歡
      法律算法
      法律推理與法律一體化
      法律方法(2022年1期)2022-07-21 09:17:10
      法律解釋與自然法
      法律方法(2021年3期)2021-03-16 05:57:02
      基于MapReduce的改進(jìn)Eclat算法
      法律適用中的邏輯思維
      法律方法(2019年3期)2019-09-11 06:27:06
      Travellng thg World Full—time for Rree
      進(jìn)位加法的兩種算法
      算法初步兩點(diǎn)追蹤
      基于增強(qiáng)隨機(jī)搜索的OECI-ELM算法
      一種改進(jìn)的整周模糊度去相關(guān)算法
      讓人死亡的法律
      山東青年(2016年1期)2016-02-28 14:25:30
      仪征市| 青州市| 蒙城县| 新巴尔虎右旗| 黄梅县| 嵩明县| 霍林郭勒市| 华容县| 米林县| 普兰店市| 康平县| 北票市| 启东市| 土默特右旗| 常熟市| 梅河口市| 岳西县| 会理县| 思南县| 拉孜县| 和林格尔县| 灵台县| 九寨沟县| 尼玛县| 镇原县| 周至县| 黄陵县| 碌曲县| 南平市| 南宫市| 达日县| 泌阳县| 彭水| 筠连县| 岳西县| 安义县| 都兰县| 靖江市| 夹江县| 和平区| 灌南县|