• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看

      ?

      以風(fēng)險為基礎(chǔ)的人工智能治理

      2024-01-18 18:07:21陳吉棟
      法治研究 2023年5期
      關(guān)鍵詞:規(guī)制人工智能系統(tǒng)

      陳吉棟

      一直以來,人工智能法律研究在治理法與責(zé)任法之間游移,未能正確處理人工智能法律制度展開的邏輯起點(diǎn)——風(fēng)險及其治理理論研究與風(fēng)險分配規(guī)范設(shè)計。以風(fēng)險為基礎(chǔ)的治理(risk-based regulation)是人工智能法研究的起點(diǎn)?;陲L(fēng)險的治理要解決的問題是在何種程度上和以何種方式可以治理和減少風(fēng)險。①See van der Heijden,Jeroen (2019).Risk governance and risk-based regulation: A review of the international academic literature.State of the Art in Regulatory Governance Research Paper -2019.02.Wellington: Victoria University of Wellington/Government Regulatory Practice Initiative.p.4.如何治理風(fēng)險,并且進(jìn)行規(guī)范設(shè)計,一直是困擾人工智能立法探索的卡脖子難題。在上海市、深圳經(jīng)濟(jì)特區(qū)地方立法作出了相關(guān)探索后,2023 年4 月11 日,國家互聯(lián)網(wǎng)信息辦公室發(fā)布了《生成式人工智能服務(wù)管理辦法(征求意見稿)》試圖對生成式人工智能(GAI)風(fēng)險分配進(jìn)行破題。在這種背景下,重提“風(fēng)險”似乎是人工智能的法律研究導(dǎo)入正確邏輯的前提。從風(fēng)險角度展開討論,需要將人工智能系統(tǒng)研發(fā)與應(yīng)用風(fēng)險的認(rèn)知作為起點(diǎn),將風(fēng)險如何影響治理作為過程,本質(zhì)上是從恢復(fù)過去的損害轉(zhuǎn)向防止損害的發(fā)生,邏輯終點(diǎn)則是風(fēng)險治理與民事責(zé)任的溝通,如此構(gòu)建以風(fēng)險為基礎(chǔ)的人工智能法律治理體系。限于篇幅,文章在分析風(fēng)險分級的基礎(chǔ)上,梳理立法進(jìn)展,引入“規(guī)制空間”理論,提出并論證人工智能治理制度展開的要點(diǎn)與邏輯。

      一、GAI 風(fēng)險的具體種類及其風(fēng)險挑戰(zhàn)

      GAI 本質(zhì)上仍是人工智能系統(tǒng)(AI System)之一。對其分析仍然需要遵循數(shù)據(jù)、算法、算力與智能體(agent)的基本邏輯。如一切人工智能系統(tǒng)一樣,GAI(如ChatGPT)輸出結(jié)果的過程,需要大量的數(shù)據(jù)作為支撐,通過大量的計算資源來計算的過程,其背后仍然是一個數(shù)學(xué)模型。計算量、數(shù)據(jù)量與語言模型的方法上的優(yōu)勢,僅使其可以更快速地計算出更為準(zhǔn)確的概率。GAI 與決策式/分析式人工智能(Discriminant/Analytical AI)不同,在根據(jù)既有數(shù)據(jù)集執(zhí)行任務(wù)之外,還能通過學(xué)習(xí)數(shù)據(jù)中的聯(lián)合概率分布,創(chuàng)造出全新的內(nèi)容。然而,無論是在法學(xué)還是在倫理學(xué)的既有理論中,似乎缺少了觀察生成式人工智能及其風(fēng)險的理論與方法,因此對其風(fēng)險開展治理,設(shè)計一個涵蓋法律與倫理在內(nèi)的綜合框架成為較主流的選擇,但這注定將是一項任重道遠(yuǎn)的工作。

      依據(jù)已有的觀察,GAI 風(fēng)險大致有如下類型。除了個人信息侵害與隱私泄露風(fēng)險,更為顯著的風(fēng)險是真實(shí)性風(fēng)險、偏見與歧視風(fēng)險與主體依賴風(fēng)險等。其一,真實(shí)性風(fēng)險。人工智能生成內(nèi)容的真實(shí)性與準(zhǔn)確性無從保證。虛假信息的不當(dāng)應(yīng)用進(jìn)一步導(dǎo)致傷害與責(zé)任歸屬問題。在此背景下,法律很難區(qū)分不同風(fēng)險的承擔(dān)。《生成式人工智能服務(wù)管理辦法(征求意見稿)》第5 條規(guī)定:利用生成式人工智能產(chǎn)品提供聊天和文本、圖像、聲音生成等服務(wù)的組織和個人,承擔(dān)該產(chǎn)品生成內(nèi)容生產(chǎn)者的責(zé)任。但該辦法第16 條也規(guī)定:提供者應(yīng)當(dāng)按照《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》對生成的圖片、視頻等內(nèi)容進(jìn)行標(biāo)識。其二,偏見與歧視問題。生成式人工智能所使用的訓(xùn)練數(shù)據(jù)來自人類社會,因此它也有可能繼承人類社會中的固有歧視因素。其三,主體依賴風(fēng)險。這里的依賴風(fēng)險包括兩個方面:一是對GAI 的功能依賴。二是對GAI 產(chǎn)生情感依賴。盡管用戶明確知道ChatGPT 這種交互式對話機(jī)器人并非真人,仍可能將其作為人類對待并產(chǎn)生依賴,陷入情感迷失和混亂,遠(yuǎn)離現(xiàn)實(shí)世界的人際交往,從而影響個體社會情感與交往能力的培養(yǎng)。

      面對人工智能復(fù)雜難知的風(fēng)險,監(jiān)管機(jī)構(gòu)多基于風(fēng)險的治理理念,制定風(fēng)險治理的制度框架評估與降低風(fēng)險。許多國家的監(jiān)管機(jī)構(gòu)越來越傾向于采用“基于風(fēng)險”的策略進(jìn)行治理。②See Black,Julia,and Robert Baldwin."Really responsive risk-based regulation." Law &policy 32.2 (2010): 181-213.這一治理框架在食品安全、醫(yī)藥、環(huán)境治理等領(lǐng)域顯示出了豐富的內(nèi)涵。③例如,在金融領(lǐng)域中,對于風(fēng)險及其分級監(jiān)管并非人工智能或者技術(shù)治理的首創(chuàng),在金融領(lǐng)域也有所應(yīng)用。資本框架即以風(fēng)險為中心,因為不同的活動造成不同的損失可能性,資本制度應(yīng)調(diào)整要求以考慮到具體活動的風(fēng)險,分層因此成為重要的風(fēng)險防控原則。面對人工智能的這些風(fēng)險特征,構(gòu)建全生命周期分層的監(jiān)管成為立法的主流選擇。如,在歐盟高風(fēng)險人工智能系統(tǒng)獲得市場批準(zhǔn)后,歐盟和成員國層面的當(dāng)局將負(fù)責(zé)市場監(jiān)督,終端用戶確保監(jiān)控和人工監(jiān)督,而提供商則應(yīng)建設(shè)一個上市后監(jiān)控系統(tǒng),供應(yīng)商和用戶也會報告嚴(yán)重事故和故障。如此就形成了一個覆蓋上游和下游全生命周期的監(jiān)管體系。此外,自然人也能夠監(jiān)督高風(fēng)險人工智能系統(tǒng),這被稱為人工監(jiān)督要求。針對人工智能更新、流變的創(chuàng)新設(shè)計,則形成了進(jìn)入市場以后的監(jiān)督。

      二、風(fēng)險分級及其在歐盟人工智能法上的實(shí)踐

      人類社會對于風(fēng)險的認(rèn)知以及對于風(fēng)險監(jiān)管的認(rèn)知經(jīng)過了長期的變化過程?,F(xiàn)階段,一般將風(fēng)險監(jiān)管定義為:“以證據(jù)為基礎(chǔ)的手段,根據(jù)一個透明的、系統(tǒng)的和可以辯護(hù)的框架,有針對性地使用資源和優(yōu)先關(guān)注最高風(fēng)險。”④Black,J.,&Baldwin,R.(2010).Really responsive risk-based regulation.Law and Policy,32(2),186.這種對于風(fēng)險的功利主義理解,被越來越多的政策制定者接受。

      歐盟委員會提出了世界上第一個《關(guān)于制定人工智能的統(tǒng)一規(guī)則(人工智能法)并修正某些歐盟立法文件的提案》(簡稱《歐盟人工智能法提案》,the AI ACT,AIA)。當(dāng)?shù)貢r間5 月11 日,歐洲議會發(fā)表聲明,議會內(nèi)部市場委員會和公民自由委員會通過了AIA 的談判授權(quán)草案。試圖在促進(jìn)產(chǎn)業(yè)發(fā)展的同時,減輕或防止人工智能技術(shù)使用的風(fēng)險,推動人工智能可信,完善人工智能生態(tài),并使歐洲在全球人工智能監(jiān)管中發(fā)揮領(lǐng)導(dǎo)作用,為此提出了基于風(fēng)險的分級監(jiān)管方案。AIA 結(jié)合“風(fēng)險金字塔”的風(fēng)險理論方法與分層執(zhí)行機(jī)制,設(shè)計了基于風(fēng)險的分級監(jiān)管框架。依據(jù)風(fēng)險金字塔的理論,沒有無風(fēng)險的人工智能系統(tǒng),大多數(shù)人工智能系統(tǒng)構(gòu)成的風(fēng)險有限,應(yīng)支持其應(yīng)用幫助解決社會問題,但必需解決這些風(fēng)險以避免不良后果。在這一考量下,對風(fēng)險進(jìn)行分類分級成為可欲的選擇。針對不同層級的風(fēng)險,設(shè)計不同的規(guī)則。AIA將人工智能系統(tǒng)相關(guān)的風(fēng)險區(qū)分為不可接受的風(fēng)險、高風(fēng)險、有限風(fēng)險和較低或者最低限度的風(fēng)險四級,法律應(yīng)對策略分別為“禁止”、“事前合格性評定和認(rèn)證標(biāo)志”、信息披露和無義務(wù)。風(fēng)險可以忽略不計的AI系統(tǒng)應(yīng)設(shè)計較輕的法律制度,而風(fēng)險不可接受的人工智能系統(tǒng)將被法律禁止。在這兩個極端之間,隨著風(fēng)險的增加,規(guī)則設(shè)計愈發(fā)嚴(yán)格。從附有行為準(zhǔn)則的非約束性自我監(jiān)管、軟法影響評估,到整個應(yīng)用程序生命周期皆需經(jīng)過外部審計的嚴(yán)格合規(guī)性要求。在這一制度設(shè)計下,如果提供者提供人工智能系統(tǒng),首要問題是根據(jù)AIA 中確定的風(fēng)險水平,確定其應(yīng)采取的行動(義務(wù))。

      不可接受的風(fēng)險表示最高風(fēng)險類別,這些系統(tǒng)被徹底禁止。包括:(1)實(shí)時生物識別系統(tǒng);⑤這種情況也有例外,適用于執(zhí)法和國家安全背景下的犯罪預(yù)防和刑事調(diào)查。(2)社交評分算法;(3)操縱系統(tǒng)利用特定個人的弱點(diǎn)。

      AIA 并未對高風(fēng)險進(jìn)行界定,⑥此點(diǎn)與《數(shù)字服務(wù)法》(Digital Service Act)和《數(shù)字市場法》有很大不同。而是采取了由官方直接列舉的風(fēng)險種類,為此編制了一個動態(tài)調(diào)整的高風(fēng)險人工智能目錄。⑦高風(fēng)險人工智能系統(tǒng)列于附錄III。如果一種風(fēng)險不屬于禁止性風(fēng)險,又符合如下特征,就是高風(fēng)險。⑧其中包括:(1)對自然人進(jìn)行生物識別和分類;(2)關(guān)鍵基礎(chǔ)設(shè)施的管理和運(yùn)營;(3)教育和職業(yè)培訓(xùn),如用于評估教育環(huán)境中的學(xué)生或分配人員進(jìn)行培訓(xùn)的人工智能系統(tǒng);(4)就業(yè)和工人管理,如用于招聘或評估員工的人工智能系統(tǒng),包括晉升、績效管理和解雇等問題;(5)獲得基本服務(wù),如管理私營和公共部門服務(wù)和相關(guān)行動的人工智能系統(tǒng),包括信譽(yù)評估、信用評分或確定獲得此類服務(wù)的優(yōu)先順序;(6)執(zhí)法,包括廣泛的人工智能系統(tǒng),例如,用于評估任何個人實(shí)施犯罪或再次犯罪的風(fēng)險;預(yù)測刑事犯罪的可能性,以及檢測和調(diào)查欺詐性內(nèi)容;(7)邊境管制管理,包括用于控制和管理邊境、移民和庇護(hù)程序的人工智能系統(tǒng);(8)司法管理和民主程序,包括通過評估和解釋事實(shí)和/或針對事實(shí)提出法律建議來協(xié)助司法程序的任何人工智能系統(tǒng)。高風(fēng)險人工智能系統(tǒng)構(gòu)成人工智能系統(tǒng)的大多數(shù),是AIA 整個制度設(shè)計的核心。按照AIA 的規(guī)定,在高風(fēng)險人工智能系統(tǒng)進(jìn)入市場之前,應(yīng)該完成四個步驟。(1)進(jìn)行內(nèi)部事前人工智能影響評估和遵守由包容性多學(xué)科團(tuán)隊監(jiān)督的行為準(zhǔn)則。(2)經(jīng)過合規(guī)評估,并在其生命周期內(nèi)持續(xù)符合歐盟人工智能法案中規(guī)定的人工智能要求。對于某些系統(tǒng),外部認(rèn)證機(jī)構(gòu)將參與合格評定審核。這一動態(tài)過程確保了基準(zhǔn)測試、監(jiān)控和驗證。此外,在改變高風(fēng)險人工智能系統(tǒng)的情況下,必須重復(fù)步驟(2)。(3)在專門為高風(fēng)險人工智能系統(tǒng)所建設(shè)的歐盟數(shù)據(jù)庫完成注冊。(4)必須簽署符合性聲明,高風(fēng)險人工智能系統(tǒng)必須帶有CE 標(biāo)志。

      AIA 中的第52 條要求提供者向用戶表明他們正在與人工智能系統(tǒng)交互和/或正在被提供人工生成的內(nèi)容。以此允許用戶作出明智的選擇,是否與人工智能系統(tǒng)及其可能生成的內(nèi)容進(jìn)行交互。透明義務(wù)意在保護(hù)人們知道是否以及何時與機(jī)器的算法而不是人類進(jìn)行交互的權(quán)利。直接與人類互動的人工智能系統(tǒng)(聊天機(jī)器人、情感識別、生物特征分類和內(nèi)容生成系統(tǒng))的提供商,需要遵守一定的透明度義務(wù),唯一免除這些透明度義務(wù)的是最小風(fēng)險人工智能系統(tǒng)。

      低風(fēng)險人工智能系統(tǒng)包括既不使用個人數(shù)據(jù)也不做出可能直接或間接影響任何個人的預(yù)測系統(tǒng)。此外,在獨(dú)立人工智能系統(tǒng)之外,還需要關(guān)注嵌入式人工智能系統(tǒng),所謂嵌入,即指這些人工智能的部分僅是其他歐盟法規(guī)涵蓋的產(chǎn)品或服務(wù)的組件,如玩具或醫(yī)療設(shè)備。雖然這些系統(tǒng)不屬于AIA,但是它們?nèi)匀槐仨毞螦IA 在協(xié)調(diào)指令下規(guī)定的要求。對于未被禁止的人工智能系統(tǒng),當(dāng)其風(fēng)險較低且不在現(xiàn)有部門法規(guī)的涵蓋范圍內(nèi),將適用“高風(fēng)險人工智能系統(tǒng)”的規(guī)則。這些系統(tǒng)必須經(jīng)過符合性評估。不過,合格評定可以不同方式進(jìn)行。例如,一些人工智能系統(tǒng)是消費(fèi)產(chǎn)品的一部分,這些產(chǎn)品在投放市場之前已經(jīng)經(jīng)過了測試和認(rèn)證(如醫(yī)療設(shè)備)。對于這些嵌入式人工智能系統(tǒng),不需要額外的合格評定程序。取而代之的是,AIA 中規(guī)定的要求將被納入現(xiàn)有特定部門的安全立法。

      三、風(fēng)險分級的來源與風(fēng)險治理理論的提出

      (一)“巨石疑案”與分級治理的前提

      Jervan der Heijden 以“巨石”設(shè)問演示了風(fēng)險問題的復(fù)雜性。一塊可能從懸崖上掉下來的巨石是否總是構(gòu)成風(fēng)險,還是只有當(dāng)它可能損害或破壞對人類有價值的東西時才構(gòu)成風(fēng)險?為了估計風(fēng)險,僅僅知道巨石墜落的客觀概率就夠了,還是需要其他形式的知識(例如,巨石墜落的政治和社會后果)?誰的知識將被用于這種估計——專業(yè)的巨石專家的知識,直接受巨石墜落影響的人類的知識,其他人的知識,或所有這些人的知識的組合?

      這些設(shè)問涉及風(fēng)險的本體論、認(rèn)識論與評估,對于這些問題的解答揭示了風(fēng)險認(rèn)知的建構(gòu)主義與實(shí)在主義的強(qiáng)烈矛盾。解析“巨石疑案”,有助于我們了解風(fēng)險理論的基本特征。對風(fēng)險的本體問題,建構(gòu)論雖然認(rèn)為巨石墜落的危險是真實(shí)的,但存在于人類的感知中;實(shí)在論則認(rèn)為風(fēng)險是世界的一種狀態(tài),無論特定的風(fēng)險是否被人類體驗到,風(fēng)險都是真實(shí)的。在風(fēng)險的認(rèn)識問題上,建構(gòu)論認(rèn)為風(fēng)險及其后果只能被主觀地認(rèn)識,對風(fēng)險的認(rèn)識是一個社會過程;實(shí)在論則認(rèn)為風(fēng)險發(fā)生的概率以及其后果可以被客觀地了解、描繪,因此可以被治理和監(jiān)管。在風(fēng)險的評估上,還原主義認(rèn)為風(fēng)險估計只應(yīng)依靠由專家和專業(yè)人員收集的定量的技術(shù)知識以及經(jīng)濟(jì)效益-成本分析;系統(tǒng)性方法則認(rèn)為除了這些硬數(shù)據(jù)和知識,還有其他形式的數(shù)據(jù)和知識(非專業(yè)人士或政策制定者對風(fēng)險或?qū)︼L(fēng)險發(fā)生時的非經(jīng)濟(jì)影響的看法)。⑨See van der Heijden,Jeroen (2019).Risk governance and risk-based regulation: A review of the international academic literature.State of the Art in Regulatory Governance Research Paper -2019.02.Wellington: Victoria University of Wellington/Government Regulatory Practice Initiative.雖然爭議很大,但在風(fēng)險理論的研究中,研究者也多兼采兩者,如貝克即認(rèn)為,只要這些理論有助于理解我們所處的風(fēng)險社會中復(fù)雜又矛盾的風(fēng)險本質(zhì)性,便可以同時使用實(shí)在論和建構(gòu)論。⑩[德]烏爾里?!へ惪恕对僬勶L(fēng)險社會:理論、政治與研究計劃》,載芭芭拉·亞當(dāng)?shù)染帯讹L(fēng)險社會及其超越社會理論的關(guān)鍵議題》,趙延?xùn)|等譯,北京出版社2005 年版,第321 頁。

      與理論的激烈爭論不同,在風(fēng)險管理制度設(shè)計與實(shí)踐上往往是“僅得乎中”的結(jié)果。因此,雖然人類對于風(fēng)險的認(rèn)識歷經(jīng)長期演變,但逐漸被認(rèn)可的觀點(diǎn)是,所謂“風(fēng)險”意味著按照某種概率發(fā)生的不利后果或者損害,因而是可以預(yù)測和計算的,屬于人們進(jìn)行選擇和決定之際存在的問題。?參見季衛(wèi)東:《決策風(fēng)險、問責(zé)及法律溝通》,載《政法論叢》2016 年第6 期。在這個意義上,風(fēng)險雖與“不確定性”(uncertainty)相關(guān),但風(fēng)險又并非完全的不確定性。因為不確定性是反映出物及其發(fā)展過程充滿變數(shù)、難以把握的特性。不確定性無處不在,但在一定時期內(nèi),有理論認(rèn)為有些概率是可預(yù)測的,由此區(qū)分為可預(yù)測的不確定性和完全的不確定性。當(dāng)然,這些認(rèn)識還可能隨著時間的推移而改變,對于風(fēng)險的新理解已經(jīng)將公共治理的對象從物質(zhì)和事項轉(zhuǎn)移到了人類行為,治理的模式也從恢復(fù)損害和預(yù)防損害轉(zhuǎn)移到了將公認(rèn)的行為規(guī)范強(qiáng)加給人們并使其內(nèi)化。?See van der Heijden,Jeroen (2019).Risk governance and risk-based regulation: A review of the international academic literature.State of the Art in Regulatory Governance Research Paper -2019.02.Wellington: Victoria University of Wellington/Government Regulatory Practice Initiative.p.8.就人工智能風(fēng)險而言,主要是指與人工智能風(fēng)險相關(guān)的技術(shù)未來狀態(tài)的不穩(wěn)定與無法確定。因此,對人工智能風(fēng)險治理的討論不止于技術(shù)本身,還包括“使用這些工具的人”。?參見[美]卡里·科利亞尼斯:《算法規(guī)制:作為治理工具的機(jī)器學(xué)習(xí)》,孟李冕、宋華琳(譯),載《湖湘法學(xué)評論》2022 年第2期。不過,人工智能風(fēng)險屬于技術(shù)風(fēng)險,與自然風(fēng)險又有不同,因為自然發(fā)生的風(fēng)險是不可避免的。?徐旭:《技術(shù)風(fēng)險認(rèn)識研究》,東北大學(xué)出版社2022 年版,第8 頁。技術(shù)風(fēng)險是一種客觀結(jié)果與主觀認(rèn)知的結(jié)合,是事實(shí)判斷與價值判斷的綜合體。?毛明芳:《現(xiàn)代技術(shù)風(fēng)險的系統(tǒng)學(xué)審視》,人民出版社2020 年版,第50 頁。

      然而,面對復(fù)雜問題和監(jiān)管實(shí)踐的動態(tài)性,基于風(fēng)險的治理需要對受監(jiān)管對象的行為、制度環(huán)境、監(jiān)管控制的相互作用、監(jiān)管績效和變化等五個要素做出反應(yīng)性的監(jiān)管。此外,監(jiān)管機(jī)構(gòu)在不同的監(jiān)管任務(wù)中面臨的挑戰(zhàn)也各不相同,包括檢測、響應(yīng)開發(fā)、執(zhí)法、評估和修改等方面。因此,對基于風(fēng)險的治理進(jìn)行修訂和更細(xì)致入微的理解變得至關(guān)重要。在立法和規(guī)則制定的過程中,定義清楚治理對象是一件非常重要的事情,以納米材料為例,David A.Dana 討論了面向風(fēng)險的適應(yīng)性監(jiān)管的內(nèi)容。?See Dana,David A."Toward risk-based,adaptive regulatory definitions." The Nanotechnology Challenge: Creating Legal Institutions for Uncertain Risks.Cambridge University Press,2011.105-116.Jervan der Heijden 回顧了風(fēng)險治理以及基于風(fēng)險監(jiān)管的實(shí)例,為將面向風(fēng)險的治理方法引入到人工智能安全風(fēng)險評估與管控領(lǐng)域提供了啟發(fā)。?See van der Heijden,Jeroen."Risk governance and risk-based regulation: A review of the international academic literature." State of the Art in Regulatory Governance Research Paper Series (2019).總的來說,定量評價人工智能產(chǎn)品與服務(wù)的安全風(fēng)險評估指標(biāo),需要綜合考慮多個方面的因素,包括AI 的性能、效率、公平性、透明性、可解釋性等,并需要在實(shí)踐中不斷探索和完善。同時,也需要建立一套統(tǒng)一的評估標(biāo)準(zhǔn)和方法,以便在全球范圍內(nèi)進(jìn)行比較和交流。對此文章不再予以展開。

      在人工智能風(fēng)險治理上,進(jìn)行必要的風(fēng)險分級是治理制度設(shè)計的基點(diǎn)。技術(shù)研發(fā)及其產(chǎn)品生產(chǎn)與應(yīng)用的潛在失敗可能給更廣泛的社會主體包括企業(yè)和家庭帶來成本,因此隨著人工智能復(fù)雜性、規(guī)模和互聯(lián)性的增長,監(jiān)管機(jī)構(gòu)通過更嚴(yán)格的法規(guī)將面臨更高的治理成本。隨著企業(yè)系統(tǒng)重要性的增加,其失敗的社會成本也在增加。因此,科學(xué)的人工智能治理框架設(shè)計的重要原則是,該框架必須通過一個持續(xù)的過程來發(fā)展,吸納可能出現(xiàn)的新風(fēng)險?!胺旨墶笔且环N“定性”分析方法,除上文提到的AIA,還被《通用數(shù)據(jù)保護(hù)條例》(GDPR)所接受。不過,分級也需要確定風(fēng)險指標(biāo)進(jìn)行評分甚至加權(quán)。?[美]道格拉斯·W.哈伯德:《風(fēng)險管理的失敗:為什么失敗以及如何修復(fù)》,中國金融出版社2021 年版,第25 頁。

      前文對于“巨石疑案”的解析已經(jīng)顯示,風(fēng)險僅可在風(fēng)險發(fā)生時才可被評估,且風(fēng)險的評估受評估主體主觀認(rèn)知的影響,如上風(fēng)險理論所提出的疑問是,在立法上對于風(fēng)險進(jìn)行預(yù)先的分級是否是科學(xué)可行的?不過,這種疑慮在對于實(shí)踐做法的觀察中似乎又有所緩解,原因是實(shí)踐中對于風(fēng)險的評估幾無例外地采納了分級的做法。理論上的解釋是,對于風(fēng)險進(jìn)行標(biāo)準(zhǔn)化的立法是必要的,原因是鑒于人工智能系統(tǒng)巨大風(fēng)險,迫使立法者基于功利的思想或者“成本-效益”分析,必須對其進(jìn)行事前的監(jiān)管。而且,對于風(fēng)險的事前分級并未排除具體個案風(fēng)險評估中對于具體因素的考量。如果將風(fēng)險的分級作為治理的基礎(chǔ),這種靈活性還體現(xiàn)在分級的具體模式上,比如建設(shè)動態(tài)調(diào)整的高風(fēng)險人工智能系統(tǒng)的目錄。

      (二)治理理論與風(fēng)險的交融

      對于人工智能治理框架的整體思考,有必要區(qū)分規(guī)制(Regulation)與治理(Governance)兩個概念。整體來看,廣義“規(guī)制”概念與“治理”概念多有重合。狹義上來說,規(guī)制是治理的一大領(lǐng)域,是供給(Providing)與分配(Distributing)之外的對事物與行為的調(diào)控。?See Julia Black,Critical Reflections on Regulation.Australian Journal of Legal Philosophy (2002) 27,1-36.John Braithwaite,Cary Coglianese,David Levi-Faur,Can regulation and governance make a difference? Regulation &Governance (2007) 1,1-7.

      1.規(guī)制與治理的分野

      “規(guī)制”聚焦于政府或其他主體通過規(guī)則對其他主體進(jìn)行控制,而治理尤其是公共治理則聚焦于對不同主體如何通過合作來共同完成公共治理目標(biāo)。與此相關(guān),“規(guī)制法”是事關(guān)如何控制規(guī)制主體使其合法行事的法,包括在其規(guī)則制定、規(guī)制策略選擇等規(guī)制活動中應(yīng)當(dāng)受到的合法性控制等;而治理法則是不同主體如何相互合作共同實(shí)現(xiàn)公共任務(wù)的法,包括不同主體設(shè)定共同目標(biāo)、制定與執(zhí)行規(guī)則、相互協(xié)商與合作、分擔(dān)責(zé)任的法律框架等。?參見王瑞雪:《規(guī)制法的體系分析——評〈規(guī)制、治理與法律:前沿問題研究〉》,載章劍生主編《公法研究》第21 卷,浙江大學(xué)出版社2022 年版,第383-395 頁。對于人工智能風(fēng)險的治理,屬于治理法的內(nèi)容。而其治理框架的設(shè)計,也需要借助治理法的基本理論方得以建立。

      2.盧曼對風(fēng)險的二階觀察及其啟示

      當(dāng)我們試圖對風(fēng)險分級治理進(jìn)行深入探究時,就會超越風(fēng)險管理的決策分析,進(jìn)入到法律或者法學(xué)理論對于風(fēng)險的理解領(lǐng)域。在法律領(lǐng)域,德國學(xué)者盧曼對風(fēng)險的研究影響深遠(yuǎn),其中風(fēng)險的事實(shí)與觀察的二階觀察(second-order observation)最富洞見。風(fēng)險的一階觀察其實(shí)是一個觀察“什么”的問題。對于一階觀察者來說,客觀世界的區(qū)分已經(jīng)被設(shè)定好了,觀察意味著把區(qū)分標(biāo)識出來,以獲得視覺、認(rèn)知上的效果。而對于二階觀察者來說,在一開始的觀察中,并不存在“那兒有”的想法,世界并未被區(qū)分好,觀察意味著設(shè)定區(qū)分和標(biāo)識區(qū)分。因此,二階觀察者要觀察的并不是“什么”的問題,而是一個“如何”的問題。或者說,當(dāng)二階觀察開始時,二階觀察者要觀察的就是特定主體作為觀察者的角色,觀察他觀察的方式,也就是觀察他的標(biāo)識一個方面,而非區(qū)分是怎樣的。?參見賓凱:《政治系統(tǒng)與法律系統(tǒng)對于技術(shù)風(fēng)險的決策觀察》,載《交大法學(xué)》2020 年第1 期;張戍凡:《觀察“風(fēng)險”何以可能:關(guān)于盧曼〈風(fēng)險:一種社會學(xué)理論〉的評述》,載《社會》2006 年第4 期。在這里,行動者自己的一階觀察與把行動作為他人決定來把握的二階觀察會導(dǎo)致對決定的風(fēng)險作出完全不同的評價;當(dāng)人們清楚地認(rèn)識到未來有賴于決定,而決定具有風(fēng)險時,行動者與行動評價者的視角分歧就會變得非常大。某種損害產(chǎn)生的可能性,對決定者而言是可以選擇的風(fēng)險,但對受決定影響者而言則成為不得不承受的危險。由此推而論之,一個決定可以在決定者(行動者)與受決定影響者(行動評價者)之間劃分出鴻溝,也可能產(chǎn)生出潛在的糾紛以及抗議運(yùn)動。由于這類鴻溝與矛盾、抗議運(yùn)動起因于人們分別作為行動者和行動評價者的不同視角的“二階觀察”,所以在解決這類問題時有必要部分地返回行動者、決定者自身的一階觀察層面通過實(shí)踐進(jìn)行檢驗,或者在二階觀察的層面通過信息公開和合情合理的說明來加強(qiáng)溝通和相互理解。?同前注⑩。

      3.技術(shù)風(fēng)險治理與風(fēng)險預(yù)防原則

      盧曼的二階觀察與人工智能風(fēng)險治理的關(guān)系為何?換句話說,盧曼對我們的指導(dǎo)為何?答案是,盧曼的風(fēng)險理論對人工智能風(fēng)險的分級治理的直接啟發(fā),應(yīng)該是科技與法律的結(jié)構(gòu)耦合確實(shí)可用于解釋風(fēng)險預(yù)防原則。這一點(diǎn)賓凱教授曾作了分析。風(fēng)險預(yù)防原則(the precautionary principle)的核心內(nèi)容在于,當(dāng)法律系統(tǒng)在面對將來的環(huán)境和技術(shù)不確定性所導(dǎo)致的過量復(fù)雜性時,運(yùn)用科學(xué)技術(shù)方法對科學(xué)技術(shù)本身進(jìn)行評價,然后根據(jù)評估結(jié)果在各種價值之間進(jìn)行衡量并做出能夠降低環(huán)境風(fēng)險的決定。簡言之,風(fēng)險預(yù)防原則包含最為關(guān)鍵的兩個要點(diǎn):對現(xiàn)有科學(xué)在因果關(guān)系上不確定性程度的評估;對風(fēng)險決策所可能導(dǎo)致的損失和收益之間的權(quán)衡。在一定意義上,風(fēng)險預(yù)防原則可以看成是法律系統(tǒng)與科學(xué)系統(tǒng)相互作用的結(jié)構(gòu)耦合(structure coupling)。法律系統(tǒng)運(yùn)用合法/非法的二元符碼(code)進(jìn)行溝通操作,保證了系統(tǒng)的規(guī)范性和封閉性。法律系統(tǒng)同時運(yùn)用“如果……那么……”的程式(programme)對外部刺激保持認(rèn)知性和開放性。例如,科學(xué)系統(tǒng)在環(huán)境保護(hù)中所扮演的重要角色,就是通過程式進(jìn)入到法律系統(tǒng),并把法律系統(tǒng)外部的刺激帶進(jìn)法律系統(tǒng)內(nèi)部,以維持法律系統(tǒng)對外部的認(rèn)知性,也即從系統(tǒng)的環(huán)境中學(xué)習(xí)的能力。?參見賓凱:《政治系統(tǒng)與法律系統(tǒng)對于技術(shù)風(fēng)險的決策觀察》,載《交大法學(xué)》2020 年第1 期。經(jīng)過這樣的雙重計算,人類社會就可以對風(fēng)險預(yù)先進(jìn)行干預(yù)。當(dāng)然,風(fēng)險預(yù)防原則并非法律系統(tǒng)應(yīng)對未來不確定性的唯一工具,風(fēng)險評估和風(fēng)險防治也是工具箱中的備選項。比如,環(huán)境影響評估就是一項被廣為接受的法律工具。歐盟指令就包含了對公用或私人所涉及的環(huán)境項目的影響性評估。另外,責(zé)任也是風(fēng)險應(yīng)對的一種工具。先放下責(zé)任問題,單就風(fēng)險預(yù)防問題而言,正是疏通了預(yù)防原則,才能使得對人工智能分級治理有了更為堅實(shí)的理論基礎(chǔ)。當(dāng)然,盧曼的二階觀察理論也支撐了上文對于現(xiàn)代技術(shù)風(fēng)險包含人的認(rèn)知與價值判斷的觀點(diǎn)。這為將盧曼的二段觀察納入風(fēng)險理論,尤其是現(xiàn)代技術(shù)風(fēng)險理論內(nèi)部,構(gòu)建現(xiàn)代技術(shù)風(fēng)險理論體系(包括風(fēng)險分級)提供了可能。換句話說,現(xiàn)代技術(shù)風(fēng)險具有了融通內(nèi)外的特性,具有超越盧曼二階理論傳統(tǒng)理解的特質(zhì)。

      四、規(guī)制空間的引入及其應(yīng)用

      (一)規(guī)制資源與規(guī)制空間建設(shè)的基本邏輯

      “規(guī)制空間”(Regulatory Space)理論被用以觀察規(guī)制權(quán)威的分散,是對規(guī)制權(quán)力擴(kuò)張的一種更為具體的解釋方案。?參見[英]科林·斯科特:《規(guī)制、治理與法律:前沿問題研究》,安永康譯,宋華琳校,清華大學(xué)出版社2018 年版,第31 頁。在規(guī)制領(lǐng)域,控制的核心問題在于關(guān)鍵規(guī)制資源的碎片化。規(guī)制空間隱喻的核心觀點(diǎn)認(rèn)為,要占有規(guī)制權(quán)并有能力實(shí)施規(guī)制,需要有相關(guān)的資源,而資源呈現(xiàn)分化或碎片化的樣態(tài)。這些資源不限于由立法或合同演化出的正式國家權(quán)力,還包括信息、財富和組織方面的能力。這些資源分散于各種政府主體之間以及政府與非政府主體之間。被規(guī)制企業(yè)可以結(jié)合其擁有的信息與組織方面的能力,獲取相當(dāng)大的非正式權(quán)力,這種權(quán)力甚至能對規(guī)則的形成或?qū)嵤┙Y(jié)果產(chǎn)生重大影響。換言之,這種因占有關(guān)鍵資源而獲取的能力,未必以科層制的方式運(yùn)作于規(guī)制空間之中,規(guī)制者未必凌駕于被規(guī)制者之上。在規(guī)制空間中,不僅同時存在規(guī)制者與被規(guī)制者,還存在很多其他政府與非政府主體,這些主體在不同程度上分享著規(guī)制資源。并且在各主體之間橫向存在著復(fù)雜多變的關(guān)系,彼此相互依賴、相互協(xié)商。?同上注。

      有效的規(guī)制是規(guī)制空間內(nèi)各主體所擁有的資源、價值觀及其之間的關(guān)系相互作用的產(chǎn)物。制度設(shè)計或者規(guī)制改革自然應(yīng)當(dāng)關(guān)注各個主體并使其發(fā)揮潛力,在事實(shí)上形成政府主體之間的分權(quán),以及政府與非政府主體之間的分權(quán)。這種分析促使我們質(zhì)疑規(guī)制者在規(guī)則制定與執(zhí)行過程中做出專業(yè)化、技術(shù)性決定的能力,使得我們更加關(guān)注能以怎樣的程序在規(guī)制空間中形成和塑造多元化、相互交疊的權(quán)力。?同前注?,第51 頁。調(diào)整各規(guī)制者所承擔(dān)職能之間的關(guān)系,可以間接地改變規(guī)制空間內(nèi)規(guī)制主體的視角,規(guī)制空間中的行為也會發(fā)生相應(yīng)改變。?同前注?,第52 頁。為此需要形成“規(guī)制空間內(nèi)部的動態(tài)變化”。?同前注?,第53 頁。該理論所提出的解釋方案,實(shí)際上是認(rèn)為規(guī)制能力、規(guī)制角色與規(guī)制責(zé)任之間互為因果關(guān)系,有循環(huán)論證之嫌。但其洞見仍對我們理解廣義規(guī)制概念極有助益,提醒我們不僅公權(quán)力可以產(chǎn)生高權(quán)關(guān)系,私人主體基于信息、財富與組織能力亦有可能成為規(guī)制過程中的權(quán)威。

      除此之外,規(guī)制權(quán)威的分散化,使得在規(guī)制空間內(nèi)各主體之間形成了可協(xié)商的相互依存的關(guān)系。與資源分散這個主題相關(guān)的是,規(guī)制空間觀念還鼓勵我們重新考慮可問責(zé)性(accountablity)的性質(zhì),并將其同民主控制與規(guī)制復(fù)活等議題相聯(lián)系。?同前注?,第40 頁。限于本文的論證主題與篇幅,不再討論這一問題。

      治理者在風(fēng)險治理中面臨的一個挑戰(zhàn)是:他們可能會在事情平靜的時候被批評得過于嚴(yán)厲,而在風(fēng)險已經(jīng)實(shí)現(xiàn)的時候又過于松懈。換句話說,風(fēng)險監(jiān)管的增長可能會給政府帶來合法性問題:如果它試圖解決的問題沒有發(fā)生,它如何能證明其有效性?這樣就導(dǎo)致了監(jiān)管者高度依賴第三方評估及對其問責(zé)的問題?;蛟S正是由于問責(zé)制,提高風(fēng)險治理制度的開放性成為努力方向。?See van der Heijden,Jeroen (2019).Risk governance and risk-based regulation: A review of the international academic literature.State of the Art in Regulatory Governance Research Paper -2019.02.Wellington: Victoria University of Wellington/Government Regulatory Practice Initiative.p.23-24.

      (二)構(gòu)建以技術(shù)為基礎(chǔ)的風(fēng)險治理框架

      由規(guī)制空間理論觀察對于人工智能風(fēng)險的治理,正在形成一個“金字塔結(jié)構(gòu)”,從塔底到塔尖依次是技術(shù)及其標(biāo)準(zhǔn)、商業(yè)模式、倫理準(zhǔn)則與法律。尤其是在法律3.0 的視角下,本來作為治理對象的技術(shù),所發(fā)揮的基礎(chǔ)治理作用越發(fā)被人重視。就風(fēng)險監(jiān)管而言,促進(jìn)技術(shù)向生態(tài)化、人文化轉(zhuǎn)變具有基礎(chǔ)作用。此外技術(shù)上的努力至少包括對風(fēng)險的預(yù)警、評測(量化處理)等方面。這需要在具體應(yīng)用場景中發(fā)展具體的標(biāo)準(zhǔn)與實(shí)驗方法。就實(shí)驗方法而言,目前國家網(wǎng)信辦正在推動的人工智能社會實(shí)驗廣受關(guān)注。

      在倫理與法律的雙螺旋中,倫理是綜合監(jiān)管制度設(shè)計的基準(zhǔn)與底線。GAI 的開發(fā)與應(yīng)用作為人類科技實(shí)踐活動,應(yīng)當(dāng)與人的目的相一致,與社會核心價值、發(fā)展目標(biāo)相契合。為此,應(yīng)充分考慮社會各界對GAI 應(yīng)用的高度倫理關(guān)切,全面研判潛在倫理風(fēng)險,重點(diǎn)參照國內(nèi)外具有較大影響力的倫理指南、政策文件、標(biāo)準(zhǔn)共識,貫徹落實(shí)《中國新一代人工智能倫理規(guī)范》《關(guān)于加強(qiáng)科技倫理治理的意見》等重要文件精神,制定相關(guān)倫理治理原則,將增進(jìn)人類福祉作為第一要義,負(fù)責(zé)任地開發(fā)GAI。

      結(jié)合具體場景設(shè)計具體規(guī)范作為指引,完善合法與違法的二元化編碼規(guī)范體系。盡管倫理原則彰顯了AIGC 倫理治理的價值導(dǎo)向,仍須在此基礎(chǔ)上,根據(jù)GAI 的具體應(yīng)用情境和技術(shù)條件,制定更具操作性的倫理與法律規(guī)范和行為準(zhǔn)則。首先,應(yīng)加強(qiáng)對GAI 各領(lǐng)域及其特征的分析研判,識別潛在倫理風(fēng)險;其次,針對應(yīng)用實(shí)踐,梳理各類影響因素并據(jù)此確定具體應(yīng)用規(guī)范和治理指南;再次,應(yīng)全流程記錄規(guī)范的實(shí)施過程與實(shí)效結(jié)果,及時反饋評估以期規(guī)范的動態(tài)調(diào)整與可持續(xù)地發(fā)揮作用。為了減少時間限制、防控決策風(fēng)險,現(xiàn)代法治國家的制度設(shè)計普遍推行以“合法”與“違法”的二元化編碼為特征的規(guī)范圖式?!巴ㄟ^合法與違法的二元化編碼和規(guī)范思維的形式性要求,可以把決定者從問責(zé)的重負(fù)中適當(dāng)解放出來并同時對自由裁量權(quán)加以制約,可以使風(fēng)險溝通的復(fù)雜性大幅度簡化,有助于就決策的妥當(dāng)性和問責(zé)標(biāo)準(zhǔn)達(dá)成共識?!?同前注⑩。此外,這一規(guī)范模式中結(jié)果指向的實(shí)質(zhì)性判斷重視風(fēng)險意識的作用,也促使法律責(zé)任從過失責(zé)任轉(zhuǎn)向危險責(zé)任,并不斷加強(qiáng)行動者、決定者的注意義務(wù)。?參見[德]烏爾里?!へ惪耍骸讹L(fēng)險社會》,何博聞譯,譯林出版社1992 年版,第77-78 頁。

      (三)風(fēng)險溝通與協(xié)調(diào)的監(jiān)管格局

      正如季衛(wèi)東教授所指出的,風(fēng)險社會的實(shí)質(zhì)是問責(zé)以及相應(yīng)的溝通。民主參與的實(shí)質(zhì)是處理風(fēng)險溝通問題的制度安排,或者說是通過溝通來管理風(fēng)險的制度安排。?同前注⑩。為了凝聚社會風(fēng)險治理的合力,還需要進(jìn)行如下方面的努力:多渠道進(jìn)行科技倫理與法律宣傳、活動與交流,提升公眾的科技倫理意識,廣泛聽取專業(yè)意見,建立可靠的監(jiān)督機(jī)制,推動形成多方參與、協(xié)同共治的科技倫理與法律治理格局。學(xué)界應(yīng)積極推動跨學(xué)科融合對話,以GAI 治理為導(dǎo)向,采眾學(xué)科之長,實(shí)現(xiàn)學(xué)科內(nèi)部的“精耕細(xì)作”和跨學(xué)科研究的“集團(tuán)作戰(zhàn)”。企業(yè)應(yīng)增強(qiáng)責(zé)任意識,完善企業(yè)在倫理與法律風(fēng)險方面的決策、咨詢與調(diào)控的制度框架,提高企業(yè)對AIGC 風(fēng)險的識別、評估、處理能力。民眾應(yīng)主動學(xué)習(xí)科技倫理與法律知識,增強(qiáng)科技倫理意識,提升對虛假信息的鑒別能力,自覺踐行科技倫理原則,堅守科技倫理底線。通過這些制度的建構(gòu),最終有助于形成當(dāng)今中國化解風(fēng)險溝通難題的一種合理對策,誠如季衛(wèi)東教授所言,這一對策的典型特征是將政治問題法律化、法律問題程序化、程序問題技術(shù)化、技術(shù)問題論證化。

      法律規(guī)則本質(zhì)上也是溝通機(jī)制。在對立法價值與規(guī)范目的進(jìn)行設(shè)定之后,規(guī)則設(shè)計的最大挑戰(zhàn)可能是價值的精確表達(dá)。但立法者常常無法提供這樣的精確性,要么因為個人本身無法將此具體化,要么因為就所需的精確程度而言,并不存在社會共識?;仡櫫⒎v史,立法規(guī)則的顆粒度都不高,立法者一般會選取“合理”“可行”和“適當(dāng)”等寬泛的術(shù)語。正是由于價值偏好的不確定性、混亂和分歧,法律經(jīng)常依賴于空洞的術(shù)語。按美國法律學(xué)者卡斯·桑斯坦(Cass Sunstein)的話說,這種價值精確性的挑戰(zhàn)是“未完全理論化合意”(incompletely theorized agreements)。因此,在開發(fā)整合性的設(shè)計選擇時,應(yīng)盡可能公開程序;當(dāng)具有可行性時,應(yīng)通過咨詢委員會、公開聽證會或公眾評論期的設(shè)置,給公眾和專家以參與的機(jī)會。這種技術(shù)必要性引發(fā)的兩個實(shí)際問題,將會困擾依靠將人排除于決策之外的算法系統(tǒng)的政府官員,并可能成為對其使用的最為實(shí)質(zhì)性的限制:第一是價值完整性問題,第二則是價值精確性問題。在此不再贅述。

      (四)合理處理風(fēng)險與民事責(zé)任的互動關(guān)系

      風(fēng)險與責(zé)任的互動關(guān)系尚未被重視,在歐盟AIA 中也并未涉及責(zé)任承擔(dān)的問題。不過,在民事責(zé)任領(lǐng)域,風(fēng)險與侵權(quán)歸責(zé)存在緊密的關(guān)系。在過錯責(zé)任中,風(fēng)險關(guān)系著過錯的判斷;無過錯責(zé)任歸責(zé)的基礎(chǔ)就是風(fēng)險。此外,風(fēng)險也影響著侵權(quán)責(zé)任的承擔(dān)。?Johanna Chamberlain,The Risk-Based Approach of the European Union’s Proposed Artificial Intelligence Regulation: Some Comments from a Tort Law Perspective,European Journal of Risk Regulation (2023),14,1-4.人工智能風(fēng)險分級與損害發(fā)生后的責(zé)任承擔(dān)存在何種互動關(guān)系,在歐洲議會關(guān)于《人工智能民生責(zé)任制度的決議》中已經(jīng)有所提及。?European Parliament resolution of 20 October 2020 on a civil liability regime for artificial intelligence,2020/ 2014(INL).具體來說,與AIA 類似歐洲議會也采納了分級的觀點(diǎn):不同的責(zé)任規(guī)則對應(yīng)著不同的風(fēng)險。歐洲議會建議協(xié)調(diào)成員國民事責(zé)任賠償?shù)姆煽蚣埽瑢Ω唢L(fēng)險人工智能系統(tǒng)的運(yùn)營商施加無過錯責(zé)任。對于未列入高風(fēng)險人工智能附件中的人工智能系統(tǒng),則承擔(dān)過錯責(zé)任。進(jìn)一步說,對于有限風(fēng)險的人工智能系統(tǒng)進(jìn)行過錯推定,對于最低風(fēng)險的人工智能系統(tǒng)則采用一般過錯責(zé)任。?Johanna Chamberlain,The Risk-Based Approach of the European Union’s Proposed Artificial Intelligence Regulation: Some Comments from a Tort Law Perspective,European Journal of Risk Regulation (2023),14,1-4.在我國的人工智能地方立法實(shí)踐中,雖然《上海市促進(jìn)人工智能產(chǎn)業(yè)發(fā)展條例》《深圳經(jīng)濟(jì)特區(qū)人工智能產(chǎn)業(yè)促進(jìn)條例》均采納風(fēng)險分級的制度,但限于地方立法權(quán)限并未涉及責(zé)任制度。這為國家層面的人工智能立法進(jìn)行了留白,而上述歐盟法對于風(fēng)險與責(zé)任互動關(guān)系的認(rèn)識,對于未來人工智能國家立法或有助益。

      猜你喜歡
      規(guī)制人工智能系統(tǒng)
      Smartflower POP 一體式光伏系統(tǒng)
      主動退市規(guī)制的德國經(jīng)驗與啟示
      WJ-700無人機(jī)系統(tǒng)
      ZC系列無人機(jī)遙感系統(tǒng)
      北京測繪(2020年12期)2020-12-29 01:33:58
      2019:人工智能
      商界(2019年12期)2019-01-03 06:59:05
      人工智能與就業(yè)
      保護(hù)與規(guī)制:關(guān)于文學(xué)的刑法
      刑法論叢(2018年4期)2018-05-21 00:44:30
      連通與提升系統(tǒng)的最后一塊拼圖 Audiolab 傲立 M-DAC mini
      數(shù)讀人工智能
      小康(2017年16期)2017-06-07 09:00:59
      論《反不正當(dāng)競爭法》的規(guī)制范疇
      法治研究(2016年4期)2016-12-01 03:41:40
      汶川县| 翼城县| 荣昌县| 宁阳县| 涡阳县| 临朐县| 巴塘县| 大荔县| 荆门市| 芒康县| 鹤岗市| 军事| 商洛市| 凤凰县| 左云县| 芜湖市| 乌恰县| 宁国市| 浪卡子县| 苍山县| 延庆县| 山西省| 获嘉县| 陇川县| 普陀区| 土默特右旗| 襄汾县| 凤冈县| 南陵县| 平潭县| 九江县| 当雄县| 安多县| 乐清市| 渭南市| 五原县| 玉屏| 洛宁县| 武胜县| 且末县| 唐河县|