• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      論“人工智能法”框架體系的多維動態(tài)模式

      2025-02-22 00:00:00馬國洋
      東方法學(xué) 2025年1期

      關(guān)鍵詞:人工智能人工智能法 敏捷治理 框架體系 多維動態(tài)模式 人工智能治理

      當(dāng)前,人工智能技術(shù)對于人類社會的影響正在不斷加深,正如我國《新一代人工智能發(fā)展規(guī)劃》所指出的那樣:“人工智能的迅速發(fā)展將深刻改變?nèi)祟惿鐣?、改變世界?!辈豢煞裾J(rèn)的是,人工智能的出現(xiàn)確實(shí)帶來了便利,ChatGPT、自動駕駛汽車等應(yīng)用有效地提升了人類生活的質(zhì)量。但與這種便利相伴的是人工智能引發(fā)的算法歧視、隱私侵犯等風(fēng)險(xiǎn)。為了應(yīng)對這種風(fēng)險(xiǎn),推動人工智能高質(zhì)量發(fā)展,不少國家、國際組織也開始探索設(shè)計(jì)具有系統(tǒng)性的人工智能立法。例如,歐盟《人工智能法案》已經(jīng)正式生效,巴西聯(lián)邦參議院提交并公布了《巴西人工智能法(草案)》。在我國,這一趨勢同樣明顯?,F(xiàn)階段,“人工智能法”被列入國務(wù)院2023年立法工作計(jì)劃。同時,《人工智能法示范法2.0(專家建議稿)》《人工智能法(學(xué)者建議稿)》等專家學(xué)者提出的立法建議文本也相繼被推出。

      “立法活動是一項(xiàng)極為復(fù)雜的系統(tǒng)工程,需要善于謀算策劃,具有較高的運(yùn)籌技術(shù)”?!叭斯ぶ悄芊ā钡牧⒎üぷ魍瑯尤绱?,并且作為人工智能領(lǐng)域的統(tǒng)一立法,其科學(xué)性、系統(tǒng)性方面的要求和標(biāo)準(zhǔn)要更高,由此便需要一個有效的框架體系完成對于整個“人工智能法”的構(gòu)架。所謂“人工智能法”的框架體系,是指將“人工智能法”中的規(guī)則串聯(lián)起來,建構(gòu)起相關(guān)規(guī)則的關(guān)系,并將各個獨(dú)立的規(guī)則置于統(tǒng)一的體系之中。從當(dāng)前實(shí)踐看,雖然全球范圍內(nèi)真正成型的統(tǒng)一人工智能立法數(shù)量較為有限,但各個國家、國際組織等主體所提出的人工智能治理方案已經(jīng)具有整合性、系統(tǒng)性的趨勢,而這些實(shí)踐均可以為“人工智能法”的框架體系設(shè)計(jì)提供支撐。綜合當(dāng)前各個主體提出的方案,“人工智能法”的框架體系總體上可以分為三種模式。第一種是基于主體進(jìn)行治理的價值鏈模式,我國的《人工智能法示范法2.0(專家建議稿)》和《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》主要選擇了這種模式;第二種是基于流程進(jìn)行治理的生命周期模式,美國《人工智能風(fēng)險(xiǎn)管理框架》、我國《新一代人工智能倫理規(guī)范》以及經(jīng)濟(jì)合作與發(fā)展組織(以下簡稱經(jīng)合組織)《推進(jìn)人工智能的可問責(zé)原則》主要選擇了這種路徑;第三種是基于不同場景進(jìn)行治理的場景模式,歐盟《人工智能法案》和巴西《人工智能法(草案)》往往被認(rèn)為選擇了這種模式。這三種模式各具特色,分別存在難以克服的缺陷。

      其中,價值鏈模式的困境在于,一方面,不同主體之間的關(guān)系并不能完全被輕易地理清,主體權(quán)利和責(zé)任的精準(zhǔn)度不足。例如,人工智能的技術(shù)開發(fā)者和技術(shù)提供者有時并非不同的主體,只是在不同環(huán)節(jié)扮演著不同的角色。在這種情況下,如果使用價值鏈模式可能導(dǎo)致相關(guān)主體逃避或錯誤排序應(yīng)該承擔(dān)的責(zé)任。另一方面,價值鏈模式是一種針對所有人工智能進(jìn)行治理的方案,其并不能深入到不同場景設(shè)計(jì)不同的主體要求。由此,其在人工智能具體應(yīng)用的過程中,可能因?yàn)榍榫车奶厥庑院蛣討B(tài)性而表現(xiàn)出適應(yīng)性不足。

      生命周期模式的缺陷在于,一方面,該模式雖然理清了人工智能治理的各個環(huán)節(jié),但并未落實(shí)具體權(quán)利和責(zé)任主體。顯然,人工智能無法享有和承擔(dān)相應(yīng)的權(quán)利和責(zé)任,生命周期模式又未給出“穿透人工智能面紗”確定主體權(quán)利和責(zé)任的方式,這就導(dǎo)致人工智能治理的可操作性有待提升;另一方面,生命周期模式同價值鏈模式一樣,是基于一般人工智能的策略,因此其對于特殊場景的適應(yīng)性也存在一定程度的不足。

      相較于前兩種模式,場景模式更加注重將人工智能治理與具體應(yīng)用場景相結(jié)合,這就在很大程度上增加了其對于單一情境下人工智能治理的針對性。當(dāng)然,這種針對性的增強(qiáng)在一定程度上犧牲了對于人工智能監(jiān)管的整體性,即場景模式無法滿足敏捷性、穿透性治理的需求,其跨場景的治理能力會受到一些限制。由此引發(fā)的問題在于,對于某些場景使用的治理策略可能無法移植到其他場景之中。這也就意味著,我國“人工智能法”的制定,無論是采取何種模式,均可能存在一定問題。對此,理論和實(shí)踐均未給出令人滿意的回應(yīng)。既有研究中,即使有學(xué)者嘗試進(jìn)行分析,篇幅也較為有限,且并未從框架體系層面提出有效的解決方案。從具體立法來看,我國人工智能領(lǐng)域的規(guī)范在框架體系的問題上表現(xiàn)得也較為混亂,有的并不具有框架體系,有的采取價值鏈模式,有的采取生命周期模式,而不同方案之間的優(yōu)劣也缺乏比較。

      有鑒于此,為了對“人工智能法”的制定提供幫助,本文提出了一種“人工智能法”框架體系的多維動態(tài)模式,該模式廣泛吸收了當(dāng)前各個模式,將價值鏈維度、生命周期維度和場景維度作為三個基本維度,并將這些基本維度進(jìn)行有機(jī)組合,同時構(gòu)建動態(tài)機(jī)制以實(shí)現(xiàn)框架體系的及時更新,由此可以有效解決既有方案的困境。需要特別指出的是,由于本文主要面向單一的人工智能規(guī)則展開討論,故而主要的關(guān)注對象是不同國家、國際組織等主體的某一人工智能相關(guān)規(guī)則、策略或方案。同時,為了保證分析的全面性,本文所分析的對象并不限于人工智能的統(tǒng)一立法,也包括其他規(guī)范、建議、指導(dǎo)性文件、白皮書等,特別是基于一定框架體系進(jìn)行設(shè)計(jì)的文件。

      一、多維動態(tài)模式是順應(yīng)人工智能治理發(fā)展趨勢的產(chǎn)物

      2016年,AlphaGo的出現(xiàn)掀起了人工智能發(fā)展的新一輪高潮。在此次事件之后,各個國家、組織等主體也紛紛提出人工智能的治理方案。總體而言,以2021年為界限,全球范圍內(nèi)關(guān)于人工智能的治理策略可以分為兩個大的階段。在2021年以前,各個主體所出臺的人工智能治理方案大都較為粗糙,系統(tǒng)化程度明顯不足。一方面,很多方案都是從宏觀角度在價值和原則層面探討人工智能的治理問題,而未落實(shí)到具體方案,中國《新一代人工智能治理原則———發(fā)展負(fù)責(zé)任的人工智能》就是其中的典型代表;另一方面,各主體關(guān)于人工智能治理的措施和規(guī)則并未顯示出較強(qiáng)的整合意識。例如,美國《2019年算法責(zé)任法案》雖然提出了一些關(guān)于算法規(guī)制的要求,但是并沒有特別系統(tǒng)的框架體系。

      2021年后,各個主體開始重視對于人工智能治理的系統(tǒng)化,很多方案都提出了明確的人工智能治理、監(jiān)管或是法律的框架體系,并且基于框架體系的整合性立法開始正式出現(xiàn)。而這種對于框架的使用在最初大多選擇的是單一框架,例如2023年經(jīng)合組織《推進(jìn)人工智能的可問責(zé)原則》明確指出,采取人工智能生命周期模式設(shè)計(jì)關(guān)于人工智能治理的規(guī)則框架體系。此后隨著人工智能治理方案的逐漸成熟,一些規(guī)則也開始嘗試將不同的框架進(jìn)行融合,并以此為基礎(chǔ)制定人工智能治理規(guī)則。例如,歐盟《人工智能法案》雖然更多被認(rèn)為是基于場景模式展開的設(shè)計(jì),但其同樣提及了價值鏈和生命周期的概念。2023年美國NIST發(fā)布的《人工智能風(fēng)險(xiǎn)管理框架》雖然主要是基于生命周期模式而展開,但是同樣提出了“必須明確定義和區(qū)分決策制定和監(jiān)督人工智能系統(tǒng)的人員角色和職責(zé)”。

      值得注意的是,盡管探索不同框架體系融合的人工智能治理規(guī)則正在成為一種趨勢,但這種嘗試并不足夠完善,既有方案尚未將當(dāng)前已有的三種框架有機(jī)地融合到一個融洽的體系之中,因此仍然存在不少問題。無論是歐盟《人工智能法案》,還是美國《人工智能風(fēng)險(xiǎn)管理框架》,本質(zhì)上都是依托某一種模式,而在需要時適當(dāng)添加了其他模式的概念和方法,這便導(dǎo)致其無法突破單一模式的固有弊端———?dú)W盟《人工智能法案》更多關(guān)注不可接受風(fēng)險(xiǎn)和高風(fēng)險(xiǎn)人工智能,對于其他風(fēng)險(xiǎn)較低的人工智能的治理則基本沒有太多策略;美國《人工智能風(fēng)險(xiǎn)管理框架》對于主體責(zé)任的分配以及針對特殊場景的應(yīng)對能力均有所不足。

      基于上述發(fā)展趨勢,人工智能治理方案或是人工智能立法的下一步發(fā)展方向便呼之欲出———將不同的框架有機(jī)融合并以此為基礎(chǔ)完成人工智能立法。本文所言之多維動態(tài)模式便是在此基礎(chǔ)上提出來的。其目標(biāo)是將當(dāng)前既有的三種模式作為三個基本維度并通過合理的組合使其各自發(fā)揮應(yīng)有的功能。當(dāng)然,考慮到人工智能發(fā)展的態(tài)勢,一方面,不同框架的組合可能因?yàn)榧夹g(shù)的發(fā)展或?qū)嵺`環(huán)境的變化而產(chǎn)生不適應(yīng)進(jìn)而需要重新加以組合;另一方面,新技術(shù)的產(chǎn)生有時可能推動新的基本維度的形成。因此,本文在對基本維度進(jìn)行組合的同時,也提出了一種動態(tài)化的應(yīng)對機(jī)制,以減輕技術(shù)變化而引發(fā)的規(guī)則不適應(yīng)性。

      多維動態(tài)模式的提出至少具有三方面的意義。首先是滿足人工智能治理精細(xì)化的需求。隨著人工智能的日益發(fā)展,各方對于人工智能的治理策略也在日益增多。據(jù)經(jīng)合組織人工智能政策觀察站統(tǒng)計(jì),截至2021年,60個國家或地區(qū)已經(jīng)發(fā)布了700多項(xiàng)國家人工智能治理舉措。另據(jù)學(xué)者統(tǒng)計(jì),從2020年起,國際組織發(fā)布的人工智能治理舉措數(shù)量已經(jīng)開始超過國家和地區(qū)層面,成為人工智能治理舉措的主要來源。這些策略之間的關(guān)系成了人工智能治理需要關(guān)注的問題。從既有實(shí)踐看,各治理策略之間存在著關(guān)系矛盾、混亂等問題。對此,更加精細(xì)化地對人工智能進(jìn)行治理開始被更多地提出,而基于多維動態(tài)模式制定系統(tǒng)化的“人工智能法”相較于之前的方案更加具有系統(tǒng)性,其可以有效糾偏人工智能領(lǐng)域治理策略體系性缺失之弊。

      其次是滿足立法的內(nèi)在需求。統(tǒng)一的立法要求有效處理規(guī)則之間的橫向和縱向關(guān)系,使規(guī)則內(nèi)部協(xié)調(diào)統(tǒng)一。特別是對于“人工智能法”而言,在統(tǒng)一立法之前,已經(jīng)存在大量的人工智能相關(guān)規(guī)則,“人工智能法”就更加要強(qiáng)調(diào)集成性、統(tǒng)一性和系統(tǒng)性。若其不能有效協(xié)調(diào)既有規(guī)則之間的關(guān)系,那么反而可能進(jìn)一步增加該領(lǐng)域規(guī)則之間的混亂性。而多維動態(tài)模式可以在很大程度上起到統(tǒng)攝整個人工智能立法的作用,將既有的規(guī)則按照一定邏輯進(jìn)行整合,從而增加規(guī)則的系統(tǒng)性。從之前的經(jīng)驗(yàn)不難發(fā)現(xiàn),相較于粗放的立法模式,歐盟《人工智能法案》具有明確的整合性特征,其盡可能地包容了各個場景,并將不同場景置于統(tǒng)一的框架體系下進(jìn)行串聯(lián),而非只對單一場景設(shè)計(jì)規(guī)則但不與其他場景規(guī)則進(jìn)行呼應(yīng)。顯然,這種立法方式更加符合立法系統(tǒng)性、整體性的要求。如前文所述,多維動態(tài)模式相較于歐盟《人工智能法案》的框架更加系統(tǒng),因此也就更符合立法的需要。

      最后是滿足搶占世界人工智能發(fā)展話語權(quán)的需求。當(dāng)今世界競爭與合作并存,很多國家都在大力發(fā)展人工智能,以獲取相關(guān)技術(shù)領(lǐng)域的話語權(quán),數(shù)字博弈的局面正在逐漸形成。人工智能的話語權(quán)問題可以分為兩個方面,一是人工智能技術(shù)本身的話語權(quán),二是人工智能治理的話語權(quán)。后者便成為各個主體不斷優(yōu)化人工智能治理方案乃至頒布“人工智能法”的重要動力來源。例如,歐盟在全球范圍內(nèi)率先制定了第一部《人工智能法案》,具有搶占人工智能話語權(quán)的目標(biāo)———?dú)W盟內(nèi)部市場委員蒂埃里·布雷東指出:“歐盟成為第一個為人工智能使用設(shè)立明確規(guī)則的地區(qū)。《人工智能法案》不僅是一本規(guī)則手冊,也將成為歐盟初創(chuàng)企業(yè)和研究人員引領(lǐng)全球人工智能競賽的助推器?!迸c之相似,我國率先制定生成式人工智能的治理規(guī)范以及出臺關(guān)于人工智能的立法規(guī)劃,同樣蘊(yùn)含著“搶占人工智能領(lǐng)域國際規(guī)則制定權(quán)與國際話語權(quán)”的意蘊(yùn)。從方法上看,這種話語權(quán)的搶占一是在于速度,二是在于質(zhì)量。就前者而言,第一部“人工智能法”無疑是一個很好的噱頭。但若是僅有速度,相關(guān)規(guī)則內(nèi)容平平、體系性差,對于全球人工智能治理幫助不足,恐怕其所能產(chǎn)生的效能也會較為有限。例如,2017年俄羅斯的《機(jī)器人與人工智能示范公約》雖然被稱為“世界上第一部調(diào)整機(jī)器人、人工智能和物理網(wǎng)絡(luò)系統(tǒng)的國際文件草案”,但其產(chǎn)生的國際影響力卻并不大。從這個意義上講,能夠有效提升人工智能治理方案系統(tǒng)性的框架體系,無疑有助于提升“人工智能法”的質(zhì)量,也就更有利于搶占話語權(quán)。多維動態(tài)模式是在進(jìn)一步吸取當(dāng)前框架體系的經(jīng)驗(yàn)和教訓(xùn)基礎(chǔ)上所提出的方案,具有更高的成熟度,也就更有利于提升我國在該領(lǐng)域的話語權(quán)。

      二、多維動態(tài)模式的基本維度

      從當(dāng)前各方提出的關(guān)于人工智能規(guī)則的框架體系來看,總體上可以分為價值鏈模式、生命周期模式和場景模式三種基本模式。多維動態(tài)模式是對上述模式的有機(jī)組合,并將這三種模式作為最基礎(chǔ)的三個維度———價值鏈維度、生命周期維度和場景維度。 為了更好地展開分析,本文將結(jié)合當(dāng)前全球范圍內(nèi)的人工智能規(guī)則就不同維度的內(nèi)涵進(jìn)行闡釋。

      (一)價值鏈維度

      “價值鏈”最初是一個經(jīng)濟(jì)學(xué)領(lǐng)域的概念。1985年波特首先提出了價值鏈模型,其主要是指廠商為生產(chǎn)最終交易的產(chǎn)品或服務(wù)所經(jīng)歷的增加價值的活動過程。此后,在服務(wù)科學(xué)、管理、工程和設(shè)計(jì)等領(lǐng)域,價值鏈的概念得到了應(yīng)用或發(fā)展。在人工智能治理問題上,該概念也同樣有所應(yīng)用。具體而言,價值鏈模式的治理對象是人工智能運(yùn)轉(zhuǎn)過程中的各個主體,其治理方式是為人工智能價值鏈中的各個主體分別設(shè)計(jì)責(zé)任和權(quán)利。歐洲政策研究中心對價值鏈的定義是:“開發(fā)人工智能系統(tǒng)并投入使用的主體過程。其功能是考慮哪些主體可以在人工智能價值鏈的哪些部分發(fā)揮作用,以確定哪個主體最符合監(jiān)管要求,保障人工智能系統(tǒng)的安全性?!痹诰唧w的方案設(shè)計(jì)中,歐盟的《人工智能法案》明確提出“價值鏈”一詞,并為部分場景中價值鏈中的主體賦予了責(zé)任。而我國的不少治理策略雖然未明確提出價值鏈的概念,但整體治理思路是依托于價值鏈而進(jìn)行的。如前文所述,我國的《人工智能法示范法2.0(專家建議稿)》和《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》均使用了這種方案。

      價值鏈維度的展開主要圍繞技術(shù)開發(fā)者、技術(shù)提供者、技術(shù)應(yīng)用者和受技術(shù)影響者。其中,技術(shù)開發(fā)者是指人工智能技術(shù)的開發(fā)主體,即為人工智能提供技術(shù)支持的主體,其主要責(zé)任包括:(1)合理合法設(shè)計(jì)責(zé)任。技術(shù)開發(fā)者應(yīng)確保人工智能系統(tǒng)滿足使用的要求,同時應(yīng)保證人工智能符合公正、可靠、安全、穩(wěn)定等人工智能倫理規(guī)范。合理合法設(shè)計(jì)責(zé)任在很多人工智能治理方案中都有所提及,例如,歐盟《人工智能法案》要求開發(fā)人工智能的主體應(yīng)建立質(zhì)量管理體系,并防范高風(fēng)險(xiǎn)人工智能系統(tǒng)對人類造成傷害、存在歧視等問題。《人工智能法示范法2.0(專家建議稿)》提出要建立質(zhì)量管理體系,制定基礎(chǔ)模型的使用規(guī)則,明確使用基礎(chǔ)模型的研發(fā)者應(yīng)當(dāng)履行的義務(wù)。(2)風(fēng)險(xiǎn)評估和測試責(zé)任。技術(shù)開發(fā)者應(yīng)通過設(shè)計(jì)風(fēng)險(xiǎn)評估體系、風(fēng)險(xiǎn)測試機(jī)制等方式,在人工智能投入應(yīng)用前進(jìn)行風(fēng)險(xiǎn)測試,以避免應(yīng)用過程中產(chǎn)生的各種風(fēng)險(xiǎn)。對此責(zé)任,歐盟《人工智能法案》要求開發(fā)人工智能的主體應(yīng)就高風(fēng)險(xiǎn)人工智能進(jìn)行符合性評估;美國《人工智能風(fēng)險(xiǎn)管理框架》要求在人工智能開發(fā)過程中進(jìn)行嚴(yán)格的軟件測試與性能評估。(3)數(shù)據(jù)正確應(yīng)用和處理責(zé)任。技術(shù)開發(fā)者在進(jìn)行數(shù)據(jù)使用、數(shù)據(jù)標(biāo)注等工作時,要符合數(shù)據(jù)應(yīng)用的規(guī)范,遵循比例原則、合理使用原則等原則,采取數(shù)據(jù)脫敏等方法,保證數(shù)據(jù)的使用符合合法性、效率性等要求。就數(shù)據(jù)正確應(yīng)用和處理責(zé)任進(jìn)行規(guī)定的代表性規(guī)則是2022年中國《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》:“技術(shù)支持者應(yīng)當(dāng)加強(qiáng)訓(xùn)練數(shù)據(jù)管理,采取必要措施保障訓(xùn)練數(shù)據(jù)安全;訓(xùn)練數(shù)據(jù)包含個人信息的,應(yīng)當(dāng)遵守個人信息保護(hù)的有關(guān)規(guī)定?!痹撘?guī)則之外,歐盟《人工智能法案》、2023年多個國家簽署并公布的《安全人工智能系統(tǒng)開發(fā)指南》等規(guī)范中也提出了相應(yīng)的要求。(4)就人工智能應(yīng)用進(jìn)行記錄、備案和解釋。技術(shù)開發(fā)者應(yīng)就人工智能技術(shù)的相關(guān)信息進(jìn)行必要的記錄和備案,同時也應(yīng)對技術(shù)的運(yùn)行原理提供相應(yīng)的解釋,以此提高人工智能的可追蹤性、可控性和可解釋性。《安全人工智能系統(tǒng)開發(fā)指南》、歐盟《人工智能法案》、2023年美國《安全、穩(wěn)定、可信的人工智能行政令》均提出了明確的記錄或解釋要求。

      技術(shù)提供者是指提供人工智能相關(guān)服務(wù)的主體,其往往是很多人工智能治理方案的重要規(guī)制對象。技術(shù)提供者的主要責(zé)任包括:(1)監(jiān)管審查責(zé)任。人工智能的技術(shù)提供者需要對投入市場使用的人工智能進(jìn)行合法性、合倫理性等方面內(nèi)容的審查,以避免投入使用的人工智能存在風(fēng)險(xiǎn)。對于該項(xiàng)責(zé)任,我國《生成式人工智能服務(wù)管理暫行辦法》第7條對于生成式人工智能服務(wù)提供者的相關(guān)規(guī)定較為具有代表性。除該規(guī)定外,我國《人工智能法(學(xué)者建議稿)》《人工智能法示范法2.0(專家建議稿)》以及2023年英國《人工智能監(jiān)管法(草案)》也都提及了類似義務(wù)。(2)風(fēng)險(xiǎn)測試、評估、追蹤責(zé)任。與人工智能技術(shù)開發(fā)者的責(zé)任相似,人工智能技術(shù)提供者同樣需要對人工智能的應(yīng)用風(fēng)險(xiǎn)進(jìn)行評估和測試。技術(shù)提供者需要在人工智能投入使用后,對人工智能的應(yīng)用狀況進(jìn)行追蹤,以及時查明在開發(fā)和測試階段未暴露的風(fēng)險(xiǎn)。2023年巴西《人工智能法(草案)》、歐盟《人工智能法案》以及我國《人工智能法(學(xué)者建議稿)》均設(shè)置了相關(guān)義務(wù)。(3)備案、公開責(zé)任。人工智能技術(shù)提供者需要就人工智能的相關(guān)信息進(jìn)行備案和公開,特別是涉及人工智能可靠性、合法性等內(nèi)容的信息。此外,技術(shù)提供者還需要就人工智能的可解釋性問題進(jìn)行說明。很多規(guī)則都明確了上述義務(wù),例如我國《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》、歐盟《人工智能法案》等。(4)補(bǔ)救責(zé)任。在人工智能應(yīng)用造成損害時,人工智能技術(shù)提供者需要及時就相關(guān)問題進(jìn)行補(bǔ)救,以避免損失擴(kuò)大,最大限度地保護(hù)有關(guān)人員的權(quán)利。我國《人工智能法示范法2.0(專家建議稿)》提及技術(shù)提供者應(yīng)在人工智能造成損害時提供相應(yīng)的補(bǔ)救措施。此外,英國2023年《促進(jìn)創(chuàng)新的人工智能監(jiān)管方法》和《人工智能監(jiān)管法(草案)》均提及補(bǔ)救措施的重要性。

      技術(shù)應(yīng)用者是指使用人工智能技術(shù)的主體, 例如運(yùn)用人工智能大語言模型生成文字或圖片、操作自動駕駛汽車的主體。一般而言,技術(shù)應(yīng)用者的責(zé)任主要包括兩方面內(nèi)容。一方面是按照要求使用人工智能的責(zé)任。人工智能技術(shù)的應(yīng)用者應(yīng)該按照有關(guān)規(guī)范、說明書、協(xié)議使用技術(shù)??紤]到人工智能技術(shù)的復(fù)雜性,若應(yīng)用者未按照要求使用人工智能技術(shù),可能會引發(fā)違法犯罪行為。利用深度偽造技術(shù)制作色情圖片、視頻就是典型的例子。因此,一些規(guī)則會就人工智能技術(shù)的應(yīng)用者作出相應(yīng)限制。例如,歐盟《人工智能法案》要求高風(fēng)險(xiǎn)人工智能系統(tǒng)的使用者應(yīng)根據(jù)系統(tǒng)隨附的說明書使用這些系統(tǒng)。我國《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》要求“應(yīng)用者不得利用深度合成服務(wù)制作、復(fù)制、發(fā)布、傳播虛假新聞信息”。另一方面是配合人工智能治理的責(zé)任。一些規(guī)則要求人工智能技術(shù)的應(yīng)用者配合人工智能的治理工作, 這主要是考慮到部分關(guān)于人工智能的信息只受到技術(shù)應(yīng)用者的控制。例如,歐盟《人工智能法案》要求技術(shù)應(yīng)用者保留由高風(fēng)險(xiǎn)人工智能系統(tǒng)自動生成的日志。

      受技術(shù)影響者主要指因人工智能技術(shù)的使用而遭受權(quán)利損害的主體。不少人工智能治理策略都注意到了人工智能技術(shù)的應(yīng)用可能會損害受技術(shù)影響者的利益,因此也會采取相應(yīng)的措施對權(quán)利予以保障。這些權(quán)利通常包括:(1)知情權(quán)。知情權(quán)是指受技術(shù)影響者有權(quán)知悉人工智能應(yīng)用的各種情況,包括決策方式、治理方式、潛在風(fēng)險(xiǎn)等。很多文件都強(qiáng)調(diào)知情權(quán)在人工智能應(yīng)用中的重要性,我國《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》和菲律賓2023年的《人工智能監(jiān)管法》(眾議院第7913號法案,以下簡稱《第7913號法案》)就是其中典型代表。(2)反對權(quán)或人工干預(yù)權(quán)。反對權(quán)或人工干預(yù)權(quán)是指受技術(shù)影響者可以在任何階段決定是否干預(yù)或退出基于人工智能的決策。對于該項(xiàng)權(quán)利較為有代表性的規(guī)定是歐盟《通用數(shù)據(jù)保護(hù)條例》第22條:“數(shù)據(jù)主體有權(quán)不受僅基于自動化決策所做決定的影響,包括那些會對他們產(chǎn)生法律效力或類似重大影響的特征分析。”(3)質(zhì)詢權(quán)。質(zhì)詢權(quán)與反對權(quán)有一定相似性,其是指受技術(shù)影響者可以對人工智能的應(yīng)用提出質(zhì)疑。巴西《人工智能法(草案)》確認(rèn)了受技術(shù)影響者享有該權(quán)利。(4)解釋權(quán)。解釋權(quán)是指受技術(shù)影響者有權(quán)獲得關(guān)于人工智能決策產(chǎn)生原因的解釋,這是關(guān)于人工智能公開性的要求。巴西《人工智能法(草案)》對此項(xiàng)權(quán)利作了較為明確的規(guī)定:“(受人工智能系統(tǒng)影響的人) 有權(quán)要求在收到請求后15天內(nèi)對人工智能系統(tǒng)做出的決定、建議或預(yù)測作出解釋?!保?)平等權(quán)。平等權(quán)是指公民平等地享有權(quán)利,不受任何差別對待,要求國家給予同等保護(hù)的權(quán)利。對于平等權(quán)的強(qiáng)調(diào)主要考慮到人工智能存在算法歧視的風(fēng)險(xiǎn),即依據(jù)算法所作自動決策實(shí)施的直接或間接歧視性行為。很多人工智能治理策略都關(guān)注該問題,或是從正面賦予受技術(shù)影響者平等權(quán),例如巴西《人工智能法(草案)》;或是從反面否定算法歧視行為,例如2022年美國《停止算法歧視法案》。(6)隱私權(quán)。隱私權(quán)是指公民享有的私人生活安寧與私人信息依法受到保護(hù),不被他人非法侵?jǐn)_、知悉、搜集、利用和公開等的權(quán)利。因?yàn)樾乱淮斯ぶ悄苁且源髷?shù)據(jù)為基礎(chǔ),在使用海量數(shù)據(jù)的過程中難免會存在侵犯隱私權(quán)的問題。因此,賦予受技術(shù)影響者以隱私權(quán)也就成為一些人工智能治理策略的關(guān)注重點(diǎn)。例如,2022年美國《人工智能權(quán)利法案藍(lán)圖》將保護(hù)數(shù)據(jù)隱私作為五項(xiàng)基本原則之一,菲律賓《第7913號法案》也強(qiáng)調(diào)了隱私權(quán)的重要性。

      (二)生命周期維度

      生命周期最初是一個生物學(xué)概念,其是指生命體生命畢生發(fā)展貫穿一生的連續(xù)過程,是生命體的成長方式。后來有學(xué)者開始將該概念應(yīng)用于經(jīng)濟(jì)學(xué)、管理學(xué)、政治學(xué)等各個領(lǐng)域,比較有代表性的如組織生命周期、產(chǎn)品生命周期、技術(shù)生命周期等。近年來,在人工智能治理問題上,生命周期的概念也開始頻繁出現(xiàn),例如美國《人工智能風(fēng)險(xiǎn)管理框架》、歐盟《人工智能法案》、我國《新一代人工智能倫理規(guī)范》、經(jīng)合組織《推進(jìn)人工智能的可問責(zé)原則》等都提及了該詞匯。雖然最后定稿的歐盟《人工智能法案》并未提及人工智能生命周期的定義,但是在之前的版本中,其明確指出人工智能生命周期是指“從設(shè)計(jì)到退役的人工智能系統(tǒng)的持續(xù)時間”。多維動態(tài)模式的生命周期維度指向了從人工智能設(shè)計(jì)到退役的全流程治理,即為人工智能生命周期的各個環(huán)節(jié)設(shè)計(jì)特定的要求。總結(jié)當(dāng)前各個文件及相關(guān)理論,該維度應(yīng)主要圍繞以下幾個環(huán)節(jié)展開:

      1.人工智能規(guī)劃和設(shè)計(jì)

      規(guī)劃和設(shè)計(jì)階段的主要工作是對于人工智能系統(tǒng)的目標(biāo)、具體任務(wù)構(gòu)成、具體假設(shè)、運(yùn)行環(huán)境、參與人員、流程設(shè)計(jì)、合法性等問題進(jìn)行明確。從治理角度上講,該環(huán)節(jié)的主要要求包括:首先,根據(jù)人工智能開發(fā)、運(yùn)營等工作的參與人員狀況以及相關(guān)能力,確立人工智能的設(shè)計(jì)計(jì)劃和架構(gòu);其次,明確人工智能的具體要求,包括避免歧視、保證隱私、具有可解釋性、保證安全、反對有害人工智能系統(tǒng)等;最后,廣泛吸收各方意見,進(jìn)一步明確人工智能應(yīng)用設(shè)計(jì)的價值導(dǎo)向。對于上述要求規(guī)定較為詳細(xì)的是經(jīng)合組織《推進(jìn)人工智能的可問責(zé)原則》,其基于不同的價值追求設(shè)計(jì)了相應(yīng)的治理辦法。此外,美國《人工智能風(fēng)險(xiǎn)管理框架》也指出,該階段應(yīng)“創(chuàng)建人工智能系統(tǒng)的概念和目標(biāo),并負(fù)責(zé)規(guī)劃、設(shè)計(jì)、數(shù)據(jù)收集和任務(wù)處理,以便人工智能系統(tǒng)合乎法律和符合目的”。

      2.數(shù)據(jù)選擇與處理

      數(shù)據(jù)選用問題關(guān)乎人工智能分析的準(zhǔn)確性,同時涉及算法歧視與隱私侵犯等風(fēng)險(xiǎn)。在明確了人工智能的相關(guān)目標(biāo)后,應(yīng)該進(jìn)行針對性的數(shù)據(jù)選擇和處理。具體內(nèi)容包括數(shù)據(jù)采集、數(shù)據(jù)探索、數(shù)據(jù)選用、數(shù)據(jù)清洗、數(shù)據(jù)標(biāo)注、數(shù)據(jù)完整性檢驗(yàn)、數(shù)據(jù)質(zhì)量檢驗(yàn)、數(shù)據(jù)信息記錄等。從治理角度看,該階段的主要要求包括:首先,數(shù)據(jù)應(yīng)用的各個環(huán)節(jié)嚴(yán)格遵循法律的規(guī)定,避免因數(shù)據(jù)選用問題引發(fā)算法歧視、隱私侵犯等問題,必要時也應(yīng)該通過數(shù)據(jù)匿名化處理、增加噪聲、合并數(shù)據(jù)集等方式規(guī)避侵權(quán)問題。其次,努力提升數(shù)據(jù)集中數(shù)據(jù)的質(zhì)量,包括完整性、及時性、一致性、規(guī)范性和準(zhǔn)確性等。最后,在相關(guān)文件中記錄各類數(shù)據(jù),保證各類信息具有可追蹤性。對于數(shù)據(jù)選擇和處理環(huán)節(jié)治理的問題,我國《新一代人工智能倫理規(guī)范》明確:“在數(shù)據(jù)收集、存儲、使用、加工、傳輸、提供、公開等環(huán)節(jié),嚴(yán)格遵守?cái)?shù)據(jù)相關(guān)法律、標(biāo)準(zhǔn)與規(guī)范,提升數(shù)據(jù)的完整性、及時性、一致性、規(guī)范性和準(zhǔn)確性等?!倍?jīng)合組織《推進(jìn)人工智能的可問責(zé)原則》和新加坡《人工智能模型治理框架》的具體要求則更為細(xì)致。

      3.算法設(shè)計(jì)與模型建立

      該階段主要是通過合適的人工智能算法來開發(fā)人工智能模型,該算法代表了與人工智能應(yīng)用相對應(yīng)的人工智能能力。該階段的主要工作為算法和模型的選擇與校準(zhǔn)、制定評估基準(zhǔn)、模型的訓(xùn)練與測試、模型的可解釋性評估等。通常來說,此階段的主要要求包括:首先,根據(jù)人工智能的相關(guān)目標(biāo),選擇適當(dāng)?shù)哪P秃痛a;其次,運(yùn)用適當(dāng)?shù)姆椒ㄌ嵘斯ぶ悄艿暮戏ㄐ院桶踩裕缏?lián)合學(xué)習(xí)、差分隱私、消除差異性影響等;再次,通過適當(dāng)方法提升人工智能的可解釋性,例如使用可解釋算法;最后,引入有關(guān)技術(shù)應(yīng)用者、專家和利益相關(guān)者參與算法設(shè)計(jì)和模型構(gòu)建。對于上述治理方法規(guī)定較為詳細(xì)的是經(jīng)合組織《推進(jìn)人工智能的可問責(zé)原則》和新加坡《人工智能模型治理框架》,其基本覆蓋了算法設(shè)計(jì)與模型建立階段所有的治理環(huán)節(jié)。此外,我國《新一代人工智能倫理規(guī)范》也從增強(qiáng)透明性和反對算法歧視的角度切入,對該環(huán)節(jié)予以規(guī)制。

      4.技術(shù)審查與檢驗(yàn)

      在人工智能投入使用前,應(yīng)對相關(guān)技術(shù)進(jìn)行審查,以避免可能的各種風(fēng)險(xiǎn)。該階段的主要要求包括:首先,根據(jù)人工智能的設(shè)計(jì)目標(biāo)和運(yùn)行環(huán)境,制定相應(yīng)的評價標(biāo)準(zhǔn),并對人工智能系統(tǒng)進(jìn)行針對性的自評估;其次,引入第三方主體對人工智能進(jìn)行評估,以提升技術(shù)檢驗(yàn)的中立性和可靠性;最后,就人工智能的狀況提出相應(yīng)的整改意見。人工智能的技術(shù)審查與檢驗(yàn)是很多人工智能治理方案的重要環(huán)節(jié),例如,美國《2022年算法責(zé)任法案》、2019年加拿大《自動化決策指令》都具有技術(shù)評估的要求。而歐盟《人工智能法案》指出:“高風(fēng)險(xiǎn)人工智能系統(tǒng)的測試應(yīng)在開發(fā)過程的任何適當(dāng)時間進(jìn)行,并且在投放市場或投入使用之前進(jìn)行。測試應(yīng)根據(jù)初步確定的指標(biāo)和與高風(fēng)險(xiǎn)人工智能系統(tǒng)的預(yù)期目的相適應(yīng)的概率閾值進(jìn)行?!苯?jīng)合組織《推進(jìn)人工智能的可問責(zé)原則》則是設(shè)計(jì)了更為詳細(xì)的措施。

      5.技術(shù)部署與使用

      技術(shù)部署與使用是將人工智能投入市場中應(yīng)用的階段。該階段需要確保人工智能在市場環(huán)境下健康運(yùn)轉(zhuǎn)。一般而言,該階段的主要要求包括:首先,按照規(guī)則部署人工智能,就人工智能進(jìn)行實(shí)時監(jiān)測,探索人工智能是否存在算法歧視、隱私侵犯等問題;其次,記錄人工智能的應(yīng)用狀況,與目標(biāo)進(jìn)行對比,并及時反饋;再次,明確告知相關(guān)群體人工智能應(yīng)用的相關(guān)信息以及相關(guān)權(quán)利;最后,完善申訴機(jī)制,明確關(guān)于人工智能引發(fā)問題的應(yīng)對措施和補(bǔ)償措施。對于該環(huán)節(jié)規(guī)定較為具體的是我國《新一代人工智能倫理規(guī)范》。除此之外,歐盟《人工智能法案》、經(jīng)合組織《推進(jìn)人工智能的可問責(zé)原則》、新加坡《人工智能模型治理框架》也都有相關(guān)規(guī)定。

      (三)場景維度

      場景一詞源于藝術(shù)領(lǐng)域,后來逐漸被社會學(xué)研究吸納。最早關(guān)于場景的研究始于20世紀(jì)50年代美國芝加哥大學(xué)社會理論學(xué)者歐文·戈夫曼的“擬劇理論”。此后,場景理論不斷發(fā)展,隨著大數(shù)據(jù)時代的到來,斯考伯和伊斯雷爾更是預(yù)言,人類將進(jìn)入場景時代。〕在人工智能治理問題上,基于場景的治理也逐漸被不少主體所采用。所謂場景治理,是指以情境為導(dǎo)向考察人工智能應(yīng)用的風(fēng)險(xiǎn)水平,相應(yīng)制定與風(fēng)險(xiǎn)程度相一致的規(guī)制策略和規(guī)則,亦即“貼合現(xiàn)實(shí)的法律應(yīng)對”。而多維動態(tài)模式中的場景維度也就指向了不同場景的關(guān)照。這種關(guān)照主要是將不同場景歸入不同的風(fēng)險(xiǎn)級別之中,進(jìn)而對特殊風(fēng)險(xiǎn)的場景設(shè)置更加具體化的治理策略。具體而言,結(jié)合歐盟《人工智能法案》和《巴西人工智能法(草案)》《人工智能法(學(xué)者建議稿)》這種整合性較強(qiáng)的治理策略以及其他人工智能單一場景的針對性策略,我國的規(guī)范典例包括:關(guān)于自動駕駛場景的2018年《肇慶市自動駕駛車輛道路測試管理實(shí)施細(xì)則(試行)》、2020年《智能汽車創(chuàng)新發(fā)展戰(zhàn)略》;關(guān)于人臉識別場景的2023年《人臉識別技術(shù)應(yīng)用安全管理規(guī)定(試行)(征求意見稿)》;關(guān)于生成式人工智能場景的《生成式人工智能服務(wù)管理暫行辦法》《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》;關(guān)于司法場景的2022年《最高人民法院關(guān)于規(guī)范和加強(qiáng)人工智能司法應(yīng)用的意見》等。場景維度主要應(yīng)劃分為四種不同類型:(1)不可接受風(fēng)險(xiǎn)。對于人類基本權(quán)利造成較大威脅的人工智能系統(tǒng)被要求禁止使用,這包括操縱人類意志的系統(tǒng)、利用特定自然人群體缺陷的系統(tǒng)、公權(quán)力機(jī)關(guān)社會評分系統(tǒng)、公共場所生物識別系統(tǒng)等。(2)高風(fēng)險(xiǎn)。高風(fēng)險(xiǎn)人工智能是對人類權(quán)利有一定影響的人工智能,其包括生物特征識別系統(tǒng)、關(guān)鍵基礎(chǔ)設(shè)施管理和運(yùn)營系統(tǒng)、教育培訓(xùn)系統(tǒng)、就業(yè)機(jī)會系統(tǒng)、社會福利系統(tǒng)、立法司法和執(zhí)法系統(tǒng)等。這類高風(fēng)險(xiǎn)人工智能系統(tǒng)應(yīng)受到嚴(yán)格的規(guī)制,除一般要求外,還應(yīng)根據(jù)場景設(shè)置一些特殊的要求,如進(jìn)行特殊的設(shè)計(jì)和規(guī)劃、成立專門的數(shù)據(jù)審查機(jī)制和風(fēng)險(xiǎn)審查部門等。(3)有限風(fēng)險(xiǎn)(特殊透明度風(fēng)險(xiǎn))。有限風(fēng)險(xiǎn)是使用人工智能時,應(yīng)用者能意識到與機(jī)器互動,進(jìn)而作出明智的決定時所產(chǎn)生的風(fēng)險(xiǎn)。這類人工智能系統(tǒng)被賦予的特殊要求并不多,只需要保持透明度并提供相應(yīng)信息。例如,歐盟《人工智能法案》要求情感識別系統(tǒng)的用戶應(yīng)告知受該系統(tǒng)操作影響的自然人。(4)最小風(fēng)險(xiǎn)。大部分人工智能系統(tǒng)都屬于最小風(fēng)險(xiǎn)系統(tǒng),其并不會對公民權(quán)利造成傷害,例如允許自由使用人工智能的電子游戲或垃圾郵件過濾器等應(yīng)用。而這類人工智能系統(tǒng)的開發(fā)和使用通常不被予以太多特殊要求,只需滿足最基本的要求即可。

      三、多維動態(tài)模式的運(yùn)作機(jī)制

      前文討論的多維動態(tài)模式的基本維度從靜態(tài)的角度上揭示了該框架體系的核心組成要素。然而,若要真正實(shí)現(xiàn)其在人工智能立法領(lǐng)域中的潛力和價值,不僅需要深入理解這些基本維度,還需要進(jìn)一步探討如何將它們有機(jī)地結(jié)合起來,并確保它們能夠高效、順暢地運(yùn)轉(zhuǎn)。這意味著需要在各個維度之間建立有效的聯(lián)系、互動機(jī)制以及相應(yīng)更新機(jī)制,使得整個框架能夠在實(shí)際應(yīng)用中發(fā)揮最大的效能。通過這種有機(jī)結(jié)合和及時更新,多維動態(tài)模式才能在人工智能立法中發(fā)揮其應(yīng)有的作用,為相關(guān)法律的制定和實(shí)施提供有力的支持和指導(dǎo)。

      (一)多維動態(tài)模式的組成機(jī)制

      多維動態(tài)模式的實(shí)現(xiàn),需要對不同基本維度進(jìn)行有效的組合,這首先需要明確應(yīng)將哪個維度作為主線。其中,以場景維度作為主線并不能有效規(guī)避場景模式的風(fēng)險(xiǎn),即對某一場景的治理方式難以移植到其他場景。而以價值鏈維度作為主線或是以生命周期維度作為主線實(shí)際上效果較為相似,前者的表述方式是A主體在O、P、Q等環(huán)節(jié)需要負(fù)有何種責(zé)任或享有何種權(quán)利。而后者則表述為在O環(huán)節(jié)中,A、B、C各主體分別需要履行哪些責(zé)任或享有哪些權(quán)利??紤]到相較于生命周期的各環(huán)節(jié),價值鏈中主體變化的可能性要更高且關(guān)系更加復(fù)雜,本文選擇以相對較為穩(wěn)定的生命周期維度作為多維動態(tài)模式的主線?;诖耍撃J降臉?gòu)成可以采取“兩步走”策略。

      第一步,為人工智能生命周期的每一環(huán)節(jié)設(shè)計(jì)具體的主體權(quán)利和責(zé)任,由此實(shí)現(xiàn)生命周期維度與價值鏈維度的有機(jī)融合。具體而言,人工智能的生命周期仍然可以分為五個環(huán)節(jié)。

      第一個環(huán)節(jié),人工智能規(guī)劃和設(shè)計(jì)。該環(huán)節(jié)具體任務(wù)分配如下:一是技術(shù)提供者應(yīng)組織技術(shù)開發(fā)者、技術(shù)應(yīng)用者和受技術(shù)影響者召開會議,就人工智能開發(fā)、運(yùn)用計(jì)劃進(jìn)行討論和說明。二是技術(shù)提供者應(yīng)廣泛調(diào)研,根據(jù)現(xiàn)有的技術(shù)能力和人員組成狀況,在參考各方意見的基礎(chǔ)上,確定人工智能的具體應(yīng)用目標(biāo)和應(yīng)用范圍。三是技術(shù)提供者應(yīng)聯(lián)合技術(shù)開發(fā)者、技術(shù)應(yīng)用者和受技術(shù)影響者共同確定人工智能開發(fā)的基本要求,這包括保護(hù)人權(quán)、透明度和解釋性、公平性、問責(zé)制、監(jiān)管、安全性、適當(dāng)?shù)娜祟惐O(jiān)督、倫理、偏見緩解、隱私和數(shù)據(jù)保護(hù)等《布萊切利宣言》等規(guī)則中提出的人工智能各項(xiàng)倫理。

      第二個環(huán)節(jié),數(shù)據(jù)選擇與處理。該環(huán)節(jié)具體任務(wù)分配如下:一是技術(shù)開發(fā)者在獲取數(shù)據(jù)時應(yīng)確保數(shù)據(jù)符合法律要求,不含有侵犯平等權(quán)、知識產(chǎn)權(quán)等內(nèi)容的數(shù)據(jù)。在使用關(guān)于個人信息的數(shù)據(jù)時,應(yīng)當(dāng)征得相關(guān)主體同意。在使用數(shù)據(jù)時應(yīng)以必要為限,同時應(yīng)采用適當(dāng)?shù)募夹g(shù)和方法避免產(chǎn)生權(quán)利侵犯問題。二是技術(shù)開發(fā)者應(yīng)努力提升數(shù)據(jù)來源以及數(shù)據(jù)標(biāo)注的質(zhì)量。三是技術(shù)開發(fā)者應(yīng)對數(shù)據(jù)的來源和使用進(jìn)行全面記錄,并保證可以隨時提供數(shù)據(jù)來源、選擇和標(biāo)注方式等相關(guān)信息。四是技術(shù)提供者若掌握相關(guān)數(shù)據(jù),應(yīng)及時提供給技術(shù)開發(fā)者,但要保證相關(guān)數(shù)據(jù)符合規(guī)范。

      第三個環(huán)節(jié),算法設(shè)計(jì)與模型建立。該環(huán)節(jié)具體任務(wù)分配如下:一是技術(shù)開發(fā)者應(yīng)根據(jù)第一環(huán)節(jié)商討的目標(biāo)選擇適當(dāng)?shù)哪P秃痛a。二是技術(shù)開發(fā)者應(yīng)運(yùn)用適當(dāng)?shù)姆椒ㄌ嵘惴ǖ暮戏ㄐ院桶踩?。三是技術(shù)開發(fā)者應(yīng)努力提升相關(guān)算法的可解釋性。四是技術(shù)開發(fā)者應(yīng)對算法設(shè)計(jì)和模型建立情況進(jìn)行記錄和備案,并及時公開相關(guān)信息。五是技術(shù)提供者應(yīng)召集有關(guān)專家、技術(shù)應(yīng)用者和受技術(shù)影響者參與算法設(shè)計(jì)和模型構(gòu)建,配合技術(shù)開發(fā)者提升算法質(zhì)量。六是技術(shù)開發(fā)者應(yīng)向技術(shù)提供者、技術(shù)應(yīng)用者、受技術(shù)影響者和專家說明算法和模型開發(fā)的相關(guān)問題,以便其更好地參與算法與模型建設(shè)。

      第四個環(huán)節(jié),技術(shù)審查與檢驗(yàn)。該環(huán)節(jié)具體任務(wù)分配如下:一是技術(shù)開發(fā)者應(yīng)根據(jù)人工智能的相關(guān)情況設(shè)計(jì)具體的風(fēng)險(xiǎn)評估體系,并進(jìn)行風(fēng)險(xiǎn)評估和應(yīng)用測試,保證人工智能符合要求。二是技術(shù)提供者應(yīng)邀請第三方主體就人工智能風(fēng)險(xiǎn)進(jìn)行中立評估。三是技術(shù)提供者應(yīng)邀請第三方評估主體、技術(shù)應(yīng)用者和受技術(shù)影響者對人工智能提出優(yōu)化建議,技術(shù)開發(fā)者應(yīng)按照建議進(jìn)行優(yōu)化。四是技術(shù)提供者應(yīng)在人工智能投入市場前進(jìn)行最后審查,確保相關(guān)技術(shù)符合規(guī)范。

      第五個環(huán)節(jié),技術(shù)部署與使用。該環(huán)節(jié)具體任務(wù)分配如下:一是技術(shù)提供者應(yīng)對人工智能進(jìn)行備案,并提前公布技術(shù)相關(guān)信息,如合法性、可解釋性等問題。二是技術(shù)提供者應(yīng)按照規(guī)則部署人工智能,并就人工智能進(jìn)行實(shí)時監(jiān)測。三是技術(shù)提供者應(yīng)對人工智能應(yīng)用的狀況進(jìn)行記錄并及時反饋給技術(shù)開發(fā)者,技術(shù)開發(fā)者應(yīng)及時優(yōu)化相關(guān)內(nèi)容。四是技術(shù)應(yīng)用者應(yīng)根據(jù)要求合理使用人工智能,不得將其用于錯誤用途。必要時也應(yīng)配合人工智能治理工作。五是技術(shù)提供者應(yīng)建立申訴機(jī)制,明確人工智能可能引發(fā)的問題以及相關(guān)的補(bǔ)救方式。六是受技術(shù)影響者應(yīng)享有知情權(quán)、反對權(quán)或人工干預(yù)權(quán)、質(zhì)詢權(quán)、解釋權(quán)、平等權(quán)以及隱私權(quán)。

      第二步,基于人工智能在不同風(fēng)險(xiǎn)類型場景的應(yīng)用情況,分析各個生命周期環(huán)節(jié)需要設(shè)計(jì)的特殊措施,并單獨(dú)予以說明。該步驟可以將場景維度融入法律框架體系之中,從而實(shí)現(xiàn)多維動態(tài)模式三個維度的有機(jī)統(tǒng)一。具體而言,對于不可接受風(fēng)險(xiǎn)的人工智能應(yīng)直接予以禁止使用;對于有限風(fēng)險(xiǎn)的人工智能,除了需要滿足上述要求外,還需要在生命周期的各個環(huán)節(jié)保持人工智能相關(guān)信息的透明度;對于最小風(fēng)險(xiǎn)的人工智能,只需要遵守一般的要求即可;而對于高風(fēng)險(xiǎn)人工智能,則需要提出更為嚴(yán)苛的要求。其中,在第一個環(huán)節(jié)人工智能規(guī)劃和設(shè)計(jì)中,技術(shù)提供者應(yīng)聯(lián)合技術(shù)開發(fā)者、技術(shù)應(yīng)用者和受技術(shù)影響者分析高風(fēng)險(xiǎn)人工智能場景是否會衍生特殊要求。例如,人工智能輔助立法工具的開發(fā)和應(yīng)用應(yīng)關(guān)注無法使用智能化設(shè)備的人群,以保證人工智能應(yīng)用的公正性。

      在第二個環(huán)節(jié)數(shù)據(jù)選擇與處理中,技術(shù)開發(fā)者和技術(shù)提供者應(yīng)使用可靠的數(shù)據(jù)信息,并建立數(shù)據(jù)的應(yīng)用和審查機(jī)制,確保數(shù)據(jù)的使用符合法律的規(guī)定。《人工智能法(學(xué)者建議稿)》所提出的關(guān)鍵人工智能應(yīng)建立數(shù)據(jù)標(biāo)注規(guī)則和審核機(jī)制就是對高風(fēng)險(xiǎn)人工智能提出的特殊要求。

      在第三個環(huán)節(jié)算法設(shè)計(jì)與模型建立中,一方面,技術(shù)開發(fā)者應(yīng)在模型開發(fā)前便進(jìn)行風(fēng)險(xiǎn)評估,并成立相應(yīng)的監(jiān)管部門,用以檢測模型開發(fā)過程中的各種風(fēng)險(xiǎn)。若技術(shù)開發(fā)者是根據(jù)已有模型進(jìn)一步開發(fā)的新模型,則其需要對基礎(chǔ)模型負(fù)有審查義務(wù),保障無論是基礎(chǔ)模型還是新開發(fā)的模型都符合要求。另一方面,技術(shù)開發(fā)者在開發(fā)相關(guān)模型時,還應(yīng)符合高風(fēng)險(xiǎn)場景的倫理要求。例如,對于醫(yī)藥衛(wèi)生行業(yè)模型的開發(fā),除了需要符合人工智能倫理外,還要符合醫(yī)療倫理。再如,對于自動駕駛汽車模型的開發(fā),需要兼顧道路交通安全的要求。

      在第四個環(huán)節(jié)技術(shù)審查與檢驗(yàn)中,技術(shù)開發(fā)者和技術(shù)提供者需要組織獨(dú)立的風(fēng)險(xiǎn)防控部門用以負(fù)責(zé)高風(fēng)險(xiǎn)人工智能的風(fēng)險(xiǎn)審查,并對結(jié)果加以披露。此外,無論是技術(shù)開發(fā)者還是技術(shù)提供者,在對人工智能進(jìn)行審查時,都需要根據(jù)場景進(jìn)一步考慮高風(fēng)險(xiǎn)場景是否有特殊的要求。例如,結(jié)合自動駕駛汽車的特點(diǎn),對于該應(yīng)用的審查與檢驗(yàn)就包括道路測試和示范應(yīng)用。那么在該場景之下,應(yīng)對技術(shù)審查作出針對性部署。

      在第五個環(huán)節(jié)技術(shù)部署與使用中, 技術(shù)提供者需要對人工智能的可解釋性作出更加詳盡的說明。例如,當(dāng)人工智能應(yīng)用于司法裁判時,必須保障人工智能所作出的判斷是人類可理解的,否則就會引發(fā)機(jī)器裁判的倫理風(fēng)險(xiǎn),同時可能對司法公信力造成損傷。此外,技術(shù)應(yīng)用者在需要時,也具有告知和監(jiān)管責(zé)任。同樣以人工智能應(yīng)用于司法裁判為例,為了更好地保障權(quán)利,法官需要對人工智能的使用進(jìn)行全程監(jiān)管,以避免因人工智能錯誤應(yīng)用導(dǎo)致的風(fēng)險(xiǎn)。同時,法官也負(fù)有告知有關(guān)人員人工智能風(fēng)險(xiǎn)的責(zé)任。而為了保證該責(zé)任的有效落實(shí),技術(shù)開發(fā)者和技術(shù)提供者應(yīng)在必要時對技術(shù)應(yīng)用者提供應(yīng)用方式的指導(dǎo)。

      (二)多維動態(tài)模式的動態(tài)機(jī)制

      隨著人工智能的不斷發(fā)展,其已經(jīng)開始超越單純的技術(shù)工具角色而發(fā)揮社會新型基礎(chǔ)設(shè)施和人工智能產(chǎn)業(yè)底座效應(yīng),由此引發(fā)的風(fēng)險(xiǎn)也愈發(fā)呈現(xiàn)出不確定性和變化性。故而便需要不斷根據(jù)技術(shù)變化調(diào)整相應(yīng)的治理策略。事實(shí)上,針對人工智能提出的敏捷治理理論,便意在強(qiáng)調(diào)根據(jù)人工智能的變化而動態(tài)調(diào)整治理方案,即構(gòu)建“一套具有柔韌性、流動性、靈活性或適應(yīng)性的行動或方法,一種自適應(yīng)、以人為本以及具有包容性和可持續(xù)的決策過程”。在具體要求上,敏捷治理在強(qiáng)調(diào)不同主體廣泛參與的同時,更加注重工具的快速反應(yīng)和適應(yīng)性演化,以及政府作為權(quán)威主體在其中扮演的主導(dǎo)性角色。同樣地,人工智能規(guī)則的框架體系也應(yīng)符合上述要求。例如,美國《人工智能風(fēng)險(xiǎn)管理框架》便指出:“該框架和支持資源將根據(jù)不斷發(fā)展的技術(shù)、全球標(biāo)準(zhǔn)格局以及人工智能社區(qū)的經(jīng)驗(yàn)和反饋進(jìn)行更新、擴(kuò)展和改進(jìn)……隨著人工智能風(fēng)險(xiǎn)管理框架的投入使用,將吸取更多經(jīng)驗(yàn)教訓(xùn),為未來的更新和更多資源提供信息。”

      多維動態(tài)模式吸納了上述理論與實(shí)踐經(jīng)驗(yàn),同樣強(qiáng)調(diào)對于框架體系的動態(tài)調(diào)整。為了保證動態(tài)機(jī)制的有效性,應(yīng)成立一個人工智能委員會專門就“人工智能法”的框架體系進(jìn)行監(jiān)測和分析等工作,并適時對法律調(diào)整提出相應(yīng)建議。從當(dāng)前實(shí)踐看,該方式已經(jīng)被不少主體采納。例如,歐盟《人工智能法案》專門提出要成立人工智能委員會和獨(dú)立專家科學(xué)小組。美國于2016年5月成立“人工智能和機(jī)器學(xué)習(xí)委員會”, 負(fù)責(zé)協(xié)調(diào)全美各界在人工智能領(lǐng)域的行動, 探討制定人工智能相關(guān)政策和法律。國際標(biāo)準(zhǔn)化組織于2017年成立人工智能委員會,致力于制定涵蓋算法偏見、隱私保護(hù)等領(lǐng)域的標(biāo)準(zhǔn)。而我國也成立了國家新一代人工智能治理專業(yè)委員會,并就人工智能治理問題設(shè)計(jì)相應(yīng)的規(guī)范。此外,《人工智能法示范法2.0(專家建議稿)》指出應(yīng)由國家人工智能主管機(jī)關(guān)履行人工智能監(jiān)管職責(zé)。在具體方式上,可以由政府部門牽頭,在廣泛吸納各方專家和利益主體的基礎(chǔ)上,成立人工智能委員會。這樣可以更好地保證相關(guān)工作的權(quán)威性和科學(xué)性,也契合了敏捷治理的要求。對于“人工智能法”框架體系的動態(tài)化調(diào)整,該委員會應(yīng)主要做好以下幾項(xiàng)工作:

      首先,應(yīng)建立人工智能信息動態(tài)監(jiān)測機(jī)制。人工智能信息動態(tài)監(jiān)測機(jī)制應(yīng)由兩部分組成,一是對于人工智能及其風(fēng)險(xiǎn)的動態(tài)監(jiān)測。對人工智能有效治理的前提是能夠及時了解人工智能的變動和發(fā)展,因此,有必要針對人工智能建立一種系統(tǒng)性風(fēng)險(xiǎn)監(jiān)測機(jī)制,全面了解人工智能的發(fā)展動態(tài)。二是對于人工智能治理的監(jiān)測。人工智能的應(yīng)用場景變化或技術(shù)進(jìn)步并不意味著治理方式的不適應(yīng)性,因此,除了應(yīng)監(jiān)測人工智能的變化外,還應(yīng)該對“人工智能法”的框架體系是否能夠有效應(yīng)對人工智能的新發(fā)展或新應(yīng)用進(jìn)行監(jiān)測。只有當(dāng)既有框架體系無法應(yīng)對新人工智能產(chǎn)生的風(fēng)險(xiǎn)時,才會涉及調(diào)整相關(guān)體系的問題。在具體方法上,一是應(yīng)引入評估機(jī)制,通過科學(xué)的風(fēng)險(xiǎn)評估方法,就人工智能風(fēng)險(xiǎn)和人工智能治理狀況進(jìn)行量化評估,以查看既有方案是否可以滿足治理需求;二是應(yīng)充分發(fā)揮人工智能的作用,通過人工智能對人工智能應(yīng)用和治理進(jìn)行實(shí)時監(jiān)測,在人工智能研判當(dāng)前技術(shù)發(fā)展已超越治理能力時,應(yīng)進(jìn)一步關(guān)注“人工智能法”框架體系的調(diào)整。

      其次,應(yīng)建立“人工智能法”框架體系多元合作機(jī)制。以科層制為基礎(chǔ)的傳統(tǒng)行政組織架構(gòu)一般遵循逐層上傳下達(dá)的嚴(yán)格等級模式,不得逾越層級,實(shí)質(zhì)上是一種層級行政的機(jī)制。但這種組織結(jié)構(gòu)也存在靈活性不足的問題,與人工智能敏捷治理的需要存在矛盾。而隨著人工智能的發(fā)展,多元共治越來越成為其治理的重要原則。正如我國《全球人工智能治理倡議》所指出的那樣:“堅(jiān)持廣泛參與、協(xié)商一致、循序漸進(jìn)的原則,密切跟蹤技術(shù)發(fā)展形勢,開展風(fēng)險(xiǎn)評估和政策溝通,分享最佳操作實(shí)踐?!币虼?,“人工智能法”框架體系的動態(tài)機(jī)制也應(yīng)遵循多元共治的原則。具體而言,一方面,人工智能委員會應(yīng)與國內(nèi)各人工智能利益相關(guān)主體廣泛合作, 積極吸納其對于人工智能治理的意見。這樣“群策群力”的方式可以更加迅速、有效地掌握法律框架體系存在的不足。另一方面,人工智能委員會也應(yīng)大力開展國際合作,如《布萊切利宣言》所述,當(dāng)前對于人工智能的治理已經(jīng)成為全球性議題,世界各方都在尋求最佳的處理方案。由此,積極開展國際對話可以更好地交流治理經(jīng)驗(yàn),進(jìn)而謀求更優(yōu)的法律框架體系。

      最后,應(yīng)建立“人工智能法”框架體系信息反饋機(jī)制。若根據(jù)監(jiān)測和合作機(jī)制發(fā)現(xiàn)“人工智能法”框架體系已經(jīng)無法適應(yīng)治理需求,則應(yīng)及時就相關(guān)信息進(jìn)行反饋,明確“人工智能法”框架體系不適應(yīng)性的產(chǎn)生原因,并提出相應(yīng)的法律修改建議。在進(jìn)行分析時,應(yīng)著重考察人工智能變革引發(fā)的框架體系不適應(yīng)性問題在于生命周期維度、價值鏈維度還是場景維度,隨后再根據(jù)不同的問題,就整體框架體系調(diào)整提出建議。

      上述方案保證了多維動態(tài)模式可以迅速適應(yīng)技術(shù)的變化,對可能的風(fēng)險(xiǎn)作出快速反應(yīng),同時也強(qiáng)調(diào)了多主體的廣泛參與,較為符合敏捷治理的要求。

      四、多維動態(tài)模式對于單一模式的優(yōu)化

      之所以要強(qiáng)調(diào)由單一模式向多維動態(tài)模式發(fā)展,其必要性在于隨著人工智能技術(shù)的不斷發(fā)展和治理的日益深入,三種單一模式均已無法有效應(yīng)對人工智能引發(fā)的風(fēng)險(xiǎn),滿足治理需求。特別是自新一代人工智能出現(xiàn)在人們的視野后,單一模式就變得更加難以應(yīng)對人工智能的監(jiān)管需求。申而言之,對于傳統(tǒng)基于機(jī)器學(xué)習(xí)的人工智能而言,只需要將訓(xùn)練數(shù)據(jù)輸入到機(jī)器之中,機(jī)器就可以從中學(xué)習(xí)。但是生成式人工智能需要先使用無監(jiān)督學(xué)習(xí)進(jìn)行預(yù)訓(xùn)練,再通過監(jiān)督學(xué)習(xí)和強(qiáng)化學(xué)習(xí)進(jìn)行微調(diào)。這就導(dǎo)致了最終技術(shù)效果的差異:“與傳統(tǒng)的人工智能相較,生成式人工智能不僅是一個‘自我更新、自我完善、自我演進(jìn)’的‘復(fù)雜巨系統(tǒng)’,而且形成了人與技術(shù)互動的‘請求—回應(yīng)’關(guān)系?!倍漭^傳統(tǒng)人工智能所涉及的主體、環(huán)節(jié)和場景更加復(fù)雜,單一模式更難以應(yīng)對其中風(fēng)險(xiǎn)。對于價值鏈模式而言,人工智能的發(fā)展呈現(xiàn)出將技術(shù)支持、服務(wù)提供與內(nèi)容生產(chǎn)“三位一體”融合的技術(shù)形態(tài),打破了現(xiàn)有的人工智能治理方案對數(shù)字社會生產(chǎn)方式在結(jié)構(gòu)方面的底層設(shè)定。因此,在面對新型人工智能時,應(yīng)當(dāng)享有權(quán)利和承擔(dān)責(zé)任的對象呈多元化、分散化和場景化特征,價值鏈模式這種簡單的技術(shù)開發(fā)者、技術(shù)提供者、技術(shù)應(yīng)用者和受技術(shù)影響者的劃分方式,難以精準(zhǔn)劃定具有權(quán)利和責(zé)任之應(yīng)然主體。就生命周期模式而言,人工智能的快速發(fā)展使得生命周期中各個環(huán)節(jié)的權(quán)利和責(zé)任分配更加復(fù)雜化。若依照既有生命周期模式不明確具體主體權(quán)利和責(zé)任的方式,人工智能治理困境將進(jìn)一步加劇。就場景模式而言,人工智能的快速發(fā)展使得其應(yīng)用場景在短時間內(nèi)進(jìn)一步豐富化、多樣化和復(fù)雜化,這就放大了場景模式的弊端———人工智能的高速發(fā)展加速了新應(yīng)用場景的出現(xiàn),導(dǎo)致場景模式需要不斷根據(jù)人工智能的新場景,判斷其應(yīng)屬于哪種風(fēng)險(xiǎn)類型,甚至是否需要制定新的風(fēng)險(xiǎn)治理策略,由此便不能對人工智能及時進(jìn)行治理。而人工智能的高速發(fā)展又引發(fā)了很多問題,亟待法律加以解決,例如新技術(shù)的涌現(xiàn)對隱私權(quán)、平等權(quán)帶來的挑戰(zhàn)等。當(dāng)法律框架無法應(yīng)對技術(shù)發(fā)展態(tài)勢時,其便可能無法處理人工智能引發(fā)的各種問題,進(jìn)而產(chǎn)生權(quán)利損害等問題。

      多維動態(tài)模式相較于上述三種單一模式具有更強(qiáng)的適應(yīng)性。這主要由于,如前文所述,多維動態(tài)模式有機(jī)結(jié)合了三種單一模式,這在很大程度上克服了單一模式所存在的各自的缺點(diǎn)。事實(shí)上,新技術(shù)的發(fā)展目前僅僅是放大了各個單一模式的缺陷,但尚未引發(fā)新的缺陷。而這些缺陷對于多維動態(tài)模式而言均可以有效應(yīng)對, 無論是對于各個主體權(quán)利和責(zé)任的精準(zhǔn)劃分還是對于跨場景的治理,多維動態(tài)模式均不會因技術(shù)發(fā)展而受到太大沖擊。更為重要的是,相較于靜態(tài)的單一模式,多維動態(tài)模式探索了動態(tài)化的運(yùn)作機(jī)制,這就可以保證即使技術(shù)發(fā)生變化,多維動態(tài)模式也可以及時掌握新技術(shù)態(tài)勢并應(yīng)對可能的風(fēng)險(xiǎn),這大大提高了“人工智能法”框架體系的適應(yīng)性。以生成式人工智能為例,即便是此類技術(shù)導(dǎo)致生命周期不同環(huán)節(jié)各個主體之間界限愈發(fā)模糊,多維動態(tài)模式依然可以有效應(yīng)對。這主要是因?yàn)樵趩我画h(huán)節(jié)中,不同主體之間的權(quán)利和責(zé)任仍然可以有效劃分,生成式人工智能的出現(xiàn)并未對此造成太大影響。即便是新的環(huán)節(jié)出現(xiàn)抑或主體權(quán)利和責(zé)任分工更加錯綜復(fù)雜,動態(tài)機(jī)制可以在風(fēng)險(xiǎn)出現(xiàn)之初便發(fā)現(xiàn)問題,進(jìn)而基于群策群力等方式迅速化解可能的風(fēng)險(xiǎn)。

      不可否認(rèn)的是,多維動態(tài)模式的應(yīng)用與法律的穩(wěn)定性之間可能存在一定程度的矛盾。但一方面,這恰恰源于人工智能時代治理需要的變化———受制于技術(shù)的多變性,敏捷治理等理論均在一定程度上要求治理的迅速反應(yīng)。另一方面,多維動態(tài)模式也可以在一定程度上保證立法的穩(wěn)定性。其通過整合設(shè)計(jì)立法框架的方式可以更好地應(yīng)對潛在的變化,從而避免法律被迫因技術(shù)態(tài)勢變革而不斷更迭的問題。

      在具體由單一模式到多維動態(tài)模式優(yōu)化方案的設(shè)計(jì)上,對于價值鏈模式而言,應(yīng)保持賦予價值鏈中各個主體權(quán)利和責(zé)任的方式,但并非簡單地羅列各項(xiàng)權(quán)利和責(zé)任,而是通過引入人工智能生命周期,將各個主體在不同環(huán)節(jié)的權(quán)利和責(zé)任進(jìn)行切割。而在單一環(huán)節(jié)中,各主體的權(quán)利和責(zé)任相對較為明確和清晰,由此便不會出現(xiàn)權(quán)利和責(zé)任定位精準(zhǔn)度不足的問題。還應(yīng)進(jìn)一步吸納場景模式和動態(tài)機(jī)制,以解決價值鏈模式無法應(yīng)對特殊場景治理需求的問題,即根據(jù)人工智能應(yīng)用的場景,添加各個主體可能需要進(jìn)一步承擔(dān)的權(quán)利和責(zé)任,這就增加了“人工智能法”的針對性和適應(yīng)性。對于生命周期模式而言,可以通過引入價值鏈中各個主體并明確其權(quán)利和責(zé)任的方式,解決原本生命周期模式權(quán)利和責(zé)任不明的問題。事實(shí)上,生命周期模式很大程度上建立在生命周期環(huán)節(jié)和價值鏈主體對應(yīng)關(guān)系的基礎(chǔ)上,但這種對應(yīng)關(guān)系有時候并不成立,特別是隨著人工智能的發(fā)展,這種關(guān)系將被打破。因此,應(yīng)跳出這種簡單的對應(yīng)關(guān)系,在生命周期的每一環(huán)節(jié)將原本的權(quán)利和責(zé)任分配到具體的技術(shù)開發(fā)者、技術(shù)提供者、技術(shù)應(yīng)用者和受技術(shù)影響者等主體。如此一來,在治理人工智能時,只需要考察相關(guān)主體是否履行了其需要履行的職責(zé)即可,這就不會出現(xiàn)像生命周期模式一樣無法確定治理對象的問題。除此之外,生命周期模式向多維動態(tài)模式的轉(zhuǎn)變也應(yīng)引入場景模式和動態(tài)機(jī)制,這可以解決生命周期模式對于不同場景針對性不足的問題,保證相關(guān)框架體系更加具有場景應(yīng)對性。對于場景模式而言,應(yīng)通過生命周期和價值鏈的引入進(jìn)一步提升整體性,由此,在面對跨場景的不同類型人工智能應(yīng)用時,才可以明確相應(yīng)主體的權(quán)利和責(zé)任進(jìn)而進(jìn)行有效治理。

      結(jié)語

      隨著人工智能的高速發(fā)展,“人工智能法”的制定和人工智能治理日益成為各方關(guān)注的話題。對于我國而言,無論是出于有效的人工智能治理的需要,還是出于增強(qiáng)國際話語權(quán)的需求,抑或“人工智能法”的立法要求,構(gòu)建一個有效的“人工智能法”框架體系可謂勢在必行。遺憾的是,當(dāng)前各方似乎并未對此予以足夠關(guān)注,相關(guān)討論屈指可數(shù)。有鑒于此,本文嘗試基于各主體就人工智能治理所設(shè)計(jì)的規(guī)則和策略,提出“人工智能法”框架體系的多維動態(tài)模式,以為更加系統(tǒng)的“人工智能法”的制定提供支持。需要指出的是,在基于多維動態(tài)模式制定“人工智能法”時,也應(yīng)充分結(jié)合我國當(dāng)前的立法實(shí)踐。例如,在設(shè)計(jì)生命周期維度時,可以更多參考《新一代人工智能倫理規(guī)范》;在引入價值鏈維度時,可以結(jié)合《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》等規(guī)則;在構(gòu)建場景維度時,應(yīng)結(jié)合《人臉識別技術(shù)應(yīng)用安全管理規(guī)定(試行)(征求意見稿)》等具體場景的規(guī)定。由此,不僅可以有效利用既有的立法資源,也可以體現(xiàn)我國“人工智能法”的立法特色。

      望谟县| 侯马市| 五原县| 百色市| 东兴市| 城步| 察隅县| 陵水| 六枝特区| 金秀| 栾川县| 临邑县| 信宜市| 雅安市| 全州县| 会同县| 龙口市| 科技| 阆中市| 习水县| 稻城县| 陆良县| 武威市| 札达县| 洞口县| 响水县| 高州市| 麻阳| 黄梅县| 九江县| 迁安市| 来宾市| 颍上县| 西贡区| 浠水县| 疏附县| 兖州市| 汾阳市| 商水县| 融水| 西乌|