• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看

      ?

      算法影響評(píng)價(jià):算法規(guī)制的制度創(chuàng)新*

      2021-04-07 00:41:48
      情報(bào)雜志 2021年3期
      關(guān)鍵詞:環(huán)境影響規(guī)制主體

      李 安

      (中南財(cái)經(jīng)政法大學(xué)知識(shí)產(chǎn)權(quán)研究中心 武漢 430073)

      Algorithm Impact Assessments: Institutional Innovation of Algorithm Regulation

      Li An

      (Research Centre of Intellectual Property, Zhongnan University of Economics and Law, Wuhan 430073)

      Abstract: [Purpose/Significance] While promoting the intelligent revolution, algorithms bring a series of technical risks and social problems, mainly including algorithm black box and algorithm bias. Therefore, it is necessary to explore the effective path of algorithm regulation from the institutional level. [Method/Process] The key point of algorithm regulation is to improve the transparency. In comparison with the existing methods of algorithm transparency, the institutional superiority of Algorithm Impact Assessments (AIAs) is proposed. Furthermore, AIAs is deeply analyzed from two perspectives called institutional origins and theoretical basis. And the specific construction of AIAs is discussed systematically from the aspects of classification management, the scope of assessment, the procedure of assessment, impact statement, etc. [Result/Conclusion] AIAs can contribute to building a transparent and fair algorithm society. China should closely keep pace with the legislative policy trend of European and American countries (regions), and take the "two-step" scheme to promote the construction and improvement of the AIAs.

      Keywords: artificial intelligence; algorithm transparency; Algorithmic Impact Assessments; mate-regulation; information law

      0 引 言

      人工智能社會(huì)本質(zhì)上是一個(gè)“算法泛在”并由“算法主導(dǎo)”的社會(huì)。人工智能社會(huì)的一個(gè)突出表現(xiàn)是,基于算法的自動(dòng)決策正在逐步地替代或補(bǔ)充人類決策:銀行使用算法系統(tǒng)對(duì)用戶進(jìn)行信用評(píng)級(jí)和風(fēng)險(xiǎn)評(píng)估,以此為基礎(chǔ)決定是否對(duì)其發(fā)放貸款;互聯(lián)網(wǎng)企業(yè)采用協(xié)同過濾等算法技術(shù)對(duì)商品和內(nèi)容實(shí)行個(gè)性化推薦,面向消費(fèi)者進(jìn)行精準(zhǔn)營(yíng)銷;網(wǎng)絡(luò)平臺(tái)采用感知哈希算法對(duì)用戶上傳的內(nèi)容進(jìn)行識(shí)別查驗(yàn),自動(dòng)移除或屏蔽版權(quán)侵權(quán)、暴力恐怖、淫穢色情等違法內(nèi)容。這些算法應(yīng)用,既有商業(yè)性決策,也有社會(huì)政策性決策,覆蓋了人類社會(huì)的方方面面,對(duì)我們的生產(chǎn)生活產(chǎn)生了意義深遠(yuǎn)的影響。

      算法技術(shù)在推動(dòng)人類社會(huì)智能化革命的同時(shí)也催生了一系列技術(shù)風(fēng)險(xiǎn)和社會(huì)問題,其突出表現(xiàn)為算法偏見和算法黑箱:a.算法偏見,即算法應(yīng)用中存在的不公正現(xiàn)象。比如,動(dòng)態(tài)定價(jià)算法系統(tǒng)以用戶提交的身份信息和過往的行為信息為基礎(chǔ)“算計(jì)”用戶,對(duì)其實(shí)行價(jià)格歧視,俗稱“殺熟”;另如,版權(quán)人和網(wǎng)絡(luò)平臺(tái)采用的版權(quán)算法決策系統(tǒng),傾向于保護(hù)版權(quán)人利益,而侵害用戶合理使用作品的合法權(quán)益,出現(xiàn)過渡執(zhí)法的“積極錯(cuò)誤”(false positive)[1]。b.算法黑箱,即算法決策過程的不公開、不透明。產(chǎn)生算法黑箱的原因很復(fù)雜,主要有兩點(diǎn):一是在事實(shí)層面,以晦澀難懂的目標(biāo)代碼為表達(dá)形式的算法具有天生的不透明性;二是在法律層面,以程序源代碼為核心的算法信息通常被視為受法律保護(hù)的商業(yè)秘密。算法決策過程的不公開、不透明,意味著外部主體無法有效地審查、監(jiān)督算法決策。算法因此不具有可追責(zé)性,這進(jìn)一步庇護(hù)或催生了算法偏見。

      鑒于上述風(fēng)險(xiǎn)和問題的存在,“在發(fā)展中科學(xué)規(guī)制,在規(guī)制中健康發(fā)展”成為算法技術(shù)和智能社會(huì)的基本發(fā)展理念。那么問題是:我們應(yīng)采取何種算法規(guī)制方案?近年來,算法影響評(píng)價(jià)(Algorithmic Impact Assessments)制度在全球范圍內(nèi)正迎來越來越多的關(guān)注:2018年4月,美國(guó)“現(xiàn)代AI”研究院提出了算法影響評(píng)價(jià)的實(shí)踐框架[2]。2019年2月,加拿大政府出臺(tái)《關(guān)于自動(dòng)決策的指令》,第6.1條及附件B、附件C對(duì)算法影響評(píng)價(jià)作出系統(tǒng)規(guī)定,成為算法影響評(píng)價(jià)在全球范圍內(nèi)的首個(gè)立法例。2019年4月,歐盟議會(huì)發(fā)布報(bào)告《算法問責(zé)與透明的治理框架》,建議采購與算法有關(guān)的公共服務(wù)設(shè)施時(shí)應(yīng)將算法影響評(píng)價(jià)作為提高算法透明度和可問責(zé)性的治理手段[3]。2020年7月,新西蘭政府出臺(tái)的《算法章程》規(guī)定政府機(jī)構(gòu)在采用可能對(duì)社會(huì)大眾產(chǎn)生重大影響的算法技術(shù)之前理應(yīng)提交算法評(píng)價(jià)報(bào)告(Algorithm Assessment Report)[4]。除了政府公共事務(wù)領(lǐng)域內(nèi)算法影響評(píng)價(jià)制度的倡議和實(shí)踐,學(xué)者也指出私人企業(yè)的算法設(shè)計(jì)和社會(huì)化應(yīng)用也需要影響評(píng)價(jià)制度予以監(jiān)管[5]。

      當(dāng)前,人類社會(huì)正在形成以“算法”為中心的智能社會(huì)法律秩序[6];可以說,算法影響評(píng)價(jià)制度是該法律秩序的重要組成部分。不過,算法影響評(píng)價(jià)制度在國(guó)內(nèi)立法性文件或政策性報(bào)告中尚未被關(guān)注到。在學(xué)術(shù)界,國(guó)內(nèi)學(xué)者把影響評(píng)價(jià)制度從自然環(huán)境污染領(lǐng)域引入社會(huì)人文環(huán)境領(lǐng)域,將社會(huì)影響評(píng)價(jià)確立為一項(xiàng)制度工具[7],而且對(duì)社會(huì)影響評(píng)價(jià)在人工智能場(chǎng)景中的最新立法例,即歐盟2018年《通用數(shù)據(jù)保護(hù)條例》(以下簡(jiǎn)稱GDPR)第35條確立的“數(shù)據(jù)保護(hù)影響評(píng)價(jià)”,進(jìn)行了較為全面地評(píng)述[8-9]。但遺憾的是,算法影響評(píng)價(jià)在國(guó)內(nèi)還未成為一項(xiàng)明確的研究主題。鑒于此,本文擬結(jié)合歐美國(guó)家(地區(qū))最新的立法政策和研究文獻(xiàn),就算法影響評(píng)價(jià)的時(shí)代必要性、制度淵源、理論基礎(chǔ)和制度設(shè)計(jì)等內(nèi)容進(jìn)行系統(tǒng)性地探討和梳理,以期對(duì)中國(guó)智能社會(huì)治理的制度建設(shè)有所裨益。

      1 算法透明的困境與算法影響評(píng)價(jià)的提出

      算法偏見和算法黑箱的背后是算法權(quán)力的恣意。使用算法進(jìn)行商業(yè)性和社會(huì)政策性決策是一個(gè)關(guān)于權(quán)力的敘事。已有學(xué)者認(rèn)識(shí)到這一點(diǎn),指出大數(shù)據(jù)“殺熟”問題實(shí)質(zhì)上是算法權(quán)力的治理問題,算法“宰客”的治理重點(diǎn)應(yīng)從消費(fèi)者權(quán)利的保護(hù)轉(zhuǎn)向經(jīng)營(yíng)者算法權(quán)力的規(guī)制[10]。權(quán)力要在陽光下運(yùn)行,同樣地,規(guī)制算法權(quán)力的首要措施是通過正當(dāng)程序來打開算法黑箱,提高算法透明度。算法影響評(píng)價(jià)制度能夠更好地踐行算法透明原則。

      1.1規(guī)制算法權(quán)力需要提高算法透明度算法主體影響或操縱他人生產(chǎn)生活的能力就是算法權(quán)力。算法權(quán)力的產(chǎn)生與算法黑箱密切相關(guān)。算法“黑箱”是一個(gè)意義豐富的隱喻,學(xué)者帕斯夸萊(Pasquale)對(duì)其作出兩個(gè)方面的解讀:a.“黑箱”指信息記錄裝置,就像飛機(jī)、火車、汽車上面的數(shù)據(jù)記錄儀器,俗稱“黑匣子”;b.“黑箱”指一個(gè)系統(tǒng)神秘地運(yùn)作,人們能夠觀察到系統(tǒng)的輸入和輸出,但是不清楚輸入到輸出的轉(zhuǎn)換機(jī)制[11]。算法黑箱的上述兩種解讀可以幫助我們深入地剖析算法權(quán)力。算法黑箱如同一個(gè)“暗室”,里面的算法主體(以互聯(lián)網(wǎng)公司為代表)可以向外監(jiān)視社會(huì)公眾的日常行為,并將這些信息記錄在案;而暗室之外的社會(huì)公眾卻無法向內(nèi)監(jiān)督算法主體,對(duì)其使用用戶信息進(jìn)行決策的過程一無所知。也就是說,算法在審視他人的同時(shí)避免自己被審查。在算法主體與社會(huì)公眾之間的這種“觀察/被觀察、不可見/可見”關(guān)系中形成了一種權(quán)力。

      法國(guó)思想家???Foucault)將其稱之為“規(guī)訓(xùn)權(quán)力”(disciplinary power),指出此種權(quán)力“是通過自己的不可見性來施展的。同時(shí),它卻把一種被迫可見原則強(qiáng)加給它的對(duì)象”[12]。在福柯看來,算法主體透過“單向透視的玻璃”對(duì)社會(huì)公眾享有的權(quán)力,與全景敞視圓形監(jiān)獄中心瞭望塔上的獄警通過百葉窗對(duì)囚犯施加的權(quán)力,并無實(shí)質(zhì)區(qū)別。格言“知識(shí)就是力量”(knowledge is power)的另一種解讀是“信息就是權(quán)力”,即信息優(yōu)勢(shì)者具有干涉或操縱信息劣勢(shì)者的能力。算法主體可以通過算法黑箱獲得此種權(quán)力,并借此隱秘地影響或控制其“服務(wù)”對(duì)象,實(shí)施不公正行為。簡(jiǎn)而言之,算法黑箱中孕育的算法權(quán)力庇護(hù)或催生了算法偏見。

      在人工智能時(shí)代,算法對(duì)他人的影響力和操縱力廣泛且深層次地存在于人們生活的方方面面。就其廣度和深度而言,算法權(quán)力是一種類似于國(guó)家權(quán)力的公共性力量[13]。算法權(quán)力被學(xué)者瓦爾德曼(Waldman)稱為“民主社會(huì)中的非法權(quán)力來源”,因?yàn)樗惴ㄔ凇昂谙洹敝羞\(yùn)作,人們不能對(duì)算法決策過程進(jìn)行有效地討論、審查和監(jiān)督,違背了正當(dāng)程序原則[14]614。根據(jù)現(xiàn)代的法治原則,權(quán)力要在陽光下運(yùn)行。基于此,算法治理的實(shí)質(zhì)是規(guī)制算法權(quán)力,而規(guī)制算法權(quán)力的首要原則是打開算法黑箱,提高算法透明度。

      1.2算法信息公開機(jī)制無法實(shí)現(xiàn)實(shí)質(zhì)透明在形式意義上,算法透明要求算法信息公開。在實(shí)質(zhì)意義上,算法透明要求被公開的算法信息必須是社會(huì)大眾可以理解、可以信賴,因而可以據(jù)此審查和監(jiān)督算法的信息。在實(shí)踐中,算法信息公開很難實(shí)現(xiàn)真正的算法透明,因此算法信息公開備受批評(píng)。具體來說,算法的信息公開有以下兩個(gè)局限:

      第一,算法公開不等于算法可知,即人們從被公開的算法信息中無法獲取并解讀出有用信息,沒法了解算法的運(yùn)作機(jī)制。其背后的主要原因有兩個(gè):a.算法具有天生的不透明性。算法信息以代碼等技術(shù)性符號(hào)為表達(dá)形式,專業(yè)人士審閱起來都很困難,不具有相關(guān)知識(shí)背景的普通民眾更難以理解。而且,算法的精確程度和復(fù)雜程度是成正比的,算法在變得更加“聰明”的同時(shí)技術(shù)信息也會(huì)變得更為難解。因此,即使算法技術(shù)信息處于任何人都可查閱的公開狀態(tài),其在實(shí)質(zhì)意義上仍然不為人們所知。b.算法主體以信息公開之名行信息隱藏之實(shí)。如算法主體可能會(huì)通過提供上萬頁的文檔來響應(yīng)信息公開請(qǐng)求,將有價(jià)值的信息隱藏在信息海洋之中。在這個(gè)意義上,算法公開和算法透明之間存在一個(gè)悖論,即所公開的算法信息越多,則從公開信息中獲取和理解有用信息的難度就越大。因?yàn)樗惴ㄐ畔⒓夹g(shù)性表達(dá)和干擾性披露的存在,在公開的信息中“看到不等于知道”(seeing without knowing),這是算法信息公開的一個(gè)局限。

      第二,算法公開不等于算法可信,即人們不相信由算法主體公開的信息。出現(xiàn)這種情況的原因有以下兩個(gè):a.算法主體沒有坦承地披露算法負(fù)面影響。算法主體所公開的算法信息主要是算法技術(shù)信息及其技術(shù)用途等中性偏積極的內(nèi)容,而不會(huì)詳細(xì)地介紹算法應(yīng)用中可能存在的負(fù)面影響。后者才是監(jiān)管機(jī)構(gòu)和社會(huì)公眾最關(guān)心和關(guān)注的信息。算法信息公開片面地“報(bào)喜不報(bào)憂”,一方面是因?yàn)樗惴ㄖ黧w作為自利的理性人,在主觀上有選擇地進(jìn)行信息披露;另一方面是因?yàn)樗惴ㄖ黧w未實(shí)際評(píng)估算法的社會(huì)影響,在客觀上不掌握相關(guān)信息。b.算法主體單向地公開算法信息,缺少信息互動(dòng)機(jī)制。算法主體面向社會(huì)公眾披露信息,信息受眾缺少評(píng)論、質(zhì)疑、意見反饋等參與機(jī)制。信息公開者與信息受眾之間的互信一定程度上是借助信息互動(dòng)完成的,在單向的算法信息披露中缺少這種增加互信的對(duì)話。因?yàn)樗惴ㄐ畔⒐_的片面和單向,在公開的信息中“看見不等于相信”(seeing without believing),這是算法信息公開的另外一個(gè)局限。

      1.3算法影響評(píng)價(jià)制度的提出為克服算法信息公開的上述局限,算法影響評(píng)價(jià)制度被提出。以環(huán)境保護(hù)法中的環(huán)境影響評(píng)價(jià)為制度參照,算法影響評(píng)價(jià)是一個(gè)旨在事前角度識(shí)別、評(píng)估并預(yù)防算法技術(shù)之負(fù)面社會(huì)影響的程序。構(gòu)建算法影響評(píng)價(jià)制度的目的,一方面是為了督促算法主體在算法設(shè)計(jì)使用之前充分地考慮算法可能存在的不良影響,并作出相應(yīng)的解決方案;另一方面是以文件材料的形式向廣大的社會(huì)公眾公開算法的相關(guān)信息,進(jìn)而促使公眾和專業(yè)機(jī)構(gòu)參與進(jìn)算法決策系統(tǒng)的設(shè)計(jì)和實(shí)施環(huán)節(jié)。從算法透明角度來看,算法影響評(píng)價(jià)是一個(gè)全面的信息機(jī)制:

      a.算法影響評(píng)價(jià)是一個(gè)信息生產(chǎn)機(jī)制。算法影響評(píng)價(jià)是因應(yīng)信息匱乏而產(chǎn)生的制度[15]194,特別是社會(huì)公眾和監(jiān)管機(jī)構(gòu)關(guān)心關(guān)注的信息,即算法技術(shù)對(duì)社會(huì)可能產(chǎn)生的負(fù)面影響。也可以說,在算法影響評(píng)價(jià)制度中,技術(shù)信息的分析理解負(fù)擔(dān)被更多地分配給了算法主體,而非普通的社會(huì)公眾。

      b.算法影響評(píng)價(jià)是一個(gè)有組織的信息公開機(jī)制。算法影響報(bào)告書是算法影響評(píng)價(jià)信息記錄和公開的載體,由算法技術(shù)情況、算法影響狀況、預(yù)防解決措施等內(nèi)容組成。這種有制式的信息公開極大地避免了信息干擾、信息隱藏的出現(xiàn),這種以算法負(fù)面影響為核心的坦承的信息公開也容易獲得社會(huì)公眾的信任。

      c.算法影響評(píng)價(jià)是一個(gè)信息互動(dòng)機(jī)制。算法影響評(píng)價(jià)通過通知、公示等手段向外部主體提供相關(guān)信息,促使算法主體與其服務(wù)對(duì)象、研究人員、監(jiān)管機(jī)構(gòu)之間展開建設(shè)性的對(duì)話,鼓勵(lì)利益相關(guān)者參與進(jìn)算法問題的討論。相比單純的信息公開,算法影響評(píng)價(jià)制度可以更好地踐行算法透明原則,能夠盡最大可能地實(shí)現(xiàn)算法可知和算法可信。

      2 算法影響評(píng)價(jià)的制度淵源與理論基礎(chǔ)

      算法影響評(píng)價(jià)是一個(gè)新的制度??疾焖惴ㄓ绊懺u(píng)價(jià)的制度淵源和理論基礎(chǔ),將有助于強(qiáng)化我們對(duì)算法影響評(píng)價(jià)制度背景、制度文化、制度理念的認(rèn)識(shí)和理解,為算法影響評(píng)價(jià)制度的具體構(gòu)建提供指引。

      2.1制度淵源:環(huán)境影響評(píng)價(jià)環(huán)境影響評(píng)價(jià)是算法影響評(píng)價(jià)的制度淵源,或者說,算法影響評(píng)價(jià)是立足環(huán)境影響評(píng)價(jià)的制度創(chuàng)新。環(huán)境影響評(píng)價(jià)是一個(gè)較為成熟和成功的制度。1969年,美國(guó)通過了《國(guó)家環(huán)境政策法案》,第102條規(guī)定相關(guān)主體在作出對(duì)環(huán)境有重大影響的法案或開發(fā)行為之前應(yīng)提交“環(huán)境影響報(bào)告”(Environmental Impact Statements)。隨后,環(huán)境影響評(píng)價(jià)制度被世界各國(guó)(地區(qū))借鑒,中國(guó)也不例外:1979年,《環(huán)境保護(hù)法(試行)》第6條對(duì)環(huán)境影響評(píng)價(jià)作出規(guī)定,1989年《環(huán)境保護(hù)法》第13條、2014年《環(huán)境保護(hù)法》第19條均堅(jiān)持并完善了該制度;此外,2002年,中國(guó)更是出臺(tái)了專門的《環(huán)境影響評(píng)價(jià)法》,并于2018年對(duì)其作了修訂。在人工智能時(shí)代,以“環(huán)境影響評(píng)價(jià)”為參照提出“算法影響評(píng)價(jià)”制度,具有歷史的和邏輯的合理性。

      2.1.1 從“環(huán)境影響評(píng)價(jià)”到“算法影響評(píng)價(jià)”的歷史演變 環(huán)境影響評(píng)價(jià)最初是為了治理環(huán)境污染。雖然環(huán)境的社會(huì)維度在美國(guó)1969年出臺(tái)的《國(guó)家環(huán)境政策法案》中有多處提及,但是考慮到直接推動(dòng)該法通過的加州圣巴巴拉(Santa Barbara)石油泄露事件,人們往往將環(huán)境默認(rèn)為自然環(huán)境,社會(huì)因素在早期的環(huán)境影響評(píng)價(jià)實(shí)踐中很少被考慮到[16]。在之后的數(shù)十年間,環(huán)境概念的解讀逐漸擴(kuò)大至社會(huì)環(huán)境,最突出的體現(xiàn)是美國(guó)多個(gè)政府部門于1994年5月聯(lián)合發(fā)布了《社會(huì)影響評(píng)價(jià)指導(dǎo)和原則》。與此同時(shí),1980年成立的“影響評(píng)價(jià)國(guó)際協(xié)會(huì)”建議采用環(huán)境影響評(píng)價(jià)的上位概念——影響評(píng)價(jià)——來指稱范圍不斷擴(kuò)大的影響評(píng)價(jià)實(shí)踐,同時(shí)涵蓋環(huán)境影響評(píng)價(jià)和社會(huì)影響評(píng)價(jià)[17]。在中國(guó),也有學(xué)者呼吁在環(huán)境影響評(píng)價(jià)之外,重視對(duì)社會(huì)影響評(píng)價(jià)的研究,推動(dòng)社會(huì)影響評(píng)價(jià)的相關(guān)立法[7]。

      在社會(huì)影響評(píng)價(jià)之下,發(fā)展出了許多細(xì)分的影響評(píng)價(jià)形式,其中倍受關(guān)注的是隱私影響評(píng)價(jià)(Privacy Impact Assessments)。20世紀(jì)90年代中期以來,隱私影響評(píng)價(jià)被提出并逐漸成熟,其背景是信息技術(shù)的快速發(fā)展嚴(yán)重危及人們的隱私權(quán)[18]124。對(duì)公眾隱私侵害最為顯著的是由大量攝像頭組成的公共監(jiān)控系統(tǒng),因此在學(xué)術(shù)文獻(xiàn)中也存在關(guān)于“監(jiān)控影響評(píng)價(jià)”(Surveillance Impact Assessments)的單獨(dú)討論[19]。目前,已有國(guó)家(地區(qū))將隱私影響評(píng)價(jià)寫入立法文件,如美國(guó)2002年的《電子政務(wù)法案》第208條規(guī)定“聯(lián)邦政府機(jī)構(gòu)在開發(fā)或采用信息技術(shù)來收集、保存、傳播公民的可識(shí)別信息時(shí),需要提前進(jìn)行隱私影響評(píng)價(jià)”。

      與隱私影響評(píng)價(jià)密切相關(guān)且已被立法確認(rèn)的另外一個(gè)制度是“數(shù)據(jù)保護(hù)影響評(píng)價(jià)”。2016年通過、2018年生效的GDPR第35條第1款規(guī)定“在進(jìn)行數(shù)據(jù)處理之前,數(shù)據(jù)處理者應(yīng)就數(shù)據(jù)處理操作對(duì)個(gè)人數(shù)據(jù)保護(hù)產(chǎn)生的影響進(jìn)行評(píng)估”。如同隱私權(quán)在大數(shù)據(jù)時(shí)代衍生出個(gè)人信息權(quán)一樣,數(shù)據(jù)保護(hù)影響評(píng)價(jià)被視為隱私影響評(píng)價(jià)在大數(shù)據(jù)時(shí)代的發(fā)展形態(tài)。不過,學(xué)者馬戈特(Margot)認(rèn)為GDPR第35條規(guī)定的數(shù)據(jù)保護(hù)影響評(píng)價(jià)實(shí)質(zhì)上是算法影響評(píng)價(jià),并指出GDPR第35條立法是各國(guó)政府使用影響評(píng)價(jià)工具來強(qiáng)化算法責(zé)任的一個(gè)示例[20]14。本文贊同該觀點(diǎn),因?yàn)樵贕DPR第35條中“數(shù)據(jù)保護(hù)影響評(píng)價(jià)”的評(píng)價(jià)對(duì)象——數(shù)據(jù)的“處理工作”(processing operation)——在人工智能時(shí)代指的就是數(shù)據(jù)的算法處理。總體而言,在歷史語境中,算法影響評(píng)價(jià)是從環(huán)境影響評(píng)價(jià)中孕育出來的社會(huì)影響評(píng)價(jià)在人工智能時(shí)代的最新發(fā)展。

      2.1.2 從“環(huán)境影響評(píng)價(jià)”到“算法影響評(píng)價(jià)”的類比邏輯 作為人類的重要思維工具,類比在算法影響評(píng)價(jià)的制度創(chuàng)新中扮演著極為重要的角色?!皵?shù)據(jù)是新石油”(data is the new oil)是近幾年經(jīng)常見諸報(bào)端、具有較高傳播度的一個(gè)類比型命題。通常認(rèn)為,“數(shù)據(jù)是新石油”這個(gè)類比旨在表明數(shù)據(jù)的經(jīng)濟(jì)地位和經(jīng)濟(jì)價(jià)值,即數(shù)據(jù)像傳統(tǒng)工業(yè)時(shí)代的石油一樣,是驅(qū)動(dòng)人工智能發(fā)展的戰(zhàn)略性資源,蘊(yùn)藏著巨大的經(jīng)濟(jì)價(jià)值。

      不過,對(duì)“數(shù)據(jù)是新石油”這一命題,也可以作出以下兩個(gè)方面的闡釋:a.“數(shù)據(jù)是新石油”這一類比型命題表明了數(shù)據(jù)的正反兩面性。石油在推動(dòng)工業(yè)經(jīng)濟(jì)發(fā)展的同時(shí),也帶來了環(huán)境污染、氣候變暖等問題。數(shù)據(jù)與石油類似,在驅(qū)動(dòng)智能經(jīng)濟(jì)發(fā)展的同時(shí),也引發(fā)了一系列諸如侵犯隱私權(quán)、個(gè)人信息權(quán)等負(fù)面問題??偟膩碚f,石油產(chǎn)生環(huán)境問題的方式有兩種:一是石油泄露,二是石油在使用過程中排放出二氧化碳、二氧化硫等有害氣體。類似地,數(shù)據(jù)負(fù)面問題的產(chǎn)生方式也有兩種:一是數(shù)據(jù)泄露,二是數(shù)據(jù)的不當(dāng)使用(挖掘),如未經(jīng)授權(quán)的數(shù)據(jù)畫像、利用大數(shù)據(jù)“殺熟”等。b.“數(shù)據(jù)是新石油”這一類比型命題為我們指明了數(shù)據(jù)負(fù)面問題的解決之道,這一點(diǎn)認(rèn)識(shí)極為重要。類比不僅僅可以幫助我們深入理解新問題,而且能夠啟發(fā)我們?nèi)绾谓鉀Q新問題,因?yàn)榕f問題的解決方案能夠?yàn)樾聠栴}的處理提供經(jīng)驗(yàn)和示范。也就是說,將數(shù)據(jù)類比為石油的一個(gè)重要啟示是,用于石油污染的法律制度(如環(huán)境影響評(píng)價(jià)制度)可一定程度為數(shù)據(jù)規(guī)制所借鑒[21]。

      由數(shù)據(jù)與石油的類比引申出來的是算法與工廠的類比:在傳統(tǒng)工業(yè)時(shí)代,加工石油的場(chǎng)所是工廠;而在人工智能時(shí)代,加工數(shù)據(jù)的工具的算法。如果你把挖掘數(shù)據(jù)的算法看作是一個(gè)加工原料的工廠,那么“算法不公問題就是從煙囪中排出的黑煙,這是一種有毒的排放物”[22]。循此思路,產(chǎn)生于工業(yè)時(shí)代的環(huán)境影響評(píng)價(jià)制度也可被類推至人工智能時(shí)代,通過建立算法影響評(píng)價(jià)制度來治理算法權(quán)力對(duì)社會(huì)環(huán)境的“污染”。綜上,數(shù)據(jù)類比石油,算法類比工廠,進(jìn)而由環(huán)境影響評(píng)價(jià)類推算法影響評(píng)價(jià),這是算法影響評(píng)價(jià)制度創(chuàng)新的內(nèi)在邏輯。

      2.2理論基礎(chǔ):共治思想和“元規(guī)制”模式算法影響評(píng)價(jià)旨在規(guī)制算法權(quán)力,那么其立足的理論基礎(chǔ)是什么?傳統(tǒng)的規(guī)制類型有法律規(guī)制(legal regulation)和自我規(guī)制(self-regulation)兩種:前者指國(guó)家使用以刑事、民事、行政責(zé)任為背書的法律規(guī)則對(duì)相關(guān)主體進(jìn)行規(guī)制,其以“命令和控制”為核心;后者指在沒有國(guó)家等外部主體壓力的情況下,相關(guān)主體進(jìn)行內(nèi)部地、主動(dòng)地自我管理和約束。上世紀(jì)末期以來,在法律規(guī)制和自我規(guī)制之間出現(xiàn)了中間道路,即以國(guó)家為代表的外部規(guī)制力量和被規(guī)制者內(nèi)部自我約束力量相結(jié)合的共同治理(co-regulation);而共治的一個(gè)重要形式是“元規(guī)制”(meta-regulation),具體指法律作為外部力量“對(duì)自我規(guī)制的規(guī)制”(the regulation of self-regulation)[23]。與其他規(guī)制形式相比,“元規(guī)制”的優(yōu)勢(shì)在于,它可以充分利用被規(guī)制者自身的自治能力,但如果其自我規(guī)制工作沒有達(dá)到監(jiān)管機(jī)構(gòu)的期望,那么被規(guī)制者就要接受來自法律的強(qiáng)制?!霸?guī)制”弱化了規(guī)制者的命令性,更強(qiáng)調(diào)被規(guī)制者的主動(dòng)性,法律對(duì)相關(guān)主體行為的規(guī)制從傳統(tǒng)的直接規(guī)制、具體規(guī)制轉(zhuǎn)變?yōu)殚g接規(guī)制、抽象規(guī)制。。

      有觀點(diǎn)主張算法影響評(píng)價(jià)是自愿的,屬于算法主體的自我規(guī)制[5]115;也有點(diǎn)觀點(diǎn)認(rèn)為,算法影響評(píng)價(jià)是法定的,帶有命令和強(qiáng)制的色彩[15]168??偟膩砜矗髁饔^點(diǎn)和已有實(shí)踐的大趨勢(shì)是將算法影響評(píng)價(jià)納入法律規(guī)定。那么,由國(guó)家法律參與的算法影響評(píng)價(jià)制度建設(shè)在規(guī)制理論上是純粹的法律規(guī)制,還是包含了自我約束的“元規(guī)制”?學(xué)者魯本(Reuben)主張應(yīng)以“元規(guī)制”模式來構(gòu)建和適用影響評(píng)價(jià)制度[24]。本文贊同該觀點(diǎn),因?yàn)橄挛乃龅膬蓚€(gè)影響評(píng)價(jià)制度特性決定了其與“元規(guī)制”模式更加契合。

      在有關(guān)隱私影響評(píng)價(jià)制度的討論中,學(xué)者羅杰(Roger)指出上世紀(jì)90年代以來推動(dòng)隱私影響評(píng)價(jià)產(chǎn)生并成熟的顯著因素有兩個(gè):一是負(fù)責(zé)保護(hù)公民隱私權(quán)的公共機(jī)構(gòu),希望借助隱私影響評(píng)價(jià)制度來解決信息技術(shù)對(duì)隱私日益嚴(yán)重的侵害;二是采用信息技術(shù)的主體,希冀借助推行隱私影響評(píng)價(jià)來促進(jìn)與社會(huì)公眾的對(duì)話交流,表達(dá)對(duì)服務(wù)對(duì)象隱私權(quán)的尊重,進(jìn)而提升自己的親和力和公信力[18]123。與隱私影響評(píng)價(jià)一樣,算法影響評(píng)價(jià)在算法治理活動(dòng)中也扮演兩種角色:既是監(jiān)管機(jī)構(gòu)維護(hù)公共利益的一項(xiàng)“監(jiān)管工具”,也是被規(guī)制主體追求自我利益的一種“管理手段”?!霸?guī)制”模式就是兩個(gè)角色的協(xié)同。就本文主題而言,一方面,算法主體為了取得社會(huì)公眾的信任,緩和與服務(wù)對(duì)象之間的緊張關(guān)系,有動(dòng)力對(duì)自己算法技術(shù)的社會(huì)影響進(jìn)行評(píng)估并就此與社會(huì)公眾進(jìn)行對(duì)話,切實(shí)履行“元規(guī)制”模式之自我規(guī)制;另一方面,為了擴(kuò)大算法影響評(píng)價(jià)制度的適用范圍,促使更多的算法主體設(shè)計(jì)適用對(duì)用戶和社會(huì)負(fù)責(zé)的算法系統(tǒng),國(guó)家有必要借助法律之力推行并監(jiān)管算法影響評(píng)價(jià)活動(dòng)。

      在理論上,對(duì)自我規(guī)制的“規(guī)制”有三種方式:a.被監(jiān)管者與監(jiān)管者之間建立服從關(guān)系;b.監(jiān)管者對(duì)被監(jiān)管者的自我規(guī)制進(jìn)行程序管理;c.監(jiān)管者為被監(jiān)管者的自我規(guī)制提供指導(dǎo)和建議[24]30。監(jiān)管者對(duì)算法主體的算法影響評(píng)價(jià)實(shí)行的是程序管理,即通過系統(tǒng)化的程序來引導(dǎo)算法主體識(shí)別、控制、解決算法可能存在的社會(huì)風(fēng)險(xiǎn)??偠灾惴ㄓ绊懺u(píng)價(jià)制度的理論基礎(chǔ)是共治思想和“元規(guī)制”模式,其法律性質(zhì)是外部監(jiān)督監(jiān)管之下的自我規(guī)制程序。

      3 算法影響評(píng)價(jià)制度的具體構(gòu)建

      算法影響評(píng)價(jià)制度是一個(gè)前置于算法實(shí)際應(yīng)用的分險(xiǎn)評(píng)估及預(yù)防程序,旨在提早發(fā)現(xiàn)問題并解決問題。本節(jié)以環(huán)境影響評(píng)價(jià)為制度參照,以“元規(guī)制”為理論指導(dǎo),結(jié)合國(guó)內(nèi)外已有的環(huán)境影響評(píng)價(jià)、隱私影響評(píng)價(jià)、數(shù)據(jù)保護(hù)影響評(píng)價(jià)、算法影響評(píng)價(jià)等立法實(shí)踐,嘗試從以下幾個(gè)方面提出中國(guó)算法影響評(píng)價(jià)的制度框架。

      3.1算法影響評(píng)價(jià)的分類管理以環(huán)境影響評(píng)價(jià)為起點(diǎn),影響評(píng)價(jià)制度雖然已經(jīng)成功地實(shí)踐僅半個(gè)世紀(jì),但是仍然面臨許多質(zhì)疑,其中的一個(gè)批評(píng)意見是:影響評(píng)價(jià)程序繁瑣耗時(shí),制度運(yùn)行成本過大。誠(chéng)然,算法影響評(píng)價(jià)的開展需要耗費(fèi)一定的時(shí)間和精力,這會(huì)對(duì)算法技術(shù)創(chuàng)新和產(chǎn)業(yè)發(fā)展的效率產(chǎn)生不利影響。但是除了效率,我們所珍視的價(jià)值還有公平、安全等,算法影響評(píng)價(jià)就是踐行和保障這些價(jià)值的制度工具,它旨在社會(huì)公眾中建立信任,使人們相信算法是一個(gè)社會(huì)無害的因而可以接納的技術(shù),這是算法技術(shù)和人工智能社會(huì)持續(xù)發(fā)展的基石。因此,算法影響評(píng)價(jià)仍有堅(jiān)持的必要,但也需要通過制度創(chuàng)新來積極地回應(yīng)上述批評(píng)意見。比如對(duì)算法影響評(píng)價(jià)進(jìn)行分類管理,具體來說,有以下兩種措施:a.設(shè)立影響評(píng)價(jià)門檻,負(fù)面影響輕微的項(xiàng)目對(duì)象不需要進(jìn)行影響評(píng)價(jià);b.從影響評(píng)價(jià)中簡(jiǎn)化出小影響評(píng)價(jià),負(fù)面影響不太顯著的項(xiàng)目對(duì)象走簡(jiǎn)化版的影響評(píng)價(jià),負(fù)面影響顯著的項(xiàng)目對(duì)象需要進(jìn)行全面的影響評(píng)價(jià)[15]184。

      影響評(píng)價(jià)依據(jù)項(xiàng)目對(duì)象負(fù)外部性程度的大小進(jìn)行分類管理,這在實(shí)踐中較為常見。比如中國(guó)《環(huán)境保護(hù)法》第16條將擬建項(xiàng)目對(duì)環(huán)境的影響程度分為三類,即重大環(huán)境影響、輕度環(huán)境影響、環(huán)境影響很小。前兩類需要做環(huán)境影響評(píng)價(jià),并分別制作環(huán)境影響報(bào)告書、環(huán)境影響報(bào)告表;最后一類不需要做環(huán)境影響評(píng)價(jià),但應(yīng)填寫環(huán)境影響登記表。加拿大政府2019年《關(guān)于自動(dòng)決策的指令》附件B將算法的社會(huì)影響分為四個(gè)等級(jí),即幾乎沒有影響、有中等影響、有很大影響、有重大影響,附件C為不同影響等級(jí)的擬采用算法分別規(guī)定了不同等級(jí)的算法影響評(píng)價(jià)。為了既全面又有重點(diǎn)地對(duì)算法的負(fù)面影響進(jìn)行識(shí)別、預(yù)防和救濟(jì),算法影響評(píng)價(jià)可參照上述制度理論和立法實(shí)踐采取分類管理,具體框架如表1。

      表1 算法影響評(píng)價(jià)的分類管理

      “微小、輕度、重度”三個(gè)影響等級(jí)的確定標(biāo)準(zhǔn)主要有兩個(gè)考慮因素組成:a.考量算法決策錯(cuò)誤所產(chǎn)生的影響是否可逆。譬如,輔助法官定罪量刑的算法系統(tǒng)如果出錯(cuò),犯罪嫌疑人損失的自由甚至生命是無法補(bǔ)救的,因此屬于“重度”影響等級(jí);而用于民政部門分發(fā)福利物品的算法系統(tǒng)如果出錯(cuò),可以通過物品召回和再分配予以彌補(bǔ),因此屬于“微小”或“輕度”影響等級(jí)。b.考量算法決策錯(cuò)誤所影響到的人群大小。仍以輔助民政部門福利分配的算法系統(tǒng)為例,如果某縣民政局或國(guó)家民政部采用該類算法,前者的受影響人群要遠(yuǎn)小于后者,其影響等級(jí)相對(duì)也小。除了上述兩個(gè)考量因素,算法決策影響的持續(xù)時(shí)間、分布空間等也是算法影響等級(jí)確定時(shí)需要考慮的因素。

      3.2算法影響評(píng)價(jià)的評(píng)價(jià)范圍評(píng)價(jià)范圍指應(yīng)被納入影響評(píng)價(jià)行列的影響種類,如環(huán)境影響評(píng)價(jià)的評(píng)價(jià)范圍包括對(duì)土地影響、空氣影響、水資源影響等。確定一個(gè)合適的評(píng)價(jià)范圍非常重要。前文已述,關(guān)于隱私影響評(píng)價(jià)的批評(píng)主要集中在其評(píng)價(jià)范圍的狹隘。學(xué)者亞歷山德羅(Alessandro)主張大數(shù)據(jù)和人工智能等技術(shù)產(chǎn)生的社會(huì)負(fù)面影響,不僅僅涉及個(gè)人的隱私保護(hù)問題,也涉及到對(duì)某個(gè)社會(huì)團(tuán)體的歧視(如種族、性別歧視)等基本人權(quán)問題,因此對(duì)新技術(shù)的影響評(píng)價(jià)范圍應(yīng)以私人權(quán)利為基礎(chǔ),同時(shí)兼顧社會(huì)價(jià)值[25]。學(xué)者拉布(Raab)指出,大眾監(jiān)控系統(tǒng)不僅對(duì)個(gè)人產(chǎn)生影響,而且對(duì)某些團(tuán)體和整個(gè)社會(huì)產(chǎn)生負(fù)面影響,因此大眾監(jiān)控的影響評(píng)價(jià)不能局限于隱私影響評(píng)價(jià)[26]。綜合上述批評(píng)意見,可以認(rèn)為,完備的社會(huì)影響評(píng)價(jià)應(yīng)將微觀層面、中觀層面、宏觀層面可能存在的不利影響都納入評(píng)價(jià)范圍。

      據(jù)此,算法技術(shù)應(yīng)用的被影響對(duì)象包括個(gè)人、團(tuán)體和社會(huì)整體,因而算法影響評(píng)價(jià)的評(píng)價(jià)范圍也應(yīng)涵蓋以下三類:a.對(duì)個(gè)人權(quán)利的影響。如企業(yè)未經(jīng)用戶同意用算法對(duì)用戶進(jìn)行數(shù)據(jù)畫像,侵犯了用戶的隱私權(quán)/個(gè)人信息權(quán)。再如,算法系統(tǒng)開發(fā)者未經(jīng)授權(quán)采用版權(quán)作品數(shù)據(jù)集來訓(xùn)練算法,可能侵害作者的著作權(quán)[27]。b.對(duì)集體人權(quán)的影響。如門禁系統(tǒng)中的人臉識(shí)別系統(tǒng)對(duì)不同的膚色有著不同的識(shí)別準(zhǔn)確率,會(huì)引發(fā)種族歧視。再如,網(wǎng)絡(luò)平臺(tái)的內(nèi)容算法過濾系統(tǒng)錯(cuò)誤地將大量合法內(nèi)容屏蔽或刪除,侵害了網(wǎng)民的言論自由。c.對(duì)倫理道德以及其他社會(huì)秩序的影響。如企業(yè)通過動(dòng)態(tài)的定價(jià)算法實(shí)施默示合謀,損害消費(fèi)者利益,破壞市場(chǎng)競(jìng)爭(zhēng)秩序,這被認(rèn)為是一種新型的市場(chǎng)壟斷。

      3.3算法影響評(píng)價(jià)的程序環(huán)節(jié)算法影響評(píng)價(jià)的法律定位是程序。明確算法影響評(píng)價(jià)的程序定位,需要我們區(qū)別影響報(bào)告書(Statements)與影響評(píng)價(jià)(Assessments)。早期觀念傾向于將風(fēng)險(xiǎn)評(píng)估作為一個(gè)靜態(tài)的報(bào)告實(shí)體,而非動(dòng)態(tài)的評(píng)價(jià)程序;隨著實(shí)踐的發(fā)展,人們逐漸認(rèn)識(shí)到影響評(píng)價(jià)活動(dòng)是一個(gè)程序。如中國(guó)1979年、1989年《環(huán)境保護(hù)法》采用的立法表述是“環(huán)境影響報(bào)告書”,但在2014年《環(huán)境保護(hù)法》和2002年《環(huán)境影響評(píng)價(jià)法》的立法表述改為了“環(huán)境影響評(píng)價(jià)”。從影響報(bào)告書到影響評(píng)價(jià)的“程序轉(zhuǎn)向”是一種進(jìn)步,影響評(píng)價(jià)的程序定位更加強(qiáng)調(diào)早期信息公開、利益相關(guān)者協(xié)商、修正后的信息公開、外部主體審查等多主體互動(dòng)環(huán)節(jié)。

      算法影響評(píng)價(jià)應(yīng)以“元規(guī)制”理論為指導(dǎo),其主體程序由“算法主體自我評(píng)價(jià)、自評(píng)信息公開、外部主體監(jiān)督監(jiān)管”三個(gè)部分組成,其中后兩個(gè)部分尤其重要。學(xué)者對(duì)GDPR第35條中的數(shù)據(jù)保護(hù)影響評(píng)價(jià)提出了若干批評(píng)意見,主要有以下三點(diǎn):第一,沒有要求數(shù)據(jù)保護(hù)影響評(píng)價(jià)報(bào)告向社會(huì)大眾公開;第二,報(bào)告不需要經(jīng)過外部人員或機(jī)構(gòu)的審查;第三,沒有方便社會(huì)公眾監(jiān)督的“通知——評(píng)論”程序[5]115。總起來說,對(duì)GDPR第35條的批評(píng)可概括為信息公開和外部監(jiān)督的缺失,算法影響評(píng)價(jià)的制度建設(shè)要對(duì)此予以重視。“元規(guī)制”理論強(qiáng)調(diào)監(jiān)管者和被監(jiān)管者之間的共治,在算法影響評(píng)價(jià)中,是監(jiān)管主體、算法主體、社會(huì)公眾之間的三者共治。

      圖1 算法影響評(píng)價(jià)的程序環(huán)節(jié)

      對(duì)算法主體自我規(guī)制的外部“規(guī)制”來源于社會(huì)公眾的監(jiān)督和有權(quán)機(jī)構(gòu)的監(jiān)管。也就是說,算法影響評(píng)價(jià)的程序環(huán)節(jié)中存在兩輪“對(duì)自我規(guī)制的規(guī)制”:如圖1所示,第一輪是社會(huì)公眾對(duì)算法主體自我影響評(píng)價(jià)的監(jiān)督,即算法主體自評(píng),形成影響報(bào)告并公開,社會(huì)公眾對(duì)此提出意見;第二輪是監(jiān)管機(jī)構(gòu)對(duì)算法主體自我影響評(píng)價(jià)的監(jiān)管,即算法主體根據(jù)社會(huì)公眾的反饋意見,形成第二份影響報(bào)告提交監(jiān)管機(jī)構(gòu)審核。此外,算法影響報(bào)告書被審核通過之后,需要向社會(huì)公布,進(jìn)入事后的監(jiān)督監(jiān)管程序。

      3.4算法影響報(bào)告書的主要內(nèi)容算法影響報(bào)告書是算法影響評(píng)價(jià)程序中信息記錄和公開的載體。算法影響報(bào)告書必須是真實(shí)的,即充分地披露擬采用算法的局限性和不確定性。算法影響報(bào)告書的內(nèi)容由非技術(shù)性摘要和技術(shù)性正文組成。算法影響評(píng)價(jià)所涉及的內(nèi)容非常繁雜而且具有較強(qiáng)的技術(shù)性,因此非技術(shù)性摘要很重要,它能夠幫助不同的利益主體特別是普通公眾理解并參與進(jìn)算法影響評(píng)價(jià)的對(duì)話之中。

      影響評(píng)價(jià)報(bào)告書中的正文,一般由“背景介紹、影響評(píng)估、應(yīng)對(duì)措施”三個(gè)部分組成,如中國(guó)《環(huán)境影響評(píng)價(jià)法》第10、17條對(duì)環(huán)境影響報(bào)告書的規(guī)定,GDPR第35條第7款對(duì)數(shù)據(jù)保護(hù)影響評(píng)價(jià)內(nèi)容的規(guī)定,均是圍繞以上三個(gè)要點(diǎn)展開的。相應(yīng)地,算法影響評(píng)價(jià)的主體內(nèi)容有三個(gè):a.算法技術(shù)情況,包括交代算法技術(shù)的背景資料、運(yùn)作機(jī)制和應(yīng)用場(chǎng)景等;b.算法影響狀況,包含算法對(duì)個(gè)人權(quán)利、集體人權(quán)和社會(huì)風(fēng)俗秩序的潛在影響;c.風(fēng)險(xiǎn)的解決措施,如算法風(fēng)險(xiǎn)監(jiān)測(cè)措施、算法安全應(yīng)急保障措施、算法侵權(quán)的補(bǔ)救措施等。算法影響報(bào)告書,不是算法治理的終點(diǎn),而是一個(gè)起點(diǎn)。實(shí)質(zhì)上,算法影響報(bào)告書是一個(gè)信息披露文件,它要求算法主體生產(chǎn)、整理、提供關(guān)于算法社會(huì)影響的相關(guān)信息,這些信息將便于行政機(jī)關(guān)、專業(yè)機(jī)構(gòu)、社會(huì)公眾對(duì)算法系統(tǒng)進(jìn)行審查和監(jiān)督。

      4 結(jié) 語

      算法影響評(píng)價(jià)制度,實(shí)質(zhì)上是以算法信息治理為抓手,提高算法透明度,實(shí)現(xiàn)算法權(quán)力規(guī)制。算法影響評(píng)價(jià)制度有助于構(gòu)建一個(gè)取向于公開和公正的智能社會(huì),應(yīng)是以“算法”為中心的智能社會(huì)法律秩序的重要組成部分。中國(guó)應(yīng)密切跟蹤歐美國(guó)家(地區(qū))的立法政策動(dòng)向,加快對(duì)算法影響評(píng)價(jià)制度的研究和構(gòu)建,及時(shí)豐富人工智能社會(huì)治理的工具箱。具體而言,算法影響評(píng)價(jià)制度在中國(guó)的構(gòu)建和發(fā)展可采用“兩步走”方案:

      第一步,將算法影響評(píng)價(jià)確定為政府采購采用算法系統(tǒng)的監(jiān)督性程序。算法的適用主體無非公私兩類,相比于企業(yè)主體,政府主體借助算法行使公權(quán)力更有理由引進(jìn)算法影響評(píng)價(jià)制度。因?yàn)椋珯?quán)力的行使需要社會(huì)監(jiān)督,為保障社會(huì)監(jiān)督就必須對(duì)行政行為的相關(guān)信息進(jìn)行公開,這其中就包括行政主體使用算法的信息,而算法影響評(píng)價(jià)就是一種有效的信息公開機(jī)制。基于政府信息公開與權(quán)力監(jiān)督這一傳統(tǒng)法理,將算法影響評(píng)價(jià)確定為政府采購采用算法系統(tǒng)的監(jiān)督性程序更容易獲得認(rèn)同。實(shí)際上,美國(guó)、歐盟、加拿大、新西蘭等國(guó)家(地區(qū))關(guān)于算法影響評(píng)價(jià)制度的研究和實(shí)踐也首先是圍繞政府采購采用算法系統(tǒng)開始的。

      第二步,將算法影響評(píng)價(jià)確立為企業(yè)算法研發(fā)應(yīng)用項(xiàng)目的監(jiān)管性程序。等算法影響評(píng)價(jià)制度在政府采購采用算法系統(tǒng)領(lǐng)域形成一定的理念認(rèn)同和實(shí)踐經(jīng)驗(yàn)之后,適時(shí)地將算法影響評(píng)價(jià)制度的適用范圍擴(kuò)展至企業(yè)的算法研發(fā)應(yīng)用項(xiàng)目。私人企業(yè)(以互利網(wǎng)企業(yè)為代表)的算法系統(tǒng)在事實(shí)上對(duì)我們社會(huì)生活的重要方面擁有一種類似于主權(quán)的普遍性控制,如網(wǎng)絡(luò)平臺(tái)的新聞推薦算法如同一只看不見的手操縱著資訊的分發(fā)和傳播,影響著用戶的信息消費(fèi)甚至是價(jià)值觀的塑造??梢哉f,私人企業(yè)借助算法擁有的這種普遍且深度的社會(huì)影響力是一種“準(zhǔn)國(guó)家權(quán)力”性質(zhì)的公共性力量。因此,企業(yè)的算法研發(fā)和社會(huì)化應(yīng)用也有必要通過算法影響評(píng)價(jià)制度引入外部監(jiān)管。

      猜你喜歡
      環(huán)境影響規(guī)制主體
      論自然人破產(chǎn)法的適用主體
      主動(dòng)退市規(guī)制的德國(guó)經(jīng)驗(yàn)與啟示
      《環(huán)境影響評(píng)價(jià)》征稿訂閱及廣告征集啟事
      “三線一單”與環(huán)境影響評(píng)價(jià)銜接研析
      保護(hù)與規(guī)制:關(guān)于文學(xué)的刑法
      刑法論叢(2018年4期)2018-05-21 00:44:30
      論《反不正當(dāng)競(jìng)爭(zhēng)法》的規(guī)制范疇
      法治研究(2016年4期)2016-12-01 03:41:40
      關(guān)于遺產(chǎn)保護(hù)主體的思考
      論多元主體的生成
      內(nèi)容規(guī)制
      養(yǎng)殖的環(huán)境影響
      读书| 邵阳县| 锡林郭勒盟| 延长县| 泰州市| 乌拉特前旗| 定日县| 巨鹿县| 莱州市| 馆陶县| 松滋市| 汨罗市| 三门县| 社会| 南皮县| 虹口区| 县级市| 图们市| 龙州县| 台南县| 繁峙县| 瑞金市| 宜章县| 叶城县| 四平市| 阿尔山市| 怀安县| 临漳县| 乐东| 景东| 塘沽区| 定安县| 普兰店市| 宜昌市| 固始县| 六枝特区| 桃江县| 抚宁县| 和田县| 随州市| 永定县|