• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看

      ?

      可信算法的法律規(guī)制

      2021-08-09 02:09袁康
      東方法學(xué) 2021年3期

      袁康

      內(nèi)容摘要:符合可理解、可靠和可控等內(nèi)在要求的可信算法是防范算法風(fēng)險和構(gòu)建算法信任的基礎(chǔ),算法的可信控制應(yīng)該成為算法治理的核心。通過法律的可信控制,即按照法律嵌入和法律調(diào)節(jié)的規(guī)制邏輯,通過貫穿于算法的技術(shù)層、應(yīng)用層和治理層的系統(tǒng)化制度安排,確保算法以可信任狀態(tài)得以設(shè)計、部署、應(yīng)用和執(zhí)行,是實(shí)現(xiàn)算法可信的有效方式。系統(tǒng)地構(gòu)建算法可信控制的制度體系,需要從算法本體的維度,通過完善透明度規(guī)則、推動算法倫理法律化和探索算法驗(yàn)證評估制度等措施確保算法自身的可信度,并從算法關(guān)系的維度,通過明確算法權(quán)利、強(qiáng)化算法問責(zé)和拓展監(jiān)管體系等制度,約束算法相關(guān)主體的行為。

      關(guān)鍵詞:可信算法 算法治理 算法本體 算法關(guān)系 制度理性 技術(shù)理性

      中圖分類號:DF4? 文獻(xiàn)標(biāo)識碼:A? 文章編號:1674-4039-(2021)03-0005-21

      大數(shù)據(jù)、區(qū)塊鏈、人工智能等新興技術(shù)的加速應(yīng)用,正在深刻改變著人類社會的運(yùn)行模式。自動駕駛、醫(yī)療機(jī)器人、智能投顧、社交網(wǎng)絡(luò)等事物的出現(xiàn),使得人們在日常生活、經(jīng)濟(jì)交易、信息獲取、社會參與等領(lǐng)域的活動以更加便捷和智能的方式展開。算法作為這些技術(shù)的核心要素,在推進(jìn)行為決策機(jī)制變革和信任機(jī)制重塑的同時,也因公眾在對自動駕駛事故、大數(shù)據(jù)殺熟、信息繭房、算法暴政等一系列議題的反思和批判過程中面臨拷問:當(dāng)我們把一切都交給算法時,它們究竟是否值得信任?隨著算法社會的來臨,人類正將決策權(quán)逐漸讓渡給算法接管, 〔1 〕算法對于個體乃至整個社會的影響日漸重大且深遠(yuǎn),只有處于可信狀態(tài)的算法才能夠消除人類的顧慮并保證算法時代的安全與秩序??尚潘惴ㄊ蔷S系算法信任的基礎(chǔ),實(shí)現(xiàn)算法的可信控制則是算法治理的核心任務(wù)。如何實(shí)現(xiàn)算法的可信控制,既是技術(shù)社群試圖從技術(shù)理性的角度解決的現(xiàn)實(shí)任務(wù), 〔2 〕也是法律人需要從制度理性的角度回應(yīng)的時代命題?!? 〕筆者以可信算法概念及其內(nèi)在要求為起點(diǎn),結(jié)合算法的法律規(guī)制的基本邏輯與一般原理,試圖從算法自身的本體維度和算法相關(guān)主體的關(guān)系維度提出算法可信控制的體系化制度方案。

      一、算法信任與可信算法的概念展開

      從技術(shù)角度看,算法是為實(shí)現(xiàn)某個任務(wù)而構(gòu)造的簡單指令集, 〔4 〕其本質(zhì)是以有限、確定且有效的設(shè)定將輸入轉(zhuǎn)化為輸出從而解決問題的數(shù)學(xué)過程。〔5 〕算法以數(shù)據(jù)為基礎(chǔ),以算力為支撐,借助在具體場景下的部署和應(yīng)用實(shí)現(xiàn)自動化、智能化的決策。按照理想主義的技術(shù)預(yù)設(shè),由于算法規(guī)則的確定性和客觀性,算法決策通常被認(rèn)為是理性、中立、高效和值得信賴的?!? 〕然而,算法所呈現(xiàn)出的現(xiàn)實(shí)圖景似乎偏離了這種理想預(yù)設(shè),“算法信仰”在層出不窮的算法歧視和算法暴政面前難免淪為一廂情愿式的迷戀。在算法社會到來的前夜,我們需要再三確認(rèn):到底什么樣的算法才足以讓我們將決策權(quán)放心托付。

      (一)算法信任與算法可信度迷思

      一般而言,自然人由于認(rèn)知障礙、主觀傾向、身心狀態(tài)和外部干擾等原因,并不總能保證其決策的理性與正確。而算法依托確定的輸入輸出過程,能夠?qū)崿F(xiàn)相較于自然人更為客觀、理性和有效的決策。同時,借助計算機(jī)程序運(yùn)行和實(shí)現(xiàn)的算法能夠更為嚴(yán)格地執(zhí)行既定規(guī)則和邏輯,更為海量且快速地處理決策請求,從而實(shí)現(xiàn)決策的一致性、即時性和普遍性??此茩C(jī)械冰冷的算法,能在很大程度上彌補(bǔ)和消解自然人決策中的非理性、主觀性和局限性,節(jié)約決策成本并優(yōu)化決策效率,成為維持社會運(yùn)行乃至推動人類進(jìn)步的革命性力量?;诖?,算法被人們依賴甚至信仰,借助算法解決問題成為超越人類認(rèn)知局限和執(zhí)行能力的更優(yōu)選擇,由此形成了所謂的“算法信任”?!? 〕例如,區(qū)塊鏈技術(shù)因其“去中心化”而更具公信力,正是因?yàn)榉植际酱鎯?、共識機(jī)制、Paxos算法、非對稱加密等核心算法實(shí)現(xiàn)了不可篡改等技術(shù)特征,由此創(chuàng)造的“算法信用”對“主體信用”的補(bǔ)充或替代有效地解決了信息不對稱下的信任問題?!? 〕然而,技術(shù)特征并非信任的根本來源,人們對于算法的信任傾向以及算法自身的可信度是構(gòu)建“算法信任”缺一不可的兩個方面?!? 〕易言之,人們選擇相信算法并不意味著算法自身就值得被信任。

      即便我們有理由相信算法能夠按照預(yù)設(shè)的過程得以客觀地執(zhí)行,但由于其設(shè)計、部署和應(yīng)用難以避免地會受到人類行為的影響,加上技術(shù)不完備的客觀規(guī)律,算法自身的可信度會大打折扣, 〔10 〕從而形成一種“迷思”,即對算法可信度的懷疑。具體而言,這種“迷思”主要源于以下幾方面原因:1.算法缺陷并不總能避免。算法源于人類預(yù)設(shè)的邏輯模型,并通過代碼來表達(dá)和執(zhí)行。一方面,算法自身在功能實(shí)現(xiàn)上本身就有局限,算法輸出結(jié)果也并不能確保完全準(zhǔn)確,決策錯誤的可能性始終存在。另一方面,算法在設(shè)計和應(yīng)用過程中可能因算法模型或者饋送數(shù)據(jù)的缺陷而發(fā)生偏差。若是用于訓(xùn)練算法的數(shù)據(jù)質(zhì)量較差,無論算法模型多么完美,最后的數(shù)據(jù)輸出也會存在“垃圾進(jìn)、垃圾出”的現(xiàn)象,從而造成算法不能實(shí)現(xiàn)其預(yù)期效果。特斯拉自動駕駛事故的屢次發(fā)生,正是AutoPilot自動駕駛系統(tǒng)無法識別靜態(tài)障礙物的算法缺陷導(dǎo)致?!?1 〕而波音737MAX空難也正因?yàn)镸CAS系統(tǒng)在有缺陷的算法控制下以高于人工控制的權(quán)限壓低機(jī)頭導(dǎo)致飛機(jī)墜毀。這些案例都是算法缺陷導(dǎo)致算法可信度存疑的例證。2.算法偏見確實(shí)有意或無意地存在。算法模型不可避免地會受到設(shè)計者主觀傾向和利益導(dǎo)向的影響,設(shè)計者的價值觀和偏見會嵌入算法,從而造成算法輸出結(jié)果或者決策延續(xù)設(shè)計者的偏見。〔12 〕例如,我們常見的大數(shù)據(jù)“殺熟”或者歧視性定價,正是反映了這種故意的偏見。而即便設(shè)計者本身并非有意為之,在算法通過數(shù)據(jù)輸入進(jìn)行訓(xùn)練時也可能受到帶有偏見的數(shù)據(jù)影響,并通過機(jī)器學(xué)習(xí)加劇這種偏見。例如,微軟的聊天機(jī)器人Tay上線一天就學(xué)會了臟話和種族歧視,這是其設(shè)計者始料未及的。3.算法黑箱可能導(dǎo)致人與技術(shù)的疏離。算法自身封裝在程序之中,且代碼化的表達(dá)通常難以被非專業(yè)人士理解。此外算法設(shè)計與應(yīng)用者通常將其作為核心商業(yè)機(jī)密予以嚴(yán)密保護(hù),使得用戶通常難以直觀了解算法。在此情況下形成了輸入端和輸出端之間的無法被觀察的“隱層”,甚至?xí)霈F(xiàn)輸入和輸出都難以被感知的情況,即所謂“算法黑箱”?!?3 〕算法黑箱的存在,導(dǎo)致人們在面對算法的自動化決策時難以把握其理由或原因,或者無法確認(rèn)該決策是否真是按部署者解釋的那樣作出的,因而給設(shè)計者和應(yīng)用者操縱算法并損害個人權(quán)益甚至公共利益提供了可能性?!?4 〕面對并不透明的算法,用戶難以完全排除欺詐或歧視的存在,信息不對稱導(dǎo)致信任往往難以真正建立。4.算法權(quán)力可能造成人與技術(shù)的對抗。當(dāng)算法深度嵌入社會運(yùn)行的各個環(huán)節(jié)和部門,人們對算法的過度依賴以及算法的過度擴(kuò)張,會導(dǎo)致算法自主或者在個別主體的利用下控制、引導(dǎo)或干預(yù)個人、企業(yè)乃至國家機(jī)關(guān)的決策,形成所謂的“算法權(quán)力”?!?5 〕隨著算法廣泛部署,這種權(quán)力將通過算法的執(zhí)行形成對人類社會的規(guī)訓(xùn)。通過算法實(shí)施的網(wǎng)絡(luò)監(jiān)視、信息繭房等成為了“算法規(guī)訓(xùn)”的現(xiàn)實(shí)映射, 〔16 〕而“劍橋分析”事件和“盧米斯案” 〔17 〕則反映出當(dāng)算法開始介入政治或公共行政領(lǐng)域時所造成的巨大威脅。如果再科幻點(diǎn),神經(jīng)網(wǎng)絡(luò)和深度學(xué)習(xí)技術(shù)發(fā)展到一定階段的強(qiáng)人工智能有可能脫離人類的控制,甚至謀求對人類的統(tǒng)治。隨著算法權(quán)力的擴(kuò)張,人類與技術(shù)之間的從屬格局和權(quán)威地位正在發(fā)生微妙的變化, 〔18 〕算法權(quán)力對人類的規(guī)訓(xùn)與控制勢必會引發(fā)人類的對抗,而不信任正是這種對抗的起點(diǎn)。

      算法信任是算法社會的基礎(chǔ),而信任必須建立在算法可信度之上。即便用戶可能會因?yàn)橹饔^上的盲目性而選擇信任算法,但算法自身可信度的不足會客觀上消解這種信任。因此,算法可信度才是確立和維系算法信任的根本。從前文分析看,由于算法可信度迷思的存在,當(dāng)我們面對“算法是否值得信任”的問題時并不總是能夠得到肯定的答案。然而,不論我們目前在多大程度上不信任算法,都不得不承認(rèn)算法在當(dāng)下與未來必將發(fā)揮著重要作用。任何因噎廢食地抗拒算法社會的到來,都是不理智且不現(xiàn)實(shí)的。盡管算法并不總是值得被信任,但也不宜全盤否定算法的積極功能,無視那些具備可信度的算法為經(jīng)濟(jì)社會更加高效地運(yùn)行提供的支撐。基于這個前提,我們可以得出一個初步結(jié)論:我們不能也不應(yīng)拒絕算法,但是我們可以規(guī)訓(xùn)算法;我們需要算法,但我們真正需要的是可以信任的算法,即可信算法。

      (二)可信算法及其內(nèi)在要求

      筆者所稱的“可信算法”并非嚴(yán)格意義上的技術(shù)術(shù)語,而是側(cè)重于算法“可信任”狀態(tài)或特征的價值判斷。由于話語體系的差異,有必要對相關(guān)概念進(jìn)行區(qū)分以避免混淆或誤解。在技術(shù)語境,“可信”源自作為一種信息安全技術(shù)的“可信計算”,即通過認(rèn)證密鑰、安全輸入輸出、內(nèi)存屏蔽、封裝存儲、遠(yuǎn)程證明等核心技術(shù)規(guī)范實(shí)現(xiàn)身份驗(yàn)證和可靠運(yùn)行,從而構(gòu)建完整可信的系統(tǒng)。在這層意義上的可信算法,主要是指身份驗(yàn)證、安全保護(hù)等為內(nèi)容和目標(biāo)的特定算法類型,如動態(tài)加密算法、可信評價算法等。但在治理語境中,“可信算法”意在將那些對個體權(quán)益或社會福利存在現(xiàn)實(shí)或潛在威脅的算法予以排除,并將其限定為具備合法性和正當(dāng)性且具有相當(dāng)可信度的算法。此種定義并不關(guān)注算法的具體內(nèi)容或目標(biāo),而是強(qiáng)調(diào)評估特定算法自身是否值得信任以及影響是否正面,與可信區(qū)塊鏈、可信人工智能等概念異曲同工。隨著技術(shù)專家對算法倫理的日益關(guān)注,對于“可信算法”概念的混亂認(rèn)識也在趨于共識?!?9 〕筆者所指的可信算法也正是基于治理語境下的定義展開。

      “信任”如何建立,或者說“可信”如何實(shí)現(xiàn),是一個相對復(fù)雜的系統(tǒng)工程。算法自身的不完備以及在部署應(yīng)用中導(dǎo)致的人與技術(shù)之間的疏離和對抗,往往會將算法推離人們的信任圈。正如哲學(xué)家Onora ONeill所言,信任不是通過索取而得到,而是通過展示可信度來獲取?!?0 〕對于算法而言,設(shè)計者或者部署應(yīng)用者不能單方面要求人們的信任,其宣示或承諾也并不足以得到人們的信任,而是要通過向用戶和公眾充分展示其可信度來實(shí)現(xiàn)。按照David Spiegelharter的觀點(diǎn),對算法的信任來源兩個方面,即關(guān)于算法(about the algorithm)的可信度和通過算法(by the algorithm)的可信度,前者是指開發(fā)者充分闡釋算法的功能、邏輯以及評估驗(yàn)證的情況,使用戶和公眾對其充分了解,后者是指算法在實(shí)際應(yīng)用中的準(zhǔn)確、有效、可靠的水平,使用戶和公眾相信其有能力且負(fù)責(zé)任地解決問題?!?1 〕如果將算法自身的技術(shù)能力與對算法的治理狀態(tài)結(jié)合來看,對算法的信任主要來源兩個方面。一是增強(qiáng)算法技術(shù)本身的可靠性、穩(wěn)定性等績效表現(xiàn),使得公眾對其運(yùn)行形成穩(wěn)定預(yù)期和信賴;二是通過法律、行業(yè)規(guī)范、技術(shù)倫理等制度創(chuàng)建可信的治理環(huán)境,使得公眾增加對算法技術(shù)的掌控感和影響力?!?2 〕概言之,可信算法既需要本體層面源于技術(shù)的可信度,又需要關(guān)系層面源于治理的可信度,由此方能獲得用戶和公眾的信任。

      面對技術(shù)的不斷進(jìn)化和對人類生活的深度嵌入,“可信”成為了技術(shù)社群和政策部門的關(guān)注焦點(diǎn)。歐盟委員會設(shè)立的人工智能高級別專家組在2019年4月發(fā)布了《可信人工智能的倫理指南》 〔23 〕,提出可信人工智能需要在整個生命周期滿足三個條件:1.合法性,即可信人工智能應(yīng)當(dāng)依法合規(guī);2.道德性,即可信人工智能應(yīng)當(dāng)符合道德原則和價值觀;3.魯棒性(robust),即可信人工智能應(yīng)當(dāng)避免造成無意的損害或負(fù)面影響,并且指出人工智能應(yīng)該滿足七個關(guān)鍵要素以達(dá)到可信賴的要求,即人的能動性和監(jiān)督;技術(shù)魯棒性和安全性;隱私和數(shù)據(jù)管理;透明度;多樣性、非歧視和公平性;社會和環(huán)境福利;問責(zé)機(jī)制。美國計算機(jī)學(xué)會的公共政策委員會發(fā)布了《關(guān)于算法透明和問責(zé)的聲明》并提出了七項原則, 〔24 〕強(qiáng)調(diào)通過確保算法的透明度和可問責(zé)性以避免算法的偏見和錯誤。FATML 〔25 〕也在《可問責(zé)算法原則》中指出了自動決策算法在產(chǎn)業(yè)界和政府的廣泛應(yīng)用,影響了從定價到用工甚至刑罰的各個方面,因此算法需要符合負(fù)責(zé)任、可解釋、精確性、可審計性、公平性等原則的要求。以上這些政策倡議或行業(yè)指南,都是在嘗試從技術(shù)或治理的層面探索對算法的規(guī)制,以實(shí)現(xiàn)算法的可信。

      結(jié)合算法信任的形成機(jī)理和多利益相關(guān)方的主張,筆者認(rèn)為,可信算法需要具備以下幾方面的特點(diǎn)和要求:1.可理解性。算法要獲得信任,必須以能夠被理解為前提??衫斫庥袃蓚€層面的內(nèi)涵:一方面是算法必須保持其透明度,使算法的基本邏輯、模型原理、決策流程等可為用戶或公眾所知悉,這有助于增進(jìn)用戶對算法決策的信任?!?6 〕即便算法可能被企業(yè)主張構(gòu)成商業(yè)秘密,公開算法邏輯而非代碼并不至于損害其商業(yè)利益,相反會因用戶的信任而獲得更多機(jī)會。另一方面,由于算法高度的技術(shù)復(fù)雜性,簡單機(jī)械的透明度要求可能會陷入“魚缸”式的透明,為避免這種無效的透明度就要求算法必須可被解釋。即便普通用戶不一定有能力完全解釋而樂意信任,但必須要向有需求且有能力了解其推理過程的主體(利益相關(guān)方)提供易于訪問、可解釋、可評估的理解路徑。〔27 〕2.可靠性。算法要獲得和維持信任,必須以可靠為基礎(chǔ)。可靠是指算法不會偏離倫理和法律的要求,能夠準(zhǔn)確、公平、安全地作出算法決策。人們將決策權(quán)讓渡給算法,是期待算法能夠更加理性和精確地解決問題,這就要求算法能夠克服人類的非理性、偏見和局限,以盡可能少的偏差和更符合倫理與法律要求的方式作出準(zhǔn)確決策。此外,要維持信任,算法需要確保魯棒性,以避免因外部干擾而危害安全或造成其他負(fù)面損害。3.可控性。可控算法獲得和維持信任的保障。當(dāng)算法脫離控制,就很難指望人們盲目的信任。所謂可控是指人們可以有效規(guī)制算法或者自主決定算法是否繼續(xù)執(zhí)行。有效的監(jiān)管是控制算法的一種形式,按照相應(yīng)的治理框架和制度規(guī)則對算法進(jìn)行約束和規(guī)訓(xùn),能夠確保算法與人類之間的主從關(guān)系并有效控制算法風(fēng)險,使得算法不至于在與人的合作和對抗中失去控制。而自主決定算法是否繼續(xù)執(zhí)行,是人們擺脫算法暴政以實(shí)現(xiàn)自主性的最后一條退路。不論是脫離算法自動化決策權(quán)抑或是中斷算法的執(zhí)行,都是人們在算法失控或即將失控后的選擇方案。

      隨著人類進(jìn)入算法社會,算法的部署和應(yīng)用將成為人類經(jīng)濟(jì)社會生活的常態(tài)。在此背景下,既要最大限度地發(fā)揮算法技術(shù)的積極價值,又要保證算法符合人類社會的“共同善”, 〔28 〕這就需要我們以算法信任為基礎(chǔ),通過有效的算法可信控制,從技術(shù)層、應(yīng)用層到治理層確保算法“可信化”。通過算法的可信控制,可以確保算法的可信度,從而有效維系算法信任,防止不可信算法的濫用導(dǎo)致用戶損失乃至算法信任的崩潰。因此,在很大程度上,算法的可信控制應(yīng)當(dāng)成為算法治理的核心任務(wù)。

      二、法律如何規(guī)制算法:可信控制的法律進(jìn)路

      算法的可信控制旨在通過相應(yīng)的手段或方式對算法設(shè)計、部署和應(yīng)用的全流程進(jìn)行規(guī)范與調(diào)整,以保證算法的可理解性、可靠性和可控性。對于技術(shù)專家而言,算法的可信控制可以通過技術(shù)手段實(shí)現(xiàn)。例如,南加州大學(xué)研究人員研發(fā)的DeepTrust工具可以對AI算法生成的數(shù)據(jù)和預(yù)測的信息進(jìn)行驗(yàn)證;日益成熟的“歧視感知數(shù)據(jù)挖掘”也能夠識別偏離公平倫理的算法,通過技術(shù)進(jìn)路“以算法控制算法”從而實(shí)現(xiàn)算法可信正在成為可能。〔29 〕對于法律專家而言,應(yīng)對算法風(fēng)險并實(shí)現(xiàn)算法與人類社會相容的制度需求激起了法律人“規(guī)訓(xùn)算法”的雄心,算法規(guī)制或者算法治理日益成為法律人關(guān)注的焦點(diǎn)議題?!?0 〕通過法律進(jìn)路的可信控制,即以法律制度規(guī)范算法的技術(shù)流程并調(diào)整相關(guān)主體的行為以實(shí)現(xiàn)算法可信,正是“以法律控制算法”的題中應(yīng)有之義。然而,法律能以何種方式規(guī)制算法,從而通過制度理性約束技術(shù)理性,是按照法律進(jìn)路實(shí)現(xiàn)算法可信控制的基礎(chǔ)性命題。

      (一)技術(shù)與法律之間:算法的技術(shù)實(shí)質(zhì)與法律實(shí)質(zhì)

      作為解決特定問題或者達(dá)成明確結(jié)果而采取的一系列步驟, 〔31 〕算法的技術(shù)實(shí)質(zhì)是解決問題的邏輯流程。在算法的設(shè)計、部署和應(yīng)用過程中,代碼是算法的表達(dá),程序是算法的載體。算法通過能為計算機(jī)所理解的代碼所設(shè)定,在程序的運(yùn)行中得以執(zhí)行,從而完成從輸入到輸出的過程。從這層意義上看,算法至多只是一種在程序運(yùn)行中所遵守并執(zhí)行的抽象技術(shù)方案。例如,根據(jù)既定算法,空氣凈化器的傳感器偵測到空氣中的污染物(輸入)后即啟動大風(fēng)力凈化功能(輸出)。隨著算法技術(shù)的迭代與升級,算法得以通過更加自動和智能的方式應(yīng)用在更廣泛的領(lǐng)域,也開始形成在不同意義上的技術(shù)實(shí)質(zhì)。〔32 〕例如,今日頭條通過用戶標(biāo)簽算法、文本分類算法等實(shí)現(xiàn)向用戶精準(zhǔn)推送其感興趣的新聞內(nèi)容,由此算法就從簡單的“技術(shù)方案”成為了應(yīng)用者實(shí)現(xiàn)預(yù)期目標(biāo)的“工具”。為滿足開發(fā)者的需求,有些設(shè)計好的算法得以在一些開源社區(qū)中進(jìn)行分享,開源算法可以根據(jù)開發(fā)需要獨(dú)立地嵌入至不同的程序之中,使得算法開始具有獨(dú)立的“產(chǎn)品”屬性。而隨著神經(jīng)網(wǎng)絡(luò)和機(jī)器學(xué)習(xí)的發(fā)展,算法在數(shù)據(jù)和算力的加持下進(jìn)入了一個新的階段,即能夠脫離開發(fā)者的初始設(shè)定而不斷自我優(yōu)化和拓展,從而幾乎成為具備獨(dú)立意識的主體,AutoML甚至能自動地完成創(chuàng)建、執(zhí)行和調(diào)優(yōu)的全過程?;诖?,我們可以看到,隨著技術(shù)的迭代升級,算法正在從底層技術(shù)方案發(fā)展為獨(dú)立的產(chǎn)品,甚至正在從被動的工具發(fā)展為具備主動性的主體,其技術(shù)實(shí)質(zhì)正在不斷地豐富和擴(kuò)張。

      作為技術(shù)存在的算法進(jìn)入法律場域,必然面臨著對其法律實(shí)質(zhì)的判斷,即算法在法律的維度中究竟是什么,這決定了法律可以何種方式介入和規(guī)制算法。算法技術(shù)實(shí)質(zhì)的拓展,也使得其法律實(shí)質(zhì)呈現(xiàn)出不同的樣態(tài)。法律作為調(diào)整社會關(guān)系的規(guī)范,關(guān)注的是現(xiàn)實(shí)存在的、具有明確的主體客體和具體權(quán)利義務(wù)的社會關(guān)系。如果僅從技術(shù)方案層面看,作為抽象決策邏輯的算法難以在法律上被評價,即便算法的執(zhí)行確實(shí)可能產(chǎn)生相應(yīng)的法律后果。正如法律可以控制基于某種思想而作出的行為,但無法控制思想本身。因此,這個層面上的算法規(guī)制只能將重點(diǎn)放在設(shè)計、部署和應(yīng)用算法的相關(guān)主體上。

      但隨著算法技術(shù)實(shí)質(zhì)的拓展以及算法對社會秩序的沖擊,將算法本身作為法律規(guī)制的對象不僅成為理論上的共識,而且取得了相應(yīng)的實(shí)踐進(jìn)展。目前有司法觀點(diǎn)認(rèn)為,算法屬于“言論”或者“商業(yè)秘密”, 〔33 〕盡管如此認(rèn)定算法的法律實(shí)質(zhì)在邏輯上自洽,但并未充分反映算法技術(shù)的迭代以及由此帶來的算法功能的擴(kuò)張,并且在某種程度上會因“言論”和“商業(yè)秘密”在法律上的特殊地位而導(dǎo)致可以正當(dāng)?shù)貙狗傻慕槿耄瑥亩沟盟惴ㄒ?guī)制面臨諸多不確定性。為突破這一局限,有學(xué)者認(rèn)為,算法應(yīng)當(dāng)被視作一種“正當(dāng)程序”。〔34 〕算法中輸入到輸出的過程涉及相關(guān)主體的權(quán)益乃至社會整體利益,該過程如何實(shí)現(xiàn)以及以何種方式實(shí)現(xiàn),往往取決于這個過程是否正當(dāng),譬如是否存在算法權(quán)力的濫用。因此,承載算法的程序應(yīng)當(dāng)確保其設(shè)計和運(yùn)行符合正當(dāng)程序的法律要求。易言之,算法實(shí)現(xiàn)的過程應(yīng)當(dāng)納入法律關(guān)注并調(diào)整的范圍之內(nèi)。與此同時,算法通過其輸入到輸出的過程,會按照算法邏輯形成供用戶參考甚至必須接受的決策,從而調(diào)整和約束用戶的行為。因此,在某種程度上也可以將算法理解為一種“規(guī)范”。

      但是,算法的法律本質(zhì)僅僅只是正當(dāng)程序或規(guī)范嗎?當(dāng)算法作為一種工具或產(chǎn)品,就成為了法律關(guān)系中的客體。類似于機(jī)動車致人損害的場景,機(jī)動車的控制者(司機(jī))以及機(jī)動車的所有者(車主)對侵權(quán)損害須承擔(dān)連帶責(zé)任。又類似于產(chǎn)品責(zé)任的場景,缺陷產(chǎn)品的銷售者和生產(chǎn)者須對消費(fèi)者承擔(dān)連帶責(zé)任。拋開其內(nèi)部追償關(guān)系不論,基于對特定客體的控制、所有、銷售和生產(chǎn)等關(guān)聯(lián),都會形成特定的法律關(guān)系并獲得相應(yīng)的法律評價。因此,即便算法是法律關(guān)系中的客體,設(shè)計、部署和應(yīng)用相應(yīng)算法的主體也會因算法執(zhí)行所帶來的后果受到法律的肯定或否定的評價。算法本身就是算法關(guān)系中的重要一環(huán),從而也當(dāng)然是算法法律關(guān)系中的重要一環(huán)。而一旦算法具備了主體意識和能力,就需要承擔(dān)其執(zhí)行所帶來的法律后果,而這并不是完全不可行的。易言之,算法在法律上并非僅有程序法意義上的表達(dá),而且在實(shí)體法上也應(yīng)有其一席之地。由是觀之,除了明確算法的正當(dāng)程序本質(zhì)之外,還可以確認(rèn)算法作為算法關(guān)系的一環(huán),無論其是作為主體抑或是客體。鑒于算法的法律實(shí)質(zhì),我們得以穿透技術(shù)的迷霧,找到對其進(jìn)行法律規(guī)制的路標(biāo)。

      (二)算法規(guī)制的基本邏輯:法律嵌入與法律調(diào)節(jié)

      算法技術(shù)實(shí)質(zhì)的拓展及其法律實(shí)質(zhì)的厘清,為法律規(guī)制算法提供了更加明確的指向和更加多元的路徑。盡管對于算法的法律規(guī)制面臨諸多質(zhì)疑觀點(diǎn),例如法律人不了解算法技術(shù),那么法律就難以有效地規(guī)制算法。又如,算法是技術(shù)世界的抽象規(guī)則甚至就是“法律”, 〔35 〕那么人類社會的法律能否或者足以規(guī)制技術(shù)世界的算法也值得懷疑。但是,當(dāng)我們拋開過度浪漫主義的科幻假設(shè),回歸至將算法作為人類社會進(jìn)步中的具體事物,就不難發(fā)現(xiàn)算法的設(shè)計、部署與執(zhí)行,既脫離不了人為因素(如算法設(shè)計者的偏見),也不可避免地影響社會關(guān)系(如算法缺陷導(dǎo)致的產(chǎn)品責(zé)任)甚至重塑社會關(guān)系(如人工智能新型主體),從而對人類社會造成積極或消極的后果?!?6 〕這導(dǎo)致了算法必定而且必須要落入法律規(guī)制的射程之內(nèi)。因此,算法并不是技術(shù)世界的獨(dú)立存在,而是深刻影響人類社會的新興變量。算法的法律規(guī)制既是維護(hù)人類社會秩序之必需,也是保障算法按照符合人類利益的方式發(fā)揮作用之必要。

      至于法律如何規(guī)制算法,則需要將算法的技術(shù)本質(zhì)與法律本質(zhì)相橋接。不同層級與不同場景的算法在法律上的地位和評價存在著差異,對其實(shí)施法律規(guī)制的立場和路徑也會有所區(qū)別?!?7 〕例如,僅作為技術(shù)方案的算法需要將其作為正當(dāng)程序予以規(guī)制,作為工具或產(chǎn)品的算法則可以作為法律關(guān)系中的客體予以規(guī)制,而在未來有可能取得法律主體資格的算法則會直接成為一種法律擬制的主體受到法律調(diào)整。但從現(xiàn)實(shí)來看,算法往往并不像理論家想象的那樣涇渭分明地展現(xiàn)其本質(zhì),而是以更加務(wù)實(shí)地解決問題的方式發(fā)揮著實(shí)際功能。而法律規(guī)制算法的目標(biāo),不外乎有效地約束算法并調(diào)整算法所關(guān)涉的社會關(guān)系,以實(shí)現(xiàn)公平和秩序等法價值。因此,算法的法律規(guī)制,一方面是從本體的角度將算法作為法律的調(diào)整對象,通過算法的法律嵌入確保算法不偏離法律的要求;另一方面則是從關(guān)系的角度調(diào)整算法關(guān)系,通過規(guī)范相關(guān)主體的權(quán)利、義務(wù)與責(zé)任實(shí)現(xiàn)算法關(guān)系的有效治理。

      法律嵌入算法,是指將法律的原則和規(guī)則嵌入算法的模型和邏輯,使算法在執(zhí)行過程中符合法律的要求。由于算法是自動化決策所依據(jù)的基本規(guī)則,作為表達(dá)算法的代碼實(shí)際上定義了技術(shù)世界的規(guī)則,并通過算法的執(zhí)行對人的行為和人類社會產(chǎn)生影響,由此形成了“代碼即法律”的論斷。〔38 〕然而,代碼或者算法在執(zhí)行的過程中出現(xiàn)背離公平或正當(dāng)程序的現(xiàn)象,乃是算法遵從了設(shè)計者的技術(shù)理性而偏離了法律的制度理性。正如亞里士多德認(rèn)為法治的第二重含義是“大家所服從的法律本身應(yīng)該是制定得良好的法律”, 〔39 〕我們所需要的算法也應(yīng)當(dāng)是自身設(shè)計良好的算法。從這層邏輯上看,算法的法律規(guī)制就是要把法律的精神和規(guī)范嵌入算法,實(shí)現(xiàn)算法邏輯與法律規(guī)則的統(tǒng)一,從而完成“法律即代碼”的規(guī)訓(xùn)過程?!?0 〕具體而言,可以將法律規(guī)則抽象成可供代碼執(zhí)行的關(guān)系,并按照法律所認(rèn)可的行為模式設(shè)置關(guān)聯(lián)規(guī)則,從而確保算法執(zhí)行的效果能得到法律的肯定評價,即按照符合法律要求的邏輯設(shè)計算法,由此實(shí)現(xiàn)法律對算法的規(guī)制。

      法律調(diào)節(jié)算法關(guān)系,是指法律不再將算法作為直接的調(diào)整對象,而是圍繞算法所創(chuàng)設(shè)或影響的社會關(guān)系作為關(guān)注的重點(diǎn),通過調(diào)整算法相關(guān)主體的行為與責(zé)任、權(quán)利與義務(wù)而對算法實(shí)現(xiàn)間接控制。算法從設(shè)計到應(yīng)用再到執(zhí)行的整個流程涉及眾多的主體,例如,算法設(shè)計者、算法應(yīng)用者、用戶、監(jiān)管者以及公眾等,這些主體基于算法這一連接點(diǎn)建立的社會關(guān)系可以被稱作算法關(guān)系。算法的失控會造成算法關(guān)系的失衡,如算法黑箱、算法歧視等都會造成相關(guān)主體利益受損。如果說算法的高度專業(yè)、復(fù)雜和抽象導(dǎo)致了其難以受到法律的有效控制,那么投射在人類社會中的算法關(guān)系相對而言則更容易受到法律的規(guī)范。因此,當(dāng)法律以明確且合理的權(quán)利義務(wù)框架、清晰的行為模式與法律后果對相關(guān)主體之間的關(guān)系進(jìn)行有效規(guī)范,則其控制效果必然會及于算法本體。例如,算法設(shè)計者會更加審慎地設(shè)計算法,用戶和公眾則會通過法律賦予的權(quán)利對抗和約束算法。

      (三)通過法律的可信控制

      立足于防范算法風(fēng)險的法律規(guī)制涉及的范圍比較廣,算法社會下的法律規(guī)制需求也非常迫切。算法共謀帶來的壟斷 〔41 〕、算法歧視導(dǎo)致的侵權(quán) 〔42 〕、算法濫用帶來的損害 〔43 〕等,都是算法失控所帶來的負(fù)面后果。相比具體的算法風(fēng)險的“結(jié)果主義”視角去探討對算法的治理,算法的可信控制立足于從“預(yù)防主義”的角度實(shí)現(xiàn)算法的可信性,即確保算法得以可信任的方式設(shè)計和應(yīng)用,從而在源頭上避免算法風(fēng)險的發(fā)生。前文已述及,算法信任一方面來源于算法自身的技術(shù)可信度,另一方面來源于可信的算法治理環(huán)境。這既反映了公眾對可信算法的主觀期待,也反映了制度對可信算法的客觀約束。盡管可信算法可以而且必須通過技術(shù)進(jìn)路得以實(shí)現(xiàn),但通過法律的可信控制也是實(shí)現(xiàn)算法可信的可行進(jìn)路和必要保證。當(dāng)然,通過法律的可信控制,需要遵循算法信任生成和維持的內(nèi)在邏輯,有針對性地構(gòu)建合理且有效的制度方案。

      算法“可信”是一種狀態(tài),即算法基于其可理解性、可靠性和可控性而能夠獲得人們的信任。從技術(shù)中立的角度看,算法作為客觀技術(shù)產(chǎn)物其本身并不存在價值取向或信任問題,但算法設(shè)計和應(yīng)用中難以避免地會受到相關(guān)主體的主觀因素影響,惡意或過失可能導(dǎo)致算法的缺陷甚至失控,從而造成算法不可信。易言之,算法可信與否的根源在于算法自身是如何被設(shè)計和應(yīng)用的。法律雖然并不能做到直接確認(rèn)或宣示算法的可信,但法律可以通過規(guī)范和調(diào)整算法的設(shè)計、部署和應(yīng)用的行為以及算法關(guān)系,形成針對算法相關(guān)主體的利益制衡機(jī)制和行為約束框架,從而實(shí)現(xiàn)算法的可信控制。

      具體而言,通過法律的可信控制主要包括以下原則性內(nèi)容:首先是技術(shù)規(guī)范控制,即以法律制度的形式明確算法在設(shè)計、部署和應(yīng)用的整個生命周期中所應(yīng)遵守的技術(shù)規(guī)范,以算法行為的合規(guī)性實(shí)現(xiàn)算法可信。例如,將算法的技術(shù)要求和倫理規(guī)范上升為具有強(qiáng)制性和普遍約束力的法律規(guī)范,確保算法在透明度、公平性、魯棒性等方面符合法律預(yù)設(shè)的剛性標(biāo)準(zhǔn)。其次是權(quán)責(zé)協(xié)調(diào)控制,即在法律制度中合理分配算法相關(guān)主體的權(quán)利、義務(wù)與責(zé)任,通過“賦權(quán)”支撐用戶和公眾對算法的監(jiān)督,通過問責(zé)強(qiáng)化對算法控制者的約束,以算法相關(guān)主體間的利益制衡實(shí)現(xiàn)算法可信。例如,通過構(gòu)建合理程度的透明度規(guī)則,規(guī)定用戶獲得算法解釋的權(quán)利、設(shè)計者和應(yīng)用者的解釋義務(wù)以及因未能合理解釋而承擔(dān)的法律責(zé)任,共同實(shí)現(xiàn)對于算法透明度的有效控制。再次是合作治理控制,即構(gòu)建涵蓋政府、行業(yè)組織、第三方機(jī)構(gòu)在內(nèi)的多利益相關(guān)方協(xié)同參與的治理框架,通過賦予相關(guān)方對算法進(jìn)行監(jiān)督的權(quán)力與職責(zé),提高其參與算法治理的責(zé)任感和積極性并加強(qiáng)對算法的有效監(jiān)督,從而實(shí)現(xiàn)算法的可信控制。

      概言之,通過法律的可信控制是依托貫穿于算法的技術(shù)層、應(yīng)用層和治理層的系統(tǒng)化制度安排,對算法本體和算法關(guān)系進(jìn)行有效調(diào)整和規(guī)范,從而確保算法以可信任狀態(tài)得以設(shè)計、部署、應(yīng)用和執(zhí)行的過程。作為算法治理必要環(huán)節(jié)的可信控制,以實(shí)現(xiàn)算法的可信狀態(tài)為旨向,是有效防范算法風(fēng)險的前提,也是算法規(guī)制的核心內(nèi)容。通過法律的可信控制,也應(yīng)當(dāng)遵循算法規(guī)制的基本邏輯,即在算法本體方面強(qiáng)化法律嵌入,在算法關(guān)系方面完善法律調(diào)節(jié),充分發(fā)揮法律在實(shí)現(xiàn)算法可信中的積極作用。

      三、本體維度下的算法可信控制

      算法自身的可信度是算法信任最根本的來源,也是算法可信控制最直接的場域。算法是否可信,以及多大程度上可信,往往取決于算法本體的質(zhì)量。因此,從本體維度進(jìn)行算法的可信控制,即以算法本體作為直接的規(guī)制對象,通過制度約束確保算法按照可信的標(biāo)準(zhǔn)和規(guī)范進(jìn)行設(shè)計和應(yīng)用,是實(shí)現(xiàn)算法可信的基礎(chǔ)性環(huán)節(jié)。由于算法本體的技術(shù)屬性,這一維度下算法的可信控制可以遵循法律嵌入的邏輯,將可信算法的具體要求轉(zhuǎn)化為具有法律約束力的技術(shù)規(guī)范,從而完成算法的可信控制。

      (一)完善透明度規(guī)則

      “陽光是最好的殺蟲劑,燈光是最好的警察?!辈继m代斯大法官這一著名論斷在透明度的擁躉中廣為流傳。這一論斷不僅可以用來倡導(dǎo)證券市場上的信息披露,在算法的可信控制中同樣適用。一方面,與行政公開能夠增強(qiáng)政府公信力類似,算法的透明可以使用戶了解算法的邏輯,從而獲得用戶的信任。〔44 〕另一方面,透明能夠?qū)λ惴刂普咝纬捎行Ъs束,使其不能(至少不會明目張膽地)設(shè)計和部署不可信的算法。因此,建立針對算法的透明度規(guī)則,可以在主觀和客觀兩個方面實(shí)現(xiàn)算法可信的效果。

      算法的透明度規(guī)則,核心在于要求算法控制者披露源代碼或者披露算法從輸入到輸出的基本邏輯?!?5 〕事實(shí)上,在眾多關(guān)于算法治理的倡議方案中,以透明度要求打破“算法黑箱”被認(rèn)為是有效規(guī)制算法的首要方案,也是實(shí)現(xiàn)算法可信控制的第一把鑰匙。例如,《一般數(shù)據(jù)保護(hù)條例》第13條第2款(f)項要求數(shù)據(jù)控制者在利用自動化決策機(jī)制時要向數(shù)據(jù)主體提供數(shù)據(jù)畫像過程中運(yùn)用的邏輯。英國議會下屬的人工智能特別委員會發(fā)布報告《人工智能在英國:準(zhǔn)備、志向與能力?》也建議在安全攸關(guān)的特定場景中要求使用更加技術(shù)透明的人工智能系統(tǒng),以實(shí)現(xiàn)更可信賴的目標(biāo)?!?6 〕

      然而,透明度要求的落實(shí)面臨著兩個方面的挑戰(zhàn)。一個挑戰(zhàn)是與算法控制者私權(quán)的平衡。對于算法控制者而言,算法往往承載著其核心競爭力,也通常被主張為商業(yè)秘密而被獲得保護(hù)。因此,在對算法課以透明度要求時也不得不考慮私權(quán)與公益的平衡問題。另一個挑戰(zhàn)則是算法的透明并不意味著被理解,即算法的高度復(fù)雜性和專業(yè)性可能會導(dǎo)致算法的公開淪為形式,即便是算法完全公開,用戶或公眾甚至有些專業(yè)人士都可能被淹沒在復(fù)雜的代碼或冗雜的信息之中,從而無法真正理解算法是否存在不可信的因素?!?7 〕面對這兩大挑戰(zhàn),我們需要甄別基于信息的和基于解釋的透明度, 〔48 〕務(wù)實(shí)地認(rèn)識透明度要求的并非公開晦澀難懂的算法代碼,并落腳至“可理解”的立場來建構(gòu)算法的透明度規(guī)則。例如,F(xiàn)AT/ML選擇了折衷的透明度規(guī)則方案并建議所有算法需要發(fā)布一項社會影響聲明,并在聲明中詳細(xì)說明算法的責(zé)任主體、向利益相關(guān)者提供通俗的解釋、提示錯誤和不確定性的來源、提供第三方進(jìn)行檢查和批評的途徑、闡釋針對不同受眾的公平考慮?!?9 〕這種社會影響聲明不再執(zhí)著于算法的完全公開,而是試圖讓算法以能夠更好地被理解的方式實(shí)現(xiàn)透明。

      鑒于此,在實(shí)現(xiàn)算法可信控制的過程中,透明度規(guī)則需要立足于使算法更易被理解的方式來構(gòu)建。具體而言,算法控制者首先需要為公眾獲取代碼或內(nèi)在邏輯提供便利的渠道,使對該算法感興趣的利益相關(guān)方能夠方便地獲取相關(guān)信息。其次,算法代碼或算法邏輯的公開需要以容易被大眾所理解的通俗表達(dá)方式予以解釋,且這些解釋必須是直接、簡明且有效的。概言之,算法的透明度規(guī)則應(yīng)當(dāng)在適當(dāng)尊重控制者利益的基礎(chǔ)上,按照更加可理解的方式合理設(shè)定,使用戶和公眾能夠擺脫機(jī)械的“魚缸式”透明,并真正直接且有針對性地理解算法,將其作為算法在設(shè)計和應(yīng)用時需要滿足的合規(guī)要求,從而增進(jìn)算法的可信度。

      (二)推動算法倫理的法律化

      由于算法在設(shè)計環(huán)節(jié)不可避免地受到人的影響,即便如何強(qiáng)調(diào)“技術(shù)中立”都無法否認(rèn)算法本身具備著“經(jīng)由設(shè)計的價值觀”, 〔50 〕算法的歧視與偏見以及其他對人類社會的挑戰(zhàn),往往也都是源自設(shè)計算法時的故意、疏忽以及對于倫理道德的漠視。因此,算法倫理被提出并作為約束算法按照符合人類道德觀念和共同善的要求設(shè)計和應(yīng)用的道德基準(zhǔn)?!?1 〕例如,歐盟委員會提出人工智能系統(tǒng)應(yīng)當(dāng)符合尊重人類自主,防止損害公平可解釋 〔52 〕等道德原則。算法的倫理要求反映社會對于算法的擔(dān)憂與期待。從可信算法和算法信任的具體要求來看,符合倫理要求的算法由于其本身的“善”而能夠給予用戶和公眾更為正向的價值預(yù)期,且算法決策的倫理正當(dāng)性有助于實(shí)現(xiàn)算法的可靠和可控,從而使得其作為設(shè)計良好的算法更易獲取信任。易言之,可信算法必然是符合倫理要求的。

      然而,算法的倫理要求僅限于道德上的倡議,由此而來的軟性約束并不足以產(chǎn)生有效的控制力。盡管一旦算法違反倫理要求可能會導(dǎo)致輿論譴責(zé)或用戶流失的后果,但主要依靠聲譽(yù)機(jī)制的道德約束往往并不具備執(zhí)行的剛性。因此,在算法的可信控制中,倫理要求雖然是衡量算法可信度的重要標(biāo)準(zhǔn),但由于其道德約束的實(shí)質(zhì)而導(dǎo)致可信控制效果不盡如人意。要解決道德約束的不足,需要借助具有強(qiáng)制約束力的法律來落實(shí)算法的倫理要求,實(shí)現(xiàn)倫理要求的法律化,即將算法倫理的具體要求嵌入法律制度,完成倫理規(guī)范的法律表達(dá),從而將道德原則轉(zhuǎn)化為法律義務(wù),以實(shí)現(xiàn)更為有效的可信控制。盡管當(dāng)前有些倫理要求已經(jīng)嵌入法律制度,例如《一般數(shù)據(jù)保護(hù)條例》第13條至第15條要求數(shù)據(jù)控制者向數(shù)據(jù)主體提供自動化決策的邏輯并解釋其影響,但現(xiàn)行有效法律需要更為充分和全面地將道德原則轉(zhuǎn)化為法定義務(wù)?!?3 〕

      算法倫理的法律化主要可以在兩個層面得以實(shí)現(xiàn):一方面是算法設(shè)計者負(fù)有按照倫理要求設(shè)計算法的法定義務(wù);另一方面是算法的設(shè)計須遵守與倫理要求一致的法律規(guī)則。就前者而言,法律應(yīng)當(dāng)對算法設(shè)計者課以相應(yīng)的信義義務(wù),以約束其基于對倫理要求的充分注意來完成算法的設(shè)計過程,從而避免因設(shè)計中的故意或過失導(dǎo)致算法偏離倫理要求而落入不可信狀態(tài)。就后者來看,法律應(yīng)當(dāng)設(shè)定明確且強(qiáng)制的技術(shù)規(guī)范,將倫理要求嵌入算法決策邏輯,以實(shí)現(xiàn)算法本身對于倫理要求的遵守。具體而言,可以通過強(qiáng)制性規(guī)范要求所有的算法均需將法律化的倫理要求作為設(shè)定條件寫入主節(jié)點(diǎn),偏離倫理要求的算法執(zhí)行過程會因不滿足觸發(fā)條件而不能啟動代理節(jié)點(diǎn),從而以倫理要求作為衡量標(biāo)準(zhǔn)阻斷不可信算法的執(zhí)行,進(jìn)而完成算法的可信控制。

      (三)探索算法驗(yàn)證評估制度

      相比于用戶和公眾的主觀心態(tài),算法是否確實(shí)可信往往取決于算法自身的客觀狀態(tài),即是否可理解、可靠和可控。囿于自身專業(yè)能力和認(rèn)知水平,一般用戶并不能自主地完成可信算法的驗(yàn)證,但具有相應(yīng)技術(shù)實(shí)力的利益相關(guān)方,譬如技術(shù)社群或政府部門,有能力對算法客觀上的可信度進(jìn)行驗(yàn)證和評估。然而,由于算法被作為商業(yè)秘密予以保護(hù)的通行實(shí)踐,以及強(qiáng)制性算法驗(yàn)證評估制度尚付闕如,即便是在一定程度上需要保持透明,但算法仍然處于不受系統(tǒng)性驗(yàn)證評估的野蠻生長狀態(tài)。這種局面顯示了可信算法的實(shí)現(xiàn)只能依賴算法控制者的虛無承諾和用戶的自我安慰,缺乏具有技術(shù)公信力和地位獨(dú)立性的機(jī)構(gòu)對算法是否可信進(jìn)行確認(rèn)。對算法進(jìn)行驗(yàn)證評估以確認(rèn)其可信度,是實(shí)現(xiàn)算法可信控制的重要抓手。建立針對算法可信度的驗(yàn)證評估制度,對于可信算法的甄別和應(yīng)用殊為必要。

      可信算法在技術(shù)上具備識別的可能性。從現(xiàn)有工程標(biāo)準(zhǔn)來看,IEEE的《推薦的軟件可靠性最佳工程實(shí)踐》(IEEE 1633-2008)以及國家標(biāo)準(zhǔn)化委員會發(fā)布的《系統(tǒng)與軟件的可靠性》(GB/T 29832-2013)等都可以對算法的可靠性進(jìn)行驗(yàn)證。盡管隨著算法的迭代以及深度學(xué)習(xí)算法的出現(xiàn),導(dǎo)致現(xiàn)有工程標(biāo)準(zhǔn)不能完全應(yīng)對,但是相關(guān)標(biāo)準(zhǔn)和規(guī)范正在推進(jìn)之中,相應(yīng)的測試模型和評估模型也會落地。國務(wù)院在發(fā)布的《新一代人工智能發(fā)展規(guī)劃》中提出:“建立人工智能算法與平臺安全性測試模型及評估模型,研發(fā)人工智能算法與平臺安全性測評工具集。” 〔54 〕ISO/IEC(國際標(biāo)準(zhǔn)化組織/國際電工委員會)JTC1(第一聯(lián)合技術(shù)委員會)成立的人工智能分委員會專門成立了“可信賴”工作組(WG3),開展人工智能可信度、魯棒性評估、算法倫理等標(biāo)準(zhǔn)研制工作?!?5 〕通過評估算法功能實(shí)現(xiàn)的正確性、代碼實(shí)現(xiàn)的正確性、目標(biāo)函數(shù)的影響、訓(xùn)練數(shù)據(jù)集的影響、對抗性樣本的影響、軟硬件平臺依賴的影響、環(huán)境數(shù)據(jù)的影響等可靠性指標(biāo),并驗(yàn)證算法退出或脫離機(jī)制是否具備和有效等可控性指標(biāo),可以得出算法是否可信的客觀判斷。概言之,按照相應(yīng)的標(biāo)準(zhǔn)對算法的可理解性、可靠性和可控性進(jìn)行驗(yàn)證并不存在技術(shù)上的障礙。

      算法的驗(yàn)證評估制度的核心意旨在于針對算法設(shè)定一項接受審查的義務(wù),即在算法投入應(yīng)用前須經(jīng)過有關(guān)機(jī)構(gòu)按照可信度的相應(yīng)標(biāo)準(zhǔn)進(jìn)行驗(yàn)證和評估,以實(shí)現(xiàn)算法的可信控制。通過對算法的驗(yàn)證評估可以從源頭上對算法進(jìn)行篩查和監(jiān)督,也能夠?yàn)橛脩艉凸娛褂盟惴ㄌ峁┛尚膨?yàn)證的支撐和輔助。從具體實(shí)現(xiàn)路徑上看,算法的驗(yàn)證評估制度需要解決以下幾個問題:第一是誰來驗(yàn)證,是政府部門還是第三方專業(yè)機(jī)構(gòu)?第二是驗(yàn)證評估機(jī)構(gòu)是否有足夠的能力查驗(yàn)算法的可信度?第三是驗(yàn)證評估結(jié)論是否構(gòu)成算法可信的保證?第四是算法驗(yàn)證評估的程序啟動是強(qiáng)制性還是依申請?

      筆者認(rèn)為,驗(yàn)證評估算法可信度的機(jī)構(gòu)需要兼具技術(shù)能力與公信力,以保證其能夠客觀且有效地識別算法中的不可信因素。不論是政府部門通過組織專家委員會或者委托第三方機(jī)構(gòu)進(jìn)行驗(yàn)證評估,還是第三方機(jī)構(gòu)按照法律授權(quán)獨(dú)立進(jìn)行驗(yàn)證評估,都能實(shí)現(xiàn)對算法的可信驗(yàn)證。由哪個主體承擔(dān)算法驗(yàn)證評估的職責(zé)取決于法律制度如何安排。但是,由于技術(shù)能力和認(rèn)知水平的局限,對于高度復(fù)雜尤其是具備深度學(xué)習(xí)能力的算法,不管是政府部門還是第三方機(jī)構(gòu)都無法保證其能夠完全精準(zhǔn)地作出可信判斷。因此,驗(yàn)證評估機(jī)構(gòu)的結(jié)論在技術(shù)上只是具備高度蓋然性的可信判斷,而不能作為具備“背書”性質(zhì)的可信保證。另外,隨著算法的大量且廣泛的應(yīng)用,強(qiáng)制性要求所有算法都接受驗(yàn)證評估顯然既不現(xiàn)實(shí)也不經(jīng)濟(jì),因此可以對算法進(jìn)行分類管理,與用戶人身財產(chǎn)安全和公共利益緊密相關(guān)的算法應(yīng)當(dāng)強(qiáng)制接受可信驗(yàn)證與評估,而一般性的算法則可自主申請接受可信驗(yàn)證與評估。接受可信驗(yàn)證與評估并通過的算法能夠獲得較好的聲譽(yù),從而激勵算法設(shè)計者和應(yīng)用者積極申請,從而實(shí)現(xiàn)強(qiáng)制與激勵并重的可信控制。

      四、關(guān)系維度下的算法可信控制

      算法部署和執(zhí)行的過程會涉及包括算法控制者和用戶等主體在內(nèi)的眾多利益相關(guān)方,這些主體之間形成的算法關(guān)系既反映著算法對社會關(guān)系的型塑,也會在一定程度上形成對算法本體的約束。具體而言,算法相關(guān)主體的權(quán)利義務(wù)配置、責(zé)任承擔(dān)方案以及受監(jiān)管程度都會影響算法能否以可信狀態(tài)實(shí)現(xiàn)??梢哉f,算法本體的可信度奠定了算法信任的基礎(chǔ),而算法關(guān)系的有效調(diào)整可以促進(jìn)算法以可信狀態(tài)得以部署和執(zhí)行,從而成為算法信任的保障。因此,從關(guān)系維度進(jìn)行算法的可信控制,即不再以算法本體而是以算法關(guān)系作為規(guī)制對象,通過法律對算法相關(guān)主體行為的激勵、約束和規(guī)范來調(diào)節(jié)和平衡算法關(guān)系,從而間接地將可信要求落實(shí)到算法設(shè)計、部署和執(zhí)行的全過程。

      (一)明確算法權(quán)利

      算法權(quán)利配置是算法治理的重要內(nèi)容, 〔56 〕也可以成為算法可信控制的有力支撐。通過向算法相關(guān)主體賦權(quán),即確認(rèn)和保障相關(guān)主體的算法權(quán)利,可以改變算法關(guān)系中的力量對比和利益結(jié)構(gòu),借助權(quán)利對抗中的制約以及權(quán)利平衡中的合作實(shí)現(xiàn)算法的可信控制。當(dāng)前關(guān)于算法相關(guān)權(quán)利的研究與嘗試正在走向成熟,算法解釋權(quán)、脫離自動決策權(quán)、算法排他權(quán)、人工接管權(quán)等權(quán)利類型不斷豐富和完善?!?7 〕一旦這些權(quán)利得到法律的認(rèn)可和保護(hù),算法相關(guān)主體在主張權(quán)利時會對算法關(guān)系中的相對方形成約束,或者在實(shí)現(xiàn)權(quán)利時對自身行為模式進(jìn)行調(diào)適,從而在算法關(guān)系的互動中形成可信控制的實(shí)際效果。

      首先,通過算法解釋權(quán)的配置為用戶確認(rèn)算法可信賦能。算法解釋權(quán)的核心在于保障算法相對人即用戶就算法的功能、邏輯、影響等關(guān)鍵信息以透明且可理解的方式獲得算法控制者解釋的權(quán)利?!?8 〕面對可能隱藏諸多不可信因素的算法黑箱,算法解釋權(quán)構(gòu)造了用戶與算法控制者之間的對抗式關(guān)系,用戶可通過主張算法解釋權(quán)發(fā)現(xiàn)和排除不可信算法,同時算法解釋權(quán)的相關(guān)立法也可以為技術(shù)開發(fā)者探索更具透明性和高性能的技術(shù)模型提供充足的制度激勵?!?9 〕具體而言,賦予用戶獲得解釋的權(quán)利,相對應(yīng)地會產(chǎn)生算法設(shè)計者或控制者的解釋義務(wù),能夠在用戶與算法設(shè)計者或控制者的對抗中形成對后者的有效約束,在解釋過程中的算法透明化會倒逼算法設(shè)計者或控制者盡量按照可信算法的要求完成算法的設(shè)計、部署和應(yīng)用。

      其次,通過脫離自動決策權(quán)的配置為用戶拒絕不可信算法提供支持。源于《一般數(shù)據(jù)保護(hù)條例》第22條的脫離自動決策權(quán)意味著用戶有權(quán)拒絕自動化決策算法,即在用戶不愿意或者不信任算法的自動化決策時有權(quán)選擇“脫離算法決策”?!?0 〕主張脫離自動決策權(quán)在本質(zhì)上是用戶對于不可信算法或不能確認(rèn)可信度的算法“用腳投票”,以規(guī)避對其安全或其他利益帶來的潛在不利影響。脫離自動決策權(quán)一方面保障了用戶脫離不可信算法的選擇自由;另一方面又會對算法控制者確保算法可信形成相應(yīng)的制度激勵,從而推動算法相關(guān)主體在對抗中尋求合作。前者主要是需求側(cè)的影響,脫離算法的自動決策與獲得人工干預(yù)權(quán)或人工接管權(quán)一樣,是避免或減少不可信算法導(dǎo)致?lián)p害后果的控制方案,在此過程中不可信算法會在用戶的脫離和拒絕中需求不斷萎縮直至被淘汰。而后者主要是供給側(cè)的考量,算法控制者有足夠的動機(jī)推動算法的普遍應(yīng)用,為避免算法被脫離和拒絕,其只能盡可能確保算法的可信并向公眾充分解釋以獲得算法信任。

      再次,通過算法排他權(quán)的配置激勵算法控制者配合算法的可信控制?,F(xiàn)行專利法律的制度與實(shí)踐將“智力活動的規(guī)則與方法”排除在專利權(quán)客體之外,這意味著以抽象化的決策流程和邏輯為本質(zhì)的算法至少在當(dāng)前并不能作為專利得到有效保護(hù)。為了保護(hù)商業(yè)上的核心競爭力,算法控制者只能選擇將其作為商業(yè)秘密進(jìn)行保護(hù)?,F(xiàn)實(shí)中的保密需求與理論上的透明度要求之間形成的內(nèi)在沖突導(dǎo)致了算法控制者往往怠于合作,透明度要求、驗(yàn)證評估以及算法解釋都無法得到其全力的配合。算法控制者的消極配合難以真正實(shí)現(xiàn)有效的可信控制,而算法排他權(quán)也許能為爭取算法控制者的合作提供一條可行路徑。以算法公開或保存源代碼為對價賦予算法控制者在一定期限內(nèi)的以不得為競爭者所利用為內(nèi)容的排他權(quán),可以消解算法控制者在面對透明度等要求時的顧慮,實(shí)現(xiàn)在保護(hù)其商業(yè)利益基礎(chǔ)上的算法公開,從而將算法關(guān)系從緊張的對抗調(diào)整為相容的合作,繼而在算法控制者的配合下實(shí)現(xiàn)算法的可信控制。

      (二)強(qiáng)化算法問責(zé)

      相比于透明度要求和算法權(quán)利配置等通過事前預(yù)防的方式實(shí)現(xiàn)可信控制,算法問責(zé)具有典型的事后控制色彩。從不同角度進(jìn)行理解,算法問責(zé)包括兩方面的內(nèi)涵:其一是指算法使用者或者控制者有義務(wù)報告并證明算法系統(tǒng)設(shè)計和決策應(yīng)用的合理性,并有義務(wù)減輕算法可能帶來的任何負(fù)面影響或者潛在危害, 〔61 〕系以外部監(jiān)管的邏輯進(jìn)行算法治理;其二是指算法相關(guān)主體就其不當(dāng)行為以及算法執(zhí)行中產(chǎn)生的損害承擔(dān)相應(yīng)的法律責(zé)任, 〔62 〕即以歸責(zé)或責(zé)任分配的邏輯進(jìn)行算法治理??蓡栘?zé)是可信算法的內(nèi)在要求,也是約束算法控制者的有效手段,通過問責(zé)所形成的約束機(jī)制能夠引導(dǎo)算法控制者確保算法的可解釋、可靠和可控。

      目前美國紐約市、華盛頓州都出臺了相應(yīng)的算法問責(zé)法案,以對公共事業(yè)領(lǐng)域的算法決策設(shè)定相應(yīng)的問責(zé)機(jī)制,即要求算法控制者報告算法合理性與避害措施的義務(wù),并成立專業(yè)機(jī)構(gòu)對算法進(jìn)行審查。美國參議院目前正在討論的《算法問責(zé)法案》將算法問責(zé)的適用范圍從公共事業(yè)部門拓展到大型私人公司,并要求聯(lián)邦貿(mào)易委員會制定評估“高度敏感性”算法的規(guī)則,明確對算法決策中可能存在的不當(dāng)行為進(jìn)行問責(zé)。這個層面的算法問責(zé)實(shí)際上是引入具備一定行政權(quán)力和專業(yè)能力的機(jī)構(gòu)。例如,紐約市的自動化決策工作組以及華盛頓州的首席隱私官,作為相對獨(dú)立且權(quán)威的第三方加入算法關(guān)系并對算法控制者形成制約,一旦算法偏離其預(yù)設(shè)的運(yùn)行邏輯和執(zhí)行原則,就會觸發(fā)包括罰款在內(nèi)的法律責(zé)任。通過問責(zé)機(jī)制的合理安排,算法控制者與用戶之間失衡的關(guān)系將因問責(zé)主體的加入而得到調(diào)節(jié),占據(jù)強(qiáng)勢與主動地位的算法控制者會更加審慎地完成算法的設(shè)計、部署和應(yīng)用,算法中的不可信因素也將得到控制。在具體的制度設(shè)計中,可以要求算法控制者將算法源代碼、運(yùn)行參量、算法邏輯等信息向法律授權(quán)的機(jī)構(gòu)備案,供問責(zé)主體隨時進(jìn)行審計和檢查,或者在算法運(yùn)行出現(xiàn)問題后依據(jù)備案信息進(jìn)行驗(yàn)證,若備案信息與實(shí)際情況不一致的,可以對算法控制者課以嚴(yán)厲處罰?!?3 〕

      除了問責(zé)機(jī)制的設(shè)計之外,算法責(zé)任的分配也是算法問責(zé)的重要方面。民事、行政甚至刑事責(zé)任會對算法控制者形成一定的威懾,也會成為其作為理性經(jīng)濟(jì)人在作出行為決策時的重要考量因素。易言之,嚴(yán)格的法律責(zé)任會約束算法控制者的行為,避免因其故意或過失而出現(xiàn)的算法不可信。由于算法生命周期涉及算法設(shè)計者、算法應(yīng)用者等諸多主體,不可信算法的部署及其造成的損害所產(chǎn)生的責(zé)任如何分配目前并未形成共識。責(zé)任形式和歸責(zé)原則的不明確以及責(zé)任分配方案的模糊會減損算法責(zé)任的規(guī)制效果。事實(shí)上,在算法目前尚未真正發(fā)展到具備主體屬性的情況下,存在應(yīng)用風(fēng)險的不可信算法可以納入產(chǎn)品責(zé)任的范疇。例如,自動駕駛汽車致?lián)p可以按照產(chǎn)品責(zé)任的邏輯確立其責(zé)任形式和歸責(zé)原則?!?4 〕即算法應(yīng)用者與算法設(shè)計者應(yīng)當(dāng)按照嚴(yán)格責(zé)任原則對外承擔(dān)連帶責(zé)任,兩者之間的內(nèi)部責(zé)任分配應(yīng)當(dāng)考慮各自的過錯程度,并結(jié)合其在造成算法不可信及其損害結(jié)果中的作用予以判斷。除了民事責(zé)任之外,要實(shí)現(xiàn)算法的可信控制還需要合理地設(shè)置相應(yīng)的行政責(zé)任和刑事責(zé)任,以規(guī)范和預(yù)防相關(guān)主體的故意或疏忽導(dǎo)致不可信算法的應(yīng)用。

      (三)拓展算法監(jiān)管體系

      目前,我國理論界探討算法治理的主流話語體系還停留于算法權(quán)利與算法倫理,算法監(jiān)管雖有提出但始終諱莫如深,其原因大抵是算法跨領(lǐng)域應(yīng)用下監(jiān)管權(quán)力的博弈以及算法技術(shù)復(fù)雜性下對監(jiān)管能力的擔(dān)憂。然而,盡管算法的驗(yàn)證評估與算法問責(zé)在一定程度上具有監(jiān)管的色彩,具體而言,誰來監(jiān)管以及如何監(jiān)管仍有待于進(jìn)一步明確。此外,僅僅明確算法相關(guān)主體的權(quán)利和義務(wù)卻缺乏有效的監(jiān)管執(zhí)行機(jī)制,并不足以全面地實(shí)現(xiàn)可信控制。因此,以全局視角構(gòu)建一個系統(tǒng)有效的監(jiān)管體系對于實(shí)現(xiàn)算法的可信控制可以形成有力的保障,有必要在算法可信控制中進(jìn)行合理的制度安排。

      算法在經(jīng)濟(jì)社會生活各個領(lǐng)域的廣泛應(yīng)用,使得各監(jiān)管部門基于行業(yè)監(jiān)管職責(zé)都有對算法主張監(jiān)管權(quán)力的需求。例如,金融監(jiān)管部門在對智能投顧、量化交易時有必要審查算法的可信度,以確認(rèn)依托算法實(shí)施的金融行為符合審慎監(jiān)管和行為監(jiān)管的要求?!?5 〕此外,算法的整個生命周期會落入不同部門的監(jiān)管范圍。例如,算法設(shè)計部署階段屬于軟件行業(yè)而歸入工信部門監(jiān)管,算法執(zhí)行應(yīng)用中涉及網(wǎng)絡(luò)產(chǎn)品和服務(wù)的安全可信而需接受網(wǎng)信部門的監(jiān)管,算法執(zhí)行的結(jié)果可能影響行業(yè)競爭格局或損害消費(fèi)者合法權(quán)益的,又會引發(fā)市場監(jiān)督管理部門的監(jiān)管。這種多頭監(jiān)管的格局可能帶來的監(jiān)管重疊或監(jiān)管真空,并不利于落實(shí)算法的可信控制,因此應(yīng)該將算法監(jiān)管權(quán)集中行使或者建立監(jiān)管協(xié)調(diào)機(jī)制??紤]到可信算法主要是強(qiáng)調(diào)其可靠與可控,在本質(zhì)上還是安全問題。因此,筆者建議依托網(wǎng)絡(luò)安全法確立的國家網(wǎng)信部門統(tǒng)籌協(xié)調(diào)的網(wǎng)絡(luò)安全監(jiān)管體制實(shí)施算法的可信監(jiān)管?!?6 〕

      但由于算法技術(shù)上的復(fù)雜性導(dǎo)致了監(jiān)管部門在識別算法不可信因素時存在能力局限,因此除了由監(jiān)管部門設(shè)立專家組或充實(shí)技術(shù)力量以外,可以引入多方主體按照合作治理的機(jī)制構(gòu)建適應(yīng)算法監(jiān)管需求的監(jiān)管體系?!?7 〕目前各國都在嘗試成立一些專業(yè)委員會來應(yīng)對技術(shù)革命所帶來的風(fēng)險。例如,美國國家人工智能安全委員會以及紐約市自動化決策工作組等,但由于定位為咨詢機(jī)構(gòu)而缺乏監(jiān)管授權(quán)從而難以發(fā)揮實(shí)際的監(jiān)管效能。因此,有人主張設(shè)立國家算法安全委員會, 〔68 〕或者借鑒美國食品藥品管理局的模式設(shè)立一個針對算法的專家審查機(jī)構(gòu),通過技術(shù)專家的獨(dú)立判斷對應(yīng)用前的算法進(jìn)行審查,以避免不可信算法流入市場。這種模式并非新設(shè)一個監(jiān)管部門,而是在具備專業(yè)獨(dú)立性的機(jī)構(gòu)與產(chǎn)業(yè)界之間形成一種合作機(jī)制。〔69 〕通過法律授權(quán)這類介于公私之間的專家型機(jī)構(gòu)參與算法的可信控制,能夠?qū)夹g(shù)不足的行政機(jī)構(gòu)形成有力支持。

      此外,行業(yè)自律組織和技術(shù)社群也可以在算法的可信控制中發(fā)揮巨大作用。以行業(yè)協(xié)會、學(xué)會等為代表的社會團(tuán)體或組織通常以學(xué)術(shù)交流和行業(yè)合作為基本定位,這些組織雖無法定的監(jiān)管權(quán)力,但也能通過章程對其成員起到一定的監(jiān)督和約束作用。并且,這些行業(yè)組織相比行政機(jī)關(guān)往往更具技術(shù)優(yōu)勢,且因身處技術(shù)一線而更能及時全面地了解算法技術(shù)發(fā)展動態(tài)。通過法律明確其自律監(jiān)管地位并賦予一定的自律監(jiān)管權(quán)限,能夠充分動員這些自律組織對其成員和整個行業(yè)進(jìn)行監(jiān)管和約束,從而發(fā)揮可信控制的功能。事實(shí)上,這類行業(yè)組織的自律監(jiān)管在金融行業(yè)、律師行業(yè)并不鮮見,將其移植到算法治理領(lǐng)域并無不可。而技術(shù)社群盡管松散,但在針對算法的技術(shù)交流中也可能發(fā)現(xiàn)算法中的不可信因素,不少“極客”以及“白帽黑客”往往也可以發(fā)現(xiàn)算法中存在的安全隱患或者歧視偏見,這些群體能夠通過揭露或舉報形成社會監(jiān)管力量, 〔70 〕從而在個體層面實(shí)現(xiàn)事實(shí)上的算法監(jiān)督,但這種社會監(jiān)管同樣也需要法律予以確認(rèn)和保障。

      結(jié)? 語

      隨著算法社會的到來,人類諸多決策和行為開始逐漸讓渡給算法。然而,算法并不總是可以被信任的,算法在設(shè)計、部署和應(yīng)用中的失控所導(dǎo)致的算法偏見、算法暴政、算法缺陷等問題,可能會對人類所追求的公平、自由、安全等核心價值形成巨大沖擊。誠然算法被寄予了人類對未來的期待,但我們真正需要的是可解釋、可靠和可控的“可信算法”。如果算法不能得到有效規(guī)制,“科技向善”只是一廂情愿的臆想,不可信算法也可能會成為算法社會的“弗蘭肯斯坦”。僅僅依賴算法控制者的技術(shù)倫理和道德自覺并不能真正確保算法可信,還需要借助法律制度對算法本體和算法關(guān)系的調(diào)整實(shí)現(xiàn)算法的可信控制。只有當(dāng)算法被法律所規(guī)訓(xùn),以可信算法的狀態(tài)投入應(yīng)用時,人們面對算法的恐懼與焦慮也許才能真正消解。

      Abstract: Trusted algorithms that meet the inherent requirements of comprehensibility, reliability, and controllability are the basis for preventing algorithm risks and building algorithm trust. Control on the trustworthiness of algorithms should be the core of algorithm governance. In accordance with the control logic of legal embedding and legal adjustment, through the systematic institutional arrangement that runs through the algorithm's technical layer, application layer and governance layer, it is ensured that the algorithm can be designed, deployed, applied and executed in a trustworthy state, which is the effective approach to trusted control of the algorithm. From the dimension of the algorithm ontology, ensuring the credibility of the algorithm itself through transparency rules, algorithmic ethics legalization and algorithm verification and evaluation system, and from the dimension of the algorithm relationship, through the algorithm rights, algorithm accountability and regulatory framework and other systems to restrict the behavior of algorithm-related subjects, we can constitute a specific path to the legal control on the trustworthiness of algorithms, which is also a necessary institutional preparation before the arrival of the algorithm society.

      Key words: trusted algorithms; algorithm governance; algorithm ontology; algorithm relationship; institutional rationality; technology rationality

      德庆县| 蒲城县| 固始县| 满洲里市| 宜昌市| 阿拉尔市| 西城区| 阳谷县| 泸西县| 沅陵县| 即墨市| 平遥县| 卢湾区| 招远市| 鹤峰县| 咸阳市| 游戏| 宜州市| 蓬溪县| 布尔津县| 静海县| 广宁县| 嘉定区| 阿瓦提县| 林周县| 南投县| 南木林县| 锦屏县| 和平县| 涿鹿县| 定边县| 台山市| 江西省| 邳州市| 五台县| 昌江| 冕宁县| 淄博市| 南溪县| 枞阳县| 和田市|