• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看

      ?

      治理算法:算法風(fēng)險(xiǎn)的倫理原則及其治理邏輯

      2022-04-13 11:52:58孟天廣李珍珍
      學(xué)術(shù)論壇 2022年1期
      關(guān)鍵詞:倫理人工智能算法

      孟天廣,李珍珍

      一、引言

      以大數(shù)據(jù)、人工智能等為代表的新興信息通信技術(shù)推動(dòng)全社會(huì)快速地?cái)?shù)字化和智能化,人類社會(huì)正走向智能時(shí)代。近年來(lái),隨著人工智能發(fā)展進(jìn)入快車道,智能化應(yīng)用浪潮席卷而來(lái),以數(shù)據(jù)為原料、以算法為引擎、以算力為支撐的智能社會(huì)快速來(lái)臨。算法作為人工智能技術(shù)的核心,在提升社會(huì)經(jīng)濟(jì)運(yùn)轉(zhuǎn)效率和國(guó)家治理效能的同時(shí),也重構(gòu)著市場(chǎng)秩序與治理體系,深刻地影響著國(guó)家與社會(huì)、技術(shù)與社群之關(guān)系的演變。

      伴隨著智能社會(huì)的到來(lái),人們逐漸注意到算法技術(shù)的負(fù)外部性,如算法致癮性推薦與認(rèn)知窄化、大數(shù)據(jù)“殺熟”與歧視性定價(jià)、機(jī)器自動(dòng)化決策與社會(huì)圈層化加劇等智能時(shí)代的新型社會(huì)風(fēng)險(xiǎn)。算法的濫用不僅危害著用戶的合法權(quán)益,還可能使社會(huì)為之付出高昂的成本。算法的兩面性意味著智能時(shí)代的算法治理不僅涉及使用算法進(jìn)行治理,更要包括對(duì)算法進(jìn)行治理,使其能夠合乎倫理地釋放巨大價(jià)值。

      現(xiàn)階段,算法風(fēng)險(xiǎn)治理已經(jīng)成為國(guó)際趨勢(shì)。一方面,多國(guó)政府對(duì)人工智能和算法監(jiān)管走向?qū)嶋H的立法和執(zhí)法,譬如歐盟、中國(guó)均將算法監(jiān)管作為人工智能監(jiān)管的關(guān)鍵維度;另一方面,全球范圍內(nèi)的科技社群和科技企業(yè)也越來(lái)越關(guān)注算法的倫理問(wèn)題,開始制訂多元化人工智能與算法應(yīng)用的倫理指南。從作為法律法規(guī)的“硬法”和作為倫理準(zhǔn)則的“軟法”兩方面來(lái)看,算法治理的既有框架大多包含自主決定、公平公正、安全可靠、透明公開、責(zé)任擔(dān)當(dāng)、隱私保護(hù)等倫理要素。這一趨勢(shì)也體現(xiàn)在學(xué)術(shù)研究中,近年來(lái)學(xué)術(shù)界從技術(shù)、應(yīng)用、過(guò)程、結(jié)果等多個(gè)視角分析了智能時(shí)代算法驅(qū)動(dòng)所帶來(lái)的新生社會(huì)風(fēng)險(xiǎn)及其產(chǎn)生的倫理問(wèn)題。

      本文基于既有研究對(duì)算法風(fēng)險(xiǎn)的認(rèn)知框架,從算法治理的價(jià)值和路徑兩個(gè)維度,初步構(gòu)建一個(gè)基于“權(quán)力—權(quán)利”和“技術(shù)—社群”的算法治理理論框架。算法治理的價(jià)值維度在于確立算法權(quán)力與用戶權(quán)利之間的平衡,算法治理的路徑則主要涉及技術(shù)機(jī)制與社群機(jī)制?;谶@一理論框架,本文基于算法治理的自主、安全、公平、透明四個(gè)關(guān)鍵倫理原則,闡述了這些原則的內(nèi)涵及其治理邏輯。這能為正處于探索階段的人工智能算法的監(jiān)管實(shí)踐和制度設(shè)計(jì)提供一個(gè)理論思路,有助于在算法技術(shù)的效率優(yōu)勢(shì)和倫理價(jià)值之間尋求平衡。同時(shí),本文也試圖為算法風(fēng)險(xiǎn)及其倫理的理論推進(jìn),尤其是從“技術(shù)—社群”兩個(gè)系統(tǒng)互動(dòng)的關(guān)系視角提供一個(gè)理解算法風(fēng)險(xiǎn)及其治理邏輯的類型學(xué)框架。

      二、算法風(fēng)險(xiǎn):智能時(shí)代社會(huì)風(fēng)險(xiǎn)演化的新樣態(tài)

      在計(jì)算機(jī)科學(xué)意義下,算法通常指“為了解決一個(gè)特定問(wèn)題或者達(dá)成一個(gè)明確目的所采取的一系列步驟”①DIAKOPOULOS N.Algorithmic accountability:journalistic investigation of computational power structures[J].Digital journalism,2015(3):398-415.,其目的是達(dá)成給定情況下的最佳行動(dòng)或者對(duì)給定數(shù)據(jù)作出最佳理解。譬如,數(shù)據(jù)挖掘就是使用算法來(lái)理解數(shù)據(jù)的一門學(xué)科,即“利用數(shù)據(jù)發(fā)現(xiàn)新的模式和知識(shí),并生成可以用來(lái)對(duì)數(shù)據(jù)進(jìn)行有效預(yù)測(cè)的模型”②VAN OTTERLO M.A machine learning view on profiling[M]//HILDEBRANDT M,DE VRIES K.Privacy,due process and the computational turn:the philosophers of law meet philosophers of technology.Abingdon:Routledge,2013:41-64.,而算法設(shè)計(jì)是數(shù)據(jù)挖掘的關(guān)鍵環(huán)節(jié)。

      在智能時(shí)代,算法作為人工智能技術(shù)的核心,已經(jīng)不可逆轉(zhuǎn)地滲透到日常生活乃至國(guó)家治理領(lǐng)域,全方位重塑著社會(huì)經(jīng)濟(jì)運(yùn)行。然而,由濫用人工智能算法而產(chǎn)生的社會(huì)風(fēng)險(xiǎn)與倫理事件也不斷沖擊著人們的神經(jīng),引發(fā)社會(huì)熱議。譬如,新聞個(gè)性化推薦中低俗、同質(zhì)化內(nèi)容增多,搜索引擎競(jìng)價(jià)排名,購(gòu)物平臺(tái)利用大數(shù)據(jù)“殺熟”,外賣系統(tǒng)算法變成監(jiān)工試探配送時(shí)間底線,等等。這些現(xiàn)象不斷將算法及其掌控者推向風(fēng)口浪尖,引發(fā)社會(huì)的廣泛關(guān)注。簡(jiǎn)言之,算法在全面賦能人類社會(huì)發(fā)展,為人類生產(chǎn)生活帶來(lái)效率和便捷的同時(shí),也引發(fā)或激化了技術(shù)與社會(huì)系統(tǒng)之間分歧和沖撞。人們擔(dān)心算法會(huì)導(dǎo)致用戶過(guò)度沉迷而喪失自主性、社會(huì)公平性缺乏,乃至隱私安全等危及人類社會(huì)的嚴(yán)重后果。

      人工智能算法風(fēng)險(xiǎn)已經(jīng)成為哲學(xué)、政治學(xué)、法學(xué)、智能科學(xué)的熱點(diǎn)議題。學(xué)界從人工智能算法的技術(shù)邏輯和權(quán)力屬性角度,討論了其應(yīng)用于商業(yè)領(lǐng)域及嵌入國(guó)家治理與公權(quán)力使用之中的風(fēng)險(xiǎn),并提出諸如“信息繭房”、算法“黑箱”“算法利維坦”等新概念,試圖闡述算法的嵌入對(duì)社會(huì)經(jīng)濟(jì)運(yùn)行產(chǎn)生的深遠(yuǎn)影響。

      首先,從個(gè)體角度看,人們?nèi)粘J褂玫男侣劮?wù)和信息分發(fā)智能化算法伴隨著造成“信息繭房”的認(rèn)知窄化風(fēng)險(xiǎn)。當(dāng)前,數(shù)據(jù)爆炸與個(gè)人信息系統(tǒng)容納量不足,很容易導(dǎo)致個(gè)人信息超載,因而愈發(fā)需要基于習(xí)慣和偏好的差異化信息消費(fèi)③喻國(guó)明,曲慧.“信息繭房”的誤讀與算法推送的必要——兼論內(nèi)容分發(fā)中社會(huì)倫理困境的解決之道[J].新疆師范大學(xué)學(xué)報(bào)(哲學(xué)社會(huì)科學(xué)版),2020(1):127-133.。在此背景下,基于智能推薦算法的個(gè)性化信息服務(wù)開始興起。智能推薦系統(tǒng)運(yùn)用協(xié)同過(guò)濾推薦、內(nèi)容推薦、關(guān)聯(lián)規(guī)則推薦等技術(shù),幫助用戶降低信息噪音、提高信息消費(fèi)效率④喻國(guó)明,韓婷.算法型信息分發(fā):技術(shù)原理、機(jī)制創(chuàng)新與未來(lái)發(fā)展[J].新聞愛好者,2018(4):8-13.。然而,智能推薦算法也有可能導(dǎo)致“信息繭房”,即用戶只聽他們選擇的、令他們愉悅的內(nèi)容⑤桑斯坦.信息烏托邦——眾人如何生產(chǎn)知識(shí)[M].畢競(jìng)悅,譯.北京:法律出版社,2008:8.。智能推薦算法對(duì)信息的過(guò)濾,可能阻礙異質(zhì)性信息消費(fèi)與多元化觀點(diǎn)交流,導(dǎo)致用戶處于算法打造的“無(wú)菌環(huán)境”或者一個(gè)性化的“過(guò)濾氣泡”中。不論是“信息繭房”還是“過(guò)濾氣泡”,都直指算法時(shí)代個(gè)性化信息服務(wù)下的“信息偏食”,造成用戶信息視野狹窄并對(duì)其觀念與行為產(chǎn)生影響①彭蘭.導(dǎo)致信息繭房的多重因素及“破繭”路徑[J].新聞界,2020(1):30-38,73.。雖然目前學(xué)界對(duì)“信息繭房”作為一種現(xiàn)象的證實(shí)與證偽、現(xiàn)實(shí)中是否存在理論上的形成機(jī)制等問(wèn)題還有不同觀點(diǎn),但相關(guān)探討無(wú)疑反映出人們對(duì)由算法充當(dāng)“把關(guān)人”的信息傳播風(fēng)險(xiǎn)的一種擔(dān)心。

      其次,從市場(chǎng)角度看,基于大數(shù)據(jù)的人工智能算法因遵循商業(yè)邏輯而醞釀著“監(jiān)控資本主義”的風(fēng)險(xiǎn)。人類社會(huì)的信息化伴隨著個(gè)人的屬性、關(guān)系、地點(diǎn)、行為、情緒、偏好等信息被全方位地以數(shù)字化的方式表示、記錄、存儲(chǔ)。海量個(gè)人信息匯總而成的大數(shù)據(jù)有其經(jīng)濟(jì)屬性,而大數(shù)據(jù)分析算法則是挖掘大數(shù)據(jù)商業(yè)價(jià)值所必不可少的工具?!氨O(jiān)控資本主義”是數(shù)據(jù)經(jīng)濟(jì)環(huán)境下的新興資本主義經(jīng)濟(jì)秩序,形成于大數(shù)據(jù)、算法能力與資本力量的聯(lián)合,其核心是以攫取利潤(rùn)為目的的科技企業(yè)對(duì)個(gè)人數(shù)據(jù)的商業(yè)化利用②武青,周程.資本主義條件下大數(shù)據(jù)技術(shù)的政治經(jīng)濟(jì)學(xué)批判——《監(jiān)控資本主義的時(shí)代》述評(píng)[J].科學(xué)與社會(huì),2020(1):113-124.。大數(shù)據(jù)企業(yè)通過(guò)對(duì)互聯(lián)網(wǎng)上個(gè)人數(shù)字痕跡的大規(guī)模監(jiān)控以獲取數(shù)據(jù),將算法作為生產(chǎn)工具實(shí)現(xiàn)了數(shù)據(jù)從原材料到價(jià)值的轉(zhuǎn)化。這些企業(yè)大規(guī)模收集用戶點(diǎn)擊、瀏覽、逗留時(shí)長(zhǎng)的數(shù)字痕跡,利用大數(shù)據(jù)分析技術(shù)對(duì)用戶信息進(jìn)行統(tǒng)計(jì)分析并建立預(yù)測(cè)模型,通過(guò)數(shù)據(jù)持續(xù)積累和模型不斷優(yōu)化越來(lái)越準(zhǔn)確地判斷用戶心理和喜好,做出諸如精準(zhǔn)的價(jià)格歧視、勞工剝削、定向營(yíng)銷等行為,最終實(shí)現(xiàn)企業(yè)利潤(rùn)最大化。“監(jiān)控資本主義”的典型例子是商業(yè)平臺(tái)濫用用戶數(shù)據(jù)進(jìn)行“殺熟”。在這種經(jīng)濟(jì)秩序下,用戶在大數(shù)據(jù)企業(yè)面前迅速透明化,退化為免費(fèi)的數(shù)據(jù)來(lái)源與被反復(fù)實(shí)驗(yàn)的對(duì)象③ZUBOFF S.Big other:surveillance capitalism and the prospects of an information civilization[J].Journal of information technology,2015(1):75-89.。

      最后,從國(guó)家與公權(quán)力角度看,人工智能算法的技術(shù)力量日益嵌入國(guó)家權(quán)力運(yùn)行與國(guó)家治理過(guò)程,不僅孕育著“技術(shù)賦權(quán)”的巨大機(jī)會(huì)④孟天廣.政府?dāng)?shù)字化轉(zhuǎn)型的要素、機(jī)制與路徑——兼論“技術(shù)賦能”與“技術(shù)賦權(quán)”的雙向驅(qū)動(dòng)[J].治理研究,2021(1):5-14.,也隱藏著被特定利益集團(tuán)用于社會(huì)控制和政治權(quán)力再生產(chǎn)的政治風(fēng)險(xiǎn)⑤王小芳,王磊.“技術(shù)利維坦”:人工智能嵌入社會(huì)治理的潛在風(fēng)險(xiǎn)與政府應(yīng)對(duì)[J].電子政務(wù),2019(5):86-93.。利維坦是《圣經(jīng)·舊約》中記載的海怪,一種神話生物,英國(guó)哲學(xué)家霍布斯用之比喻凌駕于所有人之上的強(qiáng)勢(shì)的國(guó)家。面對(duì)國(guó)家治理算法化態(tài)勢(shì),有學(xué)者用“算法利維坦”比喻智能時(shí)代的一種強(qiáng)制性治理方式與算法接管治理的潛在風(fēng)險(xiǎn)。人們?cè)谕ㄟ^(guò)算法治理獲得便利的同時(shí),也被置于算法程序的監(jiān)控體系之下,而國(guó)家則通過(guò)算法技術(shù)來(lái)施加秩序、延伸權(quán)力、貫穿意志⑥張愛軍.“算法利維坦”的風(fēng)險(xiǎn)及其規(guī)制[J].探索與爭(zhēng)鳴,2021(1):95-102,179.。這種能力需要配合數(shù)據(jù)才能達(dá)到,國(guó)家借助公權(quán)力和資源優(yōu)勢(shì)收集個(gè)人信息,通過(guò)數(shù)據(jù)系統(tǒng)對(duì)社會(huì)展開全景化的了解、執(zhí)法與審查⑦帕斯奎爾.黑箱社會(huì):控制金錢和信息的數(shù)據(jù)法則[M].趙亞男,譯.北京:中信出版社,2015:61-69.。不少文獻(xiàn)討論過(guò)類似觀點(diǎn),即數(shù)字技術(shù)導(dǎo)致國(guó)家控制強(qiáng)化,一些相似的表述包括“技術(shù)利維坦”“數(shù)字利維坦”等。盡管數(shù)字技術(shù)賦能國(guó)家治理會(huì)顯著提升國(guó)家采集和處理信息的能力⑧孟天廣,張小勁.大數(shù)據(jù)驅(qū)動(dòng)與政府治理能力提升——理論框架與模式創(chuàng)新[J].北京航空航天大學(xué)學(xué)報(bào)(社會(huì)科學(xué)版),2018(1):18-25.,但其風(fēng)險(xiǎn)在于,“國(guó)家依靠信息技術(shù)的全面裝備,將公民置于徹底而富有成效的監(jiān)控體系之下,而公民卻難以有效地運(yùn)用信息技術(shù)來(lái)維護(hù)其公民權(quán)利”⑨肖濱.信息技術(shù)在國(guó)家治理中的雙面性與非均衡性[J].學(xué)術(shù)研究,2009(11):31-36.。

      簡(jiǎn)言之,算法盡管極大地提升了生活便利化程度、生產(chǎn)經(jīng)營(yíng)效率和治理精準(zhǔn)性,但是對(duì)經(jīng)濟(jì)社會(huì)運(yùn)行和國(guó)家治理的邏輯產(chǎn)生深遠(yuǎn)影響。面對(duì)算法給人類帶來(lái)的新型社會(huì)風(fēng)險(xiǎn),圍繞著算法風(fēng)險(xiǎn)治理正在形成多元視角的理論討論。從新興產(chǎn)業(yè)監(jiān)管視角看,薛瀾和趙靜認(rèn)為,包括智能算法技術(shù)創(chuàng)新在內(nèi)的新興產(chǎn)業(yè)具有高度不確定性,傳統(tǒng)監(jiān)管模式不適用于其產(chǎn)業(yè)風(fēng)險(xiǎn)管理。新興產(chǎn)業(yè)的監(jiān)管在目標(biāo)、內(nèi)容、節(jié)奏、力度、思維以及規(guī)則上都有別于傳統(tǒng)產(chǎn)業(yè),應(yīng)該建立以敏捷為核心的治理框架:在治理原則上,以抽象的法律原則配合靈活的政策工具;在治理關(guān)系上,在監(jiān)管者與被監(jiān)管者之間建立互動(dòng)、相互依賴的關(guān)系;在治理工具上,選擇“下手快、力度輕”的治理措施①薛瀾,趙靜.走向敏捷治理:新興產(chǎn)業(yè)發(fā)展與監(jiān)管模式探究[J].中國(guó)行政管理,2019(8):28-34.。從算法生命周期視角看,從模型的開發(fā)、部署到使用,要將標(biāo)準(zhǔn)、測(cè)試和控制嵌入模型的生命周期的各個(gè)階段,在不同階段采取針對(duì)性措施來(lái)限制特定風(fēng)險(xiǎn)。比如,在建立模型階段,可以采取模型穩(wěn)健性檢驗(yàn)、數(shù)據(jù)泄露控制、標(biāo)簽質(zhì)量評(píng)估等風(fēng)險(xiǎn)控制方法②BAQUERO J A,BURKHARDT R,GOVINDARAJAN A,et al.Derisking AI by design:how to build risk management into AI development[EB/OL].(2020-08-13)[2021-12-29].https://www.mckinsey.com/business-functions/mckinsey-analytics/our-insights/deriskingai-by-design-how-to-build-risk-management-into-ai-development.。

      本文從算法風(fēng)險(xiǎn)及其治理的視角出發(fā),認(rèn)為“信息繭房”“監(jiān)控資本主義”“算法利維坦”等不同層面的算法風(fēng)險(xiǎn),充分反映著算法“黑箱”、不確定性和安全、歧視與支配的廣泛存在,進(jìn)而對(duì)人類社會(huì)的自主、平等、知情、安全等核心價(jià)值造成威脅。因此,我們迫切需要確立算法倫理以規(guī)范算法使用與監(jiān)管,使人類社會(huì)有能力防范與化解算法風(fēng)險(xiǎn)的潛在危害。

      三、算法倫理:定義算法風(fēng)險(xiǎn)的治理原則

      算法風(fēng)險(xiǎn)、算法倫理與算法治理之間存在內(nèi)生性關(guān)系,這源于人工智能算法風(fēng)險(xiǎn)產(chǎn)于算法應(yīng)用沒(méi)有受到倫理約束,因此需要算法倫理來(lái)確立與重申算法風(fēng)險(xiǎn)的治理原則。算法倫理是對(duì)算法活動(dòng)施加的倫理道德要求。隨著人工智能監(jiān)管制度化進(jìn)程的加快,軟性倫理規(guī)范也有可能演化為剛性法律規(guī)制。無(wú)論是討論算法的倫理約束,還是經(jīng)由立法以規(guī)制算法,首先要確立算法倫理。算法倫理涉及算法本體(自身)、算法與人類的關(guān)系、算法與環(huán)境之關(guān)系三個(gè)層次,其實(shí)質(zhì)是闡明智能時(shí)代人、機(jī)、物之間的交互關(guān)系,識(shí)別三者之間互動(dòng)關(guān)系中存在的社會(huì)風(fēng)險(xiǎn),進(jìn)而構(gòu)建相應(yīng)的治理原則。

      (一)比較視角下的算法倫理主張

      2016年以來(lái),隨著人工智能算法開發(fā)及應(yīng)用逐步進(jìn)入快車道,算法倫理相關(guān)討論顯著增加,各國(guó)政府、非政府組織和科技企業(yè)紛紛開始關(guān)注“合乎倫理的”的人工智能和算法,旨在發(fā)揮算法的技術(shù)潛力的同時(shí),降低算法產(chǎn)生的風(fēng)險(xiǎn)③TSAMADOS A,AGGARWAL N,COWLS J,et al.The ethics of algorithms:key problems and solutions[J/OL].AI&society,2021:1-16[2021-11-10].https://doi.org/10.1007/s00146-021-01154-8.。然而,算法倫理還不是一個(gè)成熟的研究領(lǐng)域,所涉?zhèn)惱碇黝}不明確、界限不清晰。綜合來(lái)看,已有文獻(xiàn)從技術(shù)、原則、應(yīng)用、過(guò)程、結(jié)果等角度討論人工智能算法的風(fēng)險(xiǎn)、倫理與治理。比如,賈開根據(jù)人工智能算法的技術(shù)邏輯和應(yīng)用方式的特性,認(rèn)為深度學(xué)習(xí)等算法本身的復(fù)雜性導(dǎo)致算法“黑箱”以及難以監(jiān)督與問(wèn)責(zé),基于歷史數(shù)據(jù)的訓(xùn)練與學(xué)習(xí)會(huì)導(dǎo)致固化、偏差與歧視,而且算法在各類應(yīng)用場(chǎng)景下替代人類行為難以避免引發(fā)事故歸責(zé)、知識(shí)產(chǎn)品版權(quán)等方面的爭(zhēng)議。他認(rèn)為,算法治理的公共政策框架應(yīng)該包括提高公眾的人工智能認(rèn)知、推動(dòng)算法倫理的專家對(duì)話,以及有優(yōu)先級(jí)地制定相關(guān)政策④賈開.人工智能與算法治理研究[J].中國(guó)行政管理,2019(1):17-22.。劉培和池忠軍認(rèn)為,算法作為技術(shù)手段,其排序、分類、關(guān)聯(lián)、過(guò)濾的標(biāo)準(zhǔn)負(fù)載著設(shè)計(jì)者的知識(shí)背景、社會(huì)文化與價(jià)值判斷,因而內(nèi)在地關(guān)涉?zhèn)惱韱?wèn)題;而且,算法因其技術(shù)的復(fù)雜性與后果的不確定性而天然地具備不透明性與失敗的可能;面對(duì)算法歧視等倫理問(wèn)題,認(rèn)為應(yīng)該從算法設(shè)計(jì)本身及外部約束來(lái)解決⑤劉培,池忠軍.算法的倫理問(wèn)題及其解決進(jìn)路[J].東北大學(xué)學(xué)報(bào)(社會(huì)科學(xué)版),2019(2):118-125.。丁曉東從算法引起的法律后果出發(fā),認(rèn)為算法崛起會(huì)挑戰(zhàn)知情權(quán)與自主性、隱私與自由、平等保護(hù)的基本原則,應(yīng)該基于算法應(yīng)用的具體場(chǎng)景構(gòu)建算法公開、數(shù)據(jù)賦權(quán)、反歧視的制度①丁曉東.論算法的法律規(guī)制[J].中國(guó)社會(huì)科學(xué),2020(12):138-159,203.。

      米特爾施泰特等人從人工智能算法過(guò)程的角度,提出了算法倫理爭(zhēng)論的六重維度②MITTELSTADT B D,ALLO P,TADDEO M,et al.The ethics of algorithms:mapping the debate[J].Big data &society,2016(2):2053951716679679.。他們根據(jù)算法如何將數(shù)據(jù)轉(zhuǎn)化為結(jié)果以及算法所觸發(fā)的行動(dòng),提出算法倫理的六個(gè)方面。一是非決定性證據(jù),指通過(guò)推斷統(tǒng)計(jì)和機(jī)器學(xué)習(xí)技術(shù)從數(shù)據(jù)中獲取的結(jié)論,不可避免地具有不確定性。非決定性證據(jù)只能指示相關(guān)關(guān)系,不能揭示因果關(guān)系。非決定性證據(jù)可能導(dǎo)致不公正的行動(dòng)。二是難以理解的證據(jù),指不了解機(jī)器學(xué)習(xí)算法如何從數(shù)據(jù)中生成結(jié)論。難以理解的證據(jù)可能會(huì)導(dǎo)致不透明。三是誤導(dǎo)性證據(jù),此則倫理強(qiáng)調(diào)“垃圾進(jìn)、垃圾出”。輸出永遠(yuǎn)不會(huì)超越輸入,只有輸入的數(shù)據(jù)是可靠的,算法產(chǎn)生的結(jié)果才有可能是可靠的。誤導(dǎo)性證據(jù)會(huì)導(dǎo)致偏見。四是不公平的結(jié)果,指算法驅(qū)動(dòng)的行動(dòng)可能是不公平的,會(huì)產(chǎn)生歧視性后果。五是轉(zhuǎn)換效應(yīng),指算法決策是充滿價(jià)值判斷的,影響著我們?nèi)绾卫斫馀c概念化這個(gè)世界,并基于算法生成的洞見驅(qū)動(dòng)行動(dòng)。轉(zhuǎn)換效應(yīng)給自主性和信息隱私帶來(lái)挑戰(zhàn)。六是可追溯性,指算法活動(dòng)造成的損害可以調(diào)試,也能夠確定誰(shuí)應(yīng)對(duì)損害負(fù)責(zé)??勺匪菪钥梢悦鞔_道德責(zé)任。在這六個(gè)方面中,前三者屬于證據(jù)質(zhì)量不良引發(fā)的倫理問(wèn)題,發(fā)生于算法將數(shù)據(jù)轉(zhuǎn)化為決策(結(jié)果)的過(guò)程;不公正的結(jié)果和轉(zhuǎn)換效應(yīng)則屬于算法決策(結(jié)果)的社會(huì)后果,源于算法驅(qū)動(dòng)的行動(dòng)未能體現(xiàn)倫理中立;而可追溯性關(guān)切算法驅(qū)動(dòng)的行動(dòng)可能導(dǎo)致的失敗風(fēng)險(xiǎn)及責(zé)任分配問(wèn)題。

      在實(shí)踐中,全球范圍內(nèi)國(guó)家和各類組織也開始出臺(tái)自己的算法倫理準(zhǔn)則或指南(表1)。

      表1 算法倫理規(guī)范的跨國(guó)比較

      當(dāng)前,較有影響力的算法倫理原則主要來(lái)自于歐美國(guó)家,提出者涵蓋政府、專業(yè)社群、科技企業(yè)等各類主體③賈開.人工智能與算法治理研究[J].中國(guó)行政管理,2019(1):17-22.。譬如,2017年1月,美國(guó)計(jì)算機(jī)協(xié)會(huì)公共政策委員會(huì)專門發(fā)布了《關(guān)于算法透明度和問(wèn)責(zé)制的聲明》,倡議在算法開發(fā)和部署中落實(shí)知情、訪問(wèn)與救濟(jì)機(jī)制、可問(wèn)責(zé)、解釋等七個(gè)原則④Association for Computing Machinery US Public Policy Council.Statement on Algorithmic Transparency and Accountability[EB/OL].(2017-01-12)[2021-12-29].https://www.acm.org/binaries/content/assets/public-policy/2017_usacm_statement_algorithms.pdf.。2019年4月,歐盟人工智能高級(jí)專家組發(fā)布《可信賴人工智能倫理指南》,根據(jù)該指南,可信賴的人工智能應(yīng)該是合法的、道德的和穩(wěn)健的,并滿足人類能動(dòng)性和監(jiān)督、技術(shù)穩(wěn)健性和安全性、隱私和數(shù)據(jù)治理等七項(xiàng)關(guān)鍵要求⑤European Commission.Ethics guidelines for trustworthy AI[EB/OL].(2019-04-08)[2021-12-29].https://digital-strategy.ec.europa.eu/en/library/ethics-guidelines-trustworthy-ai.。

      我國(guó)也高度重視算法倫理。作為人工智能發(fā)展大國(guó),我國(guó)于2019年6月發(fā)布《我國(guó)新一代人工智能治理原則——發(fā)展負(fù)責(zé)任的人工智能》,強(qiáng)調(diào)人工智能發(fā)展相關(guān)各方應(yīng)遵循和諧友好、公平公正、包容共享、尊重隱私、安全可控、共擔(dān)責(zé)任、開放協(xié)作、敏捷治理八項(xiàng)原則①科技部.發(fā)展負(fù)責(zé)任的人工智能:新一代人工智能治理原則發(fā)布[EB/OL].(2019-06-17)[2021-12-29].http://www.most.gov.cn/kjbgz/201906/t20190617_147107.html.。2021年1月,全國(guó)信息安全標(biāo)準(zhǔn)化技術(shù)委員會(huì)發(fā)布的《網(wǎng)絡(luò)安全標(biāo)準(zhǔn)實(shí)踐指南——人工智能倫理安全風(fēng)險(xiǎn)防范指引》,是我國(guó)首個(gè)國(guó)家層面的一般性、基礎(chǔ)性的人工智能倫理和安全風(fēng)險(xiǎn)的指引文件②賈開,薛瀾.人工智能倫理問(wèn)題與安全風(fēng)險(xiǎn)治理的全球比較與中國(guó)實(shí)踐[J].公共管理評(píng)論,2021(1):122-134.。文件指出人工智能存在失控性風(fēng)險(xiǎn)、社會(huì)性風(fēng)險(xiǎn)、侵權(quán)性風(fēng)險(xiǎn)、歧視性風(fēng)險(xiǎn)以及責(zé)任性風(fēng)險(xiǎn),并將人工智能研究開發(fā)、設(shè)計(jì)制造、部署應(yīng)用、用戶使用都納入安全風(fēng)險(xiǎn)防范的范疇③全國(guó)信息安全標(biāo)準(zhǔn)化技術(shù)委員會(huì)秘書處.網(wǎng)絡(luò)安全標(biāo)準(zhǔn)實(shí)踐指南——人工智能倫理安全風(fēng)險(xiǎn)防范指引[EB/OL].(2021-01-05)[2021-12-29].https://www.tc260.org.cn/upload/2021-01-05/1609818449720076535.pdf.。

      (二)算法倫理的核心關(guān)切

      本文從算法治理的價(jià)值與路徑兩個(gè)維度重新闡述了算法倫理的核心關(guān)切(表2)。一方面,算法風(fēng)險(xiǎn)的治理價(jià)值是約束算法權(quán)力以及保障用戶的權(quán)利,即實(shí)現(xiàn)“權(quán)力—權(quán)利”關(guān)系的平衡;另一方面,在算法風(fēng)險(xiǎn)的治理路徑上,每一個(gè)倫理原則都可以通過(guò)技術(shù)機(jī)制和社群機(jī)制來(lái)實(shí)現(xiàn),即“技術(shù)—社群”雙重約束的治理路徑。由此,算法治理的價(jià)值約束和路徑選擇共同構(gòu)成了表2 所呈現(xiàn)的算法倫理的四種類型學(xué),即算法可控、算法透明、算法安全和算法公平。

      表2 算法倫理的二維分析框架

      首先,算法治理的價(jià)值是限制算法權(quán)力以及保障用戶權(quán)利,即實(shí)現(xiàn)“權(quán)力—權(quán)利”平衡。上文已經(jīng)討論過(guò)人工智能算法風(fēng)險(xiǎn)的多種形態(tài),不論是“監(jiān)控資本主義”“信息繭房”還是“算法利維坦”,算法應(yīng)用引發(fā)的各類風(fēng)險(xiǎn)都指向算法背后的權(quán)力邏輯。換句話說(shuō),算法接管了人類的決策,開始實(shí)質(zhì)性地融入和重塑社會(huì)、經(jīng)濟(jì)、政府治理系統(tǒng),掌握算法的人或機(jī)構(gòu)施展著廣泛的影響力和基于技術(shù)的控制力。甚至有學(xué)者斷言:“掌握了數(shù)據(jù),就意味著掌握了資本和財(cái)富;掌握了算法(Algorithm),就意味著掌握了話語(yǔ)權(quán)和規(guī)制權(quán)?!雹荞R長(zhǎng)山.智慧社會(huì)的治理難題及其消解[J].求是學(xué)刊,2019(5):91-98.事實(shí)上,當(dāng)算法從數(shù)學(xué)和計(jì)算科學(xué),向政治學(xué)、社會(huì)學(xué)、法學(xué)等社會(huì)科學(xué)領(lǐng)域擴(kuò)散時(shí),社會(huì)科學(xué)家就開始思考算法與權(quán)力的關(guān)系⑤BEER D.The social power of algorithms[J].Information,communication&society,2017(1):1-13.。權(quán)力是實(shí)施支配與控制的關(guān)鍵力量,而算法的規(guī)則屬性⑥賈開.人工智能與算法治理研究[J].中國(guó)行政管理,2019(1):17-22.使其實(shí)質(zhì)上具備支配與控制的能力。代碼是算法的載體,萊斯格就鮮明地提出代碼的權(quán)力屬性:代碼作為網(wǎng)絡(luò)空間的法律,它與立法機(jī)構(gòu)頒布的法律有類似的規(guī)制作用,是網(wǎng)絡(luò)空間的向?qū)Ш蛷?qiáng)有力的規(guī)制者。代碼作為網(wǎng)絡(luò)空間中的預(yù)設(shè)環(huán)境,反映了代碼制定者的選擇和價(jià)值理念,對(duì)網(wǎng)絡(luò)空間中的人擁有某種程度的強(qiáng)制力⑦萊斯格.代碼2.0:網(wǎng)絡(luò)空間中的法律[M].李旭,沈偉偉,譯.修訂版.北京:清華大學(xué)出版社,2018:132-150.。

      文化研究專家拉什指出,社會(huì)中權(quán)力越來(lái)越多地存在于算法之中⑧LASH S.Power after hegemony:cultural studies in mutation?[J].Theory,culture&society,2007(3):55-78.。算法權(quán)力就是以算法為工具實(shí)施的影響力或控制力,看似理性中立的技術(shù)性的行為,實(shí)質(zhì)上是規(guī)則的施加⑨趙一丁,陳亮.算法權(quán)力異化及法律規(guī)制[J].云南社會(huì)科學(xué),2021(5):123-132.⑩陳鵬.算法的權(quán)力和權(quán)力的算法[J].探索,2019(4):182-192.。類似的,帕斯奎爾①帕斯奎爾.黑箱社會(huì):控制金錢和信息的數(shù)據(jù)法則[M].趙亞男,譯.北京:中信出版社,2015:13.和迪亞科普洛斯②DIAKOPOULOS N.Algorithmic accountability reporting:on the investigation of black boxes[R].New York:Columbia Journalism School,Tow Center for Digital Journalism,2013.指出,社會(huì)生活中的關(guān)鍵決策越來(lái)越多地依靠數(shù)據(jù)驅(qū)動(dòng)的算法來(lái)裁定,算法的決策地位是其具備潛在權(quán)力的基礎(chǔ)。這樣的視角開啟了一系列關(guān)于算法在權(quán)力的部署和表達(dá)中作用的討論③BEER D.The social power of algorithms[J].Information,communication&society,2017(1):1-13.。比如,張凌寒認(rèn)為,算法在海量數(shù)據(jù)運(yùn)算的基礎(chǔ)上發(fā)展成為一支新興力量,它調(diào)配著社會(huì)資源,規(guī)范著人的行為,甚至輔助或替代公權(quán)力進(jìn)行決策,從而形成事實(shí)上的技術(shù)權(quán)力④張凌寒.算法權(quán)力的興起、異化及法律規(guī)制[J].法商研究,2019(4):63-75.。可以說(shuō),算法是構(gòu)建和實(shí)現(xiàn)權(quán)力的新途徑,掌握算法的人或機(jī)構(gòu)在這個(gè)意義上擁有更高的權(quán)力和地位⑤宋鍇業(yè).“算法”與國(guó)家治理創(chuàng)新——數(shù)據(jù)、算法與權(quán)力的知識(shí)生產(chǎn)與邏輯呈現(xiàn)[J/OL].科學(xué)學(xué)研究.[2021-04-08].https://doi.org/10.16192/j.cnki.1003-2053.20210407.001.,可以通過(guò)調(diào)整算法參數(shù)來(lái)執(zhí)行自身意志⑥喻國(guó)明,楊瑩瑩,閆巧妹.算法即權(quán)力:算法范式在新聞傳播中的權(quán)力革命[J].編輯之友,2018(5):5-12.。相比之下,用戶權(quán)利在日益強(qiáng)大的算法權(quán)力面前岌岌可危,算法下的個(gè)體甚至可能淪為智能時(shí)代的“囚徒”⑦彭蘭.假象、算法囚徒與權(quán)利讓渡:數(shù)據(jù)與算法時(shí)代的新風(fēng)險(xiǎn)[J].西北師大學(xué)報(bào)(社會(huì)科學(xué)版),2018(5):20-29.。

      其次,算法治理的有效實(shí)現(xiàn)依賴于“技術(shù)—社群”雙重路徑的同步演進(jìn)。算法“黑箱”、算法歧視、算法操縱等算法風(fēng)險(xiǎn)的治理需要運(yùn)用綜合手段,這些手段可以分為技術(shù)路徑和社群路徑。對(duì)于算法所呈現(xiàn)的技術(shù)面孔,算法治理的技術(shù)路徑旨在優(yōu)化算法設(shè)計(jì)來(lái)實(shí)現(xiàn)算法倫理原則。比如,當(dāng)前算法決策和數(shù)據(jù)挖掘建立在相關(guān)關(guān)系而非因果關(guān)系基礎(chǔ)上⑧MITTELSTADT B D,ALLO P,TADDEO M,et al.The ethics of algorithms:mapping the debate[J/OL].Big Data &society,2016(2):1-68[2021-12-08].http://papers.ssrn.com/sol3/papers.cfm?abstract_id=2909885.DOI:10.1177/2053951716679679.,并且由于歷史的或者算法設(shè)計(jì)者的原因,用于訓(xùn)練模型參數(shù)的數(shù)據(jù)本身分布如果是有問(wèn)題的,而依賴相關(guān)關(guān)系和分布有偏的數(shù)據(jù)得出的決策結(jié)果就可能是錯(cuò)誤、不公正的。對(duì)此,可以通過(guò)發(fā)現(xiàn)因果機(jī)制以及改善數(shù)據(jù)分布結(jié)構(gòu)來(lái)緩解此類技術(shù)問(wèn)題⑨汝緒華.算法政治:風(fēng)險(xiǎn)、發(fā)生邏輯與治理[J].廈門大學(xué)學(xué)報(bào)(哲學(xué)社會(huì)科學(xué)版),2018(6):27-38.。需要指出是,算法作為一個(gè)內(nèi)涵廣泛的概念,在技術(shù)原理、應(yīng)用場(chǎng)景等方面可以進(jìn)一步分類。不同算法有不同的技術(shù)特點(diǎn),其風(fēng)險(xiǎn)存在差異,在治理價(jià)值和治理路徑上也各有側(cè)重。換言之,算法的技術(shù)治理應(yīng)遵循分類治理原則,在實(shí)踐中可以結(jié)合本文理論框架審查算法風(fēng)險(xiǎn)并形成差異化的治理對(duì)策。

      社群路徑則以強(qiáng)調(diào)立法與監(jiān)管為主,同時(shí)促進(jìn)科技行業(yè)自律以及培養(yǎng)大眾的算法素養(yǎng)等⑩汪懷君,汝緒華.人工智能算法歧視及其治理[J].科學(xué)技術(shù)哲學(xué)研究,2020(2):101-106.。比如,歐盟《通用數(shù)據(jù)保護(hù)條例》、英國(guó)《解釋AI 決策的指南》、美國(guó)《過(guò)濾泡沫透明度法案》、加拿大《自動(dòng)化決策指令》、日本《改善指定數(shù)字平臺(tái)上的交易的透明度和公平性法》等,都對(duì)算法應(yīng)用的規(guī)范提出要求。我國(guó)從2021年來(lái)針對(duì)網(wǎng)絡(luò)空間算法活動(dòng)采取了一系列措施以增進(jìn)算法活動(dòng)的透明度、公平性,保護(hù)數(shù)據(jù)安全和主體權(quán)益。比如,《國(guó)務(wù)院反壟斷委員會(huì)關(guān)于平臺(tái)經(jīng)濟(jì)領(lǐng)域的反壟斷指南》禁止平臺(tái)通過(guò)算法來(lái)實(shí)施壟斷行為,《中華人民共和國(guó)個(gè)人信息保護(hù)法》以下簡(jiǎn)稱《個(gè)人信息保護(hù)法》對(duì)自動(dòng)化決策行為進(jìn)行規(guī)制,以及國(guó)家互聯(lián)網(wǎng)信息辦公室等部門印發(fā)算法治理的指導(dǎo)意見,旨在規(guī)范算法推薦活動(dòng),厘清算法濫用的邊界。

      四、治理價(jià)值:“權(quán)力—權(quán)利”的重新分配

      人工智能算法風(fēng)險(xiǎn)反映了算法權(quán)力和用戶權(quán)利之間的不平衡,它折射出算法權(quán)力的運(yùn)行忽視對(duì)用戶的權(quán)利的關(guān)切,算法設(shè)計(jì)過(guò)分關(guān)注技術(shù)理性、執(zhí)行效率和預(yù)測(cè)準(zhǔn)確度。不同于作為控制和支配的權(quán)力,權(quán)利是現(xiàn)代社會(huì)中人們所擁有的自由、隱私、知情、平等、自主、尊嚴(yán)等資格或價(jià)值。算法倫理的核心價(jià)值在于約束算法權(quán)力,保障用戶權(quán)利。譬如要求算法透明以保障人們對(duì)算法過(guò)程的知情權(quán);要求算法公平以防范歧視和偏見,確保社會(huì)不同群體在算法面前平等;要求算法可控以約束算法支配與操縱的權(quán)力;要求算法安全,包括個(gè)人數(shù)據(jù)和利益安全,以制約算法過(guò)度收集與濫用個(gè)人信息的權(quán)力??傮w而言,可控和安全更側(cè)重制約算法權(quán)力,透明和公平更強(qiáng)調(diào)保障用戶的權(quán)利。

      (一)透明

      算法不透明指的是算法處于一種“黑箱”狀態(tài)?!昂谙洹敝敢粋€(gè)神秘的、不可觀察的運(yùn)作機(jī)制,對(duì)其我們只能獲得輸入和輸出,不了解輸入轉(zhuǎn)化為輸出的邏輯和過(guò)程①帕斯奎爾.黑箱社會(huì)[M].趙亞男,譯.北京:中信出版社,2015:6.。算法“黑箱”有兩層含義。一是指源于算法本身的技術(shù)復(fù)雜性而導(dǎo)致的模型不可解釋,這類問(wèn)題存在深度學(xué)習(xí)等算法中。例如,在計(jì)算機(jī)視覺、自然語(yǔ)言處理中被廣泛使用的卷積神經(jīng)網(wǎng)絡(luò)(convolutional neural networks,CNN)算法,是一種包含卷積計(jì)算、具有深度結(jié)構(gòu)的前饋神經(jīng)網(wǎng)絡(luò)(feedforward neural networks)。卷積神經(jīng)網(wǎng)絡(luò)通常具有很多隱含層,形成多個(gè)計(jì)算層級(jí),每一層級(jí)里都設(shè)置了很多計(jì)算節(jié)點(diǎn);各個(gè)節(jié)點(diǎn)之間會(huì)交叉?zhèn)鬟f和處理信息,并且每一節(jié)點(diǎn)的計(jì)算參數(shù)又是多變的,這使得整個(gè)神經(jīng)網(wǎng)絡(luò)具有相當(dāng)高的計(jì)算復(fù)雜度。因此,即便知曉整個(gè)網(wǎng)絡(luò)的結(jié)構(gòu)和每一節(jié)點(diǎn)的計(jì)算方法,仍然無(wú)法通過(guò)公式進(jìn)行說(shuō)明,故而連算法的設(shè)計(jì)者也無(wú)法充分解釋神經(jīng)網(wǎng)絡(luò)的運(yùn)作原理。這類“黑箱”問(wèn)題根植于深度學(xué)習(xí)等算法固有的技術(shù)特性,是機(jī)器學(xué)習(xí)在某些領(lǐng)域(如風(fēng)險(xiǎn)評(píng)估)應(yīng)用的最大障礙。二是指算法設(shè)計(jì)者不向用戶公開其算法原理與機(jī)制,導(dǎo)致用戶對(duì)算法特征與運(yùn)算過(guò)程毫不知情。例如,歐盟曾指責(zé)谷歌不公開其搜索引擎算法,稱此舉是在制造“扭曲的棱鏡”。此外,互聯(lián)網(wǎng)平臺(tái)所采用的算法通常具有不穩(wěn)定性,算法開發(fā)通常以連續(xù)、分布式和動(dòng)態(tài)的方式重新編程,設(shè)計(jì)者對(duì)算法不斷修正,導(dǎo)致后來(lái)的使用者不了解前期算法開發(fā)的歷程②TSAMADOS A,AGGARWAL N,COWLS J,et al.The ethics of algorithms:key problems and solutions[J/OL].AI&society,2021:1-16[2021-11-10].https://doi.org/10.1007/s00146-021-01154-8.。這類算法黑箱問(wèn)題很容易導(dǎo)致算法用戶處于信息不對(duì)稱中的劣勢(shì)地位。這一方面導(dǎo)致用戶知情權(quán)受損,由此降低用戶對(duì)算法決策結(jié)果的信任與遵從;另一方面也造成對(duì)算法決策問(wèn)責(zé)的困難。算法透明的意義在于既有利于監(jiān)督算法決策過(guò)程,實(shí)現(xiàn)算法操控者的可問(wèn)責(zé)性,又賦予用戶知情權(quán),以便于檢驗(yàn)或?qū)彶樗惴Q策結(jié)果的合理性③沈偉偉.算法透明原則的迷思——算法規(guī)制理論的批判[J].環(huán)球法律評(píng)論,2019(6):20-39.。雖然算法透明原則因其可行性仍存在諸多爭(zhēng)議,但是算法透明被普遍認(rèn)為是算法規(guī)制的重要維度。

      (二)公平

      公平即非歧視與無(wú)偏見?,F(xiàn)代社會(huì)在政治價(jià)值上強(qiáng)調(diào)規(guī)則面前人人平等,并以法律的形式反對(duì)歧視和偏見,公平是善治的基本目標(biāo)之一。然而,在特定情景下,數(shù)據(jù)驅(qū)動(dòng)的智能算法可以通過(guò)隱形、難以察覺的方式潛移默化地實(shí)現(xiàn)系統(tǒng)化、靜悄悄的歧視。既有研究發(fā)現(xiàn),算法正在基于年齡、性別、種族、收入等社會(huì)特征對(duì)特定群體實(shí)施系統(tǒng)性的、可重復(fù)的不公正對(duì)待④劉友華.算法偏見及其規(guī)制路徑研究[J].法學(xué)雜志,2019(6):55-66.,挑戰(zhàn)著作為當(dāng)代權(quán)利體系基礎(chǔ)之一的平等權(quán)⑤崔靖梓.算法歧視挑戰(zhàn)下平等權(quán)保護(hù)的危機(jī)與應(yīng)對(duì)[J].法律科學(xué)(西北政法大學(xué)學(xué)報(bào)),2019(3):29-42.。譬如,卡內(nèi)基·梅隆大學(xué)的研究人員做了一項(xiàng)實(shí)驗(yàn),他們模擬谷歌用戶訪問(wèn)就業(yè)網(wǎng)站,然后統(tǒng)計(jì)了谷歌推送的廣告,結(jié)果發(fā)現(xiàn)男性組收到谷歌“20 萬(wàn)美元+”職位廣告推送達(dá)1852次,而女性組只有318次⑥MILLER C C.When algorithms discriminate[EB/OL].(2015-07-09)[2021-12-30].https://www.nytimes.com/2015/07/10/upshot/when-algorithms-discriminate.html.。亞馬遜以10年中收到的簡(jiǎn)歷為訓(xùn)練數(shù)據(jù)集開發(fā)簡(jiǎn)歷篩選算法,因?yàn)橛?xùn)練數(shù)據(jù)有偏,簡(jiǎn)歷大多來(lái)自男性,導(dǎo)致根據(jù)訓(xùn)練出來(lái)的算法,所有帶有“女性”相關(guān)特征的簡(jiǎn)歷均受到懲罰⑦DASTIN J.Amazon scraps secret AI recruiting tool that showed bias against women[EB/OL].(2018-10-11)[2021-12-30].https://www.reuters.com/article/us-amazon-com-jobs-automation-insight-idUSKCN1MK08G.。這是就業(yè)場(chǎng)景下算法系統(tǒng)“偏見進(jìn),偏見出”的典型案例。除了就業(yè)歧視,“評(píng)分社會(huì)”⑧CITRON D K,PASQUALE F.The scored society:due process for automated predictions[J].Washington law review,2014(1):1-33.中的算法歧視屢見不鮮,譬如價(jià)格歧視、信用歧視、教育歧視等。造成算法決策結(jié)果不公平與算法歧視的原因很多,包括數(shù)據(jù)維度權(quán)重不一、使用有偏的訓(xùn)練數(shù)據(jù)集、將模型誤用于特定場(chǎng)景、研發(fā)者存在的偏見、企業(yè)的逐利動(dòng)機(jī),甚至算法所執(zhí)行的自動(dòng)分類本身就是一種直接的歧視①LEPRI B,OLIVER N,LETOUZé E,et al.Fair,transparent,and accountable algorithmic decision-making processes[J].Philosophy&technology,2018(4):611-627.②汪懷君,汝緒華.人工智能算法歧視及其治理[J].科學(xué)技術(shù)哲學(xué)研究,2020(2):101-106.。算法歧視損害了公眾在就業(yè)機(jī)會(huì)、工作待遇、享受公共品等方面的公平機(jī)會(huì)和合法權(quán)益,算法“殺熟”更是凸顯了算法歧視直接損害個(gè)體經(jīng)濟(jì)權(quán)益③劉友華.算法偏見及其規(guī)制路徑研究[J].法學(xué)雜志,2019(6):55-66.。隨著大數(shù)據(jù)“殺熟”成為流行詞匯,算法歧視被廣泛視為智能時(shí)代算法規(guī)制所要破解的基本問(wèn)題。

      (三)可控

      20世紀(jì)60年代,馬爾庫(kù)塞曾批判現(xiàn)代新技術(shù)形態(tài)對(duì)人進(jìn)行操縱與控制,半個(gè)世紀(jì)之后,科學(xué)史學(xué)家戴森諷刺道:“臉書決定了我們是誰(shuí),亞馬遜決定了我們想要什么,谷歌決定了我們?cè)趺聪搿!雹芘了箍鼱?黑箱社會(huì)[M].趙亞男,譯.北京:中信出版社,2015:22.當(dāng)前自動(dòng)化智能化決策系統(tǒng)業(yè)已廣泛進(jìn)入經(jīng)濟(jì)交易和公共治理等場(chǎng)景,在金融、就業(yè)、新聞、政治、健康和公共服務(wù)領(lǐng)域,越來(lái)越多的預(yù)測(cè)模型潛移默化地影響著人們的命運(yùn),干預(yù)甚至控制著個(gè)體的選擇。當(dāng)算法結(jié)合了公共權(quán)力與資本權(quán)力,對(duì)社會(huì)施加系統(tǒng)化、高精度的控制與規(guī)訓(xùn),很容易使個(gè)人在社會(huì)認(rèn)知、社會(huì)流動(dòng)、生產(chǎn)勞動(dòng)等方面淪為算法的“囚徒”⑤彭蘭.算法社會(huì)的“囚徒”風(fēng)險(xiǎn)[J].全球傳媒學(xué)刊,2021(1):3-18.。首先,如果將互聯(lián)網(wǎng)媒體作為認(rèn)知世界的工具,用戶所獲取的信息就可能被這些媒體的個(gè)性化算法過(guò)濾,導(dǎo)致用戶對(duì)現(xiàn)實(shí)世界的多樣性和復(fù)雜性的簡(jiǎn)化、片面理解,從而限制個(gè)體的判斷和決策力。上文提及的“信息繭房”和“致癮性推薦”即是互聯(lián)網(wǎng)媒體運(yùn)用算法干預(yù)和控制用戶信息選擇的重要機(jī)制。其次,算法亦有可能固化社會(huì)分層,通過(guò)對(duì)個(gè)體施加結(jié)構(gòu)性的歧視,影響個(gè)體獲得稀缺資源和向上流動(dòng)的機(jī)會(huì)。尤班克斯在《自動(dòng)不平等:高科技如何鎖定、管控和懲罰窮人》一書中指出,公共服務(wù)項(xiàng)目中的資格自動(dòng)認(rèn)證系統(tǒng)、排名算法和風(fēng)險(xiǎn)預(yù)測(cè)模型,構(gòu)成一張控制、操縱與懲罰之網(wǎng),對(duì)人們進(jìn)行精準(zhǔn)畫像與分類服務(wù),并且通過(guò)不公正的信息反饋系統(tǒng),將邊緣化群體特別是弱勢(shì)群體排斥出去。個(gè)體一旦被算法鎖定,就會(huì)面臨更密集的受監(jiān)測(cè)和追蹤的負(fù)擔(dān),甚至?xí)恋K其申請(qǐng)維系生計(jì)所必需的公共資源,被打入“數(shù)字濟(jì)貧院”⑥尤班克斯.自動(dòng)不平等:高科技如何鎖定、管控和懲罰窮人[M].李明倩,譯.北京:商務(wù)印書館,2021:1-10.。最后,在生產(chǎn)勞動(dòng)方面,以外賣騎手的勞動(dòng)控制為例,平臺(tái)算法持續(xù)地收集和分析騎手?jǐn)?shù)據(jù),并根據(jù)分析結(jié)果建立起井然有序的勞動(dòng)秩序,實(shí)現(xiàn)了資本對(duì)勞動(dòng)的精準(zhǔn)控制⑦陳龍.“數(shù)字控制”下的勞動(dòng)秩序——外賣騎手的勞動(dòng)控制研究[J].社會(huì)學(xué)研究,2020(6):113-135,244.。因此,如何擺脫算法的支配、擁有使用算法的自主性,對(duì)處于數(shù)字化生存時(shí)代的人們,特別是算法身份意義上的弱勢(shì)群體,是一項(xiàng)嚴(yán)峻挑戰(zhàn)。

      (四)安全

      安全原則約束著算法權(quán)力,保障算法使用者的人身、信息與財(cái)產(chǎn)安全不受智能算法威脅。隨著智能算法在社會(huì)生活、生產(chǎn)交易和公共治理中的廣泛應(yīng)用,算法系統(tǒng)的設(shè)計(jì)安全隱患時(shí)有暴露。譬如,自動(dòng)駕駛汽車作為能夠綜合體現(xiàn)人工智能發(fā)展高度的復(fù)雜智能系統(tǒng),因算法缺陷而引起的安全事故近年來(lái)時(shí)有發(fā)生。可見,復(fù)雜智能系統(tǒng)的本體安全尚未能完全實(shí)現(xiàn),仍然存在一定的脆弱性和不確定性。除了確保自身安全,智能算法系統(tǒng)還需要具備防范外部威脅的技術(shù)韌性。由于智能系統(tǒng)所處環(huán)境的開放性,在從輸入到輸出的過(guò)程中都有可能遭遇外部攻擊⑧陳宇飛,沈超,王騫,等.人工智能系統(tǒng)安全與隱私風(fēng)險(xiǎn)[J].計(jì)算機(jī)研究與發(fā)展,2019(10):2135-2150.。譬如,亞馬遜某款智能語(yǔ)音助手在維基百科上讀取了經(jīng)過(guò)惡意編輯的文本后,對(duì)使用者進(jìn)行危險(xiǎn)行為誘導(dǎo),甚至建議使用者自殺①CROWLEY J.Woman says Amazon’s Alexa told her to stab herself in the heart for‘the greater good’[EB/OL].(2019-12-24)[2022-01-10].https://www.newsweek.com/amazon-echo-tells-uk-woman-stab-herself-1479074.。安全原則是一項(xiàng)底線原則,它要求算法系統(tǒng)是安全可靠、不作惡的,其基本原則是不能傷害人類。此外,對(duì)于眾多算法產(chǎn)品和算法服務(wù)的用戶而言,個(gè)人隱私保護(hù)和數(shù)據(jù)安全成為當(dāng)下安全感的重要構(gòu)成。在當(dāng)前技術(shù)環(huán)境下,用戶經(jīng)常面臨著個(gè)人隱私或個(gè)人信息一攬子授權(quán)、網(wǎng)站強(qiáng)行留痕、軟件內(nèi)置后門程序、APP 超范圍收集用戶信息等問(wèn)題,嚴(yán)重威脅著個(gè)人隱私保護(hù)和數(shù)據(jù)安全。盡管利用這些數(shù)據(jù),智能算法可以對(duì)用戶進(jìn)行深度計(jì)算,推理用戶的興趣、偏好、需求等,以此向用戶精準(zhǔn)推送新聞、商品與服務(wù),但是對(duì)此類數(shù)據(jù)的過(guò)度收集與濫用不僅侵犯了用戶的數(shù)據(jù)權(quán)利,而且有可能對(duì)社會(huì)秩序和公共安全造成潛在威脅。因此,智能時(shí)代算法使用如何實(shí)現(xiàn)從個(gè)體安全到公共安全、從本體安全到環(huán)境安全的底線保障就成為算法治理的基本維度。

      五、治理路徑:“技術(shù)—社群”的雙重約束

      算法在一定程度上繼承并放大了人類社會(huì)固有的不透明、不公平、操縱與安全風(fēng)險(xiǎn)②郭毅.“人吃人”:算法社會(huì)的文化邏輯及其倫理風(fēng)險(xiǎn)[J].中國(guó)圖書評(píng)論,2021(9):45-53.,相應(yīng)地,約束算法權(quán)力以保障用戶的權(quán)利,應(yīng)著力于技術(shù)改進(jìn)與社群約束兩條路徑,以有效防范算法“黑箱”、算法歧視、算法支配所帶來(lái)的風(fēng)險(xiǎn),以及保障用戶使用算法的安全性。

      (一)算法計(jì)算的可解釋性

      算法透明的呼聲一向很高,但是絕對(duì)的透明或簡(jiǎn)單公開算法源代碼的可操作性不高。首先,因技術(shù)固有的復(fù)雜性而導(dǎo)致的算法“黑箱”當(dāng)前還無(wú)法透明,解決這一問(wèn)題有賴于技術(shù)的突破性進(jìn)展。其次,對(duì)于因平臺(tái)不公開算法特征及運(yùn)算過(guò)程而導(dǎo)致的算法“黑箱”,要求其透明雖然可以為用戶提供關(guān)鍵信息,但也會(huì)導(dǎo)致用戶信息過(guò)載。并且,算法屬于科技企業(yè)的核心技術(shù),強(qiáng)制算法公開會(huì)導(dǎo)致引發(fā)業(yè)界效仿、損害科技企業(yè)創(chuàng)新、引發(fā)動(dòng)機(jī)不良者操縱等問(wèn)題③徐鳳.人工智能算法黑箱的法律規(guī)制——以智能投顧為例展開[J].東方法學(xué),2019(6):78-86.。譬如,谷歌曾經(jīng)公開著名的PageRank 網(wǎng)頁(yè)排名算法的排序標(biāo)準(zhǔn),但是一些惡意網(wǎng)站卻利用谷歌披露的算法與其博弈,操控搜索結(jié)果排名,導(dǎo)致谷歌不得不對(duì)排名算法進(jìn)行保密,谷歌搜索服務(wù)只得又成為一項(xiàng)“黑箱”業(yè)務(wù)④沈偉偉.算法透明原則的迷思——算法規(guī)制理論的批判[J].環(huán)球法律評(píng)論,2019(6):20-39.。谷歌搜索引擎的案例非常經(jīng)典地展示了“黑箱”文化的演變過(guò)程⑤帕斯奎爾.黑箱社會(huì)[M].趙亞男,譯.北京:中信出版社,2015:92.。這就是所謂的“透明性悖論”,即透明性在增進(jìn)信息對(duì)稱性與保障知情權(quán)的同時(shí),也可能引發(fā)某些非預(yù)期的負(fù)面后果。在此情況下,提高算法的可解釋性被視為增進(jìn)算法透明的有效路徑。近年來(lái),可解釋的人工智能(explainable artificial intelligence,XAI)已經(jīng)成為計(jì)算科學(xué)研究的前沿主題。XAI指所有能夠幫助人類理解人工智能模型行為的技術(shù)叢,使用解釋作為模型與人類之間的接口,使模型的運(yùn)轉(zhuǎn)能夠被人類簡(jiǎn)單、清晰地理解⑥孔祥維,唐鑫澤,王子明.人工智能決策可解釋性的研究綜述[J].系統(tǒng)工程理論與實(shí)踐,2021(2):524-536.。XAI是打開算法決策黑箱的可行路徑,向用戶解釋算法決策的依據(jù)和原因,保障用戶的知情權(quán),提高用戶對(duì)算法系統(tǒng)的認(rèn)知和信任。一些大型算法公司已經(jīng)開始介入XAI實(shí)踐,通過(guò)提供相關(guān)開源工具箱來(lái)幫助開發(fā)者和普通公眾理解機(jī)器學(xué)習(xí)算法。例如,IBM 的AI explainability 360 幫助使用者了解機(jī)器學(xué)習(xí)算法的推理、規(guī)則以及事后解釋⑦M(jìn)OJSILOVIC A.Introducing AI explainability 360[EB/OL].(2019-08-08)[2022-01-10].https://www.ibm.com/blogs/research/2019/08/ai-explainability-360/.;谷歌的What-if tool 幫助人們用最少量的代碼來(lái)探索、可視化以及分析機(jī)器學(xué)習(xí)系統(tǒng)⑧WEXLER J,PUSHKARNA M,BOLUKBASI T,et al.The what-if tool:Interactive probing of machine learning models[J].IEEE transactions on visualization and computer graphics,2019(1):56-65.。

      (二)算法應(yīng)用的公平性

      面對(duì)智能算法決策在日常消費(fèi)、勞動(dòng)雇傭、政府監(jiān)管和司法裁定等領(lǐng)域發(fā)揮的作用越來(lái)越大,算法歧視或偏見會(huì)對(duì)特定社會(huì)群體造成實(shí)質(zhì)性損害,因此約束算法歧視成為必然選擇。要限制算法歧視,除了數(shù)據(jù)審計(jì)和算法審計(jì)等技術(shù)進(jìn)路,更重要的是將傳統(tǒng)的反歧視法律規(guī)制有效地延伸到智能算法。譬如,美國(guó)《算法責(zé)任法案》認(rèn)為應(yīng)對(duì)年收入超過(guò)5000萬(wàn)美元或擁有超過(guò)100萬(wàn)消費(fèi)者數(shù)據(jù)的公司進(jìn)行算法影響評(píng)估,試圖最小化機(jī)器學(xué)習(xí)系統(tǒng)的算法偏見。在伊利諾伊州,《人工智能視頻面試法》規(guī)定雇主在使用人工智能分析視頻面試時(shí),需向申請(qǐng)人解釋人工智能的工作方式及其使用了哪些特征來(lái)評(píng)估申請(qǐng)人,雇主要事先征得申請(qǐng)人同意,以及依申請(qǐng)人要求在30 天內(nèi)銷毀視頻。歐盟《通用數(shù)據(jù)保護(hù)條例》實(shí)行“數(shù)據(jù)清潔”原則,要求在自動(dòng)化決策中移除種族、性別、基因等敏感數(shù)據(jù),以防止對(duì)特殊群體的歧視①章小杉.人工智能算法歧視的法律規(guī)制:歐美經(jīng)驗(yàn)與中國(guó)路徑[J].華東理工大學(xué)學(xué)報(bào)(社會(huì)科學(xué)版),2019(6):63-72.。加拿大《自動(dòng)化決策指令》要求政府部門在使用算法決策系統(tǒng)時(shí),就算法決策對(duì)個(gè)體與群體的權(quán)利、健康與福祉、經(jīng)濟(jì)利益以及生態(tài)系統(tǒng)的可持續(xù)性影響進(jìn)行評(píng)估。日本《改善指定數(shù)字平臺(tái)上的交易的透明度和公平性法》和韓國(guó)《在線平臺(tái)公平交易法》均致力于提高數(shù)字平臺(tái)交易的透明性和公平性。在我國(guó),新落地的《個(gè)人信息保護(hù)法》禁止大數(shù)據(jù)“殺熟”的差異化定價(jià)行為,要求自動(dòng)化決策的透明度,保證決策結(jié)果公平公正。另外,規(guī)制算法的社群路徑還包括算法公司的自我規(guī)制和科技社群的行業(yè)自律。譬如,谷歌倡導(dǎo)監(jiān)督學(xué)習(xí)中的“機(jī)會(huì)均等”原則,以審查與防止基于種族、性別、殘疾或宗教等敏感屬性的歧視②HARDT M.Equality of opportunity in machine learning[EB/OL].(2016-10-07)[2022-01-10].https://ai.googleblog.com/2016/10/equality-of-opportunity-in-machine.html.。

      (三)個(gè)體對(duì)算法的自主性

      算法應(yīng)用產(chǎn)生了人困于算法的異化現(xiàn)象,反映了人的自主性和獨(dú)立性受到嚴(yán)重影響③張凌寒.自動(dòng)化決策與人的主體性[J].人大法律評(píng)論,2020(2):20-48.。自主性要求用戶能夠擺脫算法控制,人的決策應(yīng)優(yōu)先于算法決策,而非被算法支配。這意味著讓算法回歸工具性角色,強(qiáng)化人對(duì)算法的主體地位,保護(hù)使用者免于淪為算法的奴隸。在算法應(yīng)用實(shí)踐中,算法可控是指“人們可以有效規(guī)制算法或者自主決定算法是否繼續(xù)執(zhí)行”④袁康.可信算法的法律規(guī)制[J].東方法學(xué),2021(3):5-21.。被算法計(jì)算的對(duì)象應(yīng)該有選擇的機(jī)會(huì),能夠不需要付出高昂代價(jià)就可以拒絕自動(dòng)化決策算法,擺脫算法的預(yù)測(cè)模型。為此,需要在機(jī)器學(xué)習(xí)的計(jì)算過(guò)程中引入人的意見和價(jià)值。譬如,近年來(lái)倡導(dǎo)的“人在環(huán)中”(human-in-theloop)的算法系統(tǒng)是一種結(jié)合了人類智能與機(jī)器智能的方案,允許用戶監(jiān)督與控制算法決策過(guò)程,調(diào)整或優(yōu)化算法決策的輸出。另外,一種增強(qiáng)用戶自主性的技術(shù)改進(jìn)路徑是,算法系統(tǒng)給被決策對(duì)象保留退出選項(xiàng)。就像飛行員能夠關(guān)閉自動(dòng)駕駛并重新獲得對(duì)飛機(jī)的完全控制一樣⑤FLORIDI L,COWLS J,BELTRAMETTI M,et al.AI4People—an ethical framework for a good AI society:opportunities,risks,principles,and recommendations[J].Minds and machines,2018(4):689-707.,科技公司的算法產(chǎn)品與服務(wù)需給使用者提供類似的選擇,譬如可以修改自己的標(biāo)簽、免于被畫像、可以關(guān)閉算法推薦服務(wù)等。同理,公共部門算法也不能憑借其數(shù)據(jù)收集與關(guān)聯(lián)優(yōu)勢(shì),對(duì)公眾進(jìn)行道德分類與社會(huì)控制。各種算法決策系統(tǒng)通過(guò)在不同程度上賦予用戶退出機(jī)制,還原人在決定自身事務(wù)上所享有的自主權(quán)利。

      (四)算法使用的安全性

      為識(shí)別和防范算法系統(tǒng)的安全風(fēng)險(xiǎn),全球主要國(guó)家從戰(zhàn)略、技術(shù)標(biāo)準(zhǔn)、法律法規(guī)等方面尋求對(duì)策。例如,美國(guó)《國(guó)家人工智能研發(fā)戰(zhàn)略計(jì)劃:2019 更新版》將確保人工智能系統(tǒng)安全可靠列為一項(xiàng)核心戰(zhàn)略,歐盟《可信賴人工智能倫理指南》把技術(shù)穩(wěn)健性和安全性視為可信的人工智能系統(tǒng)的關(guān)鍵要求。對(duì)人工智能系統(tǒng)進(jìn)行安全監(jiān)管的法律法規(guī)經(jīng)常出現(xiàn)于具體領(lǐng)域。譬如,在自動(dòng)駕駛領(lǐng)域,美國(guó)制定了《聯(lián)邦自動(dòng)駕駛汽車政策》《確保車輛演化的未來(lái)部署和研究安全法案》,將自動(dòng)駛汽車安全監(jiān)管納入法律框架,對(duì)自動(dòng)駕駛系統(tǒng)提出安全規(guī)范。此外,在個(gè)人隱私保護(hù)及數(shù)據(jù)安全方面,針對(duì)算法驅(qū)動(dòng)的侵犯與濫用個(gè)人信息行為,傳統(tǒng)的規(guī)制思路是個(gè)人數(shù)據(jù)賦權(quán),即通過(guò)賦予個(gè)體一系列數(shù)據(jù)權(quán)利來(lái)強(qiáng)化個(gè)體對(duì)自身數(shù)據(jù)的控制,數(shù)據(jù)控制者與處理者則承擔(dān)維護(hù)個(gè)人數(shù)據(jù)安全的責(zé)任①丁曉東.論算法的法律規(guī)制[J].中國(guó)社會(huì)科學(xué),2020(12):138-159,203.。譬如,歐盟《通用數(shù)據(jù)保護(hù)條例》旨在讓數(shù)據(jù)主體重新獲得對(duì)個(gè)人數(shù)據(jù)的控制,其對(duì)個(gè)人數(shù)據(jù)的界定涵蓋了個(gè)人身份、生物特征、電子記錄等數(shù)據(jù),規(guī)定了個(gè)人數(shù)據(jù)收集應(yīng)當(dāng)具有具體、清晰、正當(dāng)?shù)哪康?,要求?shù)據(jù)采集者通過(guò)恰當(dāng)?shù)姆椒ǜ嬷獢?shù)據(jù)主體,賦予數(shù)據(jù)主體被遺忘權(quán)、限制處理權(quán)、可攜帶權(quán)等數(shù)據(jù)權(quán)利。美國(guó)加州《加州隱私權(quán)法案》規(guī)定企業(yè)智能系統(tǒng)要在合理、必要、具有特定目的的條件下收集、處理、使用、存儲(chǔ)個(gè)人信息。我國(guó)《個(gè)人信息保護(hù)法》規(guī)定了個(gè)人信息收集應(yīng)僅限于處理目的的最小范圍,不得過(guò)度收集個(gè)人信息,且全面規(guī)定了個(gè)人在個(gè)人信息處理活動(dòng)中享有決定權(quán)、限制權(quán)、拒絕處理權(quán)等權(quán)利?!秱€(gè)人信息保護(hù)法》出臺(tái)后,工業(yè)和信息化部等部門下架一批超范圍、超頻次強(qiáng)制收集非必要個(gè)人信息的App。除了法律規(guī)制,還應(yīng)向社會(huì)普及個(gè)人數(shù)據(jù)被竊取、泄露、濫用的潛在風(fēng)險(xiǎn),讓用戶在享受智能化所帶來(lái)的便利性和精準(zhǔn)性的同時(shí),具備算法安全風(fēng)險(xiǎn)意識(shí)與個(gè)人數(shù)據(jù)權(quán)利意識(shí)。

      六、結(jié)論與討論

      在人工智能算法蓬勃發(fā)展的今天,學(xué)界從多個(gè)視角圍繞算法倫理及其風(fēng)險(xiǎn)治理形成了廣泛討論??梢哉f(shuō),算法應(yīng)用應(yīng)該在提高效率和合乎倫理這兩個(gè)目標(biāo)之間取得平衡已經(jīng)成為普遍共識(shí),而自主、透明、公平、安全也被視為算法治理的四項(xiàng)基本倫理原則。本文從算法治理的價(jià)值和路徑兩個(gè)維度提出了一個(gè)算法治理的分析框架。算法風(fēng)險(xiǎn)反映了算法權(quán)力與用戶權(quán)利二者之間關(guān)系的失衡。換言之,算法權(quán)力無(wú)序擴(kuò)張以及用戶權(quán)利不受保護(hù),導(dǎo)致算法控制、算法黑箱、算法歧視以及算法安全風(fēng)險(xiǎn)。因此,算法治理的價(jià)值是通過(guò)制定與踐行算法倫理原則,以達(dá)到約束算法權(quán)力與保障用戶權(quán)利的目的。相應(yīng)地,算法風(fēng)險(xiǎn)的治理路徑包括技術(shù)內(nèi)生路徑與社群外生路徑。

      在此基礎(chǔ)上,本文討論的四個(gè)倫理原則在不同程度上都可以通過(guò)技術(shù)或社群路徑來(lái)實(shí)現(xiàn)。譬如,算法安全風(fēng)險(xiǎn)治理既要依賴賦權(quán)與監(jiān)管等社群約束,也需要經(jīng)由優(yōu)化深度學(xué)習(xí)和提升算法韌性來(lái)達(dá)成?;谧灾?、透明、公平和安全四項(xiàng)倫理原則,率先進(jìn)入智能社會(huì)的美國(guó)、歐洲以及日韓等國(guó)正在探索算法治理的多樣化路徑,作為算法大國(guó)的我國(guó)也是全球算法治理的開拓者。本文分析表明,現(xiàn)階段算法治理正在匯聚多元治理主體,未來(lái)可進(jìn)一步基于“權(quán)力—權(quán)利”的治理價(jià)值和“技術(shù)—社群”的治理路徑構(gòu)建算法的多元治理框架。首先,隨著國(guó)家層面硬性法規(guī)出臺(tái),應(yīng)加快推進(jìn)算法監(jiān)管體系建設(shè)。國(guó)家互聯(lián)網(wǎng)信息辦公室等監(jiān)管部門已經(jīng)就算法推薦管理出臺(tái)規(guī)定,并宣布利用三年左右時(shí)間建立起算法綜合治理體系,以保護(hù)公民的合法權(quán)益、維護(hù)國(guó)家安全和社會(huì)公共利益。針對(duì)各類算法活動(dòng),相關(guān)部門要加快探索算法測(cè)試、評(píng)估與審計(jì)的啟動(dòng)條件和技術(shù)標(biāo)準(zhǔn),將監(jiān)管目光直接投向算法的設(shè)計(jì)與運(yùn)行。其次,科技企業(yè)作為算法研發(fā)、部署與推廣的首要主體,應(yīng)主動(dòng)承擔(dān)主體責(zé)任,成立算法倫理部門,建立算法安全責(zé)任制度、科技倫理定期審查和結(jié)果披露制度,強(qiáng)化科技企業(yè)的倫理責(zé)任意識(shí)。再次,大力開發(fā)第三方科技社群的算法治理作用,制定行業(yè)算法倫理規(guī)范推進(jìn)行業(yè)自律,依托專業(yè)力量就平臺(tái)算法風(fēng)險(xiǎn)進(jìn)行評(píng)估,測(cè)試算法的透明度、識(shí)別算法是否存在歧視與損害性后果。探索算法審計(jì)報(bào)告向社會(huì)公布制度,并與平臺(tái)信用掛鉤,倒逼平臺(tái)改進(jìn)算法。最后,通過(guò)政府、科技企業(yè)、科技社群和社會(huì)參與構(gòu)建協(xié)同治理體系,使得全社會(huì)在發(fā)揮算法紅利、用算法進(jìn)行治理的同時(shí),充分考慮個(gè)人權(quán)利和公共利益,對(duì)算法風(fēng)險(xiǎn)進(jìn)行識(shí)別和防范,實(shí)現(xiàn)對(duì)算法的治理,從而構(gòu)建一個(gè)以人為本、公平公正、公開透明、安全可靠的算法治理生態(tài)。

      猜你喜歡
      倫理人工智能算法
      《心之死》的趣味與倫理焦慮
      護(hù)生眼中的倫理修養(yǎng)
      活力(2019年19期)2020-01-06 07:37:00
      基于MapReduce的改進(jìn)Eclat算法
      Travellng thg World Full—time for Rree
      2019:人工智能
      商界(2019年12期)2019-01-03 06:59:05
      進(jìn)位加法的兩種算法
      人工智能與就業(yè)
      數(shù)讀人工智能
      小康(2017年16期)2017-06-07 09:00:59
      下一幕,人工智能!
      一種改進(jìn)的整周模糊度去相關(guān)算法
      丹东市| 方城县| 衢州市| 荆门市| 望谟县| 淮南市| 莒南县| 西乡县| 寿阳县| 桐庐县| 宜宾县| 囊谦县| 黄石市| 安达市| 苏尼特右旗| 桓仁| 建水县| 泾阳县| 肃南| 吴忠市| 囊谦县| 寻乌县| 莲花县| 高安市| 蒲城县| 通海县| 安阳县| 红河县| 新源县| 清丰县| 枣强县| 靖宇县| 应城市| 莱州市| 稻城县| 中牟县| 阜阳市| 唐山市| 新巴尔虎左旗| 开平市| 娱乐|