• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      公共治理中的算法濫用、赤字風險及其因應理路

      2025-03-08 00:00:00劉祖兵
      理論探索 2025年1期
      關鍵詞:公共治理

      〔摘要〕面對人工智能參與公共治理出現的赤字風險,亟需探索其復歸理路。算法參與公共治理行為,具有“黑箱”屬性、價值偏見屬性和效率偏頗屬性。參與公共治理的算法濫用,造成的治理赤字主要表現為:“算法利維坦”破壞人類社會民主建構,算法參與社會公共決策誘發(fā)公平性危機,算法監(jiān)控常態(tài)化使公眾隱私遭受侵犯。面對算法濫用及其帶來的赤字風險,需要構建算法民主制度以限制“算法利維坦”,完善算法披露制度以推動算法公共決策公平,強化算法綜合治理機制以保護公眾隱私。

      〔關鍵詞〕公共治理,算法濫用,價值偏見,赤字風險

      〔中圖分類號〕D926 〔文獻標識碼〕A 〔文章編號〕1004-4175(2025)01-0069-09

      自1956年達特茅斯會議首次提出人工智能的歷史命題以來,作為其技術核心的算法業(yè)已實現指數級迭代。算法不僅助力傳統(tǒng)工商業(yè)實現數字化轉型,亦深度賦能人類公共治理實踐。特別是以ChatGPT為代表的生成式人工智能問世以來,人類社會走向全面實現算法應用。這種兼具創(chuàng)造性與破壞力于一身的現代科學技術既推動著生產關系、國家治理和世界格局發(fā)生變革,也給人類治理帶來了新的風險——算法公共治理赤字,即社會制度供給明顯無法滿足人類公共治理的現實需求,致使在社會層面出現制度代差,算法的快速發(fā)展遠遠滯后于對其治理的現實期望。鑒于此,國際社會正積極應對算法公共治理赤字,2024年3月,聯合國大會通過首個關于算法公共治理的全球性決議《抓住安全、可靠和值得信賴的人工智能系統(tǒng)帶來的機遇,促進可持續(xù)發(fā)展》(Seizing the Opportunities of Safe,Secure and Trustworthy Artificial Intelligence Systems for Sustainable Development),強調安全、可靠和值得信賴的人工智能系統(tǒng)的重要性,呼吁成員國制定支持相關政府監(jiān)管和公共治理辦法與框架,促進、實現人工智能系統(tǒng)的負責任使用〔1〕。2024年中國在全球人工智能大會上發(fā)布《人工智能全球治理上海宣言2024》,號召國際社會積極應對算法公共治理赤字,為人類社會發(fā)展營造安全、友好的環(huán)境〔2〕。至此,算法公共治理被提上國際議程。在這一背景下,本文從算法治理赤字風險切入,探索我國面對算法公共治理赤字的因應理路,以期實現算法向善和人類社會可持續(xù)發(fā)展。

      一、偏見與越位:參與公共治理的算法

      自第三次人工智能浪潮興起以來,算法被廣泛應用于人類公共治理的各類場景當中,如公共交通安全治理、司法犯罪預測和算法平臺監(jiān)管等。得益于效率優(yōu)勢,算法正深度賦能人類的各個生活領域,大大提升了人類文明進步的節(jié)奏。但算法參與公共治理的行為特性也成為社會治理赤字難以回避的弊因,使人類不得不反思其蘊含的技術倫理問題。

      (一)算法參與公共治理行為的“黑箱”屬性

      算法參與公共治理的過程是基于自身的決策邏輯和大數據展開的,使算法公共決策行為具有“黑箱”屬性,表現為算法參與公共治理行為規(guī)則的不可知和算法公共決策結果的難以理解,使社會公眾對社會決策的正當性產生質疑,也加重了人類對算法公共決策公平的擔憂。

      1.算法參與公共治理的行為規(guī)則不透明。算法行為規(guī)則的透明性指算法模型內嵌的計算規(guī)則是能為社會公眾所理解的,由此推動算法公共決策具備可理解性〔3〕。反言之,算法行為規(guī)則模糊不清將導致算法公共決策難以被公眾理解。算法行為規(guī)則的不透明,又被稱為算法“黑匣子”或算法“黑箱”,它肇始于算法技術的復雜性與算法設計者的倫理偏見〔4〕。算法透明賦予算法受眾認知能力,使他們能夠了解算法賴以支撐的數據及算法如何使用數據,即讓公眾能理解算法基于數據決策的行為邏輯。算法行為透明是賦予算法受眾以算法認知能力的前提,它賦予用戶知曉數據如何被處理的知情權,使用戶能理解數據在大模型中如何被使用、算法行為如何產生以及算法公共決策是如何作出的。技術的持續(xù)進步亦加劇了算法行為規(guī)則的不透明性。一方面,大模型功能的完善使算法行為規(guī)則變得復雜化。隨著大模型技術的持續(xù)進步,道德算法、進化算法和遺傳算法構成了大模型的底層,它們是控制算法行為和進化的關鍵技術模塊,隨著技術的持續(xù)復雜化,算法的“黑箱”屬性也隨之加深〔5〕。另一方面,深度學習使算法行為規(guī)則變得不可知。深度學習使大模型具備強大的數據分析能力,它通過創(chuàng)建和修改規(guī)則來對海量的數據進行批量分類,變更原始數據結構,從而持續(xù)反向“浸潤”自身〔6〕,使得數據種類變得多元化,這也讓算法進化的方向變得不可知,算法行為規(guī)則的透明性隨之惡化。

      2.算法公共決策結果難以被理解。算法行為邏輯不透明使得社會公眾質疑運行結果的正當性。從數據層面看,用于“投喂”算法的數據常常是具有偏見性的,這就加劇了公眾理解算法公共決策的難度。數據“投喂”規(guī)則的不透明導致算法受眾對算法行為本身及行為主體如何使用算法缺乏明晰的認知,人們對算法參與公共治理行為方式的合理性及其結果的公正性感到擔憂〔7〕。從算法層面看,一方面,算法可能進行自主決策,致使算法決策代替人類決策且算法決策結果往往偏離人類預期。隨著算法的持續(xù)運行,進化中的算法邏輯可能偏離人類設計者的預期。算法代替人類進行公共治理決策,往往使人類決策成為在算法給定范圍內的有限決策,人類被排除在全部的決策可能之外,久而久之,算法逐漸從輔助決策的工具“晉格”為準決策主體,加重了人類對公共治理行為合理性的質疑。另一方面,算法自主修改預設決策參數,降低了社會公共決策的可信度。大數據喂養(yǎng)下的算法公共決策邏輯并非一成不變,相反,它伴隨著算法的持續(xù)完善而不斷微調。在深度學習能力的加持下,大模型會隨著數據的豐富而自主學習,決策權值也會自適應調整〔8〕。受限于算法素養(yǎng),算法公共決策過程常常會被人們視為“暗箱操作”:在大眾的樸素認知中,數據輸入與結果輸出之間的對應關系是可理解與可重復的,這才符合公平理念,然而,因為算法公共決策變量的變更,這種對應關系成為暫時的,因此,人們無法根據既往同類決策預判目標決策結果是否可重復,致使人們逐漸喪失算法信賴。

      (二)算法參與公共治理行為的價值偏見屬性

      算法具有特殊的社會屬性,即價值導向性,它承載著算法設計者和數據生產者的價值取向〔9〕。在此敘事下,算法公共決策即是由算法設計者和數據投喂者的價值觀操控下的價值判斷,最終算法會在公共決策中把這些價值判斷表現出來。

      1.算法規(guī)則承載人類價值偏見。算法規(guī)則是一種價值表達。其一,算法是經由有目的的人設計的,具有無法避免的價值負載〔10〕。算法設計者在撰寫代碼時,會將自身對世界的認知和態(tài)度滲透到算法邏輯當中,使算法成為表達其情感的出口,不存在價值中立的代碼表達。有的算法偏見是故意為之,即在算法設計過程中故意向算法邏輯中寫入“偏向”,算法在運行中反復出現這些偏見。如具有種族歧視的白種人設計者設計的算法常常對黑種人另眼相待,性別歧視者往往借助算法表達他們對女性社會地位的質疑;也有的是技術缺陷,即因為研發(fā)時社會一般技術水平的限制產生無法避免的價值偏見,算法在進行公眾決策中常常作出歧視行為。其二,社會治理者借助國家產業(yè)發(fā)展政策將價值偏見注入算法當中,使算法參與公共治理行為表達其價值需求。算法在技術中立的偽裝下傳達著社會治理者的一般價值導向,向公眾傳播具有公共權力性質的社會管理理念與價值觀。需要注意的是,隱藏在其后的是一定社會階層和社會團體的利益選擇,它們是具有明顯的價值負載性的。其三,算法的價值負載存在國別差異。西方人工智能技術強國憑借算法技術“正壓”(Positive Pressure)在算法技術由北向南輸出的過程中傳播西方普世價值觀,企圖在意識形態(tài)斗爭中贏得先機,實現其技術霸權的戰(zhàn)略目的。如,美國憑借其在人工智能領域的技術優(yōu)勢,在全球范圍內肆意擴張其算法霸權,意圖兜售西方意識形態(tài),不僅破壞輸入國社會的穩(wěn)定,亦對國家安全構成潛在威脅〔11〕。

      2.數據偏見“浸潤”算法偏見。數據承載著生產者的價值偏見。具有普適記錄能力的數據看似客觀中立,其實它無時無刻不在記錄著數據生產者對數據源的態(tài)度。從數字上看,數值的高低似乎是客觀冰冷的,但是它卻自始蘊含著人類情感溫度和價值偏見,表達的是生產者對世界的認同度或質疑感。因此,將記錄著價值偏見的數據“投喂”算法,大模型的原生價值模型會因為得到數據偏見的讓渡而逐漸發(fā)生價值變化。數據偏見會內化為算法的行為偏見,強化學習(Reinforcement Learning,RL)將這種由數據讓渡來的價值偏見固化為大模型本身的價值認知,使數據生產者和投喂者隱藏在數據中的價值取舍通過算法表達出來。易言之,數據中隱性的價值偏見經算法作出的公共決策外化為具有歧視特征的社會公共決策行為,繼而在社會層面產生歧視性的行為后果。

      數據偏見“浸潤”算法價值。一方面,算法在接受承載著偏見的數據后,它作出的公共治理決策是符合數據投喂者的價值選擇的,表達數據投喂者的偏見。如在美國Uber交通肇事案中,因為用于訓練自動駕駛的數據多記錄白色膚色,致使對黑色人種產生誤判,算法在顏色上的偏見即轉化為種族歧視。算法對黑皮膚的人檢測率要比白皮膚的人識別率低約五個百分點,因此算法發(fā)生功能性誤判:因在案發(fā)前未能精準識別橫穿馬路的黑皮膚行人,誘發(fā)了本起交通事故〔12〕。另一方面,數據也記錄算法本身的價值取舍。算法不僅接受數據的“浸潤”,它也會生產新數據。算法生產新數據的過程即是記錄算法偏見的過程,也即數據與算法進行雙向價值交換的過程。如ChatGPT根據用戶反饋,在文本語料庫中選擇數據生成新的文本答復用戶,該文本數據繼承了文本語料庫中的偏見,并再次記錄大模型的價值判斷,使算法價值與數據價值發(fā)生雙向“浸潤”??梢?,算法在接受數據偏見的“浸潤”后可能會偏離自身的價值預設,導致歧視性的行為結果,因此,數據和算法均具有被規(guī)制的現實必要性。

      (三)算法參與公共治理行為的效率偏頗屬性

      一般認為,效率是算法追求的第一目標。在尋求最優(yōu)的大前提下,算法將縮減求解時間作為實現效率的首要任務。被發(fā)明之初,算法即是用于解決簡單的田地分配問題,它被人類視為尋找“最優(yōu)解”的輔助工具。半導體材料的改進使算力得到大幅度的提高,算法在算力的加持下業(yè)已成為人類應對公共治理任務的重要手段。同時,“效率”也是算法內部各邏輯層的通用語言,高階算法模型不僅會進行成本性考慮,也會重點關注實現任務的效率因素。使用者的指令會被算法轉換為多種可供選擇的求解方案,它能讓人類在多條可選路徑下進行最具有效率性的選擇。易言之,效率導向性已成為大模型的首要技術原則,也是算法參與公共治理過程中奉行的重要法則。

      以平臺信息推動場景為例。算法的效率導向性表現在大模型如何迅速獲取用戶關注和訪問上,為了實現該目的,平臺運營者力圖提高新聞在信息傳輸雙方的匹配效率,即快速實現讓目標受眾訪問并轉發(fā)特定的新聞信息。算法的新聞傳播邏輯要求在實現最佳信息匹配的基礎上,完成新聞傳遞效率〔13〕。為此,平臺運營者竭力在信息接收主體之間建立新的動態(tài)關系,包括信息創(chuàng)設主體、算法運用主體和收受主體等〔14〕。因此,在此場景中,算法的首要任務是深度整合技術邏輯效率與新聞傳播效率,在不同主體間實現快速匹配。但是,算法的效率導向性可能會被過度放大,致使成為無視信息傳播適宜性的機器,即平臺運營者并不關注什么樣的信息適合傳送給目標受眾,反而直接思考哪些信息最能吸引受眾,即把最能將流量變現的信息推送給目標群體,無視信息的適宜性。

      無獨有偶,效率也是外賣平臺追求的首要目標。目前,“快”依然是外賣平臺評價騎手配送任務的關鍵指標,也是平臺使用者是否給出騎手好評的關鍵服務項。據此,在追求高配送效率的目標指引下,平臺、騎手和用戶三者形成了以快為連接點的生態(tài)圈,即用戶要求平臺送餐快——平臺要求騎手更快——外賣員越來越快——算法要求外賣員更快,這一由效率圈定的循環(huán)使得外賣騎手困在算法里不能自拔,如此,給外賣員帶來安全風險,也給社會綜合治理帶來巨大負擔。

      二、治理赤字:參與公共治理的算法濫用

      人工智能技術推動人類社會實現跨越式發(fā)展,社會存在技術之維,成為社會主體創(chuàng)造、占有技術并實現對社會秩序改造、重構的重要武器〔15〕269。當下,算法深度參與公共治理,將其重構為一種高度智能化和普遍化的公共治理模式。但是,人類常常濫用算法,致使公共治理發(fā)生赤字,致使社會民主、公平和公眾隱私遭到破壞。

      (一)“算法利維坦”破壞人類社會民主建構

      人類現代社會秩序實現良性運行,在一定程度上得益于算法的深度賦能。正因如此,人類對算法產生了強烈的依賴,但也因缺乏必要的制約而反受其約束。最終,算法逐漸成為存在于社會層面的“獨裁”勢力,嚴重破壞了人類社會民主建構。在構建公共治理秩序的過程中,算法逐漸成為規(guī)范人類社會秩序的決策性力量,人類自愿與其達成心理契約,甘愿臣服于算法的監(jiān)控之下。借此,算法逐漸滲透到國家機器當中,與國家政治力量聯合,成為影響國家權力運行的一股技術力量。算法嵌入社會政治體系,對政治權力和政治價值施力,在算法時代引發(fā)新的民主性風險,即“算法利維坦”(Algorithm Leviathan)。它使算法權力越位于人類民主建構之上,本應為社會公眾服務的算法對人類現有政治權力體系造成沖擊,使人類民主讓位于算法權力,算法的技術理性替代人類有限理性,人類民主機制或將面臨瓦解的風險。

      人類的政治生態(tài)建立在民主秩序的基礎上,有溫度的人的政治卻常常被算法的技術理性壓制。技術理性的越位,或將使人類政治道德面臨危機。由算法構建的社會治理體系遵循著一套利益標準,即算法資本奉承的逐利邏輯,它圈定技術理性的控制范圍。當下,人類對算法技術的依賴程度與日俱增,在該背景下,人類不得不按算法的技術理性去思考,致使原本公平正義、自由平等的民主價值與行為原則被標準化、程序化的數據規(guī)則和算法決策邏輯替代。它將所有的社會主體劃分為兩種類型,即符合算法價值的正常人與背離算法價值的非正常人,人類的社會行為評判逐漸交由算法權力代為行使。至此,人類民主的評價機制可能面臨瓦解的風險,屆時,一切政治自律或將成為技術理性評判下的價值選擇。

      憑借著普適記錄能力,數據和算法形成事實上的共生關系,共同推動技術理性向人類政治場域內滲透。算法蘊含著技術力量,它正日益嵌入人類政治民主與公共治理的進程中,孕育著“技術賦權”的社會風險。數據與算法基于無與倫比的效率優(yōu)勢已成為社會政治權力的重要組成部分,與此同時,技術理性替代民主機制在社會治理領域內躍躍欲試,誘發(fā)“算法寡頭”的統(tǒng)治風險。一般認為,算法利好于公共治理時,它通常會賦能民主制度,推動人類民主建構走向完善。當算法賦權與約束發(fā)生失衡時,也必然滋生“算法寡頭”統(tǒng)治風險,制約國家權力的運行和政治生態(tài)的穩(wěn)定。長此以往,未來可能出現這種現象,即算法在社會權力運行的各個部門里分散行使,政治權力卻在算法邏輯中集中運行,致使算法權力制約著人類政治民主。但是,有效的算法制約卻難以成為常態(tài)化機制,公共治理需要算法又必須時刻提防算法。

      (二)算法參與社會公共決策誘發(fā)公平性危機

      算法在偏見數據的“浸潤”下作出歧視性的治理決策,誘發(fā)社會歧視風險?!癇ias in,bias out”(偏見輸入,偏見輸出),即“投喂”算法的數據是“夾帶”偏見的,那么它輸出的結果必然具有偏見性。一般認為,數據的客觀性多指其記錄數據源的行為是客觀的,而非特指其價值中立。當這些非中立的數據被用于訓練算法時,價值負載會從數據端過渡給算法。算法基于數據的投喂,不斷朝著投喂者期待的方面進化,使算法邏輯的每個節(jié)點都成為生產者期待的價值表達。種族歧視即是算法參與公共治理的典型風險,也是西方社會由來已久的公共治理難題。美國警察局在一款名為Compass的“預測警務”系統(tǒng)中因受到承載種族歧視的數據“浸潤”,該系統(tǒng)的預測結果顯示黑種人實施犯罪行為的概率為白種人的兩倍。不僅如此,算法中的性別歧視也特別值得關注。臉書在就業(yè)和住房廣告投放時也常常出現性別歧視和種族歧視問題。聯合國教科文組織在2019年發(fā)布《如果我能,我會臉紅》報告,該報告特別指出,在大多數AI語音助手中隱藏著性別歧視,這些助手受到歧視女性的數據“喂養(yǎng)”,常常把自身包裝成為謙卑恭順的女性形象〔16〕。

      算法自我強化價值偏見。僅僅依靠大模型自身的過濾機制是無力袪除數據偏見的,相反,算法自身的偏見還會受到強化。道德算法是以行為閾值的方式約束大模型決策的,即它通常是從算法決策結果的維度管控自身善惡。通常情況下,當道德算法嵌入大模型后,并不能完全過濾數據之上的價值負載,而僅僅是對算法行為進行一般的價值監(jiān)管。同時,深度學習算法會將設計者的價值取舍附隨數據投喂者的價值偏見一起訓練算法。經過同類反復的強化訓練,算法的泛化能力得到巨大提升,算法與數據價值負載逐漸趨同,大模型也在進化過程中形成數據過濾機制。該機制會篩除不符合設計者價值選擇的數據,也使算法處理同類數據、同類場景的任務能力得到提升,但是,該過程自始都是在進行三方(數據生產者、數據投喂者和算法設計者)價值傳遞。

      算法勾勒個體畫像,挑戰(zhàn)個體價值。算法參與社會公共決策的一般邏輯是通過歸納海量的個體數據,發(fā)現公眾的一般特征,從而總結多數人能接受的社會治理規(guī)律。算法被應用于社會公共領域的目的之一即是勾勒個體未來的行為特征,預測未來行為動向。但是,算法黑箱的影響在該過程中難以避免,因此,算法公共決策帶來的社會偏見和歧視風險亦可見一斑。據英國《人工智能發(fā)展的計劃、能力與志向》(2018)顯示,算法越精準地刻畫社會現實,它再現人類社會歧視的可能性就越大〔17〕。算法公共決策無疑放大了社會歧視與不公平,性別歧視、膚色歧視、年齡歧視等借助算法公共決策在全社會范圍內展現出來。先天具有性別歧視的社會,算法決策也一定是具有性別歧視的。如性別歧視影響女性社會地位,在就業(yè)方面尤為明顯。算法公共決策誘發(fā)性別歧視風險,加劇了普遍存在于勞動力市場中的既有就業(yè)歧視〔18〕。實踐中,性別歧視多為間接性歧視(Disparate Impact),即一些傳統(tǒng)經濟體制國家在宏觀就業(yè)政策上將技術含量低的職業(yè)設計成女性的專屬崗位,這種現象在服務業(yè)最為突出。

      算法信用評級使個體污名化風險加劇。在現代公共治理中,算法已被納入政府社會信息評級體系當中,它被用來標識個體信用、社會地位和經濟狀況等指標。在我們所處的數字化社會,個體不僅具有現實身份,亦并行著另一種數字公民身份。隨著信息網絡技術的發(fā)展,數字公民身份并非區(qū)別于現實身份的一種獨立身份,而是現實身份在算法中映射的一種數據身份。它具有真實性、動態(tài)性、穩(wěn)定性、社交性和可追溯性,此外還具有難遺忘性。數字身份是以政府、數據、個體和算法等多方因素共同建立起來的,但是,它與現實社會并非一一對等。一方面,現實社會的評價如信息流一般,被刻畫到數字身份當中〔19〕。數字身份會加劇現實社會對單一個體的負面評價。算法越是強調保護弱勢群體,他們反而在算法信用評級機制中可能越容易遭受不公平待遇,他們遭受算法歧視的風險可能會更大。另一方面,負面的個體評級會折射到現實社會當中,影響他們在現實社會中的權利。這一過程即是個體身份的算法實現與現實污名化〔20〕。如在網絡社交平臺中,用戶對暴力內容的互動行為會直接影響算法對該個體的評價,即該個體有可能被算法貼上暴力的標簽,因此,他在現實生活中可能被使用算法的部門判定為具有暴力傾向的人,但這種判定可能與現實世界中的真實情況不符,即引發(fā)個體污名化效應。

      (三)算法監(jiān)控常態(tài)化使公眾隱私遭受侵犯

      智能設備的普及使算法監(jiān)控成為常態(tài)。算法驅動的智能設備無時無刻不在收集個人信息,以智能手機為例,從人臉解鎖分析用戶生物信息,到用戶按壓屏幕的力度記錄人的情緒信息,再到各種應用程序反饋記錄用戶偏好信息,甚至用戶使用頻率、時段等信息都會被算法收集。而且,算法并不止于在私人使用場景內收集這些信息,它亦在公共場所采集他人數據。如自動駕駛汽車通過采集路況數據來“喂養(yǎng)”算法,路人的行走數據與生物特征也會被精確地記錄下來,甚至連城市的基建信息也可能被完整存儲下來。算法常態(tài)化收集的數據被用于分析用戶特征,同時,智能設備多與互聯網連接,個人數據多存儲在網絡服務器上,這在一定程度上加劇了數據在傳輸、存儲過程中被泄露的風險。不僅如此,更有不少算法提供者采用各類插件(Software Development Kit,SDK)非法獲取用戶個人信息。被算法捕獲的記錄用戶屬性的零散數據會被分析、繪制完整的人物畫像,最后用于精準地區(qū)分和識別具體的個體,誘發(fā)嚴重的社會治理風險,甚至滋生刑事犯罪。

      一般認為,數字領域內的商業(yè)秩序是建立在分析用戶個人信息之上。在算法被大范圍應用之前,公共領域與私人空間之間存在著明顯的邊界,然而,自人類涉足數字領域之后,算法世界的公私邊界不斷被消融。隨著算法全面嵌入公共治理領域,平臺運營者為了利益最大化對用戶展開全方位的數據監(jiān)控。社會個體被囚禁在“全景監(jiān)獄”內,他們的行為被算法記錄下來,成為分析預測未來行為動向的數據來源?;跀祿某掷m(xù)豐富和算法的全領域使用,算法逐漸成為一種權力場域。算法權力催生的監(jiān)控資本使個體隱私遭受侵犯,人們無時無刻不處于算法的監(jiān)控范圍之內〔21〕。資本與算法運營者共謀,將資本快速積累的欲望嫁接到算法場域中,通過收集和處理承載著用戶偏好的數據持續(xù)開展消費者行為監(jiān)控,建立、豐富龐大的市場數據庫,引導、形成甚至控制市場競爭,以期實現資本擴張和增殖之目的。算法在資本的裹脅下,迅速在社會層面形成一套基于個人監(jiān)控的數字經濟秩序,悄無聲息地影響各方市場參與者的行為。

      在算法監(jiān)控下,公民個人隱私遭受侵害。資本利用算法構建一整套經濟秩序,致使個人隱私袒露,公民隱私遭受算法侵犯成為一種常態(tài)〔22〕。一些算法巨頭憑借著技術優(yōu)勢,通過實施一系列的商業(yè)政策,將算法權力轉化為商業(yè)競爭力。它們建立了一整套的平臺經濟運營規(guī)則誘使用戶讓渡數據權利,將平臺壟斷政策外化為行業(yè)壟斷規(guī)則,服務于利益最大化。讓人細思極恐的是,部分平臺企業(yè)甚至制造用戶數據泄露、轉賣的高度風險,如2019年11月,國內某科技巨頭在未經用戶同意下,擅自將用戶注冊信息出售給第三方企業(yè),致使大量用戶隱私數據泄露,用戶隱私權遭受侵犯。此外,社會治理者亦借助算法在全社會范圍內收集公民信息,用于精準引導社會輿情走向。這些信息的儲存、處理等工作多由第三方企業(yè)完成,甚至在該過程中存在再次轉包的情況,威脅公民個人信息安全。

      三、算法參與公共治理赤字的因應理路

      面對算法參與公共治理赤字對傳統(tǒng)民主制度、社會公平和公眾隱私造成的侵害,探索其復歸理路,建構算法民主制度能對限制“算法利維坦”、應對算法權力集中發(fā)揮制度優(yōu)越性。為此,有必要將數據和算法邏輯納入算法披露的范疇,細化披露的程序性規(guī)范,提升算法公共決策的公平性。此外,應從事前算法備案、事中數據安全評估和事后責任懲治等角度展開算法綜合治理機制建設,降低公眾隱私受不法侵害的風險。

      (一)構建算法民主制度以限制“算法利維坦”

      在工具理性與技術理性的斗爭中,算法具備了二重性。處于價值博弈中的算法具有實現多種價值的可能,人類作為技術倫理的設計者,可以通過多重路徑引導算法進行價值選擇,擬定技術與人類的相互關系。其中,制度設計路徑具有徹底性。技術制度的設計要么是加強對自然和人類的剝削,要么是轉向解放應用,即存在安德魯·芬伯格(Andrew Feenberg)筆下的“維護等級制度的原理”或“民主的合理化原理”兩種設計思路。技術制度設計應該廣泛地考慮關聯環(huán)境(Associated Milieu),將環(huán)境與人的價值因素納入制度設計的方案當中,從而使制度能夠接納更加豐富的技術創(chuàng)造能力和實踐能動性〔23〕169。在此理論的支持下,重新展開算法治理制度設計,使民主成為未來算法邏輯創(chuàng)設的制度遵循。

      保障多元主體參與算法參與公共治理制度設計的過程。立法者亟需推動建立算法民主制度,即通過民主制度安排保證多元化的社會主體參與公共治理制度的設計過程,通過民主設計滿足廣泛算法受眾的偏好差異和利益表達〔24〕。通過算法參與的治理制度聽證、治理制度協商等民主程序設計,在治理制度設計和制度運行過程中,持有不同價值偏好的算法受眾能夠進行民主磋商,以平等的身份與算法設計者、實現者和社會治理者交換意見,保障算法受眾通過算法制度參與公共治理的過程。

      平衡算法民主與算法權力集中的關系。經民主程序設計的算法參與公共治理規(guī)則可能滋生權力集中和權力反制的風險,亟需在制度運行過程中強化對社會治理者的教育與監(jiān)管。算法參與治理制度設計的程序性規(guī)則容易被算法精英和政治精英掌握,他們基于擴大自身影響的需要,在民主決策中操縱選票,容易在技術設計階段引發(fā)算法腐敗,致使算法治理規(guī)則的社會公信力降低。此外,部分受眾出于對算法治理規(guī)則的抗拒,反向“喂養(yǎng)”算法,故意將所屬利益集團的價值偏好、興趣“投喂”算法,以圖實現算法反控制和反規(guī)訓,這種反噬行為意味著部分受眾試圖將主觀意圖凌駕于機器代表的公眾意志之上〔25〕。因此,在規(guī)避“算法利維坦”的過程中,一方面,完善算法治理規(guī)則的自決程序,要引進具有民主意義的區(qū)域分層技術,對不同價值偏好的用戶進行網絡化分級,化整為零,分層選舉。另一方面,要完善算法治理制度運行中的民主廉潔機制,如推行選舉承諾、行為留痕等,以此避免算法治理腐敗,應對事后追責難題。

      (二)完善算法披露制度以推動算法公共決策公平

      為了應對算法歧視性決策誘發(fā)的社會公平性危機,建議完善算法披露制度。算法披露制度是打破算法自動化決策“黑箱”的必要制度安排,也是保障算法受眾權益的重要手段〔26〕。我國現行法律已經多次明確平臺企業(yè)的算法透明義務,在多部法律規(guī)范中提及算法披露制度的構想,相關行政法規(guī)強調了必要的披露要求。然而,我國算法披露制度仍然只是散見于各種法律規(guī)范當中,且多為原則性要求,未形成完整的制度體系,現行法律也并未對制度構建的具體細則作出詳實的規(guī)定,該制度仍然有待強化。

      1.將數據和算法邏輯納入算法披露內容范疇。算法公共決策的公平危機肇始于算法本身的“黑箱”性和數據的不透明性,因此,監(jiān)管的重點在于對算法“黑箱”和數據不透明進行規(guī)制。意欲在制度上消除算法參與公共決策的不公平性,需要給予算法設計者、服務提供者和社會治理者規(guī)定透明義務,促進預訓練數據公開和公共決策透明。一般認為,算法披露應當區(qū)分不同的對象進行公眾披露和行政披露。算法披露對象,即算法公共決策的受眾和算法監(jiān)管者。在披露內容上,應當區(qū)分算法受眾利益的性質,依據算法受眾關注的不同利益,可將披露制度區(qū)分為對公眾的披露和對行政主體的披露。對于公眾披露而言,應當采用算法受眾能理解的語言進行,系統(tǒng)地進行算法功能性解釋,聚焦算法功能背后與受眾權益相關性強的、受眾關心程度普遍較高的內容。對行政披露而言,披露義務主體應當采用專業(yè)性更強的語言進行,將算法的技術特征向行政機關全面公開;應著重對與算法公共決策相關的社會公共利益的影響及其風險,使用專業(yè)的算法技術說明書詳細記錄其邏輯、種類、功能、設計者、應用影響和應用風險等事項〔27〕,以此保障算法公共決策普遍公平。

      2.細化算法披露制度的程序性規(guī)范。區(qū)分系統(tǒng)解釋和個案解釋啟動算法披露。系統(tǒng)解釋即是就平臺用戶普遍關注的公平性問題,以統(tǒng)一、固定的形式對算法邏輯和數據明細進行整體性披露的程序。系統(tǒng)解釋程序是由國家行政機關發(fā)起的,或者由行政機關應民間組織的申請發(fā)起,依靠強有力的公權力保障推動。如鑒于算法歧視性決策結果的影響范圍較廣,對于可能作出歧視性決策的算法,則可以由行政機關主動發(fā)起披露程序,從種族平等、性別平等和隱私保護出發(fā),追查其技術根源,要求算法服務提供者提交合理性解釋與說明。個案解釋程序即是就單個用戶的單次使用結果開展的有針對性的解釋程序,是應用戶申請對存在于算法公共決策中的疑問發(fā)起的披露程序。因此,個案解釋程序不具有普遍解釋效力,僅對該案的決策結果負責。鑒于提升算法服務效率和控制服務成本的考量,算法服務提供者在進行公共披露時可以僅僅遵守個案披露程序,但是,進行行政披露時必須啟動系統(tǒng)解釋程序〔28〕。

      (三)強化算法綜合治理機制以保護公眾隱私

      鑒于算法監(jiān)控侵犯公眾隱私,有必要著眼于我國法治建設的現狀,推動構建算法綜合治理機制,從事前備案、事中評估和事后懲治的全生命周期展開算法參與公共治理制度構建。該機制有助于推動數據使用合規(guī)、提高算法規(guī)則的透明性、限制算法權力行使,實現算法參與公共治理效果的提升。

      1.事前:完善算法治理規(guī)則備案機制,研判算法參與公共治理風險。算法備案制度旨在強化算法應用監(jiān)管,促進算法技術良性發(fā)展,保障公眾權益免受算法侵害。我國已經在算法備案領域進行了部分實踐,也發(fā)揮了一定的社會效果。如自《互聯網信息服務算法推薦管理規(guī)定》公布以來,國家“網信辦”曾先后多次公布互聯網信息服務算法備案信息〔29〕,為方便社會公眾獲取算法信息提供了官方備案數據,也為確保算法透明、推動算法倫理至臻至善發(fā)揮了積極作用。但是,該機制仍需完善。一是擴大算法備案審查對象的范圍。以政府職能部門為代表的公共治理部門業(yè)已成為現實的算法使用者,特別是在交通監(jiān)管、輿情監(jiān)測等領域,算法更是助力公共服務實現了質的突破。因此,相關政府部門自然應當成為備案審查的對象。二是推動備案內容實現精細化。目前算法備案內容多集中在使用算法的企業(yè)信息,算法的合法性、正當性和算法目的上,具有較強的格式化和普適性,缺乏必要的行業(yè)針對性。因此,需要對細分行業(yè)、細分領域明確備審查條目,使之滿足精細化監(jiān)管的要求。三是新增算法使用數據的備案要求。將投喂算法的數據來源、類型、目的和影響納入備案審查要求之列,以此強化數據風險預判。四是建立差異化的算法公開機制。算法審查的最終目的是提升算法的透明性,降低算法受眾權利受侵害的風險,但并不能以犧牲算法權利主體的合法利益為代價。因此,立法者應當平衡算法公開與知識產權保護的關系,就不同的應用行業(yè)設置差異化的算法備案標準,將自愿公開與法定公開相結合,既要利用法律推動算法倫理復歸,也需要保護算法權利主體的合法權益〔30〕。

      2.事中:完善算法安全評估機制,把控算法參與公共治理風險。為了應對算法監(jiān)管常態(tài)化帶來的個人隱私風險,立法者亟需以我國《個人信息保護法》第五十五條第二款規(guī)定的自動化決策審查制度為基礎,完善算法信息安全評估機制,確保公共信息安全風險可控。算法安全評估制度應當區(qū)分場景和應用風險等級分別展開,確保算法技術卓越與應用可依賴。同時,應當依據《新一代人工智能治理原則——發(fā)展負責任的人工智能》和《全球人工智能治理倡議》,圍繞公平公正、尊重隱私、安全可控和可信負責原則確定核心目標,探索我國算法安全影響評估標準〔31〕。在評估主體上,亟需推動由行政機關主導的評估機制向由多元主體共同參與轉變。就平臺企業(yè)而言,算法數據安全不僅應由企業(yè)進行自身行為評估,還需要融入專家建議,將評估報告交由第三方官方認證的機構審計。就公共治理部門而言,算法數字安全評估應交由專門的主管部門進行,且最終統(tǒng)一交由第三方審計單位進行算法安全審計,確保具體應用中的算法實現風險可控。

      建立算法安全評估報告強制公示制度。算法安全評估報告公示是應對算法透明風險的“最后一公里路”,信息公示機制缺乏公眾參與將無法有效進行。當下,人工智能技術發(fā)展方興未艾,基于知識產權保護要求,絕大多數企業(yè)為了維護自身商業(yè)利益將算法以商業(yè)秘密的形式加以保護,這種做法加劇了算法的透明風險。特別是當算法參與公共治理時,因受眾廣泛,社會公眾往往對算法參與公共治理行為不可知,這即加劇了公眾對算法公共決策的質疑。借助算法安全評估公示,利益攸關者能知悉算法公共決策的影響與風險,為算法受眾行使解釋權、刪除權、拒絕權等法定權利提供信息基礎,不僅能有效應對算法公共決策風險,還能促使算法設計者和平臺運營者重新審視算法本身。此外,采用公眾可理解的方式公開和解釋評估報告,不僅有助于公共行使監(jiān)督權,發(fā)揮多元主體參與公共治理的積極效能,還能有效應對算法歧視、信息繭房等多重倫理失范困局。

      3.事后:推動算法協同治理,明確算法參與公共治理主體責任。當下,數據與算法分庭治理業(yè)已成為公共治理的基本立場,雖然有助于實現精細化治理目的,但其弊端突出。一方面,多頭治理增加公共治理的社會成本。諸多交叉重復的任務分別由不同的治理部門負責,徒增人力成本的同時更損失了社會協同治理效率。另一方面,多頭治理誘發(fā)治理者主體責任模糊的后果。數據和算法治理權分屬不同的行政部門,如我國當下算法參與公共治理責任歸屬于國家“網信辦”,數據安全監(jiān)管責任暫由各級數據局負責,數據局對國家發(fā)展和改革委員會負責,這種分庭治理的機構設置不僅難以實現公共資源的協同調度,還會帶來部分治理主體責任真空的嚴重后果。

      鑒于此,亟需建立算法協同治理機制,強化不同治理部門之間的協調性和聯動性。建議從治理主體、治理內容和治理責任三個方面進行制度規(guī)劃。一是公共治理主體協同。嘗試在國家“網信辦”和各級數據局之上建立“協調委員會”,以該機構作為牽頭部門聯合多元社會主體,形成分工明確、層次清晰、責任明確的協同治理體系。二是公共治理內容協同。以我國《數據安全法》《個人信息保護法》《網絡安全法》為基礎,聯合《互聯網信息服務算法推薦管理規(guī)定》《生成式人工智能服務管理暫行辦法》,借鑒《人工智能法(學者建議稿)》,適時推動制定“算法法典”,形成數據、算法治理內容的高度協同,并完善相應的配套機制。三是落實“誰治理誰負責”原則,完善算法參與公共治理的主體責任分配體系。構建“協調聯動委員會”領導,國家“網信辦”和數據局主導,各平臺企業(yè)、行業(yè)協會和平臺使用者共同參與的綜治協調機制。

      參考文獻:

      〔1〕United Nations.Seizing the Opportunities of Safe,Secure and Trustworthy Artificial Intelligence Systems for Sustainable Development〔EB/OL〕.https://documents.un.org/doc/undoc/ltd/n24/065/92/pdf/n2406592.pdf.

      〔2〕人工智能全球治理上海宣言〔N〕.人民日報,2024-07-05(04).

      〔3〕Arrieta A. B,Díaz-Rodríguez N,Del Ser J,et al.Explainable Artificial Intelligence(XAI):Concepts,taxonomies,opportunities and challenges toward responsible AI〔J〕.Information Fusion,2020(58):82-115.

      〔4〕王天恩.人工智能發(fā)展中的“智能透明”問題〔J〕.哲學動態(tài),2023(01):89-97.

      〔5〕鄒開亮,劉祖兵.試論人工智能底層算法專利法保護進路〔J〕.寧夏大學學報(人文社會科學版),2023(03):162-169.

      〔6〕B. Mittelstadt,P. Allo,M. Taddeo,et al.The Ethics of Algorithms:Mapping the Debate〔J〕.Big Data amp; Society,2016(12):1-14.

      〔7〕Diakopoulos.Algorithmic Accountability〔J〕.Digital Journalism,2015(03):398-415.

      〔8〕張 榮,徐 飛.智能醫(yī)學算法決策的倫理困境及風險規(guī)制〔J〕.醫(yī)學與哲學,2022(08):10-15.

      〔9〕鄒開亮,劉祖兵.ChatGPT的倫理風險與中國因應制度安排〔J〕.海南大學學報(人文社會科學版),2023(04):74-84.

      〔10〕王天恩.智能倫理:人工智能時代的倫理新視野〔J〕.閱江學刊,2021(02):15-24+119-120.

      〔11〕劉祖兵.論Sora的倫理風險與我國治理因應———也談我國參與人工智能算法倫理全球治理的基本路徑〔J〕.河海大學學報(哲學社會科學版),2024(05):99-112.

      〔12〕陳洪兵,陳禹衡.刑法領域的新挑戰(zhàn):人工智能的算法偏見〔J〕.廣西大學學報(哲學社會科學版),2019(05):85-93.

      〔13〕匡文波.智能算法推薦技術的邏輯理路、倫理問題及規(guī)制方略〔J〕.深圳大學學報(人文社會科學版),2021(01):144-151.

      〔14〕楊保軍,李泓江.論算法新聞中的主體關系〔J〕.編輯之友,2019(08):5-11.

      〔15〕周凡主.后馬克思主義:批判與辯護〔M〕.北京:中央編譯出版社,2007.

      〔16〕宋素紅,王躍祺,常何秋子.算法性別歧視的形成邏輯及多元化治理〔J〕.當代傳播,2020(05):95-100.

      〔17〕孫躍元.算法決策應用的外部風險及其公共治理路徑研究〔J〕.河北法學,2023(04):156-175.

      〔18〕趙 嬋.AI招聘的算法歧視風險與治理之道〔J〕.湘潭大學學報(哲學社會科學版),2023(03):96-102.

      〔19〕汪懷君,汝緒華.算法歧視及其治理〔J〕.科學技術哲學研究,2020(02):104-109.

      〔20〕劉 培,池忠軍.算法歧視的倫理反思〔J〕.自然辯證法通訊,2019(10):16-23.

      〔21〕孫建麗.算法自動化決策風險的法律規(guī)制研究〔J〕.法治研究,2019(04):108-117.

      〔22〕張愛軍,王首航.算法:一種新的權力形態(tài)〔J〕.治理現代化研究,2020(01):39-45.

      〔23〕安德魯·芬伯格.技術批判理論〔M〕.韓連慶,曹觀法,譯.北京:北京大學出版社,2005.

      〔24〕陳家剛.協商民主引論〔J〕.馬克思主義與現實,2004(03):26-34.

      〔25〕張 萌.從規(guī)訓到控制:算法社會的技術幽靈與底層戰(zhàn)術〔J〕.國際新聞界,2022(01):156-173.

      〔26〕靳雨露.算法披露的域外經驗與啟示〔J〕.情報雜志,2022(07):91-99.

      〔27〕胡 瑾.技術不確定性下算法推薦新聞的倫理風險及其法律規(guī)制〔J〕.重慶大學學報(社會科學版),2022(03):230-241.

      〔28〕劉祖兵.Sora使用者的著作權侵權風險與治理因應路徑〔J〕.四川師范大學學報(社會科學版),2024(05):80-88+202.

      〔29〕國家互聯網信息辦公室關于發(fā)布互聯網信息服務算法備案信息的公告〔EB/OL〕.http://www.cac.gov.cn/2022-08/12/c_1661927474338504.htm.

      〔30〕張吉豫.論算法備案制度〔J〕.東方法學,2023(02):86-98.

      〔31〕張 欣.算法影響評估制度的構建機理與中國方案〔J〕.法商研究,2021(02):102-115.

      責任編輯 周 榮

      猜你喜歡
      公共治理
      “互聯網+”推動政府公共治理升級
      人民論壇(2016年34期)2017-03-01 19:34:25
      治理理論視角下公民參與政府購買公共服務研究
      理論導刊(2017年2期)2017-02-25 14:57:15
      集體行動的邏輯與公共治理理論
      集體行動的邏輯與公共治理理論
      公共治理與村莊自治視角下農戶土地產權認知的形成
      公共治理與村莊自治視角下農戶土地產權認知的形成
      公共治理視角下我國微博問政探析
      山東青年(2016年9期)2016-12-08 15:57:45
      試論現代公共治理中的領導力
      商(2016年28期)2016-10-27 10:54:57
      公共治理背景下社會問責完善與創(chuàng)新的路徑研究
      商(2016年23期)2016-07-23 14:38:21
      “酒后代駕”問題的公共治理途徑研究
      贵州省| 卢氏县| 赞皇县| 绥棱县| 横峰县| 西峡县| 乐业县| 米泉市| 萨迦县| 抚顺县| 瓦房店市| 都匀市| 射阳县| 宝清县| 靖安县| 姜堰市| 溧阳市| 武强县| 宜城市| 广水市| 鄢陵县| 武安市| 昭通市| 普洱| 自贡市| 彰化县| 彭州市| 道孚县| 府谷县| 永寿县| 江源县| 兰州市| 资中县| 吴堡县| 赞皇县| 静安区| 黎平县| 抚州市| 鄄城县| 广河县| 海宁市|