李舒沁
(中國科協科學技術傳播中心,北京 100012)
公共服務是指由政府、公共組織或經過公共授權的組織提供的具有共同消費性質的公共物品和服務。在國務院發(fā)布的《“十四五”數字經濟發(fā)展規(guī)劃》中,提出要持續(xù)提升公共服務的數字化水平,促進公共服務更加普惠均等。近年來我國推進的“一碼通辦”“一網通行”,很大程度上都來自于以人工智能為代表的數字技術的支撐,提升了人民群眾幸福感、安全感和獲得感[1]。國外研究在分析人工智能在這一領域作用的同時,也高度關注其引發(fā)的潛在風險。梳理歸納海外研究中對其風險與發(fā)展障礙的分析,也可為我國進一步推進人工智能賦能公共服務提供借鑒與啟示。
人工智能賦能公共服務帶來的收益已經得到了廣泛認可,但也存在一些包括可能侵犯個人權益的潛在風險,已經引起了國外研究者的重視。
訓練人工智能算法的基礎是對數據進行分類標注,根據用戶特征生成用戶畫像,根據畫像進行分類,在此基礎上進行分析預測[2],例如利用算法分析犯罪發(fā)生的熱點區(qū)域并預測某一類風險人群的違法概率等[3]。盡管這種基于特征的識別功能有利于公共服務的精細化,但也可能因在訓練過程中,由人設定不同特征的權重而導致算法產生偏見。在西方國家,針對人工智能算法中關于性別、種族、性取向等方面的社會偏見,已經引發(fā)了熱烈討論,有學者認為算法已經導致基于偏見而產生的系統性不公正待遇[4]。例如,在評估個人健康風險或招聘時,會根據個體所屬社區(qū)對其行為進行預測從而調整保費價格或決定是否招聘[5]。這種偏見與公共服務需要在法治規(guī)定下公正對待民眾的使命直接沖突。解決這些問題需要在改進技術的同時,通過設置不同情景,將算法訓練放在社會層面進行系統全面的考慮。
當前對人工智能算法的訓練愈發(fā)復雜,例如,谷歌的Switch Transformer預訓練模型參數達1.6萬億。深度學習解決方案的層次和參數增加,降低了操作人員將輸出追溯到特定輸入的能力[6],增加了分析結果的解釋難度,在出現意外時又不易找到原因進行糾正,使人工智能被視為“黑箱”。應用在公共服務中,則被認為是創(chuàng)造了一個“黑箱社會”[7],對數字政府、公共服務等產生深遠影響。一方面,政府權威與公民對透明度、“可解釋性”的期望是綁定的[8],如果無法解釋結果,則政府的權威性也會受到質疑。另一方面,人工智能系統可以刪除一些特定情況下的結果,加劇了民眾在面對“計算機說不”的反應時無能為力的現象[9],也增大從倫理責任和法律責任層面追責的難度。
“信息回音室”效應是指在一個相對封閉的環(huán)境中,一些意見相近的聲音不斷重復、扭曲、放大,令處于其中的大多數人認為這些扭曲的故事就是事實的全部。而人工智能算法已被證明在社交媒體平臺等互聯網公共空間中促進意見相近群體集中方面非常有效[10],從而形成“回音室”效應。算法通過過濾與現有用戶偏好不符的輸入(例如新聞、娛樂、政治話語)來提供個性化內容的能力,隨著“回音室”效應的增強,可能會帶來社會分裂、兩極分化和激進化[11]。如果未能有效應對“回音室”效應,分散性的力量可能影響政府權威,也會因政策無法得到公眾輿論共性的支持而影響實施效果。例如,在西方互聯網上,由于“回音室”效應的存在,基于科學的公共衛(wèi)生舉措(例如為抗擊COVID-19大流行而推出的舉措)受到錯誤信息的削弱,而在這些回音室中,也易加劇對醫(yī)療衛(wèi)生機構的不信任。
人工智能對公共服務的賦能并非一帆風順,除了因潛在風險導致推進存在一定難度外,一些技術及治理層面的因素也影響了人工智能在公共服務領域的應用。
人工智能應用治理是一個逐步摸索的過程。一方面是對其自身治理的法律法規(guī)仍不完善不健全。由于法律法規(guī)頂層設計不足,在應用人工智能賦能公共服務時,常以“打補丁”的方式處理出現的問題,易對人工智能的發(fā)展目標帶來不確定性乃至障礙。例如,在利用人工智能賦能公共服務時,從私營部門購買服務與委托機構自主開發(fā)的情況并存。在使用流程中初始的采購環(huán)節(jié)都未設置較為統一標準的情況,可能引發(fā)對人工智能工具安全風險和偏見性審查的不足[12]。另一方面是民眾對人工智能的技術和治理存在信任不足的問題。一是對新技術天然的不信任感。用戶了解其部分功能,但不了解其原理。因此,在用戶熟悉它之前,他們對其潛在影響的信任水平較低[13]。二是處理敏感信息的程序從人變?yōu)闄C器。這種轉變帶來的陌生感使用戶不安,也讓用戶對政府管理大量敏感數據并由人工智能程序進行分析感到不安,他們擔心敏感信息泄露給程序的開發(fā)者或外包的私營公司[14]。
開展公共服務的機構在使用人工智能時,有可能面臨知識技能不足和組織文化沖突的“軟硬件”缺陷。在專業(yè)技能方面,使用人工智能不僅需要有構思、實施和管理的技術技能,還需要有將管理能力與對技術及其潛力的理解結合起來的社會技術技能[15]。機構現有員工往往不具備必要的人工智能和數據管理技能,同時由于薪酬等原因,公共服務又難以再找到和吸引具備所需技能的人才。由于需求超過供應,人工智能專業(yè)技術人員在市場上相對稀缺,而私營部門可以提供更高回報,這類專業(yè)人士往往更喜歡應聘私營部門[16]。而在組織文化方面,由于人工智能的引入有可能影響機構的運行流程甚至產生顛覆性影響,與機構愿景產生一定沖突,因此現有組織中的一些因素有可能阻撓人工智能的應用,例如缺乏領導支持、機構中各部門抵制知識、資源和數據共享,以及員工抵制組織變革等。
人工智能算法訓練的基礎是獲取足夠數據,但數據的管理與共享方面的困難也在影響人工智能應用。在數據管理方面,大多數人工智能解決方案依賴于良好的數據輸入。而公共服務機構由于人力和財力限制,在數據獲取與管理、以及算法持續(xù)迭代完善方面存在較大難度[17]。而共享數據更為困難。共享數據不僅是增加增大數據量,更重要的是讓不同來源的數據基于關鍵詞關聯,從更多維度反映問題,支撐人工智能算法提供更全面的解決方案。例如,公共交通應用程序需要來自交通、警務、氣象、城市規(guī)劃等部門的數據。但數據共享存在較多障礙,客觀上看是標準缺失,如缺乏統一的數據存儲格式標準,導致難以繼承存儲[18];人工智能行業(yè)缺乏技術標準,導致缺乏互操作性[19]。主觀上是由于“數據即權力”的意識,導致個別機構因害怕在競爭環(huán)境中失去寶貴資產而反對共享數據[20],也導致各機構獨立外包建設信息系統,形成“數據孤島”“系統孤島”。
為促進公共服務體系更好地發(fā)揮人工智能的作用,有必要關注潛在風險,推動解決存在的障礙,向公共服務的智慧化、普惠化目標靠近。
公共服務涉及民眾的個人隱私信息,宜針對潛在風險開展評估。一是編制風險評估項目清單。分析當前應用人工智能的項目,定義公平、無偏見的標準,通過評估,篩選可能存在歧視、偏見的項目,并編制項目的清單或指南。今后使用人工智能時,可根據清單開展評估。二是探索增強算法透明度和可解釋性的措施。一方面開展研究,找到理論上可能影響輸出的因素,盡可能由輸入解釋輸出;另一方面規(guī)定輸入數據的范圍,保證收集數據的出發(fā)點是公平的,收集的渠道是公開的。三是廣泛參考借鑒國外經驗開展立法探索。歐盟于2021年發(fā)布了《人工智能法案》的提案,系統全面地提出了人工智能風險預防的保障機制和實施路徑。歐盟試圖以此保護歐盟數字主權,并嘗試建立全球規(guī)則和標準。我國可參考借鑒該《法案》,既明確目標和各主體責任,也設計具體實施路徑,使降低人工智能風險有章可循。
公共服務機構需要通過調整和變革,才可能適應人工智能在系統中的使用。在機構內部,需要調整對人工智能的態(tài)度和使用的意識。機構內的人員應該對人工智能的原理有一定了解,對人工智能可發(fā)揮的作用有合理的期望,從而使機構的人員意識到人工智能系統也有可能存在風險,并提出錯誤的建議或做出錯誤的決定,因此仍然需要發(fā)揮主觀能動性,與人工智能系統共同學習,不斷糾正算法。這使機構可以不斷思考如何更好地進行人機協同,提高使用效率,而不會因為擔心人工智能系統取代自身而消極對待新技術、新系統。從外部來說,也需要人工智能領域的專家協助推進變革。專家可以基于為機構人員培訓的情況,為機構摸索出一個在變動最小的情況下,可以合理使用人工智能系統的新流程、新體系,或者可以建議機構的領導者在機構內部通過設立新部門或新職位來協調機構內的人工智能系統的數據輸入與輸出結果的分析研判,從而為機構做出適應人工智能應用的變革提出專業(yè)的、有針對性的建議。
機構具有良好的使用人工智能的能力是識別、應對風險,調整機構流程、進行組織變革的基礎。一方面,機構可以通過建立產學研共享數字生態(tài)的方式獲得外部支持。學術界可以探索人工智能領域的前沿技術知識,并為機構提供青年人才共同推進人工智能的應用。大型數字公司可以協助機構了解目前實踐中服務消費者效果最好的人工智能產品,用于改進公共服務機構的系統,并且可以基于業(yè)界通用標準,而非獨立設計標準開發(fā)系統,從而降低機構的開發(fā)成本。另一方面,機構內部人員也需要掌握相關的知識和技能。不僅要掌握現有人工智能系統的使用方法,還有必要了解該系統的算法執(zhí)行邏輯、數據輸入的合理性等改善系統運行公平性的相關因素。在此基礎上,培養(yǎng)員工合理提出需求,指導系統開發(fā)的能力,從而在發(fā)現風險、問題的基礎上,可以提出解決問題的思路建議,不斷迭代完善系統,提高其對公共服務的賦能水平。