王文鑫 張健毅
北京電子科技學院,北京市 100070
近年來,隨著互聯(lián)網(wǎng)與大數(shù)據(jù)時代的來臨,深度學習越來越受到社會各界的廣泛關注[1],數(shù)據(jù)分析師可以通過整合各種零碎數(shù)據(jù)來進行對某件事或某個人的信息分析,進而預測潛在結果發(fā)生概率。 如淘寶、京東等大企業(yè)的應用程序經(jīng)常會精確地把一些符合消費者偏好的商品推薦給用戶,這其中的推送方式或通過購物者的日常消費記錄,或憑借其他APP 獲取購物者自身相關信息(如消費者的性別、到訪地、接觸人群等)。 雖然兩種方式有著些許的差異,但是大致都是通過深度學習把消費者日常相關信息進行大量訓練分析來形成數(shù)據(jù)預測[2]。
不過深度學習是先構建中心服務器,然后將多個客戶端數(shù)據(jù)進行整合與訓練,這樣可能導致各方數(shù)據(jù)安全不能得到充分保障,比如在醫(yī)療、金融等重要行業(yè),企業(yè)無法將己方數(shù)據(jù)信息傳遞給潛在的競爭對手,而且同一單位的不同部門相互之間信息也無法完全共享。 隨著2018 年歐盟史上最嚴隱私法規(guī)——《通用數(shù)據(jù)保護條例》(GDPR)的頒布[3],越來越多的企業(yè)和單位對于個人敏感信息提起高度重視,例如2019 年英國航空公司由于違反《一般數(shù)據(jù)保護條例》被英國信息監(jiān)管局罰款1.8339 億英鎊。 而我國在2020 年頒布《信息安全技術個人信息安全規(guī)范》和《個人信息保護法》,這些法規(guī)的制定旨在保護用戶個人隱私和規(guī)整行業(yè)數(shù)據(jù)的處理規(guī)范,且對如今普遍采用數(shù)據(jù)驅動的發(fā)展提出了新挑戰(zhàn)。為了解決數(shù)據(jù)安全問題和實現(xiàn)信息孤島全面共享,谷歌2016 年提出聯(lián)邦學習(Federated Learning,F(xiàn)L)的理論概念,其主要是通過將用戶端數(shù)據(jù)存儲和模型訓練階段轉移至本地用戶,而僅與中心服務器交互模型更新的方式有效保障用戶隱私安全[4]。
公平性指系統(tǒng)開發(fā)過程不偏袒于任何一方。在實際生活中,所有公共和私有行為者都必須防止和減輕機器學習的設計、開發(fā)和應用中的歧視風險。 隨著聯(lián)邦學習技術[5,6,7]的逐漸興起,公平性問題成為制約其發(fā)展的一個短板一般來說,訓練的數(shù)據(jù)和數(shù)據(jù)集并非客觀存在,而是人類主觀設計的產物。 從數(shù)據(jù)收集到算法推演,從程序運行到結果初步評估,再到最后分析師得出滿意的預測結果,各種各樣的操作都參與到深度學習的訓練中,難免其中一些步驟存在偏差。 例如機器學習開發(fā)人員在對數(shù)據(jù)進行預處理時,由于沒有意識到數(shù)據(jù)集中可能的偏差,訓練之后便會得出與事實相背的結果。 盡管公平性問題對于個人實驗結果影響或許微乎其微,不過在工業(yè)界細小差異可能造成不可預估的損失[8],由此聯(lián)邦學習公平性是如今急需探究的話題。
本文通過調研發(fā)現(xiàn)大部分文獻側重于局部公平探討,缺乏系統(tǒng)總體的公平性研究。 比如為使各客戶端資源分配更具公平的準確性,文獻[9]提出高效通信方法q-FFL,但卻缺少數(shù)據(jù)不公與權值分配差異的分析;為使數(shù)據(jù)和模型遭受中毒攻擊時保持穩(wěn)健性和公平性,文獻[10]提出個性化聯(lián)合學習框架Ditto,但卻缺少存在偏見對于系統(tǒng)公平的影響;為使數(shù)據(jù)異質性下聯(lián)合模型訓練偏差減少,文獻[11]討論FL 偏差存在的原因以及提出削弱偏差的方案,但卻缺少對于偏差類別的形式化分類[12,13]。 在先前一系列文章的基礎上,本文進行詳細的歸納,并對偏差的出現(xiàn)、偏差的解決和公平性的分類方式等提出自己的見解。 本文脈絡如下:第1 章節(jié)總體介紹聯(lián)邦學習公平性架構,第2、3、4 章節(jié)分別闡釋偏差分類、公平機制和公平性系統(tǒng)應用,第5 章說明未來發(fā)展方向,第6 章進行全篇結論。
主要介紹傳統(tǒng)聯(lián)邦學習迭代過程和公平聯(lián)邦學習系統(tǒng)設計思路,并對公平性展開數(shù)學定義,之后根據(jù)實際迭代過程梳理系統(tǒng)整體層次結構,將公平聯(lián)邦學習分為公平認知表征、公平算法建模和公平評估決策三個階段分別討論[14]。本節(jié)使用符號及其意義說明詳見表1。
表1 本節(jié)符號表
與集中式機器學習所不同,傳統(tǒng)聯(lián)邦學習是基于分布式機器學習技術。 各客戶端(PC、移動終端等)不再將自身數(shù)據(jù)直接傳送給中心服務器統(tǒng)一訓練,而是在本地訓練后形成模型參數(shù)傳送給中心服務端,中心服務器把各個傳送的模型加權集合形成全局模型再傳輸給各個客戶端,如此反復迭代直至全局模型收斂,中心服務端函數(shù)可表示如下:
公平聯(lián)邦學習[15]是在傳統(tǒng)聯(lián)邦學習基礎上,考慮系統(tǒng)模型訓練時認知表征、算法建模和評估決策的公平性對于聚合梯度的影響,減少三階段偏見的生成,從而使得系統(tǒng)設計更大程度滿足于各參與方需求,并符合國家相關法律標準和倫理規(guī)范。 比如文獻[16]提出新型魯棒公平聯(lián)邦學習(RFFL)框架,通過聲譽機制實現(xiàn)系統(tǒng)協(xié)作公平和對抗魯棒性,本文公平聯(lián)邦學習表示如下:
由圖1 可知X,Y,Z,L,H階段可能存在偏差歧視的現(xiàn)象。 比如認知表征階段(X), 數(shù)據(jù)收集、數(shù)據(jù)集輸入可能由于采樣者不同而引入不同的采樣行為偏差;算法建模階段(Y,Z,H),程序實現(xiàn)、模型訓練可能由于算法設計存在偏見而使得整體系統(tǒng)歧視的產生;評估決策階段(L), 實驗評估、結論歸納可能由于研究者自身認知局限性導致實驗數(shù)據(jù)與真實結果因果關系存在差異。由此可知,聯(lián)邦學習系統(tǒng)迭代過程或多或少存在不公的風險。
圖1 聯(lián)邦學習迭代架構圖
若實現(xiàn)整體系統(tǒng)架構公平性,那么必須要認知表征、算法建模和校準決策三階段分別公平(如圖1)。 由此聯(lián)邦學習公平性系統(tǒng)可以根據(jù)數(shù)據(jù)處理階段劃分為三部分:公平認知表征、公平算法建模和公平評估決策。 公平認知表征存在于數(shù)據(jù)輸入階段,其主要包含數(shù)據(jù)收集、數(shù)據(jù)集輸入和特征提取等公平;公平算法建模存在于模型訓練階段,其主要包括算法設計、程序實現(xiàn)、模型建立和聚合等公平;公平評估決策存在于評估決策階段,其主要包括數(shù)據(jù)校準、實驗評估和結論歸納等公平。
本文通過預處理、處理中和后處理三種方式解決認知表征、算法建模和決策評估的公平,從而使得傳統(tǒng)聯(lián)邦學習系統(tǒng)轉變?yōu)楣铰?lián)邦學習系統(tǒng)。 其中預處理機制包括數(shù)據(jù)重采樣和尋找特征函數(shù),處理中機制包括重新加權和增加約束項,后處理機制包括調整預期閾值、使用去偏工具和增加風險評估等方式。
在聯(lián)邦學習系統(tǒng)中,研發(fā)者主觀上無意造成偏見,不過往往有些偏見是無意識產生,從而導致系統(tǒng)開發(fā)存在偏差。 結合Suresh 等人對不同類型偏差分析,本節(jié)將常見偏差分類為認知表征偏差、算法建模偏差和評估決策偏差。
圖2 公平聯(lián)邦學習架構圖
認知表征偏差主要存在于數(shù)據(jù)收集、數(shù)據(jù)集輸入階段,本小節(jié)將認知表征偏差劃分為:歷史偏差[17]、抽樣偏差[18]、測量偏差[19]、標簽偏差[20]和行為偏差[21]。
歷史偏差:指一些模型通過當時數(shù)據(jù)訓練得到的結果與當今社會數(shù)據(jù)訓練得出的結果存在差異。 如2018 年瀏覽器圖片搜索關鍵詞“女性CEO”時會減少女性CEO 圖片出現(xiàn)的情況,究其原因是因為當時世界500 強中女性CEO 只占5%。
抽樣偏差:選取樣本沒有使用隨機采樣導致數(shù)據(jù)樣本失去評估總體的能力。 可具體分為:偏見偏差[22]、鏈接偏差[23]、代表性偏差[24]等。 偏見偏差指研究人員無意識情況下將自身期望映射到抽樣階段從而產生偏差,如根據(jù)種族、性別、地域等相關信息來評價某種事物,這是帶有偏見色彩的。 鏈接偏差指受訪者通過網(wǎng)絡鏈接向調研者收集數(shù)據(jù),由于匿名化和網(wǎng)絡化導致信息收集可能與真實用戶信息存在差異。 代表性偏差指研究者對某個事件判斷過度注重某個特征,反而忽視其他具有影響力的特征。
測量偏差:指測量值與真實值之間存在的誤差。 美國累犯風險預測工具涉嫌歧視案中有這樣一個結論:由于來自少數(shù)族人群的逮捕率較高,所以他們更有可能犯罪。 研究發(fā)現(xiàn)逮捕率較高的原因是少數(shù)族裔社區(qū)相比于白人種受到政府更頻繁的控制和監(jiān)管,這種在評估群體存在差異的方式屬于測量偏差。
標簽偏差:標注者為某一實驗樣本分配帶有歧視的標簽從而產生偏差。 Jiang H 等人研究標簽偏差并證實在不改變標簽的情況下通過重新加權數(shù)據(jù)集方式可以糾正標簽謬誤導致的偏差,從而設想無偏機器學習分類器的生成[25]。
行為偏差:行為偏差是指不同平臺面對不同用戶產生不同影響。 如不同網(wǎng)絡平臺之間表情符號表現(xiàn)形式差異可能導致用戶反應和行為存在不同,甚至出現(xiàn)溝通錯誤的情況。
算法建模偏差主要存在算法設計和數(shù)據(jù)訓練階段,可以根據(jù)層次結構將模型偏差劃分為客戶端偏差和服務端偏差兩大類:其一客戶端偏差是指當多個客戶端通過模型參數(shù)與本地數(shù)據(jù)訓練時由于算法不合理導致客戶端偏差的存在。其二是服務端偏差,當多個客戶端將更新權值傳輸給中心服務器時,根據(jù)伯克森悖論[26](多個通常獨立的事物會在特定場合下形成關聯(lián)帶來偏差)可知中心服務器聚合后的模型可能與實際模型相差甚遠。 算法建模偏差也可根據(jù)機制差異分為混雜偏差[27]、資源分配偏差[28]、激勵機制偏差[29]和省略可變偏差[30]四部分。 混雜偏差指模型算法沒考慮對象全部信息,或沒考慮特征和目標輸出之間關聯(lián),從而學習錯誤的關系造成偏差;資源分配偏差是指中心服務器通過降低最小損失函數(shù)導致訓練時對各個客戶端造成偏差,顯然各個客戶端獲得相同的模型參數(shù)對于提供數(shù)據(jù)資源較多的客戶端是不公平的;激勵機制偏差是FL 技術與區(qū)塊鏈技術結合時存在的情況,當整個聯(lián)邦學習系統(tǒng)獲得外部貢獻時,客戶端通過制定利益分配方案獲取各自利益時存在一定偏差;省略可變偏差是指當模型遺漏一個或多個重要變量時產生的偏差。 例如某商家設計較高準確度模型來預測客戶喜愛產品程度,由于出現(xiàn)新的競爭對手導致很多客戶選擇其他商家產品,而模型卻并沒有根據(jù)實際情況更改導致出現(xiàn)偏差。
評估決策偏差主要存在于數(shù)據(jù)校準、實驗評估和結論歸納階段,此階段可能由于研究者自身局限性(知識存儲量不足或認知謬誤),導致實驗結論與真實原理存在差異。 此類偏差根據(jù)實驗處理過程可分為:評估偏差[31]、因果偏差[32]、匯總偏差[33]、驗證性偏差[34]和辛普森駁論[35]。
評估偏差:是指模型評估階段存在的一種偏差。 例如一些基準(IJB-A)在具有種族或性別歧視的人臉識別系統(tǒng)評價管理中應用,如果使用這類不相稱的基準來評估實驗最終模型,可能導致實驗結果無意識的歧視產生。
因果偏差:是指研究者沒有正確把握問題隱含因果關系,當只通過表面現(xiàn)象主觀臆斷時,可能導致相關性謬誤出現(xiàn),從而使得因果偏見生成。 因果關系是研究者認知歸納常用方法,只有正確把握問題的因果結構,才能確立正確思維,得出正確實驗結論。
匯總偏差:匯總偏差又稱作整理偏差,指訓練數(shù)據(jù)在匯總整理階段所形成的誤差。 訓練聚合數(shù)據(jù)需經(jīng)過層層匯總才能形成為反映評估實驗的結論信息。 由于匯總方式的不同,統(tǒng)計整理時此類偏差可分為手工匯總偏差(手工整理偏差)和機器匯總偏差(機器整理偏差)。
驗證性偏差:是指研究者對某一觀點或信念形成意識形態(tài)后,在分析信息和實驗評估時,若真實結果與理論原理存在差異,可能為了自身信念反復質疑甚至全盤否定真實結果。 文獻[35]表述當研究者個人信念影響研究問題和方法的選擇時便會產生偏見,并舉例一制藥公司研究人員可選擇支持制造藥物有用性的研究問題。
辛普森駁論:當實驗者研究兩種變量關聯(lián)性問題時,一般采用分組比較法觀測,然而在分組比較占優(yōu)一方可能在總評處于劣勢地位。 如加州大學伯克利分校大學因不同學院女性新生比男性新生錄取率更少而被訴訟一案,調研者對各個學院新生分組剖析時卻發(fā)現(xiàn)女性申請人具有平等性,且在某些學院中錄取人數(shù)女性比男性更多。
表2 偏差類別
如今FL 技術在越來越多領域展開應用,為了更直觀介紹偏差對于FL 的危害,本節(jié)通過兩個不公平案例簡單說明。
COMPAS(Correctional Offender Management Profiling for Alternative Sanctions)是越多越多美國的法官、緩刑和假釋官使用的累犯風險預測工具[36],其主要用于被告保釋評估階段,算法可定義為:S= (Y-W) + (Yf-W) + (C*W) +(E*W) + (I*W),其中S表示累犯風險預測分數(shù),W表示權值系數(shù),Y表示被告年齡,Yf表示首次被捕年齡,C表示歷史暴力情況,E表示教育水平,I表示違法歷史,從中不難觀測分數(shù)與種族并無聯(lián)系。 然而ProPublica 團隊發(fā)現(xiàn)預測工具隱含偏見:黑人被告被錯誤歸類為高暴力累犯風險是白人可能性的兩倍。 COMPAS 出現(xiàn)種族偏見的主要原因是:“歷史暴力情況”、“教育水平”等在不同種族間存在顯著差距。 在違法歷史的討論上,相同犯罪在白人、亞裔、非裔黑人等種族之間存在明顯差異,進而導致某種程度上偏向或不利于某個種族,從而使得累犯風險預測工具COMPAS 不公平的產生。
圖3 COMPAS 預測算法過程圖
如文獻[37]一出租車公司B希望為全體司機上保而與保險公司A合作。 這時單一訓練出租車公司歷史數(shù)據(jù)不足以清晰評估司機出險情況,所以保險公司采用多方聯(lián)合方式更精確預測保險個性化定價。 假設X表示司機歷史出險概率,Y表示乘客滿意度等其他敏感特征信息,此外由于各保險公司間存在合作,保險公司A一定程度能獲取其他保險公司C的司機投保特征數(shù)據(jù),此部分屬性可設定為Z,以上數(shù)據(jù)以聚合模型傳輸。 令X1= (ID,x,y),X2= (ID,z), 可用邏輯回歸模型預測:L=sigmoid(W;X1,X2),W表示聯(lián)邦學習中模型多輪迭代聚合收斂的最優(yōu)參數(shù)。 若此過程中B、C公司數(shù)據(jù)標簽存在差異,或公司C的數(shù)據(jù)量Z過小且不具代表性等,將可能導致回歸模型預測保險定價與實際本應定價存在差異。
圖4 保險定價流程
近年來,由于工業(yè)界對于數(shù)據(jù)集精度要求與日俱增以及避免偏差對于經(jīng)濟損失造成重大影響,許多研究團隊致力于探討公平性問題。 比如劉文炎團隊[14]提出可以把公平性類別分為感知公平性、統(tǒng)計公平性和因果公平性三部分,感知公平性主要關注于處理敏感屬性和一般屬性的平衡,或使用減少敏感屬性輸入以達到減少偏差的目的,或通過差分隱私使得敏感特征加權實現(xiàn)與一般特征的公平;統(tǒng)計公平性主要關注于數(shù)據(jù)和算法的公平,使得受保護群體和非保護群體的預期結果與真實結果保持一致;因果公平性通過干預實驗的因果模型、實驗者意識的因果關系來研究受保護屬性對于實驗結果的影響。 文獻[38]中提出基于FL 的一種實時算法以實現(xiàn)貢獻公平、遺憾分布公平和期望公平三種公平性指標,由于FL 基于多方合作傳輸梯度模型以實現(xiàn)資源共享,所以需要各方利益分配合理才能使得整個系統(tǒng)持續(xù)運轉。 本章節(jié)根據(jù)Gajane 和Pechenizkiy 等人系統(tǒng)化研究將公平性分為群體公平、個體公平、無意識公平、反事實公平、基于偏好公平五種類型[12,13],并通過預處理、處理中、后處理三階段對FL 公平性機制開展探討。
群體公平[39]:特定屬性在不同的群體間通過FL 算法應呈現(xiàn)相同的概率。 假設a= 1 表示受保護屬性,Y表示實際輸出結果,現(xiàn)有B、C兩個群體,則可根據(jù)定義表示為:
群體公平可依照度量形式不同分為統(tǒng)計公平、精度公平、均等公平。
個體公平[39]:如果一對個體具有相似的屬性,F(xiàn)L 算法應該輸入相似的概率。 若b1,b2 分別為群體B中的個體,a=1 表示受保護屬性,Y表示實際輸出結果,那么可表示為:
無意識公平[12,13]:FL 過程中,如果個體的同類型屬性(受保護屬性和一般屬性)出現(xiàn)相似的決策,換言之受保護屬性不影響系統(tǒng)輸出結果,那么預測器被稱為通過無意識實現(xiàn)公平。 假設a= 1 表示敏感屬性,a= 0 表示一般屬性,Y表示實際輸出結果,A為一個個體,則根據(jù)定義可表示為:
基于偏好的公平[40]:Zafar 等人[41]從經(jīng)濟學和博弈論角度出發(fā)得到基于偏好公平的概念,當在不同群體間給定多種選擇時,群體中的個體往往自發(fā)選擇有利于自身發(fā)展的決策執(zhí)行。 假如分類器X對種族B提供不低于分類器Y的益處,那么當決策選擇時種族B根據(jù)基于偏好的公平更容易選擇分類器X,可表示為:
反事實公平[42]:Kusner 等人[42]描述受保護屬性和數(shù)據(jù)之間關系時提出一種反事實公平。定義如下,假定現(xiàn)實世界帶有受保護屬性的數(shù)據(jù)集訓練得出的結果與在反事實世界運算得出的結果一致,則說明遵從反事實公平,這種對公平性的衡量也提供了一種解釋偏見原因的機制。
表3 公平性分類
4.2.1 預處理機制
預處理機制是指采取數(shù)據(jù)層面去偏方式以實現(xiàn)FL 系統(tǒng)輸入時的認知表征公平,其主要采用數(shù)據(jù)重采樣技術[43]。 數(shù)據(jù)重采樣技術表示重新選取樣本數(shù)據(jù)以減少預期結果和真實結果之間的偏差。 比如當研究者發(fā)現(xiàn)樣本屬性帶有偏見時,可以選擇減少帶有偏見的采樣數(shù)據(jù)或去除受保護屬性的信息,不過直接去除特征中的敏感屬性可能會造成實驗結果出現(xiàn)誤差。 又如當采樣數(shù)據(jù)的不同屬性采樣比例不一致時,根據(jù)馬太效應占比更大的屬性會在模型訓練中比例越來越多、占比更少的屬性會在模型訓練中越來越少,從而出現(xiàn)兩極分化的局面,這時可以使用重復采樣少比例樣本來實現(xiàn)數(shù)據(jù)采集的公平。 還可以通過尋找合適的特征函數(shù),將原來帶有受保護屬性的函數(shù)X轉換為一般屬性的函數(shù)Y,但是函數(shù)Y仍然具有很強的特征表達能力,從而使得FL 系統(tǒng)輸入時具有公平性。
4.2.2 處理中機制
圖5 預處理機制過程圖
圖6 處理中機制過程圖
4.2.3 后處理機制
后處理機制是指決策層面去偏方式以實現(xiàn)FL 系統(tǒng)輸出時的后驗評估公平,其方法形式也多種多樣。 首先當分類器聚合各參與方傳輸?shù)臋嘀囟啻蔚纬勺罱K收斂時,研究者可以通過調整預測閾值對模型進行后處理或直接修改聯(lián)邦學習的輸出結果以滿足驗證決策的公平;其次研究者可以使用一個有效去偏工具[44],根據(jù)可解釋技術生成特征向量,然后對特征向量進行分析,去除其中的偏見結果以實現(xiàn)公平;最后還可以在訓練完成的模型后增加風險評估算法,通過再訓練模型來評估偏見,以預測數(shù)據(jù)的偏差程度,如果結果偏差較大,則需要改進實驗、重新訓練,如果偏差較小,則可以修改數(shù)據(jù)以滿足公平性。 例如Galhotra 團隊開發(fā)出一種基于測試的方法Themis 來識別模型訓練時存在的歧視以及歧視程度。
圖7 后處理機制過程圖
COMPAS 數(shù)據(jù)集[45]:COMPAS 數(shù)據(jù)集包含2013、2014 年美國佛羅里達州布勞沃德縣11757名被告人的姓名、性別、年齡、種族等相關信息,其任務是通過計算累犯風險預測分數(shù),進而來預測被告人的累犯概率和累犯高風險概率。 該數(shù)據(jù)集可以研究種族和性別對于被告再次犯罪的影響。
Adult 數(shù)據(jù)集[46]:Adult 數(shù)據(jù)集包含1994 年美國人口普查中48842 條居民信息,囊括年齡、種族、工作性質、教育程度、婚姻狀況、國籍和收入等14 項屬性,其任務是根據(jù)教育、每周工作時間等屬性預測給定的成人是否年收入超過50000 美元,該數(shù)據(jù)集可以研究國籍、種族和教育程度等對于年薪收入的影響。
German Credit 數(shù)據(jù)集[47]:German Credit 數(shù)據(jù)集包含1000 名貸款申請人的20 種特征屬性,比如現(xiàn)有支票賬戶狀態(tài)、信用記錄、貸款目的等,其任務是通過訓練來預測借貸人信用風險好壞分類,從而實現(xiàn)銀行貸款的風險最小化和利益最大化。
WQDB 數(shù)據(jù)庫[48]:WQDB 數(shù)據(jù)庫是由美國地質調查局與密蘇里州哥倫比亞市和密蘇里州環(huán)境保護部合作收集1998 年到2005 年地下水和地表水位數(shù)據(jù)等形成的研究,包括900 個聯(lián)邦、州等超過3.8 億條水質數(shù)據(jù)記錄,物理特性、化學成分、營養(yǎng)物質等多種屬性,其主要用于研究水質情況的預測。
TensorFlow 是由谷歌公司開發(fā)的第二代數(shù)字計算軟件庫開源系統(tǒng),可便捷應用于PC、服務器和移動終端。 其工作模式如下:TensorFlow 系統(tǒng)先調用TensorFlow 約束優(yōu)化庫,然后根據(jù)不同指標(如種族、性別等)來配置聯(lián)邦學習系統(tǒng)環(huán)境,最后為用戶提供最小化和約束指標任意組合的功能,由此解決系統(tǒng)公平性問題。
WhiteNoise:WhiteNoise 是由微軟與哈佛研究所聯(lián)合開發(fā)的工具包,其可通過差分隱私方式保證各參與方的隱私安全和統(tǒng)計公平性。 例如多家醫(yī)院科室協(xié)同搭建一個實行重癥治療的預測模型,依靠差分隱私技術能夠使得各參與方不用直接通過數(shù)據(jù)進行信息的傳輸,從而減少個人信息被泄漏的風險以及增加各參與方數(shù)據(jù)采集的正確性。
(1)資源分配更趨近公平
聯(lián)邦學習系統(tǒng)中,當中心服務器將聚合后的模型參數(shù)分配給各客戶端時,每個客戶端從中心服務器獲取相同模型或者平均分配模型參數(shù)(Fed-Avg)對于向服務端提供更多數(shù)據(jù)模型的參與方顯然不公平,所以如何更合理資源分配使得各參與方認為己方公平是值得后續(xù)學者認真考慮的問題。
(2)公平性與準確性的界定
在公平性解決方案中,研究者可以通過差分隱私技術實現(xiàn)聯(lián)邦學習算法的公平,不過差分隱私的引入可能導致噪聲過大,從而降低模型訓練的準確性[49]。 所以如何更合理控制噪聲大小使得公平性與準確性達到一個臨值也是需要后續(xù)進一步討論。
(3)聯(lián)邦學習與區(qū)塊鏈結合的公平
近幾年隨著區(qū)塊鏈技術的興起,聯(lián)邦學習與區(qū)塊鏈結合引發(fā)激勵機制問題[50]成為學術界熱衷的新熱點,不過如何合理分配各方利益也是一個關鍵的難題。 若給予某些參與方的利益沒有達到心理預期,可能這些參與方擅自退出整個聯(lián)邦學習系統(tǒng),若給予某些參與方利益過高使得其他參與方感到不滿,可能其他參與方也會離開此系統(tǒng),從而導致整體模型數(shù)量級減少和利潤總和降低,甚至產生不可預想的蝴蝶效應,所以聯(lián)邦學習與區(qū)塊鏈關于激勵機制分配公平也需要加深探討。
目前,公平性定義衡量標準在世界范圍內沒有統(tǒng)一確立,且系統(tǒng)研發(fā)多數(shù)情況下偏差的出現(xiàn)是由于設計者無意識行為導致,所以僅僅依靠技術算法層面去偏不能真正實現(xiàn)聯(lián)邦學習公平性問題,還需要進一步完善相關機制,形成社會、法律、道德等聯(lián)合一體化整治規(guī)范。 不過隨著社會的不斷發(fā)展和人們對于網(wǎng)絡信息安全意識不斷增強,相信在不久的將來,聯(lián)邦學習公平性相關問題在社會各界的共同重視下得到進一步解決和完善,相關項目產品研發(fā)也將減少無意識偏差引入帶來的危害。