• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看

      ?

      甄別與防范:數(shù)字時代下的算法風險

      2022-02-05 02:17:38樊書鈺
      山東青年政治學院學報 2022年2期
      關鍵詞:共謀算法

      樊書鈺,張 馨

      (新疆財經(jīng)大學 法學院,烏魯木齊 830012)

      一、問題的提出

      由于技術擴展路徑的多元化,不同領域之間的破壁融合導致“算法”概念的應用場景逐步擴大。社會進程的不斷推進中,算法定義從數(shù)學與計算機科學領域下的“一種用自然語言描述解決問題的過程”①,延展出新的內(nèi)涵,各類界定觀點,莫衷一是。毋庸置疑,算法的實際應用為人類生活帶來了極大便利,然而算法擁有機器學習的同時,也裹挾了人類的價值判斷,立足于數(shù)字時代的大背景下,人類決策與機器判斷間的交互作用與影響致使將算法定義為“人類通過代碼設置、數(shù)據(jù)運算與機器自動化判斷進行決策的一套機制”②更契合現(xiàn)實前提。算法的多維度應用也使得算法成為人類決策過程的重要一環(huán),甚至人類社會的運行模式因算法而重構,而算法因自身特點導致其應用過程產(chǎn)生的風險也初見端倪。

      其一,確定可知的數(shù)據(jù)是算法的核心,強調(diào)算法所需數(shù)據(jù)的充足性與有效性,缺乏數(shù)據(jù)和缺乏有效數(shù)據(jù)都會導致算法運行與決策受限。一般而言,算法模型架構越大,產(chǎn)生可行結果所需的數(shù)據(jù)就越多,因此足夠的數(shù)據(jù)是算法作用得以充分發(fā)揮的首要條件。此外,精準把握算法對象關系中的關鍵變量以保證數(shù)據(jù)的質(zhì)量是在海量數(shù)據(jù)中避開干擾項、提取價值因素的樞紐。然而人機交互形態(tài)下,人類參與呈現(xiàn)出“雙刃劍”的效果,可能導致數(shù)據(jù)選取更為精確也可能致使數(shù)據(jù)選取帶入非理性色彩而削弱數(shù)據(jù)確知性。其二,算法的高時效性衍生出其競爭力的判斷條件,即何者能夠更出色地消除延遲,在最少的時間內(nèi)完成最多的任務,便能在諸多算法中脫穎而出占據(jù)競爭市場中的優(yōu)勢地位。[1]以金融業(yè)為例,算法改變了投資者的交易方式,通過使用先進的計算機工具和算法進行股票和證券快速交易的高頻交易(HFT)逐漸成為主流。然而,高頻交易更依賴于算法的時效,買賣速度上幾微秒的差異就可能造成無法估量的損失。其三,目前學界對于算法是否可解釋的爭論依然存在。2018 年歐盟《通用數(shù)據(jù)保護條例》(下稱:GDPR)提出了透明度原則,要求與處理個人數(shù)據(jù)有關的任何信息和通信都易于訪問和理解,并使用清晰明了的語言。簡言之,作為數(shù)據(jù)主體的每個人都有權了解其個人數(shù)據(jù)是如何被收集和處理的。這就要求算法提供者根據(jù)用戶個人數(shù)據(jù)的輸入使用簡明扼要的語言向用戶解釋顯示的輸出,以證明算法決策的準確性,而當算法設計需要在準確性和可解釋性之間進行權衡時,兩者往往不可兼得。決策樹、最近鄰等簡單且可解釋的模型準確性欠佳,高準確性需要諸如深度神經(jīng)網(wǎng)絡、隨機森林等復雜且難以解釋的模型進行支撐。盡管目前運用的算法模型大都采取可解釋的模型使其決策的可解釋性不可被完全否定[2],但無論是出于對算法決策準確性的追求,或是為了避免過度強調(diào)算法可解釋導致其過度簡化的風險,亦或是人機交互發(fā)展的最終形態(tài)可能是人類無法控制的自主算法,多數(shù)算法更趨向于擁有不可解釋的特征。這就意味著大多數(shù)用戶的理解力與算法表現(xiàn)形式間的鴻溝無法跨越且越拉越大,一旦達到算法表現(xiàn)形式超出專業(yè)人員認知的階段,后果更加不堪設想。總括而言,數(shù)字時代下,算法不斷拓展適用范圍之際,其引發(fā)的多重風險愈加顯著。

      算法風險作為算法應用過程中一個不可回避的話題,預防風險形式的優(yōu)劣與算法紅利的高低成正比。目前學界對算法風險的研究,大多數(shù)學者以點為切口,將算法風險進行不同劃分,針對所研究的算法風險進行對應規(guī)制,深入挖掘算法風險預防路徑。袁康認為可從算法的可信任構建層面入手進行算法風險的預防與規(guī)制[3];趙學剛、馬羽男強調(diào)算法偏見是算法決策過程中的重大風險,應從算法偏見角度研究算法風險的解決路徑[4];葉明,郭江蘭細分了算法價格歧視的不同風險情境,指出了對于該類風險規(guī)制的現(xiàn)行法律供給不足并提出了相應的完善對策[5];周圍從算法共謀的競爭隱憂入手探討了其與反壟斷法的拓展適用問題并提出了規(guī)制共謀風險的合理性框架[6]。依托互聯(lián)網(wǎng)技術而至的數(shù)字時代致使算法風險的預防若僅僅從某一方面進行考量難免有所不足,因此在厘清算法自身特征后,基于機器學習與人類決策互相作用的現(xiàn)實基礎賦予的從人機交互角度入手進行算法界定的合理性,運用系統(tǒng)性思維從多個方面審視算法風險,或更能實現(xiàn)對算法風險內(nèi)在原因的深度解析并進行針對性的風險甄別與預防。

      二、算法的復合風險甄別

      (一)算法偏見

      算法作為人工智能、區(qū)塊鏈等高新技術的運行基礎與邏輯起點,高效率特征使其在多個領域逐漸代替人類對社會中的諸多事物進行決策,但不可否認其在運行過程中會出現(xiàn)偏差。例如,Google曾使用算法進行過排除限制競爭行為,侵犯了其他經(jīng)營者的合法權益。具體地,Google利用“專業(yè)搜索算法”(specialized search algorithms)提供“購物比價”服務,消費者通過進行特定操作觀看其提供的不同商業(yè)網(wǎng)站的商品展示并按需消費,而商業(yè)網(wǎng)站的顯示順序,又通過以網(wǎng)站鏈接與質(zhì)量判斷其優(yōu)劣的Page Rank算法完成,當 Google Shopping的業(yè)務進入歐洲市場后,Google便私底下將自己旗下的產(chǎn)品排除在 Page Rank算法等網(wǎng)頁排序算法的篩選之外,直接將產(chǎn)品置于消費者使用購物比價服務時肉眼所及的明顯位置,從而實現(xiàn)不正當競爭。[7]學界將此種“算法設計者或所有者通過調(diào)整參數(shù)得到想見結果”③的情形稱為算法偏見。運用算法進行決策時,若發(fā)生偏差形成“應然”與“實然”之間的邏輯斷層,那么按照自動化程序推演計算進行的決策,不僅無法達到預期的良計算,反而會造成嚴重的不良后果。尋根溯源,算法偏見產(chǎn)生的原因歸結于兩點,一是“心理特征”,即數(shù)據(jù)選取體現(xiàn)的價值判斷;二是“身體特征”,即算法“黑箱”導致的審查不能。

      1.“心理特征”

      數(shù)據(jù)為算法動態(tài)化決策的基礎要素,有學者將技術層面算法偏差的產(chǎn)生歸因于數(shù)據(jù)偏見與算法設計偏見。然而從事實角度出發(fā),不論是因數(shù)據(jù)本身存在潛在偏見導致數(shù)據(jù)在輸入環(huán)節(jié)產(chǎn)生偏頗,又因算法模型的構建階段未設定合理糾正程序致使在大量運算過程中按此邏輯累積偏差所形成的數(shù)據(jù)偏差,[8]還是將數(shù)據(jù)進行類型化處理或影響各種變量數(shù)據(jù)及其權重設置的算法設計偏差,因兩類偏差體現(xiàn)出的皆為“數(shù)據(jù)選取隱含的價值判斷”。人在自身能力、社會風氣以及文化教育等多重因素的綜合影響下會對事物做出基本的判斷,該種判斷本身無法避免。究其根本,上述兩種偏差所顯示出的都是“選取何種數(shù)據(jù)放入算法決策”與“選取多少數(shù)據(jù)放入算法決策”的問題,其本質(zhì)上是算法設計者或算法所有者,亦或是二者對其想要達成結果的一種價值判斷。因此選取數(shù)據(jù)的不可避免性,就意味著隱形或顯性價值判斷嵌入算法的必然性,進而導致因算法“非中立”帶來的算法偏見風險。

      2.“身體特征”

      用戶及相關方除單純的數(shù)據(jù)輸入和輸出外再無法觸及算法運行中內(nèi)部隱含原理、邏輯與操作的問題即“算法黑箱”,也是人類無法避免算法偏差的另一重要原因。雖然算法能夠按照預設的過程客觀執(zhí)行每一個步驟,但人類行為在算法設計、部署和應用方面的影響卻難以避免。技術不完備的客觀規(guī)律下,設計者自身偏見、社會風俗或文化差異等價值選擇注入算法執(zhí)行程序,會造成算法決策或輸出結果延續(xù)此種固有偏見。[9]算法非透明化的運算過程會使得社會中的個體通常只能得到算法決策的結果,無法審查算法產(chǎn)生結果的過程,進而加劇算法風險。

      (二)算法歧視

      “歧視”早在人工智能誕生前便普遍存在于人類社會,作為認知過程的副產(chǎn)品,其產(chǎn)生沿襲了獨特的社會發(fā)展邏輯。人類在認知世界的過程中,通過對事物進行類型化區(qū)分并以此分割事物間的界限,強調(diào)同一類型事物間的相似性,賦予個體集體認同感。出于集體自尊與自我認同提升的需要,群體總是傾向于將褒義印象賦予自身,將貶義印象賦予外群,產(chǎn)生對外群的偏見,而個體的行為意向又因囿于群體內(nèi)部而受群體影響,導致個人將認知層面的偏見外部化于社會生活中,形成被法律所規(guī)制的“歧視”。[10]隨著智能化算法帶來越來越多的紅利,“歧視”并未內(nèi)消于算法決策之中,反而在社會生活中逐漸凸顯,而人類歧視與算法歧視之間的差異性,使得算法歧視擁有別于人類歧視的特征,導致算法歧視的規(guī)制難度更大。

      1.高度隱蔽性

      屬于計算機語言的算法,首先因其專業(yè)化程度較高,導致了普通客戶通常無法真正地理解算法的運行;其次,算法本身決策過程的不公開或受商業(yè)秘密、國家秘密等原則保護的特征導致算法不透明。[11]最終因信息不對稱導致個人對于可能具有差別或帶有歧視意圖的決策結果只能被動接受,無法準確識別算法歧視。[12]

      2.主體廣泛性

      主體廣泛包含責任主體廣泛與影響主體廣泛,與算法歧視的責任產(chǎn)生主體和結果影響主體相對應。一方面,雖然內(nèi)含歧視的算法設計往往是算法歧視結果產(chǎn)生的主要原因,但是由算法設計者承擔所有算法歧視的責任并不適當。因為算法決策的實現(xiàn)與相關的數(shù)據(jù)輸入有緊密聯(lián)系,錯誤數(shù)據(jù)的來源有輸入端口或機器學習中獲取的信息,這些數(shù)據(jù)可能是無意輸入,可能是算法運用者受利益趨勢提供,也可能是機器學習時對固有信息的異化理解,因此算法歧視的出現(xiàn)就成為了多方主體共同作用的結果,相應地對其規(guī)制也需要多方主體一并發(fā)力[13]。另一方面,互聯(lián)網(wǎng)平臺擁有的巨大輻射能力使得算法歧視結果發(fā)生后,受歧視影響的人數(shù)多于傳統(tǒng)歧視結果影響人數(shù)。加之以算法為基礎的產(chǎn)品在金融、法律、文化、醫(yī)療等方面的應用,導致算法能更快滲透到人類社會的方方面面,而使用此類產(chǎn)品的個體都成為了潛在的被算法歧視對象,增加了算法歧視影響主體的人數(shù)。

      3.個體差異化

      算法歧視中最能體現(xiàn)個體差異化特征的例子是“大數(shù)據(jù)殺熟”。在小數(shù)據(jù)時代,高額的信息獲取成本致使經(jīng)營者只能根據(jù)有限信息,預估消費者整體的購買需求進行定價。然而在大數(shù)據(jù)時代,基于海量的數(shù)據(jù)分析,經(jīng)營者利用算法模型可以實現(xiàn)對每一個消費者消費偏好的精準定位,繪制獨立的用戶畫像,帶來“千人千面”的人機交互體驗,[14]再針對個體的消費需求,制定差異化價格,實行算法價格歧視,侵犯消費者的合法權益。

      (三)算法共謀

      傳統(tǒng)經(jīng)濟視角下的共謀,是指互為競爭關系的經(jīng)營者為獲取市場優(yōu)勢共同實施的利潤最大化戰(zhàn)略,共謀各方通過抬高市價、減少供應等方式達到減少甚至消除競爭、提高市場進入壁壘的目的。共謀分為顯性和隱性兩種形式,顯性共謀(explicit collusion)的發(fā)生以經(jīng)營者間存在客觀協(xié)商和明示合作關系為前提,并形成壟斷協(xié)議。相比之下,隱性共謀(tacit collusion)所涉及的經(jīng)營者間可能并不存在直接互動,無需達成正式的壟斷協(xié)議即可產(chǎn)生限制或排除競爭的目的。[15]理論上,數(shù)字時代市場透明度高、集中度高、準入門檻低的特征更易形成相對公平的競爭環(huán)境,然而實際上,復雜算法的崛起顛覆了傳統(tǒng)共謀發(fā)生與市場環(huán)境的相關關系,算法共謀所致的壟斷問題逐漸顯露。

      1.隱性共謀使壟斷協(xié)議難以界定

      2016年Ezrachi和Stucke按照共謀形式的層級,由低到高確定了算法促成共謀的四種場景,分別為信使(Messenger)、中心輻射式(Hub and Spoke)、預測型代理人(The Predictable Agent)以及電子眼(Digital)④,越高階者越難以被察覺到壟斷的痕跡。信使場景中算法僅扮演“信使”角色,是延伸人類意志的輔助,人類依舊是共謀的主體,算法僅負責執(zhí)行。因此,此種形式的反壟斷行為,現(xiàn)有法律框架足以將其囊括,而其余三種場景都含有隱性共謀色彩,中心輻射式場景和預測代理人場景以不同的方式借助算法對市場變化做出反應,前者基于不同行業(yè)的經(jīng)營者使用同一定價算法使其起到協(xié)調(diào)價格的“樞紐”作用,后者則基于各企業(yè)單獨開發(fā)的算法以可預測的方式快速取得優(yōu)勢競爭地位。當定價算法變得足夠復雜后會脫離人類主體進行自主學習,并找到協(xié)調(diào)價格的路徑。在這三種場景中,無論是開發(fā)者、經(jīng)營者的無心之過亦或有意為之,最終都產(chǎn)生了壟斷行為,但由于無直接交流、難以判定壟斷協(xié)議的存在,現(xiàn)行法律無法對其進行規(guī)制。

      美國《謝爾曼法》第1條和歐盟競爭法第81條第一款的適用都表明了共謀的確定需要固定價格、產(chǎn)量限制、聯(lián)合抵制等協(xié)議的存在[16],《中華人民共和國反壟斷法》(下稱:《反壟斷法》)也明確將達成壟斷協(xié)議包含至壟斷行為中,并將壟斷協(xié)議定義為“排除、限制競爭的協(xié)議、決定或者其他協(xié)同行為”⑤。無庸贅述,不同國家對限制競爭行為違法構成要件的規(guī)定都離不開壟斷協(xié)議的存在。然而盡管不同法律都在壟斷協(xié)議認定中給予一定的拓展空間,即“協(xié)議”并非完全基于經(jīng)營者間溝通交流的書面或口頭約定,其他能夠證明經(jīng)營者間存在限制競爭意圖的證據(jù)一旦予以認定也屬于協(xié)議范疇。但實踐中“協(xié)議”的認定仍以經(jīng)營者間是否存在直接互動或意思聯(lián)絡作為標準[17],在定價算法引領的隱形共謀中,人類主體無需進行互動甚至無任何人為價格操縱的證據(jù)留存,各國反壟斷執(zhí)法缺少證據(jù)而無法對算法共謀進行有效規(guī)制。如此一來,若壟斷協(xié)議的概念在理論和實踐中不加以突破,算法共謀所致的壟斷行為會在市場中愈演愈烈,使得市場公平競爭遙不可及。

      2. 自主學習算法使壟斷責任難以劃分

      中心輻射式和預測型代理人的共謀形式并未完全脫離人類主體的存在,由于應用或開發(fā)特定算法的決定依舊由經(jīng)營者做出,算法不能成為最后的“決策者”。若壟斷協(xié)議得以明確拓展并在實際中發(fā)揮作用,那么只要上述兩種場景中存在經(jīng)營者間的反競爭意圖,就足以構成壟斷責任。對于自主學習算法則不然,盡管電子眼場景的發(fā)生可能遙遙無期,但其一旦成真就意味著算法擁有了決策地位,主導著共謀的發(fā)生。此時,在只有反競爭的結果卻沒有證據(jù)留存的情況下,何者應當承擔壟斷責任?算法自身無法作為違法主體,責任按理應當由開發(fā)者或使用者承擔。然而在自主學習算法下,開發(fā)者和經(jīng)營者可能并無共謀意愿,甚至在共謀發(fā)生后仍不明所以。

      目前各國法律大都將壟斷責任歸于經(jīng)營者。歐盟國家對于做出反競爭行為的經(jīng)營者處以高額罰款,此外經(jīng)營者根據(jù)訴訟結果支付損害賠償;在美國除損害賠償、高額罰金外,經(jīng)營者還面臨個人監(jiān)禁的刑事責任?!斗磯艛喾ā返谒氖鶙l根據(jù)是否實施壟斷協(xié)議規(guī)定了經(jīng)營者的不同法律責任,并依據(jù)情況確定罰款及處罰的力度。雖然目前還沒有經(jīng)營者因算法的自主行為承擔責任的案例,但早在1996年,Billings便指出:“自動化只是人類操作者可利用的眾多資源之一,他們保留了自動化和整個系統(tǒng)的管理與指導責任?!雹抻谧灾鲗W習算法而言,人類主體在選擇開發(fā)與應用定價算法的同時就默認保留了相應的責任承擔,就算抬高市價的行為與其無關,也應追溯到開發(fā)者或經(jīng)營者。按照此種倡導,主體日后選擇算法進行定價時就必須謹慎,人工定價更能排除共謀風險,而當算法定價成為常態(tài)后,經(jīng)營者本身的趨利性使其為不落后于市場平均水平不得不選擇定價算法。市場趨勢、自身發(fā)展與法律風險的矛盾逐漸顯露且無法平衡,自主學習算法所致的壟斷責任劃分成為難題。

      三、算法的三層規(guī)制

      (一)本體維度:為開發(fā)者注入算法公平理念

      宏觀層面上,公平是每一個現(xiàn)代社會追求的目標,經(jīng)濟上分配的相對平等、法律上權利與義務的對等均是其顯著表現(xiàn)。只有同行業(yè)同水平的薪資標準相對明晰并被大多數(shù)勞動者知悉才可在后續(xù)發(fā)放時評判公平與否、只有公開出臺的法律法規(guī)中明確了不同社會角色承擔的義務與擁有的權利才可保證公平的存在,因此究其根本,公平的內(nèi)核離不開“客觀”與“高透明度”。于算法領域而言,目前已有企業(yè)和政府做出嘗試,將公平理念納入指導以算法為要素的人工智能相關工作的原則中。微軟早在2014年啟動了FATE項目,確定了公平、問責、透明和道德的原則。政府層面,歐盟于2019年4月發(fā)布的《可信人工智能倫理指南》中明確了倫理準則和技術穩(wěn)健性,新加坡個人數(shù)據(jù)保護委員會(PDPC)2021年1月發(fā)布的《人工智能治理框架模型》確定了“AI所作決定應是可解釋、透明并公平的”為指導原則⑦。在企業(yè)和政府將公平確定為指導原則的基礎上,以算法開發(fā)者入手從源頭注入公平理念也尤為重要。

      其一,為保證客觀、減少算法偏見與算法歧視的存在,可以設定算法開發(fā)者的進入門檻并組織建立專業(yè)測試團隊以實現(xiàn)針對預投入使用算法的公平度測試。為開發(fā)者設立門檻是對數(shù)據(jù)進行預處理以切斷數(shù)據(jù)不公平來源的有效事前措施,根據(jù)易導致算法偏見與歧視的敏感屬性設計出針對算法開發(fā)者群體、以公平理念為核心的準入測試,只有合格者才能入選,盡可能排除有明顯性別、年齡、種族、特殊群體歧視、道德理念偏差的人員參與到算法開發(fā)中,盡可能消除由個人主觀意識所造成的不公平爭議。在完成開發(fā)工作后、算法投入使用前,可交由算法公平度測試團隊進行一定量的“使用模擬”,根據(jù)模擬結果的平均值進行算法公平度測算,若顯示出算法偏見或歧視傾向則對開發(fā)者的公平理念弱點進行及時補足。公平度標準的設立可由測試團隊自行設立,由于1∶1的極致公平難以實現(xiàn),在公平度標準設立時可根據(jù)實際設定5%-20%偏差率,即0.95∶1.05到0.8∶1.2間。以招聘算法為例,設定候選人除性別外學歷、年齡、技能等其他條件完全相同的情況,設定20%的偏差率,若100次模擬中超過60次的結果輸出為某固定性別,則需通知開發(fā)團隊使其進行調(diào)整后再次模擬,以達到兩性別輸出比例高于2∶3并無限趨于1∶1的公平度標準。另外可以考慮引入第三方審計,對算法正式實施運行后的情況進行定期檢測,及時發(fā)現(xiàn)對算法公平產(chǎn)生消極影響的要素并及時處理調(diào)整以實現(xiàn)算法公平最大化。

      其二,為保證高透明度、削弱算法不可解釋的特性,開發(fā)者將支持算法輸出結果的關鍵值進行適當公開并加以解釋是可行之道。目前學界普遍支持以及在歐美法中已經(jīng)法定的算法解釋權并非有效行徑,現(xiàn)行以歐盟GDPR為代表,通過立法肯定算法解釋權的方式在必要性與可行性上都有待考量。[18]賦予算法可解釋權不僅會產(chǎn)生較高的解釋成本使該措施在執(zhí)法層面上的落地成為空中樓閣,而且使算法易于理解的后果可能是結果準確性的降低。因此,排除立法賦權途徑,開發(fā)者無需過度關注算法所含編碼、運行程序等專業(yè)性較強的技術細節(jié),而是可以公開與算法結果聯(lián)系緊密的輸入數(shù)據(jù)中的關鍵因素,并以易懂的方式向涉及其中的人類主體說明并解釋其中存在的聯(lián)系以及可能受到的影響。以定價算法為例,開發(fā)者可將用戶最近搜索詞條、購買產(chǎn)品、回購次數(shù)等用戶數(shù)據(jù)的重要組成部分作為關鍵因素向用戶作出說明解釋,并闡明各要素作用于“個人畫像”的比重。

      (二)法律嵌入:細化法律條文與責任劃分

      2020年3月18日,工業(yè)和信息化部辦公廳關于印發(fā)《中小企業(yè)數(shù)字化賦能專項行動方案》的通知中,提出“鼓勵發(fā)展算法產(chǎn)業(yè)和數(shù)據(jù)產(chǎn)業(yè)”⑧。隨后國家又陸續(xù)出臺多項政策支持算法發(fā)展,算法產(chǎn)業(yè)及相關建設雖方興未艾,但算法“陰暗面”亦不容小覷。合理的法律制度構建成為化解算法風險的有效途徑之一。《電子商務法》《反壟斷法》等法律規(guī)定確已達到部分風險規(guī)制效果,但算法偏見、算法歧視、算法共謀因場景不同而存在的規(guī)制困境,使得法律制度嵌入算法風險治理的具體途經(jīng)亟待深度挖掘。

      法律予以規(guī)制的基礎是行為對法益的侵害,算法偏見、算法歧視與算法共謀造成的損害結果,按照損害主體與利益范疇的不同,可劃分為公民基本權益的損害與特定主體利益的損害。一是,公民基本權利的損害?!稇椃ā穼θ说膬r值的肯定,規(guī)定公民享有的基本權利。而算法偏見的產(chǎn)生邏輯,致使數(shù)據(jù)輸入的非客觀性,算法黑箱遮蔽了非中立元素通過不同途經(jīng)進入算法運行過程并對算法決策產(chǎn)生影響的流程,進而固化社會中存在的不公,損害了公民的基本權利;二是,特定主體利益的損害。數(shù)字社會中,算法歧視導致的歧視性后果與算法共謀產(chǎn)生的排除與限制競爭效果,不僅損害了特定消費者的知情權、自主選擇權與公平交易權等消費者合法權益,亦形成不易察覺的貿(mào)易壁壘,侵犯擁有競爭關系的經(jīng)營者的利益,而損害結果的類型不同,意味著普遍適用的法律條款在無具體細則支撐的情況下,應對不同場景的損害后果很難做出針對性預防,因此細化法律條文是預防算法風險的必然要求。

      預防算法風險的法律條款不勝枚舉,《關于平臺經(jīng)濟領域的反壟斷指南》強調(diào)禁止因算法產(chǎn)生的差別待遇;GDPR的默認隱私原則為算法嵌入公平、正義的理念;《消費者權益保護法》更是明確消費者享有的各項權益。實踐中,面對算法決策侵犯特定主體利益的個案,算法所有者享有的天然信息優(yōu)勢,加之算法決策的黑箱,消費者往往因處于信息劣勢,導致舉證困難。又因部分法律規(guī)則的執(zhí)行能力不強,法律實施的效果較差,進一步弱化了消費者或經(jīng)營者的受保障程度。[19]因此在法律層面,重構算法規(guī)則,明確具體規(guī)則的貫徹落實可以使算法使用者的權利得到有效救濟。一方面,應當從法律層面落實算法公開的具體規(guī)則,算法公開制度應當立足于數(shù)據(jù)參數(shù)選取原因以及有特定指向的決策體系等有意義的內(nèi)容進行公開與解釋,真正提高算法透明度,[20]并具象化預防算法風險的特別規(guī)定,譬如,在《反壟斷法》中將算法共謀明確納入界定壟斷協(xié)議時所指的“協(xié)同行為”范疇。另一方面,進一步加強監(jiān)管機構的責任強度,加大執(zhí)法力度。具體地,加重處于優(yōu)勢信息一方的算法運營平臺在個案時的舉證責任,將“舉證責任倒置”規(guī)則引入算法風險類案件中,扭轉(zhuǎn)個案中算法使用者的信息劣勢地位,保障雙方平等的訴訟權利。當機器自主學習給用戶造成損害時,企業(yè)經(jīng)營者和算法設計者對于算法參數(shù)選取、功能設置等的知曉度相較用戶而言,明顯處于信息優(yōu)勢地位,因此若仍依“誰主張誰舉證”的舉證規(guī)則,用戶很大可能會陷入舉證不能的窘境。為此,若在法律明確“面對機器自主學習給用戶造成的損害,由企業(yè)經(jīng)營者和算法設計者承擔舉證責任”,且二者對于損害應當承擔的責任根據(jù)實例交由法院按比例進行適度劃分,或能更有效地保護用戶的正當權益。

      (三)多元治理模式:推動算法所有者實現(xiàn)自我規(guī)制

      突破傳統(tǒng)監(jiān)管結構,從執(zhí)法部門與社會主體雙重維度出發(fā),構建國家與社會雙軌并行的監(jiān)管路徑,已經(jīng)成為算法風險預防的應然之舉。多元治理模式對算法風險的有效規(guī)制亦是推動算法所有者自我規(guī)制目的實現(xiàn)的重要途經(jīng)。

      1.執(zhí)法部門動態(tài)監(jiān)管

      合理的監(jiān)管方式與有效的監(jiān)管手段利于執(zhí)法部門建立完備的算法監(jiān)管體系,實現(xiàn)高效監(jiān)管。首先,無法預測的算法風險與動態(tài)的算法運行過程,決定執(zhí)法部門對算法監(jiān)管的形式,應當采取復合的動態(tài)監(jiān)管模式,而定期與不定期相結合的審查方式對及時發(fā)現(xiàn)算法風險具有關鍵作用。執(zhí)法部門應當聯(lián)合行業(yè)協(xié)會定期對算法所有者所使用的算法是否造成影響市場秩序的不良后果進行審查,并將審查結果予以公開,提升執(zhí)法部門的監(jiān)管權威性。并輔以不定期審查的監(jiān)督形式,對企業(yè)使用的算法進行抽樣排查,減少算法風險的產(chǎn)生。其次,執(zhí)法部門的監(jiān)管手段,應當結合具體案件合理選擇,有限干預市場運行。例如,“鳳凰新聞”就曾被相關執(zhí)法部門“約談”,要求其平臺的算法設計中提高信息質(zhì)量的比重。[21]該種有別于傳統(tǒng)禁令、禁止等處罰方式的監(jiān)督手段,能夠有效避免執(zhí)法行為對市場主體自主經(jīng)營活動的侵害,亦能減少算法風險侵犯消費者或經(jīng)營者權益現(xiàn)象的發(fā)生。最后,執(zhí)法部門的監(jiān)管工具應與時俱進,引入以“算法”預防“算法風險”的可行之路。數(shù)字時代下,算法出現(xiàn)在人類社會治理的多領域,金融領域基于算法的自動交易系統(tǒng)廣泛用于股票、證券、期貨等各個方面;體育領域基于算法可通過分析運動員歷史訓練數(shù)據(jù)組合出最優(yōu)隊伍;醫(yī)療領域基于算法可以評估新生兒出生時的狀態(tài)。算法多場景運用的紅利昭示人類在社會治理中使用算法工具的必然。因此執(zhí)法部門的監(jiān)管工具選擇需從三方面考量:一是,需要結合社會背景順時代之潮;二是,可結合執(zhí)法部門在監(jiān)管環(huán)節(jié)運用算法已有嘗試的經(jīng)驗之談。目前稅務機關將作為典型信任算法的區(qū)塊鏈應用于電子發(fā)票領域已是成功實例⑨,反映出算法在監(jiān)管環(huán)節(jié)的作用發(fā)揮可有效降低納稅爭議風險;三是,需深入考慮執(zhí)法部門在監(jiān)管環(huán)節(jié)可能因算法的體量過大而面臨監(jiān)管不力困境。故而,設立一款特有算法以監(jiān)測“算法風險”的產(chǎn)生,利用算法嚴格的自執(zhí)行程序或能彌補人為監(jiān)管的不足,進一步強化執(zhí)法部門監(jiān)管力度。特有算法的運行模式如下所示:首先特有算法本身應具備可追溯特點,該特點不僅便于后期取證,而且利于實時監(jiān)測及時發(fā)現(xiàn)風險頻發(fā)的薄弱處并進行對應整改。特有算法可利用多個參數(shù)設置以評判A算法是否具有算法風險。一是A的參照數(shù)據(jù)范圍;二是A主要的應用領域;三是A是否符合法律法規(guī)的強制性規(guī)定;四是A出現(xiàn)風險時的反饋渠道。通過對上述參數(shù)的評測,實現(xiàn)對A算法的全鏈條監(jiān)督,維護算法的信用生態(tài)。

      2.社會主體可評估算法制度的建立

      算法模型對算法風險的遮蔽,導致社會主體往往還未意識到算法風險,便遭受了損害結果。而算法風險所體現(xiàn)的對個體基本權利保護的冷漠,使得多數(shù)為專業(yè)知識所限的普通民眾在技術壓制下“任人宰割”。強化算法治理中的風險預防,必須將社會主體納入監(jiān)管主體的重要一環(huán),因此算法風險影響評估制度的構建便亟待完成。

      算法風險影響評估制度,是指在專業(yè)機構對算法可能產(chǎn)生的潛在風險進行評估后,再由用戶對算法是否造成不良影響的個體體驗感進行反饋,執(zhí)法部門再針對用戶反饋對算法審查并進行相應處罰。第一,專業(yè)機構需要對算法事前進行風險高低評估再決定該算法是否投入使用,風險較高的算法應將算法風險評估報告予以公開披露,[22]保障專業(yè)機構評估活動的公正與透明;第二,用戶對算法進行體驗感反饋,該反饋應當在特定區(qū)域以時間為序予以披露;第三,執(zhí)法部門應當定期審查用戶反饋風險較高的產(chǎn)品,核查后若確存在算法風險,執(zhí)法部門應予以嚴厲處罰,保障用戶的合法權益。

      算法決策應用場景的逐步擴大已然成為社會發(fā)展的大勢所趨,但算法風險依舊存在并顯現(xiàn)出規(guī)制難題。算法偏見、算法歧視以及算法共謀所引發(fā)的無意或隱性的對人類價值與權利的漠視,其背后不僅是算法模型自身的瑕疵,亦有價值判斷的影響加持,更有人類認知腳步無法追及科技發(fā)展的無奈。算法設計者、算法所有者、算法使用者、執(zhí)法部門作為影響算法動態(tài)決策過程中的重要主體,要從根本上預防算法風險,務必要將四者納入規(guī)制風險的關鍵環(huán)節(jié),從本體規(guī)制、法律規(guī)制以及監(jiān)管規(guī)制三個維度出發(fā),為算法的良性發(fā)展提供健康的內(nèi)外部環(huán)境,從源頭到事后構建全過程、體系化的算法規(guī)制機制,以杜絕算法風險的發(fā)生。

      注釋:

      ①參見[美]塞奇威克、[美]韋恩:《算法》,謝路云譯,人民郵電出版社2012年版,第1頁。

      ②參見丁曉東:《論算法的法律規(guī)制》,載《中國社會科學》2020年第12期,第138-159頁。

      ③參見梁志文:《論算法排他權:破除算法偏見的路徑選擇》,載《政治與法律》2020年第8期,第94-106頁。

      ④See Ariel Ezrachi, Maurice E Stucke. Two Artificial Neural Networks Meet in an Online Hub and Change the Future ( of Competition, Market Dynamics and Society),UniversityofTennesseeCollegeofLaw, 2017.

      ⑤《中華人民共和國反壟斷法》第三條規(guī)定和第十三條分別規(guī)定。

      ⑥See Billings, C.E. Human-Centered Aircraft Automation: A Concept and Guidelines.NationalAeronauticsandSpaceAdministration,AmesResearchCenter, 3(1996).

      ⑦See De Cremer, D. What does building a fair AI really entail? Harvard business review. https://hbr.org/2020/09/what-does-building-a-fair-ai-really-entail. Last visit on 26 November 2021.

      ⑧參見中華人民共和國中央人民政府. 工業(yè)和信息化部辦公廳關于印發(fā)《中小企業(yè)數(shù)字化賦能專項行動方案》的通知(工信廳企業(yè)〔2020〕10號)http://www.gov.cn/zhengce/zhengceku/2020-03/24/content_5494882.htm. 最后訪問日期:2022年1月26日。

      ⑨參見國家稅務總局廣東省稅務局.廣州推出全國首個“稅鏈”電子發(fā)票區(qū)塊鏈平臺.http://guangdong.chinatax.gov.cn/gdsw/wwggdt/2018-06/27/content_0300aa26c5704959af029d345310a395.shtml. 最后訪問日期:2022年1月26日。

      猜你喜歡
      共謀算法
      監(jiān)督中的共謀與縱容
      活力(2019年19期)2020-01-06 07:34:42
      基于MapReduce的改進Eclat算法
      因地制宜惠民生 共謀福祉穩(wěn)發(fā)展
      中華建設(2019年8期)2019-09-25 08:26:02
      Travellng thg World Full—time for Rree
      進位加法的兩種算法
      算法初步兩點追蹤
      基于增強隨機搜索的OECI-ELM算法
      一種改進的整周模糊度去相關算法
      共謀共同正犯否定論
      政治與法律(2015年5期)2015-03-01 02:21:11
      顧一帆:同心協(xié)力,共謀發(fā)展
      汽車零部件(2014年5期)2014-11-11 12:24:20
      溧阳市| 昌平区| 巴塘县| 定安县| 慈溪市| 文安县| 徐闻县| 黄冈市| 天气| 湟中县| 江都市| 佛坪县| 丹东市| 康乐县| 阜新市| 西林县| 永定县| 嘉鱼县| 宁蒗| 湛江市| 汉川市| 石城县| 北票市| 增城市| 郧西县| 长白| 沭阳县| 黄石市| 那坡县| 城步| 晋宁县| 云龙县| 丹阳市| 克拉玛依市| 百色市| 张家川| 龙井市| 商丘市| 商城县| 衡水市| 阳新县|