• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      算法歧視法律規(guī)制的法理分析

      2022-07-06 23:49:08陳星辰陳雅琪
      客聯(lián) 2022年4期

      陳星辰 陳雅琪

      摘 要:算法的迅速發(fā)展使得法律對算法的規(guī)制制度迅速滯后,算法逐漸暴露出歧視性的特征,已經(jīng)嚴重問題,不僅體現(xiàn)在商業(yè)領(lǐng)域,現(xiàn)如今已經(jīng)向公權(quán)力域滲透,嚴重影響了算法正義的實現(xiàn)。算法歧視產(chǎn)生源自于人類社會本身的歧視和算法權(quán)利人的利用目的,并通過數(shù)據(jù)的量化展現(xiàn)出來。算法歧視是為對人的尊嚴的侵犯,對平等原則的違背,對正義價值的僭越。反觀我國現(xiàn)行的法律規(guī)制尚未形成完備的體系,呈現(xiàn)出監(jiān)管困難、責任落實不到位、法律適用尺度不一等問題,因此,應當堅持以人為本位,建立算法規(guī)制的法律體系,維護算法正義。

      關(guān)鍵詞:算法歧視;平等原則;正義價值;算法規(guī)制

      近幾年,隨著移動終端的迅速普及,互聯(lián)網(wǎng)在數(shù)據(jù)來源拓寬,加之現(xiàn)代計算機的數(shù)據(jù)傳播、收集、運算能力的加強,算法發(fā)展勢頭迅猛,特別是人工智能的出現(xiàn),計算機程序超越了傳統(tǒng)的被動、機械運算的層次,開始具有大范圍的自主深度學習的能力,并且具有了輔助決策功能。

      但是,隨著科技的迅猛發(fā)展,監(jiān)管和規(guī)制制度迅速滯后。2020年,復旦大學孫金云教授帶領(lǐng)團隊提交了一份大數(shù)據(jù)報告,揭示了一個非經(jīng)大樣本調(diào)查無法發(fā)現(xiàn)的問題——價格歧視。大數(shù)據(jù)“殺熟”問題出現(xiàn),意味著科技樹點亮之后,科技“雙刃劍”的不公平、不合理應用的發(fā)現(xiàn)、監(jiān)督、管理和規(guī)制的問題將成為一個巨大的挑戰(zhàn)。

      為了適應大數(shù)據(jù)時代的到來和算法的發(fā)展,以及規(guī)制算法的不正當應用的問題,2021年8月,全國人大常委會表決通過了《個人信息保護法》,以調(diào)整信息交流、信息保護、信息使用等方面的關(guān)系。2021年10月29日,最高人民法院發(fā)布了《關(guān)于加強新時代知識產(chǎn)權(quán)審判工作為知識產(chǎn)權(quán)強國建設提供有力司法服務和保障的意見》。

      一、算法的概述

      根據(jù)中國科學技術(shù)協(xié)會關(guān)于算法的定義:“算法是指解題方案的準確而完整的描述,是一系列解決問題的清晰指令,算法代表著用系統(tǒng)的方法描述解決問題的策略機制。也就是說,能夠?qū)σ欢ǖ囊?guī)范輸入,在有限的時間內(nèi)獲得所要求的輸出”。本文中所說的算法值得是以計算機為載體的智能算法,不僅包括源代碼,也包括算法運行的計算網(wǎng)絡以及算法賴以決策的大數(shù)據(jù),不論是算法還是現(xiàn)代意義的智能算法,都是通過某一特定規(guī)則處理信息,并輸出為特定結(jié)果。由于算法的不透明性和自主性,侵權(quán)事實的發(fā)現(xiàn),以及侵權(quán)事實發(fā)生后侵權(quán)責任分配成為難題,算法“黑箱”也可能成為責任機構(gòu)推諉的工具和屏障。

      二、算法歧視的產(chǎn)生與表現(xiàn)

      科技本身具有中立性,但是在實行過程中,算法卻表現(xiàn)出歧視性。根據(jù)現(xiàn)在通說的觀點,“算法歧視的根源是人類本身”,人工智能歧視和威脅都并非來自人工智能,而是設計者和支配者的思維的衍射。在設計算法的過程中,設計者往往根據(jù)自身的需要、立場以及利益等因素,使得算法的運行能夠滿足符合預期目的。其次,算法學習和依據(jù)決策的大數(shù)據(jù)本身,也會反應算法設計者和數(shù)據(jù)產(chǎn)生、收集者的價值偏好,算法實際處理處理數(shù)據(jù)的過程中,看似客觀中立實際區(qū)別對待的。第三,算法具有社會歷史性,牛津大學數(shù)據(jù)倫理和算法領(lǐng)域?qū)<疑5吕?沃撤說:“世界存在偏見,歷史數(shù)據(jù)就存在偏見,因此,我們得到帶有偏見的結(jié)果,不足為奇?!比祟惿鐣旧硎菨摬仄娦缘模惴ㄍㄟ^數(shù)字量化的方式,使得偏見以更直觀的方式顯化出來。

      算法嵌入商業(yè)領(lǐng)域、社會生活領(lǐng)域甚至公權(quán)力領(lǐng)域,已經(jīng)對社會方方面面產(chǎn)生深遠的影響。因此,當算法歧視的問題影響的范圍也非常廣泛,本文將從社會生活領(lǐng)域和公權(quán)力領(lǐng)域?qū)λ惴ㄆ缫暤谋憩F(xiàn)進行分析。

      首先,算法歧視表現(xiàn)在社會生活領(lǐng)域。在算法建立的基礎上,算法的支配者和適用對象之間的地位注定不平等。在用戶加入企業(yè)平臺初期,往往會要求用戶簽訂“隱私協(xié)議”、“用戶協(xié)議”等格式條款作為使用軟件的前置條件。對客戶的年齡、瀏覽記錄、價格區(qū)間等信息進行收集,是平臺在算法的幫助下,利用雙方的的信息差,重新制定具有針對性的定價、制定營銷策略。

      其次,算法歧視的的問題滲透進公權(quán)力領(lǐng)域,近年來從中央到地方大力推進“智慧法院”、“法律輔助系統(tǒng)”,例如北京市高院的“睿法官”,最高院的“類案智能推送系統(tǒng)”,這些智能系統(tǒng)都表現(xiàn)出強大的數(shù)據(jù)處理和分析能力,在應對“訴訟爆炸”方面提高司法效率,輔助裁判具有重要的意義。但是算法的弊端隨之而來,司法系統(tǒng)數(shù)據(jù)量龐大,系統(tǒng)建設發(fā)展迅速,使得算法歧視在司法領(lǐng)域表現(xiàn)得尤為明顯。

      三、法律規(guī)制算法的法理證成

      我們在依賴算法的同時,不得不承受伴隨著算法的特性而來的巨大風險。因此我們應當充分了解算法帶來的影響,對算法歧視的規(guī)制的研究具有重要意義。

      (一)算法歧視的法理違背

      首先,算法歧視對人的尊嚴造成侵犯,“雖然尊嚴不是一種美德,卻是許多美德之母”,人的尊嚴是任何時代、任何國家都應當尊重和捍衛(wèi)的底線,也必須成為算法時代倫理以及法律的至高原則。我國《憲法》明確規(guī)定,“中華人民共和國公民人格尊嚴不受侵犯”,但是算法歧視的對人的尊嚴提出了挑戰(zhàn)。首先,在當代互聯(lián)網(wǎng)的“監(jiān)視”下,用戶在個人信息和隱私不得不做出一定的退讓。算法利用收集來的用戶信息對用戶進行分析、畫像,并作出相應的營銷對策和定價時,是在未經(jīng)用戶的知情同意的情況下,已經(jīng)打破了平臺和用戶基本的平等和尊重。針對用戶個人信息進行分析的時候,性別、年齡、民族、職業(yè)等進入分析模型,難免對各種變量進行加權(quán),種種明碼標價的行徑很難說不是在挑戰(zhàn)尊嚴的底線。人民在社會關(guān)系中應當占據(jù)主體地位,人民主體性的基礎基本要求就是人的意思自由,能夠按照自己的意志自由行動。人工智能的算法是最初的定位是服務和輔助人類,而現(xiàn)在人工智能正在脫離工具性地位,正在形成算法權(quán)力對人產(chǎn)生支配作用,人在交易中從獨立自主地位變成了被支配地位。算法應當維護人的尊嚴,而不是漠視和凌駕于人的價值之上,這種對人本主義的漠視是不可取的。

      其次,算法歧視明顯違背了平等原則。平等原則是主體的法律地位一律平等的準則,是現(xiàn)代法律的精髓。我國憲法明確規(guī)定:“中華人民共和國公民在法律面前一律平等”,在算法歧視造成的差別中,往往在限度和事項上是不合理的,是違背公序良俗的。消費者在以讓渡部分個人隱私換取服務時,并不意味著與商家交易接受差別對待。而且算法具有不透明性,算法歧視往往具有隱蔽性,用戶無法獲得大量數(shù)據(jù)來查證是否被差別對待。用戶和平臺的對抗處于實力懸殊的地位,平臺擁有強大的數(shù)據(jù)支撐,用戶缺少能力和專業(yè)知識對抗,但是為了使用便利只能妥協(xié)。平臺和用戶之間已經(jīng)從信息不對等轉(zhuǎn)化為實質(zhì)的權(quán)利義務的不平等。當算法歧視滲透進公權(quán)力領(lǐng)域,公民的平等權(quán)將會受到進一步剝削,使得公民在保障權(quán)利的“最后一道防線”這里仍無法尋求到公正的對待。將引發(fā)更為嚴重的社會后果。

      (二)規(guī)制算法歧視的合理性

      法律與科技的關(guān)系一直是法理學界重點討論的話題,根據(jù)韓大元教授的觀點,法學的使命不是要對科技發(fā)展所帶來的輝煌成就的贊成,而是要審視科技可能帶來的非理性后果,以及如何通過法治降低科技發(fā)展帶來的風險。v不能因為科技造成非理性后果就因此制約科技的發(fā)展,但是要引導科技在正當?shù)能壍腊l(fā)展并運行是法律應有之義。

      技術(shù)的發(fā)展可能對法律造成沖擊和挑戰(zhàn),但是法律仍應當對技術(shù)發(fā)展進行保護。法律也是力量對比的體現(xiàn),因此當科技的力量發(fā)展的足夠壯大,應當對其進行規(guī)制,處理好技術(shù)的保護和規(guī)制的關(guān)系,才能達到調(diào)整社會力量平衡,實現(xiàn)社會公平正義,維護社會秩序的穩(wěn)定。

      四、現(xiàn)行算法規(guī)制模式

      近年來,我國明顯加強了對個人信息的保護,2021年11月《個人信息保護法》正式開始實行,通過個人信息保護法,對公民個人信息的收集、處理和使用做了嚴格的限制。同樣于2021年施行的《民法典》也明確規(guī)定了公民的“隱私權(quán)與個人信息保護”。其他關(guān)于個人電子信息的規(guī)定還散見于《關(guān)于加強網(wǎng)絡信息保護決定》、《網(wǎng)絡安全法》、《消費者權(quán)益保護法》等,對于嚴重侵犯公民個人信息權(quán)的行為,《民法典》中明確規(guī)定了網(wǎng)絡侵權(quán)責任,《刑法》與《刑法修正案(九)》中也具體明確規(guī)定了“侵犯公民個人信息罪”和“編造、故意傳播虛假信息罪”,作為保障公民個人信息權(quán)落實的底線。

      在我國的立法實踐中,真正對算法、深度學習及個性化定制等內(nèi)容進行規(guī)定是近兩年才開始的。2019年實施的《電子商務法》首先針對用戶畫像并個性化推送商品的行為做出規(guī)制。隨后陸續(xù)出臺的《數(shù)據(jù)安全管理辦法》、《網(wǎng)絡信息內(nèi)容生態(tài)治理規(guī)定》分別就“定推”的相關(guān)規(guī)定,圍繞著“定推”標識義務、“定推”的人工干預和用戶自主選擇機制做出了明確規(guī)定。2020年,國家標準《個人信息安全規(guī)范》對信息安全保障做出更加詳細的規(guī)定,針對“多項業(yè)務功能自主選擇”,“用戶畫像的使用限制”、“個性化展示的使用”、“獲取個人數(shù)據(jù)”及“算法自動決策”的權(quán)利進行嚴格限制。指定個人信息保護方面的標準有可能成為作用于法律與實踐之間的“潤滑劑”,對動態(tài)發(fā)展的個人信息提供動態(tài)保護建議。

      我國現(xiàn)行的算法的法律規(guī)制重視對算法輸出結(jié)果的規(guī)制,對過程的規(guī)制較少,責任平臺的責任承擔不夠明確,而且條文散見于法律法規(guī)之中,缺乏體系性。雖然我國諸多法律里已經(jīng)提及算法的規(guī)制和公民權(quán)利的保護,但是涉及的法律法規(guī)眾多,且分處與不同的層級,缺乏體系性會導致使用的困難、立法和裁判尺度難以統(tǒng)一,不利于市場監(jiān)管等。其次,如果無法把責任落實到位,則權(quán)利保護就無從談起。在對于我國現(xiàn)行的算法規(guī)制的法律規(guī)范來說,我國對于平臺責任并未作出明確的規(guī)定,特別是電子數(shù)據(jù),由于流通的便利,隱患就更為嚴重,我國在數(shù)據(jù)的濫用、泄露、流通方面的義務、責任沒有明確具體的規(guī)定,而且處罰手段單一,只能動輒使用刑罰處罰,這樣的手段實際上是無法調(diào)動企業(yè)合規(guī)運營的積極性的vi。面對技術(shù)發(fā)展的需求,執(zhí)法部門需要更為及時有效、多樣的規(guī)制方法。

      五、建議

      我國對于算法的研究不足,但是算法本身的發(fā)展和應用的傳播卻異常迅猛,法律規(guī)范該如何訂立需要長期的探索。但是算法的侵權(quán)問題迫在眉睫,因此,本文從以下三個環(huán)節(jié)做出建議,試圖對算法運行的各個環(huán)節(jié)進行全面制約和監(jiān)督。

      首先,明確信息的授權(quán)邊界,因為算法歧視的基礎是數(shù)據(jù)歧視,因此防止算法對公民權(quán)利的侵害,首先應當明確個人信息的授權(quán)邊界。企業(yè)希望盡可能的從個人手中獲得信息的支配權(quán),算法強大的數(shù)據(jù)依賴性決定了對信息喪失主動權(quán)的一方會被至于被支配地位。企業(yè)因此往往以格式條款的形式讓信息授權(quán)成為用戶使用平臺的前置條件。為了保護用戶權(quán)利,信息的管理應分等級進行授權(quán),必要信息和非必要信息采取分類的授權(quán)方式。而且信息的獲取的內(nèi)容和時間等都應當分類做出具體規(guī)定,而且應當授予用戶更多的選擇權(quán),實現(xiàn)授權(quán)范圍明確化,授權(quán)選擇多樣化。

      第二,提高算法程序的準入門檻,算法程序在正式投入前,有必要進行針對性的測試實驗,通過審查部門的審查并進行備案,算法的由于其可變性,運行過程中需要及時報備,以達到算法及時監(jiān)管的目的,保障公民權(quán)利不被長期侵害。與此同時,要對算法的報備必將帶來商業(yè)風險,要完善算法保護機制,對公權(quán)力予以規(guī)制,以維護經(jīng)濟秩序的穩(wěn)定性。

      第三,要完善算法的監(jiān)督機制,公權(quán)力應當加強對算法的監(jiān)管,各領(lǐng)域的監(jiān)管部門應當重視算法的侵權(quán)狀況,對于算法歧視的問題要及時規(guī)制。其次,要加強社會監(jiān)管,企業(yè)和個人都應當參與到算法歧視的監(jiān)管中,社會各界的監(jiān)管對算法歧視的規(guī)制具有極其重要的意義。在監(jiān)管方式上,應當以算法檢測算法和人工檢測算法相結(jié)合,因為算法歧視的隱蔽性、運算能力和運算步驟的復雜性,需要借助算法的輔助來規(guī)制算法,涉及到核心的算法,仍應當由人工進行監(jiān)測,以防范重大風險的出現(xiàn)。

      我們要充分意識到,歧視也會隨著數(shù)字化的過程被直觀顯化甚至數(shù)字量化,算法歧視會成為公平、正義價值的阻礙。鑒于人工智能的發(fā)展階段,算法規(guī)制的應對策略應當綜合法律、技術(shù)、道德等多方規(guī)制,使得算法在相對健康的方向上長足發(fā)展,使得科技真正實現(xiàn)造福人類。

      參考文獻:

      [1]張凌寒.算法權(quán)力的興起、異化及法律規(guī)制[J].法商研究,2019,36(04):63-75.DOI:10.16390/j.cnki.issn1672-0393.2019.04.006.

      [2]於興中.算法社會與人的秉性[J].中國法律評論,2018(02):57-65.

      [3]丁曉東.論算法的法律規(guī)制[J].中國社會科學,2020(12):138-159+203.

      [4]姜野. 算法的法律規(guī)制研究[D].吉林大學,2020.DOI:10.27162/d.cnki.gjlin.2020.000629.

      [5]鄭智航.人工智能算法的倫理危機與法律規(guī)制[J].法律科學(西北政法大學學報),2021,39(01):14-26.DOI:10.16290/j.cnki.1674-5205.2021.01.017.

      [6]程堯,蔡一軍.人工智能背景下算法演進的風險及其法律規(guī)制——以域外模式為視角[J].山西大同大學學報(社會科學版),2020,34(02):33-39.

      [7]韓德陽. 算法歧視的法理分析[D].湖南工業(yè)大學,2021.

      [8]汪建.智能社會 公平為先——試評人工智能算法歧視問題[J].中國電信業(yè),2020(01):10-11.

      [9]雷震文. 算法偏見對“智慧司法”的影響及其防范[N]. 法制日報,2017-12-27(011).DOI:10.28241/n.cnki.nfzrb.2017.000369.

      [10]張文顯.“無數(shù)字,不人權(quán)”[N]. 北京日報,2019-09-02(015).DOI:10.28033/n.cnki.nbjrb.2019.004929.

      [11]周漢華.探索激勵相容的個人數(shù)據(jù)治理之道——中國個人信息保護法的立法方向[J].法學研究,2018,40(02):3-23.

      [12]欒群,王夙,張浩,徐丹.《人工智能創(chuàng)新發(fā)展道德倫理宣言》解讀和思考[J].人工智能,2019(04):133-136.DOI:10.16453/j.cnki.issn2096-5036.2019.04.016.

      [13]左亦魯.算法與言論——美國的理論與實踐[J].環(huán)球法律評論,2018,40(05):122-139.

      [14]張帆. 人工智能時代下算法歧視的法理分析和法律規(guī)制[D].廣州大學,2019.

      [15]馬長山.智慧社會背景下的“第四代人權(quán)”及其保障[J].中國法學,2019(05):5-24.DOI:10.14111/j.cnki.zgfx.2019.05.001.

      [16]劉友華.算法偏見及其規(guī)制路徑研究[J].法學雜志,2019,40(06):55-66.DOI:10.16092/j.cnki.1001-618x.2019.06.006.

      [17]韓大元.當代科技發(fā)展的憲法界限[J].法治現(xiàn)代化研究,2018,2(05):1-12.

      冕宁县| 柯坪县| 延安市| 武山县| 扶绥县| 文安县| 沙湾县| 额敏县| 山丹县| 涟源市| 浪卡子县| 扬州市| 北海市| 古浪县| 晋江市| 红原县| 厦门市| 沾益县| 宜州市| 荣成市| 万山特区| 双柏县| 漳平市| 巢湖市| 黑河市| 潢川县| 海安县| 同心县| 蓬安县| 贺兰县| 巴南区| 渝北区| 隆德县| 东台市| 榆林市| 禄丰县| 滨海县| 泰州市| 绥阳县| 连江县| 鹤岗市|