• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      算法自動化決策的法律糾錯機(jī)制研究

      2021-07-06 20:06:48姚玲
      衛(wèi)星電視與寬帶多媒體 2021年7期

      【摘要】科技革命推動人類社會進(jìn)入到以算法為中心的智能社會法律秩序,自動化決策在便利司法實(shí)踐的同時也帶來了巨大的風(fēng)險與挑戰(zhàn)?!癈OMPAS預(yù)測罪犯再犯概率錯誤”、“GAAP加大數(shù)據(jù)鴻溝”等問題都凸顯了算法決策的不足。技術(shù)的進(jìn)步與法治的發(fā)展呈現(xiàn)出不協(xié)調(diào)性,自動化決策糾錯的法律規(guī)制研究順理成章。

      【關(guān)鍵詞】算法解釋權(quán);決策影響評估機(jī)制;更正權(quán)

      中圖分類號:G212? ? ? ? ? ? ? ? 文獻(xiàn)標(biāo)識碼:A? ? ? ? ? ? ? ? ? ? ?DOI:10.12246/j.issn.1673-0348.2021.07.091

      1. 算法自動化決策概念

      算法自動化決策是與自然人決策相對立的概念,意指利用計(jì)算機(jī)技術(shù)、算法程序、深度學(xué)習(xí)或神經(jīng)網(wǎng)絡(luò)替代自然人處理關(guān)鍵數(shù)據(jù),憑借其自動生成對數(shù)據(jù)主體具有法律效果的決策的行為。《中華人民共和國個人信息保護(hù)法(草案)》將自動化決策定義為利用個人信息對個人的行為習(xí)慣、興趣愛好或者經(jīng)濟(jì)、健康、信用狀況等,通過計(jì)算機(jī)程序自動分析、評估并進(jìn)行決策的活動。

      在《通用數(shù)據(jù)保護(hù)條例》中自動化決策又稱為自主化的個人決策,其產(chǎn)生的合法性有三個途徑,一是基于數(shù)據(jù)主體明確同意后的自動化處理;二是基于數(shù)據(jù)主體和另外一個數(shù)據(jù)控制者合同履行的必要;三是在控制者為數(shù)據(jù)主體,以及確立保護(hù)數(shù)據(jù)主體權(quán)利、自由和正當(dāng)化利益的適當(dāng)措施是聯(lián)盟或成員國法律所規(guī)定時候。

      自動化決策根據(jù)數(shù)據(jù)模型對數(shù)據(jù)主體作出反應(yīng)或預(yù)測。因此,自動化決策分為預(yù)測型算法自動化決策和反應(yīng)型算法自動化決策,反應(yīng)型算法自動化決策的基本模型為收集數(shù)據(jù)——匹配條件——作出決策;預(yù)測性算法自動化決策是指根據(jù)以往的數(shù)據(jù)資料,預(yù)先對數(shù)據(jù)主體作出判斷,最常見的預(yù)測性算法自動化決策是根據(jù)某人征信記錄來限制高消費(fèi)。預(yù)測型算法可以在事情發(fā)生之前調(diào)配資源進(jìn)行合理分配,實(shí)現(xiàn)利益最大化。

      2. 算法自動化決策的弊端

      2.1 算法“黑箱”遮蔽當(dāng)事人知情權(quán)

      算法“黑箱”產(chǎn)生于信息的不對稱和不公開。技術(shù)本身的復(fù)雜性以及媒體機(jī)構(gòu)、技術(shù)公司的排他性商業(yè)政策,使得算法猶如一個未知的“黑箱”——用戶并不清楚算法的目標(biāo)和意圖,也無從獲悉算法設(shè)計(jì)者、實(shí)際控制者以及機(jī)器生成內(nèi)容的責(zé)任歸屬等信息,更談不上對其進(jìn)行評判和監(jiān)督。算法自動化決策的重要特點(diǎn)之一是在瞬間作出決定,因此信息處理者在每一次處理個人信息前想要取得每個信息主體的知情同意是不切實(shí)際的。從技術(shù)層面而言,每次的發(fā)送與反饋給節(jié)點(diǎn)帶來了太多負(fù)擔(dān);從經(jīng)濟(jì)利益角度看,取消通知環(huán)節(jié)能夠追求更多的利益,在巨大的利益面前,當(dāng)事人的權(quán)利自然得不到重視。

      2.2 算法歧視損害社會平等權(quán)

      從數(shù)據(jù)客觀主義出發(fā),大多數(shù)人認(rèn)為算法結(jié)果是完全中立的。但實(shí)踐證明,邏輯上的中立并不等同于結(jié)果上的中立,即使是在事前預(yù)先設(shè)立的統(tǒng)一標(biāo)準(zhǔn)指令也可能表現(xiàn)出偏見,算法程序在預(yù)先編寫時將人類的歧視文化連同數(shù)據(jù)一起歸納。只歸納不演繹,對樣本數(shù)據(jù)偏見的輸入使得算法自動化決策建立在通過刻板印象所形成的范疇上。針對一個新來的數(shù)據(jù)主體,計(jì)算機(jī)在沒有外界所介入和更正的情況下,按照已知的數(shù)據(jù)特征將其自動歸屬于“最像”的那個類中。不考慮其他外在因素,只計(jì)算樣本結(jié)果并依此作出決定,必然會擴(kuò)大偏見與不公。與計(jì)算機(jī)相比,人腦在數(shù)據(jù)精準(zhǔn)性上固然無法匹敵,但排除人腦的綜合考慮因素和主觀情感,以及某些時候數(shù)據(jù)無意缺失導(dǎo)致算法“雙眼”的蒙蔽,在瞬間將某人分類的預(yù)前判斷帶來的是道德和倫理上的社會歧視。一個剛出獄的犯人可能因?yàn)樗惴ǖ奶崆邦A(yù)判而失去改過自新的機(jī)會從而無法回歸社會,社會鴻溝在無形中進(jìn)一步加劇,法律所提倡的人人平等也因?yàn)檫^度信賴數(shù)據(jù)而導(dǎo)致形同虛設(shè)。

      2.3 算法壟斷侵蝕程序正義

      算法技術(shù)作為商業(yè)秘密,期源代碼都處于隱藏狀態(tài),運(yùn)行方式并不公開。當(dāng)算法作出具有法律效應(yīng)的決策時,數(shù)據(jù)主體并沒有參與其中,在得出結(jié)果的途中程序正義被忽視。技術(shù)公司壟斷了硬件與算法系統(tǒng)的開發(fā)、設(shè)計(jì)和使用,在使用數(shù)據(jù)主體數(shù)據(jù)的同時卻拒絕對公眾公布算法收集處理數(shù)據(jù)的權(quán)限和過程,正當(dāng)程序在某種程度上被架空,當(dāng)事人無法參與決策過程。當(dāng)事人參與決策過程是為了更好的事實(shí)認(rèn)定和法律適用,但由于算法技術(shù)壟斷,法院在適用決策結(jié)果時傾向于認(rèn)定該結(jié)果是正確的,然后依照結(jié)論去推導(dǎo)過程。因?yàn)榧夹g(shù)的不透明和壟斷性,當(dāng)事人很難參與到?jīng)Q策中去,程序上的權(quán)利被架空。算法作為一種極為復(fù)雜的技術(shù),拉開了數(shù)據(jù)主體和數(shù)據(jù)控制者之間的差距,后者享有某種獨(dú)特的算法權(quán)力。

      3. 算法自動化決策的法律糾錯機(jī)制

      3.1 落實(shí)算法解釋權(quán)

      算法“解釋權(quán)”是指數(shù)據(jù)主體有權(quán)要求數(shù)據(jù)控制者對算法決策的目的、過程、結(jié)果進(jìn)行解釋。早在1995年,歐美《數(shù)據(jù)保護(hù)指令》12條就規(guī)定了數(shù)據(jù)主體有權(quán)了解其個人數(shù)據(jù)如何被處理及數(shù)據(jù)自動化處理系統(tǒng)的內(nèi)在邏輯?!秱€人信息保護(hù)法(草案)》第四十八條規(guī)定,個人有權(quán)要求個人信息處理者對其個人信息處理規(guī)則進(jìn)行解釋說明。但提出并不等于落實(shí),草案中所規(guī)定的數(shù)據(jù)主體所擁有的算法解釋權(quán)在具體落實(shí)上存在一些問題:1、算法解釋權(quán)作為一種請求權(quán),僅限于個人認(rèn)為自動化決策對其產(chǎn)生重大影響時才能行使;2、數(shù)據(jù)主體行使請求權(quán)的范圍尚不明確,導(dǎo)致數(shù)據(jù)控制者以企業(yè)享有商業(yè)秘密為由對抗算法解釋權(quán);3、算法的專業(yè)性和復(fù)雜性使得數(shù)據(jù)主體對解釋的內(nèi)容無法進(jìn)行核實(shí)。

      算法解釋權(quán)作為一種請求權(quán),應(yīng)當(dāng)從權(quán)利本身構(gòu)成要件入手,對該項(xiàng)請求權(quán)的內(nèi)核和外延予以精細(xì)化設(shè)計(jì),為落實(shí)算法解釋權(quán)提供切實(shí)可行的操作指南。首先,行權(quán)應(yīng)當(dāng)確權(quán),一方面預(yù)先設(shè)定權(quán)利所包含的內(nèi)容可以起到指導(dǎo)作用,另一方面內(nèi)容的確定也是對于權(quán)利主體的一種約束,無限擴(kuò)大權(quán)利內(nèi)容會侵犯企業(yè)的商業(yè)秘密阻礙經(jīng)濟(jì)發(fā)展。其次,降低數(shù)據(jù)主體對于其權(quán)益造成重大影響這一事實(shí)的舉證責(zé)任,只要主體認(rèn)為自動化決策對其權(quán)益產(chǎn)生重要影響,就應(yīng)當(dāng)賦予其算法解釋請求權(quán),不要求主體具體說明其權(quán)益受到了多少損害。最后,解釋方在收到數(shù)據(jù)主體解釋請求權(quán)時,應(yīng)該采取最通俗易懂的語言來描述其對于數(shù)據(jù)主體信息的利用和控制。

      3.2 構(gòu)建算法決策影響評估機(jī)制

      算法自動化決策在投入使用前應(yīng)該經(jīng)過公眾參與評估,影響評估機(jī)制既能擴(kuò)大社會參與度,也能監(jiān)督數(shù)據(jù)控制者和使用者。2018年4月,AI Now研究院就發(fā)布了一份有關(guān)算法影響評估(AIA)的報(bào)告,針對可能對數(shù)據(jù)主體權(quán)利造成影響的算法自動化決策系統(tǒng),應(yīng)允許社區(qū)和利益相關(guān)者進(jìn)行評估,以確定是否可以以及在什么領(lǐng)域使用算法。我國也采用這種方法。個人算法決策影響評估機(jī)制應(yīng)包含主體、內(nèi)容、模型建構(gòu)以及結(jié)果應(yīng)用四個緯度。在評估主體上應(yīng)該引入第三方輔助機(jī)制,算法評估是一項(xiàng)對技術(shù)要求比較高的活動,對于參與者的專業(yè)素養(yǎng)要求較高,一般普通人很難具有相關(guān)的知識水平,為了保證評估的準(zhǔn)確性,數(shù)據(jù)主體有權(quán)聘請具有相關(guān)知識的人介入其中輔助理解算法含義。在評估內(nèi)容方面,評估者應(yīng)向公眾解釋所采取的評估機(jī)制是什么,他們獲取個人數(shù)據(jù)的途徑、使用目的、范圍、時間、使用方法等。同時,問卷的編寫不能只依靠評估者,對于樣本數(shù)量的采集一定要盡可能保持全面和公正,使所得出來的結(jié)果具有彈性。在評估機(jī)制模型建構(gòu)上,考慮到數(shù)據(jù)的不完整性和復(fù)雜性,采取貝葉斯網(wǎng)絡(luò)模型可以更加清楚實(shí)現(xiàn)了解眾多因素和決策影響之間的聯(lián)系。經(jīng)過數(shù)據(jù)主體參與評估所得出來的結(jié)果數(shù)據(jù)應(yīng)用遵循“數(shù)據(jù)→評估報(bào)告→決策”的實(shí)踐邏輯,數(shù)據(jù)和分析結(jié)果之間一一對應(yīng),分析結(jié)果和決策之間一一對應(yīng)。決策實(shí)施后,評估者應(yīng)該審核程序,發(fā)現(xiàn)、衡量或長期追蹤系統(tǒng)的影響風(fēng)險評估報(bào)告和處理情況記錄應(yīng)當(dāng)至少保存三年。

      3.3 賦予數(shù)據(jù)主體“更正權(quán)”

      “更正權(quán)”賦予數(shù)據(jù)主體在自動化決策產(chǎn)生錯誤時向數(shù)據(jù)控制者提出異議且要求數(shù)據(jù)控制者進(jìn)行更正決策的權(quán)利。目前我國對于數(shù)據(jù)主體的“更正權(quán)”定義為:本人得以請求信息處理主體對不正確、不全面、不時新的個人信息進(jìn)行更正與補(bǔ)充的權(quán)利。其包含錯誤信息修改權(quán)與過期信息更新權(quán)兩個方面。法律僅僅賦予了自然人個人信息更正權(quán),沒有賦予其他組織,對于其他組織的保護(hù)一片空白。其次,法人也僅能更正個人信息錯誤處或更新已經(jīng)過時的個人信息,對于自動化決策本身的價值還是肯定的,偏信決策的誤差來源于數(shù)據(jù)的錯誤。數(shù)據(jù)主體想要改變自動化決策只有當(dāng)利益受損后向法院提起民事訴訟、行政復(fù)議、行政訴訟。因此,賦予數(shù)據(jù)主體自動化決策更正權(quán)是有現(xiàn)實(shí)意義的。

      數(shù)據(jù)主體行使“更正權(quán)”不能僅簡單將個人信息數(shù)據(jù)核實(shí)、更新后再次輸入算法程序進(jìn)行決策,當(dāng)在數(shù)據(jù)主體提出自動化決策結(jié)果錯誤并且證明確有錯誤后,應(yīng)對算法程序保有懷疑并適當(dāng)進(jìn)行人工介入。

      4. 結(jié)語

      媒介的發(fā)展讓社會變得扁平化,但自動化決策過程卻并不是公開的,“讓所有人看到你的決策”不意味著讓所有人參與自己的決策。算法黑箱、算法歧視、算法壟斷以及知識鴻溝的出現(xiàn)使得數(shù)據(jù)主體無從知曉決策的原因,效率提高的同時人們的權(quán)益也在不斷被侵害。問題解決的核心不在于算法應(yīng)不應(yīng)該作出決策,而在于算法是否能作出準(zhǔn)確決策,以及事后能否給予救濟(jì),賽博空間也需要法律來維持穩(wěn)定。

      參考文獻(xiàn):

      [1]唐林垚.“脫離算法自動化決策權(quán)”的虛幻承諾[J].東方法學(xué),2020(06):18-33.

      [2]張凌寒.算法自動化決策與行政正當(dāng)程序制度的沖突與調(diào)和[J].東方法學(xué),2020(06):4-17.

      [3]張玉宏,秦志光,肖樂.大數(shù)據(jù)算法的歧視本質(zhì)[J].自然辯證法研究,2017,33(05):81-86.

      [4]解正山.算法決策規(guī)制——以算法“解釋權(quán)”為中心[J].現(xiàn)代法學(xué),2020,42(01):179-193.

      [5]鄒東升,陳昶."數(shù)據(jù)式"社會穩(wěn)定風(fēng)險評估:困境、邏輯與路徑[J].情報(bào)雜志,2020,39(5):129-136.DOI:10.3969/j.issn.1002-1965.2020.05.020.

      [6]胡文娟.公共機(jī)構(gòu)應(yīng)如何評估算法決策的影響[J].WTO經(jīng)濟(jì)導(dǎo)刊,2018,No.174(04):51-52.

      [7]齊愛民.論個人信息的法律保護(hù)[J].蘇州大學(xué)學(xué)報(bào),2005(02):30-35.

      作者簡介:姚玲,湖南工商大學(xué)法學(xué)與公共管理學(xué)院碩士研究生,研究方向?yàn)榉ɡ韺W(xué)。

      宁武县| 东平县| 蒲城县| 共和县| 紫金县| 龙川县| 沈丘县| 互助| 芒康县| 平陆县| 芜湖县| 沛县| 繁峙县| 清水县| 清涧县| 宜城市| 广水市| 鄢陵县| 东阳市| 朝阳市| 和顺县| 西乡县| 泉州市| 微博| 班戈县| 满洲里市| 奇台县| 蕉岭县| 高淳县| 九寨沟县| 晋江市| 遂平县| 专栏| 广丰县| 正定县| 铅山县| 格尔木市| 九江市| 灵武市| 阿拉善盟| 雷州市|