• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      人工智能背景下算法演進(jìn)的風(fēng)險(xiǎn)及其法律規(guī)制
      ——以域外模式為視角

      2020-12-09 12:22:44蔡一軍
      關(guān)鍵詞:數(shù)據(jù)保護(hù)人工智能法律

      程 堯,蔡一軍

      (上海政法學(xué)院刑事司法學(xué)院,上海201701)

      中國(guó)科學(xué)技術(shù)協(xié)會(huì)對(duì)于算法的定義是:“算法(Algorithm)是指解題方案的準(zhǔn)確而完整的描述,是一系列解決問(wèn)題的清晰指令,算法代表著用系統(tǒng)的方法描述解決問(wèn)題的策略機(jī)制?!盵1]在人工智能時(shí)代的今天,在大數(shù)據(jù)技術(shù)與物聯(lián)網(wǎng)技術(shù)的推動(dòng)下,人工智能算法所攝取數(shù)據(jù)信息愈加豐富,算法程序愈加自主化、類(lèi)人化,“算法”的核心地位也越發(fā)明顯,它的發(fā)展使我們的生活更加便捷,但在這繁榮之下我們應(yīng)當(dāng)意識(shí)到它就像“潘多拉魔盒”一樣充滿(mǎn)了不確定性和不可控風(fēng)險(xiǎn)因素,需要及時(shí)發(fā)現(xiàn)并進(jìn)行法律規(guī)制。

      在面對(duì)各類(lèi)風(fēng)險(xiǎn)過(guò)程中,在結(jié)合我國(guó)實(shí)情的基礎(chǔ)上需要進(jìn)一步參考?xì)W美各國(guó)的治理經(jīng)驗(yàn),在法律框架內(nèi)完善各項(xiàng)法律原則以及公民權(quán)利配置、健全專(zhuān)門(mén)的行政監(jiān)督機(jī)構(gòu)、積極推動(dòng)行業(yè)自律產(chǎn)業(yè)發(fā)展并對(duì)于人工智能算法侵權(quán)的責(zé)任劃分作出明確的界定。

      一、算法演進(jìn)中的各類(lèi)風(fēng)險(xiǎn)

      (一)算法設(shè)計(jì)缺陷風(fēng)險(xiǎn) 盡管目前主流的各類(lèi)人工智能產(chǎn)品處于弱人工智能階段,但在近些年的快速發(fā)展下,我們已經(jīng)積累了豐富的實(shí)踐經(jīng)驗(yàn),構(gòu)建起了相對(duì)成熟的理論體系,尤其是自動(dòng)駕駛、智能推薦等發(fā)展較早的領(lǐng)域已經(jīng)投入商用,但在完善技術(shù)規(guī)范以及建立統(tǒng)一的、恰當(dāng)?shù)姆蓸?biāo)準(zhǔn)上,世界各地都不同程度地存在滯后與監(jiān)管空白。正是這方面的原因,致使人工智能算法領(lǐng)域很難得到有效的監(jiān)管,近年來(lái)“特斯拉”電動(dòng)汽車(chē)致死案以及兩起波音737MAX8 空難事故等都與相關(guān)駕駛控制軟件的設(shè)計(jì)缺陷不無(wú)關(guān)系。尤其是在這些危險(xiǎn)系數(shù)較高的領(lǐng)域,智能控制軟件已經(jīng)成為各種大型交通工具、機(jī)械設(shè)備的核心,往往是人類(lèi)做出決策或操縱設(shè)備的重要參考,甚至在某種程度上代替人類(lèi)進(jìn)行自動(dòng)決策,所以算法上任何細(xì)微的瑕疵都會(huì)造成無(wú)法挽回的損失。

      (二)個(gè)人隱私泄漏風(fēng)險(xiǎn) 軟銀CEO 孫正義曾說(shuō):“誰(shuí)控制了數(shù)據(jù),誰(shuí)就控制了世界”。[2]如果把人工智能算法比作一個(gè)人的靈魂的話(huà),那么數(shù)據(jù)就是算法的血液。所以數(shù)據(jù)的質(zhì)量決定了算法的效果,算法的好壞決定了數(shù)據(jù)的安全性。現(xiàn)階段涉及個(gè)人隱私的算法數(shù)據(jù)呈現(xiàn)出以下三個(gè)特點(diǎn):儲(chǔ)存成本低廉、數(shù)據(jù)產(chǎn)生后會(huì)被各方多次重復(fù)利用、數(shù)據(jù)獲取渠道及其內(nèi)容更加多元。基于算法數(shù)據(jù)的以上三個(gè)特點(diǎn),隱私泄漏風(fēng)險(xiǎn)容易出現(xiàn)在以下三個(gè)階段:

      1.數(shù)據(jù)的獲取階段。2019 年7 月,英國(guó)《衛(wèi)報(bào)》報(bào)道了蘋(píng)果公司的人工智能語(yǔ)音助手Siri會(huì)在未經(jīng)用戶(hù)允許的條件下,將手機(jī)端錄音上傳至其服務(wù)器,并由第三方公司進(jìn)行數(shù)據(jù)分析,據(jù)說(shuō)竊聽(tīng)的內(nèi)容包括毒品交易、機(jī)密醫(yī)療信息等,另外還會(huì)顯示位置、聯(lián)系方式、應(yīng)用數(shù)據(jù)等私人信息。[3]無(wú)獨(dú)有偶,谷歌、亞馬遜等知名公司均被爆料存在此類(lèi)侵權(quán)行為。另外,隨著物聯(lián)網(wǎng)技術(shù)的發(fā)展,私人領(lǐng)域的智能家居、智能醫(yī)療設(shè)備、可穿戴設(shè)備以及公共場(chǎng)合的圖像、語(yǔ)音采集設(shè)備均會(huì)在相對(duì)方?jīng)]有授權(quán)、無(wú)人監(jiān)管的狀態(tài)下獲取大量個(gè)人隱私數(shù)據(jù)并上傳和智能分析。[4]

      2.數(shù)據(jù)存儲(chǔ)階段。當(dāng)前,各類(lèi)用戶(hù)數(shù)據(jù)成為了無(wú)形的金礦與各方勢(shì)力爭(zhēng)相掠奪的戰(zhàn)略資源,數(shù)據(jù)資源的儲(chǔ)存安全也隨即成為我們需要面對(duì)的一個(gè)挑戰(zhàn)。2019年是人工智能技術(shù)突飛猛進(jìn)的一年,也是數(shù)據(jù)存儲(chǔ)安全面臨挑戰(zhàn)最為嚴(yán)峻的一年,比如2019 年末,Elasticsearch 服務(wù)器接連泄漏數(shù)十億級(jí)的個(gè)人數(shù)據(jù),騰訊、新浪、搜狐、網(wǎng)易等國(guó)內(nèi)郵件提供商均受到波及,[5]然而被爆料出來(lái)的泄漏事件僅僅是“冰山一角”,數(shù)據(jù)泄漏所造成的損失只會(huì)比我們的預(yù)期更糟。

      3.算法處理階段。數(shù)據(jù)處理階段的隱私泄漏風(fēng)險(xiǎn)主要體現(xiàn)在對(duì)于原始數(shù)據(jù)進(jìn)行整合、挖掘后會(huì)反映出數(shù)據(jù)主體近期處于何種狀態(tài)、有何種待辦事項(xiàng)、將要從事什么行為等。比如目前各大電商平臺(tái)推出的“千人千面”的商品智能推薦系統(tǒng),原理就是根據(jù)每一位用戶(hù)長(zhǎng)期的購(gòu)物喜好以及搜索習(xí)慣,結(jié)合該公司旗下各類(lèi)平臺(tái)針對(duì)該用戶(hù)打造的專(zhuān)屬于該用戶(hù)的“數(shù)據(jù)畫(huà)像”,某種程度上它可能比你自己更了解你的“需求”。我們不妨作進(jìn)一步設(shè)想,如果該平臺(tái)由于保管不善或者出于其他商業(yè)目的,將類(lèi)似的信息泄漏出去,不僅會(huì)泄漏我們的隱私還會(huì)為電信詐騙分子從事違法犯罪活動(dòng)提供便利。

      (三)“算法集權(quán)”風(fēng)險(xiǎn) 同樣是以“千人千面”為特征的新聞資訊智能推薦算法,看似在為我們提供個(gè)性化、定制化貼心服務(wù),實(shí)則存在著巨大的“集權(quán)”風(fēng)險(xiǎn)。算法會(huì)根據(jù)我們的興趣愛(ài)好、閱讀習(xí)慣不斷推送相關(guān)內(nèi)容,短期來(lái)看確實(shí)滿(mǎn)足了我們的現(xiàn)實(shí)需要,給用戶(hù)帶來(lái)了良好的體驗(yàn),但長(zhǎng)此以往閱讀內(nèi)容便會(huì)嚴(yán)重同質(zhì)化,我們的視野和興趣就像溫水煮青蛙那樣變得僵化和單一,會(huì)慢慢喪失對(duì)于新聞資訊的選擇權(quán),因?yàn)槟闼吹降亩际潜蝗斯ぶ悄芩惴êY選過(guò)的,你只會(huì)被集權(quán)的算法束縛的越來(lái)越緊,自己卻渾然不知。所以這類(lèi)智能算法的貼心服務(wù)在某種程度上是對(duì)人們自主選擇權(quán)有意或無(wú)意的剝奪,我們無(wú)法逃避這一現(xiàn)實(shí),因?yàn)閹缀跛械馁Y訊軟件都在不同程度上使用此類(lèi)算法,這只會(huì)加劇我們對(duì)于不同領(lǐng)域認(rèn)知的隔閡以及不同社會(huì)群體的分化,加劇了互聯(lián)網(wǎng)誕生后得到緩解的“信息不對(duì)稱(chēng)”現(xiàn)象。[6]

      (四)歧視風(fēng)險(xiǎn) 人工智能背景下的算法歧視可以根據(jù)其產(chǎn)生的原因分為技術(shù)和人為因素兩類(lèi)。

      1.技術(shù)因素導(dǎo)致的歧視。目前處于弱人工智能階段的所謂“智能”就是通過(guò)海量的數(shù)據(jù)對(duì)預(yù)先建立的算法不斷訓(xùn)練,讓已有的算法不斷進(jìn)行深度學(xué)習(xí),不斷試錯(cuò),進(jìn)而不斷完善各種問(wèn)題,在這個(gè)過(guò)程中一些必然會(huì)遇到或者出現(xiàn)的錯(cuò)誤就容易演變?yōu)椤捌缫暋钡囊馕叮瑢?shí)則并非算法設(shè)計(jì)者的本意,例如早期的部分人像識(shí)別算法就出現(xiàn)過(guò)將黑人誤識(shí)別為黑猩猩的情況,所以這類(lèi)“歧視”大多是由于算法缺陷的緣故造成的。[7]

      此外,技術(shù)因素導(dǎo)致的歧視還包括數(shù)據(jù)失真等情形,用于人工智能算法訓(xùn)練的數(shù)據(jù)必須全面而海量,那么使用者便會(huì)通過(guò)各種渠道獲取數(shù)據(jù),這個(gè)過(guò)程中勢(shì)必收集到存在問(wèn)題的數(shù)據(jù),這是無(wú)法避免的,但算法的數(shù)學(xué)特性決定了即使是一個(gè)微小的數(shù)據(jù)瑕疵也會(huì)在大量的數(shù)學(xué)運(yùn)算中被無(wú)限放大且無(wú)法消除,有時(shí)這種量化的偏差體反映到現(xiàn)實(shí)生活中便造就了歧視。

      2.人為因素導(dǎo)致的歧視。人為的因素歸根到底只來(lái)自于一個(gè)原因那就是“主觀的偏見(jiàn)”,現(xiàn)階段人工智能技術(shù)在某種程度上體現(xiàn)的還是背后人類(lèi)主觀的意志,設(shè)計(jì)者主觀的偏見(jiàn)可以在算法運(yùn)行的任何一個(gè)階段體現(xiàn)出來(lái),他們可能是根深蒂固的認(rèn)知誤區(qū),也可能是出于利益的考量,還可能是宗教、文化的不認(rèn)同等等,思維的不一致讓他們形成了先入為主的觀念,進(jìn)而導(dǎo)致他們?cè)谠O(shè)計(jì)、實(shí)施算法的過(guò)程中產(chǎn)生了歧視的結(jié)果。

      二、法律規(guī)制算法風(fēng)險(xiǎn)的域外經(jīng)驗(yàn)及其主要模式

      (一)數(shù)據(jù)源頭監(jiān)管立法強(qiáng)化行業(yè)主體責(zé)任模式如前所述,人工智能算法風(fēng)險(xiǎn)主要來(lái)源于數(shù)據(jù)采集、存儲(chǔ)以及算法運(yùn)行兩個(gè)階段,而對(duì)于數(shù)據(jù)層面風(fēng)險(xiǎn)的管控是目前最為現(xiàn)實(shí)可行,也是最為重要的環(huán)節(jié)。

      歐美等國(guó)在算法風(fēng)險(xiǎn)規(guī)制領(lǐng)域較為成熟,已經(jīng)產(chǎn)生實(shí)際效果的立法項(xiàng)目也主要集中在對(duì)于數(shù)據(jù)的治理上,歐盟與美國(guó)在具體的立法趨勢(shì)以及規(guī)范內(nèi)容上也各有千秋,歐盟于2018年5 月25 號(hào)生效的《通用數(shù)據(jù)保護(hù)條例》可以說(shuō)在法律規(guī)范以及司法實(shí)踐等方面樹(shù)立了堪稱(chēng)典范并可供借鑒的榜樣,該條例以“嚴(yán)苛”著稱(chēng),稍不合規(guī)就有可能面臨最高達(dá)2000 萬(wàn)歐元或者企業(yè)全球營(yíng)業(yè)收入百分之四的罰款。[8]當(dāng)然,與之匹配的必然是法律規(guī)范的進(jìn)一步體系化與精細(xì)化,首先就體現(xiàn)在該《條例》不僅適用歐盟內(nèi)部的數(shù)據(jù)使用主體,還將直接約束任何與歐盟內(nèi)部成員國(guó)有業(yè)務(wù)來(lái)往的數(shù)據(jù)使用主體。此外GDPR 不僅規(guī)定了對(duì)姓名、性別、電話(huà)、住址等傳統(tǒng)個(gè)人信息的保護(hù),同時(shí)還將保護(hù)范圍擴(kuò)大至生物識(shí)別數(shù)據(jù)、健康數(shù)據(jù)、基因數(shù)據(jù)、個(gè)人興趣愛(ài)好、社交數(shù)據(jù)等信息。在數(shù)據(jù)主體權(quán)利方面,GDPR的出臺(tái)也使得訪問(wèn)權(quán)、更正權(quán)、反對(duì)權(quán)、被遺忘權(quán)、數(shù)據(jù)攜帶權(quán)、限制處理權(quán)等權(quán)利應(yīng)用而生。[9]條例中最為重大的突破便是確立了以下關(guān)于個(gè)人數(shù)據(jù)處理的七大原則:1、公平、透明、合法原則;2、正當(dāng)目的原則;3、準(zhǔn)確性原則;4、數(shù)據(jù)最小化原則;5、存儲(chǔ)期限原則;6、完整性與保密性原則;7、權(quán)責(zé)一致原則。

      同歐盟成體系化的法律規(guī)范相比,美國(guó)的相關(guān)規(guī)定更集中于各種判例、部分專(zhuān)業(yè)領(lǐng)域法案以及地方性法案。誕生于1996 年的《健康保險(xiǎn)攜帶和責(zé)任法案》(HIPAA)是美國(guó)最有代表性的關(guān)于個(gè)人數(shù)據(jù)保護(hù)法案,該法案制定了醫(yī)療健康產(chǎn)業(yè)的標(biāo)準(zhǔn)規(guī)范,就醫(yī)療服務(wù)機(jī)構(gòu)所使用、存儲(chǔ)的個(gè)人敏感數(shù)據(jù)制定了嚴(yán)格而全面的規(guī)定,然而后續(xù)的一系列醫(yī)療數(shù)據(jù)泄漏事件表明HIPAA 并沒(méi)有起到預(yù)期的作用。[10]為了盡快應(yīng)對(duì)這一現(xiàn)狀,美國(guó)各州迅速開(kāi)展了積極且富有成效的探索,最為引人注目的便是于2020年1月1日生效的《加利福尼亞州消費(fèi)者隱私法案》(CCPA),該法案不同于以往針對(duì)特定行業(yè)隱私權(quán)利的規(guī)定,而是明確規(guī)定了消費(fèi)者對(duì)于被企業(yè)收集和使用的個(gè)人數(shù)據(jù)擁有更加豐富的控制權(quán),比如訪問(wèn)權(quán)、刪除權(quán)、知情權(quán)等。[11]

      (二)完善行政以及外部監(jiān)督機(jī)構(gòu)模式 對(duì)于算法的外部審查可以通過(guò)建立和完善行政審查機(jī)構(gòu)、第三方專(zhuān)門(mén)審核機(jī)構(gòu)兩個(gè)途徑來(lái)實(shí)現(xiàn),這兩個(gè)機(jī)構(gòu)各有利弊并互為補(bǔ)充。行政審查機(jī)構(gòu)主要是指由各國(guó)政府牽頭成立的在數(shù)據(jù)收集以及算法運(yùn)行等領(lǐng)域運(yùn)用行政力量進(jìn)行審查、監(jiān)督、處罰的執(zhí)法機(jī)構(gòu),美國(guó)的聯(lián)邦貿(mào)易委員會(huì)、歐盟的數(shù)據(jù)保護(hù)委員會(huì)、日本的個(gè)人數(shù)據(jù)保護(hù)委員會(huì)等行政機(jī)構(gòu)自成立至今借助行政監(jiān)管力量快速、有效的優(yōu)勢(shì)在近年來(lái)已經(jīng)接連處理了涉及蘋(píng)果、谷歌、臉譜等知名跨國(guó)互聯(lián)網(wǎng)公司涉及數(shù)據(jù)以及算法相關(guān)的侵權(quán)案件。

      算法的行政審查機(jī)構(gòu)對(duì)于政府審查及監(jiān)督算法的正常運(yùn)作是必須的,但隨著算法以及數(shù)據(jù)技術(shù)的飛速發(fā)展,對(duì)其進(jìn)行審查及監(jiān)督的專(zhuān)業(yè)化門(mén)檻也越來(lái)越高、行業(yè)規(guī)模也越來(lái)越大,這些都是造成行政審查機(jī)構(gòu)應(yīng)對(duì)力不從心的重要因素。為了避免貪大求全而浪費(fèi)行政審查資源,繼而采取對(duì)于過(guò)程動(dòng)態(tài)抽查、對(duì)于結(jié)果嚴(yán)格控制的方式開(kāi)展行政審查,逐步將一部分由行政力量審查的監(jiān)督工作讓渡給經(jīng)過(guò)政府注冊(cè)的專(zhuān)業(yè)化第三方認(rèn)證、審核機(jī)構(gòu)實(shí)施,不失為一種可行的解決方案。[13]這樣既可以將行政監(jiān)督力量從繁雜的工作中解脫出來(lái),從而使審查工作更加有針對(duì)性和全局性,同時(shí)也可以充分調(diào)動(dòng)市場(chǎng)資本與社會(huì)專(zhuān)業(yè)力量來(lái)有效提升審查、監(jiān)督的質(zhì)量。例如美國(guó)白宮就于2016 年發(fā)布了《大數(shù)據(jù)報(bào)告:算法系統(tǒng)、機(jī)會(huì)與公民權(quán)利》,建議算法行業(yè)以及研究機(jī)構(gòu)一起主動(dòng)開(kāi)展算法審計(jì)以及大數(shù)據(jù)系統(tǒng)的外部測(cè)試,以避免大數(shù)據(jù)可能帶來(lái)的歧視和偏差,從而將算法相關(guān)技術(shù)可能的負(fù)面影響降到最低。

      (三)算法解釋權(quán)模式 所謂算法解釋權(quán)就是政府以及用戶(hù)有權(quán)要求與算法設(shè)計(jì)、編制、運(yùn)行控制相關(guān)的企業(yè)對(duì)算法自動(dòng)決策的過(guò)程及其結(jié)果做出合理、合法的解釋并更新數(shù)據(jù)或更正錯(cuò)誤。[14]因?yàn)槿绻粋€(gè)決策可以被解釋并為大家所理性認(rèn)識(shí)的話(huà),那么我們就可以更全面地了解此算法的風(fēng)險(xiǎn)與不足,從而進(jìn)行改進(jìn),即使侵權(quán)事件發(fā)生以后也可以正確地劃分責(zé)任,實(shí)現(xiàn)公平正義。目前,IEEE、ACM等業(yè)界的代表機(jī)構(gòu)以及歐美的部分算法專(zhuān)家就已經(jīng)著手相關(guān)事宜,以期促進(jìn)算法的可解釋性。IEEE 于2016年發(fā)布的人工智能及自動(dòng)化系統(tǒng)倫理設(shè)計(jì)白皮書(shū)中提出了對(duì)于人工智能和自動(dòng)化系統(tǒng)應(yīng)有解釋能力的要求;[15]ACM也于2017年的《關(guān)于算法透明性和可問(wèn)責(zé)性的聲明》中鼓勵(lì)使用算法決策的系統(tǒng)和機(jī)構(gòu)對(duì)算法過(guò)程和特定決策提供解釋?zhuān)籟16]歐盟更是于2018 年5 月生效的GDPR 中直接規(guī)定并創(chuàng)設(shè)了解釋權(quán),要求所有與歐盟有關(guān)的企業(yè)對(duì)其算法決策進(jìn)行解釋。

      但是伴隨著熱議,也必然存在一些不一樣的聲音。有研究者認(rèn)為,伴隨著人工智能算法技術(shù)的不斷進(jìn)步,強(qiáng)人工智能階段的算法會(huì)變得極其復(fù)雜并不可控,相應(yīng)地對(duì)其進(jìn)行準(zhǔn)確和詳細(xì)的解釋也是難上加難。但總的來(lái)看,算法解釋權(quán)在法律上不失為一種理性且合法的進(jìn)路,只是現(xiàn)階段在技術(shù)的可行性上還需要不斷探索與實(shí)踐。

      (四)數(shù)據(jù)保護(hù)官(DPO)模式 數(shù)據(jù)保護(hù)官模式就是GDPR 規(guī)定的一種綜合的、二元的集行政監(jiān)督、行業(yè)自律于一體的。旨在增強(qiáng)數(shù)據(jù)以及算法技術(shù)安全性、可解釋性的透明化進(jìn)路,該模式最早源自于德國(guó)的個(gè)人數(shù)據(jù)保護(hù)顧問(wèn)制度。GDPR 中規(guī)定,擁有250名員工以上的涉及處理敏感數(shù)據(jù)的企業(yè)、組織需指定一位數(shù)據(jù)保護(hù)官(DPO)。[17]其中DPO 不僅應(yīng)當(dāng)具備一定程度的計(jì)算機(jī)專(zhuān)業(yè)知識(shí)并能夠直接閱讀算法,還應(yīng)熟知企業(yè)所涉及數(shù)據(jù)、算法活動(dòng)對(duì)應(yīng)風(fēng)險(xiǎn)防范的法律規(guī)定,從而更容易發(fā)現(xiàn)問(wèn)題并及時(shí)采取措施。

      數(shù)據(jù)保護(hù)官既是企業(yè)負(fù)責(zé)日常數(shù)據(jù)、算法技術(shù)安全監(jiān)督的員工,依據(jù)法律規(guī)定從事對(duì)部分存在巨大風(fēng)險(xiǎn)的技術(shù)項(xiàng)目進(jìn)行事前檢查、日常安全評(píng)估、審計(jì)等工作,同時(shí)DPO也受到數(shù)據(jù)監(jiān)管局的管理并接受其業(yè)務(wù)指導(dǎo),在必要時(shí)可以直接向數(shù)據(jù)管理局匯報(bào)工作并獲得其幫助。這樣的制度設(shè)計(jì)使得DPO享有獨(dú)立行使職責(zé),且不受公司高層干擾的權(quán)利。較其他模式而言,DPO模式最大的意義在于這樣既保護(hù)了企業(yè)相關(guān)數(shù)據(jù)、算法技術(shù)的商業(yè)秘密,又可以讓DPO沒(méi)有束縛地履職盡責(zé),降低了技術(shù)門(mén)檻,提升了執(zhí)法效能,實(shí)現(xiàn)了企業(yè)經(jīng)濟(jì)效益與社會(huì)秩序價(jià)值的平衡。

      三、基于中國(guó)國(guó)情的法律規(guī)制路徑

      (一)我國(guó)算法風(fēng)險(xiǎn)規(guī)制現(xiàn)狀 我國(guó)對(duì)于算法及數(shù)據(jù)技術(shù)風(fēng)險(xiǎn)的法律規(guī)范還處于初始階段,總體設(shè)置上相對(duì)分散和不完善,數(shù)量有限且不完全能夠符合現(xiàn)階段技術(shù)發(fā)展需要,比如現(xiàn)階段在司法實(shí)踐中能夠被用于解決數(shù)據(jù)及算法侵權(quán)案件的已生效法律規(guī)范資源相對(duì)匱乏,大概分布于《中華人民共和國(guó)刑法》、《中華人民共和國(guó)民法》、《中華人民共和國(guó)網(wǎng)絡(luò)安全法》、《中華人民共和國(guó)電子商務(wù)法》等若干已出臺(tái)的法律規(guī)定中。即使最新修訂的《刑法》修正案進(jìn)一步加強(qiáng)了對(duì)于公民個(gè)人信息保護(hù),擴(kuò)大了犯罪主體的范圍, 同時(shí)完善了對(duì)于其他網(wǎng)絡(luò)犯罪行為的規(guī)定,但隨著我國(guó)人工智能等信息技術(shù)的不斷發(fā)展,不論是規(guī)范的范圍還是實(shí)踐的效果上都顯力不從心。此外,縱觀所有涉及計(jì)算機(jī)算法、數(shù)據(jù)技術(shù)的法律規(guī)范條款的內(nèi)容上,總體呈現(xiàn)出重刑輕民的現(xiàn)狀,而日常生活中多數(shù)侵權(quán)案件不會(huì)嚴(yán)重到觸及刑法,這就造成對(duì)處在刑事和民事之間的侵權(quán)案件,司法機(jī)關(guān)缺乏法律來(lái)進(jìn)行有效的處理,遇到此類(lèi)案件目前只能由相關(guān)行政機(jī)關(guān)進(jìn)行處理而無(wú)法形成統(tǒng)一的標(biāo)準(zhǔn)和長(zhǎng)效的治理,且即使存在相關(guān)規(guī)定也由于表述較為抽象、內(nèi)容不完善、責(zé)任劃分模糊而缺乏可操作性。

      在行政法規(guī)與部門(mén)規(guī)章層面,由于較立法程序更為靈活、自主、有針對(duì)性的緣故,國(guó)務(wù)院、各地區(qū)、各部門(mén)相關(guān)規(guī)定的制定呈現(xiàn)出緊跟國(guó)際先進(jìn)理念、日新月異的局面。例如,近年來(lái)由國(guó)務(wù)院及其各部門(mén)相繼出臺(tái)了《數(shù)據(jù)安全管理辦法》、《新一代人工智能發(fā)展規(guī)劃》、《信息安全技術(shù)個(gè)人信息安全規(guī)范》、《互聯(lián)網(wǎng)個(gè)人信息安全保護(hù)指南》、《移動(dòng)互聯(lián)網(wǎng)應(yīng)用(APP)手機(jī)個(gè)人信息基本規(guī)范》、《信息安全技術(shù)個(gè)人信息告知同意指南》、《云計(jì)算服務(wù)安全指南》等一批既符合我國(guó)國(guó)情也具有國(guó)際水準(zhǔn)的法規(guī)、規(guī)章,逐步構(gòu)建起了具有中國(guó)特色的能夠積極應(yīng)對(duì)并有效解決我國(guó)目前數(shù)據(jù)及算法治理困局的行政法規(guī)體系,其中《數(shù)據(jù)安全管理辦法》堪稱(chēng)中國(guó)版的“GDPR”,該規(guī)章對(duì)個(gè)人數(shù)據(jù)安全的各個(gè)方面進(jìn)行了細(xì)致的規(guī)定,為進(jìn)一步規(guī)制算法風(fēng)險(xiǎn)和進(jìn)行相應(yīng)的立法活動(dòng)提供了明確的技術(shù)指引和豐富的實(shí)踐經(jīng)驗(yàn)。

      總的來(lái)看,我國(guó)現(xiàn)階段對(duì)于算法風(fēng)險(xiǎn)的規(guī)制處于初期階段,還沒(méi)有出臺(tái)專(zhuān)門(mén)的關(guān)于數(shù)據(jù)以及算法風(fēng)險(xiǎn)規(guī)制的法律,但這一現(xiàn)狀是國(guó)內(nèi)外現(xiàn)階段所共同存在的,需要我們?cè)谖磥?lái)的一段時(shí)間來(lái)面對(duì)和解決。

      (二)我國(guó)應(yīng)對(duì)算法風(fēng)險(xiǎn)中長(zhǎng)期規(guī)劃進(jìn)路展望

      人工智能背景下算法演進(jìn)過(guò)程中產(chǎn)生各種風(fēng)險(xiǎn)是必然的,而且隨著信息技術(shù)的飛速發(fā)展,它給人類(lèi)帶來(lái)的挑戰(zhàn)也勢(shì)必與日俱增。經(jīng)過(guò)前幾部分的分析我們發(fā)現(xiàn),算法的價(jià)值來(lái)自于數(shù)據(jù),同樣風(fēng)險(xiǎn)也源自于數(shù)據(jù),近期只有在管控好公民個(gè)人數(shù)據(jù)安全的基礎(chǔ)上進(jìn)一步研究算法安全才更有意義。其次,必須將完善公民各類(lèi)數(shù)據(jù)權(quán)利、厘清不同主體之間的責(zé)任劃分、規(guī)范各類(lèi)行政監(jiān)督制度、健全行業(yè)自律機(jī)制等各種措施,通過(guò)法律的形式將各類(lèi)預(yù)防和規(guī)制措施確定下來(lái)。在應(yīng)對(duì)個(gè)人數(shù)據(jù)及其算法風(fēng)險(xiǎn)的立法活動(dòng)中,應(yīng)著重針對(duì)以下幾個(gè)方面不斷深入并細(xì)化相關(guān)規(guī)定:

      1.法律原則方面。參考?xì)W盟《通用數(shù)據(jù)保護(hù)條例》(GDPR)、加拿大《隱私法》(PIPEDA)以及美國(guó)《加利福尼亞州消費(fèi)者隱私法案》(CCPA)等已經(jīng)頒布的各項(xiàng)法律原則,我國(guó)也應(yīng)當(dāng)及時(shí)確立符合我國(guó)實(shí)情的數(shù)據(jù)及算法風(fēng)險(xiǎn)規(guī)制的法律原則,主要為以下幾個(gè)方面:

      (1)合法性原則:個(gè)人數(shù)據(jù)信息的收集、存儲(chǔ)、遷移以及相關(guān)處理算法應(yīng)該公平、合法。

      (2)目的明確、限定原則:即數(shù)據(jù)信息使用者以及算法程序設(shè)計(jì)、使用者對(duì)于所獲取的數(shù)據(jù)以及設(shè)計(jì)的算法有特定、明確、正當(dāng)?shù)氖褂媚康模以撃康膽?yīng)該處于必要、合理、合法的范圍內(nèi)。[18]

      (3)反對(duì)原則:在任何企業(yè)、單位涉及個(gè)人數(shù)據(jù)的收集、使用以及對(duì)其進(jìn)行算法處理時(shí),如果存在泄漏隱私、歧視等風(fēng)險(xiǎn),數(shù)據(jù)主體有權(quán)反對(duì)對(duì)其數(shù)據(jù)的任何操作。[19]

      (4)備案審計(jì)原則:應(yīng)當(dāng)對(duì)各類(lèi)數(shù)據(jù)、算法、模型等進(jìn)行備案,以便在需要之時(shí)對(duì)其進(jìn)行評(píng)估或?qū)徲?jì)。

      (5)相對(duì)透明化原則:即不強(qiáng)制要求數(shù)據(jù)使用者或者算法設(shè)計(jì)者及其使用企業(yè)對(duì)外完全公開(kāi)數(shù)據(jù)及算法程序,但應(yīng)當(dāng)適時(shí)地向社會(huì)公布數(shù)據(jù)的用途以及對(duì)于算法中可能涉及重大公眾利益的決策程序進(jìn)行適當(dāng)?shù)慕忉專(zhuān)⒐膭?lì)通過(guò)備案、注冊(cè)等間接方式保障算法公平。[20]

      (6)嚴(yán)格審核原則:政府行政監(jiān)管部門(mén)、企業(yè)內(nèi)部、第三方認(rèn)證機(jī)構(gòu)等應(yīng)當(dāng)建立定期或者不定期監(jiān)督、審查機(jī)制,嚴(yán)格執(zhí)行測(cè)試流程,及時(shí)發(fā)現(xiàn)數(shù)據(jù)及算法存在的各類(lèi)風(fēng)險(xiǎn)并采取措施。

      (7)問(wèn)責(zé)原則:數(shù)據(jù)及算法使用者應(yīng)當(dāng)對(duì)其數(shù)據(jù)使用結(jié)果以及算法所做決定承擔(dān)責(zé)任。

      2.健全個(gè)人權(quán)利配置。 現(xiàn)階段面對(duì)各種風(fēng)險(xiǎn)我們所能夠做到的、最具現(xiàn)實(shí)意義的應(yīng)對(duì)措施就是針對(duì)源頭數(shù)據(jù)、算法程序進(jìn)行細(xì)致的規(guī)制,那么首先就需要對(duì)個(gè)人涉及數(shù)據(jù)、算法方面的權(quán)利進(jìn)行完善。

      (1)否定權(quán):在一些情況下,數(shù)據(jù)主體可以要求數(shù)據(jù)使用者停止處理其數(shù)據(jù),特別是可能泄漏個(gè)人隱私或者存在其他不良風(fēng)險(xiǎn)的時(shí)候。

      (2)數(shù)據(jù)更正權(quán)。如果數(shù)據(jù)主體發(fā)現(xiàn)數(shù)據(jù)有誤或者不完整,可以要求數(shù)據(jù)使用者及時(shí)予以更正。

      (3)數(shù)據(jù)刪除權(quán):當(dāng)數(shù)據(jù)主體撤回同意或者認(rèn)為數(shù)據(jù)使用者對(duì)數(shù)據(jù)的處理不再具有最初的合法目的時(shí),數(shù)據(jù)主體可以要求數(shù)據(jù)使用者刪除或者移除其個(gè)人數(shù)據(jù)。[21]

      (4)算法解釋權(quán):指在人工智能背景下,算法決策程序的某些決定如果對(duì)相對(duì)人的法律及其他權(quán)益造成了侵害,相對(duì)人可以向算法程序的使用者及其設(shè)計(jì)者提出異議,并要求其對(duì)算法決策程序進(jìn)行解釋。雖然現(xiàn)階段在算法解釋實(shí)踐中遇到了來(lái)自于人工智能算法解釋困難、商業(yè)秘密保護(hù)等兩方面的困境,但目前弱人工智能階段中,算法絕大多數(shù)屬于大數(shù)據(jù)背景下可控、可解釋的高階函數(shù),即使對(duì)于黑箱性質(zhì)的深度學(xué)習(xí)人工智能算法也還是可以通過(guò)隱層分析方法、模擬/代理模型、敏感性分析方法等三類(lèi)途徑進(jìn)行解釋。此外,借鑒歐盟《通用數(shù)據(jù)保護(hù)條例》(GDPR)中的數(shù)據(jù)保護(hù)官(DPO)模式便可以實(shí)現(xiàn)既有效保護(hù)商業(yè)秘密及其知識(shí)產(chǎn)權(quán),又增強(qiáng)企業(yè)內(nèi)部對(duì)于數(shù)據(jù)及算法技術(shù)的解釋和監(jiān)督工作,從而有效推進(jìn)算法透明化的進(jìn)程。

      3.健全行政監(jiān)管力量,完善行業(yè)自律機(jī)制。首先,就行政監(jiān)管機(jī)構(gòu)而言我國(guó)此前還沒(méi)有成立真正意義上的專(zhuān)門(mén)針對(duì)數(shù)據(jù)及算法技術(shù)監(jiān)管的相關(guān)部門(mén),根據(jù)最近我國(guó)陸續(xù)發(fā)布的《數(shù)據(jù)安全管理辦法(征求意見(jiàn)稿)》、《個(gè)人信息保護(hù)法(專(zhuān)家建議稿)》等文件,可以看出國(guó)家將會(huì)建立以網(wǎng)信部門(mén)為統(tǒng)籌、國(guó)務(wù)院各主管部門(mén)負(fù)責(zé)各自職責(zé)范圍內(nèi)監(jiān)管工作的行政體系。[23]在此基礎(chǔ)上,國(guó)家在立法中應(yīng)當(dāng)進(jìn)一步對(duì)相關(guān)部門(mén)精簡(jiǎn)整合并細(xì)化其各種職能,廣泛賦予其對(duì)于數(shù)據(jù)及人工智能算法監(jiān)管所需要的各種監(jiān)督與處罰的權(quán)力,在法律規(guī)范層面上明確行政監(jiān)督機(jī)構(gòu)的性質(zhì)、地位以及權(quán)責(zé),以便行政機(jī)構(gòu)在監(jiān)管活動(dòng)中有法可依,且有效規(guī)范其權(quán)力的行使,從而使行政監(jiān)管機(jī)構(gòu)能夠盡快、高效地發(fā)揮應(yīng)有的作用。在行政監(jiān)督審查方式上,改進(jìn)我國(guó)目前主要采用的單一的備案審查的方式,增加事前和事中等動(dòng)、靜態(tài)結(jié)合的審查方式,即在算法投入使用前對(duì)設(shè)計(jì)不符合安全標(biāo)準(zhǔn)、有較大風(fēng)險(xiǎn)的算法予以排除,在算法投入使用以后展開(kāi)隨機(jī)、動(dòng)態(tài)抽查,以期發(fā)現(xiàn)隱藏的風(fēng)險(xiǎn)。

      在行業(yè)自律方面,需要建立算法審核官模式,并鼓勵(lì)發(fā)展專(zhuān)門(mén)的第三方審核機(jī)構(gòu)。正如前文介紹過(guò)的數(shù)據(jù)保護(hù)官(DPO)一樣,我國(guó)可以設(shè)置在數(shù)據(jù)保護(hù)職能基礎(chǔ)上包含算法審核職責(zé)的算法審核官,在算法透明化過(guò)程中既可以增強(qiáng)對(duì)算法的解釋以及數(shù)據(jù)的管理,還可以實(shí)現(xiàn)對(duì)商業(yè)秘密的有效保護(hù)。按照數(shù)據(jù)保護(hù)官的制度設(shè)計(jì),算法審核官制度也應(yīng)當(dāng)汲取其設(shè)計(jì)的關(guān)鍵之處,即算法審核官是屬于企業(yè)的員工,但在業(yè)務(wù)領(lǐng)域有獨(dú)立地位,受到行政監(jiān)管機(jī)構(gòu)的統(tǒng)一管理和領(lǐng)導(dǎo),制度設(shè)計(jì)上要保障來(lái)自企業(yè)高層的壓力不得影響其履行職責(zé),這樣就使算法審核官既可以獲得來(lái)自于行政力量的有力支持,也可以倒逼企業(yè)提高算法風(fēng)險(xiǎn)防范的意識(shí),逐步實(shí)現(xiàn)行政監(jiān)管與行業(yè)自律的有機(jī)融合。此外,在下一階段的立法工作中,需要進(jìn)一步明確國(guó)家對(duì)于發(fā)展專(zhuān)門(mén)的第三方數(shù)據(jù)及算法審計(jì)或認(rèn)證機(jī)構(gòu)的支持態(tài)度,但同時(shí)也需要抓緊完善涉及個(gè)人數(shù)據(jù)安全以及人工智能算法等一系列技術(shù)標(biāo)準(zhǔn)的統(tǒng)一化進(jìn)程,從政策上、法律上、技術(shù)上以及實(shí)施上共同推進(jìn)我國(guó)高水平第三方認(rèn)證產(chǎn)業(yè)的快速發(fā)展。

      4.人工智能算法的侵權(quán)責(zé)任劃分。對(duì)于侵權(quán)的人工智能產(chǎn)品及其算法的責(zé)任劃分問(wèn)題,我們需要厘清其是否可以作為民事法律主體、人工智能侵權(quán)責(zé)任主體有哪幾類(lèi)、侵權(quán)后的歸責(zé)原則等三類(lèi)重要問(wèn)題,只有這樣的侵權(quán)責(zé)任法律才能既充分保護(hù)受害者權(quán)益,又不限制人工智能技術(shù)的發(fā)展。

      (1)明確現(xiàn)階段不賦予人工智能產(chǎn)品及其算法民事法律關(guān)系主體地位的大方向。關(guān)于人工智能產(chǎn)品及其算法的法律主體資格的定位,筆者認(rèn)為不應(yīng)賦予其民事法律主體的資格,并在法律層面將其定性為“物”。因?yàn)槿斯ぶ悄墚a(chǎn)品及其算法并不具有人的身份,與法人的情形也不盡相同,既不會(huì)出生也不存在死亡,法律規(guī)范上也沒(méi)有對(duì)其權(quán)利和義務(wù)相配套的規(guī)定,此外對(duì)于人工智能產(chǎn)品及其算法,有限的處罰措施根本無(wú)法彌補(bǔ)受害方在經(jīng)濟(jì)以及精神上所受到的實(shí)際損失和侵害,歸根結(jié)底其侵權(quán)責(zé)任的承擔(dān)還是要落實(shí)到相關(guān)自然人或者法人,而人工智能產(chǎn)品及其算法是無(wú)法獨(dú)立承擔(dān)全部責(zé)任的,所以人工智能產(chǎn)品及其算法不具備民事行為能力、民事權(quán)利能力、民事責(zé)任能力,不具備作為民事責(zé)任主體的資格。

      (2)需要在立法中明確具體的人工智能產(chǎn)品及其算法的侵權(quán)責(zé)任主體。目前涉及人工智能產(chǎn)品及算法侵權(quán)的責(zé)任主體在不同的情形下主要有以下兩大類(lèi)需要在立法中予以明確并規(guī)范:

      第一類(lèi)責(zé)任主體是人工智能產(chǎn)品以及算法的生產(chǎn)以及設(shè)計(jì)者,目前的人工智能還處于初期即受人類(lèi)控制的高階函數(shù)階段,產(chǎn)品和算法本身并不具有侵權(quán)的故意或者過(guò)失,在本質(zhì)上仍然是由于有安全注意義務(wù)的人故意或者過(guò)失未履行義務(wù)而導(dǎo)致在算法設(shè)計(jì)、調(diào)試階段以及人工智能產(chǎn)品測(cè)試、生產(chǎn)階段導(dǎo)致了產(chǎn)品的缺陷,這就決定了在此種情況下侵權(quán)責(zé)任要?dú)w于設(shè)計(jì)者或者生產(chǎn)者。

      第二類(lèi)責(zé)任主體是人工智能產(chǎn)品以及算法的使用者即人工智能產(chǎn)品的控制者、管理者和受益者。雖然在人工智能技術(shù)日趨成熟、自主化決策愈發(fā)頻繁的情況下使用者無(wú)需直接控制與管理,但不排除使用者主觀存在故意或者過(guò)失,違反了相關(guān)技術(shù)規(guī)范,造成了人工智能產(chǎn)品及其算法侵權(quán)結(jié)果的發(fā)生,在此種情況下讓使用者、受益人承擔(dān)相應(yīng)的侵權(quán)責(zé)任是合理合法的。[24]

      (3)在立法中完善不同情形下的歸責(zé)原則。在當(dāng)前法律體系下,人工智能產(chǎn)品及其算法一旦侵權(quán)并造成了侵害的后果,如果根據(jù)過(guò)錯(cuò)責(zé)任原則,不論是要求受害人舉證證明加害人有過(guò)錯(cuò)以及過(guò)錯(cuò)行為與損害結(jié)果之間有因果關(guān)系,還是要求加害人舉證證明自身沒(méi)有過(guò)錯(cuò)以及自身的行為與損害結(jié)果之間不存在因果關(guān)系,對(duì)于現(xiàn)階段結(jié)構(gòu)復(fù)雜、邏輯關(guān)聯(lián)抽象、技術(shù)門(mén)檻高、透明性較差、解釋困難的人工智能產(chǎn)品及其算法來(lái)講,面臨的困難無(wú)異于大海撈針,對(duì)于訴訟雙方也將面臨訴訟周期較長(zhǎng)、成本過(guò)高的困擾,此外還會(huì)白白消耗大量的司法資源而無(wú)法快速結(jié)案。所以為了保障受害者能夠得到及時(shí)、充分、公平的救濟(jì),對(duì)于生產(chǎn)者以及消費(fèi)者應(yīng)當(dāng)適用無(wú)過(guò)錯(cuò)責(zé)任(嚴(yán)格責(zé)任)。

      而使用者與生產(chǎn)者、設(shè)計(jì)者不同,他們完全不參與產(chǎn)品及算法的設(shè)計(jì)、生產(chǎn)、制造、測(cè)試等技術(shù)環(huán)節(jié),自然也就對(duì)于人工智能自身的缺陷不存在任何主觀故意或者過(guò)失,也就無(wú)需承擔(dān)相應(yīng)責(zé)任,但是對(duì)于在使用、管理、獲益過(guò)程中因?yàn)闆](méi)有盡到自己的注意義務(wù)而侵權(quán)的行為應(yīng)當(dāng)承擔(dān)有限的過(guò)錯(cuò)責(zé)任。[25】

      四、總結(jié)

      在人工智能時(shí)代,當(dāng)我們面對(duì)算法導(dǎo)致的隱私泄漏、集權(quán)、殺熟、歧視等等社會(huì)問(wèn)題時(shí),為了進(jìn)一步規(guī)制此類(lèi)風(fēng)險(xiǎn),首先需要及時(shí)確立符合我國(guó)發(fā)展需要的數(shù)據(jù)及算法風(fēng)險(xiǎn)規(guī)制原則,健全公民在個(gè)人數(shù)據(jù)信息、算法解釋等增加算法透明化方面的權(quán)利配置,通過(guò)立法的方式來(lái)規(guī)范和完善行政監(jiān)管機(jī)構(gòu)的建設(shè),使得執(zhí)法有依據(jù),權(quán)力有規(guī)范,此外還需要在法律規(guī)范層面給予行業(yè)自律機(jī)制明確的支持態(tài)度,最為重要的是在人工智能算法侵權(quán)行為出現(xiàn)時(shí)對(duì)其責(zé)任的劃分于法律規(guī)范中作出清晰的界定。

      總之,要使人工智能技術(shù)的發(fā)展利大于弊,就需要在不同的技術(shù)階段結(jié)合,不同的社會(huì)需要,有針對(duì)性地完善相關(guān)的法律規(guī)范,降低不必要的損失和風(fēng)險(xiǎn),從而推動(dòng)人工智能算法技術(shù)在法律的框架下更好地為社會(huì)發(fā)展創(chuàng)造價(jià)值。

      猜你喜歡
      數(shù)據(jù)保護(hù)人工智能法律
      法律解釋與自然法
      法律方法(2021年3期)2021-03-16 05:57:02
      2019:人工智能
      商界(2019年12期)2019-01-03 06:59:05
      人工智能與就業(yè)
      數(shù)讀人工智能
      小康(2017年16期)2017-06-07 09:00:59
      TPP生物藥品數(shù)據(jù)保護(hù)條款研究
      下一幕,人工智能!
      歐盟數(shù)據(jù)保護(hù)立法改革之發(fā)展趨勢(shì)分析
      歐盟《一般數(shù)據(jù)保護(hù)條例》新規(guī)則評(píng)析
      讓人死亡的法律
      山東青年(2016年1期)2016-02-28 14:25:30
      “互助獻(xiàn)血”質(zhì)疑聲背后的法律困惑
      永登县| 叙永县| 云霄县| 确山县| 德钦县| 民和| 饶平县| 永宁县| 景宁| 正定县| 营山县| 焉耆| 乐至县| 元阳县| 拉萨市| 石门县| 修武县| 商丘市| 哈尔滨市| 吉林市| 青神县| 秭归县| 扶余县| 共和县| 贵港市| 崇左市| 昆山市| 前郭尔| 南平市| 驻马店市| 灵寿县| 横峰县| 无极县| 双峰县| 泊头市| 蒲江县| 上虞市| 汉源县| 肃宁县| 安新县| 金溪县|