• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看

      ?

      數(shù)據(jù)安全視域下的人工智能風(fēng)險應(yīng)對研究

      2019-02-20 04:54:57
      關(guān)鍵詞:個人信息人工智能

      一、引言

      當今時代,人工智能正在加速發(fā)展,在全球范圍內(nèi)掀起日益高漲的浪潮。它依托于大數(shù)據(jù)和云計算兩大基礎(chǔ)平臺,建立起機器學(xué)習(xí)、模式識別、人機交互三大通用技術(shù)體系,逐漸滲透到各大行業(yè)的創(chuàng)新發(fā)展之中。2017年,全球人工智能核心產(chǎn)業(yè)規(guī)模已超過370億美元,預(yù)計至2020年將超過1300億美元,年均增速達到60%。①而且,其產(chǎn)品和服務(wù)廣泛出現(xiàn)于經(jīng)濟生活的各個方面,如智能機器人、智能駕駛、智能安防、智能家居等。同時,各國也愈來愈重視,積極出臺相關(guān)政策和規(guī)范性文件以構(gòu)建前瞻性的布局,我國于2017年頒布了《新一代人工智能發(fā)展規(guī)劃》,提出人工智能已成為“國際競爭的新焦點”“經(jīng)濟發(fā)展的新引擎”,將其正式提升至國家戰(zhàn)略的高度,為這新一代技術(shù)的研發(fā)、應(yīng)用和推廣筑起堅實的后盾。

      然而,在熱議人工智能的發(fā)展前景和技術(shù)紅利的同時,挑戰(zhàn)和危機也隨之而生。不少學(xué)者專家對其帶來的安全風(fēng)險有了愈來愈深的擔憂:如2017年GMIC大會上,霍金提出人工智能威脅論,稱“人工智能可能是人類文明史的終結(jié),除非我們能學(xué)會如何避免危險”;特斯拉CEO埃隆·馬斯克曾警告說:“人類可能在不知不覺中創(chuàng)造了一個‘不朽的獨裁者’”;還有報告指出:人工智能會擴大現(xiàn)有威脅,因其可使攻擊成本降低、速度加快,目標擴大化、集合化;會引入新的威脅,人工智能系統(tǒng)可被利用于完成人類無法實現(xiàn)的攻擊形態(tài);會改變典型的威脅特征,使攻擊目標更為明確、攻擊更有效率,且因難以歸因而無法對其采取切實的應(yīng)對措施。同時報告還預(yù)測,在未來的五至十年里,人工智能會催生新型網(wǎng)絡(luò)犯罪、實體攻擊和政治顛覆。②上述論斷說明了人工智能所帶來的威脅,不僅僅是物理層面的實體攻擊,還包括在倫理、道德、就業(yè)、政治等方面的惡性影響。需要特別指出的是,在網(wǎng)絡(luò)安全領(lǐng)域,針對系統(tǒng)安全、在線內(nèi)容安全、組織管理安全,人工智能也正在引發(fā)一系列安全風(fēng)險,其中與在線內(nèi)容安全密切關(guān)聯(lián)的數(shù)據(jù)問題,成為影響人工智能安全、可靠、可控發(fā)展的一大關(guān)鍵,有必要引起高度重視并盡早采取應(yīng)對策略。

      在具體分析之前,這里對于本文所研究的人工智能范圍做一個限定。國際上有一種較為常見的分類方式,即將人工智能分為弱人工智能、強人工智能和超級人工智能,標準在于能否實現(xiàn)人類具有的認知功能、思考功能、推理功能等,或是否擁有類似人類的自我意志和自主思維能力??梢哉J為,從弱人工智能到超級人工智能,分別達到了“類人”“人類”和“超人”三個級別。從目前發(fā)展情況看,我們?nèi)蕴幱谌跞斯ぶ悄苓@一初級階段。未來,對于強人工智能和超級人工智能實現(xiàn)的可能性已無爭議,只是實現(xiàn)時間的遠近尚未確定。③因此,本文不停留于泛泛空想,也不過度憂慮未知的風(fēng)險,僅將弱人工智能納入研究的范圍,討論當前階段人工智能數(shù)據(jù)相關(guān)的風(fēng)險及刑事犯罪問題,并結(jié)合包括刑法在內(nèi)的網(wǎng)絡(luò)安全法治體系,探討立法規(guī)范的建構(gòu),并為產(chǎn)業(yè)領(lǐng)域的風(fēng)險防控提供建議。

      二、解讀人工智能數(shù)據(jù)的風(fēng)險及犯罪問題

      (一)數(shù)據(jù)要素相關(guān)的侵害行為

      數(shù)據(jù)是人工智能進行學(xué)習(xí)和決策的源頭,人工智能通過采集和存儲、管理和分析、可視化計算等技術(shù)手段來處理具備規(guī)模大、種類多、產(chǎn)生速度快、時效性強、價值密度低等特征的數(shù)據(jù),這一環(huán)節(jié)的重要性便使數(shù)據(jù)要素成為人工智能犯罪的主要侵害對象。數(shù)據(jù)安全強調(diào)三性:數(shù)據(jù)的保密性、完整性和可用性,在人工智能應(yīng)用場景中也是如此,下面筆者就從三性入手,分析數(shù)據(jù)要素上發(fā)生的侵害情形。

      對數(shù)據(jù)保密性的侵害。這種情形通常涉及利用用戶的個人隱私信息作為實施犯罪行為的手段,比如通過網(wǎng)絡(luò)竊取用戶的交易賬單、理財情況來了解用戶的資產(chǎn)狀況和基于在線行為的支付意愿,從而快速有效地定位金融詐騙的受害者目標群體;再如非法獲取受害者的個人隱私信息,組成多維度、海量化、定制型的訓(xùn)練數(shù)據(jù),并構(gòu)建惡意算法用于自動生成非法網(wǎng)站、鏈接、電子郵件等,向受害者定向推送,誘使其點擊;或者通過學(xué)習(xí)這些信息偽裝成受害者的好友,在社交網(wǎng)絡(luò)聊天中實施犯罪行為。

      對數(shù)據(jù)完整性的侵害。這種情形往往導(dǎo)致人工智能系統(tǒng)獲取信息失敗,因缺少關(guān)鍵數(shù)據(jù)而無法進行深度學(xué)習(xí),影響下一步工作的效率和準確性。比如,Bot驅(qū)動的大規(guī)?!癐nformation Generation”攻擊,利用分散信息等手段以破壞信息通道的正常運行,從而使獲取真實信息變得極為困難。

      對數(shù)據(jù)可用性的侵害。這種情形一般包括對數(shù)據(jù)的篡改、造假、干擾等,比如對人工智能系統(tǒng)輸入非真實的訓(xùn)練數(shù)據(jù)以獲得與目標背道而馳的結(jié)果;通過更改、拼接、制作高度逼真的假視頻或音頻,借名人效應(yīng)發(fā)表煽動性言論,擾亂政治和社會穩(wěn)定;在人工智能應(yīng)用于圖像識別的過程中,通過制造惡意圖片,使系統(tǒng)觸發(fā)相應(yīng)的安全漏洞,改變程序正常執(zhí)行的控制流或數(shù)據(jù)流,對于標簽、索引等一些關(guān)鍵數(shù)據(jù)進行修改,從而使人工智能系統(tǒng)輸出攻擊者指定的錯誤結(jié)果。④

      上述三種情形在未來將越來越常見,且會對人工智能系統(tǒng)本身造成較大的負面影響??偟膩碚f,人工智能算法的訓(xùn)練需以龐大數(shù)量的數(shù)據(jù)為基礎(chǔ),系統(tǒng)會通過終端收集范圍更廣、數(shù)量更多、內(nèi)容更多樣化的信息,這也使得數(shù)據(jù)所具有的實質(zhì)性價值更為凸顯,有經(jīng)濟價值之處就易出現(xiàn)人為的負面性,隨之而生的是安全風(fēng)險日益加?。欢?,人工智能系統(tǒng)并非獨立的、排他性的,而是與外部環(huán)境、各種要素形成密切的聯(lián)系。比如,產(chǎn)品或服務(wù)研發(fā)、生產(chǎn)、提供和應(yīng)用的過程中,系統(tǒng)設(shè)計者、平臺提供者、功能管理維護者以及應(yīng)用者等多個主體均參與其中,且根據(jù)自己的身份具備相應(yīng)的存儲、修改、傳輸、訪問、使用數(shù)據(jù)的資格,這種數(shù)據(jù)在多主體之間的流動會增加不穩(wěn)定性和權(quán)屬爭議。此外,人工智能的智能化還會帶來外部風(fēng)險,犯罪分子可利用其技術(shù)升級自己的侵犯個人信息安全的犯罪行為,可能造成數(shù)以萬計的公民隱私信息的泄露,也可能為已形成明顯上中下游關(guān)系的網(wǎng)絡(luò)黑灰產(chǎn)業(yè)推波助瀾。因此,基于諸多原因,人工智能數(shù)據(jù)相關(guān)侵害行為日益增多,產(chǎn)品或服務(wù)的研發(fā)者、制造和提供者、應(yīng)用者等相關(guān)人員應(yīng)當加強對數(shù)據(jù)保護的重視,在儲存、清洗、整合數(shù)據(jù)的各個環(huán)節(jié)都注意加大安全保障力度,從而防范風(fēng)險。

      (二)典型應(yīng)用場景——模式識別的數(shù)據(jù)相關(guān)犯罪分析

      模式識別是指“模擬人的感知過程,通過分析圖像、語音、視頻等感知數(shù)據(jù),對數(shù)據(jù)中包含的模式(物體、行為、現(xiàn)象等)進行判別和解釋的過程”。⑤目前,其被廣泛應(yīng)用于生物特征識別、語音識別、文字識別、遙感及醫(yī)學(xué)診斷等領(lǐng)域。下面,筆者從幾個子應(yīng)用場景入手,對模式識別中涉及數(shù)據(jù)相關(guān)犯罪的情形進行具體分析。

      生物特征識別發(fā)展至今已有五十余年的時間,逐漸成為身份認證中較為重要的一種方式。比如商業(yè)化發(fā)展最早的指紋識別,在開關(guān)類系統(tǒng)驗證身份時具有便捷、精確、安全的優(yōu)勢;在近些年深度機器學(xué)習(xí)快速發(fā)展的背景下,人臉識別通過建立海量的人臉圖像數(shù)據(jù),開發(fā)一系列高效的分析模式,成為安防監(jiān)控中關(guān)鍵的手段。此外,隨著智能手機、可穿戴設(shè)備大規(guī)模進入民眾的生活,生物特征識別的發(fā)展趨向于便攜式應(yīng)用和高速產(chǎn)業(yè)化。由此可見,生物特征識別對于用戶和環(huán)境這兩個要素有較大的依賴性,體現(xiàn)出更大程度的人機交互特性,且其應(yīng)用多涉及與個人身份相關(guān)的隱私數(shù)據(jù),對安全性自然也有更高的要求。實踐中,生物特征識別常常與金融類、財產(chǎn)類犯罪相關(guān)聯(lián),具體的表現(xiàn)形式包括:一是數(shù)據(jù)泄露問題,犯罪分子可通過攻擊漏洞竊取大量用戶隱私數(shù)據(jù),包括指紋、虹膜、臉、身形等身份信息,而這些信息將被利用于侵入安防系統(tǒng)、盜取保險設(shè)備中的錢物、實施財產(chǎn)詐騙行為等;二是數(shù)據(jù)篡改或破壞問題,犯罪分子可采用變形、模糊、真假調(diào)換等處理技術(shù)對數(shù)據(jù)進行偽造,進一步干擾以數(shù)據(jù)為基礎(chǔ)的系統(tǒng)的正常運行。

      語音識別技術(shù)在20世紀末和21世紀初取得了較大進展,在模型結(jié)構(gòu)、深度神經(jīng)網(wǎng)絡(luò)訓(xùn)練、多語言訓(xùn)練、參數(shù)學(xué)習(xí)等技術(shù)的支持下,逐漸實現(xiàn)大規(guī)模產(chǎn)業(yè)化,在聲訊服務(wù)、語音評測、安全監(jiān)控、語言翻譯等方面發(fā)揮著重要作用。而同時,技術(shù)的提升也帶來了安全隱患。在以往的詐騙案件中,犯罪分子常通過假冒身份的方式迷惑受害者,博取其信任,身份造假多使用文字信息,手段較為單一、平面化,許多警惕性高的人并不容易掉入陷阱。而現(xiàn)在,犯罪分子通過學(xué)習(xí)語音識別技術(shù),開發(fā)語音合成系統(tǒng),模仿特定對象的聲音,達到以假亂真、難以辨別的程度,且在沒有其他身份驗證措施的情況下,很容易引導(dǎo)受害者走入詐騙迷局。

      與語音識別技術(shù)相似,視覺識別技術(shù)目前也有較廣泛的應(yīng)用領(lǐng)域,尤其在安防監(jiān)控上發(fā)揮著巨大作用,如對人群中特定目標的識別、車輛識別、物體追蹤、異常事件檢測等。視覺識別依靠圖像視頻分析技術(shù),而分析的對象便是以物聯(lián)網(wǎng)為基礎(chǔ)的海量數(shù)據(jù),包括來自監(jiān)控相機、移動設(shè)備、互聯(lián)網(wǎng)的各類多媒體數(shù)據(jù)等,通過整合不同場景的不同數(shù)據(jù),系統(tǒng)才有可能分析出目標更復(fù)雜的行為、目標之間的關(guān)聯(lián)和群體目標間的事件級演變。⑥因此,數(shù)據(jù)是視覺識別的關(guān)鍵所在,其安全性直接影響著視覺識別的有效性、精確性和保密性。認識到這一點,攻擊者可以通過干擾或破壞數(shù)據(jù)的方式影響視覺識別技術(shù)發(fā)揮功用。典型的如實施逃逸攻擊,即在不改變目標機器學(xué)習(xí)系統(tǒng)的情況下,通過構(gòu)造特定輸入樣本以完成欺騙目標系統(tǒng)的攻擊。⑦此種對抗樣本在不同程度上侵害了在線內(nèi)容的安全性,干擾了視覺識別的系統(tǒng)運行,為實施進一步的犯罪行為提供了幫助。

      三、人工智能數(shù)據(jù)相關(guān)的立法規(guī)范建構(gòu)

      (一)立法模式的確定

      確定立法模式,即如何對待我國現(xiàn)有的相關(guān)立法規(guī)范,以及在何種程度上另外制定新規(guī)范的問題,有學(xué)者針對網(wǎng)絡(luò)犯罪立法模式提出了兩種維度的選擇視角:一是靜態(tài)維度,考慮一元的刑法典模式,或與單行的網(wǎng)絡(luò)犯罪相關(guān)法結(jié)合的多元模式,又或頒布一部綜合性的網(wǎng)絡(luò)法;二是動態(tài)維度,考慮圍繞網(wǎng)絡(luò)犯罪應(yīng)采取“漸進式”或“前瞻式”的立法形式。⑧而對于人工智能數(shù)據(jù)相關(guān)的立法規(guī)范建構(gòu),其實也可以借鑒上述視角。從靜態(tài)維度看,筆者認為在現(xiàn)階段繼續(xù)采用一元的刑法典模式更為合理。因為人工智能已逐漸應(yīng)用于各個場景之中,與各個學(xué)科、各個行業(yè)領(lǐng)域也有了愈來愈緊密的聯(lián)系,出臺一部具有總括性的、系統(tǒng)化的人工智能法律確有一定的現(xiàn)實需求。目前,美國和歐盟已進行了嘗試,美國國會提出《人工智能未來法案》,而歐洲議會通過了“關(guān)于制定機器人民事法律規(guī)則的決議”,但這些立法實踐還是比較初步的,主要針對小范圍的某一應(yīng)用場景,著力于未來進一步研究和施行對人工智能的監(jiān)管工作。從當前情況來看,制定綜合性的人工智能法律尚缺成熟的時機,而刑法自身有很大的包容性和發(fā)展性,可通過修正刑法及出臺立法、司法解釋的方式來應(yīng)對人工智能時代的治理需求。而從動態(tài)維度看,建議采用“漸進式”和“前瞻式”相結(jié)合的模式,一方面視人工智能風(fēng)險問題為一種客觀現(xiàn)象,立法主要通過修正現(xiàn)行法律、適當增加條款的形式來進行;另一方面應(yīng)考慮未來一段時間內(nèi)犯罪行為、侵害法益、規(guī)制范圍、主體責(zé)任等的變化,預(yù)留給司法解釋和相關(guān)法律法規(guī)一定的空間。

      總的來說,誠然,我們不能否認人工智能的發(fā)展影響了現(xiàn)有的法律關(guān)系,帶來了一系列嶄新的法律問題,使立法、執(zhí)法、守法等方面都受到了挑戰(zhàn)。但倘若就此高呼立刻制定一部人工智能法,構(gòu)建特定化、專門化的法律體系,未免有些為時過早了。從目前人工智能的技術(shù)水平、應(yīng)用場景及產(chǎn)業(yè)現(xiàn)狀來看,還遠遠達不到人們所擔憂的失控程度,一概要求以新立法應(yīng)對新犯罪的做法并不妥當。⑨基于此,對于已經(jīng)或可能出現(xiàn)的安全問題,一部分可以通過梳理和分析我國現(xiàn)有的相關(guān)立法規(guī)范,修正現(xiàn)行規(guī)定或增加新的司法解釋將其納入;另一部分則可以通過構(gòu)想和設(shè)計未來相關(guān)的立法規(guī)范,從國際治理和國內(nèi)治理兩個角度制定新的立法條款而加以規(guī)制。

      (二)梳理和分析我國現(xiàn)有的相關(guān)立法規(guī)范

      與數(shù)據(jù)問題相關(guān)的立法規(guī)范,本文是從廣義范疇理解的:一是針對數(shù)據(jù)的保護,主要涉及系統(tǒng)中存儲、使用、處理、傳輸?shù)臄?shù)據(jù)。目前我國刑事立法對此尚欠缺保護力度,僅體現(xiàn)于刑法第二百八十五條第二款,將非法獲取數(shù)據(jù)的行為入罪化。而伴隨更多人工智能應(yīng)用場景的出現(xiàn),視覺識別領(lǐng)域的人體面部數(shù)據(jù)、語音識別領(lǐng)域的聲紋信息等將成為犯罪分子使用、篡改、傳輸?shù)膶ο?,其他惡意處理?shù)據(jù)的行為也會愈來愈多,刑法有必要考慮在規(guī)制非法獲取行為之外增設(shè)其他條款,突顯對于數(shù)據(jù)保護的重視程度。二是針對個人信息的保護,更強調(diào)隱私的內(nèi)容。此處先說明一下不同國家的用語區(qū)別:涉及隱私的相關(guān)立法中,我國采用“信息”一詞,美國則常用“隱私”一詞,而歐盟自1995年《個人數(shù)據(jù)保護指令》出臺起就使用“數(shù)據(jù)”一詞涵蓋包括隱私在內(nèi)的內(nèi)容,不同的用語對應(yīng)著不同的保護傾向和保護范圍。關(guān)于個人信息保護的立法規(guī)范,下面進行具體分析。

      隨著大數(shù)據(jù)時代的到來,人們?nèi)粘>W(wǎng)絡(luò)活動會產(chǎn)生海量的個人信息,與此同時,偷取、濫用、惡意披露等行為也越來越嚴重。對此,我國相關(guān)立法活動正在不斷推進。不僅刑法確立了侵犯公民個人信息罪,《網(wǎng)絡(luò)安全法》也將網(wǎng)絡(luò)信息安全設(shè)為了獨立的一章;再如2012年《關(guān)于加強網(wǎng)絡(luò)信息保護的決定》的頒布確立了個人信息保護的相關(guān)原則,規(guī)范了網(wǎng)站和企事業(yè)單位收集、使用、處理公民個人信息的行為;2013年出臺的《電信和互聯(lián)網(wǎng)用戶個人信息保護規(guī)定》完善了電信和互聯(lián)網(wǎng)行業(yè)的個人信息保護相關(guān)制度;此外,在地方立法上,貴州省于2016年頒布了《貴州省大數(shù)據(jù)發(fā)展應(yīng)用促進條例》,作為我國第一個與大數(shù)據(jù)相關(guān)的地方性法規(guī),它體現(xiàn)了政府在規(guī)范數(shù)據(jù)使用及保護個人信息方面的極度重視和積極作為。

      由上述規(guī)定可知,個人信息保護已成為我國立法進程中極為重要的部分,而在人工智能日漸發(fā)展的時代,確保信息安全則有了更多的要求和更高的標準。為避免數(shù)據(jù)風(fēng)險成為限制人工智能發(fā)展的短板,當前的個人信息保護法律框架,尤其是刑事立法的規(guī)定,有必要且需盡快依據(jù)人工智能的特殊性對難以規(guī)制的部分進行調(diào)整。

      我國刑法對個人信息的保護可追溯至“刑七”頒布時,它增加了第二百五十三條之一,將主體限定為國家機關(guān)或重要單位的工作人員,個人信息來源于單位履行職責(zé)或提供服務(wù),重在打擊出售、非法提供及獲取的行為。該次修正是個人信息立法保護事業(yè)的重大起步,但并未詳述罪狀,未明確界定個人信息的內(nèi)涵,使得在司法應(yīng)用中出現(xiàn)不少認定爭議,而且所規(guī)制的主體范圍較小,并不能覆蓋產(chǎn)業(yè)領(lǐng)域常見的信息泄露問題。而《刑法修正案(九)》(下文簡稱“刑九”)完善并正式確立了“侵犯公民個人信息罪”。因現(xiàn)實中實名制的施行導(dǎo)致個人信息數(shù)量暴增,而買賣個人信息又在利益驅(qū)使下逐漸形成完整的犯罪鏈,對此刑法將主體從特殊擴大為一般,使更多處于犯罪中上游的行為入罪化。同時,這次修正明確了本罪的客觀要件,將非法獲取的任何公民個人信息均納入定罪范圍內(nèi),解決了原條文中的“上述信息”是否僅指特殊單位工作所獲信息的歧義。而且,“刑九”增加了三至七年量刑檔和從重處罰情形,使法定刑的設(shè)置更能體現(xiàn)罪責(zé)刑相適應(yīng)原則,至此圍繞公民個人信息已構(gòu)建起基礎(chǔ)的刑法保護體系,有效回應(yīng)了數(shù)據(jù)相關(guān)犯罪產(chǎn)業(yè)鏈發(fā)展日益猖獗的問題,而人工智能犯罪所涉行為也可基本納入此種體系。進一步分析侵犯公民個人信息罪在人工智能時代的適應(yīng)情況,需著重關(guān)注以下問題:

      第一,“公民個人信息”這一概念是否需重新界定?2017年公布的司法解釋第一條即對公民個人信息做了明確解釋。⑩范圍除涵蓋身份識別信息外,對反映特定自然人活動情況的信息例如行蹤軌跡作了特別的提示性規(guī)定,體現(xiàn)了專屬性、可識別性、價值性的特征,即通過信息可直接或間接識別出唯一對應(yīng)的主體,且該信息具有刑法保護的法益價值。這一解釋順應(yīng)了打擊犯罪的實踐需求,也助益于各單位主體正確判定合規(guī)對象的注意范圍。?結(jié)合人工智能技術(shù)特征來看,其背景下的公民個人信息特征并無不同,但在內(nèi)容上可考慮有所擴充,比如可列舉更多的記錄載體或形式,還可列舉一些與人工智能相關(guān)的信息形態(tài)?!毒W(wǎng)絡(luò)安全法》在定義個人信息時提及了“個人生物識別信息”。?類似的,在生物特征識別、語音識別、視覺識別等應(yīng)用場景的推廣下,人們?nèi)粘;顒訒a(chǎn)生更多樣化的身份數(shù)據(jù),如人臉圖像、指紋、聲紋等,這些數(shù)據(jù)的使用范圍和頻率甚至可能逐漸超過傳統(tǒng)的賬號密碼、身份證件號碼等信息,因此可以考慮在解釋個人信息定義時有所體現(xiàn)。

      第二,人工智能技術(shù)支持下個人信息流轉(zhuǎn)的多向性、頻繁性、復(fù)雜性,是否會影響犯罪客觀行為和刑法保護路徑的設(shè)定?有學(xué)者提出,目前的立法主要是從公民個人信息的“來源”和“去向”兩個方面來類型化界定犯罪行為,體現(xiàn)了立足于信息橫向流動過程的保護路徑,但較少觸及信息的縱向使用過程。?從現(xiàn)實案例可知,人工智能為個人信息犯罪提供便利條件以及促進個人信息的流轉(zhuǎn),并非僅局限于一個方向上的各環(huán)節(jié),而是遍布于整個網(wǎng)狀環(huán)境中,這就要求立法需擴展保護路徑,將新的侵犯手段納入客觀行為之中。

      第三,應(yīng)用人工智能產(chǎn)品和服務(wù)時,被害人承諾是否面臨新的情形?個人信息刑法保護中被害人承諾的問題其實就是個人信息主體知情同意權(quán)的問題,即主體享有知悉本人信息被收集、使用等權(quán)利,和享有除例外情況任何人處理本人信息均需由本人同意的權(quán)利。司法解釋第三條明確了非法提供公民個人信息的前提就是“未經(jīng)被收集者同意”,《網(wǎng)絡(luò)安全法》第四十一條、第四十二條也分別強調(diào)了網(wǎng)絡(luò)運營者收集、使用和提供個人信息時的告知和經(jīng)同意義務(wù),并在第四十三條進一步規(guī)定了個人的要求刪除或更正權(quán)。而人工智能發(fā)展環(huán)境下,如何平衡信息主體的知情同意權(quán)和運營者在開展業(yè)務(wù)活動中的數(shù)據(jù)處理自由?首先,目前知情同意權(quán)的對應(yīng)范圍主要是收集、使用和提供個人信息的行為,而隨著人工智能領(lǐng)域相關(guān)主體的增多,接觸個人信息的行為方式也更多樣復(fù)雜,可能會出現(xiàn)部分新類型的信息處理方式,或原本無權(quán)處理的方式可能因應(yīng)用場景的特殊性而納入經(jīng)個人同意即可處理的范圍內(nèi)。其次,知情同意權(quán)的保障程度和實現(xiàn)途徑方面,將此權(quán)利規(guī)定于用戶條款是當前的常見方式,且大多是注冊使用的前提,未賦予用戶選擇的權(quán)利,這樣在司法認定中可能存在被害人消極承諾的問題,尤其當越來越多的智能產(chǎn)品和科技化功能進入民眾生活,有必要在立法上盡早明確這一點。

      (三)構(gòu)想和設(shè)計未來的相關(guān)立法規(guī)范

      在構(gòu)想刑事立法路徑前,首先需確定立法的原則和態(tài)度:其一,以安全與發(fā)展兩大價值為導(dǎo)向,實現(xiàn)刑法對人工智能涉及的各個法益和技術(shù)產(chǎn)業(yè)創(chuàng)新發(fā)展的均衡保護。公權(quán)力介入產(chǎn)業(yè)領(lǐng)域時應(yīng)恪守技術(shù)中立原則,對于所發(fā)生風(fēng)險未超過社會的相當性、控制度和容忍度的,不應(yīng)過度干預(yù)和打壓;?其二,刑法應(yīng)堅持謙抑性,在科技帶來的新奇和狂熱中保持理性,嚴守“最后一道防線”的地位。同時,風(fēng)險社會下刑法也應(yīng)具有前瞻性,關(guān)注潛在的風(fēng)險問題,積極探索適當?shù)脑缙诮槿肽J剑珙A(yù)備行為的入罪化;其三,注意刑法的延續(xù)適用和后續(xù)銜接問題。前文已闡明,目前人工智能犯罪并不會從根本上動搖現(xiàn)行刑法的罪名體系,許多行為仍能被現(xiàn)行刑法和司法解釋直接或經(jīng)修正后進行評價,因此不必盲目追求大刀闊斧地改革立法。在補充立法過程中,既要設(shè)計緊緊圍繞人工智能犯罪特點的刑事條款,又要考慮與其他刑事規(guī)范的銜接問題,尤其是后續(xù)出臺的網(wǎng)絡(luò)違法犯罪防治法、相關(guān)司法解釋等;其四,將技術(shù)規(guī)則與法律規(guī)則相結(jié)合,體現(xiàn)科技立法的特色。當前一些通用的技術(shù)規(guī)則已出現(xiàn)于人工智能技術(shù)應(yīng)用發(fā)展的過程中,在立法確定主體、對象、手段、數(shù)額等內(nèi)容時應(yīng)當予以參考。而且人工智能具有系統(tǒng)性、協(xié)同性,其犯罪具有集對象、手段工具、空間于一體的特征,因此不能僅從片面分析其犯罪行為和侵害結(jié)果,要盡可能帶著整體和聯(lián)系的思維進行立法構(gòu)想。有了上述這些原則的指引,下一步設(shè)想具體的立法內(nèi)容,可作如下展開。

      從各國保護數(shù)據(jù)的實踐來看,主要有幾種路徑:歐盟通過制定詳備的法案如《通用數(shù)據(jù)保護條例》(General Data Protection Regulation,以下簡稱GDPR)對數(shù)據(jù)施以保護,在國際范圍內(nèi)產(chǎn)生重大影響;美國主要從保護數(shù)據(jù)產(chǎn)業(yè)發(fā)展的角度出發(fā),并未單獨規(guī)定個人數(shù)據(jù)權(quán)利,而是側(cè)重于市場規(guī)范,在發(fā)生數(shù)據(jù)侵權(quán)時多由聯(lián)邦貿(mào)易委員會處理;德國創(chuàng)設(shè)了聯(lián)邦數(shù)據(jù)保護專員制度,特別規(guī)定在相關(guān)公共機構(gòu)和個人組織中需任命數(shù)據(jù)保護官;而我國當前的立法多著力于規(guī)范網(wǎng)絡(luò)信息服務(wù)和信息處理行為,強調(diào)對個人信息的保護,而對數(shù)據(jù)權(quán)利等具體問題的規(guī)范還存在較多空白。?我國借鑒各國保護思路,應(yīng)用到人工智能相關(guān)立法上,需加快建立關(guān)于個人信息和數(shù)據(jù)的合理保護機制。對于個人信息的保護,考慮重新界定其范圍,區(qū)分敏感信息和其他特殊信息類型并分別規(guī)定保護的形式和限制性內(nèi)容,進一步明確知情同意原則等,這在上一節(jié)已具體說明,此處不再贅述。而對于一般數(shù)據(jù)的保護,現(xiàn)行刑法“靜態(tài)有余,動態(tài)不足”,?所設(shè)罪名主要圍繞系統(tǒng)、個人信息的安全性,唯一與數(shù)據(jù)相關(guān)的罪名“非法獲取計算機信息系統(tǒng)數(shù)據(jù)罪”實則也是落腳于對系統(tǒng)功能和通信安全的保護。對此,需加強立法層面對數(shù)據(jù)保護的重視程度,比如明確相關(guān)主體的安全管理義務(wù),規(guī)范其獲取、使用、處理數(shù)據(jù)的行為,建立可執(zhí)行的且可用于不同應(yīng)用場景的標準流程;評估數(shù)據(jù)權(quán)利方面是否有必要增加被遺忘權(quán)、可攜帶權(quán)等特殊權(quán)利;歐盟法律事務(wù)委員會建議,在結(jié)合人工智能特性制定數(shù)據(jù)相關(guān)政策時,應(yīng)進一步完善默認保護隱私、知情同意、加密等概念的標準。?且必要時可設(shè)立專門性的管理機構(gòu)或研究機構(gòu),如英國政府正與阿蘭·圖靈研究所合作建立一個旨在研究數(shù)據(jù)科學(xué)的“數(shù)據(jù)倫理委員會”,以加強數(shù)據(jù)使用的審查;另外,法律可采取延伸式保護,依靠人工智能技術(shù)提升保護能力,如嘗試算法代理人模式,可根據(jù)不同情形設(shè)定不同的數(shù)據(jù)使用權(quán)限,同時管理個人同意和拒絕分享的信息,使控制和使用兩者共存,便于數(shù)據(jù)所涉主體間的意思聯(lián)絡(luò)。?

      四、產(chǎn)業(yè)領(lǐng)域防控數(shù)據(jù)風(fēng)險的策略建議

      (一)開展人工智能安全科學(xué)發(fā)展的基本工作部署

      在產(chǎn)業(yè)領(lǐng)域,開展人工智能安全科學(xué)發(fā)展的基本工作部署,首要的任務(wù)就是樹立關(guān)于人工智能的正確認識,采取辯證且積極的態(tài)度對待這一新興技術(shù)。當前,一部分人過分夸大人工智能的好處,在技術(shù)應(yīng)用時有些盲目;與此相反,也有一部分人對科技抱有無知的畏懼,害怕人工智能最終會失控而反對產(chǎn)業(yè)繼續(xù)發(fā)展,這都是不可取的。我們知道,人工智能是一把雙刃劍,既能推動經(jīng)濟社會發(fā)展,也會帶來各種類型的安全風(fēng)險。因此,各企業(yè)在開展業(yè)務(wù)時首先應(yīng)理解人工智能的雙重性質(zhì),兼顧兩大價值導(dǎo)向——一是發(fā)展,二是安全。

      以發(fā)展為價值導(dǎo)向,企業(yè)應(yīng)當詳細了解外部市場情況,包括行業(yè)內(nèi)同類企業(yè)的技術(shù)布局、價值鏈各環(huán)節(jié)的商業(yè)應(yīng)用案例、未來可預(yù)估的發(fā)展前景,同時評估基于自身業(yè)務(wù)的應(yīng)用機會和組織、技術(shù)、資源等形成的核心競爭力,并在此基礎(chǔ)上制定具體可行的發(fā)展規(guī)劃。而在執(zhí)行過程中,激勵內(nèi)部創(chuàng)新,善用外部資本,能夠加速人工智能發(fā)展。

      以安全為價值導(dǎo)向,企業(yè)應(yīng)當將安全理念貫穿于設(shè)計、研發(fā)、生產(chǎn)、銷售等各個環(huán)節(jié),對風(fēng)險采取“事先預(yù)防為主,事后補救為輔”的規(guī)避路徑,并制定一系列相關(guān)原則與行動指南。如微軟公司以“六項原則”為任何部署人工智能驅(qū)動解決方案的核心,其內(nèi)容是隱私和安全原則、透明度原則、公平性原則、可靠性原則、包容性原則和問責(zé)制原則。?再如有報告提出各行業(yè)人工智能發(fā)展基礎(chǔ)的評分體系,具體包括:一是組織機構(gòu)基礎(chǔ),包含人工智能戰(zhàn)略視野與方向、人才與技術(shù)能力、組織靈活性和驅(qū)變力等;二是數(shù)據(jù)、工作流與技術(shù)基礎(chǔ),包含可獲取的數(shù)據(jù)量、數(shù)據(jù)儲存流程成熟度、數(shù)據(jù)整潔度、數(shù)據(jù)有良好的記錄與說明文檔、工作流自動化程度、對人工智能友好的IT系統(tǒng)等;三是實施與應(yīng)用基礎(chǔ),包含應(yīng)用場景清晰度、人工智能運用準備的成熟度、解決方案服務(wù)機構(gòu)合作情況等。?評分體系中的部分要素也可為企業(yè)構(gòu)建人工智能安全框架提供方向。

      在參考上述內(nèi)容的同時,尤其應(yīng)當注意責(zé)任制和開放性。企業(yè)應(yīng)建立責(zé)任文化,通過開展員工教育,強調(diào)道德聲明和標準的重要性、人工智能良性與惡性用途的區(qū)分,以及從技術(shù)研發(fā)到應(yīng)用過程的風(fēng)險防范意識。尤其是研究人員,他們對促進技術(shù)的有益應(yīng)用和防止有害使用負有責(zé)任,可通過與決策者合作、提供專業(yè)知識、評估項目安全性等來踐行責(zé)任。而開放性則體現(xiàn)于對技術(shù)信息的適度公開、安全制度和經(jīng)驗教訓(xùn)的共享,以及在合理可行的情況下提高公眾的參與度、施行公眾決策。此外,產(chǎn)業(yè)領(lǐng)域還需特別強調(diào)巨頭企業(yè)的引領(lǐng)作用,無論是發(fā)展層面的布局還是安全層面的保障,這些企業(yè)有著明顯的優(yōu)勢地位,應(yīng)當承擔更多社會責(zé)任,并為中小企業(yè)提供參考范式。

      (二)完善對人工智能數(shù)據(jù)的管理控制

      確保人工智能相關(guān)數(shù)據(jù)的保密性、完整性及可用性,要求企業(yè)制定明確的數(shù)據(jù)戰(zhàn)略,其內(nèi)容可包含以下幾個部分:

      第一,重視數(shù)據(jù)資產(chǎn)價值。構(gòu)建服務(wù)于企業(yè)發(fā)展的數(shù)據(jù)收集、整合與運用的生態(tài)系統(tǒng),在業(yè)務(wù)部門的支持下,采取程序化的方式為數(shù)據(jù)資產(chǎn)提供架構(gòu),同時優(yōu)化數(shù)據(jù)的采集、聚合、使用與后續(xù)更新,并保持數(shù)據(jù)的準確、一致與安全。?此外,從發(fā)展的視角來看,保證數(shù)字系統(tǒng)存在開放的接口也是必要的,以便未來靈活整合技術(shù)來適應(yīng)人工智能的發(fā)展。第二,加強個人隱私保護。相關(guān)人員在收集、使用、處理數(shù)據(jù)的過程中,需要采取適當?shù)募夹g(shù)手段,防止個人隱私信息的泄露、篡改及損毀,如進行數(shù)據(jù)加密,通過采用“同態(tài)加密”的手段,有效地提升信息傳輸?shù)陌踩裕?也可以進行數(shù)據(jù)的失真處理,這類數(shù)據(jù)仍可維持一些性質(zhì)不更改,且使得攻擊者難以從中還原出真實原始數(shù)據(jù);還可以采取限制發(fā)布的方式,通過“數(shù)據(jù)匿名化”技術(shù),折中考慮披露風(fēng)險和確保精度之間的平衡,而后有選擇地發(fā)布敏感數(shù)據(jù)及相關(guān)信息,此時也可能涉及對于數(shù)據(jù)重要性的等級劃分。此外,可以建立認證管理體系,包括用戶身份、應(yīng)用身份、設(shè)備身份等內(nèi)容的認證,提高隱私數(shù)據(jù)泄露的門檻。第三,建立數(shù)據(jù)自我保護體系,通過程序設(shè)定實時監(jiān)測數(shù)據(jù)的整潔度和安全性,使其不受外界環(huán)境的干擾,保證核心數(shù)據(jù)在任何時間、任何地點都有能力抵抗各種形式的惡意攻擊。

      對于數(shù)據(jù)安全的保護,還需特別注意GDPR的要求,有報告指出GDPR對人工智能的九大影響,包括:第6條對重新利用數(shù)據(jù)作了禁止規(guī)定,這對人工智能開發(fā)和使用的創(chuàng)新性有一定程度的限制;第17條規(guī)定了數(shù)據(jù)的被遺忘權(quán),這同人工智能機器學(xué)習(xí)需要海量數(shù)據(jù)相悖,可能會影響人工智能的準確性,甚至產(chǎn)生一定破壞結(jié)果;第20條規(guī)定了數(shù)據(jù)的可攜權(quán),會推動消費者與人工智能企業(yè)分享有關(guān)數(shù)據(jù),從而刺激企業(yè)間的競爭;第44條至第50條要求的數(shù)據(jù)本地化,會大大提高人工智能處理數(shù)據(jù)的成本;此外,GDPR對數(shù)據(jù)去識別標準缺乏明確的規(guī)定,也會抑制企業(yè)使用未識別的數(shù)據(jù),縮小其可能的合法用途范圍。?由此可見,GDPR對人工智能產(chǎn)業(yè)的數(shù)據(jù)處理行為影響重大,凡在GDPR管轄范圍之內(nèi)的相關(guān)企業(yè)都應(yīng)盡早采取措施提高業(yè)務(wù)合規(guī)性,以適應(yīng)上述影響。

      五、結(jié)語

      與網(wǎng)絡(luò)犯罪日益加劇時刑法的積極回應(yīng)一樣,伴隨人工智能而來的新的刑事風(fēng)險,也呼喚刑法適時適當?shù)亟槿?,面對刑事歸責(zé)理論和刑罰體系的動搖、危害行為及因果關(guān)系的認定困難,及時進行調(diào)整和轉(zhuǎn)型,以實現(xiàn)新時代的刑法價值。?當然,人工智能數(shù)據(jù)風(fēng)險治理具有復(fù)雜性、廣泛社會性,并非僅依靠法律手段就能解決,還需要學(xué)術(shù)界打通學(xué)科壁壘、產(chǎn)業(yè)界加強技術(shù)溝通、政府和公眾積極開展對話,將政府、企事業(yè)單位、專家、技術(shù)人員、公眾等納入多元一體的人工智能安全治理參與機制中,建立包括法律規(guī)制、倫理規(guī)制、行業(yè)規(guī)制、自律規(guī)制在內(nèi)的多元互動的風(fēng)險規(guī)制體系,?從而營造人工智能創(chuàng)新發(fā)展所需的良好生態(tài)環(huán)境。

      注釋

      ① 中國電子學(xué)會,新一代人工智能發(fā)展白皮書2017。

      ② Brundage M,Avin S,clark J.“The Malicious Use of Artificial Intelligence: Forecasting,Prevention,and Mitigation”[EB/OL].(2018-02-20)https://www.repdsitory,cam.ac.uk/hendle/1810/275332.

      ③ 卡魯姆·蔡斯,人工智能革命:超級智能時代的人類命運,張堯然譯,機械工業(yè)出版社,2017年,第118頁。

      ④ 參見360互聯(lián)網(wǎng)安全中心編,《互聯(lián)網(wǎng)安全的40個智慧洞見(2017)》,人民郵電出版社,2018年版,第296頁。

      ⑤⑥ 人工智能學(xué)會,《中國模式識別白皮書》(2015),第1頁,第26頁。

      ⑦ 參見360互聯(lián)網(wǎng)安全中心編,《互聯(lián)網(wǎng)安全的40個智慧洞見(2017)》,人民郵電出版社,2018年版,第296頁。

      ⑧ 王熠玨,《我國網(wǎng)絡(luò)犯罪治理的回溯與反思》,載《石河子大學(xué)學(xué)報(哲學(xué)社會科學(xué)版)》2019年第1期,第55頁。

      ⑨ 張明楷,《網(wǎng)絡(luò)時代的刑事立法》,載《法律科學(xué)(西北政法大學(xué)學(xué)報)》2017年第3期,第80頁。

      ⑩ 《最高人民法院、最高人民檢察院關(guān)于辦理侵犯公民個人信息刑事案件適用法律若干問題的解釋》第一條:“刑法第二百五十三條之一規(guī)定的‘公民個人信息’,是指以電子或者其他方式記錄的能夠單獨或者與其他信息結(jié)合識別特定自然人身份或者反映特定自然人活動情況的各種信息,包括姓名、身份證件號碼、通信通訊聯(lián)系方式、住址、賬號密碼、財產(chǎn)狀況、行蹤軌跡等?!?/p>

      ? 吳沈括、石嘉黎,《網(wǎng)絡(luò)安全法背景下個人信息刑事司法保護》,載《檢察日報》2017年7月11日第3版。

      ? 《網(wǎng)絡(luò)安全法》第七十六條第五款規(guī)定:“個人信息,是指以電子或者其他方式記錄的能夠單獨或者與其他信息結(jié)合識別自然人個人身份的各種信息,包括但不限于自然人的姓名、出生日期、身份證件號碼、個人生物識別信息、住址、電話號碼等?!?/p>

      ? 趙秉志、詹奇瑋,《現(xiàn)實挑戰(zhàn)與未來展望:關(guān)于人工智能的刑法學(xué)思考》,載《暨南學(xué)報(哲學(xué)社會科學(xué)版)》2019年第1期,第105頁。

      ? 張全印,《機遇與挑戰(zhàn):人工智能帶來的刑事風(fēng)險與刑法應(yīng)對》,載《中國刑警學(xué)院學(xué)報》2018年第6期,第19頁。

      ? 姜野,《算法的規(guī)訓(xùn)與規(guī)訓(xùn)的算法:人工智能時代算法的法律規(guī)制》,載《河北法學(xué)》2018年第12期,第149-150頁。

      ? 趙秉志、詹奇瑋,《現(xiàn)實挑戰(zhàn)與未來展望:關(guān)于人工智能的刑法學(xué)思考》,載《暨南學(xué)報(哲學(xué)社會科學(xué)版)》2019年第1期,第106頁。

      ? 曹建峰,《10大建議!看歐盟如何預(yù)測AI立法新趨勢》,載《機器人產(chǎn)業(yè)》2017年第2期,第19頁。

      ? 參見中國電子技術(shù)標準化研究院,《人工智能標準化白皮書》(2018)。

      ? See Ralph Haupter,“AI is built on trust”accessed 5 November 2018.

      ?? 參見中國人工智能學(xué)會、羅蘭貝格,《中國人工智能創(chuàng)新應(yīng)用白皮書》(2017),第18頁,第35頁。

      ? “同態(tài)加密”允許對密文進行特定的代數(shù)運算,得到的仍是加密的結(jié)果,這與對明文進行同樣的運算再將結(jié)果加密一樣。360互聯(lián)網(wǎng)安全中心編:《互聯(lián)網(wǎng)安全的40個智慧洞見(2017)》,人民郵電出版社,2018年版,第110頁。

      ? See Information Technology and Innovation Foundation,“The Impact of the EU’s New Data Protection Regulation on AI”.

      ? 劉志偉,《改革開放40年中國刑法學(xué)研究的成就與展望》,《湖南科技大學(xué)學(xué)報(社會科學(xué)版)》2018年第8期,第91頁。

      ? 馬長山,《人工智能的社會風(fēng)險及其法律規(guī)制》,《法律科學(xué)(西北政法大學(xué)學(xué)報)》2018年第6期,第53頁。

      猜你喜歡
      個人信息人工智能
      如何保護勞動者的個人信息?
      工會博覽(2022年16期)2022-07-16 05:53:54
      我校新增“人工智能”本科專業(yè)
      個人信息保護進入“法時代”
      主題語境九:個人信息(1)
      警惕個人信息泄露
      綠色中國(2019年14期)2019-11-26 07:11:44
      2019:人工智能
      商界(2019年12期)2019-01-03 06:59:05
      人工智能與就業(yè)
      數(shù)讀人工智能
      小康(2017年16期)2017-06-07 09:00:59
      下一幕,人工智能!
      下一幕,人工智能!
      长宁县| 中阳县| 沐川县| 枣阳市| 茶陵县| 奉节县| 英吉沙县| 旺苍县| 凤翔县| 河北区| 高清| 万载县| 乌鲁木齐县| 比如县| 宿州市| 舟曲县| 彝良县| 固始县| 盖州市| 菏泽市| 佛学| 临夏县| 明水县| 昂仁县| 平利县| 塘沽区| 进贤县| 扶沟县| 孟连| 昭平县| 林周县| 襄樊市| 潢川县| 平远县| 墨玉县| 平原县| 惠来县| 浙江省| 思南县| 常宁市| 财经|