林 偉
(1.西南政法大學(xué)刑事偵查學(xué)院 重慶 401120;2.福建警察學(xué)院偵查系 福州 350007)
當(dāng)前,以機(jī)器學(xué)習(xí)為代表的人工智能技術(shù)已廣泛應(yīng)用在各個(gè)領(lǐng)域,如無(wú)人駕駛、人臉識(shí)別、語(yǔ)音識(shí)別、自然語(yǔ)言處理等。通常認(rèn)為,人工智能旨在以科學(xué)技術(shù)為手段模擬或創(chuàng)造出具有“人類(lèi)智能”的機(jī)器,其目標(biāo)是從海量復(fù)雜且無(wú)序的數(shù)據(jù)集中通過(guò)算法模型計(jì)算出一個(gè)結(jié)果,并以此為判斷決策的依據(jù)[1]。人工智能以算法、算力與數(shù)據(jù)三大核心驅(qū)動(dòng)力作為支撐。其中,算法為人工智能的運(yùn)行確定了“框架指南”,是人工智能軟實(shí)力的關(guān)鍵;算力代表著人工智能運(yùn)行的“執(zhí)行能力”,是人工智能硬實(shí)力的保證;數(shù)據(jù)為人工智能的運(yùn)行提供“原料”,是人工智能開(kāi)發(fā)運(yùn)用與發(fā)展的基石,數(shù)據(jù)質(zhì)量將直接影響人工智能算法模型的訓(xùn)練效果和泛化能力。
人工智能與數(shù)據(jù)之間相互依存:一方面,數(shù)據(jù)為人工智能提供學(xué)習(xí)樣本。訓(xùn)練數(shù)據(jù)集的數(shù)量與質(zhì)量是決定一個(gè)人工智能模型性能好壞的主要因素,訓(xùn)練數(shù)據(jù)儲(chǔ)備越豐富,在其基礎(chǔ)之上訓(xùn)練出的模型性能就越好。因而,人工智能具有很強(qiáng)的數(shù)據(jù)依賴(lài)性。另一方面,人工智能技術(shù)又能夠促進(jìn)數(shù)據(jù)的收集、儲(chǔ)存及利用水平。在規(guī)模龐大且雜亂無(wú)序的數(shù)據(jù)海洋中,如何精準(zhǔn)且高效地搜尋目標(biāo)數(shù)據(jù)并對(duì)其進(jìn)行深度挖掘分析,人工智能技術(shù)發(fā)揮著無(wú)可替代的作用。人工智能不僅能夠高效地收集獲取人們的生產(chǎn)生活數(shù)據(jù),而且還能夠從中挖掘出有價(jià)值的信息,從而提高數(shù)據(jù)的利用水平。
人工智能的發(fā)展與數(shù)據(jù)保護(hù)之間也存在博弈:人工智能的發(fā)展建立在數(shù)據(jù)的收集與利用的基礎(chǔ)上,在此過(guò)程中不可避免地會(huì)導(dǎo)致數(shù)據(jù)在互聯(lián)網(wǎng)中流動(dòng)傳播,誘發(fā)了諸多的數(shù)據(jù)安全風(fēng)險(xiǎn)。譬如,面向訓(xùn)練數(shù)據(jù)的攻擊會(huì)導(dǎo)致計(jì)算出錯(cuò),從而降低人工智能結(jié)果的可信度;又如,面向隱私的攻擊會(huì)導(dǎo)致用戶(hù)數(shù)據(jù)的隱私泄露,從而降低人工智能應(yīng)用的隱私性。因此,保證數(shù)據(jù)的安全性和隱私性是人工智能發(fā)展的重要課題。隨著2021年《數(shù)據(jù)安全法》出臺(tái),數(shù)據(jù)安全的相關(guān)研究將持續(xù)受到學(xué)者關(guān)注,人工智能的數(shù)據(jù)安全問(wèn)題與其他領(lǐng)域既有共性也有特殊性,但相關(guān)研究尚付闕如?;诖耍疚闹荚诜治鋈斯ぶ悄軘?shù)據(jù)安全風(fēng)險(xiǎn)樣態(tài),剖析其原因,并在此基礎(chǔ)上探尋治理路徑,以期為我國(guó)人工智能數(shù)據(jù)安全治理提供決策咨詢(xún)和可操作的實(shí)踐指南。
在回應(yīng)人工智能數(shù)據(jù)安全治理這一命題時(shí),首先需要我們清晰地勾勒出其具體的安全風(fēng)險(xiǎn)。具體而言,隨著人工智能在各個(gè)領(lǐng)域的深度應(yīng)用,數(shù)據(jù)得到更加廣泛的使用,但同時(shí)也面臨著多方安全風(fēng)險(xiǎn)。這些數(shù)據(jù)安全風(fēng)險(xiǎn)將侵害用戶(hù)人身及財(cái)產(chǎn)權(quán)益、破壞行業(yè)規(guī)則甚至威脅國(guó)家安全。
數(shù)據(jù)是連接現(xiàn)實(shí)空間和虛擬空間的橋梁,如果數(shù)據(jù)質(zhì)量出現(xiàn)問(wèn)題,則無(wú)法反映現(xiàn)實(shí)世界的真實(shí)情況,在此基礎(chǔ)上建立的人工智能模型便會(huì)出現(xiàn)偏差,導(dǎo)致預(yù)測(cè)結(jié)果偏差或錯(cuò)誤,出現(xiàn)“垃圾進(jìn)、垃圾出”的現(xiàn)象。人工智能的數(shù)據(jù)質(zhì)量安全風(fēng)險(xiǎn)是指直接或間接針對(duì)訓(xùn)練數(shù)據(jù)發(fā)起攻擊,通過(guò)降低訓(xùn)練數(shù)據(jù)的質(zhì)量誤導(dǎo)算法模型的決策。
2.1.1數(shù)據(jù)投毒攻擊
數(shù)據(jù)投毒是通過(guò)在訓(xùn)練數(shù)據(jù)集中添加污染數(shù)據(jù)(如錯(cuò)誤樣本或惡意樣本),導(dǎo)致訓(xùn)練出來(lái)的模型在決策時(shí)發(fā)生偏差,從而影響模型的有效性或可用性,具體過(guò)程見(jiàn)圖1。例如在自動(dòng)駕駛領(lǐng)域,攻擊者可以將帶有特殊標(biāo)簽的數(shù)據(jù)添加到訓(xùn)練集中,以此來(lái)欺騙算法模型,導(dǎo)致進(jìn)行自動(dòng)駕駛的汽車(chē)違反交通規(guī)則,制造交通安全隱患[2]。根據(jù)人工智能運(yùn)行的特點(diǎn)機(jī)制,數(shù)據(jù)投毒攻擊主要有兩種:一是采用模型偏斜的方式。攻擊者直接攻擊訓(xùn)練數(shù)據(jù)樣本,通過(guò)污染訓(xùn)練數(shù)據(jù)導(dǎo)致人工智能學(xué)習(xí)到錯(cuò)誤信息從而達(dá)到改變分類(lèi)器分類(lèi)邊界的目的。二是采用反饋誤導(dǎo)的方式。由于人工智能在運(yùn)行時(shí)需要通過(guò)反饋機(jī)制來(lái)收集目標(biāo)信息,攻擊者利用模型的反饋機(jī)制直接向模型注入錯(cuò)誤數(shù)據(jù)或偽裝數(shù)據(jù),從而誤導(dǎo)人工智能在決策時(shí)做出錯(cuò)誤的判斷[3]。
圖1 數(shù)據(jù)投毒
2.1.2數(shù)據(jù)深度偽造
深度偽造通常是指利用人工智能技術(shù)創(chuàng)造偽造品,其基本技術(shù)原理是通過(guò)“生成器”神經(jīng)網(wǎng)絡(luò)將目標(biāo)數(shù)據(jù)與源數(shù)據(jù)合并生成模擬目標(biāo)樣本,再由“鑒別器”神經(jīng)網(wǎng)絡(luò)對(duì)模擬目標(biāo)樣本的真?zhèn)芜M(jìn)行反復(fù)的驗(yàn)證和評(píng)估,最終生成逼真的模擬結(jié)果,具體過(guò)程見(jiàn)圖2[4]。深度偽造通過(guò)對(duì)圖像、音視頻的超現(xiàn)實(shí)的數(shù)字偽造從而達(dá)到模仿特定對(duì)象的目的。深度偽造技術(shù)本身是中立的,但其若被惡意使用卻能引發(fā)社會(huì)陷入數(shù)據(jù)信任危機(jī)。一方面,利用深度偽造生成的虛假數(shù)據(jù)依托網(wǎng)絡(luò)社交平臺(tái)進(jìn)行自由生成、發(fā)布、傳播,進(jìn)而誤導(dǎo)公共輿論,制造信任危機(jī)。例如,偽造政治代表或公眾人物的言論視頻,利用這種高度可信的虛假信息可以操縱公眾情緒,引發(fā)輿論動(dòng)蕩。另一方面,利用深度偽造生成的視頻甚至可以通過(guò)人臉識(shí)別系統(tǒng)驗(yàn)證,給基于生物特征識(shí)別的驗(yàn)證系統(tǒng)帶來(lái)挑戰(zhàn)。例如,美國(guó)的一家人工智能公司Kneron利用深度偽造技術(shù)生成的3D面具,成功地欺騙了多套人臉識(shí)別支付系統(tǒng)(如微信、支
圖2 深度偽造生成框架
付寶等),完成了支付程序[5]。
隨著人工智能的發(fā)展,越來(lái)越多的互聯(lián)網(wǎng)計(jì)算平臺(tái)提供了機(jī)器學(xué)習(xí)即服務(wù)(Machine Learning as a Service,簡(jiǎn)稱(chēng)MLaaS),平臺(tái)框架見(jiàn)圖3。用戶(hù)通過(guò)調(diào)用MLaaS平臺(tái)的應(yīng)用程序接口,即可使用語(yǔ)音識(shí)別、人臉識(shí)別、自然語(yǔ)言處理等服務(wù)。然而,在這個(gè)過(guò)程中用戶(hù)也可能把個(gè)人敏感數(shù)據(jù)提供給MLaaS,存在隱私泄露風(fēng)險(xiǎn)[6]。
圖3 MLaaS平臺(tái)框架
2.2.1數(shù)據(jù)過(guò)度采集
數(shù)據(jù)采集是數(shù)據(jù)生命全周期的第一個(gè)環(huán)節(jié),也是人工智能發(fā)展的關(guān)鍵。數(shù)據(jù)采集必須遵守最少必須原則,《中華人民共和國(guó)個(gè)人信息保護(hù)法》(以下簡(jiǎn)稱(chēng)《個(gè)人信息保護(hù)法》)規(guī)定了信息收集者收集用戶(hù)個(gè)人信息應(yīng)當(dāng)獲得用戶(hù)的同意,并且不得過(guò)度收集個(gè)人信息。數(shù)據(jù)過(guò)度采集是指違背這一原則的數(shù)據(jù)采集行為。當(dāng)前由于智能終端設(shè)備的普及,各種智能應(yīng)用程序經(jīng)常強(qiáng)制讀取用戶(hù)的隱私數(shù)據(jù)(如個(gè)人定位、通訊錄等),甚至在用戶(hù)不知情的情況下后臺(tái)偷偷運(yùn)行,收集與其所提供服務(wù)無(wú)關(guān)的數(shù)據(jù)。例如,某智能設(shè)備生產(chǎn)企業(yè)通過(guò)“偷聽(tīng)”購(gòu)買(mǎi)其智能音箱的用戶(hù)在家中以及辦公室中捕捉到的錄音,以幫助改進(jìn)其語(yǔ)音助手。用戶(hù)的個(gè)人數(shù)據(jù)不斷地被采集并記錄下來(lái),而控制數(shù)據(jù)的往往確是軟件的開(kāi)發(fā)者或運(yùn)營(yíng)者,雙方力量明顯失衡。用戶(hù)在網(wǎng)絡(luò)空間中也因此變成了“透明人”,被過(guò)度收集的數(shù)據(jù)最終目的和用途自身也不得而知,個(gè)人的知情權(quán)、隱私權(quán)和數(shù)據(jù)權(quán)益受到嚴(yán)重侵犯[7]。
2.2.2數(shù)據(jù)竊取攻擊
人工智能數(shù)據(jù)竊取攻擊是指攻擊者利用模型的參數(shù)、中間數(shù)據(jù)結(jié)果或模型預(yù)測(cè)結(jié)果來(lái)恢復(fù)訓(xùn)練數(shù)據(jù)中的重要信息,進(jìn)而達(dá)到竊取訓(xùn)練數(shù)據(jù)的目的。典型的數(shù)據(jù)竊取攻擊有三種:一是模型逆向攻擊。攻擊者通過(guò)訪問(wèn)模型的應(yīng)用程序接口,利用數(shù)據(jù)關(guān)聯(lián)和推算演繹等技術(shù),根據(jù)輸入和輸出信息的特定映射關(guān)系,逆向還原出相應(yīng)的訓(xùn)練數(shù)據(jù)和隱私信息,如針對(duì)人臉識(shí)別系統(tǒng)模型逆向攻擊,攻擊者可以根據(jù)用戶(hù)姓名等信息恢復(fù)出其本人的人臉照片[8]。二是成員推斷攻擊。成員推斷攻擊是利用模型預(yù)測(cè)結(jié)果推斷模型訓(xùn)練數(shù)據(jù)中是否包含某個(gè)樣本,從而達(dá)到竊取用戶(hù)個(gè)人隱私的目的,如攻擊者可以通過(guò)判斷某個(gè)人的數(shù)據(jù)是否存在于某個(gè)公司的醫(yī)療診斷系統(tǒng)訓(xùn)練數(shù)據(jù)集中來(lái)獲取隱私信息,如果存在,則可以揭示此人患有該種類(lèi)型的疾病[9]。三是模型萃取攻擊。攻擊者通過(guò)訪問(wèn)模型的應(yīng)用程序接口,推測(cè)出模型的參數(shù)、架構(gòu)、超參數(shù)等信息,或者構(gòu)造出一個(gè)與模型功能相似的模型,達(dá)到竊取模型信息的目的。
數(shù)據(jù)在生產(chǎn)與創(chuàng)造、記錄與傳遞、處理與使用的數(shù)據(jù)化過(guò)程中產(chǎn)生了對(duì)人的支配與控制的權(quán)力,即數(shù)據(jù)權(quán)力。在各種利益的驅(qū)使下,數(shù)據(jù)權(quán)力不斷擴(kuò)張,從而導(dǎo)致數(shù)據(jù)權(quán)力異化,產(chǎn)生了數(shù)據(jù)濫用、平臺(tái)權(quán)力私有化等現(xiàn)象[10]。
2.3.1數(shù)據(jù)權(quán)屬不明
隨著數(shù)據(jù)資源資產(chǎn)化,數(shù)據(jù)權(quán)屬問(wèn)題逐漸成為爭(zhēng)議的焦點(diǎn)?,F(xiàn)如今,互聯(lián)網(wǎng)已成為人們獲取信息的主要渠道,用戶(hù)通過(guò)使用各種智能終端在互聯(lián)網(wǎng)平臺(tái)上匯集了大量的數(shù)據(jù)資源,產(chǎn)生了獨(dú)特的平臺(tái)權(quán)力模式。部分互聯(lián)網(wǎng)平臺(tái)未經(jīng)用戶(hù)同意自動(dòng)采集用戶(hù)的個(gè)人信息、部分企業(yè)通過(guò)“算法共謀”形成事實(shí)上的壟斷狀態(tài)[11]。同時(shí),個(gè)人數(shù)據(jù)在商業(yè)化過(guò)程中引發(fā)了許多數(shù)據(jù)產(chǎn)權(quán)爭(zhēng)議問(wèn)題。以我國(guó)首例大數(shù)據(jù)不正當(dāng)競(jìng)爭(zhēng)糾紛案為例,新浪微博認(rèn)為脈脈違反雙方簽訂的《開(kāi)發(fā)者協(xié)議》,非法獲取除新浪微博OpenAPI授權(quán)的頭像、昵稱(chēng)、性別、教育和職業(yè)等之外的用戶(hù)其他信息,侵犯其數(shù)據(jù)所有權(quán)[12]。由此可見(jiàn),數(shù)據(jù)產(chǎn)權(quán)爭(zhēng)議問(wèn)題的核心是數(shù)據(jù)歸屬問(wèn)題,個(gè)人數(shù)據(jù)商業(yè)化利用過(guò)程中應(yīng)當(dāng)有效平衡數(shù)據(jù)開(kāi)發(fā)利用方與用戶(hù)之間、數(shù)據(jù)開(kāi)發(fā)利用方之間及數(shù)據(jù)開(kāi)發(fā)利用方利益與國(guó)家利益、社會(huì)公共利益的沖突。
2.3.2數(shù)據(jù)濫用分析
數(shù)據(jù)濫用是指數(shù)據(jù)的不正當(dāng)使用,在未征得數(shù)據(jù)主體知情同意的情況下,以其所不知的方式使用其個(gè)人信息或數(shù)據(jù)資產(chǎn)。由于受數(shù)據(jù)價(jià)值的利益驅(qū)動(dòng),在數(shù)據(jù)資源利用過(guò)程中,出現(xiàn)了數(shù)據(jù)超權(quán)限使用、超協(xié)定分析,甚至產(chǎn)生了非法數(shù)據(jù)交易的“黑灰產(chǎn)”利益鏈,對(duì)個(gè)人隱私、商業(yè)秘密及國(guó)家安全造成了極大侵害。比如,復(fù)旦大學(xué)研究人員通過(guò)對(duì)比 2017—2020 年某打車(chē)平臺(tái)的數(shù)據(jù),發(fā)現(xiàn)“熟人”打車(chē)比“新人”更貴[13]。這種所謂的“大數(shù)據(jù)殺熟”便是利用人工智能技術(shù)對(duì)用戶(hù)的消費(fèi)習(xí)慣、興趣偏好等數(shù)據(jù)的深度挖掘分析而進(jìn)行差異化定價(jià),導(dǎo)致用戶(hù)的知情權(quán)、公平交易權(quán)等基本權(quán)益受損。又如2018 年 3 月,美國(guó)知名社交網(wǎng)站 Facebook(臉書(shū))的5 000萬(wàn)用戶(hù)數(shù)據(jù)被其關(guān)聯(lián)公司Strategic Communication Laboratories(SCL)和 Cambridge Analytica(劍橋分析)濫用分析,并將分析結(jié)果用于政治選舉[14]?;谶@種數(shù)據(jù)分析的個(gè)性化內(nèi)容推薦,如果被濫用于將虛假信息推送給民眾,會(huì)因人們關(guān)注的熱點(diǎn)敏感話題信息極易被網(wǎng)絡(luò)催生和傳播,破壞數(shù)據(jù)生態(tài)環(huán)境[15]。同時(shí),互聯(lián)網(wǎng)平臺(tái)基于用戶(hù)畫(huà)像重復(fù)推送用戶(hù)興趣的信息,間接地剝奪了用戶(hù)對(duì)其他信息的“知情權(quán)”,使用戶(hù)受困于“信息繭房”之中。
人工智能數(shù)據(jù)安全風(fēng)險(xiǎn)是各種因素互動(dòng)耦合之結(jié)果。其一,尚未形成體系化的人工智能法律法規(guī),一些人工智能應(yīng)用已進(jìn)入法律規(guī)范的空白區(qū),出現(xiàn)法律規(guī)制缺位的現(xiàn)象;其二,人工智能技術(shù)內(nèi)在的局限性,機(jī)器學(xué)習(xí)算法帶有“黑箱”及不可解釋性等,導(dǎo)致人工智能決策偏差無(wú)法消除;其三,人工智能從研發(fā)到應(yīng)用過(guò)程中涉及到多元主體,出現(xiàn)了主體之間利益難以調(diào)和的局面。
近年,世界主要經(jīng)濟(jì)體數(shù)據(jù)安全相關(guān)立法得到不斷細(xì)化,指導(dǎo)人工智能行業(yè)合規(guī)實(shí)踐。例如,2018年,美國(guó)國(guó)會(huì)發(fā)布了《加州消費(fèi)者隱私法案》,英國(guó)頒布了《數(shù)據(jù)保護(hù)法》,歐盟通過(guò)了《通用數(shù)據(jù)保護(hù)條例(GDPR)》等。此后,2021年,歐盟進(jìn)一步發(fā)布了《人工智能法提案》(以下簡(jiǎn)稱(chēng)《提案》),作為全世界第一部人工智能監(jiān)管法律,該提案的最大亮點(diǎn)是制定風(fēng)險(xiǎn)分級(jí)管理制度,推動(dòng)人工智能數(shù)據(jù)安全監(jiān)管,對(duì)人工智能數(shù)據(jù)安全治理有著重要的意義。
回歸本土化語(yǔ)境中,2017年,我國(guó)頒布實(shí)施了《中華人民共和國(guó)網(wǎng)絡(luò)安全法》。此后,與數(shù)據(jù)安全相關(guān)的配套規(guī)定相繼出臺(tái),例如《信息技術(shù)安全個(gè)人信息安全規(guī)范》《中華人民共和國(guó)網(wǎng)絡(luò)安全法數(shù)據(jù)安全法》(以下簡(jiǎn)稱(chēng)《數(shù)據(jù)安全法》)《個(gè)人信息保護(hù)法》等,甚至在《中華人民共和國(guó)民法典》中,也圍繞數(shù)據(jù)安全問(wèn)題,明確了數(shù)據(jù)侵權(quán)行為的民事責(zé)任關(guān)系。由此可見(jiàn),我國(guó)現(xiàn)階段高度重視數(shù)據(jù)安全的法治工作,積極回應(yīng)了當(dāng)前大數(shù)據(jù)、人工智能等技術(shù)發(fā)展的法律實(shí)踐需要,立法內(nèi)容較之以往有了長(zhǎng)足進(jìn)步。但是,針對(duì)人工智能數(shù)據(jù)安全問(wèn)題,我國(guó)法律仍然存在以下四個(gè)問(wèn)題:首先是立法銜接問(wèn)題,主要表現(xiàn)在《數(shù)據(jù)安全法》與《個(gè)人信息保護(hù)法》未統(tǒng)籌規(guī)定數(shù)據(jù)處理者的安全管理模式,《數(shù)據(jù)安全法》要求的是建立健全的全流程數(shù)據(jù)安全管理制度,但《個(gè)人信息保護(hù)法》則規(guī)定分類(lèi)管理和技術(shù)保護(hù)制度,易引起人工智能數(shù)據(jù)安全管理的責(zé)任交叉、立法內(nèi)容的重復(fù)等問(wèn)題;其次是法律留白問(wèn)題,由于新法頒布時(shí)間不久,難免有不周延之處,現(xiàn)行法律規(guī)范為人工智能產(chǎn)品供應(yīng)商、服務(wù)運(yùn)營(yíng)商、信息處理者留下了過(guò)多自由發(fā)揮的空間,這一問(wèn)題比較突出地表現(xiàn)在《個(gè)人信息保護(hù)法》第13條、第16條以及第26條之中,三項(xiàng)規(guī)定均用到了“必需”一詞,但怎么認(rèn)定“必需”“認(rèn)定必需的原則是什么?”這些問(wèn)題都有待立法者進(jìn)行解答;其三是立法可操作性不強(qiáng)問(wèn)題,主要體現(xiàn)在部分條款擬定的比較原則化,比如說(shuō)《個(gè)人信息保護(hù)法》第6條規(guī)定的“最小范圍”、《數(shù)據(jù)安全法》第21條規(guī)定的“數(shù)據(jù)分級(jí)分類(lèi)保護(hù)”,其具體內(nèi)容都不是特別明確,關(guān)于“最小范圍”“數(shù)據(jù)分級(jí)”“數(shù)據(jù)分類(lèi)”的含義較為模糊,立法的可操作性差;其四是數(shù)據(jù)保護(hù)立法的碎片化問(wèn)題,法律文本中沒(méi)有確立統(tǒng)一的數(shù)據(jù)管理標(biāo)準(zhǔn)、數(shù)據(jù)審核標(biāo)準(zhǔn)和數(shù)據(jù)保護(hù)標(biāo)準(zhǔn),而是散布在不同法律規(guī)范的各章節(jié)之中,并沒(méi)有形成統(tǒng)一、規(guī)范的人工智能數(shù)據(jù)標(biāo)準(zhǔn)體系。
人工智能自主決策系統(tǒng)更多的是依賴(lài)算法對(duì)數(shù)據(jù)的理解運(yùn)算后而得出,這種基于算法的決策可能挑戰(zhàn)人類(lèi)獨(dú)立的決策權(quán),人工智能自身技術(shù)的局限性亦將導(dǎo)致其決策結(jié)果的偏差。具體表現(xiàn)為:一是算法安全導(dǎo)致的應(yīng)用不可靠。由于模型的黑盒特性和弱可解釋性,人工智能算法通常存在魯棒性不足的問(wèn)題,攻擊者可以在測(cè)試推理階段,在輸入樣本中添加對(duì)抗擾動(dòng),從而導(dǎo)致模型誤判,甚至實(shí)現(xiàn)對(duì)決策的控制。以深度學(xué)習(xí)為核心的人工智能技術(shù)存在著脆弱性和易受攻擊的缺陷,使得人工智能系統(tǒng)的可靠性難以得到足夠的信任[16]。二是算法黑箱導(dǎo)致決策不透明。傳統(tǒng)機(jī)器學(xué)習(xí)決策一般歷經(jīng)數(shù)據(jù)輸入、數(shù)據(jù)清洗、特征提取、特征選擇、智能計(jì)算再到預(yù)測(cè)的過(guò)程,整個(gè)過(guò)程相對(duì)透明。深度學(xué)習(xí)通過(guò)模擬人腦的神經(jīng)元建立神經(jīng)網(wǎng)絡(luò),在輸入的數(shù)據(jù)與輸出的結(jié)果之間搭建隱藏層(即“算法黑箱”),由“算法黑箱”自動(dòng)分析挖掘出數(shù)據(jù)的特征并產(chǎn)生高級(jí)的認(rèn)識(shí)結(jié)果[17]。再加上深度學(xué)習(xí)算法設(shè)計(jì)本身復(fù)雜性,算法研發(fā)過(guò)程中可能歷經(jīng)不同研發(fā)主體、使用不同編程語(yǔ)言、各種開(kāi)發(fā)工具等,即便是專(zhuān)業(yè)技術(shù)人員也很難系統(tǒng)了解算法內(nèi)部運(yùn)行機(jī)理[18]。不僅如此,隨著深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)隱藏層的增加、多種算法的疊加使用,如何實(shí)現(xiàn)算法的可解釋性也變得更加困難?!八惴ê谙洹睂?huì)導(dǎo)致人工智能決策的不可解釋性,甚至引發(fā)決策失控。三是數(shù)據(jù)偏差和歧視導(dǎo)致決策偏見(jiàn)。人工智能算法對(duì)某類(lèi)有地域歧視、種族歧視或者有偏差的數(shù)據(jù)進(jìn)行學(xué)習(xí)訓(xùn)練,會(huì)導(dǎo)致其決策結(jié)果帶有歧視性[19]。由于人工智能算法并沒(méi)有真正獲取數(shù)據(jù)的因果關(guān)系,而是依賴(lài)數(shù)據(jù)關(guān)聯(lián)性、特征統(tǒng)計(jì)以及數(shù)據(jù)特征分布性和完整性。智能算法在決策時(shí)會(huì)選擇“技術(shù)逃避”,其決策結(jié)果更偏見(jiàn)于統(tǒng)計(jì)上的多數(shù)樣本群,導(dǎo)致少量但是實(shí)際有用的數(shù)據(jù)在往后的算法決策之中消失不見(jiàn),形成“歧視”[20]。比如,隨著大數(shù)據(jù)統(tǒng)計(jì)分析技術(shù)的廣泛應(yīng)用,政府在運(yùn)用此項(xiàng)技術(shù)執(zhí)行決策時(shí)可能更多地采集到經(jīng)濟(jì)發(fā)達(dá)地區(qū)或人群特征的數(shù)據(jù),從而導(dǎo)致數(shù)據(jù)出現(xiàn)偏差,使得那些偏遠(yuǎn)地區(qū)或者老幼貧弱人群特征因數(shù)字化程度較低而無(wú)法全面獲取,影響運(yùn)行結(jié)果[21]。
從數(shù)據(jù)生命周期視角來(lái)看,數(shù)據(jù)在人工智能應(yīng)用中歷經(jīng)數(shù)據(jù)采集、數(shù)據(jù)傳輸、數(shù)據(jù)儲(chǔ)存、數(shù)據(jù)處理、數(shù)據(jù)交換再到數(shù)據(jù)銷(xiāo)毀的動(dòng)態(tài)周期過(guò)程,所涉及的主體涵蓋了個(gè)人、企業(yè)、組織、政府等。在這個(gè)過(guò)程中,出現(xiàn)了多元主體利益難以調(diào)和的局面,具體表現(xiàn)為:其一,政府治理理念不適當(dāng)?!靶手辽稀币廊皇钦卫淼闹鲗?dǎo)性?xún)r(jià)值理念,在與效率價(jià)值驅(qū)動(dòng)的人工智能技術(shù)共同加持下,進(jìn)一步強(qiáng)化了政府對(duì)效率的價(jià)值追求。然而,隨著滿(mǎn)足人民群眾對(duì)美好生活的需要成為社會(huì)價(jià)值共識(shí),如何充分考量社會(huì)公平、權(quán)利保障以及自由安全與效率的有效平衡便成了當(dāng)務(wù)之急[22]。其二,企業(yè)自我規(guī)制動(dòng)力缺乏。于企業(yè)而言,追求經(jīng)濟(jì)利益最大化往往是其行為動(dòng)機(jī)的本質(zhì)訴求。不可否認(rèn),企業(yè)的社會(huì)責(zé)任和經(jīng)濟(jì)利益之間存在著一定的矛盾,特別是在市場(chǎng)公共利益與企業(yè)私人利益難以平衡的條件下,社會(huì)責(zé)任與用戶(hù)權(quán)利的保障往往會(huì)被企業(yè)置于經(jīng)濟(jì)利益之后。如果企業(yè)的社會(huì)責(zé)任意識(shí)缺失,那么其在人工智能產(chǎn)品研發(fā)之初便不會(huì)過(guò)多考慮技術(shù)自身可能存在的風(fēng)險(xiǎn),更不會(huì)主動(dòng)提出防范風(fēng)險(xiǎn)的應(yīng)對(duì)之策。其三,科技人員的科技倫理責(zé)任不足??萍既藛T是人工智能技術(shù)的主要設(shè)計(jì)者。由于人工智能技術(shù)更新迭代迅速,技術(shù)創(chuàng)新往往成為科技人員的主要價(jià)值追求。然而,科技人員的知識(shí)背景及倫理觀念等都可能潛在地影響其所設(shè)計(jì)的人工智能產(chǎn)品,一旦人工智能被植入科技人員的個(gè)人偏見(jiàn),其所帶來(lái)的負(fù)面效應(yīng)便會(huì)成倍擴(kuò)大,并將進(jìn)一步加劇社會(huì)的不公正[23]。其四,民眾個(gè)人數(shù)據(jù)保護(hù)意識(shí)薄弱。對(duì)于大部分民眾而言,使用智能產(chǎn)品或服務(wù)更多的是考慮其所帶來(lái)的生活便捷性,而對(duì)個(gè)人數(shù)據(jù)保護(hù)存在著明顯的“知識(shí)盲區(qū)”。同時(shí),由于人工智能技術(shù)的“高門(mén)檻”,普通民眾對(duì)于個(gè)人數(shù)據(jù)風(fēng)險(xiǎn)的感知及控制能力相對(duì)于其他主體也處于弱勢(shì)地位。
隨著人工智能技術(shù)的深度應(yīng)用,越來(lái)越多的數(shù)據(jù)在人們生產(chǎn)生活中被收集利用,人工智能與數(shù)據(jù)保護(hù)之間產(chǎn)生了博弈。因此,我們應(yīng)重點(diǎn)從完善法律法規(guī)、打造數(shù)據(jù)保障平臺(tái)、創(chuàng)新可信人工智能技術(shù)著手,構(gòu)建人工智能數(shù)據(jù)安全多元主體治理模式。
完備的法律法規(guī)是數(shù)據(jù)安全治理的前提,推進(jìn)人工智能數(shù)據(jù)安全立法能夠促進(jìn)運(yùn)用公權(quán)力對(duì)人工智能數(shù)據(jù)安全風(fēng)險(xiǎn)的遏制。人工智能數(shù)據(jù)安全治理應(yīng)從“立法銜接”“法律規(guī)定的周延性”“法律規(guī)范的可操作性”“立法體系化”四個(gè)方面來(lái)加強(qiáng)人工智能數(shù)據(jù)安全領(lǐng)域的法治建設(shè),為數(shù)據(jù)安全治理工作提供法律依據(jù)和行動(dòng)指南。具體包括:一是加強(qiáng)人工智能數(shù)據(jù)安全領(lǐng)域的立法銜接。一方面,我國(guó)需要將《數(shù)據(jù)安全法》的“全流程數(shù)據(jù)安全管理制度”調(diào)整為“全流程數(shù)據(jù)安全管理機(jī)制”,從“保護(hù)機(jī)制”(程序內(nèi)容)與“保護(hù)制度”(實(shí)體內(nèi)容)兩個(gè)方面來(lái)銜接立法規(guī)定;另一方面,應(yīng)當(dāng)進(jìn)一步研究出臺(tái)《數(shù)據(jù)安全法》《個(gè)人信息保護(hù)法》等法律的配套細(xì)則,并針對(duì)人工智能特定應(yīng)用場(chǎng)景立法。同時(shí),可參照歐盟《提案》增強(qiáng)法律內(nèi)容的銜接協(xié)調(diào)和靈活開(kāi)放。具體來(lái)講,就是確保人工智能法律與現(xiàn)在的《數(shù)據(jù)安全法》《個(gè)人信息保護(hù)法》等法案的有效銜接,明確人工智能不同應(yīng)用場(chǎng)景下的數(shù)據(jù)安全規(guī)制啟動(dòng)條件、門(mén)檻和方法,通過(guò)設(shè)置清單列表的方式建立類(lèi)似數(shù)據(jù)庫(kù)操作的“增刪改查”動(dòng)態(tài)調(diào)整機(jī)制,確保在技術(shù)發(fā)展和場(chǎng)景變更情況下法律的時(shí)效性和靈活性[24]。二是查漏補(bǔ)缺,彌補(bǔ)立法中存在的漏洞,壓縮立法留下的模糊空間。首先,對(duì)于《個(gè)人信息保護(hù)法》第13條、第16條以及第26條中“必需”的具體內(nèi)容問(wèn)題,應(yīng)當(dāng)通過(guò)兩高的司法解釋?zhuān)瑢ⅰ氨匦琛币辉~限縮為個(gè)人隱私保護(hù)之需要、公司經(jīng)營(yíng)數(shù)據(jù)保密之需要和國(guó)家機(jī)密保護(hù)之需要;其次,對(duì)于“必需”的認(rèn)定原則問(wèn)題,應(yīng)當(dāng)遵循適當(dāng)性原則、必要性原則和均衡原則(保護(hù)措施與保護(hù)目的之間的合比例性)來(lái)解釋“必需”一詞的認(rèn)定場(chǎng)景和前提;最后,進(jìn)一步完善對(duì)個(gè)人信息、個(gè)人數(shù)據(jù)、個(gè)人隱私定義的立法規(guī)定,與此同時(shí),明確界定“已識(shí)別”“可識(shí)別”“匿名化處理”的概念。三是探索人工智能數(shù)據(jù)分級(jí)保護(hù)制度。通過(guò)數(shù)據(jù)分級(jí)區(qū)分不同級(jí)別重要性的數(shù)據(jù)采取不同的安全保護(hù)措施,從而避免因?qū)λ袛?shù)據(jù)平均用力而顧此失彼,提高數(shù)據(jù)安全保護(hù)的實(shí)效[25]。一方面,依數(shù)據(jù)分類(lèi)分級(jí)保護(hù)。我國(guó)《數(shù)據(jù)安全法》第21條中提出“建立數(shù)據(jù)分類(lèi)分級(jí)保護(hù)制度”,但尚未明晰其具體框架與重要數(shù)據(jù)目錄的制定。人工智能數(shù)據(jù)安全治理應(yīng)細(xì)化數(shù)據(jù)分類(lèi)分級(jí),按照數(shù)據(jù)來(lái)源、數(shù)據(jù)質(zhì)量、組織等維度對(duì)數(shù)據(jù)進(jìn)行動(dòng)態(tài)、靜態(tài)的方法分類(lèi),并根據(jù)業(yè)務(wù)流程、重要程度、敏感程度等不同屬性和特征對(duì)數(shù)據(jù)進(jìn)行分級(jí)。另一方面,依人工智能應(yīng)用場(chǎng)景分級(jí)保護(hù)。歐盟《提案》提出將人工智能應(yīng)用場(chǎng)景分為“最低、有限、高、不可接受”四個(gè)高低不同風(fēng)險(xiǎn)等級(jí),等級(jí)越高的應(yīng)用場(chǎng)景受到的限制越嚴(yán)格?;诖?,我國(guó)也應(yīng)積極探索人工智能應(yīng)用場(chǎng)景“四級(jí)保護(hù)制度”:一級(jí)是針對(duì)國(guó)家秘密數(shù)據(jù);二級(jí)是針對(duì)重要產(chǎn)業(yè)數(shù)據(jù);三級(jí)是針對(duì)經(jīng)濟(jì)組織數(shù)據(jù);四級(jí)是針對(duì)一般用戶(hù)數(shù)據(jù);四是建立統(tǒng)一、規(guī)范的人工智能數(shù)據(jù)標(biāo)準(zhǔn)體系。人工智能數(shù)據(jù)安全需要構(gòu)建統(tǒng)一規(guī)范的數(shù)據(jù)標(biāo)準(zhǔn)體系。建議由國(guó)家信息安全標(biāo)準(zhǔn)化技術(shù)委員會(huì)、中國(guó)通信標(biāo)準(zhǔn)化協(xié)會(huì)等國(guó)家及行業(yè)標(biāo)準(zhǔn)化組織共同成立人工智能安全研究組[26],促進(jìn)國(guó)家、行業(yè)和團(tuán)體標(biāo)準(zhǔn)化組織聯(lián)合有序推進(jìn)人工智能數(shù)據(jù)標(biāo)準(zhǔn)的出臺(tái)。標(biāo)準(zhǔn)體系的主要框架包括集合性、目標(biāo)性、可分解性、相關(guān)性、環(huán)境適應(yīng)性。在立法中,集合性體現(xiàn)為數(shù)據(jù)管理標(biāo)準(zhǔn)、數(shù)據(jù)審核標(biāo)準(zhǔn)和數(shù)據(jù)保護(hù)標(biāo)準(zhǔn)的協(xié)調(diào)統(tǒng)一,目的性表現(xiàn)為保護(hù)數(shù)據(jù)權(quán)益的體系化保護(hù),可分解性表現(xiàn)為數(shù)據(jù)標(biāo)準(zhǔn)立法規(guī)定的可修改與可更新,相關(guān)性表現(xiàn)為安全標(biāo)準(zhǔn)、法律標(biāo)準(zhǔn)和數(shù)據(jù)標(biāo)準(zhǔn)的相互交融與相互依賴(lài),環(huán)境適應(yīng)性表現(xiàn)為人工智能數(shù)據(jù)安全標(biāo)準(zhǔn)體系處在一定的技術(shù)環(huán)境和社會(huì)環(huán)境之中,必然需要適應(yīng)當(dāng)今的人工智能環(huán)境、法治環(huán)境和人文環(huán)境。
構(gòu)建以數(shù)據(jù)為中心的數(shù)據(jù)安全治理平臺(tái),是人工智能數(shù)據(jù)安全治理的基礎(chǔ),能夠有效實(shí)現(xiàn)數(shù)據(jù)風(fēng)險(xiǎn)感知、數(shù)據(jù)共享保障及數(shù)據(jù)質(zhì)量可靠。具體包括:一是建立數(shù)據(jù)安全風(fēng)險(xiǎn)感知體系。首先是數(shù)據(jù)態(tài)勢(shì)可知。以數(shù)據(jù)科學(xué)統(tǒng)計(jì)分析為支撐,對(duì)能夠引起敏感數(shù)據(jù)態(tài)勢(shì)發(fā)生變化的安全要素進(jìn)行“獲取、理解、顯示”并預(yù)判未來(lái)的發(fā)展趨勢(shì)。其次是數(shù)據(jù)威脅可現(xiàn)。通過(guò)分析挖掘各種數(shù)據(jù)處理日志,結(jié)合威脅情報(bào)進(jìn)行關(guān)聯(lián),并基于可視化技術(shù)實(shí)現(xiàn)針對(duì)數(shù)據(jù)安全的態(tài)勢(shì)感知與直觀呈現(xiàn)。最后是數(shù)據(jù)風(fēng)險(xiǎn)可控?;跀?shù)據(jù)訪問(wèn)和數(shù)據(jù)流阻斷控制機(jī)制,對(duì)數(shù)據(jù)風(fēng)險(xiǎn)事件溯源,及時(shí)響應(yīng)處置。二是打造零信任的數(shù)據(jù)安全機(jī)制。零信任是創(chuàng)建一種以數(shù)據(jù)為中心的全新邊界,其關(guān)鍵在于控制對(duì)數(shù)據(jù)的訪問(wèn)權(quán)限來(lái)實(shí)現(xiàn)對(duì)數(shù)據(jù)的管理,而與訪問(wèn)發(fā)起者的位置無(wú)關(guān),也與數(shù)據(jù)所在的位置無(wú)關(guān)[27]。零信任通過(guò)對(duì)人員、設(shè)備、應(yīng)用服務(wù)進(jìn)行統(tǒng)一的身份管理,將身份作為訪問(wèn)控制的邊界,最大程度地縮小數(shù)據(jù)應(yīng)用服務(wù)的暴露面,降低數(shù)據(jù)和應(yīng)用被入侵攻擊的可能性。通過(guò)身份認(rèn)證、權(quán)限管理、安全審批、安全審計(jì)、安全感知和安全策略控制打造完整的零信任安全機(jī)制。只有通過(guò)動(dòng)態(tài)的認(rèn)證和授權(quán),才可能發(fā)起對(duì)數(shù)據(jù)資源的訪問(wèn)連接。三是建設(shè)數(shù)據(jù)質(zhì)量管理智能平臺(tái)。數(shù)據(jù)質(zhì)量管理智能平臺(tái)對(duì)數(shù)據(jù)接入、數(shù)據(jù)處理、數(shù)據(jù)組織等過(guò)程的數(shù)據(jù)進(jìn)行采樣并輸入到質(zhì)量樣例數(shù)據(jù)庫(kù),建立數(shù)據(jù)質(zhì)量核驗(yàn)任務(wù),自動(dòng)完成數(shù)據(jù)質(zhì)量規(guī)范性、一致性、準(zhǔn)確性和完整性的檢查。通過(guò)建立全流程的閉環(huán)化的監(jiān)管體系,定位、分析、跟蹤及解決數(shù)據(jù)質(zhì)量問(wèn)題,形成數(shù)據(jù)質(zhì)量閉環(huán)化的處理機(jī)制,保證數(shù)據(jù)質(zhì)量持續(xù)穩(wěn)定可靠。數(shù)據(jù)質(zhì)量管理智能平臺(tái)對(duì)數(shù)據(jù)流實(shí)時(shí)監(jiān)控,發(fā)現(xiàn)斷流、數(shù)據(jù)流量積壓、波動(dòng)異常等情況進(jìn)行智能預(yù)警,保證數(shù)據(jù)流正常穩(wěn)定。
通過(guò)創(chuàng)新可信人工智能技術(shù)打造安全可信的人工智能,是人工智能數(shù)據(jù)安全治理的根本,能夠有效解決人工智能隱私保護(hù)、可解析性和公平性等問(wèn)題。具體包括:一是隱私保護(hù)。我國(guó)《網(wǎng)絡(luò)安全法》第42條、《數(shù)據(jù)安全法》第27條、《個(gè)人信息保護(hù)法》第51條,均有類(lèi)似“采取相應(yīng)技術(shù)措施,保障數(shù)據(jù)安全”的表述,人工智能數(shù)據(jù)安全常用的“技術(shù)措施”便是“隱私計(jì)算”?;跀?shù)據(jù)隱私計(jì)算的機(jī)器學(xué)習(xí)能夠在數(shù)據(jù)不泄露的情況下實(shí)現(xiàn)數(shù)據(jù)“可用不可見(jiàn)”的效果,從根本上解決人工智能的數(shù)據(jù)隱私問(wèn)題。我國(guó)應(yīng)當(dāng)通過(guò)“產(chǎn)學(xué)研”合作,重點(diǎn)突破多人化、本地化、去中心化的機(jī)器學(xué)習(xí)平臺(tái)。在這種平臺(tái)模式下,用戶(hù)可以將個(gè)人敏感信息存儲(chǔ)到本地設(shè)備,通過(guò)互聯(lián)網(wǎng)訪問(wèn)機(jī)器學(xué)習(xí)模型,利用自己的數(shù)據(jù)更新模型參數(shù),并與其他參與者共享。以聯(lián)合訓(xùn)練的方式,在保護(hù)用戶(hù)的數(shù)據(jù)安全的同時(shí)也減少企業(yè)的數(shù)據(jù)監(jiān)管壓力。二是可解釋性。2019年6月發(fā)布的《新一代人工智能治理原則》指出,人工智能系統(tǒng)應(yīng)不斷提升可解釋性??山忉尩娜斯ぶ悄苁侵笜?gòu)建人工智能應(yīng)用程序的技術(shù)和方法,人們借此以理解它們做出特定決策的原因。從技術(shù)層面來(lái)看,傳統(tǒng)機(jī)器學(xué)習(xí)模型主要采用給出要素對(duì)決策的重要性度量的自解釋模型;而深度學(xué)習(xí)算法主要采用特征重要性、決策樹(shù)、敏感性分析等,以及基于上述方法的可視化解釋器來(lái)實(shí)現(xiàn)算法透明度[28]。各科研機(jī)構(gòu)及企業(yè)應(yīng)定期向社會(huì)公布算法的技術(shù)邏輯與特征,通過(guò)可視化方式向公眾演示人工智能數(shù)據(jù)采集、算法決策的基本流程,評(píng)估并解釋算法模型的中間狀態(tài)。同時(shí),在人工智能實(shí)際使用階段,應(yīng)通過(guò)適當(dāng)?shù)娜藱C(jī)交互技術(shù)(如文字、圖形圖標(biāo)、動(dòng)畫(huà)展示等)以通俗易懂的方式向用戶(hù)闡釋人工智能的功能邏輯及可能潛在的風(fēng)險(xiǎn)。三是公平性。人工智能決策結(jié)果應(yīng)當(dāng)遵循公平性原則。通過(guò)提升訓(xùn)練數(shù)據(jù)的多樣性和公平性建構(gòu)多元包容的人工智能系統(tǒng),避免因決策偏見(jiàn)而造成個(gè)人或群體失去平等參與社會(huì)經(jīng)濟(jì)活動(dòng)的機(jī)會(huì)。一方面,通過(guò)采取主動(dòng)措施削弱數(shù)據(jù)集中固有的偏見(jiàn)或歧視,如在人工智能預(yù)處理階段對(duì)不平衡數(shù)據(jù)重采樣、處理過(guò)程中加入與公平性量化有關(guān)的正則項(xiàng)、處理后對(duì)模型進(jìn)行精度提升的方法來(lái)提高模型的公平性;另一方面,根據(jù)具體應(yīng)用場(chǎng)景和特定需求選取合適的量化指標(biāo),通過(guò)公平?jīng)Q策量化方法減輕決策偏差或歧視[29]。
人工智能數(shù)據(jù)安全的治理不能單單只靠某一方力量,而須采取協(xié)同治理的方式,如此不僅能聚合多元主體的力量參與到數(shù)據(jù)安全治理中來(lái),還能有效的平衡各方主體的利益訴求。2017年,近千名人工智能專(zhuān)家在美國(guó)加州的阿西洛馬市共同簽署了阿西洛馬人工智能原則,該原則被認(rèn)為是“人工智能行業(yè)憲章”[30]。阿西洛馬人工智能原則為我國(guó)人工智能多元主體協(xié)同治理提供思路,具體措施包括:第一,阿西洛馬人工智能原則鼓勵(lì)社會(huì)公眾積極參與人工智能領(lǐng)域的科技互動(dòng)。政府作為人工智能數(shù)據(jù)安全治理的主導(dǎo)性力量,發(fā)揮著引導(dǎo)和決策的重要職能,應(yīng)當(dāng)定期開(kāi)展數(shù)據(jù)安全宣講,推行數(shù)據(jù)安全觀進(jìn)校園、進(jìn)社區(qū)、進(jìn)圖書(shū)館,鼓勵(lì)社會(huì)公眾參與到數(shù)據(jù)安全治理的整個(gè)工作流程。第二,阿西洛馬人工智能原則第6條認(rèn)為,人工智能系統(tǒng)在它們整個(gè)的運(yùn)轉(zhuǎn)周期內(nèi)應(yīng)該是安全可靠的。企業(yè)在人工智能產(chǎn)品研發(fā)及推廣中應(yīng)主動(dòng)探求多元渠道,以政務(wù)監(jiān)管為準(zhǔn)則,以同行評(píng)估為標(biāo)準(zhǔn),以社會(huì)監(jiān)督反饋為目標(biāo),進(jìn)而尋求多元化協(xié)同治理力度。其中,智能產(chǎn)品供應(yīng)端要做好產(chǎn)品安全市場(chǎng)調(diào)研,并對(duì)反饋信息進(jìn)行嚴(yán)格的篩選和分類(lèi)分級(jí);智能產(chǎn)品運(yùn)營(yíng)端在產(chǎn)品運(yùn)轉(zhuǎn)周期內(nèi),要?jiǎng)討B(tài)跟蹤并投入技術(shù)支撐保障產(chǎn)品的持續(xù)安全;售后服務(wù)端以企業(yè)規(guī)章為準(zhǔn)則,做好定期維護(hù)升級(jí)、產(chǎn)品售后以及回收置換等工作,保障消費(fèi)者權(quán)益的同時(shí)確保智能產(chǎn)品全鏈條的數(shù)據(jù)安全。第三,阿西洛馬人工智能原則第9條認(rèn)為,人工智能產(chǎn)品設(shè)計(jì)者有責(zé)任塑造產(chǎn)品的道德影響??萍既藛T作為人工智能產(chǎn)品設(shè)計(jì)的中堅(jiān)力量,一方面要加強(qiáng)科技倫理教育,創(chuàng)造科技向善氛圍,使得科技人員主動(dòng)思索技術(shù)和產(chǎn)品的潛在影響,自覺(jué)擔(dān)負(fù)起社會(huì)責(zé)任;另一方面深化人才評(píng)價(jià)制度改革,改變“唯技術(shù)效益”論,將產(chǎn)品倫理影響一并納入考核指標(biāo)中并增大權(quán)重,引導(dǎo)科技人員自覺(jué)認(rèn)同科技倫理。同時(shí),加強(qiáng)行業(yè)自主倫理審查,依托現(xiàn)有技術(shù)認(rèn)知,對(duì)新興人工智能產(chǎn)品投入市場(chǎng)予以把關(guān),使得科技人員由“自律”轉(zhuǎn)向“他律”。
在數(shù)字經(jīng)濟(jì)迅猛發(fā)展的形勢(shì)下,數(shù)據(jù)資源在經(jīng)濟(jì)運(yùn)行和資源配置中起著日益重要的作用。數(shù)據(jù)不僅是國(guó)家基礎(chǔ)性戰(zhàn)略資源,同時(shí)也是企業(yè)的重要資產(chǎn),更是人工智能發(fā)展的基石。人工智能的深度應(yīng)用與數(shù)據(jù)保護(hù)之間產(chǎn)生了博弈,緩和兩者張力亟需法律規(guī)制和技術(shù)控制的共同介入。同時(shí),人工智能數(shù)據(jù)安全風(fēng)險(xiǎn)治理需要立足以數(shù)據(jù)為中心,以組織為單位、以能力成熟度為基本抓手,政府、企業(yè)、個(gè)人等利用自身優(yōu)勢(shì)實(shí)現(xiàn)有效協(xié)同,建立適應(yīng)數(shù)字時(shí)代發(fā)展的多元主體治理模式。