• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看

      ?

      禁止欺詐:人工智能偽造的規(guī)制進路

      2021-12-29 20:44:47

      陳 鵬 程

      (安徽財經(jīng)大學 法學院, 安徽 蚌埠 233000)

      《牛津詞典》2016年年度詞匯“post truth”,譯為“后真相”,意思是“(信息)訴諸情感及個人信念,較客觀事實更能影響民意”[1]。通俗地說,后真相是指人們易受片面和非客觀的“真相”影響。2019年2月,一條由“楊某”主演的《射雕英雄傳》視頻片段在網(wǎng)絡(luò)上走紅。許多網(wǎng)友對此僅當作娛樂,但有一部分網(wǎng)友意識到視頻內(nèi)在的技術(shù)原理,指責制作者打開了“潘多拉魔盒”。而此項被網(wǎng)友稱為“潘多拉魔盒”的技術(shù)就是新型人工智能偽造技術(shù)——深度偽造(Deep Fakes)①。稱深度偽造為“潘多拉魔盒”并不夸張。早在2017年,美國紅迪網(wǎng)就已經(jīng)出現(xiàn)通過深度偽造技術(shù)合成的名人色情視頻,隨后深度偽造更是被用在偽造政治人物發(fā)言視頻中,達到政治抹黑、干預(yù)選舉的目的[2]。除此以外,深度偽造仍有可能被用于誹謗、詐騙等犯罪活動[3]。如果說互聯(lián)網(wǎng)時代的后真相是“片面真實+輿論引導”的形式,那么,權(quán)威媒體及時客觀地作出全面的報道,便能大范圍避免或降低這種不明真相的輿論影響。但是,隨著人工智能深度作偽技術(shù)的出現(xiàn),“真相”可以被制造,眼睛和耳朵不再可靠,人類可謂步入了“偽造真實+輿論引導”式的深層后真相時代。此時,轉(zhuǎn)變思路,制定專門的人工智能法案、統(tǒng)一協(xié)調(diào)地治理人工智能偽造將是幫助人類突破后真相迷霧的有益進路。

      一、人工智能偽造打破社會信任體系

      康德有言:“說真話是一種義務(wù),人們應(yīng)該無條件履行這種義務(wù),不管由此導致什么后果?!盵4]433這個論斷包含著深刻的法學和哲學思辨,無爭議地揭示了真誠對于社會存在的重要性,深度偽造卻在很多方面誘導人們“說謊”。

      (一)虛假信息

      由于“虛假新聞”(fake news)概念難以覆蓋信息傳播的復(fù)雜現(xiàn)狀,歐盟內(nèi)部報告曾建議以“虛假信息”(disinformation)作為替換概念,意為“有意設(shè)計、提供和推廣以造成公共傷害或謀取利益的虛假、不準確或誤導性信息”[5]?!缎侣動浾摺冯s志發(fā)布的《2019年度虛假新聞研究報告》認為,中國虛假新聞現(xiàn)象有所改善,由社交自媒體散布的虛假信息卻在進一步侵害傳播秩序[5]。虛假信息的泛濫在2020年初爆發(fā)的新冠疫情中可見一斑,各種假消息鋪天蓋地,甚至出現(xiàn)了“信息疫情”的概念。從信息發(fā)布和傳播層面看,這些虛假信息的發(fā)布主體多為規(guī)模激增的網(wǎng)絡(luò)自媒體。同時,因為新型算法資訊平臺如網(wǎng)易新聞、今日頭條等相繼出現(xiàn),甚至包括微博、抖音等娛樂社交平臺也逐漸成為集新聞熱點和休閑娛樂一體化的綜合性平臺,也為這些虛假信息提供了傳播和發(fā)酵的溫床。有研究報告指出,虛假信息正走向“新聞生態(tài)系統(tǒng)”內(nèi)的傳播,其表現(xiàn)形式是專業(yè)媒體和自媒體互為信息源。例如,2019年2月的“部分漢字拼音被改”刷屏網(wǎng)絡(luò),不乏被“中央人民廣播電臺”等官方媒體微博轉(zhuǎn)載,事后證實為片面假消息,源頭系某微信自媒體根據(jù)未生效的《審音表(意見稿)》編寫發(fā)布[5]。以自媒體為發(fā)布主體的信息真實性可能被質(zhì)疑,但當帶有“官方”標簽的新聞媒體為虛假信息背書時,其危險后果不言自明。同時,當人工智能偽造技術(shù)被用于制作虛假信息,信息發(fā)布者不再需要通過有意剪輯、隱藏部分真相等手段來提高信息可信度,轉(zhuǎn)而可以直接按照其意圖制作一個“真相”時,人工智能深度偽造可以更便捷地在很多場合達到以假亂真的目的,此時,虛假信息將造成更加嚴重的社會負面影響。國內(nèi)目前還沒有運用人工智能技術(shù)偽造傳播假消息的典型案例,但深度偽造在國外被多次用于偽造政治新聞。例如,YouTube上有關(guān)于特朗普和奧巴馬等諸多政治人物的偽造視頻。隨著深度偽造應(yīng)用場景的不斷豐富,未來可能會出現(xiàn)涉及政治、經(jīng)濟、文化等領(lǐng)域的假信息,監(jiān)管部門必須及早提高警惕。

      (二)冒充身份

      深度偽造可能被用于偽造個人信息,冒充身份。央視新聞頻道曾在2019年對深度偽造現(xiàn)象作過專題報道。在報道中,深度偽造(打擊)專家沃德爾博士通過深度偽造將視頻中的自己變成另一個人來向觀眾介紹這項技術(shù);“針幕動畫”聯(lián)合創(chuàng)始人李浩則和美國公共廣播公司記者現(xiàn)場展示了用軟件一鍵變臉成特朗普總統(tǒng)和日本首相安倍。然而,深度偽造的利用遠不止如此,聲音也可以被偽造。2018年,“琴鳥”(Lyrebird)公司開發(fā)了一款語音合成軟件,只需要獲取任意人的一段源音頻數(shù)據(jù),人工智能就能輕易模仿他的聲音,并且該軟件還可以為聲音添加感情因素,使其更加真實。彭博社記者萬斯體驗了這項技術(shù),并用合成聲音和自己的母親進行了實時通話,母親對此卻沒有絲毫察覺。蘇黎世大學研究員烏德里什就聲音偽造接受采訪時表明,完美的聲音偽造難度很大,但是,視頻和偽造音頻結(jié)合將是一個巨大的威脅[3]。冒充他人身份因為人工智能偽造技術(shù)而變得簡單。在傳統(tǒng)的電信詐騙犯罪中使用人工智能偽造技術(shù),不法者將更容易獲取目標信任,甚至受害人在事后也意識不到受騙。《華爾街日報》在2019年3月報道過一起案件:通過偽造公司CEO的聲音,不法者成功詐騙了22萬歐元。冒充他人身份無疑會擾亂社會秩序。隨著移動支付、智能家居、智慧出行的不斷發(fā)展普及,面部、聲音和指紋等常用生物信息逐步財產(chǎn)化、鑰匙化,而通過深度偽造可以輕易地模擬這些信息。設(shè)想一個陌生人能夠很容易地在網(wǎng)絡(luò)上冒用你的身份、行為,必然會使得人人自危,嚴重擾亂并阻礙現(xiàn)實社會秩序。

      (三)偽造證據(jù)

      英國有古諺:法庭之上沒有事實,只有證據(jù)?,F(xiàn)代司法制度設(shè)計了較為完善的證明規(guī)則,但包括取證、舉證責任和證明標準在內(nèi)的一系列規(guī)則旨在還原案件事實的證明目的,還要回歸到證據(jù)真實的基礎(chǔ)上。目前,由于缺乏有效的鑒別手段,深度偽造最容易出現(xiàn)在視聽資料和電子數(shù)據(jù)形式的證據(jù)中。由于我國刑事訴訟入罪時奉行排除合理懷疑原則,如果不法者利用深度偽造制作一項與查證事實矛盾的“證據(jù)”并主張該證據(jù)真實,那么,他極有可能因為法院無法形成完整的證據(jù)鏈、不能排除合理懷疑而獲得無罪的評價,最不濟也能拖延訴訟進程,使自己暫時免受刑事制裁。如果深度偽造證據(jù)被用于栽贓陷害,就會使無罪者面臨被錯誤入罪的風險,危害結(jié)果將會更大。相比較于刑事訴訟對證據(jù)的嚴格審查和嚴格證明,民事訴訟和行政訴訟的證明標準和證據(jù)審查則要寬緩,這也為深度偽造證據(jù)提供了更大的施展空間。民事訴訟和行政訴訟為追求定紛止爭,對于當事人無爭議的證據(jù)事實基本予以認定,即使對證據(jù)真實性有爭議,由于缺乏有效的鑒別技術(shù),法官在綜合審查后仍然有一半的可能性予以認定。而無論最終認定與否,額外耗費的訴訟成本都是不符合提高效率和降低訴累要求的??傊?,人工智能偽造如果用于偽造證據(jù),將會極大地破壞司法公信力。

      二、國內(nèi)在規(guī)范層面對人工智能偽造的回應(yīng)與不足

      (一)現(xiàn)有管理規(guī)定側(cè)重于網(wǎng)絡(luò)信息治理

      深度偽造本質(zhì)是一項人工智能偽造技術(shù),具有廣泛的應(yīng)用場景。國內(nèi)目前為人所熟知的直接涉及深度偽造的案例,無論是2019年“ZAO”換臉軟件因不當收集用戶信息而遭工信部約談并下架整改,還是“楊某換臉”事件,其影響范圍還僅僅限于私人及娛樂領(lǐng)域。因此,對深度偽造的治理,學界的關(guān)注點較多集中在隱私保護、版權(quán)規(guī)則維護和虛假信息清理上。國內(nèi)現(xiàn)行的關(guān)于深度偽造的相關(guān)管理規(guī)定主要有《網(wǎng)絡(luò)音視頻信息服務(wù)管理規(guī)定》和《網(wǎng)絡(luò)信息內(nèi)容生態(tài)治理規(guī)定》。前者為國家互聯(lián)網(wǎng)信息辦公室、文化和旅游部、國家廣播電視總局三部門在2019年11月聯(lián)合制定的以應(yīng)對人工智能深度學習在網(wǎng)絡(luò)音視頻信息領(lǐng)域的應(yīng)用管理辦法,主要規(guī)定不得利用網(wǎng)絡(luò)音視頻信息服務(wù)和相關(guān)技術(shù)從事違法活動,對于利用深度學習合成的非真實信息應(yīng)當添加區(qū)分標識,信息服務(wù)提供者上線或新增以深度學習、虛擬現(xiàn)實為技術(shù)內(nèi)核的具有媒體屬性或社會動員性質(zhì)的服務(wù)功能需要開展安全評估;后者為國家互聯(lián)網(wǎng)信息辦公室在同年12月制定發(fā)布,在信息服務(wù)提供者基礎(chǔ)上進一步將信息生產(chǎn)者納入調(diào)整范圍,并規(guī)定了網(wǎng)絡(luò)行業(yè)組織監(jiān)督管理等內(nèi)容,仍側(cè)重于對網(wǎng)絡(luò)信息生態(tài)的治理。不難看出,這是一種以問題為導向的治理思路,其邏輯是回應(yīng)人工智能技術(shù)在互聯(lián)網(wǎng)領(lǐng)域應(yīng)用產(chǎn)生的不良結(jié)果。此種治理思路適合應(yīng)對突發(fā)情況,卻不能涵蓋深度偽造在其他領(lǐng)域的應(yīng)用。如果將此種治理模式作為中國深度偽造治理之道,似有以偏概全之嫌,甚至可能人為地模糊人工智能技術(shù)和互聯(lián)網(wǎng)的差異性,反而使人工智能技術(shù)和互聯(lián)網(wǎng)的治理措施相互掣肘,阻礙技術(shù)進步。

      (二)現(xiàn)有規(guī)范位階低且不統(tǒng)一

      深度偽造等人工智能技術(shù)對于既存的法律秩序不斷地發(fā)起挑戰(zhàn),理論界和實務(wù)界也不斷予以回應(yīng),但規(guī)制效果有限。一個原因是立法位階低且處罰措施輕。以平臺不當收集和使用個人信息為例,我國“個人信息保護法”“數(shù)據(jù)安全法”等尚處在立法規(guī)劃階段,而目前對個人信息保護規(guī)定較全面的是2017年修訂的GB/T 35273-2017《信息安全技術(shù)個人信息安全規(guī)范》,其中,個人信息安全國家標準規(guī)定了個人信息收集的“明示同意”規(guī)則和存儲規(guī)則;2020年GB/T 35273-2020又新增了對用戶畫像的使用限制。而根據(jù)我國工業(yè)和信息化部網(wǎng)絡(luò)安全管理局2019年4月披露的信息,其同年3月開通對違規(guī)收集個人信息的舉報渠道,僅1個月收到的舉報就超過3 000條,國家標準缺乏威懾力由此也可見一斑[6]。另一個原因是缺乏統(tǒng)一規(guī)范。散落在各部門法中的相關(guān)規(guī)定,能夠在人工智能偽造侵犯具體法益時發(fā)揮事后救濟的作用,但分散的管理規(guī)定一旦涉及模糊地帶,就容易出現(xiàn)難規(guī)制的法外之地。一般認為,人工智能偽造信息如果涉及侮辱誹謗他人情形時,可以通過《中華人民共和國刑法》(以下簡稱《刑法》)第二百四十六條“侮辱誹謗罪”予以追究;而如果是冒充身份實施詐騙則依《刑法》第二百六十六條“詐騙罪”入罪處罰;對于利用人工智能偽造證據(jù),則有可能觸犯《刑法》第三百零五條“偽證罪”的相關(guān)規(guī)定。另外,《中華人民共和國民法典》第一千零十九條規(guī)定,任何組織或者個人不得以丑化、污損或者利用信息技術(shù)手段偽造等方式侵害他人的肖像權(quán),這可以被視為對于“智能換臉”的深度偽造運用侵犯他人肖像權(quán)的回應(yīng)。但是,相關(guān)的規(guī)定列舉有限,人工智能偽造技術(shù)的應(yīng)用場景卻難以盡數(shù),且民法、刑法和其他部門法由于功能不同,法益保護的方式和傾向也存在差異,難以面面俱到,缺乏統(tǒng)一的規(guī)范;同時,如此復(fù)雜的規(guī)范體系甚至還會造成規(guī)范內(nèi)部的沖突。

      (三)缺乏有效的監(jiān)管體系

      目前,國內(nèi)沒有一個正式的人工智能技術(shù)開發(fā)和安全評估監(jiān)管部門。前文已經(jīng)論述人工智能偽造技術(shù)帶來的風險被很大程度上當作互聯(lián)網(wǎng)虛假信息在監(jiān)管。根據(jù)經(jīng)驗,深度偽造的內(nèi)容和互聯(lián)網(wǎng)的結(jié)合較為緊密,偽造內(nèi)容往往以互聯(lián)網(wǎng)作為傳播媒介使自身影響最大化,甚至于某些互聯(lián)網(wǎng)信息科技企業(yè)本身也是人工智能技術(shù)的研發(fā)者,因此,通過網(wǎng)絡(luò)信息監(jiān)管部門和網(wǎng)絡(luò)行業(yè)組織自律監(jiān)管對現(xiàn)階段人工智能偽造進行規(guī)制,確實有立竿見影的效果,但這并非長遠之計。一個原因是互聯(lián)網(wǎng)信息監(jiān)管部門對于其他領(lǐng)域的人工智能偽造缺乏監(jiān)管權(quán)限;另一個原因是當下互聯(lián)網(wǎng)信息生態(tài)治理本身就是一個沉重的任務(wù),現(xiàn)有監(jiān)管機制自身尚不完善。例如,根據(jù)國家互聯(lián)網(wǎng)信息辦公室和公安部聯(lián)合發(fā)布的《具有輿論屬性或社會動員能力的互聯(lián)網(wǎng)信息服務(wù)安全評估規(guī)定》要求具有輿論屬性或社會動員能力的互聯(lián)網(wǎng)信息服務(wù)和相關(guān)新技術(shù)新應(yīng)用要依規(guī)定開展安全評估,但此規(guī)定只能規(guī)制在互聯(lián)網(wǎng)領(lǐng)域開展的深度偽造,且該規(guī)定僅是政策性文件,既不設(shè)行政許可也不規(guī)定行政處罰,這就使得安全評估的威懾力大幅度弱化。

      為了統(tǒng)籌部署我國人工智能創(chuàng)新發(fā)展,2017年7月20日,國務(wù)院以國發(fā)〔2017〕35號文件發(fā)布了《新一代人工智能發(fā)展規(guī)劃》。規(guī)劃要求完善人工智能發(fā)展的法律規(guī)范和倫理規(guī)范,建立起人工智能安全監(jiān)管和評估體系,引導和保障人工智能技術(shù)健康安全發(fā)展。我國現(xiàn)有規(guī)制體系僅能初步應(yīng)對“網(wǎng)絡(luò)娛樂換臉”類較典型場景的深度偽造運用,但從域外深度偽造應(yīng)用情況來看,未來人工智能偽造在我國多場景、突發(fā)式的運用不可避免,現(xiàn)有制度對其是難以有效規(guī)范的。對于人工智能技術(shù)的治理仍需要統(tǒng)一的規(guī)范和專門的監(jiān)管制度。

      三、域外法對人工智能偽造的回應(yīng)

      治理人工智能偽造有兩種思路,一種是從具體問題出發(fā)的針對性規(guī)制,一種是宏觀層面對人工智能偽造現(xiàn)存和潛在問題作出統(tǒng)一規(guī)范。美國和中國目前遵循的是前一種思路,歐盟則傾向于后者。

      (一)美 國

      美國對于深度偽造的規(guī)制是聯(lián)邦和州兩級規(guī)制模式。2019年6月13日,美眾議院情報委員會專門就“深度偽造”舉行聽證會,提出了許多有益措施,如限制政府官員實施深度偽造、發(fā)展信息檢測技術(shù)、強化網(wǎng)絡(luò)運營者責任和加強對網(wǎng)絡(luò)內(nèi)容的審核等[7]。而就在舉行聽證會的前一天,美國眾議院議員Clarke在國會上提交了《深度偽造責任法案》(DeepFakesAccountability,Act),該法案規(guī)定了偽造者的披露義務(wù),將利用深度偽造實施數(shù)字冒名頂替行為認定為假冒身份的犯罪行為;同時,要求政府牽頭開發(fā)信息真實檢測技術(shù)[8]。2019年6月28日,美參議院也提交了一份《2019年深度偽造報告法案》(TheDeepfakeReportof2019)。該法案將深度偽造的監(jiān)管授權(quán)給美國國土安全部(United States Department of Homeland Security, DHS)②,要求國土安全部定期發(fā)布深度偽造調(diào)查報告,為日后立法修法提供依據(jù)[9]。州層面對于深度偽造規(guī)制各有側(cè)重,總體較聯(lián)邦層面呈現(xiàn)更加具體和嚴厲的趨勢。例如,弗吉尼亞州將傳播未經(jīng)授權(quán)的深度偽造圖像視頻認定為犯罪,德克薩斯州則直接禁止制作或傳播深度偽造內(nèi)容[9],加利福尼亞州州長分別簽署《AB 730》《AB 602》兩部法案以禁止干擾選舉和傳播色情[10]。

      從美國現(xiàn)行規(guī)范體系可以看出,美國同樣沒有統(tǒng)一的人工智能偽造規(guī)制法案,甚至聯(lián)邦層面的法案,如規(guī)定制作者披露義務(wù)和限制偽造技術(shù)應(yīng)用場景在一定程度上被認為侵犯美國《憲法第一修正案》的言論自由而不被接受。州與州之間對于深度偽造的規(guī)制差異較大,在實踐中也難以操作,在數(shù)據(jù)共享的互聯(lián)網(wǎng)世界,這種矛盾很大地削弱了治理效果。美國現(xiàn)行的規(guī)范體系有諸多不完善之處,當權(quán)者顯然也意識到,從參議院提案授權(quán)國土安全部對深度偽造作定期監(jiān)管報告就可以看出,美國已經(jīng)將新型人工智能偽造技術(shù)規(guī)制提到了國家安全的高度。除專門針對人工智能偽造具體問題進行規(guī)制外,美國也一直在探索宏觀人工智能統(tǒng)一法案。其實,早在2017年年底,美國國會就曾提出《人工智能未來法案》(FutureofArtificialIntelligenceActof2017),希望通過該法案幫助美國確保其在人工智能領(lǐng)域的領(lǐng)先優(yōu)勢,如其被兩院審議通過,這將會是美國第一部聯(lián)邦層面的人工智能法律?!度斯ぶ悄芪磥矸ò浮返闹饕獌?nèi)容是建立一個專門的機構(gòu)負責人工智能發(fā)展事業(yè),即在商務(wù)部設(shè)立促進人工智能發(fā)展的聯(lián)邦咨詢委員會。咨詢委員會享有立法行政建議權(quán)和對人工智能的產(chǎn)業(yè)研究及其評估權(quán),并在規(guī)定期限內(nèi)向商務(wù)部長和國會出具報告和建議[11]。2019年2月,美國國家標準與技術(shù)研究院發(fā)布《美國如何領(lǐng)導人工智能:聯(lián)邦參與制定技術(shù)標準及相關(guān)工具的計劃》,公布人工智能的美國標準,建議美國政府優(yōu)先參與制定包容非歧視、可訪問和透明、基于共識的人工智能標準等相關(guān)工作,并提議輔之以包括但不限于標準化格式的數(shù)據(jù)集、評估測試、問責和審計等工具,以提高人工智能的可信賴性[12]。

      (二)歐 盟

      歐盟目前沒有出現(xiàn)大規(guī)模的人工智能偽造危害性案例,所以并未出臺專門針對深度偽造的法案,而是通過個人數(shù)據(jù)保護和反對不道德的人工智能運用來規(guī)范人工智能作偽。

      2018年5月25日,《通用數(shù)據(jù)保護條例》(GeneralDataProtectionRegulation,GDPR)在整個歐盟范圍內(nèi)生效,在歐盟境內(nèi)的任何涉及收集、傳輸、保留或處理成員國內(nèi)個人信息的機構(gòu)組織均適用該條例。GDPR將同意規(guī)則作為任何第三方使用他人信息數(shù)據(jù)的唯一正當理由;同時,將涉及種族及民族、政治觀點、宗教哲學信仰、工會成員身份、健康狀況和性取向及性生活的數(shù)據(jù)、基因數(shù)據(jù)、 經(jīng)處理可識別特定個人的生物識別數(shù)據(jù)等7種類別的數(shù)據(jù)信息視為個人敏感信息,以禁止他人使用為原則,獲權(quán)使用也不得私自披露。GDPR奉行私權(quán)至上原則,對于違反條例的行為采取嚴厲的處罰措施。瑞典數(shù)據(jù)保護機構(gòu)(The Swedish Data Protection Authority,DPA)就曾認定當?shù)啬掣咧惺褂萌四樧R別對學生進行考勤違反了GDPR關(guān)于一般禁止識別自然人的生物數(shù)據(jù)的規(guī)定而開出罰單[13]。嚴厲且有執(zhí)行力的個人數(shù)據(jù)保護使得人工智能偽造在使用個人信息時因可能違反GDPR而遭受嚴格的處罰更加謹慎。2019年4月,由歐盟人工智能高級專家組擬定的《人工智能道德準則》(AIEthicsGuidelines)正式生效。該準則要求人工智能不得使用公民的個人資料并歧視和傷害他們,并且提出實現(xiàn)“可信賴人工智能”的7條準則,分別是:人的能動性和監(jiān)督、穩(wěn)健性和安全性、隱私和數(shù)據(jù)管理、多樣性和非歧視、透明度、社會和環(huán)境福祉、問責。而在這7項準則中,“透明度”被認為是一切的關(guān)鍵。任何公司在使用人工智能技術(shù)時,其受眾都應(yīng)當具有知情權(quán),人們應(yīng)該知道和他們進行溝通的是算法還是真人。同時,任何由算法作出的決定,都必須由公司出面解釋[14]。這意味著人工智能偽造可能因為其難以追溯和區(qū)分(不受監(jiān)督)、暗箱操作(不透明)被認定為違反準則,不可信賴。同時,歐盟仍在探索更為嚴格的人工智能立法。

      歐盟規(guī)范整體呈現(xiàn)出在人工智能技術(shù)應(yīng)用中對個人信息的一種嚴格保護。但是,過度限制人工智能技術(shù)應(yīng)用場景,確實也使歐盟的人工智能技術(shù)發(fā)展相對遲緩。對于如何規(guī)制人工智能偽造,美國和歐盟采取寬嚴不同的治理思路。美國雖然在具體問題上發(fā)布諸多針對性法案,但整體給予平臺和運營商較寬緩的環(huán)境,只要不涉及犯罪行為,平臺和運營商少有其他責任。甚至于美國《通信規(guī)范法》(CommunicationsDecencyActof1996)所規(guī)定的“網(wǎng)絡(luò)服務(wù)商豁免責任”使Facebook、Google等網(wǎng)絡(luò)運營商審核用戶發(fā)布的內(nèi)容成為一種免責式自律,這也使得行業(yè)內(nèi)難以達成共識,在缺乏有效技術(shù)對抗的情況下,導致深度偽造泛濫。歐盟以嚴厲的規(guī)范限制人工智能技術(shù)應(yīng)用場景,有因噎廢食之嫌,也不利于技術(shù)進步。美歐在規(guī)制人工智能偽造中的不足各有表現(xiàn),但是,美歐的規(guī)制也有共性,即回歸技術(shù)的本質(zhì),以統(tǒng)一的人工智能法案來協(xié)調(diào)治理人工智能偽造,希望通過完善的人工智能法案進一步指導具體領(lǐng)域的人工智能應(yīng)用。

      四、人工智能偽造規(guī)制完善之道

      后真相時代之所以要規(guī)制人工智能偽造,目的是人類迫切地需要了解真相。因此,從法治理角度看,規(guī)制人工智能偽造就是要禁止技術(shù)說謊,或者說禁止欺詐。人工智能算法具有自主性和隱蔽性,實際上包括偽造信息制作者本人可能對于人工智能學習和運行原理都沒有全面的認識。伴隨著人工智能偽造技術(shù)的不斷學習進步,未來人類面臨的更大風險不是受智能技術(shù)使用者欺騙,而是受智能技術(shù)欺騙。結(jié)合我國現(xiàn)行法制缺陷和域外法實踐經(jīng)驗,統(tǒng)一協(xié)調(diào)、寬嚴相濟、權(quán)責分明的規(guī)范體系建立是禁止人工智能欺詐的有益進路。從域外實踐看,美國和歐盟都在積極探索專門的人工智能法案,并嘗試構(gòu)建完善的人工智能道德標準,以謀求人工智能技術(shù)快速發(fā)展,同時保障人工智能安全可控。國務(wù)院《新一代人工智能發(fā)展規(guī)劃》提出,要在2025年之前初步建立人工智能法律法規(guī)、倫理規(guī)范和政策體系。雖然我國人工智能核心算法和設(shè)備水平距離發(fā)達國家還有差距,我國對于人工智能技術(shù)的應(yīng)用規(guī)模卻遙遙領(lǐng)先。無論從技術(shù)安全角度還是從國際競爭角度看,我國都必須盡快出臺中國式的“人工智能未來法案”,制定具有中國特色同時又符合整體人類發(fā)展需要的“人工智能道德準則”。

      筆者以人工智能偽造規(guī)制為具體場景,為未來中國人工智能立法提出幾點建議。

      (一)要求人工智能偽造技術(shù)在開發(fā)階段就具有“可識別”性

      人工智能越是精于偽造就越應(yīng)要求其“真誠”。由于檢測技術(shù)難以匹配,中國和美國在應(yīng)對偽造信息時都嘗試為制作者設(shè)定披露義務(wù),但此設(shè)定對惡意偽造者無效。從有效監(jiān)管的角度出發(fā),與其耗費精力對人工智能偽造的危害后果進行治理,不如追根溯源讓人工智能偽造技術(shù)從一開始就受監(jiān)督、可識別。因此,對于人工智能偽造技術(shù)規(guī)制的要點不在于技術(shù)使用,而在于技術(shù)開發(fā)。人工智能要做到真誠,在技術(shù)開發(fā)階段就必須寫入“真誠”命令,其目的是保證所有通過人工智能偽造技術(shù)輸出的偽造內(nèi)容必然以某種特征表明其偽造的本質(zhì)?!罢嬲\”命令起到了標簽作用,以“可識別”表明技術(shù)受監(jiān)督;同時,可以圍繞“真誠”原則構(gòu)建人工智能安全標準,發(fā)展安全認證。只上線符合安全標準的技術(shù)應(yīng)用,而不受監(jiān)督的人工智能技術(shù)禁止開發(fā)和使用。

      (二)健全隱私保護和數(shù)據(jù)管理及其評估制度

      通過健全隱私保護和數(shù)據(jù)管理并建立評估制度,以保證提供穩(wěn)健和安全的人工智能服務(wù)。人工智能偽造是依靠算法深度學習實現(xiàn)的,算法學習又以大數(shù)據(jù)為基礎(chǔ),也就是說,在智能時代,數(shù)據(jù)化的個人信息被人工智能收集和處理是人類可以享受智能服務(wù)的前提?!秱€人信息安全規(guī)范》中將“明示同意”作為服務(wù)商收集使用個人信息的原則,但在實踐中該原則的執(zhí)行卻趨于僵化,往往是一次授權(quán)永久使用。同時,也缺乏相應(yīng)的評估監(jiān)管機制,使得個人信息極易被濫用和泄露。對此,應(yīng)當建立動態(tài)授權(quán)和信息使用披露機制。而未來的人工智能法為智能服務(wù)提供者因服務(wù)需要收集如面部、指紋等個人敏感信息的應(yīng)當設(shè)定風險預(yù)警機制和信息保護專員,定期對服務(wù)商經(jīng)營狀況、信用狀況和信息使用和保護狀況進行考察評估,避免服務(wù)提供者因不當經(jīng)營而疏于管理造成信息泄露。對于在評估中不合格的,予以公告,責令出具保證并派遣信息保護專員介入幫助和監(jiān)督整改;如果連續(xù)兩次評估均不合格或拒不整改的,責令其停止發(fā)展業(yè)務(wù)。

      (三)建立健全技術(shù)開發(fā)和應(yīng)用的雙重監(jiān)管體系

      建立健全公開透明的人工智能技術(shù)監(jiān)管體系是治理新技術(shù)的重要舉措。人工智能具有極強的專業(yè)性,作為未來智能社會構(gòu)建的基礎(chǔ),人工智能又具有顯著的溢出效應(yīng),其應(yīng)用涉及社會各領(lǐng)域,因此,對人工智能的監(jiān)管應(yīng)當從技術(shù)開發(fā)和技術(shù)應(yīng)用兩方面展開。技術(shù)開發(fā)層面的監(jiān)管需要制定統(tǒng)一的人工智能技術(shù)標準規(guī)范作為監(jiān)管依據(jù),明確國家科技部為監(jiān)管主體。國家科技部憑借其專業(yè)性和權(quán)威性,無疑是人工智能技術(shù)研發(fā)監(jiān)管的最適格主體。國務(wù)院《新一代人工智能發(fā)展規(guī)劃》關(guān)于實施組織的部署,也體現(xiàn)了圍繞科技部構(gòu)建中國人工智能科技發(fā)展行政配套體系的理念。技術(shù)應(yīng)用層面的監(jiān)管需要科技部聯(lián)合在具體技術(shù)應(yīng)用領(lǐng)域的負責部門綜合治理?;谌斯ぶ悄茉趹?yīng)用中往往處于輔助地位,因此,應(yīng)當明確以責任部門為監(jiān)管主體,科技部協(xié)助監(jiān)管,避免因權(quán)限劃分不明導致低效監(jiān)管。

      (四) 建立協(xié)調(diào)的責任制度

      人工智能偽造技術(shù)的應(yīng)用,網(wǎng)絡(luò)平臺以提供智能服務(wù)需要為由大規(guī)模收集個人信息,作為信息實際控制者即同時負有妥善保護和使用信息的義務(wù)。濫用信息造成損害的,由網(wǎng)絡(luò)平臺承擔過錯推定責任;對于信息泄露造成損害的,要區(qū)分導致信息泄露的原因是人為還是技術(shù)缺陷。人為的信息泄露由平臺承擔責任;技術(shù)缺陷導致的信息泄露,可以比照產(chǎn)品缺陷責任由技術(shù)開發(fā)者(生產(chǎn)者)和網(wǎng)絡(luò)運營者(銷售者)承擔責任,并且由技術(shù)開發(fā)者最終負解釋責任。而如果是人工智能偽造技術(shù)使用者利用該技術(shù)侵犯他人合法權(quán)益,可以類比網(wǎng)絡(luò)服務(wù)提供者責任,技術(shù)提供者要和使用者一起承擔連帶責任,但技術(shù)提供者可以舉證人工智能技術(shù)開發(fā)符合法定安全標準并及時采取必要措施從而免責。

      五、結(jié) 語

      人工智能是未來國際競爭合作的戰(zhàn)略性核心技術(shù),同時也可能是一項顛覆性技術(shù)。高度智慧和自主學習使人工智能具有不確定性而被警惕,人工智能偽造使算法“學會說謊”更進一步增加了其技術(shù)風險。應(yīng)對科技進步帶來的危害,無論是先發(fā)展后治理還是禁止發(fā)展都是錯誤的態(tài)度。我國在大力推進人工智能技術(shù)發(fā)展的同時,必須著力同步治理技術(shù)應(yīng)用帶來的風險。近年來,包括人工智能作品屬性、無人駕駛汽車責任、算法透明和深度偽造規(guī)制在內(nèi)的研究都反映了我國在立法上對人工智能規(guī)范仍缺乏統(tǒng)一有效的回應(yīng),客觀上要求契合技術(shù)發(fā)展給予有效治理。“人工智能法”必須就安全標準、監(jiān)管、責任等技術(shù)治理前提予以明確,這也是未來學界研究關(guān)注的重點。

      注 釋:

      ① 深度偽造(Deep Fakes),一種新型人工智能偽造技術(shù),最開始是指人工智能合成照片,隨后發(fā)展為視頻、音頻、文本和微表情等各種形式的信息載體.以視頻為例,視頻是由一幀幀圖片組成,偽造視頻就是將原視頻中的部分圖片替換成偽造圖片,基于源數(shù)據(jù)分析并運用“生成性對抗網(wǎng)絡(luò)(Generative Adversarial Network,GAN)”和“卷積神經(jīng)網(wǎng)絡(luò)(Converlutional Neural Network,CNN)”的算法生成器生成偽造圖片,再經(jīng)與真實圖片比較,并設(shè)定相似度達一定比率為“真”,反之為“假”.將通過鑒別的偽造圖片映射到原有視頻中替換真實圖片以保證視頻幀數(shù)連續(xù)和偽造視頻真實度,生成偽造視頻.

      ② 美國國土安全部(DHS),是美國政府于9·11恐怖事件后成立的聯(lián)邦行政部門,負責國內(nèi)安全及防止恐怖活動.

      南宁市| 岳阳县| 西吉县| 昆明市| 浪卡子县| 枣阳市| 白山市| 大理市| 长葛市| 大余县| 镇赉县| 上饶市| 平果县| 南汇区| 隆子县| 郎溪县| 兴海县| 丰城市| 中西区| 始兴县| 阿合奇县| 佛冈县| 行唐县| 蓝山县| 开阳县| 久治县| 长海县| 韶山市| 崇信县| 顺义区| 新沂市| 新源县| 武威市| 敦化市| 沛县| 望谟县| 微山县| 安西县| 伊川县| 南充市| 嘉义县|