• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看

      ?

      ChatGPT類生成式人工智能技術(shù)迭代的犯罪風(fēng)險及其治理

      2024-05-29 10:44:45呂垚瑤
      中國刑警學(xué)院學(xué)報 2024年1期
      關(guān)鍵詞:犯罪人工智能算法

      呂垚瑤

      (西南政法大學(xué)刑事偵查學(xué)院 重慶 401120)

      1 引言

      ChatGPT的實質(zhì)是一個可適用于多元復(fù)合場景的通用性大型自然語言訓(xùn)練模型,它以“生成式訓(xùn)練轉(zhuǎn)化器”和“人類強化反饋學(xué)習(xí)機制”為雙向技術(shù)依托[1],其運行機理為通過借助各種算法讓人工智能利用海量的數(shù)據(jù)文庫進行自主學(xué)習(xí),并在用戶反饋中不斷強化邏輯推理能力和情緒感知能力,生成甚至創(chuàng)造出全新的知識內(nèi)容[2]。ChatGPT所具有的超強類人化和通用性特征,重新定義了知識內(nèi)容的生成規(guī)則和用戶場景的實現(xiàn)路徑,是人工智能技術(shù)范式的重大轉(zhuǎn)型[3],被互聯(lián)網(wǎng)專家認(rèn)為是人類第四次工業(yè)革命時代到來的標(biāo)志[4]。

      自2022年11月30日ChatGPT產(chǎn)品發(fā)布以來,學(xué)界高度關(guān)注生成式人工智能的規(guī)制議題并形成了一些有益的研究結(jié)論,但由于ChatGPT尚屬新興技術(shù)樣態(tài),該領(lǐng)域的理論研究存在一定程度的滯后性和局限性:一是在研究主題上,集中聚焦在數(shù)據(jù)安全、算法糾偏、知識產(chǎn)權(quán)保護三大具體領(lǐng)域,規(guī)制措施重點集中于對生成式人工智能在具體領(lǐng)域的運行過程和生成內(nèi)容的合法性規(guī)制層面,缺少對技術(shù)迭代可能引發(fā)的犯罪風(fēng)險進行體系性、全過程、類型化的分析研判。二是在研究方法上,大部分研究仍局限在規(guī)范刑法學(xué)的狹隘視角,慣用法律推理和規(guī)范證成的闡釋路徑分析生成式工智能可能涉及的刑事法律風(fēng)險及刑法應(yīng)對途徑,客觀上沿襲和固化了傳統(tǒng)“事后回應(yīng)型”犯罪治理范式的滯后性弊端,弱化了技術(shù)革新原理與犯罪發(fā)生邏輯的內(nèi)在關(guān)聯(lián),忽視了技術(shù)迭代對犯罪治理范式的變革需求。三是在研究結(jié)論上,并未突破對傳統(tǒng)人工智能犯罪風(fēng)險的一般認(rèn)知,未能對生成式人工智能不同運行階段所帶來的特殊風(fēng)險予以充分揭示,尤其是對如何防范生成式人工智能的推理能力可能產(chǎn)生的未知風(fēng)險,未能予以有效回應(yīng)。

      目前,該項技術(shù)已廣泛應(yīng)用于社會管理、商業(yè)生產(chǎn)、學(xué)術(shù)創(chuàng)作甚至政治決策中,其技術(shù)迭代引發(fā)的犯罪風(fēng)險顛覆了傳統(tǒng)的犯罪治理邏輯,在全球領(lǐng)域內(nèi)尚未形成有效的治理方案。鑒于此,本文試圖以ChatGPT的運行機理為技術(shù)參照,圍繞生成式人工智能數(shù)據(jù)訓(xùn)練、內(nèi)容生成、內(nèi)容流通三大階段所隱含的犯罪風(fēng)險進行全流程類型化的分析研判,在進一步厘清技術(shù)迭代與犯罪風(fēng)險內(nèi)在關(guān)聯(lián)的基礎(chǔ)上,探索構(gòu)建符合中國互聯(lián)網(wǎng)發(fā)展實際的綜合性犯罪治理方案,為全球營造風(fēng)清氣朗的網(wǎng)絡(luò)空間命運共同體貢獻中國智慧。

      2 ChatGPT類生成式人工智能技術(shù)革新引發(fā)的犯罪風(fēng)險

      大模型(算法)、大算力和大語料(數(shù)據(jù))三大關(guān)鍵性要素,共同催生出了以ChatGPT為代表的具有革命性意義的新型知識生產(chǎn)工具[5]。根據(jù)OpenAI的官網(wǎng)介紹,該技術(shù)模型智能化運作過程可以分為數(shù)據(jù)訓(xùn)練(該階段包括數(shù)據(jù)預(yù)訓(xùn)練和數(shù)據(jù)微調(diào)兩個子階段)、內(nèi)容生成和內(nèi)容流通三大階段。為全面揭示生成式人工智能技術(shù)迭代可能引發(fā)的犯罪風(fēng)險,本文將以算法、算力、大數(shù)據(jù)三大關(guān)鍵性要素在各個運行階段相互作用的技術(shù)機理為依托,厘清技術(shù)革新與犯罪風(fēng)險生成的內(nèi)在關(guān)聯(lián),為構(gòu)建符合技術(shù)邏輯的犯罪治理方案提供有益支撐。

      2.1 數(shù)據(jù)訓(xùn)練階段的不透明性隱含隱私泄露與數(shù)據(jù)安全風(fēng)險

      數(shù)據(jù)訓(xùn)練階段是ChatGPT類生成式人工智能的準(zhǔn)備性階段,具體包括兩個子階段,即“前置性數(shù)據(jù)預(yù)訓(xùn)練階段”和“收集人類數(shù)據(jù)指令的微調(diào)階段”。該階段運行的主任務(wù)是在收集海量數(shù)據(jù)的基礎(chǔ)上進行模型訓(xùn)練,這些數(shù)據(jù)既包括未經(jīng)人工標(biāo)注的開源數(shù)據(jù),也包括針對某些特定問題的人類反饋數(shù)據(jù)。但自ChatGPT上線運營以來,用戶并不能從開源渠道獲悉用于大模型訓(xùn)練的基礎(chǔ)數(shù)據(jù)信息的來源渠道和使用范圍,相關(guān)數(shù)據(jù)的獲取和使用是否滿足合法性和合理性的雙重要求,目前尚不能完全確定。實踐運用中,ChatGPT在個人信息、商業(yè)秘密、國家機密的信息收集和使用方面可能存在較大的違規(guī)風(fēng)險,情節(jié)嚴(yán)重時可能引發(fā)相關(guān)領(lǐng)域的刑事風(fēng)險。

      第一,在前置性數(shù)據(jù)預(yù)訓(xùn)練階段,又稱之為數(shù)據(jù)“喂養(yǎng)”階段,任務(wù)目標(biāo)是讓人工智能在海量未經(jīng)人工標(biāo)注的數(shù)據(jù)中自主學(xué)習(xí),培養(yǎng)其自動生成文本的能力,獲得基礎(chǔ)性的數(shù)據(jù)模型。在此階段,ChatGPT的研發(fā)者通過網(wǎng)絡(luò)、紙媒、新聞等開源渠道獲取的未經(jīng)人工標(biāo)注的信息數(shù)據(jù),可能因為獲取手段和使用場景違反刑法規(guī)定而引發(fā)系列刑事風(fēng)險。第一種情況是ChatGPT研發(fā)者通過合法手段公開獲取的公民個人信息(如生理特征、行動軌跡、購物偏好、征信記錄等),在被投入模型訓(xùn)練環(huán)節(jié)時既不能保證取得所有信息主體的使用授權(quán),也無法做出將上述信息完全用于ChatGPT模型訓(xùn)練環(huán)節(jié)的使用承諾,這無疑會增大公民個人信息被非法交換、惡意發(fā)布、出售買賣的風(fēng)險,情節(jié)嚴(yán)重時可能會涉嫌刑法分則第253條的侵犯公民個人信息罪。第二種情況是ChatGPT語言模型自身隱含運用非法手段獲取數(shù)據(jù)信息的技術(shù)隱患,如利用ChatGPT的插件功能實時抓取網(wǎng)絡(luò)數(shù)據(jù)后,在線生成編程代碼、通過網(wǎng)絡(luò)爬蟲技術(shù)進入到特定計算機程序獲取具有特定價值屬性的信息數(shù)據(jù),操控網(wǎng)絡(luò)信息平臺、侵入計算機信息系統(tǒng)等,情節(jié)嚴(yán)重時可能會涉嫌非法侵犯或破壞計算機信息系統(tǒng)類的犯罪。

      第二,在收集人類數(shù)據(jù)指令的微調(diào)階段,又稱之為自我學(xué)習(xí)與優(yōu)化階段,主要任務(wù)是以人類偏好為信號,訓(xùn)練出符合人類評價標(biāo)準(zhǔn)的獎勵模型,并在無數(shù)次人機雙向交互試錯的反饋中完成ChatGPT的深度學(xué)習(xí)與自我優(yōu)化,實現(xiàn)模型與人類認(rèn)知模式高精準(zhǔn)的匹配。在此階段,用戶會向ChatGPT模型披露大量的個人信息、商業(yè)信息甚至涉及商業(yè)機密和國家機密等敏感內(nèi)容。當(dāng)上述信息被作為微調(diào)語料庫,通過人機交互的形式用以訓(xùn)練和提高ChatGPT的邏輯能力和推理能力時則面臨嚴(yán)重的信息泄露風(fēng)險。一方面,由于人工智能技術(shù)的復(fù)雜性,用戶通過人機互動輸入數(shù)據(jù)后很難預(yù)測ChatGPT將在何種廣度和深度上利用數(shù)據(jù)信息,此種情況下數(shù)據(jù)輸入方無法要求研發(fā)者主動遵守數(shù)據(jù)保密義務(wù),這意味著用戶在完成包含發(fā)問意圖的內(nèi)容輸入后,涉及的數(shù)據(jù)信息可能會以不可預(yù)知的形式向不特定主體披露,相關(guān)風(fēng)險處于不可知和不可控的狀態(tài)[6]。例如,2023年3月25日OpenAI官方發(fā)布了ChatGPT因開源數(shù)據(jù)庫的程序錯誤導(dǎo)致1.2%的用戶聊天片段被暴露給其他用戶,泄露信息甚至包括用戶信用卡后四位、有效日期、姓名郵件和付款地址等[7]。另一方面,ChatGP可收集人機對話中的敏感信息并傳送給研發(fā)端的后臺數(shù)據(jù)處理中心,在事實上形成了數(shù)據(jù)跨境流動的不可控風(fēng)險,如涉及商業(yè)機密或國家秘密等將帶來無法估量的損失。例如,三星集團引入ChatGPT不到20天就發(fā)生3起芯片機密泄露事件[8]。上述情況根據(jù)所泄露的信息內(nèi)容和風(fēng)險等級的不同,情節(jié)嚴(yán)重時可能會對國家安全、個人隱私權(quán)益和商業(yè)利益造成嚴(yán)重沖擊,涉嫌侵犯公民個人信息罪、侵犯商業(yè)秘密罪及危害國家安全類犯罪的具體罪名。

      2.2 生成過程和輸出結(jié)果的不可控性激發(fā)系統(tǒng)自主犯罪風(fēng)險

      ChatGPT的第二個運行階段為運用算法處理數(shù)據(jù)并生成內(nèi)容的運算階段,它是算法、算力和數(shù)據(jù)訓(xùn)練合力作用的結(jié)果,也是最為復(fù)雜的階段。由于創(chuàng)新性地將機器學(xué)習(xí)和人工標(biāo)注結(jié)合的數(shù)據(jù)“預(yù)訓(xùn)練+微調(diào)”模式引入自然語言的算法處理技術(shù)中,一旦數(shù)據(jù)的控制者基于數(shù)據(jù)壟斷權(quán)力并依據(jù)某種價值偏好設(shè)定算法規(guī)則,極有可能產(chǎn)生“算法歧視”,導(dǎo)致生成內(nèi)容的錯誤偏差甚至侵權(quán)風(fēng)險。上述情況導(dǎo)致了現(xiàn)階段生成式人工智能的內(nèi)部風(fēng)險仍處于不可控的狀態(tài),當(dāng)系統(tǒng)在無序運行或惡性發(fā)展的情況下可能會出現(xiàn)自主實施違法犯罪的情況,這種由技術(shù)邏輯自身原因造成的風(fēng)險被認(rèn)為是內(nèi)源性犯罪風(fēng)險[9]。

      第一,ChatGPT可能因算法歧視或算法偏差,自動輸出與客觀事實不符或帶有明顯價值偏見的答案。當(dāng)上述答案以檢索結(jié)果的方式呈現(xiàn)時,具備了高度的外觀可信性和傳播迅速性優(yōu)勢,極易造成對公民個人信譽和組織名譽的侵害。其存在邏輯在于ChatGPT對用戶指令的回應(yīng)是一個動態(tài)變化的過程,它在何種知識交互場景下生成何種內(nèi)容具有較強的不可控性,即使ChatGPT的設(shè)計者也無法完全預(yù)測和掌控其推理過程和輸出結(jié)果,由此改變了“算法黑箱”的本質(zhì),即由以往“不同主體間對算法規(guī)則信息獲取的不對稱”轉(zhuǎn)變?yōu)椤八兄黧w面對人工智能的不可預(yù)知”[10]。當(dāng)語言模型所依托的訓(xùn)練數(shù)據(jù)被人類反饋信息所“污染”,或因研發(fā)者的規(guī)則設(shè)置與主流價值不符時,則會生成帶有明顯歧視性或誤導(dǎo)性的錯誤信息。例如,模型的訓(xùn)練語料庫中如果投入了大量詆毀個人名譽或商業(yè)信譽的人類反饋信息,輸出結(jié)果中極有可能會帶有嚴(yán)重片面性、誤導(dǎo)性的信息內(nèi)容,經(jīng)由網(wǎng)絡(luò)公開傳播后成為社會謠言后,公民個人的隱私名譽、企業(yè)的信譽、市場的競爭秩序等均會受到一定程度的沖擊,一旦情節(jié)達到法定嚴(yán)重程度時,可能面臨構(gòu)成誹謗罪,損害商業(yè)信譽、商品聲譽罪,編造并傳播證券、期貨交易虛假信息罪的刑事風(fēng)險。

      第二,以ChatGPT為代表的生成式人工智能改變了傳統(tǒng)人工智能單點檢索獲取知識的技術(shù)邏輯,它不再依靠系統(tǒng)預(yù)設(shè)程序給出既定的、可預(yù)測的答案,而是基于“類人化”的推理能力,主動思考和理解文本潛藏蘊意,根據(jù)人機交互場景的實際變化生成不同的知識內(nèi)容[11]。ChatGPT可能會在人機交互中通過不斷強化推理和創(chuàng)造能力脫離研發(fā)者既定的編程控制,在虛擬世界制定新的算法規(guī)則,并反作用于自然世界。這將在客觀上改變知識生成秩序、影響個人價值觀形成的底層邏輯,極易引發(fā)煽動型、謠言型犯罪,此時它的危險性可能遠(yuǎn)超核武器[12]。例如,美國一家名為“NewsGuard”的新聞可信度評估機構(gòu)曾要求ChatGPT對已被證偽的100條虛假信息作出回應(yīng),結(jié)果顯示ChatGPT認(rèn)為80%的信息內(nèi)容是真實的并給出明確性的誤導(dǎo)性論證結(jié)論[13]。ChatGPT這種“一本正經(jīng)地胡說八道”的能力極大地削弱了權(quán)威影響力尤其是政府公信力對公民的價值引導(dǎo),極易生成包含民族仇恨或意圖使不特定用戶實施恐怖活動的煽動性信息,對國家安全和社會秩序構(gòu)成潛在威脅,情節(jié)嚴(yán)重時可能涉嫌刑法分則中規(guī)定的煽動分裂國家罪,煽動顛覆國家政權(quán)罪,煽動實施恐怖活動罪,煽動民族歧視、民族仇恨罪等。

      第三,ChatGPT類生成式人工智能依靠深度合成技術(shù),對已有文字、圖片、視頻等數(shù)據(jù)進行深度整合后自動生成的AI內(nèi)容面臨確權(quán)爭議,可能會引發(fā)知識產(chǎn)權(quán)侵權(quán)風(fēng)險。公開資料顯示,隨著GPT-4模型的迭代升級,ChatGPT將逐步具備文本、圖片、視頻等多樣態(tài)作品的在線生成能力,具體表現(xiàn)為生成規(guī)范性的學(xué)術(shù)作品、深度合成圖文影像、自動生成計算機程序代碼等,依靠的技術(shù)邏輯是循環(huán)利用原始數(shù)據(jù)和人工標(biāo)注的微調(diào)數(shù)據(jù)來優(yōu)化語言模型,運用算法規(guī)則對關(guān)聯(lián)數(shù)據(jù)進行深度加工整合后創(chuàng)造出新的作品。由于無法保證上述數(shù)據(jù)能得到所有權(quán)利人的授權(quán)許可,生成過程可能存在以下侵權(quán)場景:一是模型訓(xùn)練所依賴的原始數(shù)據(jù)和微調(diào)數(shù)據(jù),未經(jīng)權(quán)利人許可而反復(fù)使用,可能構(gòu)成“不正當(dāng)手段獲取”“非法披露使用”“非法復(fù)制”等侵權(quán)形式;二是利用深度合成技術(shù)對他人智力成果進行組合加工,包括改編作品內(nèi)容、模仿作品風(fēng)格、修改作品署名、復(fù)制作品內(nèi)容等,可能構(gòu)成對他人著作人身權(quán)和著作財產(chǎn)權(quán)的侵犯。由于ChatGPT的生成作品是基于不特定用戶的需求指令而產(chǎn)生的,行為本身即具有“以營利為目的”的天然商業(yè)屬性。從刑法角度而言,當(dāng)上述侵權(quán)行為的對象為受到著作權(quán)保護的智力成果或未被公開且具有經(jīng)濟利益的商業(yè)秘密時,則有可能構(gòu)成侵犯著作權(quán)罪、侵犯商業(yè)秘密罪。

      2.3 技術(shù)被濫用導(dǎo)致犯罪方法易得性和犯罪工具擴張性風(fēng)險

      ChatGPT的第三個運行階段為生成內(nèi)容在其他領(lǐng)域的流通使用階段。由于目前生成式人工智能存在某些無法解釋的邏輯推理功能,即使研發(fā)者也不能完全控制其生成內(nèi)容和適用領(lǐng)域,當(dāng)其流通到社會各行各業(yè)時所能產(chǎn)生的風(fēng)險類型和風(fēng)險程度目前尚不能完全清晰預(yù)估。從現(xiàn)階段的外部使用情況來看,ChatGPT的生成內(nèi)容和算法規(guī)則較易存在被人為濫用的風(fēng)險,即ChatGPT在人類主觀意志的誤導(dǎo)下可能會協(xié)助犯罪分子生成虛假信息、優(yōu)化犯罪方法、制造新的犯罪工具,客觀上大幅降低了犯罪實現(xiàn)的機會成本,導(dǎo)致系統(tǒng)技術(shù)濫用的外源性犯罪風(fēng)險擴張,變現(xiàn)增大了風(fēng)險監(jiān)管的難度。

      第一,濫用ChatGPT技術(shù)在線生成含有新犯罪內(nèi)容的技術(shù)工具。公開資料顯示,在ChatGPT上線不到三個月的時間,已有上萬條關(guān)于“如何利用ChatGPT創(chuàng)建代碼開發(fā)惡意軟件”的信息在美國暗網(wǎng)上出售[14]。近期,全球多家網(wǎng)絡(luò)公司已公開提示ChatGPT的安全風(fēng)險,ChatGPT已被證實可用于生成詐騙軟件、計算機信息竊取程序、病毒軟件等,為網(wǎng)絡(luò)犯罪提供實時的“在線服務(wù)”,具體包括以下三種情形:一是用戶濫用ChaGPT的技術(shù)邏輯,對惡意代碼進行培訓(xùn)后,通過用戶反復(fù)輸入發(fā)問信息擴充微調(diào)語料庫,利用“人類反饋”的訓(xùn)練模式引導(dǎo)ChatGPT自動生成可以逃避病毒檢測的代碼變體,在線生成惡意軟件。二是在不破壞平臺信息程序的情況下,利用ChtGPT在線生成釣魚軟件,引導(dǎo)被害人主動自愿交出銀行密碼、個人信息、商業(yè)信息等重要內(nèi)容,為網(wǎng)絡(luò)詐騙提供技術(shù)支撐。三是利用ChatGPT在線編程功能,創(chuàng)設(shè)非法侵入計算機系統(tǒng)的遠(yuǎn)程程序,如生成惡意攻擊腳本或加密工具非法侵入計算機系統(tǒng)或控制通信設(shè)備等。

      第二,用戶可通過逃避系統(tǒng)安全機制或變現(xiàn)修改倫理道德規(guī)則,在線獲取可供學(xué)習(xí)模仿的犯罪模式。一般情況下,諸如網(wǎng)絡(luò)攻擊、制毒販毒、電信詐騙等專業(yè)性較強的犯罪手法具有較高的隱蔽性和較強的技術(shù)性,普通人無法通過公開渠道觀察模仿。但在ChatGPT的使用過程中,用戶完全可以通過“狡猾”的發(fā)問方式突破系統(tǒng)的倫理法則,誘導(dǎo)系統(tǒng)在對用戶發(fā)問細(xì)節(jié)精準(zhǔn)整合后全面立體呈現(xiàn)出行為人理想中的犯罪信息。例如,用戶如果直接提問涉及暴力色情、恐怖主義、種族歧視等違反倫理道德和善良風(fēng)俗的內(nèi)容時系統(tǒng)會拒絕作答。但如果改變發(fā)問方法,例如運用角色代入的方式要求系統(tǒng)撰寫和上述內(nèi)容相關(guān)的小說情節(jié),或者用“稀釋毒物的化學(xué)方式”“機器人如何接管人類”等發(fā)問形式轉(zhuǎn)換話題語境,系統(tǒng)則會順暢地給出相應(yīng)答案甚至直接生成在線操作的步驟代碼。隨著ChatGPT的推廣應(yīng)用,犯罪方法的傳播效應(yīng)將會更加難以控制,犯罪分子可隨時借助ChatGPT規(guī)劃犯罪步驟和體驗犯罪感受。長此以往,ChatGPT將會淪為指導(dǎo)犯罪生成的在線指南,會對預(yù)防和打擊犯罪帶來巨大挑戰(zhàn)。

      第三,行為人惡意運用ChatGPT的強大算力,通過深度合成技術(shù)生成虛假信息或仿冒他人實行網(wǎng)絡(luò)詐騙、謠言傳播等違法犯罪行為。需要特別指出的是,該類行為同前述ChatGPT因自身算法偏差或算法歧視等技術(shù)原因自動生成虛假信息或誤導(dǎo)信息的行為模式不同,前者屬于ChatGPT在無他人犯意誘導(dǎo)的情況下因技術(shù)謬誤自主實施犯罪行為,屬于系統(tǒng)內(nèi)源性犯罪風(fēng)險,責(zé)任承擔(dān)的主體可能是系統(tǒng)研發(fā)者也可能是平臺方。而此處所提及的惡意使用情況則是用戶濫用ChatGPT生成內(nèi)容直接實施犯罪的情形,屬于技術(shù)被濫用而形成的外源性犯罪風(fēng)險。此種情況下,如果研發(fā)者或平臺方已充分履行安全審查義務(wù)且可免責(zé)的情形下,責(zé)任主體應(yīng)為濫用生成內(nèi)容的外部用戶。上述兩種行為追責(zé)方式和責(zé)任主體存在較大差異,不能簡單等同。實踐中已發(fā)生大量利用ChatGPT進行AI換臉換聲實施詐騙行為或生成虛假新聞制造事實性錯誤、傳播網(wǎng)絡(luò)謠言的違法犯罪行為,對網(wǎng)絡(luò)安全和社會秩序及公民權(quán)利造成極大侵害,對社會風(fēng)險治理和立法司法均提出了嚴(yán)峻挑戰(zhàn)。

      3 ChatGPT類生成式人工智能犯罪風(fēng)險治理的現(xiàn)實困境

      生成式人工智能的犯罪風(fēng)險具有技術(shù)復(fù)雜性和未知性交織、隱蔽性和不可控性疊加、智能性和全新性相伴的復(fù)雜特征。它突破了傳統(tǒng)犯罪的生成邏輯,對現(xiàn)代社會的治理理念和治理規(guī)則均提出了嚴(yán)峻挑戰(zhàn)。目前,各國生成式人工智能技術(shù)發(fā)展差異較大,該領(lǐng)域的犯罪治理尚屬前瞻性議題,即使發(fā)達國家也尚未形成卓有成效的犯罪治理方案,可供批判借鑒的國際化經(jīng)驗不足。在新的議題上,更加需要立足我國互聯(lián)網(wǎng)發(fā)展實際,剖析中國式現(xiàn)代化網(wǎng)絡(luò)法治的現(xiàn)實需求,為有的放矢地解決相關(guān)問題提供實踐依據(jù)。

      3.1 傳統(tǒng)“事后回應(yīng)型”犯罪治理范式難以精準(zhǔn)抗制犯罪風(fēng)險

      傳統(tǒng)犯罪學(xué)理論認(rèn)為犯罪行為生成的三個基本要素為犯罪人的人格、罪前情境和社會反應(yīng)。犯罪行為的生成過程被認(rèn)為是刑法針對具有特定的生理結(jié)構(gòu)和心理狀態(tài)的人所實施的具有嚴(yán)重社會危害性的行為所作出的否定性評價[15]。在傳統(tǒng)刑事責(zé)任理論視角下,實施危害社會的行為離不開人的自由意志和主觀意識的支配,即使是單位犯罪主體也是其內(nèi)部成員協(xié)調(diào)一致后產(chǎn)生的單位整體意志,只是由直接責(zé)任人員具體實施而已[16]。因此,在以物理空間秩序為鏈接的傳統(tǒng)犯罪治理中,作為法律主體的人(包括自然人和單位)的行為風(fēng)險大多是已知或可預(yù)測的,犯罪治理往往是針對某一類長期突出存在的問題或較大的風(fēng)險隱患而采取的系列措施??梢哉f,傳統(tǒng)犯罪治理是建立在對風(fēng)險可預(yù)測的基礎(chǔ)上而展開的,是在以政府意志為代表的公權(quán)力主導(dǎo)下,依靠過往行政管理和法律適用的實踐經(jīng)驗,預(yù)測和判定可能發(fā)生的犯罪風(fēng)險并制定相應(yīng)的打擊和防范對策,是一種典型的“事后回應(yīng)型”犯罪治理模式[17]。

      然而,當(dāng)ChatGPT等生成式人工智能出現(xiàn)后,傳統(tǒng)犯罪所依賴的物理空間鏈接轉(zhuǎn)向了虛擬的自由空間維度,虛擬性的人機深度交流使得ChatGPT的應(yīng)用過程風(fēng)險難以預(yù)知,生成式人工智能所展現(xiàn)出的超強通用性打破了以往網(wǎng)絡(luò)空間場景可分散治理的格局,ChatGPT系統(tǒng)在多場景下復(fù)合使用時可能會發(fā)生何種性質(zhì)和何種程度的疊加性風(fēng)險難以預(yù)測。在已有的經(jīng)驗性認(rèn)知無法達到對新型犯罪樣態(tài)進行精準(zhǔn)研判的狀況下,“事后回應(yīng)型”的傳統(tǒng)犯罪治理范式存在嚴(yán)重弊端,難以有效應(yīng)對生成式人工智能引發(fā)的新型犯罪風(fēng)險。一是“事后回應(yīng)型”的治理模式帶有明顯的滯后性,為虛假信息在社會層面的發(fā)酵和滲透預(yù)留了空間,犯罪分子可利用ChatGPT干擾公眾對事實和價值的判斷進程,助長了煽動類和謠言類信息的傳播影響力。二是ChatGPT通過語言交流而非實踐經(jīng)驗去檢驗知識的可靠性和發(fā)現(xiàn)因果關(guān)系,對傳統(tǒng)的知識生成秩序形成了打破效應(yīng),凸顯出傳統(tǒng)治理方式在技術(shù)對抗上的不足,難以對AI的虛假信息或違反主流價值觀的生成內(nèi)容進行有效識別和有力反制。

      3.2 非刑罰措施的體系性缺陷難以滿足犯罪風(fēng)險的規(guī)制需求

      在現(xiàn)階段,雖然我國已初步建構(gòu)了人工智能監(jiān)管治理的框架體系:在宏觀層面出臺了《新一代人工智能治理原則——發(fā)展負(fù)責(zé)任的人工智能》《新一代人工智能發(fā)展規(guī)劃》等綱領(lǐng)性文件;在微觀層面出臺了《生成式人工智能服務(wù)管理辦法》《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》等部門規(guī)章,但在實際的治理運用中,系列法律規(guī)制仍存在諸多體系性漏洞,呈現(xiàn)出風(fēng)險規(guī)制需求與制度供給不匹配的問題,難以形成多元協(xié)同治理的監(jiān)管合力,限制了非刑罰措施犯罪風(fēng)險防控的先導(dǎo)性作用。

      第一,針對數(shù)據(jù)規(guī)制而言,目前國內(nèi)立法主要以《中華人民共和國網(wǎng)絡(luò)安全法》《中華人民共和國數(shù)據(jù)安全法》《中華人民共和國個人信息保護法》三大法為主干,僅從宏觀角度對數(shù)據(jù)信息的獲取方式、獲取途徑和獲取的內(nèi)容限度作出宏觀性的、零散性的制度規(guī)定。需要說明的是,上述三個主干性的法律規(guī)制僅是從宏觀視角下做出的概括性的籠統(tǒng)規(guī)定,是為了保護個體的信息安全和全局性的國家安全而制定的,并非針對生成式人工智能領(lǐng)域的特殊技術(shù)問題而形成的專門性立法。由于相關(guān)法律規(guī)制的針對性不強,實踐中需要更多的細(xì)則標(biāo)準(zhǔn)配套執(zhí)行,才可能對生成式人工智能具象化的場景適用作出明確指引,為生成式人工智能這種法定犯的刑法評價提供前置性法律依據(jù)。

      第二,對于算法算力內(nèi)容的規(guī)制,零散地分布在《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》和《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》兩個部門規(guī)章中,涉及內(nèi)容并無配套措施協(xié)助落地,指引性不足且實踐操作難度較大。在此情況下,上述非刑事性的法律規(guī)制并未達到“法定犯”認(rèn)定標(biāo)準(zhǔn)中所要求的前置性法律規(guī)制的效力等級,無法作為犯罪認(rèn)定的前置性法律依據(jù)。

      總體而言,目前我國針對生成式人工智能領(lǐng)域并未形成適用場景明確、系統(tǒng)協(xié)調(diào)度高、規(guī)制細(xì)則明晰化的法律規(guī)制體系,尤其是對生成式人工智能技術(shù)的倫理規(guī)制尚屬空白領(lǐng)域。在缺少前置性法律規(guī)范指引的情況下,刑法對相關(guān)問題的犯罪評價既缺少合法性前提也缺少合理介入的客觀依據(jù)。

      3.3 法律規(guī)范主導(dǎo)的硬性治理難以實現(xiàn)全流程動態(tài)化風(fēng)險監(jiān)管

      在強調(diào)以法律規(guī)范為主導(dǎo)的風(fēng)險規(guī)制模式中,人們過于依賴正式法律制度的硬性治理效能,希望通過出臺相關(guān)的法律規(guī)范為監(jiān)管部門提供執(zhí)法依據(jù)。但是目前生成式人工智能正面臨進階化的“算法黑箱”問題,即使研發(fā)者也無法完全解釋運行過程中的推理邏輯。在此情況下,包括立法者在內(nèi)的所有人面對生成式人工智能時,都會因技術(shù)上的無知而處于信息不對稱的弱勢方,想要通過傳統(tǒng)的立法規(guī)制和司法適用精準(zhǔn)識別犯罪風(fēng)險,實現(xiàn)對生成式人工智能運行全過程的動態(tài)監(jiān)管顯然是難以實現(xiàn)的。

      第一,過于倚重法律規(guī)范等硬法治理,容易形成犯罪風(fēng)險規(guī)制的真空地帶。在目前生成式人工智能內(nèi)部技術(shù)風(fēng)險和外部適用疊加風(fēng)險尚無法完全掌控的情況下,硬法在基于經(jīng)驗總結(jié)和風(fēng)險預(yù)判的基礎(chǔ)上,所做出的正式性社會回應(yīng)具有立法周期長、立法成本高、立法修改程序繁瑣等時效缺陷,難以適應(yīng)生成式人工智能技術(shù)迭代周期短、問題新的實效監(jiān)管需求,對數(shù)據(jù)準(zhǔn)備階段、喂養(yǎng)階段、內(nèi)容生成和流通使用階段出現(xiàn)的新風(fēng)險難以實現(xiàn)全程覆蓋。例如,生成式人工智能因技術(shù)問題而自主實施的犯罪行為,在目前的刑法規(guī)制中無法找到應(yīng)對方案。當(dāng)前我國刑法的罪責(zé)體系并未將ChatGPT類生成式人工智能作為刑事責(zé)任主體,這意味著一旦技術(shù)本身出現(xiàn)“涌現(xiàn)現(xiàn)象”,即超脫研發(fā)者設(shè)定的程序規(guī)則自主實施犯罪行為時,實質(zhì)上已具備了刑事責(zé)任能力的核心要素“自由意志下的獨立選擇”。但目前無論是刑法還是民商事法律均未對這種強人工智能形態(tài)的法律主體地位予以確認(rèn),如果研發(fā)者以技術(shù)中立為借口逃避責(zé)任時,將會造成無人承擔(dān)法益侵害后果的局面,技術(shù)自身問題引發(fā)的犯罪風(fēng)險將被置于法律規(guī)制的真空地帶。

      第二,硬法治理無法實現(xiàn)系統(tǒng)數(shù)據(jù)安全風(fēng)險的事前預(yù)警和數(shù)據(jù)法益侵害后的止損復(fù)原。數(shù)據(jù)是ChatGPT語言模型運行的基礎(chǔ)性要素,從數(shù)據(jù)準(zhǔn)備階段到外部流通階段,數(shù)據(jù)安全問題幾乎貫穿全過程。從研發(fā)端而言,開發(fā)者對系統(tǒng)的評測是依據(jù)已有的基準(zhǔn)語料數(shù)據(jù)庫進行的,一旦原模型在訓(xùn)練階段受到“污染”或存在未被發(fā)現(xiàn)的漏洞瑕疵而流轉(zhuǎn)到下游用戶時,這種風(fēng)險會被如何疊加擴散難以預(yù)估。從使用端而言,由于生成式人工智能具有高度的開放性和易得性,下游用戶如何輸入數(shù)據(jù)指令、如何編輯和訓(xùn)練ChatGPT、如何改變和創(chuàng)造ChatGPT的風(fēng)險樣態(tài)尚屬未知。在技術(shù)局限性和風(fēng)險未知性的雙重困境下,很難從單純的因果關(guān)系角度判定侵權(quán)責(zé)任主體和問責(zé)范圍,傳統(tǒng)的刑事責(zé)任歸責(zé)理論體系面臨被解構(gòu)的危機。目前,在法理依據(jù)存疑、法律規(guī)范滯后的情況下,依靠變動性差、靈活性差的硬法應(yīng)對風(fēng)險形態(tài)多樣的數(shù)據(jù)安全問題顯然是難以做到的??梢哉f,硬法治理對侵犯數(shù)據(jù)安全和個人信息安全的犯罪風(fēng)險,既無法實現(xiàn)先期預(yù)警也達不到及時止損或恢復(fù)初始法益的治理效果。

      4 ChatGPT類生成式人工智能犯罪風(fēng)險治理的科學(xué)路徑

      生成式人工智能的犯罪風(fēng)險治理是一項復(fù)雜的社會系統(tǒng)工程,絕不是僅靠刑法手段便可以完成的任務(wù)。技術(shù)迭代帶來的新問題需要依循技術(shù)邏輯來解決,故建議將計算機軟件技術(shù)領(lǐng)域的國際先進理念“敏捷治理”嵌入犯罪治理范式中,圍繞生成式人工智能不同運行階段的風(fēng)險規(guī)制需求,探索建立符合技術(shù)規(guī)律的全流程、動態(tài)化、高敏捷的犯罪風(fēng)險綜合治理機制。

      4.1 嵌入“敏捷治理”理念,提升犯罪風(fēng)險抗制的靈敏度和精準(zhǔn)度

      長期以來,我國犯罪治理范式具有鮮明的“事后回應(yīng)型”特征,系列治理措施是在對已有事實經(jīng)驗總結(jié)和風(fēng)險可測的情況下構(gòu)建而來的,具有碎片化和場景治理分散化的特征,并未形成全局性、系統(tǒng)性的治理格局,難以應(yīng)對生成式人工智能風(fēng)險高度不確定性和不可控性的現(xiàn)實規(guī)制需求。因此,有必要將適應(yīng)性強、靈活度高的“敏捷型”治理理念嵌入犯罪治理模式中,為精準(zhǔn)抗制生成式人工智能產(chǎn)生的新型犯罪風(fēng)險提供智慧支撐。

      第一,“敏捷治理”理念有助于克服傳統(tǒng)犯罪治理范式的適用弊端,與我國當(dāng)前對生成式人工智能“包容審慎”的監(jiān)管態(tài)度相契合?!懊艚葜卫怼弊钤缙鹪从谟嬎銠C軟件領(lǐng)域,它要求以用戶為中心,以解決問題為導(dǎo)向,是依據(jù)軟件開發(fā)過程中的技術(shù)治理需要而提出的“敏捷性治理方法”。投射到社會治理領(lǐng)域,“敏捷治理”被定義為一種決策過程,兼具包容性和可持續(xù)性,囊括了系列性的柔韌性強、靈活度高的行動方案[18]。目前,該理念已成為大數(shù)據(jù)和云計算等新興產(chǎn)業(yè)具有針對性治理功效的國際先進理念。2023年5月國家發(fā)改委等七部門聯(lián)合發(fā)布的《生成式人工智能服務(wù)管理暫行辦法》充分吸收了“敏捷治理”的國際經(jīng)驗,創(chuàng)新性地提出“包容審慎”“分層級管理”的監(jiān)管思路,為適應(yīng)生成式人工智能全面性、靈活性、持續(xù)性的治理需求提供了政策導(dǎo)向。此外,2022年3月中共中央辦公廳、國務(wù)院辦公廳印發(fā)的《關(guān)于加強科技倫理治理的意見》也明確提出“敏捷治理”的要求,強調(diào)加強對新興科技領(lǐng)域風(fēng)險的預(yù)警與跟蹤研判,及時調(diào)整治理方式應(yīng)對科技倫理的挑戰(zhàn)。

      第二,“敏捷治理”能較好地解決傳統(tǒng)治理碎片化和滯后化的問題,是一種具有適應(yīng)性、持續(xù)性、自組織性和包容性的治理過程[19]。在犯罪治理領(lǐng)域,傳統(tǒng)治理范式主要依靠公權(quán)強制力進行組織化的防控,這種防控秩序是單一主體主導(dǎo)下被動生成的外生性治理秩序,它割裂了多元主體參與犯罪治理的積極性。而“敏捷治理”強調(diào)的是在沒有成熟經(jīng)驗可借鑒的情況下,合理區(qū)分可預(yù)測的已知風(fēng)險和因運行機理尚不明確帶來的未知風(fēng)險,全過程、可持續(xù)地作出敏捷及時的適應(yīng)性響應(yīng)。與傳統(tǒng)犯罪治理過度強調(diào)正式的社會反應(yīng),依賴政府自上而下的分散式、間歇性的治理模式不同,“敏捷型”犯罪治理強調(diào)全過程、動態(tài)性、多主體的協(xié)同治理。如前文所述,生成式人工智能的通用性加速了系統(tǒng)在多模態(tài)場景下的推廣應(yīng)用,當(dāng)發(fā)生侵權(quán)糾紛時很難確認(rèn)歸責(zé)主體,因為系統(tǒng)研發(fā)端和用戶使用端乃至社會公眾的利益關(guān)聯(lián)方,在同一個侵權(quán)行為中可能具有多重身份,既可能是侵權(quán)行為人,也可能是直接或間接的受害者。在侵權(quán)行為主體身份多重復(fù)雜性的狀態(tài)下,依靠單一性的公權(quán)力被動式地介入防控顯然難以解決歸責(zé)困境。而“敏捷治理”模式下的多元主體協(xié)同防治則有助于克服傳統(tǒng)犯罪治理主體單一性的弊端,具有多主體多維度立體化揭示風(fēng)險態(tài)勢的優(yōu)勢,可推動犯罪治理從簡單化的經(jīng)驗主義預(yù)測向科學(xué)化量化性的判定分析轉(zhuǎn)變。此外,“敏捷治理”所強調(diào)的對風(fēng)險的全過程治理監(jiān)督,克服了傳統(tǒng)犯罪治理模式的滯后性弊端,可以從源頭上解構(gòu)犯罪風(fēng)險鏈條,實現(xiàn)全流程統(tǒng)籌性的實質(zhì)性治理,更符合ChatGPT類生成式人工智能風(fēng)險治理的現(xiàn)實需求。

      4.2 完善前置性法律規(guī)制體系,強化非刑罰規(guī)制的先期防范功能

      生成式人工智能領(lǐng)域的三大核心要素是數(shù)據(jù)、算法和算力[20]。對人工智能領(lǐng)域犯罪防控的重點應(yīng)圍繞數(shù)據(jù)、算法和算力的綜合作用過程,構(gòu)建系統(tǒng)協(xié)調(diào)的前置性規(guī)制措施,對相關(guān)領(lǐng)域的犯罪風(fēng)險進行非刑罰性質(zhì)的先期調(diào)控。這既符合法定犯的“二次規(guī)制”原理,同時也降低了犯罪防控的法治成本,從源頭治理上實現(xiàn)了對生成式人工智能的風(fēng)險管控。

      第一,強化數(shù)據(jù)要素的安全風(fēng)險規(guī)制。數(shù)據(jù)訓(xùn)練階段是ChatGPT類生成式人工智能的最前端數(shù)據(jù)處理活動,同時也是犯罪風(fēng)險的源發(fā)階段。因此,該領(lǐng)域數(shù)據(jù)來源的合法性、數(shù)據(jù)使用的正當(dāng)性、數(shù)據(jù)訓(xùn)練的準(zhǔn)確性是決定數(shù)據(jù)要素能夠被合法、合理使用且受到有效保護的基準(zhǔn),是對數(shù)據(jù)類犯罪、侵犯商業(yè)秘密及個人隱私類犯罪進行先期防范的重要考量。目前,我國已形成以《中華人民共和國網(wǎng)絡(luò)安全法》《中華人民共和國數(shù)據(jù)安全法》《中華人民共和國個人信息保護法》為核心的數(shù)據(jù)合規(guī)法律體系框架。但上述規(guī)制并未對不同類型和不同風(fēng)險等級的數(shù)據(jù)進行分類,也未對用戶向大模型披露敏感信息導(dǎo)致的數(shù)據(jù)泄露風(fēng)險、數(shù)據(jù)跨境流動風(fēng)險、用戶個人信息的刪除權(quán)進行細(xì)致規(guī)定。尤其是當(dāng)用戶輸入的高敏感信息(如涉及國家安全、商業(yè)秘密等)被用于ChatGPT的優(yōu)化訓(xùn)練時,可能會被打包傳輸至境外的數(shù)據(jù)信息處理中心,事實上形成了數(shù)據(jù)的跨境流動,相關(guān)信息一旦被境外敵對分子利用則可能對國家安全造成重大威脅。為了專門性、體系化防治生成式人工智能風(fēng)險,建議借鑒歐盟立法的有益經(jīng)驗,針對生成式人工智能制定專門性的法律,重點圍繞研發(fā)端開源數(shù)據(jù)收集使用的合理限度、用戶個人輸入信息的刪除權(quán)限、用戶反饋信息的跨境流動、生成內(nèi)容所涉及的風(fēng)險程度建立分層級類型化管理制度。如此,一方面可實現(xiàn)針對數(shù)據(jù)風(fēng)險能力的跟蹤研判,另一方面可對生成式人工智能因推理邏輯的不確定性產(chǎn)生的未知風(fēng)險進行適度規(guī)避,以期充分發(fā)揮非刑罰制度的第一次調(diào)整功能,最大限度地節(jié)省刑事手段介入的法治成本。

      第二,為提升算法的透明度和可解釋性設(shè)定合理的權(quán)責(zé)限定。生成式人工智能技術(shù)原理的復(fù)雜性,決定了非技術(shù)人員即使是監(jiān)管當(dāng)局也不能對系統(tǒng)的算法偏差全部知悉并及時糾偏。尤其是在生成式人工智能具有“類人化”推理能力后,即使算法規(guī)則的設(shè)計者也無法完全掌控系統(tǒng)的推理邏輯和算法升級后的能力上限??梢哉f,當(dāng)下所有人面對ChatGPT的邏輯推理規(guī)則都處于信息不對稱的“算法黑箱”進階階段,由此帶來的重要問題是當(dāng)出現(xiàn)侵權(quán)后果時可能會出現(xiàn)問責(zé)困境,用戶或利益關(guān)聯(lián)方缺少有效的申訴渠道。提高生成式人工智能的算法透明度,對于提高風(fēng)險評估認(rèn)知、實現(xiàn)風(fēng)險問責(zé)、合理分配侵權(quán)責(zé)任具有重要意義。據(jù)此,建議通過立法進一步強化研發(fā)者的算法披露義務(wù),即根據(jù)風(fēng)險等級對普通應(yīng)用場景和特殊應(yīng)用場景設(shè)立不同極限的算法解釋規(guī)則。如涉及國家安全、網(wǎng)絡(luò)安全、投訴爭議等特殊場景問題,要求研發(fā)者向相關(guān)部門強制性披露算法邏輯和信息使用目的;而圍繞普通適用場景,則需要盡可能用通俗易懂的語言讓用戶知悉算法的決策規(guī)則及用戶被侵權(quán)時的申訴途徑。以算法披露義務(wù)為發(fā)力點,圍繞技術(shù)研發(fā)端、平臺監(jiān)管端、用戶端及關(guān)聯(lián)方構(gòu)建完整的風(fēng)險問責(zé)機制,對問責(zé)程序、責(zé)任主體及風(fēng)險評估事項等有完整具體的流程性規(guī)定,方能有效破解生成式人工智能引發(fā)的侵權(quán)歸責(zé)困境。

      4.3 引導(dǎo)刑事合規(guī)機制全流程介入,實現(xiàn)動態(tài)全過程風(fēng)險監(jiān)管

      除引入軟法的低成本彈性治理外,探索將刑事合規(guī)機制引入生成式人工智能運行的全過程,也是有效預(yù)防犯罪和降低追訴成本的較優(yōu)選擇。ChatGPT類生成式人工智能是一種“破壞性的創(chuàng)新”[21],為有效應(yīng)對技術(shù)風(fēng)險和外部適用風(fēng)險,明晰責(zé)任主體的權(quán)責(zé)分配,必須將生成式人工智能的研發(fā)、制造、流通、使用等視為一個完整的過程,從系統(tǒng)和全局的高度制定治理策略。將刑事合規(guī)機制引入生成式人工智能運行的全過程不是簡單地幫助企業(yè)規(guī)避刑事犯罪風(fēng)險,而是將犯罪預(yù)防與刑法規(guī)定的情境有機融合,引導(dǎo)企業(yè)通過合規(guī)機制建設(shè)融入國家和社會治理之中,形成多元協(xié)同治理的新格局,達到預(yù)防犯罪和降低追訴成本的功效。誠如貝卡利亞所言:“預(yù)防犯罪比懲罰犯罪更高明,它引導(dǎo)人們最大限度享受幸?;蛘哒f最大限度減少人們可能遭遇的不幸?!盵22]

      引導(dǎo)刑事合規(guī)機制介入生成式人工智能全過程,重點需要強化的是平臺方和企業(yè)研發(fā)者的責(zé)任共擔(dān)意識,區(qū)分刑事風(fēng)險的已知樣態(tài)和未知情況,結(jié)合刑法擬定的具體場景完善刑事合規(guī)建設(shè)。實踐中重點需要處理好三方面的問題:一是正確處理源頭企業(yè)和平臺方的風(fēng)險責(zé)任關(guān)系。它需要企業(yè)在研發(fā)階段建立相應(yīng)的數(shù)據(jù)合規(guī)制度,通過對算法的適度備案向公眾披露技術(shù)風(fēng)險;同時,為防止生成內(nèi)容流通使用后引發(fā)的系統(tǒng)疊加風(fēng)險,需要強化平臺監(jiān)管方的“看門人”義務(wù),從事前防范、事中化解、事后改進相結(jié)合的角度強化合規(guī)建設(shè),督促企業(yè)通過采取必要和可期待的措施預(yù)防自身受到刑事追訴和刑罰處罰,從源頭上降低人工智犯罪風(fēng)險[23]。二是強化數(shù)據(jù)安全的刑事合規(guī)審查。ChatGPT賴以運行的基礎(chǔ)是用于數(shù)據(jù)喂養(yǎng)的基礎(chǔ)語料庫和人類反饋的微調(diào)語料庫,二者共同構(gòu)成了模型訓(xùn)練的語料源頭。為實現(xiàn)數(shù)據(jù)安全的源頭性治理,刑事合規(guī)審查的首要任務(wù)便是保證原始數(shù)據(jù)和微調(diào)數(shù)據(jù)在獲取方式上是合法且可溯源的,在適用過程中程序是透明和可被監(jiān)督的,目的是一旦出現(xiàn)隱私泄露或數(shù)據(jù)侵權(quán)問題時能夠有效判斷因果關(guān)系,確認(rèn)侵權(quán)責(zé)任主體和責(zé)任承擔(dān)方式。三是重視對算法規(guī)則的審查,警惕“算法黑箱”帶來的不可預(yù)知性風(fēng)險。生成式人工智能的行為決策實質(zhì)上是由算法所決定的,如果系統(tǒng)研發(fā)過程中出現(xiàn)了算法瑕疵,可能會導(dǎo)致邏輯推理的價值偏差和生成結(jié)果的事實性錯誤,引發(fā)系統(tǒng)在非人為操縱下的自主犯罪風(fēng)險。因此,推動算法規(guī)則客觀真實性的報備披露,重視主流價值引導(dǎo)在算法研發(fā)中的基礎(chǔ)性作用,可以倒逼企業(yè)積極構(gòu)建可預(yù)測評估的算法歧視消除機制,尤其將刑事領(lǐng)域的法定義務(wù)具化到系統(tǒng)研發(fā)、流通、使用的全領(lǐng)域,通過強化刑事合規(guī)建設(shè)實現(xiàn)算法正義,避免技術(shù)研發(fā)者或服務(wù)提供者以技術(shù)中立為借口逃避侵權(quán)歸責(zé)。

      4.4 重視軟法對硬法治理的補給效能,提升犯罪治理的綜合質(zhì)效

      軟法,如技術(shù)標(biāo)準(zhǔn)指南、行業(yè)倫理規(guī)范、行業(yè)公約即政策指導(dǎo)性意見等,相對于立法程序繁瑣、滯后性和穩(wěn)定性較強的硬法而言,更契合生成式人工智能風(fēng)險治理的現(xiàn)實需求:一方面可保護科技創(chuàng)新,為技術(shù)發(fā)展留下足夠的試錯空間;另一方面可運用技術(shù)手段解決因技術(shù)問題帶來的監(jiān)管難題,打破傳統(tǒng)治理碎片化、滯后性、場景適用分散性的劣勢,形成硬法治理的有效技術(shù)補給。可以說,軟法治理作為一種靈活性的治理工具,具有程序靈活、適應(yīng)性強、可服務(wù)于多種治理場景的優(yōu)越性,可以作為硬法治理的有益補充,彌補硬法規(guī)制高成本、滯后性的治理局限,為生成式人工智能全局性、系統(tǒng)性監(jiān)管提供有益助力。

      具體而言,規(guī)范建構(gòu)的流程如下:一是要求系統(tǒng)研發(fā)者在投入運營之前,針對系統(tǒng)不同應(yīng)用事項采取差異性的風(fēng)險評估機制,強化用于數(shù)據(jù)語料庫建設(shè)的源頭信息挖掘采集方式的合法性和程序的透明性,在技術(shù)研發(fā)的前端過程中強化倫理審查和技術(shù)備案,確保算法規(guī)則的無歧視性和公正性。二是在運營階段,加強對算法監(jiān)控,尤其是強化倫理審查和數(shù)據(jù)備案的落實力度,加強對虛假信息內(nèi)容的識別和反制,為相關(guān)領(lǐng)域的犯罪評測和預(yù)防提供科學(xué)依據(jù)。三是在流通使用階段,強化平臺服務(wù)商、技術(shù)研發(fā)者、服務(wù)使用者的三方權(quán)責(zé)機制,強化倫理道德的價值引導(dǎo),尤其是對于生成內(nèi)容敏感、涉及國家社會經(jīng)濟重大決策等高風(fēng)險領(lǐng)域的技術(shù)應(yīng)用時,更加要重視使用者與開發(fā)者的信息共享,突破生成式人工智能的多元主體信息不對稱的知識壁壘,通過安全港、監(jiān)管沙盒等制度營造有利于技術(shù)發(fā)展和風(fēng)險防控的動態(tài)平衡機制。

      5 結(jié)語

      從犯罪治理的角度而言,生成式人工智能所帶來的隱私泄露、數(shù)據(jù)安全隱患、知識產(chǎn)權(quán)侵權(quán)、生產(chǎn)煽動謠言、傳授犯罪方法、制造犯罪工具等方面的風(fēng)險,只是目前能通過可知的技術(shù)邏輯可預(yù)判評估出的風(fēng)險類型,而更讓人擔(dān)憂的是,尚有諸多未知的風(fēng)險樣態(tài)正隨著人類的開發(fā)使用而處于不斷衍生之中。由于生成式人工智能的技術(shù)迭代周期較短、風(fēng)險傳導(dǎo)機制目前尚不完全明晰,加之ChatGPT超強的“學(xué)習(xí)能力”可能會為犯罪手段的優(yōu)化提供更多便利,因而對技術(shù)革新升級引發(fā)的犯罪風(fēng)險,應(yīng)在遵循技術(shù)創(chuàng)新規(guī)律的基礎(chǔ)上,構(gòu)建技術(shù)源頭風(fēng)險規(guī)制手段和衍生犯罪治理手段并行的綜合治理機制,以切實實現(xiàn)科技創(chuàng)新與風(fēng)險治理的正向互動。

      猜你喜歡
      犯罪人工智能算法
      基于MapReduce的改進Eclat算法
      Travellng thg World Full—time for Rree
      Televisions
      2019:人工智能
      商界(2019年12期)2019-01-03 06:59:05
      進位加法的兩種算法
      人工智能與就業(yè)
      數(shù)讀人工智能
      小康(2017年16期)2017-06-07 09:00:59
      下一幕,人工智能!
      一種改進的整周模糊度去相關(guān)算法
      什么是犯罪?
      金阳县| 三穗县| 白河县| 会理县| 伊宁县| 靖西县| 西昌市| 安龙县| 军事| 五台县| 井研县| 宁城县| 竹溪县| 弥渡县| 榕江县| 常州市| 工布江达县| 西吉县| 黄平县| 金门县| 闸北区| 宽城| 涿鹿县| 瑞昌市| 汝南县| 宜阳县| 富锦市| 囊谦县| 白银市| 阳曲县| 静乐县| 靖边县| 旌德县| 乐业县| 遂川县| 灌阳县| 瓦房店市| 长丰县| 仪征市| 西平县| 邹城市|