潘奕揚(yáng),許靜文
(中國(guó)刑事警察學(xué)院,遼寧 沈陽(yáng) 110035)
2022 年11 月,OpenAI 公司①OpenAI是一家成立于美國(guó)的人工智能研究公司,其主要目標(biāo)是致力于研究和實(shí)現(xiàn)安全可控的通用人工智能(AGI)技術(shù),以確保人工智能的發(fā)展和應(yīng)用符合人類的利益和福祉。正式推出了旗下的新型人工智能聊天模型ChatGPT。這款生成式AI 模型②生成式AI 是一種使用機(jī)器學(xué)習(xí)算法來(lái)生成新的、原始的、自然的數(shù)據(jù)的AI 模型。生成式AI模型不僅可以分析和理解現(xiàn)有數(shù)據(jù),還可以使用這些數(shù)據(jù)生成新的、類似于原始數(shù)據(jù)的內(nèi)容。以其出色的語(yǔ)言理解和生成能力,在推出后迅速在社交網(wǎng)絡(luò)上走紅——僅僅五天內(nèi),Chat-GPT 的用戶數(shù)量就突破了100 萬(wàn),而在兩個(gè)月內(nèi),這個(gè)數(shù)字更是輕松過(guò)億,一場(chǎng)人工智能技術(shù)革命開(kāi)始在全球范圍內(nèi)席卷而來(lái)。
受新型生成式AI模型帶來(lái)的巨大市場(chǎng)潛力刺激,一些國(guó)內(nèi)外的互聯(lián)網(wǎng)公司紛紛調(diào)整發(fā)展戰(zhàn)略,致力于開(kāi)發(fā)與之類似的產(chǎn)品或者促進(jìn)已有的產(chǎn)品與ChatGPT 模型進(jìn)行融合。2023 年3 月16 日,微軟宣布將OpenAI 公司的GPT-4 模型接入旗下的Office 產(chǎn)品,推出了一個(gè)具有全新AI 辦公協(xié)助功能的Copilot;2023 年3 月29 日,360 集團(tuán)創(chuàng)始人周鴻祎在“2023 數(shù)字安全與發(fā)展高峰論壇”中,發(fā)布了360 版的ChatGPT;2023 年4 月11 日,阿里正式推出自研大語(yǔ)言模型“通義千問(wèn)”,并邀請(qǐng)用戶參與測(cè)試……可以說(shuō),ChatGPT 模型的問(wèn)世與使用,在全球范圍內(nèi)引發(fā)了一場(chǎng)新的AI 技術(shù)大爆炸。
雖然ChatGPT 模型在網(wǎng)絡(luò)空間中得到了廣泛應(yīng)用與迅速發(fā)展,然而我國(guó)的相關(guān)部門(mén)尚未對(duì)其迅速蔓延之勢(shì)做出切實(shí)有效的反饋,對(duì)于ChatGPT 模型在應(yīng)用過(guò)程中出現(xiàn)的風(fēng)險(xiǎn)以及如何對(duì)其進(jìn)行規(guī)制尚未形成明確的治理路線。因此,我們有必要從技術(shù)層面以及國(guó)家層面作為兩個(gè)切入點(diǎn),深入研判治理的可行性,這有助于摸索出一條行之有效的網(wǎng)絡(luò)空間治理路徑。
隨著ChatGPT 模型的廣泛推廣和使用,大眾對(duì)這種新型人工智能模型的好奇心愈發(fā)強(qiáng)烈。經(jīng)過(guò)初步使用后人們驚奇地發(fā)現(xiàn),ChatGPT 模型的能力并不局限于簡(jiǎn)單的聊天服務(wù),憑借著高效的靈活性和適應(yīng)性,它能夠在不同的領(lǐng)域和場(chǎng)景中發(fā)揮專業(yè)性和優(yōu)秀的人機(jī)交互性。例如,在旅游規(guī)劃領(lǐng)域,ChatGPT 可以根據(jù)用戶提供的信息和偏好,智能地推薦旅游線路和景點(diǎn);在編寫(xiě)代碼領(lǐng)域,ChatGPT 可以生成代碼片段或提供代碼調(diào)試的建議。簡(jiǎn)而言之,作為一種具有強(qiáng)大自主學(xué)習(xí)能力的人工智能,ChatGPT 模型的應(yīng)用領(lǐng)域和發(fā)展?jié)摿υ诓粩鄶U(kuò)展和深化。
新一代人工智能技術(shù)的出現(xiàn)儼然成為了一種發(fā)展趨勢(shì)。然而,在前沿科技更新迭代的同時(shí),我們也有必要關(guān)注ChatGPT 模型在應(yīng)用過(guò)程中對(duì)網(wǎng)絡(luò)空間環(huán)境的安全帶來(lái)沖擊的風(fēng)險(xiǎn),以便及時(shí)探討對(duì)其進(jìn)行規(guī)制的可行性。一項(xiàng)新技術(shù)取得變革性突破,并不必然帶來(lái)變革性的社會(huì)影響,尤其伴隨技術(shù)本身及其應(yīng)用存在的隱患,如果處理不當(dāng)勢(shì)必影響技術(shù)的發(fā)展與應(yīng)用。[1]本文主要從ChatGPT模型應(yīng)用于互聯(lián)網(wǎng)環(huán)境中可能產(chǎn)生的一系列安全隱患這個(gè)角度開(kāi)展詳細(xì)論述。
在使用ChatGPT 模型過(guò)程中,一個(gè)很少被人們所討論、也容易被忽視的問(wèn)題就是ChatGPT 模型帶給每個(gè)人的隱私風(fēng)險(xiǎn)。根據(jù)《民法典》第一千零三十二條的規(guī)定:“隱私是自然人的私人生活安寧和不愿為他人知曉的私密空間、私密活動(dòng)、私密信息?!庇纱丝梢?jiàn),我們?cè)诨ヂ?lián)網(wǎng)上所產(chǎn)生的數(shù)據(jù)隱私也從屬于我國(guó)民法界定的隱私的范疇。
近日,國(guó)外互聯(lián)網(wǎng)公司谷歌正式推出了自己的對(duì)話式人工智能Bard 作為與ChatGPT 對(duì)抗的產(chǎn)品。不難窺見(jiàn),各互聯(lián)網(wǎng)公司在未來(lái)一段時(shí)間內(nèi)將會(huì)掀起跟風(fēng)狂潮,致力于人工智能研發(fā)的科技公司陷入了一場(chǎng)“軍備競(jìng)賽”。
但是一個(gè)值得關(guān)注的問(wèn)題是,這些科技公司的競(jìng)爭(zhēng)正是由我們的個(gè)人數(shù)據(jù)推動(dòng)的。換而言之,我們?cè)诨ヂ?lián)網(wǎng)上持續(xù)不斷產(chǎn)生的個(gè)人數(shù)據(jù)為ChatGPT 等新型人工智能模型的發(fā)展提供了活力。隨著互聯(lián)網(wǎng)的普及和社交媒體的盛行,人們?cè)谌粘I钪胁粩喈a(chǎn)生和留存包括搜索記錄、社交媒體信息在內(nèi)的大量個(gè)人信息。這些數(shù)據(jù)成為了科技公司在開(kāi)發(fā)人工智能技術(shù)時(shí)的重要資源,進(jìn)而用以進(jìn)行模型訓(xùn)練與優(yōu)化,提高精確度和效率。然而,它們的獲取和利用方式也引發(fā)了大眾對(duì)于人工智能時(shí)代下個(gè)人數(shù)據(jù)隱私和數(shù)據(jù)安全的擔(dān)憂和反思。任何人,只要在互聯(lián)網(wǎng)上發(fā)表過(guò)自己的觀點(diǎn)或者文章,都很有可能在不知情的情況下被ChatGPT 拿來(lái)使用,作為對(duì)某個(gè)問(wèn)題的回答輸出。
另一個(gè)風(fēng)險(xiǎn)則是在人機(jī)交互問(wèn)答過(guò)程中,我們要求ChatGPT回答問(wèn)題或執(zhí)行任務(wù)時(shí),當(dāng)用戶無(wú)意間輸入個(gè)人信息或商業(yè)秘密時(shí),ChatGPT 會(huì)瞬間捕捉并收納入庫(kù),并可能在他人的誘導(dǎo)性提問(wèn)下全盤(pán)托出。[2]也就是說(shuō),用戶包含個(gè)人數(shù)據(jù)隱私信息的問(wèn)答,很可能會(huì)被ChatGPT 收入囊中,變?yōu)樽约侯A(yù)訓(xùn)練語(yǔ)料庫(kù)中的一員,作為日后對(duì)他人提問(wèn)的響應(yīng)。
一些犯罪分子也可能會(huì)看重ChatGPT 模型高效的自然語(yǔ)言處理能力,從而用以實(shí)施違法犯罪活動(dòng)。例如,通過(guò)利用ChatGPT 模型,可以找出采集到的個(gè)人信息間的關(guān)聯(lián)性與潛在價(jià)值。比如從一個(gè)人的購(gòu)物習(xí)慣、興趣愛(ài)好與交際圈,就能推測(cè)出其經(jīng)濟(jì)情況、職業(yè)和生活方式等等。ChatGPT 等人工智能模型的出現(xiàn)與普及,將我們?cè)疽呀?jīng)岌岌可危的數(shù)據(jù)隱私安全推入到更深的風(fēng)暴之中。
盡管能生成高質(zhì)量的輸出,但由于ChatGPT模型進(jìn)行的是無(wú)監(jiān)督式預(yù)訓(xùn)練,學(xué)習(xí)過(guò)程不受人類監(jiān)督,事先獲取的信息也難以得到過(guò)濾與篩選,數(shù)據(jù)在源頭上就已有產(chǎn)生問(wèn)題的風(fēng)險(xiǎn)。這就會(huì)導(dǎo)致基于ChatGPT 模型生成的文章、回答會(huì)嵌入各種虛假信息,包括明顯不真實(shí)的事實(shí)、被誤導(dǎo)性描述的事實(shí)以及完全杜撰的明顯事實(shí),這些虛假的信息通常被稱為AI幻覺(jué)。據(jù)OpenAI公司稱,ChatGPT模型的知識(shí)截止于2021 年9 月,這就意味著發(fā)生在這個(gè)時(shí)間點(diǎn)以后的信息都很有可能無(wú)法被該模型精確地反映出來(lái),所以也會(huì)帶來(lái)輸出信息時(shí)效性的問(wèn)題,這在用戶使用ChatGPT模型詢問(wèn)法律法規(guī)以及查詢最新新聞時(shí)尤為明顯。而作為開(kāi)發(fā)公司的OpenAI似乎并不回避這問(wèn)題,它在官網(wǎng)寫(xiě)道:“ChatGPT 有時(shí)會(huì)寫(xiě)出看似合理但不正確或荒謬的答案。”正如一些科學(xué)家所說(shuō),這種虛實(shí)相生的“幻覺(jué)”,在涉及法律以及醫(yī)療方面等問(wèn)題時(shí)格外危險(xiǎn)。
2016 年,Christian Szegedy 等人提出了對(duì)抗樣本的概念。他們指出,由于深度學(xué)習(xí)模型對(duì)輸入數(shù)據(jù)高度敏感,利用故意設(shè)計(jì)的、難以察覺(jué)的對(duì)抗噪聲,可以任意欺騙深度學(xué)習(xí)模型并影響最終預(yù)測(cè)結(jié)果。[3]Nature 雜志更是在2019 年發(fā)表的文章中指出了對(duì)抗樣本的普遍存在以及深度學(xué)習(xí)模型的脆弱性。基于此,一旦對(duì)抗樣本被用于ChatGPT 模型中,便會(huì)從人為的角度導(dǎo)致虛假結(jié)果的輸出,嚴(yán)重威脅模型的可靠性和穩(wěn)定性。對(duì)抗樣本的概念演示如圖1 所示。
圖1 對(duì)抗樣本概念演示圖
根據(jù)圖1,可以將對(duì)抗樣本定義為如下公式①式中:為神經(jīng)網(wǎng)絡(luò);x 為原始數(shù)據(jù)樣本adv 為含有對(duì)抗噪聲的對(duì)抗樣本;y 為x 的類別標(biāo)簽;為x 與adv 之間的差別距離足夠小,但是? 對(duì)adv 進(jìn)行了錯(cuò)誤分類;為一個(gè)極小的衡量噪聲大小的數(shù)值。:
近日,特斯拉創(chuàng)始人埃隆·馬斯克以及數(shù)千名計(jì)算機(jī)科學(xué)家聯(lián)名呼吁暫停有關(guān)ChatGPT 模型的開(kāi)發(fā)至少六個(gè)月以上。他們警告說(shuō),在近幾個(gè)月,人工智能研發(fā)者們?yōu)榱碎_(kāi)發(fā)和部署更強(qiáng)大的AI模型,陷入了一場(chǎng)失控的競(jìng)賽。[4]這些模型已經(jīng)變得無(wú)法被包括它們的創(chuàng)造者在內(nèi)的任何人所理解、預(yù)測(cè)或控制,生成的虛假信息極有可能給網(wǎng)絡(luò)生態(tài)環(huán)境帶來(lái)深遠(yuǎn)的災(zāi)難。
現(xiàn)如今,我們已正式跨入新媒體時(shí)代,新媒體的出現(xiàn)不僅打破了傳統(tǒng)媒體的信息傳播模式,而且還形成了獨(dú)特的信息生產(chǎn)與傳播范式。新媒體時(shí)代除了專業(yè)媒體的信息生產(chǎn)外,更多的海量“微信息”產(chǎn)生在微博、微信、微視頻等網(wǎng)絡(luò)平臺(tái),并以幾何速度向外發(fā)酵擴(kuò)散。[5]這些信息憑借自身優(yōu)秀的靈活性可以方便地進(jìn)行發(fā)布,再加上各個(gè)平臺(tái)之間自由的評(píng)論、轉(zhuǎn)發(fā)和分享機(jī)制,進(jìn)一步推動(dòng)了信息的分化、傳播和社會(huì)影響。在此背景下,一旦犯罪分子將ChatGPT 模型用于虛假信息的生成,那么影響將是空前的。眾多具有針對(duì)性的虛假信息在短時(shí)間內(nèi)能在互聯(lián)網(wǎng)上進(jìn)行快速擴(kuò)散,頃刻間便能充斥整個(gè)網(wǎng)絡(luò)。虛假信息帶有很強(qiáng)的操縱性和誤導(dǎo)性,可以輕易撼動(dòng)公眾的主觀判斷與決策。當(dāng)不知情的網(wǎng)民看到那些符合他們主觀意愿的虛假信息后,加上個(gè)人情感的渲染與二次加工,會(huì)在不經(jīng)意間成為其傳播的幫兇,極易造成輿情異化,產(chǎn)生次生輿情。次生輿情在傳播的過(guò)程中,通常會(huì)將自己進(jìn)行“包裝”,再加上在二次傳播過(guò)程中,伴隨著信息失真的現(xiàn)象,很容易讓網(wǎng)絡(luò)謠言滋生、蔓延。[6]
因而,使用ChatGPT 模型等新型生成式AI 模型時(shí),我們需要謹(jǐn)慎對(duì)待結(jié)果,進(jìn)行適當(dāng)?shù)男r?yàn),以確保生成內(nèi)容的準(zhǔn)確性和可靠性。億萬(wàn)富翁馬克·庫(kù)班在接受媒體采訪時(shí)表示,我們?cè)谑褂肅hat-GPT 等人工智能工具時(shí)要格外小心,并警告說(shuō)很少有“護(hù)欄”可以幫助我們判斷事實(shí)與虛構(gòu)。[7]所以說(shuō),對(duì)使用類似于ChatGPT 的生成式AI 的用戶而言,始終保持對(duì)所生成內(nèi)容的懷疑心態(tài)將是每個(gè)人最好的財(cái)富。這樣做旨在幫助使用者以一種更加審慎的態(tài)度對(duì)待AI 生成的內(nèi)容,從而更好地規(guī)避可能出現(xiàn)的誤解或誤導(dǎo)。
國(guó)外著名網(wǎng)絡(luò)安全公司黑莓公司(Blackberry)于2 月初發(fā)布了一項(xiàng)針對(duì)1500 名信息技術(shù)專家的問(wèn)卷調(diào)查,其中74%的人表示他們擔(dān)心ChatGPT 會(huì)助長(zhǎng)網(wǎng)絡(luò)犯罪。[8]這種擔(dān)憂并不是空穴來(lái)潮。ChatGPT 模型因其出色的語(yǔ)言處理與文字生成能力,暴露出被不法分子濫用進(jìn)而用于從事網(wǎng)絡(luò)犯罪的風(fēng)險(xiǎn),例如編寫(xiě)釣魚(yú)郵件和惡意程序。相較于傳統(tǒng)的犯罪活動(dòng),這種新型互聯(lián)網(wǎng)犯罪的犯罪工具得到了顯著提升,使得犯罪活動(dòng)更加隱匿,為未來(lái)互聯(lián)網(wǎng)的治理與監(jiān)管帶來(lái)前所未有的挑戰(zhàn)。
作為生成式AI,ChatGPT 可以利用其強(qiáng)大的文字生成能力,根據(jù)犯罪嫌疑人提供的關(guān)鍵字,在短時(shí)間內(nèi)生成具有指向性的惡意程序或者釣魚(yú)郵件,進(jìn)而實(shí)施網(wǎng)絡(luò)攻擊。釣魚(yú)郵件是一種典型的社會(huì)工程學(xué)攻擊手段,區(qū)別于其他的網(wǎng)絡(luò)安全攻擊事件和手段,它通過(guò)偽造親朋好友、合作伙伴、同事領(lǐng)導(dǎo)等身份,向被攻擊方發(fā)送惡意郵件,誘導(dǎo)被攻擊方點(diǎn)擊郵件鏈接或者下載運(yùn)行附件,從而完成病毒木馬的傳播或者進(jìn)行間接網(wǎng)絡(luò)詐騙。[9]惡意程序通常指使用不正規(guī)攻擊法訪問(wèn)計(jì)算設(shè)備入口,竊取個(gè)人信息或機(jī)密數(shù)據(jù)的程序,常常引發(fā)嚴(yán)重的網(wǎng)絡(luò)安全危機(jī)。[10]雖然這兩種傳統(tǒng)犯罪手段一直存在,但是ChatGPT 模型的出現(xiàn)無(wú)疑為它們提供了升級(jí)渠道。
以傳統(tǒng)的釣魚(yú)郵件為例,不難發(fā)現(xiàn),大部分釣魚(yú)郵件都存在著語(yǔ)法以及用詞不當(dāng)?shù)娜毕?,這極有可能是犯罪組織從事境外運(yùn)作所造成的,組織中的犯罪分子不一定使用母語(yǔ)編寫(xiě)電子郵件,因而導(dǎo)致了語(yǔ)句的生疏與不連貫性。但是隨著ChatGPT 模型的出現(xiàn),很可能意味著釣魚(yú)郵件的成功概率得到了提升。ChatGPT 能夠根據(jù)用戶的輸入提示生成高度真實(shí)的文本,犯罪分子與受害人之間的語(yǔ)言隔閡被成功打破,犯罪效率大大提升。例如,一些釣魚(yú)網(wǎng)站以及應(yīng)用程序利用ChatGPT 作為誘餌,模擬OpenAI 的官網(wǎng),仿造ChatGPT 推出免費(fèi)的聊天機(jī)器人服務(wù),引誘用戶點(diǎn)擊鏈接或下載文件。這樣就可能會(huì)給使用者的個(gè)人信息、信用卡資料,甚至是手機(jī)的安全性帶來(lái)危險(xiǎn)。更為關(guān)鍵的一點(diǎn)是,釣魚(yú)郵件的背景可以根據(jù)犯罪分子的不同需求進(jìn)行輕松調(diào)整,從賬戶驗(yàn)證到銀行通知再到商業(yè)機(jī)密泄露等等。這種多變的特性讓釣魚(yú)郵件成為了一種極具威脅的網(wǎng)絡(luò)安全攻擊方式。
有些犯罪分子可能會(huì)以一種繞過(guò)ChatGPT 限制的方式,生成惡意程序。比如能夠接受英文命令的反向shell①反向shell是一種常見(jiàn)的網(wǎng)絡(luò)攻擊技術(shù),用于通過(guò)遠(yuǎn)程控制方式接管受攻擊計(jì)算機(jī)的控制權(quán),從而在未經(jīng)授權(quán)的情況下執(zhí)行惡意操作?;蛘吣軌蚋`取用戶數(shù)據(jù)的信息竊取器。這些惡意程序可能會(huì)通過(guò)偽裝成合法的電子郵件、網(wǎng)站或者文件來(lái)傳播給目標(biāo)用戶。國(guó)外一家名為Check Point 的軟件公司的研究人員發(fā)現(xiàn),與同樣由OpenAI 開(kāi)發(fā)的自然語(yǔ)言轉(zhuǎn)代碼系統(tǒng)Codex 結(jié)合起來(lái),ChatGPT 模型就可以用來(lái)開(kāi)發(fā)和注入惡意代碼。該公司的科研團(tuán)隊(duì)已經(jīng)構(gòu)建出了一條由釣魚(yú)郵件到包含有惡意代碼的Excel 文件的完整鏈條,并且他們也可以將所有的惡意程序都編入成一個(gè)可執(zhí)行文件,最后在計(jì)算機(jī)上運(yùn)行。[11]為了侵入用戶的在線賬戶,犯罪分子也可以利用ChatGPT,輸入事先獲得的用戶個(gè)人信息,進(jìn)而生成眾多用戶名和密碼的組合,以此進(jìn)行“撞庫(kù)”攻擊,這會(huì)給網(wǎng)絡(luò)空間安全帶來(lái)極大的安全隱患。
在現(xiàn)實(shí)生活中,以ChatGPT 模型為代表的新型生成式AI 日益興起,相關(guān)行業(yè)的發(fā)展正如火如荼。這是當(dāng)前人工智能技術(shù)發(fā)展的必然趨勢(shì),也代表著新的生產(chǎn)力和發(fā)展方向。通過(guò)對(duì)ChatGPT模型底層邏輯的深入解析,我們不難發(fā)現(xiàn),該模型的功能實(shí)現(xiàn)離不開(kāi)深度合成技術(shù)②深度合成技術(shù)是指利用深度學(xué)習(xí)、虛擬現(xiàn)實(shí)等生成合成類算法制作文本、圖像、音頻、視頻、虛擬場(chǎng)景等網(wǎng)絡(luò)信息的技術(shù)。的支持。在實(shí)際應(yīng)用中ChatGPT 所暴露出的問(wèn)題,某種程度上可以歸因于該項(xiàng)技術(shù)的存在。因此,對(duì)深度合成技術(shù)進(jìn)行深入了解并及時(shí)采取規(guī)制措施,有助于提前規(guī)避相關(guān)風(fēng)險(xiǎn),推動(dòng)網(wǎng)絡(luò)生態(tài)環(huán)境向著綠色、健康的方向發(fā)展。
數(shù)據(jù)安全是保護(hù)數(shù)字信息在其整個(gè)生命周期內(nèi)不受未經(jīng)授權(quán)的訪問(wèn)、損壞或盜竊的安全保護(hù)行為,包含信息安全的各個(gè)方面。[12]如何在數(shù)字化時(shí)代保證數(shù)據(jù)的安全成為了一個(gè)極具挑戰(zhàn)性的任務(wù)。這就有必要建立數(shù)據(jù)規(guī)范,制定相關(guān)標(biāo)準(zhǔn),并采取相應(yīng)的措施來(lái)保障數(shù)據(jù)的安全與可靠。同時(shí)還要根據(jù)數(shù)據(jù)類型及應(yīng)用場(chǎng)景,進(jìn)行數(shù)據(jù)等級(jí)分類,確保敏感數(shù)據(jù)得到更為嚴(yán)格的保護(hù)。每當(dāng)一項(xiàng)新技術(shù)誕生之時(shí),風(fēng)險(xiǎn)與規(guī)制相生相隨,唯有建立一個(gè)涵蓋數(shù)據(jù)規(guī)范、責(zé)任導(dǎo)向、權(quán)利保障以及技術(shù)培育的完整體系,ChatGPT 的技術(shù)應(yīng)用才能被納入到一個(gè)安全可控的范圍之內(nèi)。[13]
當(dāng)前,隨著數(shù)據(jù)安全上升到國(guó)家主權(quán)安全層面,數(shù)據(jù)分類分級(jí)制度已經(jīng)成為國(guó)家數(shù)據(jù)治理的必然選擇。[14]數(shù)據(jù)分級(jí)分類制度是指將數(shù)據(jù)按照一定的標(biāo)準(zhǔn)進(jìn)行分類、分級(jí)管理從而更好地保護(hù)數(shù)據(jù)安全,與此同時(shí)依照數(shù)據(jù)的敏感程度和價(jià)值程度,對(duì)不同等級(jí)的數(shù)據(jù)實(shí)施不同的管理和保護(hù)措施。究其本質(zhì),ChatGPT 模型作為一款基于深度合成技術(shù)的聊天機(jī)器人,它所處理的數(shù)據(jù)源自于各種不同的網(wǎng)絡(luò)平臺(tái)和應(yīng)用程序。這些數(shù)據(jù)在被用于ChatGPT 模型訓(xùn)練和文本生成時(shí),可能產(chǎn)生諸多安全隱患。因此,通過(guò)建立數(shù)據(jù)分類分級(jí)制度可以有效規(guī)范ChatGPT 模型的應(yīng)用,從源頭上保障數(shù)據(jù)安全。
我國(guó)于2021 年頒布的《中華人民共和國(guó)數(shù)據(jù)安全法》(以下簡(jiǎn)稱《數(shù)據(jù)安全法》)中已明確提出建立國(guó)家數(shù)據(jù)分類分級(jí)保護(hù)制度的初步構(gòu)想。根據(jù)第二十一條的相關(guān)規(guī)定,國(guó)家將根據(jù)數(shù)據(jù)的重要性和敏感程度,制定相應(yīng)的分級(jí)分類標(biāo)準(zhǔn)。因此為規(guī)避基于ChatGPT 模型的數(shù)據(jù)處理帶來(lái)的風(fēng)險(xiǎn),未來(lái)應(yīng)以《數(shù)據(jù)安全法》為指導(dǎo)準(zhǔn)則,以數(shù)據(jù)的類型、價(jià)值、敏感程度為依據(jù),在國(guó)家的宏觀指導(dǎo)之下對(duì)數(shù)據(jù)進(jìn)行分級(jí)分類。在中央層面,應(yīng)該建立國(guó)家數(shù)據(jù)安全工作協(xié)調(diào)機(jī)制,將數(shù)據(jù)的安全保護(hù)與分級(jí)分類列為重點(diǎn)工作。在此基礎(chǔ)上,結(jié)合相關(guān)部門(mén)與專家的研究論證,形成一套完整的數(shù)據(jù)分類與分類的總體框架與目錄,并根據(jù)國(guó)家發(fā)展戰(zhàn)略與長(zhǎng)期利益,保證協(xié)調(diào)機(jī)制的科學(xué)性與可操作性。與此同時(shí),依據(jù)法律法規(guī)的規(guī)定以及技術(shù)的發(fā)展,強(qiáng)化對(duì)各級(jí)政府主管部門(mén)的指導(dǎo)與監(jiān)督,由地方各級(jí)政府對(duì)分級(jí)分類工作的具體實(shí)施加以細(xì)化與落實(shí),確保工作的高效實(shí)施。
具體而言,可以將數(shù)據(jù)歸類為公開(kāi)數(shù)據(jù)、內(nèi)部數(shù)據(jù)和敏感數(shù)據(jù)三個(gè)級(jí)別。公開(kāi)數(shù)據(jù)是指可以公開(kāi)發(fā)布和傳播的信息,如政府公開(kāi)的文件、統(tǒng)計(jì)數(shù)據(jù)等;內(nèi)部數(shù)據(jù)是指企業(yè)或組織內(nèi)部使用的數(shù)據(jù),如人事信息、財(cái)務(wù)數(shù)據(jù)等;敏感數(shù)據(jù)是指具有商業(yè)、科技或國(guó)家安全價(jià)值的數(shù)據(jù),如商業(yè)秘密、技術(shù)資料等。首先,就公開(kāi)數(shù)據(jù)而言,由于不涉及到個(gè)人隱私及國(guó)家安全,各級(jí)政府應(yīng)當(dāng)公開(kāi)透明地進(jìn)行管理,并加強(qiáng)數(shù)據(jù)質(zhì)量控制,也可以將數(shù)據(jù)交由ChatGPT 模型用于預(yù)訓(xùn)練,從而更好地發(fā)揮ChatGPT模型在各個(gè)領(lǐng)域的效能,為社會(huì)提供更精確、更智能的服務(wù)。其次對(duì)于內(nèi)部數(shù)據(jù),應(yīng)當(dāng)強(qiáng)化數(shù)據(jù)保護(hù)措施,加強(qiáng)外部訪問(wèn)權(quán)限控制,防止數(shù)據(jù)泄露。在確保數(shù)據(jù)安全的前提下,政府可以經(jīng)過(guò)與數(shù)據(jù)所有者的協(xié)商和同意,向ChatGPT 模型開(kāi)放適當(dāng)?shù)臄?shù)據(jù)。在行業(yè)內(nèi)部數(shù)據(jù)的支持下,ChatGPT 模型可以更加專業(yè)地回答專業(yè)領(lǐng)域的問(wèn)題,提高應(yīng)答的效率和準(zhǔn)確性。最后,對(duì)于涉及到公民個(gè)人隱私與國(guó)家安全的敏感信息,需要采取更為嚴(yán)格的安全保護(hù)措施。我國(guó)于2022 年頒布的《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》中指出在深度合成技術(shù)背景下需對(duì)數(shù)據(jù)與技術(shù)進(jìn)行管理。其中,第十四條指明:“深度合成服務(wù)提供者和技術(shù)支持者應(yīng)當(dāng)加強(qiáng)訓(xùn)練數(shù)據(jù)管理,采取必要措施保障訓(xùn)練數(shù)據(jù)安全;訓(xùn)練數(shù)據(jù)包含個(gè)人信息的,應(yīng)當(dāng)遵守個(gè)人信息保護(hù)的有關(guān)規(guī)定。”據(jù)此,我們應(yīng)指明類似于ChatGPT的新型生成式AI 模型無(wú)權(quán)干涉敏感數(shù)據(jù),政府可以通過(guò)采取諸如加密傳輸、限制訪問(wèn)、實(shí)行數(shù)據(jù)備份等安全措施保障此類數(shù)據(jù)的絕對(duì)安全。通過(guò)建立安全審查機(jī)制,對(duì)申請(qǐng)使用敏感數(shù)據(jù)的機(jī)構(gòu)和個(gè)人進(jìn)行審查,確保其使用的正當(dāng)性和保密措施的有效性。
需要注意的是,無(wú)論數(shù)據(jù)的等級(jí)和類別如何,ChatGPT 模型在數(shù)據(jù)采集、處理和應(yīng)用的各個(gè)階段,必須始終遵循相關(guān)法律法規(guī),這也是保障數(shù)據(jù)安全和使用合法性的必要條件。
網(wǎng)絡(luò)空間安全治理呼吁國(guó)家在場(chǎng),網(wǎng)絡(luò)虛假信息已成為影響國(guó)家安全尤其是政治安全的重要因素。[15]深度合成技術(shù)的出現(xiàn)使得網(wǎng)絡(luò)虛假信息的制作達(dá)到了新的高度,在ChatGPT 模型的背景下,人們可以輕松生成虛假的文字、圖片、視頻等內(nèi)容,這些內(nèi)容往往帶有強(qiáng)烈的誤導(dǎo)性。習(xí)近平總書(shū)記在關(guān)于《中共中央關(guān)于全面深化改革若干重大問(wèn)題的決定》說(shuō)明中指出:“網(wǎng)絡(luò)和信息安全牽涉到國(guó)家安全和社會(huì)穩(wěn)定,是我們面臨的綜合性挑戰(zhàn)。”[16]因此如何對(duì)ChatGPT 模型的生成內(nèi)容進(jìn)行管制,已成為擺在我國(guó)面前亟待解決的重要問(wèn)題。
據(jù)2023 年4 月11 日國(guó)家互聯(lián)網(wǎng)信息辦公室關(guān)于《生成式人工智能服務(wù)管理辦法(征求意見(jiàn)稿)》中第七條的相關(guān)規(guī)定,生成式人工智能產(chǎn)品的服務(wù)者應(yīng)對(duì)其數(shù)據(jù)來(lái)源的合法性負(fù)責(zé)。據(jù)此,可以采取的一項(xiàng)措施是強(qiáng)化虛假內(nèi)容檢測(cè)技術(shù)。傳統(tǒng)的虛假信息檢測(cè)技術(shù)通常采取關(guān)鍵詞匹配和人工標(biāo)注等方式,但由于自身固有的局限性,很難對(duì)虛假信息進(jìn)行精準(zhǔn)判定。相比之下,基于深度學(xué)習(xí)的虛假內(nèi)容檢測(cè)技術(shù)具有更高的準(zhǔn)確性和可靠性。第一種方法就是利用ChatGPT 模型的生成能力,生成一些虛假內(nèi)容,再將這些內(nèi)容與真實(shí)內(nèi)容進(jìn)行對(duì)比,進(jìn)而訓(xùn)練出更加準(zhǔn)確的虛假內(nèi)容檢測(cè)模型。這種方法既可以有效地檢測(cè)虛假內(nèi)容,同時(shí)還可以增加訓(xùn)練數(shù)據(jù)的多樣性,從而提高檢測(cè)模型的魯棒性。①魯棒性(Robustness)是指系統(tǒng)或算法在各種情況下都能夠保持良好的性能表現(xiàn),不受異?;蛞馔馇闆r的影響。在機(jī)器學(xué)習(xí)和人工智能領(lǐng)域,魯棒性通常用來(lái)描述模型或算法對(duì)于數(shù)據(jù)偏移、模型泛化、攻擊和噪聲等方面的穩(wěn)定性和健壯性。具體流程如下:首先準(zhǔn)備一個(gè)包含真實(shí)內(nèi)容與虛假內(nèi)容的數(shù)據(jù)集,此數(shù)據(jù)集可通過(guò)網(wǎng)絡(luò)爬蟲(chóng)的方式從社交媒體等互聯(lián)網(wǎng)平臺(tái)獲取,并且人工標(biāo)注數(shù)據(jù)的真?zhèn)涡?;其次使用BERT②BERT(Bidirectional Encoder Representations from Transformers)是一種基于Transformers 的預(yù)訓(xùn)練語(yǔ)言模型,由Google 團(tuán)隊(duì)在2018 年提出。BERT 通過(guò)訓(xùn)練大規(guī)模的無(wú)標(biāo)注文本數(shù)據(jù),可以學(xué)習(xí)到詞語(yǔ)之間的語(yǔ)義關(guān)系,從而能夠在各種NLP 任務(wù)中表現(xiàn)出色。、GPT③GPT (Generative Pre-trained Transformer) 模型是一種基于Transformer 的預(yù)訓(xùn)練語(yǔ)言模型,由OpenAI 團(tuán)隊(duì)在2018 年提出。與BERT 模型不同,GPT 模型僅采用了單向Transformer,即只能根據(jù)前文生成后文,而不能考慮后文對(duì)前文的影響。等預(yù)訓(xùn)練模型對(duì)獲取到的數(shù)據(jù)集進(jìn)行預(yù)訓(xùn)練,得到一個(gè)基礎(chǔ)的虛假內(nèi)容檢測(cè)模型;接下來(lái),使用得到的模型對(duì)部分虛假內(nèi)容進(jìn)行提取并添加到數(shù)據(jù)集中,擴(kuò)大數(shù)據(jù)集的樣本容量;在此基礎(chǔ)上,利用已有的包含真實(shí)和虛假內(nèi)容的擴(kuò)展數(shù)據(jù)集,對(duì)預(yù)訓(xùn)練模型進(jìn)行二次訓(xùn)練,以提高該檢測(cè)模型的準(zhǔn)確性和可信性;再次,通過(guò)交叉驗(yàn)證等方式評(píng)估虛假內(nèi)容檢測(cè)模型的準(zhǔn)確率、召回率等指標(biāo),以確保模型的性能;最后就是將訓(xùn)練好的模型投入到實(shí)際場(chǎng)景進(jìn)行應(yīng)用。如圖2 所示。第二種方法是利用多模態(tài)學(xué)習(xí)的方法來(lái)識(shí)別虛假的信息。當(dāng)前,大量的虛假信息以圖片、視頻等多媒體的形式被廣泛傳播,利用多模態(tài)學(xué)習(xí)方法能夠?qū)μ摷傩畔⑦M(jìn)行更為全面的識(shí)別。多模態(tài)學(xué)習(xí)是指利用多種不同的信息來(lái)源來(lái)學(xué)習(xí)一個(gè)模型。在虛假內(nèi)容的檢測(cè)過(guò)程中,我們可以使用大量的文本、圖像、視頻作為信息源用于模型的訓(xùn)練。比如,文字描述可以和圖像或者視頻內(nèi)容進(jìn)行關(guān)聯(lián),從而更好地檢測(cè)虛假內(nèi)容。
圖2 虛假內(nèi)容檢測(cè)模型實(shí)現(xiàn)概念圖
在深度合成技術(shù)的支持下,網(wǎng)絡(luò)輿情的形成和傳播也面臨著新的挑戰(zhàn)。深度合成技術(shù)可以生成高質(zhì)量的虛假信息,從而干擾公眾對(duì)事件的判斷和評(píng)價(jià)。這直接威脅到了網(wǎng)絡(luò)生態(tài)環(huán)境的公正和健康發(fā)展。因此,對(duì)于深度合成技術(shù)的規(guī)制還應(yīng)當(dāng)從限制虛假內(nèi)容的傳播入手,在社交平臺(tái)建立虛假內(nèi)容檢測(cè)機(jī)制和處罰制度,對(duì)網(wǎng)絡(luò)輿情的形成和傳播進(jìn)行嚴(yán)格的限制。在技術(shù)規(guī)制方面,可以通過(guò)技術(shù)手段如水印、數(shù)字簽名、可追溯性等方式,對(duì)深度合成技術(shù)生成的信息進(jìn)行標(biāo)識(shí)和溯源,以增強(qiáng)信息的真實(shí)性和可信度。以具有高度敏感性與社會(huì)影響力的涉警輿情為例,警方宣發(fā)部門(mén)可以通過(guò)升級(jí)出稿機(jī)器,實(shí)現(xiàn)人機(jī)協(xié)同,根據(jù)涉警輿情事件的性質(zhì)、復(fù)雜程度、涉及領(lǐng)域等因素進(jìn)行綜合判斷,對(duì)于簡(jiǎn)單的涉警輿情信息由出稿機(jī)器完成即可。[17]對(duì)于機(jī)器產(chǎn)生的復(fù)雜輿情信息,需交由專人進(jìn)行校對(duì)、修改后,方可發(fā)布。只有這樣,才能保證官方發(fā)布的信息既有價(jià)值判斷與人性化,同時(shí)又有真實(shí)性和有效性。
因此,規(guī)范ChatGPT 模型的生成內(nèi)容,有助于防止不實(shí)信息及不當(dāng)內(nèi)容的擴(kuò)散,對(duì)保障社會(huì)及個(gè)體的合法權(quán)益具有重要意義。同時(shí)也有助于維護(hù)ChatGPT 模型自身的信譽(yù),提高在社會(huì)中的應(yīng)用價(jià)值。
網(wǎng)絡(luò)犯罪已成為當(dāng)今網(wǎng)絡(luò)生態(tài)環(huán)境的一大難題。通過(guò)對(duì)深度學(xué)習(xí)模型的訓(xùn)練,深度合成技術(shù)可以實(shí)現(xiàn)對(duì)視覺(jué)、聽(tīng)覺(jué)等信息的有效處理,從而構(gòu)建出具有真實(shí)感的虛擬世界。這項(xiàng)技術(shù)的出現(xiàn),使得諸如網(wǎng)絡(luò)詐騙、惡意代碼攻擊等網(wǎng)絡(luò)犯罪行為變得更為隱秘,這些行為都為網(wǎng)絡(luò)生態(tài)環(huán)境帶來(lái)了極大的危害??梢哉f(shuō),基于深度合成技術(shù)下的ChatGPT 模型的興起,為網(wǎng)絡(luò)生態(tài)環(huán)境的治理帶來(lái)了全新挑戰(zhàn)。
要想有效地應(yīng)對(duì)上述問(wèn)題,公安機(jī)關(guān)就必須對(duì)網(wǎng)絡(luò)犯罪進(jìn)行及時(shí)甄別,盡早地識(shí)別出可能存在的網(wǎng)絡(luò)犯罪,并采取適當(dāng)措施來(lái)防范和遏制犯罪行為。其中一個(gè)重要的方法是建立網(wǎng)絡(luò)犯罪行為識(shí)別系統(tǒng)。該系統(tǒng)利用機(jī)器學(xué)習(xí)、深度學(xué)習(xí)等技術(shù),在海量數(shù)據(jù)的基礎(chǔ)上,可以實(shí)現(xiàn)對(duì)網(wǎng)絡(luò)犯罪活動(dòng)的有效識(shí)別與定位。此系統(tǒng)的建立需要經(jīng)過(guò)以下步驟:首先是收集包括釣魚(yú)郵件、木馬病毒、惡意程序在內(nèi)的大量網(wǎng)絡(luò)犯罪行為數(shù)據(jù)作為數(shù)據(jù)集;其次對(duì)采集到的數(shù)據(jù)進(jìn)行清洗和標(biāo)注,從而確保數(shù)據(jù)的質(zhì)量與可用性;然后則是將收集到的數(shù)據(jù)轉(zhuǎn)化為可供機(jī)器識(shí)別的形式,提取出特征值;接下來(lái)使用深度學(xué)習(xí)算法對(duì)提取出的特征值進(jìn)行訓(xùn)練和學(xué)習(xí),生成對(duì)應(yīng)的模型,用于網(wǎng)絡(luò)犯罪行為的識(shí)別與定位;最后將模型嵌入到網(wǎng)絡(luò)環(huán)境中,進(jìn)而可以實(shí)現(xiàn)對(duì)網(wǎng)絡(luò)犯罪行為的實(shí)時(shí)識(shí)別與定位,提高網(wǎng)絡(luò)的安全性。(如圖3)此犯罪識(shí)別系統(tǒng)的構(gòu)建可以通過(guò)多種技術(shù)實(shí)現(xiàn),例如,使用TensorFlow①TensorFlow 是一個(gè)由Google 開(kāi)源的深度學(xué)習(xí)框架,它支持各種機(jī)器學(xué)習(xí)算法,并提供了靈活的數(shù)據(jù)處理和模型構(gòu)建工具。通過(guò)TensorFlow,用戶可以輕松地搭建神經(jīng)網(wǎng)絡(luò)、訓(xùn)練模型、進(jìn)行推理以及進(jìn)行模型優(yōu)化等操作。、PyTorch②PyTorch 是一個(gè)基于Python 的開(kāi)源機(jī)器學(xué)習(xí)庫(kù),它提供了豐富的工具和接口,支持深度學(xué)習(xí)模型的構(gòu)建、訓(xùn)練和部署,廣泛應(yīng)用于學(xué)術(shù)界和工業(yè)界。之類的深度學(xué)習(xí)框架實(shí)現(xiàn)模型的訓(xùn)練和實(shí)現(xiàn);使用Spark③Spark 是一種開(kāi)源分布式計(jì)算系統(tǒng),主要用于大數(shù)據(jù)處理和分析。它支持多種編程語(yǔ)言和數(shù)據(jù)源,并提供了快速、可擴(kuò)展的數(shù)據(jù)處理能力。、Hadoop④Hadoop 是一個(gè)由Apache 基金會(huì)所開(kāi)發(fā)的開(kāi)源分布式計(jì)算平臺(tái)。等大數(shù)據(jù)處理技術(shù)實(shí)現(xiàn)數(shù)據(jù)的清洗、特征提取工作。同時(shí),要注重對(duì)該系統(tǒng)的隱私性和安全性進(jìn)行保護(hù),以保證不被黑客攻擊或?yàn)E用。
圖3 網(wǎng)絡(luò)犯罪行為識(shí)別系統(tǒng)實(shí)現(xiàn)概念圖
在升級(jí)技術(shù)反制措施的同時(shí),公安機(jī)關(guān)還可以對(duì)網(wǎng)絡(luò)犯罪的偵查模式、偵查手段進(jìn)行創(chuàng)新升級(jí)并加以應(yīng)用,這有益于線索獲取和證據(jù)固定。在深度合成技術(shù)背景下,網(wǎng)絡(luò)犯罪案件的線索發(fā)現(xiàn)、深入挖掘和取證分析都面臨著較大的困難。因此有必要對(duì)線索進(jìn)行全面研判,創(chuàng)新使用技戰(zhàn)法,如“按圖索驥”法,查找偵查線索和固定犯罪證據(jù),“圍點(diǎn)打援”法,擴(kuò)大數(shù)據(jù)碰撞范圍、甄別犯罪可疑;“火力覆蓋”法,窮盡一切手段進(jìn)行分析研判和摸底排隊(duì)。[18]
為有效應(yīng)對(duì)基于ChatGPT 模型的網(wǎng)絡(luò)犯罪,公安機(jī)關(guān)可以基于網(wǎng)絡(luò)開(kāi)源信息提高警情預(yù)測(cè)能力。依靠網(wǎng)絡(luò)開(kāi)源信息全面性、實(shí)時(shí)性的特點(diǎn),通過(guò)大數(shù)據(jù)技術(shù)對(duì)各種信息進(jìn)行關(guān)聯(lián)、碰撞分析就有可能發(fā)現(xiàn)潛在警情,從而及時(shí)布置警力主動(dòng)出擊消除危險(xiǎn)。[19]同時(shí)還可加強(qiáng)執(zhí)法人員的培訓(xùn)與能力提升。執(zhí)法辦案人員應(yīng)當(dāng)具備相關(guān)的技能和知識(shí),能夠熟練掌握數(shù)字取證、網(wǎng)絡(luò)溯源等多種調(diào)查和取證技術(shù)。與此同時(shí),還需掌握一定的深度合成技術(shù)的基本原理以及應(yīng)用場(chǎng)景,這樣才能更好地應(yīng)對(duì)和打擊網(wǎng)絡(luò)犯罪行為。
在信息全球化時(shí)代,人工智能的發(fā)展已經(jīng)成為推動(dòng)社會(huì)經(jīng)濟(jì)提升的重要因素。在這種情況下,傳統(tǒng)的國(guó)家安全內(nèi)涵已不再適用,而國(guó)家安全也由軍事安全等單一領(lǐng)域,上升到了包括經(jīng)濟(jì)安全、社會(huì)安全等多個(gè)領(lǐng)域在內(nèi)的總體安全。所以,我們必須秉持總體國(guó)家安全觀的理念,用前瞻性和整體性的眼光來(lái)應(yīng)對(duì)科技發(fā)展帶來(lái)的挑戰(zhàn)。
總體國(guó)家安全觀提出了“國(guó)家安全是安邦定國(guó)的重要基石”這一基本原則,旨在保障國(guó)家安全和長(zhǎng)期穩(wěn)定發(fā)展。同時(shí)強(qiáng)調(diào)了對(duì)包括科技安全、網(wǎng)絡(luò)安全在內(nèi)的非傳統(tǒng)安全的重視。因此,在探索ChatGPT模型治理路徑的過(guò)程中,我們需要從宏觀層面出發(fā),將總體國(guó)家安全觀與ChatGPT模型治理相結(jié)合,這有助于我們更好地理解ChatGPT 模型治理的重要性和必要性,從而為ChatGPT 模型的治理提供未來(lái)的展望。黨的二十大報(bào)告指出,必須更好地發(fā)揮法治固根本、穩(wěn)預(yù)期、利長(zhǎng)遠(yuǎn)的保障作用,加強(qiáng)重點(diǎn)領(lǐng)域、新興領(lǐng)域、涉外領(lǐng)域立法,加強(qiáng)重點(diǎn)行業(yè)、重點(diǎn)領(lǐng)域安全監(jiān)管。[20]針對(duì)ChatGPT模型帶來(lái)的已知或未知的各種現(xiàn)實(shí)問(wèn)題,我們需要在國(guó)家安全觀的整體視野下,提前預(yù)判并制定相應(yīng)的規(guī)制措施,摸索出一條符合中國(guó)國(guó)情的治理路徑。
針對(duì)網(wǎng)絡(luò)安全問(wèn)題,我們需要對(duì)現(xiàn)有相關(guān)的法律法規(guī)進(jìn)行修訂和完善,以保障模型在開(kāi)發(fā)、部署和維護(hù)等各個(gè)環(huán)節(jié)的安全性。這樣才能有效地預(yù)防黑客攻擊、數(shù)據(jù)泄露以及濫用等風(fēng)險(xiǎn)。目前已經(jīng)頒布實(shí)施的《網(wǎng)絡(luò)安全法》、《國(guó)務(wù)院關(guān)于印發(fā)新一代人工智能發(fā)展規(guī)劃的通知》、《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》等法律法規(guī)盡管可以擴(kuò)展至ChatGPT模型,但是仍然不夠清晰,也不夠有針對(duì)性,在時(shí)間方面也存在著滯后性的問(wèn)題。因此,有必要對(duì)現(xiàn)有的法律法規(guī)進(jìn)行修訂與完善,增加相應(yīng)的條款與司法解釋,延伸制定有關(guān)網(wǎng)絡(luò)安全問(wèn)題的特別條款,進(jìn)一步明確規(guī)定ChatGPT模型為代表的新型生成式AI 模型從開(kāi)發(fā)到應(yīng)用再到維護(hù)過(guò)程中相關(guān)參與者應(yīng)當(dāng)遵守的網(wǎng)絡(luò)安全責(zé)任,以及國(guó)家在此類模型中各項(xiàng)活動(dòng)方面的法律管轄權(quán)。
其次是個(gè)人信息保護(hù)方面的問(wèn)題。在2021 年,我國(guó)成功頒布并實(shí)施了《中華人民共和國(guó)個(gè)人信息保護(hù)法》(以下簡(jiǎn)稱《個(gè)人信息保護(hù)法》),這項(xiàng)法律明確了個(gè)人信息的定義和范圍,以及侵犯?jìng)€(gè)人信息的具體情形等內(nèi)容,在法律層面上為中國(guó)公民的個(gè)人信息提供了保護(hù)。但是從現(xiàn)實(shí)的角度來(lái)看,《個(gè)人信息保護(hù)法》仍以Web2.0 為基礎(chǔ),已不滿足當(dāng)下的Web3.0 時(shí)代,應(yīng)根據(jù)Web3.0 與ChatGPT等同類技術(shù)的發(fā)展特點(diǎn)對(duì)該法予以修訂,明確保護(hù)個(gè)人信息與隱私的基本原則。比如,要求AI 模型在收集、處理和存儲(chǔ)用戶的個(gè)人信息時(shí),要對(duì)用戶的隱私進(jìn)行嚴(yán)密的保護(hù),并對(duì)AI 模型的數(shù)據(jù)處理作出明確的規(guī)定;對(duì)于涉及用戶隱私的處理過(guò)程的AI 模型,需要有充分的透明性和可解釋性,向用戶說(shuō)明數(shù)據(jù)的收集、處理和使用方式;也可以通過(guò)增加與加強(qiáng)個(gè)人信息的脫敏和加密有關(guān)的規(guī)定,要求AI 模型在處理個(gè)人信息時(shí)使用先進(jìn)的脫敏和加密技術(shù),降低數(shù)據(jù)泄露的風(fēng)險(xiǎn);此外,我國(guó)還可以積極吸收與學(xué)習(xí)一些國(guó)外涉及到的相關(guān)法律,例如,歐盟發(fā)布《人工智能法》,宣布對(duì)ChatGPT 等新型智能系統(tǒng)實(shí)施“前瞻性”治理?xiàng)l款,我國(guó)應(yīng)在此方面加快相關(guān)工作進(jìn)度。
在社會(huì)生活中,道德起著舉足輕重的作用,道德作為基石,對(duì)于維護(hù)社會(huì)秩序、促進(jìn)和諧共處和實(shí)現(xiàn)可持續(xù)發(fā)展具有深遠(yuǎn)影響。ChatGPT 模型在道德上主要考慮的因素是訓(xùn)練數(shù)據(jù)中的偏見(jiàn),由于此模型是基于大量的文本數(shù)據(jù)集,因此在數(shù)據(jù)集中存在的任何偏見(jiàn)與歧視最終都會(huì)在模型的輸出中呈現(xiàn),這樣就很有可能會(huì)導(dǎo)致結(jié)果的不公平性與不精確性。
在社會(huì)分工日趨細(xì)密的時(shí)代背景下,社會(huì)大眾對(duì)高新技術(shù)的認(rèn)識(shí)與評(píng)價(jià)嚴(yán)重滯后,難于發(fā)揮有效的社會(huì)監(jiān)督職能。[21]而作為開(kāi)發(fā)者,他們可以說(shuō)是第一個(gè)意識(shí)到ChatGPT 技術(shù)的作用、風(fēng)險(xiǎn)以及負(fù)面影響的人,在道德上、法律上、歷史上都應(yīng)當(dāng)是第一責(zé)任人。因此,應(yīng)該積極倡導(dǎo)行業(yè)自律以及負(fù)責(zé)任研究與創(chuàng)新(Responsible Research and Innovation,簡(jiǎn)稱RRI)理念,[22]通過(guò)發(fā)揮研發(fā)者的道德自律精神,為其提供基礎(chǔ)支撐并引導(dǎo)價(jià)值觀,從而實(shí)現(xiàn)研發(fā)產(chǎn)品的最大化效益。中共中央國(guó)務(wù)院于2017 年印發(fā)的《新一代人工智能發(fā)展規(guī)劃》也指出,“在大力發(fā)展人工智能的同時(shí),必須高度重視其可能帶來(lái)的安全風(fēng)險(xiǎn)挑戰(zhàn),加強(qiáng)前瞻預(yù)防與約束引導(dǎo),最大限度降低風(fēng)險(xiǎn),確保人工智能安全、可靠、可控發(fā)展?!?/p>
在目前的法律法規(guī)體系并不完善的情況下,研發(fā)人員的責(zé)任意識(shí)、道德意識(shí)和行業(yè)自律就顯得尤為重要,他們是ChatGPT 模型誕生之初,推動(dòng)該類技術(shù)進(jìn)步的核心力量,也是人類對(duì)抗技術(shù)風(fēng)險(xiǎn)和負(fù)面影響,以及排除許多潛在危險(xiǎn)的“第一道”道德防線。一門(mén)新技術(shù)產(chǎn)生時(shí),出現(xiàn)一段時(shí)間的“灰色地帶”是在所難免的,在這個(gè)時(shí)候就需要研發(fā)機(jī)構(gòu)堅(jiān)持行業(yè)自律與承擔(dān)道德責(zé)任,加強(qiáng)行業(yè)自律機(jī)制建設(shè),不斷提升自身的道德素養(yǎng),規(guī)范行業(yè)的發(fā)展與運(yùn)營(yíng),確??蒲谢顒?dòng)的合法性、正當(dāng)性與安全性,為科研行業(yè)的健康有序發(fā)展和社會(huì)進(jìn)步貢獻(xiàn)力量。
ChatGPT 模型要實(shí)現(xiàn)持續(xù)發(fā)展與健康運(yùn)行,技術(shù)才是第一生產(chǎn)力。中共中央總書(shū)記習(xí)近平在主持學(xué)習(xí)時(shí)強(qiáng)調(diào),人工智能是新一輪科技革命和產(chǎn)業(yè)變革的重要驅(qū)動(dòng)力量,加快發(fā)展新一代人工智能是事關(guān)我國(guó)能否抓住新一輪科技革命和產(chǎn)業(yè)變革機(jī)遇的戰(zhàn)略問(wèn)題。[23]因此,為了提高我國(guó)人工智能行業(yè)在國(guó)際上的話語(yǔ)權(quán)和競(jìng)爭(zhēng)力,既要大力發(fā)展相關(guān)技術(shù),不斷突破技術(shù)瓶頸,持續(xù)為用戶帶來(lái)更好的數(shù)字化生存體驗(yàn),又要秉承“技術(shù)向善”原則,堅(jiān)持統(tǒng)籌規(guī)劃,科學(xué)布局,確保技術(shù)的發(fā)展用之于民,[24]在遵守法律法規(guī)與秉持行業(yè)自律的精神下,將相關(guān)技術(shù)引導(dǎo)朝著維護(hù)人民安全的正確方向發(fā)展,以確保給社會(huì)帶來(lái)積極作用和貢獻(xiàn),為實(shí)現(xiàn)高質(zhì)量發(fā)展提供有力支撐。
具體而言,作為語(yǔ)言模型,ChatGPT 模型的技術(shù)突破是通過(guò)對(duì)背后的深度學(xué)習(xí)算法進(jìn)行不斷改進(jìn)與優(yōu)化來(lái)實(shí)現(xiàn)的,以下是一些可能的技術(shù)突破路徑。首先,可以通過(guò)改善現(xiàn)有的模型體系結(jié)構(gòu),提高其精確度、效率和擴(kuò)展性,例如,增加層數(shù)、改進(jìn)正則化技術(shù)、優(yōu)化梯度下降算法等;其次,可以采用聯(lián)邦學(xué)習(xí)進(jìn)行算法改進(jìn)。這是一種分布式機(jī)器學(xué)習(xí)技術(shù),通過(guò)在多個(gè)設(shè)備或者機(jī)器間進(jìn)行分布式模型訓(xùn)練,將本地的局部模型參數(shù)上載到中心服務(wù)器,對(duì)其進(jìn)行聚合,以實(shí)現(xiàn)對(duì)整個(gè)模型的優(yōu)化。該方法可以最大限度地提高數(shù)據(jù)的安全性與隱私保護(hù),并且能夠更好地應(yīng)對(duì)設(shè)備數(shù)量龐大、數(shù)據(jù)分散,且具有地理位置分布的情況;此外,還可以進(jìn)行多模態(tài)學(xué)習(xí),通過(guò)將不同類型的數(shù)據(jù)(如圖像、語(yǔ)音、文本等)融合起來(lái),使模型對(duì)復(fù)雜的真實(shí)世界有更好的了解,增加其適用范圍和準(zhǔn)確度。
ChatGPT 模型的誕生,正式開(kāi)啟了新型人工智能時(shí)代的大門(mén),作為一種自然語(yǔ)言處理模型,它具有極其廣泛的應(yīng)用前景,為我們的工作與生活帶來(lái)了便利。但與此同時(shí),ChatGPT 模型在應(yīng)用過(guò)程中對(duì)社會(huì)造成了一些潛在的負(fù)面影響,暗中沖擊著現(xiàn)有的法律法規(guī)。針對(duì)可能會(huì)產(chǎn)生的一系列現(xiàn)實(shí)問(wèn)題,我們應(yīng)積極采取規(guī)制措施,也要支持鼓勵(lì)技術(shù)進(jìn)步,秉持包容的態(tài)度與“技術(shù)中立”原則,不能因?yàn)榧夹g(shù)可能會(huì)帶來(lái)潛在風(fēng)險(xiǎn),就一味否定該項(xiàng)技術(shù),而是要讓技術(shù)在監(jiān)管下健康發(fā)展。
總而言之,作為一項(xiàng)新興的人工智能技術(shù),ChatGPT 模型在給人類社會(huì)提供諸多便利的同時(shí),也伴隨著不少挑戰(zhàn)。為了保證該技術(shù)的可持續(xù)和健康發(fā)展,需要在各個(gè)層面上強(qiáng)化管制,建設(shè)一個(gè)更為安全、公正和透明的數(shù)字世界。在人工智能技術(shù)日益普及的今天,我們期待一個(gè)更加成熟、穩(wěn)定的發(fā)展態(tài)勢(shì),為未來(lái)的創(chuàng)新和進(jìn)步鋪平道路。