劉胡君 薛宇
網(wǎng)絡(luò)空間安全是指網(wǎng)絡(luò)世界中的信息安全和網(wǎng)絡(luò)安全,是一種保護網(wǎng)絡(luò)系統(tǒng)、網(wǎng)絡(luò)數(shù)據(jù)和網(wǎng)絡(luò)信息安全的綜合性概念。隨著互聯(lián)網(wǎng)普及程度的提高,網(wǎng)絡(luò)空間已然成為繼陸??仗熘蟮牡谖褰颍瑢τ诰S護國家安全以及推動經(jīng)濟發(fā)展都具有非常重要的戰(zhàn)略意義。網(wǎng)絡(luò)技術(shù)的快速發(fā)展使得網(wǎng)絡(luò)空間安全面臨著越來越多的挑戰(zhàn),如黑客攻擊、病毒侵入、網(wǎng)絡(luò)釣魚等惡意行為,這些對個人、企業(yè)和國家的安全都造成了威脅。
ChatGPT使用自然語言處理、機器學習、深度學習等目前主流的人工智能算法,能夠?qū)W習并理解人類語言,幾乎像人類一樣進行互動交流,生成的內(nèi)容流暢自然且具有一定的邏輯性。自2022年11月發(fā)布以來,ChatGPT火速風靡全球,在教育、醫(yī)療、金融、計算機等領(lǐng)域掀起軒然大波。比爾·蓋茨多次在采訪中表示,類似于ChatGPT的人工智能技術(shù)出現(xiàn)的重要意義不亞于互聯(lián)網(wǎng)和電腦的誕生。但也有人對ChatGPT的出現(xiàn)表示了擔憂,埃隆·馬斯克認為“ChatGPT非常好用,我們離危險的強人工智能已經(jīng)不遠了”。那么ChatGPT的出現(xiàn),對于網(wǎng)絡(luò)空間安全意味著什么呢?
ChatGPT是網(wǎng)絡(luò)空間安全的一把“雙刃劍”。實踐證明,ChatGPT會給網(wǎng)絡(luò)安全帶來一些風險與不利影響。由于ChatGPT可以模擬真人對話,所以它能夠非常便捷地被用來進行“釣魚”等非法活動,導(dǎo)致網(wǎng)絡(luò)安全形勢出現(xiàn)了極大的復(fù)雜性與不確定性。另外,ChatGPT可能會在自我學習過程中汲取不當?shù)男畔ⅲ瑤硪欢ǖ陌踩{,出現(xiàn)網(wǎng)絡(luò)安全漏洞。具體而言,ChatGPT存在著以下幾種網(wǎng)絡(luò)安全隱患。
已有多個公司禁止員工向ChatGPT分享敏感數(shù)據(jù)
造成數(shù)據(jù)泄露。ChatGPT依托海量的數(shù)據(jù)庫存在,其隱私政策中提到會將收集到的各種用戶信息(包括用戶的賬戶信息、對話的相關(guān)內(nèi)容)共享給供應(yīng)商、服務(wù)提供商以及相關(guān)人員,在數(shù)據(jù)共享過程中可能會被未經(jīng)授權(quán)的實體攻擊,從而造成數(shù)據(jù)以及隱私泄露。由于ChatGPT無法對數(shù)據(jù)來源進行核查,可能將用戶發(fā)送的個人信息或者商業(yè)機密用于未來的模型訓練,導(dǎo)致個人隱私泄露以及商業(yè)機密泄露兩大風險。泄露的個人數(shù)據(jù)可能會被未經(jīng)授權(quán)的第三方利用,用于制造垃圾郵件、詐騙或其他惡意行為。商業(yè)機密的泄露則會給企業(yè)帶來重大損失。2023年3月,韓國三星就發(fā)生了員工在ChatGPT上輸入半導(dǎo)體設(shè)備信息以及重要內(nèi)部會議資料而導(dǎo)致商業(yè)機密泄露的事件。為了規(guī)避數(shù)據(jù)泄露風險,已有微軟、亞馬遜等企業(yè)明確禁止員工向ChatGPT分享敏感數(shù)據(jù)。
惡意用戶行為。ChatGPT所提供的API接口可以讓開發(fā)者基于其模型開發(fā)自己的應(yīng)用,如語音識別、語音合成等,而這些應(yīng)用又可以被惡意行為者攻擊計算機系統(tǒng)提供了更多的工具和數(shù)據(jù)開發(fā)方向。ChatGPT在受到攻擊后可能濫用收集到的用戶信息,在網(wǎng)絡(luò)上肆意傳播用戶的隱私,或利用用戶的個人資料進行惡意詐騙。
遭受網(wǎng)絡(luò)攻擊。ChatGPT可能存在技術(shù)失靈導(dǎo)致的網(wǎng)絡(luò)安全問題。ChatGPT往往使用軟件程序來完成指令,這種程序可能存在安全漏洞,一旦被惡意行為者利用,就可以在系統(tǒng)中收集數(shù)據(jù)、竊取隱私,甚至在系統(tǒng)中實施惡意攻擊,造成巨大的損失。2023年3月,OpenAI發(fā)布臨時中斷服務(wù)的調(diào)查報告,稱由于其開源庫中存在的漏洞,可能導(dǎo)致1.2%的用戶數(shù)據(jù)被泄露。
降低黑客門檻。ChatGPT能夠自主編寫程序代碼,這極大地降低了進行網(wǎng)絡(luò)黑客活動的準入門檻并擴大了惡意黑客的群體規(guī)模。ChatGPT采用的是自監(jiān)管訓練方式,它會自動地學習與處理輸入和輸出的文本,以此幫助用戶提供預(yù)測和解決問題的能力。ChatGPT在處理文本相關(guān)問題上的能力幾近人類水平,黑客可以使用其強大的文本處理能力執(zhí)行復(fù)雜攻擊。這些入門級網(wǎng)絡(luò)犯罪分子通過應(yīng)用ChatGPT能夠更加便捷、高效地編寫針對性代碼進行社會工程詐騙或者網(wǎng)絡(luò)釣魚活動,使得網(wǎng)絡(luò)安全形勢面臨嚴峻考驗。
傳播虛假信息。惡意行為者也可以使用ChatGPT的自然語言編寫程序批量生成具有規(guī)?;?、低成本、智能化的虛假觀點。以往大規(guī)模傳播虛假信息都是由簡單機器人創(chuàng)建新賬號,然后不停重復(fù)發(fā)送虛假信息、進行點贊評論。這種可疑的發(fā)布模式以及大量重復(fù)的內(nèi)容相對較容易被社交媒體識別并封禁,ChatGPT則可以依據(jù)特定的主題,模仿人類發(fā)表虛假觀點,甚至進行互動留言,十分難以察覺。再則,ChatGPT并不像人類一樣具有判斷力和價值觀,因此可能會回答錯誤或產(chǎn)生具有誤導(dǎo)性的信息,但ChatGPT看似“博學”“中立”的特征,會導(dǎo)致這些虛假、甚至有誤導(dǎo)性的信息被傳播。
當然,作為一款強大的人工智能工具,ChatGPT也可以成為網(wǎng)絡(luò)空間安全治理的強大賦能器,業(yè)界一些學者正在探索ChatGPT與網(wǎng)絡(luò)空間安全領(lǐng)域結(jié)合的可能性與應(yīng)用場景。它可以提升聊天機器人的語義理解能力,增加用戶的使用體驗,ChatGPT也可以通過自然語言處理技術(shù)來解決網(wǎng)絡(luò)安全問題,讓用戶更便捷地了解網(wǎng)絡(luò)安全的相關(guān)知識,從而有效提升網(wǎng)絡(luò)空間的安全性。具體來說,ChatGPT也可以從以下幾個方面提升網(wǎng)絡(luò)空間安全。
提升網(wǎng)絡(luò)安全數(shù)據(jù)分析能力。從網(wǎng)絡(luò)安全角度來看,ChatGPT 可以幫助企業(yè)實現(xiàn)更高效的網(wǎng)絡(luò)安全管理,更好地防止攻擊者進行非法入侵。ChatGPT可以通過自然語言處理技術(shù)來分析用戶的語言行為,分析網(wǎng)絡(luò)流量,幫助發(fā)現(xiàn)網(wǎng)絡(luò)內(nèi)可能的攻擊行為,建立更安全的網(wǎng)絡(luò)環(huán)境。此外,ChatGPT 還可以利用機器學習技術(shù)來快速識別可疑的攻擊者行為,從而做出更早的反應(yīng),有效地阻止攻擊者滲透網(wǎng)絡(luò)系統(tǒng)。
提高網(wǎng)絡(luò)空間智能化水平。ChatGPT的出現(xiàn),為網(wǎng)絡(luò)安全領(lǐng)域提供了一種新的方法,它可以促進網(wǎng)絡(luò)空間智能化,檢測和阻止惡意軟件、網(wǎng)絡(luò)攻擊和網(wǎng)絡(luò)釣魚等網(wǎng)絡(luò)安全威脅來提高網(wǎng)絡(luò)安全防護的效率和效果。ChatGPT可以通過智能分析網(wǎng)絡(luò)數(shù)據(jù),識別網(wǎng)絡(luò)攻擊的特征,從而幫助網(wǎng)絡(luò)安全人員及時發(fā)現(xiàn)網(wǎng)絡(luò)安全威脅。ChatGPT可以幫助企業(yè)更好地理解和預(yù)測用戶的行為,從而更好地檢測可疑的攻擊行為,及時采取相應(yīng)的防范措施。
增強網(wǎng)絡(luò)空間個人信息安全。ChatGPT可以幫助用戶識別潛在的安全問題,并自動對數(shù)據(jù)、網(wǎng)絡(luò)和系統(tǒng)進行安全加固,以預(yù)防攻擊或者竊取數(shù)據(jù)的情況發(fā)生。還可以利用ChatGPT來組織可以使用的語言模型對惡意軟件進行分析,通過識別出惡意軟件中常用的語言模型來及時檢測惡意軟件的各種變體。例如,Uber已經(jīng)使用ChatGPT來自動修補潛在的安全漏洞,保護用戶的個人隱私。
2023年3月,泄露事件后,OpenAI公司緊急關(guān)停了ChatGPT
近年來,自然語言處理技術(shù)的飛速發(fā)展引起了社會和行業(yè)的廣泛關(guān)注。其中,ChatGPT作為一個基于自然語言處理的人機對話系統(tǒng),被廣泛應(yīng)用于各個領(lǐng)域,包括教育、醫(yī)療、金融、客服等。然而,隨著ChatGPT的廣泛應(yīng)用,也面臨著越來越多的安全問題。為了規(guī)避ChatGPT的危險并提升其安全性,研發(fā)人員、技術(shù)實施者、監(jiān)管者以及用戶都應(yīng)當采取適當?shù)拇胧?,下面從四個方面來進行分析。
研發(fā)人員提供安全可靠的產(chǎn)品。研發(fā)人員是ChatGPT技術(shù)的開發(fā)者,由于開發(fā)ChatGPT對于算法、數(shù)據(jù)、服務(wù)器都有較高的需求,因此具備開發(fā)能力的往往是一些頭部科技企業(yè)或者技術(shù)公司。ChatGPT的研發(fā)人員可以采取以下措施來提升產(chǎn)品的安全性。第一,加強對ChatGPT的安全性測試,盡可能識別潛在安全問題,定期檢查ChatGPT的更新,及時對漏洞進行修復(fù)。第二,盡可能使數(shù)據(jù)庫的來源多樣化,對數(shù)據(jù)進行清洗以及脫敏,從而保護用戶隱私提升數(shù)據(jù)質(zhì)量。第三,增加防護措施,需要加強系統(tǒng)的密碼學機制,加強對安全漏洞的檢測和修補,提高系統(tǒng)安全性能。相較于對用戶行為進行監(jiān)督,讓研發(fā)人員從源頭對技術(shù)進行安全規(guī)范成果可能更加顯著。
技術(shù)實施者確保技術(shù)合法安全使用。技術(shù)實施者是實際操作ChatGPT系統(tǒng)的人員,可以通過以下幾個方面來提升ChatGPT的安全性。第一,加強系統(tǒng)的訪問控制。在使用ChatGPT系統(tǒng)時必須對系統(tǒng)和數(shù)據(jù)的訪問進行控制,只有經(jīng)過授權(quán)的使用者才能訪問,防止未經(jīng)授權(quán)使用者進行信息泄露、竊取或非法使用。第二,在ChatGPT和用戶之間搭建安全防火墻,對內(nèi)部用戶和外部攻擊做出預(yù)警并及時采取措施,在實施ChatGPT的同時可以采取應(yīng)急避險措施,確保ChatGPT的安全可靠。第三,還應(yīng)當設(shè)置一套有效的用戶信息安全保護體系,例如采用SSL加密技術(shù)加密數(shù)據(jù)傳輸,以防止網(wǎng)絡(luò)攻擊和身份偽造。第四,對不同的數(shù)據(jù)信息進行分級管理,對垃圾信息、違法信息進行過濾,設(shè)立檢查流程來確保生成內(nèi)容的準確性。
用戶提升安全使用意識。安全防護并不能僅僅依靠安全產(chǎn)品,提升用戶對Chat GP T的安全使用意識也至關(guān)重要。用戶在使用ChatGPT系統(tǒng)時也需要注意以下方面,以更好地保證其安全性。第一,用戶需要著重保護自身隱私,在使用ChatGPT的過程中,自覺保護個人隱私和數(shù)據(jù)信息的安全,特別是在一些開放網(wǎng)絡(luò)上的使用,需要設(shè)定更高的隱私保護級別。第二,提高個人安全意識,使用ChatGPT的過程中,用戶必須格外警惕網(wǎng)絡(luò)上的釣魚郵件、虛假網(wǎng)頁等安全威脅,并嚴格遵守相關(guān)使用規(guī)定和程序,嚴格保守賬號密碼和使用者身份信息。第三,用戶在工作生活中還可以通過參與網(wǎng)絡(luò)空間安全相關(guān)宣傳、培訓活動,了解ChatGPT的正確使用方法,提升安全素養(yǎng)。
監(jiān)管者建立嚴格安全審查機制。ChatGPT在廣泛應(yīng)用的過程中,需要實施良好的監(jiān)管制度,監(jiān)管者需要對ChatGP T進行以下方面的管控和監(jiān)督。第一,加強對ChatGPT的審批和監(jiān)管,因為ChatGPT涉及到大量的基礎(chǔ)性和敏感性數(shù)據(jù),可以建立嚴格的安全審查機制,在研發(fā)企業(yè)的相關(guān)產(chǎn)品投入市場之前,利用算法備案機制,對產(chǎn)品進行安全審查,杜絕惡意的信息泄露和網(wǎng)絡(luò)攻擊。第二,在教育、勞動力、醫(yī)療等領(lǐng)域設(shè)置適當?shù)氖褂靡?guī)范,加強用戶教育,確保ChatGPT能夠穩(wěn)定、安全而可靠的運行,從而更好地維護網(wǎng)絡(luò)空間的安全。
使用ChatGPT時需提高安全使用意識
網(wǎng)絡(luò)空間安全的發(fā)展對于不同的國家和地區(qū)來說具有非常大的差異,全球范圍內(nèi)的互聯(lián)網(wǎng)安全治理仍處于不斷探索和摸索的階段,各國都在積極尋求建立適合自己國情的網(wǎng)絡(luò)安全法規(guī)體系。ChatGPT可能被用于制造虛假的新聞、個人信息泄露等,這些都是極大的安全風險,對于網(wǎng)絡(luò)空間安全的保護提出了更高的要求,需要通過強有力的技術(shù)手段和規(guī)范管理來遏制這種風險。
面對ChatGPT的強大功能以及帶來的種種網(wǎng)絡(luò)空間安全隱患,一些國家以及非國家行為體也采取了相應(yīng)的措施。2023年4月,意大利政府宣布封禁ChatGPT,并限制OpenAI處理本國信息,成為世界上第一個封禁ChatGPT的國家。不久后,德國、西班牙、法國也開始采取措施,加強對于ChatGPT的監(jiān)管。2023年3月,未來生命研究所向全世界發(fā)布了一封公開信,呼吁全世界所有人工智能實驗室立即暫停比GPT-4更強大的人工智能系統(tǒng)的訓練,這封公開信獲得了埃隆·馬斯克、約書亞·本希奧、史蒂夫·沃茲尼亞克等1127名科技領(lǐng)袖人物的簽名。這些事情表明,隨著技術(shù)進步,如何平衡好科技創(chuàng)新所帶來的重大機遇與潛在風險之間的關(guān)系,是各個主體都需要考慮的問題。ChatGPT的發(fā)展也給人工智能和自然語言處理領(lǐng)域帶來了新的機遇,未來它可能會成為解決一些復(fù)雜問題的利器,需要人們持續(xù)關(guān)注其發(fā)展。