漕文華
近日,OpenAI公司再次發(fā)布了ChatGPT的升級(jí)版GPT-4,引起了行業(yè)巨大的關(guān)注。GPT-4不僅在此前純文本輸入基礎(chǔ)上,增加了圖像輸入,而且在AI能力上也有了巨大提升,例如GPT-4通過(guò)模擬美國(guó)律師資格考試,分?jǐn)?shù)在應(yīng)試者的前10 %以內(nèi);而GPT-3.5的得分僅在90 %左右。就行業(yè)普遍關(guān)注的安全性問(wèn)題,GPT-4也進(jìn)行了相關(guān)的能力迭代,對(duì)類(lèi)似“如何制造炸彈”這樣的問(wèn)題,GPT-4給出了“拒絕提供建議”的回答。據(jù)OpenAI公司介紹:與GPT-3.5相比,GPT-4對(duì)不合規(guī)提問(wèn)請(qǐng)求的響應(yīng)傾向降低了82 %。
但研究人員在實(shí)際測(cè)試中發(fā)現(xiàn),GPT-4仍然存在回答錯(cuò)誤或違反法規(guī)的情況,并且會(huì)犯簡(jiǎn)單的推理錯(cuò)誤,對(duì)明顯的虛假性陳述過(guò)于輕信。而在通過(guò)GPT-4生成的程序代碼中,安全人員仍然能夠發(fā)現(xiàn)安全漏洞。各種跡象表明,ChatGPT對(duì)網(wǎng)絡(luò)安全領(lǐng)域的潛在影響尚難以定論,仍然需要進(jìn)一步的觀察和判斷。
國(guó)外專(zhuān)業(yè)媒體機(jī)構(gòu)VentureBeat采訪了8位資深的網(wǎng)絡(luò)安全專(zhuān)家,聽(tīng)取了他們對(duì)和類(lèi)似AI工具應(yīng)用安全性的預(yù)測(cè)。專(zhuān)家們普遍認(rèn)為:盡管生成式AI技術(shù)會(huì)降低網(wǎng)絡(luò)犯罪的進(jìn)入門(mén)檻,升級(jí)企業(yè)現(xiàn)有的風(fēng)險(xiǎn)態(tài)勢(shì),但是并不會(huì)給企業(yè)帶來(lái)新的安全威脅。通過(guò)配置具備AI知識(shí)素養(yǎng)的專(zhuān)職安全人員,企業(yè)可以有效應(yīng)對(duì)ChatGPT應(yīng)用中的安全挑戰(zhàn)。
與任何新興技術(shù)一樣,ChatGPT的廣泛應(yīng)用也是機(jī)遇和挑戰(zhàn)并存的,它可以被各種人員使用,企業(yè)組織和安全社區(qū)必須對(duì)其被利用的方式保持警惕和關(guān)注。ChatGPT具有的強(qiáng)大AI能力無(wú)疑會(huì)降低網(wǎng)絡(luò)犯罪的準(zhǔn)入門(mén)檻,使很多沒(méi)有經(jīng)驗(yàn)的攻擊者也能夠快速掌握復(fù)雜的攻擊技術(shù),甚至批量生成用于攻擊的代碼,并有效避開(kāi)現(xiàn)有的安全防護(hù)措施。因?yàn)檫@些代碼本身并無(wú)惡意,但卻被攻擊者用于投放危險(xiǎn)內(nèi)容,這也使得安全防護(hù)工作變得更有挑戰(zhàn)性。
與任何可能帶來(lái)危害的新技術(shù)創(chuàng)新一樣,企業(yè)組織在將ChatGPT應(yīng)用于實(shí)際工作之前,必須落實(shí)好相關(guān)的安全護(hù)欄和保護(hù)措施,以保護(hù)這些工具不被惡意濫用。在技術(shù)創(chuàng)新和惡意濫用之間始終需要有一條很微妙的道德界線。
目前,已經(jīng)有許多例子表明,ChatGPT可以幫助惡意攻擊者制作更具欺騙性的網(wǎng)絡(luò)釣魚(yú)郵件和惡意代碼腳本,發(fā)動(dòng)更具威脅的攻擊,甚至可以幫助攻擊者更準(zhǔn)確地查詢到用戶的弱點(diǎn)和漏洞。企業(yè)組織需要研究部署合適的控制措施,來(lái)應(yīng)對(duì)每一種可能的濫用場(chǎng)景。這其實(shí)就是網(wǎng)絡(luò)安全的本質(zhì)特點(diǎn):攻防雙方一直在動(dòng)態(tài)變化的對(duì)抗博弈中發(fā)展與演進(jìn)。
ChatGPT已經(jīng)風(fēng)靡全球,但其對(duì)網(wǎng)絡(luò)安全界的影響,我們的認(rèn)知還處于起步階段。ChatGPT標(biāo)志著人類(lèi)對(duì)AI技術(shù)的采用開(kāi)始進(jìn)入新時(shí)代,它提升了公眾對(duì)AI安全性的關(guān)注。這對(duì)安全專(zhuān)業(yè)人員意味著什么?一方面,我們看到ChatGPT可用于發(fā)起更大規(guī)模的社會(huì)工程攻擊,讓缺乏經(jīng)驗(yàn)的威脅分子能夠迅速輕松地生成迷惑性騙局;另一方面,在開(kāi)展相關(guān)的安全建設(shè)時(shí),不能忽視ChatGPT。許多安全專(zhuān)業(yè)人員已經(jīng)測(cè)試過(guò)ChatGPT,例如執(zhí)行基本的安全檢查任務(wù)、編寫(xiě)滲透測(cè)試方案、建立安全響應(yīng)流程等,到目前為止,測(cè)試的結(jié)果喜憂參半。對(duì)于企業(yè)而言,應(yīng)用ChatGPT等AI工具最大的安全挑戰(zhàn)不在于這些工具本身,而是組織中是否有能夠充分了解如何構(gòu)建、使用和管理AI技術(shù)的專(zhuān)業(yè)安全人員。
雖然ChatGPT是功能強(qiáng)大的AI生成式工具模型,但這項(xiàng)技術(shù)不是獨(dú)立的工具,也無(wú)法獨(dú)立運(yùn)行。它依賴用戶輸入,并受制于訓(xùn)練它的數(shù)據(jù)。比如說(shuō),該模型生成的釣魚(yú)文本仍需要從郵件賬戶發(fā)送,并指向某個(gè)具體的目標(biāo)網(wǎng)站,這些都是可以加以分析并幫助檢測(cè)威脅的信息。
雖然ChatGPT也能夠編寫(xiě)漏洞利用的代碼和載荷,但目前的測(cè)試表明,其功能并不像最初設(shè)想的那么可怕,這些代碼已經(jīng)在互聯(lián)網(wǎng)和暗網(wǎng)論壇上唾手可得。目前的威脅檢測(cè)方法可以很容易檢測(cè)到ChatGPT編寫(xiě)的惡意軟件,只不過(guò)ChatGPT使它們更容易被沒(méi)有經(jīng)驗(yàn)的攻擊者獲取。ChatGPT不是專(zhuān)門(mén)針對(duì)漏洞利用而設(shè)計(jì)的,它會(huì)降低網(wǎng)絡(luò)犯罪分子的準(zhǔn)入門(mén)檻,但不會(huì)為犯罪團(tuán)伙帶來(lái)全新的攻擊方法。
與很多安全專(zhuān)家的擔(dān)心不同,我并不認(rèn)為企業(yè)應(yīng)用ChatGPT會(huì)帶來(lái)新的安全威脅。但是我認(rèn)為,它給網(wǎng)絡(luò)安全行業(yè)帶來(lái)的最大影響是,將擴(kuò)大、加快和助長(zhǎng)現(xiàn)有的威脅后果,特別是對(duì)傳統(tǒng)的網(wǎng)絡(luò)釣魚(yú)攻擊,ChatGPT可以為攻擊者提供更有迷惑性的釣魚(yú)郵件,這是我們現(xiàn)在不??吹降?。雖然攻擊者現(xiàn)在還只是以離線方式利用ChatGPT,但他們?cè)缤頃?huì)結(jié)合互聯(lián)網(wǎng)接入、自動(dòng)化和AI來(lái)策劃更高級(jí)釣魚(yú)攻擊或社會(huì)工程攻擊,這只需要編寫(xiě)一段腳本就可以實(shí)現(xiàn)。如果攻擊者通過(guò)自然語(yǔ)言機(jī)器人,使用分布式魚(yú)叉網(wǎng)絡(luò)釣魚(yú)工具同時(shí)攻擊數(shù)百個(gè)用戶,安全團(tuán)隊(duì)將更難應(yīng)對(duì)。
在很多情況下,如果沒(méi)有安全人員對(duì)ChatGPT的輸出結(jié)果進(jìn)行安全審核和驗(yàn)證,它造成的安全風(fēng)險(xiǎn)或許會(huì)比它給企業(yè)的幫助更要命。比如說(shuō),ChatGPT在自動(dòng)化編寫(xiě)程序代碼時(shí),難免會(huì)存在一些安全漏洞,但卻容易給企業(yè)造成一種虛假的安全感。同樣,它還可能會(huì)疏忽要檢測(cè)的網(wǎng)絡(luò)釣魚(yú)攻擊,甚至?xí)峁┮恍┎徽_或已經(jīng)過(guò)時(shí)的威脅情報(bào)。
我們認(rèn)為,在2023年將會(huì)看到更多由于ChatGPT應(yīng)用不當(dāng)導(dǎo)致的企業(yè)數(shù)據(jù)泄露或安全漏洞風(fēng)險(xiǎn),因此,為ChatGPT配置專(zhuān)職的安全管理人員是非常必要的。
我認(rèn)為,ChatGPT具有的強(qiáng)大能力,必將會(huì)成為攻、防雙方的利器,可能使用的場(chǎng)景也非常多,包括攻擊偵察、知識(shí)獲取、最佳實(shí)踐分享以及威脅情報(bào)等。雖然ChatGPT會(huì)被惡意攻擊者不斷利用,但不能因此否認(rèn)這種技術(shù)創(chuàng)新的價(jià)值和正面的應(yīng)用前景。它可以幫助企業(yè)安全團(tuán)隊(duì)成員之間更好地共享威脅情報(bào)以搜尋威脅,并及時(shí)更新防護(hù)規(guī)則和防御模型。需要反復(fù)強(qiáng)調(diào)的一點(diǎn)是,ChatGPT是一種輔助人的智能化工具,但它的本質(zhì)不是要取代人,在各種威脅調(diào)查中仍然需要人來(lái)結(jié)合上下文進(jìn)行更深入的分析。
組織在實(shí)際應(yīng)用ChatGPT時(shí),安全性將是重中之重。以下是幫助組織在2023年安全利用ChatGPT的幾個(gè)建議:
1.為ChatGPT和類(lèi)似解決方案在企業(yè)環(huán)境中的安全使用設(shè)定預(yù)期,企業(yè)要制定可接受的使用政策,列出員工可以依賴的流程、用例和數(shù)據(jù),并建立檢查機(jī)制和驗(yàn)證機(jī)制;
2.建立內(nèi)部流程,充分考慮使用自動(dòng)化解決方案的法規(guī)要求,尤其是在知識(shí)產(chǎn)權(quán)和個(gè)人隱私管理方面的要求;
3.實(shí)施技術(shù)控制措施,注意測(cè)試代碼安全性和掃描惡意載荷,確保ChatGPT生成的所有代碼都接受標(biāo)準(zhǔn)審查、不能直接復(fù)制應(yīng)用,以及配置互聯(lián)網(wǎng)過(guò)濾,以便在員工違規(guī)訪問(wèn)使用時(shí)發(fā)出警報(bào)。