一種新工具可以讓藝術(shù)家在他們的作品中添加不可見的像素變化,如果作品上傳到網(wǎng)上,并被抓取到人工智能模型的訓(xùn)練集中,它可能會導(dǎo)致最終模型以混亂和不可預(yù)測的方式崩潰。
這款名為Nightshade的工具旨在反擊人工智能公司,這些公司在未經(jīng)創(chuàng)作者許可的情況下使用他們的作品來訓(xùn)練模型。
使用它來“毒害”這些訓(xùn)練數(shù)據(jù),可能會破壞圖像生成人工智能模型未來的迭代,包括DALL-E、Midjourney和Stable Diffusion等知名工具,其破壞方式是將模型的輸出變得無用,例如將狗變成貓,汽車變成牛等等?!堵槭±砉た萍荚u論》獲得了該研究的獨(dú)家預(yù)覽論文,該研究已提交給計(jì)算機(jī)安全會議Usenix進(jìn)行同行評審。
OpenAI、Meta、谷歌、Stability AI等人工智能公司正面臨著藝術(shù)家的大量訴訟,他們聲稱自己的版權(quán)作品和個人信息在未經(jīng)同意或補(bǔ)償?shù)那闆r下被抓取。
趙本的團(tuán)隊(duì)還開發(fā)了一款名為Glaze的工具,該工具允許藝術(shù)家“掩蓋”自己的個人風(fēng)格,以防止被人工智能公司抓取。
它的工作方式與Nightshade類似:通過以人眼看不見的微妙方式改變圖片的像素,再操縱機(jī)器學(xué)習(xí)模型將圖像里的東西解釋為錯誤的東西。
該團(tuán)隊(duì)打算將Nightshade整合到Glaze中,讓藝術(shù)家可以選擇是否使用“數(shù)據(jù)中毒”工具。該團(tuán)隊(duì)還將開源Nightshade,這將允許其他人完善它并制作他們自己的版本。
趙本說,使用它并制作定制版本的人越多,這個工具就會變得越強(qiáng)大。大型人工智能模型的數(shù)據(jù)集可能包含數(shù)十億張圖像,因此被收入模型的有毒圖像越多,該技術(shù)造成的損害就越大。
Nightshade利用了生成式人工智能模型中的一個安全漏洞,這個漏洞源于它們是在大量數(shù)據(jù)上進(jìn)行訓(xùn)練的(在這種情況下,是從互聯(lián)網(wǎng)上抓取的圖像),而Nightshade可以攪亂這些圖像。
想要在網(wǎng)上上傳作品,但又不希望自己的圖像被人工智能公司隨便收集的藝術(shù)家可以將作品上傳到Glaze,并選擇用與自己不同的藝術(shù)風(fēng)格進(jìn)行掩蓋。
他們也可以選擇使用Nightshade。一旦人工智能開發(fā)人員從互聯(lián)網(wǎng)上獲取更多數(shù)據(jù)來調(diào)整現(xiàn)有的人工智能模型或構(gòu)建新的模型,這些有毒的樣本就會進(jìn)入模型的數(shù)據(jù)集,并導(dǎo)致模型出錯。
隨著社會經(jīng)濟(jì)的發(fā)展與農(nóng)業(yè)生產(chǎn)規(guī)模的擴(kuò)大,我國馬鈴薯種植活動不斷增多,為了滿足市場需求,在種植馬鈴薯過程中,提高馬鈴薯質(zhì)量尤為重要。基于此,本文以馬鈴薯種植作為研究對象,分析種植密度與馬鈴薯農(nóng)藝性狀的關(guān)系、種植密度與馬鈴薯產(chǎn)量的關(guān)系,分別從不同土地、品種、密度控制和不同耕作方式等方面詳細(xì)闡述馬鈴薯種植密度與產(chǎn)量的有效控制技術(shù),從而提升馬鈴薯種植質(zhì)量,提高馬鈴薯產(chǎn)量。
有毒的數(shù)據(jù)樣本可以操縱模型的學(xué)習(xí)結(jié)果,例如,將帽子的圖像識別為蛋糕,將手袋的圖像視為烤面包機(jī)。被污染的數(shù)據(jù)很難刪除,因?yàn)檫@需要科技公司大費(fèi)周章地找到并刪除每個有毒的樣本。
研究人員在Stable Diffusion的最新模型和他們從頭開始訓(xùn)練的人工智能模型上測試了這種攻擊。當(dāng)他們給Stable Diffusion軟件訓(xùn)練了僅僅50張有毒的狗的照片,然后讓它自己畫狗的照片時,輸出的照片開始看起來很奇怪,變成了有太多肢體和卡通面孔的動物。
使用300個中毒樣本數(shù)據(jù)訓(xùn)練后,攻擊者就可以操縱Stable Diffusion,使狗的圖像看起來像貓。
生成式人工智能模型非常擅長在單詞之間建立聯(lián)系,這有助于“毒素”的傳播。Nightshade不僅感染了“狗”這個詞,還感染了所有類似的概念,如“小狗”“哈士奇”和“狼”。
這種攻擊也可以作用于概念相關(guān)的圖像。例如,如果模型為提示“幻想藝術(shù)”抓取了一張有毒的圖片,那么提示“龍”和“指環(huán)王中的城堡”也會被類似地操縱成其他東西。
趙本承認(rèn),人們可能會惡意使用這種數(shù)據(jù)中毒技術(shù)。然而,他表示,攻擊者需要數(shù)千個有毒樣本才能對更大、更強(qiáng)的模型造成真正的損害,因?yàn)樗鼈兪窃跀?shù)十億個數(shù)據(jù)樣本上訓(xùn)練的。
我們還不知道針對這些攻擊的強(qiáng)大防御措施。美國康奈爾大學(xué)研究人工智能模型安全的教授維塔利·什馬蒂科夫表示:“我們還沒有在現(xiàn)實(shí)世界中看到針對現(xiàn)代(機(jī)器學(xué)習(xí))模型的中毒攻擊,但這可能只是時間問題?!笔柴R蒂科夫補(bǔ)充道:“現(xiàn)在是時候加強(qiáng)防御了?!?/p>
加拿大滑鐵盧大學(xué)研究數(shù)據(jù)隱私和人工智能模型魯棒性的助理教授高塔姆·卡馬斯認(rèn)為,這項(xiàng)工作“非常棒”。他沒有參與這項(xiàng)研究。
卡馬斯說,研究表明,這些新模型的漏洞“不會神奇地消失,實(shí)際上它們只會變得更加嚴(yán)重。隨著這些模型變得越來越強(qiáng)大,人們對它們的信任也越來越高,這一點(diǎn)將變得更嚴(yán)重,因?yàn)轱L(fēng)險(xiǎn)只會隨著時間的推移而增加?!?/p>
美國哥倫比亞大學(xué)計(jì)算機(jī)科學(xué)教授楊俊鋒主要研究深度學(xué)習(xí)系統(tǒng)的安全性,但他沒有參與這項(xiàng)工作。他表示,如果Nightshade能讓人工智能公司更加尊重藝術(shù)家的權(quán)利,比如更愿意支付版稅,那么它可能會產(chǎn)生重大影響。
開發(fā)了生成式文本到圖像模型的人工智能公司,如Stability AI和OpenAI,已經(jīng)提出讓藝術(shù)家選擇不提供他們的圖片來訓(xùn)練未來版本的模型。
但藝術(shù)家們表示,這還不夠。插畫家兼藝術(shù)家伊娃·圖倫特使用過Glaze,她說選擇退出政策要求藝術(shù)家跳過各種障礙,同時仍然把所有的權(quán)力留給科技公司。
圖倫特希望Nightshade能改變現(xiàn)狀。
她說:“這會讓人工智能公司三思而后行,因?yàn)樗鼈冇锌赡茉谖唇?jīng)我們同意的情況下拿走我們的作品,但這會毀掉它們的整個模型?!?/p>
另一位藝術(shù)家奧特姆·貝芙利說,像Nightshade和Glaze這樣的工具給了她再次在網(wǎng)上發(fā)布作品的信心。在發(fā)現(xiàn)自己的作品在未經(jīng)同意的情況下被抓取到流行的LAION圖像數(shù)據(jù)庫后,她選擇了將自己的作品從網(wǎng)上刪掉。
她說:“我真的很感激有這樣一個工具,可以幫助藝術(shù)家們把處置自己作品的權(quán)力交還給他們自己?!?/p>