梁天一 梁謙旺 施秦 魏蘇航 蔣翠玲
摘 要:為解決傳統(tǒng)的信息隱藏技術(shù)中隱寫(xiě)容量小和隱寫(xiě)安全性低的不足,提出了利用生成式對(duì)抗網(wǎng)絡(luò)(GAN)的無(wú)載體信息隱藏方法。首先利用噪聲驅(qū)動(dòng)生成器直接生成含密圖像,然后訓(xùn)練秘密信息提取器以恢復(fù)隱藏的秘密消息。同時(shí),進(jìn)一步優(yōu)化了提取器的訓(xùn)練任務(wù),并引入冗余糾錯(cuò)編碼技術(shù)。實(shí)驗(yàn)結(jié)果表明,相比同類(lèi)方法,在大隱寫(xiě)容量的情況下,具有更高的信息提取準(zhǔn)確率,同時(shí)加快了提取器的訓(xùn)練收斂速度。
關(guān)鍵詞:信息隱藏;無(wú)嵌入隱寫(xiě);生成式對(duì)抗網(wǎng)絡(luò);糾錯(cuò)編碼
中圖分類(lèi)號(hào):TP39 ? ? ?文獻(xiàn)標(biāo)識(shí)碼:A
Abstract:A coverless information hiding method using Generative Adversarial Network (GAN) is proposed to address the shortcomings of the traditional information hiding techniques in terms of small hiding capacity and low security.Firstly, a generator is used to generate the digital imagedriven by the secret data directly. Next, the extractor for secret is trained to extracthidden information.At the same time, the training task of the extractor is further optimized and redundant error correction coding techniques are introduced. Compared with similar algorithms,at high steganography capacity,the proposed method ensures higher information extraction accuracy andfasterthe convergence speed intrainingstageofextractor.
Key words: information hiding; steganography without embedding; generative adversarial network; error correcting codes
隱寫(xiě)是信息安全領(lǐng)域的重要技術(shù)之一,它將秘密信息嵌入到載體中以形成隱秘體,從而實(shí)現(xiàn)保密通信的目的。圖像隱寫(xiě)技術(shù)大致可以分為三類(lèi):基于圖像修改的方法、基于圖像選擇的方法、基于圖像合成的方法[1]?;谳d體修改的方法通過(guò)在空域或變換域?qū)υ紙D像進(jìn)行某種修改而將秘密消息嵌入到圖像中。由于對(duì)載體進(jìn)行了修改,因而得到的隱秘圖像容易被隱寫(xiě)分析者檢測(cè)出來(lái),這類(lèi)傳統(tǒng)的隱寫(xiě)方法安全性相對(duì)較低?;趫D像選擇的方法中,發(fā)送者擁有一個(gè)固定的圖像庫(kù),將秘密信息映射成圖像庫(kù)中的新的圖像排列或組合以形成隱秘圖像。如果隱寫(xiě)分析者發(fā)現(xiàn)其映射規(guī)律仍可檢測(cè)出來(lái),而且其嵌入率較低?;趫D像合成的方法是將秘密信息直接合成于載體中,因無(wú)固定載體而傳遞秘密信息,也稱(chēng)為無(wú)載體信息隱藏,這類(lèi)方法的安全性較高。生成式對(duì)抗網(wǎng)絡(luò)(Generative Adversarial Network,GAN)[2]的出現(xiàn)使得這類(lèi)方法得到了進(jìn)一步深入的研究[1]。
1 ?相關(guān)工作
傳統(tǒng)的有載體圖像隱寫(xiě)技術(shù)易于被隱寫(xiě)分析者檢測(cè),安全性相對(duì)較低。而無(wú)載體的信息隱藏方法由與GAN的快速發(fā)展以及安全性高的特點(diǎn),近幾年得到了快速的發(fā)展。該類(lèi)方法的基本原理是將含密信息與原圖像的特征元素,比如噪點(diǎn)、顏色、像素等建立映射關(guān)系,以含密信息為驅(qū)動(dòng),生成載體圖像,從而抵御基于統(tǒng)計(jì)的隱寫(xiě)分析的檢測(cè),獲得了較高的安全性。
周等[3]提出一種基于BOW(Bag-of-words)模型的無(wú)載體信息隱藏算法。該方法使用BOW模型提取圖像的視覺(jué)關(guān)鍵詞(visual words, VM)來(lái)表達(dá)秘密信息,實(shí)現(xiàn)了信息隱藏,但是需要大量的構(gòu)建碼本,存儲(chǔ)開(kāi)銷(xiāo)大,且隱藏容量小。文獻(xiàn)[4-5]的方法避免了構(gòu)建自然圖像,采用了基于紋理圖像合成的方法實(shí)現(xiàn)信息隱藏,但該圖像由于不是“自然圖像”,容易受到攻擊方的懷疑。張等[6]的基于變換域和主題分類(lèi)的無(wú)載體圖像隱寫(xiě)算法,能夠抵抗現(xiàn)有隱寫(xiě)算法的檢測(cè),對(duì)常用圖像處理具有更好的魯棒性和抗隱寫(xiě)分析能力。劉等[7]在此基礎(chǔ)上,提出了基于輔助分類(lèi)器生成對(duì)抗網(wǎng)絡(luò)ACGAN(Auxiliary Classifier GANs)[8]的無(wú)載體信息隱藏方案,利用類(lèi)別標(biāo)簽與噪聲聯(lián)合驅(qū)動(dòng)生成載體圖像,實(shí)現(xiàn)了信息隱藏,該方案在抗隱寫(xiě)分析的檢測(cè)和安全性方面均有不錯(cuò)的表現(xiàn),但隱寫(xiě)容量低,且生成的圖像不夠清晰。胡等[9]首次提出了基于深度卷積生成對(duì)抗網(wǎng)絡(luò)DCGAN(Deep Convolutional GANs)[10]的一種新型圖像隱藏方案。該方案將秘密信息與噪聲向量建立映射關(guān)系,把預(yù)處理的秘密信息作為DCGAN的輸入,生成載體圖像,接收方利用卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks,CNN)的提取器實(shí)現(xiàn)秘密信息的恢復(fù)。相比文獻(xiàn)[7],胡[9]的方法隱寫(xiě)后的圖像質(zhì)量更高,安全性更好。張等[11]進(jìn)一步提出了一種綜合語(yǔ)義和生成對(duì)抗網(wǎng)絡(luò)的隱寫(xiě)方法。該方法實(shí)現(xiàn)了秘密信息提取的高準(zhǔn)確率,但隱寫(xiě)容量有限。朱等[12]利用O-GAN(Orthogonal GAN)[13]代替DCGAN作為生成器,利用判別器與U型網(wǎng)絡(luò)相結(jié)合來(lái)從含密圖像中提取秘密信息,取得更高生成圖像質(zhì)量與恢復(fù)準(zhǔn)確率。
基于文獻(xiàn)[9],對(duì)其信息提取流程進(jìn)行優(yōu)化,使得在高隱寫(xiě)容量的情況下更高的秘密信息提取的準(zhǔn)確率和更快的收斂速度。同時(shí)引入了糾錯(cuò)編碼機(jī)制[14],大幅提高了信息提取的準(zhǔn)確率。
2 基于GAN的無(wú)嵌入隱寫(xiě)方法及改進(jìn)
2.1 基于DCGAN的無(wú)嵌入隱寫(xiě)方法
改進(jìn)的基于DCGAN的無(wú)嵌入隱寫(xiě)方法分為三個(gè)階段實(shí)現(xiàn),如圖1所示。
3 實(shí)驗(yàn)與分析
3.1 實(shí)驗(yàn)環(huán)境與數(shù)據(jù)來(lái)源
3.1.1 實(shí)驗(yàn)環(huán)境
實(shí)驗(yàn)網(wǎng)絡(luò)硬件平臺(tái)為移動(dòng)版RTX2070顯卡,32GB內(nèi)存,采用PyTorch搭建神經(jīng)網(wǎng)絡(luò)。
3.1.2 數(shù)據(jù)源
實(shí)驗(yàn)計(jì)劃在兩個(gè)數(shù)據(jù)集上進(jìn)行,分別是開(kāi)源的322像素的Cifar10[16]和642像素Celeb-A[17]數(shù)據(jù)集。
3.1.3 實(shí)驗(yàn)方法
第一階段首先通過(guò)隨機(jī)函數(shù)產(chǎn)生二項(xiàng)分布的比特流作為秘密信息S,將其按照2.2.1小節(jié)中步驟1、2的映射方法映射為z,輸入到兩個(gè)訓(xùn)練好的DCGAN模型中,得到50,000張322像素的圖像,50,000張642像素的圖像,作為信息提取器E的數(shù)據(jù)集的x,對(duì)應(yīng)的S作為數(shù)據(jù)集y。
第二階段將上一階段得到的數(shù)據(jù)集按照7:2:1比例劃分為訓(xùn)練集、驗(yàn)證集和測(cè)試集。分別在兩種方案的網(wǎng)絡(luò)上實(shí)驗(yàn)。采用胡[9]的參數(shù),設(shè)置學(xué)習(xí)率為0.0002,使用Adam優(yōu)化器,batch大小為100,將訓(xùn)練集的所有實(shí)例訓(xùn)練完一次稱(chēng)為一次訓(xùn)練,每次訓(xùn)練記錄一次訓(xùn)練集、驗(yàn)證集和測(cè)試集的損失(Loss)及準(zhǔn)確度(Acc)。E的恢復(fù)準(zhǔn)確率定義為輸出向量經(jīng)過(guò)離散化后的S'對(duì)比原S的正確率(S'與S相等的位數(shù)/S的總位數(shù)×100%)。
3.2 實(shí)驗(yàn)結(jié)果與分析
基于同一預(yù)訓(xùn)練的DCGAN的生成器,輸入相同噪聲得到一批含密圖片作為第二階段數(shù)據(jù)集,之后分別進(jìn)行文獻(xiàn)[9]中Stego→z→S與改進(jìn)后方案的Stego→S任務(wù)。通過(guò)實(shí)驗(yàn)與胡[9]的方案對(duì)比分析在不同攜帶位數(shù)σ值、不同的含密圖像大小和是否加入糾錯(cuò)編碼的條件下對(duì)秘密信息恢復(fù)準(zhǔn)確率的影響。
3.2.1 不同攜帶位數(shù)σ以及圖像大小對(duì)E的準(zhǔn)確率的影響
圖4顯示了不同σ及圖像大小對(duì)E的準(zhǔn)確率率的影響,隨著σ的增加,信息恢復(fù)的準(zhǔn)確率下降,這是由于隨著σ的增大,網(wǎng)絡(luò)輸出維度增加,恢復(fù)難度增大。同時(shí),含密圖像的像素越多,信息提取的準(zhǔn)確率越大,這是由于尺寸更大的圖像能為E提供更多的信息量。
3.2.2 在驗(yàn)證集與訓(xùn)練集上的提取器E的準(zhǔn)確率
CNN提取器E在圖像大小為642的數(shù)據(jù)集上,驗(yàn)證集與訓(xùn)練集上的Acc曲線如圖5所示。
由圖5分析可知,胡[9]的方案恢復(fù)準(zhǔn)確率是在訓(xùn)練集上的準(zhǔn)確率,高達(dá)95%以上,而交叉驗(yàn)證集的準(zhǔn)確率卻不高,σ=1時(shí)僅能達(dá)到85%左右。不過(guò)由于信息隱藏的實(shí)際應(yīng)用情況,可以針對(duì)特殊情景構(gòu)造不同的訓(xùn)練集,使得傳送的是訓(xùn)練集內(nèi)的消息,使之達(dá)到訓(xùn)練集內(nèi)恢復(fù)準(zhǔn)確率。相比原文,改進(jìn)后的方案在保持準(zhǔn)確率差距不大的情況下, 訓(xùn)練的收斂速度更快。
3.2.3 引入冗余糾錯(cuò)編碼對(duì)準(zhǔn)確率的影響
在相同數(shù)據(jù)集下,其中糾錯(cuò)碼數(shù)據(jù)集的密文長(zhǎng)度為1000×σ (bits),不使用糾錯(cuò)碼的數(shù)據(jù)集的密文長(zhǎng)度為6000×σ(bits),分別采用胡[9]中的方法與改進(jìn)后的方法進(jìn)行對(duì)比,得到在不同σ(1、2、3)情況下E的恢復(fù)準(zhǔn)確率,如表1所示。
如表1所示,隨著σ的增大,測(cè)試集的準(zhǔn)確率大幅下降,在沒(méi)有考慮糾錯(cuò)編碼時(shí),準(zhǔn)確率與胡[9]的相當(dāng)。但在胡[9]的方法中,隨著σ的增大,不同編碼的映射范圍越來(lái)越小,由E恢復(fù)得到z′,再轉(zhuǎn)換成S′的錯(cuò)誤概率會(huì)越來(lái)越大。在引入糾錯(cuò)編碼之后,改進(jìn)前后的方案的信息恢復(fù)準(zhǔn)確率都得到了大大提高。同時(shí),改進(jìn)部分提高了在σ較高的情況下的準(zhǔn)確率,這在引入糾錯(cuò)碼后更為明顯。
4 結(jié) 論
提出了一種改進(jìn)的基于GAN的無(wú)嵌入隱寫(xiě)方法,優(yōu)化了信息提取器的訓(xùn)練方法,并引入了糾錯(cuò)碼機(jī)制以提高信息恢復(fù)的準(zhǔn)確率。實(shí)驗(yàn)表明,相比原方法,該方法訓(xùn)練速度更快,實(shí)現(xiàn)方便,且在隨機(jī)噪聲攜帶秘密信息比特位數(shù)多的情況下,信息恢復(fù)準(zhǔn)確率更高。在下一步工作中,可以考慮改進(jìn)糾錯(cuò)碼的機(jī)制,采用更為先進(jìn)的糾錯(cuò)機(jī)制,還可考慮進(jìn)一步優(yōu)化提取器E的結(jié)構(gòu)。
參考文獻(xiàn)
[1]劉佳,柯彥,雷雨,等.生成對(duì)抗網(wǎng)絡(luò)在圖像隱寫(xiě)中的應(yīng)用[J].武漢大學(xué)學(xué)報(bào)(理學(xué)版),2019,65(2):139-152.
[2]GOODFELLOW I, POUGET-ABADIE J, MIRZA M, et al. Generative adversarial nets[C]. Advances in Neural Information Processing Systems. 2014: 2672-2680.
[3]周志立,曹燚,孫星明.基于圖像Bag-of-Words模型的無(wú)載體信息隱藏[J].應(yīng)用科學(xué)學(xué)報(bào),2016,34(5):527-536.
[4]XU Jia-yi, MAO Xiao-yang, JIN Xiao-gang, et al. Hidden message in a deformation-based texture[J]. The Visual Computer, 2015, 31(12): 1653-1669.
[5]WU Kuo-chen, WANG Chung-ming. Steganography using reversible texture synthesis[J]. IEEE Transactions on Image Processing, 2014, 24(1): 130-139.
[6]ZHANG Xiang, PENG Fei, LONG Min. Robust coverless image steganography based on DCT and LDA topic classification[J]. IEEE Transactions on Multimedia, 2018, 20(12): 3223-3238.
[7]劉明明,張敏情,劉佳,等.基于生成對(duì)抗網(wǎng)絡(luò)的無(wú)載體信息隱藏[J].應(yīng)用科學(xué)學(xué)報(bào),2018,36(2):371-382.
[8]ODENA A, OLAH C, SHLENS J. Conditional image synthesis with auxiliary classifier gans[C]. International Conference on Machine Learning,2017: 2642-2651.
[9]HU Dong-hui, WANG Liang, JIANG Wen-jie, et al. A novel image steganography method via deep convolutional generative adversarial networks[J]. IEEE Access, 2018, 6: 38303-38314.
[10]RADFORD A, METZ L, CHINTALA S. Unsupervised representation learning with deep convolutional generative adversarial networks[J]. arXiv preprint arXiv:1511.06434, 2015.
[11]ZHANG Zhuo, FU Guang-yuan, NI Rong-rong, et al. A generative method for steganography by cover synthesis with auxiliary semantics[J]. Tsinghua Science and Technology, 2020, 25(4): 516-527.
[12]朱翌明, 陳帆, 和紅杰, 等. 基于秘密信息驅(qū)動(dòng)的正交 GAN 信息隱藏模型[J]. 應(yīng)用科學(xué)學(xué)報(bào), 2019,37(5):721-732.
[13]SU Jian-lin. O-GAN: Extremely concise approach for auto-encoding generative adversarial networks[J]. arXiv preprint arXiv:1903.01931, 2019.
[14]宗橙. 糾錯(cuò)編碼原理和應(yīng)用[M]. 北京:電子工業(yè)出版社, 2003.
[15]馬永輝,徐長(zhǎng)勇,平西建,等.基于糾錯(cuò)碼的信息隱藏及其實(shí)現(xiàn)方法[J].計(jì)算機(jī)應(yīng)用研究,2012,29(7):2686-2689.
[16]KRIZHEVSKY A. Learning multiple layers of features from tiny images[R]. Technical Report,University of Toronto,Canada,2009.
[17]LIU Zi-wei, LUO Ping, WANG Xiao-gang, et al. Deep learning face attributes in the wild[C].Proceedings of the IEEE International Conference on Computer Vision,2015: 3730-3738.
計(jì)算技術(shù)與自動(dòng)化2021年4期