趙麗麗, 錢振興, 韓喜玉
上海大學(xué)通信與信息工程學(xué)院,上海200072
數(shù)字圖像自嵌入與恢復(fù)技術(shù)是圖像保護的一種有效手段,它將原始圖像的編碼和認(rèn)證數(shù)據(jù)作為水印信息嵌入到原始圖像中,以實現(xiàn)對圖像內(nèi)容的認(rèn)證與恢復(fù).該技術(shù)首先要求將秘密數(shù)據(jù)不可見地嵌入到圖像中,即保證數(shù)據(jù)嵌入對圖像質(zhì)量的影響較小.當(dāng)圖像被篡改后,其中相關(guān)區(qū)域內(nèi)容的恢復(fù)質(zhì)量、最大可恢復(fù)比例也是判斷方法有效性的重要指標(biāo).
文獻(xiàn)[1]最先提出了自嵌入方法,將圖像分成互不重疊的8×8塊,分塊后將前11個DCT系數(shù)編碼為固定長度的參考數(shù)據(jù),嵌入到圖像的最不重要位(least signif icant bits,LSB)中.該方法可保證數(shù)據(jù)隱藏對圖像質(zhì)量的影響很小,但圖像恢復(fù)的質(zhì)量較低.隨后,出現(xiàn)了多種數(shù)字圖像自嵌入方法.文獻(xiàn)[2]改進(jìn)了文獻(xiàn)[1]的方法,將系數(shù)增加到14個,并調(diào)整了位長,但圖像恢復(fù)的質(zhì)量仍較低.為了提高圖像恢復(fù)的質(zhì)量,文獻(xiàn)[3]提出了一種基于可逆隱藏的自嵌入方法,采用差異擴展算法在圖像中嵌入?yún)⒖紨?shù)據(jù),使接收端可以無損地恢復(fù)被篡改內(nèi)容,但最大恢復(fù)面積不超過原圖像的3.2%.為了提高最大恢復(fù)面積,文獻(xiàn)[4]對恢復(fù)數(shù)據(jù)進(jìn)行重復(fù)嵌入,增加了圖像成功恢復(fù)的概率.文獻(xiàn)[5]通過矢量量化對原始圖像進(jìn)行編碼,并重復(fù)4次數(shù)據(jù)嵌入,使最大篡改比達(dá)到原圖像的90%,但要附加傳輸一個碼表.近幾年的自恢復(fù)方法主要集中于靈活而自適應(yīng)方面的研究,根據(jù)圖像塊紋理復(fù)雜度確定編碼長度[6-8],以及不同篡改面積下具有不同的恢復(fù)質(zhì)量[9-10],文獻(xiàn)[6]用Inpainting的方法來恢復(fù)圖像,降低了嵌入容量,也保證了相關(guān)區(qū)域內(nèi)容的恢復(fù)質(zhì)量.文獻(xiàn)[10]提出了一種參考共享機制的自恢復(fù)算法,將提取出來的參考信息置亂后嵌入到圖像中的各個位置,有效避免了篡改巧合問題.文獻(xiàn)[11]提出了一種新的自恢復(fù)算法,將圖像自恢復(fù)問題類比為刪除信道下數(shù)據(jù)包的傳輸問題,采用噴泉編碼使相關(guān)區(qū)域內(nèi)容的恢復(fù)質(zhì)量接近37d B,最大篡改比為原圖像的50%.
上述方法雖各具優(yōu)點,但也存在不少缺點,總結(jié)起來主要有兩方面的問題.1)對篡改圖像進(jìn)行恢復(fù)時會丟掉很多細(xì)節(jié),不能保證圖像的恢復(fù)質(zhì)量,尤其是顯著性區(qū)域的恢復(fù)質(zhì)量不夠理想,如文獻(xiàn)[1-2]中提出的方法;2)不能保證水印不可見地嵌入到圖像中,如文獻(xiàn)[5,8,10-11]等都是對圖像的3個LSB位進(jìn)行替換,不但降低了含密圖像的質(zhì)量,而且在面積較大的平滑區(qū)域產(chǎn)生明顯的偽輪廓.
針對以上問題,本文提出一種基于顯著性分類的數(shù)字圖像自嵌入方法.首先根據(jù)圖像自身的特點對圖像進(jìn)行分類,包括顯著性區(qū)域、平滑區(qū)域和一般區(qū)域;然后動態(tài)決定每個區(qū)域的參考數(shù)據(jù)量和嵌入容量,在顯著性區(qū)域獲得了較高的恢復(fù)質(zhì)量,同時保證了含密圖像的質(zhì)量;最后應(yīng)用噴泉編碼對參考數(shù)據(jù)進(jìn)行編碼,避免了篡改巧合問題,增大了恢復(fù)面積.與傳統(tǒng)方法相比,本文方法既能重點保護顯著性區(qū)域,又能保證含密圖像的高質(zhì)量,且具有較大的恢復(fù)面積.
本文方法將嵌入信息分成以下3部分:1)參考數(shù)據(jù),用以重建篡改區(qū)域的原始內(nèi)容;2)位置數(shù)據(jù),用以標(biāo)定不同內(nèi)容的具體位置;3)認(rèn)證數(shù)據(jù),用以確定含密圖像是否被篡改.總體的圖像自嵌入過程如圖1所示.
圖1 圖像的自嵌入過程Figure 1 Self-embedding procedure
首先對圖像內(nèi)容進(jìn)行分類,獲得位置數(shù)據(jù),動態(tài)決定每個區(qū)域的參考數(shù)據(jù)量和嵌入容量;然后根據(jù)每個區(qū)域獲得的參考數(shù)據(jù)量對圖像進(jìn)行編碼獲得參考數(shù)據(jù),并對參考數(shù)據(jù)和位置數(shù)據(jù)進(jìn)行噴泉編碼;最后根據(jù)編碼后的數(shù)據(jù)以及原始圖像的信息產(chǎn)生認(rèn)證數(shù)據(jù),生成含密圖像.
一幅圖像中的顯著性區(qū)域是最重要的部分,因此本文方法將重點保護這些區(qū)域,使其獲得良好的恢復(fù)質(zhì)量.在很多圖像中,有諸如天空之類的大面積平滑區(qū)域,采用傳統(tǒng)方法自嵌入易導(dǎo)致偽輪廓.因此,本文將原始圖像分為包括顯著性區(qū)域、平滑區(qū)域、一般區(qū)域3種類型.
檢測顯著性區(qū)域時,采用基于DCT(discrete Cosine transform,DCT)變換的方法[14],將前景顯著性區(qū)域從背景中提取出來,也可以采用手動標(biāo)記的方法.設(shè)有原始圖像I,其大小為M×N,將圖像I縮小為(64M/N)×64大小的圖像Ir,對Ir進(jìn)行整體DCT運算,提取所有系數(shù)的符號
式中,sign(·)為符號函數(shù).對It進(jìn)行反變換,即僅通過相位信息獲得一幅新圖像
根據(jù)高斯模糊的方法確定I′t中的顯著性區(qū)域
式中,g表示大小為n1×n2的高斯低通濾波器,σ為標(biāo)準(zhǔn)方差,符號*表示卷積運算.Mp是顯著性映射圖,標(biāo)記圖像中各個區(qū)域的顯著性程度;Mp中的數(shù)值越大,則表明顯著性越強.對Mp進(jìn)行二值化,用矩形框框定面積最大的前3個顯著性區(qū)域分別記錄每個矩形的左上和右下兩個坐標(biāo).由于Ir的長為64M/N,寬為64,于是將長和寬分別用10比特和7比特來表示,則3個顯著性區(qū)域用102比特表示,另外用2比特表示顯著性區(qū)域的數(shù)目,并將上述104比特位置數(shù)據(jù)記為P1.檢測I中大面積平滑區(qū)域時用邊緣檢測的方法.用矩形框框定前3個面積最大的平滑區(qū)域,這些區(qū)域最有可能產(chǎn)生偽輪廓,標(biāo)記3個平滑區(qū)域的位置,將得到位置數(shù)據(jù)后用64/N的壓縮因子進(jìn)行壓縮,同樣以104比特位置數(shù)據(jù)來標(biāo)定,記為P2.
圖2給出了一個區(qū)域分類的具體實例,顯著性區(qū)域檢測時高斯模糊的濾波器大小為12×12,方差為2.88.圖2(a)為原始圖像,圖2(b)實線框定出的是顯著性區(qū)域的檢測結(jié)果,圖2(c)虛線框定出的是平滑區(qū)域的檢測結(jié)果.如果顯著性區(qū)域和平滑區(qū)域發(fā)生重疊,則認(rèn)為該區(qū)域是顯著性區(qū)域;如果該區(qū)域既不是顯著性區(qū)域也不是平滑區(qū)域,則認(rèn)定為一般區(qū)域.最后結(jié)果如圖1(d)所示,其中黑點區(qū)域為平滑區(qū)域,斜線區(qū)域為顯著性區(qū)域,白點區(qū)域為一般區(qū)域.經(jīng)上述處理,并且可以根據(jù)208比特的位置數(shù)據(jù)將圖像內(nèi)容分為3類分別標(biāo)定.
圖2 圖像內(nèi)容分類Figure 2 Image content classif ication
將圖像I分割成M N/64個8×8互不重疊的塊,設(shè)區(qū)域檢測的矩形框的坐標(biāo)值為(i,j),調(diào)整每個區(qū)域的坐標(biāo)值,乘以縮放因子N/64(α)映射到原始圖像的相應(yīng)位置,同時使每個區(qū)域含有整數(shù)圖像塊,其坐標(biāo)調(diào)整為(i′,j′).
統(tǒng)計每個區(qū)域的塊的數(shù)目,其中顯著性區(qū)域塊的數(shù)目為N1,平滑區(qū)域塊的數(shù)目為N2,一般區(qū)域塊的數(shù)目為N3.平滑區(qū)域和顯著性區(qū)域?qū)?個LSB位進(jìn)行信息隱藏,一般區(qū)域?qū)?個LSB位進(jìn)行信息隱藏.假設(shè)圖像總的參考數(shù)據(jù)量為C,即每個區(qū)域分配編碼長度,根據(jù)編碼長度對圖像內(nèi)容進(jìn)行壓縮編碼.平滑區(qū)域每個塊的編碼長度為P,一般區(qū)域每個塊的編碼長度為B,顯著性區(qū)域每個塊的編碼長度為F,每個塊編碼長度的最大值為189.編碼長度的分配規(guī)則如下:首先為平滑區(qū)域和一般區(qū)域中的每一塊分配編碼長度,如果平滑區(qū)域的面積不為0則分配11比特的編碼長度,如果一般區(qū)域的面積不為0則分配48比特的編碼長度;然后計算出剩余容量,即顯著性區(qū)域中的每一塊分配編碼長度,其編碼長度為
再檢測顯著性區(qū)域的編碼長度,若超過189,則檢測N1是否為0,若為0則將顯著性區(qū)域的編碼長度設(shè)為0,否則將其編碼長度設(shè)為189,然后將剩余容量分配給一般區(qū)域
最后檢測一般區(qū)域的編碼長度,經(jīng)過式(6)的重新分配后,若編碼長度超過189,則檢測N3是否為0,若為0則將一般區(qū)域的編碼長度設(shè)為0,否則將其編碼長度設(shè)為189,然后重新分配平滑區(qū)域的編碼長度
這種分配規(guī)則能使顯著性區(qū)域獲得盡可能長的編碼,并確??偟木幋a長度接近但是小于總的嵌入容量C,如果不足C比特則添0.
確定編碼長度后,對區(qū)域中的每一個塊進(jìn)行編碼.首先對每塊的LSB位清零,每個像素除8四舍五入后減16,像素值的取值范圍變?yōu)閇-16,16];然后對每塊進(jìn)行DCT變換并取整,取整后的DCT系數(shù)矩陣記為D;根據(jù)編碼長度對D按之字形排序進(jìn)行2值編碼,將所有塊編碼后生成參考數(shù)據(jù).編碼順序和每個位置的最大編碼長度如圖3所示,最長為189比特.根據(jù)分配得到的碼長,按照圖3對每個塊的DCT系數(shù)按之字形排序依次編碼,直到編碼長度等于該塊分得的碼長,若某位置的DCT系數(shù)過大而不能用該位置的碼長表示,則將該位置DCT系數(shù)編碼為該位置分得碼長所能表示的最大值.編碼結(jié)束后得到了C比特的參考數(shù)據(jù),記為R.
得到參考數(shù)據(jù)和位置數(shù)據(jù)后,要對這些數(shù)據(jù)進(jìn)行編碼,編碼的目的是避免篡改巧合問題,以獲得較大的最大恢復(fù)面積.根據(jù)圖像的原始內(nèi)容、參考數(shù)據(jù)和位置數(shù)據(jù)生成認(rèn)證數(shù)據(jù),最后將編碼后的參考數(shù)據(jù)、位置數(shù)據(jù)和認(rèn)證數(shù)據(jù)嵌入到原始圖像中,即可得到含密圖像.
圖3 參考數(shù)據(jù)編碼表Figure 3 Reference data coding table
為提高數(shù)據(jù)恢復(fù)的概率,采用噴泉編碼[12]進(jìn)行編碼,噴泉編碼是刪除信道下性能優(yōu)越的編碼方式.假設(shè)原始文件的大小為K,噴泉編碼對整個文件的包進(jìn)行異或操作,生成Z個數(shù)據(jù)包.當(dāng)接收端接收到任意Q(Q只要比原始文件的大小K大一點)個數(shù)據(jù)包時,便恢復(fù)源文件.假設(shè)信源符號為X1,X2,···,XK,每個Xk大小都有相等的比特數(shù).在每個時鐘周期,編碼器產(chǎn)生一個K階隨機二進(jìn)制矩陣GKZ
編碼器的輸出由Xk異或而成,編碼后得到輸出
根據(jù)隨機線性噴泉碼(random linear fountain,RLF),文獻(xiàn)[11]提出了一種基于自恢復(fù)模型的噴泉碼,在解碼過程中采用Yi和未篡改的Xi共同解碼,從而提高了數(shù)據(jù)恢復(fù)的概率.
應(yīng)用噴泉編碼對以上得到的208比特位置數(shù)據(jù)P1、P2和C比特恢復(fù)數(shù)據(jù)R分別進(jìn)行編碼.首先將參考數(shù)據(jù)R分解成C/32個符號,使每個符號含有32比特;然后將C/32個符號應(yīng)用文獻(xiàn)[11]提出的自恢復(fù)模型進(jìn)行編碼,設(shè)置特定密鑰,編碼效率β=1(Z=K),生成編碼數(shù)據(jù)Y,每個Yi含32比特;生成的編碼數(shù)據(jù)Y用于信息嵌入和生成認(rèn)證數(shù)據(jù),當(dāng)編碼后的符號有50%遭到破壞,仍能對原始數(shù)據(jù)進(jìn)行恢復(fù).然后對位置數(shù)據(jù)進(jìn)行編碼,首先將208比特的位置數(shù)據(jù)P1、P2分成208個符號,每個符號含有1比特;應(yīng)用傳統(tǒng)的RLF噴泉碼(因為解碼時不能重新產(chǎn)生位置數(shù)據(jù))設(shè)置特定密鑰,產(chǎn)生M N/64個符號,每個符號含有1比特.至此,共得到M N/64比特位置數(shù)據(jù)和C比特的參考數(shù)據(jù).在數(shù)據(jù)嵌入過程中,由于每個區(qū)域的嵌入容量不同,所以如果攻擊者先篡改編碼長度和嵌入容量較小的區(qū)域,得到的最大篡改比會大于50%,詳細(xì)結(jié)果見后續(xù)實驗.
數(shù)據(jù)嵌入過程中既要減小數(shù)據(jù)嵌入對原始圖像的影響,又要得到盡可能多的嵌入容量,以保證圖像的恢復(fù)質(zhì)量,所以需要動態(tài)改變每個區(qū)域的嵌入容量:在平滑區(qū)域和顯著性區(qū)域需要對1個LSB位進(jìn)行替換,每塊有64比特的嵌入容量,其中31比特用來嵌入認(rèn)證數(shù)據(jù),1比特用來嵌入位置數(shù)據(jù),32比特用來嵌入?yún)⒖紨?shù)據(jù);一般區(qū)域需要對2個LSB位進(jìn)行替換,每塊有128比特的嵌入容量,其中31比特用來嵌入認(rèn)證數(shù)據(jù),1比特用來嵌入位置數(shù)據(jù),96比特用來嵌入?yún)⒖紨?shù)據(jù).圖像總的參考數(shù)據(jù)的嵌入容量C=N1×32+N2×32+N3×96.
編碼后參考數(shù)據(jù)共C比特,C/32個符號,每個符號含有32比特,編碼后的位置數(shù)據(jù)共M N/64比特,M N/64個符號,每個符號1比特,即每塊分配1比特.將編碼后的數(shù)據(jù)按順序并根據(jù)每個塊的容量分配給每一個塊.接著產(chǎn)生認(rèn)證數(shù)據(jù),對于位于平滑區(qū)域和顯著性區(qū)域的圖像塊,將該塊7個MSB位平面的448比特原始數(shù)據(jù)、1比特位置數(shù)據(jù)、32比特參考數(shù)據(jù)和該塊在圖像中的位置標(biāo)號輸入到MD5[13]哈希函數(shù)中,設(shè)置特定密鑰,產(chǎn)生32比特的認(rèn)證數(shù)據(jù);對于一般區(qū)域的圖像塊,將該塊6個MSB位平面的384比特的原始數(shù)據(jù)、1比特位置數(shù)據(jù)、96比特參考數(shù)據(jù)和該塊在圖像中的位置標(biāo)號輸入到MD5哈希函數(shù)中,設(shè)置特定密鑰,同樣產(chǎn)生32比特的認(rèn)證數(shù)據(jù).這里取32比特的后31位作為認(rèn)證數(shù)據(jù),剩余的1比特用來嵌入位置數(shù)據(jù).至此,用得到的參考數(shù)據(jù)、認(rèn)證數(shù)據(jù)、位置數(shù)據(jù)替換每塊的LSB位,就得到了含密圖像W.
在圖像認(rèn)證過程中,含有錯誤信息的塊被稱為“篡改的塊”,否則稱為“保留的塊”.首先對圖像進(jìn)行8×8分塊,提取出來每塊的認(rèn)證數(shù)據(jù),然后根據(jù)每塊的其余數(shù)據(jù)和該塊在圖像中的位置標(biāo)號及密鑰,重新計算出該塊的認(rèn)證數(shù)據(jù),并與提取的認(rèn)證數(shù)據(jù)比較,如果一致則認(rèn)為該塊沒有被篡改,否則認(rèn)為該塊被篡改了.然后提取出位置數(shù)據(jù),根據(jù)整幅圖像的篡改檢測映射圖,進(jìn)行RLF噴泉解碼,得到各個區(qū)域的位置信息,調(diào)整得到的位置信息,乘以縮放因子N/64(α).映射到原始圖像的相應(yīng)位置,同時使每個區(qū)域含有整數(shù)圖像塊,如式(4)所示.因為位置數(shù)據(jù)共有208比特,根據(jù)傳統(tǒng)的RLF噴泉碼的解碼效率,為了使50%的符號被篡改后仍能恢復(fù)位置數(shù)據(jù),圖像塊的數(shù)目M N/64應(yīng)不少于416.
數(shù)據(jù)恢復(fù)過程,根據(jù)得到的位置信息按照2.2節(jié)重新生成參考數(shù)據(jù),對于提取的參考數(shù)據(jù)和重新生成的參考數(shù)據(jù),應(yīng)用文獻(xiàn)[11]中提出的RLF自恢復(fù)模型進(jìn)行解碼,解碼后將篡改的塊的2值參考數(shù)據(jù)轉(zhuǎn)換成DCT系數(shù),再進(jìn)行DCT反變換獲得恢復(fù)數(shù)據(jù),用得到的恢復(fù)數(shù)據(jù)替換圖像中被篡改的區(qū)域,重建圖像.
采用本文方法進(jìn)行實驗,并與文獻(xiàn)[1,10-11]的方法進(jìn)行比較.實驗中應(yīng)用了Lena圖像和BOWS2數(shù)據(jù)庫中的圖像[15].圖像的大小為256×256.
實驗1 比較含密圖像的質(zhì)量.圖4(a)為原始圖像,圖4(b)給出了原圖像黑框區(qū)域的細(xì)節(jié);圖4(c)為對3個LSB位進(jìn)行信息隱藏產(chǎn)生的含密圖像,PSNR均為38d B,圖4(d)給出了含密圖像的細(xì)節(jié),可以看到明顯的偽輪廓;圖4(e)是應(yīng)用本文的方法所得到的含密圖像,PSNR分別為48d B,圖4(f)是含密圖像的細(xì)節(jié),和原始圖像無太大差別.無論從PSNR的值還是圖像細(xì)節(jié)都可以看出本文方法明顯優(yōu)于3個LSB位平面替換的方法.實驗結(jié)果表明,以往的3個LSB位平面信息隱藏的方法,對圖像質(zhì)量影響較大,尤其是在平滑區(qū)域會產(chǎn)生明顯的偽輪廓,實際上2個LSB位平面信息隱藏的方法在平滑區(qū)域也會產(chǎn)生可見的偽輪廓,而本文提出的方法動態(tài)調(diào)整每個區(qū)域的嵌入容量,保證了數(shù)據(jù)隱藏后圖像的質(zhì)量,達(dá)到了不可見的嵌入數(shù)據(jù)的要求.
實驗2 比較了圖像的恢復(fù)質(zhì)量. 篡改區(qū)域如5(a)中黑色實線區(qū)域,圖5(a)為應(yīng)用文獻(xiàn)[1]中所提出的方法得到的恢復(fù)圖像,圖5(b)為其部分細(xì)節(jié),文獻(xiàn)[1]中的方法采用1個LSB位平面進(jìn)行信息隱藏,能夠?qū)崿F(xiàn)不可見的數(shù)據(jù)嵌入,但恢復(fù)的圖像質(zhì)量較差,PSNR僅為27dB.而且從圖像細(xì)節(jié)也可以看到有明顯的塊效應(yīng).圖5(c)為應(yīng)用本文所提的方法得到的恢復(fù)圖像,PSNR為34d B,圖5(d)為恢復(fù)后圖像的部分細(xì)節(jié).從實驗結(jié)果可以看出,在達(dá)到嵌入信息不可見的相同前提下,本文方法明顯優(yōu)于文獻(xiàn)[1]中提出的方法.
圖4 含密圖像質(zhì)量比較Figure 4 Comparison of the embedded quality
圖5 圖像恢復(fù)質(zhì)量比較Figur e 5 Comparison of the recovered quality
實驗3 驗證了本文提出的方法對篡改檢測和恢復(fù)的有效性.圖6(a)為原始圖像,圖6(b)為對Lena的臉部進(jìn)行替換修改的圖像,圖6(c)顯示了篡改檢測的結(jié)果,圖6(d)顯示了圖像恢復(fù)后的結(jié)果.從實驗結(jié)果可以看出對圖像內(nèi)容進(jìn)行的篡改,本文所提的方法能進(jìn)行準(zhǔn)確的檢測與恢復(fù),重建后圖像的PSNR分別為36dB.
圖6 圖像的篡改檢測與恢復(fù)Figure 6 Tamper identif ication and restoration
表1和2將本文方法與其他方法進(jìn)行了綜合比較.任意選取幾幅圖像,表1是基于BOWS2數(shù)據(jù)庫中圖像266進(jìn)行比較的結(jié)果,表2是基于BOWS2數(shù)據(jù)庫中圖像4289進(jìn)行比較的結(jié)果.結(jié)果表明:本文方法在綜合顯著性區(qū)域的恢復(fù)質(zhì)量、含密圖像的質(zhì)量及最大篡改比方面是同類方法中性能較優(yōu)的;文獻(xiàn)[1]提出的方法所得圖像的恢復(fù)質(zhì)量不高,對于顯著性區(qū)域甚至不能符合人眼的視覺要求,并且存在篡改巧合問題;文獻(xiàn)[10]提出的方法所得到嵌入水印后圖像的質(zhì)量下降明顯,對于含有天空等平滑區(qū)域的圖像會產(chǎn)生偽輪廓,最大篡改比也不能達(dá)到一般應(yīng)用的需求;文獻(xiàn)[11]提出的方法也會在平滑區(qū)域產(chǎn)生偽輪廓,不能滿足不可見的嵌入信息的要求.
表1 第1幅圖像的比較結(jié)果Table 1 Comparison results for the first image
表2 第2幅圖像的比較結(jié)果Table 2 Comparison results for the second image
本文提出了一種基于顯著性分類的數(shù)字圖像自嵌入方法,首先根據(jù)圖像自身的特點將圖像分為顯著性區(qū)域、平滑區(qū)域和一般區(qū)域,動態(tài)決定每個區(qū)域的參考數(shù)據(jù)量和嵌入容量,顯著性區(qū)域獲得較多的參考數(shù)據(jù)量,平滑區(qū)域獲得較少的嵌入容量,并采用噴泉碼對參考數(shù)據(jù)進(jìn)行編碼,增大圖像的最大恢復(fù)面積.實驗結(jié)果表明:與當(dāng)前自嵌入算法普遍采用的3個LSB位平面和2個LSB位平面信息隱藏方法相比,本文方法對原始圖像的質(zhì)量影響較小,保證了嵌入水印的不可見性;與1個LSB位平面信息隱藏方法相比,本文方法能夠得到一個較高的恢復(fù)質(zhì)量,對于顯著性區(qū)域的恢復(fù)質(zhì)量也并不遜色于3個LSB位平面替換的方法;與以往方法相比,本文方法在最大篡改比方面也具有優(yōu)越性.
[1]FRIDRICH J,GOLJAN M.Protection of digital images using self embedding[C]//Proceedings of Symposium on Content Security and Data Hiding in Digital Media,NJ,USA,May.14,1999.
[2]張鴻賓,楊成.圖像的自嵌入及竄改的檢測和恢復(fù)的算法[J].電子學(xué)報,2004,32(2):196-199.
ZHANG Hongbin,YANG Cheng.Tamper detection and self-recovery of images using self-embedding[J].Acta Electronica Sinica,2004,32(2):196-199.(in Chinese)
[3]ZHANG Xinpeng,WANG Shuozhong.Fragile watermarking with error-free restoration capability[J].IEEE Transaction on Multimedia,2008,10(8):1490-1499.
[4]LEE T Y,LIN S D.Dual watermark for image tamper detection and recovery[J].Pattern Recognition,2008,41(11):3497-3506.
[5]YANGC W,SHEN J J.Recover the tampered image based on VQ indexing[J].Signal Processing,2010,90(1):331-343.
[6]QIANZ X,FENGG R.Inpainting assisted self recovery with decreased embedding data[J].IEEE Signal Processing Letters,2010,17(11):929-932.
[7]QIAN Z X,FENG G R,ZHANG X P,WANG S Z.Image self-embedding with high-quality restoration capability[J].Digital Signal Processing,2011,21(2):278-286.
[8]KORUSP,DZIECH A.A novel approach to adaptive image authentication[C]//Proceedings of 2011 18th IEEE International Conference on Image Processing,Sept.11-14,2011:2765-2768.
[9]ZHANG Xinpeng,WANG Shuozhong.Self-embedding watermark with f lexible restoration quality[J].Multimedia Tools and Application,2011,54(2):385-395.
[10]ZHANGXinpeng,WANGShuozhong.Reference sharing mechanism for watermark self-embedding[J].IEEE Transaction on Image Processing,2011,20(2):485-495.
[11]KORUS P,DZIECH A.Efficient method for content reconstruction with self-embedding[J].IEEE Transaction on Image Processing,2012,22(3):1134-1147.
[12]MACKAY D J.Fountain codes[J].IEE Proceedings Communication,2005,152(6):1062-1068.
[13]RIVEST R L.The MD5 messages digest algorithm[OL].http://tools.ietf.org/rfc/rfc1321.txt,1992.
[14]HOUX D,HARELJ,KOCHC.Image signature:highlighting sparse salient regions[J].IEEE Transaction on Pattern Analysis and Machine Intelligence,2012,4(1):194-201.
[15]The dataset from the 2nd bows contest[OL].http://bows2.ec-lille.fr/,2007.