• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看

      ?

      基于MROGH特征描述子的圖像局部拷貝—旋轉(zhuǎn)—移動行為取證

      2017-09-18 16:37于立洋韓琦牛夏牧
      智能計算機與應(yīng)用 2017年4期

      于立洋+韓琦++牛夏牧

      摘要: 各種數(shù)字圖像編輯軟件的普及讓人們的生活更加多姿多彩,但同時也帶來了更多的安全隱患——惡意的篡改者偽造圖像、傳播虛假內(nèi)容的門檻極大地降低了。圖像局部拷貝—移動(copy-move)是最為容易操作且有效的圖像篡改手段之一,針對這種圖像篡改手段的取證技術(shù)也在近年來受到了廣泛關(guān)注。在圖像的局部拷貝—移動篡改過程中,通常會包含一定程度的旋轉(zhuǎn)操作,因此取證手段對于旋轉(zhuǎn)的魯棒性非常重要。本文提出了以篩選后的哈里斯角點結(jié)合MROGH(Multi-support Region Order-based Gradient Histogram)特征描述子的圖像局部拷貝—旋轉(zhuǎn)—移動篡改取證方法。實驗證明,該方法具有良好的特征點覆蓋率和旋轉(zhuǎn)魯棒性。

      關(guān)鍵詞: 圖像取證; 局部拷貝—移動篡改檢測; MROGH特征描述子; 哈里斯角點

      中圖分類號:TP309

      文獻(xiàn)標(biāo)志碼:A

      文章編號:2095-2163(2017)04-0124-04

      0 引言

      圖像的拷貝移動篡改是指針對一幅圖像中的某處或多處區(qū)域在經(jīng)由原型復(fù)制后,將其粘貼到同一幅圖像的其他位置,從而達(dá)到夸大或掩蓋事實的加工效果。這種操作方式簡單易行,且由于篡改區(qū)域來自同一幅圖像,而最終的效果圖像又往往在光照、色彩和幾何比例等方面表現(xiàn)出協(xié)調(diào)與一致,由此使得人們很難發(fā)現(xiàn)加于其上的偽造痕跡,因此這已然成為一種頗具現(xiàn)實發(fā)展空間的有效篡改手段。

      近年來,針對圖像局部拷貝—移動的檢測方法已經(jīng)日漸獲得了學(xué)界的廣泛關(guān)注。在眾多的針對拷貝—移動行為進(jìn)行取證的方法中,基于特征點的方法在魯棒性和時空開銷等方面表現(xiàn)出切實顯著的優(yōu)秀性能。然而在檢測的查全率方面,這一方法卻相對較弱。分析其原因主要在于,如SIFT(Scale-Invariant Feature Transform)[1]和SURF(Speeded Up Robust Feature)[2]等主流的特征點檢測方法通常僅選擇位于紋理豐富區(qū)域的特征點,用以保證特征能夠具有良好的區(qū)分性,卻由此將會引發(fā)平滑區(qū)域的篡改行為往往可能發(fā)生漏檢。

      另外,基于在篡改過程中多會涉及到旋轉(zhuǎn)操作,這就使得對旋轉(zhuǎn)的魯棒性已然成為衡量取證技術(shù)的一個重要指標(biāo)。目前大多數(shù)基于特征點的方法都采用了SIFT、SURF或旋轉(zhuǎn)不變DAISY等描述子,而這些描述子的旋轉(zhuǎn)不變性卻依賴于構(gòu)造描述子時,對特征支持區(qū)域的主方向估計,只是主方向的估計并不會一直始終準(zhǔn)確,因此,基于特征點的取證方法在旋轉(zhuǎn)魯棒性方面仍存在有待提升的改進(jìn)空間。

      [JP3]綜上,本文提出了一種新的基于特征點的區(qū)域拷貝—移動檢測方法。該方法對于紋理和平滑區(qū)域的拷貝行為均有良好的檢測能力,且具有更好的旋轉(zhuǎn)魯棒性。本文的主要創(chuàng)新如下:[JP]

      首先,本文利用非極大值抑制(NMS,Non-Maximal Suppression)篩選哈里斯角點,在圖像上獲得滿足一定密度要求的特征點,保證紋理和平滑區(qū)域均有特征點來實施覆蓋;

      其次,以MROGH算子[3]作為特征描述子。由于MROGH算子無需主方向估計,在理論上能夠?qū)崿F(xiàn)真正意義上的旋轉(zhuǎn)不變,因此本文的方法具有更好的旋轉(zhuǎn)魯棒性。

      本文的內(nèi)容安排如下:第二節(jié)對近年來比較典型的基于特征點的局部拷貝—移動檢測技術(shù)進(jìn)行簡要回顧,第三節(jié)詳細(xì)闡述本文提出的方法,第四節(jié)給出實驗結(jié)果,最后,在第五節(jié),將對全文進(jìn)行總結(jié)。

      1相關(guān)工作簡述

      目前,針對圖像局部拷貝—移動行為進(jìn)行檢測的方法可大致分為2類:基于塊的方法和基于特征點的方法。本文的方法屬于后者。在此,則對基于特征點的方法于近年來的重點進(jìn)展進(jìn)行簡要回顧。

      SIFT和SURF等局部特征在機器視覺和模式識別等領(lǐng)域取得了可觀的成就,受此啟發(fā),近年來,研究者們逐漸嘗試了將這些特征點和相應(yīng)的特征描述子應(yīng)用于圖像局部拷貝的檢測[4-6]。與傳統(tǒng)的基于塊的方法相比,基于SIFT或SURF等局部特征的方法在應(yīng)對各種圖像降質(zhì)時,表現(xiàn)出優(yōu)質(zhì)理想的魯棒性,同時這些方法又呈現(xiàn)了極其優(yōu)異的時空開銷。然而,為了保證能夠獲得足夠的區(qū)分性,SIFT和SURF等特征通常位于紋理豐富區(qū)域,這無疑必將導(dǎo)致平滑區(qū)域的拷貝行為出現(xiàn)漏檢。除了基于SIFT或SURF的方法,文獻(xiàn)[7]以哈里斯角點作為特征檢測子,并以哈里斯角點周圍圓形鄰域內(nèi)像素的統(tǒng)計值作為局部特征。該方法要求用戶對每幅輸入圖像均設(shè)置一個參數(shù),該參數(shù)將設(shè)計用于控制特征點的密度。然而,對于一些圖像而言,即使圖像中的特征點總數(shù)已經(jīng)跡近龐大,[JP2]某些平滑區(qū)域中可能依然不會含有足夠的特征點而實現(xiàn)覆蓋。在文獻(xiàn)[8]中,Guo等人利用自適應(yīng)非極大值抑制(ANMS,Adaptive Non-Maximal Suppression)來獲取大致均勻分布的哈里斯角點,并利用旋轉(zhuǎn)不變的DAISY描述子作為局部特征。然而,ANMS的作用是在圖像中獲得指定數(shù)量、而非特定密度的特征點,所以文獻(xiàn)[8]必須為不同尺寸的圖像指定不同的參數(shù)。此外,與SIFT和SURF等特征相似,文獻(xiàn)[8]中采用的旋轉(zhuǎn)不變DAISY描述子依賴局部支持區(qū)域的主方向來實現(xiàn)旋轉(zhuǎn)不變,而主方向的估計卻并不總會穩(wěn)定、且可靠。[JP]

      2本文方法

      2.1特征檢測及特征提取

      [JP2]給定輸入圖像I,首先計算該圖像每個像素(x,y)對應(yīng)的角點強度CM(x,y)。與文獻(xiàn)[8]不同的是,為了免除權(quán)重參數(shù)的選擇,本文采用了Nobel[9]的方法計算角點強度,如式所示:[JP]

      CM(x,y)=〖SX(〗AB-C2〖〗A+B〖SX)〗[HT5”][JY](1)

      其中,

      A=g(〖SX(〗I〖〗x〖SX)〗)2[HT5”][JY] (2)

      B=g(〖SX(〗I〖〗y(tǒng)〖SX)〗)2[HT5”][JY] (3)endprint

      C=g(〖SX(〗I〖〗x〖SX)〗·〖SX(〗I〖〗y(tǒng)〖SX)〗)[HT5”][JY](4)

      運算符表示卷積操作,g為離散高斯核。

      接下來對CM進(jìn)行抑制半徑為r的非極大值抑制,得到一個大致均勻分布、且滿足一定密度要求的特征點集合,如圖 1所示。為了保持圖像清晰,圖 1的示例中采用了較大的抑制半徑r=30,本文的實驗部分均采用r=5。

      需要注意的是,本文使用了普通的非極大值抑制,而非文獻(xiàn)[8]中采用的自適應(yīng)非極大值抑制。這是因為自適應(yīng)非極大值抑制的作用是獲取固定數(shù)量、而非固定密度的特征點,就將導(dǎo)致對于不同分辨率的圖像,用戶必須調(diào)節(jié)不同的參數(shù)。可以看到,在對CM進(jìn)行非極大值抑制后,在圖像中的紋理和平滑區(qū)域均獲得了大致均勻分布的特征點。

      [PS于立洋1.EPS;S*1;X*1,BP#]

      P={p1,p2,…,pn}[HT5”][JY](5)

      表示圖像I的特征點集合,對于每個pi∈P,i=1,2,…,n,研究在該點的鄰域內(nèi)提取MROGH特征作為該特征點的特征描述子,得到特征集合為:

      F={f1, f2,…, fn}[HT5”][JY](6)

      2.2特征匹配及后處理

      對于每個特征fi∈F,i=1,2,…,n,本文采用kdtree在特征空間中搜索該特征的前k(在實驗中,設(shè)置k=10)個最近鄰,記為:

      n1,n2,…,nk[HT5”][JY](7)

      考慮到一對多的拷貝情形,本文采用了文獻(xiàn)[4]提出的g2NN方法收集符合要求的匹配特征對。令D=d1,d2,…,dk為給定特征fi和其最近鄰nj,j=1,2,…,k之間的升序距離集合,當(dāng)滿足條件:

      dm/dm+1

      [JP2]時,g2NN在距離集合D中迭代地逐元素測試,直到不再滿足式中的測試條件。假設(shè)w為g2NN測試的停止點,則fi的前w-1個最近鄰n1,…,nw-1都將作為fi的合格匹配特征。本文的實驗中,設(shè)置T=0.8。

      在特征匹配完成后,將得到一個匹配特征對集合,下面將對該集合中的特征點進(jìn)行基于空間距離的聚類。從任意隨機特征點pi∈P開始,pi周圍半徑為R的環(huán)形區(qū)域內(nèi)的所有特征點都被劃分到pi所屬的聚類。該過程持續(xù)到匹配特征對集合中的所有特征點都被劃分到某個類中為止。在實驗中,設(shè)置R=50。聚類完成后,由于確定一個二維仿射變換至少需要3對匹配特征,如此即將少于3個成員的聚類中的特征點刪除。[JP]

      相應(yīng)地,在保留下來的聚類中,利用隨機抽樣一致算法[10](RANSAC,RANdom SAmple Consensus)在各個聚類間進(jìn)行仿射變換估計。對于估計得到的每個單應(yīng)矩陣,利用式(9)找到符合該變換的匹配特征對:

      Δ=[JB(=]H〖JB((〗〖HL(1〗xy1〖HL)〗〖JB))〗-〖JB((〗〖HL(1〗x′y′1〖HL)〗〖JB))〗[JB)=]2<Ε[HT5”][JY](9)

      其中,(x,y,1)T和(x′,y′,1)T分別為一對匹配特征點的齊次坐標(biāo),[WT5”HX]H[WT5”BX]為估計得到的仿射變換單應(yīng)矩陣,其數(shù)學(xué)表達(dá)如式(10)所示:

      H=〖JB([〗〖HL(3〗a11〖〗a12〖〗txa21〖〗a22〖〗ty0〖〗0〖〗1〖HL)〗〖JB)]〗[HT5”][JY](10)

      [HT5”]本文實驗中設(shè)置E=4。對于每個單應(yīng)矩陣的類內(nèi)點,研究將再次進(jìn)行基于距離的聚類,從而篩除孤立點。最后在剩余的特征點處進(jìn)行形態(tài)學(xué)操作,生成篡改區(qū)域映射圖,用于指示篡改區(qū)域。

      3實驗結(jié)果

      本文采用了文獻(xiàn)[11]中構(gòu)建的圖像局部拷貝檢測數(shù)據(jù)集。本文的實驗中,選擇了該數(shù)據(jù)集中的“orig”,“nul”和“rotation”子集來驗證本文方法的有效性。其中,“orig”子集包含48幅未篡改過的圖像,“nul”子集中則包含了“orig”子集中每一幅圖像所對應(yīng)的篡改圖像。而在“rotation”子集的篡改圖像中,拷貝區(qū)域在粘貼之前,分別經(jīng)歷了2°、4°、6°、8°、10°、20°、60°和180°等不同程度的旋轉(zhuǎn)。

      [JP2]實驗將以圖像級的準(zhǔn)確率(precision)、查全率(recall)和融合指標(biāo)(F1 score)來評價檢測性能,如式(11)~式(13)所示:[JP]

      precision=〖SX(〗TP〖〗TP+FP〖SX)〗[HT5”][JY] (11)

      [LL]

      recall=〖SX(〗TP〖〗TP+FN〖SX)〗[HT5”][JY](12)

      F1 score=〖SX(〗2×precision×recall〖〗precision+recall〖SX)〗[HT5”][JY](13)

      其中,TP為正確地檢測為篡改圖像的樣本數(shù),F(xiàn)P為錯誤地檢測為篡改圖像的樣本數(shù),F(xiàn)N為漏檢的篡改樣本數(shù)。

      [JP2]首先,基于“orig”和“nul”2個子集來評估本文方法對常規(guī)局部拷貝—移動行為的檢測能力。這里是將本文的方法與2種典型的基于特征點的方法進(jìn)行了對比,這2種方法分別基于SIFT[4]和SURF[6]。對比結(jié)果如表 1所示。圖 2中給出了若干檢測實例。由圖2可知,拷貝的區(qū)域都屬于相對平滑的區(qū)域,而這些區(qū)域中幾乎并不存在SIFT和SURF特征點。在這些用例中,對于文獻(xiàn)[4]和文獻(xiàn)[6]中的方法而言,只有文獻(xiàn)[6]能夠檢測出第一組測試中3處篡改中的一處,其他的拷貝區(qū)域均未能實現(xiàn)檢測。并且,文獻(xiàn)[6]在第一組測試中還出現(xiàn)了一處虛警。相比之下,本文的方法能夠正確檢測出所有拷貝的區(qū)域。[JP]

      進(jìn)一步地,研究又基于“rotation”子集進(jìn)行旋轉(zhuǎn)魯棒性的測試。對于“rotation”子集中的每一種旋轉(zhuǎn)角度,將分別以“orig”子集作為相應(yīng)的負(fù)類樣本。圖 3給出了本文方法和文獻(xiàn)[4]及[6]中方法對于旋轉(zhuǎn)的魯棒性對比實驗結(jié)果??梢钥吹剑S著旋轉(zhuǎn)角度的增加,本文方法所對應(yīng)的曲線具有更小的斜率,這表明本文方法與其他2種方法相比,具有更為強大的旋轉(zhuǎn)魯棒性。[FL)]

      4結(jié)束語

      [HT5”SS][ST5”BZ][WT5”BZ]

      本文提出了一種基于特征點的圖像局部拷貝—旋轉(zhuǎn)—移動行為檢測方法。該方法首先利用非極大值抑制來篩選哈里斯角點,得到大致均勻分布且滿足一定密度要求的特征點,實現(xiàn)了對圖像中不同區(qū)域的良好覆蓋。對于每個特征點,研究則以MROGH算子作為局部特征,實現(xiàn)更強的旋轉(zhuǎn)魯棒性。

      參考文獻(xiàn):

      [1] LOWE D G. Distinctive image features from scaleinvariant keypoints[J]. International journal of computer vision, 2004, 60(2):91-110.

      [2] Bay H, Tuytelaars T, Van Gool L. Surf: Speeded up robust features[M]//Leonardis A O, Bischof H, Axel P. Computer visionECCV 2006. Berlin Heidelberg:Springer, 2006:404-417.

      [3] FAN B, WU F, HU Z. Aggregating gradient distributions into intensity orders: A novel local image descriptor[C]//Computer Vision and Pattern Recognition (CVPR), 2011 IEEE Conference on. Colorado, USA:IEEE, 2011:2377-2384.

      [4] AMERINI I, BALLAN L, CALDELLI R, et al. A siftbased forensic method for copymove attack detection and transformation recovery[J]. Information Forensics and Security, IEEE Transactions on, 2011,6(3):1099-1110.

      [5] PAN X, LYU S. Region duplication detection using image feature matching[J]. Information Forensics and Security, IEEE Transactions on, 2010,5(4):857-867.

      [6] SHIVAKUMAR B, BABOO L D S S. Detection of region duplication forgery in digital images using surf[J]. IJCSI International Journal of Computer Science Issues, 2011,8(4):199-205.

      [7] CHEN L, LU W, NI J, et al. Region duplication detection based on harris corner points and step sector statistics[J]. Journal of Visual Communication and Image Representation, 2012, 24(3): 244-254.

      [8] GUO J M, LIU Y F, WU Z J. Duplication forgery detection using improved daisy descriptor[J]. Expert Systems with Applications, 2013,40(2):707-714.

      [9] NOBLE J A. Finding corners[J]. Image and Vision Computing, 1988, 6(2):121-128.

      [10]FISCHLER M A, BOLLES R C. Random sample consensus: a paradigm for model fitting with applications to image analysis and automated cartography[J]. Communications of the ACM, 1981,24(6):381-395.

      [11]CHRISTLEIN V, RIESS C, JORDAN J, et al. An evaluation of popular copymove forgery detection approaches[J]. Information Forensics and Security, IEEE Transactions on, 2012,7(6) : 1841-1854.endprint

      五峰| 云林县| 大足县| 鄂州市| 疏附县| 潮州市| 东丽区| 遂昌县| 定西市| 卓资县| 柳江县| 青神县| 银川市| 应城市| 九龙县| 铜陵市| 淮北市| 合江县| 卓尼县| 额敏县| 汽车| 彭州市| 双鸭山市| 绥化市| 桐柏县| 依兰县| 那坡县| 白朗县| 抚松县| 区。| 尉氏县| 右玉县| 漳州市| 始兴县| 平昌县| 革吉县| 沧源| 光山县| 黄陵县| 漳浦县| 格尔木市|