• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看

      ?

      基于TL1范數(shù)的改進(jìn)K-SVD字典學(xué)習(xí)算法?

      2018-01-04 06:03:23李海洋
      關(guān)鍵詞:范數(shù)字典重構(gòu)

      袁 超 李海洋

      (西安工程大學(xué)理學(xué)院 西安 710048)

      基于TL1范數(shù)的改進(jìn)K-SVD字典學(xué)習(xí)算法?

      袁 超 李海洋

      (西安工程大學(xué)理學(xué)院 西安 710048)

      K-SVD字典學(xué)習(xí)算法通過(guò)稀疏編碼和字典更新兩步迭代學(xué)習(xí)得到訓(xùn)練樣本的字典,用OMP(Orthogonal Matching Pursuit)算法求解稀疏表示,用SVD分解算法對(duì)字典更新。但應(yīng)用在圖像重構(gòu)時(shí),OMP算法運(yùn)行速度比較慢,且恢復(fù)的準(zhǔn)確度不夠高。針對(duì)該問(wèn)題,為了提高字典訓(xùn)練速度與性能,在稀疏編碼階段用TL1范數(shù)代替了l0范數(shù),用迭代閾值算法求解稀疏表示。為考察改進(jìn)算法的恢復(fù)準(zhǔn)確率,在不同稀疏度下進(jìn)行數(shù)據(jù)合成實(shí)驗(yàn),結(jié)果表明改進(jìn)算法比K-SVD算法訓(xùn)練恢復(fù)的準(zhǔn)確率高。進(jìn)一步考察改進(jìn)算法的圖像重構(gòu)能力,選取標(biāo)準(zhǔn)圖像進(jìn)行仿真,實(shí)驗(yàn)結(jié)果表明改進(jìn)算法比K-SVD算法能更快得到訓(xùn)練字典,獲得更高的峰值信噪比(PSNR),具有更好的重構(gòu)性能。

      字典學(xué)習(xí);KSVD;稀疏編碼;閾值迭代算法;TL1范數(shù);圖像重構(gòu)

      1 引言

      近些年,以圖像的稀疏先驗(yàn)求解圖像重構(gòu)引起了廣泛關(guān)注[1~3]。根據(jù)壓縮感知理論,信號(hào)在字典下的表示系數(shù)越稀疏則重構(gòu)質(zhì)量越高,因此字典的選擇十分重要,它決定了圖像重構(gòu)的質(zhì)量。目前字典構(gòu)造方法有兩種:解析方法和學(xué)習(xí)方法?;诮馕龇椒?gòu)造的字典通過(guò)定義好的數(shù)學(xué)變換或調(diào)和分析來(lái)構(gòu)造,字典中的每個(gè)原子可用數(shù)學(xué)函數(shù)來(lái)刻畫(huà),如小波變換、離散余弦變換、輪廓波變換、Shear?let等。雖然解析方法構(gòu)造字典相對(duì)簡(jiǎn)單且計(jì)算復(fù)雜度低,但原子的基本形狀固定,形態(tài)不夠豐富,因此不能與圖像本身的復(fù)雜結(jié)構(gòu)進(jìn)行最佳匹配?;趯W(xué)習(xí)方法是根據(jù)圖像本身來(lái)學(xué)習(xí)過(guò)完備字典,這類字典中的原子與訓(xùn)練集中的圖像本身相適應(yīng)。因此通過(guò)學(xué)習(xí)獲得的字典原子數(shù)量更多,形態(tài)更豐富,能更好地與圖像本身的結(jié)構(gòu)匹配,具有更稀疏的表示。

      1993 年,Mallat[4]等闡述了過(guò)完備字典的概念,并提出了解決過(guò)完備字典稀疏表示問(wèn)題的匹配追蹤算法,從而奠定了字典學(xué)習(xí)理論的基礎(chǔ),但沒(méi)有給出具體求解字典的方法。1996年Olshausen[5]在《Nature》上發(fā)表了Sparsenet字典學(xué)習(xí)算法,提出了用l1范數(shù)作為系數(shù)稀疏性度量,這一算法是基于字典學(xué)習(xí)重構(gòu)圖像的基礎(chǔ),但該算法容易陷入局部最優(yōu)。為訓(xùn)練全局最優(yōu)字典,Mailhe[6]等對(duì)Olshausen的算法進(jìn)行了改進(jìn),將梯度下降中的固定步長(zhǎng)改為自適應(yīng)步長(zhǎng),從而越過(guò)局部最優(yōu)點(diǎn),最終以較大的概率保證在全局最優(yōu)點(diǎn)收斂。Engan[7]也對(duì)Sparsenet字典學(xué)習(xí)算法進(jìn)行了改進(jìn),提出了MOD(Method of optimal directions)字典學(xué)習(xí)算法。MOD算法采用l0范數(shù)衡量信號(hào)的稀疏性,利用交替優(yōu)化求解字典。該算法的缺點(diǎn)是需要進(jìn)行矩陣的求逆計(jì)算,對(duì)存儲(chǔ)容量的要求高。

      為減小 MOD算法的復(fù)雜度,2006 年 Elad[8]等提出了 K-SVD(K-singular value decomposition)字典學(xué)習(xí)算法,實(shí)現(xiàn)了基于K-SVD字典學(xué)習(xí)的圖像重構(gòu),K-SVD字典學(xué)習(xí)是一種交替迭代算法,首先固定當(dāng)前字典稀疏編碼求解稀疏表示系數(shù),然后根據(jù)稀疏系數(shù)對(duì)字典的列進(jìn)行迭代更新。K-SVD算法更新字典時(shí)不是對(duì)整個(gè)字典一次更新,而是逐個(gè)原子更新。該算法不需要矩陣求逆計(jì)算,運(yùn)算復(fù)雜度比MOD算法低,并且在字典更新步驟中對(duì)系數(shù)矩陣與字典原子聯(lián)合更新,提高了算法收斂速度。K-SVD算法在實(shí)際中有廣泛應(yīng)用,隨后許多 學(xué) 者 對(duì) 其 進(jìn) 行 了 改 進(jìn) ,Rubinsteind[9]用Batch-OMP替代OMP稀疏編碼,比K-SVD字典訓(xùn)練效率更高,但圖像重構(gòu)效果卻有所下降。Smith[10]在字典更新中加入了支撐的先驗(yàn)信息,提出了MDU多重字典更新算法,有效地減小了字典學(xué)習(xí)的目標(biāo)函數(shù),但訓(xùn)練計(jì)算量較大。

      當(dāng)前字典學(xué)習(xí)存在的主要問(wèn)題是訓(xùn)練時(shí)間長(zhǎng),恢復(fù)的準(zhǔn)確度不夠高。針對(duì)這一問(wèn)題,為提高字典學(xué)習(xí)的速度與性能,本文在稀疏編碼階段用TL1范數(shù)代替l0范數(shù),用迭代閾值算法求解稀疏表示,提出TL1-KSVD字典學(xué)習(xí)算法。事實(shí)上,早在2000年Nikolola[11]在 研 究 變 量 選 擇 時(shí) 定 義 了 TL1范 數(shù)(transformedl0penalty),2009 年 Lv[12]研究了 TL1范數(shù)的稀疏性,2014年 Xin[13~14]等把 TL1范數(shù)應(yīng)用到壓縮感知,并給出了TL1范數(shù)的閾值迭代算法。

      2 K-SVD字典學(xué)習(xí)模型

      假設(shè)給定訓(xùn)練圖像Y∈RN×L包含 L個(gè)信號(hào),字典學(xué)習(xí)的實(shí)質(zhì)是找到恰當(dāng)?shù)奈粗值?D∈RN×M(N<M)并使得每個(gè)信號(hào) yi可用字典D∈RN×M稀疏表示,其模型為

      2.1 稀疏編碼

      在該階段,固定字典D,尋找訓(xùn)練樣本Y在字典D上的稀疏表示系數(shù)X。稀疏表示的重構(gòu)稱為稀疏編碼,訓(xùn)練樣本Y上每一個(gè)信號(hào) y∈RN可用字典D的原子線性表示。其稀疏表示模型[15]為

      其中 D∈RN×M(N<M)是一個(gè)字典,是 x∈RM稀疏的,式中:‖‖x0是為x中非零的個(gè)數(shù)。

      可以使用貪婪追蹤算法求解問(wèn)題(2),如正交匹配追蹤(OMP)[17~18],但需要將原始信號(hào)內(nèi)的元素逐一稀疏表示,但OMP算法收斂速度較慢,且圖像重構(gòu)質(zhì)量差。求解問(wèn)題(2)的精確解是一個(gè)NP[16]難問(wèn)題,而且對(duì)噪音非常敏感。壓縮感知理論指出,如果觀測(cè)矩陣D滿足約束等距RIP[3](Restrict?ed Isometry Proper)性質(zhì),則可高概率重構(gòu)原始信號(hào)x,即:

      式中,δk∈(0,1)稱為 RIP常數(shù)。

      Donoho等[19]提出利用 l1范數(shù)代替 l0范數(shù),變成線性規(guī)劃的凸優(yōu)化問(wèn)題,找出最稀疏的系數(shù)矩陣。其模型為

      式中:‖‖x1為x中元素的絕對(duì)值之和。

      解決問(wèn)題(4)可以通過(guò)無(wú)約束凸優(yōu)化問(wèn)題近似求解,模型為

      轉(zhuǎn)化為無(wú)約束凸優(yōu)化求解l1范數(shù)問(wèn)題。使用基 追 蹤(BP,Basis Pursuit)[20],F(xiàn)OCUSS[21],LARS-Lasso[22]等算法求解,或者利用軟閾值截取運(yùn)算(Soft-thresholding)[23]求解。然而基于 l1范數(shù)的求解稀疏表示至少仍存在兩個(gè)方面的不足:第一,圖像信號(hào)之間可能存在冗余難以去除;第二,無(wú)法區(qū)分稀疏尺度的位置。相關(guān)研究表明,用1/2范數(shù)等非凸函數(shù)代替l0范數(shù)時(shí),有更好的效果。

      2.2 字典更新

      在字典更新階段應(yīng)用SVD的更新字典[6],固定稀疏系數(shù)X,對(duì)字典D中的原子按列進(jìn)行迭代更新。

      3 基于TL1-KSVD的字典學(xué)習(xí)

      我們?nèi)园阉Q作范數(shù)。另外因?yàn)闈M足以下性質(zhì):

      1)ρ(x)遞增且在x∈[0,∞ )是凹的。

      2)ρ′(x )在 ρ′(0 +)∈(0 ,∞ )是連續(xù)的。

      因此‖*‖TL能產(chǎn)生稀疏的效果。

      用TL1懲罰項(xiàng)代替式(5)中的l1懲罰項(xiàng),則式(5)模型變?yōu)?/p>

      為了求解優(yōu)化問(wèn)題(6),J Xin等在文獻(xiàn)[25]中提出用閾值迭代算法,算法的迭代格式為

      式中:xn為第 n 次近似值,μn為參數(shù),Sp,λ:RN→RN是由特定的閾值函數(shù)誘導(dǎo)出的對(duì)角非線性閾值算子。并給出了該問(wèn)題的閾值迭代函數(shù),其閾值迭代函數(shù)如下

      式中:

      3.1 稀疏編碼

      為了縮短稀疏編碼時(shí)間,提高字典訓(xùn)練速度和性能,引入速度較快的閾值迭代算法解決問(wèn)題(6),算法流程如算法1所示。

      算法1 基于TL1閾值迭代函數(shù)的稀疏編碼

      輸入:信號(hào)Y∈RN×L,字典 D∈RN×M

      初始化:x0,給一個(gè)合適的a,ε,μ0;

      迭代步驟1:計(jì)算 zn=Bμ(xn)=xn+μDT(y-Dxn),令 λ=λ0,μ=μ0;

      3.2 字典更新

      在字典更新階段應(yīng)用SVD的更新字典[8],固定稀疏系數(shù)X,對(duì)字D中的原子按列進(jìn)行迭代更新,字典列的更新結(jié)合稀疏表示的一個(gè)更新,使字典和稀疏系數(shù)同步更新。字典更新過(guò)程可表示優(yōu)化模型:

      式中:‖‖xi0是計(jì)算xi中非零元素的個(gè)數(shù):

      通過(guò)對(duì)Ek進(jìn)行SVD分解得到秩為1的矩陣近似值用于更新原子dk和稀疏表示對(duì)應(yīng)的系數(shù),同步更新大大加速了訓(xùn)練算法的收斂速度。基于TL1-KSVD的字典學(xué)習(xí)算法的步驟,如算法2所示。

      算法2 基于TL1-KSVD的字典學(xué)習(xí)算法

      輸入:訓(xùn)練樣本集Y∈RN×L

      迭代步驟1初始化字典:賦初始值給字典D;

      2稀疏編碼:根據(jù)已知字典D,運(yùn)用算法1求解樣本Y的稀疏系數(shù)X;

      3字典更新:根據(jù)稀疏系數(shù) X,更新字典D。設(shè)為dk要更新的字典D的第k列原子,Ek代表抽取字典原子dk后的誤差矩陣。定義分解用到原子dk時(shí)所有 yi的索引集合。則:Ek=Y-(DX-dkxk);

      選取僅與ωk相關(guān)的列約束Ek,得到Eωkk,對(duì)其進(jìn)行奇異值分解(SVD),更新 dk=u1,xk=?(1,1)·v1;

      輸出:學(xué)習(xí)字典D,稀疏表示系數(shù)X。

      4 實(shí)驗(yàn)結(jié)果及分析

      為了驗(yàn)證本文算法重構(gòu)性能,對(duì)本文算法與K-SVD算法進(jìn)行數(shù)據(jù)合成實(shí)驗(yàn)和圖像重構(gòu)實(shí)驗(yàn)對(duì)比分析。利用CPU為4GHz,內(nèi)存為16GB的計(jì)算機(jī),通過(guò)Matlab R2010a仿真實(shí)現(xiàn)。實(shí)驗(yàn)圖像為512×512像素,圖像分塊為8×8,字典大小為64×256。

      采用字典訓(xùn)練時(shí)間、用峰值信噪比(PSNR)和圖像的重構(gòu)成功率作為衡量?jī)蓚€(gè)算法性能評(píng)價(jià)標(biāo)準(zhǔn)。峰值信噪比(PSNR):

      其中MSE是原圖像與壓縮重建后圖像之間的均方誤差。圖像的重構(gòu)成功率:Aharon提出了計(jì)算成功恢復(fù)的準(zhǔn)則,這個(gè)準(zhǔn)則是為了計(jì)算兩個(gè)正則化元素之間的距離。用di來(lái)表示原始矩陣的第i列,di來(lái)表示重構(gòu)矩陣的第i列。如果1-|<0.01,可以認(rèn)為矩陣的第i得到了成功恢復(fù)。實(shí)驗(yàn)圖像為512×512像素,圖像分塊為8×8,字典大小為64×256。下面列出了圖像的實(shí)驗(yàn)結(jié)果對(duì)比。

      4.1 數(shù)據(jù)合成實(shí)驗(yàn)

      為了驗(yàn)證本文算法的成功恢復(fù)率,在不同稀疏度下反復(fù)實(shí)驗(yàn)。并在相同稀疏度下與K-SVD算法的重構(gòu)效果進(jìn)行比較。實(shí)驗(yàn)中,用標(biāo)準(zhǔn)的Lena圖像進(jìn)行采樣重構(gòu),以加權(quán)的高斯隨機(jī)矩陣作為觀測(cè)矩陣,稀疏度K從10開(kāi)始,每次增大5,用兩種算法對(duì)每個(gè)稀疏度K各進(jìn)行100次實(shí)驗(yàn)比較,并對(duì)求其平均值,實(shí)驗(yàn)結(jié)果如圖1所示。

      實(shí)驗(yàn)分析:隨著稀疏度的增大,兩種算法的重構(gòu)成功率逐漸減小。與OMP算法相比,當(dāng)稀疏度較大時(shí)本文算法有著較為明顯的優(yōu)勢(shì)(如稀疏度K在40時(shí),本文算法仍能恢復(fù)出原圖)。本文算法在重構(gòu)成功率上也有較大程度的提高,稀疏度K在20~35之間,其優(yōu)勢(shì)更為凸顯,比OMP重構(gòu)算法提高了6.8%~56.8%。

      圖1 K-稀疏信號(hào)重構(gòu)準(zhǔn)確率

      4.2 圖像重構(gòu)實(shí)例

      為了考察本文算法重構(gòu)時(shí)間與重構(gòu)效果,在不同采樣率下反復(fù)實(shí)驗(yàn),并在相同采樣率下與K-SVD算法的重構(gòu)時(shí)間與重構(gòu)效果進(jìn)行比較。對(duì)Lena圖像和peppers圖像進(jìn)行8×8的分塊,以高斯隨機(jī)矩陣作觀測(cè)矩陣,最后對(duì)每個(gè)分塊圖像進(jìn)行重構(gòu)恢復(fù)。

      實(shí)驗(yàn)中分別在0.4,0.6,0.8不同采樣率下進(jìn)行測(cè)試。在同一采樣率下對(duì)每種算法反復(fù)進(jìn)行150次試驗(yàn),獲得峰值信噪比PSNR值和運(yùn)行時(shí)間,并對(duì)求其平均值,其測(cè)試結(jié)果,如表3、表4所示。

      表3 Lena圖像在不同采樣率兩種算法PSNR值和運(yùn)行時(shí)間比較

      表4 peppers圖像在不同采樣率兩種算法PSNR值和運(yùn)行時(shí)間比較

      實(shí)驗(yàn)分析:通過(guò)表3可以看出,在相同稀疏度時(shí),隨著采樣率的增大,兩種算法的PSNR值均相應(yīng)增大,且在不同采樣率下本文算法的PSNR值較K-SVD算法均有較大程度的提高,在較小采樣率下效果尤為明顯,在采樣率為0.4時(shí)提高了2.12dB。同時(shí),本文算法的運(yùn)行速度也有了較大程度的提高,采樣率在0.4,0.6,0.8對(duì)比K-SVD算法提高了5.56s、7.14s、11.34s。表明隨著采樣率增大,本文算法的運(yùn)行速度的增幅相對(duì)于K-SVD算法的運(yùn)行速度的增幅越來(lái)越大。

      二維圖像的重建仿真源圖像為512×512的Le?na圖和peppers圖,分別基于K-SVD算法和本文算法進(jìn)行恢復(fù)重構(gòu),其重構(gòu)結(jié)果如下圖所示,可見(jiàn)不同的采樣率下,本文算法重構(gòu)效果都好于K-SVD算法的重構(gòu)效果。如圖2所示。

      圖2 二維圖像的重建仿真

      5 結(jié)語(yǔ)

      針對(duì)于K-SVD在圖像重構(gòu)中所存在的恢復(fù)準(zhǔn)確度不夠高以及稀疏編碼時(shí)間過(guò)長(zhǎng)的問(wèn)題,本文提出了基于TL1范數(shù)的改進(jìn)的K-SVD字典學(xué)習(xí)模型。首先本文建立非凸極小化模型,提出了改進(jìn)的字典學(xué)習(xí)算法,該方法利用非凸‖*‖TL范數(shù)求得的1稀疏表示,提升了字典訓(xùn)練速度與性能。其次圖像重構(gòu)實(shí)例結(jié)果表明與K-SVD字典學(xué)習(xí)算法相比,本文算法稀疏編碼速度更快,恢復(fù)的準(zhǔn)確度更高,重構(gòu)效果更好。由于完備字典的訓(xùn)練時(shí)間過(guò)長(zhǎng),因此如何訓(xùn)練更快速、更有效的字典是下一步工作的內(nèi)容。

      [1]Dong Wei-sheng,Zhang Lei,Shi Guang-ming,et al.Non?locally centralized sparse representation for image restora?tion[J].Image Processing,IEEE Transactions on,2013,22(4):1620-1630.

      [2]Yang M,Zhang L,F(xiàn)eng X,et al.Fisher Discrimination Dictionary Learning for sparse representation[C]//IEEE International Conference on Computer Vision,ICCV 2011,Barcelona,Spain,November.DBLP,2011:543-550.

      [3]Candes E J,Romberg J,Tao T.Robust uncertainty princi?ples:exact signal reconstruction from highly incomplete frequency information[J].IEEE Transactions on Informa?tion Theory,2006,52(2):489-509.

      [4]Mallat S,Zhang Z.Matching pursuits with time-frequen?cy dictionaries[J].IEEE Transactions on Signal Process?ing,1993,41(12):3397-3415.

      [5]Olshausen B A,F(xiàn)ield D J.Emergency of simple-cell re?ceptive field properties by learning a sparse code for natu?ral images[J].Nature,1996,381(6583):607-609.

      [6]Mailhé B,Plumbley M D.Dictionary learning with large step gradient descent for sparse representations[C]//In:Proceedings of the 10th International Conference on La?tent Variable Analysis and Signal Separation.Berlin,Hei?delberg:Springer,2012.231-238.

      [7]Engan K,Aase S O,Husoy J H.Method of optimal direc?tions for frame design[C]//IEEE International Conference on Acoustics,Speech,and Signal Processing,1999.Pro?ceedings.IEEE,1999:2443-2446 vol.5.

      [8]Aharon M,Elad M,Bruckstein A M.The K-SVD:an algo?rithm for designing of over complete dictionaries for sparse representation[J].IEEE Transactions on Signal Process?ing,2006,54(11):4311-4322.

      [9]Rubinstein R,Zibulevsky M,Elad M.Efficient implemen?tation of the K-SVD algorithm using batch orthogonal matching pursuit[J].CS Technion,2008,40(8):1-15.

      [10]Smith L N,Elad M.Improving dictionary learning:Multi?ple dictionary updates and coefficient reuse[J].Signal Processing Letters IEEE,2013,20(1):79-82.

      [11]NIKOLOVAM.Local strong homogeneity of a regularized estimator[J].SIAM J Appl Math,2000,61(2):633-658.

      [12]Lv J,F(xiàn)an Y.A unified approach to model selection and sparse recovery using regularized least squares[J].An?nals of Statistics,2009,37(6A):3498-3528.

      [13]Zhang S,Xin J.Minimization of Transformed$L_1$Pen?alty:Closed Form Representation and Iterative Thresh?oldingAlgorithms[J].Mathematics,2014.

      [14]S Zhang,J Xin.Minimization of Transformed L1 Penalty:Theory Difference of Covex Function Algorithm,and Ro?bust Application in CompressedSensing[EB/OL].Eprint?Arwiv,2016.https://arxiv.org/abs/1411.573.

      [15]BrucksteinA M,Donoho D L,Elad M.From sparse solu?tions of systems of equations to sparse modeling of sig?nals and images[J].SIAM Review,2009,51(1):34-81.

      [16]Donoho D L,Elad M,Temlyakov V N.Stable recovery of sparse over complete representations in the presence of noise[J].Information Theory,IEEE Transactions on,2006,52(1):6-18.

      [17]Mallat S G,Zhang Z.Matching pursuits with time-fre?quency dictionaries[J].Signal Processing,IEEE Trans?actions on,1993,41(12):3397-3415.

      [18]Tropp J.Greed is good:Algorithmic results for sparse ap?proximation[J].Information Theory,IEEE Transactions on,2004,50(10):2231-2242.

      [19]Donoho D L.For most large underdeterzmined systems of linear equations the minimal 1-norm solution is also the sparsest solution[J].Communicationson Pure and Ap?plied Mathematics,2006,59(6):797-829.

      [20]Chen S S,Donoho D L,Saunders M A.Atomic decompo?sition by basis pursuit[J].SIAM Journal on Scientific Computing,1998,20(1):33-61.

      [21]Gorodnitsky I F,Rao B D.Sparse signal reconstruction from limited data using FOCUSS:A re-weighted mini?mum norm algorithm[J].Signal Processing,IEEE Trans?actions on,1997,45(3):600-616.

      [22]Efron B,Hastie T,Johnstone I,et al.Least angle regres?sion[J].The Annals of Statistics,2004,32(2):407-499.

      [23]戴瓊海,付長(zhǎng)軍,季向陽(yáng).壓縮感知研究[J].計(jì)算機(jī)學(xué)報(bào),2011,34(3):425-434.DAI Qionghai,F(xiàn)U Changjun,JI Xiangyang.Research on compressed sensing[J].Chinese journal of computers,2011,34(3):425-434.

      [24]S Zhang,J Xin.Minimization of Transformed L1 Penalty:Closed Form Representation and Iterative Thresholding Algorithms, Mathematics, 2016https://arxiv.org/abs/1412.5240.

      K-SVD Dictionary Learning Algorithm Based on TL1Norm

      YUAN Chao LI Haiyang
      (School of Science,Xi'an Polytechnic University,Xi'an 710048)

      K-SVD dictionary learning algorithm is employed to obtain the training dictionary by using sparse coding and dic?tionary updating iteratively,in which Orthogonal Matching Pursuit algorithm(OMP)is used to get the sparse expressions in the sparse coding stage,while the SVD algorithm is utilized to update the dictionary.However,when it is applied into the image recon?struction,the Orthogonal Matching Pursuit algorithm(OMP)is slower and its accuracy is not satisfied.Aiming at this problem,To improve the speed and performance of training dictionary,l0is replaced with TL1in the sparse coding stage,and the iterative thresh?old algorithm is used to the sparse expressions.To test the performance of the proposed algorithm,date synthesis experiment is con?ducted under different sparse degree,and these results show that the proposed algorithm is better than the K-SVD.To further test the performance of the proposed algorithm,the standard image is used to simulate and the experimental results show that the pro?posed algorithm is faster than K-SVD to obtain the training dictionary,and has higher PSNR and better reconstruction performance.

      dictionary learning,K-SVD,threshold iterative algorithm,TL1norm,image reconstruction

      Class Number TP301.6

      TP301.6

      10.3969/j.issn.1672-9722.2017.12.001

      2017年6月5日,

      2017年7月23日

      國(guó)家自然科學(xué)基金項(xiàng)目(編號(hào):11271297);陜西省自然科學(xué)基金項(xiàng)目(編號(hào):2015JM1012)資助。

      袁超,男,碩士研究生,研究方向:圖像處理,機(jī)器學(xué)習(xí)。李海洋,博士,教授,研究方向:稀疏信息處理,量子邏輯及格上拓?fù)鋵W(xué)。

      猜你喜歡
      范數(shù)字典重構(gòu)
      開(kāi)心字典
      家教世界(2023年28期)2023-11-14 10:13:50
      開(kāi)心字典
      家教世界(2023年25期)2023-10-09 02:11:56
      長(zhǎng)城敘事的重構(gòu)
      攝影世界(2022年1期)2022-01-21 10:50:14
      北方大陸 重構(gòu)未來(lái)
      基于加權(quán)核范數(shù)與范數(shù)的魯棒主成分分析
      北京的重構(gòu)與再造
      商周刊(2017年6期)2017-08-22 03:42:36
      矩陣酉不變范數(shù)H?lder不等式及其應(yīng)用
      我是小字典
      論中止行為及其對(duì)中止犯的重構(gòu)
      正版字典
      讀者(2016年14期)2016-06-29 17:25:50
      集贤县| 临猗县| 弥渡县| 宁陕县| 晋州市| 阿克| 长葛市| 天峻县| 栾川县| 体育| 梁山县| 宁城县| 五台县| 晋中市| 平乡县| 黄梅县| 江华| 孟津县| 巴中市| 涟水县| 冷水江市| 通州市| 当雄县| 广昌县| 东方市| 化隆| 大荔县| 元朗区| 喜德县| 舞阳县| 怀化市| 高清| 伊金霍洛旗| 临夏市| 潢川县| 赣州市| 郧西县| 惠东县| 安乡县| 茌平县| 洪洞县|