




版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報或認(rèn)領(lǐng)
文檔簡介
1、集中稀疏表示的圖像恢復(fù)董偉勝 中國西安電子科技大學(xué)電子工程學(xué)院 wsdong張磊 香港理工大學(xué)計算機(jī)系 .hk石光明 中國西安電子科技大學(xué)電子工程學(xué)院 gmshi 摘 要本文對于圖像恢復(fù)任務(wù)提出了一種新的稱為集中稀疏表示(CSR)的稀疏表示模型。為了重建高還原度的圖像,通過給定的字典,退化圖像的稀疏編碼系數(shù)預(yù)計應(yīng)該盡可能接近那些未知的原始圖像。然而,由于可用的數(shù)據(jù)是原始圖像的退化版本(如噪聲、模糊和/或者低采樣率),正如許多現(xiàn)有的稀疏表示模型一樣,如果只考慮局部的稀疏圖像,稀疏編碼系數(shù)往往不夠準(zhǔn)確。為了使稀疏編碼更加準(zhǔn)確,通過利用非局部圖像統(tǒng)計,引入
2、一個集中的稀疏性約束。為了優(yōu)化,局部稀疏和非局部稀疏統(tǒng)一到一個變化的框架內(nèi)。大量的圖像恢復(fù)實驗 驗證了我們的CSR模型在以前最先進(jìn)的方法之上取得了令人信服的改進(jìn)。1、介紹 圖像恢復(fù)(IR)目的是為了從,比如說通過一個低端攝像頭或者在有限條件下得到圖像的圖像退化版本(例如噪聲、模糊和/或者低采樣率), 來恢復(fù)一副高質(zhì)量的圖像。對于觀察的圖像y,IR問題可以表示成: y = Hx + v (1)其中H是一個退化矩陣,x是原始圖像的矢量,v是噪聲矢量。由于IR的病態(tài)特性,嘗試把觀察模型和所需解決方案的先驗知識合并到一個變分公式的正則化技術(shù),已經(jīng)被廣泛地研究。對于正則方法,對自然圖像適當(dāng)?shù)南闰炛R進(jìn)行
3、尋找和建模是最重要的關(guān)注點之一,因此學(xué)習(xí)自然圖像先驗知識的各種方法已經(jīng)被提出來了【25,5,6,12】。 近年來,對于圖像恢復(fù)基于建模的稀疏表示已經(jīng)被證明是一種很有前途的模型【9,5,13,20,16,21,27,15,14】。在人類視覺系統(tǒng)【23,24】的研究中,已經(jīng)發(fā)現(xiàn)細(xì)胞感受區(qū)域使用少量的從一個超完備的編碼集中稀疏選出的結(jié)構(gòu)化基元來編碼自然圖像。在數(shù)學(xué)上,一個x RN的信號可以表示為一個字典F中的幾個原子的線性組合,例如,X Fa,用|0最小化: ax = argmin |a|0, s.t.|x a|2 e , (2)其中|0 對a中的非零系數(shù)進(jìn)行統(tǒng)計,e是一個很小的平衡稀疏性和近似誤差
4、的常數(shù)。在實踐中,為了高效的凸優(yōu)化【13,9】,|0范數(shù)通常被|1 范數(shù)所替代。另一方面,對照分析設(shè)計字典(比如小波字典)、學(xué)習(xí)字典【1,21,19】,例如圖像分塊可以更好地適應(yīng)信號x和描述圖像結(jié)構(gòu)特征。 在IR的方案中,我們有原始圖像x的一些退化觀察值y,即y = Hx + v。為了從y中重建x,首先y通過求解下列最小化問題從進(jìn)行稀疏編碼: ay = argmin |a|1, s.t.|y H a|2 e , (3)然后重構(gòu)的x,由x表示,得到x=ay。顯然,式(3)中的ay預(yù)期上與ax非常接近,所以估算的圖像x可以與真實圖像x非常接近。不幸的是,因為y受噪聲干擾,是模糊和不完整的,式(3)
5、中的編碼矢量ay可能與所需矢量ax偏差很大,導(dǎo)致圖像x的恢復(fù)不準(zhǔn)確。換句話說,模型式(3)可以確保式ay是稀疏的,但不能確保ay與ax無限接近。 在本文中,我們介紹稀疏噪音編碼(SCN)的概念來方便問題討論。y的SCN定義為: Va = ax - ay, (4)我們可以看到在給定的字典中,IR的結(jié)果取決于SCN Va的水平,因為圖像重建誤差Vx= x-xay-ax=Va。SCN Va的定義還表明了一種提高IR質(zhì)量的方法,即降低Va的水平。 常規(guī)的稀疏表示模型,比如在式(2)或式(3)中的,主要利用了自然圖像(基于分塊)的局部稀疏性。每一個圖像塊獨立編碼,不考慮其他塊。盡管如此,稀疏編碼系數(shù)a不
6、是隨機(jī)分布的,因為圖像局部分塊是非局部相關(guān)的。非局部平均值(NLM)方法,其目的是利用圖像非局部冗余,已經(jīng)成功地運用在許多圖像處理應(yīng)用中,特別是在去噪方面【6】。這意味著可以利用圖像的非局部相似性來減少SCN,因此,復(fù)原圖像的質(zhì)量可以得到改善。事實上,最近的一些研究工作,比如【10】和【20】,都是基于這樣的考慮的。例如,在【20】中提出了一組能夠同時編碼相似的塊的稀疏編碼方案,并取得了很好的去噪效果。 在本文中,我們提出了一個能夠有效減少SCN的集中系數(shù)表示(CSR)模型,從而提高了基于稀疏的IR性能。其基本思想是將圖像的局部稀疏約束(即一個局部塊可以被一些從一個字典稀疏選擇的原子進(jìn)行編碼)
7、和集中稀疏約束(即稀疏編碼系數(shù)應(yīng)該接近其平均值)整合到一個統(tǒng)一的變化的優(yōu)化框架中。具體而言,除了要求每個局部塊的編碼系數(shù)是稀疏的之外,我們也通過利用非局部相似性引起的稀疏性來強(qiáng)制讓稀疏編碼系數(shù)具有小的SCN,這一點可以用|1 范數(shù)來表示其特征。通過進(jìn)行大量的IR實驗,實驗結(jié)果表明,所推薦的CSR算法明顯優(yōu)于許多最頂尖的IR方法。2、集中稀疏表示模型2.1 圖像恢復(fù)的稀疏編碼噪音 按照【16】中所用的符號,我們用xRN 表示原始圖像,用xi=xRi表示在一個大小為的圖像塊中位置為i,其中Ri在i位置上的從x提取的矩陣塊xi,給定一個字典RnM,nM,通過使用一些稀疏編碼算法【13,9】,每個塊可
8、以被稀疏編碼成XFa這樣的格式。然后整個圖像x可以用稀疏編碼集合ai稀疏表示。如果塊允許重疊,我們得到一個非常冗余的基于塊的圖像表示。然后從稀疏代碼集ai重建x是一個超定體系,一個簡單明了的最小二乘解是【16】: 其中ax表示所有ai的連接。上面的公式只是說明整體圖像已經(jīng)通過平均xi的每一個重建塊完成了重建。 (a) (b)(c) (d) 圖1. Lena圖像(a)是有噪音和模糊時的SCN分布;(b)是低采樣率時的。(c)和(d)分別表示在log域中的(a)和(b)的相同分布。 在IR的應(yīng)用中,x是不能編碼的,我們所有的只是觀察的退化的y=Hx + v。x的稀疏編碼是基于y通過最小化 ay =
9、 argmin | y - H a |2 2 + l | a|1 , (6) 然后圖像就被重建成x =ay。正如我們在式(4)中所定義和討論的,系數(shù)ay將偏離ax,并且稀疏編碼噪聲(SCN)Va = ay-ax決定了x的圖像恢復(fù)質(zhì)量。在此我們進(jìn)行了一些實驗來調(diào)查SCN Va的統(tǒng)計。我們使用Lena圖像作為例子。原始圖像x首先被模糊(用一個標(biāo)準(zhǔn)差為1.6的高斯模糊內(nèi)核),再加上一個標(biāo)準(zhǔn)差為的高斯白噪聲來獲得一個有噪聲和模糊的圖像y。然后我們分別通過最小化 ax = argmin | x - a |2 2 + l | a|1 , (7)和式(6)計算ax和ay。DCT字典在這個實驗被采用。然后通過
10、Va=ay-ax計算SCN。在圖1(a)中,我們繪出對應(yīng)字典中的第四個原子(其他原子的分布類似)對應(yīng)的Va分布。在圖1(b)中,當(dāng)觀察的數(shù)據(jù)y剛開始模糊(由一個標(biāo)準(zhǔn)差為1.6的高斯模糊內(nèi)核)然后采樣后繪出Va分布。我們可以看到SCN Va的實驗分布在零處達(dá)到最高值,拉普拉斯算子函數(shù)可以很好地表示其特點,但高斯函數(shù)有很多更大的擬合誤差。在圖1(c)和(d)中我們log域顯示這些分布以便更好地觀察擬合的尾巴。這個觀察促使我們使用之前的拉普拉斯算子來對SCN建模,這些將在第三節(jié)介紹。2.2 集中稀疏表示 很明顯,抑制SCN Va有助于改善IR的輸出x,然而困難在于系數(shù)矢量ax是未知的,所以不能直接測
11、量Va。但是,如果我們能進(jìn)行一些對ax的合理估計,用 x表示,然后就可以用y x表示ax的一個近似值。直觀的說,為了抑制ax和提高ay的精確度,有一個新的稀疏編碼模型: 其中g(shù) 是一個常數(shù),lp (p可以是1或2)范數(shù)用來測量a與 x 間的距離。與式(6)相比,式(8)使y 接近 x(因此SCN Va能被抑制)從而使y是稀疏的,因此致使稀疏編碼比通過求解式(6)得來的更為可取。如果 x=0并且p=1,式(8)的模型將簡化為式(6)的常規(guī)模型。 現(xiàn)在問題轉(zhuǎn)化為如何找到一個未知矢量ax的合理估計。通過將ax看做一個隨機(jī)變矢量,ax的一個很好的無偏估計自然是它的平均值;也就是說,我們可以令 x=Ea
12、x。事實上,我么可以通過假設(shè)SCN的Va幾乎是零均值(請參閱2.1節(jié)中的經(jīng)驗觀察值)來由Eay近似Eax,并有 x=EaxEay。然后式(8)可以轉(zhuǎn)化為 我們把上面的模型稱為集中稀疏表示(CSR),因為它使稀疏編碼系數(shù)a強(qiáng)制接近其分布中心(即平均值)。 對于每一個圖像塊i的稀疏編碼ai,如果我們有足夠的ai的樣本,Eai是可以近似計算的。幸運的是,給定的塊i在自然圖像中通常有許多非局部相似塊。然后Eai可以通過與塊i相關(guān)的非局部相似塊(包括塊i)的那些稀疏編碼矢量的加權(quán)平均數(shù)來計算。為此,我們可以對每一個塊i通過塊匹配而形成一個簇,用Ci表示,然后計算每個簇里稀疏編碼的平均值。用ai,j表示找
13、到的與塊i相似的塊j的稀疏編碼。然后我們用所有ai,j的加權(quán)平均值來近似于Eai,即 m i = (10)其中wi,j 是權(quán)重。與非局部平均方法【6】中相似,wi,j可以被設(shè)置成與塊i與塊j間距離成反比: wi,j = exp( - | xi - xi,j |2 2/h) / W, (11)其中xi = i 和xi,j = i,j 是塊i和塊j的估計,W是一個歸一化因數(shù),h是一個預(yù)定的標(biāo)量。 通過用m i 作為Eai的估計,式(9)中的CSR模型可以寫成: 從式(12)中我們可以更清楚地看到CSR模型結(jié)合局部稀疏性(即|a|1)和非局部相似性誘導(dǎo)稀疏性(即|ai-m i|lp)到一個統(tǒng)一的變化
14、公式。通過利用局部和非局部的冗余,更好的IR結(jié)果是可以預(yù)期的。 實際上式(12)表明了一個CSR模型的迭代最小化方法。我們初始化m i為0,即m i(-1) =0。然后從一些初始的稀疏編碼結(jié)果,表示為ay(0),我們可以得到x的初始估計,表示為x(0),通過x(0)= ay(0)。在x(0)的基礎(chǔ)上,我們可以找到每一個局部塊i的相似塊,并因此每個塊的非局部平均編碼矢量,即mi,就可以根據(jù)ay(0) 通過式(10)和式(11)來更新。更新后的平均值由m i (0) 表示,將會在CSR模型的下一輪稀疏編碼處理中用到。這個步驟被重復(fù)使用直到收斂為止。在第j次迭代中,稀疏編碼由下式執(zhí)行:從上面的討論中
15、可以看出,稀疏編碼和非局部聚類步驟在擬定的CSR方案中交替執(zhí)行。在迭代過程中,稀疏編碼ay(j)的準(zhǔn)確性是逐步提高的,這又反過來提高了非局部聚類的準(zhǔn)確性,非局部聚類準(zhǔn)確性的提高也進(jìn)一步提高了稀疏編碼的準(zhǔn)確性。最后,當(dāng)連接稀疏編碼和非局部聚類過程達(dá)到一個局部最小值就得到了所需的稀疏編碼ay。請注意,式(12)的模型不是凸的,但當(dāng)均值是m i固定的時則是凸的。也就是說,式(13)中的稀疏編碼步驟當(dāng)p1時是凸的。3、CSR算法3.1 l和g參數(shù)定義在擬定的CSR模型中,有兩個參數(shù)l和g,兩者分別平衡局部冗余引起的稀疏性和非局部冗余引起的稀疏性。這兩個參數(shù)可以使用訓(xùn)練集通過經(jīng)驗來設(shè)置。然而,一個更為合
16、理和適合的對兩者的設(shè)置,不僅能提高收斂速度,還能在很大程度上提高IR質(zhì)量【7】。在本章節(jié)中,我們提供了一個CSR模型稀疏編碼步驟的貝葉斯解釋,這也給我們一種明確的方式來確定參數(shù)l和g。事實上,在基于小波的圖像去噪【26】中,小波表示法和貝葉斯框架之間的聯(lián)系已經(jīng)很好地建立起來了。這樣的連接有助于調(diào)節(jié)確定方法和概率方法之間的差異。 從2.2節(jié)的討論中我們知道CSR模型有兩個輸出,稀疏編碼ay和均值mi,然而我們只對前者感興趣,因為圖像是從ay中恢復(fù)來的。換句話說, mi或者Eay是用于優(yōu)化過程中的隱藏變量。為了方便下面的發(fā)展,我們讓q=a-Ea。然后給定觀察值y,a和q的最大后驗概率(MAP)估計
17、可以按下式計算: 按照貝葉斯公式,我們可以得到: 這兩個式子分別對應(yīng)于可能性和前一個式子。根據(jù)式(1)的觀察模型,可能性式子被表征為: 其中sn 是添加的高斯噪聲標(biāo)準(zhǔn)差。 我們由經(jīng)驗發(fā)現(xiàn)a和q幾乎是不相關(guān)的。例如,我們在去模糊實驗所用的九個圖像(請參考4.1節(jié)),a和q間的相關(guān)系數(shù)范圍是從0.039到0.153。因此,本文中我們假設(shè)a和q是相互獨立的并且是獨立同分布隨機(jī)變矢量。如圖1所示,拉普拉斯分布可以很好的表征SCN。因此,我們可以用獨立同分布拉普拉斯算子分布給SCN信號q建模。同時,稀疏稀疏a在文獻(xiàn)上用獨立同分布拉普拉斯算子分布來表征也是可以接收的。因此,式(15)中的后驗概率可以表示為
18、: 其中ai和qi分別是a和q的在第i次的值,si和di分別是ai和qi的標(biāo)準(zhǔn)差。 把式(16)和(17)代入式(15),我們可以得到:通過比較式(18)和式(9),很明顯應(yīng)該選擇l1 范數(shù)(即p=1)來表征集中稀疏術(shù)語,使得a的貝葉斯最優(yōu)估計得以實現(xiàn)。這僅僅是因為q分布可以很好地由拉普拉斯算子建模。因此,式(9)中的CSR模型可以指定為 最終通過比較式(18)和(19),我們得到 在實現(xiàn)過程中,si和di是從收集到的非局部相似塊的ai和qi集合中估計出來的。這種估計比那些只使用局部塊的更為強(qiáng)大。然后,在每次迭代中(或在多次迭代中)li和gi隨著a和q的更新而更新。3.2 字典的選擇 在前面的
19、章節(jié)中,我們提出CSR模型和相關(guān)算法是基于假設(shè)字典已經(jīng)給定。提議的CSR模型是一個總模型并且的選擇是不同的。例如,可以使用小波字典,或者一個通過使用像奇異值分解KSVD【1】算法的示例圖像獲得的學(xué)習(xí)字典。然而,分析設(shè)計的小波字典和學(xué)習(xí)型KSVD字典是通用字典;也就是說,它們可以用來表示任何的圖像塊,但是它們可能沒有足夠的靈活性來稀疏表示一個給定的局部塊。在提出的CSR算法中,許多與給定塊類似的塊被收集起來。這促使我們對每一個塊使用一個與之相適應(yīng)的字典。我們了解的是每一個塊的或每一個相似塊簇的字典,而不是一個通用字典。具體地說,我們對每一個簇應(yīng)用PCA來獲得一個PCA學(xué)習(xí)字典,并用這個字典來編碼
20、這個簇中的塊。這樣一種PCA策略已經(jīng)在【28,8,15,14】中的IR中應(yīng)用。3.3 算法總結(jié) 從前面章節(jié)的分析我們可以看到,式(9)和式(12)中的CSR模型可以迭代求解。從一些初始化工作中可以看出,一旦解決了ay的稀疏編碼,就可以計算出非局部平均值mi,然后可以通過式(19)來更新ay,等等。式(19)有兩個l1 范數(shù)限制,并且可以通過增廣拉格朗日乘數(shù)(ALM)方法大體求解。在本文中,我們擴(kuò)展了一個在【13】中的從一個l1 約束到兩個l1 約束的迭代收縮(IS)算法。盡管IS算法需要多次迭代才收縮,但是每一次迭代都非常簡單。更重要的是,式(20)中的參數(shù)li和gi可以直接被轉(zhuǎn)換到IS算法中
21、的閾值。由于篇幅限制,我們忽略這里的細(xì)節(jié),有興趣的讀者可以參考【13】。 本文提出的基于CSR的圖像恢復(fù)算法的主要步驟在算法1中進(jìn)行總結(jié)。算法1:CSR圖像恢復(fù)l 初始化:利用標(biāo)準(zhǔn)稀疏模型【13】計算初始估計值x;l 外循環(huán):在l = 1,2,3,.,L上迭代 用PCA對每一個相似塊的簇更新字典; 用式(20)更新正則化參數(shù)(l和g); 從稀疏編碼ay(l-1) 計算非局部平均值mi(l-1); 由擴(kuò)展迭代收縮算法【13】通過求解式(19)計算ay(l) 。4、實驗結(jié)果 我們進(jìn)行了大量的IR實驗來證明所提出的CSR模型的性能。在圖像去噪方面,CSR可以取得與BM3D【10】和分組稀疏編碼方法【
22、20】非常相似的結(jié)果。由于篇幅限制,在本節(jié)中我們只展示圖像去模糊和超分辨率的結(jié)果。在我們的實驗中塊的大小為66,。CSR方法的源代碼和更多的實驗結(jié)果可以在.hk/cslzhang/CSR.htm中找到。4.1 圖像去模糊 CSR模型的去模糊性能在模擬的模糊圖像和真實的模糊圖像上進(jìn)行了驗證。為了模擬一個模糊圖像,原始圖像由一個模糊內(nèi)核進(jìn)行模糊,然后加入標(biāo)準(zhǔn)差sn =和sn = 2的加性高斯噪聲。用于模擬的兩個模糊內(nèi)核:一個99的均衡內(nèi)核和一個標(biāo)準(zhǔn)差為1.6的高斯模糊內(nèi)核。對于真正的運動模糊圖像,我們借用了【17】中的內(nèi)核估計方法來估計模糊內(nèi)核。 我們比較了CSR模糊方法和幾
23、個最近發(fā)展的去模糊方法,例如受約束的電視去模糊方法(表示為FISTA)【2】、SA-DCT去模糊方法【18】以及BM3D去模糊方法【11】。需要注意的是FISTA是最近提出的基于電視的去模糊方法,能很好地重建分段光滑區(qū)域。SA-DCT和BM3D是兩個著名的圖像恢復(fù)方法,往往會有最頂尖的圖像去模糊效果。 表1是一組9幅攝影圖像的PSNR(峰值信噪比)結(jié)果報告。從表1中,我們可以得到這樣的結(jié)論:對于均勻模糊和高斯模糊,提出的CSR去模糊方法顯著優(yōu)于其他競爭方法。圖2是去模糊方法的視覺比較,從中我們可以看到,與其他方法相比,CSR模型使圖像邊緣和紋理更加整潔與清晰。在補(bǔ)充材料中有更多的例子。 表1
24、去模糊圖像的PSNR(dB)結(jié)果99 均勻模糊, n = 2ImagesButterflyBoatsC. ManStarfishParrotLenaBarbaraPeppersLeavesAverageFISTA 228.3729.0426.8227.7529.1128.3325.7528.4326.4927.79SA-DCT 1827.5029.2527.0228.1130.0728.4326.5828.3627.0428.04BM3D 1127.2129.9327.3028.6130.5028.9727.9928.6027.4528.51CSR29.7531.1028.5530.3032.
25、0929.9527.9329.6429.9729.9599均勻模糊,n = 2FISTA 227.7327.9326.1327.5028.8827.4025.2427.4226.0327.14SA-DCT 1826.4628.1426.1127.1429.1027.5825.7527.5725.8627.08BM3D 1126.5629.2126.6127.9729.7528.3427.2628.0226.6027.81CSR28.6630.4827.6829.0030.5729.2327.2029.0528.6428.94標(biāo)準(zhǔn)差為1.6的高斯模糊,n = 2FISTA 230.3629.36
26、26.8029.6531.2329.4725.0329.4229.3328.97SA-DCT 1829.8530.2827.4430.8432.4630.4327.0029.2229.7029.69BM3D 1129.0130.6327.4630.7132.2230.6928.1929.0329.6729.74CSR30.7531.4028.2432.3133.4431.2327.8130.1731.4430.70標(biāo)準(zhǔn)差為1.6的高斯模糊,, n = 2FISTA 229.6727.8925.9429.1830.7428.0024.5427.9428.6228.07SA-DCT 1829.42
27、29.8826.9930.0431.7929.9626.0828.9029.1629.13BM3D 1128.5630.2127.0830.2331.7230.2827.0228.7329.1029.21CSR30.1431.1927.8131.4732.6030.9426.5330.0330.5630.09圖2. 海星圖像(99的均勻模糊,sn =)的圖像去模糊算法性能比較。(a)噪聲與模糊;(b)FISTA【2】(PSNR=27.75dB);(c)BD3M【11】(PSNR=28.61dB);(d)CSR(PSNR=30.30dB)。 我們也將提出的CSR模型應(yīng)用到一些真實運動模糊圖像,但
28、真正的模糊內(nèi)核是不知道的。由于模糊內(nèi)核估計是一項重要的任務(wù)并且超出了本文的討論范圍,所以我們借用了【17】中的模糊內(nèi)核估計方法來估計模糊內(nèi)核。然后將估計的模糊內(nèi)核送入提出的CSR方法。在圖3中,通過【17】中的盲目去模糊方法和提出的CSR,我們給出了一個真實模糊圖像的去模糊后的圖像。我們可以看出,通過我們的方法恢復(fù)出的圖像更加清晰并且有更多的細(xì)節(jié)。 圖3. 用【17】中的內(nèi)核估計方法估計出的模糊內(nèi)核對一幅真實模糊圖像去模糊性能的比較。(a)輸入的模糊圖像;(b)【17】方法的去模糊圖像;(c)CSR方法的去模糊圖像;(d)特寫鏡頭。4.2 超分辨率單一圖像 在超分辨率單一圖像中,觀測到的低分辨
29、率(LR)圖像是由第一個模糊內(nèi)核模糊和一個比例因子采樣得到的。因此,從單一的LR圖像恢復(fù)出高分辨率(HR)圖像比圖像去模糊更加不確定。在本章節(jié)中,我們用提出的CSR方法和其他與之相競爭的方法來進(jìn)行超分辨率單一圖像實驗。觀察到的LR圖像是由一個模糊內(nèi)核模糊一個HR圖像,比如說一個標(biāo)準(zhǔn)差為1.6的77的高斯濾波器,然后在水平和垂直方向?qū)δ:龍D像進(jìn)行比例因子為3的下采樣。LR圖像也添加了標(biāo)準(zhǔn)差為5的加性高斯噪聲,使得圖像恢復(fù)問題更加有挑戰(zhàn)性。由于人的視覺系統(tǒng)對亮度變化更為敏感,所以我們只對亮度成分進(jìn)行圖像恢復(fù)方法并且對色差成分使用簡單的雙三次內(nèi)插器。 我們對提出的基于CSR的IR方法和一些最近開發(fā)的
30、圖像超分辨率方法進(jìn)行比較,例如【12】中的softcut方法、【22】中的基于TV的方法和【27】中的基于稀疏表示的方法。由于【27】中的基于稀疏表示的方法不能同時提高分辨率和去模糊,所以正如【27】中所建議的,我們用迭代反投影來對方法【27】的輸出進(jìn)行去模糊。 表2是幾種方法對一組9幅自然圖像的PSNR結(jié)果報告。從表2中我們可以得出結(jié)論:本文提出的CSR方法明顯優(yōu)于其他方法。這顯示出CSR模型對于解決圖像逆問題的優(yōu)越性。圖4顯示的是CSR和其他方法的主觀比較。我們可以看出【22】中的基于TV的方法容易產(chǎn)生分段不變結(jié)構(gòu);【12】中的softcut方法產(chǎn)生過于平滑的圖像局部結(jié)構(gòu);【27】中的基于
31、稀疏表示方法重建的圖像邊緣包含一些可見的偽造。顯然,通過CSR的圖像重建提供了最佳的視覺質(zhì)量。重建的邊緣相比其他三種方法都更加清晰,并且恢復(fù)出更多的圖像精細(xì)結(jié)構(gòu)。 表2 重建HR圖像PSNR(dB)結(jié)果(亮度成分)NoiselessImagesButterflyflowerGirlPathenonParrotRaccoonBikeHatPlantsAverageTV 2226.5627.5131.2426.0027.8527.5423.6629.2031.3427.88Softcut 1224.7427.3131.8225.9527.9927.8223.1529.5031.1927.72Spa
32、rsity 2724.7027.8732.8726.2728.7028.5123.2329.6331.5528.15Proposed CSR28.1929.5433.6827.2330.6829.2924.7231.3334.0029.85NoisyTV 2225.4926.5729.8625.3527.0126.7423.1128.1329.7026.88Softcut 1224.5326.9831.3025.7227.6927.4822.9129.1330.5727.37Sparsity 2723.6126.6030.7125.4027.1527.2222.4528.3129.5726.7
33、8Proposed CSR26.8428.0732.0326.4029.4728.0323.7829.9631.7328.48圖4. 植物圖片(比例因子為3,sn=0)的超分辨率性能比較。(a)LR圖像;(b)基于TV的方法【22】(PSNR=31.34dB);(c)基于稀疏性方法【27】(PSNR=31.55dB);(d)CSR方法(PSNR=34.00dB)。5、總結(jié) 圖像恢復(fù)(IR)在圖像處理和計算機(jī)視覺應(yīng)用中是一個基本的主題,并且已經(jīng)被廣泛研究。在本文中,我們研究了基于稀疏編碼技術(shù)的IR。為了更好地了解IR稀疏編碼的有效性,我們引入了稀疏編碼噪聲(SCN)的概念,并且根據(jù)經(jīng)驗發(fā)現(xiàn)SCN
34、服從拉普拉斯算子分布。為了抑制SCN從而改善IR質(zhì)量,利用圖像非局部相似性提出了集中稀疏表示(CSR)模型。除了局部稀疏,我們也執(zhí)行稀疏系數(shù)來獲得小的SCN,即接近它們的分布中心。局部和非局部冗余引起的稀疏,都由l1 范數(shù)表示,統(tǒng)一成一個變分公式。然后一個CSR模型的貝葉斯解釋可以精確地確定正則化參數(shù)。IR實驗結(jié)果表明,CSR圖像恢復(fù)方法顯著優(yōu)于其他IR方法。6、致謝 部分支持這項研究工作的有國家自然科學(xué)基金(No.61033004,60736043,61070138,61072104),中國中央高?;A(chǔ)研究基金(K50510020003),香港研究資助局研究基金(香港理工大學(xué)5375/09E
35、)。7、參考文獻(xiàn)1 M. Aharon, M. Elad, and A. Bruckstein. K-svd: an al- gorithm for designing overcomplete dictionaries for sparse representation. IEEE Trans. Signal Process., 54(11):4311 4322, Nov. 2006. 1, 42 A. Beck and M. Teboulle. Fast gradient-based algorithms for constrained total variation image deno
36、ising and deblurring problems. IEEE Trans. On Image Process., 18(11):2419 2434, Nov. 2009. 5, 6, 73 D. Bertsekas, A. Nedic, and A. Ozdaglar. Convex Analysis and Optimization. Athena Scientific, 2003. 54 J. Biemond, R. Lagendijk, and R. Mersereau. Iterative methods for image deblurring. Proceedings o
37、f the IEEE, 78(5):856883, 1990. 15 A. M. Bruckstein, D. L. Donoho, and M. Elad. From sparse solutions of systems of equations to sparse modeling of sig- nals and images. SIAM Review, 51(1):3481, Feb. 2009. 16 A. Buades, B. Coll, and J. M. Morel. A non-local algorithm for image denoising. In IEEE Int
38、. Conf. on CVPR, volume 2, pages 6065, 2005. 1, 2, 37 E. Candes, M. B. Wakin, and S. P. Boyd. Enhancing sparsity by reweighted l1 minimization. Journal of Fourier Analysis and Applications, 14:877905, Dec. 2008. 48 P. Chatterjee and P. Milanfar. Clustering-based denoising with locally learned dictio
39、naries. IEEE Trans. Image Pro- cessing, 18(7):14381451, July 2009. 59 S. Chen, D. Donoho, and M. Saunders. Atomic decomposi- tions by basis pursuit. SIAM Review, 43:129159, 2001. 1,210 K. Dabov, A. Foi, V. Katkovnik, and K. Egiazarian. Image denoising by sparse 3-d transform-domain collaborative fil
40、- tering. IEEE Trans. Image Process., 16(8):20802095, Aug. 2007. 2, 511 K. Dabov, A. Foi, V. Katkovnik, and K. Egiazarian. Image restoration by sparse 3d transform-domain collaborative fil- tering. In SPIE Conference Series, 2008. 5, 6, 712 S. Dai, M. Han, W. Xu, Y. Wu, Y. Gong, and A. K. Katsagge-
41、los. Softcuts: a soft edge smoothness prior for color image super-resolution. IEEE Trans. Image Process., 18(5):969 981, May 2009. 1, 6, 813 I. Daubechies, M. Defriese, and C. DeMol. An iterative thresholding algorithm for linear inverse problems with a sparsity constraint. Commun. Pure Appl. Math.,
42、 57:1413 1457, 2004. 1, 2, 514 W. Dong, G. Shi, L. Zhang, and X. Wu. Super-resolution with nonlocal regularized sparse representation. In Proc. of SPIE Vis. Comm. and Image Process. (VCIP), volume 7744, pages 77440H177440H10, 2010. 1, 515 W. Dong, L. Zhang, G. Shi, and X. Wu. Image deblur- ring and
43、super-resolution by adaptive sparse domain selec- tion and adaptive regularization. IEEE Trans. Image Pro- cessing, 20(7):18381857, July 2011. 1, 516 M. Elad and M. Aharon. Image denoising via sparse and redundant representations over learned dictionaries. IEEE Trans. Image Process., 15(12):37363745
44、, Dec. 2006. 1, 217 R. Fergus, B. Singh, A. Hertzmann, S. T. Roweis, and W. T. Freeman. Removing camerashake from a single image. ACM Trans. Graph. (SIGGRAPH), pages 787794, 2006. 5, 618 A. Foi, V. Katkovnik, and K. Egiazarian. Pointwise shape- adaptive dct for high-quality denoising and deblocking
45、of grayscale and color images. IEEE Trans. Image Process., 16(5):13951411, May 2007. 5, 719 J. Mairal, F. Bach, J. Ponce, and G. Sapiro. Online dictionary learning for sparse coding. In Proc. of the 26th Annual Int.Conf. on Machine Learning, pages 689696, 2009. 120 J. Mairal, F. Bach, J. Ponce, G. S
46、apiro, and A. Zisserman.Non-local sparse models for image restoration. In Proc. of the IEEE ICCV, Tokyo, Japan, 2009. 1, 2, 521 J. Mairal, M. Elad, and G. Sapiro. Sparse representation for color image restoration. IEEE Trans. on Image Processing, 17(1):5369, Jan. 2008. 122 A. Marquina and S. J. Oshe
47、r. Image super-resolution by tv-regularization and bregman iteration. J. Sci. Comput., 37:367382, 2008. 6, 7, 823 B. Olshausen and D. Field. Emergence of simple-cell re- ceptive field properties by learning a sparse code for natural images. Nature, 381:607609, 1996. 124 B. Olshausen and D. Field. Sp
48、arse coding with an overcom- plete basis set: a strategy employed by v1? Vision Research, 37:33113325, 1997. 125 L. Rudin, S. Osher, and E. Fatemi. Nonlinear total variation based noise removal algorithms. Phys. D, 60:259268, 1992. 126 L. Sendur and I. W. Selesnick. Bivariate shrinkage func- tions f
49、or wavelet-based denoising exploiting interscale de- pendency. IEEE Trans. Signal Process., 50(11):27442756,Nov. 2002. 427 J. Yang, J. Wright, Y. Ma, and T. Huang. Image super- resolution as sparse representation of raw image patches. In Proc. of the IEEE CVPR, Jun. 2008. 1, 6, 7, 828 L. Zhang, W. D
50、ong, D. Zhang, and G. Shi. Two-stage image denoising by principal component analysis with local pixel grouping. Pattern Recognition, 43:15311549, Apr. 2010. 5代碼及注釋/添加噪聲function im_o = Add_noise( im, v ) seed = 0;randn( state, seed );noise = randn( size(im) );im_o = double(im) + v*noise;/模糊函數(shù)function z = Blur (mode,x,psf)ws = size(psf);t = (ws-1)/2; if mode = fwd, /正變換模式 s = x; /輸入圖像 se = s(:,t:-1:1,:), s, s(:,end:-1:end-t+1,:); se = se(t:-1:1,:,:); se; se(end:-1:end-t+1,:,:); if size(x,3)=3 /輸出z = Hx z(:,:,1) = conv2(se(:,:
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。
最新文檔
- 出租樹地合同范本
- 鄉(xiāng)間建道路合同范例
- 做鋼筋合同范例
- 井蓋銷售合同范例
- 專利代理加工合同范例
- 業(yè)務(wù)推廣合同范例
- 全部財產(chǎn)贈與合同范例
- 關(guān)于茶葉銷售合同范例
- 制作補(bǔ)充協(xié)議合同范例
- 辦公勞務(wù)合同范例
- 1概論-3(建筑構(gòu)造)ppt課件
- 《農(nóng)村合作金融機(jī)構(gòu)非信貸資產(chǎn)風(fēng)險分類指引》(銀監(jiān)發(fā)[2007]29號)
- 電纜敷設(shè)施工方案及安全措施范文
- 卡通手繪可愛小兔子PPT模板
- 小兒體格檢查(課堂PPT)
- ppt模板:信保專用中國出口信用保險公司課件
- (高清版)建筑塑料復(fù)合模板工程技術(shù)規(guī)程JGJ_T 352-2014
- 人教版八年級數(shù)學(xué)下冊全冊教案(完整版)教學(xué)設(shè)計
- 電機(jī)零部件中英文對照表
- 設(shè)備安裝工程監(jiān)理規(guī)劃
- 注冊安全工程師(延續(xù)注冊)履職情況說明
評論
0/150
提交評論