本發(fā)明涉及稀疏信號(hào)重構(gòu),尤其涉及一種基于非凸范數(shù)的固定時(shí)間神經(jīng)動(dòng)力學(xué)稀疏信號(hào)重構(gòu)方法。
背景技術(shù):
1、稀疏重建技術(shù)以其在多個(gè)領(lǐng)域中的廣泛應(yīng)用而備受矚目,包括但不限于信號(hào)處理、目標(biāo)檢測、雷達(dá)探測和電子工程等。在工程和科學(xué)界,學(xué)者們對(duì)稀疏重建問題的研究興趣濃厚。其核心挑戰(zhàn)在于從帶有噪聲的欠定線性系統(tǒng)中推斷出未知的稀疏信號(hào)。相較于傳統(tǒng)的基于nyquist采樣定理的方法,基于壓縮感知原理的稀疏重建過程對(duì)采樣速度的要求更為寬松,如圖6所示。深入的理論與實(shí)踐角度綜合分析表明,提出高效的稀疏重建方法是該領(lǐng)域亟待解決的關(guān)鍵問題之一。
2、目前,壓縮感知傾向于非相干系統(tǒng),其中任意兩個(gè)觀測矩陣盡可能少地關(guān)聯(lián)。然而,在現(xiàn)實(shí)中,許多采樣矩陣是高度相關(guān)的,而傳統(tǒng)的方法,如l1-范數(shù)最小化,恢復(fù)效果并不好。最近,不同的混合范數(shù)約束l1和l2范數(shù),記為l1-l2,表現(xiàn)出優(yōu)于經(jīng)典的l1方法,但它的計(jì)算成本很高。自無約束l1-l2模型出現(xiàn),一般采用凸差方法求解。數(shù)值試驗(yàn)表明l1-l2模型是一種有用的稀疏恢復(fù)模型。混合范數(shù)模型在稀疏信號(hào)恢復(fù)研究中得到了廣泛地研究,特別是l1和l2范數(shù)。
3、近年來,大量的稀疏優(yōu)化問題建立在大數(shù)據(jù)的基礎(chǔ)之上,并且對(duì)數(shù)據(jù)處理的實(shí)時(shí)性要求越來越高,比如在衛(wèi)星通信中,當(dāng)拍攝的視頻圖像從衛(wèi)星傳輸?shù)降孛娼K端,需要經(jīng)過短時(shí)間的降噪處理之后,呈現(xiàn)在人們面。當(dāng)前,數(shù)據(jù)類型日益增多,數(shù)據(jù)維度也在不斷升高,這迫切要求開發(fā)出一種高效的優(yōu)化方法來解決稀疏優(yōu)化問題。雖然現(xiàn)有的數(shù)值優(yōu)化方法在收斂速度方面尚有提升空間,且在實(shí)時(shí)性方面存在不足,仍有改進(jìn)的潛力。這就要求研究者不斷探索新的方法或改進(jìn)現(xiàn)有方法,以適應(yīng)高速和實(shí)時(shí)處理的需求。例如,申請(qǐng)?zhí)枮?00910023785.3發(fā)明名稱為一種稀疏信號(hào)的重構(gòu)方法;申請(qǐng)?zhí)枮?01210290161.x發(fā)明名稱為一種稀疏采樣與信號(hào)壓縮感知重構(gòu)方法等專利。收斂速度快、計(jì)算精度高、抗干擾能力強(qiáng)是高效優(yōu)化方法的重要指標(biāo)。不同于迭代優(yōu)化方法和智能優(yōu)化方法,神經(jīng)動(dòng)力學(xué)優(yōu)化方法利用神經(jīng)元的活動(dòng)原理,具有獨(dú)特的優(yōu)勢(shì)。
4、目前有一些漸進(jìn)收斂或者指數(shù)收斂的神經(jīng)動(dòng)力學(xué)優(yōu)化方法處理稀疏信號(hào)重構(gòu)問題。例如,申請(qǐng)?zhí)枮?021110095037.7發(fā)明名稱為一種基于ipnn和壓縮感知的稀疏信號(hào)重構(gòu)方法;為進(jìn)一步提高神經(jīng)動(dòng)力學(xué)方法的收斂速度,提出了有限時(shí)間方法。有限時(shí)間神經(jīng)動(dòng)力學(xué)方法的收斂時(shí)間上界往往與方法的初始狀態(tài)相關(guān),因此有相關(guān)學(xué)者研究基于神經(jīng)動(dòng)力學(xué)優(yōu)化的與初始狀態(tài)無關(guān)的稀疏信號(hào)重構(gòu)方法。
5、現(xiàn)有的稀疏信號(hào)重構(gòu)方法可能存在以下問題:一、現(xiàn)有數(shù)值迭代方法大多是基于數(shù)字計(jì)算機(jī)實(shí)現(xiàn),不利于方法的實(shí)時(shí)性刻畫;二、現(xiàn)有的稀疏信號(hào)恢復(fù)問題大多采用凸化近似采樣,在采樣矩陣相關(guān)性強(qiáng)的情況下,稀疏信號(hào)恢復(fù)效果不佳;三、現(xiàn)有神經(jīng)動(dòng)力學(xué)方法大多是漸進(jìn)收斂或指數(shù)收斂,理論上當(dāng)時(shí)間趨于無窮時(shí),神經(jīng)動(dòng)力學(xué)優(yōu)化方法的軌跡實(shí)現(xiàn)完整的稀疏信號(hào)重構(gòu);四、有限時(shí)間稀疏信號(hào)重構(gòu)方法的收斂時(shí)間上界與初始狀態(tài)相關(guān),在一些情況下,系統(tǒng)的初始狀態(tài)可能是未知的,不利于收斂時(shí)間上界的刻畫。
技術(shù)實(shí)現(xiàn)思路
1、本發(fā)明的目的在于提供一種基于非凸l1-μ2范數(shù)的固定時(shí)間神經(jīng)動(dòng)力學(xué)稀疏信號(hào)重構(gòu)方法,可在固定時(shí)間內(nèi)解決稀疏信號(hào)重構(gòu)問題。
2、為實(shí)現(xiàn)上述目的,本發(fā)明提供如下技術(shù)方案:
3、一種基于非凸l1-μ2范數(shù)的固定時(shí)間神經(jīng)動(dòng)力學(xué)稀疏信號(hào)重構(gòu)方法,包括以下步驟:
4、s1、根據(jù)恢復(fù)的信號(hào)(如圖像)需要,將信號(hào)進(jìn)行數(shù)字形式轉(zhuǎn)化,建立稀疏信號(hào)重構(gòu)的l0范數(shù)最小化優(yōu)化模型;
5、s2、通過lagrange乘子用l1-μ2混合范數(shù)優(yōu)化模型去近似l0范數(shù)最小化優(yōu)化模型;
6、s3、使l1-μ2混合范數(shù)優(yōu)化模型的極小解等價(jià)于對(duì)應(yīng)近端神經(jīng)動(dòng)力學(xué)優(yōu)化模型的平衡點(diǎn),結(jié)合神經(jīng)動(dòng)力學(xué)優(yōu)化模型的顯示表達(dá)式,求解近端神經(jīng)動(dòng)力學(xué)優(yōu)化模型的最優(yōu)解;
7、s4、通過自適應(yīng)函數(shù)建立固定時(shí)間近端神經(jīng)動(dòng)力學(xué)優(yōu)化模型;
8、s5、設(shè)定初始參數(shù),并在收斂時(shí)間上界內(nèi)找到固定時(shí)間近端神經(jīng)動(dòng)力學(xué)優(yōu)化模型的最優(yōu)解;
9、s6、不斷迭代固定時(shí)間近端神經(jīng)動(dòng)力學(xué)優(yōu)化模型,在固定時(shí)間內(nèi)實(shí)現(xiàn)稀疏信號(hào)重構(gòu)。
10、在一些實(shí)施例中,步驟s1中,所述l0范數(shù)最小化優(yōu)化模型為:
11、
12、式中,σ為正則系數(shù),σ>0,用以權(quán)衡估計(jì)信號(hào)的精確度和稀疏度;是需要重構(gòu)的信號(hào)數(shù)據(jù);為n維實(shí)歐幾里得空間;矩陣為觀測矩陣,是已知觀測向量;∥x∥0為l0范數(shù)用來計(jì)算向量x中的非零元素個(gè)數(shù)。
13、在一些實(shí)施例中,步驟s2中,通過lagrange乘子將原本難以處理的l0范數(shù)最小化優(yōu)化模型的最小化問題轉(zhuǎn)化為一個(gè)更加易于操作的模型,所述l1-μ2混合范數(shù)優(yōu)化模型為:
14、
15、其中,
16、
17、其中,
18、
19、f(·)=σ(∥·∥1-μ∥·∥2);
20、式中,為梯度算子;f(·)為正則項(xiàng);η為一個(gè)可調(diào)常系數(shù)步長,η>0;μ為非凸模型系數(shù),μ∈(0,1];x為待恢復(fù)的稀疏信號(hào)。
21、在一些實(shí)施例中,步驟s3中,所述端神經(jīng)動(dòng)力學(xué)優(yōu)化模型為:
22、
23、其中,
24、
25、式中,k為一個(gè)可調(diào)參數(shù),k>0;為觀測矩陣b的轉(zhuǎn)置;proxηf(·)為近端算子;
26、所述神經(jīng)動(dòng)力學(xué)優(yōu)化模型的顯示表達(dá)式為:
27、
28、其中,
29、z=sign(x)*max{|x|-ση,0};
30、式中,sign(x)為符號(hào)函數(shù),x>0,返回1,x<0,返回-1,x=0,返回0。所述端神經(jīng)動(dòng)力學(xué)優(yōu)化模型具有漸進(jìn)指數(shù)收斂性,實(shí)現(xiàn)稀疏信號(hào)重構(gòu)。
31、在一些實(shí)施例中,步驟s4中,所述自適應(yīng)函數(shù)為:
32、
33、式中,為均衡點(diǎn)的集合,為簡化符號(hào),記為觀測向量與測量向量值的差值;ψ(x)為迭代的主體部分;
34、所述固定時(shí)間近端神經(jīng)動(dòng)力學(xué)優(yōu)化模型為:
35、
36、式中,k1,k2,k3,β1,β2均為可調(diào)參數(shù),為常數(shù),k1,k2,k3>0,β1∈(0,1),β2>1。
37、在一些實(shí)施例中,步驟s5中,假設(shè)測量矩陣b滿足2s?rip條件,并且所述固定時(shí)間近端神經(jīng)動(dòng)力學(xué)優(yōu)化模型的軌跡在固定時(shí)間內(nèi)收斂到最優(yōu)解,其中固定時(shí)間收斂上界t為:
38、
39、其中,
40、
41、式中,為限制等距條件的系數(shù),rip為稀疏恢復(fù)問題所需采樣的限制等距條件,γ為估計(jì)收斂時(shí)間的相應(yīng)系數(shù),λ為估計(jì)收斂時(shí)間的相應(yīng)系數(shù)。
42、在一些實(shí)施例中,步驟s6中的迭代包括以下步驟:
43、s61、輸入?yún)?shù),設(shè)置最大迭代次數(shù)k<t/△t;
44、s62、設(shè)置迭代時(shí)間k△t;
45、s63、計(jì)算出并賦值給ψ(x);
46、s64、通過自適應(yīng)函數(shù)k(x),為第k次迭代的值,計(jì)算出k次迭代的值;
47、s65、計(jì)算出下一步迭代的數(shù)值
48、s66、更新下一次循環(huán)。
49、與現(xiàn)有技術(shù)相比較,本發(fā)明具有如下有益效果:
50、本發(fā)明通過引入非凸的l1范數(shù)和l2范數(shù)的混合范數(shù)近似l0稀疏算子,通過固定時(shí)間收斂的近端神經(jīng)動(dòng)力學(xué)優(yōu)化的稀疏信號(hào)重構(gòu)方法,在固定時(shí)間內(nèi)解決稀疏信號(hào)重構(gòu)問題;
51、在同等條件下,本發(fā)明恢復(fù)稀疏信號(hào)的精確度更高,相對(duì)誤差更??;在同等時(shí)間內(nèi),本發(fā)明進(jìn)行稀疏信號(hào)恢復(fù)得到更好的恢復(fù)結(jié)果,圖像質(zhì)量更高。