日韩成人黄色,透逼一级毛片,狠狠躁天天躁中文字幕,久久久久久亚洲精品不卡,在线看国产美女毛片2019,黄片www.www,一级黄色毛a视频直播

一種基于小樣本學(xué)習(xí)的數(shù)據(jù)增強和可學(xué)習(xí)參數(shù)的閾值損失優(yōu)化方法與流程

文檔序號:39719010發(fā)布日期:2024-10-22 13:07閱讀:3來源:國知局
一種基于小樣本學(xué)習(xí)的數(shù)據(jù)增強和可學(xué)習(xí)參數(shù)的閾值損失優(yōu)化方法與流程

本發(fā)明屬于樣本增強,具體涉及一種基于小樣本學(xué)習(xí)的數(shù)據(jù)增強和可學(xué)習(xí)參數(shù)的閾值損失優(yōu)化方法。


背景技術(shù):

1、在當(dāng)今科技發(fā)展迅速的時代,機器學(xué)習(xí)和深度學(xué)習(xí)技術(shù)已經(jīng)成為許多領(lǐng)域的核心工具。特別是在模式識別、圖像處理和自然語言處理等領(lǐng)域,這些技術(shù)已經(jīng)取得了巨大的進(jìn)步。然而,在某些情況下,由于數(shù)據(jù)樣本的稀缺性或者類別不平衡,傳統(tǒng)的機器學(xué)習(xí)方法可能會面臨挑戰(zhàn),例如在醫(yī)療診斷、金融風(fēng)控和安全檢測等領(lǐng)域。

2、在這種背景下,小樣本學(xué)習(xí)(few-shot?learning)成為備受關(guān)注的研究方向。小樣本學(xué)習(xí)旨在從非常有限的樣本中學(xué)習(xí)并泛化到新樣本,以應(yīng)對數(shù)據(jù)稀缺的問題。該領(lǐng)域的研究聚焦于如何利用少量的標(biāo)記樣本構(gòu)建魯棒的模型。在小樣本學(xué)習(xí)領(lǐng)域,數(shù)據(jù)增強和損失函數(shù)優(yōu)化是兩個關(guān)鍵技術(shù)點。下面對這兩個方面分別介紹:

3、(一)數(shù)據(jù)增強

4、常用的數(shù)據(jù)增強采用小樣本學(xué)習(xí)方法,包括遷移學(xué)習(xí)、元學(xué)習(xí)等。

5、(1)遷移學(xué)習(xí)

6、遷移學(xué)習(xí)通過在一個大數(shù)據(jù)集上預(yù)訓(xùn)練一個模型,然后在目標(biāo)小數(shù)據(jù)集上進(jìn)行微調(diào)。這種方法利用了在大數(shù)據(jù)集上學(xué)到的特征,使模型能夠更好地適應(yīng)新任務(wù)。例如,在使用預(yù)訓(xùn)練的模型進(jìn)行小樣本目標(biāo)檢測時,可以對模型進(jìn)行微調(diào),使其適應(yīng)特定的小樣本數(shù)據(jù)集。

7、具體實現(xiàn)方式為:在大規(guī)模圖像數(shù)據(jù)集(如imagenet)上預(yù)訓(xùn)練一個深度神經(jīng)網(wǎng)絡(luò)模型(如resnet或vgg),然后將預(yù)訓(xùn)練的模型應(yīng)用到特定的小樣本數(shù)據(jù)集上,通過微調(diào)該模型的參數(shù),使其能夠適應(yīng)新的任務(wù)。

8、此種方法具有以下問題:這種方法仍然需要一個大型的預(yù)訓(xùn)練數(shù)據(jù)集,且在微調(diào)過程中可能會遇到過擬合的問題,特別是在目標(biāo)小樣本數(shù)據(jù)集與預(yù)訓(xùn)練數(shù)據(jù)集分布差異較大的情況下。

9、(2)元學(xué)習(xí)

10、元學(xué)習(xí),通過訓(xùn)練一個模型,使其能夠快速適應(yīng)新任務(wù)。典型的元學(xué)習(xí)方法包括maml(model-agnostic?meta-learning)和protonet(prototypical?networks)。這些方法通過在多個小樣本任務(wù)上進(jìn)行訓(xùn)練,使模型能夠更好地泛化到新的小樣本任務(wù)。

11、具體實現(xiàn)方法為:例如,maml方法通過在多個任務(wù)上進(jìn)行訓(xùn)練,學(xué)習(xí)到一個初始參數(shù),這些參數(shù)在面對新任務(wù)時只需少量的更新即可快速適應(yīng)。protonet通過計算樣本與類別原型之間的距離進(jìn)行分類,適用于小樣本場景。

12、此種方法具有以下問題:元學(xué)習(xí)方法通常需要大量不同任務(wù)的數(shù)據(jù)集進(jìn)行訓(xùn)練,且在計算復(fù)雜度和訓(xùn)練時間上具有較高的要求。此外,對于特定領(lǐng)域的小樣本任務(wù),現(xiàn)有元學(xué)習(xí)方法可能無法充分利用特定領(lǐng)域的先驗知識。

13、由此可見,現(xiàn)有的小樣本學(xué)習(xí)方法,存在對大型預(yù)訓(xùn)練數(shù)據(jù)集依賴高、計算復(fù)雜度高、適應(yīng)特定領(lǐng)域任務(wù)不足等問題。

14、(二)損失函數(shù)優(yōu)化

15、機器學(xué)習(xí)和深度學(xué)習(xí)中,閾值損失優(yōu)化方法被廣泛用于提高分類和檢測任務(wù)的精度。傳統(tǒng)的閾值損失優(yōu)化方法通常設(shè)定固定或簡單的動態(tài)閾值,并在訓(xùn)練過程中通過最小化損失函數(shù)來優(yōu)化模型。傳統(tǒng)閾值損失優(yōu)化方法主要包括以下幾種:

16、(1)固定閾值法:

17、固定閾值法使用一個固定的閾值來判斷樣本的分類或檢測結(jié)果。這種方法靈活性差,難以適應(yīng)不同類別或樣本的變化。

18、(2)動態(tài)閾值法:

19、動態(tài)閾值法根據(jù)訓(xùn)練過程中樣本的特征和模型的置信度,動態(tài)調(diào)整閾值。盡管比固定閾值更靈活,但這種方法的調(diào)整機制通常較為簡單,無法充分利用訓(xùn)練數(shù)據(jù)的多樣性和復(fù)雜性。

20、(3)現(xiàn)有自適應(yīng)閾值優(yōu)化方法:

21、一些先進(jìn)的技術(shù)引入了自適應(yīng)的閾值調(diào)整機制,通過在模型訓(xùn)練過程中優(yōu)化閾值參數(shù)來提高分類或檢測的準(zhǔn)確性。然而,這些方法主要集中在優(yōu)化單一任務(wù)的性能,對于處理多任務(wù)、多尺度問題以及高誤檢率等方面仍存在不足。

22、因此,現(xiàn)有的閾值損失優(yōu)化方法具有以下問題:

23、(1)對小樣本學(xué)習(xí)的支持不足:現(xiàn)有的自適應(yīng)閾值優(yōu)化方法大多依賴大量的數(shù)據(jù)進(jìn)行閾值調(diào)整,對于小樣本學(xué)習(xí)的支持不足,無法在數(shù)據(jù)稀缺的情況下有效泛化。(2)閾值優(yōu)化的局限性:現(xiàn)有方法的閾值優(yōu)化機制較為單一,通常只是加入一個簡單的閾值項,缺乏針對不同樣本和任務(wù)的精細(xì)調(diào)整。(3)高誤檢率問題:在實際應(yīng)用中,現(xiàn)有方法常常面臨較高的誤檢率,特別是在處理復(fù)雜場景和多尺度目標(biāo)檢測時,這個問題尤為突出。

24、綜上所述,現(xiàn)有的閾值損失優(yōu)化方法在對小樣本學(xué)習(xí)的支持、數(shù)據(jù)增強技術(shù)的應(yīng)用、閾值優(yōu)化的精細(xì)度和處理復(fù)雜場景時的誤檢率方面存在顯著不足。


技術(shù)實現(xiàn)思路

1、針對現(xiàn)有技術(shù)存在的缺陷,本發(fā)明提供一種基于小樣本學(xué)習(xí)的數(shù)據(jù)增強和可學(xué)習(xí)參數(shù)的閾值損失優(yōu)化方法,可有效解決上述問題。

2、本發(fā)明采用的技術(shù)方案如下:

3、本發(fā)明提供一種基于小樣本學(xué)習(xí)的數(shù)據(jù)增強和可學(xué)習(xí)參數(shù)的閾值損失優(yōu)化方法,包括以下步驟:

4、步驟s1,建立實際背景圖樣本庫g和小樣本圖樣本庫s;所述實際背景圖樣本庫g中存儲多張實際背景圖,每張實際背景圖表示為gi;所述小樣本圖樣本庫s中存儲多張小樣本圖,每張小樣本圖表示為sj;

5、步驟s2,遍歷所述小樣本圖樣本庫s,對于遍歷到的每張小樣本圖sj,基于所述實際背景圖樣本庫g中的實際背景圖,對所述小樣本圖sj進(jìn)行一階段實際背景圖離線增強,擴(kuò)充小樣本圖sj,得到一階段實際背景圖離線增強后的樣本圖f,其標(biāo)簽為lable(f);

6、步驟s3,遍歷所述小樣本圖樣本庫s,對于遍歷到的每張小樣本圖sj,進(jìn)行一階段純色背景圖離線增強,擴(kuò)充小樣本圖sj,得到一階段純色背景圖離線增強后的樣本圖i,其標(biāo)簽為lable(i);

7、步驟s4,對樣本圖f和樣本圖i,采用公式(1)進(jìn)行二階段融合增強,得到融合增強后的樣本圖mix,其標(biāo)簽為lable(mix):

8、mix=λ·f+(1-λ)·i??????????????????????????????????????????(1)

9、lable(mix)=λ·lable(f)+(1-λ)·lable(i)

10、其中,λ為beta分布中隨機采樣的混合系數(shù);

11、步驟s5,通過步驟s2到s4,得到由多張樣本圖f、樣本圖i和樣本圖mix形成的訓(xùn)練樣本集;

12、步驟s6,建立深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)模型;所述深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)模型具有可學(xué)習(xí)參數(shù)p;

13、步驟s7,采用訓(xùn)練樣本集對所述深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)模型進(jìn)行訓(xùn)練,得到訓(xùn)練完成的深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)模型,具體訓(xùn)練方法為:

14、步驟s7.1,令可學(xué)習(xí)參數(shù)p初始化為單位矩陣;樣本圖f、樣本圖i和樣本圖mix分別具有初始強度;

15、步驟s7.2,迭代次數(shù)t初始值為1;

16、步驟s7.3,采用在線數(shù)據(jù)增強模塊,根據(jù)公式(2),對樣本圖f、樣本圖i和樣本圖mix進(jìn)行在線數(shù)據(jù)增強強度處理,得到處理后的樣本圖f、樣本圖i和樣本圖mix,方法為:

17、

18、其中:

19、at是第t輪訓(xùn)練的樣本圖在線數(shù)據(jù)增強強度;

20、a0是樣本圖初始強度;

21、t是當(dāng)前迭代次數(shù);

22、t是總迭代次數(shù);

23、ηt是第t輪訓(xùn)練的學(xué)習(xí)率;

24、η0是初始的學(xué)習(xí)率;

25、pt是第t輪訓(xùn)練的可學(xué)習(xí)參數(shù)值;

26、步驟s7.4,將步驟s7.3處理后的樣本圖f、樣本圖i和樣本圖mix,輸入深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)模型進(jìn)行訓(xùn)練;

27、步驟s7.5,令t=t+1,返回步驟s7.3,如此不斷迭代訓(xùn)練,直到達(dá)到訓(xùn)練終止條件。

28、優(yōu)選的,步驟s2中,對所述小樣本圖sj進(jìn)行一階段實際背景圖離線增強,具體為:

29、步驟s2.1,在所述實際背景圖樣本庫g中,隨機選擇一張實際背景圖gi;

30、步驟s2.2,將實際背景圖gi轉(zhuǎn)換成rgba形式,得到實際背景圖gi(1),并讀取到實際背景圖gi(1)的尺寸;

31、步驟s2.3,小樣本圖sj具有標(biāo)簽lable(sj),將小樣本圖sj轉(zhuǎn)換成rgba形式,得到小樣本圖sj(1),并讀取到小樣本圖sj(1)的尺寸;

32、比較小樣本圖sj(1)的尺寸和實際背景圖gi(1)的尺寸,從而在實際背景圖gi(1)中,確定可變換區(qū)域;

33、步驟s2.4,將小樣本圖sj(1)轉(zhuǎn)換成數(shù)組形式,采用圖像變換方法進(jìn)行圖像尺度變化和圖像增強處理,得到處理后的數(shù)組形式的小樣本圖sj(1);

34、步驟s2.5,將處理后的數(shù)組形式的小樣本圖sj(1),再轉(zhuǎn)換為rgba形式的圖片對象形式的小樣本圖,稱為小樣本圖sj(2);

35、步驟s2.6,實際背景圖gi(1)的alpha通道的通道參數(shù)作為融合參數(shù),將小樣本圖sj(2)和實際背景圖gi(1)的可變換區(qū)域進(jìn)行融合,從而在實際背景圖gi(1)的可變換區(qū)域融入小樣本圖sj(2),得到融合后的樣本圖f,并根據(jù)小樣本圖sj的標(biāo)簽lable(sj),更新樣本圖f的標(biāo)簽,使樣本圖f的標(biāo)簽lable(f)為標(biāo)簽lable(sj);

36、步驟s2.7,返回步驟s2.1,再隨機選擇實際背景圖,對小樣本圖sj進(jìn)行離線增強處理,如此不斷重復(fù)多次,實現(xiàn)對小樣本圖sj的離線增強。

37、優(yōu)選的,步驟s2.4,采用圖像變換方法進(jìn)行圖像尺度變化和圖像增強處理具體為:

38、使用隨機函數(shù)隨機確定圖片縮放尺度;對數(shù)組形式的小樣本圖sj(1)進(jìn)行尺度變換,再進(jìn)行隨機增強處理,包括翻轉(zhuǎn)、行列互換、網(wǎng)格失真、彈性變換、旋轉(zhuǎn)、隨機gamma、圖像均值濾波、隨機明亮度及添加高斯噪聲處理。

39、優(yōu)選的,步驟s3中,對小樣本圖sj,進(jìn)行一階段純色背景圖離線增強,具體為:

40、步驟s3.1,在所述實際背景圖樣本庫g中,隨機選擇一張實際背景圖gi,讀取到實際背景圖gi(1)的尺寸;

41、步驟s3.2,根據(jù)實際背景圖gi(1)的尺寸,初始化生成相同尺寸的純色背景畫布;

42、步驟s3.3,預(yù)定義多種純色背景顏色,包括主流純色背景顏色和隨機純色背景顏色;隨機選擇一種純色背景顏色,并填充到純色背景畫布,生成rgba形式的純色背景圖b0;

43、步驟s3.4,小樣本圖sj具有標(biāo)簽lable(sj),將小樣本圖sj轉(zhuǎn)換成rgba形式,得到小樣本圖sj(1),并讀取到小樣本圖sj(1)的尺寸;

44、步驟s3.5,比較小樣本圖sj(1)的尺寸和純色背景圖b0的尺寸,從而在純色背景圖b0中,確定可變換區(qū)域;

45、步驟s3.6,將小樣本圖sj(1)轉(zhuǎn)換成數(shù)組形式,采用圖像變換方法進(jìn)行圖像尺度變化和圖像增強處理,得到處理后的數(shù)組形式的小樣本圖sj(1);

46、步驟s3.7,將處理后的數(shù)組形式的小樣本圖sj(1),再轉(zhuǎn)換為rgba形式的圖片對象形式的小樣本圖,稱為小樣本圖sj(2);

47、步驟s3.8,純色背景圖b0的alpha通道的通道參數(shù)作為融合參數(shù),將小樣本圖sj(2)和純色背景圖b0的可變換區(qū)域進(jìn)行融合,從而在純色背景圖b0的可變換區(qū)域融入小樣本圖sj(2),得到融合后的樣本圖i,并根據(jù)小樣本圖sj的標(biāo)簽lable(sj),更新樣本圖i的標(biāo)簽,使樣本圖i的標(biāo)簽lable(i)為標(biāo)簽lable(sj);

48、步驟s3.9,返回步驟s3.1,如此不斷重復(fù)多次,實現(xiàn)對小樣本圖sj的離線增強。

49、優(yōu)選的,步驟s3.6,采用圖像變換方法進(jìn)行圖像尺度變化和圖像增強處理具體為:

50、使用隨機函數(shù)隨機確定圖片縮放尺度;對數(shù)組形式的小樣本圖sj(1)進(jìn)行尺度變換,再進(jìn)行隨機增強處理,具體方法為:

51、如果數(shù)組形式的小樣本圖sj(1)為輪廓敏感樣本,將顏色數(shù)據(jù)進(jìn)行顏色擾動及通道洗牌處理;

52、如果數(shù)組形式的小樣本圖sj(1)為顏色敏感樣本,進(jìn)行基礎(chǔ)的亮度對比度增強,同時引入矩形區(qū)域遮擋、中心裁剪、高強度的網(wǎng)格失真以及彈性變換處理。

53、優(yōu)選的,步驟s7.4,對深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)模型進(jìn)行訓(xùn)練的方法為:

54、步驟s7.4.1,每次迭代時,訓(xùn)練樣本輸入深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)模型,深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)模型輸出模型預(yù)測結(jié)果modeloutput;

55、步驟s7.4.2,根據(jù)模型預(yù)測結(jié)果modeloutput,計算每個訓(xùn)練樣本的置信度模擬值ci;

56、步驟s7.4.3,計算置信度模擬值大于設(shè)定值k的訓(xùn)練樣本數(shù)量n0在總訓(xùn)練樣本數(shù)量n中的占比n0/n,即(th>k)/(th>=0);

57、步驟s7.4.4,計算初始懲罰比例pen=1-n0/n;

58、步驟s7.4.5,計算最終的懲罰值penloss=σ(obj_k·pen·ep)

59、其中:obj_k為縮放數(shù)量級的常量系數(shù);p為可學(xué)習(xí)參數(shù);σ代表激活函數(shù);

60、步驟s7.4.6,采用下式,得到修正后的置信度損失值objloss:

61、objloss=objloss+penloss

62、其中:objloss為原始置信度損失值;通過目標(biāo)存在性得分得到;

63、步驟s7.4.7,根據(jù)修正后的置信度損失值objloss,調(diào)整深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)模型的參數(shù),包括可學(xué)習(xí)參數(shù)p,使可學(xué)習(xí)參數(shù)p隨著梯度更新,使深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)模型朝著設(shè)定的期望閾值優(yōu)化。

64、本發(fā)明提供的一種基于小樣本學(xué)習(xí)的數(shù)據(jù)增強和可學(xué)習(xí)參數(shù)的閾值損失優(yōu)化方法具有以下優(yōu)點:

65、本發(fā)明提供一種基于小樣本學(xué)習(xí)的數(shù)據(jù)增強和可學(xué)習(xí)參數(shù)的閾值損失優(yōu)化方法,通過結(jié)合小樣本二階段數(shù)據(jù)增強技術(shù)和可學(xué)習(xí)參數(shù)的閾值損失優(yōu)化,本發(fā)明實現(xiàn)了在極少樣本背景下的可實用工程創(chuàng)新方案,極大提升了相關(guān)小樣本領(lǐng)域的模型魯棒性和泛化能力,同時也提高了各類別的預(yù)測準(zhǔn)確性,減少了誤檢的發(fā)生。

當(dāng)前第1頁1 2 
網(wǎng)友詢問留言 已有0條留言
  • 還沒有人留言評論。精彩留言會獲得點贊!
1