日韩成人黄色,透逼一级毛片,狠狠躁天天躁中文字幕,久久久久久亚洲精品不卡,在线看国产美女毛片2019,黄片www.www,一级黄色毛a视频直播

自然語言處理模型優(yōu)化方法、裝置、設(shè)備、存儲介質(zhì)及產(chǎn)品與流程

文檔序號:39329555發(fā)布日期:2024-09-10 11:35閱讀:13來源:國知局
自然語言處理模型優(yōu)化方法、裝置、設(shè)備、存儲介質(zhì)及產(chǎn)品與流程

本發(fā)明涉及人工智能,尤其涉及一種自然語言處理模型優(yōu)化方法、裝置、設(shè)備、存儲介質(zhì)及計算機程序產(chǎn)品。


背景技術(shù):

1、自然語言處理(natural?language?processing,nlp)模型,是設(shè)計用來使計算機理解、解釋和生成人類語言的算法和技術(shù)。nlp模型可以應(yīng)用于智能問答,以實現(xiàn)智能客服、智能辦公、智能運維等功能。

2、一些方案中,nlp模型是根據(jù)帶標注信息的樣本訓(xùn)練模型后得到的。

3、但是,當(dāng)nlp模型的訓(xùn)練樣本數(shù)量級較低時,會導(dǎo)致訓(xùn)練得到的nlp模型的泛化能力不佳,產(chǎn)生較大的泛化誤差。


技術(shù)實現(xiàn)思路

1、本發(fā)明的主要目的在于提供了一種自然語言處理模型優(yōu)化方法、裝置、設(shè)備、存儲介質(zhì)及計算機程序產(chǎn)品,旨在解決現(xiàn)有技術(shù)中nlp模型的泛化能力不佳,產(chǎn)生較大的泛化誤差的技術(shù)問題。

2、為實現(xiàn)上述目的,本發(fā)明提供了一種自然語言處理模型優(yōu)化方法,所述方法包括以下步驟:

3、獲取第一樣本集,所述第一樣本集中的樣本為未標記的樣本;通過大型語言模型(large?language?models,llm)對所述第一樣本集中的樣本進行標記,得到第二樣本集;根據(jù)所述第二樣本集以及預(yù)先標記的訓(xùn)練樣本集對第一nlp模型進行調(diào)整,得到第二nlp模型。

4、可選地,所述獲取第一樣本集,包括:根據(jù)所述訓(xùn)練樣本集對所述第一nlp模型進行調(diào)整,得到第三nlp模型;獲取所述第一nlp模型和所述第三nlp模型對于同一輸入樣本預(yù)測結(jié)果的偏差;獲取所述偏差滿足第一預(yù)設(shè)條件的所述輸入樣本,加入所述第一樣本集。

5、可選地,所述獲取所述第一nlp模型和所述第三nlp模型對于同一輸入樣本預(yù)測結(jié)果的偏差,包括:將輸入樣本分別輸入所述第一nlp模型和所述第三nlp模型,所述第一nlp模型和所述第三nlp模型對所述輸入樣本分別執(zhí)行相同的nlp任務(wù);獲取所述第一nlp模型對所述輸入樣本的第一預(yù)測分數(shù);獲取所述第三nlp模型對所述輸入樣本的第二預(yù)測分數(shù);將所述第一預(yù)測分數(shù)和所述第二預(yù)測分數(shù)之間的差值作為所述偏差。

6、可選地,所述根據(jù)所述訓(xùn)練樣本集對所述第一nlp模型進行調(diào)整,得到第三nlp模型,包括:配置語義相似度分類器,所述語義相似度分類器用于根據(jù)輸入樣本在預(yù)設(shè)數(shù)據(jù)庫中匹配相似度符合第二預(yù)設(shè)條件的預(yù)設(shè)樣本;根據(jù)所述語義相似度分類器,調(diào)整所述第一nlp模型,得到所述第三nlp模型。

7、可選地,所述通過llm對所述第一樣本集中的樣本進行標記,得到第二樣本集,包括:通過所述語義相似度分類器獲取與所述第一樣本集中的樣本匹配的所述預(yù)設(shè)樣本;當(dāng)通過所述llm確定所述第一樣本集中的樣本以及所述預(yù)設(shè)樣本為語義相似時,根據(jù)所述預(yù)設(shè)樣本對所述第一樣本集中的樣本進行標記;將標記后的所述第一樣本集中的樣本加入所述第二樣本集。

8、可選地,所述根據(jù)所述第二樣本集以及預(yù)先標記的訓(xùn)練樣本集對第一nlp模型進行調(diào)整,得到第二nlp模型,包括:當(dāng)所述第一nlp模型執(zhí)行語義相似度任務(wù)時,根據(jù)所述第二樣本集以及預(yù)先標記的訓(xùn)練樣本集,重新訓(xùn)練所述第一nlp模型,得到所述第二nlp模型;當(dāng)所述第一nlp模型執(zhí)行語義搜索任務(wù)時,根據(jù)未標記的目標域,對所述第一nlp模型進行調(diào)整,得到所述第二nlp模型。

9、此外,為實現(xiàn)上述目的,本發(fā)明還提出一種自然語言處理模型優(yōu)化裝置,所述裝置包括:

10、獲取模塊,用于獲取第一樣本集,所述第一樣本集中的樣本為未標記的樣本;標記模塊,用于通過llm對所述第一樣本集中的樣本進行標記,得到第二樣本集;訓(xùn)練模塊,用于根據(jù)所述第二樣本集以及預(yù)先標記的訓(xùn)練樣本集對第一自然語言處理nlp模型進行調(diào)整,得到第二nlp模型。

11、可選地,獲取模塊,具體用于根據(jù)所述訓(xùn)練樣本集對所述第一nlp模型進行調(diào)整,得到第三nlp模型;獲取所述第一nlp模型和所述第三nlp模型對于同一輸入樣本預(yù)測結(jié)果的偏差;獲取所述偏差滿足第一預(yù)設(shè)條件的所述輸入樣本,加入所述第一樣本集。

12、可選地,獲取模塊,具體用于將輸入樣本分別輸入所述第一nlp模型和所述第三nlp模型,所述第一nlp模型和所述第三nlp模型對所述輸入樣本分別執(zhí)行相同的nlp任務(wù);獲取所述第一nlp模型對所述輸入樣本的第一預(yù)測分數(shù);獲取所述第三nlp模型對所述輸入樣本的第二預(yù)測分數(shù);將所述第一預(yù)測分數(shù)和所述第二預(yù)測分數(shù)之間的差值作為所述偏差。

13、可選地,訓(xùn)練模塊,還用于配置語義相似度分類器,所述語義相似度分類器用于根據(jù)輸入樣本在預(yù)設(shè)數(shù)據(jù)庫中匹配相似度符合第二預(yù)設(shè)條件的預(yù)設(shè)樣本;根據(jù)所述語義相似度分類器,調(diào)整所述第一nlp模型,得到所述第三nlp模型。

14、可選地,標記模塊,具體用于通過所述語義相似度分類器獲取與所述第一樣本集中的樣本匹配的所述預(yù)設(shè)樣本;當(dāng)通過所述llm確定所述第一樣本集中的樣本以及所述預(yù)設(shè)樣本為語義相似時,根據(jù)所述預(yù)設(shè)樣本對所述第一樣本集中的樣本進行標記;將標記后的所述第一樣本集中的樣本加入所述第二樣本集。

15、可選地,訓(xùn)練模塊,具體用于當(dāng)所述第一nlp模型執(zhí)行語義相似度任務(wù)時,根據(jù)所述第二樣本集以及預(yù)先標記的訓(xùn)練樣本集,重新訓(xùn)練所述第一nlp模型,得到所述第二nlp模型;當(dāng)所述第一nlp模型執(zhí)行語義搜索任務(wù)時,根據(jù)未標記的目標域,對所述第一nlp模型進行調(diào)整,得到所述第二nlp模型。

16、此外,為實現(xiàn)上述目的,本發(fā)明還提出一種自然語言處理模型優(yōu)化設(shè)備,所述設(shè)備包括:存儲器、處理器及存儲在所述存儲器上并可在所述處理器上運行的自然語言處理模型優(yōu)化程序,所述自然語言處理模型優(yōu)化程序配置為實現(xiàn)如上文所述的自然語言處理模型優(yōu)化方法的步驟。

17、此外,為實現(xiàn)上述目的,本發(fā)明還提出一種存儲介質(zhì),所述存儲介質(zhì)上存儲有自然語言處理模型優(yōu)化程序,所述自然語言處理模型優(yōu)化程序被處理器執(zhí)行時實現(xiàn)如上文所述的自然語言處理模型優(yōu)化方法的步驟。

18、此外,為實現(xiàn)上述目的,本發(fā)明還提供一種計算機程序產(chǎn)品,所述計算機程序產(chǎn)品包括自然語言處理模型優(yōu)化程序,所述自然語言處理模型優(yōu)化程序被處理器執(zhí)行時實現(xiàn)如上文所述的自然語言處理模型優(yōu)化方法的步驟。

19、本發(fā)明通過使用llm對未標記的第一樣本集中的樣本進行標記,得到第二樣本集,然后根據(jù)第二樣本集以及預(yù)先標記的訓(xùn)練樣本集對nlp模型進行調(diào)整,得到第二nlp模型。無需數(shù)據(jù)集的采集和大量人工標注的投入,也能夠?qū)lp模型進行優(yōu)化,增加其泛化能力,提高nlp模型執(zhí)行nlp任務(wù)時的準確率。



技術(shù)特征:

1.一種自然語言處理模型優(yōu)化方法,其特征在于,所述方法包括:

2.根據(jù)權(quán)利要求1所述的方法,其特征在于,所述獲取第一樣本集,包括:

3.根據(jù)權(quán)利要求2所述的方法,其特征在于,所述獲取所述第一nlp模型和所述第三nlp模型對于同一輸入樣本預(yù)測結(jié)果的偏差,包括:

4.根據(jù)權(quán)利要求2所述的方法,其特征在于,所述根據(jù)所述訓(xùn)練樣本集對所述第一nlp模型進行調(diào)整,得到第三nlp模型,包括:

5.根據(jù)權(quán)利要求4所述的方法,其特征在于,所述通過llm對所述第一樣本集中的樣本進行標記,得到第二樣本集,包括:

6.根據(jù)權(quán)利要求1-5任一項所述的方法,其特征在于,所述根據(jù)所述第二樣本集以及預(yù)先標記的訓(xùn)練樣本集對第一nlp模型進行調(diào)整,得到第二nlp模型,包括:

7.一種自然語言處理模型優(yōu)化裝置,其特征在于,所述裝置包括:

8.一種自然語言處理模型優(yōu)化設(shè)備,其特征在于,所述設(shè)備包括:存儲器、處理器及存儲在所述存儲器上并可在所述處理器上運行的自然語言處理模型優(yōu)化程序,所述自然語言處理模型優(yōu)化程序配置為實現(xiàn)如權(quán)利要求1至6中任一項所述的自然語言處理模型優(yōu)化方法的步驟。

9.一種存儲介質(zhì),其特征在于,所述存儲介質(zhì)上存儲有自然語言處理模型優(yōu)化程序,所述自然語言處理模型優(yōu)化程序被處理器執(zhí)行時實現(xiàn)如權(quán)利要求1至6中任一項所述的自然語言處理模型優(yōu)化方法的步驟。

10.一種計算機程序產(chǎn)品,其特征在于,所述計算機程序產(chǎn)品包括自然語言處理模型優(yōu)化程序,所述自然語言處理模型優(yōu)化程序被處理器執(zhí)行時實現(xiàn)如權(quán)利要求1至6中任一項所述的自然語言處理模型優(yōu)化方法的步驟。


技術(shù)總結(jié)
本發(fā)明公開了一種自然語言處理模型優(yōu)化方法、裝置、設(shè)備、存儲介質(zhì)及計算機程序產(chǎn)品,該方法包括:獲取第一樣本集,第一樣本集中的樣本為未標記的樣本;通過大型語言模型LLM對第一樣本集中的樣本進行標記,得到第二樣本集;根據(jù)第二樣本集以及預(yù)先標記的訓(xùn)練樣本集對第一自然語言處理NLP模型進行調(diào)整,得到第二NLP模型。通過使用LLM對未標記的第一樣本集中的樣本進行標記,得到第二樣本集,然后根據(jù)第二樣本集以及預(yù)先標記的訓(xùn)練樣本集對NLP模型進行調(diào)整,得到第二NLP模型。無需數(shù)據(jù)集的采集和大量人工標注的投入,也能夠?qū)LP模型進行優(yōu)化,增加其泛化能力,提高NLP模型執(zhí)行NLP任務(wù)時的準確率。

技術(shù)研發(fā)人員:丁澤偉,左金虎,陳理華
受保護的技術(shù)使用者:中移動信息技術(shù)有限公司
技術(shù)研發(fā)日:
技術(shù)公布日:2024/9/9
網(wǎng)友詢問留言 已有0條留言
  • 還沒有人留言評論。精彩留言會獲得點贊!
1