日韩成人黄色,透逼一级毛片,狠狠躁天天躁中文字幕,久久久久久亚洲精品不卡,在线看国产美女毛片2019,黄片www.www,一级黄色毛a视频直播

一種基于人工智能的學(xué)習(xí)評價方法及系統(tǒng)與流程

文檔序號:39725710發(fā)布日期:2024-10-22 13:24閱讀:4來源:國知局
一種基于人工智能的學(xué)習(xí)評價方法及系統(tǒng)與流程

本發(fā)明涉及學(xué)情數(shù)據(jù)處理,具體涉及一種基于人工智能的學(xué)習(xí)評價方法及系統(tǒng)。


背景技術(shù):

1、目前,教育是人們普遍關(guān)注的問題,在學(xué)習(xí)環(huán)境和教學(xué)質(zhì)量逐漸提高的當今社會,學(xué)習(xí)者要取得良好的學(xué)習(xí)效果需要保持自身的學(xué)習(xí)狀態(tài)。學(xué)習(xí)狀態(tài)包括學(xué)習(xí)者的情緒、動機和注意力等,這會影響學(xué)習(xí)者吸收知識的能力,良好的學(xué)習(xí)狀態(tài)會使學(xué)習(xí)者更好地理解學(xué)習(xí)的內(nèi)容。近幾年,人工智能引起大眾的廣泛關(guān)注,逐漸有人將人工智能使用到對學(xué)習(xí)者的學(xué)習(xí)評價當中。

2、現(xiàn)有的人工智能對學(xué)習(xí)者的評價是對學(xué)習(xí)者一個階段的答題情況進行分析,如對某次作業(yè)或某次考試的完成數(shù)據(jù)進行分析,預(yù)測該階段學(xué)習(xí)者的學(xué)習(xí)狀態(tài)。這種評價方法存在以下問題,通過單次的答題情況對學(xué)習(xí)者的學(xué)習(xí)狀態(tài)進行評價存在一定誤差,并不能準確地預(yù)測學(xué)習(xí)者的學(xué)習(xí)狀態(tài);其次,預(yù)測得到的學(xué)習(xí)狀態(tài)跨度時間太長,無法在學(xué)習(xí)者學(xué)習(xí)狀態(tài)較差時進行調(diào)整,預(yù)測的實時性低。


技術(shù)實現(xiàn)思路

1、本發(fā)明的目的是提供一種基于人工智能的學(xué)習(xí)評價方法及系統(tǒng),本發(fā)明將獲取的學(xué)習(xí)狀態(tài)特征數(shù)據(jù)集輸入通過聯(lián)邦學(xué)習(xí)得到的本地預(yù)測模型中,從多個維度實時預(yù)測學(xué)習(xí)者的學(xué)習(xí)狀態(tài),提高了對學(xué)習(xí)者學(xué)習(xí)狀態(tài)預(yù)測的準確度。

2、本發(fā)明的目的采用如下技術(shù)方式實現(xiàn):

3、第一方面,本發(fā)明提供了一種基于人工智能的學(xué)習(xí)評價方法,包括:

4、根據(jù)學(xué)習(xí)者的面部圖像,獲取學(xué)習(xí)狀態(tài)特征;

5、采用聯(lián)邦學(xué)習(xí)架構(gòu),根據(jù)學(xué)習(xí)狀態(tài)特征構(gòu)建本地預(yù)測模型和全局預(yù)測模型;

6、將實時獲取的學(xué)習(xí)狀態(tài)特征輸入預(yù)先訓(xùn)練好的所述本地預(yù)測模型,得到學(xué)習(xí)狀態(tài)預(yù)測結(jié)果;所述實時獲取的學(xué)習(xí)狀態(tài)特征通過學(xué)習(xí)者的面部圖像、答題過程數(shù)據(jù)、在線學(xué)習(xí)行為數(shù)據(jù)、在線討論行為數(shù)據(jù)和/或互動音頻數(shù)據(jù)獲取;

7、根據(jù)學(xué)習(xí)狀態(tài)預(yù)測結(jié)果生成個性化學(xué)習(xí)建議報告;所述個性化學(xué)習(xí)建議包括實時學(xué)習(xí)狀態(tài)建議報告和學(xué)習(xí)習(xí)慣建議報告。

8、優(yōu)選地,所述根據(jù)學(xué)習(xí)者的面部圖像,獲取學(xué)習(xí)狀態(tài)特征,包括:

9、實時捕捉學(xué)習(xí)者的所述面部圖像;

10、使用面部檢測算法,定位所述面部圖像中的面部區(qū)域;

11、對所述面部區(qū)域進行裁剪和標準化處理,得到面部區(qū)域圖像;

12、使用面部特征點檢測算法,定位所述面部區(qū)域圖像中的特征點;

13、根據(jù)所述特征點,得到面部姿態(tài)數(shù)據(jù);

14、對所述面部姿態(tài)數(shù)據(jù)進行時間序列分析,得到所述學(xué)習(xí)狀態(tài)特征。

15、優(yōu)選地,所述對所述面部姿態(tài)數(shù)據(jù)進行時間序列分析,得到所述學(xué)習(xí)狀態(tài)特征,包括:

16、將所述面部姿態(tài)數(shù)據(jù)劃分為固定長度的窗口;

17、獲取每個窗口的所述面部姿態(tài)數(shù)據(jù)的統(tǒng)計指標;

18、根據(jù)所述統(tǒng)計指標,獲取學(xué)習(xí)者的專注度的評分、疲勞程度的評分和情緒狀態(tài)的評分;

19、將所述專注度的評分、所述疲勞程度的評分和所述情緒狀態(tài)的評分進行計算,得到所述學(xué)習(xí)狀態(tài)特征。

20、優(yōu)選地,所述獲取每個窗口的所述面部姿態(tài)數(shù)據(jù)的統(tǒng)計指標,包括:

21、所述面部姿態(tài)數(shù)據(jù)包括:頭部狀態(tài)數(shù)據(jù)、眼部狀態(tài)數(shù)據(jù)和嘴部狀態(tài)數(shù)據(jù);

22、根據(jù)所述頭部狀態(tài)數(shù)據(jù),計算頭部角度數(shù)據(jù)的標準差;

23、根據(jù)所述眼部狀態(tài)數(shù)據(jù),計算單位時間的眨眼次數(shù);

24、根據(jù)所述嘴部狀態(tài)數(shù)據(jù),計算嘴角弧度數(shù)據(jù)的平均值。

25、優(yōu)選地,所述采用聯(lián)邦學(xué)習(xí)架構(gòu),根據(jù)學(xué)習(xí)狀態(tài)特征構(gòu)建本地預(yù)測模型和全局預(yù)測模型之前,還包括:獲取所述學(xué)習(xí)狀態(tài)特征的時間相關(guān)性特征;具體包括:

26、通過第一時間間隔對所述學(xué)習(xí)狀態(tài)特征進行采樣,得到第一狀態(tài)時間序列;

27、根據(jù)所述第一狀態(tài)時間序列,獲取第一時間相關(guān)性特征;

28、通過第二時間間隔對所述學(xué)習(xí)狀態(tài)特征進行采樣,得到第二狀態(tài)時間序列;

29、根據(jù)所述第二狀態(tài)時間序列,獲取第二時間相關(guān)性特征;

30、將所述第一時間相關(guān)性特征和所述第二時間相關(guān)性特征進行融合,得到所述時間相關(guān)性特征;

31、所述時間相關(guān)性特征表示為:

32、

33、其中,為時間相關(guān)性特征,為第一時間相關(guān)性特征,為第二時間相關(guān)性特征,為第一時間相關(guān)性特征的權(quán)重系數(shù),為第二時間相關(guān)性特征的權(quán)重系數(shù),為哈達瑪乘積。

34、優(yōu)選地,所述將實時獲取的所述學(xué)習(xí)狀態(tài)特征輸入預(yù)先訓(xùn)練好的所述本地預(yù)測模型,得到學(xué)習(xí)狀態(tài)預(yù)測結(jié)果之前,還包括:根據(jù)實時獲取的所述學(xué)習(xí)狀態(tài)特征,更新所述本地預(yù)測模型和所述全局預(yù)測模型;具體包括:

35、將實時獲取的所述學(xué)習(xí)狀態(tài)特征輸入所述本地預(yù)測模型;

36、通過梯度下降法更新所述本地預(yù)測模型的參數(shù);

37、融合所有更新后的所述本地預(yù)測模型的參數(shù),使用聯(lián)邦平均算法更新所述全局預(yù)測模型;

38、根據(jù)更新后的所述全局預(yù)測模型的模型參數(shù),更新所述本地預(yù)測模型;

39、所述聯(lián)邦平均算法表示為:

40、

41、其中,為更新后的全局預(yù)測模型的模型參數(shù),為第個本地預(yù)測模型的模型參數(shù),為本地預(yù)測模型的數(shù)量。

42、優(yōu)選地,所述根據(jù)更新后的所述全局預(yù)測模型的模型參數(shù),更新所述本地預(yù)測模型,包括:

43、通過合作博弈的超可加性準則篩選學(xué)習(xí)者的個性化特征;

44、根據(jù)所述個性化特征,構(gòu)建本地特征預(yù)測矩陣;

45、將所述本地特征預(yù)測矩陣與更新后的所述全局預(yù)測模型進行輸出拼接,得到所述本地預(yù)測模型;

46、通過所述個性化特征訓(xùn)練所述本地預(yù)測模型,更新所述本地預(yù)測模型的模型參數(shù);

47、所述本地特征預(yù)測矩陣表示為:

48、

49、其中,為本地特征預(yù)測矩陣的輸出,為權(quán)重矩陣,為個性化特征向量,為偏置向量,為激活函數(shù)。

50、優(yōu)選地,所述通過所述個性化特征訓(xùn)練所述本地預(yù)測模型,更新所述本地預(yù)測模型的模型參數(shù),包括:

51、在前向傳播中,使用所述本地預(yù)測模型生成預(yù)測結(jié)果;

52、通過損失函數(shù)計算所述預(yù)測結(jié)果與目標特征之間的誤差;

53、在反向傳播中,計算權(quán)重矩陣和偏置向量梯度,通過所述權(quán)重矩陣和所述偏置向量梯度更新所述本地預(yù)測模型的模型參數(shù);

54、所述損失函數(shù)表示為:

55、

56、其中,為樣本的數(shù)量,為第個樣本的預(yù)測結(jié)果,為第個樣本的目標值。

57、第二方面,本發(fā)明提供了一種基于人工智能的學(xué)習(xí)評價系統(tǒng),包括:

58、學(xué)習(xí)狀態(tài)特征獲取模塊:用于根據(jù)學(xué)習(xí)者的面部圖像,獲取學(xué)習(xí)狀態(tài)特征;

59、預(yù)測模型構(gòu)建模塊:用于采用聯(lián)邦學(xué)習(xí)架構(gòu),根據(jù)學(xué)習(xí)狀態(tài)特征構(gòu)建本地預(yù)測模型和全局預(yù)測模型;

60、預(yù)測模型更新模塊:用于根據(jù)實時獲取的所述學(xué)習(xí)狀態(tài)特征,更新所述本地預(yù)測模型和所述全局預(yù)測模型;

61、學(xué)習(xí)狀態(tài)預(yù)測模塊:用于將實時獲取的所述學(xué)習(xí)狀態(tài)特征輸入預(yù)先訓(xùn)練好的所述本地預(yù)測模型,得到學(xué)習(xí)狀態(tài)預(yù)測結(jié)果。

62、第三方面,本發(fā)明提供了一種電子設(shè)備,包括處理器和存儲器,所述存儲器用于存儲計算機程序代碼,所述計算機程序代碼包括計算機指令,當所述處理器執(zhí)行所述計算機指令時,所述電子設(shè)備執(zhí)行上述的一種基于人工智能的學(xué)習(xí)評價方法。

63、相比現(xiàn)有技術(shù),本發(fā)明的有益效果在于:

64、本發(fā)明通過獲取的學(xué)習(xí)狀態(tài)特征數(shù)據(jù)集輸入經(jīng)過聯(lián)邦學(xué)習(xí)得到的本地預(yù)測模型中,從多個維度實時預(yù)測學(xué)習(xí)者的學(xué)習(xí)狀態(tài),提高了對學(xué)習(xí)者學(xué)習(xí)狀態(tài)預(yù)測的準確度,從而為教育決策提供可靠的數(shù)據(jù)支持,教育管理者可以基于準確的學(xué)習(xí)狀態(tài)預(yù)測結(jié)果提供及時的輔導(dǎo)和幫助,優(yōu)化教育政策和教學(xué)模式,提高教育質(zhì)量;

65、本發(fā)明通過獲取學(xué)習(xí)狀態(tài)特征的第一時間相關(guān)性特征和第二時間相關(guān)性特征,融合得到學(xué)習(xí)狀態(tài)特征的時間相關(guān)性特征,提升了學(xué)習(xí)狀態(tài)特征對時間維度的覆蓋,顯著提高了預(yù)測的精度和系統(tǒng)響應(yīng)能力;

66、本發(fā)明通過聯(lián)邦學(xué)習(xí)架構(gòu)對本低預(yù)測模型和全局預(yù)測模型進行構(gòu)建和不斷迭代優(yōu)化,提高了模型使用的安全性以及預(yù)測的整體性能;

67、本發(fā)明通過將專注度、疲勞程度和情緒狀態(tài)作為獨立維度納入學(xué)習(xí)狀態(tài)特征中,有利于簡明地表示出學(xué)習(xí)狀態(tài)特征以及對學(xué)習(xí)狀態(tài)特征的處理和分析;

68、本發(fā)明通過學(xué)習(xí)者的個性化特征構(gòu)建本地特征預(yù)測矩陣,并與全局預(yù)測模型進行輸出拼接得到本地預(yù)測模型,提高了對non-iid數(shù)據(jù)訓(xùn)練的效率和預(yù)測的準確率。

當前第1頁1 2 
網(wǎng)友詢問留言 已有0條留言
  • 還沒有人留言評論。精彩留言會獲得點贊!
1