本發(fā)明涉及學(xué)情數(shù)據(jù)處理,具體涉及一種基于人工智能的學(xué)習(xí)評價方法及系統(tǒng)。
背景技術(shù):
1、目前,教育是人們普遍關(guān)注的問題,在學(xué)習(xí)環(huán)境和教學(xué)質(zhì)量逐漸提高的當今社會,學(xué)習(xí)者要取得良好的學(xué)習(xí)效果需要保持自身的學(xué)習(xí)狀態(tài)。學(xué)習(xí)狀態(tài)包括學(xué)習(xí)者的情緒、動機和注意力等,這會影響學(xué)習(xí)者吸收知識的能力,良好的學(xué)習(xí)狀態(tài)會使學(xué)習(xí)者更好地理解學(xué)習(xí)的內(nèi)容。近幾年,人工智能引起大眾的廣泛關(guān)注,逐漸有人將人工智能使用到對學(xué)習(xí)者的學(xué)習(xí)評價當中。
2、現(xiàn)有的人工智能對學(xué)習(xí)者的評價是對學(xué)習(xí)者一個階段的答題情況進行分析,如對某次作業(yè)或某次考試的完成數(shù)據(jù)進行分析,預(yù)測該階段學(xué)習(xí)者的學(xué)習(xí)狀態(tài)。這種評價方法存在以下問題,通過單次的答題情況對學(xué)習(xí)者的學(xué)習(xí)狀態(tài)進行評價存在一定誤差,并不能準確地預(yù)測學(xué)習(xí)者的學(xué)習(xí)狀態(tài);其次,預(yù)測得到的學(xué)習(xí)狀態(tài)跨度時間太長,無法在學(xué)習(xí)者學(xué)習(xí)狀態(tài)較差時進行調(diào)整,預(yù)測的實時性低。
技術(shù)實現(xiàn)思路
1、本發(fā)明的目的是提供一種基于人工智能的學(xué)習(xí)評價方法及系統(tǒng),本發(fā)明將獲取的學(xué)習(xí)狀態(tài)特征數(shù)據(jù)集輸入通過聯(lián)邦學(xué)習(xí)得到的本地預(yù)測模型中,從多個維度實時預(yù)測學(xué)習(xí)者的學(xué)習(xí)狀態(tài),提高了對學(xué)習(xí)者學(xué)習(xí)狀態(tài)預(yù)測的準確度。
2、本發(fā)明的目的采用如下技術(shù)方式實現(xiàn):
3、第一方面,本發(fā)明提供了一種基于人工智能的學(xué)習(xí)評價方法,包括:
4、根據(jù)學(xué)習(xí)者的面部圖像,獲取學(xué)習(xí)狀態(tài)特征;
5、采用聯(lián)邦學(xué)習(xí)架構(gòu),根據(jù)學(xué)習(xí)狀態(tài)特征構(gòu)建本地預(yù)測模型和全局預(yù)測模型;
6、將實時獲取的學(xué)習(xí)狀態(tài)特征輸入預(yù)先訓(xùn)練好的所述本地預(yù)測模型,得到學(xué)習(xí)狀態(tài)預(yù)測結(jié)果;所述實時獲取的學(xué)習(xí)狀態(tài)特征通過學(xué)習(xí)者的面部圖像、答題過程數(shù)據(jù)、在線學(xué)習(xí)行為數(shù)據(jù)、在線討論行為數(shù)據(jù)和/或互動音頻數(shù)據(jù)獲取;
7、根據(jù)學(xué)習(xí)狀態(tài)預(yù)測結(jié)果生成個性化學(xué)習(xí)建議報告;所述個性化學(xué)習(xí)建議包括實時學(xué)習(xí)狀態(tài)建議報告和學(xué)習(xí)習(xí)慣建議報告。
8、優(yōu)選地,所述根據(jù)學(xué)習(xí)者的面部圖像,獲取學(xué)習(xí)狀態(tài)特征,包括:
9、實時捕捉學(xué)習(xí)者的所述面部圖像;
10、使用面部檢測算法,定位所述面部圖像中的面部區(qū)域;
11、對所述面部區(qū)域進行裁剪和標準化處理,得到面部區(qū)域圖像;
12、使用面部特征點檢測算法,定位所述面部區(qū)域圖像中的特征點;
13、根據(jù)所述特征點,得到面部姿態(tài)數(shù)據(jù);
14、對所述面部姿態(tài)數(shù)據(jù)進行時間序列分析,得到所述學(xué)習(xí)狀態(tài)特征。
15、優(yōu)選地,所述對所述面部姿態(tài)數(shù)據(jù)進行時間序列分析,得到所述學(xué)習(xí)狀態(tài)特征,包括:
16、將所述面部姿態(tài)數(shù)據(jù)劃分為固定長度的窗口;
17、獲取每個窗口的所述面部姿態(tài)數(shù)據(jù)的統(tǒng)計指標;
18、根據(jù)所述統(tǒng)計指標,獲取學(xué)習(xí)者的專注度的評分、疲勞程度的評分和情緒狀態(tài)的評分;
19、將所述專注度的評分、所述疲勞程度的評分和所述情緒狀態(tài)的評分進行計算,得到所述學(xué)習(xí)狀態(tài)特征。
20、優(yōu)選地,所述獲取每個窗口的所述面部姿態(tài)數(shù)據(jù)的統(tǒng)計指標,包括:
21、所述面部姿態(tài)數(shù)據(jù)包括:頭部狀態(tài)數(shù)據(jù)、眼部狀態(tài)數(shù)據(jù)和嘴部狀態(tài)數(shù)據(jù);
22、根據(jù)所述頭部狀態(tài)數(shù)據(jù),計算頭部角度數(shù)據(jù)的標準差;
23、根據(jù)所述眼部狀態(tài)數(shù)據(jù),計算單位時間的眨眼次數(shù);
24、根據(jù)所述嘴部狀態(tài)數(shù)據(jù),計算嘴角弧度數(shù)據(jù)的平均值。
25、優(yōu)選地,所述采用聯(lián)邦學(xué)習(xí)架構(gòu),根據(jù)學(xué)習(xí)狀態(tài)特征構(gòu)建本地預(yù)測模型和全局預(yù)測模型之前,還包括:獲取所述學(xué)習(xí)狀態(tài)特征的時間相關(guān)性特征;具體包括:
26、通過第一時間間隔對所述學(xué)習(xí)狀態(tài)特征進行采樣,得到第一狀態(tài)時間序列;
27、根據(jù)所述第一狀態(tài)時間序列,獲取第一時間相關(guān)性特征;
28、通過第二時間間隔對所述學(xué)習(xí)狀態(tài)特征進行采樣,得到第二狀態(tài)時間序列;
29、根據(jù)所述第二狀態(tài)時間序列,獲取第二時間相關(guān)性特征;
30、將所述第一時間相關(guān)性特征和所述第二時間相關(guān)性特征進行融合,得到所述時間相關(guān)性特征;
31、所述時間相關(guān)性特征表示為:
32、
33、其中,為時間相關(guān)性特征,為第一時間相關(guān)性特征,為第二時間相關(guān)性特征,為第一時間相關(guān)性特征的權(quán)重系數(shù),為第二時間相關(guān)性特征的權(quán)重系數(shù),為哈達瑪乘積。
34、優(yōu)選地,所述將實時獲取的所述學(xué)習(xí)狀態(tài)特征輸入預(yù)先訓(xùn)練好的所述本地預(yù)測模型,得到學(xué)習(xí)狀態(tài)預(yù)測結(jié)果之前,還包括:根據(jù)實時獲取的所述學(xué)習(xí)狀態(tài)特征,更新所述本地預(yù)測模型和所述全局預(yù)測模型;具體包括:
35、將實時獲取的所述學(xué)習(xí)狀態(tài)特征輸入所述本地預(yù)測模型;
36、通過梯度下降法更新所述本地預(yù)測模型的參數(shù);
37、融合所有更新后的所述本地預(yù)測模型的參數(shù),使用聯(lián)邦平均算法更新所述全局預(yù)測模型;
38、根據(jù)更新后的所述全局預(yù)測模型的模型參數(shù),更新所述本地預(yù)測模型;
39、所述聯(lián)邦平均算法表示為:
40、
41、其中,為更新后的全局預(yù)測模型的模型參數(shù),為第個本地預(yù)測模型的模型參數(shù),為本地預(yù)測模型的數(shù)量。
42、優(yōu)選地,所述根據(jù)更新后的所述全局預(yù)測模型的模型參數(shù),更新所述本地預(yù)測模型,包括:
43、通過合作博弈的超可加性準則篩選學(xué)習(xí)者的個性化特征;
44、根據(jù)所述個性化特征,構(gòu)建本地特征預(yù)測矩陣;
45、將所述本地特征預(yù)測矩陣與更新后的所述全局預(yù)測模型進行輸出拼接,得到所述本地預(yù)測模型;
46、通過所述個性化特征訓(xùn)練所述本地預(yù)測模型,更新所述本地預(yù)測模型的模型參數(shù);
47、所述本地特征預(yù)測矩陣表示為:
48、
49、其中,為本地特征預(yù)測矩陣的輸出,為權(quán)重矩陣,為個性化特征向量,為偏置向量,為激活函數(shù)。
50、優(yōu)選地,所述通過所述個性化特征訓(xùn)練所述本地預(yù)測模型,更新所述本地預(yù)測模型的模型參數(shù),包括:
51、在前向傳播中,使用所述本地預(yù)測模型生成預(yù)測結(jié)果;
52、通過損失函數(shù)計算所述預(yù)測結(jié)果與目標特征之間的誤差;
53、在反向傳播中,計算權(quán)重矩陣和偏置向量梯度,通過所述權(quán)重矩陣和所述偏置向量梯度更新所述本地預(yù)測模型的模型參數(shù);
54、所述損失函數(shù)表示為:
55、
56、其中,為樣本的數(shù)量,為第個樣本的預(yù)測結(jié)果,為第個樣本的目標值。
57、第二方面,本發(fā)明提供了一種基于人工智能的學(xué)習(xí)評價系統(tǒng),包括:
58、學(xué)習(xí)狀態(tài)特征獲取模塊:用于根據(jù)學(xué)習(xí)者的面部圖像,獲取學(xué)習(xí)狀態(tài)特征;
59、預(yù)測模型構(gòu)建模塊:用于采用聯(lián)邦學(xué)習(xí)架構(gòu),根據(jù)學(xué)習(xí)狀態(tài)特征構(gòu)建本地預(yù)測模型和全局預(yù)測模型;
60、預(yù)測模型更新模塊:用于根據(jù)實時獲取的所述學(xué)習(xí)狀態(tài)特征,更新所述本地預(yù)測模型和所述全局預(yù)測模型;
61、學(xué)習(xí)狀態(tài)預(yù)測模塊:用于將實時獲取的所述學(xué)習(xí)狀態(tài)特征輸入預(yù)先訓(xùn)練好的所述本地預(yù)測模型,得到學(xué)習(xí)狀態(tài)預(yù)測結(jié)果。
62、第三方面,本發(fā)明提供了一種電子設(shè)備,包括處理器和存儲器,所述存儲器用于存儲計算機程序代碼,所述計算機程序代碼包括計算機指令,當所述處理器執(zhí)行所述計算機指令時,所述電子設(shè)備執(zhí)行上述的一種基于人工智能的學(xué)習(xí)評價方法。
63、相比現(xiàn)有技術(shù),本發(fā)明的有益效果在于:
64、本發(fā)明通過獲取的學(xué)習(xí)狀態(tài)特征數(shù)據(jù)集輸入經(jīng)過聯(lián)邦學(xué)習(xí)得到的本地預(yù)測模型中,從多個維度實時預(yù)測學(xué)習(xí)者的學(xué)習(xí)狀態(tài),提高了對學(xué)習(xí)者學(xué)習(xí)狀態(tài)預(yù)測的準確度,從而為教育決策提供可靠的數(shù)據(jù)支持,教育管理者可以基于準確的學(xué)習(xí)狀態(tài)預(yù)測結(jié)果提供及時的輔導(dǎo)和幫助,優(yōu)化教育政策和教學(xué)模式,提高教育質(zhì)量;
65、本發(fā)明通過獲取學(xué)習(xí)狀態(tài)特征的第一時間相關(guān)性特征和第二時間相關(guān)性特征,融合得到學(xué)習(xí)狀態(tài)特征的時間相關(guān)性特征,提升了學(xué)習(xí)狀態(tài)特征對時間維度的覆蓋,顯著提高了預(yù)測的精度和系統(tǒng)響應(yīng)能力;
66、本發(fā)明通過聯(lián)邦學(xué)習(xí)架構(gòu)對本低預(yù)測模型和全局預(yù)測模型進行構(gòu)建和不斷迭代優(yōu)化,提高了模型使用的安全性以及預(yù)測的整體性能;
67、本發(fā)明通過將專注度、疲勞程度和情緒狀態(tài)作為獨立維度納入學(xué)習(xí)狀態(tài)特征中,有利于簡明地表示出學(xué)習(xí)狀態(tài)特征以及對學(xué)習(xí)狀態(tài)特征的處理和分析;
68、本發(fā)明通過學(xué)習(xí)者的個性化特征構(gòu)建本地特征預(yù)測矩陣,并與全局預(yù)測模型進行輸出拼接得到本地預(yù)測模型,提高了對non-iid數(shù)據(jù)訓(xùn)練的效率和預(yù)測的準確率。