日韩成人黄色,透逼一级毛片,狠狠躁天天躁中文字幕,久久久久久亚洲精品不卡,在线看国产美女毛片2019,黄片www.www,一级黄色毛a视频直播

一種基于kinect的求職儀態(tài)測試方法及其系統(tǒng)與流程

文檔序號:11102573閱讀:670來源:國知局
一種基于kinect的求職儀態(tài)測試方法及其系統(tǒng)與制造工藝

本發(fā)明涉及動態(tài)識別領(lǐng)域,尤其涉及一種基于kinect的求職儀態(tài)測試方法及其系統(tǒng)。



背景技術(shù):

很多工作對求職者的儀態(tài)有很高的要求,傳統(tǒng)的儀態(tài)測試一般由求職者本人或周圍人根據(jù)書籍、網(wǎng)絡(luò)或經(jīng)驗進行判斷,其存在主觀性、隨意性和局限性等不足。kinect紅外深度傳感器提供的臉部識別和骨骼追蹤等功能使得人機交互來訓(xùn)練或測試自身的儀態(tài)成為了可能。



技術(shù)實現(xiàn)要素:

本發(fā)明目的在于提供一種基于kinect的求職儀態(tài)測試方法及其系統(tǒng),以解決現(xiàn)有儀態(tài)檢測存在主觀性、隨意性和局限性的現(xiàn)有技術(shù)問題。

為實現(xiàn)上述目的,本發(fā)明提供了一種基于kinect的求職儀態(tài)測試方法,包括以下步驟:

提取kinect采集空間定位信息中左肩節(jié)點、右肩節(jié)點、軀干節(jié)點、頭部節(jié)點、頸部節(jié)點、左手節(jié)點、右手節(jié)點、左腿跟節(jié)點和右腿跟節(jié)點的坐標值以及人臉識別信息中眼部信息的特征值和鼻子信息特征值;

根據(jù)左肩節(jié)點、右肩節(jié)點和軀干節(jié)點的坐標計算平面內(nèi)斜率來判斷上身狀態(tài),根據(jù)頭部節(jié)點和頸部節(jié)點的坐標計算平面內(nèi)斜率來判斷頭部狀態(tài),根據(jù)左手節(jié)點、右手節(jié)點、左肩節(jié)點和右肩節(jié)點的坐標來計算手臂狀態(tài),通過左腿跟節(jié)點和右腿跟節(jié)點的坐標來判斷雙腳狀態(tài);

根據(jù)眼部信息的特征值和鼻子信息特征值判斷眼睛狀態(tài);

綜合眼睛狀態(tài)、上身狀態(tài)、頭部狀態(tài)、手臂狀態(tài)和雙腳狀態(tài)給出儀態(tài)測試結(jié)果。

依托上述方法,本發(fā)明還提供了一種基于kinect的求職儀態(tài)測試系統(tǒng),包括:

采集模塊:用于提取kinect采集空間定位信息中左肩節(jié)點、右肩節(jié)點、軀干節(jié)點、頭部節(jié)點、頸部節(jié)點、左手節(jié)點、右手節(jié)點、左腿跟節(jié)點和右腿跟節(jié)點的坐標值以及人臉識別信息中眼部信息的特征值;

第一決策模塊:用于根據(jù)左肩節(jié)點、右肩節(jié)點和軀干節(jié)點的坐標計算平面內(nèi)斜率來判斷上身狀態(tài),根據(jù)頭部節(jié)點和頸部節(jié)點的坐標計算平面內(nèi)斜率來判斷頭部狀態(tài),根據(jù)左手節(jié)點、右手節(jié)點、左肩節(jié)點和右肩節(jié)點的坐標來計算手臂狀態(tài),通過左腿跟節(jié)點和右腿跟節(jié)點的坐標來判斷雙腳狀態(tài);

第二決策模塊:根據(jù)眼部信息的特征值判斷眼睛狀態(tài);

輸出模塊:用于綜合眼睛狀態(tài)、上身狀態(tài)、頭部狀態(tài)、手臂狀態(tài)和雙腳狀態(tài)給出儀態(tài)測試結(jié)果。

本發(fā)明具有以下有益效果:

采用kinect紅外深度傳感器通過人臉識別、空間定位和肢體識別采集人臉特征、骨架位置,通過采集的數(shù)據(jù)對人體儀態(tài)進行判斷檢測,其檢測結(jié)果客觀準確。

下面將參照附圖,對本發(fā)明作進一步詳細的說明。

附圖說明

構(gòu)成本申請的一部分的附圖用來提供對本發(fā)明的進一步理解,本發(fā)明的示意性實施例及其說明用于解釋本發(fā)明,并不構(gòu)成對本發(fā)明的不當(dāng)限定。在附圖中:

圖1是本發(fā)明優(yōu)選實施例的一種基于kinect的求職儀態(tài)測試方法流程圖;

圖2是本發(fā)明優(yōu)選實施例的人體骨架節(jié)點圖。

具體實施方式

以下結(jié)合附圖對本發(fā)明的實施例進行詳細說明,但是本發(fā)明可以由權(quán)利要求限定和覆蓋的多種不同方式實施。

本發(fā)明實施例首先公開一種基于kinect的求職儀態(tài)測試方法,該方法采集的數(shù)據(jù)為通過微軟提供的SDK(Software Development Kit)的API(Application Programming Interface)去讀取驅(qū)動上面的kinect紅外深度傳感器從而獲得所需的數(shù)據(jù),其具體表現(xiàn)形式包括但不限于通過微軟提供的SDK的API去讀取驅(qū)動上面的kinect紅外深度傳感器。

如圖1所示,一種基于kinect的求職儀態(tài)測試方法的流程包括:

步驟S1、提取kinect采集空間定位信息中左肩節(jié)點、右肩節(jié)點、軀干節(jié)點、頭部節(jié)點、頸部節(jié)點、左手節(jié)點、右手節(jié)點、左腿跟節(jié)點和右腿跟節(jié)點的坐標值以及人臉識別信息中眼部信息的特征值。通過微軟提供的API讀取kinect上層算法分析彩色和深度圖像得到的骨骼點數(shù)據(jù),具體表現(xiàn)為跟蹤到的人的關(guān)節(jié)點的位置信息。通過人臉識別提取眼部信息特征值和鼻子信息特征值。

步驟S2、根據(jù)左肩節(jié)點、右肩節(jié)點和軀干節(jié)點的坐標計算平面內(nèi)斜率來判斷上身狀態(tài),根據(jù)頭部節(jié)點和頸部節(jié)點的坐標計算平面內(nèi)斜率來判斷頭部狀態(tài),根據(jù)左手節(jié)點、右手節(jié)點、左肩節(jié)點和右肩節(jié)點的坐標來計算手臂狀態(tài),通過左腿跟節(jié)點和右腿跟節(jié)點的坐標來判斷雙腳狀態(tài)。通過獲取的骨骼點數(shù)據(jù)來判斷上身是否挺直、頭部是否擺正、頭部是否亂動、行走時擺臂幅度、行走時步長和坐立時腳的位置狀態(tài)。

步驟S3、根據(jù)眼部信息的特征值和鼻子信息的特征值判斷眼睛狀態(tài)。根據(jù)瞳孔與鼻子的位置來判斷眼睛的狀態(tài)。

步驟S4、綜合眼睛狀態(tài)、上身狀態(tài)、頭部狀態(tài)、手臂狀態(tài)和雙腳狀態(tài)給出儀態(tài)測試結(jié)果。從坐姿,站姿,行姿3個方面對人體儀態(tài)進行分析。

進一步地,參見圖2,空間定位信息還包括左手腕節(jié)點、左手肘節(jié)點、右手腕節(jié)點、右手肘節(jié)點、左臀節(jié)點、左膝蓋節(jié)點、右臀節(jié)點和右膝蓋節(jié)點。可以通過這些節(jié)點創(chuàng)建更多的儀態(tài)分析方法。

進一步地,判斷上身狀態(tài)的步驟為:

設(shè)定左肩節(jié)點坐標為(xA,yA,zA),右肩節(jié)點坐標為(xB,yB,zB),軀干節(jié)點坐標為(xC,yC,zC);

在XOZ坐標平面中,AC為一條直線,BC為一條直線,即斜率k=dz/dx;

若kAC≈kBC,即(ZA-ZC)/(XA-XC)≈(ZB-ZC)/(XB-XC),則上身是挺直的,反之上身沒有挺直。

由左肩節(jié)點、右肩節(jié)點和軀干節(jié)點構(gòu)成了一個平面,通過設(shè)定的坐標計算平面的斜率從而判斷該平面是否垂直于地面,進而判斷上身是否挺直。無論對于坐姿,站姿還是行姿,上身挺直都是重要的。

進一步地,判斷頭部狀態(tài)的步驟為:

設(shè)定頭部節(jié)點坐標為(xhead,yhead,zhead),頸部節(jié)點坐標為(xneck,yneck,zneck);

在XOZ坐標平面中,xhead≈xhead,yhead≈yneck,則頭部是直的,反之頭部不直。

通過頭部節(jié)點和頸部節(jié)點的坐標來判斷頭部是否擺正,且可以通過一段時間對頭部節(jié)點和頸部節(jié)點的采集來判斷是否有頭部晃動的情況。頭部是否擺正,對于坐姿、站姿或行姿亦是非常重要的。

進一步地,判斷手臂狀態(tài)的步驟為:

設(shè)定左肩節(jié)點坐標為(xleft shoulde,yleft shoulde,zleft shoulde)、右肩節(jié)點坐標為(xright shoulder,yright shoulder,zright shoulder)、左手節(jié)點坐標為(xleft hand,yleft hand,zleft hand)和右手節(jié)點坐標為(xright hand,yright hand,zright hand);

向量l=(xleft hand-xleft shoulder,yleft hand-yleft shoulder,zleft hand-zleft shoulder),向量r=(xright hand-xright shoulder,yright hand-yright shoulder,zright hand-zright shoulder);

通過計算sinα=(l×r)/(|l|×|r|)的最大值,得到擺臂幅度l和r的夾角α。

通過左肩節(jié)點坐標、右肩節(jié)點坐標、左手節(jié)點坐標和右手節(jié)點坐標來判斷手臂擺幅,在行走時,手臂幅度不應(yīng)大于30°為宜。站立時應(yīng)保持幅度為0°。

進一步地,判斷腿部狀態(tài)的步驟為:

設(shè)定左腿跟節(jié)點坐標為(xleft foot,yleft foot,zleft foot)和右腿跟節(jié)點坐標為(xright foot,yright foot,zright foot);

設(shè)人前行方向沿著向量a,left foot和right foot之間有一條從left foot指向right foot的向量b,left foot和right foot之間的距離為l,那么l=(a·b)/|a|;

設(shè)腳的長度是l’,若l=2*l’,則測試者的步間距是合理的,反之則不合理。

通過左腿跟節(jié)點坐標和右腿跟節(jié)點坐標來計算腳的狀態(tài),從而判斷行走時的步幅是否合理,來判斷人的行姿。當(dāng)左腿跟節(jié)點和右腿跟節(jié)點幾乎重合且都落在地面時,則判斷為雙腳靠攏平放于地面,來判斷人的坐姿。

進一步地,判斷眼部狀態(tài)的步驟為:

以雙瞳孔相對于鼻梁的位置作為量化標準,判斷雙瞳到鼻梁的距離是否存在明顯偏差;

若無明顯偏差則計算雙瞳到眼角的距離,若偏差較大則定性為雙目未能平視前方;

通過計算得到的雙瞳到眼角的距離,判斷是否發(fā)生雙瞳同時貼著內(nèi)眼角或外眼角的情況,若有此情況則定性為雙目未能平視前方,若無此情況則定性為雙目平視前方。

綜合上身是否挺直、頭部是否擺正或出現(xiàn)晃動情況、手臂擺幅、腳部步幅和眼部是否正視給出儀態(tài)分析結(jié)果。

綜上,本實施例公開的一種基于kinect的求職儀態(tài)測試方法,采用kinect紅外深度傳感器通過人臉識別、空間定位和肢體識別采集人臉特征、骨架位置,通過采集的數(shù)據(jù)對上身狀態(tài)、頭部狀態(tài)、手臂狀態(tài)、腳部狀態(tài)和眼部狀態(tài)進行檢測,其檢測結(jié)果客觀準確。

與上述方法實施例相對應(yīng)的,下述實施例還公開一種用于執(zhí)行上述方法的配套系統(tǒng)。

采集模塊:用于提取kinect采集空間定位信息中左肩節(jié)點、右肩節(jié)點、軀干節(jié)點、頭部節(jié)點、頸部節(jié)點、左手節(jié)點、右手節(jié)點、左腿跟節(jié)點和右腿跟節(jié)點的坐標值以及人臉識別信息中眼部信息的特征值;

第一決策模塊:用于根據(jù)左肩節(jié)點、右肩節(jié)點和軀干節(jié)點的坐標計算平面內(nèi)斜率來判斷上身狀態(tài),根據(jù)頭部節(jié)點和頸部節(jié)點的坐標計算平面內(nèi)斜率來判斷頭部狀態(tài),根據(jù)左手節(jié)點、右手節(jié)點、左肩節(jié)點和右肩節(jié)點的坐標來計算手臂狀態(tài),通過左腿跟節(jié)點和右腿跟節(jié)點的坐標來判斷雙腳狀態(tài);

第二決策模塊:根據(jù)眼部信息的特征值判斷眼睛狀態(tài);

輸出模塊:用于綜合眼睛狀態(tài)、上身狀態(tài)、頭部狀態(tài)、手臂狀態(tài)和雙腳狀態(tài)給出儀態(tài)測試結(jié)果。

綜上,本實施例公開的一種基于kinect的求職儀態(tài)測試系統(tǒng),采用kinect紅外深度傳感器通過人臉識別、空間定位和肢體識別采集人臉特征、骨架位置,通過采集的數(shù)據(jù)對上身狀態(tài)、頭部狀態(tài)、手臂狀態(tài)、腳部狀態(tài)和眼部狀態(tài)進行檢測,其檢測結(jié)果客觀準確。

以上所述僅為本發(fā)明的優(yōu)選實施例而已,并不用于限制本發(fā)明,對于本領(lǐng)域的技術(shù)人員來說,本發(fā)明可以有各種更改和變化。凡在本發(fā)明的精神和原則之內(nèi),所作的任何修改、等同替換、改進等,均應(yīng)包含在本發(fā)明的保護范圍之內(nèi)。

當(dāng)前第1頁1 2 3 
網(wǎng)友詢問留言 已有0條留言
  • 還沒有人留言評論。精彩留言會獲得點贊!
1