摘要:提出一種基于彩色-深度視頻和復(fù)線性動(dòng)態(tài)系統(tǒng)(Complex linear dynamic system,CLDS)的手語(yǔ)識(shí)別方法,可以保證時(shí)序建模數(shù)據(jù)與原始數(shù)據(jù)嚴(yán)格對(duì)應(yīng),準(zhǔn)確刻畫手語(yǔ)特征,從而顯著提高分類精度。利用深度視頻補(bǔ)償RGB視頻中的缺失信息,提取手語(yǔ)視頻運(yùn)動(dòng)邊界直方圖(Motion boundary histogram,MBH)特征,得到每種行為的特征矩陣。對(duì)特征矩陣進(jìn)行CLDS時(shí)序建模,輸出能唯一表示該類手語(yǔ)視頻的描述符M=(A,C),然后利用子空間角度計(jì)算各模型之間的相似度;通過(guò)改進(jìn)的K最近鄰(K-nearest neighbors,KNN)算法得到最終分類結(jié)果。在中國(guó)手語(yǔ)數(shù)據(jù)集(Chinese sign language,CSL)上的實(shí)驗(yàn)表明,本文方法與現(xiàn)有的手語(yǔ)識(shí)別方法相比,具有更高的識(shí)別率。
注:因版權(quán)方要求,不能公開全文,如需全文,請(qǐng)咨詢雜志社
國(guó)際刊號(hào):2096-7586
國(guó)內(nèi)刊號(hào):42-1907/C