摘要:基于多分類器融合,首先提取行人的運(yùn)動(dòng)前景,計(jì)算校正透視效應(yīng)之后的前景面積,提取圖像的有效Harris角點(diǎn)和SURF點(diǎn)信息,并由此得到反映行人遮擋程度的遮擋系數(shù),從而構(gòu)造特征向量,輸入BP神經(jīng)網(wǎng)絡(luò)建立回歸模型;然后提取行人的HOG特征,采用Adaboost級(jí)聯(lián)分類器訓(xùn)練出相應(yīng)的行人檢測(cè)器,檢測(cè)每幀視頻的行人并統(tǒng)計(jì)數(shù)量;最后基于前兩個(gè)分類器,用stacking的策略構(gòu)造了組合分類器,并實(shí)現(xiàn)分類器融合時(shí)權(quán)值的自適應(yīng)調(diào)整.通過與現(xiàn)有算法進(jìn)行對(duì)比,算法的效果優(yōu)于其他算法,對(duì)復(fù)雜場(chǎng)景適應(yīng)性強(qiáng)且滿足實(shí)時(shí)性要求.
注:因版權(quán)方要求,不能公開全文,如需全文,請(qǐng)咨詢雜志社