在线观看av毛片亚洲_伊人久久大香线蕉成人综合网_一级片黄色视频播放_日韩免费86av网址_亚洲av理论在线电影网_一区二区国产免费高清在线观看视频_亚洲国产精品久久99人人更爽_精品少妇人妻久久免费

首頁 > 文章中心 > 卷積神經(jīng)網(wǎng)絡(luò)識(shí)別方法

卷積神經(jīng)網(wǎng)絡(luò)識(shí)別方法

前言:想要寫出一篇令人眼前一亮的文章嗎?我們特意為您整理了5篇卷積神經(jīng)網(wǎng)絡(luò)識(shí)別方法范文,相信會(huì)為您的寫作帶來幫助,發(fā)現(xiàn)更多的寫作思路和靈感。

卷積神經(jīng)網(wǎng)絡(luò)識(shí)別方法

卷積神經(jīng)網(wǎng)絡(luò)識(shí)別方法范文第1篇

>> 基于PCA—LDA與蟻群優(yōu)化BP神經(jīng)網(wǎng)絡(luò)的人臉識(shí)別算法 基于粒子群算法和神經(jīng)網(wǎng)絡(luò)的人臉識(shí)別分類器研究 基于卷積神經(jīng)網(wǎng)絡(luò)的人臉識(shí)別研究 基于BP神經(jīng)網(wǎng)絡(luò)的人臉識(shí)別研究 基于PCA算法的人臉識(shí)別技術(shù)研究 基于改進(jìn)PCA算法的人臉識(shí)別研究 基于MB_LBP和PCA算法的人臉識(shí)別研究 基于BP神經(jīng)網(wǎng)絡(luò)的人臉識(shí)別算法的實(shí)現(xiàn) 基于模糊混沌神經(jīng)網(wǎng)絡(luò)的人臉識(shí)別算法 基于卷積神經(jīng)網(wǎng)絡(luò)的人臉識(shí)別 基于子圖分割和BP神經(jīng)網(wǎng)絡(luò)的人臉識(shí)別方法 基于EMPCA和RBF神經(jīng)網(wǎng)絡(luò)的人臉識(shí)別 基于改進(jìn)PCA與FLD算法的人臉識(shí)別 基于模糊人工神經(jīng)網(wǎng)絡(luò)的人臉識(shí)別研究 基于改進(jìn)的LBP和PCA算法的人臉識(shí)別 基于并行PCA算法的人臉識(shí)別系統(tǒng)的研究 基于PCA和SVM的人臉識(shí)別 基于PCA和FLD的人臉識(shí)別方法 基于快速PCA―SVM的人臉識(shí)別研究 基于主分量分析的BP神經(jīng)網(wǎng)絡(luò)人臉圖像識(shí)別算法 常見問題解答 當(dāng)前所在位置:l.

[6]劉學(xué)勝.基于PCA和SVM算法的人臉識(shí)別[J].計(jì)算機(jī)與數(shù)字工程,2011(7).

[7]廖海濱,陳慶虎. 基于因子分析的實(shí)用人臉識(shí)別研究[J].電子與信息學(xué)報(bào),2011(7).

[8]蔡曉曦,陳定方.特征臉及其改進(jìn)方法在人臉識(shí)別中的比較研究[J].計(jì)算機(jī)與數(shù)字工程,2007(4).

卷積神經(jīng)網(wǎng)絡(luò)識(shí)別方法范文第2篇

由于在移動(dòng)數(shù)碼設(shè)備(例如智能手機(jī)、掌上電腦、學(xué)習(xí)機(jī)等)以及平板電腦(Tablet PC)上的巨大應(yīng)用價(jià)值,聯(lián)機(jī)手寫漢字

>> 聯(lián)機(jī)手寫漢字/詞組識(shí)別的研究及其應(yīng)用 基于聯(lián)機(jī)手寫漢字字塊特征碼提取的研究 用VB實(shí)現(xiàn)聯(lián)機(jī)手寫漢字的筆劃端點(diǎn)提取 藏文聯(lián)機(jī)手寫識(shí)別的研究與實(shí)現(xiàn)索 基于多重卷積神經(jīng)網(wǎng)絡(luò)的大模式聯(lián)機(jī)手寫文字識(shí)別 聯(lián)機(jī)手寫維文字符的預(yù)處理和特征提取方法 基于過拆分和合并的聯(lián)機(jī)手寫英文單詞分割技術(shù) 對(duì)脫機(jī)手寫相似漢字識(shí)別方法的研究 基于神經(jīng)網(wǎng)絡(luò)的聯(lián)機(jī)手寫識(shí)別系統(tǒng)的研究和實(shí)現(xiàn) 立足細(xì)化處理解析脫機(jī)手寫漢字識(shí)別 BP神經(jīng)網(wǎng)絡(luò)探析脫機(jī)手寫漢字識(shí)別 脫機(jī)手寫數(shù)字識(shí)別技術(shù)研究 一種改進(jìn)的脫機(jī)手寫漢字四角特征粗分類方法 基于字型特征的手寫體漢字多分類識(shí)別的研究 脫機(jī)手寫體簽名識(shí)別的小波包隱馬爾可夫模型 基于GABP神經(jīng)網(wǎng)絡(luò)的脫機(jī)手寫藏文識(shí)別方法 基于置信度分析的脫機(jī)手寫數(shù)字識(shí)別算法 手寫漢字識(shí)別系統(tǒng)的研究與應(yīng)用 手寫數(shù)字識(shí)別的原理及應(yīng)用 手寫漢字的特性與生命力 常見問題解答 當(dāng)前所在位置:l,運(yùn)行時(shí)需要Java Runtime Environment 1.5以上版本的支持),已經(jīng)能較好地識(shí)別筆順無關(guān)的手寫體漢字。目前該系統(tǒng)還沒有加上虛擬筆劃等一些草書識(shí)別技術(shù)及先進(jìn)的結(jié)合聯(lián)機(jī)及脫機(jī)識(shí)別引擎的多分類器集成技術(shù),我們將來在適當(dāng)時(shí)候會(huì)利用Java平臺(tái)實(shí)現(xiàn)這些技術(shù)并在該頁面上公布。

我們還構(gòu)想了一個(gè)聯(lián)機(jī)手寫識(shí)別技術(shù)在計(jì)算機(jī)輔助漢字書寫學(xué)習(xí)中的嶄新應(yīng)用――漢字聽寫學(xué)習(xí),初步的原型網(wǎng)頁見218.192.168.156:8080/ call/dictation.asp,(該頁面同樣用Java平臺(tái)實(shí)現(xiàn),運(yùn)行時(shí)需要JRE支持)。 使用者可以進(jìn)行在線漢字聽寫,然后系統(tǒng)利用聯(lián)機(jī)識(shí)別技術(shù)自動(dòng)評(píng)判使用者書寫的字符是否正確,并給出反饋。該技術(shù)已經(jīng)集成到我們正在設(shè)計(jì)的一個(gè)對(duì)外漢語書寫教學(xué)網(wǎng)站之中。近年來,隨著中國社會(huì)經(jīng)濟(jì)建設(shè)的飛速發(fā)展,漢語教學(xué)在世界各地受到越來越多的重視,國外的漢語學(xué)習(xí)者日益增多,盡管目前國內(nèi)外有不少漢語教學(xué)網(wǎng)站或軟件,但我們的學(xué)習(xí)系統(tǒng)利用低存儲(chǔ)量的活動(dòng)漢字編碼技術(shù)及動(dòng)態(tài)反走樣還原顯示技術(shù)、基于聯(lián)機(jī)識(shí)別的漢字聽寫技術(shù)以及漢字書寫質(zhì)量評(píng)價(jià)技術(shù),具有特色和創(chuàng)新。

六、結(jié)束語

我們認(rèn)為,高自由度的草書識(shí)別及無約束的手寫詞組的識(shí)別是構(gòu)造更自然、更快捷、更流暢的手寫輸入方式的核心技術(shù),相信通過國內(nèi)外同行的努力,在不遠(yuǎn)的將來,手寫輸入法會(huì)變得更實(shí)用、更高效、更具競(jìng)爭(zhēng)力;此外,手寫漢字/詞組識(shí)別技術(shù)在計(jì)算機(jī)教育、智能機(jī)器人等領(lǐng)域中還可帶來更多的創(chuàng)新應(yīng)用。

卷積神經(jīng)網(wǎng)絡(luò)識(shí)別方法范文第3篇

【關(guān)鍵詞】:高速公路 防逃 人臉識(shí)別 高清視

中圖分類號(hào):U412.36+6 文獻(xiàn)標(biāo)識(shí)碼:A

人臉識(shí)別的分類與概述

人臉識(shí)別就是通過計(jì)算機(jī)提取人臉的特征,并根據(jù)這些特征進(jìn)行身份驗(yàn)證。人臉與人體的其他生物特征(指紋、虹膜等)一樣與生俱來,它們所具有的唯一性和不易被復(fù)制的良好特性為身份鑒別提供了必要的前提;同其他生物特征識(shí)別技術(shù)相比,人臉識(shí)別技術(shù)具有操作簡(jiǎn)單、結(jié)果直觀、隱蔽性好的優(yōu)越性。人臉識(shí)別一般包括三個(gè)步驟:人臉檢測(cè)、人臉特征提取和人臉的識(shí)別與驗(yàn)證。其處理流程如圖

輸入圖像 人臉圖像人臉特征輸出結(jié)果

人臉識(shí)別的一般步驟

人臉識(shí)別方法繁多,早期研究較多的方法有基于幾何特征的人臉識(shí)別方法和基于模板匹配的人臉識(shí)別方法。目前人臉識(shí)別方法主要研究及應(yīng)用的是基于統(tǒng)計(jì)的識(shí)別方法、基于連接機(jī)制的識(shí)別方法以及其它一些綜合方法。下面是這幾類方法的基本介紹:[2]

(1)基于幾何特征的人臉識(shí)別方法

幾何特征矢量是以人臉器官如眼睛、鼻子、嘴巴等的形狀和幾何關(guān)系為基礎(chǔ)的特征矢量,其分量通常包括人臉指定兩點(diǎn)間距離、曲率、角度等。早期的研究者Brunelli[3]等人采用改進(jìn)的積分投影法提取出用歐式距離表征的35維人臉特征矢量用于人臉識(shí)別。Huang Chung Lin等人[4]采用動(dòng)態(tài)模板[5,6,7]與活動(dòng)輪廓模型提取出人臉器官的輪廓[8,9,10]?;趲缀翁卣鞯娜四樧R(shí)別方法有如下優(yōu)點(diǎn):符合人類識(shí)別人臉的機(jī)理,易于理解;對(duì)每幅圖像只需要存儲(chǔ)一個(gè)特征矢量,存儲(chǔ)量小;對(duì)光照變化不敏感。但這種方法同樣存在一些問題,如從圖像中提取這些特征比較困難;對(duì)強(qiáng)烈的表情變化和姿態(tài)變化的魯棒性差等。

(2)基于模板匹配的人臉識(shí)別方法

模板匹配大都采用歸一化相關(guān),直接計(jì)算兩幅圖之間的匹配程度。最簡(jiǎn)單的人臉模板就是將人臉看成一個(gè)橢圓[10,11]。另一種方法就是將人臉用一組獨(dú)立的小模板表示,如眼睛模板、嘴巴模板、鼻子模板等,采用彈性模板方法提取這些模板特征[12]。Brunelli等人專門比較了基于幾何特征的人臉識(shí)別方法和基于模板匹配的人臉識(shí)別方法,他們得出的結(jié)論是:基于幾何特征的人臉識(shí)別方法具有識(shí)別速度快和內(nèi)存要求小等優(yōu)點(diǎn),但基于模板匹配的識(shí)別率要高于基于幾何特征的識(shí)別率。

(3)基于統(tǒng)計(jì)的人臉識(shí)別方法

基于統(tǒng)計(jì)特征的識(shí)別方法包括基于特征臉的方法和基于隱馬爾可夫模型的方法。特征臉(Eigenface)方法[13]是從主成分分析導(dǎo)出的一種人臉識(shí)別和描述技術(shù)。主成分分析實(shí)質(zhì)上是K-L展開的網(wǎng)絡(luò)遞推實(shí)現(xiàn),K-L變換是圖像壓縮中的一種最優(yōu)正交變換,其生成矩陣一般為訓(xùn)練樣本的總體散布矩陣。特征臉方法就是將包含人臉的圖像區(qū)域看作是一種隨機(jī)向量,因此可以采用K-L變換獲得其正交K-L基底。對(duì)應(yīng)其中較大特征值的基底具有與人臉相似的形狀,因此又稱之為特征臉。

隱馬爾可夫模型(HMM)是用于描述信號(hào)統(tǒng)計(jì)特性的一組統(tǒng)計(jì)模型?;谌四槒纳系较?、從左到右的結(jié)構(gòu)特征,Samaria等人[14]首先將1-D HMM和2-D Pseudo HMM用于人臉識(shí)別。Kohir等[15]采用1-D HMM將低頻DCT系數(shù)作為觀察矢量獲得了好的識(shí)別效果。Eickeler等[16]采用2-DPseudo HMM識(shí)別DCT壓縮的JPEG圖像中的人臉圖像。Nefian等[17]采用嵌入式HMM識(shí)別人臉。

(4)基于連接機(jī)制的人臉識(shí)別方法(神經(jīng)網(wǎng)絡(luò)彈性圖匹配)

基于連接機(jī)制的識(shí)別方法,包括一般的神經(jīng)網(wǎng)絡(luò)方法和彈性圖匹配(Elastic Graph Matching)方法。神經(jīng)網(wǎng)絡(luò)在人臉識(shí)別應(yīng)用中有很長(zhǎng)的歷史[18]。Demers 等[19]提出采用PCA方法提取人臉圖像特征,用自相關(guān)神經(jīng)網(wǎng)絡(luò)進(jìn)一步壓縮特征,最后采用一個(gè)多層處理器來實(shí)現(xiàn)人臉識(shí)別。Laurence等[20]通過一個(gè)多級(jí)的SOM實(shí)現(xiàn)樣本的聚類,將卷積神經(jīng)網(wǎng)絡(luò)(CNN)用于人臉識(shí)別。Lin等[21]采用基于概率決策的神經(jīng)網(wǎng)絡(luò)(PDBNN)方法。最近,徑向基函數(shù)RBF神經(jīng)網(wǎng)絡(luò)因具有逼近性好、空間描述緊湊和訓(xùn)練速度快等特點(diǎn)而被用于人臉識(shí)別。Gutta等[22]提出了將RBF與樹分類器結(jié)合起來進(jìn)行人臉識(shí)別的混合分類器結(jié)構(gòu),后來他們用RBF神經(jīng)網(wǎng)絡(luò)進(jìn)行了針對(duì)部分人臉的識(shí)別研究[23],他們的研究表明利用部分人臉也可以有效地識(shí)別人臉。Er等[24]采用PCA進(jìn)行維數(shù)壓縮,再用LDA抽取特征,然后基于RBF進(jìn)行人臉識(shí)別。Haddadnia 等[25]基于PZMI(Pseudo Zernike Moment Invariant)特征,并采用混合學(xué)習(xí)算法的RBF神經(jīng)網(wǎng)絡(luò)進(jìn)行人臉識(shí)別。此外,Lucas 等采用連續(xù)的n-tuple網(wǎng)絡(luò)識(shí)別人臉。

彈性圖匹配方法是一種基于動(dòng)態(tài)鏈接結(jié)構(gòu)的方法[26]。在人臉圖像上放置一組矩形網(wǎng)格節(jié)點(diǎn),每個(gè)節(jié)點(diǎn)的特征用該節(jié)點(diǎn)處的多尺度Gabor幅度特征描述,各節(jié)點(diǎn)之間的連接關(guān)系用幾何距離表示,從而構(gòu)成基于二維拓?fù)鋱D的人臉描述。根據(jù)兩個(gè)圖像中各節(jié)點(diǎn)和連接之間的相似性可以進(jìn)行人臉識(shí)別。Wiskott等[27]將人臉特征上的一些點(diǎn)作為基準(zhǔn)點(diǎn),強(qiáng)調(diào)了人臉特征的重要性。他們采用每個(gè)基準(zhǔn)點(diǎn)存儲(chǔ)一串具有代表性的特征矢量,大大減少了系統(tǒng)的存儲(chǔ)量。Würtz 等[28]只使用人臉面部的特征,進(jìn)一步消除了結(jié)構(gòu)中的冗余信息和背景信息,并使用一個(gè)多層的分級(jí)結(jié)構(gòu)。Grudin等[29]也采用分級(jí)結(jié)構(gòu)的彈性圖,通過去除了一些冗余節(jié)點(diǎn),形成稀疏的人臉描述結(jié)構(gòu)。Nastar等[30]提出將人臉圖像I(x,y)表示為可變形的3D網(wǎng)格表面(x, y, I(x,y)),將人臉匹配問題轉(zhuǎn)換為曲面匹配問題,利用有限元分析的方法進(jìn)行曲面變形,根據(jù)兩幅圖像之間變形匹配的程度識(shí)別人臉。

(5)基于形變模型的方法

基于形變模型的方法是一個(gè)受到重視的方法。通過合成新的視覺圖像,可以處理姿態(tài)變化的問題。Lanitis等[31]通過在人臉特征邊沿選擇一些稀疏的基準(zhǔn)點(diǎn)描述人臉的形狀特征,然后將形狀變形到所有人臉圖像的平均形狀,再根據(jù)變形后的形狀進(jìn)行紋理(灰度)變形,形成與形狀無關(guān)的人臉圖像。然后分別對(duì)形狀和灰度進(jìn)行PCA變換,根據(jù)形狀和紋理的相關(guān)性,用PCA對(duì)各自的結(jié)果進(jìn)一步分析,最終得到描述人臉的AAM(Active Appearance Model)模型。通過改變這些參數(shù)可得到不同變化的人臉圖像,模型參數(shù)能夠用于人臉識(shí)別。Romdhani 等[32]采用激光掃描儀獲得人臉的3D數(shù)據(jù),分別對(duì)一些基準(zhǔn)點(diǎn)構(gòu)成的形狀和基準(zhǔn)點(diǎn)的灰度(或彩色)完成PCA,得到3D人臉形狀和灰度(彩色)基圖像,通過變化參數(shù)就可獲得不同的3D人臉模型。通過施加一些先驗(yàn)約束可以避免合成不真實(shí)的人臉圖像。利用線性形狀和紋理誤差,通過3D模型向2D輸入圖像的自動(dòng)匹配實(shí)現(xiàn)人臉識(shí)別。

項(xiàng)目采用的識(shí)別算法

人臉自動(dòng)識(shí)別技術(shù)經(jīng)過多年來的研究已經(jīng)積累了大量研究成果。但是仍然面臨很多問題,尤其是在非約束環(huán)境下的人臉識(shí)別。結(jié)合本研究項(xiàng)目及應(yīng)用環(huán)境綜合考慮,采用特征臉方法對(duì)視屏資料中的司機(jī)臉部進(jìn)行提取識(shí)別。

特征臉方法是90年代初期由Turk和Pentland提出算法,具有簡(jiǎn)單有效的特點(diǎn), 也稱為基于主成分分析(principal component analysis,簡(jiǎn)稱PCA)的人臉識(shí)別方法。把人臉圖像空間線性投影到一個(gè)低維的特征空間。PCA實(shí)質(zhì)上是K-L展開的網(wǎng)絡(luò)遞推實(shí)現(xiàn)。K-L變換是圖像壓縮技術(shù)中的一種最優(yōu)正交變換。人們將它用于統(tǒng)計(jì)特征提取。從而形成子空間法模式識(shí)別的基礎(chǔ)。若將K-L變換用于人臉識(shí)別,則需假設(shè)人臉處于低維線性空間。由高維圖像空間K-L變換后,可得到一組新的正交基,由此可以通過保留部分正交基獲得正交K-L基底。如將子空間對(duì)應(yīng)特征值較大的基底按照?qǐng)D像陣列排列,則可以看出這些正交基呈現(xiàn)出人臉的形狀。因此這些正交基也稱為特征臉,這種人臉的識(shí)別方法也叫特征臉法。

特征子臉技術(shù)的基本思想是:從統(tǒng)計(jì)的觀點(diǎn),尋找人臉圖像分布的基本元素,即人臉圖像樣本集協(xié)方差矩陣的特征向量,以此近似地表征人臉圖像。這些特征向量稱為特征臉(Eigenface)。

利用這些基底的線性組合可以描述、表達(dá)和逼近人臉圖像,因此可以進(jìn)行人臉識(shí)別與合成。識(shí)別過程就是將人臉圖像映射到由特征臉張成的子空間上,比較其與已知人臉在特征臉空間中的位置,具體步驟如下:[33]

(1)初始化,獲得人臉圖像的訓(xùn)練集并計(jì)算特征臉,定義為人臉空間;

(2)輸入待識(shí)別人臉圖像,將其映射到特征臉空間,得到一組權(quán)值;

(3)通過檢查圖像與人臉空間的距離判斷它是否為人臉;

(4)若為人臉,根據(jù)權(quán)值模式判斷它是否為數(shù)據(jù)庫中的某個(gè)人。

1. 計(jì)算特征臉

假設(shè)人臉圖像包含個(gè)像素,因此可以用維向量Γ表示。如人臉訓(xùn)練集由幅人臉圖像構(gòu)成,則可以用表示人臉訓(xùn)練集。

其均值為:

(2-1)

每幅圖像與均值的差為:

(2-2)

構(gòu)造人臉訓(xùn)練集的協(xié)方差矩陣:

(2-3)

其中 。

協(xié)方差矩陣的正交分解向量即為人臉空間的基向量,也即特征臉。

一般比較大(通常大于1000),所以對(duì)矩陣直接求解特征向量是不可能的,為此引出下列定理:

SVD定理:設(shè)是一秩為的維矩陣,則存在兩個(gè)正交矩陣:

(2-4)

(2-5)

以及對(duì)角陣:

(2-6)

滿足

其中:為矩陣和的非零特征值,和分別為和對(duì)應(yīng)于的特征矢量。上述分解成為矩陣的奇異值分解(SVD),為的奇異值。

推論:

(2-7)

由上述定理可知:

人臉訓(xùn)練集所包含的圖像一般要比圖像的像素?cái)?shù)小的多,因此可以轉(zhuǎn)求矩陣

(2-8)

的特征向量,M為人臉訓(xùn)練集圖像總數(shù)。

矩陣的特征向量由差值圖像與線性組合得到:

=(2-9)

實(shí)際上,m(m

(2-10)

識(shí)別

基于特征臉的人臉識(shí)別過程由訓(xùn)練階段和識(shí)別階段兩個(gè)階段組成。在訓(xùn)練階段,每個(gè)己知人臉映射由特征臉張成的子空間上,得到m維向量:

(2-11)

距離閾值定義如下:

(2-12)

在識(shí)別階段,首先把待識(shí)別的圖像映射到特征臉空間,得到向量

(2-13)

與每個(gè)人臉集的距離定義為

(2-14)

為了區(qū)分人臉和非人臉,還需計(jì)算原始圖像與其由特征臉空間重建的圖像之間的距離:

(2-15)

其中:

(2-16)

采用最小距離法對(duì)人臉進(jìn)行分類,分類規(guī)則如下:

(1)若,則輸入圖像不是人臉圖像;

(2)若,則輸入圖像包含未知人臉;

(3)若,則輸入圖像為庫中的某個(gè)人臉。

實(shí)際上,特征臉反映了隱含在人臉樣本集合內(nèi)部的信息和人臉的結(jié)構(gòu)關(guān)系。將眼睛、面頰、下頜的樣本集協(xié)方差矩陣的特征向量稱為特征眼、特征頜和特征唇,統(tǒng)稱特征子臉。特征子臉在相應(yīng)的圖像空間中生成子空間,稱為子臉空間。計(jì)算出測(cè)試圖像窗口在子臉空間的投影距離,若窗口圖像滿足閾值比較條件,則判斷其為人臉。

基于特征分析的方法,也就是將人臉基準(zhǔn)點(diǎn)的相對(duì)比率和其它描述人臉臉部特征的形狀參數(shù)或類別參數(shù)等一起構(gòu)成識(shí)別特征向量,這種基于整體臉的識(shí)別不僅保留了人臉部件之間的拓?fù)潢P(guān)系,而且也保留了各部件本身的信息,而基于部件的識(shí)別則是通過提取出局部輪廓信息及灰度信息來設(shè)計(jì)具體識(shí)別算法?,F(xiàn)在Eigenface(PCA)算法已經(jīng)與經(jīng)典的模板匹配算法一起成為測(cè)試人臉識(shí)別系統(tǒng)性能的基準(zhǔn)算法;而自1991年特征臉技術(shù)誕生以來,研究者對(duì)其進(jìn)行了各種各樣的實(shí)驗(yàn)和理論分析,F(xiàn)ERET測(cè)試結(jié)果也表明,改進(jìn)的特征臉?biāo)惴ㄊ侵髁鞯娜四樧R(shí)別技術(shù),也是具有最好性能的識(shí)別方法之一。

該方法是先確定眼虹膜、鼻翼、嘴角等面像五官輪廓的大小、位置、距離等屬性,然后再計(jì)算出它們的幾何特征量,而這些特征量形成一描述該面像的特征向量。其技術(shù)的核心實(shí)際為"局部人體特征分析"和"圖形/神經(jīng)識(shí)別算法。"這種算法是利用人體面部各器官及特征部位的方法。如對(duì)應(yīng)幾何關(guān)系多數(shù)據(jù)形成識(shí)別參數(shù)與數(shù)據(jù)庫中所有的原始參數(shù)進(jìn)行比較、判斷與確認(rèn)。Turk和Pentland提出特征臉的方法,它根據(jù)一組人臉訓(xùn)練圖像構(gòu)造主元子空間,由于主元具有臉的形狀,也稱為特征臉,識(shí)別時(shí)將測(cè)試圖像投影到主元子空間上,得到一組投影系數(shù),和各個(gè)已知人的人臉圖像比較進(jìn)行識(shí)別。

結(jié)束語

從目前國情來講,在一段時(shí)間內(nèi)高速公路收費(fèi)還會(huì)繼續(xù)存在,某些司機(jī)逃費(fèi)的僥幸心也同樣會(huì)有。通過帶路徑識(shí)別功能的 RFID 復(fù)合卡作為通行卡,利用 RFID 卡的信息對(duì)車輛進(jìn)行跟蹤,在不增加硬件投入的情況下,直接可以給車道收費(fèi)系統(tǒng)提供抓拍高清圖像,以及其它報(bào)警聯(lián)動(dòng)系統(tǒng)提供圖像等,可有效解決高速公路沖卡逃費(fèi)問題,可廣泛應(yīng)用于封閉式管理的公路收費(fèi)系統(tǒng)。

參考文獻(xiàn):

[1]江艷霞. 視頻人臉跟蹤識(shí)別算法研究. 上海交通大學(xué)博士學(xué)位論文,2007.

[2]Brunelli R and Poggio T., Feature Recognition: Features Versus Templates. IEEE Transactions on

PAMI, 1993, 15(10):1042 -1052.

[3]李剛. 基于特征臉法的正面人臉識(shí)別研究. 國防科學(xué)技術(shù)大學(xué)碩士學(xué)位論文,2002.11

[4]JOHN CANNY. A Computational Approach to Edge Detection. IEEE TRANSACTIONS ON PATTERN

ANALYSIS AND MACHINE INTELLIGENCE, VOL.PAMI-8, NO.6, NOVEMBER 1986.

[5]張建飛、陳樹越等. 基于支持向量基的交通視頻人車識(shí)別研究[J]. 電視技術(shù),2011

[6]肖波、樊友平等. 復(fù)雜背景下基于運(yùn)動(dòng)特征的人面定位[J]. 重慶大學(xué)學(xué)報(bào),2002

[7] 《中華人民共和國交通部公路聯(lián)網(wǎng)收費(fèi)技術(shù)要求》,交通部

[8] 《廣東省高速公路聯(lián)網(wǎng)收費(fèi)系統(tǒng)》,DB44 127-2003,廣東省質(zhì)量技術(shù)監(jiān)督局

[9] 《視頻安防監(jiān)控?cái)?shù)字錄像設(shè)備》,GB 20815-2006

[10]《安全防范工程技術(shù)規(guī)范》,GB 50348-2004

卷積神經(jīng)網(wǎng)絡(luò)識(shí)別方法范文第4篇

關(guān)鍵詞: 圖像特征; 支持向量機(jī); 模擬退火算法; 交通標(biāo)志識(shí)別

中圖分類號(hào): TN911?34; TP391.41 文獻(xiàn)標(biāo)識(shí)碼: A 文章編號(hào): 1004?373X(2017)08?0097?03

Traffic sign recognition based on image feature and improved support

vector machine algorithm

HAO Yongjie1, ZHOU Bowen2

(1. Hohhot Vocational College, Hohhot 010051, China; 2. College of Management and Economics, Tianjin University, Tianjin 300072, China)

Abstract: A traffic sign recognition method based on image feature and improved support vector machine (SVM) algorithm is studied in this paper. The color feature and shape feature are used to extract the image feature of the traffic sign. The Gabor filtering method is adopted to perform the enhancement processing of the traffic sign image. Since the accuracy of the recognition algorithm based on SVM is affected by the basic parameters to a great extent, and the parameters are selected according to the experience usually, the simulated annealing algorithm is used to select the parameters of the support vector machine optimally. The research results show that the detection accuracy of the traffic sign detection method is higher than that of the other three methods, and the detection accuracy of color and shape features extraction method is higher than that of the single color feature extraction method or shape feature extraction method.

Keywords: image feature; SVM; simulated annealing algorithm; traffic sign recognition

交通安全題以及道路通信能力不足問題越來越嚴(yán)重,人們開始重視如何提升道路交通的安全性及有效性,車輛安全輔助駕駛能夠?qū)⒌缆沸畔?、車輛信息以及駕駛員信息聯(lián)系起來,駕駛員在其輔助下能夠?qū)π熊嚟h(huán)境進(jìn)行感知,進(jìn)而達(dá)到識(shí)別和監(jiān)測(cè)道路信息的目的[1?2]。作為高級(jí)輔助系統(tǒng)的重要部分,交通標(biāo)志識(shí)別系統(tǒng)能夠有效地提升駕車的舒適性以及安全性。利用該系統(tǒng),能夠采集自然場(chǎng)景圖像,經(jīng)過圖像識(shí)別和處理以后就可以檢測(cè)交通標(biāo)志,進(jìn)而及時(shí)警告、指示以及提醒駕駛員[3?4]。

1 基于圖像特征的交通標(biāo)志檢測(cè)特征提取

1.1 基于顏色的交通標(biāo)志特征

不同的交通標(biāo)志在顏色上存在著較大的差距,因此在分割交通標(biāo)志圖像的過程中通常以顏色為基礎(chǔ)來分離抽取交通標(biāo)志[5?6]。色調(diào)V、飽和度S以及色度H三個(gè)分量組成了HSV 顏色空間,作為三原色RGB空間的一種非線性變換,HSV顏色空間模型和圓柱坐標(biāo)系的一個(gè)圓錐形子集是相互對(duì)應(yīng)的,實(shí)現(xiàn)RGB顏色空間和HSV空間之間的轉(zhuǎn)換[7]如下:

(1)

(2)

(3)

1.2 基于形狀的交通標(biāo)志特征

利用顏色抽取的方法能夠在實(shí)景圖中提取交通標(biāo)志區(qū)域。然而由于在背景上自然場(chǎng)景和交通標(biāo)志均比較復(fù)雜,如果僅僅依靠顏色無法獲得較為精確的判定結(jié)果。但是這種方法能夠?qū)⒛切╊伾容^類似的背景排除掉,主要是因?yàn)檫@些復(fù)雜背景和交通標(biāo)志的特殊形狀存在著一定的差距[8]。矩形、三角形以及圓形為交通標(biāo)志的三種主要類型,當(dāng)交通標(biāo)志不同時(shí)其屬性也存在著一定的差距,例如執(zhí)行到邊緣的距離、伸長(zhǎng)度、矩形度以及圓形度等。圓形度、矩形度以及伸長(zhǎng)度計(jì)算方法如下[9]:

(4)

(5)

(6)

1.3 Gabor濾波

Gabor 濾波首先對(duì)核函數(shù)模板進(jìn)行確定,然后對(duì)圖像進(jìn)行卷積操作。Gabor 濾波函數(shù)乘以復(fù)指數(shù)振蕩函數(shù)就是所對(duì)應(yīng)的沖激響應(yīng)。本文在提取特征向量時(shí)采用Gabor濾波法,所對(duì)應(yīng)的核函數(shù)[10]如下:

(7)

2 改進(jìn)支持向量機(jī)模型

相比于神經(jīng)網(wǎng)絡(luò),支持向量機(jī)不需要太多的訓(xùn)練樣本,同時(shí)對(duì)于凸優(yōu)化問題支持向量機(jī)能夠有效的解決,當(dāng)參數(shù)和樣本一致時(shí),訓(xùn)練模型所得到的預(yù)測(cè)值就不會(huì)產(chǎn)生變化,因此在實(shí)際應(yīng)用和理論中都比神經(jīng)網(wǎng)絡(luò)模型具有更高的性能。

但是在應(yīng)用的過程中支持向量機(jī)需要依靠經(jīng)驗(yàn)對(duì)學(xué)習(xí)參數(shù)進(jìn)行選取。比如懲罰因子C和ε等,支持向量機(jī)的精度在很大程度上受到這些參數(shù)的影響,通常根據(jù)經(jīng)驗(yàn)來進(jìn)行參數(shù)的選取,這對(duì)于支持向量機(jī)模型的使用和推廣是不利的。因此本文使用模擬退火算法對(duì)支持向量機(jī)的參數(shù)進(jìn)行優(yōu)化選擇。

支持向量機(jī)的思想是利用結(jié)構(gòu)風(fēng)險(xiǎn)最小化思想以及構(gòu)造損失函數(shù)的思想,以統(tǒng)計(jì)學(xué)理論為基礎(chǔ),通過極小化目標(biāo)函數(shù)就可以對(duì)回歸函數(shù)進(jìn)行確定,如下[11]:

(8)

將上述問題轉(zhuǎn)化為對(duì)偶問題:

(9)

解出上述問題即為支持向量機(jī)的回歸函數(shù):

(10)

作為一種隨機(jī)尋優(yōu)算法,模擬退火算法是以蒙特卡羅迭代求解策略為基礎(chǔ)的,其基本原理和物理上的金屬退火比較類似。使用模擬退火算法對(duì)支持向量機(jī)的參數(shù)進(jìn)行優(yōu)化選擇,主要過程如下:

步驟1:初始化參數(shù)。設(shè)定支持向量機(jī)中的ε,C和σ參數(shù)的初始范圍。

步驟2:使用模擬退火算法對(duì)支持向量機(jī)的參數(shù)進(jìn)行優(yōu)化選擇。

步驟3:更新最優(yōu)解。如果,則使,,;否則使。

步驟4:抽樣穩(wěn)定性判別。如果,則使,并返回步驟2;否則使。

步驟5:終止退火判別。如果,則使,否則使。如果,則終止退火算法,否則繼續(xù)向下進(jìn)行。

步驟6:退火方案。如果,則按照方式進(jìn)行退火;否則按照方式進(jìn)行退火。

在利用SA對(duì)SVM參數(shù)進(jìn)行確定的過程中能夠記憶性地進(jìn)行參數(shù)的選取,可以存儲(chǔ)當(dāng)前進(jìn)化所得到的最優(yōu)參數(shù),保證可以根據(jù)記憶調(diào)整參數(shù)的選擇過程;同時(shí)利用SA算法能夠調(diào)整所選取的參數(shù),避免出現(xiàn)局部最小的情況,對(duì)于逼近系統(tǒng)的精度以及參數(shù)選擇學(xué)習(xí)速度的提升有非常好的效果[12]。

3 交通標(biāo)志識(shí)別實(shí)例分析

通過交通標(biāo)志識(shí)別實(shí)例對(duì)本文研究的識(shí)別方法進(jìn)行驗(yàn)證分析。通^實(shí)地考察,拍攝了500幅包括826個(gè)交通標(biāo)志的圖像,用于實(shí)例分析,部分標(biāo)志圖像如圖1所示。

本文以文獻(xiàn)[13]中研究的圖像特征檢測(cè)方法為例進(jìn)行對(duì)比分析。使用本文研究的圖像特征檢測(cè)方法得到的圖像處理結(jié)果和使用文獻(xiàn)[13]中研究的圖像特征檢測(cè)方法得到的圖像處理結(jié)果如圖2所示。

對(duì)比本文和文獻(xiàn)[13]中的特征檢測(cè)方法可以看出,本文研究的方法處理后圖像中雜點(diǎn)更少,更利于圖像的分類識(shí)別。另外,由于文獻(xiàn)[13]中的特征檢測(cè)方法使用計(jì)算圖像均值處理,因此特征檢測(cè)效率相對(duì)更低。

下面對(duì)交通標(biāo)志識(shí)別準(zhǔn)確率進(jìn)行分析。使用多種圖像特征檢測(cè)方法和圖像分類模型進(jìn)行組合:本文研究的使用顏色和形狀特征提取,改進(jìn)支持向量機(jī)進(jìn)行圖像分類,稱方法A;使用顏色和形狀特征提取,常規(guī)支持向量機(jī)進(jìn)行圖像分類,稱方法B;使用顏色特征提取,改進(jìn)支持向量機(jī)進(jìn)行圖像分類,稱方法C;使用形狀特征提取,改進(jìn)支持向量機(jī)進(jìn)行圖像分類[14],稱方法D。

使用上述四種方法針對(duì)拍攝的826個(gè)交通標(biāo)志的圖像進(jìn)行識(shí)別,對(duì)比結(jié)果如表1所示。

表1 四種算法的識(shí)別結(jié)果對(duì)比

可以看出使用本文研究的交通標(biāo)志檢測(cè)方法的檢測(cè)精度高于其他三種方法。使用顏色和形狀特征提取的檢測(cè)精度要高于單獨(dú)使用顏色或形狀特征提取方法。

4 結(jié) 論

交通標(biāo)志識(shí)別系統(tǒng)能夠有效地提升駕車的舒適性以及安全性。交通標(biāo)志識(shí)別系統(tǒng)能夠采集自然場(chǎng)景圖像,經(jīng)過圖像識(shí)別和處理以后就可以檢測(cè)交通標(biāo)志,進(jìn)而及時(shí)警告、指示以及提醒駕駛員。本文研究一種基于顏色和形狀特征以及改進(jìn)支持向量機(jī)算法的交通標(biāo)志識(shí)別方法,并通過實(shí)例對(duì)所研究的交通標(biāo)志識(shí)別方法的可行性進(jìn)行了驗(yàn)證。

參考文獻(xiàn)

[1] 王剛毅.交通標(biāo)志檢測(cè)與分類算法研究[D].哈爾濱:哈爾濱工業(yè)大學(xué),2013.

[2] 宋婀娜,房俊杰,李娜,等.一種基于局部特征的交通標(biāo)志檢測(cè)算法的研究[J].現(xiàn)代電子技術(shù),2015,38(13):114?116.

[3] 楊正帥.基于視覺的道路識(shí)別技術(shù)在移動(dòng)機(jī)器人導(dǎo)航中的應(yīng)用研究[D].南京:南京理工大學(xué),2007.

[4] 王忠.基于視覺的道路識(shí)別技術(shù)在智能小車導(dǎo)航中的應(yīng)用研究[D].南京:東南大學(xué),2006.

[5] 陳樸.模擬退火支持向量機(jī)算法研究及在電力負(fù)荷預(yù)測(cè)中的應(yīng)用[D].哈爾濱:哈爾濱工業(yè)大學(xué),2006.

[6] 陳亦欣,葉鋒,肖鋒,等.基于HSV空間和形狀特征的交通標(biāo)志檢測(cè)識(shí)別研究[J].江漢大學(xué)學(xué)報(bào)(自然科學(xué)版),2016(2):119?125.

[7] 王洋.一種基于模板匹配的交通標(biāo)志識(shí)別方法[D].長(zhǎng)春:吉林大學(xué),2013.

[8] 盧艷君.交通標(biāo)志自動(dòng)檢測(cè)與識(shí)別算法研究[D].武漢:武漢科技大學(xué),2015.

[9] 鮑朝前.針對(duì)圓形和三角形交通標(biāo)志的檢測(cè)與識(shí)別[D].北京:北京工業(yè)大學(xué),2015.

[10] 周欣.圓形和三角形交通標(biāo)志分割與識(shí)別算法研究[D].上海:華東理工大學(xué),2013.

[11] 李瑾,劉金朋,王建軍.采用支持向量機(jī)和模擬退火算法的中長(zhǎng)期負(fù)荷預(yù)測(cè)方法[J].中國電機(jī)工程學(xué)報(bào),2011(16):63?66.

[12] 張震,徐子怡,袁淑芳.基于支持向量機(jī)和模擬退火算法對(duì)供暖熱負(fù)荷的預(yù)測(cè)方法[J].自動(dòng)化技術(shù)與應(yīng)用,2016(2):10?14.

卷積神經(jīng)網(wǎng)絡(luò)識(shí)別方法范文第5篇

行人再識(shí)別指的是在非重疊監(jiān)控視頻中,檢索某個(gè)監(jiān)控視頻中出現(xiàn)的目標(biāo)是否出現(xiàn)在其它的監(jiān)控視頻中.最近幾年,行人再識(shí)別問題引起了廣大科研人員的興趣與研究.監(jiān)控視頻中的目標(biāo)圖像分辨率低、場(chǎng)景中存在著光照變化、視角變化、行人姿態(tài)變化以及攝像機(jī)自身屬性的問題,導(dǎo)致同一目標(biāo)在不同的監(jiān)控視頻中外觀區(qū)別很大,使得行人再識(shí)別問題遇到了很大的挑戰(zhàn)。為了有效的解決這些挑戰(zhàn),廣大的研究者提出了很多解決方法.目前的行人再識(shí)別算法可以簡(jiǎn)單概括為四種:直接法、基于深度學(xué)習(xí)的方法、顯著性學(xué)習(xí)的方法和間接法.

直接法利用視覺特征對(duì)行人建立一個(gè)魯棒性和區(qū)分性的表示,不需要通過學(xué)習(xí)直接利用行人特征然后根據(jù)傳統(tǒng)的相似性度量算法(歐式距離、巴氏距離等等)來度量行人之間的相似度.文獻(xiàn)[1]首次提出了利用直方圖特征來表征目標(biāo)并通過度量直方圖的相似度來識(shí)別不同的目標(biāo).文獻(xiàn)[2]將行人圖像粗略分為頭部、上半身和下半身3部分,然后串聯(lián)每一部分的顏色直方圖對(duì)行人描述.文獻(xiàn)[3]采用分割的技術(shù)提取人的前景,并利用行人區(qū)域的對(duì)稱性和非對(duì)稱性將人的前景劃分成不同的區(qū)域.對(duì)于每個(gè)區(qū)域,提取帶權(quán)重的顏色直方圖特征、極大穩(wěn)定顏色區(qū)域(maximallystablecolorregions)特征和重復(fù)度高的結(jié)構(gòu)區(qū)域(recurrenthighlystructuredpatches)特征描述它們.文獻(xiàn)[4]提出了一種結(jié)合gabor特征和協(xié)方差矩陣描述的BiCov描述子來對(duì)行人描述.文獻(xiàn)[5]采用圖案結(jié)構(gòu)(pictorialstruc-ture)算法定位圖像中人的各個(gè)部件所在的區(qū)域.對(duì)于每個(gè)部件的區(qū)域,提取與文獻(xiàn)[3]類似的顏色直方圖特征、極大穩(wěn)定顏色區(qū)域特征來描述它們.文獻(xiàn)[6]利用lbp特征和21個(gè)濾波器特征(8個(gè)gabor濾波器和13個(gè)schmid濾波器)來描述圖像中的行人.文獻(xiàn)[7]通過共生矩陣對(duì)行人的形狀和外形特征進(jìn)行描述.雖然直接法的算法模型簡(jiǎn)單,但由于在光照變化、視角變化以及姿態(tài)變化等情況下,同一個(gè)人的外觀變化往往很大,很難提取出魯棒性和區(qū)分性的特征描述.因此在光照變化、視角變化以及姿態(tài)變化等情況下,直接法的效果很差.

深度學(xué)來在計(jì)算機(jī)視覺中得到了廣泛的應(yīng)用,因此不少學(xué)者研究并提出了基于深度學(xué)習(xí)的行人再識(shí)別算法.文獻(xiàn)[8]LiWei等人提出了一種六層的FPNN神經(jīng)網(wǎng)絡(luò),它能有效解決行人再識(shí)別中出現(xiàn)的光照變化、姿態(tài)變化、遮擋和背景粘連等問題,從而提高了識(shí)別率.文獻(xiàn)[9]Ahmed等人提出了一種深層卷積結(jié)構(gòu)能夠同時(shí)自動(dòng)學(xué)習(xí)特征和相應(yīng)的相似性測(cè)度函數(shù).但基于深度學(xué)習(xí)的行人再識(shí)別算法需要非常大的訓(xùn)練數(shù)據(jù)庫,導(dǎo)致訓(xùn)練時(shí)間長(zhǎng),此外還需要針對(duì)特定問題搭建相應(yīng)的模型,因此不利于方法的推廣.同時(shí),深度學(xué)習(xí)方法中還存在調(diào)置參數(shù)缺乏理論性指導(dǎo),具有較大主觀性的問題.基于顯著性學(xué)習(xí)的行人再識(shí)別方法近年來也受到研究者的廣泛興趣.人們可以通過行人的一些顯著信息來識(shí)別行人,但傳統(tǒng)的方法在比較兩張圖片的相似性的時(shí)候,往往忽略了行人身上的顯著性特征.對(duì)此,文獻(xiàn)[10]趙瑞等人提出了一種通過學(xué)習(xí)行人圖像的顯著性信息來度量?jī)蓮埿腥藞D像的相似性的方法.但顯著性學(xué)習(xí)的行人再識(shí)別算法在行人姿態(tài)變化的情況下,顯著性區(qū)域會(huì)出現(xiàn)偏移或者消失,導(dǎo)致識(shí)別效果較差.間接法主要是學(xué)習(xí)得到一個(gè)分類器或一個(gè)排序模型.間接法代表性的算法有距離測(cè)度學(xué)習(xí)、支持向量機(jī)、遷移學(xué)習(xí)和流形排序算法.距離測(cè)度學(xué)習(xí)算法作為間接法中的一種,最近幾年在行人再識(shí)別中得到了廣泛的應(yīng)用.本文提出的算法也是基于距離測(cè)度學(xué)習(xí),所以下面著重介紹基于距離測(cè)度學(xué)習(xí)的行人再識(shí)別算法.

與手動(dòng)設(shè)計(jì)特征的直接法不同,距離測(cè)度學(xué)習(xí)方法是一種利用機(jī)器學(xué)習(xí)的算法得出兩張行人圖像的相似度度量函數(shù),使相關(guān)的行人圖像對(duì)的相似度盡可能高,不相關(guān)的行人圖像對(duì)的相似度盡可能低的方法.代表性的測(cè)度學(xué)習(xí)算法有文獻(xiàn)[11]鄭偉詩等人把行人再識(shí)別問題當(dāng)成距離學(xué)習(xí)問題,提出了一種基于概率相對(duì)距離的行人匹配模型,文獻(xiàn)[12]提出了一種基于統(tǒng)計(jì)推斷的方法學(xué)習(xí)測(cè)度矩陣來度量?jī)蓮埿腥藞D像的相似度,以及文獻(xiàn)中提出的相應(yīng)測(cè)度學(xué)習(xí)算法.距離測(cè)度算法是將原始特征空間投影到另一個(gè)更具區(qū)分性的特征空間.與其它的算法相比,距離測(cè)度學(xué)習(xí)算法具有更好的效果.距離測(cè)度學(xué)習(xí)算法即使只使用簡(jiǎn)單的顏色直方圖作為特征,算法的性能往往優(yōu)于其它算法.文獻(xiàn)[12]提出了一種基于統(tǒng)計(jì)推斷的方法學(xué)習(xí)測(cè)度矩陣來度量行人對(duì)的相似度,但作者直接在原始特征空間訓(xùn)練得到測(cè)度矩陣,進(jìn)而得到樣本之間的相似性函數(shù).原始特征空間的線性不可分性導(dǎo)致通過原始特征空間直接訓(xùn)練得到的測(cè)度矩陣不能很好的表征樣本之間的相似性和差異性.本文提出基于核學(xué)習(xí)的方法,首先通過相應(yīng)的核函數(shù)將原始特征空間投影到非線性空間,然后在非線性空間中學(xué)習(xí)得到相應(yīng)的測(cè)度矩陣.投影后的非線性特征空間具有很好的可分性,這樣學(xué)習(xí)得到的測(cè)度矩陣能準(zhǔn)確的表征樣本之間的相似性和差異性.另外,基于測(cè)度學(xué)習(xí)的行人再識(shí)別算法一般是把多特征融合并建立特征模型,然后基于相應(yīng)的測(cè)度學(xué)習(xí)算法,學(xué)習(xí)得到一個(gè)測(cè)度矩陣.然而這種特征融合往往忽略了不同屬性特征之間的差別,這樣學(xué)習(xí)得到的測(cè)度矩陣不能準(zhǔn)確的表征樣本之間的相似性與差異性.對(duì)此,本文提出在不同的特征空間中學(xué)習(xí)相應(yīng)的測(cè)度矩陣,進(jìn)而得到表示不同特征空間的相似性函數(shù),最后根據(jù)不同的權(quán)重結(jié)合這些相似性函數(shù)來表征樣本之間的相似性.本文算法在公共實(shí)驗(yàn)數(shù)據(jù)集上的實(shí)驗(yàn)效果優(yōu)于目前主流的行人再識(shí)別算法,尤其是第一匹配率(Rank1).本文其余章節(jié)的組織安排如下.第1節(jié)介紹本文提出的行人再識(shí)別算法.第2節(jié)介紹本文算法在公共數(shù)據(jù)集上的實(shí)驗(yàn).第三節(jié)總結(jié)全文以及展望.

1基于多特征子空間與核學(xué)習(xí)的行人再識(shí)別算法

1.1基于核學(xué)習(xí)的相似度量函數(shù)的學(xué)習(xí)文獻(xiàn)[12]中提出了一種KISSME的算法,文中指出,從統(tǒng)計(jì)學(xué)角度考慮,一對(duì)有序行人對(duì)(i,j)的相似度可以表示為式。文獻(xiàn)[12]中提出的算法是直接在原始線性特征空間中訓(xùn)練得到測(cè)度矩陣,進(jìn)而得到表示樣本之間相似性的相似度函數(shù).由于原始特征空間的線性不可分,上述方法得到的測(cè)度矩陣不能準(zhǔn)確表達(dá)樣本之間的相似性和差異性,導(dǎo)致識(shí)別效果差.本文提出基于核學(xué)習(xí)的算法首先通過相應(yīng)的核函數(shù)將原始特征空間投影到更易區(qū)分的非線性空間,然后在非線性空間中訓(xùn)練得到測(cè)度矩陣M.這樣得到的測(cè)度矩陣具M(jìn)有很好的區(qū)分性,能使同類樣本之間的距離盡可能小,異類樣本之間的距離盡可能大.核學(xué)習(xí)的主要思想是將原始線性特征空間投影到區(qū)分性好的非線性空間.原始特征空間中的特征xxi通過函數(shù)Φ投影到非線性空間,則非線性空間的特征表示為Φ(xxi).非線性映射函數(shù)一般是隱性函數(shù),則很難得到顯示表達(dá)式,可以利用核函數(shù)求解特征空間中樣本點(diǎn)的內(nèi)積來解決。

1.2基于多特征子空間的測(cè)度學(xué)習(xí)基于測(cè)度學(xué)習(xí)的行人再識(shí)別算法一般是把多特征融合并建立特征模型,然后基于相應(yīng)的測(cè)度學(xué)習(xí)算法得到測(cè)度矩陣.這種方法忽略了不同屬性特征之間的差別,導(dǎo)致學(xué)習(xí)得到的測(cè)度矩陣不能準(zhǔn)確的體現(xiàn)樣本之間的相似性與差異性.對(duì)此,本文提出對(duì)于不同的特征空間單獨(dú)學(xué)習(xí)相應(yīng)的測(cè)度矩陣,進(jìn)而得到表示不同特征空間的相似性函數(shù),最后根據(jù)不同的權(quán)重結(jié)合這些相似性函數(shù)來表示樣本之間的相似性.

1.3行人圖像的特征表示本文采用顏色特征和LBP特征對(duì)行人目標(biāo)進(jìn)行描述,生成兩種特征子空間.顏色空間有很多種,用不同的色彩空間描述一圖片的效果是不同的.依據(jù)文獻(xiàn)[20]和文獻(xiàn)[21],本文采用的顏色特征從RGS、HSV、YCbCr和CIELab4種顏色空間中提取.RGS空間的定義為R=R/(R+G+B)、G=G/(R+G+B)、S=(R+G+B)/3.為了獲取具有魯棒性和區(qū)分性的顏色特征表示,本文將上述四種顏色特征空間融合.融合后的顏色特征描述對(duì)于光照變化的場(chǎng)景具有良好的魯棒性.圖1給出了一張被平均分成6個(gè)水平條帶的行人圖像,對(duì)于每個(gè)水平條帶的每種顏色空間的每個(gè)通道,提取16維的顏色直方圖特征,將所有的顏色直方圖特征串聯(lián)形成行人圖像的顏色特征,從而得到行人圖像顏色特征的維數(shù)為1152維(4*6*3*16).原始特征空間的1152維特征經(jīng)過核函數(shù)投影后的特征維度較高且大部分信息都是冗余的.因此實(shí)驗(yàn)中利用PCA將核空間中的特征維數(shù)降到保持大于90%的能量。為了更好的描述圖像的局部信息,本文中提取的局部特征來自于LBP等價(jià)模式中鄰域點(diǎn)數(shù)為8半徑為1和鄰域點(diǎn)數(shù)為16半徑為2兩種模式的特征.上面兩種LBP等價(jià)模式的維度分別為59維和243維.類似于顏色特征的提取,一張行人圖像被平均分成6個(gè)水平條帶,對(duì)于每個(gè)水平條帶提取LBP兩種模式的特征,將所有的LBP特征串聯(lián)形成行人圖像的局部特征,從而得到行人圖像局部特征的維數(shù)為1812維((59+243)*6).同理,原始特征空間的1812維特征經(jīng)過核函數(shù)投影后的特征維度同樣較高并且大部分信息也都是冗余的.因此實(shí)驗(yàn)中同樣利用PCA將核空間的特征維度降到保持90%以上的能量.

1.4本文算法的具體操作步驟利用步驟3得到不同核空間中的測(cè)度矩陣計(jì)算樣本在不同核空間的相似度,然后將樣本在不同核空間中的相似度按照一定的權(quán)值結(jié)合來表示樣本之間的相似性.

2實(shí)驗(yàn)測(cè)試與結(jié)果

本節(jié)首先介紹實(shí)驗(yàn)中所使用的測(cè)試數(shù)據(jù)和算法性能的評(píng)測(cè)準(zhǔn)則,其次介紹本文算法在不同公共實(shí)驗(yàn)集上與已有的行人再識(shí)別算法的性能比較,然后在不同公共實(shí)驗(yàn)集上對(duì)比核映射前后的算法性能,最后在不同公共實(shí)驗(yàn)集上分析權(quán)值不同時(shí)對(duì)算法性能的影響.文中所有的實(shí)驗(yàn)是基于vs2010+opencv2.4.9實(shí)現(xiàn)的,實(shí)驗(yàn)平臺(tái)是24G內(nèi)存的Intel(R)Xeon(R)CPUE5506@2.13GHz(2處理器)PC臺(tái)式機(jī).

2.1測(cè)試數(shù)據(jù)和算法性能的評(píng)測(cè)準(zhǔn)則為了與已有算法公正比較,實(shí)驗(yàn)中,采用先前工作普遍采用的評(píng)價(jià)框架.如文獻(xiàn)[22]所述,隨機(jī)選擇p對(duì)行人圖像對(duì)作為測(cè)試集,余下的行人圖像對(duì)作為訓(xùn)練集.測(cè)試集由查詢集和行人圖像庫兩部分組成.每對(duì)行人圖像,隨機(jī)選擇一張圖像并入查詢集,另一張則并入行人圖像庫.當(dāng)給定一個(gè)行人再識(shí)別算法,衡量該算法在行人圖像庫中搜索待查詢行人的能力來評(píng)測(cè)此算法的性能.為了測(cè)試算法在只有少量的訓(xùn)練樣本時(shí)的性能,p分別取316,432,532進(jìn)行實(shí)驗(yàn).p取值越大,則測(cè)試樣本越多(匹配越困難),訓(xùn)練樣本越少(訓(xùn)練越困難).對(duì)于每組實(shí)驗(yàn),以上產(chǎn)生測(cè)試集和訓(xùn)練集的過程重復(fù)10次,10次實(shí)驗(yàn)結(jié)果的平均值作為本組實(shí)驗(yàn)的結(jié)果.已有的行人再識(shí)別算法大部分采用累積匹配特性(CumulativeMatchCharacteristic,CMC)曲線評(píng)價(jià)算法性能.給定一個(gè)查詢集和行人圖像庫,累積匹配特征曲線描述的是在行人圖像庫中搜索待查詢的行人,前r個(gè)搜索結(jié)果中找到待查詢?nèi)说谋嚷?第1匹配率(r=1)很重要,因?yàn)樗硎镜氖钦嬲淖R(shí)別能力.但是當(dāng)r取值很小時(shí),第r匹配率也很有現(xiàn)實(shí)意義.因?yàn)樵趯?shí)際應(yīng)用中,反饋的前r個(gè)搜索結(jié)果中,可以通過人眼判斷找到查詢目標(biāo).

2.2不同公共實(shí)驗(yàn)集上實(shí)驗(yàn)對(duì)比本文算法選擇在VIPeR[23]數(shù)據(jù)集、iLIDS[24]數(shù)據(jù)集、ETHZ[25]數(shù)據(jù)集和CUHK01[26]數(shù)據(jù)集上進(jìn)行實(shí)驗(yàn).VIPeR數(shù)據(jù)集中相關(guān)行人對(duì)來自兩個(gè)不同的攝像機(jī).相關(guān)行人對(duì)的外觀由于姿態(tài)、視角、光照和背景的變化而差異大.iLIDS數(shù)據(jù)集包含119個(gè)行人的476張圖像,每個(gè)行人的圖像從兩張到八張不等.iLIDS數(shù)據(jù)集是從機(jī)場(chǎng)收集的,數(shù)據(jù)集有嚴(yán)重遮擋和光照變化的問題.ETHZ數(shù)據(jù)集包含146個(gè)行人的8555張圖像.數(shù)據(jù)集中的圖像來自移動(dòng)攝像機(jī)拍攝的三個(gè)視頻序列.ETHZ數(shù)據(jù)集中的圖像由同一攝像機(jī)拍攝,則數(shù)據(jù)集中行人姿態(tài)變化和視角變化的程度沒有VIPeR數(shù)據(jù)集那么明顯.為了使ETHZ數(shù)據(jù)集具有挑戰(zhàn)性,實(shí)驗(yàn)中相關(guān)行人提取兩張圖像,一張近景和一張遠(yuǎn)景.遠(yuǎn)景圖像含有大量無用的背景信息,使選用的數(shù)據(jù)集有明顯的遮擋情況和光照變化.CUHK01數(shù)據(jù)集是由兩個(gè)攝像機(jī)在校園環(huán)境中拍攝得到,包含971個(gè)行人的3884張圖像.每個(gè)行人包含四張圖像,前兩張圖像是攝像機(jī)拍攝的行人前后景圖像,兩張圖像是攝像機(jī)拍攝的行人側(cè)面圖像.每個(gè)行人的前兩張圖像只是姿態(tài)上有稍許的變化,前兩張圖像與后兩張圖像在視角上、姿態(tài)上差異較大以及有明顯的光照變化.實(shí)驗(yàn)中,每個(gè)行人前后景圖像隨機(jī)選擇一張,側(cè)面圖像隨機(jī)選擇一張,這樣得到的實(shí)驗(yàn)集具有顯著的視角變化、姿態(tài)變化和光照變化.

2.2.1VIPeR數(shù)據(jù)集VIPeR數(shù)據(jù)集是由632對(duì)相關(guān)行人對(duì)圖像組成.如圖2所示,同一列中的行人圖像為同一個(gè)人,為了對(duì)比本文算法基于不同核函數(shù)的實(shí)驗(yàn)效果,下表1給出了該算法基于不同核函數(shù)的實(shí)驗(yàn)對(duì)比.實(shí)驗(yàn)中測(cè)試樣本集和訓(xùn)練樣本集均為316對(duì)相關(guān)行人圖像.VIPeR數(shù)據(jù)集上的其它實(shí)驗(yàn),如果沒明確表明測(cè)試樣本集和訓(xùn)練樣本集的個(gè)數(shù),都默認(rèn)有316對(duì)相關(guān)行人圖像.從表1可知,本文算法基于RBF-χ2核函數(shù)的效果最優(yōu).為了充分體現(xiàn)算法的效果,在后面的實(shí)驗(yàn)效果對(duì)比中都是基于RBF-χ2核函數(shù).下表2給出了該算法與當(dāng)前主流算法的效果對(duì)比.從表2可知,該算法性能有較大的提升,尤其是Rank1,Rank1比表中最好的結(jié)果提高了約8(%).此外,該算法與表中的PCCA、rPCCA、kLFDA和MFA等算法都是基于RBF-χ2核函數(shù);但該算法整體效果明顯優(yōu)于它們.值得一提的是,對(duì)于Rank1,該算法的效果相對(duì)主流的行人再識(shí)別算法有了顯著的提高.第1匹配率很重要,因?yàn)樗硎镜氖钦嬲淖R(shí)別能力.行人再識(shí)別技術(shù)一個(gè)典型的應(yīng)用是刑事偵查;若Rank1越高,則在刑事偵查中,搜集與嫌疑人有關(guān)的線索的效率就會(huì)提高.為了充分說明本文算法的優(yōu)越性,表3給出該算法在僅用HSV特征情況下與其它算法效果對(duì)比.由表3可知,該算法雖然只使用了HSV特征,但是效果比采用多特征的算法(SDALF、PS、RDC和KISSME)更好.KISSME融合了HSV、LAB和LBP等特征,Rank1僅有20(%);該算法只用HSV特征,Rank1就達(dá)到了28.4(%).另外,該算法與同樣只使用HSV特征的算法(如ITML、Euclidean、NRDV和KRMCA等)相比,仍然優(yōu)于它們.其中,ITML和Euclidean算法整體效果都比該算法差.NRDV算法雖然Rank1與該算法相近,但是Rank10和Rank20較低,且NRDV算法模型比該算法復(fù)雜得多.KRMCA算法效果總體上都不如該算法且KRMCA的代價(jià)函數(shù)收斂很慢,算法訓(xùn)練時(shí)間很長(zhǎng).當(dāng)測(cè)試集規(guī)模為P=432和P=532時(shí),該算法與已有行人再識(shí)別算法的性能比較如表4和表5.從表中可知,在只有少量的訓(xùn)練樣本情況下,該算法性能同樣優(yōu)于已有算法.由此可見,該算法有效解決了學(xué)習(xí)相似度度量函數(shù)中出現(xiàn)的過擬合問題.

2.2.2iLIDS數(shù)據(jù)集iLIDS數(shù)據(jù)集中每個(gè)行人包含兩張到八張照片不等.實(shí)驗(yàn)中,從每個(gè)行人所包含的圖像中隨機(jī)取兩張作為實(shí)驗(yàn)集,最后得到的實(shí)驗(yàn)集為119對(duì)相關(guān)行人圖像.最終實(shí)驗(yàn)效果是多次隨機(jī)取得的實(shí)驗(yàn)集效果的平均值.數(shù)據(jù)集中的圖像尺寸是不盡相同的,實(shí)驗(yàn)中統(tǒng)一把圖像的尺寸設(shè)置為高128寬48.實(shí)驗(yàn)中訓(xùn)練集為59對(duì)行人圖像,測(cè)試集為60對(duì)行人圖像.本文算法在iLIDS數(shù)據(jù)集上與其它算法的效果對(duì)比如下。該算法與表中基于測(cè)度學(xué)習(xí)的算法PCCA、rPCCA、MFA和kLFDA都是基于RBF-χ2核函數(shù).但從表6可知,該算法整體性能優(yōu)于PCCA、rPCCA和MFA等算法;該算法雖然與kLFDA算法性能接近,但總體上還是優(yōu)于kLFDA算法.由此可見,該算法比使用相同核函數(shù)的其它算法效果更好.另外,該算法整體性能也優(yōu)于KISSME、SVMML和LFDA算法.

2.2.3ETHZ數(shù)據(jù)集數(shù)據(jù)集中的圖像尺寸是不相同的,實(shí)驗(yàn)中統(tǒng)一把圖像尺寸設(shè)置為高128寬48.實(shí)驗(yàn)中訓(xùn)練集為76對(duì)行人圖片,測(cè)試集為70對(duì)行人圖片.表7分析了本文算法在ETHZ數(shù)據(jù)集上與其它算法的效果對(duì)比.從表7可知,該算法在ETHZ數(shù)據(jù)集上的整體性能優(yōu)于同樣基于RBF-χ2核函數(shù)的PCCA、rPCCA、MFA和kLFDA等算法.在ETHZ數(shù)據(jù)集上,同樣證明了該算法比使用相同核函數(shù)的其它算法效果更好.值得一提的是,該算法的rank1較于其它算法顯著提升了.另外,該算法整體性能也優(yōu)于KISSME、SVMML和LFDA算法.

2.2.4CUHK01數(shù)據(jù)集數(shù)據(jù)集中的圖片的尺寸是不相同的,實(shí)驗(yàn)中統(tǒng)一把圖片的尺寸設(shè)置為高128寬48大小.實(shí)驗(yàn)中訓(xùn)練集為486對(duì)行人圖片,測(cè)試集為485對(duì)行人圖片.本文算法在CUHK01數(shù)據(jù)集上與其它算法的效果對(duì)比如下表8:從表8可知,該算法在CUHK01數(shù)據(jù)集上的整體性能同樣優(yōu)于KISSME和SVMML算法以及基于測(cè)度學(xué)習(xí)的算法PCCA、LFDA、rPCCA、MFA和kLFDA.該算法與MidLevel算法效果接近,但MidLevel算法模型復(fù)雜.該算法與其它算法效果對(duì)比可知,該算法可以學(xué)習(xí)得到具有良好區(qū)分性的相似性度量函數(shù).通過在CUHK01數(shù)據(jù)集上的效果對(duì)比,進(jìn)一步說明該算法與使用相同核函數(shù)的其它算法相比效果更好.

2.3特征核映射前后算法性能的比較為了分析特征經(jīng)過核映射后對(duì)算法的影響,表9、表10、表11和表12分別給出在四種數(shù)據(jù)集上特征經(jīng)過核映射前后算法效果的對(duì)比實(shí)驗(yàn).通過在四個(gè)公共數(shù)據(jù)集上實(shí)驗(yàn)對(duì)比可知,特征經(jīng)過核映射后算法效果在VIPeR、iLIDS和CUHK01數(shù)據(jù)集上整體上都得到了顯著的提升,在ETHZ數(shù)據(jù)集上雖然提高不明顯,但還是優(yōu)于已有算法.總的來說,該算法在特征經(jīng)過核映射后,學(xué)習(xí)得到的相似度度量函數(shù)更具有區(qū)分性,能夠得到較好的識(shí)別效果.

2.4權(quán)值a取值不同時(shí)算法的性能比較為了分析權(quán)值a對(duì)算法性能的影響,圖3、圖4、圖5和圖6分別給出在四種數(shù)據(jù)集上不同的權(quán)值a下,本文算法性能的對(duì)比實(shí)驗(yàn).其中SC為顏色特征子空間的相似度函數(shù),ST為L(zhǎng)BP特征子空間的相似度函數(shù).權(quán)值a越大,代表相似度函數(shù)中顏色特征子空間的相似度函數(shù)比重越大.通過在四種數(shù)據(jù)集上不同的權(quán)值a下算法性能的對(duì)比實(shí)驗(yàn)可知,a取值對(duì)算法效果的影響較大.當(dāng)a取值很小時(shí),算法效果不是很理想,當(dāng)a增大時(shí),算法性得到一定程度的提升,當(dāng)a在0.5到0.7范圍內(nèi)取相應(yīng)的值時(shí),算法性能能達(dá)到最優(yōu),當(dāng)a繼續(xù)增大后,算法性能有一定程度的下降.

3結(jié)論

广安市| 水城县| 雷州市| 玉山县| 桃源县| 博乐市| 东安县| 钦州市| 苗栗县| 北宁市| 始兴县| 平昌县| 通山县| 垫江县| 岳阳市| 绥阳县| 新建县| 瓮安县| 台中县| 固阳县| 木兰县| 静安区| 莲花县| 延庆县| 乐平市| 临西县| 府谷县| 剑川县| 铜梁县| 德庆县| 城市| 淮南市| 米易县| 拉萨市| 东港市| 彭阳县| 越西县| 贵港市| 固原市| 万荣县| 吐鲁番市|