有關(guān)計(jì)算機(jī)視覺的課程論文(2)
有關(guān)計(jì)算機(jī)視覺的課程論文
有關(guān)計(jì)算機(jī)視覺的課程論文篇二
《計(jì)算機(jī)視覺——行人檢測(cè)方法改進(jìn)》
摘要:該文在闡述行人檢測(cè)方法改進(jìn)的主要思路、范圍和方法的基礎(chǔ)上,進(jìn)一步對(duì)行人檢測(cè)所使用的統(tǒng)計(jì)方法和特征進(jìn)行了分析比較,提出了基于融合分類器的行人檢測(cè)算法,并在檢測(cè)前先進(jìn)行前景標(biāo)注,然后再在帶標(biāo)注的圖像上進(jìn)行行人檢測(cè)。
關(guān)鍵詞:計(jì)算機(jī)視覺;行人檢測(cè)方法;改進(jìn);級(jí)聯(lián)分類器
計(jì)算機(jī)視覺對(duì)于人類的影響是重大的,它伴隨著計(jì)算機(jī)的蓬勃發(fā)展成為了一個(gè)不可或缺的分支。毫無疑問視覺信息在我們的日常生活中具有重要的地位。如果計(jì)算機(jī)能夠像人類那樣理解攝像機(jī)捕捉到的視覺信息,則會(huì)給我們的生活帶來巨大的影響和幫助。然而目前對(duì)于計(jì)算機(jī)視覺的研究還不是很成熟的,比如小孩到了4、5歲的時(shí)候就能在輕易地分辨出圖像卡片中的樹、人、車等不同類別的物體,還能區(qū)別不同的樹,如楊樹、柳樹、果樹等,在這方面,計(jì)算機(jī)明顯還存在著巨大的不足之處。
該文針對(duì)計(jì)算機(jī)視覺中的行人檢測(cè)部分做了深入的研究,力求能讓計(jì)算機(jī)能夠高速高質(zhì)量的辨別一段視頻中的人。下面詳細(xì)的對(duì)所做的實(shí)驗(yàn)的方法以及結(jié)果做以介紹。
1行人檢測(cè)方法改進(jìn)的主要思路
實(shí)驗(yàn)的主要思路為在行人檢測(cè)研究時(shí),根據(jù)現(xiàn)有的級(jí)聯(lián)分類器的不足之處,提出了融合兩個(gè)級(jí)聯(lián)分類器來進(jìn)行行人檢測(cè)的方法。具體采用了表觀特征向量來描述人體,并結(jié)合統(tǒng)計(jì)學(xué)習(xí)的分類方法來檢測(cè)視頻中的行人。為了保證融合分類器的檢測(cè)性能和實(shí)時(shí)性,融合的兩個(gè)分器分別選取了類Haar特征分類器和Shapelet特征分器,前者作為第一級(jí)分類器,后者作為第二級(jí)分類器。提出了使用Haar-like結(jié)合人體頭肩的特征和Shapelet結(jié)合人體頭肩的特征來描述人體;在分類器訓(xùn)練時(shí),采用的是Gentle-Adaboost機(jī)器學(xué)習(xí)算法;并且為提高分類器檢測(cè)速度,首先對(duì)視頻序列進(jìn)行了前景標(biāo)注,采用背景差分將前景點(diǎn)標(biāo)注出來,這樣在檢測(cè)時(shí)只需檢測(cè)前景點(diǎn)即可,減少了大量背景上的檢測(cè)時(shí)間。
2研究的范圍與方法
2.1本實(shí)驗(yàn)主要研究的是靜態(tài)背景下的行人檢測(cè)
根據(jù)拍攝的攝像頭的情況,可以將運(yùn)動(dòng)目標(biāo)檢測(cè)的研究主要分為兩大類:動(dòng)態(tài)背景情況下的目標(biāo)檢測(cè)與靜態(tài)背景下的目標(biāo)檢測(cè)。前者主要是在拍攝的過程中,攝像頭是跟著目標(biāo)前進(jìn),后退等方式移動(dòng)的,背景環(huán)境因此也是不斷變化的;后者情況下,攝像頭是固定的,相對(duì)于目標(biāo)場(chǎng)景來說是靜止的,因此背景環(huán)境是相對(duì)不變的。而視頻監(jiān)控系統(tǒng)中使用的大多數(shù)方式便是固定攝像頭,所以本實(shí)驗(yàn)主要研究的是靜態(tài)背景下的目標(biāo)檢測(cè)。
另外此實(shí)驗(yàn)是基于統(tǒng)計(jì)方法的行人目標(biāo)檢測(cè)。采用統(tǒng)計(jì)分類學(xué)習(xí)來研究目標(biāo)檢測(cè)問題。該方法通過統(tǒng)計(jì)學(xué)習(xí)獲得的分類器某個(gè)類別目標(biāo)的檢測(cè)器(例如人臉、汽車和行人等),然后根據(jù)得到的檢測(cè)器來進(jìn)行目標(biāo)檢測(cè)?;诮y(tǒng)計(jì)方法的目標(biāo)檢測(cè)方法一般被分為兩個(gè)階段:離線檢測(cè)模型的訓(xùn)練和在線目標(biāo)檢測(cè)階段,在離線訓(xùn)練階段,首先要收集大量的樣本,包括與正樣本和負(fù)樣本,正樣本指包含著目標(biāo)類別的圖像,負(fù)樣本指不包含目標(biāo)類別的圖像;接著對(duì)收集好的正負(fù)樣本做標(biāo)記(用y表示),與正樣本標(biāo)為+1,負(fù)樣本標(biāo)為-1;然后對(duì)樣本進(jìn)行配準(zhǔn)、對(duì)齊和大小歸一化;再接著在歸一化后的正負(fù)樣本上提取出特征向量x (x∈Rd),和對(duì)應(yīng)的標(biāo)簽 y一起組成最終用以統(tǒng)計(jì)訓(xùn)練學(xué)習(xí)的特征向量集合S={(x1,y1),…(xN,yN)};最后使用選定的統(tǒng)計(jì)學(xué)習(xí)方法根據(jù)訓(xùn)練數(shù)據(jù)集S訓(xùn)練分類器的參數(shù)以供檢測(cè)階段使用。
在線檢測(cè)階段首先需要在待檢測(cè)圖像上提取得到與訓(xùn)練階段使用的相同的特征向量,然后與離線階段的分類器對(duì)該特征向量進(jìn)行分類差別。由于不知道目標(biāo)在圖像中的大小和位置,因此在檢測(cè)時(shí)需要在不同的尺度和位置對(duì)目標(biāo)進(jìn)行檢測(cè),即需要在不同的尺度位置空間中逐窗口進(jìn)行遍歷判斷。。尺度空間通過對(duì)圖像逐級(jí)縮放做金字塔分解(Pyramid decomposition)實(shí)現(xiàn);位置空間通過遍歷每個(gè)尺度下圖像中的每個(gè)空間位置實(shí)現(xiàn)。因此檢測(cè)目標(biāo)時(shí)某個(gè)尺度下對(duì)于目標(biāo)大小為w×h,圖像尺寸為W×H時(shí),需要分類判斷的窗口數(shù)目約是WH個(gè),數(shù)量巨大。在不同的尺度與位置空間進(jìn)行窗口遍歷時(shí),如果該窗口被判別為目標(biāo)類別,則記錄其位置和當(dāng)前的尺度,否則丟棄,最后將不同尺度和位置上得到的檢測(cè)結(jié)果進(jìn)行聚類或者最大化抑制輸出最終的檢測(cè)結(jié)果。
2.2本實(shí)驗(yàn)采用的是基于部件的行人檢測(cè)方法
行人統(tǒng)計(jì)學(xué)習(xí)算法根據(jù)檢測(cè)方式的不同基本可以分為兩類:基于人體整體的統(tǒng)計(jì)學(xué)習(xí)方法和基于人體部件的統(tǒng)計(jì)學(xué)習(xí)方法。前者將整個(gè)人體作為特征進(jìn)行分類器訓(xùn)練,對(duì)于待檢測(cè)圖像,其進(jìn)行整個(gè)人體的特征提取,然后再用分類器進(jìn)行分類即可,而后者則將人體的各個(gè)部件均看作是人體的一個(gè)特征,然后分別進(jìn)行分類器訓(xùn)練,得到各自的分類器,在檢測(cè)時(shí),先檢測(cè)各個(gè)部件,然后根據(jù)分析各個(gè)部件的相互約束關(guān)系來最終做出判決。
本采用的便是第二種方式,基于部件的行人檢測(cè)方法,但區(qū)別于以上的方法,該文采用的是用兩種不同的特征分別訓(xùn)練相同的一個(gè)部件的方法,最后綜合兩個(gè)分類器的結(jié)果做出決策
人體檢測(cè)中的特征是對(duì)目標(biāo)的描述,是用來有效的區(qū)分目標(biāo)與非目標(biāo)的,是目標(biāo)檢測(cè)的基礎(chǔ),在檢測(cè)目標(biāo)的過程中,如果能夠提取出有效區(qū)分目標(biāo)類與非目標(biāo)類的特征,那么檢測(cè)的性能就會(huì)有巨大的提升,相反,如果一個(gè)特征不能區(qū)分目標(biāo)類與非目標(biāo)類,那么有檢測(cè)時(shí),便不能與待檢測(cè)的目標(biāo)很好的匹配,或是與其他物體相似,便可能造成誤檢。所以,提取什么樣的特征來描述目標(biāo)是目標(biāo)檢測(cè)中和首要問題。接下來介紹的是該文主要使用的是類Haar特征和Shapelet特征。
Shapelet特征是通過先局部,后整體的思想,先在局部提取小特征集作為最基本的低層特征,然后通過統(tǒng)計(jì)學(xué)習(xí)算法得出中層特征,最后再由中層特征構(gòu)成分類器,層層進(jìn)行篩選,把分類能力較弱的特征一層層篩掉,最后得到包含更多有用信息的特征用來分類,特征的維數(shù)相對(duì)來說是非常低的,計(jì)算也簡(jiǎn)單;而且特征是由低層特征訓(xùn)練而來,類間的區(qū)別能力更強(qiáng),在基于行人的檢測(cè)方面,性能尤其卓越,比Dalel的HOG特征算法的誤檢測(cè)率降低了整整10倍。實(shí)驗(yàn)已經(jīng)證明,通過自適應(yīng)學(xué)習(xí)而來的Shapelet特征相比其他的固定特征來說,能捕捉到更多有用的用于判別的信息,因而訓(xùn)練出的檢測(cè)器性能可以達(dá)到非常優(yōu)秀的水平。類Haar特征可以快速的進(jìn)行行人檢測(cè),但是在檢測(cè)的過程中,由于該特征主要描述的是行人與背景之間的差異性,對(duì)于人體內(nèi)部的差異性描述的精度不夠,所以該文采用融合分類器進(jìn)行行人檢測(cè)時(shí),先使用類Haar特征訓(xùn)練人體頭肩生成的分類器進(jìn)行檢測(cè),可以快速的對(duì)非人體目標(biāo)進(jìn)行排除。
對(duì)于級(jí)聯(lián)分類器來說,級(jí)聯(lián)分類器在檢測(cè)率,漏檢率,虛警率,和時(shí)間等性能上的變化,通過一系列實(shí)驗(yàn)我們可得知隨著分類器級(jí)數(shù)的增加,在分類器的后面幾級(jí)中被過濾掉的樣本中正樣本所占的比率呈直線上升的方式增加。
3行人檢測(cè)方法改進(jìn)具體步驟
該文的設(shè)計(jì)方法均是在OpenCV的基礎(chǔ)上,采用Visual Studio 2010實(shí)現(xiàn)的。本實(shí)驗(yàn)的參數(shù)設(shè)置如下:正樣本和負(fù)樣本在級(jí)聯(lián)Adaboost分類器中的單級(jí)通過率分別為99%和50%。分類器在尺度空間上對(duì)檢測(cè)窗口搜索的步長設(shè)定為1.05(經(jīng)驗(yàn)值)。在實(shí)驗(yàn)過程中,Haar特征級(jí)聯(lián)分類器和Shapelet特征級(jí)聯(lián)分類器分別采用了900張正樣本和2000張負(fù)樣本,并對(duì)人體的頭肩部分做了人工標(biāo)注,作為訓(xùn)練數(shù)據(jù)集,訓(xùn)練數(shù)據(jù)集的歸一化大小為20*20。為了增加訓(xùn)練數(shù)據(jù)集,該文對(duì)標(biāo)準(zhǔn)數(shù)據(jù)庫中的正樣本進(jìn)了豎直方向的鏡像對(duì)稱,使正樣本的數(shù)量增倍。Haar特征級(jí)聯(lián)分類器由20級(jí)Adaboost分類器構(gòu)成,Shapelet特征分類器由10級(jí)Adaboost分類器構(gòu)成。
3.1本實(shí)驗(yàn)采用一種新的級(jí)聯(lián)分類器的融合方式
筆者提出一種新的級(jí)聯(lián)分類器的融合方式,以期隨著分類器級(jí)數(shù)的增加,檢測(cè)率不斷提升的前提下,能有效的遏制正樣本被過濾掉的概率的增加,以此來增強(qiáng)分類器的性能,使分類器的檢測(cè)率更加提升。
根據(jù)之前的分析類Haar特征運(yùn)算簡(jiǎn)單,快速,采用它訓(xùn)練的分類器可以在分類器的前幾級(jí)快速的排除掉大量的背景區(qū)域,但是類Haar特征描述的主要是人體與背景之間的差異性,因此在分類器隨著性能的增加,分類器復(fù)雜度提高的情況下,在分類器的后幾級(jí),類Haar特征對(duì)區(qū)別與行人輪廓類似的物體時(shí),非常不敏感,很容易將這二者混淆,將行人誤判為非行人,或?qū)⒎切腥苏`判為行人,導(dǎo)致分類器的虛警率和漏檢率的增加;而Shapelet特征在基于行人的檢測(cè)方面,性能則尤其卓越,通過自適應(yīng)學(xué)習(xí)而來的Shapelet特征相比其他的固定特征來說,能捕捉到更多有用的用于判別的信息,特別是人體的頭肩部分,Shapelet的描述更加的精確,對(duì)于區(qū)分與行人非常類似的物體,具有很高的性能。
為此,我們采用基于人體頭肩部件的類Haar特征和Shaplet特征來訓(xùn)練分類器,根據(jù)二者各自的性能,該文先用類Haar特征級(jí)聯(lián)分類器對(duì)檢測(cè)窗口進(jìn)行分類,在分類器的前面就快速的排除掉大量的背景區(qū)域,然后,在分類器的后面幾級(jí),對(duì)于分類器的排除掉的樣本,再用Shapelet分類器來進(jìn)行分類,將在Haar特征分類器中被漏掉的目標(biāo)區(qū)域檢測(cè)出來。最后根據(jù)兩個(gè)分類器的結(jié)果進(jìn)行決策。這樣就對(duì)那些在Haar特征分類器中被錯(cuò)誤過濾掉的目標(biāo)樣本進(jìn)行了二次分類,降低了分類器漏檢率的增加。
3.2本實(shí)驗(yàn)采用前景標(biāo)注的方法為了提高分類器的檢測(cè)速度
我們會(huì)在待檢測(cè)的視頻圖像上對(duì)前景進(jìn)行標(biāo)注,在檢測(cè)的過程中根據(jù)標(biāo)注只需要在前景部分進(jìn)行行人檢測(cè)即可,不必在全局圖像中進(jìn)行搜索匹配,這樣既可以減少檢測(cè)的數(shù)量,又可以節(jié)約檢測(cè)計(jì)算時(shí)占用的空間,對(duì)于視頻分析中時(shí)間和空間進(jìn)行了雙重的優(yōu)化。該文的前景標(biāo)注的過程主要是:采用背景差分法得到圖像的前景,然后對(duì)于得到的前景建立一張標(biāo)注表,與原圖像進(jìn)行對(duì)應(yīng),在檢測(cè)時(shí),標(biāo)注為前景的像素點(diǎn)則在原圖像上進(jìn)行目標(biāo)檢測(cè),若標(biāo)注為背景,則不進(jìn)行檢測(cè)。
4結(jié)論
該文通過對(duì)行人檢測(cè)所使用的統(tǒng)計(jì)方法和特征進(jìn)行了分析比較,并分析了級(jí)聯(lián)分類器的特點(diǎn),得出級(jí)聯(lián)分類器級(jí)數(shù)越高,在最后幾級(jí)中被排除掉的樣本中正樣本的比率上升很快,會(huì)引起分類器漏檢率的急劇增高,因此,該文提出了基于融合分類器的行人檢測(cè)算法,該融合方法選擇兩個(gè)級(jí)聯(lián)分類器(分別為類Haar特征分類器和Shapelet特征分類器)進(jìn)行級(jí)聯(lián)融合;根據(jù)監(jiān)控視頻領(lǐng)域中一般情況下都是靜態(tài)背景,而且為了提高檢測(cè)的速度與避免背景的干擾,該文提出了在檢測(cè)前先進(jìn)行前景標(biāo)注的方法,然后再在帶標(biāo)注的圖像上進(jìn)行行人檢測(cè)。
參考文獻(xiàn):
[1]賈慧星,章毓晉.車輛輔助駕駛系統(tǒng)中基于計(jì)算機(jī)視覺的行人檢測(cè)研究綜述[J].自動(dòng)化學(xué)報(bào), 33(1):84-90, 2007.
[2] Xu Fengliang,Fujimura K. Pedestrian detection and tracking with night vision. Proceeding of IEEE Intelligent Vehicles Symposium[M]. Versailles, France: IEEE Press, 2002: 21-30.
[3] Munder S, Gavrila D M. An experimental study on pedestrian classification[J].IEEE Trans. Pattern Analysis and Machine Intelligence, 2006,28 (11):1863-1868.
有關(guān)計(jì)算機(jī)視覺的課程論文相關(guān)文章:
3.計(jì)算機(jī)視覺技術(shù)的應(yīng)用論文