• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看

      ?

      駕駛員疲勞狀態(tài)檢測(cè)方法研究

      2018-06-13 10:35:58張?chǎng)╊Z
      關(guān)鍵詞:膚色人臉分類(lèi)器

      張?chǎng)╊Z, 康 冰

      (1. 吉林省科學(xué)技術(shù)協(xié)會(huì)學(xué)會(huì)服務(wù)中心, 長(zhǎng)春 130022; 2. 吉林大學(xué) 通信工程學(xué)院, 長(zhǎng)春 130022)

      0 引 言

      目前我國(guó)已經(jīng)成為世界汽車(chē)制造大國(guó), 車(chē)輛的不斷增加以及基礎(chǔ)設(shè)施日趨完善, 給人們的出行帶來(lái)了極大的方便, 但也出現(xiàn)了一系列的負(fù)面問(wèn)題, 比如交通事故和大氣污染等。以2002年統(tǒng)計(jì)數(shù)據(jù)為例, 在各類(lèi)事故中, 交通事故死亡人數(shù)所占比例為78.5%, 已成為各種事故中的第一殺手。其中駕駛員疲勞造成的交通事故占20%, 占特大交通事故的40%以上[1-3]。

      引發(fā)交通事故的一個(gè)主要原因是疲勞駕駛。駕駛員如果在疲勞狀態(tài)下行車(chē), 不僅對(duì)自己的生命安全造成威脅, 而且對(duì)其他駕駛員及車(chē)輛也可能造成不堪設(shè)想的后果。因?yàn)榻煌ㄊ鹿什⒉皇窃隈{駛員剛一產(chǎn)生疲勞就出現(xiàn), 所以完全可考慮在駕駛員剛剛出現(xiàn)疲勞狀態(tài)時(shí)就通過(guò)一種預(yù)警裝置提醒駕駛員, 這樣可使駕駛員有意識(shí)采取相應(yīng)的措施, 防患于未然。數(shù)據(jù)表明, 在交通事故發(fā)生前, 如果司機(jī)的反應(yīng)比疲勞時(shí)快0.5 s, 則60%的事故在很大程度上可以避免[4]。

      筆者采用Adaboost算法檢測(cè)人臉并定位人眼后, 通過(guò)疲勞特征提取和疲勞狀態(tài)判斷等環(huán)節(jié), 提高判斷算法的準(zhǔn)確性和運(yùn)算效率, 最終設(shè)計(jì)并實(shí)現(xiàn)基于視頻圖像的駕駛員疲勞狀態(tài)檢測(cè)系統(tǒng)。

      1 圖像預(yù)處理與人臉檢測(cè)

      在人臉檢測(cè)和疲勞判斷之前, 對(duì)攝像頭捕捉到的圖像進(jìn)行預(yù)處理[5,6]。首先將攝像頭采集到的RGB(Red Green Blue)圖像轉(zhuǎn)換成色彩空間YCrCb, 然后取出重點(diǎn)處理的單通道圖像, 對(duì)其進(jìn)行高斯濾波和圖像增強(qiáng), 并對(duì)標(biāo)定區(qū)域進(jìn)行二值化處理, 在此二值化圖像的基礎(chǔ)上進(jìn)行中值濾波以及開(kāi)運(yùn)算、 閉運(yùn)算的數(shù)字形態(tài)學(xué)濾波。通過(guò)上述處理后, 分割出眼睛區(qū)域并提取疲勞參數(shù)進(jìn)行疲勞判斷。

      在駕駛室環(huán)境下判斷駕駛員是否疲勞駕駛, 首先需從復(fù)雜環(huán)境下快速準(zhǔn)確識(shí)別人臉[7-10]。筆者在Haar特征值的計(jì)算中引入積分圖概念[11], 記ii(x,y)為點(diǎn)(x,y)在對(duì)應(yīng)的積分圖中的值,ii(x,y)表示原圖像上點(diǎn)(x,y)的左上部分的像素和, 即

      (1)

      其中i(x′,y′)表示原圖像中的像素點(diǎn)(x′,y′)。若定義s(x,y)為點(diǎn)(x,0)和(x,y)點(diǎn)組成的線(xiàn)段上的點(diǎn)的像素值之和, 即

      (2)

      則可用

      s(x,y)=s(x,y-1)+i(x,y),ii(x,y)=ii(x-1,y)+s(x,y)

      (3)

      遞推公式計(jì)算ii(x,y), 則只需遍歷原圖像一次, 通過(guò)遞推關(guān)系就可將其積分圖分解, 從而避免不必要的重復(fù)計(jì)算。

      如需計(jì)算任意區(qū)域的像素和, 同樣有快速計(jì)算方法。如圖1所示, 若需要計(jì)算D區(qū)域的像素和, 則可按照

      P(D)=P(A+B+C+D)-P(A+B)-P(A+C)+P(A)

      (4)

      計(jì)算。

      按照積分圖的定義,ii(x,y)即為點(diǎn)(x,y)左上部分的面積, 則有

      圖1 任意區(qū)域像素和計(jì)算Fig.1 Pixel and calculation in any region

      P(D)=ii(4)-ii(3)-ii(2)+ii(1)

      (5)

      故可在常數(shù)時(shí)間計(jì)算出D區(qū)域的像素和, 從而計(jì)算出某圖像區(qū)域的Haar特征值。一般而言, 為每個(gè)Haar構(gòu)造的弱分類(lèi)器通過(guò)確定一個(gè)合理的優(yōu)化閾值實(shí)現(xiàn), 該閾值使得用該特征進(jìn)行分類(lèi)時(shí)錯(cuò)誤率足夠小[11]。假設(shè)存在一個(gè)包含n個(gè)樣本的訓(xùn)練集S={(x1,y1),…,(xn,xn)}, 其中xi∈X(i=1,2,…,n)表示訓(xùn)練樣本,yi∈Y是xi對(duì)應(yīng)的判別標(biāo)志, 且有Y={-1,1}。對(duì)于第i個(gè)訓(xùn)練樣本的第j個(gè)弱分類(lèi)器

      (6)

      其中Fj(xi)表示子窗口中第j個(gè)Haar特征的值,θj表示設(shè)定的閾值,pj用于控制不等號(hào)的方向。為使以上弱分類(lèi)器能用于對(duì)人臉進(jìn)行區(qū)分和鑒別, 還需對(duì)其進(jìn)行適當(dāng)?shù)慕M合或優(yōu)化。而AdaBoost算法正是通過(guò)尋找對(duì)人臉區(qū)域及非人臉區(qū)域區(qū)分能力最好的那些Haar特征, 從而得到由這些特征對(duì)應(yīng)的弱分類(lèi)器組合生成的對(duì)人臉區(qū)分能力最優(yōu)的強(qiáng)分類(lèi)器。其過(guò)程為如下。初始化樣本權(quán)值

      (7)

      其中w1(i)表示第1輪訓(xùn)練中第i個(gè)樣本的初始權(quán)值,p表示S中正樣本的總數(shù),q表示S中負(fù)樣本的總數(shù), 有p+q=n。

      對(duì)于t=1,2,…,T,T為迭代次數(shù), 進(jìn)行如下循環(huán)。

      1) 權(quán)值歸一化

      其中wt(i)表示第t輪訓(xùn)練中第i個(gè)樣本的權(quán)值,i=1,2,…,n。

      2) 對(duì)特征j訓(xùn)練出其弱分類(lèi)器hj, 計(jì)算其加權(quán)誤差

      選擇加權(quán)誤差最低的分類(lèi)器htmin作為此次循環(huán)的分類(lèi)器。

      3) 按照

      更新樣本權(quán)值。當(dāng)分類(lèi)正確時(shí),ht(xi)=yi,ei=0; 分類(lèi)錯(cuò)誤時(shí),ht(xi)≠yi,ei≠0。由T個(gè)弱分類(lèi)器得最終的強(qiáng)分類(lèi)器

      (8)

      由上述過(guò)程可見(jiàn), 每次迭代在當(dāng)前的概率分布上找到了一個(gè)具有最小誤差的弱分類(lèi)器, 然后調(diào)整概率分布, 減小當(dāng)前分類(lèi)器分類(lèi)正確的樣本權(quán)重, 而增大其分類(lèi)器錯(cuò)誤的樣本權(quán)重, 從而使那些被錯(cuò)誤分類(lèi)的樣本得到重點(diǎn)學(xué)習(xí), 因而得到的強(qiáng)分類(lèi)器具有統(tǒng)計(jì)上的客觀性。

      通過(guò)以上的方法得到的單個(gè)強(qiáng)分類(lèi)器只能針對(duì)某些Haar特征進(jìn)行判別, 并不能直接用于判斷某一窗口是否是人臉, 因此需要多個(gè)強(qiáng)分類(lèi)器, 綜合多個(gè)強(qiáng)分類(lèi)器的判別結(jié)果進(jìn)行決策。為此, 提出了一種級(jí)聯(lián)方式的Adaboost人臉檢測(cè)方法[12,13], 即整個(gè)檢測(cè)系統(tǒng)由多層分類(lèi)器組成, 每層都是一個(gè)由Adaboost算法得到的強(qiáng)分類(lèi)器, 通過(guò)多層過(guò)濾, 最終得到人臉窗口。圖2給出了強(qiáng)分類(lèi)器級(jí)聯(lián)圖。

      圖2 強(qiáng)分類(lèi)器級(jí)聯(lián)圖Fig.2 Classification of strong classifiers

      在圖2所示的結(jié)構(gòu)中, 前面若干級(jí)分類(lèi)器只需少量特征就可排除大量的非人臉, 后面的若干級(jí)則需要大量的特征排除那些非人臉, 因?yàn)樵降胶竺嬲f(shuō)明待檢測(cè)窗口就越像人臉。這樣可極大地減少計(jì)算量, 提高人臉檢測(cè)的速度。這樣的級(jí)聯(lián)結(jié)構(gòu)使每個(gè)節(jié)點(diǎn)都具有較高的通過(guò)率, 但總的檢測(cè)結(jié)果基本不受影響。例如, 在檢測(cè)人臉時(shí), 幾乎99.99%的人臉窗口都被檢出, 且允許通過(guò), 但有50%的非人臉也得以通過(guò)??倷z測(cè)率并沒(méi)有因此而急劇降低, 因?yàn)?0個(gè)節(jié)點(diǎn)使得總的檢測(cè)率達(dá)到0.999 920≈98%, 而錯(cuò)誤接受率僅為0.520≈0.000 1%。

      由于原圖像的尺寸較大, 如果直接對(duì)原圖像進(jìn)行人臉檢測(cè), 每檢測(cè)一幀所耗費(fèi)的時(shí)間過(guò)長(zhǎng)。因此, 先對(duì)原圖像進(jìn)行縮放, 在縮放的圖像上進(jìn)行人臉檢測(cè), 然后在原圖像上標(biāo)定出檢測(cè)結(jié)果。但存在的缺點(diǎn)是如果人臉離攝像頭較遠(yuǎn), 存在誤檢和漏檢等情況。在距攝像頭距離不變的情況下, 其檢測(cè)效果如表1所示。

      表1 檢測(cè)效果對(duì)比表

      由表1可知, 縮放后的圖像雖然在檢測(cè)率上有一定的減小, 但是檢測(cè)時(shí)間卻大大降低, 因此檢測(cè)的實(shí)時(shí)性顯著提升。如圖3所示, 無(wú)論白天黑夜, AdaBoost人臉檢測(cè)算法受光照的影響較小。這主要是由于AdaBoost訓(xùn)練庫(kù)中包含了光線(xiàn)較暗時(shí)的人臉圖像, 因此無(wú)論是白天還是晚上, 都具有較高的檢測(cè)率。

      a 白天 b 夜晚圖3 Adaboost人臉檢測(cè)Fig.3 Face detection of Adaboost

      2 駕駛員眼睛檢測(cè)

      在檢測(cè)到人臉的基礎(chǔ)上, 筆者將Adaboost的人眼檢測(cè)算法、 邊緣檢測(cè)算法和膚色分割算法相結(jié)合進(jìn)行人眼的精確定位。基于膚色分割的面部特征提取, 將圖像從RGB空間轉(zhuǎn)換到Y(jié)CrCb色度空間[14]并使其色彩和亮度分離, 在不考慮亮度分量時(shí), 膚色像素在此色度空間被呈現(xiàn)為較好的聚類(lèi)[15]。其變換公式為

      (9)

      其中Y表示顏色亮度,Cr表示紅色分量,Cb表示藍(lán)色分量,Cr和Cb一起表示顏色的色度信息, 并且Cr和Cb之間是二維獨(dú)立的, 這樣就有效地將亮度和色度分隔開(kāi), 并且人體膚色在Cb、Cr空間中都具有較好的聚類(lèi), 也非常適合于將膚色區(qū)域從圖像背景中分割開(kāi)。在YCrCb彩色空間里, 膚色在Cr,Cb通道內(nèi)都在一個(gè)相對(duì)穩(wěn)定的范圍內(nèi)。通過(guò)

      C=E[(x-M)(x-M)T],x=[Cr,Cb]T,M=E(x)

      (10)

      確定膚色點(diǎn)在二維空間中的二維高斯模型[16]。其中x為每個(gè)像素的色度分量,M和C分別為均值和方差。先將圖像從RGB彩色空間轉(zhuǎn)換到Y(jié)CrCb彩色空間, 然后運(yùn)用

      (11)

      計(jì)算該像素點(diǎn)屬于膚色區(qū)域的概率, 即得到該像素點(diǎn)與膚色在二維高斯空間中分布中心的相似度。其中P(Cr,Cb)代表了圖像中各像素點(diǎn)與膚色的相似程度, 其值越大, 在圖像中就越接近白色, 表示其屬于膚色的概率就越大。圖4是對(duì)Cr、Cb通道進(jìn)行膚色相似度計(jì)算后的圖像。

      圖5為二值化圖像。由圖5可見(jiàn), 對(duì)所檢測(cè)到的人臉區(qū)域進(jìn)行膚色相似度計(jì)算后, 人臉的大部分膚色區(qū)域亮度很高, 接近白色, 但由于光照不均衡, 造成部分膚色區(qū)域灰度值較小, 但與眼睛區(qū)域的灰度相比, 仍然比較大, 如果選擇合適的閾值, 可以把膚色區(qū)域與眼部特征分開(kāi)。

      為縮小定位范圍, 根據(jù)人臉幾何特征“3庭5眼”的關(guān)系, 眼睛和眉毛分布在人臉區(qū)域一個(gè)集中的矩形范圍內(nèi)。觀察圖6所示“3庭5眼”特征示意圖, 可近似認(rèn)為眼睛眉毛集中在人臉高度1/4~1/2范圍內(nèi), 在實(shí)時(shí)視頻中標(biāo)定此區(qū)域, 對(duì)所得到的二值化圖像(見(jiàn)圖5)進(jìn)行邊緣檢測(cè)并用矩形框標(biāo)定檢測(cè)到的特征。根據(jù)眼睛是長(zhǎng)方形的特點(diǎn), 可排除一部分誤檢。在環(huán)境光線(xiàn)亮度比較均勻的情況下, 這種檢測(cè)方法能準(zhǔn)確定位出眼睛位置, 但如果環(huán)境太暗, 則會(huì)出現(xiàn)漏檢和誤檢的問(wèn)題。

      圖4 膚色形似度計(jì)算結(jié)果圖像 圖5 二值化圖像 Fig.4 Image of skin color image Fig.5 Binary image

      運(yùn)用Adaboost算法定位眼睛的檢測(cè)方法與基于訓(xùn)練的Adaboost人臉檢測(cè)方法相似, 只是在訓(xùn)練樣本時(shí)采用的人眼庫(kù), 但有時(shí)還是會(huì)有誤判。將上述兩種檢測(cè)結(jié)果相結(jié)合, 能精確定位出眼睛位置。圖7為眼睛檢測(cè)的框定圖, 實(shí)驗(yàn)驗(yàn)證, 在光線(xiàn)均衡的視頻中, 該方法可較準(zhǔn)確地檢測(cè)出眼睛區(qū)域。算法在不同環(huán)境下的準(zhǔn)確率如表2所示。

      圖6 3庭5眼特征 圖7 人眼檢測(cè)結(jié)果 Fig.6 5 Eye characteristics of atrium Fig.7 Human eye test results

      測(cè)試集環(huán)境變化測(cè)試總數(shù)準(zhǔn)確檢測(cè)檢測(cè)率/%1光照均衡1 00098898.82光照不均1 00085185.13配戴眼鏡1 00020220.24臉部?jī)A斜1 000550555眼睛閉合1 00088188.1

      由表2所示, 利用筆者眼睛檢測(cè)算法分別在光照均衡、 光照不均、 配戴眼鏡、 臉部?jī)A斜及眼睛閉合情況下進(jìn)行測(cè)試。由測(cè)試結(jié)果可知: 光照均衡條件下, 通過(guò)調(diào)節(jié)適當(dāng)?shù)哪w色閾值, 可將眼睛檢測(cè)率提高到98.8%, 漏檢樣本可能由眼睛閉合造成, 也可能由姿勢(shì)傾斜造成; 光照不均條件下, 由于二值化人臉樣本存在高光或者偏光帶來(lái)的干擾, 導(dǎo)致灰度圖像中膚色與眼睛并不能完全分開(kāi), 造成檢測(cè)率下降; 佩戴眼鏡對(duì)眼睛檢測(cè)的干擾巨大, 訓(xùn)練的樣本中沒(méi)有包含戴眼鏡的樣本; 臉部?jī)A斜, 對(duì)基于灰度人眼檢測(cè)影響較大, 究其原因, 也是由于灰度圖像中膚色與眼睛并不能完全分開(kāi), 影響判別條件的適用性; 眼睛閉合情況下, 準(zhǔn)確率較高, 調(diào)整膚色閾值可使眼睛區(qū)域無(wú)論睜開(kāi)或者閉合都能較為準(zhǔn)確定位。

      3 駕駛員疲勞狀態(tài)分析

      眼皮運(yùn)動(dòng)是一種視覺(jué)行為, 可有效反映一個(gè)人的疲勞程度。根據(jù)易于測(cè)量并且疲勞狀態(tài)代表性強(qiáng)等性能指標(biāo), 筆者選擇兩個(gè)具有代表性的眼皮疲勞評(píng)價(jià)參數(shù), 對(duì)其進(jìn)行實(shí)時(shí)提取[17], 分別為眼睛開(kāi)閉時(shí)間內(nèi)眼睛閉合時(shí)間所占的百分比(PERCLOS: Percent Eyelid Closure over the Pupil Time)和眼皮平均閉合速度(AECS: Average Eyelid Closing Speed)。

      PERCLOS的測(cè)量原理如圖8所示。通過(guò)測(cè)量t1~t4的時(shí)間節(jié)點(diǎn)可計(jì)算出PERCLOS的值

      (12)

      圖8 測(cè)量PERCLOS值的原理Fig.8 Measures the PERCLOS value principle

      其中f代表眼睛閉合時(shí)間的百分率, 即PERCLOS值;t1是眼睛最大瞳孔閉合到80%瞳孔所用時(shí)間;t2-t1是眼睛80%瞳孔閉合到20%瞳孔所用的時(shí)間;t3-t2是眼睛20%瞳孔閉合到20%瞳孔張開(kāi)所用時(shí)間;t4-t3是眼睛20%睜開(kāi)到80%睜開(kāi)所用時(shí)間。定義當(dāng)眼睛瞳孔開(kāi)度大于20%是睜開(kāi), 等于或更小為閉合。眼睛睜開(kāi)或閉合是通過(guò)將其與標(biāo)準(zhǔn)眼睛圖像像素的模板比較得出的, 時(shí)間可通過(guò)每幀圖像處理的時(shí)間算出。

      AECS是眼皮的平均閉合速度, 一般用眼皮從完全睜開(kāi)到完全閉合所經(jīng)歷的時(shí)間表示, 該參數(shù)也能較好的反應(yīng)疲勞程度。因此AECS的計(jì)算方法為

      tAECS=teveryn

      (13)

      其中tAECS代表眼皮平均閉合速度, 即AECS;tevery為每幀處理時(shí)間;n為連續(xù)閉眼的幀數(shù)。

      筆者運(yùn)用一種基于閾值分割的眼睛區(qū)域像素計(jì)算法, 由于膚色區(qū)域與眼睛區(qū)域存在很大差別, 因此可有效得到分離, 并通過(guò)計(jì)算眼睛面積進(jìn)行眼睛狀態(tài)的判定。一般情況下, 眼睛的大小與眼睛睜開(kāi)程度成正比, 通過(guò)二值化圖像眼睛區(qū)域的面積就能大體判斷出眼睛的開(kāi)合度。此方法較模板匹配算法簡(jiǎn)單, 易于實(shí)現(xiàn), 較擬合曲線(xiàn)可靠性強(qiáng)。算法如下。

      1) 分開(kāi)標(biāo)定左眼和右眼區(qū)域, 計(jì)算眼睛區(qū)域面積。

      2) 記錄連續(xù)50幀眼睛區(qū)域面積, 由于此50幀內(nèi)保留睜眼和閉眼兩種狀態(tài), 因此需進(jìn)行冒泡排序, 求取瞳孔面積最大40幀平均值, 作為后續(xù)判斷的基準(zhǔn)。

      3) 眼睛閉合閾值選擇, 調(diào)整閾值R, 觀察實(shí)驗(yàn)結(jié)果并評(píng)估眨眼判斷準(zhǔn)確率, 當(dāng)眼部區(qū)域面積小于R時(shí), 認(rèn)定為眼睛閉合。如果在單位時(shí)間內(nèi)眼睛閉合的幀數(shù)大于某一閾值, 即認(rèn)定駕駛員處于疲勞狀態(tài)。

      信息融合[18]是利用計(jì)算機(jī)技術(shù)對(duì)來(lái)自多個(gè)傳感器觀測(cè)信息進(jìn)行分析和綜合處理。從而得出決策和估計(jì)任務(wù)所需信息的處理過(guò)程。信息融合的另一種說(shuō)法是數(shù)據(jù)融合。但其內(nèi)涵更廣泛, 更確切, 更合理, 也更具有概括性, 其不僅包括數(shù)據(jù), 而且包括了信號(hào)和知識(shí)。

      筆者采用的信息融合技術(shù)是將眼睛疲勞不同參數(shù)進(jìn)行相關(guān)融合, 得到最終的可反映駕駛員疲勞狀態(tài)的綜合指標(biāo)。公式如下

      (14)

      其中m為某只眼睛疲勞指數(shù)權(quán)重,n為另一只眼睛疲勞指數(shù)權(quán)重[19,20],ffatigue為經(jīng)過(guò)信息融合的駕駛員疲勞指數(shù)。疲勞指數(shù)與已知的閾值d比較是否疲勞駕駛: 當(dāng)ffatigue>d時(shí), 輸出顯示駕駛員為疲勞狀態(tài); 當(dāng)ffatigue≤d時(shí), 輸出顯示駕駛員為正常狀態(tài)。

      4 仿真結(jié)果

      筆者實(shí)現(xiàn)的基于視頻圖像的眼疲勞檢測(cè), 基于Windows 7平臺(tái), 在Microsoft Studio 2010開(kāi)發(fā)環(huán)境中采用MFC環(huán)境和開(kāi)源視覺(jué)庫(kù)OpenCV實(shí)現(xiàn)。整個(gè)軟件的實(shí)現(xiàn)界面如圖9所示。

      圖9 軟件實(shí)現(xiàn)界面Fig.9 Software implementation interface

      顯示窗口分為5部分: 軟件界面、 駕駛員視頻加載區(qū)、 二值化圖像顯示區(qū)、 調(diào)試區(qū)域和縮放視頻顯示區(qū)。每個(gè)部分功能如下。

      1) 軟件界面。界面上有6個(gè)按鈕和兩個(gè)文本框, 按下每個(gè)按鈕都會(huì)執(zhí)行不同的操作。

      2) 駕駛員視頻加載區(qū)和調(diào)試區(qū)域。運(yùn)行時(shí)點(diǎn)擊“打開(kāi)攝像頭”按鈕后攝像頭才被打開(kāi), 彈出“VIDEO”窗口, 才開(kāi)始捕捉視頻, 同時(shí)會(huì)彈出“閾值設(shè)置”的窗口, 用于后續(xù)操作中設(shè)置閾值, 共有3個(gè)閾值, 前兩個(gè)是二值化操作的閾值, 最后一個(gè)是設(shè)置睜眼與閉眼分界點(diǎn)的閾值。當(dāng)要停止軟件運(yùn)行, 點(diǎn)擊界面的“退出”按鈕直接退出。

      3) 縮放視頻顯示區(qū)。點(diǎn)擊按鈕“視頻縮放”后, 會(huì)彈出“縮放視頻”這個(gè)窗口, 人臉檢測(cè)即在此窗口進(jìn)行, 為了縮短程序運(yùn)行時(shí)間, 標(biāo)定人臉圖像時(shí)在原像上進(jìn)行。

      4) 二值化圖像顯示區(qū)。點(diǎn)擊“人臉定位”和“人眼定位”按鈕之后, 會(huì)彈出“BINARY”這個(gè)窗口, 前兩個(gè)閾值大小要根據(jù)這個(gè)窗口進(jìn)行調(diào)整。

      在準(zhǔn)確定位眼睛后, 點(diǎn)擊“眨眼頻率”按鈕, 通過(guò)“閾值設(shè)置”中第3個(gè)進(jìn)度條確定眼睛閉合的閾值。通過(guò)前文所述方法判斷是否為疲勞駕駛。

      5 總 結(jié)

      筆者主要研究對(duì)象是基于視覺(jué)的駕駛員疲勞檢測(cè)方法, 通過(guò)對(duì)視頻圖像的采集、 預(yù)處理與圖像增強(qiáng)、 人臉檢測(cè)、 眼睛定位以及疲勞算法的研究, 實(shí)現(xiàn)了疲勞檢測(cè)系統(tǒng)的相關(guān)流程, 經(jīng)測(cè)試分析, 該算法具有較高的實(shí)時(shí)性等特點(diǎn)。

      參考文獻(xiàn):

      [1]朱淑亮. 基于視頻圖像處理與信息融合的駕駛員疲勞檢測(cè)技術(shù)研究 [D]. 濟(jì)南: 山東大學(xué)機(jī)械工程學(xué)院, 2008.

      ZHU Shuliang. Research on Driver Fatigue Detection Based on Video Analysis and Information Fusion [D]. Jinan: School of Mechanical Engineering, Shandong University, 2008.

      [2]姜華. 基于模式識(shí)別的駕駛員疲勞狀態(tài)檢測(cè)系統(tǒng)研究 [D]. 哈爾濱: 哈爾濱工業(yè)大學(xué)汽車(chē)工程學(xué)院, 2011.

      JIANG Hua. Study on Driver Fatigue Detect System Based on Pattern Recognition [D]. Harbin: School of Automobile Engineering, Harbin Institute of Technology, 2011.

      [3]王軍. 駕駛員疲勞檢測(cè)算法研究 [D]. 北京: 北京交通大學(xué)電子信息工程學(xué)院, 2017.

      WANG Jun. Study on Driver Fatigue Detection Algorithm [D]. Beijing: School of Electronic Information Engineering, Beijing Jiaotong University, 2017.

      [4]黃每裕. 歐洲人告別疲勞駕駛 [J]. 勞動(dòng)安全與健康, 2000(11): 48.

      HUANG Meiyu. Europeans Bid Farewell to Fatigue Driving [J]. Work Safety and Health, 2000(11): 48.

      [5]朱序謀. 國(guó)外如何防止疲勞駕駛 [J]. 道路交通管理, 2000(12): 19.

      ZHU Xumou. How to Prevent Fatigue Driving Abroad [J]. Road Traffic Management, 2000(12): 19.

      [6]章毓晉. 圖像工程(上冊(cè)): 圖像處理 [M]. 北京: 清華大學(xué)出版社, 2006: 65-69.

      ZHANG Yujin. Image Project (Uploaded): Image Processing [M]. Beijing: Tsinghua University Press, 2006: 65-69.

      [7]曹菊英. 基于眼睛跟蹤技術(shù)的司機(jī)疲勞檢測(cè)方法的研究 [D]. 長(zhǎng)沙: 中南大學(xué)計(jì)算機(jī)應(yīng)用技術(shù)學(xué)院, 2007.

      CAO Juying. Study on Fatigue Detection of Motor Driver Based on Eyes Tracking Technology [D]. Changsha: School of Computer Applied Technology, Central South University, 2007.

      [8]江俊. 人眼定位算法設(shè)計(jì)與人臉識(shí)別系統(tǒng)的軟件移植 [D]. 武漢: 華中科技大學(xué)電子信息與通信學(xué)院, 2012.

      JIANG Jun. Design of Eyes Location Algorithm and Software Porting for Face Recognition System [D]. Wuhan: School of Electronic Information and Communications, Huazhong University of Science and Technology, 2012.

      [9]羅超. 基于駕駛員行為特征的疲勞駕駛檢測(cè)方法的實(shí)現(xiàn) [D]. 武漢: 武漢理工大學(xué)信息工程學(xué)院, 2013.

      LUO Chao. The Realization of Driver Fatigue Detection Method Based on Driver Behavior Characteristics [D]. Wuhan: School of Information Engineering, Wuhan University of Technology, 2013.

      [10]鄭培, 宋正河, 周一鳴. 機(jī)動(dòng)車(chē)駕駛員駕駛疲勞測(cè)評(píng)方法的研究狀況及發(fā)展趨勢(shì) [J]. 中國(guó)農(nóng)業(yè)大學(xué)學(xué)報(bào), 2001, 6(6): 101-105.

      ZHENG Pei, SONG Zhenghe, ZHOU Yiming. Study Situation and Developing Trend on Detecting and Evaluating Techniques of Motor Driver Fatigue [J]. Journal of China Agricultural University, 2001, 6(6): 101-105.

      [11]YANG M H, KRIEGMAN D J, AHUJA N. Detecting Faces in Images: A Survey [J]. Pattern Analysis and Machine Intelligence, IEEE Transactions on, 2002, 24(1): 34-58.

      [12]郭克友, 儲(chǔ)江偉, 王榮本. 駕駛員眼部狀態(tài)識(shí)別方法的研究 [J]. 系統(tǒng)工程與電子技術(shù), 2003, 25(10): 1186-1188.

      GUO Keyou, CHU Jiangwei, WANG Rongben. Study on the Recognition of the Driver’s Eye States[J]. Systems Engineering and Electronics, 2003,25(10): 1186-1188.

      [13]WANG R B, GUO L, TONG B L, et al. Monitoring Mouth Movement for Driver Fatigue or Distraction with One Camera [C]∥The 7thInternational IEEE Conference on Intelligent Transportation Systems. Washington, D C, USA :AAAI Press, 2004: 314-319.

      [14]WANG Tiesheng, SHI Pengfei. Yawning Detection for Determining Driver Drowsiness[C]∥Proceedings of IEEE International Workshop on VLSI Designer and Video Technology. Suzhou, China: IEEE Press, 2005: 373-376.

      [15]LIN C. Face Detection in Complicated Backgrounds and Different Illumination Conditions by Using YCbCr Color Space and Neural Network [J]. Pattern Recognition Letters, 2007, 28(16): 2190-2200.

      [16]夏良正, 李久賢. 數(shù)字圖像處理 [M]. 南京: 東南大學(xué)出版社, 2005.

      XIA Liangzheng, LI Jiuxian. Digital Image Processing [M]. Nanjing: Southeast University Press, 2005.

      [17]廖傳錦, 秦小虎, 黃席樾. 以人為中心的汽車(chē)主動(dòng)安全技術(shù)綜述 [J]. 計(jì)算機(jī)仿真, 2004, 21(9): 152-156.

      LIAO Chuanjin, QIN Xiaohu, HUANG Xiyue. The State of Arts of Human-Centered Vehicle Active Safety Technology [J]. Computer Simulation, 2004, 21(9): 152-156.

      [18]黃超, 謝康林, 杜平. 基于Adaboost的快速人臉跟蹤算法 [J]. 計(jì)算機(jī)工程, 2004, 30(S): 373,374.

      HUANG Chao, XIE Kanglin, DU Ping. A Fast Face Tracking Algorithm Based on Powerful Adaboost [J]. Computer Engineering, 2004, 30(S): 373,374.

      [19]楊露菁, 余華. 多源信息融合理論與應(yīng)用 [M]. 北京: 北京郵電大學(xué)出版社, 2006.

      YANG Lujing, YU hua. Multi-Source Information Fusion Theory and Application [M]. Beijing: Beijing University of Posts and Telecommunications, 2006.

      [20]李志春. 駕駛員疲勞狀態(tài)檢測(cè)技術(shù)研究及工程實(shí)現(xiàn) [D]. 鎮(zhèn)江: 江蘇大學(xué)汽車(chē)與交通工程學(xué)院, 2009: 67-69.

      LI Zhichun. Research on Driver’s Fatigue Status Detection Technology and Realization in Engineering [D]. Zhenjiang: School of Automotive and Traffic Engineer, Jiangsu University, 2009: 67-69.

      猜你喜歡
      膚色人臉分類(lèi)器
      有特點(diǎn)的人臉
      Conversation in a house
      人的膚色為什么不同
      三國(guó)漫——人臉解鎖
      BP-GA光照分類(lèi)器在車(chē)道線(xiàn)識(shí)別中的應(yīng)用
      加權(quán)空-譜與最近鄰分類(lèi)器相結(jié)合的高光譜圖像分類(lèi)
      結(jié)合模糊(C+P)均值聚類(lèi)和SP-V-支持向量機(jī)的TSK分類(lèi)器
      馬面部與人臉相似度驚人
      長(zhǎng)得象人臉的十種動(dòng)物
      奇聞怪事(2014年5期)2014-05-13 21:43:01
      基于LLE降維和BP_Adaboost分類(lèi)器的GIS局部放電模式識(shí)別
      蓬溪县| 凤城市| 南宫市| 名山县| 奉化市| 太谷县| 桂阳县| 泰州市| 普宁市| 乐都县| 克什克腾旗| 沽源县| 元谋县| 武陟县| 陵川县| 丹棱县| 景德镇市| 乌苏市| 翁牛特旗| 辽阳市| 富川| 罗城| 阜康市| 永嘉县| 临江市| 营口市| 江油市| 济宁市| 丹江口市| 余姚市| 昭觉县| 梅州市| 南昌县| 吉林市| 江孜县| 宁陕县| 遂溪县| 阿勒泰市| 桐城市| 崇阳县| 都安|