孫浩哲 張言利 陳紅昌 張喜偉
摘 ?要:根據(jù)公安部2022年發(fā)布的數(shù)據(jù),我國眾多交通事故中大約有10%~20%的事故是由疲勞駕駛誘發(fā)的。為了更好地保障駕駛員的生命財(cái)產(chǎn)安全,設(shè)計(jì)一種基于車載視頻分析和卷積神經(jīng)網(wǎng)絡(luò)YOLOv5的疲勞駕駛行為檢測算法。使用公開數(shù)據(jù)集與自采集數(shù)據(jù)集進(jìn)行訓(xùn)練,同時(shí)對(duì)算法進(jìn)行了優(yōu)化,使之能夠在云GPU環(huán)境下進(jìn)行訓(xùn)練與檢測。結(jié)果顯示,經(jīng)過訓(xùn)練后,模型檢測準(zhǔn)確率可達(dá)90%,具有較好的應(yīng)用和推廣前景。
關(guān)鍵詞:深度學(xué)習(xí);疲勞駕駛檢測;YOLOv5;卷積神經(jīng)網(wǎng)絡(luò)(CNN)
中圖分類號(hào):TP183;TP391.4 文獻(xiàn)標(biāo)識(shí)碼:A 文章編號(hào):2096-4706(2023)16-0089-06
Design and Implementation of Fatigue Driving Behavior Detection Algorithm Based on Vehicle Video Analysis
SUN Haozhe, ZHANG Yanli, CHEN Hongchang, ZHANG Xiwei
(School of Information, North China University of Technology, Beijing ?100144, China)
Abstract: According to the data released by the Ministry of Public Security in 2022, there are about 10%~20% of traffic accidents in China are caused by fatigue driving. In order to better protect the life and property safety of drivers, a fatigue driving behavior detection algorithm based on vehicle video analysis and convolutional neural network YOLOv5 is designed. Train is performed using open dataset and self-collected dataset, while optimizing the algorithm to enable training and detection in a cloud GPU environment. The results show that after training, the model detection accuracy can reach 90%, which has good application and promotion prospects.
Keywords: deep learning; sleep-deprived driving detection; YOLOv5; CNN
0 ?引 ?言
隨著我國經(jīng)濟(jì)的發(fā)展,居民收入穩(wěn)步提高,家用汽車越來越多地進(jìn)入普通家庭,極大提升了人們的生活質(zhì)量。但是,問題也隨之而來。據(jù)國家統(tǒng)計(jì)局2022年發(fā)布的數(shù)據(jù),2021年機(jī)動(dòng)車交通事故共有233 729起,導(dǎo)致死亡56 249人,受傷238 035人,并造成134 549萬元的經(jīng)濟(jì)損失。公安部的統(tǒng)計(jì)數(shù)據(jù)顯示,機(jī)動(dòng)車重大交通事故發(fā)生原因中,疲勞駕駛占比達(dá)到了10%~20%[1]。隨著機(jī)動(dòng)車數(shù)量的逐漸增加,疲勞駕駛導(dǎo)致的交通事故可能會(huì)更多。因此,建立便捷、有效的疲勞駕駛判斷系統(tǒng)并對(duì)駕駛員進(jìn)行適當(dāng)?shù)奶嵝眩瑢?duì)于維護(hù)駕駛員以及交通參與者的生命安全,減少財(cái)產(chǎn)損失,維護(hù)和諧交通環(huán)境,顯然具有重要的現(xiàn)實(shí)意義。
疲勞駕駛判斷的實(shí)現(xiàn)需要依賴技術(shù)檢測系統(tǒng),國內(nèi)外研究者一直在致力于開發(fā)不同的檢測系統(tǒng),如沙春發(fā)等人基于方向盤握力的疲勞駕駛檢測[2],石曉玲等通過對(duì)車輛行駛軌跡、方向盤轉(zhuǎn)角等特征分析進(jìn)行疲勞狀態(tài)識(shí)別[3]等。雖然這些檢測系統(tǒng)具有較高的準(zhǔn)確度,但是傳感器等設(shè)備可能會(huì)對(duì)駕駛員的駕駛產(chǎn)生負(fù)面影響,而對(duì)車輛本身進(jìn)行分析則對(duì)路況及駕駛規(guī)范性要求較高,因此實(shí)施起來都有一定難度。
要解決上述問題,近年來日趨成熟的生物信息技術(shù)進(jìn)行檢測的方法具有更大的優(yōu)勢和可行性。人體在疲勞時(shí)展現(xiàn)出的異常狀態(tài)特征較多,其中駕駛員在疲勞駕駛時(shí)展現(xiàn)出的便于檢測的面部特征主要有眼睛睜開大小[4]和嘴部張開大小[5]。利用目前廣泛應(yīng)用的計(jì)算機(jī)視覺技術(shù),在不影響駕駛員駕駛的前提下,通過對(duì)眼睛和嘴巴特征進(jìn)行識(shí)別,判斷駕駛員是否瞇眼、打哈欠等疲勞變化可以實(shí)現(xiàn)統(tǒng)一、高精度的檢測。在車內(nèi)設(shè)置疲勞駕駛檢測設(shè)備,檢測到出該類面部特征時(shí),適當(dāng)進(jìn)行報(bào)警,提示駕駛員進(jìn)行適度休息或換人駕駛,能夠很大程度上降低事故的發(fā)生率。
基于此,本研究擬在卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks, CNN)的基礎(chǔ)上,采用無接觸的圖像識(shí)別方法,構(gòu)建新的疲勞檢測算法,以期減少交通事故的發(fā)生。
1 ?疲勞檢測算法介紹
本算法基于YOLOv5,通過攝像頭對(duì)駕駛員的駕駛狀態(tài)進(jìn)行實(shí)時(shí)采集分析,判斷駕駛員是否處于疲勞駕駛,檢測過程不影響駕駛員的駕駛狀態(tài)。疲勞檢測算法的總體框圖如圖1所示。
1.1 ?YOLOv5算法簡介
YOLOv5是一個(gè)較為成熟且識(shí)別速度與準(zhǔn)確率均較高的算法網(wǎng)絡(luò),可在復(fù)雜的情況下保持較高的識(shí)別速度與準(zhǔn)確率,本系統(tǒng)以YOLOv5作為基礎(chǔ)進(jìn)行設(shè)計(jì),可實(shí)現(xiàn)高靈敏度的需求。
YOLOv5是一種單階段目標(biāo)檢測算法,其網(wǎng)絡(luò)結(jié)構(gòu)主要分為四個(gè)部分,分別為:輸入端、Backbone、Neck、Prediction。其網(wǎng)絡(luò)架構(gòu)如圖2所示。
1.1.1 ?輸入端
采用Mosaic數(shù)據(jù)增強(qiáng)技術(shù)、自適應(yīng)初始錨框計(jì)算[6]、圖片縮放等技術(shù)[7]等。Mosaic數(shù)據(jù)增強(qiáng)將圖片進(jìn)行裁剪,之后與向上采樣的圖結(jié)合作為訓(xùn)練數(shù)據(jù)[8],能更好地檢測小目標(biāo)人臉。在選定錨框時(shí)采用自適應(yīng)錨框計(jì)算,可實(shí)現(xiàn)訓(xùn)練時(shí)自主計(jì)算出每個(gè)訓(xùn)練集中的最佳錨框值,小目標(biāo)分配到anchors較小,大目標(biāo)分配到anchors較大。同時(shí)也能實(shí)現(xiàn)在小特征圖上檢測大目標(biāo),在大特征圖上檢測小目標(biāo)[9],提高檢測的準(zhǔn)確率。
對(duì)應(yīng)的代碼如下:
anchors:
- [4,5, ?8,10, ?13,16] ?# P3/8 ?anchors[0] 檢測小目標(biāo),三組尺寸分別為(10,13)(8,10)(13,16)
- [23,29, ?43,55, ?73,105] ?# P4/16 anchors[1] 檢測中目標(biāo)
- [146,217, ?231,300, ?335,433] ?# P5/32 ?anchors[1] 檢測大目標(biāo)
同時(shí)YOLOv5還采用自適應(yīng)圖片縮放技術(shù),將圖像的長寬按比例縮放,對(duì)于收縮后不滿足條件的一邊再進(jìn)行填充,減少黑邊的占比,減少了計(jì)算量,提高了模型推理速度。
1.1.2 ?Backbone
用Stem模塊替代網(wǎng)絡(luò)中原有的Focus模塊,在不降低性能的同時(shí),提高了網(wǎng)絡(luò)的泛化能力,降低了計(jì)算復(fù)雜度。此外,在網(wǎng)絡(luò)結(jié)構(gòu)中重復(fù)用CBL模塊提取圖片的特征信息。CBL模塊是Conv+BN+激活函數(shù)的組合,使用激活函數(shù)Hardswish,如式(1)所示。ResUnit模塊替換了原來版本的Bottleneck模塊。這些改進(jìn)減少了計(jì)算量,提升了訓(xùn)練速度。
(1)
利用CSP1_X模塊對(duì)殘差特征進(jìn)行學(xué)習(xí),結(jié)構(gòu)如圖3所示。
Backbone的最后是SPP空間金字塔池化,如圖4所示。利用1個(gè)標(biāo)準(zhǔn)卷積模塊將輸入通道減半,然后分別做kernel-size為5、9、13的最大池化,經(jīng)過3個(gè)不同卷積核的最大池化采樣之后,輸出通道數(shù)相同,便于后續(xù)操作。該部分的作用是將更多不同分辨率的特征進(jìn)行融合,在送入網(wǎng)絡(luò)neck之前能夠得到更多的信息。
1.1.3 ?Neck
與上一層相比較,使用了CSP2_X模塊,并增加了Upsample上采樣結(jié)構(gòu)。其中concat將提取出來的特征進(jìn)行融合,之后進(jìn)行上采樣,將提取出的feature map進(jìn)行放大,以增加圖片的分辨率。同時(shí)Neck中整體的網(wǎng)絡(luò)結(jié)構(gòu)采用FPN和PANet結(jié)構(gòu)。FPN通過自頂向下的結(jié)構(gòu),將深層的語義信息傳遞到淺層,將高層特征與底層特征進(jìn)行融合,能提高對(duì)小目標(biāo)檢測的準(zhǔn)確率[10]。與PAN相比,PANet在FPN的基礎(chǔ)上又引入了一個(gè)自底向上的Bottom-up,促使PANet對(duì)不同層次的特征進(jìn)行融合,保留了更多的淺層位置特征,將整體特征提取能力進(jìn)一步提升。
1.1.4 ?輸出端(Prediction)
包含三個(gè)檢測層,分別對(duì)應(yīng)Neck中得到的3種不同尺寸的特征圖,并且給每種特征圖都預(yù)設(shè)了3個(gè)不同寬、高比的Anchor,用來預(yù)測和回歸目標(biāo)。同時(shí),采用三種損失函數(shù)分別計(jì)算分類、邊界框和置信度損失。所使用的損失函數(shù)為EIoU_LOSS,計(jì)算公式如式(2):
(2)
該損失函數(shù)彌補(bǔ)了IoU為0時(shí)無法得到預(yù)測框和真實(shí)框之間距離的缺點(diǎn),通過NMS非極大值抑制比來提高網(wǎng)絡(luò)預(yù)測的準(zhǔn)確度。采用平均準(zhǔn)確率(mean Average Precision, mAP)來進(jìn)行效果與性能評(píng)價(jià),mAP值越大檢測結(jié)果越好,而使用EIoU函數(shù)后網(wǎng)絡(luò)的mAP有了較為顯著的提升,有效提高了疲勞駕駛檢測的精確度[11]。實(shí)現(xiàn)人臉檢測的部分代碼如下:
for i, det in enumerate(pred): ?#檢測每一張圖片
if webcam: ?#如果開啟攝像頭
p, im0, frame = path[i], im0s[i].copy(), dataset.count
else: ?#從文件中讀取視頻或圖片
p, im0, frame = path, im0s.copy(), getattr(dataset, 'frame', 0)
p = Path(p) ?#當(dāng)前圖片或視頻的路徑
save_path = str(Path(save_dir) / p.name) ?# 保存路徑
if len(det): ?#將預(yù)測信息映射到原圖
det[:, :4] = scale_coords(img.shape[2:], det[:, :4], im0.shape).round()
for c in det[:, -1].unique():
n = (det[:, -1] == c).sum() ?# detections per class
det[:,5:15]=scale_coords_landmarks(img.shape[2:],det[:,5:15],im0.shape).round()
for j in range(det.size()[0]):#在原圖上將檢測出來的人臉畫框顯示置信度闕值
xyxy = det[j, :4].view(-1).tolist()
conf = det[j, 4].cpu().numpy()
landmarks = det[j, 5:15].view(-1).tolist()
class_num = det[j, 15].cpu().numpy()
im0 = show_results(im0, xyxy, conf, landmarks, class_num, j)
最后將檢測后的結(jié)果選擇性保存,或在檢測時(shí)顯示其結(jié)果。
1.2 ?基于Face_Recongnition的關(guān)鍵點(diǎn)定位
Face_Recognition庫是基于Python語言開發(fā)的開源項(xiàng)目,基于Dlib開源庫的深度學(xué)習(xí)模型進(jìn)行構(gòu)建,其采用的訓(xùn)練數(shù)據(jù)集為Labeled Faces in the Wild,測試的成功率高達(dá)99.38%。
本系統(tǒng)首先識(shí)別人臉,使用Face_Recognition庫實(shí)現(xiàn)人臉關(guān)鍵點(diǎn)識(shí)別,該模型的68個(gè)關(guān)鍵點(diǎn)如圖5所示。采用人臉的68個(gè)特征點(diǎn)與庫中人臉特征點(diǎn)進(jìn)行對(duì)比來完成人臉識(shí)別的過程,包含臉的輪廓、眉毛、眼睛、鼻子、嘴等部位的特征。
在利用YOLOv5檢測并框出人臉后,調(diào)用Face_Recognition庫中的Face_Landmarks對(duì)關(guān)鍵點(diǎn)進(jìn)行定位,代碼如下所示:
face_landmarks_list = face_recognition.face_landmarks(img)
for word, face_landmarks in enumerate(face_landmarks_list): ?# 繪制面部輪廓點(diǎn)
for key, marks in face_landmarks.items():
for i in range(len(marks)):
point = marks[i]
cv2.circle(img, (point[0], point[1]), 2, (255, 125, 0), -1)
1.3 ?疲勞檢測的具體參數(shù)
使用YOLO及Face_Recognition對(duì)采集的圖像進(jìn)行處理后,再對(duì)面部關(guān)鍵點(diǎn)的具體參數(shù)進(jìn)行計(jì)算,并設(shè)置具體閾值,實(shí)現(xiàn)對(duì)駕駛員駕駛狀態(tài)的判定。針對(duì)駕駛員的疲勞狀態(tài)檢測,本算法通過以下2個(gè)方面進(jìn)行[12]:
EAR(Eye Aspect Ratio)的檢測:通過計(jì)算眼部的距離得到EAR,EAR值隨著人眼開合的大小而改變,閉合時(shí)達(dá)到最小,算式如式(3)所示,其中X、Y表示眼部關(guān)鍵點(diǎn):
(3)
MAR(Mouth Aspect Ratio)的檢測:通過計(jì)算嘴部的距離得到MAR,MAR值隨著嘴巴開合的大小發(fā)生改變,當(dāng)嘴巴張開的時(shí)候,MAR會(huì)變大,算式如式(4)所示。其中X、Y表示嘴部關(guān)鍵點(diǎn):
(4)
設(shè)定MAR和EAR的變化閾值,當(dāng)變化超過該閾值,算法認(rèn)為是疲勞駕駛,并發(fā)出警示,至此實(shí)現(xiàn)了整個(gè)疲勞檢測算法的流程。
2 ?準(zhǔn)備工作及算法的實(shí)現(xiàn)
2.1 ?數(shù)據(jù)集準(zhǔn)備
相對(duì)于YOLOv4算法網(wǎng)絡(luò)[13],YOLOv5使用PyTorch框架,對(duì)用戶非常友好,能夠方便地訓(xùn)練自己的數(shù)據(jù)集,并通過數(shù)據(jù)加載器傳遞每一批訓(xùn)練數(shù)據(jù),同時(shí)增強(qiáng)訓(xùn)練數(shù)據(jù)。數(shù)據(jù)加載器進(jìn)行3種數(shù)據(jù)增強(qiáng),包括縮放、色彩空間調(diào)整和馬賽克增強(qiáng)。使用公開的YawDD數(shù)據(jù)集及自采集數(shù)據(jù)集進(jìn)行訓(xùn)練,對(duì)獲得的數(shù)據(jù)集使用Labeling標(biāo)注軟件進(jìn)行標(biāo)注,選用YOLO格式,生成.txt文件,將標(biāo)注的圖片與標(biāo)簽分別放至對(duì)應(yīng)的文件夾中,具體分類及數(shù)量如表1所示,示例圖片如圖6所示。
2.2 ?模型的訓(xùn)練與實(shí)現(xiàn)
實(shí)驗(yàn)的硬件環(huán)境CPU為AMD Ryzen 7_4800U,在恒源云NVIDIA GeForce RTX 3090(24G)GPU上進(jìn)行實(shí)驗(yàn)。Python版本為Python 3.8,PyTorch版本為1.11.0,編程平臺(tái)為PyCharm及恒源云自帶的JupyterLab。
啟動(dòng)云GPU后,將數(shù)據(jù)集上傳至JupyterLab指定路徑的文件夾中,對(duì)訓(xùn)練的相關(guān)參數(shù)進(jìn)行設(shè)定與修改,運(yùn)行指令進(jìn)行訓(xùn)練。具體訓(xùn)練參數(shù):batch-size=16,epoches=200,使用模型給出的預(yù)先權(quán)重YOLOv5s.pt進(jìn)行訓(xùn)練。
YOLO算法網(wǎng)絡(luò)可以自主學(xué)習(xí)已進(jìn)行標(biāo)注的數(shù)據(jù)集,生成訓(xùn)練權(quán)重,通過在檢測模塊中應(yīng)用該權(quán)重,結(jié)合攝像機(jī)傳輸?shù)膱D像,對(duì)駕駛員的駕駛狀態(tài)進(jìn)行實(shí)時(shí)檢測,并將識(shí)別結(jié)果實(shí)時(shí)顯示。YOLO在訓(xùn)練后,除了權(quán)重,還能夠自動(dòng)將結(jié)果數(shù)據(jù)進(jìn)行可視化處理,得到直觀的準(zhǔn)確度結(jié)果png圖像,方便與其他檢測模型的結(jié)果進(jìn)行比較。
本實(shí)驗(yàn)?zāi)P图捌渌P偷膶?duì)比如表2所示[14],模型訓(xùn)練結(jié)果如圖7所示。
由圖7可知,在訓(xùn)練至200輪時(shí),不論是Precision還是mAP等參數(shù)收斂至約90%,均達(dá)到了較高水準(zhǔn),識(shí)別效果優(yōu)于其他網(wǎng)絡(luò)。示例測試結(jié)果如圖8所示。
2.3 ?模型測試
采用訓(xùn)練出的last.pt權(quán)重進(jìn)行檢測,攝像頭采集視頻的尺寸為640×640,YOLOv5直接調(diào)用視頻進(jìn)行識(shí)別,視頻檢測時(shí)采樣速率為30 FPS,測試結(jié)果隨著測試者的狀態(tài)實(shí)時(shí)改變,在屏幕上顯示疲勞(tired)或正常(normal)的識(shí)別結(jié)果,截取識(shí)別結(jié)果如圖9及圖10所示。
2.4 ?結(jié)果分析
使用大小合適的數(shù)據(jù)集進(jìn)行訓(xùn)練后,將獲得的權(quán)重應(yīng)用于該模型中,運(yùn)行模型進(jìn)行檢測。結(jié)果發(fā)現(xiàn),該模型在照明較差、駕駛員姿態(tài)變化的情況下依然能夠進(jìn)行高準(zhǔn)確度的檢測,并能夠?qū)崟r(shí)顯示駕駛狀態(tài),及時(shí)給予駕駛員反饋。與前述通過對(duì)車輛行駛軌跡、方向盤轉(zhuǎn)角等特征分析進(jìn)行疲勞狀態(tài)識(shí)別的系統(tǒng)相比,具有靈敏性強(qiáng)、準(zhǔn)確度高、干擾更低等優(yōu)點(diǎn)。
3 ?結(jié) ?論
本系統(tǒng)基于YOLOv5算法網(wǎng)絡(luò)用于疲勞駕駛的檢測識(shí)別模塊,通過使用既定數(shù)據(jù)集進(jìn)行訓(xùn)練,使用獲得的高準(zhǔn)確度權(quán)重進(jìn)行疲勞狀態(tài)的檢測,并將該模塊與攝像機(jī)相結(jié)合,進(jìn)行實(shí)時(shí)的駕駛員駕駛狀態(tài)的分析,設(shè)計(jì)并實(shí)現(xiàn)了一套疲勞駕駛檢測系統(tǒng)。經(jīng)過檢測證明,此網(wǎng)絡(luò)改進(jìn)訓(xùn)練后能夠以較高準(zhǔn)確率識(shí)別出駕駛員的駕駛狀態(tài),并適當(dāng)對(duì)駕駛員進(jìn)行警示,降低由于駕駛員疲勞駕駛導(dǎo)致交通事故的可能性。本系統(tǒng)大大降低了疲勞駕駛的檢測難度,檢測更便捷,對(duì)保障交通安全及生命財(cái)產(chǎn)安全具有重要的現(xiàn)實(shí)意義。
值得考慮的是,本系統(tǒng)在無照明的夜間道路上,攝像機(jī)采集圖像的光線條件較差,對(duì)駕駛員狀態(tài)的檢測可能存在偏差,如何在無照明條件下準(zhǔn)確識(shí)別駕駛員的駕駛狀態(tài)是后續(xù)研究的重點(diǎn)方向之一。
參考文獻(xiàn):
[1] 李都厚,劉群,袁偉,等.疲勞駕駛與交通事故關(guān)系 [J].交通運(yùn)輸工程學(xué)報(bào),2010,10(2):104-109.
[2] 沙春發(fā),李瑞,張明明.基于方向盤握力的疲勞駕駛檢測研究 [J].科學(xué)技術(shù)與工程,2016,16(30):299-304.
[3] 石曉玲,楊英倉.基于車輛行駛軌跡特征的駕駛?cè)似跔顟B(tài)識(shí)別技術(shù)研究 [J].中國新通信,2017,19(2):158-160.
[4] HORNG W B,CHEN C Y,CHANG Y,et al. Driver Fatigue Detection Based on Eye Tracking and Dynamic Template Matching [C]//Proceedings of the 2004 IEEE International Conference on Networking, Sensing &Control.Taipei:IEEE,2004:7-12.
[5] FAN X,YIN B C,SUN Y F. Yawning Detection for Monitoring Driver Fatigue [C]//2007 International Conference on Machine Learning and Cybernetics.Hong Kong:IEEE,2007,2:664-668.
[6] 徐征宇,朱宗曉,周康,等.基于深度學(xué)習(xí)目標(biāo)檢測的可行駛區(qū)域分割 [J].現(xiàn)代信息科技,2020,4(23):106-108.
[7] 周偉鴻,朱思霖.基于深度學(xué)習(xí)技術(shù)的智慧考場方案的應(yīng)用探究 [J].信息技術(shù)與信息化,2020(12):224-227.
[8] 郭智超,徐君明,劉愛東.基于嵌入式平臺(tái)與優(yōu)化YOLOv3的航拍目標(biāo)檢測方法 [J].兵工自動(dòng)化,2022,41(3):10-15+20.
[9] 陸峰,劉華海,黃長纓,等.基于深度學(xué)習(xí)的目標(biāo)檢測技術(shù)綜述 [J].計(jì)算機(jī)系統(tǒng)應(yīng)用,2021,30(3):1-13.
[10] 張智堅(jiān),曹雪虹,焦良葆,等.基于改進(jìn)YoloX的輸電通道工程車輛檢測識(shí)別 [J].計(jì)算機(jī)測量與控制,2022,30(9):67-73.
[11] 吳子強(qiáng).基于改進(jìn)YOLOv3的疲勞駕駛檢測算法的研究與應(yīng)用 [D].南昌:南昌大學(xué),2022.
[12] 王小榮,張益通,彭炫.基于人臉關(guān)鍵點(diǎn)檢測的車載疲勞駕駛系統(tǒng)研究 [J].無線互聯(lián)科技,2022,19(17):82-84.
[13] WANG Z J,WU Y M,YANG L C,et al. Fast Personal Protective Equipment Detection for Real Construction Sites Using Deep Learning Approaches [J/OL].Sensors,2021,21(10):(2021-05-17)[2023-03-25].https://doi.org/10.3390/s21103478.
[14] XING J J,F(xiàn)ANG G X,ZHONG J P,et al. Application of Face Recognition Based on CNN in Fatigue Driving Detection [C]//Proceedings of the 2019 International Conference on Artificial Intelligence and Advanced Manufacturing.Dublin:Association for Computing Machinery,2019(56):1-5.
作者簡介:孫浩哲(2001—),男,漢族,山東諸城人,本科在讀,研究方向:通信與計(jì)算機(jī)視覺;陳紅昌(2001—),男,漢族,云南昆明人,本科在讀,研究方向:通信與計(jì)算機(jī)視覺;張言利(2003—),女,漢族,河南駐馬店人,本科在讀,研究方向:通信與計(jì)算機(jī)視覺;張喜偉(2001—),男,漢族,甘肅靜寧人,本科在讀,研究方向:通信與計(jì)算機(jī)視覺。