摘要:獲取智能座艙人機交互領(lǐng)域的知識結(jié)構(gòu)研究熱點及發(fā)展態(tài)勢。本研究運用科學(xué)計量方法,使用Cnki數(shù)據(jù)庫和Web of Science數(shù)據(jù)庫作為數(shù)據(jù)來源,并使用Citespace和VOSviewer文獻(xiàn)數(shù)據(jù)可視化軟件進(jìn)行關(guān)鍵詞圖繪制。分析國內(nèi)外相關(guān)領(lǐng)域研究熱點,探究國內(nèi)智能座艙研究發(fā)展的優(yōu)勢與局限。智能座艙需要結(jié)合人因工效學(xué)理論方法、智能交互技術(shù)等構(gòu)建適應(yīng)多任務(wù)情境和多層次認(rèn)知需求的交互模式。在實際情境中的應(yīng)用與實證研究方面,國內(nèi)智能座艙仍有提升空間。未來智能座艙發(fā)展應(yīng)該結(jié)合多領(lǐng)域的交叉研究,從深度人機協(xié)同交互模式、多模態(tài)融合人機交互方式、任務(wù)-認(rèn)知關(guān)聯(lián)的交互信息表征等3個方面深入探究智能座艙人機交互模式。
關(guān)鍵詞:文獻(xiàn)可視化;智能座艙;人機協(xié)同;人因工效;交互體驗
中圖分類號:TB472 文獻(xiàn)標(biāo)識碼:A文章編號:1003-0069(2024)17-0062-04
Abstract:The objective of this study is to investigate the knowledge structure,research hotspots,and development trends in the field of intelligent cockpit human-machine interaction. This study employed scientific measurement methods,utilizing the CNKI and Web of Science databases as data sources. Citespace and VOSviewer software were used to visually analyze the literature data and generate keyword maps. The analysis encompasses both domestic and international research domains,investigating the strengths and limitations of domestic intelligent cockpit research. Intelligent cockpits require the integration of theories and methods from human factors and ergonomics,as well as intelligent interaction technologies,to construct interactive modes that adapt to multi-task scenarios and multi-level cognitive demands. There is still room for improvement in the practical application and empirical research of intelligent cockpits in domestic settings. Future development in intelligent cockpits should involve interdisciplinary research,focusing on three aspects:deep human-machine collaborative interaction modes,multimodal fusion interaction methods,and interactive information representation based on task-cognition associations. These aspects will contribute to the exploration of multidimensional information processing mechanisms in intelligent cockpit human-machine interaction.
Keywords:Literature visualization;Intelligent cockpit;Human-Machine collaboration;Human factors and ergonomics;Interaction experience
智能座艙是指汽車、飛機等設(shè)備的駕駛座艙利用虛擬現(xiàn)實、增強現(xiàn)實、傳感器、物聯(lián)網(wǎng)、自動駕駛等技術(shù)手段實現(xiàn)人機交互過程中的智能操縱、智能感知、智能決策、智能顯示[1]。以滿足不同用戶和場景下的多樣化需求,提升艙內(nèi)空間的可用性、駕駛安全性、任務(wù)執(zhí)行效率等人機交互體驗。
智能座艙的人機交互發(fā)展對提高駕駛員操作效率和駕駛安全性,增強駕駛舒適性體驗具有重要意義。隨著智能技術(shù)的深入應(yīng)用以及交互方式的演變優(yōu)化,智能座艙的功能和性能也得到顯著提升。智能座艙成為人類駕駛的“智能助手”。智能座艙通過多種傳感器感知外部環(huán)境、駕駛設(shè)備狀態(tài)、人員狀態(tài),實時采集并分析相關(guān)信息,進(jìn)而智能化地支持駕駛員的決策和操作,提高駕駛安全性和效率。同時,智能座艙還可以根據(jù)不同的使用者需求,個性化定制座艙的操控、顯示等界面,提供更好的使用體驗。
為了更好地了解國內(nèi)外智能座艙的研究進(jìn)展、探索未來研究空間,本研究借助可視化知識圖譜分析工具cite space及vos viewer對國內(nèi)外智能座艙的研究進(jìn)展、研究熱點與發(fā)展趨勢進(jìn)行分析梳理。
(一)CNKI數(shù)據(jù)庫文獻(xiàn)檢索來源
在CNKI數(shù)據(jù)庫中,先以“(人因 + 人機交互 + 智能)* 座艙”為主題進(jìn)行檢索,時間范圍為 2012年1月至2023年12月,剔除報紙、會議類文獻(xiàn)、科技成果及其他相關(guān)度較低的文獻(xiàn),共得到文獻(xiàn)195篇。使用CitespaceV6.1件對195篇文獻(xiàn)進(jìn)行知識圖譜繪制。將時間切片設(shè)置為1,節(jié)點類型為關(guān)鍵詞,并繪制關(guān)鍵詞聚類圖譜。
(二)外文數(shù)據(jù)庫文獻(xiàn)檢索來源
在Web of science 核心合集數(shù)據(jù)庫中以(((((TS=(human factors))OR TS=(human computer interaction))OR TS=(intelligent))OR TS=(smart)))AND TS=(cockpit)為主題檢索與智能座艙相關(guān)的研究文獻(xiàn),時間設(shè)置為2012年1月至2023年12月,篩選出文獻(xiàn)262篇,并使用VOS viewer 軟件對文獻(xiàn)進(jìn)行可視化分析,分析僅呈現(xiàn)關(guān)鍵詞詞頻復(fù)現(xiàn)5次及以上的關(guān)鍵詞。
(一)國內(nèi)研究現(xiàn)狀
通過對 CNKI 數(shù)據(jù)庫中智能座艙相關(guān)文獻(xiàn)關(guān)鍵詞進(jìn)行聚類分析與詞頻統(tǒng)計,選取詞頻排名前18的詞匯并繪制表 1。除了“智能座艙”“人機交互”“人機工效”之外,詞頻較高的詞匯主要集中在虛擬座艙、座艙顯示和交互方式等方面。
利用 CiteSpace 生成關(guān)鍵詞聚類后 制作關(guān)鍵詞時間線見圖1。關(guān)鍵詞聚類標(biāo)簽共7個,此聚類視圖 Q 值為 0.8263(Q值為模塊值,Q>0.3 時表示聚類結(jié)構(gòu)顯著),按照聚類標(biāo)簽順序每一聚類 S 值分別為 0.996、0.791、0.99、0.933、0.994、 0.994、0.982、0.994(S值 silhouette 為輪廓值,當(dāng) S>0.5 聚類結(jié)果較為可信)。
從聚類時間線圖譜中了解到當(dāng)前國內(nèi)的關(guān)注重點包括5個層面:
1.多模態(tài)交互形式:智能汽車座艙交互領(lǐng)域,隨著觸屏及語音交互的方式取代了煩瑣復(fù)雜的硬件按鈕操作,更為清晰的數(shù)字化屏幕也為信息顯示提供了更大的發(fā)展空間。未來的人車交互將是語音、手勢、觸摸、系統(tǒng)主動交互與傳統(tǒng)操作并存的多通道交互模式[1,2]。智能飛機座艙交互中,眼動、腦電、肌電等基于神經(jīng)生理傳感器的信息輸入方式也是國內(nèi)研究者所關(guān)注的熱點[3]。王崴等(2021)研究表明融合腦電和眼動信號的人機交互意圖識別方法,其識別準(zhǔn)確率高于單純依靠腦電或眼動數(shù)據(jù)的方法,為下一步飛行器人機交互系統(tǒng)自適應(yīng)設(shè)計提供了理論依據(jù)和技術(shù)支持[4]。
2.虛擬座艙技術(shù)應(yīng)用:國內(nèi)虛擬座艙技術(shù)2012年就已應(yīng)用于座艙設(shè)計研究中,主要用于飛行員的飛行訓(xùn)練,以提升飛行安全,為提高飛行訓(xùn)練的效果和效率。而隨著國內(nèi)座艙顯控硬件設(shè)備的發(fā)展,增強現(xiàn)實技術(shù)、虛擬現(xiàn)實技術(shù)現(xiàn)已經(jīng)廣泛應(yīng)用于真實任務(wù)情境的座艙智能顯示中,以提高駕駛員任務(wù)效率,減小認(rèn)知負(fù)荷。利用平視顯示器(HUD),多功能顯示器、頭盔顯示器(HMD)等先進(jìn)界面,實現(xiàn)信息的疊加實時顯示、高效輔助駕駛、減少操作失誤,減輕駕駛者認(rèn)知負(fù)荷成為研究熱點[5]。如曾偉明等(2022)基于VR頭顯、手勢識別設(shè)備等硬件環(huán)境的虛擬座艙系統(tǒng)集成,提出面向任務(wù)過程的虛擬座艙原型設(shè)計[6]。覃京燕等(2023)剖析 XR 擴(kuò)展現(xiàn)實 HMI 車機系統(tǒng)的交互設(shè)計特征,提出無人駕駛車元宇宙智能座艙的場景交互設(shè)計策略[7]。
3.界面感知設(shè)計:座艙界面在人機信息交流中起著重要作用,駕駛員通過視覺、聽覺和觸覺等感官獲取信息,其中視覺要素是座艙顯示界面信息的主要表征形式,占據(jù)了80%以上[8]。當(dāng)前,運用視覺感知理論、特征整合理論、認(rèn)知負(fù)荷理論等人機交互設(shè)計理論,圍繞不同的界面視覺顯示要素與認(rèn)知績效的關(guān)聯(lián)展開了眾多研究。視覺研究要素包括靜態(tài)視覺要素如圖符、界面布局、形狀表征、界面色彩[9]、風(fēng)格樣式等[10],動態(tài)視覺要素如界面動效類型等[11]。任宏等(2022)提取飛機座艙界面中的文字字體、標(biāo)記形式、符號形狀、字符顏色等4類要素,基于層次分析法建立小型飛機座艙界面信息元素辨識度評價體系[12]。除視覺通道的信息表征外,聽、觸覺等通道以及信息呈現(xiàn)與表征國內(nèi)學(xué)者也有少量研究。高嵐嵐等(2022)基于目標(biāo)選擇任務(wù)下的多通道反饋方式開展工效學(xué)實驗研究,結(jié)果表明視、聽覺反饋比無反饋的交互效果更好[13]。
4.人機工效評估:智能座艙的人機工效研究2015年以后受到越來越多學(xué)者重視。重點探究具體任務(wù)情境下,智能座艙設(shè)計對駕駛員生理及心理、行為各指標(biāo)的影響[14]。隨著座艙自動化成為一種設(shè)計趨勢,也產(chǎn)生了與之相應(yīng)的人因工效學(xué)問題。馬寧等(2022)通過基于熵的智能汽車人機交互任務(wù)復(fù)雜度測量方式得出界面不同任務(wù)及交互方式的用戶使用復(fù)雜度[15]。
5.交互體驗優(yōu)化:2019年以后,越來越多的學(xué)者深入研究如何人與座艙的情感、具身、自然等交互體驗。張茫茫(2019)從情感化的角度以NOMI智能車載機器人為例,論述了以自然交互為主的新交互形式的可能性[16]。郁淑聰(2022)提出將主觀指標(biāo)、車輛指標(biāo)、眼動指標(biāo)等多維度指標(biāo)結(jié)合的座艙交互體驗綜合評價模型,為針對駕駛的智能座艙交互體驗優(yōu)化提供了理論依據(jù)[17]。譚征宇等(2023)通過具身交互數(shù)據(jù)研究用戶需求,構(gòu)建智能座艙體驗需求洞察路徑,為智能座艙體驗設(shè)計提供創(chuàng)新方法路徑[18]。
(二)國外研究現(xiàn)狀
對 wos核心數(shù)據(jù)庫中智能座艙相關(guān)文獻(xiàn)關(guān)鍵詞進(jìn)行聚類分析與詞頻統(tǒng)計,選取詞頻排名前20的詞匯并繪制表 2。
圖 2將國外研究關(guān)鍵詞聚類為六類。聚類#1航空座艙智能交互與任務(wù)分析,聚類#2航空系統(tǒng)設(shè)計與飛行安全,聚類#3駕駛員與汽車交互,聚類#4增強現(xiàn)實技術(shù)和虛擬現(xiàn)實技術(shù),聚類#5駕駛員行為、心理特征與安全因素,聚類#6駕駛員狀態(tài)檢測與識別技術(shù)。
1.航空座艙交互與任務(wù)分析:實現(xiàn)航空座艙智能決策、智能操縱的技術(shù)基礎(chǔ)包括自動化技術(shù)、任務(wù)感知分析、眼動追蹤技術(shù)等。其中眼動追蹤技術(shù)是近兩年的熱點關(guān)鍵詞[19–23]。眼動追蹤技術(shù)可以提供諸如注視位置、持續(xù)時間、視覺掃描路徑等測量[24]。隨著數(shù)據(jù)準(zhǔn)確性的增強,除狀態(tài)監(jiān)測與狀態(tài)評估外,眼控技術(shù)也逐漸應(yīng)用在交互過程中,實現(xiàn)狀態(tài)識別、預(yù)測行為意圖等功能[25]。如Portes等(2022)介紹了一種可以高效捕捉駕駛員視線識別駕駛員的行為意圖的實時眼動追蹤技術(shù),該技術(shù)能在短時間內(nèi)提供有效反饋,從而可以改善駕駛體驗和安全性[26]。Schwerd(2020)提出了基于眼動追蹤和在線顯示分析的持續(xù)態(tài)勢感知(SA)評估方法,以使飛行輔助系統(tǒng)更好地適應(yīng)飛行員心理狀態(tài)[27]。
2.航空系統(tǒng)設(shè)計與飛行安全:航空系統(tǒng)設(shè)計與飛行安全的相關(guān)研究包括性能評估、仿真實驗、系統(tǒng)分類、駕駛模擬等。旨在評估預(yù)測飛行員在不同顯示界面和任務(wù)下的情境感知(SA)變化[28]。Blundell等(2020)探究了使用顏色編碼的HUD是否可以改善飛行員在高負(fù)荷任務(wù)下的認(rèn)知負(fù)荷問題[29]。Zhou等(2022)結(jié)合不同任務(wù)條件下的情境感知狀態(tài)、外圍視覺感知、凝視感知層次等維度評估飛行員情境感知,為未來實時情境感知評估方法提供了參考[30]。
3.智能汽車座艙交互體驗:隨著減少認(rèn)知負(fù)荷、提升安全舒適性的技術(shù)成果的不斷應(yīng)用。在智能汽車座艙領(lǐng)域,任務(wù)場景的研究趨向更多元化,人們對人機交互的期待不再僅停留在可用性層面[31]。Mitrevska等(2015)以一種情境適應(yīng)的多模態(tài)交互系統(tǒng)——SiAM為例,著重探討了駕駛艙中的多模態(tài)交互在汽車中扮演的重要角色。并闡述情境適應(yīng)技術(shù)的3種應(yīng)用場景,包括:多模態(tài)控制汽車功能、駕駛員狀態(tài)感知以及根據(jù)駕駛員出行需求和環(huán)境情況提供個性化交通建議的多模態(tài)交通助手等。
4.增強現(xiàn)實及虛擬現(xiàn)實技術(shù):虛擬現(xiàn)實技術(shù)作為頭盔顯示器、平視顯示器等的技術(shù)基礎(chǔ),近兩年為眾多國外學(xué)者所關(guān)注。Pascale等(2018)通過持續(xù)感知任務(wù)得出了單目頭戴顯示器(HWD)在外圍區(qū)域使用高對比度刺激可以提升注意力捕捉能力,增強周邊視覺刺激[32]。除視覺交互要素外,聽、觸覺要素也逐漸成為提升虛擬體驗的重要交互形式。Binetti等(2021)測試了使用視覺線索(比如虛擬箭頭指示)和聽覺線索(比如聲音提示)來定位頭戴增強現(xiàn)實中視野之外的物體效果。結(jié)果表明視覺線索和聽覺線索的組合能夠進(jìn)一步提高用戶的物體定位準(zhǔn)確性[41]。
5.駕駛員行為及心理特征:有效的決策支持系統(tǒng)需要以人為中心,這一聚類主要關(guān)注于駕駛員行為及特征識別的機理層面,相關(guān)的研究方向包括駕駛員的認(rèn)知特征、情感情緒狀態(tài)、駕駛行為分析等[33]。情緒情感角度,Li等(2023)從情緒維度方法和離散情緒方法的角度評估了其在駕駛過程中的情緒反應(yīng),結(jié)果表明,動態(tài)駕駛和靜態(tài)生活情境下的面部表情存在顯著差異[34]。行為、生理及心理指標(biāo)角度,Qin等(2021)研究了心率變異性和眼動指標(biāo)融合與精神疲勞之間的關(guān)聯(lián)性。驗證結(jié)果表明該方法對確定長時間飛行任務(wù)的精神疲勞的有效性[35]。
6.狀態(tài)檢測與識別技術(shù):疲勞駕駛與注意力監(jiān)測是駕駛員狀態(tài)檢測與識別的關(guān)注熱點。相關(guān)的技術(shù)研究包括機器學(xué)習(xí)、深度學(xué)習(xí)、計算機視覺等。評估內(nèi)容包括不同場景、不同任務(wù)下的心理認(rèn)知、行為等負(fù)荷水平、并提出干預(yù)措施、建立生理監(jiān)測模型,以優(yōu)化人機協(xié)同中的信息管理及決策輔助。如Melnicuk(2021)使用心率變EWuAGzVucGMd+mL/kAQngQ==異性及任務(wù)績效監(jiān)測任務(wù)負(fù)荷,并探討了認(rèn)知負(fù)荷對駕駛者生理及駕駛狀態(tài)的影響[19]。依托于人工智能、XR(VR、AR、MR)、多通道交互等技術(shù)的發(fā)展、技術(shù)水平的提高,一些學(xué)者提出并建立多通道非侵入生理監(jiān)測模型,以提升預(yù)測用戶行為意圖的準(zhǔn)確性,實現(xiàn)主動適時的感知交互,幫助研究人員更準(zhǔn)確測量和預(yù)測個體用戶的心理負(fù)荷水平[36]。
(三)國內(nèi)外研究現(xiàn)狀對比分析
1.國內(nèi)外智能座艙人因工效評估:國內(nèi)外智能座艙人因工效評估內(nèi)容包括3個方面:駕駛員神經(jīng)認(rèn)知機理研究,不同任務(wù)情境下駕駛員的工作負(fù)荷評估、座艙界面設(shè)計工效學(xué)評估。國內(nèi)相關(guān)研究偏向于從整體視角出發(fā)探究座艙界面系統(tǒng),并主要集中在視覺要素的信息有效性方面。但較少聚焦在特定指標(biāo)或任務(wù)情境上,并且對于聽覺和觸覺通道層面的界面信息表征研究較少。國外研究更注重于仿真實驗、性能評估等實證研究方法,對于不同任務(wù)情境因素對人的影響研究更為深入細(xì)致,基于眼動、腦電、心電等神經(jīng)傳感器以單一或組合的形式展開了人因量化評估??傮w而言:①國外智能座艙人因工效研究更為成熟,智能座艙研究學(xué)科領(lǐng)域交叉更為深入,因此更能體現(xiàn)該領(lǐng)域智能座艙技術(shù)前沿性。②智能座艙是當(dāng)前國內(nèi)汽車、航空航天等領(lǐng)域的飛速上升的浪潮,在技術(shù)、市場、政策的加持下,必然有著廣闊前景,在此基礎(chǔ)上人因工效評估也會同步開展,為構(gòu)建更全面的優(yōu)化機制及協(xié)同交互模式提供科學(xué)指導(dǎo)。
2.座艙智能感知與控制技術(shù)整合:隨著操作員在高度計算機化的環(huán)境中面臨的任務(wù)復(fù)雜性不斷增加,利用神經(jīng)生理傳感器定量測量和預(yù)測個人用戶經(jīng)歷的心理負(fù)荷水平的研究更為廣泛。國內(nèi)的研究主要集中在傳感器的研發(fā)和應(yīng)用方面,比如利用眼動追蹤技術(shù)、腦電技術(shù)等神經(jīng)生理傳感器來實現(xiàn)對駕駛員的心理負(fù)荷、疲勞狀態(tài)、注意力水平等指標(biāo)的監(jiān)測和識別。也有一些研究關(guān)注基于計算機視覺和深度學(xué)習(xí)技術(shù)的駕駛員行為分析和識別,如手勢識別、姿態(tài)識別等。而國外的研究則更注重在將多種傳感器技術(shù)進(jìn)行整合,提高感知識別的準(zhǔn)確率。且注重將感知識別與駕駛行為決策相結(jié)合,通過融合視覺、語音、肢體動作等多種傳感器實現(xiàn)對駕駛員行為的動態(tài)分析和預(yù)測。
總體而言,國內(nèi)外的研究都在致力于提高智能座艙感知識別的準(zhǔn)確率和可靠性,但是國外的研究更加注重技術(shù)整合和綜合應(yīng)用,將感知識別和智能決策相結(jié)合,以實現(xiàn)更高水平的智能駕駛。
(一)人機深度協(xié)同交互模式
人機深度協(xié)同交互是加強智能座艙技術(shù)應(yīng)用的目標(biāo)導(dǎo)向。隨著人工智能機器學(xué)習(xí)等智能座艙系統(tǒng)技術(shù)的不斷發(fā)展升級,未來的研究將聚焦于如何進(jìn)一步提升智能座艙系統(tǒng)對駕駛員意圖和需求的理解能力,以實現(xiàn)更高效的深度人機協(xié)同交互。在深度協(xié)同交互模式下,人機雙方不僅僅是信息傳輸和指令執(zhí)行的關(guān)系,而是通過人機學(xué)習(xí)和自適應(yīng),助力座艙更好地理解駕駛者意圖和需求,從而實現(xiàn)更高效的協(xié)同工作效率。
在上述研究目標(biāo)驅(qū)動下,智能輔助系統(tǒng)逐漸成為實現(xiàn)人機協(xié)同交互的重要角色。作為飛行員決策的有效補充,智能輔助系統(tǒng)可以通過識別人類的語音、姿勢、情感和生理特征等多種信息,更準(zhǔn)確地理解人類的意圖,從而更好地協(xié)助人類完成任務(wù)。如飛行過程中需要調(diào)整飛機的航向和高度。傳統(tǒng)的方式可能需要飛行員通過復(fù)雜的按鈕和控制桿來操作,但在智能輔助系統(tǒng)可以通過識別飛行員的手勢、眼動、語音指令來實現(xiàn)這一操作,從而大大簡化了操作流程,提高操作的效率。
除此之外,智能輔助系統(tǒng)可以根據(jù)駕駛者的反饋結(jié)果不斷優(yōu)化自身的算法和決策模型,從而更好地適應(yīng)駕駛者的工作習(xí)慣和行為模式,提供符合駕駛者偏好習(xí)慣的建議指導(dǎo),使得飛行員更容易接受并使用智能輔助系統(tǒng),提高系統(tǒng)的適用性。
(二)多模態(tài)融合人機交互方法
多通道融合是優(yōu)化智能座艙交互模式的重要趨勢。利用多通道融合人機交互方式,駕駛員將可以通過更加自然、直觀的交互方式與設(shè)備進(jìn)行溝通和控制,同時也可以更有效感知理解駕駛設(shè)備和駕駛環(huán)境的相關(guān)信息。
在多通道輸入操縱層面,傳統(tǒng)的駕駛員與飛機之間的交互主要依靠物理按鈕、旋鈕、開關(guān)等方式實現(xiàn),而這些方式不夠直觀自然,需要駕駛員進(jìn)行復(fù)雜的學(xué)習(xí)和訓(xùn)練才能夠掌握,容易讓駕駛員產(chǎn)生操作錯誤。而多通道融合人機交互方式則能夠減輕駕駛員的工作負(fù)荷,提高任務(wù)操作的效率和準(zhǔn)確性,增強人性化體驗。
在多通道輸出感知層面。智能座艙可以以多通道的形式呈現(xiàn)環(huán)境信息,提高駕駛員的信息感知能力和信息識別準(zhǔn)確性,從而更有效地傳達(dá)信息給駕駛員,減輕駕駛員在單一通道認(rèn)知上的負(fù)荷。
尤其是隨著虛擬座艙、自動駕駛等交互場景的需求升級,采用多維度交互方式成為增強駕駛員在虛擬座艙中的沉浸感、情境感知能力以及提升駕駛安全性的重要手段。因此,未來研究熱點將包括基于虛擬增強現(xiàn)實顯示器的多通道交互模式優(yōu)化、利用多通道交互減小自動駕駛場景下駕駛員注意力分散的問題及增強特殊駕駛場景下的態(tài)勢感知等議題。
1.針對虛擬增強現(xiàn)實顯示器,通過優(yōu)化多通道交互模式,能夠提高駕駛員在虛擬座艙中的沉浸感和情境感知能力。結(jié)合視覺、聽覺、觸覺等多種感知通道,使駕駛員能夠更直觀、全面地感知駕駛環(huán)境,并更準(zhǔn)確作出反應(yīng)。2.針對自動駕駛場景下駕駛員注意力分散的問題,通過優(yōu)化多通道交互模式,為駕駛員提供更有效的界面感知和交互方式,以減輕駕駛員的認(rèn)知負(fù)荷和注意力問題,及時引導(dǎo)駕駛員注意力,提高自動駕駛態(tài)勢感知及安全性。3.針對特殊駕駛場景如長時間駕駛或夜間駕駛等,探究多通道感知的應(yīng)用是否能夠輔助界面認(rèn)知,幫助駕駛員更好地適應(yīng)駕駛?cè)蝿?wù)情境。
(三)任務(wù)-認(rèn)知關(guān)聯(lián)的交互信息表征
任務(wù)與認(rèn)知高度關(guān)聯(lián)的交互信息表征是提升智能座艙的人機交互效率的關(guān)鍵。智能座艙任務(wù)情境的復(fù)雜多樣性為駕駛員提出了多方面的認(rèn)知挑戰(zhàn)。界面任務(wù)交互類型包括目標(biāo)搜索任務(wù)、目標(biāo)選擇任務(wù)、警示提醒任務(wù)、通信導(dǎo)航任務(wù)等,而駕駛?cè)蝿?wù)情境涵蓋了夜間、惡劣天氣、復(fù)雜空域、惡劣地形等多種挑戰(zhàn)性環(huán)境。
在這些任務(wù)情境下,駕駛員的認(rèn)知需求和所面臨認(rèn)知負(fù)荷各不相同,涉及注意力、工作記憶、語義理解等多個認(rèn)知維度。相關(guān)研究表明,不同任務(wù)屬性的認(rèn)知需求導(dǎo)向性存在差異。因此,深入探究駕駛者在不同任務(wù)情境中的認(rèn)知特性,以及明確智能座艙中不同任務(wù)情境下的駕駛員認(rèn)知需求,對于優(yōu)化座艙交互信息、提升駕駛工作效率和任務(wù)準(zhǔn)確率,以及減輕駕駛員的任務(wù)負(fù)荷至關(guān)重要。構(gòu)建與任務(wù)關(guān)聯(lián)的認(rèn)知需求洞察路徑將成為后續(xù)的研究熱點,要達(dá)成這一目標(biāo),研究者需建立系統(tǒng)的任務(wù)復(fù)雜度與任務(wù)情境屬性評估體系,并能夠利用多模態(tài)生理指標(biāo)實現(xiàn)不同任務(wù)情境下認(rèn)知機理的準(zhǔn)確分析,從而為智能座艙界面信息表征優(yōu)化提供更有效的科學(xué)指導(dǎo)。
綜合國內(nèi)外文獻(xiàn)研究,基于文獻(xiàn)可視化探討了智能座艙人機交互模式及人因工效的發(fā)展現(xiàn)狀及趨勢熱點。通過分析當(dāng)前的研究現(xiàn)狀,表明國內(nèi)針對智能駕駛的決策感知優(yōu)化以及真實任務(wù)情境下的智能座艙人機交互實證研究層面需要進(jìn)一步深入,本文從人機協(xié)同智能交互技術(shù)、任務(wù)情境要素、人機交互界面信息表征、駕駛員認(rèn)知機理及人因監(jiān)測手段等方面梳理了智能座艙人機交互模式的發(fā)展導(dǎo)向。未來智能座艙人機交互模式的研究,需要從多維度、多層次的信息處理角度出發(fā),構(gòu)建具有自適應(yīng)、智能化、個性化特征的交互模式,以更好地滿足人機深度協(xié)同交互需求、提升智能座艙駕駛安全性、交互效率與體驗。
基金項目:江蘇省研究生科研創(chuàng)新項目(項目編號 KYCX23_1106)《智能終端界面視聽協(xié)同交互機制研究》
參考文獻(xiàn)
[1]張茫茫. 面對未來的汽車情感化交互體驗研究[J]. 包裝工程,2019,40(02):11-16.
[2]沈擎陽,薛澄岐,牛亞峰. 基于ERP的人機交互界面設(shè)計方法研究[J]. 設(shè)計,2018(06):134-135.
[3]蔣貴虎,劉仲,王亞卓. 基于眼動的戰(zhàn)機座艙人機交互方法[J]. 飛機設(shè)計,2022,42(03):11-14+19.
[4]王崴,趙敏睿,高虹霓,等. 基于腦電和眼動信號的人機交互意圖識別[J]. 航空學(xué)報,2021,42(2):292-302.
[5]傅亞強,許百華. 機載頭盔顯示器符號系統(tǒng)評價的原則與方法綜述[J]. 航天醫(yī)學(xué)與醫(yī)學(xué)工程,2013,26(5):415-419.
[6]曾偉明,繆遠(yuǎn)東,梁帆. 面向任務(wù)過程的虛擬現(xiàn)實仿真座艙設(shè)計與實現(xiàn)[J]. 指揮與控制學(xué)報,2022,8(03):318-324.
[7]覃京燕,何嘉聰. 無人駕駛車元宇宙智能座艙的場景交互設(shè)計研究[J]. 包裝工程,2023,44(18):67-76.
[8]崔衛(wèi)民,薛紅軍,宋筆鋒. 飛機駕駛艙設(shè)計中的人因工程問題[J]. 南華大學(xué)學(xué)報(理工版),2002(1):63-66.
[9]李晶,薛澄岐. 基于視覺感知分層的數(shù)字界面顏色編碼研究[J]. 機械工程學(xué)報,2016,52(24):201-208.
[10]邵將. 基于視覺認(rèn)知理論的頭盔顯示界面信息編碼方法研究[D]. 東南大學(xué),2016.
[11]劉余凱. 基于視覺力的智能汽車交互界面中的動效設(shè)計研究[D]. 安徽工業(yè)大學(xué),2021.
[12]任宏,劉玉雪,鄒媛媛,等. 基于AHP的小型飛機座艙界面信息元素設(shè)計研究[J]. 包裝工程,2022,43(10):232-238.
[13]高嵐嵐,紀(jì)坤,李冰,等. 多通道信息反饋方式對目標(biāo)選擇任務(wù)影響的實驗研究[J]. 信息工程大學(xué)學(xué)報,2022,23(3):326-330.
[14]吳曉莉,薛澄岐,Tom G,等. 數(shù)字化監(jiān)控任務(wù)界面中信息特征的視覺搜索實驗[J]. 東南大學(xué)學(xué)報(自然科學(xué)版),2018,48(5):807-814.
[15]馬寧,王亞輝. 智能汽車座艙人機交互任務(wù)復(fù)雜度分析方法[J]. 圖學(xué)學(xué)報,2022,43(02):356-360.
[16]張茫茫. 面對未來的汽車情感化交互體驗研究[J]. 包裝工程,2019,40(02):11-16.
[17]郁淑聰,孟健,郝斌. 基于駕駛員的智能座艙人機工效測評研究[J]. 汽車工程,2022,44(01):36-43.
[18]譚征宇,張瑞佛,金奕. 全身交互視域下的智能座艙體驗需求洞察[J]. 裝飾,2023(8):18-24.
[19]Sun X,Chen H,Shi J,et al. Effect of cognitive load on drivers’ State and task performance during automated driving:Introducing a novel method for determining stabilisation time following take-over of control[J]. Accident Analysis & Prevention,2021,151:105967.
[20]Naeeri S,Kang Z,Mandal S,et al. Multimodal Analysis of Eye Movements and Fatigue in a Simulated Glass Cockpit Environment[J]. Aerospace,2021,8(10):283.
[21]Diaz-Piedra C,Rieiro H,Suárez J,et al. Fatigue in the military:towards a fatigue detection test based on the saccadic velocity[J]. Physiological Measurement,2016,37(9):N62.
[22]Yang J,Xing S,Qiu R,et al. Effects of long and short simulated flights on the saccadic eye movement velocity of aviators[J]. Physiology & Behavior,2016,153:91-96.
[23]Matthews G,Reinerman-Jones L,Abich J,et al. Metrics for individual differences in EEG response to cognitive workload:Optimizing performance prediction[J]. Bio-Medical Materials and Engineering,2017,118:22-28.
[24]B. N. P K,Balasubramanyam A,Patil A K,et al. GazeGuide:An Eye-Gaze-Guided Active Immersive UAV Camera[J]. Applied Sciences,2020,10(5):1668.
[25]Wang J,Xu J,Chen T,et al. Wearable human-machine interface based on the self-healing strain sensors array for control interface of unmanned aerial vehicle[J]. Sensors and Actuators A:Physical,2021,321:112583.
[26]Portes Q,Pinquier J,Lerasle F,et al. Real time eye gaze tracking for human machine interaction in the cockpit[C]//AI and Optical Data Sciences III:Vol. 12019. SPIE,2022:24-33.
[27]Schwerd S,Schulte A. Experimental Validation of an Eye-Tracking-Based Computational Method for Continuous Situation Awareness Assessment in an Aircraft Cockpit[C]//Harris D,Li W C. Engineering Psychology and Cognitive Ergonomics. Cognition and Design. Cham:Springer International Publishing,2020:412-425.
[28]Naddeo A,Cappetti N,D’Oria C,et al. Modeling the situation awareness by the analysis of cognitive process[J]. Bio-Medical Materials and Engineering,2014,24(6):2311-2318.
[29]Blundell J,Scott S,Harris D,et al. Workload benefits of colour coded head-up flight symbology during high workload flight[J]. Displays,2020,65:101973.
[30]Zhou H,Lu Y,F(xiàn)u S. The Assessment of Aviation Situation Awareness Based on Objective Behavior Methods[M]//Harris D,Li W C. Engineering Psychology and Cognitive Ergonomics:Vol. 13307. Cham:Springer International Publishing,2022:488-504.
[31]Yang J,Xing S,Chen Y,et al. An Evaluation Model for the Comfort of Vehicle Intelligent Cockpits Based on Passenger Experience[J]. Sustainability,2022,14(11):6827.
[32]Pascale M T,Sanderson P,Liu D,et al. Detection of visual stimuli on monocular peripheral headworn displays[J]. Accident Analysis & Prevention,2018,73:167-173.
[33]Kearney P,Li W C,Yu C S,et al. The impact of alerting designs on air traffic controller’s eye movement patterns and situation awareness[J]. Ergonomics,2019,62(2):305-318.
[34]Li W,Cui Y,Ma Y,et al. A Spontaneous Driver Emotion Facial Expression(DEFE)Dataset for Intelligent Vehicles:Emotions Triggered by Video-Audio Clips in Driving Scenarios[J]. IEEE Transactions on Affective Computing,2023,14(1):747-760.
[35]Qin H,Zhou X,Ou X,et al. Detection of mental fatigue state using heart rate variability and eye metrics during simulated flight[J]. Human Factors and Ergonomics in Manufacturing & Service Industries,2021,31(6):637-651.
[36]Hoover A,Singh A,F(xiàn)ishel-Brown S,et al. Real-time detection of workload changes using heart rate variability[J]. Biomedical Signal Processing and Control,2012,7(4):333-341.