路穎曉 戴偉輝
摘要:進(jìn)入21世紀(jì)以來(lái),現(xiàn)代移動(dòng)互聯(lián)網(wǎng)的快速發(fā)展和社會(huì)化學(xué)習(xí)媒體的不斷涌現(xiàn),現(xiàn)代遠(yuǎn)程教育的環(huán)境發(fā)生了深刻變化。泛在學(xué)習(xí)方式使得學(xué)習(xí)過(guò)程轉(zhuǎn)變?yōu)閷W(xué)習(xí)者基于其自身需求對(duì)知識(shí)的個(gè)性化自主建構(gòu)過(guò)程。大量研究表明,泛在學(xué)習(xí)環(huán)境下學(xué)習(xí)者的個(gè)性化基礎(chǔ)差異、海量學(xué)習(xí)資源的搜索與匹配困難以及時(shí)間、地點(diǎn)、環(huán)境等情境因素,已成為影響學(xué)習(xí)主動(dòng)性和學(xué)習(xí)效率的主要原因,甚至使得學(xué)習(xí)者產(chǎn)生焦慮情緒。因此對(duì)泛在學(xué)習(xí)環(huán)境下的學(xué)習(xí)者情感體驗(yàn)及其影響因素進(jìn)行實(shí)時(shí)監(jiān)測(cè),為學(xué)習(xí)者提供個(gè)性化、智能化的學(xué)習(xí)策略及精準(zhǔn)的學(xué)習(xí)資源推薦,已成為亟待解決的關(guān)鍵問(wèn)題。認(rèn)知神經(jīng)科學(xué)的研究成果表明,人類(lèi)的情感是在腦機(jī)制作用下一系列神經(jīng)活動(dòng)的結(jié)果。在人工智能領(lǐng)域,情感智能一般指通過(guò)機(jī)器感知人類(lèi)的情感狀態(tài)并主動(dòng)調(diào)節(jié)自身的行為,為人類(lèi)帶來(lái)愉悅的情感體驗(yàn)。計(jì)算機(jī)能夠感知人類(lèi)的情感需求并作出人性化的反應(yīng)。因此,結(jié)合神經(jīng)科學(xué)與人工智能技術(shù)的前沿知識(shí),對(duì)泛在學(xué)習(xí)環(huán)境下的學(xué)習(xí)者情感神經(jīng)機(jī)制及其表達(dá)特征進(jìn)行深入分析,給出情感信息的實(shí)時(shí)監(jiān)測(cè)、識(shí)別方法,并闡述情感智能的實(shí)現(xiàn)方法及其仿腦機(jī)制,為泛在學(xué)習(xí)環(huán)境下的情感教學(xué)提供智能化手段。
關(guān)鍵詞:人工智能;泛在學(xué)習(xí);情感智能;仿腦機(jī)理;智慧教學(xué)
中圖分類(lèi)號(hào):G434 文獻(xiàn)標(biāo)識(shí)碼:A 文章編號(hào):1009-5195(2018)02-0039-06 doi10.3969/j.issn.1009-5195.2018.02.005
一、引言
20世紀(jì)90年代以來(lái),隨著互聯(lián)網(wǎng)的發(fā)展和多媒體技術(shù)的興起,遠(yuǎn)程教育(Distance Education)作為一種現(xiàn)代教育的新模式,在面向社會(huì)、農(nóng)村偏遠(yuǎn)地區(qū)和發(fā)展中國(guó)家的全球教育體系中發(fā)揮了重要作用(Moore et al.,2005)。1999年1月13日,我國(guó)教育部制定的《面向21世紀(jì)教育振興行動(dòng)計(jì)劃》獲得國(guó)務(wù)院批準(zhǔn),正式提出“實(shí)施現(xiàn)代遠(yuǎn)程教育工程,形成開(kāi)放式教育網(wǎng)絡(luò),構(gòu)建終身學(xué)習(xí)體系”,開(kāi)啟了我國(guó)遠(yuǎn)程教育的發(fā)展之路(南國(guó)農(nóng),2005)。
進(jìn)入21世紀(jì)以來(lái),隨著現(xiàn)代移動(dòng)互聯(lián)網(wǎng)的快速發(fā)展和各類(lèi)社會(huì)化學(xué)習(xí)媒體的不斷涌現(xiàn),現(xiàn)代遠(yuǎn)程教育的環(huán)境發(fā)生了深刻變化。學(xué)習(xí)者可以隨時(shí)、隨地通過(guò)移動(dòng)終端訪(fǎng)問(wèn)教學(xué)資源,在開(kāi)放式的學(xué)習(xí)共同體中進(jìn)行交流互動(dòng),實(shí)現(xiàn)無(wú)縫學(xué)習(xí)(Saleh,et al.,2015;Cárdenas-Robledo et al.,2018)。這種泛在學(xué)習(xí)(Ubiquitous Learning,U-Learning)方式,使得學(xué)習(xí)過(guò)程轉(zhuǎn)變?yōu)橐詫W(xué)習(xí)者為中心、基于其自身需求對(duì)知識(shí)的個(gè)性化自主建構(gòu)過(guò)程(Cárdenas-Robledo et al.,2018; Guabassi et al.,2018)。大量研究表明,泛在學(xué)習(xí)環(huán)境下學(xué)習(xí)者的個(gè)性化基礎(chǔ)差異、海量學(xué)習(xí)資源的搜索與匹配困難以及時(shí)間、地點(diǎn)、環(huán)境等情境因素,已成為影響上述學(xué)習(xí)主動(dòng)性和學(xué)習(xí)效率的主要原因,甚至使得學(xué)習(xí)者產(chǎn)生焦慮情緒(Zhou et al., 2015;Pozdnyakova et al.,2017;Guabassi et al.,2018)。上述影響會(huì)在學(xué)習(xí)者的情感體驗(yàn)中得到綜合反映,因此,運(yùn)用情感智能技術(shù)解決泛在學(xué)習(xí)中的問(wèn)題具有重要意義(Dai et al.,2014; Samigulina,2016)。
人類(lèi)的情感是在腦機(jī)制作用下一系列神經(jīng)活動(dòng)的結(jié)果(Davidson et al.,2000),以上過(guò)程由人類(lèi)大腦的情感與記憶回路所控制,并在相應(yīng)的腦功能區(qū)將產(chǎn)生一定的生理激活反應(yīng)(Horlings,2008),進(jìn)而通過(guò)神經(jīng)調(diào)控機(jī)制可引發(fā)人體外周生理信號(hào)(如腦電、皮膚電、心電、呼吸、體溫等)及外部表現(xiàn)(如語(yǔ)音、表情、姿態(tài)、動(dòng)作等)的一系列變化,通過(guò)對(duì)這些變化的觀(guān)測(cè)可以識(shí)別、計(jì)算人類(lèi)的情感狀態(tài)。1990年,耶魯大學(xué)心理系的Salovey和新罕布什爾大學(xué)的Mayer提出了“情感智能”(Emotional Intelligence,EI)的概念,將其定義為一種社會(huì)智能,包括監(jiān)督自己和他人情緒的能力、區(qū)分自己和他人情緒的能力,以及運(yùn)用情緒信息去指導(dǎo)思維和行動(dòng)的能力(Salovery et al.,1990)。在人工智能領(lǐng)域,情感智能一般指通過(guò)機(jī)器感知人類(lèi)的情感狀態(tài)并主動(dòng)調(diào)節(jié)自身的行為,為人類(lèi)帶來(lái)愉悅的情感體驗(yàn)。1997年,美國(guó)麻省理工學(xué)院的Picard出版了著名的《情感計(jì)算》(Affective Computing)一書(shū)(Picard,1997),闡述了人類(lèi)的情感信息能夠在一定程度上被計(jì)算機(jī)所獲取、處理、計(jì)算和表達(dá),從而使得計(jì)算機(jī)能夠感知人類(lèi)的情感需求并作出人性化的反應(yīng),為人類(lèi)提供具有理性智能與情感智能相結(jié)合的智慧服務(wù)(戴偉輝,2012)。
本文將在已有研究成果的基礎(chǔ)上(Zhou et al.,2015;Dai et al.,2014),從泛在學(xué)習(xí)者的情感神經(jīng)機(jī)制出發(fā),對(duì)其情感表達(dá)特征、情感特征畫(huà)像進(jìn)行分析闡述,研究在上述環(huán)境下的情感信息監(jiān)測(cè)采集與識(shí)別、情感智能及其仿腦機(jī)理,為泛在學(xué)習(xí)環(huán)境下的情感教學(xué)提供先進(jìn)的智能化手段。
二、學(xué)習(xí)者的情感神經(jīng)機(jī)制與情感特征
1.學(xué)習(xí)者的情感神經(jīng)機(jī)制
情感是人類(lèi)重要的心理活動(dòng),由來(lái)自外部或身體內(nèi)部的特定情景所產(chǎn)生的刺激信號(hào)通過(guò)各種感覺(jué)器官和感覺(jué)通路傳入到大腦邊緣系統(tǒng)及各級(jí)中樞,并激發(fā)相應(yīng)的腦功能活動(dòng),進(jìn)而在神經(jīng)調(diào)控機(jī)制下引發(fā)人體一系列生理反應(yīng)。這些反應(yīng)通過(guò)神經(jīng)感覺(jué)通路的反饋在腦結(jié)構(gòu)中聚合,形成對(duì)情感變化的主觀(guān)體驗(yàn)。在人類(lèi)對(duì)情感信息處理的神經(jīng)機(jī)制方面,已經(jīng)形成了大量的研究成果。這些研究主要是針對(duì)某類(lèi)特定的情感展開(kāi)的,例如,Armony等人(1997)對(duì)恐懼信息的腦處理過(guò)程進(jìn)行了分析。關(guān)于泛在學(xué)習(xí)環(huán)境下的學(xué)習(xí)者情感神經(jīng)機(jī)制,Huang等人(2015)從網(wǎng)絡(luò)情感符號(hào)分類(lèi)的角度給出了如圖1所示的基本框圖:
圖1 泛在學(xué)習(xí)者的情感神經(jīng)機(jī)制
圖1中將網(wǎng)絡(luò)情感信息劃分為動(dòng)作符號(hào)、語(yǔ)音符號(hào)、結(jié)構(gòu)符號(hào)、色彩符號(hào)、圖形符號(hào)、文本符號(hào)六大類(lèi),認(rèn)為每類(lèi)符號(hào)均通過(guò)某種方式的編碼和約定俗成的規(guī)則傳達(dá)了一定的情感信息(Huang et al.,2015)。在對(duì)上述符號(hào)的認(rèn)知過(guò)程中,動(dòng)作、結(jié)構(gòu)、色彩、圖形等具有表象特征的符號(hào)信息占用時(shí)間資源較少,能夠引發(fā)快速的第一性情感反應(yīng),被稱(chēng)之為第一性情感信息。而與語(yǔ)義密切相關(guān)的文本符號(hào)信息占用時(shí)間資源相對(duì)較多,須經(jīng)過(guò)大腦高級(jí)皮層認(rèn)知后才能產(chǎn)生相對(duì)慢速的第二性情感反應(yīng),稱(chēng)其為第二性情感信息。語(yǔ)音符號(hào)信息既包含具有豐富情感的表象信息,也包含了其語(yǔ)義內(nèi)容信息,同時(shí)具有第一性和第二性情感信息的特征。
在泛在學(xué)習(xí)過(guò)程中,情感信息通過(guò)學(xué)習(xí)者的感覺(jué)通路首先傳遞到其大腦邊緣系統(tǒng),產(chǎn)生第一性情感反應(yīng),繼而通過(guò)大腦高級(jí)皮層的認(rèn)知活動(dòng)形成第二性情感反應(yīng)。這些情感所產(chǎn)生的人體生理反應(yīng)被大腦進(jìn)一步感知,產(chǎn)生特定的情感體驗(yàn),并由此形成了被大腦所記憶的特定情感符號(hào)規(guī)則系統(tǒng)。大腦高級(jí)皮層對(duì)上述信息在感覺(jué)通路中的傳遞具有選擇性關(guān)注調(diào)節(jié)作用,對(duì)視覺(jué)、聽(tīng)覺(jué)和時(shí)間資源的分配進(jìn)行自主調(diào)控。在泛在學(xué)習(xí)環(huán)境下,不同的題材、情景、人物、視覺(jué)、語(yǔ)音和評(píng)價(jià)都會(huì)對(duì)學(xué)習(xí)者的情感產(chǎn)生變化。其中,熟悉的學(xué)習(xí)伙伴、具有吸引力的情景氛圍、優(yōu)美的視覺(jué)效果、清晰動(dòng)聽(tīng)的語(yǔ)音、適合于學(xué)習(xí)者的題材內(nèi)容和對(duì)學(xué)習(xí)者的正面評(píng)價(jià)是激發(fā)學(xué)習(xí)者學(xué)習(xí)興趣及愉悅情感體驗(yàn)最重要的影響因素(Dai et al.,2014)。在這些因素中,與人物信息、情景氛圍、音視特色等相關(guān)的表象信息能夠引發(fā)大腦邊緣系統(tǒng)快速的第一性情感反應(yīng),而與題材內(nèi)容、學(xué)習(xí)評(píng)價(jià)有關(guān)的信息須經(jīng)過(guò)大腦高級(jí)皮層的語(yǔ)義認(rèn)知以后,才能產(chǎn)生相對(duì)慢速但較為持久的第二性情感反應(yīng)。
情感神經(jīng)機(jī)制模型對(duì)于泛在學(xué)習(xí)環(huán)境下的教學(xué)指導(dǎo)意義在于:(1)在六大類(lèi)符號(hào)中,動(dòng)作符號(hào)、語(yǔ)音符號(hào)、色彩符號(hào)引發(fā)的關(guān)注反應(yīng)最快,而對(duì)其他符號(hào)的關(guān)注反應(yīng)相對(duì)較慢。語(yǔ)音符號(hào)具有語(yǔ)音、語(yǔ)義兩方面的特征,對(duì)前者的關(guān)注反應(yīng)較快。因此,泛在學(xué)習(xí)系統(tǒng)中應(yīng)考慮到以上反應(yīng)特性,對(duì)教學(xué)策略、課件制作以及人機(jī)交互進(jìn)行優(yōu)化設(shè)計(jì)。(2)通過(guò)傳達(dá)熟悉的學(xué)習(xí)伙伴信息、營(yíng)造具有吸引力的情景氛圍、設(shè)計(jì)特色音視覺(jué)效果來(lái)激發(fā)學(xué)習(xí)者直覺(jué)的第一性情感反應(yīng)。為學(xué)習(xí)者提供適合于其動(dòng)機(jī)、需求及學(xué)習(xí)基礎(chǔ)的題材內(nèi)容,并及時(shí)給予學(xué)習(xí)者正面的評(píng)價(jià),形成良好的第二性情感反應(yīng)。(3)學(xué)習(xí)者經(jīng)過(guò)情感認(rèn)知體驗(yàn)所形成的情感符號(hào)規(guī)則系統(tǒng)對(duì)后續(xù)學(xué)習(xí)的影響非常大,在其前期學(xué)習(xí)階段形成良好的情感體驗(yàn)至關(guān)重要。不同學(xué)習(xí)者對(duì)六類(lèi)符號(hào)的關(guān)注敏感性及理解、認(rèn)知能力存在著較大差異,要考慮到學(xué)習(xí)者的個(gè)性化差異特征。
2.學(xué)習(xí)者情感信息的獲取
人類(lèi)的情感變化除了在特定的腦功能區(qū)產(chǎn)生相應(yīng)的激活信號(hào)以外,還會(huì)通過(guò)神經(jīng)調(diào)控機(jī)制引發(fā)其外周生理信號(hào)和外部表現(xiàn)的變化,并可能在其后續(xù)有意識(shí)的行為中表達(dá)出來(lái),如圖2所示(戴偉輝,2012):
因此,對(duì)上述情感信息的獲取方式可以通過(guò)自我報(bào)告、f-MRI等神經(jīng)實(shí)驗(yàn)設(shè)備觀(guān)測(cè)、人體外周生理信號(hào)采集分析以及語(yǔ)音、表情、姿態(tài)、下意識(shí)的動(dòng)作等外部表現(xiàn)觀(guān)測(cè)和有意識(shí)的后續(xù)行為觀(guān)測(cè)分析來(lái)實(shí)現(xiàn)。對(duì)于泛在學(xué)習(xí)者而言,其情感信息主要通過(guò)泛在網(wǎng)絡(luò)傳送的視頻、音頻信號(hào)及學(xué)習(xí)者在網(wǎng)上活動(dòng)所產(chǎn)生的網(wǎng)絡(luò)行為數(shù)據(jù)來(lái)獲取。
在上述可觀(guān)測(cè)的信號(hào)中,視頻信號(hào)包含著豐富的微表情信息,被作為重要的情感信息獲取來(lái)源,然而在情感識(shí)別的準(zhǔn)確性上尚存在一定的困難。相對(duì)而言,語(yǔ)音信號(hào)的情感識(shí)別具有較高的精度,已成為分析人類(lèi)外顯情緒和內(nèi)隱情緒的重要“信息紋路”(Ververidis et al.,2006),可獲得70%~80%的情感識(shí)別精度(Dai et al.,2015)。網(wǎng)絡(luò)行為數(shù)據(jù)主要通過(guò)服務(wù)器的日志文件或在線(xiàn)跟蹤工具來(lái)獲取,其中頁(yè)面轉(zhuǎn)換、頁(yè)面停留時(shí)間、鼠標(biāo)位置與動(dòng)作、鍵盤(pán)操作等都是情感表達(dá)的重要行為特征。如:學(xué)習(xí)者處于興趣濃厚、開(kāi)心愉悅的情感狀態(tài),會(huì)呈現(xiàn)頁(yè)面停留時(shí)間較長(zhǎng)、鼠標(biāo)和鍵盤(pán)使用頻率高,內(nèi)容熱點(diǎn)區(qū)域點(diǎn)擊、瀏覽次數(shù)多,對(duì)課題提問(wèn)能快速回復(fù)等特征,還有可能樂(lè)于發(fā)表正面評(píng)論;而當(dāng)學(xué)習(xí)者焦躁不滿(mǎn)時(shí),則頁(yè)面的轉(zhuǎn)換頻繁高,鼠標(biāo)會(huì)在大范圍頻繁移動(dòng),甚至發(fā)表負(fù)面的評(píng)論(Dai et al.,2014)。基于學(xué)習(xí)者網(wǎng)絡(luò)行為數(shù)據(jù)的情感識(shí)別,必須考慮到學(xué)習(xí)者在特定情感狀態(tài)下的上述行為表達(dá)習(xí)慣可能存在較大的個(gè)性化差異。Zhou等人(2015)對(duì)泛在學(xué)習(xí)環(huán)境下的學(xué)習(xí)者鼠標(biāo)與鍵盤(pán)動(dòng)作作了歸納,將其劃分為16種基本動(dòng)作,學(xué)習(xí)者的行為習(xí)慣表達(dá)可體現(xiàn)在以上動(dòng)作序列中。采用BP-GA神經(jīng)網(wǎng)絡(luò)模型結(jié)合學(xué)習(xí)者的身份編號(hào)對(duì)上述操作數(shù)據(jù)進(jìn)行訓(xùn)練,可獲得78%的情感狀態(tài)識(shí)別精度。
3.學(xué)習(xí)者的情感特征畫(huà)像
泛在學(xué)習(xí)者的情感特征畫(huà)像包括神經(jīng)活動(dòng)特征和外部表現(xiàn)特征兩個(gè)方面的關(guān)鍵要素。其中,神經(jīng)活動(dòng)特征由學(xué)習(xí)者在視覺(jué)、聽(tīng)覺(jué)感知能力及其對(duì)情感信息的認(rèn)知、反應(yīng)能力的差異化特征構(gòu)成,可通過(guò)可穿戴EEG(腦電信號(hào))、fNIRI(近紅外腦功能成像)等設(shè)備在真實(shí)學(xué)習(xí)環(huán)境下進(jìn)行觀(guān)測(cè),并獲得相關(guān)特征參數(shù),如圖3所示:
圖3 泛在學(xué)習(xí)者的神經(jīng)活動(dòng)特征(EEG、fNIRI信號(hào))
泛在學(xué)習(xí)者的外部表現(xiàn)特征包括其網(wǎng)絡(luò)音頻、視頻信號(hào)中所體現(xiàn)的特征,以及在不同頁(yè)面的鍵盤(pán)、鼠標(biāo)操作和由這些操作動(dòng)作序列組成的網(wǎng)絡(luò)行為表達(dá)習(xí)慣,可通過(guò)網(wǎng)絡(luò)行為大數(shù)據(jù)分析獲得相關(guān)特征參數(shù)。然后,在神經(jīng)活動(dòng)特征與外部表現(xiàn)特征兩者之間建立統(tǒng)計(jì)學(xué)分析模型和關(guān)聯(lián)知識(shí)挖掘模型,以此為基礎(chǔ)結(jié)合其神經(jīng)活動(dòng)特征,給出學(xué)習(xí)者的完整情感特征畫(huà)像。根據(jù)以上畫(huà)像,可以對(duì)學(xué)習(xí)者的情感信息進(jìn)行監(jiān)測(cè)采集,通過(guò)其在網(wǎng)絡(luò)上的外部表現(xiàn)特征分析神經(jīng)活動(dòng)特征,并在線(xiàn)識(shí)別情感狀態(tài)的變化。
三、學(xué)習(xí)者情感信息的監(jiān)測(cè)采集與識(shí)別
泛在學(xué)習(xí)環(huán)境下,學(xué)習(xí)者的情感狀態(tài)要受到不同的學(xué)習(xí)環(huán)境、學(xué)習(xí)時(shí)刻、學(xué)習(xí)內(nèi)容、學(xué)習(xí)交互活動(dòng)及共同學(xué)習(xí)伙伴等眾多因素的影響,且處于動(dòng)態(tài)變化之中。為了及時(shí)識(shí)別情感的變化,必須對(duì)包含學(xué)習(xí)者情感的語(yǔ)音信息、視頻信息、網(wǎng)絡(luò)行為數(shù)據(jù)及不同頁(yè)面的操作進(jìn)行實(shí)時(shí)監(jiān)測(cè)和動(dòng)態(tài)采集,并根據(jù)學(xué)習(xí)者的情感特征畫(huà)像進(jìn)行在線(xiàn)識(shí)別。圖4為對(duì)學(xué)習(xí)者的情感信息監(jiān)測(cè)采集與情感狀態(tài)在線(xiàn)識(shí)別方案:
圖4 泛在學(xué)習(xí)者情感信息監(jiān)測(cè)采集與情感狀態(tài)在線(xiàn)識(shí)別
情感信息的采集主要通過(guò)實(shí)時(shí)監(jiān)測(cè)Agent和數(shù)據(jù)采集Agent兩個(gè)智能Agent來(lái)實(shí)現(xiàn)。Agent為采用人工智能技術(shù)開(kāi)發(fā)的智能代理,具有屬性和行動(dòng)規(guī)則,可以在設(shè)定的屬性參數(shù)下,按照上述行動(dòng)規(guī)則產(chǎn)生自主行為,完成預(yù)定的任務(wù)。其中,數(shù)據(jù)采集知識(shí)庫(kù)為上述兩個(gè)Agent提供采集策略與規(guī)則,并根據(jù)學(xué)習(xí)者的情感特征畫(huà)像為之提供采集、監(jiān)測(cè)智能引導(dǎo)。泛在學(xué)習(xí)者的情感狀態(tài)識(shí)別包括數(shù)據(jù)預(yù)處理、特征參數(shù)提取、識(shí)別算法三個(gè)環(huán)節(jié),通過(guò)數(shù)據(jù)預(yù)處理Agent和情感識(shí)別Agent兩個(gè)智能Agent來(lái)實(shí)現(xiàn)。其中,情感識(shí)別知識(shí)庫(kù)為識(shí)別提供學(xué)習(xí)者情感特征畫(huà)像以及特征參數(shù)提取方法,情感識(shí)別Agent根據(jù)以上知識(shí)采用智能識(shí)別算法完成對(duì)學(xué)習(xí)者情感狀態(tài)的在線(xiàn)識(shí)別。
通過(guò)對(duì)泛在學(xué)習(xí)者在學(xué)習(xí)過(guò)程中的情感狀態(tài)在線(xiàn)識(shí)別,可以分析在整個(gè)學(xué)習(xí)過(guò)程中情感狀態(tài)的變化規(guī)律及其影響因素,進(jìn)而采用情感智能技術(shù)對(duì)教學(xué)策略、學(xué)習(xí)資源的組織及其呈現(xiàn)方式進(jìn)行自適應(yīng)調(diào)節(jié),極大地提升學(xué)習(xí)者的情感體驗(yàn)和學(xué)習(xí)效果,并使之保持持續(xù)的學(xué)習(xí)興趣及學(xué)習(xí)自主性。
四、泛在學(xué)習(xí)的情感智能及其仿腦機(jī)理
情感智能技術(shù)經(jīng)過(guò)20多年的發(fā)展,取得了巨大進(jìn)展,已成為機(jī)器智能研究領(lǐng)域的一個(gè)重要分支。情感智能的實(shí)現(xiàn)主要涉及到情感的分類(lèi)與描述、情感的識(shí)別算法、情感的智能機(jī)制三個(gè)方面。對(duì)于情感的分類(lèi)與描述,目前通常有離散型和連續(xù)型兩種方式。離散型方式只對(duì)正、負(fù)情感或生氣、厭惡、恐懼、高興、悲傷、驚訝等基本類(lèi)型的情感進(jìn)行分類(lèi)與描述。連續(xù)型方式則在一個(gè)連續(xù)空間中用不同的維度來(lái)描述情感狀態(tài)。其中,Mehrabian提出了著名的PAD模型,并證明了人類(lèi)已知的情感狀態(tài)能夠用近似獨(dú)立的三維連續(xù)空間(Position-Arousal-Dominance)模型來(lái)描述(Mehrabian,1995)。
在情感的識(shí)別算法方面,需要針對(duì)泛在學(xué)習(xí)環(huán)境下的文本信息、語(yǔ)音信息、視頻信息、頁(yè)面操作及各類(lèi)網(wǎng)絡(luò)行為數(shù)據(jù)分別采用合適的識(shí)別算法,主要的算法有情感詞庫(kù)匹配、隱馬爾可夫模型(HMM)、人工神經(jīng)網(wǎng)絡(luò)(ANN)、高斯混合模型(GMM)、支持向量機(jī)(SVM)以及貝葉斯分類(lèi)法等。在上述識(shí)別算法中,傳統(tǒng)的實(shí)現(xiàn)方式是以學(xué)習(xí)者對(duì)其情感狀態(tài)的主觀(guān)自述為基礎(chǔ),采用機(jī)器學(xué)習(xí)在情感狀態(tài)與從采集數(shù)據(jù)中提取的特征向量參數(shù)之間建立關(guān)聯(lián),然后通過(guò)模式識(shí)別算法進(jìn)行識(shí)別。以上方式不僅受到學(xué)習(xí)者主觀(guān)自述描述準(zhǔn)確性的影響,而且存在大量的計(jì)算冗余開(kāi)銷(xiāo)。本文采用EEG、fNIRI等神經(jīng)活動(dòng)觀(guān)測(cè)手段對(duì)學(xué)習(xí)者的情感狀態(tài)進(jìn)行分析,并基于上述觀(guān)測(cè)信息對(duì)采集數(shù)據(jù)的特征向量參數(shù)進(jìn)行優(yōu)化和標(biāo)定,大大提高了對(duì)情感狀態(tài)的識(shí)別計(jì)算效率和識(shí)別精度。
在情感的智能機(jī)制方面,主要有基于知識(shí)框架的OCC 模型、基于統(tǒng)計(jì)學(xué)特征的HMM模型、人工神經(jīng)網(wǎng)絡(luò)的模型和智能Agent模型等(Picard,1997;Becker-Asano et al,2010;Dai et al.,2015)。近年來(lái),在人工智能與腦科學(xué)相結(jié)合的基礎(chǔ)上發(fā)展起來(lái)的類(lèi)腦(Brain-Like)與仿腦(Artificial Brain)技術(shù)為情感智能機(jī)制的實(shí)現(xiàn)提供了先進(jìn)的方法。上述技術(shù)采用神經(jīng)擬態(tài)計(jì)算(Neuromorphic Computing)對(duì)人類(lèi)大腦的神經(jīng)元信號(hào)處理過(guò)程進(jìn)行模擬,從而實(shí)現(xiàn)類(lèi)似大腦的功能機(jī)制或?qū)ι鲜鰴C(jī)制進(jìn)行模仿。目前,已經(jīng)研制出神經(jīng)擬態(tài)計(jì)算芯片和仿腦組件。泛在學(xué)習(xí)環(huán)境下,基于這些組件可以更好地實(shí)現(xiàn)接近于人類(lèi)的情感智能機(jī)制,其仿腦機(jī)理如圖5所示:
圖5 泛在學(xué)習(xí)環(huán)境下的情感智能仿腦機(jī)理
將在線(xiàn)識(shí)別的學(xué)習(xí)者情感狀態(tài)及其變化信息輸入到仿腦組件的丘腦區(qū),丘腦根據(jù)學(xué)習(xí)者的情感特征畫(huà)像,對(duì)上述信號(hào)進(jìn)行判斷處理之后,傳入由左腦、聠連體、右腦組成的情感分析及應(yīng)對(duì)策略決策中樞。中樞在對(duì)學(xué)習(xí)者情感特征畫(huà)像進(jìn)行分析之后,在情感智能策略庫(kù)中選擇最優(yōu)策略,并將決策生成應(yīng)對(duì)策略通過(guò)小腦功能區(qū)輸出。基于上述仿腦機(jī)理及情感智能機(jī)制,可以實(shí)現(xiàn)泛在學(xué)習(xí)環(huán)境下的智能化情感教學(xué),根據(jù)學(xué)習(xí)者的情感體驗(yàn)變化及其影響因素,對(duì)教學(xué)策略和教學(xué)資源進(jìn)行自適應(yīng)調(diào)節(jié),為解決泛在學(xué)習(xí)中的問(wèn)題提供先進(jìn)的智能化手段。
五、結(jié)束語(yǔ)
隨著現(xiàn)代移動(dòng)通訊網(wǎng)絡(luò)的快速發(fā)展以及各類(lèi)社會(huì)化學(xué)習(xí)媒體的不斷涌現(xiàn),泛在學(xué)習(xí)已成為日益普及的社會(huì)化學(xué)習(xí)新形式。在這一學(xué)習(xí)環(huán)境下,學(xué)習(xí)者的情感體驗(yàn)對(duì)于激發(fā)學(xué)習(xí)興趣和提高學(xué)習(xí)自主性具有重要的影響,如何通過(guò)情感智能技術(shù)在線(xiàn)獲取學(xué)習(xí)者的情感狀態(tài)信息,為其學(xué)習(xí)提供個(gè)性化、智能化的學(xué)習(xí)策略和資源推薦,已成為泛在學(xué)習(xí)的關(guān)注熱點(diǎn)與亟待解決的問(wèn)題。本文在前期研究成果的基礎(chǔ)上,從學(xué)習(xí)者的情感神經(jīng)機(jī)制出發(fā),對(duì)其情感表達(dá)特征、情感特征畫(huà)像以及情感信息的監(jiān)測(cè)采集與識(shí)別、情感智能及其仿腦機(jī)理作了研究,為解決泛在學(xué)習(xí)環(huán)境下的問(wèn)題提供先進(jìn)的智能化手段。隨著相關(guān)領(lǐng)域研究工作的不斷深入,以機(jī)器理性智能與情感智能相結(jié)的智慧學(xué)習(xí)將成為泛在學(xué)習(xí)發(fā)展的新趨勢(shì)。
參考文獻(xiàn):
[1]戴偉輝(2012). 情景感知與情感智能:通往智慧城市的智慧之門(mén)[J]. 上海城市管理, (4):29-32.
[2]南國(guó)農(nóng)(2005). 發(fā)展現(xiàn)代遠(yuǎn)程教育:中國(guó)之路[J]. 中國(guó)遠(yuǎn)程教育, (2):5-8.
[3]Armony, J. L., & Ledoux, J. E. (1997). How the Brain Processes Emotional Information[J]. Annals of the New York Academy of Sciences, 821:259-270.
[4]Becker-Asano, C., & Wachsmuth, I. (2010). Affective Computing with Primary and Secondary Emotions in a Virtual Human[J]. Autonomous Agents and Multi-Agent Systems, 20(1):32-49.
[5]Cárdenas-Robledo, L. A., & Pe?a-Ayala, A. (2018). Ubiquitous Learning: A Systematic Review[J]. Telematics & Informatics. https://doi.org/10.1016/j.tele.2018.01.009.
[6]Dai, W. H., Han, D. M., & Dai, Y. H. (2015). Emotion Recognition and Affective Computing on Vocal Social Media[J]. Information & Management, 52(7):777-788.
[7]Dai, W. H., Hang, S., & Zhou, X. et al. (2014). Emotional Intelligence System for Ubiquitous Smart Foreign Language Education Based on Neural Mechanism[J]. Journal of Information Technology Applications & Management, 21(3):65-77.
[8]Davidson, R. J., Jackson, D. C., & Kalin, N. H. (2000). Emotion, Plasticity, Context, and Regulations: Perspectives from Affective Neuroscience[J]. Psychological Bulletin, 126(6):890-909.
[9]Guabassi, I. E., Bousale, Z., & Achhab, M. A. et al. (2018). Personalized Adaptive Content System for Context-Aware Ubiquitous Learning[J]. Procedia Computer Science, 127:444-453.
[10]Horlings, R. (2008). Emotion Recognition Using Brain Activity[D]. Netherland: Delft University of Technology.
[11]Huang, S., Zhou, X., & Xue, K. et al. (2015). Neural Cognition and Affective Computing on Cyber Language[J]. Computational Intelligence and Neuroscience.
[12]Mehrabian, A. (1995). Framework for a Comprehensive Description and Measurement of Emotional States[J]. Genetic, Social, and General Psychology Monographs, 121(3):339-361.
[13]Moore, M. G., & Kearsley, G. (2005). Distance Education: A Systems View[J]. Computers & Education, 29:209-211.
[14]Picard, R. W. (1997). Affective Computing[M]. USA: MIT Press, Cambridge.
[15]Pozdnyakova, O., & Pozdnyakov, A. (2017). Adult StudentsProblems in the Distance Learning[J]. Procedia Engineering, 178:243-248.
[16]Saleh, S. A., & Bhat, S. A. (2015). Mobile Learning: A Systematic Review[J]. International Journal of Computer Applications, 114(10):1-5.
[17]Salovery, P., & Mayer, J. D. (1990). Emotional Intelligence[J]. Imagination, Cognition, and Personality, 9(3):185-211.
[18]Samigulina, G., & Samigulina, Z. (2016). Intelligent System of Distance Education of Engineers, Based on Modern Innovative Technologies[J]. Procedia-Social and Behavioral Sciences, 228:229-236.
[19]Ververidis, D., & Kotrropoulos, C. (2006). Emotional Speech Recognition: Resource, Features, and Methods[J]. Speech Communication, 48(9): 1162-1181.
[20]Zhou, X., Dai, G. H., & Huang, S. et al. (2015). CyberPsychological Computation on Social Community of Ubiquitous Learning[J]. Computational Intelligence and Neuroscience.
收稿日期 2018-03-01 責(zé)任編輯 田黨瑞