殷 明 張劍心 史愛(ài)芹 劉電芝
(1江蘇警官學(xué)院, 南京 210031) (2蘇州大學(xué)教育學(xué)院, 蘇州 215123)
(3南京師范大學(xué)教育科學(xué)學(xué)院, 南京 210024)
微表情是指在時(shí)間上呈現(xiàn)特別短暫的表情,持續(xù)時(shí)間約為1/25~1/2 s, 泄露性地表達(dá)了人們壓抑或試圖隱藏的真實(shí)情緒(Ekman & Friesen, 1975;吳奇, 申尋兵, 傅小蘭, 2010)。
微表情既可以是整個(gè)面部肌肉的動(dòng)作, 也可以只是面部中一部分肌肉的動(dòng)作(Ekman, 2003;Ekman & O’Sullivan, 2006; Frank & Ekman, 2004;Frank, Svetieva et al., 2014; Porter & ten Brinke,2008)。微表情的呈現(xiàn)具有碎片化特征(Matsumoto,Keltner, Shiota, Frank, & O’Sullivan, 2008; Porter& ten Brinke, 2008)。已有研究發(fā)現(xiàn)的微表情都在主要基本情緒范疇:高興、悲傷、憤怒、厭惡、恐懼、驚訝等, 尚未發(fā)現(xiàn)超出基本表情的微表情。相對(duì)于普通表情, 微表情表現(xiàn)為持續(xù)時(shí)間短、表情中斷和對(duì)面部肌肉運(yùn)動(dòng)的抑制(Ekman & Friesen,1974), 由于它是自動(dòng)的自然情感表達(dá), 因此更難以控制(Ekman, 2001a; Hurley & Frank, 2011)。
大部分研究者采用微表情發(fā)生范式研究其持續(xù)時(shí)間。微表情發(fā)生范式包括自然情境下發(fā)生和實(shí)驗(yàn)發(fā)生, 實(shí)驗(yàn)發(fā)生范式又有說(shuō)謊?泄露(讓被試說(shuō)謊, 觀察其真實(shí)微表情的泄露, Ekman & Friesen,1969a; Porter & ten Brinke, 2008; Frank & Ekman,2004; Frank, Svetieva et al., 2014)和壓抑?誘發(fā)(讓被試一直保持中性表情, 再用情緒圖片或視頻誘發(fā)產(chǎn)生未被意識(shí)到或未成功抑制住的微表情, Yan,Wu, Liang, Chen & Fu, 2013; Yan et al., 2014)兩種范式。說(shuō)謊?泄露范式研究中, Ekman和 Friesen(1974)認(rèn)為微表情持續(xù)時(shí)間為 1/25~1/5 s; 但在Ekman的其它研究中, 有時(shí)微表情被定義為小于1/4 s (Ekman, 2003), 有時(shí)被定義為小于 1/3 s(Ekman & Rosenberg, 2005)。Polikovsky, Kameda和Ohta (2009)將持續(xù)時(shí)間規(guī)定在1/25~1/3 s。Frank,Herbasz, Sinuk, Keller和Nolan (2009)以及Matsumoto和Hwang (2011)甚至將呈現(xiàn)時(shí)間小于1/2 s的表情定義為微表情。Porter, ten Brinke和Wallace (2012)也認(rèn)為微表情的時(shí)間范圍應(yīng)該長(zhǎng)達(dá)1/2 s。而Yan,Wu, Liang等(2013)采用壓抑?誘發(fā)的微表情發(fā)生范式, 得到微表情持續(xù)時(shí)間也是在1/2 s以內(nèi)。
Shen, Wu和Fu (2012)則采用微表情識(shí)別正確率的變化模式作為微表情操作性定義, 讓被試識(shí)別表情圖片, 當(dāng)圖片持續(xù)時(shí)間在 200 ms以下時(shí),識(shí)別成績(jī)隨圖片呈現(xiàn)時(shí)間增加而提高, 時(shí)間超過(guò)200 ms后, 正確率不再有顯著變化。同時(shí)事件相關(guān)電位研究結(jié)果表明, 被試在觀看呈現(xiàn)時(shí)間為200 ms以上和 200 ms以下的表情圖片時(shí) Cz和CPz電極上的VPP成分(vertex positive potential,大腦頂部中央?yún)^(qū)的 P2, 是表情情緒效價(jià)的經(jīng)典指標(biāo)之一)顯著不同:當(dāng)呈現(xiàn)時(shí)間小于200 ms時(shí), 相比于正性和中性表情, 負(fù)性表情圖片誘發(fā)了更大的VPP波幅; 當(dāng)呈現(xiàn)時(shí)間大于200 ms時(shí), 不同情緒效價(jià)的表情圖片誘發(fā)的VPP波幅就沒(méi)有差異了(申尋兵, 2012)。他們根據(jù)這些結(jié)果推斷:“微表情和普通表情持續(xù)時(shí)間的分界點(diǎn)是200 ms”。由于采用的是微表情識(shí)別范式, 因此和上述微表情發(fā)生范式得到的持續(xù)時(shí)間不一致是合理的現(xiàn)象。筆者傾向于微表情發(fā)生范式確定的持續(xù)時(shí)間即約1/25~1/2 s, 因?yàn)槲⒈砬榈睦碚摱x是人們自身產(chǎn)生了真實(shí)表情的泄露, 取決于發(fā)生微表情的被試的心理:只要他極力控制自己的表情而失敗, 發(fā)生了無(wú)意識(shí)的泄露, 即使高于200 ms讓他人比較容易發(fā)現(xiàn), 但被試自己不能察覺(jué); 或者即使察覺(jué)到了, 但是認(rèn)為自己及時(shí)控制和掩蓋住了, 誤以為其他人沒(méi)有察覺(jué), 仍應(yīng)該屬于微表情。當(dāng)然Shen等(2012)和申尋兵(2012)從識(shí)別角度建立的微表情操作性定義, 雖然不適合作為微表情發(fā)生的定義, 因此不適合用在微表情發(fā)生領(lǐng)域, 但卻是非常良好(簡(jiǎn)潔且有說(shuō)服力)的微表情識(shí)別性定義, 未來(lái)可以廣泛應(yīng)用在微表情識(shí)別研究領(lǐng)域中。
由于微表情表達(dá)的是人們想要壓抑、隱藏的真實(shí)意圖, 所以往往出現(xiàn)在說(shuō)謊的時(shí)候, 且本人難以覺(jué)察。Ekman和 Friesen (1969b)認(rèn)為在高風(fēng)險(xiǎn)的說(shuō)謊情境中, 說(shuō)謊被識(shí)破會(huì)導(dǎo)致對(duì)自己很不好的結(jié)果, 就容易因?qū)φ鎸?shí)情緒的壓抑而出現(xiàn)微表情。微表情一般是不可以被自主控制的; 是與謊言識(shí)別關(guān)系密切的內(nèi)部心理機(jī)制的外部顯現(xiàn); 是通向謊言識(shí)別的最好方式(Ekman & Friesen, 1974)。Porter和ten Brinke (2008)證實(shí)微表情經(jīng)常發(fā)生在人們?cè)噲D做出欺騙性的動(dòng)態(tài)表情時(shí), 特別是在伴隨說(shuō)謊的高風(fēng)險(xiǎn)和高獎(jiǎng)勵(lì)的實(shí)驗(yàn)情境中(Depaulo et al., 2003; Frank & Svetieva, 2012; Frank, Svetieva et al., 2014)。說(shuō)謊者會(huì)表現(xiàn)出更少的愉悅, 更多的下巴上揚(yáng), 緊咬嘴唇等緊張動(dòng)作; 另外如眉毛下垂或上揚(yáng), 微笑時(shí)嘴唇伸張等的幅度大于正常表情(DePaulo et al., 2003)。即使說(shuō)謊者故意采用掩飾策略, 仍然無(wú)法阻止真實(shí)表情的泄露, 從而導(dǎo)致微表情產(chǎn)生。如Frank和Hurley (2014)發(fā)現(xiàn)說(shuō)謊者即使報(bào)告自己采用了撲克臉的策略, 即試圖做到像撲克牌一樣面無(wú)表情, 仍然泄露了和沒(méi)有報(bào)告采用該策略的說(shuō)謊者一樣多的微表情。但是說(shuō)真話者中報(bào)告采用了撲克臉策略的被試卻產(chǎn)生了顯著少于未報(bào)告的真話者的微表情。這表明在說(shuō)謊情境下, 主觀刻意去隱藏自己的真實(shí)表情是無(wú)效的, 仍然會(huì)被微表情出賣(Hurley & Frank, 2011)。
已有研究發(fā)現(xiàn)微表情識(shí)別能力與辨別說(shuō)謊的能力(Ekman & O’Sullivan, 1991; Frank & Ekman,1997) 以及社交能力正相關(guān) (Matsumoto & Hwang,2011)。Warren, Schertle和Bull (2009)發(fā)現(xiàn)對(duì)局部面孔微表情識(shí)別能力與謊言識(shí)別能力相關(guān)。Matsumoto和 Hwang (2011)以及 Matsumoto等(2000)開(kāi)發(fā)了微表情識(shí)別測(cè)驗(yàn)JACBART (見(jiàn)2.1), 發(fā)現(xiàn)其與謊言識(shí)別能力正相關(guān)。Frank, Maccario和Govindaraju(2009)以美國(guó)人和澳大利亞人為被試, 采用JACBART測(cè)量微表情識(shí)別能力, 仍然發(fā)現(xiàn)與謊言識(shí)別能力正相關(guān)。Frank和Hurley (2014)發(fā)現(xiàn)微表情識(shí)別能力與犯罪情景模擬水平的相關(guān)。因此微表情研究在心理健康、司法和執(zhí)法、情報(bào)和安全以及企業(yè)界等容易發(fā)生說(shuō)謊行為且會(huì)造成很大后果的領(lǐng)域很重要。
Frank和Svetieva (2015)綜述了已有研究, 認(rèn)同微表情發(fā)生的認(rèn)知神經(jīng)機(jī)制是表情加工的雙系統(tǒng):椎體束運(yùn)動(dòng)系統(tǒng)驅(qū)動(dòng)自主的和來(lái)源于大腦皮層的面部運(yùn)動(dòng)(如模仿和社交的面部表情); 而椎體束外運(yùn)動(dòng)系統(tǒng)驅(qū)動(dòng)非自主的和來(lái)源于皮層下的面部運(yùn)動(dòng)(如基本情緒引發(fā)的表情) (Meihlke, 1973;Myers, 1976)。在社交場(chǎng)合,人們?cè)噲D壓抑、隱藏或掩蓋自己真實(shí)情感的表達(dá), 錐體束和錐體束外的運(yùn)動(dòng)系統(tǒng)同時(shí)被激活。當(dāng)某種情緒被觸發(fā), 皮層下大腦會(huì)發(fā)送一種無(wú)意識(shí)的反射式的信號(hào)給面部神經(jīng); 個(gè)人的自主運(yùn)動(dòng)系統(tǒng)又發(fā)送一個(gè)信號(hào)抑制、放大或者掩蓋其情緒表達(dá)(包括表情)以被社會(huì)和文化所接受。這將形成爭(zhēng)奪面孔肌肉的“拔河比賽”, 當(dāng)皮層下信號(hào)足夠強(qiáng)大時(shí), 真實(shí)表情將會(huì)泄露很短的時(shí)間, 然后自主運(yùn)動(dòng)系統(tǒng)恢復(fù)對(duì)表情的控制(Ekman & Friesen, 1982), 這就形成了微表情。
那么為什么在說(shuō)謊時(shí)會(huì)發(fā)生這種“拔河比賽”呢?Frank和Svetieva (2015)總結(jié)大致有三個(gè)原因。
(1) Frank和Svetieva (2013)認(rèn)為當(dāng)說(shuō)謊者產(chǎn)生謊言可能被識(shí)破的恐懼, 或者對(duì)說(shuō)謊痛恨與內(nèi)疚, 或者對(duì)說(shuō)謊的對(duì)象感到蔑視和厭惡, 這時(shí)謊言就容易被表情出賣(Zuckerman, DePaulo, & Rosenthal,1981)。這些情緒可以產(chǎn)生一系列行為跡象如音調(diào)變高、坐立不安、語(yǔ)音錯(cuò)誤和猶豫不決增加、厭惡目光和身體動(dòng)作的增加(Ekman, 2001b; Ekman &Friesen, 1969b; Sporer & Schwandt, 2007; Vrij,Edward, Roberts, & Bull, 2000; Zuckerman et al.,1981), 其中就包括較多的短暫面部表情——微表情。
(2)說(shuō)謊需要做出比說(shuō)真話更大的認(rèn)知努力(Buller & Burgoon, 1996; Sporer & Schwandt, 2006,2007; Zuckerman et al., 1981)。因?yàn)檎f(shuō)謊者必須提供合理但虛假的理由, 還得記得先前是怎么說(shuō)的,以保持前后一致, 避免說(shuō)謊被發(fā)現(xiàn)(Vrij, 2008), 并且需要仔細(xì)監(jiān)控自己和欺騙對(duì)象的行為(Spence et al., 2001; Vrij et al., 2008)。因此捏造的謊言越復(fù)雜, 需要的資源越多, 從而減少了對(duì)表情的有效控制(Ekman & Friesen, 1974)。該理論得到了不少實(shí)證研究支持(DePaulo et al., 2003; Bond & DePaulo,2006; Sporer & Schwandt, 2007)。
(3)由于說(shuō)謊者擔(dān)心自己可能做出與謊言有關(guān)的表情動(dòng)作, 從而泄露了正在說(shuō)謊的事實(shí), 因此說(shuō)謊者會(huì)試圖控制自身的這些泄露性的線索和行為(Vrij, 2008; Zuckerman et al., 1981), 可能進(jìn)行“印象管理” (Memon, Vrij, & Bull, 2003), 然而這種印象管理是一個(gè)復(fù)雜任務(wù), 說(shuō)謊者可能需要抑制神經(jīng)系統(tǒng)以掩蓋正在承受較大認(rèn)知負(fù)荷的證據(jù),因此會(huì)通過(guò)了解一個(gè)“誠(chéng)實(shí)”的人的行為而有效地顯示出“誠(chéng)實(shí)”的假象(Memon et al., 2003), 導(dǎo)致其行為顯得太有計(jì)劃性、排練過(guò)、剛性或太圓滑(Vrij,2008)。如說(shuō)謊者可能試圖做出深思熟慮的樣子,避免做出看起來(lái)不尋常的動(dòng)作。因此說(shuō)謊者更有可能顯示出整體性身體動(dòng)作, 減少手、胳膊、腿和腳的動(dòng)作, 裝出不那么厭惡的目光, 顯示更少的言辭錯(cuò)誤和猶豫不決、更短的響應(yīng)延遲和更少的停頓(Sporer & Schwandt, 2006, 2007; Vrij,2008)。但是這些策略只能對(duì)自主的表情和動(dòng)作產(chǎn)生控制, 對(duì)微表情卻幾乎無(wú)能為力, 反而恰恰是微表情形成的條件, ——正是由于試圖控制表情,才與真實(shí)情緒產(chǎn)生了“拔河比賽”。
當(dāng)然微表情檢測(cè)結(jié)果可能被錯(cuò)誤解釋, 如被試可能害怕自己不被相信因而產(chǎn)生了微表情(Ekman,2001b; O’Sullivan, Frank, Hurley, & Tiwana, 2009)。因此研究者必須詢問(wèn)被試更多問(wèn)題以尋找出微表情的真實(shí)動(dòng)機(jī)(Frank, Yarbrough, & Ekman, 2006)。
綜上可見(jiàn)微表情產(chǎn)生于表情加工雙系統(tǒng)的“拔河比賽”的證據(jù)局限在行為實(shí)驗(yàn)數(shù)據(jù), 尚缺乏電生理和腦成像實(shí)驗(yàn)數(shù)據(jù), 難以比較直接地揭示機(jī)制, 因此還只能看作是推測(cè)性理論。
面部不對(duì)稱研究表明, 社會(huì)化表情線索在右邊的臉表現(xiàn)得更明顯, 而個(gè)性化的感受則通過(guò)左邊的臉顯示, 因此左邊臉的情感表達(dá)更強(qiáng)烈。Rothwell, Bandar, O’Shea 和 Mclean (2006)以及Porter和ten Brinke (2008)證實(shí)表情分為上下兩部分。研究發(fā)現(xiàn)上部面孔肌肉的運(yùn)動(dòng)(前額和上眼瞼)是由中央前回雙邊控制的; 而下部面孔肌肉運(yùn)動(dòng)(下眼瞼、鼻子、臉頰和嘴唇)是由對(duì)側(cè)控制。而自發(fā)的表情由皮層下結(jié)構(gòu)如丘腦、蒼白球雙邊控制。欺騙性的表情更常出現(xiàn)在下半部面孔, 因?yàn)槿藗兛梢宰灾鞑倏v由對(duì)側(cè)神經(jīng)控制的下半部面孔, 從而產(chǎn)生欺騙性表情, 但是很難自主地控制上半部面孔的額內(nèi)側(cè)肌肉。由于表情可以分為不同機(jī)制的左右和上下臉, 因此微表情有時(shí)可能只出現(xiàn)在某個(gè)半臉上, 或者出現(xiàn)在每個(gè)半臉的微表情具有不同特征和性質(zhì), 這還未得到充分研究, 是一個(gè)尚待探索的新領(lǐng)域(Wojciechowski, Stolarski, &Matthews, 2014)。
由于微表情持續(xù)時(shí)間短暫是與定義緊密相關(guān)的重要特征, 因此在定義之后就已單獨(dú)介紹, 此處不再重復(fù)。筆者總結(jié)發(fā)現(xiàn)微表情的另一個(gè)突出特征是復(fù)雜的動(dòng)態(tài)性:(1)眼睛和嘴唇是永久性表達(dá)器官, 臉部線條、皺紋則是瞬態(tài)特性。相比于悲傷和高興, 驚訝、恐懼、厭惡和憤怒產(chǎn)生更多的面部運(yùn)動(dòng)包括瞬態(tài)運(yùn)動(dòng), 所有表情的持久特征和瞬態(tài)特征會(huì)產(chǎn)生交互。(2)微表情有出現(xiàn)—高峰—消退三個(gè)階段。Yan, Wu, Liang等(2013)借鑒普通表情的三階段劃分來(lái)深入分析微表情, 發(fā)現(xiàn)同樣適用于微表情, 只是每個(gè)階段的時(shí)間相比普通表情都更短, 整個(gè)過(guò)程在1/2 s內(nèi)(普通表情為1/2~ 2 s以至更長(zhǎng)), 這表明微表情在很短時(shí)間內(nèi)就會(huì)產(chǎn)生完整的動(dòng)態(tài)變化。(3)隱藏在普通表情中快速閃現(xiàn)。這三個(gè)動(dòng)態(tài)因素交互作用導(dǎo)致微表情的動(dòng)態(tài)特征十分明顯和重要, 卻又非常復(fù)雜, 因此特別需要考察微表情的面部肌肉運(yùn)動(dòng)、持續(xù)時(shí)間和表情改變。Kilts, Egan, Gideon, Ely和 Hoffman(2003)使用正電子發(fā)射斷層掃描(PET)研究了靜態(tài)或動(dòng)態(tài)顯示的普通面部表情如快樂(lè)憤怒的神經(jīng)關(guān)聯(lián)。發(fā)現(xiàn)被試看到靜態(tài)的憤怒和高興表情時(shí), 運(yùn)動(dòng)、前額和頂葉皮層激活; 看到動(dòng)態(tài)的高興表情時(shí), 楔葉、顳葉皮層和中間、內(nèi)側(cè)、外側(cè)額葉激活。動(dòng)態(tài)的憤怒表情增加了右半球內(nèi)側(cè)、外側(cè)、中間、下額葉皮質(zhì)和小腦的激活。ERP研究表明對(duì)威脅的加工出現(xiàn)在刺激呈現(xiàn) 80 ms后(Keil,Moratti, Sabatinelli, Bradley, & Lang, 2005;Pourtois, Grandjean, Sander, & Vuilleumier, 2004;Williams et al., 2004), 誘發(fā)了枕葉或枕頂部的P1。這些只是普通表情的動(dòng)態(tài)特征研究, 對(duì)微表情動(dòng)態(tài)特征研究只見(jiàn)到 Yan, Wu, Liang等(2013)將表情發(fā)生三階段擴(kuò)展應(yīng)用到微表情發(fā)生的行為實(shí)驗(yàn),其它兩個(gè)動(dòng)態(tài)特征及三者的交互尚需進(jìn)一步探索。
Bhushan (2015)總結(jié)了普通表情的量化指標(biāo):(1)面部表情的量化指標(biāo)之一是肌電圖(EMG)。皺眉肌和顴骨肌的肌電圖能有效評(píng)估表情效價(jià):皺眉肌控制眉毛, 而顴骨肌肉控制嘴唇。在產(chǎn)生高興情緒和表情時(shí), 皺眉肌的肌肉活動(dòng)出現(xiàn)了線性降低, 而顴骨肌肉活動(dòng)出現(xiàn)了線性增加(Bradley &Lang, 2000; Larsen, Norris, & Cacioppo, 2003),EMG能夠記錄兩種運(yùn)動(dòng)。(2)植物神經(jīng)系統(tǒng)功能的指標(biāo)有皮膚電和心血管反應(yīng)。皮膚電反應(yīng)(GSR)能測(cè)量到交感神經(jīng)系統(tǒng)的狀態(tài)。某種情緒激活交感神經(jīng)系統(tǒng)時(shí), 它將導(dǎo)致汗水釋放, 反過(guò)來(lái)會(huì)增加皮膚電導(dǎo)。心血管措施包括心率(HR)、血壓(BP)、總外周阻力(TPR)、心輸出量(CO)、前收縮時(shí)間(PEP), 和心率變異性(HRV)。這些都能作為情緒指標(biāo)。皮膚電和心血管指標(biāo)的選擇取決于研究者感興趣的是交感神經(jīng)還是副交感神經(jīng)系統(tǒng)。如果測(cè)量交感神經(jīng)活動(dòng), 那么皮膚電導(dǎo)水平(sci)和前收縮時(shí)間(PEP)是合適指標(biāo); 但如果測(cè)量副交感神經(jīng)活動(dòng), 那么HRV更可取。心率(HR)和血壓(BP)則反映了交感神經(jīng)和副交感神經(jīng)系統(tǒng)活動(dòng)的結(jié)合。(3)驚嚇?lè)磻?yīng)也被認(rèn)為是衡量情感的重要指標(biāo),突然而強(qiáng)烈的刺激會(huì)產(chǎn)生頸部和背部肌肉的明顯反應(yīng)和眨眼, 杏仁核是驚嚇?lè)磻?yīng)的關(guān)鍵腦區(qū)。Lang(1995)認(rèn)為驚嚇?lè)磻?yīng)和由此產(chǎn)生的防御反應(yīng)的幅度, 以及杏仁核的激活程度可以衡量情緒。這些量化指標(biāo)都只是針對(duì)普通表情, 是否適用于微表情尚需探索。微表情是自主和非自主神經(jīng)系統(tǒng)的競(jìng)爭(zhēng), 因此可能交感和副交感神經(jīng)系統(tǒng)都參與了微表情的發(fā)生和抑制, 并且兩者的交互會(huì)呈現(xiàn)動(dòng)態(tài)變化。
綜合微表情的行為和神經(jīng)特征可知, 由于微表情持續(xù)時(shí)間短暫, 存在半臉差異, 并且具有復(fù)雜的動(dòng)態(tài)特征, 三個(gè)特征可能互相作用造成很短時(shí)間內(nèi), 在不同時(shí)間窗口的不同面部區(qū)域會(huì)產(chǎn)生許多復(fù)雜的生理?心理反應(yīng), 精細(xì)化地捕捉到這些反應(yīng)將是一個(gè)有趣且富有挑戰(zhàn)性的新領(lǐng)域, 這可能為微表情產(chǎn)生于表情加工雙系統(tǒng)的“拔河比賽”理論提供生理?心理數(shù)據(jù)的證據(jù)。值得慶幸的是普通表情的量化指標(biāo)特別是肌電的時(shí)間分辨度很高, 空間分辨率也較高, 可以作為研究微表情特征的直接且有效的指標(biāo)!
已有不同的研究團(tuán)隊(duì)把計(jì)算機(jī)科學(xué)和心理學(xué)相結(jié)合, 分別開(kāi)發(fā)了不同的自動(dòng)微表情識(shí)別系統(tǒng)并構(gòu)建了數(shù)據(jù)庫(kù)。日本的 Polikovsky等(2009)根據(jù)Polikovsky表情庫(kù)探索出了3D梯度直方圖的特征提取方法; 美國(guó) Shreve, Godavarthy, Manohar,Goldgof和Sarkar (2009)構(gòu)建了USF-HD數(shù)據(jù)庫(kù)并采用光流法進(jìn)行自動(dòng)微表情識(shí)別研究; 美國(guó)Matsumoto和Ekman (1988)以及 Ekman和Rosenberg(2005)構(gòu)建了JACFEE數(shù)據(jù)庫(kù)和Cohn-Canade-504表情庫(kù)等數(shù)據(jù)庫(kù)。中國(guó)科學(xué)院心理研究所傅小蘭團(tuán)隊(duì)的Yan, Wu, Liu, Wang和Fu (2013)改進(jìn)前人的壓抑?誘發(fā)方法, 構(gòu)建了中國(guó)微表情數(shù)據(jù)庫(kù) CASME;Yan等(2014)進(jìn)一步改進(jìn)了CASME的樣本數(shù)、幀率和圖像質(zhì)量, 形成了CASMEII, 為中國(guó)本土化微表情研究提供了數(shù)據(jù)庫(kù)和技術(shù)支持。
微表情識(shí)別及其訓(xùn)練是與微表情特征和發(fā)生不同的概念。微表情特征和發(fā)生是指被試自己產(chǎn)生微表情的機(jī)制; 微表情識(shí)別及其訓(xùn)練則是指被試對(duì)他人微表情的識(shí)別機(jī)制, 以及對(duì)被試的這種識(shí)別能力的訓(xùn)練, 兩者區(qū)別可見(jiàn)1.2的論述。由于微表情的實(shí)驗(yàn)誘發(fā)比較困難且不穩(wěn)定, 因此對(duì)微表情發(fā)生機(jī)制和特征尚需進(jìn)一步研究; 而微表情識(shí)別及其訓(xùn)練實(shí)驗(yàn)操作比較容易, 并且具有很大的應(yīng)用價(jià)值, 因此得到了廣泛深入的研究, 形成了比較成熟的范式。
Ekman和Freinsen (1969 b)發(fā)現(xiàn), 讓被試觀看慢速度下播放的微表情視頻, 然后再觀看正常速度下播放的視頻, 被試就可以看見(jiàn)正常播放速度下的微表情; 而直接將微表情呈現(xiàn)給醫(yī)院臨床工作者觀看, 有一些臨床工作者不借助慢速播放的練習(xí)過(guò)程, 同樣可以觀察到微表情。這表明微表情識(shí)別是有技巧的、可以通過(guò)練習(xí)獲得的, 一些特殊群體的微表情識(shí)別能力比其他人高。隨著面部肌肉動(dòng)作編碼系統(tǒng)的發(fā)展, Ekman和Friesen (1974)制作了第一個(gè)微表情識(shí)別標(biāo)準(zhǔn)測(cè)驗(yàn)——“短暫表情識(shí)別測(cè)驗(yàn)” (Brief Affect Recognition Test, BART):給被試觀看呈現(xiàn)時(shí)間為1/100~1/25 s的微表情圖片(悲傷、恐懼、憤怒、厭惡、驚訝、高興), 然后判斷表情類型, 記錄識(shí)別正確率。
BART存在明顯的缺點(diǎn):微表情孤立呈現(xiàn), 與現(xiàn)實(shí)生活中微表情的動(dòng)態(tài)呈現(xiàn)方式不符, 缺乏生態(tài)效度; 被試會(huì)在微表情呈現(xiàn)結(jié)束后繼續(xù)對(duì)其進(jìn)行加工, 延長(zhǎng)知覺(jué)加工時(shí)間, 無(wú)法避免圖片的視覺(jué)后效。為了克服這些缺陷, Matsumoto等(2000)開(kāi)發(fā)了更完善的微表情識(shí)別測(cè)量工具——“日本人與高加索人短暫表情識(shí)別測(cè)驗(yàn)” (Japanese and Caucasian Brief Affect Recognition Test, JACBART):被試首先會(huì)看到一張持續(xù)時(shí)間為2 s的中性表情圖片, 然后短暫呈現(xiàn)微表情, 緊接著中性表情圖片會(huì)再次呈現(xiàn)2 s, 被試只需要將看到的微表情在表情標(biāo)簽中勾選出來(lái)。前后中性表情的使用消除了圖片視覺(jué)后效的影響, 且使實(shí)驗(yàn)更具生態(tài)化。Matsumoto等(2000)使用該測(cè)驗(yàn)對(duì)美國(guó)大學(xué)生進(jìn)行測(cè)量, 結(jié)果發(fā)現(xiàn), 不同情緒的微表情之間識(shí)別的正確率有顯著差異:“高興和驚訝情緒的識(shí)別正確率顯著高于其他情緒; 厭惡情緒識(shí)別正確率明顯低于其他情緒?!睂y(cè)量成績(jī)與人格量表得分進(jìn)行相關(guān)分析發(fā)現(xiàn), 微表情識(shí)別的分?jǐn)?shù)與在艾森克人格量表的外傾性維度和大五人格量表的開(kāi)放性維度上的得分具有顯著正相關(guān), 表明該測(cè)驗(yàn)具有很好的會(huì)聚效度和一定的預(yù)測(cè)效度。鑒于該測(cè)驗(yàn)具有良好的信效度和嚴(yán)密的實(shí)驗(yàn)過(guò)程, 以后研究者大都采用該測(cè)量范式, 由于以后研究大多是微表情識(shí)別測(cè)量和訓(xùn)練一起進(jìn)行, 因此具體研究將在下一節(jié)2.2微表情識(shí)別訓(xùn)練工具中介紹。
Ihme等(2013)首次采用fMRI探索了JACBART微表情識(shí)別的腦機(jī)制, 發(fā)現(xiàn)對(duì)負(fù)性微表情的識(shí)別更多激活了基底節(jié), 而對(duì)高興和驚訝微表情的識(shí)別更多激活了眶額皮層。這兩個(gè)腦區(qū)也是普通表情的加工腦區(qū), 但該研究沒(méi)有設(shè)置普通表情對(duì)照組, 因此無(wú)法揭示微表情識(shí)別和普通表情識(shí)別的差異, 未來(lái)研究應(yīng)該做這樣的進(jìn)一步探索。
有效測(cè)量微表情識(shí)別能力工具的出現(xiàn), 推動(dòng)了微表情識(shí)別的研究。但是還受到不少制約, 最大障礙是由于微表情呈現(xiàn)時(shí)間較短, 且有前后表情背景掩蔽, 人們很難覺(jué)察到微表情的存在, 因而識(shí)別正確率較低, 某些微表情容易出現(xiàn)地板效應(yīng)。一方面這是微表情的本質(zhì)特征之一, 這種不均勻的地板效應(yīng)值得進(jìn)一步探究; 另一方面表明人們的微表情識(shí)別能力天生不高, 有必要進(jìn)行訓(xùn)練。
研究發(fā)現(xiàn)人們可以很容易識(shí)別普通表情, 但對(duì)微表情識(shí)別很困難, 如果沒(méi)有經(jīng)過(guò)訓(xùn)練的話,通常正確率為45~59% (Hall & Matsumoto, 2004;Matsumoto & Hwang, 2011; Russell, Chu, & Phillips,2006), 因此需要進(jìn)行微表情識(shí)別訓(xùn)練。Ekman (2002)根據(jù) JACBART開(kāi)發(fā)出了一個(gè)微表情識(shí)別的訓(xùn)練工具M(jìn)ETT (Micro Expression Trainning Tool)。該訓(xùn)練工具訓(xùn)練7種(悲傷、恐懼、憤怒、厭惡、輕蔑、驚訝、高興)基本情緒的微表情, 分為5個(gè)模塊分別是:前測(cè)(Pretest)、訓(xùn)練(Training)、練習(xí)(Practice)、復(fù)習(xí)(Review)、后測(cè)(Posttest)。前測(cè)和后測(cè)均采用 JACBART測(cè)驗(yàn)。前測(cè)階段測(cè)量被試在沒(méi)有接受任何訓(xùn)練時(shí)的微表情識(shí)別能力; 訓(xùn)練階段讓被試觀看微表情特點(diǎn)和識(shí)別技巧的講解視頻;練習(xí)階段被試采用訓(xùn)練階段掌握的技巧進(jìn)行微表情識(shí)別練習(xí), 可以獲得結(jié)果反饋; 復(fù)習(xí)階段被試?yán)^續(xù)練習(xí)微表情識(shí)別技巧, 提高識(shí)別的準(zhǔn)確率;后測(cè)階段與前測(cè)階段一樣。把被試前后測(cè)成績(jī)差異作為METT訓(xùn)練對(duì)微表情識(shí)別能力提高的量化指標(biāo)。結(jié)果發(fā)現(xiàn)METT能夠成功提高被試的微表情識(shí)別能力。
此后METT被應(yīng)用在多種人群和領(lǐng)域, 如大學(xué)生(Hall & Matsumoto, 2004)、百貨商店員工和審訊顧問(wèn)(Matsumoto & Hwang, 2011)、海岸警衛(wèi)隊(duì)官員、澳大利亞警察和海關(guān)、中國(guó)香港警察和海關(guān)官員(Frank, Kim, Kang, Kurylo, & Matsumoto,2014; Frank, Matsumoto, Ekman, Kang, & Kurylo,2014)、測(cè)謊(Warren et al., 2009)等, 發(fā)現(xiàn)這些被試經(jīng)過(guò) METT訓(xùn)練都會(huì)有較好的提高。Frank,Matsumoto, Ekman, Kang和Kurylo (2014)還發(fā)現(xiàn)經(jīng)過(guò)微表情識(shí)別訓(xùn)練后, 海岸警衛(wèi)隊(duì)和大學(xué)生在現(xiàn)實(shí)生活中對(duì)隱藏的微表情的識(shí)別能力得到了提高。FBI對(duì)學(xué)員進(jìn)行微表情訓(xùn)練, 顯著提高了實(shí)際工作中的測(cè)謊能力(Matsumoto, Hwang, Skinner, &Frank, 2014)。METT還應(yīng)用于訓(xùn)練有表情識(shí)別障礙的特殊人群, 以提高其微表情和表情識(shí)別能力和社交能力 (Hurley, 2012; Matsumoto & Hwang,2011; Russell et al., 2006)??梢?jiàn)METT微表情訓(xùn)練的生態(tài)效度很好。
微表情訓(xùn)練方式會(huì)影響訓(xùn)練效果。Hurley (2012)采用METT范式研究持續(xù)強(qiáng)化、動(dòng)機(jī)強(qiáng)度、自信、訓(xùn)練方式等因素與微表情識(shí)別能力的關(guān)系, 結(jié)果表明在訓(xùn)練過(guò)程中有專業(yè)人員親自指導(dǎo)時(shí)的實(shí)驗(yàn)組, 后測(cè)成績(jī)正確率比僅僅只有單獨(dú)的視頻學(xué)習(xí)的訓(xùn)練組學(xué)習(xí)正確率高; 自信和動(dòng)機(jī)水平越高的被試識(shí)別正確率越高, 實(shí)驗(yàn)進(jìn)行 3次訓(xùn)練和測(cè)量(初次訓(xùn)練、3周后訓(xùn)練、6周后訓(xùn)練), 控制組和訓(xùn)練組識(shí)別正確率均隨測(cè)量次數(shù)的增加而增大,但是訓(xùn)練組的識(shí)別正確率進(jìn)步比控制組更加明顯。這一研究表明不同的訓(xùn)練方式會(huì)導(dǎo)致不同效果, 比起自學(xué), 專業(yè)指導(dǎo)的效果更好。
以上研究都是采用的是 METT訓(xùn)練范式, 這是人為的帶有目的性和指導(dǎo)性的訓(xùn)練。而 Hurley(2012)以及Matsumoto等(2000)對(duì)同一批被試進(jìn)行多次重復(fù)測(cè)量, 結(jié)果表明雖然沒(méi)有接受METT訓(xùn)練, 被試的微表情識(shí)別能力還是得到了提高, 說(shuō)明不斷地曝露在微表情識(shí)別任務(wù)中, 具有和訓(xùn)練相似的效果。這種多次曝露訓(xùn)練范式類似于真實(shí)生活中對(duì)微表情識(shí)別的自然訓(xùn)練, 現(xiàn)實(shí)生活中人們通常對(duì)微表情識(shí)別沒(méi)有專業(yè)技巧, 甚至沒(méi)有聚焦的意識(shí), 僅通過(guò)與他人社交時(shí)多次曝露在微表情環(huán)境下, 其微表情識(shí)別能力就自然獲得了訓(xùn)練和提高(Hurley, 2012; Hurley, Anker, Frank, Matsumoto,& Hwang, 2014), 因此研究多次曝露訓(xùn)練范式有利于揭示自然訓(xùn)練的特征和影響因素。但是這方面研究很少, 僅上述兩篇, 且沒(méi)有考察影響因素,因此應(yīng)該進(jìn)一步深入探討。而且Hurley (2012)和Matsumoto等(2000)都還沒(méi)有研究多次曝露訓(xùn)練范式的訓(xùn)練效應(yīng)產(chǎn)生的原因。本文推測(cè)有4個(gè)可能的原因:(1)多次曝露提高了被試對(duì)鑲嵌在中性背景表情中的短暫微表情的視敏度和視覺(jué)加工的易化, 類似于視覺(jué)研究領(lǐng)域的經(jīng)典范式知覺(jué)訓(xùn)練的原理。(2)被試本就有一些外顯/內(nèi)隱識(shí)別策略, 在多次識(shí)別任務(wù)過(guò)程中可能發(fā)展出了新的有效的外顯/內(nèi)隱識(shí)別策略。(3)多次識(shí)別之間存在時(shí)間間隔,被試產(chǎn)生了自動(dòng)的線下加工。(4)由于識(shí)別任務(wù)使得被試意識(shí)到微表情的存在, 可能在現(xiàn)實(shí)生活中對(duì)他人的微表情加強(qiáng)了注意。這些可能性值得探索。
那么微表情訓(xùn)練需要多久, 效果可以持續(xù)多久呢?Ekman (2009)發(fā)現(xiàn)被試在經(jīng)過(guò)METT訓(xùn)練1.5小時(shí)后, 微表情識(shí)別能力得到了顯著提高, 后測(cè)的成績(jī)普遍提高30%~40%, 但未繼續(xù)考查METT訓(xùn)練效果的維持時(shí)間。Hurley (2012)以及 Matsumoto和Hwang (2011)研究表明, 短期微表情訓(xùn)練(0.5~1.5小時(shí))可以提高微表情識(shí)別且能持續(xù)幾周時(shí)間。Frank, Kim, Kang, Kurylo 和 Matsumoto (2014)以及Frank, Matsumoto等(2014)發(fā)現(xiàn)至少30分鐘的訓(xùn)練效果甚至可以延續(xù)至6~20個(gè)月。
Frank, Maccario等(2009)對(duì)比了不同性別的微表情識(shí)別訓(xùn)練效果, 但并未發(fā)現(xiàn)差異。Hurley等(2014)也發(fā)現(xiàn)性別之間沒(méi)有差異。但是 Hall和Matsumoto (2004)以及 Mufson和 Nowicki (1991)發(fā)現(xiàn)女性通常對(duì)微表情識(shí)別更準(zhǔn)確, 即使排除了年齡和人格的差異。Hall和Matsumoto (2004)推測(cè)可能是男女的社交模式不同, 認(rèn)知交替處理能力或信心不同。可見(jiàn)性別差異需要進(jìn)一步研究。
Mill, Allik, Realo和Valk (2009)發(fā)現(xiàn)表情識(shí)別特別是負(fù)性表情識(shí)別與年齡有關(guān), 年齡更大的成年人在識(shí)別憤怒悲傷恐懼等表情時(shí)的正確率更低。Hurley等(2014)發(fā)現(xiàn)成年人的年齡與 JACBART所測(cè)得的各微表情識(shí)別正確率負(fù)相關(guān)。可見(jiàn)年齡確實(shí)影響微表情識(shí)別。
Frank, Maccario等(2009)采用METT研究微表情識(shí)別訓(xùn)練在不同職業(yè)人群中的有效性。他們發(fā)現(xiàn)從事不同工作的人微表情識(shí)別的能力沒(méi)有顯著差別, 無(wú)論是從事需要與謊言打交道的職業(yè),還是從事其他普通工作的人員, 在 METT后測(cè)中成績(jī)都有顯著的提高。同時(shí)在真實(shí)情境中的微表情識(shí)別能力在訓(xùn)練過(guò)后也得到了提高。但是Hurley (2012)發(fā)現(xiàn)從事需要與謊言打交道的職業(yè)如審訊顧問(wèn)的微表情識(shí)別能力顯著高于普通人;Hurley等(2014)的研究 2也發(fā)現(xiàn)從事法律工作的年限與微表情識(shí)別能力正相關(guān)。這些研究的矛盾可能是對(duì)與謊言打交道的職業(yè)定義不同, 前者包括了所有警察, 后兩者則只包括了審訊顧問(wèn)、律師等參與更多謊言識(shí)別的職業(yè)。
普通表情中的基本表情反應(yīng)了個(gè)體對(duì)事件的評(píng)價(jià)、生理反應(yīng)、認(rèn)知和主觀經(jīng)驗(yàn)。這些基本表情已被證明存在于許多不同的文化(如 27個(gè)不同國(guó)家, Matsumoto, Nezlek, & Koopmann, 2007)。Matsumoto和Hwang (2011)以及 Russell等(2006)研究表明不同的群體都能經(jīng)過(guò)快速訓(xùn)練提高微表情識(shí)別能力。而文化能夠影響各種表情的社會(huì)意義和表達(dá)方式, 因此微表情可能受文化調(diào)節(jié)(Castillo,2015)。比如 Matsumoto, Yoo和 Fontaine (2008)發(fā)現(xiàn)個(gè)人主義文化中的人一般比其它文化中的人愿意表達(dá)出更多的真實(shí)表情, 認(rèn)為這可能會(huì)導(dǎo)致這類群體對(duì)微表情有更好的識(shí)別, 或者別的群體對(duì)他們的微表情更容易識(shí)別。但是對(duì)微表情表達(dá)和識(shí)別與訓(xùn)練的跨文化差異研究幾乎沒(méi)有(Castillo,2015), 需要進(jìn)一步探索。
面部表情識(shí)別能力與穩(wěn)定的個(gè)體特征有一定的聯(lián)系, 表情識(shí)別能力強(qiáng)的個(gè)體在人際交往中的目的性和觀察力會(huì)更強(qiáng), 他們應(yīng)該能更好地與環(huán)境或他人相處。作為一項(xiàng)重要的非語(yǔ)言交流系統(tǒng),這一能力可以一定程度保證對(duì)人際的適應(yīng)和操控,確保自我與外部環(huán)境之間的穩(wěn)定和平衡。因此面部表情識(shí)別能力(包括微表情識(shí)別能力)與個(gè)體特征的關(guān)系值得探查。
臨床研究發(fā)現(xiàn)微表情識(shí)別能力與對(duì)動(dòng)態(tài)表情識(shí)別(Marsh et al., 2010)以及視覺(jué)注意力的變化相關(guān)(Russell, Green, Simpson, & Coltheart, 2008),說(shuō)明微表情識(shí)別能力與個(gè)體的認(rèn)知能力有關(guān)。但是這方面的研究很少, 未來(lái)可以檢驗(yàn)工作記憶、認(rèn)知控制能力、知覺(jué)敏感性和速度、智力等認(rèn)知因素與微表情識(shí)別能力的關(guān)系。
Matsumoto等(2000)利用JACBART研究了微表情識(shí)別能力和人格之間的關(guān)系, 結(jié)果表明被試的微表情識(shí)別能力和大五人格中人格外向性和盡責(zé)性維度上的得分有顯著正相關(guān), 微表情識(shí)別能力和艾森克人格問(wèn)卷中內(nèi)?外傾維度上的得分有顯著正相關(guān), 和神經(jīng)質(zhì)維度上的得分有顯著負(fù)相關(guān)。Mill等(2009)發(fā)現(xiàn)開(kāi)放性高和有責(zé)任心的個(gè)人更擅長(zhǎng)識(shí)別微表情。Hurley等(2014)的研究 1顯示高開(kāi)放性的大學(xué)生識(shí)別微表情能力更強(qiáng), 但是人格無(wú)法預(yù)測(cè)訓(xùn)練效果。可能有三個(gè)原因:一是人格對(duì)短期訓(xùn)練不敏感, 可能與更長(zhǎng)時(shí)間的訓(xùn)練相關(guān)。二是采用的是 METT訓(xùn)練范式, 這種人為的帶有目的性和指導(dǎo)性的訓(xùn)練可能更多與動(dòng)機(jī)、注意力、技巧學(xué)習(xí)和運(yùn)用相關(guān); 而如果采用接近自然訓(xùn)練的多次曝露訓(xùn)練范式, 由于沒(méi)有識(shí)別技巧的指導(dǎo)這種變量影響, 個(gè)體心理特征的作用不易被掩蓋, 就有可能檢測(cè)到人格對(duì)自然訓(xùn)練的影響。三是沒(méi)有考慮性別因素, 男女在微表情識(shí)別可能存在差異(Hall & Matsumoto, 2004; Mufson &Nowicki, 1991), 而在同一個(gè)人格維度上兩者加工腦區(qū)又不同, 如開(kāi)放性維度女性主要在前額葉, 男性在前額葉和扣帶回(Sutin, Beason-Held, Resnick,& Costa, 2009), 因此很可能兩者人格與微表情識(shí)別訓(xùn)練的關(guān)系不同。另外不同的訓(xùn)練方式中人格與訓(xùn)練效應(yīng)的相關(guān)是否存在差異、能否預(yù)測(cè)訓(xùn)練效果持續(xù)時(shí)間以及訓(xùn)練效果在真實(shí)生活中的遷移等, 都值得探索!
不少研究證明了微表情識(shí)別能力與個(gè)人的多種社會(huì)因素相關(guān), 如社交技能(Matsumoto & Hwang,2011)、下屬對(duì)領(lǐng)導(dǎo)的評(píng)級(jí)(Rubin, Munz, & Bommer,2005)和幸福感(Carton, Kessler, & Pape, 1999)。Endres和 Laidlaw (2009)采用 METT對(duì)醫(yī)學(xué)院學(xué)生的微表情識(shí)別能力進(jìn)行探究, 根據(jù)被試臨床交流技能分為兩個(gè)組, 結(jié)果發(fā)現(xiàn)同樣是接受 METT訓(xùn)練,具有高臨床交流技能的學(xué)生訓(xùn)練后的微表情識(shí)別的能力有了顯著地提高, 但臨床交流技能低的學(xué)生卻未能顯著地提高自己的微表情識(shí)別能力。該研究同樣表明不同個(gè)體的微表情識(shí)別能力確實(shí)是存在差異, 接受微表情識(shí)別訓(xùn)練的效果也因人而異。同時(shí)個(gè)人的動(dòng)機(jī)強(qiáng)度、知覺(jué)敏感性、自信心水平等心理學(xué)因素對(duì)微表情識(shí)別亦有影響。由于表情識(shí)別與同理心、寬容、行為控制、女性氣質(zhì)、集體性、社會(huì)敏感性和家庭情感表達(dá)有關(guān)(Hall,Andrzejewski, & Yopchick, 2009; Mufson & Nowicki,1991), 因此Hurley等(2014)認(rèn)為這些因素很可能也與微表情識(shí)別相關(guān), 但尚沒(méi)有對(duì)這些因素做探索。
微表情通常出現(xiàn)在一連串的其它表情背景中,此時(shí)人們處于情緒壓抑狀態(tài)或者正在隱藏自己的真實(shí)意圖。BART、JACFEE和METT范式的微表情都是人工制作的——一個(gè)短暫呈現(xiàn)的情緒表情或插入到兩個(gè)中性表情之間, 這只是最簡(jiǎn)單的微表情, 因?yàn)檎鎸?shí)微表情通常會(huì)出現(xiàn)在帶有情緒的面部表情之間, 其背景是多樣、變化、流動(dòng)的。人們對(duì)微表情的識(shí)別會(huì)受到這種變化背景的影響,因此應(yīng)該將微表情置于前后表情之中進(jìn)行呈現(xiàn)與識(shí)別才更真實(shí)。
探索表情背景影響的一種范式是情緒啟動(dòng):在對(duì)目標(biāo)表情進(jìn)行識(shí)別前, 有一個(gè)情緒啟動(dòng), 啟動(dòng)情緒的效價(jià)對(duì)目標(biāo)表情識(shí)別有很大影響(Tanaka-Matsumi, Attivissimo, Nelson, & D’Urso, 1995;Carroll & Russell, 1996)。Righart和 de Gelder (2010)發(fā)現(xiàn)把負(fù)性目標(biāo)表情置于負(fù)性的前后表情背景中時(shí), 被試識(shí)別目標(biāo)表情的正確率和反應(yīng)速度都明顯高于在正性表情背景中時(shí)。Werheid, Alpay,Jentzsch和Sommer (2005)發(fā)現(xiàn)當(dāng)啟動(dòng)圖片為憤怒時(shí), 被試識(shí)別憤怒比識(shí)別高興的目標(biāo)表情圖片正確率要高且速度更快。Hietanen和Astikainen (2013)證明在正性表情啟動(dòng)下, 被試對(duì)高興的目標(biāo)表情的識(shí)別正確率明顯高于在負(fù)性表情啟動(dòng)下, 而對(duì)悲傷表情的識(shí)別正確率在悲傷表情啟動(dòng)條件下得到提高。吳冉和任衍具(2011)則以微表情作為啟動(dòng)刺激, 發(fā)現(xiàn)正負(fù)性微表情都會(huì)影響到對(duì)目標(biāo)刺激的偏好, 微表情閾上呈現(xiàn)(120 ms)比呈閾下呈現(xiàn)(40 ms)產(chǎn)生的啟動(dòng)效應(yīng)更強(qiáng)。
當(dāng)然情緒啟動(dòng)效應(yīng)研究和表情背景對(duì)微表情識(shí)別的影響有很大差別。情緒啟動(dòng)范式中啟動(dòng)刺激通常都會(huì)持續(xù)較短時(shí)間, 而目標(biāo)表情會(huì)持續(xù)較長(zhǎng)時(shí)間; 微表情的研究范式正好相反, 前后的表情背景呈現(xiàn)時(shí)間較長(zhǎng), 而微表情只是一閃而過(guò)。
經(jīng)典的JACBART和METT范式在微表情前后都只用中性表情來(lái)消除圖像后效, 沒(méi)有關(guān)注在微表情前后加入帶有情緒的表情圖片會(huì)帶來(lái)怎樣影響; 而情緒啟動(dòng)效應(yīng)只探索了表情背景對(duì)普通表情或其它認(rèn)知加工的影響, 沒(méi)有探討表情背景對(duì)微表情的影響。因此Zhang, Fu, Chen和Fu (2014)首次探索了微表情的背景效應(yīng), 發(fā)現(xiàn)當(dāng)背景表情為負(fù)性時(shí), 所有的目標(biāo)微表情識(shí)別正確率均低于正性或中性表情背景, 即負(fù)性的背景表情會(huì)損害被試對(duì)目標(biāo)微表情的捕捉; 當(dāng)背景表情和目標(biāo)微表情的效價(jià)一致時(shí)(同為正性或同為負(fù)性), 同一種微表情在一致背景時(shí)會(huì)低于不一致背景。另外高興表情識(shí)別的正確率明顯高于其他表情, 而恐懼表情的識(shí)別正確率明顯低于其他表情。該研究突破了傳統(tǒng)微表情研究的中性表情背景范式, 十分具有啟發(fā)性, 但尚需進(jìn)一步發(fā)展:第一方面其背景表情只有悲傷、高興、中性三種, 未能全面探索所有表情背景。第二方面其目的只是探索背景情緒效價(jià)對(duì)微表情的影響, 沒(méi)有揭示在各表情背景中的微表情實(shí)質(zhì)上是與中性背景微表情具有本質(zhì)差異的新微表情即生態(tài)化微表情——其識(shí)別正確率與中性背景微表情有差異, 預(yù)示著識(shí)別機(jī)制可能不同; 而且還可能會(huì)受背景表情的啟動(dòng)、誘導(dǎo)或掩蔽作用影響產(chǎn)生正性或負(fù)性扭曲。第三方面由于上兩個(gè)原因, 導(dǎo)致沒(méi)有創(chuàng)建生態(tài)化微表情的概念和標(biāo)準(zhǔn)化測(cè)驗(yàn)與訓(xùn)練范式, 尚沒(méi)有如Matsumoto等(2000)檢驗(yàn)信效度建立經(jīng)典JACBART微表情識(shí)別測(cè)驗(yàn), 沒(méi)有進(jìn)一步如Ekman (2002)建立經(jīng)典METT微表情識(shí)別訓(xùn)練。
微表情發(fā)生和微表情識(shí)別及其訓(xùn)練是兩個(gè)比較獨(dú)立的領(lǐng)域, 固然因?yàn)閮烧呤蔷哂斜举|(zhì)差異的認(rèn)知加工。(1)另一個(gè)重要原因是真實(shí)微表情難以獲得, 導(dǎo)致已有微表情識(shí)別和訓(xùn)練研究都是采用普通表情短暫閃現(xiàn)來(lái)近似微表情, 尚未采用微表情發(fā)生范式獲得的真實(shí)微表情。(2)而微表情發(fā)生的說(shuō)謊?泄露范式考慮了微表情識(shí)別, 創(chuàng)設(shè)了說(shuō)謊壓力情境——主試或警察通過(guò)對(duì)被試微表情識(shí)別來(lái)判斷是否說(shuō)謊; 微表情發(fā)生的壓抑?誘發(fā)范式讓被試保持平靜的中性表情, 隱含著主試對(duì)被試進(jìn)行微表情識(shí)別和審核的意思, 以判斷被試是否成功保持了平靜表情, 可見(jiàn)兩者都只是把微表情識(shí)別作為微表情發(fā)生的情境, 沒(méi)有做專門研究以分離出微表情識(shí)別對(duì)微表情發(fā)生的影響。
但是現(xiàn)實(shí)生活中微表情發(fā)生和識(shí)別通常是一起發(fā)生且交互作用的, 繼續(xù)保持兩個(gè)領(lǐng)域的獨(dú)立發(fā)展不利于探索真實(shí)微表情的機(jī)制, 本文認(rèn)為可以采用兩個(gè)途徑嘗試跨越兩個(gè)領(lǐng)域的界限:(1) 微表情發(fā)生→微表情識(shí)別。Yan, Wu, Liu等(2013)以及Yan等(2014)建立了中國(guó)微表情數(shù)據(jù)庫(kù)CASME和 CASMEII, 這些數(shù)據(jù)庫(kù)是比較真實(shí)的微表情;說(shuō)謊?泄露范式的研究也獲得了很多真實(shí)微表情(Porter & ten Brinke, 2008; Frank & Ekman, 2004;Frank, Svetieva et al., 2014), 未來(lái)可以采用這些真實(shí)微表情改進(jìn) JACBART和 METT。進(jìn)一步可探索人們識(shí)別不同微表情發(fā)生范式獲得的真實(shí)微表情的特征和差異, 不同發(fā)生范式下的真實(shí)微表情的哪些類型(情緒效價(jià))和特征(半臉和動(dòng)態(tài))可以比較輕易地被他人識(shí)別, 另一些則難以被他人識(shí)別, 其中的原理是什么。(2) 微表情識(shí)別→微表情發(fā)生。微表情表達(dá)者能否判斷自己微表情是否被他人識(shí)別?這種判斷包含了微表情表達(dá)者對(duì)自己微表情發(fā)生的覺(jué)察(甚至可以定義為對(duì)自己微表情的內(nèi)部識(shí)別)和對(duì)他人識(shí)別自己微表情的推測(cè),將如何影響其微表情發(fā)生?更擴(kuò)展一些, 探索人們對(duì)他人的微表情識(shí)別如何影響自己的微表情發(fā)生。Shen等(2012)和申尋兵(2012)建立了微表情識(shí)別性定義, 雖然不能作為微表情發(fā)生定義, 但是就可以應(yīng)用于微表情識(shí)別對(duì)微表情發(fā)生的影響的探索中。未來(lái)可通過(guò)這兩個(gè)途徑發(fā)展出更真實(shí)更生態(tài)化的新微表情發(fā)生、識(shí)別和訓(xùn)練范式。
另外值得注意的是, 微表情識(shí)別訓(xùn)練不能簡(jiǎn)稱為微表情訓(xùn)練。因?yàn)檫€有對(duì)微表情發(fā)生的訓(xùn)練,如訓(xùn)練被試控制和掩蓋自己的微表情發(fā)生和扭曲,訓(xùn)練被試對(duì)自己微表情的意識(shí)程度, 訓(xùn)練被試判斷他人對(duì)自己微表情的覺(jué)察。由于微表情發(fā)生的訓(xùn)練比較特殊, 屬于國(guó)防和商業(yè)間諜項(xiàng)目, 因此尚未見(jiàn)到相關(guān)文獻(xiàn), 本文無(wú)法做介紹。但這是一個(gè)值得探索的領(lǐng)域。
已有微表情發(fā)生、識(shí)別和訓(xùn)練的研究, 大都是行為實(shí)驗(yàn), 很少有用 ERP或 fMRI等腦成像技術(shù)探索腦機(jī)制的研究。微表情識(shí)別和訓(xùn)練很容易通過(guò)實(shí)驗(yàn)實(shí)現(xiàn), 且有成熟范式, 但其電生理和腦成像研究發(fā)表的很少, 一個(gè)原因是國(guó)外研究者出于國(guó)防應(yīng)用的保密性考慮, 很多成果沒(méi)有發(fā)表。
而微表情產(chǎn)生于表情加工的雙系統(tǒng)的“拔河比賽”的證據(jù)局限在行為實(shí)驗(yàn)數(shù)據(jù), 尚缺乏電生理和腦成像實(shí)驗(yàn)數(shù)據(jù)的較直接的揭示機(jī)制的證據(jù),因此還只能看作是推測(cè)性理論。其主要原因是微表情誘發(fā)較困難且不穩(wěn)定, 而Yan, Wu, Liu等(2013)改進(jìn)的壓抑?誘發(fā)微表情發(fā)生范式建立了中國(guó)微表情數(shù)據(jù)庫(kù) CASME, 該改進(jìn)版能夠比較穩(wěn)定地產(chǎn)生較高概率的微表情, 而且是通過(guò)簡(jiǎn)單的實(shí)驗(yàn)操作來(lái)實(shí)現(xiàn), 不需要?jiǎng)?chuàng)設(shè)說(shuō)謊情境(梁靜等, 2013),未來(lái)可以開(kāi)發(fā)為電生理和腦成像的有效范式。其中需要解決的難題是其微表情的標(biāo)簽?zāi)壳靶枰€下人工確定, Yan等(2014)利用自動(dòng)化表情識(shí)別技術(shù),根據(jù) CASME的數(shù)據(jù)常模, 開(kāi)發(fā)了可自動(dòng)化機(jī)器識(shí)別的CASMEII, 因此未來(lái)可以利用CASMEII的自動(dòng)微表情識(shí)別技術(shù)或者面部肌電指標(biāo)在線上自動(dòng)打上標(biāo)簽, 以推進(jìn)微表情的電生理和腦成像研究。
微表情動(dòng)態(tài)特征非常復(fù)雜, 對(duì)其研究只見(jiàn)到Y(jié)an, Wu, Liang等等(2013)將表情發(fā)生三階段擴(kuò)展應(yīng)用到微表情發(fā)生的行為實(shí)驗(yàn), 而面孔的長(zhǎng)久特征和瞬態(tài)特征、微表情的短暫呈現(xiàn)受背景表情影響這兩個(gè)動(dòng)態(tài)特征尚缺乏研究, 三者的交互更需探索。由于生理?心理指標(biāo)特別是肌電的時(shí)空分辨度較高, 未來(lái)可作為研究微表情動(dòng)態(tài)特征的直接且有效的指標(biāo)。
已有微表情影響因素的研究集中在微表情識(shí)別及其訓(xùn)練上, 發(fā)現(xiàn)性別、年齡、職業(yè)、文化/種族、個(gè)人心理特征包括人格和認(rèn)知因素、背景表情等; 尚未見(jiàn)到考察微表情發(fā)生和機(jī)制的影響因素的研究。未來(lái)可以借鑒微表情識(shí)別和訓(xùn)練的影響因素研究, 探索這些因素是否影響微表情發(fā)生和機(jī)制。
既然已有研究證明表情背景會(huì)對(duì)微表情識(shí)別產(chǎn)生影響(Zhang et al., 2014), 進(jìn)一步研究就可以采用七種基本表情(悲傷、恐懼、憤怒、厭惡、平靜即中性、驚訝、高興)作為背景建立生態(tài)化微表情識(shí)別的標(biāo)準(zhǔn)測(cè)驗(yàn), 獲得良好的信效度。比較在不同基線下的同一種微表情識(shí)別差異, 以及同一種基線下不同微表情識(shí)別差異。并且與以中性表情作為背景的 JACFEE微表情識(shí)別測(cè)驗(yàn)做比較, 驗(yàn)證生態(tài)化微表情是否確實(shí)與中性背景微表情有本質(zhì)差異, 即測(cè)驗(yàn)具有效度。進(jìn)一步可以操縱微表情和背景表情的喚醒程度, 得到強(qiáng)背景表情下強(qiáng)微表情、強(qiáng)背景下弱微表情、弱背景下強(qiáng)微表情和弱背景下弱微表情四種不同生態(tài)化微表情識(shí)別的標(biāo)準(zhǔn)測(cè)驗(yàn)和常模, 探索四者的特征。操縱微表情和背景表情的呈現(xiàn)時(shí)間, 則是根據(jù)中性背景微表情研究就可以很容易想到的擴(kuò)展研究。
建立了各種生態(tài)化微表情識(shí)別標(biāo)準(zhǔn)測(cè)驗(yàn), 下一步就可以采用它們作為前測(cè)和后測(cè), 改進(jìn)METT中性背景微表情訓(xùn)練為 EMETT (Ecological Micro Expression Trainning Tool)即生態(tài)化微表情識(shí)別訓(xùn)練。本研究團(tuán)隊(duì)正在開(kāi)展這些研究工作, 初步證實(shí)了以上假設(shè)。
由于已有數(shù)據(jù)庫(kù)的微表情都是發(fā)生在中性表情背景下, 生態(tài)效度有所欠缺。因此可以改進(jìn)這些數(shù)據(jù)庫(kù)的范式, 在實(shí)驗(yàn)情境下生成生態(tài)化微表情, 并與大量的臨床和政治視頻中發(fā)現(xiàn)的真實(shí)生態(tài)化微表情作比較。在此基礎(chǔ)上選擇或者創(chuàng)建更接近真實(shí)生態(tài)化微表情的實(shí)驗(yàn)范式, 可控地產(chǎn)生大量生態(tài)化微表情, 建立生態(tài)化微表情數(shù)據(jù)庫(kù),為進(jìn)一步探究其機(jī)制打下數(shù)據(jù)基礎(chǔ)。
Fellner等(2007)發(fā)現(xiàn)中性背景微表情識(shí)別能力與認(rèn)知能力和人格開(kāi)放性相關(guān), 而與情緒智力無(wú)關(guān); Matsumoto等(2000)發(fā)現(xiàn)中性背景微表情識(shí)別能力和人格外傾性、開(kāi)放性相關(guān)。表明中性背景微表情識(shí)別能力更多的是認(rèn)知能力和人格特征,而非情緒智力。但這或許是由于其微表情只是鑲嵌在中性表情背景中, 不需要充分激活情緒智力,如果是鑲嵌在各種表情背景中的生態(tài)化微表情識(shí)別, 可能就需要情緒智力了。因此可以探索生態(tài)化微表情識(shí)別能力與情緒智力的關(guān)系, 當(dāng)然同時(shí)可以探索與認(rèn)知能力、人格和人生態(tài)度的關(guān)系。
Liu, Huang, Wang, Gong和Chan (2012)研究顯示, 抑郁患者容易把中性甚至正性表情誤判為負(fù)性, 那么是否對(duì)微表情也有同樣或者別樣的誤判傾向?可能微表情識(shí)別比表情識(shí)別更能夠測(cè)量到抑郁程度。未來(lái)可開(kāi)發(fā)適合測(cè)量抑郁程度的生態(tài)化微表情識(shí)別測(cè)驗(yàn), 為診斷提供客觀量化的指標(biāo)。Russell等(2006)以及 Russell等(2008)采用METT訓(xùn)練精神分裂癥患者, 都得到了良好的訓(xùn)練效果, 那么采用更具有生態(tài)效度的 EMETT生態(tài)化微表情訓(xùn)練(見(jiàn)4.1.1), 可能獲得更好的療效。
除了臨床應(yīng)用, 生態(tài)化微表情識(shí)別和 EMETT訓(xùn)練還可以應(yīng)用到公共管理、政治、公安、刑偵審訊測(cè)謊、談判、社交培訓(xùn)、情緒智力提高等各種社會(huì)領(lǐng)域, 由于其更具有生態(tài)效度, 具有廣闊的應(yīng)用前景。Chiu, Chou, Wu和Liaw (2014)首次把微表情應(yīng)用到教育領(lǐng)域, 發(fā)現(xiàn)微表情的變化可以作為測(cè)量知識(shí)概念沖突的有效指標(biāo), 從而判斷學(xué)生的學(xué)習(xí)程度和教學(xué)有效程度。因此生態(tài)化微表情識(shí)別還可以應(yīng)用到教育領(lǐng)域。
梁靜, 顏文靖, 吳奇, 申尋兵, 王甦菁, 傅小蘭. (2013).微表情研究的進(jìn)展與展望.中國(guó)科學(xué)基金, 37(2), 75–82.
申尋兵. (2012). 微表情識(shí)別的時(shí)間特性及加工機(jī)制研究(博士學(xué)位論文). 中國(guó)科學(xué)院研究生院, 北京.
吳奇, 申尋兵, 傅小蘭. (2010). 微表情研究及其應(yīng)用. 心理科學(xué)進(jìn)展, 18(9), 1359–1368.
吳冉, 任衍具. (2011). 微表情的啟動(dòng)效應(yīng)研究.應(yīng)用心理學(xué), 17(3), 241–248.
Bhushan, B. (2015). Study of facial micro-expressions in psychology. In M. K. Mandal & A. Awasthi (Eds.),Understanding facial expressions in communication(pp.265–286). India: Springer.
Bond, C. F., Jr., & DePaulo, B. M. (2006). Accuracy of deception judgments.Personality and Social Psychology Review, 10, 214–234.
Bradley, M. M., & Lang, P. J. (2000). Measuring emotion:Behavior, feeling, and physiology. In R. D. Lane & L.Nadel (Eds.),Cognitive neuroscience of emotion(pp.242–276). New York: Oxford University Press.
Buller, D. B., & Burgoon, J. K. (1996). Interpersonal deception theory.Communication Theory, 6, 203–242.
Carroll, J. M., & Russell, J. A. (1996). Do facial expressions signal specific emotions? Judging emotion from the face in context.Journal of Personality and Social Psychology,70, 205–218.
Carton, J. S., Kessler, E. A., & Pape, C. L. (1999). Nonverbal decoding skills and relationship well-being in adults.Journal of Nonverbal Behavior, 23, 91–100.
Castillo, P. A. (2015). The detection of deception in cross-cultural contexts. In M. K. Mandal & A. Awasthi(Eds.),Understanding facial expressions in communication(pp. 243–263). India: Springer.
Chiu, M. H., Chou, C. C., Wu, W. L., & Liaw, H. (2014). The role of facial microexpression state (FMES) change in the process of conceptual conflict.British Journal of Educational Technology, 45(3), 471–486.
DePaulo, B. M., Lindsay, J. J., Malone, B. E., Muhlenbruck,L., Charlton, K., & Cooper, H. (2003). Cues to deception.Psychological Bulletin, 129(1), 74–118.
Ekman, P. (2001a). Facial expression. In C. Blakemore & S.Jennett (Eds.),The oxford companion to the body. Oxford,UK: Oxford University Press.
Ekman, P. (2001b).Telling lies: Clues to deceit in the marketplace, politics, and marriage(3rd ed.). New York:W. W. Norton & Company.
Ekman, P. (2002).MicroExpression Training Tool (METT).Retrieved April 15, 2009, from http://www.paulekman.com.
Ekman, P. (2003). Darwin, deception, and facial expression.Annals of the New York Academy of Sciences, 1000, 205–221.
Ekman, P. (2009). Lie catching and microexpressions. In C.Martin (Ed.),The philosophy of deception(pp. 118–133).Oxford: Oxford University Press.
Ekman, P., & Friesen, W. V. (1969a). The repertoire of nonverbal behavior: Categories, origins, usage and coding.Semiotica, 1, 49–98.
Ekman, P., & Friesen, W. V. (1969b). Nonverbal leakage and clues to deception.Psychiatry, 32, 88–106.
Ekman, P., & Friesen, W. V. (1974). Detecting deception from the body or face.Journal of Personality and Social Psychology, 29(3), 288–298.
Ekman, P., & Friesen, W. V. (1975).Unmasking the face: A guide to recognizing emotions from facial clues.Englewood Cliffs, NJ: Prentice Hall.
Ekman, P., & Friesen, W. V. (1982). Felt, false, and miserable smiles.Journal of Nonverbal Behavior, 6, 238– 252.
Ekman, P., & O’Sullivan, M. (1991). Who can catch a liar.American Psychologist, 46, 913–920.
Ekman, P., & O’Sullivan, M. (2006). From flawed selfassessment to blatant whoppers: The utility of voluntary and involuntary behavior in detecting deception.Behavior Science and the Law, 24, 673–686.
Ekman, P., & Rosenberg, E. L. (2005).What the face reveals:Basic and applied studies of spontaneous expression using the facial action coding system.Oxford, UK: Oxford University Press.
Endres, J., & Laidlaw, A. (2009). Micro-expression recognition training in medical students: A pilot study.BMC Medical Education, 9, 47.
Fellner, A. N., Matthews, G., Funke, G. J., Emo, A. K.,PérezGonzález, J. C., Zeidner, M., & Roberts, R. D.(2007). The effects of emotional intelligence on visual search of emotional stimuli and emotion identification. In:Proceedings of the Human Factors and Ergonomics Society 51st Annual Meeting(pp. 845–849). Santa Monica,CA, USA: HEFS.
Frank, M. G., & Ekman, P. (1997). The ability to detect deceit generalizes across different types of high-stake lies.Journal of Personality and Social Psychology, 72, 1429–1439.
Frank, M. G., & Ekman, P. (2004). Appearing truthful generalizes across different deception situations.Journal of Personality and Social Psychology, 86, 486–495.
Frank, M. G., Herbasz, M., Sinuk, K., Keller, A., & Nolan, C.(2009). I see how you feel: Training laypeople and professionals to recognize fleeting emotions. In:The Annual Meeting of the International Communication Association,Sheraton New York, New York City, NY. Retrieved July 1, 2014, from http://www.allacademic.com/meta/p15018_index.html
Frank, M. G., & Hurley, C. M. (2014).Detecting deception and emotion in police officers.Manuscript in review.
Frank, M. G., Kim, D. J., Kang, S., Kurylo, A., & Matsumoto,D. (2014).Improving the ability to detect micro expressions in law enforcement officers.Manuscript in preparation.
Frank, M. G., Maccario, C. J., & Govindaraju, V. (2009).Behavior and security. In P. Seidenstat & F. X. Splane(Eds.),Protecting airline passengers in the age of terrorism(pp. 86–106).Santa Barbara, California: Praeger Security International.
Frank, M. G., Matsumoto, D., Ekman, P., Kang, S., & Kurylo,A. (2014).Improving the ability to recognize real time micro expressions of emotion. Manuscript under review.
Frank, M. G., & Svetieva, E. (2012). Lies worth catching involve both emotion and cognition.Journal of Applied Research in Memory and Cognition, 1, 131–133.
Frank, M. G., & Svetieva, E. (2013). The role of nonverbal behavior in detecting and telling lies. In M. L. Knapp & J.A. Hall (Eds.),Nonverbal communication(pp. 471–511).New York: Mouton de Gruyter.
Frank, M. G., & Svetieva, E. (2015). Microexpressions and deception. In Mandal & Awasthi (Eds.),Understanding facial expressions in communication(pp. 227–242). India:Springer.
Frank, M. G., Svetieva, E., Hurley, C. M., Kang, S., Sweet, D.,Pazian, M., & Ekman, P. (2014).Detecting lies in a counter terrorism situation: Body Language and Incongruity.Manuscript in preparation.
Frank, M. G., Yarbrough, J. D., & Ekman, P. (2006). Improving interpersonal evaluations: Combining science and practical experience. In T. Williamson (Ed.),Investigative interviewing:Rights, research, regulation(pp. 229–255). Portland, OR:Willan Publishing.
Hall, J. A., Andrzejewski, S. A., & Yopchick, J. E. (2009).Psychosocial correlates of interpersonal sensitivity: A meta-analysis.Journal of Nonverbal Behavior, 33, 149–180.
Hall, J. A., & Matsumoto, D. (2004). Gender differences in judgments of multiple emotions from facial expressions.Emotion, 4, 201–206.
Hietanen, J. K., & Astikainen, P. (2013). N170 response to facial expressions is modulated by the affective congruency between the emotional expression and preceding affective picture.Biological Psychology, 92, 114–124.
Hurley, C. M. (2012). Do you see what I see? Learning to detect micro expressions of emotion.Motivation and Emotion, 36, 371–381.
Hurley, C. M., Anker, A. E., Frank, M. G., Matsumoto, D., &Hwang, H. C. (2014). Background factors predicting accuracy and improvement in micro expression recognition.Motivation & Emotion, 38(5), 700–714.
Hurley, C. M., & Frank, M. G. (2011). Executing facial control during deception situations.Journal of Nonverbal Behavior, 35, 119–131.
Ihme, K., Lichev, V., Rosenberg, N., Sacher, J., Villringer, A.,Kersting, A., & Suslow, T. (2013). P 59. Which brain regions are involved in the correct detection of microexpressions?Preliminary results from a functional magnetic resonance imaging study.Clinical Neurophysiology, 124(10), e92–e93.
Keil, A., Moratti, S., Sabatinelli, D., Bradley, M. M., & Lang,P. J. (2005). Additive effects of emotional content and spatial selective attention on electrocortical facilitation.CerebralCortex, 15, 1187–1197.
Kilts, C. D., Egan, G., Gideon, D. A., Ely, T. D., & Hoffman,J. M. (2003). Dissociable neural pathways are involved in the recognition of emotion in static and dynamic facial expressions.NeuroImage, 18, 156–168.
Lang, P. J. (1995). The emotion probe: Studies of motivation and attention.American Psychologist, 50, 372–385.
Larsen, J. T., Norris, C. J., & Cacioppo, J. T. (2003). Effects of positive and negative affect on electromyographic activity overzygomaticus majorandcorrugator supercilii.Psychophysiology, 40, 776–785.
Liu, W. H., Huang, J., Wang, L. Z., Gong, Q. Y., & Chan, R.C. K. (2012). Facial perception bias in patients with major depression.Psychiatry Research, 197(3), 217–220.
Marsh, P. J., Green, M. J., Russell, T. A., McGuire, J., Harris,A., & Coltheart, M. (2010). Remediation of facial emotion recognition in Schizophrenia: Functional predictors,generalizability, and durability.American Journal of Psychiatric Rehabilitation, 13, 143–170.
Matsumoto, D., & Ekman, P. (1988). Japanese and Caucasian Facial Expressions of Emotion (JACFEE) and Neutral Faces (JACNeuF). Department of Psychiatry, University of California, San Francisco.
Matsumoto, D., & Hwang, H. S. (2011). Evidence for training the ability to read microexpressions of emotion.Motivation and Emotion, 35, 181–191.
Matsumoto, D., Hwang, H. C., Skinner, L. G., & Frank, M. G.(2014). Positive effects in detecting lies from training to recognize behavioral anomalies.Journal of Police and CriminalPsychology, 29, 28–35.
Matsumoto, D., Keltner, D., Shiota, M., Frank, M., &O’Sullivan, M. (2008). Facial expressions of emotions. In M. Lewis, J. M. Haviland-Jones, & L. Feldman-Barrett(Eds.),Handbook of emotions(3rd ed., pp. 211–234). New York: Guilford Press.
Matsumoto, D., LeRoux, J., Wilson-Cohn, C., Raroque, J.,Kooken, K., Ekman, P., … Goh, A. (2000). A new test to measure emotion recognition ability: Matsumoto and Ekman’s Japanese and Caucasian Brief Affect Recognition Test (JACBART).Journal of Nonverbal Behavior, 24,179–209.
Matsumoto, D., Nezlek, J. B., & Koopmann, B. (2007).Evidence for universality in phenomenological emotion response system coherence.Emotion, 7(1), 57–67.
Matsumoto, D., Yoo, S. H., & Fontaine, J. (2008). Mapping expressive differences around the world: The relationship between emotional display rules and individualism versus collectivism.Journal of Cross-Cultural Psychology, 39,55–74.
Meihlke, A. (1973).Surgery of the facial nerve. Philadelphia,PN: Saunders.
Memon, A. A., Vrij, A., & Bull, R. (2003).Psychology and law: Truthfulness, accuracy and credibility(2nd ed.). New York: Wiley.
Mill, A., Allik, J., Realo, A., & Valk, R. (2009). Age-related differences in emotion recognition ability: A crosssectional study.Emotion, 9, 619–630.
Mufson, L., & Nowicki, S., Jr. (1991). Factors affecting the accuracy of facial affect recognition.The Journal of Social Psychology, 131, 815–822.
Myers, R. E. (1976). Comparative neurology of vocalization and speech: Proof of a dichotomy.Annals of the New York Academy of Sciences, 280, 745–757.
O’Sullivan, M., Frank, M. G., Hurley, C. M., & Tiwana, J.(2009). Police lie detection accuracy: The effect of lie scenario.Law and Human Behavior, 33, 530–538.
Polikovsky, S., Kameda, Y., & Ohta, Y. (2009). Facial microexpressions recognition using high speed camera and 3D-gradient descriptor. In3rd International Conference on Crime Detection and Prevention.London: IEEE.
Porter, S., & ten Brinke, L. (2008). Reading between the lies:Identifying concealed and falsified emotions in universal facial expressions.Psychological Science, 19(5), 508–514.
Porter, S., ten Brinke, L., & Wallace, B. (2012). Secrets and lies: Involuntary leakage in deceptive facial expressions as a function of emotional intensity.Journal of Nonverbal Behavior, 36(1), 23–37.
Pourtois, G., Grandjean, D., Sander, D., & Vuilleumier, P. (2004).Electrophysiological correlates of rapid spatial orienting towards fearful faces.Cerebral Cortex, 14, 619– 633.
Righart, R., & de Gelder, B. (2008). Rapid influence of emotional scenes on encoding of facial expressions: An ERP study.Social Cognitive and Affective Neuroscience, 3,270–278.
Rothwell, J., Bandar, Z., O’Shea, J., & Mclean, D. (2006).Silent talker: A new computer-based system for the analysis of facial cues to deception.Applied Cognitive Psychology,20, 757–777.
Rubin, R. S., Munz, D. C., & Bommer, W. H. (2005).Leading from within: The effects of emotion recognition and personality on transformational leadership behavior.Academy of Management Journal, 48, 845–858.
Russell, T. A., Chu, E., & Phillips, M. L. (2006). A pilot study to investigate the effectiveness of emotion recognition remediation in schizophrenia using the micro-expression training tool.British Journal of Clinical Psychology, 45,579–583.
Russell, T. A., Green, M. J., Simpson, I., & Coltheart, M. (2008).Remediation of facial emotion perception in schizophrenia:Concomitant changes in visual attention.Schizophrenia Research, 103, 248–256.
Shen, X. B., Wu, Q., & Fu, X. L. (2012). Effects of the duration of expressions on the recognition of microexpressions.Journal of Zhejiang University- SCIENCE B, 13(3), 221–230.
Shreve, M., Godavarthy, S., Manohar, V., Goldgof, D., &Sarkar, S. (2009). Towards macro- and micro-expression spotting in video using strain patterns. In:IEEE Workshop on Applications of Computer Vision. Snowbird, UT: IEEE.
Spence, S. A., Farrow, T. F. D., Herford, A. E., Wilkinson, I.D., Zheng, Y., & Woodruff, P. W. R. (2001). Behavioural and functional anatomical correlates of deception in humans.Neuroreport:For Rapid Communication of Neuroscience Research,12(13), 2849–2853.
Sporer, S. L., & Schwandt, B. (2006). Paraverbal indicators of deception: A meta-analytic synthesis.Applied Cognitive Psychology, 20(4), 421–446.
Sporer, S. L., & Schwandt, B. (2007). Moderators of nonverbal indicators of deception: A meta-analytic synthesis.Psychology, Public Policy, and Law, 13(1), 1–34.
Sutin, A. R., Beason-Held, L. L., Resnick, S. M., & Costa, P.T. (2009). Sex differences in resting-state neural correlates of openness to experience among older adults.Cerebral Cortex, 19, 2797–2802.
Tanaka-Matsumi, J., Attivissimo, D., Nelson, S., & D’Urso, T.(1995). Context effects on the judgment of basic emotions in the face.Motivation and Emotion, 19, 139–155.
Vrij, A. (2008).Detecting lies and deceit: Pitfalls and opportunities(2nd ed.). Hoboken, NJ: Wiley.
Vrij, A., Edward, K., Roberts, K. P., & Bull, R. (2000).Detecting deceit via analysis of verbal and nonverbal behavior.Journal of Nonverbal Behavior, 24(4), 239–263.
Vrij, A., Mann, S. A., Fisher, R. P., Leal, S., Milne, R., &Bull, R. (2008). Increasing cognitive load to facilitate lie detection: The benefit of recalling an event in reverse order.Law and HumanBehavior, 32, 253–265.
Warren, G., Schertler, E., & Bull, P. (2009). Detecting deception from emotional and unemotional cues.Journal of Nonverbal Behavior, 33, 59–69.
Werheid, K., Alpay, G., Jentzsch, I., & Sommer, W. (2005).Priming emotional facial expressions as evidenced by event-related brain potentials.International Journal of Psychophysiology, 55, 209–219.
Williams, L. M., Liddell, B. J., Rathjen, J., Brown, K. J.,Gray, J., Phillips, M., … Gordon, E. (2004). Mapping the time course of nonconscious and conscious perception of fear: An integration of central and peripheral measures.Human Brain Mapping, 21, 64–74.
Wojciechowski, J. Stolarski, M., & Matthews, G. (2014).Emotional intelligence and mismatching expressive and verbal messages: A contribution to detection of deception.PLoS One, 9(3), e92570.
Yan, W. J., Li, X. B., Jang, S. J., Zhao, G. Y., Liu, Y. J., Chen,Y. H., & Fu, X. L. (2014). CASME II: An improved spontaneous micro-expression database and the baseline evaluation.PLoS One, 9, e86041.
Yan, W. J., Wu, Q., Liang, J., Chen, Y. H., & Fu, X. L. (2013).How fast are the leaked facial expressions: The duration of micro-expressions.Journal of Nonverbal Behavior, 37,217–230.
Yan, W. J., Wu, Q., Liu, Y. J., Wang, S. J., & Fu, X. L. (2013).CASME database: A dataset of spontaneous microexpressions collected from neutralized faces. In10th IEEE international conference and workshops on automatic face and gesture recognition (FG 2013). Shanghai, China:IEEE.
Zhang, M., Fu, Q. F., Chen, Y. H., & Fu, X. L. (2014).Emotional context influences micro-expression recognition.PLoS One, 9(4), e95018.
Zuckerman, M., DePaulo, B. M., & Rosenthal, R. (1981).Verbal and nonverbal communication of deception. In L.Berkowitz (Ed.),Advances in experimental social psychology(Vol. 14, pp. 1–59). New York: Elsevier.