劉俊材 冉光明 張 琪
·元分析(Meta-Analysis)·
不同情緒載體的神經(jīng)活動及其異同——腦成像研究的ALE元分析*
劉俊材1冉光明1張 琪2
(1西華師范大學教育學院心理系;2西華師范大學學前與初等教育學院, 四川 南充 637002)
情緒識別一直是學界關注的熱點。雖然已有研究探討了動態(tài)面孔表情、動態(tài)身體表情和聲音情緒的腦機制, 但對每種情緒載體的整體認識相對不完善, 同時對不同情緒載體之間神經(jīng)機制的共性和區(qū)別知之甚少。因此, 本研究首先通過三項獨立的激活似然估計元分析來識別每種情緒模式的大腦激活區(qū)域, 然后進行對比分析以評估三種情緒載體之間共同的和獨特的神經(jīng)活動。結(jié)果顯示, 動態(tài)面孔表情的大腦活動包括廣泛的額葉、枕葉、顳葉和部分頂葉皮層以及海馬、小腦、丘腦、杏仁核等皮層下區(qū)域; 動態(tài)身體表情的激活集中于顳/枕葉相關腦區(qū)以及小腦和海馬; 聲音情緒則引起了顳葉、額葉、杏仁核、尾狀核和腦島的激活。聯(lián)合分析表明, 三種情緒載體跨模態(tài)激活了左側(cè)顳中回和右側(cè)顳上回。對比分析的結(jié)果證明了視覺刺激比聽覺刺激更占優(yōu)勢, 動態(tài)面孔表情尤為突出, 同時動態(tài)身體表情也發(fā)揮著重要作用, 但聲音情緒有其獨特性。總之, 這些發(fā)現(xiàn)驗證和拓展了三種情緒載體的現(xiàn)有神經(jīng)模型, 揭示了情緒處理中心的、普遍性的區(qū)域, 但每種情緒載體又有自己可靠的特異性神經(jīng)回路。
情緒載體; 動態(tài)面孔表情; 動態(tài)身體表情; 聲音情緒; ALE元分析
作為一個高度社會化的物種, 人類無時無刻不與他人進行頻繁的社會互動。準確感知他人的情緒是社會互動中最重要的社交技能之一。心理學界長期以來一直關注與情緒相關的面孔表情、身體動作和聲音情緒, 這是因為它們都是社會關系建立和維持過程中不可或缺的交際信號。例如, 恐懼可以通過面孔眼部區(qū)域的視覺信息、身體部位的動作和姿勢以及聲音的聲學變化來識別(de Gelder et al., 2006; Heberlein & Atkinson, 2009)。盡管這些信號有著本質(zhì)不同, 但都可以導致對情緒狀態(tài)的相同識別(即, 人是害怕的), 并激活觀察者相似的情緒特異性反應(Magnée et al., 2007)。
1.1.1 動態(tài)面孔表情及其神經(jīng)基礎
面孔是社會生活中最常見的刺激形式, 100多塊解剖上和功能上截然不同的肌肉構(gòu)成了這一巨大的姿勢空間(Kilts et al., 2003; Waters & Terzopoulos, 1990)。肌肉的細微變化提供了豐富而有力的社會信息, 我們可以通過面孔的特征快速而準確地推斷他人的特質(zhì)(Ritchie et al., 2017), 并自動化地形成對他人的印象(Klapper et al., 2016), 以便于進一步的社會交流(Haxby et al., 2000; 張琪等, 2015)。但在日常生活中, 我們面對的面孔是動態(tài)變化而非靜態(tài)的, 準確識別他人的動態(tài)情緒面孔對于個體的生存以及人際交往更為重要。研究表明, 在動態(tài)面孔表情處理的神經(jīng)網(wǎng)絡中存在一個核心的神經(jīng)網(wǎng)絡, 即顳?枕聯(lián)合區(qū)(Foley et al., 2012; Haxby et al., 2000), 包括梭狀回(fusiform gyrus, FG)、顳上回(superior temporal gyrus, STG)、顳中回(middle temporal gyrus, MTG)、顳下回(inferior temporal gyrus, ITG)、枕中回(middle occipital gyrus, MOG)和枕下回(inferior occipital gyrus, IOG)等。由核心神經(jīng)網(wǎng)絡向外延伸的被稱為擴展的神經(jīng)網(wǎng)絡, 包括核心腦區(qū)之外的廣大皮層和皮層下的相關腦區(qū), 前者涉及頂下小葉(inferior parietal lobule, IPL) (Sarkheil et al., 2013)和額下回(inferior frontal gyrus, IFG) (Sato et al. et al., 2012)等, 而后者主要與杏仁核(amygdala)有關(Sato et al., 2010)。核心腦區(qū)主要負責早期的視覺分析和刺激的運動加工, 而擴展的神經(jīng)網(wǎng)絡則與個體的情感處理、面孔模仿、刺激的動態(tài)表征等有關(Haxby et al., 2000; 張琪等, 2015)。Zinchenko等人(2018)的元分析發(fā)現(xiàn)動態(tài)面孔表情激活了上述腦區(qū)以及小腦(cerebellum), 驗證和支持了動態(tài)面孔表情處理的神經(jīng)網(wǎng)絡。
1.1.2 動態(tài)身體表情及其神經(jīng)基礎
除了面孔表情外, 身體表情也是情感交流的重要載體。長期以來, 面孔表情被認為是比身體表情更普遍、更一致的情感信息載體(de Gelder, et al.,2014)。然而, 研究表明, 成年人通過身體姿勢和動作來識別情緒的準確性可以與面孔相媲美(Atkinson et al., 2007; Zieber et al., 2014), 甚至在某些情況下, 人的身體比面孔更能傳達情緒狀態(tài)(de Gelder & Partan, 2009; Sinke, et al., 2012)。與面孔相比, 身體有著獨特的優(yōu)勢, 可以促進信息的情感交流, 例如, 其相對較大的尺寸使得他們在更遠的距離就能被看到, 即使是處在信號發(fā)出者的背后也能觀察到身體所傳達的情感信號(de Gelder, 2009)。但以往關于動態(tài)身體表情的加工機制存在不同的看法, 一部分研究者贊同Giese和Poggio (2003)提出的軀體形態(tài)與動作加工的分層神經(jīng)模型, 他們認為身體形態(tài)信息(如外形特征)的加工通路始于視覺皮層, 經(jīng)次級顳葉皮層到達梭狀回和顳上溝(superior temporal sulcus, STS); 動作與情緒信息的加工通路從視覺皮層出發(fā), 經(jīng)枕葉和顳葉, 而后到達負責整合人類復雜動作信息的顳上溝(de Gelder et al., 2014; Moro et al., 2008)。但大多數(shù)研究者更認同de Gelder等人(2006, 2015)提出的身體表情加工的雙通道理論。該理論認為身體表情的加工有兩條獨立且相互協(xié)作的神經(jīng)通路:一條是身體表情的自動化加工通路, 維持著反射性行為, 主要涉及上丘(superior colliculus, SC)、丘腦(thalamus)、紋狀體(striatum)和杏仁核等; 另一條是皮層控制回路, 主要負責情感、認知和決策過程, 包括額?頂運動系統(tǒng)、前額葉與杏仁核相連接的部分。
1.1.3 聲音情緒及其神經(jīng)基礎
聲音同樣帶有關于動作發(fā)出者的多種信息(Krauss et al., 2002; Pisanski et al., 2016), 和面孔及身體一樣容易識別(Scherer, 1995), 但與視覺刺激更高的空間靈敏度不同, 聲音的主要作用是使我們能夠區(qū)分更細微的時間差異(Calvert et al., 1998)。與面孔和身體相比, 聲音更具層次化(多樣性), 如強度、速度、0等都可以傳達信息(Scherer et al., 2003)。研究者認為聲音主要傳遞著言語、情緒和身份信息, 有三條部分分離的神經(jīng)通路分別進行加工(Belin et al., 2004)。言語信息加工的腦機制可以用雙通路模型(Hickok & Poeppel, 2007)很好的理解。在該模型中, 雙側(cè)顳上溝的中部和后部(middle and superior temporal sulcus, M/PSTS)負責聲音刺激的語音加工和表征, 隨后分出腹側(cè)通路和背側(cè)通路, 分別對言語信息進行意義理解和將顳上溝編碼的語音表征轉(zhuǎn)換成運動區(qū)域(額下回)編碼的發(fā)聲運動表征。情緒信息的加工則可以用3階段工作模型很好的解釋(Schirmer & Kotz, 2006):在刺激出現(xiàn)后的100 ms左右, 初級和次級聽覺皮層對聲學信息進行提取和分析; 在200 ms左右, 前顳上回/溝(anterior superior temporal gyrus/ sulcus, ASTG/S)和杏仁核對情緒線索進行整合; 在400 ms左右, 右側(cè)額下回和眶額皮質(zhì)(orbitofrontal cortex, OFC)進行更高級的認知評價, 左側(cè)額下皮層負責語義情緒信息加工。而身份信息的加工能夠從整合模型中得到全面了解(Maguinness et al., 2018)。根據(jù)該模型, 在感知層面的加工是對身份特征進行分析, 主要涉及顳上回/溝后部、顳橫回(heschl’s gyrus, HG)和顳平面(planum temporale, PT); 在識別層面, 被提取的身份特征在顳上回/溝中部與已儲存的聲音原型進行比較, 選擇出偏離原型的特征; 而后, 顳上回/溝前部和中部將偏離的特征與儲存的參照圖式進行比較, 即人聲?身份識別。元分析研究驗證了上述理論, 同時拓展了小腦和腦島(insula)等的作用(Frühholz & Grandjean, 2013; Frühholz et al., 2016)。
盡管大量的研究探討了三種情緒載體的神經(jīng)機制, 但通常都只關注單一模式的加工。隨著認識的深入, 部分研究者開始關注面孔表情和身體表情之間腦機制的相似性與差異性。一方面, 研究發(fā)現(xiàn), 面孔表情與身體表情加工的神經(jīng)機制存在重合。不論是靜態(tài)還是動態(tài)身體表情都能夠顯著激活梭狀回、顳上溝和杏仁核等面孔知覺敏感區(qū)域(Kret et al., 2011; Giese & Poggio, 2003)。此外, 不同情緒類型的面孔和身體刺激可以共同激活眶額皮質(zhì)(de Gelder, 2006)、腦島(Tamietto et al., 2015)和楔葉(cuneus) (Kret et al., 2011)等負責情緒加工的腦區(qū)。另一方面, 有證據(jù)支持面孔與身體表情加工的神經(jīng)機制存在分離。Downing等人(2001)的研究直接將不同刺激進行對比, 結(jié)果發(fā)現(xiàn)外紋狀皮層軀體區(qū)(extrastriate body area, EBA)僅對身體刺激敏感, 對面孔和其他刺激不敏感。此外, 盡管面孔和身體表情在腦區(qū)的激活峰值存在重合, 但具體的激活位置存在分離(Schwarzlose et al., 2005; van de Riet et al., 2009)。
除了探討面孔表情和身體表情之間神經(jīng)機制的相似性與差異性, 研究者還發(fā)現(xiàn)了面孔表情和聲音情緒之間神經(jīng)機制的異同。例如, Dricu和Frühholz (2016)的元分析研究表明, 面孔和聲音都引起了雙側(cè)額下皮層(inferior frontal cortex, IFC)、腹內(nèi)側(cè)額葉(dorsal medial frontal cortex, DMFC)、右側(cè)顳上溝和左側(cè)腦島的激活; 面孔比聲音在雙側(cè)杏仁核、梭狀回中部(middle fusiform gyrus, MFG)和視覺聯(lián)合區(qū)更為活躍; 而聲音比面孔在右側(cè)顳上溝中部、左側(cè)額下皮層、左內(nèi)側(cè)額葉和額葉島蓋(frontal operculum, FOP)上激活更大。Schirmer (2018)的元分析則對納入的面孔和聲音研究進行了匹配:為每個聲音研究選擇一個任務和情緒匹配的面孔研究; 沒有模式匹配的聲音研究被排除在分析之外; 如果一個聲音研究有多個匹配的面孔研究, 則進一步在被試數(shù)量、性別比例和發(fā)表時間上進行匹配, 選擇差異最小的研究。結(jié)果發(fā)現(xiàn), 面孔比聲音在雙側(cè)海馬旁回(parahippocampal gyrus, PHG)、左側(cè)胼胝下回(subcallosal gyrus, SG)和右側(cè)殼核(putamen)更為活躍; 聲音比面孔在雙側(cè)顳上溝上激活更大。
盡管以往對不同情緒載體神經(jīng)機制異同的考察大多數(shù)集中于兩種情緒載體之間, 但仍有極少數(shù)研究者關注到了多模態(tài)刺激之間神經(jīng)機制的相似性與差異性。Peelen等人(2010)要求被試評估從面部運動、身體動作和聲音語調(diào)中感知到的情緒強度, 結(jié)果發(fā)現(xiàn)內(nèi)側(cè)前額葉皮層(medial prefrontal cortex, MPFC)和左側(cè)顳上溝后部可以忽略情緒刺激載體來表征基本情緒。曹林敬(2018)的研究則有所不同:實驗1要求被試判別視覺刺激的情緒類型而不考慮刺激的類別(面孔、身體和全身情緒), 分析表明只有左側(cè)中央后回(postcentral gyrus, POCG)可以跨模態(tài)的顯著區(qū)分3種情緒; 實驗2要求被試對刺激的價態(tài)(負性、中性和正性)進行判斷, 但刺激類別有4種(面孔、身體、聲音和音樂), 涉及視聽覺兩種模態(tài), 結(jié)果發(fā)現(xiàn)左側(cè)中央后回和顳中回既可以不受不同模態(tài)的限制(視覺和聽覺)表征價態(tài)信息, 又可以不受視覺(面孔和身體)和聽覺(聲音和音樂)模態(tài)內(nèi)各自不同刺激類別的限制表征價態(tài)信息。
一方面, 實證研究存在其自身不可避免的缺陷。首先, 單個腦成像研究使用的被試數(shù)量相對較少, 由此可能導致統(tǒng)計檢驗力和效應量較低(Yarkoni, 2009); 其次, 神經(jīng)影像學數(shù)據(jù)對任務和控制條件等的選擇特別敏感, 由此可能導致結(jié)果的不一致(周臨舒等, 2017)。因此, 有必要采用基于大規(guī)模數(shù)據(jù)合成方法的元分析技術來克服單個腦成像研究的局限(Eickhoff et al., 2009; Yarkoni et al., 2011)。這不僅有助于彌補對每種情緒載體整體認識的不足[例如, 除上文所提及的腦區(qū)外, 大量的研究還發(fā)現(xiàn)動態(tài)面孔表情和聲音情緒激活了其他腦區(qū)(Brattico et al., 2011; Sato et al., 2012; Trautmann et al., 2009)。此外, 關于身體表情的加工模型仍然存在爭論, 尚無較為統(tǒng)一的結(jié)論], 還可以探究3種情緒載體之間神經(jīng)活動的一般性與差異性, 更能為今后的感興趣區(qū)(region of interest, ROI)分析提供具有代表的參考坐標點。另一方面, 現(xiàn)有的元分析存在一定不足。首先, 在動態(tài)面孔表情的元分析中, 大部分數(shù)據(jù)來自于女性被試, 且納入分析的文獻既有面孔剛性運動(指頭部轉(zhuǎn)動, 相對于身體而運動, 如點頭、搖頭)的研究, 又有非剛性運動(指臉部各個器官的運動, 如眨眼、撇嘴等)的研究, 其結(jié)果可能存在一定偏差。其次, 目前還沒有任何研究對動態(tài)身體表情進行元分析以確定其大腦活動區(qū)域。再次, 聲音情緒的元分析納入了非人類環(huán)境的聲音、部分研究只關注了情緒韻律的處理而忽視了音樂情緒和語調(diào)等。此外, 盡管有元分析將面孔和聲音進行對比, 但研究未區(qū)分靜態(tài)和動態(tài)面孔, 其結(jié)果的可靠性和可推廣性受到制約。最后, 目前還沒有元分析研究將面孔和身體、身體和聲音進行對比, 對三種情緒載體神經(jīng)機制的相似性與差異性的認識還相對不清晰。
綜上所述, 目前對每種情緒載體的整體認識相對不完善, 同時對不同情緒載體之間腦機制的共性和區(qū)別知之甚少。因此, 在本研究中, 首先采用激活似然估計(activation likelihood estimation, ALE)元分析來識別每種情緒模式的大腦激活區(qū)域。然后, 對這些元分析激活圖進行對比分析以評估三種情緒載體之間共同的和獨特的神經(jīng)機制。
在PubMed、PsycINFO、CNKI和Google Scholar中對發(fā)表的關于情緒腦機制的研究進行檢索(截止日期為2020年10月10日)。檢索使用的關鍵詞分為4組:第一組與神經(jīng)成像相關:神經(jīng)成像、功能性磁共振成像(functional magnetic resonance imaging, fMRI)、正電子發(fā)射斷層掃描(positive emission tomography, PET)、Neuroimaging、fMRI、PET; 第二組與刺激載體相關:面孔、身體、聲音、韻律、語調(diào)、音樂、facial、body、voice、vocal、prosody、intonation、music; 第三組與運動狀態(tài)相關:動態(tài)、移動、運動、dynamic、move、motion。面孔和身體表情需將三組關鍵詞一一配對進行檢索, 而聲音情緒僅需將前兩組相關詞進行配對。此外, 對所有確定的研究進行正向和反向引文檢索, 以確保納入所有相關的研究。依據(jù)上述方法, 共檢索到8494篇文獻。
文獻的納入與排除標準如下:(1)研究類型:文獻為實證研究, 排除綜述、元分析及個案研究; (2)研究對象:研究中的被試為正常人(平均年齡為9~55歲), 排除腦損傷病人和心理障礙患者等特殊群體以及年齡小于9歲的兒童和大于55的老年人; (3)刺激材料:研究使用的刺激材料為人類的動態(tài)面孔(非剛性運動)、動態(tài)身體、聲音且呈現(xiàn)的情緒為6種基本情緒中的一種或中性, 排除使用靜態(tài)刺激、剛性運動面孔、點光運動身體、動物聲音以及非基本情緒或中性的研究; (4)研究手段:研究采用fMRI或PET的方法, 排除采用認知行為、腦電圖(electroencephalograph, EEG)和腦磁圖(magnetoencephalography, MEG)等其他方法的文獻以及旨在分析白質(zhì)和灰質(zhì)情況的彌散張量成像(diffusion tensor imaging, DTI)和磁共振成像(magnetic resonance imaging, MRI)研究; (5)數(shù)據(jù)分析:研究采用全腦分析, 排除只進行感興趣區(qū)域分析的研究; (6)結(jié)果報告:研究使用標準化后的Talairach或MNI空間報告大腦的激活結(jié)果, 排除未報告激活區(qū)域坐標的研究。具體的篩選過程與結(jié)果請見圖1。
對納入元分析的文獻進行如下編碼:文獻信息(第一作者姓名和發(fā)表時間)、樣本量大小(總樣本量及男性樣本量)、年齡(平均年齡或年齡范圍)、坐標空間(Talairach 或MNI 空間)、成像手段(fMRI或PET)、實驗具體對比和坐標值。先由第一作者在兩個時間段依據(jù)文獻納入與排除標準進行編碼, 再由通訊作者對兩次編碼結(jié)果進行校對。結(jié)果顯示, 兩次編碼僅存在個別數(shù)據(jù)偏差, 一致性較高。納入文獻的基本信息請見表1。
研究使用神經(jīng)成像領域最常用的元分析方法——激活似然估計法。它是利用高斯概率密度分布模擬激活焦點局部化的不確定性, 這些分布的體素聯(lián)合產(chǎn)生ALE值, 即數(shù)據(jù)集中至少一個焦點位于給定體素的可能性估計(Turkeltaub et al., 2012; Morrison, 2016)。數(shù)據(jù)處理通過GingerALE軟件(3.0.2版本) (Eickhoff et al., 2009; Turkeltaub et al., 2012)進行。在數(shù)據(jù)分析之前, 使用軟件中的轉(zhuǎn)換工具將MNI空間中報告的坐標轉(zhuǎn)換為Talairach空間中的坐標。然后, 分別對3種情緒載體進行單一元分析, 在統(tǒng)計圖閾值為< 0.05的水平上使用家族錯誤校正(Cluster?level FWE), 對聚類閾值為< 0.001進行多重比較(5000個排列)校正(Eickhoff et al., 2017)。最后, 3種情緒載體兩兩間進行對比分析, 與前人研究一致(Arsalidou et al., 2020; Yalpe & Arsalidou, 2018), 對比分析閾值為< 0.01且最小團塊大于200 mm3(10000個排列)。
圖1 文獻篩選流程圖
表1 元分析文獻基本信息
續(xù)表1
續(xù)表1
注:T = Talairach, M = MNI, D = 動態(tài), S = 靜態(tài), E = 情緒, N = 負性情緒, P = 正性情緒, a = 憤怒, d = 厭惡, f = 恐懼, s1= 悲傷, s2= 驚訝, h = 高興, n = 中性
分析顯示, 相較于靜態(tài)載體, 動態(tài)面孔在雙側(cè)顳上回、顳中回、梭狀回, 左側(cè)顳下回、海馬旁回、杏仁核, 右側(cè)額下回、中央前回(precentral gyrus, PG)、豆狀核(lentiform nucleus, LN)激活更大; 動態(tài)身體在雙側(cè)顳上回和右側(cè)小腦更活躍。相比于中性刺激, 動態(tài)情緒面孔引起了雙側(cè)顳上回、顳中回、梭狀回、小腦和杏仁核, 左側(cè)顳下回和枕中回, 右側(cè)額下回、額中回(medial frontal gyrus, MFG)、中央前回、腦島和頂下小葉的激活; 動態(tài)情緒身體在雙側(cè)顳上回, 左側(cè)枕中回、枕下回、楔葉、小腦, 右側(cè)顳下回、梭狀回、海馬旁回更活躍; 情緒聲音在雙側(cè)顳上回, 左側(cè)顳中回、顳橫回(transverse temporal gyrus, TTG)、中央前回和杏仁核, 右側(cè)額下回、額中回和腦島激活更大。與中性和負性載體相比, 動態(tài)正性面孔在右側(cè)顳中回、枕下回和小腦更活躍; 動態(tài)正性身體在左側(cè)小腦和右側(cè)顳上回、枕中回、舌回(lingual gyrus, LING)激活更大; 正性聲音情緒則引起了雙側(cè)顳上回, 左側(cè)杏仁核, 右側(cè)顳橫回和尾狀核(CN)的激活。負性情緒效應顯示, 動態(tài)負性面孔在雙側(cè)顳中回和杏仁核, 左側(cè)額下回, 右側(cè)顳上回、額上回(superior frontal gyrus, SFG)、枕中回、梭狀回、中央前回和海馬旁回激活更大; 動態(tài)負性身體在左側(cè)顳上回、枕中回、枕下回、和楔葉以及右側(cè)顳中回和梭狀回更活躍; 負性聲音引起了雙側(cè)顳上回和額下回, 左側(cè)顳橫回、中央前回和右側(cè)腦島的激活。
聯(lián)合分析的結(jié)果見表2和圖2。其中, 圖2第1~6列激活圖表示三種情緒載體兩兩之間共同激活的腦區(qū)。在動態(tài)效應下, 動態(tài)面孔和身體共同激活的腦區(qū)有:雙側(cè)顳上回、左側(cè)梭狀回和右側(cè)小腦。在情緒效應下, 動態(tài)面孔和身體共同激活了雙側(cè)顳上回, 左側(cè)顳中回、枕下回以及右側(cè)顳下回、梭狀回、海馬旁回、豆狀核; 動態(tài)面孔和聲音共同激活了左側(cè)顳中回、杏仁核和右側(cè)顳上回、額下回、腦島; 動態(tài)身體和聲音共同激活了左側(cè)顳中回和右側(cè)顳上回。在正性情緒效應下, 動態(tài)面孔和身體被發(fā)現(xiàn)在右側(cè)顳下回和顳中回共同激活。在負性情緒效應下, 動態(tài)面孔和身體被發(fā)現(xiàn)共同激活了雙側(cè)顳下回、左側(cè)顳中回和右側(cè)枕下回。動態(tài)面孔和聲音、動態(tài)身體和聲音在正性和負性情緒效應下不存在共同的激活腦區(qū)。第7列則展示了動態(tài)面孔和身體在動態(tài)效應、情緒效應、正性和負性情緒效應下共同激活的所有腦區(qū)。第8~11列激活圖表示三種情緒載體兩兩之間共同激活腦區(qū)的進一步疊加, 重疊的部分即共同激活的腦區(qū)。由此不難看出三種情緒載體共同激活的區(qū)域位于左側(cè)顳中回和右側(cè)顳上回。
表2 聯(lián)合分析激活簇結(jié)果
圖2 聯(lián)合分析的結(jié)果
對比分析顯示, 在動態(tài)效應下, 與面孔相比, 身體引起了左側(cè)顳上回的激活。在情緒效應下, 面孔相比于身體在右側(cè)梭狀回、中央前回、海馬旁回和小腦激活更大, 反過來, 身體引起了左側(cè)枕下回、舌回、楔葉和右側(cè)枕中回的活躍; 與聲音相比, 面孔在雙側(cè)海馬旁回, 左側(cè)小腦和杏仁核以及右側(cè)顳上回、額上回、梭狀回、中央前回和頂下小葉激活更大, 而聲音引起了雙側(cè)顳上回和左側(cè)腦島的活躍; 相較于聲音, 身體在左側(cè)顳下回、舌回、楔葉和右側(cè)顳中回、梭狀回、豆狀核激活更大, 反之, 聲音引起了雙側(cè)顳上回和右側(cè)顳中回、中央前回的活躍。在正性情緒效應下, 與聲音相比, 身體在右側(cè)枕中回更活躍, 而面孔比聲音在右側(cè)顳下回、枕中回、枕下回、梭狀回、小腦激活更大; 與面孔相比, 聲音在雙側(cè)腦島和左側(cè)顳上回更活躍, 而身體引起了右側(cè)枕中回的激活。在負性情緒效應下, 相對于面孔, 身體引起了左側(cè)楔葉以及右側(cè)枕中回和小腦的活躍; 與聲音相比, 面孔在雙側(cè)顳中回, 左側(cè)額下回和杏仁核以及右側(cè)梭狀回和中央前回上激活更大; 相對于面孔, 聲音引起了雙側(cè)顳上回和左側(cè)顳橫回的活躍; 身體相比于聲音, 在雙側(cè)顳下回和梭狀回以及左側(cè)顳上回、顳中回和楔葉上顯著激活; 相對于身體, 聲音引起了雙側(cè)顳上回、顳橫回和左側(cè)中央前回、腦島的活躍(見表3和圖3)。在動態(tài)效應、正性情緒效應和負性情緒效應下未發(fā)現(xiàn)動態(tài)面孔比動態(tài)身體激活更大的腦區(qū), 同時, 未在負性情緒效應下發(fā)現(xiàn)聲音情緒比動態(tài)身體更活躍的區(qū)域。
本研究使用ALE元分析確定了動態(tài)面孔表情、動態(tài)身體表情和聲音情緒各自的大腦激活區(qū)域, 探明了三種情緒載體之間共同的和不同的大腦活動機制。在接下來的章節(jié)中, 我們將討論當前發(fā)現(xiàn)對于理解情緒識別的潛在意義, 重點關注不同情緒載體之間的異同。
表3 對比分析激活簇結(jié)果
續(xù)表3
4.1.1 動態(tài)面孔表情
與以往的動態(tài)面孔表情元分析一致(Zinchenko et al., 2018), 本研究發(fā)現(xiàn)了雙側(cè)梭狀回和顳中回, 左側(cè)枕中回、小腦、杏仁核和額下回, 右側(cè)顳上回和枕下回的激活。此外, 結(jié)果顯示, 雙側(cè)海馬旁回, 左側(cè)顳上回和顳下回以及右側(cè)枕中回、額上回、額中回、額下回、中央前回、頂下小葉、小腦、杏仁核、豆狀核和腦島也處于活躍狀態(tài)。其中雙側(cè)顳上回、顳中回、梭狀回, 左側(cè)顳下回、海馬旁回、杏仁核以及右側(cè)額下回、中央前回、豆狀核對動態(tài)信息敏感; 雙側(cè)顳上回、顳中回、梭狀回、小腦和杏仁核, 左側(cè)顳下回和枕中回, 右側(cè)額下回、額中回、中央前回、腦島和頂下小葉對情緒信息更活躍; 而右側(cè)顳中回、枕下回和小腦對正性情緒信息更敏感; 雙側(cè)顳中回和杏仁核, 左側(cè)額下回, 右側(cè)顳上回、額上回、枕中回、梭狀回、中央前回和海馬旁回則對負性情緒信息更活躍。兩項研究結(jié)果共同驗證和拓展了動態(tài)面孔表情處理的核心?擴展神經(jīng)網(wǎng)絡(張琪等, 2015), 結(jié)果表明:核心的神經(jīng)網(wǎng)絡(顳?枕聯(lián)合區(qū))主要包括梭狀回、顳上回、顳中回、顳下回、枕中回和枕下回等腦區(qū); 擴展的神經(jīng)網(wǎng)絡包括兩個部分, 一是核心腦區(qū)之外的廣大皮層腦區(qū), 包括額上回、額中回、額下回、中央前回和頂下小葉等, 二是皮層下的相關腦區(qū), 涉及海馬旁回、小腦、杏仁核、豆狀核以及腦島等區(qū)域。核心的神經(jīng)網(wǎng)絡主要負責早期的知覺編碼和刺激的運動加工, 而擴展網(wǎng)絡與個體的空間注意力、面孔模仿、情緒處理、刺激的動態(tài)表征等有關。這些結(jié)果極大的完善了動態(tài)面孔表情處理的神經(jīng)網(wǎng)絡, 為動態(tài)面孔表情的識別提供了一個基礎模型。
圖3 對比分析的結(jié)果
4.1.2 動態(tài)身體表情
如前文所述, 大多數(shù)的研究驗證和支持了de Gelder等人(2006, 2015)提出的雙通道模型, 但我們的結(jié)果(動態(tài)身體信息激活了雙側(cè)顳上回和右側(cè)小腦; 情緒信息引起了雙側(cè)顳上回, 左側(cè)枕中回、枕下回、楔葉、小腦以及右側(cè)顳下回、梭狀回和海馬旁回的活躍; 正性情緒信息更多地激活了左側(cè)小腦和右側(cè)顳上回、枕中回、舌回; 而左側(cè)顳上回、枕中回、枕下回、和楔葉以及右側(cè)顳中回和梭狀回對負性情緒信息更敏感)似乎更支持軀體形態(tài)與動作加工的分層神經(jīng)模型(Giese & Poggio, 2003)。這并不矛盾, 因為Giese和Poggio (2003)的理論強調(diào)從身體的外形和動作中推斷情緒信息, 其本質(zhì)是一種自下而上的加工機制, 沒有涉及以往經(jīng)驗和記憶對情緒的分類、調(diào)節(jié)等高級認知加工; 而de Gelder (2006, 2015)等人的理論在強調(diào)自動化加工的同時充分地考慮了認知因素對情緒及行為的調(diào)節(jié)作用, 將自下而上的加工與自上而下的加工相結(jié)合。當前元分析納入的文獻中并未探究高級認知加工的影響, 因此未發(fā)現(xiàn)相關腦區(qū)的激活。本研究在Giese和Poggio (2003)的分層神經(jīng)模型基礎上為研究者們呈現(xiàn)了一個更為完善的動態(tài)身體表情加工模型:軀體形態(tài)信息的加工通路始于視覺皮層, 經(jīng)次級顳葉皮層到達梭狀回和顳上溝; 動作與情緒信息的加工通路也從視覺皮層出發(fā), 經(jīng)廣大枕?顳葉皮層, 最后到達負責整合人類復雜動作信息的顳上溝; 同時, 小腦、楔葉、舌回和海馬旁回等皮層下區(qū)域也不同程度的參與了視覺、動作和情緒信息的加工。
4.1.3 聲音情緒
本研究發(fā)現(xiàn)情緒性聲音激活了雙側(cè)顳上回, 右側(cè)額下回、額中回和腦島, 左側(cè)顳中回、顳橫回、中央前回和杏仁核; 正性聲音情緒引起了雙側(cè)顳上回, 左側(cè)杏仁核, 右側(cè)顳橫回和尾狀核的活躍; 負性聲音情緒引起了雙側(cè)顳上回和額下回, 右側(cè)腦島、左側(cè)顳橫回和中央前回的激活。與前人關于聲音情緒的元分析研究基本一致(Frühholz & Grandjean, 2013; Frühholz et al., 2016)。支持了現(xiàn)有關于聲音情緒神經(jīng)基礎的理解:(1)人類聽覺皮層中存在對聲音情緒進行特異性加工的區(qū)域, 即沿雙側(cè)顳上回/溝分布的顳葉聲音區(qū)(temporal voice areas, TVA)。(2)大腦分三條通路加工聲音情緒的言語、情緒和身份信息:在顳上溝、后外側(cè)顳葉、前顳葉和額下回等區(qū)域加工言語信息; 在初級和次級聽覺皮層、顳上回/溝、杏仁核、眶額皮質(zhì)以及額下皮層處理情緒信息; 在顳上回/溝、顳橫回、顳平面以及顳中回對身份信息進行表征。同時, 擴展了在聲音情緒加工中對額中回、腦島和尾狀核作用的理解, 研究表明, 這三個腦區(qū)都參與了聲音刺激中對情緒信息的處理(Bestelmeyer et al., 2014; Mitterschiffthaler et al., 2007; Numminen- Kontti, 2014)。此外, 我們還發(fā)現(xiàn)了以往元分析未曾報告的中央前回的激活。既往研究發(fā)現(xiàn)中央前回作為額葉情緒處理區(qū)域的一部分, 和正負性情緒處理都相關(Brattico et al., 2011; Fecteau et al., 2007; Numminen?Kontti, 2014)。
聯(lián)合分析表明, 動態(tài)面孔和身體共同激活了雙側(cè)顳上回、顳中回、顳下回、枕下回和梭狀回, 以及右側(cè)海馬旁回、豆狀核和小腦; 動態(tài)面孔和聲音情緒共同引起了左側(cè)顳中回、杏仁核和右側(cè)顳上回、額下回、腦島的活躍; 動態(tài)身體和聲音情緒在左側(cè)顳中回和右側(cè)顳上回上共同激活; 其中, 左側(cè)顳中回和右側(cè)顳上回為3種情緒載體所共同激活。
4.2.1 左側(cè)顳中回
顳中回是人類非常重要的一個腦區(qū), 其功能復雜而多樣。Xu等人(2019)用靜息狀態(tài)功能連通性和共激活模式描述了顳中回分離的功能, 發(fā)現(xiàn)左側(cè)顳中回在社會認知、音韻加工、動作觀察、情緒感應、心理理論、語音識別、面孔監(jiān)控/識別等多方面發(fā)揮作用。元分析表明, 左側(cè)顳中回在動態(tài)面孔表情處理中發(fā)揮著重要作用(Arsalidou et al., 2011; Zinchenko et al., 2018), 主要負責動態(tài)面孔的特征運動。在動態(tài)身體表情的研究中也發(fā)現(xiàn)了左側(cè)顳中回的激活, 主要涉及動作知覺和身體形狀的選擇性激活以及情緒識別(Grèzes et al., 2007; Jastorff et al., 2015; Poyo Solanas et al., 2020)。而聲音情緒的研究發(fā)現(xiàn)左側(cè)顳中回不僅被聲音選擇性激活(Ceravolo, 2013); 而且對語音信息敏感(Binder et al., 1997); 同時還是情緒加工的重要腦區(qū), 既包括情緒與中性的比較(Leitman et al., 2010; Regenbogen et al., 2012), 也包括情緒間的對比(Numminen?Kontti, 2014), 還包括復雜情緒的理解(Alba?Ferrara et al., 2011)。曹林敬(2018)利用動態(tài)面孔、動態(tài)身體、聲音和音樂刺激發(fā)現(xiàn), 左側(cè)顳中回不僅可以跨模態(tài)(視覺和聽覺)表征情緒信息, 并且不受視覺(動態(tài)面孔和動態(tài)身體)和聽覺(聲音和音樂)模態(tài)內(nèi)不同刺激的影響。綜上所述, 左側(cè)顳中回在表情識別中扮演著普遍的角色, 不論是在單模態(tài)刺激中還是在多模態(tài)刺激的比較中均發(fā)現(xiàn)了左側(cè)顳中回的激活, 但在不同載體中發(fā)揮的作用有所不同。
4.2.2 右側(cè)顳上回
近20年來, 研究者對顳上回及其周圍區(qū)域進行了廣泛的研究, 大量的發(fā)現(xiàn)反而使得顳上回區(qū)域在人類大腦中的作用愈加神秘。Bukowski和Lamm (2018)系統(tǒng)總結(jié)了顳上回區(qū)域證據(jù)相對充分的功能, 包括言語感知(Hickok & Poeppel, 2007)、聲音識別(Kriegstein & Giraud, 2004)、音樂感知(Mitterschiffthaler et al., 2007)、面孔處理(張琪等, 2015)、生物運動(Pelphrey et al., 2005)、視聽整合(Stevenson & James, 2009)、自傳體記憶和靜息狀態(tài)活動(Spreng & Grady, 2010)、自我?他人歸因(Sperduti et al., 2011)、心理理論和同情心以及個性(Olson et al., 2007)等。研究發(fā)現(xiàn), 右側(cè)顳上回不僅在單一刺激中被激活, 也被動態(tài)面孔和身體(Goldberg et al., 2015; Kret et al., 2011)、動態(tài)面孔和聲音情緒共同激活(Dricu & Frühholz, 2016; Watson et al., 2014), 并且在顳上回右后部有一個有限的部分, 與物體相比, 它對人的信息具有綜合偏好(Watson et al., 2014)。同時, 來自精神分裂癥、自閉癥和注意缺陷多動障礙等的疾病研究也表明右后側(cè)顳上回與患者的情緒識別缺陷有關(Alaerts et al., 2013; Mier et al., 2016; Zuberer et al., 2020)。當前研究再次證明了右側(cè)顳上回在表情識別中的重要作用[對刺激進行感官處理之后理解和識別情緒(Dricu & Frühholz, 2016; Yang et al., 2015)], 同時表明右側(cè)顳上回可以跨動態(tài)面孔、動態(tài)身體和聲音情緒三種模態(tài)表征情緒。
盡管面孔、身體和聲音都是社會關系建立和維持過程中不可或缺的交際信號, 都可以導致對情緒狀態(tài)的相同識別, 但每種情緒載體都有自己可靠的特異性激活區(qū)域。整體來看, 動態(tài)面孔非常突出, 比動態(tài)身體和聲音情緒更能引發(fā)大腦活動, 涉及雙側(cè)顳中回、梭狀回、海馬旁回、小腦, 左側(cè)額下回、杏仁核, 右側(cè)顳上回、顳下回、額上回、中央前回和頂下小葉。與其它兩種載體相比, 動態(tài)身體調(diào)動了雙側(cè)顳中回、顳下回和梭狀回, 左側(cè)顳上回、枕下回、舌回和楔葉以及右側(cè)枕中回、豆狀核和小腦的活躍。盡管視覺刺激更有優(yōu)勢, 但聲音情緒有其獨特性, 引起了雙側(cè)顳上回、顳橫回、中央前回、腦島和右側(cè)顳中回的激活。
4.3.1 突出的動態(tài)面孔
與動態(tài)身體相比, 動態(tài)面孔主要激活了右側(cè)小腦、梭狀回、海馬旁回和中央前回。van de Riet等人(2009)要求被試對靜態(tài)面孔和身體表情進行分類, 結(jié)果發(fā)現(xiàn)面孔比身體顯著激活了小腦, 當前研究將這一結(jié)論擴展到了動態(tài)面孔和身體。眾所周知, 梭狀回是面孔識別的核心區(qū)域, 對面孔進行特異性加工, Atkinson等人(2012)的研究對動態(tài)點光顯示的面孔和身體進行對比, 發(fā)現(xiàn)動態(tài)面孔相比于動態(tài)身體顯著激活了雙側(cè)梭狀回面孔區(qū)域。另一項研究(Kret et al., 2011)將現(xiàn)實的威脅性動態(tài)面孔和身體進行比較, 結(jié)果表明, 與動態(tài)身體相比, 動態(tài)面孔顯著引起了海馬的激活。中央前回則與動作觀察和模仿有關, 被認為是人類鏡像神經(jīng)元系統(tǒng)的一部分(Iacoboni et al., 1999)。該系統(tǒng)通過模仿和學習提供了一種動作識別機制, 將動作的感覺表征轉(zhuǎn)化為相應的運動程序(Rizzolatti & Craighero, 2004)。在大量的動態(tài)面孔表情研究中均發(fā)現(xiàn)中央前回對動態(tài)面孔表情具有強烈反應, 既在動態(tài)面孔與靜態(tài)面孔的對比中被激活(Foley et al., 2012; Sato et al., 2012), 也在動態(tài)情緒面孔和動態(tài)中性面孔的比較中被激活(Trautmann et al., 2009; Wicker et al., 2003)。但在動態(tài)身體表情的研究中鮮有類似發(fā)現(xiàn)。
與聲音情緒相比, 動態(tài)面孔在雙側(cè)海馬旁回、顳中回和小腦, 左側(cè)額下回和杏仁核以及右側(cè)顳上回、顳下回、枕中回、枕下回、額上回、梭狀回、中央前回和頂下小葉更活躍。張帆(2018)的研究表明, 低級視覺皮層和面孔選擇區(qū)(梭狀回和顳上回)對面孔圖片的激活大于聲音情緒。其它研究利用動態(tài)刺激發(fā)現(xiàn)面孔比聲音在雙側(cè)顳中回、左側(cè)顳下回激活更強(Hasan et al., 2016)。而Aubé等人(2015)在非言語發(fā)聲的基礎上加入了音樂情緒, 結(jié)果發(fā)現(xiàn)動態(tài)面孔引起了枕葉、運動皮層、輔助運動區(qū)(supplementary motor area, SMA)和背外側(cè)前額葉皮層(dorsolateral prefrontal cortex, DLPFC)的活躍。元分析則表明面孔比聲音情緒在雙側(cè)海馬旁回、杏仁核、梭狀回、視覺聯(lián)合區(qū), 左側(cè)胼胝下回以及右側(cè)殼核更活躍(Dricu & Frühholz, 2016; Schirmer, 2018)。最新的一項研究(Lin et al., 2020)結(jié)果更為豐富:在雙側(cè)額中回, 左側(cè)梭狀回、枕下回、扣帶回和尾狀核, 右側(cè)顳下回、中央后回、中央前回、緣上回(supramarginal gyrus, SG)、枕中回、楔葉和扣帶前回均發(fā)現(xiàn)了動態(tài)面孔比聲音情緒更活躍。綜上所述, 當前研究驗證了以往的結(jié)果, 同時還發(fā)現(xiàn)了雙側(cè)小腦和左側(cè)額下回被激活。小腦的作用主要是協(xié)助大腦維持身體的平衡與協(xié)調(diào), 在感覺分辨中發(fā)揮重要作用(彭聃齡, 2019), 因此, 面孔作為身體的一部分比聲音刺激在小腦更為活躍就不足為奇。與聲音相比, 動態(tài)面孔可能會產(chǎn)生更多需要協(xié)調(diào)的信息, 因此需要自上而下的認知控制, 所以, 與認知過程相關的額下回區(qū)域也被激活(Arsalidou et al., 2011; Christoff & Gabrieli, 2000)。
4.3.2 重要的動態(tài)身體
對比分析結(jié)果表明, 動態(tài)身體在動態(tài)效應、情緒效應、正性情緒效應和負性情緒效應下均比動態(tài)面孔更活躍, 涉及左側(cè)顳上回、枕下回、舌回、楔葉以及右側(cè)枕中回和小腦。以往的研究(Atkinson et al., 2012; Kret et al., 2011)已經(jīng)發(fā)現(xiàn)了動態(tài)身體相比動態(tài)面孔更占優(yōu)勢的腦區(qū), 例如顳上回、楔葉、舌回和EBA, 但沒有發(fā)現(xiàn)小腦的活動。早在2001年的研究中, Downing等人就發(fā)現(xiàn)了EBA對身體刺激敏感, 但對面孔和其他刺激不敏感。顳上回的功能是負責整合人類復雜的動作信息(de Gelder et al., 2014; Moro et al., 2008)。楔葉和舌回主要參與情緒加工(Jastorff et al., 2015; Kret et al., 2011)。而小腦主要負責身體運動的視覺感知和動作理解(Sokolov et al., 2010)。對于小腦在動態(tài)面孔>動態(tài)身體和動態(tài)身體>動態(tài)面孔的對比中均被激活的原因有待進一步的研究。我們的初步推測是:小腦與動態(tài)面孔表情和動態(tài)身體表情的神經(jīng)網(wǎng)絡都有聯(lián)系, 在二者的情緒及動作加工中均發(fā)揮了作用, 但小腦的不同部位各自負責面孔和身體。畢竟小腦是如此之大[最近發(fā)表在PNAS上的一項研究發(fā)現(xiàn), 人類的小腦幾乎擁有新大腦皮層表面積的80% (Sereno et al., 2020)]、如此之復雜[劃分為13個小葉(Stoodley & Schmahmann, 2010)以及小腦腳、齒狀核(dentate nucleus, DN)等諸多結(jié)構(gòu)], 目前還沒有研究很好地對小腦進行最全面的解剖學區(qū)域劃分并對子區(qū)域的具體功能進行探討。
相較于聲音情緒, 動態(tài)身體在雙側(cè)顳中回、顳下回、梭狀回, 左側(cè)顳上回、楔葉、舌回, 右側(cè)枕中回和豆狀核顯著激活。這說明EBA不僅在區(qū)分身體表情和其他視覺刺激時起作用, 也在區(qū)分聲音情緒時活躍。此外, 梭狀回軀體區(qū)(fusiform body area, FBA)的功能似乎也被擴展了, 不僅僅是負責身體和情緒信息加工(Goldberg et al., 2015; Hodzic et al., 2009), 可能也參與視聽覺信息的分辨。結(jié)果顯示, 楔葉和舌回僅在動態(tài)身體中被發(fā)現(xiàn)激活更大, 而沒有在動態(tài)面孔和聲音情緒中被發(fā)現(xiàn), 這提示我們, 楔葉和舌回既是情緒加工的區(qū)域, 也可能是身體表情加工新的特異性腦區(qū)。既往關于身體表情的研究雖然沒有發(fā)現(xiàn)豆狀核的激活, 但報道了其組成部分之一的殼核被激活(de Gelder et al., 2004; van de Riet et al., 2009), 主要負責感知運動與行為信息。這些結(jié)果為之后的研究奠定了基礎, 但還需要相關研究的進一步佐證。據(jù)我們所知, 目前還沒有實證研究直接對比動態(tài)身體和聲音情緒來探究二者之間神經(jīng)機制的異同。
4.3.3 獨特的聲音情緒
與動態(tài)面孔相比, 聲音情緒在雙側(cè)顳上回和腦島以及左側(cè)顳橫回激活更大。如前文所述, 雙側(cè)顳上回分布著對聲音情緒進行特異性加工的區(qū)域:TVA, 這與其他研究者的結(jié)果一致 (Aubé et al., 2015; Schirmer, 2018)。腦島的作用主要是聲音情緒的認知表征和情緒探測, 不僅在以往的元分析研究中被發(fā)現(xiàn)激活(Frühholz et al., 2016; Witteman et al., 2012), 也在最近的一項聲音情緒與動態(tài)面孔的實證比較中被發(fā)現(xiàn)激活(Lin et al., 2020)。顳橫回主要負責身份信息的感知加工, 是整合模型的重要組成部分(Maguinness et al., 2018)。與動態(tài)身體相比, 聲音情緒激活了雙側(cè)顳上回、顳橫回、中央前回, 左側(cè)腦島和右側(cè)顳中回。以上發(fā)現(xiàn)共同證明了TVA是聽覺信息加工的重要特異性腦結(jié)構(gòu), 能夠很好的區(qū)分聲音情緒與動態(tài)面孔和身體。此外, 顳橫回和腦島除了本身所具有的功能之外也可能是聲音情緒加工的又一特異性腦區(qū)。顳中回則在情緒處理和身份信息表征中扮演著重要角色(Friederici & Alter, 2004; Roswandowitz et al., 2017)。中央前回作為額葉情緒處理區(qū)域的一部分, 在情緒處理中發(fā)揮著重要作用(Brattico et al., 2011; Fecteau et al., 2007; Numminen-Kontti, 2014)。
同時, 本研究存在著一些局限。其一, 未對納入被試的年齡范圍加以嚴格限制。盡管以往的ALE元分析研究也納入了少量的兒童/青少年或老年被試(Arsalidou et al., 2020; Ran & Zhang, 2018), 但年齡是一個重要的影響因素, 不同的年齡階段可能會帶來結(jié)果的不一致。因此, 將來的研究應該對被試的年齡加以嚴格限制, 針對特定的年齡階段進行元分析, 并可比較不同年齡段之間的異同。其二, 由于相關研究的數(shù)量較少, 難以達到ALE元分析對實驗對比的基本要求(Eickhoff et al., 2017; Eickhoff et al., 2009), 因而未針對具體的情緒類型(如憤怒、恐懼、厭惡等)進行分析。今后的元分析應該在有足夠數(shù)據(jù)的情況下對每種情緒類型的神經(jīng)機制進行探究, 并分析同一種情緒類型在不同情緒載體之間神經(jīng)活動的異同。
綜上所述, 我們的研究結(jié)果驗證和拓展了三種情緒載體的現(xiàn)有神經(jīng)模型, 探明了三者之間神經(jīng)機制的異同。三項單一元分析顯示, 動態(tài)面孔表情的大腦活動包括廣泛的額葉、枕葉、顳葉和部分頂葉皮層以及海馬、小腦、丘腦、杏仁核等皮層下區(qū)域; 動態(tài)身體的激活集中于顳/枕葉相關腦區(qū)以及小腦和海馬; 聲音情緒則引起了顳葉、額葉、杏仁核和腦島的激活。聯(lián)合分析表明三種情緒載體跨模態(tài)激活了左側(cè)顳中回和右側(cè)顳上回。對比分析結(jié)果證明了視覺刺激比聽覺刺激更占優(yōu)勢, 尤其以動態(tài)面孔表情最為突出, 同時動態(tài)身體表情也發(fā)揮著重要作用, 但聲音情緒有其獨特性。未來的研究應進一步驗證和延伸這些發(fā)現(xiàn); 探究不同年齡階段情緒加工的神經(jīng)機制及其異同; 對具體情緒類型的腦機制及同一種情緒在不同載體之間神經(jīng)活動的相似性與差異性進行研究; 并探討不同腦區(qū)之間的連接以及同一腦區(qū)的不同功能; 同時要注意重點關注動態(tài)身體表情的神經(jīng)基礎。
注: *表示該文獻被用于元分析, 剩余的元分析文獻詳見網(wǎng)絡版附錄。
曹林敬. (2018).(碩士學位論文). 天津大學.
彭聃齡. (主編). (2019).. 北京師范大學出版社.
張帆. (2018).(碩士學位論文). 西南大學, 重慶.
張琪, 尹天子, 冉光明. (2015). 動態(tài)面孔表情優(yōu)勢效應的心理機制及神經(jīng)基礎.(9), 1514–1522.
周臨舒, 趙懷陽, 蔣存梅. (2017). 音樂表演訓練對神經(jīng)可塑性的影響:元分析研究.(11), 1877–1887.
Alaerts, K., Woolley, D. G., Steyaert, J., Di Martino, A., Swinnen, S. P., & Wenderoth, N. (2013). Underconnectivity of the superior temporal sulcus predicts emotion recognition deficits in autism.(10), 1589–1600.
*Alba-Ferrara, L., Hausmann, M., Mitchell, R. L., & Weis, S. (2011). The neural correlates of emotional prosody comprehension: Disentangling simple from complex emotion.(12), e28701. https://doi.org/10.1371/journal.pone.0028701
*Arsalidou, M., Morris, D., & Taylor, M. J. (2011). Converging evidence for the advantage of dynamic facial expressions.(2), 149–163.
Arsalidou, M., Vijayarajah, S., & Sharaev, M. (2020). Basal ganglia lateralization in different types of reward.(6), 2618–2646.
Atkinson, A. P., Tunstall, M. L. & Dittrich, W. H. (2007). Evidence for distinct contributions of form and motion information to the recognition of emotions from body gestures.(1), 59–72.
Atkinson, A. P., Vuong, Q. C., & Smithson, H. E. (2012). Modulation of the face- and body-selective visual regions by the motion and emotion of point-light face and body stimuli.(2), 1700–1712.
*Aubé, W., Angulo-Perkins, A., Peretz, I., Concha, L., & Armony, J. L. (2015). Fear across the senses: Brain responses to music, vocalizations and facial expressions.(3), 399–407.
Belin, P., Fecteau, S., & Bédard, C. (2004). Thinking the voice: Neural correlates of voice perception.(3), 129–135.
Bestelmeyer, P. E. G., Maurage, P., Rouger, J., Latinus, M., & Belin, P. (2014). Adaptation to vocal expressions reveals multistep perception of auditory emotion.(24), 8098–8105.
Binder, J. R., Frost, J. A., Hammeke, T. A., Cox, R. W., Rao, S. M., & Prieto, T. (1997). Human brain language areas identified by functional magnetic resonance imaging.(1), 353–362.
*Brattico, E., Alluri, V., Bogert, B., Jacobsen, T., Vartiainen, N., Nieminen, S., & Tervaniemi, M. (2011). A functional MRI study of happy and sad emotions in music with and without lyrics., 308. https:// doi.org/10.3389/fpsyg.2011.00308
Bukowski, H., & Lamm, C. (2018). Superior temporal sulcus. In V. Zeigler-Hill & T. K. Shackelford (Eds.),(pp. 1–5). Springer International Publishing.
Calvert, G. A., Brammer, M. J., & Iversen, S. D. (1998). Crossmodal identification.(7), 247–253.
*Ceravolo, L. (2013).(Unpublished doctorial dissertation). Université de Genève.
Christoff, K., & Gabrieli, J. D. E. (2000). The frontopolar cortex and human cognition: Evidence for a rostrocaudal hierarchical organization within the human prefrontal cortex.(2), 168–186.
de Gelder, B. (2006). Towards the neurobiology of emotional body language., 242–249.
de Gelder, B. (2009). Why bodies? Twelve reasons for including bodily expressions in affective neuroscience.(1535), 3475?3484.
de Gelder, B. (2015).. Oxford University Press.
de Gelder, B., de Borst, A. W., & Watson, R. (2014). The perception of emotion in body expressions.(2), 149–158.
de Gelder, B., Meeren, H. K., Righart, R., van den Stock, J., van de Riet, W. A., & Tamietto, M. (2006). Beyond the face: Exploring rapid influences of context on face processing., 37–48.
de Gelder, B., & Partan, S. (2009). The neural basis of perceiving emotional bodily expressions in monkeys.(7), 642–646.
Downing, P. E., Jiang, Y., Shuman, M., & Kanwisher, N. (2001). A cortical area selective for visual processing of the human body.(5539), 2470–2473.
Dricu, M., & Frühholz, S. (2016). Perceiving emotional expressions in others: Activation likelihood estimation meta-analyses of explicit evaluation, passive perception and incidental perception of emotions., 810–828.
Eickhoff, S. B., Laird, A. R., Fox, P. M., Lancaster, J. L., & Fox, P. T. (2017). Implementation errors in the GingerALE software: Description and recommendations.(1), 7–11.
Eickhoff, S. B., Laird, A. R., Grefkes, C., Wang, L. E., Zilles, K., & Fox, P. T. (2009). Coordinate-based activation likelihood estimation metaanalysis of neuroimaging data: A random- effects approach based on empirical estimates of spatial uncertainty.(9), 2907–2926.
*Fecteau, S., Belin, P., Joanette, Y., & Armony, J. L. (2007). Amygdala responses to nonlinguistic emotional vocalizations.(2), 480–487.
*Foley, E., Rippon, G., Thai, N. J., Longe, O., & Senior, C. (2012). Dynamic facial expressions evoke distinct activation in the face perception network: A connectivity analysis study.(2), 507–520.
Friederici, A. D., & Alter, K. (2004). Lateralization of auditory language functions: A dynamic dual pathway model.(2), 267–276.
Frühholz, S., & Grandjean, D. (2013). Multiple subregions in superior temporal cortex are differentially sensitive to vocal expressions: A quantitative meta-analysis.(1), 24–35.
Frühholz, S., Trost, W., & Kotz, S. A. (2016). The sound of emotions-towards a unifying neural network perspective of affective sound processing., 96–110.
Giese, M. A., & Poggio, T. (2003). Neural mechanisms for the recognition of biological movements.(3), 179–192.
Goldberg, H., Christensen, A., Flash, T., Giese, M. A. & Malach, R. (2015). Brain activity correlates with emotional perception induced by dynamic avatars., 306–317.
*Grèzes, J., Pichon, S., & de Gelder, B. (2007). Perceiving fear in dynamic body expressions.(2), 959–967.
Hasan, B. A. S., Valdes-Sosa, M., Gross, J., & Belin, P. (2016). “Hearing faces and seeing voices”: Amodal coding of person identity in the human brain.(1), 1–8.
Haxby, J. V., Hoffman, E. A., & Gobbini, M. I. (2000). The distributed human neural system for face perception.(6), 223–233.
Heberlein, A. S., & Atkinson, A. P. (2009). Neuroscientific evidence for simulation and shared substrates in emotion recognition: Beyond faces.(2), 162–177.
Hickok, G., & Poeppel, D. (2007). The cortical organization of speech processing.(5), 393–402.
Hodzic, A., Kaas, A., Muckli, L., Stirn, A., & Singer, W. (2009). Distinct cortical networks for the detection and identification of human body.(4), 1264–1271.
Iacoboni, M., Woods, R. P., Brass, M., Bekkering, H., Mazziotta, J. C., & Rizzolatti, G. (1999). Cortical mechanisms of human imitation.(5449), 2526–2528.
*Jastorff, J., Huang, Y. A., Giese, M. A., & Vandenbulcke, M. (2015). Common neural correlates of emotion perception in humans.(10), 4184–4201.
*Kilts, C. D., Egan, G., Gideon, D. A., Ely, T. D., & Hoffman, J. M. (2003). Dissociable neural pathways are involved in the recognition of emotion in static and dynamic facial expressions.(1), 156–168.
Klapper, A., Dotsch, R., van Rooij, I., & Wigboldus, D. H. J. (2016). Do we spontaneously form stable trustworthiness impressions from facial appearance?(5), 655–664.
Krauss, R. M., Freyberg, R., & Morsella, E. (2002). Inferring speakers’ physical attributes from their voices.(6), 618–625.
Kret, M. E., Pichon, S., Grèzes, J., & de Gelder, B. (2011). Similarities and differences in perceiving threat from dynamic faces and bodies. An fMRI study.(2), 1755–1762.
Kriegstein, K. V., & Giraud, A. L. (2004). Distinct functional substrates along the right superior temporal sulcus for the processing of voices.(2), 948–955.
*Leitman, D. I., Wolf, D. H., Ragland, J. D., Laukka, P., Loughead, J., Valdez, J. N., … Gur, R. C. (2010). “It’s not what you say, but how you say it”: A reciprocal temporo-frontal network for affective prosody., 19. https://doi.org/10.3389/ fnhum.2010.00019
Lin, H., Müller-Bardorff, M., Gathmann, B., Brieke, J., Mothes-Lasch, M., Bruchmann, M., … Straube, T. (2020). Stimulus arousal drives amygdalar responses to emotional expressions across sensory modalities.(1), 1898.
Magnée, M. J., Stekelenburg, J. J., Kemner, C., & de Gelder, B. (2007). Similar facial electromyographic responses to faces, voices, and body expressions.(4), 369–372.
Maguinness, C., Roswandowitz, C., & von Kriegstein, K. (2018). Understanding the mechanisms of familiar voiceidentity recognition in the human brain., 179–193.
Mier, D., Eisenacher, S., Rausch, F., Englisch, S., Gerchen, M. F., Zamoscik, V., … Kirsch, P. (2016). Aberrant activity and connectivity of the posterior superior temporal sulcus during social cognition in schizophrenia.(7), 597–610.
*Mitterschiffthaler, M. T., Fu, C. H. Y., Dalton, J. A., Andrew, C. M., & Williams, S. C. R. (2007). A functional MRI study of happy and sad affective states induced by classical music.(11), 1150–1162.
Moro, V., Urgesi, C., Pernigo, S., Lanteri, P., Pazzaglia, M., & Aglioti, S. M. (2008). The neural basis of body form and body action agnosia.(2), 235–246.
Morrison, I. (2016). ALE meta-analysis reveals dissociable networks for affective and discriminative aspects of touch.(4), 1308–1320.
*Numminen-Kontti, T. (2014).-(Unpublished master’s thesis). University of Helsinki.
Olson, I. R., Plotzker, A., & Ezzyat, Y. (2007). The enigmatictemporal pole: A review of findings on social and emotional processing.(7), 1718–1731.
*Peelen, M. V., Atkinson, A. P., & Vuilleumier, P. (2010). Supramodal representations of perceived emotions in the human brain.(30), 10127–10134.
Pelphrey, K. A., Morris, J. P., Michelich, C. R., Allison, T., & McCarthy, G. (2005). Functional anatomy of biological motion perception in posterior temporal cortex: An fMRI study of eye, mouth and hand movements.(12), 1866–1876.
Pisanski, K., Cartei, V., Mcgettigan, C., Raine, J., & Reby, D. (2016). Voice modulation: A window into the origins of human vocal control?, 304–318.
*Poyo Solanas, M., Vaessen, M., & de Gelder, B. (2020). Computation-based feature representation of body expressions in the human brain.(12), 6376–6390.
Ran, G., & Zhang, Q. (2018). The neural correlates of attachment style during emotional processing: An activation likelihood estimation meta-analysis.(6), 626–633.
*Regenbogen, C., Schneider, D. A., Gur, R. E., Schneider, F., Habel, U., & Kellermann, T. (2012). Multimodal human communication-targeting facial expressions, speech content and prosody.(4), 2346–2356.
Ritchie, K. L., Palermo, R., & Rhodes, G. (2017). Forming impressions of facial attractiveness is mandatory.(1), 1–8.
Rizzolatti, G., & Craighero, L. (2004). The mirror-neuron system.(1), 169–192.
Roswandowitz, C., Schelinski, S., & von Kriegstein, K. (2017). Developmental phonagnosia: Linking neural mechanisms with the behavioural phenotype., 97–112.
Sarkheil, P., Goebel, R., Schneider, F., & Mathiak, K. (2013). Emotion unfolded by motion: A role for parietal lobe in decoding dynamic facial expressions.(8), 950–957.
*Sato, W., Kochiyama, T., & Yoshikawa, S. (2010). Amygdala activity in response to forward versus backward dynamic facial expressions., 92–99.
*Sato, W., Toichi, M., Uono, S., & Kochiyama, T. (2012). Impaired social brain network for processing dynamic facial expressions in autism spectrum disorders.(1), 1–17.
Scherer, K. R. (1995). Expression of emotion in voice and music.(3), 235–248.
Scherer, K. R., Johnstone, T., & Klasmeyer, G. (2003). Vocal expression of emotion. In R. J. Davidson, H. H. Goldsmith & K. Scherer (Eds.),(pp. 433–456). Oxford University Press.
Schirmer, A. (2018). Is the voice an auditory face? An ALE meta-analysis comparing vocal and facial emotion processing.(1), 1–13.
Schirmer, A., & Kotz, S. A. (2006). Beyond the right hemisphere: Brain mechanisms mediating vocal emotional processing.(1), 24–30.
Schwarzlose, R. F., Baker, C. I., & Kanwisher, N. (2005). Separate face and body selectivity on the fusiform gyrus.(47), 11055–11059.
Sereno, M. I., Diedrichsen, J., Tachrount, M., Testa-Silva, G., d'Arceuil, H., & Zeeuw, C. D. (2020). The human cerebellum has almost 80% of the surface area of the neocortex.(32), 19538–19543.
Sinke, C. B., Kret, M. E., & de Gelder, B. (2012). Body language: Embodied perception of emotion. In: Berglund, B., Rossi, G. B., Townsend, J. T., & Pendrill, L. R. (Eds.),(pp. 335–352). Psychology Press/Taylor & Francis.
Sokolov, A. A., Gharabaghi, A., Tatagiba, M. S., & Pavlova, M. (2010). Cerebellar engagement in an action observation network.(2), 486–491.
Sperduti, M., Delaveau, P., Fossati, P., & Nadel, J. (2011). Different brain structures related to self- and external- agency attribution: A brief review and meta-analysis.(2), 151–157.
Spreng, R. N., & Grady, C. L. (2010). Patterns of brain activity supporting autobiographical memory, prospection, and theory of mind, and their relationship to the default mode network.(6), 1112–1123.
Stevenson, R. A., & James, T. W. (2009). Audiovisual integration in human superior temporal sulcus: Inverse effectiveness and the neural processing of speech and object recognition.(3), 1210–1223.
Stoodley, C. J., & Schmahmann, J. D. (2010). Evidence for topographic organization in the cerebellum of motor control versus cognitive and affective processing.(7), 831–844.
Tamietto, M., Cauda, F., Celeghin, A., Diano, M., Costa, T., Cossa, F. M., … de Gelder, B. (2015). Once you feel it, you see it: Insula and sensory-motor contribution to visual awareness for fearful bodies in parietal neglect., 56–72.
*Trautmann, S. A., Fehr, T., & Herrmann, M. (2009). Emotions in motion: Dynamic compared to static facial expressions of disgust and happiness reveal more widespread emotion- specific activations., 100?115.
Turkeltaub, P. E., Eickhoff, S. B., Laird, A. R., Fox, M., Wiener, M., & Fox, P. (2012). Minimizing within-experiment and within-group effects in activation likelihood estimation meta-analyses.(1), 1–13.
van de Riet, W. A. C., Grezes, J., & de Gelder, B. (2009). Specific and common brain regions involved in the perception of faces and bodies and the representation of their emotional expressions.(2), 101–120.
Waters, K., & Terzopoulos, D. (1990, January). A physical model of facial tissue and muscle articulation. In(pp. 77–78). IEEE Computer Society.
Watson, R., Latinus, M., Charest, I., Crabbe, F., & Belin, P. (2014). People-selectivity, audiovisual integration and heteromodality in the superior temporal sulcus., 125–136.
*Wicker, B., Keysers, C., Plailly, J., Royet, J.-P., Gallese, V., & Rizzolatti, G. (2003). Both of us disgusted in my insula: The common neural basis of seeing and feeling disgust.(3), 655–664.
Witteman, J., van Heuven, V. J. P., & Schiller, N. O. (2012). Hearing feelings: A quantitative meta-analysis on the neuroimaging literature of emotional prosody perception.(12), 2752–2763.
Xu, J., Lyu, H., Li, T., Xu, Z., Fu, X., Jia, F., … Hu, Q. (2019). Delineating functional segregations of the human middle temporal gyrus with resting-state functional connectivity and coactivation patterns.(18), 1–13.
Yalpe, Z., & Arsalidou, M. (2018). N-back working memory task: Meta-analysis of normative fMRI studies with children.(6), 2010–2022.
Yang, D. Y.-J., Rosenblau, G., Keifer, C., & Pelphrey, K. A. (2015). An integrative neural model of social perception, action observation, and theory of mind., 263–275.
Yarkoni, T. (2009). Big correlations in little studies: Inflated fMRI correlations reflect low statistical power – Commentary on Vul et al., (2009).(3), 294–298.
Yarkoni, T., Poldrack, R. A., Nichols, T. E., van Essen, D. C., & Wager, T. D. (2011). Large-scale automated synthesis of human functional neuroimaging data.(8), 665–670.
Zieber, N., Kangas. A., Hock, A., & Bhatt, R. S. (2014). Infants’s perception of emotion from body movements.(2), 675–684.
Zinchenko, O., Yaple, Z. A., & Arsalidou, M. (2018). Brain responses to dynamic facial expressions: A normative meta-analysis., 227. https://doi.org/10.3389/fnhum.2018.00227
Zuberer, A., Schwarz, L., Kreifelts, B., Wildgruber, D., Erb, M., Fallgatter, A., … Ethofer, T. (2020). Neural basis of impaired emotion recognition in adult attention deficit hyperactivity disorder.. https://doi.org/10.1016/ j.bpsc.2020.11.013
杜經(jīng)綸. (2007).(碩士學位論文). 南京醫(yī)科大學.
杜經(jīng)綸, 姚志劍, 謝世平, 史家波, 滕皋軍. (2007). 動態(tài)表情情緒識別相關腦區(qū)的fMRI研究.(08), 558?562.
王鵬飛. (2012).(碩士學位論文). 南京師范大學.
姚志劍, 杜經(jīng)綸, 謝世平, 滕皋軍, 劉文, 曹燕翔, … 王麗. (2007). 動態(tài)面部表情情緒不明確識別的fMRI研究.(8), 685?687.
Bach, D. R., Grandjean, D., Sander, D., Herdener, M., Strik, W. K., & Seifritz, E. (2008). The effect of appraisal level on processing of emotional prosody in meaningless speech.(2), 919–927.
Beaucousin, V., Lacheret, A., Turbelin, M. R., Morel, M., Mazoyer, B., & Tzourio?Mazoyer, N. (2007). FMRI study of emotional speech comprehension.(2), 339–352.
Brück, C., Kreifelts, B., Kaza, E., Lotze, M., & Wildgruber, D. (2011). Impact of personality on the cerebral processing of emotional prosody.(1), 259–268.
Buchanan, T. W., Lutz, K., Mirzazade, S., Specht, K., Shah, N. J., Zilles, K., & J?ncke, L. (2000). Recognition of emotional prosody and verbal components of spoken language: An fMRI study.(3), 227–238.
Castelluccio, B. C. (2014).(Unpublished master’s thesis). University of Connecticut, Mansfield.
Castelluccio, B. C., Myers, E. B., Schuh, J. M., & Eigsti, I. M. (2015). Neural substrates of processing anger in language: Contributions of prosody and semantics.(6), 1359–1367.
Ceravolo, L., Frühholz, S., & Grandjean, D. (2016). Proximal vocal threat recruits the right voice–sensitive auditory cortex.(5), 793–802.
Dietrich, S., Hertrich, I., Alter, K., Ischebeck, A., & Ackermann, H. (2008). Understanding the emotional expression of verbal interjections: A functional MRI study.(18), 1751–1755.
Eigsti, I.–M., Schuh, J., Mencl, E., Schultz, R. T., & Paul, R. (2012). The neural underpinnings of prosody in autism.(6), 600–617.
Engelen, T., Zhan, M., Sack, A. T., & de Gelder, B. (2018). Dynamic interactions between emotion perception and action preparation for reacting to social threat: A combined cTBS–fMRI study.(3). https://doi.org/10.1523/ ENEURO.0408–17.2018
Ethofer, T., Bretscher, J., Gschwind, M., Kreifelts, B., Wildgruber, D., & Vuilleumier, P. (2011). Emotional voice areas: Anatomic location, functional properties, and structural connections revealed by combined fMRI/DTI.(1), 191–200.
Ethofer, T., Kreifelts, B., Wiethoff, S., Wolf, J., Grodd, W., Vuilleumier, P., & Wildgruber, D. (2009). Differential influences of emotion, task, and novelty on brain regions underlying the processing of speech melody.(7), 1255–1268.
Ethofer, T., Wiethoff, S., Anders, S., Kreifelts, B., Grodd, W., & Wildgruber, D. (2007). The voices of seduction: Cross–gender effects in processing of erotic prosody.(4), 334–337.
Fecteau, S., Armony, J. L., Joanette, Y., & Belin, P. (2005). Sensitivity to voice in human prefrontal cortex.(3), 2251–2254.
Frühholz, S., Ceravolo, L., & Grandjean, D. (2011). Specific brain networks during explicit and implicit decoding of emotional prosody.(5), 1107–1117.
Frühholz, S., Klaas, H. S., Patel, S., & Grandjean, D. (2014). Talking in fury: The cortico–subcortical network underlying angry vocalizations.(9), 2752–2762.
Gandour, J., Wong, D., Dzemidzic, M., Lowe, M., Tong, Y., & Li, X. (2003). A cross–linguistic fMRI study of perception of intonation and emotion in Chinese.(3), 149–157.
Goerlich–Dobre, K. S., Witteman, J., Schiller, N. O., van Heuven, V. J. P., Aleman, A., & Martens, S. (2014). Blunted feelings: Alexithymia is associated with a diminished neural response to speech prosody.(8), 1108–1117.
Grandjean, D., Sander, D., Pourtois, G., Schwartz, S., Seghier, M. L., Scherer, K. R., & Vuilleumier, P. (2005). The voices of wrath: Brain responses to angry prosody in meaningless speech.(2), 145–146.
Hennenlotter, A., Schroeder, U., Erhard, P., Castrop, F., Haslinger, B., Stoecker, D., … Ceballos–Baumann, A. O. (2005). A common neural basis for receptive and expressive communication of pleasant facial affect.(2), 581–591.
Hurlemann, R., Rehme, A. K., Diessel, M., Kukolja, J., Maier, W., Walter, H., & Cohen, M. X. (2008). Segregating intra–amygdalar responses to dynamic facial emotion with cytoarchitectonic maximum probability maps.(1), 13–20.
Jessen, S. (2012).(Unpublished doctorial dissertation). Max Planck Institute for Human Cognitive and Brain Sciences, Leipzig.
Jessen, S., & Kotz, S. A. (2015). Affect differentially modulates brain activation in uni– and multisensory body–voice perception., 134–143.
Johnston, P., Mayes, A., Hughes, M., & Young, A. W. (2013). Brain networks subserving the evaluation of static and dynamic facial expressions.(9), 2462–2472.
Johnstone, T., van Reekum, C. M., Oakes, T. R., & Davidson, R. J. (2006). The voice of emotion: An fMRI study of neural responses to angry and happy vocal expressions.(3), 242–249.
Kang, J. I., Kim, J. J., Seok, J. H., Chun, J. W., Lee, S. K., & Park, H. J. (2009). Abnormal brain response during the auditory emotional processing in schizophrenic patients with chronic auditory hallucinations.(1), 83–91.
Kanske, P., & Kotz, S. A. (2010). Emotion speeds up conflict resolution: A new role for the ventral anterior cingulate cortex?(4), 911–919.
Kessler, H., Doyen–Waldecker, C., Hofer, C., Hoffmann, H., & Abler, B. (2011). Neural correlates of the perception of dynamic versus static facial expressions of emotion..https://doi.org/10.3205/psm000072
Koelsch, S., Skouras, S., Fritz, T., Herrera, P., Bonhage, C., Küssner, M. B., & Jacobs, A. M. (2013). The roles of superficial amygdala and auditory cortex in music–evoked fear and joy., 49–60.
Korb, S., Frühholz, S., & Grandjean, D. (2015). Reappraising the voices of wrath., 1644–1660.
Kotz, S. A., Dengler, R., & Wittfoth, M. (2015). Valence–specific conflict moderation in the dorso–medial PFC and the caudate head in emotional speech.(2), 165–171.
Kotz, S. A., Meyer, M., Alter, K., Besson, M., von Cramon, D. Y., & Friederici, A. D. (2003). On the lateralization of emotional prosody: An event–related functional MR investigation.(3), 366–376.
Krautheim, J. T., Dannlowski, U., Steines, M., Neziroglu, G., Acosta, H., Sommer, J., … Kircher, T. (2019). Intergroup empathy: Enhanced neural resonance for ingroup facial emotion in a shared neural production–perception network., 182–190.
Krautheim, J. T., Straube, M., Dannlowski, U., Neziroglu, G., Acosta, H., Sommer, J., … Kircher, T. (2020). Emotion specific neural activation for the production and perception of facial expressions., 17–28.
Krautheim, J. T., Straube, B., Dannlowski, U., Pyka, M., Schneider–Hassloff, H., Drexler, R., … Kircher, T. (2018). Outgroup emotion processing in the vACC is modulated by childhood trauma and CACNA1C risk variant., 341–348.
Labar, K. S., Crupain, M. J., Voyvodic, J. T., & Gregory, M. C. (2003). Dynamic perception of facial affect and identity in the human brain.(10), 1023–1033.
Liang, Y., Liu, B., Ji, J., & Li, X. (2019). Network representations of facial and bodily expressions: Evidence from multivariate connectivity pattern classification., 1111. https://doi.org/10.3389/ fnins.2019.01111
Liu, P. P. (2018).(Unpublished doctorial dissertation). University of Glasgow.
Mitchell, R. L. C., Elliott, R., Barry, M., Cruttenden, A., & Woodruff, P. W. R. (2003). The neural response to emotional prosody, as revealed by functional magnetic resonance imaging.(10), 1410–1421.
Morris, J., Scott, S., & Dolan, R. (1999). Saying it with feeling: Neural responses to emotional vocalizations.(10), 1155–1163.
Park, M., Gutyrchik, E., Welker, L., Carl, P., Poppel, E., Zaytseva, Y., … Bao, Y. (2015). Sadness is unique: Neural processing of emotions in speech prosody in musicians and non–musicians.. https://doi.org/10.3389/fnhum.2014.01049
Peelen, M. V., Atkinson, A. P., Andersson, F., & Vuilleumier, P. (2007). Emotional modulation of body–selective visual areas.(4), 274–283.
Pelphrey, K. A., Morris, J. P., McCarthy, G., & LaBar, K. S. (2007). Perception of dynamic changes in facial affect and identity in autism.(2), 140–149.
Péron, J., Frühholz, S., Ceravolo, L., & Grandjean, D. (2015). Structural and functional connectivity of the subthalamic nucleus during vocal emotion decoding.(2), 349–356.
Pentón, L. G., Fernández, A. P., León, M. A., Ymas, Y. A., García, L. G., Iturria–Medina, Y., … Valdés–Sosa, M. (2010). Neural activation while perceiving biological motion in dynamic facial expressions and point–light body action animations.(14), 1076–1083.
Phillips, M. L., Young, A. W., Scott, S. K., Calder, A. J., Andrew, C., Giampietro, V., … Gray, J. A. (1998). Neural responses to facial and vocal expressions of fear and disgust.(1408), 1809–1817.
Pichon, S., de Gelder, B., & Grezes, J. (2008). Emotional modulation of visual and motor areas by dynamic body expressions of anger.(3–4), 199–212.
Pichon, S., de Gelder, B., & Grèzes, J. (2009). Two different faces of threat. Comparing the neural systems for recognizing fear and anger in dynamic body expressions.(4), 1873–1883.
Pichon, S., de Gelder, B., & Grezes, J. (2012). Threat prompts defensive brain responses independently of attentional control.(2), 274–285.
Prochnow, D., H?ing, B., Kleiser, R., Lindenberg, R., Wittsack, H. J., Sch?fer, R., … Seitz,R. J. (2013). The neural correlates of affect reading: An fMRI study on faces and gestures., 270–277.
Rahko, J., Paakki, J. J., Starck, T., Nikkinen, J., Remes, J., Hurtig, T., … Kiviniemi, V. (2010). Functional mapping of dynamic happy and fearful facial expression processing in adolescents.(2), 164–176.
Rosenblau, G., Kliemann, D., Dziobek, I., & Heekeren, H. R. (2016). Emotional prosody processing in autism spectrum disorder.(2), 224–239.
Ross, P., de Gelder, B., Crabbe, F., & Grosbras, M. H. (2019). Emotion modulation of the body–selective areas in the developing brain., 100660. https://doi.org/10.1016/j.dcn.2019.100660
Rymarczyk, K., ?urawski, ?., Jankowiak–Siuda, K., & Szatkowska, I. (2018). Neural correlates of facial mimicry: Simultaneous measurements of EMG and BOLD responses during perception of dynamic compared to static facial expressions., 52. https://doi.org/ 10.3389/fpsyg.2018.00052
Rymarczyk, K., ?urawski, ?., Jankowiak–Siuda, K., & Szatkowska, I. (2019). Empathy in facial mimicry of fear and disgust: Simultaneous EMG–fMRI recordings during observation of static and dynamic facial expressions., 701. https://doi.org/10.3389/ fpsyg.2019.00701
Salimpoor, V. N., Benovoy, M., Larcher, K., Dagher, A., & Zatorre, R. J. (2011). Anatomically distinct dopamine release during anticipation and experience of peak emotion to music.(2), 257–262.
Sander, D., Grandjean, D., Pourtois, G., Schwartz, S., Seghier, M. L., Scherer, K. R., & Vuilleumier, P. (2005). Emotion and attention interactions in social cognition: Brain regions involved in processing anger prosody.(4), 848–858.
Sato, W., Kochiyama, T., Uono, S., Sawada, R., & Toichi, M. (2019). Widespread and lateralized social brain activity for processing dynamic facial expressions.(13), 3753–3768.
Sato, W., Kochiyama, T., Uono, S., Yoshikawa, S., & Toichi, M. (2016). Direction of amygdala–neocortex interaction during dynamic facial expression processing.(3), 1878–1890.
Sato, W., Kochiyama, T., Yoshikawa, S., Naito, E., & Matsumura, M. (2004). Enhanced neural activity in response to dynamic facial expressions of emotion: An fMRI study.(1), 81–91.
Schultz, J., Brockhaus, M., Bülthoff Heinrich H., & Pilz, K. S. (2013). What the human brain likes about facial motion.(5), 1167–1178.
Schultz, J., & Pilz, K. S. (2009). Natural facial motion enhances cortical responses to faces.(3), 465–475.
Seydell–Greenwald, A., Chambers, C. E., Ferrara, K., & Newport, E. L. (2020). What you say versus how you say it: Comparing sentence comprehension and emotional prosody processing using fMRI., 116509. https://doi.org/10.1016/j.neuroimage.2019.116509
Skiba, R. M., & Patrik, V. (2019). Brain networks processing temporal information in dynamic facial expressions.(11), 6021–6038.
Smith, K. W., Laura–Lee, B., Oshin, V., & Vinod, G. (2015). Syllogisms delivered in an angry voice lead to improved performance and engagement of a different neural system compared to neutral voice., 273. https://doi.org/10.3389/fnhum.2015.00273
van der Gaag, C., Minderaa, R. B., & Keysers, C. (2007). Facial expressions: What the mirror neuron system can and cannot tell us.(3–4), 179–222.
van de Vliet, L., Jastorff, J., Huang, Y. A., van Paesschen, W., Vandenbulcke, M., & van den Stock, J. (2018). Anterior temporal lobectomy impairs neural classification of body emotions in right superior temporal sulcus and reduces emotional enhancement in distributed brain areas without affecting behavioral classification.(43), 9263–9274.
Wildgruber, D., Pihan, H., Ackermann, H., Erb, M., & Grodd, W. (2002). Dynamic brain activation during processing of emotional intonation: Influence of acoustic parameters, emotional valence, and sex.(4), 856–869.
Wildgruber, D., Riecker, A., Hertrich, I., Erb, M., Grodd, W., Ethofer, T., & Ackermann, H. (2005). Identification of emotional intonation evaluated by fMRI.(4), 1233–1241.
Willinger, D., Karipidis, I. I., Beltrani, S., Pietro, S. V. D., & Brem, S. (2019). Valence–dependent coupling of prefrontal– amygdala effective connectivity during facial affect processing.(4). https://doi.org/10.1523/ENEURO. 0079–19.2019
Witteman, J. (2014).Lden University.
Wittfoth, M., Schroder, C., Schardt, D. M., Dengler, R., Heinze, H. J., & Kotz, S. A. (2009). On emotional conflict: Interference resolution of happy and angry prosody reveals valence–specific effects.(2), 383–392.
The neural activities of different emotion carriers and their similarities and differences: A meta-analysis of functional neuroimaging studies
LIU Juncai1, RAN Guangming1, ZHANG Qi2
(1Department of Psychology, School of Education, China West Normal University, Nanchong 637002, China)(2College of Preschool and Primary Education, China West Normal University, Nanchong637002, China)
Emotion recognition has always been a hot topic in psychology. Although some studies have explored the brain mechanisms of dynamic facial expressions, dynamic bodily expressions and emotional voices, the overall understanding of each emotion carrier is relatively incomplete, and the commonalities and differences of neural mechanisms among different emotion carriers were still poorly known. First, this study used three separated meta?analyses to identify the brain regions activated by each emotion pattern, and then, conjunction and contrast analysis of these activation maps were used to assess common and unique neural activity between the three emotion carriers. The results showed that the brain activity of dynamic facial expressions including extensive frontal, occipital, temporal and partial parietal cortices, as well as subcortical regions, such as hippocampus, cerebellum, thalamus and amygdala. The activation of dynamic bodily expressions was concentrated in temporal/occipital regions, cerebellum and hippocampus. Emotional voices activated the temporal, frontal, amygdala and insula. Conjunction analysis suggested that the left middle temporal gyrus (MTG) and the right superior temporal gyrus (STG) were activated by three emotion carrier across the modalities. The results of the contrast analysis proved that the visual stimuli was more advantaged than the auditory stimuli, especially the dynamic facial expressions, of course the dynamic bodily expressions also played an important role. However, the emotional voices had their own uniqueness. In sum, these findings validate, support, and extend the existing neural models of the three emotion carriers, revealing the central, universal region of the emotional processing, but with each emotion carrier relying on its own reliable specific neural circuits.
emotion carriers, dynamic facial expressions, dynamic bodily expressions, emotional voices, ALE meta-analysis
冉光明, E-mail: haiqi198649@163.com
2021-10-06
* 國家自然科學基金青年項目(31900760)和省級大學生創(chuàng)新創(chuàng)業(yè)訓練計劃項目(S201910638117)資助。