• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看

      ?

      基于訓(xùn)練樣本集擴(kuò)展的隱式篇章關(guān)系分類

      2016-05-04 02:43:07朱珊珊丁思遠(yuǎn)嚴(yán)為絨姚建民朱巧明
      中文信息學(xué)報(bào) 2016年5期
      關(guān)鍵詞:論元訓(xùn)練樣本實(shí)例

      朱珊珊,洪 宇,丁思遠(yuǎn),嚴(yán)為絨,姚建民,朱巧明

      (蘇州大學(xué) 江蘇省計(jì)算機(jī)信息處理技術(shù)重點(diǎn)實(shí)驗(yàn)室,江蘇 蘇州 215006)

      基于訓(xùn)練樣本集擴(kuò)展的隱式篇章關(guān)系分類

      朱珊珊,洪 宇,丁思遠(yuǎn),嚴(yán)為絨,姚建民,朱巧明

      (蘇州大學(xué) 江蘇省計(jì)算機(jī)信息處理技術(shù)重點(diǎn)實(shí)驗(yàn)室,江蘇 蘇州 215006)

      隱式篇章關(guān)系分類主要任務(wù)是在顯式關(guān)聯(lián)線索缺失的情況下,自動(dòng)檢測(cè)特定論元之間的語義關(guān)系類別。前人研究顯示,語言學(xué)特征能夠有效輔助隱式篇章關(guān)系的分類。目前,主流檢測(cè)方法由于缺少足夠的已標(biāo)注隱式訓(xùn)練樣本,導(dǎo)致分類器無法準(zhǔn)確學(xué)習(xí)各種分類特征,分類精確率僅約為40%。針對(duì)這一問題,該文提出一種基于訓(xùn)練樣本集擴(kuò)展的隱式篇章關(guān)系分類方法。該方法首先借助論元向量,以原始訓(xùn)練樣本集為種子實(shí)例,從外部數(shù)據(jù)資源中挖掘與其在語義以及關(guān)系上一致的“平行訓(xùn)練樣本集”;然后將“平行訓(xùn)練樣本集”加入原始訓(xùn)練樣本集中,形成擴(kuò)展的訓(xùn)練樣本集;最后基于擴(kuò)展的訓(xùn)練樣本集,實(shí)現(xiàn)隱式篇章關(guān)系的分類。該文在賓州篇章樹庫(Penn Discourse Treebank, PDTB)上對(duì)擴(kuò)展的訓(xùn)練樣本集進(jìn)行評(píng)測(cè),結(jié)果顯示,相較于原始訓(xùn)練樣本集,使用擴(kuò)展的訓(xùn)練樣本集的實(shí)驗(yàn)系統(tǒng)整體性能提升8.41%,在四種篇章關(guān)系類別上的平均性能提升5.42%。與現(xiàn)有主流分類方法性能對(duì)比,識(shí)別精確率提升6.36%。

      隱式篇章關(guān)系;語義向量;訓(xùn)練樣本集擴(kuò)展;篇章分析

      1 引言

      篇章關(guān)系研究任務(wù)旨在推理特定文本跨度范圍內(nèi)論元(即具有獨(dú)立語義的文字片段,包括子句、句子或文本塊等)之間的語義連接關(guān)系。賓州篇章樹庫(Penn Discourse Treebank, PDTB)[1-2]根據(jù)兩個(gè)論元(即“論元對(duì)”)之間是否存在連接詞,將篇章關(guān)系分成顯式篇章關(guān)系(Explicit Discourse Relation)和隱式篇章關(guān)系(Implicit Discourse Relation)。此外,PDTB又將具體的篇章關(guān)系類型分為三層,第一層包括四種主要篇章關(guān)系: Temporal(時(shí)序關(guān)系)、Expansion(擴(kuò)展關(guān)系)、Comparison(對(duì)比關(guān)系)和Contingency(偶然關(guān)系);第二層和第三層分別針對(duì)上一層進(jìn)行細(xì)分。例1給出兩種篇章關(guān)系實(shí)例,其中1(a)為顯式篇章關(guān)系實(shí)例,可直接通過連接詞“so”推理“論元對(duì)”的篇章關(guān)系類型為偶然關(guān)系;1(b)為隱式篇章關(guān)系實(shí)例,論元之間不存在連接詞,但結(jié)合上下文以及句子結(jié)構(gòu)等信息,可間接推理“論元對(duì)”的篇章關(guān)系類型為對(duì)比關(guān)系,因而可在“論元對(duì)”中插入連接詞“but”用來表示對(duì)比關(guān)系。

      例1 (a) Arg1: I got up late.

      <譯文: 我起床晚了>

      Arg2: 【Explicit=So】I was late for work.

      <譯文: 【所以】我上班遲到了>

      篇章關(guān)系 =“Contingency(偶然關(guān)系)”

      (b) Arg1: He loves cats.

      <譯文: 他喜歡貓>

      Arg2: 【Implicit=But】I hate cats.

      <譯文: 【但是】我討厭貓>

      篇章關(guān)系 = “Comparison(對(duì)比關(guān)系)”

      目前,顯式篇章關(guān)系的研究已獲得較優(yōu)的分類性能。Pilter等[3]借助“顯式連接詞—篇章關(guān)系”之間的一一映射進(jìn)行顯式篇章關(guān)系分類,最終分類性能為93.09%。相對(duì)地,隱式篇章關(guān)系分類精確率仍然較低。分析原因可知,隱式篇章關(guān)系樣本中,論元之間缺失連接詞, 無法直接判定篇章關(guān)系,需通過上下文、語義結(jié)構(gòu)以及句子特征等其他信息間接推理隱式關(guān)系。然而,上下文信息的不確定性、語義結(jié)構(gòu)的復(fù)雜性以及句子特征的歧義性,往往制約隱式篇章關(guān)系的有效判定。

      傳統(tǒng)的隱式篇章關(guān)系檢測(cè)方法主要采用基于語言學(xué)特征的分類方法,通過自然語言處理技術(shù)抽取論元中的各種特征(例如,情感詞極性,動(dòng)詞短語長(zhǎng)度,單詞對(duì),句法規(guī)則等)。然而,該方法分類性能仍然偏低,究其原因,發(fā)現(xiàn)存在如下兩個(gè)問題。

      1) 人工標(biāo)注的隱式訓(xùn)練樣本數(shù)量有限,訓(xùn)練語料中包含的特征信息不充分,難以有效學(xué)習(xí)各篇章關(guān)系的語言學(xué)特征;

      2) 隱式訓(xùn)練樣本中各篇章關(guān)系類別分布不平衡,導(dǎo)致模型訓(xùn)練出現(xiàn)偏差,在少數(shù)類別上分類精度較低,影響了分類器的整體分類性能。

      本文針對(duì)篇章關(guān)系語料分布不平衡,及其引起的關(guān)系檢測(cè)模型訓(xùn)練存在偏見的問題,提出一種基于論元向量的隱式訓(xùn)練樣本集擴(kuò)展方法。該方法首先將所有實(shí)例表示成固定長(zhǎng)度且具有實(shí)值的向量,然后以PDTB標(biāo)注的隱式篇章關(guān)系實(shí)例(即原始訓(xùn)練樣本集)為種子實(shí)例,從大規(guī)模同領(lǐng)域數(shù)據(jù)資源中挖掘與其內(nèi)容近似且關(guān)系相同的隱式“論元對(duì)”(簡(jiǎn)稱為平行“論元對(duì)”),將平行“論元對(duì)”加入到原始訓(xùn)練樣本集中,獲得擴(kuò)展的訓(xùn)練樣本集(即原始訓(xùn)練樣本集+所有平行“論元對(duì)”)?;跀U(kuò)展的訓(xùn)練樣本集,本文在前人基于語言學(xué)特征的隱式篇章關(guān)系分類方法的基礎(chǔ)上,借助自然語言處理技術(shù),抽取所有實(shí)例的動(dòng)詞、單詞對(duì)、產(chǎn)生式規(guī)則以及依存規(guī)則特征,使用LIBSVM分類器訓(xùn)練特征分類模型,最終在測(cè)試樣本上進(jìn)行性能評(píng)測(cè),實(shí)現(xiàn)隱式篇章關(guān)系的分類。

      本文的組織結(jié)構(gòu)如下: 第二節(jié)概述相關(guān)工作;第三節(jié)介紹篇章檢測(cè)任務(wù)定義及數(shù)據(jù)分析;第四節(jié)介紹本文基于論元向量的隱式訓(xùn)練樣本集擴(kuò)展方法;第五節(jié)介紹基于擴(kuò)展的訓(xùn)練樣本集的隱式篇章關(guān)系分類方法;第六節(jié)給出實(shí)驗(yàn)結(jié)果及相關(guān)分析;第七節(jié)總結(jié)全文。

      2 相關(guān)工作

      Pitler等[4]首次單獨(dú)針對(duì)PDTB中隱式篇章關(guān)系進(jìn)行分類,采用全監(jiān)督的篇章關(guān)系分類方法訓(xùn)練分類器,使用情感詞極性、動(dòng)詞短語長(zhǎng)度、動(dòng)詞類型、句子首尾單詞和上下文等特征進(jìn)行關(guān)系分類,最終分類結(jié)果優(yōu)于隨機(jī)分類的性能。Lin等[5]繼承了Pitler等的方法體系,細(xì)化了上下文特征的采集技術(shù),使用了句法樹的結(jié)構(gòu)特征與依存特征;同時(shí),結(jié)合Soricut等[6]提出的論元內(nèi)部結(jié)構(gòu)特征,在PDTB第二層隱式關(guān)系分類上獲得了40.20%的精確率。隨后,Wang等[7]基于卷積樹核函數(shù)提升了句法結(jié)構(gòu)特征的區(qū)分能力,但性能并沒有顯著的提升(精確率約40.00%),僅略優(yōu)于以淺層句法樹為特征的關(guān)系分類性能。Zhou等[8]使用三元文法模型搜索與隱式“論元對(duì)”一致的表達(dá)模式,在相鄰論元間插入合適的連接詞,借助顯式關(guān)系預(yù)測(cè)隱式關(guān)系,相比于Saito等,該方法不局限于語法的規(guī)范,滿足了詞特征相互組合的連貫性和靈活性,但是其性能僅在偶然和時(shí)序關(guān)系上有所提升,對(duì)擴(kuò)展和比較關(guān)系的分類性能仍然偏低。Park等[9]提出特征集合優(yōu)化的方法,通過前向選擇算法使用情感詞極性、句子首尾單詞、產(chǎn)生式規(guī)則等特征進(jìn)行特征融合,最終分類性能在四種篇章關(guān)系類別上獲得顯著提升。Lan等[10]提出多任務(wù)學(xué)習(xí)的隱式篇章關(guān)系分類方法,在交互結(jié)構(gòu)優(yōu)化(ASO)多任務(wù)學(xué)習(xí)框架下,抽取論元的動(dòng)詞、極性等語言學(xué)特征,基于不同類型的訓(xùn)練樣本,訓(xùn)練主分類器及輔助分類器,最終推理性能達(dá)到42.30%。近期Li等[11]通過挖掘中英文之間的篇章結(jié)構(gòu)關(guān)系,借助已有的英文篇章關(guān)系語言學(xué)資源,有效地提升了中文隱式篇章關(guān)系的分類性能。

      上述各隱式篇章關(guān)系分類系統(tǒng)均是通過挖掘有效的語言學(xué)特征,利用分類器進(jìn)行隱式篇章關(guān)系分類,使用的語料均為PDTB隱式數(shù)據(jù)集。但并未有效提升隱式篇章關(guān)系的分類性能,整體分類性能仍維持在40%左右。究其原因,可發(fā)現(xiàn)上述研究均是以基于全監(jiān)督或者半監(jiān)督的方法學(xué)研究為基礎(chǔ),通過抽取各種有效的語言學(xué)特征,探索特征與具體類別之間的關(guān)系來提升分類性能,而忽略了對(duì)PDTB數(shù)據(jù)集的分析。由于PDTB數(shù)據(jù)集中各篇章關(guān)系分布不平衡(例如,Temporal關(guān)系實(shí)例僅占實(shí)例總數(shù)的5.36%),訓(xùn)練過程中,在少數(shù)類上缺少足夠的隱式訓(xùn)練樣本,分類器無法準(zhǔn)確學(xué)習(xí)各種有效特征,導(dǎo)致分類模型出現(xiàn)偏差,影響最終的分類性能。此外,Wang等[12]進(jìn)一步通過實(shí)驗(yàn)證明,PDTB標(biāo)注的隱式篇章關(guān)系實(shí)例中只有小部分“典型(typical)”的關(guān)系實(shí)例能夠有效地提升隱式篇章關(guān)系的分類性能,而其他實(shí)例對(duì)最終的分類性能影響較小甚至?xí)档头诸惼鞯姆诸愋阅?。在此情況下,能夠?qū)嶋H使用的隱式篇章關(guān)系實(shí)例則進(jìn)一步減少。

      針對(duì)數(shù)據(jù)不充分問題,早期的研究主要是使用顯式數(shù)據(jù)集資源,通過移除顯式“論元對(duì)”中的連接詞,構(gòu)造出大量的隱式“論元對(duì)”,對(duì)隱式訓(xùn)練樣本進(jìn)行擴(kuò)展。在此基礎(chǔ)上,基于構(gòu)造的隱式“論元對(duì)”樣本,通過分類器訓(xùn)練獲得隱式篇章關(guān)系分類模型(Marcu 等[13];Sporleder 等[14])。雖然通過此方法可以快速的獲得大量隱式訓(xùn)練樣本,然而直接移除“論元對(duì)”的連接詞,構(gòu)造出的隱式“論元對(duì)”會(huì)出現(xiàn)語義不連貫、表意不清的問題,最終實(shí)驗(yàn)分類性能仍然較低。如何快速有效地對(duì)隱式訓(xùn)練樣本進(jìn)行擴(kuò)展,從而提升隱式篇章關(guān)系的分類性能仍是一個(gè)亟待解決的問題。對(duì)此,本文提出了一種基于論元向量的隱式訓(xùn)練樣本集擴(kuò)展方法,輔助推理隱式篇章關(guān)系。

      3 任務(wù)定義及數(shù)據(jù)分析

      3.1 任務(wù)定義

      本文的主要研究任務(wù)是對(duì)隱式訓(xùn)練樣本集進(jìn)行擴(kuò)展,推理論元之間的隱式篇章關(guān)系,即在沒有顯式連接詞作為直接線索的情況下,對(duì)第一層的四種篇章關(guān)系予以判定。圖1為隱式篇章關(guān)系分類任務(wù)框架圖,輸入為隱式“論元對(duì)”,輸出則為具體的篇章關(guān)系類別。

      圖1 隱式篇章關(guān)系分類任務(wù)框架圖

      3.2 訓(xùn)練樣本集數(shù)據(jù)分析

      PDTB語料庫是2008年發(fā)布并標(biāo)注具體篇章關(guān)系的語言學(xué)資源,共標(biāo)注29 655個(gè)篇章關(guān)系實(shí)例,主要分為兩大類: 顯式篇章關(guān)系實(shí)例和隱式篇章關(guān)系實(shí)例。PDTB語料采用人工標(biāo)注的方法,標(biāo)注的“論元對(duì)”符合自然語言規(guī)律,語義信息較為明確,歧義性較小。近期的隱式篇章分類研究主要是基于該語料進(jìn)行展開。然而其標(biāo)注的隱式篇章關(guān)系實(shí)例數(shù)量有限(隱式篇章關(guān)系實(shí)例為13 815個(gè)),且人工標(biāo)注耗時(shí)耗力,仍不足以解決隱式訓(xùn)練樣本不充分的問題。針對(duì)該問題,本文提出一種基于論元向量的方法實(shí)現(xiàn)對(duì)隱式訓(xùn)練樣本集的擴(kuò)展。具體實(shí)現(xiàn)細(xì)節(jié)將在第四節(jié)進(jìn)行描述。

      本文選用PDTB 隱式數(shù)據(jù)集Section 00-20作為原始訓(xùn)練樣本集。表1為該訓(xùn)練樣本集中四種篇章關(guān)系類別的分布情況,從表1的統(tǒng)計(jì)結(jié)果發(fā)現(xiàn): 四種篇章關(guān)系類別分布嚴(yán)重不平衡,相較于Expansion類別,Comparison、Contingency、Temporal 三種類別的實(shí)例數(shù)量較少,實(shí)例總數(shù)僅占樣本的45.47%。在分類過程中,這種不平衡現(xiàn)象,容易導(dǎo)致分類器出現(xiàn)偏差,影響分類性能?;诖耍疚膶?duì)實(shí)例數(shù)量較少的三種類別: Comparison、Contingency以及Temporal進(jìn)行樣本擴(kuò)展,使得擴(kuò)展后的訓(xùn)練樣本集的四種篇章關(guān)系比例達(dá)到平衡。

      表1 PDTB 隱式數(shù)據(jù)集00-20章節(jié)四種篇章關(guān)系分布

      此外,分析PDTB 隱式數(shù)據(jù)集發(fā)現(xiàn),有部分實(shí)例標(biāo)注了兩種篇章關(guān)系類別,本文將這些實(shí)例定義為歧義“論元對(duì)”。雖然歧義“論元對(duì)”在數(shù)據(jù)集中所占比例較小,但如果對(duì)這些歧義“論元對(duì)”進(jìn)行實(shí)例擴(kuò)展,則會(huì)進(jìn)一步增加不確定樣本在整個(gè)訓(xùn)練樣本集中的比重,勢(shì)必會(huì)影響分類性能,所以應(yīng)將歧義“論元對(duì)”從訓(xùn)練樣本集中刪除,并對(duì)歧義“論元對(duì)”也不進(jìn)行實(shí)例擴(kuò)展。本文接下來介紹的訓(xùn)練樣本集擴(kuò)展方法,均默認(rèn)已從原始訓(xùn)練樣本集中刪除歧義“論元對(duì)”。

      4 基于論元向量的隱式訓(xùn)練樣本集擴(kuò)展方法

      針對(duì)隱式篇章關(guān)系分類任務(wù),本文提出一種基于論元向量的隱式訓(xùn)練樣本集擴(kuò)展方法。本節(jié)首先概述論元向量的生成方法,然后給出具體的隱式訓(xùn)練樣本集擴(kuò)展方法。

      4.1 基于詞向量的論元向量生成方法

      詞向量(Distributed representation,通常被稱為“Word Representation”或“Word Embedding”)是目前深度學(xué)習(xí)領(lǐng)域最熱門的研究任務(wù)之一,最早由Hinton[15]提出。詞向量模型旨在將單詞轉(zhuǎn)化成具有實(shí)值的語義向量,通過語義向量獲取文本的句法結(jié)構(gòu)、上下文信息等,目前已在多個(gè)領(lǐng)域廣泛應(yīng)用,例如,文本分類、問答系統(tǒng)、信息檢索、命名題識(shí)別以及句法分析等。Bengio等[16]基于詞向量,利用神經(jīng)網(wǎng)絡(luò)來構(gòu)建語言模型,相較于傳統(tǒng)的N-gram算法,模型性能提升10%~20%,奠定了詞向量研究的基礎(chǔ)。在此基礎(chǔ)上,Richard Socher等[17]提出基于半監(jiān)督遞歸自動(dòng)譯碼器(Recursive auto-encoder,RAE)的語義向量生成方法,該方法基于神經(jīng)網(wǎng)絡(luò)語言模型訓(xùn)練獲得每個(gè)單詞的詞向量,通過句法樹將任意長(zhǎng)度的文本片段轉(zhuǎn)化成固定維度的語義向量,并將該語義向量表示應(yīng)用于情感分類上,實(shí)驗(yàn)結(jié)果顯示,相較于傳統(tǒng)基于規(guī)則的方法以及基于詞包模型(bag-of-words)的方法,情感分類性能獲得顯著提升。本文借助該語義向量生成方法實(shí)現(xiàn)論元的向量表示。

      圖2為遞歸自動(dòng)譯碼器的句子語義向量生成示意圖。其輸入為長(zhǎng)度為4的句子,xi表示單詞的語義向量,其中i=1,2,3,4。關(guān)于單詞詞向量的生成方法,目前已有許多經(jīng)典研究工作,本文采用Joseph Turian等[18]提出的方法生成單詞的詞向量*詞向量資源下載地址: http://metaoptimize.com/projects/wordreprs/,詞向量維度設(shè)定為100維。由于本文的研究重點(diǎn)是進(jìn)行隱式篇章關(guān)系分類,關(guān)于詞向量的生成細(xì)節(jié),這里不做詳述,具體可見相關(guān)研究論文。

      圖2 遞歸自動(dòng)譯碼器標(biāo)注示例

      在單詞表示成詞向量的基礎(chǔ)上,遞歸自動(dòng)譯碼器首先對(duì)輸入的句子進(jìn)行句法分析,將每個(gè)句子表示成句法樹的形式,然后自右向左遍歷句法樹中的每個(gè)葉子節(jié)點(diǎn),每?jī)蓚€(gè)葉子節(jié)點(diǎn)的父親節(jié)點(diǎn)的語義向量通過式(1)計(jì)算獲得。

      p=f(W(1)[c1;c2]+b(1))

      (1)

      按照上述計(jì)算方法,遍歷整個(gè)句法樹直到根節(jié)點(diǎn),即獲得整個(gè)句子的語義向量。例2給出兩個(gè)實(shí)例的語義向量標(biāo)注結(jié)果,因篇幅有限,只列出部分標(biāo)注結(jié)果。

      例2 Arg1 Mr. Tom avoided jail.

      <譯文: 湯姆先生免受牢獄之災(zāi)>

      Arg2 【Implicit = Instead】He was sentenced to 500 hours of community service.

      <譯文: 【相反】他被判處執(zhí)行500小時(shí)的社區(qū)服務(wù)工作>

      篇章關(guān)系 =“Expansion(擴(kuò)展關(guān)系)”

      通過遞歸自動(dòng)譯碼器,可將輸入的句子轉(zhuǎn)換成語義向量,該語義向量涵蓋句子的句法結(jié)構(gòu)以及上下文信息等,可直接利用該語義向量進(jìn)行文本分析,從而降低對(duì)句子進(jìn)行直接分析的復(fù)雜度。本文利用語義向量這一優(yōu)勢(shì),將遞歸自動(dòng)譯碼器生成的語義向量應(yīng)用于隱式樣本集擴(kuò)展任務(wù)中,通過探索論元的語義向量(簡(jiǎn)稱為論元向量)之間的關(guān)系,對(duì)隱式訓(xùn)練樣本集進(jìn)行擴(kuò)展,輔助推理論元之間的隱式篇章關(guān)系。

      4.2 隱式訓(xùn)練樣本集擴(kuò)展方法

      本節(jié)將詳細(xì)介紹基于語義向量進(jìn)行隱式訓(xùn)練樣本集的擴(kuò)展方法。本文使用的外部語言學(xué)資源為GIGAWORD(LDC2003T05),其中包含了4 111 240篇新聞文本,來自四個(gè)不同的國(guó)際英語新聞專線,分別為: 法國(guó)新聞社、美國(guó)聯(lián)社、紐約時(shí)報(bào)以及新華通訊社。為了保證在外部數(shù)據(jù)資源中擴(kuò)展的隱式實(shí)例與原始訓(xùn)練樣本集的格式一致(在原始訓(xùn)練樣本集中,每個(gè)訓(xùn)練實(shí)例由“論元對(duì)”及其對(duì)應(yīng)的篇章關(guān)系類別組成),在進(jìn)行訓(xùn)練樣本集擴(kuò)展之前,對(duì)GIGAWORD語料中的每篇文本進(jìn)行切分,切分后的文本須符合以下規(guī)則:

      1) 以“論元對(duì)”為單元,且每個(gè)論元符合自然語言規(guī)律(通過句法分析判定);

      2) 兩個(gè)論元之間不包含連接詞*PDTB語料中定義的134個(gè)連接詞,即它們之間為隱式關(guān)系。

      圖3為基于論元向量的訓(xùn)練樣本集擴(kuò)展方法流程圖。本文從GIGAWORD語料中抽取出所有符合上述兩項(xiàng)要求的 “論元對(duì)”,將這些“論元對(duì)”加入到外部數(shù)據(jù)資源列表中。由于切分后獲取的“論元對(duì)”實(shí)例數(shù)量龐大,本文最終從該列表中隨機(jī)抽取一百萬個(gè)“論元對(duì)”實(shí)例,作為外部隱式“論元對(duì)”樣本集?;诖藰颖炯?,利用4.1節(jié)介紹的遞歸自動(dòng)譯碼器標(biāo)注程序進(jìn)行論元向量標(biāo)注,并通過連接兩個(gè)論元向量,獲得“論元對(duì)”整體的向量表示。圖3中X和Y分別表示獲得的外部隱式“論元對(duì)”樣本集以及原始訓(xùn)練樣本集的語義向量標(biāo)注集合。

      圖3 基于論元向量的訓(xùn)練樣本集擴(kuò)充方法流程圖

      以原始訓(xùn)練樣本集的每個(gè)“論元對(duì)”為種子實(shí)例,依據(jù)“平行推理機(jī)制”理論(Hong等[19])*平行推理機(jī)制: 如果兩個(gè)“論元對(duì)”在語義上以及結(jié)構(gòu)上具有一致性,則它們的關(guān)系也平行,即它們具有相同的篇章關(guān)系。,計(jì)算論元向量之間的語義相似度。依據(jù)計(jì)算結(jié)果,從外部隱式“論元對(duì)”樣本集中抽取與種子實(shí)例在語義上和關(guān)系上相似的隱式“論元對(duì)”(簡(jiǎn)稱為平行“論元對(duì)”)。實(shí)驗(yàn)過程中,針對(duì)每個(gè)種子實(shí)例,本文選擇語義最相似的TopN個(gè)隱式“論元對(duì)”作為平行“論元對(duì)”,其中,語義相似度度量采用歐式距離;N的取值與具體的關(guān)系類別有關(guān),如式(2)所示。

      (2)

      其中,Nr表示篇章關(guān)系類別為r的種子實(shí)例關(guān)于TopN的參數(shù)N,CExpansion表示訓(xùn)練樣本中關(guān)系類別為Expansion的實(shí)例總數(shù),Cr表示訓(xùn)練樣本中關(guān)系類類別為r的實(shí)例總數(shù),r∈{Comparison, Contingency, Temporal}。

      通過以上方法,本文計(jì)算獲得所有種子實(shí)例的平行“論元對(duì)”,形成“平行訓(xùn)練樣本集”,并將原始訓(xùn)練樣本集與平行訓(xùn)練樣本集組合,實(shí)現(xiàn)隱式訓(xùn)練樣本集的擴(kuò)展。表2為隱式訓(xùn)練樣本集擴(kuò)展的算法偽代碼。

      表2 隱式訓(xùn)練樣本集擴(kuò)展算法偽代碼

      5 基于擴(kuò)展的訓(xùn)練樣本集的隱式篇章關(guān)系分類

      在擴(kuò)展的訓(xùn)練樣本集上,本文采用傳統(tǒng)的基于語言學(xué)特征的隱式篇章關(guān)系分類方法進(jìn)行實(shí)驗(yàn)。本節(jié)首先概述實(shí)驗(yàn)分類特征,然后介紹實(shí)驗(yàn)分類器。

      5.1 分類特征

      前人研究表明[4-5,9-10],動(dòng)詞、單詞對(duì)、產(chǎn)生式規(guī)則以及依存規(guī)則等四種語言學(xué)特征在隱式篇章關(guān)系的分類問題中具有明顯的優(yōu)勢(shì)。因此,本文采用這四種分類特征進(jìn)行實(shí)驗(yàn)。下面對(duì)這四種分類特征進(jìn)行描述。

      動(dòng)詞(Verbs) 論元Arg1和論元Arg2中的所有動(dòng)詞。每個(gè)動(dòng)詞表示成三個(gè)二元特征,分別表示該特征是否出現(xiàn)在Arg1、Arg2以及整個(gè)“論元對(duì)”中。

      單詞對(duì)(WordPairs) 論元Arg1和論元Arg2的向量積——即兩個(gè)論元中的所有單詞(非停用詞)的交叉組合,對(duì)于任意一個(gè)特征(Wi,Wj),單詞Wi來自于Arg1中,單詞Wj則來自于Arg2中。

      產(chǎn)生式規(guī)則(Production Rules) 論元Arg1、論元Arg2以及整個(gè)“論元對(duì)”的句法規(guī)則特征?;谒固垢>浞?biāo)注工具(version 3.5.0)*http://nlp.stanford.edu/software/lex-parser.shtml(下載地址),對(duì)所有實(shí)例進(jìn)行句法規(guī)則標(biāo)注,按照“parent-children”的格式抽取出句法樹中所有符合要求的產(chǎn)生式規(guī)則。每個(gè)產(chǎn)生式規(guī)則表示成三個(gè)二元特征,分別代表該特征是否出現(xiàn)在Arg1、Arg2以及整個(gè)“論元對(duì)”中。

      依存規(guī)則(Dependency Rules) 論元Arg1、論元Arg2以及整個(gè)“論元對(duì)”的依存規(guī)則特征。同樣基于斯坦福句法標(biāo)注工具,獲得所有實(shí)例的依存分析樹,對(duì)每個(gè)依存樹,抽取每個(gè)單詞及其相關(guān)的依存類型。每個(gè)依存特征表示成三個(gè)二元特征,分別代表該特征是否出現(xiàn)在Arg1、Arg2以及整個(gè)“論元對(duì)”中。

      對(duì)于動(dòng)詞、單詞對(duì)、產(chǎn)生式規(guī)則以及依存規(guī)則特征,本文在實(shí)驗(yàn)中設(shè)定的頻率閾值為5,即如果某一特征在語料中出現(xiàn)的總頻數(shù)小于5,則舍棄該特征。

      5.2 分類器

      針對(duì)所有訓(xùn)練樣本,本文抽取上述四種分類特征,并將每個(gè)訓(xùn)練實(shí)例表示成特征向量,采用Chang 等[20]開發(fā)設(shè)計(jì)的LIBSVM作為分類器,核函數(shù)使用線性核。針對(duì)每種篇章關(guān)系,分別構(gòu)建一個(gè)二元分類器;同時(shí),針對(duì)四種篇章關(guān)系類別,構(gòu)建一個(gè)多類分類器(分類類別為四種)。

      6 實(shí)驗(yàn)設(shè)計(jì)與結(jié)果分析

      6.1 實(shí)驗(yàn)設(shè)計(jì)

      本文使用PDTB 2.0版本中Section 00-20作為原始訓(xùn)練樣本集,共包含13 502個(gè)實(shí)例(本文刪除具有兩種關(guān)系類型的歧義“論元對(duì)”,共313個(gè));Section 21-22作為測(cè)試樣本集,包含1 046個(gè)實(shí)例;Section 23-24作為驗(yàn)證集,包含1 192個(gè)實(shí)例。所有樣本使用第一層的四種篇章關(guān)系類型: 擴(kuò)展關(guān)系(Expansion)、對(duì)比關(guān)系(Comparison)、偶然關(guān)系(Contingency)以及時(shí)序關(guān)系(Temporal),其中實(shí)體關(guān)系類型(EntRel)以及無關(guān)系類型(NoRel)均不包含在訓(xùn)練樣本集、驗(yàn)證樣本集以及測(cè)試樣本集中。此外,本文對(duì)外部數(shù)據(jù)資源GIGAWORD語料中的所有文本進(jìn)行切分,切分后的文本以“論元對(duì)”為單元且兩個(gè)論元之間的關(guān)系為隱式關(guān)系。通過生成隨機(jī)數(shù)的方式從該文本中抽取一百萬個(gè)“論元對(duì)”作為外部隱式“論元對(duì)”樣本?;诖藰颖荆M(jìn)行后續(xù)平行隱式“論元對(duì)”的挖掘。

      為了檢驗(yàn)不同特征的分類性能,針對(duì)不同的分類特征,本文在四種篇章關(guān)系類別下分別訓(xùn)練一個(gè)二元分類器,以檢驗(yàn)該特征在當(dāng)前篇章關(guān)系類型上的單一分類性能,評(píng)價(jià)標(biāo)準(zhǔn)采用F值;同時(shí)本文也針對(duì)每個(gè)特征(動(dòng)詞、單詞對(duì)、產(chǎn)生式規(guī)則以及依存規(guī)則特征)分別訓(xùn)練一個(gè)整體分類器,用來檢驗(yàn)該特征在四種篇章關(guān)系類型上的整體分類性能,評(píng)價(jià)標(biāo)準(zhǔn)采用精確率(Accuracy),如式(3)所示。

      (3)

      其中TruePositive表示被正確分為正例的個(gè)數(shù);TrueNegative表示被正確分為 負(fù) 例 的 個(gè) 數(shù),N

      為待測(cè)“論元對(duì)”總數(shù)。實(shí)際上在表示整體分類性能時(shí),TrueNegative值為0,TruePositive為四種篇章關(guān)系類別中被正確分為正例的總數(shù)。

      6.2 實(shí)驗(yàn)結(jié)果與分析

      圖4為使用四種不同分類特征的實(shí)驗(yàn)結(jié)果,圖4(a)、4(b)、4(c)以及4(d)分別表示使用動(dòng)詞特征、單詞對(duì)特征、產(chǎn)生式規(guī)則特征以及依存規(guī)則特征的實(shí)驗(yàn)分類性能(度量標(biāo)準(zhǔn)為F值)。從實(shí)驗(yàn)結(jié)果可以看出,使用擴(kuò)展的訓(xùn)練樣本集進(jìn)行模型訓(xùn)練,分類器在保證Expansion關(guān)系類別分類精度的同時(shí),有效地提升了Comparison、Contingency以及Temporal 三個(gè)關(guān)系類別上的分類性能,在四種分類特征上性能分別提升11.21%、7.67%、4.46%和11.53%。由于本文只對(duì)Comparison、Contingency以及Temporal三種關(guān)系類別進(jìn)行訓(xùn)練樣本擴(kuò)展,從實(shí)驗(yàn)結(jié)果還可以看出,實(shí)驗(yàn)性能在這三種類別上提升較為明顯,而在Expansion類別上的性能基本保持不變,這說明本文基于論元向量獲取的“平行訓(xùn)練樣本集”具有一定的準(zhǔn)確性,在Comparison、Contingency以及Temporal三種關(guān)系類別上加入更多的有效實(shí)例,有效地提升了分類器在這三種類別上的分類性能,而在Expansion關(guān)系類別上,由于沒有加入更多的訓(xùn)練實(shí)例,分類性能則基本保持不變。

      圖4 分類器在四種不同特征下的實(shí)驗(yàn)性能對(duì)比注: Expansion, Comparison, Contingency, Temporal分別簡(jiǎn)寫為Exp., Com., Con., Temp.

      為進(jìn)一步驗(yàn)證基于論元向量擴(kuò)展的“平行訓(xùn)練樣本集”的準(zhǔn)確性。實(shí)驗(yàn)過程中,對(duì)于Comparison、Contingency以及Temporal三種關(guān)系類別,本文從外部隱式“論元對(duì)”樣本中隨機(jī)選擇與“平行訓(xùn)練樣本集”相同數(shù)量的“論元對(duì)”,將該樣本集稱為“偽平行訓(xùn)練樣本集”。由于“偽平行訓(xùn)練樣本集”中可能含有較多噪音信息,通過該樣本集訓(xùn)練得出的分類器可靠性不強(qiáng),可將其作為實(shí)驗(yàn)的對(duì)比系統(tǒng),以檢驗(yàn)“平行訓(xùn)練樣本集”的實(shí)驗(yàn)性能。因此,本文設(shè)置了以下五個(gè)實(shí)驗(yàn)系統(tǒng): 其中Baseline實(shí)驗(yàn)系統(tǒng)使用原始訓(xùn)練樣本集;SYS1實(shí)驗(yàn)系統(tǒng)使用“偽平行訓(xùn)練樣本集”;SYS2實(shí)驗(yàn)系統(tǒng)使用“平行訓(xùn)練樣本集”;SYS3實(shí)驗(yàn)系統(tǒng)使用加入“偽平行訓(xùn)練樣本集”的擴(kuò)展訓(xùn)練樣本集;SYS4實(shí)驗(yàn)系統(tǒng)使用加入“平行訓(xùn)練樣本集”的擴(kuò)展訓(xùn)練樣本集。圖5為各實(shí)驗(yàn)系統(tǒng)在四種分類特征上的實(shí)驗(yàn)性能對(duì)比。

      圖5 各實(shí)驗(yàn)系統(tǒng)性能對(duì)比圖

      從圖5分類性能對(duì)比圖可以看出,加入“平行訓(xùn)練樣本集”后,系統(tǒng)SYS4的分類性能明顯優(yōu)于基準(zhǔn)系統(tǒng)(僅使用原始訓(xùn)練樣本),且在每種特征上分類性能分別提升為8.41%、7.93%、3.25%和2.10%,最優(yōu)分類性能達(dá)到48.66%(特征: 單詞對(duì))。進(jìn)一步觀察發(fā)現(xiàn),實(shí)驗(yàn)系統(tǒng)SYS2僅使用擴(kuò)展的“平行訓(xùn)練樣本集”進(jìn)行實(shí)驗(yàn),獲得的實(shí)驗(yàn)分類性能僅略低于基準(zhǔn)系統(tǒng),而實(shí)驗(yàn)系統(tǒng)SYS3使用“偽平行訓(xùn)練樣本集”獲得的實(shí)驗(yàn)性能明顯偏低,從而證明本文基于論元向量擴(kuò)展的“平行訓(xùn)練樣本集”與原始訓(xùn)練樣本具有較高的相似性,在一定程度上可輔助實(shí)現(xiàn)隱式篇章關(guān)系的分類。

      此外,本文將實(shí)驗(yàn)性能最優(yōu)的分類系統(tǒng)SYS4與基準(zhǔn)系統(tǒng)以及各主流分類系統(tǒng)進(jìn)行對(duì)比。本文選取的兩個(gè)對(duì)比系統(tǒng)為WANG_SYS和LAN_SYS。其中,WANG_SYS采用基于樹核函數(shù)的方法實(shí)現(xiàn)隱式篇章關(guān)系分類,使用的分類器及評(píng)價(jià)標(biāo)準(zhǔn)與本文一致,最終分類器的整體分類性能為40.00%;LAN_SYS采用基于多任務(wù)學(xué)習(xí)框架的方法實(shí)現(xiàn)隱式篇章關(guān)系分類,通過不同的訓(xùn)練樣本訓(xùn)練主分類器和輔助分類器,最終整體分類性能達(dá)到42.30%。表3列出各個(gè)系統(tǒng)的分類性能,從各實(shí)驗(yàn)系統(tǒng)分類性能可以看出,本文加入“平行訓(xùn)練樣本”的實(shí)驗(yàn)系統(tǒng)SYS4的分類性能相較于兩個(gè)對(duì)比系統(tǒng)WANG_SYS以及LAN_SYS均有顯著提升,分類精確率分別提高8.66%和6.36%,這也進(jìn)一步驗(yàn)證本文基于訓(xùn)練樣本集擴(kuò)展的隱式篇章關(guān)系分類方法具有一定的有效性和可行性。

      表3 各隱式篇章關(guān)系推理系統(tǒng)性能

      表3中還給出兩位人工標(biāo)注者的分類精確率(來自徐凡等[21]),針對(duì)同一測(cè)試集,兩者僅取得60%左右的精確率。雖然與人工標(biāo)注者的實(shí)驗(yàn)結(jié)果相比,本文的最優(yōu)性能仍然偏低,但現(xiàn)有系統(tǒng)和人工標(biāo)注的性能均不高,這種現(xiàn)象從側(cè)面反映隱式篇章關(guān)系分類難度較大,在篇章分析領(lǐng)域仍是一個(gè)具有挑戰(zhàn)性的研究任務(wù)。

      7 總結(jié)

      針對(duì)隱式訓(xùn)練樣本不足以及篇章關(guān)系類別不平衡的問題,本文提出一種基于訓(xùn)練樣本擴(kuò)展的隱式篇章關(guān)系分類方法。該方法借助論元向量,以原始訓(xùn)練樣本為集種子實(shí)例,從外部數(shù)據(jù)資源中挖掘所有種子實(shí)例的平行隱式“論元對(duì)”,并將所有平行隱式“論元對(duì)”加入到原始訓(xùn)練樣本集中,對(duì)訓(xùn)練樣本集進(jìn)行擴(kuò)展。基于擴(kuò)展的訓(xùn)練樣本集,在PDTB數(shù)據(jù)集上進(jìn)行性能測(cè)試。相較于直接使用原始訓(xùn)練樣本集的實(shí)驗(yàn)系統(tǒng),分類性能提升最優(yōu)達(dá)到8.41%,相較于兩個(gè)主流對(duì)比實(shí)驗(yàn)系統(tǒng),分類性能分別提升8.66%和6.36%。

      然而,本文提出的基于訓(xùn)練樣本集擴(kuò)展的隱式篇章關(guān)系分類方法性能仍偏低,原因在于,隱式“論元對(duì)”本身具有較強(qiáng)的主觀性和歧義性,從不同的角度考慮具有不同的語義關(guān)系。例如, “He worked all night yesterday”和“He slept all day today”兩論元之間既可表示偶然關(guān)系也可表示時(shí)序關(guān)系。針對(duì)這一問題,未來工作中,我們將對(duì)本文方法深入和細(xì)化: 在訓(xùn)練樣本集擴(kuò)展方面,嘗試借助LDA模型以及篇章上下文信息選擇歧義性較小的實(shí)例作為種子實(shí)例;在論元向量計(jì)算方面,采用更多的相似度計(jì)算方法,例如,余弦相似度、Jaccard相似度等;在特征表示方面,嘗試采用特征選擇、特征融合等方法。此外,將現(xiàn)有的篇章關(guān)系分類方法擴(kuò)展至第二層的篇章關(guān)系識(shí)別,實(shí)現(xiàn)更細(xì)粒度的篇章關(guān)系分類。

      [1] R Prasad, N Dinesh, A Lee, et al. The Penn Discourse TreeBank 2.0[C]//Proceedings of the 6th International Conference on Language Resources and Evaluation (LREC), 2008: 2961-2968.

      [2] E Miltsakaki, L Robaldo, A Lee, et al. Sense Annotation in the Penn Discourse Treebank[C]//Proceedings of the Computational Linguistics and Intelligent Text Processing. Springer Berlin Heidelberg, 2008: 275-286.

      [3] E Pitler, M Raghupathy, H Mehta, et al. Joshi. Easily Identifiable Discourse Relations[R]. Technical Reports (CIS), 2008: 87-90.

      [4] E Pitler, A Louis, A Nenkova. AutomaticSense Prediction for Implicit Discourse Relations in Text[C]//Proceedings of the Joint Conference of the 47th Annual Meeting of the ACL and the 4th International Joint Conference on Natural Language Processing of the AFNLP (ACL-AFNLP), 2009, 2: 683-691.

      [5] Z H Lin, M Y Kan, H T Ng. Recognizing Implicit Discourse Relations in the Penn Discourse Treebank[C]//Proceedings of the Conference on Empirical Methods in Natural Language Processing (EMNLP), 2009, 1: 343-351.

      [6] R Soricut, D Marcu. Sentence Level Discourse Parsing Using Syntactic and Lexical Information[C]//Proceedings of the Human Language Technology and North American Association for Computational Linguistics Conference (HLT-NAACL), 2003: 149-156.

      [7] W T Wang, J Su, C L Tan. KernelBased Discourse Relation Recognition with Temporal Ordering Information[C]//Proceedings of the 48th Annual Meeting of the Association for Computational Linguistics (ACL), 2010: 710-719.

      [8] Z M Zhou, Y Xu, Z Y Niu, et al. Predicting Discourse Connectives for Implicit Discourse Relation Recognition[C]//Proceedings of the 23rd International Conference on Computational Linguistics (CL): Posters, 2010: 1507-1514.

      [9] J Park, C Cardie. Improving Implicit Discourse Relation Recognition Through Feature Set Optimization[C]//Proceedings of the 13th Annual Meeting of the Special Interest Group on Discourse and Dialogue (SIGDIAL), 2012: 108-112.

      [10] M Lan, Y Xu, Z Y Niu. Leveraging Synthetic Discourse Data via Multi-task Learning for Implicit Discourse Relation Recognition[C]//Proceedings of the 51st Annual Meeting of the Association for Computational Linguistics (ACL), 2013: 476-485.

      [11] J J Li, M Carpuat, A Nenkova. Cross-lingual Discourse Relation Analysis: A corpus study and a semi-supervised classification system[C]//Proceedings of the 25th International Conference on Computational Linguistics (COLING), 2014: 577-587.

      [12] X Wang, S J Li, J Li, et al. Implicit Discourse Relation Recognition by Selecting Typical Training Examples[C]//Proceedings of the 22nd International Conference on Computational Linguistics (COLING), 2012: 2757-2772.

      [13] D Marcu, A Echihabi. AnUnsupervised Approach to Recognizing Discourse Relations[C]//Proceedings of the 40th Annual Meeting on Association for Computational Linguistics (ACL), 2002: 368-375.

      [14] C Sporleder, A Lascarides. Using automatically labelled examples to classify rhetorical relations: An assessment[J].Natural Language Engineering, 2008, 14(03): 369-416.

      [15] G E Hinton. Learning distributed representations of concepts[C]//Proceedings of the eighth annual conference of the cognitive science society (COGSCI).1986: 1-12.

      [16] Y Bengio, R Ducharme, P Vincent, et al. A neural probabilistic language model[J]. The Journal of Machine Learning Research, 2003, 3: 1137-1155.

      [17] R Socher, J Pennington, E H Huang, et al. Semi-supervised recursive autoencoders for predicting sentiment distributions[C]//Proceedings of the Conference on Empirical Methods in Natural Language Processing (EMNLP), 2011: 151-161.

      [18] J Turian, L Ratinov, Y Bengio. Word representations: a simple and general method for semi-supervised learning[C]//Proceedings of the 48th Annual Meeting of the Association for Computational Linguistics (ACL), 2010: 384-394.

      [19] Y Hong, X P Zhou, T T Che, et al. Cross-argument inference for implicit discourse relation recognition[C]//Proceedings of the 21st ACM International Conference on Information and Knowledge Management (CIKM), 2012: 295-304.

      [20] C C Chang, C J Lin. LIBSVM: a library for support vector machines[J]. ACM Transactions on Intelligent Systems and Technology (TIST), 2001, 2(3): 389-396.

      [21] 徐凡, 朱巧明, 周國(guó)棟. 基于樹核的隱式篇章關(guān)系識(shí)別[J]. 軟件學(xué)報(bào), 2013, 24(5): 1022-1035.

      Implicit Discourse Relation Classification Method Based on the Training Data Expansion

      ZHU Shanshan, HONG Yu, DING Siyuan, YAN Weirong,YAO Jianmin, ZHU Qiaoming

      (Key Lab of Computer Information Processing Technology of Jiangsu Province, Soochow University, Suzhou, Jiangsu 215006, China)

      The implicit discourse relation recognition is to automatically detect the relationships between two arguments without explicit connectives. Previous studies show that linguistic features are effective for implicit discourse relation recognition. However, the state-of-the-art accuracy is merely 40% for the lack of enough training data. For the problem, this paper presents a novel implicit discourse relation recognition method based on the training data expansion. Firstly, we take some origin training data as seed samples, and then use them to mine semantically and relationally parallel data from the external data resources by using “arguments vectors”. Secondly, we augment origin training data with the mined parallel training data. Finally, we experiment the implicit discourse relation classification using the expanded data. Experiment results on the Penn Discourse Treebank (PDTB) show that our method outperforms the baseline system with a gain of 8.41% on the whole, and 5.42% on average in classification accuracy respectively. Compared with the state-of-the-art system, we further acquire 6.36% improvements.

      implicit discourse relation; semantic vector; training data expansion; discourse analysis

      朱珊珊(1992—),碩士研究生,主要研究領(lǐng)域?yàn)槠路治觥?mail:zhushanshan063@gmail.com洪宇(1978—),通信作者,副教授,主要研究領(lǐng)域?yàn)樾畔⒊槿。畔z索,事件關(guān)系檢測(cè)等。E?mail:tianxianer@gmail.com丁思遠(yuǎn)(1992—),碩士研究生,主要研究領(lǐng)域?yàn)槭录P(guān)系檢測(cè)。E?mail:dsy.ever@gmail.com

      1003-0077(2016)05-0111-10

      2014-12-25 定稿日期: 2015-03-27

      國(guó)家自然科學(xué)基金(61373097, 61272259, 61272260, 90920004);教育部博士學(xué)科點(diǎn)專項(xiàng)基金(2009321110006, 20103201110021);江蘇省自然科學(xué)基金(BK2011282);江蘇省高校自然科學(xué)基金(11KJA520003);蘇州市自然科學(xué)基金(SH201212)

      TP

      A

      猜你喜歡
      論元訓(xùn)練樣本實(shí)例
      人工智能
      成分重量和粵方言雙及物結(jié)構(gòu)的論元語序
      基于論元結(jié)構(gòu)和題元指派對(duì)漢語處置義“把”字句的句法語義分析
      寬帶光譜成像系統(tǒng)最優(yōu)訓(xùn)練樣本選擇方法研究
      融合原始樣本和虛擬樣本的人臉識(shí)別算法
      基于稀疏重構(gòu)的機(jī)載雷達(dá)訓(xùn)練樣本挑選方法
      英語中動(dòng)構(gòu)式中施事論元句法隱含的認(rèn)知研究
      完形填空Ⅱ
      完形填空Ⅰ
      配位方式支配模式論元結(jié)構(gòu)
      贵港市| 介休市| 哈巴河县| 桐庐县| 石嘴山市| 威信县| 丰台区| 澄城县| 大名县| 行唐县| 曲阳县| 谢通门县| 南溪县| 宜川县| 兴义市| 闽侯县| 大厂| 青州市| 沙田区| 定日县| 饶平县| 鄯善县| 新干县| 武鸣县| 闽清县| 玉环县| 高安市| 锦屏县| 青浦区| 延津县| 维西| 施秉县| 融水| 祥云县| 黎平县| 渑池县| 军事| 彭泽县| 阜新市| 大丰市| 大渡口区|