• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      利用外部知識輔助和多步推理的選擇題型機器閱讀理解模型①

      2020-04-24 02:23:50盛藝暄
      計算機系統(tǒng)應用 2020年4期
      關鍵詞:三元組題型選項

      盛藝暄,蘭 曼

      (華東師范大學 計算機科學與技術學院,上海 200062)

      機器閱讀理解是自然語言處理的核心任務之一,目標是利用機器自動理解自然語言文本,從給定文本中獲取回答問題的答案信息.高質(zhì)量的機器閱讀理解對于搜索、問答、智能對話等任務都發(fā)揮重要作用.根據(jù)答案是否是從文章中直接抽取的文本片段,機器閱讀理解任務可以分為兩類,抽取式和非抽取式.典型的抽取式任務有CNN/DailyMai[1],CBTest[2]等這類完形填空任務,以及SQuAD[3],TriviaQA[4]等這類片段抽取型任務.典型的非抽取式任務有MCTest[5],RACE[6],MCScript[7]等選擇題型任務.

      選擇題型任務與上述直接抽取式任務最大不同在于答案候選項往往是與文章內(nèi)容相關的歸納總結或文本改寫,而非完全截取自文章中某文本片段.因此,需要機器通過從文章或借助外部知識進行推理,獲得正確答案.表1 是來自MCScript 數(shù)據(jù)集中兩種類型問題舉例,問題1 的回答可由文章中下劃線句子推理得出去蒸桑拿是為了解壓:而問題2 則需要借助外部知識輔助推理,因為全文并沒有提及蒸桑拿所穿服裝的信息,因此結合文章中粗斜體句子信息(蒸桑拿很熱),并利用(steam bath,RelatedTo,sauna),(bath suit,RelatedTo,swimsuit),(nude,DerivedFrom,swim),(jeans,UsedFor,clothing),(clothing,UsedFor,warm)等從外部知識庫得到的相關外部知識,幫助機器正確推理并回答問題2.相比問題1 這類僅需推理文章可得到答案的問題,問題2 這類需外部知識輔助的問題屬于選擇題問題中難度大的問題,因為它不僅需要文章信息,還需要外部知識輔助才能得到答案,對模型推理要求更高.

      解決閱讀理解的問題時,可能會同時遇到問題1 這類僅需推理文章就可獲得答案的問題,以及問題2 這類需外部知識輔助推理的問題,需要模型對兩類問題都能較好地處理才能取得總體性能的提高.然而,目前選擇題型機器閱讀理解模型的研究大多是解決僅需推理文章可獲得答案的問題.這些模型精心設計文章、問題和候選項的語義表示以及這三者之間信息交互方式.例如,Parikh 等[8]利用正交表示排除不相關的選項,并根據(jù)排除操作的結果增強文章的語義表示.Zhu 等人[9]利用選項之間的相關性建模選項語義表示.Wang 等人[10]將問題和選項分別與文章同時進行交互得到既包含問題信息又包含選項信息的文章表示用于答案預測.此外,也有一些研究工作意識到推理在選擇題型閱讀理解中的重要性,設計了多種多步推理方式.例如,Lai 等人[6]將GA Reader[11]應用于選擇題,利用多步推理機制與文章問題之間的注意力機制結合的方式,進行固定次數(shù)問題和文章之間的信息交互用于答案預測.Xu 等人[12]在計算文章、問題和侯選項三者交互的語義表示后,采用強化學習進行動態(tài)多步推理得出正確答案.然而,上述模型都是針對僅需推理文章可獲得答案的問題,沒有外部知識的輔助,模型處理類似問題2 需外部知識輔助推理的問題時能力受限,無法正確推理回答問題,因此需外部知識輔助推理的問題是這類模型提高總體性能的一個突破點.

      為幫助回答問題2 這類需外部知識輔助推理的問題,Wang 等人[13]和Chen 等人[14]嘗試把從外部知識庫中得到的詞之間關系的表示向量加入詞的嵌入表示中,通過隱式方式引入相關外部知識信息,但這些模型僅僅只利用外部知識信息以及文章、問題和候選項這三者的信息進行淺層的語義匹配.然而,利用外部知識輔助的問題往往對模型推理要求更高,上述模型并沒有進行多步推理,導致該類模型不能深入地利用外部知識信息以及文章、問題和候選項這三者的信息共同進行融合推理.

      為了解決需外部知識輔助推理的問題,從而幫助提升選擇題機器閱讀理解模型的總體性能.本文提出一個利用外部知識輔助和多步推理的選擇題型機器閱讀理解模型,該模型不僅引入與回答問題相關的外部知識,進行外部知識與文章、問題和候選項的信息交互用于建模語義匹配表示,還利用包含外知識信息的語義匹配表示進行多步答案推理,從而更好地利用外部知識信息幫助模型推理出答案.本文在國際語義測評競賽2018年任務11 的數(shù)據(jù)集MCScript[7]上進行了對比實驗,結果表明本文提出的方法有助于提高需外部知識輔助回答的問題的準確率.

      本文的組織結構如下:首先在上述內(nèi)容中介紹了本文的研究動機及相關工作,然后將在第1 節(jié)介紹本文提出的模型;在第2 節(jié)中說明實驗設置,包含數(shù)據(jù)準備,模型參數(shù)設置和評估標準;在第3 節(jié)中展示實驗結果并分析;最后在第4 節(jié)總結本文工作.

      1 利用外部知識輔助和多步推理的選擇題型模型

      本章將介紹本文所提出的利用外部知識輔助和多步推理的選擇題型機器閱讀理解模型.本文目標是提高需外部知識輔助推理的問題性能來幫助提高總體性能,所以需要引入一定量的外部知識,然而僅需推理文章得到答案的問題原本只需要利用文章信息就可推理出答案,額外引入的外部知識對其而言可能會是噪聲信息,容易影響僅需推理文章得到答案的問題性能.因此,在實現(xiàn)本文提高需要外部知識輔助的問題的目標的同時,應至少保持僅需推文章得到答案的問題性能不降低.因此本文基于Co-Matching 模型[9](一個針對解決僅需推理文章得到答案的問題的魯棒性強的選擇題型機器閱讀理解模型),增加對外部知識的顯示利用和多步知識推理功能,通過進一步提升模型解決需外部知識輔助推理問題的能力,從而提高模型總體性能.下面首先介紹本文提出的模型,然后闡述本模型與Co-Matching 模型的不同.

      與解決僅需推理文章信息得到答案的模型不同,本文模型除了輸入文章、問題和選項,還需要輸入與文章、問題和選項這三者有關的外部知識.通常外部知識是采用圖結構存儲的知識庫形式,每條外部知識采用三元組的形式(外部知識選取的相關內(nèi)容將在第2 節(jié)實驗配置介紹).圖1 為本文提出的模型的概括圖,展示了本文模型預測一個選項作為答案的概率的過程.將所有數(shù)據(jù)輸入以后,該模型通過嵌入層、編碼層、外部知識融入層、文章問題及選項信息交互層、答案層進行逐層處理,并在答案層輸出預測的答案.下面從模型的輸入開始,按數(shù)據(jù)處理的順序逐步介紹上述5 層.

      1.1 模型的輸入

      為便于模型描述,本文將采用下列符號化的表示定義選擇題型機器閱讀理解任務.該任務輸入一個以四元組表示的選擇題型閱讀理解的全部數(shù)據(jù)<D,Q,C,K >,模型從答案候選項集合C 中選擇概率最高的選項作為預測答案輸出.四元組中給定的文章D 包含 s個句子 {DS1,DS2,···,DSs} ,其中第j句DSj的長度為lDSj個詞,問題Q的長度為 lQ個詞,答案候選項集合C 是包含y 個選項的集合{ c1,c2,···,cy} ,其中第i 個選項ci的長度為lci個詞,相關知識集K 是從外部知識庫中篩選出的與D,Q,C 有關的集合,是包含 p 個外部知識的三元組的集合,其中每個知識三元組k 表 示為k=(subj,rel,obj).s ubj 和o bj 是至少包含一個詞的三元組頭、尾節(jié)點,長度分別為lsubj和lobj.rel是 subj和obj之間的關系,長度為1.

      1.2 嵌入層

      嵌入層將輸入的四元組中的每個詞投射到一個語義表示的向量空間.以問題Q 為例,其中每個詞表示為詞嵌入后得到其中表示問題中第n 個詞的嵌入表示,本文采用預訓練的Glove 詞向量[15]并拼接人工特征作為每個詞的嵌入表示.人工特征為多個二值特征,表示該單詞是否出現(xiàn)在文章D 中、問題Q 中、候選項ci(i ∈[1,y])中、同時出現(xiàn)在文章D和候選項ci(i ∈[1,y])中,同時出現(xiàn)在問題Q和候選項 ci(i ∈[1,y]).同樣,對文章的句子D Sj(j ∈[1,s])和選項 ci(i ∈[1,y])中每個詞進行向量映射后,分別得到EDSj和 Eci.此外,外部知識集合中每個三元組的詞進行向量映射后,可表示為k =(Esubj,Erel,Eobj).

      圖1 利用外部知識輔助和多步推理的選擇題閱讀理解模型

      1.3 編碼層

      編碼層是為每個詞的嵌入表示生成上下文依賴的編碼表示.本文使用雙向長短期記憶網(wǎng)絡(BiLSTM)對文本進行語義編碼.以問題 Q為例,采用如式(1)經(jīng)過BiLSTM得到其語義表示 HQ∈RlQ×2h:

      1.4 外部知識融入層

      外部知識融入層是為了把外部知識引入模型,受Mihaylov 等人[16]解決完形填空中針對名詞類型問題的啟發(fā),本文在進行文章問題及選項的信息交互之前,通過外部知識和文章、問題及選項中每個詞的語義匹配關系得到每條外部知識的權重,并按各條外部知識的權重表示文章、問題和選項的每個詞,再將每個詞分別按外部知識的權重和上下文編碼的權重的結果進行按權重的線性加和(見式(4)),這樣得到既包含外部知識信息又包含上下文依賴信息的詞表示.以問題 Q中第n個詞為例,如式(2),本文首先采用注意力機制求得外部知識集合K 中每條外部知識三元組和該詞之間的關系權重,并按權重線性加和得到∈R1×2h:

      其中,ReLU 是一種非線性激活函數(shù),[ ,]是拼接操作,-和? 是元素減和元素乘操作,W1和b1是訓練參數(shù).隨后將 Q 中第n 個詞優(yōu)化后的外部知識按權重的表示向量和上下文編碼向量進行有權線性加和,如式(4)

      其中,α ∈R1×2h是一個隨機初始化可訓練的向量.經(jīng)該層處理后,問題 Q 表示為,其中每個詞表示都包含外部知識信息和上下文信息.類似地,對文章中的句子和選項采用同樣操作可分別得到和.

      1.5 文章問題及選項信息交互層

      為了生成文章、問題和候選項這三者之間的交互語義匹配表示,使模型關注到這三者匹配度高的部分,信息交互層在Wang 等人[9]提出的Co-Matching 匹配方式的基礎上進行了改進.Co-Matching 模型僅僅利用文章、問題和候選項三者的上下文編碼直接進行語義匹配,缺乏外部知識的輔助,因而回答需外部知識輔助推理的問題時能力受限,而為了使外部知識的信息能夠參與語義匹配中,本文使用外部知識融入層的輸出替代只有上下文編碼信息的表示,并通過注意力機制同時計算問題和文章中每個句子的語義匹配關系以及各個選項和文章中每個句子的語義匹配關系.以問題Q 和文章中第 j 句D Sj的信息交互為例,用如式(5)和式(6)計算得到包含外部知識信息和問題信息的文章中第 j 句的表示:

      同時對選項 ci進行類似處理可得.然后將和進行拼接可得既包含外部知識信息又包含問題 Q和選項 ci信息的文章中第 j 句的語義匹配表示Gi,j=對每個問題、文章中某句子和某一個候選項構成的任一組合 {Q,DSj(j ∈[1,s]),ci(i ∈[1,y])}都可采用上述四層處理,得到一個語義匹配的表示Gi,j,i 和 j分別表示第i 個選項和文章第 j 句.以第i 個候選項ci為例,在得到融入了外部知識、問題和候選項信息的文章中所有句子的表示 { Gi,1,Gi,2,···,Gi,s}后,采用如式(7)將文章句子的矩陣表示Gi,j變成向量表示gi,j:

      由此可以得到由文章中所有句子語義匹配表示向量組成的語義匹配表示 Ui={gi,1,gi,2,···,gi,s},Ui中含有經(jīng)過語義匹配的外部知識輔助信息、以及問題文章和選項的信息.

      1.6 答案層

      答案層采用多步推理機制實現(xiàn)答案預測.用多層BiLSTM 對信息交互層得到的語義匹配表示 Ui進行推理,根據(jù)每層BiLSTM 的輸出,得到一系列輸出結果,其中T 為總推理步數(shù),為第t 層BiLSTM 的輸出.然后,對每層BiLSTM 的輸出使用最大池化操作得到.在多步推理的過程中,為避免出現(xiàn)某步推理偏執(zhí)的問題(“step bias problem”),本文對多步推理的結果使用Liu 等人[19]提出的隨機丟失策略(Stochastic dropout),即按一定的隨機丟失概率隨機丟棄中的一些結果,隨機留下z (z ≤T)步推理結果.然后本文根據(jù)留下的推理結果計算選項ci為預測答案的概率,并計算余下步驟的概率均值,得到綜合考量多個推理步驟后選項ci作為預測答案的平均概率:

      1.7 本文模型與Co-Matching 模型的異同點比較

      本文提出的模型是基于Co-Matching 模型,但與Co-Matching 模型在各層中都存在不同.(1)在嵌入層,本文加入了人工特征表示詞匹配關系,對回答一些候選項與文章有詞共現(xiàn)的問題有幫助.(2)在編碼層,本文增加對外部知識的編碼.(3)額外增加外部知識融入層豐富詞表示,使模型具有靈活豐富的外部知識的信息輔助.(4)在文章問題及選項信息交互層,Co-Matching 模型僅利用文章,問題和選項的信息做語義匹配,本文模型使用外部知識融入層的輸出,在進行三者信息交互時有外部知識的信息參與,增強了機器閱讀理解模型回答需要外部知識輔助類問題時的語義匹配能力.(5)在答案層,采用了多步推理機制而并非單層答案預測層,可更進一步利用外部知識信息幫助推理,解決了僅利用外部知識信息進行淺層語義匹配的缺陷,增強了模型的推理能力,更有利于推理需外部知識輔助的問題.

      2 實驗設置

      本章介紹實驗的設置,包括數(shù)據(jù)準備,模型參數(shù)設置和評估指標.

      2.1 數(shù)據(jù)準備

      數(shù)據(jù)集:本文使用國際語義測評競賽2018-SemEval的任務11 的數(shù)據(jù)集MCScript 進行實驗.MCScript 是旨在于讓大家探索使用外部知識進行機器閱讀理解的數(shù)據(jù)集,其中每篇文章對應若干問題,每個問題有2 個選項,需從中選擇一個正確答案.數(shù)據(jù)集中同時包含需要外部知識輔助推理的問題(表中“cs”類型)和僅需文章信息可推理答案的問題(表中“text”類型),“cs”類問題和“text”類問題比例約3:7,“cs”型的問題數(shù)量比“text”類型的問題的數(shù)量少.因此,“cs”類型問題應該有較大變化才能影響數(shù)據(jù)集的總體效果.數(shù)據(jù)集的具體分布如表2 所示,“all”是所有問題,“#”表示數(shù)量.

      表2 數(shù)據(jù)集MCScript 的數(shù)據(jù)分布

      外部知識集合K 的構建:由于要給模型輸入相關的外部知識,本文采用如下3 個步驟挑選得到與 D,Q和C 有關的外部知識集合K.第1 步,從外部知識庫中搜索包含 D ,Q和C 中詞語(去停詞)的知識三元組.本文使用圖結構存儲的ConceptNet[20]作為外部知識庫,ConceptNet 做外部知識庫是因為其采用多種資源構建,包含OMCS[21],Open Multilingual Word Net[22],Open-Cyc[23],DBPedia[24],JMDict[25]和“Games with a purpose”[26-28].知識圖中每兩個節(jié)點和其連接邊可組成一個外部知識三元組,兩節(jié)點分別是 subj 和o bj,邊為兩節(jié)點的關系r el.第2 步,根據(jù)以下兩點對外部知識進行打分:(1)外部知識中的詞在給定的不同文本中出現(xiàn)的重要性不同,在候選項中出現(xiàn)最重要,問題其次,文章更次;(2)外部知識三元組里出現(xiàn)在給定文本中的詞數(shù)在外部知識總詞數(shù)的占比,并排序選出得分最高的前50 條知識.其中一條外部知識三元組k 的相關性得分的計算如式(10)和式(11):

      式中, scoresubj為 s ubj分數(shù),有4 個值,取值方式為:subj中的詞如果出現(xiàn)在選項中給4 分,如果出現(xiàn)在問題中為3 分,如果在文章中給2 分,不出現(xiàn)給0 分.scoreobj類似.式(11)中c nt()為 詞語數(shù)量,∪表示兩者中出現(xiàn)過的所有詞,∩表示兩者中共同出現(xiàn)的詞.第3 步,為防止外部知識出現(xiàn)頻率對模型選答案造成影響,使兩條選項所對應的外部知識數(shù)量一致,本文首先把選項對應的外部知識進行排序,保留所有選項前 x條外部知識( x為對應外部知識最少的選項的外部知識數(shù)量).所有只與文章或與問題有關的外部知識則都保留.

      2.2 模型參數(shù)配置

      本文提出的模型采用Pytorch 框架構建實現(xiàn).詞嵌入為300 維預訓練Glove 詞向量[15]和8 維人工特征拼接的308 維向量.MCScript 數(shù)據(jù)集中每道題對應2 個選項,人工特征為8 維,即是否出現(xiàn)在文章D,問題 Q,選項 c1,選項 c2,同時出現(xiàn)在文章D 和候選項c1,同時出現(xiàn)在文章D 和候選項 c2,問題Q 和候選項中c1,問題Q 和候選項 c2中.由于外部知識三元組中r el是外部知識庫自己定義的字符表示并且種類固定(ConceptNet中為34 種),本文采用34 個308 維隨機初始化向量分別表示這些關系.BiLSTM 的隱層是150 維,損失函數(shù)是NLLLoss.采用Adamax算法[29]以0.002 為初始學習率開始訓練,并在每10 個批大小(batch size)進行更新.為防止過擬合,嵌入層和編碼層都采用概率0.4 的丟失策略(dropout).答案層采用8 層的BiLSTM 進行8 步推理,答案層隨機丟失的概率也為0.4.模型共訓練50 輪(epoch).

      2.3 模型評估

      本文采用準確率來評估模型,如式(12)計算.

      3 實驗分析

      3.1 與其他模型的比較

      表3 展示了本文模型與其他模型的實驗對比結果.其中“—”表示數(shù)據(jù)未提供,“*”表示是使用原作者提供的代碼復現(xiàn)的結果,除了MITRE 均為單模型結果.

      表3 中Random,Sliding Window,Bilinear Model 和Attentive Reader 是MCScript 上的實驗基線系統(tǒng).Co-Matching[10]是本文模型的基線系統(tǒng).HMA[30],TriAN[12]是競賽前兩名的單模型結果.MITRE[31]是競賽第3 名的集成模型的結果,因為其使用不同結構的模型集成,并非同一結構不同隨機種子訓練的模型集成,因此將其3 個集成模型MITRE(NN-T),MITRE(NN-GN)和MITRE(LR)的結果也列在表中.其中GCN[13]和TriAN[12]是隱式引入外部知識到模型詞嵌入層中的模型,而本文模型是在編碼之后顯示引入外部知識的模型,其余模型都未引入外部知識.

      表3 不同模型的準確率對比(單位:%)

      本文模型在MCScrip 中需要外部知識輔助的問題(“cs”類型的問題)上取得了79.95%的準確率,超過Co-Matching 的準確率2.92%,甚至超過了MITRE 集成模型在“cs”類型的問題上0.95%的準確率.而僅由文章推理可得答案的問題(“text”類型的問題)取得了81.53%的準確率,相比于Co-Matching 的準確率提升0.32%,說明本文模型在引入外部知識時保持“text”類型的問題性能不降低.從總體性能和問題占比情況看,本文模型取得了81.01%的準確率,相比Co-Matching提升了1%,這主要是靠在數(shù)據(jù)集中相對數(shù)量少的、占比約30%的“cs”類型問題近3%的提升所貢獻的.該實驗結果與本文目標通過提升需外部知識輔助問題的性能,從而幫助選擇題型閱讀理解是一致的.另外,與表3 中總體性能(“all”問題的準確率)超過本文模型的集成模型MITRE 和單模型TriAN(擴展訓練數(shù)據(jù))比較,MITRE 效果好于本文模型是因為其使用3 個子模型集成,然而其3 個子模型各自的在“all”問題的準確率均低于本文單模型效果;與單模型TriAN(擴展訓練數(shù)據(jù))比較,本文模型準確率比TriAN 低0.93%,這是因為TriAN 使用了額外的大規(guī)模單選題數(shù)據(jù)集RACE做訓練,而本文未使用額外訓練數(shù)據(jù).當TriAN 只用MCScript 進行訓練時結果為80.51%,本文模型的結果高于其結果0.50%.

      3.2 不同外部知識數(shù)量的影響

      為了深入分析不同外部知識數(shù)量對模型的影響,表4 展示了不同外部知識的結果.當知識數(shù)量為100條時,“cs”類問題的效果最好,但總體性能相比50 條時略有下降.整體觀察表格中數(shù)據(jù)情況,可以發(fā)現(xiàn)當外部知識數(shù)量越高,模型的效果整體呈降低趨勢,這可能是由于隨著外部知識的引入同時會帶來噪聲,說明構建外部知識集合K 的方式、外部知識被引進模型及與文章問題選項三者交互的方式仍可以被改進.

      表4 不同外部知識數(shù)量情況下test 上的準確率(單位:%)

      3.3 模型模塊消減實驗

      本文還進行了消減實驗用以分析外部知識的引入以及利用外部知識和文章信息一起進行推理的作用.首先本文模型分別與如下3 種模型對比:(1)“-外部知識引入”是指僅采用上下文編碼信息進行匹配和多步推理,僅在本文模型上刪去外部知識引入層;(2)“-答案多步推理”是在本文模型上刪去多步推理答案層,僅使用Co-Matching 模型原本的答案層,但保留了外部知識的引入;(3)“-外部知識引入&答案多步推理”是在本文模型中刪除外部知識引入和多步推理兩種模塊.表5 給出了消減實驗的結果,“-”表示刪減某個模塊.

      對比表5 中“本文模型”和“-外部知識引入”發(fā)現(xiàn)刪除外部知識的輔助在“cs”類型問題上有1.94%的下降,并且表中包含外部知識引入的模型(“本文模型”和“-答案多步推理”)在“cs”類型問題的結果都高于其余兩種無外部知識輔助模型的效果,證明加入外部知識信息是有助于回答需要外部知識輔助類型問題的.

      對比表5 中“本文模型”和“-答案多步推理”,發(fā)現(xiàn)在“cs”類型問題的表現(xiàn)上下降0.94%,說明在語義匹配的基礎上進一步利用外部信息推理是對答題有幫助的.“-答案多步推理”和“-外部知識引入”對比,發(fā)現(xiàn)刪去多步推理機制比刪去外部知識引入對“text”類型的問題影響更大.對比“-答案多步推理”和“-外部知識引入&答案多步推理”,發(fā)現(xiàn)在“text”類型的問題上“-答案多步推理”要略遜0.10%,說明引入外部知識信息后若僅采用語義匹配,不增加推理步驟可能會對“text”類型的回答略有影響,也證明了利用外部知識進行推理(而不僅僅是語義匹配)在使模型盡可能不降低“text”類型的效果上略有幫助.

      表5 test 上的消減實驗準確率(單位:%)

      3.4 模型運行時間分析

      表6 中為本文模型和基線模型Co-Matching 每一輪(epoch)平均訓練時間、訓練至目標函數(shù)的損失值波動平穩(wěn)的收斂時間和全部測試數(shù)據(jù)的測試時間.本文模型對基線模型Co-Matching 的各層都增加了功能,時間的主要增長來源應是額外增添的外部知識融入層和多步推理答案層,因此訓練時間、收斂時間和測試時間都有所增加,但增加的時間在合理可控的范圍內(nèi).

      表6 每輪的運行時間分析(單位:s)

      4 結論與展望

      針對需要外部知識輔助的單項選擇題閱讀理解問題,本文提出了一個利用外部知識輔助和多步推理的選擇題型機器閱讀理解模型,這個模型在保證引入外部知識的情況下,不降低回答僅需文章推理的問題性能的同時,提高需要外部知識輔助問題的性能,從而提高模型的整體性能.本文的實驗結果證明提出的模型的有效性,然而對比人類的結果還有巨大的差距,因此接下來將更深入分析人類回答兩類問題的特點,模擬人類的回答方式探索更細致有效的外部知識引入模型的方式,研究不同外部知識引入方式對模型性能的影響.

      猜你喜歡
      三元組題型選項
      基于語義增強雙編碼器的方面情感三元組提取
      軟件工程(2024年12期)2024-12-28 00:00:00
      基于帶噪聲數(shù)據(jù)集的強魯棒性隱含三元組質(zhì)檢算法*
      離散型隨機變量??碱}型及解法
      巧妙構造函數(shù) 破解三類題型
      關于余撓三元組的periodic-模
      跟蹤導練(四)
      一次函數(shù)中的常見題型
      閱讀理解
      跟蹤導練(5)
      隨機抽樣題型“曬一曬”
      土默特左旗| 赤峰市| 若尔盖县| 龙游县| 高雄县| 台江县| 吉林市| 巩留县| 宁都县| 高阳县| 鄂托克前旗| 秭归县| 和静县| 绵竹市| 内丘县| 阿拉善盟| 辉县市| 谢通门县| 武邑县| 武汉市| 巨鹿县| 莆田市| 枝江市| 会宁县| 林甸县| 年辖:市辖区| 苍溪县| 宁安市| 信阳市| 玉田县| 迁西县| 井陉县| 阳信县| 二连浩特市| 绵竹市| 内乡县| 江北区| 万荣县| 塔河县| 永顺县| 龙州县|