• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看

      ?

      2018機器閱讀理解技術競賽總體報告

      2018-11-16 08:00:22呂雅娟佘俏俏時迎超
      中文信息學報 2018年10期
      關鍵詞:競賽人工錯誤

      劉 凱,劉 璐,劉 璟,呂雅娟,佘俏俏,張 倩,時迎超

      (百度 自然語言處理部,北京 100190)

      0 引言

      機器閱讀理解(Machine Reading Comprehension)是指讓機器閱讀文本,然后回答和閱讀內(nèi)容相關的問題。這項技術可以使計算機具備從文本數(shù)據(jù)中獲取知識并回答問題的能力,是構建通用人工智能的關鍵技術之一。作為自然語言處理和人工智能領域的前沿課題,機器閱讀理解研究近年來受到廣泛關注。

      “2018機器閱讀理解技術競賽”由中國中文信息學會、中國計算機學會主辦,百度公司承辦,旨在為研究者提供開放的學術交流平臺,提升機器閱讀理解的水平,推動語言理解和人工智能領域技術研究和應用的發(fā)展。

      競賽數(shù)據(jù)集采用了百度公司發(fā)布的當前最大規(guī)模的中文閱讀理解數(shù)據(jù)集DuReader[1]。該數(shù)據(jù)集中的問題和文檔均來自搜索引擎的真實場景,符合用戶實際需求。在傳統(tǒng)閱讀理解自動評價指標基礎上,此次競賽針對特定類型問題的評價進行了適當?shù)恼{(diào)整,使其與人工評價標準更為一致。除此之外,競賽還提供了先進的閱讀理解基線系統(tǒng)*① https://github.com/baidu/DuReader,為參賽者快速實驗和提升閱讀理解技術提供了便利。競賽吸引了來自國內(nèi)外的千余支隊伍報名參與,參賽閱讀理解系統(tǒng)的整體水平得到了顯著提升。

      本報告詳細介紹了此次閱讀理解競賽的整體情況、評測方法、評測結果以及相應的結果分析等。希望能夠為國內(nèi)外學者和單位提供有益的信息,對閱讀理解技術發(fā)展起到積極的推動作用。

      1 競賽設置

      1.1 競賽任務

      本次競賽任務設置為: 對于給定問題q及其候選文檔集合D=d1,d2, …,dn,要求閱讀理解系統(tǒng)輸出能夠回答問題的文本答案a。目標是a能夠正確、完整、簡潔地回答問題q。其中對于是非類型問題q,我們期望參賽者能夠進一步給出相應答案的是非判斷信息(Yes/No/Depends)。

      1.2 數(shù)據(jù)簡介

      競賽采用的DuReader[1]閱讀理解數(shù)據(jù)集是當前規(guī)模最大的中文閱讀理解數(shù)據(jù)集。數(shù)據(jù)集的構建基于真實的應用需求,所有問題都是百度搜索中用戶提出的真實問題。文檔來自全網(wǎng)采集的網(wǎng)頁(Search)和百度知道(Zhidao)文檔,答案是基于問題與文檔人工撰寫生成的。數(shù)據(jù)集中標注了問題類型、實體答案和觀點答案等豐富信息。其中問題分為描述類、實體類和是非類三種類型,而實體類問題和是非類問題中分別包含了進一步的實體答案和觀點答案。關于DuReader數(shù)據(jù)集的構建和詳細的數(shù)據(jù)分布信息請參見參考文獻[1]。本次競賽的數(shù)據(jù)集的分布如表1所示,劃分為Search和Zhidao兩個不同數(shù)據(jù)來源的集合,并在測試集中隨機添加了10萬的混淆數(shù)據(jù),以避免參賽系統(tǒng)針對性調(diào)節(jié)參數(shù),保證競賽的公平公正。

      表1 DuReader數(shù)據(jù)分布

      1.3 基線系統(tǒng)

      本次競賽為參賽者提供了數(shù)據(jù)集相應的基線系統(tǒng)源代碼。參賽隊伍可以有針對性地對基線系統(tǒng)進行改進升級,構造自己的參賽系統(tǒng)?;€系統(tǒng)實現(xiàn)了BiDAF[2]和MatchLSTM[3]兩個閱讀理解神經(jīng)網(wǎng)絡模型,二者均為當前主流的閱讀理解模型,很多閱讀理解模型是以這兩個模型為基礎進行創(chuàng)新的。本文中將采用基于BiDAF模型的系統(tǒng)作為基線系統(tǒng)。

      1.4 評價方法

      競賽結果采用自動和人工兩種評價方法進行評價。其中自動評價指標將作為直接的評價指標對提交的全部系統(tǒng)結果進行效果評價,用于系統(tǒng)排名和最終成績認定。而人工評價指標將作為對前10名(TOP10)系統(tǒng)進行效果評價和問題分析的主要依據(jù)。

      1.4.1 自動評價

      在自動評測中采用ROUGE-L[4]和BLEU-4[5]兩個指標,其中ROUGE-L將作為主要參考指標用于排名。對于數(shù)據(jù)集中的是非類型問題和實體類型問題,答案中包含觀點判斷或?qū)嶓w答案枚舉的片段對于答案應當有著更大的影響。因此本次競賽采用了改進的ROUGE-L和BLEU-4指標[6]進行效果評價,對于是非類型問題,希望參賽者能夠?qū)ψ约赫业降拇鸢缸鲞M一步的觀點判斷,如果判斷正確,評估時將會得到一定的獎勵;而對于實體類型問題,將直接在評價時對答案中包含的正確實體在評價中進行一定的獎勵。關于改進的評價指標及改進效果詳見參考文獻[6]。在本次競賽的自動評價計算中,取γ=1.2,而是非問題和實體問題類型的激勵權重則分別設置為α=1.0,β=1.0。

      1.4.2 人工評價

      為了更好地評價系統(tǒng)結果并進行系統(tǒng)問題分析,本次競賽對自動評價排名靠前的系統(tǒng)進行了人工采樣打分評價。評分的主要依據(jù)為該答案是否正確、完整并簡潔地回答了對應問題。人工評分原則上依據(jù)表2中的標準,為每個系統(tǒng)的答案給出0-3分的打分。對于每一條待評分答案安排五個標注者進行評分標注,最終評分結果采用五人的均值。

      表2 人工評分標準

      對于不同的待評估系統(tǒng),評測組織方隨機采樣相同的1 000條問題進行評分,且對不同類型的問題(描述類/是非類/實體類)均依據(jù)總體一致的原則進行打分評估,不同類型問題的具體打分標準略有不同,人工評分樣例詳見附表1。對于有瑕疵或者錯誤的答案,我們進一步地考察了候選答案存在的具體問題,以便進行問題分析。

      2 組織流程

      本次閱讀理解技術競賽為期兩個月,具體競賽組織流程如表3所示。競賽測試集分兩次發(fā)放,首次發(fā)放一部分測試集供參賽者在線自助評估并查看排名。在線自動評估階段每個參賽系統(tǒng)每天最多可以提交兩次結果。完整的測試集于競賽結束前一周發(fā)放,作為最終排名依據(jù)。

      表3 競賽組織流程

      此次競賽總注冊報名的隊伍達1062支,覆蓋眾多高校、科研機構及企業(yè),其中包含了128支來自美、英、日等14個國家的國際隊伍。最終共有153支隊伍累計提交了1 489份系統(tǒng)結果。競賽期間,參賽系統(tǒng)整體水平提升顯著,ROUGE-L評價指標上由最初的35.96提升至終賽的63.62,超過半數(shù)系統(tǒng)的效果都優(yōu)于官方提供的基線系統(tǒng)。

      3 評價結果

      在本報告中對參賽系統(tǒng)依據(jù)自動評價的ROUGE-L評分排序進行順序編號,將系統(tǒng)編號替代系統(tǒng)名稱指代各個系統(tǒng)。本報告中將重點就TOP10系統(tǒng)進行評價和分析,完整系統(tǒng)結果詳見競賽官網(wǎng)[注]http://mrc2018.cipsc.org.cn/。

      3.1 自動評價結果

      排名前10系統(tǒng)整體的自動評價效果如表4所示,排名前10系統(tǒng)在不同問題類型下的自動評價效果如表5所示。各系統(tǒng)在不同數(shù)據(jù)來源及問題類型下的對比如圖1所示。

      表4 TOP10系統(tǒng)自動評價結果

      表5 TOP10系統(tǒng)在不同問題類型下的自動評價結果

      從數(shù)據(jù)集來源上看,如圖1所示,Zhidao來源的結果普遍優(yōu)于同系統(tǒng)的Search部分結果。相比之下,如表4所示,人類閱讀理解的效果在不同來源的數(shù)據(jù)上未顯示出明顯效果差距。在不同問題類型方面,如圖1所示,各系統(tǒng)在描述類型和實體類型問題上的答案的自動評價效果相對較好,而在是非類問題上效果相對較差。而如表5所示,人工的效果則在實體類型的問題上表現(xiàn)相對一般,在其他兩類問題上效果相對較好。

      圖1 各系統(tǒng)在不同數(shù)據(jù)來源及問題類型下的效果對比

      3.2 人工評價結果

      自動排名前10系統(tǒng)的人工評價評分均值效果如表6所示。對于所有系統(tǒng)和問題,五人評分的多數(shù)一致率達94.7%,評分質(zhì)量相對可靠。系統(tǒng)間的人工評價結果顯著性檢驗見附表2。

      如表6所示,參賽系統(tǒng)整體最高分為2.20,距人工評價的3分滿分評價仍有一定差距。在不同類型問題方面,描述類/實體類/是非類問題的最高人工評分分別為2.25/2.07/2.33,其中是非類型答案在人工評價標準下為效果最好部分,與自動評價中是非類型答案效果最差的結論不一致。在不同數(shù)據(jù)來源方面,各系統(tǒng)的Zhidao部分結果的人工評價均高于Search部分的結果,該結論與自動評價結論一致。

      表6 TOP10系統(tǒng)人工評價結果

      人工評估結果與自動評估結果在不同情況下的排序相關性如表7所示,其中在測試集全集上的自動/人工排序相關性達0.92,整體排序基本一致。在不同類型問題方面,描述類和實體類問題排序基本與自動排序結論一致,其中實體類型自動/人工排序相關性最高,而是非類型問題上當前自動/人工評價相關度較低。在不同數(shù)據(jù)來源方面,自動/人工評價相關度均較高,相對而言Search部分來源排序相關性較Zhidao部分略高。因此自動評價指標在效果在整體上效果良好,但對于是非類型的評估有待進一步改進。

      表7 人工評估與自動評估的系統(tǒng)排序相關性

      TOP10系統(tǒng)總體和TOP1參賽系統(tǒng)人工評分分值分布如表8所示。其中可以看出TOP10系統(tǒng)平均可以基本解決(答案評分達2~3分)75%以上的閱讀理解問題,而TOP1系統(tǒng)可以基本解決82%的問題。完全回答錯誤的部分占比均小于10%。

      表8 TOP10總體/TOP1參賽系統(tǒng)人工評分分布

      4 結果分析

      4.1 主要錯誤分析

      為了更好地進行錯誤分析,人工評價時對主要錯誤類型進行了標注。主要錯誤類型如表9所示。不同的錯誤類型可能同時出現(xiàn)在一個答案中,在標注時僅標注該答案的一個最主要錯誤類型。

      表9 答案主要錯誤類型

      表9中給出了所有參賽系統(tǒng)的錯誤類型分布。其中所有錯誤中的“不完整”和“有冗余”類型錯誤的占比最大,占錯誤總量的67%。這兩類錯誤的直接原因可以歸結為,參賽閱讀理解系統(tǒng)有能力找到相關答案,但答案邊界定位不夠準確。因此,當前閱讀理解系統(tǒng)主流的答案邊界預測框架的改進空間仍然很大,這類問題也是當前閱讀理解技術所需重點解決的問題之一。相比之下,由于相關性問題導致的“無答案”的錯誤占錯誤總量14%,說明當前系統(tǒng)在答案相關性匹配上獲得的效果較好,但仍然有改進空間。而錯誤中涉及到邏輯類型的“部分相關”和“邏輯不自洽”錯誤也占有相當部分,該類型錯誤的主要原因可能為系統(tǒng)未能深入理解答案內(nèi)容邏輯,給出了相關但錯誤的答案。因此當前閱讀理解技術在答案內(nèi)容上如何進行進一步的邏輯建模仍然有待深入研究。

      4.2 不同數(shù)據(jù)來源錯誤分析

      所有參賽系統(tǒng)在不同數(shù)據(jù)來源下的錯誤類型分布如圖2所示。其中Zhidao來源上的錯誤相對集中,有超過56%來自于“不完整”錯誤,而其他問題相對Search來源數(shù)據(jù)錯誤較少。其可能的主要原因為Zhidao來源數(shù)據(jù)為已經(jīng)人工處理的問題相關數(shù)據(jù),因此文檔數(shù)據(jù)中天然存在的內(nèi)容冗余和不相關問題較少,所以答案邊界定位的問題易集中體現(xiàn)在“不完整”的錯誤上。

      圖2 不同數(shù)據(jù)來源條件下的錯誤類型分布

      4.3 不同問題類型錯誤分析

      不同問題類型下參賽系統(tǒng)的錯誤類型分布如圖3所示。在描述類問題中最突出的錯誤為“不完整”,實體類問題中分布突出的錯誤為“無答案”及“有冗余”錯誤,是非類問題相對突出的錯誤為涉及答案邏輯的“部分相關”、“邏輯不自洽”以及特有的“是非有誤”錯誤。由此我們可以看出,不同問題類型上的錯誤分布不同、特點明顯,所需解決的難點均不相同,因此針對不同問題類型進行差異性建模對于提升已有閱讀理解系統(tǒng)效果具有積極意義。

      圖3 不同問題類型條件下答案的錯誤類型分布

      4.4 系統(tǒng)技術應用統(tǒng)計

      我們采用調(diào)查問卷的方式對參賽系統(tǒng)所采用的技術進行統(tǒng)計分析,梳理當前閱讀理解技術方面流行或有效的技術模塊。其中發(fā)放110份問卷,返回有效數(shù)據(jù)39份,其中TOP10系統(tǒng)均提交了有效問卷,具體TOP10應用技術統(tǒng)計點如表10所示。大部分參賽系統(tǒng)均采用了基線系統(tǒng)進行改進,少量參賽系統(tǒng)采用了自研或其他開源系統(tǒng)。在建模方法方面,多數(shù)參賽系統(tǒng)選擇的是流行的多層次注意力建模方法,并采用了是非判斷和文檔排序的算法模塊,僅有少量的系統(tǒng)采用了語言生成改寫及強化學習方法。TOP10各系統(tǒng)的詳細系統(tǒng)描述參見附表3。

      表10 參賽閱讀理解系統(tǒng)采用的技術統(tǒng)計

      實心圓點代表該系統(tǒng)采用了相關技術。

      5 總結

      2018機器閱讀理解技術競賽得到學術界和工業(yè)界學者的廣泛關注和參與。參賽系統(tǒng)效果提升顯著,對推動閱讀理解技術發(fā)展起到了積極的作用。在人工評價標準下對參賽系統(tǒng)的分析發(fā)現(xiàn),當前優(yōu)秀的參賽系統(tǒng)已能基本正確回答75%以上的問題,但與人類閱讀理解能力相比仍然存在一定差距。其中,閱讀理解系統(tǒng)的錯誤主要集中在答案邊界定位、答案冗余等方面,現(xiàn)有專注答案邊界定位的閱讀理解技術和模型仍然有很大的改進空間。對于不同的問題類型,參賽系統(tǒng)所表現(xiàn)出來的錯誤分布有顯著不同,針對不同問題類型進行差異性建模是可行的改進方向。在評價標準方面,當前的閱讀理解自動評價指標整體上與人工評價具有較好的相關性,但對于是非類型問題答案的自動評價仍然需要進一步的研究和探索。

      猜你喜歡
      競賽人工錯誤
      人工3D脊髓能幫助癱瘓者重新行走?
      軍事文摘(2022年8期)2022-11-03 14:22:01
      2020絲綢之路數(shù)學競賽
      在錯誤中成長
      人工,天然,合成
      人工“美顏”
      哈哈畫報(2021年11期)2021-02-28 07:28:45
      我看競賽
      創(chuàng)新思維競賽(3)
      新型多孔鉭人工種植牙
      不犯同樣錯誤
      《錯誤》:怎一個“美”字了得
      短篇小說(2014年11期)2014-02-27 08:32:41
      山阴县| 门源| 湟源县| 凤庆县| 辽宁省| 梁河县| 库伦旗| 宝丰县| 昌图县| 囊谦县| 独山县| 富裕县| 资中县| 清原| 瑞金市| 石屏县| 葵青区| 应城市| 伊吾县| 淮南市| 黎平县| 师宗县| 永新县| 靖西县| 赤峰市| 大厂| 松滋市| 静宁县| 定襄县| 古浪县| 临夏市| 长子县| 中宁县| 赣州市| 万山特区| 长春市| 西乌| 苏尼特左旗| 西城区| 澄迈县| 利川市|