• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    跨度語義增強的命名實體識別方法

    2022-07-19 02:17:48耿汝山陳艷平唐瑞雪黃瑞章秦永彬董博
    西安交通大學學報 2022年7期
    關鍵詞:跨度表格注意力

    命名實體識別(named entity recognition,NER)是自然語言處理(nature language processing,NLP)中一項重要的基本任務

    ,文本中的實體往往攜帶重要的信息,因此識別實體對于下游任務如關系提取

    、問題生成

    和實體鏈接

    等有重要的影響和積極的意義。由于語言在表達上具有迭代、遞歸的特點,文本中存在著大量的嵌套語義。例如,“秘魯總統(tǒng)藤森撤換三軍司令”,“秘魯總統(tǒng)藤森”中嵌套著“藤森”這個實體,且它們歸類的實體類型都為“人”。嵌套語義識別依然是自然語言處理中的研究難點。

    目前,基于深度學習的命名實體識別的方法可以分為基于序列模型、基于跨度模型和超圖的方法?;谛蛄行畔⒌姆椒ㄊ菍φZ句中的每個字符打標簽,其主要思想是通過神經網絡的方法對每個字符進行向量表示然后通過一定的編碼運算分類。依據(jù)每個字符分類的類型再合并為實體

    ?;诳缍饶P偷姆椒ㄊ菍ψ址M行組合以形成不同的跨度,跨度信息中包含有每個字符的信息,因此特定的跨度信息代表著特定的實體信息,所以通過對跨度信息的分類來識別不同的實體

    ?;诔瑘D的方法是允許一條邊連接到多個節(jié)點,以代表不同的實體,使用神經網絡對這些邊和節(jié)點進行編碼最后從超圖標簽中恢復實體

    。雖然深度學習的方法可以加入額外的語義特征信息,但是以上這些方法沒有考慮字與字之間的交互問題,會出現(xiàn)語義不足的情況。語義不足會降低模型對于實體的識別精確度,以及無法識別出存在嵌套情況的實體。

    循環(huán)神經網絡(recurrent neural networks,RNN)模型在傳統(tǒng)的神經網絡模型的基礎上發(fā)展起來,因而具有很強的非線性數(shù)據(jù)處理能力,在機器翻譯、自動問答、句法解析等自然語言處理任務中被廣泛的使用。RNN是一類用于處理序列數(shù)據(jù)的神經網絡模型,序列數(shù)據(jù)具有前后數(shù)據(jù)相關聯(lián)的特點

    。但是,RNN在參數(shù)過多的時候容易發(fā)生梯度爆炸問題,為了改善其局限性,研究人員提出了許多改進的循環(huán)神經網絡結構,其中長短期記憶網絡(long short term memory,LSTM)和門控循環(huán)單元(gate recurrent unit,GRU)就是最常用于處理文本循環(huán)神經網絡變種模型。文獻[16]模型使用分層的RNN對人體的姿勢進行識別,文獻[17]模型使用門控RNN模型增強了模型對長距離信息的學習能力,文獻[18]將殘差網絡引入RNN中處理更長的文本序列。通常,RNN用來處理一維信息,無法處理超越一維的信息。對于此問題,多維循環(huán)神經網絡(multi-dimensional recurrent neural networks,MD-RNN)

    被提出并可以在高維度的信息上進行語義增強。目前,多維循環(huán)神經網絡已經在圖像分類

    和語音識別

    等領域都取得了優(yōu)異的效果。MD-RNN是RNN的一種泛化,通過將單個循環(huán)神經網絡的連接替換為與數(shù)據(jù)維度相同的連接來處理多維數(shù)據(jù)。為了增強MD-RNN利用上下文信息的能力,同時避免環(huán)節(jié)RNN在處理長序列數(shù)據(jù)時梯度爆炸或梯度消失的問題,通常將長短期記憶網絡(LSTM)和門控循環(huán)神經網絡(gated recurrent unit,GRU)用作隱藏單元。

    基于上述研究,MD-RNN為融合跨度語義信息提供了一種有效的手段,在一定程度上解決了語義不足的問題。本文提出了一種增強跨度信息的方法,在利用跨度信息進行實體識別的基礎上,增強跨度之間的語義特征,從而有效地增加了跨度的語義信息。首先,使用預訓練語言模型提取字符向量信息,對字符向量進行枚舉拼接形成矩陣。其次,對矩陣使用MD-RNN進行跨度級的語義增強。最后,對矩陣中的跨度進行分類。模型在ACE2005英文數(shù)據(jù)集與中文數(shù)據(jù)集上進行了實驗,分別取得了86.92和81.16的

    值,與其他主流的方法相比,該方法取得了最優(yōu)的結果。

    期望、熵和超熵是代表云模型的三大數(shù)字特征。期望作為整個云圖的中心值,是隸屬度最大、最能表達定性要求的點;熵值則表達出了云的模糊性,指的是云模型在整個坐標區(qū)域的跨度大??;超熵代表了不確定性,超熵越大,云模型的離散程度越大,云圖越分散。

    1 跨度語義增強模型

    模型的整體結構如圖1所示,主要分為編碼、表填充、跨度語義增強、輸出4個模塊,其中表填充和跨度意義增強可以反復疊加多層,下面分別介紹各個模塊。

    1.1 編碼

    假設輸入模型的一句話

    =〈

    ,

    ,…,

    〉,

    表示句子中的第

    個字。對

    通過ALBERT的預訓練語言模型提取出含有上下文信息的連續(xù)稠密向量

    ×

    ,

    表示句子長度,同時使用GloVe預訓練字向量將其編碼為連續(xù)稠密向量

    ×

    ,公式如下

    本模型的注意力的計算流程如圖4所示。將注意力機制擴展到多個頭,并且都有獨立的參數(shù)。拼接輸出,使用全連接層來得到最終的注意力向量,其余部分與Transformer類似。

    ,

    =

    (

    )

    (1)

    =

    (

    )

    (2)

    這件事情翠姨是曉得的,而今天又見了我的哥哥,她不能不想哥哥大概是那樣看她的。她自覺地覺得自己的命運不會好的?,F(xiàn)在翠姨自己已經訂了婚,是一個人的未婚妻;二則她是出了嫁的寡婦的女兒,她自己一天把這個背了不知有多少遍,她記得清清楚楚。

    (3)

    2

    1

    2 評價指標

    1.2 表填充

    首先將得到的編碼層輸出

    =[

    ,

    ,

    ,…,

    ]進行枚舉拼接。將一個長度為

    的句子拼接為

    ×

    的表格

    ××

    ,其中表格

    列的位置對應句子中第

    個詞與第

    個詞進行拼接,此時

    并不包含上下文的信息,公式如下

    ,,

    =max(0,[

    -1,

    ;

    -1,

    ])

    (4)

    式中

    表示當前運算的層數(shù)。表格

    中每一個格子都代表著一個子序列跨度,這樣就將句子中所有可能的子序列都表示出。同時,將ALBERT預訓練模型中得到的注意力權重

    與表格拼接,作為補充信息,更新公式如下

    ,,

    =max(0,[

    -1,

    ;

    -1,

    ;

    ,

    ])

    (5)

    通過這種方式,可以將預訓練模型的權重

    添加到跨度語義增強中,補充語義信息。

    (3)重介質選和浮選效果差,實際生產數(shù)據(jù)與理論數(shù)據(jù)偏差大。主要表現(xiàn)在介耗高達4.5 kg/t,遠高于同行業(yè)水平;循環(huán)水濃度高,為保證礦井生產,不得不強制洗煤生產,導致重介質選和浮選效果惡化;重介質操作困難,不穩(wěn)定,導致矸石中小于1.80 kg/L密度級達到4%左右,洗混煤中小于1.40 kg/L密度級在10%上下。

    1.3 跨度語義增強

    通過拼接得到的每個表格只有邊界的信息,缺少句子的上下文信息,因此使用MD-RNN增強跨度語義信息以彌補缺失的信息。由于傳統(tǒng)循環(huán)神經網絡是在一維的信息上進行計算,因此只接受上一個位置的隱藏層輸出。然而,表格具有二維結構的特點,所以二維循環(huán)神經網絡可以充分利用表格信息。在表格中每個位置的隱藏層不僅接受表格橫向的上一個位置的隱藏層輸出,也接受表格縱向的上一個位置的隱藏層輸出。

    將表格

    輸入到使用GRU作為隱層的MD-RNN中計算,得到表格

    。整個計算過程分為門控計算和隱層計算兩部分。計算門控的過程如下

    (6)

    (7)

    (8)

    (9)

    (10)

    實體識別需要同時識別出實體準確的位置和類別,只有當實體位置和類別都識別正確時結果才算正確。本文實驗使用綜合指標

    值來衡量模型性能,公式如下

    (11)

    (12)

    (13)

    式(17)表示3種輸入之間的運算關系。

    將序列信息升為表格信息帶來了計算量上的指數(shù)增加,因此需要考慮對表格和計算進行一定的優(yōu)化。在表格存儲的信息中反對角線是相同的,因此為了加速計算以減少運算量可以只關注矩陣的上三角信息。一個長度為

    的序列更新為表格信息后只需要計算(

    +1)×

    2個格子,MD-RNN可以在行與列方向上任意挑選方向組合。如圖2所示,MD-RNN在

    維上有2

    種計算方向,在二維的數(shù)據(jù)上共有4種方式。

    根據(jù)文本信息的特點,使用所有方向上的信息會導致一些計算的重復利用,并不能很好增強跨度語義信息。為了降低計算量同時盡可能使當前跨度學習到臨近跨度的語義信息,可只選擇兩個方向(

    )(

    )進行計算,并將計算的結果拼接作為跨度語義增強后的輸出,計算公式如下

    (14)

    (15)

    (16)

    如圖3所示,綠色方塊代表當前的跨度,藍色的方塊代表了臨近的跨度,(

    )方向上的當前跨度會增強后一個跨度的信息,(

    )方向上的會增強到之前跨度的信息,最后將兩個方向上的結果進行拼接,得到包含跨度上下文信息的表格

    。

    注意力的使用是為了梳理跨度信息,跨度信息在經過語義增強后會出現(xiàn)語義信息混亂的情況。注意力運算將根據(jù)序列信息調整跨度信息,輸入是一條句子的向量,第

    個向量代表著句子中的第

    個字,以及MD-RNN的輸出表格

    ,其整體結構是基于Transformer,將自注意力機制(self-attention)中的縮放點乘替換成跨度引導的注意力機制

    。Transformer在自然語言處理領域取得了優(yōu)異的成績,其采用的自注意力機制是成功的關鍵因素

    。傳統(tǒng)的自注意力機制有查詢(

    )、鍵(

    )和值(

    )3個輸入,計算過程如下

    總之,語文生活化,生活語文化。無論哪種方式讀寫結合,無不彰顯《普通高中語文新課標》“語文學科素養(yǎng)是學生在積極的語言實踐活動中積累與構建,并在真實的語言運用情境中表現(xiàn)出來的語言能力及其品質,是學生在語文學習中獲得的語言知識與語言能力,思維方法與思維品質,情感、態(tài)度與價值觀的綜合體現(xiàn)”這一理念,因為讀寫結合是語文科本質性的行為表現(xiàn),語文核心素養(yǎng)的研究也需要以促進學生發(fā)展為基礎、以語文科塑造人的獨立品格與所需能力為基礎實現(xiàn)學生終身教育,讓我們一起努力踐行讓生活生命作文與語文核心素養(yǎng)齊飛吧!

    (17)

    本模型的數(shù)據(jù)輸入來自前一個序列表示層

    -1

    。在self-attention中考慮

    =

    =

    =

    ,可以發(fā)現(xiàn)函數(shù)softmax的輸出是一個基本的注意力權重,而MD-RNN輸出的

    來自于

    -1

    。因此,可以用

    來代替計算

    的相似度,這樣就可以把

    帶入到self-attention公式。這個過程稱為跨度引導的注意力機制,公式如下

    語文學習中,若學生具備綜合閱讀能力,能夠幫助學生更好地理解課文內容,加強學生對課本中文字及詞語等知識的理解,這對學生獲取優(yōu)異的語文成績有很大幫助。此外,學生綜合閱讀能力的提高還對學生口語表達能力及寫作能力的提升有巨大幫助。學生具備綜合閱讀能力,可以對文章內容獲得全方位的理解,掌握文章的表達方法,體會文章的思想情感,這樣可以讓學生在口語表達的時候用詞更加準確,并且有效表達自己的思想情感,同時借助綜合閱讀還可以積累一些有效的寫作方法與寫作素材,為學生進行文章寫作奠定了良好的基礎。

    (

    ,

    )=

    (18)

    式中:

    表示可學習參數(shù),用于調整

    的維度;

    來自于字符序列

    -1

    。與傳統(tǒng)的注意力的計算方法相比,使用跨度信息來引導計算會有一些相對應的優(yōu)勢:①不需要計算相似度,而使用

    來減少計算量;②

    的計算過程有關于行、列和前幾層的信息,這可以更好地獲得上下文信息;③使用

    允許表格編碼器參與序列表示學習過程。

    式中:X為樣品中元素的含量,mg/100 g;c為測定用樣品中元素的濃度,μg/mL;c0為試劑空白液中元素的濃度,μg/mL;V為樣品定容體積,mL;f為稀釋倍數(shù);m為樣品質量。

    在注意力機制后使用前饋神經網絡(FFNN)對關注權重進行串聯(lián)和歸一化,公式如下

    (19)

    (20)

    式中

    表示層規(guī)范(LayerNorm)運算。

    1.4 預測與損失函數(shù)

    在最后一層跨度意義增強后,對輸出的序列信息進行枚舉拼接,并使用拼接的表格信息

    去預測嵌套的實體標簽,公式如下

    (

    )=softmax(

    +

    )

    (21)

    式中:

    表示預測標簽的隨機變量;

    表示模型參數(shù)的估計概率函數(shù)。使用交叉熵函數(shù)被用作損失函數(shù),給定輸入

    和標簽

    計算損失函數(shù),公式如下

    (22)

    在訓練的過程中,只考慮矩陣中上三角的內容,選擇最可能的標簽作為答案進行輸出,公式如下

    (23)

    2 實驗與結果分析

    為了驗證本文提出的基于跨度語義增強的嵌套命名實體識別模型的效果,所以選擇與其它基于深度學習的命名實體識別模型進行對比。本文在ACE2005中文數(shù)據(jù)集和ACE2005英文數(shù)據(jù)集上進行實驗。使用精確率

    、召回率

    以及

    值作為實驗的主要評估指標,通過在相同數(shù)據(jù)集上進行實驗,驗證本模型的各項性能。

    2.1 實驗設置

    2

    1

    1 數(shù)據(jù)集介紹

    第二,善用教材中隱性數(shù)學文化知識進行拓展訓練.當前教材中出現(xiàn)了許多高考數(shù)學文化命題素材來源題.如“阿波羅尼斯圓”、“回文數(shù)”、“三角形數(shù)”分別出現(xiàn)在人教版高中數(shù)學必修2第131頁習題4及必修3第51頁第3題和必修5第28頁的正文部分.因此,教師上課時要有意識的對這些數(shù)學文化素材或歷史名題進行拓展改編.比如根據(jù)布洛卡點的基本性質,就可以結合余弦定理、外森比克不等式和等比數(shù)列等知識拓展許多變式問題[6].

    ACE2005中文數(shù)據(jù)集和ACE2005英文數(shù)據(jù)集是語言數(shù)據(jù)聯(lián)盟(Linguistic Data Consortium,LDC)于2006年發(fā)布用于各項自然語言處理任務的公共數(shù)據(jù)集。ACE2005英文數(shù)據(jù)集包含7種實體類別,共599篇英語文檔,分別為PER(人物,person)、ORG(組織機構,organization)、GPE(地理/社會/政治實體,geo-political)、LOC(處所,locations)、FAC(設施,facilities)、VEH(交通工具,vehicle)、WEA(武器,weapon)。ACE2005中文數(shù)據(jù)集包括同樣的7種實體類別,共633篇中文文檔。

    =([

    ;

    ])

    +

    兩個數(shù)據(jù)集都按照8∶1∶1劃分位訓練集、驗證集和測試集,其中ACE2005英文數(shù)據(jù)集采用文獻[5]的數(shù)據(jù)集劃分方法。

    式中:

    表示ALBERT語言模型的運算;

    表示GloVe語言模型的運算;

    ××

    表示ALBERT的注意力向量;

    ×

    表示編碼層的輸出向量;

    ×

    表示可學習參數(shù)。通過將兩種向量進行拼接,并經過線性層來代表編碼層輸出向量。

    (24)

    (25)

    (26)

    式中:

    表示正確識別出的命名實體個數(shù);

    表示識別出的命名實體個數(shù);

    表示標準結果中的命名實體個數(shù)。

    2.1.3 實驗環(huán)境與參數(shù)設置

    本文提出的跨度語義增強模型在Python3.7和Pytorch1.8的環(huán)境下進行實驗。設置模型在訓練、驗證與測試時的Batch_size分別為16、8、8。為降低神經網絡在訓練過程中過擬合造成的影響,設置Dropout為0.5。初始化的字嵌入向量使用了GloVe模型進行訓練并將其保存,其維度為100。在模型訓練中不更新單詞的GloVe向量,將隱藏層的大小設置為200,并且將每個MD-RNN的隱藏層大小設置為100。學習率設置為0.001,Adam作為模型的優(yōu)化工具,上下文的信息使用ALBERT進行訓練并保存最后一層的輸出作為文字的上下文信息。ALBERT是一個共享Transformer參數(shù)的輕量型BERT模型

    ,在模型中使用的版本是albert-xxlargev2,其隱藏層的維度為4 096。

    2.2 結果分析

    本文選取了幾個在命名實體識別上取得了較高性能的模型進行對比,表1展示了與這些方法在ACE2005英文數(shù)據(jù)集上的性能區(qū)別,通過使用ALBERT作為預訓練語言模型來提供上下文的信息。本文模型的

    值達到了最優(yōu)的86

    92,

    、

    值也達到了最好的性能,表明了本文方法的優(yōu)越性。

    在魚、蟹、甲魚等養(yǎng)殖中,也可以套種一些青蝦、黃鱔等新品種來養(yǎng)殖。還需要促進整體的混合養(yǎng)殖,將龜、蟹、青蝦等養(yǎng)殖品種和魚類進行混合養(yǎng)殖,可以將其中的一個品種作為主體,并在有限的水體資源中充分應用,將達到經濟效益的提升。

    2.3 PCR敏感性試驗 測定模板DNA濃度為50 ng/μL,通過1∶10倍比稀釋法稀釋模板進行PCR敏感性試驗,當模板稀釋度為10-8時,沒有擴增條帶出現(xiàn),見圖3,即PCR法檢測下限達到10-7,即本PCR方法檢測DNA的靈敏度達到fg水平。

    從整體上看,文獻[8]的模型使用次佳最優(yōu)路徑的方法識別嵌套命名實體在精確率

    和召回率

    結果上明顯低于其他方法。這與其使用的選擇次佳路徑的方式有關,選擇次佳路徑的算法會對結果有著明顯的影響和限制。文獻[26]的回歸模型性能與其他傳統(tǒng)方法比取得了最好的F

    值,其模型在設計的過程中考慮到了跨度信息利用不充分的問題,以及長實體識別較困難的現(xiàn)象,用回歸來生成跨度建議來定位實體位置,然后利用相應的類別標記邊界來對跨度建議再次調整。與其相比,本文的模型在精確率、召回率和F

    值上都高于回歸模型,這說明本文模型識別出的實體絕大多數(shù)是真實有效的。這是由于結合了跨度級上下文信息為模型提供了更加準確的實體表示,使得分類器有能力確定矩陣中的每一個單位是否為有效的實體跨度。

    鼓勵發(fā)展煤矸石燒結空心磚、輕骨料等新型建材,替代粘土制磚。鼓勵煤矸石建材及制品向多功能、多品種、高檔次方向發(fā)展。積極利用煤矸石充填采空區(qū)、采煤沉陷區(qū)和露天礦坑,開展復墾造地。

    表2展示模型在ACE2005中文數(shù)據(jù)集上的性能?!癝hallow BA”模型采用兩個獨立的CRF模型來識別起點與終點邊界,候選實體建立起來后,再對候選實體進行分類。“Cascading-out”模型每種實體被單獨的識別,如果出現(xiàn)嵌套的相同類型的實體,則會識別最外層的實體?!癓ayering-out”模型是由兩個獨立的BERT-BiLSTM-CRF模型去識別外層的實體與內層的實體,“NNBA”模型通過兩個BiLSTM-CRF模型分別識別實體的開始與結束位置,然后通過組合的方式生成候選實體再分類。本文模型的精確率較高,大幅度超過了之前的模型,這可能與堆疊多層的跨度語義增強模塊有關。

    本文模型在兩種語言的數(shù)據(jù)集上進行實驗是為了驗證不同語言上的適用性。整體上,本文的模型都取得了非常高的結果。

    2.3 句子長度(字數(shù))對模型性能影響分析

    長句子會導致模型對實體信息不敏感

    ,提高模型對長句子中實體識別的能力對模型性能有積極的作用,因此探究去掉跨度語義增強模塊對不同長度句子的性能影響。本實驗在ACE2005英文數(shù)據(jù)集上分析不同長度句子對于跨度語義增強模塊的影響,模型參數(shù)保持不變,其結果如圖5所示。

    通過對兩種方法進行對比,完整的模型比去掉跨度語義增強模塊的模型在長句子的區(qū)間(40到59與60到79)上有了明顯的性能提升。在較短句子的區(qū)間上,也有一定的提升。

    2.4 注意力權重可視化

    為了更好地探索注意力機制在模型中的作用,將注意力權重進行了可視化,如圖6所示,使用bertvit工具進行可視化處理。為了更好地突出與self-attention的不同,同時也對模型進行了修改并做了self-attention的可視化。重點比較兩種算法下的單詞與單詞之間的關系,模型的其他參數(shù)與之前保持一致,在此使用一個例子“We’re paying attention to all those details for us, Chris Plante at the pentagon.”來進行說明。這句話中有4個實體,即“we”“Chris Plante at the pentagon”“the pentagon”和“us”。

    在圖6中深色的線代表相對較高的注意權重,右側的層數(shù)代表著堆疊的跨度增強模塊的層數(shù),可以看出,不同層之間注意力關注到的內容是不同的,“Chris”對“we”“us”和“Plante”的注意權重較高,它們的實體類型是相同的,同一類型的實體彼此之間有相對較高的相似度。因此,同一類型的實體之間的注意權重是相互關聯(lián)的,與self-attention算法相比,self-attention的關注重點不夠突出,即圖中的深色線不夠明顯。由此可以證明,本模型的注意力算法優(yōu)于原始的算法,并且可以關注到同種類型實體之間的關系。

    2.5 消融實驗

    為了驗證注意力機制和MD-RNN的有效性,本文設計了消融實驗,結果如表3所示,w/o表示去掉某模塊。注意力機制在模型中用于梳理跨度信息的權重,在去掉注意力機制后表格內的序列信息會不可避免的產生一定的混亂,這對于實體的準確性有較大的影響。在去掉跨度引導的注意力模塊后,模型性能有了明顯下降。

    In conclusion, pain in pancreatic cancer has a complex physiopathology. It eminently implies a neuronal invasion and a neurogenic inflammation.

    MD-RNN在模型中用于進行跨度語義增強,并且融合跨度級語義特征信息,去掉MD-RNN后性能有所下降,這證明了跨度信息增強對于模型性能提升有幫助??缍日Z義信息的增強可以補充因利用邊界信息導致丟失的部分語義信息,并且跨度信息對于嵌套實體識別有著較大的幫助。

    捷達車穩(wěn)穩(wěn)駛停學校古城墻旁,小女新開業(yè)的書店仍然燈火輝煌,我匆匆下車。丁香花搖下車窗玻璃探出頭來忽然問我,“老龔,昆明是春城,它很美吧!” 我正欲回答,那車,卻像一陣風一樣遠了。

    2.6 層數(shù)與性能

    如表4所示,探討了表填充和跨度引導注意力機制層數(shù)與模型性能之間的關系。為了保持與前面實驗的一致性,選擇ACE2005英文數(shù)據(jù)集進行實驗,除了編碼器的層數(shù)之外其他的超參數(shù)均保持不變。一般來說,增加編碼器數(shù)量可以提高模型的性能,但當編碼器的數(shù)量超過一個范圍時,性能將開始下降。在實驗中選擇編碼器層數(shù)為1、2、3、4、5。通過對實驗結果進行分析發(fā)現(xiàn),在層數(shù)大于3之后,模型的性能就已經開始下降,這應該是由過擬合而導致的性能下降。

    3 結 語

    本文提出一種跨度語義增強的命名實體識別方法,解決了命名實體識別中出現(xiàn)的語義不足、召回率不高等問題,并將傳統(tǒng)的一維文本信息拼接成二維的表格信息,使用MD-RNN和注意力模型作為跨度語義增強模塊,進而有效增強了跨度之間的聯(lián)系。實驗結果表明,本文提出的方法相比之前基于跨度模型的嵌套命名實體識別方法有著明顯優(yōu)勢。

    透霧,也稱視頻圖像增透技術。大華透霧技術主要分為電子透霧和光學透霧兩種。大華電子透霧基于ISP上算法實現(xiàn),適用于一般的輕度霧霾環(huán)境使用,主要優(yōu)勢有:

    在下一步的工作中,將探究如何將跨度語義增強方法應用到其他領域,以及探究一種新的跨度語義融合機制去融合跨度間的語義信息。

    :

    [1] 黃銘, 劉捷, 戴齊. 融合字詞特征的中文嵌套命名實體識別 [J]. 現(xiàn)代計算機, 2021, 27(34): 21-28.

    HUANG Ming, LIU Jie, DAI Qi. Chinese Nested named entity recognition integrating improved representation learning method [J]. Modern Computer, 2021, 27(34): 21-28.

    [2] XIONG Chenyan, LIU Zhengzhong, CALLAN J, et al. Towards better text understanding and retrieval through kernel entity salience modeling [C]∥The 41st International ACM SIGIR Conference on Research & Development in Information Retrieval. New York, NY, USA: ACM, 2018: 575-584.

    [3] ZHOU Qingyu, YANG Nan, WEI Furu, et al. Neural question generation from text: a preliminary study [C]∥Natural Language Processing and Chinese Computing. Berlin: Springer, 2018: 662-671.

    [4] GUPTA N, SINGH S, ROTH D. Entity linking via joint encoding of types, descriptions, and context [C]∥Proceedings of the 2017 Conference on Empirical Methods in Natural Language Processing. Seattle, Washington, USA: ACL, 2017: 2681-2690.

    [5] JU Meizhi, MIWA M, ANANIADOU S. A neural layered model for nested named entity recognition [C]∥Proceedings of the 2018 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies. Seattle, Washington, USA: ACL, 2018: 1446-1459.

    [6] FISHER J, VLACHOS A. Merge and label: a novel neural network architecture for nested NER [C]∥Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics. Seattle, Washington, USA: ACL, 2019: 5840-5850.

    [7] WANG Jue, SHOU Lidan, CHEN Ke, et al. Pyramid: a layered model for nested named entity recognition [C]∥Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics. Seattle, Washington, USA: ACL, 2020: 5918-5928.

    [8] SHIBUYA T, HOVY E. Nested named entity recognition via second-best sequence learning and decoding [J]. Transactions of the Association for Computational Linguistics, 2020, 8: 605-620.

    [9] XIA Congying, ZHANG Chenwei, YANG Tao, et al. Multi-grained named entity recognition [C]∥Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics. Seattle, Washington, USA: ACL, 2019: 1430-1440.

    [10] XU Mingbin, JIANG Hui, WATCHARAWITTAYAKUL S. A local detection approach for named entity recognition and mention detection [C]∥Proceedings of the 55th Annual Meeting of the Association for Computational Linguistics. Seattle, Washington, USA: ACL, 2017: 1237-1247.

    [11] SOHRAB M G, MIWA M. Deep exhaustive model for nested named entity recognition [C]∥Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing. Seattle, Washington, USA: ACL, 2018: 2843-2849.

    [12] LUAN Yi, WADDEN D, HE Luheng, et al. A general framework for information extraction using dynamic span graphs [C]∥Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Volume 1 Human Language Technologies. Seattle, Washington, USA: ACL, 2019: 3036-3046.

    [13] LU Wei, ROTH D. Joint mention extraction and classification with mention hypergraphs [C]∥Proceedings of the 2015 Conference on Empirical Methods in Natural Language Processing. Seattle, Washington, USA: ACL, 2015: 857-867.

    [14] MUIS A O, LU Wei. Labeling gaps between words: recognizing overlapping mentions with mention separators [C]∥Proceedings of the 2017 Conference on Empirical Methods in Natural Language Processing. Seattle, Washington, USA: ACL, 2017: 2608-2618.

    [15] 張西寧, 郭清林, 劉書語. 深度學習技術及其故障診斷應用分析與展望 [J]. 西安交通大學學報, 2020, 54(12): 1-13.

    ZHANG Xining, GUO Qinglin, LIU Shuyu. Analysis and prospect of deep learning technology and its fault diagnosis application [J]. Journal of Xi’an Jiaotong University, 2020, 54(12): 1-13.

    [16] DU Yong, WANG Wei, WANG Liang. Hierarchical recurrent neural network for skeleton based action recognition [C]∥2015 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). Piscataway, NJ, USA: IEEE, 2015: 1110-1118.

    [17] TANG Duyu, QIN Bing, LIU Ting. Document modeling with gated recurrent neural network for sentiment classification [C]∥Proceedings of the 2015 Conference on Empirical Methods in Natural Language Processing. Seattle, Washington, USA: ACL, 2015: 1422-1432.

    [18] WANG Yiren, TIAN Fei. Recurrent residual learning for sequence classification [C]∥Proceedings of the 2016 Conference on Empirical Methods in Natural Language Processing. Seattle, Washington, USA: ACL, 2016: 938-943.

    [20] GRAVES A, MOHAMED A R, HINTON G. Speech recognition with deep recurrent neural networks [C]∥2013 IEEE International Conference on Acoustics, Speech and Signal Processing. Piscataway, NJ, USA: IEEE, 2013: 6645-6649.

    [21] GRAVES A, SCHMIDHUBER J. Offline handwriting recognition with multidimensional recurrent neural networks [C]∥Proceedings of the 21st International Conference on Neural Information Processing Systems. New York, NY, USA: ACM, 2008: 545-552.

    [22] VASWANI A, SHAZEER N, PARMAR N, et al. Attention is all you need [C]∥Proceedings of the 31st International Conference on Neural Information Processing Systems. New York, NY, USA: ACM, 2017: 6000-6010.

    [23] 方軍, 管業(yè)鵬. 基于雙編碼器的會話型推薦模型 [J]. 西安交通大學學報, 2021, 55(8): 166-174.

    FANG Jun, GUAN Yepeng. A session recommendation model based on dual encoders [J]. Journal of Xi’an Jiaotong University, 2021, 55(8): 166-174.

    [24] 李軍懷, 陳苗苗, 王懷軍, 等. 基于ALBERT-BGRU-CRF的中文命名實體識別方法 [J/OL]. 計算機工程 [2021-10-01]. https:∥doi.org/10.19678/j.issn.100 0-3428.00616 30.

    LI Junhuai, CHEN Miaomiao, WANG Huaijun, et al. Chinese named entity recognition method based on ALBERT-BGRU-CRF [J/OL]. Computer Engineering [2021-10-01]. https:∥doi.org/10.19678/j.issn.100 0-3428.00616 30.

    [25] YU Juntao, BOHNET B, POESIO M. Named entity recognition as dependency parsing [C]∥Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics. Seattle, Washington, USA: ACL, 2020: 6470-6476.

    [26] SHEN Yongliang, MA Xinyin, TAN Zeqi, et al. Locate and label: a two-stage identifier for nested named entity recognition [C]∥Proceedings of the 59th Annual Meeting of the Association for Computational Linguistics and the 11th International Joint Conference on Natural Language Processing: Volume 1. Seattle, Washington, USA: ACL, 2021: 2782-2794.

    [27] CHEN Yanping, ZHENG Qinghua, CHEN Ping. A boundary assembling method for Chinese entity-mention recognition [J]. IEEE Intelligent Systems, 2015, 30(6): 50-58.

    [28] CHEN Yanping, WU Yuefei, QIN Yongbin, et al. Recognizing nested named entity based on the neural network boundary assembling model [J]. IEEE Intelligent Systems, 2020, 35(1): 74-81.

    猜你喜歡
    跨度表格注意力
    緩粘結預應力技術在大跨度梁中的應用
    讓注意力“飛”回來
    《現(xiàn)代臨床醫(yī)學》來稿表格要求
    大跨度連續(xù)剛構橋線形控制分析
    統(tǒng)計表格的要求
    統(tǒng)計表格的要求
    統(tǒng)計表格的要求
    組合鋁合金立柱在超大跨度玻璃幕墻中的應用
    上海建材(2018年4期)2018-11-13 01:08:54
    “揚眼”APP:讓注意力“變現(xiàn)”
    傳媒評論(2017年3期)2017-06-13 09:18:10
    A Beautiful Way Of Looking At Things
    日本五十路高清| 99国产综合亚洲精品| 天堂√8在线中文| 在线看a的网站| 亚洲一卡2卡3卡4卡5卡精品中文| 在线av久久热| 国产激情久久老熟女| 精品国产乱子伦一区二区三区| 欧美性长视频在线观看| 一区二区三区激情视频| 久久久国产欧美日韩av| 国产精品久久久人人做人人爽| 国产午夜精品久久久久久| 一级,二级,三级黄色视频| 国产区一区二久久| 黄色怎么调成土黄色| 曰老女人黄片| 伊人久久大香线蕉亚洲五| a级片在线免费高清观看视频| 久久人妻福利社区极品人妻图片| 欧美成狂野欧美在线观看| 精品久久久久久成人av| 国产亚洲精品综合一区在线观看 | 香蕉久久夜色| 亚洲人成网站在线播放欧美日韩| 亚洲自拍偷在线| 欧美激情极品国产一区二区三区| 1024视频免费在线观看| 亚洲一区高清亚洲精品| 看免费av毛片| 少妇裸体淫交视频免费看高清 | 青草久久国产| 精品午夜福利视频在线观看一区| 看免费av毛片| 午夜两性在线视频| 国产一区在线观看成人免费| 91成年电影在线观看| 久久九九热精品免费| 校园春色视频在线观看| 黑人操中国人逼视频| 久久香蕉精品热| 涩涩av久久男人的天堂| 免费在线观看影片大全网站| 婷婷精品国产亚洲av在线| 久久中文看片网| 91av网站免费观看| 日本一区二区免费在线视频| 国产aⅴ精品一区二区三区波| 免费日韩欧美在线观看| 国产精品综合久久久久久久免费 | 国产亚洲精品第一综合不卡| 美女高潮喷水抽搐中文字幕| 亚洲一码二码三码区别大吗| 18美女黄网站色大片免费观看| 久久草成人影院| 一级毛片高清免费大全| 亚洲精品中文字幕在线视频| 丰满的人妻完整版| 亚洲一码二码三码区别大吗| 久久久久久亚洲精品国产蜜桃av| 99精品在免费线老司机午夜| 一级黄色大片毛片| 亚洲国产毛片av蜜桃av| 国产一区二区在线av高清观看| 精品福利永久在线观看| 桃色一区二区三区在线观看| 麻豆一二三区av精品| 日本黄色视频三级网站网址| 久久狼人影院| 91av网站免费观看| 操美女的视频在线观看| 真人做人爱边吃奶动态| 欧美日韩黄片免| 日本欧美视频一区| 亚洲九九香蕉| 国产成人av教育| xxxhd国产人妻xxx| 亚洲中文字幕日韩| 国产蜜桃级精品一区二区三区| 黄色视频,在线免费观看| 视频区图区小说| 免费在线观看日本一区| 午夜两性在线视频| 免费av毛片视频| 大型av网站在线播放| 国产亚洲欧美98| 国产成人精品久久二区二区免费| 老司机靠b影院| 国产精品免费一区二区三区在线| 母亲3免费完整高清在线观看| 欧美成人免费av一区二区三区| 亚洲av片天天在线观看| 午夜精品国产一区二区电影| 一二三四社区在线视频社区8| 午夜免费激情av| 色尼玛亚洲综合影院| a级毛片黄视频| 国产又爽黄色视频| 国产有黄有色有爽视频| 亚洲人成伊人成综合网2020| 真人做人爱边吃奶动态| 国产高清视频在线播放一区| 亚洲男人天堂网一区| av超薄肉色丝袜交足视频| 性欧美人与动物交配| 国产人伦9x9x在线观看| av免费在线观看网站| 亚洲精品久久成人aⅴ小说| 亚洲av第一区精品v没综合| 色婷婷av一区二区三区视频| 久久精品国产综合久久久| 久久久久亚洲av毛片大全| 女生性感内裤真人,穿戴方法视频| 欧美日韩视频精品一区| 国产精品一区二区在线不卡| 侵犯人妻中文字幕一二三四区| 欧美在线黄色| а√天堂www在线а√下载| 亚洲人成电影观看| 久久影院123| 女同久久另类99精品国产91| 精品人妻在线不人妻| 精品国产乱码久久久久久男人| 日韩一卡2卡3卡4卡2021年| 看黄色毛片网站| 欧美+亚洲+日韩+国产| 午夜福利免费观看在线| 久99久视频精品免费| av国产精品久久久久影院| 黄色 视频免费看| 88av欧美| 中国美女看黄片| 伦理电影免费视频| 亚洲人成网站在线播放欧美日韩| 91麻豆精品激情在线观看国产 | 曰老女人黄片| 日本 av在线| 一个人观看的视频www高清免费观看 | 亚洲国产精品合色在线| 色在线成人网| 国产成人精品无人区| 亚洲avbb在线观看| 欧美国产精品va在线观看不卡| 国产精品久久久av美女十八| 亚洲av第一区精品v没综合| 一级片'在线观看视频| 国产亚洲精品综合一区在线观看 | 免费在线观看日本一区| 色哟哟哟哟哟哟| 国产欧美日韩精品亚洲av| 久久香蕉激情| 国产精品野战在线观看 | 久久九九热精品免费| 精品国产乱子伦一区二区三区| 一进一出抽搐gif免费好疼 | 国产成+人综合+亚洲专区| 亚洲美女黄片视频| 大型av网站在线播放| 免费av中文字幕在线| 欧美日韩国产mv在线观看视频| 超碰成人久久| 婷婷精品国产亚洲av在线| 国产真人三级小视频在线观看| 他把我摸到了高潮在线观看| 五月开心婷婷网| 少妇裸体淫交视频免费看高清 | www.自偷自拍.com| 免费看a级黄色片| 免费少妇av软件| 亚洲男人天堂网一区| 90打野战视频偷拍视频| 欧美激情高清一区二区三区| 久久人妻熟女aⅴ| www.www免费av| 国产极品粉嫩免费观看在线| 久久精品国产99精品国产亚洲性色 | 欧美日韩av久久| 999久久久精品免费观看国产| 男人舔女人的私密视频| 亚洲国产毛片av蜜桃av| 宅男免费午夜| 国产精品九九99| 欧美日韩福利视频一区二区| 日日摸夜夜添夜夜添小说| 老熟妇仑乱视频hdxx| 亚洲中文av在线| 热99re8久久精品国产| 91在线观看av| 搡老岳熟女国产| 国产成人精品无人区| 午夜久久久在线观看| 久久国产精品影院| 精品乱码久久久久久99久播| 国产av又大| 精品久久久久久电影网| 色播在线永久视频| 美女大奶头视频| 亚洲七黄色美女视频| 成人亚洲精品av一区二区 | 国产黄色免费在线视频| 天堂影院成人在线观看| 成人特级黄色片久久久久久久| 十八禁网站免费在线| 别揉我奶头~嗯~啊~动态视频| 精品卡一卡二卡四卡免费| 久久人人精品亚洲av| 亚洲av第一区精品v没综合| 欧美日韩亚洲国产一区二区在线观看| 一二三四在线观看免费中文在| 午夜免费观看网址| 午夜精品久久久久久毛片777| 国产1区2区3区精品| 午夜影院日韩av| 亚洲七黄色美女视频| 久久久久精品国产欧美久久久| 午夜两性在线视频| 19禁男女啪啪无遮挡网站| 极品人妻少妇av视频| 老司机深夜福利视频在线观看| 午夜a级毛片| 中国美女看黄片| 看免费av毛片| 人人妻,人人澡人人爽秒播| 精品国产乱码久久久久久男人| 成人三级做爰电影| 一二三四在线观看免费中文在| 欧美黑人欧美精品刺激| 日韩有码中文字幕| 在线观看舔阴道视频| 亚洲第一av免费看| 这个男人来自地球电影免费观看| 夜夜躁狠狠躁天天躁| 99国产极品粉嫩在线观看| 日日干狠狠操夜夜爽| 亚洲精品国产色婷婷电影| 精品国产亚洲在线| 美女高潮到喷水免费观看| 亚洲国产精品一区二区三区在线| 中文字幕人妻熟女乱码| 精品久久久久久成人av| 在线观看免费高清a一片| 又紧又爽又黄一区二区| 999久久久国产精品视频| 一区二区日韩欧美中文字幕| 在线天堂中文资源库| 亚洲aⅴ乱码一区二区在线播放 | 交换朋友夫妻互换小说| av福利片在线| 黄色丝袜av网址大全| 国产成+人综合+亚洲专区| ponron亚洲| 亚洲男人天堂网一区| 人成视频在线观看免费观看| av片东京热男人的天堂| 一级毛片女人18水好多| 亚洲精品一卡2卡三卡4卡5卡| 欧美黑人精品巨大| 后天国语完整版免费观看| 咕卡用的链子| 国产主播在线观看一区二区| 欧美成狂野欧美在线观看| 国产熟女xx| 他把我摸到了高潮在线观看| 三级毛片av免费| 欧美日韩av久久| 两个人免费观看高清视频| 中文欧美无线码| 国产成+人综合+亚洲专区| 国产高清激情床上av| 日韩有码中文字幕| 欧美精品啪啪一区二区三区| 国产精品国产av在线观看| 99精品久久久久人妻精品| 欧美日韩瑟瑟在线播放| 久久精品国产亚洲av香蕉五月| 波多野结衣一区麻豆| 一本大道久久a久久精品| 他把我摸到了高潮在线观看| 99久久国产精品久久久| 欧美日韩精品网址| 日本黄色日本黄色录像| 99在线视频只有这里精品首页| 亚洲精品国产一区二区精华液| 九色亚洲精品在线播放| 女生性感内裤真人,穿戴方法视频| 少妇的丰满在线观看| 亚洲熟女毛片儿| 国产精品爽爽va在线观看网站 | 欧美激情 高清一区二区三区| 日韩一卡2卡3卡4卡2021年| 国产乱人伦免费视频| 久久久国产精品麻豆| 男女高潮啪啪啪动态图| 91字幕亚洲| 午夜福利在线观看吧| 色播在线永久视频| 91麻豆精品激情在线观看国产 | 国产在线观看jvid| 成年人黄色毛片网站| 无限看片的www在线观看| 黄片小视频在线播放| 操美女的视频在线观看| 麻豆成人av在线观看| 午夜福利在线免费观看网站| 高清在线国产一区| 国产男靠女视频免费网站| 一区二区三区精品91| 亚洲一区二区三区不卡视频| 国产成年人精品一区二区 | 久久狼人影院| 日本一区二区免费在线视频| 老司机在亚洲福利影院| 色综合站精品国产| 男女高潮啪啪啪动态图| 国产av在哪里看| 亚洲五月婷婷丁香| 亚洲va日本ⅴa欧美va伊人久久| 天堂√8在线中文| 熟女少妇亚洲综合色aaa.| 嫩草影视91久久| 午夜福利在线观看吧| 欧美乱码精品一区二区三区| 一进一出好大好爽视频| av片东京热男人的天堂| 身体一侧抽搐| 精品福利永久在线观看| 亚洲国产欧美网| 黄片小视频在线播放| 色综合欧美亚洲国产小说| 久久久久久人人人人人| 1024视频免费在线观看| 好看av亚洲va欧美ⅴa在| 免费在线观看完整版高清| 久久久久国产一级毛片高清牌| 久热爱精品视频在线9| 国产一区二区三区在线臀色熟女 | 美女高潮喷水抽搐中文字幕| 欧美一级毛片孕妇| 午夜精品国产一区二区电影| 久久精品成人免费网站| 韩国av一区二区三区四区| 欧美黑人欧美精品刺激| 久久久国产一区二区| 伊人久久大香线蕉亚洲五| 日韩大码丰满熟妇| 又黄又爽又免费观看的视频| 老汉色av国产亚洲站长工具| 法律面前人人平等表现在哪些方面| 波多野结衣高清无吗| 国产精品 国内视频| 黑人操中国人逼视频| 久久天堂一区二区三区四区| 又大又爽又粗| 91老司机精品| 欧美日韩瑟瑟在线播放| 午夜a级毛片| 亚洲国产欧美一区二区综合| 国内久久婷婷六月综合欲色啪| 一级a爱视频在线免费观看| 国产av一区二区精品久久| 这个男人来自地球电影免费观看| 久久热在线av| 国产亚洲精品久久久久久毛片| 欧美午夜高清在线| 制服诱惑二区| 日日爽夜夜爽网站| 午夜免费成人在线视频| 欧美日韩亚洲综合一区二区三区_| 夜夜夜夜夜久久久久| 国产成人精品久久二区二区免费| 国产精品香港三级国产av潘金莲| 三级毛片av免费| 身体一侧抽搐| 99riav亚洲国产免费| 又黄又爽又免费观看的视频| 免费高清在线观看日韩| 日本三级黄在线观看| 亚洲成人免费av在线播放| 欧美色视频一区免费| 国产精品亚洲一级av第二区| 亚洲国产精品一区二区三区在线| 色播在线永久视频| 长腿黑丝高跟| 精品第一国产精品| 日韩精品免费视频一区二区三区| av片东京热男人的天堂| 日本免费一区二区三区高清不卡 | aaaaa片日本免费| 不卡一级毛片| 国产成人影院久久av| 美女国产高潮福利片在线看| 亚洲狠狠婷婷综合久久图片| 脱女人内裤的视频| a级片在线免费高清观看视频| 成人三级做爰电影| 无遮挡黄片免费观看| 国产精品秋霞免费鲁丝片| 精品国产超薄肉色丝袜足j| 电影成人av| 国产精品乱码一区二三区的特点 | 久久精品亚洲av国产电影网| 日韩免费高清中文字幕av| 亚洲av美国av| www.精华液| 美女大奶头视频| 中文字幕人妻熟女乱码| 欧美成人午夜精品| 中文字幕人妻丝袜制服| 免费观看精品视频网站| ponron亚洲| 欧美日韩视频精品一区| 麻豆成人av在线观看| 啪啪无遮挡十八禁网站| 国产成+人综合+亚洲专区| 淫秽高清视频在线观看| 99精品在免费线老司机午夜| 99精品欧美一区二区三区四区| 久久草成人影院| 欧美一区二区精品小视频在线| 在线观看免费日韩欧美大片| 97人妻天天添夜夜摸| 天堂中文最新版在线下载| 亚洲欧美一区二区三区久久| 欧美黑人欧美精品刺激| 久久人妻av系列| 宅男免费午夜| 在线播放国产精品三级| 男女下面进入的视频免费午夜 | 亚洲精品一区av在线观看| 国产成人av教育| 老司机靠b影院| 成年人黄色毛片网站| 夜夜看夜夜爽夜夜摸 | 真人做人爱边吃奶动态| 天堂√8在线中文| 国产高清国产精品国产三级| 亚洲国产精品999在线| 男人的好看免费观看在线视频 | 免费高清视频大片| 91大片在线观看| 久久精品aⅴ一区二区三区四区| 91麻豆av在线| 久久久国产欧美日韩av| 很黄的视频免费| 国产深夜福利视频在线观看| 视频区图区小说| 91字幕亚洲| bbb黄色大片| 亚洲精品成人av观看孕妇| 最近最新免费中文字幕在线| 欧美精品亚洲一区二区| 亚洲国产欧美一区二区综合| 97人妻天天添夜夜摸| 日韩av在线大香蕉| 99国产精品一区二区三区| 18禁美女被吸乳视频| 91九色精品人成在线观看| 亚洲av电影在线进入| 亚洲av成人一区二区三| 国产精品爽爽va在线观看网站 | 国产亚洲欧美98| 久久精品影院6| av国产精品久久久久影院| 亚洲精品美女久久av网站| 脱女人内裤的视频| 亚洲av成人av| 国产99久久九九免费精品| 19禁男女啪啪无遮挡网站| 免费一级毛片在线播放高清视频 | 天天添夜夜摸| 久久精品国产综合久久久| 99国产综合亚洲精品| 无限看片的www在线观看| 99精国产麻豆久久婷婷| 久久精品国产综合久久久| 99国产综合亚洲精品| 久久精品亚洲精品国产色婷小说| 99精国产麻豆久久婷婷| 一本综合久久免费| 长腿黑丝高跟| 最新美女视频免费是黄的| 欧美激情 高清一区二区三区| 国产aⅴ精品一区二区三区波| 少妇被粗大的猛进出69影院| 精品日产1卡2卡| 成人国产一区最新在线观看| 久久久精品国产亚洲av高清涩受| 精品人妻1区二区| 色婷婷av一区二区三区视频| 村上凉子中文字幕在线| 夜夜夜夜夜久久久久| 亚洲自拍偷在线| 欧美一级毛片孕妇| 一区福利在线观看| www.熟女人妻精品国产| 国产在线观看jvid| 成熟少妇高潮喷水视频| 黄色女人牲交| 精品第一国产精品| 亚洲精品美女久久av网站| 久久国产亚洲av麻豆专区| 90打野战视频偷拍视频| 在线观看舔阴道视频| 黄频高清免费视频| 免费日韩欧美在线观看| 色精品久久人妻99蜜桃| 黄网站色视频无遮挡免费观看| 欧美日韩视频精品一区| 日韩免费av在线播放| 亚洲人成伊人成综合网2020| 国产三级在线视频| 91麻豆av在线| 国产欧美日韩一区二区三| 亚洲欧美日韩高清在线视频| 国产一区二区激情短视频| 欧美乱码精品一区二区三区| 最近最新中文字幕大全免费视频| av免费在线观看网站| 国产精品偷伦视频观看了| 国产欧美日韩一区二区三区在线| 操美女的视频在线观看| 国产又爽黄色视频| 级片在线观看| 亚洲国产毛片av蜜桃av| 夫妻午夜视频| 欧美激情 高清一区二区三区| 啦啦啦在线免费观看视频4| 免费高清在线观看日韩| 免费日韩欧美在线观看| 亚洲精华国产精华精| 亚洲精品国产区一区二| 精品国产一区二区久久| 波多野结衣av一区二区av| 高清av免费在线| 99热只有精品国产| 看片在线看免费视频| 国产精品av久久久久免费| 欧美精品啪啪一区二区三区| 免费看十八禁软件| 女人被躁到高潮嗷嗷叫费观| 国产精品秋霞免费鲁丝片| 搡老岳熟女国产| 国产单亲对白刺激| 精品人妻在线不人妻| 50天的宝宝边吃奶边哭怎么回事| 五月开心婷婷网| 亚洲精品av麻豆狂野| 日韩视频一区二区在线观看| 不卡av一区二区三区| 18美女黄网站色大片免费观看| 国产99白浆流出| 三级毛片av免费| 欧美在线黄色| 最近最新中文字幕大全电影3 | 欧美日韩亚洲国产一区二区在线观看| 欧美av亚洲av综合av国产av| 高清av免费在线| 免费在线观看完整版高清| 热re99久久国产66热| 在线看a的网站| 欧美成人午夜精品| 国产精品久久视频播放| 超碰97精品在线观看| 在线观看免费午夜福利视频| 波多野结衣高清无吗| 国产麻豆69| 精品一品国产午夜福利视频| 欧美久久黑人一区二区| 色综合站精品国产| 两性午夜刺激爽爽歪歪视频在线观看 | 久久久久久久精品吃奶| 变态另类成人亚洲欧美熟女 | 精品日产1卡2卡| 午夜福利,免费看| 91在线观看av| 亚洲 欧美 日韩 在线 免费| 真人一进一出gif抽搐免费| 99国产极品粉嫩在线观看| 成人三级做爰电影| 亚洲成av片中文字幕在线观看| 亚洲国产欧美网| 夜夜爽天天搞| 12—13女人毛片做爰片一| 国产区一区二久久| 免费av毛片视频| 中文字幕高清在线视频| 满18在线观看网站| 亚洲精品在线美女| aaaaa片日本免费| 日韩欧美一区二区三区在线观看| 日日摸夜夜添夜夜添小说| 亚洲国产精品一区二区三区在线| 热re99久久精品国产66热6| 精品一区二区三区四区五区乱码| 一区福利在线观看| 日日爽夜夜爽网站| 男女下面插进去视频免费观看| 精品国产超薄肉色丝袜足j| 女人精品久久久久毛片| 丰满的人妻完整版| 99国产精品99久久久久| av网站免费在线观看视频| 老司机靠b影院| 可以免费在线观看a视频的电影网站| 精品人妻在线不人妻| 大码成人一级视频| 婷婷六月久久综合丁香| 精品国产乱子伦一区二区三区| 黄色视频,在线免费观看| 麻豆成人av在线观看| 精品一区二区三区四区五区乱码| 日韩欧美一区视频在线观看| 国产激情欧美一区二区| 欧美成人性av电影在线观看| 999精品在线视频|