• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      基于卷積神經(jīng)網(wǎng)絡(luò)和殘差結(jié)構(gòu)單元的合同數(shù)據(jù)識(shí)別提取

      2024-11-07 00:00:00張純劉從軍
      軟件工程 2024年11期

      摘要:為提升合同中數(shù)據(jù)項(xiàng)識(shí)別和提取的準(zhǔn)確率,提出一種基于卷積神經(jīng)網(wǎng)絡(luò)(ConvolutionalNeuralNetwork,CNN)和殘差結(jié)構(gòu)單元(ResidualBuildingUnit,RBU)結(jié)合優(yōu)化的CNN\|RECR(RealEstateTransactionContractInformationDetectionandRecognitionMethodBasedonImprovedConvolutionalNeuralNetwork)模型,并將其應(yīng)用到不動(dòng)產(chǎn)交易平臺(tái)中合同數(shù)據(jù)項(xiàng)的識(shí)別提取場(chǎng)景。首先,針對(duì)提取特征表示能力弱等問(wèn)題,設(shè)計(jì)了合同數(shù)據(jù)文本檢測(cè)網(wǎng)絡(luò)(ContractDataTextDetectionNetwork,CDTD\|Net)對(duì)合同手寫(xiě)文字的不同尺度特征進(jìn)行提?。黄浯?,與殘差結(jié)構(gòu)單元相結(jié)合,設(shè)計(jì)識(shí)別文字與識(shí)別數(shù)字模型;最后,對(duì)實(shí)例進(jìn)行實(shí)驗(yàn),實(shí)驗(yàn)結(jié)果顯示CNN\|RECR模型的識(shí)別準(zhǔn)確率達(dá)到97.62%,證明本方法能有效提高模型的識(shí)別性能,為實(shí)現(xiàn)低成本運(yùn)行奠定了基礎(chǔ)。

      關(guān)鍵詞:卷積神經(jīng)網(wǎng)絡(luò);殘差結(jié)構(gòu)單元;合同數(shù)據(jù);識(shí)別提取

      中圖分類(lèi)號(hào):TP391.1文獻(xiàn)標(biāo)志碼:A

      0 引言(Introduction)

      在不動(dòng)產(chǎn)登記交易領(lǐng)域,為了加快數(shù)據(jù)的處理速度,實(shí)現(xiàn)合同的數(shù)字化管理成為關(guān)鍵。數(shù)字化合同不僅便于備份,還能快速檢索合同中的詳細(xì)信息,確保合同中的數(shù)據(jù)與相關(guān)數(shù)據(jù)庫(kù)中的信息一致,保障交易的合法性和準(zhǔn)確性[1]。因此高效地進(jìn)行合同管理、信息的識(shí)別和提取,是實(shí)現(xiàn)這一目標(biāo)的重要前提條件。

      Hewlett\|Packard公司開(kāi)發(fā)的開(kāi)源OCR(OpticalCharacterRecognition)引擎Tesseract[2]最早是于1985年由HP(Hewlett\|Packard)實(shí)驗(yàn)室的開(kāi)發(fā)團(tuán)隊(duì)發(fā)布的,通常借助光學(xué)字符識(shí)別技術(shù)(OpticalCharacterRecognition,OCR)將圖片中的信息轉(zhuǎn)化為計(jì)算機(jī)可以處理的數(shù)據(jù)[3]。ZHOU[4]提出采用改進(jìn)的連接文本區(qū)域網(wǎng)絡(luò)(CTPN)文本檢測(cè)算法和卷積循環(huán)神經(jīng)網(wǎng)絡(luò)(CRNN)模型對(duì)自然場(chǎng)景文字進(jìn)行檢測(cè)與識(shí)別。2016年,DAI等[5]提出了殘差網(wǎng)絡(luò)(ResNet),通過(guò)引入殘差學(xué)習(xí)解決了深度神經(jīng)網(wǎng)絡(luò)訓(xùn)練中的梯度消失問(wèn)題。YOLO(YouOnlyLookOnce)[6]是由JosephRedmon和AliFarhadi于2016年提出的目標(biāo)檢測(cè)算法,它在實(shí)時(shí)目標(biāo)檢測(cè)方面表現(xiàn)出色。

      在數(shù)據(jù)識(shí)別提取的過(guò)程中,構(gòu)建特征庫(kù)耗時(shí)且耗力,提取的圖片特征容易被噪聲干擾。本文提出一種基于卷積神經(jīng)網(wǎng)絡(luò)(CNN)和殘差結(jié)構(gòu)單元(RBU)結(jié)合優(yōu)化的CNN\|RECR(RealEstateTransactionContractInformationDetectionandRecognitionMethodBasedonImprovedConvolutionalNeuralNetwork)模型。該模型以卷積神經(jīng)網(wǎng)絡(luò)(CNN)為基礎(chǔ),并結(jié)合了殘差結(jié)構(gòu)單元(RBU)進(jìn)行優(yōu)化。通過(guò)在數(shù)據(jù)集上進(jìn)行實(shí)驗(yàn)驗(yàn)證,結(jié)果表明CNN\|RECR模型提升了合同處理任務(wù)的實(shí)用性和可靠性。

      1相關(guān)理論(Correlationtheories)

      1.1卷積神經(jīng)網(wǎng)絡(luò)

      卷積神經(jīng)網(wǎng)絡(luò)(ConvolutionalNeuralNetwork,CNN)是一種深度學(xué)習(xí)模型。計(jì)算機(jī)科學(xué)家YANN在1998年提出了卷積神經(jīng)網(wǎng)絡(luò)(CNN)的概念[7],并在手寫(xiě)字符識(shí)別等領(lǐng)域展示了其卓越的性能。傳統(tǒng)的卷積神經(jīng)網(wǎng)絡(luò)在圖像處理過(guò)程中需要處理的數(shù)據(jù)量大,圖像數(shù)字化處理無(wú)法保留原有的圖像特征,導(dǎo)致圖像識(shí)別效率低下。相比之下,CNN則通過(guò)減少權(quán)重?cái)?shù)量,相比于傳統(tǒng)的卷積神經(jīng)網(wǎng)絡(luò),能有效地提升圖像的識(shí)別能力。卷積神經(jīng)網(wǎng)絡(luò)的拓?fù)浣Y(jié)構(gòu)如圖1所示。

      對(duì)于房產(chǎn)交易合同中的手寫(xiě)數(shù)據(jù)項(xiàng)的識(shí)別和提取過(guò)程,其目標(biāo)函數(shù)是連接主干網(wǎng)絡(luò)(BackboneNetwork)及文本識(shí)別頭部(TextRecognitionHead)的綜合損失函數(shù),是由3個(gè)損失函數(shù)加權(quán)在一起的,分別為連接時(shí)序分類(lèi)損失(ConnectionistTemporalClassification)、定位損失(LocalizationLoss)、分類(lèi)損失(ClassificationLoss)。

      連接時(shí)序分類(lèi)損失的數(shù)學(xué)表達(dá)式為

      其中:S表示訓(xùn)練集;LCTC(S)表示給定序列和輸入后,最終輸出正確序列的概率。

      定位損失的數(shù)學(xué)表達(dá)式為

      其中:LNLL(Y,Y′)是一整個(gè)數(shù)據(jù)集中的交叉熵?fù)p失,n是樣本數(shù)量,C是類(lèi)別數(shù)量,yij是第i個(gè)樣本的實(shí)際類(lèi)別分布,y′[KG-1mm]ij是第i個(gè)樣本的模型預(yù)測(cè)的類(lèi)別概率分布。

      對(duì)于文字識(shí)別,分類(lèi)損失選取使用交叉熵?fù)p失(Cross\|EntropyLoss)作為損失函數(shù),交叉熵?fù)p失結(jié)合Softmax函數(shù)的輸出與實(shí)際標(biāo)簽之間的差異,用于衡量模型的性能。交叉熵?fù)p失的數(shù)學(xué)表達(dá)式為

      其中:xi表示真實(shí)標(biāo)簽的第i個(gè)元素,yi表示模型預(yù)測(cè)x屬于第i個(gè)類(lèi)別的概率。

      1.2殘差結(jié)構(gòu)單元

      殘差結(jié)構(gòu)單元(RBU)是深度學(xué)習(xí)中用于構(gòu)建殘差神經(jīng)網(wǎng)絡(luò)(ResidualNeuralNetwork,ResNet)的基本組成部分。LIU等[8]的研究表明,RBU模塊能有效地提升圖像處理任務(wù)性能。殘差結(jié)構(gòu)單元模塊通過(guò)引入捷徑連接的深度神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),有效地解決了深層網(wǎng)絡(luò)訓(xùn)練中的梯度消失問(wèn)題,它是在提出的CNN模型的基礎(chǔ)上進(jìn)行了優(yōu)化,旨在得到更高質(zhì)量的識(shí)別結(jié)果。本文通過(guò)在CNN中引入殘差模塊解決了深度神經(jīng)網(wǎng)絡(luò)訓(xùn)練困難的問(wèn)題。

      本文在文字識(shí)別模型中采用了殘差結(jié)構(gòu)單元,以緩解梯度消失問(wèn)題,同時(shí)提升特征提取能力并加速模型訓(xùn)練。

      RBU結(jié)構(gòu)如公式(4)所示:

      特征映射如公式(5)所示,是指未添加捷徑連接的公式。

      特征映射如公式(6)所示,是指添加了捷徑連接后,降低了模型優(yōu)化難度。在這里,擬合函數(shù)屬于一種數(shù)學(xué)模型,通常用于表示觀(guān)測(cè)數(shù)據(jù)之間的關(guān)系,用來(lái)學(xué)習(xí)恒等映射轉(zhuǎn)變成特征映射以及輸入的數(shù)據(jù)之間的差值。

      公式(7)表示的是一個(gè)殘差塊,通過(guò)引入殘差連接,也就是將輸入添加到映射F(x),能更好地進(jìn)行深層次網(wǎng)絡(luò)訓(xùn)練。

      基于優(yōu)化卷積的神經(jīng)網(wǎng)絡(luò)模型是在傳統(tǒng)卷積神經(jīng)網(wǎng)絡(luò)的基礎(chǔ)上構(gòu)建的,它首先對(duì)數(shù)據(jù)集進(jìn)行圖像預(yù)處理,其次在殘差結(jié)構(gòu)單元的基礎(chǔ)上進(jìn)行文本行處理及文字識(shí)別,判斷數(shù)據(jù)屬于哪一種類(lèi)型,并構(gòu)建相應(yīng)的數(shù)據(jù)模型,最后得到結(jié)果輸出。

      基于優(yōu)化卷積的神經(jīng)網(wǎng)絡(luò)模型的流程如圖3所示。

      2.1圖像預(yù)處理

      圖像預(yù)處理是在將圖像輸入計(jì)算機(jī)視覺(jué)或圖像處理任務(wù)之前,對(duì)圖像進(jìn)行的一系列操作和變換,旨在準(zhǔn)備和優(yōu)化數(shù)據(jù)。圖像預(yù)處理有利于提高模型的性能,減少噪聲和一些不必要的信息,并且可以讓模型容易學(xué)習(xí)到有用的特征。圖像預(yù)處理的模塊包括圖像的銳化、圖像二值化、圖像形態(tài)學(xué)運(yùn)算及模板匹配等。

      對(duì)于房產(chǎn)交易合同的圖像預(yù)處理,通常是在準(zhǔn)備圖像的同時(shí)進(jìn)行一些其他任務(wù),比如數(shù)據(jù)分析、文本提取等。該模塊對(duì)房產(chǎn)交易合同的掃描圖像輸入進(jìn)行整體分析,并匹配每個(gè)數(shù)據(jù)項(xiàng)的位置坐標(biāo)。其中使用高斯模糊技術(shù)對(duì)圖像中的噪點(diǎn)和一些不必要的要素進(jìn)行去除,不僅可以提高圖像的質(zhì)量,還能對(duì)識(shí)別到的合同數(shù)據(jù)圖像進(jìn)行平滑處理。公式(8)為高斯函數(shù)的概率密度函數(shù)。

      2.2文本行處理

      文本行處理是指房產(chǎn)交易合同中的文本行處理模塊提取文本行的操作。進(jìn)行掃描的合同是經(jīng)過(guò)審核且留有檔案的合同,要求對(duì)每項(xiàng)對(duì)應(yīng)的數(shù)據(jù)項(xiàng)和數(shù)據(jù)類(lèi)型進(jìn)行識(shí)別和處理。但是,對(duì)傾斜的文本進(jìn)行識(shí)別和處理時(shí),提取到的特征向量中字符特征發(fā)生了形變。在傳統(tǒng)的CRNN模型中,由于其具有時(shí)序性,因此有時(shí)會(huì)導(dǎo)致對(duì)輸入的圖像識(shí)別不完整的情況,要對(duì)特征f沿h維度進(jìn)行平局池化,以此得到序列特征f∈Rc1h×1×〖SX(〗1〖〗8〖SX)〗w。如圖4所示,模型無(wú)法識(shí)別圖像中的“張”與“健”,無(wú)法確定與標(biāo)簽相對(duì)應(yīng)的關(guān)系,圖4中c、h、w分別為輸入圖像的統(tǒng)一通道數(shù)量、通道高、通道寬。

      2.3文字的識(shí)別

      在房產(chǎn)交易合同中的識(shí)別任務(wù)可以理解為是對(duì)數(shù)據(jù)的分類(lèi)任務(wù)。通過(guò)統(tǒng)計(jì)分析,觀(guān)察到文本內(nèi)容存在文字和數(shù)字混合的情況。針對(duì)兩種不同類(lèi)型的數(shù)據(jù)進(jìn)行分析,本文設(shè)計(jì)了CDTD\|Net檢測(cè)算法用于提取不同尺度特征并進(jìn)行融合,該網(wǎng)絡(luò)基于FPN(FeaturePyramidNetworks)進(jìn)行了改進(jìn)和優(yōu)化,增加了特征提取層,它可以用于檢測(cè)和識(shí)別更小的手寫(xiě)文字,CNN\|RECR模型包含識(shí)別文字模型和識(shí)別數(shù)字模型。

      2.3.1識(shí)別文字模型構(gòu)建

      識(shí)別文字模型的構(gòu)建步驟如下。

      步驟1:圖像獲取和預(yù)處理。

      初始階段,通過(guò)在圖像采集過(guò)程獲取輸入圖像,并對(duì)獲取圖像進(jìn)行預(yù)處理操作,保證之后的分析可以在優(yōu)化的數(shù)據(jù)表示上進(jìn)行。

      步驟2:文字載體的識(shí)別獲取。

      通過(guò)模型進(jìn)行圖像識(shí)別,識(shí)別所有的文字載體[9],判斷其數(shù)據(jù)類(lèi)型,若是文字,則將其轉(zhuǎn)換為對(duì)應(yīng)的文本表示,若不是文字,則跳過(guò)該數(shù)據(jù)。在這一階段中,模型用捕獲文本信息和記錄文字在圖像中位置信息的方式,建立文字的空間分布信息。

      步驟3:轉(zhuǎn)換為對(duì)應(yīng)的文字。

      判斷識(shí)別的文字?jǐn)?shù)據(jù)類(lèi)型,若是文字,則將其轉(zhuǎn)換為對(duì)應(yīng)的文本表示。

      步驟4:記載文字的位置。

      通過(guò)識(shí)別文字具體的方位信息并進(jìn)行記載,有利于精確定位圖像中的文字,讓模型在文本的具體位置上提供更準(zhǔn)確的信息。

      步驟5:獲取語(yǔ)句結(jié)構(gòu)分布情況。

      通過(guò)RBU,模型對(duì)特征向量進(jìn)行處理并對(duì)模型的參數(shù)量進(jìn)行修改,同時(shí)通過(guò)捷徑連接加速模型參數(shù)向前傳遞。經(jīng)過(guò)RBU之后,模型執(zhí)行一維卷積層的轉(zhuǎn)換,將特征向量轉(zhuǎn)換為多維形式,獲取到語(yǔ)句結(jié)構(gòu)的分布情況[10]。最后取識(shí)別的中間特征向量中概率最大的索引值為識(shí)別結(jié)果。

      識(shí)別文字模型的流程圖如圖6所示。

      3 實(shí)驗(yàn)結(jié)果與分析(Experimentalresultsandanalysis)

      3.1實(shí)驗(yàn)數(shù)據(jù)及環(huán)境配置

      為了驗(yàn)證本文提出的CNN\|RECR模型對(duì)于房產(chǎn)交易合同文字進(jìn)行提取和識(shí)別的效果,在實(shí)驗(yàn)過(guò)程中采用存量房房產(chǎn)交易簽約合同圖片數(shù)據(jù)集進(jìn)行模型的性能測(cè)試,并對(duì)比其他模型的數(shù)據(jù)項(xiàng)識(shí)別提取效果[12]。

      3.1.1實(shí)驗(yàn)數(shù)據(jù)

      存量房房產(chǎn)交易簽約合同圖片數(shù)據(jù)集的數(shù)據(jù)集規(guī)模如表2所示;各類(lèi)數(shù)據(jù)所含信息實(shí)例如表3所示。

      3.1.2環(huán)境配置

      實(shí)驗(yàn)使用了Python編程語(yǔ)言和PyTorch框架,訓(xùn)練和測(cè)試的硬件環(huán)境是AMDRyzen54500UCPU,軟件環(huán)境基于Python3.11版本實(shí)現(xiàn)。

      3.2實(shí)驗(yàn)結(jié)果分析

      3.2.1手寫(xiě)文本檢測(cè)算法驗(yàn)證

      本文采用精確率、召回率及加權(quán)調(diào)和的平均F作為合同中手寫(xiě)文本檢測(cè)效果的指標(biāo),并與一些特征提取模型進(jìn)行了實(shí)驗(yàn)對(duì)比,如GoogleNet[13]、BertNet[14]及VGG16[15]等,驗(yàn)證CDTD\|Net在特征提取方面的優(yōu)勢(shì),對(duì)比結(jié)果如表4所示。實(shí)驗(yàn)結(jié)果表明,相比于其他的算法,CDTD\|Net在提取文本特征準(zhǔn)確率方面有了明顯的提高。

      3.2.2不同模型對(duì)于文本識(shí)別結(jié)果對(duì)比

      其中:precision(精準(zhǔn)度/插準(zhǔn)率)指被分類(lèi)器判斷為1中預(yù)測(cè)正確的比重,recall(召回率/查全率)指被預(yù)測(cè)為正例的占總正例的比重。

      本文提出了一種優(yōu)化的卷積神經(jīng)網(wǎng)絡(luò)算法。該算法使用CNN\|RECR模型,結(jié)合了殘差結(jié)構(gòu)單元,提高了對(duì)合同中數(shù)據(jù)項(xiàng)的識(shí)別、提取速度和精度。在以下4個(gè)不同的模型上進(jìn)行了數(shù)據(jù)識(shí)別提取實(shí)驗(yàn),選取了YOLOv3\|CRNN[16]、PSENet\|CRNN[17]及Tesseract[18]3個(gè)模型與本文提出的CNN\|RECR模型在對(duì)數(shù)據(jù)項(xiàng)的識(shí)別準(zhǔn)確性方面進(jìn)行了對(duì)比(圖8),實(shí)驗(yàn)結(jié)果顯示YOLOv3\|CRNN模型的識(shí)別準(zhǔn)確率為77.10%,PSENet\|CRNN模型的識(shí)別準(zhǔn)確率為80.60%,Tesseract模型的識(shí)別準(zhǔn)確率為50.02%,本文提出的CNN\|RECR模型的識(shí)別準(zhǔn)確率為97.62%。

      根據(jù)圖8和表5中的數(shù)據(jù)可以看出,在房產(chǎn)交易合同數(shù)據(jù)項(xiàng)的識(shí)別、提取過(guò)程中,在相同的數(shù)據(jù)集條件下,與YOLOv3\|CRNN、PSENet\|CRNN及Tesseract相比,CNN\|RECR模型的識(shí)別準(zhǔn)確率分別提高了20.52百分點(diǎn)、17.02百分點(diǎn)、47.60百分點(diǎn)。CNN\|RECR模型可以明顯地提高模型的識(shí)別準(zhǔn)確率。

      4結(jié)論(Conclusion)

      本文基于FPN構(gòu)造了CDTD\|Net,旨在提取手寫(xiě)數(shù)據(jù)的不同特征,并提出了基于優(yōu)化卷積神經(jīng)網(wǎng)絡(luò)的房產(chǎn)交易合同數(shù)據(jù)識(shí)別方法,設(shè)計(jì)了CNN\|RECR模型。CDTD\|Net可以使難以完整識(shí)別的手寫(xiě)數(shù)據(jù)更準(zhǔn)確地被識(shí)別,結(jié)合CNN與殘差結(jié)構(gòu)單元,減輕了模型的優(yōu)化難度,增強(qiáng)了其特征表示能力,同時(shí)提高了網(wǎng)絡(luò)對(duì)于文字特征的抽取能力。實(shí)驗(yàn)結(jié)果表明,與傳統(tǒng)的CNN模型相比,本文提出的方法對(duì)文本數(shù)據(jù)提取和識(shí)別的準(zhǔn)確率更高,并降低了存儲(chǔ)開(kāi)銷(xiāo)和計(jì)算復(fù)雜性。

      參考文獻(xiàn)(References)

      [1]趙旭升,趙前.電子合同的應(yīng)用與展望[J].中國(guó)石油企業(yè),2021(9):77\|80.

      [2]SMITHR.AnoverviewoftheTesseractOCRengine[C]∥IEEE.ProceedingsoftheNinthinternationalconferenceondocumentanalysisandrecognition(ICDAR2007.LosAlamitos:ntix4PGVjgSyva785hN5R2fnzHHL5Y5TZcrhhRlatB0=IEEEComputerSociety,2007,2:629\|633.

      [3]SABUAM,DASAS.ASurveyonvariousOpticalCharacterRecognitionTechniques[C]∥IEEE.Proceedingsofthe2018ConferenceonEmergingDevicesandSmartSystems.Piscataway:IEEE,2018:152\|155.

      [4]ZHOUY.ResearchontextdetectionandrecognitionalgorithmbasedonCNNinnaturalscene[D].Shanxi:shanxiuniversity,2020:14\|34.

      [5]DAIJF,HEKM,SUNJ.Instance\|awaresemanticsegmentationviamulti\|tasknetworkcascades[C]∥IEEE.Proceedingsofthe2016IEEEconferenceoncomputervisionandpatternrecognition.Piscataway:IEEE,2016:3150\|3158.

      [6]REDMONJ,DIVVALAS,GIRSHICKR,etal.Youonlylookonce:Unified,real\|timeobjectdetection[C]∥IEEE.Proceedingsofthe2016IEEEconferenceoncomputervisionandpatternrecognition.Piscataway:IEEE,2016:779\|788.

      [7]BONTARJ,LECUNY.Computingthestereomatchingcostwithaconvolutionalneuralnetwork[C]∥IEEE.Proceedingsofthe2015IEEEConferenceonComputerVisionandPatternRecognition.Piscataway:IEEE,2015:1592\|1599.

      [8]LIUX,SUGANUMAM,SUNZ,etal.Dualresidualnetworksleveragingthepotentialofpairedoperationsforimagerestoration[C]∥IEEE.Proceedingsofthe2019IEEE/CVFconferenceoncomputervisionandpatternrecognition.Piscataway:IEEE,2019:7007\|7016.

      [9]劉影,余進(jìn),陳莉.基于改進(jìn)卷積神經(jīng)網(wǎng)絡(luò)的多標(biāo)簽文本自動(dòng)化分類(lèi)研究[J].自動(dòng)化與儀器儀表,2023(11):62\|66.

      [10] 徐歡,張喜銘,楊秋勇,等.基于卷積神經(jīng)網(wǎng)絡(luò)算法的電網(wǎng)數(shù)據(jù)治理方法[J].南京郵電大學(xué)學(xué)報(bào)(自然科學(xué)版),2023,43(6):102\|111.

      [11]王治學(xué).基于圖卷積神經(jīng)網(wǎng)絡(luò)的主題模型文本分類(lèi)探究[J].科技創(chuàng)新與應(yīng)用,2023,13(36):83\|86.

      [12]陳暄,吳吉義.基于優(yōu)化卷積神經(jīng)網(wǎng)絡(luò)的車(chē)輛特征識(shí)別算法研究[J].電信科學(xué),2023,39(10):101\|111.

      [13]SIMONYANK,VEDALDIA,ZISSERMANA.Descriptorlearningusingconvexoptimisation[M]∥LectureNotesinComputerScience.Berlin,Heidelberg:SpringerBerlinHeidelberg,2012:243\|256.

      [14]LIUW,ANGUELOVD,ERHAND,etal.Ssd:Singleshotmultiboxdetector[C]∥Springer.ProceedingsoftheComputerVision\|ECCV2016:14theuropeanconference,amsterdam,thenetherlands,October11\|14,2016,proceedings,partI14.springerinternationalpublishing.Berlin:Springer,2016:21\|37.

      [15]SINGHS,GARGNK,KUMARM.VGG16:offlinehandwrittenDevanagariwordrecognitionusingtransferlearning[J].Multimediatoolsandapplications,2024,83(29):72561\|72594.

      [16]WUQM,SONGYT.TextdetectioninnaturalscenesbasedonYOLOv3andCRNN[J].Computerengineeringanddesign,2022,43(8):2352\|2360.

      [17]YUEB,ZHANGZT.Englishbillboardtextrecognitionusingdeeplearning[J].Journalofphysics:conferenceseries,2021,1994(1):012003.

      [18]ZENGY,MAMD.ResearchontextrecognitionbasedonTesseractOCR[J].Computertechnologyanddevelopment,2021,31(11):76\|80.

      体育| 黄冈市| 开原市| 张掖市| 临安市| 三河市| 天全县| 江津市| 和静县| 同江市| 神农架林区| 甘德县| 略阳县| 黄大仙区| 乐亭县| 涿州市| 出国| 吉木萨尔县| 睢宁县| 敦化市| 调兵山市| 万荣县| 平定县| 汉中市| 潮安县| 沐川县| 沾益县| 自治县| 鄱阳县| 海宁市| 丰台区| 五指山市| 临城县| 琼结县| 奉节县| 马山县| 永平县| 天长市| 罗平县| 阿拉尔市| 濮阳市|