• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看

      ?

      基于半監(jiān)督多頭網(wǎng)絡(luò)的腰椎CT圖像分割

      2023-06-23 10:09:29何越杜欽紅杜鈺堃楊環(huán)西永明

      何越 杜欽紅 杜鈺堃 楊環(huán) 西永明

      摘要:針對(duì)醫(yī)學(xué)圖像分割任務(wù)中醫(yī)學(xué)數(shù)據(jù)標(biāo)注困難以及CT圖像強(qiáng)度不均勻問題,提出一種基于半監(jiān)督的多頭分割網(wǎng)絡(luò)SSMH-Net。SSMH-Net網(wǎng)絡(luò)采用教師—學(xué)生訓(xùn)練架構(gòu),基于相同的分割模型V-Net,通過指數(shù)移動(dòng)平均算法完成教師與學(xué)生模型的交互訓(xùn)練;采用Multi-Head方法估計(jì)模型預(yù)測(cè)的不確定性信息,指導(dǎo)分割模型在更可靠的目標(biāo)中學(xué)習(xí)。在CTspine分割數(shù)據(jù)集上,SSMH-Net網(wǎng)絡(luò)平均分割Dice系數(shù)達(dá)到95.70%,表現(xiàn)出較為優(yōu)異的分割性能。

      關(guān)鍵詞:椎體分割;半監(jiān)督學(xué)習(xí);注意力模塊;V-Net;multi-head

      中圖分類號(hào):TP391.41

      文獻(xiàn)標(biāo)志碼:A

      文章編號(hào):1006-1037(2023)02-0036-07

      doi:10.3969/j.issn.1006-1037.2023.02.07

      基金項(xiàng)目:

      山東省泰山學(xué)者項(xiàng)目(批準(zhǔn)號(hào):ts20190985)資助。

      通信作者:楊環(huán),女,博士,副教授,主要研究方向?yàn)閳D像/視頻處理與分析、視覺感知建模及質(zhì)量評(píng)估、深度學(xué)習(xí)等。

      腰痛是一種常見的脊柱外科疾病,影響約70%~80%的成年人。腰椎病變,如腰椎滑脫、腰椎間盤突出、椎體畸形等,是引起腰痛的主要原因,已成為重大的社會(huì)公共衛(wèi)生問題。計(jì)算機(jī)斷層掃描(Computed Tomography, CT)影像能清楚地顯示腰骶椎和周圍結(jié)構(gòu),被廣泛應(yīng)用于腰椎疾病的診斷和治療。三維CT圖像腰椎分割是后續(xù)臨床治療的必要前提。目前,外科醫(yī)生通常采用手工分割CT圖像的方法,不僅費(fèi)時(shí)費(fèi)力,而且不同的標(biāo)注軟件導(dǎo)致分割結(jié)果差異。面對(duì)腰部疾病的多樣化以及發(fā)病率高等問題,通過醫(yī)生手動(dòng)分割椎體圖像的方法已無(wú)法滿足當(dāng)下的診療需求。因此,開發(fā)一種CT影像自動(dòng)定位和分割腰椎部位的智能方法,對(duì)于脊柱疾病的計(jì)算機(jī)輔助診斷和治療至關(guān)重要。近年來(lái),在醫(yī)學(xué)圖像計(jì)算機(jī)輔助診斷中,用于腦腫瘤,肺結(jié)節(jié)等醫(yī)學(xué)圖像的自動(dòng)分割取得了重大進(jìn)展[1-6]。3D DSN[1]采用端到端的三維全卷積架構(gòu),在網(wǎng)絡(luò)中引入深度監(jiān)督并采用條件隨機(jī)場(chǎng)實(shí)現(xiàn)輪廓優(yōu)化;RIMNet[2]利用Region-to-image匹配策略,提高了多模態(tài)MRI數(shù)據(jù)之間的利用率。通過小批量隨機(jī)禁用模態(tài),將多模態(tài)數(shù)據(jù)輸入到模型中,提取的特征通過級(jí)聯(lián)進(jìn)行融合;2D-SCNet[4]是一種基于CNN的同時(shí)分割分類的模型,其中特征提取層由分割網(wǎng)絡(luò)和分類網(wǎng)絡(luò)共享。異常椎體和正常椎體在形狀和結(jié)構(gòu)上的差異很大,大部分通用的圖像分割算法無(wú)法實(shí)現(xiàn)準(zhǔn)確的分割。為了提高椎體分割的精度,構(gòu)建了許多基于級(jí)聯(lián)結(jié)構(gòu)的模型。Sekuboyina 等[7]提出一種多階段腰椎分割算法,使用多層感知器提取腰椎的感興趣區(qū)域,然后在感興趣區(qū)域內(nèi)進(jìn)行實(shí)例分割。迭代椎骨實(shí)例分割算法利用移動(dòng)滑動(dòng)窗口使其包括完整的椎骨區(qū)域,然后對(duì)椎骨使用實(shí)例分割并保存[8]。盡管這些方法都依賴卷積神經(jīng)網(wǎng)絡(luò)來(lái)分割椎體,但依舊保留檢測(cè)和分割任務(wù),且使用兩個(gè)網(wǎng)絡(luò)。Li等[9]提出一種用于脊椎分割的卷積神經(jīng)網(wǎng)絡(luò),在網(wǎng)絡(luò)中加入通道注意模塊和雙重注意模塊,使用多尺度卷積塊提高網(wǎng)絡(luò)的預(yù)測(cè)能力。這些方法在分割椎體部位取得了較好的效果,但是忽略了CT圖像中一些軟組織和椎體區(qū)域灰度類似,因此可能存在錯(cuò)誤的將軟組織區(qū)域分割出來(lái)的情況。監(jiān)督式深度學(xué)習(xí)常依賴大量用于訓(xùn)練的標(biāo)記數(shù)據(jù)集,對(duì)于3D醫(yī)學(xué)圖像,獲取大量體素級(jí)標(biāo)記數(shù)據(jù)耗時(shí)長(zhǎng)且困難。因此,半監(jiān)督深度學(xué)習(xí)被廣泛應(yīng)用于醫(yī)學(xué)圖像分割,這種方法只需獲得少量標(biāo)記圖像和大量未標(biāo)記圖像,并能同時(shí)用于網(wǎng)絡(luò)訓(xùn)練,基于自訓(xùn)練的Inf-Net[10]網(wǎng)絡(luò)利用隱式反向注意和顯式邊緣關(guān)注來(lái)提高病變區(qū)域的檢測(cè);DAN[11]和BUS-GAN[12]使用對(duì)抗生成網(wǎng)絡(luò),使未標(biāo)記圖像的分割與標(biāo)記圖像的分割相似。一致性正則化在計(jì)算機(jī)視覺和圖像處理中起著至關(guān)重要的作用,尤其是在半監(jiān)督學(xué)習(xí)中。DTC[13]是一種新的雙任務(wù)一致性半監(jiān)督框架,用聯(lián)合預(yù)測(cè)目標(biāo)的像素分割圖和水平集函數(shù)表示,該模型強(qiáng)制像素級(jí)分類任務(wù)和水平集回歸任務(wù)之間的任務(wù)一致性,可以更好的捕捉幾何活動(dòng)輪廓和距離信息。然而現(xiàn)有的半監(jiān)督模型未考慮CT影像中邊界模糊和強(qiáng)度分布不均勻的情況,導(dǎo)致無(wú)法準(zhǔn)確的分割椎體的邊緣區(qū)域和椎體內(nèi)部區(qū)域,并且未標(biāo)注數(shù)據(jù)沒有標(biāo)注指導(dǎo)訓(xùn)練,導(dǎo)致模型訓(xùn)練過程中可能對(duì)預(yù)測(cè)結(jié)果產(chǎn)生過度自信,使模型的分割結(jié)果較差。本文提出基于不確定性估計(jì)的半監(jiān)督多頭分割網(wǎng)絡(luò)(Semi-Supervised Multi-Head Segmentation Network,SSMH-Net),SSMH-Net模型由兩個(gè)相同的分割網(wǎng)絡(luò)分別作為學(xué)生和教師網(wǎng)絡(luò),通過在分割網(wǎng)絡(luò)中跳躍連接處加入注意力來(lái)關(guān)注椎體內(nèi)部特征。監(jiān)督學(xué)習(xí)模型在訓(xùn)練過程中經(jīng)常對(duì)預(yù)測(cè)分割結(jié)果產(chǎn)生過度自信,因此使用Multi-Head方法估計(jì)模型的不確定性,同時(shí)設(shè)計(jì)一致性損失函數(shù),用來(lái)最小化學(xué)生模型和教師模型在不同擾動(dòng)下對(duì)輸入的預(yù)測(cè)差異。

      1 不確定性估計(jì)引導(dǎo)的半監(jiān)督多頭分割網(wǎng)絡(luò)

      1.1 半監(jiān)督學(xué)習(xí)網(wǎng)絡(luò)模型

      為了充分利用未標(biāo)注的CT圖像分割腰椎,SSMH-Net網(wǎng)絡(luò)采用經(jīng)典的教師—學(xué)生框架,通過預(yù)測(cè)結(jié)果的不確定性信息來(lái)指導(dǎo)網(wǎng)絡(luò)的訓(xùn)練過程。如圖1所示,模型包含一個(gè)教師網(wǎng)絡(luò)和一個(gè)學(xué)生網(wǎng)絡(luò),兩個(gè)網(wǎng)絡(luò)共享SC-VNet模型結(jié)構(gòu)。SC-VNet采用V-Net網(wǎng)絡(luò)作為基礎(chǔ)網(wǎng)絡(luò),并在跳躍連接處加入SC注意力模塊。教師網(wǎng)絡(luò)的權(quán)重通過使用學(xué)生網(wǎng)絡(luò)權(quán)重的指數(shù)移動(dòng)平均(EMA)更新提高模型的穩(wěn)定性和魯棒性。對(duì)于標(biāo)記的3D CT圖像,經(jīng)過學(xué)生網(wǎng)絡(luò)進(jìn)行監(jiān)督學(xué)習(xí)分割,由監(jiān)督損失Ldice+Lce組合優(yōu)化,得到預(yù)測(cè)結(jié)果predA。對(duì)于未標(biāo)記的3D CT圖像,期望在不同噪聲的擾動(dòng)下學(xué)生網(wǎng)絡(luò)和教師網(wǎng)絡(luò)的分割結(jié)果(即predA和predB)是一致的。為了提升學(xué)生模型的學(xué)習(xí)能力,采用Multi-Head算法[14]計(jì)算師生模型的輸出一致性,學(xué)生網(wǎng)絡(luò)通過Ldice+Lce(監(jiān)督損失)和Lcon(無(wú)監(jiān)督一致性損失)的組合進(jìn)行優(yōu)化,有效地指導(dǎo)學(xué)生網(wǎng)絡(luò)從教師網(wǎng)絡(luò)中學(xué)習(xí)更可靠地目標(biāo)。

      1.2 融合SC注意力的學(xué)生模型和教師模型

      CT圖像中往往存在強(qiáng)度分布不均勻的情況,導(dǎo)致椎體內(nèi)部模糊,邊界不清晰,造成椎體分割精度較低。針對(duì)上述問題,本文構(gòu)建了監(jiān)督學(xué)習(xí)模型SC-VNet。在V-Net模型的基礎(chǔ)上,添加空間及通道(Spatial and Channel,SC)注意力模塊關(guān)注椎體內(nèi)部特征,通過增強(qiáng)通道特征和融合3D空間信息提高分割的準(zhǔn)確率。SC模塊主要結(jié)構(gòu)如圖2所示,圖中X(大小為C×H×W×D)作為注意力模塊的輸入特征信息,SC注意力模塊由通道注意力模塊和空間注意力模塊組成[15]。通道注意力模塊是利用特征的通道間關(guān)系來(lái)生成通道注意力圖,采用全局平均池化Favg(·)壓縮輸入特征圖的空間維度,使用兩個(gè)全連接層實(shí)現(xiàn)權(quán)重值在不同的通道中的流動(dòng),并通過非線性激活函數(shù)(Sigmod)σ1將權(quán)重限制到0~1之間。將學(xué)習(xí)到的通道權(quán)重重構(gòu)為Mc(大小為C×1×1×1),與注意力模塊的輸入X使用點(diǎn)乘運(yùn)算得到Xcha。為了充分使用3D空間信息,利用特征的空間關(guān)系生成空間注意力。首先輸入圖像X采用一個(gè)大小為1×1×1的3D卷積Fcon(·)進(jìn)行降維操作。經(jīng)過非線性激活函數(shù)(Sigmod) σ2激活后,將得到的空間權(quán)重Ms(大小為1×H×W×D)與注意力模塊的輸入X使用點(diǎn)乘運(yùn)算得到Xspa。Xcha,Xspa和X通過相加生成3D通道和空間注意力圖X′。

      在半監(jiān)督學(xué)習(xí)框架中教師模型和學(xué)生模型之間的權(quán)重通過指數(shù)移動(dòng)平均(EMA)共享[16]。指數(shù)移動(dòng)平均(EMA)是每次梯度更新之后的權(quán)值和上一次的權(quán)值采用加權(quán)平均,而不是每個(gè)Epoch之后再進(jìn)行信息聚合。EMA改變的是分割網(wǎng)絡(luò)中所有層的輸出,而不僅僅是其中某一層的輸出,因此EMA可以得到更好的中間表示。EMA權(quán)重的更新公式為

      其中,t是訓(xùn)練次數(shù);θ′t是教師模型的權(quán)重;θt是學(xué)生模型的權(quán)重;α為 EMA的衰減率,用來(lái)控制網(wǎng)絡(luò)更新速度。與直接使用學(xué)生網(wǎng)絡(luò)的最后參數(shù)相比,使用EMA權(quán)重通常會(huì)產(chǎn)生更準(zhǔn)確的網(wǎng)絡(luò)模型。

      1.3 多頭輸出的不確定性估計(jì)算法Multi-Head

      由于CT圖像椎體內(nèi)部和外部高度相似性,預(yù)測(cè)分割結(jié)果中容易產(chǎn)生假陰性和假陽(yáng)性區(qū)域。若將沒有標(biāo)注的圖像輸入到教師網(wǎng)絡(luò),得到的目標(biāo)預(yù)測(cè)可能是不可信的,因此SSMH-Net模型采用Multi-Head的方法,指導(dǎo)學(xué)生網(wǎng)絡(luò)從更可靠的目標(biāo)中學(xué)習(xí)。為方便計(jì)算模型的不確定性,將監(jiān)督分割網(wǎng)絡(luò)的單個(gè)輸出層擴(kuò)展成M個(gè)輸出層。簡(jiǎn)單的說(shuō),Multi-Head有M個(gè)類型相同的輸出層(1,2,…,M),但每個(gè)輸出層都具有不同的權(quán)重和初始化,因此每個(gè)輸出層產(chǎn)生的預(yù)測(cè)也是不相同的。使用加權(quán)損失促進(jìn)輸出層之間的多樣性,可以更好地覆蓋CT圖像的內(nèi)部和外部區(qū)域,有利于捕獲推理時(shí)的歧義。對(duì)于輸入圖像的每個(gè)體素,可以得到一組概率向量。因?yàn)轭A(yù)測(cè)熵具有固定的范圍,可以作為不確定性的度量。在不確定性估計(jì)的指導(dǎo)下,設(shè)置一個(gè)閾值,過濾掉相對(duì)不可靠的預(yù)測(cè),選擇可靠的預(yù)測(cè)作為學(xué)生模型學(xué)習(xí)的目標(biāo)

      其中,pnumt表示第num類在第t次的輸出的概率,mi是M個(gè)預(yù)測(cè)的平均值,num是類別數(shù),不確定性u(píng)大小為H×W×D,是預(yù)測(cè)的體素熵。

      1.4 損失函數(shù)組合優(yōu)化

      為充分利用3D空間信息,模型使用3D影像作為兩個(gè)分割網(wǎng)絡(luò)的輸入,其中訓(xùn)練集是由U個(gè)標(biāo)記數(shù)據(jù)和V個(gè)未標(biāo)記數(shù)據(jù)組成。標(biāo)記集為Dl={xi,yi}Ui=1,將未標(biāo)記的數(shù)據(jù)集為Du={xi}U+Vi=U+1,其中xi是大小為H×W×D的輸入影像,yi∈{0,1}H×W×D是真實(shí)標(biāo)注。

      對(duì)于有標(biāo)注的圖像,學(xué)生網(wǎng)絡(luò)主要受監(jiān)督損失的指導(dǎo),以學(xué)習(xí)分割任務(wù)的可靠表示。模型采用Dice損失Ldice和交叉熵?fù)p失Lce的組合作為監(jiān)督損失Lsup來(lái)分割腰椎

      其中,δm(a)=1-ε, if a=trueεM-1, else,a代表M個(gè)輸出層中預(yù)測(cè)損失最少的輸出層;ε為設(shè)置的權(quán)重;m為多個(gè)輸出層。

      對(duì)于沒有標(biāo)注的圖像,可以根據(jù)半監(jiān)督學(xué)習(xí)中的平滑假設(shè),將輸入圖像加上不同的噪聲生成兩個(gè)圖像,通過學(xué)生和教師網(wǎng)絡(luò)得到對(duì)應(yīng)的分割掩碼在理論上是相同的,因此模型可以通過最小化一致性損失建立學(xué)生模型預(yù)測(cè)結(jié)果predA和教師模型預(yù)測(cè)結(jié)果predB的約束

      其中,I(·)為指標(biāo)函數(shù),閾值在0~1之間;predA和predB分別是學(xué)生模型和教師模型在第v個(gè)體素上的預(yù)測(cè);uv是第v個(gè)體素處的不確定性估計(jì);value是選擇可靠目標(biāo)的閾值。通過在訓(xùn)練過程中的一致性損失,學(xué)生和教師模型都可以從中學(xué)習(xí)到更可靠的知識(shí),降低模型的不確定性。

      2 實(shí)驗(yàn)結(jié)果和分析

      2.1 數(shù)據(jù)集和預(yù)處理

      評(píng)估模型所使用的CTspine數(shù)據(jù)集由36個(gè)3D CT成像掃描組成,圖像尺寸從512×512×350到512×512×512(體素)不等,每一個(gè)3D圖像都有一個(gè)與圖像相同大小的腰椎分割掩碼。預(yù)處理使用[-700, 1300]HU的軟組織CT窗口范圍,基于隨機(jī)擴(kuò)大邊緣(10~20個(gè)體素)的分割掩碼裁剪腰椎區(qū)域?yàn)橹行牡膱D像,并將所有圖像進(jìn)行零均值歸一化和單位方差處理。實(shí)驗(yàn)將36次掃描分為30次掃描用于訓(xùn)練和6次掃描用于測(cè)試。

      2.2 實(shí)驗(yàn)設(shè)置

      實(shí)驗(yàn)均采用Pytorch開源框架,使用的顯卡型號(hào)為NVIDIA A100 GPU;模型采用SGD優(yōu)化器進(jìn)行訓(xùn)練,共6 000次迭代,EMA衰減率為0.99;批量大小為2,每次由1個(gè)標(biāo)記圖像和1個(gè)未標(biāo)記圖像組成;初始學(xué)習(xí)率設(shè)置為0.01,每經(jīng)過2 500次迭代除以10;將原始圖像隨機(jī)裁剪為128×128×96作為網(wǎng)絡(luò)模型的輸入,并使用滑動(dòng)窗口策略獲得最終的分割結(jié)果;SSMH-Net將多頭輸出M設(shè)置為4。

      2.3 實(shí)驗(yàn)結(jié)果

      為了評(píng)估半監(jiān)督框架中學(xué)生網(wǎng)絡(luò)和教師網(wǎng)絡(luò)所使用的完全監(jiān)督分割網(wǎng)絡(luò)的準(zhǔn)確性,將所提出的半監(jiān)督框架使用不同的學(xué)生和教師網(wǎng)絡(luò)在3D椎體數(shù)據(jù)集上訓(xùn)練和測(cè)試,包括SV-Net、V-Net[17]、U-Net[18]和Highresnet[19]4種網(wǎng)絡(luò)。在30次訓(xùn)練掃描中,使用20%的數(shù)據(jù)(即6次掃描)作為標(biāo)注數(shù)據(jù),其余24次掃描作為未標(biāo)注數(shù)據(jù)。其他所使用的實(shí)驗(yàn)參數(shù)設(shè)置完全一致。實(shí)驗(yàn)結(jié)果見表1,SSMH-Net模型中使用不同的學(xué)生和教師網(wǎng)絡(luò)的分割精度對(duì)比,學(xué)生和教師網(wǎng)絡(luò)使用加入SC注意力的V-Net網(wǎng)絡(luò)在半監(jiān)督框架中取得95.70%的分割精度,優(yōu)于其他對(duì)比模型。

      為了驗(yàn)證SSMH-Net模型的有效性,將SSMH-Net模型與其他半監(jiān)督分割模型進(jìn)行比較,包括SASSnet[20]、DTC[13]、MC-Net[21]和SCC[22]。實(shí)驗(yàn)時(shí),所有模型都采用20%的標(biāo)記數(shù)據(jù)和80%的未標(biāo)記數(shù)據(jù),結(jié)果見表2,可知, SSMH-Net模型分割精度較高。由于SSMH-Net僅僅在監(jiān)督網(wǎng)絡(luò)SC-VNet的輸出層上進(jìn)行了擴(kuò)展,相比較其他半監(jiān)督分割模型,在計(jì)算量少的前提下依然獲得較好的分割效果。

      圖3為DTC、SASSnet、MC-Net、SCC和SSMH-Net模型的分割可視化結(jié)果,其他模型在多個(gè)椎體連接部分產(chǎn)生粘連,特別是SASS-Net。SSMH-Net模型在沒有任何形狀約束下,依然得到更好的分割結(jié)果,具有更少的孤立區(qū)域,并且有效地分割一些具有挑戰(zhàn)性的區(qū)域,見圖3中標(biāo)記部分,說(shuō)明SSMH-Net模型優(yōu)于其他網(wǎng)絡(luò)。

      為了驗(yàn)證SSMH-Net模型的魯棒性,在2018年心房分割挑戰(zhàn)賽的基準(zhǔn)數(shù)據(jù)集(LA)上評(píng)估該性能。數(shù)據(jù)集包括100個(gè)用于訓(xùn)練的MR成像掃描,各向同性分辨率為0.625×0.625×0.625 mm。模型使用80個(gè)樣本用于訓(xùn)練,其余20個(gè)樣本用于測(cè)試,SSMH-Net模型與其他方法在同一驗(yàn)證集上的比較結(jié)果見表3。可知,SSMH-Net模型在大部分評(píng)價(jià)指標(biāo)上優(yōu)于其他模型。

      使用兩種比較流行的半監(jiān)督設(shè)置(10%和20%的標(biāo)注數(shù)據(jù))觀察所提SSMH-Net模型的數(shù)據(jù)利用情況,評(píng)估結(jié)果見表4??梢钥闯觯瑯邮褂?0%的標(biāo)注數(shù)據(jù),SSMH-Net模型利用90%的未標(biāo)注數(shù)據(jù)比SC-VNet模型分割所得到的Dice結(jié)果高5.82%;在20%的標(biāo)記數(shù)據(jù)中,SSMH-Net比SC-VNet的 Dice結(jié)果高3.67%,表明SSMH-Net模型能更加有效地利用未標(biāo)記數(shù)據(jù)來(lái)提升模型的分割性能。V-Net和U-Net監(jiān)督模型使用全部標(biāo)注數(shù)據(jù)分割精度分別為96.48%和96.18%,僅僅比使用少量標(biāo)注數(shù)據(jù)的SSMH-Net高0.78%和0.48%,表明SSMH-Net在臨床應(yīng)用中有更廣闊的潛力。

      3 結(jié)論

      本文提出一種應(yīng)用于腰椎CT分割領(lǐng)域的SSMH-Net模型,采用基于不確定性估計(jì)的半監(jiān)督深度學(xué)習(xí)框架,通過對(duì)相同輸入的圖像加入不同的擾動(dòng),以達(dá)到學(xué)生和教師模型分割一致性的目的,最終實(shí)現(xiàn)在較少標(biāo)注數(shù)據(jù)的同時(shí)提高分割精度的效果。SSMH-Net模型采用了Multi-Head方法,通過探索每個(gè)目標(biāo)的不確定性信息計(jì)算一致性損失,以此提高分割目標(biāo)的質(zhì)量。在標(biāo)注規(guī)模相同的數(shù)據(jù)集下,與主流分割模型相比,SSMH-Net模型表現(xiàn)出較為優(yōu)異的分割效果,能夠減輕醫(yī)學(xué)圖像數(shù)據(jù)標(biāo)注,在分割精度上具有較大的臨床價(jià)值。

      參考文獻(xiàn)

      [1]QI D, HAO C, YUE M J, et al. 3D deeply supervised network for automatic liver segmentation from CT volumes[C]//International Conference on Medical Image Computing and Computer-assisted Intervention. Springer, 2016: 149-157.

      [2]DAS P, PAL C, ACHARYYA A, et al. Deep neural network for automated simultaneous intervertebral disc (IVDs) identification and segmentation of multi-modal MR images[J]. Computer Methods and Programs in Biomedicine, 2021, 205: 106074.

      [3]DOLZ J, DESROSIERS C, BEN AYED I. IVD-Net: Intervertebral disc localization and segmentation in MRI with a multi-modal UNet[C]//International Workshop and Challenge on Computational Methods and Clinical Applications for Spine Imaging. Springer, 2018: 130-143.

      [4]GONG Z, KAN L. Segmentation and classification of renal tumors based on convolutional neural network[J]. Journal of Radiation Research and Applied Sciences, 2021, 14(1): 412-422.

      [5]CUI S G, MAO L, JIANG J F, et al. Automatic semantic segmentation of brain gliomas from MRI images using a deep cascaded neural network[J]. Journal of Healthcare Engineering, 2018, 2018.

      [6]ZHU W T, LIU C C, FAN W, et al. Deeplung: Deep 3d dual path nets for automated pulmonary nodule detection and classification[C]//2018 IEEE Winter Conference on Applications of Computer Vision (WACV). IEEE, 2018: 673-681.

      [7]SEKUBOYINA A, VALENTINITSCH A, KIRSCHKE J S, et al. A localisation-segmentation approach for multi-label annotation of lumbar vertebrae using deep nets[DB/OL]. [2022-08-20]. https://arxiv.org/abs/1703.04347.

      [8]LESSMANN N, VAN GINNEKEN B, DE JONG P A, et al. Iterative fully convolutional neural networks for automatic vertebra segmentation and identification[J]. Medical Image Analysis, 2019, 53: 142-155.

      [9]LI B, LIU C, WU S Y, et al. Verte-Box: A novel convolutional neural network for fully automatic segmentation of vertebrae in CT image[J]. Tomography, 2022, 8(1): 45-58.

      [10] FAN D P, ZHOU T, JI G P, et al. Inf-net: Automatic covid-19 lung infection segmentation from CT images[J]. IEEE Transactions on Medical Imaging, 2020, 39(8): 2626-2637.

      [11] ZHANG Y, YANG L, CHEN J, et al. Deep adversarial networks for biomedical image segmentation utilizing unannotated images[C]// International Conference on Medical Image Computing and Computer-assisted Intervention. Springer, 2017: 408-416.

      [12] HAN L Y, HUANG Y Z, DOU H R, et al. Semi-supervised segmentation of lesion from breast ultrasound images with attentional generative adversarial network[J]. Computer Methods and Programs in Biomedicine, 2020, 189: 105275.

      [13] LUO X D, CHEN J N, SONG T, et al. Semi-supervised medical image segmentation through dual-task consistency[C]// 35th AAAI Conference on Artificial Intelligence. 2021: 8801-8809.

      [14] RUPPRECHT C, LAINA I, DIPIETRO R, et al. Learning in an uncertain world: Representing ambiguity through multiple hypotheses[C]// 30th IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR). Honolulu, 2017: 3591-3600.

      [15] CHEN L, ZHANG H W, XIAO J, et al. Sca-cnn: Spatial and channel-wise attention in convolutional networks for image captioning[C]// 30th IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR). Honolulu, 2017: 5659-5667.

      [16] TARVANINEN A, VALPOLA H. Mean teachers are better role models: Weight-averaged consistency targets improve semi-supervised deep learning results[C]// 31st Annual Conference on Neural Information Processing Systems (NIPS). Long Beach, 2017.

      [17] MILLETARI F, NAVAB N, AHMADI S A. V-net: Fully convolutional neural networks for volumetric medical image segmentation[C]// 4th IEEE International Conference on 3D Vision (3DV). Stanford, 2016: 565-571.

      [18] ICEK , ABDULKADIR A, LIENKAMP S.S, et al. 3D U-Net: learning dense volumetric segmentation from sparse annotation[C]// International Conference on Medical Image Computing and Computer-assisted Intervention. Springer, 2016: 424-432.

      [19] YANG G S, MANELA J, HAPPOLD M, et al. Hierarchical deep stereo matching on high-resolution images[C]// 32th IEEE/CVF Conference on Computer Vision and Pattern Recognition(CVPR). 2019: 5515-5524.

      [20] LI S L, ZHANG C Y, HE X M. Shape-aware semi-supervised 3D semantic segmentation for medical images[C]//International Conference on Medical Image Computing and Computer-Assisted Intervention. Springer, 2020: 552-561.

      [21] WU Y C, XU M F, GE Z Y, et al. Semi-supervised left atrium segmentation with mutual consistency training[C]//International Conference on Medical Image Computing and Computer-Assisted Intervention. Springer, 2021: 297-306.

      [22] LIU Y S, WANG W, LUO G N, et al. A contrastive consistency semi-supervised left atrium segmentation model[J]. Computerized Medical Imaging and Graphics, 2022, 99: 102092.

      镇坪县| 东莞市| 理塘县| 克东县| 永平县| 遵化市| 天津市| 六枝特区| 岳西县| 湟源县| 铜鼓县| 兴义市| 芦溪县| 蓝山县| 砚山县| 安顺市| 阜新| 泸西县| 射洪县| 共和县| 萍乡市| 綦江县| 新民市| 隆化县| 义马市| 桐梓县| 广平县| 汉中市| 启东市| 苗栗市| 菏泽市| 冷水江市| 财经| 新宾| 波密县| 吴桥县| 南皮县| 光泽县| 刚察县| 孝义市| 迭部县|