• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看

      ?

      一種基于 Kinect 相機的腹部肝穿刺介入導航系統(tǒng)

      2018-03-26 15:13:20肖德強羅火靈張彥舫賈富倉胡慶茂
      集成技術 2018年2期
      關鍵詞:體模導航系統(tǒng)靶點

      肖德強 羅火靈 張彥舫 賈富倉 胡慶茂

      1(中國科學院深圳先進技術研究院 深圳 518055)

      2(深圳市人民醫(yī)院介入科 深圳 518020)

      1 引 言

      手術導航能夠實現(xiàn)將術中手術器械映射到術前圖像空間,進而直觀地指導醫(yī)生進行精準操作。手術導航最早應用于硬組織,即假設術中組織相對術前影像未發(fā)生明顯形變?;谟步M織的手術導航已發(fā)展得較為成熟,如神經外科手術導航、骨科手術導航等[1,2]。借鑒硬組織手術導航的設計理念,腹部穿刺介入導航自 2005 年出現(xiàn)以來得到了迅速發(fā)展[3,4],術中注冊是其系統(tǒng)實現(xiàn)的關鍵一步。

      三維表面成像技術的發(fā)展使得術中獲取病人體表三維點云數(shù)據(jù)變得簡單可行,通過術中表面成像可以獲得更為豐富的術中病人位置信息,為實現(xiàn)術中注冊提供了新思路。Cash 等[5]利用三維激光掃描儀無接觸式獲取術中肝臟表面,用于開腹式肝臟切除手術導航中的術中注冊和形變校正。Nicolau 等[6]使用結構光法獲取病人腹部表面與術前 X 射線計算機斷層成像術(Computed Tomography,CT)圖像做表面配準實現(xiàn)術中注冊用以腹部穿刺導航。早期表面成像技術能獲得較高精度的稠密點云數(shù)據(jù),但成像范圍較小且不具備成像的實時性。

      近些年,基于飛行時間法(Time-of-Flight,ToF)的術中表面成像技術[7]發(fā)展迅速,該方法相對傳統(tǒng)表面成像技術的優(yōu)勢在于能實時同步獲取灰度(或彩色)和深度圖像。基于 ToF 表面成像技術的深度相機因能提供實時且豐富的術中信息而被逐漸應用于軟組織手術導航[8,9]。

      美國微軟公司于 2010 年發(fā)布了一款面向消費者的低價位深度相機——Kinect 深度傳感器。該相機不僅能實時同步獲取掃描對象的彩色(RGB)和深度(Depth)圖像(RGB-D 圖像),且相機深度成像精度相對傳統(tǒng) ToF 相機也有進一步的提升。Wang 等[10]使用 Kinect 相機做了穿刺針的追蹤研究;Kilgus 等[11]將 Kinect 相機集成到一個增強現(xiàn)實顯示系統(tǒng)中輔助法醫(yī)尸檢;Seitel 等[12]嘗試將 Kinect 相機應用到腹部穿刺導航中,實現(xiàn)術中注冊和穿刺操作引導并完成了系統(tǒng)的初步驗證。

      2015 年,微軟公司發(fā)布了第二代 Kinect 相機,與第一代 Kinect 相機相比,其深度成像精度明顯提升[13]。第二代 Kinect 能否應用于腹部穿刺介入導航的研究未見報道,且第二代 Kinect相機相對第一代相機能否提升穿刺導航系統(tǒng)的精度也需做進一步的研究。同時,基于深度相機的無標記點注冊中,利用迭代最近鄰點(Iterative Closest Point,ICP)算法[14]實現(xiàn)術前與術中腹部多模態(tài)表面的匹配時,需先對兩表面做初始匹配?,F(xiàn)有用于腹部表面初始匹配的方法均采用人工手動對齊[11,12]。為減少術中注冊過程的人工干預,仍需進一步研究全自動腹部表面配準技術。針對以上若干問題,本文實現(xiàn)了一種基于 Kinect相機的經皮肝穿刺導航系統(tǒng),分別將兩代 Kinect相機集成到系統(tǒng)中,比較了兩代 Kinect 相機應用于腹部穿刺導航的性能差異。為了實現(xiàn)自動無標記點術中注冊,提出了一種基于二維全局形狀相似的表面初始匹配算法,并結合 ICP 算法實現(xiàn)腹部多模態(tài)表面的自動匹配。驗證實驗中,采用 1個通用的腹部體模及 6 只健康比格犬開展穿刺導航實驗,通過采集術后 CT 圖像以量化評估穿刺導航精度。

      2 方法

      2.1 系統(tǒng)軟件

      基于 Kinect 相機的經皮肝穿刺介入導航系統(tǒng)的軟件體系結構主要由穿刺路徑規(guī)劃、術中注冊、器械追蹤和導航可視化 4 個部分組成。

      (1)穿刺路徑規(guī)劃。主要功能是完成在病人腹部 CT 圖像上選擇入口點和穿刺靶點。其中,穿刺入口點由手工選擇,腫瘤的質心設為靶點。腫瘤質心采用了三維霍夫變換[15]方法分割形狀規(guī)則的球形腫瘤,對于少數(shù)形狀不規(guī)則的腫瘤則采用手動分割方法。

      (2)術中注冊。使用 Kinect 相機獲取病人腹部 RGB-D 圖像,并與術前對應的 CT 圖像做配準計算術中病人物理坐標空間到術前圖像空間的坐標變換。本文實現(xiàn)了一種無標記點術中注冊:提出了一種基于二維投影形狀相似性的表面匹配算法完成術中 Kinect 腹部表面與術前 CT 表面的配準,該方法將在 2.3 節(jié)做詳細介紹。

      (3)器械追蹤。本文采用被動光學定位工具用于器械的定位和追蹤。術中器械的追蹤包括穿刺針和 Kinect 相機在光學定位系統(tǒng)坐標空間中的實時定位。實現(xiàn)過程是將動態(tài)參考幀(Dynamic Reference Frame,DRF)綁定在器械上,定位系統(tǒng)通過追蹤 DRF 實時獲取器械的空間位置和姿態(tài)信息。術中器械相對 DRF 位置及姿態(tài)的計算(器械校準)是實現(xiàn)器械追蹤的前提,其步驟將在2.2 節(jié)中做具體介紹。

      (4)導航可視化。系統(tǒng)可視化模塊旨在術中注冊完成之后引導醫(yī)生做穿刺操作,穿刺操作可分為 3 個步驟:①按照術前導航規(guī)劃在病人腹部皮膚表面尋找穿刺入口點;②調整穿刺針的入針角度,使其與術前規(guī)劃一致;③保持穿刺針的入針角度不變,將穿刺針插入病人體內直至針尖到達規(guī)劃靶點位置。圖 1 展示了穿針過程的可視化引導界面。

      圖1 腹部穿刺導航系統(tǒng)引導界面Fig. 1 The interface of needle insertion navigation

      2.2 系統(tǒng)硬件

      本文系統(tǒng)主要硬件如圖 2 所示。穿刺導航實驗中,采用了一個腹部多模態(tài)成像體模(CIRS Abdominal Phantom Model 071A,Computerized Imaging Reference Systems,Inc. Norfolk,Virginia,USA)(圖 2(b)),該體模內部包含若干大小不一的人造腫瘤。本文將兩代 Kinect 相機,即 Kinect for Windows Version 1(Kinect V1)和Kinect for Windows Version 2(Kinect V2)均集成到了穿刺導航系統(tǒng)中(http://www.microsoft.com/enus/kinectforwindows,圖 2(c)),兩代 Kinect 相機的成像性能參數(shù)如表1 所示。穿刺導航實驗使用兩根 14 G 的醫(yī)用穿刺針,并在其手柄處綁定 DRF 以實現(xiàn)實時定位(圖 2(d))。術中定位系統(tǒng)使用了 Polaris Spectra 被動光學定位系統(tǒng)(Northern Digital Inc., Waterloo, ON, Canada)(圖2(a))。整套系統(tǒng)軟件在一臺型號為 Lenovo?Thinkpad W540 的筆記本電腦(2.7 GHz 四核處理器,8 GB 內存)上運行。

      表1 兩代 Kinect 相機的主要成像參數(shù)Table 1 Main features of the Kinect for Windows V1 and V2

      Kinect 相機和穿刺針均需做標定處理以實現(xiàn)系統(tǒng)的集成。Kinect 相機具有彩色和深度兩個攝像頭,根據(jù) Herrera 方法[16]分別計算兩攝像頭的相機內部參數(shù),以實現(xiàn) Kinect 相機坐標空間中物體表面三維點云的生成,同時根據(jù) Herrera 方法可以獲取彩色和深度兩攝像頭相對位置的空間變換,進而可以實現(xiàn)彩色和深度圖像中像素點之間的一一映射。穿刺針標定使用經典的支點校準方法[17]。為了獲得 Kinect 相機坐標空間和綁定的DRF 之間相對位置的空間變換,這里采用 Tsai 和Lenz[18]提出的手眼標定方法。整套系統(tǒng)中涉及的空間變換滿足以下規(guī)律(如圖 3)。

      圖2 穿刺導航系統(tǒng)主要硬件設施Fig. 2 The hardware used in the proposed system

      圖3 穿刺導航系統(tǒng)中涉及的空間坐標變換Fig. 3 Transforms involved during registration

      2.3 無標記點術中注冊

      圖4 腹部表面自動配準流程圖Fig. 4 Work fl ow of the automatic abdominal surface registration method

      本文提出一種腹部表面自動匹配算法來計算Kinect 相機坐標空間到術前 CT 圖像空間之間的剛體變換算法的大致流程如圖 4 所示。首先,分別從術前 CT 圖像和術中 RGB-D 圖像中提取腹部三維表面。其次,分別將提取的術前CT 表面和術中 Kinect 表面投影到同一二維圖像空間內生成術前和術中表面二維形狀投影圖像,將生成的兩幅二維形狀投影圖像進行非剛體配準,計算術前和術中表面在二維空間中的對應關系,之后通過反投影將二維對應關系映射到三維空間中生成對應的三維點集。最后,利用點對匹配算法完成兩表面對應點集之間的初始配準,并結合 ICP 算法優(yōu)化初始配準結果。

      2.3.1 腹部表面自動提取

      術前 CT 圖像腹部表面提取流程為:先對原始 CT 圖像做區(qū)域增長分割[19]得到腹部區(qū)域并提取整個腹部表面,之后根據(jù)輸入的冠狀面方向的圖像像素坐標索引閾值提取腹部的上表面(如圖 4“CT 表面”)。

      在術中 Kinect 相機坐標空間中提取腹部表面時,需先從 RGB-D 圖像中提取腹部感興趣區(qū)域(Region of Interest,RoI),然后做 RoI 圖像擺正處理,最后根據(jù)相應的深度圖像生成三維表面。腹部 RoI 的提取綜合利用 Kinect 相機提供的彩色和深度信息并結合分水嶺和閾值法來實現(xiàn)(如圖 5),具體流程如下:

      (1)通過形態(tài)學分水嶺算法[20]分割彩色 RGB圖像得到分割后的掩碼圖像(圖 5(b))。

      (2)利用輸入的距離閾值分割對應的深度圖像得到分割掩碼圖像MsegDepth(圖 5(d))。

      (4)對初始分割的 RoI 圖像做形態(tài)學填充及膨脹操作即可獲得最終腹部 RoI 圖像(圖 5(f))。

      RGB-D 圖像中提取腹部 RoI 后,將矩形 RoI區(qū)域做重定向處理使其水平放置在整幅圖像中實現(xiàn)腹部 RoI 擺正。首先,計算 RoI 區(qū)域的質心并提取 RoI 區(qū)域的輪廓線,接著由質心和輪廓線上的所有像素點獲取質心到輪廓線的最短和最長距離。其中,最短和最長距離分別是質心位置到輪廓線上所有像素點位置的距離排序后的前 3% 和后 3% 的平均值。然后,由得到的質心位置和兩距離值根據(jù)原腹部 RoI 圖像重新生成一個包括矩形區(qū)域的腹部 RoI 圖像,此矩形區(qū)域的邊長和寬由兩距離值決定。最后,將原腹部 RoI 圖像剛體配準到生成的腹部 RoI 圖像上即可得到擺正后的腹部 RoI 圖像。術中 Kinect 腹部表面最終通過腹部 RoI 圖像和對應的深度圖像并結合小孔成像模型[21]生成,其中深度圖像需要經過雙邊濾波去噪處理[22]以提高表面重建精度。

      圖5 RGB-D 圖像中腹部感興趣區(qū)域提取流程Fig. 5 Abdominal RoI extraction from the RGB-D image

      2.3.2 對應表面點集搜索

      為構造術前與術中表面點集之間的對應關系,分別將提取的術前和術中表面投影到同一二維平面空間中,生成二維形狀圖像,并對生成的兩二維形狀圖像進行配準得到兩表面點集在二維空間中的對應關系,最后通過反投影確立兩表面點集之間的三維空間對應關系。對于術前二維形狀圖像的生成,將術前腹部 CT 表面投影到冠狀平面內生成二維投影圖像,根據(jù)二維投影圖像中的 RoI 區(qū)域再生成一個包含矩形區(qū)域的二值圖像即為術前二維形狀圖像。該過程與術中腹部 RoI擺正過程中利用質心和兩距離生成矩形區(qū)域的步驟類似。對于術中二維形狀圖像的生成過程,利用擺正后的腹部 RoI 圖像在術前二維形狀圖像空間中生成一個矩形區(qū)域。該矩形區(qū)域生成過程中,兩距離值的單位使用了像素點索引距離代替像素點物理距離。術前與術中二維形狀圖像做基于縮放變換[23]的非剛體配準,配準完成后即可確定兩二值圖像 RoI 區(qū)域的像素點之間的對應關系。因表面三維坐標空間到二維圖像坐標空間的對應性已經建立,則通過反投影即可由二維像素點坐標找到對應的三維點集,進而生成術前和術中表面之間對應的點集。由對應表面點集通過點對匹配算法實現(xiàn)術前和術中腹部表面的初始剛體配準,接著使用經典 ICP 算法對初始配準優(yōu)化,最終完成腹部表面的自動配準。

      3 實驗

      3.1 體模實驗

      本文利用基于第二代 Kinect 相機的腹部穿刺導航系統(tǒng)在腹部體模內部選取直徑大小不一的 6個人工腫瘤靶點做穿刺導航誤差評估。為了充分驗證導航系統(tǒng)的性能,實驗中設計了關于 2 種不同穿刺熟練程度和 3 種穿刺路徑的 2×3 因素的實驗方案。兩名具有不同穿刺經驗的穿刺操作者分別為:一名腹部介入科醫(yī)師和一名肝膽外科研究生。其中,將介入科醫(yī)師視為有臨床經驗的操作者,研究生視為無穿刺經驗的操作者。

      為比較兩代 Kinect 相機用于穿刺導航系統(tǒng)的精度差異,本文針對兩代 Kinect 相機做了導航穿刺的對比驗證。對于每一代 Kinect 相機,有經驗的穿刺操作者對腹部體模內的 6 個人工腫瘤分別沿第一和第二條路徑做穿刺導航操作并統(tǒng)計穿刺誤差。

      體模穿刺導航流程為:首先,將腹部體模固定在 CT 掃描床上并做 CT 掃描,將獲取的 CT DICOM 圖像通過醫(yī)學影像存儲與傳輸系統(tǒng)導入穿刺導航系統(tǒng),之后根據(jù) CT 圖像做穿刺路徑規(guī)劃,術中利用 Kinect 相機獲取體模術中位置信息并與術前 CT 圖像做配準完成術中注冊;然后,操作者根據(jù)導航界面沿著穿刺路徑做穿刺操作;最后,進行術后 CT 掃描,并利用術后 CT 圖像評估穿刺導航誤差。

      3.2 導航誤差評估

      為全面量化穿刺導航系統(tǒng)精度,分別對靶點配準誤差(Target Registration Error,TRE)、用戶手動誤差(User Error,UE)及靶點定位誤差(Target Positioning Error,TPE) 3 種常用的誤差量化指標進行計算。圖 6 給出了關于 3 種誤差量化指標求法的直觀表示。此外,關于 TPE 兩分量,即 TPE 橫向誤差和徑向誤差也做了相應的計算[24]。

      3.3 動物實驗

      動物實驗得到了中國科學院深圳先進技術研究院動物倫理委員會的許可,共使用了 6 只健康比格犬(每只體重大約 10 kg)。術前實驗犬經過麻醉后仰臥放置在 CT 掃描床上,綁定后插管連接呼吸機。實驗中,一名專業(yè)獸醫(yī)全程監(jiān)護實驗犬的生理狀況。實驗結束后,對實驗犬麻醉并靜脈注射高濃度氯化鉀安樂處死。在對實驗犬做導航穿刺操作前,需在肝臟內部植入人工腫瘤靶點,通過在術前 CT 引導下經皮穿刺注射 2 mL碘油于肝實質部位構造人工腫瘤。

      對于每個人工腫瘤,本文利用基于第二代Kinect 相機的穿刺導航系統(tǒng)引導穿刺,穿刺操作由一名具有多年臨床經驗的介入科醫(yī)生負責,且在實驗前已完成不少于 50 次的體模穿刺導航練習。對于每只實驗犬,種植人工腫瘤后:首先,實驗犬腹部覆蓋無菌手術布并留出一塊近似矩形區(qū)域用于介入操作,在最大呼氣狀態(tài)時中斷呼吸機獲取術前 CT 圖像;其次,根據(jù)術前 CT 圖像規(guī)劃穿刺路徑,并提取腹部術前 CT 表面;再次,術中由 Kinect 相機獲取實驗犬腹部 RGB-D圖像并生成腹部表面點云數(shù)據(jù);最后,做術前與術中腹部表面自動配準完成無標記點術中注冊(圖 7)。為實現(xiàn)肝臟術中呼吸運動補償,對腹部表面匹配算法做 GPU(Graphics Processing Units)并行加速,進而可得到實時腹部表面配準誤差曲線。當表面配準誤差達到最小值時,認為當前實驗犬呼吸狀態(tài)與術前 CT 圖像一致。此時中斷呼吸機并行穿刺操作,可在很大程度上消除因呼吸運動造成的穿刺偏移。穿刺完成后做術后CT 掃描獲取術后實驗犬腹部 CT 圖像。

      動物實驗中,基于術后 CT 圖像對穿刺導航結果做了包括 TPE、TPE 橫向分量及徑向分量的量化。因實驗犬呼吸運動的影響,導致術前 CT圖像空間中虛擬針尖的位置無法準確定位,故在動物實驗部分略去了對 TRE 和 UE 的計算。

      圖6 靶點配準誤差、用戶手動誤差及靶點定位誤差計算方法圖Fig. 6 Illustration for target registration error, user error, and target positioning error calculation

      4 實驗結果

      4.1 體模實驗

      基于第二代 Kinect 相機的導航系統(tǒng)共完成了36 次穿刺實驗。術前共做了 18 次路徑規(guī)劃,平均路徑長度為(104.0±15.8)mm,體模內部 6 個人工腫瘤的平均直徑為(10.8±1.8)mm。表2 為36 次穿刺中 3 個誤差指標(TRE、UE 及 TPE)的量化結果。表3 為 TPE 橫向和徑向分量的統(tǒng)計結果。表4 為 UE 和 TPE 關于兩種不同穿刺熟練程度及 3 條穿刺路徑的統(tǒng)計結果。此外,一次穿刺導航的平均耗時為 7 min。其中,術前規(guī)劃耗時5 min,其余 2 min 用于完成術中注冊和穿刺操作,穿刺操作平均用時為(1.69±0.82)min。單次無標記點注冊耗時為(15.47±0.6)s?;诘谝淮鶮inect 相機的穿刺導航試驗一共做了 24 次,表5為基于兩代 Kinect 相機的穿刺導航誤差和注冊耗時的統(tǒng)計結果。

      圖7 動物實驗中腹部表面自動匹配流程圖Fig. 7 Illustration of automatic abdominal surface matching in one animal experiment case

      表2 體模實驗穿刺導航誤差統(tǒng)計結果Table 2 Error statistics in phantom experiments

      表3 靶點定位誤差橫向和徑向分量統(tǒng)計結果Table 3 The lateral and longitudinal errors of target positioning error

      表4 穿刺熟練程度和路徑的用戶手動誤差、靶點定位誤差均值及標準差Table 4 The mean value and standard deviation of user error and target positioning error

      表5 基于兩代 Kinect 相機的穿刺導航誤差及注冊耗時Table 5 Navigation errors and registration time compared between Kinect V1 and V2

      利用配對t檢驗對 TRE 關于兩代 Kinect 相機及 UE 關于兩種穿刺熟練程度的均值一致性進行檢驗分析。結果表明,使用 Kinect V2 做穿刺導航計算的 TRE 要明顯小于使用 Kinect V1 計算的 TRE(t11=2.844,P<0.05),有經驗操作者對應的 UE 與無經驗操作者的 UE 無顯著性差異(t17=1.105,P=0.284)。

      使用單因素方差分析對 UE 關于 3 條穿刺路徑的均值一致性檢驗分析發(fā)現(xiàn),UE 關于 3種不同路徑無顯著性差異(P=0.487,0.999,0.488)。

      使用二因素方差分析對 TPE 關于穿刺熟練程度及穿刺路徑的均值一致性檢驗分析發(fā)現(xiàn),不同穿刺熟練程度和 3 條穿刺路徑下的 TPE 亦無顯著性差異(P=0.222,0.804)。

      對 TPE 與 TRE、TPE 與 UE 做相關分析發(fā)現(xiàn),TPE 與 TRE、UE 均相關(如圖 8),但相關系數(shù)較小。

      圖8 靶點定位誤差與靶點配準誤差及用戶手動誤差的線性相關圖Fig. 8 Illustration for the linear correlation between target registration error and target positioning error, user error and target positioning error

      4.2 動物實驗

      對 6 只比格犬做了穿刺導航驗證,其中 3 只實驗犬肝臟區(qū)域分別種植了 2 個腫瘤,其他 3 只則分別種植 3 個人工腫瘤,共計 15 個人工腫瘤靶點。人工腫瘤的平均直徑為(4.6±2.2)mm,腫瘤平均深度為(63.8±14.9)mm。平均注冊誤差為(1.04±0.14)mm,經過 GPU 加速后,單次注冊耗時是 115 ms。表6 為 15 次穿刺導航誤差,包括 TPE、TPE 橫向及徑向分量的統(tǒng)計結果。

      5 討論

      本文構建了一套基于第二代 Kinect 相機的腹部肝穿刺導航系統(tǒng)。對于導航精度,臨床上一般要求穿刺誤差不大于 5 mm[25]。動物實驗中,由15 次穿刺導航試驗得到導航誤差 TPE 與 5 mm做單樣本t檢驗發(fā)現(xiàn),兩者無顯著性差異(t14=1.997,P>0.05)。表明基于第二代 Kinect 相機的腹部穿刺導航系統(tǒng)的導航精度能夠滿足臨床要求。與相關研究報道的導航精度(表7)相比,本文系統(tǒng)精度與相關研究報道的導航精度接近。Seitel 等[12]基于第一代 Kinect 相機開發(fā)了一套腹部穿刺導航系統(tǒng),動物實驗結果統(tǒng)計得到 TPE 的中值為 19.4 mm,本文系統(tǒng)精度相對該值有明顯提升。

      本文中,基于無標記點術中注冊的導航誤差TRE 的均值為 4.26 mm,該值與 Kilgus 等[11]報道的表面配準精度(4.2 mm)接近。第二代 Kinect相機相對第一代 Kinect 相機對應的 TRE 明顯較小,主要是因為第二代 Kinect 的深度成像精度相對第一代 Kinect 相機有較大幅度提升[13]。

      手動誤差 UE 與 Seitel 等[12]報道的手動誤差接近(3.8 mm)。有臨床經驗操作者的用戶手動誤差與無臨床經驗的操作者相當,說明臨床醫(yī)生使用本文系統(tǒng)時學習曲線較為平坦。三種不同路徑中穿刺導航對應的 UE 無顯著差異,表明本文系統(tǒng)的可視化方案適用于各種不同的穿刺路徑。

      表6 動物實驗穿刺導航誤差統(tǒng)計結果Table 6 Error statistics for animal experimental results

      表7 若干腹部穿刺導航研究中報告的導航誤差Table 7 Errors for several relevant works on abdominal intervention navigation

      TPE 與 TRE 及 UE 沒有呈現(xiàn)強相關關系,是因為 TRE 方向與 UE 方向不總是一致的,同時TPE 也不能直接由 TRE 和 UE 估計得到,且有時因為 TRE 和 UE 方向的沖突可能出現(xiàn) TPE 小于TRE 的現(xiàn)象,這個在基于 Kinect V1 穿刺導航實驗結果里有所體現(xiàn)。因為 TPE 受 TRE 和 UE 共同影響,因此 TPE 的變化有時和 TRE 或 UE 的變化不一致。

      穿刺導航誤差(TRE、UE 及 TPE)的來源具有多樣性。對于無標記點注冊方法,其注冊精度主要取決于表面的提取和配準過程。TRE 會因不準確的術前腹部 CT 表面提取、術中 Kinect 較低的成像精度及不準確的表面對應性搜索而增大。同時,術前和術后 CT 圖像的配準精度也影響 TRE的計算。在本文中,因為實驗過程中腹部體模一直固定在 CT 掃描床上沒有發(fā)生移動,故術前和術后 CT 圖像之間的配準使用的是單位變換。對于本文系統(tǒng),穿刺針的校準誤差(<1.00 mm)及 Kinect 相機的手眼校準誤差(<1.50 mm)也對TRE 的影響較大。此外,術中穿刺完成后能否及時準確地將針尖定位在術前圖像中的位置也會影響 TRE 的計算。其中,穿刺針在校準后發(fā)生彎曲或 DRF 偏移均會導致 TRE 增大。UE 主要受系統(tǒng)導航界面的友好程度及用戶穿刺和系統(tǒng)使用經驗的影響。對于 TPE,除了 TRE 和 UE 之外,還受呼吸運動的影響。正常呼吸情況下,肝臟運動的幅度能達到 10 mm。盡管本文中采用了呼吸屏氣法做肝臟呼吸運動補償,但呼吸運動并不具有嚴格的重復性,不同周期同一相位下的呼吸也會發(fā)生一定程度的變化,因此呼吸屏氣法并不能完全消除因呼吸運動造成的肝臟位置相對術前圖像的位移。穿刺針插入肝臟內部時會造成組織發(fā)生一定程度的形變,進而導致穿刺誤差增大,但通過補償穿針引起的組織形變來提高穿刺精度在實現(xiàn)上存在很大困難。此外,術前及術后 CT 圖像中,針尖和腫瘤質心的定位精度也會對 TRE、UE 及 TPE 產生影響。

      文中所述的表面匹配方法是一種擴展的形狀質心匹配算法。因術中與術前表面是在不同成像模態(tài)下獲取的數(shù)據(jù),兩表面之間存在因成像模式不同而產生的畸變,具體表現(xiàn)為表面拓撲結構及點云密度等的不同,同時術中提取的腹部表面與術前 CT 表面也不是完全一致,基于質心匹配的配準方法只利用了表面點云的質心及長短軸的若干有限點構建的兩表面的對應性實現(xiàn)表面粗配準,配準的精度和魯棒性均較差,即使利用 ICP算法優(yōu)化初始配準結果,最終也很難得到一個高精度的匹配結果。本文使用了兩個二維形狀圖像做兩表面對應性構建,相比傳統(tǒng)質心匹配方法,其用于對應性構建的信息更加豐富,從而提升了算法的精度和魯棒性。鑒于本文方法的實現(xiàn)主要是依賴于術前及術中表面的相似性,當兩表面形狀差別較大時,匹配結果相對傳統(tǒng)質心配準并無明顯優(yōu)勢。此外,本文提出的表面匹配算法主要用于腹部軟組織手術導航系統(tǒng)的術中注冊,適用性具有特殊的針對性。

      本文提出了一種基于腹部表面自動配準的無標記點注冊方法,其主要貢獻在于 ICP 算法的初始化。實現(xiàn)腹部表面配準時,ICP 算法初始化是一個難點。腹部表面過于光滑無法提取魯棒性強且區(qū)分度高的表面特征實現(xiàn)基于特征的表面匹配[28]。本文提出了一種基于全局形狀相似性的腹部表面匹配算法,從而避免了表面特征提取。腹部表面對應性搜索的關鍵是對生成的術前及術中二維形狀圖像進行基于縮放變換的圖像配準,該配準的實現(xiàn)主要是依賴術前及術中表面的相似性。術前二維形狀圖像是將整個 CT 腹部表面沿圖像空間y軸方向垂直投影到 CT 圖像冠狀面的一個切面圖像上形成的一個包含矩形區(qū)域RoI 的二值圖像,其中矩形 RoI 代表整個腹部表面的輪廓形狀。術中二維形狀圖像是通過深度圖像中提取的腹部 RoI 區(qū)域生成的,該區(qū)域的生成很大程度上受到了 Kinect 相機相對病人腹部位置的影響。為了保證獲取的 RGB-D 圖像中包含全部腹部表面區(qū)域且提取的腹部 RoI 區(qū)域的形狀與術前表面的二維投影區(qū)域類似,需要將 Kinect 相機粗略地放置在病人腹部的正上方且調整其z軸方向大致與腹部表面垂直,該過程可在術前通過肉眼直接評估 Kinect 相機位置并做相應調整。

      本文驗證了第一代和第二代 Kinect 相機應用于穿刺導航系統(tǒng)的可行性。Kinect 相機的成像誤差分為系統(tǒng)誤差和隨機誤差兩類。系統(tǒng)誤差一般通過相機校準來減小。本文中第二代 Kinect 相機使用了默認的相機參數(shù)進行三維表面的重建和彩色深度圖像像素坐標對應性構建,第一代 Kinect相機使用 Herrera 等[16]方法做相機校準,但校準后的相機成像精度并沒有得到明顯提升。隨機誤差一般是由成像對象本身造成的,可通過圖像濾波處理減小。本文使用了雙邊濾波對獲取的深度圖像做光滑去噪處理。同時,Kinect 相機的深度成像精度與相機設置的距離成反比,即 Kinect 相機距離成像對象表面越遠,其深度成像精度越低。因此,適當縮短 Kinect 相機到成像對象之間的距離,可以提升相機的成像精度。

      此外,本文研究主要存在兩個不足:(1)系統(tǒng)中同時使用 Polaris Spectra 光學定位系統(tǒng)和Kinect 相機獲取術中病人位置信息,使整個系統(tǒng)配置及工作流程相對復雜。若術中 Kinect 相機能夠同時用作成像及定位設備,則可大大降低系統(tǒng)成本并簡化系統(tǒng)工作流程。(2)腹部穿刺導航系統(tǒng)中,軟組織呼吸運動補償最常用的方法是呼吸屏氣法[3,12,26,29],但運動補償?shù)男Ч鄬πg中腫瘤實時跟蹤的方法仍然較低。有研究報道,術前呼吸運動統(tǒng)計模型結合腹部表面運動追蹤的方法做呼吸運動補償?shù)男Ч@著[30],后續(xù)的研究將著重在基于腹部表面的腹部呼吸運動模型的構建并將其集成到本文提出的穿刺導航系統(tǒng)中。

      6 結 論

      本文設計并實現(xiàn)了一套基于 Kinect 相機的腹部穿刺介入導航系統(tǒng),通過腹部表面自動配準實現(xiàn)了無標記點術中注冊。對于腹部表面的初始配準,提出一種基于二維形狀投影圖像配準的腹部表面自動匹配算法。同時,分別將兩代 Kinect 相機集成到傳統(tǒng)穿刺導航系統(tǒng)中,用以驗證并比較兩代 Kinect 相機應用于腹部穿刺導航系統(tǒng)的可行性。采用 1 個通用的腹部穿刺體模和 6 只健康比格犬開展穿刺導航的實驗驗證,并對導航誤差(TRE、UE 及 TPE)進行全面的統(tǒng)計和分析。結果表明,本文穿刺導航系統(tǒng)的導航精度能滿足一般臨床要求,第二代 Kinect 相機應用于腹部穿刺導航的精度要高于第一代相機。后續(xù)研究將圍繞基于深度相機的腹部器官實時呼吸運動補償開展。

      [1]Peters TM. Image-guidance for surgical procedures[J]. Physics in Medicine and Biology, 2006, 51(14):R505-R540.

      [2]Yaniv Z, Cleary K. Image-guided procedures: a review [R]. Technical Report CAIMR TR-2006-3, Washington, DC, USA: Georgetown University,2006.

      [3]Banovac F, Tang J, Xu S, et al. Precision targeting of liver lesions using a novel electromagnetic navigation device in physiologic phantom and swine[J]. Medical Physics, 2005, 32(8): 2698-2705.

      [4]Maier-Hein L, Tekbas A, Seitel A, et al.In vivoaccuracy assessment of a needle-based navigation system for CT-guided radiofrequency ablation of the liver [J]. Medical Physics, 2008, 35(12): 5385-5396.

      [5]Cash DM, Sinha TK, Chapman WC, et al.Incorporation of a laser range scanner into image-guided liver surgery: surface acquisition,registration, and tracking [J]. Medical Physics,2003, 30(7): 1671-1682.

      [6]Nicolau SA, Brenot J, Gof fi n L, et al. A structured light system to guide percutaneous punctures in interventional radiology [C]// SPIE’s International Symposium on Optical and Digital Image Processing, 2008: 700016-700016-11.

      [7]Mersmann S, Seitel A, Erz M, et al. Calibration of time-of-flight cameras for accurate intraoperative surface reconstruction [J]. Medical Physics, 2013,40(8): 082701.

      [8]Mersmann S, Müller M, Seitel A, et al. Time-offlight camera technique for augmented reality in computer-assisted interventions [C]// SPIE’s International Society for Optical Engineering on Medical Imaging, 2011.

      [9]Bauer S, Seitel A, Hofmann H, et al. Real-Time Range Imaging in Health Care: A Survey [M].Berlin: Springer, 2013: 228-254.

      [10]Wang XL, Stolka PJ, Boctor EM, et al. The Kinect as an interventional tracking system [C]//Proceedings of SPIE-The International Society for Optics and Photonics, 2012.

      [11]Kilgus T, Heim E, Haase S, et al. Mobile markerless augmented reality and its application in forensic medicine [J]. International Journal of Computer Assisted Radiology and Surgery, 2014, 10(5): 573-586.

      [12]Seitel A, Bellemann N, Hafezi M, et al. Towards markerless navigation for percutaneous needle insertions [J]. International Journal of Computer Assisted Radiology and Surgery, 2015, 11(1): 107-117.

      [13]Sarbolandi H, Lefloch D, Kolb A. Kinect range sensing: structured-light versus time-of- fl ight Kinect[J]. Computer Vision and Image Understanding,2015, 139: 1-20.

      [14]Besl PJ, McKay ND. A method for registration of 3D shapes [J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 1992, 14(2):239-256.

      [15]Mosaliganti K, Gelas A, Cowgill P, et al. An optimizedN-dimensional hough fi lter for detecting spherical image objects [J]. Insight Journal, 2009.

      [16]Herrera D, Kannala J, Heikkil? J. Joint depth and color camera calibration with distortion correction[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2012, 34(10): 2058-2064.

      [17]Birkfellner W, Watzinger F, Wanschitz F, et al.Calibration of tracking systems in a surgical environment [J]. IEEE Transactions on Medical Imaging, 1998, 17(5): 737-742.

      [18]Tsai RY, Lenz RK. A new technique for fully autonomous and efficient 3D robotics hand/eye calibration [J]. IEEE Transactions on Robotics and Automation, 1989, 5(3): 345-358.

      [19]Gonzalez RC, Woods RE. Digital Image Processing(2nd Edition) [M]. Englewood: Prentice Hall,2002.

      [20]Beare R, Beare R, Lehmann G. The watershed transform in ITK-discussion and new developments[J]. Insight Journal, 2006: 1-24.

      [21]Hartley R, Zisserman A. Multiple View Geometry in Computer Vision [M]. Cambridge: Cambridge University Press, 2003: 1865-1872.

      [22]Seitel A, Dos Santos TR, Mersmann S, et al.Adaptive bilateral fi lter for image denoising and its application to in-vitro time-of- fl ight data [C]// SPIE Medical Imaging: Visualization, Image-Guided Procedures and Modeling, 2011, 7964: 796423-796423-8.

      [23]Borg I, Groenen PJF. Modern Multidimensional Scaling: Theory and Applications [M]. New York:Springer Science & Business Media, 1997.

      [24]Wallach D, Toporek G, Weber S, et al. Comparison of freehand-navigated and aiming device-navigated targeting of liver lesions [J]. The International Journal of Medical Robotics and Computer Assisted Surgery: MRCAS, 2013, 10(1): 35-43.

      [25]Hammill CW, Clements LW, Stefansic JD, et al.Evaluation of a minimally invasive image-guided surgery system for hepatic ablation procedures [J].Surgical Innovation, 2013, 21(4): 419-426.

      [26]Krücker J, Xu S, Venkatesan A, et al. Clinical utility of real-time fusion guidance for biopsy and ablation [J]. Journal of Vascular and Interventional Radiology, 2011, 22(4): 515-524.

      [27]Nicolau SA, Pennec X, Soler L, et al. An augmented reality system for liver thermal ablation: design and evaluation on clinical cases [J]. Medical Image Analysis, 2009, 13(3): 494-506.

      [28]Dos Santos TR, Seitel A, Kilgus T, et al. Poseindependent surface matching for intra-operative soft-tissue marker-less registration [J]. Medical Image Analysis, 2014, 18(7): 1101-1114.

      [29]Yaniv Z, Cheng P, Wilson E, et al. Needle-based interventions with the image-guided surgery toolkit(IGSTK): from phantoms to clinical trials [J]. IEEE Transactions on Biomedical Engineering, 2009,57(4): 922-933.

      [30]Fassi A, Schaerer J, Fernandes M, et al. Tumor tracking method based on a deformable 4D CT breathing motion model driven by an external surface surrogate [J]. International Journal of Radiation Oncology Biology Physics, 2014, 88(1):182-188.

      猜你喜歡
      體模導航系統(tǒng)靶點
      維生素D受體或是糖尿病治療的新靶點
      中老年保健(2021年3期)2021-12-03 02:32:25
      ICRP 145號出版物《成人網(wǎng)格型參考計算體?!穬热菡?/a>
      輻射防護(2020年6期)2021-01-28 08:30:26
      說說“北斗導航系統(tǒng)”
      腫瘤免疫治療發(fā)現(xiàn)新潛在靶點
      ACR體模與Magphan SMR 170體模MRI性能測試對比研究*
      “北斗”導航系統(tǒng)是怎樣煉成的
      一種GNSS/SINS容錯深組合導航系統(tǒng)設計
      解讀全球第四大導航系統(tǒng)
      奧德熱塑體模聯(lián)合真空墊固定技術提高鼻咽癌放療擺位精度的分析
      癌癥進展(2016年9期)2016-08-22 11:33:26
      兩種全身骨密度儀試驗體模的比較研究
      中國測試(2016年12期)2016-02-07 02:51:02
      平罗县| 天祝| 鄄城县| 广元市| 镇巴县| 客服| 信阳市| 资兴市| 阿克陶县| 波密县| 靖边县| 循化| 赞皇县| 嘉峪关市| 修水县| 靖州| 海淀区| 和政县| 尚志市| 福贡县| 井冈山市| 阿尔山市| 克什克腾旗| 盘山县| 和林格尔县| 堆龙德庆县| 刚察县| 烟台市| 凉山| 凉城县| 新巴尔虎左旗| 合川市| 临汾市| 岚皋县| 江川县| 平原县| 什邡市| 炉霍县| 桦川县| 巴林右旗| 呼玛县|