韓笑 么瑞軒
摘? 要:通常,機(jī)械零件的測(cè)量應(yīng)滿足高精度和高效率的要求,并且由于表面光滑、紋理不完整和結(jié)構(gòu)復(fù)雜,機(jī)械零件的測(cè)量更具挑戰(zhàn)性。若要取得非常精確的對(duì)應(yīng)結(jié)果,請(qǐng)使用絕對(duì)置換對(duì)應(yīng),首先是對(duì)影像進(jìn)行極座標(biāo)校正,然后使用以點(diǎn)為基礎(chǔ)的對(duì)應(yīng)方法,將影像的左右立體聲化。因此建議采取相應(yīng)的方法以提高相位曲線的質(zhì)量,并在相位提取和立體匹配過程中提高重建的零件云的精度?;诖?,本篇文章對(duì)面向復(fù)雜機(jī)械零件形貌測(cè)量的高精度三維重建方法進(jìn)行研究,以供參考。
關(guān)鍵詞:復(fù)雜機(jī)械零件;形貌測(cè)量;高精度;三維重建方法
1三維重建相關(guān)概述
三維重建(3Dreconstruction)是一個(gè)過程,用于創(chuàng)建真實(shí)場(chǎng)景的曲面形狀,廣泛用于運(yùn)輸、工業(yè)、國(guó)防和其他行業(yè)。常用的三維重建方法通過將活動(dòng)編碼的圖案投影到被測(cè)場(chǎng)景上來實(shí)現(xiàn)被測(cè)場(chǎng)景的高密度三維重建。由于編碼模型具有活動(dòng)的投影特性,因此此方法也稱為“結(jié)構(gòu)光三維測(cè)量方法”。與紅外編碼和顏色編碼方法相比,基于藍(lán)邊投影的結(jié)構(gòu)化光三維測(cè)量方法具有高測(cè)量精度和高測(cè)量精度的優(yōu)點(diǎn),對(duì)被測(cè)對(duì)象的環(huán)境光線和表面反射特性等外部因素不敏感,因此適用由于結(jié)構(gòu)化光源的三維測(cè)量方法本質(zhì)上是一種光學(xué)三維測(cè)量方法,限制了測(cè)量區(qū)域和被測(cè)零件的自發(fā)光效果,因此只能從一個(gè)角度測(cè)量被測(cè)對(duì)象表面的局部三維形狀信息。若要取得零件表面的完整3D形狀資訊,您必須變更度量零件的不同透視(也稱為3D掃描),并將局部3D度量資訊注冊(cè)到統(tǒng)一的世界座標(biāo)系統(tǒng)中。此過程的關(guān)鍵在于精確恢復(fù)每個(gè)測(cè)量視圖在世界坐標(biāo)系中的狀態(tài)。研究人員通過提高連續(xù)配準(zhǔn)精度和三維掃描結(jié)構(gòu)中的三維輕量化設(shè)備的全局優(yōu)化來消除累積誤差。
2實(shí)驗(yàn)及結(jié)果分析
本文的實(shí)驗(yàn)對(duì)象是FSW逆變器,圖1顯示了該部分的前視圖和后視圖。零件表面結(jié)構(gòu)復(fù)雜,輪廓變化劇烈,銅、硬區(qū)域多,頂部有許多波紋,是復(fù)雜的機(jī)械零件之一。在測(cè)試過程中,會(huì)將頻率為70、64和59的條紋圖案投影到零件表面,每個(gè)圖案共有4條條紋,共12條條紋。提取零件表面的調(diào)制邊圖像后,將使用相位轉(zhuǎn)移方法分析圖像以獲得壓縮相位圖。然后用多頻外推法將相位展開70頻率,得到絕對(duì)相位圖。在實(shí)驗(yàn)中,您可以使用不同的步驟校正方法或步驟對(duì)應(yīng)方法。
2.1逐區(qū)域相位校正方法實(shí)驗(yàn)結(jié)果及分析
為了了解逐步校正方法的效果,本文將使用中值濾波和全強(qiáng)度去噪方法進(jìn)行比較,結(jié)果如圖2所示。圖2(a)是原始的相位圖,并且在遠(yuǎn)離相位曲線的地方有紅色圓圈和紅色刻度線標(biāo)記的跳線。圖2 b使用中值濾波方法;圖2 c使用全強(qiáng)度去噪方法;圖2(d)使用了本文檔中建議的區(qū)域特定的增量修復(fù)方法。為了進(jìn)行比較,可以看到中間值濾波方法可以消除跳變誤差和一些雜色,但它會(huì)產(chǎn)生新的雜色,如圖2(b)中的黃色圓圈所示?!笇?shí)色去底色」方法可以消除潛變,但不能移除遠(yuǎn)離曲線的雜點(diǎn)。本文首先根據(jù)公式去除跳變誤差,然后用區(qū)域相關(guān)相位校正方法去除遠(yuǎn)離相位曲線的噪聲點(diǎn)。測(cè)試表明,這種方法可以消除與相位曲線相距很遠(yuǎn)的跳線誤差和雜色,如圖2(d)所示。
2.2結(jié)合曲線擬合的相位匹配方法實(shí)驗(yàn)結(jié)果及分析
利用基于點(diǎn)基的等價(jià)方法、基于模型的等價(jià)方法和該方法對(duì)FSW逆變器進(jìn)行重構(gòu),并對(duì)重構(gòu)后的點(diǎn)云進(jìn)行比較分析,如圖3所示。為了更好地比較這三種方法在重建復(fù)雜零件時(shí)的優(yōu)缺點(diǎn),增加了噪聲點(diǎn)和空洞的暴露區(qū)域,例如波紋的邊界區(qū)域、特定弧度的平面區(qū)域和僅使用一臺(tái)相機(jī)拍攝的波紋的邊界區(qū)域。它們的鋸齒狀邊界區(qū)域以紅色矩形框表示;具有特定半徑的平面區(qū)域以黃色矩形方塊表示;只有從一個(gè)相機(jī)拍攝的鋸齒波的邊界區(qū)域以綠色方框表示。
在綠色矩形盒中標(biāo)記的大部分區(qū)域在拍攝過程中只使用一臺(tái)相機(jī)拍攝,同時(shí)它位于具有較小半徑且每個(gè)像素的變化幅度較小的雕刻的頂部和底部相交處。因此,在此行業(yè)中,很容易導(dǎo)致不兼容,從而導(dǎo)致重建結(jié)果出現(xiàn)一系列雜色。由于這種不兼容很難在立體匹配階段消除,因此基于點(diǎn)序列的匹配方法和基于模型的匹配方法都具有上述噪聲點(diǎn)簇,如圖3 a和圖3(b)所示的綠色橢圓。此文件中的方法會(huì)根據(jù)每個(gè)像素與鄰近像素之間的平均距離來精細(xì)地對(duì)應(yīng)差異,以有效地移除此類沖突點(diǎn),如圖3(c)所示。為了更好地證明該算法的有效性,將三種方法重建的點(diǎn)云與標(biāo)準(zhǔn)零件模型進(jìn)行了比較,并計(jì)算了平均分布。
3研究展望
在機(jī)械零件的三維重建中,不僅要考慮重建方法的精度,還要考慮行業(yè)的實(shí)時(shí)要求。本文中機(jī)械零件的三維模型可以很好地利用結(jié)構(gòu)化輕量化的三維重建技術(shù)進(jìn)行重建,但還存在一些不足,今后的改進(jìn)和完善可著重于以下幾個(gè)方面:(1)這里然后,諸如ZSD、SGBM和AD等算法在望遠(yuǎn)鏡陣列中可以保持左右相機(jī)的互易性,以獲得更精確的平行圖像并改進(jìn)點(diǎn)云。(2)多頻非均勻三維重建中的相位精度直接影響點(diǎn)云重建精度。在結(jié)構(gòu)化的光機(jī)中,存在非線性的反問題,導(dǎo)致了預(yù)測(cè)的藍(lán)色邊的非藍(lán)色變化,從而導(dǎo)致了四步偏移中的相位誤差,并影響了點(diǎn)云的重建精度。結(jié)構(gòu)性光學(xué)儀器的非線性誤差主要是伽瑪變換引起的。在跟蹤研究中,可以執(zhí)行光學(xué)機(jī)器或灰度系數(shù)校正的非線性反校正,以使邊緣圖像更接近理想的藍(lán)色條紋,并提高點(diǎn)云的重建精度。(3)本文件使用四個(gè)階段轉(zhuǎn)換和三個(gè)階段的異質(zhì)結(jié)來計(jì)算階段,因此左右相機(jī)必須從測(cè)量的目標(biāo)收集12個(gè)圖面影像,而過多的影像則無法促進(jìn)機(jī)械零件的即時(shí)重建。今后,我們將探索深度學(xué)習(xí)技術(shù)和變量方法的組合,以減少投影模型的數(shù)量,并實(shí)現(xiàn)實(shí)時(shí)的三維重建,以確保階段的準(zhǔn)確性。
結(jié)束語(yǔ)
機(jī)械零件是復(fù)雜機(jī)械設(shè)備的重要組成部分。軸的數(shù)字模型重建為機(jī)械制造和裝配奠定了基礎(chǔ),提高了裝配效率和自動(dòng)化水平,在工業(yè)生產(chǎn)中非常重要。為了提高后續(xù)識(shí)別工作的搜索效率,建立了Kd樹的數(shù)據(jù)結(jié)構(gòu),并利用最優(yōu)鄰域?qū)崿F(xiàn)了基于特征描述的聚類識(shí)別算法。分割后,每個(gè)屬性點(diǎn)云都可以使用基本庫(kù)模板識(shí)別和檢索,然后將屬性匹配到組件庫(kù)中以確定組件的幾何屬性和結(jié)構(gòu)組成。最后,研究了基于無抽樣一致性算法的點(diǎn)云模型參數(shù)化問題。為計(jì)算模型的軸和半徑、沿軸投影點(diǎn)云以及計(jì)算模型高度等參數(shù)安裝曲面。此時(shí),將定義零件的模型類型、結(jié)構(gòu)特性和模型參數(shù)。重建系統(tǒng)從一個(gè)角度收集零件信息,從而克服了Kinect傳感器采集精度低和數(shù)據(jù)不完整的問題,滿足了軸重建的要求,重建了完整的三維模型。
參考文獻(xiàn):
[1]韓瑞路.航空發(fā)動(dòng)機(jī)葉片類零件三維重建與缺陷檢測(cè)關(guān)鍵技術(shù)研究[D].北方工業(yè)大學(xué),2020.000148.