向澤君 滕德貴 袁長(zhǎng)征 龍川
摘 要:建筑立面信息是指建筑物與外部空間接觸面的空間分布及屬性信息,如何從點(diǎn)云數(shù)據(jù)中提取建筑立面信息是點(diǎn)云數(shù)據(jù)處理中的熱點(diǎn)和難點(diǎn)。為解決傳統(tǒng)格網(wǎng)密度算法在建筑立面點(diǎn)云提取時(shí)評(píng)價(jià)標(biāo)準(zhǔn)單一、適應(yīng)性不強(qiáng)的問(wèn)題,綜合分析建筑區(qū)各類(lèi)典型地物點(diǎn)云的高程分布、投影密度、法向量分布等局部及整體空間特征,構(gòu)建由點(diǎn)云單點(diǎn)語(yǔ)義、格網(wǎng)語(yǔ)義及區(qū)域語(yǔ)義組成的多層次語(yǔ)義特征描述子,在此基礎(chǔ)上提出一種建筑立面點(diǎn)云提取方法,針對(duì)建筑立面點(diǎn)云在不同層次語(yǔ)義上的特點(diǎn)設(shè)置合理閾值,通過(guò)逐層篩選實(shí)現(xiàn)建筑立面點(diǎn)云的精確提取。試驗(yàn)結(jié)果表明:該算法能在低層、高層以及超高層建筑區(qū)等不同場(chǎng)景海量點(diǎn)云中快速準(zhǔn)確地實(shí)現(xiàn)建筑立面點(diǎn)云提取,算法精度、效率、適應(yīng)性良好。
關(guān)鍵詞:建筑立面;格網(wǎng)密度算法;點(diǎn)云;格網(wǎng);語(yǔ)義;算法
中圖分類(lèi)號(hào):TU198?? 文獻(xiàn)標(biāo)志碼:A?? 文章編號(hào):2096-6717(2020)04-0099-09
收稿日期:2020-10-21
基金項(xiàng)目:重慶市技術(shù)創(chuàng)新與應(yīng)用發(fā)展專(zhuān)項(xiàng)重點(diǎn)項(xiàng)目(cstc2019jscx-fxydX0083、cstc2019jscx-mbdx0029)
作者簡(jiǎn)介:向澤君(1965- ),男,高級(jí)工程師,主要從事點(diǎn)云數(shù)據(jù)處理研究,E-mail:xiangzj@cqkcy.com。
袁長(zhǎng)征(通信作者),男,高級(jí)工程師,E-mail:changzhengyuan@126.com。
Received:2020-10-21
Foundation items:Key Projects of Chongqing Technological Innovation and Application Development (No. cstc2019jscx-fxydX0083, cstc2019jscx-mbdx0029)
Author brief:XIANG Zejun (1965- ), senior engineer, main research interest: point cloud data processing, E-mail: xiangzj@cqkcy.com.
YUAN Changzheng (corresponding author), senior engineer, E-mail: yangkejia@tom.com.
An extraction method for building facade point cloud based on multi-level semantic features
XIANG Zejun, TENG Degui, YUAN Changzheng, LONG Chuan
(Chongqing Surveying Institute,Chongqing 401121, P. R. China)
Abstract: Building facade information refers to the spatial distribution and attribute information of the contact surface between buildings and external space. How to extract building facade information from point cloud data is a hot and difficult problem in point cloud data processing. In order to solve the problems of single evaluation standard and weak adaptability of traditional grid density algorithm in building facade point cloud extraction,? this paper analyzed the local and overall spatial characteristics such as elevation distribution, projection density and normal vector distribution of various typical surface feature point clouds in the construction area, and constructed a multi-level semantic feature descriptor composed of point cloud single point semantics, grid semantics and regional semantics. Based on this descriptor and the reasonable threshold which was set according to the semantic characteristics of building facade point cloud at different levels, a multi-level semantic feature extraction method was proposed to extract the building facade point cloud accurately layer by layer. The experimental results show that this algorithm can be used to quickly and accurately extract the building facades of low, high buildings and super high buildings from point clouds. Overall, this algorithm achieves a high precision, a high efficiency and a good adaptability.
Keywords:building facade; grid density algorithm; point cloud; grid; semantics; algorithm
建筑立面信息在建構(gòu)筑物模型重建[1]、老舊小區(qū)改造[2]等方面具有重要作用,傳統(tǒng)的立面測(cè)量方法包括全站儀法、測(cè)距儀法及攝影測(cè)量法[3]等,存在信息獲取不全、作業(yè)效率低等問(wèn)題。三維激光掃描可快速獲取具有三維坐標(biāo)及顏色、強(qiáng)度、紋理等屬性的海量點(diǎn)云,極大提升了空間地理信息的獲取能力[4-5],也為建筑立面圖測(cè)繪提供了一種更新、更快的技術(shù)手段[6]。由于點(diǎn)云中包含的地物類(lèi)型多樣、點(diǎn)密度分布不均且存在各種噪聲,快速準(zhǔn)確地提取建筑立面一直是點(diǎn)云數(shù)據(jù)處理的難點(diǎn)。
學(xué)者們針對(duì)點(diǎn)云分類(lèi)與提取進(jìn)行了大量研究,主要算法分為模型擬合法[7-8]、屬性聚類(lèi)法[9-10]、區(qū)域生長(zhǎng)法[11-13]、機(jī)器學(xué)習(xí)算法[14-20]以及平面投影法[21-23]等。其中,模型擬合法[7-8]基于平面、球體、圓柱體等幾何體的數(shù)學(xué)模型進(jìn)行點(diǎn)云分隔,處理速度快,但只適用于規(guī)則地物的提取;屬性聚類(lèi)法[9-10]利用點(diǎn)云的特征進(jìn)行聚類(lèi)和分隔,其結(jié)果較穩(wěn)定,但無(wú)法區(qū)分特征相似的地物,且處理復(fù)雜場(chǎng)景時(shí)耗時(shí)較長(zhǎng);區(qū)域生長(zhǎng)法[11-13]首先選取種子點(diǎn),然后搜索鄰域內(nèi)滿(mǎn)足一定相似性標(biāo)準(zhǔn)的點(diǎn)進(jìn)行聚類(lèi),通過(guò)不斷生長(zhǎng)完成分割,算法結(jié)果依賴(lài)于種子點(diǎn)及生長(zhǎng)準(zhǔn)則的選取,選取不當(dāng)將導(dǎo)致過(guò)生長(zhǎng)或欠生長(zhǎng);面向三維點(diǎn)云的機(jī)器學(xué)習(xí)算法[14-20]框架還有待完善,且需要大量樣本數(shù)據(jù)進(jìn)行訓(xùn)練,分類(lèi)結(jié)果具有一定隨機(jī)性。
點(diǎn)云平面投影方法[21-23]將三維點(diǎn)云投影到二維平面并進(jìn)行格網(wǎng)劃分得到點(diǎn)云特征圖像,然后采用圖像處理方法進(jìn)行分類(lèi),具有算法簡(jiǎn)單、運(yùn)算速度快等優(yōu)點(diǎn),在點(diǎn)云分類(lèi)方面得到了廣泛應(yīng)用。史文中等[21]基于點(diǎn)云投影密度進(jìn)行建筑物立面提取,由于分類(lèi)標(biāo)準(zhǔn)單一,提取結(jié)果容易受其他地物干擾,在地形起伏較大、地物復(fù)雜多樣時(shí)效果難以保證;盧秀山等[22]通過(guò)三維和二維格網(wǎng)進(jìn)行綜合判斷,并基于RANSAC算法去噪,提高了分類(lèi)精度,但算法復(fù)雜度高,運(yùn)算效率較低。邵磊等[23]提出了一種結(jié)合多種投影影像提取建筑物的方法,但該方法首先要進(jìn)行地面點(diǎn)云提取,增加了算法復(fù)雜度,且地面點(diǎn)提取精度將直接影響后續(xù)建筑物提取精度。
針對(duì)上述傳統(tǒng)格網(wǎng)算法存在的問(wèn)題,引入點(diǎn)云的單點(diǎn)語(yǔ)義、格網(wǎng)語(yǔ)義和區(qū)域語(yǔ)義,構(gòu)建基于多層次語(yǔ)義特征的建筑立面點(diǎn)云提取方法,并對(duì)不同場(chǎng)景的點(diǎn)云數(shù)據(jù)進(jìn)行提取,驗(yàn)證算法的有效性。
1 基于多層次語(yǔ)義的建筑立面點(diǎn)云提取算法
1.1 建筑區(qū)典型地物點(diǎn)云空間特性
建筑區(qū)地物可分為地面(含低矮植被)、建筑物、桿狀物、樹(shù)木及其他地物類(lèi)型[24],通過(guò)地面三維激光掃描儀獲取的部分地物點(diǎn)云及平面投影如圖1所示,其具體特性如下:
1)建筑物點(diǎn)云特征。
建筑物外形較為規(guī)則,高度較高,點(diǎn)云集中在建筑物外立面,投影到XOY平面后呈線(xiàn)性連續(xù)分布,立面投影區(qū)域點(diǎn)云密度大,建筑物內(nèi)部點(diǎn)云密度小。此外,由于建筑立面一般垂直于地面,點(diǎn)云法向量垂直角集中分布在90°附近,標(biāo)準(zhǔn)差較小。
2)地面點(diǎn)云特征。
地面點(diǎn)云高程值較小,投影到平面后呈面狀均勻分布,法向量垂直角分散分布,標(biāo)準(zhǔn)差較大。
3)桿狀地物點(diǎn)云特征。
電桿、路燈等桿狀地物一般垂直于地面且有一定高度,投影面積小,點(diǎn)密度較大。立桿部分與附屬部件(如燈泡、攝像頭等)法向量垂直角差異較大。
4)樹(shù)木點(diǎn)云特征。
樹(shù)木具有一定高度,且樹(shù)冠范圍較樹(shù)干大,單棵樹(shù)木投影后呈近似圓形分布,投影范圍內(nèi)點(diǎn)密度分布較為均勻,法向量垂直角標(biāo)準(zhǔn)差較大。
計(jì)算圖1中各點(diǎn)云的法向量,并分別選取10 000個(gè)來(lái)計(jì)算其垂直角(法向量與Z軸夾角),分布特征如圖2和表1所示:
1.2 點(diǎn)云多層次語(yǔ)義特征
根據(jù)各類(lèi)地物的空間特征,結(jié)合建筑立面提取的需求,構(gòu)建點(diǎn)云單點(diǎn)語(yǔ)義、格網(wǎng)語(yǔ)義和區(qū)域語(yǔ)義3類(lèi)特征。
1)單點(diǎn)語(yǔ)義特征。
對(duì)于點(diǎn)P,將其高程值PZ作為單點(diǎn)語(yǔ)義特征,即
P={PZ}(1)
基于該特征,通過(guò)設(shè)置低點(diǎn)閾值Zlow可將低于該值的非建筑點(diǎn)云剔除;若大于高點(diǎn)閾值Zhigh的點(diǎn)全部為建筑立面點(diǎn),則可將該閾值以上的點(diǎn)標(biāo)記為建筑立面點(diǎn)。
2)格網(wǎng)語(yǔ)義特征。
將點(diǎn)云進(jìn)行平面投影并按一定尺寸劃分格網(wǎng)G,計(jì)算格網(wǎng)內(nèi)的點(diǎn)云密度GD、最高點(diǎn)與最低點(diǎn)高差GH作為單元格網(wǎng)的語(yǔ)義特征,即
G={GD,GH}(2)
由于建筑物具有一定高度且在立面處的點(diǎn)云投影密度較大,可將格網(wǎng)密度或高差低于一定閾值的非建筑立面點(diǎn)云剔除。
3)區(qū)域語(yǔ)義特征。
將滿(mǎn)足格網(wǎng)語(yǔ)義特征閾值要求的格網(wǎng)定義為興趣格網(wǎng),相互連通的興趣格網(wǎng)集合定義為一個(gè)對(duì)象區(qū)域A,對(duì)每個(gè)區(qū)域采用安德魯算法(Andrews Algorithm)計(jì)算凸包,統(tǒng)計(jì)凸包范圍內(nèi)格網(wǎng)總數(shù)AT以及興趣格網(wǎng)數(shù)量AC,按式(3)計(jì)算興趣格網(wǎng)比例。
AR=ACAT(3)
建筑物對(duì)應(yīng)區(qū)域AC較大但AR較小;桿狀物及樹(shù)木對(duì)應(yīng)區(qū)域AC較小但AR較大。此外,由于建筑立面點(diǎn)云法向量垂直角標(biāo)準(zhǔn)差A(yù)N明顯小于其他地物,可作為立面點(diǎn)云提取的一個(gè)重要特征。綜上,將AC、AR以及AN作為對(duì)象區(qū)域的語(yǔ)義特征,即
A={AC,AR,AN}(4)
以上定義的點(diǎn)云單點(diǎn)語(yǔ)義、格網(wǎng)語(yǔ)義及區(qū)域語(yǔ)義分別代表地物的單點(diǎn)特征、局部特征和整體特征,形成了點(diǎn)云多層次語(yǔ)義特征描述子,如表2及圖3所示。
1.3 算法步驟
基于上述多層次語(yǔ)義特征描述子,提出一種建筑立面點(diǎn)云提取算法:首先通過(guò)單點(diǎn)語(yǔ)義特征,即點(diǎn)的高程值剔除低于建筑物的點(diǎn)云,同時(shí)提取出一定高度以上僅包含建筑物的高層建筑點(diǎn)云;然后將剩余點(diǎn)云及高層建筑點(diǎn)云投影到XOY平面并劃分格網(wǎng),根據(jù)格網(wǎng)語(yǔ)義特征選取興趣格網(wǎng);最后對(duì)興趣格網(wǎng)進(jìn)行連通性分析得到對(duì)象區(qū)域,并基于區(qū)域語(yǔ)義特征實(shí)現(xiàn)建筑立面點(diǎn)云的精確提取,具體步驟如下。
1)數(shù)據(jù)預(yù)處理。
數(shù)據(jù)預(yù)處理主要是通過(guò)裁剪、濾波等方式剔除點(diǎn)云中的噪點(diǎn),減少對(duì)后續(xù)數(shù)據(jù)處理的干擾;此外,按一定采樣間隔進(jìn)行重采樣,去除過(guò)密點(diǎn)云,提高運(yùn)算效率。
2)基于單點(diǎn)語(yǔ)義特征的初步分類(lèi)。
設(shè)置低點(diǎn)閾值Zlow,剔除低于該值的非建筑點(diǎn)云;設(shè)置高點(diǎn)閾值Zhigh,提取高于該值的建筑立面點(diǎn),即
p(PZ)=PZ Zlow≤PZ≤Zhigh,待分類(lèi)點(diǎn) PZ>Zhigh,高層建筑立面點(diǎn)(5) 閾值設(shè)置時(shí),要確保低于Zlow無(wú)建筑立面點(diǎn),高于Zhigh只有建筑立面點(diǎn)。 3)點(diǎn)云平面投影及單元格網(wǎng)劃分。 將步驟2)得到的待分類(lèi)點(diǎn)以及高層建筑立面點(diǎn)投影到XOY平面,投影計(jì)算公式為 X′,Y′,Z′=X,Y,Z110+0,0,h (6) 式中:X、Y、Z為點(diǎn)云原始坐標(biāo);X′、Y′、Z′為投影后坐標(biāo);h為投影面高程,一般取0。投影后即可按一定間隔d進(jìn)行格網(wǎng)劃分,設(shè)點(diǎn)云平面坐標(biāo)最大、最小值分別為Xmin、Ymin、Xmax、Ymax,則格網(wǎng)的行列數(shù)R、C分別為 R=(Xmax-Xmin)/d C=Ymax-Ymin/d(7) 設(shè)點(diǎn)i坐標(biāo)為(xi,yi,zi),則對(duì)應(yīng)格網(wǎng)行列號(hào)ri、ci為 ri=floorxi-Xmind ci=flooryi-Ymind(8) 式中:floor為小于該值的最大整數(shù),且行列號(hào)從0開(kāi)始計(jì)數(shù)。 4)基于格網(wǎng)語(yǔ)義特征的二次分類(lèi)。 設(shè)格網(wǎng)I內(nèi)的點(diǎn)數(shù)為N,對(duì)應(yīng)三維點(diǎn)云坐標(biāo)為(XIi,YIi,ZIi),i=1,2,…,N,則該格網(wǎng)的點(diǎn)密度GDI、高差GHI分別為 GDI=N/d2(9) GHI=max1≤i≤NZIi-min1≤i≤NZIi(10) 設(shè)置點(diǎn)密度閾值GD_th和高差閾值GH_th,并基于式(11)所示準(zhǔn)則選取建筑物立面對(duì)應(yīng)興趣格網(wǎng)。 g(GD,GH)= (GD>GD_th)∧(GH>GH_th),興趣格網(wǎng) [(GD>GD_th)∧(GH>GH_th)],非興趣格網(wǎng)(11) 點(diǎn)密度閾值GD_th根據(jù)點(diǎn)云密度與格網(wǎng)尺寸d進(jìn)行確定;高差閾值GH_th應(yīng)略小于范圍內(nèi)最矮建筑物的高度。 5)基于區(qū)域語(yǔ)義特征的精確分類(lèi)。 對(duì)興趣格網(wǎng)進(jìn)行連通性分析得到多個(gè)對(duì)象區(qū)域,設(shè)區(qū)域J包含的興趣格網(wǎng)數(shù)量為S,對(duì)應(yīng)凸包范圍內(nèi)格網(wǎng)總數(shù)為T(mén),則該區(qū)域語(yǔ)義特征ACJ、ARJ分別為 ACJ=S(12) ARJ=ST(13) 計(jì)算區(qū)域內(nèi)點(diǎn)云法向量及垂直角,并統(tǒng)計(jì)垂直角標(biāo)準(zhǔn)差A(yù)NJ,然后設(shè)置各特征閾值A(chǔ)C_th、AR_th及AN_th,基于式(14)所示準(zhǔn)則進(jìn)行建筑立面點(diǎn)云的精確分類(lèi)。 a(AC,AR)=(AC>AC_th)∧(AR [(AC>AC_th)∧(AR 興趣格網(wǎng)數(shù)量閾值A(chǔ)C_th根據(jù)格網(wǎng)尺寸與建筑物大小進(jìn)行設(shè)置;根據(jù)測(cè)試,比例閾值A(chǔ)R_th一般設(shè)置為20%~30%,法向量垂直角標(biāo)準(zhǔn)差閾值A(chǔ)N_th一般設(shè)置為5°~10°。 最后,查詢(xún)平面投影位于建筑立面區(qū)域內(nèi)的點(diǎn)云,與步驟(2)提取的高層建筑點(diǎn)云取并集,即得到滿(mǎn)足多層次語(yǔ)義特征的建筑立面點(diǎn)云。 算法流程如圖4所示。 2 實(shí)驗(yàn)分析 目前,基于屬性聚類(lèi)算法的點(diǎn)云分類(lèi)方法在多款主流的點(diǎn)云商業(yè)處理軟件中方得到了實(shí)現(xiàn),使用較為廣泛。本文算法是對(duì)傳統(tǒng)格網(wǎng)密度算法的改進(jìn),因此,分別采用本文算法、傳統(tǒng)格網(wǎng)密度(DoPP)算法以及屬性聚類(lèi)算法對(duì)不同場(chǎng)景的點(diǎn)云數(shù)據(jù)進(jìn)行建筑立面提取,并對(duì)提取結(jié)果進(jìn)行評(píng)價(jià)以驗(yàn)證本文算法的提取精度、效率及適用性。 2.1 實(shí)驗(yàn)數(shù)據(jù) 實(shí)驗(yàn)數(shù)據(jù)為低層建筑區(qū)、高層建筑區(qū)以及超高層建筑區(qū)3種典型場(chǎng)景的實(shí)測(cè)地面三維激光點(diǎn)云,如圖5所示。 3個(gè)數(shù)據(jù)集的基本特征如表3所示。 2.2 實(shí)驗(yàn)方法 首先通過(guò)人工編輯方式對(duì)3個(gè)數(shù)據(jù)集中的建筑立面進(jìn)行精細(xì)提取,并將其作為評(píng)價(jià)算法精度的標(biāo)準(zhǔn);然后分別用3種算法提取建筑立面點(diǎn)云,對(duì)提取結(jié)果的精度、適應(yīng)性及效率進(jìn)行對(duì)比分析。其中本文算法及DoPP算法采用C++語(yǔ)言編程實(shí)現(xiàn),屬性聚類(lèi)算法采用某商業(yè)軟件點(diǎn)云分類(lèi)功能模塊。 2.2.1 參數(shù)設(shè)置 針對(duì)不同數(shù)據(jù)集的實(shí)際特點(diǎn),設(shè)置了本文算法以及DoPP算法的各項(xiàng)參數(shù),為便于比較,對(duì)兩種算法設(shè)置相同的格網(wǎng)尺寸和點(diǎn)云密度參數(shù),如表4所示。 2.2.2 算法提取 圖6、圖7、圖8分別展示了采用人工精細(xì)分類(lèi)、本文算法、DoPP算法以及屬性聚類(lèi)算法對(duì)3個(gè)數(shù)據(jù)集的建筑立面提取結(jié)果。 2.2.3 評(píng)價(jià)指標(biāo) 以人工提取結(jié)果作為真實(shí)值,分別按式(15)、(16)、(17)、(18)計(jì)算各算法提取結(jié)果的真正類(lèi)率(True Positive Rate,TPR)、假正類(lèi)率(False Positive Rate,F(xiàn)PR)、準(zhǔn)確率(Accuracy,Acc)和交并比(Intersection over Union,IoU)4個(gè)精度指標(biāo),同時(shí),統(tǒng)計(jì)運(yùn)算時(shí)間來(lái)評(píng)價(jià)算法效率。 TPR=TPTP+FN(15) FPR=FPFP+TN(16) Acc=TP+TNTP+TN+FP+FN(17) IoU=TPTP+FP+FN(18) 式中:TP、FP、TN、FN的含義可用混淆矩陣表示。 為評(píng)價(jià)算法效率,采用3種算法對(duì)所有數(shù)據(jù)集分別處理10次,計(jì)算平均用時(shí),測(cè)試平臺(tái)基本參數(shù)如表6所示。 3種分類(lèi)方法的評(píng)價(jià)指標(biāo)如表7所示。 2.3 結(jié)果分析 從圖6、圖7、圖8以及表7中可以看出: 1)提取精度方面:除了高層建筑區(qū)的TPR指標(biāo),本文算法其他各項(xiàng)指標(biāo)均為最優(yōu)。對(duì)于高層建筑區(qū),DoPP算法的TPR指標(biāo)最高,即該算法提取的真實(shí)建筑立面點(diǎn)最多,但FPR指標(biāo)同樣很高,說(shuō)明結(jié)果中包含了大量錯(cuò)分點(diǎn),圖7(c)也證明了這一結(jié)論。 2)場(chǎng)景適應(yīng)性方面:本文算法對(duì)3種不同場(chǎng)景的點(diǎn)云均提取出了較為完整的建筑立面,僅在點(diǎn)云過(guò)于稀疏的立面和擋墻處(圖6(b)A、B處;圖7(b)C、D處;圖8(b)E、F、G處)有部分缺失;DoPP算法在低層及高層建筑區(qū)的錯(cuò)分點(diǎn)云較多(圖6(c)、圖7(c)),在超高層建筑上部立面缺失明顯(圖8(c));屬性聚類(lèi)算法在高層建筑區(qū)提取效果較好,但無(wú)法剔除大面積的密集植被,且超高層建筑立面缺失嚴(yán)重(圖8(d))。 3)運(yùn)算效率方面:與DoPP算法相比,由于本文算法顧及的特征更加全面,運(yùn)算時(shí)間略有增加,但相差均小于1 s,且都在10 s以?xún)?nèi);屬性聚類(lèi)算法運(yùn)算時(shí)間較長(zhǎng)。 綜合各項(xiàng)評(píng)價(jià)指標(biāo),本文算法在提取精度及不同場(chǎng)景的適應(yīng)性方面均明顯優(yōu)于DoPP算法及屬性聚類(lèi)算法;在運(yùn)算效率方面與于DoPP算法相當(dāng),與屬性聚類(lèi)算法相比優(yōu)勢(shì)明顯。 3 結(jié)論 結(jié)合各類(lèi)地物點(diǎn)云的單點(diǎn)特征、局部特征及整體特征構(gòu)建對(duì)應(yīng)的語(yǔ)義屬性,并提出了一種基于多層次語(yǔ)義特征的建筑物立面提取方法。該方法的主要貢獻(xiàn)有: 1)綜合考慮點(diǎn)云高程、平面投影點(diǎn)密度及分布特征、法向量垂直角等多層次語(yǔ)義特征,實(shí)現(xiàn)對(duì)建筑立面的精確描述,提高了提取結(jié)果的正確率和完整性。 2)將三維分類(lèi)問(wèn)題轉(zhuǎn)化到二維平面,算法效率高。 3)算法參數(shù)設(shè)置靈活,適應(yīng)性好,可滿(mǎn)足不同場(chǎng)景的提取需求。 通過(guò)不同場(chǎng)景點(diǎn)云的提取實(shí)驗(yàn)結(jié)果表明:該方法可快速有效的提取復(fù)雜環(huán)境中的建筑立面點(diǎn)云,與傳統(tǒng)DoPP算法及屬性聚類(lèi)算法相比,提取精度及適應(yīng)性顯著提高。目前,算法參數(shù)需根據(jù)點(diǎn)云的實(shí)際情況進(jìn)行設(shè)定,下一步將研究參數(shù)的自適應(yīng)設(shè)置,提高算法的實(shí)用性,并在三維建模、智慧城市建設(shè)等領(lǐng)域推廣應(yīng)用。參考文獻(xiàn): [1] 羅德安, 廖麗瓊, 吳志群. 基于點(diǎn)云的建筑立面模型快速重建[J]. 測(cè)繪通報(bào), 2013(12):21-24. LUO D A, LIAO L Q, WU Z Q. Rapid reconstruction building facade models from point cloud [J]. Bulletin of Surveying and Mapping, 2013(12): 21-24. (in Chinese) [2] 邵萬(wàn)里. Agisoft PhotoScan在立面測(cè)量中的應(yīng)用[J]. 城市勘測(cè), 2019(2): 74-76. SHAO W L. Application of agisoft PhotoScan in facade surveying [J]. Urban Geotechnical Investigation & Surveying, 2019(2): 74-76. (in Chinese) [3] 袁凌云, 李慧, 李杰, 等. 三維激光掃描技術(shù)在建筑立面照明設(shè)計(jì)中的應(yīng)用[J]. 測(cè)繪通報(bào), 2020(1): 164-166. YUAN L Y, LI H, LI J, et al. Application of 3D laser scanning technology in building facade lighting design [J]. Bulletin of Surveying and Mapping, 2020(1): 164-166. (in Chinese) [4] 楊必勝, 梁福遜, 黃榮剛. 三維激光掃描點(diǎn)云數(shù)據(jù)處理研究進(jìn)展、挑戰(zhàn)與趨勢(shì)[J]. 測(cè)繪學(xué)報(bào), 2017, 46(10): 1509-1516. YANG B S, LIANG F X, HUANG R G. Progress, challenges and perspectives of 3D LiDAR point cloud processing [J]. Acta Geodaetica et Cartographica Sinica, 2017, 46(10): 1509-1516. (in Chinese) [5] 袁長(zhǎng)征, 滕德貴, 胡波, 等. 三維激光掃描技術(shù)在地鐵隧道變形監(jiān)測(cè)中的應(yīng)用[J]. 測(cè)繪通報(bào), 2017(9): 152-153. YUAN C Z, TENG D G, HU B, et al. Application of 3D laser scanning technology in subway tunnel deformation monitoring [J]. Bulletin of Surveying and Mapping, 2017(9): 152-153. (in Chinese) [6] 李婉. 地面三維激光掃描技術(shù)對(duì)建筑物立面測(cè)量的應(yīng)用[J]. 測(cè)繪通報(bào), 2016(Sup2): 241-244. LI W. Application of ground 3D laser scanning technology to building elevation measurement [J]. Bulletin of Surveying and Mapping, 2016(Sup2): 241-244. (in Chinese) [7]? SCHNABEL R, WAHL R, KLEIN R. Efficient RANSAC for point-cloud shape detection [J]. Computer Graphics Forum, 2007, 26(2): 214-226. [8]? YANG B S, DONG Z. A shape-based segmentation method for mobile laser scanning point clouds [J]. ISPRS Journal of Photogrammetry and Remote Sensing, 2013, 81: 19-30. [9]? ZHAN Q M, LIANG Y, LIANG Y B. A point cloud segmentation method based on vector estimation and color clustering [C]//The 2nd International Conference on Information Science and Engineering, December 4-6, 2010, Hangzhou, China. IEEE, 2010: 3463-3466. [10] 王曉輝, 吳祿慎, 陳華偉, 等. 應(yīng)用改進(jìn)的粒子群優(yōu)化模糊聚類(lèi)實(shí)現(xiàn)點(diǎn)云數(shù)據(jù)的區(qū)域分割[J]. 光學(xué)精密工程, 2017, 25(4): 1095-1105. WANG X H, WU L S, CHEN H W, et al. Region segmentation of point cloud data based on improved particle swarm optimization fuzzy clustering [J]. Optics and Precision Engineering, 2017, 25(4): 1095-1105. (in Chinese) [11] 趙傳, 張保明, 陳小衛(wèi), 等. 一種基于LiDAR點(diǎn)云的建筑物提取方法[J]. 測(cè)繪通報(bào), 2017(2): 35-39. ZHAO C, ZHANG B M, CHEN X W, et al. A method of extracting building based on LiDAR point clouds [J]. Bulletin of Surveying and Mapping, 2017(2): 35-39. (in Chinese) [12]? VO A V, TRUONG-HONG L, LAEFER D F, et al. Octree-based region growing for point cloud segmentation [J]. ISPRS Journal of Photogrammetry and Remote Sensing, 2015, 104: 88-100. [13] 盧學(xué)良, 童曉沖, 張永生, 等. 城市密集點(diǎn)云的區(qū)域生長(zhǎng)表面構(gòu)網(wǎng)改進(jìn)算法[J]. 武漢大學(xué)學(xué)報(bào)(信息科學(xué)版), 2016, 41(6): 832-837. LU X L, TONG X C, ZHANG Y S, et al. An improved region-growing surface triangulation algorithm for urban dense point cloud [J]. Geomatics and Information Science of Wuhan University, 2016, 41(6): 832-837. (in Chinese) [14]? CHARLES R Q, HAO S, MO K C, et al. PointNet: Deep learning on point sets for 3D classification and segmentation [C]//2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), July 21-26, 2017, Honolulu, HI, USA. IEEE, 2017: 77-85. [15] LI Y Y, BU R, SUN M C, et al. PointCNN: Convolution on X-transformed points [C]∥Advances in Neural Information Processing Systems, December 3-8, 2018, Montréal, Canada, 2018: 820-830. [16]? PAOLETTI M E, HAUT J M, PLAZA J, et al. A new deep convolutional neural network for fast hyperspectral image classification [J]. ISPRS Journal of Photogrammetry and Remote Sensing, 2018, 145: 120-147. [17] JADERBERG M, SIMONYAN K, ZISSERMAN A, et al. Spatial transformer networks [C]∥Advances in Neural Information Processing Systems, December 7-12, 2015, Montreal, Quebec, Canada, 2015: 2017-2025. [18]? LI Z Q, CAI X, LIU Y, et al. A novel Gaussian-bernoulli based convolutional deep belief networks for image feature extraction [J]. Neural Processing Letters, 2019, 49(1): 305-319. [19]? KOMARICHEV A, ZHONG Z C, HUA J. A-CNN: annularly convolutional neural networks on point clouds [C]//2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), June 15-20, 2019, Long Beach, CA, USA. IEEE, 2019: 7413-7422. [20]? YE X Q, LI J M, HUANG H X, et al. 3D recurrent neural networks with context fusion for point cloud semantic segmentation[M]//Computer Vision-ECCV 2018. Cham: Springer International Publishing, 2018: 415-430. [21] 史文中, 李必軍, 李清泉. 基于投影點(diǎn)密度的車(chē)載激光掃描距離圖像分割方法[J]. 測(cè)繪學(xué)報(bào), 2005, 34(2): 95-100. SHI W Z, LI B J, LI Q Q. A method for segmentation of range image captured by vehicle-borne laserscanning based on the density of projected points [J]. Acta Geodaetica et Cartographic Sinica, 2005, 34(2): 95-100. (in Chinese) [22] 盧秀山, 邢愷強(qiáng), 劉如飛, 等. 一種三維激光點(diǎn)云中建筑物立面漸進(jìn)分割方法[J]. 測(cè)繪科學(xué), 2019, 44(12): 7-13. LU X S, XING K Q, LIU R F, et al. Gradual segmentation method for building facade in 3D laser point cloud [J]. Science of Surveying and Mapping, 2019, 44(12): 7-13. (in Chinese) [23] 邵磊, 董廣軍, 于英, 等. 車(chē)載激光掃描數(shù)據(jù)中建筑物立面快速提取[J]. 地球信息科學(xué)學(xué)報(bào), 2018, 20(4): 462-470. SHAO L, DONG G J, YU Y, et al. A fast method of building extraction from mobile LiDAR scanning data [J]. Journal of Geo-Information Science, 2018, 20(4): 462-470. (in Chinese) [24] 吳芬芳, 李清泉, 熊卿. 基于車(chē)載激光掃描數(shù)據(jù)的目標(biāo)分類(lèi)方法[J]. 測(cè)繪科學(xué), 2007, 32(4): 75-77, 195. WU F F, LI Q Q, XIONG Q. On classification of vehicle-borne laser-scanning data [J]. Science of Surveying and Mapping, 2007, 32(4): 75-77, 195. (in Chinese) (編輯 章潤(rùn)紅)