吳 彥
(滁州職業(yè)技術(shù)學(xué)院 藝術(shù)設(shè)計系,安徽 滁州 239000)
隨著三維視覺信息處理技術(shù)的發(fā)展,結(jié)合數(shù)字圖像處理技術(shù),并將其應(yīng)用于建筑室內(nèi)空間布局中,這在建筑室內(nèi)空間規(guī)劃設(shè)計中具有重要意義.近年來,通過引入視覺信息識別技術(shù),采用視覺參數(shù)特征分析方法,構(gòu)建建筑室內(nèi)空間布局特征提取分析模型,實現(xiàn)建筑室內(nèi)空間布局檢測,有利于提高建筑室內(nèi)空間布局規(guī)劃質(zhì)量[1].隨著建筑室內(nèi)空間結(jié)構(gòu)越來越復(fù)雜,建筑室內(nèi)空間對內(nèi)部結(jié)構(gòu)空間布局的要求越來越高.為此,該領(lǐng)域研究者對建筑室內(nèi)空間布局進行了研究,并取得了一定成果.
王麗莉[2]提出了一種建筑室內(nèi)空間布局特征提取方法,即采用三維視覺特征信息重構(gòu)的方法,建立了建筑室內(nèi)空間布局視覺檢測模型,并以此構(gòu)建建筑室內(nèi)空間布局視覺特征提取系統(tǒng),來提高空間特征提取的能力.該方法通過三維視覺對空間布局的特征進行提取,提取后的特征有助于空間布局優(yōu)化,但針對特定的空間布局參數(shù)考慮較少,存在一定提取偏差.蔣夢菲[3]根據(jù)建筑室內(nèi)空間布局視覺圖像的尺度分解結(jié)果,結(jié)合圖像識別方法,并根據(jù)圖像的規(guī)則性特征分布,得到建筑室內(nèi)空間布局視覺分析方法,從而實現(xiàn)建筑室內(nèi)空間布局視覺特征提取.該方法解決了建筑室內(nèi)空間布局視覺特征提取中存在關(guān)鍵特征點模糊度較大、智能規(guī)劃設(shè)計能力欠佳的問題.劉天亮等[4]提出由粗至精的室內(nèi)場景的空間布局估計方法.該方法首先通過獲取室內(nèi)空間局部直線閾值,將室內(nèi)空間劃分為不同階段;然后,引用全卷積神經(jīng)網(wǎng)絡(luò)法提取空間邊界特征值;最后,將特征值進行融合,實現(xiàn)對特征的提取.該方法可有效提取室內(nèi)布局的邊界特征,但提取過程較簡單,也不全面.
基于此,本文提出基于進化深度學(xué)習(xí)的建筑室內(nèi)空間布局特征提取方法.首先,構(gòu)建多分辨率視覺信息采集模型;其次,對建筑室內(nèi)空間布局視覺圖像進行融合及進化深度學(xué)習(xí);然后,通過線性濾波對建筑室內(nèi)空間布局視覺特征采集和優(yōu)化提??;最后,采用進化深度學(xué)習(xí)算法,實現(xiàn)室內(nèi)空間布局特征提取.
為了提取建筑室內(nèi)空間布局特征,對室內(nèi)空間布局參數(shù)進行分析,需要再構(gòu)建出建筑室內(nèi)空間布局視覺的超分辨多參數(shù)識別模型.建筑室內(nèi)空間參數(shù)提取過程見圖1.
圖1 建筑室內(nèi)空間布局參數(shù)提取過程
由圖1 可知,在建筑室內(nèi)空間參數(shù)提取中,首先,采集視覺圖像,并對視覺信息特征進行分析,確定建筑室內(nèi)空間布局視覺圖像點;其次,建立建筑室內(nèi)空間布局視覺特征參數(shù)融合模型;然后,在多維視覺空間中,采用分塊圖像檢測的方法[4],匹配分塊參數(shù),對圖像進行檢測;最后,確定建筑室內(nèi)空間布局視覺圖像的邊緣像素特征量估計值,即
實現(xiàn)邊緣像素特征重組.其中,yhr為建筑室內(nèi)空間布局圖像邊緣像素值;ku(c)為建筑室內(nèi)空間布局視覺圖像的邊界像素點中心;bv(t)為建筑室內(nèi)空間布局視覺圖像分塊結(jié)果值.
由于建筑室內(nèi)空間布局視覺圖像的像素點數(shù)量較多,需要進一步融合.設(shè)置建筑室內(nèi)空間布局視覺圖像幀間的統(tǒng)計特征量為R([a,b],c)和T([a,b],c),構(gòu)建建筑室內(nèi)空間布局視覺圖像像素點融合模型[5]為
基于像素點融合基礎(chǔ),設(shè)置E([a,b],c)為建筑室內(nèi)空間布局視覺融合特征量;D([a,b],c)為圖像幀序列.采用圖2 所示的濾波器,實現(xiàn)對建筑室內(nèi)空間布局視覺像素點的濾波處理.
圖2 建筑室內(nèi)空間布局視覺像素點濾波處理
在建筑室內(nèi)空間視覺圖像像素點的采集和預(yù)處理基礎(chǔ)上,為實現(xiàn)建筑室內(nèi)空間布局特征提取,需要對其提取的空間布局特征量進行獲取[6].通過邊緣參數(shù)分布式檢測方法,構(gòu)建建筑室內(nèi)空間布局視覺圖像退化特征演化分析模型[7],得到建筑室內(nèi)空間布局參數(shù)分布序列為
其中,Δt為視覺信息采樣的時間間隔;p代表建筑室內(nèi)空間布局視覺特征分布像素集.設(shè)ber為建筑室內(nèi)空間布局視覺圖像分布域空間(a w,a m,an)中的標(biāo)準(zhǔn)化參數(shù)值,f= (1 ,2,3, ···,n)為建筑室內(nèi)空間布局視覺圖像的顏色參數(shù),得到建筑室內(nèi)空間布局視覺特征分量為
建筑室內(nèi)空間布局視覺圖像的模糊特征分布區(qū)域內(nèi)的高階矩[8]為
其中,
采用高分辨的多維空間分塊組合方法,得到建筑室內(nèi)空間布局視覺分布像素集:
建立建筑室內(nèi)空間布局視覺圖像的一階和二階參數(shù)分析模型,利用特征參量反映的建筑層次化布局特點,確定建筑室內(nèi)空間布局視覺融合的規(guī)則函數(shù)為
在第k層的特征圖中,提取建筑室內(nèi)空間布局視覺信息分量,從而獲取建筑室內(nèi)空間布局特征量.
根據(jù)獲取的建筑室內(nèi)空間布局特征量,引入進度深化學(xué)習(xí)算法對建筑室內(nèi)空間布局特征進行全面提取[9].
假設(shè)建筑室內(nèi)視覺特征提取參數(shù)為nsp,線性無偏估計值為z⌒(s0),則建筑室內(nèi)空間布局視覺圖像稀疏性特征分解的最佳準(zhǔn)則滿足:
其中,Lr為多維空間分塊圖像的尺度信息;C rt為多維空間圖像特征量的稀疏程度值.
在此基礎(chǔ)上,設(shè)置建筑室內(nèi)空間布局特征的模糊狀態(tài)參數(shù)為
采用快速傅立葉變換方法[10],重建建筑室內(nèi)空間布局視覺圖像的動態(tài)輪廓分布特征點,計算建筑室內(nèi)空間布局視覺圖像輸出梯度信息[11],得到輸出值為
通過邊緣參數(shù)分割和融合濾波檢測,采用約束模型構(gòu)造的方法,得到建筑室內(nèi)空間布局視覺分辨參數(shù)為
其中,xt,xp2,xc為建筑室內(nèi)空間布局視覺信息分量空間布局視覺圖像的區(qū)間參數(shù).由此可得出建筑室內(nèi)空間布局參數(shù)分布序列邊緣參數(shù)為
其中g(shù)i為建筑室內(nèi)空間布局參數(shù)分布序列邊緣值.
在建筑室內(nèi)空間布局特征提取過程中,由于確定的特征參數(shù)受到多種因素的干擾,導(dǎo)致特征提取的收斂性較差.因此,本文采用進化深度學(xué)習(xí)算法對參數(shù)的收斂性進行控制,從而保證室內(nèi)空間布局特征的提取精度[12].進化深度學(xué)習(xí)是一種人工智能算法,該算法被廣泛應(yīng)用于多個領(lǐng)域.它是一種將自然算法和進化機制融合的智能算法,具有快速的尋優(yōu)能力,且獲得的最優(yōu)解可以解決研究過程中遇到的難 題.因此,本文借助進化深度學(xué)習(xí)算法實現(xiàn)建筑室內(nèi)空間布局特征的提取.
設(shè)定進化深度學(xué)習(xí)的收斂閾值滿足
通過線性濾波的高分辨的信息融合檢測,結(jié)合邊緣區(qū)域像素重組,實現(xiàn)對建筑室內(nèi)空間布局視覺特征提取分割.分割式為
其中,qr為建筑室內(nèi)空間布局視覺特征提取的分辨率;xcv為分塊時間間隔參數(shù);vrt為特征提取的聯(lián)合信息熵.
通過二維參數(shù)擬合方法,得到建筑室內(nèi)空間布局視覺特征提取的分辨多維空間分塊圖像的擬合系數(shù)j= {jl,l∈ 3}.在單個像素值分布區(qū)域i={il,l∈ 1}內(nèi)進行建筑室內(nèi)空間布局視覺特征提取的多層次分塊,得到室內(nèi)空間布局多層級的特征信息為
根據(jù)多尺度機器學(xué)習(xí)結(jié)果,重組建筑室內(nèi)空間布局視覺圖像,用四元組(nc,nb,nm,nr)來表示建筑室內(nèi)空間布局視覺特征提取模糊度,ye,yr是建筑室內(nèi)空間布局視覺特征提取的實體集.結(jié)合恢復(fù)圖像的約束參數(shù)解析結(jié)果,實現(xiàn)對建筑室內(nèi)空間布局視覺圖像的背景值融合,輸出值為
選取近鄰域函數(shù)xy組,建立建筑室內(nèi)空間布局視覺特征檢測的模糊度分布集,從中間層特征復(fù)用的角度出發(fā),得到建筑室內(nèi)空間布局視覺特征邊界特征量:
其中,goi和gui分別為建筑室內(nèi)空間布局視覺特征提取的分辨率和信息熵.
采用進化深度學(xué)習(xí)算法,提高建筑室內(nèi)空間布局特征提取的收斂性水平,其實現(xiàn)流程見圖3.
圖3 基于進化深度學(xué)習(xí)的特征提取實現(xiàn)
為了驗證本文方法的有效性,筆者進行了實驗分析.實驗在MATLAB 平臺中進行,操作系統(tǒng)為WINDOWS 10 系統(tǒng).測試環(huán)境參數(shù)如表1所示.
表1 實驗參數(shù)設(shè)定
根據(jù)表1 的建筑室內(nèi)空間布局視覺參數(shù)設(shè)定,進行建筑室內(nèi)空間布局特征提取仿真,得到建筑室內(nèi)空間布局視覺采樣環(huán)境圖,見圖4.
圖4 建筑室內(nèi)空間布局視覺采樣環(huán)境
為了驗證所提方法的有效性,實驗分析了本文方法、文獻[2]和文獻[3]方法對樣本空間布局圖像特征的提取精度,得到的結(jié)果見圖5.
圖5 不同方法樣本空間特征提取精度分析
由圖5 可知,隨著提取時間不斷增加時,3種方法對樣本空間特征提取精度存在一定差異.其中,所提方法對樣本空間特征提取精度最高約為98%;文獻[2]方法對樣本空間特征提取精度最高約為91%;文獻[3]方法對樣本空間特征提取精度約為89%.相比之下本文方法高于其他2 種方法的提取精度,驗證了所提方法的有效性.
為進一步驗證本文方法的有效性,實驗還分析了不同方法特征提取的時間,結(jié)果見圖6.
圖6 不同方法樣本特征提取的時間分析
由圖6 可知,采用3 種方法對樣本特征提取的耗時不同.當(dāng)提取特征量為500 w 時,采用本文方法的提取耗時約為1.1 s;文獻[2]方法提取耗時約為7.8 s;文獻[3]方法提取耗時約為3.2 s.當(dāng)提取特征量1 000 w 時,采用本文方法的提取耗時約為3.8 s;文獻[2]方法提取耗時約為9 s;文獻[3]方法提取耗時約為6.1 s.可知,本文方法的提取耗時始終低于4 s,而其他2 種方法提取耗時高于本文方法.
為提升室內(nèi)空間布局質(zhì)量,本文提出了基于進化深度學(xué)習(xí)的建筑室內(nèi)空間布局特征提取方法,并根據(jù)所提取的室內(nèi)空間布局參數(shù),確定其邊緣序列,采用進化深度學(xué)習(xí)算法對特征參數(shù)收斂性進行控制,完成建筑室內(nèi)空間布局特征的提取.結(jié)果表明,本文方法可有效提取特征,且精度始終高于90%.