• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      基于統(tǒng)計直方圖k-means聚類的水稻冠層圖像分割

      2021-01-29 10:44:14陳科尹,吳崇友,關卓懷,李海同,王剛
      江蘇農(nóng)業(yè)學報 2021年6期
      關鍵詞:means聚類圖像分割

      陳科尹,吳崇友,關卓懷,李海同,王剛

      摘要:針對現(xiàn)有k-means聚類圖像分割方法存在對初始聚類中心敏感、易錯分割以及運行時效低等問題,提出了一種基于統(tǒng)計直方圖k-means聚類的水稻冠層圖像分割方法。該方法首先根據(jù)圖像直方圖蘊含的像素數(shù)量先驗信息,選擇像素數(shù)量差異較大的像素值作為水稻冠層圖像的初始聚類中心;然后再利用圖像直方圖中像素值與圖像像素數(shù)量的先驗對應關系,對水稻冠層圖像聚類目標函數(shù)權值化;最后依據(jù)k-means聚類框架對水稻冠層圖像進行聚類分割。為了驗證本方法的有效性,分別同基于k-means、k-means++、k-mc2、afk-mc2等4種主流均值聚類的水稻冠層圖像特征像素提取方法進行對比試驗。結果表明:對于臨稻20號、武運粳32號以及中粳798號成熟中期水稻冠層圖像聚類分割,常光下本方法的平均類內(nèi)平方差分別為36.6、29.5、29.5,平均類間平方差分別為67.5、51.8、51.8,平均運行時間分別為0.2 s、0.3 s、0.3 s;強光下本方法的平均類內(nèi)平方差分別為15.2、4.9、12.1,平均類間平方差分別為30.9、9.5、21.2,平均運行時間分別為0.3 s、0.2 s、0.3 s,均優(yōu)于以上4種聚類方法。

      關鍵詞:水稻冠層圖像;圖像分割;統(tǒng)計直方圖;k-means聚類

      中圖分類號:S126文獻標識碼:A文章編號:1000-4440(2021)06-1425-11

      Rice canopy image segmentation based on statistical histogram k-means clustering

      CHEN Ke-yin1,2,WU Chong-you 2,GUAN Zhuo-huai 2,LI Hai-tong2,WANG Gang2

      (1.School of Physics and Electronic Engineering, Jiaying University, Meizhou 514015, China;2.Nanjing Institute of Agricultural Mechanization,Ministry of Agriculture and Rural Affairs, Nanjing 210014, China)

      Abstract:A rice canopy image segmentation method based on statistical histogram k-means clustering was proposed to solve the problems of existing k-means methods, such as sensitivity to the initial cluster center, error prone segmentation and low operation efficiency. Firstly, according to the image histogram, the pixel value with large difference in the number of pixels was selected as the initial cluster center of the rice canopy image. Secondly, the prior correspondence between the pixel value in the image histogram and the number of pixels in the image was used to weight the clustering objective function. Finally, the k-means clustering framework was used to cluster and segment the rice canopy image. In order to verify the effectiveness of the proposed method, comparative experiments were carried out with the feature pixel extraction methods of rice canopy images based on k-means, k-means++, k-mc2 and afk-mc2. The results showed that the canopy images of Lindao 20, Wuyunjing 32 and Zhongjing 798 were clustered and seymented at mid-maturing stage, and the average intra-class sequare errors were 36.6, 29.5 and 29.5 under normal light conditions, the average inter-class square errors were 67.5, 51.8 and 51.8, and the average running time was 0.2 s, 0.3 s and 0.3 s. Under strong light conditions, the average intra-class square errors were 15.2, 4.9 and 12.1, the average inter-class square errors were 30.9, 9.5 and 21.2, and the average running time was 0.3 s, 0.2 s and 0.3 s. The results of the method used in this study are better than the above four traditional clustering methods.

      Key words:rice canopy image;image segmentation;statistical histogram;k-means clustering

      目前,國內(nèi)外關于水稻聯(lián)合收割機喂入量調(diào)控及基于水稻冠層圖像的種植密度預測方面的研究較少,處于探索階段,行之有效的成果并不多。國內(nèi)這方面研究比較有代表性的成果有:楊一平等設計了一種聯(lián)合收割機喂入量信號采集電路,通過獲取機械式喂入量傳感器獲取當前時刻喂入量[1];陳進等提出使用扭矩傳感器測量物料脫粒分離情況,從而間接計算喂入量[2];梁學修等提出通過采集滾筒扭矩、轉速信息,以及谷物籽粒的流量信息和位置、速度信息,推算出當前收割機喂入量[3];潘靜等[4-5]和王軻[6]提出利用圖像處理算法檢測水稻種植密度,從而間接預測喂入量。國外這方面研究比較有代表性的成果有:kumhala等提出使用扭矩計測量壓扁器輸入功率,進而間接計算喂入量[7];Montes等提出使用近紅外光譜圖像分析方法,檢測田間作物的種植密度[8];EI-Faki等研究了農(nóng)田環(huán)境影響作物種植密度檢測準確度因素[9]??梢?,目前水稻聯(lián)合收割機喂入量調(diào)控主要有2種方式:一種是通過機械式傳感器直接計算喂入量來調(diào)控,這方式雖然較為簡便,但不能實時根據(jù)田間水稻種植情況調(diào)控喂入量;一種是通過圖像處理獲取水稻種植密度間接計算喂入量來調(diào)控,主要采用圖像閾值分割方法提取出水稻冠層圖像的葉、谷以及田間背景特征像素,然后根據(jù)這些特征像素建立定量模型對水稻種植密度進行預測[10]。關于利用圖像閾值對水稻冠層圖像分割的研究,國內(nèi)主要有:王遠等根據(jù)數(shù)字圖像綠色通道和紅色通道差值,通過圖像閾值對水稻冠層圖像進行分割[11];黃巧義等基于可見光譜,選擇Otsu圖像閾值和SVM支持向量機對水稻冠層圖像進行分割[12-14];徐梅宣等基于G-R顏色通道,選擇最大類間方差圖像閾值方法對水稻冠層圖像進行分割[15]。但作者還未發(fā)現(xiàn)基于圖像閾值的水稻冠層圖像分割相關外文文獻。而圖像閾值分割需要事先確定一組合理的閾值,才能取得理想的分割效果。但是水稻冠層圖像除了葉、谷圖像特征像素外,還包含復雜的田間背景圖像特征像素,這三者圖像特征像素交叉分布,很難找到一組合適的閾值把它們區(qū)分開來,進行圖像閾值分割。并且,圖像閾值方法只能實現(xiàn)單個目標的分割,很難實現(xiàn)多個目標的分割,而水稻冠層往往需要實現(xiàn)葉、谷以及田間背景多目標的分割。

      為此,本研究選擇k-means聚類,對成熟中期水稻冠層圖像進行圖像分割,利用其統(tǒng)計直方圖蘊含的聚類空間位置信息,對聚類中心進行先驗初始化和聚類目標函數(shù)權值化,解決聚類效果不理想、影響冠層葉、谷圖像特征像素提取的問題。

      1水稻冠層圖像采集及其顏色空間分析

      1.1水稻冠層圖像采集

      水稻冠層圖像采集地點為江蘇省泰州市紅旗種子試驗基地,水稻品種分別為臨稻20號、武運粳32號、中粳798號,隨機在每塊田地不同區(qū)域,采集水稻冠層圖像。設計了如圖1所示的數(shù)碼相機支架,該支架可根據(jù)田間情況,自由調(diào)整數(shù)碼相機的高度和方向。通過該支架調(diào)整數(shù)碼相機的高度和方向,使該相機距離水稻植株正上方100 cm處,選擇上午9∶00-11∶00時間段,田間陽光均勻即常光下采集3個品種水稻成熟中期冠層圖像各30張;選擇下午13∶30-15∶30時間段,田間陽光強烈即強光下,采集3個品種水稻冠層圖像各30張;選擇下午17∶30-18∶30時間段,田間陽光昏暗即弱光下,采集3個品種水稻冠層圖像各30張。以上每張冠層圖像分辨率大小為640×480個像素,如圖2所示。

      1.2水稻冠層圖像顏色空間分析

      在進行水稻冠層圖像聚類分割之前,一般要選擇一個合適的聚類空間,由于水稻冠層葉、谷以及田間背景圖像特征在顏色方面存在差異,所以本文選擇顏色空間作為水稻冠層圖像的聚類空間。常見的圖像顏色空間有:RGB、HSV、YCbCr和Lab。 通過對水稻冠層圖像的顏色空間統(tǒng)計分析,發(fā)現(xiàn)基于RGB空間和Lab空間,水稻冠層葉、谷以及田間背景圖像特征分布過于集中,很難區(qū)分;基于HSV空間,水稻冠層葉、谷以及田間背景圖像特征分布又過于分散,也很難區(qū)分;只有基于YCbCr空間,水稻冠層葉、谷以及田間背景圖像特征才容易區(qū)分。所以,聚類分割前,選擇將水稻冠層圖像從RGB空間轉換為YCbCr空間。

      2k-means聚類框架與水稻冠層圖像分割

      2.1k-means聚類框架改進

      雖然k-means[16-26]、k-means++[27-29]、k-mc2[30-31]和afk-mc2[32-33] 4種聚類在具體細節(jié)上有所差異,但后3種聚類都在k-means聚類基礎進行改進的,它們都屬于k-means聚類框架[34]。k-means聚類的一般框架思路是:假設存在一個包含N個樣本數(shù)據(jù)的數(shù)據(jù)集,以及給定聚類數(shù)目k,首先隨機選擇k個樣本分別作為初始聚類中心,然后依據(jù)聚類目標函數(shù)采用迭代的方法,計算還未劃分剩余的樣本數(shù)據(jù)到每個聚類中心的距離,并將該樣本數(shù)據(jù)劃分到與之最近的那個聚類中心所在的簇類,對劃分完的每一個簇類,重新計算該簇類內(nèi)所有數(shù)據(jù)平均值不斷修改聚類中心,再進行新一輪劃分聚類,直到簇類內(nèi)誤差平方和最小化。

      但是該聚類框架存在以下不足[35-37]:(1) 隨機選擇初始聚類中心。聚類中心的初始值直接影響聚類結果的好壞。雖然k-means聚類框架可以通過迭代不斷調(diào)整聚類中心,但也只能達到局部最優(yōu),不能達到全局最優(yōu)。隨機選擇初始聚類中心,盡管操作簡單,但一般很難得到理想的聚類結果。所以,在進行聚類劃分之前,事先對待聚類樣本數(shù)據(jù)進行統(tǒng)計分析,基于先驗的統(tǒng)計結果,盡量選擇相似性小的樣本數(shù)據(jù)作為初始聚類中心。(2) 聚類目標函數(shù)基于歐式距離。聚類目標函數(shù)計算方式的不同會導致不同的聚類結果,但基于歐式距離的聚類目標函數(shù)對待聚類樣本數(shù)據(jù)同等處理,但是實踐中面對待聚類樣本數(shù)據(jù)的側重點不同。對聚類目標函數(shù)進行權值化,更加符合實際情況。(3) 待聚類樣本數(shù)據(jù)之間存在相關性。在k-means聚類框架中使用歐氏距離只是計算距離,沒有排除待聚類樣本數(shù)據(jù)之間的相關性,聚類結果對數(shù)據(jù)相關性非常敏感。所以,事先對待聚類樣本數(shù)據(jù)屬性特征進行主成分多元統(tǒng)計分析,找出代表待聚類樣本數(shù)據(jù)的主要屬性特征,從而降低聚類空間維數(shù)。

      由于圖像顏色空間直方圖與圖像像素之間存在一一對應關系,通過此直方圖可挖掘出蘊含在圖像顏色空間中的聚類先驗信息。所以,在考慮水稻冠層圖像顏色空間基礎上,首先計算出顏色空間直方圖,然后按照該直方圖所對應的水稻冠層圖像像素個數(shù)的大小,選擇圖像像素個數(shù)差異較大的像素作為初始聚類中心,并依據(jù)該直方圖對聚類目標函數(shù)進行權值化,從而壓縮圖像聚類空間維數(shù)。最后按照k-means聚類框架進行聚類分割,從而提取出水稻冠層圖像中葉、谷以及田間背景圖像特征像素?;谝陨戏治觯瑢-means聚類框架中的距離公式、聚類中心更新公式和聚類目標函數(shù)公式以及初始聚類中心的選擇方法進行修改,具體如下:

      聚類距離公式:

      di=X-Ci(1)

      修改為:

      di=X-Ci·H[X](2)

      聚類中心更新公式:

      Ci=Xij∑Nij=1Xij(3)

      修改為:

      Ci=Xij·H[Xij]∑Nij=1H[Xij](4)

      聚類目標函數(shù)公式:

      J=∑ki=1∑Nij=1Xij-Ci2(5)

      修改為:

      J=∑ki=1∑Nij=1Xij-Ci2·H[Xij](6)

      其中,X=(Y,Cb,Cr)為圖像顏色空間數(shù)據(jù);Ci為第i個聚類中心,k為聚類數(shù)目,i=1,2,...,k;Xij為屬于第i類的圖像顏色空間數(shù)據(jù),Ni為屬于聚類中心Ci的Xij個數(shù),j=1,2,...,Ni。

      初始聚類中心的選擇方法:

      HS[*]=Sort(H[*])(7)

      其中,H[*]為圖像顏色空間直方圖,HS[*]為降冪排序后的直方圖,Sort()表示降冪排序。

      Xij=Select{kHS[*]}(8)

      其中,Select{kHS[*]}表示根據(jù)HS[*]大小選擇其所對應的k類圖像顏色空間數(shù)據(jù),Xij為屬于第i類的圖像顏色空間數(shù)據(jù),k為聚類數(shù)目,i=1,2,...,k,j=1,2,...,Ni,Ni為屬于第i類Xij的個數(shù)。

      C(0)i=1Ni∑ijXij(9)

      其中,C(0)i為第i個聚類中心的初始值,Xij為屬于第i類的圖像顏色空間數(shù)據(jù),k為聚類數(shù)目,i=1,2,...,k,j=1,2,...,Ni,Ni為屬于第i類Xij的個數(shù)。

      2.2水稻冠層圖像分割

      基于本研究方法,提取水稻冠層圖像的葉、谷以及田間背景特征像素的算法步驟為:

      Step1:采集水稻冠層圖像數(shù)據(jù)。

      Step2:將其從RGB顏色空間轉換為YCbCr顏色空間,形成對應圖像顏色空間數(shù)據(jù)X。

      Step3:基于YCbCr顏色空間,計算圖像顏色空間直方圖H[*]。

      Step4:設置聚類數(shù)目k。

      Step5:依據(jù)公式(7)、公式(8) 、公式(9),選擇k個初始聚類中心Ci=C(0)i,i=1,...,k。

      Step6:按照公式(2),計算每個圖像顏色空間數(shù)據(jù)(X)到k個聚類中心(Ci)的距離(di)。

      Step7:分配每個圖像顏色空間數(shù)據(jù)X到與它距離最近的聚類中心所在的類族,并記下其所屬的類別Label[X]。

      Step8:按照公式(4),更新聚類中心(Ci),i=1,...,k。

      Step9:按照公式(6),計算聚類目標函數(shù)(J)。

      Step10:若J值收斂,輸出k個最優(yōu)聚類中心? ,Cibest=Ci,轉到Step11,否則,轉到Step6。

      Step11:按照公式(2),計算X到k個最優(yōu)聚類中心Cibest的距離dibest。

      Step12:分配每一個圖像顏色空間數(shù)據(jù)X到與它距離最近的最優(yōu)聚類中心所在的類族,并記下其所屬的類別Label[X]。

      Step13:按照Label[X]與圖像顏色空間數(shù)據(jù)(X)的對應關系,輸出圖像聚類結果即得到水稻冠層圖像葉、谷以及田間背景特征像素的歸類。

      3結果與分析

      為了驗證本方法的有效性,運用VC++2015和OpenCV編寫聚類程序,選擇YCbCr顏色空間,基于k-means、k-means++、k-mc2、afk-mc2等聚類方法和本方法,分別在常光、強光和弱光情況下,對成熟中期的臨稻20號、武運粳32號和中粳798號各30張冠層圖像,進行聚類分割試驗。具體分割效果如圖3至圖7所示。

      由圖3所示的基于k-means聚類的水稻冠層圖像分割結果定性分析可知,臨稻20號葉、谷以及田間背景特征像素的聚類提取結果在強光下效果最好,錯分類像素較少,其次是在常光下,效果最差是在弱光下,部分田間背景特征像素錯分為葉特征像素;武運粳32號葉、谷以及田間背景特征像素的聚類提取結果在常光下效果最好,錯分類像素較少,其次是在強光下,部分谷特征像素錯分為葉或者田間背景特征像素,效果最差是在弱光下,谷特征像素幾乎全部錯分為田間背景特征像素;中粳798號葉、谷以及田間背景特征像素的聚類提取結果在常光和強光下差不多,效果較好,錯分類像素較少,效果最差的是在弱光下,谷特征像素幾乎全部錯分為葉或者田間背景特征像素。

      綠色代表葉特征像素,金黃色代表谷特征像素,灰色代表田間背景特征像素。

      綠色代表葉特征像素,金黃色代表谷特征像素,灰色代表田間背景特征像素。

      綠色代表葉特征像素,金黃色代表谷特征像素,灰色代表田間背景特征像素。

      綠色代表葉特征像素,金黃色代表谷特征像素,灰色代表田間背景特征像素。

      綠色代表葉特征像素,金黃色代表谷特征像素,灰色代表田間背景特征像素。

      由圖4所示的基于k-means++聚類的水稻冠層圖像分割結果定性分析可知,臨稻20號葉、谷以及田間背景特征像素的聚類提取效果在常光下最好,錯分類像素較少,其次是在強光下,部分谷特征像素錯分為田間背景特征像素,效果最差的是在弱光下,稻谷特征像素幾乎都錯分為田間背景特征像素;武運粳32號葉、谷以及田間背景特征像素的聚類提取結果在常光下效果較好,錯分類像素較少,在強光和弱光下,效果都不很好,錯分類像素很多,或者大部分葉特征像素錯分為谷特征像素或者部分田間背景特征像素錯分為葉特征像素或者谷特征像素幾乎都錯分為田間背景特征像素;中粳798號葉、谷以及田間背景特征像素的聚類提取結果在強光下效果最好,錯分類像素較少,其次是在常光下,效果最差的是在弱光下,大多數(shù)葉特征像素錯分為谷特征像素。

      由圖5所示的基于k-mc2聚類的水稻冠層圖像分割結果定性分析可知,臨稻20號葉、谷以及田間背景特征像素的聚類提取結果在常光下效果最好,錯分類像素較少,在強光和弱光下,效果非常不理想,大部分谷、葉特征像素錯分為田間背景特征像素,或者大部分田間背景特征像素錯分為谷特征像素;武運粳32號葉、谷以及田間背景特征像素的聚類提取結果在常光、強光和弱光下效果都很差,錯分類像素很多,大部分葉特征像素錯分為谷特征像素,或者部分田間背景特征像素錯分為葉特征像素,或者田間背景特征像素幾乎都錯分為谷特征像素;中粳798號葉、谷以及田間背景特征像素的聚類提取結果在常光下效果較好,錯分類像素較少,在強光和弱光下效果都不很好,錯分類像素很多,部分谷、田間背景特征像素錯分為葉特征像素,或者大部分葉、田間背景特征像素錯分為谷特征像素。

      由圖6所示的基于afk-mc2聚類的水稻冠層圖像分割結果定性分析可知,臨稻20號葉、谷以及田間背景特征像素的聚類提取結果在強光下效果最好,錯分類像素較少,其次是在常光下,效果最差的是在弱光下,絕大部分田間背景特征像素錯分為谷特征像素;武運粳32號葉、谷以及田間背景特征像素的聚類提取結果在常光、強光和弱光下,效果都不理想,部分谷、葉特征像素錯分為田間背景特征像素,或者部分田間背景特征像素錯分為谷特征像素,或者葉特征像素幾乎都錯分為田間背景特征像素;中粳798號葉、谷以及田間背景特征像素的聚類提取結果在常光下效果最好,錯分類像素最少,其次是在強光下,效果最差的是在弱光下,大多數(shù)葉特征像素和部分谷特征像素錯分為田間背景特征像素。

      由圖7所示的基于本研究聚類方法的水稻冠層圖像分割結果定性分析可知,臨稻20號、武運粳32、中粳798號的葉、谷以及田間背景特征像素聚類提取結果在常光和強光下一樣,效果最為理想,谷、葉以及田間背景特征像素錯分類像素較少,效果最差的是在弱光下,葉、谷特征像素幾乎都錯分為田間背景特征像素,或者很大部分田間背景特征像素錯分為葉特征像素。對比圖3至圖7,可知基于本方法的聚類分割效果較基于前面4種不同聚類方法,錯分割現(xiàn)象較少,在常光和強光下,基本上能夠提取出水稻冠層圖像的谷粒、葉片以及田間背景圖像的特征像素;其次是基于k-means和k-means++算法的聚類分割;聚類分割效果較差的是基于k-mc2和afk-mc2。所以,由以上定性分析可以驗證基于本研究方法的水稻冠層圖像分割在常光和強光下是有效的。

      但定性分析帶有主觀因素,為了更好地比較各類水稻冠層圖像聚類分割方法的性能,對3個品種水稻在常光、強光和弱光下分別采集到的30張冠層圖像中,分別隨機抽取12張,采用類內(nèi)平方差s1=1n∑ni=1(xi-c)2(其中,xi表示屬于聚類中心圖像像素c的第i個圖像像素,c表示某一類的聚類中心圖像像素,n表示與聚類中心圖像像素c同類的所有圖像像素的個數(shù))、類間平方差s2=1m∑mj=1(ci-cj)2(其中,ci表示第i個聚類中心圖像像素,cj表示不同于ci的第j個聚類中心圖像像素,m表示除ci聚類中心圖像像素外所有聚類中心圖像像素的個數(shù))以及程序運行時間(t)作為評價指標,進行定量統(tǒng)計分析。一般在類內(nèi)平方差(s1)平均值較小的情況下,類間平方差(s2)平均值越大,聚類分割效果越好,具體分析結果見表1至表3。

      對比分析表1所列的5種聚類分割方法性能評價指標可知,對于臨稻20號水稻冠層圖像,常光情況下類內(nèi)平方差(s1)平均值較小的聚類分割方法有k-means++方法和本方法,分別為50.9和36.6,而且兩者的類間平方差(s2)平均值較大,分別為69.0和67.5,所以這2種方法的分割效果較其他方法理想,但本方法的類內(nèi)平方差(s1)平均值比k-means++方法更小,所以分割效果更好,且平均程序運行時間(t)比其他方法短。強光情況下,類內(nèi)平方差(s1)平均值較小的聚類分割方法有k-means方法和本方法,分別為16.4和15.2,而且兩者的類間平方差(s2)平均值較大,分別為24.9和30.9,所以這2種方法的分割效果較其他方法理想,但本方法的類內(nèi)平方差(s1)平均值比k-means方法更小,類間平方差(s2)平均值比k-means方法更大,所以分割效果更好,且平均程序運行時間(t)比其他方法短。

      對比分析表2所列的5種聚類分割方法性能評價指標可知,對于武運粳32號水稻冠層圖像,常光情況下,類內(nèi)平方差(s1)平均值較小的聚類分割方法有k-means方法和本方法,分別為28.7和29.5,而且兩者的類間平方差(s2)平均值較大,分別為48.5和51.8,所以這2種方法的分割效果較其他方法理想,但在兩者的類內(nèi)平方差(s1)平均值差不多情況下,本方法的類間平方差(s2)平均值比k-means方法更大,所以分割效果更好,且平均運行時間(t)比其他方法短。強光情況下,類內(nèi)平方差(s1)平均值較小的聚類分割方法有k-mc2方法和本方法,分別為4.7和4.9,而且兩者的類間平方差(s2)平均值較大,分別為4.5和9.5,所以這2種方法的分割效果較其他方法理想,但在兩者的類內(nèi)平方差(s1)平均值差不多情況下,本方法的類間平方差(s2)平均值比k-mc2方法更大,所以分割效果更好,且平均運行時間(t)比其他方法短。

      對比分析表3所列的5種聚類分割方法性能評價指標可知,對于中粳798號水稻冠層圖像,常光情況下,類內(nèi)平方差s1平均值較小的聚類分割方法有afk-mc2方法和本方法,分別為30.8和29.5,而且兩者的類間平方差(s2)平均值較大,分別為34.1和51.8,所以這2種方法的分割效果較其他方法理想,但本方法的類內(nèi)平方差(s1)平均值比afk-mc2方法更小,類間平方差(s2)平均值比afk-mc2方法更大,所以分割效果更好,且平均運行時間(t)比其他方法短。強光情況下,類內(nèi)平方差(s1)平均值較小的聚類分割方法有k-mc2方法和本方法,分別為16.6和12.1,而且兩者的類間平方差(s2)平均值較大,分別為19.3和21.2,所以這2種方法的分割效果較其他方法理想,但本方法的類內(nèi)平方差(s1)平均值比k-mc2方法更小,類間平方差(s2)平均值比k-mc2方法更大,所以分割效果更好,且平均運行時間(t)比其他方法短。但對比分析圖3至圖7可知,弱光情況下各種聚類分割方法對3種水稻冠層圖像的分割效果均很不理想,所以弱光情況下類內(nèi)平方差(s1)和類間平方差(s2)性能評價指標不具有實際意義。綜合以上分析,除了弱光情況外,在常光和強光情況下,本研究方法的分割效果較其他4種聚類方法更為理想,且類內(nèi)平方差(s1)和類間平方差(s2)比其他4種聚類方法更優(yōu),并且程序運行時間(t)也遠遠短于他余聚類方法,達到了實時性的要求。

      4結論

      本研究探討了通過圖像分割提取水稻冠層圖像的葉、谷以及田間背景特征像素的方法,并統(tǒng)計直方圖對k-means聚類框架進行修改,使之適合水稻冠層圖像聚類分割處理。具體研究結論如下:(1) 通過對水稻冠層圖像的RGB、HSV、YCbCr、Lab 4種顏色空間進行統(tǒng)計分析,發(fā)現(xiàn)基于YCrCb顏色空間,更有利于水稻冠層圖像聚類分割;(2) 通過分析水稻冠層圖像的圖像直方圖與其葉、谷以及田間背景圖像特征之間的關系,發(fā)現(xiàn)利用圖像直方圖能夠合理確定水稻冠層圖像的初始聚類中心;(3) 通過分析水稻冠層圖像直方圖像素值與像素個數(shù)的對應關系,發(fā)現(xiàn)利用圖像直方圖能夠對其聚類目標函數(shù)權值化,從而壓縮圖像聚類空間,減少錯誤聚類;(4) 在以上基礎上,對水稻冠層圖像特征值進行定量統(tǒng)計分析,提出基于本聚類算法的水稻冠層圖像分割方法,從而為水稻聯(lián)合收獲的喂入量調(diào)控研究提供一定的理論基礎和試驗數(shù)據(jù)。

      參考文獻:

      [1]楊一平,胡德民. 聯(lián)合收割機喂入量信號采集電路的設計與研究[J]. 安徽農(nóng)業(yè)科學,2008,36(35):15746-15748,15750.

      [2]陳進,李耀明,季彬彬. 聯(lián)合收獲機喂入量測量方法[J]. 農(nóng)業(yè)機械學報,2006,37(12):76-78.

      [3]梁學修,陳志,張小超,等. 聯(lián)合收獲機喂入量在線監(jiān)測系統(tǒng)設計與試驗[J].農(nóng)業(yè)機械學報,2013,44(增刊):1-6.

      [4]潘靜,邵陸壽,王軻. 水稻聯(lián)合收割機喂入密度檢測方法[J]. 農(nóng)業(yè)工程學報,2010,26(8):113-116.

      [5]潘靜. 基于遺傳算法的水稻聯(lián)合收割機喂入密度檢測方法研究[D]. 合肥:安徽農(nóng)業(yè)大學,2011.

      [6]王軻. 基于視頻挖掘的成熟期水稻圖像處理算法研究[D]. 合肥:安徽農(nóng)業(yè)大學,2011.

      [7]KUMHALA F, KROULIK M, MASEK J, et al. Development and testing of two methods for the measurement of the mowing machine feed rate[J]. Plant Soil & Environment,2003,49(11):519-524.

      [8]MONTES J M, PAUL C, MELCHINGER A E. Quality assessment of rapeseed accessions by means of near-infrared spectroscopy on combine harvesters[J]. Plant Breeding,2010,126(3):329-330.

      [9]EI-FAKI M S, ZHANG N, PETERSON D E. Factors affecting color based weed detection[J]. Transaction of the ASAE,2000,43 (4):1001-1009.

      [10]劉漢青. 基于機器視覺的油菜收獲疏密度與損失檢測[D]. 南京:南京大學,2019.

      [11]王遠,王德建,張剛,等. 基于數(shù)碼相機的水稻冠層圖像分割及氮素營養(yǎng)診斷[J]. 農(nóng)業(yè)工程學報,2012,28(17):131-136.

      [12]黃巧義,張木,李蘋,等. 支持向量機和最大類間方差法結合的水稻冠層圖像分割方法[J]. 中國農(nóng)業(yè)科技導報,2019,21(4):52-60.

      [13]黃巧義,張木,黃旭,等. 基于可見光譜色彩指標Otsu法的水稻冠層圖像分割[J]. 廣東農(nóng)業(yè)科學,2018,45(1):120-125,3.

      [14]黃巧義,樊小林,張木,等. 水稻冠層圖像分割方法對比研究[J]. 中國生態(tài)農(nóng)業(yè)學報,2018,26(5):710-718.

      [15]徐梅宣,張智剛,潘慕,等. 田間水稻冠層圖像分割算法的研究[J]. 廣東農(nóng)業(yè)科學,2015,42(13):161-164.

      [16]SELIM S Z, ISMAIL M A. k-means-type algorith-ms: a generalized convergence theorem and character-ization of local optimality[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence,1984,6(1):81-87.

      [17]ESTEVES R M, HACKER T, RONG C. Competitive K-means, a new accurate and distributed k-means algorithm for large datasets[C]//IEEE. IEEE 5th internati-onal conference on cloud computing technology and science. Bristol:IEEE, 2013:17-24.

      [18]CHEN X, MIAO P, BU Q. Image segmentation algorithm based on particle swarm optimization with k-means optimization[C]//IEEE. IEEE International Conference on Power, Intelligent Computing and Systems. Shenyang,China:IEEE,2019:156-159.

      [19]SINAGA K P, YANG M. Unsupervised k-means clustering algorithm[J]. IEEE Access, 2020,8: 80716-80727.

      [20]KUMAR K M,REDDY A R M. A fast k-means clustering using prototypes for initial cluster center selection[C]//IEEE. IEEE 9th international conference on intelligent systems and control. Coimbatore:IEEE,2015:1-4.

      [21]LEI G. A novel locality sensitive k-means clustering algorithm based on subtractive clustering[C]//IEEE. 7th IEEE international conference on software engineering and service science. Beijing:IEEE,2016: 836-839.

      [22]GU L. A novel sample weighting k-means clustering algorithm based on angles information[C]//IEEE. International joint conference on neural networks. Vancouver, BC:IEEE, 2016:3697-3702.

      [23]HUNG W,YANG M,HWANG C. Exponential-Distance weighted k-means algorithm with spatial constraints for color image segmentation[C]//IEEE. 2011 international conference on multimedia and signal processing. Guilin, Guangxi:IEEE, 2011:131-135.

      [24]郭永坤,章新友,劉莉萍,等. 優(yōu)化初始聚類中心的k-means聚類算法[J]. 計算機工程與應用,2020,56(15):172-178.

      [25]田詩宵,丁立新,鄭金秋. 基于密度峰值優(yōu)化的k-means文本聚類算法[J]. 計算機工程與設計, 2017,38(4):1019-1023.

      [26]賈洪杰,丁世飛,史忠植. 求解大規(guī)模譜聚類的近似加權核k-means算法[J]. 軟件學報,2015,26(11):2836-2846.

      [27]ESTEVES R M,HACKER T,RONG C. Cluster analysis for the cloud: Parallel competitive fitness and parallel k-means++ for large dataset analysis[C]//IEEE. 4th IEEE international conference on cloud computing technology and science proceedings. Taipei:IEEE,2012:177-184.

      [28]NIU K,GAO Z,JIAO H,et al. k-means+:A developed clustering algorithm for big data[C]//CCIS. 4th international conference on cloud computing and intelligence systems(CCIS). Beijing:CCIS,2016:141-144.

      [29]GADDAM S R, PHOHA V V,BALAGANI K S. k-means+ID3:A novel method for supervised anomaly detection by cascading K-means clustering and ID3 decision tree learning methods[J]. IEEE Transactions on Knowledge and Data Engineering,2007,19(3):345-354.

      [30]NA S,XUMIN L,YONG G. Research on k-means clustering algorithm: An improved k-means clustering algorithm[C]//IEEE. 2010 third international symposium on intelligent information technology and security informatics. Jinggangshan: IEEE, 2010:63-67.

      [31]YANG Q,LIU Y,ZHANG D,et al. Improved k-means algorithm to quickly locate optimum initial clustering number K[C]//IEEE. Proceedings of the 30th chinese control conference. Yantai:IEEE, 2011: 3319-3322.

      [32]GUANG-PING C,WEN-PENG W. An improved k-means algorithm with meliorated initial center[C]//ICCSE. 7th international conference on computer science & education. Melbourne,VIC:ICCSE, 2012:150-153.

      [33]LIU G L,WANG T T,YU L M,et al. The improved research on k-means clustering algorithm in initial values[C]//IEEE. Proceedings 2013 international conference on mechatronic sciences, electric engineering and computer. Shengyang:IEEE,2013:2124-2127.

      [34]朱淑鑫,楊宸,顧興健,等. K均值算法結合連續(xù)投影算法應用于土壤速效鉀含量的高光譜分析[J]. 江蘇農(nóng)業(yè)學報,2020,36(2):358-365.

      [35]BACHEM O, LUCIC M, HASSANI S H, et al. Approximate k-means++ in sublinear time[C]//AAAI. Proceedings of the thirtieth AAAI conference on artificial intelligence. Phoenix,Arizona,USA:AAAI,2016: 1459-1467.

      [36]BACHEM O,LUCIC M,HASSANI H,et al. Fast and provably good seedings for k-means[C]//NIPS. 30th conference on neural information processing systems. Barcelona,Spain:NIPS,2016:55-63.

      [37]CELEBI M E, KINGRAVI H A, VELA P A. A comparative study of efficient initialization methods for the k-means clustering algorithm[J]. Expert Systems with Applications,2013,40(1):200-210.

      (責任編輯:張震林)

      收稿日期:2021-05-07

      基金項目:國家重點研發(fā)計劃項目 ( 2016YFD0702100 );國家自然科學地區(qū)基金項目( 61863011);廣東省普通高校特色創(chuàng)新項目(2020KTSCX142);中國農(nóng)業(yè)科學院基本科研業(yè)務費專項(SR201919)

      作者簡介:陳科尹( 1982-) ,男,廣東雷州人,博士,講師,從事農(nóng)業(yè)圖像處理、機器視覺方面研究。(E-mail) chenkeyin10@126.com

      通訊作者:吳崇友,(E-mail)542681935@ qq com

      猜你喜歡
      means聚類圖像分割
      基于“粉絲經(jīng)濟”的自媒體社群用戶消費意愿研究
      計算機定量金相分析系統(tǒng)的軟件開發(fā)與圖像處理方法
      基于灰色系統(tǒng)理論的數(shù)字圖像處理算法
      一種改進的分水嶺圖像分割算法研究
      科技視界(2016年26期)2016-12-17 16:25:03
      基于LabVIEW雛雞雌雄半自動鑒別系統(tǒng)
      一種圖像超像素的快速生成算法
      基于魯棒性的廣義FCM圖像分割算法
      人工神經(jīng)網(wǎng)絡在聚類分析中的運用
      雹云圖像的識別指標設計
      基于QPSO聚類算法的圖像分割方法
      科技視界(2016年12期)2016-05-25 11:54:25
      瑞金市| 邵阳市| 岳池县| 石林| 隆化县| 葫芦岛市| 竹溪县| 郧西县| 肥东县| 铁岭市| 西宁市| 易门县| 白河县| 夏河县| 莱芜市| 新建县| 正镶白旗| 安图县| 和政县| 波密县| 民丰县| 青冈县| 高清| 开封县| 中牟县| 永新县| 垣曲县| 巴林左旗| 沈阳市| 明水县| 梁平县| 温宿县| 余庆县| 金秀| 安庆市| 龙南县| 澄城县| 甘孜| 吉安县| 靖宇县| 建湖县|