• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看

      ?

      頻譜感知中的K-D樹KNN-SVM算法研究

      2021-08-16 07:27蔣禮君張曉格
      現(xiàn)代電子技術(shù) 2021年16期
      關(guān)鍵詞:檢測時間分類器頻譜

      蔣禮君,張曉格,2

      (1.南通大學(xué) 信息科學(xué)技術(shù)學(xué)院,江蘇 南通 226019;2.南通先進(jìn)通信技術(shù)研究院有限公司,江蘇 南通 226019)

      0 引 言

      認(rèn)知無線電是針對通信射頻環(huán)境中頻譜資源稀缺問題,提出的一種解決方案,旨在提高整體頻譜資源利用率[1]。研究表明,當(dāng)授權(quán)頻段未被授權(quán)用戶占用時,頻譜感知技術(shù)為未授權(quán)用戶在不影響授權(quán)用戶使用的情況下,占用授權(quán)頻段頻譜提供了可能。未授權(quán)用戶可單獨(dú)或協(xié)作地感知當(dāng)前頻譜的狀態(tài),進(jìn)而評估授權(quán)用戶的存在與否[2-3]。認(rèn)知無線電的概念最早是由JosephMitolaⅢ于1999年提出的,頻譜感知在檢測授權(quán)用戶的過程中仍然充滿挑戰(zhàn),因?yàn)轭l譜感知性能通常與檢測率、虛警率以及檢測時間相關(guān)。檢測率越高,虛警率越低,則感知性能越佳。若感知時間越長,其時效性也會隨之下降,進(jìn)而影響頻譜感知性能。圖1從單節(jié)點(diǎn)感知和協(xié)作感知兩個角度分別介紹了頻譜感知的技術(shù)分類。傳統(tǒng)的頻譜感知算法有能量檢測、循環(huán)平穩(wěn)檢測、特征值檢測、匹配濾波檢測等[4]。

      圖1 頻譜感知技術(shù)分類

      隨著機(jī)器學(xué)習(xí)受到越來越多的關(guān)注,并且在許多領(lǐng)域中得到了應(yīng)用。很多專家學(xué)者們把機(jī)器學(xué)習(xí)應(yīng)用到頻譜感知[5]。機(jī)器學(xué)習(xí)通過復(fù)雜的計算,實(shí)現(xiàn)學(xué)習(xí)、推理和決策,是一種利用樣本數(shù)據(jù),優(yōu)化系統(tǒng)性能指標(biāo)的方法,具有評估和解釋模式的能力。機(jī)器學(xué)習(xí)算法可以解決現(xiàn)實(shí)中大量的非線性分類問題,包括非線性回歸和分類問題。因而從分類的角度看,機(jī)器學(xué)習(xí)及其相關(guān)的理論完全具備解決頻譜感知問題的能力[6]。

      基于現(xiàn)有的機(jī)器學(xué)習(xí)頻譜感知算法,本文提出了一種K-D樹KNN-SVM聯(lián)合分類器的頻譜感知算法,可以進(jìn)一步提高頻譜感知中對授權(quán)用戶的檢測率,同時降低虛警率。本文分析研究了KNN與SVM各自的優(yōu)缺點(diǎn),即KNN在大樣本的情況下,計算開銷大,SVM在分類超平面附近的樣本分類容易出錯。因此,通過KNN算法將分類超平面附近的樣本信息充分利用起來,從而提高頻譜感知檢測率。KNN在計算的過程中,有部分計算是沒有必要的。運(yùn)用K-D樹KNN,將訓(xùn)練樣本排列成二叉樹的結(jié)構(gòu),可以省去多余的計算,有效地降低了訓(xùn)練時間和分類延遲[7]。文獻(xiàn)[8]提出一種LSTM神經(jīng)網(wǎng)絡(luò)分類器,無需估計檢測門限值,也無需構(gòu)造特征向量。文獻(xiàn)[9]提出一種先利用PCA對信號能量最大的循環(huán)譜特征進(jìn)行降維,再利用訓(xùn)練好的XGBoost算法對信號進(jìn)行分類。文獻(xiàn)[10]提出一種在隨機(jī)檢測理論基礎(chǔ)上,利用雙門限對傳統(tǒng)最大最小特征值(MME)算法進(jìn)行改進(jìn)。文獻(xiàn)[11]提出一種通過強(qiáng)化學(xué)習(xí)的方法,有效識別惡意用戶,使其逐漸退出感知網(wǎng)絡(luò),使協(xié)作頻譜感知網(wǎng)絡(luò)更具智能性和穩(wěn)定性。文獻(xiàn)[12]提出一種在協(xié)作感知網(wǎng)絡(luò)中,通過遺傳算法對權(quán)值的優(yōu)化,實(shí)現(xiàn)對每個感知節(jié)點(diǎn)設(shè)定合適的感知門限進(jìn)行優(yōu)化。文獻(xiàn)[13]提出了一種基于SVM的協(xié)作頻譜感知模型,該模型利用用戶分組的方法來減少協(xié)作開銷并有效地提高檢測性能。在協(xié)作感測過程之前,使用能量數(shù)據(jù)樣本和SVM模型對認(rèn)知無線電用戶進(jìn)行正確分組。文獻(xiàn)[14]提出一種基于貝葉斯機(jī)器學(xué)習(xí)的新框架,利用多個SU的移動性來同時收集頻譜感知數(shù)據(jù)并合作得出全局頻譜狀態(tài)。

      1 系統(tǒng)模型

      頻譜感知的目的是發(fā)現(xiàn)空閑信道頻段,從而提高頻譜資源利用率。實(shí)現(xiàn)的方法是對收到的信號采樣、檢測,進(jìn)而分類出當(dāng)前授權(quán)頻段內(nèi)是否存在主用戶信號。頻譜感知可以看作是一個二元分類問題。設(shè)H0表示主用戶信號存在,H1表示主用戶信號不存在,則接收信號為:

      對該時域上的信號y(t)以頻率為fs進(jìn)行采樣,可得到時域離散信號為:

      式中:y(k)為認(rèn)知節(jié)點(diǎn)接收到的信號;x(k)為主用戶信號;n(k)是均值為0、方差為σ2n的高斯白噪聲,n(k)與x(k)彼此獨(dú)立。接收信號的樣本協(xié)方差矩陣可以表示為:

      基于接收信號的協(xié)方差矩陣特征值檢測法首先對接收信號進(jìn)行采樣,求出信號樣本的協(xié)方差矩陣Rr(N),進(jìn)而得到矩陣的特征值。根據(jù)不同的算法構(gòu)造出不同的檢測統(tǒng)計量T,再根據(jù)系統(tǒng)所需達(dá)到的虛警率Pf,計算出實(shí)際的判決閾值γ。將檢測統(tǒng)計量T和閾值γ進(jìn)行比較,判斷當(dāng)前頻段是否存在授權(quán)用戶信號。

      在協(xié)方差矩陣MME算法中,λMAX,λMIN為接收信號協(xié)方差矩陣的最大和最小特征值。檢測統(tǒng)計量TMME為:

      將信號協(xié)方差矩陣分解,求解矩陣特征向量作為聯(lián)合分類器算法的特征向量輸入到K-D樹KNN-SVM聯(lián)合分類器中訓(xùn)練。相比傳統(tǒng)的特征值檢測法,不需要計算信號的統(tǒng)計判決量T來與檢測閾值γ相比。

      根據(jù)授權(quán)用戶是否存在,將授權(quán)用戶不存在情況下的特征向量T0標(biāo)記為負(fù)類樣本,即屬于“-1”類;將主用戶存在情況下的特征向量T1標(biāo)記為正類樣本,即屬于“+1”類。此時的訓(xùn)練樣本就由正類樣本和負(fù)類樣本組成。將此樣本集輸入到K-D樹KNN-SVM聯(lián)合分類器模型中,完成訓(xùn)練。

      2 K-D樹KNN-SVM聯(lián)合分類器

      2.1 K近鄰分類器

      KNN是一種基本分類與回歸的方法,一般是用來解決分類問題。它的輸入為待分類樣本特征向量,輸出為待分類樣本類別,可以取多類。KNN假設(shè)給定一個訓(xùn)練樣本集,其中各樣本類別已定。對于待分類樣本x,遍歷與訓(xùn)練樣本之間的距離。若與x最鄰近的樣本i屬于某一類別ωi,則x也屬于ωi類。

      為了提高KNN的準(zhǔn)確率,選擇與待分類樣本x距離最近的k個樣本,通過投票方式進(jìn)行決策。若ωi為k個類別中票數(shù)最高的類,則x也屬于ωi類。

      2.2 近鄰的距離度量表示法

      K近鄰模型的特征空間一般是n維實(shí)數(shù)向量空間。特征空間中不同樣本之間的距離反映樣本之間的相似程度。兩個樣本之間的“距離”越近,則相似度越高。一般而言,定義一個距離函數(shù)D(x,y),需要滿足對稱性、非負(fù)性、自反性和三角不等式這4個準(zhǔn)則。以下是距離的定義公式:

      稱為閔可夫斯基距離。當(dāng)它滿足上述定義的4個距離準(zhǔn)則時,隨著對應(yīng)的矢量范數(shù)p的不同,代表的距離度量也不同。

      當(dāng)p=2時,表示為歐氏距離:

      當(dāng)p=1時,表示為哈曼頓(街市)距離:

      當(dāng)p=∞時,表示為切比雪夫距離:

      一般情況下,根據(jù)數(shù)據(jù)可選擇最佳的k值。若選擇較小的k值,容易發(fā)生過擬合,整體模型變得復(fù)雜,導(dǎo)致模型學(xué)習(xí)的估計誤差增大。若選擇較大的k值,類別之間的界限會變模糊,增大模型學(xué)習(xí)的近似誤差。在實(shí)際應(yīng)用中,k先取一個比較小的數(shù)值,再采用交叉驗(yàn)證法來逐步調(diào)整k值,最終選擇適合該樣本的最優(yōu)的k值。

      從算法的實(shí)現(xiàn)過程中可發(fā)現(xiàn),該算法的優(yōu)點(diǎn)是實(shí)現(xiàn)起來較為簡單,缺點(diǎn)是需存儲全部的訓(xùn)練樣本且計算量較大,對于每一個待分類樣本,都需遍歷其與所有已知樣本的距離,才能求得它的k個最近鄰點(diǎn)。

      2.3 K-D樹KNN

      2.3.1 K-D樹的簡介

      K-D樹是一種分割d維數(shù)據(jù)空間的數(shù)據(jù)結(jié)構(gòu),主要應(yīng)用于多維空間關(guān)鍵數(shù)據(jù)的搜索,如范圍搜索和最近鄰搜索。在對d維樣本空間進(jìn)行劃分時,用垂直于坐標(biāo)軸的超平面將d維空間切分,構(gòu)成一系列的d維超矩形區(qū)域,K-D樹的每個節(jié)點(diǎn)對應(yīng)于一個d維超矩形區(qū)域。因此利用K-D樹可以省去對大部分無用數(shù)據(jù)點(diǎn)的搜索,從而減少搜索的計算量。對于具有k維點(diǎn)的K-D樹,所有非葉子節(jié)點(diǎn)都存在于被分成兩部分的平面空間內(nèi),平面左側(cè)的點(diǎn)是左子樹的節(jié)點(diǎn),平面右側(cè)的點(diǎn)是右子樹的節(jié)點(diǎn)。

      2.3.2 基于信號樣本協(xié)方差矩陣特征向量建立K-D樹

      在獲得接收信號樣本的協(xié)方差矩陣特征向量,并將其導(dǎo)入到模型后,它們將被視為K-D樹的節(jié)點(diǎn),分為根節(jié)點(diǎn)和葉子節(jié)點(diǎn)。對于由n個d維數(shù)據(jù)組成的樣本集,任意樣本和任意維度的特征值都可以作為根節(jié)點(diǎn),但為了確保以最快的速度搜索到最近鄰,需構(gòu)造一個均衡的二叉樹。可通過以下方法建立均衡K-D樹:

      1)確定根節(jié)點(diǎn)

      對于所有樣本點(diǎn),計算每個維度的方差,選出與最大方差相對應(yīng)的維,稱之為分割軸。然后所有樣本點(diǎn)均按分割維排序,位于中間的數(shù)據(jù)點(diǎn)作為根節(jié)點(diǎn),也稱分割節(jié)點(diǎn)。

      2)確定左右子樹

      將某一點(diǎn)與相同維中的分割節(jié)點(diǎn)的值進(jìn)行比較,若該節(jié)點(diǎn)的值大于分割點(diǎn)的值,則應(yīng)將該節(jié)點(diǎn)放入分割節(jié)點(diǎn)右側(cè)的子樹中;相反,若該節(jié)點(diǎn)的值小于分割節(jié)點(diǎn)的值,則將其放入左側(cè)的子樹中。

      3)遞歸過程

      按照方法2)中建樹方法,遞歸左子樹和右子樹,直到所有數(shù)據(jù)都組建在一棵樹中,即子集中只含有一個樣本時,退出遞歸過程。

      至此已完成建立基于信號樣本的協(xié)方差矩陣特征向量K-D樹,以上操作可使得樣本有序化。其中,分割軸與分割超平面相互垂直,交點(diǎn)為樣本在分割軸的特征值。對于n個d維的樣本,K-D樹實(shí)際上就是將樣本d維的特征空間劃分為n個互不相交的區(qū)域。因此,可以快速地找出樣本x屬于d維空間的那個區(qū)域,進(jìn)而得到樣本x的分類屬性。

      圖2展示了K-D樹算法的搜索流程,適用于訓(xùn)練樣本數(shù)量遠(yuǎn)大于樣本空間維數(shù)的情況。將最近鄰搜索的時間復(fù)雜度從暴力搜索的O(n)降低至O(log2n),搜索經(jīng)過的節(jié)點(diǎn)與識別目標(biāo)樣本點(diǎn)距離最接近的樣本,不一定是識別目標(biāo)樣本x的最近鄰。因此,通過回溯過程,可以找到真正的最近鄰樣本。

      圖2 K-D樹算法搜索流程

      2.3.3 K-D樹的最近鄰搜索算法

      輸入:已構(gòu)造的K-D樹,識別目標(biāo)樣本x。

      深度搜索:

      1)在K-D樹中找出包含識別目標(biāo)樣本的葉節(jié)點(diǎn),從根節(jié)點(diǎn)出發(fā),遞歸向下訪問K-D樹。若目標(biāo)點(diǎn)當(dāng)前維的坐標(biāo)值小于分割點(diǎn)的坐標(biāo)值,則移動到左子節(jié)點(diǎn),否則移動到右子節(jié)點(diǎn)。直到子節(jié)點(diǎn)為葉節(jié)點(diǎn)為止。

      2)以此葉節(jié)點(diǎn)為“當(dāng)前最近鄰點(diǎn)”。

      回溯,遞歸向上回退,在每個回退樣本節(jié)點(diǎn)進(jìn)行以下操作:

      1)如果回退樣本節(jié)點(diǎn)保存的樣本點(diǎn)比當(dāng)前最近鄰點(diǎn)距目標(biāo)點(diǎn)更近,則以該回退樣本點(diǎn)為“當(dāng)前最近鄰點(diǎn)”。

      2)“當(dāng)前最近鄰點(diǎn)”一定存在于回退樣本節(jié)點(diǎn)中某一子節(jié)點(diǎn)對應(yīng)的區(qū)域,需要回退到樣本子節(jié)點(diǎn)的父節(jié)點(diǎn),檢查該父節(jié)點(diǎn)的另一個子節(jié)點(diǎn)對應(yīng)的區(qū)域是否有更近的點(diǎn)。以目標(biāo)點(diǎn)為球心,以與“當(dāng)前最近鄰點(diǎn)”間的距離為半徑,檢查是否與此超球體相交。若相交,在另一個子節(jié)點(diǎn)對應(yīng)的區(qū)域內(nèi)存在距離目標(biāo)更近的點(diǎn),移動到另一個子節(jié)點(diǎn),遞歸地進(jìn)行最近鄰搜索。

      3)如果不相交,向上回退。4)當(dāng)回退到根節(jié)點(diǎn)時,搜索結(jié)束。輸出:最近鄰樣本節(jié)點(diǎn)和分類屬性。

      2.4 SVM分類器

      SVM算法又被稱之為大間距分類器算法,在線性不可分的情況,也能正確分類。它的目的在于找到一個超平面,在分離數(shù)據(jù)的時候,盡量用最大的間距去分離。優(yōu)化目標(biāo)函數(shù)可表示如下:

      需滿足約束條件:

      此外,通過引入松弛變量ξi,使得分類器對異常值點(diǎn)不過于敏感。因此,最終的優(yōu)化目標(biāo)函數(shù)為:

      且滿足約束條件:

      通過拉格朗日乘子法優(yōu)化此問題,如下所示:

      根據(jù)Karush-Kuhn-Tucker(KKT)條件,分別對w和b求偏導(dǎo),可以得出:

      再將求出的極值點(diǎn)代入,進(jìn)一步可簡化為對偶問題:

      滿足約束條件:

      輸入樣本的向量和標(biāo)簽,得到一個關(guān)于αi的表達(dá)式,再通過求導(dǎo)的方法得出最優(yōu)解α*,將其值代入后,可以求得最終得到分類邊界。

      由于實(shí)際情況下樣本大部分都是非線性可分的,非線性決策邊界若構(gòu)造一個復(fù)雜多項式特征集合,會大大增加計算開銷。因此,通過核函數(shù)的方法,將樣本從原始空間映射到高維特征空間,實(shí)現(xiàn)樣本在高維空間內(nèi)線性可分。所有核函數(shù)都必須滿足默塞爾定理。本文采用的是高斯核函數(shù)k(r i,r j)=rTi r j,在使用前需將特征向量進(jìn)行歸一化處理。運(yùn)用二次規(guī)劃算法求解凸優(yōu)化問題,即可得到分類函數(shù):

      式中sgn(·)為符號函數(shù)。若f(r)=1,則認(rèn)為主用戶存在;相反,f(r)=-1,則認(rèn)為主用戶不存在。

      2.5 K-D樹KNN-SVM聯(lián)合分類器

      通過對以上算法的研究,可得出SVM和KNN各自的優(yōu)缺點(diǎn)。SVM使用核函數(shù)向高維空間進(jìn)行映射,可解決非線性問題的分類。在超平面附近樣本易混淆時,KNN充分利用分類超平面附近的樣本信息,通過計算待分類樣本與已分類樣本之間距離,雖然提高了分類的準(zhǔn)確率,但遍歷了與所有樣本的距離,存在冗余計算。因此,結(jié)合這兩種算法的優(yōu)缺點(diǎn),構(gòu)造出改進(jìn)的基于K-D樹的KNN-SVM聯(lián)合分類器算法。將訓(xùn)練樣本構(gòu)造成均衡的二叉樹結(jié)構(gòu),可大大縮短搜索時間,從而提高搜索效率。

      K-D樹KNN-SVM聯(lián)合分類器的算法流程如圖3所示。

      圖3 K-D樹KNN-SVM聯(lián)合分類器算法流程

      本文中K-D樹KNN-SVM算法的具體步驟如下:

      1)先采用支持向量機(jī)算法對分類樣本測試集進(jìn)行訓(xùn)練,可得出相應(yīng)的參數(shù)以及對應(yīng)的支持向量SV。

      2)得到支持向量機(jī)的輸出值:

      4)若|g(x)|<ε,算法將傳遞參數(shù)x和SV,把SV當(dāng)作訓(xùn)練集輸入到K-D樹KNN算法中進(jìn)行分類,輸出分類結(jié)果。

      分析可得,當(dāng)E=0時,該算法等價于SVM算法,E的值需要根據(jù)實(shí)際的分類結(jié)果來進(jìn)行調(diào)整,進(jìn)而得到最優(yōu)值。特征空間下的超平面不再是SVM的分類超平面,計算訓(xùn)練樣本和每個支持向量之間的距離公式不再是SVM樣本空間下的歐氏距離公式,改為式(22)來計算特征空間中的距離:

      該算法采用的核函數(shù)為高斯核函數(shù),能有效降低算法的復(fù)雜度,從而提升檢測效率。高斯核函數(shù)以及原樣本空間下的歐氏距離公式為:

      在使用高斯核函數(shù)映射后的歐氏距離D(x,y)和原樣本空間下的歐氏距離d(x,y)的表達(dá)式為:

      從式(24)、式(25)的單調(diào)性來看,D(x,y)是d(x,y)的單調(diào)增函數(shù),原樣本空間下與特征空間下樣本相對應(yīng)的位置并沒有發(fā)生變化,變化的只是樣本之間的緊密度,因此二者的使用效果是相同的,樣本之間的近鄰關(guān)系也完全相同。

      3 仿真結(jié)果與分析

      頻譜感知算法性能的指標(biāo)包括虛警率、檢測率和檢測時間。當(dāng)給定系統(tǒng)要求的虛警率時,檢測率越高,檢測時間越短,則頻譜感知算法的性能越佳。

      在AWGN信道環(huán)境下,實(shí)驗(yàn)仿真基于Matlab R2016a。首先利用Matlab產(chǎn)生授權(quán)用戶存在與不存在情況下的模擬信號,分別進(jìn)行采樣得到離散信號,再提取離散信號的協(xié)方差矩陣特征向量,得到訓(xùn)練樣本和測試樣本。其中,75%為訓(xùn)練樣本,25%為測試樣本。調(diào)用Matlab中的LibSVM-3.24算法模塊,進(jìn)行K-D樹KNNSVM聯(lián)合分類器算法的訓(xùn)練,訓(xùn)練完成后,使用訓(xùn)練好的模型對測試樣本進(jìn)行測試,輸出信道中授權(quán)用戶存在與否的分類結(jié)果。

      具體實(shí)驗(yàn)參數(shù)設(shè)置如下,假設(shè)授權(quán)用戶信號為正弦信號,載波頻率fc為5 kHz,信噪比設(shè)置為5~25 dB。噪聲信號為加性高斯白噪聲,均值為0,方差為1。分別采用100幀,200幀,…,1 100幀來對比不同采樣點(diǎn)數(shù)情況下的算法性能,其中每幀包含10個采樣點(diǎn)。SVM的核函數(shù)選擇高斯核函數(shù),其中超參數(shù)的設(shè)置通過交叉驗(yàn)證得到,E的取值為1.06,KNN與KNN-SVM中的K值選擇為13,K-D樹KNN-SVM中的K值選擇為6。不同采樣點(diǎn)數(shù)下的檢測時間對比如圖4所示。

      圖4 不同采樣點(diǎn)數(shù)下的檢測時間對比

      根據(jù)圖4可看出,傳統(tǒng)SVM與KNN檢測時間均在0.003~0.004 s之間,當(dāng)增大采樣點(diǎn)數(shù)時,檢測時間仍小于KNN-SVM聯(lián)合分類算法。因?yàn)槁?lián)合分類器算法在計算復(fù)雜度上,均比單一的SVM和KNN復(fù)雜,這也符合算法客觀規(guī)律。而采用優(yōu)化結(jié)構(gòu)的K-D樹KNN-SVM聯(lián)合算法相比無優(yōu)化的KNN-SVM算法,明顯縮短了檢測時間,因?yàn)榻?jīng)過K-D樹結(jié)構(gòu)優(yōu)化后,使得KNN算法部分提升了搜索效率,縮短了檢測時間。不同信噪比下的檢測時間對比如圖5所示。

      圖5 不同信噪比下的檢測時間對比

      根據(jù)圖5可看出,隨著信噪比的提高,信號間的相關(guān)性較大,雖降低了特征提取難度,但使用K-D樹優(yōu)化結(jié)構(gòu)的KNN-SVM算法相比無優(yōu)化結(jié)構(gòu)的KNN-SVM算法,仍可明顯縮短檢測時間。原因在于無優(yōu)化結(jié)構(gòu)搜索近鄰上花費(fèi)了較多時間,從而使得檢測時間增加。優(yōu)化結(jié)構(gòu)之后在搜索近鄰時,搜索時間差距不明顯,檢測時間趨于穩(wěn)定。不同信噪比下的檢測率對比如圖6所示,虛警率對比如圖7所示。

      圖6 不同信噪比下的檢測率對比

      根據(jù)圖6和圖7可看出,當(dāng)KNN算法使用歐氏距離來尋找最近鄰時,其檢測性能優(yōu)于使用街市距離(哈曼頓距離)。該算法提升了檢測性能,降低了虛警率,提高了檢測率。表1、表2分別為5 dB,25 dB處算法性能對比表。

      圖7 不同信噪比下的虛警率對比

      由表1和表2可看出,K-D樹KNN-SVM聯(lián)合分類器算法檢測性能均優(yōu)于單一的機(jī)器學(xué)習(xí)頻譜感知算法。相比無優(yōu)化結(jié)構(gòu)的KNN-SVM算法,在5 dB處其檢測率提高了1.05%,虛警率降低了2.86%;在25 dB時,檢測率提升了0.14%,虛警率降低了0.006 2%。體現(xiàn)出該算法在檢測性能上的優(yōu)越性。

      表1 5 d B處算法性能對比表 %

      表2 25 d B處算法性能對比表 %

      4 結(jié) 語

      幾種傳統(tǒng)的頻譜感知檢測法,如能量檢測法、特征值檢測法,二者都需要計算出一個準(zhǔn)確的決策閾值,閾值直接影響分類結(jié)果準(zhǔn)確率,一旦分類閾值不準(zhǔn)確,檢測性能將會受到影響。再如匹配濾波檢測法、循環(huán)平穩(wěn)檢測法,前者需要了解信號的先驗(yàn)信息,后者采集數(shù)據(jù)時間較長,計算復(fù)雜度較高,此外還會受到采樣時偏的影響,影響檢測準(zhǔn)確率。本文構(gòu)造的K-D樹KNN-SVM頻譜感知算法,不僅降低了檢測的計算復(fù)雜度,無需計算決策閾值,也不需了解信號先驗(yàn)信息,只是將樣本數(shù)據(jù)輸入到分類器模型中,通過對歷史數(shù)據(jù)的學(xué)習(xí),從而實(shí)現(xiàn)頻譜感知。

      KNN-SVM提取支持向量機(jī)分類界面的模糊樣本,使用KNN的方法進(jìn)行再分類,充分利用分類面附近的樣本信息,從而提高支持向量機(jī)的檢測率。最后,通過仿真比較KNN-SVM和采用K-D樹結(jié)構(gòu)的KNN-SVM,發(fā)現(xiàn)采用K-D樹結(jié)構(gòu)的KNN-SVM聯(lián)合分類器明顯提高了檢測率,降低了檢測時間和虛警率,證明了該方法的有效性。

      猜你喜歡
      檢測時間分類器頻譜
      一種用于深空探測的Chirp變換頻譜分析儀設(shè)計與實(shí)現(xiàn)
      對兩種細(xì)菌鑒定法在血液檢驗(yàn)中的應(yīng)用效果進(jìn)行分析
      新型溶血素與傳統(tǒng)溶血素在臨床血常規(guī)檢驗(yàn)中的應(yīng)用研究
      一種基于稀疏度估計的自適應(yīng)壓縮頻譜感知算法
      BP-GA光照分類器在車道線識別中的應(yīng)用
      ABL90血?dú)夥治鰞x在急診科的應(yīng)用研究
      不同檢測時長對粉煤灰砌塊放射性檢測結(jié)果的影響
      加權(quán)空-譜與最近鄰分類器相結(jié)合的高光譜圖像分類
      結(jié)合模糊(C+P)均值聚類和SP-V-支持向量機(jī)的TSK分類器
      基于LLE降維和BP_Adaboost分類器的GIS局部放電模式識別
      阿拉善右旗| 建平县| 佛坪县| 来安县| 隆林| 湾仔区| 观塘区| 秦皇岛市| 梁山县| 山东省| 句容市| 咸丰县| 绥棱县| 惠水县| 定日县| 无为县| 平陆县| 兰溪市| 宿州市| 绍兴县| 航空| 桦川县| 周口市| 新巴尔虎右旗| 卓资县| 安龙县| 无锡市| 桐梓县| 南昌县| 浦北县| 桦南县| 额敏县| 视频| 平阳县| 宁都县| 宿松县| 南康市| 宁海县| 天水市| 上犹县| 蓬溪县|