胡思逸 沈岱靈 周小林 凌力
摘 要: ?泊松散彈噪聲具有非線性、非加性的性質(zhì),因而受到研究者的廣泛關(guān)注。20世紀(jì)80年代以來,大量關(guān)于泊松信道速率和容量的成果被提出。然而,由于泊松噪聲的特殊性質(zhì),導(dǎo)致速率公式復(fù)雜,過去的研究成果大多集中在理論極限性能的推導(dǎo)上下界的問題上。提出了一種基于深度學(xué)習(xí)的方法,針對復(fù)雜的速率公式,給出了非理想條件下的最優(yōu)解,對于實際系統(tǒng)的性能有一定的參考價值。并且,深度學(xué)習(xí)較傳統(tǒng)梯度下降搜索算法有更高的泛用性和更快的速度。
關(guān)鍵詞: 泊松信道; 光子計數(shù); 深度學(xué)習(xí)
中圖分類號: TP 311
文獻(xiàn)標(biāo)志碼: A
Abstract: Poisson shot noise has the characteristics of non-linearity and non-additiveness, and has attracted widespread attention of researchers. Since the 1980s, a large number of results on Poisson channel rate and capacity have been proposed. However, due to the special nature of Poisson noise, the rate formula is complicated. Most of the previous research results have focused on the derivation of the theoretical limit performance. In this paper, a method based on deep learning is proposed. For the complex rate formula, the optimal solution under non-ideal conditions is given, which has certain reference value for the performance of the actual system. Moreover, deep learning has higher versatility and faster speed than traditional gradient descent search algorithms.
Key words: poisson channel; photon counting; deep learning
0 引言
在無線光通信系統(tǒng)中,接收端光子計數(shù)器產(chǎn)生的噪聲符合泊松分布,具有特殊的性質(zhì)。在過去的研究中,泊松噪聲多被近似為高斯噪聲處理。然而,這一近似方法僅在光強(qiáng)較大時適用。近年來,許多學(xué)者嘗試針對泊松噪聲模型進(jìn)行更精確的理論分析。Gong Chen研究了連續(xù)泊松信道速率模型下的功率分配[1]?,Verdu推導(dǎo)出了泊松速率公式的一些性質(zhì)[2]。Amos Lapidoth在對離散泊松速率公式近似化簡的基礎(chǔ)上,推導(dǎo)了泊松信道速率的上界和下界[3]。然而,由于公式的復(fù)雜度較高,僅在發(fā)射功率較低時才有較好的近似效果,可用于研究系統(tǒng)的極限性能,但不易應(yīng)用于針對實際系統(tǒng)的研究。而近年來廣泛應(yīng)用的深度學(xué)習(xí)技術(shù)可研究復(fù)雜公式的性質(zhì),簡化了分析的難度,對于實際系統(tǒng)有一定的參考價值。
1 研究內(nèi)容
1.1 泊松信道速率
采用光強(qiáng)調(diào)制/直接檢測(IM/DD)的單用戶無線光通信系統(tǒng)的結(jié)構(gòu),如圖1所示。
神經(jīng)網(wǎng)絡(luò)作為多隱層的MLP,自然可以作為一個通用近似算子。神經(jīng)網(wǎng)絡(luò)采用對目標(biāo)函數(shù)(誤差函數(shù))進(jìn)行反向傳播與梯度下降的方法,實現(xiàn)對近似算子的擬合。這種擬合在一類不具備結(jié)構(gòu)化公式的問題以及在一類復(fù)雜的結(jié)構(gòu)化公式的最優(yōu)解問題上得到了較為廣泛的應(yīng)用[8-9]。
1.3 優(yōu)化算法設(shè)計
本文聚焦于多信道的泊松噪聲下用戶功率的優(yōu)化問題,采用深度學(xué)習(xí)的方法,對傳統(tǒng)復(fù)雜問題的最優(yōu)解進(jìn)行梯度下降形式的搜索工作。本文所建立的模型具有傳統(tǒng)方法不具備的優(yōu)勢:
1、傳統(tǒng)的數(shù)學(xué)方法使用求偏導(dǎo)的方式對高復(fù)雜度的數(shù)學(xué)公式進(jìn)行梯度的計算和迭代來求取最優(yōu)解,效率較低且易陷入局部最優(yōu)。
2、神經(jīng)網(wǎng)絡(luò)在沒有離散標(biāo)簽的情況下,無法有效進(jìn)行離散形式的輸出。
算法的主要改進(jìn)有兩點。第一,采用特殊構(gòu)造的輸入對網(wǎng)絡(luò)的收斂方向進(jìn)行控制。純隨機(jī)的變量輸入會導(dǎo)致網(wǎng)絡(luò)的輸出的不穩(wěn)定,由于本文所構(gòu)建的目標(biāo)函數(shù)的級數(shù)較大(近似為有限階乘),訓(xùn)練過程中易造成梯度爆炸。第二,目標(biāo)函數(shù)需要離散值作為輸入。由于梯度只能保存在連續(xù)的變量中,離散的輸出值會導(dǎo)致梯度消失。算法的具體細(xì)節(jié)如表1所示。
算法采用保存對連續(xù)變量近似到最近離散值(自然數(shù))的方法,將去除梯度的近似距離作為加函數(shù)疊加到原始輸出值上,解決梯度消失問題。算法中Nb代表背景光子數(shù)組合,Rate代表分配的發(fā)射光子數(shù)組合,model代表神經(jīng)網(wǎng)絡(luò),I代表目標(biāo)函數(shù),具體參見公式(3)、(4)。
2 仿真和分析
2.1 仿真設(shè)置
本文中使用的實驗平臺為Windows10操作系統(tǒng),硬件環(huán)境為2核Intel(R) Core(TM) i5-7500 CPU @ 3.40 GHz,內(nèi)存為24 GB,顯卡為NVIDA的 GTX 1060,顯存為6 G。本實驗?zāi)P蛯嶒灳赑ytorch環(huán)境下搭建。
本文采用的實驗數(shù)據(jù)根據(jù)1.1節(jié)所介紹,由于不同頻率的光同時發(fā)送信息,大氣中的背景光會對其形成干擾,而不同頻率的光子在大氣中的數(shù)量不同。本文根據(jù)不同的環(huán)境條件,共進(jìn)行3組實驗,環(huán)境參數(shù)設(shè)置分別為:
其中,batch_size代表參與一次梯度下降的批次大小,前兩組由于輸入固定,為了符合神經(jīng)網(wǎng)絡(luò)并行計算的要求,batch_size的值大于等于2;第三組由于求取泛化的最優(yōu)解,故設(shè)置batch_size為100。K代表信道數(shù)。Rc與R為常量。ns_ave 代表網(wǎng)絡(luò)輸出上增加的手動偏移,由于默認(rèn)背景光總數(shù)為40*信道數(shù),故設(shè)置網(wǎng)絡(luò)的初始搜索點為40+初始的網(wǎng)絡(luò)輸出值。ns_total代表信道的背景光總數(shù)。采用的優(yōu)化器為adam,學(xué)習(xí)速率為0.001,訓(xùn)練總次數(shù)設(shè)置為50個迭代。
由于信道數(shù)在3,4的情況下,可以用遍歷的方法得到函數(shù)的最優(yōu)解,故本文采用組一組二兩組來驗證模型最優(yōu)解的可行性。信道數(shù)較高情況下(>=10),使用遍歷的方法得到函數(shù)最優(yōu)解的計算代價過大,神經(jīng)網(wǎng)絡(luò)的泛化性使得模型在不同輸入情況下,可以產(chǎn)生泛化的目標(biāo)輸出,以此減小傳統(tǒng)方法的計算資源浪費,故采用實驗組三的參數(shù),來驗證預(yù)訓(xùn)練的模型可以在不同背景光子參數(shù)輸入下得到不同最優(yōu)解,達(dá)到模型泛化與效率提升。
2.2 實驗結(jié)果與實驗分析
如圖3所示。
三信道與四信道實驗結(jié)果可見,模型所采取的使用近似距離來保存梯度的方法,對于網(wǎng)絡(luò)的訓(xùn)練是有效的。模型在40-50個epoch時收斂于最優(yōu)值附近。
模型的輸入分別為5,5,50(三信道)與5,5,5,50(四信道)。由遍歷法可得,最優(yōu)解為37,37,46(三信道)與38,38,38,46(四信道),與模型收斂值曲線的最高點所在信道功率相同。如圖4所示。
根據(jù)實驗所產(chǎn)生的結(jié)果模型在每個epoch隨機(jī)生成10個背景光子組合進(jìn)行了評估并記錄所有性能的均值,最后,展示了性能的變化折線。由曲線可見,模型在隨機(jī)產(chǎn)生的背景光子組合下的性能逐步提升,最終收斂在9.42附近,證明在不同的背景光子下,模型產(chǎn)生的最優(yōu)解產(chǎn)生了足夠強(qiáng)的泛化性,使得和速率輸出穩(wěn)定。
2.3 優(yōu)化性能分析
將訓(xùn)練好后的模型應(yīng)用于實際場景中,隨機(jī)選取一組背景光子Nb,選取不同信道數(shù)場景,比較均勻功率下的性能和經(jīng)過優(yōu)化后的系統(tǒng)性能,如圖6所示。
由圖6分析可得,經(jīng)過訓(xùn)練后的模型,在10信道與30信道的情景下,在不同的背景光子總數(shù)下,優(yōu)化算法對系統(tǒng)的性能都具有明顯的提升。其中在10信道下,優(yōu)化算法對和速率的提升隨著發(fā)射光子總數(shù)的增大基本穩(wěn)定,而在30信道下,和速率提升隨著發(fā)射光子總數(shù)的增大而逐漸增大,這說明在信道數(shù)較高且發(fā)射總光子數(shù)較大的情況下,優(yōu)化算法對和速率的提升更加明顯。
3 總結(jié)
本文使用深度學(xué)習(xí)的方法對泊松單用戶并行信道的優(yōu)化進(jìn)行了研究,針對搜索離散變量最優(yōu)解的問題,對算法做出了一定的改進(jìn)。由仿真結(jié)果可知,對于泊松散彈噪聲受限光子計數(shù)問題,深度學(xué)習(xí)可通過梯度下降的方法進(jìn)行離散最優(yōu)點搜索,這種方法為解決泊松優(yōu)化問題提供了一種新的思路。仿真結(jié)果顯示,算法在不同的信道數(shù)與不同總光子數(shù)條件下均可得出最優(yōu)解,并具有較強(qiáng)的泛化性。
參考文獻(xiàn)
[1] Liu B, Gong C, Cheng J, et al. Power Allocation Over Broad Spectra Optical Wireless Scattering Communication Based on Link Gain Correlation[J]. IEEE Transactions on Communications, 2019, 67(10): 6980-6993.
[2] Guo D, Shamai S, Verdú S. Mutual information and conditional mean estimation in Poisson channels[J]. IEEE Transactions on Information Theory, 2008, 54(5): 1837-1849.
[3] Lapidoth A, Shapiro J H, Venkatesan V, et al. The discrete-time Poisson channel at low input powers[J]. IEEE Transactions on Information Theory, 2011, 57(6): 3260-3272.
[4] Bashbaghi S, Granger E, Sabourin R, et al. Deep Learning Architectures for Face Recognition in Video Surveillance[J]. 2019: 133-154.
[5] Bengio Y. Learning Deep Architectures for AI[J]. Foundations & Trends? in Machine Learning, 2(1):1-127.
[6] I Goodfellow, Y Bengio, A Courville. Deep learning[M]. Cambridge: MIT Press, 2016.
[7] Schmidhuber, Jürgen. Deep learning in neural networks: An overview[J]. Neural Network, 2015(61):85-117.
[8] Alex Krizhevsky, I Sutskever, G Hinton. ImageNet Classification with Deep Convolutional Neural Networks[J]. Advances in neural information processing systems, 2012, 25(2):1097-1105.
[9] Graves A, Mohamed A R, Hinton G. Speech Recognition with Deep Recurrent Neural Networks[J].2013(5):6645-6649.
(收稿日期: 2019.08.11)