麻 鷹,王 瑞
(上海大學 通信與信息工程學院,上海 200444)
人為差錯是在民航安全中被廣泛提及的一個詞,它是指人未能按既定計劃完成規(guī)定任務,從而造成設備、財產損失的行為。
文中設計了一種基于深度學習算法的人為差錯評價模型,有助于加強民航企業(yè)內部對維修人員的人為差錯的管控,降低維修中人為差錯的發(fā)生率,提高安全生產質量。同時彌補了現階段民航企業(yè)內部對維修人員個體人為差錯管控上存在的實時性、預測性、針對性的缺陷。
該系統深度學習算法的核心是通過分析人為差錯的誘因,構建基于徑向基神經網絡評價模型;首次提出慣性自適應灰狼算法訓練徑向基神經網絡的權值和閾值,從而使系統具有良好的實用性、準確性。
評價系統的影響因子(輸入層)通過研究人為差錯的經典文獻:SHEL模型、REASON模型、墨菲定理、HFACS系統,結合企業(yè)業(yè)務特點(東航虹橋維修基地為例),以《航空人員的維修差錯管理》為基礎,提出了各層面:自身層面(M1-M4)、環(huán)境層面(N1-N4)、組織層面(X1-X4)、管理層面(Y1-Y6)共計18個影響人為差錯的因子,如表1所示。
表1 影響人為差錯的因子
系統的評價等級(輸出層)則主要參考東航《機務維修人員安全積分的管理辦法》:安全積分以一個自然年為周期,共計10分。發(fā)生一般維修差錯/嚴重維修差錯/維修事故癥候,根據情節(jié)的嚴重程度,扣除安全積分1分~3分/3分~7分/7分~10分;走訪東航虹橋維修基地質量部門4名專家,以及大量在崗維修人員,最終確定見表2:將現有安全積分3分(含)以下定義為不安全,即容易發(fā)生人為差錯;將現有安全積分7分(含)以下定義為一般,即可能發(fā)生人為差錯;將現有安全積分7分以上定義為安全,即不容易發(fā)生人為差錯。
表2 評價等級與輸出層期望值
(1)徑向基神經網絡。
徑向基函數(radial basis function,RFB)神經網絡是由J.Moody和C.Darken在80年代末提出的,它是具有單隱層的三層前饋網絡。由于它模擬了人腦中局部調整、相互覆蓋接收域的神經網絡結構,有很強的非線性擬合能力,可映射任意復雜的非線性關系,而且學習規(guī)則簡單,便于計算機實現。具有很強的魯棒性、記憶能力、非線性映射能力以及強大的自學習能力。因此,RBF神經網絡是一種局部逼近網絡,能夠以任意精度逼近任意連續(xù)函數,特別適合于解決分類問題。
(2)灰狼算法。
灰狼算法(grey wolf optimization,GWO)是一種基于動物行為學的智能算法。其主要通過模仿狼群的社會關系,以及它們的狩獵、捕獵行為,構建數學模型。狼群共分為4個階層,每個階層都有嚴格的階級分工:α
狼是整個狼群的首領,是最高階層的狼,對狼群有著絕對的領導能力,狼群中任何狼都必須聽命于α
狼;β
狼是僅次于α
狼的第二階層狼,它只聽命于α
狼,并協助領導其余狼;δ
狼再次之,服從α
狼、β
狼的領導,且只可以領導普通的ω
狼。圍獵行為:
(1)
狩獵行為:
(2)
(3)
式(3)分別定義了ω
狼群中個體朝向α
、β
、δ
前進的步長和方向,式(4)定義了ω
狼的最終位置。(4)
(3)粒子群算法(PSO)。
粒子群算法(particle swarm optimization,PSO)是受到鳥群在覓食中遷徙、聚集行為的啟發(fā)。初始狀態(tài)下,PSO是一群隨機的粒子,粒子在迭代過程中受到個體極值和全局極值的影響,使粒子向空間內最優(yōu)解趨近并降落。
核心公式如下:
v
=ω
·v
+c
·r
(pbest-x
)+c
·r
(gbest-x
),x
=x
+v
(5)
其中,i
=1,2,…,N
,N
是粒子總數;v
是粒子速度,r
、r
是[0,1]的隨機數;c
、c
學習率為一個常數;ω
是慣性因子,是個非負數。(1)社會信息共享機制。
受粒子群算法的啟發(fā),根據ω
狼迭代時的更新位置受到全局最優(yōu)解(α
、β
、δ
狼)的影響,建立整個狼群的信息共享交流機制。(6)
(2)自適應慣性因子策略。
(7)
式中,ω
為ω
的初始值,ω
為ω
的終值,t
為最大迭代數。綜上所述,IAHGWO算法訓練RBF神經網絡的步驟如圖1所示。
圖1 混合灰狼算法訓練RBF神經網絡流程
通過MATLAB2018a進行仿真對比實驗,在灰狼算法原文采用的23種基準函數表中分類選取其中具有代表性的基準函數表(見表3)作對比。設置狼群總數30;迭代次數500,取30次仿真的平均值,圖2展示了尋優(yōu)迭代效率。
圖2 IAHGWO與標準GWO性能對比
通過比較可以明顯看出,文中提出的慣性自適應混合灰狼算法(IAHGWO)在性能上明顯優(yōu)于標準灰狼算法,將慣性自適應混合灰狼算法的適應度函數設為:
圖3 混合灰狼算法訓練RBF神經網絡誤差曲線
優(yōu)化后的RBF神經網絡誤差值如圖3所示,呈持續(xù)下降的趨勢。說明IAHGWO對RBF神經網絡起到了優(yōu)化作用,使RBF神經網絡的正確率從87.65%提升到了95.88%。
以東航虹橋維修基地為例,在其內發(fā)放問卷200份,回收173份,其中有效問卷157份,有效問卷回收率為78%。被試者的工作司齡都在2~20年間,從事一線維修工作。對采集的數據運用SPSS22進行信度和效度分析,結果如表3、表4所示,表明上述問卷采集的數據可以被采納。
表3 基準函數參數
表4 信度與效度校驗參數
使用MATLAB2018a將采集的數據代入標準RBF神經網絡進行訓練,結果見圖4??梢钥闯?,RBF神經網絡的誤差在第251步完成收斂。說明所構建的RBF神經網絡模型與民航維修中的人為差錯,建立了良好的非線性關系。表5為東航虹橋維修基地兩名一線維修人員的原始數據,通過IAHGWO-RBF模型計算,得到與期望值幾乎近似的數值,且與兩人實際相符,可以說該模型具有相當強的實用性。
圖4 RBF神經網絡收斂曲線
表5 原始數據計算結果
提出一種慣性自適應混合灰狼算法,通過與標準灰狼算法做仿真比較,證明了該算法的優(yōu)越性。
通過慣性自適應混合灰狼算法訓練后RBF神經網絡,誤差顯著下降,準確率從87.65%提升到了95.88%以東航虹橋維修基地為例,驗證了構建的民航維修人為差錯評價模型具有良好的實用性和準確性。為后期的推廣提供了實踐基礎。