張敬一 劉志佳 張銳 毛雙蘭
(1 航天東方紅衛(wèi)星有限公司,北京 100094)(2 中國空間技術(shù)研究院西安分院,西安 710100)
在電子信息技術(shù)發(fā)展推動下,光學(xué)遙感小衛(wèi)星可以完成高分辨率光學(xué)遙感圖像的采集并將數(shù)據(jù)傳輸至地面,滿足人們對高分辨率遙感信息的需求,同時以其研制成本低、周期短、操作靈活等優(yōu)勢越來越受到廣大用戶的青睞,成為航天光學(xué)遙感領(lǐng)域重要的發(fā)展方向。高分辨率光學(xué)遙感小衛(wèi)星有效載荷產(chǎn)生的光學(xué)遙感數(shù)據(jù)量大、數(shù)據(jù)率高,需要經(jīng)過星上數(shù)傳系統(tǒng)處理并傳輸?shù)降孛?,由用戶使用。在其生產(chǎn)研制過程中,數(shù)傳地面測試系統(tǒng)作為星上數(shù)傳、光學(xué)載荷數(shù)據(jù)處理功能測試驗證的重要系統(tǒng),對衛(wèi)星入軌后有效載荷、數(shù)傳系統(tǒng)在軌正常工作和應(yīng)用起著至關(guān)重要的作用。
數(shù)傳地面測試系統(tǒng)主要由數(shù)傳通道測試系統(tǒng)和數(shù)傳基帶測試系統(tǒng)組成。數(shù)傳通道測試系統(tǒng)完成數(shù)傳射頻信號處理、解調(diào)、幀同步等功能,包括接收天線、射頻電纜、衰減器、下變頻、解調(diào)器(解擾、譯碼功能可選用)等通用商用設(shè)備。數(shù)傳基帶測試系統(tǒng)完成基帶數(shù)據(jù)處理(解擾、譯碼、解密解格式、解壓縮),以及測試數(shù)據(jù)存儲、測試功能模塊間數(shù)據(jù)交互、測試軟件集群管理等測試功能,并無商用設(shè)備,要根據(jù)星上數(shù)傳系統(tǒng)設(shè)計[1-2]進行逆處理設(shè)計。近年來,由于需求量旺盛,高分辨率光學(xué)遙感小衛(wèi)星生產(chǎn)向研制批量化發(fā)展,基于刀片服務(wù)器的數(shù)傳基帶測試系統(tǒng)已無法適應(yīng)這一趨勢,亟需一種小型、通用、靈活、可靠和可擴展的數(shù)傳基帶測試系統(tǒng)。
本文以機架服務(wù)器+光纖交換機作為小型、通用、可擴展的硬件架構(gòu),繼承基于刀片服務(wù)器的數(shù)傳基帶測試系統(tǒng)各功能軟件,對其進行并行處理和負載均衡優(yōu)化設(shè)計后,移植于新硬件架構(gòu),實現(xiàn)一種小型實時數(shù)傳基帶測試系統(tǒng),可滿足現(xiàn)有多種類型高分辨率光學(xué)小衛(wèi)星使用的450 Mbit/s×2通道數(shù)傳基帶數(shù)據(jù)處理測試功能需求,同時提高系統(tǒng)集成度、通用性和測試效能。
傳統(tǒng)數(shù)傳基帶測試系統(tǒng)在設(shè)計原理與實現(xiàn)上保持一致。各測試功能,包括數(shù)傳基帶數(shù)據(jù)處理(解擾、譯碼、解密解格式、解壓縮)、測試數(shù)據(jù)存儲、測試功能模塊間數(shù)據(jù)交互、測試軟件集群管理等,均由對應(yīng)的功能模塊實現(xiàn)。其構(gòu)成如圖1所示。
在圖1中,1項功能軟件布置于單臺硬件設(shè)備上,實現(xiàn)1項功能;各功能模塊是獨立的,通過模塊間數(shù)據(jù)交互功能模塊(千兆交換機)互連,進行作業(yè)消息和業(yè)務(wù)數(shù)據(jù)的交互;集群管理模塊通過作業(yè)消息與各業(yè)務(wù)模塊交互,完成業(yè)務(wù)模塊啟動、運行和停止的統(tǒng)一控制,并收集控制信息、模塊間連接信息和業(yè)務(wù)模塊數(shù)據(jù)處理結(jié)果;各業(yè)務(wù)模塊將本模塊處理后得到的業(yè)務(wù)數(shù)據(jù)傳遞給下一個業(yè)務(wù)模塊繼續(xù)處理;系統(tǒng)最終輸出載荷數(shù)據(jù),由無限帶寬(IB)網(wǎng)絡(luò)傳向后端快視。該系統(tǒng)設(shè)計由于系統(tǒng)集成度不高、通用性較差和測試實效性差,無法滿足光學(xué)遙感小衛(wèi)星批量化生產(chǎn)所需的頻繁轉(zhuǎn)場、快速集成和實時判讀等需求。
立足于光學(xué)遙感小衛(wèi)星批量化生產(chǎn)需求,本文提出了一種小型化、通用化、易于集成、測試系統(tǒng)實時性有效性高的數(shù)傳基帶測試系統(tǒng)設(shè)計改進。本文系統(tǒng)設(shè)計在原理上繼承傳統(tǒng)數(shù)傳基帶測試系統(tǒng)功能模塊設(shè)計。在設(shè)計實現(xiàn)上,與傳統(tǒng)設(shè)計相比,將獨立分散的硬件改進設(shè)計為小型、通用、可擴展的硬件架構(gòu),質(zhì)量、體積、功耗大大降低;引入混合并行處理機制,提高軟件自身及系統(tǒng)軟件整體的處理速度,并通過動態(tài)負載均衡算法實現(xiàn)一個高復(fù)雜或者多個較低復(fù)雜度并行處理軟件對同一臺機架服務(wù)器硬件(CPU和內(nèi)存)資源的負載均衡,在宏觀上提高硬件資源平均使用率,顯著降低數(shù)傳基帶測試系統(tǒng)級時間延遲。如圖2所示,以機架服務(wù)器+光纖交換機為系統(tǒng)硬件架構(gòu),根據(jù)軟件功能需求并結(jié)合硬件資源,將各功能模塊軟件靈活均衡地分布在機架服務(wù)器上。
圖2 本文數(shù)傳基帶測試系統(tǒng)構(gòu)成Fig.2 Constitution of baseband test system of data transmission proposed
數(shù)傳基帶測試系統(tǒng)設(shè)計改進關(guān)鍵技術(shù)有以下3點:①基于機架服務(wù)器+光纖交換機的系統(tǒng)硬件設(shè)計,將傳統(tǒng)設(shè)計的獨立硬件設(shè)計為小型、通用、可擴展的硬件架構(gòu);②基于信息傳遞接口(MPI)+共享存儲并行編程(OpenMP)混合并行處理的軟件設(shè)計,提高多臺機架服務(wù)器之間和同一臺機架服務(wù)器上多個同時執(zhí)行軟件的并行處理速度與能力;③OpenMP多線程動態(tài)負載均衡設(shè)計,實現(xiàn)同一臺機架服務(wù)器上多個并行軟件同時執(zhí)行時多核CPU和內(nèi)存資源的負載均衡。
基于刀片服務(wù)器的傳統(tǒng)數(shù)傳基帶測試系統(tǒng)硬件架構(gòu)[5]如圖3所示。該系統(tǒng)設(shè)計考慮刀片服務(wù)器大規(guī)模軟件運算處理能力和處理后數(shù)據(jù)存儲優(yōu)勢,與一些輔助專用設(shè)備構(gòu)建整個系統(tǒng),從技術(shù)角度可以滿足數(shù)傳基帶數(shù)據(jù)處理需求,但是對小型、通用、可擴展等需求存在較大差距。其設(shè)計在以下4個方面存在缺點:①由于刀片服務(wù)器處理能力和兼容性的局限,只能支持單一刀片配備單一軟件,如果需要功能模塊增加,刀片服務(wù)器也需相應(yīng)增加,導(dǎo)致系統(tǒng)質(zhì)量、體積、功耗都隨之增加;②對于解擾、譯碼、解密等預(yù)處理功能,由最新的總線和接口標準(PCIE)接口專用硬件板卡配備在專用服務(wù)器上實現(xiàn),作為獨立的預(yù)處理機,通過千兆交換機連入系統(tǒng);③刀片服務(wù)器本地磁盤寫入速度較低,無法完成在原始數(shù)據(jù)存儲的同時傳輸至后端的功能,此外,單臺刀片服務(wù)器本地磁盤容量有限,無法作為長期專用存儲設(shè)備,所以要專門配備2臺存儲陣列作為原始數(shù)據(jù)記錄設(shè)備; ④刀片服務(wù)器要使用380 V工業(yè)用電供電,對測試場所的供電要求較高且功耗大。
對于不同應(yīng)用場景,刀片服務(wù)器和機架服務(wù)器各有利弊[6]。從空間密度上講,刀片服務(wù)器集成度更高、更節(jié)省空間,單點存儲能力強,布線也更簡單,特別是對于大型數(shù)據(jù)處理系統(tǒng),刀片服務(wù)器更有優(yōu)勢;而機架服務(wù)器存在存儲數(shù)據(jù)分散難以管理、不利于資源和數(shù)據(jù)共享等缺點,但隨著計算機技術(shù)的發(fā)展,機架服務(wù)器在單機成本、系統(tǒng)集成度、主板可擴展性、高速海量存儲、多模光纖高速傳輸(TCP/IP協(xié)議)接口等方面有較大改進,在構(gòu)建小型實時光學(xué)遙感小衛(wèi)星數(shù)傳基帶測試系統(tǒng)上,較刀片服務(wù)器具有一定優(yōu)勢。①單臺機架服務(wù)器具有多核處理器和大容量高速內(nèi)存擴展,可以支持一個或多個軟件對硬件資源的需求;②機架服務(wù)器支持多種類型硬件擴展接口(包括PCIE接口),實現(xiàn)預(yù)處理功能板卡可直接安裝在機架服務(wù)器上;③機架服務(wù)器可自身配置高速海量存儲,實現(xiàn)數(shù)傳原始數(shù)據(jù)記錄的同時向后端傳輸?shù)墓δ埽虎軝C架服務(wù)器電源為普通110~220 V供電,適應(yīng)各類具有常規(guī)供電測試場地,可滿足頻繁轉(zhuǎn)場測試需求。根據(jù)當前光學(xué)遙感小衛(wèi)星對數(shù)傳基帶測試系統(tǒng)測試處理能力的需求,建立如圖4所示的硬件架構(gòu),4~6臺2U(U為美國電子工業(yè)聯(lián)盟標定的服務(wù)器外部尺寸單位)機架服務(wù)器通過光纖交換機進行互連,可以完成原來刀片服務(wù)器及附屬設(shè)備組成的450 Mbit/s×2通道數(shù)傳基帶測試系統(tǒng)硬件功能。該硬件架構(gòu)是通用的,可根據(jù)測試需求擴展硬件。
圖3 基于刀片服務(wù)器的系統(tǒng)硬件架構(gòu)Fig.3 System hardware architecture based on blade server
圖4 基于機架服務(wù)器的系統(tǒng)硬件架構(gòu)
傳統(tǒng)數(shù)傳基帶測試系統(tǒng),由于系統(tǒng)硬件異構(gòu)和整體配置水平較低,系統(tǒng)各功能軟件整體運行為流水式串行處理,數(shù)據(jù)輸入與輸出時延較大,而光學(xué)遙感小衛(wèi)星測試實時需求越來越迫切,對系統(tǒng)的集成度和處理能力要求高,因此考慮在新硬件架構(gòu)上,對軟件設(shè)計加入并行處理機制,解決多個軟件同時運行于多臺和單臺機架服務(wù)器的并行實時處理問題。
MPI[7-8]是多主機聯(lián)網(wǎng)協(xié)作進行并行計算的工具,它能協(xié)調(diào)多臺主機間的并行計算,因此在并行規(guī)模上的可伸縮性很強,能在從個人電腦到世界TOP10的超級計算機上使用。它可以用于單主機上多核/多CPU的并行計算,但效率低,使用進程間通信的方式協(xié)調(diào)并行計算,導(dǎo)致并行效率較低、內(nèi)存開銷大、編程麻煩。
OpenMP[9-11]是針對單主機上多核并行計算設(shè)計的工具,更適合單臺計算機共享內(nèi)存結(jié)構(gòu)上的并行計算。由于使用線程間共享內(nèi)存的方式協(xié)調(diào)并行計算,它在多核/多CPU結(jié)構(gòu)上的效率很高、內(nèi)存開銷小、編程語句簡潔直觀,因此編程容易,編譯器也容易實現(xiàn)(現(xiàn)在最新版的C、C++、Fortran編譯器基本上都內(nèi)置OpenMP支持)。不過,OpenMP最大的缺點是只能在單主機上工作,不能用于多主機間的并行計算。
由以上分析可以看出,OpenMP和MPI可以互補,通過OpenMP和MPI混合方式[12-13],能實現(xiàn)系統(tǒng)內(nèi)各功能軟件在多臺及單臺機架服務(wù)器上的系統(tǒng)級和單機級并行處理。本文采用如圖5所示的混合并行處理實現(xiàn)方案。首先,使用MPI實現(xiàn)系統(tǒng)內(nèi)不同機架服務(wù)器所承載軟件之間的任務(wù)級并行化,通過TCP/IP協(xié)議族提供的進程間通信接口,實現(xiàn)軟件進程間通信,從而提高軟件間數(shù)據(jù)交互實時性;然后,進程間通信到達本地的數(shù)據(jù),處理該數(shù)據(jù)的本地OpenMP使用后軟件完成子任務(wù)級線程計算,實現(xiàn)對單臺機架服務(wù)器多核CPU和內(nèi)存等計算資源的共享與并行使用。
圖5 MPI+OpenMP混合并行處理實現(xiàn)方案Fig.5 Implementation scheme of MPI+OpenMP hybrid parallel processing
OpenMP特別適用于多核處理器上的并行程序設(shè)計。它使用Fork/Join式并行模式(如圖6所示)。其基本思想是,一個OpenMP應(yīng)用程序開始時只有一個主線程,程序中的串行部分都由主線程執(zhí)行,并行的部分是通過派生其他線程來執(zhí)行,如果并行部分沒有結(jié)束,就不會執(zhí)行串行部分。對于本文所選用的機架服務(wù)器,配置一個或多個大運算量格式解析或解壓縮OpenMP程序時,機架服務(wù)器自身配備的Windows Server 2008操作系統(tǒng)無法很好地完成多核處理器和內(nèi)存這些共享計算資源的多線程負載均衡問題。
圖6 Fork/Join并行模式Fig.6 Fork/Join parallel mode
通常來說,先完成任務(wù)的劃分并創(chuàng)建相應(yīng)的多線程,然后才是操作系統(tǒng)對子任務(wù)線程進行執(zhí)行和調(diào)度。因此,在進行任務(wù)負載劃分時,無法預(yù)知操作系統(tǒng)可能的調(diào)度行為,從而難以知道將來系統(tǒng)的負載情況。在實際系統(tǒng)中,當任務(wù)被分解后,每個子任務(wù)都將以操作系統(tǒng)線程的形式存在并調(diào)度運行。每個支持多核處理器的操作系統(tǒng),都有一套自己的線程調(diào)度算法,而該調(diào)度算法將直接影響每個子任務(wù)線程的執(zhí)行完成時間。系統(tǒng)中其他任務(wù)的執(zhí)行情況,又將影響調(diào)度算法的執(zhí)行結(jié)果,因此需要根據(jù)整個系統(tǒng)的負載變化情況動態(tài)決定OpenMP的任務(wù)劃分和負載均衡[14]。
本文通過對機架服務(wù)器及其所使用的Windows Server 2008操作系統(tǒng)、C++編譯器進行OpenMP擴展編譯,在編譯的目標程序代碼中設(shè)計支持動態(tài)創(chuàng)建線程的代碼,然后通過程序設(shè)計實現(xiàn)系統(tǒng)中的各種線程信息參數(shù)收集,并提供反饋機制,包括核心處理器占用數(shù)量,每個處理核心所支持的超線程數(shù)量,當前系統(tǒng)所能處理的子線程數(shù)量,以及當前系統(tǒng)的空閑子線程處理能力的變化歷史統(tǒng)計記錄。在此程序設(shè)計的基礎(chǔ)上,通過軟硬件平臺上大量試驗,采集大量數(shù)據(jù)處理線程與資源分配信息參數(shù)數(shù)據(jù),分析得到各種因素對任務(wù)劃分和負載均衡的影響,根據(jù)這些因素影響程度的大小,設(shè)計多線程對硬件計算資源的動態(tài)劃分和負載均衡算法,改進操作系統(tǒng)資源調(diào)度,使得單臺機架服務(wù)器可支持OpenMP軟件程序多線程負載均衡運行[15-16]。
在相同數(shù)傳測試數(shù)據(jù)處理能力下,基于刀片服務(wù)器的傳統(tǒng)數(shù)傳基帶測試系統(tǒng)設(shè)計(如圖3所示)與本文數(shù)傳基帶測試系統(tǒng)設(shè)計(如圖4所示),在硬件架構(gòu)的設(shè)備數(shù)量、體積、質(zhì)量和功耗的對比,如表1所示,改進后系統(tǒng)硬件架構(gòu)的集成度大幅提升,供電通用性顯著增強。
表1 2種系統(tǒng)指標對比
1)單個軟件OpenMP使用前后處理速度對比
每個數(shù)傳基帶測試系統(tǒng)功能軟件使用OpenMP后,均可實現(xiàn)軟件的并行處理。由各軟件改進前后測試結(jié)果可知,運算量及復(fù)雜度較高的軟件,其使用OpenMP后處理速度有較為明顯的提升。這里以運算量及復(fù)雜度最高解壓縮功能軟件為例,介紹單個軟件使用OpenMP前后處理速度對比。表2和表3中給出了采用某衛(wèi)星真實遙感圖片(城市+山川+河流)作為圖像數(shù)據(jù)源,測試4∶1壓縮比和無損壓縮2種典型壓縮處理的解壓縮處理性能對比。從表2中可以看到:對同一數(shù)據(jù)源,改進后4∶1壓縮比解壓縮的處理時間(解碼時間)約是改進前的1/4,解壓縮速率約是改進前的4倍;CPU使用率是改進前的4.5倍。從表3中可以看到:對同一數(shù)據(jù)源,改進后無損壓縮解壓縮的處理時間約是并行化后的1/5,解壓縮速率約是改進前的5倍,CPU使用率是改進前的5.5倍。4∶1壓縮比解壓縮處理運算量及復(fù)雜度比無損壓縮比解壓縮處理高,改進前后的解碼速率稍低??梢姡褂肙penMP后可提升數(shù)傳基帶數(shù)據(jù)處理各功能軟件自身的處理速度。
表2 4∶1壓縮比解壓縮處理性能對比
表3 無損壓縮解壓縮處理性能對比
2)多個軟件OpenMP使用及負載均衡前后對單臺服務(wù)器資源使用結(jié)果對比
圖7為傳統(tǒng)數(shù)傳基帶測試系統(tǒng)(OpenMP使用及負載均衡前)多個軟件在單臺服務(wù)器(24核CPU,內(nèi)存16 Gbyte)上運行時資源使用情況。在截圖時刻,CPU總平均使用率僅為25%;CPU使用記錄顯示,24核中只有12核在工作,且12核負載不均衡,系統(tǒng)內(nèi)存的總使用率達到了11.00 Gbyte。圖7中物理內(nèi)存使用記錄曲線,反映的是截圖時刻之前物理內(nèi)存隨時間的變化。通過數(shù)據(jù)和曲線可知:多個軟件同時運行時,操作系統(tǒng)對多核CPU和內(nèi)存調(diào)度機制發(fā)揮作用。數(shù)據(jù)輸入前,內(nèi)存使用較高并處于平穩(wěn)狀態(tài);數(shù)據(jù)輸入后,內(nèi)存使用量短時提升,隨著多核CPU從閑置到開始業(yè)務(wù)處理,內(nèi)存中緩存數(shù)據(jù)被快速處理,出現(xiàn)內(nèi)存使用快速下降并短時維持;隨著數(shù)據(jù)不斷輸入,多核CPU使用率趨于平穩(wěn),內(nèi)存使用量迅速回到平衡點。在操作系統(tǒng)調(diào)度機制下,多核CPU無法實時處理不斷輸入的數(shù)據(jù),內(nèi)存使用隨時間呈線性增長。
圖7 OpenMP使用及負載均衡前服務(wù)器資源使用情況Fig.7 Server resource usage before OpenMP usage and load balancing
圖8為本文數(shù)傳基帶測試系統(tǒng)(OpenMP使用及負載均衡后)多個軟件在單臺服務(wù)器上運行時資源使用情況。在截圖時刻,CPU總平均使用率達到了78%;CPU使用記錄顯示,24核全部負載均衡;系統(tǒng)內(nèi)存的總使用率在截圖時刻達到了8.52 Gbyte。結(jié)合物理內(nèi)存使用記錄曲線可知,多個并行軟件同時運行時,動態(tài)負載均衡發(fā)揮作用:在數(shù)據(jù)輸入前,內(nèi)存使用低于圖7;數(shù)據(jù)輸入后,隨著多核CPU從閑置到開始業(yè)務(wù)處理,內(nèi)存使用迅速下降,維持時間約為圖7中的4倍;隨著數(shù)據(jù)不斷輸入,CPU使用率趨于平穩(wěn),內(nèi)存使用量迅速回到平衡點,并一直保持。
圖7與圖8不同,是由于OpenMP使用及負載均衡后,多核CPU和內(nèi)存都工作在較為合理的共享工作范圍內(nèi),單臺機架服務(wù)器硬件資源被充分調(diào)度給其承載的所有并行軟件使用,可滿足輸入數(shù)據(jù)率實時處理需求,實現(xiàn)多個并行軟件在單臺機架服務(wù)器上執(zhí)行。
3)系統(tǒng)軟件整體運行實效性對比
在系統(tǒng)層面,通過MPI將系統(tǒng)內(nèi)各臺機架服務(wù)器軟件進行任務(wù)級并行,最終構(gòu)成數(shù)傳基帶測試系統(tǒng)。與傳統(tǒng)數(shù)傳基帶測試系統(tǒng)同時輸入相同450 Mbit/s×2通道數(shù)據(jù)源,通過兩者輸入輸出時延比較時效性。系統(tǒng)輸入時間為數(shù)據(jù)輸入起始時間與輸入停止時間的差值。系統(tǒng)輸出時延分為2個部分:①系統(tǒng)建立延時是指數(shù)據(jù)輸入起始時間與輸出起始時間差值;②系統(tǒng)處理時延為系統(tǒng)輸出起始時間至系統(tǒng)停止輸出時間,由于解壓縮是基帶測試系統(tǒng)中復(fù)雜度最高的軟件,在其運行后系統(tǒng)處理時延以解壓縮工作時間為主。以在軌衛(wèi)星載荷平均輸出數(shù)據(jù)率3.6 Gbit/s為例,選取其高壓縮比數(shù)傳原始數(shù)據(jù)作為系統(tǒng)輸入數(shù)據(jù)源,綜合壓縮比約為4.5∶1(4路全色4∶1,4路多光譜6∶1),數(shù)傳幀效率為0.863。試驗結(jié)果如圖9所示,本文系統(tǒng)建立時延顯著縮短;系統(tǒng)處理時延約是傳統(tǒng)系統(tǒng)的1/4,且與系統(tǒng)輸入時間基本一致。由此可見,本文系統(tǒng)除去系統(tǒng)建立延時,可以實時完成輸入數(shù)據(jù)的處理能力,從整星研制角度,可節(jié)省研制過程中大量測試處理等待時間。
圖9 2種系統(tǒng)輸出數(shù)據(jù)率對比Fig.9 Comparison of output data rate for two systems
本文設(shè)計的光學(xué)遙感小衛(wèi)星數(shù)傳基帶測試系統(tǒng),具有基帶處理功能完備、集成度高、通用性強、時效性高等特點,可以很好解決光學(xué)遙感小衛(wèi)星批量化生產(chǎn)需求,如基于通用硬件架構(gòu)適應(yīng)不同光學(xué)遙感小衛(wèi)星的快速軟件改造,易于運輸、快速集成和常規(guī)供電等優(yōu)點適用于頻繁轉(zhuǎn)場,可實時判讀測試結(jié)果,顯著縮短測試等待時間。后續(xù)將研究基于單臺高性能機架服務(wù)器的數(shù)傳基帶測試系統(tǒng),實現(xiàn)更高性能的通用化、智能化、小型化光學(xué)遙感小衛(wèi)星數(shù)傳基帶測試系統(tǒng)。
參考文獻(References)
[1] 蒙紅英,郝修強.高分一號數(shù)傳分系統(tǒng)設(shè)計及在軌驗證[J].航天器工程,2014,23(z1):51-55
Meng Hongying,Hao Xiuqiang. Design and on-orbit verifi-cation of data transmission subsystem of GF-1 satellite [J]. Spacecraft Engineering, 2014, 23(z1): 51-55 (in Chinese)
[2] 張敬一,歐民,毛志毅.小衛(wèi)星數(shù)傳基帶數(shù)據(jù)處理通用集成平臺設(shè)計[J].航天器工程,2017,26(1):79-85
Zhang Jingyi, Ou Min, Mao Zhiyi. Universal integrated platform design for data transmission baseband data processing of small satellite [J]. Spacecraft Engineering, 2017, 26(1): 79-85 (in Chinese)
[3] 劉志佳,嚴林,宋紫溪.基于刀片服務(wù)器的數(shù)傳地面測試平臺設(shè)計[C]//2011年小衛(wèi)星技術(shù)交流會論文集.北京:航天東方紅衛(wèi)星有限公司,2011:75-79
Liu Zhijia, Yan Lin, Song Zixi. Design for the test platform of satellite DTS based on blade server [C]//Proceedings of the Small Satellite Technology Conference 2011. Beijing: DFH Satellite Co., Ltd., 2011:75-79 (in Chinese)
[4] 趙利民,倪琳娜,劉勇.遙感載荷通用數(shù)據(jù)處理平臺設(shè)計與實現(xiàn)[J].航天器工程,2014, 23(4): 77-83
Zhao Limin, Ni Linna, Liu Yong. Design and practice of general data processing platform for remote-sensing payload [J]. Spacecraft Engineering, 2014, 23(4): 77-83 (in Chinese)
[5] 宋紫溪,嚴林,覃正熙.高分一號衛(wèi)星高碼速率數(shù)據(jù)傳輸?shù)孛鏈y試系統(tǒng)[J].航天器工程,2014,23(z1):56-59
Song Zixi,Yan Lin, Qin Zhengxi. Ground test system for high-speed data transmission of GF-1 satellite [J]. Spacecraft Engineering, 2014, 23 (z1): 56-59 (in Chinese)
[6] 張勇.刀片服務(wù)器與機架式服務(wù)器的比較分析[J].中國教育信息化,2009(9):78-79
Zhang Yong.Comparison and analysis between blade server and rack server [J]. China Education Informatization, 2009(9): 78-79 (in Chinese)
[7] 趙捷,趙榮彩,韓林.面向MPI代碼生成的Open64編譯器后端[J].計算機學(xué)報,2014,37(7):1620-1631
Zhao Jie, Zhao Rongcai, Han Lin. An MPI backend for Open64 compiler [J]. Chinese Journal of Computers, 2014, 37(7): 1620-1631 (in Chinese)
[8] 趙偉彪. MPI并行空間算法在云計算平臺上的遷移技術(shù)研究[D].成都:電子科技大學(xué),2014
Zhao Weibiao. Research on migration of MPI parallel Geo-information algorithm based on cloud computing [D]. Chengdu: University of Electronic Science and Technology of China, 2014 (in Chinese)
[9] 潘小敏,皮維超,盛新慶.基于共享內(nèi)存的高效OpenMP并行多層快速多級子算法[J].北京理工大學(xué)學(xué)報,2012,32(2):164-169
Pan Xiaomin, Pi Weichao, Sheng Xinqing. Efficient parallelization of multilevel fast multipole algorithm based on OpenMP [J]. Transactions of Beijing Institute of Technology, 2012, 32(2): 164-169 (in Chinese)
[10] 劉京.面向Open64的OpenMP相關(guān)編譯優(yōu)化技術(shù)研究[D].合肥:中國科學(xué)技術(shù)大學(xué),2015
Liu Jing. Research on optimization technology of OpenMP for Open64 [D]. Hefei: University of Science and Technology of China, 2015 (in Chinese)
[11] 胡榮.多核架構(gòu)下基于OpenMP的Huffman壓縮算法并行程序設(shè)計研究[D].長沙:湖南大學(xué),2012
Hu Rong. Research on parallel program design of Huffman compression algorithm based on OpenMP in multi-core architecture [D]. Changsha: Hunan University, 2012 (in Chinese)
[12] 李雨航,李景山,趙仕美.遙感衛(wèi)星圖像系統(tǒng)幾何校正多級并行算法[J].遙感信息,2016,31(3):51-55
Li Yuhang, Li Jingshan, Zhao Shimei. Multi-level para-llel algorithm of systematically geometric correction for remote sensing satellite imagery [J]. Remote Sensing Information, 2016, 31(3): 51-55 (in Chinese)
[13] 劉陽.壓縮光譜成像中結(jié)構(gòu)稀疏重構(gòu)算法的分布式計算[D].西安:西安電子科技大學(xué),2014
Liu Yang. Distributed computing for structural sparsity reconstruction algorithm in compressed spectral imaging [D]. Xi’an: Xidian University, 2014 (in Chinese)
[14] 范會敏,李滋田.基于OpenMP 的多線程負載均衡調(diào)度策略[J].計算機與現(xiàn)代化,2013,15(12):192-195
Fan Huimin, Li Zitian. Scheduling scheme of multi-thread load balance in OpenMP [J]. Computer and Modernization, 2013, 15(12): 192-195 (in Chinese)
[15] 任小西,唐玲,李仁發(fā).OpenMP多線程負載均衡調(diào)度策略研究與實現(xiàn)[J].計算機科學(xué),2010,37(11):145-151
Ren Xiaoxi, Tang Ling, Li Renfa. Study and implementation of OpenMP multi-thread load balance sche-duling scheme [J]. Computer Science, 2010, 37(11): 145-151 (in Chinese)
[16] 陳佐,楊秋偉,萬新.一種多線程負載均衡分析方法研究[J].計算機應(yīng)用研究,2011,28(5):1752-1755
Chen Zuo, Yang Qiuwei, Wan Xin. Research on analyzing load equilibrium of multi-threads [J]. Application Research of Computers, 2011, 28(5): 1752-1755 (in Chinese)