• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      基于云計算的電力系統(tǒng)計算分析平臺構(gòu)建

      2022-09-02 09:09:58蘇寅生周挺輝鄭外生趙利剛甄鴻越黃冠標
      南方電網(wǎng)技術(shù) 2022年7期
      關(guān)鍵詞:集群用戶分析

      蘇寅生,周挺輝,鄭外生,趙利剛,甄鴻越,黃冠標

      (1. 中國南方電網(wǎng)電力調(diào)度控制中心,廣州510663;2. 直流輸電技術(shù)國家重點實驗室(南方電網(wǎng)科學研究院),廣州510663;3. 中國南方電網(wǎng)有限責任公司,廣州510663)

      0 引言

      電力系統(tǒng)建模與仿真分析是支持大電網(wǎng)安全穩(wěn)定運行的重要技術(shù)基礎(chǔ),南方電網(wǎng)在多年的規(guī)劃運行中應(yīng)用多種計算分析工具,開展了穩(wěn)態(tài)分析、動態(tài)分析、暫態(tài)分析等多類型的仿真計算。但隨著大量分布式新能源的接入以及系統(tǒng)建模的精細化[1]、控制系統(tǒng)的復(fù)雜化[2]、系統(tǒng)規(guī)模的不斷擴大[3],仿真效率將急劇降低,當前單人單機的仿真模式已經(jīng)無法滿足日益增長的仿真需求。

      在國內(nèi),國家電網(wǎng)公司首先于2015年構(gòu)建新一代特高壓交直流電網(wǎng)仿真平臺,核心仿真分析平臺為部署于中國電科院的超算平臺。超算平臺承載著超級并行計算和仿真計算核心程序,并以網(wǎng)絡(luò)方式對外提供計算服務(wù),另外通過協(xié)同計算平臺提供異地計算能力,滿足大批量故障任務(wù)并行批處理[4 - 5]。

      相對而言,南方電網(wǎng)公司在基于云計算共享的電力系統(tǒng)計算分析平臺方面起步較晚,仍主要采用傳統(tǒng)的工作模式,未能充分利用先進的高性能計算和智能化處理技術(shù)。另一方面,南方電網(wǎng)總調(diào)為解決傳統(tǒng)集中式架構(gòu)中的諸多問題,因地制宜地提出了兼顧性能與安全性的分布式解決方案,實現(xiàn)了從集中式架構(gòu)轉(zhuǎn)變?yōu)榉植际郊軜?gòu)的轉(zhuǎn)變,以數(shù)字化、智能化代替了傳統(tǒng)的“煙囪”設(shè)計。依托阿里私有云構(gòu)建了電力行業(yè)第一個完全基于互聯(lián)網(wǎng)新技術(shù)的調(diào)度自動化系統(tǒng)基礎(chǔ)平臺[6]。

      基于上述挑戰(zhàn)和機遇,本文以南方電網(wǎng)總調(diào)分布式底層平臺為依托,提出了基于現(xiàn)代互聯(lián)網(wǎng)新技術(shù)的電力系統(tǒng)計算分析平臺。異于傳統(tǒng)超算平臺自研管理及調(diào)度系統(tǒng)管理刀片機的做法,本文以當前互聯(lián)網(wǎng)領(lǐng)先的Kubernetes集群管理系統(tǒng)及Docker容器化部署技術(shù)為基礎(chǔ),對基于云計算共享的電力系統(tǒng)計算分析平臺進行探索,提出了可實時動態(tài)擴展的集群系統(tǒng)架構(gòu),構(gòu)建了高效、可靠、綠色的共享計算平臺和協(xié)同工作平臺,并與傳統(tǒng)的計算結(jié)果進行比對,驗證該平臺的準確性、可靠性及效率。

      1 計算分析平臺的需求分析

      在電力系統(tǒng)計算分析方面,南方電網(wǎng)各級調(diào)度、規(guī)劃部門傳統(tǒng)的計算模式在數(shù)據(jù)準備、執(zhí)行仿真、結(jié)果處理等各階段均需大量人工操作,而且耗時較長,電網(wǎng)仿真分析的并行化和自動化程度較低,與現(xiàn)代計算機發(fā)展脫節(jié)。此外,在大電網(wǎng)的大量計算分析中涉及的電網(wǎng)運行方式眾多,但目前僅主要關(guān)注電網(wǎng)的穩(wěn)定性結(jié)論,對于大量的有價值的計算過程信息并沒有進行有效地存儲和分析,可能對后續(xù)分析工作造成不利影響。此外,隨著新型電力系統(tǒng)的發(fā)展,未來將有較多的新能源進行接入,新能源的隨機性、波動性、間歇性使得發(fā)電計劃的不確定性大幅增加,傳統(tǒng)的典型工況(豐大、豐小、枯大、枯小)難以覆蓋新能源電力系統(tǒng)的運行狀態(tài)。未來將會構(gòu)建海量的運行方式進行仿真計算,即便進行了典型運行方式的辯識,動輒還需要數(shù)十上百個運行方式的計算。在未來找到合理的安全邊界解析方法大量縮減運行方式數(shù)量前,為保障系統(tǒng)的安全穩(wěn)定性,對大量運行方式的計算是較為可靠的方法之一。面對比當前增加十多倍工作量的計算,傳統(tǒng)的單機或單機多核計算在效率上已經(jīng)捉襟見肘。另一方面,國家電網(wǎng)的超算中心仿真平臺的研發(fā)已經(jīng)證明了,開發(fā)一套集中管理式的電力系統(tǒng)計算分析平臺經(jīng)濟社會價值意義重大,可為提升電網(wǎng)分析水平提供強有力支撐。

      為支撐電網(wǎng)的安全穩(wěn)定運行,實行數(shù)字電網(wǎng)推動構(gòu)建新型電力系統(tǒng)[7],本文所開發(fā)的平臺應(yīng)具備如下功能。

      1)承載電力系統(tǒng)主要分析功能的核心程序,包括但不限于潮流、機電暫態(tài)、短路計算、交直流相互影響分析等[8]。上述程序以網(wǎng)絡(luò)的形式對外提供服務(wù),可滿足用戶大批量故障任務(wù)的并行批處理。另一方面可實現(xiàn)復(fù)雜單一故障的并行計算,例如電力系統(tǒng)安全穩(wěn)定導(dǎo)則(2019年版)[9]新增的機電-電磁暫態(tài)混合仿真需求,為電網(wǎng)運行分析提供高效、精確的仿真能力。

      2)具備滿足各級規(guī)劃、調(diào)度人員開展異地聯(lián)合計算分析的功能,包括但不限于計算編輯、計算設(shè)置、單任務(wù)計算、批處理任務(wù)提交、結(jié)果分析等。實現(xiàn)不同層級用戶的并發(fā)、協(xié)同使用需求,最終實現(xiàn)網(wǎng)、省、地計算業(yè)務(wù)的底層資源共享和一體化管理。

      3)具備價值信息的存儲與回溯能力。對于大量有價值的計算過程與結(jié)果信息,一方面通過友好界面為初始用戶提供決策信息,另一方面通過集中式的儲存,為日后發(fā)展人工智能學習、大數(shù)據(jù)挖掘提供充分的歷史信息。

      2 關(guān)鍵技術(shù)與技術(shù)難點

      計算分析平臺構(gòu)建關(guān)鍵點有3個:高效、可靠以及綠色。高效即計算速度要快,能在盡量短的時間內(nèi)完成用戶的計算;可靠即系統(tǒng)的安全性高,在平臺部分故障的情況下依然不中斷服務(wù);綠色即節(jié)能,盡量減少資源的占用和閑置浪費。

      基于現(xiàn)代計算機的發(fā)展,高效以及可靠完全可以依靠堆砌硬件予以實現(xiàn),通過聯(lián)合部署眾多的多核計算機、服務(wù)器等,近年來涌現(xiàn)了多種技術(shù)方案[10 - 13],提供數(shù)百核乃至數(shù)萬核進行并行計算。然而電力系統(tǒng)的仿真計算閑時忙時特征尤其明顯,在年度方式、迎峰度夏期間,計算需求將明顯倍增,平時十倍、數(shù)十倍的計算需求將沖擊計算平臺。為了應(yīng)付在這期間的高并發(fā)需求,需要底層硬件平臺需提供足夠的算力,不得不部署大量的底層計算機。但峰值過后,大量的閑置計算機又造成了資源的浪費,不符合綠色的特點。同時,如何對眾多的計算節(jié)點進行有效地管理,提供不間斷的運行服務(wù),也是重點之一。

      為實現(xiàn)上述的關(guān)鍵點,既能夠高可靠性地滿足用戶的使用需求,同時又不造成資源的浪費,是計算分析平臺的技術(shù)難點。為此,本文從技術(shù)選型、系統(tǒng)設(shè)計等方法進行了綜合考慮。通過對現(xiàn)代的計算機技術(shù)的綜合比較,結(jié)合互聯(lián)網(wǎng)開發(fā)的前沿技術(shù),提出了基于云平臺的可實時動態(tài)擴展的集群系統(tǒng)架構(gòu)。該架構(gòu)實現(xiàn)了從傳統(tǒng)單體應(yīng)用向微服務(wù)化的轉(zhuǎn)變,將數(shù)據(jù)管理、計算服務(wù)、統(tǒng)計服務(wù)、歸檔服務(wù)進行了解耦與隔離。去中心化的設(shè)計帶來了更高的可用性和彈性、松耦合也便于各個服務(wù)的獨立升級維護,并阻止了可能的系統(tǒng)故障蔓延。該部分在第3節(jié)進行了探索。通過彈性擴展的系統(tǒng)設(shè)計共享調(diào)度云數(shù)萬核心的資源池,從硬件、軟件等多層次實現(xiàn)了資源的共享,為用戶提供了高性能計算服務(wù)的同時,最大限度地減少了資源的占用,實現(xiàn)對硬件的綠色使用。

      3 計算分析平臺技術(shù)路線

      3.1 基礎(chǔ)硬件平臺選型

      自1983年中國首臺超算銀河一號研制成功后,國內(nèi)超算已有近40年的發(fā)展歷史,并成為了國家科技發(fā)展水平和綜合國力的標志之一。而在2006年亞馬遜云服務(wù)Amazon Web Services (AWS)對外公開使用,2010年阿里云正式對外運營,云服務(wù)不過才10余年的歷史;但云服務(wù)的飛速發(fā)展,甚至讓傳統(tǒng)超算也形成了“云超算”的發(fā)展趨勢,表1展示了二者的對比情況[14]。

      表1 傳統(tǒng)超算與現(xiàn)代云服務(wù)的對比Tab.1 Comparison between traditional supercomputing and modern cloud services

      基于上述的特點對比,為滿足電力系統(tǒng)計算分析平臺的共享性、爆發(fā)性需求,本文采用了云服務(wù)的技術(shù)路線,以南方電網(wǎng)總調(diào)的調(diào)度云平臺為依托而建設(shè)。該平臺是南方電網(wǎng)總調(diào)聯(lián)合阿里企業(yè)云建設(shè)的分布式解決方案。截至目前為止,SCADA 系統(tǒng)、電力現(xiàn)貨交易系統(tǒng)、電網(wǎng)負荷預(yù)測等一系列核心應(yīng)用系統(tǒng)均已完成了云平臺的改造和部署,解決了傳統(tǒng)系統(tǒng)負載集中、應(yīng)用受單個服務(wù)器性能限制的問題,大大降低了原有應(yīng)用的響應(yīng)時間、提升了應(yīng)用的運行效率。

      3.2 Kubernetes集群管理系統(tǒng)

      為保障本文所述平臺的高效及可靠性,核心系統(tǒng)采用了工業(yè)級的Kubernetes(簡稱K8s)集群管理系統(tǒng)及Docker容器化部署技術(shù),提高平臺的可用性及靈活擴展特性[15 - 17]。Docker是一個應(yīng)用容器引擎,讓開發(fā)者可以應(yīng)用以及依賴包到一個可移植的容器中,在一臺機器上瞬間創(chuàng)建幾十個相同的或不同的應(yīng)用,且相互之間使用沙箱機制進行隔離,不會出現(xiàn)相互干擾。而K8s是開源的容器集群管理系統(tǒng),可以實現(xiàn)docker容器集群的自動化部署、自動擴縮容、維護等功能[18]。如圖1所示,通過一系列的組件提供了容器編排、調(diào)度的服務(wù),為容器化的應(yīng)用提供部署運行、資源調(diào)度、服務(wù)發(fā)現(xiàn)和動態(tài)伸縮等功能,提高了大規(guī)模容器集群管理的便捷性,為當前基于容器技術(shù)的分布式架構(gòu)領(lǐng)先方案。

      圖1 K8s集群組件示意圖Fig.1 Component diagram of K8s cluster

      Kubernetes在當前互聯(lián)網(wǎng)領(lǐng)域得到了廣泛的應(yīng)用。京東早在2016年年底上線了京東新一代容器引擎平臺JDOS2.0,成功從Openstack切換到JDOS2.0的Kubernetes技術(shù)棧[19]。2018年,阿里巴巴將核心控制系統(tǒng)Sigma 重新設(shè)計并遷移成兼容 K8s API,至2019年多數(shù)應(yīng)用都在K8s上運行,并成功應(yīng)對了2019年的“雙11”購物節(jié)[20]。該管理系統(tǒng)已在事實上成為了現(xiàn)代互聯(lián)網(wǎng)系統(tǒng)管理大規(guī)模并發(fā)的主流解決方案。

      3.3 平臺架構(gòu)說明

      確定了以上的核心技術(shù)選型后,本文計算分析平臺服務(wù)器端調(diào)用了總調(diào)調(diào)度云(阿里私有企業(yè)云)的對象存儲(object storage service,OSS)組件、鍵值數(shù)據(jù)庫組件(remote dictionary server, Redis)、消息中間件(rocket message queue, RocketMQ)、企業(yè)級分布式應(yīng)用服務(wù)(enterprise distributed application service,EDAS)、K8s集群管理系統(tǒng);用戶采用客戶端或瀏覽器進行訪問,客戶端沿用南網(wǎng)科研院自主研發(fā)的計算分析軟件(dynamic simulation program,DSP)戶端并進行了適當?shù)母脑?,瀏覽器版本則與客戶端系統(tǒng)架構(gòu)采用共同的后臺服務(wù)。本文以客戶端為例,整體方案如圖2所示。

      平臺架構(gòu)以K8s集群為核心,運行主要的調(diào)配及處理、計算服務(wù);阿里云RocketMQ作為消息中間件,作為各個服務(wù)間的傳遞觸發(fā)載體與緩沖;對象存儲OSS作為數(shù)據(jù)的存儲空間;數(shù)據(jù)庫Redis作為高速緩存以及任務(wù)隊列。企業(yè)級分布式應(yīng)用服務(wù)EDAS與負載均衡(server load balancer,SLB)相互配合,為用戶提供高可靠性的網(wǎng)絡(luò)服務(wù)。

      圖2 系統(tǒng)架構(gòu)示意圖Fig.2 System architecture diagram

      以電力系統(tǒng)最常規(guī)的機電暫態(tài)仿真批處理為例,說明上述平臺的運作流程。用戶提交數(shù)據(jù)后(可為用戶主動提交的任務(wù),或由其他系統(tǒng)推送),產(chǎn)生了以下的動作。

      1)網(wǎng)絡(luò)請求通過SLB負載均衡及EDAS后,通過反向代理獲得其中可用的其中一個Tomcat服務(wù)器;服務(wù)器收到請求后,將數(shù)據(jù)存入OSS存儲區(qū),并向消息中間件RocketMQ的“待計算”隊列生成消息,向高速緩存Redis標記該任務(wù)為“未完成”。

      2)運行于K8s的“調(diào)配服務(wù)”訂閱了RocketMQ的“待計算”隊列,一旦隊列非空,則消費收到的消息:一方面分析計算任務(wù)請求,將具體的計算任務(wù)(例如100個機電暫態(tài)仿真子任務(wù))形成隊列存入Redis高速緩存;隨后啟動“計算服務(wù)”,下達指令給集群中的各個Worker計算節(jié)點,讓其啟動服務(wù);同時對計算服務(wù)進行監(jiān)控,根據(jù)不同的狀態(tài)執(zhí)行不同的操作。

      (1)待計算隊列已空、且無任務(wù)計算失敗,則認為計算已成功完成,停止“調(diào)配服務(wù)”,并向RocketMQ的“待處理”隊列生產(chǎn)消息;

      (2)待計算隊列已空、但有任務(wù)計算失敗,則認為任務(wù)計算已不正常完成;重新計算失敗的任務(wù),若重試N次(例如2次)仍無法成功,則停止“調(diào)配服務(wù)”,并向RocketMQ的“待處理”隊列生成消息。

      3)運行于K8s的“計算服務(wù)”,受到“調(diào)配服務(wù)”控制。啟動時將在各個計算節(jié)點同時啟動多個計算應(yīng)用(Pod),根據(jù)“調(diào)配服務(wù)”的指令從本地(若有)或服務(wù)器下載計算核心引擎鏡像,從OSS下載計算數(shù)據(jù),每個Pod從Redis高速緩存中取當前任務(wù)的子任務(wù)(例如,其中一個故障的機電暫態(tài)仿真)進行計算,成功執(zhí)行后數(shù)據(jù)存回OSS。

      4)運行于K8s的“處理服務(wù)”訂閱了RocketMQ的“待處理”隊列,觸發(fā)后從OSS下載數(shù)據(jù),對各個獨立的子任務(wù)結(jié)果進行統(tǒng)計,形成匯總表;隨后向高速緩存Redis修改該任務(wù)為“已完成”。

      5)用戶定時或手動詢問某個任務(wù)是否完成,若已完成則通過Tomcat返回匯總表和/或結(jié)果數(shù)據(jù)。用戶通過客戶端或者瀏覽器對結(jié)果進行查看。

      4 可靠性設(shè)計

      計算分析平臺的核心思想是云共享,將支撐總調(diào)、中調(diào)及地調(diào)各層面的計算分析需求等,滿足各級調(diào)度人員異地聯(lián)合高效開展各類日常運行方式計算工作,對可靠性提出了極高的要求。雖然當前計算機技術(shù)已經(jīng)對可靠性進行了極大的保障,但實際中仍存在節(jié)點失效不可用的情況。比如,由于安全漏洞、硬件故障或者設(shè)備斷電、計劃維護等問題,導(dǎo)致某些承載機重啟或下線。平臺需保證在上述意外情況下,降低不良影響,保證高可靠性。為此,平臺設(shè)計了多層防護措施。

      4.1 高可靠組件

      平臺全部采用阿里云成熟的工業(yè)級產(chǎn)品,包括但不限于儲存、集群、數(shù)據(jù)庫、消息中間件等。上述組件由阿里云、云原生計算基金(cloud native computing foundation, CNCF)、Apache軟件基金會等廠家和開源基金會進行維護和升級,從底層上確保平臺組件的高可靠性。

      4.2 冗余設(shè)計

      平臺的核心程序均運行于K8s集群上,K8s集群是本平臺的核心部分。為保障其可用性,K8s集群采用了3.Master+N.Worker(3主機N從機)設(shè)計,如圖3所示[21]。

      主服務(wù)器Master采用了3臺服務(wù)器集群的形式,只要有任意一臺服務(wù)器正常使用,平臺即可正常地提供控制服務(wù)。計算節(jié)點采用N個Worker的形式,即使其中部分的服務(wù)器不可用,僅造成算力的下降,僅在平臺極高負載率的情況下對計算效率有輕微的影響,不會影響平臺的正常使用,且隨時可以通過增加Worker的形式以恢復(fù)甚至增強平臺的算力。

      圖3 K8s高可用性集群Fig.3 K8s high availability cluster

      對用戶的接口服務(wù)器采用了SLB負載均衡和EADS企業(yè)級分布式應(yīng)用服務(wù),多層負載均衡服務(wù)可以保障平臺應(yīng)對高用戶并發(fā)時的處理能力。從架構(gòu)上支持多個集群的冗余和Tomcat應(yīng)用的多實例,只要在整個平臺中有其中任意一個Tomcat服務(wù)正常,即可提供有效的網(wǎng)絡(luò)服務(wù)。同時,多個Tomcat實例也有效地降低了多用戶高并發(fā)時的壓力。

      Redis數(shù)據(jù)庫采用了主從設(shè)計,主服務(wù)器不可用時,從服務(wù)器自動切換為主服務(wù)器,不間斷地提供服務(wù)。

      通過上述的保證措施,實現(xiàn)了任意組件的其中一個節(jié)點(“N-1”)乃至更多節(jié)點(“N-2”)情況下,平臺仍能在用戶無感知的情況下平穩(wěn)運行。

      4.3 容錯及自愈特性

      通過冗余設(shè)計,本平臺可以有效應(yīng)對某個組件部分崩潰的問題。但為以防萬一組件發(fā)生全面崩潰,或設(shè)計中引入了未知的BUG,在設(shè)計中采取了多種措施以避免任務(wù)計算失敗、故障持續(xù)。

      1)看門狗策略:調(diào)配服務(wù)設(shè)立超時機制,單個計算任務(wù)設(shè)置了超時時間,提供重啟策略及限制重啟次數(shù)。在努力對用戶的任務(wù)進行計算的同時,也考慮了用戶數(shù)據(jù)有誤造成計算失敗的問題,對各個任務(wù)實現(xiàn)了隔離,避免了故障的蔓延。

      2)自動驅(qū)逐及恢復(fù)策略:基于K8s集群策略,限制了單一應(yīng)用的CPU、內(nèi)存等占用的上限。一旦應(yīng)用發(fā)生異常造成資源消耗過大,管理系統(tǒng)將驅(qū)逐異常應(yīng)用并進行重構(gòu),以恢復(fù)應(yīng)用的正常運行。

      3)組件崩潰的備份重構(gòu)策略:各個組件間提供備份重構(gòu)的方案。例如,若K8s集群整體發(fā)生了崩潰,在集群重新上線或存在備用集群時,調(diào)配服務(wù)可從高速緩存Redis和消息中間件RocketMQ重啟未計算的任務(wù)、部分計算任務(wù)中未完成的子任務(wù);若RocketMQ或Redis不可用,待平臺組件恢復(fù)正常后或存在備用集群時,可從OSS存儲中恢復(fù)RocketMQ和Redis緩存。

      平臺的最終保障為OSS存儲,即相當于計算機的硬盤。當OSS存儲損壞時,本系統(tǒng)才發(fā)生不可逆轉(zhuǎn)的數(shù)據(jù)損失。根據(jù)平臺設(shè)計,OSS存儲可以開啟本地的冗余以及異地備份,基本難以發(fā)生全面崩潰的情況。根據(jù)阿里云的官方數(shù)據(jù),數(shù)據(jù)安全可靠性為99.999 999 999%(11個9)。

      用戶成功提交了計算任務(wù)后,平臺將通過上述多項措施保證任務(wù)的正常執(zhí)行。

      5 高效、協(xié)同設(shè)計

      計算分析平臺的最終目標是供網(wǎng)、省、地三級調(diào)度系統(tǒng)人員進行使用,平時狀態(tài)下一般用于日常的方式計算安排等,同時在線用戶數(shù)較少;但在迎峰度夏、年度方式等場景下,將在短時間內(nèi)產(chǎn)生爆發(fā)性的計算需求。為應(yīng)對大規(guī)模使用時的高并發(fā)高負載,同時避免堆疊硬件資源造成的閑時資源浪費,平臺設(shè)計了多種效率提升和共享方案。

      5.1 可彈性擴展的硬件資源

      核心計算K8s集群采用了圖3的3.Master+ N.Worker設(shè)計,其中每個Worker均由南網(wǎng)調(diào)度云平臺的硬件資源池模擬,可以提供8~64核甚至更多的虛擬CPU核資源。集群的硬件資源并不獨享,而是共享調(diào)度云數(shù)萬節(jié)點的海量計算資源。在有需要的情況下,可將單個Worker的資源擴展至64核以上;或是將Worker的數(shù)目擴展至二三十臺及以上,最終實現(xiàn)超過數(shù)千核心的計算平臺。在平臺負載壓力不大的情況下,可及時釋放硬件資源。該設(shè)計可充分利用資源池的優(yōu)勢,既保證了忙時的效率,又減少了閑時資源的浪費。

      5.2 共享的軟件資源池

      核心計算K8s集群可實現(xiàn)與其他應(yīng)用系統(tǒng)的共享。多個應(yīng)用間通過命名空間實現(xiàn)資源隔離,具體的資源使用可由管理員進行單獨控制或者由集群自行管控,實現(xiàn)基于云計算的共享特性。

      5.3 用戶間的負載均衡

      平臺設(shè)計了平衡用戶間任務(wù)的調(diào)配服務(wù),避免單個用戶不合理地搶占資源、由于計算任務(wù)的堆積對其他用戶的請求產(chǎn)生延遲響應(yīng)。例如,僅有1個用戶使用時,其將可以動用所有的計算核心;但當在線用戶數(shù)M大于1時,其可動用的核心將調(diào)減為所有核心的1/M個,同時將每個用戶的同時運行任務(wù)數(shù)調(diào)整為1。

      該調(diào)整是動態(tài)實現(xiàn)的,執(zhí)行中若出現(xiàn)超過占用超過1/M的核心時,平臺提供多種策略予以調(diào)整:1)立刻終止超過1/M的計算子任務(wù),資源調(diào)配給其他用戶。被終止的子任務(wù)將在該用戶的其他子任務(wù)執(zhí)行完成后重啟。2)不立刻終止,等待計算中的子任務(wù)執(zhí)行完成后釋放。

      上述的策略可以保障用戶間較為“均勻”地使用了集群的計算核心,但為了避免過多用戶同時運行時,所有人的等待時間過長,又設(shè)計了單用戶的最低占用核心數(shù),限制同時運行的任務(wù)數(shù),實行任務(wù)強行排隊,以避免單個用戶等待時間過長。

      上述的效率提升方案在本平臺中綜合利用,在可預(yù)見的計算任務(wù)爆發(fā)前,由管理人員手動地增加硬件資源,調(diào)整Woker的核心及數(shù)量,以實現(xiàn)平臺的擴容,該調(diào)整在幾分鐘內(nèi)即可實現(xiàn);在資源池有熱備用機器的情況下,甚至在10 s以內(nèi)即可實現(xiàn)調(diào)整。對于用戶間的負載調(diào)整,將由平臺自動實時地實現(xiàn),無需管理人員的介入。

      6 案例測試

      本平臺已于2021年5月份在測試環(huán)境中上線部署,并采用了南方電網(wǎng)月度數(shù)據(jù)對平臺進行了測試。在測試階段,采用了3.Master+10.Worker的硬件資源,單個Worker提供16核心的計算能力,總計160核心。

      6.1 正確性測試

      本文所指的正確性是指采用本平臺計算與常規(guī)單機計算的差別,而非核心計算引擎本身計算正確與否。經(jīng)過潮流、機電暫態(tài)仿真、短路電流計算等場景的測試,基于平臺計算及常規(guī)的單機計算完全一致,曲線完全重合,如圖4所示。

      圖4 常規(guī)計算與集群計算結(jié)果對比Fig.4 Comparison between conventional calculation and cluster calculation

      6.2 可靠性測試

      1)集群崩潰測試

      在仿真過程中,手動關(guān)閉所有K8s集群Master服務(wù)器,再重新啟動。測試中,包括“容錯服務(wù)”、“調(diào)配服務(wù)”等正常地重新啟動,并將未執(zhí)行或未執(zhí)行完成的任務(wù)重新進行計算。

      2)RocketMQ消息丟失測試

      在仿真過程中,通過偽造的客戶端直接消費了“待計算”隊列中的消息,以造成正常的調(diào)配服務(wù)無法正常獲取消息。測試結(jié)果為,定時掃描的“容錯服務(wù)”發(fā)現(xiàn)在OSS中該任務(wù)超時未完成,且不在“待計算”、“待處理”隊伍中,即對該任務(wù)生產(chǎn)“待計算”消息;后續(xù)按照正常的流程執(zhí)行完畢。

      6.3 效率測試

      采用南方電網(wǎng)2021年6月份的月度方式數(shù)據(jù),對其主網(wǎng)層的320個N-1故障進行仿真。常規(guī)的單核計算下,需要耗時超過145 min;在本平臺中,通過配置更改并行數(shù)為1~160個,其計算耗時及加速比如圖5及表2所示。其中加速比定義為串行執(zhí)行時間除以并行執(zhí)行時間。

      圖5 集群并行效果測試Fig.5 Cluster parallel effect test

      表2 并行效率測試Tab.2 Parallel efficiency test

      加速比隨著核心數(shù)及并行度的提升,基本呈現(xiàn)出線性的提升。在提供160核心的情況下,僅需要68 s左右就完成了傳統(tǒng)情況下2.5 h的計算任務(wù),加速比高達128??紤]到任務(wù)調(diào)度的延時,該數(shù)值已接近理論最優(yōu)值。

      上述結(jié)果說明了計算平臺具有極其優(yōu)越的仿真效率,可以有效地提升新型電力系統(tǒng)大規(guī)模新能源接入后的仿真速度,將某個方式多個故障的仿真耗時縮短至單個故障的仿真耗時,實現(xiàn)傳統(tǒng)離線仿真工具的在線部署,實現(xiàn)從科研工具向生產(chǎn)工具的轉(zhuǎn)變。

      6.4 結(jié)果展示

      計算結(jié)果在OSS存儲中進行了歸檔,可長期存放用于未來的大數(shù)據(jù)挖掘、人工智能學習素材等。其可以通過豐富的形式予以展示,例如微軟PowerBI或者阿里云QuickBI等,以及在線查看的報表、地理接線圖等。為對接傳統(tǒng)業(yè)務(wù),針對當前大批量使用的機電暫態(tài)批量掃描,提供了客戶端形式、瀏覽器形式的展示界面,如圖6所示。二者共用后端服務(wù),可適應(yīng)不同的場合。

      圖6 展示界面示意圖Fig.6 User interface diagram

      7 結(jié)語

      為了解決新型電力系統(tǒng)大量新能源接入后的仿真效率問題,本文提出了基于云計算共享的電力系統(tǒng)計算分析平臺建設(shè)方案,并對該方案的技術(shù)選型、架構(gòu)設(shè)計進行了詳細的闡述。平臺以當前互聯(lián)網(wǎng)領(lǐng)先的Kubernetes集群管理系統(tǒng)及Docker容器化部署技術(shù)為基礎(chǔ),計算分析平臺進行探索,提出了可實時動態(tài)擴展的集群系統(tǒng)架構(gòu),構(gòu)建了高效、可靠、綠色的共享計算平臺。測試效果表明,在底層硬件資源足夠的前提下,效率提升已接近理論最優(yōu)值上限,可將單個甚至多個方式多個故障的仿真耗時縮短至單個故障的仿真耗時,為新型電力系統(tǒng)海量運行方式的計算仿真提供了強力的工具支撐。

      基于本文所建設(shè)的平臺,可為大電網(wǎng)仿真提供海量任務(wù)的快速并行計算分析和遠程云計算服務(wù),滿足總調(diào)、中調(diào)及地調(diào)各層面以及其他應(yīng)用系統(tǒng)的計算分析需求。同時,在線計算為閉環(huán)的數(shù)據(jù)管控、共享的數(shù)據(jù)管理提供了基礎(chǔ)分析工具,為其他應(yīng)用系統(tǒng)提供了可靠、高效的計算服務(wù)?;谠朴嬎愎蚕淼碾娏ο到y(tǒng)計算分析平臺與另行建設(shè)的共享數(shù)據(jù)管理平臺,將在互聯(lián)網(wǎng)新技術(shù)的協(xié)助下,全面提升對電網(wǎng)的把握能力,保障新型電力系統(tǒng)的安全可靠運行。

      猜你喜歡
      集群用戶分析
      隱蔽失效適航要求符合性驗證分析
      海上小型無人機集群的反制裝備需求與應(yīng)對之策研究
      電力系統(tǒng)不平衡分析
      電子制作(2018年18期)2018-11-14 01:48:24
      一種無人機集群發(fā)射回收裝置的控制系統(tǒng)設(shè)計
      電子制作(2018年11期)2018-08-04 03:25:40
      Python與Spark集群在收費數(shù)據(jù)分析中的應(yīng)用
      勤快又呆萌的集群機器人
      關(guān)注用戶
      商用汽車(2016年11期)2016-12-19 01:20:16
      電力系統(tǒng)及其自動化發(fā)展趨勢分析
      關(guān)注用戶
      商用汽車(2016年6期)2016-06-29 09:18:54
      關(guān)注用戶
      商用汽車(2016年4期)2016-05-09 01:23:12
      图木舒克市| 柘城县| 吕梁市| 罗平县| 乌鲁木齐县| 林周县| 朝阳县| 饶河县| 温泉县| 天峻县| 五家渠市| 含山县| 正宁县| 尼勒克县| 绥芬河市| 聂拉木县| 镇安县| 汕头市| 沙洋县| 辉南县| 永清县| 那坡县| 北票市| 龙海市| 托克逊县| 通渭县| 巨鹿县| 秭归县| 松桃| 鱼台县| 广河县| 彭泽县| 探索| 绍兴市| 蕉岭县| 喀什市| 濉溪县| 津市市| 冕宁县| 嘉峪关市| 濮阳市|