• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看

      ?

      科學(xué)工作流與高性能計算集成方案

      2014-02-10 05:46:18李有福李小龍田文洪
      電子科技大學(xué)學(xué)報 2014年3期
      關(guān)鍵詞:計算資源高性能集群

      趙 勇,李有福,李小龍,劉 鵬,田文洪

      (電子科技大學(xué)計算機科學(xué)與工程學(xué)院 成都 611731)

      我們正在進入一個“大數(shù)據(jù)”時代,全球產(chǎn)生的數(shù)據(jù)量呈“爆炸式”的增長。根據(jù)最近的IDC研究報告,在2010年全球的數(shù)據(jù)信息總和達到1 ZB(zettabyte)。Google和Bing等搜索引擎每天都會產(chǎn)生數(shù)TB的搜索日志。社交網(wǎng)絡(luò)產(chǎn)生的數(shù)據(jù)量也十分巨大,F(xiàn)acebook每月產(chǎn)生300億條內(nèi)容,包括web鏈接、新聞、狀態(tài)、博客文章和視頻與圖片的評論等[1]??茖W(xué)界同樣面臨來自實驗數(shù)據(jù)、模擬數(shù)據(jù)、傳感器數(shù)據(jù)和衛(wèi)星數(shù)據(jù)等“數(shù)據(jù)泛濫”問題[2]。歐洲核子研究組織的大型強子對撞機[3]每秒鐘能夠產(chǎn)生大于100 TB的碰撞數(shù)據(jù);GenBank[4]是全球最大的DNA序列數(shù)據(jù)庫之一,其中已經(jīng)包含了超過1 200億個堿基數(shù)據(jù),并且這一數(shù)量每9~12個月翻一番。物理學(xué)、地球?qū)W、醫(yī)學(xué)等許多領(lǐng)域的數(shù)據(jù)量也在快速增長。

      科學(xué)工作流管理系統(tǒng)(SWFMS)對于科學(xué)計算有重要的意義,它們提供了工作流定義、過程協(xié)調(diào)、作業(yè)調(diào)度與執(zhí)行、資源跟蹤和容錯等功能。Taverna[5],Kepler[6],Vistrails[7],Pegasus[8],Sw ift[9],VIEW[10]等工作流系統(tǒng)在許多領(lǐng)域都有廣泛的應(yīng)用,如物理學(xué)、天文學(xué)、生物信息學(xué)、神經(jīng)科學(xué)、地球?qū)W和社會科學(xué)等。同時,科學(xué)設(shè)備和網(wǎng)絡(luò)計算的發(fā)展向可靠的工作流系統(tǒng)在數(shù)據(jù)規(guī)模和應(yīng)用復(fù)雜度方面發(fā)起了新的挑戰(zhàn)。

      高性能計算(high performance computing,HPC)是計算機科學(xué)的一個分支,可以最大限度提高系統(tǒng)的I/O、計算和數(shù)據(jù)傳送性能。主要用于解決大規(guī)??茖W(xué)問題的計算和海量數(shù)據(jù)的處理,如科學(xué)研究、氣象預(yù)報、計算模擬、軍事研究、CFD/CAE、生物制藥、基因測序、圖像處理等。

      本文提出一個將科學(xué)工作流系統(tǒng)與高性能計算平臺結(jié)合的方案,集成方案涵蓋工作流定義與提交、流程解析、任務(wù)調(diào)度與執(zhí)行以及狀態(tài)監(jiān)測等工作流管理涉及到的所有主要過程。既能靈活方便地描述大規(guī)模的應(yīng)用流程,又能有效地利用高性能計算集群資源管理和任務(wù)調(diào)度功能,實現(xiàn)對大規(guī)模HPC應(yīng)用并行化端到端的支持。

      1 相關(guān)工作及研究意義

      學(xué)術(shù)界和業(yè)界根據(jù)不同研究和應(yīng)用方向開發(fā)出各具特點的工作流系統(tǒng)[11],隨著科學(xué)計算過程中數(shù)據(jù)信息的處理規(guī)模急劇增長,集群計算資源在科學(xué)工作流中扮演著越來越重要的角色。一些研究集中在基于Taverna工作流系統(tǒng)與網(wǎng)格環(huán)境協(xié)作,如UNICORE plugin[12]、gLite plugin[13]、caGrid plugin[14]等,它們使Taverna工作流系統(tǒng)能夠便捷地訪問網(wǎng)格計算資源;基于Windows平臺工作流系統(tǒng)的研究專注于Windows Workflow Foundation (WWF)[15-16]的相關(guān)應(yīng)用和平臺架構(gòu)[17],如MyCoG。NET[18]實現(xiàn)WWF和Globus網(wǎng)格服務(wù)無縫結(jié)合,基于WWF的Trident[19]為NEPTUNE[20]海洋學(xué)項目、Pan-STARRS[21]天文學(xué)項目等科學(xué)研究提供高效的科學(xué)工作流平臺。由于Windows HPC Server并不支持應(yīng)用流程的管理和定制,使用WWF工作流工具并不能有效地支持大規(guī)模的并行應(yīng)用,也沒有實現(xiàn)和Windows HPC Server的有效的集成。

      Sw ift工作流系統(tǒng)提供了可以實現(xiàn)和各種資源管理器和任務(wù)調(diào)度器協(xié)作的Provider接口,目前已經(jīng)實現(xiàn)了的接口包括PBS[22]、Condor[23]、Globus Toolkit 4[24]等,它們也使Sw ift工作流系統(tǒng)能夠便捷獲取網(wǎng)格等計算資源;文獻[25]研究了工作流系統(tǒng)與云計算的集成方案,詳細描述了將工作流管理作為云服務(wù)的集成架構(gòu),并以Sw ift工作流系統(tǒng)與OpenNebula云平臺集成為例,驗證并分析集成方案的功能。這些研究主要集中在工作流系統(tǒng)與網(wǎng)格計算、云計算和分布式計算等計算資源的協(xié)作。工作流系統(tǒng)與高性能計算集群資源相結(jié)合方面的研究并不多見。

      文獻[26]等實現(xiàn)了基于MATLAB的SSH工具包,用戶可以使用簡單的MATLAB命令訪問遠程高性能計算資源,運行MATLAB應(yīng)用并獲取運行結(jié)果。文獻[27]探討了使用Windows高性能計算資源進行并行化地理空間分析,Windows HPC Server運行Inverse Distance Weighting (IDW)應(yīng)用程序,IDW程序的運行的整體流程包括域分解、空間內(nèi)插、輸出采集及數(shù)據(jù)可視化。這些研究主要是基于科學(xué)應(yīng)用訪問Windows高性能計算資源,并沒有深入探討應(yīng)用程序運行過程中的計算并行化與流程管理。

      2 集成方案

      本文首先介紹科學(xué)工作流系統(tǒng)與高性能計算集成的統(tǒng)一架構(gòu),并分析架構(gòu)的重要組成子系統(tǒng)和組件,然后以Sw ift科學(xué)工作流管理系統(tǒng)與Windows高性能計算平臺集成方案為例,通過對Sw ift與Windows HPC的架構(gòu)進行分析,映射到參考架構(gòu)中,從而進一步驗證集成參考架構(gòu)的可行性。

      2.1 集成參考架構(gòu)

      科學(xué)工作流管理系統(tǒng)與高性能計算集成的參考架構(gòu)可以作為一種規(guī)范化工作流系統(tǒng)與高性能計算集成的研究和開發(fā)工作的嘗試,如圖1所示,參考架構(gòu)包含5個邏輯層和11個主要的功能子系統(tǒng),自上而下涵蓋從工作流定義、任務(wù)調(diào)度到最終大規(guī)模應(yīng)用的整體過程。第一層是開發(fā)層,其中包括工作流的開發(fā)環(huán)境、提交軟件工具等服務(wù)及相應(yīng)的操作環(huán)境;第二層稱作工作流管理層,這一層包括4個子系統(tǒng):工作流引擎、任務(wù)管理、工作流監(jiān)控和資源配置管理;第三層稱作集成中間件層,由任務(wù)提交組件和計算資源供應(yīng)服務(wù)組成;第四層為高性能計算管理層,由作業(yè)執(zhí)行組件、資源調(diào)度系統(tǒng)和集群管理系統(tǒng)組成;最后一層為應(yīng)用層,簡要描述基于集成平臺的科學(xué)應(yīng)用。

      參考架構(gòu)允許科學(xué)工作流與高性能計算研究人員根據(jù)不同的工作流系統(tǒng)和高性能計算平臺特性,定制可用的集成平臺以滿足大規(guī)模數(shù)據(jù)處理和科學(xué)計算等需求。

      2.2 Sw ift架構(gòu)

      Sw ift系統(tǒng)作為科學(xué)工作流和并行計算之間的橋梁,是一個面向大規(guī)模科學(xué)和工程工作流的快速、可靠的定義、執(zhí)行和管理的并行化編程工具。Sw ift采用結(jié)構(gòu)化的方法管理工作流的定義、調(diào)度和執(zhí)行,它包含簡單的腳本語言Sw iftScript[28],Sw iftScript可以用來簡潔地描述基于數(shù)據(jù)集類型和迭代的復(fù)雜并行計算[29],同時還可以對不同數(shù)據(jù)格式的大規(guī)模數(shù)據(jù)進行動態(tài)的數(shù)據(jù)集映射。運行時系統(tǒng)提供一個高效的工作流引擎用來進行調(diào)度和負載均衡,它還可以與PBS和Condor等資源管理系統(tǒng)進行交互,完成任務(wù)執(zhí)行。

      圖2為Sw ift系統(tǒng)架構(gòu),由4個主要組件組成:工作流定義、調(diào)度、執(zhí)行、資源供應(yīng)。使用簡單高效的腳本語言Sw iftScript定義計算,Sw iftScript腳本被編譯成抽象的計算計劃,然后被工作流引擎調(diào)度到分配的資源上執(zhí)行。Sw ift中的資源配置非常的靈活,任務(wù)可以被調(diào)度到多種資源環(huán)境中執(zhí)行,資源供應(yīng)者的接口可以是本地主機、集群環(huán)境、多站點網(wǎng)格環(huán)境或Amazon EC2服務(wù)。

      圖1 集成參考架構(gòu)

      圖2 Sw ift架構(gòu)

      2.3 W indows HPC Server架構(gòu)

      Windows HPC Server[30]可為以超級計算機為主的HPC環(huán)境提供企業(yè)級的工具、性能和伸縮性,而且是一個完整、綜合的集群環(huán)境,包含操作系統(tǒng)、HPC工作調(diào)度器、消息傳遞接口第二版(M IP2)支持、集群慣例和監(jiān)視、分布式Excel計算能力、空閑Windows 7系統(tǒng)工作站利用能力等等。

      Windows HPC Server集群架構(gòu)由一系列節(jié)點、組件、服務(wù)及接口組成。集群中關(guān)鍵組件包括Head Node、Compute Node、Job Scheduler和Broker Node(用于支持SOA集群):

      1) Head Node:作為管理單元,對集群進行作業(yè)調(diào)度。它提供了故障轉(zhuǎn)移和控制,并調(diào)節(jié)集群資源訪問。

      2) Compute Node:執(zhí)行需要執(zhí)行的計算任務(wù),這些任務(wù)由作業(yè)調(diào)度器分配到計算節(jié)點中。

      圖3 Windows HPC Server架構(gòu)

      3) Job Scheduler:將作業(yè)和其相關(guān)的任務(wù)進行排隊,它給這些作業(yè)分配資源,在計算節(jié)點上加入新的任務(wù),并且對作業(yè)、任務(wù)和計算節(jié)點進行狀態(tài)監(jiān)控。

      圖4 Sw ift與Windows HPC Server集成架構(gòu)

      4) Broker Node:在應(yīng)用程序和服務(wù)之間扮演中介的角色,代理對服務(wù)進行負載平衡,最后將結(jié)果返回到應(yīng)用程序。

      2.4 Sw ift與W indows HPC Sever集成架構(gòu)

      Sw ift工作流管理系統(tǒng)提供結(jié)構(gòu)化的方法管理工作流的定義、調(diào)度和執(zhí)行;W indows HPC提供基于Windows平臺的集群管理、任務(wù)管理、任務(wù)調(diào)度等機制和開發(fā)接口。將Windows HPC Server與Sw ift工作流并行計算系統(tǒng)映射到集成參考架構(gòu)中,可以實現(xiàn)Windows平臺上的大規(guī)模并行計算與工作流應(yīng)用,相應(yīng)的實例集成架構(gòu)描述如圖4所示。

      工作流開發(fā)層:提供工作流定義腳本Sw iftScript的開發(fā)環(huán)境,并提供接口用于提交工作流。

      Sw ift工作流管理層:Sw ift通過解析腳本語言Sw iftScript的工作流流程定義、數(shù)據(jù)調(diào)用和配置信息,工作流引擎將整個工作流任務(wù)進行分片,并通過定制的接口與集成中間件層進行交互,在任務(wù)調(diào)度器的調(diào)度下,使得數(shù)據(jù)處理在集群中并行執(zhí)行。

      集成中間件層:該層中包含Windows HPC Server Provider和Sw iftHpcService兩個組件。Sw ift提供的Provider接口可以實現(xiàn)和各種資源管理器和任務(wù)調(diào)度器相互協(xié)作的功能。Provider接口定義了跟任務(wù)運行相關(guān)的一些功能,包括任務(wù)提交、任務(wù)結(jié)束、任務(wù)取消和獲取任務(wù)狀態(tài)等。Windows HPC Server Provider是針對Windows HPC Server平臺的Provider接口的具體實現(xiàn)。本文開發(fā)了基于Windows Communication Foundation (WCF) Service的Sw iftHpcService服務(wù)并部署在集群的Head Node中,Windows HPC Server Provider組件通過調(diào)用Sw iftHpcService提供的相應(yīng)服務(wù),將任務(wù)提交到Windows HPC計算集群中,Windows HPC Server層根據(jù)服務(wù)配置信息返回計算任務(wù)狀態(tài)給Sw ift工作流管理層。

      W indows HPC Server層:提供了完善的W indows平臺上的集群管理、任務(wù)管理、任務(wù)調(diào)度等機制和開發(fā)接口,通過定制的接口與集成中間件層進行交互,Job Scheduler組件調(diào)度由中間件層提交的計算任務(wù),分配相應(yīng)的計算資源,完成工作流任務(wù)執(zhí)行。

      應(yīng)用層:主要是描述可以在此集成方案的架構(gòu)下運行的高性能并行計算應(yīng)用,如MODIS圖片處理、蛋白質(zhì)結(jié)構(gòu)預(yù)測和分子結(jié)構(gòu)模擬等。

      3 實驗與數(shù)據(jù)分析

      本文通過NASA MODIS圖片處理工作流分析并驗證Sw ift工作流系統(tǒng)與Windows HPC Server集成的功能。輸入數(shù)據(jù)為120個大小為5.5 MB左右的衛(wèi)星航拍數(shù)據(jù)塊,數(shù)據(jù)塊中含有水域、沙地、綠地和城市等地質(zhì)特點,計算這些數(shù)據(jù)塊中城市面積最大的前12個地區(qū)。

      3.1 實驗配置

      使用5臺計算機,其中包括1臺Sw ift Client、1臺HPC Head Node和3臺Compute Node,其中Head Node中還部署有Broker Node、Active Directory服務(wù)器和NFS服務(wù)器端。集群環(huán)境和節(jié)點配置如圖5所示。

      圖5 集群環(huán)境配置

      3.2 實現(xiàn)過程

      實驗中通過圖片的像素和顏色計算城市的面積,再獲取面積最大的前12個地區(qū)。首先將圖片文件存儲在NFS共享文件系統(tǒng)中,配置Sw ift與Windows HPC Server交互接口;然后執(zhí)行Sw iftScript工作流腳本NASA MODIS圖片處理工作流為:

      如圖6所示,Sw ift能夠根據(jù)輸入目錄下的modis數(shù)據(jù)文件的數(shù)量,自動動態(tài)地將工作流解析成為對這120個圖片進行處理的執(zhí)行計劃,并把并行的任務(wù)發(fā)送到Windows HPC Server的Head Node,然后Job Scheduler根據(jù)資源使用情況為任務(wù)分配計算資源。衛(wèi)星云圖加載后,對每張圖片的計算被識別為任務(wù)并提交給getLanduse接口進行城域面積的分析,然后提交給analyzeLandUse接口對圖片中的陸地部分進行進一步的分析和計算,得出面積最大的12張圖片,將其文件名列表存入urbantiles文件中,并將其逐一轉(zhuǎn)換成png文件,最后合成一張整圖,如圖7所示。

      3.3 案例結(jié)果分析

      實驗過程中,可以不斷向集群中動態(tài)添加計算節(jié)點,集群性能也不斷提高,動態(tài)添加計算節(jié)點性能增長如圖8所示。隨著節(jié)點數(shù)的增加,運行時間也在相應(yīng)縮短,獲得的加速基本呈線性增長,且接近理想值(虛線為理想加速值,實線為實際加速值)。同時,隨著節(jié)點的不斷增多,性能的增加趨于平緩,理想加速值與實際加速值的差不斷擴大,在集群規(guī)模不斷擴大的情況下,節(jié)點間的通信開銷和NFS作為共享文件系統(tǒng)所帶來的開銷逐漸成為制約集群整體性能提升的瓶頸。所以當處理的數(shù)據(jù)規(guī)模一定時,用戶需要綜合考慮任務(wù)處理規(guī)模與數(shù)據(jù)量來決定集群規(guī)模,這樣才能獲取更高的性價比。

      圖6 工作流計算流程(局部)

      圖7 工作流計算結(jié)果

      圖8 圖片處理與性能

      通過這個應(yīng)用實例,本文演示了Sw ift和W indows HPC Server的集成過程,集成的成功應(yīng)用、W indows HPC Server本身對計算節(jié)點的調(diào)度、以及用HPC集群所獲得的線性加速。同時,W indows HPC Server可以從微軟Azure云平臺中獲取計算資源,Sw ift不僅可以利用Azure云平臺提供的伸縮性和資源按需分配等優(yōu)勢,而且可以為Azure提供一個靈活的工作流應(yīng)用定制前端和界面。

      4 結(jié) 束 語

      數(shù)據(jù)與計算的大規(guī)模化趨勢對人們生活的影響越來越深入,相應(yīng)的技術(shù)與概念也不斷涌現(xiàn),基于海量數(shù)據(jù)的計算從數(shù)據(jù)存儲到并行化處理,整個過程需要不同的技術(shù)支撐,產(chǎn)生了許多基于不同系統(tǒng)與架構(gòu)的解決方案。

      本文提出科學(xué)工作流系統(tǒng)與高性能計算平臺相結(jié)合的集成參考架構(gòu),實現(xiàn)高性能計算平臺上的大規(guī)模并行計算,在提供資源管理和集群調(diào)度的同時,為用戶提供方便的應(yīng)用定制和管理前端,實現(xiàn)對大規(guī)模HPC應(yīng)用的端到端的支持。以Sw ift工作流系統(tǒng)與W indows HPC Server集成的方案為例,通過NASA MODIS圖片處理工作流來分析并驗證集成方案的可行性和性能,以及對應(yīng)用的線性加速效果。Sw ift系統(tǒng)和Windows HPC Server的有效集成能促進更多領(lǐng)域、更大規(guī)模的HPC應(yīng)用運行在W indows的集群和云平臺環(huán)境中。同時,集成參考架構(gòu)的提出能夠為規(guī)范化工作流系統(tǒng)與高性能計算平臺的集成研究提供參考與實例,結(jié)合工作流系統(tǒng)與高性能計算的優(yōu)勢與特點以應(yīng)對科學(xué)計算日益增長的規(guī)模與復(fù)雜度。

      在后期的研究工作中會考慮使用更高效的分布式文件系統(tǒng)來進行數(shù)據(jù)的存儲,突破由NFS所帶來的性能瓶頸。同時,在現(xiàn)有統(tǒng)一集成框架的基礎(chǔ)上,進一步研究工作流系統(tǒng)與其他高性能計算平臺集成的實現(xiàn),實現(xiàn)高性能計算平臺上的大規(guī)模并行計算與應(yīng)用流程管理等功能。

      [1] ROGERS S. Big data is scaling BI and analytics[J].Information Management, 2011, 21(5): 14.

      [2] BELL G, HEY T, SZALAY A. Beyond the data deluge[J].Science, 2009, 323(5919): 1297-1298.

      [3] Conseil Européen pour la Recherche Nucléaire(CERN).Large Hadron Collider[R/OL]. [2012-03-02] http://lhc.web.cern.ch.

      [4] National Center for Biotechnology Information(NCBI).GenBank Overview[R/OL]. [2012-03-03]. http://www.ncbi.nlm.nih.gov/genbank

      [5] HULL D, WOLSTENCROFT K, STEVENS R, et al. A tool for building and running workflows of services[J]. Nucleic Acids Research, 2006, 34(suppl 2): 729-732.

      [6] LUD?SCHER B, ALTINTAS I, BERKLEY C, et al.Scientific workflow management and the Kepler system[J].Concurrency and Computation: Practice and Experience,2006, 18(10): 1039-1065.

      [7] FREIRE J, SILVA C T, CALLAHAN S P, et al. Managing rapidly-evolving scientific workflows, provenance and annotation of data[J]. Lecture Notes in Computer Science,2006(4145): 10-18.

      [8] DEELMAN E, SINGH G, SU MH, et al. Pegasus: a framework for mapping complex scientific workflows onto distributed systems[J]. Scientific Programming, 2005, 13(3):219-237.

      [9] ZHAO Y, HATEGAN M, CLIFFORD B, et al. Fast, reliable,loosely coupled parallel computation[C]//2007 IEEE Congress on Services. Salt Lake City: IEEE Computer Society, 2007.

      [10] LIN C, LU S Y, LAI Z Q, et al. Service-oriented architecture for view: a visual scientific workflow management system[C]//Proc of the IEEE 2008 International Conference on Services Computing (SCC).Honolulu: IEEE Computer Society, 2008.

      [11] 羅海濱, 范玉順, 吳澄. 工作流技術(shù)綜述[J]. 軟件學(xué)報,2000, 11(7): 89-90.

      LUO Hai-bin, FAN Yu-shun, WU Cheng. Overview of workflow technology[J]. Journal of Software, 2000, 11(7):89-90.

      [12] HOLL S, ZIMMERMANN O, HOFMANN-APITIUS M.A unicore plugin for hpc-enabled scientific workflows in taverna 2.2[C]//IEEE Congress on Services (SERVICES).Washington D C: IEEE Computer Society, 2011.

      [13] MAHESHWARI K, GOBLE C, M ISSIER P, et al. Medical image processing workflow support on the EGEE grid w ith Taverna[C]//IEEE International Symposium on Computer-Based Medical Systems (CBMS). A lbuquerque: IEEE,2009.

      [14] TAN W, MADDURI R, NENADIC A, et al. CaGrid workflow toolkit: a taverna based workflow tool for cancer grid[J]. BMC Bioinformatics, 2010, 11(1): 542.

      [15] Windows Workflow Foundation(WWF). Windows Workflow Foundation Introduction[R/OL]. [2012-03-02].http://www.w indowsworkflow foundation.eu/

      [16] 楊利國. 基于WF工作流技術(shù)研究及應(yīng)用[D]. 武漢: 武漢理工大學(xué), 2008.

      YANG Li-guo. Research and application based on w indows workflow foundation technology[D]. Wuhan:Wuhan University of Technology, 2008.

      [17] ZAPLETAL M, Van der Aalst W M P, RUSSELL N, et al.An analysis of w indows workflow's control-flow expressiveness[C]//Seventh IEEE European Conference on Web Services. Eindhoven: IEEE Computer Society, 2009.

      [18] PAVENTHAN A, TAKEDA K, COX S J, et al. Leveraging w indows workflow foundation for scientific workflow s in w ind tunnel applications[C]//22nd International Conference on Data Engineering Workshops. Atlanta:IEEE Computer Society, 2006.

      [19] BARGA R, JACKSON J, ARAUJO N, et al The trident scientific workflow workbench[C]//Fourth International Conference on Science. Indianapolis: IEEE Computer Society, 2008.

      [20] BARGA R, JACKSON J, ARAUJO N, et al. Trident:scientific workflow workbench for oceanography[C]//IEEE Congress on Services - Part I. Honolulu: IEEE Computer Society, 2008.

      [21] SIMMHAN Y, BARGA R, Van INGEN C, et al. Building the trident scientific workflow workbench for data management in the cloud[C]//Third International Conference on Advanced Engineering Computing and Applications in Sciences. Sliema: IEEE Computer Society,2009.

      [22] BODE B, HALSTEAD D M, KENDALL R, et al. The portable batch scheduler and the maui scheduler on linux clusters[C]//ALS'00 Proceedings of the 4th Annual Linux Show case & Conference. Berkeley: USENIX Association,2000.

      [23] BERMAN F, FOX G, HEY A J G. Grid computing: making the global infrastructure a reality[M]. Chichester: John Wiley & Sons, Ltd, 2003.

      [24] FOSTER I. Globus Toolkit version 4: software for service-oriented systems[J]. Journal of Computer Science and Technology, 2006, 21(4): 513-520.

      [25] ZHAO Y, LI Y F, TIAN W H, et al. Scientific-workflowmanagement-as-a-service in the cloud[C]//2012 Second International Conference on Cloud and Green Computing(CGC). Xiangtan: IEEE Computer Society, 2012.

      [26] NEHRBASS J, SAMSI S, CHAVES J C, et al. Interfacing PC-BASED MATLAB directly to HPC resources[C]//HPCMP Users Group Conference. Denver, Colorado: IEEE,2006.

      [27] XIA Y J, SHI X M, KUANG L, et al. Parallel geospatial analysis on w indows HPC platform[C]//2010 International Conference on Environmental Science and Information Application Technology (ESIAT). Wuhan: IEEE, 2010.

      [28] W ILDE M, HATEAGN M, WOZNIAK J M, et al. A language for distributed parallel scripting[J]. Parallel Computing, 2011, 37(9): 633-652.

      [29] ZHAO Y, DOBSON J, FOSTER I, et al. A notation and system for expressing and executing cleanly typed workflows on messy scientific data[J]. ACM SIGMOD Record, 2005, 34(3): 37-43.

      [30] M icrosoft. HPC - Technical Overview of Windows HPC Server 2008 R2 [R/OL]. [2012-03-01]. http://www.microsoft.com/download/en/details.aspx?id=434

      編 輯 稅 紅

      猜你喜歡
      計算資源高性能集群
      基于模糊規(guī)劃理論的云計算資源調(diào)度研究
      改進快速稀疏算法的云計算資源負載均衡
      海上小型無人機集群的反制裝備需求與應(yīng)對之策研究
      一種無人機集群發(fā)射回收裝置的控制系統(tǒng)設(shè)計
      電子制作(2018年11期)2018-08-04 03:25:40
      基于Wi-Fi與Web的云計算資源調(diào)度算法研究
      耦合分布式系統(tǒng)多任務(wù)動態(tài)調(diào)度算法
      Python與Spark集群在收費數(shù)據(jù)分析中的應(yīng)用
      一款高性能BGO探測器的研發(fā)
      電子制作(2017年19期)2017-02-02 07:08:49
      勤快又呆萌的集群機器人
      高性能砼在橋梁中的應(yīng)用
      博兴县| 大宁县| 增城市| 于都县| 芮城县| 来宾市| 五原县| 来凤县| 平定县| 静宁县| 宽城| 青浦区| 蕲春县| 图木舒克市| 平阳县| 安阳市| 宝鸡市| 玉龙| 浮山县| 托里县| 保德县| 锡林浩特市| 嘉禾县| 潮安县| 商都县| 临西县| 苗栗县| 故城县| 琼中| 青龙| 安远县| 镇赉县| 股票| 北流市| 枝江市| 六安市| 金秀| 沙坪坝区| 将乐县| 棋牌| 广州市|