吳家隱 李先緒
【摘? 要】5G時(shí)代帶來(lái)了海量的數(shù)據(jù)存儲(chǔ)需求,硬盤的IO(Input/Output)性能可能構(gòu)成其主要瓶頸。從運(yùn)營(yíng)商核心系統(tǒng)的性能報(bào)告出發(fā),根據(jù)業(yè)務(wù)系統(tǒng)的特點(diǎn)提取數(shù)據(jù)模型,并以PCIe SSD為例,構(gòu)建了固態(tài)硬盤性能評(píng)估方案,從而得出貼近生產(chǎn)環(huán)境、具有實(shí)際指導(dǎo)意義的SSD性能參數(shù),為IT系統(tǒng)設(shè)計(jì)和優(yōu)化提供依據(jù),保障核心業(yè)務(wù)系統(tǒng)的部署。
【關(guān)鍵詞】數(shù)據(jù)模型;固態(tài)硬盤;性能評(píng)估
The 5G era has brought the requirements of massive data storage and thus the IO (Input/Output) performance of the hard disk might become the main bottleneck. Starting from the performance report of the operator's core system, the data model is extracted according to the characteristics of service systems. Taking PCIe SSD as an example, this paper constructs the performance evaluation solution of the solid-state drive, and thus obtains the SSD performance parameters which are close to the production environment and have practical guiding significance. This paper provides the basis for the design and optimization of the IT system and ensures the deployment of the core business system
data model, solid-state drives, performance evaluation
0? ?引言
隨著5G時(shí)代的來(lái)臨,人工智能[1]、物聯(lián)網(wǎng)[2]、低延時(shí)高可靠應(yīng)用[3]以及大規(guī)模電子商務(wù)計(jì)算等業(yè)務(wù)將得到快速發(fā)展,從而帶來(lái)了海量數(shù)據(jù)存儲(chǔ)與處理需求。數(shù)據(jù)的飛速增長(zhǎng),對(duì)存儲(chǔ)設(shè)備的性能要求越來(lái)越高,傳統(tǒng)的機(jī)械硬盤已經(jīng)難以達(dá)到性能要求。
固態(tài)硬盤(SSD, Solid State Drive)的出現(xiàn),使單硬盤的性能提高了幾個(gè)數(shù)量級(jí),大大改善了CPU和IO的性能差距。隨著半導(dǎo)體工藝的發(fā)展,尤其是3D NAND工藝的成熟[4],固態(tài)硬盤使用成本大幅度下降。早期的SSD采用SATA(串行ATA, Serial ATA)接口,在使用時(shí),需要將數(shù)據(jù)從SATA SSD中讀取到主機(jī)內(nèi)存,再由內(nèi)存提供給CPU計(jì)算使用。在CPU計(jì)算完成后,數(shù)據(jù)又要經(jīng)過(guò)內(nèi)存再寫入SSD中,數(shù)據(jù)傳輸路徑較長(zhǎng)。SATA/SAS接口協(xié)議是為傳統(tǒng)HDD而設(shè)計(jì),不適合低延時(shí)的SSD,已經(jīng)成為影響SSD硬盤的性能瓶頸。PCIe SSD可以直接通過(guò)總線與CPU相連,節(jié)省了內(nèi)存調(diào)用的過(guò)程。同時(shí),PCEe SSD還可以結(jié)合為SSD重新設(shè)計(jì)的NVMe傳輸協(xié)議[5],有利于發(fā)揮SSD的性能優(yōu)勢(shì)。因此,PCIe SSD擁有更高的帶寬和更高效的傳輸協(xié)議,在企業(yè)級(jí)市場(chǎng)中的市場(chǎng)份額日益增長(zhǎng)。PCIe SSD的提供商包括英特爾(Intel)、昱科(HGST)、寶存(Shannon)、華為、憶恒創(chuàng)源(Memblaze)等多個(gè)品牌[6],性能各異。
在運(yùn)營(yíng)商的5G建設(shè)過(guò)程,業(yè)務(wù)系統(tǒng)要面對(duì)高并發(fā)、大性能的需求,對(duì)于存儲(chǔ)的性能要求非常高。因此,在業(yè)務(wù)系統(tǒng)的規(guī)劃、建設(shè)及優(yōu)化階段,就必須充分考慮到存儲(chǔ)乃至硬盤的性能對(duì)業(yè)務(wù)系統(tǒng)的影響,這就需要對(duì)硬盤進(jìn)行詳盡的性能評(píng)估。傳統(tǒng)的硬盤性能評(píng)估工具包括iometer[7-8]、FIO[9-10]等,但如果不充分考慮業(yè)務(wù)系統(tǒng)的實(shí)際情況進(jìn)行科學(xué)合理的方案設(shè)計(jì),直接通過(guò)這些評(píng)測(cè)工具進(jìn)行測(cè)試,所得到的測(cè)試結(jié)果往往與業(yè)務(wù)系統(tǒng)的實(shí)際情況相差甚遠(yuǎn),從而影響到了業(yè)務(wù)系統(tǒng)規(guī)劃的準(zhǔn)確性。因此,亟需研究運(yùn)營(yíng)商業(yè)務(wù)系統(tǒng)的數(shù)據(jù)模型,并針對(duì)運(yùn)營(yíng)商業(yè)務(wù)系統(tǒng)的實(shí)際情況制定科學(xué)、合理的SSD性能評(píng)估方案,從而能夠得到對(duì)生產(chǎn)具有指導(dǎo)意義的SSD性能參數(shù),為IT系統(tǒng)設(shè)計(jì)和優(yōu)化提供依據(jù)。
1? ? 數(shù)據(jù)模型
1.1? 性能指標(biāo)
數(shù)據(jù)庫(kù)是運(yùn)營(yíng)商業(yè)務(wù)系統(tǒng)的核心系統(tǒng),其處理能力對(duì)業(yè)務(wù)系統(tǒng)是否能夠應(yīng)對(duì)高并發(fā)訪問(wèn)起到至關(guān)重要的作用。一旦數(shù)據(jù)庫(kù)遇到訪問(wèn)峰值,承載數(shù)據(jù)庫(kù)的硬盤的IO可能成為系統(tǒng)的主要瓶頸。SSD的性能指標(biāo)主要包括:
(1)IOPS
IOPS(Input/Output Operations Per Second,每秒輸入輸出操作數(shù))是硬盤性能的重要指標(biāo),是指一秒內(nèi)磁盤能夠處理的IO請(qǐng)求數(shù)量。對(duì)于隨機(jī)讀寫頻繁的系統(tǒng),IOPS是主要性能指標(biāo)。磁盤另一個(gè)重要參數(shù)是數(shù)據(jù)吞吐量,數(shù)據(jù)吞吐量為磁盤中每秒鐘IO的流量,其值等于IOPS和數(shù)據(jù)塊大小的乘積,主要用于衡量大量連續(xù)讀寫的應(yīng)用。
(2)延時(shí)
延時(shí)是接收到服務(wù)請(qǐng)求到返回一個(gè)指令所消耗的時(shí)間,訪問(wèn)延遲增大時(shí),業(yè)務(wù)系統(tǒng)也會(huì)有相應(yīng)的延遲。固態(tài)硬盤的延時(shí)包括讀延時(shí)和寫延時(shí)。SSD的延時(shí)又會(huì)傳導(dǎo)到數(shù)據(jù)庫(kù),引起數(shù)據(jù)庫(kù)的延時(shí),也是SSD的重要衡量指標(biāo)。
(3)QoS
QoS(Quality of Service,服務(wù)質(zhì)量)可以分析一段時(shí)間內(nèi)的延時(shí)表現(xiàn),可以用一定的數(shù)據(jù)讀寫下延遲不大于指定時(shí)間的方式來(lái)表示[9]。QoS體現(xiàn)的是一定數(shù)據(jù)模型下的延時(shí)要求,對(duì)數(shù)據(jù)庫(kù)有重要意義。
1.2? 數(shù)據(jù)庫(kù)報(bào)告分析
表1為某運(yùn)營(yíng)商實(shí)際業(yè)務(wù)系統(tǒng)中,核心數(shù)據(jù)庫(kù)Oracle的AWR報(bào)告(Automatic Workload Repository,自動(dòng)負(fù)載信息庫(kù))中,排名前5的前臺(tái)等待事件(Top 5 Timed Foreground Events)。AWR是Oracle提供的性能監(jiān)控及分析工具,能夠生成某個(gè)時(shí)間段內(nèi)系統(tǒng)資源使用報(bào)告,從而為系統(tǒng)調(diào)優(yōu)提供依據(jù)。該系統(tǒng)為交易類型業(yè)務(wù),采用全閃存陣列。從圖1中可以看到在應(yīng)用層面調(diào)優(yōu)后,整個(gè)系統(tǒng)最大的瓶頸一般會(huì)落到IO層面。表1中的等待事件Log file sync與日志寫相關(guān)的,Db file sequential read事件與索引相關(guān)讀相關(guān)。日志寫相關(guān)的等待時(shí)間占到DB整體等待時(shí)間的65.44%,所以寫IO的時(shí)延至關(guān)重要。
表2為上述AWR報(bào)告中,按等待時(shí)間從大到小排列的前四個(gè)后臺(tái)等待事件。從表2中可以看到,在大并發(fā)壓力下,即使用全閃存陣列寫延時(shí)也可能到達(dá)ms級(jí)別。其中,Log file parallel write即為L(zhǎng)og file sync等待事件中和IO相關(guān)的部分。如果可以降低Log file parallel write的延時(shí),則數(shù)據(jù)庫(kù)等待IO的時(shí)間會(huì)大大降低,CPU的IO wait會(huì)大大降低,從而提高業(yè)務(wù)性能和CPU利用率。
因此,如果在SSD上部署數(shù)據(jù)庫(kù)等應(yīng)用,大并發(fā)混合讀寫壓力下,低寫延時(shí)對(duì)數(shù)據(jù)庫(kù)整體性能至關(guān)重要。
1.3? SSD延時(shí)特點(diǎn)
實(shí)際業(yè)務(wù)系統(tǒng)中,SSD讀性能一般不會(huì)成為瓶頸,這是由于SSD讀IOPS遠(yuǎn)高于寫IOPS,其在單位時(shí)間內(nèi)可以響應(yīng)更多并發(fā)IO請(qǐng)求。而在實(shí)際應(yīng)用中,SSD寫延時(shí)會(huì)影響到數(shù)據(jù)庫(kù)性能。對(duì)于數(shù)據(jù)庫(kù)、文件系統(tǒng)、分布式文件系統(tǒng)等,其日志文件寫入一般為順序?qū)懟虿l(fā)順序?qū)?。但是,由于業(yè)務(wù)層還混合了其他讀寫操作,到SSD層面IO會(huì)變?yōu)榇蟛l(fā)的隨機(jī)讀寫。由于數(shù)據(jù)相關(guān)性要求,一些上層應(yīng)用的IO完成必須在日志文件完成寫入之后,故日志文件寫入對(duì)延時(shí)要求又比較高。因此,綜合以上情況,在大并發(fā)情況下,需要重點(diǎn)關(guān)注SSD寫延時(shí)。
對(duì)閃存介質(zhì)來(lái)講,SSD的寫延時(shí)要普遍優(yōu)于讀延時(shí)。SSD讀的過(guò)程中描述如下:數(shù)據(jù)需要從NAND里面讀出;NAND讀取過(guò)程中,需要對(duì)字線加電壓偏執(zhí),從位線通過(guò)感測(cè)放大器來(lái)讀取結(jié)果,僅這個(gè)過(guò)程一般需要約60μs。SSD寫過(guò)程描述如下:寫數(shù)據(jù)先到達(dá)DRAM(NVMe SSD)或者SRAM(Host-Based SSD),隨即返回寫完成,寫延時(shí)較短,SSD內(nèi)部負(fù)責(zé)數(shù)據(jù)將寫入到NAND顆粒中。
在SSD可承受的壓力范圍內(nèi)(即在一定IOPS范圍內(nèi)),SSD延時(shí)比較平穩(wěn),當(dāng)壓力增大到一定值后,雖然IOPS還會(huì)有增加,但是延時(shí)卻會(huì)呈指數(shù)上升。在SSD測(cè)試過(guò)程中,對(duì)延時(shí)進(jìn)行合理的限定是有必要的:尤其對(duì)寫延時(shí)而言,在SSD可承受的IOPS范圍內(nèi),寫延時(shí)保持很低水平,當(dāng)壓力繼續(xù)增大,延時(shí)則會(huì)大幅增加到毫秒以上。
1.4? 數(shù)據(jù)模型
數(shù)據(jù)庫(kù)的數(shù)據(jù)塊大小主要為4K或8K。在對(duì)核心長(zhǎng)期監(jiān)測(cè)中發(fā)現(xiàn),數(shù)據(jù)庫(kù)的數(shù)據(jù)讀寫類型主要是70%的隨機(jī)讀和30%的隨機(jī)寫。為了貼近生產(chǎn)環(huán)境,運(yùn)營(yíng)商的核心系統(tǒng)數(shù)據(jù)塊設(shè)置為4K,讀寫比例為70%的隨機(jī)讀和30%的隨機(jī)寫。
考慮到SSD本身的讀寫延時(shí)情況和核心系統(tǒng)對(duì)SSD的延時(shí)需求,為保障核心系統(tǒng)性能,將SSD的QoS條件設(shè)定為:在70%隨機(jī)讀30%隨機(jī)寫的4K的條件下,SSD讀延時(shí)不超過(guò)1 000 μs,寫延時(shí)不超過(guò)200 μs。
1.5? 指標(biāo)建議值
綜上所述,由于運(yùn)營(yíng)商核心數(shù)據(jù)庫(kù)主要為4K或8K的數(shù)據(jù)塊,且讀寫類型為隨機(jī)讀寫頻繁,因此,將IOPS定義為主要性能指標(biāo),可以使性能指標(biāo)貼近生產(chǎn)實(shí)際需要。同時(shí),考慮到實(shí)際生產(chǎn)環(huán)境的時(shí)延要求,該性能指標(biāo)還必須是在滿足QoS指標(biāo)的條件下測(cè)得的IOPS值。
2? ? 評(píng)估方法
2.1? 主要工具
本文通過(guò)開源軟件FIO和nmon進(jìn)行SSD性能評(píng)估。
FIO是一款開源I/O性能測(cè)試工具,廣泛應(yīng)用于企業(yè)級(jí)SSD、HDD以及磁盤陣列性能測(cè)試中。支持主流的操作系統(tǒng)平臺(tái),如Windows Server及常用的Linux發(fā)行版,可以直接編譯或移植到各種操作系統(tǒng)中運(yùn)行。該軟件支持多進(jìn)程,隊(duì)列深度指定,磁盤塊大小指定如4 KB,存儲(chǔ)引擎指定如libaio,測(cè)試日志記錄等功能。如果將多組fio測(cè)試命令依次寫入測(cè)試腳本,則可先覆蓋存儲(chǔ)設(shè)備全部LBA 數(shù)遍,然后連續(xù)獲取高工作負(fù)載情況下存儲(chǔ)設(shè)備的性能指標(biāo)。用戶可根據(jù)最終日志輸出結(jié)果制成可視化圖表。FIO主要參數(shù)包括:
Blocksize:數(shù)據(jù)塊大小。
rw:負(fù)載類型,主要包括raed(順序讀)、write(順序?qū)懀?、randrw(隨機(jī)讀寫)。
size:每次IO請(qǐng)求要讀寫的數(shù)據(jù)量。
ioengine:I/O引擎,windows下可使用windowsaio,Linux可使用libaio、sync、psync等。
iodepth:I/O深度,每次提交的I/O請(qǐng)求個(gè)數(shù)。iodepth開始增加時(shí),IOPS及帶寬也相應(yīng)增加。但iodepth增大到一定程度時(shí),IOPS和帶寬增加緩慢甚至保持不變,但延時(shí)將大幅度上升,這是因?yàn)樾枰ㄙM(fèi)更多的時(shí)間等待請(qǐng)求IO數(shù)量達(dá)到iodepth數(shù)值后才發(fā)出IO請(qǐng)求。隊(duì)列深度的大小設(shè)置將影響IOPS、延時(shí)和QoS的測(cè)量。
numjobs:本次任務(wù)克隆的數(shù)量(線程/進(jìn)程執(zhí)行相同的任務(wù))。這個(gè)參數(shù)具體要根據(jù)SSD和服務(wù)器的性能來(lái)確定,目標(biāo)是使服務(wù)器能達(dá)到滿載。
nmon是一款Linux性能監(jiān)測(cè)工具,可以收集CPU利用率、內(nèi)存使用量、磁盤IO、網(wǎng)絡(luò)IO、進(jìn)程信息等。mmon消耗的系統(tǒng)資源很少。nmon用于記錄測(cè)試過(guò)程中CPU、內(nèi)存等系統(tǒng)資源的占用率、硬盤IOPS。
2.2? 硬件環(huán)境
測(cè)試主機(jī)配置為:
CPU:Intel XEON E7-8870v3系列18核2.1GHz主頻;
內(nèi)存:512 GB;
操作系統(tǒng):RedHat 6.5(X64);
SSD為3.2T MLC PCIe2.0 SSD卡。
性能強(qiáng)勁的硬件平臺(tái),可以保障性能測(cè)試過(guò)程中,系統(tǒng)資源產(chǎn)生使SSD處于極限工作下的負(fù)載。
2.3? 性能優(yōu)化
要充分發(fā)揮SSD卡的性能,還需要考慮CPU進(jìn)程優(yōu)化、4K對(duì)齊及文件系統(tǒng)等影響因素。
使用單進(jìn)程(單一作業(yè))測(cè)試時(shí),即使使用很深的隊(duì)列,仍然可能有性能瓶頸。對(duì)于高性能存儲(chǔ)產(chǎn)品,在使用較深的隊(duì)列例如32/64測(cè)試時(shí),建議嘗試4~8個(gè)以上進(jìn)程。如果使用隊(duì)列深度為1,塊大小為4 KB,則讀測(cè)試進(jìn)程數(shù)量應(yīng)達(dá)到256~512個(gè),寫測(cè)試進(jìn)程最高應(yīng)測(cè)到128個(gè)。單CPU核心因?yàn)樾阅芟拗疲凑詹煌念l率,最高大約可以達(dá)到100k~200k的IOPS。只有使用合適的進(jìn)程數(shù)量、隊(duì)列深度、塊大小的組合進(jìn)行測(cè)試,才能達(dá)到比較理想的數(shù)值。這同樣適用于實(shí)際應(yīng)用程序的調(diào)優(yōu)。
由于SSD讀寫的最小單元為頁(yè),頁(yè)大小一般為4K或8K。SSD不能像機(jī)械硬盤那樣對(duì)要寫入的單元進(jìn)行覆蓋寫入,而是在寫入數(shù)據(jù)前,先擦除要寫入單元的數(shù)據(jù)再寫入。擦除時(shí)最好的單位是塊,塊可以由多個(gè)頁(yè)組成。4K對(duì)齊可以讓操作系統(tǒng)最小分配單元和SSD的最小單元對(duì)應(yīng),這樣可以使SSD性能的優(yōu)化。
SSD上新建分區(qū)并格式化文件系統(tǒng)的情況下,不同的文件系統(tǒng)及參數(shù)設(shè)定影響到SSD性能的發(fā)揮。在生產(chǎn)環(huán)境下,讀寫頻繁的核心數(shù)據(jù)庫(kù)如Oracle數(shù)據(jù)庫(kù),會(huì)直接讀寫裸設(shè)備。作為承載核心業(yè)務(wù)數(shù)據(jù)的SSD來(lái)說(shuō),裸設(shè)備能夠充分發(fā)揮SSD的性能。為了排除文件系統(tǒng)對(duì)測(cè)試的干擾,在測(cè)試中采用FIO對(duì)分區(qū)格式化的SSD裸盤進(jìn)行讀寫。
2.4? 評(píng)估步驟
對(duì)SSD的性能評(píng)估過(guò)程主要包括清空SSD、預(yù)熱和啟動(dòng)性能測(cè)試等步驟。
(1)清空SSD
使用安全擦除工具將SSD完整擦除一遍,清空測(cè)試盤,使回到全新盤的狀態(tài),并靜置10分鐘,保證所有測(cè)試從同一個(gè)點(diǎn)開始,降低因?yàn)镾SD上已有數(shù)據(jù)隨機(jī)度不一致引起的測(cè)試誤差。
(2)預(yù)熱使用FIO對(duì)SSD全盤順序?qū)憹M兩遍
開啟讀寫測(cè)試,順序填充完全空白的SSD兩遍,保證全部SSD空間包括Over Provsioning超額提供的空間均填充數(shù)據(jù)。全部數(shù)據(jù)塊(LBA)都必須全盤順序填充數(shù)據(jù)兩次,如果不是順序填充,順序讀寫測(cè)試則不是真正的順序讀寫,因?yàn)檫B續(xù)塊有大有小。要么SSD里沒(méi)有數(shù)據(jù),要么垃圾回收機(jī)制沒(méi)有工作在最高強(qiáng)度下。如果不填充,則可能導(dǎo)致讀寫性能非常高,得到的數(shù)據(jù)不是正常工作負(fù)載下的持續(xù)性能數(shù)值。
2)數(shù)據(jù)讀取
通過(guò)mon_analyse解析nmon輸出的文件文件,生成分析報(bào)表。
3? ?結(jié)果分析
從FIO結(jié)果中可以看到,SSD樣品在測(cè)試過(guò)程中的平均讀時(shí)延為403.89 μs,寫時(shí)延為67.67 μs,滿足測(cè)試中規(guī)定的QoS要求。通過(guò)nmon結(jié)果可知,整個(gè)測(cè)試周期中,測(cè)試主機(jī)CPU占用率約為2.8%,內(nèi)存占用率約為1.94%,SSD卡對(duì)主機(jī)的資源占用率極低,主機(jī)資源不會(huì)造成測(cè)試的性能瓶頸。
從圖1中可以看到,在啟動(dòng)測(cè)試到第41分鐘的第I階段內(nèi),由于前一階段的SSD在順序?qū)懞螅瑪?shù)據(jù)塊的空間連續(xù),隨機(jī)讀和隨機(jī)寫的IOPS均比正常使用時(shí)偏高。從第41分鐘到2小時(shí)40分鐘的第II階段,由于SSD上的存儲(chǔ)空間已寫滿,垃圾回收機(jī)制啟動(dòng)。SSD每次寫操作時(shí),需要寫入的存儲(chǔ)空間單位為Page,而且只能寫入到空白的Page中。在存儲(chǔ)空間已滿的情況下,就必須先進(jìn)行一次擦除操作,而擦除操作的單元為Block(1Block由256個(gè)Page組成)。SSD寫入數(shù)據(jù)的時(shí)候的步驟包括:
(1)將Block中的除要寫入page外的其他數(shù)據(jù)塊寫入SSD的預(yù)留空間(OP, Over-Provisioning);
(2)擦除要寫入Page所在Block的全部數(shù)據(jù);
(3)將要寫入Page的數(shù)據(jù)和OP中的數(shù)據(jù)塊寫入Block。
因此,一個(gè)寫入操作引起的是整個(gè)Block的擦除和寫入,即一次寫入請(qǐng)求,最終落到硬盤上是放大多倍的寫入操作。在極端情況下,甚至出現(xiàn)寫入4 KB的數(shù)據(jù),實(shí)際寫入?yún)s為512 KB,達(dá)到128倍的寫放大。垃圾回收的TRIM指令將要寫入Page的數(shù)據(jù)塊標(biāo)注為無(wú)效,在寫入OP時(shí),只將有效的Page數(shù)據(jù)塊而不將其他數(shù)據(jù)塊中無(wú)效的數(shù)據(jù)塊寫入OP。TRIM指令可以降低寫放大,使SSD具有更高的吞吐率。啟動(dòng)垃圾回收時(shí),由于持續(xù)的IO讀寫請(qǐng)求和垃圾回收啟動(dòng)的雙重影響,產(chǎn)生了資源沖突,因此引起讀寫性能迅速下降。隨后,隨著垃圾回收機(jī)制的啟動(dòng)進(jìn)展,資源沖突逐漸緩解,IOPS性能值繼續(xù)抬升。在垃圾回收機(jī)制穩(wěn)定運(yùn)行后,SSD性能進(jìn)入第III階段。由于SSD中的存儲(chǔ)空間均已寫滿,該盤的垃圾回收機(jī)制已經(jīng)移動(dòng)運(yùn)行,并且盤上的數(shù)據(jù)隨機(jī)度足夠,SSD的IO性能進(jìn)入穩(wěn)態(tài)。
在實(shí)際生產(chǎn)環(huán)境中,運(yùn)營(yíng)商業(yè)務(wù)系統(tǒng)在部署上線后,在經(jīng)歷全盤讀寫后的數(shù)小時(shí)后,也將進(jìn)入第III階段的穩(wěn)態(tài)。計(jì)算第III階段穩(wěn)態(tài)下的IOPS值,可以得到該SSD在70%隨機(jī)讀30%隨機(jī)寫的4K的負(fù)載下的性能值為:207 977 io/s。通過(guò)本方案所評(píng)估的性能指標(biāo),其數(shù)據(jù)模型、測(cè)試過(guò)程和指標(biāo)選取貼近生產(chǎn)需求,因此,測(cè)試中所評(píng)估的SSD性能與在實(shí)際生產(chǎn)環(huán)境中可能達(dá)到的IOPS一致。因此,運(yùn)營(yíng)商可以根據(jù)性能評(píng)估結(jié)果,選擇能達(dá)到業(yè)務(wù)系統(tǒng)性能規(guī)劃要求的SSD。
性能測(cè)試如圖1所示:
4? ?結(jié)束語(yǔ)
至此,本文根據(jù)電信運(yùn)營(yíng)商業(yè)務(wù)系統(tǒng)的實(shí)際需求,分析AWR報(bào)告,提煉了運(yùn)營(yíng)商業(yè)務(wù)系統(tǒng)數(shù)據(jù)模型。在這基礎(chǔ)上,構(gòu)建了固態(tài)硬盤性能評(píng)估方案,以FIO和nmon為測(cè)試工具,搭建硬件環(huán)境,分析了SSD的優(yōu)化因素,并對(duì)評(píng)估步驟進(jìn)行了詳細(xì)描述。本文還分析了測(cè)試結(jié)果,對(duì)測(cè)試中的三個(gè)階段進(jìn)行了描述。本文所提供的評(píng)估方法不僅可以用于PCIe SSD,也同樣適用于SATA/SAS/NVMe等類型SSD的性能測(cè)試。通過(guò)本文的測(cè)試方案貼近生產(chǎn)環(huán)境需要,所提出的SSD性能評(píng)估方法所測(cè)得的SSD性能與生產(chǎn)環(huán)境下相近,從而可以為5G時(shí)代的運(yùn)營(yíng)商業(yè)務(wù)系統(tǒng)規(guī)劃設(shè)計(jì)、優(yōu)化提供依據(jù),有力地保障了核心業(yè)務(wù)系統(tǒng)的部署。
參考文獻(xiàn):
[1]? ? 張丹. 引領(lǐng)AI時(shí)代的監(jiān)控存儲(chǔ)方案[J]. 中國(guó)公共安全, 2018(6): 148-149.
[2]? ? 李鑫,孫蓉,劉景偉. 分布式存儲(chǔ)系統(tǒng)中容錯(cuò)技術(shù)綜述[J]. 無(wú)線電通信技術(shù), 2019(5): 463-475.
[3]? ? 肖堯. 面向5G低時(shí)延高可靠車載業(yè)務(wù)的計(jì)算卸載策略研究[D]. 西安: 西安電子科技大學(xué), 2019.
[4]? ? 張衛(wèi). 存儲(chǔ)器技術(shù)的新進(jìn)展[J]. 集成電路應(yīng)用, 2020? ? (3):10-12.
[5]? ? ?彭振翼. 固態(tài)存儲(chǔ)系統(tǒng)PCIe接口的設(shè)計(jì)方法與實(shí)現(xiàn)[D].? 武漢: 華中科技大學(xué), 2013.
[6]? ? 潤(rùn)冬,劉芳,肖儂,等. PCIe SSD I/O棧設(shè)計(jì)與原型系統(tǒng)研究[J]. 計(jì)算機(jī)研究與發(fā)展, 2015(S2): 124-130.
[7]? ? 馬娜,朱立谷,陳志杰,等. 磁盤陣列性能測(cè)試工具研究[J]. 計(jì)算機(jī)工程與應(yīng)用, 2010(36): 74-78.
[8]? ? 常寶升. 基于IP-SAN的存儲(chǔ)虛擬化系統(tǒng)研究[D]. 哈爾濱: 哈爾濱工程大學(xué), 2008.
[9]? ? 趙雷. 塊設(shè)備自動(dòng)化測(cè)試系統(tǒng)的設(shè)計(jì)及優(yōu)化[D]. 北京: 中國(guó)科學(xué)院大學(xué), 2017.
[10]? ?趙夢(mèng)茹. 移動(dòng)終端Linux存儲(chǔ)IO性能分析與優(yōu)化[D]. 西安: 西安電子科技大學(xué), 2014.