亚洲狠狠干,亚洲国产福利精品一区二区,国产八区,激情文学亚洲色图

基于高性能計(jì)算技術(shù)的并行文件系統(tǒng)的制作方法

文檔序號(hào):11276568閱讀:386來源:國(guó)知局
基于高性能計(jì)算技術(shù)的并行文件系統(tǒng)的制造方法與工藝

本發(fā)明涉及計(jì)算機(jī)文件系統(tǒng)設(shè)計(jì)和管理技術(shù),尤其涉及一種基于高性能計(jì)算(highperformancecomputing,hpc)技術(shù)的并行文件系統(tǒng)。



背景技術(shù):

隨著超級(jí)計(jì)算應(yīng)用的不斷擴(kuò)大和高性能計(jì)算(hpc)技術(shù)的出現(xiàn),將超級(jí)計(jì)算推向了各個(gè)領(lǐng)域,由對(duì)超級(jí)計(jì)算追求單一計(jì)算指標(biāo)轉(zhuǎn)變?yōu)樽非蟾咝阅艿木C合指標(biāo)。高性能計(jì)算還應(yīng)用于數(shù)值計(jì)算和數(shù)據(jù)處理。隨著數(shù)據(jù)庫(kù)技術(shù)的成熟,生物基因等技術(shù)的發(fā)展,歷史數(shù)據(jù)的幾何級(jí)膨脹把超級(jí)計(jì)算推向數(shù)據(jù)處理領(lǐng)域。

硬件技術(shù)的快速發(fā)展促進(jìn)了超級(jí)計(jì)算走向高端計(jì)算,然而軟件技術(shù)的緩慢發(fā)展則影響了高端計(jì)算的進(jìn)一步發(fā)展。在高性能計(jì)算領(lǐng)域,相對(duì)于硬件技術(shù),并行軟件技術(shù)幾十年來都沒有獲得突破性的進(jìn)展。尤其是分布式計(jì)算技術(shù)、自動(dòng)并行識(shí)別技術(shù)、并行文件系統(tǒng)技術(shù)等。

隨著數(shù)據(jù)量的飛速增長(zhǎng),數(shù)據(jù)的生成速度越來越快,需要越來越高的帶寬,越來越大的存儲(chǔ)規(guī)模,單一文件系統(tǒng)已經(jīng)無法滿足當(dāng)前高性能計(jì)算的需要。

現(xiàn)有高性能計(jì)算集群并行文件系統(tǒng),例如lustre文件系統(tǒng),最多可以支持100000個(gè)客戶端(client)、1000個(gè)對(duì)象存儲(chǔ)服務(wù)器(oss)和2個(gè)元數(shù)據(jù)服務(wù)器(mds)節(jié)點(diǎn)。lustre系統(tǒng)中可以同時(shí)運(yùn)行1~3個(gè)功能模塊。不過lustre一般運(yùn)行于高性能計(jì)算機(jī)系統(tǒng)之上,為了提高lustre文件系統(tǒng)的性能,通常mds、oss和client分開運(yùn)行在lustre不同的節(jié)點(diǎn)之上。

lustre文件系統(tǒng)的元數(shù)據(jù)存儲(chǔ)與管理策略是:mds負(fù)責(zé)管理元數(shù)據(jù),提供一個(gè)全局的命名空間,client可以通過mds讀取到保存于元數(shù)據(jù)目標(biāo)設(shè)備(mdt)之上的元數(shù)據(jù)。在lustre中mds可以有2個(gè),采用了active-standby的容錯(cuò)機(jī)制,當(dāng)其中一個(gè)mds不能正常工作時(shí),另外一個(gè)后備mds可以啟動(dòng)服務(wù)。mdt只能有1個(gè),不同mds之間共享訪問同一個(gè)mdt。

其文件數(shù)據(jù)存儲(chǔ)與管理策略是:oss負(fù)載提供輸入/輸出(i/o)服務(wù),接受并服務(wù)來自網(wǎng)絡(luò)的請(qǐng)求。通過oss可以訪問到保存在對(duì)象存儲(chǔ)目標(biāo)設(shè)備(ost)上的文件數(shù)據(jù)。一個(gè)oss對(duì)應(yīng)2到8個(gè)ost。ost上的文件數(shù)據(jù)是以分條的形式保存的,文件的分條可以在一個(gè)oss之中,也可以保存在多個(gè)oss中。lustre的特色之一是其數(shù)據(jù)是基于對(duì)象的職能存儲(chǔ)的,跟傳統(tǒng)的基于塊的存儲(chǔ)方式有所不同。

lustre并行文件系統(tǒng)通過client端來訪問系統(tǒng),client為掛載了lustre文件系統(tǒng)的任意節(jié)點(diǎn)。client提供了linux下虛擬文件系統(tǒng)(vfs)與lustre系統(tǒng)之間的接口,通過client,用戶可訪問操作lustre系統(tǒng)中的文件。

雖然lustre文件系統(tǒng)的性能和可擴(kuò)展性都不錯(cuò),而且還擁有基于對(duì)象的智能化存儲(chǔ)、安全的認(rèn)證機(jī)制、比較完善的容錯(cuò)機(jī)制等優(yōu)點(diǎn),而且lustre還實(shí)現(xiàn)了文件鎖功能。但是lustre需要特殊硬件設(shè)備的支持,并且lustre目前還沒實(shí)現(xiàn)mds的集群管理,盡管lustre的雙mds在可用性上還是提高不少,但是當(dāng)系統(tǒng)達(dá)到一定的規(guī)模之后,mds還是很有可能成為lustre文件系統(tǒng)中的瓶頸;此外,lustre文件系統(tǒng)還沒有實(shí)現(xiàn)可視化圖形界面,使用其文件系統(tǒng)不夠直觀。



技術(shù)實(shí)現(xiàn)要素:

有鑒于此,本發(fā)明的主要目的在于提供一種基于高性能計(jì)算(hpc)的并行文件系統(tǒng),以支持基于廉價(jià)的sata/sas磁盤驅(qū)動(dòng)器構(gòu)建超大規(guī)模存儲(chǔ)集群,克服現(xiàn)有并行文件系統(tǒng)需要專門硬件設(shè)備支持的不足;支持基于對(duì)象存儲(chǔ)的分布式文件系統(tǒng);支持大多數(shù)高速網(wǎng)絡(luò)類型;進(jìn)一步提高吞吐量、可擴(kuò)展性和高性能,從而實(shí)現(xiàn)有效的數(shù)據(jù)管理機(jī)制,全局?jǐn)?shù)據(jù)共享、失效替代和系統(tǒng)快速配置。

本發(fā)明的另一目的在于提供一種高性能計(jì)算(hpc)的并行文件系統(tǒng),通過集成集群管理模塊,支持web界面動(dòng)態(tài)顯示并行文件系統(tǒng)存儲(chǔ)集群的讀寫過程。

為達(dá)到上述目的,本發(fā)明的技術(shù)方案是這樣實(shí)現(xiàn)的:

一種基于高性能計(jì)算hpc的并行文件系統(tǒng),包括若干元數(shù)據(jù)服務(wù)器mds、多個(gè)對(duì)象存儲(chǔ)服務(wù)器oss和多個(gè)客戶端client;還包括元數(shù)據(jù)目標(biāo)設(shè)備mdt和對(duì)象存儲(chǔ)目標(biāo)設(shè)備ost;其中:

所述mds,用于負(fù)責(zé)元數(shù)據(jù)服務(wù),同時(shí)管理整個(gè)文件系統(tǒng)的命名空間;用于多個(gè)mds之間共享訪問一個(gè)mdt;每個(gè)mdt用于保存文件元數(shù)據(jù)對(duì)象;利用所述client通過mds讀取保存于mdt的元數(shù)據(jù);

所述oss,用于負(fù)責(zé)客戶端和物理存儲(chǔ)之間的交互及數(shù)據(jù)存儲(chǔ),向外提供數(shù)據(jù)的輸入/輸出i/o接口;每個(gè)oss管理一個(gè)或者多個(gè)ost,存儲(chǔ)數(shù)據(jù)對(duì)象;

所述client,用于通過oss訪問保存在ost上的文件數(shù)據(jù);client掛載了文件系統(tǒng)的任意節(jié)點(diǎn),實(shí)現(xiàn)可以posix文件系統(tǒng)接口,用戶通過client透明地訪問整個(gè)文件系統(tǒng)的數(shù)據(jù)。

其中,所述該hpc并行文件系統(tǒng),最多能夠支持100000個(gè)客戶端client、1000個(gè)對(duì)象存儲(chǔ)服務(wù)器oss和2個(gè)元數(shù)據(jù)服務(wù)器mds。

所述的并行文件系統(tǒng),通過千兆以太網(wǎng)連接多個(gè)元數(shù)據(jù)服務(wù)器mds、元數(shù)據(jù)目標(biāo)設(shè)備mdt、對(duì)象存儲(chǔ)服務(wù)器oss和對(duì)象存儲(chǔ)目標(biāo)設(shè)備(ost)。

所述的并行文件系統(tǒng)支持infiniband架構(gòu)。

所述的并行文件系統(tǒng)集成有若干驅(qū)動(dòng)模塊;所述驅(qū)動(dòng)模塊包括intel網(wǎng)卡、mellanox網(wǎng)卡和lsi陣列卡,利用所述驅(qū)動(dòng)模塊支持基于廉價(jià)的sata/sas磁盤驅(qū)動(dòng)器構(gòu)建超大規(guī)模存儲(chǔ)集群。

所述的并行文件系統(tǒng)集成有hpc集群管理模塊,通過服務(wù)端的一臺(tái)元數(shù)據(jù)服務(wù)器mds收集到同一個(gè)網(wǎng)段內(nèi)的所有客戶端的監(jiān)控?cái)?shù)據(jù)。

所述的hpc集群管理模塊包括監(jiān)控程序模塊,所述監(jiān)控程序模塊進(jìn)一步包括ltmetad程序模塊、ltmond監(jiān)控程序模塊和phpweb前端模塊;其中:

所述ltmetad程序模塊,運(yùn)行l(wèi)tmetad進(jìn)程定期輪詢每個(gè)孩子即ltmond節(jié)點(diǎn)的數(shù)據(jù)資源、解析收集到的xml數(shù)據(jù)、存儲(chǔ)數(shù)值,并將易失性數(shù)據(jù)通過rrd工具存儲(chǔ)在輪轉(zhuǎn)數(shù)據(jù)庫(kù)rrd中,以及向客戶端傳送收集到的xml數(shù)據(jù);

所述ltmond監(jiān)控程序模塊,用于監(jiān)控本機(jī)狀態(tài)的變化,并報(bào)告相關(guān)的改變,通過單播或組播方式監(jiān)控其他運(yùn)行l(wèi)tmond進(jìn)程的ltmond節(jié)點(diǎn)的狀態(tài),以及對(duì)集群狀態(tài)請(qǐng)求進(jìn)行應(yīng)答,該請(qǐng)求通過xml進(jìn)行描述;

所述phpweb前端模塊,用于提供可視化動(dòng)態(tài)集群功能,以實(shí)現(xiàn)有效監(jiān)控集群狀態(tài)。

所述ltmetad程序模塊周期性地去ltmond節(jié)點(diǎn)或者ltmetad節(jié)點(diǎn)poll數(shù)據(jù)。

本發(fā)明的基于高性能計(jì)算(hpc)的并行文件系統(tǒng),具有如下有益效果:

采用該并行文件系統(tǒng),使其能夠支持基于廉價(jià)的sata/sas磁盤驅(qū)動(dòng)器構(gòu)建超大規(guī)模存儲(chǔ)集群,克服現(xiàn)有并行文件系統(tǒng)需要專門硬件設(shè)備支持的缺陷;支持基于對(duì)象存儲(chǔ)的分布式文件系統(tǒng);支持大多數(shù)高速網(wǎng)絡(luò)類型;進(jìn)一步提高吞吐量、可擴(kuò)展性和高性能,從而實(shí)現(xiàn)有效的數(shù)據(jù)管理機(jī)制,全局?jǐn)?shù)據(jù)共享、失效替代和系統(tǒng)快速配置。

另外,該并行文件系統(tǒng)通過集成集群管理模塊,支持以web界面形式動(dòng)態(tài)顯示存儲(chǔ)集群的讀寫情況,使使用過程更加直觀。

附圖說明

圖1為本發(fā)明實(shí)施例基于高性能計(jì)算(hpc)的并行文件系統(tǒng)架構(gòu)示意圖;

圖2為本發(fā)明實(shí)施例基于hpc的并行文件系統(tǒng)示意圖;

圖3為本發(fā)明實(shí)施例基于hpc的并行文件系統(tǒng)集群模塊監(jiān)控架構(gòu)示意圖;

圖4為本發(fā)明實(shí)施例并行文件系統(tǒng)集群模塊監(jiān)控結(jié)構(gòu)示意圖;

圖5為圖4所示并行文件系統(tǒng)集群模塊收集監(jiān)控?cái)?shù)據(jù)的過程示意圖;

圖6為本發(fā)明實(shí)施例基于hpc的并行文件系統(tǒng)集群監(jiān)控軟件界面示意圖。

具體實(shí)施方式

下面結(jié)合附圖及本發(fā)明的實(shí)施例對(duì)本發(fā)明基于高性能計(jì)算(hpc)的并行文件系統(tǒng)作進(jìn)一步詳細(xì)的說明。

高性能計(jì)算(hpc),是指使用多個(gè)處理器(作為單個(gè)機(jī)器的一部分)或某一集群中組織的幾臺(tái)計(jì)算機(jī)(作為單個(gè)計(jì)算資源操作)的計(jì)算系統(tǒng)和環(huán)境。高性能計(jì)算(hpc)并行文件系統(tǒng)是值應(yīng)用于多機(jī)環(huán)境的網(wǎng)絡(luò)文件系統(tǒng),單個(gè)文件的數(shù)據(jù)采用分條等形式存放于不同的輸入/輸出(i/o)節(jié)點(diǎn)之上,支持多機(jī)多個(gè)線程的并發(fā)存取,同時(shí)支持元數(shù)據(jù)和數(shù)據(jù)的分布存放,并提供單一的目錄空間。

圖1為本發(fā)明實(shí)施例基于高性能計(jì)算(hpc)的并行文件系統(tǒng)架構(gòu)示意圖。

如圖1所示,該hpc并行文件系統(tǒng),主要包括若干元數(shù)據(jù)服務(wù)器(mds)、多個(gè)對(duì)象存儲(chǔ)服務(wù)器(oss)和多個(gè)客戶端(client)。還包括元數(shù)據(jù)目標(biāo)設(shè)備(mdt)和對(duì)象存儲(chǔ)目標(biāo)設(shè)備(ost)。

該hpc并行文件系統(tǒng),最多可以支持100000個(gè)客戶端(client)、1000個(gè)對(duì)象存儲(chǔ)服務(wù)器(oss)和2個(gè)元數(shù)據(jù)服務(wù)器(mds)。其中:

所述mds,用于負(fù)責(zé)元數(shù)據(jù)服務(wù),同時(shí)管理整個(gè)文件系統(tǒng)的命名空間;用于多個(gè)mds之間共享訪問一個(gè)mdt;每個(gè)mdt用于保存文件元數(shù)據(jù)對(duì)象,例如文件名稱,目錄結(jié)構(gòu)和訪問權(quán)限。所述client則通過mds讀取保存于mdt的元數(shù)據(jù)。

所述oss,用于負(fù)責(zé)客戶端和物理存儲(chǔ)之間的交互及數(shù)據(jù)存儲(chǔ),向外提供數(shù)據(jù)的io接口。每個(gè)oss管理一個(gè)或者多個(gè)ost,存儲(chǔ)數(shù)據(jù)對(duì)象。

所述client,用于通過oss訪問保存在ost上的文件數(shù)據(jù);client掛載了文件系統(tǒng)的任意節(jié)點(diǎn),實(shí)現(xiàn)了可以posix文件系統(tǒng)接口,用戶通過client可以透明的訪問整個(gè)文件系統(tǒng)的數(shù)據(jù)。

本發(fā)明實(shí)施例的上述hpc并行文件系統(tǒng),采用的文件數(shù)據(jù)布局策略如下:

1)每個(gè)常規(guī)文件、目錄、符號(hào)連接和特殊文件都有一個(gè)唯一的inode,作為文件元數(shù)據(jù)對(duì)象;

2)文件數(shù)據(jù)按照一定的條帶模式分布存儲(chǔ)在幾個(gè)ost的存儲(chǔ)對(duì)象中;

3)文件的分帶大小,存儲(chǔ)對(duì)象數(shù)目,分帶模式對(duì)應(yīng)的ost索引等定位信息,都作為數(shù)據(jù)分布屬性對(duì)象保存在元數(shù)據(jù)inode的擴(kuò)展屬性中。

本發(fā)明實(shí)施例的上述hpc并行文件系統(tǒng),采用的元數(shù)據(jù)分配方法如下:

一是目錄子樹分區(qū)法,二是純哈希法。其中:

所述目錄子樹分區(qū)法具體包括:

1)將命名空間劃分為不同的目錄、子樹;

2)每個(gè)目錄子樹對(duì)應(yīng)的元數(shù)據(jù)由同一個(gè)元數(shù)據(jù)服務(wù)器進(jìn)行管理;

3)一個(gè)元數(shù)據(jù)服務(wù)器也可以管理多個(gè)目錄子樹;

4)每目錄子樹就是一個(gè)可安裝的小文件系統(tǒng)。

所述純哈希法,具體包括:

當(dāng)客戶端創(chuàng)建一個(gè)文件時(shí),以文件的標(biāo)志符(或者路徑名)為鍵值(key),通過哈希函數(shù)選擇創(chuàng)建文件的元數(shù)據(jù)服務(wù)器。

圖2為本發(fā)明實(shí)施例基于hpc的并行文件系統(tǒng)示意圖。如圖2所示的hpc并行文件系統(tǒng),通過千兆以太網(wǎng)連接多個(gè)元數(shù)據(jù)服務(wù)器(mds)、元數(shù)據(jù)目標(biāo)設(shè)備(mdt)、對(duì)象存儲(chǔ)服務(wù)器(oss)和對(duì)象存儲(chǔ)目標(biāo)設(shè)備(ost)。

該hpc并行文件系統(tǒng)還支持infiniband架構(gòu)。所述infiniband,又名無限帶寬技術(shù),用于解決服務(wù)器端的連接問題,如分布式連接等。infiniband架構(gòu)是一種支持多并發(fā)鏈接的“轉(zhuǎn)換線纜”技術(shù),在該技術(shù)中,每種鏈接都可以達(dá)到2.5gbps的運(yùn)行速度。該架構(gòu)在一個(gè)鏈接的時(shí)候速度是500mb/秒,四個(gè)鏈接的時(shí)候速度是2gb/秒,12個(gè)鏈接的時(shí)候速度可以達(dá)到6gb/秒。

該hpc并行文件系統(tǒng),在程序模塊中集成了大量的驅(qū)動(dòng)模塊,如intel網(wǎng)卡、mellanox網(wǎng)卡、lsi陣列卡等,使其能夠支持基于廉價(jià)的sata/sas磁盤驅(qū)動(dòng)器構(gòu)建超大規(guī)模存儲(chǔ)集群,克服現(xiàn)有并行文件系統(tǒng)需要專門硬件設(shè)備支持的缺陷。

圖3為本發(fā)明實(shí)施例基于hpc的并行文件系統(tǒng)集群模塊監(jiān)控架構(gòu)示意圖,圖4為本發(fā)明實(shí)施例基于hpc的并行文件系統(tǒng)集群模塊監(jiān)控整體結(jié)構(gòu)示意圖。

本發(fā)明基于hpc的并行文件系統(tǒng)集成了hpc集群管理模塊,該hpc集群管理模塊能夠用曲線圖表現(xiàn)最近一個(gè)小時(shí)、最近一天、最近一周、最近一月甚至最近一年的并行文件系統(tǒng)(mds、oss和client)的cpu負(fù)載情況、內(nèi)存使用情況、網(wǎng)絡(luò)狀況以及硬盤占用率等指標(biāo)。

所述hpc集群管理模塊,通過服務(wù)端的一臺(tái)元數(shù)據(jù)服務(wù)器(mds)收集同一個(gè)網(wǎng)段內(nèi)的所有客戶端(client)的監(jiān)控?cái)?shù)據(jù)。

這里,所述的hpc集群管理模塊的工作原理是:該hpc集群管理模塊,運(yùn)行多個(gè)ltmond進(jìn)程和一個(gè)主ltmetad進(jìn)程,利用全部的ltmond進(jìn)程收集監(jiān)控?cái)?shù)據(jù),并將收集到的監(jiān)控?cái)?shù)據(jù)匯總至ltmetad進(jìn)程管理端程序。所述ltmetad進(jìn)程管理端程序?qū)⑺霰O(jiān)控?cái)?shù)據(jù)存儲(chǔ)到輪轉(zhuǎn)數(shù)據(jù)庫(kù)(roundrobindatabase,rrd)中,最后通過php程序(如apachephp前端程序)在web瀏覽器界面上進(jìn)行展示(參考圖5)。

如圖4所示,展示了元數(shù)據(jù)服務(wù)器(mds)通過運(yùn)行l(wèi)tmetad進(jìn)程管理端程序利用ltmond進(jìn)程從對(duì)象存儲(chǔ)服務(wù)器1(oss1)、oss2、……、ossn和客戶端client1、client2、……、clientn收集監(jiān)控?cái)?shù)據(jù)的過程。

圖5為圖4所示并行文件系統(tǒng)集群管理模塊收集監(jiān)控?cái)?shù)據(jù)的過程示意圖。如圖5所示,該收集監(jiān)控?cái)?shù)據(jù)的過程主要通過并行文件系統(tǒng)集群管理模塊的監(jiān)控程序模塊來完成,其工作原理如下:

ltmetad程序模塊,運(yùn)行l(wèi)tmetad進(jìn)程定期輪詢每個(gè)孩子(ltmond節(jié)點(diǎn))的數(shù)據(jù)資源、解析收集到的xml數(shù)據(jù)、存儲(chǔ)數(shù)值,并將易失性數(shù)據(jù)通過rrd工具(tool)存儲(chǔ)在輪轉(zhuǎn)數(shù)據(jù)庫(kù)(rrd)中,以及向客戶端傳送收集到的xml數(shù)據(jù)。該xml數(shù)據(jù)來源包括ltmond監(jiān)控程序模塊(運(yùn)行l(wèi)tmond進(jìn)程),其數(shù)據(jù)源是通過ip地址來實(shí)現(xiàn)定位的。

利用所述ltmond監(jiān)控程序模塊,監(jiān)控本機(jī)狀態(tài)的變化,并報(bào)告相關(guān)的改變,通過單播或組播方式監(jiān)控其他運(yùn)行l(wèi)tmond進(jìn)程的ltmond節(jié)點(diǎn)的狀態(tài),以及對(duì)集群狀態(tài)請(qǐng)求進(jìn)行應(yīng)答,該請(qǐng)求通過xml進(jìn)行描述。

通過phpweb前端模塊,提供可視化動(dòng)態(tài)監(jiān)控集群功能。利用phpweb前端模塊提供可視化動(dòng)態(tài)集群監(jiān)控是一種讓系統(tǒng)管理員實(shí)現(xiàn)有效監(jiān)控集群狀態(tài)的方法。其不僅是將xml數(shù)據(jù)以html頁面的方式來展現(xiàn),而且能夠以多種方式展現(xiàn)系統(tǒng)的歷史數(shù)據(jù)。該功能的實(shí)現(xiàn)依賴于ltmetad程序模塊,利用ltmetad程序模塊為所述phpweb前端模塊提供各種數(shù)據(jù)。具體地,在本實(shí)施例中,默認(rèn)情況下本發(fā)明的并行文件系統(tǒng)監(jiān)控程序模塊是通過phpweb前端使用9651端口接收所述數(shù)據(jù)。

如圖4所示,ltmetad程序模塊周期性地去ltmond節(jié)點(diǎn)或者ltmetad節(jié)點(diǎn)poll數(shù)據(jù)。一個(gè)ltmetad節(jié)點(diǎn)可以設(shè)置多個(gè)數(shù)據(jù)源(datasource),每個(gè)datasource可以有多個(gè)備份,一個(gè)失敗還可以去其他主機(jī)(host)取數(shù)據(jù)。

這里,所述poll數(shù)據(jù)是指執(zhí)行poll()函數(shù)操作,作用是將當(dāng)前的文件指針掛到設(shè)備內(nèi)部定義的等待隊(duì)列中。所述poll()函數(shù)與select()函數(shù)作用類似,但前者效率更高。當(dāng)返回正值時(shí),代表滿足響應(yīng)事件的文件描述符的個(gè)數(shù),如果返回0則代表在規(guī)定時(shí)間內(nèi)沒有事件發(fā)生。如發(fā)現(xiàn)返回為負(fù)則應(yīng)該立即查看errno,因?yàn)檫@代表有錯(cuò)誤發(fā)生。

參考圖5,多個(gè)ltmond節(jié)點(diǎn)通過用戶數(shù)據(jù)報(bào)協(xié)議(udp)向單播的目標(biāo)主機(jī)(host)的ltmond節(jié)點(diǎn)發(fā)送數(shù)據(jù),ltmetad節(jié)點(diǎn)向該目標(biāo)host的ltmond請(qǐng)求xml文件,然后存入rrdtool的數(shù)據(jù)庫(kù)中。圖5中,所述ltmetad節(jié)點(diǎn)、與所述ltmetad節(jié)點(diǎn)相連的ltmond節(jié)點(diǎn)、rrdtool、phpscript以及apachephp前端是位于元數(shù)據(jù)服務(wù)器(mds)的節(jié)點(diǎn)。該節(jié)點(diǎn)負(fù)責(zé)收集存儲(chǔ)顯示被監(jiān)控的各節(jié)點(diǎn)的狀態(tài)信息。

圖6為本發(fā)明實(shí)施例基于hpc的并行文件系統(tǒng)集群監(jiān)控軟件界面示意圖。如圖6所示,使用者利用hpc集群管理模塊,通過php程序在web瀏覽器界面即可查看最近一個(gè)小時(shí)、最近一天、最近一周、最近一月甚至最近一年的hpc并行文件系統(tǒng)(mds、oss和client)的cpu負(fù)載情況、內(nèi)存使用情況、網(wǎng)絡(luò)狀況以及硬盤占用率等指標(biāo)。從而實(shí)現(xiàn)了可視化圖形管理,能夠直觀的查看該并行文件系統(tǒng)的運(yùn)行狀況。

以上所述,僅為本發(fā)明的較佳實(shí)施例而已,并非用于限定本發(fā)明的保護(hù)范圍。

當(dāng)前第1頁1 2 
網(wǎng)友詢問留言 已有0條留言
  • 還沒有人留言評(píng)論。精彩留言會(huì)獲得點(diǎn)贊!
1