高性能計算集群HPCCLUSTER_第1頁
高性能計算集群HPCCLUSTER_第2頁
高性能計算集群HPCCLUSTER_第3頁
高性能計算集群HPCCLUSTER_第4頁
高性能計算集群HPCCLUSTER_第5頁
已閱讀5頁,還剩2頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權說明:本文檔由用戶提供并上傳,收益歸屬內容提供方,若內容存在侵權,請進行舉報或認領

文檔簡介

1、高性能計算集群(HPC CLUSTER)1.1什么是高性能計算集群 ?簡單的說,高性能計算(High-Performance Computing)是計算機科學的一個分支,它致力于開發(fā)超級計算機,研究并行算法和開發(fā)相關軟件。高性能集群主要用于處理復雜的計算問題,應用在需要大規(guī)??茖W計算的環(huán)境中,如天氣預報、石油勘探與油藏模擬、分子模擬、基因測序等。高性能集群上運行的應用程序一般使用并行算法,把一個大的普通問題根據(jù)一定的規(guī)則分為許多小的子問題,在集群內的不同節(jié)點上進行計算,而這些小問題的處理結果,經(jīng)過處理可合并為原問題的最終結果。由于這些小問題的計算一般是可以并行完成的,從而可以縮短問題的處理時間

2、。高性能集群在計算過程中,各節(jié)點是協(xié)同工作的,它們分別處理大問題的一部分,并在處理中根據(jù)需要進行數(shù)據(jù)交換,各節(jié)點的處理結果都是最終結果的一部分。高性能集群的處理能力與集群的規(guī)模成正比,是集群內各節(jié)點處理能力之和,但這種集群一般沒有高可用性。1.2高性能計算分類高性能計算的分類方法很多。這里從并行任務間的關系角度來對高性能計算分類。1.2.1 高吞吐計算(High-throughput Computing)有一類高性能計算,可以把它分成若干可以并行的子任務,而且各個子任務彼此間沒有什么關聯(lián)。因為這種類型應用的一個共同特征是在海量數(shù)據(jù)上搜索某些特定模式,所以把這類計算稱為高吞吐計算。所謂的Inte

3、rnet計算都屬于這一類。按照 Flynn的分類,高吞吐計算屬于 SIMD (Single Instruction/Multiple Data,單指令流-多數(shù)據(jù)流)的范疇。1.2.2 分布計算(Distributed Computing)另一類計算剛好和高吞吐計算相反,它們雖然可以給分成若干并行的子任務,但是子任務間聯(lián)系很緊密,需要大量的數(shù)據(jù)交換。按照 Flynn的分類,分布式的高性能計算屬于 MIMD(Multiple Instruction/Multiple Data ,多指令流-多數(shù)據(jù)流)的范疇。1.3高性能計算集群系統(tǒng)的特點可以采用現(xiàn)成的通用硬件設備或特殊應用的硬件設備,研制周期短;可

4、實現(xiàn)單一系統(tǒng)映像,即操作控制、IP登錄點、文件結構、存儲空間、I/O空間、作業(yè)管理系統(tǒng)等等的單一化;高性能(因為CPUdz理能力與磁盤均衡分布,用高速網(wǎng)絡連接后具有并行吞吐能力);高可用性,本身互為冗余節(jié)點,能夠為用戶提供不間斷的服務,由于系統(tǒng)中包括了多個結點,當一個結點出現(xiàn)故障的時候,整個系統(tǒng)仍然能夠繼續(xù)為用戶提供服務;高可擴展性,在集群系統(tǒng)中可以動態(tài)地加入新的服務器和刪除需要淘汰的服務器,從而能夠最大限度地擴展系統(tǒng)以滿足不斷增長的應用的需要;安全性,天然的防火墻;資源可充分利用,集群系統(tǒng)的每個結點都是相對獨立的機器,當這些機器不提供服務或者不需要使用的 時候,仍然能夠被充分利用。而大型主機

5、上更新下來的配件就難以被重新利用了。具有極高的性能價格比,和傳統(tǒng)的大型主機相比,具有很大的價格優(yōu)勢;1.4 Linux高性能集群系統(tǒng)當論及Linux高性能集群時,許多人的第一反映就是Beowulf。起初,Beowulf只是一個著名的科學計算集群系統(tǒng)。以后的很多集群都采用Beowulf類似的架構,所以,實際上,現(xiàn)在Beowulf已經(jīng)成為一類廣為接受的高性能集群的類型。盡管名稱各異,很多集群系統(tǒng)都是 Beowulf集群的衍生物。當然也存在有別于Beowulf的集群系統(tǒng),COW和Mosix就是另兩類著名的集群系統(tǒng)。1.4.1 Beowulf 集群簡單的說,Beowulf是一種能夠將多臺計算機用于并行

6、計算的體系結構。通常 Beowulf系統(tǒng) 由通過以太網(wǎng)或其他網(wǎng)絡連接的多個計算節(jié)點和管理節(jié)點構成。管理節(jié)點控制整個集群系 統(tǒng),同時為計算節(jié)點提供文件服務和對外的網(wǎng)絡連接。它使用的是常見的硬件設備,象普通PC、以太網(wǎng)卡和集線器。它很少使用特別定制的硬件和特殊的設備。Beowulf集群的軟件也是隨處可見的,象 Linux、PVM和MPI。1.4.2 COW 集群象Beowulf 一樣,COW (Cluster Of Workstation )也是由最常見的硬件設備和軟件系統(tǒng)搭建 而成。通常也是由一個控制節(jié)點和多個計算節(jié)點構成。COW和Beowulf的主要區(qū)別在于:COW中的計算節(jié)點主要都是閑置的計

7、算資源,如辦公室中的桌面工作站,它們就是普通的 PC,采用普通的局域網(wǎng)進行連接。因為這些計算節(jié)點白天會作為工作站使用,所以主要的 集群計算發(fā)生在晚上和周末等空閑時間。而Beowulf中的計算節(jié)點都是專職于并行計算,并且進行了性能優(yōu)化。Beowulf采用高速網(wǎng)(InfiniBand, SCI, Myrinet )上的消息傳遞(PVM或MPI)進行進程間通信(IPC)。因為COW中的計算節(jié)點主要的目的是桌面應用,所以它們都具有顯示器、鍵盤和鼠標等外設。而Beowulf的計算節(jié)點通常沒有這些外設,對這些計算節(jié)點的訪問通常是在管理節(jié)點上通過網(wǎng)絡或串口線實現(xiàn)的。1.4.3 Mosix 集群實際上把Mos

8、ix集群放在高性能集群這一節(jié)是相當牽強的,但是和Beowulf等其他集群相比,Mosix集群確實是種非常特別的集群,它致力于在Linux系統(tǒng)上實現(xiàn)集群系統(tǒng)的單一系統(tǒng)映象SSI(Single System Image)。Mosix集群將網(wǎng)絡上運行 Linux的計算機連接成一個集群系 統(tǒng)。系統(tǒng)自動均衡節(jié)點間的負載。因為Mosix是在Linux系統(tǒng)內核中實現(xiàn)的集群,所以用戶態(tài)的應用程序不需要任何修改就可以在Mosix集群上運行。通常用戶很少會注意到Linux和Mosix的差別。對于他來說,Mosix集群就是運行Linux的一臺PC。盡管現(xiàn)在存在著不少的問題,Mosix始終是引人注目的集群系統(tǒng)2如何架

9、構高性能計算集群在搭建高性能計算集群(HPC CLUSTER)之前,我們首先要根據(jù)具體的應用需求,在節(jié)點 的部署、高速互連網(wǎng)絡的選擇、以及集群管理和通訊軟件,三個方面作出配置。2. 1節(jié)點的部署根據(jù)功能,我們可以把集群中的節(jié)點劃分為6種類型:用戶節(jié)點(User Node)同控制節(jié)點(Control Node)同管理節(jié)點(Management Node)|.| 存儲節(jié)點(Storage Node)安裝節(jié)點(Installation Node)|計算節(jié)點(Compute Node)雖然由多種類型的節(jié)點,但并不是說一臺計算機只能是一種類型的節(jié)點。一臺計算機所扮演的節(jié)點類型要由集群的實際需求和計算機的

10、配置決定。在小型集群系統(tǒng)中,用戶節(jié)點、控制節(jié)點、管理節(jié)點、存儲節(jié)點和安裝節(jié)點往往就是同一臺計算機。下面我們分別解釋這些類型節(jié)點的作用。2.1. 1 用戶節(jié)點(User Node)用戶節(jié)點是外部世界訪問集群系統(tǒng)的網(wǎng)關。用戶通常登錄到這個節(jié)點上編譯并運行作業(yè)。用戶節(jié)點是外部訪問集群系統(tǒng)強大計算或存儲能力的唯一入口,是整個系統(tǒng)的關鍵點。為了保證用戶節(jié)點的高可用性,應該采用硬件冗余的容錯方法,如采用雙機熱備份。至少應該采用RAID(Redundant Array of Independent Disks)技術保證用戶節(jié)點的數(shù)據(jù)安全性。2.1.2 控制節(jié)點(Control Node)控制節(jié)點主要承擔兩種

11、任務:為計算節(jié)點提供基本的網(wǎng)絡服務,如DHCP、DNS和NFS;調度計算節(jié)點上的作業(yè),通常集群的作業(yè)調度程序(如PBS)應該運行在這個節(jié)點上。通??刂乒?jié)點是計算網(wǎng)絡中的關鍵點,如果它失效,所有的計算節(jié)點都會失效。所以控制節(jié)點也應該有硬件冗余保護。2.1.3 管理節(jié)點(Management Node)管理節(jié)點是集群系統(tǒng)各種管理措施的控制節(jié)點。管理網(wǎng)絡的控制點,監(jiān)控集群中各個節(jié)點和網(wǎng)絡的運行狀況。通常的集群的管理軟件也運行在這個節(jié)點上。2.1.4 存儲節(jié)點(Storage Node)如果集群系統(tǒng)的應用運行需要大量的數(shù)據(jù),還需要一個存儲節(jié)點。顧名思義,存儲節(jié)點就是集群系統(tǒng)的數(shù)據(jù)存儲器和數(shù)據(jù)服務器。如

12、果需要存儲TB級的數(shù)據(jù),一個存儲節(jié)點是不夠的。這時候你需要一個存儲網(wǎng)絡。通常存儲節(jié)點需要如下配置:ServerRAID保護數(shù)據(jù)的安全性;高速網(wǎng)保證足夠的數(shù)據(jù)傳輸速度。2.1.5 安裝節(jié)點(Installation Node)安裝節(jié)點提供安裝集群系統(tǒng)的各種軟件,包括操作系統(tǒng)、各種運行庫、管理軟件和應用。它還必須開放文件服務,如 FTP或NFS。2.1.6 計算節(jié)點(Computing Node)計算節(jié)點是整個集群系統(tǒng)的計算核心。它的功能就是執(zhí)行計算。你需要根據(jù)你的需要和預算來決定采用什么樣的配置。理想的說,最好一個計算節(jié)點一個CPU。但是如果考慮到預算限制,也可以采用 SMP。從性價比角度說,兩

13、個 CPU的SMP優(yōu)于3或4個CPU的SMP 機器。 因為一個計算節(jié)點的失效通常不會影響其他節(jié)點,所以計算節(jié)點不需要冗余的硬件保護。2.1.7集群中節(jié)點的部署 雖然由多種類型的節(jié)點,但并不是說一臺計算機只能是一種類型的節(jié)點。一臺計算機所扮演的節(jié)點類型要由集群的實際需求和計算機的配置決定。在小型集群系統(tǒng)中,用戶節(jié)點、控制節(jié)點、管理節(jié)點、存儲節(jié)點和安裝節(jié)點往往就是同一臺計算機,這臺計算機通常成為主節(jié)點(Master Node) o在這種情況下,集群就是由多個計算節(jié)點和一個主節(jié)點構成。 在大型的集群系統(tǒng)中如何部署這些節(jié)點是個比較復雜的問題,通常要綜合應用需求,拓撲結構和預算等因素決定。2.2高速互連

14、網(wǎng)絡 網(wǎng)絡是集群最關鍵的部分.它的容量和性能直接影響了整個系統(tǒng)對高性能計算(HPC)的適用性。根據(jù)我們的調查,大多數(shù)高性能科學計算任務都是通信密集型的,因此如何盡可能的縮短節(jié)點間的通信延退和提高吞吐量是一個核心問題。2. 2. 1快速以太網(wǎng)快速以太網(wǎng)是運行于 UTP或光纜上的100Mb/S的高速局域網(wǎng)的總稱。由于 TCP/IP運行時 對CPU的占用較多,并且理論上的傳輸速度和延退都比較差,現(xiàn)在我們在HPC集群中計算網(wǎng)絡的選擇上基本不考慮這個方案了。2. 2. 2千兆以太網(wǎng)(Giganet)Giganet是用于Linux平臺的虛擬接口 (VI)體系結構卡的第一家供應商,提供 cLAN卡 和交換機

15、。VI體系結構是獨立于平臺的軟件和硬件系統(tǒng),它由Intel開發(fā),用于創(chuàng)建群集。它使用自己的網(wǎng)絡通信協(xié)議在服務器之間直接交換數(shù)據(jù),而不是使用IP,并且它并不打算成為WAN可路由的系統(tǒng)。Giganet產(chǎn)品當前可以在節(jié)點之間提供1 Gbps單向通信,理論最小延退為 7微秒,實測延退為 50-60微秒左右,并且運行時對 CPU的占用也比較大。2. 2 . 3 IEEE SCIIEEE標準SCI的延退更少(理論值 1.46微秒,實測值3-4微秒),并且其單向速度可達 到10Gb/秒,與InfiniBand 4X的理論值一樣。SCI是基于環(huán)拓撲的網(wǎng)絡系統(tǒng),不像以太網(wǎng)是星形拓撲。這將使在較大規(guī)模的節(jié)點之間通

16、信速度更快。更有用的是環(huán)面拓撲網(wǎng)絡,它在節(jié)點之間有許多環(huán)形結構。兩維環(huán)面可以用n乘m的網(wǎng)格表示,其中在每一行和每一列都有一個環(huán)形網(wǎng)絡。三維環(huán)面也類似, 可以用三維立體節(jié)點網(wǎng)格表示,每一層上有一個環(huán)形網(wǎng)絡。密集超級計算并行系統(tǒng)使用環(huán)面拓撲網(wǎng)絡,為成百上千個節(jié)點之間的通信提供相對最快的路徑。 什么是SCI互連技術?|.|符合ANSI/IEEE 1596-1992的SCI技術定義了點到點高速通信端口和數(shù)據(jù)包協(xié)議集;|.| SCI作為一種開放總線技術,實現(xiàn)了高帶寬( 10Gbit/s )、低延遲(1.46微秒)的網(wǎng)絡通訊;|.| SCI端口是雙向連接的,保證了數(shù)據(jù)讀、寫操作可以同步進行;|.| 支持多

17、種 CPl型(Intel 、AMD Sun、Alpha);間支持多種流行操作系統(tǒng)( Windows200Q NT RedHat Linux、SuSE Linux、Solaris 、Lynx、Tru64Unix、VxWorks);|.| SCI協(xié)議支持共享存儲器系統(tǒng),并包含Cache 一致性協(xié)議集;|.|網(wǎng)絡拓撲靈活,可支持星型網(wǎng),一維環(huán)形網(wǎng)(Ring)及二維,三維環(huán)形網(wǎng)格拓撲;|.|為執(zhí)行關鍵任務應用而設計,支持熱插拔和多冗余結構。2. 2. 4 Myrinet 互連技術Myrinet提供網(wǎng)卡和交換機,其單向互連速度最高可達到1.28 Gbps。網(wǎng)卡有兩種形式,銅線型和光纖型。銅線型LAN可以

18、在10英尺距離內以全速進行通信,而在長達60英尺距離內以半速進行操作。光纖型Myrinet 可以在6.25 英里長的單模光纖或者 340英尺長的多模光纖上全速運行。Myrinet只提供直接點到點、基于集線器或基于交換機的網(wǎng)絡配置,但在可以連接到一起的交換光纖數(shù)量方面沒有限制。 添加交換光纖只會增加節(jié)點間的延遲。兩個直接連接的節(jié)點之間的平均延遲是5到18微秒,比以太網(wǎng)快。由于Myrinet板上集成可編程微處理器,能滿足一些研究者的特定需要。2. 2. 5 InfiniBand互連技術Infin i Band 是由Infin i Band協(xié)會開發(fā)的體系結構技術,它是一種用于實現(xiàn)基于通道的交換式技術

19、的通用I/O規(guī)范。由于IB的理論帶寬極高一一30Gbit/S,因此備受業(yè)內關注。InfiniBand 的解決方案包括一個連接多個獨立處理器和I/O平臺的系統(tǒng)區(qū)域網(wǎng)絡,它所定義的通信和管理結構同時支持I/O和處理器與處理器之間的通信。InfiniBand 系統(tǒng)可以是只有少量I/O設備的單處理器服 務器,也可以是大型的并行超級計算機。InfiniBand規(guī)范定義了 3個基本組件:一個主機信道適配器(HCA一個目標信道適配器(TCA).一個網(wǎng)絡交換機InfiniBand技術通過連接 HCAsTCAs交換機和路由器而發(fā)揮作用 (見圖1 )。位于頁節(jié)點的InfiniBand設備是產(chǎn)生和使用信息包的信道適

20、配器。HTA=主機通道適心?踞目株:|內存控豐0器HOATCA=目標遇道適配盤iCA- HCA 3 TCk圖1; IntimBand體系架構模型HCA 和TCA可以提供一個無需CPU預的高可靠端一至一端連接。HCA主留在處理器節(jié)點并提供從系 統(tǒng)內存到InfiniBand 網(wǎng)絡的通路。它也有一個可編程的直接內存訪問( DMA引擎。該引擎具有特殊保護 和地址翻譯特性,從而使 DM湄作可以本地進行或者通過另一個 HCA< TCA遠程進行。TCA駐留在I/O單元,并提供I/O設備(如一個磁盤驅動器)或 I/O網(wǎng)絡(如以太網(wǎng)或光纖通道)與InfiniBand網(wǎng)絡的連接。它實現(xiàn)了 InfiniBan

21、d協(xié)議的物理層、鏈接層和傳輸層。交換機放置在信道適配器之間。它們使幾個甚至幾千個InfiniBand頁節(jié)點可以在任意位置互連進一個單一網(wǎng)絡,該網(wǎng)絡同時支持多個連接。交換機既不產(chǎn)生,也不使用信息包。它們只是根據(jù)信息包中路由器報 頭的目的地地址,將其傳送過去。交換機對于節(jié)點而言是透明的,同時信息包完整無損地經(jīng)過交換機網(wǎng)。與目前的通信協(xié)議如 TCP/IP相比,InfiniBan d技術的一個主要變化是 InfiniBand硬件承擔了原來由CPU完成的許多I/O通信工作,因此在處理并發(fā)的多路通信任務時沒有現(xiàn)有通信協(xié)議所固有的額外開銷。 在無需系統(tǒng)核心層介入的情況下,它就能夠提供零數(shù)據(jù)拷貝的傳輸,并使用

22、硬件提供高可靠性和容錯性的 通信,最終改善了系統(tǒng)的帶寬、延遲和可靠性等問題。2. 3集群管理和通訊軟件國內和國際上有多種集群管理和通訊軟件可供我們挑選,一些是由HPC集成商自己編寫的專用軟件,捆綁硬件銷售的,也有專業(yè)的軟件公司提供的通用軟件包。我們推薦全球知名的HPC軟件公司一一挪威Scali公司的產(chǎn)品。挪威Scali公司的基于Linux操作系統(tǒng)的集群管理軟件,符合 MPI 1.2標準。利用圖形化 管理界面,高性能通訊庫以及集成第三方的軟件工具,用戶可以方便地對集群各節(jié)點計算機進行任務分配及監(jiān)控管理工作,并可通過它提供的一系列軟件接口開發(fā)自己的應用軟件產(chǎn) 品,從而降低了整個系統(tǒng)的開發(fā)時間和成本

23、,并保證系統(tǒng)配置和升級的靈活性。Scali軟件的最大特點是支持多種高速互連網(wǎng)絡:從千兆以太網(wǎng),SCI,Myrinet,到InfiniBand都可以支持。管理軟件特點性能優(yōu)化:對零長度信息包,傳輸延遲小于3.5微秒,在64位/66MHz的PCI總線上,持續(xù)傳輸帶寬超過300兆字節(jié)/秒;支持多進程:可以充分利用 ScaMPI,能夠同時進行請求服務和通訊管理操作;容錯性:ScaMPI能迅速發(fā)現(xiàn)暫時的網(wǎng)絡錯誤,重新選擇互連排列或改變路由;自動選擇物理傳送路徑:ScaMPI可自動為MPI選擇最佳的傳送方式, 共享存儲,利用SCI將各結點連接;UNIX命令復制:命令行自變量應用程序可自動提供全部MPI程序

24、,避免冗余分析;MIM D支持:ScaMPI支持多指令流多數(shù)據(jù)流;圖形化前端:可視的圖形界面,方便的操作和管理;調試:ScaMPI支持許多調試程序和分析工具,提供調試功能ScaMPI完全支持Etnus的TotalView 分布式調試程序和Pallas的Vampir MPI分析工具,被選中的程序能夠利用GNUir局數(shù)據(jù)庫進行調試。S系列我們在S系列集群計算機中的高速互連網(wǎng)絡采用SCI技術。高帶寬(10Gbit/s)、低延退(1.46微秒)正是SCI的技術特點。特別是 SCI網(wǎng)絡的環(huán)型網(wǎng)格和超立方體拓撲結構,保 障了集群的高可靠性和系統(tǒng)擴展時成本的線形增長。節(jié)點規(guī)模:2-256個節(jié)點(2004年7

25、月后,可支持至8000個節(jié)點)應用要求:分布計算,子任務之間聯(lián)系很緊密,需要大量的數(shù)據(jù)交換,特別強調帶寬和延退這兩個關鍵指標。應用領域:地震預測預報、石油勘探、氣候模擬與天氣預報、人體基因與遺傳工程、海洋 環(huán)流和超導模擬、海量存儲、科學計算等。硬件系統(tǒng)配置清單:名稱說明配置單位數(shù)量主機柜專用服務器標準機 柜電源控制器,電源系統(tǒng)(3*20A),風扇,機柜網(wǎng)絡系統(tǒng),系統(tǒng)控制機,前面板 LCD觸摸屏個系統(tǒng)通訊網(wǎng) 絡Cisco2950-12 witch100M Ethernet個視頻切換機KVM套存儲系統(tǒng)NAS/RAIDVIA C3處理器,緩存 256MB SDRAM三個10/100以太網(wǎng)端口和一個可

26、選的 Gigabit以太網(wǎng)端口,可支持8塊Ultar DMA100硬盤可選UDMA 13皺盤,環(huán)境監(jiān)控單元300W熱更換冗余電源臺計算節(jié)點INTEL/SuperMicro2X PW Xeon2.4G, 1G 內存,集成 100/1000 網(wǎng)卡,標 準光驅,軟驅,顯卡,73G SCSI硬盤臺控制節(jié)點INTEL/SuperMicro2X PW Xeon2.4G, 1G 內存,73G SCSI 硬盤,集成100/1000網(wǎng)卡,標準光驅,軟驅,顯卡臺高速互連網(wǎng)Dolphin D33X高帶寬(667MBytes/s )、低延遲(1.46微秒)的網(wǎng)絡 通訊卡塊其它顯示器15寸純平個1鼠標、鍵盤、套1軟件系

27、統(tǒng)配置清單:名稱說明版本號備注單位數(shù)量監(jiān)控系統(tǒng)系統(tǒng)監(jiān)控軟件Ver2.0用于系統(tǒng)監(jiān)控套1操作系統(tǒng)RedHatVer8.0/套1應用軟件/套1其它系統(tǒng)MPI ( Message Passing Interface )、Mosix/最新1集群管理系統(tǒng)Scali 集群管理軟件(for InfiniBand)Ver3.1用于系統(tǒng)管理套1I系列我們在I系列集群計算機中的高速互連網(wǎng)絡采用現(xiàn)在備受業(yè)內關注的InfiniBand 技術。憑借極高的理論帶寬 30Gbit/S( InfiniBand 12X), 和較低的 CPU占用,InfiniBand 必將在未來的 H P C市場占據(jù) 重要地位。節(jié)點規(guī)模:2-1

28、024個節(jié)點(目前,我們可以提供 8-PORT 24-PORT 96-PORT的舊 交換機,大于96 個節(jié)點需要級聯(lián))應用要求:強調超大通訊帶寬。應用領域:地震預測預報、石油勘探、氣候模擬與天氣預報、科學計算等。硬件系統(tǒng)配置清單:名稱說明配置單位數(shù)it主機柜專用服務器標準機 柜電源控制器,電源系統(tǒng)(3*20A),風扇,機柜網(wǎng)絡系統(tǒng),系統(tǒng)控制機, 前面板LCD蟲摸屏個系統(tǒng)通訊網(wǎng)絡Cisco2950-12 witch100M Ethernet個視頻切換機KVM套存儲系 統(tǒng)NAS/RAIDVIA C3處理器,緩存256MB SDRAM三個10/100以太網(wǎng)端口和一 個可選的Gigabit以太網(wǎng)端口,

29、可支持 8塊Ultar DMA10簸盤可選UDMA 13碘盤,環(huán)境監(jiān)控單元300W熱更換冗余電源臺計算節(jié) 點INTEL/SuperMicro2X PW Xeon2.4G 1G內存,集成100/1000網(wǎng)卡,標準光驅,軟驅, 顯卡,73G SCSI硬盤臺控制節(jié) 點INTEL/SuperMicro2X PW Xeon2.4G, 1G 內存,36G SCSI 硬盤,集成 100/1000 網(wǎng)卡,標準光驅,軟驅,顯卡臺高速互連網(wǎng)SBS IB Switch8-port 舊 Switch或 24-port 舊 Switch或 96-port 舊 Switch臺SBS HCA card舊 4X-PCIX, IB4X-PCI, IB 4X-PMC塊其它顯示器15寸純平個1鼠標、鍵盤、套1軟件系統(tǒng)酉己置清單:名稱說明版本號單位數(shù)量監(jiān)控系統(tǒng)系統(tǒng)監(jiān)控軟件Ver2.0用于系統(tǒng)監(jiān)控套1操作系統(tǒng)RedHatVer8.0/套1應用軟件/套1

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經(jīng)權益所有人同意不得將文件中的內容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內容本身不做任何修改或編輯,并不能對任何下載內容負責。
  • 6. 下載文件中如有侵權或不適當內容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

最新文檔

評論

0/150

提交評論