服務器集群技術 網(wǎng)絡存儲技術基礎_第1頁
服務器集群技術 網(wǎng)絡存儲技術基礎_第2頁
服務器集群技術 網(wǎng)絡存儲技術基礎_第3頁
服務器集群技術 網(wǎng)絡存儲技術基礎_第4頁
服務器集群技術 網(wǎng)絡存儲技術基礎_第5頁
已閱讀5頁,還剩13頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權,請進行舉報或認領

文檔簡介

1、本資料由-大學生創(chuàng)業(yè)|創(chuàng)業(yè)|創(chuàng)業(yè)網(wǎng)深入講解服務器集群技術在發(fā)展初期,一路處理器便可為一臺服務器及其所有應用提供動力。接著就發(fā)展到了多處理時代,這時兩路或多路處理器共享一個存儲池,并能處理更多更大的應用。然后出現(xiàn)了服務器網(wǎng)絡,該網(wǎng)絡中的每臺服務器都專門處理不同的應用集?,F(xiàn)在,發(fā)展到了服務器集群,兩臺或多臺服務器像一臺服務器一樣工作,提供更高的可用性和性能,這已經(jīng)遠遠超出了您的想像。應用可從一臺服務器轉(zhuǎn)移到另一臺服務器,或同時運行在若干臺服務器上所有這一切對用戶都是透明的。 集群并不是新事物,但在軟件和硬件方面,直到最近它們還是專有的。信息系統(tǒng)經(jīng)理對集群進行了更加仔細的考慮,這是因為現(xiàn)在他們可以使

2、用大規(guī)模生產(chǎn)的標準硬件實現(xiàn)集群,如RAID、對稱多處理系統(tǒng)、網(wǎng)絡和I/O網(wǎng)卡及外設。集群技術在未來將會獲得更大的發(fā)展,現(xiàn)在,不斷推出新的集群選件,而真正的集群標準尚在制定之中。 何為集群? 簡單的說,集群就是兩臺或多臺計算機或節(jié)點在一個群組內(nèi)共同工作。與單獨工作的計算機相比,集群能夠提供更高的可用性和可擴充性。集群中的每個節(jié)點通常都擁有自己的資源(處理器、I/O、內(nèi)存、操作系統(tǒng)、存儲器),并對自己的用戶集負責。 故障切換功能提供絲捎瞇裕旱幣桓黿詰惴收鮮保渥試茨芄?quot;切換"到集群中一個或多個其它節(jié)點上。一旦發(fā)生故障的節(jié)點恢復全面運行,通過前瞻性地將一臺服務器的功能"切

3、換"到集群中其它服務器上,可以實現(xiàn)升級,停止該服務器的運行以增加組件,然后將其放回到集群中,再將其功能從其它服務器轉(zhuǎn)回該服務器。利用分布式訊息傳遞(DMP)可提供額外的可擴充性,DMP是一種集群內(nèi)通信技術,該技術允許應用以對最終用戶透明的方式擴展到單個對稱多處理(SMP)系統(tǒng)以外。 集群中的每個節(jié)點必須運行集群軟件以提供服務,如故障檢測、恢復和將服務器作為約個系統(tǒng)進行管理的能力。集群中的節(jié)點必須以一種知道所有其它節(jié)點狀態(tài)的方式連接。這通常通過一條由于局域網(wǎng)路徑相分離的通信路徑來實現(xiàn),并使用專用網(wǎng)卡來確保節(jié)點間清楚的通信。該通信路徑中繼系統(tǒng)間的一?quot;心跳",這樣,如果

4、一個資源發(fā)生故障因而無法發(fā)送心跳,就會開始故障切換過程。實際上,最可靠的配置采用了使用不同通信連接(局域網(wǎng)、SCSI和RS232)的冗余心跳,以確保通信故障不會激活錯誤的故障切換。 集群級別 今天,對于集群購買者來說,幸運的是有多款不同檔次的集群可供選擇,它們可提供廣泛的可用性。當然,可用性越高,價格也越高,管理復雜性也越大。 共享存儲 共享磁盤子系統(tǒng)往往是集群的基礎、它使用共享的SCSI或光纖通道。每個節(jié)點使用其本地磁盤存儲操作系統(tǒng)交換空間和系統(tǒng)文件,而應用數(shù)據(jù)存儲在共享磁盤上,每個節(jié)點均可讀取由其它節(jié)點寫入的數(shù)據(jù)。應用間的并發(fā)磁盤訪問需要分布鎖定管理器(DLM),而且共享磁盤子系統(tǒng)與其集群

5、節(jié)點之間的距離會受到所選擇介質(zhì)(SCSI或光纖通道等)的限制。 服務器鏡像(鏡像磁盤) 需要數(shù)據(jù)冗余而又無需占用額外磁盤子系統(tǒng)的環(huán)境有權選擇服務器間的鏡像數(shù)據(jù)。除了成本更低以外,服務器鏡像的另一個優(yōu)勢是,在主板服務器與輔助服務器之間的連接可以是基于局域網(wǎng)的,這樣就消除了SCSI距離限制。數(shù)據(jù)寫到主板服務器上后,它還寫到了輔服務器上;通過鎖定服務器數(shù)據(jù)保持了數(shù)據(jù)的完整性。一些服務器鏡像產(chǎn)品還可將工作負載從主服務器轉(zhuǎn)換到輔服務器上。 非共享 現(xiàn)在,一些集群產(chǎn)品使用的是"非共享"體系結構,在此體系結構中,節(jié)點既不共享集中式磁盤,也不在節(jié)點間鏡像數(shù)據(jù)。發(fā)生故障時,非共享集群所具有的

6、軟件能夠?qū)⒋疟P所有權從一個節(jié)點傳送至另一個節(jié)點,而無需使用分布式分布式鎖定管理器(DLM)。 如何實現(xiàn)故障切換? 可以使用多種方法配制集群實現(xiàn)故障切換。第一種方法是路配制,集群中的所有節(jié)點在正常情況下都擁有自己的用戶和工作負載。一個故障節(jié)點的資源可切換到其它節(jié)點,但由于剩余的服務器承擔了額外的負載,因此其性能將有所下降。 N+1配制包括一個熱待機系統(tǒng),它在主系統(tǒng)發(fā)生故障之前一直處于空閑模式。在N+1配制中,當一個節(jié)點發(fā)生故障時可避免其它節(jié)點的性能下降。但是,由于待機節(jié)點在正常情況下并不提供服務,因而成本較高。 在任何配制中,一旦出現(xiàn)問題,集群軟件將能夠首先進行本地恢復。本地恢復即在發(fā)生故障時,

7、在本地節(jié)點自動重新啟動應用或服務的能力。對節(jié)點并非致命的故障來說,邏輯上本地恢復是首選方式,因為與切換至另一個節(jié)點相比,它對用戶的中斷更少。 就故障切換的種類而論,一些集群產(chǎn)品可進行并行恢復,其中資源能夠故障切換到不同地區(qū)的遠程節(jié)點上。這很適合于容災需求。次外,為了解決多個節(jié)點故障問題,一些集群產(chǎn)品可以進行級聯(lián)故障切換,其工作方式就像多米諾骨牌一樣:節(jié)點一故障切換到節(jié)點二,節(jié)點二發(fā)生故障后再切換到節(jié)點三等等。 故障切換舉例 以下是雙節(jié)點集群故障切換舉例,其中兩個節(jié)點都擁有其自己的用戶和以下的應用。 1. 節(jié)點1因出現(xiàn)內(nèi)存問題導致了應用故障。用戶訊息錯誤且其應用停止運行。集群管理軟件將這一問題通

8、知系統(tǒng)管理員。 2. 節(jié)點1進行本地恢復,重新啟動故障應用。用戶能夠重新啟動其應用。 3. 當應用再次發(fā)生故障時,集群軟件向節(jié)點2進行故障切換。故障切換需要大約1分鐘,用戶必須等待。(實際時間可能會從幾秒至幾分鐘。)一些應用能夠檢測故障過程并向用戶顯示信息,告知她們向另一臺服務器傳輸應用。 4. 一旦該應用在節(jié)點2中重新啟動,用戶即可繼續(xù)工作。 5. 診斷和修理節(jié)點1。將已恢復正常的節(jié)點1放回遠處后,關恢復(切換)過程就會啟動,以使應用和相關資源回到節(jié)點1??扇斯せ蜃詣訉崿F(xiàn)該故障恢復。例如,在非高峰期間,可將其配置為故障恢復狀態(tài)。 集群可擴充性 除了提高的可用性,性能可擴充性也是集群的一個主要

9、優(yōu)勢。通常,可通過集群負載平衡提高性能。本質(zhì)上,負載平衡意味著將相關應用和資源從繁忙節(jié)點轉(zhuǎn)移到不繁忙節(jié)點。 真正的可擴充性是在其它區(qū)域?qū)崿F(xiàn)的。第一個區(qū)域是增加可擴充性,這意味著能夠在不拋棄以前系統(tǒng)的情況下,不斷添加服務器、磁盤存儲器等。實際上,隨著您的計算機需求不斷增加,集群提供了隨著您的發(fā)展進行支付的環(huán)境。當能夠在集群多個節(jié)點上自動分配其工作負載的真正"支持集群"應用在未來形成開發(fā)標準后,您將看到第二種類型的可擴充性。除此之外還可分離應用,以使一個應用的不同"線程"運行在不同節(jié)點上,從而極大提高可 應用如何處理故障切換? 下一個問題是"應用如

10、何處理故障切換?"答案是"這取決于所使用的應用和集群產(chǎn)品。"一些集群產(chǎn)品為專門應用(如數(shù)據(jù)庫或通信協(xié)議)提供了恢復或切換套件。這些套件可在應用故障時進行檢測,并可在另一服務器上重新啟動該應用。 應用處理故障的方法由于集群產(chǎn)品的不同而不同。正如我們以前提到的一樣,盡管不同的廠商都試圖制定一個通用標準,但現(xiàn)在集群軟件還沒有公共標準。 然而,必須修改現(xiàn)在的應用以處理故障切換,應用的最終目標不受硬件的影響。一個解決方案是與操作系統(tǒng)共同運行的一組程序和API(應用編程口),從而使得應用廠商能夠創(chuàng)建執(zhí)行這些恢復功能的程序。使用這些API使應用"支持集群"。

11、當前集群產(chǎn)品的許多廠商都在努力奮斗,以確保集群產(chǎn)品能夠符合這些不同的操作系統(tǒng)API。 虛擬接口體系結構(VIA) 由英特爾、康柏、惠普、微軟、戴爾、SCO和天騰聯(lián)合推出了虛擬接口體系結構(VIA)計劃正為開發(fā)集群硬件和軟件產(chǎn)品制定標準,該標準將是獨立于廠商的,它將為用戶購買技術時提供更多的選擇。 需牢記的重點 真正的集群可被認為是多處理發(fā)展演變的下一步以前,應用應用跨越一個系統(tǒng)的多個處理器運行,現(xiàn)在,應用可以跨越跨越若干系統(tǒng)的多個處理器運行。 集群提供了兩個主要優(yōu)勢:高可用性(通過故障切換功能)和可擴充性(通過增加擴展和跨越處理器進行負載平衡)。 當節(jié)點出現(xiàn)硬件或軟件問題后,就會進行故障切換,

12、該節(jié)點的應用及通信連接將切換到另一臺服務器上??墒褂眉汗芾懋a(chǎn)品規(guī)定那些應用應進行故障切換,以及那些故障條件可觸發(fā)這一過程。 可以獲得許多集群種類和配置,以為用戶提供他們所需的確切可用性級別。共享磁盤、服務器鏡像及非共享是這些配置的幾個。三種服務器的結構如何區(qū)別?相信大家一定注意到了,各種媒體上經(jīng)常按塔式、機架式和刀片式這三種結構來劃分服務器,服務器的外形為什么會有這樣的劃分呢?主要原因就是具體的應用環(huán)境不同,塔式服務器長得跟我們平時用的臺式機一樣,占用空間比較大,一般是一些小型企業(yè)自己使用自己維護;而機架式服務器長得就像臥著的臺式機,可以一臺一臺的放到固定機架上,因此而得名,它可以拿去專業(yè)的

13、服務器托管提供商那里進行托管,這樣每年只需支付一定的托管費,就免去了自己管理服務器的諸多不便;而刀片服務器是近幾年才比較流行的一種服務器架構,它非常薄,可以一片一片的疊放在機柜上,通過群集技術進行協(xié)同運算,能夠處理大量的任務,特別適合分布式服務,如作為WEB服務器。    看完上面的簡單介紹,相信各位對這3種服務器已經(jīng)有個基本的認識了,下面我們就來一一細說,為大家做更詳細的講解:什么是塔式服務器:    塔式服務器應該是大家見得最多,也最容易理解的一種服務器結構類型,因為它的外形以及結構都跟我們平時使用的立式PC差不多,當然,由于服務

14、器的主板擴展性較強、插槽也多出一堆,所以個頭比普通主板大一些,因此塔式服務器的主機機箱也比標準的ATX機箱要大,一般都會預留足夠的內(nèi)部空間以便日后進行硬盤和電源的冗余擴展。    由于塔式服務器的機箱比較大,服務器的配置也可以很高,冗余擴展更可以很齊備,所以它的應用范圍非常廣,應該說目前使用率最高的一種服務器就是塔式服務器。我們平時常說的通用服務器一般都是塔式服務器,它可以集多種常見的服務應用于一身,不管是速度應用還是存儲應用都可以使用塔式服務器來解決。    就使用對象或者使用級別來說,目前常見的入門級和工作組級服務器基本上都采用這

15、一服務器結構類型,一些部門級應用也會采用,不過由于只有一臺主機,即使進行升級擴張也有個限度,所以在一些應用需求較高的企業(yè)中,單機服務器就無法滿足要求了,需要多機協(xié)同工作,而塔式服務器個頭太大,獨立性太強,協(xié)同工作在空間占用和系統(tǒng)管理上都不方便,這也是塔式服務器的局限性。不過,總的來說,這類服務器的功能、性能基本上能滿足大部分企業(yè)用戶的要求,其成本通常也比較低,因此這類服務器還是擁有非常廣泛的應用支持。什么是機架式服務器:    作為為互聯(lián)網(wǎng)設計的服務器模式,機架服務器是一種外觀按照統(tǒng)一標準設計的服務器,配合機柜統(tǒng)一使用??梢哉f機架式是一種優(yōu)化結構的塔式服務器,它的

16、設計宗旨主要是為了盡可能減少服務器空間的占用,而減少空間的直接好處就是在機房托管的時候價格會便宜很多。    為什么說機架式服務器是作為為互聯(lián)網(wǎng)設計的服務器模式?    正如大家所知,很多專業(yè)網(wǎng)絡設備都是采用機架式的結構(多為扁平式,活像個抽屜),如交換機、路由器、硬件防火墻這些。這些設備之所以有這樣一種結構類型,是因為他們都按國際機柜標準進行設計,這樣大家的平面尺寸就基本統(tǒng)一,可把一起安裝在一個大型的立式標準機柜中。這樣做的好處非常明顯:一方面可以使設備占用最小的空間,另一方面則便于與其它網(wǎng)絡設備的連接和管理,同時機房內(nèi)也會顯得整潔

17、、美觀。    機架服務器的寬度為19英寸,高度以U為單位(1U=1.75英寸=44.45毫米),通常有1U,2U,3U,4U,5U,7U幾種標準的服務器。機柜的尺寸也是采用通用的工業(yè)標準,通常從22U到42U不等;機柜內(nèi)按U的高度有可拆卸的滑動拖架,用戶可以根據(jù)自己服務器的標高靈活調(diào)節(jié)高度,以存放服務器、集線器、磁盤陣列柜等網(wǎng)絡設備。服務器擺放好后,它的所有I/O線全部從機柜的后方引出(機架服務器的所有接口也在后方),統(tǒng)一安置在機柜的線槽中,一般貼有標號,便于管理。    現(xiàn)在很多互聯(lián)網(wǎng)的網(wǎng)站服務器其實都是由專業(yè)機構統(tǒng)一托管的,網(wǎng)站

18、的經(jīng)營者其實只是維護網(wǎng)站頁面,硬件和網(wǎng)絡連接則交給托管機構負責,因此,托管機構會根據(jù)受管服務器的高度來收取費用,1U的服務器在托管時收取的費用比2U的要便宜很多,這就是為什么這種結構的服務器現(xiàn)在會廣泛應用于互聯(lián)網(wǎng)事業(yè)。    還有一點要說的是機架式服務器因為空間比塔式服務器大大縮小,所以這類服務器在擴展性和散熱問題上受到一定的限制,配件也要經(jīng)過一定的篩選,一般都無法實現(xiàn)太完整的設備擴張,所以單機性能就比較有限,應用范圍也比較有限,只能專注于某一方面的應用,如遠程存儲和Web服務的提供等,但由于很多配件不能采用塔式服務器的那種普通型號,而自身又有空間小的優(yōu)勢,所以機

19、架式服務器一般會比同等配置的塔式服務器貴上2030。至于空間小而帶來的擴展性問題,也不是完全沒有辦法解決,由于采用機柜安裝的方式,因此多添加一個主機在機柜上是件很容易的事,然后再通過服務器群集技術就可以實現(xiàn)處理能力的增強,如果是采用外接擴展柜的方式也能實現(xiàn)大規(guī)模擴展,不過由于機架式服務器單機的性能有限,所以擴展之后也是單方面的能力得到增倍,所以這類服務器只是在某一種應用種比較出色,大家就把它劃為功能服務器,這種服務器針對性較強,一般無法移做它用。什么是刀片服務器?    對于企業(yè)和網(wǎng)絡信息提供商來說,無限增長的數(shù)據(jù)必須集中存儲和處理,于是未來的網(wǎng)絡發(fā)展呈現(xiàn)出集中計

20、算的趨勢。集中管理模式與現(xiàn)有的分散管理模式,對服務器提出了新的要求:節(jié)約空間、便于集中管理、易于擴展和提供不間斷的服務,成為對下一代服務器的新要求。 作為網(wǎng)絡重要組成部分的服務器來說,性能已不僅僅是評價服務器的唯一指標了,用戶更關心的是符合自己實際需要的產(chǎn)品。目前服務器集群已經(jīng)在市場上得以廣泛應用,而新一代機架式服務器也開始進入市場,為用戶提供了更多的選擇。但是隨著網(wǎng)絡向更深層面發(fā)展,下一代服務器將會是Blade Server(刀片服務器)。 刀片服務器是一種HAHD(High Availability High Density,高可用高密度)的低成本服務器平臺,是專門為特殊應用行業(yè)和高密度計

21、算機環(huán)境設計的。其中每一塊"刀片"實際上就是一塊系統(tǒng)主板。它們可以通過本地硬盤啟動自己的操作系統(tǒng),如Windows NT/2000、Linux、Solaris等等,類似于一個個獨立的服務器。在這種模式下,每一個主板運行自己的系統(tǒng),服務于指定的不同用戶群,相互之間沒有關聯(lián)。不過可以用系統(tǒng)軟件將這些主板集合成一個服務器集群。在集群模式下,所有的主板可以連接起來提供高速的網(wǎng)絡環(huán)境,可以共享資源,為相同的用戶群服務。在集群中插入新的"刀片",就可以提高整體性能。而由于每塊"刀片"都是熱插拔的,所以,系統(tǒng)可以輕松地進行替換,并且將維護時間減少到

22、最小。值得一提的是,系統(tǒng)配置可以通過一套智能KVM和9個或10個帶硬盤的CPU板來實現(xiàn)。CPU可以配置成為不同的子系統(tǒng)。一個機架中的服務器可以通過新型的智能KVM轉(zhuǎn)換板共享一套光驅(qū)、軟驅(qū)、鍵盤、顯示器和鼠標,以訪問多臺服務器,從而便于進行升級、維護和訪問服務器上的文件。 克服服務器集群的缺點 作為一種實現(xiàn)負載均衡的技術,服務器集群可以有效地提高服務的穩(wěn)定性和/或核心網(wǎng)絡服務的性能,還可以提供冗余和容錯功能。理論上,服務器集群可以擴展到無限數(shù)量的服務器。無疑,服務器集群和RAID鏡像技術的誕生為計算機和數(shù)據(jù)池的Internet應用提供了一個新的解決方案,其成本遠遠低于傳統(tǒng)的高端專用服務器。 但是

23、,服務器集群的集成能力低,管理這樣的集群使很多IDC都非常頭疼。尤其是集群擴展的需求越來越大,維護這些服務器的工作量簡直不可想像,包括服務器之間的內(nèi)部連接和擺放空間的要求。這些物理因素都限制了集群的擴展?!案呙芏确掌鳌盉lade Server的出現(xiàn)適時地解決了這樣的問題。高密度服務器內(nèi)置了監(jiān)視器和管理工具軟件,可以幾十個甚至上百個地堆放在一起。配置一臺高密度服務器就可以解決一臺到一百臺服務器的管理問題。如果需要增加或者刪除集群中的服務器,只要插入或拔出一個CPU板即可。就這個意義上來說,Blade Server從根本上克服了服務器集群的缺點。 小結:    說到

24、這里,大家應該知道幾種服務器都是如何運用以及應用在什么領域了吧,那么大家接下來構建自己的服務器時,記得多從技術和應用兩個方向去考慮,以便選擇自己需要的服務器。網(wǎng)絡存儲系統(tǒng)基礎介紹如今的網(wǎng)絡時代是資源共享的時代,各類信息資源的積累加劇了其膨脹性,人們對數(shù)據(jù)審視觀念也發(fā)生了改變,不單單只是安全存儲的數(shù)據(jù),更把它們當成競爭優(yōu)勢的戰(zhàn)略性資產(chǎn);而且網(wǎng)絡已經(jīng)成為主要的信息處理模式。對數(shù)據(jù)傳輸、管理、維護、虛擬化等等要求,都意識著對數(shù)據(jù)存儲技術的發(fā)展提出了全面的挑戰(zhàn),對存儲體系結構提出了進一步的要求。 不管網(wǎng)絡發(fā)展到何種階段,用戶最終需要的是數(shù)據(jù)。網(wǎng)絡上大量的數(shù)據(jù)需要存儲,如何才能簡便、快速、安全地存儲這些

25、數(shù)據(jù)呢?這對存儲系統(tǒng)的容量和速度提出了空前的要求。傳統(tǒng)的以服務器為中心的DAS(Direct Attached Storage)方式(這種方式是將RAID硬盤陣列直接安裝到網(wǎng)絡系統(tǒng)的服務器上),已不能滿足用戶的需要,越來越多的用戶已經(jīng)從原來的服務器中心模式轉(zhuǎn)換為以數(shù)據(jù)為中心的NAS和SAN上。 我們通過以下幾個方面系統(tǒng)了解網(wǎng)絡存儲系統(tǒng): (一)直接連網(wǎng)存儲(NAS) (二)區(qū)域存儲網(wǎng)絡(SAN) (三)IP SAN (四)NAS與SNA的比較 (五)NAS與SNA的統(tǒng)一 (六)網(wǎng)絡存儲系統(tǒng)市場趨勢 通過下面的講解,希望可以給大家一個系統(tǒng)性的認識。隨著市場對網(wǎng)絡存儲設備的需求,大量廠商對這塊市場

26、早已做大量的工夫,網(wǎng)絡技術的發(fā)展,產(chǎn)品也是層出不窮。再下篇文章中我會對市場的主流產(chǎn)品進行詳細介紹和講評。 (一)直接連網(wǎng)存儲(NAS) NAS的全稱是Network Attached Storage,中文翻譯為直接連網(wǎng)存儲。在NAS存儲結構中,存儲系統(tǒng)不再通過I/O總線附屬于某個特定的服務器或客戶機,它完全獨立于網(wǎng)絡中的主服務器,可以看作是一個專用的文件服務器。也就是說,客戶機與存儲設備之間的數(shù)據(jù)訪問已不再需要文件服務器的干預,允許客戶機與存儲設備之間進行直接的數(shù)據(jù)訪問。在LAN環(huán)境下,NAS已經(jīng)完全可以實現(xiàn)異構平臺之間的數(shù)據(jù)級共享,比如NT、UNIX等平臺之間的共享。 NAS基礎架構如下圖

27、一個NAS包括處理器、文件服務管理模塊和多個的硬盤驅(qū)動器用于數(shù)據(jù)的存儲。 NAS 可以應用在任何的網(wǎng)絡環(huán)境當中。主服務器和客戶端可以非常方便地在NAS上存取任意格式的文件,包括SMB格式、NFS格式和CIFS格式等等。NAS 系統(tǒng)可以根據(jù)服務器或者客戶端計算機發(fā)出的指令完成對內(nèi)在文件的管理。 此外,與傳統(tǒng)的將RAID硬盤陣列安裝到通用服務器上的方法相比,NAS系統(tǒng)還具有以下優(yōu)點: 首先,NAS系統(tǒng)簡化了通用服務器不適用的計算功能,僅僅為數(shù)據(jù)存儲而設計,降低了成本。并且,NAS系統(tǒng)中還專門優(yōu)化了系統(tǒng)硬軟件體系結構,其多線程、多任務的網(wǎng)絡操作內(nèi)核特別適合于處理來自網(wǎng)絡的I/O請求,不僅響應速度快,

28、而且數(shù)據(jù)傳輸速率也更高。 其次,由于是專用的硬件軟件構造的專用服務器,不會占用網(wǎng)絡主服務器的系統(tǒng)資源,不需要在服務器上安裝任何軟件,不用關閉網(wǎng)絡上的主服務器,就可以為網(wǎng)絡增加存儲設備。安裝、使用更為方便。并且,NAS系統(tǒng)可以直接通過Hub或交換機連到網(wǎng)絡上,是一種即插即用的網(wǎng)絡設備。 再次,由于獨立于主服務器之外,因此對主服務器沒有任何需求。如此可以可大大降低主服務器的投資成本。 最后,NAS具有更好的擴展性,靈活性。存儲設備不會受無地理位置的拘束,在不同地點都可以通過物理連接和網(wǎng)絡連接連起來 。(二)區(qū)域存儲網(wǎng)絡(SAN) SANStorage Area Network ,中文翻譯為區(qū)域存儲

29、網(wǎng)絡,是一種網(wǎng)絡化的基礎設施。我們可以通過SAN基礎架構,更清晰了解它。 SAN基礎架構 通過互連光纖通道交換機構造的高速網(wǎng),連接所有的服務器和所有的存儲設備,讓多個主機訪問存儲設備跟各主機間互相訪問一樣方便。 這些互連的交換機形成了SAN的核心光纖通道(Fibre Channel),也就是FC技術,F(xiàn)C是ANSI為網(wǎng)絡和通道I/O接口建立的一個標準集成。 而光纖通道協(xié)議是SAN的另外一個本質(zhì)特征,SNA就是利用光纖通道協(xié)議上加載SCSI協(xié)議來達到可靠的快級數(shù)據(jù)傳輸,它主要支持HIP PI、IPI、SCSI、IP、ATM等多種高級協(xié)議。 SNA的最大特性是將網(wǎng)絡和設備的通訊協(xié)議與傳輸物理介質(zhì)隔

30、離開。 這樣多種協(xié)議可在同一物理連接上同時傳送,高性能存儲體和寬帶網(wǎng)絡使用單I/O接口使得系統(tǒng)成本和復雜程度大大降低。如通過將多臺大型交換機連接在一起,能夠構建可提供數(shù)百個端口的SAN,適應增長型企業(yè)不斷劇增的信息存儲容量的需要。 并且光纖通道支持多種拓撲結構,主要有:點到點(Link)、仲裁環(huán)(FC-AL)、交換式網(wǎng)絡結構(FC-XS)。 SAN憑借著FC技術的特性決定了它的諸多優(yōu)勢: 首先,在一些關鍵應用中,傳輸塊級數(shù)據(jù)要求必須使用SAN尤其是多個服務器共同向大型存儲設備進行讀取。由于在數(shù)據(jù)傳輸時被分成小段,使SAN對服務器處理的依賴較少,可以有效地傳送爆發(fā)性的塊數(shù)據(jù),SAN的性能及可靠性

31、就得到了充分的發(fā)揮。 其次,利用光纖通道速度快的優(yōu)勢通過局域網(wǎng),SAN可以實現(xiàn)遠程災難恢復。一般地,使用E3信道,SAN可以在不降低性能的同時將部件間的距離增加至150km。 再次,SAN采用可伸縮的網(wǎng)絡拓撲結構。通過具有較高傳輸?shù)墓饫w通道連接方式,提供SAN內(nèi)部任意節(jié)點之間的多路可選擇的數(shù)據(jù)交換,這樣將數(shù)據(jù)存儲管理集中在相對獨立的存儲區(qū)域網(wǎng)內(nèi)。 最后,很重要的一點,SAN的管理是集中而且高效的。用戶可以在線添加/刪除設備、動態(tài)調(diào)整存儲網(wǎng)絡以及將異構設備統(tǒng)一成存儲池等。 這里重點強調(diào)FC SAN一個弱點,這個缺陷主要是它的物理機理決定的,它無法使存儲設備隨它在網(wǎng)絡上運行,從而無法滿足應用前端對

32、存儲數(shù)據(jù)“無時不有、無處不在”的要求。FC SAN的物理布線有限,不超過50KM。這樣容易形成存儲“孤島”現(xiàn)象。 (三)IP SAN 數(shù)據(jù)的急劇倍增,給很多企業(yè)帶來了壓力,并開始將存儲系統(tǒng)從直接連接存儲(DAS)向區(qū)域存儲網(wǎng)絡(SAN)遷移,SAN無疑是理想的選擇,從上文介紹的優(yōu)勢,我們知道它可以提升靈活性、改善資產(chǎn)利用率和加大關鍵業(yè)務數(shù)據(jù)保護能力來獲得更多的利益。但FC SAN基于FC技術,其成本以及管理難度都讓眾多中小企業(yè)望塵莫及。 另一方面,由于 SAN本身技術的局限,最主要的問題是它與應用網(wǎng)絡的異構性,出現(xiàn)了“孤島”現(xiàn)象。很多專家就認為,應該尋求一種新的方式,以與應用網(wǎng)絡相同的體系架構

33、、技術標準去構造存儲網(wǎng)。而從技術構造還是經(jīng)濟成分角度分析,SAN就成了理想的對象。 為此,以IP網(wǎng)絡起家的網(wǎng)絡廠商巨頭Cisco和IBM聯(lián)手,專門研究與開發(fā)iSCSI技術標準。于是,一種新興的、既降低成本又簡化管理是IP SAN技術應運而生。 IP SAN通過結合iSICI和千兆以太網(wǎng)的優(yōu)勢,不僅提供了FC SAN的強大的穩(wěn)定性和功能,還省掉了FC不菲的成本,簡化了設計、管理與維護,降低了各種費用和總體擁有成本,從而成為數(shù)據(jù)量高速增長企業(yè)的新選擇。 目前主流的三種IP存儲方案包括:互聯(lián)網(wǎng)小型計算機系統(tǒng)接口(Internet Small Computer Systems Interface,簡稱

34、iSCSI)、互聯(lián)網(wǎng)光纖通道協(xié)議(Internet Fibre Channel Protocol,簡稱iFCP)和基于IP的光纖通道(FCIP)方案。 雖然三種IP存儲方案都有成本低、靈活性強、可管理性好、距離適中、以及對以太網(wǎng)技術熟悉。而基于IP存儲技術的SAN,兼具了FC SAN的高性能和NAS的文件共享優(yōu)勢,為新的數(shù)據(jù)應用方式提供了更加先進的結構平臺。在多種SAN孤島互連技術解決方案中,IP SAN也顯現(xiàn)出明顯的優(yōu)勢。 (四)NAS與SNA的比較 我們看到的SNA和NAS,無非就是字母順序顛倒,而且隨著網(wǎng)絡存儲的發(fā)展和應用,兩者之間的界限越來越模糊,在下一節(jié)我們會談談他們統(tǒng)一的趨勢。 N

35、AS與SAN的本質(zhì)區(qū)別在于以太網(wǎng)與FC,兩者的命運系于TCP/IP協(xié)議。這些本質(zhì)區(qū)別是從網(wǎng)絡架構來說的?,F(xiàn)在主要還是介紹他們之間性能的一些差別,主要從下面幾個方面來比較: 文件管理系統(tǒng) 我們可以看出,NAS和SAN最大的區(qū)別就在于NAS有文件操作和管理系統(tǒng)。SAN結構中,文件管理系統(tǒng)(FS)還是分別在每一個應用服務器上;而NAS則是每個應用服務器通過網(wǎng)絡共享協(xié)議(如:NFS、CIFS)使用同一個文件管理系統(tǒng)。 異構下的文件共享 由于NSA有存儲操作系統(tǒng),而SAN卻沒有這樣的系統(tǒng)功能,反而具有數(shù)據(jù)功能,從這些意思上看,SAN是獨立出一個數(shù)據(jù)存儲網(wǎng)絡,網(wǎng)絡內(nèi)部的數(shù)據(jù)傳輸率很快,但操作系統(tǒng)仍停留在服

36、務器端,用戶不是在直接訪問SAN的網(wǎng)絡,因此這就造成SAN在異構環(huán)境下不能實現(xiàn)文件共享。SAN是只能獨享的數(shù)據(jù)存儲庫,NAS是共享與獨享兼顧的數(shù)據(jù)存儲庫。 數(shù)據(jù)備份方式 NAS沒有解決與文件服務器相關的一個關鍵性問題,即備份過程中的帶寬消耗。與將備份數(shù)據(jù)流從LAN中轉(zhuǎn)移出去的SAN不同,NAS仍使用網(wǎng)絡進行備份和恢復。NAS 的一個缺點是它將存儲事務由并行SCSI連接轉(zhuǎn)移到了網(wǎng)絡上。也就是說LAN除了必須處理正常的最終用戶傳輸流外,還必須處理包括備份操作的存儲磁盤請求。 文件讀寫實現(xiàn) NAS采用了NFS溝通Unix陣營和CIFS溝通NT與Unix,這也反映了NAS是基于操作系統(tǒng)的“文件級”讀寫

37、操作,訪問請求是根據(jù)“文件句柄+偏移量”得出。句柄是比進程還要小的單元,通常用作進程之間通信、資源定位等。SAN中計算機和存儲間的接口是底層的塊協(xié)議,它按照協(xié)議頭的“塊地址+偏移地址”來定位。從這點說,SAN天生具有存儲異構整合的存儲虛擬化功能。(五)NAS與SNA的統(tǒng)一 比較兩者的優(yōu)勢,總的來說,SAN對于高容量塊狀級數(shù)據(jù)傳輸具有明顯的優(yōu)勢,而NAS則更加適合文件級別上的數(shù)據(jù)處理,而實際上SAN和NAS之間的特點是互相補充的存儲技術。 對于用戶而言,通過NAS可以更好的處理文件級信息而不占用應用服務器的CPU資源,并且NAS可以經(jīng)濟地解決存儲容量不足的問題,但性能上難以獲得滿意;對于關鍵事物

38、應用而言,需要大量的存儲容量和高性能的傳輸模式,則SAN提供了很好的解決方案。 但這兩種結構,都存在人們所呼吁的“信息孤島”的現(xiàn)象,之前認為SAN的誕生使得NAS信息孤島可以共享,隨著對網(wǎng)絡存儲的種種要求,SAN也到達了另一種“孤島”的現(xiàn)象。因此對SAN的互連的呼聲與日俱增。 一些其他的信息技術趨勢也已經(jīng)驅(qū)使NAS與SNA的融合采用。如一些分散式的應用和用戶要求訪問相同的數(shù)據(jù);對提供更高的性能、高可靠性和更低的擁有成本的專有系統(tǒng)的高增長要求,等等。 目前,居于這種趨勢,眾多廠商紛紛推出了融合NAS和SAN的存儲解決方案。雖然每個方案都有自己的特色,總體來看,主要可以分成兩類:一種是“SAN+N

39、AS網(wǎng)關”;另一種是“NetApp統(tǒng)一存儲系統(tǒng)”。 SAN+NAS網(wǎng)關 NAS網(wǎng)關通過IP網(wǎng)絡連接到基于光纖通道的存儲上,架起一座連接NAS與SAN網(wǎng)絡的橋梁。NAS網(wǎng)關也就相當于SAN網(wǎng)絡之間的相連的“接口”,網(wǎng)關間可以連接以太網(wǎng)交換機形成NAS網(wǎng)絡。這樣,一個“SAN+NAS網(wǎng)關”既可提供文件系統(tǒng)共享,有可以提供高容量塊級的綜合應用。因此NAS和SAN融合可以說是幫助用戶較全面地解決了網(wǎng)絡存儲的應用問題。但這種方式也存在著缺點,在整個這樣的系統(tǒng)中,有可能存在兩套不同的NAS網(wǎng)關,這就造成管理的復雜程度加劇,并且彼此之間的空間無法進行有效利用。 因此,人們也提出NAS網(wǎng)關只是NAS和SAN的

40、融合這個概念的入門基礎的概念。 通過下圖介紹一下NAS網(wǎng)關的工作原理,方便大家理解。 NAS網(wǎng)關通過IP連接客戶機可以以文件的方式訪問SAN上的塊級存儲。他主要通過標準的文件共享協(xié)議(如NFS和CIFS)來處理來自客戶機的請求。 當NAS網(wǎng)關收到請求后,就把該請求轉(zhuǎn)換為向SAN中的存儲陣列發(fā)出的塊數(shù)據(jù)請求。存儲陣列處理完請求后,把處理結果發(fā)回給網(wǎng)關。這時NAS網(wǎng)關將塊信息轉(zhuǎn)換為文件數(shù)據(jù),再發(fā)給客戶機。要是把NAS與IP網(wǎng)絡連接的NAS網(wǎng)關連接在一臺光纖交換機上,那么NAS網(wǎng)關就可以訪問連接多個存儲陣列的SAN網(wǎng)絡了。 NAS網(wǎng)關由于支持不同的SAN連接設備,可以組成多層存儲,并且使用已有的管理

41、工具管理SAN數(shù)據(jù),因而優(yōu)化和延長了存儲資源的使用壽命。(五)NAS與SNA的統(tǒng)一 NetApp統(tǒng)一存儲系統(tǒng) 真正的NAS和SAN的融合就是這單臺存儲既可以當NAS也可以當SAN存儲設備來用,其中的主要區(qū)別在于是用網(wǎng)線還是用光纖?;谶@一點,我們可以看到市場上,NetApp應該說做得很不錯! 在這里,有必要向大家解釋前面所提到的SAN與NAS界限越來越模糊的說法。 之前有一段時間,NAS完全表示利用IP的文件傳送,而SAN則表示光纖通道。后來在NAS廠商Network Appliance的努力,NAS設備增添了光纖通道和iSCSI功能后,NAS看起來就很像SAN了。而SAN也由于本身的局限,也基于iSCSI技術標準開發(fā)了IP SAN。業(yè)界就有這樣一句話就體現(xiàn)著這一特點,“也許披著SAN外衣的NAS真的應該被認為是SAN?!倍?yún)^(qū)別可能就是決定于NAS與SAN混合結構中所采用的協(xié)議了:IP、光纖通道,或者iSCSI。 目前NetApp的引以為豪四條產(chǎn)品線,體現(xiàn)出統(tǒng)一化網(wǎng)絡存儲理念。這種實現(xiàn)方式和在SAN+NAS網(wǎng)關正好相反,不是SAN到NAS的支持,而是NAS到SAN的支持,既在原有的NAS基礎上,增加對FCP協(xié)議的支持。 對

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經(jīng)權益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責。
  • 6. 下載文件中如有侵權或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論