GAD雙活存儲集群方案_第1頁
GAD雙活存儲集群方案_第2頁
GAD雙活存儲集群方案_第3頁
GAD雙活存儲集群方案_第4頁
GAD雙活存儲集群方案_第5頁
已閱讀5頁,還剩25頁未讀 繼續(xù)免費閱讀

下載本文檔

版權說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權,請進行舉報或認領

文檔簡介

1、技術方案建議書技術方案建議書目目 錄錄第第 1 1 章章 需求分析需求分析.3 3第第 2 2 章章 總體技術解決方案總體技術解決方案.5 52.1 方案拓撲示意圖及簡要說明.52.2 方案優(yōu)勢簡要說明.62.3 VSP G1000 的高性能、高可靠性、高擴展能力.72.3.1 綜合說明.72.3.2 高可靠性.92.3.3 高性能.112.3.4 高擴展性.122.4 雙活存儲集群的技術優(yōu)勢.132.4.1 VSP G1000 的 GAD 雙活存儲集群 .132.4.2 GAD 雙活存儲集群的基礎VSM .142.4.3 GAD 與其他廠商雙活集群技術的對比 .152.5 現(xiàn)有核心 SAN

2、存儲與新購存儲的無縫集成.172.6 關鍵線路連接示意圖.172.7 存儲虛擬化整合規(guī)劃.182.8 遠程容災規(guī)劃.192.8.1 選用 HUR 異步復制技術.192.8.2 HUR 異步復制軟件的工作原理 .202.8.3 HUR 異步復制軟件與友商的技術對比說明 .22第第 3 3 章章 數(shù)據(jù)遷移解決方案數(shù)據(jù)遷移解決方案.23233.1 數(shù)據(jù)遷移概述.233.1.1 遷移目標.233.1.2 數(shù)據(jù)遷移相關因素.233.2 數(shù)據(jù)遷移方法論.243.2.1 遷移評估設計階段.243.2.2 遷移實施階段.263.3 數(shù)據(jù)遷移技術的選擇.273.3.1 可選的數(shù)據(jù)遷移技術.273.3.2 推薦數(shù)

3、據(jù)遷移方案.29第第 1 1 章章 需求分析需求分析根據(jù)現(xiàn)狀分析,本次項目的核心建設要點有以下 4 點:1)1) 高性能,高擴展性,且可保證數(shù)據(jù)以及應用安全的存儲設備高性能,高擴展性,且可保證數(shù)據(jù)以及應用安全的存儲設備鑒于 XXXX 的存儲使用情況和未來的業(yè)務發(fā)展,需要高性能,高擴展性(如存儲產(chǎn)品的容量與端口等),高可靠性的企業(yè)級高端存儲設備作為南方中心整體存儲方案的支撐。2)2) 需要單一存儲設備故障不影響業(yè)務生產(chǎn),即雙活存儲集群技術需要單一存儲設備故障不影響業(yè)務生產(chǎn),即雙活存儲集群技術XXXX 對存儲的要求不僅僅是能保證單套存儲設備的可靠性,而且要保證在極端情況下,單一存儲設備故障時,不會

4、影響關鍵業(yè)務的生產(chǎn),此外,即使在單套存儲設備故障時,另一節(jié)點的雙活存儲的性能也需能夠高效支撐業(yè)務,因此雙活存儲需采用相同的配置,以保證在單套存儲出現(xiàn)災難時,另一套存儲可以以同樣的性能支撐南方中心的業(yè)務。雙活存儲集群在寫數(shù)據(jù)時是需要兩套存儲均確認寫入成功才會執(zhí)行下一寫操作的,因此必須考慮雙活存儲集群技術對業(yè)務性能的影響。隨著兩套存儲之間距離的增大,數(shù)據(jù)寫入延時越長,因此,建議雙活存儲集群應在同一個數(shù)據(jù)中心中以保證業(yè)務性能。3)3) 必須滿足長期規(guī)劃,以實現(xiàn)雙活基礎上的遠程容災保護必須滿足長期規(guī)劃,以實現(xiàn)雙活基礎上的遠程容災保護即使已經(jīng)實現(xiàn)了雙活存儲集群,但由于兩個存儲在一個機房樓里,仍然無法避免

5、整個數(shù)據(jù)中心災難所帶來的影響。因此,還必須在雙活的基礎上實現(xiàn)遠程數(shù)據(jù)容災保護的功能,以保證在災難發(fā)生時仍有可用數(shù)據(jù)快速恢復業(yè)務生產(chǎn)。4)4) 數(shù)據(jù)遷移數(shù)據(jù)遷移由于南方中心的核心業(yè)務系統(tǒng)是從北京中心拆分出來的,需要將北京中心的部分現(xiàn)有數(shù)據(jù)遷移到南方中心。因此,本項目必須提供一套可行的、完善的、風險系數(shù)最低的數(shù)據(jù)遷移方案,為南方中心業(yè)務系統(tǒng)的部署和上線運行打好基礎。根據(jù)分析,本項目需要實施數(shù)據(jù)遷移的 IT 環(huán)境中具有如下特點:操作系統(tǒng)多樣性:整體環(huán)境中主機包括 AIX、Windows、Linux、ESX等各種操作系統(tǒng),服務器涉及多個品牌;數(shù)據(jù)格式的多樣性:數(shù)據(jù)的存放主要以 Oracle 數(shù)據(jù)庫為主

6、,有 RAC和主備等多種形式的集群,另外還有主機文件系統(tǒng),NAS 文件系統(tǒng)等;數(shù)據(jù)量大:數(shù)十 TB 規(guī)模的數(shù)據(jù)需要遷移到南方中心新購存儲;環(huán)境限制:距離遠、網(wǎng)絡帶寬有限;這些特點都表明了數(shù)據(jù)遷移的復雜性,也對數(shù)據(jù)遷移的方法提出了挑戰(zhàn)。因此數(shù)據(jù)遷移方案的選擇和設計重點考慮以下要點:遷移方案應重點考慮數(shù)據(jù)初始化,即如何成功、快速的將數(shù)據(jù)從北京中心遷移到南方中心;遷移方案重點考慮與應用、操作系統(tǒng)、數(shù)據(jù)庫的無關性,盡量通過更底層的技術,如備份恢復、數(shù)據(jù)庫復制、存儲復制等,這樣可有效降低數(shù)據(jù)遷移的復雜性;總之,數(shù)據(jù)遷移應考慮采用一個有效的方法來面向不同數(shù)據(jù)庫、操作系統(tǒng)、服務器的各種應用的遷移,且遷移過程

7、盡量縮短數(shù)據(jù)初始化的時間,完成南方中心的快速部署和上線運行。第第 2 2 章章 總體技術解決方案總體技術解決方案2.1 方案拓撲示意圖及簡要說明方案拓撲示意圖及簡要說明在明確項目建設目標,經(jīng)過調(diào)研和分析,建議方案設計如下圖所示:上圖中紫色字體的部分是本次項目投標提供的 SAN 網(wǎng)絡及存儲設備。方案說明:SAN 網(wǎng)絡層在 SAN 網(wǎng)絡層面,方案采用兩套 Brocade 6520 交換機作為 SAN 交換網(wǎng)絡,形成雙冗余連接,避免因單臺交換機故障導致的存儲業(yè)務中斷。由于南方中心與北京中心之間的遠程連接為 IP 網(wǎng)絡,因此建議用戶考慮增加 FC/IP 路由設備,用以實現(xiàn)南方中心與北京中心之間的遠程

8、FC SAN 路由連接,為基于存儲的遠程容災復制提供鏈路支持。(注:該設備未包含在本方案存儲設備供貨清單中)存儲層方案采用兩套 HDS 最高端的存儲設備 VSP G1000 為南方中心的業(yè)務系統(tǒng)提供高性能、高可靠的支撐服務,且采用安全級別最高的“雙活存儲集群”來實現(xiàn)兩套 VSP G1000 的設備級冗余故障切換,單套 VSP G1000 停機不會影響業(yè)務的運行,無須任何人為干預,業(yè)務系統(tǒng)能夠連續(xù)不停機的對外服務。此外,方案中還采用一套 HDS 中端存儲設備 HUS130,既可以為網(wǎng)管、監(jiān)控等業(yè)務系統(tǒng)提供支撐服務,也可當作 VSP G1000 雙活存儲集群的仲裁節(jié)點使用。主機層考慮到系統(tǒng)可靠性,

9、服務器應安裝兩塊獨立的 HBA 卡,分別連接到兩臺Brocade 6520 交換機,形成冗余鏈路。HDS VSP G1000 自帶 HDLM 動態(tài)多路徑管理軟件,可以安裝在服務器操作系統(tǒng)中,用于管理路徑負載均衡和故障路徑自動切換。2.2 方案優(yōu)勢簡要說明方案優(yōu)勢簡要說明1) 高可靠性、高性能、高擴展性:VSP G1000 高端企業(yè)級存儲,采用多控制器架構冗余設計,具有極高的可靠性。與此同時,VSP G1000 的性能也非常出色,其上一代產(chǎn)品 VSP 公開發(fā)布的 SPC-1 測試結果為 60 萬 IOPS,而 VSP G1000 預估 IOPS 可以達到 200萬以上。擴展性方面:VSP G10

10、00 最大支持 2304 塊磁盤,192 個前端口,2TB 緩存,能夠充分滿足未來的業(yè)務發(fā)展需求。2) 雙活存儲集群方案由兩套 VSP G1000 存儲共同提供業(yè)務支撐服務,在任意一套存儲出現(xiàn)嚴重故障(如斷電等)無法工作時,業(yè)務系統(tǒng)能夠繼續(xù)運行,無須任何人工干預操作。在一套存儲出現(xiàn)嚴重災難時,單套存儲仍可保證的業(yè)務的高效運行,實現(xiàn) RTO=0,RPO0 的高可靠業(yè)務連續(xù)性方案和數(shù)據(jù)安全方案。兩套存儲的配置完全相同,在一套存儲故障時,剩余的單套存儲仍可以提供相同的業(yè)務處理速度,不會降低服務水平。3) 可實現(xiàn)雙活基礎上的遠程容災保護VSP G1000 能夠與北京中心實現(xiàn)遠程容災復制,從而實現(xiàn)北京中

11、心與南方中心之間的數(shù)據(jù)互備容災。雖然本項目選擇的是利用數(shù)據(jù)庫復制軟件實現(xiàn)兩中心間的容災,但根據(jù)以往的項目經(jīng)驗,我們?nèi)匀唤ㄗh使用存儲級容災復制功能,對 Oracle 數(shù)據(jù)庫的 Archive Log 再做一份副本數(shù)據(jù),作為數(shù)據(jù)庫復制軟件的補充手段和備用手段,為兩中心間的容災方案提供更全面的技術支撐。4) 可行的、完善的數(shù)據(jù)遷移方案數(shù)據(jù)遷移是一個極其復雜的系統(tǒng)問題。如何選擇一種可行的、完善的數(shù)據(jù)遷移方案,應重點從以下幾個方面考慮:容災復制技術優(yōu)先本項目的建設目的就是為了實現(xiàn)南方中心與北京中心之間的遠程容災,因此建議首選容災復制技術進行數(shù)據(jù)遷移。只有這樣,數(shù)據(jù)遷移到南方中心并啟動業(yè)務生產(chǎn)之后,才能夠

12、繼續(xù)保持與北京中心之間的數(shù)據(jù)容災復制關系。其他數(shù)據(jù)(文件系統(tǒng)、NAS)等,可以考慮采用 NFS、FTP 等方式遷移到南方中心。在具備條件的情況下(可實現(xiàn)兩中心間的 FC/IP 路由通訊),也可以考慮使用存儲系統(tǒng)的復制功能完成兩中心間的數(shù)據(jù)遷移。電子傳輸比介質(zhì)傳送更可靠無論哪種復制技術,都具有非常完善的數(shù)據(jù)傳輸機制與校驗機制,并且遷移到南方中心的數(shù)據(jù)可以與北京中心直接建立容災復制關系。如果帶寬條件有限,預估傳輸時間較長,建議考慮臨時增容帶寬,以提高初始化復制的處理速度。介質(zhì)傳輸,無論是傳送磁盤、磁帶、甚至存儲設備,都存在極高的數(shù)據(jù)損壞風險,并且時效性很差,需要再次通過數(shù)據(jù)復制進行數(shù)據(jù)更新,過程非

13、常復雜。2.3 VSP G1000 的高性能、高可靠性、高擴展能力的高性能、高可靠性、高擴展能力2.3.1 綜合說明綜合說明權威機構 Gartner 于 2014 年 11 月對業(yè)界主流高端存儲進行了全方位的綜合評測,評測項目眾多,評分標準細致且科學。最終排名結果顯示:VSP G1000排名第一(并列第一的 HP XP7 是 VSP G1000 的 OEM 型號) 。Gartner 官方網(wǎng)站鏈接如下:http:/ Gartner 官方網(wǎng)站的截圖:上圖是 2014 年 3 月綜合排名情況(VSP 為 VSP G1000 的上一代產(chǎn)品) ,VSP(P9000 為 VSP 的 OEM 產(chǎn)品)綜合排名

14、第一。評測內(nèi)容包括:管理性、可靠性、性能、快照復制、擴展性、環(huán)保特性、多租戶與安全、存儲效率。上圖是 2014 年 11 月的綜合排名情況,VSP G1000(XP7 為 VSP G1000 的OEM 產(chǎn)品)再次綜合排名第一。2014 年 11 月 OLTP 典型數(shù)據(jù)庫應用評測,VSP G1000 排名第一。2014 年 11 月 OLAP 典型數(shù)據(jù)庫應用評測,VSP G1000 排名第一。2.3.2 高可靠性高可靠性整體的存儲系統(tǒng)平臺分為三個層次,主機層、網(wǎng)絡層和存儲層。主機層:主機層:在數(shù)據(jù)中心的生產(chǎn)區(qū)和交換區(qū)的業(yè)務系統(tǒng)中,主機主要進行信息處理和數(shù)據(jù)庫運行,在主機端安裝 HBA 卡用于建立

15、數(shù)據(jù)訪問通道。由于主業(yè)務系統(tǒng)是典型的 OLTP 應用,所以應用對數(shù)據(jù)訪問性能的要求非常高,為了滿足這一要求,主機端需要多塊 HBA 卡,提供多條數(shù)據(jù)通道,通過安裝 HDLM 數(shù)據(jù)通道管理軟件,可以提供多通道之間的流量負載均衡,確保高性能的數(shù)據(jù)訪問。另一方面,對于生產(chǎn)系統(tǒng)這樣關鍵的系統(tǒng),鏈路的安全性需要得到保證,HDLM 同樣可以提供數(shù)據(jù)通道之間的失敗切換功能。網(wǎng)絡層:網(wǎng)絡層:SAN 網(wǎng)絡中網(wǎng)絡層是非常關鍵的一個部分,它負責將主機和存儲系統(tǒng)連接在一起,并且提供一個高靈活性、高擴展性的環(huán)境,以適應業(yè)務系統(tǒng)不斷發(fā)展帶來的主機和存儲系統(tǒng)的擴展。在 SAN 網(wǎng)絡設計中,我們采用冗余的網(wǎng)絡設計,按照本項目

16、的要求,我們?nèi)屡渲?2 臺 Brocade6520 交換機構成冗余 FABRIC,為主機和存儲系統(tǒng)提供冗余的、可持續(xù)發(fā)展的連接路徑。存儲層:存儲層:存儲層或者說整個 SAN 網(wǎng)絡存儲系統(tǒng)的核心設備是磁盤陣列,在數(shù)據(jù)中心存儲系統(tǒng)中,我們建議配置兩臺高端存儲設備做同步實現(xiàn)“0”數(shù)據(jù)丟失的保護;建議采用高性能、高可擴展性、功能強大的磁盤陣列系統(tǒng)VSP G1000 通用存儲平臺。VSP G1000 存儲平臺的出現(xiàn),完全改變了存儲業(yè)界的工業(yè)標準,致使各個競爭友商的產(chǎn)品又一次處于落后狀態(tài)。VSP G1000 磁盤存儲系統(tǒng)是業(yè)界唯一可以保證 100數(shù)據(jù)可用性的系統(tǒng),整個系統(tǒng)采用全冗余的交換式結構設計,沒有

17、任何單點故障,雙獨立供電接口與內(nèi)部 N+1 電源模塊,冗余散熱風扇,RAID 技術保護方式,全局動態(tài)熱備份盤包,多獨立 Cache 板設計,支持鏡像寫緩存技術,所有緩存都是 NVS 保護的,保證系統(tǒng)高可靠性和實現(xiàn) 724365 天不停機運行要求。VSP G1000 存儲系統(tǒng)也是最易維修的系統(tǒng)。系統(tǒng)的所有部件均支持熱插拔和不停機進行更換、擴容和不停機地微碼升級。當微碼出現(xiàn)問題時可以自動不停機地返回舊版本并可不停機地加入微碼的 Patch。這種維護特性是經(jīng)過廣大用戶證實有效的技術,也是用戶選擇 VSP G1000 的原因之一。2.3.3 高性能高性能VSP G1000 虛擬存儲系統(tǒng)是業(yè)界性能更高的

18、多控制器企業(yè)級存儲系統(tǒng)。其內(nèi)部結構采用高性能、無瓶頸的全交換結構,如上圖。前端控制器(CHA)、后端控制器(DKA)、數(shù)據(jù)緩存 cache 控制器多部分組成通過系統(tǒng)內(nèi)部交換系統(tǒng)(核心為 HDS 專利技術交換芯片)連接組成無阻塞的高速數(shù)據(jù)交換網(wǎng)絡,提供 I/O數(shù)據(jù)交換的多路由和高速的數(shù)據(jù)交換;前端(CHA)、后端(DKA)、控制緩存組成了點到點的網(wǎng)絡結構,用于傳輸 I/O 和 cache 的控制信息,上述結構是目前業(yè)界最先進的存儲結構設計;同時 VSP G1000 虛擬存儲系統(tǒng)采用全局的數(shù)據(jù)檢索技術和處理機制,保證了數(shù)據(jù) CACHE 中的數(shù)據(jù)高速檢索和 CACHE 命中效率,獲得全世界各權威咨詢

19、與評估機構的高度評價,并被公認為是目前業(yè)界最高性能和最好的擴展性的存儲系統(tǒng)。下圖為權威評測機構 SPC(Storage Performance Council)官方網(wǎng)站截圖,分別顯示了 VSP G1000 的上一代產(chǎn)品 VSP,與 Huawei 公司 18800 的 SPC-1 測試結果。雖然 VSP 最高 60 萬 IOPS,略低于 Huawei 18800 最高 100 萬 IOPS。但在平均響應時間方面,VSP(0.25-0.7 毫秒)卻較 Huawei 18800(1.55 毫秒)的表現(xiàn)要出色 5 倍以上。換言之,在相同的 I/O 壓力情況下,Huawei 18800 的讀寫處理時長會

20、是 VSP 的 5 倍,也就意味著業(yè)務操作的等待時間是 VSP 的 5 倍。VSP:60 萬 IOPS,平均響應時間 0.25-0.7 毫秒。SPC 官方網(wǎng)站鏈接/benchmark_results_files/SPC-1/hds/A00136_Hitachi-VSP-Flash/a00136_Hitachi_VSP-HAF_SPC-1_executive-summary_revision-1.pdfHuawei 18800:100 萬 IOPS,平均響應時間 1.5-5 毫秒。SPC 官方網(wǎng)站鏈接:數(shù)據(jù)來源:http:/www.

21、/benchmark_results_files/SPC-1/Huawei/A00140_Huawei_OceanStor-18800/a00140_Huawei_OceanStor-18800_SPC-1_executive-summary-r1.pdf2.3.4 高擴展性高擴展性VSP G1000 磁盤存儲系統(tǒng)采用了全光纖的交換體系結構的設計,保證了系統(tǒng)的極大的擴充能力,系統(tǒng)內(nèi)部最大可以擴充到 2304 塊磁盤,內(nèi)部最大擴充裸容量可以達到 8PB,通過虛擬化云的擴展可以達到 256PB。系統(tǒng)的數(shù)據(jù) CACHE 最大可以擴充到 2000GB。VSP

22、 G1000 系統(tǒng)的前端通道最大為 192 個 8Gb 光纖通道接口。與此同時,VSP G1000 在設備擴展的靈活性方面作出了巨大的努力,允許擴展機柜與控制機柜分開擺放,以解決機房空間緊張的問題,其他最大連接距離可達 100 米。此外,VSP G1000 還可以通過內(nèi)置的存儲虛擬化功能,將其他符合 FC SAN標準的磁盤陣列虛擬化整合進來,形成一個統(tǒng)一的存儲資源池,其最大規(guī)??梢詳U展到 256PB。2.4 雙活存儲集群的技術優(yōu)勢雙活存儲集群的技術優(yōu)勢2.4.1 VSP G1000 的的 GAD 雙活存儲集群雙活存儲集群VSP G1000 具有的 GAD 雙活存儲集群功能,存儲真正成為了一個虛

23、擬設備,不再依賴于具體的物理設備,類似于服務器的虛擬化一樣,成為了一個存儲資源池;在存儲物理設備更新?lián)Q代的過程中,虛擬的存儲設備永遠在線,業(yè)務永遠在線,不會因為一臺設備故障造成業(yè)務中斷。GAD 雙活存儲集群功能,可以將來自兩臺 VSP G1000 的磁盤邏輯卷整合為一個虛擬卷交給服務器,服務器的寫操作會被自動鏡像寫入到兩臺 VSP G1000 中,形成數(shù)據(jù)鏡像保護,同時服務器的讀操作會被自動分發(fā)到兩臺 VSP G1000 中的一臺執(zhí)行,從而提高數(shù)據(jù)的讀取速度。通過這種“雙寫雙讀”的數(shù)據(jù)處理方式,VSP G1000 能夠輕松的依靠內(nèi)置功能實現(xiàn) “雙活存儲集群”,如下圖所示:兩臺 VSP G100

24、0 上的邏輯卷可以被整合成為統(tǒng)一的虛擬卷標示符,從主機看來如同來自不同路徑的同一個邏輯卷,底層的數(shù)據(jù)雙寫和雙讀操作則由 GAD軟件控制完成。這種技術使得主機的存儲資源可以在兩節(jié)點的 VSPG1000 上同時運行,在單臺 VSP G1000 出現(xiàn)故障時,主機邏輯卷不需要人工干預進行切換,另外一臺 VSP G1000 上的邏輯卷可以持續(xù)提供服務,極大的降低了業(yè)務運行的風險,避免了出現(xiàn)故障時需要大量時間人工恢復業(yè)務的風險。本方案中推薦兩套 VSP G1000 采用完全相同的配置,目的是在一套存儲出現(xiàn)災難時,另一套存儲可以以同樣的性能高效的支撐整個業(yè)務中心的運行,使得整體存儲性能始終保持在一個相同的水

25、平。2.4.2 GAD 雙活存儲集群的基礎雙活存儲集群的基礎VSMVSP G1000 的 GAD 雙活存儲集群功能,其基礎功能是 VSP G1000 創(chuàng)新的存儲虛擬機 Virtual Storage Machine(VSM)。VSP G1000 創(chuàng)造性地將虛機的概念引入存儲,在一臺物理存儲內(nèi)允許用戶按照業(yè)務和應用的要求定義多個 Virtual Storage Machine(VSM), VSM 與一臺存儲類似,具備自己的存儲 ID,設備序列號和端口 WWN,通過 VSM 的定義,能夠有效提高存儲資源利用率,并實現(xiàn)最大的架構、業(yè)務的靈活性。 VSP G1000 通過 VSM 實現(xiàn)了 GAD 功能

26、,GAD(Global-Active Device )是利用 VSP 的虛擬控制器功能來實現(xiàn) VSP G1000 的水平擴展和設備雙活(業(yè)務全部在線)。VSP G1000 未來可以實現(xiàn) 8 臺 VSP G1000 的橫向擴展能力。如上圖所示,主機識別 LUN 是通過控制器 ID 來識別,VDKC 是 VSP G1000 上虛擬出來的一個虛擬控制器,它可以將多臺存儲底層的物理控制器虛擬成同一個控制器,這樣主機通過虛擬控制器訪問后端磁盤資源時始終和一個控制器 ID交互,無論后臺存儲如何變化,主機都不會有感知,從而實現(xiàn)了業(yè)務永遠在線,雙活等特性。 如上圖所示,GAD 能實現(xiàn)雙活數(shù)據(jù)中心,應用數(shù)據(jù)在兩

27、端同時寫入 2 臺存儲,另外還需要一個 quorum 設備做仲裁判斷,仲裁盤可以是 VSP G1000 內(nèi)部磁盤,也可以是通過 VSP G1000 虛擬化的外部磁盤。部署后應用層面由 Cluster 進行高可靠連續(xù)性保護,數(shù)據(jù)層面有 GAD 進行高可靠連續(xù)性保護。雙活數(shù)據(jù)中心在數(shù)據(jù)讀取時可以分開讀取,即本地主機讀取本地存儲數(shù)據(jù),降低延時,提升應用響應速度。2.4.3 GAD 與其他廠商雙活集群技術的對比與其他廠商雙活集群技術的對比GAD 是目前業(yè)界唯一的,通過存儲內(nèi)置功能實現(xiàn)的雙活存儲集群解決方案。其他廠商則通過增加虛擬化及雙活網(wǎng)關的方式實現(xiàn)類似功能。這兩種技術方案的主要區(qū)別如下(以 VSP

28、G1000+GAD 對比 EMC VPLEX+VMAX 為例):指標與特性指標與特性VSP G1000GADEMC VPLEX + VMAXHuawei VIS6000+18000IBM SVC+DS8800前端端口最大 192 個 FC 接口,冗余設備不影響存儲最大 32 個 FC 接口,任何一個端口壞掉都會引起 VPLEX 控制器重啟最大雙活卷64000 個16000 個體系架構分布式交換架構高端存儲,GAD 為內(nèi)置軟件,雙活方案不增加任何軟硬件層VMAX 40K 是 8 個中端存儲的堆疊, VPLEX 是多增加的一層 PC 架構的虛擬化層I/O 寫操作流程與存儲同步復制技術流程相同增加

29、VPLEX 緩存寫入環(huán)節(jié),I/O處理速度大幅下降I/O 讀操作流程與存儲同步復制技術流程相同增加 VPLEX 緩存讀取環(huán)節(jié),I/O處理速度大幅下降管理控制器存儲內(nèi)部集成單獨增加一對 PC 管理服務器及交換機組成管理網(wǎng)絡雙存儲間的網(wǎng)絡連接SAN 網(wǎng)絡互通即可SAN 互通以外,額外多出一對管理 IP 網(wǎng)絡,網(wǎng)絡管理復雜統(tǒng)一管理存儲軟件實現(xiàn)VPLEX, VMAX 分開管理,VMAX的設置變化需要 VPLEX 重啟三中心容災不需引入其他的產(chǎn)品或架構需要加入 Recover point,改變現(xiàn)有架構下圖為 EMC VPLEX 的部署架構示意圖:每個 VPLEX 群集都有一對專用本地 IP 子網(wǎng),它們將控

30、制器連接到管理服務器。其中一個子網(wǎng)上的鏈路丟失將導致某些成員不能與此子網(wǎng)上的其他成員通信。如下面圖:雖然有網(wǎng)絡冗余配置,但從上圖可以看出 VPLEX 集群引入了一對 PC 服務器。集群間的網(wǎng)絡連接復雜,可能引起整個系統(tǒng)的故障。包含兩個或更多引擎的 VPLEX 群集還需要多搭配一對光纖通道交換機,提供光纖通道連接來支持群集內(nèi)的控制器間通信。由此可以看出 VPLEX 的集群連接非常復雜,而且低級的故障點很多。而利用 VSP G1000 的先進的 GAD 技術,在實現(xiàn)雙活存儲的同時,可以最大化的簡化系統(tǒng)架構,系統(tǒng)沒有因為要實現(xiàn)雙活存儲增加任何額外的層和故障點。2.5 現(xiàn)有核心現(xiàn)有核心 SAN 存儲與

31、新購存儲的無縫集成存儲與新購存儲的無縫集成VSP G1000 與 XXXX 現(xiàn)有的 USP-V、VSP 技術完全兼容,能夠實現(xiàn) VSP G1000 與 USP-V、VSP 之間的遠程容災復制,從而實現(xiàn)南方中心與北京中心之間的數(shù)據(jù)容災保護。雖然本項目選定了數(shù)據(jù)庫復制軟件進行遠程容災,但我們?nèi)匀粸槟戏街行牡?VSP G1000 配置了少量的容災復制軟件許可,通過 VSP G1000 與 USP-V、VSP 之間的容災復制技術,對數(shù)據(jù)庫的 Archive Log 進行異地容災復制,作為數(shù)據(jù)庫復制軟件的后備手段,提供更全面的容災保護。除了數(shù)據(jù)庫以外,南方中心還會有部分其他數(shù)據(jù)需要復制,如文件系統(tǒng)等,這

32、些數(shù)據(jù)無法通過數(shù)據(jù)庫復制軟件傳輸,因此也可以利用存儲之間的復制功能進行遠程容災保護。在未來的下一步規(guī)劃中,我們建議將南方中心的 VSP G1000 與北京中心的USP-V、VSP 之間的復制功能全部打開,通過底層存儲對兩中心的所有數(shù)據(jù)進行容災復制保護,以保證數(shù)據(jù)庫與文件系統(tǒng)的一致性,進一步提高容災數(shù)據(jù)的可用性。2.6 關鍵線路連接示意圖關鍵線路連接示意圖下圖為 GAD 雙活存儲集群的關鍵線路連接示意圖。其中,兩臺 VSP G1000之間的 GAD Pair 采用光纖直連,兩臺 VSP G1000 到 HUS130 仲裁存儲之間也同樣采用光纖直連。為了保證系統(tǒng)冗余度,各直連線路均為 2 條以上。

33、如果光纖交換機端口充足,也可以考慮使用交換機來連接 GAD Pair 以及仲裁存儲。為了保證系統(tǒng)冗余度,所有鏈路均應為 2 條以上,并分別通過不同交換機連接。此外,VSP G1000、HUS130、HNAS4060 各自對主機提供服務的 FC 接口和 10Gb IP 接口,均需按照傳統(tǒng)模式連接到 FC 交換機及 10Gb 以太網(wǎng)交換機。同樣的,為了保證系統(tǒng)冗余度,所有鏈路均應為 2 路以上,并通過不同交換機連接。連接架構如下圖所示:2.7 存儲虛擬化整合存儲虛擬化整合規(guī)劃規(guī)劃VSP G1000 存儲特有的存儲虛擬化功能可以將基于 FC 的IBM、EMC、HDS、HP 等主流存儲公司的光纖存儲整

34、合為一個整體,為數(shù)據(jù)中心向“云”轉化提供統(tǒng)一的、可靈活調(diào)配的存儲資源池。VSP G1000 磁盤存儲系統(tǒng)通過存儲虛擬化的技術,可以實現(xiàn)將不同廠商的存儲系統(tǒng)集合到同一個存儲池中。VSP G1000 存儲平臺內(nèi)部的資源為內(nèi)部存儲資源,與之相連的其它存儲設備上的資源是外部資源。通過該功能,可以使用統(tǒng)一的管理平臺實現(xiàn)對內(nèi)部和外部存儲資源的統(tǒng)一管理,統(tǒng)一分配,可以按照應用系統(tǒng)的性能要求分配相應的存儲資源。從主機的角度看,內(nèi)部存儲資源和外部存儲資源功能完全相同,而內(nèi)部和外部存儲資源之間的數(shù)據(jù)交換可以通過存儲系統(tǒng)本身的數(shù)據(jù)復制和數(shù)據(jù)遷移軟件來完成。VSP G1000 外部連接的存儲系統(tǒng)進行虛擬化的獨特功能,

35、可為異構存儲創(chuàng)建單一的異構存儲池。這可以簡化存儲管理、提高利用率和效率,改善服務水平、簡化數(shù)據(jù)遷移,并可幫助企業(yè)滿足監(jiān)管達標要求。異構存儲虛擬化架構示意圖VSP G1000 通過異構存儲虛擬化的技術,可以使用統(tǒng)一的管理平臺實現(xiàn)對VSP G1000 內(nèi)部和外部存儲資源的統(tǒng)一管理,統(tǒng)一分配,可以按照應用系統(tǒng)的性能要求分配相應的存儲資源。從主機的角度看,VSP G1000 內(nèi)部存儲資源和外部存儲資源功能完全相同,而內(nèi)部和外部存儲資源之間的數(shù)據(jù)交換可以通過存儲系統(tǒng) VSP G1000 本身的數(shù)據(jù)復制和數(shù)據(jù)遷移軟件來完成。同樣的,這些被虛擬化整合進來的外部存儲均能夠使用 VSP G1000 的獨有功能,

36、例如快照、克隆、GAD 雙活存儲集群,3DC 閉環(huán)容災復制等等。也就是說,未來如果用戶的其他項目采購了其他品牌的存儲設備,同樣可以利用 VSP G1000 的先進技術,實現(xiàn)更高級別的數(shù)據(jù)保護和更高效的數(shù)據(jù)管理功能。通過 VSP G1000 存儲分區(qū)技術可以對 VSP G1000 進行邏輯劃分,可以多個邏輯虛擬存儲系統(tǒng)(VSM) 。每個虛擬存儲系統(tǒng)都擁有獨立的主機通道端口、CACHE、磁盤等資源。在 VSP G1000 和與之相連的外部存儲設備中,通過邏輯分區(qū)功能可以使得應用系統(tǒng)的需求和分配給該應用的資源得到合理的調(diào)度和匹配,從而保證應用服務質(zhì)量。2.8 遠程容災規(guī)劃遠程容災規(guī)劃2.8.1 選用

37、選用 HUR 異步復制技術異步復制技術遠程容災技術中主要有兩種選擇。同步數(shù)據(jù)復制技術 數(shù)據(jù)實時同步?jīng)]有數(shù)據(jù)丟失,但是應用系統(tǒng)能容忍的同步距離有限制(容災存儲越遠性能越差) ,不能抵御區(qū)域性的災難,如大面積的自然災害,區(qū)域性停電等,與本次項目中容災的規(guī)劃不符,因此不采用。異步數(shù)據(jù)復制技術數(shù)據(jù)實時異步復制,異步復制距離沒有限制,能抵御區(qū)域性的災難,對生產(chǎn)存儲性能影響小,但也正是由于采用異步數(shù)據(jù)復制,災備中心數(shù)據(jù)有數(shù)據(jù)丟失(鏈路足夠寬時,RPO 可無限接近于 0,但不能絕對等于零) 。由于條件有限,本項目的遠程容災必須采用異步數(shù)據(jù)復制技術。由于條件有限,本項目的遠程容災必須采用異步數(shù)據(jù)復制技術。VS

38、P G1000 的異步數(shù)據(jù)復制功能采用的是業(yè)界最先進的,基于日志卷的遠程容災復的異步數(shù)據(jù)復制功能采用的是業(yè)界最先進的,基于日志卷的遠程容災復制技術(制技術(HUR) 。2.8.2 HUR 異步復制軟件的工作原理異步復制軟件的工作原理HUR 復制軟件采用基于磁盤日志文件的技術,可以保證遠程數(shù)據(jù)的一致性和完整性,同時,極大的降低了存儲系統(tǒng) CACHE 和通信鏈路帶寬的需求。HUR 的原理如下圖所示:圖:HUR 遠程數(shù)據(jù)復制軟件磁盤日志卷HUR 遠程數(shù)據(jù)復制軟件利用“磁盤日志卷”進行待傳數(shù)據(jù)的實時轉發(fā),節(jié)省生產(chǎn)系統(tǒng)存儲 Cache 資源當服務器端發(fā)出一個寫操作時,寫 I/O 按照寫發(fā)生的順序保存在主

39、存儲系統(tǒng)的日志卷(JNL)中,遠端的存儲系統(tǒng)通過發(fā)出讀日志命令從主存儲系統(tǒng)的日志卷(JNL)中讀取記錄并將其寫到本地的日志卷(JNL)中,然后將該記錄更新到本地的數(shù)據(jù)卷中。上述過程是實時進行的,相比起其他廠家的以 30 秒鐘為周期的異步復制技術,具有更理想的“RPO”指標。同時,無論線路帶寬如何變化,HUR 遠程數(shù)據(jù)復制軟件能夠自動的調(diào)整傳輸策略,充分使用線路的帶寬資源。HUR 遠程數(shù)據(jù)復制軟件也節(jié)省了通信鏈路的帶寬需求,在傳統(tǒng)的數(shù)據(jù)遠程復制環(huán)境下,通信鏈路的帶寬需求不夠,則數(shù)據(jù)會累積在存儲系統(tǒng)的 CACHE中,當 CACHE 資源不夠時,遠程數(shù)據(jù)復制過程中斷。采用基于磁盤日志方式的 HUR

40、遠程數(shù)據(jù)復制軟件,可以利用磁盤日志文件緩沖對帶寬的瞬時高需求,從而可以避免由于瞬間的高帶寬需求造成的遠程數(shù)據(jù)復制的掛起。TimeReduce Band width costsReduced Cache utilizationPull from Secondary SiteTimeReduce Band width costsTimeReduce Band width costsReduced Cache utilizationReduced Cache utilizationPull from Secondary Site圖:HUR 對 Cache 和帶寬的要求降低吸收式復制技術HUR 遠程數(shù)

41、據(jù)復制軟件利用“吸收式復制技術”進行數(shù)據(jù)復制,提升生產(chǎn)系統(tǒng)的存儲工作性能。HUR 引入了 pull(拉)機制實現(xiàn)數(shù)據(jù)的復制,使用這種技術,主存儲系統(tǒng)不需要特定的資源將數(shù)據(jù)推(Push)到遠程存儲系統(tǒng)中,而是遠程存儲系統(tǒng)到本地存儲系統(tǒng)來讀日志卷。這樣就解除了主存儲系統(tǒng)用于數(shù)據(jù)遠程復制的資源消耗,使得主存儲系統(tǒng)的資源 100%的服務于生產(chǎn)系統(tǒng),從而提高了存儲系統(tǒng)的性能。數(shù)據(jù)一致性保證通過 “順序號” 、 “一致性組”技術,HUR 遠程數(shù)據(jù)復制軟件保證異步模式的數(shù)據(jù)一致性。HUR 遠程數(shù)據(jù)復制軟件也有效的解決了在數(shù)據(jù)復制過程中的重新同步過程中的數(shù)據(jù)不一致性問題。在傳統(tǒng)的數(shù)據(jù)復制方式下,當數(shù)據(jù)鏈路的原

42、因造成數(shù)據(jù)不能夠復制,數(shù)據(jù)遠程復制自動掛起,同時對生產(chǎn)端存儲系統(tǒng)的數(shù)據(jù)更新保存在存儲系統(tǒng)的 Bitmap 表中,當鏈路恢復后,存儲系統(tǒng)根據(jù) Bitmap 表中的記錄信息將更新過的磁道復制到備份端的存儲系統(tǒng),而在這個過程中備份端的存儲系統(tǒng)的數(shù)據(jù)一致性是不能保證的,這就是數(shù)據(jù)復制的重新同步問題。由于HUR 遠程數(shù)據(jù)復制軟件采用基于磁盤日志的工作方式,當數(shù)據(jù)鏈路斷開后,對數(shù)據(jù)的更新仍然按順序保存在磁盤日志中,這樣,當鏈路恢復后,HUR 遠程數(shù)據(jù)復制軟件仍然到生產(chǎn)端存儲系統(tǒng)的日志文件中讀取數(shù)據(jù)更新記錄,這樣就解決了數(shù)據(jù)的重新同步問題。解決通信線路故障修復后的數(shù)據(jù)“再同步”問題HUR 遠程數(shù)據(jù)復制軟件也

43、有效的解決了在數(shù)據(jù)復制過程中的重新同步過程中的數(shù)據(jù)不一致性問題。在傳統(tǒng)的數(shù)據(jù)復制方式下,當數(shù)據(jù)鏈路的原因造成數(shù)據(jù)不能夠復制,數(shù)據(jù)遠程復制自動掛起,同時對生產(chǎn)端存儲系統(tǒng)的數(shù)據(jù)更新保存在存儲系統(tǒng)的 Bitmap 表中,當鏈路恢復后,存儲系統(tǒng)根據(jù) Bitmap 表中的記錄信息將更新過的磁道復制到備份端的存儲系統(tǒng),而在這個過程中備份端的存儲系統(tǒng)的數(shù)據(jù)一致性是不能保證的,這就是數(shù)據(jù)復制的重新同步問題。一般的異步復制解決方案,為了解決“再同步”過程中的數(shù)據(jù)不一致,會要求在災備系統(tǒng)留出額外的一份“Golden Copy” (完整數(shù)據(jù)快照)空間,在“再同步”之前首先進行一個快照,以保證數(shù)據(jù)的一致性。這種方式,

44、即浪費存儲資源,又增加了額外的系統(tǒng)管理難度。由于 HUR 軟件采用基于磁盤日志的工作方式,當數(shù)據(jù)鏈路斷開后,對數(shù)據(jù)的更新仍然按順序保存在磁盤日志中,這樣,當鏈路恢復后,HUR 遠程數(shù)據(jù)復制軟件仍然到生產(chǎn)端存儲系統(tǒng)的日志文件中讀取數(shù)據(jù)更新記錄,這樣就解決了數(shù)據(jù)的重新同步問題,無需額外的“Golden Copy” 。2.8.3 HUR 異步復制軟件與友商的技術對比說明異步復制軟件與友商的技術對比說明基于存儲系統(tǒng)實現(xiàn)的數(shù)據(jù)遠程復制技術的比較功能/產(chǎn)品其他友商的異步復制技術HUR 遠程數(shù)據(jù)復制軟件生產(chǎn)系統(tǒng) CACHE占用率 高低鏈路故障管理破壞式 bitmap,重新同步按順序寫入,日志文件RPO 控制

45、30 秒同步一次實時同步對主存儲系統(tǒng)性能的影響高(由生產(chǎn)系統(tǒng)執(zhí)行復制邏輯)低(由災備系統(tǒng)執(zhí)行復制邏輯)所支持的平臺本廠商的存儲HDS 以及其它廠商的異構存儲第第 3 3 章章 數(shù)據(jù)遷移數(shù)據(jù)遷移解決方案解決方案3.1 數(shù)據(jù)遷移概述數(shù)據(jù)遷移概述3.1.1 遷移遷移目標目標數(shù)據(jù)遷移是企業(yè) IT 建設經(jīng)常面對的工作。在開發(fā)環(huán)境向運行環(huán)境轉換、低版本數(shù)據(jù)庫向高版本數(shù)據(jù)庫轉換、兩個不同數(shù)據(jù)庫之間進行轉換以至系統(tǒng)硬件升級時,數(shù)據(jù)均可能需要被轉移并使之遷移后正常運行。就本項目而言,數(shù)據(jù)遷移工作主要是指將北京中心現(xiàn)有核心業(yè)務系統(tǒng)的部分數(shù)據(jù)一次性搬遷到南方中心,之后北京中心和南方中心作為應用雙活中心同時工作,各自

46、負責一部分業(yè)務的交易處理。在此基礎上,還需要實現(xiàn)兩個中心之間的數(shù)據(jù)交叉復制,實現(xiàn)數(shù)據(jù)的遠程容災保護。3.1.2 數(shù)據(jù)遷移相關因素數(shù)據(jù)遷移相關因素在進行數(shù)據(jù)遷移項目計劃時,一些因素是必須考慮的。數(shù)據(jù)的保護數(shù)據(jù)的保護是最重要的,在數(shù)據(jù)遷移中數(shù)據(jù)的安全必須得到完全的保護。任何一個更換過個人計算機中的硬盤的人,都對因為在更換過程中對某些細節(jié)的忽視造成的數(shù)據(jù)丟失有預期和經(jīng)驗。當在企業(yè)級數(shù)據(jù)遷移中,數(shù)據(jù)備份、實施步驟的回退計劃是保證數(shù)據(jù)在遷移后的可用性的必需準備。在線或離線遷移如果應用可以暫停,則遷移過程可以更快捷;但是當今大多數(shù)系統(tǒng)有著嚴格的可用性要求。當數(shù)據(jù)遷移在生產(chǎn)環(huán)境中進行時,不僅要密切監(jiān)控數(shù)據(jù)遷

47、移的過程,而且要將遷移對生產(chǎn)系統(tǒng)的影響降到最低。維護時間窗口通常遷移工作只能在預先確定的維護時間窗口中進行。通常時間窗口是在夜間或周末生產(chǎn)活動最少的時候。這些嚴格的時間窗口的存在使得遷移項目可能表現(xiàn)出不規(guī)則間斷的情況:緊張的遷移在時間窗口中進行,然后在時間窗口關閉時停止,業(yè)務繼續(xù)運行;遷移工作只有在時間窗口再次打開后才可以繼續(xù)進行。從而使得遷移工作分散成數(shù)個不連續(xù)的多個階段性工作。遷移技術在開放系統(tǒng)環(huán)境中,沒有一個完美的數(shù)據(jù)遷移技術。每個遷移技術均有優(yōu)勢和劣勢。針對每個特定的業(yè)務環(huán)境,應該根據(jù)不同技術的特點進行仔細甄別選擇。 直接費用(人力、硬件和軟件等)因素應該和間接因素(應用停止和生產(chǎn)系統(tǒng)

48、性能影響等)結合起來作為選擇遷移技術的判據(jù)。有些需要更大的維護時間窗口,而有些對生產(chǎn)系統(tǒng)的性能會有較大影響。這些都會成為選擇相應存儲技術的考慮因素。計劃和應用停頓的容忍程度數(shù)據(jù)遷移會對生產(chǎn)系統(tǒng)有著或多或少的影響,當分析完應用可用性要求,完成維護時間窗口的選擇后,可供選擇的技術就相對比較固定。測試需求根據(jù)應用的情況,特定時間的遷移前測試和遷移后測試是必須的。因為沒有一個普遍適用的測試計劃,所以針對每個特定的環(huán)境都需要做出詳細的有針對性的測試計劃。測試的時間跨度也與應用情況相關,時間長短也是根據(jù)應用的需求決定。數(shù)據(jù)遷移的時間跨度總的來說,決定數(shù)據(jù)遷移時間跨度的最主要因素是用戶對遷移對原應用的影響的

49、容忍程度。而時間跨度與應用可用性之間密切相關。通常,在費用和可以接受的應用可用性之間有著一定的關系。越高要求的應用可用性意味著越多的費用,從而也就制約了時間跨度。經(jīng)驗表明,在沒有詳細徹底的評估環(huán)境和項目目標的情況下,進行遷移時間的預測是很困難的。一般來說,需要經(jīng)過評估,分析,計劃和實施等幾個步驟。整個環(huán)境的復雜性在數(shù)據(jù)遷移過程中涉及到各種應用和數(shù)據(jù)之間的關系,越復雜的應用環(huán)境,則相應的計劃和實施就越復雜。3.2 數(shù)據(jù)遷移方法論數(shù)據(jù)遷移方法論HDS 所提供的數(shù)據(jù)遷移服務是一種為客戶準確完整地將物理上存在的多或單點數(shù)據(jù)轉移集中至單一數(shù)據(jù)中心或單一存儲系統(tǒng)的解決方案。本方案涵蓋了主機及存儲設備的重新

50、配置,并對客戶系統(tǒng)資源進行合理的規(guī)劃,以保證在遷移集中完成后,新系統(tǒng)環(huán)境可以達到設計的要求,從而避免由于遷移集中導致的客戶業(yè)務中斷,及系統(tǒng)性能下降,同時確保數(shù)據(jù)遷移集中后系統(tǒng)的安全性及可管理性。該方案將數(shù)據(jù)遷移集中過程中對客戶業(yè)務的影響減至最小,并承諾在 HDS 與客戶雙方同意的時間范圍及規(guī)定的費用內(nèi)完成對數(shù)據(jù)的遷移。HDS 將一個數(shù)據(jù)遷移項目分為兩個階段:遷移評估設計階段和遷移實施階段。3.2.1 遷移評估設計階段遷移評估設計階段在這個階段,通過分析工具,問卷調(diào)查和現(xiàn)場訪問等手段,HDS 技術顧問收集掌握用戶主機、應用、存儲環(huán)境信息。在了解用戶將來的商業(yè)和技術目標對存儲的要求,以及理解用戶當

51、前的存儲架構的基礎上,設計未來滿足要求的存儲架構和數(shù)據(jù)遷移計劃。這個階段由以下子階段組成:項目初始化階段現(xiàn)場技術訪問階段收集數(shù)據(jù)階段分析數(shù)據(jù)階段制訂數(shù)據(jù)遷移計劃階段總結回顧階段1. 項目初始化階段這一階段對于數(shù)據(jù)遷移項目成功與否非常重要。在最初的項目會議中確認項目目標和預期。在這一階段中,項目基于用戶的要求開始并定義。主要的用戶人員被確認并聯(lián)系,項目范圍和定義經(jīng)過用戶及 HDS 項目人員的評論和確定。初步信息收集后,建立文檔資料?;谝呀?jīng)定義的項目范圍,項目人員確認并排出相應的時間表。2. 現(xiàn)場技術訪問階段在這一階段中,項目組成員進一步了解和明確用戶對數(shù)據(jù)遷移的商業(yè)和技術要求。同時對已有的主機

52、、應用、存儲環(huán)境做更多的了解和熟悉。3. 收集數(shù)據(jù)階段這一階段的目的是快速收集用戶應用系統(tǒng)相關的計算環(huán)境信息和應用架構。這些信息是對項目初始化階段得到的信息的補充和驗證。將收集到的信息整理歸檔以備分析階段使用。在這個階段,項目中涉及的每個系統(tǒng)都要進行數(shù)據(jù)收集。 這個階段是以后各個階段的基礎。從主要技術人員(比如:數(shù)據(jù)庫管理員和系統(tǒng)管理員)那里收集信息。制作系統(tǒng)環(huán)境收集表格,收集整理主機、系統(tǒng)和存儲等的詳細信息。收集整理有關數(shù)據(jù)庫和應用的信息,包括數(shù)據(jù)類型、數(shù)據(jù)可用性和數(shù)據(jù)庫性能等方面。收集整理相關 IT 人員的職責和聯(lián)系信息明確數(shù)據(jù)遷移的時間限制、維護時間窗口和停機許可等。4. 分析數(shù)據(jù)階段所

53、有收集的信息必須經(jīng)過分析和研究,然后形成數(shù)據(jù)遷移初步技術方案?;仡櫤头治鏊惺占男畔?。與技術人員求證實施計劃的可行性。5. 制定數(shù)據(jù)遷移計劃階段完整的詳盡的計劃是實施數(shù)據(jù)遷移成功的關鍵。生成應用、主機和數(shù)據(jù)庫等遷移的優(yōu)先級序列。生成初步數(shù)據(jù)遷移計劃用于分析討論。生成備用回退計劃。集中分析最小化業(yè)務中斷時間的方法。討論決定數(shù)據(jù)遷移的階段檢查點。完成完整的數(shù)據(jù)遷移方案。數(shù)據(jù)遷移針對的計算環(huán)境可以分為同構環(huán)境和異構環(huán)境。在進行數(shù)據(jù)遷移方案設計中,HDS 在普遍適用數(shù)據(jù)遷移技術的基礎上,針對異構和同構的環(huán)境,進行多種技術的結合。現(xiàn)將使用的技術情況簡列如下:I.針對同構環(huán)境:基于磁盤陣列遠程數(shù)據(jù)復制技

54、術的數(shù)據(jù)遷移?;谥鳈C操作系統(tǒng)邏輯卷鏡像技術的數(shù)據(jù)遷移?;跀?shù)據(jù)庫復制、備份和恢復技術的數(shù)據(jù)遷移?;谌焦ぞ叩臄?shù)據(jù)遷移。II.針對異構環(huán)境:基于虛擬化技術為基礎的數(shù)據(jù)遷移?;谥鳈C操作系統(tǒng)邏輯卷鏡像技術的數(shù)據(jù)遷移?;跀?shù)據(jù)庫復制、備份和恢復技術的數(shù)據(jù)遷移?;谌焦ぞ叩臄?shù)據(jù)遷移。6. 總結回顧階段向用戶闡述數(shù)據(jù)遷移計劃,并與用戶共同分析數(shù)據(jù)遷移計劃。在用戶滿意的基礎上提供完整的計劃文檔。3.2.2 遷移實施階段遷移實施階段這個階段是在遷移評估設計階段之后進行的,依據(jù)數(shù)據(jù)遷移計劃,使用適當?shù)墓ぞ撸瑢⒂脩魯?shù)據(jù)從原有系統(tǒng)遷移到新系統(tǒng)。這個階段主要由以下幾個子階段組成:項目初始化階段遷移前測試和演習

55、階段數(shù)據(jù)遷移階段遷移后測試階段總結回顧階段1. 項目初始化階段項目成員和用戶共同分析數(shù)據(jù)遷移計劃,明確使用的遷移方法和技術,準備相應所需的工具和設備。2. 遷移前測試和演習階段在正式進行生產(chǎn)系統(tǒng)數(shù)據(jù)遷移前,對原有系統(tǒng)進行測試總結,作為遷移成功與否的一個判據(jù)。根據(jù)設計的數(shù)據(jù)遷移方案,建立一個模擬的數(shù)據(jù)遷移環(huán)境,它既能仿真實際環(huán)境又不影響實際數(shù)據(jù),然后在數(shù)據(jù)模擬遷移環(huán)境中測試數(shù)據(jù)遷移的效果。數(shù)據(jù)模擬遷移前也應按備份策略備份模擬數(shù)據(jù),以便數(shù)據(jù)遷移后能按恢復策略進行恢復測試。在這個階段可以使用小規(guī)模的數(shù)據(jù)量測試檢驗數(shù)據(jù)遷移計劃的可行和完整。根據(jù)設計的數(shù)據(jù)遷移測試方案測試數(shù)據(jù)模擬遷移,也就是檢查數(shù)據(jù)模擬

56、遷移后數(shù)據(jù)和應用軟件是否正常,主要包括:數(shù)據(jù)一致性測試、應用軟件執(zhí)行功能測試、性能測試、數(shù)據(jù)備份和恢復測試等。在成功完成數(shù)據(jù)模擬遷移測試的基礎上,在正式進行數(shù)據(jù)遷移之前,進行一次遷移演習。在演習中,完全按照數(shù)據(jù)遷移計劃,遷移生產(chǎn)系統(tǒng)。實際檢測遷移計劃的可行性和效果,為真正的數(shù)據(jù)遷移做好最完備的準備。3. 數(shù)據(jù)遷移階段根據(jù)數(shù)據(jù)遷移計劃進行生產(chǎn)系統(tǒng)的數(shù)據(jù)遷移。這個階段包括所有進行遷移所需工作,比如:進行系統(tǒng)全備份,安裝臨時軟硬件,生成鏡像等。4. 遷移后測試階段測試檢驗遷移后系統(tǒng)的運行情況,進行數(shù)據(jù)驗證,為最后的驗收做準備。根據(jù)設計的數(shù)據(jù)遷移測試方案測試數(shù)據(jù)遷移結果,也就是檢查數(shù)據(jù)遷移后數(shù)據(jù)和應用

57、軟件是否正常,主要包括:數(shù)據(jù)一致性測試、應用軟件執(zhí)行功能測試、性能測試、數(shù)據(jù)備份和恢復測試等。5. 總結回顧階段根據(jù)系統(tǒng)運行正常的判據(jù),檢查驗收數(shù)據(jù)遷移后的應用系統(tǒng)。交付完整項目文檔,結束項目。3.3 數(shù)據(jù)遷移技術的選擇數(shù)據(jù)遷移技術的選擇客戶的現(xiàn)有系統(tǒng)應用系統(tǒng)架構中包括了多種主機平臺,存儲為 USP-V,與本次項目建議采購的 VSP G1000 磁盤陣列屬于同系列存儲,因此可供選擇的技術手段很多,主要包括以下幾種:1) 基于磁盤陣列之間的數(shù)據(jù)復制技術(HUR)的數(shù)據(jù)遷移。2) 基于文件系統(tǒng)復制技術的數(shù)據(jù)遷移。3) 基于數(shù)據(jù)庫復制技術的數(shù)據(jù)遷移。4) 基于數(shù)據(jù)庫備份和恢復技術的數(shù)據(jù)遷移。5) 基

58、于三方工具的數(shù)據(jù)遷移。3.3.1 可選的數(shù)據(jù)遷移技術可選的數(shù)據(jù)遷移技術對于業(yè)務數(shù)據(jù)的遷移,目前主要采用如下五種方法:1)基于磁盤陣列之間的數(shù)據(jù)復制技術(HUR)的數(shù)據(jù)遷移。2)基于文件系統(tǒng)復制技術的數(shù)據(jù)遷移。3)基于數(shù)據(jù)庫復制技術的數(shù)據(jù)遷移。4)基于數(shù)據(jù)庫備份和恢復技術的數(shù)據(jù)遷移。5)基于三方工具的數(shù)據(jù)遷移。最后的遷移方案應該是上述方案的結合,我們會在上述方法結合過程中找到最佳數(shù)據(jù)遷移方案。 基于磁盤陣列遠程數(shù)據(jù)復制技術的數(shù)據(jù)遷移基于磁盤陣列遠程數(shù)據(jù)復制技術的數(shù)據(jù)遷移對于兩套同系列的磁盤陣列,可以通過陣列之間的數(shù)據(jù)復制技術來實現(xiàn)數(shù)據(jù)的遷移,如目前的 HDS 的 TureCopy、

59、HUR 復制技術,EMC 的 SRDF 技術,都可以實現(xiàn)在兩套磁盤陣列之間的數(shù)據(jù)遷移,并且此種方法不占用主機資源,對應用透明。但是源磁盤陣列和目標磁盤陣列必須是同一廠家的同一系列的產(chǎn)品,而且遷移過程對生產(chǎn)系統(tǒng)有一定的性能影響。方案優(yōu)點這種遷移方案的好處在于對應用透明,無論需要復制的數(shù)據(jù)是結構化的數(shù)據(jù)庫,還是非結構化的文件系統(tǒng),磁盤陣列都會采用數(shù)據(jù)塊的方式將其復制過去,因此適用方位非常廣,幾乎所有具備條件的環(huán)境都能夠實現(xiàn)。方案缺點這種遷移方案會將數(shù)據(jù)原封不動的復制過去,因此無法對目標數(shù)據(jù)進行重新規(guī)劃安排,例如目標卷大小的調(diào)整,甚至數(shù)據(jù)庫版本的變化等等,都必須在復制完成成功啟動新數(shù)據(jù)之后才能進行。 基于文件系統(tǒng)復制的數(shù)據(jù)遷移基于文件系統(tǒng)復制的數(shù)據(jù)遷移文件系統(tǒng)的復制技

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經(jīng)權益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責。
  • 6. 下載文件中如有侵權或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論