EMC存儲最佳實踐培訓手冊_第1頁
EMC存儲最佳實踐培訓手冊_第2頁
免費預覽已結(jié)束,剩余44頁可下載查看

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領(lǐng)

文檔簡介

PAGEPAGE7BestPracticeFromDOITWIKIJumpto:navigation,search版權(quán)聲明EMCR22的版權(quán)歸美國EMC公司所有,[感謝DOSTORDOSTOR明。名目隱藏]1一。關(guān)于性能的探討1。11.性能的定義1.22。應用的設(shè)計1。2。1A.I/O1.2.2B.I/O的大小(temporalpatternsandpeakactivities)1.33.主機文件系統(tǒng)影響1.3。1A.文件系統(tǒng)的緩沖和組合(coalesce)size1.3.3C.I/O1.3.4D.fragmentation1.3.5F.校正對齊問題1。3。6G.LinuxI/Ofragementing1。44VolumeManagers1。4。1A.Plaid應該做的1。4。2B。Plaid不應該做的1。4。3C。Plaid為高帶寬的設(shè)置1.4。4D.PlaidsandOLTP1。55.HBA1.5。1A.HBA1。5.2B。Powerpath1.66。MetaLUNs1。6.1AmetaLUN1.6。2B.MetaLUN1.6.3C.MetaLUN1。77.存儲控制器的影響1.7。1A.CLARiiON1。7.2B.磁盤的級別和性能1。88.RAID1.8。1A.緩存的大小和速度1。8.2B.緩存的設(shè)定1。99。后端設(shè)備(磁盤的子系統(tǒng))1。9.1B.LUN1.9。2C.系統(tǒng)和啟動硬盤的影響1。9.3D.LUNRAID1。9。4E.最小化硬盤的競爭1.9.5F.StripeStripeelement1。9。6G。CLARiiONRAID5stripe1.9.7H.RAID1。9。8I.在一個存儲系統(tǒng)里應該使用多少個硬盤1.9。9J.2二.為可用性和冗余做考慮2.11。高可用性的配屬2.22.RAID-level2。2。1A。RAID52。2。2B。RAID1/02。2.3C.RAID32.2。4D.熱備份(Hotspares)2。33.RAIDDAE2。3。1ADAE2。3.2B??绾蠖丝偩€綁定硬盤2。3.3C.DPE2。3.4D.熱備份的策略2.44。數(shù)據(jù)復制的持續(xù)性[編輯]一。關(guān)于性能的探討性能調(diào)優(yōu)有多重要呢?在一個Raid55—9設(shè)置,CLARiiONEMCCLARiiON的。但是,有一些工作情景還是需要調(diào)優(yōu)來實現(xiàn)存儲系統(tǒng)的最佳配置。為什么在陣列組里用5到9為這個配置有什么格外的優(yōu)化。然而,Raid5校驗開銷,而大的陣列組則會花更長的時間來重建數(shù)據(jù)。的信息是格外有協(xié)助的,尤其當你充分理解了你的陣列的工作情形.因此,EMC易見的選擇,所以在有疑問的時候最好是依據(jù)默認的配置和保守的評估。[編輯]1。性能的定義EMCCLARiiONFibreChannelStorageFundamentals帶寬校驗讀取隨機響應時間要求數(shù)據(jù)大小Requestsize挨次條帶條帶元素Stripeelement吞吐量Write—aside[編輯]2。應用的設(shè)計化。任何存儲系統(tǒng)的調(diào)優(yōu)都不行能建立一個格外差的應用設(shè)計上面。[編輯]A。為挨次或者隨機I/O格外典型的一個例子是,提升帶寬在挨次訪問的調(diào)優(yōu)方面會起顯著作用,由于存RAID5調(diào)優(yōu)則要改善吞吐量和更快的響應時間,由于這樣會改善處理顧客響應所花的時間.CLARiiON的機制的應用。寫到writecache(SP)。寫到帶校RaidGroupRaidGroupwritecache,這cache,也可能不命中還是需要從磁盤里面抓取。假若要達到高的隨機讀取吞吐量,需要更好的協(xié)作(concurrency).[編輯]BI/O的大小I/OCLARiiONI/OI/OI/O時候后段總線的速度將會成為系統(tǒng)的性能瓶頸。小塊的隨機訪問應用(例如OLTP)的瓶頸在于磁盤(的個數(shù)),而且很少達到后端總線速率。(的個數(shù))IOP用基于總線的帶寬來衡量.I/OwritecachingprfetchingbypassI/Ocache用。這些相互作用在“TheRaidengineCache”里會探討到。“Hostfile-systemimpact”中描述到.[編輯]C。臨時的模式和峰值的表現(xiàn)(temporalpatternsandpeakactivities)處理的時候,需要好的挨次性能.一般來說,對OLTP和消息應用(任何跟大量隨機訪問I/O有關(guān)的),更高的并I/Ovolumemanager.當最佳(I/O100的設(shè)置中獲得一個可接受挨次性能。[編輯]3.主機文件系統(tǒng)影響requestsize,文件系統(tǒng)也影響了應用I/O[編輯]A.文件系統(tǒng)的緩沖和組合(coalesce)緩沖然而,還是會有一些意外。一般來說,應用自己來調(diào)配緩沖,能避開文件系統(tǒng)的緩沖或者在文件系統(tǒng)的緩沖之外工作。這是基于應用能更加有效的分配緩沖的假設(shè)之上。而且,經(jīng)過避開文coalesceI/O64器里RAM的容量將會提升到32GB或者更多,這也就有可能把這個文件系統(tǒng)都放(寫操作應該使用寫透(write—through)的方式來達到數(shù)據(jù)的持續(xù)性.)結(jié)合Coalescing文件系統(tǒng)的coalesce能協(xié)助我們從存儲系統(tǒng)里獲得更高的帶寬。在大部分挨次合Coalescing.例如,這種處理方式能夠和備份程序一塊把64KB的寫操作結(jié)合writecachebypassRaid[編輯]BI/Orequestsize文件系統(tǒng)通常都被配置成一個最小的范圍大小,例如4KB,8KB或者64KB,這是I/O時候,會導致許多不必要的數(shù)據(jù)遷移和/read-modify—write也是考慮應用和文件系統(tǒng)文件的最佳設(shè)置的最好方式.(itisbesttoconsultapplicationandfilesystemdocumentationfortheoptimalsettings)而requestsizeRawpartitions,則沒有受到這個約束。[編輯]CI/O假若想要快速的移動大量的數(shù)據(jù),那么一個大的I/O(64KB或更大)會更加有協(xié)助.在整合(coalescingRaidGroupstripeI/Ostipesrtipetoplogy[編輯]Dfragmentation避開fragmentation和defragementation在一塊,這是一個基礎(chǔ)的原則。著重NTFS件級別的拷貝(LUNdefragement什么會導致這種狀況。blocksize16KBI/O8KB(例如ExchangeOracle),工作負載將會從對齊中獲得I/O6%(4KB)12%(8KB)的I/O都會造成跨盤操作(碰巧的是他們可能會以并行的方式來完成).這種額外的收益可能很難在實踐中著重到。但假若當一個特定的文件系統(tǒng)和/或應用鼓舞使用(offset)被注明,EMC調(diào)整分區(qū)。NavisphereLUN的綁定位移(offset)工具應該要小心的使用,由于它可能反而會影響分層的應用同步速度。IntelIntelwindows2000/windows2003,都會受到在LUN上元數(shù)據(jù)的位置的影響,這也會導致磁盤分區(qū)的不對齊。這是由于遺留的BIOS的代碼問題,BIOS里面用的是磁柱,磁頭和扇區(qū)地址來取代LBA地址.(這個問題一樣影intellinuxwindowsNT,2000,和2003。這個intelVMWarefdisk命令,正如windowsDiskManager,MBR(MasterBootRecord)放在63CLARiiONRAIDstripe對齊。bootloader/或磁盤管理軟件,VMware,位移(offset)63。I/OI/Ostripeelement64KB64KB7stripeelementI/O,會導I/OPercentageofdatacrossing=(I/Osize)/(stripeelementsize)cache填充的時候,這種開銷會變得更大.aa[編輯]F。校正對齊問題。NavisphereLUN(offset)b。使用分區(qū)工具LUN,只要使用其中一種,不是兩個.這個是我們常常要強調(diào)的。basecomponent(就是那LUNLUNmetaLUN時候,metaLUNmetaLUN,不需要再調(diào)整了。假若用了分區(qū)工具的方式,這個調(diào)整只需要在用戶第一次對LUN分區(qū)的時候來做。用什么方式來做當沒有基于主機的程序在使用的時候,我們能夠使用LUN對齊位移的方式。LUN對齊位移方式對一些復制的軟件操作,如clonesyncI/O,SnapViewCopyOnWriteopertionsMirrowViewsyncI/O,SANCopyI/Ostrip跨盤的問題。假若能夠,使用基于主機的分區(qū)工具方式。LUNSnapView,SANcopy,MirrorView。相反,應該使用基于主機的分區(qū)工具方式。LUNstripeLUNRAIDstripeLUNRAIDstripe大小,會讓(MBR)28LUNRawLUNrawLUNLUN也會產(chǎn)生跨磁盤的操作。boundblock512bytewindows200363個block設(shè)置為位移量。FLAREstripe,因此用戶的數(shù)據(jù)就會從stripe開頭。andLUNoffsetcorrection磁盤分區(qū)的對齊基于主機的分區(qū)程序使用增加可設(shè)定地址的區(qū)域的起始部分,來校正對齊的問RAIDstripelementstripLUNRAIDstrip的起始secondaryLUN。磁盤分區(qū)對齊和windows的系統(tǒng)ResourceKit)的一部分,能夠用來設(shè)定分區(qū)位移的開頭。你必需要在數(shù)據(jù)寫入LUN會丟失掉。9PAGEPAGE12diskpartelementsize128blocks)。對待高LUNstripesizediskpari的選項:diskpar-ix(新的大小是磁盤個數(shù))來檢查已經(jīng)存在的位移:C:\>diskpar-i0Drive0GeometryInformation—<deletedforbrevity>DrivePartition0Information--—-StatringOffset=32256PartitionLength=40007729664HiddenSectors=。。。著重HiddenSectors的值。這就是分區(qū)的位移的數(shù)值1.假若磁盤X2.假若磁盤XRaw—sX(X5.輸入新的起始位移(單sectors)MB)MBR區(qū)信息出現(xiàn)了。diskpar-ix(x)來復查新近創(chuàng)立的分區(qū)上的信息。windows系統(tǒng)64windows,MBRGPT(32MB)是沒有對齊的。linux系統(tǒng)中的磁盤分區(qū)調(diào)整linuxLUN(map)LUNLUNstripeelementsize是。fdiskx#expertmodeb#adjuststartingblocknumberpartition1128#setitto128,ourstripeelementsizew#writethenewpartitionLUNSANCopysourcestargets樣適用的對待VMWare的磁盤分區(qū)調(diào)整VMware會更加復雜,由于會有兩種情況存在。上來實現(xiàn)對齊的。例如,在windowsdiskparfdiskdiskparVM層次。這是由于不管是ESXServerMBRLUNESXVMFSESXServer:Onserviceconsole,execute"fdisk/dev/sd<xwheresd〈xisthedeviceonwhichyouwouldliketocreatetheVMFSType”n"tocreateanewpartitionType”p"tocreateaprimarypartitionType"n"tocreatepartition#1SelectthedefaultstousethecompletediskforpartitionsType"1"toselectpartition#1Type”128"tomakepartition#1toalignon64KBboundaryType”r”toreturntomainmenuType”t”tochangepartitiontypeType”fb”tosettypetofb(VMFSvolume)Type"w"towritelabelandthepartitioninformationtodiskfb,ESXServerVMFSMUIvmkfstools,VMFS對待Linuxwindows也是依據(jù)上面的程序步驟來做。[編輯]G.LinuxI/Ofragementingcoalescing.一個有一個單一的大的文件.LUN的融合和偏移LUNLUNLUNstripesizeLUNLUN,boundstripeBindOffset。[編輯]卷管理器VolumeManagers對卷管理器的主要性能影響因素,是CLARiiONLUNstripe(我們plaidstripeonstripe)。RAID(如Raid3,Raid5)的應用。這會(校驗保護而這其實讓存儲系統(tǒng)來實現(xiàn)這個服務(wù)會更加好.圖三顯示了在以下章節(jié)中辯論到的三種不同plaid技術(shù)[編輯]Plaid應該做的(stripeelement)CLARiiONLUNstripesizestripeelement512KB1MB。CLARiiONLUNstripe。(stripesize,diskcount,RAIDtype,等等)。[編輯]Plaid不應該做的RAIDgroupLUNstripe(譯者注:stripestripe12PAGEPAGE17)在一塊。這是由于會造成大量的磁盤尋道.假若你從一個磁盤組需要捆綁LUN,concatenatestripingstripeelementCLARiiONRAIDstripesizestripesizeRAIDGroup,或者根本不同會出現(xiàn)未知的因素.[編輯]Plaid為高帶寬的設(shè)置plaid(并行訪問)。plaidHBACLARiiON(SP)共同為一個volumeCLARiiON系統(tǒng)之上.增加協(xié)作Plaid(也就是說,讀一個單一的大文件)的時候會比較有用。LUN。從多個存儲器分布式訪問30TBarray錯——例如由于一個存儲系統(tǒng)上的一個組件的出錯而導致的寫緩存的停用—-將會影響到整個文件系統(tǒng)。[編輯]PlaidsandOLTPPlaids會從多個硬盤數(shù)中得益。plaidplaid一個CLARiiONRaidgroups(plaid-看圖三中的配置C)而結(jié)束.困難的。I/Osizes(8KB)和隨機的訪問.卷是受制于一天中不同時間的爆發(fā),而不是同一時刻。[編輯]主機HBAHBA器的雙路徑。雙路徑對性能的影響,主要看管理者如何去從系統(tǒng)資源里得到負載均衡的能力。在對存儲系統(tǒng)調(diào)優(yōu)的時候,必需牢記HBAEMCE-Lab設(shè)置磁盤和固件的建議,而我們必需要按這些建議來操作。[編輯]A。HBAI/Osize[編輯]BPowerpath一個單一連接到一個交換機的系統(tǒng)(允許主機繼續(xù)訪問,當軟件升級的時候)還是在一個徹底冗余的系統(tǒng)。failover,Powerpath(SP)LUNLUNPowerpathbyteCLARiiONSANHBASPSPfailoverSPHBA(假設(shè)HBA)Powerpath一些主機的CPUfailover在一些情形下,活躍的路徑會增加一些時間SPSP)由于這些事實,活躍的路徑應該受到限制,經(jīng)過zoning,到兩個存儲系統(tǒng)的端HBA[編輯]MetaLUNsmetaLUN。[編輯]AmetaLUNmetaLUN和卷管理器之間還是有許多重要的明顯的區(qū)分。SCSI目標對比許多的SCSIMetaLUN要求只有一個單一的SCSILUN被影射到主機;這個主機并不能看到組metaLUNLUN。這會讓管理員在以下幾個情形下得益:對待由于OSLUN機對待那些增加LUNSCSI條目。沒有卷管理器不是所有的操作系統(tǒng)都有卷管理器的支持。MSServerWin2000/2003集群使Services(MSCS)并不能使用動態(tài)磁盤。MetaLUN能夠為這些系統(tǒng)提供可擴展的,stripeconcatenated(連接的)卷的解決方卷的復制假若卷是要被使用SnapViewMirrorViewSANCopymetaLUN卷訪問共享的介質(zhì)metaLUNMetaLUN能夠在兩個的主機存儲組之間應用。存儲處理器(SP)的帶寬CLARiiONSPLUN上來建立。一個卷管理器允許用戶訪問存儲器,經(jīng)過許多個SP的集合起來的帶寬。卷管理器和并發(fā)訪問striperequest(stripesegmentrequestcomponentLUN實現(xiàn)的。[編輯]B.MetaLUN合的(hybrid)。這個章節(jié)會做出幾個通常的推舉。對那些想要更多細節(jié)的人來說,接下來的章節(jié)中將會定位建立metaLUN和相關(guān)每種類型的優(yōu)點的策略和方式。什么時候使用metaLUN經(jīng)過前面的卷管理器的辯論,應該在以下情形下使用metaLUN:(每一個卷都需要格外多的許多磁盤)當要求LUN的擴展的時候metaLUNstirpemultiplier(增加的)。ComponentLUN的類型用來綁定在一個metaLUNLUNmetaLUNI/ORaid的類型(“Raid),I/O當綁定componentLUN的時候,使用以下規(guī)則:當為metaLUNLUNstripeelementsize(128block)總是激活讀緩存和寫緩存componentLUNwrite-aside擎緩存”里面會被提到)盤(3+1RAID1/0磁盤組的時候,至少使用41+1metaLUN選擇)stripe的對齊.MetaLUNMetaLUNstripemetaLUN,由于他們能體現(xiàn)出我們能預LUNmetaLUN,會更加便利;這可能在擴展一個對性能并不敏感的卷會更加合適。HybridmetaLUNstripeconcatenateLUN.這個方式被用來克stipestripemetaLUNconcatenatestripecomponentstripecomponent可估計的性能,也允許用戶用來擴展一個stripe的metaLUN而不用(。圖四展示了這一點.hybrid—stripedmetaLUNstripe設(shè)置的LUN將會分布在同樣RAID類型的不同的RAIDstripecomponentcomponentRAID以便使空間變的可用。這個方式在“metaLUN擴展方式”里會演示。metaLUNrestripe(把這個重分條經(jīng)過設(shè)置成中等優(yōu)先級別),也會對主機性能有更小的影響。stripemultipliermetaLUNstripeelementsize:Stripemultiplier*baseLUNstripesize=metaLUNstripesegmentsizeMetaLUNstripesegmentsizecomponentLUNI/O。metaLUNstripeelement1MBRAIDmetaLUNstripeelementcomponentLUN1)。使用以下規(guī)則來設(shè)置stripemultiplier:RAID組。18RAID1/03(3+3)。五個RAID54(4+1)multiplierstripemultiplier。對大部分情形來說,這是一個默認的,也是一個好的選擇。MetaLUNSnapViewMirrorViewmetaLUN0。使用磁盤分區(qū)工具來調(diào)整分區(qū)的位移。MetaLUNATAATAI/O磁盤作為高帶寬的應用。保持RAID組的足夠小,是metaLUN策略的一部分。這會使ATA硬盤更加合理,由于小的磁盤組比大的會有更小的重組時間。但是,必需意識到的時,metaLUN會被一個單一的磁盤組的rebuildATArebulid基于數(shù)據(jù)可用性的考量,在格外多的環(huán)境里,我們最好避開使用ATA硬盤來做metaLUNCLImetaLUNstripebaseLUN30metaLUNFLARELUNmetaLUNLUN,RAIDmetaLUN30identifier。30–lus313233–nameP1H00–elszm4–typeS19elementsize(4)是由于LUN5RAID5[編輯]C。MetaLUN確認你的目標。在接下來的章節(jié)會出現(xiàn)的一些可能的目標如下:去好的挨次/帶寬的性能有效的利用容量靈活的擴展設(shè)備這些都是使用metaLUN的用戶的主要的目的。擴展模式的初始化配置初始化安裝的規(guī)則在圖5中闡明。這些規(guī)則是:為初始化容量部署,來部署所需要的磁盤建立合適大小的磁盤陣列組:a。 對待RAID1/0,使用4或6個硬盤RAID5RAID3,5set4—8RAID那么需要更多的磁盤組)Raidset。metaLUN,經(jīng)過用RAIDRAIDsetmetaLUNcomponentLUN小。metaLUNcomponent.metaLUNLUN,RAIDsetRAID組.5setmetaLUNRAIDset20。metaLUN5,metaLUNRAIDLUNsetRAIDmetaLUNRAIDset為什么要使用RAID組的set?假若我們不允許一個metaLUN來擴展到自己的set以外,我們能夠做出肯定級別的隔離,將這種影響控制在磁盤的級別。例如,一RAIDsetRDBMSRAID1RDBMS6216:RAIDsetmetaLUN服務(wù)器訪問他們自己的數(shù)據(jù)名目或者日志。擴展模式的的擴展程序下一步是建立擴展的策略。擴展的目標:維持擴越許多磁盤的分布更有效的利用容量達致這個目標的途徑setRAID對metaLUN里的set里面的RAID組進行擴展stripecomponentMetaLUN-—-I/O分布在所有的磁盤上。22,ISMetaA—85%——同時也會metaLUNAsetRAIDRAID儲增加了一個磁盤的容量(66GB),77.對metaLUNmetaLUNsetRAIDLUN。他們必需要擴展的總160GB,而我們在這個metaLUNsetRAID160/4=40.40GBLUNsetRAIDmetaLUNLUNLUNstripecomponentmetaLUN,來組成這LUN.(8)8:MetaLUNCLI(命令行concatenatestripecomponentmetaLUNmetaLUNidentifier30FLARELUNRAID23metalun–expand–base30–lus34353637–typecC,concatenateNavishperestripeLUN上面去。LUNmetaLunRAIDmetaLUN,掉轉(zhuǎn)你為每metaLUNbaseLUNRAIDhotedge9metabaseLUNRAID面.[編輯]存儲控制器的影響這個章節(jié)指導用戶怎么使用CLARiiON的硬件來匹配相對應的性能要求.[編輯]CLARiiONEMCCX4Gb/s2Gb/s,CX3—20CX3-40,4GbCX500CX7002GbSP認真的調(diào)研。基于磁盤的OLTPloopspeedDSSCX324rebuild(4+1)Raid5hotspare4Gb15k73Grebuild30CX70050%8KB(Read/Write=2:170%的磁盤利用率(典型的OLTP),則這個經(jīng)過rebuild6,1218[編輯]磁盤的級別和性能CLARiiON存儲系統(tǒng)通常使用RAID5來做數(shù)據(jù)保護和性能的應用。當適當?shù)臅r候,RAID1/0,但使用RAID1/0CLARiiONBlockStorageFundamentals白皮書來認識為什么RAID5好的性能。什么時候使用RAID5DBAread-aheadRAID5RAID5有適度的IO/s—per-gigabyte工作負載I/O(DSS)的數(shù)據(jù)庫(計算銷售記錄的統(tǒng)計分析)25PAGEPAGE33RDBMS的名目空間(個人的二元內(nèi)容的紀錄,例如照片)RDBMS消息應用圖像/流媒體什么時候使用RAID1/0RAID5I/O繁忙的事務(wù)性的OLTP大的消息的安裝實時的數(shù)據(jù)/業(yè)務(wù)記錄(賬目平衡)RAID盤出現(xiàn)問題的時候,RAID1/0什么時候使用RAID3RAID5stripeRAID5RAID5RAID3的帶寬。RAID3現(xiàn)更高的讀帶寬:2MB)3)文件沒有打碎。必需認識的是:對待許多的挨次的應用,從陣列得到的帶寬,通常是取決于componentATABBC/loop個數(shù)。在這些情形下(在任何有隨機的工作負載的情形),最好還是使用RAID5RAID3,RAID3componentRAID1在R161+1RAID1/0RAID1.RAID1/01+1RAID1[編輯]8。RAIDSP[編輯]緩存的大小和速度ChannelStorageFundamentalscache大小對性能的影響,我們有全面的信息。20%作為讀緩緩存,而其他的作為讀緩存。Cache在許多環(huán)境里,產(chǎn)品的工作負載對待一天的不同時間來說,變化是格外多的。例會是OLTP居多;而從5 工作負載可能變成作為報告的多線程的挨次訪問而從之后,備份系統(tǒng)工作開頭。假若需要為不同類型的工作負載調(diào)優(yōu),可用NavisphereCLI的腳原來調(diào)整cache的參數(shù)。一些參數(shù),例如SP的讀緩存的開啟/關(guān)閉,SP的存的大小,LUN的讀和寫的緩存的開啟/關(guān)閉,LUN預讀取設(shè)置,和警戒線的設(shè)置都能夠被不間斷存儲器工作的情況下被轉(zhuǎn)變另外,如SP的寫緩存的大小和頁面大小的調(diào)整,會要求SP寫緩存被關(guān)閉,這個時間段會嚴峻影響寫操作的響應時間,因而操作要盡快完成。[編輯]B的設(shè)置。緩存的開啟/關(guān)閉大部分工作負載都會從讀緩存和寫緩存里面得到好處;兩者默認的設(shè)置是開啟。(的環(huán)境(沒有挨次訪問)的LUN,并不會從讀緩存里受益。同樣的,有許多同時(通常是DSS)的LUN(或者關(guān)閉預讀取)到一個“中間"的帶寬,即在盡快的模式和最小的SP利用率之間取得平衡。當NavisphereCLILUNLUNwrite-aside“write—aside”)。頁面大小I/Ocacheblock最佳的。SnapView,MirrorView/A,SANcopy16KB64KBblock.假若block60/40.5RAIDCLARiiONRAID5stripoptimizations"里有更多的相關(guān)信息。HAvaultCacheHACacheVault上面默認的設(shè)置是開啟的。在EMCCLARiiONFibreChannelStorageFundamentals(在那個白皮書里有說明會導致寫緩存的關(guān)閉和把緩存上的內(nèi)容導到開啟的狀態(tài)。因而,用戶能夠自己選擇。為什么這作為一個選擇呢?清除這個選項,會導致顧客有可能遭遇到數(shù)據(jù)丟失的三種情形:假若一個系統(tǒng)硬盤壞掉了,那么數(shù)據(jù)將不會倒入。假若另一個系統(tǒng)硬丟失.預讀取的設(shè)定預讀?。ㄗ兞?segment和倍數(shù)都設(shè)置為4)的默認設(shè)置對大部分工作負載來說,CLARiiONSPEED高和低的水位線和flushingCLARiiON(watermark)全局的設(shè)置—--高和低-—flushingstoragefundamentals(80%作為高水位線,60%作為低水位線)能夠提供最好的性能.flush,影響了主機的寫的工作負載,那么需要降低水位線。降低水位線會導致更加劇烈的flush,這會讓更多的空閑的緩存頁面來存放爆發(fā)的數(shù)據(jù),這樣的代價是從寫緩存里讀命中會更加的少。對待小一CX60/40flushWrite-aside的最大的寫請求。謝操作大于這個大小的,會不經(jīng)過寫緩存。越了寫緩存鏡像的最大帶寬。這個代價就是被旁路的那些I/O會比載入緩存的I/ORAID(RAID5RAID3),必需保證以下條件:I/OLUNstipe繁忙中I/OstripeFullStripeWrites(請參看“CLARiiONRAID5stipeoptimizations”)RAID使用write—aside的折衷如下:讀來說,并不是可用的。的響應時間要長.必需要著重的是徹底的SANCopy是使用512KB的傳輸大小.默認的write—aside2048block1MB。因而,徹底SANCopy2+1,4+18+1RAID54+18+1RAID3stripeLUNLUNwrite—asidewrite—asideNavisphereCLIchgluncommand。在兩個SP(存儲控制器之間)取得負載平衡SPSPSPNavisphereAnalyzer[編輯]9.后端設(shè)備(磁盤的子系統(tǒng))[編輯]LUN使用LUN的分布的主要目的在于:后端總線涉及到一對所有CLARiiONloop(一個對4)RAID自于這樣的一個RAIDLUN,會被分別稱之RAIDLUN.RAIDLUN。LUNRAIDLUN的分布的規(guī)劃的時候,把LUN的容量列個賬目.計算常常要訪問的存儲的容RAID在需要高帶寬的應用里面,應該要小心謹慎的去分布那些涉及到跨越后端loop8loop(CX3-80CX700)808loopSPLUNLUNSP。RAIDLUNSP當作MetaLUNmetaLUNLUNbaseLUNSP;他們原先默認的歸屬權(quán)將會被取代.因metaLUNSPASPBLUNSPLUN[編輯]系統(tǒng)和啟動硬盤的影響5作的.作為緩存的系統(tǒng)硬盤I/O(把緩存里面的數(shù)據(jù)倒入到系統(tǒng)盤里)(在此期間沒有主機的訪問)0—4)所有的這些情形都會在一個存儲器故障的時候適用.在主機訪問時發(fā)生故障的主要的影響是寫緩存被關(guān)閉了.假若寫緩存被關(guān)閉了,整體性能會受到影響,主機的寫操作會有一個更加長的相應時間(尤其對)速度,都會在把數(shù)據(jù)倒入系統(tǒng)盤的dump因而,一個正在RebulidRAIDNavisphereHAVaultrebuildTheHAvaultoptionandwritecachebehavior”章節(jié)會有更多的細節(jié)。)系統(tǒng)硬盤的重建比其他RAID組里的硬盤的重建更加重要,由于系統(tǒng)硬盤是一個校驗保護的區(qū)域,所以所有系統(tǒng)硬盤在重建的時候都會格外的繁忙。同時,另外一些到FLAREPSM(看以下說明)的數(shù)據(jù),包括以下應用:Exchange數(shù)據(jù)卷主機啟動卷群集的共享磁盤的卷有較重負載的RDBMS名目表(30),而用戶也要求使用這些硬盤來作為中I/O),HAVault個選項應該被清除掉。LUN,在系統(tǒng)硬盤故障之后的寫緩存的重新開啟需要更LUN的時間里,忍受著格外糟糕的響應時間.OS(存儲控制器的I/O。FLARE數(shù)據(jù)庫硬盤和PSM個對配置數(shù)據(jù)的三鏡像的保存。這些硬盤為性能方面做了一些考慮.NavispherePSMI/O,可能會造成升級經(jīng)過的中止聯(lián)結(jié),所以我們推舉在開頭100IO/s.I/ONavisphereLUNI/O已經(jīng)有很重的負載的時候,能夠經(jīng)過分布數(shù)據(jù)的訪問來確保Navisphere能得到好的響應時間。[編輯]LUNRAIDRAIDLUNLUNSPALUNSPBLUNRAIDRAIDLUNmetaLUNLUN。RAIDRAIDLUN。(Table3)LUN101LUNmetaLUN,選擇SP)metaLUN101I/O,RAIDTable3SPABRAID。ABFCLCFCATAATA(多路復用(NavisphereRAID替,是基于綁定時間,而不是基于LUN)在RAIDABSPLUN分配到主機的操作已經(jīng)完成格外是沒有考慮預期的工作負載的時候。[編輯]33PAGEPAGE35RAID盤的性能變得更加困難。CLARiiON的指導方針是必需遵循的。在生產(chǎn)經(jīng)過中備份得到格外好的性能,由于讀操作能夠分布在格外多的軸里面.在中度的負載如消息應用下,RAID5flushes先級提升了,那么會降低讀的訪問速度。LUNcloneLUNLUN操作會導致格外高的尋道時間和格外差的性能.LUNcloneLUNcloneLUN放在不同的硬盤組里面。ATALUNcloneRAIDLUNRAID[編輯]StripeStripeelement128block64KB。沒有任何的理由來轉(zhuǎn)變它。[編輯]CLARiiONRAID5stripeEMC4+18+1RAID5.這通常是不必要的,而且通常是基于對CLARiiONRAID技術(shù)的不徹底的理解.對大部分情形,用來綁定一個要求的硬盤的RAID.4+1/8+1stripe—write(帶寬)的優(yōu)化.flyFullStripeWriteRAID5ModifiedRAID3(MR3)RAID5MR3EMCCLARiiONRAID4+18+1-——MR3RAID5組下使用。stipeI/Otripe。但是,這個步驟仍然有以下的要求:stripe,8KB16KB。864KBstripeelement,stripeKB=768KB.MR3,8KB4KB[編輯]每一個RAID組的硬盤的個數(shù)10RAID組會導致以下問題:rebuild(RAID)I/O(10)由于會有額外的尋道的延I/OLUNmetaLUN大的軸的數(shù)量跨越許多個硬盤的數(shù)據(jù)分布,對那些隨機訪問的,而且主機能產(chǎn)生足夠多的并發(fā)I/O,那么高的并發(fā)訪問是能夠達到.stipemetaLUNRAIDMetaLUNRDBMSRAIDcheckpoint[編輯]I.在一個存儲系統(tǒng)里應該使用多少個硬盤增加硬盤并不能線形地擴展工作負載,這就使性能會像升高后的一個平坦的曲線。這些都會在“sizingthestoragerequirement"里面談及,但以下是嚴謹?shù)淖畲蠡阅芤恍┐篌w的方針。列在Table4從中等變?yōu)楦哓撦d的情形下,為并發(fā)的活躍的硬盤而設(shè)置的。[編輯]J目前來說,CLARiiON系統(tǒng)能夠使用以下的硬盤類型和大?。?0000rpm(73,146,300GB)15000rpm(73,146GB)5400rpmATA(320GB)7200rpmSATA(250,500GB)7200rpm(500GB)硬盤大小的影響硬盤和主機之間的協(xié)議層次,還是會使硬盤內(nèi)部的傳輸速率和主機訪問速率隔絕開來。簡而言之,這個影響是格外小的。gigabyte盤的容量更加重要.(performanceguru)會被常常問道:300GB硬盤的性能怎么?回答:跟其他10Krpm的光纖硬盤幾乎一樣.但是,就像他要考慮容量需求一樣.36PAGEPAGE43轉(zhuǎn)速對待同樣的硬盤技術(shù),更高的轉(zhuǎn)速會帶來更好的性能。更高的轉(zhuǎn)速會讓硬盤的尋rpm率。光纖通道硬盤準達不到的層次.轉(zhuǎn)速對光纖通道硬盤的速度由格外大的影響,由于這些硬盤能夠格外有效的提升軸的速度。機的讀操作.對待隨機的寫操作,他們首先會寫入SP的寫緩存里面,更高轉(zhuǎn)速的影響是更快的cache的刷新。擁有更快的刷新的緩存能夠讓存儲系統(tǒng)有更高的I/O結(jié)果是,當系統(tǒng)的隨機負載達到了最高負荷的時候,15Krpm響會相對較小.DAEATA硬盤和光纖硬盤是不行以混插在同一個硬盤柜里。假若一個系統(tǒng)系統(tǒng)使用不同容量和/或者不同速度的硬盤(例如,146GB和73GB,10K15K)在同一個硬盤柜里,那么EMC的挨次,如以下所說:)的槽里面,然后再放更低容量的硬盤。2Gb/s4Gb/s硬盤的總線上的時候,會把整體的總線速度降2Gb/s,這確定會影響到性能。ATARAIDATA硬盤在使用RAID3的時候,對待帶寬敏感的應用表現(xiàn)良好。對待隨機的I/OLUNclone,RAID1/0。RAID5“ATAdriversasmirrortargetsandclones”提供了更多的細節(jié)。RAIDATARAIDLUN求.)ATACloneATA硬盤并不適宜作為clone和MirroView的目標.當顯示工作負載已經(jīng)能夠被ATA的性能,應該跟primaryATAprimaryATA存儲的時候,才可使用。小心的規(guī)劃一個數(shù)據(jù)恢復站點,包括足夠的性能表現(xiàn)和長久的業(yè)務(wù)。當作為clone或者mirror的目標的時候,ATA硬盤的性能影響必需詳細地考慮和著重一些細節(jié)。當使用同步模式的時候,ATA他們會有并發(fā)的寫的負載加上同步的負載,這會進一步對緩存造成壓力。因此,ATAMirrorView/Asynchronous,會在更新的時間內(nèi)裝載到緩存里面。(ATAATAATAATAcloneLUNLUNNavisphereAnalyzer100%dirtypage,ATA是首要懷疑對象。獨立的ATALUN一環(huán)境(RAID手段。primary被監(jiān)控,由于強迫刷新,會導致對鏡像寫做操作的響應時間的增加。同步的MirroViewSANCopyI/OATAReplicationSoftware低成本的光纖硬盤(LCFC)LCFC硬盤在容量,尋道時間和轉(zhuǎn)速上面,跟ATA硬盤類似。LCFC有光纖通道的DAELCFC道優(yōu)化,所以他們的性能介于FCATALCFC需求,包括適度的數(shù)據(jù)庫,文件共享,歸檔,和備份。當工作負載有比較高的并LCFCATAsnapclonemirrorSANCopy的目標,但仍然不如FCLCFCATAFCFCRAIDEMCRAID組只能綁定同樣大小和類型的硬盤。[編輯]二.為可用性和冗余做考慮RAID是存儲系統(tǒng)理所當然的課題。RAID得可能.編輯]1.高可用性的配屬CLARiiONTheEMCCLARiiONOpenSystemsConfigurationGuide[編輯]2。RAID-levelCLARiiONRAID1/

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責。
  • 6. 下載文件中如有侵權(quán)或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

最新文檔

評論

0/150

提交評論