FTTH 無(wú)處不在!
通過(guò)收購 Passave,PMC-Sierra 成為用于光纖到戶(hù)寬帶接入網(wǎng)絡(luò )設備的千兆位 EPON 解決方案的全球領(lǐng)先批量供應商。PMC-Sierra 是唯一同時(shí)支持 EPON(IEEE 803.2ah 第一英里以太網(wǎng))和 GPON (ITU-T G.984) 標準的供應商。
PMC-Sierra 的千兆位 PON 產(chǎn)品基于穩定的 GigaPASS™ FTTH 體系結構,如果提供執行實(shí)時(shí)操作系統的強大的 32 位可編程處理引擎,以及高性能 FTTH 網(wǎng)絡(luò )接入功能需要的中間設備和專(zhuān)用固件,則該體系結構可達到穩定的千兆位速率和較大的數據速率。
PMC-Sierra 單片系統 (SOC) 解決方案提供用于鏈接中央辦公設備和客戶(hù)終端設備的端對端千兆位每秒帶寬解決方案。OLT(光線(xiàn)路終端)芯片連接中心局與 PON 網(wǎng)絡(luò ),而 ONU 或 ONT 芯片連接客戶(hù)終端與 PON 網(wǎng)絡(luò )。

| GE PON 產(chǎn)品 |
|---|
|
| GPON 產(chǎn)品 |
|
| 傳統設備 |
|
GigaPASS 體系結構是領(lǐng)域證實(shí)的 FTTH 產(chǎn)品體系結構,它在一個(gè)單芯片器件中集成了三種高性能的功能平臺。GigaPASS 體系結構集成了 PON 與千兆位以太網(wǎng)間的千兆比特/秒雙向通道;多級數據包協(xié)議處理引擎,可以處理在通道中以線(xiàn)速流動(dòng)的數據;以及一個(gè)帶有操作系統的可編程嵌入式 32 位處理器,中間設備和專(zhuān)用固件,該固件可提供穩定 FTTH 終端特性集且由服務(wù)提供商提供現場(chǎng)編程。已在亞洲部署 Passave 器件的中,此體系結構已獲得領(lǐng)域證實(shí),并可以靈活地適用于支持當前 EPON 和 GPON 技術(shù)標準以及未來(lái)的 FTTH 標準。

2007年05月16日 李泉(翻譯)/劉謙(編輯)
存儲的總體擁有成本
存儲的成本不僅僅包括驅動(dòng)器和RAID控制器成本,還包括磁盤(pán)驅動(dòng)器耗電的成本,以及驅動(dòng)器發(fā)熱所引起的散熱成本等等。筆者曾有一位客戶(hù)想部署全SATA的存儲系統,但又對性能有很高要求,于是筆者和這位客戶(hù)就存儲的真正成本展開(kāi)了討論,正是這件事讓筆者產(chǎn)生了撰寫(xiě)本文的念頭。
在本篇文章的開(kāi)始,筆者首先提出了一個(gè)假設,那就是在需要高性能的應用環(huán)境中,SATA驅動(dòng)器的成本與光纖通道(FC)驅動(dòng)器相比并沒(méi)有太大優(yōu)勢。撰寫(xiě)文章通常是為了論證某種觀(guān)點(diǎn),但筆者更側重于通過(guò)本文闡述觀(guān)點(diǎn)。因此,在文中筆者會(huì )盡量客觀(guān)地求證這個(gè)前提是否正確。在下面的文章中,通過(guò)對實(shí)際情況的分析,我們會(huì )得出結論。請讀者切記,筆者在這里探討SATA和FC驅動(dòng)器的前提是滿(mǎn)足性能要求,而不是存儲密度為第一要求的。下面我們來(lái)看看這個(gè)觀(guān)點(diǎn)是否正確。
SATA的困惑
因為SATA驅動(dòng)器價(jià)格低廉,因此這種驅動(dòng)器的應用范圍非常廣。就筆者所知,企業(yè)一開(kāi)始采用SATA驅動(dòng)器是用于D2D(磁盤(pán)到磁盤(pán))備份的,但現在據說(shuō)部分站點(diǎn)出于降低成本的考慮,已經(jīng)使用SATA驅動(dòng)器來(lái)滿(mǎn)足所有存儲需求。SATA開(kāi)始被用在大型數據庫主存儲以及本是FC驅動(dòng)器專(zhuān)用的領(lǐng)域之中,但這也帶來(lái)了可靠性方面的擔憂(yōu)。
這種擔憂(yōu)確實(shí)不無(wú)道理,為此RAID廠(chǎng)商不得不研發(fā)支持RAID-6的控制器,將保存奇偶校驗數據的驅動(dòng)器從一個(gè)增加到了兩個(gè),以此應對多個(gè)驅動(dòng)器同時(shí)發(fā)生故障的風(fēng)險。由于驅動(dòng)器比RAID-5增加了一個(gè),因此控制器和驅動(dòng)器間的傳輸帶寬的要求也就更高了。希捷網(wǎng)站上的數據顯示,其750GB磁盤(pán)的數據傳輸率大約為78MB/S。如果用這種9塊(8+1的情況)這種磁盤(pán)組成RAID-5的話(huà),其陣列所需的尖鋒帶寬為每秒702MB。而在RAID-6的情況下(10塊磁盤(pán),8+2),所需帶寬達到了每秒780MB,即帶寬需求增加了10%。視頻和音頻流及那些需要高速讀寫(xiě)的應用同樣面臨這個(gè)問(wèn)題。此外,還有另一種應用需要高速讀寫(xiě),但卻很容易被忽視,那就是數據庫索引重建(Database re-indexing)。
SATA驅動(dòng)器已經(jīng)吸引了幾乎每個(gè)人的注意力,但因為SATA驅動(dòng)器的比特誤碼率(Bit error rate)比FC驅動(dòng)器更高,加上由于SATA磁盤(pán)的轉速(RPM)較低、尋道時(shí)間較長(cháng)所導致的IOPS(每秒I/O)速度較低,因此仍有站點(diǎn)購買(mǎi)使用FC驅動(dòng)器。但主流趨勢開(kāi)始朝SATA傾斜,不過(guò)筆者對此并不感到樂(lè )觀(guān)。
我們來(lái)具體討論一下。假定這樣一個(gè)環(huán)境,它需要滿(mǎn)足特定等級的I/O流性能要求(以MB/秒或GB/秒計算)。那么,要滿(mǎn)足這樣的性能要求,就必須先滿(mǎn)足下列條件:
由于這些硬件每一項都可能成為性能瓶頸,所以要滿(mǎn)足整體的性能要求,上述每一項硬件都必須符合條件。例如,4Gb/s FC加上一個(gè)RAID控制器可以實(shí)現每秒4Gb的傳輸速度,但如果只有兩個(gè)HBA接口,每個(gè)HBA上只有兩個(gè)端口,那么其全雙工傳輸速度就只能達到3.2GB每秒。這是因為每個(gè)HBA端口只支持800MB每秒的傳輸速率(讀寫(xiě)各400MB每秒)。如此一來(lái),控制器連接上足以實(shí)現每秒4GB傳輸速度的磁盤(pán)后,在這整個(gè)系統之中就是HBA成為了影響性能的瓶頸。
因此,構建系統時(shí)必須確保硬件搭配的平衡,從而滿(mǎn)足性能要求。要構建這樣的系統,還需要涉及其中的每一種硬件都滿(mǎn)足要求:內存和PCI通道帶寬、HBA、交換機端口、RAID控制器還有必不可少的磁盤(pán)驅動(dòng)器。所有這些硬件都需要耗電、散熱和O&M(運行及維護),這些都要花錢(qián),但在這里筆者沒(méi)有把O&M成本考慮在內,它不屬于本文討論范圍。
硬件的成本
要滿(mǎn)足存儲性能要求,就要擁有平衡的系統架構。由于SATA磁盤(pán)驅動(dòng)器在速度和可靠性上都稍遜于FC和SAS磁盤(pán)驅動(dòng)器,要滿(mǎn)足帶寬需求,就必須配備更多磁盤(pán);由于有了更多的磁盤(pán)驅動(dòng)器,于是就需要更多RAID控制器;而由于磁盤(pán)的性能和可靠性較低,于是需要更多的HBA協(xié)助讀寫(xiě),從而需要更多的端口。
總而言之,這會(huì )需要更多的硬件。問(wèn)題在于,加上這些硬件及其供電和散熱成本,SATA的每MB每秒成本還會(huì )比FC或SAS驅動(dòng)器更低嗎?如果更低,那又能低多少呢?
美國希捷Cheetah 15K.5 4Gb 300 GB驅動(dòng)器最便宜的價(jià)格是1000美元,這意味著(zhù)它的每MB成本為0.0033美元每MB,但它的每MB的使用成本則約為10.10美元。同樣希捷酷魚(yú)750GB SATA硬盤(pán)價(jià)格是269美元,這塊SATA硬盤(pán)的MB成本也就是0.00035每MB,幾乎少了九成。而其每MB的使用成本是3.45美元,只是FC驅動(dòng)器的三分之一左右。磁盤(pán)密度的成本差異比性能差異大了差不多3倍。如上文所述,磁盤(pán)密度成本只是整個(gè)系統成本的一部分而已。
筆者認為,在性能需求至上的應用環(huán)境中,SATA的成本比FC和SAS技術(shù)都要高。SATA某些方面的成本只是FC的三分之一甚至十分之一,當然,這要看你考慮的是性能還是容量。但是,在成本方面,還有其他因素要考慮,這正是本文要探討的內容。
在今年早期的在美國加里福尼亞州圣瓊斯舉行的文件與存儲技術(shù)會(huì )議USENIX FAST’07上,有兩篇文章(Disk failures in the real world以及Google‘s experience)對驅動(dòng)器穩定性分析得都不錯。
這兩篇文章提到了兩個(gè)要點(diǎn)。一個(gè)就是由RAID控制器所連接的硬盤(pán)的穩定性遠遠達不到硬盤(pán)廠(chǎng)商宣稱(chēng)的高度。而且在相同條件下,SATA驅動(dòng)器的穩定性遠比FC和SAS低得多。究其原因,很可能是因為RAID廠(chǎng)商判斷驅動(dòng)器是否故障的依據只是最初的出錯跡象。如驅動(dòng)器在額定響應時(shí)限范圍內沒(méi)有響應。實(shí)際上驅動(dòng)器很可能只是響應時(shí)間超長(cháng)而已,最終是會(huì )從錯誤中恢復過(guò)來(lái)的。如果硬盤(pán)在數秒內沒(méi)有響應,就筆者所知,有部分廠(chǎng)商就會(huì )判定這塊硬盤(pán)故障并將它標為“需重建”。但實(shí)際上這塊硬盤(pán)很可能最終會(huì )成功響應。通常硬盤(pán)廠(chǎng)商不會(huì )將這種硬盤(pán)判定為故障,因為硬盤(pán)最終還是響應了的。
另一個(gè)要考慮的就是IOPS(每秒I/O數)。SATA和FC的隨機IOPS速率相差無(wú)幾,只是MB/S的傳輸性能有所差異。FC驅動(dòng)器的MB/s傳輸速率和尋址及延遲時(shí)間都比SATA磁盤(pán)強。因此,要滿(mǎn)足性能要求,FC仍是比SATA驅動(dòng)器更好的選擇,相同的IOPS公式也同樣適用。
在這里筆者不打算引用FAST文章中的數據,因為這些數據都來(lái)自采用較老技術(shù)的硬盤(pán),但筆者同意其中一位作者在FAST的文章中的看法,即驅動(dòng)器的穩定性遠沒(méi)有其廠(chǎng)商宣稱(chēng)的那么高,畢竟RAID廠(chǎng)商對性能和響應時(shí)間的關(guān)注比硬盤(pán)廠(chǎng)商更高。
希捷網(wǎng)站數據顯示其15K FC驅動(dòng)器年故障率(AFR)為0.62%。
希捷網(wǎng)站不久之前表示,這一故障率換算為無(wú)故障時(shí)間就是120萬(wàn)小時(shí)。實(shí)際上,穩定運行50萬(wàn)小時(shí)是許多RAID廠(chǎng)商采用的數值,這樣換算過(guò)來(lái),它的AFR就變成了1.49%。
同樣根據希捷所公布的數據顯示,SATA驅動(dòng)器的AFR是0.73%。
根據希捷網(wǎng)上的換算方法,假設這個(gè)數字換算成磁盤(pán)的無(wú)故障時(shí)間就是100萬(wàn)小時(shí)。同時(shí)假設RAID廠(chǎng)商采用50萬(wàn)小時(shí)和30萬(wàn)小時(shí)來(lái)計算——筆者在這里更傾向于采用30萬(wàn)小時(shí)這個(gè)數字,因為在工作負荷極高的環(huán)境下驅動(dòng)器無(wú)故障穩定運行時(shí)間大多在30萬(wàn)小時(shí)左右,但為了公平起見(jiàn),我們還是同時(shí)采用兩個(gè)數字——這樣一來(lái),50萬(wàn)小時(shí)下的AFR就是1.46%,30萬(wàn)小時(shí)下的則是2.44%。
歸納總結
別忘了筆者在文章一開(kāi)始就已經(jīng)設定了前提,即從性能方面考慮,SATA的成本更高。
各硬盤(pán)廠(chǎng)商網(wǎng)站于2007年3月至4月間提供了以下數據:


為了滿(mǎn)足性能要求,HBA和端口都會(huì )耗電。鑒于此,下文列出了各類(lèi)數據通道技術(shù)(data path technology)中的用電需求:
QLogic雙端口4G HBA卡耗電6.5瓦,該公司網(wǎng)站沒(méi)有提供相關(guān)的熱量輸出(BTU,英國熱量單位為英熱,1英熱=1055.05585焦耳)數據。思科9500系列導向器包含48端口,每個(gè)4Gb端口耗電16.46瓦,需要輸出3個(gè)BTU。
RAID廠(chǎng)商提供的包含16個(gè)磁盤(pán)及控制器的陣列數據:
簡(jiǎn)單計算一下就可以知道,一套FC托架耗電118瓦(382-(16×16.5)),而SATA托架則耗電167瓦(375-(16×13))。這很可能是因為后者需要單獨的SATA控制器,而不像FC通過(guò)光纖連接。FC的耗電量因而增加了31%,而SATA則增加了45%。
我們在這里假設你的企業(yè)的全天持續性能要求為100GB/s。在當前的形勢下,這個(gè)要求并不過(guò)分。部分企業(yè)可能會(huì )認為這個(gè)要求偏高,但對銀行、保險公司、汽車(chē)工業(yè)、制藥公司或其他大型企業(yè)而言,這個(gè)要求并不算高?,F在來(lái)看看為了滿(mǎn)足這個(gè)要求,硬盤(pán)方面要滿(mǎn)足哪些條件。
FC驅動(dòng)器方面,取廠(chǎng)商額定的每個(gè)驅動(dòng)器內圈傳輸速度最低值75MB/s——在筆者看來(lái),這只占驅動(dòng)器最高性能的55%。這一數字是根據各廠(chǎng)商網(wǎng)站上出現過(guò)的數據算出的。在RAID 4+1和8+1環(huán)境下,取上述故障率值。

根據上述數據以及數據重建所需時(shí)間(據性能要求估算為4至12小時(shí)之間),可能需要另加兩組4+1或8+1來(lái)滿(mǎn)足性能要求,因此RAID 4+1驅動(dòng)器總數達到17077塊,而RAID 8+1則達到15378塊。要注意,這還沒(méi)把熱備盤(pán)包括在內。
另加兩組LUN就需要另加兩組HBA卡和兩組交換機端口,而且很可能還會(huì )需要另外的RAID控制器——這些上面都沒(méi)有計算在內,但要注意這些因素都是客觀(guān)存在的。
SATA方面,這些數據就是:

把同一天內多塊驅動(dòng)器故障的可能性計算在內,要達到與FC相同的故障率,按性能要求,估計需要另加5組LUN才能達到1.46%的故障率,而要達到2.4%就要加8組LUN。
要達到1.46%的故障率,RAID 4+2所需驅動(dòng)器總數為35751塊,而RAID 8+2則需29817塊。
要達到2.44%的故障率,RAID 4+2所需驅動(dòng)器總數就是35801塊,而RAID 8+2則是29847塊。
僅耗電量一項,光是驅動(dòng)器就需要:

這里面還沒(méi)包括散熱費用,加上散熱一項就會(huì )把耗電成本增加近三分之一,兩者的差異就更小了。

散熱成本,加上附加的驅動(dòng)器、控制器和端口,都讓SATA的成本優(yōu)勢隨著(zhù)使用時(shí)間加長(cháng)而變得微乎其微。SATA驅動(dòng)器的價(jià)格確實(shí)只有十分之一,但把要求性能的應用環(huán)境中各項因素的成本都加上——在這里我們還沒(méi)把散熱和附加的RAID控制器及交換機端口(以及這些硬件的耗電量)成本計算在內——SATA的成本優(yōu)勢大幅縮水。
在上面的計算中,驅動(dòng)器的成本是按本文第一部分的數據計算的,而各驅動(dòng)器最低價(jià)格是筆者在市場(chǎng)上搜索出來(lái)的。為滿(mǎn)足增長(cháng)的SATA驅動(dòng)器數量而增加的RAID控制器數量以額外重建的成本并未計算在內。另外,額外的交換機端口、HBA和這些附加設備散熱所需的耗電成本也沒(méi)有計算在內。
請切記,本文是以性能要求至上的應用環(huán)境作為前提的,現在的結論似乎證實(shí)筆者的直覺(jué)是正確的:在側重于性能要求的應用環(huán)境中,部署SATA沒(méi)有任何成本優(yōu)勢,FC和尚為普及的SAS驅動(dòng)器仍是更好的選擇。筆者的計算不包括散熱、額外的HBA、交換機端口和相關(guān)耗電成本,也沒(méi)有將未來(lái)的能耗成本計算在內。
相信讀者會(huì )見(jiàn)仁見(jiàn)智,但在性能要求至上的環(huán)境中,筆者個(gè)人是非常反對采用SATA驅動(dòng)器的。
SATA硬盤(pán)的密度非常高,但是錯誤率也比較高,性能比較低,RAID-6設計很快就能夠解決這些問(wèn)題,使其能夠適用于高端和高性能要求的環(huán)境之中。
RAID-6變得越來(lái)越流行,所以在評估RAID控制器的時(shí)候,除了考慮其他一些因素,最好還要考慮一下它和RAID-5的異同。
找到問(wèn)題所在
如下圖所示,讀取單一驅動(dòng)器的時(shí)間隨著(zhù)時(shí)間的推移出現了明顯的增長(cháng):

造成這種情況的主要原因是磁盤(pán)驅動(dòng)器的密度的增長(cháng)遠比性能的提升要快。從1991年以來(lái),企業(yè)磁盤(pán)(SCSI和FC)已經(jīng)從500MB發(fā)展到了300GB,增長(cháng)了600倍。而在同一時(shí)期內,最高性能僅僅從4MB/s提高到了125MB/s,只增長(cháng)了31.25倍。如果磁盤(pán)驅動(dòng)器的性能可以和密度同步提高的話(huà),我們就可以擁有2.4GB/s性能的磁盤(pán)驅動(dòng)器了。這聽(tīng)起來(lái)很不錯,不是么?但是不太可能在短期內實(shí)現。
顯而易見(jiàn),重建RAID LUN(Logical Unit Number,邏輯單元號)的時(shí)間顯著(zhù)地增加了。另一個(gè)值得關(guān)注的問(wèn)題是:讓我們回到1996年,當時(shí)即將推出1Gb半雙工的FC。磁盤(pán)驅動(dòng)器的傳輸速度是16MB/s,密度為9GB。從1996年到今天,驅動(dòng)器的最大性能增長(cháng)了7.8倍,而密度卻增長(cháng)了33.33倍,單個(gè)驅動(dòng)器只增長(cháng)了4倍。是的,我們實(shí)現了全雙工傳輸,但是在1996年,單一FC通道最多可以支持6.25個(gè)驅動(dòng)器全速讀寫(xiě)。今天的能支持的數量是3.2。我認為企業(yè)級驅動(dòng)器還沒(méi)有任何顯著(zhù)的改變,能夠扭轉這種趨勢。使用SATA驅動(dòng)器只是更加惡化了這一問(wèn)題,因為驅動(dòng)器密度更大了,但是傳輸速度卻在下降。我相信這將是RAID-6的推動(dòng)因素之一,因為隨著(zhù)密度的增加,RAID-5丟失數據的風(fēng)險也明顯地增加了。
RAID控制器性能
既然如此,我們可以預言,至少在可以預見(jiàn)的未來(lái),對Fibre Channel(光纖通道,FC)來(lái)說(shuō),RAID-6將變得更普及,因為使用較慢接口的、密集的驅動(dòng)器重建需要的時(shí)間越來(lái)越長(cháng)。而且SATA驅動(dòng)器的廣泛使用,也會(huì )推動(dòng)RAID-6的普及,直到有更好的技術(shù)出現,取代RAID-6為止。
問(wèn)題是RAID-6需要控制器能夠提供更多的資源,來(lái)計算附加奇偶,并且需要更大的帶寬來(lái)進(jìn)行寫(xiě)操作,對于一些廠(chǎng)商來(lái)說(shuō),還需要更大的帶寬來(lái)讀取更多的奇偶(parity)。所需要的帶寬大小取決于RAID-6的配置。例如,如果是8+1 RAID-5,需要9個(gè)硬盤(pán)的帶寬;而如果是RAID-6 8+2的話(huà),需要的帶寬就增加了11%,也就是10個(gè)硬盤(pán)的帶寬。如果是4+1 RAID-5,需要5個(gè)硬盤(pán)的帶寬,但是如果是RAID-6 4+2的話(huà),所需要的帶寬就增加了20%,也就是6個(gè)硬盤(pán)的帶寬。如果只是有一個(gè)LUN的帶寬需求增加了20%的話(huà),那么我相信幾乎所有的RAID控制器都能夠應付,但是如果系統中所有的LUN都是RAID-6的話(huà),情況會(huì )怎樣?
你的控制器是否能夠有11%或者20%冗余的計算資源來(lái)計算多出來(lái)的奇偶?而且控制器是否能夠提供足夠的帶寬支持所有這些硬盤(pán)?為RAID增加改造的潛力,你也許會(huì )讓RAID控制器運行的速度超過(guò)設計速度。我認為對于每個(gè)考慮使用RAID-6的用戶(hù)來(lái)說(shuō),理解RAID控制器的設計問(wèn)題都非常重要,這能夠幫助他們更好地理解購買(mǎi)什么樣的設備才能夠更好地滿(mǎn)足自己的性能要求。我不想再詳細講述FC和SATA硬盤(pán)的差別,因為我已經(jīng)在以前的文章里介紹過(guò)這些內容了,請參看《使用SATA存儲的真實(shí)成本》。
檢查RAID性能
因為絕大部分中端RAID廠(chǎng)商都是按照RAID-5,而不是RAID-6的性能要求設計RAID控制器的,所以為了確保采購的RAID控制器能夠達到RAID-6的性能要求,用戶(hù)需要考慮RAID控制器的兩方面的問(wèn)題:一是計算奇偶的處理器的性能,另一個(gè)是后端通道的性能。
處理器的性能比較容易評估。假設廠(chǎng)商取1個(gè)或者最多4個(gè)磁盤(pán)托架。開(kāi)始之前,必須知道后端連接的數量和這些連接的性能。例如,如果有4個(gè)4Gb的FC后端連接,就需要為這四條連接配備4個(gè)FC HBA,以及一個(gè)或多個(gè)能夠充分利用這些HBA的系統。必須確保后端的性能(RAID控制器到磁盤(pán)托架的性能)能夠和前端的性能(從服務(wù)器到RAID的性能)相匹配。創(chuàng )建一個(gè)4+1 LUN和一個(gè)4+2 LUN,并使用可以寫(xiě)入原設備的、多線(xiàn)程的程序,例如從ioperformance.com下載的xdd。對4+1的寫(xiě)入應該和對4+2的寫(xiě)入是一樣的。
現在對你所有的LUN進(jìn)行同樣的操作,并且充分利用其全部的性能。假設有以下兩種方法。采用LUN中磁盤(pán)驅動(dòng)器最外圈的柱面以獲得最大性能,并且向廠(chǎng)商咨詢(xún)磁盤(pán)托架的最大性能。在這兩個(gè)值中,取較低的一個(gè)值。對你所擁有的所有的LUN重復進(jìn)行8+1和8+2操作,使用其全部的性能。對于非常重視奇偶性能的寫(xiě)操作來(lái)說(shuō),性能也應該是一樣的。如果不是這樣,那么奇偶處理器速度就不夠快,或者是RAID的后端性能設計不好,也可能是兩者兼而有之。
既然高性能處理器性?xún)r(jià)比非常高,要確定是否是處理器的問(wèn)題非常困難,在現在這個(gè)年代,幾乎是不可能的。另一方面,RAID控制器后端的設計非常復雜,所以它通常是問(wèn)題所在。今天,絕大部分的RAID控制器都支持使用一個(gè)FC fabric連接把每個(gè)磁盤(pán)托架連接起來(lái),在托架內部可能使用FC-AL(光纖通道仲裁環(huán)路)、SATA或者SAS連接。需要理解的第一個(gè)問(wèn)題是從RAID控制器到主機的性能和從RAID控制器到緩存之間的性能比。對于中端控制器,這個(gè)比例通常在1:1到1:4之間,有時(shí)候會(huì )更高(從控制器到磁盤(pán)托架之間的帶寬更高)。請注意,如果你使用的是RAID-6的話(huà),就需要更多的帶寬,這是因為要對第二個(gè)奇偶驅動(dòng)器進(jìn)行寫(xiě)操作,對于一些廠(chǎng)商的產(chǎn)品來(lái)說(shuō),可能還有讀操作。
看看下面這個(gè)例子。比如說(shuō),你在前端擁有4個(gè)4Gb的FC,以及6個(gè)從緩存到磁盤(pán)托架的通道(1到1.5)。

上面描述的RAID控制器將為這4個(gè)4+2 LUN提供最大的帶寬。這一點(diǎn)無(wú)所謂好壞,但是卻說(shuō)明了一個(gè)事實(shí):RAID-6比RAID-5所耗占的帶寬更多。一些廠(chǎng)商為了解決讀取的帶寬問(wèn)題,采用了不讀取所有奇偶驅動(dòng)器的做法,所以就只剩下寫(xiě)的問(wèn)題了;其他一些廠(chǎng)商卻采取了其他的方法。當然,最糟糕的做法是流式(streaming)I/O,但是同樣的問(wèn)題也存在于IOPS之中,只不過(guò)IOPS的問(wèn)題是尋址和響應時(shí)間,而不是帶寬。
事先做好計劃
RAID-6比RAID-5需要更多的帶寬,并且能夠影響RAID控制器的性能。在前文所舉的例子中,寫(xiě)入的問(wèn)題不僅僅出現在用戶(hù)從主機上進(jìn)行寫(xiě)入的時(shí)候,控制器需要重建一個(gè)LUN的時(shí)候也可能遇到這種問(wèn)題。了解這一點(diǎn),對于理解RAID控制器的后端性能,以及相關(guān)的、計劃中的LUN配置非常重要。尤其對于RAID-6來(lái)說(shuō)更是如此。對中端產(chǎn)品來(lái)說(shuō),從緩存到主機的控制器性能通常會(huì )低于從緩存到磁盤(pán)的控制器性能。目前,對于企業(yè)產(chǎn)品來(lái)說(shuō),情況亦是如此。
該文章的主要目的在于讓客戶(hù)在購買(mǎi)任何一款RAID控制器之前,對設置好的配置有所了解,同時(shí)對主機需要的I/O有大概的估計,增加重建的潛力。既然RAID-6需要在緩存與磁盤(pán) tray 與RAID-5之間占用更多的帶寬,在考慮使用RAID-6技術(shù)的時(shí)候,也需要認真考慮所需要的配置。
聯(lián)系客服