服務熱線
0755-83647532
發表日期:2013-06-14 文章編輯:管理員 閱讀次數:
隨著云計算、移動互聯網、Web2.0等新業務的興起,傳統的數據中心已經無法滿足。業界正掀起新一輪數據中心建設的高潮,新一代的云計算數據中心隨之而產生。網絡是云數據中心的重要組成部分之一,云數據中心的網絡架構必須具備五大新技術特性:100G以太網技術、浪涌緩存、網絡虛擬化、統一交換、綠色節能技術。
100G以太網技術
帶寬壓力是云數據中心網絡的核心問題。在數據中心,像視頻點播、10G的FCOE、以及高性能計算這樣的高帶寬應用,都需要萬兆以太網接口。最近兩年正值數據中心高速成長的時期,隨著服務器和接入設備上萬兆以太網的普及,數據中心的網絡匯聚層和核心層設備對100G以太網的需求越來越強烈。2010 年IEEE正式發布40G/100G標準,這一標準的正式批準,為100G高速以太網應用,鋪平了發展之路。100G網絡時代的到來并不僅僅意味著端口、帶寬速度的升級,不只是在數據傳輸速率上比10G快了10倍,更重要的是由此帶來的功能上的極大增強和豐富。作為新一代的云數據中心,必將在其匯聚層或核心層采用100G以太網以滿足應用需求,云數據中心將進入100G時代。
浪涌緩存
浪涌(一般網絡條件下稱為突發流量,即Burst)表示是瞬間的高速流量。這種情況在互聯網企業承載搜索業務的數據中心中表現尤為明顯。數據中心處理一次搜索業務,一般是由一個服務器發起,然后通過一系列算法向數據中心中保存有搜索信息的業務服務器發起搜索請求,這些服務器通常有上千臺,然后上千臺服務器幾乎同一時間將搜索結果發回給發請求的服務器。這種流量模型是典型的多端口打一口的網絡,在這樣的數據中心中就會頻繁出現浪涌現象。傳統的數據中心網絡采用出端口緩存的機制,使得所有數據流的突發在出端口處被緩存,緩存的大小即是網絡最大可能的突發值。
云數據中心應用的特點要求緩存要大,所以一般云數據中心的網絡設備必須具備超大緩存(1G以上)。同時不再采用出端口緩存,而采用入端口緩存。入端口緩存結合虛擬輸出隊列(VOQ)技術,在每個入端口的方向配置大容量緩存,在出端口配置較小緩存,使用專用流量管理器件(TM)進行內部流量管理。采用 Credit來控制每個端口入方向的數據向出端口的突發,每個出端口向其它端口分配Credit數量。當出端口在線速向外轉發數據時,如果入方向過來的速度較快,在達到或超過出端口設定的突發門限時,出端口不再為入端口分配Credit,從而使得入端口的數據緩存在本地的大容量Buffer中,當出端口的排隊下降到門限以下,繼續向入端口分配Credit,使得緩存的數據得以繼續轉發。
這種浪涌緩存技術能夠自動調節不同方向的瞬時流量擁塞壓力,是當前云數據中心網絡的主要應用技術。
網絡虛擬化
傳統的數據中心網絡架構由于多層結構,安全區域,安全等級,策略部署,路由控制,VLAN劃分,二層環路,冗余設計等諸多因素,導致網絡結構比較復雜,使得數據中心基礎網絡的維護管理難度較高。云數據中心需要管理的網絡設備會更多,必須引入虛擬化技術進行設備管理。通過虛擬化技術,用戶可以將多臺設備連接,“橫向整合”起來,組成一個“聯合設備”,并將這些設備看作單一設備進行管理和使用。用戶也可以將一臺設備分割成多個虛擬設備,這些設備之間完全獨立,可以分別管理。這將極大簡化云數據中心網絡管理。
統一交換
云數據中心網絡的性能要求超過常規應用數據中心,這樣的要求使得網絡平臺構建上性能的考慮區別于傳統的認識。云數據中心網絡需要具備“統一交換”的無阻塞全線速交換架構。
線速指的是線路數據傳送的實際速率能夠達到名義值,比如千兆端口能夠實際吞吐量到千兆。全線速指的是交換機所有端口能夠同時達到線速轉發,這個能力體現了交換機的性能。“無阻塞”全線速指的是交換的任意大小字節的報文均能夠達到全線速的能力,所有端口都以線速接受偵,并能無延遲地處理。實現無阻塞全線速的架構就是統一交換技術。
傳統數據中心網絡的交換架構通過Crossbar高性能交換網實現,數據在Crossbar內部選路是固定的,同一數據流在內部的運轉路徑通過 HASH算法確定。這樣在特殊情況下,在交換不同階層上仍會發生阻塞的現象。隨著近年來應用不斷豐富,業務規模不斷擴大和實際帶寬消耗迅猛增長,已經出現了傳統交換架構在互聯網數據中心難以滿足性能需求的現狀。統一交換架構在系統內部采用動態選路方式,業務線卡接收到的數據報文進行等長切片處理形成定長信元,每個信元加載動態選路的標準。當出現路徑不可用或網板、線卡故障時,選路信息會動態改變,由硬件系統自動切換到正常的路徑上。通過統一交換架構真正實現了無阻塞全線速的網絡。
綠色節能技術
云數據中心的網絡是數據中心中能耗的主要組成部分之一,只有通過降低網絡的能耗才能提升云數據中心的運行效率。云數據中心網絡必須采用綠色節能技術,網絡設備消耗的功率是該設備內所有器件消耗功率的總和,選擇低功耗的器件是實現節能降耗的源頭,其帶來的效果不僅僅是整機功耗簡單累加后的降低,還將降低熱設計的代價。網絡設備的電源系統要采用完備的靈活電源智能管理,自動調節功率分配。云數據中心要采用具有綠色節能認證的網絡設備。
在2013年中國電信、中國移動等企業的新一輪數據中心網絡設備集采測試中,網絡設備功耗將作為一項重要的測試指標,能耗過高的網絡設備將出局。未來的云數據中心必將全部采用低功耗的網絡設備,只有綠色節能的網絡才是高效的網絡。
網絡部分雖然只占了整體數據中心的15%左右。但是由于越來越多的工作依賴于網絡,這也促使網絡技術得到了空前的大發展,使得云數據中心網絡具有的諸多區別以往數據中心的新特性。
因此入端口緩存機制下,各端口的數據在出端口擁塞時都能在本地緩存,因而緩存容量是與入端口數成正比的線性關系,這種線性比例的緩存能力,能夠自適應余云計算的不定向浪涌流量,
對于設備商和廣大運營商用戶而言,100G網絡還應該包括IPV6、網絡安全以及網絡虛擬化等全新的技術特征在其中,也就是說,100G作為新一代數據中心網絡架構的重要環節,將在IDC內部掀起一場新的技術革命,更加綠色,更高效率的網絡架構所替代。
IDC網絡內部大量突發流量,運營商起碼要實現100G的無阻塞交換,并具備大容量的緩存平臺,云化IDC的最終目的是提高設備的利用率和業務的靈活性,而IDC所具備的這種彈性,可擴展能力都需要借助IDC網絡來實現,而網絡的統一交換包括FCoE、CEE等技術,則是為了更好地支撐異構計算、存儲等資源的整合。
網絡的交換容量和網絡浪涌的吸收容量即是云計算(或大型數據中心)網絡的性能關注點要同時關注的兩方面。
超線速:如千兆端口能夠吞吐的流量超過一千兆(一般也就超出一點點)這種交換機與標準線速設備對接后容易產生丟包甚至將標準交換機“堵死”,在數據中心環境下極少數情況也允許滿足超線速的組網,知識對交換機有特殊要求。
(文章來源:中關村)