如何全面強化虛擬環境網路效能的瓶頸

System Admin 7 幾年 之前被修改。

如何全面強化虛擬環境網路效能的瓶頸

Jedi Knight 文章: 152 創建日期: 2016/8/12 近期文章

如何全面強化虛擬環境網路效能的瓶頸

伺服器虛擬化日益普及,企業添購高效能的伺服器和儲存設備,不過網路效能太差,該如何避免?

虛擬化已深入企業資料中心,然而,能夠把環境建置起來,並不代表同時能夠妥善運用,為了支撐這樣的環境,大多數企業也許添購了運算能力更強大的伺服器、網路儲存設備,但連帶升級網路的公司,在過去並不多見,最近才出現了升級潮。而願意需付出龐大代價,徹底改變既有網路架構的公司,更是鳳毛麟角。因為這麼一來,企業必須放棄原本基於STP(Spanning Tree Protocol)協定的三層式架構,走向Ethernet Fabric或軟體定義式網路(SDN),或者必須同時維運新舊環境。雖然透過重新搭建較為扁平的二層式架構,可大幅提升網路封包傳輸效率,但這會是浩大而痛苦的工程。

 
Why Microsoft use RDMA/RoCE protocol
微軟早在過去幾年開始在Azure上使用InfiniBand網路技術,而於2013年開始積極與Mellanox合作,把RDMA(Remote Direct Memory Access)及RoCE(RDMA over Converged Ethernet)運用在Windows Server 2012上。「採用SMB 3協定提升檔案伺服器的性能與應用在檔案伺服器的功能上,自Windows Server 2012開始支援第三版SMB的網路檔案分享協定,SMB 3的主要訴求是提升Windows伺服器在檔案分享的效能、可靠度與管理便利性,看得出來與光纖通道儲存設備一較高下的企圖。例如SMB Direct(SMB 3.0 over RDMA),就是利用支援各種RDMA機制的網路卡,來提供全速、低延遲的網路傳輸,並且只會用到一點點的伺服器端的處理器資源,這些RDMA技術的實作,包括iWARP、Infiniband和RoCE(RDMA over Converged Ethernet)。微軟表示,若搭配這樣的網路卡,Hyper-V伺服器存取檔案伺服器上的虛擬機器檔案,就像在本機存取一樣快。若能做到這樣的效果,自Windows Server 2012等於替軟體式檔案伺服器的應用,打開新的局面,因為搭配支援iWARP、Infiniband和RoCE的高速網路卡,就能達到和光纖通道儲存設備同樣的效果,而且成本較低,而RDMA/RoCE這個新標準是市場的領導技術,有最低的CPU、記憶體耗損,以及最高的吞吐量。此外,這樣的架構也能用在資料中心環境的聚合式網路中,在建置和管理上變得更容易。」
 
微軟採用 RDMA/RoCE的客戶效益

Windows Server 2016 和 Windows Server 2012 包含一項叫做 SMB 直接傳輸的功能,這項功能支援使用具備遠端直接記憶體存取 (RDMA) 功能的網路介面卡。具備 RDMA 功能的網路介面卡可以在使用非常少量CPU 資源的情況下,以非常低的延遲全速運作。 對於像是 Hyper-V 或 Microsoft SQL Server 的工作負載,這讓遠端檔案伺服器能夠類似本機存放裝置。

  • 透過網路卡卸載功能,有效提升 Network I/O 處理效率
  • 提供高吞吐量及低延遲時間的網路傳輸環境,支援的類型有InfiniBand、iWARP、RoCE (10Gb Ethernet)
  • 支援並最佳化 10Gbps / 40Gbps 及 56Gbps InfiniBand 網路類型
  • SMB Multichannel 具備負載平衡及容錯移轉機制
  • 透過RDMA (Remote Direct Memory Access)簡單達成HCI I/O「水平擴充 (Scale-Out),無須CVM (Controller VM) control I/O as I/O Serve

Redirecting...
此訊息框對使用者不可見。
會於語言 = "en_US" 時,將畫面重導至 "/about-us"。