當前位置:吉日网官网 - 傳統節日 - 【雲計算IT基礎設施理論研究】05-超融合技術

【雲計算IT基礎設施理論研究】05-超融合技術

事實上,超融合並不完全適合放在雲計算的IT基礎設施中。妳說是分布式存儲,其實也是硬件服務器和存儲;妳稱之為硬件,但離不開分布式存儲軟件。

傳統的IT基礎架構架構主要分為三層:網絡、計算和存儲。然而,隨著雲計算和分布式存儲技術的發展以及x86服務器的標準化,逐漸出現了壹種融合計算和存儲節點的超融合架構。超融合將三層IT基礎架構減少為兩層。

在2019+01年6月的Gartner超融合產品魔力象限中,有五個領導者象限:Nutanix、戴爾、VMware、思科和HPE。(戴爾vxRail壹體機中使用的分布式存儲軟件也是VMware的VSAN,而VMware提供的是VSAN純軟件解決方案。)

Nutanix能成為超融合領導者的佼佼者,自然是得到市場充分驗證和認可的。而且因為它的公開資料(Nutanix聖經)比較完整,所以通過Nutanix我們可以壹窺超級集成。

我們不需要把它帶到這裏。可以通過搜索引擎直接搜索“Nutanix聖經”或者“Nutanix-Bible”,就可以找到相應的官方文獻。

引自NUTANIX聖經——“NUTANIX解決方案是壹個結合了存儲和計算資源的解決方案。該方案是壹個軟硬件集成的平臺,在2U空間內提供2或4個節點。

每個節點運行虛擬機管理程序(支持ESXi、KVM、Hyper-V)和Nutanix控制器虛擬機(CVM)。Nutanix CVM運行Nutanix核心軟件,該軟件服務於所有虛擬機以及與虛擬機對應的I/O操作。

借助英特爾VT-d(虛擬機直接路徑)技術,運行VMware vSphere的Nutanix設備的SCSI控制(管理固態硬盤和硬盤設備)將直接轉移到CVM。"

個人總結:根據以上官方文件,2U空間可以安裝2~4個Nutanix節點(每個節點相當於1臺物理服務器),所以安裝的設備密度很高。每個節點上安裝虛擬化軟件,虛擬化層運行壹個Nutanix控制虛擬機(CVM),主要負責不同Nutanix節點之間控制平面的通信。單個節點配備SSD硬盤和HDD硬盤,作為存儲而不是磁盤陣列。單個節點有獨立的CPU和內存,作為計算節點使用。

1,基礎設施

以三個Nutanix節點為例。每個節點都配有壹個Hypervisor,上面運行壹個來賓虛擬機,每個節點都有壹個Nutanix controller虛擬機控制器VM,它配有兩個SSD和四個HDD,可以通過SCSI控制器讀寫。

2.數據保護

Nuntanix通過Raid、LVM等在數據保護方面不同於傳統的磁盤陣列。,但就像壹般的分布式存儲壹樣,它通過創建數據的副本,並將其復制到其他Nutanix節點進行存儲來保護數據。Nutanix稱拷貝數為RF(壹般RF為2~3)。

當客戶將數據寫入虛擬機時“見圖中1a)的流程”,先將數據寫入本地Nutanix節點的SSD硬盤中劃分的OpLog邏輯區(相當於緩存的作用),然後執行“1b”的流程。本地節點的CVM將本地SSD的操作日誌中的數據拷貝到其他節點的操作日誌中,拷貝的數量取決於RF。當其他節點的CVM確定數據寫入完成後,將執行“1c”流程,並給出數據寫入完成的回復。數據保護是通過數據復制實現的。

數據根據特定規則從SSD中的操作日誌異步寫入SSD和HDD的擴展存儲區。有關詳細信息,請參見下壹節。

3.存儲分層

Nutanix數據寫入以本地磁盤丟棄為主要寫入原理(核心原理)。

當客戶將數據寫入虛擬機時,優先寫入本地SSD(如果SSD的已用容量未達到閾值)。如果本地SSD已滿,本地SSD最冷的數據會遷移到集群中其他節點的SSD,為本地SSD寫數據騰出空間。本地盤點的原理是盡可能提高虛擬機訪問存儲數據的速度,讓本地虛擬機不需要跨節點訪問存儲數據。(這應該是VSAN和其他分布式文件系統最大的原始區別)

當整個集群的SSD已用容量達到閾值(壹般為75%)時,每個節點的SSD數據都會遷移到該節點的HDD硬盤上。

SSD在向HDD遷移數據時,並不是將所有數據都遷移到HDD,而是按照冷熱訪問對數據進行排序,優先將訪問較少的冷數據遷移到HDD硬盤。

如果SSD容量達到95%的利用率,20%的冷數據將遷移到HDD;如果SSD容量達到80%,默認情況下,15%的冷數據將遷移到HDD。

4.數據讀取和遷移

Nutanix聖經報價——”

& ltu style="text-decoration:無;border-bottom: 1px虛線灰色;"& gt當虛擬機從壹個節點遷移到另壹個節點時(或者發生HA切換),該虛擬機的數據將由當前節點中的本地CVM提供服務。當讀取舊數據(存儲在前壹個節點的CVM中)時,I/O請求將通過本地CVM轉發到遠程CVM。所有寫入I/O都將在本地CVM中完成。當DFS檢測到I/O請求落在其他節點上時,它會在後臺自動將數據移動到本地節點,以便所有讀取的I/O都在本地得到服務。只有在讀取數據時才會移動數據,從而避免過度的網絡壓力。& lt/u & gt;"

個人總結:壹般虛擬機從本地節點的硬盤讀寫數據。如果本地節點的硬盤沒有這些數據,它會先從其他節點復制本地節點的硬盤,然後為本地虛擬機提供訪問,而不是由虛擬機直接訪問其他節點。即壹定要貫徹局部市場衰退的核心思想。

5.Nutanix解決方案的優點和缺點

Nutanix方案的優勢:

1)本地掉盤策略,保證虛擬機訪問的存儲速度:虛擬機寫的所有數據都在物理節點的磁盤上,避免了跨節點存儲訪問,保證了訪問速度,減輕了網絡壓力。

2) SSD磁盤作為數據緩存,大幅提升IO性能;

見上表數據。根據隨機讀寫,SSD的IO和帶寬性能比SATA高1000倍左右。結合Nutanix的本地磁盤丟棄策略和虛擬機數據寫入,只使用兩塊本地SSD硬盤作為數據緩存寫入數據。

但由於單塊SSD硬盤的IO比傳統陣列的SATA高1000倍,IO性能大幅提升。(相當於2000多個SATA硬盤的Raid才能提供類似的IO性能)。

3)始終先寫入SSD,以確保高IO性能。

不涉及數據寫入HDD,即使本地SSD容量已滿,冷數據也會遷移到集群中的其他節點SSD,然後SSD進行讀寫,保證高IO。隨後將SSD冷數據異步遷移到HDD。

4)數據冷熱分層存儲

冷數據存儲在HDD中,熱數據保存在SSD中,以確保熱數據的高IO讀取。

5)設備密度高,節省機房機架空間。

2U可以配置四個節點,包括存儲和計算,與以前的機架式/刀片式服務器和磁盤陣列解決方案相比,節省了大量空間。

Nutanix方案的缺點:

1)本地掉盤和SSD緩存方案保證了高IO,但硬盤帶寬沒有保證。

在傳統磁盤陣列中,多個SATA/SAS硬盤加入Raid組。寫入數據時,將文件分成多個塊,分配到每個硬盤上,同壹Raid組中的硬盤同時參與文件的塊的讀寫。通過多個硬盤並行讀寫,提升IO和帶寬性能。

在Nutanix的解決方案中,單個文件的讀寫遵循本地磁盤丟棄的策略,因此不再將文件拆分到多個硬盤上並行讀寫,只有本地節點的SSD硬盤才會寫入文件。

雖然SSD硬盤的IO和帶寬是SATA/SAS的幾百倍,但SSD的帶寬只比SATA/SAS硬盤高2~3倍,而傳統的Raid方式是用多個硬盤並行讀寫。雖然IO不如SSD,但是帶寬比單/雙SSD高很多。

因此,Nutanix的解決方案適用於IO需求高的服務類型,但由於其讀寫原理,不適合低IO、高帶寬的服務類型。

3)行業競爭對手比較:

VMWARE EVO RAIL軟件包:VMWARE不涉及硬件產品,但合格的EVO: RAIL合作夥伴可以使用EVO: RAIL軟件包。合作夥伴將硬件與集成的EVO: RAIL軟件壹起銷售,並向客戶提供所有硬件和軟件支持。

EVO:RAIL的核心其實是VSphere虛擬化軟件+VSAN軟件的打包。

但VSAN和Nutanix最大的區別在於,它沒有必要完全遵循Nutanix的本地策略。通過設置條帶系數,本地虛擬機的數據讀寫可以跨多個節點設置到硬盤。默認條帶系數為1,最大條帶系數可設置為12,即壹臺虛擬機可寫數據,12個節點的SSD硬盤可同時並行讀寫。

這樣,VSAN可以在壹定程度上彌補Nutanix方案不適合帶寬要求高、IO要求低的業務的缺點。

但是這種跨物理節點的訪問流量,在虛擬機數量龐大的情況下,肯定會給網絡帶來壓力,網絡帶寬可能會成為另壹個瓶頸。

其次,VSAN可以集成到虛擬機管理程序層中,而無需像Nutanix那樣在虛擬機管理程序上運行控制虛擬機CVM。

第三,Nutanix支持KVM、Hyper-V、ESXI等Hypervisor,而VSAN只支持自己的ESXI。

其他待補充:由於暫時沒有進行VSAN的實際部署測試,僅停留在對其原理的研究,所以關於VSAN的部分將在後續平臺上線測試完成後繼續補充。

  • 上一篇:「中醫幹貨」針灸療法大全
  • 下一篇:李宇春、李文珊和Vae的詳細信息。
  • copyright 2024吉日网官网