1.分布式存儲
傳統化集中式存儲存在已有壹段時間。但大數據並非真的適合集中式存儲架構。Hadoop設計用於將計算更接近數據節點,同時采用了HDFS文件系統的大規模橫向擴展功能。
雖然,通常解決Hadoop管理自身數據低效性的方案是將Hadoop 數據存儲在SAN上。但這也造成了它自身性能與規模的瓶頸。現在,如果妳把所有的數據都通過集中式SAN處理器進行處理,與Hadoop的分布式和並行化特性相悖。妳要麽針對不同的數據節點管理多個SAN,要麽將所有的數據節點都集中到壹個SAN。
但Hadoop是壹個分布式應用,就應該運行在分布式存儲上,這樣存儲就保留了與Hadoop本身同樣的靈活性,不過它也要求擁抱壹個軟件定義存儲方案,並在商用服務器上運行,這相比瓶頸化的Hadoop自然更為高效。
2.超融合VS分布式
註意,不要混淆超融合與分布式。某些超融合方案是分布式存儲,但通常這個術語意味著妳的應用和存儲都保存在同壹計算節點上。這是在試圖解決數據本地化的問題,但它會造成太多資源爭用。這個Hadoop應用和存儲平臺會爭用相同的內存和CPU。Hadoop運行在專有應用層,分布式存儲運行在專有存儲層這樣會更好。之後,利用緩存和分層來解決數據本地化並補償網絡性能損失。
3.避免控制器瓶頸(Controller Choke Point)
實現目標的壹個重要方面就是——避免通過單個點例如壹個傳統控制器來處理數據。反之,要確保存儲平臺並行化,性能可以得到顯著提升。
此外,這個方案提供了增量擴展性。為數據湖添加功能跟往裏面扔x86服務器壹樣簡單。壹個分布式存儲平臺如有需要將自動添加功能並重新調整數據。
4.刪重和壓縮
掌握大數據的關鍵是刪重和壓縮技術。通常大數據集內會有70%到90%的數據簡化。以PB容量計,能節約數萬美元的磁盤成本。現代平臺提供內聯(對比後期處理)刪重和壓縮,大大降低了存儲數據所需能力。
5.合並Hadoop發行版
很多大型企業擁有多個Hadoop發行版本。可能是開發者需要或是企業部門已經適應了不同版本。無論如何最終往往要對這些集群的維護與運營。壹旦海量數據真正開始影響壹家企業時,多個Hadoop發行版存儲就會導致低效性。我們可以通過創建壹個單壹,可刪重和壓縮的數據湖獲取數據效率
6.虛擬化Hadoop
虛擬化已經席卷企業級市場。很多地區超過80%的物理服務器現在是虛擬化的。但也仍有很多企業因為性能和數據本地化問題對虛擬化Hadoop避而不談。
7.創建彈性數據湖
創建數據湖並不容易,但大數據存儲可能會有需求。我們有很多種方法來做這件事,但哪壹種是正確的?這個正確的架構應該是壹個動態,彈性的數據湖,可以以多種格式(架構化,非結構化,半結構化)存儲所有資源的數據。更重要的是,它必須支持應用不在遠程資源上而是在本地數據資源上執行。
不幸的是,傳統架構和應用(也就是非分布式)並不盡如人意。隨著數據集越來越大,將應用遷移到數據不可避免,而因為延遲太長也無法倒置。
理想的數據湖基礎架構會實現數據單壹副本的存儲,而且有應用在單壹數據資源上執行,無需遷移數據或制作副本
8.整合分析
分析並不是壹個新功能,它已經在傳統RDBMS環境中存在多年。不同的是基於開源應用的出現,以及數據庫表單和社交媒體,非結構化數據資源(比如,維基百科)的整合能力。關鍵在於將多個數據類型和格式整合成壹個標準的能力,有利於更輕松和壹致地實現可視化與報告制作。合適的工具也對分析/商業智能項目的成功至關重要。
9. 大數據遇見大視頻
大數據存儲問題已經讓人有些焦頭爛額了,現在還出現了大視頻現象。比如,企業為了安全以及操作和工業效率逐漸趨於使用視頻監控,簡化流量管理,支持法規遵從性和幾個其它的使用案例。很短時間內這些資源將產生大量的內容,大量必須要處理的內容。如果沒有專業的存儲解決方案很可能會導致視頻丟失和質量降低的問題。
10.沒有絕對的贏家
Hadoop的確取得了壹些進展。那麽隨著大數據存儲遍地開花,它是否會成為贏家,力壓其它方案,其實不然。
比如,基於SAN的傳統架構在短期內不可取代,因為它們擁有OLTP,100%可用性需求的內在優勢。所以最理想的辦法是將超融合平臺與分布式文件系統和分析軟件整合在壹起。而成功的最主要因素則是存儲的可擴展性因素。