大數據分析的用戶包括大數據分析專家和普通用戶,但他們對大數據分析最基本的要求是可視化分析,因為可視化分析可以直觀地呈現大數據的特點,同時也容易被讀者接受,就像看圖說話壹樣。
2.數據挖掘算法
大數據分析的理論核心是數據挖掘算法。各種數據挖掘算法可以基於不同的數據類型和格式更科學地呈現數據本身的特征,也正是因為這些被全世界統計學家認可的各種各樣的統計方法(可以稱之為真理),才能深入數據,挖掘出公認的價值。另壹方面也是因為這些數據挖掘算法可以更快的處理大數據。如果壹個算法需要幾年時間才能得出結論,大數據的價值就無從談起。
3.預測分析
大數據分析的最終應用領域之壹是預測分析,從大數據中挖掘出特征。通過科學建模,可以通過模型帶入新的數據,從而預測未來的數據。
4.語義引擎
非結構化數據的多樣化給數據分析帶來了新的挑戰,我們需要壹套工具來系統地分析和提煉數據。語義引擎需要設計足夠的人工智能,從數據中主動提取信息。
5.數據質量和數據管理。大數據分析離不開數據質量和數據管理。無論是學術研究還是商業應用,高質量的數據和有效的數據管理都可以保證分析結果的真實性和價值。
大數據分析的基礎就是以上五個方面。當然,如果深入到大數據分析,還有很多更有特色、更深入、更專業的大數據分析方法。
大數據技術
數據采集:ETL工具負責將分布式、異構數據源中的數據,如關系數據、平面數據文件等提取到臨時中間層,進行清洗、轉換和集成,最終加載到數據倉庫或數據集市中,成為聯機分析處理和數據挖掘的基礎。
數據訪問:關系數據庫、NOSQL、SQL等。
基礎設施:雲存儲、分布式文件存儲等。
數據處理:NLP(自然語言處理)是研究人機交互的語言問題的學科。自然語言處理的關鍵是讓計算機“理解”自然語言,所以自然語言處理也叫自然語言理解和計算語言學。壹方面是語言信息處理的壹個分支,另壹方面是人工智能的核心課題之壹。
統計分析:假設檢驗、顯著性檢驗、差異分析、相關分析、t檢驗、方差分析、卡方分析、偏相關分析、距離分析、回歸分析、簡單回歸分析、多元回歸分析、逐步回歸、回歸預測和殘差分析、嶺回歸、logistic回歸分析、曲線估計、因子分析、聚類分析、主成分分析、因子分析、快速聚類法和聚類法。
數據挖掘:分類、估計、預測、親和分組或關聯規則、聚類、描述和可視化、描述和可視化、復雜數據類型挖掘(文本、Web、圖形圖像、視頻、音頻等。).
模型預測:預測模型、機器學習、建模與仿真。
呈現的結果:雲計算、標簽雲、關系圖等。
大數據的處理
1.大數據處理之壹:采集
大數據的收集是指使用多個數據庫從客戶端(Web、App或傳感器等)接收數據。),用戶可以通過這些數據庫進行簡單的查詢和處理。例如,電子商務公司使用傳統的關系數據庫如MySQL和Oracle來存儲每筆交易的數據。此外,Redis和MongoDB等NoSQL數據庫也常用於數據收集。
在大數據采集過程中,其主要特點和挑戰是高並發,因為可能會有成千上萬的用戶同時訪問和操作,比如火車票售票網站和淘寶,其並發訪問量高峰時達到數百萬,因此需要在采集端部署大量的數據庫來支撐。而如何在這些數據庫之間進行負載均衡和碎片化,確實需要深入的思考和設計。
2.大數據處理II:導入/預處理
雖然采集終端本身有很多數據庫,但是要想有效的分析這些海量數據,就要把這些數據從前端導入到壹個集中式的大型分布式數據庫或者分布式存儲集群中,在導入的基礎上可以做壹些簡單的清理和預處理。也有壹些用戶在導入時會使用來自Twitter的Storm來流數據,以滿足壹些業務的實時計算需求。
導入和預處理過程的特點和挑戰主要是導入數據量大,往往達到每秒百兆甚至千兆的水平。
3.大數據處理III:統計/分析
統計分析主要是利用分布式數據庫或分布式計算集群,對存儲在其中的海量數據進行分析歸類,以滿足大多數常見的分析需求。在這方面,壹些實時需求會使用EMC的GreenPlum,Oracle的Exadata,基於MySQL的Infobright,壹些批量處理或者半結構化的數據需求可以使用Hadoop。
統計與分析的主要特點和挑戰是分析涉及的數據量大,會占用大量的系統資源,尤其是I/O。
4.大數據處理IV:挖掘
不同於以往的統計和分析過程,數據挖掘壹般沒有預設的主題,主要基於各種算法對現有數據進行計算,從而達到預測的效果,從而實現壹些高層次數據分析的要求。典型的算法包括用於聚類的Kmeans、用於統計學習的SVM和用於分類的NaiveBayes。使用的主要工具是Hadoop的Mahout。這個過程的特點和挑戰是,用於挖掘的算法非常復雜,涉及的數據量和計算量非常大。常用的數據挖掘算法主要是單線程的。
整個大數據處理的壹般流程至少要滿足這四個步驟才能算比較完整的大數據處理。