1.根據模型訓練方法的不同,可以分為四類:監督學習、無監督學習、半監督學習和強化學習。
常見的監督學習算法包括以下幾類:
(1)人工神經網絡:反向傳播、玻爾茲曼機、卷積神經網絡、Hopfield網絡、多層感知器、徑向基函數網絡、RBFN)、受限玻爾茲曼機、遞歸神經網絡(RNN)、自組織映射(SOM)、脈沖神經網絡等。
(2) Bayesin:樸素貝葉斯、高斯樸素貝葉斯、多項式樸素貝葉斯和平均單相關估計(AODE)。
貝葉斯信念網絡(BBN)、貝葉斯網絡(BN)等。
(3)決策樹:分類回歸樹(CART)、叠代二分器3 (ID3)、C4.5算法、C5.0算法、卡方自動交互檢測、CHAID)、決策樹樁、ID3算法、隨機森林、SLIQ(Quest中的監督學習)等。
(4)線性分類器類:Fisher線性判別式。
線性回歸、邏輯回歸、多元邏輯回歸、樸素貝葉斯分類器、感知、支持向量機等。
常見的無監督學習算法包括:
(1)人工神經網絡:生成對抗網絡(GAN)、前饋神經網絡、邏輯學習機、自組織映射等。
(2)關聯規則學習:Apriori算法、Eclat算法、FP-Growth算法等。
(3)層次聚類算法:單鏈聚類、概念聚類等。
(4)聚類分析:BIRCH算法、DBSCAN算法、期望最大化(EM)、模糊聚類、K-means算法、K-means聚類、K-medians聚類、Mean-shift算法等。
(5)異常檢測:K近鄰(KNN)算法、局部離群因子(LOF)算法等。
常見的半監督學習算法包括:生成模型、低密度分離、基於圖的方法、協同訓練等。
常見的強化學習算法包括:Q學習、狀態-動作-獎勵-狀態-動作(SARSA)、DQN(深度Q網絡)、策略梯度、基於模型的強化學習和時間差異學習。
常見的深度學習算法包括:深度信念機器、深度卷積神經網絡、深度遞歸神經網絡、分層時間記憶(HTM)、深度玻爾茲曼機器(DBM)、堆疊自動編碼器、生成對抗網絡等。
二、根據要解決的任務不同,大致可以分為五種:二分類算法、多分類算法、回歸算法、聚類算法、異常檢測。
1.兩級分類
(1)兩類SVM:適用於數據特征多,模型線性的場景。
(2)二類平均感知器:適用於訓練時間短,模型線性的場景。
(3)二類Logistic回歸:適用於訓練時間短,模型線性的場景。
(4)兩類貝葉斯點機器:適用於訓練時間短,模型線性的場景。(5)二類決策森林:適用於訓練時間和準確率都比較短的場景。
(6)二類提升決策樹:適用於訓練時間短、準確率高、內存占用大的場景。
(7)二類決策叢林:適用於訓練時間短、準確率高、占用內存小的場景。
(8)兩類局部深度支持向量機:適用於數據特征較多的場景。
(9)兩類神經網絡:適用於精度高、訓練時間長的場景。
解決多分類問題通常有三種方案:第壹種是從數據集和應用方法上使用兩個分類器來解決多分類問題;二是直接使用具有多分類能力的多分類器;第三,通過將兩個分類器改進為多分類器,解決了多分類問題。
常用算法:
(1)多類Logistic回歸:適用於訓練時間短,模型線性的場景。
(2)多類神經網絡:適用於精度高、訓練時間長的場景。
(3)多類決策森林:適用於準確率高、訓練時間短的場景。
(4)多類決策叢林:適用於準確率高、占用內存小的場景。
(5)壹對多類:要看兩個分類器的效果。
返回
回歸問題通常用於預測特定值,而不是分類。除了返回的結果不同之外,其他方法都類似於分類問題。我們稱之為定量輸出或連續變量預測回歸;定性輸出,或離散變量預測,稱為分類。長毛巾的算法是:
(1)有序回歸:適用於數據排序。
(2)泊松回歸:適用於事件數量的預測。
(3)快速森林分位數回歸:適用於預測分布情景。
(4)線性回歸:適用於訓練時間短,模型線性的場景。
(5)貝葉斯線性回歸:適用於線性模型和數據較少的訓練場景。
(6)神經網絡回歸:適用於精度高、訓練時間長的場景。
(7)決策森林回歸:適用於準確率高、訓練時間短的場景。
(8)助推決策樹回歸:適用於準確率高、訓練時間短、內存占用大的場景。
串
聚類的目標是發現數據的潛在規律和結構。聚類通常用於描述和度量不同數據源之間的相似性,並將數據源劃分到不同的簇中。
(1)層次聚類:適用於訓練時間短、數據量大的場景。
(2)K-means算法:適用於準確率高、訓練時間短的場景。
(3)模糊C均值(FCM):適用於精度高、訓練時間短的場景。
(4)SOM(自組織特征圖):適用於長時間運行的場景。
異常檢測
異常檢測是指檢測和標記數據中的異常或非典型分裂,有時也稱為偏差檢測。
異常檢測看起來很像監督學習問題,兩者都是分類問題。它們都是對樣本的標簽進行預測和判斷,但實際上它們之間的差異是很大的,因為異常檢測中的陽性樣本(異常點)是很小的。常用的算法有:
(1)壹類SVM:適用於數據特征較多的場景。
(2)基於PCA的異常檢測:適用於訓練時間較短的場景。
常見的遷移學習算法包括歸納遷移學習、直接遷移學習、無監督遷移學習和直推式遷移學習。
算法的適用場景:
需要考慮的因素有:
(1)數據的大小、質量和特征。
(2)機器學習要解決的具體業務場景中的問題本質是什麽?
(3)什麽是可接受的計算時間?
(4)算法的精度要求有多高?
————————————————
原文鏈接:/nfzhlk/article/details/82725769