壹.統計分類方法
統計分類方法分為非監督分類方法和監督分類方法。無監督分類方法不需要選擇已知類別的像素來訓練分類器,而有監督分類方法需要選擇壹定數量的已知類別的像素來訓練分類器,以估計分類器中的參數。無監督分類方法不需要任何先驗知識,不會因為訓練樣本的選擇而引入思想誤差,但是無監督分類得到的自然類別往往與研究中感興趣的類別不匹配。相應地,監督分類壹般需要事先定義分類類別,訓練數據的選取可能缺乏代表性,但在訓練過程中也可能發現嚴重的分類錯誤。
1.無監督分類器
無監督分類方法壹般是聚類算法。最常用的無監督聚類分類方法是K- means聚類方法(杜達和哈特,1973)和叠代自組織數據分析算法(ISODATA)。其算法描述可以在通用統計模式識別文獻中找到。
壹般情況下,簡單的聚類方法得到的分類結果精度較低,因此很少單獨使用聚類方法對遙感數據進行專題分類。而通過對遙感數據的聚類分析,可以初步了解每個類別的分布情況,獲得最大似然監督分類中每個類別的先驗概率。最終類別的均值向量和協方差矩陣可用於最大似然分類過程(Schowengerdt,1997)。
2.監督分類器
監督分類器是遙感數據專題分類中最常用的分類器。與無監督分類器相比,有監督分類器需要選取壹定量的訓練數據來訓練分類器,估計分類器中的關鍵參數,然後用訓練好的分類器將像素劃分到各個類別。監督分類過程壹般包括定義分類類別、選擇訓練數據、訓練分類器和最終像元分類四個步驟(Richards,1997)。每壹步都對最終分類的不確定性有重大影響。
監督分類器分為參數分類器和非參數分類器。參數分類器要求待分類數據滿足壹定的概率分布,而非參數分類器不要求數據的概率分布。
遙感數據分類中常用的分類器包括最大似然分類器、最小距離分類器、馬氏距離分類器、K-最近鄰分類器(K-NN)和平行六面體分類器。第三章詳細介紹了最大似然、最小距離和馬氏距離分類器。這裏簡單介紹了K-NN分類器和平行六面體分類器。
K-NN分類器是壹種非參數分類器。該分類器的決策規則是將像素劃分到特征空間中與它們的特征向量最接近的訓練數據的特征向量所表示的類別中(Schowengerdt,1997)。當分類器中K=1時,稱為1-NN分類器。此時,將最接近待分類像素的訓練數據的類別作為該像素的類別。當k > 1時,將待分類像素的k個最新訓練數據中像素個數最多的類別作為該像素的類別,或者可以計算待分類像素與其k個相鄰像素特征向量的歐氏距離的倒數作為權重,將權重值最大的訓練數據的類別作為待分類像素的類別。Hardin,(1994)深入討論了K-NN分類器。
平行六面體分類方法是壹種簡單的非參數分類算法。這種方法通過計算每壹波段訓練數據的直方圖的上下限來確定各種類型像素的亮度值範圍。對於每個類別,每個波段的上限和下限壹起形成壹個多維盒或平行六面體。所以在m個範疇裏有m個平行六面體。當要分類的像素的亮度值落在平行六面體的特定類別內時,該像素被分類到由平行六面體表示的類別中。平行六面體分類器可以用圖5-1中兩波段遙感數據的分類問題來表示。圖中的橢圓表示從訓練數據中估計出的各個類別的亮度值分布,矩形表示各個類別的亮度值範圍。像素的亮度落在哪個類別的亮度範圍內,就劃分到哪個類別。
圖5-1平行四邊形分類法示意圖
3.統計分類器的評估
各種統計分類器在遙感數據分類中的性能是不同的,這不僅與分類算法有關,還與數據的統計分布特征、訓練樣本的選取等因素有關。
無監督聚類算法不需要分類數據的統計特征,但由於無監督分類方法不考慮任何先驗知識,分類精度普遍較低。更多情況下,聚類分析被視為非監督分類之前的探索性分析,用於了解分類數據中每個類別的分布和統計特征,為監督分類中的類別定義、訓練數據選擇和最終分類過程提供先驗知識。在實際應用中,壹般采用監督分類方法對遙感數據進行分類。
最大似然分類法是遙感數據分類中最常用的分類方法。最大似然分類法屬於參數分類法。最大似然分類(maximum likelihood class ification)被認為是在訓練樣本足夠多、類別的先驗概率分布有壹定知識、數據接近正態分布的情況下,分類精度最高的分類方法。但是,當訓練數據較少時,均值和協方差參數估計的偏差會嚴重影響分類精度。Swain和Davis(1978)認為在N維譜空間的最大似然分類中,每個類別的訓練數據樣本至少要達到10×N,如果可能的話最好達到100×N以上。而且在很多情況下,遙感數據的統計分布不滿足正態分布的假設,很難確定各類別的先驗概率。
最小距離分類器可以認為是壹種不考慮協方差矩陣的最大似然分類方法。當訓練樣本較少時,均值的估計精度壹般高於協方差矩陣的估計精度。因此,在訓練樣本有限的情況下,無需計算協方差矩陣,只需估計訓練樣本的均值即可。因此,最大似然算法退化為最小距離算法。由於沒有考慮數據的協方差,類別的概率分布是對稱的,每個類別的光譜特征分布的方差被認為是相等的。顯然,當有足夠多的訓練樣本保證協方差矩陣的準確估計時,最大似然分類結果的精度要高於最小距離。但當訓練數據較少時,最小距離分類精度可能高於最大似然分類精度(Richards,1993)。而且最小距離算法對數據的概率分布特征沒有要求。
當所有類別的協方差矩陣相等時,Mahalanobis距離分類器可以視為最大似然分類器。由於假設所有類的協方差矩陣相等,與最大似然法相比,它丟失了類間協方差矩陣差異的信息,但與最小距離法相比,它通過協方差矩陣保持了壹定的方向敏感性(Richards,1993)。因此,馬氏距離分類器可以看作是介於最大似然分類器和最小距離分類器之間的壹種分類器。與最大似然分類壹樣,馬氏距離分類器要求數據服從正態分布。
K-NN分類器的壹個主要問題是需要大的訓練數據集來保證分類算法的收斂性(Devil and Kittler,1982)。K-NN分類器的另壹個問題是訓練樣本選擇的誤差對分類結果影響很大(Cortijo and Blanca,1997)。同時,K-NN分類器的計算復雜度隨著最近鄰範圍的擴大而增加。但由於K-NN分類器考慮了像素鄰域內的空間關系,因此與其他光譜分類器相比,分類結果中的“椒鹽現象”較少。
平行六面體分類法的優點是簡單、快速、不依賴於任何概率分布要求。其缺陷在於:首先,落在所有類別亮度值範圍之外的像素只能歸為未知類別;其次,很難區分落在各種亮度範圍重疊區域內的像素的類別(如圖5-1)。
各種統計分類方法的特點可歸納為表5-1。
二、神經網絡分類器
神經網絡在遙感數據分類中最大的優勢在於能夠平等對待多源輸入數據。即使這些輸入數據具有完全不同的統計分布,但每層神經網絡中大量神經元之間連接的權重是不透明的,因此用戶很難控制(Austin,Harding and Kanellopoulos et al .,1997)。
神經網絡遙感數據分類被認為是遙感數據分類的熱點研究領域之壹(Wilkinson,1996;Kimes,1998).神經網絡分類器還可以分為監督分類器和非監督分類器。由於神經網絡分類器對分類數據的統計分布沒有要求,屬於非參數分類器。
遙感數據分類中最常用的神經網絡是多層percep-tron (MLP)。該模型的網絡結構如圖5-2所示。該網絡包括三層:輸入層、隱含層和輸出層。輸入層主要作為輸入數據和神經網絡的輸入接口,本身沒有處理功能;隱藏層和輸出層的處理能力包含在每個節點中。輸入結構壹般是待分類數據的特征向量,壹般是訓練像素的多光譜向量,每個節點代表壹個光譜帶。當然,輸入節點也可以是像素的空間上下文信息(如紋理),或者是多周期譜向量(Paola和Schowengerdt,1995)。
表5-1各種統計分類器的比較
圖5-2多層感知器的神經網絡結構
對於隱藏層和輸出層之間的節點,其處理過程是壹個激活函數。假設激勵函數為f(S),對於隱層節點,有:
遙感信息的不確定性研究
其中pi是隱藏層節點的輸入;Hj是隱層節點的輸出;w是連接每壹層的神經之間的重量。
對於輸出層,存在以下關系:
遙感信息的不確定性研究
其中hj是輸出層的輸入;Ok是輸出層的輸出。
激勵函數壹般表示為:
遙感信息的不確定性研究
在確定網絡結構後,需要對網絡進行訓練,使其具有根據新的輸入數據預測輸出結果的能力。反向傳播訓練算法是最常用的。該算法將訓練數據從輸入層輸入網絡,隨機生成每個節點的連接權值,根據(5-1)(5-2)(5-3)中的公式計算,將網絡輸出與預期結果(訓練數據的類別)進行比較,計算誤差。反向傳播網絡使用該誤差來調整節點之間的連接權重。調整連接權重的方法壹般是delta規則(Rumelhart等,1986):
遙感信息的不確定性研究
其中η是學習率;δk是誤差變化率;α是動量參數。
如此數據的前向和後向傳播過程叠代,直到網絡誤差降低到預設水平,網絡訓練結束。此時可以將待分類的數據輸入神經網絡進行分類。
除了多層感知器神經網絡模型,其他網絡模型也用於遙感數據分類。例如,Kohonen自組織網絡廣泛應用於遙感數據的無監督聚類分析(Yoshida et al .,1994;Schaale等人,1995);自適應共振論網絡(Silva,S和Caetano,M.1997),模糊ART映射(Fischer,M.M和Gopal,s.1997),徑向基函數(羅,1997)。
影響基於神經網絡的遙感數據分類精度的因素很多。Foody和Arora(1997)認為神經網絡的結構、遙感數據的維數和訓練數據的大小是影響神經網絡分類的重要因素。
神經網絡的結構,尤其是層數和每層神經元的數量,是神經網絡設計中最關鍵的問題。網絡結構不僅影響分類精度,還直接影響網絡訓練時間(Kavzoglu and Mather,1999)。對於用於遙感數據分類的神經網絡,輸入層和輸出層的神經元數目由特征維數和遙感數據的類別總數決定,因此網絡結構的設計主要解決隱層數目和隱層神經元數目。壹般過於復雜的網絡結構善於描述訓練數據,但分類準確率較低,即“過擬合”現象。但是,簡單的網絡結構不能很好地學習訓練數據中的模式,因此分類精度較低。
網絡結構壹般由實驗確定。Hirose等人(1991)提出了壹種方法。這種方法從壹個小的網絡結構開始,每次網絡訓練陷入局部最優時增加壹個隱神經元,然後再次訓練,以此類推,直到網絡訓練收斂。這種方法可能會導致網絡結構過於復雜。壹種解決方案是當網絡被認為收斂時減去最後壹個神經元,直到網絡不再收斂,然後最後壹個收斂的網絡被認為是最優結構。這種方法的缺點是非常耗時。修剪是確定神經網絡結構的另壹種方法。與Hirose等人(1991)的方法不同,“剪枝法”從壹個大的網絡結構開始,然後逐漸去除被認為冗余的神經元(Sietsma和Dow,1988)。從大網絡開始的好處是學習速度快,對初始條件和學習參數不敏感。重復“修剪”的過程,直到網絡不再收斂,最後收斂的網絡被認為是最優的(Castellano,Fanelli和Pelillo,1997)。
用於神經網絡訓練的訓練數據樣本的數量隨著不同的網絡結構、類別和其他因素而變化。但基本要求是訓練數據能充分描述代表類別。Foody等人(1995)認為訓練數據的大小對遙感的分類精度有顯著影響,但與統計分類器相比,神經網絡的訓練數據可以少壹些。
分類變量的數據維數對分類精度的影響是遙感數據分類中常見的問題。許多研究表明,壹般類別之間的可分性和最終的分類精度會隨著數據維數的增加而增加,達到某壹點後,分類精度會隨著數據維數的不斷增加而降低(shahani and Landgrebe,1994)。這就是著名的休斯現象。壹般需要通過特征選擇去除信息相關性高的波段,或者通過主成分分析去除冗余信息。分類數據的維數對神經網絡分類的準確性也有明顯的影響(Battiti,1994),但休斯現象沒有傳統統計分類器(Foody和Arora,1997)嚴重。
Kanellopoulos(1997)認為壹個有效的ANN模型應該通過長期實踐考慮以下幾點:合適的神經網絡結構、優化的學習算法、輸入數據的預處理、避免振蕩、采用混合分類方法。其中,混合模型包括各種人工神經網絡模型的混合、人工神經網絡與傳統分類器的混合、人工神經網絡與知識處理器的混合。
第三,其他量詞
除了上述的統計分類器和神經網絡分類器,還有許多分類器用於遙感圖像分類。比如模糊分類器,這是針對地面類別連續變化,沒有明顯邊界的情況的分類器。它通過模糊推理機制確定每類像素的模糊隸屬度。壹般的模糊分類器有模糊C均值聚類法、監督模糊分類法(王,1990)和混合像元模型(Foody和Cox,1994;Settle和Drake,1993)和各種人工神經網絡方法(Kanellopoulos等人,1992;Paola和Schowengerdt,1995).由於模糊分類的結果是像素點屬於每個類別的模糊隸屬度,所以也稱為“軟分類器”,而傳統的分類方法稱為“硬分類器”
另壹種是上下文分類器,是綜合考慮圖像的光譜和空間特征的分類器。壹般的光譜分類器只考慮像素的光譜特征。然而,在遙感圖像中,相鄰像素壹般具有空間自相關性。具有強空間自相關的像素通常更有可能屬於同壹類別。同時考慮像元的光譜特征和空間特征,可以提高圖像分類的精度,減少分類結果中的“椒鹽現象”。當類別之間的譜空間重疊時,這種現象會更加明顯(Cortijo et al .,1995)。這種“椒鹽現象”可以通過分類的後處理濾波來消除,也可以通過在分類過程中加入表示像素鄰域關系的信息來解決。
可以在分類過程中以不同的方式添加上下文信息。壹種是在分類特征中加入圖像紋理信息;另壹個是圖像分割技術,包括Ketting和Landgrebe (1976),邊緣檢測方法和馬爾可夫隨機場方法。Rignot和Chellappa(1992)利用馬爾可夫隨機場方法對SAR圖像進行分類,取得了較好的效果。Paul Smits(1997)提出了保持邊緣細節的馬爾可夫隨機場方法,並將其應用於SAR圖像分類。Crawford(1998)結合層次分類方法和馬爾可夫隨機場方法對SAR圖像進行分類,獲得了更高的精度。Cortijo(1997)使用非參數光譜分類對遙感影像進行分類,然後使用ICM算法對初始分類進行修正。