PCA方法的運算過程-創(chuàng)新互聯(lián)

這篇文章給大家分享的是有關PCA方法的運算過程的內容。小編覺得挺實用的,因此分享給大家做個參考。一起跟隨小編過來看看吧。

成都創(chuàng)新互聯(lián) - 眉山服務器托管,四川服務器租用,成都服務器租用,四川網通托管,綿陽服務器托管,德陽服務器托管,遂寧服務器托管,綿陽服務器托管,四川云主機,成都云主機,西南云主機,眉山服務器托管,西南服務器托管,四川/成都大帶寬,成都機柜租用,四川老牌IDC服務商

1 引言
在展開數(shù)據分析工作時,我們經常會面臨兩種困境,一種是原始數(shù)據中特征屬性太少,“巧婦難為無米之炊”,很難挖掘出潛在的規(guī)律,對于這種情況,我們只能在收集這一環(huán)節(jié)上多下功夫;另一種困境剛好相反,那就是特征屬性太多,這真是一種幸福得煩惱,因為特征屬性多就意味著信息量大,可挖掘的價值就大,但另一方面也可能造成過擬合和計算量的急劇增大,對于這一問題,最好的方法就是在預處理階段對數(shù)據進行降維。
說到降維,很自然得就想到主成分分析法(Principal Component Analysis,PCA),因為這一方法在眾多降維方法中獨領風騷,應用的最為廣泛。主成分分析法是一種無監(jiān)督學習方法,它的主要觀點是認為數(shù)據的特征屬性之間存在線性相關,導致數(shù)據間的信息冗余,通過正交變換把線性相關的特征用較少線性無關的數(shù)據來表示,以達到降維的目的。
本文接下來的內容就對PCA方法進行思想和運算過程等方面由淺入深地展開介紹。

2 算法原理
2.1 大投影方差法
為方便描述,我們先以二維平面上的數(shù)據集為例。如下圖所示,有左下至右上45度角斜向上分布?,F(xiàn)在,我們要對數(shù)據集進行降維,因為是二維數(shù)據,所以也只能降到一維,只需要找到一個條合適的坐標軸將數(shù)據投影過去即可。最簡單地,我們可以將數(shù)據直接投影到已有的兩個坐標軸上,如如圖(a)(b)所示,這種方法相當于直接舍棄另一特征維度,將直接導致對另一特征維度信息的完全丟失,往往并不可取。降維過程雖然不可避免得會造成信息丟失,但我們卻也希望大化地保留數(shù)據的原始信息。既然往已有的坐標軸上投影不可取,那么,我們構造新的坐標系,如圖(c)所示,我們沿左下至右上45度角斜向上構造出一條y軸,從直覺上判斷我們也會覺得將數(shù)據投影到這個y軸比直接頭引導x1軸、x2軸更加合適,因為這個時候y軸與數(shù)據分布最“契合”,數(shù)據的投影在y軸上最為分散,或者說數(shù)據在y軸上的投影的方差大。這就是大投影方差法,通過這種方法,在投影后的空間中數(shù)據的方差大,才能大化數(shù)據的差異性,因此可以保留更多的原始數(shù)據信息。

image

我們從數(shù)學角度上分析一下為什么方差大是獲得的新坐標系才是最好的。
如下圖2所示,假設我們點A、B、C為圖1中數(shù)據集零均值化化后的樣本點,點A′、B′、C′分別是點A、B、C在旋轉后的X1′軸上的投影,O為坐標原點。|AA′|表示原坐標點A到X1′軸上投影A′的距離,又被稱為投影誤差。顯然,投影誤差越小,A與A′相似度越大,那么投影后的數(shù)據就保留了更多的信息,所以投影誤差越小越好,等價地,對各樣本點投影誤差的平方和|AA′|2+|BB′|2+|CC′|2也越大越好。因為斜邊的長度|OA|、|OB|、|OC|是固定的,結合勾股定理可知,|AA′|2+|BB′|2+|CC′|2+|OA′|2+|OB′|2+|OC′|2的大小也是保持不變的,這就意味著,投影誤差越小,|OA′|2+|OB′|2+|OC′|2就越大。其實,|OA′|2+|OB′|2+|OC′|2就是樣本方差和,所以說,方差大是獲得的新坐標系最好。

image

現(xiàn)在,我們知道了怎么確定最優(yōu)的方向進行投影的問題,不過還有問題沒有解決:
(1)上面的講述都是以二維數(shù)據為例子,對于二維數(shù)據的降維,當然只需要找到一個維度或者說一條坐標軸進行投影即可,如果是更高維度的數(shù)據進行降維時,就不可能都降為一維,這時候可就需要尋找到多條坐標軸來來投影,如果尋找第一個維度時,使用方差大化投影當然沒問題,但是,如果在尋找第二個維度時,仍然堅持方差大化,那么第二個維度的坐標軸就回與第一個維度的坐標做基本重合,這樣投影后的數(shù)據相關性極大,是沒有意義的。那么,對于高維度數(shù)據降維,要如何確定多個維度坐標軸呢?
(2)找到了新的坐標系后,怎么將原始數(shù)據映射到新的坐標系中呢?
帶著這兩個問題,我們繼續(xù)往下分析。

2.2 協(xié)方差矩陣
PCA算法降維的主要通過是降低原始數(shù)據中的冗余信息來實現(xiàn)的,這里的冗余信息指的是數(shù)據集中不同特征屬性間的相關性,例如工作時長、學歷、薪資待遇這三個屬性,這確實是三個不同的特征屬性,但無論是工作時長還是學歷都跟薪資待遇之間存在一定影響,在大多數(shù)情況下,工作時長越長、學歷越高薪資待遇就越高。所以,工作時長、學歷與薪資待遇是存在相關性的,PCA算法目標就是消除這些相關性達到降維的目的。
對于相關性,在數(shù)學上通常用協(xié)方差來進行描述。假設數(shù)據集X是包含n個樣本,m個特征屬性,xi和xj分別是數(shù)據集X中的兩個不同的特征屬性,那么xi和xj之間的協(xié)方差為:
Cov(xi,xj)=1n?1?∑nk=1(xik?xˉi)(xjk?xˉj)
式中,xik,xjk表示xi、xj的第k個樣本在兩個特征屬性中的取值,xˉi、xˉj分別是xi,xj的均值。
協(xié)方差取值區(qū)間為[?1,1],協(xié)方差絕對值越大兩特征屬性相關性越大,當協(xié)方差小于0時,表示兩個特征屬性呈負相關,當協(xié)方差大于0時,表示兩個特征屬性呈正相關,當協(xié)方差為0時,表示量特征屬性不相關,在線性代數(shù)上,這兩個特征屬性時正交的。
特殊地,Cov(xi,xi)表示特征屬性xi的方差。
通過上一小節(jié),我們知道,降維時選擇第一個投影方向是通過方差大化進行選取,選取后續(xù)為投影方向時,我們就不可能再讓降維后的各維度數(shù)據間還存在相關性,所以,在選取后續(xù)維度時需要在滿足與所有已選取投影方向正交,即協(xié)方差為0的前提下,選取方差大的方向??偨Y一下降維的過程,假如我們需要從m維降到k維,首先要在所有可能方向中選取一個投影方差大的方向作為第一個維度,然后在所有與第一個維度正交的方向中選取一個方差大的方向作為第二個維度方向,重復這一步驟,直到選取了k個維度。
可以看出,在整個降維過程中,既要計算方差,也要計算特征屬性兩兩之間的協(xié)方差,有沒有什么方法將兩者統(tǒng)一到一起呢?有,協(xié)方差矩陣。 協(xié)方差矩陣中每一個元素對應兩個特征屬性間的協(xié)方差,例如第i行第j列元素表示第i個特征屬性與第j個特征屬性間的協(xié)方差;協(xié)方差矩陣對角線上的元素,當i=j時,表示第i個特征屬性的方差。數(shù)據集X的協(xié)方差矩陣表示為: image

仔細觀察協(xié)方差矩陣,可以發(fā)現(xiàn)協(xié)方差矩陣是實對稱矩陣,實對稱矩陣剛好有一些很好的性質可以被利用:
(1)實對稱矩陣必可對角化,且其相似對角矩陣的對角線元素為m個特征值
(2)實對稱矩陣的特征值是實數(shù),特征向量是實向量
(3)實對稱矩陣的不同特征值對應的特征向量是正交的
請務必注意,這三個性質很重要,不理解沒關系,記住就好,接下來的內容都必須以這三個性質為基礎。因為特征值對應的特征向量就是理想中想取得正確的坐標軸的基,而特征值就等于數(shù)據在投影之后的坐標上的方差。所以有了協(xié)方差矩陣,接下來要做的,就是將協(xié)方差矩陣對角化,這個對角化的過程可以理解為是對來原坐標軸的旋轉即尋找最佳投影坐標軸的過程,通過對角化的過程可以讓除對角元素外的所有元素為零,也就是協(xié)方差為零,各特征屬性將將變得不相關。當協(xié)方差矩陣對角化之后,對角元素就是特征值,也是各投影后坐標軸上的方差,我們選取大的一個特征值對應的特征向量作為基,對原始數(shù)據進行變換,就可以用獲得原始數(shù)據在新坐標軸上的投影。
我們大概描述一下這個坐標變換的原理。在機器學習中,我們喜歡用向量和矩陣來表示數(shù)據,因為向量和矩陣有很多很好的數(shù)學性質,可以很方便的進行數(shù)學運算。如下圖3所示,從圖1所示數(shù)據集中取一點,假設坐標為(3,1),那么我們可以表示為以原點為起點以點(3,1)為終點的一個箭頭,這個箭頭在x1軸上投影為3,在x2軸三的投影是1。我們可以這么理解,有一個向量在兩條坐標軸上的投影分別為x1,x2,那么該向量又可以表示為:x1?(1,0)T+x2?(0,1)T,這里的(1,0)和(0,1)就是下圖黑色直角坐標系的一組基。對于基,可以粗淺的理解為坐標軸的基礎,有了基,坐標才有意義,在大多數(shù)情況下,我們都默認以(1,0)和(0,1)這對相互正交且模長為1向量為基。如果我們對黑色直角坐標系逆時針旋轉45就得到了一個新的坐標系,這個坐標系的基為(12√,12√)和(?12√,12√),這類我們不深入討論這個基是怎么得來的,反正在PCA方法中通過協(xié)方差對角化之后多的的特征值對應特征向量就是新坐標系的基。有了新坐標系的基,怎么將原坐標系的坐標轉換的用新坐標系表示呢?其實我們只需要對新坐標系的基與原坐標系中的坐標進行內積運算即可:將原坐標與兩個基做內積運算,獲得的兩個結果分別作為新坐標系的第一個坐標和第二個坐標,這個過程叫做基變換,我們用矩陣運算來表示這個過程:

image

所以點(3,1)在新坐標系中的坐標為(42√,?2–√)。這種基變換的方式也適用于更加多維的情況,因為兩個矩陣相乘本質就是一種線性變換,也可以理解為將游標矩陣中的每一列列向量變換到左邊矩陣中每一行行行向量為基坐標是的空間中去。

image

總結來說,完成對角化之后,矩陣中對角線上元素就是特征值,也是尋找到的眾多坐標軸的投影方差,每次從中去所有特征值中大的一個,然后求對應的特征向量,這個特征向量就是對應的新坐標軸的基,用這個基于原始數(shù)據做內積運算就可以得到原始數(shù)據在新坐標軸上的投影,重復這個過程k次,就完成可降維。
將上文中所有內容囊括在一起,那么,主成分分析法就概括為以下5各步驟:
(1) 零平均值,在很多情況下,為了去除量綱的影響,最好直接標準化。
(2) 計算協(xié)方差矩陣。
(3) 協(xié)方差矩陣對角化,求特征值。
(4) 對特征值從大到小排序,選擇其中大的k個,然后求其對應的k個特征向量分別作為行向量組成特征向量矩陣P。
(5) 將k個特征向量作為新的坐標系的基對原始數(shù)據進行變換。

3 總結
PCA算法是一種無監(jiān)督學習方法,只需要對數(shù)據集本身的特征屬性進行運算,消除相關性達到壓縮數(shù)據去噪降維的目的。 PCA算法的主要優(yōu)點有:
(1)僅僅需要以方差衡量信息量,不受數(shù)據集以外的因素影響。
(2)各主成分之間正交,可消除原始數(shù)據成分間的相互影響的因素。
(3)計算方法簡單,易于實現(xiàn)。
PCA算法的主要缺點有:
(1)主成分各個特征維度的含義不在具有實際的物理意義,所以不如原始樣本特征的解釋性強。
(2)方差小的非主成分也可能含有對樣本差異的重要信息,因降維丟棄可能對后續(xù)數(shù)據處理有影響。

關于PCA方法的運算過程就分享到這里了,希望以上內容可以對大家有一定的幫助,可以學到更多知識。如果覺得文章不錯,可以把它分享出去讓更多的人看到。

另外有需要云服務器可以了解下創(chuàng)新互聯(lián)cdcxhl.cn,海內外云服務器15元起步,三天無理由+7*72小時售后在線,公司持有idc許可證,提供“云服務器、裸金屬服務器、高防服務器、香港服務器、美國服務器、虛擬主機、免備案服務器”等云主機租用服務以及企業(yè)上云的綜合解決方案,具有“安全穩(wěn)定、簡單易用、服務可用性高、性價比高”等特點與優(yōu)勢,專為企業(yè)上云打造定制,能夠滿足用戶豐富、多元化的應用場景需求。

網站名稱:PCA方法的運算過程-創(chuàng)新互聯(lián)
標題鏈接:http://bm7419.com/article6/geeig.html

成都網站建設公司_創(chuàng)新互聯(lián),為您提供企業(yè)網站制作、移動網站建設網站內鏈、網站制作、企業(yè)建站、軟件開發(fā)

廣告

聲明:本網站發(fā)布的內容(圖片、視頻和文字)以用戶投稿、用戶轉載內容為主,如果涉及侵權請盡快告知,我們將會在第一時間刪除。文章觀點不代表本網站立場,如需處理請聯(lián)系客服。電話:028-86922220;郵箱:631063699@qq.com。內容未經允許不得轉載,或轉載時需注明來源: 創(chuàng)新互聯(lián)

成都定制網站建設