主成分分析 - 線代啟示錄
文章推薦指數: 80 %
主成分分析的主要構想是分析共變異數矩陣(covariance matrix) 的特徵性質(見“共變異數 ... 以得出數據的主成分(即特徵向量) 與它們的權值(即特徵值); ...
線代啟示錄
Iseeknottoknowtheanswers,buttounderstandthequestions.
Skiptocontent
←每週問題April15, 2013
主成分分析與奇異值分解→
主成分分析
Postedon04/15/2013byccjou
本文的閱讀等級:高級
美國作家梭羅(HenryD.Thoreau)在《湖濱散記》談到他的幽居生活時,說道[1]:
我們的生活消耗在瑣碎之中。
一個老實的人除了十指之外,便不必有更大的數字了,頂多加上十個足趾,其餘不妨勉強一下。
簡單,簡單,簡單啊!我說,最好你的事祇兩三件,不要一百件或一千件;不必一百萬一百萬地計算,半打不夠計算嗎?總之,賬目可以記在大拇指甲上就好了。
我們也許不能複製梭羅在瓦爾登湖(Walden)的簡單生活,但是我們永遠可以通過化繁為簡來改善現況。
處於資訊爆炸的時代,我們不免要面對變數很多且樣本數很大的資料。
在分析高維度(變數很多)數據時,降維(dimensionreduction)常是一個必要的前處理工作。
主成分分析(principalcomponentsanalysis,簡稱PCA)由英國統計學家皮爾生(KarlPearson)於1901年提出[2],是一種降低數據維度的有效技術。
主成分分析的主要構想是分析共變異數矩陣(covariancematrix)的特徵性質(見“共變異數矩陣與常態分布”),以得出數據的主成分(即特徵向量)與它們的權值(即特徵值);透過保留低階主成分(對應大特徵值),捨棄高階主成分(對應小特徵值),達到減少數據集維度,同時保留最大數據集變異的目的。
本文從線性代數觀點介紹主成分分析,並討論實際應用時可能遭遇的一些問題。
假設我們有一筆維數等於,樣本大小是的數據,即每一數據點包含個變數的量測值。
如果我們想要以單一向量來代表整組數據,可用均方誤差作為誤差函數:
。
上式中,誤差平方和除以而非的緣由請見“樣本平均數、變異數和共變異數”。
理想的中心向量必須有最小的均方誤差,滿足此條件的向量是
,
稱為樣本平均數向量。
證明如下:
根據樣本平均數向量的表達式,上式最後一項等於零。
因為,可知,等號於時成立。
數據點與其分布平均的差,,稱為離差(deviation)。
在變數數目很大時,如何「目視」離差的散布情況?最簡單的作法是降維,譬如,將散布於高維空間的離差「壓縮」至一直線上。
令直線穿越,為其指向向量,且。
直線上的任一點可表示如下:
,
其中為一純量,代表至的距離。
一旦給定,我們可以用來近似,也就是以近似離差。
如同樣本平均數向量的設定方式,最佳的近似係數必須最小化均方誤差:
因為,計算偏導數並設為零,
。
由此解得
。
從幾何觀點解釋,即是離差在直線的正交投影,以下稱為正交原則(見圖1,參閱“正交投影──威力強大的線代工具”)。
圖1正交投影即為最佳近似
接下來我們尋找使最小化的直線方向。
將先前解出的最佳係數代回,整理可得
上面使用了。
令
,
稱為樣本共變異數矩陣。
乘開上式,確認的元即為第個變數和第個變數的樣本共變異數:
,
其中是第個數據點的第個變數(即的第元),是第個變數的樣本平均數(即的第元)。
明顯地,,故是一階對稱矩陣。
對於任一維向量,
,
即知是半正定矩陣。
數據集的總變異量(即離差平方和)是一常數,所以最小化等價於最大化。
我們的問題變成求解下列約束二次型:
。
解法如下(另一個解法見“Hermitian矩陣特徵值的變化界定”)。
使用Lagrange乘數法(見“Lagrange乘數法”),定義
,
其中是未定的Lagrange乘數。
計算偏導數(即梯度)並設為零,
,
可得
。
直線的指向向量就是樣本共變異數矩陣的特徵向量。
因為,欲使有最大值,我們必須選擇對應最大特徵值的特徵向量。
實對稱半正定矩陣有非負的特徵值(見“半正定矩陣的判別方法”),故可設的特徵值為。
此外,的特徵向量構成一個單範正交集(orthonormalset),見“實對稱矩陣可正交對角化的證明”,這個性質將於稍後使用。
我們選擇對應最大特徵值的特徵向量作為,透過離差在直線的正交投影即可粗估數據集的散布情況。
如果我們想獲得較為精確的近似結果,以上過程可推廣至更高維度。
考慮
,
其中。
我們的目標是尋找一組單範正交集,即(稱為Kronecker記號,若,否則),使最小化
。
根據正交原則,組合係數就是離差至單位向量的正交投影量,即。
重複前述推導方式,可以證明[3]
。
緊接的任務要解出約束二次型:
。
仍然使用Lagrange乘數法,定義
,
其中是未定的Lagrange乘數。
計算偏導數,並設結果為零向量:
。
對於,設,則
。
換句話說,當是樣本共變數矩陣的最大個特徵值的對應(單範正交)特徵向量時,目標函數有最大值。
當然,這並不是唯一解,但可以證明所有的解都有相同的目標函數值[4]。
不過,如果要求滿足,,則樣本共變數矩陣的特徵向量集是唯一的選擇[5]。
我們以近似數據點,樣本共變異數矩陣的特徵向量描述了數據集的主要成分,因此稱為主成分。
那麼的特徵值又有甚麼涵義呢?特徵值就是主成分的係數(稱為主成分係數)的變異數。
首先證明的平均數是零:對於,
。
再來計算的樣本變異數:
所以說,特徵值表示主成分的權值。
另外必須一提的是,主成分係數和沒有相關性,即樣本共變異數為零。
當,
給定維度等於的數據集,主成分分析的計算程序與結果可整理成簡明的矩陣形式。
計算樣本平均,定義階離差矩陣
,
階樣本共變異數矩陣則是
。
將正交對角化為
,
其中是特徵值矩陣,代表主成分的權值,是單範正交特徵向量構成的階正交主成分矩陣,。
圖2顯示的資料散布圖,樣本平均數向量,以及主成分和。
圖中橢圓的長軸平方與短軸平方之比等於主成分係數的變異數與的變異數之比,即。
圖2資料散布圖與主成分
定義階主成分係數矩陣,其中,因此
。
上式等號兩邊右乘,可得。
換一個說法,數據點的主成分分解式為
。
主成分係數是離差參考單範正交基底的座標向量。
最後還有一些與實際應用面相關的細節需要釐清。
我們應當保留多少低階主成分(對應大特徵值的特徵向量)?也就是說,如何選擇?常用的一種方式是設定近似數據的變異與原始數據的變異的比例。
譬如,選擇最小的使得
,
表示我們保留了80%的數據變異。
若數據的變數具有不同的變異,主成分方向會受到變異大的變數所決定。
如欲排除這個影響,我們可以用樣本相關矩陣取代樣本共變異數矩陣。
在套用主成分分析之前,預先將每一變數予以標準化(standardized),如下:
其中是第個變數的樣本變異數,即。
標準化後的數據集的樣本共變異數矩陣即為樣本相關矩陣
。
請讀者自行驗證的元就是第個變數與第個變數的相關係數(見“相關係數”)。
這時候,數據集的總變異等於維數,原因如下:
。
上面使用了跡數循環不變性(見“跡數的性質與應用”),最後一個等式係因的主對角元皆為。
如何得到數值穩定的主成分,權值,以及主成分係數,,?答案是奇異值分解(singularvaluedecomposition)。
通過主成分分析與奇異值分解的關係可以顯現主成分分析隱含的其他訊息(見“主成分分析與奇異值分解”)。
註解
[1]HenryD.Thoreau的Walden,原文如下:“Ourlifeisfritteredawaybydetail.Anhonestmanhashardlyneedtocountmorethanhistenfingers,orinextremecaseshemayaddhistentoes,andlumptherest.Simplicity,simplicity,simplicity!Isay,letyouraffairsbeastwoorthree,andnotahundredorathousand;insteadofamillioncounthalfadozen,andkeepyouraccountsonyourthumb-nail.”中譯取自《湖濱散記》,吳明實譯,今日世界出版社,1978年,83頁。
[2]維基百科:主成分分析
[3]
[4]考慮
。
令且
。
將條件方程組寫成矩陣形式:
。
因為有單範正交行向量,。
上式左乘,即有。
下面證明滿足條件式的任何解和都有相同的目標函數值:
。
將實對稱矩陣正交對角化為,其中是一正交矩陣,,。
條件式左乘,右乘,可得
,
上面我們令。
因為,也有單範正交行向量,故知和也是一組解。
利用跡數循環不變性,
,
證明和所含的兩組單範正交集有相同的目標函數值。
[5]假設我們已經求得最大化的單位向量,滿足。
下一步要找出單位向量使最大化,並滿足。
寫出
,
其中是Lagrange乘數。
計算偏導數,設結果為零:
。
上式左乘,可得。
另一方面,。
所以,,即得。
明顯地,我們選擇,是對應的單位特徵向量。
同樣的推導步驟可以推廣至的情況。
Sharethis:EmailPrintFacebookTwitterLikethis:LikeLoading...
Thisentrywaspostedin機器學習andtagged相關係數,Lagrange乘數法,PCA,SVD,共變異數矩陣,半正定矩陣,奇異值分解,樣本共變異數,樣本平均數,主成分分析.Bookmarkthepermalink.
←每週問題April15, 2013
主成分分析與奇異值分解→
20Responsesto主成分分析
小葉says:
04/15/2013at9:34pm
最近又去聽了微積分的課,剛好聽到了講述simpison數值積分方法。
數值積分方法特別可以處理非平滑的函數數據。
其中可達到一定精確度的simpison方法,用了拋物線來近似分散的數據,其手法就是揉合上述的正交投影以及黎曼和的概念。
因為正交投影,所以可以控制誤差到一定範圍內,黎曼積分也就可以派上用場。
只是我好奇的是,因為訊號處理常常用到傅立葉分析來搜尋出有用的訊號,那麼是否可以用傅立葉分析來做數值積分呢?
Reply
ccjousays:
04/16/2013at8:33am
Simpson積分法則的原理是Newton-Cotes公式:,,。
通常我們使用一內插多項式來近似以得到的計算公式。
這個式子看起來很像是Hilbert空間的函數近似問題:最小化,是我們喜愛的基底,最佳近似確實是在這個基底所擴張的子空間的正交投影。
傅立葉變換是一種積分變換,它可以用來計算函數近似的三角級數(trigonometricseries),或證明一些定理,但我不知道是否亦可作數值積分用。
Reply
TUKsays:
08/10/2020at2:52pm
傅立葉積分轉換是把時域的資訊轉換成頻率域的資訊,你可以理解成他把時域中某個頻率的能量積分然後放到頻率域中去。
所以沒錯,傅立葉轉換本身是有積分的效果在的,只是他把要拿來積分的東西分離成正交的獨立函數分別處理。
https://zh.wikipedia.org/wiki/%E8%B0%B1%E5%AF%86%E5%BA%A6
https://zh.wikipedia.org/wiki/%E5%B8%95%E5%A1%9E%E7%93%A6%E5%B0%94%E5%AE%9A%E7%90%86
Reply
Hermionesays:
08/27/2013at5:06pm
請問主成分分析是否一定要進行標準化?
Reply
ccjousays:
08/27/2013at6:33pm
如果變數的尺規(scale)相似,譬如,全部都是EEG訊號,那麼使用共變異數矩陣即可。
如果變數的尺規差異很大,譬如,年所得,年齡,體重,那麼應該使用相關係數矩陣(即標準化後的共變異數矩陣)。
Reply
張盛東says:
12/25/2013at10:33am
周老師,我有兩個問題:
1)對E1求ck的偏導數是否第一個2前面的負號應該去掉?
2)對L({Wj},{u[i,j]})求偏導後,為什麼可以假設u[i,j]+u[j,i]=0從而將wj消去?
Reply
ccjousays:
12/25/2013at11:08am
謝謝指正。
你可以試一下的例子,未知數有4個:。
線性方程組為
係數矩陣A只有三個線性獨立的行向量(因為和不為零向量),故,也就是說有無限多組解,故可設。
同理,對於個未知數,,即有。
所以我們可以放心地設,。
突然想起在高中生時,我的數學老師常告誡我要將算式寫清楚。
Reply
張盛東says:
12/25/2013at3:32pm
老師,我還是有一些不明白。
我自己推導一次後覺得u[i,j]+u[j,i]=0是必然發生的事,為什麼老師您要“設”呢?
Reply
ccjousays:
12/25/2013at3:37pm
啊,真的嗎?你有空時方便將過程貼上網或寄給我看看嗎?
左乘,,可得
上式不能推斷,雖然,但未必等於零。
Reply
張盛東says:
12/26/2013at11:01pm
我說“推導”有些誇張了,其實我就寫了幾個步驟然後直覺地覺得,u[i,j]和u[j,i](inotequaltoj)所對應的在A中的行向量必然一樣,所以所有形如
c*[00…1…-10…]’必然在A的零空間中,其中c為某一非零實數,1位於u[i,j]的位置,-1位於u[j,i]的位置。
所有這些互為正交向量構成了A的零空間的基底,因此所有齊次解滿足u[i,j]+u[j,i]=0ifiisnotequaltoj。
要令方程組成立,[Sw[1],…Sw[r]]’必須在X=span{W[1],…,w[r]}中,也就是說X是S的不變子空間。
後來發現在推導的時候想當然地認為X就是S的特徵空間(eigenspace)所以必然有Sw[k]=lamda*w[k]從而得到方程組的特解中也必須有u[i,j]+u[j,i]=0ifiisnotequaltoj這個結論。
我曾嘗試過證明X是滿足所有條件的唯一不變子空間但失敗了。
老師,不知道為什麼,我對這個假設沒有“安全感”,萬一該假設不成立那麼之後的證明就只有或然性而不是必然性了。
Reply
ccjousays:
12/27/2013at8:57am
我明白了。
沒有安全感是好事。
朱熹說:「讀書,始讀未知有疑。
其次則漸漸有疑,中則節節是疑。
過了這一番后,疑漸漸解,以至融會貫通,都無所疑,方始是學。
」
張盛東says:
12/25/2013at12:07pm
謝謝老師。
Reply
ccjousays:
12/27/2013at12:14pm
我們可以從另一個角度切入:根據註解二,待解的方程式為,。
因為W^T=W,故可正交對角化為,其中,。
代入可得,右乘,。
令,。
問題變成,也就是,。
Reply
張盛東says:
12/27/2013at2:11pm
經過老師一點明果然豁然開朗。
另外,老師的意思是因為M^T=M所以M可正交對角話吧。
非常感謝老師。
Reply
張盛東says:
12/31/2013at2:03pm
周老師,請問一下主成份分析和主成份回歸的關係為何?主成份回歸是否只是主成份分析的一個應用而已?
Reply
ccjousays:
12/31/2013at3:07pm
PCR(principalcomponentsregression)就是PCA+multipleregression。
俗話說:蟑螂怕拖鞋,烏龜怕鐵鎚。
在資料分析,線性模型怕共線性(collinearity),非線性模型怕過度擬合(over-fitting)。
如果數據輸入矩陣X的維數很大(變數很多)且變數之間相關,則multipleregression的估計係數的變異很大(表示模型不可信賴)。
為了解決這個問題,先對X進行主成分分析,取得低維數的主成分係數矩陣Z(各變數無關),透過適當的變數選擇方法(譬如計算輸出y和z_i的相關係數)挑選出一部分的z變數當作新的數據輸入,然後建模,再將估計出的z_i係數轉換回變數x_j的係數,此法稱為PCRestimator。
詳見
http://en.wikipedia.org/wiki/Principal_component_regression
Reply
冠亨says:
06/09/2017at9:38am
周老師您好:
https://stats.stackexchange.com/questions/66926/what-are-the-four-axes-on-pca-biplot
目前資料分析使用主成分分析方法通常會畫一張叫做biplot的圖來看看各筆資料在第一集第二主成分所組成的平面上到底比較受到哪一個原始參數的影響,在上述網頁中有提到這張圖到底是怎麼畫的,但是為什麼在biplot中的紅色箭頭向量並非只是主成分中各個變數佔的比例,而是還得乘上(主成分的解釋變異*資料筆數^(1/2))?
Reply
ccjousays:
06/09/2017at10:20am
請參考
https://ccjou.wordpress.com/2013/04/18/%E4%B8%BB%E6%88%90%E5%88%86%E5%88%86%E6%9E%90%E8%88%87%E5%A5%87%E7%95%B0%E5%80%BC%E5%88%86%E8%A7%A3/
裡面的factorloadingmatrix
Reply
dubysays:
07/25/2017at9:14am
周老師,注釋3最後一個式子的第一項應該有個n-1的系數
Reply
ccjousays:
07/31/2017at3:52pm
非常謝謝,已訂正。
Reply
LeaveaReplyCancelreply
Enteryourcommenthere...
Fillinyourdetailsbeloworclickanicontologin:
Email(required)(Addressnevermadepublic)
Name(required)
Website
YouarecommentingusingyourWordPress.comaccount.
( Log Out /
Change )
YouarecommentingusingyourGoogleaccount.
( Log Out /
Change )
YouarecommentingusingyourTwitteraccount.
( Log Out /
Change )
YouarecommentingusingyourFacebookaccount.
( Log Out /
Change )
Cancel
Connectingto%s
Notifymeofnewcommentsviaemail.Notifymeofnewpostsviaemail.
Δ
搜尋(繁體中文或英文)
Searchfor:
訊息看板
近期文章
每週問題June26, 2017
每週問題June19, 2017
每週問題June12, 2017
每週問題June5, 2017
每週問題May29, 2017
線性代數專欄其他主題專欄每週問題數據充分性問題其他分類RecentComments
陳宗為on動差生成函數(上)陳宗為on動差生成函數(上)ccjouon同時可對角化矩陣alonzhaoon同時可對角化矩陣curcon簡約列梯形式的唯一性ccjouon矩陣導數
近期最多人點閱
三階逆矩陣公式
奇異值分解(SVD)
行列式的運算公式與性質
利用行列式計算多邊形面積
Gram-Schmidt正交化與QR分解
特徵值的代數重數與幾何重數
實對稱矩陣可正交對角化的證明
線性獨立向量集的判定與算法
正定矩陣的性質與判別方法
基底與維數常見問答集
分類分類
SelectCategory
無關線代 (23)
特別主題 (20)
答讀者問 (49)
網友分享 (2)
線性代數專欄 (426)
特徵分析 (76)
特殊矩陣 (23)
線性變換 (33)
線性方程 (30)
行列式 (32)
證明細解 (4)
內積空間 (28)
典型形式 (27)
向量空間 (47)
應用之道 (42)
數值線性代數 (29)
二次型 (42)
仿射幾何 (11)
隨筆雜談 (18)
試閱 (2)
周老師時間 (16)
問題回報 (24)
圖論 (12)
布告欄 (22)
希爾伯特空間 (4)
數據充分性問題 (3)
DSQ特徵分析 (1)
DSQ向量空間 (2)
機率統計 (21)
機器學習 (8)
每週問題 (435)
pow特徵分析 (87)
pow線性變換 (23)
pow線性方程與矩陣代數 (56)
pow行列式 (55)
pow內積空間 (57)
pow典型形式 (9)
pow向量空間 (75)
pow二次型 (73)
Archives Archives
SelectMonth
June2017 (4)
May2017 (5)
April2017 (4)
March2017 (4)
February2017 (6)
January2017 (11)
December2016 (5)
November2016 (5)
October2016 (5)
September2016 (4)
August2016 (5)
July2016 (4)
June2016 (4)
May2016 (10)
April2016 (6)
March2016 (10)
February2016 (11)
January2016 (7)
December2015 (11)
November2015 (9)
October2015 (8)
September2015 (11)
August2015 (14)
July2015 (8)
June2015 (11)
May2015 (5)
April2015 (5)
March2015 (6)
February2015 (4)
January2015 (7)
December2014 (9)
November2014 (5)
October2014 (4)
September2014 (5)
August2014 (5)
July2014 (5)
June2014 (11)
May2014 (10)
April2014 (12)
March2014 (14)
February2014 (15)
January2014 (10)
December2013 (16)
November2013 (14)
October2013 (19)
September2013 (15)
August2013 (13)
July2013 (13)
June2013 (18)
May2013 (16)
April2013 (14)
March2013 (6)
February2013 (8)
January2013 (13)
December2012 (16)
November2012 (18)
October2012 (17)
September2012 (10)
August2012 (8)
July2012 (10)
June2012 (15)
May2012 (12)
April2012 (12)
March2012 (11)
February2012 (10)
January2012 (7)
December2011 (5)
November2011 (4)
October2011 (6)
September2011 (5)
August2011 (5)
July2011 (8)
June2011 (13)
May2011 (14)
April2011 (11)
March2011 (11)
February2011 (10)
January2011 (12)
December2010 (12)
November2010 (13)
October2010 (8)
September2010 (11)
August2010 (15)
July2010 (7)
June2010 (13)
May2010 (12)
April2010 (12)
March2010 (14)
February2010 (14)
January2010 (12)
December2009 (12)
November2009 (14)
October2009 (10)
September2009 (13)
August2009 (14)
July2009 (12)
June2009 (12)
May2009 (12)
April2009 (15)
March2009 (39)
標籤雲
Cayley-Hamilton定理
Frobenius範數
Gram-Schmidt正交化
Gramian矩陣
Hermitian矩陣
Householder矩陣
Jordan典型形式
LU分解
QR分解
Schur定理
SVD
Vandermonde矩陣
三角不等式
不變子空間
么正矩陣
二次型
代數重數
伴隨矩陣
內積
冪矩陣
冪等矩陣
冪零矩陣
分塊矩陣
列空間
半正定矩陣
反對稱矩陣
可交換矩陣
可逆矩陣
向量空間
圖論
基底
基本列運算
奇異值
奇異值分解
實對稱矩陣
對角化
座標變換
微分方程
投影矩陣
排列矩陣
旋轉矩陣
最小多項式
最小平方法
正交性
正交投影
正交矩陣
正交補餘
正定矩陣
正規矩陣
特徵值
特徵向量
特徵多項式
特殊矩陣
相伴矩陣
相似
矩陣乘法
矩陣多項式
矩陣指數
矩陣範數
矩陣譜
秩
秩─零度定理
簡約列梯形式
組合數學
線性獨立
線性變換
線性變換表示矩陣
行列式
行空間
譜分解
跡數
逆矩陣
通解
零空間
高斯消去法
線代線上影音課程
Essenceoflinearalgebra(3Blue1Brown)
KhanAcademy(SalmanKhan)
MITOCW(GilbertStrang)
國立台灣大學OCW(蘇柏青)
國立清華大學OCW(趙啟超)
國立交通大學OCW(莊重)
國立交通大學OCW(巫木誠)
線代學習網站
用maxima學數值分析─特徵值和特徵向量
FreeOnlineBooks
MathInsight
MITOCW
Wikibooks:LinearAlgebra
WolframDemonstrationProject
線代電子書
AFirstCourseinLinearAlgebra(RobertA.Beezer)
FundamentalsofLinearAlgebra(JamesB.Carrell)
LinearAlgebra(JimHefferon)
LinearAlgebraDoneWrong(SergeiTreil)
LinearAlgebraProblems(JerryL.Kazdan)
LinearAlgebraviaExteriorProducts(SergeiWinitzki)
LinearAlgebra,TheoryandApplications(KennethKuttler)
MatrixAnalysisandAppliedLinearAlgebra(CarlD.Meyer)
NotesonLinearAlgebra(PeterJ.Cameron)
矩陣計算器
JordanFormCalculator
MatrixCalculator
OnlineMatrixCalculator
LaTeX
OnlineLaTeXEquationEditor
Wikibooks:LaTeX
Blogroll
陰暗的小角落
MarkChang'sBlog
尼斯的靈魂
微積分福音
訂閱
請輸入您的email,當有新文章發表時,您將會收到通知。
訂閱之後您隨時可以取消訂閱。
Join642otherfollowers
EmailAddress:
我要訂閱
閱讀導引學習資源
專題探究
急救查詢其他分頁
Meta
Register Login
Entriesfeed
Commentsfeed
WordPress.com
網路狀態
AutomatticStatus
WordPressForums
BlogStats
6,839,545hits
Copyright©2009-2019ccjou
Allrightsreserved
歡迎轉載,但須列明來源。
線代啟示錄
BlogatWordPress.com.
Privacy&Cookies:Thissiteusescookies.Bycontinuingtousethiswebsite,youagreetotheiruse.
Tofindoutmore,includinghowtocontrolcookies,seehere:
CookiePolicy
Follow
Following
線代啟示錄
Join642otherfollowers
Signmeup
AlreadyhaveaWordPress.comaccount?Loginnow.
線代啟示錄
Customize
Follow
Following
Signup
Login
Copyshortlink
Reportthiscontent
ViewpostinReader
Managesubscriptions
Collapsethisbar
LoadingComments...
WriteaComment...
Email(Required)
Name(Required)
Website
SendtoEmailAddress
YourName
YourEmailAddress
Cancel
Postwasnotsent-checkyouremailaddresses!
Emailcheckfailed,pleasetryagain
Sorry,yourblogcannotsharepostsbyemail.
%dbloggerslikethis:
延伸文章資訊
- 1主成分分析 - 線代啟示錄
主成分分析的主要構想是分析共變異數矩陣(covariance matrix) 的特徵性質(見“共變異數 ... 以得出數據的主成分(即特徵向量) 與它們的權值(即特徵值); ...
- 2主成分分析- 維基百科,自由的百科全書
- 3機器/統計學習:主成分分析(Principal Component Analysis, PCA)
主成份分析的基本假設是希望資料可以在特徵空間找到一個投影軸(向量)投影後可以得到 這組資料的最大變異量 ,好文謅謅這是什麼意思哩? 我們來看一個圖(假設我們有一組資料 ...
- 4Principal Components Analysis (PCA) | 主成份分析| R 統計
而主成份分析的計算過程會使用到線性代數中的特徵值與特徵向量技術。本學習筆記會介紹主成份分析的基礎以及R套件的函數用法。
- 5主成份分析(Principal Component Analysis, PCA)
即主成份有最大的變異數,也就是使受 ... 主成份分析就是要將重要變數適當的給 ... 特徵向量. 在. 下,使. 最大. 解a是矩陣∑的最大特徵值所對應的單位特徵.