主成分分析 - 線代啟示錄

文章推薦指數: 80 %
投票人數:10人

主成分分析的主要構想是分析共變異數矩陣(covariance matrix) 的特徵性質(見“共變異數 ... 以得出數據的主成分(即特徵向量) 與它們的權值(即特徵值); ... 線代啟示錄 Iseeknottoknowtheanswers,buttounderstandthequestions. Skiptocontent ←每週問題April15, 2013 主成分分析與奇異值分解→ 主成分分析 Postedon04/15/2013byccjou 本文的閱讀等級:高級 美國作家梭羅(HenryD.Thoreau)在《湖濱散記》談到他的幽居生活時,說道[1]: 我們的生活消耗在瑣碎之中。

一個老實的人除了十指之外,便不必有更大的數字了,頂多加上十個足趾,其餘不妨勉強一下。

簡單,簡單,簡單啊!我說,最好你的事祇兩三件,不要一百件或一千件;不必一百萬一百萬地計算,半打不夠計算嗎?總之,賬目可以記在大拇指甲上就好了。

我們也許不能複製梭羅在瓦爾登湖(Walden)的簡單生活,但是我們永遠可以通過化繁為簡來改善現況。

處於資訊爆炸的時代,我們不免要面對變數很多且樣本數很大的資料。

在分析高維度(變數很多)數據時,降維(dimensionreduction)常是一個必要的前處理工作。

主成分分析(principalcomponentsanalysis,簡稱PCA)由英國統計學家皮爾生(KarlPearson)於1901年提出[2],是一種降低數據維度的有效技術。

主成分分析的主要構想是分析共變異數矩陣(covariancematrix)的特徵性質(見“共變異數矩陣與常態分布”),以得出數據的主成分(即特徵向量)與它們的權值(即特徵值);透過保留低階主成分(對應大特徵值),捨棄高階主成分(對應小特徵值),達到減少數據集維度,同時保留最大數據集變異的目的。

本文從線性代數觀點介紹主成分分析,並討論實際應用時可能遭遇的一些問題。

  假設我們有一筆維數等於,樣本大小是的數據,即每一數據點包含個變數的量測值。

如果我們想要以單一向量來代表整組數據,可用均方誤差作為誤差函數: 。

上式中,誤差平方和除以而非的緣由請見“樣本平均數、變異數和共變異數”。

理想的中心向量必須有最小的均方誤差,滿足此條件的向量是 , 稱為樣本平均數向量。

證明如下: 根據樣本平均數向量的表達式,上式最後一項等於零。

因為,可知,等號於時成立。

  數據點與其分布平均的差,,稱為離差(deviation)。

在變數數目很大時,如何「目視」離差的散布情況?最簡單的作法是降維,譬如,將散布於高維空間的離差「壓縮」至一直線上。

令直線穿越,為其指向向量,且。

直線上的任一點可表示如下: , 其中為一純量,代表至的距離。

一旦給定,我們可以用來近似,也就是以近似離差。

如同樣本平均數向量的設定方式,最佳的近似係數必須最小化均方誤差: 因為,計算偏導數並設為零, 。

由此解得 。

從幾何觀點解釋,即是離差在直線的正交投影,以下稱為正交原則(見圖1,參閱“正交投影──威力強大的線代工具”)。

圖1正交投影即為最佳近似   接下來我們尋找使最小化的直線方向。

將先前解出的最佳係數代回,整理可得 上面使用了。

令 , 稱為樣本共變異數矩陣。

乘開上式,確認的元即為第個變數和第個變數的樣本共變異數: , 其中是第個數據點的第個變數(即的第元),是第個變數的樣本平均數(即的第元)。

明顯地,,故是一階對稱矩陣。

對於任一維向量, , 即知是半正定矩陣。

數據集的總變異量(即離差平方和)是一常數,所以最小化等價於最大化。

我們的問題變成求解下列約束二次型: 。

解法如下(另一個解法見“Hermitian矩陣特徵值的變化界定”)。

使用Lagrange乘數法(見“Lagrange乘數法”),定義 , 其中是未定的Lagrange乘數。

計算偏導數(即梯度)並設為零, , 可得 。

直線的指向向量就是樣本共變異數矩陣的特徵向量。

因為,欲使有最大值,我們必須選擇對應最大特徵值的特徵向量。

實對稱半正定矩陣有非負的特徵值(見“半正定矩陣的判別方法”),故可設的特徵值為。

此外,的特徵向量構成一個單範正交集(orthonormalset),見“實對稱矩陣可正交對角化的證明”,這個性質將於稍後使用。

我們選擇對應最大特徵值的特徵向量作為,透過離差在直線的正交投影即可粗估數據集的散布情況。

  如果我們想獲得較為精確的近似結果,以上過程可推廣至更高維度。

考慮 , 其中。

我們的目標是尋找一組單範正交集,即(稱為Kronecker記號,若,否則),使最小化 。

根據正交原則,組合係數就是離差至單位向量的正交投影量,即。

重複前述推導方式,可以證明[3] 。

緊接的任務要解出約束二次型: 。

仍然使用Lagrange乘數法,定義 , 其中是未定的Lagrange乘數。

計算偏導數,並設結果為零向量: 。

對於,設,則 。

換句話說,當是樣本共變數矩陣的最大個特徵值的對應(單範正交)特徵向量時,目標函數有最大值。

當然,這並不是唯一解,但可以證明所有的解都有相同的目標函數值[4]。

不過,如果要求滿足,,則樣本共變數矩陣的特徵向量集是唯一的選擇[5]。

  我們以近似數據點,樣本共變異數矩陣的特徵向量描述了數據集的主要成分,因此稱為主成分。

那麼的特徵值又有甚麼涵義呢?特徵值就是主成分的係數(稱為主成分係數)的變異數。

首先證明的平均數是零:對於, 。

再來計算的樣本變異數: 所以說,特徵值表示主成分的權值。

另外必須一提的是,主成分係數和沒有相關性,即樣本共變異數為零。

當,   給定維度等於的數據集,主成分分析的計算程序與結果可整理成簡明的矩陣形式。

計算樣本平均,定義階離差矩陣 , 階樣本共變異數矩陣則是 。

將正交對角化為 , 其中是特徵值矩陣,代表主成分的權值,是單範正交特徵向量構成的階正交主成分矩陣,。

圖2顯示的資料散布圖,樣本平均數向量,以及主成分和。

圖中橢圓的長軸平方與短軸平方之比等於主成分係數的變異數與的變異數之比,即。

圖2資料散布圖與主成分 定義階主成分係數矩陣,其中,因此 。

上式等號兩邊右乘,可得。

換一個說法,數據點的主成分分解式為 。

主成分係數是離差參考單範正交基底的座標向量。

  最後還有一些與實際應用面相關的細節需要釐清。

我們應當保留多少低階主成分(對應大特徵值的特徵向量)?也就是說,如何選擇?常用的一種方式是設定近似數據的變異與原始數據的變異的比例。

譬如,選擇最小的使得 , 表示我們保留了80%的數據變異。

若數據的變數具有不同的變異,主成分方向會受到變異大的變數所決定。

如欲排除這個影響,我們可以用樣本相關矩陣取代樣本共變異數矩陣。

在套用主成分分析之前,預先將每一變數予以標準化(standardized),如下: 其中是第個變數的樣本變異數,即。

標準化後的數據集的樣本共變異數矩陣即為樣本相關矩陣 。

請讀者自行驗證的元就是第個變數與第個變數的相關係數(見“相關係數”)。

這時候,數據集的總變異等於維數,原因如下: 。

上面使用了跡數循環不變性(見“跡數的性質與應用”),最後一個等式係因的主對角元皆為。

如何得到數值穩定的主成分,權值,以及主成分係數,,?答案是奇異值分解(singularvaluedecomposition)。

通過主成分分析與奇異值分解的關係可以顯現主成分分析隱含的其他訊息(見“主成分分析與奇異值分解”)。

  註解 [1]HenryD.Thoreau的Walden,原文如下:“Ourlifeisfritteredawaybydetail.Anhonestmanhashardlyneedtocountmorethanhistenfingers,orinextremecaseshemayaddhistentoes,andlumptherest.Simplicity,simplicity,simplicity!Isay,letyouraffairsbeastwoorthree,andnotahundredorathousand;insteadofamillioncounthalfadozen,andkeepyouraccountsonyourthumb-nail.”中譯取自《湖濱散記》,吳明實譯,今日世界出版社,1978年,83頁。

[2]維基百科:主成分分析 [3] [4]考慮 。

令且 。

將條件方程組寫成矩陣形式: 。

因為有單範正交行向量,。

上式左乘,即有。

下面證明滿足條件式的任何解和都有相同的目標函數值: 。

將實對稱矩陣正交對角化為,其中是一正交矩陣,,。

條件式左乘,右乘,可得 , 上面我們令。

因為,也有單範正交行向量,故知和也是一組解。

利用跡數循環不變性, , 證明和所含的兩組單範正交集有相同的目標函數值。

[5]假設我們已經求得最大化的單位向量,滿足。

下一步要找出單位向量使最大化,並滿足。

寫出 , 其中是Lagrange乘數。

計算偏導數,設結果為零: 。

上式左乘,可得。

另一方面,。

所以,,即得。

明顯地,我們選擇,是對應的單位特徵向量。

同樣的推導步驟可以推廣至的情況。

Sharethis:EmailPrintFacebookTwitterLikethis:LikeLoading... Thisentrywaspostedin機器學習andtagged相關係數,Lagrange乘數法,PCA,SVD,共變異數矩陣,半正定矩陣,奇異值分解,樣本共變異數,樣本平均數,主成分分析.Bookmarkthepermalink. ←每週問題April15, 2013 主成分分析與奇異值分解→ 20Responsesto主成分分析 小葉says: 04/15/2013at9:34pm 最近又去聽了微積分的課,剛好聽到了講述simpison數值積分方法。

數值積分方法特別可以處理非平滑的函數數據。

其中可達到一定精確度的simpison方法,用了拋物線來近似分散的數據,其手法就是揉合上述的正交投影以及黎曼和的概念。

因為正交投影,所以可以控制誤差到一定範圍內,黎曼積分也就可以派上用場。

只是我好奇的是,因為訊號處理常常用到傅立葉分析來搜尋出有用的訊號,那麼是否可以用傅立葉分析來做數值積分呢? Reply ccjousays: 04/16/2013at8:33am Simpson積分法則的原理是Newton-Cotes公式:,,。

通常我們使用一內插多項式來近似以得到的計算公式。

這個式子看起來很像是Hilbert空間的函數近似問題:最小化,是我們喜愛的基底,最佳近似確實是在這個基底所擴張的子空間的正交投影。

傅立葉變換是一種積分變換,它可以用來計算函數近似的三角級數(trigonometricseries),或證明一些定理,但我不知道是否亦可作數值積分用。

Reply TUKsays: 08/10/2020at2:52pm 傅立葉積分轉換是把時域的資訊轉換成頻率域的資訊,你可以理解成他把時域中某個頻率的能量積分然後放到頻率域中去。

所以沒錯,傅立葉轉換本身是有積分的效果在的,只是他把要拿來積分的東西分離成正交的獨立函數分別處理。

https://zh.wikipedia.org/wiki/%E8%B0%B1%E5%AF%86%E5%BA%A6 https://zh.wikipedia.org/wiki/%E5%B8%95%E5%A1%9E%E7%93%A6%E5%B0%94%E5%AE%9A%E7%90%86 Reply Hermionesays: 08/27/2013at5:06pm 請問主成分分析是否一定要進行標準化? Reply ccjousays: 08/27/2013at6:33pm 如果變數的尺規(scale)相似,譬如,全部都是EEG訊號,那麼使用共變異數矩陣即可。

如果變數的尺規差異很大,譬如,年所得,年齡,體重,那麼應該使用相關係數矩陣(即標準化後的共變異數矩陣)。

Reply 張盛東says: 12/25/2013at10:33am 周老師,我有兩個問題: 1)對E1求ck的偏導數是否第一個2前面的負號應該去掉? 2)對L({Wj},{u[i,j]})求偏導後,為什麼可以假設u[i,j]+u[j,i]=0從而將wj消去? Reply ccjousays: 12/25/2013at11:08am 謝謝指正。

你可以試一下的例子,未知數有4個:。

線性方程組為 係數矩陣A只有三個線性獨立的行向量(因為和不為零向量),故,也就是說有無限多組解,故可設。

同理,對於個未知數,,即有。

所以我們可以放心地設,。

突然想起在高中生時,我的數學老師常告誡我要將算式寫清楚。

Reply 張盛東says: 12/25/2013at3:32pm 老師,我還是有一些不明白。

我自己推導一次後覺得u[i,j]+u[j,i]=0是必然發生的事,為什麼老師您要“設”呢? Reply ccjousays: 12/25/2013at3:37pm 啊,真的嗎?你有空時方便將過程貼上網或寄給我看看嗎? 左乘,,可得 上式不能推斷,雖然,但未必等於零。

Reply 張盛東says: 12/26/2013at11:01pm 我說“推導”有些誇張了,其實我就寫了幾個步驟然後直覺地覺得,u[i,j]和u[j,i](inotequaltoj)所對應的在A中的行向量必然一樣,所以所有形如 c*[00…1…-10…]’必然在A的零空間中,其中c為某一非零實數,1位於u[i,j]的位置,-1位於u[j,i]的位置。

所有這些互為正交向量構成了A的零空間的基底,因此所有齊次解滿足u[i,j]+u[j,i]=0ifiisnotequaltoj。

要令方程組成立,[Sw[1],…Sw[r]]’必須在X=span{W[1],…,w[r]}中,也就是說X是S的不變子空間。

後來發現在推導的時候想當然地認為X就是S的特徵空間(eigenspace)所以必然有Sw[k]=lamda*w[k]從而得到方程組的特解中也必須有u[i,j]+u[j,i]=0ifiisnotequaltoj這個結論。

我曾嘗試過證明X是滿足所有條件的唯一不變子空間但失敗了。

老師,不知道為什麼,我對這個假設沒有“安全感”,萬一該假設不成立那麼之後的證明就只有或然性而不是必然性了。

Reply ccjousays: 12/27/2013at8:57am 我明白了。

沒有安全感是好事。

朱熹說:「讀書,始讀未知有疑。

其次則漸漸有疑,中則節節是疑。

過了這一番后,疑漸漸解,以至融會貫通,都無所疑,方始是學。

」 張盛東says: 12/25/2013at12:07pm 謝謝老師。

Reply ccjousays: 12/27/2013at12:14pm 我們可以從另一個角度切入:根據註解二,待解的方程式為,。

因為W^T=W,故可正交對角化為,其中,。

代入可得,右乘,。

令,。

問題變成,也就是,。

Reply 張盛東says: 12/27/2013at2:11pm 經過老師一點明果然豁然開朗。

另外,老師的意思是因為M^T=M所以M可正交對角話吧。

非常感謝老師。

Reply 張盛東says: 12/31/2013at2:03pm 周老師,請問一下主成份分析和主成份回歸的關係為何?主成份回歸是否只是主成份分析的一個應用而已? Reply ccjousays: 12/31/2013at3:07pm PCR(principalcomponentsregression)就是PCA+multipleregression。

俗話說:蟑螂怕拖鞋,烏龜怕鐵鎚。

在資料分析,線性模型怕共線性(collinearity),非線性模型怕過度擬合(over-fitting)。

如果數據輸入矩陣X的維數很大(變數很多)且變數之間相關,則multipleregression的估計係數的變異很大(表示模型不可信賴)。

為了解決這個問題,先對X進行主成分分析,取得低維數的主成分係數矩陣Z(各變數無關),透過適當的變數選擇方法(譬如計算輸出y和z_i的相關係數)挑選出一部分的z變數當作新的數據輸入,然後建模,再將估計出的z_i係數轉換回變數x_j的係數,此法稱為PCRestimator。

詳見 http://en.wikipedia.org/wiki/Principal_component_regression Reply 冠亨says: 06/09/2017at9:38am 周老師您好: https://stats.stackexchange.com/questions/66926/what-are-the-four-axes-on-pca-biplot 目前資料分析使用主成分分析方法通常會畫一張叫做biplot的圖來看看各筆資料在第一集第二主成分所組成的平面上到底比較受到哪一個原始參數的影響,在上述網頁中有提到這張圖到底是怎麼畫的,但是為什麼在biplot中的紅色箭頭向量並非只是主成分中各個變數佔的比例,而是還得乘上(主成分的解釋變異*資料筆數^(1/2))? Reply ccjousays: 06/09/2017at10:20am 請參考 https://ccjou.wordpress.com/2013/04/18/%E4%B8%BB%E6%88%90%E5%88%86%E5%88%86%E6%9E%90%E8%88%87%E5%A5%87%E7%95%B0%E5%80%BC%E5%88%86%E8%A7%A3/ 裡面的factorloadingmatrix Reply dubysays: 07/25/2017at9:14am 周老師,注釋3最後一個式子的第一項應該有個n-1的系數 Reply ccjousays: 07/31/2017at3:52pm 非常謝謝,已訂正。

Reply LeaveaReplyCancelreply Enteryourcommenthere... Fillinyourdetailsbeloworclickanicontologin: Email(required)(Addressnevermadepublic) Name(required) Website YouarecommentingusingyourWordPress.comaccount. ( Log Out /  Change ) YouarecommentingusingyourGoogleaccount. ( Log Out /  Change ) YouarecommentingusingyourTwitteraccount. ( Log Out /  Change ) YouarecommentingusingyourFacebookaccount. ( Log Out /  Change ) Cancel Connectingto%s Notifymeofnewcommentsviaemail.Notifymeofnewpostsviaemail. Δ 搜尋(繁體中文或英文) Searchfor: 訊息看板 近期文章 每週問題June26, 2017 每週問題June19, 2017 每週問題June12, 2017 每週問題June5, 2017 每週問題May29, 2017 線性代數專欄其他主題專欄每週問題數據充分性問題其他分類RecentComments 陳宗為on動差生成函數(上)陳宗為on動差生成函數(上)ccjouon同時可對角化矩陣alonzhaoon同時可對角化矩陣curcon簡約列梯形式的唯一性ccjouon矩陣導數 近期最多人點閱 三階逆矩陣公式 奇異值分解(SVD) 行列式的運算公式與性質 利用行列式計算多邊形面積 Gram-Schmidt正交化與QR分解 特徵值的代數重數與幾何重數 實對稱矩陣可正交對角化的證明 線性獨立向量集的判定與算法 正定矩陣的性質與判別方法 基底與維數常見問答集 分類分類 SelectCategory 無關線代  (23) 特別主題  (20) 答讀者問  (49) 網友分享  (2) 線性代數專欄  (426)    特徵分析  (76)    特殊矩陣  (23)    線性變換  (33)    線性方程  (30)    行列式  (32)    證明細解  (4)    內積空間  (28)    典型形式  (27)    向量空間  (47)    應用之道  (42)    數值線性代數  (29)    二次型  (42)    仿射幾何  (11) 隨筆雜談  (18) 試閱  (2) 周老師時間  (16) 問題回報  (24) 圖論  (12) 布告欄  (22) 希爾伯特空間  (4) 數據充分性問題  (3)    DSQ特徵分析  (1)    DSQ向量空間  (2) 機率統計  (21) 機器學習  (8) 每週問題  (435)    pow特徵分析  (87)    pow線性變換  (23)    pow線性方程與矩陣代數  (56)    pow行列式  (55)    pow內積空間  (57)    pow典型形式  (9)    pow向量空間  (75)    pow二次型  (73) Archives Archives SelectMonth June2017 (4) May2017 (5) April2017 (4) March2017 (4) February2017 (6) January2017 (11) December2016 (5) November2016 (5) October2016 (5) September2016 (4) August2016 (5) July2016 (4) June2016 (4) May2016 (10) April2016 (6) March2016 (10) February2016 (11) January2016 (7) December2015 (11) November2015 (9) October2015 (8) September2015 (11) August2015 (14) July2015 (8) June2015 (11) May2015 (5) April2015 (5) March2015 (6) February2015 (4) January2015 (7) December2014 (9) November2014 (5) October2014 (4) September2014 (5) August2014 (5) July2014 (5) June2014 (11) May2014 (10) April2014 (12) March2014 (14) February2014 (15) January2014 (10) December2013 (16) November2013 (14) October2013 (19) September2013 (15) August2013 (13) July2013 (13) June2013 (18) May2013 (16) April2013 (14) March2013 (6) February2013 (8) January2013 (13) December2012 (16) November2012 (18) October2012 (17) September2012 (10) August2012 (8) July2012 (10) June2012 (15) May2012 (12) April2012 (12) March2012 (11) February2012 (10) January2012 (7) December2011 (5) November2011 (4) October2011 (6) September2011 (5) August2011 (5) July2011 (8) June2011 (13) May2011 (14) April2011 (11) March2011 (11) February2011 (10) January2011 (12) December2010 (12) November2010 (13) October2010 (8) September2010 (11) August2010 (15) July2010 (7) June2010 (13) May2010 (12) April2010 (12) March2010 (14) February2010 (14) January2010 (12) December2009 (12) November2009 (14) October2009 (10) September2009 (13) August2009 (14) July2009 (12) June2009 (12) May2009 (12) April2009 (15) March2009 (39) 標籤雲 Cayley-Hamilton定理 Frobenius範數 Gram-Schmidt正交化 Gramian矩陣 Hermitian矩陣 Householder矩陣 Jordan典型形式 LU分解 QR分解 Schur定理 SVD Vandermonde矩陣 三角不等式 不變子空間 么正矩陣 二次型 代數重數 伴隨矩陣 內積 冪矩陣 冪等矩陣 冪零矩陣 分塊矩陣 列空間 半正定矩陣 反對稱矩陣 可交換矩陣 可逆矩陣 向量空間 圖論 基底 基本列運算 奇異值 奇異值分解 實對稱矩陣 對角化 座標變換 微分方程 投影矩陣 排列矩陣 旋轉矩陣 最小多項式 最小平方法 正交性 正交投影 正交矩陣 正交補餘 正定矩陣 正規矩陣 特徵值 特徵向量 特徵多項式 特殊矩陣 相伴矩陣 相似 矩陣乘法 矩陣多項式 矩陣指數 矩陣範數 矩陣譜 秩 秩─零度定理 簡約列梯形式 組合數學 線性獨立 線性變換 線性變換表示矩陣 行列式 行空間 譜分解 跡數 逆矩陣 通解 零空間 高斯消去法 線代線上影音課程 Essenceoflinearalgebra(3Blue1Brown) KhanAcademy(SalmanKhan) MITOCW(GilbertStrang) 國立台灣大學OCW(蘇柏青) 國立清華大學OCW(趙啟超) 國立交通大學OCW(莊重) 國立交通大學OCW(巫木誠) 線代學習網站 用maxima學數值分析─特徵值和特徵向量 FreeOnlineBooks MathInsight MITOCW Wikibooks:LinearAlgebra WolframDemonstrationProject 線代電子書 AFirstCourseinLinearAlgebra(RobertA.Beezer) FundamentalsofLinearAlgebra(JamesB.Carrell) LinearAlgebra(JimHefferon) LinearAlgebraDoneWrong(SergeiTreil) LinearAlgebraProblems(JerryL.Kazdan) LinearAlgebraviaExteriorProducts(SergeiWinitzki) LinearAlgebra,TheoryandApplications(KennethKuttler) MatrixAnalysisandAppliedLinearAlgebra(CarlD.Meyer) NotesonLinearAlgebra(PeterJ.Cameron) 矩陣計算器 JordanFormCalculator MatrixCalculator OnlineMatrixCalculator LaTeX OnlineLaTeXEquationEditor Wikibooks:LaTeX Blogroll 陰暗的小角落 MarkChang'sBlog 尼斯的靈魂 微積分福音 訂閱 請輸入您的email,當有新文章發表時,您將會收到通知。

訂閱之後您隨時可以取消訂閱。

Join642otherfollowers EmailAddress: 我要訂閱 閱讀導引學習資源 專題探究 急救查詢其他分頁 Meta Register Login Entriesfeed Commentsfeed WordPress.com 網路狀態 AutomatticStatus WordPressForums BlogStats 6,839,545hits Copyright©2009-2019ccjou Allrightsreserved 歡迎轉載,但須列明來源。

線代啟示錄 BlogatWordPress.com. Privacy&Cookies:Thissiteusescookies.Bycontinuingtousethiswebsite,youagreetotheiruse. Tofindoutmore,includinghowtocontrolcookies,seehere: CookiePolicy Follow Following 線代啟示錄 Join642otherfollowers Signmeup AlreadyhaveaWordPress.comaccount?Loginnow. 線代啟示錄 Customize Follow Following Signup Login Copyshortlink Reportthiscontent ViewpostinReader Managesubscriptions Collapsethisbar   LoadingComments...   WriteaComment... Email(Required) Name(Required) Website SendtoEmailAddress YourName YourEmailAddress Cancel Postwasnotsent-checkyouremailaddresses! Emailcheckfailed,pleasetryagain Sorry,yourblogcannotsharepostsbyemail. %dbloggerslikethis:



請為這篇文章評分?