Análise de componentes principais: diferenças entre revisões

Conteúdo apagado Conteúdo adicionado
Liberio (discussão | contribs)
mais sessoes. terminei sessao ==detalhes==
Liberio (discussão | contribs)
traduzi secao discussao
Linha 88:
[[zh:主成分分析]]
 
== Discussão ==
 
MeanSubtração subtractionde (a.k.a.média, ou "meancentralização centeringna média"), isé necessarynecessária for performingno PCA topara ensuregarantir thatque theos firstprimeiros principalcomponentes componentprincipais describesdescrevam thea directiondireção ofde maximummáxima variancevariância. IfSe meana subtractionsubtração isda notmédia performed,não thefor firstfeita, principalos componentprimeiros mightcomponentes insteadprincipais correspondpodem morecorresponder ormais lessou tomenos theà meanmédia ofdos the datadados. AUma meanmédia ofde zero isé needednecessária forpara findingencontrar a basisbase thatque minimizesminimiza theo [[Minimum mean square error|meanerro squarequadrado errormédio]] of the approximationda ofaproximação thedos datadados.<ref>A. A. Miranda, Y. A. Le Borgne, and G. Bontempi. [http://www.ulb.ac.be/di/map/yleborgn/pub/NPL_PCA_07.pdf New Routes from Minimal Approximation Error to Principal Components], Volume 27, Number 3 / June, 2008, Neural Processing Letters, Springer</ref>
<!--
== Discussion ==
 
Assumindo-se uma [[média empírica]] nula, ou seja, a média empírica da distribuição foi subtraída do conjunto de dados, o componente principal ''w''<sub>1</sub> de um conjunto de dados '''X''' pode ser definido como:
Mean subtraction (a.k.a. "mean centering") is necessary for performing PCA to ensure that the first principal component describes the direction of maximum variance. If mean subtraction is not performed, the first principal component might instead correspond more or less to the mean of the data. A mean of zero is needed for finding a basis that minimizes the [[Minimum mean square error|mean square error]] of the approximation of the data.<ref>A. A. Miranda, Y. A. Le Borgne, and G. Bontempi. [http://www.ulb.ac.be/di/map/yleborgn/pub/NPL_PCA_07.pdf New Routes from Minimal Approximation Error to Principal Components], Volume 27, Number 3 / June, 2008, Neural Processing Letters, Springer</ref>
 
Assuming zero [[empirical mean]] (the empirical mean of the distribution has been subtracted from the data set), the principal component ''w''<sub>1</sub> of a data set '''X''' can be defined as:
 
:<math>\mathbf{w}_1
= \underset{\Vert \mathbf{w} \Vert = 1}{\operatorname{\arg\,max}}\,\operatorname{Var}\{ \mathbf{w}^\top \mathbf{X} \}
= \underset{\Vert \mathbf{w} \Vert = 1}{\operatorname{\arg\,max}}\,E\left\{ \left( \mathbf{w}^\top \mathbf{X}\right)^2 \right\}</math>
(SeeVer [[arg max]] forpara thea notationnotação.) WithCom theos firstprimeiros ''k''&nbsp;&minus;&nbsp;1 componentscomponentes, theo ''k''th-ésimo componentcomponente canpode beser foundencontrado by subtractingsubtraíndo-se theos firstprimeiros <math>k - 1</math> principalcomponentes componentsprincipais fromde '''X''':
:<math>\mathbf{\hat{X}}_{k - 1}
= \mathbf{X} -
\sum_{i = 1}^{k - 1}
\mathbf{w}_i \mathbf{w}_i^\top \mathbf{X}</math>
ande bysubstituíndo-se substitutingisso thiscomo aso thenovo newconjunto datade setdados tocujo find acomponente principal componenté obtido inem
:<math>\mathbf{w}_k
= \underset{\Vert \mathbf{w} \Vert = 1}{\operatorname{arg\,max}}\,E\left\{
Linha 110 ⟶ 108:
\right)^2 \right\}.</math>
 
O PCA isé equivalentequivalente toa [[empirical orthogonal functions|funções ortogonais empíricas]] (EOF), aum namenome whichque isé usedusado inem [[meteorologymeteorologia]].
 
AnUma [[autoencoder]] [[ArtificialRede neural networkartificial|rede neural]] network ''[[autoencoder]]'' com withuma acamada linear hiddenescondida layer isé similar toao PCA. UponÀ convergenceconvergência, theos weightvetores vectorsde ofpeso thedos ''K'' neuronsneurônios inna thecamada hiddenescondida layerformarão willuma formbase apara basiso forespaço theformado spacepelos spanned by the firstprimeiros ''K'' principalcomponentes componentsprincipais. UnlikeDiferente do PCA, thisessa techniquetécnica willnão notnecessáriamente necessarily produceproduz [[orthogonalvetores ortogonais]] vectors.
 
O PCA isé auma populartécnica primaryfundamental technique inem [[patternreconhecimento de recognitionpadrões]]. ItNo is notentando, however,não é otimizado optimizedpara forseparabilidade classde separabilityclasses.<ref>{{Cite book| author=Fukunaga, Keinosuke | title = Introduction to Statistical Pattern Recognition |publisher=Elsevier | year = 1990 | url=http://books.google.com/books?visbn=0122698517| isbn=0122698517}}</ref> AnUma alternativealternativa isé thea [[linear discriminant analysis|LDA]], whichque doesleva takeesse thisaspecto intoem accountconsideração.
 
 
<!--
== Table of symbols and abbreviations ==