Análise de componentes principais: diferenças entre revisões

Conteúdo apagado Conteúdo adicionado
Liberio (discussão | contribs)
removi texto espurio - erro de editor de texto - sorry
Liberio (discussão | contribs)
corrigi pequeno erro introdizido
Linha 3:
{{em tradução}}
 
[[Image:GaussianScatterPCA.png|thumb|right|PCA de uma [[ɸdistribuição Gaussiana multivariada]] centrada em (1,3) com um desvio padrão de 3 aproximadamente na direção (0.878, 0.478) e desvio padrão 1 na direção ortogonal. Os vetores na figura são os autovetores da [[matriz de covariância]] multiplicados pela raiz quadrada do autovalor correspondente, e transladados de forma a iniciarem na média.]]
 
'''A Análise de Componentes Principais''' ou ''principal component analysis'' (PCA) é um procedimento matemático que utiliza uma [[transformação ortogonal]] para converter um conjunto de observações de variáveis possívelmente correlacionadas a um conjunto de valores de variáveis [[Correlação e dependência|linearmente descorrelacionadas]] chamadas '''componentes principais'''. O número de componentes principais é menor ou igual ao número de variáveis originais. Esta transformação é definida de forma que o primeiro componente principal tem a maior [[variância]] possível (ou seja, é responsável pelo máximo de variabilidade nos dados), e cada componente seguinte, por sua vez, tem a máxima variância sob a restrição de ser ortogonal a (i.e., não-correlacionado com) os componentes anteriores. Os componentes principais são garantidamente independentes apenas se os dados forem [[multivariate normal distribution|normalmente distribuídos]] (conjuntamente). O PCA é sensível à escala relativa das variáveis originais. Dependendo da área de aplicação, o PCA é também conhecido pela ''' transformada [[Karhunen–Loève theorem|Karhunen–Loève]]''' ('''KLT''') discreta,'''transformada de [[Harold Hotelling|Hotelling]]''' ou '''decomposição ortogonal própria''' ('''POD''').