Análise de componentes principais: diferenças entre revisões
Conteúdo apagado Conteúdo adicionado
removi texto espurio - erro de editor de texto - sorry |
corrigi pequeno erro introdizido |
||
Linha 3:
{{em tradução}}
[[Image:GaussianScatterPCA.png|thumb|right|PCA de uma [[
'''A Análise de Componentes Principais''' ou ''principal component analysis'' (PCA) é um procedimento matemático que utiliza uma [[transformação ortogonal]] para converter um conjunto de observações de variáveis possívelmente correlacionadas a um conjunto de valores de variáveis [[Correlação e dependência|linearmente descorrelacionadas]] chamadas '''componentes principais'''. O número de componentes principais é menor ou igual ao número de variáveis originais. Esta transformação é definida de forma que o primeiro componente principal tem a maior [[variância]] possível (ou seja, é responsável pelo máximo de variabilidade nos dados), e cada componente seguinte, por sua vez, tem a máxima variância sob a restrição de ser ortogonal a (i.e., não-correlacionado com) os componentes anteriores. Os componentes principais são garantidamente independentes apenas se os dados forem [[multivariate normal distribution|normalmente distribuídos]] (conjuntamente). O PCA é sensível à escala relativa das variáveis originais. Dependendo da área de aplicação, o PCA é também conhecido pela ''' transformada [[Karhunen–Loève theorem|Karhunen–Loève]]''' ('''KLT''') discreta,'''transformada de [[Harold Hotelling|Hotelling]]''' ou '''decomposição ortogonal própria''' ('''POD''').
|