Correlação parcial
Em teoria das probabilidades e estatística, a correlação parcial mede o grau de associação entre duas variáveis aleatórias, com o efeito de um conjunto de variáveis aleatórias de controle removido. Se estivermos interessados em encontrar se ou com que grau há uma relação numérica entre duas variáveis de interesse, usar seu coeficiente de correlação dará resultados enganadores se houve outra variável, de confusão, numericamente relacionada com ambas as variáveis de interesse. Esta informação enganadora pode ser evitada ao controlar a variável de confusão, o que é feito ao computar o coeficiente de correlação parcial. Isto é precisamente a motivação para incluir outras variáveis à direita em uma regressão múltipla.
Por exemplo, se tivermos dados econômicos sobre o consumo, renda e riqueza de vários indivíduos e quisermos ver se há uma relação entre consumo e renda, não controlar a riqueza ao computar um coeficiente de correlação entre consumo e renda dará um resultado enganador, já que a renda pode ser numericamente relacionada com a riqueza, que, por sua vez, pode ser numericamente relacionada com o consumo. Uma correlação medida entre consumo e renda pode na verdade ser contaminada por estas outras correlações. O uso de uma correlação parcial evita este problema.
Como o coeficiente de correlação, o coeficiente de correlação parcial assume um valor em um intervalo entre e . O valor representa uma perfeita correlação negativa controlando algumas variáveis (isto é, uma relação linear exata na qual valores mais elevados de uma variável estão associados com valores mais reduzidos de outra). O valor representa uma perfeita relação linear positiva e o valor afirma que não há relação linear.
A correlação parcial coincide com a correlação condicional se as variáveis aleatórias forem conjuntamente distribuídas, como a normal multivariada, a elíptica, a hipergeométrica multivariada, a hipergeométrica multivariada negativa, a multinomial ou a distribuição de Dirichlet, mas, de outra forma, em geral não.[1]
Exemplo
editarSuponha que temos os seguintes dados sobre três variáveis , e :
2 | 1 | 0 |
4 | 2 | 0 |
15 | 3 | 1 |
20 | 4 | 1 |
Estes dados têm a característica de que, sempre que , é exatamente igual ao dobro de e, sempre que , é exatamente igual ao quíntuplo de . Assim, contingente no valor de , há uma relação exata entre e , mas não se pode dizer que a relação é exata sem referência ao valor de .
Na verdade, se computarmos o coeficiente de correlação de Pearson entre as variáveis e , o resultado é aproximadamente , enquanto, se computarmos a correlação parcial entre e , usando a fórmula dada abaixo, encontramos uma correlação parcial de . As computação foram feitas usando R com o seguinte código:
> X = c(2,4,15,20)
> Y = c(1,2,3,4)
> Z = c(0,0,1,1)
> mm1 = lm(X~Z)
> res1 = mm1$residuals
> mm2 = lm(Y~Z)
> res2 = mm2$residuals
> cor(res1,res2)
[1] 0.919145
> cor(X,Y)
[1] 0.9695016
Definição formal
editarFormalmente, a correlação parcial entre e dado um conjunto de variáveis de controle , escrita , é a correlação entre os resíduos e resultante da regressão linear de com e com respectivamente. A correlação parcial de primeira ordem (isto é, quando ) é a diferença entre uma correlação e o produto de correlações removíveis dividida pelo produto dos coeficientes de alienação das correlações removíveis. O coeficiente de alienação e sua relação com a variância conjunta pela correlação foram descritos pelo psicólogo norte-americano Joy Paul Guilford.[2]
Computação
editarUsando regressão linear
editarUma forma simples de computar a correlação parcial amostral para alguns dados é resolver os dois problemas de regressão linear associados, obter os resíduos e calcular a correlação entre os resíduos. Considere e , como acima, variáveis aleatórias que assumem valores reais e considere a variável aleatória de valores vetoriais e de dimensões. Escrevemos , e para denotar a -ésima de observações independentes e identicamente distribuídas a partir de alguma distribuição de probabilidade conjunta sobre variáveis aleatórias reais , e , com tendo sido aumentado em 1 para permitir um termo constante na regressão. Resolver o problema da regressão linear leva a encontrar os vetores de coeficiente de regressão e de dimensões, tal que:
com sendo o número de observação e o produto escalar entre os vetores e . Os resíduos são então:
e a correlação parcial amostral é então dada pela fórmula usual para correlação amostral, mas entre estes novos valores derivados:
Usando fórmula recursiva
editarPode ser computacionalmente dispendioso resolver os problemas de regressão linear. Na verdade, a correlação parcial de -ésima ordem (isto é, com ) pode ser facilmente computada a partir de três correlações parciais de -ésima ordem. A correlação parcial de zerésima ordem é definida como sendo o coeficiente de correlação regular .
Aplica-se que, para qualquer ,
Implementar ingenuamente esta computação como um algoritmo recursivo produz uma complexidade de tempo exponencial. Entretanto, esta computação tem a propriedade de subproblemas sobrepostos, tal que usar a programação dinâmica ou simplesmente armazenar em cache os resultados das chamadas recursivas produz uma complexidade de . Note que, no caso em que é uma variável única, isto se reduz a:
Usando inversão de matriz
editarEm tempo , outra abordagem permite que todas as correlações parciais sejam computadas entre quaisquer duas variáveis e de um conjunto de cardinalidade , dadas todas as outras, isto é, , se a matriz de correlação (ou alternativamente a matriz de covariância) , em que é definida positiva e por isso invertível. Se definirmos , temos que:
Interpretação
editarGeométrica
editarConsidere três variáveis (em que é a "variável de controle" ou "variável extra") escolhidas a partir de uma distribuição de probabilidade conjunta sobre variáveis . Além disso, considere , , as observações independentes e identicamente distribuídas de dimensões retiradas a partir da distribuição de probabilidade conjunta sobre . Então, consideramos os vetores de -dimensões (formado pelos valores sucessivos de sobre as observações), (formado pelos valores de ) e (formado pelos valores de ).
Pode-se mostrar que os resíduos vindos a partir da regressão linear de em , se também considerados como um vetor de -dimensões, têm um produto escalar zero com o vetor gerado por . Isto significa que os vetores residuais repousam em um hiperplano de dimensões que é perpendicular a .
O mesmo se aplica aos resíduos gerando um vetor . A correlação parcial desejada é então o cosseno do ângulo entre as projeções e de e , respectivamente, sobre o hiperplano perpendicular a .[5]
A distribuição da correlação parcial amostral foi descrita pelo estatístico inglês Ronald Fisher. O autor em questão deu a seguinte interpretação geométrica do coeficiente de correlação e da correlação parcial. Considerando três variáveis aleatórias , e três amostras de tamanho , respectivamente , e , pode-se representar a diferença de cada ponto em relação à média de cada amostra como vetores em um espaço euclidiano de dimensões. Além disto, se cada um destes vetores for normalizado pelo desvio padrão amostral, obtém-se três vetores unitários , e :
Estes três pontos definem um triângulo esférico , em que cada lado representa a correlação e cada ângulo diedro representa a correlação parcial, através de:
Como teste de independência condicional
editarComo o pressuposto de que todas as variáveis envolvidas são normais multivariadas, a correlação parcial é zero se e apenas se for condicionalmente independente de dada .[1] Esta propriedade não se aplica no caso geral.
Para testar se uma correlação parcial amostral implica um correlação parcial populacional verdadeira de , a transformada de Fisher da correlação pode ser usada:
A hipótese nula é , a ser testada contra a alternativa bicaudal . Rejeitamos com nível de significância se:
em que é a função distribuição acumulada de uma distribuição normal com média zero e desvio padrão unitário, sendo o tamanho da amostra. Esta transformada é aproximada e a verdadeira distribuição do coeficiente de correlação (parcial) amostral não é direta. Entretanto, um teste t exato baseado em uma combinação do coeficiente de regressão parcial com o coeficiente de correlação parcial e as variâncias parciais está disponível.[7]
Correlação semiparcial
editarA estatística de correlação semiparcial (correlação de parte) é semelhante à estatística de correlação parcial. Ambas comparam variações de duas variáveis depois que certos fatores são controlados, mas para calcular a correlação semiparcial, mantém-se a terceira variável constante ou para ou para , mas não para ambas, enquanto para a correlação parcial, mantém-se a terceira variável constante para ambas. A correlação semiparcial compara a única variação de uma variável (tendo removida a variação associada com a(s) variável(is) ) com a variação não filtrada da outra, enquanto a correlação parcial compara a única variação de uma variável com a única variação de outra.
A correlação semiparcial pode ser vista como mais relevante em termos práticos, porque é escalonada em relação à variabilidade total na variável dependente (de resposta)". Por outro lado, é menos útil em termos teóricos, porque é menos precisa quanto ao papel da única contribuição da variável independente.
O valor absoluto da correlação semiparcial de com é sempre menor que ou igual àquele da correlação parcial de com . Suponha que a correlação de com tenha sido removida de , dando o vetor residual . Ao computar a correlação semiparcial, ainda contém tanto a variância única, quanto a variância devido a sua associação com . Entretanto, , sendo não correlacionado com , pode apenas explicar um pouco da parte única da variância de e não da parte relativa a . Em contraste, com a correlação parcial, apenas (a parte da variância de que não é relacionada com ) pode ser explicado, de forma que há menos variância do tipo que não pode explicar.[8]
Uso em análise de séries temporais
editarEm análise de séries temporais, a função autocorrelação parcial (algumas vezes "função correlação parcial") de uma série temporal é definida, para a defasagem , como:
Esta função é usada para determinar o comprimento de defasagem apropriado para uma autorregressão.[9]
Ver também
editarReferências
editar- ↑ a b Baba, Kunihiro; Shibata, Ritei; Sibuya, Masaaki (1 de dezembro de 2004). «Partial Correlation and Conditional Correlation as Measures of Conditional Independence». Australian & New Zealand Journal of Statistics (em inglês). 46 (4): 657–664. ISSN 1467-842X. doi:10.1111/j.1467-842x.2004.00360.x
- ↑ 1897-1987., Guilford, J. P. (Joy Paul), (1978). Fundamental statistics in psychology and education 6th ed. New York: McGraw-Hill. ISBN 9780070251502. OCLC 2894064
- ↑ Lowry, Richard (1999). «Partial Correlation». VassarStats. Consultado em 19 de fevereiro de 2018
- ↑ a b Prokhorov, A.V. (2011) [1994]. «Partial correlation coefficient». Springer Science+Business Media B.V. /Kluwer Academic Publishers. Consultado em 19 de fevereiro de 2018
- ↑ Rummel, R. J. (1976). «Understanding Correlation». University of Hawaii. Consultado em 19 de fevereiro de 2018
- ↑ Fisher, Ronald (1924). «The Distribution of the Partial Correlation Coefficient». Metron. Consultado em 19 de fevereiro de 2018
- ↑ Kendall, Maurice George (1975). The advanced theory of statistics 3rd ed. London: Griffin. ISBN 0852642156. OCLC 80139
- ↑ M., Warner, Rebecca (2013). Applied statistics : from bivariate through multivariate techniques 2nd ed. Thousand Oaks, Calif.: SAGE Publications. ISBN 141299134X. OCLC 772715742
- ↑ Quenouille, M. H. (1949). «Approximate Tests of Correlation in Time-Series». Journal of the Royal Statistical Society. Series B (Methodological). 11 (1): 68–84