Um teste F é qualquer teste estatístico no qual a estatística de teste tem uma distribuição F sob a hipótese nula. É mais frequentemente usado ao comparar modelos estatísticos que foram ajustados a um conjunto de dados, a fim de identificar o modelo que melhor se ajusta à população da qual os dados foram amostrados. Os "testes F" exatos surgem principalmente quando os modelos foram ajustados aos dados usando mínimos quadrados. O nome foi cunhado por George W. Snedecor, em homenagem a Ronald Fisher. Fisher desenvolveu inicialmente a estatística como a razão de variância na década de 1920.[1]

Exemplos comunsEditar

Exemplos comuns do uso de testes F incluem o estudo dos seguintes casos:

Teste F da igualdade de duas variânciasEditar

O teste F é sensível à não normalidade.[2][3] Na análise de variância (ANOVA), os testes alternativos incluem o teste de Levene, o teste de Bartlett e o teste de Brown-Forsythe. No entanto, quando qualquer um desses testes é realizado para testar a suposição subjacente de homocedasticidade (ou seja, homogeneidade de variância), como um passo preliminar para testar os efeitos médios, há um aumento na taxa de erro tipo I experimental.[4]

Fórmula e cálculoEditar

A maioria dos testes F surge considerando uma decomposição da variabilidade em uma coleção de dados em termos de somas de quadrados. A estatística de teste em um teste F é a razão de duas somas de quadrados em escala refletindo diferentes fontes de variabilidade. Essas somas de quadrados são construídas de modo que a estatística tende a ser maior quando a hipótese nula não é verdadeira. Para que a estatística siga a distribuição F sob a hipótese nula, as somas dos quadrados devem ser estatisticamente independentes, e cada uma deve seguir uma distribuição χ² escalonada. A última condição é garantida se os valores dos dados forem independentes e normalmente distribuídos com uma variância comum.

Problemas de ANOVA de comparação múltiplaEditar

O teste F em análise de variância unidirecional (ANOVA) é usado para avaliar se os valores esperados de uma variável quantitativa dentro de vários grupos pré-definidos diferem uns dos outros. Por exemplo, suponha que um estudo médico compare quatro tratamentos. O teste ANOVA F pode ser usado para avaliar se algum dos tratamentos é, em média, superior ou inferior aos outros versus a hipótese nula de que todos os quatro tratamentos produzem a mesma resposta média. Este é um exemplo de um teste "omnibus", o que significa que um único teste é realizado para detectar qualquer uma das várias diferenças possíveis. Alternativamente, poderíamos realizar testes em pares entre os tratamentos (por exemplo, no exemplo do estudo médico com quatro tratamentos, poderíamos realizar seis testes entre pares de tratamentos). A vantagem do teste ANOVA F é que não precisamos pré-especificar quais tratamentos devem ser comparados e não precisamos ajustar para fazer comparações múltiplas. A desvantagem do teste F ANOVA é que, se rejeitarmos a hipótese nula, não sabemos quais tratamentos podem ser considerados significativamente diferentes dos outros, nem, se o teste F for realizado no nível α, podemos afirmar que o par de tratamento com a maior diferença média é significativamente diferente no nível α.

A fórmula para a estatística do teste F ANOVA unidirecional é

 

A "variância explicada" ou "variabilidade entre grupos" é

 

A "variância explicada" ou "variabilidade entre grupos" é

 

Onde   denota a média da amostra no iésimo grupo,   é o número de observações no iésimo grupo,   denota a média geral dos dados, e   indica o número de grupos.

A "variância inexplicada" ou "variabilidade dentro do grupo" é

 

Onde   é a j - ésima observação no i - ésimo de   grupos e   é o tamanho geral da amostra. Esta estatística F segue a distribuição F com graus de liberdade   e   sob a hipótese nula. A estatística será grande se a variabilidade entre grupos for grande em relação à variabilidade dentro do grupo, o que é improvável de acontecer se as médias populacionais de todos os grupos tiverem o mesmo valor.

Ver tambémEditar

Referências

  1. Lomax, Richard G. (2007). Statistical Concepts: A Second Course. [S.l.: s.n.] ISBN 0-8058-5850-4 
  2. Box, G. E. P. (1953). «Non-Normality and Tests on Variances». Biometrika. 40 (3/4): 318–335. JSTOR 2333350. doi:10.1093/biomet/40.3-4.318 
  3. Markowski, Carol A; Markowski, Edward P. (1990). «Conditions for the Effectiveness of a Preliminary Test of Variance». The American Statistician. 44 (4): 322–326. JSTOR 2684360. doi:10.2307/2684360 
  4. Sawilowsky, S. (2002). «Fermat, Schubert, Einstein, and Behrens–Fisher: The Probable Difference Between Two Means When σ12 ≠ σ22». Journal of Modern Applied Statistical Methods. 1 (2): 461–472. Consultado em 30 de março de 2015. Cópia arquivada em 3 de abril de 2015