Abrir menu principal
Question book-4.svg
Esta página cita fontes confiáveis e independentes, mas que não cobrem todo o conteúdo (desde julho de 2019). Ajude a inserir referências. Conteúdo não verificável poderá ser removido.—Encontre fontes: Google (notícias, livros e acadêmico)

Em estatística ou econometria, regressão linear é uma equação para se estimar a condicional (valor esperado) de uma variável y, dados os valores de algumas outras variáveis x.[1][2]

Exemplo de regressão linear.

A regressão, em geral, tem como objectivo tratar de um valor que não se consegue estimar inicialmente.

A regressão linear é chamada "linear" porque se considera que a relação da resposta às variáveis é uma função linear de alguns parâmetros. Os modelos de regressão que não são uma função linear dos parâmetros se chamam modelos de regressão não-linear. Sendo uma das primeiras formas de análise regressiva a ser estudada rigorosamente, e usada extensamente em aplicações práticas. Isso acontece porque modelos que dependem de forma linear dos seus parâmetros desconhecidos, são mais fáceis de ajustar que os modelos não-lineares aos seus parâmetros, e porque as propriedades estatísticas dos estimadores resultantes são fáceis de determinar.[3]

Modelos de regressão linear são frequentemente ajustados usando a abordagem dos mínimos quadrados, mas que também pode ser montada de outras maneiras, tal como minimizando a "falta de ajuste" em alguma outra norma (com menos desvios absolutos de regressão), ou através da minimização de uma penalização da versão dos mínimos quadrados. Por outro lado, a abordagem de mínimos quadrados pode ser utilizado para ajustar a modelos que não são modelos lineares. Assim, embora os termos "mínimos quadrados" e "modelo linear" estejam intimamente ligados, eles não são sinônimos. [carece de fontes?]

Índice

Equação da Regressão LinearEditar

Para se estimar o valor esperado, usa-se de uma equação, que determina a relação entre ambas as variáveis.

 

, onde:

 : Variável explicada (dependente); representa o que o modelo tentará prever

 : É uma constante, que representa a interceptação da reta com o eixo vertical;

 : Representa a inclinação (coeficiente angular) em relação à variável explicativa;

 : Variável explicativa (independente);

 : Representa todos os factores residuais mais os possíveis erros de medição. O seu comportamento é aleatório, devido à natureza dos factores que encerra. Para que essa fórmula possa ser aplicada, os erros devem satisfazer determinadas hipóteses, que são: terem distribuição normal, com a mesma variância  , independentes e independentes da variável explicativa X, ou seja, i.i.d. (independentes e identicamente distribuídas).

Notação MatricialEditar

A equação acima pode ser reescrita em forma de matriz:

 

Onde   é uma matriz de   observações,   é uma matriz de tamanho   (sendo a primeira coluna com valores sempre = 1, representando a constante  , e   é a quantidade de variáveis explicativas),   é uma matriz de   variáveis explicativas (sendo que   representa a constante  ) e   é uma matriz de   de resíduos.

 


Estimativa dos fatores   e  Editar

A técnica mais usual para estimativa dos parâmetros   e   é o Método dos mínimos quadrados, mas também podem ser usados:

Ver tambémEditar

Ligações ExternasEditar

Referências

  1. «Linear regression» (PDF) (em inglês). Stanford.edu. Consultado em 10 de julho de 2019 
  2. «Chapter 9 - Simple linear regression» (PDF) (em inglês). Carnegie Mellon University - Statistics & Data Science. Consultado em 10 de julho de 2019 
  3. http://www.fisica.ufs.br/egsantana/cinematica/regresion/regresion.htm Regressão linear com experimêntos físicos [ligação inativa]

BibliografiaEditar

  • REIS, E., Estatistica Descritiva (2ª ed.). Lisboa: Edições Sílabo, 1994