Estimador: diferenças entre revisões

Conteúdo apagado Conteúdo adicionado
Linha 2:
Em [[estatística]], um '''estimador''' é uma regra para calcular uma estimativa de uma determinada quantidade baseada em dados observados: assim a regra e seu resultado (a estimativa) são distinguidos.
 
Existem os [[estimadores de ponto]] e [[estimadores de intervalo]]. Os [[ estimadores de ponto]] produzem resultados de valor único, embora isso inclua a possibilidade de resultados de um vetor de valor único e resultados que podem ser expressos como uma única função. Isto está em contraste com um estimador de intervalo, onde o resultado seria uma gama de valores plausíveis (ou vetores ou funções).
 
A [[teoria estatística]] está preocupada com as propriedades dos estimadores; isto é, com a definição de propriedades que podem ser utilizadas para comparar diferentes estimadores (regras diferentes para criar estimativas) para a mesma quantidade, baseada nos mesmos dados. Tais propriedades podem ser utilizadas para determinar as melhores regras de utilização em determinadas circunstâncias. No entanto, na [[estatística robusta]], a teoria estatística passa a considerar o equilíbrio entre ter boas propriedades, se os pressupostos rigidamente definidos assegurarem, e ter menos boas propriedades que assegurem em condições mais amplas.
 
==Background==
Um "estimador " ou "[[ponto estimado]]" é uma [[estatística ]] (isto é, uma função dos dados) que é utilizado para inferir o valor de um [[parâmetro]] desconhecido num [[modelo estatístico]]. O parâmetro a ser estimado por vezes é chamado ''estimando''.{{Carece de fontes|date=September 2010}} Ele pode ser de dimensão finita (no [[modelo paramétrico|paramétrico]] e [[modelo semi-paramétrico]]), ou de dimensão infinita ([[modelo não semi-parametrico |não semi-parametricoparamétrico]] e [[model não parametrico|model não paramétrico]]).{{Carece de fontes|date=September 2010}} Se o parâmetro é denotado ''θ'' então o estimador é normalmente escrito pela adição de um [[circunflexo ]] sobre o símbolo: <math style="vertical-align:0">\scriptstyle\hat\theta</math>. Sendo uma função dos dados, o estimador é em si uma variável aleatória, uma realização particular desta variável aleatória é chamada "estimativa". Às vezes, as palavras "estimador" e "estimativa" são usados ​​alternadamente.
 
A definição coloca praticamente sem restrições sobre quais funções dos dados podem ser chamadas de " estimadores ". A atratividade de diferentes estimadores pode ser julgado ao olhar para as suas propriedades, tais como [[viés]], [[erro quadrático médio]], [[consistência]], [[distribuição assintótica]], etc.. A construção e comparação de estimadores são os temas da [[teoria da estimação]]. No contexto da [[teoria da decisão]], um estimador é um tipo de [[regra de decisão]], e seu desempenho pode ser avaliada através do uso de [[funções de perda]].
No contexto da [[teoria da decisão]], m estimador é um tipo de [[regra de decisão]], e seu desempenho pode ser avaliada através do uso de [[funções de perda]].
 
Quando a palavra "estimador" é usada sem um qualificador , geralmente refere-se a apontar a estimação. A estimativa , neste caso, é um único ponto no espaço de parâmetros . Também existem outros tipos de estimadores: [[estimadores de intervalo]], onde as estimativas são subconjuntos do espaço de parâmetros.
 
O problema da [[estimação da densidade]] resulta em duas aplicações . Em primeiro lugar, ao estimar as [[funções de densidade de probabilidade]] de variáveis ​​aleatórias e em segundo lugar para estimar a [[função de densidade espectral]] de uma [[série temporal]]. Nestes problemas as estimativas são funções que podem ser consideradas como estimativas de ponto em um espaço de dimensão infinita , e há problemas correspondentes à estimação de intervalo.
 
==Definição==
Linha 29 ⟶ 28:
O erro quadrático médio de <math>\widehat{\theta}</math> é definido como o valor esperado (média ponderada de probabilidade, sobre todas as amostras) dos erros ao quadrado, isto é,
:<math>\operatorname{EQM}(\widehat{\theta}) = \operatorname{E}[(\widehat{\theta}(X) - \theta)^2].</math>
Ele é usado para indicar o quão distante, em média, o conjunto de estimativas está do único parâmetro a ser estimado. Considere a seguinte analogia. Suponha que o parâmetro é o centro de um alvo, o estimador é o processo de atirar flechas no alvo, e as flechas individuais são estimativas (amostras). Então, a alta EQM, siginificasignifica que a distância média das flechas do centro do alvo é alta e baixo EQM significa que a distância média do centro do alvo é baixa. As flechas podem ou não ser agrupadas. Por exemplo, mesmo se todas as flechas baterem no mesmo ponto, mesmo errando grosseiramente o alvo, o EQM ainda é relativamente grande. Observe, contudo, que se o EQM é relativamente baixo, então as flechas estão provavelmente mais altamente agrupadas (do que altamente dispersas).
 
;Desvio de amostragem
Para uma amostra de dado <math> x \ </math>, o desvio de amostragem do estimador <math>\widehat{\theta}</math> é definido como
: <math>d(x) = \widehat{\theta}(x) - \operatorname{E}(\widehat{\theta}(X)) = \widehat{\theta}(x) - \operatorname{E}(\widehat {\theta}),</math>
onde <math>\operatorname{E}(\widehat{\theta}(X))</math> é o valor esperado do estimador. Perceba que o desvio de amostragem, d, depende não somente dono estimador, mas na amostra.
 
;Variância
A variância de <math>\widehat{\theta}</math> é simplesmente o valor esperado dos desvios quadrados de amostragem, ou seja, <math>\operatorname{var}(\widehat{\theta}) = \operatorname{E}[(\widehat{\theta} - \operatorname{E}(\widehat{\theta})) ^ 2]</math>. Ele é usado para indicar quão distante, em média, o conjunto de estimativas está do valor esperado das estimativas. Observe a diferença entre EQM e variância. Se o parâmetro for o centro de um alvo, e as flechas são estimativas, então, uma variação relativamente alta significa que as flechas estão dispersas, e uma variância relativamente baixa significa que as flechas estão agrupadas. Algumas coisas a observar: mesmo que a variância for baixa, o conjunto de flechas pode ainda estar longe do alvo, e mesmo se a variância for alta, o conjunto difuso de flechas ainda pode ser imparcialnão-viesado. Finalmente, note que, mesmo se todas as flechas errarem grosseiramente o alvo, se, no entanto, todas bateram no mesmo ponto, a variância é zero.
 
;Viés
O viés de <math>\widehat{\theta}</math> é definido como <math>B(\widehat{\theta}) = \operatorname{E}(\widehat{\theta}) - \theta</math>. Ele é a distância entre a média do conjunto de estimativas, e o único parâmetro a ser estimado. Ele também é o valor esperado do erro, uma vez que <math>\operatorname{E}(\widehat{\theta}) - \theta = \operatorname{E}(\widehat{\theta} - \theta)</math>. Se o parâmetro for o centro do alvo, e as flechas forem as estimativas, em seguida, um valor absoluto relativamente alto para o viés significa que a posição média das flechas está fora da alvo, e um viés absoluto relativamente baixo significa que a posição média das flechas está no alvo. Elas podem estar dispersas, ou podem estar agrupadas. A relação entre a variação de polarização é análoga à relação entre a exatidão e precisão.
 
;Não-enviesado
;Imparcial
O estimador <math>\widehat{\theta}</math> é um estimador imparcialnão-enviesado de <math>\theta \ </math> se e somente se <math>B(\widehat{\theta}) = 0</math>. Note que o viés é uma propriedade do estimador , não da estimativa. Muitas vezes, as pessoas se referem a uma " estimativa enviesada " ou uma " estimativa imparcial não-enviesado", mas eles realmente estão falando sobre uma " estimativa de um estimador enviesado ", ou uma " estimativa de um estimador imparcialnão-enviesado". " Além disso, muitas vezes as pessoas confundem o " erro" de uma única estimativa com o " viés " de um estimador . Apenas porque o erro para uma estimativa é grande, não significa que o estimador é enviesado. De fato , mesmo se todas as estimativas tiverem valores absolutos astronômicos para os seus erros , se o valor esperado do erro é zero , o estimador é imparcial não-enviesado. Além disso, só porque um estimador é enviesado , não impede que o erro de estimativa seja zero (nós podemos ter sido sortudos). A situação ideal , é claro, é ter um estimador imparcialnão-enviesado com baixa variância , e também tentar limitar o número de amostras em que o erro é extremo (isto é, têm poucos valores atípicos). No entanto, não é essencial enviesamento . Muitas vezes , se apenas um pequeno viés é permitido , então um estimador pode ser encontrado com o EQM baixo e / ou poucas estimativas da amostra discrepantes. Uma alternativa para a versão "não-enviesada" acima, é a "mediana - não-enviesada", onde a mediana da distribuição de estimativas concorda com o valor real, assim, no longo prazo, a metade das estimativas será muito baixa e metade muito alta. Enquanto isso se aplica de imediato apenas para estimadores de valor escalar, isso pode ser estendido para qualquer medida de tendência central de uma distribuição: veja estimadores de mediana não-enviesados.
Uma alternativa para a versão de " imparcial " acima , é " mediana - imparcial " , onde a mediana da distribuição de estimativas concorda com o valor real , assim, no longo prazo, a metade das estimativas será muito baixa e metade muito alta . Enquanto isso se aplica de imediato apenas para estimadores de valor escalar , isso pode ser estendido para qualquer medida de tendência central de uma distribuição : veja estimadores de mediana imparcial.
 
;Relacionamentos
*O EQM, variância, e viés, estão relacionados: <math>\operatorname{EQM}(\widehat{\theta}) = \operatorname{var}(\widehat\theta) + (B(\widehat{\theta})) ^ 2,</math> ou seja, o erro médio quadrado = variância + quadrado do viés. Em particular, para um estimador imparcialnão-enviesado, a variância é igual ao EQM.
*O desvio padrão de um estimador de θ (a raiz quadrada da variância), ou uma estimativa do desvio padrão de um estimador de θ, é chamado o erro padrão de θ.
 
==Propriedades comportamentais==
Linha 64 ⟶ 62:
 
A consistência definida acima pode ser chamada de consistência fraca. A sequência é fortemente consistente , se converge quase certamente para o valor verdadeiro.
Um estimador que converge para um ''múltiplo'' de um parâmetro pode ser feito dentro de estimador consistente através da multiplicação do estimador de factorfator de escala , isto é, o valor verdadeiro , dividido pelo valor assimptótico do estimador . Isso ocorre com freqüência na estimativa de parâmetros de escala de medidas de dispersão estatística.
 
;Normalidade assintótica
Linha 75 ⟶ 73:
;Eficiência
Ver artigo principal: Eficiência (estatísticas)
Duas propriedades naturalmente desejáveis ​​dos estimadores são eles serem imparcialnão-enviesados e ter o mínimo erro quadrático médio (EQM). Estes não podem, em geral, tanto ser satisfeitas simultaneamente: um estimador enviesado pode ter menor erro quadrado médio (EQM) do que qualquer estimador imparcialnão-enviesado; ver viés do estimador.
Entre estimadores imparciais, muitas vezes existe um com a menor variância, chamada de variância mínima do estimador imparcial não-enviesado(MVUE). Em alguns casos, existe um estimador eficiente imparcialnão-enviesado, o que, além de ter a menor variância entre os estimadores imparciais, satisfaz o limite de Cramér-Rao, que é um limite inferior absoluto na variância para as estatísticas de uma variável.
 
Quanto a tais "melhores estimadores imparciais", ver também limite de Cramér-Rao , teorema de Gauss-Markov , teorema Lehmann-Scheffé, teorema Rao-Blackwell.
 
; Robustez