Estimador: diferenças entre revisões

Conteúdo apagado Conteúdo adicionado
Linha 54:
;Consistência
Ver artigo principal: estimador consistente
{{Main|Estimador consistente}}
 
Uma sequência consistente de estimadores é uma sequência de estimadores que [[Convergência em probabilidade|convergem em probabilidade]] para a quantidade que está sendo estimada como o índice (normalmente o [[tamanho da amostra]]) cresce sem limites. Em outras palavras, aumentar o tamanho da amostra aumenta a probabilidade do estimador de estar próximo do parâmetro de população. Matematicamente, uma seqüência de estimadores { tn , n ≥ 0} é um estimador consistente para o [[parâmetro]] ''θ'' se e somente se , para todo ''ϵ'' > 0, não importa quão pequena, temos
Linha 68 ⟶ 69:
 
;Normalidade assintótica
{{Main|Normalidade assintótica}}
Um estimador [[Distribuição assintótica|assintoticamente normal]] é um estimador consistente cuja distribuição em torno do parâmetro verdadeiro ''θ'' se aproxima de uma [[distribuição normal]] com desvio padrão encolhendo na proporção de <math>1/\sqrt{n}</math>, como o tamanho da amostra ''n'' cresce. Usando <math>\xrightarrow{D}</math> para denotar [[Convergência de variáveis aleatórias|convergência na distribuição]], ''t<sub>n</sub>'' é [[Normalidade assintótica|assintoticamente normal]] se
:<math>\sqrt{n}(t_n - \theta) \xrightarrow {D} N (0,V),</math>
Linha 75 ⟶ 77:
 
;Eficiência
Ver artigo principal:
{{Main|Eficiência (estatísticas) }}
 
Duas propriedades naturalmente desejáveis ​​dos estimadores são eles serem não-enviesados e ter o mínimo erro quadrático médio (EQM). Estes não podem, em geral, tanto ser satisfeitas simultaneamente: um estimador enviesado pode ter menor [[erro quadrático médio]] (EQM) do que qualquer estimador não-enviesado; ver [[viés do estimador]].