Qual é a relação entre estimador e estimativa?
On Fevereiro 10, 2021 by adminQual é a relação entre estimador e estimativa?
Comentários
- ” Em estatística, um estimador é uma regra para calcular uma estimativa de uma determinada quantidade com base em dados observados: assim, a regra e seu resultado (a estimativa) são diferenciados. ” (Primeira linha do artigo da Wikipedia en.wikipedia.org/wiki/Estimator ).
- + 1 Estou votando a favor desta questão (apesar da presença de uma resposta bem formulada em uma página óbvia da Wikipedia) porque as tentativas iniciais de respondê-la aqui apontaram para algumas sutilezas.
- @whuber, posso dizer os parâmetros do modelo as estimativas são o estimador?
- @loganecolss Um estimador é uma função matemática. Isso é diferente do valor (a estimativa) que pode atingir para qualquer conjunto de dados. Uma maneira de avaliar a diferença é observar que certos conjuntos de dados produzirão as mesmas estimativas de, digamos, a inclinação em uma regressão linear usando diferentes estimadores (como Máximo Probabilidade ou Mínimos Quadrados Reescritos Iterativamente, por exemplo) Sem distinguir as estimativas dos estimadores usados para produzir essas estimativas, seríamos incapazes de entender o que essa afirmação diz.
- @whuber, mesmo com um determinado conjunto de dados $ D $, um estimador diferente também poderia fornecer estimativas, não ‘ eles?
Resposta
E . L. Lehmann, em seu clássico Theory of Point Estimation , responde a esta pergunta nas páginas 1-2.
As observações são agora postulado como sendo os valores assumidos por variáveis aleatórias que se supõe seguirem uma distribuição de probabilidade conjunta, $ P $ , pertencente a alguma classe conhecida …
… vamos agora nos especializar na estimativa pontual … suponha que $ g $ seja uma função de valor real definida [na classe estipulada de distribuições ] e que gostaríamos de saber o valor de $ g $ [em qualquer que seja a distribuição real em vigor, $ \ theta $ ]. Infelizmente, $ \ theta $ e, portanto, $ g (\ theta) $ , é desconhecido. No entanto, os dados podem ser usados para obter uma estimativa de $ g (\ theta) $ , um valor que se espera seja próximo a $ g (\ theta) $ .
Em palavras: um estimador é um matemático definitivo procedimento que surge com um número (a estimativa ) para qualquer conjunto possível de dados que um problema específico possa produzir. Esse número tem a intenção de representar alguma propriedade numérica definida ( $ g (\ theta) $ ) do processo de geração de dados; podemos chamá-lo de ” estimativa. ”
O próprio estimador não uma variável aleatória: é apenas uma função matemática. No entanto, a estimativa que ela produz é baseada em dados que são modelados como variáveis aleatórias. Isso faz a estimativa (considerada como dependendo dos dados) em uma variável aleatória e uma estimativa específica para um conjunto específico de dados torna-se uma realização dessa variável aleatória.
Em um (convencional) mínimo formulação de quadrados, os dados consistem em pares ordenados $ (x_i, y_i) $ . O $ x_i $ tem foram determinados pelo experimentador (podem ser quantidades de um medicamento administrado, por exemplo). Cada $ y_i $ (uma resposta ao medicamento, por exemplo) é assumido como vêm de uma distribuição de probabilidade que é Normal, mas com média desconhecida $ \ mu_i $ e variação comum $ \ sigma ^ 2 $ . Além disso, presume-se que as médias estão relacionadas a $ x_i $ por meio de uma fórmula $ \ mu_i = \ beta_0 + \ beta_1 x_i $ . Estes três parâmetros – $ \ sigma $ , $ \ beta_0 $ e $ \ beta_1 $ –determine a distribuição subjacente de $ y_i $ para qualquer valor de $ x_i $ . Portanto, qualquer propriedade dessa distribuição pode ser considerada uma função de $ (\ sigma, \ beta_0, \ beta_1) $ .Exemplos de tais propriedades são a interceptação $ \ beta_0 $ , a inclinação $ \ beta_1 $ , o valor de $ \ cos (\ sigma + \ beta_0 ^ 2 – \ beta_1) $ , ou mesmo a média no valor $ x = 2 $ , que (de acordo com esta formulação) deve ser $ \ beta_0 + 2 \ beta_1 $ .
Neste OLS contexto, um não-exemplo de um estimador seria um procedimento para adivinhar o valor de $ y $ se $ x $ foram definidos como 2. Este não um estimador porque este valor de $ y $ é aleatório (de uma forma completamente separada da aleatoriedade dos dados): não é uma propriedade (numérica definida) da distribuição, embora esteja relacionada a essa distribuição. (Como acabamos de ver, a expectativa de $ y $ para $ x = 2 $ , igual a $ \ beta_0 + 2 \ beta_1 $ , pode ser estimado.)
Na formulação de Lehmann, quase qualquer fórmula pode ser um estimador de quase todas as propriedades. Não há ligação matemática inerente entre um estimador e um estimador. No entanto, podemos avaliar – com antecedência – a chance de um estimador ser razoavelmente perto da quantidade que se pretende estimar. As maneiras de fazer isso e de explorá-las são o assunto da teoria da estimativa.
Comentários
- (+ 1) Uma resposta muito precisa e detalhada.
- Uma função de uma variável aleatória em si também é uma variável aleatória?
- @jsk Acho que a distinção que estava tentando fazer make aqui pode ser esclarecido considerando a composição das funções $$ \ Omega \ to \ mathbb {R} ^ n \ to \ mathbb {R}. $$ A primeira função é uma variável aleatória $ X $; o segundo (chame-o de $ t $) é denominado um estimador aqui, e a composição dos dois $$ t \ circ X: \ Omega \ to \ mathbb { R} $$ é uma ” estimativa ” ou ” procedimento de estimativa, ” que é – como você diz corretamente – uma variável aleatória.
- @whuber Em sua postagem, você diz ” O estimador em si não é uma variável aleatória. ” Tentei editar sua postagem para esclarecer o ponto que você e eu concordamos, mas parece que alguém rejeitou minha edição. Talvez eles prefiram sua edição!
- Deixe-nos continuar esta discussão no chat .
Resposta
Resumindo: um estimador é um função e uma estimativa é um valor que resume uma amostra observada.
Um estimador é uma função que mapeia uma amostra aleatória para a estimativa do parâmetro:
$$ \ hat {\ Theta} = t (X_1, X_2, …, X_n) $$ Observe que um estimador de n variáveis aleatórias $ X_1, X_2, …, X_n $ é uma variável aleatória $ \ hat {\ Theta} $. Por exemplo, um estimador é a média da amostra: $$ \ overline {X} = \ frac {1} {n} \ sum_ {n = 1} ^ nX_i $$ An estimar $ \ hat {\ theta} $ é o resultado da aplicação da função de estimador a uma amostra observada em minúsculas $ x_1, x_2, …, x_n $:
$$ \ hat {\ theta} = t (x_1, x_2, …, x_n) $$ Por exemplo, uma estimativa da amostra observada $ x_1, x_2, …, x_n $ é a média da amostra : $$ \ hat {\ mu} = \ overline {x} = \ frac {1} {n} \ sum_ {n = 1} ^ nx_i $$
Comentários
Resposta
Pode ser útil ilustrar a resposta de whuber no contexto de um modelo de regressão linear. Digamos que você tenha alguns dados bivariados e use Mínimos Quadrados Ordinários para chegar ao seguinte modelo:
Y = 6X + 1
Neste ponto, você pode pegar qualquer valor de X, conectá-lo ao modelo e prever o resultado, Y. Nesse sentido, você pode pensar nos componentes individuais da forma genérica do modelo ( mX + B ) como estimadores .Os dados de amostra (que você presumivelmente conectou ao modelo genérico para calcular os valores específicos para m e B acima) forneceram uma base na qual você poderia chegar a estimativas para m e B respectivamente.
Consistente com os pontos de @whuber em nosso tópico abaixo, quaisquer valores de Y um determinado conjunto de estimadores gerados por você são, no contexto da regressão linear, considerados como valores previstos.
(editado – algumas vezes – para refletir o comentários abaixo)
Comentários
- Você definiu bem um preditor. É sutilmente (mas de maneira importante ) diferente de um estimador. O estimador, neste contexto, é a fórmula dos mínimos quadrados usada para calcular os parâmetros 1 e 6 dos dados.
- Hmm, não ‘ não quis dizer isso, @whuber, mas acho que seu comentário ilustra uma ambigüidade importante em minha linguagem que não ‘ percebi antes. O ponto principal aqui é que você pode pensar na forma genérica da equação Y = mX + B (como usada acima) como um estimador, enquanto os valores preditos particulares gerados por exemplos específicos dessa fórmula (por exemplo, 1 + 6X) são estimativas. Deixe-me tentar editar o parágrafo acima para capturar essa distinção …
- btw, eu ‘ estou tentando explicar isso sem apresentar o ” hat ” notação que ‘ encontrei na maioria das discussões de livros sobre este conceito. Talvez esse ‘ seja o melhor caminho afinal?
- Acho que você atingiu um bom meio-termo entre a precisão e o tecnicismo em sua resposta original: continue assim! Você não ‘ não precisa de chapéus, mas se você conseguir mostrar como um estimador se distingue de outras coisas de aparência semelhante, isso seria muito útil. Mas observe a distinção entre prever um valor Y e estimar um parâmetro como m ou b . Y pode ser interpretado como uma variável aleatória; m e b não são (exceto em um cenário bayesiano).
- de fato, um ponto muito bom em termos de parâmetros versus valores ali. Editando novamente …
Resposta
Suponha que você tenha recebido alguns dados e tenha alguma variável observada chamada theta . Agora, seus dados podem ser de uma distribuição de dados, para essa distribuição, há um valor correspondente de theta que você infere que é uma variável aleatória. Você pode usar o MAP ou a média para calcular a estimativa dessa variável aleatória sempre que a distribuição de seus dados mudar. Portanto, a variável aleatória theta é conhecida como uma estimativa , um único valor da variável não observada para um tipo específico de dados.
Enquanto estimador são seus dados, que também é uma variável aleatória. Para diferentes tipos de distribuições, você tem diferentes tipos de dados e, portanto, uma estimativa diferente e, portanto, essa variável aleatória correspondente é chamada de estimador .
Deixe uma resposta