¿Cuál es la relación entre estimador y estimación?
On febrero 10, 2021 by admin¿Cuál es la relación entre estimador y estimación?
Comentarios
- » En estadística, un estimador es una regla para calcular una estimación de una cantidad dada basada en datos observados: así se distingue la regla y su resultado (la estimación). » (Primera línea del artículo de Wikipedia en.wikipedia.org/wiki/Estimator ).
- + 1 Estoy votando a favor de esta pregunta (a pesar de la presencia de una respuesta bien formulada en una página de Wikipedia obvia) porque los intentos iniciales de responderla aquí han apuntado a algunas sutilezas.
- @whuber, puedo decir los parámetros del modelo las estimaciones son el estimador?
- @loganecolss Un estimador es una función matemática. Eso se distingue del valor (la estimación) que podría alcanzar para cualquier conjunto de datos. Una forma de apreciar la diferencia es observar que ciertos conjuntos de datos producirán las mismas estimaciones de, digamos, la pendiente en una regresión lineal usando diferentes estimadores (como Máximo Probabilidad o mínimos cuadrados reponderados iterativamente, por ejemplo). Sin distinguir las estimaciones de los estimadores utilizados para producir esas estimaciones, no podríamos entender lo que dice esa declaración.
- @whuber, incluso con un determinado conjunto de datos $ D $, un estimador diferente también podría dar diferentes estimaciones, no ‘ ¿verdad?
Responder
E . L. Lehmann, en su clásica Teoría de la estimación puntual , responde a esta pregunta en las páginas 1-2.
Las observaciones son ahora se postula que son los valores tomados por variables aleatorias que se supone que siguen una distribución de probabilidad conjunta, $ P $ , pertenecientes a alguna clase conocida …
… ahora nos especializamos en la estimación puntual … supongamos que $ g $ es una función de valor real definida [en la clase estipulada de distribuciones ] y que nos gustaría saber el valor de $ g $ [en la distribución real en efecto, $ \ theta $ ]. Desafortunadamente, $ \ theta $ , y por lo tanto $ g (\ theta) $ , es desconocido. Sin embargo, los datos se pueden usar para obtener una estimación de $ g (\ theta) $ , un valor que se espera que esté cerca de $ g (\ theta) $ .
En palabras: un estimador es una matemática definida procedimiento que genera un número (la estimación ) para cualquier posible conjunto de datos que pueda producir un problema en particular. Ese número pretende representar alguna propiedad numérica definida ( $ g (\ theta) $ ) del proceso de generación de datos; podríamos llamar a esto el » estimando. »
El estimador en sí no una variable aleatoria: es solo una función matemática. Sin embargo, la estimación que produce se basa en datos que a su vez se modelan como variables aleatorias. Esto hace que la estimación (que se piensa que depende de los datos) en una variable aleatoria y una estimación particular para un conjunto particular de datos se convierte en una realización de esa variable aleatoria.
En una (convencional) ordinaria mínima formulación de cuadrados, los datos consisten en pares ordenados $ (x_i, y_i) $ . El $ x_i $ tiene ha sido determinado por el experimentador (pueden ser cantidades de un fármaco administrado, por ejemplo). Se supone que cada $ y_i $ (una respuesta al fármaco, por ejemplo) provienen de una distribución de probabilidad que es Normal pero con una media desconocida $ \ mu_i $ y varianza común $ \ sigma ^ 2 $ . Además, se supone que las medias están relacionadas con el $ x_i $ mediante una fórmula $ \ mu_i = \ beta_0 + \ beta_1 x_i $ . Estos tres parámetros: $ \ sigma $ , $ \ beta_0 $ y $ \ beta_1 $ : determina la distribución subyacente de $ y_i $ para cualquier valor de $ x_i $ . Por lo tanto, cualquier propiedad de esa distribución puede considerarse una función de $ (\ sigma, \ beta_0, \ beta_1) $ .Ejemplos de tales propiedades son la intersección $ \ beta_0 $ , la pendiente $ \ beta_1 $ , el valor de $ \ cos (\ sigma + \ beta_0 ^ 2 – \ beta_1) $ , o incluso la media en el valor $ x = 2 $ , que (según esta formulación) debe ser $ \ beta_0 + 2 \ beta_1 $ .
En este OLS contexto, un no-ejemplo de un estimador sería un procedimiento para adivinar el valor de $ y $ si $ x $ se establecieron igual a 2. Esto no es un estimador porque este valor de $ y $ es aleatorio (de una manera completamente separada de la aleatoriedad de los datos): no es una propiedad (numérica definida) de la distribución, aunque esté relacionada con esa distribución. (Sin embargo, como acabamos de ver, la expectativa de $ y $ para $ x = 2 $ , igual a $ \ beta_0 + 2 \ beta_1 $ , se puede estimar).
En la formulación de Lehmann, casi cualquier fórmula puede ser un estimador de casi cualquier propiedad. No existe un vínculo matemático inherente entre un estimador y un estimador. Sin embargo, podemos evaluar, de antemano, la posibilidad de que un estimador sea razonablemente cerca de la cantidad que se pretende estimar. Las formas de hacer esto y cómo explotarlas son el tema de la teoría de la estimación.
Comentarios
- (+ 1) Una respuesta muy precisa y detallada.
- ¿No es una función de una variable aleatoria en sí misma también una variable aleatoria?
- @jsk Creo que la distinción que estaba tratando de hacer make aquí se puede aclarar considerando la composición de las funciones $$ \ Omega \ to \ mathbb {R} ^ n \ to \ mathbb {R}. $$ La primera función es una variable aleatoria $ X PS el segundo (llámalo $ t $) se denomina estimador aquí, y la composición de los dos $$ t \ circ X: \ Omega \ to \ mathbb { R} $$ es un » estimado » o » procedimiento de estimación, » que es, como dice correctamente, una variable aleatoria.
- @whuber En su publicación, dice » El estimador en sí no es una variable aleatoria. » Intenté editar tu publicación para aclarar el punto en el que tú y yo estamos de acuerdo, pero parece que alguien rechazó mi edición. ¡Quizás prefieran su edición!
- Permítanos continuar esta discusión en el chat .
Respuesta
En resumen: un estimador es un y una estimación es un valor que resume una muestra observada.
Un estimador es una función que asigna una muestra aleatoria a la estimación del parámetro:
$$ \ hat {\ Theta} = t (X_1, X_2, …, X_n) $$ Tenga en cuenta que un estimador de n variables aleatorias $ X_1, X_2, …, X_n $ es una variable aleatoria $ \ hat {\ Theta} $. Por ejemplo, un estimador es la media de la muestra: $$ \ overline {X} = \ frac {1} {n} \ sum_ {n = 1} ^ nX_i $$ An estimación $ \ hat {\ theta} $ es el resultado de aplicar la función de estimador a una muestra observada en minúsculas $ x_1, x_2, …, x_n $:
$$ \ hat {\ theta} = t (x_1, x_2, …, x_n) $$ Por ejemplo, una estimación de la muestra observada $ x_1, x_2, …, x_n $ es la media muestral : $$ \ hat {\ mu} = \ overline {x} = \ frac {1} {n} \ sum_ {n = 1} ^ nx_i $$
Comentarios
Respuesta
Puede resultar útil ilustrar la respuesta de whuber en el contexto de un modelo de regresión lineal. Supongamos que tiene algunos datos bivariados y utiliza mínimos cuadrados ordinarios para obtener lo siguiente modelo:
Y = 6X + 1
En este punto, puede tomar cualquier valor de X, insertarlo en el modelo y predecir el resultado, Y. En este sentido, podría pensar en los componentes individuales de la forma genérica del modelo ( mX + B ) como estimadores .Los datos de muestra (que presumiblemente conectó al modelo genérico para calcular los valores específicos para m y B anteriores) proporcionaron una base sobre la cual podría llegar a estimaciones para m y B respectivamente.
De acuerdo con los puntos de @whuber en nuestro hilo a continuación, independientemente de los valores de Y un conjunto particular de estimadores te genera, en el contexto de la regresión lineal, se piensa en valores predichos.
(editado – algunas veces – para reflejar el comentarios a continuación)
Comentarios
- Ha definido muy bien un predictor. Es sutil (pero importante ) diferente de un estimador. El estimador en este contexto es la fórmula de mínimos cuadrados que se utiliza para calcular los parámetros 1 y 6 a partir de los datos.
- Mmmm, no ‘ Lo digo en serio, @whuber, pero creo que su comentario ilustra una ambigüedad importante en mi idioma que no ‘ noté antes de. El punto principal aquí es que puede pensar en la forma genérica de la ecuación Y = mX + B (como se usó anteriormente) como un estimador, mientras que los valores predichos particulares generados por ejemplos específicos de esa fórmula (por ejemplo, 1 + 6X) son estimados. Permítanme intentar editar el párrafo anterior para capturar esa distinción …
- por cierto, ‘ estoy tratando de explicar esto sin introducir el » hat » notación que ‘ he encontrado en la mayoría de las discusiones de libros de texto sobre este concepto. ¿Quizás esa ‘ es la mejor ruta después de todo?
- Creo que ha alcanzado un buen punto medio entre precisión y tecnicismo en su respuesta original: ¡siga así! No ‘ no necesita sombreros, pero si puede lograr mostrar cómo se distingue un estimador de otras cosas de apariencia similar, sería de gran ayuda. Pero observe la distinción entre predecir un valor Y y estimar un parámetro como m o b . Y podría interpretarse como una variable aleatoria; myb no lo son (excepto en una configuración bayesiana).
- de hecho, un muy buen punto en términos de parámetros versus valores allí. Editando de nuevo …
Responder
Suponga que recibió algunos datos y que tenía una variable observada llamada theta . Ahora sus datos pueden ser de una distribución de datos, para esta distribución, hay un valor correspondiente de theta que usted infiere, que es una variable aleatoria. Puede utilizar el MAP o la media para calcular la estimación de esta variable aleatoria siempre que cambie la distribución de sus datos. Entonces, la variable aleatoria theta se conoce como una estimación , un valor único de la variable no observada para un tipo particular de datos.
Mientras que el estimador son sus datos, que también es una variable aleatoria. Para diferentes tipos de distribuciones, tiene diferentes tipos de datos y, por lo tanto, tiene una estimación diferente y, por lo tanto, esta variable aleatoria correspondiente se llama estimador .
Deja una respuesta