Método de momentos (estadística)

El método de los momentos en Estadística es un método para encontrar estimadores, introducido en 1894 por Karl Pearson. Según el método del momento, un estimador debe satisfacer una condición que caracteriza uno o más de sus momentos de muestra; en general, la igualdad entre el momento de muestra y su contraparte no observable que caracteriza a la población (ej. entre la media muestral y el valor esperado para la población), determinando el estimador como solución de la ecuación resultante.

Considere el problema de estimar k {\displaystyle k} parámetros desconocidos θ 1 , θ 2 , … , θ k {\displaystyle \theta _ {1}, \ theta _ {2}, \dots, \theta _ {k}} caracterización de la distribución de probabilidad f W ( w ; θ ) {\displaystyle f_{W} (w; \ theta)} de la variable aleatoria W {\displaystyle W} . Supongamos que la primera k {\displaystyle k} los momentos de la distribución anterior se pueden expresar en función de parámetros desconocidos θ {\displaystyle \ theta } : Supongamos una muestra de amplitud y {\displaystyle n} ser extraído, realizando los valores w 1 , … , w y {\displaystyle w_{1}, \ dots, w_{n}} . El estimador del método de momentos para θ 1 , θ 2 , … , θ k {\displaystyle \theta _ {1}, \ theta _ {2}, \dots, \theta _ {k}} referido como θ ^ 1 , θ ^ 2 , … , θ ^ k {\displaystyle {\hat {\theta }}_{1}, {\hat {\theta }}_{2}, \dots, {\hat {\theta }}_{k}} se define como la solución (si existe y es único) del sistema de ecuaciones: Para j = 1 , … , k {\displaystyle j = 1, \ dots, k} , deje que el momento de la muestra j-th, una estimación de μ j {\displaystyle \ mu _ {j}} .

Considérate un campeón { x Me } Me = 1 y {\displaystyle \ \ left\{x_{I} \ right\}_{i = 1}^{n}} de variables aleatorias distribuidas idénticamente, y con distribución gaussiana: recordando que: σ 2 = var ( x Me ) = Y − ( Y ) 2 {\displaystyle \ \sigma ^{2}={\textrm {var}}(x_{i})={\textrm {E}} - ({\textrm {E}})^{2}} desea determinar los estimadores para los parámetros μ {\displaystyle \ \ mu } y σ 2 {\displaystyle \ \ sigma ^{2}} Usando el método del momento, se requiere que: - los momentos de muestra de orden & lt; 3 sean iguales a sus contrapartes teóricas ; - el valor esperado común de x Me {\displaystyle \ x_{i}} , Y = μ {\displaystyle \ {\textrm {E}} = \ mu } ;- el momento del pedido 2 Y = σ 2 + ( Y ) 2 {\displaystyle \ {\textrm {E}} = \ sigma ^{2}+({\textrm {E}})^{2}} : De la primera ecuación se deduce que el estimador para el parámetro de valor esperado es la media de la muestra Reemplazando esta expresión en la segunda ecuación, tenemos: es interesante observar cómo estos son los mismos estimadores obtenidos por el método de máxima verosimilitud. Para evitar dudas, cabe señalar que los dos métodos de búsqueda de estimadores no conducen necesariamente a la identificación de los mismos estimadores en condiciones más generales. Recordando que: sigue que: así σ ^ 2 {\displaystyle \{\hat {\sigma }} ^{2}} no es un estimador correcto; tal estimador sería dado por estadísticas: vale la pena, por otro lado, observar que σ ^ 2 {\displaystyle \{\hat {\sigma }} ^{2}} por lo tanto, es un estimador asintóticamente correcto; de hecho: importante en el método de los momentos es verificar el Consistencia del estimador construido, ya que es uno de los requisitos necesarios para aceptar (o rechazar, si es inconsistente) un estimador potencial Con el fin de ilustrar las propiedades de los estimadores de prueba derivados, se observa cómo es inmediato verificar la corrección de μ ^ {\displaystyle \{\hat {\mu }}} : Por otro lado, σ ^ 2 {\displaystyle \{\hat {\sigma }} ^{2}} no disfruta de tal propiedad. Para que un estimador consista en el límite para N que tiende al infinito de la varianza (obtenida a través del operador VAR) del estimador, debe ser igual a 0.

En varios aspectos, el método del momento ha sido superado por el método de máxima verosimilitud de Fisher, ya que los estimadores de máxima verosimilitud son más eficientes, es decir, que es más probable que las estimaciones se acerquen a los valores que se están estimando. Por otro lado, las ecuaciones del método de máxima verosimilitud son a menudo intratables si no numéricamente, donde los estimadores del método del momento se pueden calcular rápidamente analíticamente. Las estimaciones del método del momento también se pueden utilizar como punto de partida para procedimientos numéricos destinados a determinar los estimadores más probables, por ejemplo, como punto de partida del método de Newton - Raphson. En algunos casos, poco frecuentes con muestras grandes, pero no raras en el caso de muestras pequeñas, las estimaciones obtenidas por el método moment están fuera del espacio de parámetros y, por lo tanto, no son confiables. Este problema nunca se plantea en el caso de las estimaciones de máxima verosimilitud. Además, el método de los estimadores del momento puede no ser suficiente estadística, es decir, puede no representar adecuadamente toda la información contenida en la muestra.

Econometría

Correlación espuria

En Estadística la correlación espuria es un problema que surge en el contexto de análisis que calculan la correlación o realizan una regresión, cuando no se res...
Esta página se basa en el artículo de Wikipedia: Fuente, Autores, Licencia Creative Commons Reconocimiento-CompartirIgual.
This page is based on the Wikipedia article: Source, Authors, Creative Commons Attribution-ShareAlike License.
contactos
Política de privacidad , Descargos de responsabilidad