Mathematics">
Nothing Special   »   [go: up one dir, main page]

Mest3 U2 A1

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 6

Universidad a Distancia de México

Licenciatura en Matemáticas
Asignatura: Estadística III

Unidad 2. Identificación, estimación y validación de métodos


Actividad 1. Autocorrelación muestral y estimación máximo verosímil

Alumna: Yazmin Guadalupe Castillo Ortiz


Matricula: ES1821000588
Actividad 1. Autocorrelación muestral y estimación máximo verosímil

1. Define el significado de autocorrelación muestral

La autocorrelacion de define como que los errores del modelo no son independientes entre sí, es decir que la
esperanza matemática de un error en el periodo i y otro con respecto al periodo j es diferentes de 0.

𝐸(𝑀𝑖 , 𝑀𝑗 ) ≠ 0

Nuestros errores a lo largo del tiempo están relacionados generalmente el problema de la utocorrelacion
aparece en las series temporales, pero también puede darse en modelos de cortes transversal, si se da en este
último caso se trata de autocorrelacion espacial

Ejemplo

Ejemplo: imaginemos que nuestro estado de ánimo es


igual a una constante, significamos nuestro estado de
ánimo a lo largo del tiempo nuestro estado estimado será
el valor de una constante sin embargo nuestro estado de
ánimo observado fluctuara alrededor de esta constante.

Ahora la pregunta es si nuestro estado de ánimo tiene o no


autocorrelación y para responder tenemos que estimar el error
que sería la diferencia entre ambas curvas, así el error lo
definimos como el estado de ánimo actual (como nos sentimos
ahora: feliz, triste, etc) menos el estado de ánimo estimado
(viene dado por el modelo que es igual a la constante de estar
bien)

Con este ejemplo podemos entender que la autocorrelación son los cambios imprevistos en los estados de
ánimo y que dichos cambios se encuentran relacionados. Por ejemplo si uno tiene 3 días con estado de ánimo
y 3 días tristes, diremos que los estados de ánimo presentan autocorrelacion porque existe una constante.

Los errores están correlacionados porque si hubo un shock un cambio imprevisto, un error en un periodo
atrasas el tiempo, ese mismo afecta al error que va ocurrir en el día.

(Economía con manzanitas, 2019)


2. ¿Qué significa el término máxima verosimilitud en estadística?

En estadística, la estimación de máxima verosimilitud es un método para estimar los parámetros de una
distribución de probabilidad supuesta, dados algunos datos observados. Esto se logra maximizando una
función de verosimilitud para que, bajo el modelo estadístico asumido, los datos observados sean los más
probables. El punto en el espacio de parámetros que maximiza la función de verosimilitud se denomina
estimación de máxima verosimilitud. La lógica de máxima verosimilitud es tanto intuitiva como flexible y,
como tal, el método se ha convertido en un medio dominante de inferencia estadística.

Si la función de verosimilitud es derivable, se puede aplicar la prueba de la derivada para determinar los
máximos. En algunos casos, las condiciones de primer orden de la función de verosimilitud pueden resolverse
explícitamente; por ejemplo, el estimador de mínimos cuadrados ordinarios maximiza la probabilidad del
modelo de regresión lineal. En la mayoría de las circunstancias, sin embargo, serán necesarios métodos
numéricos para encontrar el máximo de la función de verosimilitud.

Modelamos un conjunto de observaciones como una muestra aleatoria de una distribución de probabilidad
conjunta desconocida que se expresa en términos de un conjunto de parámetros. El objetivo de la estimación
de máxima verosimilitud es determinar los parámetros para los cuales los datos observados tienen la mayor
probabilidad conjunta.

Escribimos los parámetros que gobiernan la distribución conjunta como un vector

para que esta distribución caiga dentro de una familia paramétrica donde se

llama espacio de parámetros, un subconjunto de dimensión finita del espacio euclidiano. La evaluación de la

densidad conjunta en la muestra de datos observados da una función de valor real

, que se llama función de verosimilitud. Para variables aleatorias

independientes e idénticamente distribuidas, será el producto de funciones de densidad

univariadas:

El objetivo de la estimación de máxima verosimilitud es encontrar los valores de los parámetros del modelo
que maximizan la función de verosimilitud sobre el espacio de parámetros, es decir

(AcademiaLab, --)
3. ¿Cómo se aplica la idea de máxima verosimilitud en series de tiempo?

Máxima verosimilitud es un proceso intuitivo, y consiste en aprender o estimar valores de parámetros


desconocidos suponiendo para los datos su explicación más probable. Para esto, usando supuestos y
modelos requeriremos calcular la probabilidad de un conjunto de observaciones.

Ejemplo

Supongamos que queremos saber qué proporción de registros de una base de datos tiene algún error menor
de captura. No podemos revisar todos los registros, así que tomamos una muestra de 8 registros,
escogiendo uno por uno al azar de manera independiente. Revisamos los 8 registros, y obtenemos los
siguientes datos:

Donde 1 indica un error menor. Encontramos dos errores menores. ¿Cómo estimamos el número de registros
con errores leves en la base de datos?

Ya sabemos una respuesta razonable para nuestro estimador puntual, que sería ^p=2/8=0.25�^=2/8=0.25.
Veamos cómo se obtendría por máxima verosimilitud.

Según el proceso con el que se construyó la muestra, debemos dar una probabilidad de observar los 2 errores
en 8 registros. Supongamos que en realidad existe una proporción 𝒑 de que un registro tenga un error.
Entonces calculamos

Probabilidad de observar la muestra:

Es igual a

Pues la probabilidad de que cada observación sea 0 o 1 no depende de las observaciones restantes (la muestra
se extrajo de manera independiente).

Esta última cantidad tiene un parámetro que no conocemos: la proporción 𝒑 de registros con errores. Así que

lo denotamos como una cantidad desconocida 𝒑. Nótese entonces que , y


así sucesivamente, así que la cantidad de arriba es igual a

Que se simplifica a:
Ahora la idea es encontrar la p que maximiza la probabilidad de lo que observamos. En este caso se puede
hacer con cálculo, pero vamos a ver una gráfica de esta función y cómo resolverla de manera numérica.

verosimilitud <- function(p){


p^2 * (1-p)^6
}
dat_verosim <- tibble(x = seq(0,1, 0.001)) %>% mutate(prob = map_dbl(x, verosimilitud))
ggplot(dat_verosim, aes(x = x, y = prob)) + geom_line() +
geom_vline(xintercept = 0.25, color = "red") +
xlab("p")

Nótese que esta gráfica:

 Depende de los datos, que pensamos fijos.


 Cuando cambiamos la 𝒑, la probabilidad de observar la muestra cambia. Nos interesa ver las regiones
donde la probabilidad es relativamente alta.
 El máximo está en 0.25.
 Así que el estimador de máxima verosimilitud es 𝒑 ̂ =. 𝟐𝟓, que es también el estimador usual de
plugin en este caso.

Para uniformizar la notación con el caso continuo que veremos más adelante, usaremos la notación

Donde 𝒇 es la función de densidad (en este caso, función de masa de probabilidad) de 𝑿. Si esta función

depende de un parámetro, escribimos:


Ahora definimos qué es un estimador de máxima verosimilitud.

Obsérvese que para construir la verosimilitud y en consecuencia buscar por estimadores de máxima
verosimlitud necesitamos:
 Un modelo teórico de cómo es la población con parámetros e
 Información de cómo se extrajo la muestra,

Y entonces podemos resolver nuestro problema de estimación convirtiéndolo en uno de optimización.

(Teresa Ortiz, --)

Bibliografía
AcademiaLab. (-- de -- de --). Máxima verosimilitud. Recuperado el 04 de Marzo de 2023, de https://academia-
lab.com/enciclopedia/maxima-verosimilitud/

Economía con manzanitas. (29 de Diciembre de 2019). Que es la Autocorrelacion, explicado con manzanitas. Recuperado
el 04 de Marzo de 2023, de https://www.youtube.com/watch?v=V0HhahBceP8

Teresa Ortiz, A. G. (-- de -- de --). Sección 7 Estimación por máxima verosimilitud. Recuperado el 04 de Marzo de 2023, de
https://tereom.github.io/fundamentos/S-max-verosimilitud.html

También podría gustarte