Mathematics">
Nothing Special   »   [go: up one dir, main page]

Multicolinealidad Teorico

Descargar como docx, pdf o txt
Descargar como docx, pdf o txt
Está en la página 1de 6

Econometría clase 9, 2020.

MULTICOLIENALIDAD
*Cuando ajustamos un modelo de regresión necesitamos que cada una de las variables exógenas
que componen el modelo de regresión aporten en la explicación de la variable dependiente, y las
que no aportan se deben eliminar.

*¿Qué ocurre cuando entre las variables exógenas hay un alto grado de relación entre ellas?

-Todas las variables a nivel general están relacionadas entre ellas de alguna manera.

La multicolinealidad es un problema que suele presentarse en la estimación de modelos


econométricos. Este problema implica que cierta parte de las variables del modelo guarden
relación entre ellas, y esta relación variará en intensidad.

La multicolinealidad es un problema que se presenta de forma común en los modelos de regresión


lineal en donde se hacer referencia a la asociación lineal entre las variables explicativas del
modelo.

B) X2 y X3 la relación es muy baja, la varianza va atender a crecer

*Cuando hay presencia de multicolienalidad los parámetros estimados no son estadísticamente


significativos, no obstante, el R cuadrado es alto. Por lo tanto, hay una inconsistencia entre la
bondad de ajuste y la significancia estadística, entendiendo que la bondad de ajuste es lo que el
modelo de regresión logra explicar de la variabilidad de Y.
Si el R cuadrado es alto, significa que el modelo es muy bueno ya que logra explicar en gran
medida la variabilidad de Y, no obstante, si las variables resultan no ser estadísticamente
significativas ahí esta diciendo que no hay ninguna relación causal entre las variables que se están
incorporando en el modelo, entonces si no hay una relación causal entre las variables porque hay
una alta explicación de la variabilidad, eso es inconsistente.

MULTICOLIENALIDAD PERFECTA
Suponiendo que se tiene un modelo de regresión lineal con 𝑘 variables explicativas (𝑥1 ,𝑥2 ,…,𝑥𝑘 ),
se dice que existirá una relación lineal exacta si se satisface la siguiente condición:

MULTICOLIENALIDAD IMPERFECTA

En este caso a la relación lineal entre las variables explicativas se le suma un término denominado
error estocástico. Tiene la siguiente definición:

*Aquí aparece un errror


CONSECUENCIAS DE LA MULTICOLINEALIDAD

✓Aunque los estimadores MCO son MELI (mejor estimador lineal insesgado), presentan varianzas
y covarianzas grandes, lo que dificulta su estimación precisa.

✓El valor del estadístico t de uno o más coeficientes tiende a 0.

✓El coeficiente de determinación R-cuadrado al igual que la prueba F como medidas de asociación
conjunta mostrarán valores altos.

✓Los estimadores MCO y sus errores estándar se hacen sensibles a pequeños cambios en los
datos.

DETECCIÓN DE LA MULTICOLINEALIDAD
R-cuadrado elevado

*Como ya se ha mencionado, es un síntoma “clásico” de multicolinealidad. Si 𝑅2 es alta, es decir,


está por encima de 0.8, la prueba F, en la mayoría de los casos, rechazará la hipótesis de que los
coeficientes parciales de pendiente son simultáneamente iguales a cero, pero las pruebas t
individuales mostrarán que ningún coeficiente parcial de pendiente, o muy pocos, son
estadísticamente diferentes de cero.

Coeficiente de correlación y matriz de dispersiones


*Una forma de detectar la alta correlación que puedan existir es haciendo una matriz de los
coeficientes de correlación y observar el valor de cada uno de estos coeficientes. Otra medida para
detectar multicolinealidad es hacer dispersiones entre las variables explicativas, y las que tengan
una relación lineal muy alta a nivel gráfico, van a generar sospecha de multicolinealidad.

Factor Inflador de Varianzas (VIF)


El VIF (o FIV en español) muestra la forma como la varianza de un estimador se infla por la
presencia de la multicolinealidad.

*la variable endógena va a ser xi

Viene dado por:


Matriz de correlaciones
Los coeficientes de correlación entre las variables se calculan con la función cor() de R.

Comúnmente en un comienzo se ve la primera fila.

DETECCIÓN DE LA MULTICOLINEALIDAD EN R
Matriz de dispersiones Este método también es válido, y que nos permitirá observar la relación
visible entre cada una de las variables que se analizarán.

Para hacer matrices de dispersión en R se hace uso del comando pairs().

Factor Inflador de Varianzas (FIV)


Para estimar el factor de varianzas haciendo uso de R, se debe usar el comando vif(), que
pertenece al paquete car, con el cuál se pueden hacer diversos tests para modelo de regresión
lineal.

Es menor a 10, por lo tanto no hay presencia de multicolienalidad

Si el factor de inflación es mayor a 10, se puede hacer una matriz de correlación o una matriz de
dispersión e identificar cuales tienen una alta dependencia lineal, y luego eliminar una de ellas.
SOLUCIONES A LA MULTICOLINEALIDAD
Eliminación de variables colineales
Si en el modelo se incluyen dos variables explicativas que cumplen funciones parecidas, no se
pierde consistencia teórica si se elimina alguna de estas variables colineales. Igualmente, si la
colinealidad se debe a la inclusión de variables irrelevantes, la eliminación de variables no
significativas reducirá el grado de colinealidad.

Transformación de variables
Si la colinealidad ocurre cuando las variables están expresadas en niveles (datos observados),
podría modificarse una expresión en primeras diferencias, se deberá tener cuidado por la eventual
generación de heterocedasticidad o autocorrelación.

*NO ES MUY RECOMENDABLE, PERO SE HACE.

*Hay casos donde la transformación pasa por el concepto de deflactores o en términos relativos.
La idea es que si 2 variables son colineales en niveles es poco probable que la colinealidad se
mantenga en términos relativos. Suponiendo que en el siguiente modelo las variables 𝑥1 y 𝑥2 son
colineales:

También podría gustarte