You are on page 1of 10

Concepto de multicolinealidad

Para analizar adecuadamente los resultados de un modelo de regresión


lineal múltiple, es importante estudiar el grado de relación
lineal existente entre las variables explicativas que lo componen.

Encontramos en este sentido 3 posibles situaciones:

 Ortogonalidad.
 Multicolinealidad perfecta.
 Multicolinealidad imperfecta.

Ortogonalidad
La ortogonalidad surge cuando la relación lineal entre
los regresores incluidos en el modelo es nula. Implica por tanto que no
existen relaciones lineales entre los regresores del modelo.

La ortogonalidad no supone el incumplimiento de ninguna de las


hipótesis de nuestro modelo. De hecho una de las hipótesis del modelo
es que las variables explicativas sean independientes entre sí.

Multicolinealidad perfecta
Un modelo de regresión lineal presenta multicolinealidad perfecta
cuando existe una relación lineal exacta entre algunos regresores del
modelo.

Si consideramos el modelo:

existirá multicolinealidad perfecta si ocurre por ejemplo que:

o
En ambos casos se observa que podemos obtener exactamente los
valores de las variables regresoras implicadas a partir de una
combinación lineal de otras regresoras.

La multicolinealidad perfecta supone el incumplimiento de una de las


hipótesis en la que se basa el modelo de regresión lineal clásico, que
es la inexistencia de combinaciones lineales exactas entre los
regresores del modelo.

Esta hipótesis garantiza la existencia de la matriz , de modo


que si no se cumple no se podrán calcular los estimadores de los
parámetros del modelo, por no existir el determinante de .

En esta situación, Eviews muestra el siguiente mensaje de error ante la


imposibilidad de estimar el modelo:

La multicolinealidad perfecta surge cuando varias variables explicativas


contienen exactamente la misma información, de modo que el modo más
sencillo de resolverla es eliminar alguna de las variables explicativas
que la generan.

Al tratarse de un problema muestral, cambiando o ampliando la muestra


se puede resolver.

En la práctica los modelos no suelen presentar multicolinealidad


perfecta, ya que las relaciones entre las distintas variables económicas no
suele ser exacta.

El problema suele surgir cuando generamos variables de forma artificial


como combinación de otras (variables dummies mal construidas u otro
tipo de transformaciones).
Multicolinealidad Imperfecta

Decimos que un modelo de regresión múltiple


presenta multicolinealidad imperfecta cuando existen relaciones
lineales fuertes entre algunas de sus variables explicativas.

Ejemplo.- Si tratamos de explicar el número de tarjetas de crédito que


tienen las familias y utilizamos como variables explicativas:

 El número de miembros de la unidad familiar


 La renta
 El número de vehículos
Fácilmente nos encontraremos con un problema de multicolinealidad,
pues es de esperar que en nuestros datos existan altas correlaciones entre
variables como la renta y el número de vehículos, o el número de
vehículos y el número de miembros de la familia.

La multicolinealidad imperfecta o simplemente multicolinealidad es un


problema muy común en los modelos econométricos que incumple la
hipótesis básica de independencia entre las variables explicativas.

Si un modelo presenta multicolinealidad, los estimadores de mínimos


cuadrados ordinarios siguen siendo los mejores estimadores que
pueden obtenerse y cumpliendo muchas de las propiedades deseadas
para un estimador como la insesgadez.

De la multicolinealidad imperfecta se derivan las siguientes


consecuencias:

1. Errores estándar de estimación elevados o varianzas grandes en los


estimadores.
2. Inestabilidad de los estimadores ante pequeñas variaciones muestrales.
Este problema es consecuencia directa del anterior, ya que si las
varianzas de los estimadores son grandes, los estimadores resultan más
inestables.
3. Dificultad para interpretar los coeficientes y por tanto sus
estimaciones. Los coeficientes de regresión ( ) se interpretan como el
cambio que se produce en la variable dependiente (y) ante variaciones de
la variable independiente ( ) de una unidad, siempre que el resto de las
variables explicativas permanezca constante.
Cuando existe multicolinealidad imperfecta es imposible suponer
que el resto de las variables permanecen constantes cuando una
cambia, ya que si están altamente relacionadas cambios en una
implicarán cambios en el resto. Por este motivo los parámetros
pierden significado.

Ejemplo completo de análisis de


multicolinealidad (Parte 1)
El fichero ahorro.wf1 recoge datos para la economía española en el
periodo 1980-2014 de las variables:

Ahorro_familiar: Ahorro neto familiar.


Renta_familiar: Renta neta disponible por familia.
Impuestos: Impuestos directos pagados por las familias.
Tamaño_familiar: Número medio de personas que conviven en el
entorno familiar.

Si generamos el modelo que explica el ahorro neto familiar en función


de la renta neta disponible de las familias, de los impuestos directos y
del tamaño familiar. Obtenemos la siguiente salida de Eviews:
Para estudiar la multicolinealidad tenemos las siguiente herramientas:

1. Observar la matriz de correlaciones entre las variables explicativas y


su determinante.
2. Analizar la significación individual y conjunta de los regresores.

Matriz de correlaciones de las variables explicativas


La matriz de correlaciones entre las variables explicativas nos permite
observar el grado de relación lineal existente entre cada par de
regresores.

Cuando alguno de los coeficientes de correlación es elevado (próximo a


±1) tendremos un indicio de la existencia de multicolinealidad
imperfecta en el modelo.

En Eviews la matriz de correlaciones se obtiene abriendo las variables


explicativas como grupo, y dentro de las vistas del grupo seleccionando:

view -> covariance analysis

Por defecto nos sacará la matriz de varianzas-covarianzas ya que viene


seleccionada esta opción. Debemos deseleccionarla y seleccionar la
opción “correlations”. En este caso, la matriz de correlación es:

A la vista de la matriz de correlaciones podemos observar que todas


las variables explicativas están fuertemente relacionadas entre si,
presentado coeficientes de correlación lineal superiores en todo caso a
0,7 en valor absoluto. Esto es un indicio claro de presencia de
multicolinealidad en el modelo.

Pero incluso si los coeficientes de correlación lineal no fueran tan


elevados, podría ocurrir que existiese una fuerte multicolinealidad, como
consecuencia de la relación entre más de 2 variables. Recordemos que el
coeficiente de correlación lineal solo será capaz de detectar relaciones
entre dos variables.

En este sentido, debemos observar también el determinante de la matriz


de correlaciones para detectarla la presencia de multicolinealidad
derivada de relaciones que involucren a más de dos variables
explicativas. El determinante de la matriz de correlaciones nos dará una
medida de la relación de las variables en su conjunto.

Un determinante muy bajo (cercano a cero) indicará altas


intercorrelaciones entre las variables. Si el determinante llegase a cero
indicaría la existencia de relaciones lineales perfectas entre las variables
explicativas y por tanto multicolinealidad perfecta en el modelo.
Debemos comprobar por tanto, que el determinante la matriz de
correlaciones de los regresores sea cercano a cero, para descartar un
problema de multicolinealidad en el modelo.

Para calcular el determinante de la matriz de correlaciones debemos


seguir los siguiente pasos:

1. Abrir las variables explicativas como grupo y guardar el grupo.


Recordemos que para guardar el grupo bastará con darle un nombre, por
ejemplo “grupo_explicativas”.

2. Guardar como matriz, la matriz de correlaciones del grupo creado. Para


ello debemos escribir en la ventana de comandos:
Sym Matriz_correlaciones=@cor(grupo_explicativas)

3. Calcular el determinante de la matriz generada, escribiendo en la ventana


de comandos:
Scalar determinante=@det(Matriz_correlaciones)
Como resultado nos aparecerán los objetos
“grupo_explicativas”, “matriz_correlaciones” y
“determinante” en el worfile, tal y como podemos
observar en la imagen.
En este caso, el determinante de nuestra matriz de
correlaciones es igual a 0,002761. Este valor es
muy próximo a cero, lo que indica de nuevo la
presencia de multicolinealidad en el modelo.

Ejemplo completo de análisis de


multicolinealidad (Parte 2)
Significatividad individual y conjunta de las variables
explicativas
Ya hemos visto que en presencia de multicolinealidad imperfecta los
errores estándar de estimación de los parámetros se hacen anormalmente
grandes.

En esta situación los contrastes de significatividad individual tienden a


fallar, aceptando como variables no significativas a variables con
capacidad explicativa sobre la variable dependiente.

Esto sucede porque el estadístico de contraste se calcula dividiendo el


valor estimado del parámetro en cuestión entre su varianza y si la
varianza es grande el resultado de esta división se acercará a cero,
convirtiéndose así en un valor razonable para la distribución t-student
que seguiría si la variable no es significativa.

Para detectar esta situación tenemos dos opciones:

1. Observar si las variables que aparecen como no significativas en el


modelo están altamente correlacionadas con la variable dependiente.
2. Observar si las variables que aparecen como no significativas en el
modelo generan por si solas modelos significativos.
En nuestro modelo si tenemos en cuenta el contraste de significatividad
individual diremos que las variables tamaño e impuestos no son
significativas. Incluso en el caso de la variable renta familiar no
podemos rechazar la hipótesis nula de no significatividad individual.
Estamos entonces ante un modelo que explica un 94,69% de la
variabilidad de la variable dependiente pero no incluye ninguna variable
significativa a nivel de significación 0,05.

Además, observando las correlaciones con la variable dependiente


veremos que todas las variables están muy relacionadas con esta:

Estamos claramente ante un caso de multicolinealidad, en el que los


contrastes de significatividad individual están fallando debido a los altos
valores de las varianzas de los estimadores de los parámetros.

Por otro lado, si plantemos modelo que expliquen el ahorro familiar con
cada una de estas variables de forma individual encontraremos modelos
significativos en ambos casos.
Vemos que ambos modelos explican suficientemente la variabilidad de
la variable ahorro, por lo que no podemos considerar a ninguna de estas
variables como no significativa.

You might also like