Autocorrelación en las perturbaciones en el modelo de Regresión Lineal

Autocorrelación en las perturbaciones en el modelo de Regresión Lineal
Información sobre la plantilla
Regresión lineal.jpg
Concepto:Es la correlación que puede existir entre una serie de datos y subserie o submuestra ordenada de la misma.

Autocorrelación Es la correlación que puede existir entre una serie de datos y subserie o submuestra ordenada de la misma. Así, en el caso de datos de corte temporal, autocorrelación es la correlación de valores de la serie con valores pasados de la misma; y en el caso de datos transversales, la autocorrelación es la correlación entre valores contiguos espacialmente.

Entre las perturbaciones

Por autocorrelación entre las perturbaciones se entiende que las mismas guarden relación unas con otras a lo largo del rango observacional del modelo. La existencia de esta constituye un incumplimiento de los supuestos de la regresión, y acarrea severas consecuencias sobre los resultados del modelo, razón por la cual se han dedicado muchos métodos al análisis de la no autocorrelación.

No autocorrelación en las perturbaciones

Un término manejado usualmente como sinónimo de autocorrelación es el de correlación serial. Puede ser positiva o negativa, según si a mayores valores de la serie original corresponden –respectivamente– mayores o menores valores de su subserie. Según el modelo de regresión lineal, las perturbaciones aleatorias no deben estar correlacionadas.

El supuesto de no autocorrelación entre las perturbaciones puede verse como la exigencia de que los términos de perturbación, u, no dependan de valores previos de ellos mismos, pues entonces dejarían de ser aleatorios para tener un cierto carácter determinista que debería incluirse explícitamente en el modelo.

Es muy común que se presente en modelos de regresión con datos de corte temporal, porque los valores actuales de las variables suelen depender de valores pasados de éstas. En este contexto, se le llama valor retrasado, retardado o rezagado de una variable al valor de la misma en una observación anterior a la actual. Y se indica el orden del retraso para especificar cuántas observaciones hacia atrás se están teniendo en cuenta; si no se menciona el orden del retardo se sobreentiende que es 1, e implica una referencia al valor de la observación anterior a la actual.

Factores que más frecuentemente conllevan la presencia de autocorrelación

Algunas de los factores que más frecuentemente conllevan la presencia de autocorrelación en un modelo son:

  • La exclusión del modelo de variables que son necesarias
  • La inadecuada especificación de la forma funcional del modelo
  • La inclusión de retardos de las variables explicatorias en el modelo (modelos de retardos distribuidos)
  • La inclusión de la variable dependiente en forma retardada como una variable explicatoria (modelos autorregresivos)
  • La existencia de ciclos y tendencia en las series
  • Los errores de medición.
  • La manipulación previa de los datos (hallando medias móviles, por ejemplo)
  • La proximidad espacial, en algunas series de datos de corte transversal.

Corte transversal

Es importante destacar que la presencia de autocorrelación en datos de corte transversal es un fenómeno raro en el análisis econométrico, pues se supone que el punto de partida de un modelo es una muestra aleatoria, o sea, sin orden preestablecido en las series. Es decir, el empleo de un muestreo aleatorio es elemento suficiente para no preocuparse por el supuesto de no autocorrelación en datos de corte transversal. Esto no sucede, obviamente, en los datos de corte temporal, donde no tiene cabida el muestreo aleatorio, pues los datos son los que hay, y el tiempo establece un orden en ellos.

Al aplicar el método de los mínimos cuadrados a un modelo de regresión en presencia de autocorrelación los estimadores de los parámetros del mismo manifiestan las siguientes propiedades:

  • Siguen siendo insesgados.
  • Siguen siendo consistentes, o sea, a medida que crece el tamaño de la muestra se acercan a los verdaderos valores.
  • Ya no son eficientes, pues su varianza se hace grande.

La autocorrelación, de la misma forma que la heterocedasticidad, no invalida las propiedades de insesgadez y de consistencia de los estimadores MCO, pero los hace ineficientes, por lo que dejan de ser MELI (o ELIO); y esto además, le resta credibilidad a los procedimientos de pruebas de hipótesis. Ello hace también de la autocorrelación un problema grave en la regresión.

Derivado de lo anterior, pueden enumerarse como consecuencias inmediatas de aplicar MCO en presencia de autocorrelación prácticamente las mismas de la heterocedasticidad:

  • Los intervalos de confianza son más anchos de lo necesario.
  • La varianza residual de la muestra (sR2) subestima el verdadero valor de la varianza poblacional .
  • Las pruebas “t” y “F” dejan de ser válidas, pudiendo llevar a conclusiones erróneas.
  • El R2 sobreestima la bondad del ajuste.

En la práctica, cuando no hay información a priori o empírica acerca de si existe autocorrelación o no, es útil hacer el análisis de regresión MCO y luego examinar de forma gráfica el comportamiento de los residuos; esto puede hacerse de dos maneras: poniendo los residuos en función del transcurso de las observaciones, o poniéndolos en función de sus propios retrasos.

Y además del análisis gráfico, se puede recurrir a diferentes pruebas estadísticas para analizar la existencia de autocorrelación en una serie; entre ellas:

  • Prueba de Durbin-Watson
  • Prueba de Breusch-Godfrey
  • Prueba Ljung-Box o del estadístico
  • Prueba de independencia de los residuos
  • Prueba de aleatoriedad, de corridas o de Geary

Fuentes