jueves, 3 de junio de 2021

Regresión múltiple con error estándar robusto en SPSS


En el modelo de regresión se asume el principio de homoscedasticidad (la varianza de los errores en el modelo de regresión es constante), si esto no es así (heteocedasticidad) se producen sesgos en la inferencia que deberíamos tener muy en cuenta. Es decir, la variabilidad de los errores varía incrementándose o disminuyendo en función de los predictores, por ejemplo. Con objeto de resolver este problema una de las soluciones es el uso de algoritmos OLS en regresión.

A continuación vamos a ver un ejemplo generado inicialmente con el modelo de regresión clásico en SPSS, donde un test de dibujo va a ser pronosticado a partir de otros tres tests (información, analogías y aritmética), para lo cual procederemos a complementar los datos en la ventana correspondiente:


...resultando la siguiente información básica que contiene la explicación ajustada del modelo (0,18), el valor F(ANOVA)= 4,288 (p = 0,010), así como los parámetros de regresión donde solo el "test de información" es significativo al 1%:



Si deseamos obtener un modelo robusto, deberemos proceder a usar dentro del SPSS el campo de modelos lineales univariados, donde complementaremos primero los datos básicos del modelo:

...y posteriormente pulsando en el campo opciones procederemos a seleccionar la prueba White para heterocedasticidad:
...resultando una aceptación de la hipótesis nula en este caso:



No siendo necesario en este caso seguir con el análisis, ya que no incumple el presupuesto básico de los errores.


En el segundo ejemplo, con datos de rendimiento académico como variable criterio, y el tiempo de ejecución y los resultados en un test como variables predictoras, obtenemos inicialmente el modelo:


Posteriormente verificamos el test de White, como hicimos anteriormente: 



...y ahora si que deberemos rechazar la hipótesis nula, por tanto procederemos a seleccionar la solución alternativa pulsando en los campos estimaciones de errores robusto y HC3:



...obteniendo a parte de los resultados clásicos, una nueva tabla con los resultados de los errores robustos:



Como podemos ver en la tabla anterior, los IC al 95% son distintos así como los grados de significación de los parámetros.

Referencias.

Hayes, A.F. & Cai, L. (2007)). Using heteroskedasticity-consistent standard error estimators in OLS regression: An introduction and software implementation. Behavior Research Methods, 39 (4), 709-722