jueves, 3 de junio de 2021

Regresión múltiple con error estándar robusto en SPSS


En el modelo de regresión se asume el principio de homoscedasticidad (la varianza de los errores en el modelo de regresión es constante), si esto no es así (heteocedasticidad) se producen sesgos en la inferencia que deberíamos tener muy en cuenta. Es decir, la variabilidad de los errores varía incrementándose o disminuyendo en función de los predictores, por ejemplo. Con objeto de resolver este problema una de las soluciones es el uso de algoritmos OLS en regresión.

domingo, 21 de febrero de 2021

Introducción al uso de JASP para estimar redes de correlación

Mostraremos brevemente cómo estimar redes de correlación (Epskamp et al., 2012) en JASP, facilitando la interpretación de las variables correlacionadas que frecuentemente se usan en Ciencias del Comportamiento, visualizando las estructuras psicométricas de las escalas de medida. Este tipo de algoritmos modela las interacciones de un número grande de variables, donde se estima la estructura de forma directa, donde usaremos lo conceptos de nodos para señalar a las variables observadas mientras los bordes son las relaciones entre esos nodos. Por defecto, se suele visualizar los bordes azules indicando asociaciones positivas, mientras que los bordes rojos referencias relaciones   negativas. Los bordes más gruesos (oscuros) indican asociaciones más fuertes que los bordes más delgados (claros).

Los datos que vamos a utilizar en nuestro ejemplo corresponde a una muestra de 295 funcionarios de prisiones procedentes de diferentes establecimientos penitenciarios de España. A los cuales se les ha pasado un escala que contiene 10 variables relevantes (Clima1-Clima10).

Para ejecutar el procedimiento en JASP, lo primero deberemos seleccionar la pestaña correspondiente:

sábado, 11 de abril de 2020

Índice de importancia relativa en ítems dentro de una escala Likert

En las escalas Likert usamos variables en escala ordinal, donde el uso de la media aritmética clásica  puede conducir a resultados distorsionados. 

Frente a esta solución clásica existen distintas alternativas que van desde la Mediana hasta el índice de importancia relativa (IIR). Este último es el que vamos a ver brevemente en este documento.

No obstante antes de proseguir conviene recordar que esta solución no deja de ser una puntuación promedio para un ítem, ajustado para tener un valor entre 1/w y 1, donde w es el número de categorías de respuesta. Dicho lo cual,  también puede calcular la puntuación media para cada elemento y una vez ordenadas de "más" a "menos" se obtendría una solución semejante a IIR (Gunduz et al., 2013; Hatkar & Hedaoo, 2016; Somiah et al., 2015).

domingo, 3 de noviembre de 2019

Concordancia entre observadores: Kappa de Fleiss en SPSS 26

El estadístico kappa de Fleiss (Fleiss et al., 2003) indica el grado de acuerdo entre tres o más observadores/evaluadores,  sobre una variable en escala categórica, siendo una generalización de la prueba π de Scott (1955) y una de las alternativas más conveniente entre todas las pruebas del mismo tipo (Gwet, 2014). Por otra parte, indicar que es tan importante calcular el acuerdo global, como los acuerdos individuales en cada nivel de la variable estudiada. 

El estadístico puede variar de -1 a +1, donde el valor negativo (κ) indica que el acuerdo entre los  evaluadores fue menor que el acuerdo esperado por casualidad. Con -1 estamos indicando que no hubo acuerdo en nada de lo observado, mientras 0 indica que el acuerdo no es mejor que el azar, y los valores mayores que 0 representan un acuerdo cada vez mayor para los evaluadores, hasta un valor máximo de +1 , lo que indica un acuerdo perfecto.

Es importante señalar ahora, que el acuerdo no significa que su decisión sea correcta (por ejemplo, los psicólogos podrían estar diagnosticando erróneamente a los pacientes en problemas de aprendizaje,  quizás haciendo demasiada incidencia en pequeñas alteraciones en las tareas a que son sometidos los pacientes). 

domingo, 4 de agosto de 2019

Coeficiente Alfa ordinal en R

Frecuentemente vemos que cuando se intenta obtener la fiabilidad de una escala se utiliza el estadístico conocido como alfa de Cronbach. No obstante, este uso tan generalizado puede tener objeciones (Osburn, 2000; Gadermann, Guhn, & Zumbo, 2012; Contreras y Novoa-Muñoz, 2018), cuando la escala de medida usada es ordinal (Elosua y Zumbo,2008), como puede ser en el uso de items likert, ya que uno de los supuestos del estadístico es la naturaleza continua de los datos. 

Cuando esto ocurre podemos usar como estadísticos alternativos tanto Omega ordinal (Dunn, Baguley & Brunsden, 2014; Viladrich, Angulo-Brunet and Doval, 2017) como el alfa ordinal de Cronbach (Contreras y Novoa-Muñoz, 2018), pudiendo dar tanto a una infraestimación como sobreestimación de los resultados respecto al estadístico clásico.

martes, 28 de agosto de 2018

Transformación entre percentiles y puntuaciones z en SPSS

Los estadísticos clásicos de posición en el campo de las Ciencias del Comportamiento, como es el percentil (Galton, 1885),  aún siguen siendo una herramienta que frecuente vemos en la literatura actual. Siendo útil tener siempre herramientas informáticas que nos apoyen en la labor de trabajo e investigación.

De todas ellas veremos en este breve ejemplo, la forma de obtener la puntuación Z o percentil a partir del otro valor. Es decir, cómo teniendo una Z podemos obtener la equivalente del percentil, o bien, dado un percentil averiguar el valor Z correspondiente. Y para ello usaremos el paquete estadístico SPSS.

lunes, 25 de junio de 2018

Visualización de datos en escalas likert (SPSS: jitter plot)

Cuando deseamos representar la relación en una nube de puntos, y las variables están en escala ordinal, con valores enteros, como son los ítems de una escala likert, vemos que es muy difícil ver realmente como se asocian los puntos en el espacio. Una forma de resolver este problema lo vamos a ver a continuación, y se conoce como efecto “jitter”, consistente en restar o sumar una pequeña cantidad arbitraria a la posición del punto en el espacio. De tal forma que si redondeamos los nuevos datos, estos deberán volver a los valores originales.

Esta pequeña alteración, que funciona como un modificador visual de la colisión de datos,  en el SPSS 25 se resuelve por sintaxis.

martes, 5 de septiembre de 2017

Modificando la valoración de los grados de significación (p)

Como es bien conocido, los grados de significación son objeto de controversia desde hace tiempo, sobre todo a partir de trabajos críticos como el de Vul (2009). Se ha intentado bien corregir la problemática con el uso de algoritmos modificados, por ejemplo en R (Herrero et al., 2011), e incluso eliminarlo (Newcombe, 2013), pero su uso tan extendido en el campo de las publicaciones científicas ha resistido hasta ahora todos los intentos de eliminación o modificación de una forma generalizada (Wasserstein & Lazar, 2016).

Ahora un grupo de investigadores, de distintos campos científicos, han planteado en la revista Nature Human Behavior alterar el criterio de significación estadística para un resultado del valor p clásico (Preprint en PsyArXiv http://osf.io/preprints/psyarxiv/mky9j; Benjamin et al.,2017). La nueva propuesta sugiere modificar el 0,05 por el 0,005. Entre las ventajas que podrá contener el cambio de criterio se encuentra mejorar la reproducción de los trabajos de investigación, disminuyendo los falsos positivos que se dan en este momento por usar el criterio del p<0,05. De esta forma, la línea propuesta hará que solo aquellos resultados con valores de p inferiores a 0,005 pasarán a ser considerados estadísticamente significativos. 

domingo, 13 de agosto de 2017

Tamaño del efecto: F de Cohen

IBM SPSS no resuelve directamente la f o la d de Cohen, no obstante es posible deducir los estadísticos a partir de Eta^2.
Para ello deberemos tener en cuenta:
eta^2 = f^2 / ( 1 + f^2 )
f^2 = eta^2 / ( 1 - eta^2 )
...donde
f^2 es el cuadrado del tamaño del efecto, y eta^2 es eta^2 parcial obtenido por el SPSS.
(Cohen, 1988; pg. 281)

martes, 16 de mayo de 2017

Minería de Datos en Psicología: Introducción al algoritmo C5

El procedimiento de análisis secuencial C5, destinado a crear árboles de decisión (conjunto de reglas), fué desarrollado por Quinlan (Chambers, & Dinsmore, 2014). Facilitando la interpretación de las decisiones, así como la comprensión de las reglas usadas, a la vez que reduce el número de variables independientes en los modelos explicativos (Pérez, 2011).

Este algoritmo es el resultado de la actualización de algoritmos ID3 y C4.5 (Quinlan & Kaufmann, 1993). Se caracteriza por dividir en subconjuntos, cada vez más pequeños, los datos de partida. Consiguiendo con esta estrategia elaborar reglas de extracción adecuadas a la hora de predecir de forma óptima un objetivo (Quinlan, 2014). Para ello se sirve de índices como "Gain Ratio" (razón entre la ganancia de información y la ganancia intrínseca) que es una modificación destinada a reducir el sesgo de la ganancia de información.