sábado, 11 de abril de 2020

Índice de importancia relativa en ítems dentro de una escala Likert

En las escalas Likert usamos variables en escala ordinal, donde el uso de la media aritmética clásica  puede conducir a resultados distorsionados. 

Frente a esta solución clásica existen distintas alternativas que van desde la Mediana hasta el índice de importancia relativa (IIR). Este último es el que vamos a ver brevemente en este documento.

No obstante antes de proseguir conviene recordar que esta solución no deja de ser una puntuación promedio para un ítem, ajustado para tener un valor entre 1/w y 1, donde w es el número de categorías de respuesta. Dicho lo cual,  también puede calcular la puntuación media para cada elemento y una vez ordenadas de "más" a "menos" se obtendría una solución semejante a IIR (Gunduz et al., 2013; Hatkar & Hedaoo, 2016; Somiah et al., 2015).

domingo, 3 de noviembre de 2019

Concordancia entre observadores: Kappa de Fleiss en SPSS 26

El estadístico kappa de Fleiss (Fleiss et al., 2003) indica el grado de acuerdo entre tres o más observadores/evaluadores,  sobre una variable en escala categórica, siendo una generalización de la prueba π de Scott (1955) y una de las alternativas más conveniente entre todas las pruebas del mismo tipo (Gwet, 2014). Por otra parte, indicar que es tan importante calcular el acuerdo global, como los acuerdos individuales en cada nivel de la variable estudiada. 

El estadístico puede variar de -1 a +1, donde el valor negativo (κ) indica que el acuerdo entre los  evaluadores fue menor que el acuerdo esperado por casualidad. Con -1 estamos indicando que no hubo acuerdo en nada de lo observado, mientras 0 indica que el acuerdo no es mejor que el azar, y los valores mayores que 0 representan un acuerdo cada vez mayor para los evaluadores, hasta un valor máximo de +1 , lo que indica un acuerdo perfecto.

Es importante señalar ahora, que el acuerdo no significa que su decisión sea correcta (por ejemplo, los psicólogos podrían estar diagnosticando erróneamente a los pacientes en problemas de aprendizaje,  quizás haciendo demasiada incidencia en pequeñas alteraciones en las tareas a que son sometidos los pacientes). 

domingo, 4 de agosto de 2019

Coeficiente Alfa ordinal en R

Frecuentemente vemos que cuando se intenta obtener la fiabilidad de una escala se utiliza el estadístico conocido como alfa de Cronbach. No obstante, este uso tan generalizado puede tener objeciones (Osburn, 2000; Gadermann, Guhn, & Zumbo, 2012; Contreras y Novoa-Muñoz, 2018), cuando la escala de medida usada es ordinal (Elosua y Zumbo,2008), como puede ser en el uso de items likert, ya que uno de los supuestos del estadístico es la naturaleza continua de los datos. 

Cuando esto ocurre podemos usar como estadísticos alternativos tanto Omega ordinal (Dunn, Baguley & Brunsden, 2014; Viladrich, Angulo-Brunet and Doval, 2017) como el alfa ordinal de Cronbach (Contreras y Novoa-Muñoz, 2018), pudiendo dar tanto a una infraestimación como sobreestimación de los resultados respecto al estadístico clásico.

martes, 28 de agosto de 2018

Transformación entre percentiles y puntuaciones z en SPSS

Los estadísticos clásicos de posición en el campo de las Ciencias del Comportamiento, como es el percentil (Galton, 1885),  aún siguen siendo una herramienta que frecuente vemos en la literatura actual. Siendo útil tener siempre herramientas informáticas que nos apoyen en la labor de trabajo e investigación.

De todas ellas veremos en este breve ejemplo, la forma de obtener la puntuación Z o percentil a partir del otro valor. Es decir, cómo teniendo una Z podemos obtener la equivalente del percentil, o bien, dado un percentil averiguar el valor Z correspondiente. Y para ello usaremos el paquete estadístico SPSS.

lunes, 25 de junio de 2018

Visualización de datos en escalas likert (SPSS: jitter plot)

Cuando deseamos representar la relación en una nube de puntos, y las variables están en escala ordinal, con valores enteros, como son los ítems de una escala likert, vemos que es muy difícil ver realmente como se asocian los puntos en el espacio. Una forma de resolver este problema lo vamos a ver a continuación, y se conoce como efecto “jitter”, consistente en restar o sumar una pequeña cantidad arbitraria a la posición del punto en el espacio. De tal forma que si redondeamos los nuevos datos, estos deberán volver a los valores originales.

Esta pequeña alteración, que funciona como un modificador visual de la colisión de datos,  en el SPSS 25 se resuelve por sintaxis.

martes, 5 de septiembre de 2017

Modificando la valoración de los grados de significación (p)

Como es bien conocido, los grados de significación son objeto de controversia desde hace tiempo, sobre todo a partir de trabajos críticos como el de Vul (2009). Se ha intentado bien corregir la problemática con el uso de algoritmos modificados, por ejemplo en R (Herrero et al., 2011), e incluso eliminarlo (Newcombe, 2013), pero su uso tan extendido en el campo de las publicaciones científicas ha resistido hasta ahora todos los intentos de eliminación o modificación de una forma generalizada (Wasserstein & Lazar, 2016).

Ahora un grupo de investigadores, de distintos campos científicos, han planteado en la revista Nature Human Behavior alterar el criterio de significación estadística para un resultado del valor p clásico (Preprint en PsyArXiv http://osf.io/preprints/psyarxiv/mky9j; Benjamin et al.,2017). La nueva propuesta sugiere modificar el 0,05 por el 0,005. Entre las ventajas que podrá contener el cambio de criterio se encuentra mejorar la reproducción de los trabajos de investigación, disminuyendo los falsos positivos que se dan en este momento por usar el criterio del p<0,05. De esta forma, la línea propuesta hará que solo aquellos resultados con valores de p inferiores a 0,005 pasarán a ser considerados estadísticamente significativos. 

domingo, 13 de agosto de 2017

Tamaño del efecto: F de Cohen

IBM SPSS no resuelve directamente la f o la d de Cohen, no obstante es posible deducir los estadísticos a partir de Eta^2.
Para ello deberemos tener en cuenta:
eta^2 = f^2 / ( 1 + f^2 )
f^2 = eta^2 / ( 1 - eta^2 )
...donde
f^2 es el cuadrado del tamaño del efecto, y eta^2 es eta^2 parcial obtenido por el SPSS.
(Cohen, 1988; pg. 281)

martes, 16 de mayo de 2017

Minería de Datos en Psicología: Introducción al algoritmo C5

El procedimiento de análisis secuencial C5, destinado a crear árboles de decisión (conjunto de reglas), fué desarrollado por Quinlan (Chambers, & Dinsmore, 2014). Facilitando la interpretación de las decisiones, así como la comprensión de las reglas usadas, a la vez que reduce el número de variables independientes en los modelos explicativos (Pérez, 2011).

Este algoritmo es el resultado de la actualización de algoritmos ID3 y C4.5 (Quinlan & Kaufmann, 1993). Se caracteriza por dividir en subconjuntos, cada vez más pequeños, los datos de partida. Consiguiendo con esta estrategia elaborar reglas de extracción adecuadas a la hora de predecir de forma óptima un objetivo (Quinlan, 2014). Para ello se sirve de índices como "Gain Ratio" (razón entre la ganancia de información y la ganancia intrínseca) que es una modificación destinada a reducir el sesgo de la ganancia de información.

domingo, 13 de noviembre de 2016

Procedimiento de correlaciones heterogéneas en SPSS 24

En ciertas situaciones la naturaleza de las variables no permite el uso de la correlación de Pearson, o sus algoritmos asociados. Para este tipo de situaciones el SPSS 24 (IBM Corp., 2016) contempla módulos integrados en R como el que vamos a describir en esta entrada brevemente.

Este procedimiento extendido de las correlaciones heterogéneas requiere, además del modulo IBM SPSS Statistics, los complementos de integración para R como para Python.

miércoles, 6 de julio de 2016

Procedimiento DETECTANOMALY en SPSS 24

El proceso de análisis de datos que describimos "Detectanomaly", se puede encontrar en distintas versiones del SPSS, en nuestro caso corresponde con la versión 24. Este procedimiento permite identificar los valores "anómalos", buscando para ellos los casos atípicos basados sobre las desviaciones de casos similares y de las razones para tales desviaciones. 

Este recurso, se puede verificar tanto sobre variables originales o mediante la creación de nuevas variables (transformación de las existentes en la base de datos). Y una vez que hayan identificado los casos inusuales, se puede examinar más a fondo estos casos y determinar si se deben incluir en nuestros análisis. Para este caso hemos usado la base de datos correspondiente a las elecciones al parlamento español, celebradas en junio de 2016, con objeto de averiguar si existen patrones anómalos interesantes en el comportamiento del voto (Parsons, 1998; Tung, 2016).