martes, 5 de septiembre de 2017

Modificando la valoración de los grados de significación (p)

Como es bien conocido, los grados de significación son objeto de controversia desde hace tiempo, sobre todo a partir de trabajos críticos como el de Vul (2009). Se ha intentado bien corregir la problemática con el uso de algoritmos modificados, por ejemplo en R (Herrero et al., 2011), e incluso eliminarlo (Newcombe, 2013), pero su uso tan extendido en el campo de las publicaciones científicas ha resistido hasta ahora todos los intentos de eliminación o modificación de una forma generalizada (Wasserstein & Lazar, 2016).

Ahora un grupo de investigadores, de distintos campos científicos, han planteado en la revista Nature Human Behavior alterar el criterio de significación estadística para un resultado del valor p clásico (Preprint en PsyArXiv http://osf.io/preprints/psyarxiv/mky9j; Benjamin et al.,2017). La nueva propuesta sugiere modificar el 0,05 por el 0,005. Entre las ventajas que podrá contener el cambio de criterio se encuentra mejorar la reproducción de los trabajos de investigación, disminuyendo los falsos positivos que se dan en este momento por usar el criterio del p<0,05. De esta forma, la línea propuesta hará que solo aquellos resultados con valores de p inferiores a 0,005 pasarán a ser considerados estadísticamente significativos. 

domingo, 13 de agosto de 2017

Tamaño del efecto: F de Cohen

IBM SPSS no resuelve directamente la f o la d de Cohen, no obstante es posible deducir los estadísticos a partir de Eta^2.
Para ello deberemos tener en cuenta:
eta^2 = f^2 / ( 1 + f^2 )
f^2 = eta^2 / ( 1 - eta^2 )
...donde
f^2 es el cuadrado del tamaño del efecto, y eta^2 es eta^2 parcial obtenido por el SPSS.
(Cohen, 1988; pg. 281)

martes, 16 de mayo de 2017

Minería de Datos en Psicología: Introducción al algoritmo C5

El procedimiento de análisis secuencial C5, destinado a crear árboles de decisión (conjunto de reglas), fué desarrollado por Quinlan (Chambers, & Dinsmore, 2014). Facilitando la interpretación de las decisiones, así como la comprensión de las reglas usadas, a la vez que reduce el número de variables independientes en los modelos explicativos (Pérez, 2011).

Este algoritmo es el resultado de la actualización de algoritmos ID3 y C4.5 (Quinlan & Kaufmann, 1993). Se caracteriza por dividir en subconjuntos, cada vez más pequeños, los datos de partida. Consiguiendo con esta estrategia elaborar reglas de extracción adecuadas a la hora de predecir de forma óptima un objetivo (Quinlan, 2014). Para ello se sirve de índices como "Gain Ratio" (razón entre la ganancia de información y la ganancia intrínseca) que es una modificación destinada a reducir el sesgo de la ganancia de información.