Diseño entre-grupos univariado unifactorial con A>2. Contraste de hipótesis específicas Dolores Frías-Navarro Universidad de Valencia http://www.uv.es/friasnav/ Hasta ahora hemos ido desarrollando las pruebas paramétricas para contrastar hipótesis de dos grupos independientes (diseño entre-grupos univariado unifactorial, A=2) mediante el Análisis de la Varianza (ANOVA). Ahora nos vamos a detener en el contraste de hipótesis específicas. Se van a presentar diferentes pruebas estadísticas y se van a utilizar dos módulos del SPSS donde se pueden realizar las pruebas de hipótesis específicas en la ventana de ‘Analizar’: 1) módulo de ‘Comparar medias’ 2) el módulo de ‘Modelo Lineal General’. ANALIZAR Comparar medias El SPSS tiene un grupo de análisis dentro del menú Analizar Comparar Medias donde se pueden ejecutar las técnicas de contraste de hipótesis de prueba t para una muestra, prueba t para muestras independientes, prueba t para muestras relacionadas y ANOVA de un factor. Nos vamos a detener en el último apartado: ANOVA de un factor. Dentro de este apartado se puede ejecutar un diseño de A=2 y de A>2. Es decir, se pueden ejecutar los diseños unifactoriales con un factor de 2 condiciones o con un factor que tenga más de dos condiciones (por ejemplo A=3). Cuando el diseño tiene un factor o variable independiente con más de dos condiciones será necesario recurrir a la opción de ‘posthoc’ (a posteriori) para poder descubrir entre qué pares de medias se encuentran las diferencias. Y para ello es necesario que el profesional (investigador) decida qué prueba debe ejecutar a posteriori, teniendo en cuenta si se asume que las varianzas de los grupos son homogéneas (homocedasticidad de varianzas) o no (heterocedasticidad de varianzas). Por lo tanto, cuando la variable independiente tiene más de 2 condiciones, hay que analizar entre qué 1 medias se producen las diferencias estadísticamente significativas y en qué sentido. Supongamos que tenemos una investigación con los siguientes datos: a1= 12, 8, 10 a2= 5, 7, 6 a3= 14, 13, 15 El investigador desea comprobar si existen diferencias estadísticamente significativas entre esos tres grupos y también entré qué par de medias se encuentran las diferencias que son estadísticamente significativas. Si ejecutamos el ‘ANOVA de un factor’ y en ‘Opciones’ seleccionamos descriptivos y prueba de homogeneidad de las varianzas, el resultado señala la siguiente relación entre las medias de los grupos mediante la razón F del Análisis de la Varianza: Figura: Introducción de datos para un diseño entre-grupos y selección de la variable dependiente e independiente del diseño Relación entre las condiciones: ¿existe alguna diferencia estadísticamente significativa entre las medias de las tres condiciones? 2 Los resultados señalan que las varianzas de las tres condiciones son homogéneas (Levene(2, 6)=0.667, p=0.548). Por lo tanto se cumple el supuesto de homogeneidad de las varianzas. Los resultados del ANOVA de un diseño unifactorial A=3 entre-sujetos señalan que existen diferencias estadísticamente significativas entre los tres grupos (F(2, 6)=24, p=0.001). Pero, la pregunta ahora es ¿dónde se encuentran las diferencias que son estadísticamente significativas? ¿Es entre las medias de a1-a2? ¿Es entre las medias de a1-a3? O quizás ¿es entre las medias de a3-a2? Las diferencias siempre se valoran en términos de valores absolutos. El resultado del ANOVA no permite dar respuesta a esas comparaciones específicas entre los tres grupos. Cuando únicamente trabajábamos con dos medias (A=2) estaba claro que si el resultado del ANOVA señalaba que habían diferencias estadísticamente entre los grupos se trataba de la única diferencia posible: a1-a2. Pero ahora tenemos tres posibles diferencias de medias. ¿Cuál de ellas es estadísticamente significativa? ¿Son todas? ¿Es una? ¿Son dos? En las pruebas post-hoc de comparación de medias (también conocidas como pruebas a posteriori) encontramos la solución a esos interrogantes. Ecuación estructural Antes de continuar recordemos como se desarrolla la ecuación estructural para el modelo planteado en el estudio con A=3: Y=M+A+E Las puntuaciones en la variable dependiente son igual a: La constante (media general) + el efecto del tratamiento (Efecto A= Ma-M) + Error (Error=Y-M-Efectos, es decir, Y-M-A en este tipo de diseño). Los efectos estimados para el diseño planteado son a1=0 y a2= -4. 3 Y los errores son en a1= 2 y -2, en a2= -1 y 1 y en a3=0 y -1. Ejercicios: completa la tabla de efectos y los errores y desarrolla el modelo propuesto mediante la descomposición de la ecuación estructural. Comprueba que la suma de los efectos es cero así como la del error. Eleva al cuadrado y suma (Suma de Cuadrados, SC). Divide cada suma de cuadrados por sus grados de libertad (gl) (Medias Cuadráticas, MC) y ejecuta la prueba F del Análisis de la Varianza (F = MCefecto/MCerror). Después utiliza las tablas de la razón F y busca el valor teórico que corresponde a F(0.05, 2, 6). Compara los dos valores de F y si el valor de la F empírica del estudio es mayor o igual que el valor de la F teórica de las tablas entonces se puede rechazar la hipótesis nula (es decir, se rechaza la hipótesis nula cuando F(2, 6) ≥ F(0.05, 2, 6). Cuando utilizamos las tablas sólo podemos saber si el valor p de probabilidad del resultado de la prueba estadística es superior o menor al valor de alfa. Por eso, cuando se utilizan las tablas no podemos dar el valor exacto de probabilidad del resultado pero en nuestro ejemplo sí sabemos que p < 0.05 pues la F empírica es mayor que la F teórica. Por lo tanto, se puede completar el proceso de decisión estadística tal y como se efectúa en el contraste de hipótesis. Cuando se trabaja con un programa estadístico (como por ejemplo SPSS; SAS...) ya no hace falta recurrir a las tablas de la distribución del estadístico. El mismo programa añade el valor exacto de probabilidad (valor p, a veces se señala como significación) junto al resultado de la prueba estadística. El investigador tiene que completar el proceso de contraste estadístico comparando el valor de p de probabilidad del resultado obtenido (o más extremo) con la prueba estadística con el valor del alfa fijado a priori en su investigación. Si el valor de p ≤ alfa entonces se puede rechazar la hipótesis nula. Siempre que se trabaja con un programa estadístico hay que anotar los valores p de probabilidad exactos incluso cuando las decisiones suponen mantener la hipótesis nula (p > alfa). No es nada recomendable situar ‘ns’ para indicar un resultado no estadísticamente significativo. Recordemos que el valor p de probabilidad depende del valor del efecto y del tamaño de la muestra. Así, manteniendo constante el efecto, si se aumenta la muestra disminuye el valor de probabilidad. Del mismo modo, si se disminuye el tamaño de la muestra entonces aumenta el valor p de probabilidad. Por lo tanto, cuando el Análisis de la Varianza (ANOVA) ofrece un resultado estadísticamente significativo está indicando que al menos un grupo difiere de los otros grupos. EL ANOVA es un ‘test omnibus’, es decir, no informa del patrón de diferencias entre las medias, sólo facilita que hay (o no hay) alguna diferencia estadísticamente significativa entre las medias de los grupos pero sin señalar dónde está la diferencia o las diferencias. Es decir, el ANOVA solamente detecta la presencia o ausencia de un efecto global de la variable independiente sobre la variable dependiente. Pero el investigador desea conocer dónde se encuentran las diferencias estadísticamente significativas que detectó de forma global el ANOVA. Para analizar el patrón de diferencias entre las medias es necesario ejecutar pruebas de hipótesis específicas y las más utilizadas implican comparar pares de medias, de ahí el nombre de comparaciones por parejas (‘pairwise comparisons’). En el SPSS se conocen como ‘pruebas ‘post hoc’. Las pruebas post hoco o pruebas a posteriori señalan que se efectúan después de ejecutar el Análisis de la Varianza y solamente tienen sentido cuando se detecta un efecto global estadísticamente significativo. 4 Siguiendo con el ejercicio, una vez que se ha comprobado que existe un efecto global en el Análisis de la Varianza tal y como se ha detallado en la salida del SPSS (F(2, 6) = 24, p=0.001), vamos a abordar entre qué pares de medias se encuentran las diferencias estadísticamente significativas. Para ello, elaboramos la tabla de diferencias de medias entre los grupos o condiciones. Tabla de diferencias de medias para un diseño A=3 a1 a2 media=10 media=6 4 -- 4 8 Medias a2 media=6 a3 media=14 Con un diseño A=3 existen 3 diferencias de medias entre los grupos. Para conocer cuántas diferencias de medias simples existente en un diseño podemos aplicar la siguiente fórmula: Donde C es el número de diferencias de medias simples entre los grupos no redundantes y a es el número de condiciones. Entonces, ¿cuál de las tres diferencias de medias es estadísticamente significativa? Pasamos a ejecutar pruebas de contraste de hipótesis específicas para comparar las diferencias de medias entre las condiciones experimentales. Una solución que se podría pensar es ejecutar pruebas t de Student dos a dos o ANOVAs para cada par de medias ejecutando en este caso 3 ANOVAs. Pero esta alternativa no se considera válida ya que está sujeta a una grave deficiencia metodológica como es aumentar la probabilidad del error de tipo I. Es decir, la tasa de error de tipo I por experimento deja de ser la planteada como alfa cuando se planificó el estudio. Para poder realizar esos contrastes estadísticos correctamente es necesario controlar el alfa por comparación. Veamos en primer lugar qué es la Tasa de Error de Tipo I y en segundo lugar cómo controlar dicha tasa de error mediante los procedimientos de pruebas de hipótesis específicas. Tasa de error de tipo I La Tasa de Error de Tipo I o alfa por experimento (PE) es: PE= 1 - (1 - PC )C 5 Donde alfa por comparación, PC, es la probabilidad de cometer un error de tipo I en ‘una comparación’ y el alfa por experimento, PE, es la probabilidad de cometer al menos un error de Tipo I en un ‘conjunto de comparaciones’ (C). Supongamos que tenemos un estudio donde se van a realizar 4 comparaciones o pruebas de contraste de hipótesis. Si todas las hipótesis nulas fueran ciertas y aPC = 0.05 entonces la probabilidad de cometer al menos un Error de Tipo I es: PE= 1 - (1 – 0.05 )4= 0.1855 Ese valor de 0.1855 se aparta mucho del valor de alfa fijado a priori por el investigador en 0.05. Es decir, se tendría una probabilidad de error de Tipo I de 0.1855, que como sabemos es totalmente inadmisible. La probabilidad de rechazar una hipótesis nula siendo cierta es de 0.1855 (18.5%). ¿Qué ha pasado? La prueba de contraste de hipótesis se ha hecho más liberal (es decir, se rechaza la hipótesis nula con mayor facilidad), aumentando de este modo el error de Tipo I. ¿Cómo se puede corregir ese sesgo que amenaza la validez de conclusión estadística de los resultados del estudio? La opción es ejecutar un procedimiento que haga a la prueba estadística más conservadora para equilibrar ese aumento del error de Tipo I. Todos los procedimientos de contraste de hipótesis específicas se basan en hacer el contraste más conservador. Es decir, se reduce el aPC (alfa por comparación) para poder controlar el aPE (alfa por experimento) que no debe superar el 0.05. En definitiva, la prueba se hace más conservadora. En este punto el investigador debe tomar una decisión de nuevo: tiene que elegir la prueba de contraste de hipótesis específicas que controle correctamente la tasa de error de Tipo I y además que la potencia estadística sea máxima (menor error de Tipo II). Es decir, en un mismo diseño se podría optar por varias pruebas de contraste de hipótesis específicas y el investigador debe seleccionar la más adecuada para que la validez de conclusión estadística sea adecuada. La más adecuada es aquella que controla la tasa de error de tipo I y fija el alfa por experimento en 0.05 y al mismo tiempo es la prueba que facilita la mayor potencia estadística para de este modo reducir el error de tipo I. Para tomar la decisión el investigador debe considerar los siguientes aspectos: 1. El número de comparaciones (C ) que la hipótesis plantea: pueden ser comparaciones exhaustivas (a posteriori) o pueden ser comparaciones planificadas (a priori). 2. Si las hipótesis experimentales son simples (plantea diferencias entre pares de medias) o complejas (plantea alguna diferencia entre medias que implica un promedio de medias). Comparaciones exhaustivas o a posteriori (post hoc). El contraste de hipótesis específicas es exhaustivo cuando se realizan todas las comparaciones posibles entre los padres de medias que tiene el diseño de investigación. Por ejemplo, si A=3 entonces el número de todos los pares posibles de diferencias de medias es igual a 3. Si se analizan las tres diferencias simples de medias entonces se considera que se han realizado comparaciones exhaustivas. Son comparaciones que se deciden ejecutar después de que el experimento ha sido ejecutado y analizado (generalmente con el test ‘omnibus’ de ANOVA). Y se ejecutan todas las comparaciones posibles a posteriori. 6 Comparaciones planificadas o a priori. Cuando el número de comparaciones que hay que contrastar es más reducido (no se realizan de forma exhaustiva todas las comparaciones simples), el contraste se denomina contraste planificado o contraste a priori. Por ejemplo, si sólo se desean comparar a1-a2 y a1-a3 entonces ya no es exhaustivo sino planificado dado que por cuestiones teóricas no interesa analizar la comparación entre a2 y a3. Para poder plantear contrastes a priori es necesario fundamentar esas opciones de contraste en unas hipótesis teóricas que den sentido a la elección de los contrastes o análisis que se quieren realizar. Por ejemplo, en un diseño con un grupo de control y dos grupos de tratamiento (A=3) podría ser interesantes comparar el grupo de control con uno de los grupos de tratamiento (contraste uno) y el grupo de control con el otro grupo de tratamiento (contraste dos). En este caso el investigador ha planteado dos contrastes o pruebas consideradas a priori, es decir, su planteamiento es previo a cualquier tipo de resultado del estudio. Los contrastes se plantean antes de realizar el experimento, por lo tanto antes de ejecutar cualquier análisis y necesitan de una teoría que los fundamente. En general, esos contrastes se corresponden con hipótesis de investigación. Debido a que son contrastes planificados a priori suelen ser pocos en número. Y para evitar que aumente la Tasa de Error de tipo I (declarar que un efecto es estadísticamente significativo cuando no lo es) los valores p de probabilidad son corregidos generalmente con el procedimiento de Bonferroni. Las hipótesis son simples cuando se plantean diferencias entre pares de medias simples, por ejemplo la diferencia entre las medias de los grupos a1-a2. Se considera que las hipótesis son complejas cuando la diferencia de medias implica un promedio de medias, por ejemplo se desea comparar la media de a1 frente a la media compleja de dos grupos. Por ejemplo una media compleja sería (a2+a3)/2. Es decir, en el cómputo de la media han intervenido las medias de dos grupos. Al final se contrastan dos medias pero al menos una de ellas es compleja. Otro ejemplo de hipótesis complejas podría ser la comparación siguiente: la media de (a2+a3)/2 respecto a la media (a1+a3)/2. Pruebas de contraste de hipótesis específicas Existen diferentes pruebas de contraste de hipótesis específicas. En la tabla se representan las situaciones en las que se podrían aplicar las pruebas de hipótesis específicas más utilizadas donde se asume la igualdad de las varianzas de los grupos (homocedasticidad de varianzas): Bonferroni: hipótesis planificadas, simples y complejas. Dunnett: hipótesis planificadas y simples. DHS Tukey: hipótesis exhaustivas y simples. Scheffé: hipótesis planificadas, exhaustivas, simples y complejas. Y cuando no se cumple el supuesto de homogeneidad de las varianzas se pueden aplicar las siguientes pruebas de contraste de hipótesis específicas: T2 de Tamhane T3 de Dunnett Games-Howell C de Dunnet 7 En el SPSS aparecen junto a las pruebas que asumen igualdad de varianzas de los grupos, en la parte inferior cuando se accede a Opciones: La prueba de Games-Howell es la más adecuada cuando no se asume la igualdad de las varianzas y el diseño es no ortogonal (grupos desequilibrados). Es una prueba que está basada en la prueba no paramétrica de Welch para diseños entre-grupos. Tabla. Situaciones donde se pueden aplicar las pruebas de hipótesis específicas Planificada Exhaustiva Simple Compleja x Bonferroni X X Dunnett x X DHS Tukey Scheffé x x X x x x Como se observa, hay situaciones donde se pueden aplicar varias pruebas de hipótesis específicas pero dependiendo de la situación hay unas pruebas que tienen más potencia estadística (menor error de Tipo II). Recordar que el investigador tiene que seleccionar aquella prueba que además de controlar el error de Tipo I también sea la que más potencia estadística tiene para detectar el efecto (menor error de Tipo II). Veamos a continuación en qué situaciones de investigación es más apropiada una prueba estadística u otra dado que controlan la probabilidad del error de Tipo I en el nivel de alfa planteado por el investigador a priori y tienen el menor error de Tipo II. Procedimiento DHS (Honestly Significant Difference) de Tukey El procedimiento DHS de Tukey es el más potente cuando en el diseño se ejecutan: 1) todas las comparaciones posibles entre las medias (exhaustivo) y además 2) son comparaciones simples Es decir, es la prueba más adecuada cuando se comparan dos medias simples cada vez y se ejecutan todas las posibles comparaciones simples del diseño. Es la prueba más utilizada en Psicología. El procedimiento calcula el denominado ‘rango crítico’ (RC) o valor teórico de la prueba y se compara con cada diferencia empírica de medias simple que tenga el diseño. 8 Si el valor de la diferencia de medias supera ese valor de rango crítico entonces se rechaza la hipótesis nula. Es decir, la diferencia entre el par de medias es estadísticamente significativa (p<alfa) si dicha diferencia iguala o supera al valor de rango crítico que ofrece la prueba DHS de Tukey. Los diferentes procedimientos de contrastes de hipótesis específicas se basan en la estimación de un valor de Rango Crítico obtenido a partir de una distribución concreta. En concreto, la prueba DHS de Tukey está basada en la distribución del rango estudentizado q (, a, glError), donde q es el valor de la distribución de rango estudentizado basado en el alfa, el número de medias a contrastar y los grados de libertad del error. En el ejemplo, el valor del Rango Crítico es igual a 3.543. Por lo tanto, cualquier diferencia de medias que supere o iguale ese valor teórico (en valores absolutos) es estadísticamente significativa según la prueba de Tukey. En el ejemplo las tres diferencias de medias superan el Rango Crítico de Tukey y, por lo tanto, se rechaza la hipótesis nula en los tres contrastes estadísticos de diferencias de medias. Procedimiento de Dunnett El procedimiento de Dunnett es el más potente cuando se trata de comparar: 1) la media de un grupo frente al resto de medias que tenga el diseño, es decir, se realizan a-1 comparaciones y además 2) son comparaciones simples. No es un procedimiento exhaustivo sino que plantea hipótesis planificadas o a priori. También se calcula el rango crítico (RC) de Dunnett y se procede del mismo modo comparándolo con las diferencias de medias empíricas de la investigación. La prueba de Dunnett utiliza la distribución basada en la comparación con un grupo de control (distribución de Dunnett). En la distribución de Dunnett se obtiene el valor de D en función del alfa, el número de grupos y los grados de libertad del error D (, a, glError). De nuevo, cualquier diferencia de medias (en valores absolutos) que iguale o supere dicho valor crítico es estadísticamente significativa. Corrección de Bonferroni La corrección de Bonferroni es el procedimiento más potente siempre que la hipótesis formule el número de comparaciones a priori aunque si C (número de comparaciones) es grande entonces la prueba es poco potente y no se recomienda su uso. Se puede aplicar con hipótesis simples y con hipótesis complejas. El procedimiento consiste en aplicar en cada comparación o prueba estadística el siguiente valor de alfa: Alfa= PE que se desea en el experimento / Número de comparaciones (C) Por ejemplo si se formulan 4 comparaciones o contrastes a priori, el PE final se mantendrá en 0.05 si en cada comparación individual se utiliza un alfa por comparación igual a 0.0125 (0.05/4=0.0125): 9 Si ejecutamos el procedimiento de Bonferroni se puede comprobar que PE = 1 - (10.0125 )4 =0.049. Valor cercano al alfa de 0.05 fijado a priori por el investigador. El procedimiento de Bonferroni se basa en la distribución de la prueba F: F (/C, 1, glError), donde C representa el número de comparaciones y a/C es el alfa que vamos a utilizar en cada comparación y por lo tanto la tabla que tenemos que consultar. Procedimiento de Scheffé El procedimiento de Scheffé es válido en cualquier circunstancia de investigación pero normalmente es la prueba menos potente. Se calcula el rango crítico (RC) de Scheffé y se procede del mismo modo comparándolo con las diferencias de medias empíricas. Si el valor de la diferencia de medias iguala o supera al valor del Rango Crítico entonces se rechaza la hipótesis nula. La prueba de Scheffé está basada en la distribución de la prueba F: F (, a-1, glError). En la tabla siguiente se detalla ‘el máximo’ número de contrastes (comparaciones) que deberían probarse en una investigación con el procedimiento de Bonferroni. Si el número de comparaciones es mayor entonces el procedimiento de Bonferroni pierde potencia estadística y sería más conveniente optar por la prueba de Scheffé que en esas circunstancias es más potente que Bonferroni. 10 Siguiendo con el ejemplo anterior: Tabla de diferencias de medias para un diseño A=3 Medias a1 (media=10) a2 (media=6) a2 (media=6) 4 -- a3 (media=14) 4 8 ¿Qué prueba de contraste de hipótesis específicas será la más adecuada para contrastar todas las diferencias entre los pares de medias? La más adecuada es aquella que controla el error de Tipo I en el nivel fijado previamente por el alfa y además es la prueba con mayor potencia estadística (menor error de Tipo II). Por lo tanto, si se trata de un diseño donde se plantean todas las comparaciones de medias dos a dos (comparaciones exhaustivas y simples) entonces la prueba más potente es DHS de Tukey. La prueba DHS (diferencia honestamente significativa) de Tukey es la elección más correcta desde el punto de vista de la validez de conclusión estadística. Ejecución con el SPSS 11 Si ejecutamos el contraste de hipótesis DHS de Tukey con el SPSS se obtendrán los siguientes resultados. Y el SPSS ofrece los siguientes resultados para la ‘pruebas post hoc’ HSD de Tukey: Si se observa el intervalo de confianza de la diferencia de medias se puede comprobar que en aquellas diferencias de medias donde se rechaza la hipótesis nula el intervalo de confianza no incluye el valor de cero para la diferencia de medias. Esto es otra manera de leer un contraste de hipótesis y saber si se rechazó o no la hipótesis nula. La hipótesis nula plantea que la diferencia entre las medias es cero, por lo tanto si dicho valor se encuentra en el intervalo no se podría rechazar dicha hipótesis dado que el cero es una diferencia posible dentro del intervalo estimado. En cambio, si los valores del intervalo no incluyen en cero entonces se rechaza la hipótesis nula ya que el valor cero no forma parte del intervalo de las diferencias de medias. 12 La interpretación de los subconjuntos homogéneos que ofrece el SPSS es muy útil para visualizar de forma rápida si hay diferencias estadísticamente significativas entre las medias. Aquellas condiciones cuyas medias no difieren de forma estadísticamente significativa aparecen en la misma columna dentro del mismo subconjunto. Por el contrario, cuando dos medias difieren de forma estadísticamente significativa entre sí entonces aparecen en dos subconjuntos diferentes. En la tabla anterior se observa que cada media se encuentra en un subconjunto diferente indicando que las diferencias entre todos los pares de medias son estadísticamente significativas. Hay que revisar siempre la tabla de diferencias de medias pues la prueba de subconjuntos homogéneos es más conservadora y podría ocurrir que no se detecten diferencias con el análisis visual de los subconjuntos y sí en la tabla de diferencias de medias de Tukey. Si hubiésemos optado por ejecutar Bonferroni o Scheffé los resultados serían los siguientes. La prueba de Scheffé es más potente (menor error de Tipo II) que Bonferroni ya que si miramos la tabla anterior de ‘máximo número de contrastes (comparaciones) que deberían probarse con el procedimiento de Bonferroni’ podemos comprobar que Bonferroni sería más potente si el máximo de comparaciones fuese de dos contrastes para un diseño con tres grupos y seis grados de libertad del error. De todos modos para esa situación donde se realizan todas las comparaciones posibles dos a dos ya hemos visto que la prueba más potente es DHS de Tukey (valores de p=0.031 y p=0.001). Y esa sería la decisión más correcta para ese diseño y, por lo tanto, la que debería seleccionar el investigador para realizar sus hipótesis específicas, asegurando la validez de conclusión estadística. En aquellas situaciones de investigación donde la prueba más adecuada es la de Dunnett (donde se realizan a-1 comparaciones simples) entonces será necesario indicar en el SPSS qué grupo es el de comparación (categoría de control) para que efectúe las a-1 comparaciones respecto a un determinado grupo. Por ejemplo, si la categoría de control se llama ‘Primero’ entonces eso significa que se va a comparar la media del primer grupo con las medias del resto de condiciones que tenga el diseño. En un estudio con A=3 las comparaciones que efectúa la prueba de Dunnett serían: a1-a2 y a1-a3. 13 Suponiendo que el investigador desea hacer a-1 comparaciones (3-1=2 contrastes) simples entonces la prueba de Dunnett ofrece el siguiente resultado en el SPSS. Como se observa sólo aparecen dos contrastes: la media del grupo a2 con la media del grupo a1 (la diferencia de medias es -4) y la media del grupo a3 con la media del grupo a1 (diferencia de medias de 4). Los resultados que ofrece el SPSS para poder tomar la decisión estadística de si se puede o no rechazar la hipótesis nula es el valor de significación (Sig.), es decir, el valor p de probabilidad del estadístico de comparación. En ningún tipo de prueba de hipótesis específicas informa el SPSS del valor del Rango Crítico del estadístico aplicado sino que directamente informa del valor p de probabilidad vinculado al contraste de diferencia de medias. Otros programas estadísticos sí informan del valor p de probabilidad junto al valor de Rango Crítico como por ejemplo la aplicación del ANOVA que se encuentra en la Web Vassar Stats (http://vassarstats.net/). 14 Ejecución con la aplicación on line de Vassar Stats 15 16