UNIVERSIDAD PERUANA CAYETANO HEREDIA FACULTAD DE PSICOLOGIA GABINETE DE INSTRUMENTOS PSICOLÓGICOS MATERIALES DE INFORMÁTICA ESTADISTICOS PARA TABLAS DE CONTINGENCIA Lic. Andrés Burga León Lic. Giancarlo Ojeda Mercado LIMA, 2003 ©Derechos Reservados Universidad Peruana Cayetano Heredia Facultad de Psicología PRESENTACION DE LA SERIE El presente programa constituye el primero de una serie producida por el Gabinete de Instrumentos Psicológicos de la Facultad de Psicología de la Universidad Peruana Cayetano Heredia, dirigida a estudiantes y profesionales de la psicología y diversas especialidades. Esta serie, denominada “Materiales De Informática” surge a partir de la experiencia de los docentes de los cursos vinculados a las áreas de matemáticas, estadística y psicometría, pues el realizar los cálculos de forma manual, si bien fomenta el aprendizaje matemático, hace más probable la ocurrencia de errores de cálculo, los cuales pueden impactar de forma negativa al proceso de toma de decisiones. Sabemos que una decisión se toma sobre la base de la información, y esta información debe ser lo más válida y confiable posible. En ese sentido, con esta serie de programas, creemos que al reducir la probabilidad del error de cálculo, estamos contribuyendo de una forma sustancial a la calidad de la información de base cuantitativa sobre la cual se basan muchas de las decisiones profesionales. En nuestro medio, además en muchos caso no encontramos un software accesible por cuestiones económicas que cumpla las funciones que desempeñan los programas de esta serie, que por su sencillez, creemos que presentan una gran utilidad. La serie hasta el momento cuenta con los siguientes paquetes informáticos: TAPF v.1.0, programa para el manejo de notas Estadísticos para Tablas de Contingencia Estimación de Parámetros y Prueba de Hipótesis Módulo de Cálculos Psicométricos Esperemos que esta segunda entrega le resulte útil y sea de su agrado. Andrés Burga León INDICE PRSENTACION DEL PROGRAMA.................................................................7 1. INTRODUCCIÓN ....................................................................................9 1.1 ¿QUÉ ES LA ESTADÍSTICA? .......................................................9 1.2 VARIABLES Y CONSTANTES ....................................................9 1.3 TIPOS DE VARIABLES .............................................................. 10 2. LAS ESCALAS DE MEDICIÓN ...........................................................11 3. PRUEBA DE HIPÓTESIS ......................................................................13 4. LAS MEDIDAS DE ASOCIACIÓN ......................................................14 5. LAS TABLAS DE CONTINGENCIA ...................................................16 6. USO DEL PROGRAMA “ESTADÍSTICO PARA TABLAS DE CONTINGENCIA” ...............................................................................17 6.1 INICIO DEL ANALISIS ............................................................... 17 6.2 PRUEBAS CON AMBAS VARIABLES NOMINALES .............20 6.2.1 CHI CUADRADA ............................................................... 20 6.2.2 COEFICIENTE C DE CONTINGENCIA ........................... 23 6.2.3 COEFICIENTE Q DE YULE. ............................................. 25 6.2.4 COEFICIENTE “PHI” (Φ) .................................................. 25 6.2.5 COEFICIENTE LAMBDA (λ) ............................................ 25 6.2.6 EL COEFICIENTE T DE TSCHRUPROW ........................ 26 6.2.7 EL COEFICIENTE V DE CRAMER .................................. 26 6.3 PRUEBAS CON UNA VARIABLE NOMINAL Y OTRA ORDINAL. ................................................................................... 27 6.3.1 COEFICIENTE “PHI” (Φ) .................................................. 27 6.3.2 COEFICIENTE WILCOXON .......................................... 27 6.4 PRUEBAS CON AMBAS VARIABLES ORDINALES ............. 27 6.4.1 TAU A DE KENDALL ....................................................... 27 6.4.2 EL COEFICIENTE d DE SOMMERS ................................ 29 6.4.3 TAU B DE KENDALL ....................................................... 29 6.5 6.5.1 PRUEBAS CON VARIABLES DICOTOMIZADAS .................. 30 COEFICIENTE DE CORRELACIÓN TETRACÓRICO ... 30 REFERENCIAS ............................................................................................... 33 PRSENTACION DEL PROGRAMA El programa “Estadístico para Tablas de Contingencia”ha sido desarrollado con la finalidad de facilitar los procedimientos de cálculo de diversas medidas de asociación entre variables nominales y ordinales, tanto dicotámicas como politómicas. Además le permitirá realizar de manera muy fácil los cálculos necesarios para probar hipótesis estadísticas relativas a la asociación entre variables, basadas en la Chi Cuadrada. Esperamos que este programa le resulte muy útil tanto a los estudiantes como profesionales de la Psicología y Ciencias Sociales en general. Lic. Andrés Burga León Lic. Giancarlo Ojeda Mercado. 7 8 1. 1.1 INTRODUCCIÓN ¿QUÉ ES LA ESTADÍSTICA? La estadística una rama aplicada de las matemáticas que se encarga del estudio de los métodos para recoger, organizar, resumir y analizar datos. Todo esto se realiza para poder extraer conclusiones válidas y tomar decisiones razonables basadas en los datos numéricos. El término estadística también es usado para denotar los propios datos, o número derivados de ellos, tales como los promedios. 1.2 VARIABLES Y CONSTANTES La estadística trabaja con variables y constantes, mediante las cuales se realizan las diferentes operaciones matemáticas, tanto descriptivas como inferenciales. Una variable puede ser entendida como algo que varía, es decir, algo que puede obtener diferentes valores. Además las variables generalmente reciben un nombre mediante el cual se las identifica. Por ejemplo, la variable llamada “sexo”, puede recibir los valores “masculino” o “femenino”. También podemos poner como ejemplo a la variable “Nota en lenguaje”, que según nuestro sistema educativo, puede obtener cualquier valor entre 0 y 20. Otro ejemplo de variable puede ser “Coeficiente Intelectual”, que podría recibir valores como 102, 98, 121, 110, etc. 9 En cambio una constante tiene valores fijos y generalmente se representa por letras. Por ejemplo, si decimos que en la siguiente ecuación (llamada ecuación lineal simple): Y = a + bX “a” y “b” son constantes con valores 3 y 2 respectivamente; además “X” e “Y” son variables, la ecuación puede definirse numéricamente como: (7) = 3 + 2(2) ó (11) = 3 + 2(4) ó (9) = 3 + 2(3), etc. Vemos que los valores de “a” y “b” no han cambiado(son constantes) y los valores de “X” e “Y” si han cambiado (son variables). 1.3 TIPOS DE VARIABLES En general podemos diferenciar entre diferenciar entre variables continuas y discretas. Las variables discretas tienen únicamente valores enteros. Es decir, la variable B puede recibir valores como 2, 5, 6, 8, 12. Las variables continuas pueden tener valores decimales. Es decir, la variable A puede recibir valores como 12.33, 5.39, 6.81, 8.34, 12.01. Otra forma de clasificar a las variables está dada por le número de categorías, teniendo básicamente sólo dos categorías o más de dos categorías. Se denomina variable politómica a aquella que tiene más de dos valores. Por ejemplo, los puntajes directos de una prueba de inteligencia, o los niveles socio-económicos (alto, medio, bajo). Cuando la variable tiene únicamente dos valores nos podemos encontrar frente a dos casos: las variables dicotómicas y las variables dicotomizadas. 10 Una variable dicotómica tiene únicamente dos valores, por ejemplo “sexo” sólo tiene los valores “masculino” y “femenino”. La repuesta a una pregunta de opción múltiple solo tiene “acierto” o “fallo”. La variable dicotomizada si bien presente sólo dos categorías, es en realizada una variable politómica que a sido recodificada en dos. Por ejemplo, las notas en una curso de matemáticas (entre 0 y 20) pueden ser dicotomizadas en “aprobados” (11 a 20) y “desaprobados” (0 a 10). 2. LAS ESCALAS DE MEDICIÓN Los datos que se utilizan como resultado de las mediciones en los procedimientos de recolección de datos, pertenecen a diversas escalas de medición. Estas escalas difieren en el tipo de información que pueden brindar, así tenemos escalas nominales o categóricas, escalas ordinales, escalas de intervalo y escalas de razón. Las escalas nominales son aquellas que nos permiten determinar la presencia o no de un atributo en un objeto y brindan información con respecto a la frecuencia con que el atributo se presenta en una colección de objetos. Estas escalas no implican ningún tipo de relación matemáticas aparte del conteo. Por ejemplo uno puede ser clasificado según la variable “Religión” como “Católico”, Protestante”, “Mormón”, “Judío”, sin que ello implique que una religión e mejor que otra. Las escalas ordinales nos permiten, como su nombre lo indica, ordenar una colección de objetos en función a la propiedad mayor que o menor que, 11 referidas a la magnitud con que presentan un determinado atributo. Por ejemplo, podemos referirnos a la clase social, que según un conjunto de indicadores podría categorizarse como “Alta”, “Media” y “Baja”. Las escalas de intervalo permiten medir la magnitud con que se presenta un atributo en una objeto y además brinda información con respecto a la magnitud de la diferencia que presenta un objeto con respecto a los demás que objetos que poseen la misma propiedad en distintas magnitudes. Sin embargo, el establecimiento del punto cero es arbitrario. Es decir, no existe un cero absoluto. Como ejemplo podemos señalar a las escalas de temperatura C° y F°. También se considera que las puntuaciones directas de la mayoría de prueba psicológicas constituyen escalas de intervalo. Las escalas de razón tienen las mismas propiedades que las escalas de intervalo, pero además poseen un cero absoluto. Como ejemplo podemos mencionar a los grados Kelvin, que tiene un cero absoluto de temperatura, cuyo equivalente en grados centígrados es – 273 grados. 12 3. PRUEBA DE HIPÓTESIS La gran parte de la labor de la investigación esta orientada a determinar en que medida las hipótesis planteadas son aceptables. Para realizar una decisión objetiva es necesario utilizar procedimientos que lleven a un criterio objetivo para aceptar o rechazar las hipótesis; es este el papel que desempeñan las pruebas estadísticas planteadas. La puesta a prueba de una hipótesis estadísticas implica: 1) Formular la hipótesis de nulidad (Ho). 2) Elegir la prueba estadística de contraste 3) Especificar el nivel de significancia () y el tamaño de la muestra (n). 4) Suponer la distribución muestral de la prueba estadística según Ho 5) Definir la región de rechazo de la Ho y calcular el valor de la prueba estadística con los datos obtenidos en la muestra 6) Si el valor del estadístico calculado se halla dentro de la región de rechazo se descarta la hipótesis nula y se acepta la hipótesis alterna. Una alterativa para la toma de decisiones (aceptación o rechazo de Ho) se basa el valor p que equivale a la probabilidad de obtener un resultado estadístico (valor del estadístico calculado) tan extremo como el observado, siendo la hipótesis nula verdadera. Los diferentes programas informáticos para el manejo estadístico arrojan entre sus resultados el valor p asociado a la distribución muestral del estadístico de contraste, y se suele rechazar Ho cuando su valor es inferior al nivel de significancia previamente establecido. Generalmente, cuando el valor p es 13 menor a 0.05 se rechaza Ho, aunque pueden establecerse valores más conservadores como 0.01. 4. LAS MEDIDAS DE ASOCIACIÓN Se dice que entre una variable “Y” y una o más variables “Xi”, existe asociación, cuando la modificación de los valores en cualquiera de ellas induce modificaciones significativas en los valores de la otra.. Estas modificaciones inducidas son además siempre análogas. Es decir, la respuesta a una modificación dada de una(s) variable(s) es siempre del mismo tipo y, por tanto, total o parcialmente previsible. Por ejemplo, entre la talla y el peso de las personas existe cierto grado de asociación, en el sentido de que aumentos de estatura implican, en términos de media, aumentos del peso (lo cual no quiere decir que esto ocurra para cada persona considerada individualmente, sino para las medias de conjuntos de personas). En el origen de las variables talla y peso, existen causas comunes: genética, alimentación, circunstancias medioambientales, etc. Por ello y en general, las dos variables están emparentadas por lo cual se puede apreciar una covarianza entre ellas (ambas varían de forma conjunta). Cuando el conjunto de causas generadoras de la variable Y coincide totalmente con el de una variable X, ambas variables son dos formas diferentes de decir lo mismo y estarán relacionadas mediante una función matemática. Dicha función constituye el enlace entre variables o relación funcional, de carácter determinista, ya que dado un valor de una de las variables, a la otra le 14 corresponde siempre el mismo valor asociado o respuesta, obtenido a través de la función de enlace. Por ejemplo, cuando decimos que 1 kilogramo tiene 100 gramos, estamos estableciendo la asociación funcional: Y = f(X), que se concreta en: Y = 100*X. Normalmente el conjunto de causas no coincide totalmente, por lo que el grado de enlace entre variables dependerá del grado de coincidencia de las causas, como podemos apreciar a través del mencionado ejemplo de la talla y el peso. Los comportamientos de una de las variables que se expliquen por causas no comunes a ambas serán considerados como varianza no común. Esto quiere decir, que el 100% de la varianza de una variable no puede generalmente ser explicado por el 100% de la varianza en otra variable. En este caso ya no se habla de relaciones funcionales, sino de relaciones probabilísticas o funciones estadísticas. Determinar cuánta relación corresponde a cada tipo de varianza, o lo que es lo mismo, cuanto del cambio en una variable puede ser explicado por el cambio es otra variable, es una de las tareas de la estadística, que ha establecido un conjunto de coeficientes llamados grado de enlace, nivel de asociación, o medidas de asociación entre variables. Generalmente estos tipos de relación, son cuantificados por diversos coeficientes que tiene valores entre –1 y 1, indicando el signo la dirección de la asociación, y el valor absoluto, la fuerza de la asociación. Es decir, los valores negativos nos dicen que al aumentar una variable, los valores de la otra disminuyen. Además, mientras mayor sea el coeficiente en términos de su valor absoluto, mas fuerte será la asociación entre las variables. 15 5. LAS TABLAS DE CONTINGENCIA Una tabla de contingencia sirve para resumir resultados en los cuales se cruzan dos o más variables. Por ejemplo, observemos la siguiente tabla: A X Y X,A Y,A B X,B Y,B C X,C Y,C En las casillas se ingresan valores que corresponden a las frecuencias absolutas (conteo) y/0 a frecuencias relativas (porcentajes) para el cruze de las diferentes categoría en ambas variables. Veamos un ejemplo más concreto de ello: Resultados en prueba de lenguaje Clase Social Alta Media Baja Aprobado 40 20 30 Desaprobado 30 10 40 En la tabla anterior por ejemplo se puede observar que en la casilla correspondiente a la intersección entre la clase social alta y el resultado aprobado en la prueba de lenguaje, el valor 40. Esto significa que cuarenta personas de la clase social alta han aprobado el mencionado examen. Lo mismo podemos señalar para cada una de las casillas. Por ejemplo, 10 personas de la clase social media han desaprobado. 16 6. USO DEL PROGRAMA “ESTADÍSTICO PARA TABLAS DE CONTINGENCIA” A continuación presentaremos las instrucciones referidas al uso del presente programa, así como una breve descripción de los diferentes estadísticos que se pueden obtener en las tablas de contingencia de doble entrada. 6.1 INICIO DEL ANALISIS Cuando usted ingrese al programa la primera pantalla que observará se verá como la siguiente: 17 Allí deberá colocar el nombre de la variable que ira colocada en las columnas y el de la variable que ira colocada en filas, así como los niveles que pueden asumir cada una de ellas. En las casillas de verificación señale el tipo de escala en la cual se han obtenido los datos. Estas pueden ser: Ambas nominales, una nominal y otra ordinal, ambas ordinales o ambas dicotomizadas. Una vez realizado lo anterior haga click sobre la pestaña con el título Tabla , la pantalla que usted verá a continuación tendrá una apariencia similar a la del siguiente gráfico. 18 En esa pantalla usted observará cinco tablas de doble entrada, en la primera de ellas deberá colocar las frecuencias observadas para cada uno de los niveles de ambas variables. A medida que usted vaya realizando esta operación en las tablas de doble entrada siguientes se irá completando automáticamente la información relacionada con las frecuencias relativas sobre el total de los datos, las frecuencias relativas sobre la columnas, las frecuencias relativas sobre las filas y finalmente las frecuencias esperadas conforme a la hipótesis nula (no asociación entre las variables). Una vez terminado el ingreso de los datos haga click sobre la pestaña con la etiqueta Resultados, la pantalla que aparecerá se verá como la siguiente: En esta pantalla podrá observar los valores calculados para las pruebas estadísticas de: Chi cuadrada, Phi, C de Pearson, T de Tschrupow y Lambda, así como el nivel de significancia. 19 6.2 PRUEBAS CON AMBAS VARIABLES NOMINALES 6.2.1 CHI CUADRADA La prueba Chi cuadrado se utiliza para medir la asociación entre dos variables medidas en escalas nominales, clasificándose los atributos en tablas de contingencia. La hipótesis nula que se prueba es que las variables son independientes. Generalmente los niveles de significancia menores a 0.05 permiten aceptar la hipótesis alterna, la cual afirma la relación entre las variables; esto va ha depender del grado precisión que se desee obtener. En el gráfico 1 se observan los datos con los cuales se desea probar la hipótesis que plantea la posible relación entre las variables sexo y satisfacción laboral. Los datos que se hallan en la primera tabla de doble entrada muestran las frecuencias absolutas para cada uno de los niveles de las variables. En la segunda tabla de doble entrada se pueden apreciar las frecuencias relativas sobre el total de los datos, en la tercera tabla se observan las frecuencias relativas por el total de columnas, en la cuarta tabla se ve las frecuencias relativas por el total de filas y en la quinta tabla las frecuencias esperadas conforme a la hipótesis de nulidad. 20 Gráfico 1 : Hoja "Tablas" 21 En el gráfico 2 se pueden observar los resultados obtenidos a partir de los datos de este ejemplo, en ella se puede observar que el valor de la Chi cuadrada es de 16.67 con un nivel de significancia de 0.00, lo cual estaría indicando que si existe una asociación significativa entre las variables Sexo y Nivel de Satisfacción Laboral. Gráfico 2 : Hoja "Resultados" 22 6.2.2 COEFICIENTE C DE CONTINGENCIA El Coeficiente de Contingencia “C” es una medida del grado de asociación entre dos conjuntos de atributos. Los datos deben haber sido medidos en una escala nominal y las frecuencias ordenadas en tablas de contingencia. La manera de comprobar la significancia del Coeficiente “C” de contingencia es determinando la significancia de Chi Cuadrado, si esta es significativa también lo es “C”. En el gráfico 3 se observan los datos ingresados en la tabla de contingencia con respecto a las variables Nivel de Instrucción y Actitud Religiosa, así como los resultados de las pruebas de asociación. En este caso se puede observar que el Coeficiente C tiene un valor de 0.30, el cual si se compara con el Coeficiente C (0.38) obtenido en el ejemplo de la Chi Cuadrada estaría mostrando que las variables en este segundo ejemplo se hallan asociadas con menos fuerza. 23 Gráfico 3 : Hoja "Tablas" 24 6.2.3 COEFICIENTE Q DE YULE. El Coeficiente “Q” de Yule sirve para conocer si dos variables medidas en escalas nominales u ordinales y ordenadas en tablas de 2x2 son independientes. La hipótesis nula es aceptada si el valor de la “Q” de Yule es igual a 0. Los limites de este coeficiente son ±1, los que se obtienen cuando una de las casillas es igual a 0, sin embargo, el uso de este coeficiente no es recomendable en estos casos puesto que da un resultado falso. 6.2.4 COEFICIENTE “PHI” (Φ) Este coeficiente permite calcular la asociación entre variables medidas en escalas nominales, ordinales o de intervalo, cuyos datos representan dicotomías. El nivel de significancia de Φ para la aceptación o rechazo de la hipótesis nula se determina por su relación con Chi Cuadrado. 6.2.5 COEFICIENTE LAMBDA (λ) El Coeficiente Lambda de Goodman y Kruskal se utiliza para medir la asociación entre dos variables nominales con dos o más niveles. Este coeficiente varía de +1 a -1, el primero indica que se pueden hacer predicciones sin error, ya que este coeficiente se basa en la idea de la ganancia en la predicción de una variables si el valor de la otra es conocida. 25 6.2.6 EL COEFICIENTE T DE TSCHRUPROW Este coeficiente permite comparar tablas de diferente tamaño, es decir, es un coeficiente estandarizado si son cuadradas o con igual n. El límite superior de T es 1 para tablas cuadradas ( K x K), para tablas m x n, si m n T < 1, para tablas con igual grado de libertad, el valor máximo de T es el mismo, lo que puede servir como elemento de comparación. 6.2.7 EL COEFICIENTE V DE CRAMER Este coeficiente se puede aplicar en tablas de contingencia de m*n categorías. Su cálculo se basa en Chi cuadrado, pretendiendo ser una mejor estadarización de Chi que la T de Tschuruprow. Sus valores fluctúan entre 0 y 1 para tablas de m*n, siendo mayor la asociación entre variables cuanto más cercano sea su valor a 1. En el caso de tablas de 2x2 se puede calcular la V con una formula alternativa a la basada en Chi cuadrado, que da valores entre –1 y 1, pudiendo hablarse en este caso de relaciones directas e inversas entre ambas variables. 26 6.3 PRUEBAS CON UNA VARIABLE NOMINAL Y OTRA ORDINAL. 6.3.1 COEFICIENTE “PHI” (Φ) En estos casos también se puede aplicar el coeficiente phi, obteniendose valores entre 0 y 1. 6.3.2 COEFICIENTE WILCOXON Este coeficiente corresponde al concepto de reducción proporcional del error como medida predictiva. Se basa en la diferencia de información entre la tabla global (marginales) y su desglose en niveles marcados por la variable ordinal. Los valores cercanos a cero nos indican que predecir los valores de una variable a partir de la otra no da mejores resulatados que una clasificación completamente aleatoria. 6.4 6.4.1 PRUEBAS CON AMBAS VARIABLES ORDINALES TAU A DE KENDALL El Coeficiente tau a de Kendall varia entre –1 y +1, el valor de cero indica la incapacidad de una variable para reducir los errores que cabría esperar al distribuir al azar los valores de la otra variable. Kendall definió este coeficiente como un calculo de la diferencia entre los pares semejantes y desemejantes en relación a todos los pares posibles. 27 Cuando la asociación es negativa el coeficiente va acompañado de signo negativos, mientras que el signo positivo indica una asociación positiva. En el gráfico 4 se observan los resultados obtenidos a partir del ordenamiento realizado por dos observadores en un ranking de 1 a 5. El signo positivo del coeficiente estaría indicando que la asociación es positiva. En el ejemplo un coeficiente cercano a cero (0.05) estaría indicando que la predicción del ordenamiento de un observador a partir del ordenamiento del otro no sería muy superior al que se obtendría considerando una distribución al azar. Gráfico 4 : Hoja "Resultados" 28 6.4.2 EL COEFICIENTE d DE SOMMERS Este Coeficiente se utiliza para conocer la reducción proporcional en los errores que se cometen al predecir el ordenamiento de los casos en una variable dependiente cuando se tiene en cuenta el ordenamiento de los casos en la variable independiente. Los valores de este coeficiente pueden variar al tomarse de una misma tabla, dependiendo de sí una variable es considerada como dependiente o independiente. En el gráfico 4, un valor de 0.07 para la d de Sommer estaría indicando que la reducción del error que se comete al realizar la predicción considerando las filas como variable independiente es de 7%. Si se considera a las columnas como variable independiente en este ejemplo también se puede considerar que el porcentaje del error que se reduce al predecir las filas es también de 7%. 6.4.3 TAU B DE KENDALL El coeficiente tau b de Kendall permite encontrar el grado de asociación en variables que se hallen asociadas asimétricamente teniendo en cuenta los empates que se tengan en una u otra variable, pero no los empates que se forman en ambas. Este coeficiente puede considerarse como un promedio de los dos coeficientes de sommers, los cuales se calculan a partir de la misma tabla. El coeficiente tau b puede tomar valores que oscilan entre –1 y +1, según el sentido de la asociación, pero cuando la tabla no es cuadrada este coeficiente no puede asumir el valor de extremo dado que cuando hay un número diferente de 29 filas que de columnas existirán más pares empatados en una variable ( la que tiene menos categorías) que en la otra variable. En el ejemplo mostrado en el gráfico 4 se puede observar que el coeficiente tau b de Kendall es de 0.07, el cual se interpretaría como la existencia de una asociación positiva, pero con una asociación sumamente debil. 6.5 6.5.1 PRUEBAS CON VARIABLES DICOTOMIZADAS COEFICIENTE DE CORRELACIÓN TETRACÓRICO Este coeficiente mide el grado de asociación en el caso de que se analicen dos variables dicotomizadas provenientes de escalas de intervalo o de razón, en las cuales existe una continuidad, aunque también puede usarse en el caso de variables provenientes de escalas ordinales con rango superior a cinco. El coeficiente de correlación tetracórico varía entre –1 y +1 y se interpreta como el coeficiente de correlación r de Pearson. 30 Gráfico 5 : Hoja "Tablas" En el gráfico 5 se observan los datos correspondientes a las variables dicotomizadas neuroticismo y necesidad de logro. El valor del coeficiente rt de correlación tetracórico para los datos mostrados es de –0.26, como se puede apreciar en el gráfico 6. 31 Gráfico 6 : Hoja "Resultados" 7. 32 7. REFERENCIAS ALARCÓN. R. (1991) Métodos y Diseños de Investigación del Comportamiento. Lima. Fondo Editorial universidad Peruana Cayetano Heredia. AMON, J. (1993-96) Estadística para psicólogos. Madrid: Pirámide. CALZADA, J. (1966) Estadística General con Énfasis en Muestreo. Lima: Jurídica. CRAMMER, H. (1963) Métodos Matemáticos de Estadística. Madridi. Aguilar. DAVIES, O. (1960) Métodos estadísticos Aplicados a la Investigación y a la Producción. Madrid: Aguilar. ELORZA, H. (1987) Estadística para Ciencias del Comportamiento. México: Harla. EVERITT, B. (1996) Making Sense of Statistics in Psychology. Oxford: Oxford University Press. GARRET, H. (1971) Estad´pistica en psicología y Educación. Buenos Aires: Paidós. GUILFORD, J.P. y FUCHTER, B. (1986) Estadística Aplicada a la Psicología y la Educación. México: MCGraw Hill. HAYS, W. (1973) Statistics for the Social Science. Londrwes: Holt, Rinehart y Winston. MARTINEZ, C. (1997) Estadística y Muestreo. 8ª ed. Bogotá. Fondo Educativo Interamericano. PARDO,A y SAN MARTÍN, R. (1999) Análisis de datos en Psicología II. Madrid. Pirámide PEREZ, F.J. y otros. (1999) Análisis de Datos en Psicología. Madrid: Pirámide. SIEGEL, S. (1991) Estadística No Paramétrica. México: Trillas. 33