X - Fafich

Anuncio
UNIVERSIDAD PERUANA CAYETANO HEREDIA
FACULTAD DE PSICOLOGIA
GABINETE DE INSTRUMENTOS PSICOLÓGICOS
MATERIALES DE INFORMÁTICA
ESTADISTICOS
PARA TABLAS DE
CONTINGENCIA
Lic. Andrés Burga León
Lic. Giancarlo Ojeda Mercado
LIMA, 2003
©Derechos Reservados
Universidad Peruana Cayetano Heredia
Facultad de Psicología
PRESENTACION DE LA SERIE
El presente programa constituye el primero de una serie producida por el
Gabinete de Instrumentos Psicológicos de la Facultad de Psicología de la
Universidad Peruana Cayetano Heredia, dirigida a estudiantes y profesionales
de la psicología y diversas especialidades.
Esta serie, denominada “Materiales De Informática” surge a partir de la
experiencia de los docentes de los cursos vinculados a las áreas de
matemáticas, estadística y psicometría, pues el realizar los cálculos de forma
manual, si bien fomenta el aprendizaje matemático, hace más probable la
ocurrencia de errores de cálculo, los cuales pueden impactar de forma
negativa al proceso de toma de decisiones.
Sabemos que una decisión se toma sobre la base de la información, y esta
información debe ser lo más válida y confiable posible.
En ese sentido, con esta serie de programas, creemos que al reducir la
probabilidad del error de cálculo, estamos contribuyendo de una forma
sustancial a la calidad de la información de base cuantitativa sobre la cual se
basan muchas de las decisiones profesionales.
En nuestro medio, además en muchos caso no encontramos un software
accesible por cuestiones económicas que cumpla las funciones que desempeñan
los programas de esta serie, que por su sencillez, creemos que presentan una
gran utilidad.
La serie hasta el momento cuenta con los siguientes paquetes informáticos:

TAPF v.1.0, programa para el manejo de notas

Estadísticos para Tablas de Contingencia

Estimación de Parámetros y Prueba de Hipótesis

Módulo de Cálculos Psicométricos
Esperemos que esta segunda entrega le resulte útil y sea de su agrado.
Andrés Burga León
INDICE
PRSENTACION DEL PROGRAMA.................................................................7
1.
INTRODUCCIÓN ....................................................................................9
1.1
¿QUÉ ES LA ESTADÍSTICA? .......................................................9
1.2
VARIABLES Y CONSTANTES ....................................................9
1.3
TIPOS DE VARIABLES .............................................................. 10
2.
LAS ESCALAS DE MEDICIÓN ...........................................................11
3.
PRUEBA DE HIPÓTESIS ......................................................................13
4.
LAS MEDIDAS DE ASOCIACIÓN ......................................................14
5.
LAS TABLAS DE CONTINGENCIA ...................................................16
6.
USO DEL PROGRAMA “ESTADÍSTICO PARA TABLAS DE
CONTINGENCIA” ...............................................................................17
6.1
INICIO DEL ANALISIS ............................................................... 17
6.2
PRUEBAS CON AMBAS VARIABLES NOMINALES .............20
6.2.1
CHI CUADRADA ............................................................... 20
6.2.2
COEFICIENTE C DE CONTINGENCIA ........................... 23
6.2.3
COEFICIENTE Q DE YULE. ............................................. 25
6.2.4
COEFICIENTE “PHI” (Φ) .................................................. 25
6.2.5
COEFICIENTE LAMBDA (λ) ............................................ 25
6.2.6
EL COEFICIENTE T DE TSCHRUPROW ........................ 26
6.2.7
EL COEFICIENTE V DE CRAMER .................................. 26
6.3
PRUEBAS CON UNA VARIABLE NOMINAL Y OTRA
ORDINAL. ................................................................................... 27
6.3.1
COEFICIENTE “PHI” (Φ) .................................................. 27
6.3.2
COEFICIENTE  WILCOXON .......................................... 27
6.4
PRUEBAS CON AMBAS VARIABLES ORDINALES ............. 27
6.4.1
TAU A DE KENDALL ....................................................... 27
6.4.2
EL COEFICIENTE d DE SOMMERS ................................ 29
6.4.3
TAU B DE KENDALL ....................................................... 29
6.5
6.5.1
PRUEBAS CON VARIABLES DICOTOMIZADAS .................. 30
COEFICIENTE DE CORRELACIÓN TETRACÓRICO ... 30
REFERENCIAS ............................................................................................... 33
PRSENTACION DEL PROGRAMA
El programa “Estadístico para Tablas de Contingencia”ha sido
desarrollado con la finalidad de facilitar los procedimientos de
cálculo de diversas medidas de asociación entre variables
nominales y ordinales, tanto dicotámicas como politómicas.
Además le permitirá realizar de manera muy fácil los cálculos
necesarios para probar hipótesis estadísticas relativas a la
asociación entre variables, basadas en la Chi Cuadrada.
Esperamos que este programa le resulte muy útil tanto a los
estudiantes como profesionales de la Psicología y Ciencias
Sociales en general.
Lic. Andrés Burga León
Lic. Giancarlo Ojeda Mercado.
7
8
1.
1.1
INTRODUCCIÓN
¿QUÉ ES LA ESTADÍSTICA?
La estadística una rama aplicada de las matemáticas que se encarga del estudio
de los métodos para recoger, organizar, resumir y analizar datos. Todo esto se
realiza para poder extraer conclusiones válidas y tomar decisiones razonables
basadas en los datos numéricos.
El término estadística también es usado para denotar los propios datos, o
número derivados de ellos, tales como los promedios.
1.2
VARIABLES Y CONSTANTES
La estadística trabaja con variables y constantes, mediante las cuales se realizan
las diferentes operaciones matemáticas, tanto descriptivas como inferenciales.
Una variable puede ser entendida como algo que varía, es decir, algo que puede
obtener diferentes valores. Además las variables generalmente reciben un
nombre mediante el cual se las identifica.
Por ejemplo, la variable llamada “sexo”, puede recibir los valores “masculino”
o “femenino”. También podemos poner como ejemplo a la variable “Nota en
lenguaje”, que según nuestro sistema educativo, puede obtener cualquier valor
entre 0 y 20. Otro ejemplo de variable puede ser “Coeficiente Intelectual”, que
podría recibir valores como 102, 98, 121, 110, etc.
9
En cambio una constante tiene valores fijos y generalmente se representa por
letras. Por ejemplo, si decimos que en la siguiente ecuación (llamada ecuación
lineal simple):
Y = a + bX
“a” y “b” son constantes con valores 3 y 2
respectivamente; además “X” e “Y” son variables, la ecuación puede definirse
numéricamente como: (7) = 3 + 2(2) ó (11) = 3 + 2(4) ó (9) = 3 + 2(3), etc.
Vemos que los valores de “a” y “b” no han cambiado(son constantes) y los
valores de “X” e “Y” si han cambiado (son variables).
1.3
TIPOS DE VARIABLES
En general podemos diferenciar entre diferenciar entre variables continuas y
discretas.
Las variables discretas tienen únicamente valores enteros. Es decir, la variable
B puede recibir valores como 2, 5, 6, 8, 12.
Las variables continuas pueden tener valores decimales. Es decir, la variable A
puede recibir valores como 12.33, 5.39, 6.81, 8.34, 12.01.
Otra forma de clasificar a las variables está dada por le número de categorías,
teniendo básicamente sólo dos categorías o más de dos categorías.
Se denomina variable politómica a aquella que tiene más de dos valores. Por
ejemplo, los puntajes directos de una prueba de inteligencia, o los niveles
socio-económicos (alto, medio, bajo).
Cuando la variable tiene únicamente dos valores nos podemos encontrar frente
a dos casos: las variables dicotómicas y las variables dicotomizadas.
10
Una variable dicotómica tiene únicamente dos valores, por ejemplo “sexo” sólo
tiene los valores “masculino” y “femenino”. La repuesta a una pregunta de
opción múltiple solo tiene “acierto” o “fallo”.
La variable dicotomizada si bien presente sólo dos categorías, es en realizada
una variable politómica que a sido recodificada en dos. Por ejemplo, las notas
en una curso de matemáticas (entre 0 y 20) pueden ser dicotomizadas en
“aprobados” (11 a 20) y “desaprobados” (0 a 10).
2.
LAS ESCALAS DE MEDICIÓN
Los datos que se utilizan como resultado de las mediciones en los
procedimientos de recolección de datos, pertenecen a diversas escalas de
medición. Estas escalas difieren en el tipo de información que pueden brindar,
así tenemos escalas nominales o categóricas, escalas ordinales, escalas de
intervalo y escalas de razón.
Las escalas nominales son aquellas que nos permiten determinar la presencia o
no de un atributo en un objeto y brindan información con respecto a la
frecuencia con que el atributo se presenta en una colección de objetos. Estas
escalas no implican ningún tipo de relación matemáticas aparte del conteo. Por
ejemplo uno puede ser clasificado según la variable “Religión” como
“Católico”, Protestante”, “Mormón”, “Judío”, sin que ello implique que una
religión e mejor que otra.
Las escalas ordinales nos permiten, como su nombre lo indica, ordenar una
colección de objetos en función a la propiedad mayor que o menor que,
11
referidas a la magnitud con que presentan un determinado atributo. Por
ejemplo, podemos referirnos a la clase social, que según un conjunto de
indicadores podría categorizarse como “Alta”, “Media” y “Baja”.
Las escalas de intervalo permiten medir la magnitud con que se presenta un
atributo en una objeto y además brinda información con respecto a la magnitud
de la diferencia que presenta un objeto con respecto a los demás que objetos
que poseen
la misma propiedad en distintas magnitudes. Sin embargo, el
establecimiento del punto cero es arbitrario. Es decir, no existe un cero
absoluto. Como ejemplo podemos señalar a las escalas de temperatura C° y F°.
También se considera que las puntuaciones directas de la mayoría de prueba
psicológicas constituyen escalas de intervalo.
Las escalas de razón tienen las mismas propiedades que las escalas de
intervalo, pero además poseen un cero absoluto. Como ejemplo podemos
mencionar a los grados Kelvin, que tiene un cero absoluto de temperatura, cuyo
equivalente en grados centígrados es – 273 grados.
12
3.
PRUEBA DE HIPÓTESIS
La gran parte de la labor de la investigación esta orientada a determinar en que
medida las hipótesis planteadas son aceptables. Para realizar una decisión
objetiva es necesario utilizar procedimientos que lleven a un criterio objetivo
para aceptar o rechazar las hipótesis; es este el papel que desempeñan las
pruebas estadísticas planteadas. La puesta a prueba de una hipótesis estadísticas
implica:
1) Formular la hipótesis de nulidad (Ho).
2) Elegir la prueba estadística de contraste
3) Especificar el nivel de significancia () y el tamaño de la muestra (n).
4) Suponer la distribución muestral de la prueba estadística según Ho
5) Definir la región de rechazo de la Ho y calcular el valor de la prueba
estadística con los datos obtenidos en la muestra
6) Si el valor del estadístico calculado se halla dentro de la región de rechazo
se descarta la hipótesis nula y se acepta la hipótesis alterna.
Una alterativa para la toma de decisiones (aceptación o rechazo de Ho) se basa
el valor p que equivale a la probabilidad de obtener un resultado estadístico
(valor del estadístico calculado) tan extremo como el observado, siendo la
hipótesis nula verdadera.
Los diferentes programas informáticos para el manejo estadístico arrojan entre
sus resultados el valor p asociado a la distribución muestral del estadístico de
contraste, y se suele rechazar Ho cuando su valor es inferior al nivel de
significancia previamente establecido. Generalmente, cuando el valor p es
13
menor a 0.05 se rechaza Ho, aunque pueden establecerse valores más
conservadores como 0.01.
4.
LAS MEDIDAS DE ASOCIACIÓN
Se dice que entre una variable “Y”
y una o más variables “Xi”, existe
asociación, cuando la modificación de los valores en cualquiera de ellas induce
modificaciones significativas en los valores de la otra..
Estas modificaciones inducidas son además siempre análogas. Es decir, la
respuesta a una modificación dada de una(s) variable(s) es siempre del mismo
tipo y, por tanto, total o parcialmente previsible.
Por ejemplo, entre la talla y el peso de las personas existe cierto grado de
asociación, en el sentido de que aumentos de estatura implican, en términos de
media, aumentos del peso (lo cual no quiere decir que esto ocurra para cada
persona considerada individualmente, sino para las medias de conjuntos de
personas).
En el origen de las variables talla y peso, existen causas comunes: genética,
alimentación, circunstancias medioambientales, etc. Por ello y en general, las
dos variables están emparentadas por lo cual se puede apreciar una covarianza
entre ellas (ambas varían de forma conjunta).
Cuando el conjunto de causas generadoras de la variable Y coincide totalmente
con el de una variable X, ambas variables son dos formas diferentes de decir lo
mismo y estarán relacionadas mediante una función matemática.
Dicha función constituye el enlace entre variables o relación funcional, de
carácter determinista, ya que dado un valor de una de las variables, a la otra le
14
corresponde siempre el mismo valor asociado o respuesta, obtenido a través de
la función de enlace.
Por ejemplo, cuando decimos que 1 kilogramo tiene 100 gramos, estamos
estableciendo la asociación funcional: Y = f(X), que se concreta en:
Y = 100*X.
Normalmente el conjunto de causas no coincide totalmente, por lo que el grado
de enlace entre variables dependerá del grado de coincidencia de las causas,
como podemos apreciar a través del mencionado ejemplo de la talla y el peso.
Los comportamientos de una de las variables que se expliquen por causas no
comunes a ambas serán considerados como varianza no común. Esto quiere
decir, que el 100% de la varianza de una variable no puede generalmente ser
explicado por el 100% de la varianza en otra variable. En este caso ya no se
habla de relaciones funcionales, sino de relaciones probabilísticas o funciones
estadísticas.
Determinar cuánta relación corresponde a cada tipo de varianza, o lo que es lo
mismo, cuanto del cambio en una variable puede ser explicado por el cambio es
otra variable, es una de las tareas de la estadística, que ha establecido un
conjunto de coeficientes llamados grado de enlace, nivel de asociación, o
medidas de asociación entre variables.
Generalmente estos tipos de relación, son cuantificados por diversos
coeficientes que tiene valores entre –1 y 1, indicando el signo la dirección de la
asociación, y el valor absoluto, la fuerza de la asociación. Es decir, los valores
negativos nos dicen que al aumentar una variable, los valores de la otra
disminuyen. Además, mientras mayor sea el coeficiente en términos de su valor
absoluto, mas fuerte será la asociación entre las variables.
15
5.
LAS TABLAS DE CONTINGENCIA
Una tabla de contingencia sirve para resumir resultados en los cuales se cruzan
dos o más variables.
Por ejemplo, observemos la siguiente tabla:
A
X
Y
X,A
Y,A
B
X,B
Y,B
C
X,C
Y,C
En las casillas se ingresan valores que corresponden a las frecuencias absolutas
(conteo) y/0 a frecuencias relativas (porcentajes) para el cruze de las diferentes
categoría en ambas variables. Veamos un ejemplo más concreto de ello:
Resultados
en prueba
de lenguaje
Clase Social
Alta
Media
Baja
Aprobado
40
20
30
Desaprobado
30
10
40
En la tabla anterior por ejemplo se puede observar que en la casilla
correspondiente a la intersección entre la clase social alta y el resultado
aprobado en la prueba de lenguaje, el valor 40. Esto significa que cuarenta
personas de la clase social alta han aprobado el mencionado examen. Lo mismo
podemos señalar para cada una de las casillas. Por ejemplo, 10 personas de la
clase social media han desaprobado.
16
6.
USO DEL PROGRAMA “ESTADÍSTICO PARA TABLAS DE
CONTINGENCIA”
A continuación presentaremos las instrucciones referidas al uso del presente
programa, así como una breve descripción de los diferentes estadísticos que se
pueden obtener en las tablas de contingencia de doble entrada.
6.1
INICIO DEL ANALISIS
Cuando usted ingrese al programa la primera pantalla que observará se verá
como la siguiente:
17
Allí deberá colocar el nombre de la variable que ira colocada en las columnas y
el de la variable que ira colocada en filas, así como los niveles que pueden
asumir cada una de ellas.
En las casillas de verificación señale el tipo de escala en la cual se han obtenido
los datos. Estas pueden ser: Ambas nominales, una nominal y otra ordinal,
ambas ordinales o ambas dicotomizadas.
Una vez realizado lo anterior haga click sobre la pestaña con el título Tabla ,
la pantalla que usted verá a continuación tendrá una apariencia similar a la del
siguiente gráfico.
18
En esa pantalla usted observará cinco tablas de doble entrada, en la primera de
ellas deberá colocar las frecuencias observadas para cada uno de los niveles de
ambas variables. A medida que usted vaya realizando esta operación en las
tablas de doble entrada siguientes se irá completando automáticamente la
información relacionada con las frecuencias relativas sobre el total de los datos,
las frecuencias relativas sobre la columnas, las frecuencias relativas sobre las
filas y finalmente las frecuencias esperadas conforme a la hipótesis nula (no
asociación entre las variables).
Una vez terminado el ingreso de los datos haga click sobre la pestaña con la
etiqueta Resultados, la pantalla que aparecerá se verá como la siguiente:
En esta pantalla podrá observar los valores calculados para las pruebas
estadísticas de: Chi cuadrada, Phi, C de Pearson, T de Tschrupow y Lambda,
así como el nivel de significancia.
19
6.2
PRUEBAS CON AMBAS VARIABLES NOMINALES
6.2.1
CHI CUADRADA
La prueba Chi cuadrado se utiliza para medir la asociación entre dos variables
medidas en escalas nominales, clasificándose los atributos en tablas de
contingencia.
La hipótesis nula que se prueba es que las variables son independientes.
Generalmente los niveles de significancia menores a 0.05 permiten aceptar la
hipótesis alterna, la cual afirma la relación entre las variables; esto va ha
depender del grado precisión que se desee obtener.
En el gráfico 1 se observan los datos con los cuales se
desea probar la
hipótesis que plantea la posible relación entre las variables sexo y satisfacción
laboral.
Los datos que se hallan en la primera tabla de doble entrada muestran las
frecuencias absolutas para cada uno de los niveles de las variables.
En la segunda tabla de doble entrada se pueden apreciar las frecuencias
relativas sobre el total de los datos, en la tercera tabla se observan las
frecuencias relativas por el total de columnas, en la cuarta tabla se ve las
frecuencias relativas por el total de filas y en la quinta tabla las frecuencias
esperadas conforme a la hipótesis de nulidad.
20
Gráfico 1 : Hoja "Tablas"
21
En el gráfico 2 se pueden observar los resultados obtenidos a partir de los datos
de este ejemplo, en ella se puede observar que el valor de la Chi cuadrada es de
16.67 con un nivel de significancia de 0.00, lo cual estaría indicando que si
existe una asociación significativa entre las variables Sexo y Nivel de
Satisfacción Laboral.
Gráfico 2 : Hoja "Resultados"
22
6.2.2
COEFICIENTE C DE CONTINGENCIA
El Coeficiente de Contingencia “C” es una medida del grado de asociación
entre dos conjuntos de atributos. Los datos deben haber sido medidos en una
escala nominal y las frecuencias ordenadas en tablas de contingencia.
La
manera de comprobar la significancia del Coeficiente “C” de contingencia es
determinando la significancia de Chi Cuadrado, si esta es significativa también
lo es “C”.
En el gráfico 3 se observan los datos ingresados en la tabla de contingencia con
respecto a las variables Nivel de Instrucción y Actitud Religiosa, así como los
resultados de las pruebas de asociación. En este caso se puede observar que el
Coeficiente C tiene un valor de 0.30, el cual si se compara con el Coeficiente C
(0.38) obtenido en el ejemplo de la Chi Cuadrada estaría mostrando que las
variables en este segundo ejemplo se hallan asociadas con menos fuerza.
23
Gráfico 3 : Hoja "Tablas"
24
6.2.3
COEFICIENTE Q DE YULE.
El Coeficiente “Q” de Yule sirve para conocer si dos variables medidas en
escalas nominales u ordinales y ordenadas en tablas de 2x2 son
independientes.
La hipótesis nula es aceptada si el valor de la “Q” de Yule es igual a 0. Los
limites de este coeficiente son ±1, los que se obtienen cuando una de las casillas
es igual a 0, sin embargo, el uso de este coeficiente no es recomendable en
estos casos puesto que da un resultado falso.
6.2.4
COEFICIENTE “PHI” (Φ)
Este coeficiente permite calcular la asociación entre variables medidas en
escalas nominales, ordinales o de intervalo, cuyos datos representan
dicotomías.
El nivel de significancia de
Φ para la aceptación o rechazo de la hipótesis nula
se determina por su relación con Chi Cuadrado.
6.2.5
COEFICIENTE LAMBDA (λ)
El Coeficiente Lambda de Goodman y Kruskal se utiliza para medir la
asociación entre dos variables nominales con dos o más niveles. Este
coeficiente varía de +1 a -1, el primero indica que se pueden hacer predicciones
sin error, ya que este coeficiente se basa en la idea de la ganancia en la
predicción de una variables si el valor de la otra es conocida.
25
6.2.6
EL COEFICIENTE T DE TSCHRUPROW
Este coeficiente permite comparar tablas de diferente tamaño, es decir, es un
coeficiente estandarizado si son cuadradas o con igual n.
El límite superior de T es 1 para tablas cuadradas ( K x K), para tablas m x n, si
m  n  T < 1, para tablas con igual grado de libertad, el valor máximo de T es
el mismo, lo que puede servir como elemento de comparación.
6.2.7
EL COEFICIENTE V DE CRAMER
Este coeficiente se puede aplicar en tablas de contingencia de m*n categorías.
Su cálculo se basa en Chi cuadrado, pretendiendo ser una mejor estadarización
de Chi que la T de Tschuruprow. Sus valores fluctúan entre 0 y 1 para tablas de
m*n, siendo mayor la asociación entre variables cuanto más cercano sea su
valor a 1.
En el caso de tablas de 2x2 se puede calcular la V con una formula alternativa a
la basada en Chi cuadrado, que da valores entre –1 y 1, pudiendo hablarse en
este caso de relaciones directas e inversas entre ambas variables.
26
6.3
PRUEBAS
CON
UNA
VARIABLE
NOMINAL
Y
OTRA
ORDINAL.
6.3.1
COEFICIENTE “PHI” (Φ)
En estos casos también se puede aplicar el coeficiente phi, obteniendose valores
entre 0 y 1.
6.3.2
COEFICIENTE  WILCOXON
Este coeficiente corresponde al concepto de reducción proporcional del error
como medida predictiva. Se basa en la diferencia de información entre la tabla
global (marginales) y su desglose en niveles marcados por la variable ordinal.
Los valores cercanos a cero nos indican que predecir los valores de una variable
a partir de la otra no da mejores resulatados que una clasificación
completamente aleatoria.
6.4
6.4.1
PRUEBAS CON AMBAS VARIABLES ORDINALES
TAU A DE KENDALL
El Coeficiente tau a de Kendall varia entre –1 y +1, el valor de cero indica la
incapacidad de una variable para reducir los errores que cabría esperar al
distribuir al azar los valores de la otra variable.
Kendall definió este coeficiente como un calculo de la diferencia entre los pares
semejantes y desemejantes en relación a todos los pares posibles.
27
Cuando la asociación es negativa el coeficiente va acompañado de signo
negativos, mientras que el signo positivo indica una asociación positiva.
En el gráfico 4 se observan los resultados obtenidos a partir del ordenamiento
realizado por dos observadores en un ranking de 1 a 5.
El signo positivo del coeficiente estaría indicando que la asociación es positiva.
En el ejemplo un coeficiente cercano a cero (0.05) estaría indicando que la
predicción del ordenamiento de un observador a partir del ordenamiento del
otro no sería muy superior al que se obtendría considerando una distribución al
azar.
Gráfico 4 : Hoja "Resultados"
28
6.4.2
EL COEFICIENTE d DE SOMMERS
Este Coeficiente se utiliza para conocer la reducción proporcional en los errores
que se cometen al predecir el ordenamiento de los casos en una variable
dependiente cuando se tiene en cuenta el ordenamiento de los casos en la
variable independiente. Los valores de este coeficiente pueden variar al tomarse
de una misma tabla, dependiendo de sí una variable es considerada como
dependiente o independiente.
En el gráfico 4, un valor de 0.07 para la d de Sommer estaría indicando que la
reducción del error que se comete al realizar la predicción considerando las
filas como variable independiente es de 7%. Si se considera a las columnas
como variable independiente en este ejemplo también se puede considerar que
el porcentaje del error que se reduce al predecir las filas es también de 7%.
6.4.3
TAU B DE KENDALL
El coeficiente tau b de Kendall permite encontrar el grado de asociación en
variables que se hallen asociadas asimétricamente
teniendo en cuenta los
empates que se tengan en una u otra variable, pero no los empates que se
forman en ambas. Este coeficiente puede considerarse como un promedio de
los dos coeficientes de sommers, los cuales se calculan a partir de la misma
tabla.
El coeficiente tau b puede tomar valores que oscilan entre –1 y +1, según el
sentido de la asociación, pero cuando la tabla no es cuadrada este coeficiente no
puede asumir el valor de extremo dado que cuando hay un número diferente de
29
filas que de columnas existirán más pares empatados en una variable ( la que
tiene menos categorías) que en la otra variable.
En el ejemplo mostrado en el gráfico 4 se puede observar que el coeficiente tau
b de Kendall es de 0.07, el cual se interpretaría como la existencia de una
asociación positiva, pero con una asociación sumamente debil.
6.5
6.5.1
PRUEBAS CON VARIABLES DICOTOMIZADAS
COEFICIENTE DE CORRELACIÓN TETRACÓRICO
Este coeficiente mide el grado de asociación en el caso de que se analicen dos
variables dicotomizadas provenientes de escalas de intervalo o de razón, en las
cuales existe una continuidad, aunque también puede usarse en el caso de
variables provenientes de escalas ordinales con rango superior a cinco.
El coeficiente de correlación tetracórico varía entre –1 y +1 y se interpreta
como el coeficiente de correlación r de Pearson.
30
Gráfico 5 : Hoja "Tablas"
En el gráfico 5 se observan los datos correspondientes a las variables
dicotomizadas neuroticismo y necesidad de logro.
El valor del coeficiente rt de correlación tetracórico para los datos mostrados es
de –0.26, como se puede apreciar en el gráfico 6.
31
Gráfico 6 : Hoja "Resultados"
7.
32
7. REFERENCIAS
ALARCÓN.
R.
(1991)
Métodos
y
Diseños
de
Investigación
del
Comportamiento. Lima. Fondo Editorial universidad Peruana Cayetano
Heredia.
AMON, J. (1993-96) Estadística para psicólogos. Madrid: Pirámide.
CALZADA, J. (1966) Estadística General con Énfasis en Muestreo. Lima:
Jurídica.
CRAMMER, H. (1963) Métodos Matemáticos de Estadística. Madridi. Aguilar.
DAVIES, O. (1960) Métodos estadísticos Aplicados a la Investigación y a la
Producción. Madrid: Aguilar.
ELORZA, H. (1987) Estadística para Ciencias del Comportamiento. México:
Harla.
EVERITT, B. (1996) Making Sense of Statistics in Psychology. Oxford:
Oxford University Press.
GARRET, H. (1971) Estad´pistica en psicología y Educación. Buenos Aires:
Paidós.
GUILFORD, J.P. y FUCHTER, B. (1986) Estadística Aplicada a la Psicología
y la Educación. México: MCGraw Hill.
HAYS, W. (1973) Statistics for the Social Science. Londrwes: Holt, Rinehart y
Winston.
MARTINEZ, C. (1997) Estadística y Muestreo. 8ª ed. Bogotá. Fondo
Educativo Interamericano.
PARDO,A y SAN MARTÍN, R. (1999) Análisis de datos en Psicología II.
Madrid. Pirámide
PEREZ, F.J. y otros. (1999) Análisis de Datos en Psicología. Madrid: Pirámide.
SIEGEL, S. (1991) Estadística No Paramétrica. México: Trillas.
33
Descargar