10. Describiendo relaciones entre dos variables A menudo nos va a interesar describir la relación o asociación entre dos variables. Como siempre la metodología va a depender del tipo de variable que queremos describir. Primero vamos a estudiar cómo describir la relación entre dos variables cuantitativas y luego cómo describir la relación entre dos variables cualitativas. 10.1 Describiendo relaciones entre dos variables cuantitativas Para mostrar graficamente la relación entre dos variables cuantitativas usaremos un gráfico llamado de dispersión o de xy. Gráfico de Dispersión de Notas en la Prueba 1 versus Notas en la Prueba Final Acumulativa de un curso de 25 alumnos de Estadística en la UTAL 7 Estudiante 16 (6.2, 5.7) 6 5 4 Examen 3 2 1 1 2 3 4 5 6 7 Prueba 1 ID P1 Ex a) 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 1.7 3.8 5.1 5.6 5.0 5.7 2.1 3.7 3.8 4.1 3.4 4.4 6.8 5.1 4.3 6.2 5.9 5.4 4.1 6.2 5.2 4.6 4.9 5.9 5.5 3.5 3.2 3.5 5.2 4.9 3.7 3.6 4.5 4.0 3.6 4.4 3.3 5.5 3.9 4.6 5.7 4.3 4.1 5.0 3.8 4.4 4.0 4.5 3.4 4.5 Encuentre el estudiante número 19 en el gráfico b) Suponga que otro estudiante tuvo un 5.0 en la primera prueba y un 5.5 en la prueba final acumulativa o Examen. Agregue este punto en el gráfico. Al igual que cuando estudiamos los histogramas, tallos y hojas y otros gráficos, ahora nos va interesar describir la forma del gráfico. Específicamente en este caso particular de gráficos de dispersión, nos va interesar la dirección, forma y grado de asociación entre dos variables cuantitativas. Por dirección, diremos que dos variables están asociadas positivamente cuando a mayor valor de una variable el valor de la otra variable también aumenta, como se muestra en la figura A. Dos variables estarán negativamente asociadas cuando a mayor valor de una variable el valor de la otra variable disminuye, como se muestra en la figura B. La forma de una asociación puede ser además lineal, curva, cuadrática, estacional o cíclica, o quizás no tenga una forma definida. En la figura A podemos decir que la relación es lineal. En cambio en las figuras B y D parece no lineal. Por último la figura C muestra que no hay asociación. Por el grado de asociación entendemos cuán cerca están los datos de una forma dada. Por ejemplo, en la figura B se ve que existe un alto grado de asociación no lineal entre los datos. En este punto debemos tener cuidado, porque cambios de escala pueden cambiar la figura y nos pueden llevar a conclusiones erróneas. Más adelante discutiremos sobre una medida de asociación llamada el coeficiente de correlación. Por último, al mirar un gráfico de dispersión nos van a interesar puntos que aparecen lejos o desviados del patrón general del gráfico. En la figura A, el punto (21, 39) está lejos del resto de los puntos, sin embargo parece seguir el patrón general del gráfico. Como resumen de las figuras tenemos lo siguiente: Figura A: muestra un grado de asociación intermedio, positivo y lineal. Figura B: muestra un grado de asociación fuerte, negativo y no lineal o curvo. Figura C: muestra que no hay asociación entre las variables. Figura D: muestra un grado de asociación muy fuerte y no lineal o cuadrático. Figure B: Negative Association Figure A: Positive Association 100 90 80 70 60 50 40 30 100 90 80 70 60 50 40 10 20 30 40 50 30 10 X 20 30 40 50 X Figure C: No Linear Association Figure D: No Linear Association 100 90 80 70 60 50 40 30 100 90 80 70 60 50 10 20 30 40 X 50 40 30 10 20 30 X Interprete el gráfico de las notas anterior. 40 50 Correlación: ¿Cuán fuerte es la relación lineal? Definición: El coeficiente de correlación muestral r mide el grado de asociación lineal entre dos variables cuantitativas. Describe la dirección de la asociación lineal e indica cuán cerca están los puntos a una línea recta en el diagrama de dispersión. El coeficiente de correlación muestral Características: r = ρ̂ es un estimador puntual de la correlación poblacional ρ (parámetro) −1 ≤ r ≤ + 1 1. Rango: 2. Signo: El signo de coeficiente de correlación indica la dirección de la asociación La dirección será negativa si el r está en el intervalo [-1 , 0) La dirección será positiva si el r está en el intervalo (0 , +1]. 3. Magnitud: La magnitud del coeficiente de correlación indica el grado de la relación lineal Si los datos están linealmente asociados r = +1 o r = −1 indican una relación lineal perfecta. Si r = 0 entonces no existe relación lineal. 4. Medida de asociación: la correlación sólo mide el grado de asociación lineal. 5. Unidad: La correlación se calcula usando las dos variables cuantitativas estandarizadas. Por lo que r no tiene unidad y tampoco cambia si cambiamos la unidad de medida de x o y. La correlación entre x e y es la misma que la correlación entre y y x. y x x x x x x y x x y x x x x x x x x x x x x x x x x x x x x x x x x x x x x x r ≈ −0. 2 r ≈ 0. 8 x r=0 x Juntemos los gráficos con r Graph A: ___________ Graph B: ___________ y y x Graph C: ___________ x Graph D: ___________ y y x r=0 r = +1 r = -1 r = 0.6 x r = -0.2 r = -0.8 r= 0.1 3 ¿Cómo se calcula el coeficiente de correlación r?: r= x − x y − y 1 ∑ (n − 1) s X sY Ejemplo: Correlación entre Test 1 y Test 2 Test 1 8 10 12 14 16 Test 2 9 13 14 15 19 20 18 Test 2 16 14 12 10 8 8 10 12 14 16 Test 1 x = 12 s x = 3,16227766 y = 14 s y = 3,605551275 Salida de SPSS: Correlaciones Test 2 Test 1 Correlación de Pearson Test 2 1.000 .965 Test 1 .965 1.000 Sig. (unilateral) Test 2 . .004 Test 1 .004 . Test 2 5 5 Test 1 5 5 N 4 * La Tabla adjunta presenta 4 bases de datos preparadas por el estadístico Frank Ascombe x y1 10 8.04 8 6.95 13 7.58 9 11 14 6 4 12 7 5 8.81 8.33 9.96 7.24 4.26 10.84 4.82 5.68 x y2 10 9.14 8 8.14 13 8.74 9 11 8.77 9.26 x y3 10 7.46 x4 y4 8 6.58 4 3.1 12 7 5 9.13 7.26 4.74 8 13 6.77 12.74 9 11 14 6 4 7.11 7.81 8.84 6.08 5.39 12 7 5 8.15 6.42 5.73 8 5.76 8 8 8 8 8 8.84 8.47 7.04 5.25 5.56 8 8 19 7.91 6.89 12.5 8 7.71 14 6 8.1 6.13 Describa los coeficientes de correlación adjuntos. ¿Cuáles son sus conclusiones? Correlaciones X X Y1 Y2 Y3 X4 Y4 Correlación de Pearson Sig. (bilateral) N Correlación de Pearson Sig. (bilateral) N Correlación de Pearson Sig. (bilateral) N Correlación de Pearson Sig. (bilateral) N Correlación de Pearson Sig. (bilateral) N Correlación de Pearson Sig. (bilateral) N 1 . 11 .816** .002 11 .816** .002 11 .816** .002 11 -.400 .223 11 .003 .993 11 Y1 .816** .002 11 1 . 11 .750** .008 11 .469 .146 11 -.297 .375 11 .065 .849 11 Y2 .816** .002 11 .750** .008 11 1 . 11 .588 .057 11 -.451 .164 11 -.014 .966 11 Y3 .816** .002 11 .469 .146 11 .588 .057 11 1 . 11 -.289 .389 11 .023 .947 11 X4 -.400 .223 11 -.297 .375 11 -.451 .164 11 -.289 .389 11 1 . 11 .817** .002 11 Y4 .003 .993 11 .065 .849 11 -.014 .966 11 .023 .947 11 .817** .002 11 1 . 11 **. La correlación es significativa al nivel 0,01 (bilateral). Ahora revise los gráficos de dispersión. ¿Mantiene sus conclusiones anteriores? * Anscombe, F. (1973) "Graphs in statistical analysis", The American Statistician, 27: 17-21. 5 10 10 9 9 8 8 7 7 6 6 5 5 4 Y2 Y1 11 4 2 4 6 8 10 12 14 3 16 2 14 14 12 12 10 10 8 8 6 6 4 2 X 4 6 8 10 12 14 16 8 10 12 14 16 18 20 X Y4 Y3 X 4 6 8 10 12 14 16 4 6 X4 6 Regresión Lineal Simple Como ya hemos visto muchos estudios son diseñados para investigar la asociación entre dos o más variables. Muchas veces intentamos relacionar una variable explicativa con una variable respuesta. Los datos que se usan para estudiar la relación entre dos variables se llaman datos bivariados. Datos bivariados se obtienen cuando medimos ambas variables en el mismo individuo. Suponga que está interesado en estudiar la relación entre las notas de la primera prueba y las notas finales. Entonces las notas en la primera prueba corresponderían a la variable explicativa o independiente x y las notas finales sería la variable respuesta o dependiente y. Estas dos variables son de tipo cuantitativo. Si el gráfico de dispersión nos muestra una asociación lineal entre dos variables de interés, entonces buscaremos una línea recta que describa la relación, la llamaremos recta de regresión. Un poco de historia El nombre de regresión deriva de los estudios de herencia de Galton, quien en 1886* publica la ley de la "regresión universal". En sus estudios Galton encontró que había una relación directa entre la estatura de padres e hijos. Sin embargo, el promedio de estatura de hijos de padres muy altos era inferior al de sus padres y, el de hijos de padres muy bajos, era superior al de los padres, regresando a una media poblacional. Un ejemplo: se seleccionó a 7 alumnas de la carrera de Psicología del año 2003 que nos dieron sus datos de estatura (en cms) y de peso (en kilos). 58 56 peso 54 52 50 48 154 Estatura Peso 155 48 156 158 157 48 160 162 164 estatura 159 51 162 55 166 168 165 53 170 168 55 169 57 * Galton, F. (1886) "Regression Towards Mediocrity in Hereditary Stature," Journal of the Anthropological Institute, 15:246-263 (http://www.mugu.com/galton/essays/1880-1889/galton-1886-jaigi-regression-stature.pdf) 7 Ajustando una recta a los datos: Si queremos describir los datos con una recta tenemos que buscar la "mejor", porque no será posible que la recta pase por todos los puntos. Ajustar una recta significa buscar la recta que pase lo más cerca posible de todos los puntos. Ecuación de la recta: Suponga que y es la variable respuesta (eje vertical) y x es la variable explicativa (eje horizontal). Una línea recta y con x a través de la ecuación: y = a + bx En la ecuación, b es la pendiente, cuanto cambia y cuando x relaciona a aumenta en una unidad. La pendiente puede tener signo positivo, negativo o valor cero. El número a es el intercepto, el valor de y cuando x se iguala a cero. b=0 b negativo b positivo y a b b a b=0 a 1 2 1 3 2 3 Si queremos relacionar al peso con la estatura entonces la línea recta será: peso = a + b × estatura La recta de regresión que resume el peso con la estatura es: peso = −45,276 + 0,603 × estatura 58 56 peso 54 52 50 48 154 156 158 160 162 164 estatura 166 168 170 La figura muestra que la línea ajusta más o menos bien a los datos. La pendiente b = 0,603 nos dice que el peso de este grupo aumenta en 0,603 kilos por cada centímetro de estatura. La pendiente b es la tasa de cambio en la respuesta y cuando x cambia. La pendiente de la recta de regresión es una descripción numérica importante de la relación entre dos variables. El intercepto es a = −45,276 , que sería el peso si la estatura fuera cero. En este caso, el cero de estatura no tiene sentido, así es que tomaremos al intercepto sólo como parte de la ecuación. 8 Regresión de mínimos cuadrados∗ Necesitamos una forma objetiva de obtener una recta y que esta pase por la mayoría de los puntos. Definición: La recta de regresión de mínimos cuadrados, dada por y $=a cuadrados de las desviaciones verticales de los datos a la recta, donde b= ∑ (x − x )( y − y ) ∑ (x − x ) i i 2 y + bx , es la recta que hace mínima la suma de los a = y − bx i Una forma fácil de calcular la pendiente es: b=r sY donde s y es la desviación estándar de las respuestas y s x es la sX desviación estándar de la variable explicativa. Ejemplo: Test 1 vs Test 2 Test 1 Test 2 8 9 10 13 12 14 14 15 16 19 20 18 Test 2 16 14 12 10 8 8 10 12 14 16 Test 1 Podemos usar los cálculos de la correlación para calcular la pendiente: b=r sy sx = 0,96476 × 3,605551275 = 1,1 y 3,16227766 a = y − bx = 14 − 1,1×12 = 0,8 Con estos valores podemos construir la recta de regresión de mínimos cuadrados: yˆ = 0,8 + 1,1x . Interpretación de los coeficientes de regresión: Pendiente: b = 1,1 ==> cada punto en el test 1, significa un aumento de 1,1 puntos en el test 2 en promedio. a = 0,8 ==> Si asignamos el valor cero puntos al Test 1, el Test 2 tendría un valor de 0,8 puntos. Intercepto: Si usamos la recta de regresión, podemos predecir que un estudiante que tiene 15 puntos en el Test 1 tendrá yˆ = 0,8 + 1,1(15) = 17,3 puntos en el Test 2. ∗ El método de mínimos cuadrados fue publicado por el matemático francés Adrien Legendre (1752-1833) en 1805. Este método es una de las herramientas estadísticas más usadas. 9 Definición: Un residuo es la diferencia entre la respuesta observada, y , y la respuesta que predice la recta de regresión, de observaciones (xi , yi ) , es decir, cada punto en el gráfico de dispersión, genera un residuo: residuo = ŷ . Cada par y observado − y estimado El i-ésimo residuo = ei = yi − yˆ i = yi − (a + bxi ) Predicción: Podemos usar la recta de regresión para predicción substituyendo el valor de resultante. En el ejemplo de las estaturas: yˆ = −45,276 + 0,603 x . x en la ecuación y calculando el valor ŷ La exactitud de las predicciones de la recta de regresión depende de que tan dispersos estén las observaciones alrededor de la recta (ajuste). Extrapolación Extrapolación es el uso de la recta de regresión para predecir fuera del rango de valores de la variable explicativa x . Este tipo de predicciones son a menudo poco precisas. Por ejemplo los datos de peso y estatura fueron tomados de un grupo de alumnas de psicología del año 2003 que tenían entre 18 y 23 años. ¿Cuanto debe haber pesado una persona si al nacer midió 45 centímetros? "No deje que los cálculos invadan su sentido común". (Moore, 1989) Tarea: Calcular los residuos de la regresión, ¿cuánto vale la suma de los residuos? Los residuos muestran cuán lejos están los datos de la línea de regresión ajustada, examinar los residuos nos ayuda a saber qué tan bien describe la recta a los datos. Los residuos que se generan a partir del método de mínimos cuadrados tienen una propiedad básica: el promedio de los residuos es siempre cero. Volvamos al ejercicio con las estaturas y pesos de 7 alumnas. La recta de regresión la podemos calcular usando el SPSS con la salida: Coeficientes(a) Coeficientes no estandarizados Modelo B 1 (Constante) estatura Error típ. -45.276 18.496 .603 .114 Coeficientes estandarizados t Sig. Beta .921 -2.448 .058 5.285 .003 a Variable dependiente: peso También podemos hacer un gráfico con los residuos versus la variable explicativa. El gráfico de los residuos magnifica las desviaciones de los datos a la recta, lo que ayuda a detectar problemas con el ajuste. Si la recta de regresión se ajusta bien a los datos no deberíamos detectar ningún patrón en los residuos. La figura A adjunta muestra un gráfico de residuos típico, generalmente se dibuja la una línea horizontal en el cero. La figura B en cambio muestra que la relación entre x e y es no lineal, por lo tanto una línea recta no es buena descripción de la asociación. La figura C muestra residuos en forma de embudo muestra que la variación de y alrededor de x aumenta cuando x aumenta. 10 Figura A: Figura B: Figura C: FISICA Los estudiantes de una clase de Física están estudiando la caída libre para determinar la relación entre la distancia desde que un objeto cae y el tiempo que demora en caer. Se muestra el gráfico de dispersión de los datos obtenidos, y el gráfico de residuos. Basado en estos gráficos, ¿le parece apropiado un modelo de regresión lineal? 11 Puntos influyentes y extremos Un punto extremo es una observación que está lejos de la línea recta, lo que produce un residuo grande, positivo o negativo. Un punto es influyente si al sacarlo produce un cambio notorio en la recta de regresión. Considere el siguiente conjunto de datos I y su gráfico de dispersión correspondiente. y 1 1 2 2.5 3 3.5 4 4 4.5 5 5 5.5 2 1 2 1.5 2.5 3 3 3.5 4 4 5 6 6 6 Punto A 6 5 4 y x 3 2 1 1 2 3 4 5 6 x y El punto A produce un residuo grande, parece ser un punto extremo. 8 Sin embargo, no es influyente, ya que al sacarlo la recta de regresión no cambia mucho. Punto A 6 Línea que incluye A Y=0,958+0,81X 5*X, 4 2 Línea sin A Y=0,036+1,002X 0 0 1 2 3 4 5 6 x 12 Considere ahora el siguiente conjunto de datos II y su gráfico de dispersión: y Punto B 7 3 2 3 4 1 2 1 2 3 2 1 7 1 1.5 2 2 2.5 2.5 3 3 3 3.5 4 7 6 5 y x 4 3 2 1 1 2 3 4 5 6 7 x Línea con B Punto B no produce un residuo grande. Sin embargo, el punto B es muy influyente ya que la sacarlo del análisis la línea recta cambia totalmente. Y=0,886+0,582X 8 Punto B 6 El Punto B es influyente, pero no extremo. Y 4 Línea sin B Y=3,694-0,594X 2 0 0 2 4 X 6 8 13 Inferencia en Regresión Lineal Simple Modelo de regresión lineal simple: Se tienen n observaciones de una variable explicativa x y de una variable respuesta y, (x1 , y1 ), (x 2 , y 2 ), ..., (x n , y n ) el modelo estadístico de regresión lineal simple es: yi = α + β xi + ei donde µ y = E (Y ) = α + βx α β es la respuesta promedio para cada x. representa el intercepto de la función lineal que usa todos los valores de la población y representa la pendiente de la función lineal que usa todos los valores de la población. α y β son parámetros El modelo estadístico de regresión lineal simple asume que para cada valor de x, los valores de la respuesta y son normales con media (que depende de x) y desviación estándar σ que no depende de x. Esta desviación estándar σ es la desviación estándar de todos los valores de y en la población para un mismo valor de x. Estos supuestos se pueden resumir como: Para cada x, Y ~ N (µ y , σ ) donde µ y = E (Y ) = α + βx Podemos visualizar el modelo con la siguiente figura: Los datos nos darán estimadores puntuales de los parámetros poblacionales. 14 Estimadores de los parámetros de regresión: El estimador de la respuesta media está dado por E (Y ) = yˆ = a + bx El estimador del intercepto es: α̂ = a El estimador de la pendiente es: β̂ = b El estimador de la desviación estándar σ está dado por: σˆ = SCRes donde SCRes es la suma de cuadrados de los residuos n−2 El coeficiente de correlación muestral r = ρ̂ ∑ (y i − yˆ i ) 2 = ∑ ei 2 es un estimador puntual de la correlación poblacional ρ Probando la hipótesis acerca de la existencia de relación lineal En el modelo de regresión lineal simple => E (Y ) = α linealmente y la respuesta es una constante E(Y) = α . + βx . Si β = 0 entonces las variables x e y no están asociadas E(Y) = α Es decir, conocer el valor de x no nos va a ayudar a conocer y. Para docimar la significancia de la relación lineal realizamos el test de hipótesis Ho: β = 0 (la pendiente de la recta de regresión en la población es cero) H1: β ≠ 0 Existen hipótesis de una cola, donde H1: β < 0 o H1: β > 0, pero lo usual es hacer el test bilateral. Para docimar la hipótesis podemos usar el test t: t= El estimador puntual de β estimador puntual − valor hipotético error estándar del estimador es b, y el valor hipotético es 0. El error estándar de b es: EE (b) = σˆ ∑ (x i − x) 2 El estadístico para docimar la hipótesis acerca de la pendiente de la población es: t= b−0 ~ t (n − 2) EE (b) 15 Revisemos la salida de SPSS: Coeficientes(a) Modelo Coeficientes no estandarizados Coeficientes estandarizados 1 (Constante) B .800 Error típ. 2.135 Test 1 1.100 .173 t Sig. Beta .965 Intervalo de confianza para B al 95% .375 .733 Límite inferior -5.996 6.351 .008 .549 Límite superior 7.596 1.651 a Variable dependiente: Test 2 Verificando supuestos en la Regresión lineal simple 1. Examine el gráfico de dispersión de y versus x para decidir si el modelo lineal parece razonable. Se asume que la respuesta Y es Normal con media E(Y) = α + βx y desviación estándar σ. Para cada x, Y es N(E(Y), σ ) donde E(Y) = α + βx El modelo que describe la respuesta Y es: Y = α + βx + ε. Los ε's son los verdaderos términos de error (que no observamos). Estos errores se suponen normales con media cero desviación estándar σ. No podemos "ver" estos errores pero tenemos una estimación de ellos mediante los residuos. 2. Examine los residuos para verificar los supuestos acerca del término del error. Los residuos deben ser una muestra aleatoria de una población normal con media 0 y desviación estándar σ. Cuando examine los residuos verifique: a) que provienen de una muestra aleatoria: Grafique los residuos versus x. El supuesto de que provienen de una muestra aleatoria será razonable si el gráfico muestra los puntos al azar, sin una forma definida. A veces es posible detectar falta de independencia cuando los datos recogidos en el tiempo. Para verificar este supuesto grafique los residuos versus el tiempo y los puntos no deben mostrar una distribución definida. b) Normalidad Para verificar normalidad haga el histograma de los residuos, este debería aparecer como normal sin valores extremos si tenemos un número grande de observaciones. En el caso de tener pocas observaciones puede hacer un gráfico de tallo y hoja y verificar que no haya observaciones extremas. 16 c) desviación estándar común (que no depende de x) El gráfico de los residuos versus x, debe tener aproximadamente una banda del mismo ancho. El gráfico de abajo muestra evidencia de que la variabilidad en la respuesta tiende a aumentar cuando x aumenta. Ejemplo: Se conduce un experimento en 12 sujetos para analizar si la dosis de cierta droga (en ml) está relacionada con el tiempo de reacción a un estímulo en segundos. Droga (ml) Tiempo (segs) 1,0 1,5 2,0 2,5 3,0 3,5 4,0 4,5 5,0 5,5 6,0 6,5 1,0 0,8 1,8 1,4 2,1 1,8 2,2 3,0 2,75 3,0 4,1 4,9 Gráfico de dispersión del tiempo de reacción a estímulo versus dosis de droga: 5 4 Tiempo de reacción (seg) 3 2 1 0 0 1 2 3 4 5 6 7 Dosis de droga (ml) ANOVAb Modelo 1 Regresión Residual Total Suma de cuadrados 14.430 1.923 16.352 gl 1 10 11 Media cuadrática 14.430 .192 F 75.048 Sig. .000a a. Variables predictoras: (Constante), Dosis de droga (ml) b. Variable dependiente: Tiempo de reacción (seg) 17 .8 .6 .4 Unstandardized Residual .2 -.0 -.2 -.4 -.6 0 1 2 3 4 5 6 7 Dosis de droga (ml) Unstandardized Residual Stem-and-Leaf Plot Frequency 1.00 5.00 4.00 2.00 Stem width: Each leaf: Stem & -0 -0 0 0 . . . . Leaf 5 12344 1123 57 1.00000 1 case(s) Notas: - La asociación entre una variable explicativa x y una variable respuesta y, aunque sea muy fuerte, no es por sí sola evidencia de que los cambios en x causan cambios en y. - Un coeficiente de correlación es el resumen de la relación presente en un gráfico de dispersión. Conviene, pues, asegurarse mirando este gráfico que el coeficiente es un buen resumen del mismo. Tratar de interpretar un coeficiente de correlación sin haber visto previamente el gráfico de las variables puede ser muy peligroso (Peña, Romo, p.129). - Como hemos visto el coeficiente de correlación es un resumen del gráfico de dispersión entre dos variables. La recta de regresión es otra manera de resumir esta información, y su parámetro fundamental, la pendiente, está relacionado con el coeficiente de correlación por la ecuación: b = r sY . La diferencia entre regresión y correlación es que en el cálculo de sX la correlación ambas variables se tratan simétricamente, mientras que en la regresión, no. En regresión se trata de prever la variable respuesta en función de los valores de la variable explicativa. En consecuencia, si cambiamos el papel de las variables cambiará también la ecuación de regresión, porque la recta se adaptará a las unidades de la variable que se desea predecir (Peña, Romo, p.142). 18