Post on 02-Oct-2018
10. Describiendo relaciones entre dos variables
A menudo nos va a interesar describir la relación o asociación entre dos variables. Como siempre la metodología va
a depender del tipo de variable que queremos describir. Primero vamos a estudiar cómo describir la relación entre
dos variables cuantitativas y luego cómo describir la relación entre dos variables cualitativas.
10.1 Describiendo relaciones entre dos variables cuantitativas
Para mostrar graficamente la relación entre dos variables cuantitativas usaremos un gráfico llamado de dispersión o
de xy.
Gráfico de Dispersión de Notas en la Prueba 1 versus
Notas en la Prueba Final Acumulativa de un curso de 25 alumnos de Estadística en la UTAL
Prueba 1
7654321
Examen
7
6
5
4
3
2
1
ID 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25
P1 1.7 3.8 5.1 5.6 5.0 5.7 2.1 3.7 3.8 4.1 3.4 4.4 6.8 5.1 4.3 6.2 5.9 5.4 4.1 6.2 5.2 4.6 4.9 5.9 5.5
Ex 3.5 3.2 3.5 5.2 4.9 3.7 3.6 4.5 4.0 3.6 4.4 3.3 5.5 3.9 4.6 5.7 4.3 4.1 5.0 3.8 4.4 4.0 4.5 3.4 4.5
a) Encuentre el estudiante número 19 en el gráfico
b) Suponga que otro estudiante tuvo un 5.0 en la primera prueba y un 5.5 en la prueba final acumulativa o
Examen. Agregue este punto en el gráfico.
Al igual que cuando estudiamos los histogramas, tallos y hojas y otros gráficos, ahora nos va interesar describir la
forma del gráfico. Específicamente en este caso particular de gráficos de dispersión, nos va interesar la dirección,
forma y grado de asociación entre dos variables cuantitativas. Por dirección, diremos que dos variables están
asociadas positivamente cuando a mayor valor de una variable el valor de la otra variable también aumenta, como se
muestra en la figura A. Dos variables estarán negativamente asociadas cuando a mayor valor de una variable el valor
de la otra variable disminuye, como se muestra en la figura B.
La forma de una asociación puede ser además lineal, curva, cuadrática, estacional o cíclica, o quizás no tenga una
forma definida. En la figura A podemos decir que la relación es lineal. En cambio en las figuras B y D parece no
lineal. Por último la figura C muestra que no hay asociación.
Por el grado de asociación entendemos cuán cerca están los datos de una forma dada. Por ejemplo, en la figura B se
ve que existe un alto grado de asociación no lineal entre los datos. En este punto debemos tener cuidado, porque
cambios de escala pueden cambiar la figura y nos pueden llevar a conclusiones erróneas. Más adelante discutiremos
sobre una medida de asociación llamada el coeficiente de correlación.
Estudiante 16
(6.2, 5.7)
Por último, al mirar un gráfico de dispersión nos van a interesar puntos que aparecen lejos o desviados del patrón
general del gráfico. En la figura A, el punto (21, 39) está lejos del resto de los puntos, sin embargo parece seguir el
patrón general del gráfico.
Como resumen de las figuras tenemos lo siguiente:
Figura A: muestra un grado de asociación intermedio, positivo y lineal.
Figura B: muestra un grado de asociación fuerte, negativo y no lineal o curvo.
Figura C: muestra que no hay asociación entre las variables.
Figura D: muestra un grado de asociación muy fuerte y no lineal o cuadrático.
Figure A: Positive Association
X
30
40
50
60
70
80
90
100
10 20 30 40 50
Figure C: No Linear Association
X
30
40
50
60
70
80
90
100
10 20 30 40 50
Figure B: Negative Association
X
30
40
50
60
70
80
90
100
10 20 30 40 50
Figure D: No Linear Association
X
30
40
50
60
70
80
90
100
10 20 30 40 50
Interprete el gráfico de las notas anterior.
3
Correlación: ¿Cuán fuerte es la relación lineal?
Definición:
El coeficiente de correlación muestral r mide el grado de asociación lineal entre dos variables cuantitativas. Describe la
dirección de la asociación lineal e indica cuán cerca están los puntos a una línea recta en el diagrama de dispersión.
El coeficiente de correlación muestral ρ=r es un estimador puntual de la correlación poblacional ρ (parámetro)
Características:
1. Rango: − ≤ ≤ +1 1r
2. Signo: El signo de coeficiente de correlación indica la dirección de la asociación
La dirección será negativa si el r está en el intervalo [-1 , 0)
La dirección será positiva si el r está en el intervalo (0 , +1].
3. Magnitud: La magnitud del coeficiente de correlación indica el grado de la relación lineal
Si los datos están linealmente asociados r = +1 o r = −1 indican una relación lineal perfecta. Si r = 0 entonces no existe relación lineal.
4. Medida de asociación: la correlación sólo mide el grado de asociación lineal.
5. Unidad: La correlación se calcula usando las dos variables cuantitativas estandarizadas. Por lo que r no tiene
unidad y tampoco cambia si cambiamos la unidad de medida de x o y. La correlación entre x e y es la misma que la
correlación entre y y x.
y
x
x x
x
x
xx
x
x x
xx
x
xx
y
x
x x
x
x
xx
x
x
x
x
x
x
x
x
y
x
x
x
xx x
x
x
x
r ≈ 0 8. r ≈ −0 2. r = 0
Juntemos los gráficos con r
x
y
x
y
x
y
x
y
Graph A: ___________ Graph B: ___________
Graph C: ___________ Graph D: ___________
r = 0 r = +1 r = -1 r = 0.6 r = -0.2 r = -0.8 r= 0.1
4
¿Cómo se calcula el coeficiente de correlación r?:
∑
−
−−
=YX s
yy
s
xx
nr
)1(
1
Ejemplo: Correlación entre Test 1 y Test 2
Test 1 Test 2
8 9
10 13
12 14
14 15
16 19
8 10 12 14 16
Test 1
8
10
12
14
16
18
20
Test 2
12=x 16227766,3=xs 14=y 605551275,3=ys
Salida de SPSS: Correlaciones
Test 2 Test 1
Test 2 1.000 .965 Correlación de Pearson Test 1 .965 1.000
Test 2 . .004 Sig. (unilateral)
Test 1 .004 .
Test 2 5 5 N
Test 1 5 5
5
La Tabla adjunta presenta 4 bases de datos preparadas por el estadístico Frank Ascombe*
x 10 8 13 9 11 14 6 4 12 7 5
y1 8.04 6.95 7.58 8.81 8.33 9.96 7.24 4.26 10.84 4.82 5.68
x 10 8 13 9 11 14 6 4 12 7 5
y2 9.14 8.14 8.74 8.77 9.26 8.1 6.13 3.1 9.13 7.26 4.74
x 10 8 13 9 11 14 6 4 12 7 5
y3 7.46 6.77 12.74 7.11 7.81 8.84 6.08 5.39 8.15 6.42 5.73
x4 8 8 8 8 8 8 8 8 8 8 19
y4 6.58 5.76 7.71 8.84 8.47 7.04 5.25 5.56 7.91 6.89 12.5
Describa los coeficientes de correlación adjuntos. ¿Cuáles son sus conclusiones?
Correlaciones
1 .816** .816** .816** -.400 .003
. .002 .002 .002 .223 .993
11 11 11 11 11 11
.816** 1 .750** .469 -.297 .065
.002 . .008 .146 .375 .849
11 11 11 11 11 11
.816** .750** 1 .588 -.451 -.014
.002 .008 . .057 .164 .966
11 11 11 11 11 11
.816** .469 .588 1 -.289 .023
.002 .146 .057 . .389 .947
11 11 11 11 11 11
-.400 -.297 -.451 -.289 1 .817**
.223 .375 .164 .389 . .002
11 11 11 11 11 11
.003 .065 -.014 .023 .817** 1
.993 .849 .966 .947 .002 .
11 11 11 11 11 11
Correlación de Pearson
Sig. (bilateral)
N
Correlación de Pearson
Sig. (bilateral)
N
Correlación de Pearson
Sig. (bilateral)
N
Correlación de Pearson
Sig. (bilateral)
N
Correlación de Pearson
Sig. (bilateral)
N
Correlación de Pearson
Sig. (bilateral)
N
X
Y1
Y2
Y3
X4
Y4
X Y1 Y2 Y3 X4 Y4
La correlación es significativa al nivel 0,01 (bilateral).**.
Ahora revise los gráficos de dispersión. ¿Mantiene sus conclusiones anteriores?
* Anscombe, F. (1973) "Graphs in statistical analysis", The American Statistician, 27: 17-21.
6
X
161412108642
Y1
11
10
9
8
7
6
5
4
X
161412108642
Y2
10
9
8
7
6
5
4
3
X
161412108642
Y3
14
12
10
8
6
4
X4
20181614121086
Y4
14
12
10
8
6
4
7
Regresión Lineal Simple
Como ya hemos visto muchos estudios son diseñados para investigar la asociación entre dos o más variables. Muchas veces
intentamos relacionar una variable explicativa con una variable respuesta. Los datos que se usan para estudiar la relación
entre dos variables se llaman datos bivariados. Datos bivariados se obtienen cuando medimos ambas variables en el mismo
individuo. Suponga que está interesado en estudiar la relación entre las notas de la primera prueba y las notas finales.
Entonces las notas en la primera prueba corresponderían a la variable explicativa o independiente x y las notas finales sería
la variable respuesta o dependiente y. Estas dos variables son de tipo cuantitativo. Si el gráfico de dispersión nos muestra una asociación lineal entre dos variables de interés, entonces buscaremos una línea
recta que describa la relación, la llamaremos recta de regresión.
Un poco de historia
El nombre de regresión deriva de los estudios de herencia de Galton, quien en 1886* publica la ley de la "regresión universal".
En sus estudios Galton encontró que había una relación directa entre la estatura de padres e hijos. Sin embargo, el promedio de
estatura de hijos de padres muy altos era inferior al de sus padres y, el de hijos de padres muy bajos, era superior al de los
padres, regresando a una media poblacional.
Un ejemplo: se seleccionó a 7 alumnas de la carrera de Psicología del año 2003 que nos dieron sus datos de estatura (en
cms) y de peso (en kilos).
154 156 158 160 162 164 166 168 170
estatura
48
50
52
54
56
58
peso
Estatura 155 157 159 162 165 168 169
Peso 48 48 51 55 53 55 57
* Galton, F. (1886) "Regression Towards Mediocrity in Hereditary Stature," Journal of the Anthropological Institute,
15:246-263 (http://www.mugu.com/galton/essays/1880-1889/galton-1886-jaigi-regression-stature.pdf)
8
Ajustando una recta a los datos:
Si queremos describir los datos con una recta tenemos que buscar la "mejor", porque no será posible que la recta pase por
todos los puntos. Ajustar una recta significa buscar la recta que pase lo más cerca posible de todos los puntos.
Ecuación de la recta:
Suponga que y es la variable respuesta (eje vertical) y x es la variable explicativa (eje horizontal). Una línea recta
relaciona a y con x a través de la ecuación:y a bx= +
En la ecuación, bes la pendiente, cuanto cambia y cuando x aumenta en una unidad. La pendiente puede tener signo
positivo, negativo o valor cero. El número a es el intercepto, el valor de y cuando x se iguala a cero.
Si queremos relacionar al peso con la estatura entonces la línea recta será: estaturapeso ×+= ba
La recta de regresión que resume el peso con la estatura es: estatura603,0276,45peso ×+−=
154 156 158 160 162 164 166 168 170
estatura
48
50
52
54
56
58
peso
La figura muestra que la línea ajusta más o menos bien a los datos. La pendiente 603,0b = nos dice que el peso de este
grupo aumenta en 0,603 kilos por cada centímetro de estatura. La pendiente b es la tasa de cambio en la respuesta y
cuando x cambia. La pendiente de la recta de regresión es una descripción numérica importante de la relación entre dos
variables. El intercepto es 276,45a −= , que sería el peso si la estatura fuera cero. En este caso, el cero de estatura no tiene
sentido, así es que tomaremos al intercepto sólo como parte de la ecuación.
y
a
a b
b
a
2 3 1
b = 0
b = 0
b negativo b positivo
2 3 1
9
Regresión de mínimos cuadrados∗∗∗∗
Necesitamos una forma objetiva de obtener una recta y que esta pase por la mayoría de los puntos.
Definición:
La recta de regresión de mínimos cuadrados, dada por $y a bx= + , es la recta que hace mínima la suma de los
cuadrados de las desviaciones verticales de los datos a la recta, donde
( )( )( )∑
∑−
−−=
2xx
yyxxb
i
ii y xbya −=
Una forma fácil de calcular la pendiente es:
X
Y
s
srb = donde ys es la desviación estándar de las respuestas y xs es la
desviación estándar de la variable explicativa.
Ejemplo: Test 1 vs Test 2
8 10 12 14 16
Test 1
8
10
12
14
16
18
20
Test 2
Podemos usar los cálculos de la correlación para calcular la pendiente: 1,116227766,3
605551275,396476,0 =×==
x
y
s
srb y
8,0121,114 =×−=−= xbya
Con estos valores podemos construir la recta de regresión de mínimos cuadrados: xy 1,18,0ˆ += .
Interpretación de los coeficientes de regresión:
Pendiente: b = 1,1 ==> cada punto en el test 1, significa un aumento de 1,1 puntos en el test 2 en promedio.
Intercepto: a = 0,8 ==> Si asignamos el valor cero puntos al Test 1, el Test 2 tendría un valor de 0,8 puntos.
Si usamos la recta de regresión, podemos predecir que un estudiante que tiene 15 puntos en el Test 1 tendrá
3,17)15(1,18,0ˆ =+=y puntos en el Test 2.
∗ El método de mínimos cuadrados fue publicado por el matemático francés Adrien Legendre (1752-1833) en 1805. Este método es una
de las herramientas estadísticas más usadas.
Test 1 Test 2
8 9
10 13
12 14
14 15
16 19
10
Definición:
Un residuo es la diferencia entre la respuesta observada, y , y la respuesta que predice la recta de regresión, y . Cada par
de observaciones ( )ii yx , , es decir, cada punto en el gráfico de dispersión, genera un residuo:
residuo = estimadoobservado yy −
El i-ésimo residuo = ( )iiiii bxayyye +−=−= ˆ
Predicción:
Podemos usar la recta de regresión para predicción substituyendo el valor de x en la ecuación y calculando el valor y
resultante. En el ejemplo de las estaturas:
xy 603,0276,45ˆ +−= .
La exactitud de las predicciones de la recta de regresión depende de que tan dispersos estén las observaciones alrededor de
la recta (ajuste).
Extrapolación
Extrapolación es el uso de la recta de regresión para predecir fuera del rango de valores de la variable explicativa x . Este
tipo de predicciones son a menudo poco precisas.
Por ejemplo los datos de peso y estatura fueron tomados de un grupo de alumnas de psicología del año 2003 que tenían
entre 18 y 23 años. ¿Cuanto debe haber pesado una persona si al nacer midió 45 centímetros?
"No deje que los cálculos invadan su sentido común". (Moore, 1989)
Tarea: Calcular los residuos de la regresión, ¿cuánto vale la suma de los residuos?
Los residuos muestran cuán lejos están los datos de la línea de regresión ajustada, examinar los residuos nos ayuda a saber
qué tan bien describe la recta a los datos. Los residuos que se generan a partir del método de mínimos cuadrados tienen una
propiedad básica: el promedio de los residuos es siempre cero.
Volvamos al ejercicio con las estaturas y pesos de 7 alumnas. La recta de regresión la podemos calcular usando el SPSS con
la salida:
Coeficientes(a)
Modelo Coeficientes no estandarizados
Coeficientes estandarizados t Sig.
B Error típ. Beta
1 (Constante) -45.276 18.496 -2.448 .058
estatura .603 .114 .921 5.285 .003
a Variable dependiente: peso
También podemos hacer un gráfico con los residuos versus la variable explicativa. El gráfico de los residuos magnifica las
desviaciones de los datos a la recta, lo que ayuda a detectar problemas con el ajuste. Si la recta de regresión se ajusta bien a
los datos no deberíamos detectar ningún patrón en los residuos.
La figura A adjunta muestra un gráfico de residuos típico, generalmente se dibuja la una línea horizontal en el cero. La
figura B en cambio muestra que la relación entre x e y es no lineal, por lo tanto una línea recta no es buena descripción de la
asociación. La figura C muestra residuos en forma de embudo muestra que la variación de y alrededor de x aumenta cuando
x aumenta.
11
Figura A:
Figura B:
Figura C:
FISICA
Los estudiantes de una clase de Física están estudiando la caída libre para determinar la relación entre la distancia desde que
un objeto cae y el tiempo que demora en caer. Se muestra el gráfico de dispersión de los datos obtenidos, y el gráfico de
residuos. Basado en estos gráficos, ¿le parece apropiado un modelo de regresión lineal?
12
Puntos influyentes y extremos
Un punto extremo es una observación que está lejos de la línea recta, lo que produce un residuo grande, positivo o
negativo. Un punto es influyente si al sacarlo produce un cambio notorio en la recta de regresión.
Considere el siguiente conjunto de datos I y su gráfico de dispersión correspondiente.
x y
1 1
1 2
2 1.5
2.5 2.5
3 3
3.5 3
4 3.5
4 4
4.5 4
5 5
5 6
5.5 6
2 6
654321
x
6
5
4
3
2
1
y
Punto A
El punto A produce un residuo grande, parece ser
un punto extremo.
Sin embargo, no es influyente, ya que al sacarlo
la recta de regresión no cambia mucho.
0 1 2 3 4 5 6
0
2
4
6
8
0 1 2 3 4 5 6
0
4
6
8
x
y
Y=0,036+1,002X
Línea sin A
Y=0,958+0,81X
5*X,
Línea que incluye A
Punto A
13
Considere ahora el siguiente conjunto de datos II y su gráfico de dispersión:
x y
1 3
1.5 2
2 3
2 4
2.5 1
2.5 2
3 1
3 2
3 3
3.5 2
4 1
7 7
7654321
x
7
6
5
4
3
2
1
y
Punto B
Punto B no produce un residuo grande.
Sin embargo, el punto B es muy influyente ya que
la sacarlo del análisis la línea recta cambia
totalmente.
El Punto B es influyente, pero no extremo.
0 2 4 6 8
0
2
4
6
8
X
Y
0 2 4 6 8
0
2
4
6
8
Y=0,886+0,582X
Línea con B
Punto B
Línea sin B
Y=3,694-0,594X
14
Inferencia en Regresión Lineal Simple
Modelo de regresión lineal simple:
Se tienen n observaciones de una variable explicativa x y de una variable respuesta y,
( ) ( ) ( )nn yxyxyx ,...,,,,, 2211
el modelo estadístico de regresión lineal simple es:
iii exy ++= βα donde
xYEy βαµ +== )( es la respuesta promedio para cada x.
α representa el intercepto de la función lineal que usa todos los valores de la población y
β representa la pendiente de la función lineal que usa todos los valores de la población. α y β son parámetros
El modelo estadístico de regresión lineal simple asume que para cada valor de x, los valores de la respuesta y son normales
con media (que depende de x) y desviación estándar σ que no depende de x. Esta desviación estándar σ es la desviación estándar de todos los valores de y en la población para un mismo valor de x.
Estos supuestos se pueden resumir como:
Para cada x, ),(~ σµ yNY donde xYEy βαµ +== )(
Podemos visualizar el modelo con la siguiente figura:
Los datos nos darán estimadores puntuales de los parámetros poblacionales.
15
Estimadores de los parámetros de regresión:
El estimador de la respuesta media está dado por bxayYE +== ˆ)(
El estimador del intercepto es: a=α
El estimador de la pendiente es: b=β
El estimador de la desviación estándar σ está dado por:
2
Resˆ
−=
n
SCσ donde ResSC es la suma de cuadrados de los residuos ( )∑ − 2
ˆ ii yy =∑ 2ie
El coeficiente de correlación muestral ρ=r es un estimador puntual de la correlación poblacional ρ
Probando la hipótesis acerca de la existencia de relación lineal
En el modelo de regresión lineal simple => xYE βα +=)( . Si 0=β entonces las variables x e y no están asociadas
linealmente y la respuesta es una constante E(Y) = α .
E(Y) = α
Es decir, conocer el valor de x no nos va a ayudar a conocer y.
Para docimar la significancia de la relación lineal realizamos el test de hipótesis
Ho: β = 0 (la pendiente de la recta de regresión en la población es cero)
H1: β ≠ 0
Existen hipótesis de una cola, donde H1: β < 0 o H1: β > 0, pero lo usual es hacer el test bilateral.
Para docimar la hipótesis podemos usar el test t:
estimador delestándar error
hipotéticovalor puntualestimador −=t
El estimador puntual de β es b, y el valor hipotético es 0. El error estándar de b es:
( )∑ −=
2
ˆ)(
xxbEE
i
σ
El estadístico para docimar la hipótesis acerca de la pendiente de la población es:
)2(~)(
0−
−= nt
bEE
bt
16
Revisemos la salida de SPSS: Coeficientes(a)
Modelo Coeficientes no estandarizados
Coeficientes estandarizados t Sig.
Intervalo de confianza para B al 95%
B Error típ. Beta Límite inferior Límite superior
1 (Constante) .800 2.135 .375 .733 -5.996 7.596
Test 1 1.100 .173 .965 6.351 .008 .549 1.651
a Variable dependiente: Test 2
Verificando supuestos en la Regresión lineal simple
1. Examine el gráfico de dispersión de y versus x para decidir si el modelo lineal parece razonable.
Se asume que la respuesta Y es Normal con media E(Y) = α + βx y desviación estándar σ.
Para cada x, Y es N(E(Y), σ ) donde E(Y) = α + βx
El modelo que describe la respuesta Y es:
Y = α + βx + ε.
Los ε's son los verdaderos términos de error (que no observamos). Estos errores se suponen normales con media cero
desviación estándar σ.
No podemos "ver" estos errores pero tenemos una estimación de ellos mediante los residuos.
2. Examine los residuos para verificar los supuestos acerca del término del error. Los residuos deben ser una muestra
aleatoria de una población normal con media 0 y desviación estándar σ.
Cuando examine los residuos verifique:
a) que provienen de una muestra aleatoria:
Grafique los residuos versus x. El supuesto de que provienen de una muestra aleatoria será razonable si el gráfico
muestra los puntos al azar, sin una forma definida.
A veces es posible detectar falta de independencia cuando los datos recogidos en el tiempo. Para verificar este
supuesto grafique los residuos versus el tiempo y los puntos no deben mostrar una distribución definida.
b) Normalidad Para verificar normalidad haga el histograma de los residuos, este debería aparecer como normal sin valores extremos
si tenemos un número grande de observaciones. En el caso de tener pocas observaciones puede hacer un gráfico de tallo
y hoja y verificar que no haya observaciones extremas.
17
c) desviación estándar común (que no depende de x)
El gráfico de los residuos versus x, debe tener aproximadamente una banda del mismo ancho.
El gráfico de abajo muestra evidencia de que la variabilidad en la respuesta tiende a aumentar cuando x aumenta.
Ejemplo:
Se conduce un experimento en 12 sujetos para analizar si la dosis de cierta droga (en ml) está relacionada con el tiempo de
reacción a un estímulo en segundos.
Droga (ml) 1,0 1,5 2,0 2,5 3,0 3,5 4,0 4,5 5,0 5,5 6,0 6,5
Tiempo (segs) 1,0 0,8 1,8 1,4 2,1 1,8 2,2 3,0 2,75 3,0 4,1 4,9
Gráfico de dispersión del tiempo de reacción a estímulo versus dosis de droga:
Dosis de droga (ml)
76543210
Tiempo de reacción (seg)
5
4
3
2
1
0
ANOVAb
14.430 1 14.430 75.048 .000a
1.923 10 .192
16.352 11
Regresión
Residual
Total
Modelo
1
Suma de
cuadrados gl
Media
cuadrática F Sig.
Variables predictoras: (Constante), Dosis de droga (ml)a.
Variable dependiente: Tiempo de reacción (seg)b.
18
Dosis de droga (ml)
76543210
Unstandardized Residual
.8
.6
.4
.2
-.0
-.2
-.4
-.6
Unstandardized Residual Stem-and-Leaf Plot
Frequency Stem & Leaf
1.00 -0 . 5
5.00 -0 . 12344
4.00 0 . 1123
2.00 0 . 57
Stem width: 1.00000
Each leaf: 1 case(s)
Notas:
- La asociación entre una variable explicativa x y una variable respuesta y, aunque sea muy fuerte, no es por sí sola
evidencia de que los cambios en x causan cambios en y.
- Un coeficiente de correlación es el resumen de la relación presente en un gráfico de dispersión. Conviene, pues,
asegurarse mirando este gráfico que el coeficiente es un buen resumen del mismo. Tratar de interpretar un coeficiente
de correlación sin haber visto previamente el gráfico de las variables puede ser muy peligroso (Peña, Romo, p.129).
- Como hemos visto el coeficiente de correlación es un resumen del gráfico de dispersión entre dos variables. La recta de
regresión es otra manera de resumir esta información, y su parámetro fundamental, la pendiente, está relacionado con el
coeficiente de correlación por la ecuación:
X
Y
s
srb = . La diferencia entre regresión y correlación es que en el cálculo de
la correlación ambas variables se tratan simétricamente, mientras que en la regresión, no. En regresión se trata de
prever la variable respuesta en función de los valores de la variable explicativa. En consecuencia, si cambiamos el papel
de las variables cambiará también la ecuación de regresión, porque la recta se adaptará a las unidades de la variable que
se desea predecir (Peña, Romo, p.142).