UNIVERSIDAD CATLICA DE ASUNCIN
ECONOMETRA
UNIDAD I REPASO DE ESTADSTICAS
A.1 OPERADORES DE SUMATORIA Y DE PRODUCTO
Para la suma empleamos la letra mayscula griega (sigma)
n
n
ii xxxxx ++++=
=321
1
Propiedades del operador de sumatoria : 1. , donde ==
nki nkk k es una constante = == 4 1 12343i
2. , donde == =ni i
ni i xkkx 11 k es una constante
3. , donde y son constantes y donde se hace uso de las propiedades 1 y 2 anteriores
( )
( ) == +=+ ni ini i xbnabxa 11 a b
4. === +=+ni i
ni i
ni ii yxyx 111
1
A.1 OPERADORES DE SUMATORIA Y DE PRODUCTO
El operador de sumatoria puede ampliarse a sumas mltiples. El operador de doble sumatoria se define como:
( )
( ) ( )( )nmmmm
nn
n
iimiii
n
i
m
jij
xxxxxxxxxxxx
xxxxx
+++++++++++++++=
++++= == =
321
23222121312111
1321
1 1
Algunas de las propiedades del operador de doble sumatoria :
1. , es decir, se puede intercambiar la suma = == =
=m
j
n
iij
n
i
m
jij xx
1 11 1
2. === =
=m
jj
n
ii
n
i
m
jji yxyx
111 1
3. ( )1 1 1 1 1 1
n m n m n m
ij ij ij iji j i j i j
x y x y= = = = = =
+ = +
4. [ ]
A.1 OPERADORES DE SUMATORIA Y DE PRODUCTO
El operador de producto es definido como:
n
n
ii xxxxx =
=321
1
Por tanto,
321
3
1xxxx
ii =
=
3
A.2 ESPACIO MUESTRAL, PUNTOS MUESTRALES Y EVENTOS
Poblacin (o Espacio Muestral): Es el conjunto de todos los resultados posibles de un experimento aleatorio, o del azar.
Punto Muestral: Cada miembro de este espacio muestral. Por ej., al lanzar dos monedas, el espacio muestral consta de cuatro resultados posibles: CC, CS, SC, SS. Cada uno de los eventos anteriores constituye un espacio muestral.
Evento: Subconjunto del espacio muestral. Si A denota la ocurrencia de una cara y un sello, entonces, de los posibles resultados anteriores solamente dos pertenecen a A, CS y SC. En este caso decimos que A constituye un evento.
Eventos mutuamente excluyentes: Dos eventos son m.e. si la ocurrencia de uno impide la ocurrencia del otro. Si en el ejemplo anterior ocurre CC, la ocurrencia del evento CS al mismo tiempo no es posible.
Eventos exhaustivos (colectivamente): Si todos los resultados posibles de un experimento se agotan. En el ejemplo, los eventos (a) dos caras, (b) dos sellos y (c) un sello y una cara, agotan todos los resultados posibles.
4
A.3 PROBABILIDAD Y VARIABLES ALEATORIAS
Probabilidad: Sea A un evento en un espacio muestral. Sea P(A) la probabilidad del evento A, es decir, la proporcin de veces que el evento A ocurrir en ensayos repetidos de un experimento.
En forma alterna, en un total de n posibles resultados igualmente probables de un experimento, si m de ellos son favorables a la ocurrencia del evento A, se define la razn m/n como la frecuencia relativa de A. Para los valores grandes de n, esta frecuencia relativa constituir una muy buena aproximacin de la probabilidad de A. Propiedades de la probabilidad. P(A) es una funcin de valor real.
( )1. AAP ,10 2. Si A, B, C, constituyen un conjunto de eventos exhaustivos, entonces
( ) 1=++ CBAP , donde CBA ++ significa A o B o C y as sucesivamente 3. Si A, B, C, son eventos mutuamente excluyentes, entonces
( ) ( ) ( ) ( ) +++=+++ CPBPAPCBAP
5
A.3 PROBABILIDAD Y VARIABLES ALEATORIAS
EJEMPLO 1 Considrese el experimento de lanzar un dado numerado del 1 al 6. El espacio muestral consta de los resultados 1, 2, 3, 4, 5, y 6. Por consiguiente, estos seis eventos agotan la totalidad del espacio muestral, la probabilidad de obtener cualquiera de estos nmeros es 1/6 puesto que son seis resultados igualmente probables y cada uno de ellos tiene igual probabilidad de aparecer. Puesto que 1, 2, 3, 4, 5, y 6 forman un conjunto exhaustivo de eventos, ( ) 1654321P =+++++ donde 1, 2, 3, significa la probabilidad del nmero 1 o
del nmero 2 o del nmero 3, etc. Dado que 1, 2,,6 son eventos mutuamente excluyentes, en donde dos nmeros no pueden obtenerse simultneamente, ( ) ( ) ( ) ( ) 162P1654321P =+++=+++++ PP
6
A.3 PROBABILIDAD Y VARIABLES ALEATORIAS
VARIABLES ALEATORIAS (va): Son aquellas variables cuyo valor est determinado por el resultado de un experimento de azar.
Las va se denotan usualmente por las letras maysculas X, Y, Z y as sucesivamente, y los valores que ellas toman estn denotadas por las letras minsculas, x, y, z, etc. Las va pueden ser discretas o continuas. Las va discretas son aquellas que adquieren un nmero finito de valores. Por ej., al lanzar dos dados, cada uno numerado del 1 al 6, si se define la va X como la suma de los nmeros que aparecen en los dados, entonces X tomar uno de los siguientes valores: 2, 3, 4, 5, 6, 7, 8, 9, 10, 11 o 12. Las va continuas son aquellas que pueden tomar cualquier valor dentro de un intervalo de valores. As, la estatura de un individuo es una variable continua. Se debe tener en cuenta que en el agregado al tomar promedios de la va, se puede tener un valor continuo, cuando la va es discreta.
7
A.4 FUNCIN DE DENSIDAD DE PROBABILIDAD (FDP)
FDP de una va discreta Sea X una va discreta que toma valores diferentes . Entonces, la funcin
nxxx ,,, 21
( )( )
==
=i
i
xxparanixXP
xf,0
,,2,1,
se denomina la FDP discreta de X, donde ( )ixXP = significa la probabilidad de que la va discreta X tome el valor de x . iEJEMPLO 2 En un lanzamiento de dos dados, la va X, o sea la suma de los nmeros que aparecen en dos dados, puede tomar uno de los 11 valores mostrados. La FDP de esta variable puede aparecer como sigue:
X = 2 3 4 5 6 7 8 9 10 11 12f (x) = 1/36 1/18 1/12 1/9 5/36 1/6 5/36 1/9 1/12 1/18 1/36
Estas probabilidades pueden verificarse fcilmente. En total, hay 36 resultados posibles, de los cuales uno es favorable al nmero 2, dos son favorables al nmero 3 y as sucesivamente.
8
A.4 FUNCIN DE DENSIDAD DE PROBABILIDAD (FDP)
F u nc i n d e de n sid a d d e la v a d isc r e ta d e l eje m plo 2
0
1 /5 0
1 /2 5
3 /5 0
2 /2 5
1 /1 0
3 /2 5
7 /5 0
4 /2 5
9 /5 0
0 2 4 6 8 10 1 2 1 4
X
f(x)
9
A.4 FUNCIN DE DENSIDAD DE PROBABILIDAD (FDP)
FDP de una va continua Sea X una va continua. Entonces, se dice que ( )xf es la FDP de X si se satisfacen las siguientes condiciones:
( )( )( ) ( )bxaPdxxf
dxxf
xf
ba =
=
1
0
donde ( )dxxf es conocido como el elemento probabilstico (la probabilidad asociada con un pequeo intervalo de una va continua) y donde ( )bxaP significa la probabilidad de que X se encuentre en el intervalo . Grficamente tenemos:
a o b
( )bXaP
0 a b
10
A.4 FUNCIN DE DENSIDAD DE PROBABILIDAD (FDP)
EJEMPLO 3 Considrese la siguiente funcin de densidad:
( ) 3091 2 = xxxf
Puede verificarse con facilidad que ( ) 0xf para toda en el intervalo 0 a 3 y xque . Si se desea evaluar la FDP anterior entre 0 y 1, se obtiene 19/130
2 = dxx
27/127/19/11
0
310
2 =
= xdxx ; es decir, la probabilidad de que se encuentre x
entre 0 y 1 es 1/27.
1. FDP conjunta FDP conjunta discreta. Sean X y Y dos va discretas. Entonces la funcin
( ) ( )
==
=yYyyXcuando
yYxXPyxf
0,
,
se conoce como la FDP conjunta discreta y da la probabilidad (conjunta) de que X tome el valor de x y Y tome el valor de y.
11
A.4 FUNCIN DE DENSIDAD DE PROBABILIDAD (FDP)
EJEMPLO 4 La siguiente tabla presenta la FDP conjunta de las va X y Y.
-2 0 2 33 0,27 0,08 0,16 06 0 0,04 0,10 0,35
X
Y
Esta tabla muestra que las probabilidad de que X tome el valor de -2 mientras simultneamente Y toma el valor de 3 es de 0,27, y que la probabilidad de que X tome el valor de 3 mientras Y toma el valor de 6 es 0,35 y as sucesivamente.
2. FDP marginal En relacin con ( ) ( ) ( )yfxfyxf ,,, se denominan FDP individuales o marginales. Estas FDP marginales se obtienen de la siguiente manera:
( ) ( ) ( ) ( ) ==xy
yxfxfyxfxf ,,
El primero es la FDP marginal de X y la ltima la FDP marginal de Y. significa la suma sobre todos los valores de Y y y x significa la suma sobre todos los valores de X.
12
A.4 FUNCIN DE DENSIDAD DE PROBABILIDAD (FDP)
EJEMPLO 5 Considrese la informacin dada en el ejemplo 4. La FDP marginal de X se obtiene de la siguiente manera:
( ) ( )( ) ( )( ) ( )( ) ( ) 35,035,00,3
26,010,016,0,2
12,004,008,0,0
27,0027,0,2
=+===
=+===
=+===
=+===
y
y
y
y
yxfxf
yxfxf
yxfxf
yxfxf
Asimismo, la FDP marginal de Y se obtiene as: ( ) ( )( ) ( ) 49,035,010,004,00,6
51,0016,008,027,0,3=+++===
=+++===
x
x
yxfyfyxfyf
Para obtener la FDP marginal de X, se suma la columna de nmeros, y para obtener la FDP marginal de Y, se suma la fila de nmeros. Obsrvese que
( )x xf sobre todos los valores de X es 1, como lo es ( ) y yf sobre todos los valores de Y. Podemos completar la tabla del ejemplo 4 agregando una nueva columna y una nueva fila indicando la FDP marginal de X y la FDP marginal de Y respectivamente.
13
A.4 FUNCIN DE DENSIDAD DE PROBABILIDAD (FDP)
-2 0 2 33 0,27 0,08 0,16 0 0,516 0 0,04 0,10 0,35 0,49
0,27 0,12 0,26 0,35 1
X
Y
FDP MARG Y
FDP MARG X
3. FDP condicional
En el anlisis de regresin, el inters se centra, con frecuencia, en estudiar el comportamiento de una variable condicional respecto a los valores de otra u otras variables. Esto puede hacerse considerando la FDP condicional. La funcin
( ) ( )yYxXPyxf === || se conoce como la FDP condicional de X; sta da la probabilidad de que X tome el valor de x dado que Y ha asumido el valor de y. En forma similar,
( ) ( )xXyYPxyf === || lo cual da la FDP condicional de Y. Las FDP condicionales pueden obtenerse de la siguiente manera:
14
A.4 FUNCIN DE DENSIDAD DE PROBABILIDAD (FDP)
( ) ( )( )
( ) ( )( ) )(
)()(,,x|,,y|MARGFDPCONJFDPCONDFDP
xfyxfyf
yfyxfxf ===
Son las FDP condicionales de X y Y respectivamente.
Como lo muestran las expresiones anteriores, la FDP condicional de una variable puede expresarse como la razn de la FDP conjunta con respecto a la FDP marginal de otra variable (condicionalmente).
EJEMPLO 6 Continuando con los ejemplos 4 y 5, se calculan las siguientes probabilidades condicionales, as:
( ) ( )( ) 53,051,0/27,033,23|2 ==
===
===Yf
YXfYXf
La probabilidad incondicional ( )2=xf es 0,27, pero si Y ha asumido el valor de 3, la probabilidad de que X tome el valor de -2 es 0,53.
( ) ( )( ) 20,049,0/10,066,26|2 ==
===
===Yf
YXfYXf
15
A.4 FUNCIN DE DENSIDAD DE PROBABILIDAD (FDP)
De nuevo, la probabilidad incondicional de que X tome el valor de 2 es 0,26, la cual es diferente de 0,20, que es su valor si Y asume el valor de 6. Completando el ejemplo 4, tenemos:
-2 0 2 33 0,53 0,16 0,31 0,006 0,00 0,08 0,20 0,71
X
Y
Independencia estadstica
Dos va X y Y son estadsticamente independientes ssi ( ) ( ) ( )yfxfyxf =,
es decir, si la FDP conjunta puede expresarse como el producto de las FDP marginales. EJEMPLO 7 Una bolsa contiene tres bolas numeradas 1,2 y 3. Se seleccionan de la bolsa dos bolas al azar, con reemplazamiento. Sea X el nmero de la primera bola sacada y Y el nmero de la segunda. La siguiente tabla muestra la FDP conjunta de X y Y.
16
A.4 FUNCIN DE DENSIDAD DE PROBABILIDAD (FDP)
1 2 31 1/9 1/9 1/92 1/9 1/9 1/93 1/9 1/9 1/9
X
Y
( ) ( ) 3/11,9/11,1 ===== XfYXf (obtenido mediante la suma de los elementos de la primera columna) y ( ) 3/11 ==Yf (obtenido mediante la suma de los elementos de la primera fila). Puesto que ( ) ( ) ( )yfxfyxf =, , en este ejemplo, se puede decir que las variables son estadsticamente independientes. Puede verificarse que para cualquier otra combinacin de los valores X y Y dados en la verificarse que para cualquier otra combinacin de los valores X y Y dados en la tabla anterior, las FDP conjuntas se factorizan en FDP individuales. En el ejemplo 4, las variables X y Y no son estadsticamente independientes puesto que el producto de las dos FDP marginales no es igual a la FDP conjunta.
-2 0 2 33 0,14 0,06 0,13 0,186 0,13 0,06 0,13 0,17
X
Y
17
A.4 FUNCIN DE DENSIDAD DE PROBABILIDAD (FDP)
FDP conjunta continua ( )yxf , de dos variables continuas X y Y es tal que:
( )La FDP conjunta de
( )( ) ( )dycbxaPdxdyyxf
dydxyxf
yxf
dc
bz =
=
,,
1,
0,
EJEMPLO 8 Considrese la siguiente FDP:
( ) 10;102, = yxyxyxf
( )( )
121 1 1 1
0 0 0 00
12
0
32 22 2
, 1 03 12 2
yx y dx dy y xy dy y dy
f x yyy
= = =
= =
La FDP marginal de X y de Y pueden obtenerse respectivamente como
( ) ( ) == dxyxfyfdyyxfxf ,)(,)(
18
A.4 FUNCIN DE DENSIDAD DE PROBABILIDAD (FDP)
EJEMPLO 9 Las dos FDP marginales de la FDP conjunta dada en el ejemplo 8 son las siguientes:
( ) ( )( )
( ) ( ) ( )
121 1
0 00
121 1
0 00
3, 2 2 ; 0 12 2
3, 2 2 ; 0 12 2
yf x f x y dy f x y dy y xy x x
xf y f x y dx f x y dx x xy y y
= = = =
= = = =
Son estadsticamente independientes las va X y Y? Comprobmoslo ( ) ( ) ( )yfxfyxf =,
( )
yxyx
23
232 Por lo tanto, no son estadsticamente independientes.
19
A.5 CARACTERSTICAS DE LAS DISTRIBUCIONES DE PROBABILIDAD
Momentos: Caracterstica de una distribucin de probabilidad Los momentos ms conocidos son: la media o valor esperado, y la varianza.
Valor esperado El valor esperado de una va discreta X, denotado por ( )XE , se define de la siguiente manera:
( ) ( )=x
xxfXE
donde significa la suma sobre todos los valores de X y donde x ( )xf es la FDP (discreta) de X. EJEMPLO 10 Considrese la distribucin de probabilidad de la suma de dos nmeros en el lanzamiento de dos dados analizada en el ejemplo 2. Multiplicando los diversos valores de X dados all por sus correspondientes probabilidades y sumando sobre todas las observaciones, se obtiene:
( ) ( ) ( ) ( ) ( ) 736/11236/3436/2336/12 =++++= XE que es el valor promedio de la suma de los nmeros observada en un lanzamiento de dos dados.
20
A.5 CARACTERSTICAS DE LAS DISTRIBUCIONES DE PROBABILIDAD
EJEMPLO 11 ( )XE y ( )YE para la informacin dada en el ejemplo 4. Estmese
-2 0 2 33 0,27 0,08 0,16 0 0,516 0 0,04 0,10 0,35 0,49
0,27 0,12 0,26 0,35 1
X
Y
FDP MARG Y
FDP MARG X
( ) ( ) ( )( ) ( )( ) ( )( ) ( )( )( ) ( ) ( )( ) ( )( ) 47,449,0651,03
03,135,0326,0212,0027,02=+==
=+++==
y
x
yyfYExxfXE
El valor esperado de una va continua est definido como:
( ) ( )= dxxsfXE La nica diferencia entre esta caso y el valor esperado de una va discreta es que el smbolo de sumatoria se reemplaza por el smbolo de integral.
21
A.5 CARACTERSTICAS DE LAS DISTRIBUCIONES DE PROBABILIDAD
EJEMPLO 12 El valor esperado de la FDP del ejemplo 3 puede obtenerse as:
( ) ( ) 25,24/94
x91
3
0
430 9
2==
== dxxXE x
Propiedades del valor esperado
( )1. bbE = , el valor de una constante es la constante misma ( ) ( )2. bXaEbaXE +=+ , si y son constantes a b
Esto se puede generalizar: ( ) ( ) ( ) ( ) bXEaXEaXEaXaXaXaE NNNN ++++=+++ 22112211
3. Si X y Y son va independientes, entonces ( ) ( ) ( )YEXEXYE = ( ) ( )xf y si xg es cualquier funcin de X, entonces 4. Si X es una va con FDP
( )[ ]( ) ( )( ) ( )
= dxxfXg
xfXgXgE x
En el primer caso si X es discreta, y en el ltimo si X es continua.
22
A.5 CARACTERSTICAS DE LAS DISTRIBUCIONES DE PROBABILIDAD
Por ejemplo, si ( ) 2XXg =
[ ] ( )( )
= dxXfx
XfxXE x 2
22
En el primer caso, X es discreta y en el ltimo es continua. EJEMPLO 13 Considrese la siguiente FDP
( ) 8/28/18/5212
xfx
Entonces, ( ) ( )( ) ( )( ) ( )( ) 8/58/228/118/52 =++=XE
y
( ) ( )( ) ( )( ) ( )( ) 8/298/248/118/542 =++=XE
23
A.5 CARACTERSTICAS DE LAS DISTRIBUCIONES DE PROBABILIDAD
Varianza Sea X una va y sea ( ) =XE . La distribucin o dispersin de los valores de X alrededor del valor esperado puede ser medida por la varianza.
( ) ( )22var == XEX x Desviacin estndar
Es la raz cuadrada positiva x , de la varianza . 2x
Tanto la varianza como la desviacin estndar indican cuan cercanos o dispersos estn los valores individuales de X con respecto a su valor esperado. Clculo de la varianza
( ) ( ) ( )( ) ( )
= dxxfX
xfxX x 2
2
var
En el primer caso se refiere a X si es una va discreta, en el ltimo si X es una va continua. Tambin se puede expresar como:
24
A.5 CARACTERSTICAS DE LAS DISTRIBUCIONES DE PROBABILIDAD
( ) ( )
( )( ) ( )[ ]22
22
22var
XEXE
XE
XEX x
=
=
==
Aplicando la frmula, puede verse que la varianza de la va dada en el ejemplo 13
es ( ) ( ) ( ) ( )2 22 2var 29 / 8 5 / 8 207 / 64 3, 23438XX E X E X= = = = = EJEMPLO 14 Para determinar la varianza de una va (continua) dada en el ejemplo 3, se procede as:
( ) ( ) ( ) 22 2var XX E X E X= =
( ) 5/2745/24359
199
3
0
30
5430
222 ==
==
=
xdxxdxxxXE
Del ejemplo 12, sabemos que ( ) 25,24/9 ==XE . Entonces ( ) ( ) 3375,080/27720/2434/95/27var 2 ====X
25
A.5 CARACTERSTICAS DE LAS DISTRIBUCIONES DE PROBABILIDAD
Propiedades de la varianza
1. ( ) ( ) 222 = XEXE 2. ( ) 0var =b , si es una constante b3. ( ) ( )XabaX varvar 2=+ , si y son constantes a b4. Si X y Y son va independientes, entonces
( ) ( ) ( )( ) ( ) ( )YXYX
YXYXvarvarvarvarvarvar
+=+=+
5. Si X y Y son va independientes y y son constantes, entonces a b
( ) ( ) ( )YbXabYaX varvarvar 22 +=+
Covarianza Sean X y Y dos va con medias, x y y , respectivamente. Entonces la covarianza entre las dos va se define como
( ) ( )( )[ ] ( ) yxyx XYEYXEYX ==,cov La varianza de una variable es la covarianza de dicha variable con ella misma.
26
A.5 CARACTERSTICAS DE LAS DISTRIBUCIONES DE PROBABILIDAD
Clculo de la covarianza: ( ) ( )( ) ( )
( )
=
=
y xyx
y xyx
yxXYf
yxfYXYX
,
,,cov
si X y Y son va discretas, y:
( ) ( )( ) ( )( )
=
=
yx
yx
dxdyyxXYf
dxdyyxfYXYX
,
,,cov
si X y Y son va continuas.
Propiedades de la varianza 1. Si X y Y son independientes, su covarianza es cero, puesto que
( ) ( )
0
,cov
=
=
=
yxyx
yxXYEYX
2. ( ) ( )YXbddYcbXa ,cov,cov =++ , donde y son constantes ,,, cba d
27
A.5 CARACTERSTICAS DE LAS DISTRIBUCIONES DE PROBABILIDAD
EJEMPLO 15 Para el clculo de la covarianza entre las va discretas X y Y cuyas FDP conjuntas son iguales a las ejemplo 4, se procede as: del ejemplo 11, sabemos que ( ) 03,1== XEx y ( ) 47,4== YEy .
( ) ( )
( )( )( ) ( )( )( ) ( )( )( ) ( )( )( )( )( )( ) ( )( )( ) ( )( )( ) ( )( )( )
84,635,06310,06204,06006203316,03208,03027,032
,
=+++++++=
= y x
yxXYfXYE
Por consiguiente, ( ) ( )
( )( )24,2
47,403,184,6
,cov
==
= yxXYEYX
Coeficiente de correlacin
El coeficiente de correlacin poblacional (rho) se define como:
28
A.5 CARACTERSTICAS DE LAS DISTRIBUCIONES DE PROBABILIDAD
( )( ) ( )[ ]
( ) 11;,covvarvar,cov
==
yx
YXYX
YX
, es una medida de asociacin lineal entre dos variables y se encuentra entre -1 y +1. +1 indica una perfecta asociacin positiva.
( ) yxYX =,cov EJEMPLO 16 Estmese el coeficiente de correlacin para la informacin del ejemplo 4. De las FDP dadas en el ejemplo 11, sabemos que: ( ) ( ) 47,4;03,1 ==== yx YEXE
( )
( )( ) ( )( ) ( )( ) ( )( )( ) 27,5
35,0926,0412,0027,04940435,026,012,027,03202
22
2
2
==
x fxxXE
fxxx
xfx
29
A.5 CARACTERSTICAS DE LAS DISTRIBUCIONES DE PROBABILIDAD
EJEMPLO 16 (continuacin)
( )
( ) ( )( ) ( )( )
( ) ( ) 23,2249,0651,09
36949,051,063
22
2
2
== y yfyYE
yfyy
yfy
( ) ( ) ( )( ) ( ) ( ) 50,12491,247,423,22var
05,22091,403,127,5var222
222
====
====
xy
xx
YEY
XEX
( )
( )( )73,0
50,105,224,2,cov
===yx
YX
30
A.5 CARACTERSTICAS DE LAS DISTRIBUCIONES DE PROBABILIDAD
Varianza de variables correlacionadas Sean X y Y dos va. Entonces: ( ) ( ) ( ) ( )
( ) ( )( ) ( ) ( ) ( )
( ) ( ) yx
yx
YXYXYXYX
YXYXYXYX
2varvar,cov2varvarvar
2varvar,cov2varvarvar
+=+=
++=++=+
Si X y Y son independientes, ( ) 0,cov =YX . En forma general.
( ) ( )
( )
es una hiptesis compuesta porque el valor de no est especificado. Estadstico de Prueba. Para probar la 0H (validez), se utiliza la informacin muestral con el fin de obtener el estadstico de prueba, que con frecuencia resulta ser el estimador puntual del parmetro desconocido. Se trata de averiguar la distribucin muestral o probabilstica del estadstico de prueba y utilizar el mtodo de intervalos de confianza o de prueba de significancia para probar la 0H . Del ejemplo 23 se dice que
( ) ( )22 5,2;,~ NNX = 10067 == nX
Supngase que
69:69*:
1
0
==
HH
64
A.8 INFERENCIA ESTADSTICA: PRUEBA DE HIPTESIS Puede la muestra con 67=X , el estadstico de prueba, haber provenido de la poblacin con el valor de la media de 69? No puede rechazarse la 0H si X est lo suficientemente cerca de * ; de lo contrario, sta se puede rechazar a favor de una hiptesis alterna. Pero, cmo se decide que X est lo suficientemente cerca de * ? Dos mtodos: 1) Intervalo de confianza y 2) prueba de significancia, ambos conducen a conclusiones en cualquier aplicacin especfica.
1. Mtodo del intervalo de confianza ( )Puesto que 2,~ NXi , se sabe que el estadstico de prueba X est
distribuido como ( )nNX 2,~
Si se conoce la distribucin de probabilidad de X , por qu no establecer, por ejemplo, un intervalo de confianza de ( )1100 para basada en X y ver si este intervalo incluye * = ? Si es as, no puede rechazarse la 0H ; si no lo es, sta se puede rechazar.
65
A.8 INFERENCIA ESTADSTICA: PRUEBA DE HIPTESIS As, si 05,0= , se tendr un intervalo de confianza al 95%, y si este intervalo de confianza incluye * , no se puede rechazar la 0H -es probable que 95 de 100 intervalos as construidos incluyan a * . Procedimiento. Puesto que ( )nNX 2,~ , se cumple que
( )1,0~/
Nn
XZ i
=
Entonces, de la tabla de distribucin normal, se sabe que ( )
95,096,1/
96,1Pr
95,096,196,1Pr
=
=
nX
Zi
Reordenando trminos tenemos
95,096,196,1Pr =
+
nX
nX
ste es un intervalo de confianza al 95% para .
66
A.8 INFERENCIA ESTADSTICA: PRUEBA DE HIPTESIS Luego, la 0H es simple. Se tiene que ver si * = se encuentra en ese intervalo. Si se encuentra, no se puede rechazar la ; si no se encuentra, 0H se puede rechazar. En el ejemplo anterior se tiene se construye el intervalo de confianza al 95% para , que es
49,6751,66 Como este intervalo no incluye 69= se puede rechazar la 0H de que el verdadero valor de es 69 con un coeficiente de confianza del 95%.
69=
49,6710
5,296,1
+X
51,6610
5,296,1
X
67
A.8 INFERENCIA ESTADSTICA: PRUEBA DE HIPTESIS Regin de aceptacin. Es el intervalo de confianza que se ha construido. Regin(es) crtica(s) o Regin(es) de rechazo(s). El (los) rea(s) por fuera de la regin de aceptacin. Valores crticos. Los lmites inferior y superior de la regin de aceptacin. Si el valor bajo la hiptesis se encuentra dentro de la regin de aceptacin, no se puede rechazar la hiptesis nula; de lo contrario, se puede rechazar. Tipos de errores Error tipo I. Se rechaza la 0H cuando sta es, en realidad, cierta. Error tipo II. Se puede no rechazar 0H cuando, en realidad, es falsa.
Una prueba de hiptesis no establece el valor de la verdadera ; simplemente proporciona un medio para decidir si se puede actuar como si
* = .
68
A.8 INFERENCIA ESTADSTICA: PRUEBA DE HIPTESIS
ERRORES TIPO I Y TIPO II Esquemticamente, se tiene Estado de la naturaleza Decisin 0H es verdadera 0H es falsa
Rechazar Error tipo I No hay error No rechazar No hay error Error tipo II La idea es maximizar los errores del tipo I y II, pero para cualquier tamao de muestra dado, no es posible minimizar los errores de manera simultanea. Neyman y Pearson. Suponen que es probable que un error tipo I sea ms grave en la prctica que un error tipo II a un nivel relativamente bajo, tal como 0,01 o 0,05, y luego, tratar de minimizar al mximo la probabilidad de incurrir en un error tipo II. Nivel de significancia. , prob. de cometer un error tipo I. Potencia de la prueba. 1 , prob. de no cometer un error tipo II. Es la capacidad de una prueba para rechazar la 0H falsa.
69
A.8 INFERENCIA ESTADSTICA: PRUEBA DE HIPTESIS El mtodo clsico: Fijar y luego tratar de minimizar .
2. Mtodo de la prueba de significancia Recurdese que
( )1,0~/
Nn
XZ i
=
X y n se conocen (pueden ser estimados), pero los verdaderos y no se conocen. Sin embargo, si es especificado y se supone (bajo 0H ) que * = , un valor numrico especfico, entonces iZ puede ser directamente calculado. Si la probabilidad es baja, se puede rechazar la 0H -si la hiptesis fuera cierta, la posibilidad de obtener el valor Z particular debe ser muy alta-. Prueba Z. Se emplea el valor normal estandarizado de Z.
8100/5,26967
/*
=
=
=n
XZ i
Se observa la tabla de valores, luego, la probabilidad de obtener ese valor de Z es extremadamente baja, p=0,0001.
70
A.8 INFERENCIA ESTADSTICA: PRUEBA DE HIPTESIS Por consiguiente, se puede rechazar la 0H de que 69= . As, se duda de que la muestra hubiera venido de una poblacin con un valor medio de 69.
Cuando se dice que un estadstico de prueba es significativo, generalmente se dice que se puede rechazar la . 0HEl estadstico de prueba se considera como significativo si l probabilidad de obtenerlo es igual o menor que , o sea la probabilidad de cometer el error tipo I. En el ejemplo, la probabilidad el valor calculado de Z = -8 es estadsticamente significativo; es decir, se rechaza la 0H de que la verdadera * es 69.
71
A.8 INFERENCIA ESTADSTICA: PRUEBA DE HIPTESIS
Resumen de los pasos de las pruebas de hiptesis estadsticas Paso 1. Postular la 0H y la hiptesis alterna 1H . Paso 2. Seleccionar el estadstico de prueba (por ejemplo, X ). Paso 3. Determinar la distribucin de probabilidad del estadstico de prueba [por ejemplo, ( )nNX 2,~ ]. Paso 4. Seleccionar el nivel de significancia ( , la probabilidad de cometer el error tipo I). Paso 5. Utilizando la distribucin de probabilidad del estadstico de prueba, construir un intervalo de confianza al ( )%1100 . Si el valor del parmetro bajo la 0H (por ejemplo, 69* == se encuentra en esta regin de confianza (regin de aceptacin), no debe rechazarse la 0H . Pero si sta se encuentra por fuera de este intervalo (regin de rechazo), se debe rechazar la 0H .
Al no rechazar o al rechazar la 0H , se corre el riesgo de estar equivocado por ciento de las veces.
72
EJEMPLO 1 EJEMPLO 3
Top Related