Estadistica
-
Upload
marco-mendez -
Category
Documents
-
view
81 -
download
6
Transcript of Estadistica
ESTADÍSTICA
MARCO ANTONIO MENDEZ PALMA
24 de enero de 2011
1. Ejercicio 1. Sean X y Y variables aleatorias con densidad conjunta de
f(x, y; λ) =
{λ
2e=ly, 0 ≤ x ≤ y, λ > 00 en otras parte
. Encontrar y describir las dis-
tribuciones marginales de X y Y . Gra�car la densidad conjunta y lasdensidades marginales.
2. Ejercicio 2. Demuestre que las densidades marginales de la distribuciónnormal bivariada son normales. Determine la media y la desviación estan-dar en cada caso.
Sea la densidad normal bivariada dada por
f (x, y) = 1
2Πσxσy√
1−ρ2exp
(− 1
2(1−ρ2)
[(x−µx)2
σ2x
+(y−µy)2
σ2y− 2ρ(x−µx)(y−µy)
σxσy
])donde −∞ < µx <∞ , −∞ < µy <∞ σx > 0, σy > 0, −1 < ρ < 1
fX (x) =´∞−∞ f (x, y) dy =
´∞−∞
1
2Πσxσy√
1−ρ2exp
(− 1
2(1−ρ2)σ2yσ
2x
[(x−µx)2
σ2x
+(y−µy)2
σ2y− 2ρ(x−µx)(y−µy)
σxσy
])dy
=´∞−∞
1
2Πσxσy√
1−ρ2exp
(− 1
2(1−ρ2)σ2yσ
2x
[(x− µx)
2σ2y+ (y − µy)
2σ2x − 2ρ (x− µx) (y − µy)σxσy
])dy
manipularemos el exponente− 12(1−ρ2)σ2
yσ2x
[(x− µx)
2σ2y+ (y − µy)
2σ2x − 2ρ (x− µx) (y − µy)σxσy
]completamos cuadrados
= − 12(1−ρ2)σ2
yσ2x
[(x− µx)
2σ2y
(1− ρ2
)+ (y − µy)
2σ2x + (x− µx)
2σ2yρ
2 − 2ρ (x− µx) (y − µy)σxσy
]= − 1
2(1−ρ2)σ2yσ
2x
[(x− µx)
2σ2y
(1− ρ2
)+(
(y − µy)2σ2x − 2ρ (x− µx) (y − µy)σxσy + (x− µx)
2σ2yρ
2)]
= − 12(1−ρ2)σ2
yσ2x
[(x− µx)
2σ2y
(1− ρ2
)+ [(x− µx)σyρ− (y − µy)σx]
2]
= −(x−µx)2σ2
y
(1− ρ2
)2(1−ρ2)σ2
yσ2x
− [(x−µx)σyρ−(y−µy)σx]2
2(1−ρ2)σ2yσ
2x
reemplazamos en la integral
obteniendo,
fx (x) = 1
2Πσxσy√
1−ρ2´∞−∞ exp
{− (x−µx)2
2σ2x− [(x−µx)σyρ−(y−µy)σx]2
2(1−ρ2)σ2yσ
2x
}dy
= 1
2Πσxσy√
1−ρ2´∞−∞ exp
{− (x−µx)2
2σ2x
}exp
{− [(x−µx)σyρ−(y−µy)σx]2
2(1−ρ2)σ2yσ
2x
}dy
= 1
2Πσxσy√
1−ρ2exp
{− (x−µx)2
2σ2x
} ´∞−∞ exp
{− [(x−µx)σyρ−(y−µy)σx]2
2(1−ρ2)σ2yσ
2x
}dy
= 1
2Πσxσy√
1−ρ2exp
{− (x−µx)2
2σ2x
} ´∞−∞ exp
{−σ
2x[(y−µy)−(x−µx)
σyσxρ]
2
2(1−ρ2)σ2yσ
2x
}dy
= 1
2Πσxσy√
1−ρ2exp
{− (x−µx)2
2σ2x
} ´∞−∞ exp
{− [(y−µy)−(x−µx)
σyσxρ]
2
2(1−ρ2)σ2y
}dy
1
= 1√2πσ2
x
√2π(1−ρ2)σ2
y
exp{− (x−µx)2
2σ2x
} ´∞−∞
1√2π(1−ρ2)σ2
y
exp
{− [(y−µy)−(x−µx)
σyσxρ]
2
2(1−ρ2)σ2y
}dy
= 1√2πσ2
x
exp{− (x−µx)2
2σ2x
} ´∞−∞
1√2π(1−ρ2)σ2
y
exp
{− [y−(µy+(x−µx)
σyσxρ)]
2
2(1−ρ2)σ2y
}dy
al ver la integral se puede ver que esta es una densidad normal con media
µy + (x− µx)σyσxρ y varianza
(1− ρ2
)σ2y por tanto
´∞−∞
1√2π(1−ρ2)σ2
y
exp
{− [y−(µy+(x−µx)
σyσxρ)]
2
2(1−ρ2)σ2y
}dy = 1 por tanto
fX (x) = 1√2πσ2
x
exp{− (x−µx)2
2σ2x
}∼= N
(µx, σ
2x
)si trabajamos de igual ma-
nera fy (y) tendremos
fY (y) = 1√2πσ2
y
exp{− (y−µy)2
2σ2y
}∼= N
(µy, σ
2y
)3. Ejercicio 3. Demostrar que en el caso de la distribución normal bivariada
la independencia se da si y solo si ρ = 0
Si ρ = 0 tenemos f (x, y) = 12Πσxσy
exp(− 1
2
[(x−µx)2
σ2x
+(y−µy)2
σ2y
])donde
−∞ < µx < ∞,−∞ < µy < ∞σx > 0, σy > 0 de aqui f (x, y) =1√
2Πσ2x
exp(− 1
2
[(x−µx)2
σ2x
])1√
2Πσ2y
exp(− 1
2
[(y−µy)2
σ2y
])= fx (x) fy (y) re-
ciprocamente si ρ 6= 0 tenemos que
f (x, y) = 1
2Πσxσy√
1−ρ2exp
{− (x−µx)2
2σ2x− [(x−µx)σyρ−(y−µy)σx]2
2(1−ρ2)σ2yσ
2x
}= 1√
2πσ2x
exp{− (x−µx)2
2σ2x
}1√
2π(1−ρ2)σ2y
exp
{− [y−(µy+(x−µx)
σyσxρ)]
2
2(1−ρ2)σ2y
}= fx (x) gy (y)
pero g (y) no es normal(uy, σ
2y
)esto muestra que no hay independencia
para ρ 6= 0.
4. Ejercicio 4. Con referencia a la densidad del Ejercicio 1 encontrar fX|Y yfY |X . Dar una descripción de la densidad en cada caso.
fX|Y
5. Ejercicio 5. Sea f(x, y) normal bivariada encontrar fX|Y . Describir estadensidad.
Ejemplo 2. Vamos a considerar a continuación el método de re-
chazo para generar observaciones de una v.a. Supongamos que
f es una densidad diferente de cero en el intervalo [a, b] y 0 fuera
de este intervalo. Sea M(x) una función tal que M(x) ≥ f(x) y
sea m (x) = M(x)´ baM(x)dx
una densidad. La idea es escoger M tal que
la generación de observaciones de m sea fácil. Si [a, b] es �nito se
puede tomar m como la distribución uniforme en [a.b]. Los pasosdel algoritmo son los siguientes:
Paso 1: Generar T con densidad m
2
6. Ejercicio 6. Demostrar en el ejemplo anterior que X tiene densidad f .
7. Ejercicio 7. Sean X,Y tienen son normales estandar (0, 1) independientesy sean R,Θ v.a. de�nidas por la transformación X = RcosΘ, Y = RsinΘ.Encontrar las distribuciones conjunta y marginales de R,Θ.
Parte I
Ejercicios Adicionales
1. Sean X y Y v.a. N(0, 1). De�nimos una nueva v.a. Z de la siguientemaneras
Z =
{X si XYmayor a cero−X si XYmenor a cero
a) Demuestre que Z tiene una distribución normal
b) Demuestre que la distribución conjunta de Z y Y no es normal bi-variada. Este ejercicio demuestra que se puede tener distribucionesnormales marginales y sin embargo la distribución conjunta no es ne-cesariamente marginal. (Sugerencia : Demuestre que las dos variablestienen el mismo signo)
2. Supongamos queX1 ∼ N(0, 1) y X2 ∼ N(0, 1) son independientes. De�ni-mos dos v.a. R y Θ de tal manera que x1 = rcos(θ), x2 = rsin(θ) parar ≥ 0 y 0 ≤ θ < 2π. Encontrar la distribución de R y Θ
3. Sea X una variable aleatoria continua con f.d.a. Fx . Demostrar que Y =F (X) tiene distribución U(0, 1). De igual manera si Y ∼ U(0, 1) entoncesX ∼ F−1(Y ) tiene distribución F
4. Supongamos que U1 ∼ U(0, 1) y U2 ∼ U(0, 1) son v.a. independientes.
Si x1 = cos(2πU1)√=2ln(U2) , x2 = sin(2πU1)
√=2ln(U2) demostrar que
X1 y X2 son variables normales (0, 1) independientes
Sea el jacobiano dado por
J =
∣∣∣∣∣∣−2Πsin (2ΠU1)
√−2ln (U2) − cos(2ΠU1)
U2
√−2ln(U2)
2Πcos (2ΠU1)√−2ln (U2) − sin(2ΠU1)
U2
√−2ln(U2)
∣∣∣∣∣∣J−1 =
∣∣∣ 2Πsin2(2ΠU1)U2
+ 2Πcos2(2ΠU1)U2
∣∣∣−1
=(
2ΠU2
)−1
como x21 + x2
2 = −2ln (U2) tenemos que U2 = exp(−x
21+x2
2
2
)con lo cual
f (U1, U2) = f (x1, x2)∣∣J−1
∣∣ =(
2ΠU2
)−1= 1
2Πexp(−x
21+x2
2
2
)= 1√
2Πexp
(−x
21
2
)1√2Πexp
(−x
22
2
)= fx2
(x1) fx2(x2) lo cual muestra que
son independientes y estas son normales N (0, 1).
3
Hacer los siguientes ejercicios de[CST ]
1. 2.67*. (Mukhopadhyay 2000, p. 197): Suppose that X1 and X2 have ajoint pdf given by f(x1, x2) = 3(x1 +x2)I(0 < x1 < 1)I(0 < x2 < 1)I(0 <x1 +x2 < 1). Consider the transformation Y1 = X1 +X2 and Y2 = X1=X2
.
a) Find the Jacobian J for the transformation.
b) Find the support Y of Y1 and Y2 .
c) Find the joint density fY 1,Y 2(y1, y2).
d) Find the marginal pdf fY 1(y1).
e) Find the marginal pdf fY 2(y2).
f ) Hint for d) and : IA1(y)IA2(y)IA3(y) = I⋂3
1Aj
(y) = IY (y) where Y
is a triangle.
2. 2.74*. Suppose that the joint probability mass function f(y1, y2) of Y1 andY2 is given in the following table.
y2
f (y1, y2) 0 1 20 0.38 0.14 0.24
y1
1 0.17 0.02 0.05
a) Find the marginal probability function fY2(y2) for Y2 .
b) Find the conditional probability function f(y1|y2) of Y1 given Y2 = 2.
3. 2.76. Suppose that X1 and X2 are independent with X1 ∼ N(0, 1) andX2 ∼ N(0, 4) so V ar(X2) = 4. Consider the transformation Y1 = X1 +X2
and Y2 = X1=X2 .
a) Find the Jacobian J for the transformation.
b) Find the joint pdf f(y1, y2) of Y1 and Y2 .
c) Are Y1 and Y2 independent? Explain brie�y.
Hint: can you factor the joint pdf so that f(y1, y2) = g(y1)h(y2) forevery real y1 and y2 ?
4
Parte II
Ejercicios Adicionales
1. Se lanza una moneda balanceada n veces y se cuenta el numero de carasN y se lanza la moneda N veces mas. Encuentre el valor esperado del totalde lanzamientos.
2. Sea (X,Y ) un punto seleccionado al azar del semi-c�rculo X2 + Y1 ≤ 1donde Y ≥ 0.
a) Si observamos X encontrar E[Y |X]. Esta es la mejor prediccion deX dado Y en el sentido de m�nimos cuadrados
b) Si observamos Y encontrar E[X|Y ]. Esta es la mejor prediccion deX dado Y en el sentido de m�nimos cuadrados
3. Demuestre que si X y Y son independientes entonces E[X|Y ] = E[Y ]
4. Supongamos que la Y |X = x ∼ N(x, x2) y que la distribucion marginalde X es uniforme en el intervalo (0, 1).
a) Encontrar E[Y ], V [Y ]y Cov(X,Y )
b) Demostrar que Y |X y X son independientes.
Parte III
DISTRIBUCION DE UNAFUNCION DE UNA VARIABLEALEATORIA
1. Ejercicio 1. Sea X ∼ N(0, 1) y sea Y = X2 , encontrar fY (y)
2. Ejercicio 2. Demostrar el Teorema 4
5
Ejerccicios Adicionales
1. 2.8.
a) LetfY (y) be the pdf of Y . If W = μ+ Y where =∞ < μ <∞, showthat the pdf of W is fW (w) = fY (w=μ) .
b) Let fY (y) be the pdf of Y . If W = σvY where σv > 0, show that thepdf ofW is fW (w) = (1/σv)fY (w/σv) .
c) Let fY (y) be the pdf of Y . If W = μ+ σvY where =∞ < μ <∞ andσv > 0, show that the pdf of W is fW (w) = (1/σv)fY ((w=μ)/σv).
2. 2.9.
a) If Y is lognormal LN(μ,σv2), show that W = log(Y ) is a normalN(μ,σv2) random variable.
b) If Y is a normal N(μ,σv2) random variable, show that W = eY is alognormal LN(μ,σv2) random variable.
3. 2.10.
a) If Y is uniform (0, 1), Show that W = =log(Y ) is exponential (1).
b) If Y is exponential (1), show that W = exp(=Y ) is uniform (0, 1).
4. 2.11. If Y ∼ N(μ,σv2), �nd the pdf of W =(Y=msv
)2
.
5. 2.14.
a) Suppose that Y has a Pareto(σv, λ) distribution with pdf f(y) =1lsv
1l
y1+1/l where y ≥ σv, σv > 0, and λ > 0. Show that W = log(Y ) ∼EXP (θ = log(σv), λ).
b) If Y as an EXP (θ = log(σv), λ) distribution, show that W = eY hasa Pareto(σv, λ) distribution.
6. 2.17.
a) If Y is truncated extreme value TEV (λ) then the pdf of Y is f(y) =1lexp(y= eY −1
l) where y > 0, and λ > 0. Show that W = eY=1 is an
exponential (λ) random variable.
b) If Y is an exponential(λ) random variable, show thatW = log(Y +1)is a truncated extreme value TEV (λ) random variable.
c) If Y has an inverse exponential distribution, Y ∼ IEXP (θ), showthat W = 1/Y ∼ EXP (1/θ).
6
d) If Y has an inverse Weibull distribution, Y ∼ IW (φ, λ), show that1/Y ∼W (φ, λ), the Weibull distribution with parameters φ, λ).
e) If Y has a log-gamma distribution, Y ∼ LG(ν, λ), show that W =eY ∼ gamma(ν, λ).
f ) If Y has a two parameter power distribution, Y ∼ power(τ, λ), showthat W = =log(Y ) ∼ EXP (=log(τ), λ).
7. 2.20.
a) If Y is Weibull W (φ, λ), show that W = Y f is an exponential (λ)random variable.
b) If Y is an exponential(λ) random variable, show that W = Y 1/f isa Weibull W (φ, λ) random variable.
Parte IV
ESPERANZA MATEMATICA
1. Ejercicio 1. Diremos que X tiene una distribución de Cauchy si su fdp está
dada por f(x) = 1p
(1
1+x2
), =∞ < x <∞ Demostrar que E[X] no existe
La esperanza existe si la integral´∞−∞ |x| f(x)dx =
´∞−∞
1p
(|x|
1+x2
)dx exis-
te.´∞−∞ |x| f(x)dx =
´∞−∞
1p
(|x|
1+x2
)dx =
´ 0
−∞1p
(−x
1+x2
)dx+´∞
01p
(x
1+x2
)dx
=´ 0
−∞1p
(−x
1+x2
)dx +
´∞0
1p
(x
1+x2
)dx si u = 1 + x2 tenemos du = 2xdx
remplazando tenemos´ 1
∞12p
(−1u
)du +
´∞1
12p
(1u
)du = 1
p
´∞1
1udu = ln(u)
Π
∣∣∣∞1→ ∞ cuando u →
∞ de esta manera, se prueba que E [X] no existe.
2. Ejercicio 2. Considerar la función h(b) = E[(X=b)2]. Demostrar que μ =E[X] minimiza h(b) .
Sea h (b) = E[(X − b)2
]=´∞−∞ (X − b)2
f (x) dx derivando tenemos
h′ (b) =´∞−∞−2 (X − b) f (x) dx de aqui tenemos
h′ (b) =´∞−∞−2 (X − b) f (x) dx = 0⇒
´∞−∞−2 (x− b) f (x) dx =
´∞−∞−2xf (x) dx+´∞
−∞ 2bf (x) dx = 0
⇔ −2E (X) + 2E (b) = 0⇒ 2E (X) = 2E (b)
⇒ E (X) = E (b)
de aqui se pude ver que E (X) minimiza h (b) .
7
3. Ejercicio 3. La mediana de una v.a X es el valor m tal que P (X ≤m) ≥ 1/2) y P (X ≥ m) ≤ 1/2. En el caso de una distribución con-tinua se tiene que
´m−∞ f(x)dx =
´∞mf(x)dx = 1/2 Demostrar que si
h(b) = E[|X=b|]entonces m minimiza h(b)
Sea h (b) = E [|X − b|] =´∞−∞ |x− b| f (x) dx = −
´ b−∞ (x− b) f (x) dx +´∞
b(x− b) f (x) dx
−´ b−∞ xf (x) dx+b
´ b−∞ f (x) dx+
´∞bxf (x) dx−b
´∞bf (x) dx = −
´ b−∞ xf (x) dx+
b´ b−∞ f (x) dx+
´∞bxf (x) dx− b
(1−´ b−∞ f (x) dx
)derivando tenemos
h′ (b) = −bf (b)+´ b−∞ f (x) dx+bf (b)−bf (b)−
(1−´ b−∞ f (x) dx
)+bf (b)
=´ b−∞ f (x) dx− 1 +
´ b−∞ f (x) dx = −1 + 2
´ b−∞ f (x) dx
si h′ (b) = 0 tenemos −1 + 2´ b−∞ f (x) dx = 0 ⇒
´ b−∞ f (x) dx = 1
2 =P (X ≤ m)
de aqui se puede observar que m minimiza h (b) .
4. Ejercicio 4. Consideremos las siguientes dos densidades
f1(x) = 1√2Πx
e=(logx)2
2 , 0 ≤ x <∞
f2(x) = f1(x)[1 + sin(2πlogx)], 0 ≤ x <∞
Supongamos que X1 ∼ f1 demuestre que E[Xr1 ] = e
r2
2 para r = 0, 1, ....Vemos que f1 tienen todos sus momentos.
Sea X2 ∼ f2 entonces E [X2] = E [X1] +´∞
0xrf1(x)sin(2πlogx)dx. Uti-
lizando la transformación y = logx=r demuestre que la ultima integralpuede transformarse en la integral de una función impar sobre R por loque la integral es igual a 0. Tenemos entonces que a pesar de que X1 y X2
tienen los mismos momentos tienen diferentes densidades.
Por un lado tenemos que f1(x) = 1√2Πx
e=(logx)2
2 , 0 ≤ x < ∞ si tomamos
y = log(x)− r tenemos que x = e=y+r con lo cual la esperanza esta dadapor
E [Xr1 ] =
´ +∞0
xre=(logx)2
2√2Πx
dx =´ +∞−∞
xre=(logx)2
2√2Πx
dx =´ +∞−∞
(ey+r)re=
(y+r)2
2√
2Πey+rey+rdx
=´ +∞−∞
eyr+r2e=
(y+r)2
2√2Π
dx = 1√2Π
´ +∞−∞ eyr+r
2
e=(y+r)2
2 dx = 1√2Π
´ +∞−∞ e=
y2−r22 dx
= er2
2√2Π
´ +∞−∞ e=
y2
2 dx = er2
2√2Π
√2Π = e
r2
2 de esto concluimos que E[Xr1 ] =
er2
2 para r = 0, 1, .....
Para probar que la integral es cero, tenemos que si hacemos la sustitucionen´∞
0xrf1(x)sin(2πlogx)dx. tenemos que´∞
0xrf1(x)sin(2πlogx)dx =
´∞−∞ eyr+r
2
f1(ey+r)sin(2π (y + r))ey+rdy
=´∞−∞ eyr+r
2 e=(y+r)2
2√2Πey+r
sin(2π (y + r))ey+rdy =´∞−∞ eyr+r
2 e=(y+r)2
2√2Π
sin(2π (y + r))dy
8
= 1√2Π
´∞−∞ e=
y2−r22 sin(2π (y + r))dy = 0 ya que g (y) = e=
y2−r22 sin(2π (y + r))
es una funcion impar en efecto, tenemos que f (−x) = −f (x) al sersin(2π (y + r)) = sin(2πy) y sin(−y) = −sin(y).
5. Ejercicio 5. Sea Xn ∼ Binomial(n, p) una secuencia de v.a. Supongamosque np = λ donde λ es �jo. Demuestre que Xn converge en distribucion aY ∼ Poisson(λ).
Sugerencia: recuerde que si lımn�∞an = a entonces lımn�∞(1 + an
n
)n=
ea
Supongamos que Xn sigue una binomial de parametros (n, p)y de�nimosan = np entonces
f (Xn) =(nk
)pkqn−k = n!
(n−k)!k!pkqn−k
= n(n−1)···(n−k+1)k! pkqn−k = n(n−1)···(n−k+1)
k! pk (1− p)n−k
= n(n−1)···(n−k+1)k!
(ann
)k (1− an
n
)n−k=
nk(1− 1n )(1− 2
n )···(1− k−1n )
k!
(ann
)k (1− ann )n
(1− ann )k
=nk(1− 1
n )(1− 2n )···(1− k−1
n )k!
aknnk
(1− ann )n
(1− ann )k → ak
k! e−a
= λk
k! e−λ esto prueba que
Xn converge en distribucion a Y ∼ Poisson(λ).
Resolver los siguientes ejercicios delCapitulo 4 de [MSDA] (ver hojaadicional) : 9, 13, 16, 17, 18, 27, 79.
1. 9 This is a simpli�ed inventory problem. Suppose that it costs c dollarsto stock an item and that the item sells for s dollars. Suppose that thenumber of items that will be asked for by customers is a random variablewith the frequency function p(k). Find a rule for the number of itemsthat should be stocked in order to maximize the expected income. {Hint:Consider the di�erence of successive terms.)
2. 13 If X is a nonnegative continuous random variable, show that
E(X) =´∞
0[1− F (x)]dx
Apply this result to �nd the mean of the exponential distribution.
3. 16 Suppose that E(X) = μ and V ar(X) = σv2. Let Ζ = (X − μ)/σv. Showthat E(Z) = 0 andV ar(Z) = l.
4. 17 Find (a) the expectation and (b) the variance of the kth−order statisticof a sample of n independent random variables uniform on [0, 1]. Thedensity function is given in Example C in Section 3.7.
5. 18 If U1, ..., Un are independent uniform random variables, �nd E(U(n) − U(1)
).
9
6. 27 If n men throw their hats into a pile and each man takes a hat atrandom, what is the expected number of matches? (Hint: Express thenumber as a sum.)
7. 79 Find the mgf of a geometric random variable, and use it to �nd themean and the variance.
Resolver los siguientes ejercicios desu texto [CST]:
1.3
1. 1.3*. For the Gamma(ν, λ) distribution,
a) �nd E Y .
b) Find Var Y .
c) Find the mgf m(t).
1.4,
1. 1.4*. For the Normal(μ, σv 2) (or Gaussian) distribution,
a) �nd the mgf m(t). (Hint: complete the square to get a Gaussiankernel.)
b) Use the mgf to �nd E Y .
c) Use the mgf to �nd Var Y .
1.7,
10
1. 1.7*. See Mukhopadhyay (2000, p. 39). Recall integrals by u-substitution:
I =´ baf(g(x))g′(x)dx =
´ g(b)g(a)
f(u)du =´ dcf(u)du =
F (u)|dc = F (d)=F (c) = F (u)|g(b)g(a) = F (g(x))|ba = F (g(b))=F (g(a))
where F ′(x) = f(x), u = g(x), du = g′(x)dx, d = g(b), and c = g(a)
This problem uses the Gamma function and u-substitution to show thatthe normal density integrates to 1 (usually shown with polar coordinates).When you perform the u-substitution, make sure you say what u = g(x),du = g′(x)dx, d = g(b), and c = g(a) are.
� a) Let f(x) be the pdf of a N(μ,σv2) random variable. Perform u-substitution on I =
´∞−∞ f (x) dx with u = (x=μ)/σv.
� b) Break the result into two parts,
I = 1√2Π
´ 0
−∞ e=u2/2du+ 1√
2Π
´∞0e=u
2/2dv
Then perform u-substitution on the �rst integral with v = =u.
� c) Since the two integrals are now equal,
I = 2√2Π
´∞0e=v
2/2dv = 2√2Π
´∞0e=v
2/2 1vvdv
Perform u-substitution with w = v2/2.
� d) Using the Gamma function, show that I = Γ(1/2)/√π = 1.
1.15,
1. 1.15. Let A and B be positive integers. A hypergeometric random variableX = W1 +W2 + · · ·+Wn where the random variables Wi are iden ticallydistributed random variables with P (Wi = 1) = A/(A+ B) and P (Wi =0) = B/(A+B).
a) Find E(W1).
b) Find E(X).
1.19,
1. 1.19. Suppose that the random variable W = eX where X ∼ N(μ,σv2).Find E(W r) = E[(eX)r] by recognizing the relationship of E[(eX)r] withthe moment generating function of a normal(μ,σv2) random variable.
11
2. 2.1*. Let X1, ..., Xn be independent Poisson(λi). Let W =∑ni=1Xi. Find
the mgf of W and �nd the distribution of W .
3. 2.2*. Let X1, ..., Xn be iid Bernoulli(ρ). Let W =∑ni=1Xi. Find the mgf
of W and �nd the distribution of W .
4. 2.3*. Let X1, ..., Xn be iid exponential(λ). Let W =∑ni=1Xi. �nd the
mgf of Wand �nd the distribution of W .
5. 2.4*. Let X1, ..., Xn be independent N(μi,σv2i ). LetW =
∑ni=1 (ai + biXi) .
where ai and bi are �xed constants. Find the mgf of W and �nd thedistribution of W .
6. 2.5*. Let X1, ..., Xn be iid negative binomial(1, ρ). Let W =∑ni=1Xi.
Find the mgf of W and �nd the distribution of W .
7. 2.6*. Let X1, ..., Xn be independent gamma(νi, λ). Let W =∑ni=1Xi. .
Find the mgf of W and �nd the distribution of W .
8. 2.7*. Let X1, ..., Xn be independent χ2pi . Let W =
∑ni=1Xi. Find mgf of
W and �nd the distribution of W .
9. 2.8.
a) Let fY (y) be the pdf of Y . If W = μ+ Y where =∞ < μ <∞, showthat the pdf of W is fW (w) = fY (w=μ) .
b) Let fY (y) be the pdf of Y . If W = σvY where σv > 0, show that thepdf of W is fW (w) = (1/σv)fY (w/σv).
c) Let fY (y) be the pdf of Y . If W = μ+ σvY where =∞ < μ <∞ andσv > 0, show that the pdf of W is fW (w) = (1/σv)fY ((w=μ)/σv).
12