TABLA DE CONTENIDOS 1. NOCIONES ELEMENTALES DE ... · 1.2.2 conceptos bÁsicos de anÁlisis...
Transcript of TABLA DE CONTENIDOS 1. NOCIONES ELEMENTALES DE ... · 1.2.2 conceptos bÁsicos de anÁlisis...
TABLA DE CONTENIDOS
1. NOCIONES ELEMENTALES DE PROBABILIDAD 1.1 NOCIONES SOBRE CONJUNTOS 1.1.1 DEFINICIÓN DE CONJUNTO. 1.1.2 NOTACIÓN. 1.1.3 EJEMPLOS. 1.1.4 CONJUNTO UNIVERSAL Y CONJUNTO VACÍO. 1.1.5 OPERACIONES ENTRE CONJUNTOS 1.1.6 EJEMPLO 1.1.7 ALGUNAS DEFINICIONES O LEYES DE INTERÉS 1.2 MODELOS PROBABILÍSTICOS 1.2.1 CARACTERÍSTICAS DE LOS FENÓMENOS ALEATORIOS 1.2.2 CONCEPTOS BÁSICOS DE ANÁLISIS COMBINATORIO 1.2.3 CONCEPTO DE PROBABILIDAD 1.2.4 TEORÍA AXIOMÁTICA DE LA PROBABILISDAD 1.2.5 TEOREMAS FUNDAMENTALES DEDUCIBLES DE LA TEORÍA AXIOMÁTICA DE LA PROBABILIDAD 1.2.6 TEORÍA CLÁSICA DE LA PROBABILIDAD 1.2.7 TEORÍA FRECUENCIAL O A POSTERIORI 1.2.8 PROBABILIDAD MARGINAL 1.2.9 PROBABILIDAD CONDICIONAL 1.2.10 TEOREMA DE BAYES 1.2.11 PROBLEMAS 2. VARIABLES ALEATORIAS 2.1 VARIABLE ALEATORIA DISCRETA 2.2 FUNCIONES DE DOS O MÁS VARIABLES DISCRETAS 2.3 FUNCIÓN DE DENSIDAD MARGINAL PARA VARIABLES DISCRETAS 2.4 FUNCIÓN DE DENSIDAD CONDICIONAL 2.5 VARIABLE ALEATORIA CONTINUA
2.6 FUNCIÓN DE DENSIDAD PARA VARIABLE CONTINUA PLURIDIMENSIONAL 2.7 ESPERANZA MATEMÁTICA 2.8 MOMENTOS CON RESPECTO AL ORIGEN 2.9 MOMENTOS DE ORDEN RESPECTO A UNA CONSTANTE 2.10 MOMENTOS DE ORDEN CON RESPECTO A LA MEDIA 2.11 VARIANZA DE UNA FUNCIÓN DE PROBABILIDAD 2.12 FUNCIÓN GENERATRIZ DE MOMENTOS 2.12.1 PROPIEDADES DE LA FUNCIÓN GENERATRIZ DE MOMENTOS 2.12.2 TEOREMA 2.13 FUNCIÓN CARACTERÍSTICA 2.14 EJERCICIOS 3. DISTRIBUCIONES PROBABILÍSTICAS 3.1 PRINCIPALES DISTRIBUCIONES DE PROBABILIDAD PARA VARIABLE DISCRETA 3.1.1 DISTRIBUCIÓN BINOMIAL 3.1.2 DISTRIBUCIÓN HIPERGEOMÉTRICA 3.1.3 DISTRIBUCIÓN DE POISSON 3.2 PRINCIPALES DISTRIBUCIONES CONTINUAS 3.2.1 DISTRIBUCIÓN UNIFORME O RECTANGULAR 3.2.2 DISTRIBUCIÓN NORMAL (0, 1 ) : n(0, 1) 3.2.3 DISTRIBUCIÓN NORMAL CON MEDIA m y VARIANZA s2: h(m,s2) 3.2.4 DISTRIBUCIÓN JI DOS CON UN GRADO DE LIBERTAD: X 2 (1) 3.2.5 DISTRIBUCIÓN JI DOS CON n GRADO DE LIBERTAD X 2 (n) 3.2.6 DISTRIBUCIÓN t DE ESTUDENT 3.2.7 DISTRIBUCION F DE SNEDECOR 3.2.8 TEOREMA CENTRAL DEL LÍMITE 3.2.9 TEOREMA DE MOIVRE 3.2.10 EJERCICIOS BIBLIOGRAFIA
1 NOCIONES ELEMENTALES DE PROBABILIDAD
1.1 NOCIONES SOBRE CONJUNTOS
1.1.1 DEFINICIÓN DE CONJUNTO. Un conjunto no es más que una
colección de objetos, elementos o miembros.
1.1.2 NOTACIÓN. Por convencionalismo se tiene, mientras no se diga lo
contrario, los conjuntos, los denotaremos con letras mayúsculas y los
elementos con letras minúsculas.
1.1.3 EJEMPLOS. 1.1.3.1 Sea A un conjunto compuesto por los elementos: a, b, c y d. Es decir,
{ }a, b, c, dA = , donde podemos asegurar que a “pertenece a” A y se escribe
( ) ( ) etc. A; d c, b, A; b a, A; d A; c A; b A; a ∈∈∈∈∈∈
1.1.3.2 Cuando un elemento o un grupo de elementos “no pertenece a” un
conjunto, lo denotamos así: .∉ Remitiéndonos al ejemplo 1.1.3.1 tenemos que la
pareja ( ) A. h, k ∉
1.1.3.3 Dados los conjuntos A y B los cuales tienen como elementos : 1, 3, 5, 7, 9
y 1, 7, 9; respectivamente, entonces decimos que el conjunto B “es subconjunto
de” A.
1.1.4 CONJUNTO UNIVERSAL Y CONJUNTO VACÍO. En muchos casos
restringimos la teoría de conjuntos en términos de subconjuntos, ya que
los relacionamos con respecto a otro conjunto o espacio que los
contiene, esto es, conjunto Universal y lo denotamos con la letra U.
Cuando un conjunto no tiene elementos, se denomina conjunto vacío y lo
representamos con la letra φ , (FI).
1.1.4.1 Ejemplo de conjunto vacío:
El conjunto de todos los números reales X tales que X2 = -1, es decir,
{ } φ - X / X == 12 , ya que no existen cuadrados de números reales que sean
iguales a –1.
1.1.4.2 Ejemplo de conjunto Universal:
Si lanzamos un dado, el conjunto de todos los posibles resultados es el universo o
Espacio Universal: { }654321 , , , , ,
1.1.5 OPERACIONES ENTRE CONJUNTOS
1.1.5.1 UNIÓN. Se define como el conjunto de todos los elementos, que
pertenecen a A o a B, o tanto a A como a B, (siendo A y B
previamente definidos).
A “Unión” B, esto es ( ) BA ∪ .
1.1.5.2 INTERSECCIÓN. Es el conjunto de elementos que pertenecen
simultáneamente a A y a B, (A y B previamente definidos), y se
escribe A ∩ B.
Cuando A ∩ B = φ , decimos que A y B son conjuntos disjuntos o “Distintos”.
1.1.5.3 DIFERENCIA. Son todos los elementos que de A que no pertenecen
a B, esto es, A – B.
1.1.5.4 COMPLEMENTO. Si B C A, entonces, A – B se denomina el
complemento de B relativo a A y se escribe: A.B o AB o AB C´ . Si A
= U, nos referimos a U – B, sencillamente como el complemento de
B: . o BB o B C´ El complemento de ( ) BA ∪ se escribe
( ) ( ) ( )C.´ B A o B A o B A ∪∪∪
1.1.6 Ejemplo:
{ }{ }{ }
{ }a,uD, , , C
, u, , o, , i, , e, a, B , , , , , , , , , A
====
864297531
9876543210
Hallar: A. C D; A - B; B; B A ´∪∪
Entonces:
{ } { }{ }
{ } { }97531086420
9876543210975319876543210
, , , , , A CA imo C y por últ, , , , B Ahora, A - B. D Luego, B
B. que, D claramente D, vemos B o, u, a, e, i,, , , , , , , , , B A
, u, , o, , i, , e, a, , , , , , , , , , B A
´´ ===
=∪⊂∪
=∪∪=∪
1.1.7 ALGUNAS DEFINICIONES O LEYES DE INTERÉS
1.1.7.1 Sean A, B, C, tres conjuntos cualesquiera, tal que si
C. A C B y BA ⊂⇒⊂⊂
1.1.7.2 A: B B A ∪=∪ Ley conmutativa de la unión.
1.1.7.3 ( ) ( ) C: B A C BA CB A ∪∪=∪∪=∪∪ Ley asociativa de la
unión
1.1.7.4 A ∩ B: Ley conmutativa de la intersección = B ∩ A
1.1.7.5 ( ) ( ) C: B A C BA CB A ∩∩=∩∩=∩∩ Ley asociativa de la
intersección.
1.1.7.6 ( ) ( ) ( ) CA BA CB A ∩∪∩=∪∩
1.1.7.7 ( ) ( ) ( ) CA BA CB A ∪∩∪=∩∪
1.1.7.8 ´ B A A - B ∩=
1.1.7.9 ´´´´ A o B B A B Si A ⊂⊃⇒⊂
1.1.7.10 φφ A y A φA =∩=∪
1.1.7.11 A U A U y U A =∩=∪
1.1.7.12 ( ) : B A BA ´´´ ∩=∪ Se conoce como la primera Ley de Morgan
1.1.7.13 ( ) : B A BA ´´´ ∪=∩ Segunda Ley de Morgan
1.1.7.14 Para cualquier par de conjuntos A y B ( ) ( ). BA BA A ´∩∪∩=⇒
1.2 CÁLCULO DE PROBABILIDADES
El cálculo de probabilidades es la teoría matemática que sirve de modelo, para la
descripción y análisis de los fenómenos estadísticos o aleatorios.
Por fenómenos o experimentos aleatorios, entendemos que son aquellos cuyos
resultados están establecidos pero no se pueden predecir con exactitud A priori1, o
sea que en situaciones idénticas pueden presentar resultados diferentes; además
los fenómenos pueden ocurrir repetidamente en forma indefinida.
1.2.1 CARACTERÍSTICAS DE LOS FENÓMENOS ALEATORIOS 1.2.1.1 Multiplicidad de la ocurrencia
1.2.1.2 Variabilidad, ya que pueden presentar resultados distintos en cada
experimento.
1.2.1.3 Aleatoriedad, porque no pueden predecir
1.2.1.4 Ley del Azar, si una cierta experiencia se repite n veces y anotamos el
número n(A) de veces que ocurre una característica determinada, se
1 Palabra del latín que significa “que viene antes”, o sea, antes de la prueba.
observa la frecuencia n
n(A) , tiende a estabilizarse, esto es, se aproxima
a un valor fijo. Haremos énfasis en la última característica o propiedad
de los fenómenos aleatorios, conocida también como “Estabilidad de las
frecuencias” o “Principio de la regularidad estadística”.
Todo fenómeno exige la evidencia de alguna regularidad, el cálculo de
probabilidades se basa en la regularidad estadística que caracteriza a los
fenómenos aleatorios.
Los fenómenos aleatorios se caracterizan por la imposibilidad de predecir
resultados individuales, sin embargo, si consideramos un número de pruebas
repetidas o simultáneas, la situación cambia, y a pesar de la irregularidad de los
resultados individuales o aislados, los resultados promedios o globales muestran
una sorprendente regularidad.
Para explicar este principio de la regularidad, tomemos un ejemplo clásico citado
por numerosos autores de temas estadísticos: “Supongamos el lanzamiento de
una moneda perfecta, donde representamos por n el número de lanzamientos de
la moneda y sea, A: El resultado consistente en caer cara, entonces n(A) será la
frecuencia absoluta o número de veces de caer cara dentro del experimento, luego
la frecuencia relativa será n
n(A) h(a) = . La experiencia indica que para grandes
valores de n, esta frecuencia relativa tiende a estabilizarse alrededor de un valor
más o menos constante. Si observamos la figura No. 1, vemos claramente que la
frecuencia h(A) fluctúa ampliamente para pequeños valores de n, pero al aumentar
n, las oscilaciones se hacen cada vez menos intensas y para grandes valores de
n el gráfico parece indicar la tendencia de h(A) a alcanzar un valor límite o ideal,
muy próximo a 0.5. Ver figura No. 1.
Figura No. 1
1.2.2 CONCEPTOS BÁSICOS DE ANÁLISIS COMBINATORIO
Fundamentalmente el análisis combinatorio se ocupa tanto de los diversos modos
de ordenar los elementos de un conjunto, como del estudio de las agrupaciones
que se pueden formar con dichos elementos, así pues, por análisis combinatorio
podemos afirmar que es la parte de la matemática en que se estudian las
agrupaciones que pueden formarse con elementos dados, (objetos. Números, ...),
teniendo en cuenta el número de elementos que entran en cada grupo y el orden
en que están colocados, prescindiendo del valor numérico de los elementos, si lo
tuvieren.
En el análisis combinatorio podemos considerar: Las variaciones, permutaciones,
combinaciones y el principio fundamental de cuenta.
1.2.2.1 VARIACIONES2. Se denomina variación, de los elementos de un
conjunto, una disposición ordenada de los mismos. Si hay n elementos en el
conjunto, el número de variaciones dependerá del número de objetos m que se
deseen tomar y ordenar.
2 Algunos autores las llaman ordenaciones, otros las consideran como un caso especial de las permutaciones.
Las variaciones de n elementos tomados en grupo de “m en m” se denotan por:
mVnó ó nVm ó Vn:mV nm . Antes de definir el número de variaciones, aclaremos
la noción de factorial de un número, primero que todo dicho número debe definirse
como el elemento de los números enteros positivos sin incluir el cero, así pues, el
factorial de n y se escribe n! Se define como: n! = n(n-1) (n-2) ... x3x2x1 y decimos
que 0! = 1, por definición.
Luego el número de variaciones está dado por la expresión:
(n-m)!n! V n
m = donde n representa el total de elementos del conjunto y m: el
número de elementos que desean ordenar.
1.2.2.2 EJERCICIO. Hay 15 candidatos para ocupar los cargos de presidente,
vicepresidente, secretario, tesorero, fiscal, de una asociación gremial.
De cuántas maneras diferentes se pueden ocupar estos cargos?
Tenemos que el primer cargo, o sea, el cargo del presidente puede ser ocupado
por cualquiera de los 15 candidatos, es decir, hay 15 maneras diferentes de
ocupar dicho cargo. Ahora, una vez ocupado el cargo de presidente, nos
quedan14 candidatos disponibles para ocupar el segundo cargo, digamos el de
vicepresidente, una vez ocupado dicho cargo, el siguiente se puede ocupar de 13
maneras y así sucesivamente; tal como lo indicamos a continuación:
,Fiscal x Tesorero x Secretario x enteVicepresid x esidente1112131415
Pr luego, el número
total de maneras diferentes para integrarse dicha junta es: 15 x 14 x 13 x 12 x 11 =
360.360 . n = 15: número de candidatos, m = 5: Personas a ocupar los cargos.
36036010
101112131415515
15155 .
!! xxxx
)!-(! V ===
1.2.2.3 VARIACIONES CON REPETICIÓN
Si suponemos que cada uno de los m elementos, puede figurar cualquier número
de veces en una misma variación, obtenemos las variaciones con repetición, cuyo
número lo podemos calcular auxiliándonos con la fórmula:
nmnm V R =
Así en el caso del ejercicio 1.2.2.2, el presidente una vez nombrado, participa en la
elección de vicepresidente y a su vez éste en la del presidente, tesorero,
secretario y fiscal a así sucesivamente; es decir:
37575915
1515151515
5155 . ) ( V R
F x T x S x Vp x P
==
1.2.2.4 PERMUTACIONES. Las variaciones, de orden m de n elementos
cuando m es igual a n, decimos entonces que son permutaciones. El
número de permutaciones diferentes está dado por la expresión:
n! Pnm = .
Ahora, en el caso que entre los n elementos, existan h iguales entre sí; ( h < n), el
número de permutaciones está dado por la expresión: h!n! Ph
n =
Pero puede presentarse el caso en que dentro de los n haya más de una clase de
elementos iguales entre sí, es decir, existan h1, iguales entre sí, h2 iguales entre sí,
…………., h t iguales entre sí; entonces el número de permutaciones está dado
por la expresión:
n h ... h h : donde ,!h ... !h !h
n! t21t21
h,.........h,hP t21n
=+++=
Cuando los elementos no se suponen ubicados en una línea recta, sino en un
circulo, se dice que la permutación es circular, esto es, no hay primero ni último
elemento; lo que implica tener que “fijarse” uno, como punto de referencia. El
número de permutaciones circulares está dado por: c P n = PCn = (n – 1)!.
A manera de ejemplos ilustremos un poco los conceptos de permutaciones ya
dados:
- El número de permutaciones diferentes que se pueden formar con la
palabra SACO es: P4 = 4! ; en dicha palabra no se encuentran letras
iguales.
- Veamos ahora con la palabra CHALECO, en este caso hay dos elementos
iguales entre sí, luego el número de permutaciones está dado por:
5202272
7 . !! P == .
- Dadas las siguientes letras: T, S, S, V, V, T, T, S; cuántas permutaciones
diferentes podemos hallar?
Observamos que para n = 8 elementos hay h1 = “número de tes” = 3; h2 =
número de eses = 3 y h3 = número de uves = 2; entonces el número de
permutaciones estará dado por: 560233
82338
!! ! ! P ,, ==
- Si tenemos 5 estudiantes sentados alrededor de una mesa redonda, de
cuántas maneras de pueden permutar?
En este caso de distribución circular de los elementos, debemos primero que todo,
fijar un elemento de referencia; así, llamemos los estudiantes con las letras A, B,
C, D, E; si fijamos el estudiante C, solamente quedan para intercambiarse los
estudiantes A, B, D, E; si fijamos el estudiante A, pueden intercambiarse B, C, D,
E y así sucesivamente. Observamos pues que de los 5 estudiantes sólo quedan 4
para permutarse. Luego el número de permutaciones está dado por:
2445
! PC == .
1.2.2.5 COMBINACIONES
Las combinaciones de orden m de n objetos: a1, a2, ...... an; son los grupos de m
objetos que se pueden formar entre los n, de modo que dos cualesquiera difieran
en algún objeto.
A diferencia de las variaciones, en las combinaciones, no importa el orden de
sucesión de los elementos.
El número de combinaciones está dado por la fórmula:
( ) n m !m! (n - m)
n! nm Cn
m ≤≤∴== 1
Un ejemplo ilustrativo para la anterior definición puede ser: Cuántas ternas
diferentes podemos extraer de las letras A, E, I, O, U?
En este caso consideramos que la terna (A, E, I) = (E, A, I) = (E, I, A) = (I, E, A)
= (I, A, E) = (A, I, E), ya que no nos interesa el orden de colocación de los
elementos dentro de la terna, solo nos interesan todas aquellas ternas que difieran
al menos en un elemento.
Luego el número de ternas diferentes está dado por:
1023
553
!! ! C ==
1.2.2.6 PRINCIPIO FUNDAMENTAL DE CUENTA
Si ; - α, - - - - , α, ααn321
son n acciones distintas que se pueden realizar de
n, - - - γ, γγ
21 maneras respectivamente, entonces el número total de maneras
como se pueden efectuar n
- α, - - - - , α, αα321
en sucesión, viene dado por:
n - - - γ γ γ γ ×××
321: Maneras.
Ahora, si el número de maneras como se pueden efectuar cada una de las
iα Acciones, (i = 1, ......, n), es idéntico, es decir; nγ - - - γ γ γ ====
321;
entonces el número total de maneras estará dado por:
n γγ - - - γ γ γ =××××
En general, en todo experimento, si hay n pruebas, cada una de las cuales pueden
dar γ resultados independientes, el total de resultados diferentes será hγ . Así por
ejemplo: Al lanzar un dado una vez, el número de resultados posibles es 6, o sea,
6 6 11 ==γ .
Si lanzamos el dado dos veces, 366 222 γ hay n ==⇒= resultados
posibles; si se lanza el dado tres veces, 3 63 γ n =⇒= 3 resultados
posibles.
1.2.3 CONCEPTO DE PROBABILIDAD
Podemos decir entonces, basados en la experiencia que podemos asociar la
frecuencia h(A) con un número p(A), para cada suceso A dentro del experimento,
de tal manera que p(A) = h(A) cuando ∞→n ; diremos entonces que p(A), es la
_____ n veces ____
probabilidad del suceso A. La probabilidad de un suceso suele llamarse también
frecuencia teórica o verdadera.
El objeto de la teoría de probabilidades es proporcionar un modelo matemático
adecuado a la descripción e interpretación de los experimentos aleatorios.
Veamos ahora, las definiciones de algunos de los elementos sobre los cuales se
asienta la teoría de probabilidades.
1.2.3.1 ESPACIO MUESTRAL
Es el conjunto o totalidad de resultados posibles dentro de un experimento
aleatorio; lo llamaremos S.
El espacio muestral S puede ser discreto y continuo. Es discreto cuando
contiene un número finito de puntos o un número infinito numerable3 de puntos.
Así por ejemplo, en el lanzamiento de un dado, una vez, el espacio muestral S es
= {1, 2, 3, 4, 5, 6}, que es un espacio con número finito de puntos. Ahora si el
experimento consiste en lanzar una moneda legal, hasta que aparezca el primer
sello, el espacio muestral es: S = {1, 2, 3, ...... }; Ya que el resultado deseado
puede ocurrir en la primera, segunda, tercera, . . . , tirada.
El espacio muestral S es continuo si contiene un número infinito no numerable de
puntos. Así por ejemplo, un experimento aleatorio consiste en observar la
resistencia a la tensión de ciertas vigas, bajo las mismas condiciones; el resultado
puede ser cualquier número positivo por consiguiente el espacio muestral es
continuo.
3 Se llama “numerable” el conjunto infinito cuyos elementos se pueden numerar, es decir, poner en concordancia con cada elemento un número entero de modo que a distintos elementos les correspondan números diferentes. Un conjunto infinito cuyos elementos no se pueden llevar a la correspondencia biunívoca con los números enteros se llama “No numerable”.
1.2.3.2 SUCESO
Es el conjunto de resultados favorables o deseados en un experimento dado. Por
ejemplo, un experimento aleatorio, consiste en lanzar dos dados y una moneda.
Uno de los sucesos puede ser; A = suma de puntos menor que 4 para los dados y
sello para la moneda, luego, A = {(1, 1, s); (1, 2, s); (2, 1, s)} como puede verse, el
suceso A no es más que un subconjunto del espacio muestral S.
Muchos autores suelen llamar los sucesos aleatorios como eventos. Cuando los
elementos de un suceso coinciden con los elementos del espacio muestral
decimos que es “suceso seguro”; cuando los sucesos están formados por un solo
punto del espacio muestral se denominan “sucesos elementales”; y cuando el
conjunto de posibles resultados es el vacío decimos que el suceso de llama
“suceso imposible”.
1.2.4 TEORÍA AXIOMÁTICA DE LA PROBABILIDAD
Partiendo de las características observadas en simples experiencias, podemos
construir un modelo abstracto que nos traduzca y generalice, para aplicarlas en
situaciones más complicadas. Es decir, establecemos en forma axiomática el
cálculo de probabilidades.
Llamaremos P (A) a la probabilidad del suceso A en el experimento aleatorio,
dentro del espacio muestral S. P(A) es una función de conjunto que satisface los
tres axiomas siguientes:
1201
. P(S) S r suceso A cualqeuie Para . P(A)
=∈≥
............... 3212132 A,A ,A si,)P(A )P(A .........) UUAUA P(A, 3. ++= es una
sucesión de sucesos mutuamente excluyentes o incompatibles, es decir, si
j i para φAA ji ≠=∩ .
1.2.5 TEOREMAS FUNDAMENTALES DEDUCIBLES DE LA TEORÍA AXIOMÁTICA DE LA PROBABILIDAD
1.2.5.1 Si P(A) es la probabilidad de un suceso A, la probabilidad del suceso
contrario a A es igual a UNO menos la probabilidad de A, es decir,
- P(A) ) P(A 1=
Demostración:
Si φ A S y A AA '´ =∩=∪ , o sea, son mutuamente excluyentes,
P (S),) A P(A ' =∪⇒ por axioma tercero. ∴
) P(A P(A) ) AP (A '' +=∪ y por segundo axioma tenemos que
11 ) ' P(A P(A) ) 'AP(A. P(S) =+=∪= ∴ .
Luego: P(A’) = 1 – P(A).
1.2.5.2 La probabilidad de un suceso lógicamente imposible es cero; o sea,
0) P(φ = .
Demostración:
P(S') P(φ S' φ =⇒= ) y por el teorema 1.2.5.1, sabemos que:
011)11 - P(φ P(S') ) pero P(S - P(S), P(S') ===⇒==
Luego: . P (φ 0) =
1.2.5.3 P(A) 10 ≤≤ Cualquiera que sea el suceso A
Demostración:
0 P (A) ≥ por axioma primero
Luego debemos probar que , P(A) 1≤ por teorema 1.2.1, vemos que P(A) = 1 – P
(A’); pero 0 P (A') ≥ , por axioma primero . P(A) luego P(A) 101 ≤≤≤⇒
1.2.5.3 Si ) P(A) P(A A A 2121 ≤⇒⊂
Demostración:
Si [ ] 221121 A A A A A A ' =∩∪⇒⊂
Tal como se puede apreciar en el siguiente diagrama:
2c1 AA ∩
[ ]( )[ ] como ),P(A )A P(A )P(A )(A P A A A P
φ A A A
22'1122
'11
2'11
=∩+⇒=∩∪
=∩∩∴
, ) A y P(A ) P(A ' 00 211 ≥∩≥
Luego podemos concluir que:
). P(A) P(A 21 ≤
1.2.5.4 Para cualquier par de sucesos A1 y A2 se tiene que
) A ) - P(A P(A) P(A) A P(A 212121 ∩+=∪ .
Demostración:
Ayudémonos a través del siguiente gráfico:
Observando el diagrama, podemos ver claramente que:
( ) ( )( ) ( ) ( ) ( ) A A P A A P A A P A A P
:teconsiguien por ,A AA A )A (A A A'1221
'2121
'1221
'2 12 1
∩+∩+∩=∪
∩∪∩∪∩=∪
Ahora; de modo similar vemos que: ) A (A) A (A A '21211 ∩∪∩= y que
),A P(A - )P(A )A P(A
)A P(A )A P(A )P(A φ )A (A )A (A
211'21
'21211
'2121
∩=∩
∩+∩=⇒=∩∩∩
∴
Por otra parte; φ) A (A) A ) y (A A (A) A (A A '' =∩∩∩∩∪∩= 122112212
) A) - P(A P (A) A P (A) A P (A) A P (A) P (A ''2121212212 =∩⇒∩+∩=⇒
Ahora, remplazando: (2) y (3) en (1) se tienen que.
) P(A) P(A) A P(A A A), SI A ) - P(A P(A) P(A) A P(A
2121
21212121
+=∪⇒=∩∩+=∪ φ
1.2.6 TEORÍA CLÁSICA DE LA PROBABILIDAD4
En ciertos problemas, con espacio muestral discreto y número finito de puntos,
(los juegos de azar por ejemplo), es realista suponer que la probabilidad asignada
4 También se conoce como teoría A priori de la probabilidad o regla de Laplace
1
2
3
a cada punto del espacio muestral es n1 . Podemos entonces de esta manera
hallar la probabilidad P(A) para un subconjunto A del espacio muestral, con n(A)
puntos, cada uno con probabilidad n1 :
nn(A)
n - - - -
n
n P(A) =+++=
111
Se puede comprobar que para un espacio muestral discreto con n puntos, la
función P es función de probabilidad si cumple con los axiomas anotados
anteriormente:
Probabilidad para cada punto = 01 n
≥
Probabilidad para un subconjunto SA ∈
Es n n
n(A) P (A) ∴≥= 0 es el total de puntos en S.
Así por ejemplo, sea el experimento lanzar un dado una vez.
El espacio muestral S = {1, 2, 3, 4, 5, 6} donde cada punto, (o resultado), de S
tiene igual oportunidad, es decir, P(1) = P(2) = P(3) = ...... = P(6) = 61
Ahora, definamos el suceso A = número obtenido menor que 3 ⇒
{ } { }213 , A X / X A =⇒<=
Luego, n(A) = número de veces favorables al suceso A = 2, n(A): frecuencia de A, y
n es el total de resultados posibles del experimento ⇒ n = 6.
31
62
nn(A) P (A) ===
____n(A) veces ____
1.2.7 TEORÍA FRECUENCIAL O A POSTERIORI
Es aquella que consiste en encontrar el valor de probabilidad, después de
repetirse el experimento un número considerable de veces. Por ejemplo; la
probabilidad que tiene un jugador “A” de ganar cierto juego es P(A) = 3/5 y la
probabilidad de perderlo es P(A’) = 2/5; estas probabilidades son a posteriori,
puesto que se conocieron después de “observar” el juego de “A” repetidas veces.
Tanto la teoría clásica como la frecuencial presentan serias dificultades, la primera
en cuanto a la “Ambigüedad”, de que parte siempre de espacios muestrales finitos
y resultados equiprobables, pero cuando los resultados posibles generan un
espacio muestral discreto infinito, como por ejemplo al hallar la probabilidad de
que un número natural sea impar, dicha teoría nos deja en nada; mientras que, la
segunda teoría presenta el inconveniente en cuanto a “Repetirse el experimento
un número considerable de veces”; de ahí la importancia que toma la teoría
axiomática de la probabilidad, evitándonos los tropiezos o limitaciones de las
teorías clásica y frecuencial.
1.2.8 PROBABILIDAD MARGINAL
Supongamos que el espacio muestral S, discreto formado por un número n finito
de puntos, cada uno con igual probabilidad n1 .
Ahora, hagamos una partición del espacio muestral S en m1 subconjuntos
mutuamente excluyentes: A1, A2,A3,......, Am1
Hagamos otra partición de S en m2 subconjuntos mutuamente excluyentes, así.
B1, B2,B3,......, Bm2
Entonces los n puntos de S pueden clasificarse de la siguiente manera, utilizando
la tabla de doble entrada:
B1 B2 B3 . . . Bj . . . Bm2
A1 n11 n12 n13 . . . n1j . . . n1m2
A2 n21 n22 n23 . . . n2j . . . n2m2
A3 n31 n32 n33 . . . n3j . . . n3m2
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
Ai ni1 ni2 ni3 . . . nij . . . nim2
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
Am1 nm11 nm12 nm13 . . . nm1j . . . nm1m2
La tabla indica, por ejemplo, que: el resultado n12 tiene a la vez el atributo A1 y el
atributo B2; n11: número de veces en que ocurren simultáneamente los atributos A1
y B1 respectivamente; y en general nij, es el número de veces en que ocurren
simultáneamente los atributos Ai y Bj. Luego la probabilidad de que sucedan Ai y Bj
simultáneamente será:
( )n
n , BAP ij
ji =
Pero si nos interesa solamente obtener la probabilidad del suceso Ai, sin
interesarnos la clasificación B, tendremos:
( )
( ) ( )∑∑==
==
++++=
m2
1 j ji
m2
1 j i
2i3i2i1i
B AP n
n AP
n n - - - n n n
AP
ij
im
O bien, si nos interesa únicamente hallar la probabilidad del suceso Bj, estará
dada por:
( ) ( )∑∑==
==m1
1 iji
m1
1 ij B AP
nn
BP ij
Donde P(Ai) y P(Bj) reciben el nombre de “probabilidad marginal” de A y B
respectivamente.
Aquí escogemos únicamente dos criterios de clasificación A y B; pero es obvio que
la idea de probabilidad marginal, se pueda generalizar a más de dos criterios de
clasificación.
1.2.9 PROBABILIDAD CONDICIONAL
Vamos a definir un tipo especial de probabilidades, que se denominan
probabilidades condicionales o relativas.
La probabilidad del suceso “A” condicionada por el suceso “B”, o probabilidad de
“A” habiendo ocurrido B, es por definición:
( ) ( )( ) inal de B mobabilidad
enteimultáneam ocurran s que A y Bobabilidad BP
BA P BAPargPr
Pr=
∩=
Aunque esta idea es completamente general; podemos describir esta probabilidad
condicional utilizando el caso particular de espacio muestral discreto con número
finito de puntos, e igual probabilidad para cada punto. Utilizando la partición del
espacio muestral y la tabla de doble entrada que formamos para escribir la
probabilidad marginal, tenemos.
Imaginémonos que se examina el resultado de un experimento aleatorio para un
atributo pero no para el otro. Deseamos hallar la probabilidad de que el otro
atributo tenga un valor determinado.
Supongamos que una vez realizado el experimento se observa que tiene el
atributo B3, deseamos hallar la probabilidad de que tenga además el atributo A2.
El total de resultados de B3 es: ∑=
=++++1
133222313
m
i ii n n . . . n n n y de estos los
resultados favorables a A2 son: n23, de esta manera, la probabilidad de A2 cuando
se sabe que ha ocurrido B3 es:
( )∑
=
= 1
13
2332 m
iin
n BAP
Si dividimos el numerador y el denominador de la expresión por n, se tiene:
( ) ( ) ( )( )3
32321
1
3
23
32 BPBAP
BA P
nn
nn
BAP m
i
i=⇒=
∑=
En general:
( ) ( )( ) ;BP
B AP BA P
j
ji ji
∩= es decir,
La probabilidad de Ai dado Bj, es igual a la probabilidad de que ocurran Ai y Bj
simultáneamente sobre la probabilidad marginal de Bj.
También se tiene que:
( ) ( )( )i
ji ij AP
B AP AB P
∩=
Ahora, utilizando el criterio de probabilidad condicional, podemos definir el carácter
de dependencia e independencia de sucesos.
Si A y B son sucesos dependientes,
( ) ( )
( ) ( )AB P P(A) P(A,B) P(A)
P(AB) ABP
BA P P(B) P(A,B) P(B)
P(AB) BAP
.
.
=∴=
=∴=
La ocurrencia de A afecta la ocurrencia de B o viceversa, ya que φ. B A ≠∩
Si A y B son sucesos independientes
P(A/B) = P(A) : El suceso A, no depende de la ocurrencia de B.
P(B/A) = P(B) : El suceso B, no depende de la ocurrencia de A.
Para sucesos independientes se tiene que: P(AB) = P(A) P(B).
1.2.10 TEOREMA DE BAYES
Consideremos el caso de n sucesos
A1, A2, . . . . . . , An; mutuamente excluyentes, de tal manera que:
φ A . . . . . A A . . . . . A A A nji =∩∩∩∩∩ 321
Y sea un conjunto H definido de tal manera que:
( ) ( ) ( ) H A . . . H A H A H n ∩∪∪∩∪∩= 21
( ) ( )[ ] j i con φ H A H A ji ≠=∩∩∩∴
( ) ( ) ( ) H A P . . . H A P H A PP(H) n ∩++∩+∩= 21
Si deseamos encontrar, por ejemplo,
P(A1/H) se tiene:
( ) ( )( )
( )( ) ( ) ( )HA P . . . HA P HAP
HAP HPHAP HAP
n+++==
21
111
Pero si no conocemos: P(A1H); P(A2H) ...... P(AnH) y conocemos P(H/A1); P(H/A2);
…… P(H/An) ⇒ podemos expresar de la siguiente manera:
P(A1H) = P(A1) P(H/A1)
P(A2H) = P(A2) P(H/A2)
. . .
. . .
. . .
P(AnH) = P(An) P(H/An)
Entonces:
( ) ( )( ) ( ) ( )nn AH) P P(A . . . AH) P P(A AH) PP(A
AH) PP(A HAP
+++=
2211
111
Dicha expresión es la que conocemos como “Teorema de Bayes”.
1.2.11.1 PROBLEMAS
Un joyero posee tres cofres para guardar joyas: en uno guarda los artículos de
oro, en otro los de plata y en el tercero el cobre. Tiene 30 artículos de oro, los
cuales son 10 relojes y 20 anillos; 40 artículos de plata: 10 anillos y 30 relojes; y
10 artículos de cobre, así: 5 anillos y 5 relojes.
Si el joyero elige un cofre al azar y extrae un artículo, también al azar, que resulta
ser un anillo. Cuál es la probabilidad de que sea de oro?
Solución:
Sea: O: Representa artículos de oro
C: Representa artículos de cobre
P: Representa artículos de plata
A: Representa los anillo
R: Representa los relojes
Lo que el problema nos pregunta, es lo siguiente:
P(Sea de oro/ (dado que)Resultó anillo?)= P(O/A) = ?
Como el joyero escoge las urnas o cofres al azar y como son 3, cada uno tiene
igual oportunidad de ser seleccionado, es decir, P(O) = P(C) =P(P) = 1/3.
Además el problema nos proporciona la siguiente información, así:
( ) ( )
( ) ( )
( ) ( )43
4030
41
4010
21
105
31
3010
21
105
32
3020
PR ; P PAP
CR ; P ORP
CA ; P OAP
====
====
====
Entonces, por el teorema de Bayes:
( ) ( ) ( )( ) ( ) ( ) ( ) ( ) ( )
( ) ( ) ( )( ) ( ) ( ) ( ) ( ) ( )
( )178
4131213132313231
AOP
AOP
PA PP P CA PC P OA POPOA P OP AOP
.
.
=
++=
++=
1.2.11.2 Una caja con 1.000 tornillos contiene:
50 con defecto de tipo A
32 con defecto del tipo B
18 con defecto del tipo C
7 con defecto del tipo A y del tipo B
5 con defecto del tipo A y del tipo C
4 con defecto del tipo B y del tipo C
2 con defecto del tipo A, del tipo B y del tipo C
Si extrae un tornillo al azar, calcular:
1. La probabilidad de que el tornillo tenga un defecto del tipo A o del tipo b o
de ambos.
Solución: Como se puede ver los sucesos son compatibles, es decir:
φC B; A C ; A B A ≠∩∩≠∩≠∩ φφ
Lo que se nos pregunta no es más que la probabilidad de la unión de los sucesos
A y B:
( ) ( )
( )403
10007
100032
100050 - BA P
BA P(B) - P P(A) BA P
=+=∪
∩+=∪
2. Hallar la probabilidad de que, tenga al menos uno de los 3 tipos de
defectos. Solución: Que tenga al menos uno implica que se presente uno
solo o 2 o los 3 defectos; luego nos piden hallar:
( )
( )
( )50043
10002
10004
10005
10007
100018
100032
100050
CBAP
- - CBAP
P(ABC)) - P(BC) AB) - P(AC P(C) - P( P(B) P(A) CBAP
=∪∪
+−++=∪∪
+++=∪∪
3. Hallar la probabilidad de que el tornillo esté libre de los tres defectos.
Solución: Sea D el suceso de tener al menos uno de los tres defectos; O sea
C;B AD ∪∪= entonces D’, será el suceso no tener defectos de ningún tipo.
( )500457
50043111 - P(D') CBA - P - P(D) P(D') ==∴∪∪==
1.2.11.3 Sean A y B dos sucesos tales que φ B A ≠∩ Probar que:
[ ] B)2P(A - P(B) P(A) )A'(B )B'(AP ∩+=∩∪∩
PRUEBA: Ayudémonos a través del siguiente diagrama de Venn:
( )
( ) ( )[ ] ( ) ( )A'BP B'AP A'BB'AP )A' (B B) (A B' A
∩+∩=∩∪∩=∩∩∩∩∩∴ ϕ
â
y ( ) ( ) ( )[ ] ( ) ( ) ( )A'B P BA P B'A P A'BBAB'AP ∩+∩+∩=∩∪∩∪∩ ã
Pero ( ) ( ) ( ) )( BA A'B BA B'A ∪=∩∪∩∪∩ ä
Luego igualando ã y ä, tenemos:
( )
( ) ( )( ) P(AB) P(B) - P(A) BA'AB'P)AB) - P(AB P(B) - P( P(A) P(BA') P(AB')
P(BA') P(AB) P(AB') B) A P(B) - P( P(A) BAP
2+=∪+=+
++=∩+=∪
1.2.11.4 En un naipe de 40 cartas se hace una extracción de 5 cartas y resultan
2 espadas. Cuál es la probabilidad de que una de ellas sea el as? Cuál
es la probabilidad de que una sea el as y la otra el rey?
SOLUCIÓN:
Sea A el suceso “extraer dos espadas en una muestra de 5 cartas”. Sea el suceso
B, “extraer el as de espadas en la muestra de 5 cartas”.
Luego, la probabilidad que nos piden es: P(B/A)
( )P(A)
P(AB) AB P =∴
El suceso (AB) es entonces, extraer 2 espadas y una de ellas es el as de espadas,
en la muestra de 5 cartas; luego:
( ) ( ) ( )( )
P(AB) 40
5
303
91
11= .
( ) 11 : En las 10 cartas espadas, hay 1 as y ese es el que tomamos.
( ) 91 : Una vez considerado el as de espadas, la segunda carta de espadas, la
podemos tomar de las 9 restantes.
( ) 303 : Las otras 3 cartas que hacen parte de la muestra de 5, las tomamos
lógicamente de las 30 restantes, y
( ) 405 : Es el número total, de posibles muestras de tamaño 5, que podemos
extraer de la población de 40 cartas.
Analizando en forma análoga, tenemos:
( ) ( )( )40
5
303
102
P(A) =
Luego:
( ) ( ) ( )
( ) ( )( )( ) 5
1102
91
303
102
303
91
11
P(B/A) ===
Para responder la segunda parte del ejercicio; definamos el suceso “A” de idéntica
forma como en el caso anterior y definamos que “B” sea el suceso “Extraer as de
espadas y rey de espadas en una muestra de 5 cartas”, tenemos:
El suceso B)(A ∩ : “Extraer dos espadas, una el rey y otra el AS” en una muestra
de 5 cartas. Pero vemos que B)(A ∩ = B.
Luego:
( ) ( ) ( ) ( )( ) ( ) ( )
( ) 451
102
1
405
303
102
405
303
11
11
P(B/A)
P(B/A)
P(A)P(B)
P(A)B)P(A P(B/A)
==
=
=∩
=
1.2.11.5 Se han adquirido 3.000 botellas de vino a $8 cada una; 2.000 a $9 cada
una y 1.000 a $10 cada una. Se extrae una botella al azar y se vende a
$9,50. Cuál es la probabilidad de ganar; $1,50? 0,50?; de perder $0,50?
SOLUCIÓN:
Para ganar $1,50 es necesario extraer una botella de $8. Sea “A” el suceso que
indique tal extracción.
Luego, 21
00060003 ..
nn(A) P(A) ===
Para ganar $0,50 es necesario extraer una botella de $9; llamemos “B” a este
suceso, tenemos:
31
00060002 ..
nn(B) P(B) ===
Ahora, para perder $0,50, es necesario extraer una botella de $10; llamemos “C”,
este suceso; luego
61
00060001 ..
nn(C) P(C) ===
1.2.11.6 Se tienen 3 libros de matemáticas, 4 de física y 6 de química. Si se
colocan en un estante al azar: Cuál es la probabilidad de que los de
química queden todos juntos?
SOLUCIÓN
Sea “A” el suceso que representa “Libros de química siempre juntos”; luego.
lesasos posibTotal de c
sucesorables al Casos favo n
n(A) P(A) ==
! n 13=∴ , ya que hay un total de 13 libros para permutar; y el número de
permutaciones favorables al suceso “A”, n(A) = 8! 6! = P8 x P6 puesto que se
consideran 3 diferentes libros de matemáticas, 4 de física y 1 (un)solo bloque de
química, o sea, 8 elementos, (3M + 4F + 1Q), que puede ocupar cualquier lugar;
además los 6 libros de química pueden cambiar de lugar entre ellos, sin dejar de
permanecer unidos; luego tenemos:
4292
1368 !!! P(A) ==
Cuál es la probabilidad de que en cada extremo quede un libro de física y en el
centro un libro de química?
Sea “A” el suceso “un libro de física en cada extremo y un libro de química en el
centro”
n
n(A) P(A) =
Uno de los extremos se puede ocupar de 4 maneras, el otro de 3 maneras y la
posición central de 6 maneras, quedan 10 libros para los 10 restantes puestos,
que se pueden llenar de 10! = P10 maneras.
Luego; n(A) = 4 x 3 x 6 x 10! y n = 13!
1436
1310634
!! x x x P(A) ==∴
1.2.11.7 Un empleado que trabaja en cierta factoría debe elegir dos caminos
para llegar a su casa, uno de ellos es a través de un túnel y el otro a
través de un puente. La ruta a elegir se hace al azar, siendo 1/3 la
probabilidad que tiene de elegir el túnel y 2/3 la de escoger el puente. Si
elige el túnel llega a su casa a las 6 p.m., el 75% de las veces, mientras
que si escoge el puente llega a las 6 p.m., el 70% de las veces.
Cierto día llega a casa a las 6 p.m. y al preguntarle su esposa qué camino eligió él
responde, que el puente. Cuál es la probabilidad de que haya respondido la
verdad?
Sea “A” el suceso de elegir el túnel ⇒ P(A) = 1/3
Sea “B” el suceso de elegir el puente ⇒ P(B) = 2/3
Sea “C” el suceso de llegar a la casa a las 6 p.m.
La probabilidad pedida es, entonces: P(B/C)
Además, el problema nos da la siguiente información:
( ) ( )( ) ( ) ( ) ( ) 650
750317003270032
700750
, , ,
, P(B/C)
/A) P(A) P(CB) P(B) P(C/B)P(B) P(C/
P(C)C)P(B P(B/C)
, ; P(C/B) , P(C/A)
=+
=⇒
+=
∩=⇒
==
1.2.11.8 Se extraen naipes con reemplazamiento5 de una baraja de 40 cartas,
(Naipe español), hasta que aparezca el primer as. Cuál es la
probabilidad de que el número de extracciones hubiese sido 5?
SOLUCIÓN:
Para que la quinta extracción se obtenga el primer as, en las cuatro extracciones
anteriores, no debe aparecer ningún as; por consiguiente, la probabilidad es:
0,066 404
4036 P(o) .
4
=⎟⎠⎞
⎜⎝⎛
⎟⎠⎞
⎜⎝⎛=
= P(No aparezca en la primera extracción) x P(No aparezca en la segunda)
x ...... x P(No aparezca en la cuarta) x P(Aparezca en la quinta extracción).
Si las extracciones fueran sin reemplazamiento, tendríamos:
0730364
3733
3834
3935
4036 , x x x x P(o) ==
5 Quiere decir que todo elemento que fue extraído una vez observado, regresa a su población de origen, y vuelve a tener oportunidades de salir, en este caso de muestreo la población permanece constante.
1.2.11.9 Una urna contiene 25 piezas, de las cuales 10 son defectuosas. Se
toman dos piezas al azar, de la urna. Cuál es la probabilidad de que
ambas piezas sean buenas? Qué ambas sean defectuosas? Que una
sea buena y la otra defectuosa?
SOLUCIÓN:
Empecemos por responder la primera pregunta así:
Sea “A1”, suceso “Pieza seleccionada es buena, en la primera extracción”. Sea “A2”
suceso “Pieza seleccionada es buena, en la segunda extracción”.
Luego, la probabilidad se reduce a:
207
2414
2515 )/AP(A )P(A )AP(A .12121 ===∩
También podemos responder esta pregunta, haciendo uso del análisis
combinatorio; así:
Sea H: El suceso extraer dos piezas buenas n
n(H) P(H) =⇒
152 C n(H) =∴ : De la población de piezas buenas tomamos las 2 y los casos
posibles o muestras posibles de tamaño 2 de toda la población está dado por: 252 C n =
( )( ) 20
72232521315
252
152 ===⇒
!! !!! !
P(H)
Ahora, entremos a resolver la segunda pregunta formulada en el problema; y
seguidamente la última:
Sea “G”: Las 2 piezas resultan ser defectuosas”
Sea “R” el suceso “Una resulta ser buena y la otra defectuosa”
Sea “H”, las dos piezas seleccionada son buenas”
∴ Podemos afirmar que: SR GH =∪∪
φR G H =∩∩∴
Luego, P(S)R) GP(H =∪∪
1 = P(H) + P(S) + P(R)
Ya sabemos que P(H) = 7/20
Entonces hallemos P(G) y P(R)
( )( ) 20
3252
102
n
n(G) P(G) === y
nn(R) P(R) = ; Aquí debemos considerar que la primera sea mala y la segunda
buena es la primera consideración;
y la segunda consideración, que la primera sea buena y la segunda sea mala;
así:
21
2410 x
2515
2415 x
2510 P(R) =+=
VERIFICACIÓN: P(R) P(S) P(H) ++=1
212032071 / / / ++=
ero!, Verdad 11 =
1.2.11.10 Los dígitos 0, 1, 2, ---, 9 se acomodan en un orden aleatorio.
Encuentre la probabilidad de que los dígitos 3 y 4 sean vecinos.
SOLUCIÓN:
Ilustremos el problema de la siguiente forma:
3 4 x x x x x x x x Sea el suceso de A
x 3 4 x x x x x x x “Los dígitos 3 y 4 sean vecinos”
x x x x x x x x 3 4 Luego:
4 3 x x x x x x x x n
n(A) P(A) =
x 4 3 x x x x x x x
.
. 18 2! V n(A) 91 =×=∴
. 90 n V102
==
x x x x x x x x 4 3
Luego, 51
9018 P(A) ==
O también.
51
102
91
1019
91
1019344343 x x ) y P() y P(nos) sean veci y P( ==+=+=
1.2.11.11 Se lanza una moneda "Honesta" 15 veces y se registra su resultado l
cabo de cada tirada. Determínese la probabilidad de que ocurra "al meno na cara",
al final e los 15 lanzamientos.
SOLUCIÓN: Sea "A" el suceso obtener al menos una cara \ sabemos que el número de
resultados posibles de un experimento aleatorio está dado por: Kn \ K es el número
del evento simple, en este caso, los resultados de lanzar una moneda una vez son
2: cara o sello y "n" representa el número de veces en que se repite el evento
simple n=15.
Ahora
Como cada ocurrencia de evento simple tiene la misma probabilidad de ocurrir y
sus resultados son independientes, es decir,
O sea:
Lo que significa que prácticamente tenemos la seguridad de observar por lo
menos una cara.
1.2.11.12 Una urna contiene "n" bolas azules y "m" bolas rojas. Si de la urna tomamos una muestra aleatoria de "K" bolas ¿Cuál es la probabilidad de que al sacar una bola sea Azul?
SOLUCIÓN:
n+m = Total de Bolas
K = Total de bolas en la extracción
la bola azul la mantenemos "fija" en en el lugar (k+1)
se obtienen 1mnKV −+ casos favorables para cada bola azul, luego los casos
favorables para todas las bolas azules está dado por 1mnKVn −+× y los casos
posibles están dados por: mn1KV +
+
⇒ La probabilidad pedida = ( )mn
nVVnP mnK
1mnK
+=
×=• +
−+
.
1.2.11.13 Del ejercicio anterior [1.2.11.12], al extraer la muestra aleatoria de K
bolas; nos preguntamos:
1.2.11.13.1 ¿Cuál es la probabilidad de que sean "P" azules donde el muestreo se
hace "Con remplazamiento"? 6
SOLUCIÓN:
Un suceso de la forma R......RRRA........AAA
vecesPKvecesP ⎯⎯⎯⎯⎯ →⎯⎯⎯⎯⎯ →⎯ −
Donde la probabilidad de
ese suceso, está dada por: PKP
mnn
mnn −
⎟⎠⎞
⎜⎝⎛
+⎟⎠⎞
⎜⎝⎛
+, pero para la ocurrencia de
todos los posibles sucesos, esta dado por ( )PKP
mnn
mnn
PKP
−
⎟⎠⎞
⎜⎝⎛
+⎟⎠⎞
⎜⎝⎛
+=•
1.2.11.13.2 ¿Cuál es la probabilidad de que sean "P" azules donde el muestreo
se hace "Sin remplazamiento"? 7
SOLUCIÓN: En este caso el valor de probabilidad varia de una extracción a otra; así:
Para una ocurrencia posible, ⇒ la probabilidad será:
6 Con remplazamiento" ; Se hace la extracción y regresa a la población. 7 "Sin remplazamiento" ; Se hace la extracción y no regresa a la población.
( )( ) ( )
( )( )
( )( )( )
( )
( )( )
( )n
mnpn
Kmn
!m!n!mn
!pKm)!pn(!Kmn
!Kmn!mn
!pKm!m
)!pn(!n
1Kmn1pKm...
1pmn1m
pmnm
1pmn1pn...
1mn1n
mnn
+−
−+
=+
+−−−+
=
−++
−−⋅
−
=−−+−−−
⋅⋅+−+
−⋅
−+⋅
−−+−−
⋅⋅−+
−⋅
+
Ahora teniendo en cuenta todas las ocurrencias posibles
( )
nmnpn
Kmn
PK
P+−
−+
⋅⎟⎟⎠
⎞⎜⎜⎝
⎛=•⇒
1.2.11.14 ¿Cuál es el número mínimo de veces que es preciso lanzar dos dados
para que la probabilidad de sacar un seis doble sea mayor que la de no sacarlo?
SOLUCIÓN: La probabilidad de obtener el resultado (6,6) = 1/6 * 1/6 = 1/36
La probabilidad de no obtener un (6,6)= 1- 1/36 = 35/36 ∴ si se lanza el dado "n"
veces, la probabilidad de que no salga un seis doble es : (35/36)n luego la
probabilidad de que salga al menos una vez será 1-(35/36)n , de donde,
n > log2 /(log36- log35)
1.2.11.15 Un mecanismo eléctrico que contiene, cuatro interruptores, solo
funciona cuando todos ellos estan cerrados. El funcionamiento de los interruptores
es independiente en cada uno de ellos, tanto en lo que se refiere al cierre o la
apertura, y para cada uno de ellos, la probabilidad de que no funcione es 0,1.
¿Cuál es la probabilidad de que no funcione el mecanismo en conjunto?
SOLUCIÓN:
Sea " " el suceso que nos indica que el mecanismo "Falle"
Sea " " el suceso que nos indica que el mecanismo "No Falle"
Sea : Los sucesos que indican que el interruptor J esté cerrado . \ J= 1,2,3,4.
Sea : Los sucesos complementarios, es decir que el interruptor J esté abierto.
∴ J= 1,2,3,4
y así calcularíamos para los interruptores J= 2,3,4
⇒ El mecanismo funciona si y solo si: S1 ∩ S2 ∩ S3 ∩ S4
Es decir que funcione el interruptor 1 "Y" el interruptor 2 "Y" el interruptor 3 "Y" el
interruptor 4; Luego
P(Mecanismo funcione) = = P(S1 ∩ S2 ∩ S3 ∩ S4 )
Como los SJ son independientes
= P(S1) P(S2 ) P(S3) P(S4 ) = 0.9 * 0.9 * 0.9 * 0.9 = (0.9)4 = 0.6561
Entonces
P(F) = 1 - 0.6561 = 0.3439
⇒ También se puede resolver el problema definiendo a :
El mecanismo no funciona siempre que uno de los interruptores este abierto.
2. VARIABLES ALEATORIAS
Tomemos un espacio muestral S, con función de probabilidad P(A) definida para
un suceso A; si “X” es una función de valores reales definida en S, (o sea que
cada punto del espacio muestral se le hace corresponder un punto del eje X), se
dice que X es una variable aleatoria unidimensional. En general, si cada punto de
S, se hace corresponder con un punto, (X1, X2, --- Xn) del espacio n-dimensional, se
tiene una variable aleatoria pluridimensional. Por ejemplo: Sea el experimento
aleatorio lanzar una moneda dos veces. El espacio muestral S = {(c,s); (s,c); (c,c);
(s,s)} consta de 4 puntos. Sea “X” la variable aleatoria que nos representa el
número de sellos. Dicha variable puede tomar los siguientes 4 valores,
correspondientes a los 4 puntos de S: 1, 1, 0, 2.
Estando la función de probabilidad completamente definida para el espacio
muestral S, como n
n(A) P(A) = ; podemos escribir, por ejemplo:
410 ) P(x == , para designar la probabilidad de que el número de sellos sea cero;
211 ) P(x == : Probabilidad de obtener un sello y
412 ) P(x == : Probabilidad de obtener dos sellos.
Veamos otra forma, de tratar el experimento anterior, así:
Sea “X” la variable aleatoria que representa el número de sellos y sea “Y” la
variable aleatoria que representa el número de caras.
La variable aleatoria bidimensional transformará los puntos de S en puntos del
plano X Y.
Luego a: (c,c) corresponde x = 2, y = 0, o sea, (2,0)
(c,s) corresponde x = 1, y = 1, o sea, (1, 1)
(s,c) corresponde x = 1, y = 1, o sea, (1, 1)
(s,s) corresponde x = 0, y = 2, o sea, (0, 2)
Entonces, ( )[ ] [ ] ecesivament y así su ), ( ; P , P2111
4102 ==
2.1 VARIABLE ALEATORIA DISCRETA En general, es aquella variable aleatoria con un número finito o infinito numerable
de puntos. En el caso de que la variable sea unidimensional, con valores posibles
X1, X2, ......, Xn; y con probabilidades:
f(x1), f(x2), f(x3), ...... - f(xn) , para cada uno de dichos valores, el conjunto cuyos
elementos son los pares ordenados, ((x, f(x)), es llamado función de densidad, o
función de cuantía o función de probabilidad de la variable aleatoria X.
Para cualquier subconjunto “A” de los puntos X1, X2, ......, Xn; tenemos entonces
que:
∑∈
=AX
f(x) P(A)
∴ P(A) representa la suma de f(x) para aquellos valores de X que pertenecen
a A; luego P(A) es llamada FUNCIÓN DE DISTRIBUCIÓN para el suceso A.
- Veamos el siguiente ejemplo:
Supongamos que un experimento aleatorio consiste en lanzar dos dados y
registrar el número posible de puntos. Cada resultado puede asociarse con el
valor de una variable aleatoria X; por lo tanto, “X” toma los valores: 2, 3, 4, 5, 6, 7,
8, 9, 10, 11, 12.
Calculemos ahora f(x), o sea, la probabilidad de que aparezcan “X” puntos.
Sabemos que el espacio muestral consta de 36 puntos, (1,1), (1,2), . . ., (1,6);
(2,1). (2,2) . . ., (2,6); (3,1), (3,2), . . ., (3,6); (4,1). (4,2) . . ., (4,6); (5,1), (5,2), . . .,
(5,6); (6,1). (6,2) . . ., (6,6).
El número de casos en que pueden caer X puntos es: X – 1 : para X = 2, 3, 4, 5, 6, 7 y 13 – X : para X = 8, 9, 10, 11, 12
Luego 76543236
1 , , , , , X n
n(x) X- f(x) =∴==
1211109836
13 , , , , para X - X f(x) ==
), ,. . . . ., ( para X f(x) 12320 ∉=
Puesto que:
0112
8
7
2 3613
361 ) y f(x
XX
- XX - ≥=+ ∑∑
==
Para todo X, definido del experimento tratado.
Una vez conocida f(x) podemos hallar las diversas funciones de distribución
relativas a X. Denominemos [ ] xx P(x) Fx ≤= como función de distribución
acumulativa de la variable aleatoria X, así:
[ ] ∑≤
=≤=xX
x f(x) xx P(x) F
Por ejemplo:
menos puntos o r de obteneobabilidad ) F() P(x 4Pr44 ==≤
61
36144
4
2 x - )( F) P(x
xX ===≤ ∑
=
inclusive y ido entre e comprend un puntaj de otenerobabilidad ) xP( 86Pr86 =≤≤
836
1336
187686
7
6
, x - X x -
) P(x ) x P()xP(
x
=+=
=+≤≤=≤≤
∑=
Las condiciones que debe cumplir f(x) para ser función de densidad de una
variable aleatoria discreta unidimensional, son:
1. Si el dominio de la función es X1, X2, . . . Xn x f(x) ∀≥⇒ 0
2. ∑ = 1f(xi)
Hallemos también, (Remitiéndonos al ejercicio anterior), la probabilidad
condicional de que el número de puntos sea menor que 3, cuando se sabe que
dicho número es menor que 8.
Sea “A” el suceso “Número de puntos menor que 3”
Sea “B” el suceso “Número de puntos menor que 8”
Deseamos hallar:
P(B)B)P(A P(A/B) ∩
=
El suceso A = {X / x = 2}
El suceso B = {X / x = 2, 3, 4, 5, 6, 7}
Luego el suceso ( ) { }2==∩ xX BA
3612
361 B) P(A ; x x - B) P(A =∩⇒==∩
Por otra parte, 3621
3617
2 x - P(B)
x== ∑
=
Concluimos entonces que, P(A/B) = P(X < 3 / X < 8)
211
2136
361 x ==
2.2 FUNCIONES DE DOS O MAS VARIABLES DISCRETAS
En general, las funciones de densidad de variable discreta pluridimensional, tiene
las mismas propiedades de las funciones similares de una variable. Podemos
decir entonces que una función f(x1, x2, ...... , xn) es una función de densidad de “n”
variables reales si y solo sí:
1. ( ) 021 ., x, . . . . , xxf n ≥
2. ( )∑∑∑ =nx
nxx
x, . . . .,, xxf. . . 12121
Las funciones de densidad conjunta o de dos variables aleatorias discretas, se
representan entonces de esta misma manera.
- Tomemos como ejemplo, el lanzamiento de dos dados.
Sea “X” la variable aleatoria de tipo discreto, que nos representa el número de
puntos del dado α y “Y” la variable aleatoria discreta que nos representa el
número de puntos del dado β
X = 1, 2, 3, 4, 5, 6
Y = 1, 2, 3, 4, 5, 6
361 f(x, y) =∴ : Probabilidad de obtener “X” puntos en el dado α y “Y”
puntos en el dado β .
Probemos que f(x, y) si es función de probabilidad:
1. y f(x, y) f(x, y) 0361
>⇒=
2. ∑∑==
=6
1
6
11
361
yy
Luego f(x, y) si es función de probabilidad.
Q Veamos ahora otro ejemplo:
Una urna contiene 6 bolas blancas, 5 bolas negras y 4 bolas azules. Si se extraen
4 bolas, hallar la función de densidad conjunta del número de bolas negras y
azules.
SOLUCIÓN:
Sea “X” la variable aleatoria que representa el número de bolas azules en la
muestra. Sea “Y” la variable aleatoria que representa el número de bolas negras
en la muestra.
El recorrido conjunto de las variables X e Y y su función de Probabilidad
Conjunta está dado por :
( ) ( ) ( )( )15
4
64
5440
y) - (xyx
f(x, y)
Y X
+=
≤+≤
De igual manera podemos hallar la función de distribución correspondiente a una
situación deseada, así por ejemplo,
Hallemos, ), f() , f() , f() , f() , f() , f(
) , Y P(X ) , F(120211011000
1212+++++=
≤≤=
∑∑==
=∴2
0
1
012
xyf(x, y) ) , F(
2.3 FUNCIÓN DE DENSIDAD MARGINAL PARA VARIABLES DISCRETAS
Al hablar de función de densidad conjunta podemos definir la función de densidad
marginal de X o de Y.
Llamemos entonces f1(x) la función de densidad marginal para X y f2(y) la función
de densidad marginal para Y.
En el caso del ejemplo de las bolas negras y azules, tenemos:
( ) ( ) ( )( )15
4
64
54
y) - (xyx
f(x, y) +=
Para: X = 1, 2, ---- 4
Y = 1, 2, ---- 5
( ) ( ) ( )( )∑
∑
=
=
+=
+++++==
∉∉=
∴-x
y
-x
y
y) - (xyx
(x) f
-x) f(x, - - - - ) f(x, ) f(x, ) f(x, ) f(x, f(x,y) (x) f
), ---, , ( Y ), ---, , (si X f(x, y)
4
01
4
01
154
64
54
43210
5214210
Observamos que la función de densidad marginal de X, la calculamos utilizando el
recorrido de la otra variable, con el fin de que la conjunta nos quede en términos
de una sola variable.
Ahora:
∑=
=-y
xf(x, y) (y) f
4
02
2.4 FUNCIÓN DE DENSIDAD CONDICIONAL
Si tenemos una función de densidad de variable discreta pluridimensional en
general, podemos hallar la función de densidad condicional que deseemos; para el
caso de función de densidad conjunta f(x, y), se tendrán dos funciones de
densidad condicional, así:
(x)fy)f(x, P(y/x) H(xy) 2.
(y)fy) f(x, P(x/y) G(xy) 1.
1
2
==
==
Si nos remitimos de nuevo al ejemplo de la distribución de las bolas negras y
azules; tenemos:
( ) ( ) ( )( ) ( ) ( )
( )( )
( )1546
44
64
4
154
64
45
154
64
54
4
0
4
0
y)(x x
y)(x x
g(x,y)
y)(x x y
y)(x x x g(x,y)
y
x
y
x
⎟⎠⎞⎜
⎝⎛
+−⎟⎟⎠
⎞⎜⎜⎝
⎛
⎟⎠⎞⎜
⎝⎛
+−=
⎟⎠⎞⎜
⎝⎛
+−⎟⎟⎠
⎞⎜⎜⎝
⎛
⎟⎠⎞⎜
⎝⎛
+−=
∑
∑
−
=
−
=
2.5 VARIABLE ALEATORIA CONTINUA
Es la que puede tomar cualquier valor dentro del intervalo que se considere; es
decir, es aquella que toma un número infinito de valores.
El concepto de función de densidad f(x), difiere en este caso al de variable
discreta, ya que, aquí no es lógico hallar la probabilidad en un punto sino en un
intervalo. Ya habíamos visto que (x) F x) P(X x=≤ para ∞<<∞− X diremos
que Fx(x) es la función de distribución, (acumulativa), para la variable continua;
podemos desde luego hallar la probabilidad en cualquier intervalo; encontremos:
)( bXaP ≤<
Sea A el suceso : { }aXX ≤/
Sea B el suceso : { }bXX ≤/
Sea C el suceso : { }bXaX ≤</
∴ Los sucesos A y C son mutuamente excluyentes, ya que φ=∩ CA ; luego
)()()( CPAPCAP +=∪ ; Además
)()()()()()()()()(
)()()(
aFbFbXaPaXPbXPbXaPbXaPaXPbXP
CPAPBPBCA
xx −=≤<≤−≤=≤<≤<+≤=≤
+=⇒=∪
∴∴
Ahora siendo F continua en X = b
Se puede probar que P(x=b)=0, esto implica que para variables continuas, se
tienen que:
)()()()()()( aFbFbXaPbXaPbXaPbXaP xx −=≤≤=<≤=<<=≤<
Partiendo de la función de distribución podemos obtener la función de densidad,
así:
)()()( xFxxFxxXxP xx −∆+=∆+≤≤
Dividiendo por x∆ :
xxFxxF
xxxXxP xx
∆−∆+
=∆
∆+≤≤ )()()(
Pasando al límite cuando 0→∆x
0→∆x
Lim )()(.)( xfxF
dxd
xxxXxP xx ==
∆∆+≤≤
O sea, que la primera derivada de la función de distribución es la función de
densidad, (En el caso, claro está, de variables aleatorias continuas). O también
vale afirmar que:
∫∞−
=≤=x
x duufXxPxF )()()(
Para un intervalo )bXa ≤≤ se tiene que
∫=≤≤b
a
dxxfbXaP )()(
Las propiedades que debe cumplir fx(x)
Para que sea función de densidad de variable aleatoria, son:
1. Dominio de fx(x), tal que X es real
2. ( )∞∞−∈∀≥ ,0)( xxf x
3. ∫∞
∞−
= 1)( dxxf x
Veamos el siguiente ejemplo ilustrativo, a la situación que acabamos que ver:
La variable aleatoria X tiene como función de densidad:
)1,0(0)(102)(
∉=<<=
XSixfXSixxf
x
x
Hallar:
(0,1)x 0(x)F (0,1)x X(x)F Luego
XX2udu(x)F
f(u)du0du(x)F
f(u)dux)P(X(x)F 3.
1632xdx1/2)XP(1/4 2.
)21(F41)21P(X
2xdx0dxf(x)dx)21P(X 1.
x
2x
2x
02
x
0x
x
0
0
x
x
x
1/2
1/4
x
0 21
0
21
]
∉∴=∈∴=
===
+=
=≤=
==<<
==<
+==<
∫
∫∫
∫
∫
∫ ∫∫
∞−
∞−
∞−∞−
2.6 FUNCIÓN DE DENSIDAD PARA VARIABLE CONTINUA PLURIDIMENSIONAL
En el caso de variable continua pluridimensional, la función de densidad
∫∫∫∞
∞−
∞
∞−
∞
∞−
=
=∀≥
1...dxdx)dx...xxf(x....... 3.
Real:XReal;...;:X Real;:X 2.n1,2,....,i ;X 0)x,...,x,f(x 1.
serdebe )x,...,x,f(x
n21n21
n21
in21
n21
2.7 ESPERANZA MATEMÁTICA
La esperanza matemática, valor esperado o media de la variable aleatoria X se
define como:
∑=
=n
1iii )f(xxE(x) para variable discreta con dominio, X1, X2 . . ., Xn y función de
densidad f(xi).
Para variable continua la esperanza matemática se define como:
∫∞
∞−
= dxxXfxE x )()( ; siendo f(x) la función de densidad.
En estructura, E(x) es similar a al media aritmética común, X , obtenida de los
valores X1, X2, . . . ., Xn ; que observamos en una muestra, con frecuencias relativas
h1, h2, . . . , hn respectivamente , así : ;nnh h XX i
i
n
1iii =∴= ∑
=
en donde si el
tamaño de la muestra n es muy grande )f(xh ii ≈⇒ (según lo que se afirmó en
la teoría frecuencial de la probabilidad).
TEÓRICAMENTE E(x) significa el valor central de la distribución de probabilidad.
La esperanza matemática tiene las siguientes propiedades principales:
1. E(x) al igual que la media, es un número que depende de todos los valores
de la serie y de sus respectivas probabilidades, ya que todos ellos entran
en su cálculo.
2. Si YeX son variables aleatorias, entonces :
E (X + Y) = E(X) + E(Y)
3. Si “A” es una constante y X una variable, ⇒ E(Ax) = A E(x)
4. Se X e Y son variables aleatorias independientes ⇒ E(X.Y) = E(X) E(Y)
5. Si X1, X2, ......., Xe son variables aleatorias
)(....)()().....( 2121 ee XEXEXEXXXE +++=+++⇒
6. Si X1, X2, ......., Xt son variables aleatorias independientes
)(*....*)()().....( 2121 tt XEXEXEXXXE =+++
7. La esperanza matemática es un valor que oscila en el intervalo (Mínimo Xi;
máximo Xi), en donde, tiende a situarse en el centro, para así considerarse
representativa de los valores de la serie de datos.
8. Si “X” es variable aleatoria y “a” una constante, ⇒
axEaxE +=+ )()(
9. X variable aleatoria y , “a” y “b” constantes, ⇒ bxaEbaxE +=+ )()(
2.8 MOMENTOS CON RESPECTO AL ORIGEN
Los momentos con respecto al origen de una variable aleatoria X, son los valores
esperados de γX .
Para variables aleatorias de tipo discreto.
X1, X2, ...., Xn se define el momento de orden γ con respecto al origen, como:
∑=
=n
i
xifxiXE1
)()()( γγ
En variables continuas, es:
∫∞
∞−
= dxxfXXE )()( γγ
2.9 Momentos de orden γ respecto a una constante - En variables discretas;
constante una es a, )f(x . a)(x)a)E((xn
1ii
γi
γ ∴−=− ∑=
- Para variables continuas, se tiene:
∫∞
∞−
−=− dxxfaxaxE )()())(( γγ
2.10 Momentos de orden respecto a la media )(xE=µ
Llamaremos, pues, de ahora en adelante, la media de la distribución de la variable
o media poblacional con la letra griega µ. Luego el momento de orden γ respecto a µ , en variables discretas, es:
∑=
−=−n
1ii
γi
γ ).f(xµ)(x)µ)E((x
En variables continuas, es:
∫∞
∞−
−=− dxxfxxE )(.)())(( γγ µµ
El momento de orden uno o primer momento, con respecto a µ es igual a cero , o
sea : ( )[ ] 0)()(;0 =−=−=−=− µµµµµ xExExE que ya .
2.11 Varianza de una función de probabilidad Si X es una variable aleatoria discreta, donde X = x1, x2, ...., xn con media µ=)(xE ;
la Varianza de X, a la cual llamaremos Var(x), se define como el momento de
orden dos, con respecto a µ ; es decir,
∑=
−=
−==n
1ii
2i
22x
)f(xµ)(x
)µ)E((xVar(x) σ
Ahora, en el caso de variable continua, se tiene que:
∫∞
∞−
−= dxxfxxVAR )()()( 2µ
Además, podemos probar que
τ 2)(x
xVar = 22)( µ−= xE para variables aleatorias discretas o continuas.
Veamos por ejemplo, si X es una variable aleatoria continua, con función de
densidad f(x):
∫ ∫∫
∫∞
∞−
∞
∞−
∞
∞−
∞
∞−
+−=
−=⇒
dxxfdxxdXdxxfXxVAR
dxxfxxVAR
)()(2)()(
)(.)()(
22
2
µµ
µ
Pero ∫∞
∞−
= )()( 22 xEdxxfX
22.2)(2)(2)(2 µµµµµµ −=−=−=−=−∴ ∫∫∞
∞−
∞
∞−
xEdxxfXdxxfX :
Luego:
22
222
)()(2)()(µ
µµ
−=
+−=
xExVARxExVAR
2.12 FUNCIÓN GENERATRIZ DE MOMENTOS
Se llamará función generatriz de momentos (f.g.m.), a la expresión:
Mx(t) = E (etx), cuando este valor esperado existe para –b < t < b; donde b es
número real positivo.
Para el caso de variables discretas se tiene que:
exista )()(.)()(
xfxfeeEtM txtx
x
∴
== ∑
Y para variables continuas, así:
∫∞
∞−
== dxxfeeEtM txtxx ).(.)()(
2.12.1 PROPIEDADES DE LA FUNCIÓN GENERATRIZ DE MOMENTOS
La importancia de la función generadora de momentos, radica en el hecho de que
ella es única y determina completamente la distribución de una variable aleatoria,
esto es, si dos variables aleatorias tienen una misma función Generatriz de
momentos, deben tener igual distribución.
La demostración de esta propiedad omitida en estos apuntes, se basa en la
unidad que existe entre la f.g.m. y la función de distribución.
La existencia de la función generatriz de momentos para –b<t<b, donde b es
número positivo, garantiza la existencia de las derivadas de cualquier orden en
t=0.
2.12.2 TEOREMA: Sea X una variable aleatoria con función generatriz de
momentos Mx(t). Sea y=a . x+b, entonces My(t) = ebtMx (at)
Demostración:
( ) [ ] ( ) ( ) ( )eeeeeee taxtbtbtaxtbaxtbaxtyty EEEEEtM ..)( .)( ===== ++
)(.)( taMtM xtb
y e=
2.12.2 TEOREMA. Sean X, Y, variables aleatorias independientes y Z=X+Y, con
funciones generatrices de momentos, Mx(t), My(t) y Mz(t) respectivamente,
entonces:
Mz(t) = Mx(t) My(t)
DEMOSTRACIÓN:
[ ]( )( )
)().(.
)()(
tMtME
E
EtM
yx
tytx
yxt
tzz
eee
e
=
=
=
=+
El teorema anterior, se puede generalizar a n variables aleatorias independientes,
xi, con función generatriz de momentos:
(t)M(t)M
entonces ,X ZSi (t)M
xi
n
1iz
n
1iixi
∏
∑
=
=
=
=
2.13 FUNCIÓN CARACTERÍSTICA
Esta función siempre existe y se encuentra definida en el campo de los números
complejos. Cumple las propiedades de la f.g.m. Sólo que se definen en un marco
mucho más amplio como el de los números complejos.
Se define como:
( )e xi
xE θθϕ =)(
En caso de variable aleatoria discreta, se tiene que:
( ) ∑∀
==x
xxixi
xxfE ee )(.)( θθθϕ
Y en caso continuo, así:
( ) ∫∞
∞−
== dxxfE xxixi
x ee )(.)( θθθϕ
2.14 EJERCICIOS
2.14.1 Supóngase que un número se selecciona al azar entre los enteros del 1 al
20.
Sea X el número de sus divisores.
Construir la función de densidad de X.
Cuál es la probabilidad de que haya 4 o más divisores al extraer un entero al azar.
SOLUCIÓN:
Hagamos el siguiente análisis; para detectar el número de divisores del 1 al 20,
así:
1 2 3 4 5 6 7 8 9 10 11 12 12 14 15 16 17 18 19 20
1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1
Divisores
2 3 2 5 2 7 2 3 2 11 2 13 2 3 2 17 2 19 2
4 3 4 9 5 3 7 5 4 3 4
6 8 10 4 14 15 8 6 5
6 16 9 10
12 18 20
:X∴ Variable aleatoria que representa el número de divisores en los
números del 1 al 20.
X 1 2 3 4 5 6
f (x) 1/20 8/20 2/20 5/20 1/20 3/20
La probabilidad de que haya 4 o más divisores, es:
209
20315)6()5()4()4( =
++=++=≥ xxx fffxP
2.14.2 Se lanza un dado hasta que aparezca seis. Hallar la función de densidad
del número de tiradas.
SOLUCIÓN
Sea X la variable aleatoria que nos representa el número de tiradas.
Luego, puede ocurrir que aparezca, seis, en la primera tirada
61)1()1( === xfxP
Que aparezca al cabo de la segunda tirada, eso implica, que necesariamente en la
primera tirada ocurrieran los resultados: 1, 2, 3, 4 o 5 únicamente y en la segunda
aparecer el 6.
61.
65)2()2( === xfxP
61
65
65
61
65
61
65
65)3()3( .
2321
xxxxfxPaaa
x ⇒⎟⎠⎞
⎜⎝⎛
⎟⎠⎞
⎜⎝⎛====
⎟⎠⎞
⎜⎝⎛
⎟⎠⎞
⎜⎝⎛===
⇒⎟⎠⎞
⎜⎝⎛
⎟⎠⎞
⎜⎝⎛====
−
61
65)(
61
65
65
65
61
65
61
65
65
65)4()4(
.
.
1
34321
x
x
aaaa
x
xfx)P(x
xxxxxxfxP
. . .
. . .
. . .
2.14.3 De un lote de 10 televisores hay 4 defectuosos; se extrae una muestra de 3
sin reemplazamiento. Hallar la función de densidad del número de
defectuosos en la muestra.
Sea X la variable aleatoria que representa el número de defectuosos en la
muestra.
posiblesCasosfavorablesCasosxfxXP x
=== )()(
Los casos favorables pueden ocurrir de:
( )63
4 xx −⎟⎠⎞⎜
⎝⎛ y los casos posibles son 10
3 ⎟⎠⎞⎜
⎝⎛ o sea, el número total de muestras
posibles de tamaño 3.
( )( )( )
{ }32100)(
.3,2,1,0:103
63.4
)(
, , , para x xf
Xxxxf
x
x
∉=
∴−=
2.14.4 Dada la siguiente función de densidad:
X 0 1 2 3 4 5 6 7
f (x) 0 c 2c 2c 3c c2 2c2 7c2+c
Encontrar C y hallar )5( ≥xP
SOLUCIÓN:
Sabemos que para que fx(x) sea función de densidad es necesario que se cumpla
que:
0)(1)(7
0
≥=∑=
xfYxf xx
x
Partiendo de ∑ = ;1)(xf x tenemos:
c + 2c + 2c + 3c + c2 + 7c2 + c = 1
10c2 + 9c –1 = 0
1
20/220
11920
121920
40819
−=
=⇒±−
=
+−=
++−=∴
c
cc
c
ó
Pero como 10/10)( =⇒≥ cQuexf x
Luego la tabla de probabilidades, queda:
X 0 1 2 3 4 5 6 7
f (x) 0 1/10 2/10 2/10 3/10 1/100 2/100 17/100
Ahora, 51
10020
1001721
)7()6()5()5(
==++
=
++=≥
xxx fffxP
También se puede resolver esta pregunta, utilizando el complemento; ya que
sabemos que la probabilidad en todo el espacio o recorrido de la variable es 1,
tenemos:
{ }
51
102
1081
10322101
)4()3()2()1()0(1
)(1
)4(1)4(1)5(1)5(
4
0
==−=
⎭⎬⎫
⎩⎨⎧ ++++
−=
++++−=
−=
−=≤−=<−=≥
∑=
xxxxx
x
x
fffff
xf
FxPxPxP
2.14.5 Una variable X tiene su gráfico de distribución, (Área), en forma de triángulo
rectángulo de base 5, para X entre, 2 y 7. La pendiente de la hipotenusa es
positiva. Dibujar el gráfico y hallar )4( ≤xP y )5( >xP .
Debemos encontrar la altura h del triángulo, partiendo de que el área, (Espacio
muestral), debe ser igual a la unidad, así:
521
251
2: =∴=⇒= hxhbxhÁrea
Ahora para hallar ⇒≤ )4(xP no es más que el valor del área del triángulo
pequeño; para ello es necesario averiguar h; por triángulos semejantes se tiene
que:
254
225/42)4(,
254'
54'5
25
'5/2
25
'
=∗
=≤
=⇒=
=∴=
xPLuego
hh
hhh
En este ejercicio, bien lo podemos trabajar, como veníamos haciendo o bien,
hallando la función, (ecuación), que actúa en dicho campo, (espacio).
Para ello utilizamos la ecuación de la línea recta que pasa por dos puntos, es
decir, la ecuación de la recta que pasa por los puntos:
)/ , () y , ()yxyyx
52702()( 2211 , ,
)( 112
121 xx
xxYYYY −
−−
=−
254
252
)2(27
05/20
−=
−−
−=−
xY
xY
Luego: [ ]7,2254
252)( ∈−= Xxxf x
2516
254
252)5(
)7,2(0)(
5
si 7
=
⎟⎠⎞
⎜⎝⎛ −=>
∉=
∫ dxxxP
Xxf x
O también; )5(1 ≤−= xP
2516
254
2521
5
2
=
⎟⎠⎞
⎜⎝⎛ −−= ∫ dxx
2.14.6 Si fx(x) = 4K (x3-1) para 101 << x , es una función que determina el tiempo
de ocurrencia de un experimento. Hallar el valor de K, para el cual f(x) es función
de probabilidad. Para que f(x) sea función de densidad de variable aleatoria
continua, es necesario:
1. Dominio de X, sea real
∫∞
∞
=
∀≥
-
1)(.3
0)(.2
dxxf
xxf
Según las 2 primera condiciones, implica que el valor de K debe ser positivo para
que ⇒≥ 0)(xf
99631K
1X4x4K
10dx1)dx4K(x0dxf(x)dx
4
10
1 10
31
=⇒
=⎥⎦
⎤⎢⎣
⎡−=
=+−+= ∫ ∫∫∫∞
∞−
∞
∞−
3. DISTRIBUCIONES PROBABILÍSTICAS
3.1 Principales distribuciones de probabilidad para variable discreta.
3.1.1 Distribución Binomial
Este modelo de probabilidad de refiere en general, a aquellos experimentos que
consisten en un número de pruebas independientes, en la cual se llamará “p” la
probabilidad de éxito de cada prueba y “q=1-p”, la probabilidad de fracaso.
Para que un experimento se pueda calificar como Binomial8 debe presentar las 4
propiedades siguientes:
1. Debe haber un número finito de pruebas.
2. Cada prueba debe tener como resultado un “éxito” o un “fracaso”.
3. Todas las pruebas deben tener idénticas probabilidades de “éxito”.
4. Debe haber independencia entre cada una de las pruebas.
Veamos ahora una serie de ejemplos en donde se cumple y en donde no se
cumple, cada una de las propiedades anteriores.
1. Se lanza una moneda 5 veces; n=5
Luego se cumple la primera propiedad.
- Se lanza una moneda hasta que aparezca cara. No hay un número finito de
pruebas, luego aquí no se cumple la primera propiedad.
2. Al tirar una moneda aparecerá siempre cara o sello cada una con
probabilidad 1/2 ; una de ellas se puede considerar “Éxito” según el caso y
la otra “Fracaso”. Cumple la segunda propiedad.
8 Es decir, su experimentación se da a través del muestreo con reemplazamiento o en el muestreo sin Reemplazamiento que provenga de Poblaciones muy grandes y tamaños de muestra relativamente grandes.
- Supongamos que en una jaula haya 3 ratones: Uno blanco, uno gris y otro
negro. Si se considera “Éxito” extraer ratón blanco y “Fracaso” extraer ratón
gris; qué se podrá decir entonces si la extracción fuera ratón negro?
Luego en este caso no se cumple la segunda propiedad.
3. Al extraer una carta con reemplazamiento 4 veces de una baraja ordinaria,
la probabilidad de extraer un as es:
101
404
= y permanece constante.
Cumple la tercera propiedad.
Si la extracción se hace sin reemplazamiento, la probabilidad de éxito varía de
una prueba a otra; luego no se cumple la tercera propiedad.
4. Citando la situación anterior, se puede adaptar aquí, ya que al hacer
extracciones con reemplazamiento los sucesos son independientes y si se
hacen sin reemplazamiento serían dependientes.
Q Ahora, para analizar completamente la distribución Binomial y sus características, empecemos por definir la distribución de Bernoulli:
Un ensayo de Bernoulli, es aquel experimento en el cual solo hay dos resultados
que nos interesan: El suceso A y el suceso A’. Así por ejemplo,
- Al lanzar 1 moneda ⇒ A: caer cara ⇒ A’ = caer sello
- Al lanzar 1 dado ⇒ A: número obtenido es par ⇒ A’ : número obtenido es
impar.
- Al elegir una persona al azar, en una ciudad C ⇒ A : la persona elegida
nació en C ⇒ A’ : la persona elegida no nació en C.
Luego tenemos que SAAAA =∪=∩ '...' φ
A un ensayo de Bernoulli, le hacemos corresponder una variable aleatoria
X, así:
⎩⎨⎧
=':0
:1AsucesoelpresentaseSiAsucesoelpresentaseSi
X
Entonces la P(x=1)= p: Probabilidad de éxito y
P(x=0)= q: Probabilidad de fracaso
Sea X la variable aleatoria que se distribuye como un ensayo de Bernoulli,
donde su función de densidad fx(x), está dada por :
{ }1,00)(1,0;.)()( 1
∉===== −
xparaxfxqpxXPxf
x
xxx
Podemos decir también que un Ensayo de Bernoulli se conoce con el
nombre de Binomial con parámetros (1, p) y podemos escribir b(1, p).
3.1.1.1 CARACTERÍSTICAS DE LA BINOMIAL (1, p ) ; b(1, p)9
1. ESPERANZA. Sea x~ b(1, p) 10
pxEpp
qpX
xfXxE
x
xx
xx
==⇒=+=
=
=⇒
∑
∑
=
−
=
µ)(0
..
)(.)(
1
0
1
1
0
2. VARIANZA. ( )( )222x xE)x(E)x(Var −==σ
pq
p)p(1pp :Luego
p(1)f(1).f1(0).f0
.f(x)X)E(x
σσ
2x
22x
xx2
x2
1
0x
22
=∴
−=−=
==+=
=∴ ∑=
3. FUNCIÓN GENERATRIZ DE MOMENTOS Por definición es:
9 Notación abreviada 10 ~ : Interpretémoslo como, “se distribuye”
eee
ee
tx
xt
xt
xx
txtxx
pqtM
ff
xfEtM
+=
+=
== ∑=
)(
)1(..
)(.)()(
0
1
0.
4. FUNCIÓN CARACTERÍSTICA
( ) ( )( )
( ) eee
ee
iX
xi
xi
xx
xixiX
pq
ff
xfE
θ
θθ
θθ
θ
θ
ϕ
ϕ
+=
+=
== ∑=
)1(.)0(.
)(.
0.
1
0
3.1.1.2 DISTRIBUCIÓN BINOMIAL (n, p) : b(n, p)11
No es más que n ensayos de Bernoulli con una misma probabilidad de éxito
p.
Sean X1, X2, X3, ...... , Xn; Variables aleatorias independientes, todas
binomiales (1, p); es decir:
( )( )
( ) nnn
222
111
x1xnxn
x1x2x2
x1x1x1
qp)(xfp1,b~X
......
.....
qp)(xfp1,b~X
qp)(xfp1,b~X
−
−
−
⋅=⇒
⋅=⇒
⋅=⇒
La variable aleatoria,
X = X1+ X2+ X3+...... + Xn, se dice que se distribuye Binomial (n, p) : b(n, p)
Por ejemplo, sean Xi, (i=1, 2, …, 5), binomiales (1, p)
11 Notación abreviada
X = X1+ X2+ X3+ X4+ X5, es una Binomial (5, p); donde X representa el número total
de éxitos, en 5 ensayos de Bernoulli.
- Veamos otro ejemplo ilustrativo; sea el experimento aleatorio lanzar una
moneda 10 veces, entonces definimos:
Sea : X1 : número de caras en el primer lanzamiento.
X2 : número de caras en el segundo lanzamiento.
. .
. .
. .
X10 : número de caras en el décimo lanzamiento.
Luego: X = X1+X2 + --- + X10
X∴ : Representa el número de caras que pueden ocurrir en los 10
lanzamientos.
Los posibles valores de X = {0, 1, 2, ......, 10}
Y p = 0.5 (Probabilidad de caer cara)
⇒ X ~ b (10, 0.5)
3.1.1.3 CARACTERÍSTICAS DE LA b(n, p)
1. ESPERANZA Sea X = X1+X2+ ...... + Xn
∴ Cada Xi ~ b(1,p) ⇒
E(X) = E(x1+x2+ --- +xn)
= E(x1)+ E(x2)+ --- +E(xn)
= p+ p + ...+p
Luego :
µ== pnXE .)( : Media de la distribución b(n, p)
n veces
2. VARIANZA. Sea X ~ b(n, p) ∴
X = X1+X2+ ...... + Xn ∴ Cada Xi ~ b(1, p) ; luego:
Var(X) = Var(X1+X2+ --- +Xn)
= Var(X1) + Var(X2)+ --- + Var(Xn)
= pq + pq + ... + pq
Var(x) = npq = σ 2x
3. FUNCIÓN GENERATRIZ DE MOMENTOS: (t)M X
nXXXX +−−−++=∴ 21 y cada Xi ~ b (1, p)
( )[ ][ ]( ) ( ) ( )
( ) ( ) ( )( )
( )ntx
nt
ttt
xxx
txtxtx
txtxtx
xxxt
txx
ee
eee
eeeeee
ee
pqtM
pq
pqpqpq
tMtMtMEEE
E
E
EtM
n
n
n
n
+=
+=
+++=
=
=
=
=
=⇒
•
++
)(
...
)()...().(....
....
)(
2
21
21
21
1
)...(
4. FUNCIÓN CARACTERÍSTICA: Sea X ~ b(n, p)
( ) ( )nixi
x ee pqE θθθϕ +==)(
n veces
La hallamos en forma similar a Mx(t), o también basta con hacer t = iθ en Mx(t)
para así obtener )(θϕ x.
5. Hallemos, el valor de la función de probabilidad, (Modelo), de la distribución
Binomial (n, p). Encontremos fx(x) por medio de la función característica ,
así:
Sabemos que, ( ) )()(0
xfE x
n
x
xixi
x ee ∑=
== θθθϕ
Además, ( )ni
x epq θθϕ +=)(
Luego, ( )[ ] ∑=
=+n
xx
xini xfpq ee0
)(θθ
Resaltemos que, ( ) ( )∑=
− ⋅=+n
x
xxnn banxba
0, fórmula del binomio de Newton, que
asociaremos de la forma siguiente :
( ) ( ) ( )( ) ( )∑
∑
=
−
=
−
⋅⋅=+
⋅=+
n
x
xxnxini
xn
x
ixnni
pqnxpq
pqnxpq
ee
ee
0
0
θθ
θθ
∴ =
( ) ∑∑==
− ⋅=⋅⇒n
xx
xixxnxi xfpqnx ee
0)(θθ
n
0x
Luego para cada ⇒X
parte otra en Para
con
Xxf
nXqpnxxf
x
xnxx
0)(
,...,2,1,0:)(
=
⋅⎟⎠⎞⎜
⎝⎛= −
1
2
1 2
Probemos que fx(x) es función de probabilidad: Es obvio que fx(x) ≥ 0.
Ahora resta, saber si ( )∑=
− =⋅n
x
xnx qpnx
0
1
( ) ( )nn
x
xnx pqqpnx +=⋅∴ ∑
=
−
0
: Por binomio de newton
1)1( == n
3.1.1.4 PROBLEMA
Si la probabilidad de acertar en un blanco es 1/5 y se hacen 10 disparos en forma
independiente. Cuál es la probabilidad de acertar por lo menos 2 veces.
Encuéntrese también, la probabilidad de acertar en el blanco al menos 2 veces, si
suponemos que se acertó por lo menos 1 vez?
SOLUCIÓN
p=1/5 : Probabilidad de acertar en el blanco o probabilidad de éxito.
q=4/5 : Probabilidad de no acertar o sea probabilidad de fracaso.
n=10: El experimento es claramente Binomial.
X∴ ~b (10, 1/5)
X : Variable aleatoria que representa el número de veces de dar en el blanco,
X = 0, 1, 2, ---, 10
Sea A suceso: “Acertar por lo menos 2 veces” ⇒
A’ : “Acertar a lo sumo una vez”
( )( ) ( ) ( )( ) ( )0.36
(1)f(0)f 1)P(X0)P(X)P(A'
91100xx
45
1 5
101
45
15
100
=
+=
+==+==⇒
Luego la probabilidad pedida es:
P(A) = 1 – P(A’) = 1 - 0.36
P(A) = 0.64
Contestemos ahora la segunda pregunta, para ello definamos:
Sea B : Suceso de acertar por lo menos 1 vez
B’ : Suceso de fallar exactamente 10 veces
{ }10...,,3,2,1/ ==∴ XXB
B’ = {X / X = 0}
Sabemos pues que X ~ b(10, 1/5)
X ~ fx(x) = ( )( ) ( ) 00,1,2,...1:X; x10x 4
515
10x
−
Luego, P(B) )1(1)1( <−=≥= xPxP
10
541)0(1
)'(1)0(1
⎟⎠⎞
⎜⎝⎛−=−=
−==−=
xf
BPxP
P(B) = 1 – 0.10 = 0.90
P(B) = 0.90
Nos piden hallar, la probabilidad de acertar por lo menos 2 veces, (o sea P(A)),
dado que se acertó por lo menos 1 vez, (P(B)); es decir, ⇒∩
=)(
)()/(BP
BAPBAP
71.090.064.0
)()()/( ===
BPAPBAP
3.1.2 DISTRIBUCIÓN HIPERGEOMÉTRICA
La distribución Hipergeométrica considera el caso en el cual una población finita
se divide en dos grupos, uno de los cuales se considera “éxitos” y el otro
“Fracasos”.
Por consiguiente si se toma sin reemplazamiento una muestra de “n” elementos y
se desea hallar la probabilidad de obtener “X” éxitos, tenemos:
N = Tamaño de la población
Np = Número de éxitos en la población
Nq = Número de fracasos en la población
NNqNp =+∴
X = Variable aleatoria que nos representa el número de éxitos en la muestra
n = Tamaño de la muestra
n – x = Número de fracasos en la muestra, utilizando las definiciones dadas,
podemos hallar la función de densidad para una variable aleatoria X que se
distribuya Hipergeométricamente, así:
fx(x) = P(X=x); donde el suceso, (X=x), (o sea, suceso de éxitos en la muestra), se
puede dar de:
NpxNqn-x
Npx ≤∴⎟
⎠⎞⎜
⎝⎛⎟
⎠⎞⎜
⎝⎛
Ahora el número total de muestras posibles de tamaño n que podemos extraer de
la población de N elementos es: ( )Nn
Luego, ( )Nn
Nqxn
Npx
xf x
⎟⎠⎞⎜
⎝⎛
−⋅⎟⎠⎞⎜
⎝⎛
=
)(
Para X = 0, 1, . . . , n sí Npnx ≤≤
ó NpnóNpxSíNpX >≤= ...,,1,0
3.1.2.1 CARACTERÍSTICAS DE LA DISTRIBUCIÓN HIPERGEOMÉTRICA
1. ESPERANZA: E(X): Para deducirla podemos emplear el mismo criterio
que utilizamos en la distribución Binomial (n, p), en donde, consideremos la
variable hipergeométrica X como una suma de n variables: X= X1+X2+ ... +
Xn;
Pero, aquí hay que tener presente que cada Xi es dependiente, pero, ya que, la
propiedad aditiva de la esperanza no nos exige el carácter de independencia o
dependencia, no tenemos problema aplicarla aquí.
Entonces, E(X) = E(x1+x2+ ... + xn)
E(X) = E(x1) + E(x2) + ... + E(xn)
PNNpXiECada ==∴ )( : Proporción de éxito en la población,
NNp
NNp
NNpxE +++= ...)(
nPNNpnXE =⋅=)(
n veces
2. VARIANZA: Var(x)=σ 2x : En este caso, ya no podemos deducir la Varianza
en forma similar a como lo hicimos en la Binomial (n, p), ya que ella no es
aditiva para variables dependientes, pero sin necesidad de entrar aquí en
exposiciones de rigurosidad matemática, simplemente, podemos afirmar
que la Varianza de esta distribución, es:
QPnN
nNxVar
NNq
NNpn
NnNxVar
⋅⋅⋅−−
=
⎟⎠⎞
⎜⎝⎛
⎟⎠⎞
⎜⎝⎛⋅×⎟
⎠⎞
⎜⎝⎛
−−
=
1)(
1)(
∴ Q : Proporción de fracasos en la población, y 1−
−N
nN ; se denomina
factor de corrección, para el muestreo sin reemplazamiento.
En caso de que la población finita N sea muy grande, )( ∞→N ,
Entonces 11
→−−
NnN
3.1.2.2 PROBLEMA
Se quiere comprar un lote de 25 lámparas. Se eligen 5 de ellas al azar y se
examinan de modo que si menos de 2 fallan, el lote es aceptado, de lo contrario
será rechazado. Cuál es la probabilidad de que el lote sea rechazado si contiene
un total de 4 lámparas defectuosas?
SOLUCIÓN :
Sea X : Variable aleatoria que representa el número de lámparas defectuosas en
la muestra.
El experimento que se realiza aquí es sin reemplazamiento en una población finita,
en donde hay dos clases excluyentes de lámparas, unas defectuosas, (que
llamamos éxitos), y otras no defectuosas, ( que llamamos fracasos).
Entonces, N = 25 : Total lámparas en la población
Nq = 21 : Total lámparas no defectuosas en la población
Np = 4 : Total lámparas defectuosas en la población
n = 5 : Tamaño de la muestra aleatoria sin reemplazamiento.
Ahora, X : Puede tomar los valores;
X = 0, 1, 2, 3, y 4 NpnNpX >∧≤⇒
∴X ~ Hipergeométricamente; con:
( )( )4,3,2,1:,
21 5
4)( 25
5
XxxxfC
x ∴−=
La probabilidad de que el lote sea rechazado, es por lo tanto;
)2( ≥XP = 1 – P(X<2)
= )1(1 ≤− XP
= 1 – Fx(1)
= 1 – {fx(0) + fx(1)} = 0.17
3.1.2.3 APROXIMACIÓN DE LA DISTRIBUCIÓN HIPERGEOMÉTRICA A LA DISTRIBUCION BINOMIAL
De manera intuitiva se puede observar, que para N y Np grande y n relativamente
pequeño respecto a N, la distribución Hipergeométrica se aproxima a la Binomial
(n, p); porque en este caso, la muestra sin reemplazamiento tiene efecto
despreciable sobre la proporción P de éxitos de la población, ⎟⎠⎞
⎜⎝⎛ =
NNpP . Ilustremos
esta situación mediante el ejemplo siguiente:
Supongamos que una urna contiene 106 bolas rojas y 108 bolas blancas.
Seleccionemos al azar, una muestra de 5 bolas, la probabilidad de que haya 3
bolas rojas en la muestra, la da la fórmula:
: ( ) ( )( )86
86
10103
103
103)3(
+
⋅=
-5 xf X: 0, 1, 2, 3, 4, 5.
NpnX
NpX<≤∴
<∴
Ahora, si la extracción se hace con reemplazamiento, se habrán repetido 5
pruebas independientes, con probabilidad constante 86
6
101010
+=P , de éxito, para
cada prueba.
En este caso, la probabilidad de extraer 3 bolas rojas, lo obtenemos de la fórmula
Binomial:
( ) 23 )1(53)3( ppf x −=
( )2
86
63
86
6
1010101
1010105
3 ⎟⎟⎠
⎞⎜⎜⎝
⎛+
−⎟⎟⎠
⎞⎜⎜⎝
⎛+
=
Resolviendo y podemos ver que ≈
3.1.3 DISTRIBUCIÓN DE POISSON
Esta distribución es aplicable a muchos procesos que indican demandas de
servicio, tales como, el número de máquinas en una gran planta, que se paran
durante cualquier día; el número de personas que atiende un cajero de banco en
media hora; el número de llamadas telefónicas recibidas en una central durante 15
minutos; el número de autos que son atendidos en una estación de gasolina
durante 10 minutos; el número de unidades de un artículo determinado vendido
durante un día.
También es aplicable el modelo de Poisson a fenómenos que no implican tiempo,
tales como, el número de errores tipográficos por página; el número de conexiones
soldadas defectuosamente en un ensamble eléctrico; el número de cuerpos
extraños, (como piedritas o burbujitas), incrustados en una botellas de vidrio, etc.
Dados los ejemplos de aplicación anteriores, los resultados posibles son 0, 1, 2,
3,. . . . y así sucesivamente; es así, que no puede haber ninguna llamada
telefónica durante un período de 5 minutos o puede haber una, y así
sucesivamente, lo que implica, que la variable de Poisson puede tomar valores
desde cero hasta infinito.
Para el análisis de esta distribución utilizaremos el siguiente ejemplo:
Supongamos que una compañía de teléfonos recibe en un tiempo T un número R
de llamadas.
Sea t una fracción observada del tiempo T. Cuál es la probabilidad de que se
produzcan X llamadas en t?
Supongamos que T es mucho más grande que t ; como también suponemos
que las llamadas están distribuidas con probabilidad uniforme en todo el tiempo,
luego se deduce que la probabilidad de que haya X llamadas en t es:
( ) ⇒−
⎟⎠⎞
⎜⎝⎛ −⎟
⎠⎞
⎜⎝⎛ xR
Ttx
TtR
X 1
Y partiendo de aquí, obtenemos la distribución de Poisson, haciendo que R y T
sean lo más grandes, ),( ∞→∞→ TyR para que la densidad o probabilidad
de llamadas TR permanezca constante.
Ahora escribamos el producto , en la forma:
XRX
X Tt
TtR
RXXRR −
⎟⎠⎞
⎜⎝⎛ −⎟
⎠⎞
⎜⎝⎛ ⋅
−1
!)!(! ; (Multiplicamos y dividimos por RX, con el fin de
simplificar las expresiones factoriales).
X
XRX
RXXRTt
TtRXRxRRRRR
!)!(
1)!())1()...(3)(2()1(
−
⎟⎠⎞
⎜⎝⎛ −⎟
⎠⎞
⎜⎝⎛ ⋅
−⋅−−−−⋅−∴
−
Vemos que entre R y (R-(x-1)), hay exactamente X productos, los cuales podemos
dividir respectivamente por cada uno de los X productos que hay en RX , luego:
!
1)1(1312111
XTt
TtR
Rx
RRRRR XRX −
⎟⎠⎞
⎜⎝⎛ −⎟
⎠⎞
⎜⎝⎛ ⋅
⎟⎠⎞
⎜⎝⎛ −
−⋅⋅⋅⎟⎠⎞
⎜⎝⎛ −⎟
⎠⎞
⎜⎝⎛ −⎟
⎠⎞
⎜⎝⎛ −
Si llamamos TRd
Ttp == y ; entonces:
( ) ( )
!
1112111
XRtddt
Rx
RR
XRX
−
⎟⎠⎞
⎜⎝⎛ −⋅⋅⎟
⎠⎞
⎜⎝⎛ −
−⋅⋅⋅⎟⎠⎞
⎜⎝⎛ −⎟
⎠⎞
⎜⎝⎛ −
( ) ( ) ( )!!
1112111
Xdt
XRtddt
Rx
RR e tdX
XRX
LimR
−
−
⋅=
⎟⎠⎞
⎜⎝⎛ −⋅⋅⎟
⎠⎞
⎜⎝⎛ −
−⋅⋅⋅⎟⎠⎞
⎜⎝⎛ −⎟
⎠⎞
⎜⎝⎛ −
∞→ ;
Podemos generalizar entonces, y decir, que una variable aleatoria X se
distribuye según Poisson, si la función de densidad está dada por:
....2,1,0:;!
)( xX
xf eX
x µµ −⋅
=
Donde td=µ , en el ejemplo, es cualquier número positivo y llamaremos en
general, N a la población, (que en nuestro ejemplo es R). Luego; .Np=µ
3.1.3.1 CARACTERÍSTICAS DE LA DISTRIBUCIÓN DE POISSON
1. ESPERANZA: E(x)
∑∑∞
=
−∞
=
−
−
⋅=
⋅=
10 )!1(!)(
X
X
X
X
XX
XxE ee µµ µµ
Haciendo Y = x-1, tenemos:
∑
∑∑∞
=
−
∞
=
−∞
=
+−
⋅⋅=
⋅⋅=
⋅=
0
00
1
!)(
!!)(
Y
Y
Y
Y
Y
Y
YxE
YYxE
e
ee
µ
µµµ
µ
µµ
µ
∴ La expresión ∑∞
=0 !Y
Y
Yµ
, es la expansión en series de Maclaurín de eµ ,
luego;
óndistribuciladeMediaxE
xE ee :)(
)(
µµµ µµ
=
=⋅⋅= −
2. VARIANZA: Var(x)=σ 2X
Var(x) = E(x2) – (E(x))2
µµµ
2
0
2
!)( −
⋅⋅= ∑
∞
=
−
x
x
X
xxVar e
∑
∑∑
∞
=
−
∞
=
−∞
=
−
−
⋅⋅=
−
⋅⋅=
⋅⋅=∴
1
0
2
0
22
)!1(
)!1(!)(
x
x
x
x
x
x
x
x
xx
x
Xx
xE
e
ee
µ
µµ
µ
µµ
Haciendo Y = x-1 ⇒ X=y+1 ; luego
( ) ( )∑∑
∞
=
−∞
=
+− ⋅⋅+=
⋅+=
00
1
2
!
1
!
1)(
Y
y
Y
y
Y
y
Y
yxE ee µµµ µµ
∑∑
∑∑
∞
=
−∞
=
−
∞
=
−∞
=
−
+=
+=
00
00
!!
!!
y
y
y
y
y
y
y
y
YY
Y
YY
Y
ee
ee
µµµ
µµµµ
µµ
µµ
µ
⎟⎟⎟
⎠
⎞
⎜⎜⎜
⎝
⎛=
⋅∴+= ∑
∞
=
−
01
!)(
y
y
YYE e µµ
µµ
Pero µ=)(YE
µµ +=⇒ 22 )(XE ; entonces:
µ
µµµµ
=
=−+=
)(
)( 22
xVar
xVar
Nótese que en esta distribución la media y la varianza son iguales.
3. FUNCIÓN GENERATRIZ DE MOMENTOS MX(t)
( )
∑
∑∑
∞
=
−
∞
=
−∞
=
⎟⎠⎞⎜
⎝⎛
=∴
⋅=⋅==
0
00
!)(
!)()(
x
xt
X
x
x
tx
xx
txtxX
XtM
XxfEtM
ee
eeee
µ
µ
µ
µ
eee
eeee
tete
tt
t
)1
...!3!2
1
32
−=⋅=
⎪⎪⎭
⎪⎪⎬
⎫
⎪⎪⎩
⎪⎪⎨
⎧
+⎟⎠⎞⎜
⎝⎛
+⎟⎠⎞⎜
⎝⎛
++⋅=
−
−
( µµµ
µµµ
µ
ete
X tM )1()( −= µ
Q Empleando la función generatriz de momentos, podemos hallar también la
media y la varianza, de la distribución de Poisson, así:
⇒⋅=∴== − )(' )0(' )( )1(ee
tettMtMxE XXµµ
[ ][ ]
{ } 2
)1()1(
1)0(''
)(''
)0(')0(''
)()()(,
)0(')(
2
22
µµµµ
µµ
µ
µµ
+=+==
⎪⎭
⎪⎬⎫
⎪⎩
⎪⎨⎧
=∴
=−==
−=
===⇒
⋅⋅⋅ −− +
tM
tM
tMtM
xEXExVarAhora
tMxE
X
X
XX
X
eeeee ttt
ett
e
Luego;
µµµµ =−+= 22)(XVar
3.1.3.2 APROXIMACIÓN DE LA DISTRIBUCIÓN DE POISSON A LA DISTRIBUCION BINOMIAL(n,p)
Con el fin de comprobar de que la distribución de Poisson es una buena
aproximación a la binomial, cuando n (tamaño de la muestra), es muy grande y
p , (probabilidad de éxitos), muy pequeña; veamos el siguiente teorema, que dice
: “Si la probabilidad p de éxito en una sola prueba, tiende a cero, (p 0) ,
mientras que el número de pruebas n tiende a infinito, ( )∞→n , de una forma tal
que la media np=µ permanezca constante, la distribución binomial se
aproximará a la distribución de Poisson con media µ
PRUEBA:
Escribamos la fórmula de la distribución binomial (n, p), de la forma siguiente:
xnx
x qpxnx
xnxnnnnxf −⋅−
−+−−−=
)!(!)!)(1)...(2)(1()(
( ) xnxx pp
xxnnnnxf −−⋅
+−−−= 1
!)1)...(2)(1()(
Multipliquemos el numerador y el denominador por nx
( )
:Luego ,
1)(!
)1)...(2)(1()(
np
pnpxn
xnnnnxf xnxxx
µ=∴
−⋅⋅
+−−−= −
xnx
x nnn
nxnxnxnxxnnnnxf
−
⎟⎠⎞
⎜⎝⎛ −⋅⎟
⎠⎞
⎜⎝⎛+−−−
=µµ 1
!........)1)...(2)(1()(
_____ x productos _____
_____ X veces _____
( )( )n
x
xx p1x!µ
p1n
1x1...n11
n11
(x)f −⋅−
⎟⎠⎞
⎜⎝⎛ −
−⎟⎠⎞
⎜⎝⎛ −⎟
⎠⎞
⎜⎝⎛ −
=
Ahora, expresemos (1 – p)n en la forma:
( ) ( ) ( )µ−
−−
−
⎥⎦⎤
⎢⎣⎡ −=⎥⎦
⎤⎢⎣⎡ −=− p
np
pn ppp
11111
Además, según la definición del número e, ⇒
( ) eZLimz
Z =+→ 101
Por lo tanto, haciendo Z = - p ⇒
( )[ ]
( )1
1
11...2111:
101
=−
⎟⎠⎞
⎜⎝⎛ −
−⎟⎠⎞
⎜⎝⎛ −⎟
⎠⎞
⎜⎝⎛ −
∞→
=−→−−−
x
p
pn
xnnLim
nAdemás
pLimp e
µµ
Porque npnp =∞→→ µ cuando y ,0 es constante, luego la expresión
queda:
,...2,1,0:;!
)( XX
xf ex
x µµ −⋅
=
3.1.3.3 EJERCICIOS 1. Un cuadro de teléfonos atiende un promedio de 600 llamadas durante una
hora de aglomeración. El cuadro puede hacer un máximo de 20 conexiones
por minuto. Estímese la probabilidad de que el cuadro quede rebasado en
un minuto dado.
SOLUCIÓN
El cuadro atiende un promedio de llamadas por minuto, igual a:
minutoporllamadas
horaminutoshorallamadas
10
/ 60/ 600
=
=
µ
µ
Sea X la variable aleatoria que representa el número de llamadas; entonces, la
probabilidad de que el cuadro quede rebasado en un minuto dado es:
)( 99841.01
!10
1
)20(1)20(20
0
10
tablas
X
XPXP
X
Xe
−=
⋅−=
≤−=>
∑=
−
= 0.00159; es decir, que prácticamente el número de llamadas por minuto,
no sobrepasan la capacidad máxima del cuadro telefónico.
2. Una compañía de seguros, halla que el 0.005% de la población, fallece
cada año en cierto tipo de accidente. Cuál es la probabilidad de que la
compañía tenga que pagar a más de 3 de sus 10.000 asegurados, contra
tales accidentes, en un año dado?
Sea p : Probabilidad de fallecer una persona en un año 00005.0 =∴ p
Sea X : Variable aleatoria que representa el número de personas que fallecen
en un año dado.
n = 10.000 número de asegurados o tamaño de la muestra.
Este problema posee la característica de ser Binomial
X ~ b(10.000, 0.00005)
( )( ) ( ) xxx xxf −=⇒ 000.1099995.000005.0000.10
)(
Cosa que por aquí resultaría muy laborioso, pero basta observar que p es muy
pequeño, ),0( →p y n es muy grande, );( ∞→n luego podemos resolver el
problema aproximándolo a la distribución de Poisson; ∴
5.0 00005.0000.10
=⋅=⇒⋅= µµ pn
X~Poisson con ⇒= 5.0µ
( )!
5.0)(
5.0
Xxf e
X
x
−
=
Luego, se pregunta:
en tablas) hallado(Valor 0017509982501
0.5 5.0 5.0),3(1)3(1)3(
..-
FXPXP x
==
===−=≤−=>
µµµ
Quiere decir, que el riesgo que tiene la compañía aseguradora es casi nulo, o
prácticamente ninguno.
3.2 PRINCIPALES DISTRIBUCIONES CONTINUAS
3.2.1 DISTRIBUCIÓN UNIFORME O RECTANGULAR
Esta distribución surge, por ejemplo, en el estudio del redondeo de errores cuando
las observaciones se registran con cierta precisión. Así por ejemplo, si las
observaciones sobre la temperatura diaria se registran redondeadas al grado más
próximo, podrá suponerse que la diferencia en grados entre la temperatura real y
la registrada es un número que oscila entre –0.5 y 0.5 y que el error se distribuye
uniformemente a lo largo de este intervalo.
- Deduzcamos la función de densidad de esta distribución:
Sean a y b dos números reales, tales que a<b.
La variable aleatoria X se distribuye uniformemente en (a,b) si:
),( todoPara 0)(),( todoPara )(
baXxfbaXKxf
x
x
∉=∈=
Determinemos, ahora el valor de K ⇒ como ⇒∈∀= ),( )( baXKxf x
1 1)(b
a
=⇒= ∫∫ Kdxdxxfb
a
abKabK
−==−
1 1)( ; luego, la función de densidad de la distribución
uniforme es:
bxaab
xf x <<−
= para 1)(
3.2.1.1 CARACTERÍSTICAS DE LA DISTRIBUCIÓN UNIFORME
1. FUNCIÓN GENERATRIZ DE MOMENTOS: Mx(t)
( )
( )[ ]eee
e
ee
atbtb
a
txx
b
b
a
txa
x
xtxtx
x
abtdx
abtM
dxdxab
dxtM
dxxfEtM
−−
=−
=
+⋅⎟⎠⎞
⎜⎝⎛
−+=
⋅==
∫
∫∫∫
∫
∞
∞−
∞
∞−
)(11)(
010)(
)()(
)()(
abttM ee
atbt
x −−
=
2. ESPERANZA: E(X)
]
( ) ( )
2)( Luego
2)(2
)(2)(21)(
1010)()(
222
baXE
baab
abab
ababX
abXE
dxXab
dxdxab
XdxdxxfXXE
ba
b
ab
b
a
a
x
+=
+=
−+⋅−
=
−−
=⋅−
=
⋅−
=⋅+⎟⎠⎞
⎜⎝⎛
−+=⋅⋅= ∫∫∫∫∫
∞
∞−
∞
∞−
3. VARIANZA: Var(x) = σ 2X
[ ]
]
( )( )
3)(
3)(3
)(3)(31)(
1010)()(
)()()(
222
2222
3332
222222
22
aabbXE
aabbab
aabbab
ababX
abXE
dxXab
dxXdxab
XdxXdxxfXXE
XExExVar
ba
b
ab
b
a
a
x
++=⇒
++=
−++−
=
−−
=−
=∴
−=⋅⋅+⎟
⎠⎞
⎜⎝⎛
−+⋅=⋅=∴
−=
∫∫∫∫∫∞
∞−
∞
∞−
Luego,
( )
( )
( )12
)(
12122)(
12363444)(
43)(
2
222
2222
222
baxVar
bababaxVar
babababaxVar
baaabbxVar
−=
−=
+−=
−−−++=
+−
++=
4. FUNCIÓN DE DISTRIBUCIÓN ACUMULATIVA FX(x) ∴ X~U(a, b)
⇒ Por definición FX(x) = )( xXP ≤
⎪⎩
⎪⎨
⎧
<
<=∴
bx
axxFx
si 1
si 0)(
]abaxu
ab1
duab
1du0
f(u)dux)P(X(x)F
xa
x
a
a
x
x
−−
=⋅−
=
⋅−
+⋅=
==≤=
∫∫
∫
∞−
∞−
),( Para 0)(
Para )(
baXxF
bxaabaxxF
x
x
∉=
<<−−
=
3.2.1.2 EJEMPLO
Una empresa tiene una curva de costos dada por la función C=1.000+2x; siendo X
el número de artículos. En el mercado vende cada unidad a $5. La demanda de
artículos es uniforme entre 25.000 y 30.000 unidades. Cuál es el beneficio
esperado?
SOLUCIÓN:
X: Variable aleatoria que nos representa la demanda de los artículos
X∴ ~ );000.30 ;000.25(U 12
Sea B: El beneficio o utilidad, donde la función de utilidad la establecemos de la
forma, ventas totales, menos, costos totales, así:
B = 5X – (1.000 + 2.X)
000.13 −=∴ XB
Luego, el beneficio esperado es:
500.81)(
10002
000.30000.253)(
1000)(3)10003()(
=
−⎟⎠⎞
⎜⎝⎛ +
=
−=−=
BE
BE
xEXEBE
3.2.2 DISTRIBUCIÓN NORMAL (0, 1 ) : n(0, 1)
Una variable aleatoria Z, se dice que tiene una distribución normal (0, 1), si su
función de densidad, está dada por:
∞<<∞−⋅= − xxf e Xz
21)(
221
π
12 Léase, X “se distribuye uniforme” en el intervalo ...)
El siguiente tipo de integrales que mencionaremos, son fundamentales para el
desarrollo y pruebas de distribuciones continuas, como la normal, chi_cuadrado, T
de student, entre otras , ellas son:
ppaxp
adxX e )(
0
1 γ=⋅⋅∫
∞−− : Euleriana de primer orden
ppaxp
adxX e 2
)(
0
122 γ
=⋅⋅∫∞
−− : Euleriana de segundo orden
( ) ( ) ( ) ( ) ( )( )
( ) )definición(Por 21
1
0 22111
)(
)(
πγ
γ
γγγ
=
∈∀−=
>−−⋅−=−−=∴+
y
Zpp
pppppp
p
p
Probemos ahora sí, si ,21)(
2)21(e Xz xf −=
πes función de densidad:
1. Obvio que ( )∞∞−∈∀> , 0)( Xxf z
2. dxdxxf e X∫∫∞
∞−
−∞
∞−
⇒=2)21(
211)(π
( )
21 y, 21012
12
2
212
2122
22
21
0
2)21(
==⇒=−∴
=⋅
=
⎟⎠⎞
⎜⎝⎛
×=⋅= ∫∞
−
app
dxe X
ππγ
ππ
Luego, fz(x) si es función de densidad.
3.2.2.1 CARACTERÍSTICAS DE LA NORMAL (0, 1) : n(0 , 1 )
1. FUNCIÓN GENERATRIZ DE MOMENTOS: Mz(t)
Operemos el exponente, de la siguiente forma:
La integral es una Euleriana de Segundo Orden
es la f.g.m.13 de z ~ n(0,1)
Empleando la técnica de la función de distribución acumulativa Fx(x) hallemos la
función de densidad Fx(x) para C ~ h ( m , s2) 14
[ ] [ ]
( )
( ) ⇒=′∴
−=∴
==⎟⎠⎞
⎜⎝⎛ −
∴
⎥⎦⎤
⎢⎣⎡ −
≤+=≤+=≤=
−−
∞−∫
DensidaddeFunciónfσ
µx
de2π1F
σµxF
σµxzPxµzσPxXPxF
z
21
σµx
xz
x
2
z
z
zzz
Por teorema del cálculo integral sabemos que:
13 f.g.m.: léase como función generatriz de momentos
( ) ( )
( )
( )∞<<∞−∞<<∞−
⋅⋅
=
⇒⋅=′
′⋅=
⎥⎥⎥⎥⎥
⎦
⎤
⎢⎢⎢⎢⎢
⎣
⎡
⎟⎠⎞
⎜⎝⎛ −
−
−
−−
∞−∫
µσ
σ
x;
;1
luego,
2
σµx
21
x
21
x
21
σµx
e2π
1xf
e2π1xF
xµfdX
de2π1
d
2
2
z
z
zz
3.2.2.2 CARACTERÍSTICAS PRINCIPALES 1. Función generatriz de momentos MX(t)
( ) [ ] ( )[ ] [ ]( )[ ] ( )
( )tMeee
tσMeeEe
eeEeEeEtM
xσt
21tµσt
21
tµ
ztµzσttµ
tµzσtµzσttxx
222
==⋅=
⋅=⋅=
⋅===
+
+
2. Función característica ϕ z( θ )
( ) [ ]( )
( ) ( )0,1ηZeθ
eeθ
luegof.g.m.laeniθthaciendoeEθ
2
222
θ21
z
θ21θi
21
z
zθiz
∼∴=
==
==
−
−
ϕ
ϕ
ϕ
3. Esperanza: [ ]ΖΕ
[ ]ΖΕ = 2
21
´ .)(´)0(´t
zz ettt =Μ∴=Μ
∴ [ ]ΖΕ = 00)0(´2)0(
21
===Μ et xz
[ ]ΖΕ = 0 : media de la distribución )1,0(η
4. varianza : VAR (Z) = 2zσ
14 Léase C se distribuye normal m , s2
[ ] [ ] ( )[ ] ( ) ( ){ }
[ ] ( )[ ] 101ΖVAR
10tMZEete(t)Μ
0tM0tMZEZEΖVAR
z2t
21
2(t)21
z
2zz
22
22
=−=⇒==′′=∴+=′′∴
=′−=′′=−=
3.2.3 DISTRIBUCION NORMAL CON MEDIA µ y VARIANZA 2σ : η ( ), 2σµ Sabemos que Ζ , variable aleatoria que se distribuye )1,0(η Decimos que la v.a12 Χ se distribuye ),( 2σµη , si 0>∴+Ζ=Χ σµσ para ∞<<∞− µ y ∞<<∞− X 2. Función Característica : )(θϕ x
Hacemos t= iθ en 22
21i
xx e)()t(θσµθ
θϕ−
=Μ a 3. Media de la distribución
22t21t2
x e)t()t(´σµ
σµ+
+=Μ
[ ] µ==Μ=Ε )0(´ tx xa 4 Varianza de la distribución : 2)( xXVAR σ= ∴ [ ] [ ]2)(
22 )0(´)0(´´)()()( =Μ−=Μ=Ε−Ε= ttxxXVAR xx 2222 t
21t22t
21t
.2
x e)t(e)t(´´σµσµ
σµσ++
++=Μ∴
22)0(´´ µσ +==Μ txa ; luego :
2222)( xxXVAR σµµσ =−+= 12 léase variable aleatoria
5. Forma de la curva de la distribución normal. Curva normal
Las figuras muestran varias curvas de distribución normal con diferentes valores de σ e idénticos valores de µ .
Al cambiar µ con σ constante, la forma de la curva no cambia, se correrá únicamente hacia la izquierda o hacia la derecha.
Sobre la curva de la distribución normal ( ),( 2σµ podemos afirmar: 1. Es simétrica respecto a la línea x = µ 2. Tiene un punto de máxima en x = µ 3. Tiene como asíntota horizontal al eje x 4. Presenta dos puntos de inflexión, en: x= σµ − y σµ + 5. La media, la moda y la mediana coinciden 6. El área comprendida entre dos puntos de inflexión, σµ − y σµ + ; es aproximadamente el 68 % en el área total. 7. El área comprendida entre σµ 2− y σµ 2+ es aproximadamente el 95.4% del área total y el área comprendida entre σµ 3− y σµ 3+ es aproximadamente el 99.7 % del área total. 3.2.4 Distribución JI dos con un grado de libertad : 2
)1(X
Sea X una v.a normal(0,1). Consideremos la variable 2Χ=Y . Encontremos su función de densidad sea )(xFy la función de distribución de Y, (∴obviamente los valores de Χ deben ser positivos),a
)(xFy = [ ] [ ] [ ]xxxxXxyP ≤≤−Ρ=≤Ρ=≤ 2
= ∫−
−x
x
de µπ
µ..
21 )(
21 2
∴ la función de densidad de Y será
)x(yf = [ ]⎥⎥⎦
⎤
⎢⎢⎣
⎡= ∫ −
−x
xy dexd
dxFxd
d µπ
µ.
21
)()(
)()(
21 2
dxxde
dxxde
xx )(.21)(.
21 22 )(
21)(
21 −
−−−−
ππ
∴ )x(yf = x
ex 21
21
..21 −−
π, x > 0 ; es la función densidad de la distribución JI – DOS ,
con un grado de libertad. Esta variable se simboliza por )1(2Χ :
3.2.4.1 Función Generatriz de momentos de la )1(
2Χ :
[ ] [ ]tytxXy eet =Ε=Μ=Μ ϖ2
2 )1()(a
= dxeXextx ..
21. 2
121
0
−−∞
∫ π
= dxeXxtx..
21.
)21(21
21
0
−−−∞
∫ π
∴ la integral anterior es una Eureliana de primera especie, se tiene que;
21
211 =⇒−=− pp y ),21(
21 ta −= luego
21
21
21 )21(
2.)21(
2.
)221(
)21(
.21)(
)1(2
−−=
−
=−
Γ=Μ t
tttx
π
ππ
∴ 21
)21()()1(
2
−−=Μ tt
x es la f. g. m de la )1(
2Χ
3.2.4.2 Función característica de la )1(
2Χ : )()1(
2 θϕ x
Haciendo t = θi en )()1(
2 tx
Μ obtenemos la función característica así
⎥⎦⎤
⎢⎣⎡Ε=−=
−)1(
2
)1(2
xi21
x e)i21()( θθθϕ
3.2.5 Distribución JI DOS, con n grados de libertad )(
2nΧ
consideramos ahora las variables aleatorias : 1X , 2X nX ...... Xn Todas las normales (0 , 1) e independientes
Deduzcamos su función característica:
[ ])(2
)(2 )( n
n
xix e θθϕ Ε= a
definamos primero a n
2Χ = nX..........XX 22
21
2 ++= esta nueva variable es la de JI – DOS con n grados de libertad13 como cada ;,......2,1 nJX j =∴ es una )1(
2X , entonces la )(2
nX es la suma de n )1(2X
independientes. Luego:
[ ]⎥⎦⎤
⎢⎣⎡Ε⎥⎦
⎤⎢⎣⎡Ε⎥⎦
⎤⎢⎣⎡Ε=
Ε= ++
n2
12
12
n2
22
12
)n(2
xixixi
)x..........x,x(ix
e(......)e.e
e)(
θθθ
θθϕ
por ser independiente
pero cada n ,........ 1,2, = J )2i-(1 = 21-
∴⎥⎦⎤
⎢⎣⎡Ε θθ 2
Jxie
a )()(
2 θϕnx = (1-2iθ ) 2
n−
, ahora, retomando la función característica, encontramos la función de densidad de la )(
2nX
sea )(
)(2 xf
nx la función de densidad de la )(
2nX .
Por definición de función característica se cumple que:
)()(
2 θϕnx =(1-2iθ ) 2
n−
,= ⎥⎦⎤
⎢⎣⎡Ε )(
2nxie θ = ∫
∞
0
. )(.)(
2 xdfenx
xiσ (A)
por otra parte sabemos que:
pap
apde )(.. .
0
1 Γ=∂∂ ∂−
∞−∫
13 Los grados de libertad de g l , es el numero de variables aleatorias independientes.
=pa1
pa
0
1p
a(p).d.e
(p)1 Γ
=Γ
−∞
−∫ zz z
En la integral anterior hagamos: θia 21−= y 2np =
zz z .d.e)
2nΓ(
1
i) θ 2(1
1 σ) 2i(1
0
12n
2n
−−∞ −
∫=
−
a
Apliquemos cambio de variable, así:
Sea aaa zzz d21d
2xx2z ===
dx.e.e
2
χ.)
2nΓ(2
1θ)i21 xθi2x
0 12n
12n
2n
−∞
−
−−
∫=−(
dxeenxi
xnθχ ...
)2
(2
1 2
0
12
−∞
−
∫Γ
= (B)
dxxfenx
xi )(.)(
2
0∫∞
= σ (A)
comparando (A) y (B), para cada x se tiene que
dx.e.e.χ
)2nΓ(2
1(x)dx.fe x θ i2x
0
12n
2nx
0
θx i(n)
2
−∞ −∞
∫∫ =
como existe una relación biunívoca entre la función característica y la función densidad . a
(x)dxf(n)
2x = 2x1
2n
2n .eχ
)2nΓ(2
1 −−; 0>x
La distribución de la )(
2nχ esta dada por:
)()(
2 xfnx = µµ
µ
den
n
n2
0
12
2
..)
2(2
1 −∞
−
∫Γ
3.2.5.1 Momentos de la )(
2nχ :
ya vimos que la f. g. m de la )(
2nχ es:
)()(
2 tnxΜ = 2)21(
n
t−
− a
)()(
2 tnxΜ =
12
12 )21()21)(2(
2−−−−
−=−−−nn
tntn
)()(
2 tnx
Μ = 2
22
2 )21)(2()21)(12
(2−−−−
−+=−+nn
tnntnn
∴ )0(
)(2 =Μ t
nx = 1=∝n : es el momento de orden 1 con respecto Al origen ∴ µ=∝1 ∴ )0(
)(2 =Μ t
nx= 2)2( =∝+= nn es el momento de orden 2 con respecto al origen
)( 22 χΕ=∝
luego la varianza de la )(
2nχ es:
nnnnn 2)2()( 22
122
)(2 =−+=∝−=∝χν
nn 2)(
22 =χνa vemos así que en la variable aleatoria )(
2nχ , la media de µ coincide con el
numero de grados de libertad y la varianza es dos veces este numero. DISTRIBUCION t DE ESTUDENT
Sean: X , 1X , 2X 3X ...... Xn variables aleatorias independiente todas las normales ),0( ν ; se define la variable aleatoria t con n. g. l , Así:
)n2
22
12
(n)
.......xx(xn1
Χt++
=
encontremos la función de densidad de la )(nt , pero antes, definamos la variable , Υ así :
ΥΧt).......xx(x
n1Y (n)(n)
2(2)
2(1)
2 =⇒++=
como ),0( νµηΧ ; su función de densidad es:
2
2.
21
21)( ν
πν
x
x exf−
=
La variable aleatoria Υ , se puede expresar de la siguiente forma
)σ
x...............σ
xσ
xσ
x(nσΥ 2
(n)2
2(3)
2
2(2)
2
2(1)
22++++=
Pero como cada ix es normal σ)(0, ; entonces σxi , entonces es normal (0,1) a
⎥⎦
⎤⎢⎣
⎡++ 2
(n)2
2(3)
2
2(2)
2
2(1)
2
σx...............
σx,
σx,
σx
, )(2
nηχ ; luego;
2(n)
2x
nσY ⋅=
∴ [ ]⎥⎥⎦
⎤
⎢⎢⎣
⎡≤=≤= yχ
nσΡyΥΡ(y)F (n)
22
Y
⎥⎦⎤
⎢⎣⎡ ≤Ρ=⎥
⎦
⎤⎢⎣
⎡≤Ρ= 2
2)n(22
)n(2
2yny
n σχχσ
)yσn(F 22χ (n)
2
sabemos que dµeµ
)2nΓ(2
1F2
2
(n)2
yσn
02µ1
2n
2nχ ∫
−−⋅
a dµeµ
)2nΓ(2
1(y)F2
2 yσn
02µ1
2n
.2nY ∫
−−⋅⋅=
La función de densidad de Υ será, por tanto:
dµ.eµdyd
)2nΓ(2
1(y)F´(y)f 2µ1
2n
y2n
0.2nYY
2 −−
∫==
yneynn
ynn
n .2..).()
2(2
12
.21
122
2.2
22
νντ
ν−−
=
1ny
2σn
2
2n
Y ye.)
2nΓ(σ
)2n2(
(y)f2
2 −−
=
Ahora la función de densidad conjunta ( ),( ΥΧ , está dada por )().().(, yfxfyxf yxyx =
1n
n
y2σ
n2n
σx
21
yx, y.)
2nΓ(σ
.e)2n2(
.e2πσ
1(x.y)f
22
2
2
−
−
−=
2
22
21
1.. νxny
n eyK+
−−= ; ∞<<∞<<∞− yx 0;
)2nΓ(2πσ
)2n2(
K1n
2n
+=∴
Llamemos )()( zF nt a la función de distribución de la v.a t
[ ] ∫∫=⎥⎦
⎤⎢⎣
⎡≤Ρ=≤Ρ= dxdyyxfZ
yxZtzF
ennt ),()( )()(
la región C es aquel recinto de la distribución conjunta en donde Zyx
≤ ; (o sea,
donde x ≤ yz ) ∴ ∞<<∞− z veamos la gráfica
∫+
−−=
yzxny
ntn eyKzF
.
0
.21
1 2
22
.)( νa
Hagamos el siguiente cambio en las variables:
v10µv
vy
µy
vx
µx
Jvy
vµx==
∂∂
∂∂
∂∂
∂∂
=⇒⎭⎬⎫
=⋅=
;vv =⇒ ya que v = y ; y ≥ o
dvvdudxdy .=⇒ ∴ Los limites son: Para V, igual que para Y:(0,∞)
Para µ = vx con v fijo, x −∞→⇒−∞→ µ
∴ x = z.y ⎪⎩
⎪⎨⎧
=
=⇒
zvyz.µ
.V.dµV.d.eVK(z)F0
σµ.VnV.
21
z 1nt(n)
2
22
∫ ∫∞
+−
∞−−=
.dµdV.eVKz v
σµn.
21
0n
22
2
⎭⎬⎫
⎩⎨⎧
= ∫ ∫∞−
⋅+
−∞
La integral “entre llaves” es una eureliana de segundo orden, donde : 2p-1 =n
2
2
2σµna
21nΡ +
=∧+
=⇒
∫∫ ∞− +
∞ ⋅+
−
++
+
=⇒z
21n2
2
20
vσ
µn.21
n
)nµ(1
dµ.)
2σµn2(
)2
1nΓ(.dv.eV
22
2
∫ ∞− +
+
+
=z
nnt
n
dunn
n
zF2
12)(
)1()2
(
)2
1()(
µτπ
τ
Esta función de distribución de la “t” con n, lgn. . Su función de densidad, será entonces:
∞<<;−∞
+
+
= + x
nxnn
n
xf nnt2
12)(
)1(
1.)
2(
)2
1()(
τπ
τ
3.2.7 DISTRIBUCCION F DE SNEDECOR: Sean nm yyy .,.........21..,.........2,1 ,;χχχ ; (m+n) variables aleatorias independientes normales (0,ν ); se define la variable aleatoria F de snedecor con (m,n) l,g como:
ΥΧ
=⇒+++
+++= F
yyyn
mFn
m
)..............(1
)..............(1
222
2
222
21
1
χχχ
)..............(1)..............(1 222
2222
21 1 nm yyy
nm+++∧+++=Χ∴ χχχ
Para determinar la función de densidad F, encontremos antes las distribuciones de Χ e Υ . a Función de distribución de Χ
sea: Χ = ⎥⎦⎤
⎢⎣⎡ ++ 221
2
)((...........)(νν
ν mxxm
Como cada ),0(1 νηµx ; los ν
ix )1,0(ηµ
2
)(
2
1 mmχν
=Χa ∴
[ ] ).()()(
22
)(2
)(
2
xmFxmxm
xxFmxmmx νν
χχν=⎥⎦
⎤⎢⎣⎡ ≤Ρ=⎥
⎦
⎤⎢⎣
⎡≤Ρ=≤ΧΡ=a
= ∫−−xm m
m duem
2
0211
2
2
..)
2(2
1 νµ
µτ
2
xσm
21
12m
22mxx σ
m..ex)σm.(
)2mΓ(2
1(x)F´(x)f 2−−==⇒
x2σm
12m
m
2m
x2.e.χ
)2mΓ(σ
)2m(
(x)f−−
=⇒ Para 0 < x < ∞
en forma similar obtenemos a ∴)(yf y
.y2σ
n1
2n
n
2n
y2.e.y
)2nΓ(σ
)2n(
(y)f−−
= ; para 0 < y < ∞
por la independencia entre x , y ; su densidad conjunta es:
)().(),( yfxff yxyx = para 0 < x, y < ∞
( )ny)(mx2σ
11
2n1
2m
y)(x,2.eyK.Xf
+−−−=⇒
)2
().2
(
)2
.()2
(
.
22
nm
nm
Knm
nm
ττν +=∴
ahora la función de distribución F es:
[ ] ∫ ∫=⎥⎦⎤
⎢⎣⎡ ≤
ΥΧ
Ρ=≤Ρ=RF dxdyyxfzzFzF ),()()(
∴ R es la región en donde yz≤Χ ; como especificamos en la siguiente gráfica:
dydyeyKzFnymxnm
Z zy
F
)(2
11
21
2
0 0)(2..)(
+−−−
∫ ∫= σχ
hacemos las variables, así
vyvx
== .µ
⎭⎬⎫ J⇒ =
1,0
µv= v VVj ==a
Vdudvdxdy =a
Encontremos los limites: Para V, son los mismos para ),0( ∞∈⇒ Vy
Para µ =; µ = Vx , para 00 =→= µx
Para zzyx =→= µ
µµµ
ν VdVdeVVKzFnVVmnm
Z
F
)(2
11
21
2
0 0)(2..).()(
+−−−∞
∫ ∫=
= µµ νµ
deVKVnmnm
z m
⎥⎥
⎦
⎤
⎢⎢
⎣
⎡ +−−
+∞−
∫∫.
21
2
00
12 2.
la integral entre llaves es una Euleriana de primer orden, así
2.1
211 nmamP +
=∧−+
=−µ
Luego: =+
+
=⎭⎬⎫
⎩⎨⎧
+2
2 )2
(
2)(
nmnm
nm
νµ
τ
22)(
).)(2
(2nm
nmnm
nmnm +−+
+
++
=⎭⎬⎫
⎩⎨⎧
µτν
Entonces la función de distribución de la F de snedecor es:
dµµ)
2n()Γ
2mΓ(
)2
nmΓ(.σ.2.2)2n.()
2m(
(z)Fz
0
n)1(mµ2mµm2
n2m
2n
2m
F
2nm
∫+
−+−
+ +
=
Simplificando la constante y derivado la integral con respecto a z, y cambiando z por x, la función de densidad de la F con (m , n) l,g , será en definitiva:
yn)(mxχ)
2n)ΓΓ
2mΓ(
)2
nmΓ(.nm(x)f 2
2m12m
2n
2m +
−−+
+
= x > 0
Volvamos a la definición de la aV , ),( nmF :
m)F(n,X
m1
yn1
F1
yn1
xm1
n)F(m, m
1
2i
n
1
2i
n)(m,n
1
2i
m
1
2i
==⇒=∴
∑
∑
∑
∑
Esto significa que el inverso de una F con (m, n) l,g es una F con (n, m) l,g . En el manejo de tablas es muy útil esta propiedad, ya que:
[ ] ⎥⎦⎤
⎢⎣⎡ ≥Ρ=
⎥⎥⎦
⎤
⎢⎢⎣
⎡≥Ρ=Ρ ≤ x
fxf
xf mnnm
nm111
),(),(
),(
3.2.8 TEOREMA CENTRAL DEL LIMITE (De Lindeberg y levy) sea { } { }.......,, 321 xxxxi = una sucesión de variables aleatorias independeintes e
igualmente distribuidas con medias µ y varianzas 2σ finitas. A partir de esta sucesión podemos definir otra así
{ }⎪⎭
⎪⎬⎫
⎪⎩
⎪⎨⎧ −
=ns
nnn σ
)Ε(SSy con nn xxxS +++= ................21
entonces la suceción { }ny converge en distribución a una variable aleatoria Z normal (0,1) Esta forma es aplicable en aquellos casos en los cuales debamos encontrar probabilidaes relativas a la suma de n variables aleatorias con n grande a sí nn xxxS +++= ................21 y las ix so independientes e igualmente distribuidas , (n grande), entonces:
nS aproxima η {E ( nS ); snσ } 3.2.9 TEOREMA DE MOIVRE : Sea { } { }.................,, .321 nn xxxxx = una sucesión de ..av independientes binomiales
(n,p); entonces la sucesión, { }⎪⎭
⎪⎬⎫
⎪⎩
⎪⎨⎧ −
=qpnpny n
n ...χ , converge en distribucion a una
variable aleatoria µηz ( 0,1). Este teorema, es un caso partucular del T.C.L14 En efecto, nnn BBB ..........21 ++=∀ χa con cada Bin b (1 , p) ∴ las ib son independientes entre si
nxn σn.p.q);Ε(xnp ==⇒
nx
nn(n) σ
)E(xxy −⇒
las )(ny cumplen con las hipótesis del T.L.C al igual que en el teorema de moivre es aplicable para binomiales (n, p , con “n” grande: Si X η b (n,p) con n grande a 14 Léase T.C.L. como teorema central de limite.
nS aproxima η (n.p; qpn .. ) 3.2.10 Ejercicios Ilustremos las aplicaciones de estos teoremas, con algunos ejemplos: 1. Sea x la media de una muestra aleatoria tamaño n= 100 de la distribución 2
50χ encontrar, en forma aproximada el valor de P(49 < x < 51).
Solucion : x = )1 ..........(1nxx
n+ cada ix N 2
50χ e independientes
1001 ..........( xx +a ),( νµη ; por T.L.C
donde µ = 100E ( ix ) = 100 x 50 = 5000 ∴ 10021 x..........xx +++ ∼ η (5000,100)
)100100;
1005000(µxa
)1,50(µxa
)5149( <<Ρ xa = =−
<<−
Ρ )1
50511
5049( Z
)1()1(6826.0)11( −−==<<−Ρ ηηza
2. sea Υ una variable aleatoria binomial )
31;72( =
encontrar un valor aproximado de )2822( ≤Υ≤Ρ
solución pn.2431.72)( ===ΥΕ
16n.p.q3224.σ 2
y ===
)4,24(η∧Υa ; Por teorema de Moivre
)2822( ≤Υ≤Ρa = )5.285.21( ≤Υ≤Ρ , usando corrección para variable de V.A
discreta
)4
245.284
245.21( −<<
−Ρ= Z = )125.1625.0( <<−Ρ z = 0.6042.
3. sea )21,100(b∧Υ encuentre P(y = 50)
solución: E(y) =10021 = 50 ∴ 25
21502 ==ν
)5;50(η∧Υa ; por teorema de moivre
)5.505.49()50( <<Ρ==Ρ yya usando la correción para V.A .D
=−
<<−
Ρ= )5
505.505
505.49( Z
)1,0()1.0(0796.0)1.01.0( −−==<<−Ρ= ηηZ
4. La venta diaria de ua fábrica de cierto articulo, tiene una distribución uniforme
entre 20 y 40 artículos . Que probabilidad tiene la fábrica de vender más de 6370 artículos en 182 días.
Solución sea Χ la venta total en los 182 días
18221 x..........xxΧ +++=⇒ ; donde ix es la venta en el día i- ésimo.
ix∴ ∼ uniforme (20, 40)
;1201
)( abf x −
==∴ para X∈ (20,40)
30)( =ixEa
∫ ==⎥⎦
⎤==∴
40
20
40
20
322
i 32800
6056000
60xdxx
201)Ε(x
3100(30)
32800σ 22
x1=−=∴
5460182.30)Ε(x182.Ε(x) i ===⇒
318200
3100182.182.σσ 2
x2x i
===⇒
Χ⇒ ∼ η (5460; 3
18200 ) ; luego
=−
>Ρ=>Ρ )
318200
54606370()6370( Zx
P(Z > 11.8 ) = 0 Es casi imposible que la venta en 182 dias supere los 6370 articulos 5. una persona acostumbra participar en un juego en las cuales sus probabilidades
de ganar y perder son iguales. Siempre que gana una partida recibe $ 5 y siempre
que pierde paga # 5. Un día se dirige al sitio de juego con la intension de jugar 400
partidas. ¿Que cantidad de dinero debe llevar si quiere tener al menos una
probabilidad de 0.95, de hacer frente a sus posibles perdidas?
Solución Sea iΧ la V.A que indica la perdida en la partida i - ésima?
40021 ........ xxx +++=Χa es la perdida total en las 400 partidas
21)5( ==Ρ ix ∧
21)5( =−=Ρ ix
252
5021)5(
215)( 222 ==−+=Ε ixa
22
xi 525025σ ==−=⇒ luego, 0)(400)( ==Ε ixEx 10.000400.5400σσ 22
xi2x ===
Χ⇒ ∼η (0;100) ; por T.C.L
Sea K las cantidad que debe llevar, de modo que a95.0)( =≤Ρ kx
95.0)100
( =≤Ρkx
50.164645.1100
== kkaa
a debe llevar $ 164.50 6. Demuestre que si n21 x,........,x,x son V.A independiente e igualmente distribuidas xxfx 2)( = para 10 ≤≤ x ; entonces:
);2(........., 221 kFexxx
nkn
n =⎥⎥⎦
⎤
⎢⎢⎣
⎡≤+Ρ
+− con )(xf
funcion de distribucion η (0,1). Suponga n grande. Solucion:
[ ] ⎥⎦⎤
⎢⎣⎡ +−≤++=
⎥⎥⎦
⎤
⎢⎢⎣
⎡≤
+−nk
2n.........Ρe........xxΡ
n21 nxnxnxnk
2n
n1 lll
sea
n21 nxnxnx1 .........Χ lll ++= las variables
inxl son igualmente distribuidas e independientes:
∫ −==Ε1
0 212.)( xdxxxL nin l ; resolviendo por parte
∴ ∫ ==1
02
n2
in 21.2xdxx)()xΕ(L l
41
41
42)
21(
21σ 22
xi=−=−−=⇒ l
luego: 2
)21()( nnx −=−=Ε
4nσ 2
x = ; luego x η∼ (-2
;2
nn )
)
2
22()2
(n
nnkn
ZnknX++−
≤Ρ=+−≤Ρa
= )2()2( kFkZ =≤Ρ . qdq..l .
BIBLIOGRAFIA
BERENSON , Mark y LEVINE David. 1987 “ Estadística para Administración y
Economía”.Interamericana.
BLANCO, Castañeda Liliana. 2004. "Probabilidad". Unibiblos. Universidad
Nacional de Colombia.
FELLER , William.1985. “ Introducción a la Teoría de Probabilidades y sus
Aplicaciones”. Limusa. Méjico,
KENETT, Ron; SHELEMYAHU, Zacks. 2000. ”Estadística Industrial
Moderna”.International Thomson Editores.Méjico.
LOPES, Paulo Alfonso.1999 ”Probabilidad y Estadística”. Prentice-Hall. Bogotá
MASON ,Robert y LIND , Douglas.1995. “ Estadística para Administración y
Economía”. Alfaomega , Méjico
MENDENHALL, William; SINCICH, Ferry.1997 .”Probabilidad y Estadística para
Ingeniería y Ciencias”.Prentice-Hall Hispanoamericana.Méjico.
MOOD , Alexander y GRAYBILL , Franklin. 1980. “ Introducción a la Teoría de la
Estadística”. Aguilar. Madrid
MUÑOZ, Quevedo José María, 2002. "Introducción a la teoría de Conjuntos".
Cuarta Edición. Panamericana, formas e impresos S.A.
P. L. MEYER. 1992. “ Probabilidad y Aplicaciones Estadísticas”.Adisson Wesley
Iberoamericana.
SCHEAFFER, Richard L. ; McCLAVE, James T. 1993 “Probabilidad y Estadística
para Ingeniería”.Grupo Editorial Iberoamericana.Méjico.
WALPOLE , R.E. y MEYER , R.H. 1990. “ Probabilidad y Estadística para
Ingenieros”.Interamericana. Méjico,
YA LUN CHOU. “ Análisis Estadístico”. Interamericana. Méjico,1985.