Distribución de probabilidades

17
Distribución de probabilidades Por: Yesica Lizbet Altamirano Morales 2° A Lic. Edgar Mata. Probabilidad y estadística.

Transcript of Distribución de probabilidades

Distribución de probabilidades

Por: Yesica Lizbet Altamirano Morales2° A

Lic. Edgar Mata.

Probabilidad y estadística.

DISTRIBUCIÓN DE PROBABILIDADES

En la estadística se emplean distintos tipos de métodos para el calculo de las probabilidades dependiendo de lo que se desee encontrar, y la manera en que están distribuidos los datos con los que se cuenta, a continuación les presento cuatro métodos distintos para el calculo de la probabilidad.

Los datos pueden ser "distribuido" (hacia fuera) de diferentes maneras.Se puede transmitir más a la izquierda o más a la derechaO puede ser todo revuelto

Sin embargo, hay muchos casos en que los datos tiende a ser alrededor de un valor central sin sesgo hacia la izquierda o hacia la derecha, y se acerca a una "distribución Normal" de esta manera:

La distribución normal tiene:media = mediana = modosimetría con respecto al centro50% de los valores menor que la media y el

50% mayor que la media

Una de las distribuciones teóricas mejor estudiadas en los textos de bioestadística y más utilizada en la práctica es la distribución normal, también llamada distribución gaussiana.  Su importancia se debe fundamentalmente a la frecuencia con la que distintas variables asociadas a fenómenos naturales y cotidianos siguen, aproximadamente, esta distribución. 

1.-DISTRIBUCION NORMAL

La gráfica de su función de densidad tiene una forma acampanada y es simétrica respecto de un determinado parámetro. Esta curva se conoce como campana de Gauss y e es el gráfico de una función gaussiana.

Distribución normal estándar.

La distribución normal estándar o tipificada reducida es aquella que tiene por media el valor 0, N=0, y por desviación típica la unidad S= 1.

Esta curva "de campana" es la distribución normal estándar.

Puedes usar la tabla de abajo para saber el área bajo la curva desde la línea central hasta cualquier línea vertical "a valor Z" hasta 3, en incrementos de 0.1

Esto te dice qué parte de la población está dentro de "Z" desviaciones estándar de la media.

En lugar de una tabla LARGA, hemos puesto los incrementos de 0.1 hacia abajo, y los de 0.01 de lado.

Por ejemplo, para saber el área debajo de la curva entre 0 y 0.45, ve a la fila de 0.4, y sigue de lado hasta 0.45, allí pone 0.1736

Como la curva es simétrica, la tabla vale para ir en las dos direcciones, así que 0.45 negativo también tiene un área de 0.1736

Ejemplo: 95% de los estudiantes en la escuela son entre 1,1 m y 1,7 m de altura.

Suponiendo que estos datos se distribuyen normalmente puede calcular la media y la desviación estándar?

La media es de 1,1 m y a medio camino entre 1.7m: Media = (1,1 m + 1,7 m) / 2 = 1,4 m

95% es 2 desviaciones estándar a cada lado de la media (un total de 4 desviaciones estándar) para:

1 desviación estándar = (1.7m-1.1m) / 4

= 0,6 m / 4 = 0,15 m Y este es el resultado

Es bueno saber que la desviación estándar, ya que podemos decir que cualquier valor es:

probable para estar dentro de 1 desviación estándar (68 de 100 será)

muy probable que dentro de 2 desviaciones estándar (95 de 100 será)

es casi seguro que dentro de 3 desviaciones estándar (997 de 1000 será)

“Resultados oficiales”El número de desviaciones estándar de la media también se le llama la "Técnica Estándar", "sigma" o "z-score". Acostúmbrate a esas palabras!

Ejemplo: En esa misma escuela uno de sus amigos es 1,85 m de altura

También es posible calcular el número de desviaciones estándar es 1,85 de la media

¿Hasta qué punto es de 1.85 de la media? Es 1,85 a 1,4 = 0,45 m de la media

¿Cuántas desviaciones estándar es que la desviación estándar es de 0,15 m, así que:

0,45 m / 0,15 m = 3 desviaciones estándar

Así que para convertir un valor a una puntuación estándar ("z-score"):

•primero restar la media, y se divide por la desviación estándar

Y hacer eso se llama "normalización"

Distribución de Bernoulli

En teoría de probabilidad y estadística, la distribución de Bernoulli (o distribución dicotómica), nombrada así por el matemático y científico suizo Jakob Bernoulli, es una distribución de probabilidad discreta, que toma valor 1 para la probabilidad de éxito ( ) y valor 0 para la probabilidad de fracaso ( ).

Si   es una variable aleatoria que mide "número de éxitos", y se realiza un único experimento con dos posibles resultados (éxito o fracaso), se dice que la variable aleatoria   se distribuye como una Bernoulli de parámetro .

Un experimento de Bernoulli es el lanzamiento de una moneda con probabilidad p para cara y (1-p) para cruz.

Un experimento que tenga dos resultados. Al primero se le llama éxito y al otro fracaso. La probabilidad por éxito se denota por p. por consecuencia la probabilidad de fracaso es 1-p. lo anterior representa un ensayo de Bernoulli con probabilidad de éxito p. el mas el mas sencillo de este es el lanzamiento de una moneda. Los posibles resultados son dos “cara o cruz” si cara se define como éxito, entonces p constituye esa probabilidad. En una moneda p= ½

N=número de elementos.

P=éxito.

q=fracaso.

X=variable aleatoria

Experimento de Bernoulli: solo son posibles dos resultados: éxito o fracaso. Podemos definir una variable aleatoria discreta X tal que:

éxito 1

fracaso 0

Si la probabilidad de éxito es p y la de fracaso 1 - p, podemos construir una función de probabilidad:

Distribución binomial

En estadística, la distribución binomial es una distribución de probabilidad discreta que mide el número de éxitos en una secuencia de n ensayos de Bernoulli independientes entre sí, con una probabilidad fija p de ocurrencia del éxito entre los ensayos.

Un experimento de Bernoulli se caracteriza por ser dicotómico, esto es, sólo son posibles dos resultados. A uno de estos se denomina éxito y tiene una probabilidad de ocurrencia p y al otro, fracaso, con una probabilidad q = 1 - p. En la distribución binomial el anterior experimento se repite n veces, de forma independiente, y se trata de calcular la probabilidad de un determinado número de éxitos. Para n = 1, la binomial se convierte, de hecho, en una distribución de Bernoulli.

Para representar que una variable aleatoria X sigue una distribución binomial de parámetros n y p, se escribe:

Distribución de Poisson

La distribución de Poisson se llama así en honor a su creador, el francés Simeón Dennis Poisson (1781-1840). Esta distribución de probabilidades fue uno de los múltiples trabajos matemáticos que Dennis completó en su productiva trayectoria.

La distribución de Poisson se utiliza en situaciones donde los sucesos son impredecibles o de ocurrencia aleatoria. En otras palabras no se sabe el total de posibles resultados.

Permite determinar la probabilidad de ocurrencia de un suceso con resultado discreto.

Es muy útil cuando la muestra o segmento n es grande y la probabilidad de éxitos p es pequeña.

Se utiliza cuando la probabilidad del evento que nos interesa se distribuye dentro de un segmento n dado como por ejemplo distancia, área, volumen o tiempo definido.