Probabilidad Condicional e Independencia

9
Probabilidad condicional e independencia. Probabilidad condicional es la probabilidad de que ocurra un evento A, sabiendo que también sucede otro evento B. La probabilidad condicional se escribe P(A|B), y se lee «la probabilidad de A dado B». No tiene por qué haber una relación causal o temporal entre A y B. A puede preceder en el tiempo a B, sucederlo o pueden ocurrir simultáneamente. A puede causar B, viceversa o pueden no tener relación causal. Las relaciones causales o temporales son nociones que no pertenecen al ámbito de la probabilidad. Pueden desempeñar un papel o no dependiendo de la interpretación que se le dé a los eventos. Un ejemplo clásico es el lanzamiento de una moneda para luego lanzar un dado. ¿Cuál es la probabilidad de obtener una cara (moneda) y luego un 6 (dado)? Pues eso se escribiría como P (Cara | 6). El condicionamiento de probabilidades puede lograrse aplicando el teorema de Bayes. Dado un espacio de probabilidad y dos eventos (o sucesos) con , la probabilidad condicional de A dado B está definida como: Tomando los mundos en los que B se cumple, se puede interpretar como la fracción en los que también se cumple A. Si el evento B es, por ejemplo, tener la gripe, y el evento A es tener dolor de cabeza, sería la probabilidad de tener dolor de cabeza cuando se está enfermo de gripe. Gráficamente, si se interpreta el espacio de la ilustración como el espacio de todos los mundos posibles, A serían los mundos en los que se tiene dolor de cabeza y B el espacio en el que se tiene gripe. La zona verde de la intersección representaría los mundos en los que se tiene gripe y dolor de cabeza . En este caso , es decir, la probabilidad de que alguien

description

Probabilidad Condicional e Independencia

Transcript of Probabilidad Condicional e Independencia

Probabilidad condicional e independencia.Probabilidad condicionales laprobabilidadde que ocurra uneventoA, sabiendo que tambin sucede otro eventoB. La probabilidad condicional se escribeP(A|B), y se lee la probabilidad deAdadoB.No tiene por qu haber una relacin causal o temporal entreAyB.Apuede preceder en el tiempo aB, sucederlo o pueden ocurrir simultneamente.Apuede causarB, viceversa o pueden no tener relacin causal. Las relaciones causales o temporales son nociones que no pertenecen al mbito de la probabilidad. Pueden desempear un papel o no dependiendo de la interpretacin que se le d a los eventos.Un ejemplo clsico es el lanzamiento de una moneda para luego lanzar un dado. Cul es la probabilidad de obtener una cara (moneda) y luego un 6 (dado)? Pues eso se escribira como P (Cara | 6).Elcondicionamientode probabilidades puede lograrse aplicando elteorema de Bayes.Dado unespacio de probabilidady doseventos (o sucesos)con, la probabilidad condicional deAdadoBest definida como:

Tomando los mundos en los que B se cumple,se puede interpretar como la fraccin en los que tambin se cumple A. Si el evento B es, por ejemplo, tener la gripe, y el evento A es tener dolor de cabeza,sera la probabilidad de tener dolor de cabeza cuando se est enfermo de gripe.Grficamente, si se interpreta el espacio de la ilustracin como el espacio de todos los mundos posibles, A seran los mundos en los que se tiene dolor de cabeza y B el espacio en el que se tiene gripe. La zona verde de la interseccin representara los mundos en los que se tiene gripe y dolor de cabeza. En este caso, es decir, la probabilidad de que alguien tenga dolor de cabeza sabiendo que tiene gripe, sera la proporcin de mundos con gripe y dolor de cabeza (color verde) de todos los mundos con gripe: El rea verde dividida por el rea de B. Como el rea verde representay el rea de B representa a, formalmente se tiene que:

propiedades

Es decir, si todos los que tienen gripe siempre tienen dolor de cabeza, entonces la probabilidad de tener dolor de cabeza dado que tengo gripe es 1.

Independencia de sucesosDos sucesos aleatoriosAyBson independientes si y slo si:

O sea que siAyBson independientes, su probabilidad conjunta,puede ser expresada como el producto de las probabilidades individuales. Equivalentemente:

En otras palabras, siAyBson independientes, la probabilidad condicional deAdadoBes simplemente la probabilidad deAy viceversa.Exclusividad mutuaDos sucesosAyBson mutuamente excluyentes si y slo si. Entonces,.Adems, sientonceses igual a 0.La falacia de la probabilidad condicionalLafalaciade la probabilidad condicional se basa en asumir queP(A|B) es casi igual aP(B|A). El matemticoJohn Allen Paulosanaliza en su libroEl hombre anumricoeste error muy comn cometido por personas que desconocen laprobabilidad.La verdadera relacin entreP(A|B) yP(B|A) es la siguiente:(Teorema de Bayes)

Teorema de BayesElteorema de Bayes, en lateora de la probabilidad, es una proposicin planteada por el filsofo inglsThomas Bayes( 1702-1761)1en 1763,2que expresa laprobabilidad condicionalde unevento aleatorioAdadoBen trminos de la distribucin de probabilidad condicional del eventoBdadoAy ladistribucin de probabilidad marginalde sloA.En trminos ms generales y menos matemticos, el teorema de Bayes es de enorme relevancia puesto que vincula la probabilidad de A dado B con la probabilidad de B dado A. Es decir que sabiendo la probabilidad de tener un dolor de cabeza dado que se tiene gripe, se podra saber (si se tiene algn dato ms), la probabilidad de tener gripe si se tiene un dolor de cabeza, muestra este sencillo ejemplo la alta relevancia del teorema en cuestin para la ciencia en todas sus ramas, puesto que tiene vinculacin ntima con la comprensin de la probabilidad de aspectos causales dados los efectos observados.Seaun conjunto de sucesos mutuamente excluyentes y exhaustivos, y tales que la probabilidad de cada uno de ellos es distinta de cero (0). Sea B un suceso cualquiera del que se conocen las probabilidades condicionales. Entonces, la probabilidadviene dada por la expresin:

donde:son las probabilidades a priori.es la probabilidad deen la hiptesis.son las probabilidades a posteriori.

Thomas Bayes(1763)

Con base en la definicin deProbabilidad condicionada, obtenemos la Frmula de Bayes, tambin conocida como la Regla de Bayes:

Esta frmula nos permite calcular la probabilidad condicionalde cualquiera de los eventos, dado. La frmula"ha originado muchas especulaciones filosficas y controversias".El teorema de Bayes es vlido en todas las aplicaciones de la teora de la probabilidad. Sin embargo, hay una controversia sobre el tipo de probabilidades que emplea. En esencia, los seguidores de laestadsticatradicional slo admiten probabilidades basadas en experimentos repetibles y que tengan una confirmacin emprica mientras que los llamados estadsticos bayesianos permiten probabilidades subjetivas. El teorema puede servir entonces para indicar cmo debemos modificar nuestras probabilidades subjetivas cuando recibimos informacin adicional de un experimento. La estadstica bayesiana est demostrando su utilidad en ciertas estimaciones basadas en el conocimiento subjetivo a priori y el hecho de permitir revisar esas estimaciones en funcin de la evidencia emprica es lo que est abriendo nuevas formas de hacer conocimiento. Una aplicacin de esto son losclasificadores bayesianosque son frecuentemente usados en implementaciones de filtros de correo basura ospam, que se adaptan con el uso.Como observacin, se tieney su demostracin resulta trivial.Como aplicaciones puntuales:El diagnstico de cncer.Evaluacin de probabilidades durante el desarrollo de un juego de bridge por Dan F. Waugh y Frederick V. Waugh.Probabilidades a priori y a posteriori.Un uso controvertido en La ley de sucesin de Laplace

Distribucin Marginal ConjuntaDentro de lateora de probabilidades, dadas dosvariables aleatoriasjuntasX&Y, ladistribucin marginaldeXes simplemente laley de probabilidaddeXhaciendo caso omiso de la informacin referente aY. Este tipo de clculo se produce cuando se considera el estudio de una tabla de contingencia.1Para las variables aleatorias discretas, laley de probabilidadmarginal Pr(X=x) se escribe

Pr(X=x,Y=y) es la distribucin conjunta deX&Y, mientras que Pr(X=x|Y=y) es la distribucin condicional deXconociendoY. sta es la leccin principal delTeorema de la probabilidad total.

Del mismo modo, para variables aleatorias continuas, ladensidad de probabilidadmarginal 'pX(x) verifica

dondeda la distribucin conjunta de X&Y, yla distribucin condicional deXconociendoY.variable aleatoria discretaFormalmente, una variable aleatoria es una ecuacion, que designa eventos (p.e.f.g.f, posibles de los resultados de tirar uno, dos o tres dados dado dos veces: (1, 49), (1, 41), evitar 2 numeros alreves etc.) a nmeros reales (p.e.f,g,f , su suma o resta o lo que haya indefinidamente de las 2 partes o ninguna). Unavariable aleatoriaovariable estocsticaes unavariable estadstica.Los valores posibles de una variable aleatoria pueden ser posibles resultados en un experimento realizado y los posibles valores y cualitisidades de una o varias cantidades cocuyo valor actualmente o indiferente mente existente es incierto (p.e., como resultado de medicin incompleta o imprecisa). Intuitivamente, una variable aleatoria puede tomarse como una cantidad cuyo valor no es fijo pero puede tomar diferentes valores; unadistribucin de probabilidadse usa para describir la probabilidad de que se den los diferentes valores.Las variables aleatorias suelen tomar valores reales, pero se pueden considerar valores aleatorios como valores lgicos, funciones... El trminoelemento aleatoriose utiliza para englobar todo ese tipo de conceptos relacionados. Un concepto relacionado es el deproceso estocstico, un conjunto de variables aleatorias ordenadas (habitualmente por orden o tiempo).Tipos de variables aleatoriasPara comprender de una manera ms amplia y rigurosa los tipos de variables, es necesario conocer la definicin deconjunto discreto. Un conjunto es discreto si est formado por un nmero finito de elementos, o si sus elementos se pueden enumerar en secuencia de modo que haya un primer elemento, un segundo elemento, un tercer elemento, y as sucesivamente.5Variable aleatoria discreta: una v.a. es discreta si su recorrido es un conjunto discreto. La variable del ejemplo anterior es discreta. Sus probabilidades se recogen en lafuncin de cuanta. (Vanse lasdistribuciones de variable discreta).Variable aleatoria continua: una v.a. es continua si su recorrido no es unconjunto numerable. Intuitivamente esto significa que el conjunto de posibles valores de la variable abarca todo un intervalo de nmeros reales. Por ejemplo, la variable que asigna laestaturaa una persona extrada de una determinada poblacin es una variable continua ya que, tericamente, todo valor entre, pongamos por caso, 0 y 2,50 m, es posible.6(Vanse lasdistribuciones de variable continua).

Funcin de probabilidad y de distribucin (discreta)

Cuando hablamos de la funcin de probabilidad, estamos evaluando la posibilidad de que una variable aleatoria tome un valor especfico o bien al hablar de una funcin de distribucin nos referimos al hecho de que una variable aleatoria tom algn valor dentro de un intervalo (donde una variable aleatoria es una variable continua) pero estos conceptos no contemplan el hecho de que se requiera conocer la informacin de un valor esperado, valor medio o esperanza matemtica de una variable aleatoria. DISTRIBUCIN DE PROBABILIDAD DISCRETA.Caractersticas:Es generada por una variable discreta (x). xVariable que solo toma valores enterosx0, 1, 2, 3, 4, 5, 6, 7, 8, ... etc,etc.2. p(xi)0 Las probabilidades asociadas a cada uno de los valores que toma x deben ser mayores o iguales a cero.3.p(xi) = 1 La sumatoria de las probabilidades asociadas a cada uno de los valores que toma x debe ser igual a 1.

Valor esperado y momentos

CALCULO DE MEDIA (valor esperado) Y DESVIACIN ESTNDAR PARA UNA DISTRIBUCIN DISCRETA1. Media o valor esperado de x.- Para determinar la media de la distribucin discreta se utiliza la siguiente frmula: Donde: = media de la distribucinE(x) = valor esperado de xxi = valores que toma la variablep(xi) = probabilidad asociada a cada uno de los valores de la variable xDesviacin estndar. Para determinar la desviacin estndar de la distribucin discreta se utiliza la siguiente frmula: Donde: = desviacin estndar = media o valor esperado de xxi = valores que toma la variable xp(xi) = probabilidad asociada a cada uno de los valores que toma x