Análisis bayesiano

Post on 02-Jul-2015

1.781 views 5 download

Transcript of Análisis bayesiano

María del Consuelo Valle Espinosa

Instituto Tecnológico Superior de

Zacapoaxtla

Departamento de Desarrollo

Académico

Si bien las técnicas estadísticas suelen ser muy

útiles, ocasionalmente pueden defraudar al usuario.

En efecto, pueden despertar expectativas que a la

postre no se cumplan, especialmente cuando el

investigador renuncia a examinar la realidad a

través de un pensamiento integral y deja todo en

manos del veredicto formal de los procedimientos

estadísticos.

Los trabajos desarrollados por Fisher en los años

20 y por los matemáticos Neyman y Pearson en la

década del 30, dieron lugar a un método

actualmente conocido como contraste de

significación, que responde al llamado “paradigma

frecuentista”.

Con este método, las decisiones se adoptan sin

considerar la información externa a las

observaciones o al experimento.

Una de las objeciones más connotadas que se

hace al paradigma frecuentista es que no toma

en cuenta de manera formal en el modelo de

análisis la información anterior a los datos,

proveniente de estudios previos o de la

experiencia empírica informalmente acumulada

que siempre se tiene sobre el problema que se

examina. Una alternativa ante esta situación se

conoce como:

Estadística Bayesiana.

Bayes nació en Londres en 1702 y falleció el 17 de abril

de 1761 en Tunbridge Wells, Kent. Fue distinguido

como Fellow de la Royal Society en 1742, aunque

hasta ese momento no había dado publicidad a trabajo

alguno bajo su nombre. Su artículo más emblemático

se titulaba Ensayo hacia la solución de un problema en

la doctrina del azar (Essay towards solving a problem in

the doctrine

of chances) y fue publicado póstumamente.

El Reverendo Thomas Bayes resolvió cuantitativamente

por entonces el problema de determinar cuál de varias

hipótesis es más probable sobre la base de sus datos.

Su descubrimiento básico se conoce como el Teorema

de Bayes.

El pensamiento bayesiano tiene más similitud que el

frecuentista con el tipo de situaciones en que se ve el

científico.

Habitualmente: lo que se tiene son datos y lo se que quiere

descubrir es qué circunstancias determinaron que los datos

fueran esos y no otros.

La diferencia esencial entre el pensamiento clásico y el

bayesiano radica en que el Frecuentista se pronuncia sobre

los datos a partir de supuestos. El Bayesiano se pronuncia

sobre los supuestos partiendo de los datos.

Probabilidad Condicional.

Si se tienen dos eventos A y B (donde A y B son ambos eventos

posibles, es decir, con probabilidad no nula), entonces la

probabilidad condicional de A dado B, se define como:

Probabilidad Conjunta

Corresponde a la probabilidad de que se presenten resultados

comunes a los eventos A y B y se denota como P(A∩B)

>>>>>

Que no es otra cosa más que comparar que tanto la probabilidad

del evento intersección está en relación con la probabilidad del

evento B.

Auxiliándonos con Diagramas de Venn podemos ilustrar esta definición

de la manera siguiente:

Análogamente si ahora comparamos que tanto la

probabilidad del evento intersección está en relación con la

probabilidad del evento A tenemos:

de modo que despejando la probabilidad de la intersección y

luego sustituyendo en el numerador de la ecuación [1] :

se llega a expresión más simple del Teorema de Bayes:

>>>>>

>>>>>

Antes de generalizar el Teorema de Bayes para más

eventos, es necesario ver:

Teorema de la Probabilidad Total.

Se llama partición al conjunto de eventos Ai tales que

es decir es un conjunto de eventos mutuamente

excluyentes y que cubren todo el espacio de probabilidad.

jiA

AAA

j

n

A

y

...

i

21

Si un conjunto de eventos Ai forman una partición del espacio de

probabilidad y

para cualquier otro evento B, se tiene:

ii AAp 0)(

)(...)()( 21 nABABABB

Entonces:

n

i

iinn ApABpApABpApABpApABpBp1

2211 )()|()()|(...)()|()()|()(

De modo que, tomando el evento Ai en lugar de A en la fórmula

[2] y aplicando al denominador el Teorema de la Probabilidad

Total, se tiene:

Teorema de Bayes

ni

ApABp

ApABpABp

k

i

ii

iii ,...,1 para

)()|(

)()|()|(

1

>>>>>

Regresemos a la ecuación [2]

El Teorema de Bayes produce probabilidades inversas, en

el sentido de que expresa P(A|B) en términos de P(B|A).

La terminología convencional para P(A|B) es la

probabilidad a posteriori de A dado B y para P(A) es la

probabilidad a priori de A, dado que se aplica antes, sin

estar condicionada por la información de que B ocurrió.

Existe otra alternativa de presentación de la forma sencilla del

Teorema de Bayes, pero antes de verla, expresemos al

evento B de la siguiente manera:

Si ilustramos esta última expresión con Diagramas de Venn

tenemos:

)()()(__

BApBApBp

AABABAB de ocomplement el es donde )()(____

Entonces:

Que es lo mismo que:

Así el Teorema de Bayes [2] también se puede presentar

como:

)()()(__

BApBApBp

)()|()()|()(____

ApABpApABpBp

)()|()()|(

)()|()|(

____

ApABpApABp

ApABpBAp

Ejemplo:

Análisis diagnósticos

Se quiere saber si el nivel de glucosa en la sangre sirve para

diagnosticar la diabetes.

Se considera que el análisis es positivo si se encuentra un

nivel por encima de un cierto valor, digamos 120 mg/l.

Para evaluarlo se somete a este análisis a una serie de

individuos diabéticos diagnosticados por otro procedimiento

(el patrón de oro o "gold standar") y a una serie de

individuos no diabéticos.

Denotemos por:

NE = a los individuos no enfermos

E = a los individuos enfermos

Se denomina coeficiente falso-positivo, a la

estimación de la probabilidad condicionada p(+|NE).

Se denomina coeficiente falso-negativo a la

estimación de la probabilidad condicionada p(-|E).

Estos dos coeficientes cuantifican los dos errores

que la prueba puede cometer y caracterizan a la

misma.

Simétricamente, los coeficientes que cuantifican los

aciertos son:

Sensibilidad, p(+|E)

Especificidad p(-|NE)

Cuando la prueba se usa con fines diagnósticos (o de

"screening") interesa calcular p(E|+) y/o p(NE|-).

Como E y NE son una partición de eventos

mutuamente excluyentes se puede usar el Teorema

de Bayes para calcular p(E|+) y/o p(NE|-).

Si p(+|NE) es del 4% y p(-|E) es del 5% y si la prevalencia de

la diabetes en la población donde se aplica el análisis clínico

es del 7% ¿cuál es la probabilidad de que sea diabético un

individuo en el que el análisis dé positivo? y ¿de que no lo sea

si el análisis da negativo?

p(+|NE) = 0,04 p(-|NE) = 0,96

p(-|E) = 0,05 p(+|E) = 0,95

p(E) = 0,07 p(NE) = 0,93

Por lo general, la probabilidad condicional de que ocurra A dado que

haya ocurrido B no tiene por que coincidir con la probabilidad

(incondicional) de A.

Es decir, saber que ha ocurrido B generalmente hace cambiar la

probabilidad de ocurrencia de A.

Cuando P(A|B) es igual a P(A), se dice que A es independiente de B.

Puesto que

P(A∩B) = P(A|B) P(B)

Se deduce que:

Los eventos A y B son independientes si

P(A∩B) = P(A) P(B)

Esto es, la probabilidad de que uno de ellos ocurra no se ve afectada por la

información de que el otro haya ocurrido o no.

Este concepto se puede extender a cualquier número de eventos.

La probabilidad de la intersección de cualquier número de eventos

independientes será igual al producto se sus probabilidades.

Los eventos A1, A2, …, An son independientes si

P(A1 ∩ A2 ∩ … ∩ An) = P(A1) P(A2) … P(An)

Referencias:

Material docente de la Unidad de Bioestadística

Clínica

Hospital Ramón Cajal y Medrano

Madrid España

Silva LC, Muñoz A. Debate sobre métodos

frecuentistas vs bayesianos. Gac Sanit 2000; 14:

482-94.