Analisis Bayesiano Para Datos Poisson

14
2.2. An´alisis bayesiano para datos de Poisson 73 ´ este no es un problema sencillo de resolver pues la diferencia de Betas no es, en general, otra distribuci´on Beta. Sin embargo, existe una manera adecuada de sos- layar este impedimento. En efecto, si observamos las densidades a posteriori de cada una de las zonas podemos ver que cada una de ellas se parece o aproxima de manera muy buena a una campana de Gauss, es decir, a una densidad Normal; de hecho aunque no es objeto de este m´odulo, puede calcularse el grado de simi- litud entre ambas densidades y ver que sus “distancias” son realmente peque˜ nas y por tanto, podemos concluir que la aproximaci´ on mediante una curva normal de las densidades Betas no supone ninguna p´ erdida de exactitud en los c´alculos necesarios. Ahora bien, si deseamos aproximar estos juicios a posteriori mediante densidades de tipo Normal, ¿por cu´al debemos hacerlo? Parece claro que si queremos aproximar estas densidades, lo l´ogico es apro- ximar la densidad Beta para la zona A por aquella densidad Normal que tenga la misma media y varianza (par´ametros que determinan una densidad Normal) que la densidad Beta obtenida anteriormente. En este caso, aproximaremos la densidad a posteriori de φ A por una densidad Normal, N (0,5277; 0,000345). El mismo razonamiento es v´alido para la zona B y por tanto, proponemos aproximar los juicios sobre la tasa de ´ exito para la zona B mediante una densidad Normal, N (0,414; 0,000828). Ya estamos en condiciones de obtener c´omo se distribuye la diferencia entre ambos par´ametros, puesto que usamos la propiedad de que la suma (o diferencia) de densidades Normales independientes es tambi´ en una densidad Normal con me- dia la suma (o diferencia, seg´ un proceda) de las medias y la suma de las varianzas correspondientes. Para el caso que nos ocupa tendremos que φ A - φ B se compor- ta como una densidad Normal, N (0,1137; 0,001173). Y de esta densidad podemos obtener todas las cantidades de inter´ es que procedan, para ello basta con que intro- duzcamos desde la opci´on Distributions la familia Normal, con los par´ametros anteriores. Para el caso que nos ocupa se tiene que: Pr{φ A B } =0,999. Luego podemos asegurar con una probabilidad del 99,9 % (ver figura 2.16) que la tasa de ´ exitos en la zona A es mayor que en la zona B. 2.2. An´ alisis bayesiano para datos de Poisson Como ya hemos comentado en el cap´ ıtulo 6, secci´on 6.5, la distribuci´on de Poisson aparece de manera natural en el estudio de datos que provienen de proce- sos de conteo, como es el caso del n´ umero de siniestros, n´ umero de llegadas a un sistema, llegadas a una ventanilla de una oficina bancaria, llegadas a una caja de supermercado, llegadas a un sem´aforo que regula el tr´afico, n´ umero de reclamacio- nes que presentan unos usuarios, n´ umero de partes de accidentes que recibe una compa˜ ıa de seguros, etc. Estudiaremos en esta secci´on el procedimiento bayesiano de inferencia para este modelo muestral.

Transcript of Analisis Bayesiano Para Datos Poisson

Page 1: Analisis Bayesiano Para Datos Poisson

2.2. Analisis bayesiano para datos de Poisson 73

este no es un problema sencillo de resolver pues la diferencia de Betas no es, engeneral, otra distribucion Beta. Sin embargo, existe una manera adecuada de sos-layar este impedimento. En efecto, si observamos las densidades a posteriori decada una de las zonas podemos ver que cada una de ellas se parece o aproximade manera muy buena a una campana de Gauss, es decir, a una densidad Normal;de hecho aunque no es objeto de este modulo, puede calcularse el grado de simi-litud entre ambas densidades y ver que sus “distancias” son realmente pequenasy por tanto, podemos concluir que la aproximacion mediante una curva normalde las densidades Betas no supone ninguna perdida de exactitud en los calculosnecesarios. Ahora bien, si deseamos aproximar estos juicios a posteriori mediantedensidades de tipo Normal, ¿por cual debemos hacerlo?

Parece claro que si queremos aproximar estas densidades, lo logico es apro-ximar la densidad Beta para la zona A por aquella densidad Normal que tengala misma media y varianza (parametros que determinan una densidad Normal)que la densidad Beta obtenida anteriormente. En este caso, aproximaremos ladensidad a posteriori de φA por una densidad Normal, N (0,5277; 0,000345). Elmismo razonamiento es valido para la zona B y por tanto, proponemos aproximarlos juicios sobre la tasa de exito para la zona B mediante una densidad Normal,N (0,414; 0,000828).

Ya estamos en condiciones de obtener como se distribuye la diferencia entreambos parametros, puesto que usamos la propiedad de que la suma (o diferencia)de densidades Normales independientes es tambien una densidad Normal con me-dia la suma (o diferencia, segun proceda) de las medias y la suma de las varianzascorrespondientes. Para el caso que nos ocupa tendremos que φA − φB se compor-ta como una densidad Normal, N (0,1137; 0,001173). Y de esta densidad podemosobtener todas las cantidades de interes que procedan, para ello basta con que intro-duzcamos desde la opcion Distributions la familia Normal, con los parametrosanteriores. Para el caso que nos ocupa se tiene que: Pr{φA > φB} = 0,999. Luegopodemos asegurar con una probabilidad del 99,9% (ver figura 2.16) que la tasa deexitos en la zona A es mayor que en la zona B.

2.2. Analisis bayesiano para datos de Poisson

Como ya hemos comentado en el capıtulo 6, seccion 6.5, la distribucion dePoisson aparece de manera natural en el estudio de datos que provienen de proce-sos de conteo, como es el caso del numero de siniestros, numero de llegadas a unsistema, llegadas a una ventanilla de una oficina bancaria, llegadas a una caja desupermercado, llegadas a un semaforo que regula el trafico, numero de reclamacio-nes que presentan unos usuarios, numero de partes de accidentes que recibe unacompanıa de seguros, etc. Estudiaremos en esta seccion el procedimiento bayesianode inferencia para este modelo muestral.

Page 2: Analisis Bayesiano Para Datos Poisson

74 Inferencia bayesiana

Figura 2.16: Densidad Normal que mejor aproxima la diferencia de tasas de exitoentre ambas zonas

Supongamos, por tanto, el caso de que estamos observando el numero de lle-gadas x1, ..., xn que recibe un servicio a lo largo de n periodos. Dicha variablepertenecera a una familia de distribuciones que mida de manera adecuada su com-portamiento.

Una variable discreta aleatoria X se dice que sigue una distribucion Poisson demedia λ > 0 cuando la probabilidad de que tome un valor particular x = 0, 1, ....se expresa mediante:

Pr(X = x) = p(x|λ) =λx

x!exp(−λ), x = 0, 1, 2, 3, ...

Esta distribucion por tanto es adecuada para medir los procesos de llegada y/oconteo y dependera del valor de λ para que adopte mejores ajustes a los datosobservados. Graficamente la distribucion de Poisson puede verse en la figura 2.2para varios valores del parametro λ.

Las medidas descriptivas de interes de la distribucion P(λ) que mas usualmentese utilizan son media, moda y varianza que en este caso valen:

Page 3: Analisis Bayesiano Para Datos Poisson

2.2. Analisis bayesiano para datos de Poisson 75

Figura 2.17: Distribucion P(λ) para varios valores de λ

E(X) = λ, Var(X) = λ, Moda [X] = λ

Como ya conocemos, esta distribucion a menudo ocurre como un caso lımitede la distribucion binomial cuando el numero de repeticiones es grande (n →∞)y la probabilidad de exito es pequena (φ → 0). Es por tanto una distribucionapropiada para explicar eventos raros, como por ejemplo el numero de accidentesal ano de las carreteras espanolas o el numero de visitas a un determinado serviciode urgencias.

Ası pues, tenemos un parametro λ > 0 que gobierna el comportamiento de ladistribucion del numero de “llegadas”. Desde el punto de vista bayesiano deseamosaprender sobre el comportamiento de λ, que como sabemos es el numero medio dellegadas al sistema.

Dada una muestra x = (x1, x2, x3, . . . xn), como en (9.2) la verosimilitud tienela expresion:

L(x|λ) ≡ L(x|λ) ∝ λnx · exp(−nλ),

donde x es la media muestral de las observaciones, i.e., x =1n

n∑

i=1

xi.

Page 4: Analisis Bayesiano Para Datos Poisson

76 Inferencia bayesiana

2.2.1. Construccion de una densidad a priori: analisis con-jugado

Como ya sabemos, en el analisis bayesiano necesitamos modelizar el conoci-miento a priori que sobre el parametro λ posee el experto o investigador.

Para el caso que nos ocupa, existe una densidad a priori que es especialmentebien comportada para la verosimilitud de Poisson. En efecto, la densidad de tipoGamma, G(α, β), que viene expresada de la siguiente forma:

π(λ) =βα

Γ(α)λα−1 exp(−λβ) ∝ λα−1 exp(−λβ)

Esta densidad esta por tanto determinada por los valores de α y β. Observemosque con respecto a la expresion (7.84) hemos utilizado aquı, por conveniencia, la

reparametrizacion σ =1β

. Dichos parametros estan relacionados con sus medidas

descriptivas y por tanto resultan muy importantes para su asignacion. La media,varianza y moda de esta densidad valen:

E(λ) =α

β, V (λ) =

α

β2, Moda (λ) =

α− 1β

(si α > 1).

De manera analoga a lo que ocurrıa con las densidades Beta para el casode proporciones, las densidades Gamma admiten tambien una gran variedad deformas, lo que la hacen especialmente flexibles para la modelizacion de los juiciosdel experto sobre la media de llegadas al sistema. Tambien merece la pena atendera las situaciones en las que deseemos dar todo el peso de la inferencia a los datosy por tanto deseemos utilizar una a priori desinformativa (“al estilo clasico”). Enefecto, esto es posible. Observemos el caso en que α = 1 y β = 0 (en rigor, βdebe ser un numero positivo y deberıamos decir β tendiendo a cero). En tal casola densidad Gamma resultante serıa del tipo:

π(λ) ∝ λ1−1 exp(−0 · λ) ∝ 1

Es decir, tendrıamos una a priori constante lo que viene a decirnos que con-sideramos igualmente plausibles cualesquiera valores de λ, lo que equivale a decirque no tenemos conocimiento sobre λ y nos mostramos desinformativos sobre di-cho parametro. Por tanto, las situaciones de desinformacion tambien pueden sermodelizadas mediante un caso particular de densidad Gamma. Existen otras densi-dades no informativas que tienen la misma interpretacion, como la denominada deJeffreys (que estudiaremos posteriormente) y que corresponderıa con una densidadGamma con α = 0,5 y β → 0,

πJ(λ) ∝ λ−1/2. (2.17)

Page 5: Analisis Bayesiano Para Datos Poisson

2.2. Analisis bayesiano para datos de Poisson 77

2.2.2. Actualizando nuestras opiniones

Para la actualizacion de nuestros juicios sobre λ sabemos que el Teorema deBayes nos dice como debemos proceder. La distribucion a posteriori es proporcionalal producto de la distribucion a priori y los datos.

Teorema 2.2 Sea x = (x1, ..., xn) una muestra aleatoria simples de una poblacionP(λ) y consideremos π(λ) ∼ G(α, β) una densidad a priori para λ con α, β > 0conocidos. Entonces, la distribucion a posteriori de λ es tambien Gamma conparametros, G(α + nx, β + n), siendo x el estadıstico suficiente dado por la media

muestral, x =n∑

i=1

xi.

Ademas la distribucion predictiva de una nueva observacion y es una distribu-cion Binomial Negativa.

Demostracion:

π(λ|x) ∝ L(x|λ) · π(λ) ∝ λnx exp(−nλ)× λα−1 exp(−βλ)

∝ λnx+α−1 exp(−(n + β)λ),

que se corresponde con una densidad Gamma de parametros nx + α y β + n.Para una nueva observacion y podemos usar la expresion (a priori) p(y) =

f(y|λ)π(λ)π(λ|x)

. Sustituyendo cada elemento por sus expresiones para el caso Poisson-

Gamma, tenemos

p(y) ={

1y!

exp(−λ)λy βα

Γ(α)exp(−βλ)λα−1

}{(β + 1)α+y

Γ(α + y)exp(−(β + 1)λ)λα+y

}−1

,

de donde se deduce inmediatamente que

p(y) =Γ(α + y)

Γ(α)Γ(y + 1)·(

β

β + 1

)α (1

β + 1

)y

, (2.18)

que es la expresion de una Binomial Negativa. Obviamente la distribucion (a pos-teriori) predictiva es analoga sin mas que reemplazar α por α + nx y β por β + n.

Observemos que de nuevo aparece la misma propiedad que tenıamos en el casode proporciones. La distribucion a posteriori pertenece tambien a la familia de lasdistribuciones Gamma, donde el valor inicial α se ha actualizado y es sustituido porα+nx y el parametro β se actualiza con n+β. Es decir, la familia de distribucionesa priori Gamma es conjugada para un modelo muestral de tipo Poisson.

Page 6: Analisis Bayesiano Para Datos Poisson

78 Inferencia bayesiana

Algunas propiedades interesantes de la distribucion a posteriori son inmediatas.Observemos por ejemplo la media a posteriori del parametro λ, que puesto quetiene un comportamiento segun una densidad Gamma, puede expresarse como:

E(λ|x) =nx + α

n + β= w

α

β+ (1− w)x,

con w =β

n + β. La expresion anterior permite interpretar la media (a posteriori)

como un compromiso entre la media a priori y la media de los datos. Si el tamanomuestral es elevado el lımite de la expresion anterior es la media muestral (comoya habıamos visto que tambien ocurrıa para el caso de la densidad Beta con vero-similitud Binomial). El mismo tipo de analisis puede hacer con la varianza que en

este caso vale:nx + α

(n + β)2.

Para el caso desinformativo, Jeffreys propone el uso de la distribucion π(λ) ∼G(0,5, 0). De acuerdo al teorema 2.2, la distribucion a posteriori por tanto serıa

λ|x ∼ G(nx + 0.5, n)

Ejemplo 2.13 Los datos siguientes representan el numero de llegadas (en inter-valos de 2 minutos medidos 45 veces) a una caja de un supermercado: 0, 0, 0, 0,0, 0, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 2, 2, 2, 2, 2, 2, 2, 2, 2, 3, 3,3, 3, 3, 3, 3, 4, 4, 4, 4, 5.

1. Usando una a priori G(2, 1), obtener la densidad a posteriori bajo un modelode P(λ) para los datos.

2. Representa la densidad a priori y a posteriori. Observa su media, desviacionestandar y moda a posteriori. ¿Es la a priori sensible? ¿Cuanta informacionanade a los datos esta a priori?

Solucion: Tenemos n = 45 con nx = 78, por tanto de acuerdo al teorema (2.2)con α = 2 y β = 1 tendremos una densidad a posteriori, G(80, 46). Adicionalmen-te utilizaremos FirstBayes para la resolucion de este ejemplo. En este ejemploutilizaremos la opcion Poisson sample del menu Analysis.

En primer lugar creamos un fichero en el FirstBayes con los datos del proble-ma (figura 2.18). Una vez introducidos los datos dentro de la opcion de analisisde Poisson, debemos editar la densidad a priori (en la parte superior derecha apa-rece una casilla con Time parameter con valor 1, debe dejarse en dicho valor).Pues bien, editamos la a priori G(2, 1) teniendo en cuenta que el parametro shapecorresponde con nuestro valor de α y el valor de scale corresponde con el deβ (observemos que en la pantalla del FirstBayes aparece como Ga(1,2)). En lafigura 2.19 puede verse la a priori para este problema.

Page 7: Analisis Bayesiano Para Datos Poisson

2.2. Analisis bayesiano para datos de Poisson 79

Figura 2.18: Datos para el ejemplo 2.13

Estos valores producen unos valores a priori para la media, moda y desviaciontıpica como los que aparecen en la tabla 2.5.

Tabla 2.5: Descriptivos a priori y posteriori para el ejemplo 2.13

Priori Posteriori Priori Jeffrey PosterioriG(2, 1) G(80, 46) G(78,5, 45)

Media 2 1.7391 – 1.7444Moda 1 1.7174 – 1.7222

Desv. Tıpica 1.4142 0.1944 – 0.1968

En la figura 2.20 puede verse la densidad a posteriori obtenida.Como puede apreciarse en la grafica triplot, la informacion a priori no ha

pesado practicamente nada en el analisis a posteriori ya que la verosimilitud y la aposteriori son esencialmente coincidentes (parecen superpuestas, ver figura 2.2.2).

Page 8: Analisis Bayesiano Para Datos Poisson

80 Inferencia bayesiana

Figura 2.19: Priori para el ejemplo 2.13

Ejemplo 2.14 (Continuacion ejemplo 2.13) Realizar el analisis anterior conuna densidad no informativa tipo Jeffreys vista esta como caso lımite de unaG(α, β), con α = 1/2 y β → 0.

Solucion: En este caso no tiene mucho sentido que hablemos de la media, moday desviacion tıpica a priori ya que hemos asumido una situacion no informativa ypor tanto no lo hemos incluido en la tabla de resultados. El analisis a posteriori(ver tabla 2.5) nos hace ver que la situacion es analoga al apartado anterior y portanto podemos decir que la modelizacion a priori anterior no aporta informacional problema y que son los datos los que producen la informacion a posteriori.

♦En definitiva, el Teorema 2.2 es el instrumento basico para la estimacion pun-

tual bayesiana y la distribucion predictiva, sin mas que considerar que las canti-dades descriptivas a posteriori mas habituales son:

E(λ|x) =α + nx

β + n, Var(λ|x) =

α + nx

(β + n)2y Moda (λ|x) =

α + nx− 1β + n

,

y la distribucion predictiva de tipo Binomial Negativa.Para los intervalos bayesianos de credibilidad el procedimiento bayesiano en

este caso es analogo al caso de datos binarios.

Page 9: Analisis Bayesiano Para Datos Poisson

2.2. Analisis bayesiano para datos de Poisson 81

Figura 2.20: Posteriori para el ejemplo 2.13

Figura 2.21: Triplot para el ejemplo 2.13

Ejemplo 2.15 (Continuacion ejemplo 2.13) Supongamos que estamos intere-sados en obtener un intervalo de credibilidad al 95% para el numero medio de

Page 10: Analisis Bayesiano Para Datos Poisson

82 Inferencia bayesiana

llegadas a la caja del supermercado.

Solucion: Su resolucion con FirstBayes es inmediata. Basta con ir a la pestanacorrespondiente al HDI e indicar que queremos un nivel de probabilidad del 95 %(figura 2.22).

Figura 2.22: Intervalo de credibilidad al 95% para λ en el ejemplo 2.13

Los resultados obtenidos Pr{1,36 ≤ λ ≤ 2,12} = 0,95, nos permiten decir quecon una probabilidad de 0, 95 el numero medio de llegadas a la caja de dichosupermercado se situa entre 1,36 y 2,12.

♦Ejemplo 2.16 (Distribucion predictiva en el ejemplo 2.13) Supongamos quedeseamos conocer el comportamiento de futuras 10 llegadas para saber si necesita-mos abrir una nueva caja o no (por ejemplo).

Solucion: Para el caso por ejemplo de las proximas 10 medidas que se hagan,necesitaremos medir la predictiva para las nuevas 10 observaciones (o proximos 20minutos) se obtienen los resultados que aparecen en la figura 2.23

A la luz de los resultados podemos decir que por termino medio en las proximas10 medidas que hagamos esperaremos atender a 17 clientes, y que con una proba-bilidad del 95% en los proximos 20 minutos (10 proximas medidas) atenderemosentre 9 y 26 clientes.

Page 11: Analisis Bayesiano Para Datos Poisson

2.2. Analisis bayesiano para datos de Poisson 83

Figura 2.23: Medidas predictivas para el numero de llegadas en el ejemplo 2.23

Ejemplo 2.17 Una companıa aseguradora asume que el numero de reclamacio-nes en un ano tiene distribucion de Poisson de parametro λ y que este numeroes independiente de un ano a otro. Supongamos que se observan n anos de unasegurado elegido aleatoriamente de entre una cartera. Se pide:

1. Encontrar una densidad Gamma a priori para λ conociendo que la com-panıa estima como mas frecuente 2 reclamaciones al ano y que no mas de 5reclamaciones son asumibles en un ano.

2. Supongamos que en los ultimos 10 anos el asegurado presenta el siguientenumero de reclamaciones: 4, 0, 1, 2, 3, 0, 0, 1, 1, 0 (introducir estos datosen el FirstBayes como un fichero). Obtener la densidad a posteriori y unintervalo de credibilidad a posteriori al 99%.

3. Suponiendo que la companıa tiene 500 asegurados en esta cartera y que desti-na 10 u.m. para cada reclamacion, obtener un intervalo al 95% de previsionde costes para el siguiente ano.

4. El mismo analisis anterior pero con densidad a priori no informativa G(1, 0).

Solucion: Todos los calculos realizados se han obtenido con FirstBayes de ma-nera analoga a como hemos procedido en los ejemplos anteriores. Los datos a

Page 12: Analisis Bayesiano Para Datos Poisson

84 Inferencia bayesiana

priori nos dicen que la moda es 2 reclamaciones y que pensamos que Pr[λ < 5] esun valor alto (proximo a 1). Sabemos que la moda de una densidad Gamma esα− 1

βde donde deducimos una relacion entre α y β. En este caso, α − 1 = 2β o

equivalentemente, α = 2β + 1. Manteniendo esta relacion iremos probando en elFirstBayes distintos valores de α y comprobando el valor de la probabilidad deque no mas de 5 reclamaciones son esperadas. El caso α (shape parameter) iguala 5 y β = 2, nos da una probabilidad del orden de 0,97 que parece adecuada (otrasasignaciones son igualmente validas).

Con esta densidad a posteriori y los datos introducidos como un fichero ladensidad a posteriori resulta gamma, G(17, 12), cuyo intervalo de credibilidad al99% vale [0, 64; 2, 39].

Debemos obtener la predictiva para el proximo ano (1 observacion), pinchandoen su pestana correspondiente, obtenemos que dicha distribucion predictiva es unaBinomial Negativa de parametros 17 y 0,9231. Su intervalo al 95 % vale [0, 4] (esdecir, para el proximo ano no se esperan mas de 4 reclamaciones con probabilidad0,95). Pues bien, la prevision para el proximo ano debera ser de 500×10×4 = 20000u.m. con probabilidad 0,95.

Se procede manera analoga pero cambiando la a priori por esta nueva, solohay que tener en cuenta que no permite introducir β como 0 y por ello le damosun valor muy pequeno, como 0,0001. La densidad a posteriori obtenida gamma,G(13, 10), cuyo intervalo de credibilidad al 99 % vale [0, 51; 2, 33].

Para la prevision de gastos, debemos obtener la predictiva para el proximo ano(1 observacion), pinchando en su pestana correspondiente, obtenemos que dichadistribucion predictiva es una Binomial Negativa de parametros 13 y 0,90. Suintervalo al 95% vale [0, 4] (es decir, para el proximo ano no se esperan mas de 4reclamaciones con probabilidad 0,95). Pues bien, la prevision para el proximo anodebera ser de 500 × 10 × 4 = 20000 u.m. con probabilidad 0,95. Como vemos ladecision final no depende de la eleccion de la a priori.

♦El caso de los contrastes de hipotesis se realiza de manera analoga al caso de

proporciones pero teniendo ahora en cuenta que nuestras densidades son de lasfamilias Poisson y Gamma.

Ejemplo 2.18 (Continuacion ejemplo 2.17) En una observacion de un ase-gurado de n = 10 anos se ha observado x = 1,3 y supongamos que la companıaesta interesada en realizar el contraste H0 : λ = 2 vs H1 : λ = 1, para una situa-cion a priori desinformativa.

Solucion: En general, este contraste corresponde al planteamiento: H0 : λ =λ0 vs H1 : λ = λ1.

El “odds” a posteriori vale

Page 13: Analisis Bayesiano Para Datos Poisson

2.2. Analisis bayesiano para datos de Poisson 85

p0

p1=

π0

π1

λnx0 exp(−nλ0)

λnx1 exp(−nλ1)

=π0

π1

(λ0

λ1

)nx

exp (−n(λ0 − λ1)) , (2.19)

y el factor Bayes valdra

B01 =λnx

0 exp(−nλ0)λnx

1 exp(−nλ1)=

(λ0

λ1

)nx

exp (−n(λ0 − λ1)) . (2.20)

Para el ejemplo, n = 10, x = 1,3, π0 = π1 =12, λ0 = 2 y λ1 = 1. De (2.20)

tenemos que B01 = 213 · exp(−10) ≈ 0,37.Observemos que, en general, de la definicion del factor Bayes tenemos que el

factor Bayes de H1 frente H0 puede derivarse trivialmente de la relacion

B10 =p1/p0

π1/π0=

(p0/p1

π0/π1

)−1

= B−101 . (2.21)

Luego de (2.21), tenemos que en este ejemplo B10 = 10,37 ≈ 2,7

Es decir, los datos dan casi 3 veces mas creible a H1 que a H0.♦

Ejemplo 2.19 (Continuacion ejemplo 2.17) Para cada una de las a prioriconsideradas en este ejemplo, contrastar la hipotesis de que el numero medio dereclamaciones que recibe la companıa no es mayor de 3.

Solucion: Realizaremos el ejemplo para la primera a priori (para la segunda seprocederıa de manera analoga). El test de hipotesis planteado es:

H0 : λ ≤ 3 vs H1 : λ > 3

Desde el punto de vista bayesiano, cada una de esas hipotesis tiene una proba-bilidad a priori de ser cierta que puede obtenerse sin mas que calcular mediantela a priori asignada la probabilidad de cada intervalo:

π0 = Pr[H0 cierta ] = Pr[0 ≤ λ ≤ 3] = 0, 715.

Probabilidad que se obtiene en FirstBayes directamente en su ventana de proba-bilidades. Por tanto, la probabilidad de H1 (denotada por π1) sera 0,285. Observe-

mos que el cocienteπ0

π1=

0, 7150, 285

≈ 2, 5 viene a decirnos que, a priori, la hipotesis

nula H0 es aproximadamente 2,5 veces mas creible que H1. Ahora actualizamosestas probabilidades utilizando la muestra y obteniendo las probabilidades de cadahipotesis mediante la densidad a posteriori. El resultado es:

p0 = Pr[H0 cierta | datos ] = Pr[0 ≤ λ ≤ 3| datos ] = 1.

Page 14: Analisis Bayesiano Para Datos Poisson

86 Inferencia bayesiana

En consecuencia, p1 = Pr[H1 cierta | datos ] = 0. Lo que viene a decirnos quedebemos aceptar la hipotesis nula H0.

♦El caso de hipotesis nula simple frente alternativa compuesta se resuelve aten-

diendo al siguiente planteamiento. Supongamos que observada una muestra aleato-ria simple de tamano n, x = (x1, ..., xn) de una poblacion P(λ) deseamos realizarel contraste

H0 : λ = λ0 vs H1 : λ 6= λ0,

con una densidad a priori para la hipotesis alternativa del tipo G(α, β) con α, β > 0conocidos.

Las cantidades necesarias para realizar este test de hipotesis son

π(λ) ={

π0 si λ = λ0

(1− π0)π1(λ) si λ 6= λ0

con π1(λ) ∼ G(α, β).

L(x|λ) =1∏n

i=1(xi!)exp(−nλ)λnx, (2.22)

p1(x) =∫ ∞

0

L(x|λ)π1(λ)dλ =1∏n

i=1(xi!)βα

Γ(α)Γ(nx + α)

(n + β)α+nx. (2.23)

El factor Bayes vale entonces

B01 =L(x|λ0)p1(x)

=Γ(α)

Γ(α + nx)exp(−nλ0)

(n + β

β

(λ0(n + β))nx. (2.24)

Ejemplo 2.20 (Continuacion ejemplo 2.17) Para el caso del ejemplo 2.17 rea-lizar el contraste

H0 : λ = 2 vs H1 : λ 6= 2,

con una densidad a priori para la hipotesis alternativa del tipo G(2, 1).

Solucion: Utilizando las expresion del factor Bayes dada en (2.24) obtenemos

B01 =Γ(2)Γ(15)

exp(−20)1122213 ≈ 0,81,

o equivalentemente B10 ≈ 1,2. Lo cual nos indica que los datos otorgan una muyligera evidencia en favor de H1.