Junio del 2012
iii
Contenido
Introducción........................................................................................................................................... 1
CAPÍTULO 1
CONCEPTOS BÁSICOS Y PROPIEDADES DE LOS ESTIMADORES PUNTUALES 5
1.1 ESTIMADORES.............................................................................................................. 6
1.1.1 Espacio paramétrico .................................................................................................... 6
1.1.2 Estimador puntual........................................................................................................ 7
1.2 PROPIEDADES................................................................................................................ 8
1.2.1 Estadísticas suficientes ................................................................................................ 9
1.2.2 Estimadores insesgados con menor varianza............................................................. 15
1.3 MÉTODOS PARA OBTENER EL MEJOR ESTIMADOR ...................................... 16
1.3.1 Estimadores y familias de densidades completas ...................................................... 19
1.3.2 Familias de densidades de clase exponencial ............................................................ 23
1.3.3 Estimadores insesgados de varianza uniformemente mínima, Lehman-Sheffé......... 24
1.3.4 Estimadores de menor varianza, cota inferior de Cramer-Rao.................................. 25
1.4 ERROR CUADRADO MEDIO..................................................................................... 29
1.5 MÉTODO DE MÁXIMA VEROSIMILITUD............................................................. 31
CAPÍTULO 2
DISTANCIAS Y PRUEBAS DE BONDAD DE AJUSTE..................................................... 34
2.1 EL PROBLEMA DE LA MEDICIÓN DE DISTANCIAS.......................................... 35
2.2 TIPOS DE DISTANCIAS Y SUS MÉTRICAS............................................................ 36
2.3 PRUEBAS DE BONDAD DE AJUSTE ........................................................................ 41
iv
CAPÍTULO 3
ALGUNAS PRUEBAS DE BONDAD DE AJUSTE.............................................................. 54
3.1 PRUEBA JI-CUADRADA ............................................................................................. 55
3.2 PRUEBA DE KOLMOGÓROV-SMIRNOV DE BONDAD DE AJUSTE ............... 64
3.2.1 Propiedades de la prueba de Kolmogórov-Smirnov.................................................. 65
3.3 PRUEBA DE NORMALIDAD DE SHAPIRO-WILK................................................ 69
3.3.1 Propiedades de w....................................................................................................... 70
3.4 LA PRUEBA DE NORMALIDAD DE D’AGOSTINO .............................................. 72
3.5 LA PRUEBA DE NORMALIDAD DE LILLIEFORS................................................ 74
3.6 LA PRUEBA DE NORMALIDAD DE FILLIBEN..................................................... 74
CAPÍTULO 4
PRUEBAS BOOTSTRAP......................................................................................................... 75
4.1 PRUEBAS BOOTSTRAP. ............................................................................................. 75
4.1.1 Tamaño de la prueba.................................................................................................. 76
4.2 EJEMPLO DE LA TÉCNICA BOOTSTRAP PARA UNA FUNCIÓN LOG-GAMMAGENERALIZADA.......................................................................................................... 77
4.2.1 Propiedades asintóticas de los estimadores ............................................................... 79
4.2.2 Procedimiento de la prueba en R............................................................................... 83
CONCLUSIONES .................................................................................................................... 95
BIBLIOGRAFÍA ...................................................................................................................... 96
ANEXO 1 ................................................................................................................................. 98
ANEXO 2 ................................................................................................................................. 103
v
Índice de Tablas
Tabla 2.1 Datos del ejemplo 2.2 para probar normalidad……………….…………….…….45
Tabla 2.2 Clases de frecuencia para los datos del ejemplo 2.2………...……………….…….45
Tabla 2.3 Datos del ejemplo 2.3 para probar normalidad.……...……….…………….…….49
Tabla 2.4 Clases de frecuencia para los datos del ejemplo 2.3………………………….…….49
Tabla 2.5 Valores criticos para la prueba de normalidad……………….….…………….….52
Tabla 3.1 Datos de la muestra para probar normalidad del ejemplo 3.1……………………..58
Tabla 3.2 Clases de frecuencia para los datos de la muestra del ejemplo 3.1…………...…….59
Tabla 3.3 Valores teórico y muestrales para la prueba de bondad de ajuste del ejemplo 3.1…59
Tabla 3.4 Datos de la muestra para probar exponencialidad del ejemplo………………………60
Tabla 3.5 Clases de frecuencia para los datos de la muestra del ejemplo 3.2…………….…..…61
Tabla 3.6 Valores teórico y muestrales para la prueba de bondad de ajuste del ejemplo 3.2…62
Tabla 3.7 Datos para probar si tienen distribución geométrica del ejemplo 3.3.……………..62
Tabla 3.8 Clases de frecuencia para los datos de la muestra del ejemplo 3.3………………..…63
Tabla 3.9 Valores teórico y muestrales para la prueba de bondad de ajuste del ejemplo 3.3…63
Tabla 3.10 Datos de la muestra para probar si tienen distribución normal del ejemplo 3.4...…66
Tabla 3.11 Frecuencias teoricas y muestrales del ejemplo 3.3………….……………………66
Tabla 3.12 Datos para probar si tienen distribución uniforme del ejemplo 3.5.………………67
Tabla 3.13 Frecuencias teoricas y muestrales del ejemplo 3.5………….……………………67
vi
Tabla 3.14 Frecuencias teoricas y muestrales del ejemplo 3.6………….……………………68
Tabla 4.1 Valores del estimador con tamaño de muestra 10,000………….…………………80
Tabla 4.2 Valores del ECM para k̂ ……………………………………………………………..…80
Tabla 4.3 Valores de la varianza y ECM para k̂ ………….……………..…………………81
Tabla 4.4 Valores de proporcionalidad entre ECM, n y el valor del parámetro k ………...…82
Tabla 4.5 Tamaños de prueba para k usando el EMV ………………..…..…………………85
Tabla 4.6 Potencias para la distribución alternativa normal con 0 y 2.0 …..….…88
Tabla 4.7 Potencias para la distribución alternativa t-Student con 5 .…………….……89
Tabla 4.8 Potencias para la distribución alternativa Logística con 0 y 2 .…..….…89
Tabla 4.9 Potencias para la distribución alternativa Laplace con 0 y 2 ……………89
Tabla 4.10 Potencias para la distribución alternativa Beta con 4 y 10 ………...…89
Tabla 4.11 Potencias para la distribución alternativa Cauchy con 0 y 2 …..…..…90
Tabla 4.12 Potencias para la distribución alternativa Gumbel con 0 y 2 .…………90
Tabla 4.13 Potencias para la distribución alternativa Gamma con 4 y 5 .…….....90
Tabla 4.14 Potencias para la distribución alternativa Ji-cuadrada con 20 .……………90
Tabla 4.15 Potencias para la distribución alternativa Weibull con 2 y 2 .…..…...90
Tabla 4.16 Potencias para la distribución alternativa F con 41 y 82 .…….……….91
Tabla 4.17 Potencias para la distribución alternativa Fréchet con 0 , 2 y 5 …91
Tabla 4.18 Potencias para la distribución alternativa Pareto con 4 y 20 …………91
Tabla 4.19 Potencias para la distribución alternativa Exponencial con 1.0 ………….…91
vii
Índice de figuras
Figura 2.1 Histograma de la tabla de frecuencias del ejercicio 1……………….………….46
Figura 2.2 Gráfica Q-Q de los datos muestrales del ejercicio 1……………….………..….48
Figura 2.3 (i), (ii), (ii) Graficas para mostrar CA y CU……………………….……….48
Figura 2.4 Histograma de la tabla de frecuencias del ejercicio 2……………….………….49
Figura 2.5 Grafica Q-Q de los datos muestrales del ejerciocio 2……………….………….51
Figura 3.1 Zona de rechazo y punto crítico de la prueba ji-cuadrada..…………..……….57
Figura 3.2 Histograma de la tabla de frecuencias del ejercicio 3.1…………….………….59
Figura 3.3 Histograma de la tabla de frecuencias del ejercicio 3.2…………….………….61
Figura 3.4 Histograma de la tabla de frecuencias del ejercicio 3.3…………….………….63
Figura 3.5 Distribución teórica y empírica para la prueba de Kolmogórov-Smirnov………65
Figura 4.1 Valores del ECM para k̂ en los 5 valores de k̂ = 0.1, 0.5, 1, 5, 10…..………….82
viii
RESUMENEn el presente trabajo se proporciona un estudio sobre las pruebas de bondad de ajustecon un enfoque métrico, es decir, un criterio para decidir sobre qué prueba es mejorestará basado en la distancia.
El desarrollo del trabajo inicia con un estudio de los estimadores puntuales,revisando las propiedades que éstos deben cumplir para que sean buenos estimadores,presentando algunos métodos existentes como el de momentos y máxima verosimilitudpara obtener buen estimador.
Después de obtener buenos estimadores el estudio continua con las distancias máscomunes y las fórmulas que se utilizan para calcularlas. Además se mencionan lasdistancias que se utilizan para el ajuste de distribuciones. Luego se comienza con elanálisis de las pruebas de bondad de ajuste, y se habla del método cuantil-cuantil.También se estudian las pruebas más importantes, mostrando varios ejemplos para quesu comprensión sea mejor.
Al final se analiza un estudio más resiente sobre las pruebas de bondad de ajusteen donde la estadística de prueba no es posible obtenerla en forma cerrada, además deque la estadística de prueba depende fuertemente de la estimación de uno o variosparámetros, para solucionar este problema se presenta una metodología que muestracómo utilizar el método Bootstrap para llevar a efecto esto tipo de pruebas de bondadde ajuste.
ix
SUMMARYIn the present work a study is provided on the test of goodness of fit with a metricapproach, that is to say, a criterion to decide about what test is better will be based onthe distance.
The development of the work initiates with a study of the precise estimators,reviewing the properties that these must fulfill so that they are good estimators,presenting some existing methods like the moments and maximum likelihood to obtaingood estimator.
After obtaining good estimators the continuous study with the most commondistances and the formulas that are used to calculate them. In addition the distances arementioned that are used for the fit of distributions. Soon it is begun with the analysis ofthe tests of goodness of fit, and it is spoken of the cuantil-cuantil method. Also the mostimportant tests, showing several examples so that study their understanding is better.
In the end a study is analyzed more suffers on the tests of adjustment kindnesswhere the test statistic is not possible to obtain it in closed form, apart from which the teststatistic depends strongly on the one estimation or several parameters, to solve thisproblem appears a methodology that shows how to use the Bootstrap method to take toeffect this type of tests of goodness of fit.
x
Agradecimientos
A la Universidad Autónoma Chapingo por su apoyo en la realización de mi formaciónacadémica.
Al Dr. Eduardo Gutiérrez González por sus consejos, apoyo y tiempo dedicado en laelaboración de esta tesis.
Al Comité Revisor integrado por:
M.C. Margarito Soriano Montero
Dr. Fernando Garrido Puga
M.C. Alejandro Corona Ambriz
Dr. Carlos Cíntora González
Por su el tiempo que dedicaron a la revisión de este trabajo.
A mis padres y hermanos por su apoyo incondicional.
A mis amigos Laura, Sol y Berna, que me ayudaron todo este tiempo
xi
DedicatoriaA mis Padres:
Lina y Anse
A mis hermanos:
Mague, Chuy, Dani y Hugo.
A mis sobrinos:
Dayis, Karime y Alex.
A mis mejores amigos:
Adal, Beres Berna, Claudia, Creta, Eddi, Erasmo, Fabián, Fran, Inés, Jaime, Jimena,Laura, Marco, Margarita, Mónica y Sol.
1
Introducción
Hoy en día la estadística inferencial ha tomado mucha importancia en las diferentes áreas de la ciencia, ya que el ser humano está interesado en conocer algún aspecto importante de un grupo grande de individuos u objetos, llamado población. La
estadística inferencial, es la parte de la Estadística que trabaja con subconjuntos de la
población, conocidos como muestras, a partir de las cuales se pretende inferir aspectos relevantes de toda la población.
Sobre una población existe especial interés en conocer su comportamiento aleatorio, mismo que generalmente se obtiene con base en una muestra. Existen varias técnicas para conocer la distribución de una muestra, una de estas técnicas es la prueba
de bondad de ajuste. La mayoría de estas pruebas se basa en la convergencia de la
función de distribución empírica de la muestra a la función de distribución subyacente a la muestra. Dicha convergencia está garantizada en condiciones muy generales por el Teorema de Glivenko-Cantelli.
La primera prueba de bondad de ajuste fue propuesta por Karl Pearson aproximadamente en el año 1900, después surgieron muchas otras como la prueba K de Kolmogórov en 1933 que F. Smirnov extendiera en el año 1939 llamándola prueba de Kolmogórov-Smirnov, la prueba Shapiro-Wilk propuesta por S. S. Shapiro y M. B. Wilk en 1964.
Fuera de las pruebas anteriores se tiene un sinfín de pruebas de bondad de ajuste, sobre todo en las últimas décadas se ha incrementado considerablemente esta cantidad, debido al uso de las computadoras personales y el método de simulación Bootstrap. Además de la creciente necesidad de los investigadores de estudiar los fenómenos aleatorios considerándolos tal y como suceden. Es decir, evitando los supuestos que anteriormente se hacían al estudiar un fenómeno y considerarlo generalmente con distribución normal.
Ahora con diferentes métodos para estimar parámetros, como el estimador de
máxima verosimilitud (EMV), y realizar simulaciones sin muchos problemas con el uso del paquete R, las pruebas de bondad de ajuste se amplían a modelos más complejos como las mezclas y el análisis de supervivencia.
2
Este trabajo está conformado por 4 capítulos.
En el capítulo uno se habla de los conceptos básicos y propiedades de los estimadores puntuales, la definición de parámetro, espacio paramétrico, estimador y estimador puntual. Además de las propiedades que éstos deben cumplir para que sean buenos estimadores. Por último, se revisan los métodos más utilizados para obtener estimadores, como son máxima verosimilitud y el método de momentos.
El capítulo dos trata sobre las distancias y su métrica, iniciando con el estudio de las pruebas de bondad de ajuste.
En el capítulo tres se presentan algunas de las pruebas de bondad de ajuste más utilizadas en las aplicaciones, como son: la prueba ji-cuadrada, la prueba de Kolmogórov-
Smirnov, la prueba de normalidad de Shapiro-Wilk, entre otras.
Por último en el capítulo cuatro se tratan las pruebas de bondad de ajuste por el método Bootstrap y como ejemplo se presenta una prueba de bondad de ajuste bootstrap para el modelo log-Gamma generalizado.
3
Planteamiento
Actualmente en los procesos de producción, en las demandas de inventarios, estudios biológicos, medicina, etcétera surgen con frecuencia comportamientos aleatorios, de tal forma que es de vital importancia conocer cómo determinar estadísticamente el comportamiento de la población. El hombre se ha dado a la tarea de desarrollar métodos para conocer el comportamiento de la población de interés como son las pruebas de bondad de ajuste.
En el siglo XIX se desarrollaron las pruebas de bondad de ajuste más importantes, las cuales se siguen utilizando hasta el momento. También han surgido otras, en la actualidad se pueden realizar pruebas de bondad de ajuste por el método Bootstrap.
Para saber que tanto ajusta un modelo a un conjunto de datos, se requiere medir la distancia que hay entre el modelo conocido y el que queremos ajustar, la estadística de prueba nos dice que tan cerca esta una de la otra. En otras palabras la estadística de prueba es una función de distancia para calcular la distancia entre los modelo.
En este trabajo se estudian las pruebas de bondad de ajuste más utilizadas y las funciones de distancia como su estadística de prueba, presentando también las bases teóricas para la mejor comprensión de este trabajo, como son los estimadores puntuales, sus propiedades y algunos métodos para obtener a los mejores estimadores.
Además de lo anterior en el trabajo se analiza el método bootstrap utilizado en pruebas de bondad de ajuste. Este método ha tomado mucha importancia dentro de la estadística ya que tiene diferentes usos, como ejemplo, el de realizar contrastes de hipótesis. Además de que como es un método basado en la extracción de muestras grandes o pequeñas resulta ser muy versátil en sus aplicaciones.
4
Objetivos
En este trabajo se tienen como metas la realización de los siguientes puntos:
Mostrar las principales técnicas y elementos básicos para la utilización de las pruebas de bondad de ajuste.
Establecer las bases teóricas elementales para poder afrontar problemas de pruebas de bondad de ajuste, por medio de su métrica.
Mostrar algunas pruebas de bondad de ajuste.
Proporcionar ejemplos prácticos de la utilización de las pruebas de bondad de ajuste. Dejando más clara la importancia de dichas herramientas en la vida cotidiana para que las personas las implementen en el campo en el que laboran.
Mostrar la técnica bootstrap para hacer pruebas de bondad de ajuste
Mostrar la aplicación de la técnica bootstrap.
5
Capítulo 1
CONCEPTOS BÁSICOS Y PROPIEDADES SOBRE LOS
ESTIMADORES PUNTUALES
INTRODUCCIÓN
Para el análisis de las pruebas de bondad de ajuste es fundamental hacer un estudio previo acerca de los estimadores puntuales, ya que éstos son la base teórica de la inferencia estadística, y desde luego de las pruebas de bondad de ajuste.
El presente capítulo inicia con el estudio de los conceptos básicos para entender claramente lo que es un estimador. Se hablará de la definición de parámetro, espacio paramétrico, estimador y estimador puntual.
Conceptos básicos y propiedades sobre los estimadores puntuales
6
Definidos los estimadores, se hablará de las propiedades que éstos deben cumplir para que sean buenos estimadores, tales como el insesgamiento, provenga de una estadística suficiente y tenga la menor varianza posible.
Por último, se revisarán los métodos más utilizados para obtener estimadores, como son máxima verosimilitud y el método de momentos.
1.1 ESTIMADORES
Los números que sintetizan los aspectos más relevantes de la distribución de una población reciben el nombre de parámetros y cuando son obtenidos de una muestra, se les llama estadísticos. Estos nos ayudan a conocer aspectos de interés acerca de la población cuando no es posible estudiarla toda. Por ejemplo para conocer la vida útil promedio de un celular de cierta marca, lo más preciso seria observar a todos los celulares de esta marca y medir el tiempo de vida de cada uno, para luego calcular la media, pero esto no es razonable. Así que se procede a estudiar una muestra pequeña y se calcula la vida promedio mediante un estimador.
Definición 1.1 Estadística
Sea nXXX ,,, 21 una muestra aleatoria se llama estadística a cualquier función de
la muestra aleatoria, por ejemplo,
n
i
iXn
X1
1, mediana,
n
i
in XXn
S1
22 )(1
,
n
i
in XXn
S1
221 )(
1
1, etc.
Se pueden obtener diferentes estimadores para un parámetro a través de diversos métodos, pero se debe tener cuidado de elegir el mejor, para esto debe cumplir algunas propiedades que revisaremos en la siguiente sección.
1.1.1 Espacio paramétrico
El espacio paramétrico, denotado por , es el conjunto de valores posibles de un parámetro. Debe tenerse una muestra aleatoria de la población y conocer su distribución, para determinar este conjunto cuando se desconoce el parámetro. Por ejemplo, si se tiene una muestra aleatoria y las variables tienen función de densidad
normal con parámetros y 2
2
2
2
)(
2
2
1),;(
x
exf , con R y 0 , el espacio paramétrico es RR .
Capítulo 1
7
1.1.2 Estimador puntual
Sea una población descrita por la función de densidad );( xf , y supóngase que se desea
obtener un estimador de , para comenzar la búsqueda del estimador se inicia revisando las relaciones que tiene el parámetro y los valores que se conocieron en la estadística descriptiva, como son los valores centrales (la media, moda, mediana, percentiles), valores de desviación (varianza, rangos, desviación estándar), estadísticas de orden, coeficiente de variación, momentos, etc.
Definición 1.2 Estimador puntual
Sea una población con parámetro , nXXX ,,, 21 una muestra aleatoria de la
población y ),,(ˆ1 nXXU la estadística correspondiente de . En la parte de
estimación a ̂ se le llama estimador de , mientras que al valor ̂ de ̂ , obtenido de una realización de la muestra aleatoria, se llama estimador puntual de .
NOTA
De la definición anterior se puede concluir que si es el parámetro con espacio paramétrico , cualquier estimador puntual de debe estar contenido en . Es decir, si ),,( 1 nXXU es el estimador del parámetro, su distribución tendrá como dominio a .
Ejemplo 1.1
Sea una población con función de densidad normal con parámetros y 2
2
2
2
)(
2
2
1),;(
x
exf , con R y ),0( .
Por otro lado, sea 1221 ,,, XXX una muestra aleatoria para estimar los
parámetros y 2 . De la cual se elige una realización dada por: 228, 233, 221, 223, 222,
238, 239, 235, 227, 224, 241 y 230. Utilice los valores de la realización para estimar los
parámetros y 2 .
Solución
Se sabe de la distribución normal que los parámetros )(XE y )( 21
2 nSE de donde
)(XE se estima con X y 2 con 21nS , de esta manera se tiene que
Conceptos básicos y propiedades sobre los estimadores puntuales
8
356.49)0833.230()112(
1ˆ
0833.23012
1ˆ
2
1
22
12
1
i
i
i
i
x
x
Con base en la realización se tiene un estimador puntual para y otro para 2 .
Recuerde que el espacio paramétrico para la normal es R y ),0( y con R̂ y
),0(ˆ .
1.2 PROPIEDADES
Los estimadores preferidos deben cumplir ciertas propiedades, por el momento se puede restringir a:
Estimadores cuyos valores siempre pertenecen al espacio paramétrico.
Otra propiedad deseable del estimador ),,(ˆ1 nXXU , se refiere cuando el
valor esperado de la distribución del estimador ̂ sea igual al parámetro .
Definición 1.3 Estimadores sesgados e insesgados
Un estimador ),,(ˆ1 nXXU de una función )(g del parámetro , se llama
estimador insesgado de )(g si )()ˆ( gE , en caso contrario ( )()ˆ( gE ) se
llama estimador sesgado de )(g .
Definición 1.4 Sesgo
Sea T un estimador del parámetro , se llama sesgo a la función S que
representa la diferencia entre el valor esperado de un estimador y el parámetro
)()( gTES .
NOTA
No todos los parámetros tienen un estimador insesgado. Si un parámetro tiene dos estimadores insesgados, entonces tiene una infinidad de estimadores insesgados.
Capítulo 1
9
PROPOSICIÓN
Sean 1T y 2T dos estimadores insesgados de , entonces 21 )1( TT es otro
estimador insesgado de , para cualquier R .
Demostración
Se calcula el valor esperado de la estadística 21 )1( TT
)1()1()1( 2121 TETETTE ,
lo cual implica que 21 )1( TT es un estimador insesgado de .
1.2.1 Estadísticas suficientes
Hasta el momento se ha hablado de una propiedad muy importante que debe cumplir un buen estimador. Pero aparte de ser insesgado, un buen estimador debe contener toda la información muestral, para asegurar esto se debe utilizar una estadística suficiente.
Si se tiene una muestra aleatoria nXX ,,1 con función de densidad conjunta
n
i
in xfxxf1
1 );();,,( ,
la estadística que se busca, debe basarse en:
a) la forma de la densidad f,
b) el espacio paramétrico y
c) las observaciones de la muestra.
A la estadística que cumple estas características se le llama estadística suficiente.
A continuación se dará una definición formal de Estadística suficiente, para el caso unidimensional.
Definición 1.5 Estadística suficiente para el caso unidimensional
Sea ),,( 1 nXXuT una estadística para , se llamará estadística suficiente para
, si la función de densidad condicionada de la muestra )|,,( 1 txxf n no depende
de .
Cabe mencionar que existen otras definiciones, pero todas ellas son equivalentes.
Conceptos básicos y propiedades sobre los estimadores puntuales
10
Ejemplo 1.2
Sea nXXX ,...,, 21 una muestra aleatoria de densidades Bernoulli con parámetro p.
Pruebe que el estadístico
n
iiXT
1
es suficiente para .
Solución
Se ha mencionado que la estadística
n
iiXT
1
tiene una distribución binomial con
parámetros n y p. Considerando la definición de densidad condicionada, y que la densidad conjunta de una muestra aleatoria es igual al producto de las densidades, se tendrá:
n
t
tntn
t
tnt
tntn
t
xtxtxnx
tntn
t
xtxtn
i
xx
n
i
iT
n
i
iX
n
i
in
n
n
C
ppC
pp
ppC
pppp
ppC
pppp
tf
xtfxf
tf
xtxxf
tf
txxftxxf
n
ii
n
ii
n
i
i
n
i
i
n
ii
n
ii
ii
1
)1(
)1(
)1(
)1()1(
)1(
)1()1(
)(
)(
)(
,,,
)(
),,,()|,,(
1
1
1
1
1
1
1
1
1
1
1
1
11
11
1
1
1
1
1
1
1
1
11
1
1
Luego, de la definición de estadística suficiente y el hecho que la densidad
condicionada no depende del parámetro, resulta que
n
i
iXT1
es una estadística
suficiente para .
La comprobación de que una estadística dada es suficiente para un parámetro , a partir de su definición puede resultar un poco compleja. A continuación se verá un Teorema y su corolario que muestran cómo obtener estadísticas suficientes para el parámetro , de una forma sencilla.
Capítulo 1
11
TEOREMA 1.1 Criterio de factorización (Neyman-Fisher)
Sea nXX ,,1 una muestra aleatoria de una población con densidad );( xf , con
R y sea ),,( 1 nXXUT una función de observaciones, entonces T es
una estadística suficiente para basada en la muestra aleatoria si y sólo si la
densidad conjunta
),,();,,();,,( 111 nnTn xxHxxUfxxf
donde ),,( 1 nxxH es una función que no depende de .
Para la aplicación del teorema a las estadísticas suficientes, en general se prefiere hacer uso del corolario siguiente.
COROLARIO del teorema de factorización (Neyman-Fisher)
Bajo las condiciones del Teorema anterior, T es una estadística suficiente para , si y
sólo si existen dos funciones
RR
RR
n:
:
2
1
tales que ),,();,,();,,( 12111 nnn xxxxUxxf , en donde ),,( 12 nxx no
depende de .
En forma práctica, para encontrar la estadística suficiente en funciones de densidad truncadas utilizando el corolario anterior es recomendable emplear la función indicadora.
Definición 1.6 Función indicadora
Se llama función indicadora a la función definida en todos los reales, tal que
ba
babaI
,0
,1),( o
valorotroen ,0
,1)(),(
bxaxI ba .
Antes de iniciar la búsqueda de estadísticas suficientes se puede notar que:
),,,min(,),( 21
1
n
n
i
i xxxaIxaI
o ),,,min()( 21),(
1
),( na
n
i
ia xxxIxI
.
bxxxIbxI n
n
i
i ),,,,max(),( 21
1
o ),,,max()( 21),(
1
),( nb
n
i
ib xxxIxI
.
Conceptos básicos y propiedades sobre los estimadores puntuales
12
Ejemplo 1.3
Sea nXXX ,...,, 21 una muestra aleatoria de exponenciales con parámetro . Encuentre
una estadística suficiente para .
Solución
Se usará el corolario anterior, para esto se escribe la densidad conjunta.
),(
1
;
1
1
1
12
1
1 ),0(
),0(
);();,(
n
i
n
i
i
i
xx
n
i
i
x
xn
i
n
i
x
n
i
in
xIe
xIe
xfxxf
En donde,
n
i
ixn
i ex 1;1
y
n
i
in xIxx1
12 ),0(),( . Luego, por el corolario del
Teorema de factorización de Neyman-Fisher una estadística suficiente de es
n
i
iX1
.
PROPIEDAD DE INVARIANZA
Sea nXX ,,1 una muestra aleatoria de una población con densidad );( xf , con
R y sea ),,( 1 nXXUT una estadística suficiente para basada en la
muestra aleatoria y sea )(g una función invertible de T, entonces
a) )(Tg es una estadística suficiente para .
b) T es una estadística suficiente para )(g .
Demostración
La comprobación se obtiene directamente del criterio de factorización de Neyman- Fisher.
),,(;),,(
),,(;),,(
),,();,,();,,(
11
*
11
1
111
nnT
nnT
nnTn
xxHxxUgf
xxHxxUggf
xxHxxUfxxf
Así, una estadística suficiente para está dada por )(Tg .
Similarmente,
Capítulo 1
13
),,()();,,(
),,()();,,(
),,();,,();,,(
11
**
1
1
1
111
nnT
nnT
nnTn
xxHgxxUf
xxHggxxUf
xxHxxUfxxf
Luego, una estadística suficiente para )(g está dada por T .
La propiedad de invarianza de la estadística suficiente T es muy útil en situaciones en las que se dificulta encontrar la distribución de T , sin embargo se facilita determinar la distribución de )(Tg . Un caso particular de esta propiedad, sería la función nxxg )( ,
ya que es invertible, con ella se obtiene el promedio. Luego, en el ejemplo de la exponencial una estadística suficiente de también es X .
Ejemplo 1.4
Sea nXX ,...,1 una muestra aleatoria de densidades ),(2; )(2 xIexf x con R finito. Encuentre una estadística suficiente para .
Solución
Se usará el corolario del Teorema de factorización de Neyman-Fisher, para esto se escribe la densidad conjunta.
)),,min(,(2
),(2
),(2),();,,(
1
22
1
22
1
)(2
1
1
1
1
n
nx
n
n
i
i
nx
n
n
i
i
xn
i
in
xxIee
xIee
xIexfxxf
n
i
i
n
i
i
i
En donde,
)),,min(,(),,,min( 12
11 nn
n xxIexx y
n
i
ixn
n exx 1
2
12 2),,( .
Por el corolario del Teorema de factorización de Neyman-Fisher una estadística suficiente de es ),,min( 1 nXXT .
Después de haber estudiado las estadísticas suficientes en una dimensión, se ha visto que éstas concentran toda la información que tiene la muestra con respecto del parámetro. Por consiguiente, un primer paso para encontrar un buen estimador insesgado, consiste en buscarlo como una función de la estadística suficiente.
Ejemplo 1.5
El lado de un cuadrado está medido con errores de medición aleatorios, cuya distribución
es normal con media cero y varianza conocida 2 . Supóngase que se tiene una muestra aleatoria de tamaño n , determine un estimador insesgado para el área del cuadrado.
Conceptos básicos y propiedades sobre los estimadores puntuales
14
Solución
Sean nXX ,,1 la muestra aleatoria con ii eX donde ),0(~ 2Nei entonces
),(~ 2NX i con ni ,,1 .
Se desea encontrar un estimador insesgado para 2A entonces 2iX podría ser
un estimador para A con la desventaja de que este estimador no contiene toda la
información de la muestra, por lo tanto se usará
n
i
iXn
T1
21, para determinar el
estimador insesgado.
Calculando la esperanza de T , se tiene:
2222
1
2
1
2 )(111
)(
nn
XEn
Xn
ETEn
i
i
n
i
i .
Por lo tanto, el estimador insesgado para 2A está dado por 2
1
21
n
i
iXn
.
Ejemplo 1.6
El radio de un círculo está medido con errores de medición aleatorios, cuya distribución es normal con media cero y varianza conocida 2 . Supóngase que se tiene una muestra aleatoria de n medidas determine un estimador insesgado para el área del círculo.
Solución
Sean nXX ,,1 la muestra aleatoria de n medidas con ii eX donde ),0(~ 2Nei
entonces ),(~ 2NX i con ni ,,1 .
Se desea encontrar un estimador insesgado para 2A entonces se usa
n
i
iXn
T1
21 para determinar el estimador insesgado.
Calculando la esperanza de T , se tiene:
2222
1
2
1
2 )(111
)(
nn
XEn
Xn
ETEn
i
i
n
i
i .
Así que,
2
1
21
n
i
iXn
es un estimador insesgado para 2A .
.
Capítulo 1
15
1.2.2 Estimadores insesgados con menor varianza
En las secciones anteriores, se revisaron dos propiedades deseables de un buen estimador, insesgamiento y suficiencia, pero no se ha hablado de la medida de variabilidad de un estimador. Es decir, en caso de tener diferentes estimadores insesgados para un mismo parámetro, además de pedir que provengan de estadísticas suficientes, se desea que la varianza del estimador sea más pequeña, para tener de esta manera un mejor estimador. Es decir, para tener un buen estimador se pedirá que sea una estadística suficiente, insesgado y tenga menor varianza.
Definición 1.7 Estimador insesgado más eficiente relativo
Dado un parámetro y un conjunto de estimadores insesgados de él,
m ˆ,,ˆ,ˆ21 , se llama estimador más eficiente relativo de con respecto del
conjunto de estimadores insesgados, al estimador cuya varianza sea menor.
Ejemplo 1.7
Sea 521 ,,, XXX una muestra aleatoria con parámetro , y XT 1 y
3
543212
XXXXXT
dos estimadores insesgados de . Compruebe cuál de ellos
es más eficiente relativo.
Solución
Para verificar que estimador insesgado es más eficiente relativo de 1T y 2T , se calculan
sus varianzas. Para el estadístico 1T , nXV 2)( , luego .5
1)()( 2
1 XVTV
Para el estadístico 2T :
.9
5)(
9
1
)()()1()()()(9
1
3
1
3)(
222222
542
321
543212
543212
XVXVXVXVXV
XXXXXVXXXXX
VTV
De los cálculos anteriores, resulta que el estadístico 1T es más eficiente que 2T , puesto
que
)(9
5
5)( 2
22
1 TVTV
.
Conceptos básicos y propiedades sobre los estimadores puntuales
16
Como se pudo apreciar en el ejemplo el concepto de estimador más eficiente relativo sólo se refirió a un conjunto de estimadores insesgados, pero de hecho el concepto de estimador más eficiente es mucho más amplio, ya que se refiere al estimador más eficiente de todos los estimadores insesgados y no de un sólo conjunto de estimadores. Para llegar a obtener el estimador insesgado más eficiente se tiene una tarea mucho más complicada que la llevada a cabo para un sólo conjunto de estimadores insesgados. Por tal razón se verán algunos resultados que ayuden a obtener estimadores insesgados que tengan una varianza más pequeña.
Definición 1.8 Estimador insesgado de varianza uniformemente mínima
Sea nXX ,,1 una muestra aleatoria de densidades );( xf y *T un estimador insesgado de )(g , se llama estimador insesgado de varianza uniformemente mínima
o mejor estimador insesgado de )(g o estimador insesgado más eficiente de )(g , si
para cualquier otro estimador insesgado T de )(g , se cumple 22* TT
para todo
valor de .
1.3 MÉTODOS PARA OBTENER EL MEJOR ESTIMADOR
En general el problema de encontrar al mejor estimador insesgado no es un trabajo sencillo, pero se tienen diferentes resultados que pueden ayudar a encontrarlo. Véase uno de tales resultados.
TEOREMA 1.2 Rao-Blackwell
Sea nXX ,,1 una muestra aleatoria de una población con densidad );( xf ,
R y ),,( 1 nXXuZ una estadística suficiente de o de alguna
función )(g y ),,( 1 nXXvT un estimador insesgado para )(g , y
finalmente sea la variable aleatoria )(| ZhZTEU , entonces
a) U es una estadística y depende de la estadística suficiente Z.
b) U es un estimador insesgado para )(g , tal que )()( 22 TU para toda
.
NOTAS
Del Teorema se desprende una forma de obtener mejores estimadores insesgados, la cual consiste en poner una función )(| ZhZTEU , luego el estimador insesgado encontrado, U, aparece como una función de la estadística suficiente Z, por lo tanto, al querer mejorar U por medio de otro estimador insesgado se tendría
Capítulo 1
17
que tomar la condicional )(|1 ZUZUEU , pero ésta no mejora, porque ya es una función de la estadística suficiente. De esta forma se ha encontrado un estimador insesgado de varianza uniformemente mínima para )(g . Obsérvese que para la aplicación del Teorema se usa la propiedad
)()|)(( ZhZZhE .
Ejemplo 1.8
Con ayuda del Teorema de Rao Blackwell encuentre un estimador insesgado de varianza uniformemente mínima para el parámetro donde nXXX ,...,, 21 una muestra
aleatoria de densidades uniformes entre ,0 .
Solución
Primero se encuentra una estadística suficiente para . Utilizando el corolario del Teorema de factorización de Neyman-Fisher, se tiene que;
),(
1
),(
11
1 1
1
121
),0(),(max1
),(),0(1
),(),0(1
);();,,(
nn xx
n
i
i
y
in
n
i
i
n
i
in
i
n
i
n
i
iin
xIxI
xIxI
xIxIxfxxf
obteniendo la estadística de orden nY como una estadística suficiente de .
Segundo se calcula la función de densidad de nY
)()(1
),0(1
),0(
1
1 yIyn
yIy
nyFynfyf n
n
n
nXXYn
.
Tercero, se prueba si el estimador insesgado de es una función de nY , para esto
se calcula el valor esperado de nY .
110
1
1
0
n
n
n
yn
dyyn
ydyyyfYE
n
n
n
nYn n
Por lo tanto, nYn
nT
1 es un estimador insesgado de y además es función de
la estadística suficiente, luego
Conceptos básicos y propiedades sobre los estimadores puntuales
18
nn Yn
nYTEU
1|
,
por el Teorema de Rao-Blackwell U es el estimador insesgado de varianza uniformemente mínima, ya que está en función de la estadística suficiente.
Ejemplo 1.9
Sea nXX ,...,1 una muestra aleatoria con distribución 1,N , encuentre un estimador
insesgado de varianza uniformemente mínima para 2 .
Solución
Para una variable aleatoria de densidad 1,N , un estimador insesgado para 2 está
dado por 12 XT . En este caso el estimador insesgado para 2 está dado por
11
1
2
n
i
iXn
T
ya que contiene toda la información de la muestra y además
calculando su valor esperado se tiene que
222
1
2
1
2
1
2
1
2
1
2
)1()1(1
)1(1
)1(1
)1(11
11
XEXnEn
XEn
XEn
XEn
nXEn
Xn
E
n
i
n
i
i
n
i
i
n
i
i
n
i
i
Luego, 11
1
2
n
i
iXn
T es el estimador insesgado de 2 función de la estadística
suficiente
n
i
iXT1
2 . Así, por el Teorema de Rao-Blackwell, resulta que
11
|1
2
1
2
n
i
i
n
i
i Xn
XTEU es el estimador insesgado de varianza uniformemente
mínima.
Ejemplo 1.10
Sea nXX ,...,1 una muestra aleatoria de densidades exponenciales con parámetro 0 ,
encuentre un estimador insesgado de varianza uniformemente mínima para
a) . b) 1 .
Capítulo 1
19
Solución
a) Primero se encuentra una estadística suficiente de , esto es
n
i
i
x
n
n
i
i
xn
i
in xIexIexfxxf
n
iii
1
1
1
1
1
1 ),0(1
),0(1
),();,,( 1
.
En donde,
n
iix
n
n
i
i ex 1
1
1
1
1,
y
n
i
in xIxx1
12 ),0(),,( .
Por lo tanto una estadística suficiente de es
n
i
iXT1
.
Segundo se prueba si
n
i
iXT1
es un estimador insesgado de . Para esto se
calcula su valor esperado
nXEXEn
i
n
i
i
n
i
i 111
)()( .
Por lo tanto, el estimador insesgado de está dado por:
n
i
iXn
X1
1. Luego,
XXXEUn
i
i
1
| , es el estimador insesgado de varianza uniformemente mínima.
b) un estimador insesgado de
1está dado por
X
1, ya que 1)1( XE , y además
XX
XEU
n
i
i
1|
1
1
.
Por lo tanto X
1 es el estimador insesgado de varianza uniformemente mínima.
1.3.1 Estimadores y familias de densidades completas
Ahora se verán estimadores y familias de densidades que cumplen ciertas características, que las hacen ser muy especiales en el estudio de los estimadores insesgados de menor varianza, ya que darán respuesta al caso cuando el estimador insesgado es único.
Conceptos básicos y propiedades sobre los estimadores puntuales
20
Definición 1.9 Familias de densidades completas
Sea nXX ,,1 una muestra aleatoria de densidades );( xf , R y
),,( 1 nXXuT una estadística de o de alguna función )(g . La familia de densidades de T se llama completa si y sólo si
0)( TZE para toda , entonces 10)( TZP para toda .
En donde ),,()( 1 nXXvTZ es una estadística. La estadística T se llama
completa si y sólo si su familia de densidades es completa.
Para verificar si una familia de densidades es completa, se tiene que recurrir a utilizar algunos conceptos y resultados del Cálculo, como son:
1. Cálculo de integrales de funciones pares e impares.
2. Teorema fundamental del cálculo.
3. Transformada de Laplace, y algunos otros. La comprobación de que una familia de densidades sea o no completa en general
resulta complicado de aplicar. A continuación se dará sin demostración una lista de familias completas.
Las siguientes familias de densidades son completas
1. xIxn
xfn
n
,01
)1(;
con 0n . Cuando 0n es la uniforme.
2. La familia de Bernoullis.
3. La familia de binomiales.
4. La familia de gammas ),( n con 1n . Cuando 1n es la exponencial.
5. La familia ),( 20N con varianza conocida.
La completitud es una propiedad de las familias, pero ¿Cuándo una familia es completa?
Supóngase que 1k (dimensión de ) y que R ),( ba , en donde a y b son
conocidos pero no necesariamente finitos.
Definición 1.10
La familia f es completa si cada vez que se tiene una función continua )(xu (que
no depende de ), tal que:
0)( XuE , ),( ba entonces sucede que 0)( Xu .
Capítulo 1
21
NOTA
Por 0)( Xu se entiende que 0)( Xu para toda x que pertenezca a la unión de todos los soportes de la familia.
Ejemplo 1.11
Considere la familia de densidades
...,0
0,,2
1
);(
mod
xxxf
¿La familia será completa?
Solución
La familia no es completa, porque si XXu )( se tendrá
02
1);()()(
xdxdxxxfXEXuE
Luego, 0)( XuE , pero 0)( xu , no se deduce que 0)( xu . Por lo tanto, la familia
anterior no es completa.
NOTA
La propiedad de completitud dependerá de la función de densidad.
Ejemplo 1.12
Considere la familia de densidades
...,0
0,1
);(
mod
xxf
¿La familia será completa?
Solución
Supóngase que 0)( XuE para todo 0 , es decir, 0)(1
)(
0
dxxuXuE , pero por
condiciones )(xu es continua en ),0( , por consiguiente se puede aplicar el teorema
fundamental del cálculo, y derivar 0)(
0
dxxu , es decir
Conceptos básicos y propiedades sobre los estimadores puntuales
22
)()()0(
00
udxxud
d
d
d
0
Por lo tanto, 00)( u , faltar notar que la unión de los soportes de la
familia es ),0(),0(0
. Con lo cual se concluye que 0
),0(0)(
xxu .
NOTA
En muchas ocasiones lo anterior se escribe en términos de las probabilidades como: 1)0)(( XuP . Es decir, la probabilidad de que la función 0)( xu para cualquier
valor es igual a 1. El problema de completitud está ligado a los estimadores eficientes.
Ejemplo 1.13
Sea 0:),0( ¿familia de densidades será completa?
Solución
Como
dxxfxuXuE );()()( , en particular se considera que xxu )( y véase
02
1);()()( 22
dxxeXEdxxfxuXuE x
pero 0)( xxu .
Como X es normal con media 0 y varianza , entonces 0,0 XE
pero 0)( xu se tiene que esta familia no es completa.
NOTA
Recordar que se tenía a conocido y se quiere obtener el parámetro , tal que );( xf es la función de densidad de probabilidad y que la distribución que se quiere no se conoce, pero se sabe que está en la familia :);(xfF . Por lo tanto, se quiere conocer para saber cuál es la distribución de nXX ,,1 una muestra aleatoria.
Ejemplo 1.14 (una clase exponencial)
Sea ),(:);( baxfF tal que 0)(,0)(;)()();( xrexrxf x . Compruebe
que F es completa.
Solución
En efecto, sea )(xu una función continua tal que ),(0)( baXuE . Se probará
que en estas condiciones 0)( xu
Capítulo 1
23
dxexrxudxexrxuXuE xx )()()()()()()(0
pero 0)( , por lo tanto 0)()(
dxexrxu x .
Utilizando la transformada de Laplace se tiene 0)()()()()(
dxexrxuT xxrxu
entonces
0)()(0)()()( xrxuT xrxu , como xxuxr 0)(0)( tal que 0)( xr .
Luego, se concluye que la clase exponencial es completa.
1.3.2 Familias de densidades de clase exponencial
Una familia de densidades que tiene muchas aplicaciones en la estadística es la siguiente:
sinvertible funciones ,y ,0)(,0)(con ,)()(exp)()();(y |);( twcxhxtwcxhxfxf F
A esta familia se le llama familia exponencial o clase exponencial
TEOREMA 1.3
Sea nXX ,,1 una muestra aleatoria de densidades );( xf , que pertenece a una
familia exponencial, entonces la estadística
n
i
iXtT1
)()(X es completa.
Con este resultado general para la clase exponencial, un método posible de probar la completitud de una familia de densidades, consistiría en probar si pertenece a una familia exponencial. Cabe aclarar que en caso de que la familia de densidades no pertenezca a la clase exponencial, esto no quiere decir que no sea completa.
Ejemplo 1.15
Probar que )()1(2
);( 1,0,1
1xIxf
x
x
no pertenece a una familia exponencial.
Solución
Haciendo la descomposición de la función de densidad para llevarla a la forma de la clase exponencial se tiene
Conceptos básicos y propiedades sobre los estimadores puntuales
24
1ln
1,0
1,0
1
1,0,1
1
)1)((2
1
)1)(()1(2
1)()1(
2);(
xx
xx
x
x
x
exI
xIxIxf
De la expresión anterior x no es invertible por lo tanto la familia de densidades
);( xf no pertenece a la clase exponencial.
1.3.3 Estimadores insesgados de varianza uniformemente mínima, Lehman-
Scheffé
Con base en las familias completas y el siguiente resultado, se puede conocer cuando un estimador insesgado es único, por consiguiente será un estimador insesgado de varianza uniformemente mínima.
TEOREMA 1.4 Lehman-Scheffé
Sea nXX ,,1 una muestra aleatoria de densidades );( xf , R . Si
),,( 1 nXXuZ es una estadística suficiente completa para )(g y existe un
estimador insesgado )(ZuU , para )(g , entonces U es único, luego U es un
estimador insesgado de varianza uniformemente mínima para )(g .
Ejemplo 1.16
Sea nXX ,...,1 una muestra aleatoria de densidades gamma ),4( con 0 .
Encuentre un estimador insesgado más eficiente para .
Solución
Primero se encuentra una estadística suficiente de , para ello se utiliza la función de
densidad conjunta
n
i
x
n
in
i
x
i
n
i
in
n
iii
ex
exxfxxf1
1
4
3
1
3
41
11
1
)4()4(
1),();,,(
En donde,
n
iix
n
n
ii ex 1
1
41
1
1,
y
n
i
in
xxx
1
3
12)4(
),,( .
Capítulo 1
25
Por lo tanto, una estadística suficiente de es
n
i
iXT1
.
Segundo se busca un estimador insesgado a partir de
n
i
iXT1
para lo cual se
obtiene su valor esperado
nXEXEn
i
n
i
i
n
i
i 44)()(111
.
Por lo tanto, el estimador insesgado de está dado por:
n
i
iXn
X14
1
4
1.
Luego, por el teorema de Rao-Blackwell resulta que XXXEUn
i
i4
1|
4
1
1
, es el
estimador insesgado de varianza uniformemente mínima. Además la familia de densidades gammas es completa, luego por el Teorema de Lehman-Sheffé es único, por tanto es el más eficiente.
1.3.4 Estimadores de menor varianza, cota inferior de Cramer-Rao
En los Teoremas de Rao-Blackwell y Lehman-Sheffé se estudiaron los estimadores
insesgados más eficientes, por medio de los cálculos de los estimadores insesgados de
varianza uniformemente mínima y los estimadores insesgados únicos, respectivamente. Ahora se verá un Teorema con el que se obtiene una cota para la varianza de los estimadores que no necesariamente deben ser insesgados, además no se pedirá la completitud de las familias de densidades.
Para esto se denota por LIC-R el límite inferior de Cramér-Rao y se define en forma general para una función del parámetro , )(g , por
2
2
);(ln
)()(
XfnE
ggLIC-R .
En donde, se denota por
2
);(ln)(
XfEI ,
Conceptos básicos y propiedades sobre los estimadores puntuales
26
a la llamada información de Fisher, así el límite inferior de Cramér-Rao para la función del parámetro , )(g , se puede escribir como
)(
)()(
2
nI
ggLIC-R
.
Resulta que si T es un estimador insesgado de , entonces RLICT )(2 . Es
decir, el LIC-R es el de menor varianza, para cualquier estimador insesgado. También el LIC-R se usa para estimar )(g cambiando por )(g .
TEOREMA 1.5 Cota inferior de Cramér-Rao
Sea nXX ,,1 una muestra aleatoria de densidades );( xf , R y );(log xf
diferenciable para toda x y y además )(0 I para toda R entonces
1. )()( TVargLIC-R , en donde T es un estimador insesgado de )(g .
2. )()()( TVarSgLIC-R , en donde T es un estimador sesgado de )(g , con
sesgo )(S .
A las desigualdades 1 y 2 del Teorema anterior se les llama desigualdades de Cramér-
Rao.
NOTAS
1. El Teorema sobre la cota inferior de Cramer-Rao, no es aplicable a funciones de densidad en donde el soporte de la variable contiene al parámetro en sus límites, porque tendrá que ser representada por la función indicadora y ésta no es diferenciable.
2. Del Teorema de la cota inferior de Cramér-Rao, para el caso en que T sea un estimador insesgado de )(g y satisface la igualdad
)()( TVargLIC-R , entonces automáticamente se cumple que T es el
estimador insesgado más eficiente para )(g .
Así, para encontrar un estimador eficiente de un parámetro, por otro método diferente al anterior (basado en los Teoremas de Rao-Blackwell y Lehman-Scheffé), que no requiere conocer si una familia de densidades es o no completa, se muestra a continuación.
Sea nXXX ,,, 21 una muestra aleatoria de densidades );( xf , para encontrar un
estimador insesgado más eficiente de )(g , se siguen los siguientes pasos:
Se calcula la información de Fisher para .
Capítulo 1
27
Se calcula la cota inferior de Cramér-Rao de )(g .
Se busca un estimador insesgado de )(g , sea este T, si cumple la igualdad
)()( TVargLIC-R , entonces T es el estimador insesgado más eficiente de )(g .
Ejemplo 1.17
Sea nXX ,,1 una muestra aleatoria de distribuciones Poisson, con parámetro . Con
ayuda del Teorema de la cota inferior de Cramér-Rao, encuentre el estimador insesgado de más eficiente.
Solución
Primeramente, se calcula la información de Fisher
1111
)!ln()ln(!
ln);(ln)(
2
2
2
2
222
XEX
E
XXEX
eEXfEI
X
Segundo se calcula el LIC-R( ):
nn
LIC-R
1
12
.
En tercer lugar se busca un estimador insesgado de cuya varianza sea n
. Se
propone XT . Para esto primero se verifica que sea insesgado, )()( XETE .
Luego, se calcula su varianza, )(-)(1
)()(
RLICn
XVn
XVTV . Así, el
estimador eficiente para es XT .
En muchas ocasiones la información de Fisher se puede calcular con el resultado del Teorema siguiente.
TEOREMA 1.6
Sea nXX ,,1 una muestra aleatoria de densidades );( xf , R y
);(log xf dos veces diferenciable para toda x y entonces
);(log)(
2
2
xfEI .
Conceptos básicos y propiedades sobre los estimadores puntuales
28
Ejemplo 1.18
Calcule la información de Fisher de la distribución de Poisson del ejemplo 1.17.
Solución
1
11
)!ln()ln(!
ln);(ln)(
22
2
2
2
2
2
2
XE
XE
XXEX
eEXfEI
X
El mejor estimador insesgado que se obtiene con la cota inferior de Cramer-Rao, también se puede calcular por medio del siguiente Corolario del Teorema de Cramer-Rao.
COROLARIO
Sea nXX ,,1 una muestra aleatoria de densidades );( xf , R y
satisface las condiciones del Teorema de Cramer-Rao. Además );( xXf es la
función de densidad conjunta de la muestra aleatoria. Luego, si ),,( 1 nXXTT
es un estimador insesgado de )(g , entonces ),,( 1 nXXTT se obtiene de la
cota inferior de Cramer-Rao si y solo si
);(log)()()(
xx XfgTh
,
para alguna función )(h .
Ejemplo 1.19
Sea nXX ,...,1 una muestra aleatoria de densidades normales con media 0 y desviación
estándar . Encuentra LIC-R para )ln( .
Solución
El LIC-R para 1)()( gg en este caso es
2
2
);(ln
)1(
XfnE
, para esto se
calcula la información de Fisher dada por
Capítulo 1
29
2
2
2
)ln(
2
2
2
)ln(
)2ln(2
1ln
2(
)ln(
2
1ln))ln(;(ln))(ln(
2
2
XE
eEXfEI
X
Para continuar el cálculo de ))(ln(I se hace la siguiente transformación
)ln(2)ln(2 2 ee , entonces:
22
8
241)(2)(
1
211
1
1)2ln(2
1ln
2(
)ln())(ln(
4
444
4
2224
4
2224)ln(4
222
4)ln(
2
2
2
)ln(
2
)ln(2
2
)ln(
2
)ln(2
2
)ln(
XEXE
XXEXEX
E
e
XE
e
XEI
Por lo tanto, n
RLIC2
1))(ln( .
1.4 ERROR CUADRADO MEDIO
En las secciones anteriores se estuvieron revisando los estimadores y sus propiedades para encontrar mejores estimadores. Se puede resumir que es recomendable que un estimador sea:
Insesgado del parámetro. Estadística suficiente del parámetro. De varianza mínima con respecto de los demás estimadores insesgados del
parámetro.
Así, para obtener el mejor estimador insesgado, se vio que aparte de pedir que se trate de una estadística suficiente, se requiere que sea de varianza uniformemente mínima, para lo cual se utilizan los Teoremas de Rao-Blackwell y Lehman-Scheffé.
Cuando se trata de estimadores sesgados se usa otra medida que represente la variabilidad con la que sea factible comparar diferentes tipos de estimadores para poder tomar la decisión de cuál de ellos es mejor.
Conceptos básicos y propiedades sobre los estimadores puntuales
30
Definición 1.11 Error cuadrado medio
Sea nXX ,,1 una muestra aleatoria de densidades );( xf , R y ),,( 1 nXXuT un estimador de )(g , se llama error cuadrado medio de )(g con
respecto de )(XuT a
)()(2
TecmgTE .
Obsérvese que el error cuadrado medio se parece al valor esperado del cuadrado del sesgo )()( gTE , pero en lugar del valor esperado del estimador se tiene a
)(gT .
PROPOSICIÓN
Sea nXX ,,1 una muestra aleatoria de una población con parámetro , R
y sea ),,( 1 nXXUT un estimador de )(g , entonces
)()()( 2 TSTVTecm .
En donde, )(TV y )(TS son la varianza y el sesgo de T con parámetro ,
respectivamente.
Demostración
Por definición:
)()(
)(0)(
)()()()()()(2)(
)()()()()()(
)()(
2
2
22
22
2
TSTV
TSTV
gTEgTETETETETE
gTETETEgTETETE
gTETecm
con lo que se concluye la demostración.
De la proposición se tiene que si T es un estimador insesgado de )(g , entonces
)()( TVecmT y por tal razón en el caso de estimadores insesgados se buscaba a los
que tuviesen la menor varianza.
Ampliando, la búsqueda anterior de los estimadores, sesgados o insesgados, con menor variabilidad se tendrá que remitir al estudio del error cuadrado medio. Es decir, si se tiene el parámetro y los estimadores, sesgados o insesgados, ,, 21 TT de )(g el mejor de ellos será el que tenga el menor error cuadrado medio.
Capítulo 1
31
Así, de forma similar al estimador insesgado de varianza uniformemente mínima, se puede hablar del estimador con error cuadrado medio uniformemente mínimo. Es decir, se desea encontrar al estimador *T de )(g , tal que
),()( * TecmTecm y todo estimador T de )(g .
Para el caso de estimadores insesgados se han revisado algunos resultados que ayudan a encontrar a dicho estimador, *T , pero el problema general resulta difícil y en la mayoría de las veces no existe. Por tal razón, con frecuencia se limita a encontrar el estimador, **T , que tiene el menor error cuadrado medio de los máximos de los errores cuadrados medios y a este estimador **T se le suele llamar el estimador mini-max.
Ejemplo 1.20
Sea X una variable aleatoria, 1,N . Considere el estimador 2X para 2 y calcule su error cuadrado medio.
Solución
El )()()( 2222 XSXVXecm , pero el sesgo está dado por 1)()()( 222 XVXEXS
, de donde 22 1)( XE .
Ahora para encontrar la )( 2XV , sea ZX entonces Z se distribuye 1,0N y 2Z se distribuye 2
1 , por lo tanto
2
4242
22432
222432234
222432234
22422
42
2163
)0(21)0(4)1(6)0(43
)(2)()(4)(6)(4)(
2464
)()()()(
ZEZEZEZEZEZE
ZZEZZZZE
ZEZEZVXV
entonces 2222 43)1()42()( Xecm .
1.5 MÉTODO DE MÁXIMA VEROSIMILITUD
A continuación revisaremos el método de máxima verosimilitud para determinar otro tipo de estimadores. El método de máxima verosimilitud considera un problema de estimación muy simple, se basa en la función de densidad conjunta de n variables
Conceptos básicos y propiedades sobre los estimadores puntuales
32
aleatorias nXX ,,1 , dependientes de los parámetros m ,,1 , sobre los cuales
maximizamos la función de densidad conjunta para el caso de una realización nxx ,,1 .
Definición 1.12 Función de verosimilitud
La función de verosimilitud de n variables aleatorias nXX ,,1 está definida
como la densidad conjunta de las n variables, es decir, );( θxf , la cual es
considerada como una función de m ,,1 . En particular, si nXX ,,1 es una
muestra aleatoria de densidades );( θxf , entonces la función de verosimilitud es
n
i
mixff1
1 ),,;();( θx .
NOTA
La función de verosimilitud es una función de m ,,1 y se suele utilizar la
notación );(),,;,,( 11 θxfxxL nm
Sea el espacio de parámetros, entonces se tiene que el problema de los estimadores de máxima verosimilitud consiste en determinar el valor de
θ),,( 1 m , el cual se denotará por θ̂ , y será tal que maximiza la función de
verosimilitud ),,;( 1 nxxL θ . El valor de θ̂ , que maximiza la función de verosimilitud en
general es una función de nxx ,,1 , es decir, ),,(ˆ1 nxxg θ .
Cuando esto sucede la variable aleatoria ),,(ˆ1 nXXg Θ se llama El estimador
de máxima verosimilitud del parámetro θ .
Definición 1.13 Estimador de máxima verosimilitud
Sea ),,;()( 1 nxxLL θθ la función de verosimilitud de las n variables aleatorias
nXX ,,1 . Si θ̂ (donde ),,(ˆ1 nxxg θ
es una función de las observaciones
nxx ,,1 ) es el valor de
θ con el que se maximiza )(θL , entonces la variable
aleatoria ),,(ˆ1 nXXg Θ es el estimador de máxima verosimilitud de θ . Mientras
que ),,(ˆ1 nxxg θ es el valor del estimador de máxima verosimilitud de θ para
la realización nxx ,,1 .
Como se puede apreciar el método de máxima verosimilitud es simple en su esencia, pero obviamente tiene todas las dificultades de la localización de máximos en una función, en donde se aplican las diferentes técnicas del cálculo como son: máximos y
mínimos relativos, máximos y mínimos absolutos y extremos de funciones monótonas, así como métodos numéricos.
Capítulo 1
33
Propiedades de los Estimadores de Máxima Verosimilitud
Siempre son funciones de la estadística suficiente minimal. Son los MAN.
Son consistentes en ECM (Error Cuadrado Medio). Son invariantes.
34
Capítulo 2
DISTANCIAS Y PRUEBAS DE BONDAD DE AJUSTE
En el presente capítulo se hablará de las distancias, así como también se mencionarán algunas de las funciones que existen para calcularla. Este capítulo es muy importante ya que el estadístico de prueba para realizar una prueba de bondad de ajuste sobre los datos muestrales proporcionados es precisamente una función de distancia, por ejemplo la prueba ji-cuadrada, lo que hace es medir la distancia entre la función de densidad de la variable empírica y la teórica. Así que es necesario dar una pequeña introducción de las funciones de distancia para poder entender la relación que tienen con las pruebas de bondad de ajuste.
Capítulo 2
35
2.1 EL PROBLEMA DE LA MEDICIÓN DE DISTANCIAS
Para la humanidad es muy importante conocer ciertas distancias porque esto indica una medida que separa la localización entre dos objetos. En estadística las funciones de distancia tienen una gran importancia cuando se trata de estimar algún parámetro. A continuación se definirán aspectos importantes de las funciones de distancia y en la siguiente sección se mencionarán algunas funciones de distancia.
Es conocido que una función de distancia está definida bajo un espacio métrico, es decir, una estructura matemática que permite la definición formal de la convergencia y continuidad, donde una distancia entre puntos está bien definida.
Definición 1.1 Espacio métrico
Se le llama espacio métrico a un conjunto M de puntos asociado con una función d , donde d es un función de distancia.
La distancia expresa la proximidad o lejanía entre dos objetos o el intervalo de tiempo que transcurre entre dos sucesos. Existen muchas funciones para calcularla, pero todas ellas deben cumplir con ciertas propiedades.
Definición 1.2 Función distancia
Sea d una función de la forma :d (donde es el conjunto de los números reales) para todo zyx ,, en M, de tal forma que satisface las siguientes
condiciones:
1.- 0, yxd
2.- 0, xxd (reflexividad)
3.- Si 0, yxd , entonces yx (identidad de los indiscernibles)
4.- xydyxd ,, (simétrica)
5.- zydyxdzxd ,,, (desigualdad del triangulo)
Entonces a d se le llama función de distancia.
Distancias y pruebas de Bondad de ajuste
36
2.2 TIPOS DE DISTANCIAS Y SUS MÉTRICAS
Existen infinidad de fórmulas para calcular distancias, así que en esta sección hablaremos sólo de algunas, por ejemplo de las más comunes tenemos la distancia Euclidiana.
Distancia Euclidiana
La distancia Euclidiana es la función de distancia más común, es la distancia ordinaria
entre dos puntos en n . Se calcula con la siguiente fórmula.
qxqxqx T
j
jjE qxd2
, .
La distancia euclidiana da el mismo peso a todas las direcciones del espacio que representa y se podría representar como un círculo entorno a un punto.
Uno de los problemas de la distancia euclidiana es que no tiene en cuenta si las variables están correlacionadas entre sí. De ahí se han derivado otras fórmulas donde incluyen una matriz de pesos M, tales como;
Euclidiana Pesada Diagonalmente
Esta distancia es una generalización de la anterior, pero agrega pesos a cada componente de los vectores. Se calcula por medio de
qxETT
j
jjjm dqxmd ,,2
qxΜΜqxqx .
donde jm es el factor de escala o peso en la dimensión j y Μ es una matriz diagonal
con jjj mΜ .
Euclidiana completa o Mahalanobis.
Es una medida de distancia que fue introducida por Mahalanobis en 1936, la utilidad de esta distancia radica en que es una forma de determinar la similitud entre dos variables aleatorias multidimensionales. Se diferencia de la distancia Euclidiana en que tiene en cuenta la correlación entre las variables aleatorias
qxΣqxqxΣ 1,T
d .
Donde Σ es la matriz de varianzas y covarianzas.
Capítulo 2
37
Para entender mejor esta distancia, se muestra el ejemplo siguiente.
Ejemplo 2.1
Un pescador quiere medir la similitud entre dos salmones, por ejemplo porque quiere clasificarlos en dos tipos para su venta y poder así vender los grandes más caros. Para
cada salmón mide su anchura y su longitud. Con estos datos construye un vector qx,
donde nxxx ,,, 21 x y nyyy ,,, 21 q .
La longitud de los salmones pescados es una variable aleatoria que toma valores entre 50 y 100 cm, mientras que su anchura está entre 10 y 20 cm. Si el pescador usase la distancia euclídea
qxqxqx T
j
jjE qxd2
,
al ser las diferencias de anchura menos cuantiosas que las de longitud, les estará dando menos importancia. Por esta razón, el pescador decide incorporar la estadística de los datos a la medida de distancia, ponderando según su varianza: las variables con menos varianza tendrán más importancia que las de mayor varianza. De esta forma pretende igualar la importancia de la anchura y la longitud en el resultado final. La expresión quedaría
qxqxqxΣ 1, SdT
Donde S es una matriz diagonal cuyos elementos en la diagonal iiis .
Pero la expresión anterior tiene un problema, y es que la longitud y anchura de los salmones no son independientes; es decir, la anchura depende en cierta forma de la longitud, pues es más probable que un salmón largo sea también más ancho. Para incorporar la dependencia entre las dos variables el pescador puede sustituir la matriz
diagonal S por la matriz de covarianza
Que es la distancia de Mahalanobis.
qxΣqxqxΣ 1,T
d
Distancias y pruebas de Bondad de ajuste
38
Distancia de Minkowski.
Una distancia que se define dentro de la geometría de los números para los espacios pL
en donde 0p , lleva el nombre del matemático Ruso Herman Minkowski
(nacionalizado alemán) dada por
p
j
p
jjp qxd
/1
,
qx
Distancia Kolmogórov-Smirnov (K-S)
Una distancia que se define para mostrar la cercanía entre dos distribuciones teórica y empírica, lleva el nombre de los matemáticos Rusos Andrei Kolmogórov y Smirnov, ésta se define de la siguiente forma
|)()(|sup 0 xFxFD nx
n
.
En donde, )(xFn y )(0 xF son las distribuciones empírica y teórica de la variable aleatoria
X , respectivamente.
Anderson-Darling (A-D)
Esta es una variante de la distancia K-S, en el que se asigna a las discrepancias entre la distribución empírica y la teórica un peso o ponderación diferente. La prueba A-D es considerada más potente que la prueba de K-S para detectar discrepancias en las “colas” de las distribuciones.
El estadístico 2
nAD se define con la siguiente expresión,
dxxfxxFxFnAD nn
2
0
2 )()(
Donde la función de pesos es,
xFxF
x00 1
1
.
Distancia ji-cuadrada
Una distancia entre frecuencias teóricas y muestrales lleva el nombre de Ji-cuadrada
Capítulo 2
39
k
i i
iic
np
npn
1
22 )(
Donde,
in es el número de datos en la clase i .
n es el tamaño de la muestra.
ip es la probabilidad de que la variable aleatoria X (poblacional) tome valores en
el intervalo i .
Distancia Levy (Yakowitz, 1969)
Esta es una distancia en el espacio de funciones de distribución acumulada de variables aleatorias unidimensional. Este es un caso especial de la distancia Lévy–Prokhorov.
Sean 1,0:, GF dos funciones de distribución acumulada. La Distancia
Lèvy entre estas dos se define como
xFxGxFGFL 0inf, para toda x
Distancia Cramér-Von Mises (Macdonald, 1971)
Esta distancia además de ser útil en el ajuste de distribuciones también se utiliza como parte de otros algoritmos, tales como la estimación de mínima distancia. Se define como
xdFxFxFw n
*2*2
Para el uso en pruebas de bondad de ajuste *F es la distribución teórica y nF es
la distribución empírica. Para la estimación de mínima distancia las dos distribuciones son empíricas, esta generalización es debida a Theodore Wilbur Anderson.
Distancia Hellinger (Woodward, Whitney, Eslinger, 1995)
La distancia de Hellinger se define en términos de “La Integral de Hellinger”, que fue introducida por Ernst Hellinger. Si P y Q denotan dos medidas de probabilidad, absolutamente continuas con respecto a una tercera medida . La distancia Hellinger se define de la siguiente forma
Distancias y pruebas de Bondad de ajuste
40
d
d
dQ
d
dPQPH
2
2
2
1,
donde ddP y ddQ son las derivadas Radon–Nikodym de P y Q, respectivamente.
Esta definición no depende de , así que la distancia de Hellinger entre P y Q no cambia si se sustituye por otra medida de probabilidad con respecto a la cual P y Q son absolutamente continuos. Para la compacticidad, la fórmula antedicha se escribe a menudo como
22
2
1, dQdPQPH
Divergencia de Kullback-Leibler (1951)
Existen otras formas de medir la similitud entre dos funciones de distribución, que se conoce de forma más apropiada como “divergencia” en lugar de distancia, debido a que no cumple la propiedad de simetría. Un ejemplo de este tipo se refiere a la divergencia de Kullback-Leibler la cual está íntimamente relacionada con el método de ajuste de distribuciones por máxima verosimilitud.
Si se tienen n observaciones nxx ,,1 independientes de una variable aleatoria
con función de densidad desconocida f y se tratan de ajustar dentro de una familia de
funciones de densidad f , de acuerdo con la teoría de máxima verosimilitud se busca el
parámetro que minimiza la función
i
ixfL )(log
que puede aproximarse (cuando n es grande) por
dxxfxf )(log)(
Restando dicha expresión del término constante
dxxfxf )(log)(
Se obtiene
Capítulo 2
41
dxxf
xfxfdxxfxfdxxfxf
)(
)(log)()(log)()(log)(
que es la divergencia de Kullback-Leibler entre f y la distribución verdadera
determinada por f . Es decir, maximizar la función de verosimilitud es (aproximadamente) equivalente a encontrar el parámetro que minimiza la divergencia de Kullback-Leibler entre la distribución real y la familia de distribuciones parametrizadas por dicho parámetro.
2.3 PRUEBAS DE BONDAD DE AJUSTE
Hasta el momento se ha hablado de varios conceptos importantes en el estudio de la estadística, como los estimadores y algunos métodos para encontrar el mejor estimador. Ahora se hablará sobre las pruebas de bondad de ajuste, indicando algunas de las pruebas principales y la distancia que tienen.
Dada nXXX ,,, 21 una muestra aleatoria con distribución F , un problema
básico en estadística consiste en encontrar un modelo que proporcione información de la procedencia de los datos. Por ejemplo, supóngase que es de interés conocer hasta qué
punto es razonable suponer que los datos provienen de una cierta distribución 0F . Las
pruebas estadísticas destinadas a la resolución de este tipo de problemas son llamadas Pruebas de Bondad de Ajuste.
Definición 1.3 Prueba de bondad de ajuste
Una prueba de bondad de ajuste es un procedimiento estadístico para probar la hipótesis de que una función de distribución particular ajusta un conjunto de datos observados sin especificar una prueba de hipótesis alternativa.
Sea nXXX ,,, 21 una muestra aleatoria de una función de densidad )(xFX .
Cuando se enfrenta el problema de construir una prueba de bondad de ajuste para la hipótesis nula
)()(: 00 xFxFH X ,
Distancias y pruebas de Bondad de ajuste
42
donde )(0 xF denota una familia de distribuciones, no se cuenta con un criterio general
para construirla. Sin embargo, al revisar la literatura se observa que muchas pruebas se han obtenido con base en alguno de los siguientes criterios.
Pruebas basadas en la función de distribución empírica
Estas pruebas están basadas en una comparación de la función de distribución empírica (f. d. e.) con la f. d. teórica. La estadística de prueba es de la forma:
)(),(011 xFxFdT n ,
donde )(),(01 xFxFd n es una función de distancia y ,xFn denota la f. d. e. la cual se
define como
n
xsxxF i
n
de#)( ,
donde las ix ’s son una realización de la muestra aleatoria.
Un ejemplo se refiere a la estadística de Kolmogórov
|)()(|sup 0 xFxFD nx
n
.
Otro la estadística de Andrson-Darling
dxxfxxFxFnAD nn
2
0
2 )()(
.
Las cuales fueron mencionadas en la sección 2.2.
La prueba de Kolmogórov-Smirnov es una de las pruebas no paramétricas más importantes, por tales razones se estudiarán detalladamente en el siguiente capítulo.
La distribución de alguna estadística de este tipo no depende de la distribución de )(0 xF .
Pruebas basadas en la función característica empírica
Sea )(0 x la función característica (f. c.) de )(0 xF y sea )(xn la f. c. empírica definida
como
Capítulo 2
43
n
i
in tiitxn
x1
.,1},exp{1
)(
La estadística de este tipo de pruebas es de la forma
))(),((22 xxdT nn .
donde ))(),((2 xxd n es una función de distancia, tal que 0))(),((2 xxd n si y sólo si
)()( xx n .
Pruebas basadas en momentos
Otro criterio para construir pruebas de bondad de ajuste consiste en comparar algunos momentos poblacionales con los momentos muéstrales correspondientes. El k-ésimo momento central de )(0 xF , k>0, se define como
)()( 0 xdFx k
k
donde
)(0 xxdF y el k-ésimo momento central y una estadística está dada por
n
i
kik xx
nm
1
_
)(1
,
donde
n
i ixn
x1
1.
Ejemplo la estadística
22
4
m
mbi
A pesar de que los k-ésimos momentos de dos distribuciones distintas pueden ser iguales para algunos valores de k, existen muchas pruebas basadas en este criterio.
Pruebas de correlación y regresión
Sea )(0 xF una f. d. que depende únicamente de parámetros de localidad y escala,
02 y . Sea ),,,( )()2()1(0 nXXX el vector de estadísticas de orden
correspondientes a la m. a. nXXX ,,, 21 . Sea ),,,( )()2()1(0 nZZZ una m.a.
Distancias y pruebas de Bondad de ajuste
44
ordenada de la f.d. )(0 xF con parámetros 00 2 y y sean
),,,( 21 nmmm m y ijvV el vector de medias y la matriz de covarianzas de 0Z ,
respectivamente. Entonces,
niZX i
d
i ,,1,)()(
Una prueba de correlación compara dos estimadores de 2 .
Un ejemplo de este tipo es la prueba de Shapiro y Wilk (1965) para probar normalidad univariada cuya estadística de prueba es
n
i
i
n
i
ii
xx
xa
W
1
2_
1
)(
)(
.
Para ciertas constantes .,,, 21 naaa
Una prueba de regresión consiste en medir la linealidad entre 0X y m.
Pruebas basadas en caracterizaciones
Se dice que una propiedad caracteriza la distribución 0F cuando dicha propiedad se
cumple si y solo si 0F es verdadera.
Se dice que una prueba se basa en una caracterización de 0F cuando se prueba
que se cumple la propiedad característica en lugar de probar directamente que se cumple 0F .
Técnica gráfica Q-Q, para una prueba de ajuste de distribuciones
Estas gráficas son de mucha utilidad para conocer la distribución de una población, la prueba gráfica del ajuste de curvas se puede hacer de la siguiente forma.
1. En caso de tener una gran cantidad de datos, primeramente descomponemos en clases de frecuencia y posteriormente trazamos un histograma de las clases, con el objetivo de identificar una posible distribución de los datos según las distribuciones teóricas vistas en probabilidad.
Capítulo 2
45
2. Se ordenan los datos nxxx ,,, 21 en forma no decreciente, denotemos por
nyyy 21 al iy cuantil ni de la muestra, cuya fracción corresponde a la
probabilidad estimada para la variable X que representa a los datos y cuya distribución desconocemos.
NOTA
En la práctica se acostumbra tomar las fracciones ni )5.0( para definir los cuantiles muestrales (de esta forma se asegura que no se obtendrá 0 o 1 sólo una aproximación).
3. Calculamos los cuantiles teóricos (según la distribución que se cree que provienen los datos), y que denotaremos por nqqq ,,, 21 , correspondientes a los cuantiles
muestrales nyyy ,,, 21 . Es decir, nqqq 21 y son tales que
n
iqP i
5.0 , para ni ,,2,1 .
4. Trazamos la gráfica entre los cuantiles teóricos ( nqqq ,,, 21 ) y muestrales
( nyyy ,,, 21 ), falta concluir si la distribución propuesta para X , con la que se
calcularon los cuantiles teóricos, es válida. La conclusión se basa en la gráfica cuantil (teórico eje de las abscisas) contra cuantil (muestral eje de las ordenadas), si la gráfica se asemeja a una línea recta, entonces se dice que los datos si provienen de la distribución teórica propuesta.
Ejemplo 2.2
Con los siguientes datos y la técnica gráfica Q-Q determine su distribución.
10,66 10,21 0,57 18,21 9,11 18,98 29,41 11,61 95,83 4,19 54,26 14,66
7,52 27,19 2,57 4,09 7,44 27,52 4,06 17,11 81,07 12,59 0,81 7,11
50,38 9,23 1,47 8,93 3,65 21,48 3,14 4,88 91,64 1,92 31,02 10,00
0,37 26,83 15,29 16,06 63,83 35,99 108,13 10,74 3,17 9,71 21,96 12,57
25,89 22,57 0,26 33,87 8,29 8,92 39,73 3,34 46,17 5,59 20,16 4,07
48,73 12,79 11,55 12,12 18,62 5,32 17,01 82,00 22,85 21,36 12,17 18,00
54,80 1,15 14,70 8,74 16,28 3,92 2,13 0,91 9,03 18,56 37,51 0,77
29,63 70,36 23,51 14,56 30,27 3,31 48,45 11,17 26,04 1,82 7,19 1,48
3,25 9,20 0,12 27,55 12,44 6,77 0,41 8,77 32,24 12,51 50,69 8,56
28,22 26,98 34,87 67,96 7,98 12,51 2,93 2,90 37,32 39,33 1,89 57,94
Tabla 2.1 Datos del ejemplo 2.2 para probar normalidad.
Distancias y pruebas de Bondad de ajuste
46
1. Distribuimos los 120 datos en 10 clases de frecuencia y trazamos un histograma
resultando
Intervalo i in n
nf i
i m
ix
[0.12, 10.921) 53 0,442 5,52
[10.921, 21.722) 27 0,225 16,32
[21.722, 32.523) 17 0,142 27,12
[32.523, 43.324) 7 0,058 37,92
[43.324, 54.125) 5 0,042 48,72
[54.125, 64.926) 4 0,033 59,53
[64.926, 75.727 2 0,017 70,33
[75.727, 86.528) 2 0,017 81,13
[86.528, 97,329) 2 0,017 91,93
[97.329, 108.13) 1 0,008 102,73
Tabla 2.2 Clases de frecuencia para los datos del ejemplo 2.2
Fig. 2.1. Histograma de la tabla de frecuencias del ejercicio 1
Basandonos en el histograma y la marca por clase se puede pensar que los datos provienen de una distribución Gamma con 1 y 21 fx .
2. Ordenamos los datos en forma no decreciente nyyy 21 .
0,12 0,26 0,37 0,41 0,57 0,77 0,81 0,91 1,15 1,47 1,48 1,82
1,89 1,92 2,13 2,57 2,9 2,93 3,14 3,17 3,25 3,31 3,34 3,65
3,92 4,06 4,07 4,09 4,19 4,88 5,32 5,59 6,77 7,11 7,19 7,44
Capítulo 2
47
7,52 7,98 8,29 8,56 8,74 8,77 8,92 8,93 9,03 9,11 9,2 9,23
9,71 10 10,21 10,66 10,74 11,17 11,55 11,61 12,12 12,17 12,44 12,51
12,51 12,57 12,59 12,79 14,56 14,66 14,7 15,29 16,06 16,28 17,01 17,11
18 18,21 18,56 18,62 18,98 20,16 21,36 21,48 21,96 22,57 22,85 23,51
25,89 26,04 26,83 26,98 27,19 27,52 27,55 28,22 29,41 29,63 30,27 31,02
32,24 33,87 34,87 35,99 37,32 37,51 39,33 39,73 46,17 48,45 48,73 50,38
50,69 54,26 54,8 57,94 63,83 67,96 70,36 81,07 82 91,64 95,83 108,13
y calculamos las fracciones ni 5.0 para sus correspondientes cuantiles teóricos
-0,452 -0,416 -0,388 -0,378 -0,337 -0,286 -0,276 -0,250 -0,189 -0,107 -0,1046 -0,0179
0,000 0,008 0,061 0,173 0,258 0,265 0,319 0,327 0,347 0,362 0,3699 0,44898
0,518 0,554 0,556 0,561 0,587 0,763 0,875 0,944 1,245 1,332 1,35204 1,41582
1,436 1,554 1,633 1,702 1,747 1,755 1,793 1,796 1,821 1,842 1,8648 1,87245
1,995 2,069 2,122 2,237 2,258 2,367 2,464 2,480 2,610 2,622 2,69133 2,70918
2,709 2,724 2,730 2,781 3,232 3,258 3,268 3,418 3,615 3,671 3,85714 3,88265
4,110 4,163 4,253 4,268 4,360 4,661 4,967 4,997 5,120 5,276 5,34694 5,51531
6,122 6,161 6,362 6,401 6,454 6,538 6,546 6,717 7,020 7,077 7,2398 7,43112
7,742 8,158 8,413 8,699 9,038 9,087 9,551 9,653 11,296 11,878 11,949 12,3699
12,449 13,360 13,497 14,298 15,801 16,855 17,467 20,199 20,436 22,895 23,9643 27,102
3. Calculamos los cuantiles teóricos nqqq ,,, 21 correspondientes a las fracciones
anteriores, suponiendo una distribución Gamma con 1 y 21 fx . Es decir
n
idxqF
iqx
i
5.0
21
1
0
21
.
Luego
n
iqi
05.01 .
Por lo tanto los cuantiles teóricos son
0,000 0,001 0,442 0,622 0,803 0,985 1,169 1,355 1,543 1,732 1,92291 2,11557
0,005 0,006 2,704 2,904 3,106 3,310 3,516 3,724 3,934 4,146 4,36043 4,57692
0,011 0,011 5,240 5,466 5,694 5,925 6,158 6,394 6,633 6,874 7,11848 7,36554
0,017 0,018 8,125 8,384 8,646 8,912 9,181 9,454 9,731 10,011 10,2943 10,582
0,025 0,025 11,469 11,774 12,083 12,396 12,714 13,037 13,365 13,699 14,0375 14,3818
0,033 0,034 15,450 15,818 16,193 16,575 16,964 17,360 17,764 18,176 18,5959 19,0245
Distancias y pruebas de Bondad de ajuste
48
0,044 0,045 20,365 20,832 21,309 21,798 22,298 22,810 23,335 23,874 24,4262 24,9938
0,058 0,059 26,795 27,431 28,088 28,765 29,465 30,189 30,939 31,717 32,5251 33,3652
0,078 0,080 36,108 37,108 38,159 39,264 40,431 41,667 42,980 44,380 45,8808 47,497
0,112 0,116 53,260 55,596 58,224 61,229 64,738 68,952 74,229 81,295 92,0226 115,093
4. Finalmente se construye la gráfica Q-Q, con las parejas de cuantiles ii yq , ,
ni ,,2,1 .
Fig. 2.2. Gráfica Q-Q de los datos muestrales del ejercicio 1
Como se puede apreciar la gráfica se asemeja a una linea recta, asi que se concluye que los datos provienen de la distribucion propuesta; )21,1( .
La mayoría de los métodos estadísticos clásicos están diseñados para datos que tienen un comportamiento normal. Por tal razón, se tiene una gran cantidad de pruebas de bondad de ajuste para verificar si los datos muestrales cumplen la normalidad. En el caso de la distribución normal se tiene un mayor conocimiento del resultado posible.
La técnica Q-Q para normalidad consiste en los 4 pasos mencionados, pero según el resultado de la gráfica cuantil contra cuantil del paso 4, se pueden hacer conclusiones más completas. Por ejemplo, en el paso 4 puede resultar alguno de los siguientes casos.
Capítulo 2
49
Fig. 2.3. En (i) se muestra una distribución normal de los datos, entonces 01 CA y 01 CU .
(ii) indica que los datos tienen colas más pesadas que la normal, 01 CA y 01 CU .
(iii) indica que los datos tienen colas más ligeras que la normal, 01 CA y 01 CU .
(iv) indica que los datos tiene una distribución no simétrica, 01 CA .
Donde 1CA y 1CU son el coeficiente de asimetría y la curtosis respectivamente.
Ejemplo 2.3
Con los siguientes datos y la técnica gráfica Q-Q determine si existe o no evidencias de normalidad en su distribución.
10.10 4.60 3.23 8.75 10.33 5.75 7.38 2.65 7.08 9.14 3.84 6.98
6.55 8.43 -0.71 4.81 2.11 6.52 9.81 9.85 12.12 4.50 5.31 13.15
6.29 9.03 7.83 5.94 11.11 9.02 5.56 6.00 6.04 4.95 7.93 13.32
12.63 7.15 8.41 11.77 3.32 11.78 11.28 10.48 8.93 8.19 10.84 10.18
10.42 14.62 8.53 11.14 6.27 11.94 8.81 5.93 5.19 12.39 13.43 10.04
Tabla 2.3 Datos del ejemplo 2.3 para probar normalidad.
1. Distribuimos lo 60 datos en 6 clases e frecuencia resultando
Intervalo i in n
nf i
i m
ix
[-0.71, 1.845) 1 0,017 0.5675
[1.845, 4.400) 5 0,083 3.1225
[4.400, 6.955) 16 0,267 5.6775
[6.955, 9.510) 16 0,267 8.2325
[9.510, 12.060) 15 0,250 10.7875
[12.060, 14.620) 7 0,117 13.3425
Tabla 2.4 Clases de frecuencia para los datos del ejemplo 2.3
i ii iii iv
Distancias y pruebas de Bondad de ajuste
50
Fig. 2.4. Histograma de la tabla de frecuencias del ejercicio 2
De las frecuencias con sus marcas de clase y el histograma correspondiente podemos apreciar que si existe cierto comportamiento normal, con media y desviación estándar que se aproximan a las muestrales 8.15 y 3.19, respectivamente.
2. Ordenamos los datos en forma no decreciente nyyy 21 .
-0.71 2.11 2.65 3.23 3.32 3.84 4.5 4.6 4.81 4.95 5.19 5.31
5.56 5.75 5.93 5.94 6.00 6.04 6.27 6.29 6.52 6.55 6.98 7.08
7.15 7.38 7.83 7.93 8.19 8.41 8.43 8.53 8.75 8.81 8.93 9.02
9.03 9.14 9.81 9.85 10.04 10.1 10.18 10.33 10.42 10.48 10.84 11.11
11.14 11.28 11.77 11.78 11.94 12.12 12.39 12.63 13.15 13.32 13.43 14.62
Calculamos las fracciones ni 5.0 para sus correspondientes cuantiles teóricos
0.008 0.025 0.042 0.058 0.075 0.092 0.108 0.125 0.142 0.158 0.175 0.192
0.208 0.225 0.242 0.258 0.275 0.292 0.308 0.325 0.342 0.358 0.375 0.392
0.408 0.425 0.442 0.458 0.475 0.492 0.508 0.525 0.542 0.558 0.575 0.592
0.608 0.625 0.642 0.658 0.675 0.692 0.708 0.725 0.742 0.758 0.775 0.792
0.808 0.825 0.842 0.858 0.875 0.892 0.908 0.925 0.942 0.958 0.975 0.992
Capítulo 2
51
3. Calculamos los cuantiles teóricos nqqq ,,, 21 correspondientes a las fracciones
anteriores, suponiendo una distribución normal con media 15.8 y 19.3 .
Es decir,
n
idweqF
iq w
i
5.0
219.3
1)(
2
2
)19.3(2
)15.8(
.
Estandarizando tendríamos
n
iqdzeqF i
q
z
i
i
5.0
19.3
15.8
2
1)(
19.3
15.8
2
2
,
al despejar a iq
n
iqi
5.019.315.8 1 .
Así, resulta que los cuantiles teóricos iq serían:
0.513 1.898 2.625 3.145 3.556 3.904 4.210 4.482 4.727 4.957 5.167 5.368
5.560 5.742 5.914 6.083 6.242 6.399 6.552 6.702 6.848 6.992 7.132 7.273
7.410 7.547 7.681 7.815 7.949 8.083 8.217 8.351 8.485 8.619 8.753 8.890
9.027 9.168 9.308 9.452 9.598 9.748 9.901 10.058 10.217 10.386 10.558 10.740
10.932 11.133 11.343 11.573 11.819 12.090 12.396 12.744 13.155 13.675 14.402 15.787
4. Finalmente se construye la gráfica Q-Q, con las parejas de cuantiles ii yq , ,
ni ,,2,1 .
Distancias y pruebas de Bondad de ajuste
52
Fig. 2.5. Grafica Q-Q de los datos muestrales del ejerciocio 2
Como se puede observar la grafica Q-Q, se asemeja a una recta, por lo tanto da evidencia de normalidad.
Podemos calcular su coeficiente de asimetría y la curtosis, obteniendo,
248.01 CA y 244.01 CU . Lo que corrobora aún más el resultado, porque ambos
son próximos a cero y negativos esto indica que existe un sesgo pequeño a la izquierda y que su distribución es un poco más aplanada o con colas ligeramente más pesadas que la normal
Técnica analítica Q-Q, para una prueba de normalidad
La prueba de normalidad para datos es muy importante debido a que muchos fenómenos se comportan de forma normal o aproximadamente normal. Por tal razón, veremos otra técnica para probar normalidad de los datos que también se basa en los cuantiles, pero que no recurre a las gráficas y se le da el nombre de técnica analítica Q-Q.
La técnica consiste en lo siguiente, se calculan los cuantiles muestrales,
nyyy 21 , y sus correspondientes cuantiles teóricos, nqqq 21 , tal y como
se hizo en la subsección anterior. Posteriormente, con dichos cuantiles se calcula su coeficiente de correlación, con la fórmula:
Capítulo 2
53
n
i
i
n
i
i
n
i
ii
Q
qqyy
qqyy
r
1
2
1
2
1 .
Luego, el valor obtenido se compara con los valores de la siguiente tabla, llamados valores críticos para la prueba de normalidad con base en el coeficiente de correlación de los cuantiles de la gráfica Q-Q.
Tamaño de la
muestra
Nivel de significación de la prueba
0.01 0.05 0.10
10 0.880 0.918 0.935
15 0.911 0.938 0.951
20 0.929 0.950 0.960
25 0.941 0.958 0.966
30 0.949 0.964 0.971
35 0.955 0.968 0.974
40 0.960 0.972 0.977
50 0.966 0.976 0.981
60 0.971 0.980 0.984
75 0.976 0.984 0.987
100 0.981 0.986 0.989
150 0.987 0.991 0.992
200 0.990 0.993 0.994
Tabla 2.5 Valores críticos para la prueba de normalidad
Finalmente, la conclusión se lleva a cabo con base en la siguiente regla:
Los datos muestrales nxxx ,,, 21 dan evidencia de normalidad, por el método analítico
Q-Q, al nivel de significancia de la prueba elegida (0.01, 0.05 o 0.10), si *rrQ ,
en donde *r es el valor de la tabla 8, para el tamaño de la muestra y nivel de significancia de la prueba. En caso contrario, se dice que los datos no dan evidencias para considerar que provienen de una distribución normal.
54
Capítulo 3
ALGUNAS PRUEBAS DE BONDAD DE AJUSTE
INTRODUCCIÓN
En éste capítulo se presenta de manera más formal que en el capítulo previo a las pruebas más comunes para determinar si un conjunto de observaciones dado proviene o no de una distribución conocida, a éstas se les conoce como pruebas de bondad de ajuste.
Entre las pruebas que serán revisadas están la prueba ji-cuadrada, la prueba de Kolmogórov-Smirnov que es caracterizada por ser es una prueba de bondad de ajuste del tipo no paramétrico, ésta se interesa en el grado de acuerdo entre la distribución de un conjunto de valores de la muestra y alguna distribución teórica especifica. Otra prueba muy utilizada es la de normalidad de Shapiro-Wilk. También se hablará sobre la prueba de normalidad D’Agostino, prueba de normalidad de Lilliefors y la prueba de normalidad de Filliben.
Capítulo 3
55
3.1 PRUEBA JI-CUADRADA
Sea nXXX ,,, 21 una muestra aleatoria de tamaño n , de alguna función de densidad;
la prueba ji-cuadrada (paramétrica) para el contraste de hipótesis
:0H la distribución es );( xf
:1H la distribución no es );( xf
Se basa en la comparación de las frecuencias observadas por clase, contra las frecuencias esperadas o teóricas, suponiendo que 0H es cierta, es decir, que la
distribución poblacional es );( xf .
Para esta prueba es necesario agrupar o distribuir las observaciones de la muestra en intervalos de clase, preferentemente del mismo tamaño,
El estadístico de prueba está definido por:
k
i i
iic
np
npn
1
22 )(
.
En donde
in es el número de datos en la clase i .
n es tamaño de la muestra.
ip es la probabilidad de que la variable aleatoria X (poblacional) tome valores en
el intervalo i .
En ocasiones se simboliza
esperada frecuencia
observada frecuencia
ii
ii
Fenp
Fon
Para ver qué distribución sigue el estadístico 2
c se considera la siguiente situación:
Suponga que las observaciones de la muestra pueden clasificarse en dos intervalos o categorías 1Y y 2Y . Sea 1Y el número de observaciones que caen en la categoría uno y
sea 1p su respectiva probabilidad.
Si el tamaño de muestra es lo suficientemente grande, 1Y (sigue una distribución binomial) puede aproximarse por una distribución normal con valor esperado 1np y varianza )1( 11 pnp . Por lo tanto, la variable Z definida a continuación sigue una
distribución normal estándar, y 2Z una distribución ji cuadrada con un grado de libertad.
Algunas pruebas de Bondad de ajuste
56
)1,0(~)1( 11
11 Npnp
npYZ
y
21
11
211
2
11
112 ~)1()1(
pnp
npY
pnp
npYZ
.
Si se define 2Y como 12 YnY y 12 1 pp se tiene que 2Z se puede representar
de la siguiente manera
21
2
222
1
211
22
222
2
22
222 ~)1()1(
np
npY
np
npY
pnp
npY
pnp
npYZ
(Ver anexo 2).
Ahora supóngase que las observaciones pueden clasificarse no en dos sino en k clasificaciones mutuamente excluyentes, y sean iY y ip el número de variables que caen en la categoría i y la probabilidad respectiva. La distribución conjunta de kYYY ,,, 21
tiene una distribución multinomial con parámetros npppn ,,,, 21 ; donde
1211 kk pppp . Se puede demostrar que la variable aleatoria 2Z , definida a continuación, sigue una distribución ji-cuadrada con 1mk grados de libertad.
2
1
1
22
2
2
22
1
2
112 ~
mk
k
i i
ii
k
kk
np
npY
np
npY
np
npY
np
npYZ
Comparando la expresión anterior con el estadístico 2
c definido previamente, se observa que este estadístico sigue también la distribución ji-cuadrada con 1mk grados de libertad, siendo k el número de clases en la tabla de distribución de frecuencias y m el número de parámetros estimados para definir completamente la función );( xf .
Regla de decisión:
Rechazar :0H la distribución es );( xf , al nivel de significancia , si
),1(22 mktc .
NOTA
Se debe cuidar que la frecuencia en cada una de las clases construidas en la tabla de frecuencias sean mayores o iguales a 5, en caso contrario se agrupan las clases contiguas, para que su frecuencia sea mayor o igual a 5.
La ventaja de esta prueba es que se aplica tanto para variables aleatorias continuas como discretas
Capítulo 3
57
Fig. 3.1. Zona de rechazo y punto crítico de la prueba ji-cuadrada
Algunas consideraciones que hay que tener en cuenta con respecto a la aplicación de esta prueba son las siguientes:
a) El número de intervalos de clase debe ser por lo menos cinco. Para facilidad de los cálculos y la identificación de la posible distribución se recomienda que 20k .
b) El número esperado de observaciones en cada intervalo debe ser mayor o igual a cinco, en caso contrario, deberían agruparse varios intervalos para lograr esto.
c) Al realizar los cálculos para ip hay que tener en cuenta los intervalos extremos como casos especiales, a saber:
Calculo de 1p
Aunque el primer intervalo incluye aquellos valores observados que están entre 0X y 1X , sólo corresponde a los resultados de una muestra. El hecho de que no se hayan observado en la muestra valores 0X no implica que en la población de donde se toma la muestra no se puedan presentar valores 0X . Por lo tanto, el cálculo de 1p corresponde a la probabilidad de que la variable aleatoria sea menor o igual que 1X , y
no únicamente entre 0X y 1X . Es decir
)()()()( 1111
1
xFdxxfxXPxXPp
x
para el caso continuo.
)()()()( 1111
1
xFdxxfxXPxXPpx
para el caso discreto.
Calculo de np
De manera similar, el último intervalo corresponde no sólo a los valores que están entre
1kX y kX , sino que comprende también los valores de la población que sean mayores
Punto crítico
Zona de rechazo
Algunas pruebas de Bondad de ajuste
58
que kX , así éstos no se hayan presentado en la muestra. Por lo tanto, kp se calcula
como
)(1)(1)()( 11
1
1
k
x
x
kk xFdxxfdxxfxXPpk
k
para el caso continuo.
)(1)(1)()( 11
1
1
k
x
x
kk xFdxxfdxxfxXPpk
k
para el caso discreto.
Ejemplo 3.1
Probar si los siguientes datos siguen una distribución normal e indique sus parámetros, con un nivel de significancia del 5%.
88.5 87.7 83.4 91.1 86.7 87.5
91 94.2 87.8 89.9 88.3 87.6
94.2 92.7 93.2 91 90.3 93.4
88.6 90.9 89 96.1 93.3 91.8
89.8 89.6 87.4 88.9 91.2 89.3
92.6 89.9 90.6 91.1 90.4 89.3
92.2 92.2 91.2 91 92.2 90
88.6 100.3 95.6 93.3 94.7 91.5
86.7 88.2 90.8 88.3 98.8 84.3
90.1 89.2 88.3 85.3 87.9 88.5
90.4 90.1 93 88.7 89.9 92.3
92.7 91.8 91.6 90.4 91.1 94.4
90.3 91.6 90.5 93.7 92.7 89.7
Tabla 3.1 Datos de la muestra para probar normalidad del ejemplo 3.1.
Fuente: Datos de octanaje de varias mezclas de gasolina fueron tomados de un artículo en Technometrics (vol. 19, p. 425), revista dedicada a las aplicaciones estadísticas en ciencias físicas e ingeniería.
Solución
Calculando la media y desviación estándar, se tiene que 82.2ˆ;67.90ˆ .
El número de intervalos de clase es 983.878 nk .
La amplitud del intervalo está dada por:
87778.19
4.833.100minmax
k
XXX .
Las hipótesis formuladas son:
:0H la distribución es 2,)( Nxf
Capítulo 3
59
Tabla 3.2 Clases de frecuencia para los datos de la muestra del ejemplo 3.1.
Figura 3.2. Histograma de las clases de frecuencia para los datos de la muestra del ejemplo 3.1.
En la tabla 3.2 se puede observar que algunas clases son menores a 5, por lo tanto se procede a juntarlas, quedando de las 9 clases, sólo 6, que se muestran en la tabla 3.3. Por otro lado, de la figura 3.2 se puede suponer que los datos tienen una distribución
normal con 67.90ˆ x y 9524.7ˆ 21
2 ns .
Luego,
:0H la distribución es 9524.7,67.90,);( 2 NNxf
En la tabla 3.3 se presentan los valores distribuidos en los intervalos de clase y la frecuencia absoluta de cada intervalo, correspondientes al número de observaciones que caen en él. Igualmente se presentan los cálculos necesarios para realizar la prueba ji cuadrada.
Clase
i
Intervalos para
calcular ip in ip inp 2)( ii npn i
ii
np
npn 2)(
1 16.87,( 5 0.1063 8.294 10.851 1.3083
2 (87.16,89.03] 17 0.1745 13.611 11.488 0.8441
3 (89.03, 90.91] 21 0.2532 19.753 1.556 0.0788
4 (90.91, 92.79] 21 0.2397 18.698 5.299 0.2834
5 (92.79, 94.67] 9 0.1480 11.545 6.475 0.5609
6 ),67.94( 5 0.0782 6.100 1.210 0.1983
Suma= 1 Suma= 3.27374064
Tabla 3.3. Valores teóricos y muestrales para la prueba de bondad de ajuste de los datos muestrales del ejemplo 3.1.
0
5
10
15
20
25
1 2 3 4 5 6 7 8 9
Clases Frecuencia
83.4 85.28 1
85.28 87.16 4
87.16 89.03 17
89.03 90.91 21
90.91 92.79 21
92.79 94.67 9
94.67 96.54 3
96.54 98.42 0
98.42 100.3 2
Algunas pruebas de Bondad de ajuste
60
El valor crítico con un nivel de significancia del 5% y 3 grados de libertad es de
8147.72
3, , mientras que el valor calculado es 2737.32 c . Se concluye que no hay
evidencias suficientes para rechazar la hipótesis nula. Es decir, la distribución de los datos se considera normal al 5% de significancia.
Ejemplo 3.2
Se tiene un registro de 216 tiempos entre arribos
31.933 0.9142 27.091 39.281 11.101 91.785 14.162 13.039 10.144
0.3186 0.4052 33.162 0.7962 0.4778 49.481 152.004 0.1735 21.878
0.2348 18.896 31.902 19.685 0.5281 46.458 18.998 46.516 0.1636
57.121 35.129 76.548 49.391 25.997 0.4404 28.290 44.030 0.8712
29.397 0.2703 0.4082 35.320 0.6529 0.7684 12.494 28.566 0.3726
63.768 11.121 0.4341 0.7187 19.107 51.640 16.052 0.7313 13.185
20.582 0.9842 33.089 14.928 23.992 16.215 18.091 33.751 21.955
113.710 24.456 17.738 30.997 11.489 33.592 16.194 33.981 0.0970
24.698 63.627 0.9812 24.668 43.419 18.849 0.0011 50.624 23.348
17.021 0.4020 17.935 0.9104 0.6406 18.252 26.237 0.8437 155.092
0.8592 10.659 0.7223 0.6239 54.144 10.110 10.128 109.106 0.2196
0.1189 21.342 24.349 21.701 0.6652 0.7266 0.5550 0.1591 0.5087
0.5822 26.087 57.818 24.864 17.495 0.8407 0.9036 15.221 0.2055
0.8273 18.993 126.327 0.7407 217.329 25.855 0.3953 31.247 0.2754
0.1582 11.361 0.8085 0.2136 13.256 0.6398 15.186 19.061 19.262
37.217 0.5528 60.427 21.682 24.996 35.699 61.171 0.6276 22.079
31.454 100.600 16.509 35.661 29.409 0.8942 24.918 0.0821 10.167
29.468 0.9608 24.018 13.764 49.092 48.111 11.412 17.820 0.6547
17.322 19.183 18.730 14.078 0.4248 0.8235 0.5157 0.9726 13.358
0.9965 25.227 14.850 15.430 107146 0.6154 18.379 0.6012 23.768
18.164 24.739 63.317 31.607 120.092 89.375 21.157 0.7986 0.6039
0.6377 0.1263 0.5425 13.429 0.6981 0.4402 20.588 44.003 0.1992
37.545 0.8246 0.1868 26.892 0.7079 12.457 10.063 43.017 42.455
14.366 0.0439 29.099 0.2979 17.472 19.802 13.339 0.4536 0.8065
Tabla 3.4 Datos de la muestra para probar exponencialidad del ejemplo 3.2.
Capítulo 3
61
Pruebe si los datos provienen de una distribución exponencial, con un nivel de significancia del 5% e indique su parámetro.
Solución
Calculando la media se tiene que 39.2ˆ y por tanto 418.01 .
El número de intervalos de clase es 1469.14216 nk .
La amplitud del intervalo está dada por: 55.114
0011.073.21minmax
k
XXX .
Las hipótesis formuladas son:
:0H la distribución es 1exp)( xf
:1H la distribución es 1exp)( xf
En este caso el número de intervalos es reducido a 8 debido a que la frecuencia en cada una de las clases construidas es menor a 5.
clases Frecuencia
0.001 0.720 52
0.720 1.438 48
1.438 2.157 36
2.157 2.875 26
2.875 3.594 19
3.594 5.031 14
5.031 7.904 11
7.904 11.497 10
Tabla 3.5 Clases de frecuencia para los datos de la muestra del ejemplo 3.2.
Figura 3.3. Histograma de las clases de frecuencia para los datos de la muestra del ejemplo 3.2.
En la tabla 3.6 se presentan los valores distribuidos en los intervalos de clase y la frecuencia absoluta de cada intervalo, correspondientes al número de observaciones que caen en él. Igualmente se presentan los cálculos necesarios para realizar la prueba ji cuadrada.
Algunas pruebas de Bondad de ajuste
62
Clase
i
Intervalos para
calcular ip in ip inp 2)( ii npn i
ii
np
npn 2)(
1 72.0,( 52 0.259 55.94 15.56 0.28
2 (0.72, 1.43] 48 0.195 41.04 48.44 1.18
3 (1.43, 2.15] 36 0.142 30.67 28.39 0.93
4 (2.15, 2.87] 26 0.105 22.68 11.02 0.49
5 (2.87, 3.59] 19 0.078 16.85 4.63 0.27
6 (3.59, 5.03] 14 0.100 21.60 57.76 2.67
7 (5.03, 7.90] 11 0.085 18.36 54.17 2.95
8 ),90.7( 10 0.036 7.78 4.95 0.64
Suma= 1 Suma= 9.41
Tabla 3.6. Valores teóricos y muestrales para la prueba de bondad de ajuste de los datos muestrales del ejemplo 3.2.
El valor crítico con un nivel de significancia del 5% y 6 grados de libertad es de
59.122
6, , mientras que el valor calculado es 41.92 c . Se concluye que no hay
evidencias suficientes para rechazar la hipótesis nula. Es decir, la distribución de los datos es exponencial con 418.01 .
Ejemplo 3.3
Se tienen 176 registros de las cantidades de demanda de un producto
1 4 4 1 0 3 2 1 3 0 1 1 1 1 0 3 0 1 0 0 1 2
2 0 1 1 4 0 1 0 0 0 0 7 4 5 0 1 0 1 1 8 3 0
1 3 12 1 0 1 1 0 0 0 3 3 0 0 4 0 0 2 2 0 0 0
0 1 2 3 1 5 0 0 2 8 0 2 3 3 2 1 0 0 4 3 1 2
2 1 1 0 8 1 0 5 0 0 0 0 2 0 6 1 2 8 6 0 0 0
0 1 1 2 0 0 1 0 4 3 0 0 2 4 2 3 0 1 1 1 1 2
2 0 2 4 5 0 1 2 2 0 0 2 1 1 2 0 5 10 3 1 2 4
2 1 2 0 1 4 10 0 4 4 5 4 9 1 10 0 6 1 2 9 5 0
Tabla 3.7 Datos de la muestra para probar si tienen distribución geométrica del ejemplo 3.3.
Pruebe si los datos provienen de una distribución geométrica, con un nivel de significancia del 5% e indique su parámetro.
Solución
Calculando la media se tiene que 96.1ˆ y por tanto 5.0ˆ1ˆ p
Se han construido 8 intervalos.
Capítulo 3
63
Como la distribución, en este caso se han elegido:
}9{},8,7,6{},5{},4{},3{},2{},1{},0{ 87654321 IIIIIIII
Las hipótesis formuladas son:
:0H la distribución es )()( pgeoxf
:1H la distribución es )()( pgeoxf
Intervalo Frecuencia
}0{ 58
}1{ 42
}2{ 27
}3{ 14
}4{ 14
}5{ 7
}8,7,6{ 8
}9{ 6
Tabla 3.8 Clases de frecuencia para los datos de la muestra del ejemplo 3.3.
Figura 3.4. Histograma de las clases de frecuencia para los datos de la muestra del ejemplo 3.3.
En la tabla 3.9 se presentan los valores distribuidos en los intervalos de clase y la frecuencia absoluta de cada intervalo, correspondientes al número de observaciones que caen en él. Igualmente se presentan los cálculos necesarios para realizar la prueba ji cuadrada.
Clase
i
Intervalos para
calcular ip in ip inp 2)( ii npn i
ii
np
npn 2)(
1 }0{ 58 0.35 60.90 8.39 0.14
2 }1{ 42 0.23 39.81 4.79 0.12
3 }2{ 27 0.15 26.05 0.91 0.03
4 }3{ 14 0.10 17.04 9.22 0.54
5 }4{ 14 0.06 11.14 8.18 0.73
6 }5{ 7 0.04 7.29 0.08 0.01
7 }8,7,6{ 8 0.06 9.93 3.71 0.37
8 }9{ 6 0.02 3.13 8.22 2.62
Suma= 1 Suma= 4.58
Tabla 3.9 Valores teóricos y muestrales para la prueba de bondad de ajuste de los datos muestrales del ejemplo 3.3.
Algunas pruebas de Bondad de ajuste
64
El valor crítico con un nivel de significancia del 5% y 6 grados de libertad es de
59.122
6, , mientras que el valor calculado es 58.42 c . Se concluye que no hay
evidencias suficientes para rechazar la hipótesis nula. Es decir, la distribución de los datos es geométrica con 50.0p
3.2 PRUEBA DE KOLMOGÓROV-SMIRNOV DE BONDAD DE AJUSTE
La prueba de Kolmogórov-Smirnov es otra prueba de bondad de ajuste pero del tipo no paramétrico, es decir en la prueba no se estiman inicialmente los parámetros como en la prueba anterior.
En la prueba de Kolmogórov-Smirnov es de interés conocer el grado de relación entre la distribución de un conjunto de valores de la muestra (puntajes observados) y alguna distribución teórica específica. Esta prueba determina si razonablemente puede pensarse que los puntajes en la muestra provengan de una población que tenga esa distribución teórica.
Brevemente, la prueba lleva consigo la especificación de la distribución de frecuencia acumulativa que ocurriría bajo la distribución teórica y su comparación con la distribución de frecuencia observada acumulada. La distribución teórica representa lo esperado conforme a 0H . Se determina el punto en el que estas dos distribuciones, la
teórica y la observada, muestran la mayor divergencia. La referencia a la distribución muestral indica si hay probabilidad de divergencia tan grande con base en el azar. Esto es, la distribución muestral indica que una divergencia de la magnitud observada probablemente ocurriría si las observaciones fueran realmente una muestra aleatoria de la distribución teórica.
Para aplicar la prueba de Kolmogórov -Smirnov, se hace uso de la siguiente metodología:
Paso 1. Ordenar los datos en forma no-decreciente y obtener sus frecuencias observadas (en caso de repetirse un dato se pone en esta frecuencia).
Paso 2. Calcular las frecuencias acumuladas relativas para cada dato observado, iFRO .
Paso 3. Calcular las frecuencias acumuladas relativas esperadas para cada dato, según sea la distribución propuesta en la hipótesis nula, los parámetros de la distribución se calculan de la muestra, iFRE .
Paso 4. Se calculan los valores absolutos de la diferencia entre las frecuencias acumuladas observada y teórica, || ii FREFRO .
Paso 5. Evaluar el estadístico de prueba ||max iii
cal FREFROD .
Al igual que en la prueba ji-cuadrada las hipótesis a contrastar son
Capítulo 3
65
:0H la distribución es );( xf
:1H la distribución no es );( xf
La distribución de calD es conocida y depende del número de observaciones n.
Regla de decisión
Se acepta la hipótesis nula de que no existe diferencia significativa entre las distribuciones teóricas y empíricas si el valor de )(xDcal es menor o igual que el
valor crítico ),( xDcal (ver tabla adjunta para valores críticos).
Gráficamente quedaría explicado de la siguiente manera
Figura 3.5 Distribución teórica y empírica para la prueba de Kolmogórov-Smirnov.
3.2.1 Propiedades de la prueba de Kolmogórov-Smirnov
a) Esta prueba se puede realizar para valores agrupados en intervalos de clase y también para valores sin agrupar.
b) La prueba de Kolmogórov-Smirnov puede aplicarse para tamaños de muestra pequeños, lo que no sucede con la ji-cuadrada.
c) La prueba de Kolmogórov-Smirnov es más poderosa que la Ji-cuadrada, es decir, cuando se rechaza la hipótesis nula, se tiene una mayor confiabilidad en dicho resultado.
d) La prueba de Kolmogórov-Smirnov debe usarse cuando la variable de análisis es continua. Sin embargo, si la prueba se usa cuando la distribución de la población no es continua, el error que ocurre en la probabilidad resultante está en la dirección segura. Es decir, cuando se rechaza la hipótesis nula, se tiene verdadera confianza en la decisión.
Ejemplo 3.4
Realizar la prueba de bondad de ajuste de Kolmogórov-Smirnov, con un nivel de confianza del 1%, para probar normalidad en los siguientes datos:
n1
n1
n2
1
Distribución
observada
1
Distribución
teórica
Algunas pruebas de Bondad de ajuste
66
59.01 60.01 60.51 61.46 62.46 63.19 63.69 65.41 65.77 66.54
66.86 67.27 67.9 68.06 68.31 68.54 68.99 69.26 69.63 69.9
Tabla 3.10 Datos de la muestra para probar si tienen distribución normal del ejemplo 3.4.
Solución
Los datos no serán agrupados, por tanto su frecuencia será 1.
n Datos frecuencia
Frecuencia
relativa
acumulada
observada
Frecuencia
esperada
Valor absoluto
de diferencia
1 59.01 1 0.05 0.02819 0.02181
2 60.01 1 0.10 0.05259 0.04741
3 60.51 1 0.15 0.06993 0.08007
4 61.46 1 0.20 0.11452 0.08548
5 62.46 1 0.25 0.18010 0.06990
6 63.19 1 0.30 0.24045 0.05955
7 63.69 1 0.35 0.28743 0.06257
8 65.41 1 0.40 0.47378 0.07378
9 65.77 1 0.45 0.51510 0.06510
10 66.54 1 0.50 0.60238 0.10238
11 66.86 1 0.55 0.63744 0.08744
12 67.27 1 0.60 0.68070 0.08070
13 67.9 1 0.65 0.74248 0.09248
14 68.06 1 0.70 0.75712 0.05712
15 68.31 1 0.75 0.77906 0.02906
16 68.54 1 0.80 0.79821 0.00179
17 68.99 1 0.85 0.83267 0.01733
18 69.26 1 0.90 0.85141 0.04859
19 69.63 1 0.95 0.87473 0.07527
20 69.9 1 1.00 0.89004 0.10996
Media 656.385
D= 0.10996
Varianza 120.675.292
Tabla 3.11 Frecuencias teóricas y muestrales para la prueba de bondad de ajuste de los datos muestrales del ejemplo 3.4.
En este caso, de las tablas de Kolmogórov-Smirnov se tiene que 356.0tD . Por lo
tanto, región de no rechazo: 356.0,0 y región de rechazo ),356.0(
Así que, no existe evidencia para rechazar que los datos sí provienen de una distribución normal con media 65.64 y varianza 12.07
Capítulo 3
67
Ejemplo 3.5
Se desea corroborar con la prueba de Kolmogórov-Smirnov si la generación de números aleatorios en el programa estadístico R, tiene una distribución uniforme sobre en intervalo [0,1], con un nivel de confianza del 1%.
0.01380712 0.01930208 0.02416705 0.03334250 0.04345559 0.05879803 0.06442955
0.07765923 0.08600934 0.10822774 0.10959265 0.10983339 0.15240478 0.16979416
0.17317292 0.19802962 0.20449405 0.20750527 0.20974691 0.21435878 0.22751982
0.23170290 0.23479128 0.24315668 0.24834214 0.25188956 0.25350340 0.28079697
0.28891199 0.29327375 0.29350371 0.29629280 0.31222037 0.31687409 0.32209677
0.34138817 0.35045805 0.35479223 0.36493820 0.36744197 0.37056231 0.38840453
0.40550314 0.43035167 0.43340646 0.45559472 0.46117537 0.47075696 0.47581660
0.48017378 0.48374712 0.49453759 0.50673384 0.51121106 0.52362452 0.52519641
0.53656851 0.54372672 0.54927056 0.55120616 0.55547863 0.57449230 0.57614826
0.57917861 0.58981639 0.59471369 0.62810857 0.64963608 0.65142342 0.66204871
0.68566790 0.69773444 0.70016491 0.70315699 0.73646659 0.74148888 0.74606807
0.74702262 0.76108793 0.77312248 0.78544249 0.79937620 0.80856901 0.83212724
0.83954884 0.84760715 0.86192507 0.86496178 0.88581105 0.89467445 0.89676235
0.90706542 0.91006137 0.91934849 0.92015583 0.92849640 0.93128253 0.94217073
0.94875365 0.99949998
Tabla 3.12 Datos de la muestra para probar si tienen distribución uniforme del ejemplo 3.5.
Solución
De la tabla los datos se agrupan en 10 clases quedando de la siguiente forma:
clase Datos frecuencia Frecuencia relativa acumulada
observada
Frecuencia
esperada
Valor absoluto
de diferencia
1 [0.0,0.1) 9 0.09 0.1 0.01
2 [0.1,0.2) 7 0.16 0.2 0.04
3 [0.2,0.3) 16 0.32 0.3 0.02
4 [0.3,0.4) 10 0.42 0.4 0.02
5 [0.4,0.5) 10 0.52 0.5 0.02
6 [0.5,0.6) 14 0.66 0.6 0.06
7 [0.6,0.7) 6 0.72 0.7 0.02
8 [0.7,0.8) 10 0.82 0.8 0.02
9 [0.8,0.9) 9 0.91 0.9 0.01
10 [0.9,1.0] 9 1 1 0
D= 0.06
Tabla 3.13 Frecuencias teóricas y muestrales para la prueba de bondad de ajuste de los datos muestrales del ejemplo 3.5.
Algunas pruebas de Bondad de ajuste
68
En este caso, de las tablas de Kolmogórov-Smirnov se tiene que 163.0tD . Por lo
tanto,
Región de no rechazo: 163.0,0 y región de rechazo ),163.0( .
Se concluye que no existe evidencia para rechazar que los datos sí provienen de una distribución uniforme (0,1) con un nivel de confianza del 5%.
Ejemplo 3.6
En un periodo de 30 días se registraron 6 días sin accidentes, 2 con un accidente, 1 con dos accidentes, 9 con tres accidentes, 7 con cuatro accidentes, 4 con cinco accidentes y 1 con ocho accidentes.
Realizar la prueba de bondad de ajuste de Kolmogórov-Smirnov, con un nivel de confianza del 1%, para probar si el número de accidentes sigue una distribución Poisson y determine su parámetro.
Solución
Calculando la media se tiene que
8781544739211206
Por lo tanto, 9.23087ˆ
Las hipótesis formuladas son:
:0H la distribución es )()( poisxf
:1H la distribución es )()( poisxf
n Datos frecuencia Frecuencia relativa
acumulada observada
Frecuencia
esperada
Valor absoluto
de diferencia
1 0 6 0.200 0.055 0.145
2 1 2 0.267 0.215 0.052
3 2 1 0.300 0.446 0.146
4 3 9 0.600 0.670 0.070
5 4 7 0.833 0.832 0.002
6 5 4 0.967 0.926 0.041
7 8 1 1.000 0.997 0.003
D= 0.146
Tabla 3.14 Frecuencias teóricas y muestrales para la prueba de bondad de ajuste de los datos muestrales del ejemplo 3.6.
En este caso, de las tablas de Kolmogórov-Smirnov se tiene que 29.0tD . Luego,
Capítulo 3
69
Región de no rechazo: 29.0,0 y región de rechazo ),29.0(
Por lo tanto, no existe evidencia para rechazar que los datos sí provienen de una distribución Poisson(2.9) con un nivel de confianza del 1%.
3.3 PRUEBA DE NORMALIDAD DE SHAPIRO-WILK
Sea nxxx ,,, 21 una realización de nXXX ,,, 21 y se desea probar la hipótesis de que
los datos provienen de una distribución normal. Es decir, probar las hipótesis
~:0 XH Normal
~:1 XH Normal
Para probar normalidad se tienen varias decenas de pruebas, una de ellas es muy propicia cuando el tamaño de la muestra es pequeño, 50n , corresponde a los autores Samuel S. Shapiro y Martin B. Wilk y fue publicada en 1965, actualmente se le conoce como prueba de Shapiro-Wilk.
La prueba de Shapiro-Wilk consiste en calcular la estadística de prueba W suponiendo que la muestra aleatoria proveniente de una distribución normal. La estadística W está dada por:
2
1
2
1
)()1(1
1
2
2
1
)(
)1()(
n
k
i
iinin
n
i
i
n
i
ii
cSn
xxa
xx
xa
W .
Donde
Las )(ix son los valores de la i-ésima estadística de orden, ia es el i-ésimo elemento
del vector
2111
1
21)(
),,,(mVVm
Vm
naaaa .
Con ),,,( 21 nmmm m y las nmmm ,,, 21 son los valores esperados de las
estadísticas de orden de las variables aleatorias independientes e idénticamente distribuidas tomadas de una distribución normal estándar de tamaño n , y V es la matriz de varianzas y covarianzas de esas estadísticas de orden y 2nk .
Para calcular a, es necesario conocer m y V . Sin embargo, ya que V sólo se conoce para tamaños de muestra 20n , Royston (1995) desarrolló un algoritmo para calcular una aproximación de a para muestras de tamaño 50003 n .
Algunas pruebas de Bondad de ajuste
70
Regla de decisión:
Rechazar ~:0 XH Normal, al nivel de significancia , si: ntc WW ,,
Donde ntW ,, es un valor de la tabla de Shapiro-Wilk correspondiente a un
tamaño muestral n y a un nivel de significación .
Rechazar ~:0 XH Normal, al nivel de significancia , si: cW es pequeño.
3.3.1 Propiedades de W
a) W tiene una distribución la cual sólo depende del tamaño de muestra n, para muestras de una distribución normal.
b) W es estadísticamente independiente de 2S y de x , para muestras de una distribución normal.
c) El mínimo valor de W es )1(2
1 nna
d) El máximo valor de W es 1.
Para calcular el valor de W dado una muestra aleatoria completa de tamaño n,
nxxx ,,, 21 se procede de la siguiente manera:
Paso 1. Ordenar las observaciones obtenidas en a muestra aleatoria de manera creciente nyyy 21 .
Paso 2. Calcular
n
i
i
n
i
i xxyyS1
2
1
22 )()(
Paso 3.
a) Si n es par, kn 2 , calcular
k
i
iinin yyab1
11 )( .
Donde los valores de 1ina están dados en la tabla del anexo.
b) Si n es impar, 12 kn y el cálculo es similar que en el paso 3 a), donde 01 ka cuando 12 kn . Entonces se encuentra que
)()( 221 kkknn yyayyab
Donde el valor de 1ky , la media muestral, no entra para el cálculo de b.
Paso 4. Se calcula 22 SbW
Paso 5. 1, 2, 5, 10, 50, 90, 95, 98 y 99% puntos de la distribución de W, son dados en la tabla del anexo. Valores más pequeños de W son insignificantes, es decir, no indican normalidad.
Capítulo 3
71
Ejemplo 3.7
Se contrastará la normalidad de los siguientes datos muéstrales ( 10n )
0.93, 1.20, 1.10, 1.26, 1.38, 1.24, 1.32, 1.14, 1.24, 1.18
Solución
Paso 1. Se ordenan las observaciones
0.93 1.1 1.14 1.18 1.2 1.24 1.24 1.26 1.32 1.38
Paso 2. Calcular 14.0)(1
22
n
i
i yyS
Paso 3. Como n es par, entonces
5
1
1111 )(i
iii yyab ; de la tabla del anexo se tiene que
0399.0
1224.0
2141.0
3291.0
5739.0
6
7
8
9
10
a
a
a
a
a
Así, 36.0)(5
1
1111
i
iii yyab
Paso 4. Por lo tanto 94.014.013.022 SbW
La región crítica es 10,,tW , así para diferentes valores de alfa se tiene:
781.0
842.0
869.0
10,01.0,
10,05.0,
10,10.0,
t
t
t
W
W
W
En todos los casos no se rechaza la hipótesis nula, es decir, los datos muestrales siguen una distribución normal.
Ejemplo 3.8
Pruebe la normalidad de la siguiente muestra de pesos en libras de 11 hombres 148, 154, 158, 160, 161, 162, 166, 170, 182, 195, 236
Solución
Paso 2. Dado que los datos ya se tienen ordenados, se procede a calcular
6226)(1
22
n
i
i yyS .
Paso 3. Como n es impar, entonces )()( 221 kkknn yyayyab ; de la tabla del
anexo se tiene que
Algunas pruebas de Bondad de ajuste
72
0695.0
1429.0
2260.0
3315.0
5601.0
7
8
9
10
11
a
a
a
a
a
Así, 08.70)()( 57711111 yyayyab .
Paso 4. Por lo tanto 79.0622631.491122 SbW .
La región crítica es 11,,tW , así para diferentes valores de alfa se tiene:
792.0
850.0
876.0
11,01.0,
11,05.0,
11,10.0,
t
t
t
W
W
W
En todos los casos no se rechaza la hipótesis nula, es decir, los datos muestrales siguen una distribución normal.
3.4 LA PRUEBA DE NORMALIDAD DE D’AGOSTINO
Este estadístico compara un estimador lineal de la desviación estándar en el caso de una distribución normal, con la desviación muestral.
Para la muestra aleatoria simple nXXX ,,, 21 y la prueba cuya hipótesis nula
es H0: “la muestra tiene distribución normal” y cuya hipótesis alternativa es la complementaria, el estadístico de D’Agostino es:
n
i n
i
sn
Xn
i
D1
2
2
1
Donde:
n
i
in XXn
s1
22 1
*iX : son los datos ordenados de la muestra
El valor esperado de este estadístico es aproximadamente 2
1 . Para tamaños
muestrales pequeños se dispone de una tabla de simulación que da un criterio de decisión. Para muestras de tamaño grande, la variable
Capítulo 3
73
2
1
24
227312
2
1
D
nZ
se puede aproximar por una variable normal estándar.
Ejemplo 3.9
Pruebe normalidad en los siguientes datos
8.27, 3.34, 10.50, 11.15, 5.41, 14.76, 14.76, 9.85, 11.31, 10.70, 9.25, 12.90
Solución
Se procede a calcular el estadístico de prueba
n
i n
i
sn
Xn
i
D1
2
*
2
1
10.1833333X y 3.24168252ns
i iX *
iX
2
1ni *
2
1iX
ni
1 8.27 3.34 -5.5 -18.37
2 3.34 5.41 -4.5 -24.345
3 10.5 8.27 -3.5 -28.945
4 11.15 9.25 -2.5 -23.125
5 5.41 9.85 -1.5 -14.775
6 14.76 10.5 -0.5 -5.25
7 14.76 10.7 0.5 5.35
8 9.85 11.15 1.5 16.725
9 11.31 11.31 2.5 28.275
10 10.7 12.9 3.5 45.15
11 9.25 14.76 4.5 66.42
12 12.9 14.76 5.5 81.18
suma= 128.29
Así, 24.3*2^12
29.128D =0.2748
Algunas pruebas de Bondad de ajuste
74
El I.C. para D es (0.2653, 0.2841), podemos concluir que el p-valor es mayor a 0.2. Por lo que se dice que no existe suficiente evidencia para rechaza H0, por tanto se concluye que los datos se distribuyen normal.
NOTA
El estadístico de prueba es muy sensible a los redondeos, por lo que es conveniente no perder cifras significativas en los cálculos
3.5 LA PRUEBA DE NORMALIDAD DE LILLIEFORS
Esta prueba de normalidad utiliza el estadístico de Kolmogórov-Smirnov, en el caso en que la media y la desviación de la distribución (desconocidos) se estiman utilizando toda la muestra. Es decir que el estadístico es
n
nnRx
s
XxxFKSL sup
donde es la función de distribución normal estándar, si determinamos la región crítica
usando la tabla de Kolmogórov-Smirnov, el resultado es una prueba muy conservadora. Lilliefors ha tabulado por el método de Montecarlo los percentiles de este estadístico.
3.6 LA PRUEBA DE NORMALIDAD DE FILLIBEN
Esta prueba se basa en la comparación entre la muestra ordenada nXXX ,,, 21 y el
vector nYYY ,,, 21 , donde
1
1
n
iYi con la función de distribución normal
estándar. Para cada i , la componente i-ésima del vector es una aproximación del valor esperado del i-ésimo estadístico de orden de una normal estándar (considere la transformación canónica que lleva normales en uniformes y su inversa).
El estadístico de Filliben es el coeficiente de correlación lineal entre X e Y , o sea
n
i nn
ii
Yss
YXXRF
1
*
donde 22
YYYs in
Capítulo 3
75
La tabla de Filliben (1975) resume el estudio por simulación del comportamiento de este estadístico bajo la hipótesis de normalidad. La hipótesis de normalidad se rechaza para valores pequeños de RF.
76
Capítulo 4
PRUEBAS BOOTSTRAP
INTRODUCCIÓN
El método Bootstrap es de gran ayuda en la estadística se puede usar para aproximar el sesgo o la varianza de un estadístico, así como para construir intervalos de confianza, probar contrastes de hipótesis sobre parámetros de interés, etc.
En este capítulo hablaremos del método bootstrap para realizar una prueba de bondad de ajuste cuando la estadística de prueba no es posible determinarla en forma cerrada. El método en general se basa en la extracción de m muestras tomadas de una muestra que puede ser proporcionada por las observaciones de la investigación que se esté realizando o en el caso de trabajos de simulación ésta se genera de forma aleatoria. En general, y debido al gran volumen de cálculos el método se lleva a cabo bajo una programación de sus pasos a seguir, en este trabajo fue utilizado el proyecto R.
Capítulo 4
77
4.1 PRUEBAS BOOTSTRAP
Sea nXXX ,,, 21 una muestra aleatoria con función de densidad )(xf , dada una
realización nxxx ,,, 21 se desea probar el contraste de hipótesis
θ
θ
FxfH
FxfH
)(:
)(:
1
0
Es decir, si las observaciones provienen de la familia de densidades θF con parámetros
θ desconocidos. En general se puede establecer la siguiente metodología bootstrap para llevar a cabo la prueba anterior de bondad de ajuste.
Sean nxxx ,,, 21 observaciones provenientes de una distribución )(D , la prueba
de bootstrap con base en un estimador de se realiza siguiendo los siguientes pasos.
1. Con las observaciones dadas nxxx ,,, 21 se calcula un valor para el estimador
denotado por 0
~ .
2. Con las observaciones se calcula la estadística de prueba 0q .
3. A partir de 0
~ iniciar un ciclo bootstrap.
a) Generar una muestra bootstrap de tamaño n de )~
( jD .
b) Con la muestra bootstrap del inciso (3a) calcular una estimación para el
parámetro de estudio 1
~ .
c) Con 1
~ del inciso (3b) se calcula la estadística de prueba
1~q .
4. El ciclo bootstrap del inciso (3) se repite m veces para calcular mqqq ~,,~,~21 en
donde m es la cantidad de estimaciones de bootstrap para determinar el cuantil bootstrap, generalmente se recomienda m 1000.
5. Con el ciclo terminado mqqq ~,,~,~21 son ordenados en forma no decreciente,
denotándolos con iq̂ . Entonces, mqqq ˆˆˆ21 y obtener el cuantil , sea este
q̂ .
6. Regla de decisión. Comparar 0q con el cuantil del inciso (5).
a) Si qq ˆ0 , se rechaza 0H al nivel de significancia.
b) Si qq ˆ0 , no se rechaza 0H al nivel de significancia.
4.1.1 Tamaño de la prueba
Antes de iniciar con la prueba se debe determinar si ésta tiene un tamaño adecuado.
Prueba propuesta
78
Como se sabe el tamaño de una prueba se relaciona con la probabilidad del error tipo I, luego se realiza la simulación para el tamaño de prueba considerando que los datos provienen de una variable aleatoria )(D , para un valor de dado.
Para determinar el tamaño de la prueba se programa una función en el proyecto R, que trabaja de la siguiente forma:
1. Se genera una muestra )(,,, 021 Dxxx n .
2. Con la muestra generada en el inciso anterior calcular un valor para el estimador
0
~ .
3. Con la muestra del inciso (1) y el valor del estimador del inciso (2) se calcula la estadística de prueba
0q̂ .
4. A partir de 0
~ iniciar un ciclo de bootstrap.
a) Generar una muestra de bootstrap de tamaño n de )~
( 0D .
b) Con la muestra bootstrap del inciso (4a) calcular una estimación para el
parámetro de estudio y denotarlo por 1
~ .
c) Con 1
~ del inciso anterior se calcula la estadística de prueba 1
~q .
5. El ciclo bootstrap del inciso (4) se repite m veces para calcular mqqq ~,,~,~21 , en
donde m es la cantidad de estimaciones de bootstrap para determinar el cuantil bootstrap, generalmente se recomienda m 1000.
6. Con el ciclo terminado mqqq ~,,~,~21 son ordenados en forma no decreciente,
denotándolo con iq̂ . Entonces, mqqq ˆˆˆ21 y se obtienen los cuantiles
requeridos. 7. Comparar 0q con los cuantiles del inciso anterior.
a) Si, se asigna 1 en el cuantil correspondiente. b) Si, se asigna 0 en el cuantil correspondiente.
8. Repetir los incisos desde el 1 hasta el 7 m veces. Finalmente obtener los promedios por cuantil de estas repeticiones. Dichos promedios son los tamaños de prueba buscados.
4.2 EJEMPLO DE LA TÉCNICA BOOTSTRAP PARA UNA FUNCIÓN LOG-
GAMMA GENERALIZADA
La clase de distribuciones log-gamma generalizada con los tres parámetros: localización ( ), escala ( ) y forma ( k ) tiene la siguiente expresión.
Capítulo 4
79
( )
( )
( ) ((
)√
(
) √ ⁄
)
Propiedades del modelo log-gamma generalizado
a. Cuando coincide con la distribución Gumbel.
b. Cuando converge a la distribución normal estándar.
( ) y ( ) dependen de .
Las variables aleatorias que se obtienen por medio de la transformación logaritmo de otra variable conocida, que es la representación estándar de esta última, de tal manera que la forma de la distribución no depende de ningún otro parámetro se les llama logarítmicos de localización y escala, en forma breve loc-escala. Es decir, son variables cuya distribución es invariante a desplazamientos y factores de escala.
Se puede observar que la distribución log-gamma generalizada bajo valores fijos del parámetro de forma es del tipo loc-escala.
En este capítulo se proporcionará una prueba de bondad de ajuste para una distribución log-gamma generalizada, con parámetros de localización ( ), escala ( ) y
forma ( k ) desconocidos. Es decir, dada la realización de una muestra aleatoria
nXXX ,,, 21 con función de densidad )(xf y el contraste de hipótesis
,,)(:
,,)(:
1
0
LGG
LGG
FxfH
FxfH
(4.1.1)
Establecer una prueba de bondad de ajuste con la que sea factible determinar si se trata de una distribución de la clase LGGF -densidades log-gamma generalizada con
parámetros de localidad, escala y forma desconocidos.
La mecánica de las pruebas de bondad de ajuste, en sus principios generales es conocida, las dificultades que se tienen en un caso particular son varias. Una de tales dificultades se refiere a los estimadores de los parámetros problema que como se sabe, cuando se trata de dos o más parámetros en general es bastante complicado. Para el caso de la distribución log-Gamma generalizada el problema parece simplificarse, porque se trata de una distribución que pertenece a la familia loc-escala, cuando se fija un valor para el parámetro de forma. Luego el problema de la prueba de hipótesis (4.1.1) puede plantearse como
,1,0)(:
,1,0)(:
1
0
LGG
LGG
FyfH
FyfH
(4.1.2)
Prueba propuesta
80
Así, con base en la invarianza bajo la transformación de los parámetros de localización y escala, sería posible establecer algunas pruebas con el coeficiente de correlación muestral, cómo una estadística de prueba.
Para construir una prueba para (4.1.1), se observa que si 0H se cumple, entonces
la función de distribución de )(xf es tal que
k
xFxF ;,,; *
en donde ,1,0;* LGGFkyF . Entonces para una variable aleatoria X con densidad
)(xf se tiene que para kF ;1
* la función inversa de kyF ;*
en y
XkkXFFU ;,,;
1
*
*
Es decir *U es una función lineal de X .
Por otro lado, sea )(xFn la función de distribución empírica basada en una
muestra aleatoria nXXX ,,, 21 de )(xf . Es decir,
n
iin
xx
xxxn
i
xx
xF
,1
,5.0
,0
)( 1
1
donde nxx 1 son los valores ordenados de las ix ’s, entonces si k̂ es un estimador
de k se tiene que para una realización x de X , por (4.2.1)
xkxFFu n ˆ;:
1
*
(4.2.1)
Puesto que xFn es un estimador de kxF ,,; . Entonces bajo 0H , u es
aproximadamente una función lineal de x . De donde para probar (4.1.1), se propone como estadística de prueba al coeficiente de correlación muestral en (4.2.4)
n
i
i
n
i
i
n
i
ii
n
UUXX
UUXX
UXr
1
2
1
2
1,
(4.2.4)
Capítulo 4
81
el cual se espera que tome valores cercanos a 1 bajo 0H .
Es decir, la prueba rechaza 0H si UXrn , toma valores alejados de 1, o sea, si
rUXrn , tal que la prueba es de tamaño 1,0 un valor conocido entonces se
rechaza 0H .
LEMA 4.1
Sea nWWW ,,, 21 una muestra aleatoria con parámetros de localidad y escala ;
y nVVV ,,, 21 otra muestra aleatoria con parámetros de localidad y escala ,
entonces el coeficiente de correlación muestral es invariante bajo localidad y escala.
Demostración
Sea el coeficiente de correlación muestral VWrn , , dado en (4.2.4) y calcule ** ,VWrn
en donde
WW * y
VV * , entonces
WWWWWW ii
i
**
similarmente
VVVV i
i
** .
Sustituyendo las igualdades anteriores en ** ,VWrn
VWr
VVWW
VVWW
VWr nn
i
in
i
i
n
i
ii
n ,,
1
2
1
2
1**
Similarmente se prueba que el coeficiente de asimetría muestral ̂ es invariante
bajo localidad y escala. Entonces el estimador de k , ̂ˆ 1 Gk , es invariante bajo
localidad. Por lo tanto, del Lema 4.1 la distribución de UXrn , , bajo 0H no depende
de los parámetros , para cada 0k ; sin embargo, dicha distribución va a depender
de k . Por lo tanto, se propone realizar una prueba de “bootstrap" paramétrica en k
basada en UXrn , .
4.2.1 Propiedades asintóticas de los estimadores
Antes de pasar al procedimiento de la prueba bootstrap, hablaremos de los estimadores. En el capítulo 1 se mencionaron las propiedades que debe cumplir un buen estimador, como son: el insesgamiento, la consistencia en probabilidad y en error cuadrado medio.
Prueba propuesta
82
Esto se comprobará por simulación, y se realizará en etapas, la primera consistirá en una
comparación de la estimación de k con k̂ , posteriormente se compara el ECM con la varianza y se prueba si hay o no insesgamiento asintótico.
Comparación del estimador
En la siguiente tabla se muestran algunos valores de k y la estimación que realiza k̂ que es el estimador de máxima verosimilitud.
k k̂
k k̂
0.1 0.10132 0.1 0.10069
0.2 0.18257 0.2 0.20215
0.4 0.41180 0.4 0.39943
0.6 0.60048 0.6 0.59615
0.8 0.80394 0.8 0.79487
1 1.01399 1 0.99970
2 2.06890 2 2.01405
3 3.03609 3 3.00412
4 3.97202 4 4.02002
5 5.18357 5 5.01373
10 9.62879 10 10.04422
15 15.01258 15 14.86974
20 19.71464 20 19.78095
Tabla 4.1. Valores del estimador con tamaño de muestra 10,000 tabla izquierda (sin repeticiones) y en la tabla derecha se hacen 10 repeticiones.
En la tabla 4.1 se puede apreciar que la estimación de k̂ es buena.
Note que se tomó una sola muestra de tamaño 10,000 en la tabla izquierda y en la tabla derecha la muestra también fue de tamaño 10,000, pero con 10 repeticiones, lo que mejora la estimación anterior.
Comparación de los ECM
Para determinar el error cuadrado medio del estimador se utiliza un programa en el proyecto R. Para los cálculos se tomaron valores más representativos del comportamiento del parámetro k .
En la tabla 4.2 se puede apreciar el ECM de k̂ .
Capítulo 4
83
k k̂
k k̂
0.1 0.000102 2 0.00195
0.2 0.000199 3 0.00295
0.3 0.000293 4 0.00406
0.4 0.000404 5 0.00496
0.5 0.000484 6 0.00583
0.6 0.000604 7 0.00701
0.7 0.000719 8 0.00786
0.8 0.000826 9 0.00871
0.9 0.000898 10 0.00958
1 0.001034 20 0.01981
Tabla 4.2. Valores del ECM para k̂ con un tamaño de muestra n = 10,000 y m = 5,000 repeticiones.
ECM y varianza de los estimadores
A continuación se analiza el ECM para k̂ y se comparan con su varianza, obteniendo los resultados de las tabla 4.3. En esta tabla se puede apreciar que la varianza coincide con ECM, luego k̂ será asintóticamente insesgado.
Para la ejecución se realizaron 5,000 repeticiones con tamaños de muestra que van de 1,000 a 15,000, variando de 1000 en 1000, para los valores de k dados arriba.
VALORES de k̂
0.1 0.5 1 5 10
n VAR ECM VAR ECM VAR ECM VAR ECM VAR ECM
1 0.00105 0.00106 0.00509 0.00512 0.01102 0.01110 0.05322 0.05374 0.10200 0.10270
2 0.00050 0.00051 0.00246 0.00246 0.00508 0.00510 0.02497 0.02510 0.05148 0.05166
3 0.00033 0.00033 0.00169 0.00169 0.00339 0.00340 0.01656 0.01657 0.03213 0.03224
4 0.00025 0.00025 0.00127 0.00127 0.00251 0.00252 0.01207 0.01209 0.02567 0.02575
5 0.00020 0.00020 0.00103 0.00103 0.00191 0.00192 0.00984 0.00984 0.01993 0.01995
6 0.00017 0.00017 0.00085 0.00085 0.00159 0.00159 0.00835 0.00838 0.01651 0.01652
7 0.00014 0.00014 0.00072 0.00072 0.00145 0.00146 0.00691 0.00692 0.01424 0.01425
8 0.00013 0.00013 0.00063 0.00063 0.00120 0.00121 0.00617 0.00617 0.01283 0.01285
9 0.00011 0.00011 0.00055 0.00055 0.00109 0.00109 0.00549 0.00548 0.01093 0.01093
10 0.00010 0.00010 0.00051 0.00051 0.00098 0.00098 0.00499 0.00499 0.01015 0.01015
11 0.00009 0.00009 0.00046 0.00046 0.00089 0.00089 0.00443 0.00443 0.00922 0.00922
12 0.00009 0.00009 0.00040 0.00040 0.00080 0.00080 0.00409 0.00409 0.00838 0.00839
13 0.00008 0.00008 0.00038 0.00038 0.00077 0.00077 0.00370 0.00370 0.00779 0.00779
14 0.00007 0.00007 0.00036 0.00036 0.00072 0.00072 0.00352 0.00352 0.00715 0.00715
15 0.00007 0.00007 0.00032 0.00032 0.00067 0.00067 0.00336 0.00336 0.00671 0.00670
Tabla 4.3. Valores de la varianza y ECM para k̂ con un tamaño de muestra n en miles; m= 5000
repeticiones; error máximo de 0.00001 (ver gráfica 4.2).
Prueba propuesta
84
En la figura 4.1 se muestra el comportamientos asintótico del ECM para k̂ con los tamaños de muestra n = 1000, 2000, . . . ,15000. En esta figura, se puede notar cierta dependencia del ECM, no sólo con el tamaño de muestra, sino también con el valor del parámetro.
Figura 4.1. Valores del ECM para k̂ en los 5 valores de k̂ = 0.1, 0.5, 1, 5, 10, se tomaron con un
tamaño de muestra n dada en miles y m = 5; 000 repeticiones
Para comprobar lo anterior sobre la proporcionalidad se busca en cada tamaño de muestra el coeficiente de proporcionalidad entre el tamaño del ECM y n, k , encontrando los valores que se muestran en la tabla 4.4 y como se puede observar son muy similares. Es decir, se comprobó de esta forma que los ECM sí dependen en forma proporcional, tanto del tamaño de la muestra n como del parámetro k .
Estimador k̂
kn 0.1 0.5 1 5 10
1 10.6 10.2 11.1 10.7 10.3
2 10.1 9.8 10.2 10.0 10.3
3 10.0 10.2 10.2 9.9 9.7
4 10.0 10.1 10.1 9.7 10.3
5 10.2 10.3 9.6 9.8 10.0
6 10.0 10.2 9.5 10.1 9.9
7 9.7 10.1 10.2 9.7 10.0
8 10.1 10.2 9.6 9.9 10.3
9 10.1 9.9 9.8 9.9 9.8
10 9.7 10.2 9.8 10.0 10.2
11 10.0 10.2 9.8 9.7 10.1
12 10.2 9.7 9.6 9.8 10.1
13 10.1 9.8 9.9 9.6 10.1
14 9.9 10.0 10.0 9.9 10.0
15 9.9 9.7 10.1 10.1 10.1
Tabla 4.4. Valores de proporcionalidad entre ECM, tamaño de la muestra n en miles y el valor del
parámetro k .
Capítulo 4
85
Después de calcular el promedio de estos valores se obtiene la proporción asintótica de decrecimiento del ECM para el estimador:
ECM)ˆ(k es proporcional a
n
k10
4.2.2 Procedimiento de la prueba en R
En el caso general cuando las variables ix ’s provienen de una distribución Log-Gamma
Generalizada que bajo un valor conocido del parámetro de forma pertenece a la familia de loc-escala, y el hecho de que el coeficiente de correlación muestral 4.2.4 también es invariante, conducen a simplificar el problema 4.1.1, proponiendo pruebas para el problema simplificado 4.1.2, basadas en el estimador del parámetro de forma k .
La prueba de bootstrap con base en el EMV, se realiza siguiendo los siguientes pasos.
1. Con las observaciones dadas nxxx ,,, 21 calcular un valor para el estimador
denotado por 0
~k , de k .
2. Con las observaciones se calcula su coeficiente de correlación muestral 0r .
3. A partir de 0
~k iniciar un ciclo bootstrap.
a) Generar una muestra bootstrap de tamaño n de )~
,1,0( 0kLGG .
b) Con la muestra bootstrap del inciso 3a calcular una estimación para el
parámetro de forma y considerar su valor absoluto, denotándola por1
~k .
c) Con 1
~k del inciso 3b se calcula el coeficiente de correlación muestral 1
~r .
4. El ciclo bootstrap del inciso 3 se repite m veces para calcular mrrr ~,,~,~21 en
donde m es la cantidad de estimaciones de bootstrap para determinar el cuantil bootstrap, generalmente se recomienda m 1000.
5. Con el ciclo terminado mrrr ~,,~,~21 son ordenados en forma no decreciente,
denotándolos con ir̂ . Entonces, mrrr ˆˆˆ21 y se obtiene el cuantil , sea éste
r̂ .
6. Regla de decisión. Comparar 0r con el cuantil del inciso 5.
a) Si rr ˆ0 , se rechaza 0H al nivel de significancia.
b) Si rr ˆ0 , no se rechaza 0H al nivel de significancia.
Tamaño de la prueba
Como se sabe el tamaño de una prueba se relaciona con la probabilidad del error tipo I, luego se realiza la simulación para el tamaño de prueba considerando que los datos
Prueba propuesta
86
provienen de una muestra de variables aleatorias ),1,0( kLGG , para un valor de k
dado.
Para determinar el tamaño de la prueba se programó una función en el proyecto R. Para los tamaños de prueba, se utilizaron m = 1000 y M = 500 repeticiones. Para la aproximación de los cuantiles se utilizó un error de 0.00001 con 1000 iteraciones y tamaños de muestra n = 30; 40; 50; 75; 100; 150; 200, finalmente se analizaron los valores de k = 0.1; 0.5; 1; 2; 5. Obteniendo los resultados de los cuadros siguientes.
Tamaños de prueba para k =0.1 y valores de
n 0.010 0.020 0.025 0.030 0.040 0.050 0.060 0.070 0.075 0.080 0.090 0.100
30 0.014 0.016 0.018 0.024 0.040 0.050 0.064 0.076 0.080 0.082 0.086 0.096
40 0.010 0.015 0.020 0.020 0.025 0.025 0.060 0.070 0.070 0.075 0.105 0.115
50 0.005 0.015 0.015 0.020 0.030 0.035 0.055 0.075 0.075 0.075 0.085 0.105
75 0.000 0.000 0.005 0.005 0.030 0.030 0.040 0.055 0.065 0.065 0.095 0.100
100 0.004 0.020 0.024 0.028 0.036 0.040 0.056 0.080 0.080 0.080 0.096 0.100
150 0.010 0.020 0.024 0.024 0.038 0.044 0.052 0.056 0.058 0.064 0.072 0.082
200 0.008 0.014 0.020 0.026 0.034 0.040 0.046 0.064 0.066 0.074 0.084 0.090
Tamaños de prueba para k =0.5 y valores de
n 0.010 0.020 0.025 0.030 0.040 0.050 0.060 0.070 0.075 0.080 0.090 0.100
30 0.008 0.022 0.030 0.042 0.050 0.058 0.066 0.072 0.074 0.082 0.098 0.102
40 0.000 0.013 0.013 0.016 0.025 0.038 0.054 0.063 0.073 0.079 0.082 0.098
50 0.010 0.023 0.027 0.030 0.033 0.043 0.057 0.070 0.073 0.077 0.087 0.100
75 0.008 0.008 0.016 0.016 0.040 0.048 0.060 0.068 0.072 0.072 0.080 0.092
100 0.007 0.010 0.013 0.020 0.027 0.033 0.057 0.070 0.070 0.070 0.087 0.090
150 0.006 0.008 0.016 0.028 0.038 0.042 0.054 0.068 0.074 0.074 0.084 0.098
200 0.008 0.012 0.016 0.020 0.034 0.042 0.060 0.064 0.070 0.076 0.082 0.094
Tamaños de prueba para k =1 y valores de
n 0.010 0.020 0.025 0.030 0.040 0.050 0.060 0.070 0.075 0.080 0.090 0.100
30 0.010 0.015 0.025 0.035 0.040 0.045 0.060 0.075 0.090 0.090 0.090 0.110
40 0.010 0.020 0.030 0.035 0.040 0.040 0.055 0.070 0.080 0.090 0.100 0.110
50 0.005 0.014 0.019 0.019 0.034 0.043 0.048 0.063 0.068 0.077 0.082 0.082
75 0.010 0.010 0.024 0.029 0.034 0.048 0.063 0.072 0.077 0.077 0.077 0.101
100 0.000 0.000 0.010 0.015 0.024 0.029 0.044 0.053 0.058 0.068 0.068 0.068
150 0.005 0.020 0.030 0.030 0.030 0.035 0.045 0.055 0.060 0.080 0.085 0.090
200 0.005 0.005 0.010 0.019 0.044 0.058 0.058 0.058 0.058 0.073 0.078 0.092
Tamaños de prueba para k =2 y valores de
Capítulo 4
87
n 0.010 0.020 0.025 0.030 0.040 0.050 0.060 0.070 0.075 0.080 0.090 0.100
30 0.010 0.016 0.020 0.024 0.034 0.046 0.060 0.064 0.072 0.078 0.086 0.100
40 0.004 0.004 0.004 0.020 0.032 0.040 0.052 0.064 0.068 0.072 0.084 0.092
50 0.003 0.007 0.010 0.010 0.020 0.033 0.043 0.057 0.067 0.067 0.087 0.097
75 0.003 0.013 0.017 0.020 0.023 0.030 0.047 0.070 0.070 0.073 0.087 0.097
100 0.007 0.023 0.037 0.037 0.047 0.053 0.063 0.067 0.070 0.073 0.083 0.093
150 0.008 0.016 0.020 0.024 0.034 0.042 0.054 0.060 0.068 0.074 0.080 0.088
200 0.008 0.020 0.030 0.030 0.040 0.050 0.052 0.066 0.072 0.078 0.082 0.088
Tamaños de prueba para k =5 y valores de
n 0.010 0.020 0.025 0.030 0.040 0.050 0.060 0.070 0.075 0.080 0.090 0.100
30 0.010 0.026 0.026 0.036 0.050 0.052 0.068 0.076 0.082 0.084 0.092 0.102
40 0.010 0.013 0.013 0.023 0.033 0.037 0.040 0.053 0.053 0.073 0.087 0.097
50 0.010 0.013 0.013 0.017 0.023 0.037 0.040 0.040 0.047 0.053 0.057 0.063
75 0.007 0.013 0.020 0.023 0.040 0.047 0.053 0.063 0.070 0.073 0.077 0.090
100 0.007 0.020 0.030 0.030 0.040 0.047 0.057 0.067 0.073 0.080 0.090 0.100
150 0.006 0.018 0.020 0.020 0.022 0.030 0.036 0.048 0.054 0.058 0.060 0.066
200 0.006 0.014 0.022 0.026 0.038 0.040 0.046 0.052 0.056 0.074 0.084 0.092
Tabla 4.5: Tamaños de prueba para k = 0:1; 0:5; 1; 2; 5, usando el EMV y tamaño de muestra n = 30;
40,…, 200 realizando m = 1000 y M = 500 repeticiones con aproximaciones de los cuantiles en un error menor a 0.00001 con 1000 iteraciones.
Potencia de la prueba
Después de revisar el tamaño de la prueba, para la prueba bootstrap paramétrica obviamente el paso siguiente consiste en determinar la potencia de la prueba para el problema (4.1.2), determinar si los datos muestrales analizados pertenecen a la familia LGG . Por tratarse de una prueba bootstrap, se proporciona un programa en el proyecto R que calcule la potencia de la prueba, el cual trabaja de la siguiente forma:
1. Se genera una muestra nxxx ,,, 21 , en donde es la distribución
alternativa. 2. Con la muestra generada en 1 calcular una estimación para el parámetro de
forma y considerar su valor absoluto, denotándola por 0
~k .
3. Con la muestra generada en 1 y 0
~k
se calcula el coeficiente de correlación
muestral, 0r .
4. A partir de 0
~k iniciar un ciclo bootstrap.
d) Generar una muestra bootstrap de tamaño n de )~
,1,0( 0kLGG .
e) Con la muestra bootstrap del inciso 4a calcular una estimación para el
parámetro de forma y considerar su valor absoluto, denotándola por1
~k .
Prueba propuesta
88
f) Con 1
~k del inciso 4b se calcula el coeficiente de correlación muestral
1~r .
5. El ciclo bootstrap del inciso 4 se repite m veces para calcular mrrr ~,,~,~21 en
donde m es la cantidad de estimaciones de bootstrap para determinar el cuantil bootstrap, generalmente se recomienda m 1000.
6. Con el ciclo terminado mrrr ~,,~,~21 son ordenados en forma no decreciente,
denotándolos con ir̂ . Entonces, mrrr ˆˆˆ 21 y se obtienen los cuantiles
requeridos. En este caso se tomaran los cuantiles 0.01 , 0.025, 0.05, 0.075 y 0.10,
que se denotan en general icr̂ para ic = 0.01, 0.025,. . . , 0.10.
7. Comparar 0̂r con los cuantiles del inciso 6.
c) Si icrr ˆ
0̂ , se signa 1 en el cuantil correspondiente.
d) Si icrr ˆ
0̂ , se asigna un 0 en el cuantil correspondiente.
8. Repetir los incisos desde el 1 hasta el 7 M veces. Finalmente se obtienen los promedios por cuantil de estas repeticiones, dichos promedios son las potencias de las pruebas.
En general el problema de decidir qué distribuciones utilizar para calcular la potencia de la prueba, para el caso bootstrap paramétrico es sencillo, debido a la invarianza del coeficiente de asimetría con respecto a localidad y escala, y el hecho de que dos segmentos siempre son homotéticos, las densidades no necesariamente deben tener el mismo soporte, como era una primera idea al respecto.
Luego, las distribuciones que serán utilizadas en la potencia de la prueba bootstrap, se han clasificado en tres tipos: simétricas, sesgadas y las que pueden ser de alguno de los tipos anteriores, según se elijan sus parámetros. Se muestran sus funciones de densidad de cada una de ellas.
Distribuciones simétricas
1) Normal
2
2
2
2
1),;(
x
xf con Rx , y 0 .
2) T-student 2
1
2
1
2
2
1
);(
v
v
x
vv
v
vxf
con Rx , 0v .
3) Logística
21),;(
x
x
xf
con Rx , y 0 .
Capítulo 4
89
4) Laplace
xxf
2
1),;( con Rx , y 0 .
5) Cauchy
2
1
1),;(
x
xf con Rx , y 0 .
6) t-no central
V
Uxf
),;( , )1,0(~ NU 2~ vV independientes con R y
0 .
Distribución que puede ser asimétrica o simétrica
7) Beta
11 1),;(
xxxf con 10 x , 0, .
Distribuciones asimétricas
8) Gumbel
xxxf exp
1),;( con Rx , y 0 .
9) Gamma
xxxf
1),;( con 0,, x .
10) ji-cuadrada
212
2 22
1);( x
vxxf
con 0, x .
11) Weibull
xx
xf
1
),;( con 0,, x .
12) F-snedecor
2
2
112
21
2
2
121
21
21
1
1
122
2),;(
xxxf con
0,, 21 x .
Prueba propuesta
90
13) Fréchet
x
xxf
1exp
1),,;(
1 con Rx ,
0, .
14) Exponencial
xxf
1);( con 0, x .
15) Pareto 1
),;(
xxf con 0,, x .
16) Log-normal
2
2
2
log
2
1),;(
x
xxf con Rx ,0 y 0 .
17) Log-Logística
2log
log
1),;(
x
x
xxf
con Rx ,0 y 0 .
18) Log-Cauchy
2
log1
1),;(
x
x
xf con Rx ,0 y 0 .
19) Log t-student 2
1
2log
1
2
2
1
),;(
v
v
x
vv
x
v
vxf
con Rx ,0 y
0 .
20) Log-Laplace
x
xxf
log
2
1),;( con Rx ,0 y 0 .
Resultados de la potencia de la prueba
A continuación se presentan algunas tablas que muestran la potencia de la prueba para el estimador k̂ del parámetro de forma de la familia ),1,0( kLGG , con diferentes
valores de significancia (0.01, 0.025, 0.05, 0.075 y 0.10) y tamaños de muestra (30, 40, 50, 75, 100, 150 y 200), aplicados a cada una de las distribuciones mostradas arriba. Se hace una diferencia entre las distribuciones que tienen soporte en todo R y son simétricas con respecto a otras distribuciones que son simétricas.
Capítulo 4
91
n 0.010 0.025 0.050 0.075 0.100
30 0.000 0.020 0.040 0.050 0.070
40 0.010 0.020 0.050 0.090 0.120
50 0.020 0.030 0.060 0.100 0.130
75 0.020 0.060 0.060 0.100 0.140
100 0.050 0.060 0.090 0.120 0.140
150 0.076 0.099 0.116 0.170 0.207
200 0.117 0.147 0.157 0.212 0.251 Tabla 4.6: Potencias para la distribución alternativa normal con 0 y 2.0 .
n 0.010 0.025 0.050 0.075 0.100
30 0.130 0.190 0.260 0.270 0.300
40 0.220 0.280 0.320 0.400 0.420
50 0.320 0.400 0.460 0.500 0.540
75 0.290 0.350 0.440 0.500 0.560
100 0.367 0.442 0.514 0.581 0.636
150 0.450 0.532 0.609 0.689 0.755
200 0.502 0.591 0.680 0.750 0.830 Tabla 4.7: Potencias para la distribución alternativa t-Student con 5 .
n 0.010 0.025 0.050 0.075 0.100
30 0.075 0.135 0.185 0.250 0.265
40 0.080 0.150 0.210 0.270 0.305
50 0.145 0.200 0.255 0.280 0.305
75 0.160 0.255 0.325 0.370 0.405
100 0.181 0.266 0.336 0.372 0.410
150 0.224 0.320 0.397 0.425 0.469
200 0.263 0.369 0.450 0.476 0.522 Tabla 4.8: Potencias para la distribución alternativa Logística con 0 y 2 .
n 0.010 0.025 0.050 0.075 0.100
30 0.260 0.350 0.400 0.410 0.470
40 0.340 0.450 0.490 0.560 0.590
50 0.390 0.460 0.520 0.580 0.610
75 0.510 0.560 0.670 0.760 0.800
100 0.532 0.584 0.688 0.793 0.822
150 0.578 0.622 0.738 0.856 0.883
200 0.622 0.657 0.784 0.915 0.939 Tabla 4.9: Potencias para la distribución alternativa Laplace con 0 y 2 .
Prueba propuesta
92
n 0.010 0.025 0.050 0.075 0.100
30 0.040 0.120 0.170 0.200 0.250
40 0.120 0.250 0.290 0.320 0.380
50 0.130 0.210 0.350 0.450 0.510
75 0.270 0.400 0.510 0.540 0.640
100 0.283 0.420 0.542 0.601 0.697
150 0.326 0.472 0.605 0.667 0.771
200 0.365 0.520 0.663 0.728 0.840 Tabla 4.10: Potencias para la distribución alternativa Beta con 4 y 10 .
n 0.010 0.025 0.050 0.075 0.100
30 0.930 0.950 0.970 0.970 0.970
40 0.960 0.970 0.980 0.980 0.980
50 0.980 0.990 0.990 0.990 0.990
75 1.000 1.000 1.000 1.000 1.000 Tabla 4.11: Potencias para la distribución alternativa Cauchy con 0 y 2 .
n 0.010 0.025 0.050 0.075 0.100
30 0.340 0.390 0.460 0.530 0.580
40 0.460 0.600 0.640 0.680 0.720
50 0.610 0.690 0.740 0.790 0.800
75 0.790 0.870 0.890 0.920 0.950
100 0.842 0.937 0.953 0.978 0.994
150 0.928 1.000 1.000 1.000 1.000 Tabla 4.12: Potencias para la distribución alternativa Gumbel con 0 y 2 .
n 0.010 0.025 0.050 0.075 0.100
30 0.600 0.740 0.820 0.860 0.860
40 0.740 0.850 0.900 0.910 0.920
50 0.860 0.920 0.950 0.980 0.980
75 0.980 1.000 1.000 1.000 1.000
100 1.000 1.000 1.000 1.000 1.000
Tabla 4.13: Potencias para la distribución alternativa Gamma con 4 y 5 .
n 0.010 0.025 0.050 0.075 0.100
30 0.100 0.185 0.275 0.320 0.355
40 0.150 0.360 0.440 0.500 0.560
50 0.370 0.460 0.520 0.580 0.610
75 0.560 0.640 0.770 0.810 0.860
100 0.613 0.697 0.811 0.857 0.908
150 0.707 0.781 0.902 0.947 1.000
200 0.873 0.916 0.985 1.000 1.000 Tabla 4.14: Potencias para la distribución alternativa Ji-cuadrada con 20 .
Capítulo 4
93
n 0.010 0.025 0.050 0.075 0.100
30 0.040 0.160 0.230 0.260 0.390
40 0.150 0.220 0.310 0.420 0.470
50 0.150 0.300 0.380 0.510 0.520
75 0.420 0.610 0.760 0.810 0.880
100 0.514 0.723 0.772 0.847 0.890
150 0.557 0.776 0.876 0.949 0.986
200 0.819 0.912 0.975 1.000 1.000 Tabla 4.15: Potencias para la distribución alternativa Weibull con 2 y 2 .
n 0.010 0.025 0.050 0.075 0.100
30 0.945 0.975 0.995 1.000 1.000
40 0.980 0.990 1.000 1.000 1.000
Tabla 4.16: Potencias para la distribución alternativa F con 41 y 82 .
n 0.010 0.025 0.050 0.075 0.100
30 0.960 0.960 0.960 0.960 0.960
40 0.995 0.995 0.995 0.995 0.995 Tabla 4.17: Potencias para la distribución alternativa Fréchet con 0 , 2 y 5 .
n 0.010 0.025 0.050 0.075 0.100
30 0.910 0.960 0.990 0.990 1.000
40 0.980 0.990 1.000 1.000 1.000
50 1.000 1.000 1.000 1.000 1.000 Tabla 4.18: Potencias para la distribución alternativa Pareto con 4 y 20 .
n 0.010 0.025 0.050 0.075 0.100
30 0.830 0.910 0.940 0.980 0.980
40 0.990 1.000 1.000 1.000 1.000 Tabla 4.19: Potencias para la distribución alternativa Exponencial con 1.0 .
Potencias para las distribuciones alternativas restantes:
Log-normal con 0 y 2 .
Log-logística con 0 y 2 .
Log-Cauchy con 0 y 2 .
Log t-student con 0 y 5 .
Prueba propuesta
94
Log-Laplace con 0 y 2 .
Para tamaños de muestra 30 fue 1.
NOTA: De las tablas para la potencia de la prueba se puede establecer: 1) La prueba tiene una potencia elevada en caso de distribuciones sesgadas a la
derecha.
2) La prueba funciona mejor mientras más pesada es la cola
3) La prueba es un poco baja en el caso de distribuciones simétricas y tamaños de muestra pequeños
95
Conclusiones El uso de las pruebas de bondad de ajuste cada vez resulta más sencillo si se conoce y entiende la metodología de estas pruebas. Además es importante conocer las bases estadísticas necesarias, como son los estimadores puntuales. Entendiendo claramente los conceptos de parámetros, estimadores, sus propiedades y las técnicas para obtener a los mejores estimadores se puede entender la aplicación de las pruebas de bondad de ajuste y hacer buen uso de estas pruebas tan importantes dentro de la estadística.
El principal problema de estas pruebas resulta ser la construcción de la estadística de prueba, la cual, como se ha mencionado en este trabajo, es una función de distancia, por ello resultó interesante el estudiar las distancias más importantes, además de las condiciones que deben cumplir para que sean llamadas funciones de distancia.
Actualmente la aparición de los programas computacionales y el uso de la técnica bootstrap es mayor y facilitan la construcción de nuevas metodologías para llevar a cabo pruebas de bondad de ajuste cuando la estadística de prueba no es posible obtenerla en forma cerrada.
96
Bibliografía
[1] Andrews, D. W. (1997). A Conditional Kolmogorov Test. ECONOMETRICA,
1097.1128.
[2] Anscombe, F. J. (1963). Test of goodness of fit. Journal of the Royal Statistical
Society , 25 (1), 81.94.
[3] Borovkov, A. A. (1999). Mathematical Statistics. Taylor & Francis.
[4] Canavos George C. (1988). Probabilidad y Estadística, problemas y aplicaciones.
Mc Graw.Hill/Interamericana
[5] Casella George and Berger L. Roger. (2001). Statistical Inference, Duxbury Press; 2
edition, 688p. ISBN 978.0534.243.12.8
[6] Donald W., K. A. (1997). A Conditional Kolmogorov Test. Econometrica , 65 (5),
1097.1128.
[7] Geoffrey J. McLachlan, D. P. (1946). Finite Mixture Models. New York: Jhon
Wiley.
[8] Gmurman, V. E. (1974). Teoría de las probabilidades y estadística matemática,
Moscú, Mir.
[9] González, E. G. (2010). Pruebas de bondad de ajuste Bootstrap para la distribución
Log.Gamma Generalizada. Texcoco, edo de México: Tesis de postgrado
[10] Grupo de Investigación TeLoYDisRen. Inferencia Estadística (2ª Edición
Revisada).
[11] Kallenberg, O. (2002). Foundations of Modern Probability, 2nd ed. Spinger
Series in Statistics.
[12] Mood A. M., Graybill F. A. and Boes D. C. (1975). Introduction to the Theory of
Statistics. Ed. McGraw Hill, New York, USA
[13] Mukhopadhyay, N. (1972). Probability and Estatistical Inference. New York:
Marcel Dekker.
[14] Rodgers, J. L. (1999). The Bootstrap, the Jacknife, and the Randomization test: A
Sampling Taxonomy. Multivariate Behavioral Research, 441.456.
[15] Ross M. Sheldon. (2006). Introduction to Probability Models, Academic Press; 9
edition, 800 p. ISBN.13: 978.0125980623
[16] S. S. Shapiro y M. B. Wilk (1965). An Analysis of Variance Test for Normality.
Biometrika , 52 (3/4), 591.611.
97
[17] S. S. Shapiro, M. B. Wilk (1965). An analysis of variance test for normlity.
Biometrika, 591.611
[18] Sibley, D. A. (1971). A metric for weak convergence of distribution functions.
Rocky Mountain.
[19] Spiegel, Murray. 1970. Estadística, McGraw.Hill, México
[20] Stigler, Stephen M. (1990). The History of Statistics: The Measurement of
Uncertainty before 1900
[21] Thode, H. C. (2002). Testing for normality. Marcel & Dekker.
[22] Zylberberg, Alejandro D. 2005. Probabilidad y Estadística . 1a ed. Editorial
Nueva Librería, 835 p. ISBN 987.1104.33.2
98
Anexo 1
TABLA 1. VALORES DE LA DISTRIBUCIÓN JI.CUADRADA PARA ÁREAS DERECHAS.
2P
Grados de libertad
0.3 0.2 0.15 0.1 0.05 0.02 0.01 0.001
3 3.665 4.642 5.317 6.251 7.815 9.837 11.345 16.266
4 4.878 5.989 6.745 7.779 9.488 11.668 13.277 18.467
5 6.064 7.289 8.115 9.236 11.070 13.388 15.086 20.515
6 7.231 8.558 9.446 10.645 12.592 15.033 16.812 22.458
7 8.383 9.803 10.748 12.017 14.067 16.622 18.475 24.322
8 9.524 11.030 12.027 13.362 15.507 18.168 20.090 26.124
9 10.656 12.242 13.288 14.684 16.919 19.679 21.666 27.877
10 11.781 13.442 14.534 15.987 18.307 21.161 23.209 29.588
11 12.899 14.631 15.767 17.275 19.675 22.618 24.725 31.264
12 14.011 15.812 16.989 18.549 21.026 24.054 26.217 32.909
13 15.119 16.985 18.202 19.812 22.362 25.472 27.688 34.528
14 16.222 18.151 19.406 21.064 23.685 26.873 29.141 36.123
15 17.322 19.311 20.603 22.307 24.996 28.259 30.578 37.697
16 18.418 20.465 21.793 23.542 26.296 29.633 32.000 39.252
17 19.511 21.615 22.977 24.769 27.587 30.995 33.409 40.790
18 20.601 22.760 24.155 25.989 28.869 32.346 34.805 42.312
19 21.689 23.900 25.329 27.204 30.144 33.687 36.191 43.820
20 22.775 25.038 26.498 28.412 31.410 35.020 37.566 45.315
21 23.858 26.171 27.662 29.615 32.671 36.343 38.932 46.797
22 24.939 27.301 28.822 30.813 33.924 37.659 40.289 48.268
23 26.018 28.429 29.979 32.007 35.172 38.968 41.638 49.728
24 27.096 29.553 31.132 33.196 36.415 40.270 42.980 51.179
25 28.172 30.675 32.282 34.382 37.652 41.566 44.314 52.620
26 29.246 31.795 33.429 35.563 38.885 42.856 45.642 54.052
27 30.319 32.912 34.574 36.741 40.113 44.140 46.963 55.476
28 31.391 34.027 35.715 37.916 41.337 45.419 48.278 56.892
29 32.461 35.139 36.854 39.087 42.557 46.693 49.588 58.301
30 33.530 36.250 37.990 40.256 43.773 47.962 50.892 59.703
Nota: Para valores de n (grados de libertad) mayores que 30 puede obtenerse la probabilidad a
través de la transformación 12)(2 2 nn que es aproximadamente N(0,1) .
99
TABLA 2. VALORES CRÌTICOS DE D PARA LA PRUEBA DE KOLMOGOROVSMIRNOV
DE UNA MUESTRA.
Tamaño de la muestra
(n)
Nivel de significancia
0.2 0.15 0.1 0.05 0.01
1 0.900 0.925 0.950 0.875 0.995
2 0.684 0.726 0.776 0.842 0.929
3 0.565 0.597 0.642 0.708 0.828
4 0.494 0.525 0.564 0.624 0.733
5 0.446 0.474 0.510 0.565 0.669
6 0.410 0.436 0.470 0.521 0.618
7 0.381 0.405 0.438 0.486 0.577
8 0.358 0.381 0.411 0.457 0.543
9 0.339 0.360 0.388 0.432 0.514
10 0.322 0.342 0.368 0.410 0.490
11 0.307 0.326 0.352 0.391 0.468
12 0.295 0.313 0.338 0.375 0.450
13 0.284 0.302 0.325 0.361 0.433
14 0.274 0.292 0.314 0.349 0.418
15 0.266 0.283 0.304 0.338 0.404
16 0.258 0.274 0.295 0.328 0.392
17 0.250 0.266 0.286 0.318 0.381
18 0.244 0.259 0.278 0.309 0.371
19 0.237 0.252 0.272 0.301 0.363
20 0.231 0.246 0.264 0.294 0.356
25 0.210 0.220 0.240 0.270 0.320
30 0.190 0.200 0.220 0.240 0.290
35 0.180 0.190 0.201 0.230 0.270
>35 n
07.1
n
14.1
n
22.1
n
36.1
n
63.1
100
TABLA 2. COEFICIENTES 1ina PARA LA PRUEBA DE NORMALIDAD DE
SHAPIROWILK.
n i
2 3 4 5 6 7 8 9 10
1 0.7071 0.7071 0.6872 0.6646 0.6431 0.6233 0.6052 0.5888 0.5739
2 . 0.0000 0.1677 0.2413 0.2806 0.3031 0.3164 0.3244 0.3291
3 . . . 0.0000 0.0875 0.1401 0.1743 0.1976 0.2141
4 . . . . . 0.0000 0.0561 0.9470 0.1224
5 . . . . . . . 0.0000 0.0399
n i
11 12 13 14 15 16 17 18 19 20
1 0.5601 0.5475 0.5359 0.5251 0.5120 0.5056 0.4968 0.4886 0.4808 0.4734
2 0.3315 0.3325 0.3325 0.3318 0.3306 0.3290 0.3273 0.3253 0.3232 0.3211
3 0.2260 0.2347 0.2412 0.2460 0.2495 0.2521 0.2540 0.2553 0.2561 0.2565
4 0.1429 0.1586 0.1707 0.1802 0.1878 0.1939 0.1988 0.2027 0.2059 0.2085
5 0.0695 0.0922 0.1099 0.1240 0.1353 0.1447 0.1524 0.1587 0.1641 0.1686
6 0.0000 0.0303 0.0539 0.0727 0.0880 0.1005 0.1109 0.1197 0.1271 0.1334
7 . . 0.0000 0.0240 0.0433 0.0593 0.0725 0.0837 0.0932 0.1013
8 . . . . 0.0000 0.0196 0.0359 0.0496 0.0612 0.0711
9 . . . . . . 0.0000 0.0163 0.0303 0.0422
10 . . . . . . . . 0.0000 0.0140
n i
21 22 23 24 25 26 27 28 29 30
1 0.4643 0.4590 0.4542 0.4493 0.4450 0.4407 0.4366 0.4328 0.4291 0.4254
2 0.3185 0.3156 0.3126 0.3098 0.3069 0.3043 0.3018 0.2992 0.2968 0.2944
3 0.2578 0.2571 0.2563 0.2554 0.2543 0.2533 0.2522 0.2510 0.2499 0.2484
4 0.2119 0.2131 0.2139 0.2145 0.2148 0.2151 0.2152 0.2151 0.2150 0.2148
5 0.1736 0.1764 0.1787 0.1807 0.1822 0.1836 0.1848 0.1857 0.1864 0.1870
6 0.1399 0.1443 0.1480 0.1512 0.1539 0.1563 0.1584 0.1601 0.1616 0.1630
7 0.1092 0.1150 0.1201 0.1245 0.1283 0.1316 0.1346 0.1372 0.1395 0.1415
8 0.0804 0.0878 0.0941 0.0997 0.1046 0.1089 0.1128 0.1162 0.1192 0.1219
9 0.0530 0.0618 0.0696 0.0764 0.0823 0.0876 0.0923 0.0650 0.1002 0.1036
10 0.0263 0.0368 0.0459 0.0539 0.0610 0.0672 0.0728 0.0778 0.0822 0.0862
11 0.0000 0.0122 0.0228 0.0321 0.0403 0.0476 0.0540 0.0598 0.0650 0.0697
12 . . 0.0000 0.0107 0.0200 0.0284 0.0358 0.0424 0.0483 0.0537
13 . . . . 0.0000 0.0094 0.1780 0.0253 0.3200 0.0381
14 . . . . . . 0.0000 0.0084 0.0159 0.0227
15 . . . . . . . . 0.0000 0.0076
101
n i
31 32 33 34 35 36 37 38 39 40
1 0.4220 0.4188 0.4156 0.4127 0.4096 0.4068 0.4040 0.4015 0.3989 0.3964
2 0.2921 0.2898 0.2876 0.2854 0.2831 0.2813 0.2794 0.2774 0.2455 0.2737
3 0.2475 0.2463 0.2451 0.2439 0.2427 0.2415 0.2403 0.2391 0.2380 0.2368
4 0.2145 0.2141 0.2137 0.2132 0.2127 0.2121 0.2116 0.2110 0.2101 0.2098
5 0.1874 0.1878 0.1880 0.1882 0.1883 0.1883 0.1883 0.1881 0.1880 0.1878
6 0.1641 0.1651 0.1660 0.1667 0.1673 0.1678 0.1683 0.1686 0.1689 0.1691
7 0.1433 0.1449 0.1463 0.1475 0.1487 0.1496 0.1505 0.1513 0.1520 0.1526
8 0.1243 0.1265 0.1284 0.1301 0.1317 0.1331 0.1344 0.1356 0.1366 0.1376
9 0.1066 0.1093 0.1118 0.1140 0.1160 0.1179 0.1196 0.1211 0.1225 0.1237
10 0.0899 0.0931 0.0961 0.0988 0.1013 0.1036 0.1056 0.1075 0.1092 0.1108
11 0.0739 0.0777 0.0812 0.0844 0.0873 0.0900 0.0924 0.0947 0.0967 0.0986
12 0.0585 0.0629 0.0669 0.0706 0.0739 0.0770 0.0798 0.0824 0.0848 0.0870
13 0.0435 0.0485 0.0530 0.0572 0.0610 0.0645 0.0677 0.0706 0.0733 0.0759
14 0.2890 0.0344 0.0395 0.0441 0.0484 0.0523 0.0559 0.0582 0.0622 0.0651
15 0.1440 0.0206 0.0262 0.0314 0.0361 0.0404 0.0444 0.0481 0.0515 0.0546
16 0.0000 0.0068 0.0131 0.0187 0.0239 0.0287 0.0331 0.0372 0.0409 0.0444
17 . . 0.0000 0.0062 0.0119 0.0172 0.0220 0.0264 0.0305 0.0343
18 . . . . 0.0000 0.0057 0.0110 0.0158 0.0203 0.0244
19 . . . . . . 0.0000 0.0053 0.0101 0.0146
20 . . . . . . . . 0.0000 0.0049
n i
41 42 43 44 45 46 47 48 49 50
1 0.3940 0.3917 0.3894 0.3872 0.3850 0.3830 0.3808 0.3789 0.3770 0.3751
2 0.2719 0.2701 0.2684 0.2667 0.2651 0.2635 0.2620 0.2604 0.2589 0.2574
3 0.2357 0.2345 0.2334 0.2323 0.2313 0.2302 0.2291 0.2281 0.2271 0.2260
4 0.2091 0.2085 0.2078 0.2072 0.2065 0.2058 0.2052 0.2045 0.2038 0.2032
5 0.1876 0.1874 0.1871 0.1868 0.1865 0.1862 0.1859 0.1855 0.1851 0.1847
6 0.1693 0.1694 0.1695 0.1695 0.1695 0.1695 0.1695 0.1693 0.1692 0.1691
7 0.1531 0.1535 0.1539 0.1542 0.1545 0.1548 0.1550 0.1551 0.1553 0.1554
8 0.1384 0.1392 0.1398 0.1405 0.1410 0.1415 0.1420 0.1423 0.1427 0.1430
9 0.1249 0.1259 0.1269 0.1278 0.1286 0.1293 0.1200 0.1306 0.1312 0.1317
10 0.1123 0.1136 0.1149 0.1160 0.1170 0.1180 0.1189 0.1197 0.1205 0.1212
11 0.1004 0.1020 0.1035 0.1049 0.1062 0.1073 0.1085 0.1095 0.1105 0.1113
12 0.0891 0.0909 0.0927 0.0943 0.0959 0.0972 0.0986 0.0998 0.1010 0.1020
13 0.0782 0.0804 0.0824 0.0842 0.0860 0.0876 0.0892 0.0906 0.0919 0.0932
14 0.0677 0.0701 0.0724 0.0745 0.0765 0.0783 0.0801 0.0817 0.0832 0.0846
102
n i
41 42 43 44 45 46 47 48 49 50
15 0.0575 0.0602 0.0628 0.0651 0.0673 0.0694 0.0713 0.0731 0.0748 0.0764
16 0.0476 0.0506 0.0534 0.0560 0.0584 0.0607 0.0628 0.0648 0.0667 0.0685
17 0.0379 0.0411 0.0442 0.0471 0.0497 0.0522 0.0546 0.0568 0.0588 0.0608
18 0.0283 0.0318 0.0352 0.0383 0.0412 0.0439 0.0465 0.0489 0.0511 0.0532
19 0.0188 0.0227 0.0263 0.0296 0.0328 0.0357 0.0385 0.0411 0.0436 0.0459
20 0.0094 0.0136 0.0175 0.0211 0.0245 0.0277 0.0307 0.0335 0.0361 0.0386
21 0.0000 0.0045 0.0087 0.0126 0.0163 0.0197 0.0229 0.0259 0.0288 0.0314
22 . . 0.0000 0.0042 0.0081 0.0118 0.0153 0.0185 0.0215 0.0244
23 . . . . 0.0000 0.0039 0.0076 0.1110 0.0143 0.0174
24 . . . . . . 0.0000 0.0037 0.0071 0.0104
25 . . . . . . . . 0.0000 0.0035
103
Anexo 2
Desarrollo de la igualdad:
2
1
2
2
22
1
2
11
22
2
22
2
22
222 ~)1()1(
np
npY
np
npY
pnp
npY
pnp
npYZ
2
22
11
1
2
2
2
22
1
2
2
2
22
1
21
2
2
22
12
2
22
22
2
22
2
22
222
11
1
1)1(
npy
npy
p
p
np
npy
p
p
np
npy
p
pp
np
npy
pnp
npy
pnp
npy
pnp
npYZ
Donde
2
22
11
npy
npyes igual a 1
2
1
1
2
11
2
2
22
2
22
2
1
2
11
2
2
22
2
2
22
2
22
2
1
2
11
2
2
22
2
22
2
11
1
2
2
2
22
~
11
np
npy
np
npy
npy
np
np
npy
np
npy
np
npy
npy
np
np
npy
np
npy
n
n
npy
npy
p
p
np
npy
Top Related