ESTIMACIÓN ESTADÍSTICA-ppt

Post on 10-Dec-2015

132 views 12 download

description

Esta ppt trantan sobre estimaciòn puntual.

Transcript of ESTIMACIÓN ESTADÍSTICA-ppt

ESTIMACIÓN ESTADÍSTICA

Profesor: Eduardo Villa M.

Introducción a la Inferencia Estadística

PROBLEMA:En muchos casos no será posible determinar el valor de un parámetro poblacional analizando todos los valores poblacionales, pues el proceso a seguir para determinar el valor del parámetro puede ser destructivo, o nos puede costar mucho tiempo o mucho dinero el analizar cada unidad poblacional.

Introducción a la Inferencia Estadística

PROBLEMA:En estas situaciones, la única salida que tenemos es utilizar la inferencia estadística para obtener información sobre los valores de los parámetros poblacionales, basándonos en la información contenida en una muestra aleatoria

Introducción a la Inferencia Estadística

Parámetros poblacionales importantes:• La renta media de todas las familias de Lima

Metropolitana.• El tiempo medio de espera en el supermercado

Metro.• La desviación estándar del error de medida de un

instrumento electrónico.• La proporción de familias que poseen TV a color.• La proporción de automóviles que se averían durante

el primer año de garantía.

Introducción a la Inferencia Estadística

• Objetivo Básico: Hacer inferencias o sacar conclusiones sobre la población a partir de la información contenida en una muestra aleatoria de la población.

• Específicamente: Consiste en un proceso de selección y utilización de un estadístico muestral, mediante el cual, utilizando la información que nos proporciona una muestra aleatoria, nos permite sacar conclusiones sobre características poblacionales.

Introducción a la Inferencia Estadística

Población Espacio Muestral Rn

F(x; θ ) (X,X2,…..,Xn)

Muestreo Parámetro n

θ (x1,x2,…..,xn)

=(x1,x2,…,xn)

Introducción a la Inferencia Estadística

Población Espacio Muestral Rn

F(x;σ2) (X1,X2,…..,Xn)

Muestreo

Parámetro n σ2 (x1,x2,……,xn)

2=s2 = 2

Estimador

Introducción a la Inferencia Estadística

• Cualquier inferencia o conclusión obtenida de la población, necesariamente estará basada en un estadístico muestral, es decir, en la información proporcionada por la muestra.

• El valor verdadero del parámetro será desconocido y un objetivo será estimar su valor, por lo que tal estadístico se denomina estimador.

Introducción a la Inferencia Estadística

Las inferencias sobre el valor de un parámetro poblacional θ se pueden obtener básicamente de dos maneras:1. Por estimación– Estimación puntual– Estimación por intervalos

2. Por contrastación de hipótesis

ESTIMACIÓN PUNTUAL

Definición: Consiste en obtener un único número, calculado a partir de las observaciones muestrales y que es utilizado como estimación del valor del parámetro θ. Se le llama estimación puntual porque a ese número, que se utiliza como estimación del parámetro θ, se le puede asignar un punto sobre la recta real.

ESTIMACIÓN PUNTUAL Población Espacio Muestral Rn

F(x;σ2) (X1,X2,…..,Xn)

Muestreo Parámetro n

θ (x1,x2,….,xn)

=g(x1,x2,…,xn)

Inferencia Estimación Puntual

ESTIMACIÓN PUNTUAL

• ESTIMADOR

= g(X1,X2,……Xn)

• ESTIMACIÓN

= g(x1,x2,…,xn)

Parámetros poblacionales, estimadores y estimaciones

Parámetro poblacional Estimador Estimación

Media μ

Varianza

Proporción P =

Ejemplo

Las ventas de una muestra aleatoria de 10 grandes establecimientos comerciales de Lima, el día 2 de enero de 2013 fueron respectivamente : 16, 10, 8, 12, 4, 6, 5, 4, 10, 5 miles de nuevos soles. Obtener estimaciones puntuales de la venta media, de la varianza de las ventas de todos los establecimientos comerciales y de la proporción de éstos cuyas ventas fueron superiores a 5 mil nuevos soles.

Solución

• Estimación puntual de la media poblacional:

• Estimación puntual de la varianza poblacional:

=== 15,8

• Estimación puntual de la proporción poblacional:

ERROR CUADRÁTICO MEDIO

Definición: ECM=+

Donde:==

Ejemplo

Sea , una muestra aleatoria simple de tamaño 3, cuyos valores son siempre positivos y procedentes de una población con media y varianza . Consideremos como posibles estimadores de los estadísticos:

Obtener los errores cuadráticos medios de y y comparar sus valores para diferentes valores del parámetro poblacional

Propiedades de los estimadores puntuales

1. Insesgadez2. Eficiencia3. Consistencia4. Suficiencia5. Invarianza6. Robustez

1. INSESGADEZ

Definición: El estadístico = g(X1,X2,……Xn)

es un estimador insesgado o centrado del parámetro si:

E() = para todos los valores de , y entonces:

sesgo() = b( ) = E() - = 0

1. INSESGADEZ

Casos: b( ) = E() -

1. Si b( ) > 0: sobreestima el valor de 2. Si b( ) < 0: subestima el valor de 3. Si b( ) = 0: es estimador i

nsesgado de

Ejemplo

Demostrar que los estadísticos:1. es un estimador sesgado de 2. es un estimador insesgado de 3. es un estimador insesgado de NOTA: La desviación típica muestral NO es un estimador insesgado de la desviación típica poblacional, es decir:

Ejemplo

Sea una población formada por los elementos (1,2,3). Obtener y .1. Construir todas las muestras posibles de

tamaño n=2 CON REEMPLAZAMIENTO.2. Calcular lo solicitado y comprobar la

propiedad de insesgadez para y S.

Muestras (x1,x2)

(1,1) 1 0,00 0,00 0,00

(1,2) 1,5 0,50 0,50 0,71

(1,3) 2 2,00 2,00 1,41

(2,1) 1,5 0,50 0,50 0.71

(2,2) 2 0,00 0.00 0,00

(2,3) 2,5 0,50 0,50 0,71

(3,1) 2 2,00 2,00 1,41

(3,2) 2,5 0,50 0,50 0,71

(3,3) 3 0,00 0,00 0,00

Total 6,00 6,00 5,66

…sigue ejemplo

La media de la varianza muestral será:= =

La varianza poblacional Por tanto: = y concluimos que

De otro lado: E(S) = = 0,6288 y Por tanto: E(S) y entonces, S no es un estimador insesgado de

Proposición

Si son dos estimadores insesgados del parámetro definido como:es también un estimador insesgado del parámetro

1. INSESGADEZEstimador insesgado de varianza mínima

Cuando E() = y ECM() = )

Buscamos el que tenga la menor varianza.

Estimador insesgado uniformemente de mínima varianza

El estimador 0 es insesgado y uniformemente de mínima varianza (UMVUE:

Uniformly minimum-variance unbiased estimators) para , si dado cualquier

otro estimador insesgado de él, se verifica que:

Var (0 ) ≤ Var () para todos los valores posibles de .

1. INSESGADEZ

COTA DE FRECHET-CRAMER-RAOSea (X1,X2,…..,Xn) una m.a.(n), obtenida de una población con función de densidad o de cuantía f(x; ), entonces, la varianza del estimador está acotada inferiormente:

Var () ≥

1. INSESGADEZ NOTA:

La cota o desigualdad de F-C-R nos da un límite inferior para la varianza del

estimador , pero esto no implica que la varianza de un estimador UMVUE

tenga que ser igual al límite inferior de la varianza dada por la cota de F-C-R.

Es decir, se puede obtener un estimador insesgado que tenga su varianza

más pequeña que la de todos los demás estimadores insesgados de , pero

mayor que el límite inferior dado por la cota de F-C-R. Un estimador que

verifique lo anterior seguirá siendo un estimador UMVUE del parámetro .

2. EFICIENCIA

Estimador eficiente:Un estimador del parámetro poblacional , es eficiente si es insesgado y además su varianza alcanza la cota de Frechet-Cramer-Rao. Esto es equivalente a decir que, un estimador es eficiente si su varianza coincide con la cota de F-C-R: Var () =

2. EFICIENCIA

Eficiencia de un estimador:Se define la eficiencia de un estimador insesgado , del parámetro , como:

eff.( ) =

verificándose que eff.( ) ≤ 1.

2. EFICIENCIA

Eficiencia Relativa:

Dados dos estimadores 1 y 2 de , se define la eficiencia relativa de 1 a 2 como:

eff.relativa (1 , 2 ) = =

Proposición

• Dada una población se verifica que la media muestral es un estimador eficiente de la media poblacional .

• Se demostrará que se cumple la igualdad de la cota F-C-R, es decir:

Ejemplo

Dada una población y los estimadores de la media poblacional para muestras aleatorias simples de tamaño n=3:

Se pide:1. Comprobar si los estimadores y son o no insesgados.2. Calcular la varianza de ambos estimadores.3. ¿Son ambos estimadores eficientes?

2. EFICIENCIA

Estimador asintóticamente eficiente:Diremos que un estimador , del parámetro , es asintóticamente eficiente si se verifica:

lím = 1 n→

3. CONSISTENCIA

Estimador consistente:Una sucesión de estimadores es consistente si la sucesión converge en probabilidad hacia el parámetro , es decir, si para todo ε > 0 se verifica:

lím P( ε) = 1 n→

y cada elemento de la sucesión se dirá que es un estimador consistente.

3. CONSISTENCIA

Consistencia en media cuadrática:Una sucesión de estimadores es consistente en media cuadrática para el parámetro , cuando se verifica:

lím E2 = 0 n→

y cada elemento de la sucesión se dirá que es un estimador consistente en media cuadrática.

Teorema

Si un estimador es consistente en media cuadrática, también es consistente en probabilidad, pero no necesariamente se verifica al revés.

3. CONSISTENCIA

Consistencia casi segura:Una sucesión de estimadores es consistente casi seguro para el parámetro , cuando se verifica:

P(lím )= 1 n→

y cada elemento de la sucesión se dirá que es un estimador consistente casi seguro.

Ejemplo

Sea (X1,X2,…..,Xn) una muestra aleatoria de tamaño n procedente de una población . Demostrar que la media muestral y la varianza muestral son estimadores consistentes de la media y varianza poblacional, respectivamente.

4. SUFICIENCIA

Intuitivamente:

Un estadístico es suficiente para un parámetro cuando utiliza toda la información relevante contenida en la muestra aleatoria, con respecto a y ningún otro estadístico puede proporcionar más información adicional sobre el parámetro poblacional .

4. SUFICIENCIA

Estimador suficiente:Sea (X1,….,Xn) una m.a.(n) de una población cuya distribución depende de un parámetro desconocido. Diremos que el estadístico o estimador T = T(X1,….,Xn) es suficiente para el parámetro , si la distribución condicionada de X1,….,Xn dado el valor del estadístico T=t, no depende del parámetro .

Ejemplo

• Sea una muestra aleatoria (X1,X2,X3) procedente de una distribución B(1,p) y sean los estadísticos:

Tales que para la muestra de tamaño n=3 toman los valores =2.Comprobar que es suficiente y que no es suficiente.

4. SUFICIENCIA

Teorema de Factorización de Fisher-Neyman:Sea (X1,….,Xn) una m.a.(n) de una población con F(x; ) y sea la función de cuantía de la muestra:P(x1,….,xn; ) = P (X1 = x1,…..,Xn=xn), o la función de densidad de la muestra: f (x1,…,xn;

Entonces, el estadístico T = T (X1,….,Xn) es suficiente para el parámetro si y solamente si podemos descomponer la función de probabilidad o la función de densidad de la muestra como producto de dos factores no negativos: P (x1,…..,xn) = g(T(x1,….,xn); ).h(x1,….,xn)

f (x1,…,xn; = g(T(x1,….,xn); ).h(x1,….,xn)

4. SUFICIENCIA

Teorema de Factorización de Fisher-Neyman:en donde g(T, ) es una función que depende solamente de y de la muestra a través del estadístico T(X1,…..,Xn) y h(x1,……,xn) no depende de .

Ejemplo

Sea una muestra aleatoria (X1, X2,……,Xn) de una distribución B(1,p). Comprobar utilizando el teorema de factorización que el estadístico es suficiente para el parámetro p.

5. INVARIANZA

Estimador invariante:Diremos que un estimador es invariante frente a la transformación f(.), si se verifica que el estimador de esa fuinción del parámetro , es igual al propio estimador del parámetro, es decir cuando se verifica que:

(f(X1,….,Xn)) = (X1,….,Xn)

5. INVARIANZA

Tipos de invarianzas o de estimadores invariantes:1. Estimador invariante a cambios de origen.2. Estimador invariante a cambios de escala.3. Estimador invariante a cambios de origen y

de escala.4. Estimador invariante a permutaciones.

5. INVARIANZA

Estimador invariante a cambio de origen:

Dados una m.a.(n) X1,….,Xn y un estimador (X1,….,Xn) del parámetro , entonces si se realiza un cambio de origen en los datos de la muestra, sumando una constante k: (X1+k,…..,Xn+k), diremos que es invariante a cambios de origen o de localización si y solamente si se verifica que:(X1 + k,…..,Xn+k) = (X1,….,Xn) para todo k Є

Ejemplo

Estudiar si son o no invariantes frente a cambios de origen los siguientes estimadores:1. La media muestral 2. La varianza muestral3. La desviación típica muestral4. El estimador , donde:

5. El coeficiente de correlación lineal

5. INVARIANZA

Estimador invariante frente a cambios de escala:Si consideramos una constante c, la muestra se transforma en: (cX1,….,cXn), entonces es invariante a cambios de escala si y solamente si se verifica que:(cX1 ,…..,cXn) = (X1,….,Xn) para todo c Є, tal que c.

Ejemplo

Comprobar que los estimadores media y varianza muestral no son invariantes frente a cambios de escala, y sin embargo el coeficiente de correlación lineal si lo es.

5. INVARIANZA

Estimador invariante a cambios de origen y de escala: es invariante a cambios de origen y de escala si y solamente si se verifica que: (cX1+k ,…..,cXn+k) = (X1,….,Xn)

para todo c,k Є, tal que c.

Ejemplo

Comprobar que el coeficiente de correlación lineal es invariante a cambios de origen y de escala.

5. INVARIANZA

Estimador invariante a permutaciones:Un estimador es invariante frente a permutaciones si se verifica que:

(Xi1 ,…..,Xin) = (X1,….,Xn)

Para todas las permutaciones ( i1,….,in) de 1 ,….,n

6. ROBUSTEZ

Estimador robusto:Diremos que un estimador es robusto cuando pequeños cambios en las hipótesis de partida del procedimiento de estimación considerado no producen variaciones significativas en los resultados obtenidos.

Ejemplo

En la distribución al estudiar la distribución de la media muestral veíamos que si no se conoce la varianza poblacional recurríamos a la distribución t-Student mediante el estadístico:

de manera que pequeñas variaciones en la distribución no producirían cambios sustanciales en los procedimientos estadísticos basados en el estadístico t-Student con n-1 grados de libertad, cuando n es relativamente grande, ya que estos procedimientos estadísticos son robustos.