Title: Sin t
111. Muestreo
2INFERENCIA ESTADÍSTICA
Proceso y resultado de extraer conclusiones
respecto a una población a partir de una o más
muestras.
obtención de la muestra
conclusiones
P
M
3Problema de estimación Por qué una encuesta de
1500 personas permite predecir bastante bien el
resultado de una elección con 10 millones de
votantes? Cómo se consigue? Cómo se mide la
precisión del resultado? Problema de test de
hipótesis Las normas de calidad exigen que, en
un lote de 5000 bombillas, a lo sumo el 3
pueden durar menos de 1000 horas. En un estudio
de control de calidad de una fabrica de bombillas
sería muy costoso examinar cada una. Se decide
usar una muestra de 500 bombillas. Si obtenemos
el 3,2 de bombillas defectuosas, deberíamos
declarar el lote completo defectuoso?
4Problema de estimación Se busca precisar una
característica totalmente desconocida de la
población a partir de los datos obtenidos sobre
una muestra. Estimar el porcentaje de la
población (10 millones) que votará a ZP a partir
de una muestra de 1500 votantes. O estimar la
duración promedio de las bombillas del lote de
5000, a partir de una muestra de 500.
5 Problema de test de hipótesis Se busca
comprobar alguna información sobre la población
a partir de los datos obtenidos de una
muestra. ZP obtendrá más del 65 de los
votos. Menos del 3 de las bombillas del lote de
5000 duran menos de 1000 horas. Las bombillas
duran más de 1000 horas en promedio.
6Muestra aleatoria simple con reemplazo
- Supongamos una población de tamaño N donde cierta
característica se distribuye como la variable
aleatoria X. Una muestra aleatoria simple con
reemplazo de n observaciones de la variable
aleatoria X es un conjunto de variables
aleatorias X1, X2, ..., Xn independientes e
idénticamente distribuidas (iid). - Cada una de ellas tiene la misma distribución de
probabilidad que la variable aleatoria X.
7Observa que las probabilidades de escoger
cualquier elemento de la población para formar
parte de la muestra son iguales (1/N) y que
además las extracciones son independientes. Se
puede escoger por azar varias veces al mismo
elemento. Pero si la población N es muy superior
al tamaño n de la muestra esa probabilidad es
despreciable. En ese caso una muestra con
reposición es equivalente a una muestra sin
reposición. Trabajaremos siempre con reposición.
8Ejemplo Sea una población compuesta por 5
unicornios con las siguientes longitudes de
cuerno 6, 8, 10, 12 y 14. Escribamos todas las
muestras aleatorias con reemplazo posibles de
tamaño 2. En total serán 52 25.
9- En el ejemplo la variable aleatoria X de la
población puede tomar los valores 6, 8, 10, 12
y 14, cada uno con probabilidad 1/5. Es decir la
variable aleatoria X tiene una densidad de
probabilidad discreta uniforme. - Una muestra consta de n 2 observaciones de esa
variable aleatoria X. Podemos interpretarla como
una variable aleatoria bidimensional - (X1, X2), donde X1 y X2 son independientes y
están idénticamente distribuidas (iid). De hecho,
cada una de ellas tiene la misma distribución de
probabilidad que la variable aleatoria X.
10Estadísticos
- Cualquier función de las variables aleatorias
observadas se denomina estadístico - Los dos estadísticos mas conocidos son
- la media muestral y la varianza muestral.
- La raíz cuadrada de la varianza muestral es la
desviación estándar muestral.
11- Los parámetros poblacionales son fijos, no
aleatorios. - Por ejemplo, la media de la población anterior
es - ? (6 8 10 12 14) / 5 10.
- Mientras que los estadísticos son variables
aleatorias (su valor depende de la muestra
seleccionada los estadísticos calculados para
distintas muestras darán, en general, resultados
distintos). - Por ejemplo, la media de la muestra (6, 6) es
- (6 6) / 2 6.
- Y la media de la muestra (6, 12) es
- (6 12) / 2 9. Etc...
12- Como estos estadísticos son variables aleatorias,
podemos entonces hablar de sus distribuciones. - Si tomamos una muestra de tamaño n y calculamos
la media de esta muestra obtenemos un valor
determinado. - Si repetimos este mismo experimento un gran
número de veces obtendremos una gran cantidad de
valores distintos para . - A partir de esta variedad de valores distintos
obtenidos para la media muestral, podemos obtener
la distribución de probabilidad de la misma la
distribución de la media muestral.
13Calculemos para el ejemplo anterior todas las
medias muestrales posibles de tamaño n2
donde i 1, ..., 25 es ahora el índice de las
posibles muestras.
14- La distribución de medias muestrales es
P
5/25
4/25
4/25
3/25
3/25
2/25
2/25
1/25
1/25
6 7 8 9 10
11 12 13 14
15Como es una variable aleatoria y ya conocemos
su distribución, podemos calcular su esperanza,
la media de medias muestrales
Y observa que coincide con la media poblacional
Ocurre siempre?
16Dada una muestra de tamaño n, el valor xi
(i1,...,n) será uno de los posibles valores que
puede tomar la variable aleatoria Xi. Cuál es su
valor esperado? Como Xi se distribuye como X
La distribución de la media muestral será
De modo que
Cuando se cumple la igualdad, se dice que el
estimador de ? es insesgado.
17Calculemos ahora para el ejemplo de los
unicornios todas las varianzas muestrales
posibles
donde i 1, ..., 25 es el índice de las
posibles muestras.
18- Hemos obtenido de nuevo una distribución,
- ahora la distribución de varianzas muestrales
P
8/25
6/25
5/25
4/25
2/25
0 1 2 3 4 5 6 7 8 9 10 11 12
13 14 15 16
19Como s2 es una variable aleatoria y ya conocemos
su distribución, podemos calcular su esperanza,
la media de las varianzas muestrales
La varianza poblacional es
Observa que ahora
Decimos entonces que el estimador s2 de ?2 es
sesgado.
20- Definamos el estimador cuasivarianza o
seudovarianza muestral - Solo se distingue
- de la varianza muestral
- en dividir entre (n-1)
- en vez de n.
21Tendremos ahora que
De modo que la cuasivarianza muestral es un
estimador insesgado para la varianza poblacional
22Resumiendo dada una población de tamaño N,
tenemos como parámetros de una variable
aleatoria X de nuestro interés a la media
poblacional y la varianza poblacional.
23Sea una muestra con reposición de tamaño n de la
población
La media muestral
será un estimador insesgado de la media
poblacional. La varianza muestral
será un estimador sesgado de la varianza
poblacional. Y la cuasivarianza muestral será
un estimador insesgado de la varianza poblacional.
24Muestreo desde una población normal
- Sea X una variable aleatoria que se distribuye en
una población como una normal con media ? y
varianza ?2, es decir N(?, ?). - Tomemos una muestra aleatoria de tamaño n de esta
población normal. - Cuál será la varianza muestral de la
distribución muestral de ?
25Primero observemos que
De modo que la varianza de la distribución de la
media muestral será
Y además suponemos independencia entre las
variables Xi
26- Si la muestra aleatoria x1, x2, ..., xn se toma a
partir de una población normal con media ? y
varianza ?2, la media muestral tendrá
distribución normal con media ? y varianza ?2/n,
N(?, ?/?n). - Vemos entonces que la distribución de la media
muestral tiene una dispersión menor alrededor de
la media poblacional y cuanto más grande es la
muestra, menor es la varianza.
27Distribución muestral de la media Veremos
primero el caso de que la distribución subyacente
sea normal, con media y varianza La media de
la distribución muestral de medias es La
varianza de la distribución muestral de medias es
La forma de la distribución muestral de la media
es normal.
Nota La desviación típica de la distribución
muestral suele ser denominada error típico de
tal estadístico (v.g., error típico de la
media, etc.)
Veamos varios ejemplos donde iremos variando el
tamaño n de las muestras.
28Distribución muestral de la media. Ejemplo 1
Distribución poblacional subyacente (dist.
Normal) Media 100 Varianza 225 Desv. típica
15
La línea (en este y sucesivos ejemplos) es una
curva normal
Distribución muestral de la media Tamaño
muestral 10 Media 100 Varianza 225/10
22.5 Desv.típica
En este y sucesivos gráficos Número de muestras n
29Distribución muestral de la media. Ejemplo 2
Distribución poblacional subyacente (dist.
Normal) Media 100 Desv. Típica 15
Distribución muestral de la media Tamaño
muestral 20 Media 100 Varianza 225/20
11.3 Desv. típica 3.35
30Distribución muestral de la media. Ejemplo 3
Distribución poblacional subyacente (dist.
Normal) Media 100 Desv. Típica 15
Distribución muestral de la media Tamaño
muestral 50 Media 100 Varianza 225/50
4.5 Desv. típica 2.12
31Distribución muestral de la media Veamos ahora
el caso en que la distribución subyacente sea
arbitraria, si bien sabemos que la media es
y la varianza es La media de la distribución
muestral de medias es La varianza de la
distribución muestral de medias es
La forma de la distribución muestral de la media
TAMBIÉN tiende a ser normal. En concreto, la
distribución muestral se acercará más y más a la
distribución normal (media m y varianza s2/n) a
medida que se aumente el tamaño de cada muestra.
32Veamos aparecer la distribución normal a partir
de una población uniforme
- Aunque una variable aleatoria no posea
distribución normal, ciertos estadísticos/estimado
res calculados sobre muestras elegidas al azar sí
que poseen una distribución normal. - Es decir, tengan las distribución que tengan
nuestros datos, los objetos que resumen la
información de una muestra, posiblemente tengan
distribución normal. - Como ilustración mostramos una variable que
presenta valores distribuidos más o menos
uniformemente sobre el intervalo 150-190. Como es
de esperar la media es cercana a 170. El
histograma no se parece en nada a una
distribución normal con la misma media y
desviación típica.
33- A continuación elegimos aleatoriamente
grupos/muestras de 10 observaciones de las
anteriores y calculamos el promedio. - Para cada grupo de 10 obtenemos entonces una
nueva medición, la media muestral. - Observa que las nuevas cantidades están más o
menos cerca de la media de la variable original
que era 170. - Repitamos el proceso un número elevado de veces y
pintamos la distribución de la nueva variable
aleatoria.
173
169
168
34- La distribución de las medias muestrales sí que
tiene distribución aproximadamente normal. - La media de esta nueva variable (promedio
muestral) es muy parecida a la de la variable
original. - Las observaciones de la nueva variable están
menos dispersas. Además la desviación típica es
aproximadamente raíz de 10 veces más pequeña.
Llamamos error estándar a la desviación típica de
esta nueva variable. -
35Distribuciones para muestras grandes
- Cuando el tamaño de la muestra es grande,
independientemente de que la variable aleatoria
de nuestro interés en la población se distribuya
o no como una normal, podemos derivar un número
de propiedades gracias a la LEY DE LOS GRANDES
NUMEROS y el TEOREMA CENTRAL DEL LIMITE.
36Distribuciones para muestras grandes teorema
central del límite
- Dada una v.a. cualquiera, si extraemos muestras
de tamaño n, y calculamos los promedios
muestrales, entonces - Dichos promedios tienen distribución
aproximadamente normal - La media de los promedios muestrales es la misma
que la de la variable original. - La desviación típica de los promedios disminuye
en un factor raíz de n (error estándar). - Las aproximaciones anteriores se hacen exactas
cuando n tiende a infinito. - Este teorema justifica la importancia de la
distribución normal. - Sea lo que sea lo que midamos, cuando se
promedie sobre una muestra grande (n gt 30) nos va
a aparecer de manera natural la distribución
normal.
37Teorema central del límite
- Sea x1, x2, ..., xn una muestra aleatoria de
observaciones tomadas de la misma distribución y
sea E(Xi) ? y Var(Xi) ?2. - Entonces la distribución muestral de la variable
aleatoria - converge a la normal standard N(0, 1) cuando n
tiende a infinito. - El TCL se cumple aún cuando la distribución desde
la que se toman las observaciones no sea normal.
Esto significa que si nosotros nos aseguramos que
el tamaño de la muestra es grande, entonces
podemos usar la variable Zn para responder
preguntas acerca de la población de la cual
provienen las observaciones.
38Distribución muestral de la media. Ejemplo 4
Distribución poblacional subyacente (dist.
Gamma) Media 100 Varianza 100
39Distribución muestral de la media. Ejemplo 4
Distribución poblacional subyacente (dist.
GAMMA) Media 100 Varianza 100
Distribución muestral de la media Tamaño
muestral 10 Media 100 Varianza 100/10
10 Desv. típica
40Distribución muestral de la media. Ejemplo 5
Distribución poblacional (dist.
EXPONENCIAL) Media 0.1 1/l Varianza 0.01
1/l2
41Distribución muestral de la media. Ejemplo 5a
Distribución poblacional (dist.
EXPONENCIAL) Media 0.11/l Varianza 0.01
1/l2
Distribución muestral de la media Tamaño
muestral 10 Media 0.1 Varianza 0.01/10
0.001 Desv. típica 0.03
Observad que la dist. muestral se aproxima a la
normal
42Distribución muestral de la media. Ejemplo 5b
Distribución poblacional (dist.
EXPONENCIAL) Media 0.1 1/l Varianza 0.01
1/l2
Distribución muestral de la media Tamaño
muestral 20 Media 0.1 Varianza 0.01/20
0.0005 Desv. típica 0.022
Observad que la distribución muestral se aproxima
más a la normal (al elevar el tamaño muestral).
43Algunas distribuciones usadas en inferencia
Distribución Ji-Cuadrado o Chi-cuadrado o c2 de
Pearson con n grados de libertad. Sean X1 , X2
, ... ,Xn n variables aleatorias continuas
independientes tal que Xi N (0,1) con i
1, ..., n (i.i.d.). Definamos la variable
aleatoria
Su densidad de probabilidad será
44La función gamma es 1. 2.
45TABLA DE c2
orden percentílico
p
c2n
grados de libertad
valores acumulados de c2n
46Distribución muestral del estadístico
Cuando las distribución de la que obtenemos la
varianza muestral es normal, el estadístico
anterior se distribuye según la distribución
chi-cuadrado con n -1 grados de libertad. Es
fácil de demostrar
47Tipificando
48Otra distribución que aparece en inferencia es
la t-Student, tn Student era el seudónimo de
W.S. Gosset, un pionero estadista que trabajó en
la Cervecería Guiness de Dublín. Sea X v.a.c.
tal que X N (0,1) Y v.a.c. tal que Y ?2n
Con función de densidad de probabilidad
49 50TABLA DE LA DISTRIBUCION DE t (Student)
orden percentílico
valores acumulados de tp
grados de libertad
tp
51Distribución muestral de
Cuando la distribución de la que obtenemos las
medias muestrales es normal, el estadístico
anterior, se distribuye según la distribución t
de Student con tn-1 grados de libertad. Cuando
la distribución de la que obtenemos las medias
muestrales no es normal, el estadístico anterior,
se distribuye como una normal tipificada para
valores de n gt 30. Nota comparar con el teorema
central del límite.
52La distribución F de Fisher o F-Snedecor es otra
distribución que aparece con frecuencia en
inferencia sea X v.a.c. tal que X ?2n Y
v.a.c. tal que Y ?2m independientes
Definamos
53(m,n)
54Distribución muestral del estimador
Cuando las distribuciones de la que obtenemos las
varianzas muestrales son normales y extraemos
dos muestras de tamaño n y m respectivamente. El
estadístico anterior se distribuye según la
distribución F de Fisher con n - 1 grados de
libertad en el numerador y m -1 grados de
libertad en el denominador, Fn-1, m-1.
55Estimación
Sea una característica, un parámetro
poblacional cuyo valor se desea conocer a partir
de una muestra.
Sea un estadístico ( función de la muestra
) que utilizamos para estimar el valor de .
Observa que el estadístico es una función
que depende de la muestra y lo llamaremos
estimador. El valor concreto de es la
estimación. Hay dos tipos básicos de estimación
puntual y por intervalo de confianza.
56- Estimación puntual
- Provee un solo valor, un valor concreto para la
estimación. - Un estimador puntual es simplemente un
estadístico (media aritmética, varianza, etc.)
que se emplea para estimar parámetros (media
poblacional, varianza poblacional, etc.). - Por ejemplo, cuando obtenemos una media
aritmética a partir de una muestra, tal valor
puede ser empleado como un estimador para el
valor de la media poblacional. - Algunos autores comparan los estimadores con los
lanzamientos en una diana el círculo central
sería el valor real del parámetro.
57- Por intervalo
- Determina dos valores (límites de confianza)
entre los que acepta puede estar el valor del
estimador.
- Hablaremos de nivel de confianza 1-a cuando en el
intervalo se - encuentre el valor del estimador con probabilidad
1-a. - Observa que la probabilidad de error (no contener
al parámetro) es a. - En general el tamaño del intervalo disminuye con
el tamaño muestral y aumenta con 1-a. - En todo intervalo de confianza hay una noticia
buena y otra mala - La buena hemos usado una técnica que en alto
de casos acierta. - La mala no sabemos si ha acertado en nuestro
caso.
58Métodos de estimación puntual
Hemos visto que un estimador de la media
poblacional es la media muestral y de la
varianza poblacional es la cuasivarianza
muestral. Pero, cómo determinar un estimador
cuando no se trata de la media o la
varianza? Por ejemplo, supongamos una población
con función densidad
Cómo estimar el parámetro ??
Método de los momentos Método de máxima
verosimilitud Método de mínimos cuadrados (Lo
veremos más adelante en el tema de regresión)
59Método de los momentos
- Si una distribución tiene k parámetros, el
procedimiento consiste en calcular los primeros k
momentos muestrales de la distribución y usarlos
como estimadores de los correspondientes momentos
poblacionales. - La media poblacional ? es el primer momento de la
distribución alrededor del origen. La media
muestral es el promedio aritmético de las
observaciones muestrales x1, x2, ..., xn. El
método de los momentos toma a la media muestral
como una estimación de la media poblacional. - De la misma manera, la varianza de una variable
aleatoria es ?2 y se denomina segundo momento
alrededor de la media. La cuasivarianza muestral
s2 se usa como un estimador de la varianza
poblacional de la distribución.
60Recordemos que el momento muestral centrado en el
origen de orden r se define como
Para el ejemplo anterior, los momentos de primer
orden centrados en el origen de la población y
la muestra son respectivamente
Igualando
Luego podemos usar como estimador
61Método de máxima verosimilitud
- Sea X una variable aleatoria cuya distribución de
probabilidad depende del parámetro desconocido ?.
- Sea la función de densidad de probabilidad de la
población f(x, ?). Se toma una muestra aleatoria
x1, x2, ..., xn de observaciones independientes y
se calcula la densidad conjunta de la muestra la
función de verosimilitud y se expresa como
62Si de una población cualquiera hemos obtenido una
muestra particular, es razonable pensar que la
muestra obtenida era la que mayor probabilidad
tenía de ser escogida.
Función máxima verosimilitud
Valor del estimador máxima verosimilitud
63- Si los valores posibles de ? son discretos, el
procedimiento es evaluar L(x,?) para cada valor
posible y elegir el valor de ? para el cual L
alcanza su máximo. - Por otro lado, si L(x,?) es diferenciable se
puede maximizar L sobre el rango de valores
posibles de ? obteniéndose condiciones de primer
y segundo orden. - En la práctica es más fácil maximizar el
logaritmo de la función de verosimilitud. Como la
función logaritmo es una transformación monótona,
maximizar L(x,?) es equivalente a maximizar
Ln(L(x,?)).
64Ejemplo Sea una urna con bolas rojas y blancas
en proporciones desconocidas. Extraemos 10 bolas
con reemplazo (n 10) y obtenemos 3R y 7B.
Llamemos p a la proporción de R en la urna.
Soluciones p 0 p 1
p 3/10
Que además hace máxima la función L(p)
Imposible porque hemos extraído 7B
Imposible porque hemos extraído 3R
65Volvamos al ejemplo
Construimos la función máxima verosimilitud
Extraemos logaritmos a ambos lados
Derivamos e igualamos a cero para encontrar el
máximo de la función
Observemos que no coincide con el estimador que
nos propone el método de los momentos.
66Propiedades deseables en los estimadores
Los dos procedimientos que repasamos hace un
momento (más el método de mínimos cuadrados que
veremos luego) eligen a la media muestral como
estimador del parámetro ?. Sin embargo, otras
veces obtenemos estimadores distintos para el
mismo parámetro, como ocurre con ?2. O como hemos
visto para el caso del parámetro ? del
ejemplo. En esos casos, cuál es el mejor
estimador?
- Ausencia de sesgo
- Consistencia
- Eficiencia
- Suficiencia
671. Estimador insesgado. Diremos que es un
estimador insesgado de si
Vimos que la media muestral es un estimador
insesgado de la media poblacional. Vimos que la
varianza muestral no es un estimador insesgado de
la varianza poblacional, es sesgado. Recuerda
que construimos la cuasivarianza que sí es un
estimador insesgado de la varianza poblacional.
se llama sesgo de
68Sea una población N(?, ?) y construyamos los
estimadores de varianza varianza muestral y
cuasivarianza muestral.
Vimos que si la población es normal, entonces el
estimador
69Propiedades en muestras grandes
- Muchos estimadores no tienen buenas propiedades
para muestras pequeñas, pero cuando el tamaño
muestral aumenta, muchas de las propiedades
deseables pueden cumplirse. En esta situación se
habla de propiedades asintóticas de los
estimadores. - Como el estimador va a depender del tamaño de la
muestra, vamos a expresarlo utilizando el símbolo - Por ejemplo, el sesgo puede depender del tamaño
de la muestra. Si el sesgo tiende a cero cuando
el tamaño de la muestra crece hasta infinito
decimos que el estimador es asintóticamente
insesgado.
70- Ausencia de sesgo asintótica
- Definición Un estimador se dice que es
asintóticamente insesgado si - o equivalentemente
-
712. Consistencia. Se dice que un estimador es
consistente si se cumple que
o
Es decir, a medida que se incrementa el tamaño
muestral, el estimador se acerca más y más al
valor del parámetro. La consistencia es una
propiedad asintótica. Tanto la media muestral
como la cuasivarianza son estimadores
consistentes. La varianza muestral es un
estimador consistente de la varianza poblacional,
dado que a medida que el tamaño muestral se
incrementa, el sesgo disminuye.
72Ejemplo supongamos que la población es no normal
y de media desconocida. Construyamos
estadísticos media muestral
Para cada tamaño muestral n tenemos
Por el teorema de Chebychev
La media muestral es un estimador consistente de
la media poblacional.
733. Eficiencia. Utilizar las varianzas de los
estimadores insesgados como una forma de elegir
entre ellos.
La varianza de una variable aleatoria mide la
dispersión alrededor de la media. Menor varianza
para una variable aleatoria significa que, en
promedio, sus valores fluctúan poco alrededor de
la media comparados con los valores de otra
variable aleatoria con la misma media y mayor
varianza. Menor varianza implica mayor precisión
y entonces el estimador que tenga menor varianza
es claramente más deseable porque, en promedio,
está mas cerca del verdadero valor de ?.
Si , decimos que es un estimador
insesgado eficiente o de varianza mínima para ? ,
si cualquier otro estimador insesgado de ? ,
digamos , verifica que
74- Sean y dos estimadores insesgados del
parámetro ?. - Si Var ( ) lt Var ( ) decimos que es
más eficiente que . - El cociente Var ( ) / Var ( ) se llama
eficiencia relativa. - Entre todos los estimadores insesgados de ?, el
que tenga menor varianza es el estimador
insesgado de mínima varianza. Pero, cómo podemos
encontrarlo?
75Cota de Cramér-Rao Sea una población con
densidad de probabilidad f(x, ?), entonces se
cumple que
Si un estimador tiene una varianza que coincide
con la cota de Cramér-Rao se dice que es un
estimador eficiente. Si además en insesgado, se
dice que es un estimador de eficiencia absoluta
o completa.
76Ejemplo Sea una población que se distribuye
normalmente con desviación típica conocida y
media desconocida. Como estimador utilizaremos
la media muestral. Sabemos que la distribución
del estimador es también una normal con la misma
media y varianza . Luego el
estimador es insesgado b(?) 0. Calculemos la
cota de Cramér-Rao (CCR).
77- Eficiencia asintótica
- Cuando trabajamos con estimadores consistentes el
rango de valores de ? para el cual un estimador
es más eficiente que otro disminuye a medida que
n crece. En el límite cuando n tiene a infinito
la distribución de todos los estimadores
consistentes colapsa en el verdadero parámetro ?.
Entonces deberíamos preferir aquel estimador que
se aproxime más rápidamente (es decir, aquel cuya
varianza converge más rápido a cero)
78- En términos intuitivos, un estimador consistente
es asintóticamente eficiente si para muestras
grandes su varianza es menor que la de cualquier
otro estimador consistente. - Definición un estimador consistente se dice
que es asintóticamente eficiente si para
cualquier otro estimador el
794. Suficiencia. Diremos que es un estimador
suficiente del parámetro si dicho estimador
basta por sí solo para estimar . Si el
conocimiento pormenorizado de los elementos la
muestra no añade ninguna información sobre ?.
Ejemplo Supongamos una población binomial de la
que desconocemos la proporción ? p. Extraemos
una muestra de tamaño n 50.
Estimador suficiente, p aprox. 35/50.
80- Error cuadrático medio (ECM)
- Consideremos dos estimadores, uno insesgado y el
otro es sesgado pero con una varianza bastante
menor, de modo que en promedio puede estar más
cerca de la verdadera media que el estimador
insesgado. - En esta situación podríamos admitir algo de sesgo
con la intención de obtener una mayor precisión
en la estimación (menor varianza del estimador). - Una medida que refleja este compromiso (trade
off) entre ausencia de sesgo y varianza es el
ECM.
81- El error cuadrático medio de un estimador se
define como ECM ( ) E( - ? )2 . Esto es
la esperanza de la desviación al cuadrado del
estimador con respecto al parámetro de interés. - Si , son dos estimadores alternativos
de ? y ECM ( ) lt ECM ( ) entonces se
dice que es eficiente en el sentido del ECM
comparado con . Si los dos son insesgados,
entonces es más eficiente. - Entre todos los posibles estimadores de ?, aquel
que tenga el menor ECM es el llamado estimador de
mínimo error cuadrático medio. - ECM Var( ) sesgo2.
- es decir que el ECM es igual a la suma de la
varianza más el sesgo al cuadrado.
82Constante
Variable aleatoria
Compromiso entre varianza y sesgo de los
estimadores.
sesgo ?2
83Ejemplos Supongamos una población de la que
conocemos la media y la varianza ( 100).
Tomemos muestras n 10. Consideremos los dos
estimadores de la media siguientes
Dependiendo de la media de la población nos
interesará tomar un estimador u otro.
84Propiedades de los estimadores de máxima
verosimilitud
- Los estimadores máximo verosímiles son
- Asintóticamente insesgados
- Asintóticamente normales
- Asintóticamente eficientes
- Invariantes bajo transformaciones biunívocas
- Si ? estimador suficiente, es suficiente
85Estimación por intervalos de confianza.
En este caso, en lugar de indicar simplemente un
único valor como estimación del parámetro
poblacional ?, lo que haremos es ofrecer un
intervalo de valores en el que se tiene cierta
probabilidad (confianza) de que se encuentre el
verdadero valor de ?. Intervalo de confianza Es
el intervalo de las estimaciones (probables)
sobre el parámetro. Límites de los intervalos de
confianza Son los dos valores extremos del
intervalo de confianza. Amplitud del intervalo o
margen de error...
86Ahora bien, cuán grande debe de ser el intervalo
de confianza? Evidentemente, si decimos que el
intervalo de confianza va de menos infinito a más
infinito, seguro que acertamos...Pero eso no es
muy útil. El caso extremo contrario es la
estimación puntual, donde la amplitud del
intervalo es nula.
La idea es crear unos intervalos de confianza de
manera que sepamos en qué porcentaje de casos el
valor del parámetro poblacional estará dentro del
intervalo crítico.
Es decir, dar una medida de bondad de la
estimación, la probabilidad de que el valor real
? se encuentre dentro del intervalo.
Coeficiente o grado de confianza
Nivel de significación (N. S.)
87Y cómo fijamos tal probabilidad? Usualmente se
asume un porcentaje del 95. Al calcular un
intervalo de confianza al 95, ello quiere decir
que el 95 de las veces que repitamos el proceso
de muestreo (y calculemos el estadístico), el
valor del parámetro poblacional estará dentro de
tal intervalo. A ese usual nivel de significación
se le denomina confianza casi significativa.
Otros casos usuales son confianza
significativa 99. confianza muy significativa
99.5
88Intervalos de confianza para la media
Supongamos que la población sigue una
distribución normal, con cierta media ? y
cierta desviación típica ?. Utilizaremos como
estimador puntual para la media poblacional la
media muestral . Sabemos que (1). La media
de la distribución muestral de medias es la media
poblacional ?. (2). La varianza de la
distribución muestral de medias es ?2/n. O lo que
es lo mismo, la desviación típica de la
distribución muestral de medias es ? /?n.
Veremos dos casos para calcular intervalos de
confianza (1) Conocemos la desviación típica ?
y (2) no la conocemos.
89(1) La población es normal y conocemos ?
Sabemos cómo se distribuye la variable aleatoria
muestral y a partir de esa distribución podemos
determinar el intervalo de confianza.
Tipificamos la variable
Supongamos que deseamos tener un nivel de
significación ?.
90?/2
?/2
1-?
z?/2
-z?/2
0
91Así, una estimación puntual de la media
poblacional ? se obtendría de una muestra de n
elementos haciendo la media muestral. Mientras
que un intervalo de confianza con nivel de
significación ? sería
Nota Observa que podemos determinar el tamaño
necesario de una muestra para obtener una
amplitud del intervalo de confianza determinada.
Semiamplitud del intervalo
92? ? 0.05
Ejemplo
n 100
Confianza 0.95
Buscamos en las tablas N(0,1) los valores de z
que dejan 0.05 / 2 0.025 de probabilidad por
abajo y 0.05 / 2 0.025 de probabilidad por
arriba
?
93Observemos cómo a medida que el tamaño muestral
aumenta, la amplitud del intervalo disminuye.
(Evidentemente, esto es general, no sólo para la
media.) Veamos, un ejemplo. Supongamos que
deseamos 1 - ? 0.95 Caso 1. Media muestral
10, varianza poblacional 4, tamaño muestral
12. Caso 2. Media muestral 10, varianza
poblacional 4, tamaño muestral 20.
94Supongamos ahora que deseamos que 1 - ? 0.99.
En tal caso, tendremos más seguridad de que el
parámetro de interés se halle en los límites del
intervalo. El problema es que incrementar la
confianza aumenta la amplitud del intervalo. Caso
1. Media muestral 10, varianza poblacional 4,
tamaño muestral 12. Intervalo al 95 Caso 2.
Media muestral 10, varianza poblacional 4,
tamaño muestral 12. Intervalo al 99
95(2) Población normal y desconocemos ?
Por el tema anterior sabemos que la distribución
muestral del estadístico
no es una distribución normal, sino una
distribución t de Student con n -1 grados de
libertad.
96En definitiva, para la media (cuando conocemos la
varianza poblacional), tenemos
Pero si no conocemos la varianza poblacional (el
caso realista), tenemos como intervalo
97Distribución de la población desconocida y n gt 30
Si n es grande (n gt 30), la distribución del
estadístico será prácticamente una distribución
normal N(0,1). Y el intervalo de confianza será
Nota Observa, en particular, que para n gt 30 la
distribución t de Student es prácticamente una
normal.
98Intervalo de confianza para las varianzas
Intervalo de confianza
99? 0.05
Ejemplo
n 31
?
n -1 30
?
Si se desea estimar s ?s2 ? 3.20 ? s ? 5.35
100Resumen Procedimiento para determinar el
intervalo de confianza
1. Fijar el nivel de significación ? a
2. Conociendo la distribución en el
muestreo de y poseyendo una estimación
puntual, hallar los percentiles x a/2 y x 1-
a/2 de
LCi
LCs
Si es simétrica el intervalo de
confianza es simétrico en x y en probabilidad.
Si es asimétrica el intervalo de
confianza es simétrico en probabilidad solamente.
101(No Transcript)
102(No Transcript)
103(No Transcript)
104(No Transcript)
105Mirar en capítulo 13
Intervalo de confianza para diferencia de medias
Intervalo de confianza para ?12/?22. Intervalo
de confianza para la proporción poblacional.
106(No Transcript)
107(No Transcript)
108(No Transcript)
109(No Transcript)
110(No Transcript)
111(No Transcript)