Descargar

Apuntes de estadísitica (página 2)

Enviado por Jabel70


Partes: 1, 2
re los estad´isticos de orden.

edu.red

4 CAP´ITULO 1. MUESTREO ALEATORIO. Teorema 1.1.1 Consideramos una muestra aleatoria (X1,….,Xn), de X continua con una funci´on de densidad f y una funci´on de distribuci´on F, entonces: fX(j) = n! (j – 1)!(n – j)! [F(x)]j-1 f (x)[1 – F (x)]n-j . (1.10) Interpretamos esta f´ormula de la siguiente manera;

[F(x)]j-1 f (x)[1 – F (x)]n-j : probabilidad de cada posibilidad n! (j – 1)!(n – j)! : n´umero de posibilidades. y la podemos emplear de la siguiente forma.

Teorema 1.1.2 Sea (X1,….,Xn), de X continua con una funci´on de densidad f y una funci´on de distribuci´on F, entonces: f(X(i),X(j)) (u,v) = n! (i – 1)!(j – 1 – i)!(n – j)! [F(u)]i-1 f (u)[F(v) – F (u)]j-1-i f (v)[1 – F (v)]n-j . (1.11) Teorema 1.1.3 Sea (X1,….,Xn), de X continua con una funci´on de densidad f y una funci´on de distribuci´on F, entonces: f(X(1),…..,X(n)) = n! n i=1 f (xi). (1.12) 1.2. Inferencia param´etrica. 2 2 ?n = Sea (X1,….,Xn) una m.a. de X ~ f?(X). Empezaremos repasando algunas de las propiedades fundamentales sobre las principales distribuciones que se emplear´an m´as adelante y que se derivan de la normal.

De?nici´on 1.2.1 ?n. Distribuci´on Chi-cuadrado con n-grados de libertad. Consideramos (X1,….,Xn) v.a.i.i.d. que siguen una N(0,1). De?nimos

n i X2. (1.13) 2 i=1

De?nici´on 1.2.2 t-Student, con n-grados de libertad, tn.

Considermos X ? N(0,1) e Y ? ?n de tal forma que (X,Y ) son independientes, de?nimos tn = X Y n = 2 N(0,1) ?n/n (1.14)

edu.red

X ¯n ? N(µ, s n ), 1.3. ESTAD´ISTICOS SUFICIENTES. 5 2 2 El c´alculo de la funci´on de densidad es f´acil ya que al tratarse de v.a.i. entonces fXY = fXfY

De?nici´on 1.2.3 F Fisher-Snedecor. Fm,n con m y n grados de libertad. Sea X ? ?m, e Y ? ?n v.a.i. entonces de?nimos Y X Fm,n = m = n Xn Ym = 2 2 ?m/m ?n/n (1.15) Teorema 1.2.1 Fisher. Sea (X1,….,Xn) una m.a. de X ~ N(µ,s2), entonces: 1.

2. ¯ 2 2

Xn y Sn son independientes, 3. 2 (n – 1)Sn s2 = (Xi – µ)2 s2 2 ? ?n-1, (1.16) El segundo apartado del teorema es el resultado realmente importante. 1.3. Estad´isticos su?cientes. Empezaremos con una idea intuitiva. Como siempre consideramos (X1,….,Xn) una m.a. de X ~ f?(X). La muestra aleatoria (X1,….,Xn) quedar´a reducida a un determinado estad´istico T, que pasaremos a denominar estad´istico su?ciente. ¿Cu´anta informaci´on perdemos al resumir la m.a. en T?. Llegamos a la conclusi´on de que si T es su?ciente entoncesno hay p´erdida de informaci´on.

De?nici´on 1.3.1 Estad´istico su?ciente. Sea (X1,….,Xn) una m.a. de X ~ f?(X), Un estad´istico T es su?ciente para ? si (X1,….,Xn | T = t) no depende de ?. Esta de?nici´on no ayuda demasiado a encontrar un estad´istico adem´as el c´alculo de las distribu- ciones condicionadas puede resultar algo pesado, por eso consideramos el siguiente teorema

Teorema 1.3.1 de Factorizaci´on. Consideramos (X1,….,Xn) una m.a. de X ~ f?(X), entonces T ser´a estad´istico su?ciente para ? sii f? (x1,…,xn) puede factorizarse de la siguiente forma: f? (x1,…,xn) = g (t,?) · h(x1,…,xn), (1.17) donde t = T (x1,…,xn).

edu.red

6 CAP´ITULO 1. MUESTREO ALEATORIO. Ejemplo 1.3.1 Sea f? = (log?)?x ? – 1 I(0,1) (x), ? > 1, entonces un estad´istico su?ente puede ser n

i=1 f?(xi) = n

i=1 (log?)?xi ? – 1 I(0,1) (xi) = (log?) ? – 1 n ? xi n

i=1 I(0,1) (xi) por lo tanto T = xi ser´a un estad´istico su?ciente en virtud del teorema de factorizaci´on. Ejemplo 1.3.2 Si f? = 2x ?2 I(0,?) (x), ? > 0, entonces un estad´istico su?ente puede ser T = n xi,X(n) i=1 ya que en virtud del teorema de facotrizaci´on tenemos que: n

i=1 f?(xi) = n

i=1 2x ?2 I(0,?) (xi) = 2 ?2 n n

i=1 (xi) n

i=1 I(0,?) (xi) = = 2 ?2 n n

i=1 (xi)I(X(n),8) (?), por lo tanto T = X(n) ser´a un estad´istico su?ciente y T = n i=1 xi,X(n) tambi´en. 1.4. Ejercicios. Ejercicio 1.4.1 Sea (X1,….,Xn) una muestra sin reemplazamiento de una poblaci´on ?nita {x1,….,xN}, Probar que X1 y X2 no son independientes, pero tienen la misma distribuci´on. (b) Sea (X1,….,X10) una muestra sin reemplazamiento de la poblaci´on ?nita: {1,2,……,1000} Calcular la probabilidad de que todas las observaciones sean mayores que 200, primero de manera exacta y despu´es de manera aproximada admitiendo independencia.

edu.red

p = P Exito = 1.4. EJERCICIOS. 7 Soluci´on. Con respecto al primer apartado, vemos que las (Xi)ni =1 son v.a.i.d. pero no indepen- dientes. Lo usual es trabajar con v.a.i.i.d. Por lo tanto vemos que P (X1 = x) = 1 N , P (X2 = x) = prob.total P (X1 = y)P (X2 = x | X1 = y) y por lo tanto

P (X2 = x) = P (X1 = x)P (X2 = x | X1 = x) + y=x P (X1 = y)P (X2 = x | X1 = y) = = 1 N · 0+ 1 N · 1 N – 1 = (N – 1) 1 N · 1 N – 1 = 1 N de esta forma vemos que siguen igual distribuci´on.

Para ver la independencia i.e.

¿P (X1 = x,X2 = y) = P (X1 = x) · P (X2 = y)?

as´i que P (X1 = x,X2 = x) = 0, sin embargo P (X1 = x) · P2 (X2 = x) = 1 N · 1 N por lo que no son independientes. ¿Es grave esta p´erdida?,¿es importante?.

Sea (X1,….,X10) una muestra sin reemplazamiento de la poblaci´on ?nita:

{1,2,……,1000}

queremos calcular P (todas las observaciones sean > 200) para ello de?nimos la v.a.

Y := n´umero de observaciones mayores que 200 entre las 10.

C´alculo exacto: al no ser independientes los sucesos entonces las n-Bernoullis no forman una Binomial sino una hipergeom´etrica P (Y = 10) = 800 10 200 0 1000 ? 0,10616, 10

mientras que el c´alculo aproximado lo haremos considerando que los sucesos son independientes y por lo tanto siguen un Binomial Bin(n,p), donde la probabilidad de ´exito vendr´a dada por ´ 800 1000 = 0,8

edu.red

8

de esta forma llegamos al siguiente resultado:

P (Y = 10) = Bin(10,0,8) = 10 10 CAP´ITULO 1. MUESTREO ALEATORIO.

(0,8)n (0,2)0 = (0,8)n ? 0,107, ¯ por lo que la moraleja del ejercio es que no hay mucha p´erdida de informaci´on al considerar la independencia.

Ejercicio 1.4.2 Supongamos que (X1,….,Xn+1) es una muestra aleatoria de una poblaci´on X con E[X] = µ, y V (X) = s2, sea n Xn = Xi. n i=1 Hallar la esperanza y la varianza del estad´istico T = n n +1 ¯ Xn+1 – Xn . Soluci´on. Vemos que E [T] = E n n +1 ¯ Xn+1 – Xn =0 = n n +1 E ¯ Xn+1 – Xn = n n +1 ¯ E (Xn+1) – E Xn = 0, ¯ ya que E (Xn+1) = E Xn = µ, mientras que var[T] = var n n +1 ¯ Xn+1 – Xn = n n +1 ¯ var Xn+1 – Xn = n n +1 ¯ var(Xn+1) + var Xn ¯ – 2cov Xn+1,Xn ¯ ¯ ya que no s´e de antemano si se tratade dos v.a. independientes, pero vemos que (X1,….,Xn+1) -? Xn, Xn+1 -? Xn+1, son independientes por lo cov Xn+1,Xn = 0, quedando la anterior expresi´on reducida a: var[T] = n n +1 ¯ var(Xn+1) + var Xn , ahora es f´acil comprobar que var(Xn+1) = s2, ¯ var Xn = s2 n quedando por lo tanto var[T] = n n +1 s2 + s2 n = s2, tal y como quer´iamos hacer ver.

edu.red

i=1 Xi X1 2 ~ Gamma a = ;p = fY =X1 2 = v v + v v = v |J| = v exp(-ax)xp-1, f?(a,p) = llegamos a la igualdad deseada puesto que a = 2 1,p = , G(p) = v 1 . Xi 2 ~ Gamma a = ,p = ~ Gamma a = ,p = 9 1.4. EJERCICIOS.

Ejercicio 1.4.3 Sea (X1,….,Xn) una muestra aleatoria de una N(0,1). Probar: 1. 2 1 X1 ~ Gamma a = 2;p = 1 2 , esta distribuci´on es la ?21. 2. n 2 1 ~ Gamma a = 2;p = n 2 2 , que es la ?n. Soluci´on. Con respecto al primer apartado vemos que: 1 2 1 2 2 donde 1 x2 2p 2 v de?nimos la nueva v.a. Y = X1, viendose as´i que X1 = ± Y . Teniendo en cuenta el jacobiano de esta transformaci´on la funci´on de distribuci´on de la nueva v.a. ser´a: 1 2p exp – y 1 1 2 2 y 2p exp – y 1 2 2 y 1 2py exp – y 2 donde 1 2 y por lo que 1 fY = v 2p exp – y 2 y-1/2, y si tenemos en cuenta que ap G(p) 1 2 v p, y ap = 2 Con respecto al segundo apartado vemos que n

i=1 1 2 n 2 operamos de forma parecida. Teniendo en cuenta las funciones caracter´isticas etc… vemos que al ser independientes n i ?X2 i X2 = i=1 (enti´endase la expresi´on) de esta forma vemos que ? n i=1 X2 i = i ?X2 = 1 – it a -p = 1 – it 1/2 – n 2 1 2 n 2 donde la funci´on caracter´istica de la funci´on Gamma es: ??(a,p) = 1 – it a -p tal y como quer´iamos hacer ver.

edu.red

(p + q) (p + q + 1) (p + q) (p + q + 1) 10 CAP´ITULO 1. MUESTREO ALEATORIO. Ejercicio 1.4.4 Sea (X1,….,Xn) una muestra aleatoria de una poblaci´on U(0,1). Hallar la esper- anza y la varianza de X(j).

Soluci´on. En primer lugar recordemos que fX(j) = n! (j – 1)!(n – j)! [F(x)]j-1 f (x)[1 – F (x)]n-j . y que las propiedades de la funci´on Beta son: funci´on de densidad. 1 B (p,q) xp-1 (1 – x)q-1 I(0,1)(x), fX(t) =

y su esperanza y varianza son: E(X) = p p + q , var(X) = pq 2 De esta forma vemos que necesitamos conocer la F(x) y la f (x) de la distribuci´on uniforme siendo ´estas: f = 1, F = x -8 1dx = x, ?x ? (0,1), por lo que fX(j) =

= n! (j – 1)!(n – j)! n! (j – 1)!(n – j)! [F(x)]j-1 f (x)[1 – F (x)]n-j =

[x]j-1 1[1 – x]n-j ~ Beta(p,q) obteni´endose de forma inmediata la analog´ia con la funci´on beta 1 B (p,q) = n! (j – 1)!(n – j)! = G (p + q) G(p)G(q) con j = p, q = n – j + 1. De esta forma E X(j) = xfX(j) = p p + q = j n +1 , var X(j) = pq 2 = j (n – j + 1) (n + 1)2 (n + 2) , ¯ etc…. falta desarrollar todos estos c´alculos pesad´isimos.

Ejercicio 1.4.5 Si X es la media de una muestra aleatoria (X1,….,Xn) de una N(µ,s2 = 100), hallar n para que ¯

edu.red

v v v X ¯ – µ v ? N (0,1), 11 1.4. EJERCICIOS.

Soluci´on. Vemos que ¯ X ? N µ, 100 n = N 10 µ, v n , por lo que ¯ P µ – 5 < X < µ + 5 = P µ – 5 – µ 10 n < ¯ X – µ 10 n < µ +5 – µ 10 n , donde Z = ¯ X – µ s = 10/ n as´i que la anterior expresi´on se reduce a: P – v 5 n 10 < v 5 n 10 , y por simetr´ia se obtiene P Z> v n 2 = 1 – 0,0954 2 = 0,0230, por lo que v n 2 ~ 2… mirar tablas =? n ? 16, ¯ ¯ ¯ ¯ ´ ˜ tal y como quer´iamos calcular.

Ejercicio 1.4.6 Sean (X1,….,X25) e (Y1,….,Y25) dos muestras aleatorias de dos distribuciones ¯

Soluci´on. Vemos que

(X1,….,X25) -? X ~ N(µ = 0,s2 = 16), (Y1,….,Y25) -? Y ~ N(µ = 1,s2 = 9),

¯

¯ ¯

donde la nueva v.a. X – Y ~ N(µ = -1,s2 = 1) y la normalizamos a Z ? N (0,1), obteniendo el resultado requerido. Ver las propiedades de la distribuci´on normal en el ultimo cap´itulo.

ESTAD´ISTICOS SUFICIENTES

Ejercicio 1.4.7 Encontrar un estad´istico su?ciente en cada uno de los siguientes casos basado en una muestra aleatoria de tamano n de:

v n 2 = 1 – 0,0954 2 = 0,0230, por lo que v n 2 ~ 2… mirar tablas =? n ? 16, ¯ ¯ ¯ ¯ ´ ˜ tal y como quer´iamos calcular.

Ejercicio 1.4.6 Sean (X1,….,X25) e (Y1,….,Y25) dos muestras aleatorias de dos distribuciones ¯

Soluci´on. Vemos que

(X1,….,X25) -? X ~ N(µ = 0,s2 = 16), (Y1,….,Y25) -? Y ~ N(µ = 1,s2 = 9),

¯

¯ ¯

donde la nueva v.a. X – Y ~ N(µ = -1,s2 = 1) y la normalizamos a Z ? N (0,1), obteniendo el resultado requerido. Ver las propiedades de la distribuci´on normal en el ultimo cap´itulo.

ESTAD´ISTICOS SUFICIENTES

Ejercicio 1.4.7 Encontrar un estad´istico su?ciente en cada uno de los siguientes casos basado en una muestra aleatoria de tamano n de:

edu.red

12 CAP´ITULO 1. MUESTREO ALEATORIO. 1.

2. X ~ Beta(a,ß).

X ~ Gamma(p,a). f? (x) = e-x+? x ? (?,8), 0 resto, 3.

4. fµ,s = 1 v xs 2p exp 1 2s2 log(x – µ)2 , con x > 0.

Soluci´on. En todos los casos se trata de una aplicaci´on sistem´atica del teorema de factorizaci´on.

1. X ~ Beta(a,ß)

? = (a,ß) f? = 1 B(a,ß) xa-1 (1 – x)ß-1 , por lo que f? (x1,….,xn) = f? (xi) = 1 B(a,ß) n i xa-1 (1 – xi)ß-1 , de esta forma

f? (x1,….,xn) = K xa-1 i (1 – xi)ß-1 = g(t,?)h(x1,….,xn) donde elejimos h(x1,….,xn) = 1. De?nimos por lo tanto el estad´istico T = i xa-1, (1 – xi)ß-1 ´ es el estad´istico su?ciente buscado para (a,ß). No obstante debemos resaltar que no se trata del unico estad´istico su?ciente, la muestra en s´i misma es un estad´istico su?ciente o T = logxi, log(1 – xi) tambi´en es su?ciciente ya que log xi = e xi = e logxi , luego reescribiendo adecuadamente todas estas transformaciones biyectivas obtenemos lo mis- mo, la moraleja est´a en que dado cualquier estad´istico su?ciente (e.s.), entonces cualquier transformaci´on biyectiva nos da otro e.s..

edu.red

1.4. EJERCICIOS. 13 2. X ~ Gamma(p,a), donde f?(a,p) = ap G(p) exp(-ax)xp-1 siguiendo el anterior esquema vemos que f? (x1,….,xn) = f? (xi) = ap G(p) n exp(-axi) xp-1 i de esta forma llegamos a la conclusi´on de que

T = xi, xi es un estad´istico su?ciente para ? = (p,a).

Observaci´on 1.4.1 En realidad se han omitido los detalles m´as sangrientos, ya que hasta que se llega al estad´istico T, la verdad, hay que hacer unas cuantas cuentas: exp(-axi) = exp -na xi , i xp-1 = …. manipular . ˜ f (n,p) xi 3. X ~ e-x+?, con x > ?. Intentamos la misma argumentaci´on i.e. xi f? (xi) = e-x1+?……e-xn+? = en?e-

f? (x1,….,xn) = g(t,?)h(xi) f? (x1,….,xn) =

llegando a la conclusi´on de que

por lo que podr´iamos tomar g(t,?) = en?, h(xi) = e- xi de esta forma T = n? ser´a el estad´istico su?ciente. NO. Hemos operado mal intencionadamente. Aqu´ihay que tener muy en cuenta que x > ?, por lo que empezamos reescribiendo la f? como f? = e-x+?I(?,8)(x) y volvemos a rehacer el ejercicio con esta nueva consideraci´on f? (x1,….,xn) = f? (xi) = e-xi+?I(?,8)(xi) = en? I(?,8)(xi)e- xi donde g(t,?) = en?I(?,8)(X(1)), h(xi) = e- xi observar que I(?,8)(xi) = I(?,8)(X(1)), donde X(1) = m´in(x1,….,xn) por lo que podemos de?nir el e.s. T como T = X(1) , sorprendente, ¿no?.

edu.red

fU = , f? (x1,….,xn) = I(0,8)(xi)I(-8,?)(xi) 14 CAP´ITULO 1. MUESTREO ALEATORIO. 4. En este caso fµ,s = 1 v xs 2p exp 1 2s2 log(x – µ)2 i.e. el modelo log-normal. En este caso el estad´istico su?ente ser´a T = logxi, i logx2 . Para llegar a esta conclusi´on podemos considerar (X1,….,Xn) m.a. de X una N(µ,s2), por lo que T = xi, x2 i ¯ (falta probarlo). Ejercicio 1.4.8 Sea (X1,….,Xn) una muestra aleatoria de X ~ U(0,?), (? > 0). Estudiar la su?ciencia de T = X(n)

Soluci´on. Vemos que 1 ? =? 1 ? aqu´i es donde est´a toda la miga del problema, por lo que f? = 1 ? n I(0,8)(xi) I(-8,?)(xi) y al igual que antes observamos que

I(0,8)(xi) = I(0,8)(X(1)), I(-8,?)(xi) = I(-8,?)(X(n)), de esta forma llegamos a la conclusi´on de que f? (x1,….,xn) = g(t,?)h(xi) por lo que podr´iamos tomar g(t,?) = 1 ? n I(-8,?)(X(n)), h(xi) = I(0,8)(X(1)) obteniendo as´i T T = X(n) ser´a el estad´istico su?ciente. Lo principal del problema est´a en ver 1 ? lo cual no siempre es f´acil.

edu.red

Cap´itulo 2

Estimaci´on puntual 2.1. Introducci´on Sea (Xi)ni =1 una muestra aleatoria (m.a.) donde X ~ f?(x), ? ? T, el par´ametro ? es lo que queremos estimar. El objetivo es por lo tanto intentar decir algo sensato sobre ? a partir de los datos que tenemos i.e. de la m.a. (Xi)ni =1 . Para ello podemos seguir t´acticas: 1.

2.

3. Estimaci´on puntual (el objeto de este cap´itulo).

Los intervalos de con?anza.

Contraste de hip´otesis. ´ Los objetivos de la estimaci´on puntual son los siguientes: Estimar el par´ametro ? (´o t (?)) mediante un unico valor (un punto) a apartir de la muestra (Xi)ni =1 .

De?nici´on 2.1.1 Sea (Xi)ni =1 m.a. donde X ~ f?(x), ? ? T, un estimador puntual para ? es simplemente un estad´istico T = T(x1,…,xn) cuyo objetivo es estimar lo mejor posible ? (´o t (?)).

Los m´etodos de construcci´on son los siguientes: 1.

2.

3. M´etodo de los momentos,

M´etodo de m´axima verosimilitud,

M´etodos bayesianos. Tal y como veremos el metodo de m´axima verosimilitud es el m´etodo por excelencia.

15

edu.red

CAP´ITULO 2. ESTIMACION PUNTUAL .. 16 ´ 2.2. M´etodo de los momentos ˜ De?nici´on 2.2.1 Sea (Xi)ni =1 m.a. donde X ~ f?(x), ? ? T, un estimador puntual para ? por el m´etodo de los momentos (MM) y denotado por ?, es el valor que se obtiene al resolver el siguiente sistema de ecuaciones: E? [X] = 1 n Xi, . (2.1) E? Xk = 1 n i Xk, Ejemplo 2.2.1 Sea (Xi)ni =1 m.a. donde X ~ f?(x), ? ? T, donde X ~ Bernoulli(p), lo que queremos estimar es p as´i que Ep [X] = 1 n Xi, por lo tanto ˜ p = 1 n xi. Ver la secci´on de ejercicios para aclarar este m´etodo con ejemplos m´as complicados. 2.3. M´etodo de m´axima verosimilitud dan a (Xi)ni =1 = f?(xi)ni =1 = De?nici´on 2.3.1 Sea (Xi)ni =1 m.a. donde X ~ f?(x), ? ? T. De?nimos para cada muestra ?ja (Xi)ni =1 la funci´on de verosimilitud L(?) = probabilidad o densidad que los diferentes valores de ? n i=1 f?(xi). Por lo tanto L(?) = n f?(xi). ? ? i=1

El estimador de m´axima verosimilitud ˆ es el valor del par´ametro ? que maximiza L(?).

Observaci´on 2.3.1 En la mayor´ia de los casos para la obtenci´on de ˆ se maximiza la funci´on logL(?) en vez de L(?)

edu.red

2.4. METODOS BAYESIANOS. L(p) = Pp(x1,..,xn) = xi – n – ´ 17 Ejemplo 2.3.1 Se trata del mismo ejemplo que el del MM i.e. sea (Xi)ni =1 m.a. donde X ~ f?(x), ? ? T, donde X ~ Bernoulli(p), i.e. X ~ Bernoulli(p) = px (1 – p)1-x ,

lo que queremos estimar es p as´i que indp. n Pp(xi) = p xi (1 – p)n- xi i=1

xi log(p) + n – xi log(1 – p) tomamos logaritmos

log(L(p)) =

y pasamos a calcular el m´aximo i.e. ?p log(L(p)) = 0 1 p xi 1 1 – p = 0 despejamos p, encontr´andose que ˆ p = 1 n xi. ˆ ˜ Vemos que en tos ejemplos hemos obtenido que p = p, pero esto no siempre pasa. 2.4.

2.4.1. M´etodos bayesianos.

Introducci´on a los m´etodos bayesianos. Sea (Xi)ni =1 m.a. donde X ~ f?(x), ? ? T. En primer lugar advertir que en este caso cambia la notaci´on y se emplea f?(x) = f (x | ?), (2.2) considerando a ? como una v.a. 1. Disponemos de informaci´on muestral f?(x1,…,xn) = f (x1,…,xn | ?) = n f(xi | ?). (2.3) 2.

3. i=1

Nuevo. Disponemos de informaci´on previa sobre el par´ametro ?, que modelizamos mediante una densidad a priori (no proviene de la muestra) p (?).

Obtenemos la densidad conjunta f (xi | ?)p (?). (2.4)

edu.red

CAP´ITULO 2. ESTIMACION PUNTUAL ?p (? | x1,…,xn)d? = . 18

4. ´

Obtenemos la densidad o funci´on de masa de ? condicionada por (Xi)ni =1 , densidad a poste- riori, p (? | x1,…,xn) = f (x1, …, xn | ?)p (?) ? f (x1,…,xn | ?)d? ? f (xi | ?)p (?). (2.5) esta expresi´on no es m´as que la expresi´on de Bayes para el c´aculo de la probabilidad condi- cionada.

Los m´etodos bayesianos obtienen todas sus conclusiones sobre ? a partir de p (? | xi) (densidad condicionada) que recibe el nombre de densidad a posteriori.

El problema en la pr´actica est´a en la elecci´on de p (?). A menudo se utilizan familias conjungadas de densidades a priori facilit´andose as´i los c´alculos.

De?nici´on 2.4.1 Familia conjungada. Sea (Xi)ni =1 m.a. donde X ~ f (x | ?), ? ? T. Una familia P = {p (?)} de densidades a priori es conjungada para muestras de X ~ f (x | ?) cuando p (?) ? P, entonces p (? | x1,…,xn) ? f (xi | ?)p (?) ? P. (2.6) La idea en la pr´actica es que cualquier t´ecnica estad´isitica basada en m´etodos bayesianos obten- dr´a conclusiones a partir de p (? | xi). 2.4.2. Estimadores puntuales bayesianos. Un estimador puntual bayesiano ser´a una medida de centralizaci´on de la densidad a posteriori. Los m´as habituales son: 1. Media a posteriori T ?p (? | x1,…,xn)d?, (2.7) 2. Mediana a posteriori M

-8 1 2 (2.8) Ejemplo 2.4.1 Estimaci´on de ? = p = P(E), probabilidad de ´exito. Disponemos de una m.a. (Xi)ni =1 donde X = 1 P(E) = ? 0 P(F) = 1 – ? por lo que X ~ Bernoulli(?), tal que ? ? (0,1), as´i que sabemos que X ~ f (x | ?) = ?x (1 – ?)1-x . Consideramos la siguiente densidad a priori

p (?) ~ Beta(p = a,q = b)

edu.red

(1 – ?)b-1 (1 – ?) 19 f (x1,…,xn | ?) = 2.5. PROPIEDADES DESEABLES DE LOS ESTIMADORES.

por lo tanto la densidad a posteriori ser´a n i=1 f(xi | ?) = ? xi (1 – ?)n- xi p (?) = ? a-1 B(a,b) entonces p (? | x1,…,xn) ? f (xi | ?)p (?) ? ? xi n- xi ?a-1 (1 – ?)b-1 B(a,b) ? ?a+ xi-1 (1 – ?)n+b- xi-1 ~ Beta(p,q) as´i llegamos a la conclusi´on de que p = a + xi, q = n + b – xi. Entonces la media a posteriori ser´a T ?p (? | x1,…,xn)d? = 1 0 ?Beta(p,q)d? pero para hecharse esta cuenta uno debe considerar las constantes que hemos ido despreciando. Lo mejor en estos casos es ?jarse en los resultados ya conocidos, por lo que E [Beta(p,q)] = p p + q = a + xi a + b + n . Vemos que la densidad a priori era una Beta y que la densidad a posteriori ha salido otra Beta i.e. hemos tomado una familia conjugada

P ={Beta(p,q), p,q > 0}

si p = q = 1 =? Beta(1,1) ~ U ([0,1]), la uniforme ser´ia el caso en el que no tenemos ni idea sobre ?. Si P(E) = ? = 12 (o se aproxima mucho a este valor) entonces tomamos p,q tales que 1/2 sea el m´aximo para la funci´on Beta(p,q). 2.5.

2.5.1. Propiedades deseables de los estimadores.

Error cuadr´atico medio. Estimadores insesgados. De?nici´on 2.5.1 El error cuadr´atico medio de un estimador T para estimar t (?) es: ECM = E? (T – t (?))2 = f?(xi)(T – t (?))2 dxn. (2.9)

edu.red

CAP´ITULO 2. ESTIMACION PUNTUAL T1 = X, es insesgado para estimar µ = t (?), ya que 20 ´ Si desarrollamos el formul´on anterior entonces vemos que ECM = E? (T – t (?))2 = var(T) + (E? [T] – t (?))2 ,

donde se de?ne el sesgo como sesgo := E? [T] – t (?). (2.10)

(2.11) De?nici´on 2.5.2 Un estimaodor es insesgado o centrado para estimar una funci´on del par´ametro si E? [T] = t (?), i.e. el sesgo, (E? [T] – t (?) = 0) es cero i.e. (2.12) ECM = E? (T – t (?))2 = var(T) + (E? [T] – t (?))2 = var(T).

Ejemplo 2.5.1 Sea (Xi)ni =1 m.a. donde X ~ N µ,s2 , donde ? = µ,s2 , entonces: ¯ 1.

2. ¯

E X = µ = t (?)

T2 = S2, es insesgado para estimar s2 = t (?), ya que E S2 = s2 = t (?) recordar que S2 = 1 n-1 ¯ xi – X 2 3. T3 = var(X), es sesgado para estimar s2 = t (?), ya que E [var(X)] = s2 = t (?)

por lo tanto se tratar´ia de un estimador sesgado.

Teorema 2.5.1 Cota de Frechet-Cramer-Rao. Sea (Xi)ni =1 m.a. donde X ~ f?(x), ? ? T. para cualquier estimador T insesgado para t (?) se veri?ca: var(T) = dt(?) 2 E? d d? d? logf? (x1,…,xn) 2 = dt(?) 2 nE? d d? d? logf? (x) 2 . (2.13) Lema 2.5.1 E? d d? logf? (x) 2 = -nE? d2 d?2 logf? (x) (2.14) por lo tanto var(T) = dt(?) 2 -nE? d? d2 d?2 logf? (x) (2.15)

edu.red

2.5. PROPIEDADES DESEABLES DE LOS ESTIMADORES. 21 2.5.2. Estimadores e?cientes. De?nici´on 2.5.3 Un estimador T es e?ciente para estimar un par´ametro t (?) si: 1.

2. Es insesgado,

Su varianza alcanza la cota de FCR En consecuencia si es e?ciente tiene m´inima varianza. Al denominador de la cota de FCR (2.15) recibe el nombre de informaci´on de Fisher.

De?nici´on 2.5.4 Informaci´on de Fisher. IF = E? d d? logf? (xi) 2 (2.16) Obtenci´on de un estimador e?ciente.

Si T es e?ciente su varianza alcanza la cota de FCR por lo que ?2 T, d d? logf? (xi) = 1, el coe?ciente de correlaci´on vale uno, de este modo “casi seguro” y y – ¯ = cov(x, y) var(x) ¯ (x – x) obtenemos la recta de regresi´on que traducimos en este caso como T – E? [T] = cov(T, d? logf? (xi)) var(d? logf? (xi)) d d? logf? (xi) – E? d d? logf? (xi) d d? resultado: t' (?) T = t (?) + (2.17) d2 d?2 i.e. T = t + t' IF (logf?)' , observ´andose que E? [T] = t (?), cov(T, d d? logf? (xi)) = dt (?) d? = t' (?), var( d d? logf? (xi)) = -nE? d2 d?2 logf? (x) , as´i que si T es e?ciente entonces debe tener la pinta de (2.17). Si T no depende de ?, entonces ser´a e?ciente.

edu.red

CAP´ITULO 2. ESTIMACION PUNTUAL Tn -? t (?). FTn -? F(y) = entonces Tn -? t (?) y por lo tanto se trata de un estimador consistente para t (?). l´im ?Tn(t) = eitt(?) entonces Tn -? t (?) y por lo tanto se trata de un estimador consistente para t (?). 22 ´ 2.5.3. Estimadores consistentes. Sea (Xi)ni =1 m.a. donde X ~ f?(x), ? ? T. Queremos estimar t (?), Buscamos estimadores que se aproximen todo lo posible a lo que queremos estimar a medida que el n´umero de observaciones n crece i.e. T (Xi) ? t (?) i.e. hay convergencia en distribuci´on (en Ley). Buscamos estimadores que L funcionen bien asint´oticamente.

De?nici´on 2.5.5 Decimos que un estimador Tn es consistente para estimar t (?) si el estimador converge en probabilidad a t (?) i.e. (2.18) P

Veamos las distintas formas de abordar el estudio de la consistencia. 1. Supongamos que la funci´on de distribuci´on FTn es sencilla de obtener. Estudiamos entonces si L 0 y < t (?) 1 y = t (?) (2.19) ´ 2. P

Esta t´actica suele ser util cuando estamos trabajando con m´aximos y m´inimos

Supongamos que ?Tn(t) son f´aciles de obtener y estudiamos la convergencia (2.20) ´ n?8

P

Esta t´actica suele ser util cuando estamos trabajando con sumas y medias muestrales.

Teorema 2.5.2 Sea Tn un estimador tal que 1.

2. l´imn?8 var? (Tn) = 0,

l´imn?8 E? [Tn] = t (?), entonces Tn es consistente para estimar t (?).

Teorema 2.5.3 Bajo ciertas condiciones de regularidad el estimador de m´axima verosimilitud es consistente.

edu.red

e-n?? i=1 xi e-n?? i=1 xi 2.6. EJERCICIOS 23 2.6. Ejercicios ˜ Ejercicio 2.6.1 Dada una m.a. de tamano n de una v.a. X calcular el estimador de m´axima verosimilitud y el del los momentos en los siguentes casos: 1.

2.

3.

4.

5. X ~ Poisson(?), X ~ Exponencial(?), X ~ N(µ,s2), s conocido, X ~ N(µ,s2), µ conocido, X ~ N(µ,s2). Soluci´on. Siguiendo el mismo esquema que el propuesto en los ejemplos de teor´ia vemos que:

1. X ~ Poisson(?), Veremos los dos m´etodos

MM Sabemos que X ~ Poisson(?),=? E [X] = ? E [X] = ? = 1 n n

i=1 xi por lo que ˜ ? = 1 n n

i=1 xi. MMV Tomamos como funci´on de verosimilitud P(xi) = n

(x1!)…(xn!) L(?) =

tomando logaritmos entonces: log(L(?)) = log n

(x1!)…(xn!) = = -n? + n i=1 xi log? – n i=1 log((xi)!) y por lo tanto ?? log(L(?)) = 0, -n + n

i=1 xi 1 ? = 0 despejando se llega con facilidad a: ˆ ? = 1 n n

i=1 xi como era de esperar.

edu.red

CAP´ITULO 2. ESTIMACION PUNTUAL i=1 xi log(L(?)) = log ? e i=1 xi ´ 24

2. X ~ Exponencial(?), por lo que f(x) = ?e-?x, MM Sabemos que X ~ exp(?),=? E [X] = ?-1 E [X] = ?-1 = 1 n n

i=1 xi por lo que ˜ ? = n n . MMV Tomamos como funci´on de verosimilitud L(?) = f(xi) = ?ne-? n i=1 xi tomando logaritmos entonces: n -? n i=1 xi = nlog? – ? n i=1 xi y por lo tanto ?? log(L(?)) = n ? + n

i=1 xi =0 ˆ n n . despejando se llega con facilidad a:

? =

como era de esperar.

3. X ~ N(µ,s2), s conocido,

MM Sabemos que X ~ N(µ,s2),=? E [X] = µ E [X] = µ = 1 n n

i=1 xi, =? ˜ µ = 1 n n

i=1 xi MMV Tomamos como funci´on de verosimilitud L(µ) = f(xi) = sn 1 v 2p n exp – 1 2s2 n

i=1 (xi – µ)2 , tomando logaritmos entonces: log(L(µ)) = log sn 1 v 2p n exp – 1 2s2 n

i=1 (xi – µ)2 = = -nlogs – nlog v 2p – 1 2s2 n

i=1 (xi – µ)2

edu.red

?µ log(L(µ)) = 2 s ˜ = + 3 2.6. EJERCICIOS 25 y por lo tanto 1 s n

i=1 xi – nµ = 0 despejando se llega con facilidad a: ˆ µ = 1 n n

i=1 xi. como era de esperar.

4. X ~ N(µ,s2), µ conocido,

MM Sabemos que X ~ N(µ,s2) =? E [X] = µ E [X] = µ = 1 n n

i=1 xi no sirve en este caso pues este dato es conocido, por lo que tendremos que recurrir al momento de orden 2 i.e. E X2 = 1 n n

i=1 x2 i de donde se obtiene que (recordar la de?nici´on de varianza, var(X) = E X2 -E [X]2) s2 + µ2 = 1 n n

i=1 x2 i despejando 2 1 n n

i=1 i x2 – µ2 pero este resultado nos lleva a obtener un absurdo pues puede ser negativa esta magnitud !¡ Por ejemplo tomando µ = 3,xi = (1,2,4). MMV Tomamos como funci´on de verosimilitud L(s) = f(xi) = sn 1 v 2p n exp – 1 2s2 n

i=1 (xi – µ)2 tomando logaritmos entonces: log(L(s)) = -nlogs – nlog v 2p – 1 2s2 n

i=1 (xi – µ)2 y por lo tanto ?s log(L(s)) = – n s 1 s n

i=1 (xi – µ)2 = 0,

edu.red

CAP´ITULO 2. ESTIMACION PUNTUAL + 3 26 ´ despejando se llega con facilidad a: ˆ s2 = 1 n n

i=1 (xi – µ)2 . ˜ ˆ ˆ como era de esperar. Aqu´ise ve que no siempre s2 = s2, y que siempre el mejor etimador ser´a el de MV i.e. s2.

5. X ~ N(µ,s2),

MM Sabemos que X ~ N(µ,s2) E [X] = µ = 1 n n

i=1 xi, =? ˜ µ = 1 n n

i=1 xi, E X2 = s2 + µ2 = 1 n n

i=1 x2 i =? ˜ s2 = 1 n n

i=1 (xi – µ)2 . MMV Tomamos como funci´on de verosimilitud L(µ,s) = f(xi) = sn 1 v 2p n exp – 1 2s2 n

i=1 (xi – µ)2 tomando logaritmos entonces: log(L(µ,s)) = -nlogs – nlog v 2p – 1 2s2 n

i=1 (xi – µ)2 y por lo tanto ?µ log(L(µ,s)) = 1 s2 n

i=1 xi – nµ = 0, ?s log(L(µ,s)) = – n s 1 s n

i=1 (xi – µ)2 = 0, despejando se llega con facilidad a: ˆ µ = 1 n n

i=1 xi, ˆ s2 = 1 n n

i=1 (xi – µ)2 . como era de esperar. Ejercicio 2.6.2 Para cada uno de los siguientes casos encontrar la familia conjugada natural y hallar la distribuci´on a posteriori.

edu.red

2.6. EJERCICIOS 27 1.

2. (Xi)ni =1 es una m.a. de X ~ Poisson(?), (Xi)ni =1 es una m.a. de X ~ Gamma(p = 1,a = ?) 3. (Xi)ni =1 es una m.a. de X ~ N ?,var = 1 r , donde r es conocido. Soluci´on. Seguimos el gui´on expuesto en el ejemplo de la teor´ia 1. (Xi)ni =1 es una m.a. de X ~ Poisson(?), e-??x x! , x = 0,1 f? (x) = P (x | ?) =

familia de muestras para una Pisson P (x | ?) = P (xi | ?) ? e-n?? xi P (x | ?) es el n´ucleo de una densidad tipo “Gamma”, entonces tomamos como posible familia conjugada P = {p (?) ? Gamma(p,a)} recordamos que f ~ ap G(p) e-axxp-1 por lo que p (?) ~ a? G(?) e-a??p-1 as´i que p (? | x1,…,xn) ? P (xi | ?)p (?) ? e-n?? xi a? G(?) e-a??p-1 ? e-(n+a)??p+ xi-1 xi,a = ß + n . para ? > 0, por lo tanto

p (? | x1,…,xn) ~ Gamma p = a +

Adem´as podemos calcular la media a posteriori T ?p (? | x1,…,xn)d? = p a = a + xi ß + n 2. este ser´ia un estimador puntual bayesiano. (Xi)ni =1 es una m.a. de X ~ Gamma(p = 1,a = ?) f? (x) = f (x | ?) = ? G(1) e-?xx1-1 = ?e-?x, x> 0 familia de muestras para una Poisson P (x | ?) = P (xi | ?) ? ?ne-? xi ,

edu.red

CAP´ITULO 2. ESTIMACION PUNTUAL 2 1= x f (xi | ?)d? x ?2d? ? (1 – x) ? (1 – x) 28 ´

P (x | ?) es el n´ucleo de una densidad tipo Gamma, entonces tomamos como posible familia conjugada P = {p (?) ? Gamma(p,a)}, recordamos que f ~ ap G(p) e-axxp-1, por lo que p (?) ~ a? G(?) e-a??p-1, xi , as´i que p (? | x1,…,xn) ? f (xi | ?)p (?) ? ?ne-? para ? > 0. por lo tanto p (? | x1,…,xn) ~ Gamma p = a + xi,a = ß + n . Ejercicio 2.6.3 Sea X una observaci´on de la densidad f (x | ?) = 2x ?2 I(0,?) (x), ? > 0, supongamos que ? tiene una distribuci´on a priori uniforme sobre (0,1). Hallar la mediana de la distribuci´on a posteriori.

Soluci´on. Tenemos la siguiente situaci´on: f (x | ?) = 2x ?2 I(0,?) (x), ? > 0, y suponemos que p (?) = U [0,1] = 1, ? ? (0,1), entonces: p (? | xi) ? f (xi | ?)p (?) ? 2x ? 2x ?2 , ? ? (0,1), pero x ? (0,1), x < ?, por lo que ? ? (x,1), as´i que p (? | xi) ? f (xi | ?)p (?) 1 = 2x ?2 1 2x = x 2 , ? ? (x,1). Para calcular la media a posteriori vemos que 1 2 = M

-8 p (? | xi)d? = M

-8 x 2 d?

edu.red

– 3 , 2.6. EJERCICIOS 29 por lo que M = 2x 1+ x , tal y como quer´iamos calcular.

Ejercicio 2.6.4 Encontrar la cota de FCR y el estimador e?ciente (si existe) en los siguientes casos: 1. m.a. de f?(x) = 1 ? exp – x ? , ? > 0, x > 0, para estimar ? 2. m.a. de f?(x) = ?(1 – ?)x , x = 0,1.., ? ? (0,1), para estimar ? 3. m.a. de 1 fs(x) = v s 2p exp – x2 2s2 , para estimar s, lo mismo para estimar s2.

Soluci´on. Recordamos que FCR = -nE? dt 2 d? d2 logf?(x) d?2 , I.F. = -nE? d2 logf?(x) d?2 mientras que el estimador e?ciente t + dt d? I.Fisher dlogf?(xi) d? , T = t + t' IF (logf?)' , as´i que: 1. En este caso f?(x) = 1 ? exp – x ? , ? > 0, x > 0, por lo que tomando logaritmos tenemos que logf?(x) = log 1 ? exp – x ? = -log? – x ? , y de forma inmediata se calculan las derivadas etc… 1 x ? ? ? ?22 logf?(x) = 1 ?2 2x ?

edu.red

CAP´ITULO 2. ESTIMACION PUNTUAL 2 – ? = 2 – 3E [x] = 2 – 3? = – 2 x exp – n exp ? (1 – ?) 30 ´ de esta forma vemos que E? 1 ? 2x 3 1 2 1 2 1 ? ? ? ? ? ya que E [X] = R 1 ? x ? dx = ? E [X] = p a = ? adem´as podemos observar que

1 ya que G p = 1,a = . Por lo tanto: ? FCR = -nE? dt 2 d? d2 logf?(x) d?2 = 1 -n -? 1 2 = ?2 n . Para calcular el estimador e?ciente vemos que f?(xi) = f?(xi) = 1 ? – xi ? tomando logaritmos log(f?(xi)) = log 1 ?n exp – xi ? = -nlog? – xi ? y por lo tanto ?? (log(f?(xi))) = ?? – n ? — xi ? = – n ? + ? xi 2 de esta forma llegamos a que T = t + dt d? I.Fisher dlogf?(xi) d? = = ? + -n 1 -? 1 2 – n ? + ? xi 2 = ? + ?2 n – n ? + ? xi 2 = xi n . 2. De forma m´ecanica vemos que f?(x) = ?(1 – ?)x , x = 0,1.., ? ? (0,1), es una geom´etrica E [X] = 1 – ? ? , I.F. = n 2 por lo que FCR = ?2 (1 – ?) n sin embargo T = ? – ?2 (1 – ?) n dlogf?(xi) d? = 2? – ?2 – ?2 xi

edu.red

-nEs d log dsf 2 s(x) -nEs d log dsf 2 s(x) 2 4 = s2 + 2n 31 2.6. EJERCICIOS

i.e. no es un estimador e?ciente. FALTA completar las cuentecillas. log(f?(xi)) = log ?n (1 – ?) xi . dlogf?(xi) d? = n ? – xi (1 – ?) , 3. En este caso 1 fs(x) = v s 2p exp – x2 2s2 ? N 0,s2 , evitando pasos intermedios vemos que FCR = dt 2 ds 2 = -nEs 1 1 s2 – 3×2 s4 = – n s2 + 1 3n s4 Es [X2] 2 2 observ´andose que: var(X) = Es X2 – Es [X] Es X2 = var(X) + Es [X] = var(X) = s2 ya que X ? N 0,s2 , as´i que FCR = s2 2n . El estimador e?ciente: T = t + dt d? I.Fisher dlogf?(xi) d? = s + s2 2n dlogf?(xi) d? donde dlogf?(xi) d? = d d? log 1 v s 2p n exp – i x2 2s2 = – n s + i x2 s3 entonces T = s + s2 2n – n s + i x2 s3 por lo que no hay estimador eiciente para s. Sin embargo si repetimos estas cuentecillas para s2, vemos que FCR = dt 2 ds 2 = s2 4s2 – n + 3n s2 = n s . mientras que el estimador e?ciente veri?ca T = t + dt d? I.Fisher dlogf?(xi) d? = 2s

s2 – n s + i x2 s3 = i x2 n luego T = i x2 n es un estimador e?ciente en este caso.

edu.red

CAP´ITULO 2. ESTIMACION PUNTUAL -nE? d log d? f 2?(x) e -cxe = e (e-c?) = e-?e-?e . 32 ´ Tal y comoquer´iamos hacer ver.

Ejercicio 2.6.5 Sea (Xi)ni =1 m.a. de una distribuci´on tipo Poisson ?. 1. Hallar la cota inferior de FCR para la varianza de los estimadores insesgados de e-?. 2. Xi) sea un estimador Determinar el valor de la constante c tal que el estimador exp(-c insesgado de e-?. Soluci´on. De forma inmediata vemos que FCR = dt 2 d? 2 = nE? -e2? d2 logf?(x) d?2 = ?e-2? n no olvidar que estamos estimando e-?. T = exp(-c Xi) insesgado para estimar e-?.?? Recordamos que insesgado signi?ca: E? [T] – t (?) = 0 ?? E? [T] = e-? por lo tanto e-? = E [T] = E exp -c Xi = E [exp(-cxi)] = (E [exp(-cxi)])n = (exp(-?(1 – ec)))n = exp(-?n(1 – ec))

despejando se obtiene c = -log 1 – 1 n . veamos un paso delicado de la anterior cadenas de igualdades: E [exp(-cx)] = -cx P(X = x) = 8

x=0 e -??x x! -? 8

x=0 x x! -c tal y como quer´iamos hacer ver.

Ejercicio 2.6.6 Sea (Xi)ni =1 m.a. de una distribuci´on tipo uniforme U (0,?), ? > 0. 1.

2.

3. Hallar la cota inferior de FCR para la varianza de los estimadores insesgados de ?.

Estudiar si X(n) es un estimador insesgado para ?.

Hallar el estimador de m´axima verosimilitud para ?.

edu.red

? nt?n f?(x) = , 33 2.6. EJERCICIOS

Soluci´on. En este caso vemos que E [T] = E X(n) = R tfX(n)(t)dt para calcular fX(n)(t) puedo mirar la funci´on de densidad del m´aximo: FX(n)(t) = ? ? 0 tn ?n 1 t < 0, t ? (0,?), t > ?, vemos que FX(n)(t) = P(Xi = t) = (P(Xi = t))n = t

-8 fdx n = t 0 1 ? dx n = tn ?n as´i fX(n) = n-1 0 t ? (0,?) resto de esta forma E [T] = E X(n) = R tfX(n)(t)dt = ? 0 n tn ?n dt = n n +1 ? por lo que no es insesgado para estimar ?. Recordatorio: E? [T] – t (?) = 0.

Hallar el estimador de m´axima verosimilitud para ?. En este caso 1 ? x ? (0,?), por lo que la funci´on L(?) = f?(xi) = f?(xi) = 1 ?n , as´i que logL(?) = -nlog?, =? ?? logL(?) = – n ? de esta forma llegamos a que ?? logL(?) = – n ? =0 =? ? ˆ = 8, ? 1 ? llegando as´i a una cagada monumental. Rehacemos el camino para hacer ver que en esta ocasi´on f?(x) = 1, x ? (0,?), pero L(?) = ?n, si ? = X(n), en este caso el rango de las observaciones depende del par´ametro por lo que hay que ser un poco m´as cuidadoso a la hora de escribir las cosas. As´i se llega a la conclusi´on de que

ˆ = X(n)

tal y como quer´iamos hacer ver.

edu.red

CAP´ITULO 2. ESTIMACION PUNTUAL xi, ¿Es consistente para ?? .i.e. ˆ ? -? ?.?? Para verlo tendremos G(n) ? E ˆ ? -? ? ? ? ´ 34

Ejercicio 2.6.7 Sea (Xi)ni =1 m.a. de la densidad

f? (x) = ?exp(-?x), x = 0,? > 0. Encontrar el estimador de m´axima versimilitud de ?. ¿Es consistente para ??.

Soluci´on. En este caso f? (x) es una exponencial (ver primer ejercicio), adem´as el rango no ? depende del par´ametro. ˆ = n P n?8 n?8

Por lo tanto: E ˆ ? = E n xi = E n Y = 8 0 n y f (y)dy = 8 0 n ?n y G(n) e-?yyn-1dy = = n 8 ?n G(n) 0 e-?yyn-2dy = n ?n G (n – 1) n-1 = n n – 1 ? por lo tanto ? E ˆ = E n Y = n n – 1 ?, n?8 en estos c´alculos hemos empleado los siguientes trucos: Y = xi ~ Gamma(p = n,a = ?). las exponenciales son casos particulares de una Gamma y la suma de Gammas es otra Gamma. Si X ~ Gamma(p,a) entonces: f(x) = ap G(p) e-axxp-1, 8 0 e-axxp-1dx = G (p) ap , G(p) = (p – 1)G(p – 1). Mientras que var ˆ ? = var n xi = n2var 1 Y = n2 E Y -2 – E2 Y -1 = = n2 8 0 1 ?n y2 G(n) e-?yyn-1dy – ?2 (n – 1)2 = n2 ?2 (n – 1)(n – 2) – ?2 (n – 1)2 n?8

Ejercicio 2.6.8 Sea (Xi)ni =1 m.a. de una distribuci´on tipo uniforme U (0,?), ? ? (0,8). De- mostrar que X(n) es consistente para ?. ¿Es Yn = 2Xn consistente para ??

Soluci´on. Seguimos los mismos que en ejercicios anteriores viendo que FX(n)(t) = ? ? 0 tn n 1 t < 0, t ? (0,?), t > ?,

edu.red

-? 0, 35 2.6. EJERCICIOS

observamos que FX(n)(t) = 0 t< 0 1 t = ? comprobando que L P

¿Es Yn = 2Xn consistente para ??. Esperamos que 2Xn est´e cerca de ?. ? n?8 2 var(Yn) = var(2Xn) = 4var(Xn) = 4 var(X) n = 4 ?2 n 12 = ?2 n?8 3n ˜ ¯ por lo que es consistente para ?. Sin embargo tiene una pequena pega pues si tomamos X ~ U(0,10) supongamos que X = 6, entonces Yn = 2Xn = 12, por lo que a veces sobre-estima.

Ejercicio 2.6.9 Sea (Xi)ni =1 m.a. de una distribuci´on discreta con funci´on de masa 1. Estudiar si T = P? (X = x) = ?(1 – ?)x-1 , x = 1,2,…,? ? (0,1)

Xi, es un estad´istico su?ciente para ?. ? 2.

3.

4.

5.

6. ? Hallar el estimador de ? por el m´etodo de los momentos,

Obtener el estiamdor de m´axima verosimilitud de ?.

Calcular la media de la distribuci´on a posteriori cuando la distribuci´on a priori para el par´ametro ? ? (0,1). Calcular la cota de FCR para la varianza de los estiamdores insesgados para t (?) = 1. ¿Hay estimador e?ciente para estimar t (?) = 1?. Soluci´on. De forma telegr´a?ca vemos que 1. S´i, aplicando el teorema de facotrizaci´on obtenemos ?(1 – ?)xi-1 = ?n (1 – ?) xi-n por lo tanto T = Xi, es un estad´istico su?ciente para ? 2. Sabemos que al tratarse de un geom´etrica E [X] = 1 p = 1 ? y por lo tanto ? ˜ = n xi ,

edu.red

CAP´ITULO 2. ESTIMACION PUNTUAL x?(1 – ?)x-1 = . 36 ´ 3. Vemos que L(?) = ?n (1 – ?) xi-n xi – n log(1 – ?) as´i que tomando logaritmos

logL = nlog? +

calculamos el m´aximo, encontrando n ? – ( xi – n) (1 – ?) =0 de esta forma llegamos a: ? ˆ = n xi , 4. p (? | xi) ~ Beta p = n + 1,q = xi – n + 1 La media a posteriori es: E [X] = p p + q = n +1 xi + 2 5. T = xi n ? es e?ciente para t = 1, donde E [X] = 1 ?

edu.red

Cap´itulo 3

Intervalos de con?naza 3.1. Introducci´on Disponemos de (Xi)ni =1 m.a. de X ~ f?(x) tal que ? ? T. Como siempre queremos estimar ?.

De?nici´on 3.1.1 Un estimador por intervalos de con?enza para estimar ?i es una funci´on que a cada muestra (Xi)ni =1 le asigna un intervalo (L,U) = (L(xi)ni =1 ,U (xi)ni =1).

De?nici´on 3.1.2 El nivel de con?anza de un intervalo (L,U) es 1 – a cuando P? {? ? (L,U)} = P? {(xi)ni =1 : L < ? < U} = 1 – a.

Consideramos los siguientes m´etodos de construcci´on 1.

2.

3.2. M´etodo cl´asico (cantidad pivotal), intervalos de con?anza m´as frecuentes en las aplicaciones.

M´etodos bayasianos.

M´etodo de la cantidad pivotal. De?nici´on 3.2.1 Una cantidad pivotal para estimar ?i es una funci´on T ((xi)ni =1 : ?i) cuya distribuci´on no depende de ?i.

La idea es la de obtener una cantidad pivotal T para ?i, que sea una funci´on continua y mon´otona de ?i. Queremos hallar (e(a1),e(a2)) tales que P? {(xi)ni =1 : e(a1) < T < e(a2)} = 1 – a.

37

edu.red

s Consideramos X ¯ ~ N µ, n 0 X ¯ – µ X ¯ – µ X ¯ – µ µ < X ¯ + Za/2v , µ > X ¯ – Za/2v , X ¯ ± Za/2v 38 CAP´ITULO 3. INTERVALOS DE CONFINAZA donde los (e(a1),e(a2)) no dependen de ?i por ser T una cantidad pivotal.

Despejamos ?i de la anterior ecuaci´on i.e.

e(a1) < T T < e(a2)

obteniendo as´i (L,U). 3.2.1. Cantidades pivotales e intervalos de con?anza m´as frecuentes. 1. (Xi)ni =1 m.a. de X ~ f?(x) = N µ,s20 donde s20 es una cantidad conocida. El objetivo es estimar µ mediante IC con un nivel de con?anza (NC) 1 – a. Para ello seguiremos la siguiente t´actica: 2 y tipi?cando i.e.

v ~ N (0,1) s0/ n nos preguntamos si T = v s0/ n es una cantidad pivotal para estimar µ. Adem´as, para una muestra ?ja ¿es T continua y mon´otona?. Ambas respuestas son a?rmativas. P? {(xi)ni =1 : e(a1) < T < e(a2)} = 1 – a, P? (xi)ni =1 : e(a1) < v < e(a2) s0/ n = 1 – a, ´ vemos que T ~ N (0,1) entonces por simetr´ia la ultima ecuaci´on la podemos reescribir como P? (xi)ni =1 : -Za/2 < T < Za/2 = 1 – a, as´i que despejamos

-Za/2 < T, T < Za/2,

de donde obtenemos que s0 n s0 n por lo que llegamos a: IC1-a = (L,U) = s0 n . Vemos de esta forma que al aumentar n la longitud del intervalo decrece (i.e. la estimaci´on es m´as precisa). De igual forma se observa que al aumentar el NC 1-a entonces Za/2 aumenta i.e. la longitud del intervalo aumenta y por lo tanto la estimaci´on es menos precisa).

edu.red

3.2. METODO DE LA CANTIDAD PIVOTAL. (NC) 1 – a. Podemos intentar seguir la t´actica anterior i.e. consideramos X ¯ ~ N µ, 0 y X ¯ – µ X ¯ – µ X ¯ – µ X ¯-µ /(n X ¯ – µ X ¯ – µ X ¯ ± tn-1;a/2v ?2 n-1;a/2 ?n-1;1-a/2 ~ ´ 39 2. (Xi)ni =1 m.a. de X ~ N µ,s2 . El objetivo es estimar µ mediante IC con un nivel de con?anza s2 n tipi?cando i.e. v s/ n ~ N (0,1), y nos preguntamos si T = v s/ n es una cantidad pivotal para estimar µ. Adem´as, para una muestra ?ja ¿es T continua y mon´otona?. En esta caso no, ya que T depende de un par´ametro desconocido, s, por lo tanto no puede ser cantidad pivotal. En este caso deberemos apelar al teorema de Fisher (recordar el primer cap´itulillo) viendo que v s/ n ~ N (0,1), (n – 1)S2 s2 2 ~ ?n-1 por lo tanto 2 N (0,1) ?n-1/(n – 1) = v s/ n (n-1)S2 s2 – 1) = v S/ n ~ tn-1 por lo tanto si de?nimos T = v S/ n ahora s´ies cantidad pivotal para estimar µ. Por lo tanto y siguiendo el procedimiento anterior vemos que P -tn-1;a/2 < T < tn-1;a/2 = 1 – a donde hemos vuelto a tener en cuenta las simetr´ias de la distribuci´on. As´i que despejando se llega a que IC1-a (µ) = S n . Siguiendo los mismos paso, podemos ahora estimar s2. Para ello consideramos T = (n – 1)S2 s2 , como cantidad pivotal y obtenemos por lo tanto IC1-a s2 = (n – 1)S2 (n – 1)S2 , 2 . 3. (Xi)ni =1 m.a. de X ~ Bernoulli(p). El objetivo es estimar p mediante IC con un nivel de con?anza (NC) 1 – a. En este caso seguremos las siguientes consideraciones: n i=1 e Xi = “# ´xitos” ~ Bin(n,p) Ta De Moivre N µ = np,s2 = npq

edu.red

i=1 Xi – np 40 CAP´ITULO 3. INTERVALOS DE CONFINAZA por lo tanto n i=1 Xi ~ N µ = np,s2 = npq tipi?cando n

np(1 – p) ~ N(0,1) arreglando las cuentecillas llegamos a ¯ X – p p(1-p) n ? ¯ ˆ ˆ X – p p(1-p) n = ¯ ¯ ¯ X – p X(1-X) n ~ N(0,1) as´i que T = ¯ ¯ ¯ X – p X(1-X) . n ¯ Por lo tanto y siguiendo los mismos pasos que los anteriores casos vemos que ¯ ? IC1-a (p) = ?X ± Za/2 ¯ ¯ X 1 – X n ? ?. 3.2.2. Cantidad pivotal general. Sea (Xi)ni =1 m.a. de X ~ F? distribuci´on continua. Podemos de?nir una cantidad pivotal gen´erica como sigue: T = – n logF? (xi) i=1 es cantidad pivotal para estimar el par´ametro ?, pues depende de (Xi)ni =1 y ? y se comprueba con facilidad que la funci´on de distribuci´on de T no depende de ?.

De?nici´on 3.2.2 De?nimos el error en la estimaci´on de un intervalo de con?enaza como E = longitud del intervalo 2 . ˜ En muchos estudios es muy interesante saber el tamano muestral necesario para obtener un error en la estimaci´on inferior a E.

Ejemplo 3.2.1 Sea (Xi)ni =1 m.a. de X ~ N µ,s20 donde s20 es una cantidad conocida. ¿Cu´al es el m´inimo valor de n para que el error en la estimaci´on de un intervalo con nivel de con?anza 1-a sea inferior a E?

edu.red

X ¯ ± Za/2v E = Za/2v 41 3.3. INTERVALOS DE CONFIANZA BAYESIANOS.

Sabemos que IC1-a = s0 n . por lo tanto

por lo que de aqu´i despejamos n s0 n v Za/2s0 = E n as´i que n = Za/2s0 E 2 . 3.3. Intervalos de con?anza bayesianos. f (x1,….,xn | ?) = Sea (Xi)ni =1 m.a. de X ~ f (X | ?) donde ? ? T. Tenemos la informaci´on muestral (verosimilitud) n i=1 f (xi | ?) y de la informaci´on a priori p (?) as´i que aplicando Bayes p (? | x1,….,xn) = p (?) n f (xi | ?) ? p (?) i=1 n f (xi | ?) ? p (?)f (x1,….,xn | ?) / i=1 y todas las conclusiones las obtendremos a partir de p (? | x1,….,xn) la distribuci´on a posteriori.

De?nici´on 3.3.1 Un intervalo de con?anza bayesiano al nivel 1-a es un intervalo (L,U) tal que U p (? | x1,….,xn)d? = 1 – a. L

De?nici´on 3.3.2 El intervalo de con?anza bayesiano con m´axima densidad a posteriori (HPD) al nivel 1 – a es el intervalo (L,U) tal que U p (? | x1,….,xn)d? = 1 – a, L y ??1 ? (L,U) y ??2 ? (L,U), p (?1 | x1,….,xn) > p (?2 | x1,….,xn).

El intervalo HPD es el de m´inima longitud para un nivel 1 – a ?jado.

edu.red

x ¯ ± za/2v x ¯ ± tn-1;a/2v 42

3.4. CAP´ITULO 3. INTERVALOS DE CONFINAZA

Resumen de intervalos

INTERVALOS DE CONFIANZA ´

(X1,…,Xn) muestra aleatoria (m. a.) de X. ¯ x = 1 n xi s2 = 1 n – 1 ¯ (xi – x)2. 3.4.1. X ~ N(µ,s) Intervalos de con?anza 1 – a para µ:

1. s conocida: I = s n . s n . 2. s desconocida I =

Intervalo de con?anza 1 – a para s2: I = 2 (n – 1)s2 ?n-1;a/2 , 2 (n – 1)s2 ?n-1;1-a/2 . 3.4.2. X ~ Bernoulli(p) (muestras grandes). Intervalo de con?anza 1 – a para p: I = ¯ x ± za/2 ¯ ¯ x(1 – x) n . 3.4.3. X ~ Poisson(?) (muestras grandes) ¯ Intervalo de con?anza 1 – a para ?:

I = x ± za/2 ¯ x/n .

edu.red

(s21/n1)2 (s22/n2)2 + 3.4. RESUMEN DE INTERVALOS 43 3.4.4. Dos poblaciones Normales independientes ¯ y X ~ N(µ1,s1); (X1,…,Xn1) m. a. de X; se calcula x y s21. Y ~ N(µ2,s2); (Y1,…,Yn2) m. a. de Y ; se calcula ¯ y s22. 2 sp = (n1 – 1)s21 + (n2 – 1)s22 n1 + n2 – 2 . Intervalos de con?anza 1 – a para µ1 – µ2: 1. s1, s2 conocidas: ? ¯ y I = ?x – ¯± za/2 s21 n1 + ? s22? n2 . 2. s1, s2 desconocidas, s1 = s2: I = ¯ y x – ¯± tn1+n2-2;a/2 sp 1 n1 + 1 n2 . 3. s1, s2 desconocidas, s1 = s2: ? ¯ y I = ?x – ¯± tf;a/2 s21 n1 + s22 n2 ? ?, (s21/n1 + s22/n2)2

n1-1 n2-1 . donde f = entero m´as pr´oximo a

Intervalo de con?anza 1 – a para s21/s22: I = s21/s22 Fn1-1;n2-1;a/2 , s21/s22 Fn1-1;n2-1;1-a/2 . 3.4.5. Comparaci´on de proporciones (muestras grandes e independientes) X ~ Bernoulli(p1);(X1,…Xn1) m. a. de X. Y ~ Bernoulli(p2);(Y1,…Yn2) m. a. de Y . Intervalo de con?anza 1 – a para p1 – p2: ? ¯ y I = ?x – ¯± za/2 ¯ ¯ x(1 – x) n1 + y y ? ¯(1 – ¯)? n2 .

edu.red

1/2 . 44 CAP´ITULO 3. INTERVALOS DE CONFINAZA 3.5. Ejercicios ¯ ¯ Ejercicio 3.5.1 Sea (X1,X2,X3,X4) una m.a. de X ~ N µ,s2 = 1 . Hallar el nivel de con?anza del estimador por intervalos X – 1,X + 1 .

Soluci´on. Queremos calcular el NC que como sabemos i ¯ ¯ ¯ ¯ = Pµ X – 1 < µ < X + 1 NC = Pµ (Xi)4=1 : µ ? X – 1,X + 1

si tenemos en cuenta que ¯ X = Xi n = µ, ¯ X ~ N µ, s2 n = N µ, 1 4 , =? s = 1/2, entonces ¯ ¯ Pµ X – 1 < µ < X + 1 = P µ – 1 – µ 1/2 < ¯ X – µ 1/2 < µ +1 – µ 1/2 ¯ X-µ P {-2 < Z < 2} Teniendo en cuenta las simetr´ias de la N(0,1) la anterior simpli?cando queda:

donde como es habitual Z = expresi´on queda reducida a: 2P (Z > 2) = 0,9544 donde dicho valor se ha obtenido de las tablas para la nornal tipi?cada.

Ejercicio 3.5.2 Sea (Xi)ni =1 una m.a. de X ~ U (0,?),? > 0. 1. Nivel de con?anza del estimador por intervalos aX(n),bX(n) tal que 1 = a < b. 2. Hallar P? ? ? X(n) + c,X(n) + d tal que 1 = c < d. Soluci´on. Para el primero de los apartados vemos que

[L,U] = aX(n),bX(n) , 1 = a < b, por lo tanto el NC ser´a

NC = P? {(Xi)ni =1 : ? ? [L,U]} = P? aX(n) < ? < bX(n)

o lo que es lo mismo P? ? b < X(n) < ? a ´ recordar que X(n) = max(Xi). Adem´as si rememoramos las cuentecillas del primer capitulillo vemos que fX(n) = n[FX (t)]n-1 fX (t)

edu.red

dt = n – n i=1 Xi = ?e-? ? 3.5. EJERCICIOS 45 as´i que fX(n) = n t ? n-1 1 ? = ntn-1 ?n , ?t ? (0,?) por lo tanto P? ? b < X(n) < ? a = ? a ? b fX(n)dt = ? a ? b ntn-1 ?n 1 1 a b y como vemos en este caso no depende de ?.

En el segundo de los casos vemos que

[L,U] = X(n) + c,X(n) + d , 1 = c < d, as´i que seguimos el mismo procedimiento por lo que llegamos sin problemas a: P? X(n) + c < ? < X(n) + d = P? ? – d < X(n) < ? – c = 1 – c ? n – 1 – d ? n al depender de ? no se le llama nivel de con?enza.

Ejercicio 3.5.3 Sea (Xi)ni =1 una m.a. de X cuya densidad viene dada por probar que T = ? n ?e-?x x > 0 f (x | ?) = 0 resto

es una cantidad pivotal y obtener los intervalos de con?anza correspond- intes.

Soluci´on. Observamos que T es funci´on s´olo de la muestra y del par´ametro y tenemos que ver que la distribuci´on es funci´on continua y mon´otona.

X ~ f?

de?nimos la v.a. Y = ?X as´i que aplicando el c.v. T = ? n i=1 Xi = n i=1 Yi ~ Gamma(p = n,a = 1) vemos que si Y = ?X =? X = Y ? =? dX dY = 1 ? por lo tanto fY = fX dX dY y 1 ? = e-y, ?y ? (0,8) adem´as se observa que fY ~ Gamma(p = 1,a = 1). De esta forma vemos que al solo depender de (Xi)ni =1 se trata de una cantidad pivotal para el par´ametro ?, igualmente se observa que es continua y mon´otona creciente en ?.

edu.red

i=1 Xi i=1 Xi i=1 Xi i=1 Xi CAP´ITULO 3. INTERVALOS DE CONFINAZA 46

Buscamos ahora (e1,e2) tales que P e1 < ? P {e1 < T < e2} = 1 – a

as´i que teniendo en cuenta las simetr´ias de la funci´on gamma etc… despejamos ? y vemos que

n i=1 Xi < e2 =1 – a e1 < ? n

i=1 Xi, =? e1 (a) n

Partes: 1, 2
 Página anterior Volver al principio del trabajoPágina siguiente