Descargar

Apuntes de procesos estocasticos (página 2)

Enviado por Jabel70


Partes: 1, 2, 3
1.

2.

3.

4. 1lAc = 1- 1lA, 1lA · 1lB = 1lAnB, si A n B = Ø, entonces, 1lA?B = 1lA + 1lB, 1lAc · 1lBc = 1lAcnBc = 1- 1lA?B. ´ ´ ´ Proposicion 1.2.1 Si X,Y son v.a. y ?,µ ? R, entonces:

µX + ?Y es v.a. XY es v.a.

i.e. es un anillo.

Proposicion 1.2.2 Criterio para determinar si X es v.a. Sea Y : ? -? R una funci´on cualquiera, de?nimos B ? R : Y-1(B) ? F , entonces este conjunto es s-algebra en R. ´ X es v.a. signi?ca que la s-algebra, B ? R : X-1(B) ? F , contiene a los borelianos. Para comprobar que ´ ´ contiene a los Borel, basta con probar que contiene a los intervalos o aun mejor, que contiene a los intervalos (8,x] o (-8,x). En general se sigue el criterio: X es v.a. si {X = t} ? F, ´ ?t ? R o X es v.a. si {X < t} ? F, ?t ? R. i ´ i Propiedades 1.2.1 Si X es v.a y f una funci´on medible, entonces la composici´on es v.a. i.e. f · X es v.a. Lo mismo sucede si consideramos (Xi)n =1 v.a., entonces f (Xi) es v.a.

De?nicion 1.2.2 L´imites de sucesiones. Sean (Xi)n =1 v.a en (?,F,P), entonces: 1.

2.

3.

4. infXn = Y es v.a. supXn es v.a.

l´imXn = inf{supXn} es v.a., l´imXn = sup{infXn} es v.a., ´ i Lema 1.2.1 Sean X,Y dos v.a. de?nidas en (?,F,P), entonces{? : X (?) = Y (?)} ? F.

De?nicion 1.2.3 Convergencia casi segura. Sean (Xi)n =1 v.a en (?,F,P), entonces decimos que Xn converge casi seguramente (c.s.) si P l´imXn = l´imXn = 1. De?nimos l´imXn tal que l´imXn = l´imXn.

edu.red

1.3. DISTRIBUCION DE PROBABILIDAD DE UNA V.A.. 6 i? 1 i 6 -1 + d2, ´ 5 ´ 1.3. Distribucion de probabilidad de una v.a..

Sean X v.a. de?nida en (?,F,P). Lo que nos interesa de X es la probabilidad con la que toma valore en R.

´ ´

µX(B) = P(X ? B) = P({? : X (?) ? B}) = P X-1 (B) ,

donde, claro est´a, X-1 (B) ? F. µX contiene toda la informaci´on relevante de la v.a. X.

Ejemplo 1.3.1 Dado ? = {1,2,3,4,5,6} i.e. descripci´on del archiconocido ejemplo del dado, donde rescribimos ? como ? = {?1,?2,?3,?4,?5,?6}, tomamos F =P (?) y considermos que P({?i}) = 16. Consideramos ahora las v.a. X (?i) = i, Y (?i) = 2 i ? [5,6] -1 i ? [1,4] , ´ = P (?) = F, = {Ø,?,{?1,?2,?3,?4},{?5,?6}}, viendo que las s-algebras que forman son

s(X) s(Y)

y ahora nos preguntamos por µX,µY. Vemos que µX(B) = P(X ? B), i.e. µX(B) = #(B n {1, 2, 3, 4, 5, 6}) 6 , por lo tanto µX(B) = 1 6 = d , donde di representa la delta-Dirac. Mientras que para la v.a. Y vemos que µY(B) = 4 d 2 6 ya que µY(2) = P(Y ? 2) = P(Y = 2) = P({?5,?6}) = 2 6 , µY(-1) = P(Y ? -1) = P(Y = -1) = P({?1,?2,?3,?4}) = 4 6 , viendo as´i que por ejemplo µY(R{-1,2}) = 0. En general se tiene µX = n ? P(X = xi)di, i=1 / µX = n ? P(X = xi)di = 1. i=1

edu.red

CAPITULO 1. VARIABLES ALEATORIAS. v v dt v v v ? ? ? : – b = ?4 = 4 a ? ? ? : 4 a = ?4 = ? P P v v v v 6 ´ Ejemplo 1.3.2 En (? = [-1,1],F =B,P = Lebesgue), de?nimos la v.a. X (?) = ?2, queremos calcular µX. Para ello consideramos la de?nici´on i.e. µX = P(X ? B) ?2 1.

2.

3. ´ [1,8] µX ([1,8]) = P(X = 1) = P({±1}) = 0, de igual forma vemos que en el intervalo [-8,0], tenemos µX ([-8,0]) = P(X = 0) = P({0}) = 0, por ultimo vemos que pasa en un intervalo [a,b] ? [0,1] µX ([a,b]) = P(a = X = b) = P ? : a = ?2 = b = 1 2 v b + 1 v 2 b – v a = =

= v – a + v b – a, En general tenemos que µX(B) = B 1 2 t para cualquier Borel B.

Ejemplo 1.3.3 En(? = [-1,1],F =B,P = Lebesgue/2),de?nimoslav.a. X (?) = ?4,queremoscalcular µX ([a,b]). Para ello consideramos la de?nici´on i.e. µX = P(X ? B) y seguimos los mismos que en el ejemplo anterior i.e. µX ([a,b]) P(a = X = b) = P ? ? ? : a = ?4 = b = =

= 4 4 b = 1 2 v – 4 a + 4 b + 1 2 4 v b – 4 a = 4 v b – 4 a. ´ ´ ´ ´ ´ ´ ´ De?nicion 1.3.2 Sean X,Y dos v.a. de?nidas en (?,F,P), entonces decimos que son iguales en distribuci´on si µX = µY, utiliz´andose la notaci´on d

Al ser la de?nicion de µX, distribucion de probabilidad, µX(B) = P(X ? B), algo complicadilla de manejar, a efectos pr´acticos, consideraremos la siguiente de?cion.

De?nicion 1.3.3 La funcion de distribucion de la v.a. X, F : R -? [0,1] ? R, de?nida por FX(t) = µX ((-8,t]) = PX (X = t), ?t ? R, ´ la funci´on de distribuci´on asigna a cada numero real t, la probabilidad acumulada hasta ese valor t.

edu.red

1.3. DISTRIBUCION DE PROBABILIDAD DE UNA V.A.. 7 ´ ´

Observacion 1.3.1 La idea que anda por detr´as es la siguiente. Debemos pensar en X v.a. como una generalizaci´on de la funci´on inversa de F, i.e. X = F-1, tal y como sospech´abamos a partir del ejemplo (1.3.2). Ver el ejemplo (1.3.4).

Propiedades 1.3.1 Si F es la funci´on de distribuci´on de X entonces se veri?ca: 1. 2. 3. 4. ?a,b ? R, a = b; PX(a < X < b) = F(b) – F(a) F es cont. por la derecha en cada punto de R F es mon´otona no decreciente F(-8) = 0, i.e. l´imt?-8 F(t) = 0, y que F(8) = 1. ? ? (0,1), Ejemplo 1.3.4 En (? = (0,1),F =B,P = Lebesgue), de?nimos la v.a. X (?) = sup{y ? R : F(y) = ?}, queremos calcular FX. Vemos que F : : R -? [0,1] y -? F(y) ? [0,1] = ?, tenemos

esto nos da la idea de X = FX(t) F-1, : {? ? (0,1) : X (?) = t} = {? ? (0,1) : ? = F(t)}

= P({? ? (0,1) : X (?) = t}) = P({? ? (0,1) : ? = F(t)}) = i ´ = mLebesgue((0, F(t))) = F(t) – 0 = F(t) por lo que F = FX.

Ejemplo 1.3.5 Sean (Xi)n =1 v.a.i.i.d. con funci´on de distribuci´on comun F(x). Escribir la funci´on de distribuci´on de la v.a. Zn = m´in(X1,….,Xn).

Vemos que hay que calcular (por de?nici´on) FZn(t) = P(Zn = t), observ´andose que P(Zn > t) = P(m´in(X1,….,Xn) > t), al tratarse de v.a.i.i.d., entonces P(Zn > t) = P(X1 > t,….,Xn > t) = n ? P(Xi > t) = i=1 = n ? i=1 1- FXi (t) = (1- F(t))n , y por lo tanto FZn(t) = 1- (1- F(t))n .

edu.red

CAPITULO 1. VARIABLES ALEATORIAS. 8 ´ ´ ´ ´ ´ De?nicion 1.3.4 Si X es v.a. discreta se de?ne la funcion de masa

p : R -? [0,1]

tal que p(x) = PX(x) = P[? ? ? : X(?) = x]

De?nicion 1.3.5 Si X es v.a. continua, se llama funcion de densidad f de X a cualquier funci´on f : R -? R, tal que 1. 2. ´ f(x) = 0, ?x ? R, f contiene a lo sumo un numero ?nito de discontinuidades i.e. f es integrable Riemann 3. R fdx = 1, A partir de f -? F F(t) = t -8 f(x)dx Teorema 1.3.1 Sea X v.a. continua, con funci´on de densidad f y funci´on de distribuci´on F 1. 2. 3. F es continua, Si f es continua en x, entonces F es derivable en x, tal que F (x) = f(x). ?[a,b] P(X ? (a,b)) = b a f(t)dt = F(b) – F(a). ´ ´ ´ En general para modelizacion ser´an utiles las siguientes observaciones.

Ejemplo 1.3.6 En (?,F,P), de?nimos la v.a X (?i) = i donde ? = {1,2,3,4,5,6} i.e. descripci´on del ejemplo del dado, donde rescribimos ? como ? = {?1,?2,?3,?4,?5,?6}, tomamos F =P (?) y considermos que P({?i}) = 16. d valores con las mismas probailidades) y que por lo tanto FX = FY. Es decir, este ejemplo concreto del lanzamiento del dado lo hemos traducido a un problema de teor´ia de la medida y muchos procesos aleatorios se ajustan a esta modelizaci´on.

Teorema 1.3.2 Toda v.a. es una transformaci´on de una uniforme. Dicho de otra forma. Sea X v.a. en (?,F,P) entonces d

Observacion 1.3.2 La moraleja de todo esto es: 1. para especi?car una v.a. X basta con dar su funci´on de distribuci´on, i.e. simplemente una funci´on F : R -? [0,1] que veri?que las propiedades del teorema (1.3.1).

edu.red

1.3. DISTRIBUCION DE PROBABILIDAD DE UNA V.A.. ´ 9 ´ 2. 3.

4. Sabemos que existe X tal que FX = F, para analizar X, s´olo necesitar´e conocer µX (valores y probabilidades) o FX (resumen de µX) donde X = F-1, y por ultimo, Toda v.a. X, es una transformaci´on de una uniforme U [0,1], donde FU(t) = t -8 f(u)du, con f(u) = ? ? ? 0 u < 0 1 0 u ? [0,1] , u > 1 por lo tanto FU(t) = ? ? ? 0 t ? (-8,0] t 0 t ? [0,1] t ? (1,8) . ´ Terminaremos mostrando algunos ejemplos.

Ejemplo 1.3.7 Tenemos unas variables X1,X2,… i.i.d., uniformes en el conjunto [0,1] ? [2,3]. Consideramos la variable Z = m´ax(X1,X2,X3,X4) queremos calcular P(Z > 3/2).

Solucion. Vemos que

P(Z = 3/2) = P(m´ax(X1,X2,X3,X4) = 3/2) = P(X1 = 3/2,X2 = 3/2,X3 = 3/2,X4 = 3/2), pero al ser v.a.i.i.d. entonces P(X = 3/2) = P(X = 1) = 1 2 4 , y por lo tanto P(Z > 3/2) = 1- 1 2 4 . ´ Consideremos ahora la variable

queremos calcular

Como antes vemos que

P(Z = 3/2) = = Z = m´ax(X1,X3,X5,X7,X9)

P(Z > 3/2).

P(m´ax(X1,X3,X5,X7,X9) = 3/2) = P(X1 = 3/2,X3 = 3/2,X5 = 3/2,X7 = 3/2,X9 = 3/2), ´ y por la misma razon que antes i.e. al tratarse de v.a.i.i.d entonces P(X = 3/2) = P(X = 1) = 1 2 5 ,

edu.red

CAPITULO 1. VARIABLES ALEATORIAS. ´ 10

as´i que P(Z > 3/2) = 1- 1 2 5 . ´ tal y como quer´iamos hacer ver.

Ejemplo 1.3.8 Tenemos unas variables X1,X2,… i.i.d., uniformes en el conjunto [0,1]. Consideramos la variable Z = m´in(m´ax(X1,X2),m´ax(,X3,X4)) queremos calcular P(Z > 1/2).

Solucion. Vemos que P(Z > 1/2) = = P(m´in(m´ax(X1,X2),m´ax(,X3,X4)) > 1/2) = P(m´ax(X1,X2) > 1/2,m´ax(,X3,X4) > 1/2) = i.i.d. = (1- P(m´ax(X1,X2) = 1/2))2 = 1- P(X = 1/2)2 2 = 1- 1 4 2 = 9 16 Si ahora consideramos Z = m´ax(m´in(X1,X2),m´in(,X3,X4)) entonces P(Z = 1/2) = = P(m´ax(m´in(X1,X2),m´in(,X3,X4)) = 1/2) P(m´in(X1,X2) = 1/2,m´in(,X3,X4) = 1/2) i.i.d. = (1- P(m´in(X1,X2) > 1/2))2 = 1- P(X > 1/2)2 2 = 1- 1 4 2 = 9 16 ´ ´ tal y como quer´iamos hacer ver.

Ejemplo 1.3.9 Sea X una v.a. tal que su cdf (cumulative distributuion function) es FX y por lo tanto su pdf (probability density function) es fX. Sea Y = aX + b, a,b ? R+. Calcular FY, fY.

Solucion. Vemos que por de?nicion FY (y) := P(Y = y) as´i que P(Y = y) = P(aX + b = y) = P X = y – b a := FX y – b a .

edu.red

1.3. DISTRIBUCION DE PROBABILIDAD DE UNA V.A.. a , v -?d? -8 e = X = 1, 1 -|t| ´ 11 Sea y = g(x) = ax + b, entonces x = g-1(y) = h(y) = y-b y dx dy = 1/a, por lo tanto fY (y) = dx dy fX y – b a = 1 a fX y – b a . Si X ~ U [0,1], entonces fX = 1 0 0 = x = 1 resto , de esta forma fY (y) = 1 a fX y – b a = 1/a 0 b = y = a + b resto tal y como quer´iamos hacer ver. Ejemplo 1.3.10 Sea X una v.a. tal que fX = e-x 0 x > 0 resto , encontrar Y = g(X), tal que fY = 1 2 y 0 0 = y = 1 resto . ´ ´ Solucion. Vemos que por de?nicion FX = x -8 fX (?)d? = x 0 = 1- e-x 0 x > 0 resto , ´ de esta forma vemos que Z = 1-e-x. Recordamos que si X es una v.a. tal que Y = FX entonces Y est´a uniforme- mente distribuida en (0,1) ya que fY = dx dy fX = fX 1 dFX (x)/dx f fX ´ ´ as´i que la variable Z = 1- e-X, est´a uniformemente distribuida en (0,1). Por otro lado vemos que v 0 0 resto v encontrando por lo tanto que W = Y, est´a uniformemente distribuida en (0,1) y que Z = W, llegando a Y = 1- e-X 2 , De igual forma podemos ver que si X ~ fX = 2 e , entonces si de?nimos Y = X2, vemos que P(Y = 1), se calcula de la siguiente forma P(Y = 1) = P X2 = 1 = P(X = 1) + P(X = -1) = 2P(X = 1) = 8 1 e-tdt = 1 e , tal y como quer´iamos hacer ver.

edu.red

-8 g(xi)f(xi)dx ´ ´ Cap´itulo 2

Esperanza y Varianza.

2.1. Esperanza.

Sea X una v.a. en (?,F,P) y sea g : R -? R / g ? C(R), f describe la funcion de masa o densidad si X es discreta o continua respectivamente

De?nicion 2.1.1 Esperanza. Si X = 0 (i.e. P({? : X (?) = 0}) = 1) de?nimos la esperanza de la v.a. X como E(X) = ? XdP. Este valor de la esperanza de X, puede ser 8.

De forma an´aloga podemos de?nir la esperanza de X como sigue: µ := E[g(X)] = ? ? ? ? g(xi)f(xi) 8 X v.a.d.

X v.a.c. ´ donde esta ultima igualdad se puede formular mediante el siguiente teorema:

Teorema 2.1.1 En las condiones anterores se tiene E[g(X)] = R g(t)dµX(t). ´ ´ Demostracion. La idea de la demostracion se sigue de los teoremas al uso en teor´ia de la medida i.e. de?nir la integral para funciones indicatrices (simples) y luego y generalizando mediante los teoremas de convergencia etc… para funciones m´as complejas. Si g(X) = X, entonces E(X) = ? xi f(xi), ´ o E(X) = 8 -8 xi f(xi)dx En general si X = X+ – X-, (analog´ia con la teor´ia de la medida) de?nimos E(X) de la siguiente forma: E(X) = E X+ – E X-

siempre y cuando alguna de estas dos partes no sea 8.

13

edu.red

CAPITULO 2. ESPERANZA Y VARIANZA. 14 ´ ´ Observacion 2.1.1 Dada X, si E(|X|) < 8, entonces al ser 0 = X+ = |X| y 0 = X- = |X| entonces ? E(X). Si X ? L1(P), entonces ? E(X).

Veamos algunos ejemplos.

Ejemplo 2.1.1 Como siempre consideramos el espacio de probabilidad (?,F,P) y X v.a. en dicho espacio. 1. Sea A ? F, y sea X = 1lA entonces de?nimos la esperanza de X como E(X) = A 1lAdP = P(A). 2. Sea X = ?nj =1 ?j1lAj, ?j ? R, Aj ? F entonces 3. ? = {?1,….,?n},F = P(?) y P ?j n ? ?jP(Aj). E(X) = j=1

= pj donde obviamente ? pj = 1, pj = 0. Entonces de?nimos la esperanza de X como E(X) = ? XdP = ? X(?j)pj j ´ i.e. valores por probabilidades.

Proposicion 2.1.1 Sean X,Y v.a. y a,b ? R 1. 2. 3. E[a] = a, E[aX + b] = aE[X] + b, E[X +Y] = E[X] + E[Y], entonces E[aX + bY] = aE[X] + bE[Y], (2.1) 4. 5. 6. 7. X = 0,=? E[X] = 0, X = Y,=? E[X] = E[Y], E(|X +Y|) = E(|X|) + E(|Y|), Desigualdad de Jensen: |E[X]| = E[|X|], en general, sea ? : R ? R convexa, entonces ?(E[X]) = E[?(X)]. 8. E(|X|) = E |X|p 1/p = E |X|1/q 1/q , con 1 = p = q. En particular si p = 2 entonces E(|X|) = E |X|2 1/2 .

edu.red

l´im Xn = X l´im infXn = l´imE[Xn]. 2.1. ESPERANZA. 15 9. ¨ Desigualdad de Holder. E(|XY|) = E |X|p 1/p E |Y|1/q 1/q , con 1 p + 1 q = 1. En particular si p = q = 2 entonces obetenemos la desigualdad de Cauchy-Schwarz E(|XY|) = E |X|2 1/2 E |Y|1/2 1/2 . 10. Si X,Y son v.a.i. entonces: ´ E[XY] = E[X] E[Y]. m´as abajo de?niremos el concepto de independenia.

Observacion 2.1.2 Tener en cuenta que

P(X = x,Y = y) = P(X = x) P(Y = y) E[XY] = = ? xyP(X = x,Y = y) = ? xyP(X = x) P(Y = y) = ? xP(X = x)yP(Y = y) = ? xP(X = x)?yP(Y = y) = E[X] E[Y]. ´ Teoremas b´asicos.

Teorema 2.1.2 Covergencia monotona: Si (Xn) v.a. no decreciente tal que n?8 =? E[Xn] -? E[X]. Corolario 2.1.1 ? E[Xn] = E ? Xn . Corolario 2.1.2 Si (Xn) v.a. no decreciente tal que Xn = Y, con Y integrable, entonces:

n?8

Teorema 2.1.3 Fatou. 1. Sea (Xn) v.a. tal que Xn = Y, con Y integrable, entonces: E n?8 2. Sea (Xn) v.a. tal que Xn = Y, con Y integrable, entonces: ´ ´ E l´imXn = l´imE[Xn].

Teorema 2.1.4 Convergencia dominada (Lebesgue). Sea(Xn) v.a.talque|Xn| = Y,conY integrable,adem´as,sil´imn?8 Xn = X,entonces X esintegrableyl´imn?8 E[Xn] = E[X], o E[l´im|Xn – X|] = 0.

Solo despu´es de haber probado estos teorema se puede establecer el siguiente teorema que nos permite calcular esperanzas.

edu.red

CAPITULO 2. ESPERANZA Y VARIANZA. L , 16 ´ Teorema 2.1.5 C´alculo de esperanzas. Sea como siempre (?,F,P) nuestro espacio de probabilidad y sea X una v.a.. Denotamos por µX la distribuci´on de probabilidad de X. (µX es probabilidad de?nida en (R,Borel)). Sea g : R -? R / g(x) = 0,?x ? R o bien E(|g(x)|) < +8, entonces E[g(X)] = R g(x)dµX(x), en particular se tiene que E[X] = R xdµX(x). ´ ´ i ´ La idea de la demostracion es muy parecida a las demostraciones al uso en teor´ia de la medida i.e. se prueba para funciones indicadores y luego se extiende a funciones simples v´ia teorema de convergencia etc… Extendemos estos conceptos al caso multidimensional e introducimos el concepto de independencia.

De?nicion 2.1.2 Distribuci´on conjunta de probabilidad. Sean (Xi)n =1 una vs.as. en (?,F,P). De?nimos la distribuci´on conjunta de probabilidad µ(X1,….,Xn)(B) = P((X1,….,Xn) ? B), i.e. como la probabilidad de?nida en Borel de Rn.

De forma an´aloga al caso unidimensional podemos de?nir la esperanza i.e.sea f : Rn ? R una funcion medible, entonces E(f (X1,….,Xn)) = Rn f (u1,…,un)dµ(X1,….,Xn) (u1,…,un) si f (u1,…,un) = 0, ´ o f (X1,….,Xn) ? 1 i.e. E(f (X1,….,Xn)) < 8. ´ 2.2. Varianza.

De?nicion 2.2.1 Varianza. De?nimos E[X] = µ y la varianza de la v.a. X como:

s2 [X] := var(X) = E (X – E[X])2

si desarrollamos esta expresi´on entonces obtenemos de?niciones equivalentes:

var(X) = E X2 – E[X]2 var(X) = i ?(x – µ)2 f(xi) = ? x2f(xi) – E(X)2 var(X) = R (x – µ)2 f(xi) ´ Proposicion 2.2.1 Supongamos que son independientes, entonces s2 [aX + b] var(aX + bY) = a2s2 [X] = a2var(X) + b2var(Y) =? var(X -Y) = var(X) + var(Y), La varianza de la suma suma de v.a. pero que no son independientes var(X +Y) = var(X) + 2cov(X,Y) + var(Y),

edu.red

17 2.2. VARIANZA.

m´as abajo de?niremos el concepto de covarianza. Si son independientes 2 a 2 entonces se veri?ca var ? Xi = ?var(Xi) + 2?cov Xi,Xj , si son independientes, entonces var ? aiXi i = ? a2var(Xi). ´ ´ ´ ´ Proposicion 2.2.2 var(X) = E X2 – E[X]2

Demostracion. var(X) = E X2 – 2XE(X) + E(X)2 = E X2 – 2E(X)E(X) + E(X)2 = E X2 – E[X]2 ,

tal y como quer´iamos hacer ver.

De?nicion 2.2.2 Desviacion t´ipica s = var(X) ´ Observacion 2.2.1 Sea X v.a. con funci´on de distribuci´on F E(X) var(X) ˜ ˜ centro de gravedad, momento de inercia. ´ De?nicion 2.2.3 Sean X,Y v.a. tales que E(X) = µ, E(Y) = ?. De?nimos su covarianza como cov(X,Y) = E((X – E(X))(Y – E(Y))) = = E((X – µ)(Y – ?)) = E(XY) – E(X)E(Y).

Si son independientes entonces cov(X,Y) = 0. Observacion 2.2.2 ´ cov(X,X) = E (X – E(X))2 = E X2 – E[X]2 = var(X) ´ De?nicion 2.2.4 Coe?ciente de correlaci´on. ? = cov(X,Y) var(X) var(Y) . ? veri?ca las siguientes propiedades: 1.

2. ? ? [-1,1],

? = 0 ?? cov(X,Y) = 0, decimos entonces que est´an incorreladas (es m´as d´ebil que la independencia) 3. |?| = 1 ?? cov(X,Y) = E(XY) – E(X)E(Y) = var(X) var(Y) ?? Y = aX + b.

edu.red

CAPITULO 2. ESPERANZA Y VARIANZA. ´ ´ 18

2.3. Independencia.

De?nicion 2.3.1 Independencia. i 1.

2.

3. ´ ´ De sucesos (A,B). Decimos que A,B son independientes si

P(A n B) = P(A) P(B).

De 2 v.a.. Sean (Xi)2=1 una vs.as. en (?,F,P), decimos que son independientes si P(X1 ? C,X2 ? D) = P(X1 ? C) P(X2 ? D) para C,D borel de Rn. De s-algebras. Decimos que F,G, dos s-algebras son independientes si ?A ? F,?B ? G, se tiene que A,B son ´ ´ independientes.

Observacion 2.3.1 Signi?cado de la independencia. Noci´on de probabilidad condicionada.

De?nicion 2.3.2 Independencia de familias. 1.

2. i De eventos.Sea A ={Ai} familia de sucesos en (?,F,P). Decimos que son independientes si para cualquiera subfamilia “?nita” {Ani} se tiene P(nAni) = ? P(Ani) i De v.a.Sean (Xi)n =1 una vs.as. en (?,F,P), decimos que son independientes si P(X1 ? A1,….,Xn ? An) = ? P(Ai ? Ai) i 3. ´ ´ para C,D borel de Rn. De s-algebras.DecimosqueFi, s-algebrassonindependientessi?Ai ? Fi,setieneque Ai, Aj sonindependientes, ´ ´ i.e. P(nAni) = ?i P(Ani).

De?nicion 2.3.3 Independencia y medida producto

µ(X,Y) (C) = P((X,Y) ? C)

Proposicion 2.3.1 Si X,Y son independientes entonces

µ(X,Y) = µ(X) ? µ(Y)

Por ejemplo si n = 2, entonces µ(X,Y) (A × B) = P((X,Y) ? A × B) = P(X ? A,Y ? B) = P(X ? A) P(Y ? B) = = µ(X) (A)µ(Y) (B) = µ(X) ? µ(Y) (A × B)

Teorema 2.3.1 Sean X,Y dos v.a. independientes. Entonces 1. dµ(X,Y) = dµ(X) ? dµ(Y),

edu.red

2.4. DESIGUALDADES DE MARKOV Y CHEBYCHEV. 19 2. E(h(X,Y)) = R2 h(u,v)dµ(X,Y) = R R hdµ(X) dµ(Y), 3. E(XY) = E(X)E(Y), este punto es un caso particular del anterior. Corolario 2.3.1 Teorema de Fubinni. X,Y independientes entonces integral iterada.

Ejemplo 2.3.1 Veremos un ejemplo en el que E(XY) =? E(X)E(Y), pero no al rev´es. Consideramos las v.a. X,Y tales que YX -1 -1 0 0 1/5 1 0 1/5 0 1/5 1/5 1/5 3/5 1 0 1/5 0 1/5 1/5 3/5 1/5 en este caso E(X) E(XY) = 0 = E(Y) = 0 pero no son independientes, as´i que la moraleja es que hay que tener cuidado de antemano si no se advierte que dichas variables sean independientes. Observar que P(X = 1,Y = 1) = 0 < P(X = 1) P(Y = 1).

Teorema 2.3.2 Sean X,Y dos v.a. independientes, entonces P(X +Y = t) = R FX (t – y)dµY(y) = R P(X = t – y)dµY(y). Teorema 2.3.3 Sean X,Y dos v.a. independientes y continuas y con funciones de densidad (fX, fY), entonces X + Y es continua con funci´on de densidad dada por FX+Y(t) = R fX (t – z) fY(z)dz. 2.4. Desigualdades de Markov y Chebychev.

Teorema 2.4.1 Desigualdades de Markov y Chebychev.

Markov: Sea X = 0, v.a. tal que ?, E(X), entonces ?t. P(X = t) = E(X) t , de forma gen´erica tenemos P(g(X) = t) = E(g(X)) t , e incluso P(g(X) = t) = E(g(X)k) tk .

edu.red

CAPITULO 2. ESPERANZA Y VARIANZA. P(|X – E(X)| > ts(X)) = 2 20 ´

Chebychev: Sea X = 0, v.a. tal que ?, var(X), entonces denotamos, Z = (X – E(X))2 , de esta forma Z = 0 y E(Z) = var(X), para todo t P((X – E(X))2 = t2) = var(X) t2 y por lo tanto P(|X – E(X)| = t) = var(X) t2 , 1 t o equivalentemente P(|X – E(X)| < t) = 1- var(X) t2 . ´ ´ i.e. que la probabilidad de alejarse de la media est´a controlada por la varianza.

Podemos encontrar otras versiones del teorema de Chebychev, como la siguiente:

Proposicion 2.4.1 Desigualdad de Chebychev1. Sea el espacio de probabilidad (?,F,P) y X v.a. en dicho espacio. Sea ? : R ? R+, creciente. Entonces ?? ? R

P(X > ?) ?(?) = E(?(X)).

En efecto. Consideramos

?(X) = ?(X)(1lX>? + 1lX=?) = ?(X)1lX>? = ?(X)1lX=?,

al ser creciente, entonces ?(X) = ?(?)1lX=?, tomando esperanzas entonces:

E(?(X)) = E(?(?)1lX=?) = E(?(?)) E(1lX=?),

por lo tanto E(?(X)) = E(?(?)) P(X = ?), tal y como quer´iamos hacer ver.

Veremos a continuacion algunos sencillos ejemplos.

Ejercicio 2.4.1 Chebychev: Supongamos que X es v.a. tal que E(X) = 25 y s(X) = 2, entonces estimar 1. 2. P(X = 35) P(X = 20) ´ Solucion. Consideramos la desigualdad de Chebychev para aproximar tales probabilidades: P(µ – ks = X = µ + ks) = 1- 1 k2 . Como sabemos que µ = 25 y s = 2 entonces

X = 35 ?? µ + ks = 35 ?? k = 5 1Algunos autores pre?eren llamar a esta desigualdad, desigualdad de Markov en vez de Cheby.

edu.red

= 1- 2 k 21 2.4. DESIGUALDADES DE MARKOV Y CHEBYCHEV.

as´i (k = 5) 1- 1 k2 1 5 0,96 ´ y (k = 5) µ – ks = 15 por lo tanto P(15 = X = 35) = 0,96 =? P(X = 35) = 0,96 ya que P(X = 35) = P(15 = X = 35) = 0,96

Para contestar a la segunda pregunta operamos de igual forma:

X = 20 ?? µ – ks = 20 ?? k = 2,5

por lo tanto P(X = 20) = P(20 = X = 30) = 0,84 como quer´iamos hacer ver.

Ejercicio 2.4.2 Sea X tal que E(X) = 80, utilizar Cheby para estimar la desviaci´on t´ipica si sabemos que

P(75 = X = 85) = 0,9

Solucion. Sabemos que Cheby nos dice: P(µ – ks = X = µ + ks) = 1- 1 k2 = 0,9 por lo tanto 1- 1 2 = 0,9 ?? k = v 10 y por consiguiente: P(80- v 10s = X = 80+ v 10s) = 0,9 80- 80+ v v 10s = 75 10s = 85 por lo tanto s = 1v 2 10 v 2. Encontrar una cota inferior de la prob. de que dicha variable ´ como quer´iamos hacer ver.

Ejercicio 2.4.3 Una v.a. tiene de media 14 y s = ? (10,18).

Solucion. Cheby nos dice: P(µ – ks = X = µ + ks) = 1- 1 k2

edu.red

CAPITULO 2. ESPERANZA Y VARIANZA. v v P(14- k 2 = X = 14+ k 2) = 1- 2 P(10 = X = 18) = 1- 2 P(10 = X = 18) = 1- 2 = ´ 1 k 22

por lo tanto

por consiguiente: 1 k v v k 2 = 4 ?? k = 2 2 1 k 7 8 i= ´ ´ ´ ´ como quer´iamos hacer ver.

2.5. Ejemplos.

Ejercicio 2.5.1 Tenemos una m´aquina compuesta de 10 elementos independientes (Ci)101 , con P(Ci = fallo) = 0,05. Estimar la probabilidad de que el valor absoluto de la diferencia entre el numero de elementos que fallan y el numero medio de fallos en un periodo T resulte: 1) menor que 2.

2) mayor que 2.

Solucion. Si designamos por X el numero de fallos en el periodo T, entonces X ? Bin(10, p = 0,05), por lo que su esperanza y varianza son E[X] = np = 0,5, var(X) = npq = 0,475. si tenemos en cuenta la desigualdad de Cheby entonces encontramos que P(|X – E[X]| < e) = 1- var(X) e2 , de esta forma encontramos que: 1) P(|X – 0,5| < 2) = 1- 0,475 4 ˜ 0,88, 2) P(|X – 0,5| > 2) = 0,475 4 ˜ 1- 0,88. ´ tal y como quer´iamos hacer ver.

Ejercicio 2.5.2 Sea P(A) = 12, queremos acotar la probabilidad de que X = #A, P(40 < X < 60), si n = 100. Suponemos que los sucesos son independientes.

Solucion. Vemos que X ? Bin(n = 100, p = 12), de esta forma su esperanza y varianza son E[X] = np = 50, var(X) = npq = 25.

edu.red

23 2.5. EJEMPLOS.

por lo tanto y aplicando Cheby, vemos que P(|X – E[X]| < e) = 1- var(X) e2 , por lo que que P(|X – 50| < 10) = 1- 25 100 , ´ ´ ´ donde se ha tomado e = maxX – E(X) = 60- 50 = 10.

Ejercicio 2.5.3 Tenemos unas variables X1,X2,… i.i.d., uniformes en el conjunto [0,1] ? [2,3]. Calcular var(X3).

Solucion. Vemos que la funcion de densidad es: fX (x) = 1 2 1l[0,1] (x) + 1l[2,3] (x) , 8 -8 fX (x)dx = 1, observ´andose que

por lo tanto E(X) = 8 -8 xfX (x)dx = 1 2 1 0 xdx + 3 2 xdx 3 = , 2 y calculamos ahora E X2 = 8 -8 x2fX (x)dx = 1 2 1 0 x2dx + 3 2 x2dx = 10 3 , de esta forma vemos que var(X) = E X2 – E(X)2 = 13 12 tal y como quer´iamos hacer ver.

edu.red

l´im GX(s) = ´ ´ Cap´itulo 3

Funciones Generatrices.

3.1. Funciones generatrices de probabilidad.

De?nicion 3.1.1 De?nimos la funcion generatriz de probabilidad como: GX(s) = E sk = 8 ? P(X = k)sk = k=0 sk fX. ´ Observacion 3.1.1 Vemos que

1. GX(1)

GX(0) =

= 8 8 ? P(X = k)1k = ? P(X = k) = 1, k=0 k=0 P(X = 0). 2. E(X) = GX(1) = 8 ? P(X = k)k, k=1 var(X) = GX(1) + GX(1) – GX(1)2. donde GX(s)

GX(s)

GX(s) =

=

= 8 ? P(X = k)sk, k=0 8 ? P(X = k)ksk-1, k=1 8 ? P(X = k)k(k – 1)sk-2. k=2 3. s?1 8 ? P(X = k)k(k – 1) = E(X(X – 1)), k=2 en genral se tiene 25

edu.red

CAPITULO 3. FUNCIONES GENERATRICES. l´im GX (s) = ?k k s = e-? ? k! 26

4. s?1 k) ´

8 ? P(X = k)k(k – 1)….(k – n + 1) = E(X(X – 1)….(X – n + 1)). k=2 Ejemplo 3.1.1 1. Sea X ~ Poisson(?), queremos calcular GX(s). GX(s) = 8 ? k=0 P(X = k)sk = 8 ? k=0 e-? 8

k=0 (?s)k k! = e-?e?s = e?(s-1). 2. Sea X ~ Geom(p), queremos calcular GX(s). GX(s) = 8 8 8 ? P(X = k)sk = ? p(1- p)k-1sk = ? p(1- p)jsj+1 = k=1 k=1 j=0 = 8 ps?(1- p)jsj = j=0 ps 1- (1- p)s . vemos que la BN(n, p) , binomial negativa, es la suma de geom´etricas independientes entonces G(X1,…,Xn)(s) = n ? GXj(s) = j=1 ps 1- (1- p)s n . 3. Sea X ~ U(0,…, N), queremos calcular GX(s) : GX(s) = N ? P(X = k)sk = k=0 1 N N ? sk = k=0 1 N s – sN+1 1- s . d

Lema 3.1.1 Abel. Si uk = 0, entonces f(s) = 8 ? k=0 uksk, l´im f(s) = s?1 8 ? uk. k=0 Ejemplo 3.1.2 Sea X ~ Poisson(?), sabemos que GX(s) tiene la siguiente expresi´on.

GX(s) = e?(s-1), queremos calcular var(X) = E(X2) – E(X)2. Sabemos que

var(X) = GX(1) + GX(1) – GX(1)2,

as´i que deberemos calcular estas derivadas i.e. GX(s) = ?e?(s-1), GX(s) = ?2e?(s-1),

edu.red

l´im GX(s) l´im GX(s) 27 3.1. FUNCIONES GENERATRICES DE PROBABILIDAD.

y calculamos ahora su l´imite i.e. s?1

s?1 = l´im ?e?(s-1) = ? = E(X), s?1 = ?2 = E(X(X – 1)) = E(X2) – E(X) por lo tanto

entonces

tal y como quer´iamos hacer ver. E(X2) = ?2 + ?,

var(X) = E(X2) – E(X)2 = ?2 + ? – ?2 = ?,

Suma de v.a.i. i N Teorema 3.1.2 GX+Y = GX · GY.

Teorema 3.1.3 Sean (Xi)i=1 v.a.i.i.d. y sea Y = ? =1 Xi. entonces GY(s) = GN (GX (s)).

Ejemplo 3.1.3 1. Sean Xi ~ Poisson(?i), sabemos que GXi(s) tiene la siguiente expresi´on.GXi(s) = e?i(s-1), quere- mos calcular la G? Xi, G? Xi = ? GXi = e??i(s-1) ~ Poisson(??i) 2. Sean Xi ~ Bernoulli(p), queremos conocer la dostribuci´on de la suma de n – Bernoullis. Sabemos de antemano que ? Xi ~ Bin(n, p) i.e. se trata de una binomial. Pero con funciones generatrices vemos que G? Xi = ? GXi = GXi n = (ps + (1- p))n , ´ ´ Convergencia1.

L de distribuci´on de Xn.

Observacion 3.1.2 No es su?ciente que {Fn} -? F puntualmente para asegurar la convergencia en ley. Es preciso que F sea funci´on de distribuci´on.

L

De esta forma se puede demostrar por ejemplo que B(n, p) -? Poisson(? = np) que es una version preliminar del TCL.

edu.red

CAPITULO 3. FUNCIONES GENERATRICES. .. 28 ´ ´ ´ ´ 3.2. Funcion generatriz de momentos.

Extendemos la teor´ia y de?nimos FGM.

De?nicion 3.2.1 De?nimos la funcion generatriz de momentos como: MX (?) := E e?X = e?X fX (x)dx = 8 ?e?Xpi = ? k=0 ?k k! E Xk por lo tanto MX (0) = E(1) = 1. ´ Observacion 3.2.1 Sabemos que E[g(X)] = g(x) fXdx y por lo tanto E e?X = e?X fX (x)dx Ejemplo 3.2.1 Sea E Xk = 0,8, k = 1,2,3… Encontrar MX(t) y P(X = 0),P(X = 1).

Vemos que por de?nici´on MX (t) = 8 ? k=0 tk k! 8 E Xk = 1+ 0,8 ? k=1 tk k! 8 = 0,2+ 0,8 ? k=0 tk k! = 0,2+ 0,8et. MX (t) = ?etxipX(xi) Igualmente vemos que por de?nici´on

por lo tanto P(X = 0) P(X = 1) = 0,2, = 0,8. ´ vemos que X ~ Bernoulli(p).

Observacion 3.2.2 Vemos que ak = E Xk = dk d?k MX (?)|?=0 . M (0) M (0)

var(X)

M(k(0) = a1 = E[X], = a2 = E X2 , = E X2 – E[X]2 = M (0) – M (0)2,

. = ak.

edu.red

3.2. FUNCION GENERATRIZ DE MOMENTOS. {Xi} -? X sii MXi (?) -? MX (?). q = e?(e -1), ´ 29 Ejemplo 3.2.2 Por de?nici´on sabemos que MX (?) = E e?X y que GX(s) = E sX , entonces se ve que si hacemos s = e?, obtenemos: MX (?) = GX(e?) Teorema 3.2.1 1. MX (?) = MY (?) ?? X = Y, 2.

3. X,Y v.a.i. entonces MX+Y (?) = MX (?) MY (?), L 1. Ejemplo 3.2.3

vemos que Bernoulli. Sea X ~ Bernoulli(p), queremos calcular MX(t). ?etxipX (xi) = et0pX (0) + et1pX (1) = (1- p) + pet, MX(t) = i

MX (0) = p, MX (0) = p, y por lo tanto E[X] = p, var(X) = p(1- p). Sean ahora (Xi) ~ Bernoulli(p), de?nimos, Y = ?i Xi, entonces MY(t) = ? i q + pet = q + pet n ~ Bin(n, p), 2. tal y como veremos a continuaci´on. Binomial. Sea X ~ Bin(n, p), queremos calcular MX(t). MX(t) = n ? etk k=0 n k pkqn-k = n ? k=0 n k etp k n-k = q + pet n , vemos que MX (0) = np, MX (0) = np + n(n – 1) p2, y por lo tanto E[X] = np, var(X) = npq. 3. Poisson. Sea X ~ Poisson(?), queremos calcular MX(t). MX(t) = e-? 8 ? k=0 e-tk (?)k k! -t vemos que MX (0) = ?, MX (0) = ?2 + ?, y por lo tanto E[X] = ?, var(X) = ?. Sean ahora (Xi) ~ Poisson(?i), de?nimos, Y = ?i Xi, entonces MY(t) = ?e?i(e i -t-1) = e?(e -t-1) , donde ? = ??i.

edu.red

CAPITULO 3. FUNCIONES GENERATRICES. MX(t) = v 30 ´ 4. Exponencial. Sea X ~ exp(?), queremos calcular MX(t). MX(t) = 8 0 ?e-?xetxdx = ? t – ? e(t-?)x 8

0 = ? t – ? , ? > t, vemos que MX (0) = ?-1, MX (0) = 2?-2, var(X) = ?-2. y por lo tanto E[X] = ?-1, Sean ahora (Xi) ~ exp(?i), de?nimos, Y = ?i Xi, entonces MY(t) = ? i ?i t – ?i = ? t – ? n ~ G(n,?). 5. Normal.Sea X ~ N (0,1), queremos calcular MX(t). 1 2p 8 -8 e-x 2/2 etxdx = et 2/2 , i Sean ahora (Xi) ~ N µi,s2 , de?nimos, Y = ?i Xi, entonces Y ~ N ?µi,?s2 i i i . ´ ´ ´ 6. Y = aX + b. MY(t) = E et(aX+b) = etbMX (at).

3.3. Funcion caracter´istica.

De?nicion 3.3.1 Funcion caracter´istica. ?X(?) = ei?x fXdx = E eitX ´ i.e. se trata de la TF.

Observacion 3.3.1 Se veri?ca: fXdx = 1, 1. 2. 3. Siempre existe ?(?), ?(0) = 1, ya que ?(0) = |?(?)| = 1. ´ Observacion 3.3.2 Vemos que 1. FGP GX(s) = E sk = sk fXdx

edu.red

? ?(n(?) = in {Xi} -? X sii ?Xi (?) -? ?X (?). a -a|x| 3.4. EJEMPLOS 31 MX (t) = E etX =

?X(?) = E ei?X = etX fXdx,

ei?x fXdx, s = et,

t = i?, 2. FGM

3. FC

Teorema 3.3.1 Si existe ak = xk fX =? ? ? ? ?(n(0) = inan ? ei?xxn fXdx . Teorema 3.3.2 Si existe ?(n(?), entonces ? a2n = ?(2n(0) i2n , Si existe ?(2n-1(t), entonces ? a2n-2 = ?(2n-2(0) i2n-2 . Teorema 3.3.3 1. ?X(?) = ?Y(?) ?? X = Y, 2.

3. X,Y v.a.i. entonces ?X+Y (?) = ?X (?) ?Y (?), L 3.4. Ejemplos

Ejercicio 3.4.1 Dada la v.a. X con funci´on de densidad, fX fX(x) = 2 e , a > 0, ´ determinar su funci´on caracter´istica.

Solucion. Sea f(t) = E eitx = eitx fXdx ´ por lo tanto y atendiendo a la funcion fX, tenemos que: f(t) = a 2 0 -8 eitxeaxdx + 8 0 eitxe-axdx = a 2 1 it + a – 1 it – a = a2 a2 + t2 . Vemos que al ser fX(x) sim´etrica, entonces f(t) es real.

Ejercicio 3.4.2 Calcular los valores de a que hacen que f es funci´on car´acter´istica, donde.

a

edu.red

CAPITULO 3. FUNCIONES GENERATRICES. a = 2,=? f(a,0) = e-t , de esta forma vemos que f(a,t) = e-t ? N(0, = -ata-1e-t , b – a A 2 (|x|=1) 32 ´ ´ Solucion. Atendiendo a las propiedades de f(a,t) vemos que b´asicamente se debe cumplir: f(a,0) = 1, |f(a,t)| = 1 as´i que: ´ 1.

2. a = 1,=? f(a,0) = e-t, de esta forma vemos que no se cumple la condicion |f(1,t)| = 1 . 2 2 v 2). 3. a > 2, Argumentamos de la siguiente forma: f a f (0) = 0 f = f(a,t), f (0) = 0 ´ ´ ´ de esta forma vemos que si fuera FC al existir, la segunda derivada y ser nula en cero, entonces el momento de segundo orden ser´ia cero y al ser cero la esperanza de de la v.a. ser´ia nula, pero esto no puede ser por la primera de las propiedades, por lo que llegamos a una contradiccion y por lo tanto no puede serlo para a > 2.

Tal y como quer´iamos hacer ver.

Ejercicio 3.4.3 Sea X una v.a. uniforme en [-1,1], i.e. X ~ U [-1,1]. Escribir su funci´on de densidad fX(x) y calcula su funci´on generatriz de momentos.

Solucion. La funcion de densidad es: fX(x) = 1 1l (x) = 1 1l (x), y por lo tanto MX (t) = E etX = R etx fX(x)dx = 1 2 1 -1 etxdx = 1 2t et – e-t ´ ´ tal y como quer´iamos hacer ver.

Ejercicio 3.4.4 Sea X ~ U [a,b]. Calcular su FGM y dada Y v.a. tal que fY = G, entonces Z = G(Y) ~ U [0,1], Calcular la FGM de Z.

Solucion. Por de?nicion la FGM es: MX(t) = E etX = b a etx fX(x)dx, donde fX(x) = 1 b-a 0 a = x = b resto , por lo tanto MX(t) = 1 b – a b a etxdx = etb – eta t(b – a)

edu.red

k+1, 1 2 1 2 1 3 t k? 1 k! 33 3.4. EJEMPLOS

observando que si [a,b] = [0,1], entonces MX(t) = et – 1 t , MX(0) = 1. ´ R etG(Y)g(y)dy Con respecto a la segunda cuestion, vemos que

MZ (t) = E etZ = E etG(Y) =

donde dG(y) = g(y), por lo tanto R e tG(Y) g(y)dy = etG(Y) t 8

-8 = et – 1 t := MX(t) ´ ´ ´ ´ donde X ~ U [0,1].

Ejercicio 3.4.5 Sean X,Y v.a.i.i.d. que toman valores en N. Sea G(s) su funci´on generatriz de probabilidad comun. Es- cribir, en t´erminos de G(s), la probabilidad de que X +Y sea un numero par o cero.

Solucion. La funcion generatriz es: GX+Y (s) = GX (s) GY (s) = G(s)2 . los coe?cientes de G(s)2 son las probabilidades de que X +Y tome sucesivos valores 0,1,2,… i.e. 8 ? P(X +Y = n)sn = P(X +Y = 0)s0 + P(X +Y = 1)s1 + P(X +Y = 2)s2 + …., n=0 G(s)2 =

por lo tanto G(1)2 = P(X +Y = 0) + P(X +Y = 1) + P(X +Y = 2) + …., G(-1) 2 = P(X +Y = 0) – P(X +Y = 1) + P(X +Y = 2) + …., 1 2 G(1)2 + G(-1)2 , de esta forma llegamos a que

P(X +Y es par o cero) =

tal y como quer´iamos hacer ver. Ejercicio 3.4.6 Sea E Xk = 1 k = 1,2,3… Encontrar MX(t). ´ ´ Solucion. Vemos que por de?nicion MX (t) = 8 ? k=0 tk k! 8 E Xk = 1+ ? k=1 1 tk k + 1 k! 1 = 1+ t + 2 1 2!(3) t2 + …. = = 1+ 1 2! t + 3! t + …. = 1 t 1+ 2! t + 3! t + …. = = 1 8 tk = = 1 t et – 1 , y por lo tanto X ~ U [0,1].

edu.red

CAPITULO 3. FUNCIONES GENERATRICES. ´ 34

Ejercicio 3.4.7 Determinar la densidad cuya FC viene dada por ?(t) = 1- |t| 0 |t| < 1 |t| > 1 , ´ ´ Solucion. Vemos que por de?nicion fX (x) = 1 2p 1 -1 e-itx (1- |t|)dt = 1 2p 1 -1 cos(1- t)dt = 1- cosx px2 , y comprobamos que fX (x) = 0 R fX(x)dx = 1, al ser ?(t) continua y acotada entonces es caracter´istica.

edu.red

i= ´ Cap´itulo 4

Convergencia

4.1. Series aleatorias. Convergencia.

Sea {Xi}8 1 v.a. de?nidas en (?,F,P).

c.s.

n-?8 En an´alisis esta convergencia corresponde a la convergencia en casi todo punto.

C

E(|Xn – X|2) -? 0.

P

P(? ? ? : |Xn – X| > e) -? 0. equival´entemente P(|Xn – X| < e) -? 1. En an´alisis esta convergencia corresponde a la convergencia en medida.

L de distribuci´on de Xn.

Observacion 4.1.1 No es su?ciente que {Fn} -? F puntualmente para asegurar la convergencia en ley. Es preciso que F sea funci´on de distribuci´on.

Ejemplo 4.1.1 Sea la sucesi´on de funciones de distribuci´on de Xn, dada por Fn(x) = x < n x = n 0 1

35

edu.red

CAPITULO 4. CONVERGENCIA 1 {Xi} -? X {Xi} -? X {Xi} -? X. 36 ´ L como vemos Fn -? F = 0,?x ? R. Por lo tanto Xn -? X = 0, ya que F(x) = 0, no puede ser funci´on de distribuci´on. Sin embargo Fn(x) = ? ? 0 ? x n ? ? > 0, x < 0, 0 = x = 0, x = ?, que en realidad se reduce a Fn(x) = 0 1 x < 0, x = ?, ´ L

C P

Demostracion. Recordamos que la desigualdad de Markov nos dice: E(X) P((X) > ?) = ? entonces si de?nimos Z = |Xn – X|2 ,

P(|Xn – X| > e) = P(|Xn – X|2 > e2) = E(|Xn – X|2) e2 -? 0 ´ este es precisamente el argumento de la ley d´ebil de los grandes numeros.

c.s. P

P L c.s. =? P =? L ´ ´ ´ n n Teorema 4.1.1 (Bernoulli) En una serie de pruebas independientes, la frecuencia relativa del suceso A converge en prob- abilidad a P(A) cuando el numero de pruebas tiende a in?nito.

Este teorema justi?ca la utilizacion de la probabilidad como modelo matem´atico de la frecuanecia relativa y da consistencia teorica a la ley de estabilidad de frecuencias.

Teorema 4.1.2 Sean {Xn}8 =1 v.a. i.i.d. (independientes e identicamente distribuidas) de?nidas en (?,F,P). Si E[Xn] = µ y s[Xn] = s < 8, i.e. son ?nitas entonces -? µ n

Teorema 4.1.3 Levy-Cramer. Sean {Xn}8 =1 v.a., tal que Fn es la sucesi´on de funciones de distribuci´on de Xn y ?n las L Corolario 4.1.1 {Xi} -? k sii -? nl´im 8 ?n = eitk.

edu.red

{Xn} -? X = 0, {Xn} -? X = 0. l´im Xn = 0 = P Xn = {Xn} -? X, {Xn} -? X, {Xn} -? X. ?X(t) = e-t /2, ?-X(t) = e-t /2, 4.1. SERIES ALEATORIAS. CONVERGENCIA. 37 Ejemplo 4.1.2 Se de?ne para cada n = 1,2,3… la variable aleatoria Xn discreta con valores 1 n y -1 n y probabilidad P Xn = 1 n = p, P Xn = – 1 n = q tal que p + q = 1 : 1.

2. P

c.s. P

P(|Xn – 0| > e) < d ?? P(|Xn – 0| < e) > 1- d considerando n0 > 1 e ?n > n0 P(|Xn – 0| < e) = P Xn = 1 n + P Xn = – 1 n = p + q = 1 = 1- d P

En segundo lugar vemos que: P n-?8 1 n + P Xn = – 1 n = p + q = 1 c.s.

c.s. P

Ejemplo 4.1.3 Sea X ? N(0,1) y consideramos {Xn}, tal que X2k+1 = -X, X2k = X; para todo k = 0,1,2…. Comprobar si: 1.

2.

3. L

P

c.s. Ve´amoslo. Debido a la simetr´ia de X ? N(0,1) =? -X ? N(0,1) se estudia la convergencia teniendo en cuanta 2 2 las funciones caracter´isticas, i.e.

y por lo tanto ?n(t) = e-t 2/2 , =? -? nl´im 8 ?n(t) = e-t 2/2 , ´ que es continua en t = 0. Al ser funcion caracter´istica de X ? N(0,1), entonces nos asegura la convergencia en ley.

edu.red

CAPITULO 4. CONVERGENCIA ?e > 0 l´im P(|Xn – X| > e) = 0 ´ 38

Con respecto a la convergencia en probabilidad, vemos que:

n-?8 si tomamos e = 1 P(|Xn – X| > 1) = P(|-2X| > 1) = P |X| > 1 2 = P |X| = 1 2 + P X > 1 2 = 0,3830 ?k = 0,1,… por lo tanto {Xn} P X i.e. no converge en probabilidad. ´ Por ultimo vemos que como {Xn} P X =? {Xn} c.s. X i.e. tampoco converge casi seguro. ´ 4.2. Ejercicios.

Ejercicio 4.2.1 Consideramos {Xn} v.a.i.i.d pertenecientes a una uniforme U(0,?). Demostrar que

P

Solucion. Sea Zn = m´ax{X1,…..,Xn} como Zn(?) = ?, ??, tomamos ?e > 0, P(|Zn – ?| > e) = = P((? – Zn) > e) = P(Zn < ? – e) = P(X1 < ? – e,…….,Xn < ? – e) = = ? P(Xi < ? – e) = F(? – e)n = ? – e ? n -? 0 viendo que ?-e ? < 1. De esta forma concluimos que ´ ´ ´ P(|Zn – ?| > e) -? 0

P

Para estudiar su convergencia en distribucion, vemos que si X es una representacion gen´erica de (Xn) su funcion de densidad viene dada por f(x) = 1/? 0 ?x ? (0,?), resto, , ´ ´ y F su funcion de distribucion F(x) = ? ? ? 0 x < 0, x/? 1 x ? (0,?), x = ?, ´ ´ entonces la funcion de distribucion de Zn ser´a Gn(x) = P(m´ax{X1,…..,Xn} = x) = nP(Xi = x) = (F(x))n , i.e.

edu.red

1 l´im Gn(x) = G(x) = 4.2. EJERCICIOS. 39 Gn(x) = ? ? 0 (x/?)n ? x < 0, x ? (0,?), x = ?, viendo que n?8 0 1 x < ?, x = ?, que es una delta-Dirac.

Ejercicio 4.2.2 Sea {Xn} tales que P Xn = k n 1 = n, k = 1,…n. Estudiar la convergencia en ley. ´ Solucion. Vemos que Xn toma los siguientes valores; 1 2 3 , , ,….., n n n n – 1 n , n n , P Xn = k n = 1 n ´ 1 n ?eikt/n, entonces la funcion caracter´istica de Xn ser´a

fXn = E eitXn =

entonces haciendo el c.v. u = eit/n, vemos que fXn = 1 n ?uk = 1 n u(un – 1) u – 1 = eit/n eit – 1 n eit/n – 1 por lo que -? nl´im 8fXn(t) = eit – 1 it ´ c c que es la funcion caracter´istica de la uniforme U(0,1). Por lo tanto

L

tal y como quer´iamos hacer ver.

Ejercicio 4.2.3 Sea T una v.a. U -1, 1 , y sea Y = cT. Sea Xk = ? ? ? -1 -1 < Y < -1/k, 0 -1/k = Y < 1/k, 1 1/k < Y < 1, ´ estudiar la convergencia en probabilidad y casi segura.

Solucion. Sea Y ? U [-1,1], entonces Xk es P(Xk = -1) = -1/k -1 1 2 dy = 1 2 1- 1 k , P(Xk = 0) = 0 -1/k 1 2 dy = 1 2k , P(Xk = 1) = 1 1/k 1 2 dy = 1 2 1- 1 k ,

edu.red

CAPITULO 4. CONVERGENCIA ? 0 ? 1 ? ? ? ? ? l´im Fk(x) = Xk -? X, entonces Xk -? X, n – ? it n – ? it/n n e n e 40 ´ por lo tanto Fk(x) = ? ? ? ? 1 1- 1+ 1 k 1 k 2 2 1 x < -1, -1 = x < 0, 0 < x < 1, x = 1, por lo tanto n?8 ? ? ? 0 x < -1, 1/2 1 -1 = x < 1 , x = 1, y por lo tanto L X = -1 1 , tal que P(X = -1) = P(X = 1) = 1 2 , supongamos adem´as que X est´a de?nida tal que c.s. X =

|Xk – X| = -1, 1,

1, 0, -1 = Y < 0, 0 = Y < 1,

-1/k = Y = 1/k, resto, entonces para todo e > 0, tenemos l´im P(?8 (|Xk – X| = )) k-?8 = l´im P(?8 (-1/k = Y = 1/k)) = k-?8 = 1 l´im P(-1/k = Y = 1/k) = l´im k-?8 k-?8 k = 0, ´ de esta forma demostramos que hay convergencia casi segura y por lo tanto tambi´en en probabilidad.

Ejercicio 4.2.4 Sea {Xn} una v.a. con distribuci´on geom´etrica de par´ametro p = ?/n. Calcular la funci´on caracter´istica de Xn. Si de?nimos ahora Zn = Xn/n, estudiar la convergencia en ley a la funci´on G(p = 1,a = ?).

Solucion. Vemos que X ? Geo(p) y que por lo tanto q = 1- p. fX(t) = p 8 8 ? qxeitx = p ? x=0 x=0 qeit x = p 1- qeit y de esta forma fXn(t) = ? n 1- n e -1 y por lo tanto y con respecto a la segunda de las cuestiones vemos que fZn(t) = ? n 1- n e -1 n l´im fZn(t) = n l´im ?8 ?8 1- ?/n n-? it/n = l´im n?8 ?eit/n – ? n-? it/n it = ? ? – it = 1- i t ? -1 = fG(t), tal y como quer´iamos probar.

edu.red

? P(|Xn| > e) = ? n ? n2 – n+1 – n+1 e2 it + e-2 it 41 4.2. EJERCICIOS.

Ejercicio 4.2.5 Sea {Xn} una v.a. tal que P(Xn = ±2) = P(Xn = ±1) = 1 4n , P(Xn = 0) = 1- 1 n ´ estudiar la convergencia en probabilidad y casi segura.

Solucion. Vemos que ?e > 0,

P(|Xn| > e) = P(|Xn| > 0) = 1- P(|Xn| = 0) = 1 n ´ por lo que Xn ? 0. Al tratarse de v.a.i. la convergencia c.s. a (X = 0) es equivalente a la condicion de convergen- cia completa ? P(|Xn| > e) < 8, ? pn < 8 ?e > 0, 1 = 8 viendo que

y por lo tanto no hay convergencia casi segura.

Ejercicio 4.2.6 Sea {Xn} una v.a. tal que E[Xn] = 1 n , var(Xn) = 1 n2 , ´ ´ estudiar la convergencia casi segura utilizando la desigualdad de Cheby.

Solucion. Teniendo en cuenta que la condicion de convergencia completa ? P(|Xn| > e) < 8, es su?ciente para la c.s. y esto se cumple por Cheby i.e. ? P(|Xn| > e) = 1 e2 ? E 2 Xn = 1 e2 ? var(Xn) + E[Xn]2 = 1 e2 2 < 8, var(Xn) e2 ? 0 tal y como quer´iamos hacer ver.

Tambi´en podemos pensar de la siguiente manera:

? P(|Xn| > e) = ? P(|Xn – E[Xn]| > e) =

pero as´i probar´iamos la convergencia en probabilidad.

Ejercicio 4.2.7 Sea {Xn} una v.a. tal que P(Xn = ±1) = 1- 1 2n , P(Xn = ±2n) = 1 2n+1 ´ estudiar la convergencia en probabilidad y casi segura.

Solucion. Vemos claramente que E[Xn] = 0. fXn(t) = 1 2 1 2 eit + 1 2 1 2 e-it + 1 2n+1 n n

edu.red

CAPITULO 4. CONVERGENCIA 2n. e = 2 n ? 0, ? P(An) = ? 2n -? 0. -1 4 ´ 42

y de esta forma ?8 n l´im fXn(t) -? 1 2 eit + e-it 1 ´ por lo que Xn es una v.a. discreta,.P(X = ±1) = 2, de esta forma llegamos a la conclusion de que L

sin embargo con respecto a los otros tipos de convergencias no podemos decir nada.

Ejercicio 4.2.8 Sea {Xn} una v.a. tal que P(Xn = ±1) = 1 2n+1 , P(Xn = 0) = 1- 1 2n ´ 2 estudiar la convergencia en probabilidad y casi segura.

Solucion. Vemos claramente que E[Xn] = 0, var(Xn) = E Xn = 1 Aplicamos por lo tanto Cheby. ? P(|Xn| > e) = ? P(|Xn – E[Xn]| > e) = var(Xn) 2 1 e 2 pero as´i probar´iamos la convergencia en probabilidad. Con respecto a la convergencia c.s. aplicamos Borel-Canteli. Xn -? 0, consideramos An = (|Xn| > e). P(An) = P(Xn = 1) + P(Xn = -1) = 1 2n 1 < 8, entonces

y BC nos dice que P(An 8 veces) = 0 y por lo tanto Xn -? 0, c.s. tal y como quer´iamos hacer ver.

Ejercicio 4.2.9 Sea {Xn} una v.a.i. tal que P(Xn = ±2n) = 1 3 , Sn = ? Xi estudiar la convergencia en probabilidad Sn 4n P ´ 2 2 Solucion. Vemos claramente que E[Xn] = 0,var(Xn) = E Xn = 34n. Como las (Xi) son v.a.i. entonces vemos que var(Sn) = var ? Xi = ?var(Xi) = 2 3 ?4i, 2 3 ?4i = 4n+1 – 1 3 , aplicamos por lo tanto Cheby. ? P Sn 4n > e = ? P(|Sn| > e4n) = var(Sn) e242n = n+1 3 e242n ? 0, probando as´i la convergencia en probabilidad.

edu.red

eit/2 – 1 l´im ?n (t) = -? 0. 22(n+1)-2 4.2. EJERCICIOS. 43 ´ Ejercicio 4.2.10 Sea Fn lafunci´onde distribuci´onuniformeen [k/2n], k = 0,1,2,…Probarque Fn ? F (endistribuci´on). ¿F?.

Solucion. Vemos que ?n (t) = 1 -1 eitxdFn(x) = 2n eit – 1 n , de tal forma que n?8 eit – 1 it , ´ por el teorema de continuidad de Levy, Fn converge en distribucion a la uniforme en (0,1).

Ejercicio 4.2.11 Considera la sucesi´on de variables i.i.d. (Xj). Estas variables toman los valores +1 y -1 con probabilidad 1/2. Sea ahora la siguiente variable aleatoria: Hn = n ? 2iXi, i=1 P Hn 2an > e n?8 1.

2. Comprobar que ?e > 0, y si a > 1, entonces

¿Qu´e pasa si a = 1?. ´ Solucion. con probabilidad 1/2. Sea ahora la siguiente variable aleatoria: E(Xi) = 0, var(Xi) = 1, as´i que que la variable Hn tendr´a E(Hn) = 0, var(Hn) = var n ? 2iXi i=1 = n ? 22ivar(Xi) = i=1 n ? 22i = i=1 2 3 , por lo tanto utilizando la desigualdad de Cheby vemos que P Hn 2an > e = P(|Hn| > e2an) = var(Hn) e222an , ´ ´ ˜ ´ observ´andose que -? 0,

tal y como quer´iamos hacer ver. Si a = 1, la desigualdad de Chebyshev no nos proporciona informacion util para e pequeno. Pero en realidad es que P(|Hn| > e2n) no puede tender a 0 cuando n ? 8 para todo e > 0. Argumentemos, por ejemplo, de la siguiente forma: con probabilidad 1/4, los dos ultimos lanzamientos son +1 y, por tanto, Hn = n-2 ? 2iXi + 2n-1 + 2n, i=1

edu.red

CAPITULO 4. CONVERGENCIA ´ 44

de esta forma vemos que n-2 ? 2iXi < 2n-1 – 2, i=1 y por lo tanto con probabilidad 1/4 Hn 2an > 1 viendo as´i que no hay convergencia.

edu.red

poblacion (X1,….,Xn), nos preguntamos la proporcion de {Xi}i n =1 con caracter´istica A i.e. #{Xi}i n =1 ´ ´ , la idea ?i n Z(?i) ´ ´ Cap´itulo 5

Leyes de los grandes numeros.

5.1. Leyes de los grandes numeros.

Ideas intuitivas. 1. ´ Supongamos que tenemos una cierta poblacion ? y estudiamos una cierta caracter´istica (el suceso A) con frecuencia relativa p i.e. frec(A) = p. Obtenemos al azar e independientemente elementos de esta

n intuitiva es que i #{Xi}n =1 n p, i.e. frec(A) = p ´ ´ 2. ´ i solo cuando n es muy grande. Hemos partido de esta idea intuitiva para de?nir probabilidad y fundamentar las leyes de la probabilidad. Las leyes de los grandes numeros transforma esta idea en un teorema. Tenemos una cierta poblacion ?. Si Z es una variable en ? obtenemos una muestra de ? {?i}n =1 y con- sideramos -? µ := E(Z). n i (1) es un caso particular de (2).

5.1.1. Ley d´ebil.

Teorema 5.1.1 Sean {Xi}n =1 una sucesi´on de v.a. i.i.d. entonces: i ?n Xi n -? µ ya que P i ?n Xi n – µ > e -? 0 ?e > 0 cuando n -? 8. Equivalentemente P i ?n Xi n – µ < e -? 1. ´ ´ Demostracion. Los dos ingredientes necesarios para la demostracion del teorema son:

45

edu.red

CAPITULO 5. LEYES DE LOS GRANDES NUMEROS. n 46 ´ ´ 1. La desigualdad de Cheby i.e. P(|Z – E[Z]| > ?) = var(Z) ?2 2. Como nuestras variables son independientes entonces var ? Xi = ?var(Xi) = n · var(X) ´ ya que todas tienen la misma distribucion. En particular si var(X) = s2 entonces: var ? Xi n = 1 2 n · s2 = s2 n 3. Si E[X] = µ E ? Xi n = 1 n (n · µ) = µ Por lo tanto aplicando Cheby a Z = ? Xi n P(|Z – µ| > ?) = var(Z) ?2 entonces: P ? Xi n – µ > ? = 1 s2 ?2 n -? 0 ´ cuando n -? 8. Como quer´iamos demostrar.

Observacion 5.1.1 La moraleja del teorema es la siguiente: ? Xi n -? µ cuando n -? 8. E ? Xi n = µ, var ? Xi n = s2 n ˜ ´ ´ i alejarse de la media tiene una probabilidad muy pequena

De forma alternativa pero similar pedemos ver esta ley como sigue (ver referencias del prologo):

De?nicion 5.1.1 Sea {Xi}n =1 una sucesi´on de v.a. tal que E(Xn) = µn < 8,?n ? N. De?nimos Xn = i ?n Xi n P E(Xn) = i ?n E(Xi) n i Teorema 5.1.2 Sea {Xi}n =1 una sucesi´on de v.a.i. (independientes) tal que 1. 2. i.d. (identicamente distribuidas), Xn tiene media y varianza ?nitas ?n ? N, entonces

edu.red

5.1. LEYES DE LOS GRANDES NUMEROS. ? Xi – n ? ai -? 0. ? n i -? a. ? n i, ? Xi – n ? ai = 2 2 ? Xi – n ? ai -? 0. 47 i i ´

{Xi}n =1 obedece la LD.

Teorema 5.1.3 (Chebychev). Sea {Xi}n =1 una sucesi´on de v.a.i. tal que 2 var(Xn) = sn = c ?n ? N, i i entonces {Xi}n =1 obedece la LD.

Teorema 5.1.4 Sea {Xi}n =1 una sucesi´on de v.a.i. dos a dos, tal que, E[Xi] = ai. Si var(Xn) = c, ?n ? N, entonces 1 n 1 P ´ i Observacion 5.1.2 Si las {Xi}n =1 son v.a.i.i.d. entonces E[Xi] = ai, ?i ? N y por lo tanto a = a =? 1 n ? Xi P ´ Demostracion. ?i ? N, de?nimos la v.a. Zn = ? Xi n , =? E[Zn] = a al ser v.a. i. dos a dos, entonces var ? Xi = ?var(Xi) = nc, entonces aplicando Cheby, llegamos a P 1 n 1 = e = P(|Zn – E[Zn]| = e) = var(Zn) e2 1 n e ?var(Xi) -? 0, i i i tal y como quer´iamos hacer ver.

Teorema 5.1.5 (Markov). Sea {Xi}n =1 una sucesi´on de v.a. tal que

n-?8 entonces {Xi}n =1 obedece la LD.

Teorema 5.1.6 Sea {Xi}n =1 una sucesi´on de v.a.i. tal que, E[Xi] = ai. Si 1 n2 n?8 ?var(Xi) -? 0, entonces 1 n 1 P i Teorema 5.1.7 (Khintchine). Sea {Xi}n =1 una sucesi´on de v.a. tal que 1. 2. i.i.d., E(Xn) = µ ?n ? N, i entonces {Xi}n =1 obedece la LD.

edu.red

CAPITULO 5. LEYES DE LOS GRANDES NUMEROS. 48 ´ ´ ´ Ejemplo 5.1.1 Sea p ? (0,1) la probabilidad de que un votante vote a un candidato determinado y supongamos que la respuesta de cada votante sea independiente. Determinar el numero de votos que hay que escrutar de forma que exista una probabilidad mayor o igual a 0,95 de que la discrepancia entre la frecuanecia relativa de votos favorables y la probabilidad desconicida p sea menos o igual que 0,1. En efecto. Sea Xi = ? ? ? 1 si el votante vota al candidato 0 si el votante NO vota al candidato Xn = i ?n Xi n de?nimos

como la frecuencia relativa y P Xn – p = 0,1 = 0,95 ?? P Xn – p > 0,1 = 0,05. Por otro lado si tenemos en cuanta la desigualdad de Cheby.: P Xn – p > 0,1 = var(Xn) (0,1)2 = pq n(0,01) = 1 4n(0,01) = 0,05 entonces n = 1 4(0,05)(0,01) = 500 as´i pues n = 500 votos. Observamos que n- Bernoullis -? Bin(n, p) =? var(Bin(n, p)) = npq y por otro lado sabemos que var(Xn) = var(Xi) n2 2 = npq = pqn. ´ 5.1.2. Ley Fuerte.

Proposicion 5.1.1 Borel-Cantelli.

(sucesos) 8 ? P(Ai) < +8 =? P(“en in?nitos Ai”) = 0 i=1 i= i i i i i 2 3 4 (para v.a.). Sean {Xi}8 1 v.a. positivas i.e. val(Xi) ? [0,8) 8 l´i i=1

Lema 5.1.1 Sean {Xi}n =1 v.a. i.i.d.. Seguieremos la siguiente notaci´on. i = 1,…,n 0 = µ1 = E(Xi),…,µ2 = E(X2),…,µ3 = E(X3),…,µ4 = E(X4). Sea Sn = ?n =1 Xi. Entonces E(Sn) = 0,….,E(Sn) = nµ2,….,E(Sn) = nµ3,….,E(Sn) = 3n2µ4.

edu.red

5.1. LEYES DE LOS GRANDES NUMEROS. s2 n ? 2 + 0 1- 2 + 0 1- 2 49 i= i ´

Teorema 5.1.8 Sean {Xi}8 1 v.a. i.i.d. tal que E(X4) < 8. Entonces: P l´im n-?8 ? Xi n = µ = 1 ´ i De forma alternativa y m´as clara:

De?nicion 5.1.2 Sea {Xi}n =1 una sucesi´on de v.a. tal que E(Xn) = µn < 8,?n ? N. De?nimos Xn = i ?n Xi n c.s. E(Xn) = i ?n E(Xi) n i 2 Teorema 5.1.9 (Kolgomorov). Una condici´on su?ente para que se veri?que la LF (ley fuerte) es que {Xi}n =1 sucesi´on de v.a.i. / E(Xn) = µn, var(Xn) = sn , ?n ? N. Si 8 n=1 n < 8 i 2 i entonces {Xi} obedece la LF.

Corolario 5.1.1 Sea {Xi}n =1 sucesi´on de v.a.i. tal que E(Xn) = 0, var(Xn) = sn = c ?n ? N, entonces {Xi} obedece la LF.

Teorema 5.1.10 (Khintchine). Sea {Xi}n =1 sucesi´on de v.a.i.i.d / E(Xn) = µ < 8, ?n ? N, entonces {Xi} obedece la LF.

Resumen 5.1.1 Estos dos teoremas (leyes d´ebil y fuerte) apoyan la idea de que cuando n -? 8, ? Xi n µ y frec P. i Si {Xi}n =1 veri?ca la LF entonces tambi´en la LD ya que la LF exige convergencia c.s. mientras que la LD en probabilidad y como ya sabemos lo uno implica lo otro.

Ejemplo 5.1.2 Sean {Xn} v.a.i. con funci´on de masa P(Xn = -na) = P(Xn = na) = 1 2n2 , y P(Xn = 0) = 1- 1 n2 si a > 0 estudiar si {Xn} veri?ca las LD y LF.

En efecto. Sabemos por Cheby que al ser {Xn} v.a.i. entonces basta con que exista cierta constante M < 8 tal que var(Xn) = M ?n ? N. Vemos que: E(Xn) = -na 1 2n 2 1 n + na 1 2n2 = 0 2 E(Xn) = (na)2 1 2n 2 1 n + (na)2 1 2n2 = a2 var(Xn) 2 = E(Xn) – E(Xn) = a2

edu.red

CAPITULO 5. LEYES DE LOS GRANDES NUMEROS. -? 0 n lnn = ? 2 ´ ´ 50

por lo tanto {Xn} veri?ca la LD i.e. ?n Xn n P Para ver si veri?cala ley Fuerte vemos que por Kolgomorov al ser {Xn} v.a.i. entonces basta con probar que 8 ? n=1 var(Xn) n2 < 8 ´ en este caso y como ya hemos visto esta condicion se veri?ca trivialmente entonces {Xn} veri?ca la LF i.e.

-? 0 n tal y como quer´iamos hacer ver.

Ejemplo 5.1.3 Sean {Xn} v.a.i. con funci´on de masa P Xn = -n(lnn)1/2 = P Xn = n(lnn)1/2 = 1 2n2 , y P(Xn = 0) = 1- 1 n2 estudiar si {Xn} veri?ca las LD y LF.

En efecto. Como en el ejemplo anterior por Cheby tenemos que ver si var(Xn) = M ?n ? N, E(Xn) = -n(lnn)1/2 1 2n2 + 0 1- 1 n2 + n(lnn)1/2 1 2n2 = 0 2 E(Xn) = n2 (lnn) 1 2n2 + 0 1- 1 n2 + n2 (lnn) 1 2n2 = lnn var(Xn) 2 = E(Xn) – E(Xn) = lnn ´ ´ por lo tanto var(Xn) = lnn -? 8 i.e. no se veri?can las hipotesis del teorema de Cheby pero esto no signi?ca que dicha sucesion no veri?que la LD. Por el teorema de Kolmogorov. Puesto que {Xn} v.a.i. es su?ciente con que se veri?que que 8 ? n=1 var(Xn) 2 8 n=1 n < 8 para verlo aplicamos el criterio integral 8 1 lnx x2 dx = 1 < 8 por lo tanto la serie converge. As´i {Xn} veri?ca la LF y tambi´en la LD.

5.2. Ejercicios. Ejercicio 5.2.1 Sean {Xn} v.a.i. tales que P Xn = ±n1/4 = 1 2 , estudiar si {Xn} veri?ca las LD y LF

edu.red

1 = ? i1/2 3/2 n 2 l´im var Xn = 0 s2 Sn c.s. n2 ? Xi 2dP = 2 n2a+1 s2 n ? 2 Sn c.s. Sn P. 51 ´ 5.2. EJERCICIOS.

Solucion. Vemos que E[Xn] = 0, 2 var(Xn) = E Xn = 1 2 2n1/2 = n1/2, por lo que var 1 n ? Xi = 1 n2 var ? Xi = 1 n2 n ? i1/2, i=1 tenemos que demostrar que n?8 Teniendo en cuenta que 1 0 x1/2dx = 2 3 , 1 0 x1/2dx ˜ n ? i=1 i n 1/2 1 n n

i=1 ? i=1 n ? i1/2 ˜ n3/23, de esta forma vemos que var Xn = 1 2 n1/2 3 =? n?8 por lo que concluimos que veri?ca la LD.

En general si P(Xn = ±na) = 1 2 , ´ vemos que por la condicion de su?ciencia de Kolgomorov, si a < 1/2, entonces se veri?ca la ley fuerte (LF). Recordamos que si n= 2 8 ? 1 nn < 8 =? n -? 0. Para analizar el cumplimiento de la LD utilizaremos el criterio de convergencia degenerada. Por simetr´ia vemos que ? P(|Xn| > n) -? 0, ?? a = 1, 1 n2 ? i X2dP -? 0, =? 1 1 n ?k2a donde k=1 n ? k2a ? 2a + 1, a = 0 ´ ´ llegando a la conclusion de que solo se cumple si a < 1/2. En resumen: a < 1/2, =? LF, i.e. 8 n=1 n < 8 =? n -? 0. a = 1/2, =? LD, i.e. 1 n2 2 8 ? sn < 8 n=1 =? n -? 0. tal y como quer´iamos hacer ver.

Ejercicio 5.2.2 Sean {Xn} v.a.i. tales que P(Xn = ±1) = 1 4n = P(Xn = ±2), P(Xn = 0) = 1- 1 n , estudiar si {Xn} veri?ca las LD y LF

edu.red

CAPITULO 5. LEYES DE LOS GRANDES NUMEROS. s2 n ? 2 Sn c.s. = P l´im (Xn = 0) = 0, ? P(|Xn| = 0) = ? 2en ´ ´ ´ 52

Solucion. Vemos que E[Xn] = 0, 2 var(Xn) = E Xn = 10 4n , por lo que si 8 n=1 n < 8 =? n -? 0. tenemos que demostrar que 8 ? n=1 2 sn n2 8 = ? n=1 10 4n3 < 8 viendo as´i que s´i se veri?ca LF.

Ejercicio 5.2.3 Sean {Xn} v.a.i. tales que P Xn = ±e2n = 1 2en , P(Xn = 0) = 1- 1 en , ´ estudiar si {Xn} veri?ca las LD y LF

Solucion. Vemos que E[Xn] = 0, y teniendo en cuenta el siguiente resultado:

c.s.

c.s. l´im P n?8 8 |Xn| > e = l´im P n?8 8 |Xn| = 0 n?8 ´ 1 < 8 donde esta ultima igualdad es consecuencia de que

y por lo tanto se verica LF.

Ejercicio 5.2.4 Sean {Xn} v.a.i. tales que P(Xn = ±2n) = 1 22n+1 , P(Xn = 0) = 1- 1 22n , ´ estudiar si {Xn} veri?ca las LD y LF

Solucion. Vemos que E[Xn] = 0, 2 var(Xn) = E Xn = 1 22n+1 22n + 22n = 1,

edu.red

n s2 n ? 2 Sn c.s. s2 n ? 2 ? n2 Sn c.s. var(Xn 1) = E Xn s2 n ? 2 ? n2 Xn 2 -? 0, 5.2. EJERCICIOS. 53 ´ entonces teniendo en cuenta el teorema de Markov, lo unico que tenemos que comprobar es 1 n2 n 2 ?8 =1 sn < 8, l´im n?8 1 n2 2 8 ? sn = 0, n=1 por lo tanto l´im n?8 1 n2 n= 2 l´ ?8 8 ? 1sn = nim n2 = l´im n?8 1 n = 0. ´ Para ver que tambi´en se veri?ca la LF aplicamos el teorema de Kolgomorov i.e. solo nos queda por probar que 8 n=1 n < 8 =? n -? 0. pero 8 n=1 n = 1 < 8 =? n -? 0. por lo que Xn veri?ca la LF.

Ejercicio 5.2.5 Sean {Xn} v.a.i. tales que P(Xn = ±2n) = 1 22n+1 , P(Xn = ±1) = 1- 1 22n , ´ estudiar si {Xn} veri?ca las LD y LF

Solucion. En este caso de?nimos 1 Xn = Xn 0 |Xn| = 1 |Xn| = 1 2 Xn = 0 Xn |Xn| = 1 |Xn| = 1 de esta forma 1 2 Xn = Xn + Xn 1 2 si, Xn,Xn veri?can la LGN entonces Xn, tambi´en lo har´a. Vemos que 1 E Xn = 0, 1(2 = 1- 1 2n , entonces 8 n=1 n < 8 ?? ? n 1- 2 1 n2 < 1 < 8 1 por lo que podemos asegurar que Xn veri?ca LF. c.s. ?8 2 8 n l´im P ?8 Xn > e = 1-? 1- 1 2n = ? 1 2n < d, =? c.s. ´ de esta forma probamos que Xn veri?ca LF. De forma gen´erica, haciendo esta argumentacion lo que hemos conseguido en realidad es

Xn = Xn1l|Xn| 8, no cumplir´ia las condiciones necesarias pero si ? pn < 8, entonces podr´iamos apelar a B-C.

Ejercicio 5.2.7 Sean {Xn} v.a.i.i.d. tales que siguen una Cauchy. Sea Yn Yn = ? Xi n ´ ´ ´ estudiar si {Yn} veri?ca las LD y LF.

Solucion. Xi sigue una Cauchy, por lo que su funcion caracter´istica es: ? = e-|t|. La funcion car´acter´istica de Yn ser´a: E[exp(itYn)] = E exp it? Xi n = e-|t| ´ ´ por lo que Yn es otra Cauchy, pero E[Yn] por lo que no se veri?ca ningua de las hipotesis de los teoremas de los GN.

Ejercicio 5.2.8 Sean {Xn} v.a.i.i.d. tales que siguen una exp(n). Estudiar si {Xn} veri?ca las LD y LF.

Solucion. Xi sigue una exp(n), por lo que var(Xn) = 1 n2 , 1 < 8, l´im n?8 1 n2 ?var(Xn) = 0

edu.red

s2 n ? 2 ? n4 Sn c.s. 1 -? 2 1, por lo tanto n ? i s2 n ? 2 s2 n ? 2 a2(n – 1) = ? n 2 n a2 < ? n < 8 n 55 5.2. EJERCICIOS.

por lo tanto veri?ca LD. Para que veri?que la LF bastar´a con probar que 8 n=1 n < 8 ?? 1 < 8 por lo que podemos asegurar que Xn veri?ca LF.

Ejercicio 5.2.9 Sean {Xn} v.a.i. tales que (X2n) siguen una U [0,1] De?nimos X2n+1 = 0 1 , P(X2n+1 = 0) = P(X2n+1 = 1) = 1 2 . ´ De?nimos Sn = ? Xn , estudiar si -? . 2n 2

Solucion. Vemos que E[Xi] = 12, ?i. Entonces LF nos dice que Sn n c.s. Sn 2n = 1 2n ? Xi = 1 n X1 + X2 2 + …..+ Xn-1 + Xn 2 de?nimos Yi = Xi-1+Xi 2 , ?i, viendo as´i que 1 Y -? 1 2 donde (Yi) son v.a.i.i.d. tales que E[Yi] = 1/2, entonces LF garantiza la convergencia pedida. Ejercicio 5.2.10 Sea (an) tal que ? 2 an n < 8. Sean {Xn} v.a.i. tales que P(Xn = an) = 1- 1 n , P(Xn = bn) = 1 n . ´ queremos calcular bn tal que E[Xn] = 0. Demostrar que as´i (Xn) veri?ca la LGN.

Solucion. Vemos que E[Xi] = 0, ?i,?? an 1- 1 n + bn 1 n = 0 ?? bn = an(1- n), de esta forma vemos que 2 var(Xn) = an 1- 1 n 2 + an (1- n)2 n 2 = an(n – 1). Si tenemos en cuenta Kolgomorov, < 8 (Xn) veri?ca LF.Entonces: 8 n=1 n 8 n=1 n

8

n=1 =?

8

n=1 ´ por hipotesis, por lo tanto (Xn) veri?ca LF.

edu.red

CAPITULO 5. LEYES DE LOS GRANDES NUMEROS. -? µ -? µ 56 ´ ´ Ejercicio 5.2.11 Vamos a ir apostando al resultado de una moneda que sale cara con probabilidad p. En cada jugada, ganamos 1 euro o perdemos 1 euro dependiendo de si hemos acertado o no lo que sale en la moneda. En las jugadas “impares” (1,3,5,…) apostamos a que sale cara, y en las jugadas “pares” (2,4,6,…), a que sale cruz. Llamemos Pn al dinero que hemos ganado (o perdido) tras n lanzamientos de la moneda. Prueba que Pn n P ´ ´ cuando n ? 8, y determina el valor de µ.

Solucion. Llamamos Xj a la ganancia o p´erdida en el lanzamiento j. Las Xj toman valores ±1, pero con prob- abilidad p de +1 si j es par y 1 – p si j impar. As´i que si escribimos Pn como ?nj =1 Xj, se trata de una suma de variables independientes, pero no id´enticas. Otra opcion es considerar unas variables Yj (´estas s´i, id´enticas) que toman valores ±1 (con probabilidad p de +1), y escribir Pn como ?nj =1 (-1)j+1 Yj. Pero ahora Pn no es una suma de variables i.i.d. Hay varias formas de sortear estas di?cultades: 1. ´ En la version con las Xj (que tienen media E(Xj) = 1 – 2p si j par y 2p – 1 si j impar; mientras que la varianza es siempre 1), podemos escribir P2n 2n = 1 2n 2n ? Xj = j=1 2 2n X1 + X2 2 + ……+ X2n-1 + X2n 2 = 1 n n ? Zj j=1 ´ ´ ˜ ´ ´ 2.

3. ˜ ´ ˜ donde las Zj ya son i.i.d. con media 0 (y una cierta varianza ?nita). La ley d´ebil nos da entonces la con- clusion (bueno, si el ´indice no es par, entonces “sobra” una variable en la suma, y hay que observar que esa contribucion se hace pequena con n).

Tambi´en podr´iamos aplicar directamente la version de la ley d´ebil en la que las variables no eran id´enticas pero los promedios de las medias de las variables tend´ian a un cierto numero (0, en este caso).

O, en cualquiera de las dos versiones (con las Xj o las Yj), calcular directamente la media de Pn (que es 0, salvo la pequena correccion si n no es par, pero que se hace tan pequena como queramos si n es su?cientemente grande) y su varianza, y aplicar la desigualdad de Chebyshev. Ejercicio 5.2.12 Vamos a ir apostando al resultado de una moneda M1 que sale cara con probabilidad p. En cada jugada, 1.

2. lanzamos primero una moneda regular M2, que nos dice si apostaremos a cara o a cruz en el siguiente paso. Lanzamos la moneda M1. Si en el primer paso ha salido cara, ganamos 1 euro si en M1 sale cara (y perdemos 1 euro si sale cruz). Si ha salido cruz en la moneda M2, entonces ganamos 1 euros si en M1 sale cruz y perdemos 1 euro si sale cara.

Llamemos Pn al dinero que hemos ganado (o perdido) tras n lanzamientos de la moneda. Prueba que Pn n P cuando n ? 8, y determina el valor de µ.

edu.red

5.2. EJERCICIOS. 57 ´ j j j j j Solucion. Si consideramos unas variables ej que toman valores ±1 con probabilidad 1/2 (que recogen nuestra apuesta) y unas variables Xj que tambien toman valores ±1, pero ahora con probabilidad p de +1 (´estas recogen si sale cara o cruz en M1), entonces la ganancia o perdida en la partida j se puede escribir como Zj = ejXj, que es una variable de media 0, ya que

E(Zj) = E(ejXj) = E(ej)E(Xj) = 0 por la independencia y una cierta varianza ?nita

var(Zj) = E(Z2) = E(e2X2) = E(e2)E(X2) = 1× 1 = 1

de nuevo por la independencia.

As´i, Pn es una suma de variables i.i.d. y la ley d´ebil nos permite concluir el resultado. Alternativamente, si llamamos Zj a la ganancia o p´erdida en la partida j, condicionando adecuadamente o enu- merando los casos, podemos descubrir que Zj toma valores ±1 con probabilidad 1/2. Por tanto tiene media 0 y varianza 1. De nuevo aplicamos la ley d´ebil para concluir.

edu.red

– µ ? E ? Xi ? ? var ? Xi = s n – µ -? N(0,1) Sn – nµ -? N(0,1) ´ ´ ´ Cap´itulo 6

Toerema del l´imite central.

6.1. Teorema central del L´imite.

Estos teoremas expresan el hecho de que en condiciones muy generales la distribucion de la suma de n – v.a.i. tienen una distribucion normal cuando n -? 8. La version m´as b´asica de este tipo de teoremas se debe a Moivre y nos dice que Bin(n, p) -? N(np, v npq) i Veremos dos enunciados m´as generales de este teorema:

Teorema 6.1.1 Sean {Xi}n =1 v.a. i.i.d. tal que µ := E(Xi),s := s(Xi) < +8, cuando n -? 8, s ? Xi n v n =? ? ? n ? = µ, n 2 Normalizando a la Gauss si Z = ? Xi n – µ siendo X cualquier distribuci´on E(Z) = 0 y s2(Z) = 1 i.e. l´im P n-?8 s ? Xi n v n = t = P(Z = t) donde Z ? N(0,1).

Teorema 6.1.2 (L´evy-Lindeberg). Sea {Xn} v.a.i.i.d. y sea Sn = ? Xi. Si Xn tiene media y varianza = 0, ?nitas, entonces: Sn – E(Sn) s(Sn) n-?8 L Si µ = E(Sn) y s = s(Xn) entonces: v s n L 59

edu.red

CAPITULO 6. TOEREMA DEL LIMITE CENTRAL. – n v µ -? N(0,1) -? N(0,1) 5c P(X = -c) = P(X = c) = 60 ´ ´ i.e. cuando n -? 8, la distribuci´on (? Xi) N(np, v npq), Sn s n n L lo que signi?ca que la v.a. media muestral Xn = Sn n = ?i Xi n v N(µ,s/ n) Teorema 6.1.3 Lyapunov. Sea {Xn} v.a.i. y sea Sn = ? Xi. Si Xn tiene E[Xn] = 0, 2 2 E Xn = sn < 8, 3 E Xn < 8, Sea 2 sn = 2 ?sn si l´im E 3 3 Xn sn = 0 entonces ?i Xi sn n-?8 L ´ ´ ´ ´ Observacion 6.1.1 Como se puede observar este teorema es bastante restrictivo ya que exige la existencia de momentos de orden 3. Los teoremas de Lindergerg y Feller dan condiciones su?cientes para garantizar la convergencia de sumas normalizadas de v.a.i. con media y varianza = 0, ?nitas tiendan hacia una N(0,1).

Ejemplo 6.1.1 Un juego consiste en apostar una cantidad c de dinero a un numero de entre 10 (equiprobables) de forma que si sale ese numero entonces gana 5c y si no sale el numero apostado entonces pierde la cantidad apostada c. Calcular la probabilidad de no perder dinero despu´es de 50 apuestas. De?nimos la variable X = ? ? -c ? 9 10 1 10 calculamos la esperanza y la varianza E(X) = -c 9 10 + 5c 1 10 = c, E(X2) = c2 9 10 + 25c2 1 10 = 17c2 5 , var(X) = 17c2 5 – 4c2 25 = 81c2 25 . Como n = 50, entonces la variable Y = ? Xi tal que {Xi} son i.i.d. entonces Y N(µ,s), entonces µ

s2 = 50

= 50 -2c 5 81c2 25 = -20c

= 162c2 =? s = v v 162c2 = 9c 2

edu.red

v v v P(Z = 1,5713) = v exp(- x2)dx = 5,8056× 10-2 Y+ v c n =? s = v = v P(X < -1,66) = v exp(- x2)dx = 0,0485 6.2. EJEMPLOS 61 Y ? N(-20c,29,01c) por lo tanto P(Y = 0) = P Y + 20c 9c 2 = 20c 9c 2 = P Y + 20c 9c 2 = 10v 9 2 = 5,8056× 10-2 10v 9 2 ˜ 1,5713 1 2p 8 1,5713 1 2 donde 20 9c 2 = Z ? N(0,1). ´ 6.2. Ejemplos

Ejercicio 6.2.1 La longitud Y de ciertas piezas en cm sigue una normal N(20,0,30). El distribuidor acepta un lote de 1000 si despu´es de elegir 10 piezas al azar encuentra que su longitud media no es menor que 19,85cm. Calcular la probabilidadde que rechace el lote.

Solucion. Yi es la longitud de la pieza (i = 1,…,10) i.e. n = 10; Yi ? N(20,0,30). De?nimos la variable media muestral Y, Y = i ?10 Yi n , µ = E(Yi) y s = s(Yi) sabemos que: E(Y) = 20 s2(Y) = ns2 2 = s2 n s 0,3 n 10 = 0,09 de?nimos: X = Y – 20 0,09 ? N(0,1) P Y < 19,85 = P Y – 20 0,09 < 19,85- 20 0,09 = P(X < -1,66) = 0,0485 1 2p -1,66 -8 1 2 tambi´en se puede llegar a este resultado mirando las tablas de la N(0,1).

Ejercicio 6.2.2 Una f´abrica produce l´amparas para motos mediante dos procesos A y B. Las lamparas producidas mediante elproceso A tienen3800hdemediayunadesviaci´onde400hmientrasquelasdeBtienen4600demediay900dedesviaci´on. La garantia esta ?jada en 3000h. Si la vida media de la l´ampara es menor a las 3000h entonces el fabricante debe suministrar otra l´ampara. Calcular:

edu.red

CAPITULO 6. TOEREMA DEL LIMITE CENTRAL. P(? < -2) = v exp(- x2)dx = 0,02275 P(? < -1,77) = v exp(- x2)dx = 0,0384 P(? < -0,5) = v exp(- x2)dx = 0,30854 P(? < -1,11) = v exp(- x2)dx = 0,1335 P(? > -0,81) = v exp(- x2)dx = 0,79103 62

1.

2.

3. ´ ´

P(A),P(B) i.e. cual de los dos procesos cumple mejor las especi?caciones de calidad

¿que pasa si la vida media pasa de 3000 a 3600h?

Probabilidad de que una l´ampara elegida al azar de B tenga una vida mayor que otra de A. ´ Solucion. Sean x,y los valores de tiempo de vida de las l´amparas producidas por el proceso A y B respectiva- mente, de?nimos: X ? N(3800,400), Y ? N(4600,900), ? ? N(0,1) 1. P(X < 3000) = P X – 3800 400 < 3000- 3800 400 = P(? < -2) = 0,02275 1 2p -2 -8 1 2 P(Y < 3000) = P Y – 4600 900 < 3000- 4600 900 = P(? < -1,77) = 0,0384 1 2p -1,77 -8 1 2 por lo tanto el proceso A se ajusta mejor a las especi?caciones. 2. P(X < 3600) = P X – 3800 400 < 3600- 3800 400 = P(? < -0,5) = 0,30854 1 2p -0,5 -8 1 2 P(Y < 3600) = P Y – 4600 900 < 3600- 4600 900 = P(? < -1,11) = 0,1335 1 2p -1,11 -8 1 2 por lo tanto, ahora el proceso B se ajusta mejor a las nuevas especi?caciones. 3. Y – X ? N(4600- 3800, v 4002 + 9002) = N(800,984.89) P(Y – X > 0) = P Y – X – 800 984.89 > 0- 800 984.89 = P(? > -0,81) = 0,791 1 2p 8 -0,81 1 2 ˜ ˜ tal y como quer´iamos hacer ver.

Ejemplo 6.2.1 Ejercicio 6.2.3 Elgastomensualdeunafamiliaenundeterminadoart´iculoesunav.a.Y ? N(4000,200). Se seleccionan muestras de tamanos 4,9,25 y 100. En cada caso, calcular la probabilidad de que la media de gasto familiar para los distintos tamanos est´e comprendida entre 3900 y 4100.

edu.red

? N(4000, v ) v ? N(4000, 200) = N(4000,100) P(-1 < X < 1) = v exp(- x2)dx = 0,6826 ? N(4000, 200) = N(4000,66,6) P(-1,5 < X < 1,5) = v exp(- x2)dx = 0,8664 ? N(4000, v 200 ) = N(4000,40) P(-2,50 < X < 2,50) = v exp(- x2)dx = 0,9876 ? N(4000, v 200 ) = N(4000,20) P(-5 < X < 5) = v exp(- x2)dx 63 ´ 6.2. EJEMPLOS

Solucion. Sea Yi ? N(4000,200) entonces Y :=media muestral Y = ?Yi n 200 n entonces X = Y – 4000 200 n ? N(0,1) 1. n = 4 =? Y = ?Yi 4 4 P 3900 < Y < 4100 = P 3900- 4000 100 < X < 4100- 4000 100 = P(-1 < X < 1) = 0,6826 1 1 1 2 2p -1 2. n = 9 =? Y = ?Yi 9 9 P 3900 < Y < 4100 = P 3900- 4000 66,6 < X < 4100- 4000 66,6 = < X < 1,50) = 0,8664 1,5 1 1 2 2p -1,5 3. n = 25 =? Y = ?Yi 25 P(-1,50

25 P 3900 < Y < 4100 = P 3900- 4000 40 < X < 4100- 4000 40 = < X < 2,50) = 0,9876 2,50 1 2p -2,50 1 2 4. n = 100 =? Y = ?Yi 100 P(-2,50

100 P 3900 < Y < 4100 = P 3900- 4000 20 < X < 4100- 4000 20 = P(-5 < X < 5) 1 1 2p 5 -5 1 2 1 como quer´iamos hacer ver.

Ejercicio 6.2.4 Un agricultor asegura que la calidad de las manzanas que vende es tal que el di´ametro en mm sigue una N(75, 10). Se toma una muestra de 36 manzanas midiendo su di´ametro. La partida se rechaza si la media no alcanza los 73mm. 1. Calcular la probabilidad de que sean aceptadas con µ = 74 y s = v 10.

edu.red

CAPITULO 6. TOEREMA DEL LIMITE CENTRAL. v = v P(X > -1,89) = v exp(- x2)dx = 0,97062 v = v P(X < -3,79) = v exp(- x2)dx = 7,5324× 10-5 P(-0,08 = Z = 1,858) = v exp(- x2)dx = 0,50168 64 ´ ´ 2. Calcular la probabilidad de que sea rechazada la partida con µ = 75 y s = v 10. ´ Solucion. Como en los ejemplos anteriores vemos que: 1. Y ? N(74, v 10) y n = 36, por lo tanto: Y ? N 74, v 10 6 entonces P Y = 73 = P Y – 74 10/6 73- 74 10/6 = P(X > -1,89) = 0,5+ 0,4706 = 0,97062 1 2p 8 -1,89 1 2 2. Y ? N(75, v 10) y n = 36, por lo tanto: Y ? N 75, v 10 6 entonces P Y < 73 = P Y – 74 10/6 73- 75 10/6 = P(X < -3,79) 0,000007 1 2p -3,79 -8 1 2 ´ ´ como quer´iamos hacer ver.

Ejercicio 6.2.5 El numero de piezas correctas que se elaboran en una secci´on de cierta f´abrica cuadruplica el numero de piezas defectuosas. Calcular aproximadamente: 1. 2. La probabilidad de que de 200 piezas producidas en un d´ia haya entre 40 y 50 defectuosas. Las piezas que deben producirse en un d´ia para con un 0.90 de probabilidades asegurar m´as de 100 correctas. ´ ´ ´ 1 ´ Solucion. Sabemos que el numero Xn de piezas defectuosas, de entre n fabricadas sigue una distribucion Bin(n, 5) y que el numero de piezas correctas Yn ? Bin(n, 45). Suponiendo la independencia entre pieza y pieza, de?nimos la variable Z como una normal tipi?cada, entonces:

1. P(40 = X = 50) ? P? 39, 5- 20015 20015 45 = Z = 50, 5- 20015 20015 45 ? ? = P(-0,0838 = Z = 1,8562) = 0,50168 1 2p 1,8562 -0,0838 1 2

edu.red

v exp(- x2)dx = 6.2. EJEMPLOS 65 2. P(Yn = 100) ? P?Z = 4 99,5- n45 20015 5 ? ? = 0,90 viendo las tablas 99,5- n45 20015 45 1,284 =? 99,5- n 4 5 v = 4 2(1,284) n = 5(-7,2408+ 99,5) 4 = 115,33 ´ ´ 1 por lo tanto n = 116.

Observa que en ambos casos hemos utilizado la correccion del 0,5.

Ejercicio 6.2.6 ¿Cuantos lanzamientos independientes de una moneda equilibrada ser´an necesarios hacer para que se ver- i?que: P(0,49 = proporci´on de caras = 0,51) = 0,99?.

Solucion. Sea n = # lanzamientos y p = q = 2. De?nimos Xi = 1 si sale cara 0 en otro caso , de esta forma tenemos que: P(Xi) = 1 2 ?i, Xn = ? Xi n , ´ Xn (proporcion de caras). Modelizamos el experimento mediante una Bernoulli, i.e. Xi ? Bernoulli, sabemos que E[X] = p, y que v pq npq n a – µ (a – p)n = v s npq y por lo tanto P 0,49 = Xn = 0,51 = P 0,49n – n(0,5) (0,25)n = Y = 0,51n – n(0,5) (0,25)n v v P -0,02 n = Y = 0,02 n = 0,99 donde Y ? N(0,1). Para evaluar esta integral tendremos en cuenta que: 1 2p 1 2 1 2 erf 1v 2 2x := f de esta forma v v v v P -0,02 n = Y = 0,02 n = f(0,02 n) – f(-0,02 n) ´ si tenemos en cuenta la simetr´ia de la funcion entonces: v v v v f(0,02 n) – f(-0,02 n) = f(0,02 n) – 1- f(0,02 n) = v 2f(0,02 n) – 1 = 0,99 =? v f(0,02 n) = 0,995

edu.red

CAPITULO 6. TOEREMA DEL LIMITE CENTRAL. v exp(- x2)dx = 0,87673 66 ´ ´ si tenemos en cuenta las tablas entonces vemos que v v f(0,02 n) = 0,995 ?? (0,02 n) = 2,58

de esta forma podemos calcular n n = 2,58 0,02 2 = 16641 ´ ˜ ´ = i como quer´iamos hacer ver.

Ejercicio 6.2.7 Supongamos que extraemos una muestra aleatoria simple de una poblaci´on que se distribuye segun una uniforme U [0,2]. Encontrar aproxim

Partes: 1, 2, 3
 Página anterior Volver al principio del trabajoPágina siguiente