Solucion. Sea {Xi}481 v.a.i.i.d. ? U [0,2],entonces E(Xi) = 1, var(Xi) = 1 3 de?nimos X = ?i Xi 48 =? E(X) = 1 var(X) = 1 1 3 48 = 1 144 entonces P 0,8 = X = 1,1 = P 0,8- 1 1 12 = X = 1,1- 1 1 12 = P -2,4 = X = 1,2 = 0,87673 1 2p 1,2 -2,4 1 2 alternativamente mediante las tablas
P -2,4 = X = 1,2 = f(1,2) – f(-2,4) = f(1,2) + f(2,4) – 1 = 0,8849+ 0,9918- 1 = 0,8767 ´ ´ como quer´iamos hacer ver.
Ejercicio 6.2.8 Se elige un punto aleatorio (X1,….,Xn) con n = 100 en el espacio aleatorio de dimensi´on 100. suponien- do que las variables aleatorias (X1,….,Xn) son idependientes e i.d. (v.a.i.i.d.) segun la uniforme U [-1,1]. Encontrar aproximadamente la probabilidad de que el cuadrado de la distancia del punto al origen sea menos que 40.
Solucion. Tenemos que calcular la P i 100 ? X2 = 40 i=1 i ´ haciendo X2 = Z, la funcion de densidad es:
f(x) = 1 2 0 ?x ? [-1,1] resto
?100 1 Zi – nµ ns = v ? Xi – nµ < v 67 6.2. EJEMPLOS
entonces µ : = E(Zi) = 1 -1 x2 2 dx = 1 3 , i ,E(Z2) = 1 -1 x4 2 dx = 1 5 =? s2 : = var(Zi) = 1 5 – 1 3 2 = 4 45 , por lo tanto E 100 ? Zi i=1 = nµ = 100 3 , var 100 ? Zi i=1 = ns2 = 400 45 as´i pues mediane el TCL P 100 ? Zi = 40 i=1 = P i=v 2 40- nµ ns2 = P(Y = 2,236) P(Y = 2,236) = 0,9873 como quer´iamos hacer ver.
Ejercicio 6.2.9 Sean Xi = 1,…,n los resultados de medir con un aparato una determinada magnitud µ. Supongamos que las v.a. {Xi}i est´an id´enticamente distribuidas i.d. con media µ y varianza s2. ¯ ¯ 1.
2. ¯ ¯ Calcular el n tal que el 95% de los casos en que realizamos estas mediciones la diferencia entre µ y µ = (? Xi)/n sea inferior a 0,01s i.e. (µ – µ) < 0,01s.
Si estimamos la magnitud por µ = ? piXi con ? pi = 1. ¿Cual debe ser ahora la condici´on para que el 95% de los casos en que realizamos estas mediciones la diferencia entre µ y µ sea inferior a 0,01s i.e. ¯ ¯ ´ ´ (µ – µ) < 0,01s.
Solucion. Para calcular el n tal que (µ – µ) < 0,01s pensamos en las siguiente estimacion: P 1 n ? Xi – µ < 0,01s = 0,95 i.e. P v ns 0,01ns ns = 0,95 por el T.C.L la variable Z ? N(0,1), debemos buscar un n tal que v P(Z = 0,01 n) = 0,95
encontrando que (mirando las tablas) v
Con respecto a la segunda pregunta debemos observar que en este caso no podemos aplicar el T.C.L ya que las ´ si E ? piXi = µ y var ? piXi = s2 ? p2 i
CAPITULO 6. TOEREMA DEL LIMITE CENTRAL. s = v , Sn – nE[Xi] Sn 3 3 Sn 3 68 ´ ´ entonces P(|X – E| = t) = var(X) t2 i.e. P ? piXi – µ = 0,001s = i s2 ? p2 (0,01)2 s2 = 0,05 implica que ? p2 i = 5· 10-6 i= ´ como quer´iamos hacer ver.
Ejercicio 6.2.10 Sea (Xi)100 ? U [-5,5], sea S100 = ? Xi. Determinar aproximadamente la posibilidad de que la v.a. S100 sea en valor absoluto mayor que 3.
Solucion. Vemos que E[Xi] = 0, i var(Xi) = E X2 = (5+ 5)2 12 = 100 12 = 25 3 =? 5 3 teniendo encuenta el TCL la v.a. v s n = v Sn 3 50 ? N(0,1), de esta forma llegamos a que P(|S100| > 3) =
= P(S100 < -3) + P(S100 > 3) = v v v P < -3 + P 50 50 50 > 3 v 3 50 = = P(Z < -0,103) + P(Z > 0,103) por lo tanto P(|S100| > 3) ˜ 2P(Z > 0,103) = 0,9204 ta y como quer´iamos hacer ver.
Ejercicio 6.2.11 Se lanzan tres monedas A; P(C) = 1 P(X) = 0 , B; P(C) = 2/3 P(X) = 1/3 , D; P(C) = 1/2 P(X) = 1/2 , ´ y denotamos por Yn al numero de caras total que han salido despu´es de lanzar las tres monedas n-veces. Determinar, n tal que P |Yn – E[Yn]| > 1 6 < 1 10 . ´ ´ Solucion. Llamaremos Xi al numero de caras obtenidas en el l´anzamiento i-´esimo. P(Xi = 1) = 1· 1 3 · 1 2 1 = , 6 P(Xi = 2) = 1· 2 3 · 1 2 + 1 1 · 3 2 1 = , 2 P(Xi = 3) = 1· 2 3 · 1 2 1 = , 3
69 6.2. EJEMPLOS
de esta forma tenemos que Yn = ? Xi n -? N(0,1) ´ y aplicando TCL, tenemos que ? Xi – ? E[Xi] s(? Xi)
Calculamos la espe y la var de Xi, siendo estas: E[Xi] = 13 6 , var(Xi) = 17 36 , por lo tanto P |Z| > v n 6s < 0,1 entonces F v n 6s = 0,95 de esta forma estimamos n v n 6s = 1,645 =? n = (1,645)2 · 17 = 46. ´ ´ tal y como quer´iamos hacer ver.
Ejercicio 6.2.12 ¿Qu´e probabilidad de ganar tiene un individuo que apuesta a que el numero de caras en 100 tiradas de una moneda insesgada di?era de 50 al menos en 4?.
Solucion. Vemos que P(C) = P(X) = 1 2 , por lo que X ? Bernoulli, E[X] = np, var(X) = npq. as´i que en este caso con n = 100, tenemos que var(X) = 25, s = 5. E[X] = 50,
Queremos calcular la probabilidad de que P ? Xi – 50 = 4 El TCL nos dice que P ? Xi – 50 5 = 4 5 = 0,7881 vemos que 4 5 = 0,8, as´i que hechando mano de las tablas llegamos al resultado obtenido. ´ Ejercicio 6.2.13 Se lanza una moneda 100 veces, calcular la probabilidad de que el numero de caras total est´e comprendido entre (50,60), i.e. P 50 < ? Xi < 60 =??
CAPITULO 6. TOEREMA DEL LIMITE CENTRAL. – 3 ? Xn -? N(0,1). ? Xn ? N(0,1). – E v -? N(0,1), v n -? N(0,1). -? N(0,1). 70 ´ ´ ´ Solucion. Sea Yn = ? Xi, donde Yn ? Bin(n, p) = Bin(100,1/2), por lo que E[X] = 50, var(X) = 25, s = 5. ´ El teorema de Moivre permite aproximar Y mediante una dsitribucion N (50,5) o lo que es lo mismo
P(50 < Y < 60) = P(0 < Z < 2) = 04772 observar que Z = Y-50 5 . Ejercicio 6.2.14 Sea (Xi) v.a.i. tal que P(Xn = ±1) = 1 4 , P(Xn = ±n) = 1 2n3 , P(Xn = 0) = 1 2 1 n 1 con n = 2. Estudiar si (Xi) veri?ca el TCL.
´ que var(Xn) = 2. Por el TCL se veri?ca 1 2 1/2 L Como ? P(Xn = Xn) < 8 1 2 1/2 L entonces ambas series son equivalentes en el l´imite, por lo que se cumple que
Sn L n s/ n donde 2 sn = n 2 +? j-1 ~ n 2 + logn =? s n/2 -? 1, por lo que Sn sn L Ejercicio 6.2.15 Sea (Yi) v.a.i.i.d tal que E[Yi] = 0, var(Yi) = 1. Sea Zn v.a.i. tal que P(Zn = ±n) = 1 2n2 , P(Zn = 0) = 1- 1 n2 , de?nimos Xn = Yn + Zn con Sn = ? Xi. Estudiar si (Xi) veri?ca el TCL. y si existe an tal que Sn an L
vn -? N(0,1), vn -? N(0,1), -? N(0,1) y de aqu´i Xn no cumple TCL. P(1900 < S < 2200) ˜ v e-u /2du. – E v -? N(0,1), Sn – nµ Sn – 2000 P a ˜ = N ˜ = b ˜ = v b ˜ = nµ + bs n a = – v , v 71 ´ 6.2. EJEMPLOS
Solucion. Vemos que (Yn) veri?ca TCL. de?nimos Sn = ?Yi entonces S L n por otro lado P(Zn = 0) < 8 entonces Xn,Yn son equivalentes en el l´imite por lo que S L n y como se veri?vica que var(Sn) = v 2n , no se veri?ca que Sn sn L ´ Ejercicio 6.2.16 Se lanza un dado sim´etrico 12000 veces. Sea S el numero de veces que aparece el 6. Calcular (a,b) para que b 1 2p a 2 ´ Solucion. Sea S = 12000 ? i=1 Xi tal que E[Xi] = 1 6 = µ, i 1 6 – 1 36 = 5 36 , var(Xi)
s = E X2 – E[Xi]2 = v 5 = , 6 Sn n s/ n L normalizamos
por lo que v s n = v s 12000 ˜ := N 1 2p ˜ b ˜ a e-x 2/2 dx ˜ v a = nµ + as n , v donde
donde nµ = 2000, por lo que v as n ˜ = a – nµ = -100, 100 s n v bs n = 200, b = 200 s n tal y como quer´iamos hacer ver.
CAPITULO 6. TOEREMA DEL LIMITE CENTRAL. ? s(Sn) (Xn – ?n) fYn(t) = -? N(0,1) 72 ´ ´ Ejercicio 6.2.17 Sea (Xi) v.a.i. tal que (Xi) ? Poisson(?n > 0), con ??n = 8, Sn = ? Xn. Calcular la funci´on Yn = Sn – E[Sn] var(Sn) ´ caracter´isatica de
y estudiar si veri?ca TCL.
Solucion. Tenemos que E[Xn] = var(Xn) = ?n, fXn(t) = exp(?n (exp(it) – 1)), al ser las Xn v.a.i. entonces var(Sn) = 2 ??n = Bn, s(Sn) = Bn, Yn = 1 las
por lo que indp ?fXn-?n t Bn = ?exp -?ni t Bn exp ?n exp i t Bn – 1 = 2 = expBn exp i t Bn – i t Bn – 1 ´ ´ ´ haciendo un desarrollo de Taylor ex ˜ 1+ x + 12×2…. fYn(t) -? exp(-t2/2) := fN(0,1)(t)
tal y como quer´iamos hacer ver.
Ejercicio 6.2.18 Lanzamos muchas veces una moneda de tal forma que la P(C) = 0,1. Los lanzamientos son independi- entes y llamaremos a la variable T1 al numero de lanzamientos hasta que sale cara por primera vez. Contamos, desde ese momento, el numero de lanzamientos hasta que salga la siguiente. Sea T2 ese numero de lanzamientos as´i hasta 40. Sea 40
P(400 < T < 490)
Solucion. ´ P(400 < T < 490) = 490 ? i=400 i – 1 39 p40 (1- p)i-40 utilizando el TCL tenemos que T – E[T] s(T) L donde (Ti) E[Ti] = 1 p = 10, var(Ti) = 1- p p2 = 90, y por lo tanto E[T] = 10· 40 = 400, var(T) = 90· 40 = 3600, s(T) = 60,
˜ v ? Xi -? 1+ A. ? Xi -? E[Xi]. 73 6.2. EJEMPLOS
de esta forma P(400 < T < 490) = P(0 = T – 400 = 90) = P 0 = T – 400 60 = 90 60 = = P 0 = T – 400 60 = 3 2 1 2p b a e-u 2/2 du = = F 3 2 – F(0) ˜ 0,43 ´ ˜ ´ sin embargo al ser n = 40, i.e. un numero muy pequeno la aproximacion por el TCL no es muy buena en este caso.
Ejercicio 6.2.19 Una m´aquina tiene i-piezas, que denotamos por Ci, que son substituibles en cuanto se produce un fallo. Cada pieza i tiene una vida media Xi tal que fXi(x) = exp(A – x) 0 x > A > 0 resto 1. Comprobar que 1 n c.s. 2. ´ Calcular el numero de piezas de recambio necesario para asegurarnos el funcionamiento de la m´aquina durante T > ´ 100A, con una probabilidad de 0,95.
Solucion. Aplicando Kolgomorov vemos que (Xn) veri?ca la LF tal que E[Xi] = 1+ A, entonces 1 n c.s. Con respecto a la segunda pregunta, vemos que tenemos que calcular un n tal que P ? Xi = 100A = 0,95. var[Xi] = 1, Vemos que (Xi – A) ~ exp(? = 1), por lo que E[Xi] = 1+ A, y por lo tanto, de?nimos ? Xi – n(1+ A) 1 ? N (0,1), Y =
entonces (mirando las tablas) vemos que 100A – n(1+ A) -1,65, de esta forma llegamos a que n (1, 65+ 100A) 1+ A , tal y como quer´iamos hacer ver.
Cap´itulo 7
Camino aleatorio y martingalas
7.1. Camino aleatorio
El objeto matem´atico es (X1,…,Xn) v.a.i. tales que P(Xi = 1) = p, P(Xi = -1) = 1- p, n Sn = S0 + ? Xi i=1 ?? Sn = Sn-1 + Xn S1 = a + ? donde S0 es un dato inicial. Un primer ejemplo es el de la ruleta. Un jugador empieza con una fortuna a, y apuesta cada vez siempres 1 al rojo. Denotamos por Sn la fortuna acumulada en tiempo n. Por lo tanto S0 = a ? ? 1 rojo -1 negro o 0. en general tenemos que Sn = Sn-1 + ? ? ? 1 rojo -1 negro o 0. con Xi = ? ? ? 1 rojo -1 negro o 0. ´ De?nicion 7.1.1 Si p = q = 1/2 entonces el camino es sim´etrico. Si p = q entonces asim´etrico.
Nos interesa conocer la variable Sn para un n-?jo, en el ejemplo anterior tenemos que Sn ? [-n,n]. Al mismo tiempo queremos saber P(Sn = 0). Por ejemplo si n = 2 2
1 0 0 -1 -2 75
CAPITULO 7. CAMINO ALEATORIO Y MARTINGALAS v 76 ´ ´ vemos que si n = 2 es par, entonces Sn = {-2,0,2} solo puede tomar estos valores mientras que si n es impar no puede tomar por ejemplo el cero, n = 3, entonces Sn = {-3,-1,1,3}. Vamos tomando una idea de los posibles valores Si n es par P(Sn = k) Si n es impar P(Sn = k) = 0, si k es impar, = 0, si k es par, Si n y k par n + k 2 ? Z, P(Sn = k) = 2 n+k 2 p n+k 2 q n+k 2 ´ Proposicion 7.1.1 Tenemos un camino asim´etrico con S0 = 0. La probabilidad de regresar in?nitas veces al cero, S0 = 0, es 0. Si es sim´etrico entonces es 1.
Nos preguntamos ahora por E[Sn] n = E S0 + ? Xi = a + nE[X1] = a + n(p – q), i=1 2 = n E X1 – E(X1)2 = n 1- (p – q)2 = 4npq, var(Sn)
s(Sn) n = var ? Xi i=1 = 2 npq, 2 donde (p + q)2 = 1,X1 = 1.
Teorema 7.1.1 Consideramos un camino aleatorio con S0 = 0. 1.
2. Si es sim´etrico, i.e. p = q, entonces
i La probabilidad de regresar in?nitas veces al cero es 1 ii La esperanza del tiempo del primer regreso es 8
Si el camino es asim´etrico entonces
i La probabilidad de regresar in?nitas veces al cero es 0 ii La esperanza condicionada del tiempo del primer regreso condicionada con regresar alguna vez es 4pq |p – q|(1- |p – q|) Teorema 7.1.2 P(Sn regrese al menos 1 vez a 0) = ? ? ? 1 si p = q 1- |p – q| si p = q La ruina del jugador.
Partimos de con una fortuna inicial a, y apostamos 1 a rojo siempre hasta que la fortuna sea N o nos hayamos arruinado. Fn = Fn-1 + Xn = Fn-1 + ? ? ? 1 rojo p -1 negro o 0. q queremos saber la probabilidad de que Fn = 0 i.e. el jugador se arruine. Supondremos que p = q.
77 ´ 7.2. MARTINGALAS
7.2. Martingalas
De?nicion 7.2.1 Esperanza condicionada. Partiendo de la de?nici´on de probabilidad condicionada P(A | B) = P(A n B) P(B) de?nimos la esperanza condicionada E(X | B) = E(X1lB) P(B) = 1 P(B) B XdP, = P(A | B), E(1lA | B) E(1lC) =
= E(1lA1lB) P(B) P(C). Ejemplo 7.2.1 Lanzamos tres monedas de 10, 20 y 50 c´entimos. De?nimos la v.a. ? que cuenta el valor obtenido de lasua de las monedas que han salido cara i.e. val (?) ? [0,80].¿Cu´al es el valor esperado si al lanzar las tres monedas sabemos que han salido dos caras?.
Sea B la v.a. que de?ne el evento salir dos caras, por lo tanto B = {CCX,CXC,XCC} son las tres posibiladades que tenemos con igual probabilidad i.e. 1/8 = 1/23 . De esta forma vemos que ? (CCX) ? (CXC) ? (XCC) = 10+ 20 = 30, = 10+ 50 = 60, = 20+ 50 = 70, por lo tanto E(? | B) = 1 P(B) B ?dP = 1 3/8 30 8 + 60 8 + 70 8 = 160 3 . ´ De?nicion 7.2.2 Sea ? = {B1,…,Bn} de?nimos la probabilidad total P(A) = ? P(A | Bi) P(Bi) y la esperanza total como E(X) = ? E(X | Bi) P(Bi) ´ Tenemos ahora una s-´algebra, G, que est´a generada por una particion ?nita P = {B1,…,Bn}, donde #G =2N eventos. Tenemos que E(X | G) = ? E(X | Bi)1lBi
Ejemplo 7.2.2 Boreles etc… P = {B1,…,Bn} = {[0,1/3],(1/3,2/3),[2/3,1]}, donde G es la uni´on de elementos de P y #G =2N = 8. Entonces E(X | [0,1/3]) = E X1l[0,1/3] P([0,1/3]) = 1 P(B) B XdP = 1 1/3 1/3 0 x2dx = 1 27 donde X = x2.
CAPITULO 7. CAMINO ALEATORIO Y MARTINGALAS 1 1 78 ´ ˜ Ejemplo 7.2.3 Veremos una pequena variaci´on del ejemplo anterior en la que X = ? = 2×2, pero esta vez condicionamos con respecto a una v.a. ? discreta que toma los siguientes valores ? = ? ? ? 1 x ? [0,1/3) 2 0 x ? [1/3,2/3) x ? [2/3,1] E(? | [0,1/3]) = 1 P(B) B XdP = 1 1/3 1/3 0 2x2dx = 2 27 , E(? | [1/3,2/3)) = 2/3 1/3 1/3 2x2dx = 14 27 , E(? | [2/3,1]) = 1 1/3 2/3 2x2dx = 38 27 , ˜ Ejemplo 7.2.4 Veremos una pequena variaci´on del ejemplo anterior en la que ? = 2×2, pero esta vez condicionamos con respecto a una v.a. ? continua que toma los siguientes valores ? = 2 x x ? [0,1/2) x ? [1/2,1] la t´actica en este caso es algo diferente. En primer lugar vemos que en [0,1/2), ? puede ser tratada como v.a. discreta por lo que E(? | [0,1/2)) = 1 P(B) B XdP = 1 1/2 1/2 0 2x2dx = 1 6 , observ´andose (y esto es fundamental) que A E(? | ?)dP = A ?dP, i.e. 1/2 0 1 6 dx = 1 12 = 1/2 0 2x2dx. Sin embargo con respecto al segundo intervalo, debemos observar que si E(? | ?) = ?, ?x ? [1/2,1] entonces A E(? | ?)dP = A ?dP, por lo tanto llegamos a la conclusi´on de que E(? | ?) = 1/6 2×2 x ? [0,1/2) x ? [1/2,1] . ´ Observacion 7.2.1 Detr´as de todo esto est´a el teorema de Radon-Nykodin. A ?dP = A ?dP con ? = E(? | ?).
79 7.2. MARTINGALAS
Vemos que podemos interpretar E(X | G) de dos maneras: 1.
2. ´ E(X | G) eslav.a.G-mediblequemejoraproximaensentidoL2 a X.i.e.aquellaqueminimiza E |X -Y|2 .
E(X | G) es la unica v.a. que cumple ´ ´ E(Y1lA) = E(X1lA) i.e. E(|X -Y|1lA) = 0, condicion de perpendicularidad.
Proposicion 7.2.1 Se veri?can las siguientes propiedades 1. 2. 3. 4. 5. Si X es G-medible, entonces E(X | G) = X, Si X es independiente de G, entonces E(X | G) = E(X) = const, E(E(X | G) | H) = E(X | H), H ? G E(E(X | G)) = E(X) E(aX + b | G) = aE(X | G) + b. ´ ´ ´ i ˜ i De?nicion 7.2.3 Filtracion de informacion. Sean (Xi)n =1 v.a.i.d (no se exige independencia, s´olo igualdad de distribuciones). De?nimos F1 = s(X1), i.e. las variables que s eexpresan en funci´on de X1 i.e. que si conocemos X1 tenemos el valor de esa variable. F2 = s(X1,X2), ….., Fn = s(X1,….,Xn). Anadimos F0 = s(Ø,?), Decimos que la sucesi´on (Fi) de s-´algebras es una ?ltraci´on asociada a (Xi)n =1 si F1?…….? Fn Ejemplo 7.2.5 Sean (Xi) v.a.i. tales Xi = ? ? ? 1 rojo p -1 negro o 0, q. i ´ y sea Sn = ?n =1 Xi, entonces Fi = s(X1,…,Xi) son las v.a. que quedan ?jadas al conocer los resultados hasta el tiempo i.
De?nicion 7.2.4 Martingala. Decimos que la sucesi´on (Xi) de v.a. es una martingala si 1. 2. Xn es Fn-medible, para n = 1,2,… E(Xn+1 | Fn) = Xn, para n = 1,2,…. ´ ´ ´ ´ ´ Vemos que la primera de las propiedades nos dice que Xn solo depende de la informacion disponible en tiempo n. Mientras que la segunda nos dice que la mejor estimacion (aproximacion) de Xn+1 conocida la informacion disponible en tiempo n es Xn. De esta forma, si E(Xk | Fn) = Xn, k = n,
CAPITULO 7. CAMINO ALEATORIO Y MARTINGALAS 80
entonces ´
E(Xk | Fk-1) = Xk-1, i si condicionamos sobre k – 2 entonces
E(Xk | Fk-2) = E(E(Xk | Fk-1) | Fk-2)) = E(Xk-1 | Fk-2) = Xk-2, en particular si n = 0, E(Xk | F0) = X0, donde E(Z | F0) = E(Z) as´i que X0 = E(Xk). Veamos una serie de ejmplos para intentar aclarar este concepto.
Ejemplo 7.2.6 Sean (Xi)n =1 v.a.i. tales qie E(Xi) = 0, para todo i = 1,..,n. De?nimos Sn = n ? Xi i=1 y la ?ltraci´on asociada Fn = s(X1,….,Xn). Veamos que Sn es una martingala. 1. Sn es adaptada a la ?ltraci´on Fn ya que E(|Sn|) < 8, i.e. E(|Sn|) = E n ? Xi i=1 = n ? |E(Xi)| < 8. i=1 2. Vemos igualmente que E(Sn+1 | Fn) = Sn, donde E(Sn+1 | Fn) = E(Xn+1 | Fn) + E(Sn | Fn) = E(Xn+1) + Sn = Sn, por lo tanto Sn es martingala con respecto a la ?ltraci´on Fn.
Ejemplo 7.2.7 En este ejemplo X es una v.a. y F1?…….? Fn uma ?ltraci´on donde de?nimos
Xn = E(X | Fn)
para todo n = 1,2,… Al igual que en el ejemplo anterior, vemos que
|Xn| = |E(X | Fn)| = E((|Xn| | Fn))
entonces E(|Xn|) = E(E|Xn| | Fn)) = E(|X|) < 8.
De igual forma vemos que
E(Xn+1 | Fn) = E(E(X | Fn+1) | Fn) = E(X | Fn) = Xn
ya que Fn? Fn+1 y por lo tanto Xn es martingala con respecto a la ?ltraci´on Fn.
81 ´ E(?i) = E ?j 7.2. MARTINGALAS
De la de?nicion de martingala se desprende con facilidad el siguiente resultado.
Lema 7.2.1 Si ?n es martingala entonces
para todo i = j,i, j = 1,2,…. ´ En efecto. Basta con observar que por de?nicion ?n = E(?n+1 | Fn), para n = 1,2,…. por lo que tomando esperanzas en ambos lados de la igualdad obtenemos
E(?n) = E E(?n+1 | Fn) = E ?n+1 siendo cierto el resultado para n = 1,2,…. i Ejemplo 7.2.8 Sean (Xi)n =1 v.a.i. De?nimos el camino aleatorio sim´etrico Sn = n ? Xi i=1 tal que P(Xn = ±1) = 1 2 . 2 Queremos hacer ver que Sn – n, es martingala con respecto a la ?ltraci´on asociada Fn = s(X1,….,Xn). En primer lugar observamos que 2 Sn – n = n ? Xi i=1 2 – n, donde |Sn| = n ? Xi i=1 = n ? |Xi| < n, i=1 observar que la v.a. Xi = ±1. De esta forma vemos que E 2 Sn – n 2 = E Sn + n = n2 + n < 8, 2 por lo tanto Sn – n es integrable. De igual forma vemos que 2 2 2 Sn+1 = (Xn+1 + Sn)2 = Xn+1 + 2Xn+1Sn + Sn, por lo que 2 E Sn+1 | Fn 2 2 2 2 = E Xn+1 | Fn + 2E(Xn+1Sn | Fn) + E Sn | Fn = = E Xn+1 + 2SnE(Xn+1) + Sn,
CAPITULO 7. CAMINO ALEATORIO Y MARTINGALAS .. ´ 82
ahora bien, si tenmos en cuenta que 2 E Xn+1 = 1, E(Xn+1) = 0, 2 2 E Sn+1 | Fn = 1+ Sn, entonces
as´i que 2 2 E Sn+1 – (n + 1) | Fn = Sn – n.
El siguiente ejemplo dar´a pi´e a una serie de resultados y teoremas.
Ejemplo 7.2.9 Sean (Xi) v.a.i. tales P(Xi = ±1) = 1/2. La fortuna inicial es X0 = a. Tenemos una estrategia de apuestas, regla para apostar en tiempo n (por rojo)
f (X1,….,Xn-1) = ?n donde ?n es el montante de la apuesta en tiempo n. Obviamente ?n es Fn-1 medible. La fortuna en tiempo n es Xn. (?n < 0 es apuesta por negro). X1
X2
Xn = X0 + ?1X1, 2 = X1 + ?2X2 = X0 + ?1X1 + ?2X2 = X0 + ? ?iXi, i=1
. n = Xn-1 + ?nXn = X0 + ? ?iXi,, i=1 ´ Teorema 7.2.1 (Xn) es martingala.
Corolario 7.2.1 Si Xn es la fortuna en tiempo n siguiendo cualquier estrategia entonces
E(Xk) = X0 que es la fortuna inicial.
De?nicion 7.2.5 Tiempo de parada asociado a una ?ltraci´on. T es una regla de parada, se trata de un v.a. en (?,F,P) que toma valores en N, (T = n) ? Fn.
7.3. Ejemplos.
7.3.1. Camino aleatorio.
Ejemplo 7.3.1 Dos part´iculas realizan caminos aleatorios sim´etricos simult´aneos e independientes que comienzan en el origen. Demuestra que la probabilidad de que se encuentren en la misma posici´on tras n pasos es 1 2 2n n ? k=0 n k 2 y deduce que n ? k=0 n k 2 = 2n n
7.3. EJEMPLOS. 83 ´ i Solucion. Sean (Xi)n =1 , de?nimos Un = n ? Xi i=1 y sean i (Yi)n =1 , de?nimos Vn = n ? Xi i=1 con p = 1 2 P(Xi = ±1) = 1 2 = P(Yi = ±1) P(Un = Vn) = 1 22n n ? k=0 n k 2 . Sabemos que P(Sn = k) = n n+k 2 p n+k 2 q n-k 2 ´ entonces si p = q = 1/2, la expresion anterior queda reducida a: P(Sn = k) = 1 2 n n n+k 2 ´ si n y k son ambos pares o impares. Consideremos el caso n = 3. Entonces tanto U3 como V3 solo pueden tomar los siguientes valores; {3,1,-1,-3}, entonces P(U3 = V3) = ? k=-3,-1,1,3 P(U3 = k,V3 = k) = ? indpend. k=-3,-1,1,3 P(U3 = k) P(V3 = k) = = i.d. ? k=-3,-1,1,3 P(U3 = k) = 1 23 2 3 0 2 + 3 1 2 + 3 2 2 + 3 3 2 = 1 23 2 3 ? k=0 3 k 2 ´ de esta forma se completa para el caso general n
Ejemplo 7.3.2 Considera un camino aleatorio en los enteros con barreras absorbentes en 0 y en N ? N, en el que en cualquier tiempo la part´icula da un salto de -1 con probabilidad a, permanece donde estaba con probabilidad ß, o da un salto de +1 con probabilidad ?, donde a, ß,? > 0 y a+ ß+? = 1. La condici´on de absorci´on signi?ca que si en un tiempo n la part´icula est´a en nivel N (respectivamente, 0), en el paso siguiente continua en ese nivel. Supongamos que la part´icula comienza en tiempo 0 en el nivel a, 0 = a = N. Demuestra que la probabilidad de que la part´icula quede atrapada en el nivel N es: a N (si a = ?) (a/?)a – 1 (a/?)N – 1 (si a = ?). ´ Demostracion. Se puede pensar en este problema como en una cadena de Markov. Pensemos en un caso sencillo en el que N = 5 Xn = ? ? ? 1 ? 0 -1 ß a
CAPITULO 7. CAMINO ALEATORIO Y MARTINGALAS ? 0 1 0 ? 1 ? ? 2 0 a ? 3 ? ? ? ? ? ? ? ? ? ? ? ? ? N = (I – Q)1 = ?? ? – ? ??-1 0 ?? ? T = NI = µ? ? ? ? ? ? -a 3ß – 3ß2 + ß3 + 2a? – 2aß? – 1 ? P = NR = µ? a -?a2 + aß2 – 2aß + a ? 1 ? ? 2 ? ? a2?2 – 3aß ? + 6aß? – 3a? + ß4 – 4ß3 + 6ß2 – 4ß + 1 ? T = ? ? -ß -ß?+2ß+?2+?-1 – – ? ? ? ? ? P = ? ? -? ß -4ß -3ß2?2+6ß2+6ß?2-4ß+?4-3?2+1 ß -4ß -3ß ? +6ß +6ß?2-4ß+?4-3?2+1 -?3 4 ? 4 ß -4ß -3ß ? +6ß2+6ß?2-4ß+?4-3?2+1 ß -4ß3-3ß2?2+6ß2+6ß?2-4ß+?4-3?2+1 -?3 4 ? 4 -? 4 ? ? ? 84 ´ De?nimos las matrices como ? 0 1 ? a ß ? 0 0 ? 4 0 0 2 0 ? ß a 0 3 0 0 ? ß a 4 0 0 0 ? ß 5 0 0 0 0 ? 5 0 0 0 0 0 1 ? ? ? ? ? ? =? ? ? ? ? ? ? 1 2 3 4 0 1 ß a 0 0 0 2 ? ß a 0 0 3 0 ? ß a 0 4 0 0 ? ß 0 0 a 0 0 0 1 5 0 0 0 ? 0 5 0 0 0 0 0 1 ? ? ? ? ? ? por lo tanto ?? 1 ?? 0 ?? 0 0 1 0 0 0 1 ? ? 0 ß 0 ? ? a 0 ? ? 0 ? ß a 0 ? ß 0 ?? ? ?? ? ? ? ? ? 0 0 0 1 0 0 a ß ? – 3ß + 3ß2 – ß3 + ?2 + ?3 – 2a? – 2ß? – a?2 – ß?2 + ß2? + 2aß? + 1 -a2? + aß2 + aß? – 2aß – a? + a – ß3 + ß2? + 3ß2 – ß?2 – 2ß? – 3ß + ?2 + ? + 1 -a2ß + a2 + aß2 + aß? – 2aß – a?2 – a? + a – ß3 + ß2? + 3ß2 – 2ß? – 3ß + ? + 1 a – 3ß + a2 + a3 + 3ß2 – ß3 – 2aß – 2a? + aß2 – a2ß – a2? + 2aß? + 1 ? ? ? ? ? donde µ = 1 a2?2-3aß2?+6aß?-3a?+ß4-4ß3+6ß2-4ß+1 ? 0 ? ? ? ? -a3 (ß – 1) ? a4 N ?4 -?3ß – 1 ? ß2? – 2ß? – a?2 + ? -? 3ß – 3ß2 + ß3 + 2a? – 2aß? – 1 ? ? ? ? 3 ? ? 4 esto quiere decir que la probabilidad de caer en el estado absorvente 0 estando en a = 1 es P = -a 3ß – 3ß2 + ß3 + 2a? – 2aß? – 1 a2?2 – 3aß2? + 6aß? – 3a? + ß4 – 4ß3 + 6ß2 – 4ß + 1 mientras que la de caer en N estando en a = 1 es P = ?4 2 mientras que los tiempos medios de caer en un estado absorvente vienen dados por la matriz T. Si a = ?, entonces obtenemos ? ? ? ? ? ß-1 2 ?-ß+1 -ß2-ß?+2ß+?2+?-1 ?-ß+1 -ß2-ß?+2ß+?2+?-1 ß-1 ? ? ? ? ? ? ? ? ? ? ß-1 ß2?-2ß?-?3+?
?4 ß3-3ß2-2ß?2+3ß+2?2-1 -ß2-ß?+2ß+?2+?-1 ß3-3ß2-2ß?2+3ß+2?2-1 ?4 4 3 4 3 2 2 2 ß2?-2ß?-?3+? ß-1 3 2 2
ß -4ß3-3ß2?2+6ß2+6ß?2-4ß+?4-3?2+1 ß -4ß3-3ß2?2+6ß2+6ß?2-4ß+?4-3?2+1
ß4-4ß3-3ß2?2+6ß2+6ß?2-4ß+?4-3?2+1 ß -4ß3-3ß2?2+6ß2+6ß?2-4ß+?4-3?2+1 ? ? ? ? ? ?
? ? ?4 ?-?4? +2 + ?? 3+ – 3? 3? 2- +4 1?+1 -?4+2?3+3?2-4?+1 ? 4 1 ? ? ? ? ? ?-2?2 ?-1 -?3 -?4+2?3+3?2-4?+1 ? ?-?4+2?3+3?2-4?+1 ? ? = ? 5 5 ?, ?-?4+2? ? 3- +2 3? ?2-4?+1 ? -?3 -?4+2?3+3?2-4?+1 P = ? ?-1 2 ? ? 2 3 ? ?-?4+2?3+3?2-4?+1 ? T = ? ? ? ? ? = ? 9 ? (q/p) – 1 (p/q) – 1 = (p – q) N 85 7.3. EJEMPLOS.
Estudiaremos el caso a = ß = ? = 1/3, obteniendo los siguientes resultados 3 2
5 5 ? ? 3 2 ? ? 5 5 ? ? 1 4 ?4 ?3+?2-3?+1 5 5 -?4+2?3+3?2-4?+1 ? ? ? ? ?3 1 ?3 1 -?2– ?+1 1 ?2-3?+1 1 ?2-3?+1 -?2– ?+1 6
6 ?
? ? ? ? ? 9 ? ? tal y como quer´iamos hacer ver.
Ejemplo 7.3.3 Una part´icula realiza un camino aleatorio en los enteros (con p = P(Xn = +1)) comenzando desde S0 = 0. Prueba (sugerencia: condicionar sobre el primer movimiento) que si p = 1/2 , entonces la probabilidad de alcanzar el nivel N o el nivel -N antes de volver a visitar el nivel de partida 0 es (p – q) pN + qN pN – qN ´ ¿Cu´anto vale esa probabilidad en el caso sim´etrico p = q?.
Solucion. Siguiendo la sugerencia vemos que condicionando sobre el primermovimiento P(A) = = P(A | S1 = 1) P(S1 = 1) + P(A | S1 = -1) P(S1 = -1) = P(A | S1 = 1) p + P(A | S1 = -1)q donde P(A | S1 = 1) = P(B | S0 = 1) donde B representa el suceso llegar a N antes que a 0. (recordar la ruina del jugador). P(A | S1 = 1)
P(A | S1 = -1) = 1-
= 1- (q/p)N – (q/p) (q/p)N – 1 (p/q)N – (p/q) (p/q)N – 1 por lo tanto P(A) = 1- (q/p)N – (q/p) (q/p)N – 1 p + 1- (p/q)N – (p/q) (p/q)N – 1 q = = -p + q N + -q + p N = (-p + q) pN qN – pN + (-q + p)qN pN – qN pN + qN p – qN . Si p = q entonces P(A) = 1 1 N 2 + 1 1 N 2 = 1 N ´ tal y como quer´iamos hacer ver.
Ejemplo 7.3.4 Denotemos por N el numero de veces que un camino asim´etrico (con p = P(Xn = +1)) vuelve a visitar el punto de partida. Denotemos por a la cantidad |p – q|. Demuestra que la variable aleatoria discreta N tiene funci´on de masa P(N = k) = a(1- a)k ´ para k = 0,1,2, . . . Deduce que el numero medio de visitas a 0 es 1- a/a.
CAPITULO 7. CAMINO ALEATORIO Y MARTINGALAS .. 86 ´ Ejemplo 7.3.5 Damos un nivel N ? N. Consideremos un camino aleatorio en los enteros (con p = P(Xn = +1)) que parte de un nivel a, 0 = a = N, y que tiene una barrera absorbente en el nivel 0 y con una barrera retenedora en el nivel N. Es decir: P(Sn+1 = N | Sn = N) = p, P(Sn+1 = N – 1 | Sn = N) = (1- p), P(Sn+1 = 0 | Sn = 0) = 1, P(Sn+1 = ±1 | Sn = N) = 0. ´ ´ ´ Denotemos por e(a) el tiempo medio que transcurre hasta que el camino aleatorio queda absorbido en el nivel 0. Demuestra que e(a) = a(2N – a + 1) si p = 1/2.
Solucion. Planteamiento: e(a) es el tiempo medio que transcurre hasta que el camino aleatorio queda absorbido en el nivel 0. Sea T la v.a. que registra el numero n en el que por primera vez se alcanza N o 0. Si se comienza en a e(a) = E(Ta) = 1 2 (e(a + 1) + 1) + 1 2 (e(a – 1) + 1) por lo tanto, si manipulamos 0 = 1 2 (e(a + 1) – e(a) + 1) + 1 2 (e(a – 1) – e(a) + 1) de esta forma vemos que e(a + 1) – e(a) = e(a) – e(a – 1) – 2 donde e(0) = 0, e(N) = 0 por lo que e(1) – e(0) e(2) – e(1) e(3) – e(2) = e(1) – e(0) – 2· 0, = e(1) – e(0) – 2· 1, = e(1) – e(0) – 2· 2,
. e(a) – e(a – 1) = e(1) – e(0) – 2(a – 1) as´i que e(a) – e(0) = [e(1) – e(0)] a – 2 a-1 ? i i=0 i -1 e(a) = e(1)a – a(a – 1) con ?a=0 i = a(a – 1)/2
vemos igualmente que 0 = e(N) = e(1)N – N (N – 1) =? e(1) = N – 1 ´ ´ por lo que e(a) = (N – 1) a – a(a – 1) = a(N – a).
Pero en este ejercicio estamos suponiendo que e(0) = 0 y e(N) = 0 por lo que deberemos obtener la relacion entre e(N) y e(N – 1), llegando as´i a obtener la relacion buscada.
87 ´ 7.3. EJEMPLOS.
Ejemplo 7.3.6 Consideramos el camino aleatorio n Sn = S0 + ? Xi i=1 que arranca en S0 = 0, para el que P Xj = 1 = p,?j = 1,2,…. Calcular P(S4 = 2,S8 = 0,S12 = 2).
Solucion. Consideramos sucesivamente P(S4 = 2,S8 = 0,S12 = 2) = = P(S12 = 2 | S4 = 2,S8 = 0) P(S4 = 2,S8 = 0) = P(S12 = 2 | S4 = 2,S8 = 0) P(S8 = 0 | S4 = 2) P(S4 = 2) y pasamos a calcular cada una de estas probabilidades
P(S12 = 2 | S4 = 2,S8 = 0) = P 12 4 8 ? Xi = 2 | ? Xi = 2,? Xi = 0 i=1 i=1 i=1 i observamos que al ser ?8=1 Xi = 0, entonces en el sumatorio 12 8 12 12 ? Xi = ? Xi + ? Xi = ? Xi = 2, i=1 i=1 i=9 i=9 entonces P 12 4 8 ? Xi = 2 | ? Xi = 2,? Xi = 0 i=1 i=1 i=1 = P 12 8 ? Xi = 2 | ? Xi = 0 i=9 i=1 = P ind
= P v.i.i.d 12 ? Xi = 2 i=9 4 ? Xi = 2 i=1 ´ ´ porlo tanto P(S4 = 2) = 4p3q i.e. existen 4 formas de llegar hasta la posicion 2 empezando en S0 = 0 (pensar en los diagramss de arboles) por ejemplo los caminos posibles son: 1. 2. 3. 4. empezar en 0, pasar a 1, pasar a 2, pasar a 3 y de all´i pasar a 2, i.e.p3q empezar en 0, pasar a 1, pasar a 2, pasar a 1 y de all´i pasar a 2, i.e.p2qp empezar en 0, pasar a 1, pasar a 0, pasar a 1 y de all´i pasar a 2, i.e.pqp2 empezar en 0, pasar a -1, pasar a 0, pasar a 1 y de all´i pasar a 2, i.e.qp3. De igual forma se prueba que P(S8 = 0 | S4 = 2) = 4pq3 ´ y por ultimo P(S4 = 2) = 4p3q 4pq3 4p3q = 43p7q5, as´i que la probabilidad buscada es:
P(S4 = 2,S8 = 0,S12 = 2) = 4p3q
tal y como quer´iamos hacer ver.
CAPITULO 7. CAMINO ALEATORIO Y MARTINGALAS x + (1- x) 88 ´ ´ 7.3.2. Martingalas y todo eso.
Ejemplo 7.3.7 Calcular la esperanza condicionada cuando ? = 2×2, y ? toma los siguientes valores
? = 1- |2x – 1|
para todo x ? [0,1].
Solucion. El truco est´a en ver que existe una simetr´ia en x = 1/2 de tal forma que ?(x) = ?(1- x), A = 1- A por lo tanto E(? | ?)(x) = E(? | ?)(1- x) as´i que A 2x2dx = A x2dx + A x2dx = = A x2dx + 1-A (1- x)2 dx = A x2dx + A (1- x)2 dx = = A 2 2 dx. Ahora bien, si tenemos en cuenta que A E(? | ?)dP = A ?dP, ´ entonces llegamos a la conclusion de que
E(? | ?)(x) = x2 + (1- x)2 ,
tal y como quer´iamos hacer ver.
Ejemplo 7.3.8 Calcular la esperanza condicionada cuando ? = 2×2, y ? toma los siguientes valores ? = 2x 2x – 1 x ? [0,1/2) x ? [1/2,1] ´ Solucion. Detr´as de todo esto est´a el teorema de Radon-Nykodin. B?(B+ 12) ?dP = B?(B+ 12) ?dP con ? = E(? | ?). i.e. B?(B+ 12) ?dP = B?(B+ 12) 2x2dx = B 2x2dx + 1 B+ 2 2x2dx = = B 2x2dx + B 2 x + 1 2 2 dx = 2 B x2 + x + 1 2 2 dx, ´ ´ de esta forma la funcion ? debe satisfacer la relacion ? (x) = ? x + 1 2 ,
? x2 + x + 1 89 7.3. EJEMPLOS.
para todo x ? [0,1/2). Entonces B?( B+ 12 ) ?dP = B ? (x)dx + B+ 12 ? (x)dx = B ? (x)dx + B ? x + 1 2 dx = = B ? (x)dx + B ? (x)dx = 2 B ? (x)dx, por lo que ? (x) = x2 + x + 1 2 2 , ´ para todo x ? [0,1/2). De igual forma procedemos cuando x ? [1/2,1], por lo tanto llegamos a la conclusion de que E(? | ?) = ? ? 2 ? x2 + x – 1 ? 2 2
2 x ? [0,1/2) x ? [1/2,1] , ´ ´ tal y como quer´iamos hacer ver.
Ejemplo 7.3.9 Tenemos una baraja francesa, que consta de 52 cartas, la mitad rojas y la otra mitad negras. Las cartas est´an situadas boca abajo en un mont´on bien barajado. En cada movimiento, el jugador descubre una carta de la baraja, observa su color y la deposita en la mesa. En cierto momento (y s´olo una vez), el jugador dir´a “¡roja en la siguiente!”. Ganar´a si, efectivamente, la carta que se descubre es efectivamente roja. Llamemos (Fn) a la ?ltraci´on que recoge la informaci´on sobre las primeras n extracciones. Llamemos Rn al numero de cartas rojas que quedan en el mont´on justo despu´es de descubrir la n-esima carta. Calcula E(Rn | Fn-1) y comprueba que la sucesi´on de variables aleatorias (Xn), dada por Xn = Rn 52- n ´ ´ para cada n, es una martingala.
Solucion. Situ´emonos justo antes de la extraccion n: quedan 52 – n + 1 cartas (pues se han descubierto n – 1 de las 52 originales), de las cuales, Rn – 1 son rojas. As´i que, si sale roja en la siguiente, lo que se produce con probabilidad Rn-1 52- n + 1 , la variable Rn toma el valor Rn-1 – 1. Y si sale negra (esto tiene probabilidad 1 – Rn-1/(52 – n + 1)), entonces Rn vale Rn-1. De manera que E(Rn | Fn-1) = (Rn-1 – 1) Rn-1 52- n + 1 + Rn-1 1- Rn-1 52- n + 1 = = Rn-1 – Rn-1 52- n + 1 . Obs´ervese que (Xn) es Fn-medible. Ahora calculamos E(Xn | Fn-1) = E Rn 52- n | Fn-1 = 1 52- n E(Rn | Fn-1) = 1 52- n Rn-1 – Rn-1 52- n + 1 = = Rn-1 52- (n – 1) = Xn-1, por lo tanto Xn es martingala para cada n.
CAPITULO 7. CAMINO ALEATORIO Y MARTINGALAS 90 ´ n Ejemplo 7.3.10 Sea Y1,Y2,… una sucesi´on de variables aleatorias i.i.d., cada una de las cuales toma los valores 1 y -1 con probabilidades p y q. Llamemos Sn = Y1 + …. + Yn, con S0 = 0. Comprueba que la sucesi´on de variables aleatorias (Xn)8 =0 dada por Sn q es martingala con respecto a la ?ltraci´on (Fn) asociada a las Yj y deduce que E p q Sn = 1. ´ i Solucion. Vemos que las (Yi)n =1 son v.a.i. tales que P(Yi = 1) = p,
y que adem´as hemos ?jado S0 = 0, de tal forma que
Sn = P(Yi = -1) = q,
n ? Yi, i=1 ´ ´ pero queremos hacer ver que Xn es martingala con respecto a la ?ltracion Fn = s(Y1,Y2,…,Yn). Como en los ejemplos anteriores tendremos que ver que Xn es medible y que E(Xn | Fn-1) = Xn-1. Por lo tanto. 1. Xn es Fn-medible Xn = p q i Sn=?n =1 Yi = ?(Y1,Y2,…,Yn) ´ 2. i.e. es una funcion de las v.a. Y1,Y2,…,Yn. E(Xn | Fn-1) = Xn-1, vemos que Xn = p q Sn = p q Sn-1+Yn = p q Sn-1 p q Yn = Xn-1 p q Yn por lo tanto E(Xn | Fn-1) = E Xn-1 p q Yn | Fn-1 = Xn es Fn – medible, = Xn-1E p q Yn | Fn-1 = lineal = Xn-1E p q Yn Yn es independiente de Fn-1, p q Yn por lo tanto
E(Xn | Fn-1) = Xn-1E
ahora veamos con un poco m´as de detalle el c´alculo de E p q Yn .
7.3. EJEMPLOS. 91 Sabemos que P(Yi = 1) = p, P(Yi = -1) = q, por lo tanto p q Yn = p q q p p q por lo tanto E p q Yn = p q p + q p q = p + q = 1 ´ de esta forma vemos que es martingala.
Tal y como quer´iamos hacer ver.
Ejemplo 7.3.11 De nuevo las Yn son variables que toman valores ±1, pero ahora con probabilidad 1/2 cada uno de ellos. Tomamos una sucesi´on de numeros (a1,a2,…) y consideramos la sucesi´on de variables aleatorias (Xn) dadas por X0 = 0, Xn = Xn-1 + anYn, 2 para cada n = 1. Comprueba que la sucesi´on (Zn) dada por
Zn = Xn – bn, bn = j n ? a2, j=1 es Fn-martingala y deduce que 2 E Xn = j n ? a2. j=1 ´ i Solucion. Vemos que las (Yi)n =1 son v.a.i. tales que
P(Yi = 1) = 1 2 = P(Yi = -1), ´ ´ y que adem´as hemos ?jado X0 = 0, de tal forma que
Xn = Xn-1 + anYn pero queremos hacer ver que Zn es martingala con respecto a la ?ltracion Fn = s(Y1,Y2,…,Yn). Como en los ejemplos anteriores tendremos que ver que Zn es medible y que E(Zn | Fn-1) = Zn-1. Por lo tanto vemos que 2 E(Xn – bn | Fn-1) = E((Xn-1 + anYn)2 – bn | Fn-1) = 2 2 2 2 2 2 2 2 2 = E(Xn-1 + 2anXn-1Yn + anYn – bn | Fn-1) = = Xn-1 + anE Yn + 2anXn-1E(Yn) – bn = = Xn-1 + an – bn = Xn-1 – bn-1 = Zn-1 2 donde E Yn = 1, y E(Yn) = 0.
CAPITULO 7. CAMINO ALEATORIO Y MARTINGALAS ea(?i=1 92 ´ i ´ i Ejemplo 7.3.12 Sean Yn variables aleatorias i.i.d., tales que Yn > 0 y E(Yi)n =1 = 1. Comprueba que la sucesi´on (Xn) dada por n X0 = 0, Xn = ?Yj, j=1 para cada n = 1, es martingala.
Solucion. Vemos que las (Yi)n =1 son v.a.i.i.d. tales que Yn > 0 y E(Y) = 1. Por lo tanto E(Xn |
= Fn-1) = E
n-1 ? YjE(Yn), j=1 n ?Yj | Fn-1 j=1
por ser independientes de Fn-1 = n-1 ? Yj j=1 ya que E(Yi) = 1 = Xn-1
por lo tanto es martingala.
Ejemplo 7.3.13 Sean Yn variables aleatorias i.i.d. que toman valores ±1 con probabilidad 1/2 cada una. Comprueba que la sucesi´on (Xn) dada por X0 = 0, Xn = ea(?Yi) cosh(a)n , ´ ´ para cada n = 1, es martingala.
Solucion. Vemos como antes que E(Xn | Fn-1) = E ea(?Yi) cosh(a)n | Fn-1 = = 1 cosh(a)n E ea(?Yi) | Fn-1 i – =
= 1 cosh(a) 1 cosh(a) ne
ne i – a(?n =1 1 Yi)
a(?n =1 1 Yi) E eaYn | Fn-1
E eaYn observamos ahora que E eaYn = 1 2 ea + e-a = cosh(a) por lo tanto E(Xn | Fn-1) = 1 cosh(a) n-1 n-1 Yi) = Xn-1 demostrando de esta forma que es martingala.
Cap´itulo 8
Distribuciones.
8.1. Distribuciones discretas
8.1.1. Bernoulli. 1. ´ Funcion generatriz GX(s) = q + ps. 2. ´ Funcion de masa pk = P(X = k) = pkq1-k = pk (1- p)1-k con k = 0,1. 3. ´ Funcion caracter´istica y generatriz de momentos ?X(t) = q + peit, MX(t) = q + pet. 4. Esperanza y varianza E[X] = p, var[X] = pq, s = v pq 5. Resumen ´ 8.1.2. Binomial.
Probabilidad de obtener exactamente k – exitos. ´ GX(s) = n ? k=0 n k pkqn-ksk = (q + ps)n . 1.
2. ´ Funcion generatriz
Funcion de masa Bin(n, p) = n k pkqn-k con k = 0,1,…. 93
CAPITULO 8. DISTRIBUCIONES. ps 94 ´ 3. ´ Funcion caracter´istica y generatriz de momentos ?X(t) = q + peit n , MX(t) = q + pet n . 4. Esperanza y varianza E(X) = np, var(X) = npq, s = v npq 5. Resumen . Teorema 8.1.1 Suma de binomiales independientes es otra binomial. ? Xi ? Bin ?ni, p
8.1.3. Geom´etrica.
Tiempo de espera hasta que aparece el suceso X por primera vez. 1. ´ Funcion generatriz GX(s) = k=1 8 ? pkqk-1sk = 1- qs. 2. ´ Funcion de masa Geo(p) = (1- p)k-1 p con k = 1,…. 3. ´ Funcion caracter´istica y generatriz de momentos ?X(t) = peit 1- qeit , MX(t) = pet 1- qet . 4. Esperanza y varianza E(X) = 1 p , var(X) = q p2 , s = q p2 . 5. Resumen ´ ´ ´ ´ ´ 8.1.4. Binomial negativa.
Si en vez de buscar la probabilidad de k exitos en n ensayos (n-?jo) consideramos la variable X igual al numero de fallos antes del exito n-esimo entonces encotramos la binomial negativa.
Observacion 8.1.1 Geom´etrica es un caso particular de una binomial negativa Geo BinN (1, p).
MX(t) = e?(e -1). 8.1. DISTRIBUCIONES DISCRETAS 95 ´ GX(s) = p 1- qs n . 1.
2. ´ Funcion generatriz
Funcion de masa BinN(n, p) = n + k – 1 k pnqk con k = 0,1,…. 3. ´ Funcion caracter´istica y generatriz de momentos ?X(t) = p 1- qeit n , MX(t) = p 1- qet n . 4. Esperanza y varianza E(X) = n p , var(X) = nq p2 , s = nq p2 5. Resumen 8.1.5. Poisson. 1. ´ Funcion generatriz GX(s) = exp(?(s – 1)). 2. ´ Funcion de masa Poisson(?) = exp(-?) ?k k! con k = 0,…. 3. ´ Funcion caracter´istica y generatriz de momentos ?X(t) = e? eit – 1 , t 4. Esperanza y varianza E(X) = ?, var(X) = ?, s = v ? ´ Teorema 8.1.2 La suma de Poissones independientes es otra Poisson de par´ametro ? = ??i
Observacion 8.1.2 Binomial ˜Poisson Bin(n, p) Poiss(?) / ? = np = 5 y p = 0,1.
CAPITULO 8. DISTRIBUCIONES. ´ 96
8.1.6. Hipergeom´etrica 1. ´ Funcion de masa fX(x) = k x N – k n – x N n 2. Esperanza y varianza E(X) = kn N , var(X) = N – n k n N – 1 N 1- k N , 8.2. Variables continuas (v.a.c.).
8.2.1. Uniforme en [a,b]. ´ ´ 1.
2. ´ Funcion de distribucion.
Funcion de densidad. ? ? FX(t) = ?
fX(t) = 0 t/b – a 1
1 b-a 0 / t < a t ? [a,b] t > b
t ? [a,b] t ? [a,b] 3. ´ Funcion caracter´istica y generatriz de momentos ?X(t) = eitb – eita it(b – a) , MX(t) = etb – eta t(b – a) . 4. Esperanza y varianza. E(X) = 1 2 (a + b), var(X) = 1 12 (b – a)2 . 8.2.2. Gamma. 1. ´ Funcion de densidad ?(p,a). fX(t) = ap G(p) xp-1e-ax 0 x > 0 resto donde G(p) = 8 0 xp-1e-xdx 2. ´ Funcion caracter´istica y generatriz de momentos ?X(t) = 1- it a -p , MX(t) = 1- t a -p . 3. Esperanza y varianza. E(X) = p a , var(X) = p a2 .
(p + q) (p + q + 1) v 97 8.2. VARIABLES CONTINUAS (V.A.C.).
8.2.3. Exponencial. 1. ´ ´ Funcion de distribucion. FX(t) = 1- exp(-?t) 0 t > 0 t = 0 2. ´ donde ? > 0. Funcion de densidad. fX(t) = ?exp(-?t) 0 t > 0 t = 0 ´ o fX(t) = ?exp(-?t)I(0,8) (x) exp(?) = ?(p = 1,?). 3. ´ vemos que
Funcion caracter´istica y generatriz de momentos ?X(t) = 1- it ? -1 , MX(t) = 1- t ? -1 . 4. Esperanza y varianza. E(X) = 1 ? , var(X) = 1 ?2 i Teorema 8.2.1 Sea X v.a. exponencial, entonces:
P(X > a + t | X > a) = P(A > t),
i.e. X tiene la propiedad de no memoria.
Teorema 8.2.2 (Xi)n =1 ? exp(?) v.a.i.i.d., entonces ? Xi ? ?(n,?).
8.2.4. Beta 1. ´ Funcion de densidad. fX(t) = 1 B(p,q) xp-1 (1- x)q-1 I(o,1)(x), 2. Esperanza y varianza. E(X) = p p + q , var(X) = pq 2 8.2.5. Normal. 1. ´ ´ Funcion de distribucion. FX(t) = 1 s 2p t -8 exp – 1 2 x – µ s 2 dx ?x ? R
CAPITULO 8. DISTRIBUCIONES. v ?X(t) = eitµ- 2s MX(t) = etµ- 2s 98 ´ 2. ´ Funcion de densidad. fX(t) = 1 s 2p exp – 1 2 x – µ s 2 ?x ? R 3. ´ Funcion caracter´istica y generatriz de momentos 1 2t2 , 1 2t2 . 4. Esperanza y varianza. E(X) = µ, var(X) = s2 Si X ? N(µ,s2), tipi?cando la variable i.e.
Z = X – µ s =? Z ? N(0,1) ´ Observacion 8.2.1 Aproximaci´on Normal de una binomial. Versi´on m´as simple del TCL (ver cap´itulo 7) Binomial Bin(n, p) ˜ ˜ Normal. v N(np, npq) i Si Bin(n, p) tal que np = 5 y nq = 5, entonces podemos aproximar dicha binomial mediante una distribuci´on normal. La probabilidad binomial P(k) puede aproximarse por la probabilidad normal
P(k) ˜ P(k – 0,5 = X = k + 0,5)
Teorema 8.2.3 Si {Xi}n =1 son v.a. independientes tales que Xi ? N(µi,si) ?i = 1,…,n entonces ? Xi ? N ?µi, ?si i i i . i Teorema 8.2.4 Si {Xi}n =1 son v.a. independientes tales que Xi ? N(µ,s) i.e. son v.a.i.i.d., entonces ?i Xi n s2 ? N µ, v n . 8.2.6. Cauchy 1. ´ Funcion de densidad. fX(t) = 1 ps 1+ 1 x-p 2 s . ´ 2.
3. Funcion caracter´istica
Esperanza y varianza. ?X(t) = eitp-s|t|.
E(X) =, var(X) = .
e- 2xx 2-1I(o,8)(x) G fX(t) = v n G 1 G 8.2. VARIABLES CONTINUAS (V.A.C.). 99 8.2.7. 2 ?n. Chi-cuadrado 2 ´ 2 i ?n. Distribucion Chi-cuadrado con n-grados de libertad. Consideramos (X1,….,Xn) v.a.i.i.d. que siguen una N(0,1). De?nimos n ?n = ? X2. (8.1) i=1 1. ´ Funcion de densidad. fX(t) = 1 2n/2G n 2 1 n ?x ? R vi´endose que 2 ?n = ? n 1 , 2 2 2. ´ Funcion caracter´istica y generatriz de momentos ?X(t) = (1- 2it)-n/2 , MX(t) = (1- 2t)-n/2 . 3. Esperanza y varianza. E(X) = n, var(X) = 2n. ´ 2 8.2.8. t-Student
t-Student, con n-grados de libertad, tn.
De?nicion 8.2.1 Considermos X ? N(0,1) e Y ? ?n de tal forma que (X,Y) son independientes, de?nimos tn = X Y n = 2 N(0, 1) ?n/n (8.2) ´ El c´alculo de la funcion de densidad es f´acil ya que al tratarse de v.a.i. entonces fXY = fX fY. 1. ´ Funcion de densidad. n+1 1 2 2 n 2 1+ x2 n – n+1 2 , ?x ? R 2. ´ Funcion caracter´istica y generatriz de momentos ?X(t) = (1- 2it)-n/2 , MX(t) = (1- 2t)-n/2 . 3. Esperanza y varianza. E(X) = 0, si n > 1, var(X) = n n – 2 , si n > 2. 4. tn;1-a = -tn;a
CAPITULO 8. DISTRIBUCIONES. 100 ´ 2 2 8.2.9. F Fisher-Snedecor
F Fisher-Snedecor. Fm,n con m y n grados de libertad. Sea X ? ?m, e Y ? ?n v.a.i. entonces de?nimos Fm,n = X m Y n = Xn Ym = 2 2 ?m/m ?n/n . (8.3) 1. ´ Funcion de densidad. fX(t) = G G m 2 m+n 2 G n 2 m n m 2 x m-2 2 1+ m n x – m+n 2 , ?x ? R 2. Esperanza y varianza. E(X) = m m – 2 , m > 2, var(X) = 2 n n – 2 2 m + n – 2 m(n – 4) , n > 4. 3. Propiedades a) Si X ? Fm,n =? 1 X ? Fn,m Fm;n;1-a
Fm;n;1-a =
= 1 Fn;m;1-a 1 Fm;n;a
Página anterior | Volver al principio del trabajo | Página siguiente |