Monografias.com > Sin categoría
Descargar Imprimir Comentar Ver trabajos relacionados

Apuntes de procesos estocasticos (página 3)




Enviado por Jabel70



Partes: 1, 2, 3

adamente la probabilidad de que la media muestral se encuentre entre 0,8 y 1,1 si el
tamano de la muestra es 48.

Solucion. Sea {Xi}481 v.a.i.i.d. ? U [0,2],entonces
E(Xi) = 1,
var(Xi) =
1
3
de?nimos
X =
?i Xi
48
=? E(X) = 1
var(X) =
1 1
3 48
=
1
144
entonces
P 0,8 = X = 1,1
=
P
0,8- 1
1
12
= X =
1,1- 1
1
12
=
P -2,4 = X = 1,2
= 0,87673
1
2p
1,2
-2,4
1
2
alternativamente mediante las tablas

P -2,4 = X = 1,2
= f(1,2) – f(-2,4) = f(1,2) + f(2,4) – 1
= 0,8849+ 0,9918- 1 = 0,8767
´
´
como quer´iamos hacer ver.

Ejercicio 6.2.8 Se elige un punto aleatorio (X1,….,Xn) con n = 100 en el espacio aleatorio de dimensi´on 100. suponien-
do que las variables aleatorias (X1,….,Xn) son idependientes e i.d. (v.a.i.i.d.) segun la uniforme U [-1,1]. Encontrar
aproximadamente la probabilidad de que el cuadrado de la distancia del punto al origen sea menos que 40.

Solucion. Tenemos que calcular la
P
i
100
? X2 = 40
i=1
i ´
haciendo X2 = Z, la funcion de densidad es:

f(x) =
1
2
0
?x ? [-1,1]
resto

Monografias.com

?100 1 Zi – nµ
ns
= v
? Xi – nµ
< v
67
6.2. EJEMPLOS

entonces
µ
:
= E(Zi) =
1
-1
x2
2
dx =
1
3
,
i
,E(Z2) =
1
-1
x4
2
dx =
1
5
=?
s2
:
= var(Zi) =
1
5

1
3
2
=
4
45
,
por lo tanto
E
100
? Zi
i=1
= nµ =
100
3
,
var
100
? Zi
i=1
= ns2 =
400
45
as´i pues mediane el TCL
P
100
? Zi = 40
i=1
= P
i=v
2
40- nµ
ns2
= P(Y = 2,236)
P(Y = 2,236) = 0,9873
como quer´iamos hacer ver.

Ejercicio 6.2.9 Sean Xi = 1,…,n los resultados de medir con un aparato una determinada magnitud µ. Supongamos que
las v.a. {Xi}i est´an id´enticamente distribuidas i.d. con media µ y varianza s2.
¯
¯
1.

2.
¯
¯
Calcular el n tal que el 95% de los casos en que realizamos estas mediciones la diferencia entre µ y µ = (? Xi)/n
sea inferior a 0,01s i.e.
(µ – µ) < 0,01s.

Si estimamos la magnitud por µ = ? piXi con ? pi = 1. ¿Cual debe ser ahora la condici´on para que el 95% de los
casos en que realizamos estas mediciones la diferencia entre µ y µ sea inferior a 0,01s i.e.
¯
¯ ´ ´
(µ – µ) < 0,01s.

Solucion. Para calcular el n tal que (µ – µ) < 0,01s pensamos en las siguiente estimacion:
P
1
n
? Xi – µ
< 0,01s
= 0,95
i.e.
P
v
ns
0,01ns
ns
= 0,95
por el T.C.L la variable Z ? N(0,1), debemos buscar un n tal que
v
P(Z = 0,01 n) = 0,95

encontrando que (mirando las tablas)
v

Con respecto a la segunda pregunta debemos observar que en este caso no podemos aplicar el T.C.L ya que las
´
si
E ? piXi = µ y var ? piXi = s2 ? p2
i

Monografias.com

CAPITULO 6. TOEREMA DEL LIMITE CENTRAL.
s = v ,
Sn – nE[Xi]
Sn 3 3 Sn 3
68
´ ´
entonces
P(|X – E| = t) =
var(X)
t2
i.e.
P
? piXi – µ
= 0,001s =
i
s2 ? p2
(0,01)2 s2
= 0,05
implica que
? p2
i
= 5· 10-6
i=
´
como quer´iamos hacer ver.

Ejercicio 6.2.10 Sea (Xi)100 ? U [-5,5], sea S100 = ? Xi. Determinar aproximadamente la posibilidad de que la v.a.
S100 sea en valor absoluto mayor que 3.

Solucion. Vemos que
E[Xi] = 0,
i
var(Xi) = E X2 =
(5+ 5)2
12
=
100
12
=
25
3
=?
5
3
teniendo encuenta el TCL la v.a.
v
s n
=
v
Sn 3
50
? N(0,1),
de esta forma llegamos a que
P(|S100| > 3)
=

=
P(S100 < -3) + P(S100 > 3) =
v v v
P < -3 + P
50 50 50
> 3
v
3
50
=
=
P(Z < -0,103) + P(Z > 0,103)
por lo tanto
P(|S100| > 3) ˜ 2P(Z > 0,103) = 0,9204
ta y como quer´iamos hacer ver.

Ejercicio 6.2.11 Se lanzan tres monedas
A;
P(C) = 1
P(X) = 0
,
B;
P(C) = 2/3
P(X) = 1/3
,
D;
P(C) = 1/2
P(X) = 1/2
,
´
y denotamos por Yn al numero de caras total que han salido despu´es de lanzar las tres monedas n-veces. Determinar, n tal
que
P |Yn – E[Yn]| >
1
6
<
1
10
.
´ ´
Solucion. Llamaremos Xi al numero de caras obtenidas en el l´anzamiento i-´esimo.
P(Xi = 1)
= 1·
1
3
·
1
2
1
= ,
6
P(Xi = 2)
=

2
3
·
1
2
+
1 1
·
3 2
1
= ,
2
P(Xi = 3)
=

2
3
·
1
2
1
= ,
3

Monografias.com

69
6.2. EJEMPLOS

de esta forma tenemos que
Yn =
? Xi
n
-? N(0,1)
´
y aplicando TCL, tenemos que
? Xi – ? E[Xi]
s(? Xi)

Calculamos la espe y la var de Xi, siendo estas:
E[Xi] =
13
6
,
var(Xi) =
17
36
,
por lo tanto
P |Z| >
v
n
6s
< 0,1
entonces
F
v
n
6s
= 0,95
de esta forma estimamos n
v
n
6s
= 1,645 =? n = (1,645)2 · 17 = 46.
´
´
tal y como quer´iamos hacer ver.

Ejercicio 6.2.12 ¿Qu´e probabilidad de ganar tiene un individuo que apuesta a que el numero de caras en 100 tiradas de
una moneda insesgada di?era de 50 al menos en 4?.

Solucion. Vemos que
P(C) = P(X) =
1
2
,
por lo que X ? Bernoulli, E[X] = np, var(X) = npq. as´i que en este caso con n = 100, tenemos que
var(X) = 25,
s = 5.
E[X] = 50,

Queremos calcular la probabilidad de que
P
? Xi – 50
= 4
El TCL nos dice que
P
? Xi – 50
5
=
4
5
= 0,7881
vemos que
4
5
= 0,8, as´i que hechando mano de las tablas llegamos al resultado obtenido.
´
Ejercicio 6.2.13 Se lanza una moneda 100 veces, calcular la probabilidad de que el numero de caras total est´e comprendido
entre (50,60), i.e.
P 50 < ? Xi < 60 =??

Monografias.com

CAPITULO 6. TOEREMA DEL LIMITE CENTRAL.
– 3
? Xn -? N(0,1).
? Xn ? N(0,1).
– E
v
-? N(0,1),
v n
-? N(0,1).
-? N(0,1).
70
´ ´
´
Solucion. Sea Yn = ? Xi, donde Yn ? Bin(n, p) = Bin(100,1/2), por lo que
E[X] = 50,
var(X) = 25,
s = 5.
´
El teorema de Moivre permite aproximar Y mediante una dsitribucion N (50,5) o lo que es lo mismo

P(50 < Y < 60) = P(0 < Z < 2) = 04772
observar que Z =
Y-50
5
.
Ejercicio 6.2.14 Sea (Xi) v.a.i. tal que
P(Xn = ±1) =
1
4
,
P(Xn = ±n) =
1
2n3
,
P(Xn = 0) =
1
2
1
n
1
con n = 2. Estudiar si (Xi) veri?ca el TCL.

´
que var(Xn) = 2. Por el TCL se veri?ca
1
2
1/2
L
Como
? P(Xn = Xn) < 8
1
2
1/2
L
entonces ambas series son equivalentes en el l´imite, por lo que se cumple que

Sn
L
n
s/ n
donde
2
sn =
n
2
+? j-1 ~
n
2
+ logn
=?
s
n/2
-? 1,
por lo que
Sn
sn
L
Ejercicio 6.2.15 Sea (Yi) v.a.i.i.d tal que
E[Yi] = 0,
var(Yi) = 1.
Sea Zn v.a.i. tal que
P(Zn = ±n) =
1
2n2
,
P(Zn = 0) = 1-
1
n2
,
de?nimos Xn = Yn + Zn con Sn = ? Xi. Estudiar si (Xi) veri?ca el TCL. y si existe an tal que
Sn
an
L

Monografias.com

vn -? N(0,1),
vn -? N(0,1),
-? N(0,1) y de aqu´i Xn no cumple TCL.
P(1900 < S < 2200) ˜ v
e-u /2du.
– E
v
-? N(0,1),
Sn – nµ
Sn – 2000
P a ˜ = N ˜ = b ˜ = v
b ˜ = nµ + bs n
a = – v ,
v
71
´
6.2. EJEMPLOS

Solucion. Vemos que (Yn) veri?ca TCL. de?nimos Sn = ?Yi entonces
S L
n
por otro lado
P(Zn = 0) < 8
entonces Xn,Yn son equivalentes en el l´imite por lo que
S L
n
y como se veri?vica que var(Sn) =
v
2n , no se veri?ca que
Sn
sn
L
´
Ejercicio 6.2.16 Se lanza un dado sim´etrico 12000 veces. Sea S el numero de veces que aparece el 6. Calcular (a,b) para
que
b
1
2p a
2
´
Solucion. Sea
S =
12000
?
i=1
Xi
tal que
E[Xi]
=
1
6
= µ,
i
1
6

1
36
=
5
36
,
var(Xi)

s
= E X2 – E[Xi]2 =
v
5
= ,
6
Sn
n
s/ n
L
normalizamos

por lo que
v
s n
=
v
s 12000
˜
:= N
1
2p
˜
b
˜
a
e-x
2/2
dx
˜
v
a = nµ + as n ,
v
donde

donde nµ = 2000, por lo que
v
as n
˜
= a – nµ = -100,
100
s n
v
bs n
= 200,
b =
200
s n
tal y como quer´iamos hacer ver.

Monografias.com

CAPITULO 6. TOEREMA DEL LIMITE CENTRAL.
? s(Sn) (Xn – ?n)
fYn(t) =
-? N(0,1)
72
´ ´
Ejercicio 6.2.17 Sea (Xi) v.a.i. tal que (Xi) ? Poisson(?n > 0), con ??n = 8, Sn = ? Xn. Calcular la funci´on
Yn =
Sn – E[Sn]
var(Sn)
´
caracter´isatica de

y estudiar si veri?ca TCL.

Solucion. Tenemos que
E[Xn] = var(Xn) = ?n,
fXn(t) = exp(?n (exp(it) – 1)),
al ser las Xn v.a.i. entonces
var(Sn) =
2
??n = Bn,
s(Sn) = Bn,
Yn =
1
las

por lo que
indp
?fXn-?n
t
Bn
=
?exp
-?ni
t
Bn
exp ?n exp i
t
Bn
– 1
=
2
= expBn
exp i
t
Bn
– i
t
Bn
– 1
´
´ ´
haciendo un desarrollo de Taylor ex ˜ 1+ x + 12×2….
fYn(t) -? exp(-t2/2) := fN(0,1)(t)

tal y como quer´iamos hacer ver.

Ejercicio 6.2.18 Lanzamos muchas veces una moneda de tal forma que la P(C) = 0,1. Los lanzamientos son independi-
entes y llamaremos a la variable T1 al numero de lanzamientos hasta que sale cara por primera vez. Contamos, desde ese
momento, el numero de lanzamientos hasta que salga la siguiente. Sea T2 ese numero de lanzamientos as´i hasta 40. Sea
40

P(400 < T < 490)

Solucion.
´
P(400 < T < 490) =
490
?
i=400
i – 1
39
p40 (1- p)i-40
utilizando el TCL tenemos que
T – E[T]
s(T)
L
donde (Ti)
E[Ti] =
1
p
= 10,
var(Ti) =
1- p
p2
= 90,
y por lo tanto
E[T] = 10· 40 = 400,
var(T) = 90· 40 = 3600,
s(T) = 60,

Monografias.com

˜ v
? Xi -? 1+ A.
? Xi -? E[Xi].
73
6.2. EJEMPLOS

de esta forma
P(400 < T < 490)
=
P(0 = T – 400 = 90) = P 0 =
T – 400
60
=
90
60
=
=
P 0 =
T – 400
60
=
3
2
1
2p
b
a
e-u
2/2
du =
=
F
3
2
– F(0) ˜ 0,43
´ ˜ ´
sin embargo al ser n = 40, i.e. un numero muy pequeno la aproximacion por el TCL no es muy buena en este
caso.

Ejercicio 6.2.19 Una m´aquina tiene i-piezas, que denotamos por Ci, que son substituibles en cuanto se produce un fallo.
Cada pieza i tiene una vida media Xi tal que
fXi(x) =
exp(A – x)
0
x > A > 0
resto
1.
Comprobar que
1
n
c.s.
2.
´
Calcular el numero de piezas de recambio necesario para asegurarnos el funcionamiento de la m´aquina durante T >
´
100A, con una probabilidad de 0,95.

Solucion. Aplicando Kolgomorov vemos que (Xn) veri?ca la LF tal que E[Xi] = 1+ A, entonces
1
n
c.s.
Con respecto a la segunda pregunta, vemos que tenemos que calcular un n tal que
P
? Xi = 100A
= 0,95.
var[Xi] = 1,
Vemos que (Xi – A) ~ exp(? = 1), por lo que
E[Xi] = 1+ A,
y por lo tanto, de?nimos
? Xi – n(1+ A)
1
? N (0,1),
Y =

entonces (mirando las tablas) vemos que
100A – n(1+ A)
-1,65,
de esta forma llegamos a que
n
(1, 65+ 100A)
1+ A
,
tal y como quer´iamos hacer ver.

Monografias.com

Cap´itulo 7

Camino aleatorio y martingalas

7.1. Camino aleatorio

El objeto matem´atico es (X1,…,Xn) v.a.i. tales que P(Xi = 1) = p, P(Xi = -1) = 1- p,
n
Sn = S0 + ? Xi
i=1
??
Sn = Sn-1 + Xn
S1 = a +
?
donde S0 es un dato inicial.
Un primer ejemplo es el de la ruleta. Un jugador empieza con una fortuna a, y apuesta cada vez siempres 1 al
rojo. Denotamos por Sn la fortuna acumulada en tiempo n. Por lo tanto S0 = a
?
? 1 rojo
-1 negro o 0.
en general tenemos que
Sn = Sn-1 +
?
?
? 1 rojo
-1 negro o 0.
con
Xi =
?
?
? 1 rojo
-1 negro o 0.
´
De?nicion 7.1.1 Si p = q = 1/2 entonces el camino es sim´etrico. Si p = q entonces asim´etrico.

Nos interesa conocer la variable Sn para un n-?jo, en el ejemplo anterior tenemos que Sn ? [-n,n]. Al mismo
tiempo queremos saber P(Sn = 0). Por ejemplo si n = 2
2

1
0
0
-1
-2
75

Monografias.com

CAPITULO 7. CAMINO ALEATORIO Y MARTINGALAS
v
76
´
´
vemos que si n = 2 es par, entonces Sn = {-2,0,2} solo puede tomar estos valores mientras que si n es impar no
puede tomar por ejemplo el cero, n = 3, entonces Sn = {-3,-1,1,3}. Vamos tomando una idea de los posibles
valores
Si n es par P(Sn = k)
Si n es impar P(Sn = k)
= 0, si k es impar,
= 0, si k es par,
Si n y k par
n + k
2
?
Z, P(Sn = k) =
2
n+k
2
p
n+k
2
q
n+k
2
´
Proposicion 7.1.1 Tenemos un camino asim´etrico con S0 = 0. La probabilidad de regresar in?nitas veces al cero, S0 = 0,
es 0. Si es sim´etrico entonces es 1.

Nos preguntamos ahora por
E[Sn]
n
= E S0 + ? Xi = a + nE[X1] = a + n(p – q),
i=1
2
= n E X1 – E(X1)2 = n 1- (p – q)2 = 4npq,
var(Sn)

s(Sn)
n
= var ? Xi
i=1
= 2 npq,
2
donde (p + q)2 = 1,X1 = 1.

Teorema 7.1.1 Consideramos un camino aleatorio con S0 = 0.
1.

2.
Si es sim´etrico, i.e. p = q, entonces

i La probabilidad de regresar in?nitas veces al cero es 1
ii La esperanza del tiempo del primer regreso es 8

Si el camino es asim´etrico entonces

i La probabilidad de regresar in?nitas veces al cero es 0
ii La esperanza condicionada del tiempo del primer regreso condicionada con regresar alguna vez es
4pq
|p – q|(1- |p – q|)
Teorema 7.1.2
P(Sn regrese al menos 1 vez a 0) =
?
?
? 1 si p = q
1- |p – q| si p = q
La ruina del jugador.

Partimos de con una fortuna inicial a, y apostamos 1 a rojo siempre hasta que la fortuna sea N o nos hayamos
arruinado.
Fn = Fn-1 + Xn = Fn-1 +
?
?
? 1 rojo p
-1 negro o 0. q
queremos saber la probabilidad de que Fn = 0 i.e. el jugador se arruine. Supondremos que p = q.

Monografias.com

77
´
7.2. MARTINGALAS

7.2. Martingalas

De?nicion 7.2.1 Esperanza condicionada. Partiendo de la de?nici´on de probabilidad condicionada
P(A | B) =
P(A n B)
P(B)
de?nimos la esperanza condicionada
E(X | B)
=
E(X1lB)
P(B)
=
1
P(B) B
XdP,
= P(A | B),
E(1lA | B)
E(1lC)
=

=
E(1lA1lB)
P(B)
P(C).
Ejemplo 7.2.1 Lanzamos tres monedas de 10, 20 y 50 c´entimos. De?nimos la v.a. ? que cuenta el valor obtenido de lasua
de las monedas que han salido cara i.e. val (?) ? [0,80].¿Cu´al es el valor esperado si al lanzar las tres monedas sabemos
que han salido dos caras?.

Sea B la v.a. que de?ne el evento salir dos caras, por lo tanto
B = {CCX,CXC,XCC}
son las tres posibiladades que tenemos con igual probabilidad i.e. 1/8 = 1/23 . De esta forma vemos que
? (CCX)
? (CXC)
? (XCC)
= 10+ 20 = 30,
= 10+ 50 = 60,
= 20+ 50 = 70,
por lo tanto
E(? | B) =
1
P(B)
B
?dP =
1
3/8
30
8
+
60
8
+
70
8
=
160
3
.
´
De?nicion 7.2.2 Sea ? = {B1,…,Bn} de?nimos la probabilidad total
P(A) =
? P(A | Bi) P(Bi)
y la esperanza total como
E(X) =
? E(X | Bi) P(Bi)
´
Tenemos ahora una s-´algebra, G, que est´a generada por una particion ?nita P = {B1,…,Bn}, donde #G =2N
eventos. Tenemos que
E(X | G) = ? E(X | Bi)1lBi

Ejemplo 7.2.2 Boreles etc… P = {B1,…,Bn} = {[0,1/3],(1/3,2/3),[2/3,1]}, donde G es la uni´on de elementos de
P y #G =2N = 8. Entonces
E(X | [0,1/3]) =
E X1l[0,1/3]
P([0,1/3])
=
1
P(B)
B
XdP =
1
1/3
1/3
0
x2dx =
1
27
donde X = x2.

Monografias.com

CAPITULO 7. CAMINO ALEATORIO Y MARTINGALAS
1
1
78
´
˜
Ejemplo 7.2.3 Veremos una pequena variaci´on del ejemplo anterior en la que X = ? = 2×2, pero esta vez condicionamos
con respecto a una v.a. ? discreta que toma los siguientes valores
? =
?
?
? 1
x ? [0,1/3)
2
0
x ? [1/3,2/3)
x ? [2/3,1]
E(?
| [0,1/3]) =
1
P(B)
B
XdP =
1
1/3
1/3
0
2x2dx =
2
27
,
E(?
|
[1/3,2/3)) =
2/3
1/3 1/3
2x2dx =
14
27
,
E(?
|
[2/3,1]) =
1
1/3 2/3
2x2dx =
38
27
,
˜
Ejemplo 7.2.4 Veremos una pequena variaci´on del ejemplo anterior en la que ? = 2×2, pero esta vez condicionamos con
respecto a una v.a. ? continua que toma los siguientes valores
? =
2
x
x ? [0,1/2)
x ? [1/2,1]
la t´actica en este caso es algo diferente.
En primer lugar vemos que en [0,1/2), ? puede ser tratada como v.a. discreta por lo que
E(? | [0,1/2)) =
1
P(B)
B
XdP =
1
1/2
1/2
0
2x2dx =
1
6
,
observ´andose (y esto es fundamental) que
A
E(? | ?)dP =
A
?dP,
i.e.
1/2
0
1
6
dx =
1
12
=
1/2
0
2x2dx.
Sin embargo con respecto al segundo intervalo, debemos observar que si
E(? | ?) = ?,
?x ? [1/2,1]
entonces
A
E(? | ?)dP =
A
?dP,
por lo tanto llegamos a la conclusi´on de que
E(? | ?) =
1/6
2×2
x ? [0,1/2)
x ? [1/2,1]
.
´
Observacion 7.2.1 Detr´as de todo esto est´a el teorema de Radon-Nykodin.
A
?dP =
A
?dP
con ? = E(? | ?).

Monografias.com

79
7.2. MARTINGALAS

Vemos que podemos interpretar E(X | G) de dos maneras:
1.

2.
´
E(X | G) eslav.a.G-mediblequemejoraproximaensentidoL2 a X.i.e.aquellaqueminimiza E |X -Y|2 .

E(X | G) es la unica v.a. que cumple
´
´
E(Y1lA) = E(X1lA)
i.e. E(|X -Y|1lA) = 0, condicion de perpendicularidad.

Proposicion 7.2.1 Se veri?can las siguientes propiedades
1.
2.
3.
4.
5.
Si X es G-medible, entonces E(X | G) = X,
Si X es independiente de G, entonces E(X | G) = E(X) = const,
E(E(X | G) | H) = E(X | H), H ? G
E(E(X | G)) = E(X)
E(aX + b | G) = aE(X | G) + b.
´ ´ ´
i
˜
i
De?nicion 7.2.3 Filtracion de informacion.
Sean (Xi)n =1 v.a.i.d (no se exige independencia, s´olo igualdad de distribuciones). De?nimos F1 = s(X1), i.e. las variables
que s eexpresan en funci´on de X1 i.e. que si conocemos X1 tenemos el valor de esa variable. F2 = s(X1,X2), ….., Fn =
s(X1,….,Xn). Anadimos F0 = s(Ø,?),
Decimos que la sucesi´on (Fi) de s-´algebras es una ?ltraci´on asociada a (Xi)n =1 si
F1?…….? Fn
Ejemplo 7.2.5 Sean (Xi) v.a.i. tales
Xi =
?
?
? 1 rojo p
-1 negro o 0, q.
i
´
y sea Sn = ?n =1 Xi, entonces Fi = s(X1,…,Xi) son las v.a. que quedan ?jadas al conocer los resultados hasta el tiempo i.

De?nicion 7.2.4 Martingala. Decimos que la sucesi´on (Xi) de v.a. es una martingala si
1.
2.
Xn es Fn-medible, para n = 1,2,…
E(Xn+1 | Fn) = Xn, para n = 1,2,….
´ ´
´ ´ ´
Vemos que la primera de las propiedades nos dice que Xn solo depende de la informacion disponible en tiempo
n. Mientras que la segunda nos dice que la mejor estimacion (aproximacion) de Xn+1 conocida la informacion
disponible en tiempo n es Xn. De esta forma, si
E(Xk | Fn) = Xn,
k = n,

Monografias.com

CAPITULO 7. CAMINO ALEATORIO Y MARTINGALAS
80

entonces
´

E(Xk | Fk-1) = Xk-1,
i
si condicionamos sobre k – 2 entonces

E(Xk | Fk-2) = E(E(Xk | Fk-1) | Fk-2)) = E(Xk-1 | Fk-2) = Xk-2,
en particular si n = 0,
E(Xk | F0) = X0,
donde E(Z | F0) = E(Z) as´i que X0 = E(Xk).
Veamos una serie de ejmplos para intentar aclarar este concepto.

Ejemplo 7.2.6 Sean (Xi)n =1 v.a.i. tales qie E(Xi) = 0, para todo i = 1,..,n. De?nimos
Sn =
n
? Xi
i=1
y la ?ltraci´on asociada Fn = s(X1,….,Xn). Veamos que Sn es una martingala.
1.
Sn es adaptada a la ?ltraci´on Fn ya que E(|Sn|) < 8, i.e.
E(|Sn|) = E
n
? Xi
i=1
=
n
? |E(Xi)| < 8.
i=1
2.
Vemos igualmente que
E(Sn+1 | Fn) = Sn,
donde
E(Sn+1 | Fn) = E(Xn+1 | Fn) + E(Sn | Fn) = E(Xn+1) + Sn = Sn,
por lo tanto Sn es martingala con respecto a la ?ltraci´on Fn.

Ejemplo 7.2.7 En este ejemplo X es una v.a. y F1?…….? Fn uma ?ltraci´on donde de?nimos

Xn = E(X | Fn)

para todo n = 1,2,…
Al igual que en el ejemplo anterior, vemos que

|Xn| = |E(X | Fn)| = E((|Xn| | Fn))

entonces
E(|Xn|) = E(E|Xn| | Fn)) = E(|X|) < 8.

De igual forma vemos que

E(Xn+1 | Fn) = E(E(X | Fn+1) | Fn) = E(X | Fn) = Xn

ya que Fn? Fn+1 y por lo tanto Xn es martingala con respecto a la ?ltraci´on Fn.

Monografias.com

81
´
E(?i) = E ?j
7.2. MARTINGALAS

De la de?nicion de martingala se desprende con facilidad el siguiente resultado.

Lema 7.2.1 Si ?n es martingala entonces

para todo i = j,i, j = 1,2,….
´
En efecto. Basta con observar que por de?nicion
?n = E(?n+1 | Fn),
para
n = 1,2,….
por lo que tomando esperanzas en ambos lados de la igualdad obtenemos

E(?n) = E E(?n+1 | Fn) = E ?n+1
siendo cierto el resultado para
n = 1,2,….
i
Ejemplo 7.2.8 Sean (Xi)n =1 v.a.i. De?nimos el camino aleatorio sim´etrico
Sn =
n
? Xi
i=1
tal que
P(Xn = ±1) =
1
2
.
2
Queremos hacer ver que
Sn – n,
es martingala con respecto a la ?ltraci´on asociada Fn = s(X1,….,Xn).
En primer lugar observamos que
2
Sn – n =
n
? Xi
i=1
2
– n,
donde
|Sn| =
n
? Xi
i=1
=
n
? |Xi| < n,
i=1
observar que la v.a. Xi = ±1. De esta forma vemos que
E
2
Sn – n
2
= E Sn + n = n2 + n < 8,
2
por lo tanto Sn – n es integrable.
De igual forma vemos que
2 2 2
Sn+1 = (Xn+1 + Sn)2 = Xn+1 + 2Xn+1Sn + Sn,
por lo que
2
E Sn+1 | Fn
2 2
2 2
= E Xn+1 | Fn + 2E(Xn+1Sn | Fn) + E Sn | Fn =
= E Xn+1 + 2SnE(Xn+1) + Sn,

Monografias.com

CAPITULO 7. CAMINO ALEATORIO Y MARTINGALAS
..
´
82

ahora bien, si tenmos en cuenta que
2
E Xn+1 = 1,
E(Xn+1) = 0,
2 2
E Sn+1 | Fn = 1+ Sn,
entonces

as´i que
2 2
E Sn+1 – (n + 1) | Fn = Sn – n.

El siguiente ejemplo dar´a pi´e a una serie de resultados y teoremas.

Ejemplo 7.2.9 Sean (Xi) v.a.i. tales P(Xi = ±1) = 1/2. La fortuna inicial es X0 = a. Tenemos una estrategia de
apuestas, regla para apostar en tiempo n (por rojo)

f (X1,….,Xn-1) = ?n
donde ?n es el montante de la apuesta en tiempo n. Obviamente ?n es Fn-1 medible.
La fortuna en tiempo n es Xn. (?n < 0 es apuesta por negro).
X1

X2

Xn
= X0 + ?1X1,
2
= X1 + ?2X2 = X0 + ?1X1 + ?2X2 = X0 + ? ?iXi,
i=1

.
n
= Xn-1 + ?nXn = X0 + ? ?iXi,,
i=1
´
Teorema 7.2.1 (Xn) es martingala.

Corolario 7.2.1 Si Xn es la fortuna en tiempo n siguiendo cualquier estrategia entonces

E(Xk) = X0
que es la fortuna inicial.

De?nicion 7.2.5 Tiempo de parada asociado a una ?ltraci´on. T es una regla de parada, se trata de un v.a. en (?,F,P)
que toma valores en N, (T = n) ? Fn.

7.3. Ejemplos.

7.3.1. Camino aleatorio.

Ejemplo 7.3.1 Dos part´iculas realizan caminos aleatorios sim´etricos simult´aneos e independientes que comienzan en el
origen. Demuestra que la probabilidad de que se encuentren en la misma posici´on tras n pasos es
1
2
2n n
?
k=0
n
k
2
y deduce que
n
?
k=0
n
k
2
=
2n
n

Monografias.com

7.3. EJEMPLOS.
83
´ i
Solucion. Sean (Xi)n =1 , de?nimos
Un =
n
? Xi
i=1
y sean
i
(Yi)n =1 ,
de?nimos
Vn =
n
? Xi
i=1
con p =
1
2
P(Xi = ±1) =
1
2
= P(Yi = ±1)
P(Un = Vn) =
1
22n
n
?
k=0
n
k
2
.
Sabemos que
P(Sn = k) =
n
n+k
2
p
n+k
2
q
n-k
2
´
entonces si p = q = 1/2, la expresion anterior queda reducida a:
P(Sn = k) =
1
2
n
n
n+k
2
´
si n y k son ambos pares o impares.
Consideremos el caso n = 3. Entonces tanto U3 como V3 solo pueden tomar los siguientes valores; {3,1,-1,-3},
entonces
P(U3 = V3)
=
?
k=-3,-1,1,3
P(U3 = k,V3 = k)
= ?
indpend. k=-3,-1,1,3
P(U3 = k) P(V3 = k) =
=
i.d.
?
k=-3,-1,1,3
P(U3 = k)
=
1
23
2
3
0
2
+
3
1
2
+
3
2
2
+
3
3
2
=
1
23
2 3
?
k=0
3
k
2
´
de esta forma se completa para el caso general n

Ejemplo 7.3.2 Considera un camino aleatorio en los enteros con barreras absorbentes en 0 y en N ? N, en el que en
cualquier tiempo la part´icula da un salto de -1 con probabilidad a, permanece donde estaba con probabilidad ß, o da un
salto de +1 con probabilidad ?, donde a, ß,? > 0 y a+ ß+? = 1. La condici´on de absorci´on signi?ca que si en un tiempo
n la part´icula est´a en nivel N (respectivamente, 0), en el paso siguiente continua en ese nivel.
Supongamos que la part´icula comienza en tiempo 0 en el nivel a, 0 = a = N. Demuestra que la probabilidad de que la
part´icula quede atrapada en el nivel N es:
a
N
(si a = ?)
(a/?)a – 1
(a/?)N – 1
(si a = ?).
´
Demostracion. Se puede pensar en este problema como en una cadena de Markov. Pensemos en un caso sencillo
en el que N = 5
Xn =
?
?
? 1
?
0
-1
ß
a

Monografias.com

CAPITULO 7. CAMINO ALEATORIO Y MARTINGALAS
? 0 1 0
? 1
?
? 2 0 a
? 3
?
?
?
?
?
?
?
?
?
?
?
?
?
N = (I – Q)1 = ??
? – ?
??-1
0 ??
?
T = NI = µ?
?
?
?
?
? -a 3ß – 3ß2 + ß3 + 2a? – 2aß? – 1
?
P = NR = µ?
a -?a2 + aß2 – 2aß + a
?
1 ?
?
2 ?
?
a2?2 – 3aß ? + 6aß? – 3a? + ß4 – 4ß3 + 6ß2 – 4ß + 1
?
T = ?
?
-ß -ß?+2ß+?2+?-1


?
?
?
?
?
P = ?
?
-?
ß -4ß -3ß2?2+6ß2+6ß?2-4ß+?4-3?2+1
ß -4ß -3ß ? +6ß +6ß?2-4ß+?4-3?2+1
-?3 4
? 4
ß -4ß -3ß ? +6ß2+6ß?2-4ß+?4-3?2+1
ß -4ß3-3ß2?2+6ß2+6ß?2-4ß+?4-3?2+1
-?3 4
? 4
-? 4
?
?
?
84
´
De?nimos las matrices como
?
0 1
?
a ß
?
0 0
? 4 0 0
2
0
?
ß
a
0
3
0
0
?
ß
a
4
0
0
0
?
ß
5
0
0
0
0
?
5
0 0
0
0
0
1
?
?
?
?
?
?
=?
?
?
?
?
?
?
1
2
3
4
0
1
ß
a
0
0
0
2
?
ß
a
0
0
3
0
?
ß
a
0
4
0
0
?
ß
0
0
a
0
0
0
1
5
0
0
0
?
0
5
0
0
0
0
0
1
?
?
?
?
?
?
por lo tanto
??
1
?? 0
?? 0
0
1
0
0
0
1
? ?
0 ß
0 ? ? a
0 ? ? 0
?
ß
a
0
?
ß
0
??
? ??
?
?
?
?
?
0 0 0 1 0 0 a ß
? – 3ß + 3ß2 – ß3 + ?2 + ?3 – 2a? – 2ß? – a?2 – ß?2 + ß2? + 2aß? + 1
-a2? + aß2 + aß? – 2aß – a? + a – ß3 + ß2? + 3ß2 – ß?2 – 2ß? – 3ß + ?2 + ? + 1
-a2ß + a2 + aß2 + aß? – 2aß – a?2 – a? + a – ß3 + ß2? + 3ß2 – 2ß? – 3ß + ? + 1
a – 3ß + a2 + a3 + 3ß2 – ß3 – 2aß – 2a? + aß2 – a2ß – a2? + 2aß? + 1
?
?
?
?
?
donde µ =
1
a2?2-3aß2?+6aß?-3a?+ß4-4ß3+6ß2-4ß+1
?
0
?
?
?
? -a3 (ß – 1)
?
a4
N
?4
-?3ß – 1
? ß2? – 2ß? – a?2 + ?
-? 3ß – 3ß2 + ß3 + 2a? – 2aß? – 1
?
?
?
?
3 ?
?
4
esto quiere decir que la probabilidad de caer en el estado absorvente 0 estando en a = 1 es
P =
-a 3ß – 3ß2 + ß3 + 2a? – 2aß? – 1
a2?2 – 3aß2? + 6aß? – 3a? + ß4 – 4ß3 + 6ß2 – 4ß + 1
mientras que la de caer en N estando en a = 1 es
P =
?4
2
mientras que los tiempos medios de caer en un estado absorvente vienen dados por la matriz T.
Si a = ?, entonces obtenemos
?
?
?
?
?
ß-1
2
?-ß+1
-ß2-ß?+2ß+?2+?-1
?-ß+1
-ß2-ß?+2ß+?2+?-1
ß-1
?
?
?
?
?
?
?
?
?
?
ß-1 ß2?-2ß?-?3+?

?4 ß3-3ß2-2ß?2+3ß+2?2-1
-ß2-ß?+2ß+?2+?-1
ß3-3ß2-2ß?2+3ß+2?2-1 ?4
4 3 4 3 2 2 2
ß2?-2ß?-?3+? ß-1
3 2 2

ß -4ß3-3ß2?2+6ß2+6ß?2-4ß+?4-3?2+1 ß -4ß3-3ß2?2+6ß2+6ß?2-4ß+?4-3?2+1

ß4-4ß3-3ß2?2+6ß2+6ß?2-4ß+?4-3?2+1 ß -4ß3-3ß2?2+6ß2+6ß?2-4ß+?4-3?2+1
?
?
?
?
?
?

Monografias.com

? ?
?4
?-?4? +2 + ?? 3+ – 3? 3? 2- +4 1?+1
-?4+2?3+3?2-4?+1 ? 4 1 ?
?
?
? ?
?-2?2
?-1
-?3 -?4+2?3+3?2-4?+1 ?
?-?4+2?3+3?2-4?+1
?
? = ? 5
5 ?,
?-?4+2? ? 3- +2 3? ?2-4?+1
? -?3 -?4+2?3+3?2-4?+1
P = ? ?-1 2 ? ? 2 3 ?
?-?4+2?3+3?2-4?+1
?
T = ?
?
?
?
? = ? 9 ?
(q/p) – 1
(p/q) – 1
= (p – q) N
85
7.3. EJEMPLOS.

Estudiaremos el caso a = ß = ? = 1/3, obteniendo los siguientes resultados
3 2

5 5
? ? 3 2 ?
? 5 5
? ? 1 4
?4 ?3+?2-3?+1 5 5
-?4+2?3+3?2-4?+1
?
?
?
?
?3 1
?3 1
-?2– ?+1
1
?2-3?+1
1
?2-3?+1
-?2– ?+1
6

6
?

? ? ?
? ? 9 ?
?
tal y como quer´iamos hacer ver.

Ejemplo 7.3.3 Una part´icula realiza un camino aleatorio en los enteros (con p = P(Xn = +1)) comenzando desde
S0 = 0. Prueba (sugerencia: condicionar sobre el primer movimiento) que si p = 1/2 , entonces la probabilidad de alcanzar
el nivel N o el nivel -N antes de volver a visitar el nivel de partida 0 es
(p – q)
pN + qN
pN – qN
´
¿Cu´anto vale esa probabilidad en el caso sim´etrico p = q?.

Solucion. Siguiendo la sugerencia vemos que condicionando sobre el primermovimiento
P(A)
=
=
P(A | S1 = 1) P(S1 = 1) + P(A | S1 = -1) P(S1 = -1) =
P(A | S1 = 1) p + P(A | S1 = -1)q
donde
P(A | S1 = 1) = P(B | S0 = 1)
donde B representa el suceso llegar a N antes que a 0. (recordar la ruina del jugador).
P(A | S1 = 1)

P(A | S1 = -1)
= 1-

= 1-
(q/p)N – (q/p)
(q/p)N – 1
(p/q)N – (p/q)
(p/q)N – 1
por lo tanto
P(A)
=
1-
(q/p)N – (q/p)
(q/p)N – 1
p +
1-
(p/q)N – (p/q)
(p/q)N – 1
q =
=
-p + q
N
+
-q + p
N
=
(-p + q) pN
qN – pN
+
(-q + p)qN
pN – qN
pN + qN
p – qN
.
Si p = q entonces
P(A) =
1 1
N 2
+
1 1
N 2
=
1
N
´
tal y como quer´iamos hacer ver.

Ejemplo 7.3.4 Denotemos por N el numero de veces que un camino asim´etrico (con p = P(Xn = +1)) vuelve a visitar
el punto de partida. Denotemos por a la cantidad |p – q|. Demuestra que la variable aleatoria discreta N tiene funci´on de
masa
P(N = k) = a(1- a)k
´
para k = 0,1,2, . . .
Deduce que el numero medio de visitas a 0 es 1- a/a.

Monografias.com

CAPITULO 7. CAMINO ALEATORIO Y MARTINGALAS
..
86
´
Ejemplo 7.3.5 Damos un nivel N ? N. Consideremos un camino aleatorio en los enteros (con p = P(Xn = +1)) que
parte de un nivel a, 0 = a = N, y que tiene una barrera absorbente en el nivel 0 y con una barrera retenedora en el nivel
N. Es decir:
P(Sn+1
=
N | Sn = N) = p,
P(Sn+1 = N – 1 | Sn = N) = (1- p),
P(Sn+1
= 0 | Sn = 0) = 1,
P(Sn+1 = ±1 | Sn = N) = 0.
´
´ ´
Denotemos por e(a) el tiempo medio que transcurre hasta que el camino aleatorio queda absorbido en el nivel 0. Demuestra
que
e(a) = a(2N – a + 1)
si p = 1/2.

Solucion. Planteamiento: e(a) es el tiempo medio que transcurre hasta que el camino aleatorio queda absorbido
en el nivel 0. Sea T la v.a. que registra el numero n en el que por primera vez se alcanza N o 0.
Si se comienza en a
e(a) = E(Ta) =
1
2
(e(a + 1) + 1) +
1
2
(e(a – 1) + 1)
por lo tanto, si manipulamos
0 =
1
2
(e(a + 1) – e(a) + 1) +
1
2
(e(a – 1) – e(a) + 1)
de esta forma vemos que
e(a + 1) – e(a) = e(a) – e(a – 1) – 2
donde
e(0) = 0,
e(N) = 0
por lo que
e(1) – e(0)
e(2) – e(1)
e(3) – e(2)
= e(1) – e(0) – 2· 0,
= e(1) – e(0) – 2· 1,
= e(1) – e(0) – 2· 2,

.
e(a) – e(a – 1) =
e(1) – e(0) – 2(a – 1)
as´i que
e(a) – e(0) = [e(1) – e(0)] a – 2
a-1
? i
i=0
i -1
e(a) = e(1)a – a(a – 1)
con ?a=0 i = a(a – 1)/2

vemos igualmente que
0 = e(N) = e(1)N – N (N – 1)
=?
e(1) = N – 1
´
´
por lo que
e(a) = (N – 1) a – a(a – 1) = a(N – a).

Pero en este ejercicio estamos suponiendo que e(0) = 0 y e(N) = 0 por lo que deberemos obtener la relacion
entre e(N) y e(N – 1), llegando as´i a obtener la relacion buscada.

Monografias.com

87
´
7.3. EJEMPLOS.

Ejemplo 7.3.6 Consideramos el camino aleatorio
n
Sn = S0 + ? Xi
i=1
que arranca en S0 = 0, para el que P Xj = 1 = p,?j = 1,2,…. Calcular
P(S4 = 2,S8 = 0,S12 = 2).

Solucion. Consideramos sucesivamente
P(S4 = 2,S8 = 0,S12 = 2)
=
=
P(S12 = 2 | S4 = 2,S8 = 0) P(S4 = 2,S8 = 0) =
P(S12 = 2 | S4 = 2,S8 = 0) P(S8 = 0 | S4 = 2) P(S4 = 2)
y pasamos a calcular cada una de estas probabilidades

P(S12 = 2 | S4 = 2,S8 = 0) = P
12 4 8
? Xi = 2 | ? Xi = 2,? Xi = 0
i=1 i=1 i=1
i
observamos que al ser ?8=1 Xi = 0, entonces en el sumatorio
12 8 12 12
? Xi = ? Xi + ? Xi = ? Xi = 2,
i=1 i=1 i=9 i=9
entonces
P
12 4 8
? Xi = 2 | ? Xi = 2,? Xi = 0
i=1 i=1 i=1
=
P
12 8
? Xi = 2 | ? Xi = 0
i=9 i=1
= P
ind

= P
v.i.i.d
12
? Xi = 2
i=9
4
? Xi = 2
i=1
´ ´
porlo tanto
P(S4 = 2) = 4p3q
i.e. existen 4 formas de llegar hasta la posicion 2 empezando en S0 = 0 (pensar en los diagramss de arboles) por
ejemplo los caminos posibles son:
1.
2.
3.
4.
empezar en 0, pasar a 1, pasar a 2, pasar a 3 y de all´i pasar a 2, i.e.p3q
empezar en 0, pasar a 1, pasar a 2, pasar a 1 y de all´i pasar a 2, i.e.p2qp
empezar en 0, pasar a 1, pasar a 0, pasar a 1 y de all´i pasar a 2, i.e.pqp2
empezar en 0, pasar a -1, pasar a 0, pasar a 1 y de all´i pasar a 2, i.e.qp3.
De igual forma se prueba que
P(S8 = 0 | S4 = 2) = 4pq3
´
y por ultimo
P(S4 = 2) = 4p3q
4pq3
4p3q = 43p7q5,
as´i que la probabilidad buscada es:

P(S4 = 2,S8 = 0,S12 = 2) = 4p3q

tal y como quer´iamos hacer ver.

Monografias.com

CAPITULO 7. CAMINO ALEATORIO Y MARTINGALAS
x + (1- x)
88
´
´
7.3.2. Martingalas y todo eso.

Ejemplo 7.3.7 Calcular la esperanza condicionada cuando ? = 2×2, y ? toma los siguientes valores

? = 1- |2x – 1|

para todo x ? [0,1].

Solucion. El truco est´a en ver que existe una simetr´ia en x = 1/2 de tal forma que
?(x) = ?(1- x),
A = 1- A
por lo tanto
E(? | ?)(x) = E(? | ?)(1- x)
as´i que
A
2x2dx
=
A
x2dx +
A
x2dx =
=
A
x2dx +
1-A
(1- x)2 dx =
A
x2dx +
A
(1- x)2 dx =
=
A
2
2
dx.
Ahora bien, si tenemos en cuenta que
A
E(? | ?)dP =
A
?dP,
´
entonces llegamos a la conclusion de que

E(? | ?)(x) = x2 + (1- x)2 ,

tal y como quer´iamos hacer ver.

Ejemplo 7.3.8 Calcular la esperanza condicionada cuando ? = 2×2, y ? toma los siguientes valores
? =
2x
2x – 1
x ? [0,1/2)
x ? [1/2,1]
´
Solucion. Detr´as de todo esto est´a el teorema de Radon-Nykodin.
B?(B+ 12)
?dP =
B?(B+ 12)
?dP
con ? = E(? | ?). i.e.
B?(B+ 12)
?dP
=
B?(B+ 12)
2x2dx =
B
2x2dx +
1
B+ 2
2x2dx =
=
B
2x2dx +
B
2 x +
1
2
2
dx = 2
B
x2 + x +
1
2
2
dx,
´ ´
de esta forma la funcion ? debe satisfacer la relacion
? (x) = ?
x +
1
2
,

Monografias.com

? x2 + x + 1
89
7.3. EJEMPLOS.

para todo x ? [0,1/2). Entonces
B?(
B+ 12
)
?dP
=
B
? (x)dx +
B+ 12
? (x)dx =
B
? (x)dx +
B
?
x +
1
2
dx =
=
B
? (x)dx +
B
? (x)dx = 2
B
? (x)dx,
por lo que
? (x) = x2 + x +
1
2
2
,
´
para todo x ? [0,1/2). De igual forma procedemos cuando x ? [1/2,1], por lo tanto llegamos a la conclusion
de que
E(? | ?) =
?
?
2
? x2 + x – 1
? 2
2

2
x ? [0,1/2)
x ? [1/2,1]
,
´
´
tal y como quer´iamos hacer ver.

Ejemplo 7.3.9 Tenemos una baraja francesa, que consta de 52 cartas, la mitad rojas y la otra mitad negras. Las cartas est´an
situadas boca abajo en un mont´on bien barajado. En cada movimiento, el jugador descubre una carta de la baraja, observa
su color y la deposita en la mesa. En cierto momento (y s´olo una vez), el jugador dir´a “¡roja en la siguiente!”. Ganar´a si,
efectivamente, la carta que se descubre es efectivamente roja. Llamemos (Fn) a la ?ltraci´on que recoge la informaci´on sobre
las primeras n extracciones. Llamemos Rn al numero de cartas rojas que quedan en el mont´on justo despu´es de descubrir la
n-esima carta. Calcula
E(Rn | Fn-1)
y comprueba que la sucesi´on de variables aleatorias (Xn), dada por
Xn =
Rn
52- n
´ ´
para cada n, es una martingala.

Solucion. Situ´emonos justo antes de la extraccion n: quedan 52 – n + 1 cartas (pues se han descubierto n – 1
de las 52 originales), de las cuales, Rn – 1 son rojas. As´i que, si sale roja en la siguiente, lo que se produce con
probabilidad
Rn-1
52- n + 1
,
la variable Rn toma el valor Rn-1 – 1. Y si sale negra (esto tiene probabilidad 1 – Rn-1/(52 – n + 1)), entonces
Rn vale Rn-1. De manera que
E(Rn
|
Fn-1) = (Rn-1 – 1)
Rn-1
52- n + 1
+ Rn-1 1-
Rn-1
52- n + 1
=
=
Rn-1 –
Rn-1
52- n + 1
.
Obs´ervese que (Xn) es Fn-medible. Ahora calculamos
E(Xn
|
Fn-1) = E
Rn
52- n
| Fn-1
=
1
52- n
E(Rn | Fn-1) =
1
52- n
Rn-1 –
Rn-1
52- n + 1
=
=
Rn-1
52- (n – 1)
= Xn-1,
por lo tanto Xn es martingala para cada n.

Monografias.com

CAPITULO 7. CAMINO ALEATORIO Y MARTINGALAS
90
´
n
Ejemplo 7.3.10 Sea Y1,Y2,… una sucesi´on de variables aleatorias i.i.d., cada una de las cuales toma los valores 1 y -1
con probabilidades p y q. Llamemos Sn = Y1 + …. + Yn, con S0 = 0. Comprueba que la sucesi´on de variables aleatorias
(Xn)8 =0 dada por
Sn
q
es martingala con respecto a la ?ltraci´on (Fn) asociada a las Yj y deduce que
E
p
q
Sn
= 1.
´ i
Solucion. Vemos que las (Yi)n =1 son v.a.i. tales que
P(Yi = 1) = p,

y que adem´as hemos ?jado S0 = 0, de tal forma que

Sn =
P(Yi = -1) = q,

n
? Yi,
i=1
´ ´
pero queremos hacer ver que Xn es martingala con respecto a la ?ltracion Fn = s(Y1,Y2,…,Yn). Como en los
ejemplos anteriores tendremos que ver que Xn es medible y que E(Xn | Fn-1) = Xn-1.
Por lo tanto.
1.
Xn es Fn-medible
Xn =
p
q
i
Sn=?n =1 Yi
= ?(Y1,Y2,…,Yn)
´
2.
i.e. es una funcion de las v.a. Y1,Y2,…,Yn.
E(Xn | Fn-1) = Xn-1, vemos que
Xn =
p
q
Sn
=
p
q
Sn-1+Yn
=
p
q
Sn-1
p
q
Yn
= Xn-1
p
q
Yn
por lo tanto
E(Xn
|
Fn-1) = E Xn-1
p
q
Yn
| Fn-1
=
Xn es Fn – medible,
= Xn-1E
p
q
Yn
| Fn-1
=
lineal
= Xn-1E
p
q
Yn
Yn es independiente de Fn-1,
p
q
Yn
por lo tanto

E(Xn | Fn-1) = Xn-1E

ahora veamos con un poco m´as de detalle el c´alculo de
E
p
q
Yn
.

Monografias.com

7.3. EJEMPLOS.
91
Sabemos que P(Yi = 1) = p,
P(Yi = -1) = q, por lo tanto
p
q
Yn
=
p
q
q
p
p
q
por lo tanto
E
p
q
Yn
=
p
q
p +
q
p
q = p + q = 1
´
de esta forma vemos que es martingala.

Tal y como quer´iamos hacer ver.

Ejemplo 7.3.11 De nuevo las Yn son variables que toman valores ±1, pero ahora con probabilidad 1/2 cada uno de ellos.
Tomamos una sucesi´on de numeros (a1,a2,…) y consideramos la sucesi´on de variables aleatorias (Xn) dadas por
X0 = 0,
Xn = Xn-1 + anYn,
2
para cada n = 1. Comprueba que la sucesi´on (Zn) dada por

Zn = Xn – bn,
bn =
j
n
? a2,
j=1
es Fn-martingala y deduce que
2
E Xn =
j
n
? a2.
j=1
´ i
Solucion. Vemos que las (Yi)n =1 son v.a.i. tales que

P(Yi = 1) =
1
2
= P(Yi = -1),
´ ´
y que adem´as hemos ?jado X0 = 0, de tal forma que

Xn = Xn-1 + anYn
pero queremos hacer ver que Zn es martingala con respecto a la ?ltracion Fn = s(Y1,Y2,…,Yn). Como en los
ejemplos anteriores tendremos que ver que Zn es medible y que E(Zn | Fn-1) = Zn-1.
Por lo tanto vemos que
2
E(Xn – bn
|
Fn-1) = E((Xn-1 + anYn)2 – bn | Fn-1) =
2 2 2
2 2 2
2 2
2
= E(Xn-1 + 2anXn-1Yn + anYn – bn | Fn-1) =
= Xn-1 + anE Yn + 2anXn-1E(Yn) – bn =
= Xn-1 + an – bn
= Xn-1 – bn-1
= Zn-1
2
donde E Yn = 1, y E(Yn) = 0.

Monografias.com

CAPITULO 7. CAMINO ALEATORIO Y MARTINGALAS
ea(?i=1
92
´
i
´ i
Ejemplo 7.3.12 Sean Yn variables aleatorias i.i.d., tales que Yn > 0 y E(Yi)n =1 = 1. Comprueba que la sucesi´on (Xn)
dada por
n
X0 = 0, Xn = ?Yj,
j=1
para cada n = 1, es martingala.

Solucion. Vemos que las (Yi)n =1 son v.a.i.i.d. tales que Yn > 0 y E(Y) = 1. Por lo tanto
E(Xn
|

=
Fn-1) = E

n-1
? YjE(Yn),
j=1
n
?Yj | Fn-1
j=1

por ser independientes de Fn-1
=
n-1
? Yj
j=1
ya que E(Yi) = 1
= Xn-1

por lo tanto es martingala.

Ejemplo 7.3.13 Sean Yn variables aleatorias i.i.d. que toman valores ±1 con probabilidad 1/2 cada una. Comprueba que
la sucesi´on (Xn) dada por
X0 = 0,
Xn =
ea(?Yi)
cosh(a)n
,
´ ´
para cada n = 1, es martingala.

Solucion. Vemos como antes que
E(Xn
|
Fn-1) = E
ea(?Yi)
cosh(a)n
| Fn-1
=
=
1
cosh(a)n
E ea(?Yi) | Fn-1
i –
=

=
1
cosh(a)
1
cosh(a)
ne

ne
i –
a(?n =1 1 Yi)

a(?n =1 1 Yi)
E eaYn | Fn-1

E eaYn
observamos ahora que
E eaYn
=
1
2
ea + e-a = cosh(a)
por lo tanto
E(Xn | Fn-1) =
1
cosh(a)
n-1
n-1
Yi)
= Xn-1
demostrando de esta forma que es martingala.

Monografias.com

Cap´itulo 8

Distribuciones.

8.1. Distribuciones discretas

8.1.1. Bernoulli.
1.
´
Funcion generatriz
GX(s) = q + ps.
2.
´
Funcion de masa
pk = P(X = k) = pkq1-k = pk (1- p)1-k
con k = 0,1.
3.
´
Funcion caracter´istica y generatriz de momentos
?X(t) = q + peit,
MX(t) = q + pet.
4.
Esperanza y varianza
E[X] = p, var[X] = pq, s =
v
pq
5.
Resumen
´
8.1.2. Binomial.

Probabilidad de obtener exactamente k – exitos.
´
GX(s) =
n
?
k=0
n
k
pkqn-ksk = (q + ps)n .
1.

2.
´
Funcion generatriz

Funcion de masa
Bin(n, p) =
n
k
pkqn-k
con k = 0,1,….
93

Monografias.com

CAPITULO 8. DISTRIBUCIONES.
ps
94
´
3.
´
Funcion caracter´istica y generatriz de momentos
?X(t) = q + peit
n
,
MX(t) = q + pet
n
.
4.
Esperanza y varianza
E(X) = np, var(X) = npq,
s =
v
npq
5.
Resumen
.
Teorema 8.1.1 Suma de binomiales independientes es otra binomial.
? Xi ? Bin ?ni, p

8.1.3. Geom´etrica.

Tiempo de espera hasta que aparece el suceso X por primera vez.
1.
´
Funcion generatriz
GX(s) =
k=1
8
? pkqk-1sk = 1- qs.
2.
´
Funcion de masa
Geo(p) = (1- p)k-1 p
con k = 1,….
3.
´
Funcion caracter´istica y generatriz de momentos
?X(t) =
peit
1- qeit
,
MX(t) =
pet
1- qet
.
4.
Esperanza y varianza
E(X) =
1
p
,
var(X) =
q
p2
,
s =
q
p2
.
5.
Resumen
´ ´
´ ´
´
8.1.4. Binomial negativa.

Si en vez de buscar la probabilidad de k exitos en n ensayos (n-?jo) consideramos la variable X igual al numero
de fallos antes del exito n-esimo entonces encotramos la binomial negativa.

Observacion 8.1.1 Geom´etrica es un caso particular de una binomial negativa
Geo
BinN (1, p).

Monografias.com

MX(t) = e?(e -1).
8.1. DISTRIBUCIONES DISCRETAS
95
´
GX(s) =
p
1- qs
n
.
1.

2.
´
Funcion generatriz

Funcion de masa
BinN(n, p) =
n + k – 1
k
pnqk
con k = 0,1,….
3.
´
Funcion caracter´istica y generatriz de momentos
?X(t) =
p
1- qeit
n
,
MX(t) =
p
1- qet
n
.
4.
Esperanza y varianza
E(X) =
n
p
,
var(X) =
nq
p2
,
s =
nq
p2
5.
Resumen
8.1.5. Poisson.
1.
´
Funcion generatriz
GX(s) = exp(?(s – 1)).
2.
´
Funcion de masa
Poisson(?) = exp(-?)
?k
k!
con k = 0,….
3.
´
Funcion caracter´istica y generatriz de momentos
?X(t) = e? eit – 1 ,
t
4.
Esperanza y varianza
E(X) = ?,
var(X) = ?,
s =
v
?
´
Teorema 8.1.2 La suma de Poissones independientes es otra Poisson de par´ametro ? = ??i

Observacion 8.1.2 Binomial ˜Poisson
Bin(n, p)
Poiss(?) / ? = np = 5 y p = 0,1.

Monografias.com

CAPITULO 8. DISTRIBUCIONES.
´
96

8.1.6. Hipergeom´etrica
1.
´
Funcion de masa
fX(x) =
k
x
N – k
n – x
N
n
2.
Esperanza y varianza
E(X) =
kn
N
,
var(X) =
N – n k
n
N – 1 N
1-
k
N
,
8.2. Variables continuas (v.a.c.).

8.2.1. Uniforme en [a,b].
´ ´
1.

2.
´
Funcion de distribucion.

Funcion de densidad.
?
?
FX(t) =
?

fX(t) =
0
t/b – a
1

1
b-a
0
/
t < a
t ? [a,b]
t > b

t ? [a,b]
t ? [a,b]
3.
´
Funcion caracter´istica y generatriz de momentos
?X(t) =
eitb – eita
it(b – a)
,
MX(t) =
etb – eta
t(b – a)
.
4.
Esperanza y varianza.
E(X) =
1
2
(a + b),
var(X) =
1
12
(b – a)2 .
8.2.2. Gamma.
1.
´
Funcion de densidad ?(p,a).
fX(t) =
ap
G(p)
xp-1e-ax
0
x > 0
resto
donde
G(p) =
8
0
xp-1e-xdx
2.
´
Funcion caracter´istica y generatriz de momentos
?X(t) =
1-
it
a
-p
,
MX(t) =
1-
t
a
-p
.
3.
Esperanza y varianza.
E(X) =
p
a
,
var(X) =
p
a2
.

Monografias.com

(p + q) (p + q + 1)
v
97
8.2. VARIABLES CONTINUAS (V.A.C.).

8.2.3. Exponencial.
1.
´ ´
Funcion de distribucion.
FX(t) =
1- exp(-?t)
0
t > 0
t = 0
2.
´
donde ? > 0.
Funcion de densidad.
fX(t) =
?exp(-?t)
0
t > 0
t = 0
´
o
fX(t) = ?exp(-?t)I(0,8) (x)
exp(?) = ?(p = 1,?).
3.
´
vemos que

Funcion caracter´istica y generatriz de momentos
?X(t) =
1-
it
?
-1
,
MX(t) =
1-
t
?
-1
.
4.
Esperanza y varianza.
E(X) =
1
?
,
var(X) =
1
?2
i
Teorema 8.2.1 Sea X v.a. exponencial, entonces:

P(X > a + t | X > a) = P(A > t),

i.e. X tiene la propiedad de no memoria.

Teorema 8.2.2 (Xi)n =1 ? exp(?) v.a.i.i.d., entonces
? Xi ? ?(n,?).

8.2.4. Beta
1.
´
Funcion de densidad.
fX(t) =
1
B(p,q)
xp-1 (1- x)q-1 I(o,1)(x),
2.
Esperanza y varianza.
E(X) =
p
p + q
,
var(X) =
pq
2
8.2.5. Normal.
1.
´ ´
Funcion de distribucion.
FX(t) =
1
s 2p
t
-8
exp –
1
2
x – µ
s
2
dx ?x ? R

Monografias.com

CAPITULO 8. DISTRIBUCIONES.
v
?X(t) = eitµ- 2s
MX(t) = etµ- 2s
98
´
2.
´
Funcion de densidad.
fX(t) =
1
s 2p
exp –
1
2
x – µ
s
2
?x ? R
3.
´
Funcion caracter´istica y generatriz de momentos
1 2t2
,
1 2t2
.
4.
Esperanza y varianza.
E(X) = µ,
var(X) = s2
Si X ? N(µ,s2), tipi?cando la variable i.e.

Z =
X – µ
s
=? Z ? N(0,1)
´
Observacion 8.2.1 Aproximaci´on Normal de una binomial. Versi´on m´as simple del TCL (ver cap´itulo 7)
Binomial
Bin(n, p)
˜
˜
Normal.
v
N(np,
npq)
i
Si Bin(n, p) tal que np = 5 y nq = 5, entonces podemos aproximar dicha binomial mediante una distribuci´on normal.
La probabilidad binomial P(k) puede aproximarse por la probabilidad normal

P(k) ˜ P(k – 0,5 = X = k + 0,5)

Teorema 8.2.3 Si {Xi}n =1 son v.a. independientes tales que Xi ? N(µi,si) ?i = 1,…,n entonces
? Xi ? N ?µi, ?si
i i i
.
i
Teorema 8.2.4 Si {Xi}n =1 son v.a. independientes tales que Xi ? N(µ,s) i.e. son v.a.i.i.d., entonces
?i Xi
n
s2
? N µ, v
n
.
8.2.6. Cauchy
1.
´
Funcion de densidad.
fX(t) =
1
ps
1+
1
x-p 2
s
.
´
2.

3.
Funcion caracter´istica

Esperanza y varianza.
?X(t) = eitp-s|t|.

E(X) =,
var(X) = .

Monografias.com

e- 2xx 2-1I(o,8)(x)
G
fX(t) = v
n G 1 G
8.2. VARIABLES CONTINUAS (V.A.C.).
99
8.2.7.
2
?n. Chi-cuadrado
2 ´
2 i
?n. Distribucion Chi-cuadrado con n-grados de libertad. Consideramos (X1,….,Xn) v.a.i.i.d. que siguen una
N(0,1). De?nimos
n
?n = ? X2. (8.1)
i=1
1.
´
Funcion de densidad.
fX(t) =
1
2n/2G
n
2
1 n
?x ? R
vi´endose que
2
?n = ?
n 1
,
2 2
2.
´
Funcion caracter´istica y generatriz de momentos
?X(t) = (1- 2it)-n/2 ,
MX(t) = (1- 2t)-n/2 .
3.
Esperanza y varianza.
E(X) = n,
var(X) = 2n.
´ 2
8.2.8. t-Student

t-Student, con n-grados de libertad, tn.

De?nicion 8.2.1 Considermos X ? N(0,1) e Y ? ?n de tal forma que (X,Y) son independientes, de?nimos
tn =
X
Y
n
=
2
N(0, 1)
?n/n
(8.2)
´
El c´alculo de la funcion de densidad es f´acil ya que al tratarse de v.a.i. entonces fXY = fX fY.
1.
´
Funcion de densidad.
n+1
1 2
2
n
2
1+
x2
n
– n+1
2
,
?x ? R
2.
´
Funcion caracter´istica y generatriz de momentos
?X(t) = (1- 2it)-n/2 ,
MX(t) = (1- 2t)-n/2 .
3.
Esperanza y varianza.
E(X) = 0, si n > 1,
var(X) =
n
n – 2
, si n > 2.
4.
tn;1-a = -tn;a

Monografias.com

CAPITULO 8. DISTRIBUCIONES.
100
´
2 2
8.2.9. F Fisher-Snedecor

F Fisher-Snedecor. Fm,n con m y n grados de libertad. Sea X ? ?m, e Y ? ?n v.a.i. entonces de?nimos
Fm,n =
X
m
Y
n
=
Xn
Ym
=
2
2
?m/m
?n/n
.
(8.3)
1.
´
Funcion de densidad.
fX(t) =
G
G
m
2
m+n
2
G
n
2
m
n
m
2
x
m-2
2
1+
m
n
x
– m+n
2
,
?x ? R
2.
Esperanza y varianza.
E(X) =
m
m – 2
, m > 2, var(X) = 2
n
n – 2
2
m + n – 2
m(n – 4)
, n > 4.
3.
Propiedades
a)
Si X ? Fm,n =?
1
X
? Fn,m
Fm;n;1-a

Fm;n;1-a
=

=
1
Fn;m;1-a
1
Fm;n;a

Partes: 1, 2, 3
 Página anterior Volver al principio del trabajoPágina siguiente 

Nota al lector: es posible que esta página no contenga todos los componentes del trabajo original (pies de página, avanzadas formulas matemáticas, esquemas o tablas complejas, etc.). Recuerde que para ver el trabajo en su versión original completa, puede descargarlo desde el menú superior.

Todos los documentos disponibles en este sitio expresan los puntos de vista de sus respectivos autores y no de Monografias.com. El objetivo de Monografias.com es poner el conocimiento a disposición de toda su comunidad. Queda bajo la responsabilidad de cada lector el eventual uso que se le de a esta información. Asimismo, es obligatoria la cita del autor del contenido y de Monografias.com como fuentes de información.

Categorias
Newsletter