Monografias.com > Sin categoría
Descargar Imprimir Comentar Ver trabajos relacionados

Apuntes de procesos estocasticos (página 2)




Enviado por Jabel70



Partes: 1, 2, 3

1.

2.

3.

4.
1lAc = 1- 1lA,
1lA · 1lB = 1lAnB,
si A n B = Ø, entonces, 1lA?B = 1lA + 1lB,
1lAc · 1lBc = 1lAcnBc = 1- 1lA?B.
´
´
´
Proposicion 1.2.1 Si X,Y son v.a. y ?,µ ? R, entonces:

µX + ?Y es v.a.
XY es v.a.

i.e. es un anillo.

Proposicion 1.2.2 Criterio para determinar si X es v.a.
Sea Y : ? -? R una funci´on cualquiera, de?nimos B ? R : Y-1(B) ? F , entonces este conjunto es s-algebra en R.
´
X es v.a. signi?ca que la s-algebra,
B ? R : X-1(B) ? F , contiene a los borelianos. Para comprobar que
´
´
contiene a los Borel, basta con probar que contiene a los intervalos o aun mejor, que contiene a los intervalos
(8,x] o (-8,x). En general se sigue el criterio:
X es v.a. si {X = t} ? F,
´
?t ? R o X es v.a. si {X < t} ? F, ?t ? R.
i
´
i
Propiedades 1.2.1 Si X es v.a y f una funci´on medible, entonces la composici´on es v.a. i.e. f · X es v.a.
Lo mismo sucede si consideramos (Xi)n =1 v.a., entonces f (Xi) es v.a.

De?nicion 1.2.2 L´imites de sucesiones.
Sean (Xi)n =1 v.a en (?,F,P), entonces:
1.

2.

3.

4.
infXn = Y es v.a.
supXn es v.a.

l´imXn = inf{supXn} es v.a.,
l´imXn = sup{infXn} es v.a.,
´ i
Lema 1.2.1 Sean X,Y dos v.a. de?nidas en (?,F,P), entonces{? : X (?) = Y (?)} ? F.

De?nicion 1.2.3 Convergencia casi segura. Sean (Xi)n =1 v.a en (?,F,P), entonces decimos que Xn converge casi
seguramente (c.s.) si
P
l´imXn = l´imXn
= 1.
De?nimos l´imXn tal que l´imXn = l´imXn.

Monografias.com

1.3. DISTRIBUCION DE PROBABILIDAD DE UNA V.A..
6 i? 1 i
6 -1
+ d2,
´
5
´
1.3. Distribucion de probabilidad de una v.a..

Sean X v.a. de?nida en (?,F,P). Lo que nos interesa de X es la probabilidad con la que toma valore en R.

´ ´

µX(B) = P(X ? B) = P({? : X (?) ? B}) = P X-1 (B) ,

donde, claro est´a, X-1 (B) ? F. µX contiene toda la informaci´on relevante de la v.a. X.

Ejemplo 1.3.1 Dado ? = {1,2,3,4,5,6} i.e. descripci´on del archiconocido ejemplo del dado, donde rescribimos ? como
? = {?1,?2,?3,?4,?5,?6}, tomamos F =P (?) y considermos que P({?i}) = 16.
Consideramos ahora las v.a.
X (?i) = i,
Y (?i) =
2 i ? [5,6]
-1 i ? [1,4]
,
´
= P (?) = F,
= {Ø,?,{?1,?2,?3,?4},{?5,?6}},
viendo que las s-algebras que forman son

s(X)
s(Y)

y ahora nos preguntamos por µX,µY.
Vemos que
µX(B) = P(X ? B),
i.e.
µX(B) =
#(B n {1, 2, 3, 4, 5, 6})
6
,
por lo tanto
µX(B) =
1 6
=
d ,
donde di representa la delta-Dirac. Mientras que para la v.a. Y vemos que
µY(B) =
4
d
2
6
ya que
µY(2)
=
P(Y ? 2) = P(Y = 2) = P({?5,?6}) =
2
6
,
µY(-1)
=
P(Y ? -1) = P(Y = -1) = P({?1,?2,?3,?4}) =
4
6
,
viendo as´i que por ejemplo
µY(R{-1,2}) = 0.
En general se tiene
µX =
n
? P(X = xi)di,
i=1
/
µX =
n
? P(X = xi)di = 1.
i=1

Monografias.com

CAPITULO 1. VARIABLES ALEATORIAS.
v
v dt
v v v
? ? ? : – b = ?4 = 4 a
? ? ? : 4 a = ?4 =
? P
P
v
v
v
v
6
´
Ejemplo 1.3.2 En (? = [-1,1],F =B,P = Lebesgue), de?nimos la v.a. X (?) = ?2, queremos calcular µX.
Para ello consideramos la de?nici´on i.e.
µX = P(X ? B)
?2
1.

2.

3.
´
[1,8]
µX ([1,8]) = P(X = 1) = P({±1}) = 0,
de igual forma vemos que en el intervalo [-8,0], tenemos
µX ([-8,0]) = P(X = 0) = P({0}) = 0,
por ultimo vemos que pasa en un intervalo [a,b] ? [0,1]
µX ([a,b])
=
P(a = X = b) = P
? : a = ?2 = b
=
1
2
v
b +
1 v
2
b –
v
a =
=

=
v
– a +
v
b – a,
En general tenemos que
µX(B) =
B
1
2 t
para cualquier Borel B.

Ejemplo 1.3.3 En(? = [-1,1],F =B,P = Lebesgue/2),de?nimoslav.a. X (?) = ?4,queremoscalcular µX ([a,b]).
Para ello consideramos la de?nici´on i.e.
µX = P(X ? B)
y seguimos los mismos que en el ejemplo anterior i.e.
µX ([a,b])
P(a = X = b) = P ? ? ? : a = ?4 = b =
=

=
4
4
b
=
1
2
v
– 4 a +
4
b +
1
2
4
v
b – 4 a =
4
v
b – 4 a.
´
´ ´
´
´ ´ ´
De?nicion 1.3.2 Sean X,Y dos v.a. de?nidas en (?,F,P), entonces decimos que son iguales en distribuci´on si µX = µY,
utiliz´andose la notaci´on
d

Al ser la de?nicion de µX, distribucion de probabilidad, µX(B) = P(X ? B), algo complicadilla de manejar, a
efectos pr´acticos, consideraremos la siguiente de?cion.

De?nicion 1.3.3 La funcion de distribucion de la v.a. X, F : R -? [0,1] ? R, de?nida por
FX(t) = µX ((-8,t]) = PX (X = t),
?t ? R,
´
la funci´on de distribuci´on asigna a cada numero real t, la probabilidad acumulada hasta ese valor t.

Monografias.com

1.3. DISTRIBUCION DE PROBABILIDAD DE UNA V.A..
7
´
´

Observacion 1.3.1 La idea que anda por detr´as es la siguiente.
Debemos pensar en X v.a. como una generalizaci´on de la funci´on inversa de F, i.e.
X = F-1,
tal y como sospech´abamos a partir del ejemplo (1.3.2). Ver el ejemplo (1.3.4).

Propiedades 1.3.1 Si F es la funci´on de distribuci´on de X entonces se veri?ca:
1.
2.
3.
4.
?a,b ? R, a = b; PX(a < X < b) = F(b) – F(a)
F es cont. por la derecha en cada punto de R
F es mon´otona no decreciente
F(-8) = 0, i.e. l´imt?-8 F(t) = 0, y que F(8) = 1.
? ? (0,1),
Ejemplo 1.3.4 En (? = (0,1),F =B,P = Lebesgue), de?nimos la v.a.
X (?) = sup{y ? R : F(y) = ?},
queremos calcular FX. Vemos que
F
:
:
R -? [0,1]
y -? F(y) ? [0,1] = ?,
tenemos

esto nos da la idea de X =
FX(t)
F-1,
:
{? ? (0,1) : X (?) = t} = {? ? (0,1) : ? = F(t)}

= P({? ? (0,1) : X (?) = t}) = P({? ? (0,1) : ? = F(t)}) =
i ´
= mLebesgue((0, F(t))) = F(t) – 0 = F(t)
por lo que
F = FX.

Ejemplo 1.3.5 Sean (Xi)n =1 v.a.i.i.d. con funci´on de distribuci´on comun F(x). Escribir la funci´on de distribuci´on de la
v.a.
Zn = m´in(X1,….,Xn).

Vemos que hay que calcular (por de?nici´on)
FZn(t) = P(Zn = t),
observ´andose que
P(Zn > t) = P(m´in(X1,….,Xn) > t),
al tratarse de v.a.i.i.d., entonces
P(Zn > t)
=
P(X1 > t,….,Xn > t) =
n
? P(Xi > t) =
i=1
=
n
?
i=1
1- FXi (t) = (1- F(t))n ,
y por lo tanto
FZn(t) = 1- (1- F(t))n .

Monografias.com

CAPITULO 1. VARIABLES ALEATORIAS.
8
´
´ ´
´ ´
De?nicion 1.3.4 Si X es v.a. discreta se de?ne la funcion de masa

p : R -? [0,1]

tal que
p(x) = PX(x) = P[? ? ? : X(?) = x]

De?nicion 1.3.5 Si X es v.a. continua, se llama funcion de densidad f de X a cualquier funci´on f : R -? R, tal que
1.
2.
´
f(x) = 0, ?x ? R,
f contiene a lo sumo un numero ?nito de discontinuidades i.e. f es integrable Riemann
3.
R
fdx = 1,
A partir de f -? F
F(t) =
t
-8
f(x)dx
Teorema 1.3.1 Sea X v.a. continua, con funci´on de densidad f y funci´on de distribuci´on F
1.
2.
3.
F es continua,
Si f es continua en x, entonces F es derivable en x, tal que F (x) = f(x).
?[a,b]
P(X ? (a,b)) =
b
a
f(t)dt = F(b) – F(a).
´ ´
´
En general para modelizacion ser´an utiles las siguientes observaciones.

Ejemplo 1.3.6 En (?,F,P), de?nimos la v.a X (?i) = i donde ? = {1,2,3,4,5,6} i.e. descripci´on del ejemplo del
dado, donde rescribimos ? como ? = {?1,?2,?3,?4,?5,?6}, tomamos F =P (?) y considermos que P({?i}) = 16.
d
valores con las mismas probailidades) y que por lo tanto FX = FY.
Es decir, este ejemplo concreto del lanzamiento del dado lo hemos traducido a un problema de teor´ia de la medida y muchos
procesos aleatorios se ajustan a esta modelizaci´on.

Teorema 1.3.2 Toda v.a. es una transformaci´on de una uniforme. Dicho de otra forma. Sea X v.a. en (?,F,P) entonces
d

Observacion 1.3.2 La moraleja de todo esto es:
1.
para especi?car una v.a. X basta con dar su funci´on de distribuci´on, i.e. simplemente una funci´on F : R -? [0,1]
que veri?que las propiedades del teorema (1.3.1).

Monografias.com

1.3. DISTRIBUCION DE PROBABILIDAD DE UNA V.A..
´
9
´
2.
3.

4.
Sabemos que existe X tal que FX = F,
para analizar X, s´olo necesitar´e conocer µX (valores y probabilidades) o FX (resumen de µX) donde X = F-1, y por
ultimo,
Toda v.a. X, es una transformaci´on de una uniforme U [0,1], donde
FU(t) =
t
-8
f(u)du,
con
f(u) =
?
?
? 0
u < 0
1
0
u ? [0,1] ,
u > 1
por lo tanto
FU(t) =
?
?
? 0
t ? (-8,0]
t
0
t ? [0,1]
t ? (1,8)
.
´
Terminaremos mostrando algunos ejemplos.

Ejemplo 1.3.7 Tenemos unas variables X1,X2,… i.i.d., uniformes en el conjunto [0,1] ? [2,3]. Consideramos la variable
Z = m´ax(X1,X2,X3,X4)
queremos calcular
P(Z > 3/2).

Solucion. Vemos que

P(Z = 3/2) = P(m´ax(X1,X2,X3,X4) = 3/2) = P(X1 = 3/2,X2 = 3/2,X3 = 3/2,X4 = 3/2),
pero al ser v.a.i.i.d. entonces
P(X = 3/2) = P(X = 1) =
1
2
4
,
y por lo tanto
P(Z > 3/2) = 1-
1
2
4
.
´
Consideremos ahora la variable

queremos calcular

Como antes vemos que

P(Z = 3/2)
=
=
Z = m´ax(X1,X3,X5,X7,X9)

P(Z > 3/2).

P(m´ax(X1,X3,X5,X7,X9) = 3/2) =
P(X1 = 3/2,X3 = 3/2,X5 = 3/2,X7 = 3/2,X9 = 3/2),
´
y por la misma razon que antes i.e. al tratarse de v.a.i.i.d entonces
P(X = 3/2) = P(X = 1) =
1
2
5
,

Monografias.com

CAPITULO 1. VARIABLES ALEATORIAS.
´
10

as´i que
P(Z > 3/2) = 1-
1
2
5
.
´
tal y como quer´iamos hacer ver.

Ejemplo 1.3.8 Tenemos unas variables X1,X2,… i.i.d., uniformes en el conjunto [0,1]. Consideramos la variable
Z = m´in(m´ax(X1,X2),m´ax(,X3,X4))
queremos calcular
P(Z > 1/2).

Solucion. Vemos que
P(Z > 1/2)
=
=
P(m´in(m´ax(X1,X2),m´ax(,X3,X4)) > 1/2) =
P(m´ax(X1,X2) > 1/2,m´ax(,X3,X4) > 1/2) =
i.i.d.
= (1- P(m´ax(X1,X2) = 1/2))2
=
1- P(X = 1/2)2
2
=
1-
1
4
2
=
9
16
Si ahora consideramos
Z = m´ax(m´in(X1,X2),m´in(,X3,X4))
entonces
P(Z = 1/2)
=
=
P(m´ax(m´in(X1,X2),m´in(,X3,X4)) = 1/2)
P(m´in(X1,X2) = 1/2,m´in(,X3,X4) = 1/2)
i.i.d.
= (1- P(m´in(X1,X2) > 1/2))2
=
1- P(X > 1/2)2
2
=
1-
1
4
2
=
9
16
´ ´
tal y como quer´iamos hacer ver.

Ejemplo 1.3.9 Sea X una v.a. tal que su cdf (cumulative distributuion function) es FX y por lo tanto su pdf (probability
density function) es fX. Sea Y = aX + b, a,b ? R+. Calcular FY, fY.

Solucion. Vemos que por de?nicion
FY (y) := P(Y = y)
as´i que
P(Y = y) = P(aX + b = y) = P X =
y – b
a
:= FX
y – b
a
.

Monografias.com

1.3. DISTRIBUCION DE PROBABILIDAD DE UNA V.A..
a ,
v
-?d?
-8 e
= X = 1,
1 -|t|
´
11
Sea y = g(x) = ax + b, entonces x = g-1(y) = h(y) =
y-b
y
dx
dy
= 1/a, por lo tanto
fY (y) =
dx
dy
fX
y – b
a
=
1
a
fX
y – b
a
.
Si X ~ U [0,1], entonces
fX =
1
0
0 = x = 1
resto
,
de esta forma
fY (y) =
1
a
fX
y – b
a
=
1/a
0
b = y = a + b
resto
tal y como quer´iamos hacer ver.
Ejemplo 1.3.10 Sea X una v.a. tal que
fX =
e-x
0
x > 0
resto
,
encontrar Y = g(X), tal que
fY =
1
2 y
0
0 = y = 1
resto
.
´ ´
Solucion. Vemos que por de?nicion
FX =
x
-8
fX (?)d? =
x
0
=
1- e-x
0
x > 0
resto
,
´
de esta forma vemos que Z = 1-e-x. Recordamos que si X es una v.a. tal que Y = FX entonces Y est´a uniforme-
mente distribuida en (0,1) ya que
fY =
dx
dy
fX = fX
1
dFX (x)/dx
f
fX
´
´
as´i que la variable Z = 1- e-X, est´a uniformemente distribuida en (0,1).
Por otro lado vemos que
v
0 0 resto
v
encontrando por lo tanto que W = Y, est´a uniformemente distribuida en (0,1) y que Z = W, llegando a
Y = 1- e-X
2
,
De igual forma podemos ver que si
X ~ fX =
2
e
,
entonces si de?nimos Y = X2, vemos que
P(Y = 1),
se calcula de la siguiente forma
P(Y = 1) = P X2 = 1 = P(X = 1) + P(X = -1) = 2P(X = 1) =
8
1
e-tdt =
1
e
,
tal y como quer´iamos hacer ver.

Monografias.com

-8 g(xi)f(xi)dx
´
´
Cap´itulo 2

Esperanza y Varianza.

2.1. Esperanza.

Sea X una v.a. en (?,F,P) y sea g : R -? R / g ? C(R), f describe la funcion de masa o densidad si X es
discreta o continua respectivamente

De?nicion 2.1.1 Esperanza. Si X = 0 (i.e. P({? : X (?) = 0}) = 1) de?nimos la esperanza de la v.a. X como
E(X) =
?
XdP.
Este valor de la esperanza de X, puede ser 8.

De forma an´aloga podemos de?nir la esperanza de X como sigue:
µ := E[g(X)] =
?
?
?
? g(xi)f(xi)
8
X v.a.d.

X v.a.c.
´
donde esta ultima igualdad se puede formular mediante el siguiente teorema:

Teorema 2.1.1 En las condiones anterores se tiene
E[g(X)] =
R
g(t)dµX(t).
´ ´
Demostracion. La idea de la demostracion se sigue de los teoremas al uso en teor´ia de la medida i.e. de?nir la
integral para funciones indicatrices (simples) y luego y generalizando mediante los teoremas de convergencia
etc… para funciones m´as complejas.
Si g(X) = X, entonces
E(X) =
? xi f(xi),
´
o E(X) =
8
-8
xi f(xi)dx
En general si X = X+ – X-, (analog´ia con la teor´ia de la medida) de?nimos E(X) de la siguiente forma:
E(X) = E X+ – E X-

siempre y cuando alguna de estas dos partes no sea 8.

13

Monografias.com

CAPITULO 2. ESPERANZA Y VARIANZA.
14
´
´
Observacion 2.1.1 Dada X, si E(|X|) < 8, entonces al ser 0 = X+ = |X| y 0 = X- = |X| entonces ? E(X).
Si X ? L1(P), entonces ? E(X).

Veamos algunos ejemplos.

Ejemplo 2.1.1 Como siempre consideramos el espacio de probabilidad (?,F,P) y X v.a. en dicho espacio.
1.
Sea A ? F, y sea X = 1lA entonces de?nimos la esperanza de X como
E(X) =
A
1lAdP = P(A).
2.
Sea X = ?nj =1 ?j1lAj, ?j ? R, Aj ? F entonces
3.
? = {?1,….,?n},F = P(?) y P
?j
n
? ?jP(Aj).
E(X) =
j=1

= pj donde obviamente ? pj = 1, pj = 0. Entonces de?nimos la
esperanza de X como
E(X) =
?
XdP =
? X(?j)pj
j
´
i.e. valores por probabilidades.

Proposicion 2.1.1 Sean X,Y v.a. y a,b ? R
1.
2.
3.
E[a] = a,
E[aX + b] = aE[X] + b,
E[X +Y] = E[X] + E[Y], entonces
E[aX + bY] = aE[X] + bE[Y],
(2.1)
4.
5.
6.
7.
X = 0,=? E[X] = 0,
X = Y,=? E[X] = E[Y],
E(|X +Y|) = E(|X|) + E(|Y|),
Desigualdad de Jensen:
|E[X]| = E[|X|],
en general, sea ? : R ? R convexa, entonces
?(E[X]) = E[?(X)].
8.
E(|X|) = E |X|p
1/p
= E |X|1/q
1/q
, con 1 = p = q. En particular si p = 2 entonces E(|X|) =
E |X|2
1/2
.

Monografias.com

l´im Xn = X
l´im infXn = l´imE[Xn].
2.1. ESPERANZA.
15
9.
¨
Desigualdad de Holder.
E(|XY|) = E |X|p
1/p
E |Y|1/q
1/q
,
con
1
p
+
1
q
= 1.
En particular si p = q = 2 entonces obetenemos la desigualdad de Cauchy-Schwarz
E(|XY|) = E |X|2
1/2
E |Y|1/2
1/2
.
10.
Si X,Y son v.a.i. entonces:
´
E[XY] = E[X] E[Y].
m´as abajo de?niremos el concepto de independenia.

Observacion 2.1.2 Tener en cuenta que

P(X = x,Y = y) = P(X = x) P(Y = y)
E[XY]
=
=
? xyP(X = x,Y = y) = ? xyP(X = x) P(Y = y) =
? xP(X = x)yP(Y = y) = ? xP(X = x)?yP(Y = y) = E[X] E[Y].
´
Teoremas b´asicos.

Teorema 2.1.2 Covergencia monotona: Si (Xn) v.a. no decreciente tal que
n?8
=?
E[Xn] -? E[X].
Corolario 2.1.1
? E[Xn] = E ? Xn
.
Corolario 2.1.2 Si (Xn) v.a. no decreciente tal que Xn = Y, con Y integrable, entonces:

n?8

Teorema 2.1.3 Fatou.
1.
Sea (Xn) v.a. tal que Xn = Y, con Y integrable, entonces:
E
n?8
2.
Sea (Xn) v.a. tal que Xn = Y, con Y integrable, entonces:
´
´
E l´imXn = l´imE[Xn].

Teorema 2.1.4 Convergencia dominada (Lebesgue).
Sea(Xn) v.a.talque|Xn| = Y,conY integrable,adem´as,sil´imn?8 Xn = X,entonces X esintegrableyl´imn?8 E[Xn] =
E[X], o E[l´im|Xn – X|] = 0.

Solo despu´es de haber probado estos teorema se puede establecer el siguiente teorema que nos permite calcular
esperanzas.

Monografias.com

CAPITULO 2. ESPERANZA Y VARIANZA.
L ,
16
´
Teorema 2.1.5 C´alculo de esperanzas. Sea como siempre (?,F,P) nuestro espacio de probabilidad y sea X una v.a..
Denotamos por µX la distribuci´on de probabilidad de X. (µX es probabilidad de?nida en (R,Borel)). Sea g : R -? R /
g(x) = 0,?x ? R o bien E(|g(x)|) < +8, entonces
E[g(X)] =
R
g(x)dµX(x),
en particular se tiene que
E[X] =
R
xdµX(x).
´
´ i
´
La idea de la demostracion es muy parecida a las demostraciones al uso en teor´ia de la medida i.e. se prueba
para funciones indicadores y luego se extiende a funciones simples v´ia teorema de convergencia etc…
Extendemos estos conceptos al caso multidimensional e introducimos el concepto de independencia.

De?nicion 2.1.2 Distribuci´on conjunta de probabilidad. Sean (Xi)n =1 una vs.as. en (?,F,P). De?nimos la distribuci´on
conjunta de probabilidad
µ(X1,….,Xn)(B) = P((X1,….,Xn) ? B),
i.e. como la probabilidad de?nida en Borel de Rn.

De forma an´aloga al caso unidimensional podemos de?nir la esperanza i.e.sea f : Rn ? R una funcion medible,
entonces
E(f (X1,….,Xn)) =
Rn
f (u1,…,un)dµ(X1,….,Xn) (u1,…,un)
si
f (u1,…,un)
= 0,
´
o
f (X1,….,Xn)
?
1
i.e.
E(f (X1,….,Xn)) < 8.
´
2.2. Varianza.

De?nicion 2.2.1 Varianza. De?nimos E[X] = µ y la varianza de la v.a. X como:

s2 [X] := var(X) = E (X – E[X])2

si desarrollamos esta expresi´on entonces obtenemos de?niciones equivalentes:

var(X) = E X2 – E[X]2
var(X) =
i
?(x – µ)2 f(xi) = ? x2f(xi) – E(X)2
var(X) =
R
(x – µ)2 f(xi)
´
Proposicion 2.2.1 Supongamos que son independientes, entonces
s2 [aX + b]
var(aX + bY)
= a2s2 [X]
= a2var(X) + b2var(Y)
=?
var(X -Y) = var(X) + var(Y),
La varianza de la suma suma de v.a. pero que no son independientes
var(X +Y) = var(X) + 2cov(X,Y) + var(Y),

Monografias.com

17
2.2. VARIANZA.

m´as abajo de?niremos el concepto de covarianza.
Si son independientes 2 a 2 entonces se veri?ca
var
? Xi
= ?var(Xi) + 2?cov Xi,Xj ,
si son independientes, entonces
var
? aiXi
i
= ? a2var(Xi).
´
´
´ ´
Proposicion 2.2.2
var(X) = E X2 – E[X]2

Demostracion.
var(X) = E X2 – 2XE(X) + E(X)2 = E X2 – 2E(X)E(X) + E(X)2 = E X2 – E[X]2 ,

tal y como quer´iamos hacer ver.

De?nicion 2.2.2 Desviacion t´ipica
s =
var(X)
´
Observacion 2.2.1 Sea X v.a. con funci´on de distribuci´on F
E(X)
var(X)
˜
˜
centro de gravedad,
momento de inercia.
´
De?nicion 2.2.3 Sean X,Y v.a. tales que E(X) = µ, E(Y) = ?. De?nimos su covarianza como
cov(X,Y)
= E((X – E(X))(Y – E(Y))) =
= E((X – µ)(Y – ?)) = E(XY) – E(X)E(Y).

Si son independientes entonces cov(X,Y) = 0.
Observacion 2.2.2
´
cov(X,X) = E (X – E(X))2 = E X2 – E[X]2 = var(X)
´
De?nicion 2.2.4 Coe?ciente de correlaci´on.
? =
cov(X,Y)
var(X) var(Y)
.
? veri?ca las siguientes propiedades:
1.

2.
? ? [-1,1],

? = 0 ?? cov(X,Y) = 0, decimos entonces que est´an incorreladas (es m´as d´ebil que la independencia)
3.
|?| = 1 ?? cov(X,Y) = E(XY) – E(X)E(Y) =
var(X)
var(Y) ?? Y = aX + b.

Monografias.com

CAPITULO 2. ESPERANZA Y VARIANZA.
´
´
18

2.3. Independencia.

De?nicion 2.3.1 Independencia.
i
1.

2.

3.
´ ´
De sucesos (A,B). Decimos que A,B son independientes si

P(A n B) = P(A) P(B).

De 2 v.a.. Sean (Xi)2=1 una vs.as. en (?,F,P), decimos que son independientes si
P(X1 ? C,X2 ? D) = P(X1 ? C) P(X2 ? D)
para C,D borel de Rn.
De s-algebras. Decimos que F,G, dos s-algebras son independientes si ?A ? F,?B ? G, se tiene que A,B son
´
´
independientes.

Observacion 2.3.1 Signi?cado de la independencia. Noci´on de probabilidad condicionada.

De?nicion 2.3.2 Independencia de familias.
1.

2.
i
De eventos.Sea A ={Ai} familia de sucesos en (?,F,P). Decimos que son independientes si para cualquiera
subfamilia “?nita” {Ani} se tiene
P(nAni) = ? P(Ani)
i
De v.a.Sean (Xi)n =1 una vs.as. en (?,F,P), decimos que son independientes si
P(X1 ? A1,….,Xn ? An) =
? P(Ai ? Ai)
i
3.
´ ´
para C,D borel de Rn.
De s-algebras.DecimosqueFi, s-algebrassonindependientessi?Ai ? Fi,setieneque Ai, Aj sonindependientes,
´
´
i.e. P(nAni) = ?i P(Ani).

De?nicion 2.3.3 Independencia y medida producto

µ(X,Y) (C) = P((X,Y) ? C)

Proposicion 2.3.1 Si X,Y son independientes entonces

µ(X,Y) = µ(X) ? µ(Y)

Por ejemplo si n = 2, entonces
µ(X,Y) (A × B)
=
P((X,Y) ? A × B) = P(X ? A,Y ? B) = P(X ? A) P(Y ? B) =
= µ(X) (A)µ(Y) (B) = µ(X) ? µ(Y) (A × B)

Teorema 2.3.1 Sean X,Y dos v.a. independientes. Entonces
1.
dµ(X,Y) = dµ(X) ? dµ(Y),

Monografias.com

2.4. DESIGUALDADES DE MARKOV Y CHEBYCHEV.
19
2.
E(h(X,Y)) =
R2
h(u,v)dµ(X,Y) =
R
R
hdµ(X) dµ(Y),
3.
E(XY) = E(X)E(Y), este punto es un caso particular del anterior.
Corolario 2.3.1 Teorema de Fubinni. X,Y independientes entonces integral iterada.

Ejemplo 2.3.1 Veremos un ejemplo en el que E(XY) =? E(X)E(Y), pero no al rev´es. Consideramos las v.a. X,Y tales
que
YX
-1
-1
0
0
1/5
1
0
1/5
0
1/5 1/5 1/5 3/5
1
0
1/5
0
1/5
1/5 3/5 1/5
en este caso
E(X)
E(XY)
= 0 = E(Y)
= 0
pero no son independientes, as´i que la moraleja es que hay que tener cuidado de antemano si no se advierte que dichas
variables sean independientes.
Observar que
P(X = 1,Y = 1) = 0 < P(X = 1) P(Y = 1).

Teorema 2.3.2 Sean X,Y dos v.a. independientes, entonces
P(X +Y = t) =
R
FX (t – y)dµY(y) =
R
P(X = t – y)dµY(y).
Teorema 2.3.3 Sean X,Y dos v.a. independientes y continuas y con funciones de densidad (fX, fY), entonces X + Y es
continua con funci´on de densidad dada por
FX+Y(t) =
R
fX (t – z) fY(z)dz.
2.4. Desigualdades de Markov y Chebychev.

Teorema 2.4.1 Desigualdades de Markov y Chebychev.

Markov: Sea X = 0, v.a. tal que ?, E(X), entonces ?t.
P(X = t) =
E(X)
t
,
de forma gen´erica tenemos
P(g(X) = t) =
E(g(X))
t
,
e incluso
P(g(X) = t) =
E(g(X)k)
tk
.

Monografias.com

CAPITULO 2. ESPERANZA Y VARIANZA.
P(|X – E(X)| > ts(X)) = 2
20
´

Chebychev: Sea X = 0, v.a. tal que ?, var(X), entonces denotamos, Z = (X – E(X))2 , de esta forma Z = 0 y
E(Z) = var(X), para todo t
P((X – E(X))2 = t2) =
var(X)
t2
y por lo tanto
P(|X – E(X)| = t) =
var(X)
t2
,
1
t
o equivalentemente
P(|X – E(X)| < t) = 1-
var(X)
t2
.
´
´
i.e. que la probabilidad de alejarse de la media est´a controlada por la varianza.

Podemos encontrar otras versiones del teorema de Chebychev, como la siguiente:

Proposicion 2.4.1 Desigualdad de Chebychev1. Sea el espacio de probabilidad (?,F,P) y X v.a. en dicho espacio. Sea
? : R ? R+, creciente. Entonces ?? ? R

P(X > ?) ?(?) = E(?(X)).

En efecto. Consideramos

?(X) = ?(X)(1lX>? + 1lX=?) = ?(X)1lX>? = ?(X)1lX=?,

al ser creciente, entonces
?(X) = ?(?)1lX=?,
tomando esperanzas entonces:

E(?(X)) = E(?(?)1lX=?) = E(?(?)) E(1lX=?),

por lo tanto
E(?(X)) = E(?(?)) P(X = ?),
tal y como quer´iamos hacer ver.

Veremos a continuacion algunos sencillos ejemplos.

Ejercicio 2.4.1 Chebychev: Supongamos que X es v.a. tal que E(X) = 25 y s(X) = 2, entonces estimar
1.
2.
P(X = 35)
P(X = 20)
´
Solucion. Consideramos la desigualdad de Chebychev para aproximar tales probabilidades:
P(µ – ks = X = µ + ks) = 1-
1
k2
.
Como sabemos que µ = 25 y s = 2 entonces

X = 35 ?? µ + ks = 35 ?? k = 5
1Algunos
autores pre?eren llamar a esta desigualdad, desigualdad de Markov en vez de Cheby.

Monografias.com

= 1- 2
k
21
2.4. DESIGUALDADES DE MARKOV Y CHEBYCHEV.

as´i (k = 5)
1-
1
k2
1
5
0,96
´
y (k = 5)
µ – ks = 15
por lo tanto
P(15 = X = 35) = 0,96 =? P(X = 35) = 0,96
ya que
P(X = 35) = P(15 = X = 35) = 0,96

Para contestar a la segunda pregunta operamos de igual forma:

X = 20 ?? µ – ks = 20 ?? k = 2,5

por lo tanto
P(X = 20) = P(20 = X = 30) = 0,84
como quer´iamos hacer ver.

Ejercicio 2.4.2 Sea X tal que E(X) = 80, utilizar Cheby para estimar la desviaci´on t´ipica si sabemos que

P(75 = X = 85) = 0,9

Solucion. Sabemos que Cheby nos dice:
P(µ – ks = X = µ + ks) = 1-
1
k2
= 0,9
por lo tanto
1-
1
2
= 0,9 ?? k =
v
10
y por consiguiente:
P(80-
v
10s = X = 80+
v
10s) = 0,9
80-
80+
v
v
10s = 75
10s = 85
por lo tanto
s =
1v
2
10
v
2. Encontrar una cota inferior de la prob. de que dicha variable
´
como quer´iamos hacer ver.

Ejercicio 2.4.3 Una v.a. tiene de media 14 y s =
? (10,18).

Solucion. Cheby nos dice:
P(µ – ks = X = µ + ks) = 1-
1
k2

Monografias.com

CAPITULO 2. ESPERANZA Y VARIANZA.
v v
P(14- k 2 = X = 14+ k 2) = 1- 2
P(10 = X = 18) = 1- 2
P(10 = X = 18) = 1- 2 =
´
1
k
22

por lo tanto

por consiguiente:
1
k
v v
k 2 = 4 ?? k = 2 2
1
k
7
8
i=
´ ´
´ ´
como quer´iamos hacer ver.

2.5. Ejemplos.

Ejercicio 2.5.1 Tenemos una m´aquina compuesta de 10 elementos independientes (Ci)101 , con P(Ci = fallo) = 0,05.
Estimar la probabilidad de que el valor absoluto de la diferencia entre el numero de elementos que fallan y el numero medio
de fallos en un periodo T resulte:
1) menor que 2.

2) mayor que 2.

Solucion. Si designamos por X el numero de fallos en el periodo T, entonces X ? Bin(10, p = 0,05), por lo que
su esperanza y varianza son
E[X] = np = 0,5,
var(X) = npq = 0,475.
si tenemos en cuenta la desigualdad de Cheby entonces encontramos que
P(|X – E[X]| < e) = 1-
var(X)
e2
,
de esta forma encontramos que:
1)
P(|X – 0,5| < 2) = 1-
0,475
4
˜ 0,88,
2)
P(|X – 0,5| > 2) =
0,475
4
˜ 1- 0,88.
´
tal y como quer´iamos hacer ver.

Ejercicio 2.5.2 Sea P(A) = 12, queremos acotar la probabilidad de que X = #A, P(40 < X < 60), si n = 100.
Suponemos que los sucesos son independientes.

Solucion. Vemos que X ? Bin(n = 100, p = 12), de esta forma su esperanza y varianza son
E[X] = np = 50,
var(X) = npq = 25.

Monografias.com

23
2.5. EJEMPLOS.

por lo tanto y aplicando Cheby, vemos que
P(|X – E[X]| < e) = 1-
var(X)
e2
,
por lo que que
P(|X – 50| < 10) = 1-
25
100
,
´
´ ´
donde se ha tomado e = maxX – E(X) = 60- 50 = 10.

Ejercicio 2.5.3 Tenemos unas variables X1,X2,… i.i.d., uniformes en el conjunto [0,1] ? [2,3]. Calcular var(X3).

Solucion. Vemos que la funcion de densidad es:
fX (x) =
1
2
1l[0,1] (x) + 1l[2,3] (x) ,
8
-8
fX (x)dx = 1,
observ´andose que

por lo tanto
E(X) =
8
-8
xfX (x)dx =
1
2
1
0
xdx +
3
2
xdx
3
= ,
2
y calculamos ahora
E X2 =
8
-8
x2fX (x)dx =
1
2
1
0
x2dx +
3
2
x2dx
=
10
3
,
de esta forma vemos que
var(X) = E X2 – E(X)2 =
13
12
tal y como quer´iamos hacer ver.

Monografias.com

l´im GX(s) =
´ ´
Cap´itulo 3

Funciones Generatrices.

3.1. Funciones generatrices de probabilidad.

De?nicion 3.1.1 De?nimos la funcion generatriz de probabilidad como:
GX(s) = E sk =
8
? P(X = k)sk =
k=0
sk fX.
´
Observacion 3.1.1 Vemos que

1.
GX(1)

GX(0)
=

=
8 8
? P(X = k)1k = ? P(X = k) = 1,
k=0 k=0
P(X = 0).
2.
E(X) = GX(1) =
8
? P(X = k)k,
k=1
var(X) = GX(1) + GX(1) – GX(1)2.
donde
GX(s)

GX(s)

GX(s)
=

=

=
8
? P(X = k)sk,
k=0
8
? P(X = k)ksk-1,
k=1
8
? P(X = k)k(k – 1)sk-2.
k=2
3.
s?1
8
? P(X = k)k(k – 1) = E(X(X – 1)),
k=2
en genral se tiene
25

Monografias.com

CAPITULO 3. FUNCIONES GENERATRICES.
l´im GX (s) =
?k k
s = e-? ?
k!
26

4.
s?1
k)
´

8
? P(X = k)k(k – 1)….(k – n + 1) = E(X(X – 1)….(X – n + 1)).
k=2
Ejemplo 3.1.1
1.
Sea X ~ Poisson(?), queremos calcular GX(s).
GX(s) =
8
?
k=0
P(X = k)sk =
8
?
k=0
e-?
8

k=0
(?s)k
k!
= e-?e?s = e?(s-1).
2.
Sea X ~ Geom(p), queremos calcular GX(s).
GX(s)
=
8 8 8
? P(X = k)sk = ? p(1- p)k-1sk = ? p(1- p)jsj+1 =
k=1 k=1 j=0
=
8
ps?(1- p)jsj =
j=0
ps
1- (1- p)s
.
vemos que la BN(n, p) , binomial negativa, es la suma de geom´etricas independientes entonces
G(X1,…,Xn)(s) =
n
? GXj(s) =
j=1
ps
1- (1- p)s
n
.
3.
Sea X ~ U(0,…, N), queremos calcular GX(s) :
GX(s) =
N
? P(X = k)sk =
k=0
1
N
N
? sk =
k=0
1
N
s – sN+1
1- s
.
d

Lema 3.1.1 Abel. Si uk = 0, entonces
f(s) =
8
?
k=0
uksk,
l´im f(s) =
s?1
8
? uk.
k=0
Ejemplo 3.1.2 Sea X ~ Poisson(?), sabemos que GX(s) tiene la siguiente expresi´on.

GX(s) = e?(s-1),
queremos calcular var(X) = E(X2) – E(X)2. Sabemos que

var(X) = GX(1) + GX(1) – GX(1)2,

as´i que deberemos calcular estas derivadas i.e.
GX(s) = ?e?(s-1),
GX(s) = ?2e?(s-1),

Monografias.com

l´im GX(s)
l´im GX(s)
27
3.1. FUNCIONES GENERATRICES DE PROBABILIDAD.

y calculamos ahora su l´imite i.e.
s?1

s?1
= l´im ?e?(s-1) = ? = E(X),
s?1
= ?2 = E(X(X – 1)) = E(X2) – E(X)
por lo tanto

entonces

tal y como quer´iamos hacer ver.
E(X2) = ?2 + ?,

var(X) = E(X2) – E(X)2 = ?2 + ? – ?2 = ?,

Suma de v.a.i.
i N
Teorema 3.1.2 GX+Y = GX · GY.

Teorema 3.1.3 Sean (Xi)i=1 v.a.i.i.d. y sea Y = ? =1 Xi. entonces
GY(s) = GN (GX (s)).

Ejemplo 3.1.3 1. Sean Xi ~ Poisson(?i), sabemos que GXi(s) tiene la siguiente expresi´on.GXi(s) = e?i(s-1), quere-
mos calcular la G? Xi,
G? Xi = ? GXi = e??i(s-1) ~ Poisson(??i)
2.
Sean Xi ~ Bernoulli(p), queremos conocer la dostribuci´on de la suma de n – Bernoullis. Sabemos de antemano
que
? Xi ~ Bin(n, p)
i.e. se trata de una binomial. Pero con funciones generatrices vemos que
G? Xi =
? GXi =
GXi
n
= (ps + (1- p))n ,
´
´
Convergencia1.

L
de distribuci´on de Xn.

Observacion 3.1.2 No es su?ciente que {Fn} -? F puntualmente para asegurar la convergencia en ley. Es preciso que
F sea funci´on de distribuci´on.

L

De esta forma se puede demostrar por ejemplo que
B(n, p) -? Poisson(? = np)
que es una version preliminar del TCL.

Monografias.com

CAPITULO 3. FUNCIONES GENERATRICES.
..
28
´
´
´ ´
3.2. Funcion generatriz de momentos.

Extendemos la teor´ia y de?nimos FGM.

De?nicion 3.2.1 De?nimos la funcion generatriz de momentos como:
MX (?) := E e?X =
e?X fX (x)dx =
8
?e?Xpi = ?
k=0
?k
k!
E Xk
por lo tanto
MX (0) = E(1) = 1.
´
Observacion 3.2.1 Sabemos que
E[g(X)] =
g(x) fXdx
y por lo tanto
E e?X =
e?X fX (x)dx
Ejemplo 3.2.1 Sea E Xk = 0,8, k = 1,2,3… Encontrar MX(t) y P(X = 0),P(X = 1).

Vemos que por de?nici´on
MX (t) =
8
?
k=0
tk
k!
8
E Xk = 1+ 0,8 ?
k=1
tk
k!
8
= 0,2+ 0,8 ?
k=0
tk
k!
= 0,2+ 0,8et.
MX (t) =
?etxipX(xi)
Igualmente vemos que por de?nici´on

por lo tanto
P(X = 0)
P(X = 1)
= 0,2,
= 0,8.
´
vemos que X ~ Bernoulli(p).

Observacion 3.2.2 Vemos que
ak = E Xk =
dk
d?k
MX (?)|?=0 .
M (0)
M (0)

var(X)

M(k(0)
= a1 = E[X],
= a2 = E X2 ,
= E X2 – E[X]2 = M (0) – M (0)2,

.
= ak.

Monografias.com

3.2. FUNCION GENERATRIZ DE MOMENTOS.
{Xi} -? X sii MXi (?) -? MX (?).
q
= e?(e -1),
´
29
Ejemplo 3.2.2 Por de?nici´on sabemos que MX (?) = E e?X y que GX(s) = E sX , entonces se ve que si hacemos
s = e?, obtenemos:
MX (?) = GX(e?)
Teorema 3.2.1
1.
MX (?) = MY (?) ?? X = Y,
2.

3.
X,Y v.a.i. entonces MX+Y (?) = MX (?) MY (?),
L
1.
Ejemplo 3.2.3

vemos que
Bernoulli. Sea X ~ Bernoulli(p), queremos calcular MX(t).
?etxipX (xi) = et0pX (0) + et1pX (1) = (1- p) + pet,
MX(t) =
i

MX (0) = p,
MX (0) = p,
y por lo tanto
E[X] = p,
var(X) = p(1- p).
Sean ahora (Xi) ~ Bernoulli(p), de?nimos, Y = ?i Xi, entonces
MY(t) =
?
i
q + pet = q + pet
n
~ Bin(n, p),
2.
tal y como veremos a continuaci´on.
Binomial. Sea X ~ Bin(n, p), queremos calcular MX(t).
MX(t) =
n
? etk
k=0
n
k
pkqn-k =
n
?
k=0
n
k
etp
k n-k
= q + pet
n
,
vemos que
MX (0) = np,
MX (0) = np + n(n – 1) p2,
y por lo tanto
E[X] = np,
var(X) = npq.
3.
Poisson. Sea X ~ Poisson(?), queremos calcular MX(t).
MX(t) = e-?
8
?
k=0
e-tk
(?)k
k!
-t
vemos que
MX (0) = ?,
MX (0) = ?2 + ?,
y por lo tanto
E[X] = ?,
var(X) = ?.
Sean ahora (Xi) ~ Poisson(?i), de?nimos, Y = ?i Xi, entonces
MY(t) =
?e?i(e
i
-t-1)
= e?(e
-t-1)
,
donde ? = ??i.

Monografias.com

CAPITULO 3. FUNCIONES GENERATRICES.
MX(t) = v
30
´
4.
Exponencial. Sea X ~ exp(?), queremos calcular MX(t).
MX(t) =
8
0
?e-?xetxdx =
?
t – ?
e(t-?)x
8

0
=
?
t – ?
,
? > t,
vemos que
MX (0) = ?-1,
MX (0) = 2?-2,
var(X) = ?-2.
y por lo tanto
E[X] = ?-1,
Sean ahora (Xi) ~ exp(?i), de?nimos, Y = ?i Xi, entonces
MY(t) =
?
i
?i
t – ?i
=
?
t – ?
n
~ G(n,?).
5.
Normal.Sea X ~ N (0,1), queremos calcular MX(t).
1
2p
8
-8
e-x
2/2
etxdx = et
2/2
,
i
Sean ahora (Xi) ~ N µi,s2 , de?nimos, Y = ?i Xi, entonces
Y ~ N
?µi,?s2
i i
i
.
´
´ ´
6. Y = aX + b.
MY(t) = E et(aX+b) = etbMX (at).

3.3. Funcion caracter´istica.

De?nicion 3.3.1 Funcion caracter´istica.
?X(?) =
ei?x fXdx = E eitX
´
i.e. se trata de la TF.

Observacion 3.3.1 Se veri?ca:
fXdx = 1,
1.
2.
3.
Siempre existe ?(?),
?(0) = 1, ya que ?(0) =
|?(?)| = 1.
´
Observacion 3.3.2 Vemos que
1.
FGP
GX(s) = E sk =
sk fXdx

Monografias.com

? ?(n(?) = in
{Xi} -? X sii ?Xi (?) -? ?X (?).
a -a|x|
3.4. EJEMPLOS
31
MX (t) = E etX =

?X(?) = E ei?X =
etX fXdx,

ei?x fXdx,
s = et,

t = i?,
2.
FGM

3.
FC

Teorema 3.3.1 Si existe
ak =
xk fX
=?
?
? ? ?(n(0) = inan
?
ei?xxn fXdx
.
Teorema 3.3.2 Si existe ?(n(?), entonces
?
a2n =
?(2n(0)
i2n
,
Si existe ?(2n-1(t), entonces
?
a2n-2 =
?(2n-2(0)
i2n-2
.
Teorema 3.3.3
1.
?X(?) = ?Y(?) ?? X = Y,
2.

3.
X,Y v.a.i. entonces ?X+Y (?) = ?X (?) ?Y (?),
L
3.4. Ejemplos

Ejercicio 3.4.1 Dada la v.a. X con funci´on de densidad, fX
fX(x) =
2
e
,
a > 0,
´
determinar su funci´on caracter´istica.

Solucion. Sea
f(t) = E eitx =
eitx fXdx
´
por lo tanto y atendiendo a la funcion fX, tenemos que:
f(t) =
a
2
0
-8
eitxeaxdx +
8
0
eitxe-axdx =
a
2
1
it + a

1
it – a
=
a2
a2 + t2
.
Vemos que al ser fX(x) sim´etrica, entonces f(t) es real.

Ejercicio 3.4.2 Calcular los valores de a que hacen que f es funci´on car´acter´istica, donde.

a

Monografias.com

CAPITULO 3. FUNCIONES GENERATRICES.
a = 2,=? f(a,0) = e-t , de esta forma vemos que
f(a,t) = e-t ? N(0,
= -ata-1e-t ,
b – a A
2 (|x|=1)
32
´
´
Solucion. Atendiendo a las propiedades de f(a,t) vemos que b´asicamente se debe cumplir:
f(a,0) = 1,
|f(a,t)| = 1
as´i que:
´
1.

2.
a = 1,=? f(a,0) = e-t, de esta forma vemos que no se cumple la condicion |f(1,t)| = 1 .
2
2
v
2).
3.
a > 2, Argumentamos de la siguiente forma:
f
a
f (0) = 0
f
=
f(a,t),
f (0) = 0
´
´ ´
de esta forma vemos que si fuera FC al existir, la segunda derivada y ser nula en cero, entonces el momento
de segundo orden ser´ia cero y al ser cero la esperanza de de la v.a. ser´ia nula, pero esto no puede ser por
la primera de las propiedades, por lo que llegamos a una contradiccion y por lo tanto no puede serlo para
a > 2.

Tal y como quer´iamos hacer ver.

Ejercicio 3.4.3 Sea X una v.a. uniforme en [-1,1], i.e. X ~ U [-1,1]. Escribir su funci´on de densidad fX(x) y calcula
su funci´on generatriz de momentos.

Solucion. La funcion de densidad es:
fX(x) =
1
1l (x) =
1
1l
(x),
y por lo tanto
MX (t) = E etX =
R
etx fX(x)dx =
1
2
1
-1
etxdx =
1
2t
et – e-t
´ ´
tal y como quer´iamos hacer ver.

Ejercicio 3.4.4 Sea X ~ U [a,b]. Calcular su FGM y dada Y v.a. tal que fY = G, entonces Z = G(Y) ~ U [0,1],
Calcular la FGM de Z.

Solucion. Por de?nicion la FGM es:
MX(t) = E etX =
b
a
etx fX(x)dx,
donde
fX(x) =
1
b-a
0
a = x = b
resto
,
por lo tanto
MX(t) =
1
b – a
b
a
etxdx =
etb – eta
t(b – a)

Monografias.com

k+1,
1 2
1 2
1 3
t k? 1 k!
33
3.4. EJEMPLOS

observando que si [a,b] = [0,1], entonces
MX(t) =
et – 1
t
,
MX(0) = 1.
´
R
etG(Y)g(y)dy
Con respecto a la segunda cuestion, vemos que

MZ (t) = E etZ = E etG(Y) =

donde dG(y) = g(y), por lo tanto
R
e
tG(Y)
g(y)dy =
etG(Y)
t
8

-8
=
et – 1
t
:= MX(t)
´
´
´ ´
donde X ~ U [0,1].

Ejercicio 3.4.5 Sean X,Y v.a.i.i.d. que toman valores en N. Sea G(s) su funci´on generatriz de probabilidad comun. Es-
cribir, en t´erminos de G(s), la probabilidad de que X +Y sea un numero par o cero.

Solucion. La funcion generatriz es:
GX+Y (s) = GX (s) GY (s) = G(s)2 .
los coe?cientes de G(s)2 son las probabilidades de que X +Y tome sucesivos valores 0,1,2,… i.e.
8
? P(X +Y = n)sn = P(X +Y = 0)s0 + P(X +Y = 1)s1 + P(X +Y = 2)s2 + ….,
n=0
G(s)2 =

por lo tanto
G(1)2
=
P(X +Y = 0) + P(X +Y = 1) + P(X +Y = 2) + ….,
G(-1)
2
=
P(X +Y = 0) – P(X +Y = 1) + P(X +Y = 2) + ….,
1
2
G(1)2 + G(-1)2 ,
de esta forma llegamos a que

P(X +Y es par o cero) =

tal y como quer´iamos hacer ver.
Ejercicio 3.4.6 Sea E Xk =
1
k = 1,2,3… Encontrar MX(t).
´ ´
Solucion. Vemos que por de?nicion
MX (t)
=
8
?
k=0
tk
k!
8
E Xk = 1+ ?
k=1
1 tk
k + 1 k!
1
= 1+ t +
2
1
2!(3)
t2 + …. =
= 1+
1
2!
t +
3!
t + …. =
1
t
1+
2!
t +
3!
t + ….
=
=
1 8 tk
=
=
1
t
et – 1 ,
y por lo tanto X ~ U [0,1].

Monografias.com

CAPITULO 3. FUNCIONES GENERATRICES.
´
34

Ejercicio 3.4.7 Determinar la densidad cuya FC viene dada por
?(t) =
1- |t|
0
|t| < 1
|t| > 1
,
´ ´
Solucion. Vemos que por de?nicion
fX (x) =
1
2p
1
-1
e-itx (1- |t|)dt =
1
2p
1
-1
cos(1- t)dt =
1- cosx
px2
,
y comprobamos que fX (x) = 0
R
fX(x)dx = 1,
al ser ?(t) continua y acotada entonces es caracter´istica.

Monografias.com

i=
´
Cap´itulo 4

Convergencia

4.1. Series aleatorias. Convergencia.

Sea {Xi}8 1 v.a. de?nidas en (?,F,P).

c.s.

n-?8
En an´alisis esta convergencia corresponde a la convergencia en casi todo punto.

C

E(|Xn – X|2) -? 0.

P

P(? ? ? : |Xn – X| > e) -? 0.
equival´entemente
P(|Xn – X| < e) -? 1.
En an´alisis esta convergencia corresponde a la convergencia en medida.

L
de distribuci´on de Xn.

Observacion 4.1.1 No es su?ciente que {Fn} -? F puntualmente para asegurar la convergencia en ley. Es preciso que
F sea funci´on de distribuci´on.

Ejemplo 4.1.1 Sea la sucesi´on de funciones de distribuci´on de Xn, dada por
Fn(x) =
x < n
x = n
0
1

35

Monografias.com

CAPITULO 4. CONVERGENCIA
1
{Xi} -? X
{Xi} -? X
{Xi} -? X.
36
´
L
como vemos Fn -? F = 0,?x ? R. Por lo tanto Xn -? X = 0, ya que F(x) = 0, no puede ser funci´on de distribuci´on.
Sin embargo
Fn(x) =
?
? 0
?
x n
?
? > 0,
x < 0,
0 = x = 0,
x = ?,
que en realidad se reduce a
Fn(x) =
0
1
x < 0,
x = ?,
´
L

C P

Demostracion. Recordamos que la desigualdad de Markov nos dice:
E(X)
P((X) > ?) =
?
entonces si de?nimos Z = |Xn – X|2 ,

P(|Xn – X| > e) = P(|Xn – X|2 > e2) =
E(|Xn – X|2)
e2
-? 0
´
este es precisamente el argumento de la ley d´ebil de los grandes numeros.

c.s. P

P L
c.s.
=?
P
=?
L
´
´
´
n
n
Teorema 4.1.1 (Bernoulli) En una serie de pruebas independientes, la frecuencia relativa del suceso A converge en prob-
abilidad a P(A) cuando el numero de pruebas tiende a in?nito.

Este teorema justi?ca la utilizacion de la probabilidad como modelo matem´atico de la frecuanecia relativa y da
consistencia teorica a la ley de estabilidad de frecuencias.

Teorema 4.1.2 Sean {Xn}8 =1 v.a. i.i.d. (independientes e identicamente distribuidas) de?nidas en (?,F,P). Si E[Xn] =
µ y s[Xn] = s < 8, i.e. son ?nitas entonces
-? µ
n

Teorema 4.1.3 Levy-Cramer. Sean {Xn}8 =1 v.a., tal que Fn es la sucesi´on de funciones de distribuci´on de Xn y ?n las
L
Corolario 4.1.1 {Xi} -? k sii
-?
nl´im 8 ?n = eitk.

Monografias.com

{Xn} -? X = 0,
{Xn} -? X = 0.
l´im Xn = 0 = P Xn =
{Xn} -? X,
{Xn} -? X,
{Xn} -? X.
?X(t) = e-t /2,
?-X(t) = e-t /2,
4.1. SERIES ALEATORIAS. CONVERGENCIA.
37
Ejemplo 4.1.2 Se de?ne para cada n = 1,2,3… la variable aleatoria Xn discreta con valores
1
n
y
-1
n
y probabilidad
P Xn =
1
n
= p,
P Xn = –
1
n
= q
tal que p + q = 1 :
1.

2.
P

c.s.
P

P(|Xn – 0| > e) < d ?? P(|Xn – 0| < e) > 1- d
considerando n0 >
1
e
?n > n0
P(|Xn – 0| < e) = P Xn =
1
n
+ P Xn = –
1
n
= p + q = 1 = 1- d
P

En segundo lugar vemos que:
P
n-?8
1
n
+ P Xn = –
1
n
= p + q = 1
c.s.

c.s. P

Ejemplo 4.1.3 Sea X ? N(0,1) y consideramos {Xn}, tal que X2k+1 = -X, X2k = X; para todo k = 0,1,2….
Comprobar si:
1.

2.

3.
L

P

c.s.
Ve´amoslo. Debido a la simetr´ia de X ? N(0,1) =? -X ? N(0,1) se estudia la convergencia teniendo en cuanta
2
2
las funciones caracter´isticas, i.e.

y por lo tanto
?n(t) = e-t
2/2
, =?
-?
nl´im 8 ?n(t) = e-t
2/2
,
´
que es continua en t = 0. Al ser funcion caracter´istica de X ? N(0,1), entonces nos asegura la convergencia en
ley.

Monografias.com

CAPITULO 4. CONVERGENCIA
?e > 0 l´im P(|Xn – X| > e) = 0
´
38

Con respecto a la convergencia en probabilidad, vemos que:

n-?8
si tomamos e = 1
P(|Xn – X| > 1)
=
P(|-2X| > 1) = P |X| >
1
2
=
P |X| =
1
2
+ P X >
1
2
= 0,3830 ?k = 0,1,…
por lo tanto
{Xn}
P
X
i.e. no converge en probabilidad.
´
Por ultimo vemos que como {Xn}
P
X =? {Xn}
c.s.
X i.e. tampoco converge casi seguro.
´
4.2. Ejercicios.

Ejercicio 4.2.1 Consideramos {Xn} v.a.i.i.d pertenecientes a una uniforme U(0,?). Demostrar que

P

Solucion. Sea
Zn = m´ax{X1,…..,Xn}
como Zn(?) = ?, ??, tomamos ?e > 0,
P(|Zn – ?| > e)
=
=
P((? – Zn) > e) = P(Zn < ? – e) =
P(X1 < ? – e,…….,Xn < ? – e) =
=
? P(Xi < ? – e) = F(? – e)n =
? – e
?
n
-? 0
viendo que
?-e
?
< 1. De esta forma concluimos que
´ ´ ´
P(|Zn – ?| > e) -? 0

P

Para estudiar su convergencia en distribucion, vemos que si X es una representacion gen´erica de (Xn) su funcion
de densidad viene dada por
f(x) =
1/?
0
?x ? (0,?),
resto,
,
´ ´
y F su funcion de distribucion
F(x) =
?
?
? 0
x < 0,
x/?
1
x ? (0,?),
x = ?,
´ ´
entonces la funcion de distribucion de Zn ser´a
Gn(x) = P(m´ax{X1,…..,Xn} = x) = nP(Xi = x) = (F(x))n , i.e.

Monografias.com

1
l´im Gn(x) = G(x) =
4.2. EJERCICIOS.
39
Gn(x) =
?
? 0
(x/?)n
?
x < 0,
x ? (0,?),
x = ?,
viendo que
n?8
0
1
x < ?,
x = ?,
que es una delta-Dirac.

Ejercicio 4.2.2 Sea {Xn} tales que P Xn =
k
n
1
= n, k = 1,…n. Estudiar la convergencia en ley.
´
Solucion. Vemos que Xn toma los siguientes valores;
1 2 3
, , ,…..,
n n n
n – 1 n
,
n n
,
P Xn =
k
n
=
1
n
´
1
n
?eikt/n,
entonces la funcion caracter´istica de Xn ser´a

fXn = E eitXn =

entonces haciendo el c.v. u = eit/n, vemos que
fXn =
1
n
?uk =
1
n
u(un – 1)
u – 1
=
eit/n eit – 1
n eit/n – 1
por lo que
-?
nl´im 8fXn(t) =
eit – 1
it
´
c c
que es la funcion caracter´istica de la uniforme U(0,1). Por lo tanto

L

tal y como quer´iamos hacer ver.

Ejercicio 4.2.3 Sea T una v.a. U -1, 1 , y sea Y = cT. Sea
Xk =
?
?
? -1
-1 < Y < -1/k,
0 -1/k = Y < 1/k,
1 1/k < Y < 1,
´
estudiar la convergencia en probabilidad y casi segura.

Solucion. Sea Y ? U [-1,1], entonces Xk es
P(Xk = -1)
=
-1/k
-1
1
2
dy =
1
2
1-
1
k
,
P(Xk = 0)
=
0
-1/k
1
2
dy =
1
2k
,
P(Xk = 1)
=
1
1/k
1
2
dy =
1
2
1-
1
k
,

Monografias.com

CAPITULO 4. CONVERGENCIA
? 0
? 1
?
?
?
?
?
l´im Fk(x) =
Xk -? X,
entonces Xk -? X,
n – ? it
n – ? it/n
n e
n e
40
´
por lo tanto
Fk(x) =
?
?
?
? 1
1-
1+
1
k
1
k
2
2
1
x < -1,
-1 = x < 0,
0 < x < 1,
x = 1,
por lo tanto
n?8
?
?
? 0
x < -1,
1/2
1
-1 = x < 1 ,
x = 1,
y por lo tanto
L
X =
-1
1
,
tal que
P(X = -1) = P(X = 1) =
1
2
,
supongamos adem´as que X est´a de?nida tal que
c.s.
X =

|Xk – X| =
-1,
1,

1,
0,
-1 = Y < 0,
0 = Y < 1,

-1/k = Y = 1/k,
resto,
entonces para todo e > 0, tenemos
l´im P(?8 (|Xk – X| = ))
k-?8
=
l´im P(?8 (-1/k = Y = 1/k)) =
k-?8
=
1
l´im P(-1/k = Y = 1/k) = l´im
k-?8 k-?8 k
= 0,
´
de esta forma demostramos que hay convergencia casi segura y por lo tanto tambi´en en probabilidad.

Ejercicio 4.2.4 Sea {Xn} una v.a. con distribuci´on geom´etrica de par´ametro p = ?/n. Calcular la funci´on caracter´istica
de Xn. Si de?nimos ahora Zn = Xn/n, estudiar la convergencia en ley a la funci´on G(p = 1,a = ?).

Solucion. Vemos que X ? Geo(p) y que por lo tanto q = 1- p.
fX(t) = p
8 8
? qxeitx = p ?
x=0 x=0
qeit
x
=
p
1- qeit
y de esta forma
fXn(t) =
?
n
1-
n
e
-1
y por lo tanto y con respecto a la segunda de las cuestiones vemos que
fZn(t) =
?
n
1-
n
e
-1
n l´im fZn(t) = n l´im
?8 ?8
1-
?/n
n-? it/n
= l´im
n?8
?eit/n –
?
n-? it/n
it
=
?
? – it
=
1- i
t
?
-1
= fG(t),
tal y como quer´iamos probar.

Monografias.com

? P(|Xn| > e) = ? n
? n2
– n+1
– n+1
e2 it + e-2 it
41
4.2. EJERCICIOS.

Ejercicio 4.2.5 Sea {Xn} una v.a. tal que
P(Xn = ±2) = P(Xn = ±1) =
1
4n
,
P(Xn = 0) = 1-
1
n
´
estudiar la convergencia en probabilidad y casi segura.

Solucion. Vemos que ?e > 0,

P(|Xn| > e) = P(|Xn| > 0) = 1- P(|Xn| = 0) =
1
n
´
por lo que Xn ? 0. Al tratarse de v.a.i. la convergencia c.s. a (X = 0) es equivalente a la condicion de convergen-
cia completa
? P(|Xn| > e) < 8,
? pn < 8
?e > 0,
1
= 8
viendo que

y por lo tanto no hay convergencia casi segura.

Ejercicio 4.2.6 Sea {Xn} una v.a. tal que
E[Xn] =
1
n
,
var(Xn) =
1
n2
,
´ ´
estudiar la convergencia casi segura utilizando la desigualdad de Cheby.

Solucion. Teniendo en cuenta que la condicion de convergencia completa ? P(|Xn| > e) < 8, es su?ciente para
la c.s. y esto se cumple por Cheby i.e.
? P(|Xn| > e) =
1
e2
? E
2
Xn =
1
e2
?
var(Xn) + E[Xn]2 =
1
e2
2
< 8,
var(Xn)
e2
? 0
tal y como quer´iamos hacer ver.

Tambi´en podemos pensar de la siguiente manera:

? P(|Xn| > e) = ? P(|Xn – E[Xn]| > e) =

pero as´i probar´iamos la convergencia en probabilidad.

Ejercicio 4.2.7 Sea {Xn} una v.a. tal que
P(Xn = ±1) = 1-
1
2n
,
P(Xn = ±2n) =
1
2n+1
´
estudiar la convergencia en probabilidad y casi segura.

Solucion. Vemos claramente que E[Xn] = 0.
fXn(t) =
1
2
1
2
eit +
1
2
1
2
e-it +
1
2n+1
n n

Monografias.com

CAPITULO 4. CONVERGENCIA
2n.
e
= 2 n ? 0,
? P(An) = ? 2n
-? 0.
-1
4
´
42

y de esta forma
?8
n l´im fXn(t) -?
1
2
eit + e-it
1 ´
por lo que Xn es una v.a. discreta,.P(X = ±1) = 2, de esta forma llegamos a la conclusion de que
L

sin embargo con respecto a los otros tipos de convergencias no podemos decir nada.

Ejercicio 4.2.8 Sea {Xn} una v.a. tal que
P(Xn = ±1) =
1
2n+1
,
P(Xn = 0) = 1-
1
2n
´ 2
estudiar la convergencia en probabilidad y casi segura.

Solucion. Vemos claramente que E[Xn] = 0, var(Xn) = E Xn =
1
Aplicamos por lo tanto Cheby.
? P(|Xn| > e) = ? P(|Xn – E[Xn]| > e) =
var(Xn)
2
1
e 2
pero as´i probar´iamos la convergencia en probabilidad.
Con respecto a la convergencia c.s. aplicamos Borel-Canteli. Xn -? 0, consideramos An = (|Xn| > e).
P(An) = P(Xn = 1) + P(Xn = -1) =
1
2n
1
< 8,
entonces

y BC nos dice que
P(An 8 veces) = 0
y por lo tanto Xn -? 0, c.s. tal y como quer´iamos hacer ver.

Ejercicio 4.2.9 Sea {Xn} una v.a.i. tal que
P(Xn = ±2n) =
1
3
,
Sn =
? Xi
estudiar la convergencia en probabilidad
Sn
4n
P
´ 2 2
Solucion. Vemos claramente que E[Xn] = 0,var(Xn) = E Xn = 34n. Como las (Xi) son v.a.i. entonces vemos
que
var(Sn) = var ? Xi = ?var(Xi) =
2
3
?4i,
2
3
?4i =
4n+1 – 1
3
,
aplicamos por lo tanto Cheby.
? P
Sn
4n
> e
= ? P(|Sn| > e4n) =
var(Sn)
e242n
=
n+1
3
e242n
? 0,
probando as´i la convergencia en probabilidad.

Monografias.com

eit/2 – 1
l´im ?n (t) =
-? 0.
22(n+1)-2
4.2. EJERCICIOS.
43
´
Ejercicio 4.2.10 Sea Fn lafunci´onde distribuci´onuniformeen [k/2n], k = 0,1,2,…Probarque Fn ? F (endistribuci´on).
¿F?.

Solucion. Vemos que
?n (t) =
1
-1
eitxdFn(x) =
2n
eit – 1
n
,
de tal forma que
n?8
eit – 1
it
,
´
por el teorema de continuidad de Levy, Fn converge en distribucion a la uniforme en (0,1).

Ejercicio 4.2.11 Considera la sucesi´on de variables i.i.d. (Xj). Estas variables toman los valores +1 y -1 con probabilidad
1/2. Sea ahora la siguiente variable aleatoria:
Hn =
n
? 2iXi,
i=1
P
Hn
2an
> e
n?8
1.

2.
Comprobar que ?e > 0, y si a > 1, entonces

¿Qu´e pasa si a = 1?.
´
Solucion. con probabilidad 1/2. Sea ahora la siguiente variable aleatoria:
E(Xi) = 0,
var(Xi) = 1,
as´i que que la variable Hn tendr´a
E(Hn)
= 0,
var(Hn)
= var
n
? 2iXi
i=1
=
n
? 22ivar(Xi) =
i=1
n
? 22i =
i=1
2
3
,
por lo tanto utilizando la desigualdad de Cheby vemos que
P
Hn
2an
> e
= P(|Hn| > e2an) =
var(Hn)
e222an
,
´ ´ ˜
´
observ´andose que
-? 0,

tal y como quer´iamos hacer ver.
Si a = 1, la desigualdad de Chebyshev no nos proporciona informacion util para e pequeno. Pero en realidad
es que P(|Hn| > e2n) no puede tender a 0 cuando n ? 8 para todo e > 0. Argumentemos, por ejemplo, de la
siguiente forma: con probabilidad 1/4, los dos ultimos lanzamientos son +1 y, por tanto,
Hn =
n-2
? 2iXi + 2n-1 + 2n,
i=1

Monografias.com

CAPITULO 4. CONVERGENCIA
´
44

de esta forma vemos que
n-2
? 2iXi < 2n-1 – 2,
i=1
y por lo tanto con probabilidad 1/4
Hn
2an
> 1
viendo as´i que no hay convergencia.

Monografias.com

poblacion (X1,….,Xn), nos preguntamos la proporcion de {Xi}i n =1 con caracter´istica A i.e.
#{Xi}i n =1
´ ´ , la idea
?i n Z(?i)
´
´
Cap´itulo 5

Leyes de los grandes numeros.

5.1. Leyes de los grandes numeros.

Ideas intuitivas.
1.
´
Supongamos que tenemos una cierta poblacion ? y estudiamos una cierta caracter´istica (el suceso A)
con frecuencia relativa p i.e. frec(A) = p. Obtenemos al azar e independientemente elementos de esta

n
intuitiva es que
i
#{Xi}n =1
n
p, i.e.
frec(A) = p
´
´
2.
´ i
solo cuando n es muy grande.
Hemos partido de esta idea intuitiva para de?nir probabilidad y fundamentar las leyes de la probabilidad.
Las leyes de los grandes numeros transforma esta idea en un teorema.
Tenemos una cierta poblacion ?. Si Z es una variable en ? obtenemos una muestra de ? {?i}n =1 y con-
sideramos
-? µ := E(Z).
n
i
(1) es un caso particular de (2).

5.1.1. Ley d´ebil.

Teorema 5.1.1 Sean {Xi}n =1 una sucesi´on de v.a. i.i.d. entonces:
i
?n Xi
n
-? µ
ya que P
i
?n Xi
n
– µ > e
-? 0
?e > 0 cuando n -? 8. Equivalentemente
P
i
?n Xi
n
– µ < e
-? 1.
´ ´
Demostracion. Los dos ingredientes necesarios para la demostracion del teorema son:

45

Monografias.com

CAPITULO 5. LEYES DE LOS GRANDES NUMEROS.
n
46
´ ´
1.
La desigualdad de Cheby i.e.
P(|Z – E[Z]| > ?) =
var(Z)
?2
2.
Como nuestras variables son independientes entonces
var
? Xi
= ?var(Xi) = n · var(X)
´
ya que todas tienen la misma distribucion. En particular si var(X) = s2 entonces:
var
? Xi
n
=
1
2
n · s2 =
s2
n
3.
Si E[X] = µ
E
? Xi
n
=
1
n
(n · µ) = µ
Por lo tanto aplicando Cheby a Z =
? Xi
n
P(|Z – µ| > ?) =
var(Z)
?2
entonces:
P
? Xi
n
– µ > ?
=
1 s2
?2 n
-? 0
´
cuando n -? 8. Como quer´iamos demostrar.

Observacion 5.1.1 La moraleja del teorema es la siguiente:
? Xi
n
-? µ
cuando n -? 8.
E
? Xi
n
= µ,
var
? Xi
n
=
s2
n
˜
´
´ i
alejarse de la media tiene una probabilidad muy pequena

De forma alternativa pero similar pedemos ver esta ley como sigue (ver referencias del prologo):

De?nicion 5.1.1 Sea {Xi}n =1 una sucesi´on de v.a. tal que E(Xn) = µn < 8,?n ? N. De?nimos
Xn =
i
?n Xi
n
P
E(Xn) =
i
?n E(Xi)
n
i
Teorema 5.1.2 Sea {Xi}n =1 una sucesi´on de v.a.i. (independientes) tal que
1.
2.
i.d. (identicamente distribuidas),
Xn tiene media y varianza ?nitas ?n ? N, entonces

Monografias.com

5.1. LEYES DE LOS GRANDES NUMEROS.
? Xi – n ? ai
-? 0.
? n i
-? a.
? n i,
? Xi – n ? ai
= 2 2
? Xi – n ? ai
-? 0.
47
i
i
´

{Xi}n =1 obedece la LD.

Teorema 5.1.3 (Chebychev). Sea {Xi}n =1 una sucesi´on de v.a.i. tal que
2
var(Xn) = sn = c
?n ? N,
i
i
entonces {Xi}n =1 obedece la LD.

Teorema 5.1.4 Sea {Xi}n =1 una sucesi´on de v.a.i. dos a dos, tal que, E[Xi] = ai. Si var(Xn) = c, ?n ? N, entonces
1
n
1
P
´ i
Observacion 5.1.2 Si las {Xi}n =1 son v.a.i.i.d. entonces E[Xi] = ai, ?i ? N y por lo tanto
a
= a
=?
1
n
? Xi
P
´
Demostracion. ?i ? N, de?nimos la v.a.
Zn =
?
Xi
n
,
=?
E[Zn] =
a
al ser v.a. i. dos a dos, entonces
var
? Xi
= ?var(Xi) = nc,
entonces aplicando Cheby, llegamos a
P
1
n
1
= e
= P(|Zn – E[Zn]| = e) =
var(Zn)
e2
1
n e
?var(Xi) -? 0,
i
i
i
tal y como quer´iamos hacer ver.

Teorema 5.1.5 (Markov). Sea {Xi}n =1 una sucesi´on de v.a. tal que

n-?8
entonces {Xi}n =1 obedece la LD.

Teorema 5.1.6 Sea {Xi}n =1 una sucesi´on de v.a.i. tal que, E[Xi] = ai. Si
1
n2
n?8
?var(Xi) -? 0,
entonces
1
n
1
P
i
Teorema 5.1.7 (Khintchine). Sea {Xi}n =1 una sucesi´on de v.a. tal que
1.
2.
i.i.d.,
E(Xn) = µ ?n ? N,
i
entonces {Xi}n =1 obedece la LD.

Monografias.com

CAPITULO 5. LEYES DE LOS GRANDES NUMEROS.
48
´ ´
´
Ejemplo 5.1.1 Sea p ? (0,1) la probabilidad de que un votante vote a un candidato determinado y supongamos que la
respuesta de cada votante sea independiente. Determinar el numero de votos que hay que escrutar de forma que exista una
probabilidad mayor o igual a 0,95 de que la discrepancia entre la frecuanecia relativa de votos favorables y la probabilidad
desconicida p sea menos o igual que 0,1.
En efecto. Sea
Xi =
?
?
? 1
si el votante vota al candidato
0
si el votante NO vota al candidato
Xn =
i
?n Xi
n
de?nimos

como la frecuencia relativa y
P
Xn – p = 0,1 = 0,95 ?? P
Xn – p > 0,1 = 0,05.
Por otro lado si tenemos en cuanta la desigualdad de Cheby.:
P
Xn – p > 0,1 =
var(Xn)
(0,1)2
=
pq
n(0,01)
=
1
4n(0,01)
= 0,05
entonces
n =
1
4(0,05)(0,01)
= 500
as´i pues n = 500 votos.
Observamos que n- Bernoullis -? Bin(n, p) =? var(Bin(n, p)) = npq y por otro lado sabemos que var(Xn) =
var(Xi)
n2
2
= npq = pqn.
´
5.1.2. Ley Fuerte.

Proposicion 5.1.1 Borel-Cantelli.

(sucesos)
8
? P(Ai) < +8 =? P(“en in?nitos Ai”) = 0
i=1
i=
i
i i i
i
2 3 4
(para v.a.). Sean {Xi}8 1 v.a. positivas i.e. val(Xi) ? [0,8)
8
l´i
i=1

Lema 5.1.1 Sean {Xi}n =1 v.a. i.i.d.. Seguieremos la siguiente notaci´on. i = 1,…,n
0 = µ1 = E(Xi),…,µ2 = E(X2),…,µ3 = E(X3),…,µ4 = E(X4).
Sea Sn = ?n =1 Xi. Entonces
E(Sn) = 0,….,E(Sn) = nµ2,….,E(Sn) = nµ3,….,E(Sn) = 3n2µ4.

Monografias.com

5.1. LEYES DE LOS GRANDES NUMEROS.
s2 n
? 2
+ 0 1- 2
+ 0 1- 2
49
i= i
´

Teorema 5.1.8 Sean {Xi}8 1 v.a. i.i.d. tal que E(X4) < 8. Entonces:
P
l´im
n-?8
? Xi
n
= µ
= 1
´ i
De forma alternativa y m´as clara:

De?nicion 5.1.2 Sea {Xi}n =1 una sucesi´on de v.a. tal que E(Xn) = µn < 8,?n ? N. De?nimos
Xn =
i
?n Xi
n
c.s.
E(Xn) =
i
?n E(Xi)
n
i
2
Teorema 5.1.9 (Kolgomorov). Una condici´on su?ente para que se veri?que la LF (ley fuerte) es que {Xi}n =1 sucesi´on
de v.a.i. / E(Xn) = µn, var(Xn) = sn , ?n ? N. Si
8
n=1 n
< 8
i 2
i
entonces {Xi} obedece la LF.

Corolario 5.1.1 Sea {Xi}n =1 sucesi´on de v.a.i. tal que E(Xn) = 0, var(Xn) = sn = c ?n ? N, entonces {Xi} obedece
la LF.

Teorema 5.1.10 (Khintchine). Sea {Xi}n =1 sucesi´on de v.a.i.i.d / E(Xn) = µ < 8, ?n ? N, entonces {Xi} obedece la
LF.

Resumen 5.1.1 Estos dos teoremas (leyes d´ebil y fuerte) apoyan la idea de que cuando n -? 8,
? Xi
n
µ
y
frec
P.
i
Si {Xi}n =1 veri?ca la LF entonces tambi´en la LD ya que la LF exige convergencia c.s. mientras que la LD en probabilidad
y como ya sabemos lo uno implica lo otro.

Ejemplo 5.1.2 Sean {Xn} v.a.i. con funci´on de masa
P(Xn = -na) = P(Xn = na) =
1
2n2
, y
P(Xn = 0) = 1-
1
n2
si a > 0
estudiar si {Xn} veri?ca las LD y LF.

En efecto. Sabemos por Cheby que al ser {Xn} v.a.i. entonces basta con que exista cierta constante M < 8 tal
que var(Xn) = M ?n ? N. Vemos que:
E(Xn)
= -na
1
2n
2
1
n
+ na
1
2n2
= 0
2
E(Xn)
= (na)2
1
2n
2
1
n
+ (na)2
1
2n2
= a2
var(Xn)
2
= E(Xn) – E(Xn) = a2

Monografias.com

CAPITULO 5. LEYES DE LOS GRANDES NUMEROS.
-? 0
n
lnn
= ? 2
´ ´
50

por lo tanto {Xn} veri?ca la LD i.e.
?n Xn
n
P
Para ver si veri?cala ley Fuerte vemos que por Kolgomorov al ser {Xn} v.a.i. entonces basta con probar que
8
?
n=1
var(Xn)
n2
< 8
´
en este caso y como ya hemos visto esta condicion se veri?ca trivialmente entonces {Xn} veri?ca la LF i.e.

-? 0
n
tal y como quer´iamos hacer ver.

Ejemplo 5.1.3 Sean {Xn} v.a.i. con funci´on de masa
P Xn = -n(lnn)1/2 = P Xn = n(lnn)1/2 =
1
2n2
, y
P(Xn = 0) = 1-
1
n2
estudiar si {Xn} veri?ca las LD y LF.

En efecto. Como en el ejemplo anterior por Cheby tenemos que ver si var(Xn) = M ?n ? N,
E(Xn)
= -n(lnn)1/2
1
2n2
+ 0 1-
1
n2
+ n(lnn)1/2
1
2n2
= 0
2
E(Xn)
= n2 (lnn)
1
2n2
+ 0 1-
1
n2
+ n2 (lnn)
1
2n2
= lnn
var(Xn)
2
= E(Xn) – E(Xn) = lnn
´ ´
por lo tanto
var(Xn) = lnn -? 8
i.e. no se veri?can las hipotesis del teorema de Cheby pero esto no signi?ca que dicha sucesion no veri?que la
LD.
Por el teorema de Kolmogorov. Puesto que {Xn} v.a.i. es su?ciente con que se veri?que que
8
?
n=1
var(Xn)
2
8
n=1 n
< 8
para verlo aplicamos el criterio integral
8
1
lnx
x2
dx = 1 < 8
por lo tanto la serie converge. As´i {Xn} veri?ca la LF y tambi´en la LD.

5.2. Ejercicios.
Ejercicio 5.2.1 Sean {Xn} v.a.i. tales que
P Xn = ±n1/4 =
1
2
,
estudiar si {Xn} veri?ca las LD y LF

Monografias.com

1
= ? i1/2 3/2
n
2
l´im var Xn = 0
s2
Sn c.s.
n2 ?
Xi 2dP = 2
n2a+1
s2 n
? 2
Sn c.s.
Sn P.
51
´
5.2. EJERCICIOS.

Solucion. Vemos que
E[Xn] = 0,
2
var(Xn) = E Xn =
1
2
2n1/2 = n1/2,
por lo que
var
1
n
? Xi
=
1
n2
var
? Xi
=
1
n2
n
? i1/2,
i=1
tenemos que demostrar que
n?8
Teniendo en cuenta que
1
0
x1/2dx =
2
3
,
1
0
x1/2dx ˜
n
?
i=1
i
n
1/2
1
n
n

i=1
?
i=1
n
? i1/2 ˜ n3/23,
de esta forma vemos que
var Xn =
1 2
n1/2 3
=?
n?8
por lo que concluimos que veri?ca la LD.

En general si
P(Xn = ±na) =
1
2
,
´
vemos que por la condicion de su?ciencia de Kolgomorov, si a < 1/2, entonces se veri?ca la ley fuerte (LF).
Recordamos que si
n= 2
8
? 1 nn < 8
=?
n
-? 0.
Para analizar el cumplimiento de la LD utilizaremos el criterio de convergencia degenerada. Por simetr´ia vemos
que
? P(|Xn| > n)
-? 0,
??
a = 1,
1
n2
?
i
X2dP
-? 0,
=?
1
1
n
?k2a
donde
k=1
n
? k2a ? 2a + 1,
a = 0
´ ´
llegando a la conclusion de que solo se cumple si a < 1/2.
En resumen:
a
< 1/2,
=?
LF,
i.e.
8
n=1 n
< 8
=?
n
-? 0.
a
= 1/2,
=?
LD,
i.e.
1
n2
2
8
? sn < 8
n=1
=?
n
-? 0.
tal y como quer´iamos hacer ver.

Ejercicio 5.2.2 Sean {Xn} v.a.i. tales que
P(Xn = ±1) =
1
4n
= P(Xn = ±2),
P(Xn = 0) = 1-
1
n
,
estudiar si {Xn} veri?ca las LD y LF

Monografias.com

CAPITULO 5. LEYES DE LOS GRANDES NUMEROS.
s2 n
? 2
Sn c.s.
= P l´im (Xn = 0) = 0,
? P(|Xn| = 0) = ? 2en
´ ´
´
52

Solucion. Vemos que
E[Xn] = 0,
2
var(Xn) = E Xn =
10
4n
,
por lo que si
8
n=1 n
< 8
=?
n
-? 0.
tenemos que demostrar que
8
?
n=1
2
sn
n2
8
= ?
n=1
10
4n3
< 8
viendo as´i que s´i se veri?ca LF.

Ejercicio 5.2.3 Sean {Xn} v.a.i. tales que
P Xn = ±e2n =
1
2en
,
P(Xn = 0) = 1-
1
en
,
´
estudiar si {Xn} veri?ca las LD y LF

Solucion. Vemos que
E[Xn] = 0,
y teniendo en cuenta el siguiente resultado:

c.s.

c.s.
l´im P
n?8
8
|Xn| > e
= l´im P
n?8
8
|Xn| = 0
n?8
´
1
< 8
donde esta ultima igualdad es consecuencia de que

y por lo tanto se verica LF.

Ejercicio 5.2.4 Sean {Xn} v.a.i. tales que
P(Xn = ±2n) =
1
22n+1
,
P(Xn = 0) = 1-
1
22n
,
´
estudiar si {Xn} veri?ca las LD y LF

Solucion. Vemos que
E[Xn] = 0,
2
var(Xn) = E Xn =
1
22n+1
22n + 22n = 1,

Monografias.com

n
s2 n
? 2
Sn c.s.
s2 n
? 2
? n2
Sn c.s.
var(Xn 1) = E Xn
s2 n
? 2
? n2
Xn 2 -? 0,
5.2. EJERCICIOS.
53
´
entonces teniendo en cuenta el teorema de Markov, lo unico que tenemos que comprobar es
1
n2
n 2
?8 =1 sn < 8,
l´im
n?8
1
n2
2
8
? sn = 0,
n=1
por lo tanto
l´im
n?8
1
n2
n= 2 l´ ?8
8
? 1sn = nim n2
= l´im
n?8
1
n
= 0.
´
Para ver que tambi´en se veri?ca la LF aplicamos el teorema de Kolgomorov i.e. solo nos queda por probar que
8
n=1 n
< 8
=?
n
-? 0.
pero
8
n=1 n
=
1
< 8
=?
n
-? 0.
por lo que Xn veri?ca la LF.

Ejercicio 5.2.5 Sean {Xn} v.a.i. tales que
P(Xn = ±2n) =
1
22n+1
,
P(Xn = ±1) = 1-
1
22n
,
´
estudiar si {Xn} veri?ca las LD y LF

Solucion. En este caso de?nimos
1
Xn =
Xn
0
|Xn| = 1
|Xn| = 1
2
Xn =
0
Xn
|Xn| = 1
|Xn| = 1
de esta forma
1 2
Xn = Xn + Xn
1 2
si, Xn,Xn veri?can la LGN entonces Xn, tambi´en lo har´a. Vemos que
1
E Xn = 0,
1(2
= 1-
1
2n
,
entonces
8
n=1 n
< 8
??
?
n
1- 2 1
n2
<
1
< 8
1
por lo que podemos asegurar que Xn veri?ca LF.
c.s.
?8 2
8
n l´im P ?8 Xn > e = 1-? 1-
1
2n
= ?
1
2n
< d,
=?
c.s.
´
de esta forma probamos que Xn veri?ca LF.
De forma gen´erica, haciendo esta argumentacion lo que hemos conseguido en realidad es

Xn = Xn1l|Xn| 8, no cumplir´ia las condiciones necesarias pero si ? pn < 8, entonces podr´iamos apelar a B-C.

Ejercicio 5.2.7 Sean {Xn} v.a.i.i.d. tales que siguen una Cauchy. Sea Yn
Yn =
?
Xi
n
´ ´ ´
estudiar si {Yn} veri?ca las LD y LF.

Solucion. Xi sigue una Cauchy, por lo que su funcion caracter´istica es: ? = e-|t|. La funcion car´acter´istica de Yn
ser´a:
E[exp(itYn)] = E exp it?
Xi
n
= e-|t|
´
´
por lo que Yn es otra Cauchy, pero E[Yn] por lo que no se veri?ca ningua de las hipotesis de los teoremas de los
GN.

Ejercicio 5.2.8 Sean {Xn} v.a.i.i.d. tales que siguen una exp(n). Estudiar si {Xn} veri?ca las LD y LF.

Solucion. Xi sigue una exp(n), por lo que
var(Xn) =
1
n2
,
1
< 8,
l´im
n?8
1
n2
?var(Xn) = 0

Monografias.com

s2 n
? 2
? n4
Sn c.s. 1
-? 2 1, por lo tanto
n ? i
s2 n
? 2
s2 n
? 2
a2(n – 1)
= ? n 2
n
a2
< ? n < 8
n
55
5.2. EJERCICIOS.

por lo tanto veri?ca LD.
Para que veri?que la LF bastar´a con probar que
8
n=1 n
< 8
??
1
< 8
por lo que podemos asegurar que Xn veri?ca LF.

Ejercicio 5.2.9 Sean {Xn} v.a.i. tales que (X2n) siguen una U [0,1] De?nimos
X2n+1 =
0
1
,
P(X2n+1 = 0) = P(X2n+1 = 1) =
1
2
.
´
De?nimos Sn = ? Xn , estudiar si
-? .
2n 2

Solucion. Vemos que E[Xi] = 12, ?i. Entonces LF nos dice que
Sn
n
c.s.
Sn
2n
=
1
2n
? Xi =
1
n
X1 + X2
2
+ …..+
Xn-1 + Xn
2
de?nimos Yi =
Xi-1+Xi
2
,
?i, viendo as´i que
1
Y -?
1
2
donde (Yi) son v.a.i.i.d. tales que E[Yi] = 1/2, entonces LF garantiza la convergencia pedida.
Ejercicio 5.2.10 Sea (an) tal que ?
2
an
n
< 8. Sean {Xn} v.a.i. tales que
P(Xn = an) = 1-
1
n
,
P(Xn = bn) =
1
n
.
´
queremos calcular bn tal que E[Xn] = 0. Demostrar que as´i (Xn) veri?ca la LGN.

Solucion. Vemos que E[Xi] = 0, ?i,??
an 1-
1
n
+ bn
1
n
= 0 ?? bn = an(1- n),
de esta forma vemos que
2
var(Xn) = an 1-
1
n
2
+ an
(1- n)2
n
2
= an(n – 1).
Si tenemos en cuenta Kolgomorov,
< 8
(Xn) veri?ca LF.Entonces:
8
n=1 n
8
n=1 n

8

n=1
=?

8

n=1
´
por hipotesis, por lo tanto (Xn) veri?ca LF.

Monografias.com

CAPITULO 5. LEYES DE LOS GRANDES NUMEROS.
-? µ
-? µ
56
´ ´
Ejercicio 5.2.11 Vamos a ir apostando al resultado de una moneda que sale cara con probabilidad p. En cada jugada,
ganamos 1 euro o perdemos 1 euro dependiendo de si hemos acertado o no lo que sale en la moneda. En las jugadas “impares”
(1,3,5,…) apostamos a que sale cara, y en las jugadas “pares” (2,4,6,…), a que sale cruz. Llamemos Pn al dinero que hemos
ganado (o perdido) tras n lanzamientos de la moneda. Prueba que
Pn
n
P
´
´
cuando n ? 8, y determina el valor de µ.

Solucion. Llamamos Xj a la ganancia o p´erdida en el lanzamiento j. Las Xj toman valores ±1, pero con prob-
abilidad p de +1 si j es par y 1 – p si j impar. As´i que si escribimos Pn como ?nj =1 Xj, se trata de una suma de
variables independientes, pero no id´enticas.
Otra opcion es considerar unas variables Yj (´estas s´i, id´enticas) que toman valores ±1 (con probabilidad p de
+1), y escribir Pn como ?nj =1 (-1)j+1 Yj. Pero ahora Pn no es una suma de variables i.i.d.
Hay varias formas de sortear estas di?cultades:
1.
´
En la version con las Xj (que tienen media E(Xj) = 1 – 2p si j par y 2p – 1 si j impar; mientras que la
varianza es siempre 1), podemos escribir
P2n
2n
=
1
2n
2n
? Xj =
j=1
2
2n
X1 + X2
2
+ ……+
X2n-1 + X2n
2
=
1
n
n
? Zj
j=1
´
´ ˜
´
´
2.

3.
˜ ´ ˜
donde las Zj ya son i.i.d. con media 0 (y una cierta varianza ?nita). La ley d´ebil nos da entonces la con-
clusion (bueno, si el ´indice no es par, entonces “sobra” una variable en la suma, y hay que observar que
esa contribucion se hace pequena con n).

Tambi´en podr´iamos aplicar directamente la version de la ley d´ebil en la que las variables no eran id´enticas
pero los promedios de las medias de las variables tend´ian a un cierto numero (0, en este caso).

O, en cualquiera de las dos versiones (con las Xj o las Yj), calcular directamente la media de Pn (que
es 0, salvo la pequena correccion si n no es par, pero que se hace tan pequena como queramos si n es
su?cientemente grande) y su varianza, y aplicar la desigualdad de Chebyshev.
Ejercicio 5.2.12 Vamos a ir apostando al resultado de una moneda M1 que sale cara con probabilidad p. En cada jugada,
1.

2.
lanzamos primero una moneda regular M2, que nos dice si apostaremos a cara o a cruz en el siguiente paso.
Lanzamos la moneda M1. Si en el primer paso ha salido cara, ganamos 1 euro si en M1 sale cara (y perdemos 1 euro
si sale cruz). Si ha salido cruz en la moneda M2, entonces ganamos 1 euros si en M1 sale cruz y perdemos 1 euro si
sale cara.

Llamemos Pn al dinero que hemos ganado (o perdido) tras n lanzamientos de la moneda. Prueba que
Pn
n
P
cuando n ? 8, y determina el valor de µ.

Monografias.com

5.2. EJERCICIOS.
57
´
j j j j j
Solucion. Si consideramos unas variables ej que toman valores ±1 con probabilidad 1/2 (que recogen nuestra
apuesta) y unas variables Xj que tambien toman valores ±1, pero ahora con probabilidad p de +1 (´estas recogen
si sale cara o cruz en M1), entonces la ganancia o perdida en la partida j se puede escribir como Zj = ejXj, que
es una variable de media 0, ya que

E(Zj) = E(ejXj) = E(ej)E(Xj) = 0
por la independencia y una cierta varianza ?nita

var(Zj) = E(Z2) = E(e2X2) = E(e2)E(X2) = 1× 1 = 1

de nuevo por la independencia.

As´i, Pn es una suma de variables i.i.d. y la ley d´ebil nos permite concluir el resultado.
Alternativamente, si llamamos Zj a la ganancia o p´erdida en la partida j, condicionando adecuadamente o enu-
merando los casos, podemos descubrir que Zj toma valores ±1 con probabilidad 1/2. Por tanto tiene media 0 y
varianza 1. De nuevo aplicamos la ley d´ebil para concluir.

Monografias.com

– µ
? E ? Xi
?
? var ? Xi
= s n
– µ
-? N(0,1)
Sn – nµ
-? N(0,1)
´
´
´
Cap´itulo 6

Toerema del l´imite central.

6.1. Teorema central del L´imite.

Estos teoremas expresan el hecho de que en condiciones muy generales la distribucion de la suma de n – v.a.i.
tienen una distribucion normal cuando n -? 8.
La version m´as b´asica de este tipo de teoremas se debe a Moivre y nos dice que
Bin(n, p) -? N(np,
v
npq)
i
Veremos dos enunciados m´as generales de este teorema:

Teorema 6.1.1 Sean {Xi}n =1 v.a. i.i.d. tal que µ := E(Xi),s := s(Xi) < +8, cuando n -? 8,
s
? Xi
n
v
n
=?
?
? n
?
= µ,
n
2
Normalizando a la Gauss si
Z =
? Xi
n
– µ
siendo X cualquier distribuci´on
E(Z) = 0
y
s2(Z) = 1
i.e.
l´im P
n-?8
s
? Xi
n
v
n
= t
= P(Z = t)
donde Z ? N(0,1).

Teorema 6.1.2 (L´evy-Lindeberg). Sea {Xn} v.a.i.i.d. y sea Sn = ? Xi. Si Xn tiene media y varianza = 0, ?nitas, entonces:
Sn – E(Sn)
s(Sn)
n-?8
L
Si µ = E(Sn) y s = s(Xn) entonces:
v
s n
L
59

Monografias.com

CAPITULO 6. TOEREMA DEL LIMITE CENTRAL.

n v µ
-? N(0,1)
-? N(0,1)
5c
P(X = -c) =
P(X = c) =
60
´ ´
i.e. cuando n -? 8, la distribuci´on (? Xi)
N(np,
v
npq),
Sn
s n
n
L
lo que signi?ca que la v.a. media muestral
Xn =
Sn
n
=
?i Xi
n
v
N(µ,s/ n)
Teorema 6.1.3 Lyapunov. Sea {Xn} v.a.i. y sea Sn = ? Xi. Si Xn tiene
E[Xn] = 0,
2 2
E Xn = sn < 8,
3
E Xn < 8,
Sea
2
sn =
2
?sn
si
l´im
E
3
3
Xn
sn
= 0
entonces
?i Xi
sn
n-?8
L
´
´
´ ´
Observacion 6.1.1 Como se puede observar este teorema es bastante restrictivo ya que exige la existencia de momentos
de orden 3. Los teoremas de Lindergerg y Feller dan condiciones su?cientes para garantizar la convergencia de sumas
normalizadas de v.a.i. con media y varianza = 0, ?nitas tiendan hacia una N(0,1).

Ejemplo 6.1.1 Un juego consiste en apostar una cantidad c de dinero a un numero de entre 10 (equiprobables) de forma
que si sale ese numero entonces gana 5c y si no sale el numero apostado entonces pierde la cantidad apostada c. Calcular la
probabilidad de no perder dinero despu´es de 50 apuestas.
De?nimos la variable
X =
?
? -c
?
9
10
1
10
calculamos la esperanza y la varianza
E(X)
= -c
9
10
+ 5c
1
10
= c,
E(X2)
= c2
9
10
+ 25c2
1
10
=
17c2
5
,
var(X)
=
17c2
5

4c2
25
=
81c2
25
.
Como n = 50, entonces la variable Y = ? Xi tal que {Xi} son i.i.d. entonces Y
N(µ,s), entonces
µ

s2
= 50

= 50
-2c
5
81c2
25
= -20c

= 162c2 =? s =
v
v
162c2 = 9c 2

Monografias.com

v
v
v
P(Z = 1,5713) = v
exp(- x2)dx = 5,8056× 10-2
Y+ v c
n
=? s = v = v
P(X < -1,66) = v
exp(- x2)dx = 0,0485
6.2. EJEMPLOS
61
Y ? N(-20c,29,01c)
por lo tanto
P(Y = 0) = P
Y + 20c
9c 2
=
20c
9c 2
= P
Y + 20c
9c 2
=
10v
9
2
= 5,8056× 10-2
10v
9
2
˜ 1,5713
1
2p
8
1,5713
1
2
donde
20
9c 2
= Z ? N(0,1).
´
6.2. Ejemplos

Ejercicio 6.2.1 La longitud Y de ciertas piezas en cm sigue una normal N(20,0,30). El distribuidor acepta un lote de 1000
si despu´es de elegir 10 piezas al azar encuentra que su longitud media no es menor que 19,85cm. Calcular la probabilidadde
que rechace el lote.

Solucion. Yi es la longitud de la pieza (i = 1,…,10) i.e. n = 10; Yi ? N(20,0,30).
De?nimos la variable media muestral Y,
Y =
i
?10 Yi
n
,
µ = E(Yi)
y
s = s(Yi)
sabemos que:
E(Y)
= 20
s2(Y) =
ns2
2
=
s2
n
s 0,3
n 10
= 0,09
de?nimos:
X =
Y – 20
0,09
? N(0,1)
P Y < 19,85
=
P
Y – 20
0,09
<
19,85- 20
0,09
=
P(X < -1,66)
= 0,0485
1
2p
-1,66
-8
1
2
tambi´en se puede llegar a este resultado mirando las tablas de la N(0,1).

Ejercicio 6.2.2 Una f´abrica produce l´amparas para motos mediante dos procesos A y B. Las lamparas producidas mediante
elproceso A tienen3800hdemediayunadesviaci´onde400hmientrasquelasdeBtienen4600demediay900dedesviaci´on.
La garantia esta ?jada en 3000h. Si la vida media de la l´ampara es menor a las 3000h entonces el fabricante debe suministrar
otra l´ampara. Calcular:

Monografias.com

CAPITULO 6. TOEREMA DEL LIMITE CENTRAL.
P(? < -2) = v
exp(- x2)dx = 0,02275
P(? < -1,77) = v
exp(- x2)dx = 0,0384
P(? < -0,5) = v
exp(- x2)dx = 0,30854
P(? < -1,11) = v
exp(- x2)dx = 0,1335
P(? > -0,81) = v
exp(- x2)dx = 0,79103
62

1.

2.

3.
´ ´

P(A),P(B) i.e. cual de los dos procesos cumple mejor las especi?caciones de calidad

¿que pasa si la vida media pasa de 3000 a 3600h?

Probabilidad de que una l´ampara elegida al azar de B tenga una vida mayor que otra de A.
´
Solucion. Sean x,y los valores de tiempo de vida de las l´amparas producidas por el proceso A y B respectiva-
mente, de?nimos:
X ? N(3800,400), Y ? N(4600,900),
? ? N(0,1)
1.
P(X < 3000) = P
X – 3800
400
<
3000- 3800
400
= P(? < -2) = 0,02275
1
2p
-2
-8
1
2
P(Y < 3000) = P
Y – 4600
900
<
3000- 4600
900
= P(? < -1,77) = 0,0384
1
2p
-1,77
-8
1
2
por lo tanto el proceso A se ajusta mejor a las especi?caciones.
2.
P(X < 3600) = P
X – 3800
400
<
3600- 3800
400
= P(? < -0,5) = 0,30854
1
2p
-0,5
-8
1
2
P(Y < 3600) = P
Y – 4600
900
<
3600- 4600
900
= P(? < -1,11) = 0,1335
1
2p
-1,11
-8
1
2
por lo tanto, ahora el proceso B se ajusta mejor a las nuevas especi?caciones.
3. Y – X ? N(4600- 3800,
v
4002 + 9002) = N(800,984.89)
P(Y – X > 0) = P
Y – X – 800
984.89
>
0- 800
984.89
= P(? > -0,81) = 0,791
1
2p
8
-0,81
1
2
˜
˜
tal y como quer´iamos hacer ver.

Ejemplo 6.2.1 Ejercicio 6.2.3 Elgastomensualdeunafamiliaenundeterminadoart´iculoesunav.a.Y ? N(4000,200).
Se seleccionan muestras de tamanos 4,9,25 y 100. En cada caso, calcular la probabilidad de que la media de gasto familiar
para los distintos tamanos est´e comprendida entre 3900 y 4100.

Monografias.com

? N(4000, v )
v
? N(4000, 200) = N(4000,100)
P(-1 < X < 1) = v
exp(- x2)dx = 0,6826
? N(4000, 200) = N(4000,66,6)
P(-1,5 < X < 1,5) = v
exp(- x2)dx = 0,8664
? N(4000, v 200 ) = N(4000,40)
P(-2,50 < X < 2,50) = v
exp(- x2)dx = 0,9876
? N(4000, v 200 ) = N(4000,20)
P(-5 < X < 5) = v
exp(- x2)dx
63
´
6.2. EJEMPLOS

Solucion. Sea Yi ? N(4000,200) entonces Y :=media muestral
Y =
?Yi
n
200
n
entonces
X =
Y – 4000
200
n
? N(0,1)
1.
n = 4 =? Y =
?Yi
4
4
P 3900 < Y < 4100
=
P
3900- 4000
100
< X <
4100- 4000
100
=
P(-1
<
X < 1) = 0,6826
1
1
1
2
2p
-1
2.
n = 9 =? Y =
?Yi
9
9
P 3900 < Y < 4100
=
P
3900- 4000
66,6
< X <
4100- 4000
66,6
=
<
X < 1,50) = 0,8664
1,5
1
1
2
2p
-1,5
3.
n = 25 =? Y =
?Yi
25
P(-1,50

25
P 3900 < Y < 4100
=
P
3900- 4000
40
< X <
4100- 4000
40
=
<
X < 2,50) = 0,9876
2,50
1
2p
-2,50
1
2
4.
n = 100 =? Y =
?Yi
100
P(-2,50

100
P 3900 < Y < 4100
=
P
3900- 4000
20
< X <
4100- 4000
20
=
P(-5
<
X < 5)
1
1
2p
5
-5
1
2
1
como quer´iamos hacer ver.

Ejercicio 6.2.4 Un agricultor asegura que la calidad de las manzanas que vende es tal que el di´ametro en mm sigue una
N(75, 10). Se toma una muestra de 36 manzanas midiendo su di´ametro. La partida se rechaza si la media no alcanza los
73mm.
1.
Calcular la probabilidad de que sean aceptadas con µ = 74 y s =
v
10.

Monografias.com

CAPITULO 6. TOEREMA DEL LIMITE CENTRAL.
v
= v
P(X > -1,89) = v
exp(- x2)dx = 0,97062
v
= v
P(X < -3,79) = v
exp(- x2)dx = 7,5324× 10-5
P(-0,08 = Z = 1,858) = v
exp(- x2)dx = 0,50168
64
´ ´
2.
Calcular la probabilidad de que sea rechazada la partida con µ = 75 y s =
v
10.
´
Solucion. Como en los ejemplos anteriores vemos que:
1. Y ? N(74,
v
10) y n = 36, por lo tanto:
Y ? N
74,
v
10
6
entonces
P Y = 73
=
P
Y – 74
10/6
73- 74
10/6
=
P(X > -1,89)
= 0,5+ 0,4706 = 0,97062
1
2p
8
-1,89
1
2
2. Y ? N(75,
v
10) y n = 36, por lo tanto:
Y ? N
75,
v
10
6
entonces
P Y < 73 = P
Y – 74
10/6
73- 75
10/6
= P(X < -3,79)
0,000007
1
2p
-3,79
-8
1
2
´ ´
como quer´iamos hacer ver.

Ejercicio 6.2.5 El numero de piezas correctas que se elaboran en una secci´on de cierta f´abrica cuadruplica el numero de
piezas defectuosas. Calcular aproximadamente:
1.
2.
La probabilidad de que de 200 piezas producidas en un d´ia haya entre 40 y 50 defectuosas.
Las piezas que deben producirse en un d´ia para con un 0.90 de probabilidades asegurar m´as de 100 correctas.
´ ´ ´
1 ´
Solucion. Sabemos que el numero Xn de piezas defectuosas, de entre n fabricadas sigue una distribucion
Bin(n, 5) y que el numero de piezas correctas Yn ? Bin(n, 45). Suponiendo la independencia entre pieza y pieza,
de?nimos la variable Z como una normal tipi?cada, entonces:

1.
P(40 = X = 50)
?
P?
39, 5- 20015
20015 45
= Z =
50, 5- 20015
20015 45
?
? =
P(-0,0838 = Z = 1,8562)
= 0,50168
1
2p
1,8562
-0,0838
1
2

Monografias.com

v
exp(- x2)dx =
6.2. EJEMPLOS
65
2.
P(Yn = 100)
?
P?Z =
4
99,5- n45
20015 5
?
? = 0,90
viendo las tablas
99,5- n45
20015 45
1,284 =? 99,5- n
4
5
v
= 4 2(1,284)
n =
5(-7,2408+ 99,5)
4
= 115,33
´
´ 1
por lo tanto n = 116.

Observa que en ambos casos hemos utilizado la correccion del 0,5.

Ejercicio 6.2.6 ¿Cuantos lanzamientos independientes de una moneda equilibrada ser´an necesarios hacer para que se ver-
i?que:
P(0,49 = proporci´on de caras = 0,51) = 0,99?.

Solucion. Sea n = # lanzamientos y p = q = 2. De?nimos
Xi =
1 si sale cara
0 en otro caso
,
de esta forma tenemos que:
P(Xi) =
1
2
?i,
Xn =
? Xi
n
,
´
Xn (proporcion de caras).
Modelizamos el experimento mediante una Bernoulli, i.e. Xi ? Bernoulli, sabemos que E[X] = p, y que
v pq
npq
n
a – µ (a – p)n
= v
s npq
y por lo tanto
P 0,49 = Xn = 0,51 = P
0,49n – n(0,5)
(0,25)n
= Y =
0,51n – n(0,5)
(0,25)n
v v
P -0,02 n = Y = 0,02 n = 0,99
donde Y ? N(0,1). Para evaluar esta integral tendremos en cuenta que:
1
2p
1
2
1
2
erf
1v
2
2x
:= f
de esta forma
v v v v
P -0,02 n = Y = 0,02 n = f(0,02 n) – f(-0,02 n)
´
si tenemos en cuenta la simetr´ia de la funcion entonces:
v v v v
f(0,02 n) – f(-0,02 n) = f(0,02 n) – 1- f(0,02 n) =
v
2f(0,02 n) – 1 = 0,99 =?
v
f(0,02 n) = 0,995

Monografias.com

CAPITULO 6. TOEREMA DEL LIMITE CENTRAL.
v
exp(- x2)dx = 0,87673
66
´ ´
si tenemos en cuenta las tablas entonces vemos que
v v
f(0,02 n) = 0,995 ?? (0,02 n) = 2,58

de esta forma podemos calcular n
n =
2,58
0,02
2
= 16641
´
˜
´ = i
como quer´iamos hacer ver.

Ejercicio 6.2.7 Supongamos que extraemos una muestra aleatoria simple de una poblaci´on que se distribuye segun una
uniforme U [0,2]. Encontrar aproxim

Partes: 1, 2, 3
 Página anterior Volver al principio del trabajoPágina siguiente 

Nota al lector: es posible que esta página no contenga todos los componentes del trabajo original (pies de página, avanzadas formulas matemáticas, esquemas o tablas complejas, etc.). Recuerde que para ver el trabajo en su versión original completa, puede descargarlo desde el menú superior.

Todos los documentos disponibles en este sitio expresan los puntos de vista de sus respectivos autores y no de Monografias.com. El objetivo de Monografias.com es poner el conocimiento a disposición de toda su comunidad. Queda bajo la responsabilidad de cada lector el eventual uso que se le de a esta información. Asimismo, es obligatoria la cita del autor del contenido y de Monografias.com como fuentes de información.

Categorias
Newsletter