Monografias.com > Sin categoría
Descargar Imprimir Comentar Ver trabajos relacionados

Apuntes de estadísitica (página 2)




Enviado por Jabel70



Partes: 1, 2

re los estad´isticos de orden.

Monografias.com

4
CAP´ITULO 1. MUESTREO ALEATORIO.
Teorema 1.1.1 Consideramos una muestra aleatoria (X1,….,Xn), de X continua con una funci´on
de densidad f y una funci´on de distribuci´on F, entonces:
fX(j) =
n!
(j – 1)!(n – j)!
[F(x)]j-1 f (x)[1 – F (x)]n-j .
(1.10)
Interpretamos esta f´ormula de la siguiente manera;

[F(x)]j-1 f (x)[1 – F (x)]n-j : probabilidad de cada posibilidad
n!
(j – 1)!(n – j)!
: n´umero de posibilidades.
y la podemos emplear de la siguiente forma.

Teorema 1.1.2 Sea (X1,….,Xn), de X continua con una funci´on de densidad f y una funci´on
de distribuci´on F, entonces:
f(X(i),X(j)) (u,v) =
n!
(i – 1)!(j – 1 – i)!(n – j)!
[F(u)]i-1 f (u)[F(v) – F (u)]j-1-i f (v)[1 – F (v)]n-j .
(1.11)
Teorema 1.1.3 Sea (X1,….,Xn), de X continua con una funci´on de densidad f y una funci´on
de distribuci´on F, entonces:
f(X(1),…..,X(n)) = n!
n
i=1
f (xi).
(1.12)
1.2.
Inferencia param´etrica.
2
2
?n =
Sea (X1,….,Xn) una m.a. de X ~ f?(X). Empezaremos repasando algunas de las propiedades
fundamentales sobre las principales distribuciones que se emplear´an m´as adelante y que se derivan
de la normal.

De?nici´on 1.2.1 ?n. Distribuci´on Chi-cuadrado con n-grados de libertad. Consideramos (X1,….,Xn)
v.a.i.i.d. que siguen una N(0,1). De?nimos

n
i
X2.
(1.13)
2
i=1

De?nici´on 1.2.2 t-Student, con n-grados de libertad, tn.

Considermos X ? N(0,1) e Y ? ?n de tal forma que (X,Y ) son independientes, de?nimos
tn =
X
Y
n
=
2
N(0,1)
?n/n
(1.14)

Monografias.com

X ¯n ? N(µ, s n ),
1.3. ESTAD´ISTICOS SUFICIENTES.
5
2 2
El c´alculo de la funci´on de densidad es f´acil ya que al tratarse de v.a.i. entonces fXY = fXfY

De?nici´on 1.2.3 F Fisher-Snedecor. Fm,n con m y n grados de libertad. Sea X ? ?m, e Y ? ?n
v.a.i. entonces de?nimos
Y
X
Fm,n = m =
n
Xn
Ym
=
2
2
?m/m
?n/n
(1.15)
Teorema 1.2.1 Fisher. Sea (X1,….,Xn) una m.a. de X ~ N(µ,s2), entonces:
1.

2.
¯ 2
2

Xn y Sn son independientes,
3.
2
(n – 1)Sn
s2
=
(Xi – µ)2
s2
2
? ?n-1,
(1.16)
El segundo apartado del teorema es el resultado realmente importante.
1.3.
Estad´isticos su?cientes.
Empezaremos con una idea intuitiva. Como siempre consideramos (X1,….,Xn) una m.a. de X ~
f?(X). La muestra aleatoria (X1,….,Xn) quedar´a reducida a un determinado estad´istico T, que
pasaremos a denominar estad´istico su?ciente. ¿Cu´anta informaci´on perdemos al resumir la m.a. en
T?. Llegamos a la conclusi´on de que si T es su?ciente entoncesno hay p´erdida de informaci´on.

De?nici´on 1.3.1 Estad´istico su?ciente. Sea (X1,….,Xn) una m.a. de X ~ f?(X), Un estad´istico
T es su?ciente para ? si (X1,….,Xn
|
T = t) no depende de ?.
Esta de?nici´on no ayuda demasiado a encontrar un estad´istico adem´as el c´alculo de las distribu-
ciones condicionadas puede resultar algo pesado, por eso consideramos el siguiente teorema

Teorema 1.3.1 de Factorizaci´on. Consideramos (X1,….,Xn) una m.a. de X ~ f?(X), entonces
T ser´a estad´istico su?ciente para ? sii f? (x1,…,xn) puede factorizarse de la siguiente forma:
f? (x1,…,xn) = g (t,?) · h(x1,…,xn),
(1.17)
donde t = T (x1,…,xn).

Monografias.com

6
CAP´ITULO 1. MUESTREO ALEATORIO.
Ejemplo 1.3.1 Sea
f? =
(log?)?x
? – 1
I(0,1) (x),
? > 1,
entonces un estad´istico su?ente puede ser
n

i=1
f?(xi) =
n

i=1
(log?)?xi
? – 1
I(0,1) (xi)
=
(log?)
? – 1
n
?
xi
n

i=1
I(0,1) (xi)
por lo tanto
T =
xi
ser´a un estad´istico su?ciente en virtud del teorema de factorizaci´on.
Ejemplo 1.3.2 Si
f? =
2x
?2
I(0,?) (x),
? > 0,
entonces un estad´istico su?ente puede ser
T =
n
xi,X(n)
i=1
ya que en virtud del teorema de facotrizaci´on tenemos que:
n

i=1
f?(xi) =
n

i=1
2x
?2
I(0,?) (xi)
=
2
?2
n n

i=1
(xi)
n

i=1
I(0,?) (xi) =
=
2
?2
n n

i=1
(xi)I(X(n),8) (?),
por lo tanto
T = X(n)
ser´a un estad´istico su?ciente y T =
n
i=1
xi,X(n)
tambi´en.
1.4.
Ejercicios.
Ejercicio 1.4.1
Sea (X1,….,Xn) una muestra sin reemplazamiento de una poblaci´on ?nita
{x1,….,xN},
Probar que X1 y X2 no son independientes, pero tienen la misma distribuci´on.
(b) Sea (X1,….,X10) una muestra sin reemplazamiento de la poblaci´on ?nita:
{1,2,……,1000}
Calcular la probabilidad de que todas las observaciones sean mayores que 200, primero de
manera exacta y despu´es de manera aproximada admitiendo independencia.

Monografias.com

p = P Exito =
1.4. EJERCICIOS.
7
Soluci´on. Con respecto al primer apartado, vemos que las (Xi)ni =1 son v.a.i.d. pero no indepen-
dientes. Lo usual es trabajar con v.a.i.i.d. Por lo tanto vemos que
P (X1 = x) =
1
N
,
P (X2 = x)
=
prob.total
P (X1 = y)P (X2 = x | X1 = y)
y por lo tanto

P (X2 = x) = P (X1 = x)P (X2 = x | X1 = x) +
y=x
P (X1 = y)P (X2 = x | X1 = y) =
=
1
N
· 0+
1
N
·
1
N – 1
= (N – 1)
1
N
·
1
N – 1
=
1
N
de esta forma vemos que siguen igual distribuci´on.

Para ver la independencia i.e.

¿P (X1 = x,X2 = y) = P (X1 = x) · P (X2 = y)?

as´i que
P (X1 = x,X2 = x) = 0,
sin embargo
P (X1 = x) · P2 (X2 = x) =
1
N
·
1
N
por lo que no son independientes. ¿Es grave esta p´erdida?,¿es importante?.

Sea (X1,….,X10) una muestra sin reemplazamiento de la poblaci´on ?nita:

{1,2,……,1000}

queremos calcular
P (todas las observaciones sean > 200)
para ello de?nimos la v.a.

Y := n´umero de observaciones mayores que 200 entre las 10.

C´alculo exacto: al no ser independientes los sucesos entonces las n-Bernoullis no forman una
Binomial sino una hipergeom´etrica
P (Y = 10) =
800
10
200
0
1000
? 0,10616,
10

mientras que el c´alculo aproximado lo haremos considerando que los sucesos son independientes y
por lo tanto siguen un Binomial Bin(n,p), donde la probabilidad de ´exito vendr´a dada por
´
800
1000
= 0,8

Monografias.com

8

de esta forma llegamos al siguiente resultado:

P (Y = 10) = Bin(10,0,8) =
10
10
CAP´ITULO 1. MUESTREO ALEATORIO.

(0,8)n (0,2)0 = (0,8)n ? 0,107,
¯
por lo que la moraleja del ejercio es que no hay mucha p´erdida de informaci´on al considerar la
independencia.

Ejercicio 1.4.2 Supongamos que (X1,….,Xn+1) es una muestra aleatoria de una poblaci´on X con
E[X] = µ, y V (X) = s2, sea
n
Xn = Xi.
n
i=1
Hallar la esperanza y la varianza del estad´istico
T =
n
n +1
¯
Xn+1 – Xn .
Soluci´on. Vemos que
E [T] = E
n
n +1
¯
Xn+1 – Xn
=0
=
n
n +1
E
¯
Xn+1 – Xn
=
n
n +1
¯
E (Xn+1) – E Xn
= 0,
¯
ya que E (Xn+1) = E Xn = µ, mientras que
var[T] = var
n
n +1
¯
Xn+1 – Xn
=
n
n +1
¯
var Xn+1 – Xn
=
n
n +1
¯
var(Xn+1) + var Xn
¯
– 2cov Xn+1,Xn
¯
¯
ya que no s´e de antemano si se tratade dos v.a. independientes, pero vemos que
(X1,….,Xn+1) -? Xn,
Xn+1 -? Xn+1,
son independientes por lo cov Xn+1,Xn = 0, quedando la anterior expresi´on reducida a:
var[T] =
n
n +1
¯
var(Xn+1) + var Xn
,
ahora es f´acil comprobar que
var(Xn+1) = s2,
¯
var Xn
=
s2
n
quedando por lo tanto
var[T] =
n
n +1
s2 +
s2
n
= s2,
tal y como quer´iamos hacer ver.

Monografias.com

i=1 Xi
X1 2 ~ Gamma a = ;p =
fY =X1 2 = v
v + v
v = v
|J| = v
exp(-ax)xp-1,
f?(a,p) =
llegamos a la igualdad deseada puesto que a = 2 1,p =
, G(p) =
v 1 .
Xi 2 ~ Gamma a = ,p =
~ Gamma a = ,p =
9
1.4. EJERCICIOS.

Ejercicio 1.4.3 Sea (X1,….,Xn) una muestra aleatoria de una N(0,1). Probar:
1.
2 1
X1 ~ Gamma a = 2;p =
1
2
, esta distribuci´on es la ?21.
2.
n 2
1
~ Gamma a = 2;p =
n
2
2
, que es la ?n.
Soluci´on. Con respecto al primer apartado vemos que:
1
2
1
2
2
donde
1 x2
2p 2
v
de?nimos la nueva v.a. Y = X1, viendose as´i que X1 = ± Y . Teniendo en cuenta el jacobiano de
esta transformaci´on la funci´on de distribuci´on de la nueva v.a. ser´a:
1
2p
exp –
y 1 1
2 2 y 2p
exp –
y 1
2 2 y
1
2py
exp –
y
2
donde
1
2 y
por lo que
1
fY = v
2p
exp –
y
2
y-1/2,
y si tenemos en cuenta que
ap
G(p)
1
2
v
p, y ap =
2
Con respecto al segundo apartado vemos que
n

i=1
1
2
n
2
operamos de forma parecida. Teniendo en cuenta las funciones caracter´isticas etc… vemos que al
ser independientes
n
i
?X2
i
X2 =
i=1
(enti´endase la expresi´on) de esta forma vemos que
?
n
i=1
X2
i
=
i
?X2 =
1 –
it
a
-p
=
1 –
it
1/2
– n
2
1
2
n
2
donde la funci´on caracter´istica de la funci´on Gamma es:
??(a,p) =
1 –
it
a
-p
tal y como quer´iamos hacer ver.

Monografias.com

(p + q) (p + q + 1)
(p + q) (p + q + 1)
10
CAP´ITULO 1. MUESTREO ALEATORIO.
Ejercicio 1.4.4 Sea (X1,….,Xn) una muestra aleatoria de una poblaci´on U(0,1). Hallar la esper-
anza y la varianza de X(j).

Soluci´on. En primer lugar recordemos que
fX(j) =
n!
(j – 1)!(n – j)!
[F(x)]j-1 f (x)[1 – F (x)]n-j .
y que las propiedades de la funci´on Beta son: funci´on de densidad.
1
B (p,q)
xp-1 (1 – x)q-1 I(0,1)(x),
fX(t) =

y su esperanza y varianza son:
E(X) =
p
p + q
,
var(X) =
pq
2
De esta forma vemos que necesitamos conocer la F(x) y la f (x) de la distribuci´on uniforme siendo
´estas:
f = 1,
F =
x
-8
1dx = x,
?x ? (0,1),
por lo que
fX(j)
=

=
n!
(j – 1)!(n – j)!
n!
(j – 1)!(n – j)!
[F(x)]j-1 f (x)[1 – F (x)]n-j =

[x]j-1 1[1 – x]n-j ~ Beta(p,q)
obteni´endose de forma inmediata la analog´ia con la funci´on beta
1
B (p,q)
=
n!
(j – 1)!(n – j)!
=
G (p + q)
G(p)G(q)
con j = p, q = n – j + 1. De esta forma
E X(j)
=
xfX(j) =
p
p + q
=
j
n +1
,
var X(j)
=
pq
2
=
j (n – j + 1)
(n + 1)2 (n + 2)
,
¯
etc…. falta desarrollar todos estos c´alculos pesad´isimos.

Ejercicio 1.4.5 Si X es la media de una muestra aleatoria (X1,….,Xn) de una N(µ,s2 = 100),
hallar n para que
¯

Monografias.com

v
v
v
X ¯ – µ
v ? N (0,1),
11
1.4. EJERCICIOS.

Soluci´on. Vemos que
¯
X ? N
µ,
100
n
= N
10
µ, v
n
,
por lo que
¯
P µ – 5 < X < µ + 5 = P
µ – 5 – µ
10
n
<
¯
X – µ
10
n
<
µ +5 – µ
10
n
,
donde
Z =
¯
X – µ
s
=
10/ n
as´i que la anterior expresi´on se reduce a:
P

v
5 n
10
<
v
5 n
10
,
y por simetr´ia se obtiene
P
Z>
v
n
2
=
1 – 0,0954
2
= 0,0230,
por lo que
v
n
2
~
2…
mirar tablas
=?
n ? 16,
¯
¯
¯ ¯
´
˜
tal y como quer´iamos calcular.

Ejercicio 1.4.6 Sean (X1,….,X25) e (Y1,….,Y25) dos muestras aleatorias de dos distribuciones
¯

Soluci´on. Vemos que

(X1,….,X25) -? X ~ N(µ = 0,s2 = 16),
(Y1,….,Y25) -? Y ~ N(µ = 1,s2 = 9),

¯

¯ ¯

donde la nueva v.a. X – Y ~ N(µ = -1,s2 = 1) y la normalizamos a Z ? N (0,1), obteniendo
el resultado requerido. Ver las propiedades de la distribuci´on normal en el ultimo cap´itulo.

ESTAD´ISTICOS SUFICIENTES

Ejercicio 1.4.7 Encontrar un estad´istico su?ciente en cada uno de los siguientes casos basado en
una muestra aleatoria de tamano n de:

v
n
2
=
1 – 0,0954
2
= 0,0230,
por lo que
v
n
2
~
2…
mirar tablas
=?
n ? 16,
¯
¯
¯ ¯
´
˜
tal y como quer´iamos calcular.

Ejercicio 1.4.6 Sean (X1,….,X25) e (Y1,….,Y25) dos muestras aleatorias de dos distribuciones
¯

Soluci´on. Vemos que

(X1,….,X25) -? X ~ N(µ = 0,s2 = 16),
(Y1,….,Y25) -? Y ~ N(µ = 1,s2 = 9),

¯

¯ ¯

donde la nueva v.a. X – Y ~ N(µ = -1,s2 = 1) y la normalizamos a Z ? N (0,1), obteniendo
el resultado requerido. Ver las propiedades de la distribuci´on normal en el ultimo cap´itulo.

ESTAD´ISTICOS SUFICIENTES

Ejercicio 1.4.7 Encontrar un estad´istico su?ciente en cada uno de los siguientes casos basado en
una muestra aleatoria de tamano n de:

Monografias.com

12
CAP´ITULO 1. MUESTREO ALEATORIO.
1.

2.
X ~ Beta(a,ß).

X ~ Gamma(p,a).
f? (x) =
e-x+? x ? (?,8),
0 resto,
3.

4.
fµ,s =
1
v
xs 2p
exp
1
2s2
log(x – µ)2 ,
con x > 0.

Soluci´on. En todos los casos se trata de una aplicaci´on sistem´atica del teorema de factorizaci´on.

1. X ~ Beta(a,ß)

? = (a,ß)
f? =
1
B(a,ß)
xa-1 (1 – x)ß-1 ,
por lo que
f? (x1,….,xn) =
f? (xi) =
1
B(a,ß)
n
i
xa-1 (1 – xi)ß-1 ,
de esta forma

f? (x1,….,xn) = K
xa-1
i
(1 – xi)ß-1 = g(t,?)h(x1,….,xn)
donde elejimos h(x1,….,xn) = 1. De?nimos por lo tanto el estad´istico
T =
i
xa-1,
(1 – xi)ß-1
´
es el estad´istico su?ciente buscado para (a,ß). No obstante debemos resaltar que no se trata
del unico estad´istico su?ciente, la muestra en s´i misma es un estad´istico su?ciente o
T =
logxi,
log(1 – xi)
tambi´en es su?ciciente ya que
log
xi = e
xi
= e
logxi
,
luego reescribiendo adecuadamente todas estas transformaciones biyectivas obtenemos lo mis-
mo, la moraleja est´a en que dado cualquier estad´istico su?ciente (e.s.), entonces cualquier
transformaci´on biyectiva nos da otro e.s..

Monografias.com

1.4. EJERCICIOS.
13
2. X ~ Gamma(p,a), donde
f?(a,p) =
ap
G(p)
exp(-ax)xp-1
siguiendo el anterior esquema vemos que
f? (x1,….,xn) =
f? (xi) =
ap
G(p)
n
exp(-axi)
xp-1
i
de esta forma llegamos a la conclusi´on de que

T =
xi,
xi
es un estad´istico su?ciente para ? = (p,a).

Observaci´on 1.4.1 En realidad se han omitido los detalles m´as sangrientos, ya que hasta
que se llega al estad´istico T, la verdad, hay que hacer unas cuantas cuentas:
exp(-axi) = exp -na
xi ,
i
xp-1 =
….
manipular
. ˜ f (n,p)
xi
3. X ~ e-x+?, con x > ?. Intentamos la misma argumentaci´on i.e.
xi
f? (xi) = e-x1+?……e-xn+? = en?e-

f? (x1,….,xn) = g(t,?)h(xi)
f? (x1,….,xn) =

llegando a la conclusi´on de que

por lo que podr´iamos tomar
g(t,?) = en?,
h(xi) = e-
xi
de esta forma
T = n?
ser´a el estad´istico su?ciente. NO. Hemos operado mal intencionadamente. Aqu´ihay que tener
muy en cuenta que x > ?, por lo que empezamos reescribiendo la f? como
f? = e-x+?I(?,8)(x)
y volvemos a rehacer el ejercicio con esta nueva consideraci´on
f? (x1,….,xn) =
f? (xi) =
e-xi+?I(?,8)(xi) = en?
I(?,8)(xi)e-
xi
donde
g(t,?) = en?I(?,8)(X(1)),
h(xi) = e-
xi
observar que
I(?,8)(xi) = I(?,8)(X(1)), donde X(1) = m´in(x1,….,xn) por lo que podemos
de?nir el e.s. T como
T = X(1) ,
sorprendente, ¿no?.

Monografias.com

fU = ,
f? (x1,….,xn) = I(0,8)(xi)I(-8,?)(xi)
14
CAP´ITULO 1. MUESTREO ALEATORIO.
4.
En este caso
fµ,s =
1
v
xs 2p
exp
1
2s2
log(x – µ)2
i.e. el modelo log-normal. En este caso el estad´istico su?ente ser´a
T =
logxi,
i
logx2 .
Para llegar a esta conclusi´on podemos considerar (X1,….,Xn) m.a. de X una N(µ,s2), por
lo que
T =
xi,
x2
i
¯
(falta probarlo).
Ejercicio 1.4.8 Sea (X1,….,Xn) una muestra aleatoria de X ~ U(0,?), (? > 0). Estudiar la
su?ciencia de T = X(n)

Soluci´on. Vemos que
1
?
=?
1
?
aqu´i es donde est´a toda la miga del problema, por lo que
f? =
1
?
n
I(0,8)(xi)
I(-8,?)(xi)
y al igual que antes observamos que

I(0,8)(xi) = I(0,8)(X(1)),
I(-8,?)(xi) = I(-8,?)(X(n)),
de esta forma llegamos a la conclusi´on de que
f? (x1,….,xn) = g(t,?)h(xi)
por lo que podr´iamos tomar
g(t,?) =
1
?
n
I(-8,?)(X(n)),
h(xi) = I(0,8)(X(1))
obteniendo as´i T
T = X(n)
ser´a el estad´istico su?ciente. Lo principal del problema est´a en ver
1
?
lo cual no siempre es f´acil.

Monografias.com

Cap´itulo 2

Estimaci´on puntual
2.1.
Introducci´on
Sea (Xi)ni =1 una muestra aleatoria (m.a.) donde X ~ f?(x), ? ? T, el par´ametro ? es lo que
queremos estimar. El objetivo es por lo tanto intentar decir algo sensato sobre ? a partir de los
datos que tenemos i.e. de la m.a. (Xi)ni =1 . Para ello podemos seguir t´acticas:
1.

2.

3.
Estimaci´on puntual (el objeto de este cap´itulo).

Los intervalos de con?anza.

Contraste de hip´otesis.
´
Los objetivos de la estimaci´on puntual son los siguientes: Estimar el par´ametro ? (´o t (?)) mediante
un unico valor (un punto) a apartir de la muestra (Xi)ni =1 .

De?nici´on 2.1.1 Sea (Xi)ni =1 m.a. donde X ~ f?(x), ? ? T, un estimador puntual para ? es
simplemente un estad´istico T = T(x1,…,xn) cuyo objetivo es estimar lo mejor posible ? (´o t (?)).

Los m´etodos de construcci´on son los siguientes:
1.

2.

3.
M´etodo de los momentos,

M´etodo de m´axima verosimilitud,

M´etodos bayesianos.
Tal y como veremos el metodo de m´axima verosimilitud es el m´etodo por excelencia.

15

Monografias.com

CAP´ITULO 2. ESTIMACION PUNTUAL
..
16
´
2.2.
M´etodo de los momentos
˜
De?nici´on 2.2.1 Sea (Xi)ni =1 m.a. donde X ~ f?(x), ? ? T, un estimador puntual para ? por el
m´etodo de los momentos (MM) y denotado por ?, es el valor que se obtiene al resolver el siguiente
sistema de ecuaciones:
E? [X] =
1
n
Xi,
.
(2.1)
E? Xk
=
1
n
i
Xk,
Ejemplo 2.2.1 Sea (Xi)ni =1 m.a. donde X ~ f?(x), ? ? T, donde X ~ Bernoulli(p), lo que
queremos estimar es p as´i que
Ep [X] =
1
n
Xi,
por lo tanto
˜
p =
1
n
xi.
Ver la secci´on de ejercicios para aclarar este m´etodo con ejemplos m´as complicados.
2.3.
M´etodo de m´axima verosimilitud
dan a (Xi)ni =1 = f?(xi)ni =1 =
De?nici´on 2.3.1 Sea (Xi)ni =1 m.a. donde X ~ f?(x), ? ? T. De?nimos para cada muestra ?ja
(Xi)ni =1 la funci´on de verosimilitud L(?) = probabilidad o densidad que los diferentes valores de ?
n
i=1
f?(xi). Por lo tanto
L(?) =
n
f?(xi).
?
?
i=1

El estimador de m´axima verosimilitud ˆ es el valor del par´ametro ? que maximiza L(?).

Observaci´on 2.3.1 En la mayor´ia de los casos para la obtenci´on de ˆ se maximiza la funci´on
logL(?) en vez de L(?)

Monografias.com

2.4. METODOS BAYESIANOS.
L(p) = Pp(x1,..,xn) =
xi – n –
´
17
Ejemplo 2.3.1 Se trata del mismo ejemplo que el del MM i.e. sea (Xi)ni =1 m.a. donde X ~ f?(x),
? ? T, donde X ~ Bernoulli(p), i.e.
X ~ Bernoulli(p) = px (1 – p)1-x ,

lo que queremos estimar es p as´i que
indp.
n
Pp(xi) = p
xi
(1 – p)n-
xi
i=1

xi log(p) + n –
xi log(1 – p)
tomamos logaritmos

log(L(p)) =

y pasamos a calcular el m´aximo i.e.
?p log(L(p)) = 0
1
p
xi
1
1 – p
= 0
despejamos p, encontr´andose que
ˆ
p =
1
n
xi.
ˆ ˜
Vemos que en tos ejemplos hemos obtenido que p = p, pero esto no siempre pasa.
2.4.

2.4.1.
M´etodos bayesianos.

Introducci´on a los m´etodos bayesianos.
Sea (Xi)ni =1 m.a. donde X ~ f?(x), ? ? T. En primer lugar advertir que en este caso cambia la
notaci´on y se emplea
f?(x) = f (x | ?),
(2.2)
considerando a ? como una v.a.
1.
Disponemos de informaci´on muestral
f?(x1,…,xn) = f (x1,…,xn | ?) =
n
f(xi | ?).
(2.3)
2.

3.
i=1

Nuevo. Disponemos de informaci´on previa sobre el par´ametro ?, que modelizamos mediante
una densidad a priori (no proviene de la muestra) p (?).

Obtenemos la densidad conjunta
f (xi | ?)p (?).
(2.4)

Monografias.com

CAP´ITULO 2. ESTIMACION PUNTUAL
?p (? | x1,…,xn)d? = .
18

4.
´

Obtenemos la densidad o funci´on de masa de ? condicionada por (Xi)ni =1 , densidad a poste-
riori,
p (? | x1,…,xn) =
f (x1, …, xn | ?)p (?)
? f (x1,…,xn | ?)d?
? f (xi | ?)p (?).
(2.5)
esta expresi´on no es m´as que la expresi´on de Bayes para el c´aculo de la probabilidad condi-
cionada.

Los m´etodos bayesianos obtienen todas sus conclusiones sobre ? a partir de p (? | xi) (densidad
condicionada) que recibe el nombre de densidad a posteriori.

El problema en la pr´actica est´a en la elecci´on de p (?). A menudo se utilizan familias conjungadas
de densidades a priori facilit´andose as´i los c´alculos.

De?nici´on 2.4.1 Familia conjungada. Sea (Xi)ni =1 m.a. donde X ~ f (x | ?), ? ? T. Una
familia P = {p (?)} de densidades a priori es conjungada para muestras de X ~ f (x | ?) cuando
p (?) ? P, entonces
p (? | x1,…,xn) ? f (xi | ?)p (?) ? P.
(2.6)
La idea en la pr´actica es que cualquier t´ecnica estad´isitica basada en m´etodos bayesianos obten-
dr´a conclusiones a partir de p (? | xi).
2.4.2.
Estimadores puntuales bayesianos.
Un estimador puntual bayesiano ser´a una medida de centralizaci´on de la densidad a posteriori. Los
m´as habituales son:
1.
Media a posteriori
T
?p (? | x1,…,xn)d?,
(2.7)
2.
Mediana a posteriori
M

-8
1
2
(2.8)
Ejemplo 2.4.1 Estimaci´on de ? = p = P(E), probabilidad de ´exito. Disponemos de una m.a.
(Xi)ni =1 donde
X =
1 P(E) = ?
0 P(F) = 1 – ?
por lo que X ~ Bernoulli(?), tal que ? ? (0,1), as´i que sabemos que X ~ f (x | ?) = ?x (1 – ?)1-x .
Consideramos la siguiente densidad a priori

p (?) ~ Beta(p = a,q = b)

Monografias.com

(1 – ?)b-1
(1 – ?)
19
f (x1,…,xn | ?) =
2.5. PROPIEDADES DESEABLES DE LOS ESTIMADORES.

por lo tanto la densidad a posteriori ser´a
n
i=1
f(xi | ?) = ?
xi
(1 – ?)n-
xi
p (?) =
?
a-1
B(a,b)
entonces
p (? | x1,…,xn) ? f (xi | ?)p (?)
?
?
xi
n-
xi
?a-1 (1 – ?)b-1
B(a,b)
? ?a+
xi-1
(1 – ?)n+b-
xi-1
~ Beta(p,q)
as´i llegamos a la conclusi´on de que
p = a +
xi,
q = n + b –
xi.
Entonces la media a posteriori ser´a
T
?p (? | x1,…,xn)d? =
1
0
?Beta(p,q)d?
pero para hecharse esta cuenta uno debe considerar las constantes que hemos ido despreciando. Lo
mejor en estos casos es ?jarse en los resultados ya conocidos, por lo que
E [Beta(p,q)] =
p
p + q
=
a + xi
a + b + n
.
Vemos que la densidad a priori era una Beta y que la densidad a posteriori ha salido otra Beta i.e.
hemos tomado una familia conjugada

P ={Beta(p,q), p,q > 0}

si p = q = 1 =? Beta(1,1) ~ U ([0,1]), la uniforme ser´ia el caso en el que no tenemos ni idea
sobre ?. Si P(E) = ? = 12 (o se aproxima mucho a este valor) entonces tomamos p,q tales que 1/2
sea el m´aximo para la funci´on Beta(p,q).
2.5.

2.5.1.
Propiedades deseables de los estimadores.

Error cuadr´atico medio. Estimadores insesgados.
De?nici´on 2.5.1 El error cuadr´atico medio de un estimador T para estimar t (?) es:
ECM = E? (T – t (?))2 =
f?(xi)(T – t (?))2 dxn.
(2.9)

Monografias.com

CAP´ITULO 2. ESTIMACION PUNTUAL
T1 = X, es insesgado para estimar µ = t (?), ya que
20
´
Si desarrollamos el formul´on anterior entonces vemos que
ECM = E? (T – t (?))2 = var(T) + (E? [T] – t (?))2 ,

donde se de?ne el sesgo como
sesgo := E? [T] – t (?).
(2.10)

(2.11)
De?nici´on 2.5.2 Un estimaodor es insesgado o centrado para estimar una funci´on del par´ametro
si E? [T] = t (?), i.e. el sesgo, (E? [T] – t (?) = 0) es cero i.e.
(2.12)
ECM = E? (T – t (?))2 = var(T) + (E? [T] – t (?))2 = var(T).

Ejemplo 2.5.1 Sea (Xi)ni =1 m.a. donde X ~ N µ,s2 , donde ? = µ,s2 , entonces:
¯
1.

2.
¯

E X = µ = t (?)

T2 = S2, es insesgado para estimar s2 = t (?), ya que
E S2 = s2 = t (?)
recordar que S2 =
1
n-1
¯
xi – X
2
3.
T3 = var(X), es sesgado para estimar s2 = t (?), ya que
E [var(X)] = s2 = t (?)

por lo tanto se tratar´ia de un estimador sesgado.

Teorema 2.5.1 Cota de Frechet-Cramer-Rao. Sea (Xi)ni =1 m.a. donde X ~ f?(x), ? ? T.
para cualquier estimador T insesgado para t (?) se veri?ca:
var(T) =
dt(?)
2
E?
d
d?
d?
logf? (x1,…,xn)
2
=
dt(?)
2
nE?
d
d?
d?
logf? (x)
2
.
(2.13)
Lema 2.5.1
E?
d
d?
logf? (x)
2
= -nE?
d2
d?2
logf? (x)
(2.14)
por lo tanto
var(T) =
dt(?)
2
-nE?
d?
d2
d?2
logf? (x)
(2.15)

Monografias.com

2.5. PROPIEDADES DESEABLES DE LOS ESTIMADORES.
21
2.5.2.
Estimadores e?cientes.
De?nici´on 2.5.3 Un estimador T es e?ciente para estimar un par´ametro t (?) si:
1.

2.
Es insesgado,

Su varianza alcanza la cota de FCR
En consecuencia si es e?ciente tiene m´inima varianza. Al denominador de la cota de FCR (2.15)
recibe el nombre de informaci´on de Fisher.

De?nici´on 2.5.4 Informaci´on de Fisher.
IF = E?
d
d?
logf? (xi)
2
(2.16)
Obtenci´on de un estimador e?ciente.

Si T es e?ciente su varianza alcanza la cota de FCR por lo que
?2 T,
d
d?
logf? (xi)
= 1,
el coe?ciente de correlaci´on vale uno, de este modo “casi seguro”
y
y – ¯ =
cov(x, y)
var(x)
¯
(x – x)
obtenemos la recta de regresi´on que traducimos en este caso como
T – E? [T] =
cov(T, d? logf? (xi))
var(d? logf? (xi))
d
d?
logf? (xi) – E?
d
d?
logf? (xi)
d
d?
resultado:
t' (?)
T = t (?) + (2.17)
d2
d?2
i.e.
T = t +
t'
IF
(logf?)' ,
observ´andose que
E? [T] = t (?),
cov(T,
d
d?
logf? (xi)) =
dt (?)
d?
= t' (?),
var(
d
d?
logf? (xi)) = -nE?
d2
d?2
logf? (x) ,
as´i que si T es e?ciente entonces debe tener la pinta de (2.17). Si T no depende de ?, entonces
ser´a e?ciente.

Monografias.com

CAP´ITULO 2. ESTIMACION PUNTUAL
Tn -? t (?).
FTn -? F(y) =
entonces Tn -? t (?) y por lo tanto se trata de un estimador consistente para t (?).
l´im ?Tn(t) = eitt(?)
entonces Tn -? t (?) y por lo tanto se trata de un estimador consistente para t (?).
22
´
2.5.3.
Estimadores consistentes.
Sea (Xi)ni =1 m.a. donde X ~ f?(x), ? ? T. Queremos estimar t (?), Buscamos estimadores que se
aproximen todo lo posible a lo que queremos estimar a medida que el n´umero de observaciones n
crece i.e. T (Xi) ? t (?) i.e. hay convergencia en distribuci´on (en Ley). Buscamos estimadores que
L
funcionen bien asint´oticamente.

De?nici´on 2.5.5 Decimos que un estimador Tn es consistente para estimar t (?) si el estimador
converge en probabilidad a t (?) i.e.
(2.18)
P

Veamos las distintas formas de abordar el estudio de la consistencia.
1.
Supongamos que la funci´on de distribuci´on FTn es sencilla de obtener. Estudiamos entonces
si
L
0 y < t (?)
1 y = t (?)
(2.19)
´
2.
P

Esta t´actica suele ser util cuando estamos trabajando con m´aximos y m´inimos

Supongamos que ?Tn(t) son f´aciles de obtener y estudiamos la convergencia
(2.20)
´
n?8

P

Esta t´actica suele ser util cuando estamos trabajando con sumas y medias muestrales.

Teorema 2.5.2 Sea Tn un estimador tal que
1.

2.
l´imn?8 var? (Tn) = 0,

l´imn?8 E? [Tn] = t (?),
entonces Tn es consistente para estimar t (?).

Teorema 2.5.3 Bajo ciertas condiciones de regularidad el estimador de m´axima verosimilitud es
consistente.

Monografias.com

e-n?? i=1 xi
e-n?? i=1 xi
2.6. EJERCICIOS
23
2.6.
Ejercicios
˜
Ejercicio 2.6.1 Dada una m.a. de tamano n de una v.a. X calcular el estimador de m´axima
verosimilitud y el del los momentos en los siguentes casos:
1.

2.

3.

4.

5.
X ~ Poisson(?),
X ~ Exponencial(?),
X ~ N(µ,s2), s conocido,
X ~ N(µ,s2), µ conocido,
X ~ N(µ,s2).
Soluci´on. Siguiendo el mismo esquema que el propuesto en los ejemplos de teor´ia vemos que:

1. X ~ Poisson(?), Veremos los dos m´etodos

MM Sabemos que X ~ Poisson(?),=? E [X] = ?
E [X] = ? =
1
n
n

i=1
xi
por lo que
˜
? =
1
n
n

i=1
xi.
MMV Tomamos como funci´on de verosimilitud
P(xi) =
n

(x1!)…(xn!)
L(?) =

tomando logaritmos entonces:
log(L(?)) = log
n

(x1!)…(xn!)
=
= -n? +
n
i=1
xi
log? –
n
i=1
log((xi)!)
y por lo tanto
?? log(L(?)) = 0,
-n +
n

i=1
xi
1
?
= 0
despejando se llega con facilidad a:
ˆ
? =
1
n
n

i=1
xi
como era de esperar.

Monografias.com

CAP´ITULO 2. ESTIMACION PUNTUAL
i=1 xi
log(L(?)) = log ? e
i=1 xi
´
24

2. X ~ Exponencial(?), por lo que
f(x) = ?e-?x,
MM Sabemos que X ~ exp(?),=? E [X] = ?-1
E [X] = ?-1 =
1
n
n

i=1
xi
por lo que
˜
? =
n
n
.
MMV Tomamos como funci´on de verosimilitud
L(?) =
f(xi) = ?ne-?
n
i=1
xi
tomando logaritmos entonces:
n -?
n
i=1
xi
= nlog? – ?
n
i=1
xi
y por lo tanto
?? log(L(?)) =
n
?
+
n

i=1
xi
=0
ˆ
n
n
.
despejando se llega con facilidad a:

? =

como era de esperar.

3. X ~ N(µ,s2), s conocido,

MM Sabemos que X ~ N(µ,s2),=? E [X] = µ
E [X] = µ =
1
n
n

i=1
xi,
=?
˜
µ =
1
n
n

i=1
xi
MMV Tomamos como funci´on de verosimilitud
L(µ) =
f(xi) =
sn
1
v
2p
n
exp –
1
2s2
n

i=1
(xi – µ)2
,
tomando logaritmos entonces:
log(L(µ)) = log
sn
1
v
2p
n
exp –
1
2s2
n

i=1
(xi – µ)2
=
= -nlogs – nlog
v
2p –
1
2s2
n

i=1
(xi – µ)2

Monografias.com

?µ log(L(µ)) = 2
s ˜ =
+ 3
2.6. EJERCICIOS
25
y por lo tanto
1
s
n

i=1
xi – nµ = 0
despejando se llega con facilidad a:
ˆ
µ =
1
n
n

i=1
xi.
como era de esperar.

4. X ~ N(µ,s2), µ conocido,

MM Sabemos que X ~ N(µ,s2) =? E [X] = µ
E [X] = µ =
1
n
n

i=1
xi
no sirve en este caso pues este dato es conocido, por lo que tendremos que recurrir al
momento de orden 2 i.e.
E X2 =
1
n
n

i=1
x2
i
de donde se obtiene que (recordar la de?nici´on de varianza, var(X) = E X2 -E [X]2)
s2 + µ2 =
1
n
n

i=1
x2
i
despejando
2
1
n
n

i=1
i
x2 – µ2
pero este resultado nos lleva a obtener un absurdo pues puede ser negativa esta magnitud
!¡ Por ejemplo tomando µ = 3,xi = (1,2,4).
MMV Tomamos como funci´on de verosimilitud
L(s) =
f(xi) =
sn
1
v
2p
n
exp –
1
2s2
n

i=1
(xi – µ)2
tomando logaritmos entonces:
log(L(s)) = -nlogs – nlog
v
2p –
1
2s2
n

i=1
(xi – µ)2
y por lo tanto
?s log(L(s)) = –
n
s
1
s
n

i=1
(xi – µ)2 = 0,

Monografias.com

CAP´ITULO 2. ESTIMACION PUNTUAL
+ 3
26
´
despejando se llega con facilidad a:
ˆ
s2 =
1
n
n

i=1
(xi – µ)2 .
˜ ˆ
ˆ
como era de esperar. Aqu´ise ve que no siempre s2 = s2, y que siempre el mejor etimador
ser´a el de MV i.e. s2.

5. X ~ N(µ,s2),

MM Sabemos que X ~ N(µ,s2)
E [X] = µ =
1
n
n

i=1
xi,
=?
˜
µ =
1
n
n

i=1
xi,
E X2
= s2 + µ2 =
1
n
n

i=1
x2
i
=?
˜
s2 =
1
n
n

i=1
(xi – µ)2 .
MMV Tomamos como funci´on de verosimilitud
L(µ,s) =
f(xi) =
sn
1
v
2p
n
exp –
1
2s2
n

i=1
(xi – µ)2
tomando logaritmos entonces:
log(L(µ,s)) = -nlogs – nlog
v
2p –
1
2s2
n

i=1
(xi – µ)2
y por lo tanto
?µ log(L(µ,s)) =
1
s2
n

i=1
xi – nµ = 0,
?s log(L(µ,s)) = –
n
s
1
s
n

i=1
(xi – µ)2 = 0,
despejando se llega con facilidad a:
ˆ
µ =
1
n
n

i=1
xi,
ˆ
s2 =
1
n
n

i=1
(xi – µ)2 .
como era de esperar.
Ejercicio 2.6.2 Para cada uno de los siguientes casos encontrar la familia conjugada natural y
hallar la distribuci´on a posteriori.

Monografias.com

2.6. EJERCICIOS
27
1.

2.
(Xi)ni =1 es una m.a. de X ~ Poisson(?),
(Xi)ni =1 es una m.a. de X ~ Gamma(p = 1,a = ?)
3.
(Xi)ni =1 es una m.a. de X ~ N ?,var =
1
r
, donde r es conocido.
Soluci´on. Seguimos el gui´on expuesto en el ejemplo de la teor´ia
1.
(Xi)ni =1 es una m.a. de X ~ Poisson(?),
e-??x
x!
, x = 0,1
f? (x) = P (x | ?) =

familia de muestras para una Pisson
P (x | ?) =
P (xi | ?) ? e-n??
xi
P (x | ?) es el n´ucleo de una densidad tipo “Gamma”, entonces tomamos como posible familia
conjugada
P = {p (?) ? Gamma(p,a)}
recordamos que
f ~
ap
G(p)
e-axxp-1
por lo que
p (?) ~
a?
G(?)
e-a??p-1
as´i que
p (? | x1,…,xn) ? P (xi | ?)p (?) ? e-n??
xi
a?
G(?)
e-a??p-1 ? e-(n+a)??p+
xi-1
xi,a = ß + n .
para ? > 0, por lo tanto

p (? | x1,…,xn) ~ Gamma p = a +

Adem´as podemos calcular la media a posteriori
T
?p (? | x1,…,xn)d? =
p
a
=
a + xi
ß + n
2.
este ser´ia un estimador puntual bayesiano.
(Xi)ni =1 es una m.a. de X ~ Gamma(p = 1,a = ?)
f? (x) = f (x | ?) =
?
G(1)
e-?xx1-1 = ?e-?x,
x> 0
familia de muestras para una Poisson
P (x | ?) =
P (xi | ?) ? ?ne-?
xi
,

Monografias.com

CAP´ITULO 2. ESTIMACION PUNTUAL
2 1=
x f
(xi | ?)d?
x ?2d?
? (1 – x)
? (1 – x)
28
´

P (x | ?) es el n´ucleo de una densidad tipo Gamma, entonces tomamos como posible familia
conjugada
P = {p (?) ? Gamma(p,a)},
recordamos que
f ~
ap
G(p)
e-axxp-1,
por lo que
p (?) ~
a?
G(?)
e-a??p-1,
xi
,
as´i que
p (? | x1,…,xn) ? f (xi | ?)p (?) ? ?ne-?
para ? > 0. por lo tanto
p (? | x1,…,xn) ~ Gamma p = a +
xi,a = ß + n .
Ejercicio 2.6.3 Sea X una observaci´on de la densidad
f (x | ?) =
2x
?2
I(0,?) (x),
? > 0,
supongamos que ? tiene una distribuci´on a priori uniforme sobre (0,1). Hallar la mediana de la
distribuci´on a posteriori.

Soluci´on. Tenemos la siguiente situaci´on:
f (x | ?) =
2x
?2
I(0,?) (x),
? > 0,
y suponemos que
p (?) = U [0,1] = 1,
? ? (0,1),
entonces:
p (? | xi) ? f (xi | ?)p (?) ?
2x
?
2x
?2
,
? ? (0,1),
pero x ? (0,1), x < ?, por lo que ? ? (x,1), as´i que
p (? | xi) ?
f (xi | ?)p (?)
1
=
2x
?2
1 2x
=
x
2
,
? ? (x,1).
Para calcular la media a posteriori vemos que
1
2
=
M

-8
p (? | xi)d? =
M

-8
x
2
d?

Monografias.com

– 3 ,
2.6. EJERCICIOS
29
por lo que
M =
2x
1+ x
,
tal y como quer´iamos calcular.

Ejercicio 2.6.4 Encontrar la cota de FCR y el estimador e?ciente (si existe) en los siguientes
casos:
1.
m.a. de
f?(x) =
1
?
exp –
x
?
,
? > 0,
x > 0,
para estimar ?
2.
m.a. de
f?(x) = ?(1 – ?)x ,
x = 0,1..,
? ? (0,1),
para estimar ?
3.
m.a. de
1
fs(x) = v
s 2p
exp –
x2
2s2
,
para estimar s, lo mismo para estimar s2.

Soluci´on. Recordamos que
FCR =
-nE?
dt 2
d?
d2 logf?(x)
d?2
,
I.F. = -nE?
d2 logf?(x)
d?2
mientras que el estimador e?ciente
t +
dt
d?
I.Fisher
dlogf?(xi)
d?
,
T = t +
t'
IF
(logf?)' ,
as´i que:
1.
En este caso
f?(x) =
1
?
exp –
x
?
,
? > 0,
x > 0,
por lo que tomando logaritmos tenemos que
logf?(x) = log
1
?
exp –
x
?
= -log? –
x
?
,
y de forma inmediata se calculan las derivadas etc…
1 x
? ?
?
?22 logf?(x) =
1
?2
2x
?

Monografias.com

CAP´ITULO 2. ESTIMACION PUNTUAL
2 –
?
= 2 – 3E [x] = 2 – 3? = – 2
x exp –
n exp
? (1 – ?)
30
´
de esta forma vemos que
E?
1
?
2x
3
1 2 1 2 1
? ? ? ? ?
ya que
E [X] =
R
1
?
x
?
dx = ?
E [X] =
p
a
= ?
adem´as podemos observar que

1
ya que G p = 1,a =
. Por lo tanto:
?
FCR =
-nE?
dt 2
d?
d2 logf?(x)
d?2
=
1
-n -? 1
2
=
?2
n
.
Para calcular el estimador e?ciente vemos que
f?(xi) =
f?(xi) =
1
?

xi
?
tomando logaritmos
log(f?(xi)) = log
1
?n
exp –
xi
?
= -nlog? –
xi
?
y por lo tanto
?? (log(f?(xi))) = ?? –
n
?

xi
?
= –
n
?
+
?
xi
2
de esta forma llegamos a que
T
= t +
dt
d?
I.Fisher
dlogf?(xi)
d?
=
= ? +
-n
1
-? 1
2

n
?
+
?
xi
2
= ? +
?2
n

n
?
+
?
xi
2
=
xi
n
.
2.
De forma m´ecanica vemos que
f?(x) = ?(1 – ?)x ,
x = 0,1..,
? ? (0,1),
es una geom´etrica
E [X] =
1 – ?
?
,
I.F. =
n
2
por lo que
FCR =
?2 (1 – ?)
n
sin embargo
T = ? –
?2 (1 – ?)
n
dlogf?(xi)
d?
= 2? – ?2 – ?2
xi

Monografias.com

-nEs d log dsf 2 s(x)
-nEs d log dsf 2 s(x)
2 4
= s2 + 2n
31
2.6. EJERCICIOS

i.e. no es un estimador e?ciente. FALTA completar las cuentecillas.
log(f?(xi)) = log ?n (1 – ?)
xi
.
dlogf?(xi)
d?
=
n
?

xi
(1 – ?)
,
3.
En este caso
1
fs(x) = v
s 2p
exp –
x2
2s2
? N 0,s2 ,
evitando pasos intermedios vemos que
FCR =
dt 2
ds
2
=
-nEs
1
1
s2

3×2
s4
=
– n
s2
+
1
3n
s4
Es
[X2]
2
2
observ´andose que: var(X) = Es X2 – Es [X]
Es X2 = var(X) + Es [X] = var(X) = s2
ya que X ? N 0,s2 , as´i que
FCR =
s2
2n
.
El estimador e?ciente:
T = t +
dt
d?
I.Fisher
dlogf?(xi)
d?
= s +
s2
2n
dlogf?(xi)
d?
donde
dlogf?(xi)
d?
=
d
d?
log
1
v
s 2p
n
exp –
i
x2
2s2
= –
n
s
+
i
x2
s3
entonces
T = s +
s2
2n

n
s
+
i
x2
s3
por lo que no hay estimador eiciente para s.
Sin embargo si repetimos estas cuentecillas para s2, vemos que
FCR =
dt 2
ds
2
=
s2
4s2
– n +
3n
s2
=
n
s .
mientras que el estimador e?ciente veri?ca
T
= t +
dt
d?
I.Fisher
dlogf?(xi)
d?
=
2s

s2

n
s
+
i
x2
s3
=
i
x2
n
luego T =
i
x2
n
es un estimador e?ciente en este caso.

Monografias.com

CAP´ITULO 2. ESTIMACION PUNTUAL
-nE? d log d? f 2?(x)
e
-cxe
= e
(e-c?)
= e-?e-?e .
32
´
Tal y comoquer´iamos hacer ver.

Ejercicio 2.6.5 Sea (Xi)ni =1 m.a. de una distribuci´on tipo Poisson ?.
1.
Hallar la cota inferior de FCR para la varianza de los estimadores insesgados de e-?.
2.
Xi) sea un estimador
Determinar el valor de la constante c tal que el estimador exp(-c
insesgado de e-?.
Soluci´on. De forma inmediata vemos que
FCR =
dt 2
d?
2
=
nE?
-e2?
d2 logf?(x)
d?2
=
?e-2?
n
no olvidar que estamos estimando e-?.
T = exp(-c
Xi) insesgado para estimar e-?.?? Recordamos que insesgado signi?ca:
E? [T] – t (?) = 0
??
E? [T] = e-?
por lo tanto
e-? = E [T] = E exp -c
Xi
=
E [exp(-cxi)] = (E [exp(-cxi)])n
= (exp(-?(1 – ec)))n = exp(-?n(1 – ec))

despejando se obtiene
c = -log 1 –
1
n
.
veamos un paso delicado de la anterior cadenas de igualdades:
E [exp(-cx)] =
-cx
P(X = x) =
8

x=0
e
-??x
x!
-?
8

x=0
x
x!
-c
tal y como quer´iamos hacer ver.

Ejercicio 2.6.6 Sea (Xi)ni =1 m.a. de una distribuci´on tipo uniforme U (0,?), ? > 0.
1.

2.

3.
Hallar la cota inferior de FCR para la varianza de los estimadores insesgados de ?.

Estudiar si X(n) es un estimador insesgado para ?.

Hallar el estimador de m´axima verosimilitud para ?.

Monografias.com

?
nt?n
f?(x) = ,
33
2.6. EJERCICIOS

Soluci´on. En este caso vemos que
E [T] = E X(n) =
R
tfX(n)(t)dt
para calcular fX(n)(t) puedo mirar la funci´on de densidad del m´aximo:
FX(n)(t) =
?
? 0
tn
?n
1
t < 0,
t ? (0,?),
t > ?,
vemos que
FX(n)(t) =
P(Xi = t) = (P(Xi = t))n =
t

-8
fdx
n
=
t
0
1
?
dx
n
=
tn
?n
as´i
fX(n) =
n-1
0
t ? (0,?)
resto
de esta forma
E [T] = E X(n) =
R
tfX(n)(t)dt =
?
0
n
tn
?n
dt =
n
n +1
?
por lo que no es insesgado para estimar ?. Recordatorio: E? [T] – t (?) = 0.

Hallar el estimador de m´axima verosimilitud para ?. En este caso
1
?
x ? (0,?),
por lo que la funci´on
L(?) = f?(xi) =
f?(xi) =
1
?n
,
as´i que
logL(?) = -nlog?,
=?
?? logL(?) = –
n
?
de esta forma llegamos a que
?? logL(?) = –
n
?
=0
=?
?
ˆ = 8,
? 1
?
llegando as´i a una cagada monumental.
Rehacemos el camino para hacer ver que en esta ocasi´on f?(x) = 1, x ? (0,?), pero L(?) = ?n, si
? = X(n), en este caso el rango de las observaciones depende del par´ametro por lo que hay que ser
un poco m´as cuidadoso a la hora de escribir las cosas. As´i se llega a la conclusi´on de que

ˆ = X(n)

tal y como quer´iamos hacer ver.

Monografias.com

CAP´ITULO 2. ESTIMACION PUNTUAL
xi,
¿Es consistente para ?? .i.e. ˆ ? -? ?.?? Para verlo tendremos
G(n)
?
E ˆ ? -? ?
? ?
´
34

Ejercicio 2.6.7 Sea (Xi)ni =1 m.a. de la densidad

f? (x) = ?exp(-?x),
x = 0,? > 0.
Encontrar el estimador de m´axima versimilitud de ?. ¿Es consistente para ??.

Soluci´on. En este caso f? (x) es una exponencial (ver primer ejercicio), adem´as el rango no
?
depende del par´ametro. ˆ =
n
P
n?8 n?8

Por lo tanto:
E ˆ
?
= E
n
xi
= E
n
Y
=
8
0
n
y
f (y)dy =
8
0
n ?n
y G(n)
e-?yyn-1dy =
= n
8
?n
G(n) 0
e-?yyn-2dy = n
?n G (n – 1)
n-1
=
n
n – 1
?
por lo tanto
?
E ˆ = E
n
Y
=
n
n – 1
?,
n?8
en estos c´alculos hemos empleado los siguientes trucos: Y =
xi ~ Gamma(p = n,a = ?). las
exponenciales son casos particulares de una Gamma y la suma de Gammas es otra Gamma. Si X
~ Gamma(p,a) entonces:
f(x) =
ap
G(p)
e-axxp-1,
8
0
e-axxp-1dx =
G (p)
ap
,
G(p) = (p – 1)G(p – 1).
Mientras que
var ˆ
?
= var
n
xi
= n2var
1
Y
= n2 E Y -2 – E2 Y -1
=
= n2
8
0
1 ?n
y2 G(n)
e-?yyn-1dy –
?2
(n – 1)2
= n2
?2
(n – 1)(n – 2)

?2
(n – 1)2
n?8

Ejercicio 2.6.8 Sea (Xi)ni =1 m.a. de una distribuci´on tipo uniforme U (0,?), ? ? (0,8). De-
mostrar que X(n) es consistente para ?. ¿Es Yn = 2Xn consistente para ??

Soluci´on. Seguimos los mismos que en ejercicios anteriores viendo que
FX(n)(t) =
?
? 0
tn
n
1
t < 0,
t ? (0,?),
t > ?,

Monografias.com

-? 0,
35
2.6. EJERCICIOS

observamos que
FX(n)(t) =
0 t< 0
1 t = ?
comprobando que
L P

¿Es Yn = 2Xn consistente para ??. Esperamos que 2Xn est´e cerca de ?.
? n?8
2
var(Yn) = var(2Xn) = 4var(Xn) = 4
var(X)
n
=
4 ?2
n 12
=
?2 n?8
3n
˜
¯
por lo que es consistente para ?. Sin embargo tiene una pequena pega pues si tomamos X ~ U(0,10)
supongamos que X = 6, entonces Yn = 2Xn = 12, por lo que a veces sobre-estima.

Ejercicio 2.6.9 Sea (Xi)ni =1 m.a. de una distribuci´on discreta con funci´on de masa
1.
Estudiar si T =
P? (X = x) = ?(1 – ?)x-1 ,
x = 1,2,…,? ? (0,1)

Xi, es un estad´istico su?ciente para ?.
?
2.

3.

4.

5.

6.
?
Hallar el estimador de ? por el m´etodo de los momentos,

Obtener el estiamdor de m´axima verosimilitud de ?.

Calcular la media de la distribuci´on a posteriori cuando la distribuci´on a priori para el
par´ametro ? ? (0,1).
Calcular la cota de FCR para la varianza de los estiamdores insesgados para t (?) = 1.
¿Hay estimador e?ciente para estimar t (?) = 1?.
Soluci´on. De forma telegr´a?ca vemos que
1.
S´i, aplicando el teorema de facotrizaci´on obtenemos
?(1 – ?)xi-1 = ?n (1 – ?)
xi-n
por lo tanto T =
Xi, es un estad´istico su?ciente para ?
2.
Sabemos que al tratarse de un geom´etrica
E [X] =
1
p
=
1
?
y por lo tanto
?
˜ =
n
xi
,

Monografias.com

CAP´ITULO 2. ESTIMACION PUNTUAL
x?(1 – ?)x-1 = .
36
´
3.
Vemos que
L(?) = ?n (1 – ?)
xi-n
xi – n log(1 – ?)
as´i que tomando logaritmos

logL = nlog? +

calculamos el m´aximo, encontrando
n
?

(
xi – n)
(1 – ?)
=0
de esta forma llegamos a:
?
ˆ =
n
xi
,
4.
p (? | xi) ~ Beta p = n + 1,q =
xi – n + 1
La media a posteriori es:
E [X] =
p
p + q
=
n +1
xi + 2
5.
T =
xi
n
?
es e?ciente para t = 1, donde
E [X] =
1
?

Monografias.com

Cap´itulo 3

Intervalos de con?naza
3.1.
Introducci´on
Disponemos de (Xi)ni =1 m.a. de X ~ f?(x) tal que ? ? T. Como siempre queremos estimar ?.

De?nici´on 3.1.1 Un estimador por intervalos de con?enza para estimar ?i es una funci´on que a
cada muestra (Xi)ni =1 le asigna un intervalo
(L,U) = (L(xi)ni =1 ,U (xi)ni =1).

De?nici´on 3.1.2 El nivel de con?anza de un intervalo (L,U) es 1 – a cuando
P? {? ? (L,U)} = P? {(xi)ni =1 : L < ? < U} = 1 – a.

Consideramos los siguientes m´etodos de construcci´on
1.

2.

3.2.
M´etodo cl´asico (cantidad pivotal), intervalos de con?anza m´as frecuentes en las aplicaciones.

M´etodos bayasianos.

M´etodo de la cantidad pivotal.
De?nici´on 3.2.1 Una cantidad pivotal para estimar ?i es una funci´on
T ((xi)ni =1 : ?i)
cuya distribuci´on no depende de ?i.

La idea es la de obtener una cantidad pivotal T para ?i, que sea una funci´on continua y mon´otona
de ?i. Queremos hallar (e(a1),e(a2)) tales que
P? {(xi)ni =1 : e(a1) < T < e(a2)} = 1 – a.

37

Monografias.com

s
Consideramos X ¯ ~ N µ, n 0
X ¯ – µ
X ¯ – µ
X ¯ – µ
µ < X ¯ + Za/2v ,
µ > X ¯ – Za/2v ,
X ¯ ± Za/2v
38
CAP´ITULO 3. INTERVALOS DE CONFINAZA
donde los (e(a1),e(a2)) no dependen de ?i por ser T una cantidad pivotal.

Despejamos ?i de la anterior ecuaci´on i.e.

e(a1) < T
T < e(a2)

obteniendo as´i (L,U).
3.2.1.
Cantidades pivotales e intervalos de con?anza m´as frecuentes.
1.
(Xi)ni =1 m.a. de X ~ f?(x) = N µ,s20 donde s20 es una cantidad conocida. El objetivo es
estimar µ mediante IC con un nivel de con?anza (NC) 1 – a.
Para ello seguiremos la siguiente t´actica:
2
y tipi?cando i.e.

v ~ N (0,1)
s0/ n
nos preguntamos si
T =
v
s0/ n
es una cantidad pivotal para estimar µ. Adem´as, para una muestra ?ja ¿es T continua y
mon´otona?. Ambas respuestas son a?rmativas.
P? {(xi)ni =1 : e(a1) < T < e(a2)} = 1 – a,
P?
(xi)ni =1 : e(a1) <
v < e(a2)
s0/ n
= 1 – a,
´
vemos que T ~ N (0,1) entonces por simetr´ia la ultima ecuaci´on la podemos reescribir como
P? (xi)ni =1 : -Za/2 < T < Za/2 = 1 – a,
as´i que despejamos

-Za/2 < T,
T < Za/2,

de donde obtenemos que
s0
n
s0
n
por lo que llegamos a:
IC1-a = (L,U) =
s0
n
.
Vemos de esta forma que al aumentar n la longitud del intervalo decrece (i.e. la estimaci´on es
m´as precisa). De igual forma se observa que al aumentar el NC 1-a entonces Za/2 aumenta
i.e. la longitud del intervalo aumenta y por lo tanto la estimaci´on es menos precisa).

Monografias.com

3.2. METODO DE LA CANTIDAD PIVOTAL.
(NC) 1 – a. Podemos intentar seguir la t´actica anterior i.e. consideramos X ¯ ~ N µ, 0
y
X ¯ – µ
X ¯ – µ
X ¯ – µ
X ¯-µ
/(n
X ¯ – µ
X ¯ – µ
X ¯ ± tn-1;a/2v
?2 n-1;a/2
?n-1;1-a/2
~
´
39
2.
(Xi)ni =1 m.a. de X ~ N µ,s2 . El objetivo es estimar µ mediante IC con un nivel de con?anza
s2
n
tipi?cando i.e.
v
s/ n
~ N (0,1),
y nos preguntamos si
T =
v
s/ n
es una cantidad pivotal para estimar µ. Adem´as, para una muestra ?ja ¿es T continua y
mon´otona?. En esta caso no, ya que T depende de un par´ametro desconocido, s, por lo tanto
no puede ser cantidad pivotal.
En este caso deberemos apelar al teorema de Fisher (recordar el primer cap´itulillo) viendo
que
v
s/ n
~ N (0,1),
(n – 1)S2
s2
2
~ ?n-1
por lo tanto
2
N (0,1)
?n-1/(n – 1)
=
v
s/ n
(n-1)S2
s2
– 1)
=
v
S/ n
~ tn-1
por lo tanto si de?nimos
T =
v
S/ n
ahora s´ies cantidad pivotal para estimar µ. Por lo tanto y siguiendo el procedimiento anterior
vemos que
P -tn-1;a/2 < T < tn-1;a/2 = 1 – a
donde hemos vuelto a tener en cuenta las simetr´ias de la distribuci´on. As´i que despejando se
llega a que
IC1-a (µ) =
S
n
.
Siguiendo los mismos paso, podemos ahora estimar s2. Para ello consideramos
T =
(n – 1)S2
s2
,
como cantidad pivotal y obtenemos por lo tanto
IC1-a s2 =
(n – 1)S2 (n – 1)S2
, 2
.
3.
(Xi)ni =1 m.a. de X ~ Bernoulli(p). El objetivo es estimar p mediante IC con un nivel de
con?anza (NC) 1 – a. En este caso seguremos las siguientes consideraciones:
n
i=1
e
Xi = “# ´xitos” ~ Bin(n,p)
Ta De Moivre
N µ = np,s2 = npq

Monografias.com

i=1 Xi
– np
40
CAP´ITULO 3. INTERVALOS DE CONFINAZA
por lo tanto
n
i=1
Xi ~ N µ = np,s2 = npq
tipi?cando
n

np(1 – p)
~ N(0,1)
arreglando las cuentecillas llegamos a
¯
X – p
p(1-p)
n
?
¯
ˆ ˆ
X – p
p(1-p)
n
=
¯
¯ ¯
X – p
X(1-X)
n
~ N(0,1)
as´i que
T =
¯
¯ ¯
X – p
X(1-X)
.
n
¯
Por lo tanto y siguiendo los mismos pasos que los anteriores casos vemos que
¯
?
IC1-a (p) = ?X ± Za/2
¯ ¯
X 1 – X
n
?
?.
3.2.2.
Cantidad pivotal general.
Sea (Xi)ni =1 m.a. de X ~ F? distribuci´on continua. Podemos de?nir una cantidad pivotal gen´erica
como sigue:
T = –
n
logF? (xi)
i=1
es cantidad pivotal para estimar el par´ametro ?, pues depende de (Xi)ni =1 y ? y se comprueba con
facilidad que la funci´on de distribuci´on de T no depende de ?.

De?nici´on 3.2.2 De?nimos el error en la estimaci´on de un intervalo de con?enaza como
E =
longitud del intervalo
2
.
˜
En muchos estudios es muy interesante saber el tamano muestral necesario para obtener un error
en la estimaci´on inferior a E.

Ejemplo 3.2.1 Sea (Xi)ni =1 m.a. de X ~ N µ,s20 donde s20 es una cantidad conocida. ¿Cu´al es
el m´inimo valor de n para que el error en la estimaci´on de un intervalo con nivel de con?anza 1-a
sea inferior a E?

Monografias.com

X ¯ ± Za/2v
E = Za/2v
41
3.3. INTERVALOS DE CONFIANZA BAYESIANOS.

Sabemos que
IC1-a =
s0
n
.
por lo tanto

por lo que de aqu´i despejamos n
s0
n
v
Za/2s0 = E n
as´i que
n =
Za/2s0
E
2
.
3.3.
Intervalos de con?anza bayesianos.
f (x1,….,xn | ?) =
Sea (Xi)ni =1 m.a. de X ~ f (X | ?) donde ? ? T. Tenemos la informaci´on muestral (verosimilitud)
n
i=1
f (xi | ?)
y de la informaci´on a priori
p (?)
as´i que aplicando Bayes
p (? | x1,….,xn) =
p (?)
n
f (xi | ?)
?
p (?)
i=1
n
f (xi | ?)
? p (?)f (x1,….,xn | ?)
/
i=1
y todas las conclusiones las obtendremos a partir de p (? | x1,….,xn) la distribuci´on a posteriori.

De?nici´on 3.3.1 Un intervalo de con?anza bayesiano al nivel 1-a es un intervalo (L,U) tal que
U
p (? | x1,….,xn)d? = 1 – a.
L

De?nici´on 3.3.2 El intervalo de con?anza bayesiano con m´axima densidad a posteriori (HPD) al
nivel 1 – a es el intervalo (L,U) tal que
U
p (? | x1,….,xn)d? = 1 – a,
L
y ??1 ? (L,U) y ??2 ? (L,U),
p (?1 | x1,….,xn) > p (?2 | x1,….,xn).

El intervalo HPD es el de m´inima longitud para un nivel 1 – a ?jado.

Monografias.com

x ¯ ± za/2v
x ¯ ± tn-1;a/2v
42

3.4.
CAP´ITULO 3. INTERVALOS DE CONFINAZA

Resumen de intervalos

INTERVALOS DE CONFIANZA
´

(X1,…,Xn) muestra aleatoria (m. a.) de X.
¯
x =
1
n
xi
s2 =
1
n – 1
¯
(xi – x)2.
3.4.1.
X ~ N(µ,s)
Intervalos de con?anza 1 – a para µ:

1. s conocida:
I =
s
n
.
s
n
.
2. s desconocida
I =

Intervalo de con?anza 1 – a para s2:
I =
2
(n – 1)s2
?n-1;a/2
,
2
(n – 1)s2
?n-1;1-a/2
.
3.4.2.
X ~ Bernoulli(p) (muestras grandes).
Intervalo de con?anza 1 – a para p:
I =
¯
x ± za/2
¯ ¯
x(1 – x)
n
.
3.4.3.
X ~ Poisson(?) (muestras grandes)
¯
Intervalo de con?anza 1 – a para ?:

I = x ± za/2
¯
x/n .

Monografias.com

(s21/n1)2 (s22/n2)2
+
3.4. RESUMEN DE INTERVALOS
43
3.4.4.
Dos poblaciones Normales independientes
¯
y
X ~ N(µ1,s1); (X1,…,Xn1) m. a. de X; se calcula x y s21.
Y ~ N(µ2,s2); (Y1,…,Yn2) m. a. de Y ; se calcula ¯ y s22.
2
sp =
(n1 – 1)s21 + (n2 – 1)s22
n1 + n2 – 2
.
Intervalos de con?anza 1 – a para µ1 – µ2:
1. s1, s2 conocidas:
?
¯ y
I = ?x – ¯± za/2
s21
n1
+
?
s22?
n2
.
2. s1, s2 desconocidas, s1 = s2:
I =
¯ y
x – ¯± tn1+n2-2;a/2 sp
1
n1
+
1
n2
.
3. s1, s2 desconocidas, s1 = s2:
?
¯ y
I = ?x – ¯± tf;a/2
s21
n1
+
s22
n2
?
?,
(s21/n1 + s22/n2)2

n1-1 n2-1
.
donde f = entero m´as pr´oximo a

Intervalo de con?anza 1 – a para s21/s22:
I =
s21/s22
Fn1-1;n2-1;a/2
,
s21/s22
Fn1-1;n2-1;1-a/2
.
3.4.5.
Comparaci´on de proporciones (muestras grandes e independientes)
X ~ Bernoulli(p1);(X1,…Xn1) m. a. de X.
Y ~ Bernoulli(p2);(Y1,…Yn2) m. a. de Y .
Intervalo de con?anza 1 – a para p1 – p2:
?
¯ y
I = ?x – ¯± za/2
¯ ¯
x(1 – x)
n1
+
y y
?
¯(1 – ¯)?
n2
.

Monografias.com

1/2 .
44
CAP´ITULO 3. INTERVALOS DE CONFINAZA
3.5.
Ejercicios
¯ ¯
Ejercicio 3.5.1 Sea (X1,X2,X3,X4) una m.a. de X ~ N µ,s2 = 1 . Hallar el nivel de con?anza
del estimador por intervalos X – 1,X + 1 .

Soluci´on. Queremos calcular el NC que como sabemos
i ¯ ¯
¯ ¯
= Pµ X – 1 < µ < X + 1
NC = Pµ (Xi)4=1 : µ ? X – 1,X + 1

si tenemos en cuenta que
¯
X =
Xi
n
= µ,
¯
X ~ N
µ,
s2
n
= N
µ,
1
4
,
=?
s = 1/2,
entonces
¯ ¯
Pµ X – 1 < µ < X + 1 = P
µ – 1 – µ
1/2
<
¯
X – µ
1/2
<
µ +1 – µ
1/2
¯
X-µ
P {-2 < Z < 2}
Teniendo en cuenta las simetr´ias de la N(0,1) la anterior
simpli?cando queda:

donde como es habitual Z =
expresi´on queda reducida a:
2P (Z > 2) = 0,9544
donde dicho valor se ha obtenido de las tablas para la nornal tipi?cada.

Ejercicio 3.5.2 Sea (Xi)ni =1 una m.a. de X ~ U (0,?),? > 0.
1.
Nivel de con?anza del estimador por intervalos
aX(n),bX(n) tal que 1 = a < b.
2.
Hallar P? ? ? X(n) + c,X(n) + d
tal que 1 = c < d.
Soluci´on. Para el primero de los apartados vemos que

[L,U] = aX(n),bX(n) ,
1 = a < b,
por lo tanto el NC ser´a

NC = P? {(Xi)ni =1 : ? ? [L,U]} = P? aX(n) < ? < bX(n)

o lo que es lo mismo
P?
?
b
< X(n) <
?
a
´
recordar que X(n) = max(Xi). Adem´as si rememoramos las cuentecillas del primer capitulillo vemos
que
fX(n) = n[FX (t)]n-1 fX (t)

Monografias.com

dt = n – n
i=1 Xi
= ?e-? ?
3.5. EJERCICIOS
45
as´i que
fX(n) = n
t
?
n-1
1
?
=
ntn-1
?n
,
?t ? (0,?)
por lo tanto
P?
?
b
< X(n) <
?
a
=
?
a
?
b
fX(n)dt =
?
a
?
b
ntn-1
?n
1 1
a b
y como vemos en este caso no depende de ?.

En el segundo de los casos vemos que

[L,U] = X(n) + c,X(n) + d ,
1 = c < d,
as´i que seguimos el mismo procedimiento por lo que llegamos sin problemas a:
P? X(n) + c < ? < X(n) + d = P? ? – d < X(n) < ? – c = 1 –
c
?
n
– 1 –
d
?
n
al depender de ? no se le llama nivel de con?enza.

Ejercicio 3.5.3 Sea (Xi)ni =1 una m.a. de X cuya densidad viene dada por
probar que T = ?
n
?e-?x x > 0
f (x | ?) =
0 resto

es una cantidad pivotal y obtener los intervalos de con?anza correspond-
intes.

Soluci´on. Observamos que T es funci´on s´olo de la muestra y del par´ametro y tenemos que ver que
la distribuci´on es funci´on continua y mon´otona.

X ~ f?

de?nimos la v.a. Y = ?X as´i que aplicando el c.v.
T = ?
n
i=1
Xi =
n
i=1
Yi ~ Gamma(p = n,a = 1)
vemos que si
Y = ?X
=?
X =
Y
?
=?
dX
dY
=
1
?
por lo tanto
fY = fX
dX
dY
y 1
?
= e-y,
?y ? (0,8)
adem´as se observa que fY ~ Gamma(p = 1,a = 1). De esta forma vemos que al solo depender de
(Xi)ni =1 se trata de una cantidad pivotal para el par´ametro ?, igualmente se observa que es continua
y mon´otona creciente en ?.

Monografias.com

i=1 Xi
i=1 Xi
i=1 Xi
i=1 Xi
CAP´ITULO 3. INTERVALOS DE CONFINAZA
46

Buscamos ahora (e1,e2) tales que
P
e1 < ?
P {e1 < T < e2} = 1 – a

as´i que teniendo en cuenta las simetr´ias de la funci´on gamma etc… despejamos ? y vemos que

n
i=1
Xi < e2
=1 – a
e1 < ?
n

i=1
Xi,
=?
e1 (a)
n

Partes: 1, 2
 Página anterior Volver al principio del trabajoPágina siguiente 

Nota al lector: es posible que esta página no contenga todos los componentes del trabajo original (pies de página, avanzadas formulas matemáticas, esquemas o tablas complejas, etc.). Recuerde que para ver el trabajo en su versión original completa, puede descargarlo desde el menú superior.

Todos los documentos disponibles en este sitio expresan los puntos de vista de sus respectivos autores y no de Monografias.com. El objetivo de Monografias.com es poner el conocimiento a disposición de toda su comunidad. Queda bajo la responsabilidad de cada lector el eventual uso que se le de a esta información. Asimismo, es obligatoria la cita del autor del contenido y de Monografias.com como fuentes de información.

Categorias
Newsletter