˜
Pr´ologo
La idea fundamental de esta notas confecionadas a modo de resumen (personal) es la de tener a
mano un recordatorio de por donde iban los tiros. S´olo se demuestran los teoremas fundamentales y
se acompona el texto con una serie de ejercios m´as o menos trabajados. En modo alguno pretenden
sustituir (porque es implosible) los manuales cl´asicos o las notas de clase de un profesor. Es decir,
estas notas estan confeccionadas a modo de refrito entre las notas de clase y de distintos libros
cl´asicos como los siguientes:
˜
1.
2.
3.
4.
5.
Juli´an de la Horra. Estad´istica Apliaca. Diaz de Santos (2003)
M.A. G´omez Villegas Inferencia Estad´isticaDiaz de Santos (2005)
Novo, V. Problemas de C´alculo de Probabilidades y Estad´istica UNED (1993).
Daniel Pena. Fundamentos de Estad´istica. Alianza Editorial (2001)
R. V´elez Ibarrola et al. Principios de Inferencia Estad´istica UNED (1993)
todo ello aderezado (como he indicado antes) con una serie de ejemplos (ejercicios donde se aplica
de forma inmediata los conceptos te´oricos expuestos) desarrollados (eso espero) al ?nal de cada
capitulillo (todos ellos muy sencillos).
Agradezco al Prof. Juli´an de la Horra el haberme pasado las secciones 3.4 y 4.4 de estas notas,
´estas son enteramente suyas.
ADVERTENCIA: No est´an concluidas y es muy posible que hayan sobrevivido numerosas er-
ratas. Toda observaci´on en este sentido es bien recibida.
v
Cap´itulo 1
Muestreo aleatorio.
1.1.
Muestreo aleatorio simple.
Es el objetivo fundamental de la inferencia estad´istica. Obtener conclusiones razonadas sobre una
caracter´istica X de una poblaci´on a partir de los resultados de una muestra. Dicha caracter´istica X
ser´a una variable aleatoria (v.a.) (discreta o cont´inua) y por lo tanto estar´a descrita por su funci´on
de masa o de densidad, escrita de forma gen´erica f.
Observaci´on 1.1.1 f no es completamente conocida.
De?nici´on 1.1.1 Una muestra aleatoria (m.a.) de una caracter´istica X cuya distribuci´on es f (x)
i.e. X ~ f (x), es un vector aleatorio (X1,….,Xn) tal que
1.
2.
La distribuci´on marginal de cada Xi viene dada por la misma distribuci´on que la caracter´istica
i.e. (Xi)ni =1 ~ f (x).
(Xi)ni =1 son independientes.
El signi?cado intuitivo es el siguiente.
a Las observaciones son representaciones de la poblaci´on que estoy estudiando.
b La muestra es con reemplazamiento.
1.
2.
por simplicidad matem´atica (el caso no independiente es mucho m´as complejo)
la muestra es con reemplazamiento, signi?ca que la muestra (su tamano) es pequeno en
˜ ˜
comparaci´on con la poblaci´on.
Fundamentalmente por lo tanto la funci´on de masa o de densidad de una muestra aleatoria ven-
dr´a dada por
f (x1,…..,xn) =
indpen.
i=1
f(xi).
(1.1)
1
S =
2
CAP´ITULO 1. MUESTREO ALEATORIO.
Ejemplo 1.1.1 Supongamos que X es del tipo, estatura, etc… entonces es razonable pensar que
X ~ N(µ,s2),
donde falta por conocer µ y s2.
Un problema de inferencia param´etrica es aquel en el que queremos estudiar una caracter´istica
X ~ f? (x), donde ? es el par´ametro a encontrar, ? ? T (espacio param´etrico). Nuestro prop´osito
ser´a encontrar conclusiones sobre ? por lo tanto la eq. (1.1) se reescribe como
f? (x1,…..,xn)
=
indpen.
i=1
f?(xi).
(1.2)
De?nici´on 1.1.2 Un estad´istico T es una funci´on medible de la muestra T : Rn-? Rn. Formal-
mente T es un variable o vector aleatorio. T viene a ser el resumen de la muestra.
Ejemplo 1.1.2 Veamos algunos ejemplos de estad´isticos:
1.
Media muestral
X =
1
n
n
i=1
Xi,
(1.3)
2.
Varianza muestral
var(X) =
1
n
n
i=1
Xi – X
2
=
1
n
n
i=1
i
X2 – nX
2
,
(1.4)
3.
Cuasi-varianza muestral
2
1
n – 1
n
i=1
Xi – X
2
=
1
n – 1
n
i=1
i
X2 – nX
2
,
(1.5)
4.
Esta´isticos de orden
X(1),……,X(n) ,
(1.6)
donde
(1.7)
X(1) = m´in(X1,….,Xn),
…
X(n) = m´ax(X1,….,Xn).
E [Xi] =
n ,
=
?Xi(t) = ?nX(t),
) = ?nX( ),
n .
1.1. MUESTREO ALEATORIO SIMPLE.
3
Proposici´on 1.1.1 Propiedades de los estad´isticos. Sea (X1,….,Xn) una m.a. tal que E (X) = µ
y var(X) = s2, entonces:
1.
E X = µ,
se observa que
E
1
n
n
i=1
Xi
=
1
n
n
i=1
indp.
1
n
nE [Xi] = µ
2.
s2
var X =
Vemos que
var X = var
1
n
n
i=1
Xi
=
1
n2
var
n
i=1
Xi
indp.
1
n2
nvar(Xi) =
s2
n
3.
E S2 = s2.
n n
s2 n
¿qu´e podemos hacer?. Estudiar su funci´on caracter´istica. Sea (X1,….,Xn) una m.a. de X con
funci´on caracter´istica ?X(t), entonces encontramos que
?
Xi(t)
=
indpen.
i.d.
(1.8)
mientras que
1
?X(t) = ? n
n
i=1
Xi(t)
= ?
n
i=1
Xi(
t
n
t
n
(1.9)
bas´andonos en las propiedades de las funciones caracter´isticas.
Ejemplo 1.1.3 Sea (X1,….,Xn) una m.a. de X ~ N(µ,s2), con funci´on caracter´istica ?X(t),
¿qu´e podemos decir sobre la distribuci´on de la media muestral, X?. Vemos que
1 2 2
entonces teniendo en cuenta las f´ormulas anteriores encontramos que:
t t n t 2 2 1 t 2 2
n
donde observamos que E X = µ, y var X =
s2
Volmemos otra vez sob
Página siguiente |