Monografias.com > Sin categoría
Descargar Imprimir Comentar Ver trabajos relacionados

Estadística I. Cuadernillo de apoyo (página 2)




Enviado por rene_garcia000



Partes: 1, 2, 3

  

Figura: La función de verosimilitud se obtiene a
partir de la función de densidad, intercambiando los papeles
entre parámetro y estimador. En una
función de verosimilitud consideramos que las
observaciones x1, …, xn, están
fijadas, y se representa la gráfica con el
valor de los
valores que tomaría la función de
densidad para todos los posibles
valores del parámetro
. El
estimador máximo verosímil del
parámetro buscado,,
es aquel que maximiza su función de
verosimilitud, .

Como es lo mismo
maximizar una función que su logaritmo (al ser este una
función estrictamente creciente), este máximo puede
calcularse derivando con respecto a la
función de verosimilitud (bien su logaritmo) y tomando
como estimador máximo verosímil al que haga la
derivada nula:

De modo más
preciso, se define el estimador máximo verosímil
como la v.a.

Los estimadores de
máxima verosimilitud tienen ciertas propiedades en general
que a continuación enunciamos:

1. Son

consistentes
;

2. Son invariantes
frente a transformaciones biunívocas, es decir, si
es el estimador máximo verosímil de
y es una
función biunívoca de , entonces
es el estimador máximo verosímil de
.

3. Si es
un
estimador suficiente

de , su
estimador máximo verosímil, es
función de la muestra a
través de;

4. Son
asintóticamente normales;

5. Son
asintóticamente eficientes, es decir, entre todos los
estimadores consistentes de un parámetro , los de
máxima verosimilitud son los de varianza
mínima.

6. No siempre
son
insesgados
.

Momentos

Sea X una v.a.
cuya función de probabilidad (o
densidad de probabilidad si
es continua) depende de unos parámetros
desconocidos.

Representamos
mediante una
muestra
aleatoria simple de la variable. Denotamos mediante fc
a la función de densidad conjunta de la muestra, que por
estar formada por observaciones independientes, puede
factorizarse del siguiente modo:

Se denomina estimador de un parámetro, a
cualquier v.a. que se
exprese en función de la muestra aleatoria y que tenga por
objetivo
aproximar el valor
de,
Obsérvese que el estimador no es un valor concreto sino
una variable aleatoria, ya que aunque depende unívocamente
de los valores de
la muestra observados (Xi=xi), la
elección de la muestra es un proceso
aleatorio. Una vez que la muestra ha sido elegida, se denomina
estimación el valor numérico que toma el estimador
sobre esa muestra.

Intuitivamente,
las características que serían deseables para esta
nueva variable aleatoria (que usaremos para estimar el
parámetro desconocido) deben ser:


  • Consistencia
    : Cuando el tamaño de la muestra crece
    arbitrariamente, el valor estimado se aproxima al
    parámetro desconocido.


  • Carencia de
    sesgo
    : El valor
    medio que se obtiene de la estimación para
    diferentes muestras debe ser el valor del
    parámetro.


  • Eficiencia
    :
    Al estimador, al ser v.a., no puede exigírsele que
    para una muestra cualquiera se obtenga como
    estimación el valor exacto del parámetro. Sin
    embargo podemos pedirle que su dispersión con
    respecto al valor central (varianza) sea tan pequeña
    como sea posible.

  • Suficiencia: El
    estimador debería aprovechar toda la
    información existente en la muestra.

A
continuación vamos a enunciar de modo más preciso y
estudiar cada una de esas características.

Ejemplo

 Consideremos una v.a. de
la que sólo conocemos que su ley de
distribución es gaussiana,

Para muestras
aleatorias de tamaño n=3,

Un posible
estimador del parámetro µ es

Si al realizar un
muestreo
aleatorio simple obtenemos

Hemos dicho que el
estimador sirve para aproximar el valor de un parámetro
desconocido, pero… ¿si el parámetro es
desconocido cómo podemos decir que un estimador dado sirve
para aproximarlo? Así pues, es necesario que definamos en
qué sentido un estimador es bueno para cierto
parámetro.

Carencia de
sesgo

Se dice que un
estimador de un
parámetro es insesgado
si:

La carencia de
sesgo puede interpretarse del siguiente modo: Supongamos que se
tiene un número indefinido de muestras de una
población, todas ellas del mismo tamaño n. Sobre
cada muestra el estimador nos ofrece una estimación
concreta del parámetro que buscamos. Pues bien, el
estimador es insesgado, si sobre dicha cantidad indefinida de
estimaciones, el valor medio obtenido en las estimaciones es
(el valor que se desea conocer).

Consistencia

Decimos que
es un estimador consistente con el parámetro
si:

O lo que es
equivalente

Este tipo de
propiedades definidas cuando el número de observaciones n,
tiende a infinito, es lo que se denomina propiedades
asintóticas.

Teorema

Como consecuencia
de de la desigualdad de Thebycheff se puede demostrar el
siguiente resultado:

Si se verifican
las condiciones

Entonces
es consistente.

Eficiencia

Dados dos
estimadores y
de un mismo parámetro, diremos
que es
más eficiente que
si:

Suficiencia

Diremos que
es un estimador suficiente del parámetro
si

Para todo posible
valor de .

Esta
definición así enunciada tal vez resulte un poco
oscura, pero lo que expresa es que un estimador es suficiente, si
agota toda la información existente en la muestra que
sirva para estimar el parámetro.

Teorema

[Criterio de
factorización de Fisher–Neyman] Sea la
distribución conjunta para las muestras de tamaño
n, .
Entonces

siendo h una
función no negativa que no depende de y r una
función que sólo depende del parámetro y de
la muestra a través del estimador.

  1. Estimación por
    intervalos de confianza

Cuando estimamos
un parámetro en una
densidad f(x,) a partir
de un muestreo
aleatorio simple, lo hacemos a partir del valor de una variable
aleatoria, que es estimador de.
Aún cuando dicho estimador haya sido obtenido para que
goce de buenas propiedades, por ejemplo ser insesgado, en la
práctica nadie nos garantiza el grado de divergencia entre
la estimación obtenida y el verdadero valor del
parámetro desconocido. Por ello
parece razonable controlar las estimaciones puntuales con otros
parámetros de estimación en los cales se posee
información paramétrica entre estimaciones y
parámetros desconocidos. A tal efecto, surgen los
intervalos de confianza para estimar parámetros. Un
intervalo de confianza para un parámetro
será un intervalo donde podemos controlar la probabilidad
de que se encuentre verdaderamente.

Definición:
Sea x1, x2, …., xn un muestreo
aleatorio simple de una población f(x,,
donde es un
parámetro desconocido. Un intervalo de confianza
para viene dado
por dos estadísticos U y V tales.
es una cantidad que fija el investigador, usualmente
los valores
desuelen ser 0,1 ; 0,01 ó 0,05. Por
defecto

= 0,05.
U y V son estimadores por defecto y por exceso de.
Diremos entonces que (U,V) es el intervalo de confianza para de
nivel de confianza 1 –.

Una vez que se
observen los valores muestrales, su sustitución en (U,V)
proporciona el intervalo numérico (U,V).

La
interpretación del intervalo de confianza es el siguiente
en una larga serie de determinaciones de intervalos basados en
muestras distintas, el 100·(1-)% de tales
intervalos contendría el valor de.

A
continuación se muestran los diferentes intervalos de
confianza donde se quiere saber si se conoce la desviación
estándar, si no se conoce, etc., como ya sabemos la
desviación estándar se obtiene de la raíz
cuadrada de la varianza, por lo tanto para los siguientes
problemas
seguiremos este procedimiento.

Intervalo de Confianza para la
media de una población normal con varianza
conocida:

Sea
x1, x2, …., xn un muestreo
aleatorio simple de N,desconocido yconocido.
Se desea obtener un intervalo de confianza para de
nivel. Como
consecuencia del teorema de Fisher se sabe que . Por
tanto .

Existe
tal que

Pero

Por
tanto:

Entonces:

I.C. =
de nivel

Intervalo de confianza para la
media de una normal con varianza desconocida

Sea x1,
x2, …., xn un muestreo aleatorio simple
de N,
ydesconocidos. Se desea obtener un intervalo de
confianza para de
nivel. Sabiendo
como consecuencia del teorema de Fisher se sabe que
y que ,
entonces:

Por tanto existe
un tal que
.

Además,

EntoncesY por
tanto el intervalo de confianza para de
niveles:

I.C. =

Intervalo de confianza para la
varianza de una normal:

Sea x1,
x2, …., xn un muestreo aleatorio simple
de Ncondesconocida. puede ser
conocida o desconocida. Se desea obtener un intervalo de
confianza para .
Según el teorema de Fisher .

Existen cantidades
Ka y Kb tales que:

. Pero
y

Por
tanto

Luego el intervalo
de confianza será: I.C. = de nivel
1-

Si se desease
obtener el intervalo de confianza para, es
decir, para la desviación típica, como la
raíz es función creciente, entonces:

I.C. =
para, de nivel
1-

Intervalo de confianza para la
diferencia de medias en poblaciones normales con varianza
conocida:

Sea x1,
x2, …., xn un muestreo aleatorio simple
de Ny
y1, y2, …., yn uno de
N. Ambas muestras independientes. Supongamos
que
y son desconocidos y yconocidas.
Se desea obtener un intervalo de confianza para

de
nivel 1-.

Sabemos
que

Existe
unverificando

Despejando:

Entonces Luego el
intervalo de confianza es:

I.C. =
de nivel 1-

 

Intervalo de confianza para
en una distribución de Poisson si la muestra es
muy grande.

Sea
x1, x2, …., xn muestreo
aleatorio simple de P()
condesconocido y suponemos que n es muy grande.

El EMV
dees que es
EMV y alcanza la Cota de Cramer Rao. Como
consecuencia:


(Teorema del límite central)

Existe por
tanto tal
que

Pero
y

Como los
extremos del intervalo de confianza dependen de, tal
y como ha probado el resultado, no podemos obtener un intervalo
de confianza. Existen dos alternativas:

  1. Método aproximado:
    Consiste en sustituir en los extremos anteriores el valor
    de por
    su EMV. Entonces:

    I.C.
    = de
    nivel 1-.

  2. Método
    exacto:

, pero

Como el
coeficiente dees
positivo, la parábola es cóncava y por tanto
la ecuación anterior se satisface para los valores
decomprendido entre las dos raíces.

Por lo que el
intervalo de confianza es:

I.C. =
de
nivel 1-

Intervalos de confianza para
variables
dicotómicas

Cuando tenemos una
variable
dicotómica (o de
Bernoulli)
a menudo
interesa saber en
qué proporción de
casos, p
, ocurre el
éxito en la realización de un experimento.
También nos puede interesar el comparar la
diferencia existente entre las
proporciones
en distintas
poblaciones. También es de interés calcular para un
nivel de significación dado, el
tamaño muestral

necesario para calcular un intervalo
de confianza de cuyo radio sea menor
que cierta cantidad.

Intervalo para una
proporción

Sean .
Si queremos estimar el parámetro p, la manera más
natural de hacerlo consiste en definir la suma de estas –lo que
nos proporciona una distribución Binomial:

y tomar como
estimador suyo la v.a.

Es decir, tomamos
como estimación de p la proporción de éxitos
obtenidos en las n pruebas,
p.

La
distribución del número de éxitos es
binomial, y puede ser aproximada a la normal cuando el
tamaño de la muestra n es grande, y p no es una cantidad
muy cercana a cero o uno:

El estimador p no
es más que un cambio de
escala de X, por
tanto

Esta
expresión presenta dificultades para el cálculo,
siendo más cómodo sustituirla por la siguiente
aproximación:

Para encontrar el
intervalo de confianza al nivel de significación
para p se considera el intervalo que hace que la
distribución de deje la
probabilidad fuera del
mismo. Es decir, se considera el intervalo cuyos extremos son los
cuantiles y
. Así se puede afirmar con una confianza de 1-a
que:

Esto se resume en
la siguiente expresión:

con una confianza de 1-a

Figura:
Intervalo de confianza para una
proporción.

Ejemplo

 Se quiere
estimar el resultado de un referéndum mediante un sondeo.
Para ello se realiza un muestreo aleatorio simple con n=100
personas y se obtienen 35% que votarán a favor y 65% que
votarán en contra (suponemos que no hay indecisos para
simplificar el problema a una variable dicotómica). Con un
nivel de significación del 5%, calcule un intervalo de
confianza para el verdadero resultado de las
elecciones.

Solución: Dada una persona
cualquiera (i) de la población, el resultado de su voto es
una variable dicotómica:

El
parámetro a estimar en un intervalo de confianza con
α=0.05 es p, y tenemos sobre una muestra de tamaño
n=100, la siguiente estimación puntual de p:

Sabemos
que

En la
práctica el error que se comete no es muy grande si
tomamos algo más simple como

Así el
intervalo de confianza buscado lo calculamos como se
indica:

Por tanto, tenemos
con esa muestra un error aproximado de 9,3 puntos al nivel de
confianza del 95%.

Figura:
Región a partir de la cual se realiza una
estimación confidencial para una
proporción, con una confianza del
95%.

Elección del
tamaño muestral para una proporción

En un

ejemplo previo
con una muestra de 100 individuos se
realizó una estimación confidencial, con un 95% de
confianza, del porcentaje de votantes a una cuestión en un
referéndum, obteniéndose un margen de error de 9,3
puntos.

Si pretendemos
reducir el error a 1 punto y queremos aumentar el nivel de
confianza hasta el 97% ( ) hemos de
tomar una muestra lógicamente de mayor tamaño, N.
La técnica para aproximar dicha cantidad consiste en
observar que el error cometido en una estimación es de la
forma:

Donde es
una estimación puntual de p.

Por tanto un valor
de N que satisfaga nuestros requerimientos con respecto al error
sería:

Si en un principio
no tenemos una idea sobre que valores puede tomar p, debemos
considerar el peor caso posible, que es en el que se ha de
estimar el tamaño muestral cuando p=q=1/2.
Así:

1 Ejemplo

Continuemos
el
último
ejemplo
. Se quiere estimar
el resultado de un referéndum mediante un sondeo, y sin
tener una idea sobre el posible resultado del mismo, se desea
conocer el tamaño de muestra que se ha de tomar para
obtener un intervalo al 97% de confianza, con un error del
1

Solución:

Como no se tiene
una idea previa del posible resultado del referéndum, hay
que tomar un tamaño de muestra, N, que se calcula
mediante:

Así para
tener un resultado tan fiable, el número de personas a
entrevistar debe ser muy elevado –lo que puede volver
excesivamente costoso el sondeo.

Intervalo para la diferencia de dos
proporciones

Vamos a considerar
que tenemos dos poblaciones de modo que en cada una de ellas
estudiamos una
v.a. dicotómica
(Bernoulli)
de
parámetros respectivos p1 y p2. De
cada población vamos a extraer muestras de tamaño
n1 y n2

Entonces

Si las muestras
son suficientemente grandes ocurre que

Esta última
relación se puede aproximar por otra que simplifica
bastante los cálculos:

Por el mismo
razonamiento que en el caso de una población llegamos a
que una aproximación para un intervalo de confianza al
nivel 1-α para la diferencia de proporciones de dos
poblaciones es:

Problemas

Ejercicio 1. Se ha medido
el volumen diario de
bilis, expresado en litros, en 10 individuos sanos,
obteniéndose

0,98; 0,85; 0,77; 0,92; 1,12;
1,06; 0,89; 1,01; 1,21; 0,77.

¿Cuanto vale la
producción diaria media de bilis en individuos sanos
suponiendo que la muestra ha sido obtenida por muestreo aleatorio
simple sobre una población normal?

Ejercicio 2. La cantidad
mínima requerida para que un anestésico surta
efecto en una intervención quirúrgica fue por
término medio de 50 mg., con una desviación
típica de 10,2 mg., en una muestra de 60 pacientes.
Obtener un intervalo de confianza para la media al 99%,
suponiendo que la muestra fue extraída mediante muestreo
aleatorio simple sobre una población normal.

Ejercicio 3. Un
investigador está interesado en estimar la
proporción de muertes debidas a cáncer de
estómago en relación con el número de
defunciones por cualquier tipo de neoplasia. Su experiencia le
indica que sería sorprendente que tal proporción
supere el valor de 1/3. ¿Qué tamaño de
muestra debe tomar para estimar la anterior proporción,
con una confianza del 99%, para que el valor estimado no difiera
del valor real en más de 0,03?

Ejercicio 4. Se desea
realizar una estimación confidencial de la varianza de la
estatura de los niños varones de 10 años de una
ciudad con una confianza del 95%. ¿Cuál será
dicho intervalo si se toma una muestra de 101 niños al
azar, entre todos los que reúnen las
características deseadas, y medimos sus estaturas, y se
obtienen las siguientes estimaciones puntuales:
, ?

Ejercicio
5.
Un cardiólogo se
encuentra interesado en encontrar límites de confianza al
90%, para la presión sistólica tras un cierto
ejercicio físico. Obtenerlos si en 50 individuos se obtuvo
, y suponemos
que el comportamiento
de la v.a. es normal.

Ejercicio 6. En una muestra
de 25 bebés varones de 12 semanas de vida, se obtuvo un
peso medio de 5.900 gr. y una desviación
típica de 94 gr.

1. Obtener un intervalo de
confianza (al 95%) para el peso medio poblacional.

2. ¿Cuántos
niños habría que tomar para estimar dicha media con
una precisión de 15 gr?

Ejercicio 7. En un
determinado servicio de
odontología se sabe que el 22% de las visitas llevan
consigo una extracción dentaria inmediata. En cierto
año, de 2.366 visitas, 498 dieron lugar a una
extracción inmediata. ¿Entran en
contradicción las cifras de ese año con el
porcentaje establecido de siempre?

Ejercicio 8. Sólo
una parte de los pacientes que sufren un determinado
síndrome neurológico consiguen una curación
completa; Si de 64 pacientes observados se han curado 41, dar una
estimación puntual y un intervalo de la proporción
de los que sanan. ¿Qué número de enfermos
habría que observar para estimar la proporción de
curados con un error inferior a 0,05 y una confianza del
95%?

Ejercicio 9. Se desea
estimar el tiempo medio de
sangría en fumadores de más de 20 cigarrillos
diarios, con edades comprendidas entre 35 y 40 años, con
una precisión de 5 segundos. Ante la ausencia de cualquier
información acerca de la variabilidad del tiempo de
sangría es este tipo de individuos, se tomó una
muestra preliminar de 5 individuos, en los que se obtuvieron los
siguientes tiempos (en segundos):

97, 80, 67, 91, 73.

Determinar el tamaño
mínimo de muestra, al 95%, para cumplir el objetivo
anterior.

Ejercicio 10. En una
determinada región se tomó una muestra aleatoria de
125 individuos, de los cuales 12 padecían afecciones
pulmonares.

1. Estímese la
proporción de afecciones pulmonares en dicha
región.

2. Si queremos estimar dicha
proporción con un error máximo del 4%, para una
confianza del 95%, ¿qué tamaño de muestra
debemos tomar?

Ejercicio 11. En una
muestra de tabletas de aspirinas, de las cuales observamos su
peso expresado en gramos, obtenemos:

1,19; 1,23; 1,18; 1,21; 1,27;
1,17; 1,15; 1,14; 1,19; 1,2

Suponiendo la Normalidad para esta
distribución de pesos, determinar un intervalo al 80% de
confianza para la varianza.

Ejercicio 12. Se quiere
estimar la incidencia de la hipertensión arterial en el
embarazo.
¿Cuantas embarazadas tenemos que observar para, con una
confianza del 95%, estimar dicha incidencia con un error del 2%
en los siguientes casos?

1. Sabiendo que un sondeo previo
se ha observado un 9% de hipertensas.

2. Sin ninguna información
previa.

UNIDAD: PRUEBA DE HIPÓTESIS

Prueba de
Hipótesis

Referente al contraste de
hipótesis, sabemos que un problema es investigable cuando
existen dos o más soluciones
alternativas y tenemos dudas acerca de cual de ellas es la mejor.
Esta situación permite formular una o más
hipótesis de trabajo, ya que cada una de ellas destaca la
conveniencia de una de las soluciones
sobre las demás. Si nuestro propósito es comprobar
una teoría ella misma será la hipótesis del
trabajo, pero es importante destacar que al formular dicha o
dichas hipótesis no significa que ya esté resuelto
el problema, al contrario, que nuestra duda nos impulsa a
comprobar la verdad o falsedad de cada una de ellas.

La decisión final
partirá de las decisiones previas de aceptar o rechazar
las hipótesis de trabajo.

Ejemplo

Supongamos que debemos realizar un
estudio sobre la altura media de los habitantes de cierto pueblo
de España. Antes de tomar una muestra, lo lógico es
hacer la siguiente suposición a priori, (hipótesis
que se desea contrastar y que denotamos H0):

Al obtener una muestra de
tamaño n=8, podríamos encontrarnos ante uno de los
siguientes casos:

1. Muestra = {1,50 ;1,52; 1,48;
1,55; 1,60; 1,49; 1,55; 1,63}

2. Muestra = {1,65; 1,80; 1,73;
1,52; 1,75; 1,65; 1,75; 1,78}

Intuitivamente, en el caso a
sería lógico suponer que salvo que la muestra
obtenida sobre los habitantes del pueblo sea muy poco
representativa, la hipótesis H0 debe ser rechazada. En el
caso b tal vez no podamos afirmar con rotundidad que la
hipótesis H0 sea cierta, sin embargo no podríamos
descartarla y la admitimos por una cuestión de
simplicidad.

Etapas Básicas en
Pruebas de
Hipótesis.

Al realizar pruebas de
hipótesis, se parte de un valor supuesto
(hipotético) en parámetro poblacional.
Después de recolectar una muestra aleatoria, se compara la
estadística muestral, así como la media (x), con el
parámetro hipotético, se compara con una supuesta
media poblacional (m ). Después
se acepta o se rechaza el valor hipotético, según
proceda. Se rechaza el valor hipotético sólo si el
resultado muestral resulta muy poco probable cuando la
hipótesis es cierta.

Etapa 1.- Planear la
hipótesis nula y la hipótesis alternativa. La
hipótesis nula (H0) es el valor
hipotético del parámetro que se compra con el
resultado muestral resulta muy poco probable cuando la
hipótesis es cierta.

Etapa 2.- Especificar el
nivel de significancia que se va a utilizar. El nivel de
significancia del 5%, entonces se rechaza la hipótesis
nula solamente si el resultado muestral es tan diferente del
valor hipotético que una diferencia de esa magnitud o
mayor, pudiera ocurrir aleatoriamente con una probabilidad de
1.05 o menos.

Etapa 3.- Elegir la
estadística de prueba. La estadística de prueba
puede ser la estadística muestral (el estimador no segado
del parámetro que se prueba) o una versión
transformada de esa estadística muestral. Por ejemplo,
para probar el valor hipotético de una media poblacional,
se toma la media de una muestra aleatoria de esa
distribución normal, entonces es común que se
transforme la media en un valor z el cual, a su vez, sirve como
estadística de prueba.

Consecuencias de las Decisiones
en Pruebas de Hipótesis.

 

Decisiones Posibles

Situaciones Posibles

La
hipótesis nula es verdadera

La
hipótesis nula es falsa

Aceptar
la Hipótesis Nula

Se acepta
correctamente

Error
tipo II

Rechazar
la Hipótesis Nula

Error
tipo I

Se
rechaza correctamente

Etapa 4.- Establecer el
valor o valores críticos de la estadística de
prueba. Habiendo especificado la hipótesis nula, el nivel
de significancia y la estadística de prueba que se van a
utilizar, se produce a establecer el o los valores
críticos de estadística de prueba. Puede haber uno
o más de esos valores, dependiendo de si se va a realizar
una prueba de uno o dos extremos.

Etapa 5.- Determinar el
valor real de la estadística de prueba. Por ejemplo, al
probar un valor hipotético de la media poblacional, se
toma una muestra aleatoria y se determina el valor de la media
muestral. Si el valor crítico que se establece es un valor
de z, entonces se transforma la media muestral en un valor de
z.

Etapa 6.- Tomar la
decisión. Se compara el valor observado de la
estadística muestral con el valor (o valores)
críticos de la estadística de prueba.
Después se acepta o se rechaza la hipótesis nula.
Si se rechaza ésta, se acepta la alternativa; a su vez,
esta decisión tendrá efecto sobre otras decisiones
de los administradores operativos, como por ejemplo, mantener o
no un estándar de desempeño o cuál de dos
estrategias de
mercadotecnia
utilizar.

Conceptos Básicos para el
Procedimiento
de Pruebas de Hipótesis.

Hipótesis
Estadística:

Al intentar alcanzar una
decisión, es útil hacer hipótesis (o
conjeturas) sobre la población aplicada.

Tales hipótesis, que pueden
ser o no ciertas, se llaman hipótesis
estadísticas.

Son, en general, enunciados acerca
de las distribuciones de probabilidad de las
poblaciones.

Hipótesis
Nula:

En muchos casos formulamos una
hipótesis estadística con el único
propósito de rechazarla o invalidarla. Así, si
queremos decidir si una moneda está trucada, formulamos la
hipótesis de que la moneda es buena (o sea p = 0,5, donde
p es la probabilidad de cara).

Analógicamente, si deseamos
decidir si un procedimiento es mejor que otro, formulamos la
hipótesis de que no hay diferencia entre ellos (o sea. Que
cualquier diferencia observada se debe simplemente a
fluctuaciones en el muestreo de la misma población). Tales
hipótesis se suelen llamar hipótesis nula y se
denotan por H0.

Hipótesis
Alternativa.

Toda hipótesis que difiere
de una dada se llamará una hipótesis alternativa.
Por ejemplo: Si una hipótesis es p = 0,5, hipótesis
alternativa podrían ser p = 0,7, p ¹ 0,5 ó p > 0,5.

Una hipótesis alternativa a
la hipótesis nula se denotará por
H1.

Errores de tipo I y de tipo
II.

Si rechazamos una hipótesis
cuando debiera ser aceptada, diremos que se ha cometido un error
de tipo I.

Por otra parte, si aceptamos una
hipótesis que debiera ser rechazada, diremos que se
cometió un error de tipo II.

En ambos casos, se ha producido un
juicio erróneo.

Para que las reglas de
decisión (o no contraste de hipótesis) sean buenas,
deben diseñarse de modo que minimicen los errores de la
decisión; y no es una cuestión sencilla, porque
para cualquier tamaño de la muestra, un intento de
disminuir un tipo de error suele ir acompañado de un
crecimiento del otro tipo. En la práctica, un tipo de
error puede ser más grave que el otro, y debe alcanzarse
un compromiso que disminuya el error más grave.

La única forma de disminuir
ambos a la vez es aumentar el tamaño de la muestra que no
siempre es posible.

Niveles de
Significación.

Al contrastar una cierta
hipótesis, la máxima probabilidad con la que
estamos dispuesto a correr el riesgo de
cometerán error de tipo I, se llama nivel de
significación.

Esta probabilidad, denota a menudo
por a se, suele especificar antes de
tomar la muestra, de manera que los resultados obtenidos no
influyan en nuestra elección.

En la práctica, es
frecuente un nivel de significación de 0,05 ó 0,01,
si bien se une otros valores. Si por ejemplo se escoge el nivel
de significación 0,05 (ó 5%) al diseñar una
regla de decisión, entonces hay unas cinco (05)
oportunidades entre 100 de rechazar la hipótesis cuando
debiera haberse aceptado; Es decir, tenemos un 95% de confianza
de que hemos adoptado la decisión correcta. En tal caso
decimos que la hipótesis ha sido rechazada al nivel de
significación 0,05, lo cual quiere decir que tal
hipótesis tiene una probabilidad 0,05 de ser
falsa.

Veamos como se combinan todos
los conceptos anteriores:

En un contraste de
hipótesis (también denominado test de
hipótesis o Contraste de significación) se decide
si cierta hipótesis H0 que denominamos
hipótesis nula puede ser rechazada o no a la vista de los
datos
suministrados por una muestra de la población. Para
realizar el contraste es necesario establecer previamente una
hipótesis alternativa (H1) que será
admitida cuando H0 sea rechazada. Normalmente
H1es la negación de H0, aunque esto
no es necesariamente así.

El procedimiento general consiste
en definir un estadístico T relacionado con la
hipótesis que deseamos contrastar. A éste lo
denominamos estadístico del contraste. A
continuación suponiendo que H0 es verdadera se
calcula un intervalo de denominado intervalo de aceptación
de la hipótesis nula, de manera que
al calcular sobre la muestra T=Texp el criterio a seguir
sea:

El intervalo de
aceptación o más precisamente, de no rechazo de la
hipótesis nula, se establece fijando una cantidad
suficientemente pequeña denominada nivel de
significación, de modo que la probabilidad de que el
estadístico del contraste tome un valor fuera del mismo —
región crítica

Cuando la hipótesis nula es
cierta sea inferior o al ; Esto se
ha de entender como sigue:

Si H0 es correcta el criterio de
rechazo sólo se equivoca con probabilidad , que es la
probabilidad de que una muestra dé un valor del
estadístico del contraste extraño (fuera del
intervalo de aceptación).

La decisión de rechazar o
no la hipótesis nula están al fin y al cabo basado
en la elección de una muestra tomada al azar, y por tanto
es posible cometer decisiones erróneas. Los errores que se
pueden cometer se clasifican como sigue:

Error de tipo I:

Es el error que consiste en
rechazar H0 cuando es cierta. La probabilidad de
cometer este error es lo que anteriormente hemos denominado nivel
de significación. Es una costumbre establecida el
denotarlo siempre con la letra

Error de tipo
II:

Es el error que consiste en no
rechazar H0 cuando es falsa. La probabilidad de
cometer este error la denotamos con la letra β.

Pruebas de Uno y Dos Extremos
(Unilaterales y Biblaterales).

Cuando estudiamos ambos valores
estadísticos es decir, ambos lados de la media lo llamamos
prueba de uno y dos extremos o contraste de una y dos
colas.

Con frecuencia no obstante,
estaremos interesados tan sólo en valores extremos a un
lado de la media (o sea, en uno de los extremos de la
distribución), tal como sucede cuando se contrasta la
hipótesis de que un proceso es
mejor que otro (lo cual no es lo mismo que contrastar si un
proceso es mejor o peor que el otro) tales contrastes se llaman
unilaterales, o de un extremo. En tales situaciones, la
región crítica es una región situada a un
lado de la distribución, con área igual al nivel de
significación.

La siguiente tabla de valores
críticos de "z" para contraste de unos o dos extremos en
varios niveles de significación.

Nivel de
significación a

0.10

0.05

0.01

0.005

0.02

Valores críticos de
"z" para Test
Unilaterales

-1.28 o
1.28

-1.645 o
1.645

-2.33 o
2.33

-2.58 o
2.58

-2.88 o
2.88

Valores Críticos de
"z" para Test Bilaterales

– 1.645 y
1.645

– 1.96 y
1.96

-2.58 y
2.58

-2.81 y
2.81

-3.08 y
3.08

Curva Característica
Operativa y Curva de Potencia.

Hemos visto como limitar el error
de tipo I eligiendo adecuadamente el nivel de
significación.

Es posible evitar el riesgo de cometer
error de tipo II simplemente no aceptado nunca hipótesis,
pero en muchas aplicaciones prácticas esto es
inviable.

En tales casos se suele recurrir a
curvas de operación características o curvas de
"OC", que son gráficos que muestran las probabilidades de
error de tipo II bajo diversas hipótesis.

Proporcionan indicadores de
hasta que punto un test dado nos permitirá evitar un error
de tipo II; es decir, nos indicará la potencia de un
test a la hora de prevenir decisiones erróneas. Son
útiles en el diseño de experimentos
porque sugieren entre otras cosas al tamaño de muestra a
manejar.

Grados de Libertad.

Para el cálculo de un
estadístico, es necesario emplear tanto observaciones de
muestra como propiedades de ciertos parámetros de la
población. Si estos parámetros son desconocidos,
hay que estimarlos a partir de la muestra el número de
grados de libertad de un
estadístico, generalmente denotado por "v" se define como
el número "N" de observaciones independientes en la
muestra (o sea, el tamaño de la muestra) menos el
número K de parámetros de la población, que
debe ser estimado a partir de observaciones
muéstrales.

En símbolos, v = N –
k.

Observaciones

1. Los errores de tipo I y II no
están relacionados más que del siguiente modo:
Cuando α decrece β
crece. Por tanto no es posible encontrar tests que hagan tan
pequeρos como queramos
ambos errores simultáneamente. De este modo es siempre
necesario privilegiar a una de las hipótesis, de manera
que no será rechazada, a menos que su falsedad se haga muy
evidente. En los contrastes, la hipótesis privilegiada es
H0 que sólo será rechazada cuando la
evidencia de su falsedad supere el umbral del .

2. Al tomar α muy pequeρo tendremos que β se
puede aproximar a uno. Lo ideal a la hora de definir un test es
encontrar un compromiso satisfactorio entre y α
(aunque siempre a favor de
H0). Denominamos potencia de un
contraste
a la cantidad
1-β, es decir

 

no rechazar
H0

rechazar
H0

H0 es
cierta

Correcto

Error tipo I

 

Probabilidad

Probabilidad

H0 es
falsa

Error tipo II

Correcto

 

Probabilidad

Probabilidad

3. En el momento de elegir una
hipótesis privilegiada podemos en principio dudar entre si
elegir una dada o bien su contraria. Criterios a tener en cuenta
en estos casos son los siguientes:

  • Simplicidad científica: A la hora de elegir
    entre dos hipótesis científicamente razonables,
    tomaremos como H0 aquella que sea más
    simple.
  • Las consecuencias de equivocarnos: Por ejemplo al
    juzgar el efecto que puede causar cierto tratamiento
    médico que está en fase de
    experimentación, en principio se ha de tomar como
    hipótesis nula aquella cuyas consecuencias por no
    rechazarla siendo falsa son menos graves, y como
    hipótesis alternativa aquella en la que el aceptarla
    siendo falsa trae peores consecuencias. Es decir,

  • Otro ejemplo claro es cuando acaban de instalar un
    nuevo ascensor en el edificio que habitamos y queremos saber
    si el ascensor caerá o no al vacío cuando
    nosotros estemos dentro. Una persona
    prudente es la que espera a que un número suficiente
    de vecinos suyos hayan usado el ascensor (muestra aleatoria)
    y realiza un test del tipo

Y sólo aceptará la hipótesis
alternativa para aunque para
ello tenga que ocurrir que , ya que
las consecuencias del error de tipo I (ir al hospital) son mucho
más graves que las del error del tipo II (subir a pie
varios pisos).

Es decir a la hora de decidirse por una de las dos
hipótesis no basta con elegir la más probable
(nadie diría “voy a tomar el ascensor pues la
probabilidad de que no se caiga es del 60%"). Hay que elegir
siempre la hipótesis H0 a menos que la evidencia a favor
de H1 sea muy significativa.

Volviendo al ejemplo de la estatura de los habitantes de
un pueblo, un estadístico de contraste adecuado es
. Si la hipótesis H0 fuese cierta se
tendría que

(Suponiendo claro está que la
distribución de las alturas de los españoles siga
una distribución normal de parámetros conocidos,
por ejemplo

Denotemos mediante µ0
el verdadero valor de la media en el pueblo que estudiamos. Como
la varianza de es
pequeña para grandes valores de n, lo lógico es
pensar que si el valor obtenido con la muestra está muy alejado de µ=1’74 (región
crítica), entonces

  • bien la muestra es muy extraña si
    H0 es cierta (probabilidad );
  • bien la hipótesis H0 no es cierta.

Concretamente en el caso a, donde la
muestra es

El contraste de hipótesis
conveniente es:

En este caso H1 no es
estrictamente la negación de H0. Esto
dará lugar a un contraste unilateral, que son
aquellos en los que la región crítica está
formada por un sólo intervalo:

En el caso b, donde la muestra
es:

El contraste de hipótesis que
deberíamos realizar es:

Como vemos, ahora sí se puede
decir que H1 es la negación de H0.
Esto es un contraste bilateral, que son aquellos en los
que la región crítica está formada por dos
intervalos separados:

Los últimos conceptos que introducimos
son:

  • Hipótesis simple: Aquella en la que se
    especifica un único valor del parámetro. Este es
    el caso de las hipótesis nulas en los dos últimos
    contrastes mencionados.
  • Hipótesis compuesta: Aquella en la que
    se especifica más de un posible valor del
    parámetro. Por ejemplo tenemos que son compuestas las
    hipótesis alternativas de esos mismos
    contrastes.

Contrastes paramétricos en una
población normal

Supongamos que la característica X que estudiamos
sobre la población sigue una distribución normal y
tomamos una muestra de tamaño n

Mediante muestreo aleatorio simple.
Vamos a ver cuales son las técnicas para contrastar
hipótesis sobre los parámetros que rigen X. Vamos a
comenzar haciendo diferentes tipos de contrastes para medias y
después sobre las varianzas y desviaciones
típicas.

Contrastes para la
media

Test de dos colas con varianza
conocida

Suponemos que donde
es conocido y queremos contrastar si es posible que
µ (desconocida) sea en realidad cierto valor
µ0 fijado. Esto es un supuesto teórico
que nunca se dará en la realidad pero servirá para
introducir la teoría sobre contrastes.

El test se escribe entonces
como:

Como hemos mencionado anteriormente, la
técnica para hacer el contraste consiste en suponer que
H0 es cierta, y averiguar con esta hipótesis
quien es la distribución del estadístico del
contraste que este caso es lógico que deba estar muy
relacionado con . Si al obtener
una muestra concreta se tiene que es un valor
muy alejado de µ0, se debe rechazar
H0. Veamos esto con más detalle:

Para poder acceder
a las probabilidades de la normal, hemos tipificado (ya que los
valores para hacer la tipificación son conocidos). Si
H0 es cierta, entonces esperamos que el valor
zexp obtenido sobre la muestra

Esté cercano a cero con una gran
probabilidad. Esto se expresa fijando un nivel de
significación , y tomando
como región crítica , a los
valores que son muy extremados y con probabilidad en
total, o sea,

Entonces la región crítica
consiste en

Luego rechazaremos la hipótesis
nula si

Aceptando en consecuencia la
hipótesis alternativa.

Figura: La región de rechazo de la hipótesis
nula es la sombreada. Se rechaza H0 cuando
el estadístico zexp toma un valor
comprendido en la zona sombreada de la gráfica
pequeña, N(0,1), o equivalentemente, cuando el
estadístico toma
un valor en la zona sombreada de la gráfica
grande, .

Tests de una cola con varianza
conocido

Consideremos un contraste de hipótesis donde
ahora la hipótesis alternativa es compuesta:

 
Bajo la hipótesis nula la distribución de la media
muestral es

Y como región crítica
consideraremos aquella formada por los valores extremadamente
bajos de Zexp, con probabilidad , es
decir:

Entonces la región de
aceptación, o de modo más correcto, de no rechazo
de la hipótesis nula es:

Figura: Se rechaza la hipótesis nula, cuando uno de
los estadístico Z o toma
un valor en la zona sombreada de sus gráficas
respectivas.

Es evidente que si en el contraste de
significación, hubiésemos tomado como
hipótesis alternativa su contraria, es decir

Por simetría con respecto al caso
anterior, la región donde no se rechaza la
hipótesis nula es:

Figura: Regiones de aceptación y rechazo para el
test unilateral contrario.

Test de dos colas con varianza
desconocida

Sea donde ni µ ni
σ2son conocidos y queremos realizar el
contraste:

Al no conocer va a ser
necesario estimarlo a partir de su estimador insesgado: la
cuasivarianza muestral, , ya definida
en la relación, página. Por ello la
distribución del estimador del contraste será una
de Student, que ha perdido un grado de libertad,
según el teorema de Cochran, enunciado en la página
y la definición de la distribución de Student en la
página:

 

Consideramos como región
crítica , a las
observaciones de Texp extremas

O sea

Observación

Para dar una forma homogénea a todos los
contrastes de hipótesis es costumbre denominar al valor
del estadístico del contraste calculado sobre la muestra
como valor experimental y a los extremos de la región
crítica, como valores teóricos. Definiendo
entonces:

El resultado del contraste es el
siguiente:

Figura: Región crítica para el contraste
bilateral de una media.

Tests de una cola con varianza
desconocido

Si realizamos el contraste

Por analogía con el contraste bilateral,
definiremos

Y el criterio para contrastar al nivel
de significación es:

Figura: Región crítica para uno de los
contrastes unilaterales de una media.

Para el contraste contrario,

 

Definimos Texp y
Tteo como anteriormente y el criterio a aplicar
es:

Figura: Región crítica para el contrastes
unilateral de una media contrario al
anterior.

Ejemplo

Conocemos que las alturas X de los individuos de una
ciudad, se distribuyen de modo gaussiano. Deseamos contrastar con
un nivel de significación de si la altura
media es diferente de 174 cm. Para ello nos basamos en un estudio
en el que con una muestra de n=25 personas se obtuvo:

Solución:

El contraste que se plantea
es:

La técnica a utilizar consiste en
suponer que H0 es cierta y ver si el valor que toma el
estadístico

Es “razonable" o no bajo esta
hipótesis, para el nivel de significación dado.
Aceptaremos la hipótesis alternativa (y en consecuencia se
rechazará la hipótesis nula) si no lo es, es decir,
si

Para ello procedemos al cálculo
de Texp:

Luego, aunque podamos pensar que
ciertamente el verdadero valor de µ no es 174, no hay una
evidencia suficiente para rechazar esta hipótesis al nivel
de confianza del 95% . Es decir, no se rechaza
H0.

Figura: El valor de Texp no está en la
región crítica (aunque ha quedado muy
cerca), por tanto al no ser la evidencia en contra de
H0 suficientemente significativa,
ésta hipótesis no se rechaza.

Ejemplo

Consideramos el mismo ejemplo de antes. Visto que no
hemos podido rechazar el que la altura media de la
población sea igual a 174 cm, deseamos realizar el
contraste sobre si la altura media es menor de 174 cm.

Solución:

Ahora el contraste es

Para realizar este contraste,
consideramos el caso límite y observamos si la
hipótesis nula debe ser rechazada o no. Este
es:

De nuevo la técnica a utilizar
consiste en suponer que H0' es cierta y ver si el
valor que toma el estadístico:

Es aceptable bajo esta hipótesis,
con un nivel de confianza del 95%. Se aceptará la
hipótesis alternativa (y en consecuencia se
rechazará la hipótesis nula) si

Recordamos que el valor de
Texp obtenido fue de

Texp=-1'959< t24,0'05=
-t24,0'95 = -1'71

 

Por ello hemos de aceptar la
hipótesis alternativa.

Figura: El valor te Texp está en la
región crítica, por tanto existe una
evidencia significativa en contra de H0, y a
favor de H1.

Es importante observar este hecho
curioso: Mientras que en el ejemplo anterior no existía
una evidencia significativa para decir que µ≠174cm, el
“simple hecho" de plantearnos un contraste que parece el mismo
pero en versión unilateral nos conduce a rechazar de modo
significativo que µ=174 y aceptamos que µ<174cm.
Es por ello que podemos decir que no sólo H0'
es rechazada, sino también H0. Es en este
sentido en el que los tests con H0 y H0'
los consideramos equivalentes:

Partes: 1, 2, 3
 Página anterior Volver al principio del trabajoPágina siguiente 

Nota al lector: es posible que esta página no contenga todos los componentes del trabajo original (pies de página, avanzadas formulas matemáticas, esquemas o tablas complejas, etc.). Recuerde que para ver el trabajo en su versión original completa, puede descargarlo desde el menú superior.

Todos los documentos disponibles en este sitio expresan los puntos de vista de sus respectivos autores y no de Monografias.com. El objetivo de Monografias.com es poner el conocimiento a disposición de toda su comunidad. Queda bajo la responsabilidad de cada lector el eventual uso que se le de a esta información. Asimismo, es obligatoria la cita del autor del contenido y de Monografias.com como fuentes de información.

Categorias
Newsletter