Monografias.com > Estadística > Matemáticas
Descargar Imprimir Comentar Ver trabajos relacionados

Estadística I. Cuadernillo de apoyo




Enviado por rene_garcia000



Partes: 1, 2, 3

    Estadística
    I

    Cuadernillo de
    apoyo

    1. Descripción
    2. Distribuciones
    3. Estimación de
      parámetros
    4. Prueba de hipótesis
    5. Prueba de bondad de ajuste
    6. Bibliografía

    DESCRIPCIÓN

    El presente trabajo de
    investigación, fue elaborado por el grupo de
    ingeniería industrial (2002-2007), el cual pretende
    auxiliar a las futuras generaciones de estudiantes universitarios
    de la materia de
    estadística, aquí se encuentran los temas de
    Distribuciones, Estimación de Parámetros, Prueba de
    Hipótesis y Pruebas de
    Bondad de Ajuste; creemos que está muy completo,
    también se pueden auxiliar docentes como cuadernillo de
    apoyo, contiene definiciones, formulas, tablas, ejemplos y
    ejercicios fáciles de seguir; sin duda una herramienta muy
    útil.

    UNIDAD: DISTRIBUCIONES

    Distribución normal
    (ó campana de Gauss-Laplace)

    Una de las distribuciones
    teóricas mejor estudiadas en los textos de
    bioestadística y más utilizada en la
    práctica es la distribución normal,
    también llamada distribución
    gaussiana
    .  Su importancia se debe fundamentalmente a la
    frecuencia con la que distintas variables
    asociadas a fenómenos naturales y cotidianos siguen,
    aproximadamente, esta distribución.  Caracteres
    morfológicos (como la talla o el peso), o
    psicológicos (como el cociente intelectual) son ejemplos
    de variables de
    las que frecuentemente se asume que siguen una
    distribución normal.  No obstante, y aunque algunos
    autores han señalado que el comportamiento
    de muchos parámetros en el campo de la salud puede ser descrito
    mediante una distribución normal, puede resultar incluso
    poco frecuente encontrar variables que se ajusten a este tipo de
    comportamiento.

    El uso extendido de la
    distribución normal en las aplicaciones
    estadísticas puede explicarse, además, por otras
    razones.  Muchos de los procedimientos
    estadísticos habitualmente utilizados asumen la normalidad
    de los datos
    observados.  Aunque muchas de estas técnicas no son
    demasiado sensibles a desviaciones de la normal y, en general,
    esta hipótesis puede obviarse cuando se dispone de un
    número suficiente de datos, resulta
    recomendable contrastar siempre si se puede asumir o no una
    distribución normal.  La simple exploración
    visual de los datos puede sugerir la forma de su
    distribución.  No obstante, existen otras medidas,
    gráficos de normalidad y contrastes de hipótesis
    que pueden ayudarnos a decidir, de un modo más riguroso,
    si la muestra de la que
    se dispone procede o no de una distribución normal. 
    Cuando los datos no sean normales, podremos o bien transformarlos
    o emplear otros métodos estadísticos que no exijan
    este tipo de restricciones (los llamados métodos no
    paramétricos).

    A continuación se
    describirá la distribución normal, su
    ecuación matemática y sus propiedades más
    relevantes, proporcionando algún ejemplo sobre sus
    aplicaciones a la inferencia estadística.  En la
    sección 1.1.3 se describirán los métodos
    habituales para contrastar la hipótesis de
    normalidad. 

    Propiedades de la
    distribución normal:

    La distribución normal
    posee ciertas propiedades importantes que conviene
    destacar:

    1. Tiene una única moda, que
      coincide con su media y su mediana.
    2. La curva normal es
      asintótica al eje de abscisas.  Por ello, cualquier
      valor entre
      -¥ y +¥ es teóricamente posible.  El
      área total bajo la curva es, por tanto, igual a
      1.
    3. Es
      si
      métrica con respecto a su media µ. 
      Según esto, para este tipo de variables existe una
      probabilidad de
      un 50% de observar un dato mayor que la media, y un 50% de
      observar un dato menor.
    4. La distancia entre la
      línea trazada en la media y el punto de inflexión
      de la curva es igual a una desviación típica
      (σ).  Cuanto
      mayor sea σ, mαs
      aplanada será la curva de la densidad.
    5. El área bajo la curva
      comprendida entre los valores
      situados aproximadamente a dos desviaciones estándar de
      la media es igual a 0.95.  En concreto,
      existe un 95% de posibilidades de observar un valor
      comprendido en el intervalo
      (µ-1.96σ,
      µ+1.96σ).
    6. La forma de la campana de Gauss
      depende de los parámetros µ y σ (Figura
      2).  La media indica la posición de la campana, de
      modo que para diferentes valores de
      µ la gráfica es desplazada a lo largo del eje
      horizontal.  Por otra parte, la desviación
      estándar determina el
      grado de apuntamiento de la curva.  Cuanto mayor sea el
      valor de σ, mαs
      se dispersarán los datos en torno a la
      media y la curva será más plana.  Un valor
      pequeño de este parámetro indica, por tanto, una
      gran probabilidad de
      obtener datos cercanos al valor medio de la
      distribución.

    Figura 2.  Ejemplos
    de distribuciones normales con diferentes
    parámetros.

    Como se deduce de
    este último apartado, no existe una única
    distribución normal, sino una familia de
    distribuciones con una forma común, diferenciadas por
    los valores de
    su media y su varianza.  De entre todas ellas, la más
    utilizada es la distribución normal
    estándar
    , que corresponde a una distribución de
    media 0 y varianza 1.  Así, la expresión que
    define su densidad se puede
    obtener de la Ecuación 1, resultando:

    Es importante
    conocer que, a partir de cualquier variable X que siga una
    distribución N (µ,σ), se puede obtener otra
    característica Z con una distribución normal
    estándar, sin más que efectuar la
    transformación:

    Ecuación
    2
    :       

    Esta propiedad
    resulta especialmente interesante en la práctica, ya que
    para una distribución N (0,1) existen tablas publicadas a
    partir de las que se puede obtener de modo sencillo la
    probabilidad de observar un dato menor o igual a un cierto valor
    z, y que permitirán resolver preguntas de probabilidad
    acerca del comportamiento de variables de las que se sabe o se
    asume que siguen una distribución aproximadamente
    normal.

    Consideremos, por ejemplo, el
    siguiente problema: supongamos que se sabe que el peso de los
    sujetos de una determinada población sigue una
    distribución aproximadamente normal, con una media de 80
    Kg y una desviación estándar de 10 Kg. 
    ¿Podremos saber cuál es la probabilidad de que una
    persona,
    elegida al azar, tenga un peso superior a 100 Kg?

    Denotando por X a la variable que
    representa el peso de los individuos en esa población,
    ésta sigue una distribución .  Si su
    distribución fuese la de una normal estándar
    podríamos utilizar la tabla para calcular la probabilidad
    que nos interesa.  Como éste no es el caso,
    resultará entonces útil transformar esta
    característica según la Ecuación 2, y
    obtener la variable:

    Para poder utilizar
    dicha tabla.  Así, la probabilidad que se desea
    calcular será:

    Como el
    área total bajo la curva es igual a 1, se puede deducir
    que:

    Esta última
    probabilidad puede ser fácilmente obtenida a partir de la
    Tabla, resultando ser .  Por
    lo tanto, la probabilidad buscada de que una persona elegida
    aleatoriamente de esa población tenga un peso mayor de 100
    Kg., es de 1–0.9772=0.0228, es decir, aproximadamente de un
    2.3%.

    De modo
    análogo, podemos obtener la probabilidad de que el peso de
    un sujeto esté entre 60 y 100 Kg.:

    De la Figura 2,
    tomando a =-2 y b =2, podemos deducir que:

    Por el ejemplo
    previo, se sabe que .  Para
    la segunda probabilidad, sin embargo, encontramos el problema de
    que las tablas estándar no proporcionan el valor de
    para valores
    negativos de la variable.  Sin embargo, haciendo uso de la
    simetría de la distribución normal, se tiene
    que:

    Finalmente, la probabilidad
    buscada de que una persona elegida al azar tenga un peso entre 60
    y 100 Kg., es de 0.9772-0.0228=0.9544, es decir, aproximadamente
    de un 95%.  Resulta interesante comprobar que se
    obtendría la misma conclusión recurriendo a la
    propiedad
    () de la
    distribución normal.

    No obstante, es
    fácil observar que este tipo de situaciones no corresponde
    a lo que habitualmente nos encontramos en la
    práctica.  Generalmente no se dispone de
    información acerca de la distribución
    teórica de la población, sino que más bien
    el problema se plantea a la inversa: a partir de una muestra
    extraída al azar de la población que se desea
    estudiar, se realizan una serie de mediciones y se desea
    extrapolar los resultados obtenidos a la población de
    origen.  En un ejemplo similar al anterior, supongamos que
    se dispone del peso de n =100 individuos de esa misma
    población, obteniéndose una media muestral de
    Kg., y una desviación estándar muestral
    S=12 Kg., querríamos extraer alguna conclusión
    acerca del valor medio real de ese peso en la población
    original.  La solución a este tipo de cuestiones se
    basa en un resultado elemental de la teoría
    estadística, el llamado teorema central del
    límite.  Dicho axioma viene a decirnos que las medias
    de muestras aleatorias de cualquier variable siguen ellas mismas
    una distribución normal con igual media que la de la
    población y desviación estándar la de la
    población dividida por
    En nuestro caso, podremos entonces
    considerar la media muestral , con lo
    cual, a partir de la propiedad (iii) se conoce que
    aproximadamente un 95% de los posibles valores de caerían dentro del intervalo
    Puesto que los valores de µ y σ son desconocidos, podrνamos pensar en aproximarlos por sus
    análogos muestrales, resultando .

    Estaremos, por lo tanto, un 95%
    seguros de que
    el peso medio real en la población de origen oscila entre
    75.6 Kg. y 80.3 Kg.  Aunque la teoría
    estadística subyacente es mucho más compleja, en
    líneas generales éste es el modo de construir un
    intervalo de confianza para la media de una
    población. 

    • Teorema de la
      combinación lineal de variaciones normales y
      chi-cuadrada

    Terorema de Chebshev, este teorema
    da una estimación conservadora de la probabilidad de que
    una variable aleatoria tome un valor dentro de k dentro de k
    desviaciones estándar de su media para cualquier
    número real k. Proporcionaremos solo la
    demostración para caso continuo.

    La probabilidad de que
    cualquier variable aleatoria X tome un valor dentro de k
    desviaciones estándar de la media es al menos
    1-. Es decir

    .

    • Distribuciones
      muestrales

    En esta
    sección estudiaremos las distribuciones más
    importantes de variables aleatorias continuas unidimensionales.
    El soporte de una variable aleatoria continua se define
    como aquella región de donde su
    densidad es no nula, . Para las
    distribuciones que enunciaremos, podrá ser bien todo
    , o bien un segmento de la forma.

    • Distribuciones
      normales

    La distribución gaussiana,
    recibe también el nombre de distribución normal, ya
    que una gran mayoría de las variables aleatorias continuas
    de la naturaleza siguen
    esta distribución. Se dice que una variable aleatoria X
    sigue una distribución normal de parámetros µ
    y σ2, lo que representamos del modo:

    Si su
    función de densidad es:

    • Observación

    Estos dos parámetros
    µ y σ2coinciden además con la media
    (esperanza) y la varianza respectivamente de la
    distribución como se demostrará más
    adelante:

    La forma de la
    función de densidad es la llamada campana de Gauss.
      

    Figura: Campana de Gauss o
    función de densidad de una variable aleatoria de
    distribución normal. El área contenida
    entre la gráfica y el eje de abcisas vale
    1.

    Para el lector es
    un ejercicio interesante comprobar que ésta alcanza un
    único máximo (moda) en
    µ, que es simétrica con respecto al mismo, y por
    tanto:

    Con lo cual en
    µ coinciden la media, la mediana y la moda, y por
    último, calcular sus puntos de
    inflexión.

    El soporte de la
    distribución es todo , de modo que
    la mayor parte de la masa de probabilidad (área
    comprendida entre la curva y el eje de abcisas) se encuentra
    concentrado alrededor de la media, y las ramas de la curva se
    extienden asintóticamente a los ejes, de modo que
    cualquier valor “muy alejado" de la media es posible (aunque
    poco probable).

    La forma de la
    campana de Gauss depende de los parámetros µ
    y σ:

    Figura: Distribuciones gaussianas con diferentes medias e
    igual dispersión.

    • σ2 (o
      equivalentemente, σ)
      serα el
      parámetro de dispersión. Cuanto menor sea,
      mayor cantidad de masa de probabilidad habrá
      concentrada alrededor de la media (grafo de f muy apuntado
      cerca de µ) y cuanto mayor sea “más aplastado"
      será.   

    Figura: Distribuciones gaussianas con igual media pero
    varianza diferente.

    La función
    característica de la distribución normal, se
    comprueba más adelante que es:

    Como consecuencia,
    la distribución normal es reproductiva con respecto a los
    parámetros µ, y σ2, ya que:

    • Observación

    Como se ha
    mencionado anteriormente, la ley de
    probabilidad gaussiana la encontramos en la mayoría de los
    fenómenos que observamos en la naturaleza, por
    ello gran parte de lo que resta del curso lo vamos a dedicar a su
    estudio y a el de las distribuciones asociadas a ella. Sin
    embargo, a pesar de su utilidad, hay que
    apuntar un hecho negativo para esta ley de
    probabilidad:

    La función
    no posee primitiva conocida.

    Las consecuencias
    desde el punto de vista práctico son importantes, ya que
    eso impide el que podamos escribir de modo sencillo la
    función de distribución de la normal, y nos tenemos
    que limitar a decir que:

    Sin poder hacer
    uso de ninguna expresión que la simplifique.
    Afortunadamente esto no impide que para un valor de x fijo, F(x)
    pueda ser calculado. De hecho puede ser calculado con tanta
    precisión (decimales) como se quiera, pero para esto se
    necesita usar técnicas de cálculo numérico y
    ordenadores. Para la utilización en problemas
    prácticos de la función de distribución F,
    existen ciertas tablas donde se ofrecen (con varios decimales de
    precisión) los valores F(x) para una serie limitada de
    valores xi dados. Normalmente F se encuentra tabulada
    para una distribución Z, normal de media 0 y varianza 1
    que se denomina distribución normal tipificada:


    En el caso de que tengamos una distribución
    diferente, se
    obtiene Z haciendo el siguiente cambio:

    De manera general se
    tiene:

    • Proposición
      (Cambio de
      origen y escala)

    Sean .
    Entonces:

    Este resultado puede ser utilizado
    del siguiente modo: Si , y nos interesa calcular ,

    1. Hacemos el cambio y
    calculamos ;

    2. Usamos la tabla, relativa a la
    distribución para obtener
    (de modo aproximado) ;

    3. Como tenemos que
    el valor obtenido en la tabla, FZ(z) es la probabilidad
    buscada.

    1. Ejemplo

    Supongamos que cierto
    fenómeno pueda ser representado mediante una variable
    aleatoria , y queremos
    calcular la probabilidad de que X tome un valor entre 39 y 48, es
    decir,

    Comenzamos haciendo el cambio de variable

    De modo que:

    Vamos ahora a demostrar algunas de
    las propiedades de la ley gaussiana que hemos mencionado
    anteriormente.

    • Proposición

    Sea .
    Entonces

    Demostración

    Por ser la normal una ley de
    probabilidad se tiene que

    Es decir, esa integral es constante. Con lo cual, derivando la
    expresión anterior con respecto a µ se obtiene el
    valor 0:


    Luego .

    Para demostrar la igualdad entre
    la var[X] y σ2, basta con aplicar
    la misma técnica, pero esta vez derivando con respecto a
    σ2:

    Luego

    Para demostrar el resultado
    relativo a la función característica, consideramos
    en primer lugar la variable aleatoria tipificada de X,

    Y calculamos

    Como , deducimos
    que

    1. Distribución
      Chi-Cuadrada (X2)

    Si consideramos
    una v.a. , la v.a.
    X=Z2 se distribuye según una ley de probabilidad
    distribución x2 con un grado de libertad, lo
    que se representa como:

    Si tenemos n v.a.
    independientes , la suma de
    sus cuadrados respectivos es una distribución que
    denominaremos ley de distribución x2con
    n grados de libertad,
    x2n.


    La media y varianza de esta variable son
    respectivamente:

    Y su
    función de densidad es:

    Los percentiles de esta
    distribución que aparecen con más frecuencia en la
    práctica los podemos encontrar en la tabla.

    Figura: Función de densidad
    de x2n para valores
    pequeños de n.

    Figura: Función de densidad
    de x2n para valores
    grandes de n.

    En consecuencia,
    si tenemos x1,…,xn, v.a.
    independientes, donde cada , se
    tiene

    • Observación

    La ley de distribución
    x2muestra su importancia cuando queremos
    determinar la variabilidad (sin signo) de cantidades que se
    distribuyen en torno a un valor
    central siguiendo un mecanismo normal. Como ilustración
    tenemos el siguiente ejemplo:

    • Ejemplo

    Un instrumento para medir el nivel
    de glucemia en sangre, ofrece
    resultados bastantes aproximados con la realidad, aunque existe
    cierta cantidad de error que se
    distribuye de modo normal con media 0 y desviación
    típica .

    Se realizan
    mediciones de los niveles de glucemia dados por el instrumento en
    un grupo de n=100
    pacientes. Nos interesa medir la cantidad de error que se acumula
    en las mediciones de todos los pacientes. Podemos plantear varias
    estrategias para
    medir los errores acumulados. Entre ellas destacamos las
    siguientes:

    1. Definimos el
    error acumulado en las mediciones de todos los pacientes
    como

    ¿Cuál es el valor esperado para
    E1?

    2. Definimos el
    error acumulado como la suma de los cuadrados de todos los
    errores (cantidades positivas):

    ¿Cuál es el valor esperado para
    E2?

    A la vista de los
    resultados, cuál de las dos cantidades, E1 y
    E2, le parece más conveniente utilizar en una
    estimación del error cometido por un
    instrumento.

    Solución: Suponiendo que todas las mediciones son
    independientes, se tiene que:

    De este modo, el
    valor esperado para E1 es 0, es decir, que los errores
    ei van a tender a compensarse entre unos pacientes y
    otros. Obsérvese que si µ no fuese conocido a
    priori, podríamos utilizar E1, para obtener una
    aproximación de µ

    Sin embargo, el
    resultado E1 no nos indica en qué medida hay
    mayor o menor dispersión en los errores con respecto al 0.
    En cuanto a E2 podemos afirmar lo
    siguiente:

    En este caso los
    errores no se compensan entre sí, y si no fuese
    conocido, podría ser “estimado" de modo aproximado
    mediante

    Sin embargo, no
    obtenemos ninguna información con respecto a
    µ.

    En
    conclusión, E1 podría ser utilizado para calcular
    de modo aproximado µ, y E2 para calcular de modo aproximado
    . Las dos cantidades tienen interés, y ninguna
    lo tiene más que la otra, pues ambas formas de medir el
    error nos aportan información.

    El siguiente
    resultado será de importancia más adelante. Nos
    afirma que la media de distribuciones normales independientes es
    normal pero con menor varianza y relaciona los grados de
    libertad de
    una v.a. con distribución x, con los de un
    estadístico como la varianza:

    • Teorema
      (Cochran)

    Sean v.a. independientes. Entonces

    • Distribución
      de Student

    La
    distribución -Student se
    construye como un cociente entre una normal y la raíz de
    una x2independientes. De modo preciso, llamamos
    distribución t-Student con n grados de libertad,
    tn a la de una v.a. T,

     

    Donde ,
    . Este tipo de distribuciones aparece cuando tenemos
    n+1 v.a. independientes

    y nos interesa la
    distribución de

    La función
    de densidad de es

      

    Figura: Función de densidad de una de
    Student

    La
    distribución t de Student tiene propiedades parecidas a
    N(0,1):

    Es de media cero,
    y simétrica con respecto a la misma;

    Es algo más
    dispersa que la normal, pero la varianza decrece hasta 1 cuando
    el número de grados de libertad aumenta;

      

    Figura: Comparación entre las funciones de densidad de t1 y
    N(0,1).

    Para un
    número alto de grados de libertad se puede aproximar la
    distribución de Student por la normal, es
    decir,

      

    Figura: Cuando aumentan los grados de libertad, la
    distribución de Student se aproxima a la
    distribución normal tipificada.

    Para
    calcular

    En lugar de
    considerar una primitiva de esa función y determinar la
    integral definida, buscaremos el resultado aproximado en una
    tabla de la distribución tn. Véase la
    tabla, al final del libro.

    • La distribución
      de Snedecor

    Otra de las
    distribuciones importantes asociadas a la normal es la que se
    define como cociente de distribuciones
    x2independientes. Sean e
    v.a. independientes. Decimos entonces que la
    variable


    Sigue una distribución de probabilidad de Snedecor, con
    (n,m) grados de libertad. Obsérvese que .

    La forma
    más habitual en que nos encontraremos esta
    distribución será en el caso en que tengamos n+m
    v.a. independientes

    Y
    así

    De esta ley de
    probabilidad lo que más nos interesa es su función
    de distribución:

    y para ello, como
    en todas las distribuciones asociadas a la normal, disponemos de
    una tabla donde encontrar aproximaciones a esas
    cantidades 

    Figura: Función de densidad de .

    Es claro que la
    distribución de Snedecor no es simétrica, pues
    sólo tienen densidad de probabilidad distinta de cero, los
    punto de . Otra
    propiedad interesante de la distribución de Snedecor
    es:

    1. Aproximación a la
      normal de la ley binomial

    Se puede demostrar
    (teorema central del límite) que una
    variable aleatoria discreta con distribución binomial,
    se puede aproximar mediante una distribución
    normal si n es suficientemente grande y p no está ni muy
    próximo a 0 ni a 1. Como el valor esperado y la varianza
    de X son respectivamente np y npq, la aproximación
    consiste en decir que . El
    convenio que se suele utilizar para poder realizar esta
    aproximación es:

    Aunque en realidad
    esta no da resultados muy precisos a menos que realmente n sea un
    valor muy grande o . Como
    ilustración obsérvense las figuras
    siguientes.

    Figura: Comparación entre la función de
    densidad de una variable aleatoria continua con
    distribución N(np,npq) y el diagrama de barras de una variable
    aleatoria discreta de distribución B(n,p) para
    casos en que la aproximación normal de la
    binomial es válida. Es peor esta
    aproximación cuando p está próximo
    a los bordes del intervalo [0,1].

      Figura: La misma
    comparación que en la figura anterior, pero
    realizada con parámetros con los que damos la
    aproximación normal de la binomial es
    mejor.

    • Ejemplo

    Durante cierta
    epidemia de gripe, enferma el 30% de la población. En un
    aula con 200 estudiantes de Medicina,
    ¿cuál es la probabilidad de que al menos 40
    padezcan la enfermedad? Calcular la probabilidad de que haya 60
    estudiantes con gripe.

    Solución:
    La variable aleatoria que contabiliza el número de alumnos
    que padece la gripe es

    Cuya media es
    µ =n*p=60 y su varianza
    es σ2=npq=42. Realizar
    los cálculos con la ley binomial es muy engorroso, ya que
    intervienen números combinatorios de gran tamaño, y
    potencias muy elevadas. Por ello utilizamos la
    aproximación normal de X, teniendo en cuenta que se
    verifican las condiciones necesarias para que el error sea
    aceptable:

    Así
    aproximando la variable aleatoria discreta binomial X, mediante
    la variable aleatoria continua normal XN tenemos:

    También es necesario calcular P[X]=60. Esta probabilidad
    se calcula exactamente como:

    Dada la dificultad
    numérica para calcular esa cantidad, y como la
    distribución binomial no está habitualmente
    tabulada hasta valores tan altos, vamos a utilizar su
    aproximación normal, XN. Pero hay que prestar
    atención al hecho de que XN es una variable aleatoria
    continua, y por tanto la probabilidad de cualquier punto es cero.
    En particular,

    Lo que ha de ser
    interpretado como un error de aproximación. Hay
    métodos más aproximados para calcular la
    probabilidad buscada. Por ejemplo, podemos aproximar P[X]=60 por
    el valor de la función de densidad de XN en ese punto (es
    en el único sentido en que se puede entender la
    función de densidad de la normal como una
    aproximación de una probabilidad). Así:

    Por último,
    otra posibilidad es considerar un intervalo de longitud 1centrado
    en el valor 60 del que deseamos hallar su probabilidad y
    hacer:

    • Ejemplo

    Según un
    estudio, la altura de los varones de cierta ciudad es una v.a. X,
    que podemos considerar que se distribuye según una ley
    gaussiana de valor esperado µ =175 cm. y desviación
    típica σ=10 cm.
    Dar un intervalo para el que tengamos asegurado que el 50% de los
    habitantes de la ciudad estιn comprendidos en él.

    Solución:
    Tenemos que . Si
    buscamos un intervalo donde estar seguros de que el
    50% de los habitantes tengan sus alturas comprendidas en
    él hay varias estrategias
    posibles:

    1. Podemos tomar
    el percentil 50, ya que este valor deja por debajo suya a la
    mitad, 0,5, de la masa de probabilidad. Este valor,
    x0,5, se definiría como:

    Donde

    El valor z0,5 lo
    podemos buscar en la tabla (distribución N(0,1) y se
    obtiene:

    Por tanto podemos
    decir que la mitad de la población tiene una altura
    inferior a X0,5=175 cm. Este resultado era de esperar,
    ya que en la distribución es simétrica y
    habrá una mitad de individuos con un peso inferior a la
    media y otro con un peso superior. Esto puede escribirse
    como:

    El 50% de la
    población tiene un peso comprendido en el intervalo
    (-¥ ,175).

     

    Figura:
    Intervalo donde tenemos
    asegurado que el 50% de la población tiene un
    peso comprendido en él. Como se observa, no es
    un tamaño óptimo, en el sentido de que el
    intervalo es demasiado grande (longitud infinita a la
    izquierda).

    2. Análogamente podemos
    considerar el percentil 50, y tomar como intervalo aquellos pesos
    que lo superan. Por las mismas razones que en el problema
    anterior, podremos decir:

    El 50% de la población tiene un
    peso comprendido en el intervalo [175,+¥ ).

    3. Los anteriores intervalos, aún
    dando un resultado correcto, no son satisfactorios en el sentido
    de que son muy grandes, y no tienen en cuenta la simetría
    de la distribución normal para tomar un intervalo cuyo
    centro sea µ. Vamos a utilizar entonces otra técnica
    que nos permita calcular el intervalo centrado en la media, y que
    además será el más pequeño posible
    que contenga al 50% de la población.

    Para ello observamos que la mayor parte
    de probabilidad está concentrada siempre alrededor de la
    media en las leyes gaussianas.
    Entonces podemos tomar un intervalo que contenga un 25% de
    probabilidad del lado izquierdo más próximo a la
    media, y un 25% del derecho.

      

    Figura:
    Intervalo donde tenemos
    asegurado que el 50% de la población tiene un
    peso comprendido en él. En este caso el
    intervalo es más pequeño que el anterior
    y está centrado en µ.

    Esto se puede describir como el
    intervalo donde
    x0,25 es el valor que deja por debajo de sí al
    25% de la masa de probabilidad y x0,75 el que lo deja
    por encima (o lo que es lo mismo, el que deja por debajo al 75%
    de las observaciones). Del mismo modo que antes estos valores
    pueden ser buscados en una tabla de la distribución
    normal, tipificando en primera instancia para destipificar
    después:

    Donde

    En una tabla encontramos el valor z0,75, y se
    destipifica:

    Análogamente se calcularía

    Donde:

     

    Por la simetría de la
    distribución normal con respecto al origen, tenemos que
    z0,25= – z0,75.Luego

    En conclusión:

    El 50% de la población tiene un
    peso comprendido en el intervalo [168,25,181,75].

    De entre los tres intervalos que se han
    calculado el que tiene más interés es el
    último, ya que es simétrico con respecto a la
    media, y es el más pequeño de todos los posibles
    (más preciso). Este ejemplo es en realidad una
    introducción a unas técnicas de inferencia
    estadística que trataremos posteriormente, conocidas con
    el nombre de “estimación confidencial'' o
    “cálculo de intervalos de confianza''.

    Problemas

    Ejercicio 1. Para estudiar la regulación
    hormonal de una línea metabólica se inyectan ratas
    albinas con un fármaco que inhibe la síntesis de
    proteínas del organismo. En general, 4 de cada 20 ratas
    mueren a causa del fármaco antes de que el experimento
    haya concluido. Si se trata a 10 animales con el
    fármaco, ¿cuál es la probabilidad de que al
    menos 8 lleguen vivas al final del experimento?

    Ejercicio 2. En una cierta población se ha
    observado un número medio anual de muertes por
    cáncer de pulmón de 12. Si el número de
    muertes causadas por la enfermedad sigue una distribución
    de Poisson, ¿cuál es la probabilidad de que durante
    el año en curso?

    1. ¿Haya exactamente 10 muertes por cáncer
    de pulmón?

    2. ¿15 o más personas mueran a causa de la
    enfermedad?

    3. ¿10 o menos personas mueran a causa de la
    enfermedad?

    Ejercicio 3. Dañando los cromosomas del
    óvulo o del espermatozoide, pueden causarse mutaciones que
    conducen a abortos, defectos de nacimiento, u otras deficiencias
    genéticas. La probabilidad de que tal mutación se
    produzca por radiación es del 10%. De las siguientes 150
    mutaciones causadas por cromosomas
    dañados, ¿cuántas se esperaría que se
    debiesen a radiaciones? ¿Cuál es la probabilidad de
    que solamente 10 se debiesen a radiaciones?

    Ejercicio 4. Entre los diabéticos, el
    nivel de glucosa en sangre X, en
    ayunas, puede suponerse de distribución aproximadamente
    normal, con media 106 mg/100 ml y desviación típica
    8 mg/100 ml, es decir

    1. Hallar

    2. ¿Qué porcentaje de
    diabéticos tienen niveles comprendidos entre 90 y
    120?

    3. Hallar .

    4. Hallar .

    5. Hallar el punto x caracterizado por la propiedad de
    que el 25% de todos los diabéticos tiene un nivel de
    glucosa en ayunas inferior o igual a x.

    Ejercicio 5. Una prueba de laboratorio
    para detectar heroína en sangre tiene un 92% de
    precisión. Si se analizan 72 muestras en un mes,
    ¿cuál es la probabilidad de que:

    1. ¿60 o menos estén correctamente
    evaluadas?

    2. ¿Menos de 60 estén correctamente
    evaluadas?

    3. ¿Exactamente 60 estén correctamente
    evaluadas?

    Ejercicio 6. El 10% de las personas tiene
    algún tipo de alergia. Se seleccionan aleatoriamente 100
    individuos y se les entrevista.
    Hallar la probabilidad de que, al menos, 12 tengan algún
    tipo de alergia. Hallar la probabilidad de que, como
    máximo, 8 sean alérgicos a algo.

    Ejercicio 7. La probabilidad de muerte
    resultante del uso de píldoras anticonceptivas es de
    3/100.000. De 1.000.000 de mujeres que utilizan este medio de
    control de
    natalidad:

    1. ¿Cuántas muertes debidas a esta causa
    se esperan?

    2. ¿Cuál es la probabilidad de que haya,
    como máximo, 25 de estas muertes?

    3. ¿Cuál es la probabilidad de que el
    número de muertes debidas a esta causa esté entre
    25 y 35, inclusive?

    Ejercicio 8. La probabilidad de presentar una
    característica genética es de 1/20.

    1. Tomando una muestra de 8 individuos, calcular la
    probabilidad de que 3 individuos presenten la
    característica.

    2. Tomando una muestra de 80 personas,
    ¿cuál será la probabilidad de que aparezcan
    más de 5 individuos con la
    característica?

    Ejercicio 9. Se supone que en una cierta
    población humana el índice cefálico
    i, (cociente entre el diámetro transversal y el
    longitudinal expresado en tanto por ciento), se distribuye
    según una Normal. El 58% de los habitantes son
    dolicocéfalos (i £ 75), el 38% son
    mesocéfalos (75 < i £ 80) y el 4% son
    braquicéfalos (i > 80). Hállese la media y la
    desviación típica del índice cefálico
    en esa población.

    Ejercicio 10. Se supone que la glucemia basal en
    individuos sanos, Xs sigue una
    distribución

    Mientras que en los diabéticos
    Xd, sigue una distribución

    Si se conviene en clasificar como sanos al 2% de los
    diabéticos:

    1. ¿Por debajo de qué valor se considera
    sano a un individuo? ¿Cuántos sanos serán
    clasificados como diabéticos?

    2. Se sabe que en la población en general el 10%
    de los individuos son diabéticos ¿cuál es la
    probabilidad de que un individuo elegido al azar y diagnosticado
    como diabético, realmente lo sea?

    Ejercicio 611. Supóngase que se van a
    utilizar 20 ratas en un estudio de agentes coagulantes de la
    sangre. Como primera experiencia, se dio un anticoagulante a 10
    de ellos, pero por inadvertencia se pusieron todas sin marcas en el
    mismo recinto. Se necesitaron 12 ratas para la segunda fase del
    estudio y se les tomó al azar sin reemplazamiento.
    ¿Cuál es la probabilidad de que de las 12 elegidas
    6 tengan la droga y 6 no
    la tengan?

    2. UNIDAD:
    ESTIMACIÓN DE PARÁMETROS

    El propósito de un estudio
    estadístico suele ser, como hemos venido citando, extraer
    conclusiones acerca de la naturaleza de una población. Al
    ser la población grande y no poder ser estudiada en su
    integridad en la mayoría de los casos, las conclusiones
    obtenidas deben basarse en el examen de solamente una parte de
    ésta, lo que nos lleva, en primer lugar a la
    justificación, necesidad y definición de las
    diferentes técnicas de muestreo.

    Los primeros
    términos obligados a los que debemos hacer referencia
    serán los de
    estadístico

    y
    estimador
    .

    Dentro de este contexto, será
    necesario asumir un estadístico o estimador como una
    variable aleatoria con una determinada distribución, y que
    será la pieza clave en las dos amplias categorías
    de la inferencia estadística: la estimación y el
    contraste de hipótesis.

    El concepto de
    estimador, como herramienta fundamental, lo caracterizamos
    mediante una serie de propiedades que nos servirán para
    elegir el “mejor" para un determinado parámetro de una
    población, así como algunos métodos para la
    obtención de ellos, tanto en la estimación puntual
    como por intervalos.

    ¿Cómo deducir la ley de
    probabilidad sobre determinado carácter de una
    población cuando sólo conocemos una
    muestra?

    Este es un problema al que nos
    enfrentamos cuando por ejemplo tratamos de estudiar la
    relación entre el fumar y el cáncer de
    pulmón e intentamos extender las conclusiones obtenidas
    sobre una muestra al resto de individuos de la
    población.

    La tarea fundamental de la
    estadística inferencial, es hacer inferencias acerca de la
    población a partir de una muestra extraída de la
    misma.

    Técnicas de muestreo sobre
    una población

    La teoría del muestreo tiene por
    objetivo, el
    estudio de las relaciones existentes entre la distribución
    de un carácter en dicha población y las
    distribuciones de dicho carácter en todas sus
    muestras.

    Las ventajas de estudiar una
    población a partir de sus muestras son
    principalmente:

    • Coste reducido:

    Si los datos que buscamos los podemos
    obtener a partir de una pequeña parte del total de la
    población, los gastos de
    recogida y tratamiento de los datos serán menores. Por
    ejemplo, cuando se realizan encuestas
    previas a un referéndum, es más barato preguntar a
    4.000 personas su intención de voto, que a
    30.000.000;

    • Mayor rapidez:

    Estamos acostumbrados a ver cómo
    con los resultados del escrutinio de las primeras mesas
    electorales, se obtiene una aproximación bastante buena
    del resultado final de unas elecciones, muchas horas antes de que
    el recuento final de votos haya finalizado;

    • Más posibilidades:

    Para hacer cierto tipo de estudios, por
    ejemplo el de duración de cierto tipo de bombillas, no es
    posible en la práctica destruirlas todas para conocer su
    vida media, ya que no quedaría nada que vender. Es mejor
    destruir sólo una pequeña parte de ellas y sacar
    conclusiones sobre las demás.

    De este modo se ve que al hacer
    estadística inferencial debemos enfrentarnos con dos
    problemas:

    Elección de la muestra
    (muestreo), que es a lo que nos dedicaremos en este
    capítulo.

    Extrapolación de las conclusiones
    obtenidas sobre la muestra, al resto de la población
    (inferencia).

    El tipo de
    muestreo más importante es el
    muestreo
    aleatorio
    , en el que todos
    los elementos de la población tienen la misma probabilidad
    de ser extraídos; Aunque dependiendo del problema y con el
    objetivo de
    reducir los costes o aumentar la precisión, otros tipos de
    muestreo pueden ser considerados como veremos más
    adelante:
    muestreo
    sistemático
    ,

    estratificado
    y
    por
    conglomerados
    .

    Muestreo aleatorio

    Consideremos una población
    finita, de la que deseamos extraer una muestra. Cuando el
    proceso de
    extracción es tal que garantiza a cada uno de los
    elementos de la población la misma oportunidad de ser
    incluidos en dicha muestra, denominamos al proceso de
    selección muestreo aleatorio.

    El muestreo aleatorio se puede plantear
    bajo dos puntos de vista:

    Muestreo aleatorio sin
    reposición

    Consideremos una población E
    formada por N elementos. Si observamos un elemento particular,
    , en un muestreo aleatorio sin reposición se da
    la siguiente circunstancia:

    La probabilidad de que e sea elegido en
    primer lugar es;

    Si no ha sido elegido en primer lugar
    (lo que ocurre con una probabilidad de ), la
    probabilidad de que sea elegido en el segundo intento es
    de.

    En el (i+1)-ésimo intento, la
    población consta de N-i elementos, con lo cual si e no ha
    sido seleccionado previamente, la probabilidad de que lo sea en
    este momento es de.

    Si consideramos una muestra de
    elementos, donde el orden en la elección de
    los mismos tiene importancia, la probabilidad de elección
    de una muestra
    cualquiera es

    Lo que corresponde en el sentido de la
    definición de probabilidad de Laplace a un caso posible
    entre las VN,n posibles n-uplas de N elementos de la
    población.

    Si el orden no interviene, la
    probabilidad de que una muestra

    Sea elegida es la suma de las
    probabilidades de elegir una cualquiera de sus n-uplas, tantas
    veces como permutaciones en el orden de sus elementos sea
    posible, es decir

    Muestreo aleatorio con
    reposición

    Sobre una población E de
    tamaño N podemos realizar extracciones de n elementos,
    pero de modo que cada vez el elemento extraído es repuesto
    al total de la población. De esta forma un elemento puede
    ser extraído varias veces. Si el orden en la
    extracción de la muestra interviene, la probabilidad de
    una cualquiera de ellas, formada por n elementos es:

    Si el orden no interviene, la
    probabilidad de una muestra cualquiera, será la suma de la
    anterior, repitiéndola tantas veces como manera de
    combinar sus elementos sea posible. Es decir,

    • sea n1 el número de veces que se
      repite cierto elemento e1 en la muestra;

    • sea n2 el número de veces que se
      repite cierto elemento e2;
    • sea nk el número de veces que se
      repite cierto elemento ek,

    De modo que . Entonces
    la probabilidad de obtener la muestra:

    Es

    Es decir,

    El muestreo aleatorio con
    reposición es también denominado muestreo aleatorio
    simple, que como hemos mencionado se caracteriza por
    que

    • Cada elemento de la población tiene la misma
      probabilidad de ser elegido, y…

    • Las observaciones se realizan con reemplazamiento.
      De este modo, cada observación es realizada sobre la
      misma población (no disminuye con las extracciones
      sucesivas).

    Sea X una v.a. definida sobre la
    población E, y f(x) su ley de probabilidad.

    En una muestra aleatoria simple, cada
    observación tiene la distribución de probabilidad
    de la población:

     
    Además todas las observaciones de la v.a. son
    independientes, es decir  
    Las relaciones anteriores caracterizan a las muestras aleatorias
    simples.

    Tablas de números
    aleatorios: Lotería Nacional

    Un ejemplo de una tabla de
    números aleatorios consiste en la lista de los
    números de Lotería Nacional premiados a lo largo de
    su historia, pues se
    caracterizan por que cada dígito tiene la misma
    probabilidad de ser elegido, y su elección es
    independiente de las demás extracciones.

    Un modo de hacerlo es el siguiente.
    Supongamos que tenemos una lista de números aleatorios de
    k=5 cifras (00000-99.999), una población de N=600
    individuos, y deseamos extraer una muestra de n=6 de ellos. En
    este caso ordenamos a toda la población (usando cualquier
    criterio) de modo que a cada uno de sus elementos le corresponda
    un número del 1 al 600. En segundo lugar nos dirigimos a
    la tabla de números aleatorios, y comenzando en cualquier
    punto extraemos un número t, y tomamos como primer
    elemento de la muestra al elemento de la
    población:

    El proceso se repite tomando los
    siguientes números de la tabla de números
    aleatorios, hasta obtener la muestra de 10 individuos.

    Las cantidades

    Pueden ser consideradas como
    observaciones de una v.a. U, que sigue una distribución
    uniforme en el intervalo [0,1]

    Método de Montecarlo

    El método de Montecarlo es una
    técnica para obtener muestras aleatorias simples de una
    v.a. X, de la que conocemos su ley de probabilidad (a partir de
    su función de distribución F). Con este
    método, el modo de elegir aleatoriamente un valor de X
    siguiendo usando su ley de probabilidad es:

    1. Usando una tabla de números
    aleatorios se toma un valor u de una v.a. .

    2. Si X es continua tomar como
    observación de X, la cantidad x=F-1(u). En el caso en que
    X sea discreta se toma x como el percentil de X, es
    decir el valor más pequeño que verifica que
    . Este proceso se debe repetir n veces para obtener
    una muestra de tamaño n.

    Ejemplo

    Si queremos extraer n=10 muestras de una
    distribución N(0,1) podemos recurrir a una tabla de
    números aleatorios de k=5 cifras, en las que observamos
    las cantidades (por ejemplo)

    A partir de ellas podemos obtener una
    muestra de usando una
    tabla de la distribución normal:

    Números
    aleatorios

    Muestra

    Muestra

    ti

    xi =
    F-1(ui)

    76.293

    0'76

    0'71

    31.776

    0'32(=1-0'68)

    -0'47

    50.803

    0'51

    0'03

    71.153

    0'71

    0'55

    20.271

    0'20(=1-0'80)

    -0'84

    33.717

    0'34(=1-0'66)

    -0'41

    17.979

    0'18(=1-0'82)

    -0'92

    52.125

    0'52

    0'05

    41.330

    0'41(=1-0'59)

    -0'23

    95.141

    0'95

    1'65

    Obsérvese
    que como era de esperar, las observaciones xi tienden a agruparse
    alrededor de la esperanza matemática de . Por
    otra parte, esto no implica que el valor medio de la muestra sea
    necesariamente . Sin embargo
    como sabemos por el
    teorema de Fisher

    que

    Su dispersión con respecto al
    valor central es pequeña, lo que implica que probablemente
    el valor medio estará
    muy próximo a 0, como se puede calcular:

    Obsérvese que si el problema
    fuese el inverso, donde únicamente conociésemos las
    observaciones xi y que el mecanismo que generó esos datos
    hubiese sido una distribución normal de parámetros
    desconocidos, con obtenida
    hubiésemos tenido una buena aproximación del
    “parámetro desconocido''µ. Sobre esta
    cuestión volveremos más adelante al abordar el
    problema de la estimación puntual de
    parámetros.

    Muestreo sistemático

    Cuando los elementos de la
    población están ordenados en fichas o en
    una lista, una manera de muestrear consiste en

    • Sea ;

    • Elegir aleatoriamente un número m, entre 1 y
      k;

    • Tomar como muestra los elementos de la
      lista:

    Esto es lo que se denomina muestreo
    sistemático. Cuando el criterio de ordenación de
    los elementos en la lista es tal que los elementos más
    parecidos tienden a estar más cercanos, el muestreo
    sistemático suele ser más preciso que el aleatorio
    simple, ya que recorre la población de un modo más
    uniforme. Por otro lado, es a menudo más fácil no
    cometer errores con un muestreo sistemático que con este
    último.

    Observación

    El método tal como se ha definido
    anteriormente es sesgado si no es
    entero, ya que los últimos elementos de la lista nunca
    pueden ser escogidos. Un modo de evitar este problema consiste en
    considerar la lista como si fuese circular (el elemento N+1
    coincide con el primero) y:

    • Sea k el entero más cercano a ;

    • Se selecciona un número al azar m, entre 1 y
      N;

    • Se toma como muestra los elementos de la lista que
      consisten en ir saltando de k elementos en k, a partir de m,
      teniendo en cuenta que la lista es circular.

    Se puede comprobar que con este
    método todos los elementos de la lista tienen la misma
    probabilidad de selección.

    Muestreo aleatorio estratificado

    Un muestreo aleatorio estratificado es
    aquel en el que se divide la población de N individuos, en
    k subpoblaciones o estratos, atendiendo a criterios que puedan
    ser importantes en el estudio, de tamaños respectivos
    N1, …, Nk,

    Y realizando en cada una de estas
    subpoblaciones muestreos aleatorios simples de tamaño
    ni i=1,…,k.

    A continuación nos planteamos el
    problema de cuantos elementos de muestra se han de elegir de cada
    uno de los estratos. Para ello tenemos fundamentalmente dos
    técnicas: la asignación proporcional y la
    asignación óptima.

    Ejemplo

    Supongamos que realizamos un estudio
    sobre la población de estudiantes de una Universidad, en
    el que a través de una muestra de 10 de ellos queremos
    obtener información sobre el uso de barras de
    labios.

    En primera aproximación lo que
    procede es hacer un muestreo aleatorio simple, pero en su lugar
    podemos reflexionar sobre el hecho de que el comportamiento de la
    población con respecto a este carácter no es
    homogéneo, y atendiendo a él, podemos dividir a la
    población en dos estratos:

    • Estudiantes masculinos (60% del total);

    • Estudiantes femeninos (40% restante).

    De modo que se repartan
    proporcionalmente ambos grupos el
    número total de muestras, en función de sus
    respectivos tamaños (6 varones y 4 mujeres). Esto es lo
    que se denomina asignación proporcional.

    Si observamos con más
    atención, nos encontramos (salvo sorpresas de probabilidad
    reducida) que el comportamiento de los varones con respecto al
    carácter que se estudia es muy homogéneo y
    diferenciado del grupo de las mujeres.

    Por otra parte, con toda seguridad la
    precisión sobre el carácter que estudiamos,
    será muy alta en el grupo de los varones aunque en la
    muestra haya muy pocos (pequeña varianza), mientras que en
    el grupo de las mujeres habrá mayor dispersión.
    Cuando las varianzas poblacionales son pequeñas, con pocos
    elementos de una muestra se obtiene una información
    más precisa del total de la población que cuando la
    varianza es grande. Por tanto, si nuestros medios
    sólo nos permiten tomar una muestra de 10 alumnos,
    será más conveniente dividir la muestra en dos
    estratos, y tomar mediante muestreo aleatorio simple cierto
    número de individuos de cada estrato, de modo que se
    elegirán más individuos en los grupos de mayor
    variabilidad. Así probablemente obtendríamos
    mejores resultados estudiando una muestra de

    • 1 varón.

    • 9 hembras.

    Esto es lo que se denomina
    asignación óptima.

    Asignación proporcional

    Sea n el número de individuos de
    la población total que forman parte de alguna
    muestra:

    Cuando la asignación es
    proporcional el tamaño de la muestra de cada estrato es
    proporcional al tamaño del estrato correspondiente con
    respecto a la población total:

    Asignación óptima

    Cuando se realiza un muestreo
    estratificado, los tamaños muestrales en cada uno de los
    estratos, ni, los elige quien hace el muestreo, y para ello puede
    basarse en alguno de los siguientes criterios:

    • Elegir los ni de tal modo que se minimice la varianza
      del estimador, para un coste especificado, o bien,

    • habiendo fijado la varianza que podemos admitir
      para el estimador, minimizar el coste en la obtención
      de las muestras.

    Así en un estrato dado, se tiende
    a tomar una muestra más grande cuando:

    • El estrato es más grande;

    • El estrato posee mayor variabilidad interna
      (varianza);

    • El muestreo es más barato en ese
      estrato.

    Para ajustar el tamaño de los
    estratos cuando conocemos la dispersión interna de cada
    uno de los mismos, tenemos el siguiente resultado:

    Teorema

    [Asignación de Neyman] Sea E una
    población con N elementos, dividida en k estratos, con
    Ni elementos cada uno de
    ellos,i=1,…,k

    Sea n el número total de
    elementos al realizar el muestreo, y que se dividen en cada
    estrato como

    Sea X la v.a. que representa el
    carácter que intentamos estudiar. Sobre cada estrato puede
    definirse entonces la v.a.

    Como el valor medio de X obtenida en una
    muestra de tamaño ni en el estrato
    Ei. Sea Var[Xi] la varianza de dicha v.a.;
    Entonces

    Se minimiza cuando

    Donde

    Es la cuasi-varianza del estrato
    Ei.

    Muestreo por conglomerados

    Si intentamos hacer un estudio sobre los
    habitantes de una ciudad, el muestreo aleatorio simple puede
    resultar muy costoso, ya que estudiar una muestra de
    tamaño n implica enviar a los encuestadores a npuntos
    distintos de la misma, de modo que en cada uno de ellos
    sólo se realiza una entrevista. En
    esta situación es más económico realizar el
    denominado muestreo por conglomerados, que consiste en elegir
    aleatoriamente ciertos barrios dentro de la ciudad, para
    después elegir calles y edificios. Una vez elegido el
    edificio, se entrevista a todos los vecinos.

    Estimación Puntual

    Máxima Verosimilitud

    Sea X una v.a. con función de
    probabilidad

    Las muestras aleatorias simples de
    tamaño n,
    x1,x2,…,xn tienen por
    distribución de probabilidad conjunta

    Esta función que depende de n+1
    cantidades podemos considerarla de dos maneras:

    • Fijando , es una
      función de la n cantidades xi. Esto es la
      función de probabilidad o densidad.

    • Fijados los xi como consecuencia de los
      resultados de elegir una muestra mediante un experimento
      aleatorio, es únicamente función de
      . A esta función de la
      denominamos función de verosimilitud.

    En este punto podemos plantearnos el que
    dado una muestra sobre la que se ha observado los valores
    xi, una posible estimación del parámetro
    es aquella que maximiza la función de
    verosimilitud.

    Partes: 1, 2, 3

    Página siguiente 

    Nota al lector: es posible que esta página no contenga todos los componentes del trabajo original (pies de página, avanzadas formulas matemáticas, esquemas o tablas complejas, etc.). Recuerde que para ver el trabajo en su versión original completa, puede descargarlo desde el menú superior.

    Todos los documentos disponibles en este sitio expresan los puntos de vista de sus respectivos autores y no de Monografias.com. El objetivo de Monografias.com es poner el conocimiento a disposición de toda su comunidad. Queda bajo la responsabilidad de cada lector el eventual uso que se le de a esta información. Asimismo, es obligatoria la cita del autor del contenido y de Monografias.com como fuentes de información.

    Categorias
    Newsletter