Monografias.com > Estadística > Matemáticas
Descargar Imprimir Comentar Ver trabajos relacionados

Análisis de varianza




Enviado por Alcalá, Gustavo



Partes: 1, 2

    1. ANOVA
    2. Bases del análisis de la
      varianza
    3. Modelos
      de análisis de la varianza
    4. Análisis
      de Varianza a una vía: Diseño completamente
      aleatorizado
    5. Contrastes de
      hipótesis en un análisis de la varianza de dos
      factores
    6. Bibliografía
    1. ANOVA

    El análisis de la varianza (o Anova: Analysis
    of variance) es un método
    para comparar dos o más medias, que es necesario porque
    cuando se quiere comparar más de dos medias es incorrecto
    utilizar repetidamente el contraste basado en la t de Student.
    Por dos motivos:

    En primer lugar, y como se realizarían
    simultánea e independientemente varios contrastes de
    hipótesis, la probabilidad
    de encontrar alguno significativo por azar aumentaría. En
    cada contraste se rechaza la H0 si la t supera el
    nivel crítico, para lo que, en la hipótesis nula,
    hay una probabilidad . Si se realizan m contrastes
    independientes, la probabilidad de que, en laa hipótesis nula, ningún
    estadístico supere el valor
    )a crítico es (1 –
    m, por lo tanto, la probabilidad de que alguno lo
    )a supere es 1 – (1 – m,
    que para valores m. Una
    primera solución,a
    próximos a 0 es aproximadamente igual a a de denominada método de Bonferroni,
    consiste en bajar el valor /m, aunque resulta un método
    muy conservador.a , usando en su lugar
    a de

    Por otro lado, en cada comparación la
    hipótesis nula es que las dos muestras provienen de la
    misma población, por lo tanto, cuando se hayan
    realizado todas las comparaciones, la hipótesis nula es
    que todas las muestras provienen de la misma población y,
    sin embargo, para cada comparación, la estimación
    de la varianza necesaria para el contraste es distinta, pues se
    ha hecho en base a muestras distintas.

    El método que resuelve ambos problemas es
    el anova, aunque es algo más que esto: es un método
    que permite comparar varias medias en diversas situaciones; muy
    ligado, por tanto, al diseño
    de experimentos y,
    de alguna manera, es la base del análisis
    multivariante.

    2. Bases del
    análisis de la varianza

    Supónganse k muestras aleatorias independientes,
    de tamaño n, extraídas de una única
    población normal. A partir de ellas existen dos maneras
    independientes s de estimar la
    varianza de la población 2:

    1) Una llamada varianza dentro de los grupos (ya que
    sólo contribuye a ella la varianza dentro de las
    muestras), o varianza de error, o cuadrados medios del
    error, y habitualmente representada por MSE (Mean Square Error) o
    MSW (Mean Square Within) que se calcula como la media de las k
    varianzas muestrales (cada s varianza
    muestral es un estimador centrado de2 y la media de k
    estimadores centrados es también un estimador centrado y
    más eficiente que todos ellos). MSE es un cociente: al
    numerador se le llama suma de cuadrados del error y se representa
    por SSE y al denominador grados de libertad por
    ser los términos independientes de la suma de
    cuadrados.

    2) Otra llamada varianza entre grupos (sólo
    contribuye a ella la varianza entre las distintas muestras), o
    varianza de los tratamientos, o cuadrados medios de los
    tratamientos y representada por MSA o MSB (Mean Square Between).
    Se calcula a partir de la varianza de las medias muestrales y es
    también un cociente; al numerador se le llama suma de
    cuadrados de los tratamientos (se le representa por SSA) y al
    denominador (k-1) grados de libertad.

    MSA y MSE, estiman la varianza poblacional en la
    hipótesis de que las k muestras provengan de la misma
    población. La distribución muestral del cociente de dos
    estimaciones independientes de la varianza de una
    población normal es una F con los grados de libertad
    correspondientes al numerador y denominador respectivamente, por
    lo tanto se puede contrastar dicha hipótesis usando esa
    distribución.

    Si en base a este contraste se rechaza la
    hipótesis de que MSE y MSA estimen la misma varianza, se
    puede rechazar la hipótesis de que las k medias provengan
    de una misma población.

    Aceptando que las muestras provengan de poblaciones con
    la misma varianza, este rechazo implica que las medias
    poblacionales son distintas, de modo que con un único
    contraste se contrasta la igualdad de k
    medias.

    Existe una tercera manera de estimar la varianza de la
    población, aunque no es independiente de las anteriores.
    Si se consideran las kn observaciones como una única
    muestra, su
    varianza muestral también es un estimador centrado de
     2:

    Partes: 1, 2

    Página siguiente 

    Nota al lector: es posible que esta página no contenga todos los componentes del trabajo original (pies de página, avanzadas formulas matemáticas, esquemas o tablas complejas, etc.). Recuerde que para ver el trabajo en su versión original completa, puede descargarlo desde el menú superior.

    Todos los documentos disponibles en este sitio expresan los puntos de vista de sus respectivos autores y no de Monografias.com. El objetivo de Monografias.com es poner el conocimiento a disposición de toda su comunidad. Queda bajo la responsabilidad de cada lector el eventual uso que se le de a esta información. Asimismo, es obligatoria la cita del autor del contenido y de Monografias.com como fuentes de información.

    Categorias
    Newsletter