Introducción
Existe una variedad de procedimiento para el
procesamiento y análisis estadístico
de datos, una vez recogidos los
datos, procesados y convertidos en información valiosa para el
estudio que se realiza, pueden utilizarse varias técnicas que permitan sacar
el máximo provecho de la información disponible, sin
embargo, la utilización de técnicas de Estadística No
Paramétricas son poco utilizada, a pesar de la potencia y certeza de sus
resultados, y que por lo general no se dispone de
información suficiente sobre la población de la cual se
extrajeron los datos que den soporte la realización de
inferencia con base en la muestra observada.
En esta investigación se desarrollan
algunas técnicas de análisis estadístico no
paramétrico tales como El contraste C² de Bondad del
Ajuste, el contraste de Kolmogorov-Smirnov, el contraste de
Independencia y la tabla de
contingencia. Con estos temas podemos resolver casos
estadísticos como cuantas personas fueron hospitalizadas en
un centro de asistencia durante un determinado
periodo.
Contraste de Bondad de Ajuste para
Distribuciones
Medida de lo bien que se ajusta el modelo a los datos. Se basa en
los cuadrados de las diferencias entre las probabilidades
observadas y las pronosticadas. Un valor pequeño del nivel
crítico del estadístico de bondad de ajuste indica que
dicho ajuste no es bueno.
Vamos a aplicar el contraste para determinar a
través de una muestra si una v.a. X sigue o no
cierta distribución. Podemos
encontrarnos entonces con dos casos:
La ley de la v.a. X que
deseamos contrastar está completamente
determinada.
La ley de la v.a. X no es
totalmente conocida y es necesario estimar algunos de sus
parámetros.
Prueba de Chi2
La prueba Chi-cuadrado para una muestra
permite averiguar si la distribución empírica de una
variable categórica se ajusta o no a una determinada
distribución teórica (uniforme, binomial, multinomial,
normal, etc.) este contraste de bondad de ajuste, se pone a
prueba utilizando un estadístico originalmente propuesto por
Pearson para comparar las frecuencias observadas o empíricas
con las esperadas o teóricas de cada categoría, es
decir, un estadístico diseñado para comparar las
frecuencias de hecho obtenidas en una muestra concreta
(frecuencias observadas: Oi) con las frecuencias que
deberíamos encontrar si la variable realmente siguiera la
distribución teórica propuesta en la hipótesis nula
Prueba de
Kolmogorov-Smirnov
En estadística, la prueba de
Kolmogorov-Smirnov (también prueba K-S) es una
prueba no paramétrica que se utiliza para
determinar la bondad de ajuste de dos distribuciones de
probabilidad entre
sí. En el caso de que queramos verificar la normalidad de
una distribución, la prueba de Lilliefors conlleva algunas
mejoras con respecto a la de Kolmogorov-Smirnov; y, en general,
las pruebas Shapiro-Wilk o
Anderson-Darling son alternativas más potentes.Conviene
tener en cuenta que la prueba Kolmogorov-Smirnov es más
sensible a los valores cercanos a la
mediana que a los extremos de la distribución.
La prueba de Anderson-Darling proporciona igual
sensibilidad con valores extremos.
La distribución de los datos Fn para
n observaciones yi se define como
Para dos colas el estadístico viene
dado por
Donde F(x) es la
distribución presentada como hipótesis.
Estadística de
Kolmogorov-Smirnov
La función de distribución
empírica F n para n id observaciones X
i se define como
dónde es el indicador de función, igual a 1 si
X = x i e iguales a 0 en caso
contrario.
La de Kolmogorov-Smirnov estadística para una
determinada función de distribución acumulativa F
(x) es
Página siguiente |