Descargar

Técnicas de análisis estadístico no paramétrico

Enviado por Silvia Román


Partes: 1, 2

    1. Prueba de Chi2
    2. Prueba de Kolmogorov-Smirnov
    3. Tabla de Contingencia
    4. Prueba de Independencia

    Introducción

    Existe una variedad de procedimiento para el procesamiento y análisis estadístico de datos, una vez recogidos los datos, procesados y convertidos en información valiosa para el estudio que se realiza, pueden utilizarse varias técnicas que permitan sacar el máximo provecho de la información disponible, sin embargo, la utilización de técnicas de Estadística No Paramétricas son poco utilizada, a pesar de la potencia y certeza de sus resultados, y que por lo general no se dispone de información suficiente sobre la población de la cual se extrajeron los datos que den soporte la realización de inferencia con base en la muestra observada.

    En esta investigación se desarrollan algunas técnicas de análisis estadístico no paramétrico tales como El contraste C² de Bondad del Ajuste, el contraste de Kolmogorov-Smirnov, el contraste de Independencia y la tabla de contingencia. Con estos temas podemos resolver casos estadísticos como cuantas personas fueron hospitalizadas en un centro de asistencia durante un determinado periodo.

    Contraste de Bondad de Ajuste para Distribuciones

    Medida de lo bien que se ajusta el modelo a los datos. Se basa en los cuadrados de las diferencias entre las probabilidades observadas y las pronosticadas. Un valor pequeño del nivel crítico del estadístico de bondad de ajuste indica que dicho ajuste no es bueno.

    Vamos a aplicar el contraste edu.redpara determinar a través de una muestra si una v.a. X sigue o no cierta distribución. Podemos encontrarnos entonces con dos casos:

    La ley de la v.a. X que deseamos contrastar está completamente determinada.

    La ley de la v.a. X no es totalmente conocida y es necesario estimar algunos de sus parámetros.

    Prueba de Chi2

    La prueba Chi-cuadrado para una muestra permite averiguar si la distribución empírica de una variable categórica se ajusta o no a una determinada distribución teórica (uniforme, binomial, multinomial, normal, etc.) este contraste de bondad de ajuste, se pone a prueba utilizando un estadístico originalmente propuesto por Pearson para comparar las frecuencias observadas o empíricas con las esperadas o teóricas de cada categoría, es decir, un estadístico diseñado para comparar las frecuencias de hecho obtenidas en una muestra concreta (frecuencias observadas: Oi) con las frecuencias que deberíamos encontrar si la variable realmente siguiera la distribución teórica propuesta en la hipótesis nula

    Prueba de Kolmogorov-Smirnov

    En estadística, la prueba de Kolmogorov-Smirnov (también prueba K-S) es una prueba no paramétrica que se utiliza para determinar la bondad de ajuste de dos distribuciones de probabilidad entre sí. En el caso de que queramos verificar la normalidad de una distribución, la prueba de Lilliefors conlleva algunas mejoras con respecto a la de Kolmogorov-Smirnov; y, en general, las pruebas Shapiro-Wilk o Anderson-Darling son alternativas más potentes.Conviene tener en cuenta que la prueba Kolmogorov-Smirnov es más sensible a los valores cercanos a la mediana que a los extremos de la distribución. La  prueba de Anderson-Darling proporciona igual sensibilidad con valores extremos.

    La distribución de los datos Fn para n observaciones yi se define como

    edu.red

    Para dos colas el estadístico viene dado por

    edu.red

    edu.red

    Donde F(x) es la distribución presentada como hipótesis.

    Estadística de Kolmogorov-Smirnov

    La función de distribución empírica F n para n id observaciones X i se define como

    edu.red

    dónde edu.redes el indicador de función, igual a 1 si X = x i e iguales a 0 en caso contrario.

    La de Kolmogorov-Smirnov estadística para una determinada función de distribución acumulativa F (x) es

    Partes: 1, 2
    Página siguiente