Descargar

Comportamiento de las dócimas paramétricas respecto a las paramétricas en distribuciones no normales

Enviado por mcristo


    1. Resumen
    2. Aspectos generales
    3. Acerca de los Métodos Estadísticos paramétricos y de distribución libre
    4. Algunas distribuciones de probabilidad de interés práctico
    5. Criterios de Eficiencia, Potencia y Robustez en Dócimas de Hipótesis
    6. Eficiencia Asintótica Relativa (ARE)
    7. Bibliografía Consultada

    Resumen.

    Los métodos estadísticos como elementos de apoyo son fundamentales puesto que cuantifican y cualifican objetivamente los resultados de la investigación. Una opción muy poderosa son las técnicas paramétricas, las cuales requieren de un gran número de supuestos que no siempre se satisfacen.

    En la actualidad se estudian y aplican nuevas técnicas como la Biotecnología, Ingeniería Genética, Agricultura Sostenible, Biología Molecular, etc, en las que se analizan variables de diferentes características relativas a distribuciones y tamaños de muestra, lo cual hace necesario valorar otras herramientas estadísticas alternativas, como pueden ser las técnicas no paramétricas,

    Introducción.

    En la actualidad son de amplio uso las técnicas de Estadística Matemática como herramientas para analizar científicamente los resultados en una investigación y para que estos resultados sean confiables. En este sentido cobra cada día mayor importancia su adecuado uso, para lo cual resulta necesario conocer el tipo de variable que se estudia, su comportamiento y el objetivo del trabajo investigativo, con el fin de seleccionar la técnica más apropiada.

    Entre las técnicas del campo de la docimasia de hipótesis, las que con más frecuencia se utilizan son las paramétricas, que dados los supuestos que requiere su aplicación (muy exigentes), resultan ser las más potentes. En este sentido se considera que existe un uso indiscriminado de las mismas, pues en una buena parte de los casos no se verifican las condiciones que establecen, antes de aplicar dichos métodos. Esto puede ser debido al desconocimiento por parte de muchos investigadores de los requisitos necesarios para el uso de estas técnicas, su manejo y las posibilidades que brindan otras técnicas, entre estas las no paramétricas o de distribución libre.

    Méndez (1993) señala que la Estadística se ha convertido en una forma de pensar y una herramienta muy poderosa en muchas áreas de la actividad humana y recomienda el uso de dócimas paramétricas y no paramétricas entre otros procedimientos, puesto que el uso de varias técnicas permite confirmar resultados o valorar las inconsistencias entre estas.

    Una alternativa en la solución de importantes problemas prácticos es los métodos no paramétricos (o de distribución libre), los cuales no exigen supuestos tan numerosos ni severos y son aplicables a cualquier variable, en particular las de tipo nominal u ordinal, así como a distribuciones diversas.

    En la selección de los métodos estadísticos más idóneos, es muy importante tener en cuenta sus características en cuanto a eficiencia, tamaño de la muestra a analizar, tipo de variable y distribución que expresa su comportamiento.

    Se ha analizado el comportamiento de métodos no paramétricos respecto a sus homólogos paramétricos, bajo el supuesto de las distribuciones Normal, Uniforme y Doble Exponencial (Gibbons, 1971 y Daniel, 1978).

    No obstante el tema aún no está agotado y en la actualidad se continúa investigando en este sentido. Algunos aspectos en los cuales se requiere profundizar son: el comportamiento de la eficiencia entre pruebas no paramétricas, así como la eficiencia de estos métodos con sus homólogos paramétricos en presencia de otras distribuciones, como pueden ser la Lognormal y la de Cauchy por su importancia en el análisis de los resultados de investigaciones que las involucran, a la luz de las nuevas tecnologías en el campo de la Biología y las Ciencias Agropecuarias y otras ramas como Ciencias Sociales, de la Educación y la Cultura.

    Con el fin de hacer un estudio de estos métodos se utiliza una herramienta muy útil para el análisis del comportamiento de procesos y métodos. Se trata de la simulación, metodología que es de amplio uso en la actualidad, facilitada por el desarrollo computacional.

    2.1 Aspectos generales.

    Con el surgimiento de las técnicas inferenciales paramétricas, hallaron solución muchos problemas prácticos en la toma de decisiones sobre las características de las poblaciones en estudio. Al respecto, Guerra et al (1998) plantea que tales problemas son comunes en la vida diaria y en el desarrollo ulterior de las matemáticas y que poseen un amplio campo de aplicación (agricultura, deporte, medicina, los servicios, etc.). No obstante, estos métodos altamente eficientes, necesitan del cumplimiento de un grupo de supuestos muy fuertes, que en muchos casos no se satisfacen en la información que se analiza. También sucede en ocasiones que la medida en que están dadas las variables que se estudian, no están acordes con estos, que se refiere a variables de tipo nominal u ordinal.

    A partir de los requerimientos, surgen técnicas inferenciales novedosas que son menos exigentes. De Calzadilla(1999), se refiere a estas planteando que no realizan supuestos numerosos ni severos acerca de los parámetros en estudio y que estos métodos son llamados no paramétricos o de distribución libre indistintamente.

    Cué (1987) considera que el término "no paramétrico" es incorrecto, ya que en el sentido estricto de la palabra, significa que no están hechos para probar hipótesis acerca de los parámetros y sin embargo dentro de estos métodos hay algunos que se utilizan para este fin, porque realmente ellos se diferencian de los paramétricos en el conocimiento o no de la distribución de la población en estudio, y en la posibilidad de su aplicación para cualquier distribución. En este sentido se considera que es más adecuada la denominación de métodos de distribución libre.

    López y Romero (1986) señalan que cuando se comenzó a estudiar este tema, se comparaba la eficiencia relativa de las pruebas paramétricas con las de distribución libre, considerando el cumplimiento de los supuestos para realizar las primeras y esto condujo a que los métodos de distribución libre se catalogaran como poco eficientes. No obstante, añaden que en la actualidad constituyen un arma de análisis de inestimable valor para el investigador, opinión que comparte Hougaard (1999).

    Siegel y Castellán (1995), plantean que las pruebas más poderosas son las apoyadas por suposiciones más fuertes y amplias, pero que cuando los supuestos que constituyen el modelo estadístico paramétrico no han sido en verdad satisfechos o la medida utilizada carece de la fuerza requerida, es difícil medir la potencia de la prueba, existiendo algunas comprobaciones empíricas de que las desviaciones ligeras de los supuestos de las pruebas paramétricas, no ocasionan efectos radicales en las conclusiones del análisis, pero no se da una definición clara de lo que se considera "desviaciones ligeras".

    Por su parte Dixon y Massey (1976) abordan este tema a través de lo que definen como eficiencia relativa, comenzando su análisis desde el comportamiento de los estadísticos de posición y dispersión hasta los estadísticos de prueba, incluyendo además el criterio de potencia. En su opinión, si se considera que las suposiciones paramétricas acerca de la población no se satisfacen ni siquiera moderadamente, los niveles de confianza se satisfarán mejor usando métodos de distribución libre.

    Kendall y Stuart (1973) señalan que la definición de prueba o dócima eficiente se obtiene de la misma forma que la estimación eficiente y analizan su valor a partir de la expresión.

    ER(T1,T2) = n1 / n2

    dnde T1 y T2 representan los tratamiento que se están comparando.

    Gibbons (1978) considera que la vía más común de comparar dos pruebas estadísticas es hacer todos los factores equivalentes, excepto el tamaño de muestra. Esto se analizará posteriormente.

    Guerra et al (1998) plantea que el indicador más frecuentemente utilizado para medir la eficiencia de una prueba no paramétrica es la Eficiencia Asintótica Relativa o ARE (iniciales en inglés), conocida también como Eficiencia de Pitman.

    En general, al analizar el comportamiento de los diferentes grupos de métodos, las valoraciones se han hecho considerando distribución Normal como es el caso de Dixon y Massey (1986), Fraser (1957), Gibbons (1971) y Siegel (1970), Siegel y Castellán (1995), y en algunos casos las distribuciones Uniforme y Doble exponencial, fundamentalmente en dócimas de una población (Bradley, 1968). Un detalle interesante a destacar aquí es que los valores de eficiencia (determinados a través del cálculo del ARE) llegan hasta la comparación en estas pocas distribuciones de una prueba paramétrica con las homólogas de distribución libre, siendo poco analizados los valores de la eficiencia entre dócimas de distribución libre.

    Estos resultados pueden servir de base para ampliar los análisis acerca de la eficiencia entre métodos de distribución libre y de estos con los paramétricos, llegando a considerar otras distribuciones que presenten un comportamiento que no sea el típico normal o simétrico.

    2.2 Acerca de los Métodos Estadísticos paramétricos y de distribución libre.

    Es conocido y señalado por diversos autores tales como Dixon y Massey (1976), Siegel (1970) y Siegel y Castellán (1995), que las pruebas llamadas paramétricas conforman una familia de métodos de mucha certeza en la toma de decisiones. La dificultad radica en las suposiciones que deben satisfacerse para su aplicación. Estas suposiciones como se conoce, son fundamentalmente

    1. Las variables deben estar medidas al menos en una escala de intervalo.
    2. Las observaciones deben hacerse en poblaciones distribuidas normalmente.
    3. Estas poblaciones deben tener la misma varianza (o en casos especiales deben tener una proporción de varianzas conocidas).

    Y para el caso del Análisis de Varianza:

    4) Las medias de estas poblaciones normales y homocedásticas deberán ser combinaciones lineales de efectos debidos a las columnas y a las filas o a ambos, o sea, deben ser aditivos (Siegel y Castellán, 1995).

    En muchas situaciones prácticas no se dispone de muestras suficientemente grandes como para no tomar en cuenta el comportamiento de las poblaciones de origen, o simplemente su distribución no es Normal o no se conoce (López y Romero, 1986).

    Mood y Graybill (1972) afirman que al aplicar métodos estadísticos resulta necesario conocer, al menos aproximadamente, la forma general de la distribución que siguen los datos que se estudian y que si esta es Normal, se podrá usar directamente los métodos paramétricos, pero en caso contrario, se deberá transformar los datos de modo que las observaciones transformadas sigan la distribución Normal, y que cuando se desconozca la forma de la distribución se deberá usar métodos más generales, llamados de distribución libre o no paramétricos.

    Para Peña (1994) y Torres et al (citado por de Calzadilla, 1999), la falta de normalidad puede afectar a la homogeneidad de varianzas, sobre todo cuando existe mucha diferencia en el número de observaciones. Por otra parte Martín (citado por de Cazadilla,1999), señala que la heterogeneidad de varianzas viene acompañada de variables no normales, por lo que ante esta situación recomienda aplicar transformaciones y expresa que en tales circunstancias la misma transformación que estabiliza las varianzas suele normalizar la respuesta. Peña (1994) ha sugerido que antes de transformar los datos se debe estudiar gráficamente la distribución de los residuos y si la misma resulta muy asimétrica, entonces conviene la transformación, lo cual resulta una opción antes de proceder a la misma.

    Por su parte, de Calzadilla (1999) valora la posibilidad del uso de las transformaciones de variables, señalando que no siempre resuelven el cumplimiento de los supuestos teóricos de los modelos paramétricos y en ocasiones empeoran el comportamiento de la información, por lo cual esto debe ser motivo de análisis más profundo por parte de los especialistas. Este criterio se considera el adecuado, pues en la práctica se observa un uso indiscriminado de las transformaciones (fundamentalmente en el caso de los porcientos) sin la correspondiente verificación posterior de su eficacia para el logro de los supuestos deseados.

    Ostle (1981) señala que como el analista no tiene siempre certeza de la validez de tales suposiciones y/o como no todas las técnicas estadísticas son inmunes (esto es, no sensibles a la divergencia de tales suposiciones), la mayor parte del trabajo realizado en los años recientes ha sido con el objetivo de obtener procedimientos que estén libres de esas restricciones.

    Los llamados métodos de distribución libre, poseen también ciertas suposiciones que deben ser satisfechas para su aplicación, pero estas resultan más generales, a saber, según señala de Calzadilla (1999):

    1. Que las muestras que se tomen sean aleatorias.
    2. Escala al menos ordinal.
    3. Que la función de distribución en estudio sea desconocida.

    Según de Calzadilla (1999) en general los métodos paramétricos realizan operaciones aritméticas de los valores muestrales, por lo cual los mismos requieren que los datos estén medidos por lo menos en escala de intervalo, mientras que los de distribución libre, en su mayoría se fijan en el orden o rango de los valores, no en sí en sus valores numéricos, lo cual ha influido en que se establezcan diferencias en los estadísticos a usar en ambos procedimientos de acuerdo a las posibilidades que brinda cada escala de medida y a que se tengan más en cuenta los métodos de distribución libre por ser frecuente el estudio de variables medidas en escalas nominales u ordinales.

    Por su parte Guerra et al (1999) expresa que muchos procedimientos aplicables a dos muestras son basados en estadísticos de rango orden para la combinación de muestras y que estas estadísticas pueden aportar información sobre la posible diferencia entre poblaciones.

    2.4 Algunas distribuciones de probabilidad de interés práctico.

    En Conferencia desarrollada en la UNACH (Universidad Autónoma de Chapingo en México,1995) se plantea que la Estadística está encaminada básicamente a determinar cual es la función de distribución más adecuada para representar un fenómeno aleatorio y comparar las distribuciones para algunas variantes del fenómeno. Añade que la estadística puede asumir determinada distribución para un conjunto de datos, por lo cual solo deben determinar los parámetros para la total especificación de la función, lo cual es denominado estadística paramétrica pero que también se pueden estudiar y comparar algunas características de la función de distribución aunque no se conozca totalmente, mediante la estadística no paramétrica.

    La función de distribución más importante en los estudios de la Estadística ha sido la Normal, la cual ha servido de referencia para las investigaciones, tanto de carácter teórico como práctico.

    Para estas distribuciones, la media aritmética brinda una buena estimación del centro de un conjunto de datos, dadas las características de esta distribución.

    Pero cuando la "mística de la Normal" fue desapareciendo, comenzó a ponerse en duda, la utilidad de la media aritmética y la varianza, por decrecer sustancialmente su utilidad, se populariza el uso de la mediana y otros cuantiles, así como las medidas de dispersión basadas en ellas, útiles en todos los casos independientemente de la forma de la distribución (López y Romero, 1986).

    En distribuciones simétricas la mediana es una estimación de m , pero es utilizada de forma especial cuando existe asimetría, por el hecho de que ella no es afectada por los valores extremos y brinda una estimación más veraz del centro de los datos. Esto será analizado con más detalle posteriormente.

    Por tanto si las distribuciones son no normales, la media no resulta un estimador adecuado de µ, en particular si la distribución es Uniforme con iguales frecuencias en cada intervalo. En este caso el centro/recorrido como estimador de la media poblacional posee mejores condiciones (Dixon y Massey, 1976).

    Para muestras pequeñas suele utilizarse el recorrido o amplitud como medida de dispersión. Para un número grande de observaciones la estimación del percentil (P 93 – P 07 ) se usa a veces como estimación de la dispersión.

    Según Calero (1977) el tipo de descripción que se escoja, o la técnica estadística que se emplee, tendrá que depender parcialmente de la naturaleza de los datos. Por presentarse con frecuencia en los estudios biológicos en general y poseer diferentes características funcionales y de interés práctico para ser estudiadas, se analizarán aspectos generales de las distribuciones Normal, Lognormal, Cauchy, Uniforme y Doble exponencial.

    2.4.1 Distribución Normal o de Gauss.

    Es conocida la importancia de la distribución Normal, por su utilidad en la descripción y análisis de una gran diversidad de fenómenos biológicos, agronómicos, zootécnicos, etc, debido a sus propiedades matemáticas útiles y fáciles de manejar, a las posibilidades de aproximaciones de distribuciones muestrales y a la posibilidad de que distribuciones no normales puedan a veces reducirse a una forma aproximada a la Normal por medio de cambios de variable o tamaños de muestras grandes.

    Esta distribución fue introducida por C.B. Gauss en relación con la teoría de los errores de medidas físicas (Guerrra et al,1998 ). Varios matemáticos contribuyeron a su formulación, entre ellos están además Abraham De Moivre (1667 1754), Pierre S. Laplace (1749 1827) y Carl Gauss (1777 1875). De Moivre fue el primero en desarrollar la distribución Normal y fue publicado por Karl Gauss, por lo cual se conoce como distribución gaussiana (Yamane,1970 y López y Romero, 1986)

    La importancia de la distribución Normal deriva de que un gran número de poblaciones de las que tienen que estudiarse en las aplicaciones de las ciencias naturales y sociales se distribuyen con arreglo a esta ley y, sobre todo del hecho de que también se ajustan a ella los errores experimentales, debidos al azar, en ciertas condiciones más o menos sencillas. Resulta de esto que las constantes biométricas o estadísticas, obtenidas con las observaciones de una muestra de la población, presentan, en gran número de casos, una distribución Normal (de la Loma,1985).

    Según López y Romero (1986), al formularse la distribución Normal, se consideraba que todas las variables debían seguir la misma y que cuando no sucedía era por no contar con el tamaño de muestra requerido, pero después se detectó que podía suceder que al incrementar n, la asimetría inicial se acentuara. Aquí es interesante considerar la posibilidad de la distribución Lognormal.

    Para la distribución Normal se cumple la coincidencia entre los valores de la media, moda y mediana. No obstante, el mejor estimador del valor central en este caso resulta ser la media muestral.

    En la práctica una gran cantidad de variables tiene un comportamiento Normal, pero existen algunas que por la unidad de medida que utilizan o por los valores que toma, no cumplen esta condición. Por otra parte otras variables no tienen un comportamiento Normal, incluso después de un cambio de variable, como puede suceder con los datos medidos en forma de porciento. Por tanto, en este sentido es recomendable verificar la normalidad del conjunto de datos aún después de realizarse un cambio de variable o transformación y determinar la distribución que representa su comportamiento.

    La teoría cuya base es el Teorema Central del Límite, permite que puedan hacerse determinadas transformaciones de las variables aleatorias que siguen distribuciones no normales, alrededor de la Normal, obteniéndose distribuciones relacionadas con ella y que son de gran aplicabilidad en diversos campos, entre ellos las Ciencias Biológicas.

    Una forma de obtener estas distribuciones relacionadas con la Normal, es a través de la generalización del llamado "esquema de errores elementales" (Arley y Buch,1968), procedimiento que da origen a la distribución Logarítmico-normal o Lognormal, deducidas por Kapteyn (Cabrera,1997)

    2.4.2 Distribución Log-normal.

    También es conocida como Ley de Galton-Mac. Aliester o ley del efecto proporcional, según Calot (1988).

    Una magnitud aleatoria x tiene distribución Logarítmica normal de parámetro a y s 2 si:

    exp{ – } x>0

    f(x)=

    0 x £ 0

    o sea , una variable aleatoria x sigue una distribución Log-normal sí y solo si, su

    logaritmo sigue una distribución Normal (Parzen, 1972; Borovkov,1988; Calot,1988). Se afirma por Cabrera (1998), que es preferible considerar el logaritmo neperiano (opinión que se comparte, dadas las características de la distribución Normal) y caracterizar una ley Lognormal por los parámetros de la distribución Normal (m ,s 2). En resumen, un conjunto sigue una distribución Lognormal de parametros m y s 2 sí, y solo sí, ln x ~ N ( m , s 2 ).

    Aquí se tiene que m resulta ser el logaritmo de la media geométrica del conjunto de datos.

    Su gráfico según varios autores, entre ellos Koroliuk(1981) se refleja en la figura No.1:

    Figura No 1: Distribución Lognormal.

    Esta función como puede observarse en su gráfico, es asimétrica a la derecha, leptokúrtica y unimodal (Kendall y Stuart,1969), y su valor máximo lo alcanza precisamente en la moda.

    La moda en este caso es M o= m – s 2 , la mediana es M e = еm y M= е m +s 2 / 2

    Puede comprobarse que la mediana está comprendida entre la moda y la media y más cerca de la media que la moda, en particular, puede comprobarse que la mediana está casi dos veces más cerca de la media que de la moda.

    Esta distribución es característica de conjuntos de datos donde existe mayor frecuencia de valores pequeños, por lo cual la media se desplaza hacia la derecha y esto hace que el mejor estadígrafo de posición sea la moda y no la media aritmética (Conferencia UNACH, 1995). Esta consideración se valora, pero no se comparte en lo referente a la valoración del centro de los datos por considerarse que el mismo puede hallarse con más exactitud en el valor de la mediana, la cual se conoce no es influida por valores extremos, lo cual no ocurre con la moda. También se considera que otra medida de posición válida para esta distribución es la media geométrica (Peña, 1994).

    Parkin y Robinson (1993) consideran que cuando la mediana es el estadístico más adecuado, esta debe estimarse de los datos originales y el estimador óptimo no es la única consideración pues pueden calcularse además los intervalos confidenciales. Estos autores realizaron un estudio de cuatro estimadores de la mediana poblacional, evaluando: la media geométrica muestral, la media geométrica de sesgo corregido, la mediana muestral y el estimador uniformemente insesgado de varianza mínima de la mediana. Para ello se hicieron 25000 simulaciones de variables que distribuyen Lognormal utilizando el método de Montecarlo, resultando que al estimar la mediana poblacional por los cuatro métodos en cada simulación, los estimadores 2 y 4 son insesgados y de error cuadrático medio mínimo.

    Según Cabrera (1998), una condición para la validez de que una variable se distribuya Lognormal es que x sea la resultante de un número elevado de causas independientes con efectos positivos, que se componen de manera multiplicativa y cada una de estas causas tienen un efecto despreciable frente al global.

    De esta manera, según Calot (1988), la aditividad de los efectos que conduce a la distribución Normal, corresponde, en el caso de la ley Lognormal, a la proporcionalidad de los efectos, por lo cual a esta ley se le llama también ley del efecto proporcional.

    Muchos problemas ambientales complejos encarados por la sociedad requieren una cuantificación precisa de variables ambientales y de procesos, las cuales pueden exhibir distribución de frecuencias asimétrica que se pueden comportar aproximadamente como la distribución Lognormal ( Parkin y Robinson,1993).

    Según Cramer (1966), esta distribución suele aparecer aplicada en ciertas estadísticas biológicas, así como en estadísticas económicas. También es aplicable en el campo industrial, en el estudio de la resistencia, dureza, conductividad, etc. Calot (1988).

    Cabrera (1998) determinó que se podía introducir el uso de esta distribución en la caracterización de la variabilidad espacial de ciertas propiedades del suelo. No obstante existen otras variables que pueden utilizar este criterio de distribución en el campo de las Ciencias Biológicas. Hay que añadir que es de amplio uso en otras ciencias como la Física, la Geología Estadística y la Estadística Económica.

    2.4.3 Distribución de Cauchy.

    Una magnitud aleatoria x tiene distribución de Cauchy, s >0 si:

    f(x) =

    Los parámetros (a , s ), son los parámetros de desplazamiento y de escala respectivamente.

    Mood y Graybill (1972) plantean que tiene media en sentido restringido, pues como puede observarse, al calcular su valor esperado, la integral resultante no es convergente, por lo cual sus valores medios no existen realmente y para esta distribución tampoco posee desviación típica ni desviación media (Cramer,1966).

    El parámetro a es la moda y en algunos casos coincide con la mediana.

    Su gráfico según varios autores, entre ellos Koroliuk(1981) se refleja en la figura:

    Figura No. 2 Distribución de Cauchy.

    Como se observa es una distribución simétrica y unimodal. Es muy semejante al gráfico de la distribución N(m ,s 2), pero tiene "colas mucho más gruesas", o sea, un decrecimiento más lento cuando | x | ® ¥ (Borovkov, 1988)

    La mediana y el rango intercuartílico son medidas de posición y escala que pueden representar a esta distribución (Parzen, 1972):

    Me= a

    D.J.Finney (1964) hace referencia a un estudio de análisis estadístico de respuesta en psicometría realizada por Urbau (1909,1910), donde propuso la función f(θ) =

    como una alternativa de la distribución Normal.

     2.4.4 Distribución Uniforme.

    Una magnitud aleatoria x tiene la distribución Uniforme en el intervalo [a,b], (a<b), si x e [a,b]

    f(x)=

    1. x Ï [a,b]

     Kendall y Stuart (1969) plantean que cualquier distribución continua puede ser transformada a una forma rectangular o uniforme, en la cual los valores están en el intervalo [ a,b] con igual frecuencia. Añade que la estimación de la media en este caso es

    t = (X1 + Xn)/2, o sea el centro recorrido.

    Sus momentos de primer y segundo orden (estadígrafos de posición y dispersión) son:

    m = ( Centro recorrido)

    s 2 =

    Figura No. 3 .Distribución Uniforme.

     Su gráfico según varios autores, entre ellos Koroliuk(1981) se refleja en la figura No 3.

    La distribución Uniforme sobre [ 0,1] es un caso particular de la distribución b .

    Es de amplia aplicación en la simulación estadística (los métodos de Montecarlo) y además el error originado por el redondeo de un número se describe satisfactoriamente mediante una distribución uniforme en el intervalo [ ] (Koroliuk,1981)

    2.4.5 Distribución Doble Exponencial o de Laplace.

    La distribución Doble Exponencial o de Laplace de una variable x, tiene como parámetro al valor σ > 0 y su comportamiento, según Koroliuk (1981), se expresa a través de la función:

    σе- σx x>0

    F(x) =

    1. x<0

     Fig No.4. Distribución Doble Exponencial

     Su mejor estimador de tendencia central resulta ser el rango medio (m) y la varianza del mismo es p 2/12, o sea no tiende a cero cuando n ® ¥ , por lo que m no converge en probabilidad al valor esperado l (Kendall y Stuart, 1969).

    Su gráfico según varios autores, entre ellos Koroliuk(1981) se refleja en la figura No 4.

    Como se observa es una función simétrica y los valores de Me = Mo = a

    Tiene la propiedad de la ausencia del efecto posterior, o sea:

    P{ x > t+s/x > s} = P{ x > t ]

    Por lo cual se considera la distribución principal en la teoría de los procesos a saltos de Márkov.

    Para ver el gráfico seleccione la opción "Descargar" del menú superior

    Figura No. 4 Distribución Doble Exponencial o de Laplace.

    2.6 Criterios de Eficiencia, Potencia y Robustez en Dócimas de Hipótesis.

    Al igual que en el caso de la estimación, resulta importante encontrar pruebas o dócimas de hipótesis con las mejores propiedades para un problema dado.

    Johnson (1990) plantea que la elección de una prueba o dócima de hipótesis no puede apoyarse únicamente en su poder y eficiencia sino además en los datos que se manejan y por ello, cuando debe llegarse a una decisión al respecto hay que considerar tres factores:

    1. El poder de la prueba.
    2. La eficiencia de la prueba.
    3. El tipo de datos y el número disponible.

    Esto tiene que ver con que la aplicación de un método estadístico también está en función de las características de la escala de medida, según las operaciones que en la misma se admiten (lo cual ya se valoró en 2.3) así como con la distribución de los datos que se analizan.

    No obstante en una gran cantidad de la información que se selecciona, no es fácil especificar la distribución original, por lo cual se necesitan estadísticos de distribución libre o de distribución libre, los cuales no dependen de una distribución específica. Estos estadísticos pueden ser sensibles a cambios en localización, dispersión o en ambos (Steel y Torrie, 1988)

    Eficiencia.

    A medida que son menores o más débiles las suposiciones de un modelo particular, son más generales las conclusiones derivadas al aplicar la prueba estadística asociada con él, siendo esta menos poderosa. Esto se cumple generalmente para cualquier tamaño de muestra, pero no se sostiene al comparar dos pruebas estadísticas que se aplican a dos muestras de tamaño desigual. Esto es, si n=30 en ambos casos la prueba A puede ser más poderosa que la B. Pero la misma prueba B puede ser más poderosa con n=30 que la prueba A con n=20. En otras palabras, se puede evitar el dilema de la elección entre potencia y generalidad seleccionando una prueba estadística de generalidad amplia que incrementará su fuerza hasta la de la prueba más poderosa disponible al aumentar el tamaño de la muestra (Siegel y Castellán, 1995).

    Kendall y Stuart (1973) señalan que la definición de prueba eficiente se obtiene de la misma forma que estimación eficiente, y continúan señalando estos autores que:

    Si un test T1 eficiente, esto es, el más potente en la clase considerada de tamaño a , requiere estar basado en n1 observaciones atendiendo a cierta potencia, y si un segundo test T2 de tamaño a requiere n2 observaciones atendiendo a la misma potencia, contra la misma alternativa, se señala como la Eficiencia Relativa de T2 con respecto a T1 como:

    ER(T1,T2) = n1 / n2 , para la misma Ho, H1 y a

    Si

    • n1 / n2 > 1 se puede decir que el test 1 es menos eficiente que el 2, en la

    magnitud dada.

    • n1 / n2 < 1 se puede decir que el test 1 es más eficiente que el 2, en la magnitud dada.
    • n1 / n2 = 1 ambos test son igualmente eficientes.

    Este resulta ser un razonamiento lógico pues se asemeja a lo visto para el caso de los estadígrafos de tendencia central y de dispersión en secciones anteriores, haciendo referencia a la Eficiencia Relativa de los mismos. Posteriormente se podrá notar que la obtención de esta eficiencia para los diferentes tests posee también esta base.

    Daniel (1978) señala que se prefieren tests que requieren pequeños tamaños de muestras bajo las mismas condiciones, ya que tamaños de muestras pequeños generalmente reducen los costos, tiempo y otros recursos, lo cual es una necesidad en diferentes ramas de la ciencia.

    En la valoración entre los procedimientos paramétricos y de distribución libre, uno de los aspectos más importantes a analizar es el de la eficiencia en la selección de una prueba estadística de generalidad amplia con respecto a la prueba más poderosa disponible.

    Según confirman los autores Siegel (1970), Dixon y Massey (1976), Siegel y Castellán (1995) y la presencia de normalidad es de mucha importancia para que los estadígrafos de prueba paramétricos resulten ser los más adecuados por cumplir con propiedades deseables, como la potencia y la robustez .

    Steel y Torrie (1988) consideran, que la eficiencia de los procedimientos de distribución libre es bastante alta para muestras pequeñas, por ejemplo, para

    n< 10 y que decrece a medida que crece n.

    Potencia.

    En las dócimas de hipótesis, como es conocido, existe el peligro de cometer dos tipos de error.

    Error de tipo I Rechazar Ho siendo verdadera

    Error de tipo II Aceptar Ho siendo falsa.

    con probabilidad

    P(error tipo I) £ a

    P(error tipo II)£ b

    Es deseable lograr equilibrio entre ellos, por cuanto una prueba estadística se considera adecuada si es pequeña la probabilidad de rechazar Ho siendo verdadera (a ) y grande la probabilidad de rechazar Ho siendo falsa (1-b ). Este equilibrio se comporta de manera diferente para las diversas pruebas estadísticas. Para ello es importante valorar el concepto de potencia.

    Según Siegel (1970), la potencia de una prueba es la probabilidad de rechazar Ho cuando es realmente falsa. Esto es,

    Potencia = 1- P( error tipo II) = 1-b

    Según el propio autor, la probabilidad de cometer un error tipo II disminuye a medida que el tamaño de la muestra se incrementa, de modo que la potencia aumenta al crecer el tamaño de muestra n.

    En resumen la potencia:

    1)Mide la probabilidad de rechazar acertadamente la hipótesis de nulidad es decir, cuando esta es falsa.

    2)Está relacionada con la naturaleza de la prueba estadística elegida.

    3)En términos generales se incrementa al aumentar n.

    Por otra parte, el propio autor afirma que el poder de las pruebas es mayor cuando las suposiciones para su aplicación son más fuertes y amplias. Este es el caso de las pruebas t y F, que son las más fuertes cuando dichas suposiciones son verdaderas, o sea, que serán más poderosas para rechazar la hipótesis nula cuando es falsa.

    Al incumplirse alguno de estos supuestos, resulta difícil poder medir la potencia de la prueba y su resultado.

    Algunos autores manifiestan que "pequeñas desviaciones" de estos supuestos no afectan demasiado los resultados, pero esto es algo aún más difícil de valorar.

    Kendall y Stuart (1969) añaden que no es posible esperar que una prueba no paramétrica aplicada al caso de una distribución desconocida sea tan eficiente como una prueba seleccionada con el conocimiento de este elemento. De este modo también podemos seleccionar la prueba estadística a aplicar con el conocimiento de sacrificar una pequeña cantidad de eficiencia y el autor valora como necesario evaluar la pérdida de eficiencia en que se incurra al usar cualquier otra prueba en lugar de la óptima aunque a veces esta diferencia en cuanto a la eficiencia no es notable.

    Potencia Eficiencia.

    El concepto de potencia-eficiencia es una expresión del incremento en el tamaño de la muestra necesario para hacer la prueba B tan poderosa como la A, donde A es la prueba más poderosa en su tipo, de las conocidas (Siegel,1970)

    La potencia-eficiencia de una prueba B respecto a otra prueba A se define como:

    Potencia-eficiencia de la prueba B=(100) nA / nB por ciento.

    Por ejemplo, si la prueba B tiene como muestra n=25 casos para tener la misma potencia que tiene la prueba A con n=20 casos, la prueba B tiene una potencia-eficiencia del 100(20/25)%, es decir, del 80%. Una potencia-eficiencia del 80% considera, al relacionar en forma de ecuación la potencia de las pruebas A y B (cuando todas las condiciones se reúnen en ambas y cuando A es más poderosa), que son necesarios 10 casos de B por cada 8 casos de A.

    De esta manera, basados en este concepto, se puede utilizar una prueba B menos poderosa (o con suposiciones más leves) que otra A, incrementando n.

    Sobre los criterios de potencia-eficiencia en los tests de distribución libre, comparados con los paramétricos.

    Daniel (1978) y Siegel y Castellan (1995) señalan que la potencia es uno de los aspectos para evaluar las posibilidades de un test, y en el caso de los de distribución libre se utiliza el criterio de eficiencia, que resulta una propiedad apreciable de un test.

    Gibbons (1978) señala que la potencia-eficiencia, generalmente es difícil de calcular por los elementos que involucra (Ho, H1, a , n) pudiéndose evitar en algunos casos, con el cálculo de un tipo de límite potencia-eficiencia.

    Guerra et al (1999) resume los siguientes aspectos:

    -Si se cumplen los supuestos de las pruebas paramétricas, estas son siempre más eficientes que las de distribución libre.

    -Cuando las muestras son pequeñas, aún cuando se cumplen los supuestos, las pruebas de distribución libre son poco menos eficientes que las paramétricas.

    -Cuando las muestras son muy grandes, aún no cumpliéndose los supuestos, las pruebas paramétricas son poderosas.

    -Cuando las muestras son grandes, y se cumplen los supuestos, la eficiencia relativa de las pruebas de distribución libre disminuye notablemente.

    Robustez.

    Según López y Romero (1986), un procedimiento estadístico es "robusto" si es insensible a desviaciones de sus supuestos. Añaden que con el fin de estudiar el comportamiento de las diferentes pruebas, resulta importante conocer el comportamiento de la robustez de las mismas cuando existen desviaciones de la distribución Normal. Según, Govindarajulu y Leslie (1972) entre otros autores, han elaborado una bibliografía comentada sobre estudios de la robustez de los procedimientos estadísticos, concluyendo que para un mismo procedimiento se llegan a resultados diferentes al considerarse estas desviaciones.

    Otros trabajos citados por estos autores son el de Boneau (1960), que realizó un estudio de la robustez de las pruebas t mediante el método de Monte Carlo concluyendo que para un número grande de situaciones el uso de dichas pruebas son altamente confiables aún cuando los supuestos de homocedasticidad y normalidad de las poblaciones subyacentes no se cumplen.

    Los autores antes mencionados se refieren a varios trabajos relacionados con la robustez o no de un test y resumen en la tabla No.2.6.1 criterios sobre el uso de tests paramétricos y de distribución libre.

     Tabla No.2.6.1 Aplicación de pruebas de hipótesis según tamaño de muestra y cumplimiento de supuestos.

    Tamaño de las muestras

    Cumplimiento de los supuestos

    Se cumplen

    Se duda

    No se cumple

    Pequeño

    Paramétrica

    No paramétrica

    No paramétrica

    Grande

    Paramétrica

    Realizar análisis más profundo

    No paramétrica

    Los criterios expresados en esta tabla se consideran adecuados. En el caso de tamaños de muestra pequeños resulta muy frecuente que no exista normalidad en los datos, por lo cual no siempre se cumplen los requisitos para la aplicación de pruebas paramétricas y en consecuencia pueden no resultar confiables los resultados. Cuando las muestras son grandes hay posibilidades de que los datos se distribuyan Normal, por lo cual puede valorarse más el uso de estos métodos.

    En opinión de Kendall y Stuart (1973), cuando las muestras son pequeñas las pruebas paramétricas son menos robustas en cuanto a la asimetría y la curtosis.

    Donaldson (1968) por su parte estudió la prueba F y su insensibilidad respecto al no cumplimiento de los supuestos de normalidad y homocedasticidad, demostrando que para dos poblaciones con distribuciones no normales con varianzas iguales, la dócima es bastante insensible para tamaños de muestra moderados e iguales (n=32), pero que para muestras más pequeñas (n<32) la dócima puede tener dificultades con el error de tipo II.

    2.7 Eficiencia Asintótica Relativa (ARE).

    El indicador más frecuentemente utilizado para medir la eficiencia de un test no paramétrico es el ARE (siglas en inglés de la Eficiencia Asintótica Relativa). Esta eficiencia es una propiedad deseable de estas pruebas.

    Diversos autores, entre ellos Fraser (1957), Bradley (1968), Behnen (1971), Gibbons (1971), Kumar y Ghosh (1971), Mood y Graybill (1972), Kendall y Stuart (1973) y Daniel (1978) proponen que para obtener una medida asintótica útil para la Eficiencia Relativa, se debe considerar el límite de esta respecto a una secuencia de hipótesis alternativas tal que H1® Ho cuando n® ¥ , siendo propuesta esta alternativa por Pitman (1948) y generalizado su trabajo por Noether (1955), por lo cual también se conoce como eficiencia de Pitman. Según Daniel (1978), resulta en muchas situaciones una buena aproximación de la eficiencia relativa.

    Otros tipos de procesos límites en eficiencia relativa han sido propuestos por Dixon (1953) y Hodges y Lehmann (1956), citado por Guerra et al (1998).

    Un grupo de aspectos relacionados con la Eficiencia Asintótica Relativa dados por los autores antes mencionados, son resumidos a partir de los aspectos abordados por Fraser (1957) y Gibbons (1971).

    Estos autores expresan que las bases teóricas para el cálculo del ARE se resumen en un grupo de teoremas debidos a Pitman (1948), Noether (1955) y otros, algunos de cuyos resultados se resumen a continuación:

    1) Si TN y TN* son dos secuencias de pruebas estadísticas, todas con el mismo nivel de significación a , siendo í ni ý y í ni*ý dos secuencias monótonas crecientes de enteros positivos, bajo ciertas condiciones el ARE de la prueba T relativo a la prueba T* es

    ARE (T,T* )= , si este límite existe y es constante para toda la secuencia í ni ý y í ni*ý .

    1. Si existe y es diferente de cero para q =q 0 y es continua en q .
    2. = C
    3. Existe una secuencia de alternativas í

    ý tal que para alguna constante d>0, se tiene:

    q n = q 0 +

    = 1 y

    = 1

    5)

    donde f (z) es la función de distribución normal estándar.

    6)Bajo las condiciones 2 a la 5, el límite de la potencia de la prueba Tn es:

     Pw (Tn / q =q n) = 1 – f (za – dc)

    donde za es el número para el cual 1 – f (za ) = a

    7) Si Tn y Tn* son dos pruebas que satisfacen las condiciones 2 a la 5, el ARE de T relativo a T* es

     ARE(T,T*) = ó

     ARE(T,T*)=

    Como se puede observar en esta última expresión, se puede establecer que cuando se cumplen las condiciones 3 a la 5, el ARE se puede interpretar como el límite cuando n® ¥ del cociente de las cantidades:

     ARE(T,T*) = donde e(Tn) es llamado la eficiencia de la prueba estadística Tn cuando se usa la prueba de hipótesis q =q 0 y

    e(T n ) =

    8) Lo planteado en el inciso anterior continúa siendo válido si ambas pruebas son bilaterales. Además este resultado es independiente de los valores de a .

    Este valor es una aproximación de la eficiencia para cualquier tamaño de muestra finito y/o alternativa que no están en la vecindad del caso nulo.

    En el caso de dos muestras donde la hipótesis nula es de igual distribución si la hipótesis puede ser parametrizada en términos de q , los resultados anteriores pueden ser usados para pruebas unilaterales y bilaterales y el proceso límite puede ser restringido asumiendo a m y n aproximadamente infinito, = l como una constante.

    Datta et al (1999) valoraron el ARE como el radio de la varianza de un diseño comparado con otro.

    Como la eficiencia relativa involucra a la distribución que siguen los datos que se procesan resulta de interés conocer el comportamiento del ARE entre los diferentes métodos bajo el supuesto de diferentes distribuciones.

    Guerra et.al.(1998) recoge los resultados del ARE entre diferentes métodos y bajo el cumplimiento de diferentes distribuciones, las cuales aparecen en las tablas 2.7.1 y tabla 2.7.2 .

    Analizando las tablas No.2.7.1 y No.2.7.2 se observa que existe mucha relación entre el test y la distribución de la población, por cuanto el ARE varía y generalmente de forma notable para el mismo test pero diferentes distribuciones.

    De la tabla No. 2.7.1 se puede observar que está calculado el valor del ARE entre pruebas de distribución libre y sus homólogas paramétricas bajo distribución Normal, siendo interesante la posibilidad de conocer estos valores entre pruebas de distribución libre y bajo el supuesto de otras distribuciones.

    Varios autores, entre ellos Siegel (1970), Bradley (1968), Daniel(1978) y Gibbons (1971) plantean el comportamiento de diferentes dócimas no paramétricas respecto a sus homólogas paramétricas con las distribuciones Doble exponencial o de Laplace y Uniforme, las cuales se expresan en la tabla 2.7.2 .

    Debe añadirse que, según se observa, en algunos casos no está calculado el valor del ARE para algunas distribuciones (Cauchy, Lognormal), así como no son analizadas las pruebas de rango signado de Wilcoxon, Kolmogorov Smirnov y Mediana para la distribución Doble exponencial .

    En el test de Man-Whitney el ARE respecto a t de Student nunca es menos que 86.4% y muchos estadísticos consideran a este test (o equivalentemente de Wilcoxon) como el mejor test de distribución libre de localización.

    Se señala por Bradley (1968) que la Eficiencia Relativa de un test de libre distribución con respecto a uno clásico es generalmente mayor cuando los tamaños de muestra son pequeños, disminuyendo con el incremento del tamaño de muestra hacia una valor límite que es el ARE, lo que reafirma las posibilidades de estos tests para muestras pequeñas, sobre los tests paramétricos clásicos.

    Tabla No.2.7.1. Cálculo del ARE para algunos tests para la distribución Normal.

    Signos

    Wilcoxon

    Mediana

    Mann

    Whitney

    Terry Hoeffdin

    Van Der Waerden

    T

    63.7%

    95.5%

    63.7%

    86.4%-95.5%

    100%

    100%

     Tabla No.2.7.2. Cálculo del ARE para algunos tests para otras distribuciones.

    Distribución

    Test no

    Paramétrico

    Uniforme

    Doble

    Exponen-

    cial

    Valores de ARE

    Inferior

    Superior

    Signo

    33.3%

    200%

    Mann-Whitney

    100%

    150%

    Suma de rangos de Wilcoxon

    100%

    86.4%

    100%

    Mediana

    33.3%

    Guerra et al(1999) expresa que se pueden realizar los siguientes comentarios de acuerdo a lo señalado por Gibbons (1971) y Daniel (1978):

    -Los tests de Kolmogorov-Smirnov son más potentes que los tests de rachas cuando se comparan para muestras grandes.

    -Los tests de Wilcoxon, Kolmogorov-Smirnov y de rachas anteriormente no se les aprecia particularmente sensibles a las diferencias en localización cuando las poblaciones son idénticas, en otras palabras, descritos por la situación o relación Fy(x)= Fx (x – q ).

    -Los tests de dos muestras general, semejantes al test de rachas de Wald-Wolfowitz o tests de Kolmogorov-Smirnov, son afectados por cualquier tipo de diferencia en las poblaciones y por lo tanto no pueden considerarse eficientes para detectar diferencias en variabilidad.

    -Muchos tests basados en los rangos de las observaciones en una combinación ordenada de dos muestras, han sido propuestos para el problema de escala. Los tests de rango lineal particularmente sensibles a diferencias de escala solamente y básicamente los tests mejor conocidos son los de Mood, Freund-Ansori-Bradley-David-Barton.

    Se centrará la atención fundamentalmente en las dócimas de Wilcoxon, Signos, Mann Whitney y Kolmogorov Smirnov, o sea en los resultados que se muestran en la tabla 2.7.3:

    Tabla 2.7.3. Valores del ARE de las dócimas Signos. Wilcoxon, Mann Whitney y Kolmogorov Smirnov.

     

    Distribución

    Test no paramétrico

    Normal

    Uniforme

    Laplace

    Signos

    63.7%

    33.3%

    200%

    Wilcoxon

    95.5%

    100%

     

    MannWhitney

    95.5%

    100%

    150%

    Kolmogorov-Smirnov

    96%

     

     

    En trabajo realizado por Cristo,M; Guerra C.W.(2003), se determinó el valor de ARE para las dócimas de Wilcoxon con distribución Normal, Uniforme y Doble exponencial y para la de Mann Whitney con distribución Uniforme y Doble Exponencial, utilizando la metodología propuesta por Pitman (1948), la cual fue generalizada por Noether (1955) y posteriormente abordada por Fraser (1957) y Gibbons (1971), que se basa en la siguiente expresión:

    ARE ( T, T*) =

    Para ello se utilizó el valor esperado y la varianza de los estadísticos de prueba de dichas dócimas así como las características de las distribuciones analizadas.

    Sobre la dócima de Mann Whitney aparece desarrollado el análisis por Gibbons (1971) en el caso de la distribución Normal.

    La dócima de los Signos aparece analizada por Gibbons (1971) para las distribuciones Normal, Uniforme y Doble exponencial.

    En el cálculo de ARE entre las dócimas no paramétricas, se utilizó el método expuesto por Kendall y Stuart (1973) y Daniel (1978) que plantean que para hallar este valor entre dos pruebas, se debe hallar el cociente entre los valores de sus ARE respecto a otra prueba común, en este caso la dócima t. Las pruebas estadísticas analizadas por esta vía fueron las de Wilcoxon, Signos, Mann Whitney, Mediana, Terry Hoeffdin y Van Der Waerden de acuerdo a las tablas 2.7.1 y 2.7.2. Estos valores fueron completados por el método referido, según aparece en las tablas 3.1, 3.2, 3.3 y 3.4.

    De esta forma se determinaron los ARE entre las dócimas no paramétricas, en las pruebas para una y dos poblaciones en el caso de las distribuciones Normal, Uniforme y Doble Exponencial, teniendo como referencia los valores de ARE respecto a la prueba t correspondiente, reportados por la bibliografía consultada.

    Por otra parte en el desarrollo del trabajo se simularon 15 muestras para cada tamaño de muestra y para cada una de las distribuciones de Cauchy, Doble Exponencial, Lognormal, Normal y Uniforme. Los tamaños de muestra utilizados fueron 5, 20, 50 y 100. Para la simulación se utilizó el sistema SPSS versión 9.0.

    En el caso de las muestra independientes, las mismas se generaron una a una hasta obtener las 15 referidas, para cada tamaño de muestra y distribución.

    Las muestras pareadas fueron obtenidas generando una variable del tamaño y distribución deseado y 14 variables a partir de la primera, determinadas con el uso del EXCEL y considerando tres modelos diferentes.

    Primer modelo (Muestras con la misma media y dispersión):

    Y= X + e

    donde e representa un vector error que es aleatorio y presenta la misma distribución que se analiza pero con una varianza muy pequeña respecto a la considerada al simular la primera variable.

    Segundo modelo (Muestras con diferente media y con la misma dispersión):

    Y= X + b + e

    donde b es el valor esperado de la primera variable generada.

    Tercero modelo (Muestras con diferente media y diferente dispersión):

    Y= aX + b + e

    donde a es el valor de la varianza de la primera variable simulada.

    Después de conformadas las muestras se aplicó a cada una la prueba de las rachas para verificar la aleatoriedad y la prueba de Kolmogorov-Smirnov para determinar la bondad del ajuste de cada distribución.

    En el análisis comparativo se tuvo en cuenta la definición de prueba eficiente expresada en la revisión bibliográfica, que es:

    Si el test T1 es el más potente en la clase considerada de tamaño a con n1 observaciones atendiendo a cierta potencia y un segundo test T2 de tamaño a requiere n2 observaciones atendiendo a la misma potencia y contra la misma alternativa, la Eficiencia Relativa de T2 con respecto a T1 es

    ER(T1,T2)= n1 / n2 para la misma H0, H1, a y b .

    Se realiza la comparación entre las técnicas analizando la relación entre la probabilidad de tipo I resultante de la aplicación de las mismas y los valores de a 0.05 y 0.01, para tamaños de muestra iguales e hipótesis homólogas. Se valoraron los métodos estadísticos siguientes:

    Paramétricos No paramétricos.

    t de Student muestras pareadas Wilcoxon, Signos

    t de Student muestras independientes Mann Whitney, Kolmogorov Smirnov

    De acuerdo a lo expresado por Siegel y Castellán (1995) los criterios para analizar la significación están relacionados con el tamaño de la muestra, siendo los siguientes:

    n< 30 Significación Exacta

    30 £ n < 100 Significación de Montecarlo

    n ³ 100 Significación Asintótica.

    Todo el procesamiento estadístico comparativo descrito anteriormente, se desarrolló utilizando el sistema SPSS-PC versión 9.0.

    Uso de la metodología dada por Pitmann y de la propuesta por Daniel para el cálculo del ARE.

    De acuerdo a la bibliografía consultada, algunos resultados conocidos hasta ahora de ARE son los expresados en la tabla 2.7.1 y 2.7.2 del presente trabajo.

    Mediante la metodología dada por Pitmann (1948), se determinó por Cristo,M.;Guerra,C.W. (2003) el valor para la dócima de Wilcoxon de un grupo respecto a su homóloga t de student con distribución Doble exponencial, no encontrada en la bibliografía, y se determinaron los valores del ARE respecto a la dócima t de Student de las dócimas de Wilcoxon con distribución Normal, Uniforme y Doble exponencial y Mann Whitney con distribución Uniforme y Doble Exponencial, corroborándose los resultados reportados hasta ese momento.

    Los resultados anteriores, unidos a los expresados por Gibbons (1971), se muestran en las tablas 3.1 a 3.4, donde se incorporan los resultados del ARE entre dócimas no paramétricas, determinados mediante la aplicación de la metodología de Kendall y Stuart (1973) y Daniel (1978), ya expresado en materiales y métodos.

    Se confrontaron dificultades en el cálculo del ARE con la distribución de Cauchy por tener sus momentos indefinidos y con la Log-normal por la complejidad de su cálculo. Debido a esto el comportamiento de los métodos para estas distribuciones solo se analizaron a través de las variables simuladas con estas distribuciones.

    En lo referente a las dócimas de Signos y Wilcoxon para una población, los resultados se muestran en la tabla 3.1:

    Tabla 3.1. Valores de ARE entre dócimas no paramétricas y respecto a su

    homóloga paramétrica para una población.

    Signos

    Wilcoxon

    Normal

    Doble exponencial

    Uniforme

    Normal

    Doble exponencial

    Uniforme

    t

    63.7%

    200%

    33.3%

    95.5%

    150%

    100%

    Signos

    149.9%

    75%

    300.3%

    • Se corroboraron los valores de 3/p y 100% para la prueba de Wilcoxon de un grupo, con distribución Normal y Uniforme respectivamente. (Daniel, 1978)
    • Se determinó el valor para la dócima de Wilcoxon de un grupo con distribución Doble exponencial, obteniéndose el valor de 150%.

    Además podemos observar que:

    • La dócima de Wilcoxon en la distribución Uniforme es igualmente eficiente que la t.
    • La dócima de los Signos y Wilcoxon son ambas más eficientes que la t bajo el supuesto de distribución Doble exponencial.
    • La dócima de Signos reduce más la información y se manifiesta menos eficiente en la distribución Normal y Uniforme respecto a t. Es sin embargo más eficiente que la de Wilcoxon para la distribuciión Doble exponencial.

    De acuerdo a los resultados anteriores se puede plantear que en el caso de distribución Normal y Uniforme la dócima no paramétrica de una población más cercana a la t de Student, es la de Wilcoxon y por su parte en la distribución Doble exponencial resulta mejor la de Signos. Este resultado corrobora lo expresado en la bibliografía consultada.

    En cuanto a las dócimas de dos grupos en las medidas de localización, los resultados se reflejan en las tablas 3.2, 3.3 y 3.4.

    Tabla 3.2. Valores de ARE entre dócimas no paramétricas y respecto a su

    homóloga paramétrica entre dos poblaciones con distribución

    Doble exponencial .

    Para ver la tabla seleccione la opción "Descargar" del menú superior

    De la tabla se deduce que:

    • En general las dócimas no paramétricas son mucho más eficientes que la de t de Student o a la sumo iguales en esta distribución, en particular las dócimas de los Signos, Mediana, Wilcoxon y Mann Whitney y las dócimas anteriores son más eficiente que las de Terry Hoeffdin y Van Der Waerden respecto a t, lo cual concuerda con la bibliografía consultada.
    • La dócima de los Signos resulta igual de eficiente respecto a la de Mediana y más eficiente respecto a las demás.
    • La dócima de Wilcoxon resulta igual de eficiente respecto a la de Mann Whitney frente a sus homólogas paramétricas, lo cual coincide con lo expresado por Gibbons (1971), pero es menos eficiente que la de la Mediana y más eficiente respecto a las de Terry Hoeffdin y Van Der Waerden.
    • La dócima de la Mediana es más eficiente respecto a la de Mann Whitney, Terry Hoeffdin y Van Der Waerden.
    • Las dócimas de Terry Hoeffdin y Van Der Waerden son un poco menos eficientes respecto a la de Mann Whitney.
    • Las dócimas de Terry Hoeffdin y Van Der Waerden son igualmente eficientes entre sí.

    En resumen las dócimas de mejor eficiencia en esta distribución son la de los Signos y la Mediana y le siguen la de Wilcoxon y Mann Whitney.

    Respecto al comportamiento de estas pruebas cuando la distribución es la Normal, los resultados se reflejan en la tabla 3.3:

    Tabla 3.3. Valores de ARE entre dócimas no paramétricas y respecto a su

    homóloga paramétrica para dos poblaciones con distribución

    Normal.

    Para ver la tabla seleccione la opción "Descargar" del menú superior

    De los resultados de la tabla, podemos expresar que:

    • La distribución t es más eficiente que las dócimas de los Signos, Wilcoxon, Mediana,y Mann Whitney en esta distribución y las dócimas de Terry Hoeffdin y Van Der Waerden resultan tan eficientes en esta distribución como la t, tal como expresa la literatura consultada.
    • La dócima de los Signos y Mediana resultan igualmente eficientes aunque menos que la t.
    • La dócima de los Signos resulta de igual eficiencia respecto a la de la Mediana y menos eficiente respecto a las de Wilcoxon, Mann Whitney, Terry Hoeffdin y Van Der Waerden..
    • La dócima de Wilcoxon es superior respecto a la Mediana, semejante respecto a la de Mann Whitney y menos eficiente srespecto a Terry Hoeffdin y Van Der Waerden.
    • La de la Mediana es menos eficiente respecto a Mann Whitney, al igual que respecto a las de Terry Hoeffdin y Van Der Waerden.
    • Mann Whitney es menos eficiente respecto a Terry Hoeffdin y Van Der Waerden.
    • Las dócimas de Terry Hoeffdin y Van Der Waerden son igualmente eficientes entre sí.

    En resumen las dócimas no paramétricas de mejor comportamiento en la distribución Normal son las de Mann Whitney, Terry Hoeffdin y Van Der Waerden.

    En presencia de una distribución Uniforme, los valores de ARE entre las pruebas no paramétricas y respecto a la dócima t se analizan en la tabla 3.4:

    Tabla 3.4. Valores de ARE entre dócimas no paramétricas y respecto a su

    homóloga paramétrica para dos poblaciones con distribución

    Uniforme.

    Para ver la tabla seleccione la opción "Descargar" del menú superior

    • Aquí se ve ratificado el valor de 100% para Wilcoxon (dos grupos) con distribución Uniforme (Daniel, 1978).
    • Las dócimas de los Signos y Mediana son menos eficientes que la t de Student. Las dócimas de Wilcoxon, Mann Whitney, Terry Hoeffdin y Van Der Waerden tienen una eficiencia semejante a la t.
    • Signos es igualmente eficiente respecto a la Mediana y menos eficiente respecto a las demás dócimas.
    • La dócima de Wilcoxon es más eficiente respecto a la Mediana e igualmente eficiente respecto a Mann Whitney, Terry Hoeffdin y Van Der Waerden.
    • En el caso de la prueba de la Mediana respecto a Mann Whitney resulta menos eficiente al igual que respecto a Terry Hoeffdin y Van Der Waerden.
    • Mann Whitney por su parte se comporta de forma similar a las dócimas de Terry Hoeffdin y Van Der Waerden y estas últimas se comportan iguales entre sí.

    En resumen las dócimas que resultan más fuertes aquí son la de Wilcoxon y Mann Whitney.

    La simulación como herramienta de valoración de métodos estadísticos.

    Mediante la simulación en el trabajo de Cristo, M.; Guerra C.W. (2003), se generaron 15 muestras para cada tamaño de muestra y distribución. A continuación se aplicó la prueba de las rachas para verificar la aleatoriedad de las mismas, resultando que en todos los casos se cumplía esta condición. Posteriormente se aplicó a cada muestra la dócima de Kolmogorov Smirnov para una muestra, analizando la bondad de ajuste a cada distribución simulada. En este aspecto hubo algunas dificultades en la simulación de algunas muestras de distribución Uniforme para n=5 y n=20, así como en la distribución Lognormal para tamaños de muestra 20 y 100, estas últimas por un pequeño margen. Como consecuencia se repitieron estas simulaciones en estos casos para garantizar el cumplimiento de todos los supuestos del trabajo. Se simularon en general 1200 muestras.

    De acuerdo a los resultados obtenidos en la simulación de las muestras, hemos visto que la misma posee una calidad muy adecuada, ya que la aleatoriedad no se incumplió en ninguna de ellas y solo en un número escaso no se cumplió el requisito de bondad de ajuste previsto. Al mismo tiempo podemos señalar la eficacia de la dócima de Kolmogorov Smirnov para la bondad de ajuste ya que la misma detecta la falta de concordancia de cualquiera de estas distribuciones de una manera confiable, lo cual concuerda con lo expresado por Daniel (1978) acerca de que esta dócima es más poderosa que la de ji cuadrado, para cualquier tamaño de muestra.

    Determinación de índices de eficiencia entre pruebas no paramétricas y de estas respecto a las paramétricas.

    Con las 15 muestras generadas en cada tamaño de muestra y distribución y modelo, se conformaron 105 pares de muestras para cada combinación. Estos pares de muestras fueron sometidos a las diferentes dócimas de comparación mencionadas.

    Los resultados del análisis estadístico de los diferentes métodos para cada tamaño de muestra y distribución se presentan en las tablas que aparecen en los anexos 1.1 a 5.5 (muestras pareadas) y 6 a 10 (muestras independientes).

    Análisis de los resultados de estas tablas

    En resumen, los resultados que se obtienen del análisis de las coincidencias en la toma de decisión (aceptar Ho o rechazar Ho para cada prueba) son como sigue:

    Distribución Normal.

    Tabla 3.5.1. Porciento de coincidencia con la dócima t de Student.

    Para ver las tablas seleccione la opción "Descargar" del menú superior

    Distribución Normal. – Primer modelo – Segundo modelo – Tercer modelo

    Tabla 3.5.2. Porciento de valores de p £ 0.05. Distribución Normal.

    Primer modelo.- Segundo modelo – Tercer modelo

    De acuerdo a los resultados que aparecen de las tablas 3.5.1 y 3.5.2, respecto al comportamiento de las dócimas de Wilcoxon, Signos, Mann Whitney y Kolmogorov Smirnov en la distribución Normal, los resultados fueron los siguientes:

    Cuando el tamaño de muestra es 5, la prueba de Wilcoxon se comporta igual o mejor que la de los Signos para los modelos 1 y 3 y ligeramente inferior en el modelo 2, lo cual hace que se le considere más eficiente que la de los Signos. Esto concuerda con lo expresado por Siegel (1970). La dócima de los Signos posee un comportamiento inferior a la de Wilcoxon y t (98.09 % respecto a t). Este resultado también se corresponde con lo planteado por Gibbons(1971).

    Para muestras independientes resulta un poco mejor Kolmogorov-Smirnov, notándose que aquí esta prueba supera la eficiencia valorada por Siegel y Castellan (1995) de 96 % para grupos pequeños pero fortalece el criterio de que en este caso supera ligeramente a Mann-Whitney.

    Para n=20, la prueba de Wilcoxon supera a la prueba de los Signos para todos los modelos considerados. Se cumple lo planteado por Gibbons (1971) y Siegel y Castellan(1995) que expresan que Wilcoxon tiene una potencia eficiencia del 95% para n pequeña, superando a Signos.

    De acuerdo con estos resultados Mann-Whitney resulta la más adecuada. Estos resultados corroboran lo expresado por Siegel (1970) que plantea que cuando n crece, la potencia-eficiencia de Kolmogorov-Smirnov decrece y se incrementa la de Mann-Whitney.

    Si el tamaño de muestra es 50, la dócima de Wilcoxon prevalece sobre la de los Signos en todos los modelos analizados. Es de destacar que aún para este tamaño de muestra, Wilcoxon tenga un comportamiento semejante a la dócima t. Aquí se verifican los resultados planteados por Gibbons (1971) y Siegel y Castellan (1995), pues al crecer n el ARE de Wilcoxon aumenta hasta 95.5% y la de los Signos decrece.

    En este caso el mejor comportamiento en las dócimas para muestras independientes es el de la dócima de Mann-Whitney. Vemos como se cumple lo expresado por Siegel y Castellan (1995) pues al aumentar n, Mann-Whitney supera a Kolmogorov-Smirnov.

    Al considerar la muestra de tamaño 100 la situación es semejante, tanto para muestras pareadas como para muestras independientes Este resultado corrobora lo expresado por Siegel y Castellan (1995) y Gibbons (1971).

    En resumen las dócimas de mejor comportamiento en esta distribución son las de Wilcoxon y Mann Whitney, esta última con la única excepción de tamaño de muestra 5, ratificándose los resultados que aparecen en la bibliografía consultada.

    Distribución Uniforme.

    Tabla 3.5.3. Porciento de coincidencia con la dócima t de Student.

    Para ver las tablas seleccione la opción "Descargar" del menú superior

    Distribución Uniforme.- Primer modelo – Segundo modelo – Tercer modelo

    Tabla 3.5.4. . Porciento de valores de p £ 0.05. Distribución Uniforme.

    Primer modelo – Segundo modelo – Tercer modelo

    De acuerdo a los resultados que aparecen en las tablas 3.5.3 y 3.5.4, correspondientes a la distribución Uniforme, resultó que:

    Cuando n= 5, la situación es semejante a la distribución Normal pues la prueba de los Signos se comporta por debajo de la de Wilcoxon. Esto corrobora lo planteado por Gibbons (1971) y Siegel y Castellán (1995) y visto en la tabla 3.4.

    En este caso puede considerarse un poco más fuerte la dócima de Kolmogorov-Smirnov, ya que aunque el porciento de coincidencias es el mismo, posee un menor porciento de rechazos de Ho.

    Si consideramos a n=20, la dócima de Wilcoxon se iguala a la de los Signos en el segundo modelo y la supera en los modelos 1 y 3. Se mantiene el 0% de valores de p por debajo de 0.05 al aplicarel método de los Signos. Resalta el hecho de la coincidencia del 100% de los resultados de las dócima de Kolmogorov Smirnov y Mann-Whitney.

    Para n= 50, en muestras pareadas Wilcoxon supera a Signos en todos los modelos. Esto corrobora lo visto hasta ahora ya que la literatura consultada plantea que la distribución Uniforme tiene un valor del 33.3 % de eficiencia para la dócima de ,los Signos, inferior a la de Wilcoxon, aunque no se especifica tamaño de muestra. Por otra parte las dócimas para muestras independientes resultan iguales, lo cual es posible ya que Mann Whitney, según la bibliografía, tiende a aumentar su eficiencia al crecer n.

    No obstante considerando el tamaño de muestra 100, la prueba de Wilcoxon manifiesta de nuevo un mejor comportamiento que la de los Signos.y la dócima de Mann-Whitney también supera a la de Kolmogorov Smirnov.

    En resumen las dócimas que mejor comportamiento tuvieron en esta distribución fueron la de Wilcoxon y la de Mann Whitney, corroborando los resultados planteados en la bibliografía especializada.

    Distribución de Cauchy.

    Tabla 3.5.5. Porciento de coincidencia con la dócima t de Student.

    Para ver las tablas seleccione la opción "Descargar" del menú superior

    Distribución Cauchy. – Primer modelo – Segundo modelo – Tercer modelo

    Tabla 3.5.6. Porciento de valores de p £ 0.05. Distribución Cauchy..

    Primer modelo – Segundo modelo – Tercer modelo

    De acuerdo a los resultados que aparecen en las tablas 3.5.5 y 3.5.6, la distribución de Cauchy tiene el siguiente comportamiento:

    En esta distribución, considerando n=5 la dócima de Wilcoxon se comporta por debajo de la de los Signos en el primer modelo y se iguala a ella en el segundo y tercer modelos. Esto, fortalecido con el 0% de valores de p por debajo de 0.05 en los análisis, hablan a favor de la dócima de los Signos en esta distribución. Para muestras independientes, la dócima de Kolmogorov-Smirnov y la t resultan semejantes, resultando las mejores.

    En esta distribución, cuando el tamaño de muestra es 20, Wilcoxon iguala sus resultados a Signos en todos los modelos. Resalta aquí esta adecuacidad de la dócima de los Signos lo cual no sucedía para las distribuciones anteriormente analizadas.

    Las dócimas para muestras independientes presentan un comportamiento mejor de coincidencia de la dócima de Mann-Whitney con t

    Si valoramos muestras de tamaño 50, la dócima Wilcoxon supera a la de Signos en todos los modelos aunque de manera próxima, lo cual resulta de interés por ser esta distribución valorada por primera vez. Se observa un incremento de la coincidencia de la prueba de Wilcoxon con la dócima t al aumentar n.

    En muestras independientes la dócima de Kolmogorov-Smirnov resulta mejor que la de Mann Whitney, siendo aquí lo contrario de lo que sucede en la distribución Normal y a lo expresado por Siegel y Castellan (1995) para otras distribuciones.

    Para n=100 en el primer y segundo modelo Wilcoxon queda por debajo de Signos, mientras que en el tercero está por encima de ella. Se valora aquí que al modificar el valor medio de la muestra la coincidencia en la toma de decisiones respecto a t mantiene como mejor a la prueba de Wilcoxon. En muestras independientes Kolmogorov Smirnov sigue comportándose mejor que Mann Whitney.

    En resumen, para las muestras pareadas resulta más aconsejable la dócima de los Signos en los tamaños de muestra 5 y 20, no siendo así para los tamaños 50 y 100. En las muestras independientes Kolmogorov Smirnov resulta la más eficiente para desarrollar sus análisis, con excepción en esta última del tamaño de muestra 20.

    Distribución Lognormal.

    Tabla 3.5.7. Porciento de coincidencia con la dócima t de Student.

    Para ver las tablas seleccione la opción "Descargar" del menú superior

    Distribución Lognormal. – Primer modelo – Segundo modelo – Tercer modelo

    Tabla 3.5.8. Porciento de valores de p £ 0.05. Distribución Lognormal.

    Primer modelo – Segundo modelo – Tercer modelo.

    De acuerdo a los resultados que aparecen en las tablas 3.5.7 y 3.5.8, la distribución Lognormal tiene las siguientes características:

    Para tamaño de muestra n=5 la dócima de los Signos es la más coincidente con t y además no posee valores de p por debajo de 0.05, por tanto resulta la más fuerte en este caso.

    Por su parte la dócima de Kolmogorov-Smirnov es la de mejor comportamiento en las dócimas de muestras independientes. Aquí coincide con el resultado para la distribución Normal.

    Si consideramos un tamaño de muestra 20, la dócima de los Wilcoxon resulta la más eficiente de las dócimas no paramétricas valoradas.

    En cuanto a las dócimas Mann-Whitney y Kolmogorov-Smirnov resultan muy semejantes en su comportamiento.

    Para el tamaño de muestra es 50, la dócima de Wilcoxon se mantiene como la más coincidente con la t, con altos porcientos de coincidencias.

    En este caso la dócima de Kolmogorov-Smirnov también resulta mejor entre las dócimas de dos muestras independientes

    Cuando se cuenta con 100 datos en la muestra la dócima de los Signos es poco menos eficiente que la de Wilcoxon. Esto es por tanto contrario al caso de la distribución Normal, donde sucede a la inversa.

    En las dócimas para muestras independientes la eficiencia se comporta menos alta, tanto para Mann-Whitney como para Kolmogorov-Smirnov, aunque la dócima t posee menor eficiencia.

    En resumen las dócimas que mejor comportamiento tienen aquí son la de Wilcoxon (excepto para tamaños de muestra 5) y la de Kolmogorov Smirnov.

    Distribución Doble exponencial.

    Tabla 3.5.9. Porciento de coincidencia con la dócima t de Student.

    Para ver las tablas seleccione la opción "Descargar" del menú superior

    Distribución Doble exponencial – Primer modelo – Segundo modelo – Tercer modelo

    Tabla 3.5.10. Porciento de valores de p £ 0.05. Distribución Doble exponencial.

    Primer modelo. – Segundo modelo – Tercer modelo

    De acuerdo a los resultados que aparecen en las tablas 3.5.9 y 3.5.10, la distribución de Laplace o Doble exponencial posee también las siguientes características:

    El comportamiento de la dócima de Wilcoxon supera a Signos para n=5 para todos los modelos. Para este tamaño de muestra y distribución el comportamiento de las dócimas Mann Whitney y Kolmogorov Smirnov es idéntico.

    En cambio en la muestra tamaño 20 la dócima de Wilcoxon tiene igual comportamiento respecto a t para todos los modelos considerados. Además, prevalece sin lugar a dudas la dócima de Mann-Whitney aunque la dócima de Kolmogorov-Smirnov se acerca mucho y esto está acorde con la bibliografía.

    El comportamiento de la dócima de Wilcoxon es mejor que la de los Signos cuando n=50, aunque con un margen pequeño.

    En este caso la dócima de Mann-Whitney resulta ser la más cercana a la t al analizar el comportamiento de las dócimas para muestras independientes.

    Cuando la muestra es bastante grande (n=100) hay una mejor coincidencia de Wilcoxon con t en los tres modelos. Hay que destacar que en el caso de las muestras pareadas, la prueba de los Signos presenta 0% de rechazos en la muestra 5 para todos los modelos y en la muestra de tamaño 20 para el primer y tercer modelo, lo cual, unido a los porcientos de coincidencias, hace que para el tamaño de muestra 5 pueda resultar una buena alternativa frente a Wilcoxon y en el caso de la muestra de tamaño 20, sea Signos el método más aconsejable por coincidir la exigencia en el rechazo de Ho con la igualdad en la respuesta en la comparación con la dócima t.

    Por otra parte para las dócimas de dos muestras independientes, la de Mann-Whitney resulta un poco más eficiente.

    En resumen las dócimas más aconsejables en esta distribución resultan ser la de Wilcoxon, excepto para n=20, y la de Mann Whitney para todos los tamaños de muestra.

    Como resultados para cada distribución se puede expresar que:

    • Normal.

    Para una distribución Normal se corroboran todos los resultados obtenidos hasta ahora, siendo las dócimas de mejores resultados en esta distribución las de Wilcoxon y Mann Whitney, esta última con la única excepción de tamaño de muestra 5.

    • Uniforme.

    Las dócimas que mejor comportamiento tuvieron en esta distribución fueron la de Wilcoxon y la de Mann Whitney, resultado que concuerda con la bibliografía especiaizada consultada.

    • Cauchy.

    En el caso de la distribución de Cauchy, la dócima de los Signos resulta la de mayor porciento de coincidencias para muestras pareadas para tamaños de muestra 5 y 20, en tanto que para muestras independientes Kolmogorov-Smirnov es en general la de mejores índices, excepto para la muestra de tamaño 20.

    • Lognormal.

    La distribución Lognormal presenta porcientos de coincidencia superiores al 82% de las dócimas no paramétricas respecto a t, con tendencia a elevarse al aumentar el tamaño de las muestras, aunque en este caso las dócimas de mejores resultados son la de Wilcoxon (excepto para n=5), y la de Kolmogorov-Smirnov.

    • Doble exponencial.

    En muestras pareadas el resultado contradice en algunos casos lo expresado en páginas anteriores, pues se expresa que Signos tiene un ARE de 200% y Wilcoxon uno de 150%. No obstante en este estudio los resultados se obtienen con un mayor grado de especificación en cuanto a tamaños de muestra y diferentes alternativas en cuanto a las características de las muestras consideradas (diferentes modelos). Así es que para el tamaño de muestra 5, Signos puede resultar una buena alternativa frente a Wilcoxon por ser más exigente en el rechazo de la hipótesis nula y en el caso de la muestra de tamaño 20 Signos es el método más aconsejable por coincidir dicha exigencia con la igualdad en la respuesta en la comparación con la dócima t.

    La dócima más eficiente en muestras independientes resulta ser la de Mann Whitney.

    En resumen las dócimas más aconsejables en esta distribución resultan ser la de Wilcoxon, excepto para n=20, y la de Mann Whitney para todos los tamaños de muestra.

    El comportamiento respecto a los tamaños de muestra se presentan a continuación en las tablas 3.6.1 a 3.6.4.

    Tamaño de muestra 5.

    Tabla 3.6.1. Indices de eficiencia. n=5.

    Para ver las tablas seleccione la opción "Descargar" del menú superior

    Primer modelo – Segundo modelo – Tercer modelo.

    En este caso para las muestras pareadas la dócima de Wilcoxon resulta la mejor para todos los modelos a excepción de las distribuciones Cauchy y Lognormal en el primer modelo, las distribuciones Normal y Lognormal en el segundo y la Lognormal en el tercero. Estos resultados coinciden con lo expresado en la bibliografía consultada excepto en el segundo modelo, donde para la distribución Normal debia ser mejor Wilcoxon. Se destaca además que el método más adecuado para este tamaño de muestra y la distribución Lognormal es el de los Signos.

    Las muestras independientes señalan que Kolmogorov Smirnov tiene el mejor comportamiento para todas las distribuciones, excepto en el caso de la Uniforme y la Doble exponencial, donde coincide con la de Mann Whitney.

    Tamaño de muestra 20.

    Tabla 3.6.2. Indices de eficiencia. n=20.

    Para ver las tablas seleccione la opción "Descargar" del menú superior

    Primer modelo – Segundo modelo – Tercer modelo

    Para este tamaño de muestra, la dócima de Wilcoxon se comporta mejor o a lo sumo igual a la de Signos para todos los modelos. Aquí existe coincidencia con la teoría en la Normal y la Uniforme aunque no para la Doble exponencial, donde Signos debe comportarse mejor. Hay que señalar que la bibliografía consultada no analiza este comportamiento con las especificidades de este estudio en cuanto a los tamaños de muestra y los modelos considerados en las muestras. En las muestras independientes la dócima de Mann Whitney resulta mejor excepto en la distribución Lognormal, donde Kolmogorov Smirnov tiene mejor resultado.

    Tamaño de muestra 50.

    Tabla 3.6.3 Indices de eficiencia. n=50.

    Para ver las tablas seleccione la opción "Descargar" del menú superior

    Primer modelo – Segundo modelo. – Tercer modelo

    La dócima de Wilcoxon resulta tanto o más eficiente que Signos para todas las distribuciones y modelos. Esto no contradice lo visto en la bibliografía ya que para la distribución Doble exponencial solo existe igualdad de comportamiento entre Signos y Wilcoxon.

    Las dócimas independientes presentan a la Kolmogorov Smirnov como la mejor o a lo sumo igual para todas las distribuciones, con la sola excepción de la distribución Doble exponencial, donde es más eficiente la de Mann Whitney. Esto señala la alta eficiencia de esta dócima frente a la de Mann Whitney.

    Tamaño de muestra 100.

    Tabla 3.6.4. Indices de eficiencia. n=100

    Para ver las tablas seleccione la opción "Descargar" del menú superior

    Primer modelo – Segundo modelo.- Tercer modelo

    En este caso el comportamiento de las dócimas pareadas muestra a Wilcoxon como igual o mejor para todas las distribuciones, excepto para la de Cauchy en el primer y segundo modelos. Debe destacarse la adecuacidad del método de los Signos en esta distribución cuando existen diferencias entre los valores esperados de las muestras. Mann Whitney en las independientes presenta su mejor comportamiento para las distribuciones Normal, Uniforme y Doble exponencial, siendo igual para la Lognormal e inferior a la de Kolmogorov Smirnov en la distribución de Cauchy.

    Bibliografía Consultada.

    Para ver la bibliografia seleccionar "Descargar" del menu superior

     

    M.Sc. Mayra Edilia Cristo Hernández

    Profesora auxiliar.del Centro Universitario "José Martí Pérez" de Sancti Spíritus, Cuba.Máster en Matemática Aplicada. 46 años. Trabajo realizado en el 2001.

    Dra. Caridad Walkiria Guerra Bustillo

    Instituto Superior de Ciencias Agrícolas de La Habana.