Método de Resolución de Problemas y Rendimiento Académico en lógica matemática de los alumnos (página 2)
Enviado por JOHNNY FÉLIX FARFÁN PIMENTEL
CONFIABILIDAD PRUEBA PILOTO:
Docentes r=0,7929 Estudiantes r=0,60 (correlación positiva)
OPERACIONALIZACIÓN DE VARIABLES:
En el caso de que se esté estudiando dos variables aleatorias x e y sobre una población estadística; el coeficiente de correlación de Pearson se simboliza con la letra ?x,y, siendo la expresión que nos permite calcularlo:
Donde:
De manera análoga podemos calcular este coeficiente sobre un estadístico muestral, denotado como rxy a:
Valor delCoeficiente de Pearson | Grado de Correlaciónentre las Variables |
r = 0 | Ninguna correlación |
r = 1 | Correlación positiva perfecta |
0 < r < 1 | Correlación positiva |
r = -1 | Correlación negativa perfecta |
-1 < r < 0 | Correlación negativa |
En estadística, una prueba t de Student, prueba t-Student, o Test-T es una prueba en la que el estadístico utilizado tiene una distribución t de Student si la hipótesis nula es cierta. Se aplica cuando la población estudiada sigue una distribución normal pero el tamaño muestral es demasiado pequeño como para que el estadístico en el que está basada la inferencia esté normalmente distribuido, utilizándose una estimación de la desviación típica en lugar del valor real. En probabilidad y estadística, la distribución-t o distribución t de Student es una distribución de probabilidad que surge del problema de estimar la media de una población normalmente distribuida cuando el tamaño de la muestra es pequeño. A la teoría de pequeñas muestras también se le llama teoría exacta del muestreo, ya que también la podemos utilizar con muestras aleatorias de tamaño grande.
Prueba t para muestra única
En esta prueba se evalúa la hipótesis nula de que la media de la población estudiada es igual a un valor especificado µ0, se hace uso del estadístico:
donde es la media muestral, s es la desviación estándar muestral y n es el tamaño de la muestra. Los grados de libertad utilizados en esta prueba se corresponden al valor n - 1.
Prueba t para dos muestras independientes.-
Iguales tamaños muestrales, iguales varianzas
Esta prueba se utiliza solamente cuando:
los dos tamaños muestrales (esto es, el número, n, de participantes en cada grupo) son iguales;
se puede asumir que las dos distribuciones poseen la misma varianza.
Las violaciones a estos presupuestos se discuten más abajo. El estadístico t a probar si las medias son diferentes se puede calcular como sigue:
Donde:
Aquí es la desviación estándar combinada, 1 = grupo uno, 2 = grupo 2. El denominador de t es el error estándar de la diferencia entre las dos medias.
Por prueba de significancia, los grados de libertad de esta prueba se obtienen como 2n - 2 donde n es el número de participantes en cada grupo.
- a. Diferentes tamaños muestrales, diferentes varianzas.-
Esta prueba es también conocida como prueba t de Welch y es utilizada únicamente cuando se puede asumir que las dos varianzas poblacionales son diferentes (los tamaños muestrales pueden o no ser iguales) y por lo tanto deben ser estimadas por separado. El estadístico t a probar cuando las medias poblacionales son distintas puede ser calculado como sigue:
Donde:
Aquí s2 es el estimador sin sesgo de la varianza de las dos muestras, n = número de participantes, 1 = grupo uno, 2 = grupo dos.
Esta ecuación es llamada la ecuación Welch–Satterthwaite. Nótese que la verdadera distribución de este estadístico de hecho depende (ligeramente) de dos varianzas desconocidas.
En estadística la prueba U de Mann-Whitney (también llamada de Mann-Whitney-Wilcoxon, prueba de suma de rangos Wilcoxon, o prueba de Wilcoxon-Mann-Whitney) es una prueba no paramétrica aplicada a dos muestras independientes. Es, de hecho, la versión no paramétrica de la habitual prueba t de Student.
Fue propuesto inicialmente en 1945 por Frank Wilcoxon para muestras de igual tamaños y extendido a muestras de tamaño arbitrario como en otros sentidos por Henry B. Mann y D. R. Whitney en 1947.
La prueba de Mann-Whitney se usa para comprobar la heterogeneidad de dos muestras ordinales. El planteamiento de partida es:
Las observaciones de ambos grupos son independientes
Las observaciones son variables ordinales o continuas.
Bajo la hipótesis nula, las distribuciones de partida de ambas distribuciones es la misma
Bajo la hipótesis alternativa, los valores de una de las muestras tienden a exceder a los de la otra:
P(X > Y) + 0.5 P(X = Y) > 0.5.
Para calcular el estadístico U se asigna a cada uno de los valores de las dos muestras su rango para construir
donde n1 y n2 son los tamaños respectivos de cada muestra; R1 y R2 es la suma de los rangos de las observaciones de las muestras 1 y 2 respectivamente.
El estadístico U se define como el mínimo de U1 y U2.
Los cálculos tienen que tener en cuenta la presencia de observaciones idénticas a la hora de ordenarlas. No obstante, si su número es pequeño, se puede ignorar esa circunstancia.
La prueba calcula el llamado estadístico U, cuya distribución para muestras con más de 20 observaciones se aproxima bastante bien a la distribución normal. La aproximación a la normal, z, cuando tenemos muestras lo suficientemente grandes viene dada por la expresión:
Donde mU y sU son la media y la desviación estándar de U si la hipótesis nula es cierta, y vienen dadas por las siguientes fórmulas:
Puede usarse para determinar si dos muestras independientes han sido extraídas de la misma población. Emplea más información que la pruebas de signos.
Según Kazmier. (1993:409). La Prueba de Mann-Whitney "Se utiliza para probar la hipótesis nula, de que las medianas de dos poblaciones son iguales".
En esta prueba se supone que las dos poblaciones tienen la misma forma y la misma dispersión, porque si existieran diferencias en estos parámetros, podrían conducir a rechazar la hipótesis nula. Se requiere que los valores de las dos muestras aleatorias independientes, se encuentren cuando menos en escala ordinal.
Básicamente, su proceso consiste en combinar dos muestras, identificando los valores muéstrales de acuerdo con el grupo muestral al que pertenecen, luego se ordenan los valores de menor a mayor, asignando el rango de 1, al valor más pequeño, en caso de que se encuentren valores iguales se les asigna un promedio de sus rangos. Si la hipótesis es cierta, el promedio de los rangos para los dos grupos muéstrales deben ser aproximadamente igual.
La prueba de los signos de Wilcoxon es una prueba no paramétrica para comparar la mediana de dos muestras relacionadas y determinar si existen diferencias entre ellas. Se utiliza como alternativa a la prueba t de Student cuando no se puede suponer la normalidad de dichas muestras. Debe su nombre a Frank Wilcoxon, que la publicó en 1945. Se utiliza cuando la variable subyacente es continua pero no presupone ningún tipo de distribución particular.
En ocasiones, esta prueba se usa para comparar las diferencias entre dos muestras de datos tomados antes y después del tratamiento, cuyo valor central se espera que sea cero. Las diferencias iguales a cero son eliminadas y el valor absoluto de las desviaciones con respecto al valor central son ordenadas de menor a mayor. A los datos idénticos se les asigna el lugar medio en la serie. la suma de los rangos se hace por separado para los signos positivos y los negativos. S representa la menor de esas dos sumas. Comparamos S con el valor proporcionado por las tablas estadísticas al efecto para determinar si rechazamos o no la hipótesis nula, según el nivel de significación elegido. Estadístico del test: el estadístico del test de Wilcoxon (1945), T+, es la suma de los rangos de los valores absolutos de las observaciones mayores que 0 en la muestra original.
EJEMPLO: Se realizó un estudio comparativo en el cual se evaluó la efectividad de dos métodos, uno tradicional y uno moderno de enseñanza del álgebra. En ese estudio 14 individuos fueron extraídos al azar de la población de interés y se formaron 7 pares en base a su IQ. Los miembros de cada par fueron asignados al azar a uno de los dos métodos de enseñanza, y posteriormente ambos grupos fueron instruidos durante 3 semanas. Todos los estudiantes rindieron el mismo examen al final del periodo de instrucción y los resultados obtenidos fueron los siguientes:
PAR | MODERNO | TRADICIONAL | Di | RANGO (+) | RANGO (-) |
1 | 31 | 36 | -5 | 3 | |
2 | 42 | 38 | 4 | 2 | |
3 | 44 | 33 | 11 | 6 | |
4 | 48 | 36 | 8 | 7 | |
5 | 51 | 53 | -4 | 2 | |
6 | 57 | 49 | 8 | 4 | |
7 | 62 | 52 | 10 | 5 |
Se deseaba testear
Ho: ? = 0 vs H1: ? > 0, siendo ? la mediana de las diferencias
D = Moderno – Tradicional. La zona de rechazo de nivel 0.05 para n = 7
es T+ > 24, entonces a este nivel, como T+ = 24 no se rechaza Ho.
La correspondiente salida de R es: wilcox.test (ejemplo60[,1],ejemplo60[,2],alternative="greater",paired=TRUE) Wilcoxon signed rank test data: ejemplo60[, 1] and ejemplo60[, 2] V = 24, p-value = 0.05469 alternative hypothesis: true location shift is greater than 0.
Análisis de la Varianza (ANOVA)
En estadística, el análisis de la varianza (ANOVA, ANalysis Of VAriance, según terminología inglesa) es una colección de modelos estadísticos y sus procedimientos asociados, en el cual la varianza está particionada en ciertos componentes debidos a diferentes variables explicativas. Las técnicas iniciales del análisis de varianza fueron desarrolladas por el estadístico y genetista R. A. Fisher en los años 1920 y 1930 y es algunas veces conocido como "Anova de Fisher" o "análisis de varianza de Fisher", debido al uso de la distribución F de Fisher como parte del contraste de hipótesis.
El ANOVA parte de algunos supuestos que han de cumplirse:
La variable dependiente debe medirse al menos a nivel de intervalo.
Independencia de las observaciones.
La distribución de los residuales debe ser normal.
Homocedasticidad: homogeneidad de las varianzas.
La técnica fundamental consiste en la separación de la suma de cuadrados (SS, suma de cuadrados) en componentes relativos a los factores contemplados en el modelo. Como ejemplo, mostramos el modelo para un ANOVA simplificado con un tipo de factores en diferentes niveles. (Si los niveles son cuantitativos y los efectos son lineales, puede resultar apropiado un análisis de regresión lineal)
El número de grados de libertad (gl) puede separarse de forma similar y corresponde con la forma en que la distribución chi-cuadrado (?² o Ji-cuadrada) describe la suma de cuadrados asociada.
Tablas cruzadas o tablas de contingencia
La tabulación cruzada es el proceso de creación de una tabla de contingencia desde la distribución de frecuencias multivariada de las variables estadísticas. Muy utilizada en la investigación de encuestas, la tabulación cruzada (o tabla cruzada, de forma abreviada) se suelen producir por una sería de paquetes estadísticos, entre ellos algunos que se especializan en la tarea. Frecuentemente se suelen incorporar ponderaciones de encuesta. Las tablas sin ponderar se pueden producir fácilmente por algunas hojas de cálculo y otras herramientas de inteligencia empresarial, conocidas comúnmente como tablas pivote (también conocidas como tablas dinámicas).
El objeto de las tablas de contingencia es extraer información de cruce entre dos o más variables de tipo categórico o cualitativo, ya sean éstas de tipos nominal u ordinal. La idea básica es que se pretende juzgar si existe o no algún tipo de relación de dependencia entre dos variables no métricas.
Con este tipo de análisis se podrían contestar a preguntas tales como:
– ¿Hay alguna relación entre el área geográfica en la que se inscribe un país, o su confesión religiosa mayoritaria, y el sistema político con el que se rige? (se ponen en relación dos variables nominales).
– ¿Depende el nivel de desarrollo (alto, medio, bajo) del sistema político (democracia, dictadura, oligarquía, etc.)? (se ponen en relación una variable ordinal con otra nominal).
– ¿Está relacionado el índice de democracia (clasificado en bajo, medio, alto y muy alto) con el nivel de corrupción (con igual clasificación)? (se ponen en relación dos variables ordinales).
En el análisis de tablas de contingencia tendrá sentido interrogarse sobre:
1. La existencia de relación o no (dependencia o independencia) entre un par de variables.
2. Si existe dependencia, en qué grado o con qué fuerza se produce la misma.
3. Caso de haber relación, entre que cruces, de entre todos los posibles, existe dicha relación.
¿EXISTE RELACIÓN ENTRE LAS VARIABLES?
Evidentemente, uno puede recurrir a la observación directa de los datos y realizar algunas conclusiones intuitivas sobre la existencia o no de relaciones de de dependencia entre ellos. Si la muestra no es muy elevada, a partir de un análisis sensato de una tabla cruzada entre las variables que se desea comparar será una aproximación bastante adecuada.
¿Qué incorpora entonces el análisis estadístico de "tablas de contingencia" a un análisis directo y simple de los datos? Por un lado, la dimensión de análisis en términos de probabilidad (las variables que estamos midiendo son aleatorias, luego exigen tener en cuenta sus intervalos de confianza) y, por otro, el descuento de las coincidencias casuales en la observación de la realidad.
EJEMPLO DE APLICACIÓN:
A un grupo de 110 pacientes, que se quejaban por sus propios comportamientos conductuales, se les aplica un determinado tipo de terapia: Farmacológica, Conductual ó Psicoanalítica. Al concluir el estudio se observó el resultado de la terapia en Positivo ó Negativo, encontrándose los siguientes resultados: Entre los 45 pacientes que se les aplicó la terapia Farmacológica, 10 obtuvieron un resultado positivo y 35 un resultado negativo. Entre los 40 pacientes que recibieron la terapia Conductual, 25 obtuvieron un resultado positivo y 15 un resultado un negativo. De los 25 pacientes que recibieron la terapia Psicoanalítica, 13 obtuvieron un resultado positivo y 12 un resultado negativo.
a. Construya la tabla de contingencia adecuada para resumir la información anterior.
Respuesta: La tabla de contingencia es de 3 filas por 2 columnas (o puede ser al revés). En total suman los 110 pacientes.
La distribución marginal nos da la distribución de cada una de las variables por separado. En este caso nos dice que del grupo de 110 pacientes, un 40,9% (45 pacientes) siguieron una terapia farmacológica, 36,4% siguieron terapia conductual y 22,7% siguieron terapia de psicoanálisis. En cuanto a la variables del resultado de la terapia, un 43,6% obtuvo resultados positivos y un 56,4% un resultado negativo.
c. Determine la distribución condicional de la información recopilada. A la luz de los resultados, ¿Qué terapia recomendaría Usted?
La distribución condicional nos da la distribución de la variable respuesta dada la variable explicativa. En este caso nos interesa saber el resultado (variable respuesta), dado la terapia (variable explicativa). Calculamos los porcentajes tomando como 100% las terapias (variable fila).
Interpretación: En la terapia con fármacos hubo un 22,2% de resultados positivos, en la terapia conductual hubo un 62,5% de resultados positivos y en la terapia de psicoanálisis hubo un 52% de resultados positivos.
La distribución ?² tiene muchas aplicaciones en inferencia estadística. La más conocida es la de la denominada prueba ?² utilizada como prueba de independencia y como prueba de bondad de ajuste y en la estimación de varianzas. Pero también está involucrada en el problema de estimar la media de una población normalmente distribuida y en el problema de estimar la pendiente de una recta de regresión lineal, a través de su papel en la distribución t de Student.
Aparece también en todos los problemas de análisis de varianza por su relación con la distribución F de Snedecor, que es la distribución del cociente de dos variables aleatorias independientes con distribución ?².
La prueba ?² de Pearson, la cual tiene numerosas aplicaciones:
La prueba ?² de frecuencias
La prueba ?² de independencia
La prueba ?² de bondad de ajuste
La prueba ?² de Pearson con corrección por continuidad o corrección de Yates
La prueba de Bartlett de homogeneidad de varianzas
Es una distribución de probabilidad continua con un parámetro "k", que representa los grados de libertad de la variable aleatoria, la distribución de Chi Cuadrado es denotada por la letra griega X², es frecuentemente usada para probar hipótesis, concernientes a la diferencia entre un conjunto de frecuencias observadas de una muestra y un conjunto correspondientes de frecuencias teóricas esperadas.
Las Pruebas de Chi Cuadrado, son útiles al analizar más de dos poblaciones, por ejemplo, sirven para trabajar con datos de Mercadotecnia, también permite determinar si un grupo de datos descritos de una distribución normal, se ajustan a la realidad de ese patrón.
El estadístico de Chi Cuadrado se representa de la forma siguiente:
Ejemplo: Estudio de Tabla de contingencia 3×2:
Se estudia a 1040 estudiantes de los niveles de educación primaria y secundaria y a los cuales se aplica un instrumento que mide el aprendizaje de la matemática, en las dimensiones de aprendizaje conceptual, procedimental y actitudinal.
Variables:
APRENDIZAJE categorías: Conceptual, Procedimental, Actitudinal. NIVEL DE EDUCACIÓN categorías: Primaria, Secundaria.
La Chi-cuadrada es una comparación entre las tablas de frecuencias observadas y la denominada tabla de frecuencias esperadas (la tabla que esperaríamos encontrar si las variables fueran estadísticamente independientes o no estuvieran relacionadas).
TABLA DE FRECUENCIAS ESPERADAS (E)
PAQUETE ESTADÍSTICO SPS
Ejercicio Nº1.- Sea "x" el número de veces de veces que se asean los niños de una institución educativa, para ello se toma una muestra de tamaño 48. Los datos obtenidos son:
Ejercicio Nº2.- Sea "x" la estatura en centímetros de los padres de familia, en una tabla de tamaño 40 se observa:
a Existen varias modas. Se mostrará el menor de los valores.
Tabla de frecuencia
ESTATURA
Ejercicio Nº3.-
Se han aplicado una prueba de entrada a dos grupos de estudiantes y el resultado es:
GRUPO A | 4 | 0 | 8 | 6 | 4 | 6 | 8 | 8 | 6 | 12 | 4 | 10 | 2 | 8 | 8 | 4 | 4 | 4 | 4 | 6 | 6 | 4 | 6 | |||
GRUPO B | 4 | 6 | 8 | 6 | 6 | 8 | 4 | 10 | 6 | 6 | 10 | 8 | 8 | 6 | 10 | 4 | 12 | 2 | 10 | 8 | 6 | 8 | 6 |
Se desea realizar una investigación de diseño cuasi-experimental. Presente un estudio para poder elegir el grupo de control y experimental.
Estadísticos
GRUPO1 | GRUPO2 | ||
N | Válidos | 16 | 15 |
Perdidos | 0 | 1 | |
Varianza | 7.263 | 6.352 |
Estadísticos
GRUPO1
N | Válidos | 16 |
Perdidos | 0 | |
Varianza | 7.263 |
GRUPO1
Estadísticos
GRUPO2
N | Válidos | 15 |
Perdidos | 1 | |
Varianza | 6.352 |
GRUPO2
Frecuencias
Estadísticos
GRUPO2 | GRUPO1 | ||
N | Válidos | 15 | 16 |
Perdidos | 1 | 0 | |
Media | 11.27 | 10.06 | |
Mediana | 11.00 | 9.50 | |
Moda | 9(a) | 8(a) | |
Desv. típ. | 2.520 | 2.695 | |
Varianza | 6.352 | 7.263 |
a Existen varias modas. Se mostrará el menor de los valores.
Frecuencias
Estadísticos
Tabla de frecuencia
Histograma
Autor:
Ingº Johnny F. Farfán Pimentel
DOCENTE : Dr. Luis Romero Echevarría
TEMA : T de Student, Mann-Whitney, Wilcoxon, Análisis de la Varianza (ANOVA), tablas cruzadas o tablas de contingencia, Chi-cuadrado
Ciclo de estudios: Segundo semestre
ESCUELA DE POSGRADO
ESTADÍSTICA APLICADA A LA INVESTIGACIÓN EDUCATIVA
San Juan de Lurigancho, 30 de junio del 2012
Página anterior | Volver al principio del trabajo | Página siguiente |