Descargar

Estadistica – Sesiones


Partes: 1, 2

  1. Introducción y reglas de la materia
  2. Presentación de datos estadísticos
  3. Distribución de frecuencia. La estadística descriptiva. Los métodos gráficos. Las graficas que engañan. Las medidas descriptivas numéricas
  4. Medidas de dispersión
  5. Examen
  6. Pimer revisión parcial del portafolio de evidencia
  7. Distribución normal
  8. Media, muestra y media poblacional
  9. Inferencias con muestras pequeñas
  10. Análisis de decisiones, población y muestra, certidumbre e incertidumbre, análisis de problemas de decisión
  11. Análisis de varianza. Comparación de más de dos medidas
  12. Segunda revisión de portafolios de evidencias
  13. Análisis de varianza para un diseño aleatorio en bloques

Introducción y reglas de la materia

edu.red

14 DE FEBRERO DEL 2012 SESIÓN 2.

Presentación de datos estadísticos

Definiciones y conceptos básicos. Presentación de los datos estadísticos y muestras

La presentación de datos estadísticos constituye en sus diferentes modalidades uno de los aspectos de mas uso en la estadística descriptiva. A partir podemos visualizar a través de los diferentes medios escritos y televisivos de comunicación masiva la presentación de los datos estadísticos sobre el comportamiento de las principales variables económicas y sociales, nacionales e internacionales.

Conceptos de Estadística

Población: Una población es el conjunto de todos los elementos a los que se somete a un estudio estadístico.

Individuo: Un individuo o unidad estadística es cada uno de los elementos que componen la población.

Muestra: Una muestra es un conjunto representativo de la población de referencia, el número de individuos de una muestra es menor que el de la población.

Muestreo: Él muestreo es la reunión de datos que se desea estudiar, obtenidos de una proporción reducida y representativa de la población.

Valor: Un valor es cada uno de los distintos resultados que se pueden obtener en un estudio estadístico. Si lanzamos una moneda al aire 5 veces obtenemos dos valores: cara y cruz.

Dato: Un dato es cada uno de los valores que se ha obtenido al realizar un estudio estadístico. Si lanzamos una moneda al aire 5 veces obtenemos 5 datos: cara, cara, cruz, cara, cruz.

Presentación de los datos estadísticos y muestras.

Las muestras se obtienen con la intención de inferir propiedades de la totalidad de la población, para la cual deben ser representativas de la misma.

15 DE FEBRERO DEL 2012 SESIÓN 3.

Distribución de frecuencia. La estadística descriptiva. Los métodos gráficos. Las graficas que engañan. Las medidas descriptivas numéricas

Se denomina distribución de frecuencias a la agrupación de datos en categorías mutuamente excluyentes que indican el número de observaciones en cada categoría.

Una distribución de frecuencias es una tabla en la que se organizan los datos en clases, es decir, en grupos de valores que describen una característica de los datos y muestra el número de observaciones del conjunto de datos que caen en cada una de las clases.

La estadística descriptiva es una gran parte de la estadística que se dedica a analizar y representar los datos. Este análisis es muy básico. Aunque hay tendencia a generalizar a toda la población, las primeras conclusiones obtenidas tras un análisis descriptivo, es un estudio calculando una serie de medidas de tendencia central, para ver en qué medida los datos se agrupan o dispersan en torno a un valor central. Esto es lo que podría ser un concepto aproximado.

Histogramas: Se emplea para ilustrar muestras agrupadas en intervalos. Este formado por rectángulos unidos a otros, cuyos vértices de la base coinciden con los límites de los intervalos y el centro de cada intervalo es la marca de clase, que representamos en el eje de las abscisas. La altura de cada rectángulo es proporcional a la frecuencia del intervalo respectivo. Esta proporcionalidad se aplica por medio de la siguiente formula

Altura del rectángulo = frecuencia relativa/longitud de base

El histograma se usa para representar variables cuantitativas continuas que han sido agrupadas en intervalos de clase, la desventaja que presenta que no funciona

Para variables discretas, de lo contrario es una forma útil y practica de mostrar los datos estadísticos.

EJ:

edu.red

  • Diagramas de caja o boxplots: los pasos para construirlo son los siguientes:

  • dibujar y marcar un eje de medida horizontal

  • construir un rectángulo cuyo borde izquierdo está arriba del cuarto inferior y cuyo borde derecho está arriba del cuarto superior

  • dibujar un segmento de recta vertical dentro de la caja arriba de la mediana

  • prolongar rectas desde cada extremo de la caja hasta las observaciones más lejanas que estén todavía a menos de 1.5fs de los bordes correspondientes

  • dibujar un circulo abierto para identificar cada observación que caiga entre 1.5fs y 3fs del borde al cual está más cercano estas se llaman puntos inusuales suaves

  • dibujar un circulo de línea llena para identificar cada observación que caiga a mas de 3fs del borde más cercano, estas se llaman puntos inusuales extremos

Las graficas que engañan.

Las graficas de barra engañan a las personas por que contiene distintas medias para vender algún producto.

EJERCICIO.

  • a) 22, 23, 24, 25, 26, 26,27: 26

  • b) 1, 1, 1, 4, 7, 7, 7, : 1, 7

  • c) Plato, plato, tenedor, cuchara: plato

  • d) Revista, libro, diario, diario, diario: diario

  • e) 5, 5, 5, 10, 10, 10, 14: 7.5

  • 1. 1, 2, 3, 1, 1: 1

  • 2. Sol, sol, sol, nube, lluvia, lluvia, lluvia: sol, lluvia

  • 3. Sol, nube, sol, sol, lluvia, lluvia, lluvia: sol, lluvia

  • 4. 5, 5, 5, lluvia, sol, lluvia, lluvia: 5, lluvia

16 DE FEBRERO DEL 2012 SESIÓN 4

Medidas de tendencia central. Medidas de variabilidad. La desviación estándar. El método fácil para calcular la varianza.

Medidas de tendencia central: Cuando se hace referencia únicamente a la posición de estos parámetros dentro de la distribución, independientemente de que está esta menos o más centrada.

EJEMPLOS:

edu.red

MEDIDAS DE VARIABILIDAD

Estadística. Varianza. Desviación estándar. Desvío medio. Desviación intercuartílica.

Media aritmética. Dispersión. Teorema de Bienayme-Chebychev.

Las medidas de dispersión, también llamadas medidas de variabilidad, muestran la

Variabilidad de una distribución, indicando por medio de un número, si las diferentes

Puntuaciones de una variable están muy alejadas de la mediana media. Cuanto mayor

Sea ese valor, mayor será la variabilidad, cuanto menor sea, más homogénea será a la

Mediana media. Así se sabe si todos los casos son parecidos o varían mucho entre ellos.

Para calcular la variabilidad que una distribución tiene respecto de su media, se

Calcula la media de las desviaciones de las puntuaciones respecto a la media

Aritmética. Pero la suma de las desviaciones es siempre cero, así que se adoptan dos

Clases de estrategias para salvar este problema. Una es tomando las desviaciones en

Valor absoluto (Desviación media) y otra es tomando las desviaciones al cuadrado 

Ejemplo

1. Para una muestra (8, 7, 6, 9, 4,5), el dato menor es 4 y el dato mayor es 9 (Valor unitario inmediatamente posterior al dato mayor menos el dato menor). Sus valores se encuentran en un rango de:

Rango = 5

2 .Para una muestra de valores (3, 3, 5, 6, 8), el dato de menor valor Min= 3 y el dato de mayor valor Max= 8. El medio rango resolviéndolo mediante la correspondiente fórmula sería:

edu.red

LA DESVIACION ESTANDAR

La desviación estándar o desviación típica (denotada con el símbolo s) es una  para variables de razón (ratio o cociente) y de intervalo,

De gran utilidad en la estadística descriptiva.

Se define como la raíz cuadrada de la varianza. Junto con este valor, la desviación típica es una medida (cuadrática) que informa de la media de distancias que tienen los datos respecto de su media aritmética, expresada en las mismas unidades que la variable.

La desviación estándar es una medida del grado de dispersión de los datos con respecto al valor promedio. Dicho de otra manera, la desviación estándar es simplemente el "promedio" o variación esperada con respecto a la media aritmética.

Por ejemplo, las tres muestras (0, 0, 14, 14), (0, 6, 8, 14) y (6, 6, 8, 8) cada una tiene una media de 7. Sus desviaciones estándar muéstrales

Son 8,08; 5,77 y 1,15 respectivamente. La tercera muestra tiene una desviación mucho menor que las otras dos porque sus valores están más cerca de 7.

EL METODO FACIL PARA CALCULAR LA VARIANZA

Para calcular la varianza, hay que entender primero que el resultado no está en las mismas unidades que las variables. Por ejemplo, si las variables están dadas en segundos, la varianza estará dada en segundos al cuadrado y por esto la desviación típica que es la raíz de la varianza presenta la desviación en unidades reales.

La fórmula de la varianza es la siguiente:

edu.red

Para aprender más rápido el cálculo de la varianza, se deben hacer muchos ejercicios como el siguiente. Calcular la varianza de la siguiente distribución: 9 s, 3 s, 8 s, 8 s, 9 s, 8 s, 9 s, 18 s. Las unidades están dadas en segundos (s), sólo como ejemplo de medida).

Para resolver este ejercicio se debe mirar la fórmula y calcular primero el valor medio aritmético de la secuencia, esto es:

Xp = (9 + 3 + 8 + 8 + 9 + 8 + 9 + 18) / 8 = 9,

Donde nueve segundos es el número promedio de toda la secuencia. Ahora simplemente se deben reemplazar los números en la fórmula dada, la cual quedaría así:

edu.red

Donde 15 es la varianza. No hay que olvidar que este número en términos matemáticos sería 15 segundos al cuadrado, por lo que no sirve de mucho aún como interpretación de la realidad.

PRIMER TRABAJO.

Ejercicio;

Obtener media, varianza, desviación estándar.

84kg, 91kg, 72kg, 68kg, 87kg, 78kg.

edu.red

edu.red

20 DE FEBRERO DEL 2012 SESIÓN 5

Medidas de dispersión

Las medidas de dispersión, también llamadas medidas de variabilidad, muestran la variabilidad de una distribución, indicando por medio de un número, si las diferentes puntuaciones de una variable están muy alejadas de la mediana media. Cuanto mayor sea ese valor, mayor será la variabilidad, cuanto menor sea, más homogénea será a la mediana media. Así se sabe si todos los casos son parecidos o varían mucho entre ellos.

Para calcular la variabilidad que una distribución tiene respecto de su media, se calcula la media de las desviaciones de las puntuaciones respecto a la media aritmética. Pero la suma de las desviaciones es siempre cero, así que se adoptan dos clases de estrategias para salvar este problema. Una es tomando las desviaciones en valor absoluto (Desviación media) y otra es tomando las desviaciones al cuadrado 

Ejemplo

Para una muestra de valores (3, 3, 5, 6, 8), el dato de menor valor Min= 3 y el dato de mayor valor Max= 8. El medio rango resolviéndolo mediante la correspondiente fórmula sería:

edu.red

Representación del medio rango: 

edu.red

CONCEPTOS

Si bien no hay una definición de estadística exacta, se puede decir  que   la "estadística es el estudio de los métodos y procedimientos para recoger, clasificar, resumir y analizar datos y para hacer inferencias científicas partiendo de tales datos".

Esta definición cubre gran parte de la actividad del científico. Es importante observar que el objeto del que realiza el análisis estadístico son los datos y las observaciones científicas por sí mismos, más que el material químico que interviene en el estudio.

Por lo tanto no es posible trazar límites rígidos entre la química, la estadística y la matemática.

La estadística se puede dividir en 2 categorías, la "estadística descriptiva" y la "inferencia estadística".

La estadística descriptiva implica la abstracción de varias propiedades de conjuntos de observaciones, mediante el empleo de métodos gráficos, tabulares ó numéricos. Entre estas propiedades, están la frecuencia con que se dan varios valores en la observación, la noción de un valor típico o usual, la cantidad de variabilidad en un conjunto de datos observados y la medida de relaciones entre 2 ó más variables.

El campo de la estadística descriptiva no tiene que ver con las implicaciones o conclusiones que se puedan deducir de conjuntos de datos. La estadística descriptiva sirve como método para organizar datos y poner de manifiesto sus características esenciales con el propósito de llegar a conclusiones.

La inferencia estadística se basa en las conclusiones a la que se llega por la ciencia experimental basándose en información incompleta.

Por ejemplo, Méndez al estudiar la manera como diferían entre sí las plantas de guisantes en altura, color de las semillas, color de las vainas y color de las flores, tuvo que hacer sus conclusiones necesariamente basándose en un grupo de plantas relativamente poco numeroso comparado con toda la población de plantas de guisantes de un tipo particular.

Al hacer un enunciado, como por ejemplo, sobre el color de las flores, las conclusiones de Medel dependían de la muestra particular de plantas disponibles para este estudio.

ESPACIO Y MUESTRA

En estadística una muestra estadística (también llamada muestra aleatoria o simplemente muestra) es un subconjunto de casos o individuos de una población estadística.

Las muestras se obtienen con la intención de inferir propiedades de la totalidad de la población, para lo cual deben ser representativas de la misma. Para cumplir esta característica la inclusión de sujetos en la muestra debe seguir una técnica de muestreo.

En tales casos, puede obtenerse una información similar a la de un estudio exhaustivo con mayor rapidez y menor coste (véanse las ventajas de la elección de una muestra, más abajo).

Por otra parte, en ocasiones, el muestreo puede ser más exacto que el estudio de toda la población porque el manejo de un menor número de datos provoca también menos errores en su manipulación. En cualquier caso, el conjunto de individuos de la muestra son los sujetos realmente estudiados.

El número de sujetos que componen la muestra suele ser inferior que el de la población, pero suficiente para que la estimación de los parámetros determinados tenga un nivel de confianza adecuado. Para que el tamaño de la muestra sea idóneo es preciso recurrir a su cálculo.

Espacio Maestral

El espacio maestral del que se toma una muestra concreta está formado por el conjunto de todas las posibles muestras que se pueden extraer de una población mediante una determinada técnica de muestreo.

21 DE FEBRERO DEL 2012 SESIÓN 6.

Examen

I. edu.red

edu.red

edu.red

edu.red

edu.red

22 DE FEBRERO DEL 2012 SESIÓN 7.

Pimer revisión parcial del portafolio de evidencia

23 DE FEBRERO DEL 2012 SESIÓN 8.

Conceptos de probabilidad. Conceptos básicos de probabilidad. Leyes de probabilidad y su uso.

Las Probabilidades pertenecen a la rama de la matemática que estudia ciertos experimentos llamados aleatorios, o sea regidos por el azar, en que se conocen todos los resultados posibles, pero no es posible tener certeza de cuál será en particular el resultado del experimento. Por ejemplo, experimentos aleatorios cotidianos son el lanzamiento de una moneda, el lanzamiento de un dado, extracción de una carta de un mazo de naipes. Más adelante se verá que debemos distinguir entre los conceptos de probabilidades matemáticas o clásicas de las probabilidades experimentales o estadísticas.

Espacio Muestral.- Se llama espacio Muestral (E) asociado a un experimento aleatorio, el conjunto de todos los resultados posibles de dicho experimento.

Eventos mutuamente excluyentes.- Dos eventos son mutuamente excluyentes si no pueden ocurrir en forma simultánea, esto es, si y sólo si su intersección es vacía.

edu.red

Su Medición Matemática o Clásica. Si en un experimento aleatorio todos los resultados son equiprobables (iguales probabilidades), es decir, la ocurrencia de uno es igualmente posible que la ocurrencia de cualquiera de los demás, entonces, la probabilidad de un evento A es la razón: P(A) = número de casos favorables para A/número total de casos posibles A partir de esta definición las probabilidades de los posibles resultados del experimento se pueden determinar a priori, es decir, sin realizar el experimento.Se deduce de la definición lo siguiente:

Su Medición Experimental o Estadística.- La frecuencia relativa del resultado A de un experimento es la razón FR = número de veces que ocurre A/número de veces que se realiza el experimento Si el experimento se repite un número grande de veces, el valor de FR se aproximará a la medición probabilística P del evento A. Por ejemplo, si lanzo 100 veces una moneda, el número de veces que obtengo cara es cercano a 50, o sea FR es cercano a 50%.

Leyes de la probabilidad: dependiente independiente combinada Muchos de los eventos que ocurren en la vida diaria no pueden ser predichos con exactitud desde antes por diversas razones, pues la mayoría de los hechos están influidos por factores externos. Además, existen aquellos sucesos que están directamente influidos por el azar, es decir, por procesos que no se está seguro de lo que va a ocurrir. Sin embargo, la probabilidad nos permite acercarnos a esos sucesos y estudiarlos, ponderando las posibilidades de su ocurrencia y proporcionando métodos para tales ponderaciones.Precisamente, algunos de esos métodos proporcionados por la probabilidad nos llevan a descubrir que algunos sucesos tienen una mayor o menor probabilidad de ocurrir que la ponderación asignada a través del sentido común. Nuestros sentidos, la información previa que poseemos, nuestras creencias o posturas, nuestras inclinaciones, son algunos de los factores que intervienen para no permitirnos hacer ponderaciones reales y sistemáticas. La probabilidad nos permitirá estudiar los eventos de una manera sistemática y más cercana a la realidad, retribuyéndonos con información más precisa y confiable y, por tanto, más útil para las disciplinas humanas.

Eventos dependientes Dos o más eventos serán dependientes cuando la ocurrencia o no-ocurrencia de uno de ellos afecta la probabilidad de ocurrencia del otro (o otros). Cuando tenemos este caso, empleamos entonces, el concepto de probabilidad condicional para denominar la probabilidad del evento relacionado. La expresión P (AB) indica la probabilidad de ocurrencia del evento A sí el evento B ya ocurrió.Se debe tener claro que AB no es una fracción.

P (AB) = P(A y B)/P (B) o P (BA) = P(A y B)/P(A).

27 DE FEBRERO DEL 2012 SESIÓN 9.

Distribución normal

Distribución de probabilidad normal. Distribuciones discretas. Media y varianza de variables aleatorias.

Se llama distribución normal, distribución de Gauss o distribución gaussiana, a una de las distribuciones de probabilidad de variable continua que con más frecuencia aparece aproximada en fenómenos reales.

La gráfica de su función de densidad tiene una forma acampanada y es simétrica respecto de un determinado parámetro. Esta curva se conoce como campana de Gauss.

La importancia de esta distribución radica en que permite modelar numerosos fenómenos naturales, sociales y psicológicos. Mientras que los mecanismos que subyacen a gran parte de este tipo de fenómenos son desconocidos, por la enorme cantidad de variables incontrolables que en ellos intervienen, el uso del modelo normal puede justificarse asumiendo que cada observación se obtiene como la suma de unas pocas causas independientes.

De hecho, la estadística es un modelo matemático que sólo permite describir un fenómeno, sin explicación alguna. Para la explicación causal es preciso el diseño experimental, de ahí que al uso de la estadística en psicología y sociología sea conocido como método correlacional.

La distribución normal también es importante por su relación con la estimación por mínimos cuadrados, uno de los métodos de estimación más simples y antiguos.

La distribución normal también aparece en muchas áreas de la propia estadística. Por ejemplo, la distribución muestral de las medias muéstrales es aproximadamente normal, cuando la distribución de la población de la cual se extrae la muestra no es normal.1 Además, la distribución normal maximiza la entropía entre todas las distribuciones con media y varianza conocidas, lo cual la convierte en la elección natural de la distribución subyacente a una lista de datos resumidos en términos de media muestral y varianza. La distribución normal es la más extendida en estadística y muchos tests estadísticos están basados en una supuesta "normalidad".

edu.red

La distribución normal es también un caso particular de probabilidad de variable aleatoria continúa, fue reconocida por primera vez por el francés Abraham de Moivre (1667-1754).  Posteriormente, Carl Friedrich Gauss (1777-1855) elaboró desarrollos más profundos y formuló la ecuación de la curva; de ahí que también se le conozca, más comúnmente, como la "campaña de Gauss".  La distribución de una variable normal está completamente determinada por dos parámetros, su media (&µ) y su desviación estándar (s). Con esta notación, la densidad de la normal viene dada por la ecuación:

edu.red

Que determina la curva en forma de campana que tan bien conocemos

Existen dos razones básicas por las cuales la distribución normal ocupa un lugar tan prominente en la estadística:

  • Tiene algunas propiedades que la hacen aplicable a un gran número de situaciones en la que es necesario hacer inferencias mediante la toma de muestras.

  • La distribución normal casi se ajusta a las distribuciones de frecuencias reales observadas en muchos fenómenos, incluyendo características humanas, resultados de procesos físicos y muchas otras medidas de interés para los administradores, tanto en el sector público como en el privado.

Propiedad:

No importa cuáles sean los valores de &µ y s para una distribución de probabilidad normal, el área total bajo la curva siempre es 1, de manera que podemos pensar en áreas bajo la curva como si fueran probabilidades. Matemáticamente es verdad que:

  • Aproximadamente el 68% de todos los valores de una población normalmente distribuida se encuentra dentro de ± 1 desviación estándar de la media.

  • Aproximadamente el 95.5% de todos los valores de una población normalmente distribuida se encuentra dentro de ± 2 desviaciones estándar de la media.

  • Aproximadamente el 99.7% de todos los valores de una población normalmente distribuida se encuentra dentro de ± 3 desviaciones estándar de la media.

Relación entre el área bajo la curva de distribución normal de probabilidad y la distancia a la media medida en desviaciones estándar.

Estas gráficas muestran tres formas diferentes de medir el área bajo la curva normal. Sin embargo, muy pocas de las aplicaciones de la distribución normal de probabilidad implican intervalos de exactamente (más o menos) 1, 2 ó 3 desviaciones estándar a partir de la media. Para estos casos existen tablas estadísticas que indican porciones del área bajo la curva normal que están contenidas dentro de cualquier número de desviaciones estándar (más o menos) a partir de la media.

Afortunadamente también se puede utilizar una distribución de probabilidad normal estándar para encontrar áreas bajo cualquier curva normal. Con esta tabla se determina el área o la probabilidad de que la variable aleatoria distribuida normalmente esté dentro de ciertas distancias a partir de la media. Estas distancias están definidas en términos de desviaciones estándar.

Para cualquier distribución normal de probabilidad, todos los intervalos que contienen el mismo número de desviaciones estándar a partir de la media contendrán la misma fracción del área total bajo la curva para cualquier distribución de probabilidad normal. Esto hace que sea posible usar solamente una tabla de la distribución de probabilidad normal estándar.

Las distribuciones discretas son aquellas en las que la variable puede pude tomar un número determinado de valores:

Ejemplo: si se lanza una moneda al aire puede salir cara o cruz; si se tira un dado puede salir un número de 1 al 6; en una ruleta el número puede tomar un valor del 1 al 32.

Distribuciones discretas: Bernouilli

Es aquel modelo que sigue un experimento que se realiza una sola vez y que puede tener dos soluciones: acierto o fracaso:

Cuando es acierto la variable toma el valor 1

Cuando es fracaso la variable toma el valor 0

Ejemplo: Probabilidad de salir cara al lanzar una moneda al aire (sale cara o no sale); probabilidad de ser admitido en una universidad (o te admiten o no te admiten); probabilidad de acertar una quiniela (o aciertas o no aciertas)

Al haber únicamente dos soluciones se trata de sucesos complementarios:

A la probabilidad de éxito se le denomina "p"

A la probabilidad de fracaso se le denomina "q"

Verificándose que:

p + q = 1

Veamos los ejemplos anteriores:

Ejemplo 1: Probabilidad de salir cara al lanzar una moneda al aire:

Probabilidad de que salga cara: p = 0,5

Probabilidad de que no salga cara: q = 0,5

p + q = 0,5 + 0,5 = 1

Ejemplo 2: Probabilidad de ser admitido en la universidad:

Probabilidad de ser admitido: p = 0,25

Probabilidad de no ser admitido: q = 0,75

p + q = 0,25 + 0,75 = 1

MEDIA: La media o valor medio de una distribución de probabilidad se representa por m, y se define por:

edu.red4.1]

En estas dos fórmulas f(x) es la función de probabilidad y la función densidad de probabilidad respectivamente de la variable aleatoria X en consideración.

Conviene mencionar que la media m se conoce como esperanza matemática de X o, brevemente, esperanza de X, y se representa por E(X).

Ejemplo 10: Supóngase que la variable aleatoria X es el número que queda hacia arriba al lanzar un dado legal.

edu.red

Que quiere decir que 3.5 es el valor esperado, lo que significa que 3.5 es el valor central de la distribución.

Obsérvese que no es necesario que el valor esperado sea un valor posible de la variable aleatoria. También se interpreta en el sentido de que en 10 ejecuciones del experimento, por ejemplo, se espera que la suma de los números obtenidos sea de (10) (3.5) = 35.

edu.red

Fig. 8 Función de probabilidad correspondiente al ejemplo 4.10

 

Ejemplo 11: Determinar la media o valor esperado de la distribución cuya función densidad de probabilidad está por la regla de correspondencia:

edu.red

Donde f(X) representa a la función de probabilidad y a la función densidad de probabilidad, respectivamente, de la variable aleatoria.

edu.red

En palabras, la varianza es una medida de dispersión o variabilidad que no tiene interpretación física ya que está en unidades cuadradas.

Si en las fórmulas anteriores desarrollamos el cuadrado del binomio y aplicamos propiedades de las sumatorias (integrales) se llega a una expresión más conveniente para realizar los cálculos

edu.red

Ejemplo 4.12: Calcular la varianza s2 para la función densidad del ejemplo 4.11

Solución:

edu.red

edu.red

edu.red

Fig. 9

? (a) Distribuciones con igual media y diferente dispersión

? (b) Distribuciones con medias diferentes e igual dispersión

 

Ejemplo 13: La varianza y la desviación estándar de la distribución del ejemplo 4.10 son:

edu.red

Ejemplo 14:

Encontrar la media y la varianza de la distribución que tiene densidad

edu.red

Solución:

edu.red

edu.red

28 DE FEBRERO DEL 2012 SESIÓN 10.

Media, muestra y media poblacional

Inferencias estadísticas con muestras grandes. Tipos de estimadores. Evaluación de bondad. Evaluación de estimador.

Una media es una medida de tendencia central que resulta al efectuar una serie determinada de operaciones con un conjunto de números y que, en determinadas condiciones, puede representar por sí solo a todo el conjunto». Existen distintos tipos de medias, tales como la media geométrica, la media ponderada y la media armónica aunque en el lenguaje común, el término se refiere generalmente a la media aritmética.

Muestra estadística (también llamada muestra aleatoria o simplemente muestra) es un subconjunto de casos o individuos de una población estadística.

Las muestras se obtienen con la intención de inferir propiedades de la totalidad de la población, para lo cual deben ser representativas de la misma. Para cumplir esta característica la inclusión de sujetos en la muestra debe seguir una técnica de muestreo. En tales casos, puede obtenerse una información similar a la de un estudio exhaustivo con mayor rapidez y menor coste (véanse las ventajas de la elección de una muestra, más abajo).

Por otra parte, en ocasiones, el muestreo puede ser más exacto que el estudio de toda la población porque el manejo de un menor número de datos provoca también menos errores en su manipulación. En cualquier caso, el conjunto de individuos de la muestra son los sujetos realmente estudiados.

El número de sujetos que componen la muestra suele ser inferior que el de la población, pero suficiente para que la estimación de los parámetros determinados tenga un nivel de confianza adecuado. Para que el tamaño de la muestra sea idóneo es preciso recurrir a su cálculo.

La propia definición de valor genotípico nos llevaba a la conclusión de que la media de las desviaciones ambientales toma un valor de cero (ver figura 1). Como P = G + E y, por tanto, P (media) = G (media) + E (media); entonces P (media) = G (media), ya que E (media) = 0. Por esta razón, cuando hablamos de media de la población, nos referimos indistintamente a la media de los valores fenotípicos y a la media de los valores genotípicos. Veamos cómo afectan las frecuencias génicas y genotípicas a la media del carácter en la población. Consideremos un locus con dos alelos,  A1 y A2, con frecuencias p y q respectivamente. La tabla 1 muestra el cálculo del valor genotípico medio en una población panmíctica.

Tabla 1

Las dos primeras columnas muestran los tres genotipos posibles y sus respectivas frecuencias. La tercera columna muestra los valores genotípicos, expresados como desviaciones del valor medio de ambos homocigóticos, que es el origen o punto 0 de la escala. Para calcular la media poblacional, será necesario ponderar cada uno de estos valores genotípicos en función de la frecuencia con que aparece cada uno de ellos en población. La suma de valores X frecuencias nos da el valor promedio; es decir, la media poblacional.

El intervalo de confianza para la media en muestras grandes se puede escribir como

 

Tipos de estimación estadística

Estimación de parámetros:

Un problema importante de la inferencia estadística es la estimación de parámetros de la población, brevemente parámetros (tales como la media y la variación de la población), de los correspondientes estadísticos muéstrales, o simplemente estadísticos (tales como la media y la variación de la muestra).

Estimaciones sin sesgo:

Si la media de las dispersiones de muestreo con un estadístico es igual que la  del correspondiente parámetro de la población, el estadístico se llamara estimador sin sesgo, del parámetro; si no, si no se llama estimador sesgado. Los correspondientes valores de tal estadístico se llaman estimación sin sesgo, y estimación con sesgo respectivamente.

Ejemplo 1: la media de las distribuciones de muestreo de medias   e, media de la población. Por lo tanto, la media muestral es una estimación sin sesgo de la media de la población.

Ejemplo 2. Las medias de las distribuciones de muestreo de las variables son:

Para ver el grafico seleccione la opción ¨Bajar trabajo¨ del menú superior

Encontramos, de manera que  es una estimación sin sesgo de. Sin embargo, s es una estimación sesgada de. En términos de esperanza podríamos decir que un estadístico es instigado porque Para ver el grafico seleccione la opción ¨Bajar trabajo¨ del menú superior 

 Estimación Eficiente:

Si las distribuciones de muestreo  de dos estadísticos tienen la misma media(o esperanza), el de menor varianza se llama un estimador eficiente de la media, mientras que el otro se llama un estimador ineficiente, respectivamente.

Si consideramos todos los posibles estadísticos cuyas distribuciones de muestreo tiene la misma media, aquel de varianza mínima se llama a veces, el estimador de máxima eficiencia, ósea el mejor estimador.

Ejemplo:

Las distribuciones de muestreo de media y mediana tienen ambas la misma media, a saber, la media de la población. Sin embargo, la varianza de la distribución de  muestreo de medias es menor que la varianza de la distribución de muestreo de medianas. Por tanto, la media muestral da una estimación eficiente de la media de la población, mientras la mediana de la muestra da una estimación ineficiente de ella.

De todos los estadísticos que estiman la media de la población, la media muestral proporciona la mejor (la más eficiente) estimación.

En la práctica, estimaciones ineficientes se usan con frecuencia a causa de la relativa sencillez con que se obtienen algunas de ellas.

Evaluación del desempeño de los estimadores no para métricos. Un estimador robusto y exacto no debería ser sensible al tamaño de la muestra, y por encima de cierto umbral de unidades de muestreo debería permanecer más. O menos estable alrededor de un valor (la riqueza estimada por el estimador; Chazdon et al., 1998; Leitner & Turner, 2001). Además, un estimador ideal debería alcanzar su propia asíntota mucho antes que la curva de acumulación de especies observadas, y aproximarse a ella de un modo

29 DE FEBRERO DEL 2012 SESIÓN 11.

Inferencias con muestras pequeñas

Para muestra de tamaño menor que 30, llamadas pequeñas muestras, esa aproximación no es buena y empeora al decrecer N, de modo que son precisas ciertas modificaciones.

El estudio de la distribución de muestreo de estadísticos para pequeñas muestras se llama teoría de pequeñas muestras, sin embargo un nombre más apropiado seria teoría exacta del muestreo, pues sus resultados son validos tanto para pequeñas muestras como para grandes.

O1 DE MARZO DEL 2012 SESIÓN 12.

Análisis de decisiones, población y muestra, certidumbre e incertidumbre, análisis de problemas de decisión

Análisis de decisión

El análisis de decisión proporciona un soporte cuantitativo a los tomadores de decisiones en todas las áreas tales como ingenieros, analistas en las oficinas de planificación, agencias públicas, consultores en proyectos de gerencia, planificadores de procesos de producción, analistas financieros y de economía, expertos en diagnósticos de soportes medico y tecnológicos e infinidad de otras áreas.

Los especialistas en la construcción de modelos se encuentran normalmente tentados a estudiar el problema, y luego aislarse a desarrollar un modelo matemático para ser utilizado por el gerente (es decir, el tomador de decisiones.) Desgraciadamente el gerente podría no entender el modelo, por lo tanto podría usarlo ciegamente o simplemente rechazarlo. El especialista podría sentir que el gerente es exageradamente ignorante y poco sofisticado para valorar el modelo, mientras que el gerente podría pensar que el analista vive en un mudo de fantasía de supuestos irreales y de lenguaje matemático irrelevante.

Población y muestra

Las estadísticas de por sí no tienen sentido si no se consideran o se relacionan dentro del contexto con que se trabajan. Por lo tanto es necesario entender los conceptos de población y de muestra para lograr comprender mejor su significado en la investigación educativa o social que se lleva a cabo.

POBLACIÓN - es el conjunto total de individuos, objetos o medidas que poseen algunas características comunes observables en un lugar y en un momento determinado. Cuando se vaya a llevar a cabo alguna investigación debe de tenerse en cuenta algunas características esenciales al seleccionarse la población bajo estudio.

Entre éstas tenemos:

Partes: 1, 2
Página siguiente