- A modo de introducción
- Estadìstica
- Origen de la estadística
- Historia de la estadística
- Orígenes en probabilidad
- Población, elementos y caracteres
- Técnicas de análisis estadístico
- Computación estadística
- A manera de conclusión
La mayoría de las veces, al hablar de Estadística llegan a nuestra mente imágenes de números agrupados en tablas, volúmenes de cifras relativas a nacimientos, muertes, impuestos, poblaciones, ingresos, deudas, entres otros aspectos. Pero la Estadística es mucho más que números apilados y gráficas bien hechas.
Es una ciencia tan antigua como la escritura y representa un auxilio para todas las ciencias. Las grandes empresas, la medicina, los gobiernos, la ingeniería, todo en general amerita el uso de la estadística para poderse desarrollar. La ausencia de la Estadística generaría un caos generalizado dejándonos sin una información vital a la hora de tomar decisiones en tiempos de incertidumbre.
La Estadística tal como la conocemos hoy en día, se debe en gran parte a la realización de los trabajos matemáticos de quienes desarrollaron la Teoría de las Probabilidades, con la cual se adhirió la Estadística a las ciencias formales. La palabra Estadística suele utilizarse bajo dos significados distintos, a saber:
1) Como colección de datos numéricos. Es su definición más común, de la cual se sobre entiende que dichos datos numéricos han de ser presentados de manera ordenada y sistemática. Una información numérica cualquiera puede no constituir una estadística, para merecer este apelativo, los datos han de constituir un conjunto coherente, establecido de forma sistemática y siguiendo un criterio de ordenación.
Podemos encontrar muchos ejemplos de este tipo de estadísticas: El Anuario Estadístico publicado por el Instituto Nacional de Estadística; El Anuario de Estadísticas del Trabajo; entre otros.
2) Como ciencia. En este significado, la Estadística estudia el comportamiento de los fenómenos de masas. Como todas las ciencias, busca las características generales de un colectivo y prescinde de las particulares de cada elemento. De manera tal que, por ejemplo, al investigar el sexo de los nacimientos, iniciaremos el trabajo tomando un grupo numeroso de nacimientos para obtener después la proporción de varones y la de hembras.
Es muy frecuente enfrentarnos con fenómenos en los cuales es muy difícil predecir el resultado; por eso no podemos dar una lista con las personas que van a morir con una cierta edad, o el sexo de un nuevo ser hasta que transcurra un determinado tiempo de embarazo, entre otros. Por lo tanto, el objetivo de la estadística es hallar las regularidades que se encuentran en los fenómenos de masa.
La estadística es la ciencia que se ocupa del estudio y la aplicación del conjunto de métodos necesarios para recoger, clasificar, representar y resumir los datos de un experimento aleatorio, así como para la realización de inferencias a partir del análisis de estos datos. Del mismo modo proporciona los procedimientos para evaluar la conformidad de la información empírica con los modelos teóricos propuestos que intentan explicar la realidad.
Actualmente la estadística experimenta un importante avance, fruto de la disponibilidad de medios informáticos cada vez más avanzados que permiten el manejo de grandes volúmenes de datos, así como la aplicación de nuevos métodos. En esta obra he querido no solo abordar los contenidos inherentes a la estadística descriptiva, cálculo de probabilidades y distribuciones de probabilidad e inferencia estadística, sino que también me propuse facilitar aún más su estudio, el cual tan sólo requiere una formación matemática básica, puesto que incide en la interpretación y la aplicación de los métodos estadísticos más que en la formulación matemática de éstos, y así, tras la exposición de los conceptos, se incluyen ejercicios resueltos y propuestos que ayudarán a una mejor comprensión de dichos contenidos.
Espero entiendan el contenido al 100 % sin margen de error.
La estadística es una ciencia que estudia la recolección, análisis e interpretación de datos, ya sea para ayudar en la toma de decisiones o para explicar condiciones regulares o irregulares de algún fenómeno y/o estudio aplicado, de ocurrencia en forma aleatoria o condicional. Sin embargo estadística es más que eso, en otras palabras es el vehículo que permite llevar a cabo el proceso relacionado con la investigación científica.
Distribución Normal.
Es transversal a una amplia variedad de disciplinas, desde la física hasta las ciencias sociales, desde las ciencias de la salud hasta el control de calidad. Se usa para la toma de decisiones en áreas de negocios o instituciones gubernamentales. La estadística se divide en dos grandes áreas:
Estadística Descriptiva: Se dedica a los métodos de recolección, descripción, visualización y resumen de datos originados a partir de los fenómenos de estudio. Los datos pueden ser resumidos numérica o gráficamente. Ejemplos básicos de parámetros estadísticos son: la Media y la Desviación Estándar. Algunos ejemplos gráficos son: Histograma, Pirámide Poblacional, Clústers, entre otros.
Estadística Inferencial: Se dedica a la generación de los modelos, inferencias y predicciones asociadas a los fenómenos en cuestión teniendo en cuenta la aleatoriedad de las observaciones. Se usa para modelar patrones en los datos y extraer inferencias acerca de la población bajo estudio. Estas inferencias pueden tomar la forma de respuestas a preguntas SI/NO (Prueba de Hipótesis), estimaciones de características numéricas (Estimación), pronósticos de futuras observaciones, descripciones de asociación (Correlación) o modelamiento de relaciones entre variables (Análisis de Regresión). Otras técnicas de modelamiento incluyen Anova, Series de Tiempo y Minería de Datos.
Ambas ramas comprenden la Estadística Aplicada. Existe también una disciplina llamada Estadística Matemática, la cual se refiere a las bases teóricas de la materia. La palabra Estadística también se refiere al resultado de aplicar un algoritmo estadístico a un conjunto de datos, como en estadísticas económicas, estadísticas criminales, entre otros.
El término alemán Statistik, fue introducido por Gottfried Achenwall (1.749), y designaba originalmente el análisis de datos del Estado, es decir, la Ciencia del Estado, también llamada Aritmética Política, de su traducción directa del inglés. No fue hasta el siglo XIX cuando el término Estadística adquirió el significado de recolectar y clasificar datos. Este concepto fue introducido por el militar británico Sir John Sinclair (1.754 – 1.835).
En su origen, por lo tanto, la Estadística estuvo asociada a los Estados, para ser utilizados por el gobierno y cuerpos administrativos, generalmente centralizados. La colección de datos acerca de estados y localidades continúa ampliamente a través de los servicios de estadísticas tanto nacionales como internacionales. En particular, los censos suministran información regular acerca de la población.
En esas épocas ya eran utilizadas representaciones gráficas y otras medidas en pieles, rocas, palos de madera y paredes de cuevas para controlar el número de personas, animales o ciertas mercancías. Hacia el año 3.000 A. C., los babilonios usaban pequeños envases moldeados de arcilla para recopilar datos sobre la producción agrícola y de los géneros vendidos o cambiados. Los egipcios analizaban los datos de la población y la renta del país mucho antes de construir las pirámides en el siglo XI A.C. Los libros bíblicos de Números y Crónicas incluyen en algunas partes trabajos de estadística.
El primero contiene dos censos de la población de Israel y el segundo describe el bienestar material de las diversas tribus judías. En China existían registros numéricos similares con anterioridad al año 2.000 A. C. Los antiguos griegos realizaban censos cuya información se utilizaba hacia el 594 A. C. para cobrar impuestos.
Los orígenes del estudio de la Estadística dan inicio en el siglo XVIII, con el interés por el estudio de los juegos de azar; sin embargo, es solo en las últimas siete décadas que su desarrollo se ha acrecentado con las múltiples aplicaciones de los llamados Métodos Estadísticos en la gran mayoría de los campos de las ciencias sociales.
En el antiguo Egipto, los faraones lograron recopilar, hacia el año 3.050 antes de Cristo, datos relativos a la población y la riqueza del país. De acuerdo al historiador griego Heródoto, dicho registro de riqueza y población se hizo con el objetivo de preparar la construcción de las pirámides. En el mismo Egipto, Ramsés II hizo un censo de las tierras con el objeto de verificar un nuevo reparto.
En el antiguo Israel la Biblia cita referencias, en el libro de los Números, de los datos estadísticos obtenidos en dos recuentos de la población hebrea. El rey David por otra parte, ordenó a Joab, general del ejército, hacer un censo de Israel con la finalidad de conocer el número de la población. También los chinos efectuaron censos hace más de cuarenta siglos.
Los griegos efectuaron censos periódicamente con fines tributarios, sociales (división de tierras) y militares (cálculo de recursos y hombres disponibles). La investigación histórica revela que se realizaron 69 censos para calcular los impuestos, determinar los derechos de voto y ponderar la potencia guerrera. Los romanos, maestros de la organización política, fueron quienes mejor supieron emplear los recursos de la Estadística.
Cada cinco años realizaban un censo de la población y sus funcionarios públicos tenían la obligación de anotar nacimientos, defunciones y matrimonios, sin olvidar los recuentos periódicos del ganado y de las riquezas contenidas en las tierras conquistadas. Para el nacimiento de Cristo sucedía uno de estos empadronamientos de la población bajo la autoridad del imperio.
Durante los mil años siguientes a la caída del imperio Romano se realizaron pocas operaciones estadísticas, con la notable excepción de las relaciones de tierras pertenecientes a la Iglesia, compiladas por Pipino el Breve en el 758 y por Carlomagno en el 762 D.C. Durante el siglo IX se realizaron en Francia algunos censos parciales de siervos.
En Inglaterra, Guillermo el Conquistador recopiló el Domesday Book o libro del Gran Catastro para el año 1.086, un documento de la propiedad, extensión y valor de las tierras de Inglaterra. Esa obra fue el primer compendio estadístico de Inglaterra. Aunque Carlomagno, en Francia; y Guillermo el Conquistador, en Inglaterra, trataron de revivir la técnica romana, los métodos estadísticos permanecieron casi olvidados durante la Edad Media.
Durante los siglos XV, XVI, y XVII, hombres como Leonardo de Vinci, Nicolás Copérnico, Galileo, Neper, William Harvey, Sir Francis Bacon y René Descartes, hicieron grandes operaciones al método científico, de tal forma que cuando se crearon los Estados Nacionales y surgió como fuerza el comercio internacional ya existía un método capaz de aplicarse a los datos económicos.
En el año 1.532 empezaron a registrarse en Inglaterra las defunciones debido al temor que el rey Enrique VII tenía por la peste. Por la misma época, en Francia la ley exigió a los clérigos registrar los bautismos, fallecimientos y matrimonios. Durante un brote de peste que apareció a fines de la década de 1.500, el gobierno inglés comenzó a publicar estadísticas semanales de los decesos.
Esa costumbre continuó muchos años, y en 1.632 estos Bills of Mortality (Cuentas de Mortalidad) contenían los nacimientos y fallecimientos por sexo. En 1.662, el capitán John Graunt usó documentos que abarcaban treinta años y efectuó predicciones sobre el número de personas que morirían de varias enfermedades y sobre las proporciones de nacimientos de varones y mujeres que cabía esperar.
El trabajo de Graunt, condensado en su obra Natural and Political Observations… Made upon the Bills of Mortality (Observaciones Políticas y Naturales … Hechas a partir de las Cuentas de Mortalidad), fue un esfuerzo innovador en el análisis estadístico.
Por el año 1.540 el alemán Sebastián Muster realizó una compilación estadística de los recursos nacionales, comprensiva de datos sobre organización política, instrucciones sociales, comercio y poderío militar. Durante el siglo XVII aportó indicaciones más concretas de métodos de observación y análisis cuantitativo y amplió los campos de la inferencia y la teoría Estadística.
Los eruditos del siglo XVII demostraron especial interés por la Estadística Demográfica como resultado de la especulación sobre si la población aumentaba, decrecía o permanecía estática. En los tiempos modernos tales métodos fueron resucitados por algunos reyes que necesitaban conocer las riquezas monetarias y el potencial humano de sus respectivos países.
El primer empleo de los datos estadísticos para fines ajenos a la política tuvo lugar en 1.691 y estuvo a cargo de Gaspar Neumann, un profesor alemán que vivía en Breslau. Este investigador se propuso destruir la antigua creencia popular que en los años terminados en siete moría más gente que en los restantes, y para lograrlo hurgó pacientemente en los archivos parroquiales de la ciudad.
Después de revisar miles de partidas de defunción pudo demostrar que en tales años no fallecían más personas que en los demás. Los procedimientos de Neumann fueron conocidos por el astrónomo inglés Halley, descubridor del cometa que lleva su nombre, quien los aplicó al estudio de la vida humana. Sus cálculos sirvieron de base para las tablas de mortalidad que hoy utilizan todas las compañías de seguros.
Durante el siglo XVII y principios del XVIII, matemáticos como Bernoulli, Francis Maseres, Lagrange y Laplace desarrollaron la teoría de probabilidades. No obstante durante cierto tiempo, la teoría de las probabilidades limitó su aplicación a los juegos de azar y hasta el siglo XVIII no comenzó a aplicarse a los grandes problemas científicos.
Godofredo Achenwall, profesor de la Universidad de Gotinga, acuñó en 1.760 la palabra Estadística, que extrajo del término italiano Statista (Estadista). Creía, y con sobrada razón, que los datos de la nueva ciencia serían el aliado más eficaz del gobernante consciente. La raíz remota de la palabra se halla, por otra parte, en el término latino Status, que significa Estado o Situación.
Esta etimología aumenta el valor intrínseco de la palabra, por cuanto la estadística revela el sentido cuantitativo de las más variadas situaciones. Jacques Quételect es quien aplica las Estadísticas a las ciencias sociales. Este interpretó la teoría de la probabilidad para su uso en las ciencias sociales y resolver la aplicación del principio de promedios y de variabilidad a los fenómenos sociales.
Quételect fue el primero en realizar la aplicación práctica de todo el método Estadístico, entonces conocido, a las diversas ramas de la ciencia. Entretanto, en el período del 1.800 al 1.820 se desarrollaron dos conceptos matemáticos fundamentales para la teoría Estadística: la Teoría de los Errores de Observación, aportada por Laplace y Gauss; y la Teoría de los Mínimos Cuadrados, desarrollada por Laplace, Gauss y Legendre.
A finales del siglo XIX, Sir Francis Gaston ideó el método conocido por Correlación, que tenía por objeto medir la influencia relativa de los factores sobre las variables. De allí parte el desarrollo del Coeficiente de Correlación creado por Karl Pearson y otros cultivadores de la ciencia biométrica como J. Pease Norton, R. H. Hooker y G. Udny Yule, quienes efectuaron amplios estudios sobre la medida de las relaciones.
Los progresos más recientes en el campo de la estadística se refieren al desarrollo del cálculo de probabilidades, en particular la rama denominada Indeterminismo o Relatividad, ha demostrado que el Determinismo fue reconocido en la física como resultado de las investigaciones atómicas y dicho principio se juzga aplicable tanto a las ciencias sociales como a las físicas.
Los métodos estadístico-matemáticos emergieron desde la teoría de probabilidad, la cual data desde la correspondencia entre Pascal y Pierre de Fermat (1.654). Pero es Christian Huygens (1.657) quien otorga el primer tratamiento científico conocido de la materia. El Ars Coniectandi de Jakob Bernoulli y la Doctrina de Posibilidades (1.718) de Abraham de Moivre, estudiaron la materia como rama matemática. En la era moderna, el trabajo de Kolmogórov es pilar en la formulación del modelo fundamental de la Teoría de Probabilidades, el cual es usado a través de la estadística.
La Teoría de Errores se remonta a la Ópera miscellánea (1.722) de Roger Cotes y al trabajo de Thomas Simpson (1.755), el cual aplica por primera vez la Teoría de la Discusión de Errores de Observación. La reimpresión (1.757) de este trabajo incluye el axioma que errores positivos y negativos son igualmente probables y que hay ciertos límites asignables dentro de los cuales se encuentran todos los errores; se describen errores continuos y una curva de probabilidad.
Pierre-Simon Laplace (1.774), hace el primer intento de deducir una regla para la combinación de observaciones desde los principios de la teoría de probabilidades. Laplace representó la Ley de Probabilidades de Errores mediante una curva y dedujo una fórmula para la media de tres observaciones. También, en 1.871, obtiene la fórmula para la Ley de Facilidad del Error (término introducido por Lagrange, 1.744) pero con ecuaciones inmanejables. Daniel Bernoulli (1.778) introduce el principio del máximo producto de las probabilidades de un sistema de errores concurrentes.
El método de mínimos cuadrados, usado para minimizar los errores en mediciones, fue publicado independientemente por Adrien-Marie Legendre (1.805), Robert Adrain (1.808), y Carl Friedrich Gauss (1.809). Gauss había usado el método en su famosa predicción de la localización del planeta enano Ceres en 1.801.
El siglo XIX incluye autores como Laplace, Silvestre Lacroix (1.816), Littrow (1.833), Richard Dedekind (1.860), Helmert (1.872), Hermann Laurent (1.873), Liagre, Didion y Karl Pearson. Del mismo modo, Augustus De Morgan y George Boole mejoraron la presentación de la teoría. Adolphe Quetelet (1.796 – 1.874), fue otro importante fundador de la estadística que introdujo la noción del Hombre Promedio (l"homme moyen) como un medio de entender los fenómenos sociales complejos tales como Tasas de criminalidad, de matrimonio, de suicido, entre otros.
Etapas de desarrollo de la estadística
La historia de la estadística está resumida en tres grandes etapas o fases:
1.- Primera Fase: Los Censos. Desde el momento en que se constituye una autoridad política, la idea de inventariar de una forma más o menos regular la población y las riquezas existentes en el territorio está ligada a la conciencia de soberanía y a los primeros esfuerzos administrativos.
2.- Segunda Fase: De la Descripción de los Conjuntos a la Aritmética Política. Las ideas mercantilistas extrañan una intensificación de este tipo de investigación. Colbert multiplica las encuestas sobre artículos manufacturados, el comercio y la población: los intendentes del Reino envían a París sus memorias. Vauban, más conocido por sus fortificaciones o su Dime Royale, que es la primera propuesta de un impuesto sobre los ingresos, se señala como el verdadero precursor de los sondeos. Más tarde, Bufón se preocupa de esos problemas antes de dedicarse a la historia natural.
La escuela inglesa proporciona un nuevo progreso al superar la fase puramente descriptiva. Sus tres principales representantes son Graunt, Petty y Halley. El penúltimo es autor de la famosa Aritmética Política. Chaptal, ministro del interior francés, publica en 1.801 el primer censo general de población, desarrolla los estudios industriales, de las producciones y los cambios, haciéndose sistemáticos durante las dos terceras partes del siglo XIX.
3.- Tercera Fase: Estadística y Cálculo de Probabilidades. El cálculo de probabilidades se incorpora rápidamente como un instrumento de análisis extremadamente poderoso para el estudio de los fenómenos económicos y sociales y en general para el estudio de fenómenos cuyas causas son demasiados complejas para conocerlos totalmente y hacer posible su análisis.
Estado actual
Durante el siglo XX, la creación de instrumentos precisos para asuntos de salud pública (Epidemiología, Bioestadística, entre otros.) y propósitos tanto económicos como sociales (Tasa de desempleo, econometría, entre otros.) necesitó avances sustanciales en las prácticas estadísticas.
Hoy en día el uso de la estadística se ha extiende más allá de sus orígenes como un servicio al Estado o al gobierno. Personas y organizaciones la utilizan para entender datos y tomar decisiones en ciencias naturales y sociales, medicina, negocios y otras áreas. La estadística es entendida generalmente no como un sub-área de las matemáticas sino como una ciencia diferente pero aliada. Muchas universidades tienen departamentos académicos de matemáticas y estadística separadamente. La estadística se enseña en departamentos tan diversos como Educación, Psicología, Salud Pública, entre otros.
Regresión lineal. Gráficos de dispersión en estadística.
Al aplicar la estadística a un problema científico, industrial o social, se comienza con un proceso o población a ser estudiado. Esta puede ser la población de un país, de granos cristalizados en una roca o de bienes manufacturados por una fábrica en particular durante un periodo dado. También podría ser un proceso observado en varios instantes y los datos recogidos de esta manera constituyen una serie de tiempo.
Por razones prácticas, en lugar de compilar datos de una población entera, usualmente se estudia un subconjunto seleccionado de la población, llamado Muestra. Los datos acerca de la muestra son recogidos de manera observacional y/o experimental. Los datos son entonces analizados estadísticamente lo cual sigue dos propósitos: Descripción e Inferencia.
El concepto de correlación es particularmente valioso. Los análisis estadísticos de un conjunto de datos pueden revelar que dos variables, es decir, dos propiedades de la población bajo consideración, tienden a variar conjuntamente como si hubiese conexión entre ellas. Por ejemplo, un estudio del ingreso anual y la edad de muerte podrían resultar que personas pobres tienden a tener vidas más cortas que personas de mayor ingreso. Las dos variables se dicen que están correlacionadas.
Sin embargo, no se puede inferir inmediatamente la existencia de una relación de causalidad entre las dos variables. El fenómeno correlacionado podría ser la causa de una tercera, previamente no considerada, llamada Variable Confusora.
Si la muestra es representativa de la población, inferencias y conclusiones hechas en la muestra pueden ser extendidas a la población completa. Un problema mayor es determinar cuán representativa es la muestra extraída. La estadística ofrece medidas para estimar y corregir por aleatoriedad en la muestra y en el proceso de recolección de los datos, así como métodos para diseñar experimentos robustos como primera medida, esto es conocido como Diseño Experimental.
El concepto matemático fundamental empleado para entender la aleatoriedad es el de probabilidad. La estadística matemática, también llamada Teoría Estadística, es la rama de las matemáticas aplicadas que usa la teoría de probabilidades y el análisis matemático para examinar las bases teóricas de la estadística.
El uso de cualquier método estadístico es válido solo cuando el sistema y/o población bajo consideración satisface los supuestos matemáticos del método. El mal uso de la estadística puede producir serios errores en la descripción e interpretación, afectando las políticas sociales, la práctica médica y la calidad de estructuras tales como puentes y plantas de reacción nuclear.
Incluso cuando la estadística es correctamente aplicada, los resultados pueden ser difícilmente interpretados por un inexperto. Por ejemplo, el significado estadístico de una tendencia en los datos, que mide el grado al cual la tendencia puede ser causada por una variación aleatoria en la muestra, puede no estar de acuerdo con el sentido intuitivo. El conjunto de habilidades estadísticas básicas y el escepticismo que una persona necesita para manejar información en el día a día se conoce como Cultura Estadística.
Población, elementos y caracteres
Una Población es el conjunto de todos los elementos a los que es sometido un estudio estadístico. Es obvio que todo estudio estadístico ha de estar referido a un conjunto y/o colección de personas o cosas. Este conjunto de personas o cosas es lo que denominaremos Población.
Las personas o cosas que forman parte de la población se denominan Elementos. En sentido estadístico un elemento puede ser algo con existencia real, como un automóvil o una casa, o algo más abstracto como la temperatura, un voto, un intervalo de tiempo.
A su vez, cada elemento de la población tiene una serie de características que pueden ser objeto del estudio estadístico. Por ejemplo, si consideramos como elemento a una persona, podemos distinguir en ella los siguientes caracteres: Sexo, Edad, Nivel de estudios, Profesión, Peso, Altura, Color de cabello, entre otros. Por cada elemento de la población podremos estudiar uno o más aspectos, cualidades o caracteres.
La población puede ser según su tamaño de dos tipos:
Población Finita: Cuando el número de elementos que la forman es finito, por ejemplo: el número de alumnos de un centro de enseñanza, un grupo en clase, un equipo de fútbol, entre otros.
Población Infinita: Cuando el número de elementos que la forman es infinito, o tan grande que pudiesen considerarse infinitos. Como por ejemplo: si se realizase un estudio sobre los productos que hay en el mercado. Hay tantos y de tantas calidades que esta población podría considerarse infinita.
Ahora bien, normalmente en un estudio estadístico, no se puede trabajar con todos los elementos de la población sino que se realiza sobre un subconjunto de la misma. Este subconjunto puede ser una muestra, cuando se toman un determinado número de elementos de la población, sin que en principio tengan nada en común; o una sub-población, que es el subconjunto de la población formado por los elementos de la población que comparten una determinada característica, por ejemplo: de los alumnos de una escuela la sub-población formada por los alumnos de 3er grado, o la sub-población de los varones de una o más secciones.
Una Muestra es un conjunto representativo de la población de referencia, el número de individuos de una muestra es menor que el de la población.
Un Individuo o Unidad Estadística es cada uno de los elementos que componen la población.
El Muestreo es la reunión de datos que se desea estudiar, obtenidos de una proporción reducida y representativa de la población.
Un Valor es cada uno de los distintos resultados que se pueden obtener en un estudio estadístico. Si lanzamos una moneda al aire 5 veces obtenemos dos valores: cara y cruz.
Un Dato es cada uno de los valores que se ha obtenido al realizar un estudio estadístico. Si lanzamos una moneda al aire 5 veces obtenemos 5 datos: cara, cara, cruz, cara, cruz.
Definición de Variable:
Una Variable Estadística es cada una de las características o cualidades que poseen los individuos de una población.
Tipos de Variable Estadística
Variable Cualitativa: Se refieren a características o cualidades que no pueden ser medidas con números. Podemos distinguir dos tipos:
Variable Cualitativa Nominal: Presenta modalidades no numéricas que no admiten un criterio de orden. Por ejemplo: El estado civil, con las siguientes modalidades: soltero, casado, separado, divorciado y viudo.
Variable Cualitativa Ordinal o Variable Cuasicuantitativa: Presenta modalidades no numéricas, en las que existe un orden. Por ejemplo: La calificación en un examen: reprobado, aprobado, notable, sobresaliente; Puesto conseguido en una prueba deportiva: 1º, 2º, 3º; Medallas de una prueba deportiva: oro, plata, bronce.
Variable Cuantitativa: Es la que se expresa mediante un número, por tanto se pueden realizar operaciones aritméticas con ella. Podemos distinguir dos tipos:
Variable Discreta: Es aquella que toma valores aislados, es decir no admite valores intermedios entre dos valores específicos. Por ejemplo: El número de hermanos de 5 amigos: 2, 1, 0, 1, 3.
Variable Continua: Es aquella que puede tomar valores comprendidos entre dos números. Por ejemplo: La altura de los 5 amigos: 1.73, 1.82, 1.77, 1.69, 1.75.
Igualmente encontramos que las variables cuantitativas, se pueden describir mediante el uso de números, como por ejemplo: el peso, Altura, Edad, Número de reprobados, entre otros, y se puede dividir en dos subclases:
Cuantitativas Discretas. Aquellas a las que se les puede asociar un número entero, es decir, las que por su naturaleza no admiten un fraccionamiento de la unidad, por ejemplo: número de hermanos, páginas de un libro, entre otras.
Cuantitativas Continuas: Aquellas que no se pueden expresar mediante un número entero, es decir, las que por su naturaleza admiten que entre dos valores cualesquiera y la variable pueda tomar cualquier valor intermedio, por ejemplo: peso, tiempo, entre otras.
No obstante en muchos casos el tratamiento estadístico hace que a variables discretas las trabajemos como si fuesen continuas y viceversa.
Los atributos son aquellos caracteres que para su definición precisan de palabras, es decir, no le podemos asignar un número. Por ejemplo: Sexo, Profesión, Estado Civil, entre otros.
A su vez las podemos clasificar en:
Ordenables: Aquellas que sugieren una ordenación, por ejemplo: la graduación militar, el nivel de estudios, entre otras.
No ordenables: Aquellas que sólo admiten una mera ordenación alfabética, pero no establece orden por su naturaleza, por ejemplo: el color de cabello, sexo, estado civil, entre otros.
Niveles de Medición:
Existen cuatro tipos de mediciones o escalas de medición en estadística. Los niveles Nominal, Ordinal, Intervalo y Razón, tienen diferentes grados de uso en la investigación estadística.
Las medidas de razón, en donde un valor cero y distancias entre diferentes mediciones son definidas, dan la mayor flexibilidad en métodos estadísticos que pueden ser usados para analizar los datos.
Las medidas de intervalo tienen distancias interpretables entre mediciones, pero un valor cero sin significado, como las mediciones de Coeficiente Intelectual o temperatura en grados Celsius.
Las medidas ordinales tienen imprecisas diferencias entre valores consecutivos, pero un orden interpretable para sus valores. Las medidas nominales no tienen ningún rango interpretable entre sus valores.
La escala de medida nominal, puede considerarse la escala de nivel más bajo. Se trata de agrupar objetos en clases. La escala ordinal, por su parte, recurre a la propiedad de orden de los números. La escala de intervalos iguales está caracterizada por una unidad de medida común y constante. Es importante destacar que el punto cero en las escalas de intervalos iguales es arbitrario y no refleja en ningún momento ausencia de la magnitud que estamos midiendo. Esta escala, además de poseer las características de la escala ordinal, permite determinar la magnitud de los intervalos (distancia) entre todos los elementos de la escala.
La escala de coeficientes o Razones es el nivel de medida más elevado y se diferencia de las escalas de intervalos iguales únicamente por poseer un punto cero propio como origen; es decir que el valor cero de esta escala significa ausencia de la magnitud que estamos midiendo. Si se observa una carencia total de propiedad, se dispone de una unidad de medida para el efecto. A iguales diferencias entre los números asignados corresponden iguales diferencias en el grado de atributo presente en el objeto de estudio.
Técnicas de análisis estadístico
Algunos tests y procedimientos para investigación de observaciones conocidos son:
Prueba T de Student.
Prueba de X².
Análisis de Varianza (ANOVA).
U de Mann-Whitney.
Análisis de Regresión.
Correlación.
Iconografía de la Correlaciones.
Frecuencia Estadística.
Análisis de Frecuencia Acumulada.
Prueba de la diferencia menos significante de Fisher.
Coeficiente de correlación producto momento de Pearson.
Coeficiente de correlación de rangos de Spearman.
Análisis factorial exploratorio.
Análisis factorial confirmatorio.
Disciplinas especializadas:
Algunos campos de investigación usan la estadística tan extensamente que tienen terminología especializada. Estas disciplinas incluyen:
Ciencias actuariales.
Física estadística.
Estadística industrial.
Estadística Espacial.
Matemática Estadística.
Estadística en Medicina.
Estadística en Medicina Veterinaria y Zootecnia.
Estadística en Nutrición.
Estadística en Agronomía.
Estadística en Planificación.
Estadística en Investigación.
Estadística en Restauración de Obras.
Estadística en Literatura.
Estadística en Astronomía.
Estadística en la Antropología (Antropometría).
Estadística en Historia.
Estadística militar.
Geoestadística.
Bioestadística.
Estadísticas de Negocios.
Estadística Computacional.
Estadística en las Ciencias de la Salud.
Investigación de Operaciones.
Estadísticas de Consultoría.
Estadística de la educación, la enseñanza, y la formación.
Estadística en la comercialización o mercadotecnia.
Cienciometría.
Estadística del Medio Ambiente.
Estadística en Epidemiología.
Minería de datos (aplica estadística y reconocimiento de patrones para el conocimiento de datos).
Econometría (Estadística económica).
Estadística en Ingeniería.
Geografía y Sistemas de información geográfica, más específicamente en Análisis espacial.
Demografía.
Estadística en psicología (Psicometría).
Calidad y productividad.
Estadísticas sociales (para todas las ciencias sociales).
Cultura estadística.
Encuestas por Muestreo.
Análisis de procesos y quimiometría (para análisis de datos en química analítica e ingeniería química).
Confiabilidad estadística.
Procesamiento de imágenes.
Estadísticas Deportivas.
La estadística es una herramienta básica en negocios y producción. Es usada para entender la variabilidad de sistemas de medición, control de procesos, como en Control Estadístico de Procesos o SPC (CEP), para compilar datos y para tomar decisiones. En estas aplicaciones es una herramienta clave, y probablemente la única herramienta disponible.
El rápido y sostenido incremento en el poder de cálculo de la computación desde la segunda mitad del siglo XX ha tenido un sustancial impacto en la práctica de la ciencia estadística. Viejos modelos estadísticos fueron casi siempre de la clase de los modelos lineales. Ahora, complejos computadores junto con apropiados algoritmos numéricos, han causado un renacer del interés en modelos no lineales, especialmente redes neuronales y árboles de decisión, y la creación de nuevos tipos tales como modelos lineales generalizados y modelos multinivel.
El incremento en el poder computacional también ha llevado al crecimiento en popularidad de métodos intensivos computacionalmente basados en remuestreo, tales como tests de permutación y de Bootstrap, mientras técnicas como el muestreo de Gibbs han hecho los métodos bayesianos más accesibles. La revolución en computadores tiene implicaciones en el futuro de la estadística, con un nuevo énfasis en estadísticas experimentales y empíricas.
Un gran número de paquetes estadísticos está ahora disponible para los investigadores. Los sistemas dinámicos y teoría del caos, desde hace una década, empezaron a interesar en la comunidad hispana, pues en la anglosajona de Estados Unidos estaba ya establecida la conducta caótica en sistemas dinámicos no lineales con 350 libros para 1.997 y empezaban algunos trabajos en los campos de las ciencias sociales y en aplicaciones de la física. También se estaba contemplando su uso en analítica.
Distribución de Frecuencias:
La distribución de frecuencias o tabla de frecuencias es una ordenación en forma de tabla de los datos estadísticos, asignando a cada dato su frecuencia correspondiente.
Tipos de Frecuencias:
Frecuencia Absoluta: Es el número de veces que aparece un determinado valor en un estudio estadístico. Se representa por fi.
La suma de las frecuencias absolutas es igual al número total de datos, que se representa por N.
Para indicar resumidamente estas sumas se utiliza la letra griega S (sigma mayúscula) que se lee suma o sumatoria.
Frecuencia Relativa: Es el cociente entre la frecuencia absoluta de un determinado valor y el número total de datos. Se puede expresar en tantos por ciento y se representa por ni.
La suma de las frecuencias relativas es igual a 1.
Frecuencia Acumulada: Es la suma de las frecuencias absolutas de todos los valores inferiores o iguales al valor considerado. Se representa por Fi. Frecuencia Relativa Acumulada: Es el cociente entre la frecuencia acumulada de un determinado valor y el número total de datos. Se puede expresar en tantos por ciento.
La frecuencia absoluta acumulada (Ni) de un valor Xi del conjunto (X1, X2, , XN) es la suma de las frecuencias absolutas de los valores menores o iguales a Xi, es decir:
Ejemplo:
Durante el mes de julio, en la ciudad de Barquisimeto se han registrado las siguientes temperaturas máximas:
32, 31, 28, 29, 33, 32, 31, 30, 31, 31, 27, 28, 29, 30, 32, 31, 31, 30, 30, 29, 29, 30, 30, 31, 30, 31, 34, 33, 33, 29, 29.
Página siguiente |