Cálculo desarrollado de algunos coeficientes econométricos para contrastes de hipótesis (página 2)
Enviado por Yadier Torres Sánchez
El surgimiento de paquetes estadísticos como SPSS v.12, STATA, EVIEWS y otros, permiten la aplicación y enseñanza de estas técnicas a un nivel más abarcador, obteniéndose soluciones a problemas que anteriormente no podían ser resueltos de forma eficiente. Estos paquetes proporcionan una ayuda y un tutorial, pero no se detalla científicamente de donde se obtienen los resultados que muestran los visores, fundamentalmente en los contrastes de hipótesis, y por tanto al desarrollar sistemas informáticos dirigidos a su introducción en la práctica social, no es posible obtener estos resultados. Lo mismo sucede con la bibliografía especializada.
Por lo anteriormente expuesto, el problema consiste en que la literatura existente y programas profesionales carecen de suficiente desarrollo matemático que permitan una comprensión detallada de los resultados obtenidos en los estadísticos econométricos, lo cual dificulta la labor de los investigadores para la confección de sistemas informáticos específicos. De esta manera el objetivo general de este trabajo es desarrollar detalladamente el cálculo de algunos coeficientes econométricos utilizados en contraste de hipótesis permitiendo la elaboración de sistemas informáticos específicos.
Objetivos específicos: Desarrollar matemáticamente de forma detallada la prueba de rachas para la comprobación de la independencia de los errores.
Desarrollar matemáticamente de forma detallada el coeficiente de correlación de rangos de Spearman para la igualdad de varianzas.
Desarrollar matemáticamente de forma detallada el contraste Kolmogorov – Smirnov para detectar la normalidad en muestra de datos.
Utilizar en un sistema informático específico de regresión múltiple (SICEC) los contrastes de hipótesis hallados anteriormente.
1.1Aplicabilidad de la estadística La estadística se plantea que es una ciencia que surge de la fusión entre la teoría de las probabilidades en los juegos de azar y la estadística o ciencia del estado, que estudia la descripción de datos. La estadística, es reconocida por muchos como la ciencia que se dedica a la colección, análisis, interpretación y representación de las conclusiones extraídas de información numérica (Dixon y Massey 1980). Se llega a plantear que el análisis estadístico no se inicia hasta que no se acumulan datos del problema de interés, constituyendo esta etapa una parte importante de esta ciencia (Kazmier, LJ, 1972), al igual que el análisis exploratorio de dichos datos (Ostle, B, 1979).
La literatura referente a la aplicación de la estadística en la dirección de procesos enfatiza en el papel de la misma en la toma de decisiones. Los autores definen que la estadística se relaciona con el uso y análisis de datos numéricos para resolver problemas generalmente con incertidumbres, en el marco teórico, práctico o de investigación. La propia necesidad de resolver problemas pone de manifiesto la aplicabilidad intrínseca de esta materia.
1.2 Tendencias en la enseñanza de la estadística A pesar de que existe una conciencia respecto a la aplicabilidad de la estadística, el conocimiento de esta ciencia está protegido en mayor medida por el mundo académico, con un papel destacado de las maestrías, especializaciones y doctorados.
Respecto a la enseñanza de la estadística, lo que más se reporta es el contenido de lo que se debe enseñar, que a su vez es lo que sirve de guía para establecer los programas de estudio en los diferentes niveles de la enseñanza. Incluso a través de la moderna tecnología de la INTERNET cuando se realizan búsquedas, en su mayoría aparece este tipo de información. Así, nos podemos encontrar programas de estadística de distintas carreras universitarias, de maestrías o la literatura habitual acerca de la forma de estructurar el conocimiento de la estadística desde, la más general hasta la aplicada a cualquier campo del saber.
Con este análisis, no se pretende establecer una crítica, por la presencia de esta información, todo lo contrario, ya que una parte importante para la difusión de cualquier materia lo constituye la existencia de la misma. Lo que se desea es mostrar que se ha avanzado más en este sentido, y menos en la identificación de una forma ordenada de las necesidades en los que utilizan la estadística, que sirva de retroalimentación para la toma de acciones dirigidas a suplir esta necesidad.
Tampoco, quiere decir que no existan experiencias que se hayan dirigido a cumplir tal objetivo. Los propios seminarios de actualización para determinados profesionales en estadística; las consultorías cuando se abordan con el principio de que los utilizadores asimilen y aprendan de forma continua al igual que los que enseñan acerca de las necesidades más frecuentes, sirviendo de fuente importante para introducir en los planes de estudio; los talleres o conferencias en estadística, en las que se establece un diálogo e intercambio de experiencias y se imparten cursos de actualización; las asociaciones de estadísticos que se crean; y los proyectos que se pueden acometer, tanto de investigación como de enseñanza de la estadística.
La consultoría es un tema de polémica, ya que no siempre se realiza de manera efectiva. Se ha reconocido tres roles del consultor: como ayudante, como líder o como colega. Los autores recomiendan el de colega, ya que es, en el cuál se logra una comunicación y relación entre el que cliente y el consultor, jugando ambos papeles activos. Aunque los autores, enfatizan el problema de la aplicabilidad efectiva de la estadística a través de una adecuada consultoría, tanto en el enfoque, etapas a seguir, conocimiento que deben tener los consultores y tipo de enseñanza que deben recibir los estudiantes estadísticos para estar mejor preparados, sólo desde la óptica de la consultoría no se puede resolver el problema tan complejo de la integración entre los que utilizan y los que enseñan la estadística.
La estadística es una de las técnicas fundamentales para la econometría, ciencia mucha mas abarcadora y herramienta básica para el pronóstico y elección de políticas, por tanto esta situación problémica genera la necesidad de establecer estrategias para lograr, que el que tenga que hacer uso de este campo del saber, cuente con los medios y recursos para comprender y aplicarlos.
1.3 Enfoque econométrico El siguiente esquema 1 sintetiza el enfoque econométrico:
Son dos los componentes fundamentales de cualquier estudio econométrico: teoría y hechos. En realidad un logro importante de la econometría simplemente es combinar estos dos elementos. En cambio, una cantidad considerable del trabajo realizado destaca uno de ellos a costa del otro.
La teoría es uno de los elementos básicos en cualquier estudio econométrico, pero debe ser formulada de manera que pueda utilizarse. La forma mas eficaz con fines econométricos, como se aprecia en la grafica anterior suele ser la de un modelo, en particular un modelo econométrico. El modelo resume la teoría relevante para el sistema considerado y es la forma más conveniente para sintetizar esta teoría, para hacer mediciones prácticas y pruebas.
El otro elemento importante en un estudio econométrico es un conjunto de hechos, término que designa los eventos en el mundo real que están relacionados con el fenómeno bajo investigación Estos hechos conducen a un conjunto de datos, que representan observaciones de hechos relevantes. Sin embargo, en general, los datos deben ser seleccionados o reconfigurados en una diversidad de formas para adecuarlos al uso requerido por el estudio econométrico.
La teoría ha sido desarrollada en la forma de un modelo econométrico y los hechos, en un conjunto de datos selectos; el siguiente paso, central en el enfoque econométrico, combina estos dos factores básicos. En ese paso la estimación del modelo econométrico con los datos selectos, hace uso de un conjunto de técnicas econométricas, es decir extensiones de los métodos clásicos de la estadística, particularmente el análisis de regresión, la inferencia estadística y el muestreo. Las extensiones de los métodos clásicos son necesarias para considerar ciertos problemas especiales que se encuentran al estimar un modelo econométrico.
La gráfica muestra también tres propósitos fundamentales de la econometría: el análisis estructural, la predicción y la evaluación de políticas. Cualquier estudio econométrico puede tener uno, dos o todos estos propósitos, que representan los productos finales de la econometría, del mismo modo que la teoría y los hechos constituyen sus materias primas.
A tales propósitos no puede obviarse el papel que desempeñan los sistemas de cómputo profesionales, los cuales hacen posible obtener la solución para cualquier tipo de situación que se plantee. Sin embargo, la necesidad de un procesamiento posterior de estos resultados con otros propósitos genera la confección de sistemas estadísticos específicos.
Existen diversos contrastes para corroborar disímiles situaciones estadísticas, como técnicas de apoyo a la econometría. Estos contrastes se pueden determinar fácilmente mediante diferentes sistemas computacionales, que por lo general en su realización cuenta con la bibliografía que las asumen, pero no queda lo suficientemente explícita para los investigadores, estudiantes de postgrado y pregrado.
La extensión de la semipresencialidad en el pregrado sugiere la utilización de una bibliografía más detallada de estos conceptos estadísticos. En Internet esta literatura se encuentra dispersa y adolece también de explicación científica detallada, por tanto se profundizará en los cálculos de la Prueba de Rachas, el estadístico de Kolgomorov – Smirnov y el coeficiente de correlación de rangos de Spearman, enfocados fundamentalmente al análisis de regresión, mediante el método de los mínimos cuadrados, herramienta fundamental de la econometría.
1.4 Prueba de Rachas Cuando se analiza el muestreo aleatorio, se dan varios métodos que brindan de antemano alguna seguridad de que la muestra sea aleatoria. Dado que hay situaciones en las cuales no se tiene control sobre la forma en que los datos son seleccionados, es útil disponer de alguna técnica para probar si alguna muestra puede considerarse aleatoria después de que en realidad se ha obtenido. Una de ellas se basa en el orden en que los datos fueron obtenidos; con más precisión, se fundamenta en el número de corridas exhibidas en los resultados muestrales.
Existen diversos contrastes para detectar la independencia de datos, lo que supone que el valor actual no depende del valor o valores anteriores. Dentro de las técnicas para detectarlas se encuentra el contraste de Durbin – Watson, Prueba de Box – Ljung, Prueba h de Durbin, Correlogramas, prueba de aleatoriedad o corridas, entre otras (Gujarati, Damodar M.: "Econometría"). En este apartado solo se hará referencia a la prueba de corridas o también conocida como rachas, utilizada en la mayoría de los sistemas de cómputo profesionales.
La formalización de la prueba de rachas enunciada en la literatura corriente es la siguiente [4]: Supongamos que se dispone de una muestra de una población y que, sobre cada valor de la muestra, se mide una variable en escala de razón o de intervalo X. Si xi, i = 1, ..n, son las n observaciones de la variable X, la prueba de rachas es una prueba de independencia que se utiliza para contrastar la hipótesis nula de que la secuencia de apariciones de los valores en el orden observado es aleatoria o, equivalentemente, que las observaciones son independientes entre sí.
Para demostrar esta técnica se han seleccionado a través de un análisis de regresión lineal múltiple, los residuos no tipificados del mismo, para determinar si el orden en que aparecen estos es aleatorio, dicho de otra forma, si cada residuo es independiente de sus retardos.
Si una sucesión contiene n1 símbolos del primer tipo y n2 de cualquier otro tipo (ni n1 ni n2 son menores que 10), entonces la distribución muestral del número total de corridas u, puede aproximarse mediante una distribución normal a través de:
De esta manera, la prueba de hipótesis nula de aleatoriedad pudiera fundamentarse mediante el estadístico:
Para demostrar lo anteriormente expuesto, primeramente, después de haber obtenido los residuos del modelo, es necesario conocer algunos conceptos tales como mediana, rachas, etc. La mediana es un estadístico de tendencia central en el sentido de que proporciona, cuando se ordenan los elementos de la muestra de menor a mayor, el valor del caso situado en el centro y es aquella que, ordenados los datos según su magnitud, el 50 % es menor que ésta, y el restante 50 % es mayor o igual. La racha no es más que una consecución de valores que poseen un mismo signo, por lo que en las siguientes tablas se puede mostrar sus respectivos cálculos, de manera que quede claro la utilización de esta prueba.
Utilizaremos un ejemplo donde se pretende estimar el rendimiento de la caña dado en t/ha, a partir de tres variables independientes: lluvia dado en mm3; atenciones culturales medidos en puntos del 1 al 10 y por ciento de población.
Las variables y residuos no tipificados, una vez obtenida la función lineal de regresión, aparecen en la tabla 1. El comienzo del ordenamiento aparece en la tabla 2.
Tabla 1
Tabla 2
En la columna # 1 se muestran los residuos después de haber aplicado el análisis de regresión lineal múltiple, obtenido de la última columna de la tabla 1. En la columna # 3 se muestran los residuos ordenados de menor a mayor, en la columna # 2, luego de determinar el valor de la mediana, cuales de los residuos en la columna # 1 están por debajo de esta mediana y cuáles por encima (la d significa debajo y la e significa encima). A continuación se muestra un análisis detallado del ejercicio propuesto y resuelto.
El resultado del valor de z que se ha calculado se compara con el valor de z de la tabla y resulta que, como se puede observar en la gráfica, este valor calculado cae dentro de la región de rechazo de la hipótesis nula, lo que implica que no hay aleatoriedad en los datos al rechazar dicha hipótesis.
1.5 Solución de Contraste de Rachas mediante el paquete estadístico SPSS V.12 Los resultados anteriores se pueden corroborar mediante el paquete estadístico profesional SPSS V.12, cuya salida se presenta a continuación. Como se observa la significación asintótica bilateral es de 0,003 por lo que existe suficiente evidencia empírica para no aceptar la hipótesis nula de aleatoriedad.
1.6 Coeficiente de correlación de rangos de Spearman El coeficiente de correlación de Spearman, ? (rho), es una prueba no paramétrica que mide la asociación o interdependencia entre dos variables discretas. Para calcular ?, los datos son ordenados y reemplazados por su respectivo orden. Este estadístico tiene gran similitud con el coeficiente de correlación de Pearson, que es un índice estadístico que mide la relación lineal entre dos variables cuantitativas. A diferencia de la covarianza, la correlación de Pearson es independiente de la escala de medida de las variables.
El estadístico asociado al coeficiente de correlación de rangos de Spearman ? viene dado por la expresión:
Donde D es la diferencia entre los correspondientes valores de x – y. N es el número de parejas.
Se tiene que considerar la existencia de datos idénticos a la hora de ordenarlos, aunque si éstos son pocos, se puede ignorar tal circunstancia.
Para muestras mayores de 20 observaciones, podemos utilizar la siguiente aproximación a la distribución t de Student:
La interpretación de coeficiente de rangos de Spearman es igual que la del coeficiente de correlación de Pearson. Oscila entre -1 y +1, indicándonos asociaciones negativas o positivas respectivamente, cero, significa no correlación pero no independencia. La tau (t) de Kendall es un coeficiente de correlación por rangos, inversiones entre dos ordenaciones de una distribución normal bivariante.
Para probar la homogeneidad de varianzas a través del coeficiente de correlación de rangos de Spearman, se contrastarán los residuos no tipificados, obtenidos con una de las variables independientes, en este caso con la lluvia.
El primer paso es ordenar los datos de la primera columna. Después, se crean dos columnas más, ambas son para ordenar (establecer un lugar en la lista) de las dos primeras columnas. Después se crea una columna "d" que muestra las diferencias entre las dos columnas de orden. Finalmente, se crea otra columna "d2". Esta última es sólo la columna "d" al cuadrado.
Después de realizar lo explicado con los datos del ejemplo, se obtiene la siguiente tabla 4.
En este caso no se repite ninguno de los valores de las dos primeras columnas, en caso que se repitiese uno o varios de los valores de éstas, entonces el valor en el orden correspondiente sería el valor de la media de los números de orden que les corresponderían si no lo fueran.
Este ejemplo se presenta en la siguiente tabla 5
Fuente: Elaboración propia de los autores
Nótese como se ha aplicado la corrección al sustituir el valor de 6 por 6,13.
1.7 Contraste Kolmogorov – Smirnov(K-S) para detectar Normalidad Al iniciar el análisis estadístico de una serie de datos, y después de la etapa de detección y corrección de errores, un primer paso consiste en describir la distribución de las variables estudiadas y, en particular, de los datos numéricos. Además de las medidas descriptivas correspondientes, el comportamiento de estas variables puede explorarse gráficamente de un modo muy simple. Para construir este tipo de gráfico, se divide el rango de valores de la variable en intervalos de igual longitud, representando sobre cada intervalo un rectángulo con área proporcional al número de datos en ese rango. Uniendo los puntos medios del extremo superior de las barras, se obtiene el llamado polígono de frecuencias. Si se observase una gran cantidad de valores de la variable de interés, se podría construir un histograma en el que las bases de los rectángulos fuesen cada vez más pequeñas, de modo que el polígono de frecuencias tendría una apariencia cada vez más suavizada. Esta curva suave "asintótica" representa de modo intuitivo la distribución teórica de la característica observada. Es la llamada función de densidad.
Una de las distribuciones teóricas mejor estudiadas en los textos y más utilizada en la práctica es la distribución normal, también llamada distribución gaussiana. Su importancia se debe fundamentalmente a la frecuencia con la que distintas variables asociadas a fenómenos naturales y cotidianos siguen, aproximadamente, esta distribución. Caracteres morfológicos (como la talla o el peso), o psicológicos (como el cociente intelectual) son ejemplos de variables de las que frecuentemente se asume que siguen una distribución normal. No obstante, y aunque algunos autores han señalado que el comportamiento de muchos parámetros en el campo de la salud puede ser descrito mediante una distribución normal, puede resultar incluso poco frecuente encontrar variables que se ajusten a este tipo de comportamiento.
El uso extendido de la distribución normal en las aplicaciones estadísticas puede explicarse, además, por otras razones. Muchos de los procedimientos estadísticos habitualmente utilizados asumen la normalidad de los datos observados. Aunque muchas de estas técnicas no son demasiado sensibles a desviaciones de la normal y, en general, esta hipótesis puede obviarse cuando se dispone de un número suficiente de datos, resulta recomendable contrastar siempre si se puede asumir o no una distribución normal. La simple exploración visual de los datos puede sugerir la forma de su distribución. No obstante, existen otras medidas, gráficos de normalidad y contrastes de hipótesis que pueden ayudarnos a decidir, de un modo más riguroso, si la muestra de la que se dispone procede o no de una distribución normal. Cuando los datos no sean normales, podremos o bien transformarlos o emplear otros métodos estadísticos que no exijan este tipo de restricciones (los llamados métodos no paramétricos).
Las pruebas K-S son pruebas no paramétricas que se utilizan para diferencias entre distribuciones acumuladas. La prueba unimuestral se refiere a la concordancia entre una distribución acumulada observada de valores muestrales y una función continua determinada; es, pues una prueba de bondad del ajuste. La prueba bimuestral está relacionada con la conformidad entre dos distribuciones acumuladas observadas; pruébese en hipótesis de que dos muestras independientes provienen de distribuciones continuas idénticas y es sensible a diferencias de la población con respecto a localización, dispersión o sesgo.
La prueba K-S unimuestral es en general más eficiente que la Chi Cuadrado para bondad del ajuste en pruebas pequeñas, y puede emplearse en muestras muy pequeñas donde la prueba Chi Cuadrado no se aplica. La prueba unimuestral se fundamenta en la diferencia máxima absoluta D entre los valores de la distribución acumulada de una muestra aleatoria de tamaño N y una distribución teórica determinada. Para decidir si esta diferencia es mayor de lo que razonablemente puede esperarse con un nivel de significación determinada se confeccionan tablas correspondientes para valores críticos de D.
La hipótesis nula que se establece es la siguiente:
La hipótesis alternativa representa la no conformidad de los datos de la muestra.
A continuación en la tabla 6, se expone la información de partida para esta prueba
Fuente: Elaboración propia de los autores.
Como se puede apreciar en la última columna, la diferencia más significativa es de 0,053421272, por lo que se hace necesario construir el contraste de la máxima diferencia.
Para esto es indispensable corroborar las tablas 7 y 8 que se muestran a continuación.
Tabla 7
Fuente: Elaboración propia de los autores.
Tabla 8
Fuente: Elaboración propia los autores.
En la primera se denota la distribución que se desea contrastar y en la segunda los valores para las significaciones de 1%, 5% y 10% para las distintas distribuciones.
Se trabajará con un a de 0.05 para la normal:
Como el valor de D = 0.0534 < 0.128 no se rechaza la Hipótesis Nula de Normalidad y se acepta que los datos se distribuyen normalmente.
Lo expuesto anteriormente se puede corroborar con el cálculo del p-valor o significación del estadístico de contraste Z de Kolmogorov, el cual brinda información adicional sobre la decisión tomada. Es muy importante conocer la diferencia entre el cálculo de la máxima diferencia absoluta y su comparación con la D-tabla para el rechazo o no de la hipótesis nula contrastada y el p-valor o significación. En el primero de los casos se puede rechazar o no, pero no se conoce hasta que grado de significación usted podría escoger la hipótesis nula formulada. Sin embargo el p-valor o significación es la probabilidad de observar un estadístico tan extremo como el que se ha obtenido si la hipótesis nula es cierta; esto significa que p- valores pequeños representan gran evidencia empírica en contra de la hipótesis nula, mientras que p- valores grandes aportan escasa evidencia contra dicha hipótesis nula. Por ejemplo, si el p-valor = 0.50 (escrito como número decimal, no como porcentaje), entonces observaríamos un valor del estadístico tan extremo como el que se ha obtenido en el 50 por ciento de todas las muestras aleatorias cuando la hipótesis nula es cierta; esto es una evidencia muy débil en contra de H0.
1.8 Evaluando Pr (Dn < d) El método usado es una sucesión de desarrollos que comenzaron con una visión de Kolmogorov referidos a los pasos de la función de distribución acumulada de la muestra (FDA) como un proceso Poisson y culminó con un tratamiento especial de Durbin. Su monografía resume y extiende los resultados de numerosos autores quienes han progresado en el problema entre los años 1933 – 1973. El resultado es un método que expresa la probabilidad requerida como un elemento real en la potencia enésima de una matriz formada fácilmente. La historia del desarrollo está disponible a través de 136 referencias de monografías. Sin embargo, en las referencias que se abordan las formas de calcular los p-valores, no queda totalmente explícito el desarrollo paso a paso del cálculo, lo que entorpece el conocimiento detallado, ocasionándole problemas al investigador en el caso que quiera utilizar estos cálculos para desarrollar sistemas informáticos. Cabe destacar que existen varias formas de calcular el p-valor o significación en el contraste de normalidad Kolmogorov – Smirnov para una muestra, tantos los basados en sucesiones factoriales, límites e integrales múltiples.
En la bibliografía estudiada estos métodos son extremadamente complejos, por lo que el procedimiento aquí expuesto en forma matricial, brinda una aproximación al verdadero p-valor o significación.
Poner aquí referencias
Al elevar esta matriz a la potencia n, que no es más que el tamaño muestral, el elemento tkk , representando el valor de la tercera fila y tercera columna 3;3 , sería 123224,2394, (Microsoft Encarta 2008) y al multiplicar este número por 15! 1515 resultaría 0,36798 que al ser restado del entero 1, sería igual a 0,63202. Los resultados por el paquete estadístico SPSS v.12 se pueden observar a continuación, y dada que la significación está por encima del valor de alfa predeterminado, existe suficiente evidencia empírica en favor de la Hipótesis Nula de Normalidad.
1. La formulación y desarrollo del análisis ha permitido concluir que los objetivos propuestos se han cumplido totalmente.
2. En el caso de las pruebas de rachas, Rho Spearman y Kolmogorov Smirnov, se pudieron calcular independientemente del programa de cómputo, comprobándose los resultados con el programa SPSS v.12.
3. La elaboración de la monografía es un material de consulta y permitirá los estudiantes de pregrado, profesores de los colectivos de estadística y estudiantes de postgrado, doctorantes y cursistas de maestría, tener acceso al desarrollo del cálculo de estos estadísticos que aparecen en los programas fundamentales profesionales actuales tales como SPSS en sus diferentes versiones, STATA, EViews, Statgraphics, etc.
4. Estos resultados permitirán obtener la base para efectuar los cálculos pertinentes en programas informáticos de estadísticas con enfoques específicos, que se confeccionan tomando en consideración la aplicación de técnicas econométricas como es el análisis de regresión y las series de tiempo.
1. Box, G.: Jenkins, G.: Time series analysis, forecasting and control. Editorial Holden-Day, 1976.
2. Dixon, W.J. y Massey., F, J. Introducción al Análisis Estadística. Editorial Pueblo y Educación. Ciudad de la Habana 1980.
3. Caridad, J.M. y Ocerín: "Econometría: modelos econométricos y series temporales". Ediciones Ariel Barcelona 2006.
4. Gujarati, Damodar M.: "Econometría". McGraw-Hill, 2006.
5. HILL, C. R.; JUDGE, G. y GRIFFITHS, W.: "Undergraduate Econometrics". John Willey and Sons, 1998.
6. HILL, C. R. y REIMAN, M. A.: "Using Eviews for Undergraduate". John Willey and Sons, 2000.
7. Kazmier, LJ Análisis Estadístico para la Empresa y la Economía. Editorial Pueblo y Educación. La Habana 1982.
8. Malinvaud, Edmond. "Métodos Estadísticos de la Econometría". Ediciones Ariel, Barcelona. España .1967.
9. Microsoft Encarta 2008.
10. PINDYCK, R. S.: "Econometría: modelos y pronósticos". McGraw-Hill, 2001.
11. Pulido, Antonio. Modelos Econométricos. Ediciones Enpes. La Habana, 1993.
12. Pupo, Juana y Otros. Análisis de Regresión y Series Cronológicas. Ediciones Enpes. La Habana 1983.
13. Rodríguez B., Ramón. ECONOMETRÍA MODERNA. Publicado por el Instituto Cubano de la Salud. La Habana 2008. ISBN 978-959-7158-67-7.
14. Selección de Tablas Estadísticas.
FACULTAD DE CIENCIAS ECONÓMICAS Y EMPRESARIALES DEPARTAMENTO DE MÉTODOS MATEMÁTICOS Y COMPUTACIÓN.
MONOGRAFÍA.
CÁLCULO DESARROLLADO DE ALGUNOS COEFICIENTES ECONOMÉTRICOS PARA CONTRASTES DE HIPÓTESIS.
MAYO 2009
Autor:
Lic. Yadier A. Torres Sánchez.
Dr Cs Ramón Rodríguez Betancourt.
Página anterior | Volver al principio del trabajo | Página siguiente |