Descargar

Recientes desarrollos en Econometría: Un recuento histórico.

Enviado por gtrujillo


Partes: 1, 2

    Indice1. Introducción. 2. Una revisión histórica de los desarrollos en Econometría. 3. Recientes avances teóricos y metodológicos. 4. Algunos ejemplos empíricos. 5. Conclusiones.

    1. Introducción.

    El objeto de este artículo son los "recientes desarrollos en Econometría", pero el seguimiento que se realiza es histórico y como quiera que sean discutidos tales desarrollos recientes serán vistos como evolucionarios más que como revolucionarios. Esta aproximación histórica se ilustra en las tablas 1 a 4, las que indican algunos fundamentos desarrollados en la Econometría Teórica y en la Econometría Aplicada los mismos que serán tratados en este artículo. La Econometría tiene una historia relativamente larga como rama de la economía, ya que se puede fijar su nacimiento oficial en 1932, cuando la Sociedad de Econometría fue fundada y la revista Econometrica empezó a publicarse. Dado que este año se celebra el 68° aniversario de la fundación de la Sociedad de Econometría, este es un buen momento para contribuir al progreso que se ha hecho en esta materia y su impacto en el resto de la economía.

    2. Una revisión histórica de los desarrollos en Econometría.

    Volviendo ahora a la historia de la Econometría, sugeriría que el periodo a ser estudiado sea dividido en cuatro etapas, aunque no todos ellos han sido excelentes. La Etapa del Descubrimiento (desde 1930 hasta mediados de 1950). Aún cuando la fundación de la Sociedad de Econometría sea tomada para fijar el nacimiento oficial de esta disciplina, la Econometría no tuvo su "Teoría General" hasta 1944, cuando "Econometrica" publico un suplemento especial escrito por Trigve Haavelmo. Este ofrecía una estructura teórica básica para la estimación de ecuaciones simultáneas dentro de la cual la Econometría Teórica era desarrollada. Las ideas fundamentales de Haavelmo recogidas por la Fundación Cowles, la cual fue apoyada por la Universidad de Chicago. Ellas fueron notablemente exitosas, y al adoptar la aproximación de Máxima Verosimilitud a los problemas que se presentaron en ese tipo, solucionaron virtualmente todos los problemas teóricos en los que se interesaron a mediados de 1950. Todo lo concerniente al modelo el cual podía incorporar cualquier combinación de restricciones económicas y estadísticas fue el Modelo de Máxima Verosimilitud de Información Completa (MVIC).

    Sin embargo, la mayor restricción en la aplicación del modelo MVIC fue la falta de poder de la computación, lo cual esta gráficamente representado en las fotografías existentes del laboratorio de computación de la Comisión Cowles en 1952, cuando las computadoras no eran máquinas, sino personas que pasaban todo el día colocando números en las máquinas calculadoras de escritorio. Este fue el problema computacional que llevo a la comisión Cowles a desarrollar la alternativa más fácilmente computable del Modelo de Máxima Verosimilitud de Información Limitada (MVIL) y, en 1953, a Henry Theil a presentar el Modelo de Mínimos Cuadrados en dos etapas (MC2E).

    A pesar del hecho de que los MC2E ofrecen una técnica que podría ser implementada pese a los problemas computacionales, los Mínimos Cuadrados Ordinarios (MCO) continúan siendo el método de estimación más ampliamente utilizado. Durante este período, hubo poco interés en analizar los supuestos que subyacen al modelo MCO, excepto para la autocorrelación de primer orden (AR1) y su transformación, y en 1950/51 Durbin y Watson publicaron su prueba de errores de AR1. La prueba de Durbin y Watson rápidamente llego a ser común y la transformación de Cochrane-Orcutt la cual tuvo uso generalizado en el trabajo de Econometría Aplicada, desafortunadamente, ayudaron a persuadir a muchos economistas que la autocorrelación debía y podía ser tratada como un problema puramente estadístico y no como una señal de mala especificación del modelo.

    Metodológicamente, los economistas ocupados en el trabajo empírico durante este período tendieron a ignorar la mayoría de los desarrollos teóricos y continuaron estimando modelos uniecuacionales y evaluándolos sobre la base de un simple e inadecuado criterio:

    (I) La bondad del ajuste; un valor alto para el R2 fue usualmente lo primero y principalmente el principal objetivo. (II) Los signos y magnitudes de los parámetros estimados en relación a las expectativas de la teoría económica, y (III) Las pruebas t y F de hipótesis económicas simples.

    Esta metodología será examinada con mayor detalle más adelante en este artículo, pero la pregunta a considerarse aquí es por qué la disciplina se tardo tanto para tener un gran impacto sobre el resto de los economistas en esta época. ¿ por qué es esto? Sugeriría tres razones: 1. Escasez de profesores y libros: Como una nueva disciplina a estudiar, hubieron retrasos en la introducción de cursos debido a la falta de profesores entrenados para enseñar la materia y la ausencia de libros y material apropiado para los estudiantes; 2. Escasez de datos apropiados: Las nuevas ideas de la Econometría Teórica fueron también lentas para ser adoptadas debido a la escasez de datos adecuados. Al principio del periodo las cuentas sobre el Ingreso nacional no existían, e inclusive cuando comenzaron a aparecer durante y después de la 2° guerra mundial, la información fue casi de series de tiempo muy cortas; y 3. Problemas computacionales: En años recientes han llegado a tal punto el alto grado de desarrollo del poder de la computación, desde la computadora de sistema principal hasta las modernas Notebook, que es difícil recordar las labores de cálculos intensivos y hasta el cálculo de la ecuación de regresión simple.

    Estas restricciones, particularmente la tercera, ha influenciado en el desarrollo de la Econometría Aplicada y en la velocidad a la que ha sido adoptada en aspecto importantes como se muestra en la tabla 1.

    Tabla 1. La etapa del descubrimiento.

    Econometría Teórica

    Restricciones computacionales

    1932 Fundación de la Sociedad de Econometría y la Fundación Cowles en la Universidad de Chicago.

    1944 publicación del trabajo de Haavelmo sobre simultaneidad que llevó a concentrarse a la Fundación Cowles (más tarde Comisión ) en el modelo.

    Utilizando la aproximación de máxima verosimilitud, la mayoría de los problemas se resolvieron a inicios de 1950.

    La solución teórica completa dada por MVIC, no fue posible de usar a causa de las restricciones computacionales, así que la Comisión Cowles también desarrollo el MVIL.

    1949 trabajo de Cochrane-Orcutt sobre la transformación AR1.

    1950 Desarrollo de la prueba de Durbin-Watson para errores AR1.

    Serias restricciones en el cómputo.

    Sólo se disponían de calculadoras no eléctricas. La inversa de una matriz se hacia con la técnica Doolittle.

    Computadoras se sistema principal son desarrolladas, pero sólo disponibles para el

    gobierno de los EE.UU., más no para la investigación económica.

    Disponibilidad de máquinas calculadoras de escritorio (eléctricas).

    A pesar de los desarrollos en Econometría (teoría), los trabajos aplicados continúan utilizando los MCO con énfasis sobre R2, signos y magnitudes de los estimadores y pruebas t y F.

    La Etapa de la Certidumbre (desde mediados de 1950 hasta mediados de 1970). Tabla 2. Etapa de la Certidumbre.

    Econometría Teórica

    Restricciones Computacionales

    1958 Trabajo de Sargan sobre la estimación de variables instrumentales (VI).

    1960 Trabajo de G.Chow sobre pruebas de estabilidad de parámetros.

    1962 Trabajo de Zelner y Theil sobre MC3E.

    1964 Trabajo de Sargan sobre las pruebas de externalidad.

    1965 Trabajo de Shirley Almon sobre estructuras de rezagos.

    1969 Trabajo de Clive Granger sobre causalidad.

    1972 Trabajo de Christopher Sims, Arnold Zellner en la Universidad de Chicago , y de Jean Dreze y Edward Leamer en CORE.

    A inicios de 1960, las computadoras de sistema principal en muchas universidades e instituciones de investigación eran aún restringidas en poder y tamaño.

    Muchos modelos econométricos pequeños se construyeron.

    Aparecen paquetes tales como el SPSS y el TSP.

    Computadoras mas grandes y más poderosas de sistema principal estuvieron a disposición.

    Este periodo es la etapa de los grandes modelos de ecuaciones simultáneas.

    Datos quincenales están disponibles en algunos países, así que la escasez de datos no la es como cuando existen datos anuales.

    A pesar de que hubieron importantes avances teóricos durante este periodo, con el desarrollo de un modelo general para la estimación de Variables Instrumentales (VI) (Sargan 1958) y los Mínimos cuadrados en 3 etapas (MC3E) (Zellner y Theil 1962), la característica principal de este período fue la consolidación y la aplicación.

    Esta fue la etapa de la construcción de modelos, así como de la disponibilidad de computadoras de sistema principal y de programas econométricos especializados lo que hizo posible construir modelos macroeconométricos de gran escala. En los EE.UU., Lawrence Klein había desarrollado el gran modelo de la escuela Wharton en la Universidad de Philafelphia y otros grandes modelos fueron patrocinados por el Instituto Brookings y la Junta de la Reserva Federal en colaboración con el M.I.T. La Escuela de Negocios de Londres fue una de las primeras pioneras en el Reino Unido y, antes de terminar este período el Banco de Inglaterra, el cual normalmente no esta interesado en estas innovaciones técnicas, había construido un modelo econométrico.

    Las predicciones de varios modelos fueron bastante precisas y los constructores de modelos obtuvieron considerable prestigio por sus trabajos. Sin embargo, con la ventaja de observar el pasado, uno debe sugerir que fueron algo afortunados al trabajar en un período de continua expansión del mundo de la economía, lo que hizo más fácil predecir los cambios de las grandes variables económicas. Hubieron algunos desarrollos en las pruebas de diagnóstico, con el trabajo sobre las pruebas de heterocedasticidad y estabilidad (Chow 1960), pero estos tendieron a ser usados muy pocas veces. Ya existían programas universitarios formando profesionales en Econometría, muchos de los cuales fueron contratados por los grandes centros de modelística macroeconométrica. Sin embargo, la mayoría de estos profesionales permanece sin conocer los desarrollos de la Econometría Teórica y el nivel general del trabajo aplicado en Economía sigue siendo bajo, como se describió líneas atrás.

    La escasez de datos fue menos un problema en un número de países con cuentas del ingreso nacional elaboradas para producir series de tiempo con información quincenal para muchas de las variables macroeconómicas fundamentales, las que incrementaron el potencial de los grados de libertad disponible para los constructores de modelos, pero también ocasionaron nuevos problemas de especificación dinámica que no fueron reconocidos generalmente a tiempo.

    Las restricciones en computación fueron también más reducidas, tanto que llego a ser más fácil para los economistas tener acceso a las computadoras de sistema principal, las que fueron incrementando su poder y capacidad. Muchos de los grandes paquetes econométricos (tales como el TSP) aparecieron durante este periodo, de modo que las ideas de "hágalo usted mismo" fueron largamente superados.

    La etapa de la incertidumbre (desde mediados de 1970 hasta mediados de 1980). Tabla 3. La etapa de la incertidumbre.

    Econometría Teórica

    Restricciones computacionales

    Desarrollo del método de MC "General a lo específico", especialmente en el trabajo de Denis Sargan y David Hendry.

    Trabajo de Pesaran y otros sobre la teoría de las Pruebas de hipótesis no relacionadas.

    Trabajo sobre la teoría de análisis de datos combinados de series de tiempo y corte transversal, e.g desarrollo de la teoría de análisis de tablas de datos.

    Desarrollo de computadoras de sistema principal más rápidas y más poderosas.

    Desarrollo de programas más especializados en Econometría, por ejemplo: RATS, SHAZAM, PC GIVE, etc.

    Problemas para los constructores de modelos:

    i.Interrupciones en algunas de las relaciones básicas, e.g. la función de demanda de dinero de los EE.UU.

    ii.Incapacidad de la mayoría de modelos para predecir después de la primera crisis petrolera de la OPEP.

    iii.Ataques a los modelos Keynesianos por parte de los macroeconomistas neoclásicos de las expectativas racionales.

    La década desde mediados de 1970 no fue época para las aplicaciones econométricas, tanto que fueron sometidas a dos crisis. Primero, el inicio de la recesión seguida por la primera crisis petrolera de la OPEP que llevo a la mayoría de modelos econométricos establecidos a predecir en muy mala forma, tanto así que muchas de las relaciones básicas de la economía usadas por los constructores de modelos (tales como la curva de Phillips, funciones de demanda de dinero, etc.) resultaron insuficientes de mantenerse vigentes.

    Segundo, la teoría macroeconómica derivada de Keynes que proporciono la bese para la construcción de modelos econométricos estuvo bajo el ataque de una NUEVA ESCUELA de macroeconomistas neoclásicos – ¡ las expectativas racionales habían llegado!. Este ataque combinado de fracasos de predicción de los modelos macroeconómicos existentes llevó a la pérdida de confianza(de ambos lados)por parte de los constructores de modelos como de los usuarios de los modelos. Mientras algunos de los constructores de modelos trataron de abordar los problemas empíricos realizando ajustes ad hoc"(específicamente para eso) a sus modelos, otros econometristas respondieron de diversas formas.

    Primero, hubieron intentos de entender las críticas de la escuela neoclásica de las expectativas racionales y el problema de cómo incorporar las expectativas racionales dentro de los modelos macroeconómicos. Mientras esto tendía a producir modelos macroeconómicos más complicados y ocasionaba algunas dificultades de estimación, ello tuvo el efecto positivo de improvisar la especificación dinámica de muchos modelos.

    Segundo, los problemas metodológicos fueron requeridos sobre el proceso de construcción y selección de modelos y un número de diferentes escuelas surgieron, lo que ha tenido alguna influencia en años recientes. Los orígenes de las ideas concernientes han sido vistas antes, pero no han penetrado tanto hacia los pequeños grupos de seguidores hasta que la crisis los obligo a prestar atención a una amplia audiencia.

    Mientras el período no fue un buen momento para los constructores de modelos, ello marco una nueva era en la computación, ya que a inicios de 1980 se vio la aparición de la computadora personal IBM. En un momento relativamente corto los econometristas estuvieron trabajando en estas PC’S que eran más rápidas y poderosas que las computadoras de sistema principal de las primera épocas. Como consecuencia, los modelos teóricos que habían sido desarrollados por la Comisión Cowles en los años cincuenta fueron finalmente capaces de implementarse en las máquinas que fueron apareciendo sobre los escritorios de un gran número de economistas.

    Etapa de la Reconstrucción (desde mediados de 1980 hasta el presente). Tabla 4. La etapa de la reconstrucción.

    Econometría Teórica

    Restricciones computacionales

    1980 Trabajo de Christopher Sims sobre modelística del Vector Autorregresivo (VAR).

    Mucho interés por la metodología en este periodo. Ninguno de los paradigmas llega a dominar, pero el acuerdo general es sobre la necesidad de más pruebas de diagnóstico así como desarrollos en la teoría de las pruebas.

    Aumenta el interés en la modelística dinámica y en las propiedades de largo plazo de los modelos econométricos. Esta inquietud lleva al trabajo de fundamental de Clive Granger(1990) sobre Cointegración, Raíces Unitarias y el Modelo de Corrección de Errores. Así mismo se desarrollan muchos tópicos especializados para esos temas.

    A inicios de los 80’s el desarrollo de la PC de la IBM importa tanto como el nivel de cambio tecnológico de las computadoras el que llega a ser tan veloz que rápidamente no hay virtualmente restricciones sobre el análisis econométrico.

    Paquetes econométricos especializados(e.g. PC GIVE, MICROFIT, EVIEWS) y nuevos desarrollos en Econometría Teórica que inmediatamente se incorporaron en estos paquetes.

    El mayor uso del modelo de ecuación simple (como en los primeros días), pero no con mucho interés en las pruebas de diagnóstico y donde son apropiados el uso de la estimación de Variable Instrumental más que los MCO.

    Yendo a tiempos más recientes, dos avances han sido particularmente importantes. Primero ha sido un periodo en que la metodología llego a preocupar más a los profesionales de Econometría. Los fracasos de los constructores de modelos y la imposibilidad de muchos de los primeros procedimientos para discriminar entre modelos competentes debido al menor poder (eso es, el gran error tipo II de aceptar una hipótesis falsa) hizo necesario cuestionar los fundamentos. Uno de estos fue la validez de traspasar los supuestos clásicos del análisis de regresión sin que se cuestionen y pongan a prueba su validez. Esto ha llevado a un grandioso interés en las propiedades estadísticas de las ecuaciones y el desarrollo de una amplia variedad de pruebas. Estos avances están discutidos en la próxima sección.

    Seguido el progreso en el desarrollo de programas de computación especializados para la Econometría ha incrementado enormemente el conocimiento general de los profesionales de Econometría hacia los recientes avances de la Econometría teórica, ahora la situación ha sido revertida. Muchos de los actuales paquetes diseñados para el análisis econométrico son frecuentemente actualizados para incorporar nuevos avances teóricos en forma de pruebas adicionales o procedimientos analíticos.

    El efecto de estos paquetes que son instalados en las PC’S sobre los escritorios de aplicados economistas quienes no son necesariamente econometristas ha tendido a ser provechoso, tanto así que mientras algunos de ellos han aplicado las pruebas y obtenido los resultados mecánicamente sin comprenderlos, otros han sido suficientemente motivados para investigar la teoría que subyace a estas nuevas pruebas y procedimientos de estimación.

    Partes: 1, 2
    Página siguiente