La economía comenzó ha ser considerada una ciencia en el momento en el cual, se dejaron de un lado las pretensiones omnicomprensivas de los fundadores de la economía política; aquellas que intentaban comprender, por ejemplo: cuales son las fuentes de la riqueza de las naciones; las interacciones entre el tipo de instituciones y las relaciones de poder, como fuente de cambio de aquellas. Los responsables de ese nueva jerarquía de ciencia se la debemos a científicos como: A. Cournot; Jevons y, aquel que cimento los principales pilares de la estática comparativa en la economía, Sir Alfred Marshall. Esta ciencia cada vez se hizo más formal, limito cada vez más su objeto de estudio, asumió supuestos más irreales con respecto a las motivaciones de los individuos y a las características institucionales de las sociedades, es decir se transformo en un Ciencia moderna, y por tanto reduccionista y determinista.
Debido a su poder, el reduccionismo es también percibido frecuentemente como la ruta universal para el entendimiento. Aun esto ha colocado un abismo entre la ciencia y otros aspectos de la vida humana. El reduccionismo, usado abiertamente, ofrece un análisis del fenómeno separándolo en las piezas más pequeñas posibles; pero, como Alvin Toffler ha remarcado: la ciencia moderna es muy buena dividiendo los problemas en pedazos que frecuentemente olvidamos reunirlos de nuevo.
El reduccionismo y el determinismo han sido los jerarcas del método en la ciencia moderna y goza de la confianza, en ocasiones ciega de muchos intelectuales dentro y fuera de las academias del conocimiento; es imposible negar que, la casi total unanimidad, en cuanto a criterios, con respecto al método se fundamenta en sólidas bases, conformadas con el asombroso éxito que ha tenido la ciencia al domesticar, múltiples fenómenos de la naturaleza, otorgándonos la posibilidad de gozar de la siempre cambiante tecnología. El desarrollo de la química inorgánica; el dominio del átomo; las leyes del electromagnetismo; el conocimiento cada vez más detallado de la electricidad, la conductividad y las leyes de la física mecánica, son algunos de los conocimientos puros que han permitido la creación de toda una infinidad de tecnologías, un recorrido que va quizás desde el ferrocarril hasta las computadoras. Sin embargo, no es posible creer que el determinismo ha sorteado todos los obstáculos de la naturaleza y, por supuesto esto significa que no ha estado libre de criticas. El gran desempeño que ha tenido el determinismo en aquellas llamadas ciencias naturales no es extrapolable hacia las ciencias sociales como: la economía, la sociología, ni aquellas ciencias más cercanas al entendimiento del comportamiento humano y de aquel maravilloso órgano en cuyos dominios se conforma la personalidad de todo ser humano: el cerebro. Pero es que inclusive, en el ámbito de las ciencias naturales, el hombre junto con las nociones del determinismo no ha logrado desentrañar fenómenos tan complejos como: los cambios en el clima terrestre; la disyuntiva de la luz (es partícula o es una onda); ¿ qué edad tiene el universo que conocemos? ; ¿ Podremos algún día predecir cuando ocurrirá un terremoto? ; ¿ Cómo funciona el cerebro? ¿ Qué es realmente un ser vivo?
¿ Predecir cuándo ocurrirá una revolución social, o una ruptura institucional, o cuándo algún dictador ambicioso amenazará la paz mundial?. ¿ Cuándo y por qué ocurren los cracks financieros? y el sueño de muchos de los que vivimos de este lado del río Grande, ¿ Podremos algún día erradicar la pobreza?; son algunas de las interrogantes que aun la manera tradicional de hacer ciencia no nos proporciona repuestas satisfactorias.
Es interesante plantearse cuáles características tiene estos fenómenos o problemas, las cuales no nos permiten hallar las claves para encontrar salidas o respuestas a estos enigmas. La primera característica común a todos estos enigmas científicos es la ausencia de linealidad de los mismos.
Estamos familiarizados con los sistemas lineales que han sido el común denominador de la ciencia por más de trescientos años: ya que dos mas dos es igual a cuatro, podemos predecir que el volumen del agua que fluye por un canal sea el doble cuando el agua derramada sea también el doble. La no linealidad causa pequeños cambios en el nivel de organización que producen extensos efectos en el mismo o en diferentes niveles. En general, la no linealidad produce complejos e inesperados resultados.
La segunda característica esencial de estos fenómenos es una condición irreversible en el cual las cosas pueden ocurrir: esta condición es el tiempo, fluyendo desde el pasado para pasar cerca de nosotros hacia un futuro que esta abierto. La razón para establecer lo aparentemente obvio es que las leyes del movimiento tradicionalmente usadas para describir el comportamiento de la materia en el nivel microscópico no distinguen una dirección del tiempo de otra. Esta, la famosa paradoja de la irreversibilidad, surge de la discontinuidad de estos dos niveles de descripción.
Las dos características mencionadas anteriormente presente en los fenómenos, cuyas soluciones, cuando menos aproximadas no han sido halladas con éxito por el determinismo, son los ingredientes esenciales para un tipo de situación que está presente en la mayoría de la realidad circundante: LA COMPLEJIDAD.
Adentrándonos en las discontinuidades.
No tiene sentido que reine un determinismo rígido en las esferas del espíritu, de la cultura y de la sociedad, que es más compleja que la esfera de la Física y de la Biología, en la que se esta abandonando el postulado de un determinismo generalizado. Podemos afirmar que el tiempo, junto al poder, han sido las grandes variables sistemáticamente proscritas en el análisis económico o, a lo sumo, tratada de manera corta e irrelevante, como se comprueba en el ya manido y trasnochado enfoque estático- comparativo. Las características de irregularidad y no-linealidad, entre otras, del comportamiento económico, derivadas de su complejidad obligan a la utilización de conceptos e instrumentos nuevos especialmente concebidos para hacer frente a los retos que hoy se nos plantean en diferentes parcelas del conocimiento.
A pesar, de lo anterior dedicaré mis esfuerzos a realizar una revisión y divulgación de la manera más esquemática posible de esta nueva frontera de la ciencia, denominada teoría de la complejidad. Dos métodos han sido ideados para acercarnos a los fenómenos complejos: La matemática del Caos y la Teoría de las catástrofes; que a su vez son considerados subconjuntos de la teoría de las Bifurcaciones. Ambas teorías no causan entusiasmo entre los matemáticos clásicos; ya que estas se alejan de los excesos formales del pasado y son más cercanas a métodos cualitativos para lidiar con los sistemas dinámicos, en los cuales se presentan discontinuidades.
Complejidad es un eslogan para una nueva forma de pensar sobre el comportamiento colectivo de muchas unidades básicas pero interjectivas, sean estos átomos, moléculas, neuronas, o bits dentro de una computadora. Para ser más preciso, nuestra definición es que la complejidad es el estudio del comportamiento de las colecciones microscópicas de tales unidades que están marcadas con el potencial de evolucionar en el tiempo. Sus interacciones conducen a un fenómeno colectivo coherente, de tal manera que las propiedades que surgen de este, sólo pueden ser descritas en un nivel más alto que aquel de las unidades individuales.
La misión es encontrar unidad en la diversidad, para explicar cómo el orden puede emerger de una masa de agentes evolucionando.
Orígenes de la complejidad.
Irreversibilidad y no-linealidad caracterizan los fenómenos en todos los campos de la ciencia. Relacionado, pero más sutil, las formas caóticas de la complejidad también surgen de la no-linealidad, incluyendo el esparcimiento de la información y las ideas.
Comprender la complejidad de la vida es el más grande reto que ha enfrentado la ciencia. Lo que ganaremos al tener éxito en este reto es evidente. Un apropiado entendimiento de la vida económica del planeta es la clave para salvaguardar el futuro.
Entender la economía viviente del cuerpo humano puede ayudar a tratarlo cuando enferme. ¿ Puede un entendimiento similar de la complejidad de las sociedades humanas colaborar en anticipar desordenes, disturbios civiles, y las guerras?.
Muchas invaluables aplicaciones de este conocimiento existen por medio de la ciencia y la tecnología. Copiando la manera como organismos vivientes manejan los problemas que ellos enfrentan en la batalla por la supervivencia, científicos han desarrollado nuevas herramientas para resolver muchos problemas complejos. Algoritmos genéticos, programas de computadoras que traen ideas desde la evolución biológica, redes neuronales artificiales, son dos ejemplos. Ambos juegan un papel central en los avances modernos hacia la inteligencia artificial; ambos son difíciles de entender usando la ciencia convencional únicamente.
La complejidad enfrenta una perspectiva holistica y con esto entiende muchos conceptos difíciles, tales como la vida, la conciencia, y la inteligencia, que han consistentemente eludidos por la ciencia y la filosofía. La Vida artificial, la conciencia artificial, y la inteligencia artificial no se les puede asignar las borrosas fronteras dictadas por la noción reduccionista del mundo.
El cerebro humano es el ejemplo supremo de complejidad alcanzado por la evolución biológica. En ningún lugar la tensión entre el reduccionismo y el pensamiento que emerge es más profundamente sentida. Esta claro que el funcionamiento del cerebro depende de la riqueza microscópica, celular, y en el detalle subcelular, aun es igualmente evidente que sus extraordinarias capacidades están surgiendo de las propiedades del órgano completo. La conciencia es una de esas propiedades, y de esta fluyen las emociones humanas y los valores espirituales. De tal forma, por medio de su énfasis en el estudio del todo, más que en las partes individuales, la complejidad ofrece un significado para trascender las limitaciones materiales del reduccionismo y nos permite por el contrario construir un puente entre la ciencia y la condición humana.
El lenguaje de la complejidad.
Así como no podemos entender ningún idioma humano sin referencia a su gramática, sólo podemos manipular la complejidad apelando a su propia estructural gramatical expresada en el lenguaje de las matemáticas. Dentro del dominio de las matemáticas, la definición de la complejidad es totalmente clara. En ese lugar, la complejidad del problema es definida en términos del número de operaciones matemáticas necesarias para resolverlo. Medir el grado de complejidad de un problema dado es la misión de la teoría matemática de la complejidad.
Problemas complejos incluyendo la descripción de cómo el cerebro aprende de sus interacciones con el mundo externo y cómo la evolución llevo a un órgano tan complicado como el cerebro al primer lugar. Tal problema esta más allá del alcance del lápiz, del papel, y de la matemática analítica; debido a sus poderes, las computadoras entregan la única manera posible de resolverlo.
Para manejar la complejidad con una computadora una combinación de sutileza y fuerza bruta esta involucrada. Sutileza es necesaria para precisar la formulación matemática del problema personalmente, fuerza bruta se requiere para alimentar la computadora con los números y otros símbolos dentro de esta descripción y calcular a partir de esto, el comportamiento para cada una y todos los grupos de circunstancias deseadas. El papel esencial realizado por la computadora explica en gran medida porque un campo tan rico de investigación como es el estudio de la complejidad ha sido menospreciado por tanto tiempo por tantas personas. Antes de la llegada de la computadora digital, era poco practico para cualquier persona sentarse y llenar miles, inclusive millones de números dentro de un grupo de ecuaciones describiendo un complejo problema dado. La ciencia de la complejidad esta intrínsecamente enlazada y depende crucialmente de la tecnología de la computación.
Herida mortal al determinismo.
En el análisis de la evolución de la Física, de gran interés para nuestro propósito, ya que está a encarnado el ideal de ciencia objetiva, es el "principio de indeterminación " de Heisenberg el que llego para marcar prácticamente el fin del sueño determinista Laplaciano, y el comienzo de una época más compleja, pero a la vez más abierta y fructifica.
Según este principio nunca se podrá definir la trayectoria de una partícula subatómica con la precisión absoluta postulada por la mecánica clásica. Esta ultima sigue siendo valida para cuerpos macroscopicos, en la que la indeterminación implícita es mucho menor que los errores experimentales en los valores medidos.
Al contrario de lo que sucede en la ciencia económica, en la Física se aprecia claramente a lo largo del tiempo un proceso de unificación que en las etapas más recientes pretende acercarse, no sin cierto éxito, a sentar las bases de lo que hoy se denomina Teoría del Todo.
Determinismo e Indeterminismo.
Ya pocos años después de que Heisenberg estableciera su principio de indeterminación, Leon Brunschwicg afirmaba que el determinismo del fenómeno observado no es en sí nada más que un abstracción, porque es inseparable del determinismo mediante el cual se rige el acto de observación.1 Es decir, que la indeterminación microfísica se debe a la influencia perturbadora de la observación, permaneciendo intacto el determinismo compuesto del fenómeno observado y el proceso de observación.
Algunos autores, como Ivar Ikeland, consideran que en este fenómeno se da un problema de gran escala; el fenómeno es determinista a pequeña escala, y aleatorio a gran escala. Otro enfoque considera que el resultado final se obtiene por la suma de la multitud de causas microscópicas, pudiéndose describir perfectamente el efecto individual de cada una, siendo imposible, por el contrario, llevar a cabo el calculo del impacto global o de conjunto.
En esta aproximación al tema que nos ocupa, se sostiene que el aspecto aleatorio procede del hecho de que se posee una información exacta, pero incompleta. Una parte de la información permanece oculta, y ello da lugar a que leyes puramente determinista aparezcan con fenómenos claramente aleatorios. Se afirma, asimismo, que hay procesos deterministas en los que, debido al menor error de observación o al mínimo cambio en las condiciones iniciales, se producen comportamientos extraños como consecuencia de efectos amplificadores o "efectos mariposas", en la terminología del celebre meteorólogo Lorenz. Estos son sistemas deterministas pero imprevisibles porque son inestables.
EL determinismo constituye la postura u opción más acorde con la ciencia y con sus exigencias de rigor y racionalidad, en tanto que el Indeterminismo se presenta como algo hacia lo que nos sentimos irremediablemente arrastrados, con o sin nuestro consentimiento explícito. En esta línea argumental no son pocos los que opinan que la tendencia indeterminista de la ciencia moderna hay que interpretarla más como una conquista definitiva que como un estado provisional. Quizá pueda admitirse entender el determinismo como abstracción y simplificación para hacer inteligible la complejidad cotidiana, considerando, por su parte, el Indeterminismo como consecuencia de nuestra incapacidad para explicar la complicación, debido al hecho de no disponer de la información suficiente.
Sabemos que en la Física moderna se da lo que Espagnat denomina "objetividad débil", resultado del acoplamiento entre el sujeto que conoce y el objeto conocido, y restituyendo así al enfoque antropico la importancia que le había quitado la física clásica. En un mundo de objetividad débil se habla de la probabilidad de observar una partícula subatomica en un punto determinado, mientras que en un mundo de objetividad fuerte se habla de la probabilidad de que se encuentre en ese punto, lo que permite pensar, como añade Espagnat, que tenemos acceso más a una alegoría de lo real que a lo real mismo.
Sistemas dinámicos.
Reconociendo la intención de construir una visión de la ciencia más cercana a una visión sistemica de la misma es indispensable reconocer cuando se esta enfrente de un sistema dinámico y, cuales instrumentos nos proporciona el estado de la ciencia en materia de modelos dinámicos.
La dinámica es el estudio matemático del movimiento. Por otra parte, el sistema se considera como un conjunto de elementos en interacción, pudiéndose hablar de sistemas abiertos y sistemas cerrados. De forma general, los sistemas dinámicos están constituidos por un conjunto de elementos cuyo estado se caracteriza a su vez por un conjunto de variables x, y, ….,z. entre las que existen relaciones matemáticas, denominadas leyes o ecuaciones de movimiento o evolución. En el estudio de tales sistemas se trata de determinar la variación temporal de esas variables mediante funciones x(t), y(t), ….,z(t), estableciendo y resolviendo, sucesivamente, las ecuaciones de evolución.
Los dos tipos de ecuaciones diferenciales no lineales de primer orden que pueden resolverse por procesos directos de integración son aquellos en los que las variables se separan, y en los que las ecuaciones son exactas. Tenemos un tercer tipo o procedimiento cuando pueden reducirse a exactas mediante el uso de factores integrantes. A ello hay que añadir una cuarta técnica consistente en un cambio de variable para simplificar la ecuación diferencial y hacer posible su solución; es el caso de las denominadas ecuaciones homogéneas.
Pero quedan otros métodos realmente importantes y a los que hay que recurrir cuando no responde ninguno de los mencionados anteriormente; nos referimos al método gráfico cualitativo, por una parte, y a los algoritmos numéricos, por otra.
Método cualitativo topológico.
Puede entenderse por teoría cualitativa o topológica de las ecuaciones diferenciales el análisis de las propiedades de la solución sin que de hecho esta se conozca, ni se intente encontrar una aproximación por medio de series de potencia u otros métodos cuantitativos. La técnica más utilizada al respecto es la del diagrama de fase.
René Thom, en su libro Structural stability and Morphogenesis, publicado en 1972, afirma que lo que ofrece no es una teoría, sino un método que, con el fin de entender el fenómeno objeto de estudio, permite describir los modelos dinámicos compatibles con una morfología dada. Su enfoque es preferentemente cualitativo. Hay en ella, un retorno a la geometría, y por ello no es extraño que lo fundamental se deba a la aportación de un topólogo, que procede de la Ecole Normale.
Los métodos de aproximación numérica.
Como ya hemos dicho, existen ecuaciones diferenciales de difícil solución por procedimientos analíticos exactos, siendo entonces importante la resolución aproximadas de dichas ecuaciones por métodos numéricos, especialmente a partir de la creación de las computadoras digitales de alta velocidad, que permiten realizar cientos o miles de cálculos por segundo.
Atractores Simples: Puntos Fijos Y Ciclos Limites.
En un sistema dinámico existen puntos o valores de la variable independiente que atraen o, en pocas palabras los valores de la variable dependiente se van aproximando paulatinamente a un determinado en el transcurrir del tiempo: lim X(t)=Xo t
Normalmente se habla de dos atractores simples: los puntos fijos y los ciclos límites, que representan el comportamiento a que llega a un estado estable o que se repite continuamente.
En el primer caso tenemos el ejemplo del péndulo, que pierde constantemente energía a causa de la fricción; en él todas las trayectorias decrecen en espiral hacia un punto fijo central con posición cero y velocidad cero. Ese punto interior atrae las órbitas y representa el estado estable. La fricción disipa la energía del sistema, mostrándose dicha disipación en el estado de fases como un impulso hacia el centro desde las regiones periféricas.
El ciclo de un sistema se dice que es limite cuando es asintoticamente estable. O lo que es lo mismo, al cabo de un cierto tiempo el sistema se encuentra atrapado en el ciclo, que se convierte así en un estado estacionario no constante, sino oscilatorio.
* Los Exponentes De Liapunov Como Criterio Para Distinguir Atractores.
Los atractores tradicionales existen gracias a las aportaciones de Lorenz en 1963 son tres en realidad: puntos fijos, ciclos limites y toros. Este ultimo, que tiene una forma semejante a la superficie de una rosquilla, describe movimientos que constan de dos oscilaciones independientes llamados a veces movimientos cuasiperiódicos.
El procedimiento de los exponentes de Liapunov permite, pues, además de caracterizar el comportamiento de los sistemas en las diferentes condiciones, identificar el atractor extraño o caótico en el que surge una estructura mucho más complicada que la que presenta un atractor predecible, es decir un punto fijo, un ciclo limite o un toro.
* Teoría De Catástrofes.
La teoría de catástrofes, de naturaleza topológica, tiene como objetivo el tratamiento de las discontinuidades observables en el comportamiento de los sistemas dinámicos cuantitativos, sean lineales o no-lineales. Supone, sin lugar a dudas, una contribución importante al desarrollo de la dinámica y de la topología diferenciales, aunque resulta un enfoque fundamentalmente programatico.
La idea filosófica esencial subyacente en la teoría de catástrofes es que todo fenómeno, todo espacio-temporal debe su origen a una distinción cualitativa de los modos de acción del tiempo en las cosas. La dinámica no es, efectivamente, sino el estudio del modo de acción del tiempo en los sistemas.
Puede considerarse en cierto sentido como una teoría matemática, dado que utiliza conceptos y formalizaciones matemáticas, pero ello es muy distinto de identificarla con la teoría de la matemática.
Así como la bifurcación constituye un concepto matemático, en el caso de las catástrofes se trata de un concepto fenomelógico susceptible de una representación matemática estricta tan solo muy excepcionalmente.
La teoría de catástrofes con la matemática del caos, no provoca precisamente el entusiasmo de los matemáticos clásicos o de tradición.
Podría definirse o considerarse la teoría de catástrofes como un método matemático para describir la evolución de formas en la naturaleza y que trata de explicar cómo y por qué la acción continua de fuerzas provoca cambios bruscos e insospechados.
* Matemática Del Caos.
Tomándolo como punto de partida, el espíritu, la mente, o el conocimiento científico va buscando el orden desde el desorden, la regularidad desde la irregularidad, lo que por otra parte, constituye la tarea fundamental de cualquier pensador y hombre de ciencia.
Admitida la importancia decisiva del enfoque dinámico, es preciso reconocer la necesidad de enriquecerlo y actualizarlo con nuevos instrumentos conceptuales y analíticos. Y ello, entre otras razones, porque la naturaleza es intrisicamente aleatoria, pudiéndose considerar sus comportamientos regulares, previsibles y reproducibles como el producto efímero de una feliz casualidad, al igual que la lógica de la certeza puede interpretarse como un caso particular de la lógica de la probabilidad.
El caos arremete contra la pretensión Laplaciana de la predicción determinista, y sin embargo parece haberse consolidado la expresión caos deterministico en todo el campo de la Ciencia, a pesar que pueda parecer un despropósito.
En el caos deterministico se considera en un principio, que el futuro viene completamente determinado por el pasado, aunque en la practica es casi imposible predecirlo en un mundo altamente complejo y caótico. Pero aunque es verdad que el caos impone límites fundamentales de predicción, también es cierto que sugiere relaciones causales donde nadie las había sospechado.
En definitiva parece que se desea sugerir que hay orden en el caos, bajo el cual yacen elegantes formas geométricas.
El caos podemos localizarlo a través de, los atractores extraños, siguiendo los diagramas de bifurcación, o analizando el intrincado perfil de figuras de la geometría fractal.
El sistema de Lorenz constituye el ejemplo más conocido para analizar los fenómenos caóticos en las ecuaciones diferenciales, abordándose un problema importante para la meteorología, el de la convención atmosférica, consistente en la evolución de una capa de fluido, por ejemplo una corriente de viento, calentada por debajo. Lorenz, que publico su obra fundamental en 1.963, buscaba un vinculo entre la ausencia de un ciclo periódico del estado del tiempo o microclima y la imposibilidad de predecir el mismo, siendo ese vinculo la dependencia sensitiva de las condiciones iniciales.
Las ecuaciones del sistema de Lorenz tienen la propiedad de mostrar inestabilidad respecto a la posición inicial, de manera que el menor error de observación o el cambio más imperceptible de las condiciones iniciales se traducen al cabo del tiempo en una trayectoria completamente diferente, actuando una especie de efecto multiplicador ( por cierto, algo similar a lo que es muy conocido por los economistas en el ámbito de la teoría Keinesiana de la determinación del nivel de producto a través de los efectos sobre la demanda agregada) o de amplificación que Lorenz denomino efecto mariposa.
Los movimientos complicados implícitos en las ecuaciones de Lorenz y que continúan indefinidamente, tienen lugar en una parte del espacio a medio camino entre una superficie y un cuerpo con volumen que reciben el nombre de atractor extraño.
Los atractores caóticos son fractales, mostrando una bella estructura microscópica en el marco de una nueva geometría de la naturaleza o de la complejidad.
El concepto de fractal supone una nueva dimensión más allá de las euclidianas; cuyo postulado angular es " Por un punto exterior a una recta puede trazarse una paralela a la misma y sólo una", pues se trataba de dimensiones fracciónales o intermedias que vienen en esencia a poner de relieve que el sistema no ocupa todo el espacio que le corresponde. En efecto, el hecho de que la dimensión sea inferior al número de parámetros o grados de libertad necesarios para especificar completamente el estado del sistema considerado significa que éste no explotará todas las posibilidades ni todos los estados teóricamente posibles.
El fractal hay que entenderlo como una forma geométrica que permanece inalterada cualquiera que sea el aumento con el que se le observa. Podría decirse que, dentro de lo razonable, el fractal tiene la misma estructura a todas las escalas, lo contrario de lo que sucede con el fenómeno de renormalización en el que las figuras se alteran sensiblemente cuando las escalas se modifican o varían. El problema fundamental de los fractales reside en conocer su dimensión, que no necesita ser un número entero.
La mayor parte de los autores coinciden en que la teoría de las catástrofes y la matemática del caos pueden considerarse dos enfoques de una teoría general de la dinámica de las discontinuidades. Ambos tienen de común tomar como base de partida la idea de bifurcación o de desdoblamiento del equilibrio en puntos críticos, así como el hecho de que las relaciones funcionales son con mayor frecuencia del tipo no-lineal.
Pero difieren en que unas discontinuidades se plantean a gran escala, la teoría de las catástrofes, y a otras a pequeña escala, la teoría o matemática del caos. La teoría de catástrofes es pues, un caso especial de la teoría de la bifurcación, debida originalmente a Poincaré, que contempla al mundo como esencialmente uniforme y estable, pero sujeto a cambios súbitos e imprevistos o discontinuidades a gran escala que se producen en determinadas variables de estado.
En efecto, las catástrofes elementales son los lugares de los valores de bifurcación de los parámetros de los que dependen las familias estables de funciones o de campos de vectores diferenciales. A estos valores, que son puntos, curvas o superficies, corresponden puntos singulares degenerados de dichas funciones o campos, puntos donde la variedad de los equilibrios modifica su forma.
Hemos podido comprobar que en el camino hacia el caos se producen desdoblamientos sucesivos, llegándose a configurar atractores extraños a partir de determinados puntos críticos de los parámetros.
Conviene añadir que en la zona de caos pueden encontrarse pequeñas ventanas u oasis de orden y estabilidad en medio del desorden, ilustradas en las representaciones gráficas habituales mediante claros en áreas borrosas y de oscuridad.
Bibliografía:
FERNANDEZ DIAZ, A.; Alonso Alberto. "Caos y Mercado de Capitales: una introducción", Cuadernos de Economía Aplicada, CEURA, Madrid, 1.994.
GUZMAN, MIGUEL de y otros: Estructuras, fractales y sus aplicaciones, Editorial Labor. Barcelona, 1.993.
PETER COVENEY Y ROGER HIGHFIELD, "Frontiers of complexity "( the search for order in chaotic world), Cambridge Research
PETER COVENEY Y ROGER HIGHFIELD, "The Arrow of time". Cambridge Research
Autor:
Econ. Julio Bethelmy Autor: Econ. Julio Bethelmy econbethelmy[arroba]hotmail.com