Alife ha construido su metodología inspirándose fundamentalmente en la teoría evolucionista neodarwiniana (mutaciones y selección natural). Por ejemplo, en los años 1970, de la mano de John Henry Holland, surgió una de las líneas más prometedoras de la "inteligencia artificial", la de los "algoritmos genéticos". Son llamados así porque se inspiran en la evolución biológica y su base genético-molecular. Estos algoritmos hacen "evolucionar" una población de individuos sometiéndola a acciones aleatorias semejantes a las que teóricamente actúan en la evolución biológica (mutaciones y recombinaciones genéticas, así como también a una selección de acuerdo con algún criterio, en función del cual se decide cuáles son los individuos más adaptados y que sobreviven, y cuáles los menos aptos y que por lo tanto son descartados. Es incluido dentro de los algoritmos.
Un algoritmo genético es un método de búsqueda dirigida basada en probabilidad. Bajo una condición muy débil (que el algoritmo mantenga "elitismo", es decir, guarde siempre al mejor elemento de la población sin hacerle ningún cambio) se puede demostrar que el algoritmo converge en probabilidad al óptimo. En otras palabras, al aumentar el número de iteraciones, la probabilidad de tener el óptimo en la población tiende a 1 (uno).
Las aplicaciones actuales de los algoritmos genéticos son las siguientes:
•Diseño automatizado, incluyendo investigación en diseño de materiales y diseño multiobjetivo de componentes automovilísticos: mejor comportamiento ante choques, ahorros de peso, mejora de aerodinámica, etc.
•Diseño automatizado de equipamiento industrial.
•Diseño automatizado de sistemas de comercio en el sector financiero.
•Optimización de carga de contenedores.
•Diseño de sistemas de distribución de aguas.
•Diseño de topologías de circuitos impresos.
•Diseño de topologías de redes computacionales.
•En Teoría de juegos, resolución de equilibrios.
•Análisis de expresión de genes.
•Aprendizaje de comportamiento de robots.
•Aprendizaje de reglas de Lógica difusa.
•Análisis lingüístico, incluyendo inducción gramatical, y otros aspectos de Procesamiento de lenguajes naturales, tales como eliminación de ambigüedad de sentido.
•Infraestructura de redes de comunicaciones móviles.
•Optimización de estructuras moleculares.
•Planificación de producción multicriteria.
•Predicción.
•Optimización de sistemas de compresión de datos, por ejemplo, usando wavelets.
•Predicción de Plegamiento de proteínas.
•Optimización de Layout.
•Predicción de estructura de ARN.
•En bioinformática, Alineamiento múltiple de secuencias.
•Aplicaciones en planificación de procesos industriales, incluyendo planificación job-shop.
•Selección óptima de modelos matemáticos para la descripción de sistemas biológicos.
•Manejo de residuos sólidos.
•Ingeniería de software.
•Construcción de horarios en grandes universidades, evitando conflictos de clases.
•Hallazgo de errores en programas.
•Optimización de producción y distribución de energía eléctrica.
•Diseño de redes geodésicas (Problemas de diseño).
•Calibración y detección de daños en estructuras civiles.
Esta tecnología, basada en las ideas de Darwin, puede ser aprovechable. Sin embargo, ello no hace del evolucionismo una correcta interpretación de la forma en que ha venido a la existencia la biodiversidad terrestre. Por ejemplo, el hecho de que las dos guerras mundiales del siglo XX hayan impulsado determinadas áreas de la tecnología hasta el límite no justifica la guerra en el interés del progreso; dichas tecnologías se hubieran desarrollado de todos modos, tal vez más lentamente pero no menos eficazmente, con otros incentivos más pacíficos y cooperadores. De la misma manera, el neodarwinismo no queda justificado debido a que su versión cibernética haya tenido muy buenas aplicaciones en muchos campos, pues su extrapolación a realidad biosférica y a la historia natural de ésta es una falacia contraproducente.
Son muchas las invenciones teóricas del hombre, pero no todas son extrapolables a la realidad. Citemos un caso importante. Consideremos el auge de las máquinas que precedió a la era de la industrialización y que ha medrado durante ella; como consecuencia surgieron las ideas mecanicistas y una filosofía llamada "mecanicismo" se impuso en el ambiente académico. El mecanicismo es la doctrina según la cual toda realidad natural tiene una estructura comparable a la de una máquina, de modo que puede explicarse de esta manera basándose en modelos de máquinas. Como concepción filosófica reduccionista, el mecanicismo sostiene que toda realidad debe ser entendida según los modelos proporcionados por la mecánica, e interpretada sobre la base de las nociones de materia y movimiento. El reloj fue durante mucho tiempo el prototipo de máquina (que por una parte liga el tiempo con el espacio que debe recorrer el péndulo o las agujas de su esfera), aparecido como el modelo de las concepciones mecanicistas de los siglos XVII hasta mediados del siglo XIX. Se trata de una metáfora radical, porque constituye no sólo un modo de entender la física de los cuerpos, es decir, lo que se llamó "mecánica moderna", sino una verdadera filosofía, o sea, una concepción del mundo en su conjunto.
El paradigma mecanicista produjo, durante tres siglos, enormes avances, tal como lo ha hecho la computación evolucionista a través de los algoritmos genéticos en campos tecnológicos. Tanto es así, que el mecanicismo generó en la sociedad la creencia de haber hallado el camino del progreso ilimitado. Además, el éxito en física del mecanicismo influenció en forma notoria otras áreas de la ciencia, tales como la economía, la biología y la sociología. Pero todo cambió en el siglo XX. A principios de dicho siglo se formularon dos teorías revolucionarias, la teoría de la "relatividad", de Albert Einstein, y la "mecánica cuántica"; y, durante su transcurso, hubo un formidable desarrollo teórico y experimental de la física de las partículas elementales, un avance sin precedentes de la cosmología y la formulación de la teoría del caos, esta última en las antípodas del mecanicismo.
En la teoría del caos se demuestra que, en muchos y frecuentes casos, los sistemas en su evolución alcanzan situaciones de inestabilidad caracterizados por cambios aleatorios totalmente impredecibles. Bajo esas circunstancias, el mecanismo de relojería del universo newtoniano es impensable y el futuro del mundo queda abierto o indeterminado, al menos para el hombre.
Se observa, pues, que la comunidad científica tiende a adoptar paradigmas inspirados en modelos y teorías revolucionarios, tal como el mecanicismo o la interpretación neodarwiniana de la biodiversidad terrestre. Sin embargo, debería imponerse la cautela en la adopción de criterios de base como éstos porque las consecuencias pueden resultar lamentables. Así, el mecanicismo promovió el materialismo y la negación de toda realidad más allá de lo tangible y observable por el hombre, causando estragos en la fe que el ciudadano instruido tenía en la Sagrada Escritura; y el evolucionismo ha promovido el ateísmo y la sublimación de la "madre naturaleza" (una diosa de carácter aleatorio que produce vida a partir de la materia inerte), adormeciendo a la gente con respecto a la búsqueda de guía dada por el Creador en unos tiempos tan peligrosos como los de hoy, donde nuestro planeta corre el riesgo de ser irrecuperablemente apolillado por la insensatez humana.
Repercusiones sobre Alife.
Actualmente, en el campo de la Vida Artificial (Alife) existen dos opciones para la investigación y el desarrollo tecnológico. Una de ellas considera la Vida Artificial como herramienta necesaria para estudiar el mundo natural (por ejemplo, simulando adaptaciones de individuos y poblaciones), mientras que la otra se centra en la idea de que se pueden diseñar programas que ejecutados correctamente constituyan una forma de vida por sí mismos. Pues bien, donde el teorema de Gödel puede afectar más es en esta segunda acepción del concepto Vida Artificial, y más concretamente en la idea de que se pueden crear realidades artificiales que tengan los requisitos mínimos para la creación de vida.
Para entender las restricciones que el teorema de Gödel puede imponer en el ámbito de la Vida Artificial se hace necesario conocer primero el significado del término "mecanicismo". El "mecanicismo" es un movimiento de carácter científico-filosófico que surge a partir del siglo XVII y se apodera del mundo académico, imponiendo la creencia de que el universo es explicable en términos mecánicos y se rige por procesos mecánicos. El "mecanicismo" intenta demostrar que el universo no es más que un gran sistema.
Si los físicos pudieran modelar el universo en función de las leyes físicas, la biología también podría ser modelada de acuerdo a esas mismas leyes. Según Descartes, los propios animales podrían ser considerados máquinas; y autores como Emmeche han afirmado que "un organismo no es más que una colección de átomos, una simple máquina hecha de moléculas orgánicas". A su vez, Sattler definió los seres vivos en términos mecanicistas y literalmente hizo las siguientes afirmaciones:
1. Los sistemas vivos pueden y deben ser vistos como sistemas físico-químicos.
2. Los sistemas vivos pueden y deben ser vistos como máquinas.
3. Los sistemas vivos pueden ser descritos formalmente. Existen leyes naturales que describen por completo los sistemas vivos.
Sin embargo, autores como Lucas y Penrose defienden la idea de que al menos en el caso de los seres humanos esto no es así, y pese a la idea que se tenía de los seres vivos como entidades físicas que se rigen por procesos mecánicos, los avances en física han hecho que esta concepción empiece a tambalearse. En lo referente a términos de Vida Artificial, la idea predominante es que puede ser descrita formalmente mediante las leyes físicas por las que se rigen los seres vivos. De los tres postulados anteriores sobre los sistemas vivos puede eliminarse el primero, ya que no van a tratarse de sistemas físico-químicos. Sin embargo, se mantienen los otros dos. Los principales términos teóricos de la Vida Artificial, en resumen, son los siguientes:
1. Los sistemas vivos pueden reducirse a las leyes descritas en los sistemas adaptativos complejos.
2. Puesto que un sistema adaptativo complejo es reducible a procesos mecánicos, debe ser posible formalizar todas las leyes que rigen en ese sistema.
3. Estas leyes pueden ser implementadas en una determinada arquitectura computacional.
NOTA:
El "Diccionario de filosofía" de Mario Bunge, editorial Siglo XXI de México, año 1999, página 196, expone que un "sistema" (del latín "systema", proveniente del griego "s?st?µa") es un objeto compuesto cuyos componentes se relacionan con al menos algún otro componente, pudiendo ser material o conceptual. El mismo diccionario, en su página 200, explica que todos los sistemas tienen composición, estructura y entorno, pero sólo los sistemas materiales tienen mecanismo, y sólo algunos sistemas materiales tienen figura (forma). Según el "sistemismo", todos los objetos son sistemas o componentes de otro sistema.
Por ejemplo, un núcleo atómico es un sistema material físico compuesto de protones y neutrones relacionados por la interacción nuclear fuerte; una molécula es un sistema material químico compuesto de átomos relacionados por enlaces químicos; una célula es un sistema material biológico compuesto de orgánulos relacionados por enlaces químicos no covalentes y rutas metabólicas; una corteza cerebral es un sistema material psicológico (mental) compuesto de neuronas relacionadas por potenciales de acción y neurotransmisores; un ejército es un sistema material social y parcialmente artificial compuesto de personas y artefactos relacionados por el mando, el abastecimiento, la comunicación y la guerra; el anillo de los números enteros es un sistema conceptual algebraico compuesto de números positivos, negativos y el cero relacionados por la suma y la multiplicación; y una teoría científica es un sistema conceptual lógico compuesto de hipótesis, definiciones y teoremas relacionados por la correferencia (ya que todos ellos deben referirse a una misma cosa: en la teoría de conjuntos, todos los teoremas se refieren o tienen que ver con los conjuntos) y la deducción (implicación).
Un sistema adaptativo complejo (CAS, del inglés "complex adaptive system") es un tipo especial de sistema complejo; es complejo en el sentido de que es diverso y conformado por múltiples elementos interconectados; y adaptativo, porque tiene la capacidad de cambiar y aprender de la experiencia.
La expresión «sistema adapativo complejo» (o «ciencia de la complejidad») fue acuñada en el interdisciplinario "Santa Fe Institute" por John H. Holland, Murray Gell-Mann y otros. Es a menudo usada para describir el campo académico libremente organizado que se ha desarrollado alrededor de estos sistemas. La ciencia de la complejidad no es una teoría única, ya que abarca más de un marco teórico, es sumamente interdisciplinaria y busca las respuestas a algunas preguntas fundamentales sobre los sistemas vivos, adaptables y cambiables.
Los ejemplos de sistemas adaptativos complejos incluyen el ser humano, la bolsa de valores, las sociedades de insectos y colonias de hormigas, la biosfera y el ecosistema, el cerebro y el sistema inmunitario, las células y el desarrollo embrionario, negocios de fabricación y cualquier esfuerzo de grupos sociales humanos dentro de un sistema cultural y social dado, tales como equipos de fútbol o comunidades. Hay una estrecha relación entre el campo de los CAS y la vida artificial, pues en ambas áreas los principios emergentes y de autoorganización son muy importantes.
Los teóricos, esgrimiendo la definición más reciente y genérica de vida, han llegado a la conclusión de que ésta puede ser entendida en términos de programación ejecutada en una arquitectura especial y suficientemente compleja y que cualquier programa perteneciente a ese ámbito puede ser considerado como un ser vivo. Evidentemente, esta concepción engloba a la vida artificial como caso particular, por lo que ha llegado el momento de ver cuál es la repercusión del teorema de de Gödel en Alife.
John P. Sullins emplea el artículo de Steen Rasmussen titulado "Aspects of Information, Life, Reality, and Physics" y razona a partir de él. Dicho artículo presenta una serie de postulados, a saber:
1. Una computadora universal, como la máquina de Turing, puede simular cualquier proceso físico.
2. La vida es un proceso físico, por lo que la vida puede ser simulada en una computadora universal.
3. Existen criterios que permiten diferenciar a los seres vivos de los no vivos, por lo tanto es posible determinar si un determinado proceso está vivo o no.
4. Un organismo artificial debe percibir una realidad R2, la cual debe ser para él tan real como para nosotros es nuestra propia realidad R1, pudiendo ser R1 y R2 la misma clase de realidad (realidades coincidentes).
5. R1 y R2 tienen el mismo "status" ontológico (idéntico esquema existencial, o una especie de isomorfismo de realidades).
6. Gracias al quinto postulado y al corolario extraído del segundo postulado, se puede afirmar que el status ontológico de un proceso vivo es independiente del hardware que lo soporta. En consecuencia, puesto que el status ontológico de R1 y R2 es el mismo, los sistemas vivos pueden crearse en un computador.
7. Es posible aprender algo acerca las propiedades fundamentales de las realidades en general y de
R1 en particular, mediante el estudio de los detalles de las diferentes R2's.
A partir de estos postulados, es posible suponer que se puede crear una realidad R2 equivalente a nuestra R1 con la condición de que las leyes físicas de R2 sean equivalentes a las de R1. De ahí que los entes vivos de R2 puedan interactuar con los de R1. Ahora bien, es necesario formalizar las leyes físicas de la realidad artificial R2, para que ésta sea capaz de soportar vida artificial. Por lo tanto, debería existir un conjunto mínimo de axiomas formales que tienen que ser empleados para crear esa física artificial.
Pero el teorema de incompletitud de Gödel, que afecta a cualquier realidad artificial, afirma que en sistemas formales axiomáticos, tales como la aritmética, existen proposiciones que aún siendo ciertas no pueden ser demostradas. Es decir, dichos sistemas serían incompletos.
Esto sugiere que las matemáticas no son formalizables, ni mucho menos mecanicistas. Por consiguiente, si las matemáticas en muchos de sus campos no son formalizables, entonces no pueden incluirse en la realidad artificial que se intenta crear. Pero esto se pudiera extrapolar más allá del campo de las matemáticas, hacia otros aspectos y "reglas" de nuestra realidad R1 y los tales no podrían ser incluidos en R2. Siendo esto así, nuestra realidad y la realidad artificial no podrán tener el mismo status ontológico. Ante tal situación, el postulado número 5 de Rasmussen se viene abajo.
Semejantes desenlaces nos llevan a pensar que tal vez la vida artificial no podrá ser posible, en el sentido de que no podría equipararse isomórficamente con ninguna clase de vida de nuestra realidad R 1, pues Gödel ha bloqueado su camino. En efecto, el fenómeno que nosotros llamamos "vida" alcanza su primera y más obligada definición en el seno de la realidad R 1 que nos acoge (o a la que nosotros pertenecemos); por lo tanto, si una supuesta "vida artificial" de R2 no puede interactuar indeterminísticamente (de forma no algorítmica) con la vida de R1: ¿de qué manera es vida dicha "vida artificial"? (No obstante, éste es un tema controversial, aparentemente no resuelto, puesto que según las Santas Escrituras existe vida espiritual en un universo anterior y diferente al nuestro, cuyos moradores son criaturas inteligentes o "ángeles", pertenecientes a una realidad R0 diferente de la nuestra, aunque ellos sí poseen la capacidad de interactuar indeterminísticamente con R1 y los humanos también poseen igualmente la capacidad de interactuar indeterminísticamente con R0; de ahí que sea pertinente la sospecha de que la misma o parecida relación indeterminista pueda lograrse algún día entre R1 y R2).
Sin embargo, aunque no fuera viable crear realidades artificiales con procesos cibernéticos que actúen como entes vivos, algunos teóricos opinan que el campo de la robótica abre nuevas vías, de tal modo que pueden crearse seres vivos artificiales en nuestra propia realidad. Para ello bastaría lograr que los robots interactuaran con el medio y a la vez habría que dotarlos de la capacidad de adaptación y reproducción, con lo cual la Vida Artificial aún seguiría siendo posible, según opinan. No obstante, esta creencia no es compartida por algunos intelectuales de alto nivel porque no ven de manera alguna cómo evadir a los robots de una base algorítmica perteneciente obviamente a R2, la cual los obliga a actuar determinísticamente (de forma algorítmica) en R1.
Repercusiones lingüísticas.
La Lingüística es un área que ha sido objeto de estudio para numerosas disciplinas, desde la filosofía a la psicología, pasando por la informática. Su fin es estudiar las estructuras gramaticales y sintácticas del lenguaje. La Lingüística, pues, supone una base de comunicación. En el campo de la inteligencia artificial, por ejemplo, se pretende enseñar al computador a entender y emitir formalmente enunciados comprensibles para el hombre. Aquí entra en juego también la "semántica" (disciplina que se encarga de estudiar el significado de las palabras). Es vital, por tanto, comprender la gran importancia de la Lingüística como base para la comunicación, ya sea entre hombres o ya entre hombres y máquinas.
La base de la lingüística es una serie finita de normas que establecen de qué manera debe realizarse la comunicación; y se puede entender, por tanto, como un conjunto finito de axiomas, siendo este entendimiento el que coloca a la lingüística dentro de la hipótesis del teorema de Gödel y por tanto podemos sacarle las conclusiones que pertenecen a la tesis del mismo. Podemos concluir, por ende, que todo sistema lingüístico coherente debe contener algo que resulta indecible.
Dado que a medida que nos alejamos de la rigurosidad científica vamos relajando los requisitos para aplicar el teorema, los resultados obtenidos son pues discutibles o parcialmente aplicables. Por ejemplo, en el ámbito de la lingüística encontramos la poesía como clara excepción. La poesía no posee determinadas limitaciones, ya que permite darse contradicciones e incoherencias que son el fruto de la aplicación de numerosas figuras literarias que inexorablemente quedan fuera de la axiomatización inicial.
Repercusiones filosóficas.
La obra PERSPICACIA PARA COMPRENDER LAS ESCRITURAS, publicada en 1991 por la Sociedad Watchtower Bible And Tract en español y otros idiomas, tomo 1, página 994, bajo el término FILOSOFÍA, señala: «La palabra griega fi·lo·so·fí·a significa literalmente "amor a la sabiduría". En su uso moderno, el término tiene que ver con los intentos humanos por entender e interpretar, por medio de la razón y la especulación, toda la experiencia humana, las causas y los principios fundamentales de la realidad».
Según el Génesis, la humanidad se dispersó después del Diluvio y grupos tribales medraron en lugares geográficos distantes y lejanos, originando posteriores grupos nacionales e imperios. La dispersión también produjo un inevitable alejamiento de Dios y de la religión que él aprobaba (practicada por los patriarcas de la historia bíblica). Pero el interés de ciertos individuos humanos por entender la realidad y las claves de la existencia siempre debió encontrar simpatía y apoyo social, de tal manera que líderes y pensadores de todas las culturas intentaron dar una explicación más o menos coherente que satisficiera la necesidad de muchos. Los egipcios y los babilonios de la antigüedad se valieron de enseñanzas mitológicas y mágicas para calmar el hambre humana en este sentido, y consiguieron sosegar con engaños y mentiras la mente de la mayoría. Pero los griegos no se contentaron con la mitología, a la que consideraron sospechosamente engañosa y manipuladora de las masas ignorantes, sino que buscaron maneras más fidedignas de atisbar la verdad de las cosas y de los fenómenos, y se dieron cuenta de que la razón era la herramienta más poderosa que tenía el ser humano para buscar la verdad y la sabiduría. Por lo tanto, a partir de la actividad intelectual de ellos, en pro de la búsqueda de orientaciones trascendentales, surgió la Filosofía (es decir, el amor a la sabiduría).
Así, pues, la Filosofía muestra toda la apariencia de ser un sucedáneo o supletorio que tiene por objeto dar respuestas a cuestiones trascendentales que sólo la verdadera revelación procedente del Creador, y canalizada a través de la religión que él aprueba, puede proporcionar al ser humano, sin el perjuicio de llevarlo a error. La Filosofía, por tanto, es el principal subproducto acumulativo (en forma de paradigmas y teorías) de una inquietud humana persistente e insepultable, que pretende dar la mejor explicación (necesariamente especulativa) para mitigar la dolorosa frustración mental que causa la falta de respuesta a las preguntas fundamentales que acosan al hombre: ¿De dónde venimos? ¿Por qué estamos aquí? ¿Hacia dónde vamos?
Platón, el gran filósofo griego, enseñaba y creía en la existencia de un mundo sensible que podemos conocer a través de los sentidos y de un mundo de las ideas puras que sólo podemos alcanzar por medio de la razón. Para los platónicos, las verdades matemáticas, los teoremas, no son convenciones arbitrarias sino que, por el contrario, tienen una realidad exterior independiente de nuestra existencia. Según esta filosofía, el matemático no inventa ningún teorema sino que lo descubre, así que su labor se asemeja más a la de un explorador de mundos recónditos que a la de un inventor. Hoy, por supuesto, estas creencias están totalmente desfasadas.
Desde los griegos, y durante siglos, los filósofos han creído que la razón humana tiene poderes ilimitados. Leibnitz soñó con un algoritmo capaz de dilucidar la veracidad o falsedad de cualquier proposición, y la tumba del gran matemático alemán David Hilbert exhibe como epitafio la frase "Debemos saber, sabremos", que resume su confianza en la capacidad de la mente humana como instrumento de conocimiento.
Sin embargo, el fisiólogo alemán Emil du Bois había advertido acerca de "la posible ignorancia definitiva del metafísico sobre lo que está más allá de la experiencia". Las sospechas de Du Bois serían confirmadas medio siglo más tarde por Kurt Gödel, un platónico que solía dar sus caminatas vespertinas en la sola compañía de Einstein y que moriría de inanición. En un trabajo publicado en 1931, tan revolucionario como la Teoría de la Relatividad de Einstein, el joven Gödel demostró que en cualquier sistema lógico basado en axiomas y reglas de inferencia existen enunciados cuya verdad o falsedad nunca podremos decidir, basándonos en el propio sistema. Y como corolario, Gödel probó que jamás podrá demostrarse que las matemáticas estén exentas de contradicciones internas, es decir, que nadie podrá jamás probar su consistencia lógica.
La conclusión de Gödel no puede ser más desoladora ni la ironía mayor. La matemática, paradigma de la precisión humana, estará por siempre destinada a descansar sobre bases lógicas cuya consistencia se debe aceptar más bien como un acto de fe. Para algunos teóricos esta situación se asemeja a la alegoría de Platón, donde, atados de pies y manos en la caverna, no queda más remedio que resignarse a contemplar las sombras de un mundo inexpugnable, cuyos secretos permanecerán ocultos para siempre en la más densa bruma.
La filosofía, o mejor dicho, las filosofías, son disciplinas del conocimiento que también parten de un sistema finito de axiomas básicos, por lo que igualmente deben de sujetarse a las limitaciones impuestas por el teorema de Gödel. La implicación es que cualquier sistema filosófico, sin importar su grado de complejidad, resulta incompleto. Es decir, todo sistema filosófico contiene dentro de sí mismo más aseveraciones verdaderas que las que puede demostrar como tales, de acuerdo con sus propias reglas. Esto significa que muchas de las verdades filosóficas nunca podrán decidirse dentro del sistema filosófico que consideremos, cualquiera que éste sea. Y aun si el sistema filosófico en cuestión se aumentara, incluyendo un número indefinido de axiomas adicionales, siempre existirán verdades que no pueden ser formalmente derivadas del conjunto aumentado.
El teorema de Gödel establece que la "verificabilidad" es un concepto más débil que la "verdad", en tanto que existen proposiciones verdaderas que no es posible verificar, sin importar la complejidad del sistema filosófico subyacente.
Para muchos pensadores, el teorema de Gödel constituye el último clavo en el ataúd de la filosofía clásica. Hubo una época en que la filosofía abarcaba todos los campos del conocimiento, pero con la llegada del método científico y el resultante auge de la ciencia, la filosofía fue perdiendo poco a poco muchos de los objetos de su estudio. La lógica, por ejemplo, que una vez llegó a ser un baluarte de la filosofía, pero hoy forma parte de las matemáticas. La lingüística, antes también del interés de los filósofos, ahora queda comprendida en la teoría de la información. Las especulaciones filosóficas sobre la mente humana, que dieron lugar al nacimiento de la psicología, hoy encuentran poderosos resultados en los trabajos de investigadores en inteligencia artificial e informática.
La filosofía, desplazada en muchos de sus territorios por la ciencia, ha tenido que ir encontrando nuevos objetos de estudio. Pero, de alguna forma, el teorema de Gödel cierra un círculo para la filosofía, completa un cerco, pues hoy un filósofo sabe de las limitaciones que el teorema de Gödel implica para su disciplina, por lo que está obligado a redefinir su objeto de estudio y termina ampliándolo para considerar nuevamente a todo el conocimiento, pero desde una perspectiva nueva, que considera ya las limitaciones impuestas por Gödel.
Curiosamente, muchos filósofos modernos encuentran campos fértiles para su disciplina en aspectos del conocimiento que también le interesaron a Gödel, a Einstein y a otros grandes pensadores por el simple hecho de que no se basan en sistemas axiomáticos finitos. Nos referimos a lo que pudiera llamarse "el misticismo". Wittgenstein, quien tuvo influencia sobre Gödel en sus años de estudiante en Viena, dijo al respecto: "Hay en efecto cosas que no pueden ponerse en palabras. Ellas simplemente se manifiestan. Ellas constituyen lo místico". El propio Wittgenstein, amigo cercano de los integrantes del Círculo de Viena, aunque no miembro del mismo, ofrece en su libro "Tractatus Logico-Philosophicus" una solución particular a los problemas tradicionales de la filosofía: "Aquello de lo que no nos es posible hablar, debemos dejarlo pasar en silencio". Wittgenstein a veces tomó posturas filosóficas que se asemejan al misticismo Zen.
NOTA:
¿Será el Teorema de Gödel un indicio de que la ciencia, la especulación y la filosofía humanas, incapaces de atisbar por sí mismas las respuestas a las preguntas fundamentales, invitan a la mente a buscar en otra dirección? ¿Qué otra dirección hay, salvo el esoterismo, la magia, la mitología y el misticismo? ¿Es ésa una dirección acertada? ¿No son las revelaciones sagradas procedentes del Creador, entre las que se encuentra el Génesis, más provechosas y fiables que el esoterismo, la magia, la mitología y el misticismo?
Repercusiones informáticas.
La prestigiosa revista "Investigación y ciencia" de julio-2003, en español, páginas 28 a 35, inserta un artículo titulado "Ordenadores, paradojas y fundamentos de las matemáticas", escrito por el reputado Gregory J. Chaitin (ver Nota a continuación), el cual, parafraseado y complementado en parte, dice lo siguiente:
«Grandes pensadores del siglo XX han demostrado que la incompletitud (la incapacidad de atisbar todas las implicaciones de una teoría) y la aleatoriedad (el hallazgo fortuito de implicaciones de una teoría, sin que medie ningún método encaminado a ello ni sea concebible a priori) medran incluso en el mundo austero de la matemática. El mundo de la informática, especialmente en sus fundamentos, contribuye su testimonio en este sentido. Todos saben que los ordenadores son aparatos muy prácticos y se han vuelto indispensables en el funcionamiento de la sociedad moderna. Pero hasta muchos informáticos han olvidado que fueron inventados para que ayudasen a aclarar una cuestión filosófica (metacientífica) concerniente a los fundamentos de la matemática.
David Hilbert, célebre matemático alemán, propuso a principios del siglo XX la formalización completa de todo el razonamiento matemático. Pero resultó imposible formalizar el razonamiento matemático en su totalidad, por lo que, en cierto sentido, su idea fue un tremendo fracaso. Mas, en otro sentido, tuvo un gran éxito, porque el formalismo ha sido uno de los grandes dones que nos ha dado el siglo XX. No para el razonamiento o la deducción matemática, sino para la programación, el cálculo y la computación.
Por otro lado, tenemos a Bertrand Russell, matemático que más tarde se hizo filósofo y luego humanista. Constituye una figura clave en metaciencia, porque descubrió algunas paradojas muy perturbadoras en la lógica misma. Es decir, halló casos en los que razonamientos en apariencia impecables conducen a contradicciones. Las aportaciones de Russell fueron fundamentales para que se difundiese la idea de que estas contradicciones causaban una crisis grave y tenían de ser resueltas de algún modo.
Las paradojas que Russell descubrió atrajeron mucho la atención en los círculos matemáticos, pero, curiosamente, tan sólo una de ellas acabó llevando su nombre. He aquí la denominada Paradoja de Russell: Supongamos el conjunto A cuyos elementos son todas las ideas abstractas. Es evidente que A pertenecerá a A porque A mismo es una idea abstracta. En cambio, el conjunto B de todas las bicicletas no pertenece a B, pues B no es una bicicleta. Llamaremos CLASE A al conjunto A' formado por todos aquellos conjuntos que pertenecen a sí mismos, y llamaremos CLASE B al conjunto B' formado por todos aquellos conjuntos que no pertenecen a sí mismos. Es evidente que todo conjunto concebible sólo puede pertenecer a uno y sólo uno de los conjuntos A' o B'. Por lo tanto, cabe preguntarse: ¿Pertenecerá B' a A' o no?. Si decimos que B' no pertenece a A', entonces resulta que B' pertenece a B' y por lo tanto debería pertenecer a A'. Pero si decimos que B' pertenece a A' entonces resulta que B' no pertenece a B' y por lo tanto debería pertenecer a B'.
La paradoja de Russell es un eco, en la teoría de conjuntos, de otra paradoja muy anterior, ya conocida por los antiguos griegos. Es posible desdeñar tales paradojas, considerándolas juegos de palabras sin significado, pero algunas de las más grandes inteligencias del siglo XX se las tomaron muy en serio. ¿Por qué? Tal vez porque vieron en ellas un indicio, un germen que pudiera estar contaminando áreas del conocimiento científico fuertemente atesoradas y finalmente derrumbar lo que se ha venido dando por sentado.
Una de las reacciones a la crisis de la lógica fue la tentativa de Hilbert de intentar eludirla por medio del formalismo. Él creía que, si encontramos conflictos al seguir razonamientos que parecen correctos, la solución consiste en utilizar la lógica simbólica para crear un lenguaje artificial inmune a las paradojas y ser muy cuidadosos al especificar sus reglas, de modo que no surjan ya contradicciones. Después de todo, el lenguaje cotidiano (que fácilmente podría infectar al edificio de la ciencia) es ambiguo y no siempre se sabe con certeza cuál es el antecedente de un pronombre.
La idea de Hilbert consistía en crear para el razonamiento, para la deducción y para la matemática un lenguaje artificial perfecto. Hizo, por tanto, hincapié en la importancia del método axiomático, donde se parte de un conjunto de postulados básicos (axiomas) y reglas bien definidas para efectuar deducciones y derivar teoremas válidos. La idea de trabajar matemáticamente de este modo se remonta a los antiguos griegos, y en particular, a Euclides y su geometría, un sistema de hermosa claridad matemática.
Dicho de otro modo, era intención de Hilbert ser absolutamente riguroso en lo que se refería a las reglas del juego —las definiciones, los conceptos elementales, la gramática y el lenguaje—, de modo que hubiera un general acuerdo sobre la forma en que había de hacerse la matemática. En la práctica resultaría excesivamente laborioso utilizar un sistema axiomático tal, incómodo para desarrollar nuevos resultados o teorías matemáticas, pero su importancia desde el punto de vista filosófico (metacientífico) sería grande.
La propuesta de Hilbert no parecía demasiado espinosa. Después de todo, no hacía sino seguir las tradiciones de formalización de la matemática; seguía una larga historia de trabajos de Leibniz, Boole, Frege y Peano. Pero lo que él deseaba era recorrer el camino completo, hasta el mismísimo fin, y formalizar la totalidad de la matemática. La gran sorpresa fue que tal cosa no resultase posible. Hilbert estaba equivocado, aunque su error fue tremendamente fructífero porque había planteado una pregunta muy acertada. Al formularla creó una disciplina del todo nueva, la metamatemática, un campo introspectivo de la matemática en el que se estudia lo que la matemática puede, o no puede, conseguir.
La noción fundamental es la siguiente: en cuanto se encierra la matemática en un lenguaje artificial a la manera de Hilbert, en cuanto se establece un sistema axiomático completamente formal, podemos olvidarnos de que posee algún significado y limitarnos a considerarla un juego; sus piezas serían marcas trazadas en un papel, y la tarea consistiría en deducir teoremas de los axiomas. Claro está, si se hace matemática es porque tiene significado. Pero si se desea estudiar la matemática utilizando métodos puramente matemáticos, es necesario destilar el significado y limitarnos a examinar un lenguaje artificial con reglas absolutamente precisas.
¿Qué clase de cuestiones podríamos plantear? Por ejemplo, si se puede o no demostrar que 0 = 1 (deseamos que no se pueda). En general, dada una proposición cualquiera A, podemos preguntarnos si es posible demostrar la veracidad de A, o bien la veracidad de la proposición contraria de A (la negación de A). Se considera que un sistema axiomático formal es completo si se puede demostrar la veracidad de cualquier A, o bien su falsedad.
Hilbert perseguía la creación de reglas tan precisas que toda demostración pudiera siempre someterse a un arbitraje imparcial, a un procedimiento mecánico capaz de afirmar "esta demostración se atiene a las reglas", o tal vez "hay un error tipográfico en la línea 4", o "eso que en la línea 4 se supone que es consecuencia de la línea 3, en realidad no lo es", etc. Ese veredicto debería ser final, sin apelación.
Hilbert realmente no pensaba que la labor humana de creación matemática hubiera de llevarse a cabo de un modo tan algorítmico, sino más bien que, si se pudiera hacer matemática de ese modo se podría utilizar la propia matemática para estudiar su alcance o poder. Y Hilbert pensó que él mismo iba a ser capaz de ejecutar tal empresa. Podemos, pues, tratar de imaginar su enorme desconcierto cuando en 1931 el matemático austríaco Kurt Gödel demostró que el plan de "rescate" de Hilbert no era en modo alguno realizable. Jamás podría ser llevado a efecto, ni siquiera en sus comienzos.
Gödel dinamitó la visión de Hilbert en 1931. Por entonces era docente en la Universidad de Viena, si bien procedía de la hoy llamada República Checa, de la ciudad de Brno en concreto, que en aquella época formaba parte del Imperio Austrohúngaro. Posteriormente, pasaría, como Einstein, al Instituto de Estudios Avanzados de Princeton, EEUU.
El descubrimiento de Gödel fue pasmoso: Hilbert estaba totalmente equivocado; no hay modo de que exista un sistema axiomático para la totalidad de la matemática en el que quede claro como el agua si un enunciado es verdadero o no. Con mayor precisión: Gödel descubrió que el plan falla aun limitándose a la aritmética elemental, es decir, a los números 0, 1, 2, 3…, y a la adición y multiplicación de estos números.
Cualquier sistema formal que trate de contener toda la verdad y nada más que la verdad respecto a la adición y la multiplicación de los números 0, 1, 2, 3,… tendrá que ser incompleto. O más bien: será, ora incoherente, ora incompleto. Por tanto, si se supone que solamente dice la verdad, entonces no dirá toda la verdad. En particular, si se supone que los axiomas y las reglas de deducción no permiten la demostración de teoremas falsos, entonces habrá teoremas verdaderos que no podrán ser demostrados.
La demostración de la incompletitud dada por Gödel es muy ingeniosa. Muy paradójica. En realidad, lo que Gödel hace es construir una aseveración que dice de sí misma: "¡Soy indemostrable!". Desde luego, hará falta muchísimo ingenio para poder construir en la teoría elemental de números —en la aritmética— un enunciado matemático que se describa a sí mismo y diga semejante cosa, pero si fuéramos capaces de lograrlo, enseguida comprenderíamos que estaríamos en un brete. ¿Por qué? Porque si el enunciado es demostrable, entonces es necesariamente falso; estaríamos demostrando resultados falsos. Si es indemostrable, como dice de sí mismo, entonces es verdadero y la matemática sería incompleta.
Hay en la demostración de Gödel muchos detalles técnicos complicados. Pero al consultar su artículo original, encontramos en él algo que se parece mucho a la programación en LISP (listas de programación). Es debido a que la demostración de Gödel comporta la definición recursiva (recurrente, reiterada o repetitiva) de una gran cantidad de funciones que operan sobre listas, y eso es precisamente lo que hace LISP. Así pues, aunque en 1931 no existían los ordenadores ni los lenguajes de programación, una mirada retrospectiva deja ver claramente un lenguaje de programación en el núcleo del artículo original de Gödel.
John von Neumann, otro famoso matemático de aquellos tiempos (que, dicho sea de paso, tuvo un importante papel en la promoción y la creación de la tecnología informática en los Estados Unidos), apreció inmediatamente el hallazgo de Gödel. Von Neumann jamás se había planteado que el proyecto de Hilbert pudiera ser erróneo. Así pues, Gödel no sólo había demostrado una inteligencia apabullante, sino que tuvo la valentía de señalar que Hilbert podría estar equivocado.
Muchos consideraron que el artículo de Gödel era absolutamente devastador. Toda la filosofía matemática (metamatemática) tradicional acababa de quedar reducida a escombros. En 1931, sin embargo, había en Europa algunos otros problemas de los que preocuparse con mayor interés: una gran depresión económica y una guerra en ciernes (la amenaza de una Segunda Guerra Mundial).
El siguiente avance de importancia tuvo lugar cinco años después (1936), en Inglaterra, cuando Alan Turing descubrió la "no-computabilidad". Recordemos que, según Hilbert, debía existir "un procedimiento mecánico" que decidiese si una demostración se atenía a las reglas o no. Hilbert no aclaró nunca qué entendía por "procedimiento mecánico". Turing, en esencia, vino a decir que se trataba de una máquina (una máquina de un tipo que ahora llamamos "máquina de Turing").
El artículo original de Turing contiene un lenguaje lo que hoy denominaríamos un lenguaje de programación, lo mismo que el artículo de Gödel. Pero el lenguaje de programación de Turing no era un lenguaje de alto nivel, como el LISP; se trataba más bien de un lenguaje de máquina, el código "en crudo" formado por unos y ceros que se le suministra al procesador central de un ordenador. El invento de Turing de 1936 es, de hecho, un lenguaje de máquina horrible, que nadie querría utilizar hoy, porque es demasiado rudimentario.
Pero aunque las máquinas computadoras hipotéticas de Turing sean muy sencillas, y su lenguaje de máquina bastante primitivo, no carecen precisamente de versatilidad. En su artículo de 1936, Turing afirmaba que una máquina tal debería ser capaz de efectuar cualquier cómputo que un ser humano pudiese llevar a cabo.
En este punto, el curso del razonamiento de Turing experimenta un violento giro: ¿Qué le sería imposible a semejante máquina? ¿Qué es lo que no podría hacer? Y Turing encuentra inmediatamente un problema que ninguna máquina de las que llevan su nombre podría resolver: el problema de la detención, es decir, decidir de antemano si una máquina de Turing (o un programa de ordenador) acabará por hallar su solución deseada y, por tanto, se detendrá.
Si se impone un límite de tiempo, este problema tiene muy fácil solución. Supongamos que deseamos saber si un programa dado llegará a detenerse en el plazo de un año. En tal caso, basta hacerlo funcionar durante un año y observar si se detiene o no. Pero lo que Turing hizo ver es que podemos encontrarnos en una dificultad muy seria si no se impone límite de tiempo, si tratamos de deducir a priori si un programa se detendrá o no, sin limitarnos meramente a hacerlo funcionar.
Veamos el asunto con más detenimiento. Supongamos posible la creación de un programa de ordenador P capaz de averiguar si un programa G, cualquiera que sea, llegará a detenerse. Llamémoslo a P, por comodidad, un "verificador de terminación". En teoría, a P le suministraríamos un programa G y emitiría una respuesta: "sí, este programa terminará," o bien, "no, este programa seguirá haciendo girar sus ruedas en un bucle infinito y nunca llegará a detenerse". Preparemos ahora un segundo programa M basado en el verificador de terminación P. Consistirá M en una modificación del verificador P de modo que, cuando se le entregue a M para examen un programa que termine, entre M en un bucle infinito. Y aquí viene la parte sutil: suministremos al nuevo programa M una copia de sí mismo. ¿Qué hará?
No olvidemos que se ha preparado el nuevo programa de verificación M de manera que entre en un bucle infinito si el programa sometido a prueba termina. Pero ahora el programa objeto de verificación es el propio programa verificador modificado M. Por consiguiente, si terminase, habría de entrar en un bucle infinito, lo que significa que no termina: una contradicción. Tampoco sirve de nada suponer lo contrario. Si el programa M no terminase, el verificador de terminación M indicaría tal hecho, y el programa M no entraría en bucle infinito, llegando, pues, a término (y terminaría, contra lo supuesto). Esta paradoja llevó a Turing a considerar que sería imposible idear un verificador Mu de terminación universal.
Lo más interesante es que Turing dedujo un corolario inmediato: Si no hay forma de determinar de antemano mediante cálculos si un programa va a detenerse o no, tampoco puede haber ningún modo de averiguarlo mediante razonamientos. Ningún sistema axiomático formal puede facultarnos para decidir si un programa acabará por detenerse. ¿Por qué? Porque si fuera posible utilizar a tal fin un sistema axiomático, éste nos proporcionaría los medios para calcular por adelantado si un programa se detendrá o no. Lo cual es imposible, pues se obtendría una paradoja del estilo de "Esta aseveración es falsa": Se puede crear un programa que se detiene si y solamente si no se detiene. La paradoja es similar a la descubierta por Gödel en sus investigaciones sobre la teoría de números (Recordemos que no había dificultades mayores en el sistema que Gödel examinó que las que 0, 1, 2, 3…, la adición y la multiplicación ofrecen). La proeza de Turing consistió en demostrar que ningún sistema axiomático formal puede ser completo.
Al desencadenarse la Segunda Guerra Mundial, Turing comenzó a trabajar en criptografía y von Neumann en el cálculo de detonaciones de bombas atómicas. El mundo dejó de lado, durante un tiempo, el problema de la incompletitud de los sistemas axiomáticos.
La generación de matemáticos o de teóricos interesados en estas profundas cuestiones metacientíficas quedó prácticamente extinguida durante la Segunda Guerra Mundial. Luego vino el matemático Gregory J. Chaitin, del actual Centro de Investigación Thomas J. Watson de IBM, en Yorktown Heights, Nueva York. Éste ha sido, a lo largo de las cuatro últimas décadas, el principal arquitecto de la teoría algorítimica de la información, que inventó cuando todavía no contaba 20 años de edad. Su logro más reciente ha consistido en transformar la teoría algorítmica de la información de modo que sea aplicable a los programas informáticos reales.
A finales de los años cincuenta, Chaitin era casi un niño, pero leyó en Scientific American un artículo sobre Gödel y la incompletitud. El resultado de Gödel le dejó fascinado, aunque en realidad no pudo comprenderlo del todo; le pareció que había en él algo dudoso. En cuanto al método de Turing, consideró que profundizaba mucho más, pero todavía no se sentía satisfecho. Fue por entonces cuando se le ocurrió una curiosa idea sobre la aleatoriedad.
De muchacho también leyó mucho acerca de otra famosa cuestión intelectual, no la de los fundamentos de la matemática, sino la de los fundamentos de la física —sobre la teoría de la relatividad y la cosmología, e incluso más frecuentemente sobre la mecánica cuántica—. Aprendió que cuando las cosas son muy pequeñas, el mundo físico se comporta de una forma descabellada; en realidad, es aleatorio; es intrínsecamente impredecible. Estaba leyendo acerca de todo esto, y empezó a considerar si no habría también aleatoriedad en la matemática pura. Empezó a sospechar que ésa pudiera ser la verdadera causa de la incompletitud.
Hay un ejemplo que viene al caso en la teoría elemental de números, donde se plantean ciertas cuestiones muy difíciles. Tomemos los números primos. Si estamos interesados en su estructura de detalle, resulta que los números primos se comportan de forma muy impredecible. Es cierto que existen en ellos regularidades estadísticas. Se tiene, sea por caso, el llamado "teorema de los números primos", que pronostica con muy buena precisión la distribución media de los números primos. Pero en lo que toca a la distribución detallada de cada número primo, parece a las claras aleatoria.
Chaitin empezó, pues, a pensar que pudiera ser que la aleatoriedad inherente a la matemática proporcionase una razón más profunda para toda esta incompletitud. A mediados de los años 1960, A. N. Kolmogoroff, en la Unión Soviética, y Chaitin en EEUU, cada uno por su lado, aportaron nuevas ideas, a las que podríamos llamar "teoría algorítmica de la información", de acuerdo con Cahitin. La idea fundamental es muy sencilla: se trata, simplemente, de medir la complejidad computacional.
Chaitin encontró una de las primeras referencias a la complejidad algorítmica en un trabajo de von Neumann. Turing consideraba a la computadora como mero concepto matemático —una computadora perfecta, que jamás comete errores, que dispone de tanto espacio y tiempo como necesite—. Después de que Turing diese a conocer esta idea, el paso lógico siguiente para un matemático consistía en calcular el tiempo necesario para efectuar un cálculo; sería una medida de la complejidad de éste. Hacia 1950, von Neumann hizo resaltar la importancia de la complejidad temporal de los cálculos; hoy es una especialidad bien desarrollada.
La idea "sui generis" de Chaitin no era estudiar el tiempo, a pesar de que, desde un punto de vista práctico, fuera muy importante, sino el tamaño de los programas informáticos, la cantidad de información que es necesario proporcionar a un ordenador para que realice una determinada tarea. ¿Por qué era esto muy interesante? Porque la noción de complejidad asociada al tamaño del programa se podría ligar con la noción de "entropía" (medida para evaluar el desorden de un sistema) de la física.
Recordemos que la "entropía" desempeñó un papel crucial en los trabajos de un famoso físico del siglo XIX, Ludwig Boltzmann, y ocupa un lugar central en la mecánica estadística y en la termodinámica. La entropía mide el grado de desorden, caos y aleatoriedad de un sistema físico. La entropía de un cristal es pequeña (pues se trata de un sistema molecular mínimamente desordenado o altamente ordenado); pero en un gas a temperatura ambiente, la entropía es alta (pues se trata de un sistema molecular altamente desordenado o muy poco ordenado).
La entropía guarda relación con una cuestión filosófica (metacientífica) de la mayor importancia, a saber: ¿por qué corre el tiempo en un solo sentido? En la vida ordinaria existe, desde luego, una gran diferencia entre la retrogradación y la progresión en el tiempo. Un vaso se rompe, pero no se recompone espontáneamente. De igual modo, en la teoría de Boltzmann la entropía tiene necesariamente que aumentar: el sistema ha de adquirir cada vez mayor desorden. Tal premisa se denomina "Segundo Principio de la Termodinámica".
Los contemporáneos de Boltzmann no conseguían ver la forma de deducir este resultado a partir de la física newtoniana. Después de todo, en un gas, donde los átomos chocan y rebotan como si fueran bolas de billar, cada interacción es reversible. Si tuviéramos algún modo de filmar una pequeña porción de gas durante un breve tiempo, no podríamos saber, al ver la película, si estaba siendo pasada hacia delante o hacia atrás. Pero la teoría de los gases de Boltzmann afirma que existe una flecha del tiempo, que un sistema partirá de un estado ordenado y acabará en un estado muy desordenado y mezclado. Existe incluso un nombre amedrentador para la situación final: la "muerte térmica".
La relación entre las ideas de Chaitin y la teoría de Boltzmann se debe a que el tamaño de un programa de ordenador es análogo al grado de desorden de un sistema físico. El programa necesario para especificar dónde se encuentran todos los átomos de un gas tendría que ser enorme; en cambio, para la descripción de un cristal no haría falta un programa tan grande, a causa de la regularidad de su estructura. La entropía y el tamaño de un programa se encuentran, pues, íntimamente relacionados.
La noción de complejidad medida por el tamaño de un programa guarda relación también con la filosofía del método científico. Ray Solomonoff (un científico informático que trabajaba en Zator Company, en Cambridge, Massachusetts) propuso esa idea en 1960, en un congreso profesional; Chaitin no tuvo noticia de su trabajo hasta después de haber llegado por mí mismo, varios años más tarde, a ideas muy parecidas. Basta pensar en el principio de "la navaja de Occam": la teoría más sencilla es la mejor. Ahora bien, ¿qué es una teoría? Es un programa de ordenador para la predicción de observaciones. Y el aserto de que la mejor teoría es la más sencilla se traduce en la afirmación de que un programa informático breve o conciso constituye la teoría óptima.
¿Y si no existe una teoría concisa? ¿Y si el programa más breve capaz de reproducir un conjunto de datos experimentales es del mismo tamaño que el conjunto de datos? En este caso, la teoría no sirve de nada —es un amaño—; los datos resultarían incomprensibles, aleatorios (pues no sería posible establecer para ellos ninguna fórmula definitoria o una regularidad común). Una teoría sólo es buena en la medida en que comprime los datos hasta crear un sistema, mucho menor, de hipótesis teóricas y de reglas de deducción.
Así pues, podríamos definir lo aleatorio como lo que no puede ser comprimido (o comprendido). La única forma de describirle a alguien un objeto o un número que es completamente aleatorio consiste en exhibírselo y decirle: "Aquí lo tienes". Dado que carece de estructura o de regularidad, no existe otra descripción más concisa. En el otro extremo se encuentran los objetos o los números que poseen una gran regularidad. Podría describirse uno de ellos diciendo, por ejemplo, que consiste en un millón de repeticiones de 01. He aquí un objeto muy grande que admite una descripción muy breve.
La idea de Chaitin consistía en utilizar la complejidad, medida por el tamaño de programa, para definir la aleatoriedad. Y en cuanto se empieza a examinar el tamaño de los programas de ordenador —en cuanto se toma en cuenta la noción de tamaño de un programa o de complejidad de una información en lugar de la de complejidad determinada por el tiempo de ejecución—, se produce un fenómeno interesante: allí donde miremos, encontraremos incompletitud. ¿Por qué? Porque la primera pregunta que se hace en la teoría de Chaitin crea ya un conflicto. La complejidad de algo se mide por el tamaño del mínimo programa de ordenador que permite calcularlo. Pero, ¿cómo podremos estar seguros de que tenemos el mínimo programa? La respuesta es que no podremos. No es poco sorprendente: esa tarea escapa del alcance del razonamiento matemático».
NOTA:
Gregory J. Chaitin (nacido en Nueva York en 1947) es un matemático y científico de la computación estadounidense nacionalizado argentino. Sus padres eran inmigrantes argentinos. En 1965 regresó a Buenos Aires donde estudió matemáticas en la Universidad de dicha ciudad. Luego trabajó para IBM y como docente en la Facultad de Ciencias Exactas. Habiendo comenzado hacia fines de los años 1960, Chaitin hizo importantes contribuciones a la teoría algorítmica de la información y a la metamatemática, en particular un teorema de la incompletitud similar en espíritu al teorema de la incompletitud de Gödel.
En 1995 recibió el grado de doctor en ciencias, honoris causa, por la Universidad de Maine. En 2002 recibió el título de profesor honorario por la Universidad de Buenos Aires, en Argentina, donde sus padres nacieron y donde Chaitin pasó parte de su juventud. Está en el equipo del Centro de Investigación Thomas J. Watson de IBM y además es profesor visitante en el Departamento de Computación de la Universidad de Auckland, y en el comité internacional del Instituto de Sistemas Complejos Valparaíso.
Chaitin definió la constante de Chaitin, O, un número real cuyos dígitos están equidistribuidos y expresa la probabilidad de detención de un programa escogido al azar. Omega (O) tiene numerosas propiedades matemáticas interesantes, incluyendo el hecho de ser definible pero no computable.
El trabajo de Chaitin en la teoría algorítmica de la información continuó con el trabajo anterior de Kolmogórov en varios respectos. Chaitin también escribe sobre filosofía, especialmente acerca de metafísica y filosofía de la matemática (particularmente sobre asuntos epistemológicos en la matemática). En metafísica, Chaitin dice que la teoría algorítmica de la información es la clave para resolver problemas en materias como biología (obteniendo una definición formal de "vida", sus orígenes y evolución) y neurociencia (el problema de la conciencia y el estudio de la mente). Además, en escritos recientes, defiende la posición llamada "filosofía digital". En la epistemología de las matemáticas, aclama que sus resultados en lógica matemática y en teoría de la información algorítmica muestran que hay "hechos matemáticos que son ciertos sin razón, por accidente. Son hechos matemáticos aleatorios". Chaitin propone que los matemáticos deberían abandonar toda esperanza de probarlos y adoptar una metodología cuasi-empírica.
Aunque el trabajo matemático de Chaitin es generalmente aceptado como correcto, varios matemáticos discrepan fuertemente de su interpretación filosófica. El filósofo Panu Raatikainen argumenta que Chaitin malinterpreta las implicaciones de su propio trabajo y que sus conclusiones sobre asuntos filosóficos no son sólidas. El filósofo Torkel Franzén critica la interpretación del Teorema de la incompletitud de Gödel de Chaitin y la explicación que su trabajo representa.
Chaitin es también el inventor de usar coloreo de grafos para la asignación de los registros al compilar. Chaitin entiende que la "incompletitud" de la matemática o los "límites de la matemática" se modificará con la aplicación de la física subatómica a las "máquinas pensantes", gracias a que en un futuro próximo se podrán construir ordenadores con una capacidad de procesamiento de información un millón de veces superior a los actuales. Chaitin cree en una nueva filosofía de la matemática: la matemática cuasi empírica, que parte de idea de que no hay verdades inamovibles en un espacio que parecía destinado a la perennidad de los axiomas.
Conclusión.
¿Qué repercusiones han tenido, y parecen tener, los descubrimientos acerca de las limitaciones internas de los formalismos? ¿Qué relación podemos establecer entre estos descubrimientos y lo que dice el Génesis? ¿Hay alguna moraleja que se pueda desprender de todo esto?
La primera gran repercusión del teorema de Gödel ha sido la devastación de las esperanzas de alcanzar un paradigma matemático coherente, completo y global. Hemos de contentarnos, pues, con un sistema de retazos teóricos muy bien definidos y estructurados a nivel particular en el mejor de los casos, pero con la resignación de tener como telón de fondo (debido a nuestro natural y obligado modo de construir las matemáticas) la dura convicción de ser incapaces de encontrar una teoría global o un cuerpo teórico general que albergue o integre a todos esos retazos (y a otros retazos más, que ni sospechamos que existen) de una manera coherente y completa. Esto ha sido una maldición para el cientificismo matemático, cuya expectativa grandiosa ha quedado destruida.
La segunda gran repercusión ha sido el truncamiento del deseo de los físicos de hallar una teoría universal o del todo, a partir de la cual se deduzcan todas las demás partes de la física. Al igual que las matemáticas, e incluso peor, la ciencia física ha quedado condenada a permanecer como un mosaico de teorías muy bellas y eficaces en su visión particular de la realidad, por parte de cada una de ellas, pero no aglutinables en un cuerpo común que sea fiable o válido y capaz de cohesionarlas a todas.
La teoría del todo (ToE, por sus siglas en inglés: Theory of Everything) es una teoría hipotética de la Física teórica que explica y conecta en una sola todos los fenómenos físicos conocidos. Inicialmente, el término fue usado con una connotación irónica pero luego se utilizó para describir una teoría capaz de unificar o explicar a través de un modelo simple todas las interacciones fundamentales de la naturaleza. El primer problema en producir una teoría del todo es que las teorías aceptadas, como la mecánica cuántica y la relatividad general, son radicalmente diferentes en las descripciones del universo: las formas sencillas de combinarlas conducen rápidamente a la denominada "renormalización" del problema, en donde la teoría no nos da resultados finitos para datos cuantitativos experimentales. Finalmente, un cierto número de científicos indica que el teorema de incompletitud de Gödel implica que cualquier intento de construir una teoría del todo está abocada al fracaso. Stephen Hawking fue originariamente creyente en una Teoría del Todo, pero después de considerar el teorema de Gödel concluyó que no podría ser obtenida; sobre este particular ha dicho: "Muchas personas estarán muy disgustadas si no hay una teoría ultima, que pueda formular un finito número de principios. Yo solía pertenecer a ese campamento, pero he cambiado mi manera de pensar" (20 de julio de 2002).
Las demás repercusiones se deducen del efecto del teorema godeliano sobre las matemáticas y la física. Tanto la ciencia teórica como la experimental, así como cualquier forma de conocimiento científico humano, deben estar tamizados por la razón y ésta no puede operar en independencia de los formalismos si en verdad quiere asegurar los resultados. Eliminar la razón del cuadro equivale a obtener conocimientos inciertos, imprecisos, no verificables, mitológicos, dogmáticos, subjetivos en grado extremo, fantasiosos, engañosos, etc. La historia de la ciencia es precisamente una lucha milenaria por depurar el error cognoscitivo e implantar un metódo racional y experimental que permita sacar del fango de la mentira al deseo humano de conocer la verdad acerca de la realidad.
Ante tal desenlace, cabe preguntarse: ¿Ha llegado la ciencia misma, por medio del Teorema de Gödel y de otros razonamientos similares, a descubrir lo que la sagrada escritura ya había dado a entender hace mucho tiempo: "El conocimiento humano es limitado por naturaleza"? ¿Que conexión tiene todo esto con la advertencia del Génesis: "En cuanto al árbol del conocimiento de lo bueno y lo malo, no debes comer de él, porque en el día que comas de él, positivamente morirás"? (En un próximo artículo, investigaremos dicha conexión).
Autor:
Jesús Castro
Página anterior | Volver al principio del trabajo | Página siguiente |