- Repercusiones matemáticas
- Repercusiones físicas
- Inteligencia artificial
- Vida artificial
- Repercusiones sobre Alife
- Repercusiones lingüísticas
- Repercusiones filosóficas
- Repercusiones informáticas
- Conclusión
Este artículo pretende contestar lo más eficaz y sencillamente posible la siguiente pregunta, basada en los estudios profundos del Génesis: ¿Qué repercusiones tienen los descubrimientos acerca de las limitaciones de la ciencia humana?
Desde la época de los grandes pensadores griegos de la antigüedad hasta la segunda mitad del siglo XX, la ciencia y la tecnología humanas han experimentado subidas y bajadas alternativas, a nivel particular en un principio (según la potencia cultural en auge o declive) y a nivel más global en tiempos modernos. Pero desde la Edad Moderna en adelante, la eclosión del conocimiento científico se ha dado de forma expansiva y exponencial, abarcando cada vez más sectores sociales de la humanidad y acelerando sus descubrimientos. Este aumento vertiginoso del saber técnico ha producido una especie de enajenamiento en el ámbito de la ciencia, toda vez que ésta ha quedado deslumbrada a causa de su propia potencialidad extrovertida y se ha olvidado de sí misma, es decir, de analizarse a sí misma.
Sin embargo, la omnipresente y prolífica plaga de las paradojas nunca ha cesado de atormentar a los constructores de modelos interpretativos y teorías, por lo que hacia la segunda mitad del siglo XX se hizo completamente necesario atender a estos inconvenientes. Se observó que las paradojas solían atacar al edificio científico a partir de los fundamentos, de manera que para resolverlas era necesario analizar concienzudamente dichos fundamentos y remodelarlos, esto es, dotarlos de mayor inmunidad contra esta plaga. Y así, entonces, el mundo científico se vio obligado a hacer autorreferencia teórica, es decir, a estudiar minuciosamente el derrotero de la ciencia con métodos también científicos, pero adaptados a este tipo de investigación. Surgió así la denominada "metaciencia", o el estudio científico de la ciencia como fenómeno u objeto cambiante.
Pues bien, en medio de este nuevo desarrollo y en muchos sentidos vanguardista dentro del mismo, se encuentra la figura de Kurt Gödel. Sus trabajos metacientíficos permiten atisbar el inicio de un interesante camino de investigación científica que puede aclarar qué es lo que es realmente la ciencia y cuáles son sus fronteras o limitaciones: cuáles son las capacidades de la ciencia y cuáles son sus incapacidades.
Son muchas las repercusiones del trabajo de Gödel. La única condición para su aplicación es contar con un sistema de razonamiento basado en un conjunto finito de axiomas. A esta descripción responden todas las ramas de las matemáticas, la física y la astronomía, así como muchos planteamientos de la filosofía y la lingüística. Sin embargo, y relajando la condición de rigurosidad, podría extenderse a las ciencias sociales, la economía, la psicología, la sociología, la teología y la historia, e igualmente a la ética y la moral; si bien hay que decir que la aplicación en dichos casos no gozará del rigor de su origen, y se puede llegar a conclusiones falsas, pero también es verdad que siempre es posible adoptar una terminología y una fundamentación más exactas para las ramas del conocimiento que todavía contienen conceptos ambiguos y poco refinados.
La limitación que el teorema de Gödel nos descubre supuso un duro golpe al formalismo y logicismo matemáticos que, hasta entonces, trataban de alcanzar lo que resultaría ser inalcanzable. Ésta es pues su primera y más directa repercusión.
Repercusiones matemáticas.
Peano, Boole, De Morgan, Hilbert, Gentzen y otros dieron por sentado que para cualquier proposición bien construida del sistema matemático habría de existir o bien una demostración de ella o bien una demostración de su contraria, porque en matemáticas no hay ningún "ignoramos". El sistema matemático es un sistema formal, es decir, un conjunto de símbolos carentes de significado y que lo adquieren mediante una serie de convenciones previas o axiomas. La demostración de este hecho, que no se ponía en duda, fue el objetivo principal de los trabajos de Hilbert.
El teorema de Gödel constituyó un duro golpe para esa concepción clásica, donde la naturaleza de la verdad matemática se suponía que era la demostrabilidad, pero no es así. Demostró los límites de los sistemas formales: La matemática siempre contendrá verdades indecidibles, siendo por tanto inagotable. El método axiomático resulta finitamente fecundo.
Como dijo Morris Kline, uno de los formalistas de la época, "El fenómeno de la incompletitud constituye un importante defecto, ya que entonces el sistema formal no es adecuado para demostrar todas las afirmaciones que podrían serlo correctamente (sin contradicción) dentro del sistema". También, Herman Weyl apostilló, en 1949: "Ningún Hilbert será capaz de asegurar la consistencia para siempre; hemos de estar satisfechos de que un sistema axiomático simple de matemáticas haya superado hasta el presente el test de nuestros elaborados experimentos matemáticos… Una matemática genuinamente realista debería concebirse, en parangón con la física, como una rama de la interpretación teorética (especulativa o teórica) del único mundo real y debería adoptar la misma actitud sobria y cautelosa que manifiesta la física hacia las extensiones hipotéticas de sus fundamentos".
Repercusiones físicas.
Por su cercanía a las matemáticas y después de ésta, la física, tan cuidadosamente axiomatizada, es la más afectada por el teorema de Gödel. Los físicos han comprendido a la fuerza que sus mayores limitaciones no serán económicas o tecnológicas, ni siquiera las asociadas a la capacidad humana. Su mayor limitación radica en que nunca alcanzarán solución a todos los problemas que puedan plantearse, ya que todo sistema racional de conocimientos es esencialmente incompleto.
Para entenderlo mejor consideremos que la física no existe a parte del universo, sino que forma parte de él y su objeto es modelizarlo o representarlo teóricamente. El hombre también forma parte del universo. Dado que tanto el sistema teórico como sus creadores humanos forman parte del universo, parece permisible afirmar que el universo trata de hacer un modelo de sí mismo. Por tanto, una pequeña parte del universo (el hombre y su sistema teórico) tratan de modelar una realidad completa (el universo). Se trata, pues, de un claro ejemplo de autorreferencia, y como tal adolece de una paradoja: el modelo como parte del universo tendría que ser mayor que el universo que pretende modelizar. Pero, ¿es lógico aceptar que una parte es mayor que el todo?
Junto al teorema de Gödel surgen una serie de otros teoremas cuya totalidad impone una gran limitación sobre el alcance del conocimiento científico. Muere por tanto el ideal, u objetivo esencial de la ciencia en sí, consistente en establecer un sistema axiomático que explique los fenómenos de la naturaleza o universales. Pero todo esto, para algunos teóricos, sólo supone el descubrimiento de limitaciones que existen en la lógica formal que empleamos para llegar a las verdades más profundas, ya sea en física, matemáticas o cualquier otra disciplina. Por lo tanto, los investigadores más optimistas creen que éstas no son limitaciones contra la ciencia en sí, sino más bien adjudicables a la forma en que la observamos. No deberían constituir, por lo tanto y según ellos, una fuente de desánimo total sino más bien una llamada de atención, un desafío y una invitación a la cautela.
Inteligencia Artificial.
John R. Lucas, filósofo de Oxford, ha interpretado los trabajos de Gödel como una prueba inequívoca de que en los sistemas matemáticos existen proposiciones indemostrables dentro de los propios sistemas, y que sin embargo son evidentemente verdaderas. Argumenta: "Cualquier formalismo S que contenga PA es tal que al razonar sobre él, podemos establecer la existencia de una fórmula verdadera con respecto a la interpretación estándar de S pero indemostrable en S. Por tanto, esa fórmula será aceptable desde nuestro punto de vista, por ser verdadera, pero inaceptable para S –por ser indemostrable–, con lo que ningún cálculo será capaz de encapsular las habilidades formales del ser humano" (ver Nota siguiente).
Lucas, por tanto, concluía que la capacidad de nuestro entendimiento sobrepasa a la del computador. El computador emplea únicamente algoritmos, es decir, series de precisas normas que definen los pasos a seguir para resolver un problema o demostrar la veracidad de una proposición. Pero no existe ningún algoritmo capaz de demostrar determinadas proposiciones que sin embargo nosotros percibimos como ciertas. De esta manera, el conocimiento de esas verdades no puede ser de orden algorítmico. En consecuencia, como los computadores funcionan únicamente sobre la base algorítmica, no somos computadores.
NOTA:
La expresión PA significa literalmente "Peanno's axioms" (axiomas de Peano) y se refiere a un conjunto de axiomas o postulados aritméticos establecidos por Giuseppe Peano en el siglo XIX, los cuales se han utilizado prácticamente sin cambios en diversas investigaciones matemáticas, incluyendo cuestiones acerca de la consistencia y completitud de la aritmética y la teoría de números. Son cinco axiomas, a saber:
1. El 1 es un número natural. 1 está en N, el conjunto de los números naturales.
2. Todo número natural n tiene un sucesor n* (este axioma es usado para definir posteriormente la suma).
3. El 1 no es el sucesor de ningún número natural.
4. Si hay dos números naturales n y m con el mismo sucesor, entonces n y m son el mismo número natural.
5. Si el 1 pertenece a un conjunto K de n naturales y dado un elemento cualquiera k resulta que el sucesor k* también pertenece al conjunto K, entonces todos los números naturales pertenecen a dicho conjunto K. Este último axioma es el denominado "principio de inducción matemática".
Hay un debate sobre si considerar al 0 como número natural o no. Generalmente se decide en cada caso, dependiendo de si se lo necesita o no. Cuando se resuelve incluir al 0, entonces deben hacerse algunos ajustes menores y queda:
1. El 0 es un número natural.
2. Si n es un número natural, entonces el sucesor de n también es un número natural.
3. El 0 no es el sucesor de ningún número natural.
4. Si hay dos números naturales n y m con el mismo sucesor, entonces n y m son el mismo número natural.
5. Si el 0 pertenece a un conjunto y dado un número natural cualquiera resulta que el sucesor de ese número también pertenece a ese conjunto, entonces todos los números naturales pertenecen a dicho conjunto.
Roger Penrose ha retomado el argumento de Lucas, y a partir de la versión del teorema de Gödel presentado por Turing y conocido como "demostración del insolucionable problema de la Detención o Parada de una máquina MT en proceso de cálculo" (ver Nota, a continuación), ha afirmado que ningún computador podrá jamás alcanzar al ser humano en el ámbito del razonamiento matemático, ya que el ser humano posee capacidades intuitivas "no algorítmicas", y además de ello resulta que los modelos informáticos no garantizan la resolución de todos los juicios de verdad (o razonamientos que permiten decidir entre veracidad y falsedad para un cierto enunciado o proposición, el cual trasciende las reglas dadas algorítmicamente).
NOTA:
Manuel López Pellicer, licenciado en Ciencias Físicas y doctor en Ciencias Matemáticas, que ha sido Profesor Agregado de Análisis Funcional en la Universidad de Valencia y desde 1979 Catedrático de Matemática Aplicada en la Universidad Politécnica de Valencia; académico Correspondiente de la Real Academia de Ciencias desde 1989 y académico Numerario desde 1998; cuyos campos de trabajo son la Topología Conjuntista y el Análisis
Funcional, con aportaciones en espacios topológicos completamente regulares, espacios vectoriales topológicos y teoría de la medida… este científico emitió un artículo, aparecido en el año 2003 en la revista de la Real Academia de Ciencias Exactas, Físicas y Naturales (España), titulado "Matemáticas, ordenadores y el conocimiento del mundo", en el cual expone que el libro "Principia Mathematica" de Russell y Whitehead pudo motivar que Hilbert en su conferencia de 1900 propusiese encontrar un sistema lógico formal con el que se pudiese probar la verdad o falsedad de cualquier enunciado matemático. Nadie imaginó que ese sueño de Hilbert sería irrealizable, pero, tres décadas después, Kurt Gödel probó que no existe un sistema axiomático que contenga a toda la matemática. Entonces, y diez años antes de la aparición de los primeros ordenadores electrónicos, un pequeño grupo de matemáticos empezó a predecir cómo funcionarían. Uno de ellos, Alan Turing, desarrolló muchos de los conceptos que utilizan nuestros ordenadores personales.
Menos clara es la naturaleza del supuesto "ordenador" (cerebro) que tenemos en nuestra cabeza, del que se está empezando a descifrar los algoritmos empleados en los circuitos neuronales más simples. Turing, explorando el concepto de computabilidad, encontró el denominado "problema de la detención, interrupción o parada" (que esbozaremos sobre estas líneas, un poco más adelante) y probó su equivalencia con el teorema de Gödel en 1936. Lo que todavía no se sabe es por qué es imposible elaborar un sistema formal que abarque toda la matemática. Dado que las matemáticas son construcciones mentales, Roger Penrose cree que la imposibilidad se debe a la intervención de las incertidumbres de la mecánica cuántica en el funcionamiento del cerebro a nivel de las neuronas.
El resultado de Gödel y Turing no disminuye la potencia de las aplicaciones de la matemática, que con ayuda del ordenador ha dedicado mucho esfuerzo en el siglo XX a la obtención de aproximaciones numéricas de soluciones de problemas complejos. Aún siguen siendo muchos los campos actuales necesitados de ayuda con nuevos desarrollos matemáticos, pues los problemas de muchas investigaciones son demasiado complicados para resolverlos por métodos conocidos. El plegamiento de las moléculas de proteínas, formadas por miles de aminoácidos, para adoptar una forma funcional exige el desarrollo de un tratamiento sistemático dada la enorme variedad de posibilidades. También los biólogos y bioquímicos tendrán que recurrir pronto a nuevos modelos informáticos para dar sentido a la enorme masa de datos acumulados.
Recapitulemos. En 1931, Kurt Gödel publicó su famoso artículo "Sobre las proposiciones formalmente indecidibles en Principia Mathematica y sistemas relacionados", que quizá sea la realización matemática más importante del siglo XX. La argumentación presentada en dicho artículo es lo que se conoce generalmente como "teorema de Gödel" y demuestra que toda formulación axiomática consistente (o coherente) de la teoría de números contiene proposiciones indecidibles: siempre habrá en ella afirmaciones verdaderas que no se pueden demostrar.
En 1937, el matemático inglés Alan Mathison Turing publicó otro artículo famoso sobre los "números calculables", basado en el Teorema de Gödel y que puede considerarse el origen oficial de la "informática teórica". En realidad, dicho artículo contemplaba la aplicación del Teorema de Gödel a la informática, o la informatización del Teorema de Gödel. El artículo introducía la denominada "máquina de Turing" (MT), una entidad matemática abstracta que formalizó el concepto de "algoritmo" y resultó ser la precursora teórica de las computadoras digitales. Pues bien, con la ayuda de esta MT abstracta Turing pudo demostrar que existen problemas irresolubles tales que ninguna MT, y por ende ningún ordenador, será capaz de resolver o solucionar jamás.
Una MT puede considerarse como una cinta infinita dividida en casillas, cada una de las cuales contiene un símbolo. Sobre dicha cinta actúa un dispositivo que puede adoptar diversos estados y que, en cada instante, lee un símbolo de las casilla sobre la que está situado. En función del símbolo que ha leído y del estado en que se encuentra, realiza las 3 acciones siguientes:
1. Pasa a un nuevo estado, imprime un símbolo en lugar del que acaba de leer y se desplaza una posición hacia la izquierda.
2. Pasa a un nuevo estado, imprime un símbolo en lugar del que acaba de leer y se desplaza una posición hacia la derecha.
3. Pasa a un nuevo estado, imprime un símbolo en lugar del que acaba de leer y se detiene o para.
El concepto de MT es tan general y potente que es posible construir otra máquina que sea capaz de simular el comportamiento de otra MT cualquiera, llamándose a dicha máquina MTU (máquina de Turing universal). Estudiando la MT, Turing demostró la existencia de un problema irresoluble: ¿Es posible construir un algoritmo que, dada una MT cualquiera, nos diga si esa MT acabará por pararse al leer cierta cinta o bien seguirá funcionando indefinidamente, moviéndose siempre hacia la derecha, la izquierda o realizando ciclos más o menos complejos?
Turing supuso hipotéticamente que el problema se puede resolver, por lo que debería ser posible construir una máquina MT* que lo resuelva. En la cinta de MT* colocamos una descripción de MT y una copia de la cinta que debe leer. Además, podemos programar MT* de manera que si MT se para entonces MT* siga funcionando indefinidamente; y por el contrario, si MT no se para entonces MT* debe pararse. Ahora bien, puesto que MT* acepta la descripción de cualquier MT, entonces a MT* le proporcionamos su propia descripción. Pero entonces aparece la siguiente contradicción: por construcción, MT* debe pararse si MT* no se para y viceversa. En consecuencia, hay que renunciar a la hipótesis de que sea posible construir MT*. Es decir, el "problema de la parada" de una MT es irresoluble.
Los teoremas de Gödel han sido ampliamente empleados para criticar las ideas que defienden la creación de una auténtica Inteligencia Artificial. Sin embargo, muchas de las teorías que echan por tierra el sueño de crear una máquina con una inteligencia que pueda rivalizar con la del ser humano no son igualmente aplicables al campo de la Vida Artificial (nota: no es lo mismo vida artificial que inteligencia artificial) sin más, a pesar de los muchos puntos en común que tienen ambos campos.
Por otra parte, el propio Gödel, en un rapto de moderación, dijo que su teorema de la incompletitud no impediría la posible creación de una mente artificial; y autores como Rudy Rucker emplean argumentos similares a los de Lucas, utilizando también el teorema de incompletitud de Gödel, para defender la posible creación de inteligencia artificial. Tales argumentos demuestran que el sólo uso de la incompletitud no sirve para convencer a ciertos teóricos de la imposibilidad de crear una inteligencia artificial. Sin embargo, el teorema de Gödel puede emplearse para restringir y cerrar muchos caminos en el campo de la Vida Artificial y de la Inteligencia Artificial.
La Vida Artificial no persigue la meta de crear una inteligencia similar a la humana (esto queda dentro del campo de la Inteligencia Artificial), sino que profundiza en el estudio de la vida en su sentido más elemental, comparando y contrastando los conceptos de "vida tal como es" y "vida tal y como podría ser". Actualmente, en el campo de la Vida Artificial existen dos opciones para la investigación y el desarrollo, a saber:
(1) Una de ellas considera la Vida Artificial como herramienta necesaria para estudiar el mundo natural.
(2) La otra se centra en la idea de que se pueden diseñar programas que, ejecutados correctamente, constituyan una forma de vida por sí mismos.
NOTA:
La vida artificial (VA) es el estudio de la vida y de los sistemas artificiales que exhiben propiedades similares a los seres vivos, a través de modelos de simulación. El científico Christopher Langton fue el primero a utilizar el término a fines de los años 1980, cuando se celebró la "International Conference on the Synthesis and Simulation off Living Systems" (Primera Conferencia Internacional de la Síntesis y Simulación de Sistemas Vivientes), también conocida como "Artificial Life I" (Vida Artificial I), en los Alamos National Laboratory en 1987. En inglés también se conoce como alife, por la contracción de "artificial life" (vida artificial).
Aunque el estudio de vida artificial tiene alguna superposición significativa con el estudio de inteligencia artificial (IA), los dos campos son muy diferentes en su historia y métodos. La investigación de IA organizada empezaba temprano en la historia de calculadoras digitales, y se caracterizaba a menudo en aquellos años por un enfoque "de arriba abajo" (top-down), basado en redes complejas de reglas. Pero los estudios de vida artificial (Alife) no tuvieron un campo nada organizado hasta los años 1980 y a menudo trabajaban de forma aislada, sin cohesionar a los investigadores que hacían trabajos similares. Si en alguna ocasión éstos se preocupaban por la inteligencia, tendían a centrarse en un enfoque "de abajo arriba" (bottom-up), de conductos emergentes.
Los investigadores de vida artificial se han dividido a menudo en dos grupos principales (aunque existen otras clasificaciones posibles):
1. Alife-fuerte: Es la posición de "vida artificial dura o fuerte", que manifiesta que la vida es un proceso que se puede conseguir fuera de cualquier medio particular (John Von Neumann). Por su parte, Tom Ray, un ecologista que creó y desarrolló el proyecto "Tierra" (una simulación por ordenador de vida artificial), declaró paroxísticamente que su programa "Tierra" no estaba simulando vida en un ordenador sino que la estaba sintetizando.
2. Alife-débil: Es la posición de "vida artificial débil", que niega la posibilidad de generar un "proceso de vida" fuera de una solución química basada en el carbono. Sus investigadores intentan en cambio imitar procesos de vida para entender aspectos de fenómenos sencillos. La manera habitual es a través de un modelo basado en agentes, que normalmente da una solución posible mínima. Esto es: "no sabemos qué genera este fenómeno en la naturaleza, pero podría ser algo tan simple cómo… ".
El campo de investigación de Alife se caracteriza por el uso extenso de programas informáticos y simulaciones que incluyen el denominado "cálculo evolutivo" (algoritmos evolutivos, algoritmos genéticos o GA por el inglés Genetic Algorithm –, programación genética, inteligencia de enjambre, optimización de colonias de hormigas, etc.), química artificial, modelos basados en agentes y autómatas celulares o CA (del inglés Cellular Automata). A menudo todas estas ramas cognitivas se ven como subcampos de la vida artificial, además de los artículos técnicos en los temas de vida artificial que son aceptados en conferencias diversas hasta que su dominio teórico haya crecido lo suficiente para celebrar sus propias conferencias independientes.
La vida artificial es un punto de reunión para gente de otros muchos campos más tradicionales, como la lingüística, física, matemáticas, filosofía, informática, biología, antropología y sociología, en los cuales se puede hablar de enfoques computacionales y teóricos inusuales que serían controvertidos dentro de su propia disciplina. Como ámbito independiente, Alife ha tenido una historia controvertida; John Maynard Smith criticaba en el año 1995 algunos trabajos de vida artificial como "ciencia libre de hecho", y no ha recibido generalmente demasiada atención seria de los biólogos. Aun así, la publicación reciente de artículos de vida artificial en revistas ampliamente leídas, como Science y Nature, evidencia que las técnicas de vida artificial se están volviendo cada vez más aceptadas en la ciencia central, como mínimo al aportar un método que estudia la evolución.
Es interesante reflexionar en el uso que los evolucionistas quieren dar al cálculo evolutivo provisto por Alife, en un esfuerzo desesperado y postrero por consolidar su doctrina (el evolucionismo). Por su parte, parece que este tipo de cálculo (computacional) adopta la denominación de "evolutivo" por influencia del paradigma evolucionista, que es supuesto cierto "a priori" (sin el respaldo de la ciencia experimental fidedigna) por la mayoría de los intelectuales contemporáneos y evidentemente por el grueso del colectivo dedicado a desarrollar Alife.
Sin embargo, hay que hacer notar tres cuestiones. La primera es la que tiene que ver con la capacidad creativa del ser humano, presumiblemente derivada de las características con las que fue creado, pues el Génesis dice que el hombre fue hecho "a la imagen de Dios, el Creador". Por consiguiente, no sería del todo extraño que los investigadores humanos fueran capaces de dar a luz (en el marco de la tecnología computacional) algoritmos que simulan el fenómeno biológico que se denomina "vida", e incluso también extraños e hipotéticos "avatares" (en su acepción secular: cambio, fase o vicisitud) considerados como "vida artificial" sin correspondencia directa con el mundo natural conocido. Esto quiere decir que el hecho de que la inventiva humana produzca "mundos artificiales aderezados con biología evolucionista" no significa necesariamente que la realidad natural posea las mismas características evolucionistas. La inventiva computacional humana puede producir "mundos virtuales" inconexos en mayor o menor grado con el mundo natural diseñado por el Gran Creador, el Dios del Génesis.
La segunda cuestión que queremos hacer notar es la que tiene que ver con el "isomorfismo biológico", es decir, con dos estructuras biológicas compuestas por diferentes materiales entre sí pero que sin embargo tienen las mismas propiedades biológicas. Por ejemplo, las prótesis médicas que pretenden suplir los menoscabos anatómicos y funcionales de pacientes que han perdido su integridad morfológica y funcional se pueden considerar, en mayor o menor grado, como "isomorfismos biológicos". Más concretamente, cuando un individuo recibe un implante dental, de una muela que ha perdido, dicho implante tiene la finalidad de suplir al mayor grado posible la anatomía y funcionalidad de la muela perdida; por consiguiente, existe un "isomorfismo biológico" entre la prótesis molar y la muela perdida; pero dicho isomorfismo no es completo sino parcial, ya que no remeda todas las características de la pieza ósea perdida (la muela natural está irrigada por vasos sanguíneos que le confieren la capacidad de regenerar lesiones microscópicas por reposición de osteocitos muertos, cosa que no puede hacer la prótesis).
Pues bien, los evolucionistas se han empeñado en hacer creer que existe un "isomorfismo biológico" entre la vida en la naturaleza y la vida artificial evolutiva (vida virtual, computarizada, afectada por algoritmos evolutivos). Sin embargo, esta creencia no está apoyada por la ciencia experimental fidedigna. La vida creada por el Sumo Hacedor no es "isomorfa" con la vida creada artificialmente por ingenieros informáticos evolucionistas. El Génesis no admite la doctrina evolucionista. El Gran Diseñador de la biosfera revela, a través del Génesis, que es un error monumental suponer que existe un "isomorfismo biológico" entre su obra creativa biológica y la obra creativa biológica (virtual) de científicos evolucionistas que utilizan tecnología computacional.
La tercera y última cuestión que queremos resaltar es la que tiene que ver con la dimensión ética y moral de la supuesta capacidad humana para crear Alife. En efecto, según se desprende del estudio del Génesis y de la demás Sagrada Escritura, los graves problemas que afectan a la humanidad actual hunden sus raíces en la gran decadencia ética y moral contemporánea, así como en una concepción errónea de las normas y principios que deben contener estas dos disciplinas. Es revelador lo que dice el Génesis, en su capítulo 2, versículos 15 a 17:
… Y Jehová Dios (el Creador) procedió a tomar al hombre y a establecerlo en el jardín de Edén para que lo cultivara y lo cuidara. Y también impuso Jehová Dios este mandato al hombre: "De todo árbol del jardín puedes comer hasta quedar satisfecho. Pero en cuanto al árbol del conocimiento de lo bueno y lo malo, no debes comer de él, porque en el día que comas de él, positivamente morirás".
Obsérvese que la única restricción dada al hombre por su Creador era la de comer del "árbol del conocimiento de lo bueno y lo malo", esto es, evitar usurpar a su Hacedor el derecho a decidir qué es bueno y qué es malo para el hombre. Así, el ser humano podía disfrutar de libertad completa para amasar por cuenta propia cualquier tipo de conocimiento (científico, cultural, tecnológico, etc.), salvo el conocimiento de "lo bueno y lo malo".
¿Y qué clase de conocimiento es el que sirve para valorar algún fenómeno como "bueno" o "malo"? ¿No es el llamado "conocimiento ético y moral", exclusivamente? Por lo tanto, se sobreentiende que el ser humano no está capacitado para alcanzar por sí mismo un conocimiento ético y moral confiable, debiendo recurrir a su Creador para obtener dicho conocimiento.
Al parecer, en prevención de que la primera pareja humana causara problemas graves a la colectividad social que pronto se desarrollaría con su propia prole, Dios puso coto al impulso latente en el hombre en cuanto a proporcionar leyes éticas y morales que regularan a la sociedad humana en ciernes, y lo hizo por medio de señalarle su incapacidad innata a este respecto, tomando como emblema el árbol del "conocimiento de lo bueno y lo malo". Recordemos que los funcionarios judiciales y los jueces establecidos por el hombre, supuestamente encargados de guardar las leyes que favorecen el orden social, dictan a veces sentencias éticas y morales en desacuerdo con la norma divina, y esto suele acarrear gravísimas consecuencias más o menos tardías. En realidad, la paz y la estabilidad de la sociedad humana organizada dependen, en buena medida, del acierto o desacierto con que la clase judicial se exprese respecto a la ética y la moral.
Por otra parte, la revista DESPERTAD del 8-2-2005, página 12, editada en español y en otros idiomas por la Sociedad Watchtower Bible And Tract, expone: «El eminente profesor y psiquiatra Robert Coles dijo en cierta ocasión: "El niño cuenta con un sentido moral interno en desarrollo. Pienso que Dios lo creó con esa necesidad acuciante de guía ética". Ahora bien, ¿quién tiene que satisfacer esa hambre y sed de orientación moral? En Efesios 6:4, las Escrituras exhortan: "Vosotros, padres, no estéis irritando a vuestros hijos, sino seguid criándolos en la disciplina y regulación mental de Jehová"».
Esto da a entender que existe una necesidad de educación moral en el niño, quien, por decirlo así, precisa recibir externamente orientación en este sentido; y son los padres, según las Santas Escrituras, los máximos responsables de proporcionar esta educación a sus hijos. Ahora bien, los padres, independientemente de lo experimentados y sabios que sean, son incapaces de dar una correcta orientación moral a sus hijos basándose sólo en sus propias ideas. Los padres necesitan primero estar duchos en la guía moral que proviene del Todopoderoso. De otra manera, cada familia y cada individuo llegaría a tener su propio y subjetivo sentido moral particular, con el riesgo aumentante de colisiones entre diferentes puntos de vista humanos. De hecho, muchas guerras y represiones violentas han ensangrentado las páginas de la historia y se han debido fundamentalmente a choques brutales entre maneras distintas de entender la ética y la moral.
Alife supone la introducción de una potentísima herramienta en el seno de una sociedad humana tecnificada y sin valores éticos y morales fiables, por lo que su uso y abuso puede traer consecuencias calamitosas en todas direcciones. Al igual que Internet, la energía nuclear, la aviación, etcétera (todos ellos caracterizados históricamente por una desdichada explotación contraproducente), así también Alife se encamina a servir de juego perverso en manos de dioses humanos sin escrúpulos e inclinados al error y a las bajas pasiones, como bien patentiza el Génesis.
Vida artificial.
Los orígenes de Alife se encuentran alrededor de los años 1950. Uno de los primeros pensadores contemporáneos que previó los potenciales de la vida artificial, separada de inteligencia artificial, fue el prodigioso matemático e informático John Von Neumann. En el Simposio Hixon, ofrecido por Linus Pauling en Pasadena, California, a finales de los años 1940, Von Neumann dio una conferencia titulada "The General and Logical Theory of Automata" (La Teoría General y la Lógica de Autómatas). Definía un "autómata" como cualquier máquina cuyo comportamiento provenía de la lógica, paso a paso, combinando información tomada desde el ambiente y la de su propia programación, y decía que con el tiempo se encontrarían organismos naturales que siguieran reglas simples similares. También habló sobre la idea de máquinas que se auto duplicaran. Presuponía una máquina – un autómata cinemático – constituida por un ordenador de control, un brazo de construcción y gran conjunto de instrucciones. Utilizando las instrucciones, que eran parte de su propio cuerpo, podría crear una máquina idéntica. Siguiendo esta idea creó (con Stanislaw Ulam) autómatas puramente lógicos, no dotados cuerpo físico sino basados en estados cambiantes en unidades celulares insertas en una red infinita.
El primer autómata celular de este cuño fue extraordinariamente mucho más complicado que posteriores autómatas celulares. Tenía cientos de miles de células que podían existir cada una de ellas en uno de 29 estados posibles, pero Von Neumann pensaba que necesitaba esta complejidad para conseguir que funcionara no sólo como una máquina auto replicante, sino también como una computadora universal tal y como la definió Alan Turing. Este computador "constructor universal" leía de una cinta de instrucciones y escribía una serie de células que podían ser activadas para dejar una copia completamente funcional del original y de su cinta. Von Neumann trabajó en su teoría de autómatas intensivamente hasta el momento de su muerte, y lo consideró su trabajo más importante en la vida.
El profesor John Horton Conway, de Cambridge, inventó el autómata celular más famoso de los años 1960. Lo denominó el "Juego de la Vida", y consiguió publicidad a través de la columna de Martin Gardner en la revista "Scientific American". Christopher Langton fue un investigador poco convencional, con una carrera académica sin distinciones que lo llevó a conseguir un trabajo programando "mainframes" para un hospital. Lo cautivó el "Juego de la Vida" de Conway, y empezó a perseguir la idea que una computadora puede emular criaturas vivas. Tras años de estudio (y un casi fatal accidente de ala delta), empezó a intentar actualizar el autómata celular de Von Neumann y el trabajo de Edgar F. Codd, que simplificó el monstruo original de 29 estados de Von Neumann a uno con sólo 8 estados. Consiguió el primer organismo computacional auto replicante en octubre de 1979, usando simplemente un ordenador de sobremesa Apple II. Entró al programa de graduados del "Logic of Computers Group" el año 1982, a los 33 años, y ayudó a crear una nueva disciplina.
El anuncio oficial de Langton de la conferencia "Artificial Life I" fue la primera descripción de un campo en el que casi no existían avances. Como sabemos, la "vida artificial" (Alife) es el estudio de sistemas artificiales que exhiben comportamientos característicos de los sistemas vivos naturales. Es la búsqueda de una explicación de la vida en cualquiera de sus posibles manifestaciones, sin restricciones a un ejemplo particular que exista sobre la Tierra. Incluye experimentos biológicos y químicos, simulaciones por ordenador e iniciativas puramente teóricas. Los procesos que ocurren en una escala molecular, social o cósmica son objeto de investigación. El deseo final es poder extraer la supuesta "lógica" (los mecanismos automáticos) de los sistemas vivientes.
Algunos expertos opinan que la tecnología microelectrónica y la ingeniería genética pronto nos darán capacidad para crear nuevas formas de vida, tanto en silicio como "in vitro". Esta capacidad, caso de materializarse, presentará a la humanidad retos técnicos, teóricos y éticos con mayor alcance que nunca.
En 1982, el científico en computadoras Stephen Wolfram dirigió su atención a los autómatas celulares. Exploró y categorizó los tipos de complejidad que mostraban los autómatas celulares unidimensionales, y señaló cómo podían ser aplicados a fenómenos naturales como las conchas marinas y la naturaleza del crecimiento de las plantas. Norman Packard, que trabajó con Wolfram en el "Institute for Advanced Study" (Instituto para Estudios Avanzados), usó autómatas celulares para simular el crecimiento de copos de nieve, siguiendo reglas muy básicas. El animador por computadora Craig Reynolds, en el año 1987, usó de manera similar simples reglas para crear comportamientos de bandadas de pájaros en grupos de "boids" dibujados por ordenador. Sin ningún tipo de programación "de arriba abajo" (top down), los "boids" producían soluciones parecidas a los de la vida real para evadir obstáculos en su camino.
La animación por computadora ha continuado siendo un conductor comercial clave para la investigación en vida artificial, según la actividad de los creadores de películas que intentan encontrar formas más realistas y baratas de animar escenas naturales relativas a plantas vivas, movimientos de animales, movimiento del pelo y complicadas texturas orgánicas.
Actualmente, Alife (vida artificial) va ganando terreno entre las ciencias computacionales y parece que en breve adquirirá identidad propia como disciplina tecnológica. De momento, sus aplicaciones más inmediatas son las siguientes:
• Sistemas complejos adaptativos, que han dado paso a una nueva generación de sistemas expertos, que son capaces de aprender y evolucionar.
• Autómatas celulares, que imitan funciones de los organismos celulares en programas complejos, aplicando el conocimiento biológico de los mismos a principios prácticos de organización en sistemas de cómputo.
• Agentes autónomos, que son cada día más usados en aplicaciones de búsqueda.
• Conocimiento de comportamientos adaptativos, para el desarrollo de robots adaptativos.
• Computación cuántica, que a través del uso de las propiedades cuánticas de los átomos y sus desplazamientos, prevé posibilitar una nueva forma de cálculos binarios.
NOTA:
Página siguiente |