Descargar

Comprender al racionalismo

Enviado por Eduardo Schurzbok


Partes: 1, 2

  1. Resumen
  2. Introducción
  3. Filosofía
  4. Razón
  5. Inteligencia
  6. Conocimiento
  7. Lógicas y matemáticas
  8. Verdad
  9. Máquinas lógicas simbióticas
  10. Conclusión
  11. Referencias

Resumen

Este ensayo trata de un modo distinto la comprensión del racionalismo ligando a esta filosofía con el funcionamiento de máquinas lógicas diversas y aún distintas a las de Turing. Se propone que tales máquinas en general implicarían lógicas distintas a la clásica. De tal modo habría distintos modos de razonar y la inteligencia no sería lo que se cree: inteligencia = razonamiento usual.

Se presenta la idea seminal de un nuevo tipo de máquna lógica que podría funcionar en la realidad y al que se denomina: máquina simbionte o n-bucle.

Tal máquna podría dar cuenta de la denominada mente de tipo humano y de de toda clase de sistemas muy organizados como los seres vivos o sea una teoría de tales ingenios teóricos podría ser una respuesta al desafío de Von Neumann a los matemáticos para desarrollar una teoría que de cuenta de la vida y de su evolución.

Además se pretende aplicar el racionalismo a toda clase de cuestiones y que si se hiciera completamente el humanismo secular también podría ser fundamentado y otros valores aparte del de verdad.

Introducción

Tradicionalmente parece que tanto sobre la razón y sobre el racionalismo se sabe todo lo concerniente a estos temas. En este ensayo se intenta mostrar que aún no se ha tomado conciencia de lo que pueden significar exactamente tales nociones.

Para comprender al racionalismo se necesita comprender antes un mínimo de los conceptos como: filosofía, razón, inteligencia, conocimiento, ciencia empírica, lógica, matemáticas, verdad y seguramente otros conceptos pero necesariamente hay que restringirse ya que sino la comprensión nunca se alcanzará. Es posible que con una apropiada comprensión de los conceptos mencionados se tenga en cuenta por un lado el desarrollo de las matemáticas y las lógicas en el siglo XX como así también los fenómenos reales descubiertos en el desarrollo de las ciencias empíricas y una plausible interpretación de los mismos.

Es necesario que esa mínima comprensión de todos estos conceptos sea coherente entre sí y adecuarse a la realidad.

Pero no basta comprender una cantidad crítica de conceptos pertinentes para comprenderlo bien, es necesario recalcar que todos los temas posibles deberían ser tratados racionalmente y hay que señalar precisamente que no a todos los temas se le aplican las mismas normas racionales y esto no es sólo porque cada tema tiene algún modo particular de ser abordado, sino porque por ejemplo los sistemas de poder imponen su ideología como ser en la politología en que a quienes tienen el poder se le permiten procederes arbitrarios (desde la teoría) que no debieran autorizarse por aceptar la realidad. La eficacia del proceder político actualmente no depende de un cinismo perverso munido de mucha buena y precisa información para ser manipulada de cualquier manera. Ocurre que actualmente habría que minimizar las consecuencias de las acciones ya que se maneja demasiado poder, demasiada información y las consecuencias de las acciones pueden volverse en contra de los mismos que las originan. Los poderosos tienen que comprender que ellos también tienen sus limitaciones y no se puede prepotear impunemente a toda la realidad. Una politología racional p.ej. va a procurar conseguir sistemas políticos estables lo cual depende de la historia, de las circunstancias actuales del país que se considere y de una mejor comprensión y desarrollo de las ciencias humanas.

Por otra parte no es lo mismo el objeto de estudio de una ciencia no humana como la física en la cual no hay que hacer ninguna consideración ética (salvo a los físicos de no falsear datos empíricos y en lo posible no apropiarse de estudios que no han hecho, eso sí si lo hacen tienen que saber bien de que se trata) o humana como p.ej. la sociología que va a requerir de un mínimo de ética o de una ética mínima ya que el objeto de conocimiento son sociedades humanas que como tales la requieren para sostenerse y desarrollarse bien. Así que el racionalismo no es cierto que no tenga nunca nada que ver con ninguna ética (y debiera estar bien claro que en física hay errores, más en las ciencias humanas aparte de errores hay engaños y autoengaños. Por ejemplo en politología se repite que democracia es el gobierno del pueblo, por el pueblo y para el pueblo; sin embargo el pueblo es una abstracción, en las sociedades hay grupos de poder y sería más apropiado decir que democracia es un sistema oligárquico abierto, ya que permite participación en el poder, al menos por el voto, por otro lado una dictadura sería un sistema oligárquico cerrado ya que no da participación en el poder).

Este ensayo es sumamente revolucionario: ya que propone que hay que conocer lo que realmente es la inteligencia de tipo humano y que para lograrlo es necesario referir a una cierta máquina lógica distinta de las máquinas de Turing y de las inventadas por los matemáticos (máquina universal de Turing guiada por oráculo matemático).

De todos modos toda esta propuesta no va a ser el ABC de la cuestión, en todo caso será sólo el A.

Es preciso informar que en este ensayo se tratan muchísimos temas que no suelen considerarse, como que el tratamiento de las nociones conocidas no es habitual y que la cantidad de temas tratados es muy grande y merecería mayor desarrollo pero esto lo haría demasiado extenso.

Filosofía

Comenzando con el concepto de filosofía se propone que el racionalismo es un tipo de filosofía que pone la atención sobre el conocimiento y el ejercicio del pensamiento racional para alcanzarlo. La filosofía en general no es ninguna ciencia. ¿Por qué?. Porque el concepto en general, y es preciso reconocerlo, pretende ir más allá de las ciencias empíricas y formales. Esto es claro que nadie lo declara, pero no es demasiado difícil percibir que todo filósofo se coloca más allá y por encima de todas las ciencias. Las ciencias empíricas tienen como objeto de estudio algún aspecto de la realidad, mientras que las formales permiten construir modelos que son como una suerte de espejos para intentar identificar las propiedades de los sistemas físicos y ayudar a intentar ver cómo los mismos funcionan.

En realidad las ciencias formales: lógicas y matemáticas de algún modo se practican como un "juego" que no atiende ninguna realidad sino cierta coherencia formal, atender bien tal coherencia es "jugar" bien el "juego". Lo interesante y misterioso (dicen algunos) es que tal juego suele funcionar bien para los sistemas reales. El misterio no es tal si comprendemos que por un lado tenemos sistemas reales y por otro construcciones mentales. Los sistemas reales y los pensamientos pueden ser ordenados o desordenados. Se conoce bien lo que tiene cierto orden, luego estaría claro que a los sistemas y procesos reales si podemos conocerlos, tenemos que buscarles representaciones mentales con un apropiado orden tal que los procesos posibles y con cierto determinismo, se puedan coordinar con los que ocurren en la realidad de un específico sistema. Dado que a un determinado sistema real se le busca un adecuado modelo abstracto, luego no puede haber ningún misterio si le encontramos un buen representante formal.

Recapitulando en cuanto a la noción de filosofía al no reconocerse que se pretende un conocimiento sin límites no se comprende que tal cosa significa pretender un conocimiento de dioses: algo imposible. Así también parece que cada filósofo puede decir lo que más le guste y encima pretender enseñar cómo son en realidad las cosas. De tal modo difícilmente pueda decirse que la filosofía es una ciencia.

Sin embargo dado que no podemos ponerle arbitrariamente límites al pensamiento, deberíamos reconocer que la filosofía de por sí no sería un fraude (y esto es lo que piensan y a veces declaran matemáticos y científicos).

Para evitar que la filosofía no sea un fraude y sea útil (en principio teóricamente) es preciso que los filósofos se autolimiten, procediendo así podrían lograr una mínima convergencia con las ciencias.

Puede proponerse que este intento es precisamente el racionalismo.

Pero no basta con el racionalismo, tal como se conoce, para adecuarse a toda la realidad como se verá más adelante.

También puede decirse de la filosofía que es una manera muy libre de conjeturar pero que tiene que ligarse de un modo u otro a la realidad (sino sería como la ciencia ficción) y que en el caso del racionalismo tiene que tener en cuenta todos los desarrollos formales y los nuevos conocimientos empíricos. La cuestión es cómo integrar toda esa nueva y variada información. En este ensayo se intenta realizar una de esas posibles integraciones de los nuevos conocimientos sin dejar de lado los ya establecidos.

Y convendría agregar que la filosofía sería más bien un arte que se puede practicar con sensatez (racionalismo).

Razón

Al racionalismo le da su denominación la utilización sistemática de la razón para obtener conocimiento. La cuestión es comprender lo que es la razón. Puede decirse que es un proceso de pensamiento muy ordenado: es más extremadamente ordenado tal que se atiene a la lógica. Si se atiene sólo a la lógica bivalente podrá ser computarizado en sistemas expertos.

La cuestión es que son posibles otras lógicas aparte de la bivalente (dos valores para verificar: verdadero, falso) p.ej. las n-valentes aparte de los valores de verificación: verdadero y falso suponen uno o más indeterminismos.

Teniendo en cuenta lo anterior habría que proponer que lo que entendemos por razonamiento se refiere sólo a los procesos que se atienen únicamente a la lógica bivalente con todas sus inferencias hechas explícitas en la lógica clásica.

Inteligencia

Por otra parte es preciso comprender lo que es la inteligencia. Si creemos que la inteligencia es igual a razonamiento ya estaremos en problemas porque esto supondría que los seres humanos somos –en cuanto inteligentes- completamente lógicos lo cual es evidentemente falso –y los genios no son todos lógicos en todos los temas – y si lo fuéramos -¡oh paradoja!- seríamos como computadoras: autómatas muy precisos ya que la concreción de la lógica clásica son las computadoras tanto los tipos en serie como en paralelo y es evidente que tampoco somos computadoras. Si observamos la realidad nos topamos con el fenómeno de la inspiración ¡ajá! o intuición, experiencia que tienen todos los investigadores. Estos buscando la solución de un determinado problema y luego de tratarlo exhaustivamente suelen tener "iluminaciones" cuando menos se las esperan: estando generalmente en una ocupación distinta a su tarea o distendidos y aún durmiendo. El fenómeno provee la creatividad que no tienen los sistemas informáticos que se atienen estrictamente a la lógica (en general la clásica y bivalente).

Por otra parte dado que la búsqueda de la verdad no es una búsqueda estrictamente determinista (si lo fuera bastaría proponer toda suerte de programas informáticos que investiguen automáticamente reemplazando a los científicos) la inteligencia (capacidad de alcanzar toda clase de verdades sean empíricas sean formales) tiene que suponer un proceso más amplio que el puro razonamiento.

En consecuencia habría que proponer: inteligencia = intuición + razonamiento.

El proceso intuitivo como tal es no consciente, creativo o sea no determinista y como tal no referente a procesos computables que son atinentes a la lógica clásica y bivalente. El fenómeno requiere de una hipótesis: la intuición es simplemente un proceso de conjetura automático que posiblemente tienen todos los cerebros y que a veces acierta tan bien que parece una capacidad de conocimiento directo. Que sea automático sugiere que funciona fuera de la conciencia lo que implica a su vez que la conciencia tiene relación con el razonamiento y el control del lenguaje. Dado que el hemisferio izquierdo del cerebro maneja el lenguaje y lo controla es la sede de la conciencia que para los humanos adultos es pensar con el lenguaje. ¿Es que se puede pensar sin lenguaje?. Y de algún modo sí, cuando éramos pequeños y no hablábamos, de algún modo pensábamos sin lenguaje. Precisamente el hemisferio derecho del cerebro no maneja el lenguaje sino que capta patrones y claro tiene que cooperar con el hemisferio izquierdo. No sería extraño que desde el nacimiento el hemisferio derecho tome el mayor control hasta que se desarrolle el lenguaje y pase el mayor control al hemisferio izquierdo. Sin lenguaje las acciones no son producto de la reflexión pero tienen que tener la suficiente dosis de creatividad que con el lenguaje se potenciará. Este sería un argumento para sugerir que la creatividad es posible que se dé más bien en el hemisferio derecho, mientras que en el izquierdo más bien se evaluarían las propuestas conjeturales del derecho (disposiciones neuronales preparadas para ser traducidas en lenguaje por el hemisferio izquierdo) y el pensamiento en general sería mucho más ordenado y previsible. Se ha podido apreciar que el hemisferio izquierdo es rápido en buscar justificaciones de las creencias y esto ocurriría posiblemente si no se toma la decisión de exponerlas a la crítica.

Por lo dicho lo más sencillo es ligar al racionalismo con la actividad evaluadora del hemisferio izquierdo funcionando con un mínimo de sentido crítico, esto en cuanto a la referencia física y en cuanto a la lógica con el manejo habitual de la lógica clásica.

Conocimiento

En cuanto al conocimiento este requiere en principio de alguna percepción para registrar cierta información que tiene que ser evaluada por el cerebro y disparar un proceso de comprensión de lo registrado: primero comparar lo percibido con otros registros similares en el cerebro y con la interpretación que ya se hizo y si no existe habrá un segundo paso que tiene que ser creativo: es preciso lanzar alguna conjetura para interpretar lo registrado por algún sentido o varios y luego tiene que venir el tercer paso: la revisión crítica de la conjetura.

Es cierto que los sentidos pueden engañar pero se puede ir más allá de los sentidos y conocer en profundidad. Esto se da con la metodología de la ciencia moderna (pero que de algún modo intuitivo todos tenemos que practicar). En general esta significa un procedimiento hipotético-deductivo. Pues el procedimiento hipotético es el conjetural y el deductivo es el razonamiento. Pero la experiencia científica en cada campo de investigación afina el proceso de modo que no se toma en cuenta cualquier conjetura sino algunas de ellas y el proceso deductivo no implica siempre un razonamiento común y corriente adecuado a la lógica clásica ( p. ej. los sucesos cuánticos en general no se adecuan bien a la lógica clásica sino a otra lógica que denominaron cuántica quienes mostraron la estructura lógica de los sucesos cuánticos en un trabajo de 1936: Von Neumann y Garrett Birkhoff) (1). Pero la construcción de modelos formales para el sistema investigado y la revisión crítica de la hipótesis formulada acerca del mismo permite (observando la realidad mediante precisos y adecuados experimentos) alcanzar tarde o temprano una cierta certidumbre acerca de la hipótesis propuesta. Aunque la corroboración nunca es completa, no es cierto que no se alcance un mínimo de certidumbre acerca de la hipótesis propuesta o de su negación y de modo que se pueda utilizar tal conocimiento en la realidad con éxito. Esto lo consiguen constantemente las ciencias empíricas aplicando el conocimiento teórico en numerosas y variadas aplicaciones tecnológicas. Toda esta metodología aplicada sistemáticamente de modos cada vez más variados y sutiles permite acumular una base firme de conocimiento. Tal conocimiento se muestra coherente entre las distintas ciencias todo lo cual afirma más la veracidad de todo el caudal de conocimiento básico obtenido.

Lógicas y matemáticas

Durante mucho tiempo las ciencias tuvieron en cuanto al aspecto deductivo una única referencia lógica: la de la lógica bivalente con todas sus inferencias mostradas explícitamente por el trabajo de distintos lógicos y matemáticos. Ahora sin embargo y puesto esto más a la luz por el desarrollo de la mecánica cuántica, se viene planteando sino habría que asumir otro tipo de lógica. Esta propuesta no ha tenido éxito, a pesar de tener cierto sentido, aunque no parece sensato a los científicos poner en duda la utilidad de la lógica clásica. La cuestión si fuera reconocida, tendría que tener un modo de reconocer cuando habría que aplicar la lógica clásica y cuando otra lógica. De todos modos si se acepta tal cosa parece que tendría que encontrarse alguna manera de relacionar la lógica clásica con otras lógicas. Esto no se sabe hacerlo de un modo lógico-matemático. En física por el trabajo de Von Neumann-Garrett Birkhoff mencionado, se sabe que la física clásica responde a la lógica clásica, mientras que la física cuántica responde a la tal lógica cuántica. Pero los físicos eluden toda esta diferencia de lógicas…apelando a las matemáticas e ingeniándoselas para ver si logran relacionar todas las teorías físicas en una teoría unificada (bueno la cuestión es unificar la relatividad general que es una teoría de la gravitación con las teorías cuánticas que son las que corresponden a las fuerzas electromagnéticas y nucleares fuerte y débil, ocurre que los sucesos de la relatividad general siguen a la lógica clásica). Ahora bien hay matemáticas que no responden bien a la lógica clásica tal el caso de las álgebras de Heyting que responden a la lógica intuicionista. Habría que ver si las matemáticas de las teorías de unificación (como la teoría de cuerdas) se adecuan o no a la lógica clásica. En matemáticas se supone que en general conscientemente los matemáticos siguen la lógica clásica. Pero ocurre que se descubrió al axiomatizar la teoría matemática de categorías que la topología y la geometría algebraica responden más bien a la lógica intuicionista (2). Parece ser que los mismos matemáticos siguiendo determinados patrones matemáticos sin saberlo se adecuaron a una lógica distinta a la clásica. Luego el proceso deductivo no siempre se da adecuado a la lógica clásica y la realidad parece "gustar" de distintas lógicas.

Suponiendo que todo esto es cierto (y así se ve pero hay que dar todas estas vueltas para explicar la situación) no se sabe como relacionar distintas lógicas lo cual sería un pedido racional …perentorio. Bueno las lógicas se podrían en principio relacionar con máquinas lógicas. Las téoricas máquinas de Turing se relacionan con la lógica bivalente con todas sus inferencias clásicas. Pero agregando una memoria infinita a la máquina universal de Turing Von Neumann veía que tenía que relacionarse con la lógica intuicionista. Por cierto que en la realidad no es posible la existencia de ninguna memoria infinita. Las máquinas de Turing se relacionan todas con conjuntos numerables (los números 1,2,3,4, … como ½, 1/3, 2/5, y todos los fraccionarios). Esos conjuntos numerables son comunes pero también son posibles conjuntos numerables extraños ya que al relacionar las funciones exponenciales con las trigonométricas se llega a obtener la ecuación de De Moivre o de Euler: ep.i=-1. En tal ecuación elementos de los números reales (p y e) junto con la unidad imaginaria i cooperan para producir un elemento numerable (-1) en principio. Habría que demostrar que otras máquinas lógicas se relacionan con conjuntos numerables producidos a partir de la anterior ecuación. Es más habría que ver sino existen otras ecuaciones semejantes.

De todos modos resulta que la extensión de la computación o de la construcción de nuevas máquinas lógicas supone procesos infinitos y memorias infinitas cosa que no existe en la realidad.

En la realidad existe determinismo y aleatoriedad como dice Marvin Minsky uno de los creadores del proyecto de inteligencia artificial que esperaba emular la inteligencia humana bastante rápido desde 1956 (desde Darmouth donde se lanzó tal plan). Marvin Minsky decía lo anterior en su libro "La sociedad de la mente" y referente a los procesos de libre albedrío que suponía que implicaban otra posibilidad aparte del determinismo y de la aleatoriedad. El decía que no era posible y que no teníamos ni mérito, ni culpa en nuestras acciones.

Minsky estaba un poco equivocado. Ante todo la aleatoriedad no es de una sola clase (el concepto es utilizado para referirse a los fenómenos que se producen en la realidad, mientras que el concepto de azar se utiliza en la teoría de probabilidades que trata de captar algo de la aleatoriedad) como se puede apreciar en cuanto a los distintos ruidos que aparecen en la realidad. El ruido blanco es universal y es bien adecuado a la teoría de probabilidades pero también existen otros ruidos denominados de color y de los cuales el 1/f es uno que se presenta en muy variados sistemas físicos(3). Por otra parte nadie ha demostrado que el concepto de azar sea necesariamente único (y posiblemente nadie lo podrá demostrar), lo que sí es adecuado a la teoría de probabilidades el azar como azar extremo (de tal modo es único).

Al estudiar el ruido 1/f uno de los ruidos de color se vio que esconde algún tipo de información (o determinismo) con lo cual podemos apreciar que el determinismo y la aleatoriedad no van siempre separados(4). La naturaleza puede juntar también ruido con señal (que siempre es determinista) y hacerlos cooperar: este es el fenómeno de la resonancia estocástica por la cual una señal débil puede ser acentuada por el ruido de fondo. Esta cooperación no es contemplada en la teoría de la información de Shannon por lo cual tendría que ser ampliada (en la teoría de Shannon nunca la señal coopera con el ruido sino que se toman medidas para eliminar el ruido y esta teoría está conectada con la teoría de la computación ya que permitió concebir la noción de bit).

Así que en la realidad pueden darse determinismos diversos y aleatoriedades diversas. Aparte el proceso creativo del cerebro (y posiblemente no sólo del humano) no es un proceso completamente determinista, ni completamente aleatorio y efectivamente existe.

El determinismo extremo es el directamente computable el cual está relacionado con los conjuntos numerables comunes.

Pero los determinismos no extremos no son computables de modo usual. Y el determinismo directamente computable es un proceso finito.

El azar tiene o mejor dicho no tiene el aspecto de proceso finito. Aplicando la negación lógica al determinismo computable que es finito nos tiene que dar un aspecto…no finito. Bueno la aleatoriedad que no tiene que ver con teoría sino con fenómenos físicos muestra ser diversa con los ruidos y que el ruido blanco es adecuado a la teoría de probabilidades. El ruido blanco da la impresión de ser la forma extrema de aleatoriedad.

En la realidad tenemos aleatoriedad y en lo formal tenemos azar intentando captarse por medio de la teoría de probabilidades que no logra captarlo muy bien. Pero en principio sí. Intentar captar toda la aleatoriedad formalmente ciertamente sería un intento imposible, pero …parece que algo más que la teoría de probabilidades pueda hacerse y asimismo en cuanto a la computación.

Parece que se necesita simular eficazmente procesos infinitos, memoria infinita de algún modo. Si la simulación eficaz podríamos igualarla de algún modo con un determinismo no pleno y no computable usualmente podríamos en principio formalizar algo mejor los fenómenos aleatorios (y los procesos naturales "computacionales" como lo son de algún modo los cerebrales en cualquier cerebro de cualquier tipo y aún en los genomas celulares que implican otro tipo de "computabilidad").

La aproximación formal usual a la aleatoriedad es sólo matemática (por la nombrada teoría de probabilidades) pero tendríamos que pensar en una aproximación mejor de tipo lógico-matemático. El no determinismo es una aproximación a la noción de azar y el mismo se da en cualquier lógica distinta a la clásica. Es por esto que tendríamos que hablar de una aproximación formal al azar (o a la aleatoriedad) de tipo lógico-matemático. La única manera es la simulación y tendríamos que tratar que sea "eficaz".

Habría que reconocer que la computación directa (que no implica cálculo de probabilidades computable) es una cosa y el cálculo de probabilidades computable no es exactamente lo mismo, sobre todo si mediante un procedimiento como los que se están haciendo para automatizar del modo más completo un "laboratorio automático" que pueda reemplazar casi por completo a un científico. Y se está logrando de modo que el laboratorio automático lanza hipótesis y las testea y se ha podido evaluar que ha acertado con bastante frecuencia. La computación directa de algún modo queda relacionada, en el ingenio mencionado, con una estimación de probabilidades computada que tiene como referencia para cooperar las observaciones de la realidad y toda una información suministrada en memoria (el conocimiento científico respectivo con el cual contaría también cualquier científico). En el proceso computable el cálculo de probabilidades entra al aplicarlo a distintas conjeturas de las que hay que elegir la más simple con cierto criterio. (5)

Tradicionalmente en filosofía se toma la cuestión ser – no ser como la fundamental. Pero en la realidad sólo la noción de ser tiene sentido. Luego la cuestión fundamental debiera trasladarse a: propiedades elementales de los entes y la más elemental sería: tener orden o no tenerlo o sea determinismo – aleatoriedad. Pero claro esta dupla (determinismo –aleatoriedad) no tiene porque ser excluyente lógicamente como la dupla ser – no ser. En consecuencia y por razones lógicas tendrían que existir muchos modos de determinismo y de aleatoriedad y claro extremo determinismo y extrema aleatoriedad. Bueno esto es lo que precisamente tenemos en la realidad, o sea que por otro lado convergemos a un mismo resultado y esta forma de pensar nos permite intentar superar al racionalismo habitual sin dejar la realidad.

Habría que comprender lo que son las lógicas y las matemáticas.

La mejor forma de comprenderlas es relacionándolas con la mencionada dupla: determinismo – aleatoriedad.

Hay que reconocer que lógicas y matemáticas son producto de ordenar, organizar al extremo toda clase de conceptos claves que puedan integrarse formalmente.

Las lógicas tienen el aspecto de un ordenamiento global y un control de las estructuras formales. Las matemáticas en general tienen el aspecto de un ordenamiento más singular y a veces muestran un aspecto global en la noción de espacios matemáticos. Pero siempre las matemáticas dependen de las lógicas, sin ellas sólo serían un montón de conceptos sin conexión.

La lógica bivalente es el extremo de un ordenamiento formal global.

Asimismo las matemáticas relacionadas sólo con los conjuntos numerables comunes (1, 2, 3… y todas las fracciones) y todas sus operaciones como ser ecuaciones en números enteros (diofánticas) son el extremo de ordenamientos formales singulares. Se puede generalizar e incluir conjuntos de enteros y fracciones constituyendo una especial clase de números: los transfinitos y en este caso la referencia es al primero: alef-sub-cero.

Los extremos formales: lógica bivalente y matemáticas diofánticas son en principio finitas y claramente relacionables con procesos reales. Y son la base de la computación al uso tanto tipo en serie (como la mayoría de las computadoras) o tipo en paralelo como ciertas y especiales computadoras que aprovechan mejor la memoria y teóricamente se relacionan con las máquinas de Turing una especial y básica clase de autómatas teóricos.

La noción de no determinismo podríamos relacionarla con: cierto azar, con lógicas no clásicas (lógica no bivalente con todas las inferencias no clásicas) con procesos infinitos, con computaciones infinitas, con transfinitos superiores a alef-sub-cero).

Estas relaciones no están bien investigadas y explicitadas. Pero por ejemplo se conocen formalmente computaciones infinitas con resultado finito! y lo son todas la series infinitas convergentes que claro convergen a un límite finito. Haciendo el output = límite se tiene una computación infinita resuelta ipso facto. Y si hablamos de series infinitas convergentes estamos hablando también de integrales matemáticas que son ampliamente utilizadas.

Con toda la perspectiva dada anteriormente podría no ser algo puramente demente intentar avanzar algo más en la captación formal del azar. Y hay que tener en cuenta que esta perspectiva no es platónica: los objetos formales no existen por sí mismos y aparte no son de un modo único sino que se multiplican de un modo desbordante (lo cual representa un problema para los platónicos ya que se encuentran con lógicas no clásicas y matemáticas no estándar como lo es la de los antiguos infinitésimos del cálculo matemático que ya concibió el insigne Arquímedes).

Verdad

Esta es una noción central en el racionalismo y en el conocimiento. Hay quienes pretenden que tal noción tiene un carácter redundante: muestran que la noción vuelve sobre sí misma continuamente. Pero eso no es redundancia sino que la verdadera comprensión de la noción es que nos pide (bueno más bien nos exige) que comprobemos exhaustivamente la veracidad de cualquier proposición. Esta noción se mostraba única hasta que Kurt Gödel descubrió la noción lógica de incompletitud en la aritmética o sea que existían proposiciones aritméticas bien formuladas que no eran ni verdaderas, ni falsas. Hasta entonces las demostraciones parecían ser de carácter sólo finito (aunque se reconocían como válidas las demostraciones por el absurdo que no parecían confiables como señaló el matemático Brouwer y sus críticas llevaron a una nueva lógica: la intuicionista que se ha mostrado especialmente importante en matemáticas modernas: topología, teoría de categorías y computación: en este último campo va a ser preciso que relean los expertos a Von Neumann que en reiteradas veces menciona a Brouwer)(6).

El matemático David Hilbert había planteado el problema matemático de si se podía demostrar la consistencia de la aritmética (la matemática con sus cuatro operaciones básicas: suma, resta, multiplicación y división). O sea si cualquier proposición aritmética bien formulada se podía demostrar que fuera o verdadera o falsa. Gödel como se dijo demostró que esto no se podía hacer de modo usual y finito. Pero un discípulo de Hilbert, Gerard Gentzen utilizando inducción transfinita lo demostró.

De tal modo pudieron identificarse al menos dos tipos de verdades puramente formales: las demostradas finitamente y las demostradas mediante inducción transfinita. O sea se podría hablar desde entonces de verdades formales simples y verdades formales complejas.

Es claro que el conocimiento no sólo se refiere a objetos, estructuras formales. Luego existen verdades de hecho y son a las que se refieren todas las ciencias empíricas.

La noción de verdad en cuanto a lo formal nos exige absoluta certidumbre y claro para los problemas que se nos presentan en la realidad en general casi nunca podemos hablar de completa certidumbre. En la práctica podemos operar con "verdades" con cierta certidumbre. Y a esto es necesario reconocer se refiere la teoría de probabilidades que de un modo solapado nos permite concebir verdades no únicas. Luego tiene sentido decir que la computación directa ,que implica unicidad de verdad, no es lo mismo que computación de probabilidades que no lo implica.

Volviendo sobre el conocimiento real como nos enseña la actividad científica tenemos modelos formales acerca de los cuales se pueden declarar ciertas proposiciones bien formadas que podrán ser o no verdaderas y por otro lado tendremos toda clase de fenómenos reales acerca de los cuales podemos establecer proposiciones respectivas adecuadas que podrán o no ser verdaderas (corroboradas experimentalmente).

Ahora bien si son posibles muchos tipos de computación (aparte de las teóricas máquinas de Turing) habría que relacionar a dichas máquinas un tipo de verdad. Ya se vio que no es lo mismo la verdad de si 2 + 2 = 4 que si toda la aritmética es consistente o sea si con los procedimientos comunes nunca va a fallar (lograr una demostración que al fin no se muestre contradictoria).

Los matemáticos y por razones puramente matemáticas han concebido otro tipo de computaciones y máquinas lógicas distintas a las de Turing, estas son la máquina universal de Turing provista de oráculo matemático. El oráculo matemático es un objeto matemático que proveería dígito a dígito la información que estaría codificada en el mismo a la máquina universal de Turing (computadora teórica) que le permitiría resolver cuestiones incomputables (para la sola máquina universal). La propuesta de tal máquina lógica la dio el mismo Turing y la denominó máquina-O. Turing no indicó como identificar oráculos matemáticos pero el descubrimiento de los números aleatorios como el omega de Chaitin apunta a los mismos. En tales números sus dígitos no se pueden calcular con la certidumbre de por ej. con los dígitos de p, sólo se puede obtener ciertas aproximaciones que ponen en la bruma a la mayoría de los dígitos verdaderos del omega. (7)

Como se ve hasta la noción de verdad se ha pervertido. Pero dejando de lado la broma se puede apreciar que la noción general de verdad es tan abrumadora como la de ser. La noción de ser lleva a la tradicional concepción de la esencia de las cosas (noción claramente platónica). Pues bien, no existe esencia de las cosas. Igualmente no existen verdades absolutas y las modernas perversiones lógico-matemáticas nos lo muestran. Entonces hay que admitir que existen verdades mínimas que se confunden con verdades absolutas!.

Máquinas lógicas simbióticas

Para comprender realmente la inteligencia de tipo humano es necesario aseverar que se puede lograrlo si podemos conseguir una teoría idónea que permita producir la tecnología apropiada para construir un ingenio artificial que emule la inteligencia humana (no que la aproxime como hasta ahora).

La propuesta siguiente (conjetura) apela al concepto de virus informático. Un virus informático al entrar en la memoria de un sistema informático de base destroza su memoria. Pero existe la posibilidad que no lo haga sino que la reconfigure y comience a computar en "simbiosis" con el sistema de base. Cuando una computadora carga en su memoria un programa usual este transforma a la misma en una máquina virtual, sendos e infinitos programas distintos, en distintos momentos hacen posible producir infinitas máquinas virtuales con la misma computadora. El virus simbiótico resulta ser otro tipo de carga en memoria que no está contemplado y así desde la perspectiva del sistema virosado es un proceso completamente imprevisto. Este supuesto proceso haría posible agregar una nueva e infinita capacidad de nuevas máquinas. Esto aparece formalmente en las matemáticas con los números transfinitos: el primer transfinito son todos los conjuntos numerables y se denomina alef-sub-cero, pero es posible alef-sub-uno que se produce con todos los subconjuntos posibles de conjuntos numerables (tales conjuntos repiten los elementos originales: enteros o fracciones de distintas maneras en distintos ordenamientos, repitiéndolos, todo vale y así se forma un infinito mayor) y se relaciona con los números reales como v2, p, etc. (En la teoría de los números transfinitos los tales números pueden tratarse con distintas operaciones aritméticas dando siempre el mismo resultado: el mismo número transfinito…hasta que se propone tal transfinito elevado a la potencia del mismo transfinito y allí recién aparece un resultado nuevo: se produce otro transfinito esta superoperación aritmética parece ser acorde con la noción de computación simbiótica).

Entonces habría que pensar en bucles computacionales para una nueva computación en simbiosis. El caso mencionado sería el 1-bucle computacional. Pero sería teóricamente posible el 2-bucle donde el virus que entre en simbiosis con el sistema de base sea de tipo 1-bucle y así se podría seguir fantásticamente adelante con los n-bucles. Toda esta serie de ingenios no se propone que se den en la realidad sino que serían puramente abstractos, lo que sí parecerían darse paralelamente con los transfinitos: así el 0-bucle tendría que ver con ?0 (como con las máquinas de Turing), el 1-bucle con ?1 y habría que demostrar que con la primer máquina universal de Turing guiada por oráculo y así siguiendo. Dado que Gödel veía que teóricamente la mayoría de las matemáticas se referían a tres niveles, parece que teóricamente los matemáticos tratan de ?0 a ?2 y estos objetos matemáticos: enteros-fracciones, números reales y funciones reales son empleados por los científicos aplicándolos en las teorías es posible que den para ser "encontrados" de algún modo en la realidad.

La máquina lógica simbiótica más probable de existir sería el 1-bucle y en el caso que el sistema vírico tenga la potencia de computadora como el sistema base: Tesis: el sistema tendría la potencia para generar lenguaje abstracto y pensamiento de tipo humano. Si la potencia del sistema virósico fuera menor es posible que se pueda formalizar a toda la enorme cantidad de organismos que tenemos en nuestro planeta y esto posiblemente sería una respuesta al desafío de Von Neumann de una teoría matemática que de cuenta de la vida y de su evolución.

Tanta teoría fantástica parece excesiva para comprender el racionalismo, sin embargo es preciso comprender que la realidad abarca procesos deterministas y no deterministas (aleatorios) y la comprensión de los sucesos no deterministas encuentra un camino de representación en cuanto nos percatamos que sucesos aleatorios equivalen a sucesos no finitos pero con output finito o sea computaciones infinitas con salida finita o sea algo similar a series infinitas convergentes donde límite = output. Pero claro es necesario que tal representación pueda de algún modo ejecutarse en una "simulación eficaz" en ingenios posibles como las posibles máquinas simbióticas que producirían un bucle extraño (según la expresión de Douglas Hofstadter) y que como diría precisamente Hofstadter, el infinito puede ser simulado (eficazmente) por un bucle (finito) (lo anterior de "Gödel, Escher, Bach" y los subrayados son propios).

Partes: 1, 2
Página siguiente