Descargar

El infinito (página 2)

Enviado por Jesús Castro


Partes: 1, 2

Como Z carece de primer y último elementos (es decir, se prolonga desde el infinito hasta el infinito), aparentemente debería tener una cantidad infinita de elementos aproximadamente igual al doble de "card(N) =??". Sin embargo, esto no es así. Se prueba, mediante rigurosa biyección, que la cantidad de elementos de Z o "card(Z)" es igual a "card(N)"; o sea: "card(Z) =??". Esto, evidentemente, invalida el axioma 5º de Euclides (página 9), pues es obvio que N es una parte propia (o subconjunto propio) de Z.

NOTA:

Dado un conjunto A = {a, e, i, o , u}, tal que card(A)= 5, se dice que B es PARTE o SUBCONJUNTO de A si B está formado por elementos tomados de A. Cuando B está formado por todos los elementos de A, o sea, cuando B=A, a B se le llama PARTE o SUBCONJUNTO IMPROPIO de A. Evidentemente, todo conjunto C es parte impropia de sí mismo; por tanto, cualquier conjunto C sólo puede tener una única parte impropia: él mismo.

Cuando B está formado por algunos (pero no todos) los elementos de A, como en el caso B = {a, i, o}, en donde card(B)= 3, se dice que B es PARTE o SUBCONJUNTO PROPIO de A. Para conjuntos finitos, es obvio que el cardinal de un conjunto A (finito) coincide con el de su parte impropia, pero siempre es mayor que el de toda parte propia del mismo. Sin embargo, tal cosa no sucede cuando el conjunto es infinito, es decir, cuando su cardinal es infinito. En efecto, pues N es parte propia de Z y, sin embargo: card(N) = card(Z).

El conjunto de los números racionales se forma a partir de los números enteros y se denota por Q, y está constituido por toda la infinidad de los números fraccionarios que caben entre 2 números enteros cualesquiera, hecho que se representa así:

Q = { z/n | zEZ y nEN }

y se lee: "Q es el conjunto formado por todas las fracciones z/n tal que z pertenece a Z y n pertenece a N".

Aparentemente, según el sentido común, el "card(Q)" debería ser igual al "card(Z)" multiplicado por el "card(N)", pero esto no es así en absoluto. También aquí se puede probar con rigor que el "card(Q)" es igual al "card(Z)". Por consiguiente, tenemos que:

card(N) = card(Z) = card(Q) = À0

Ello a pesar de que N es parte propia de Z y Z es parte propia de Q. En consecuencia, N, Z y Q poseen la misma potencia, a saber: la potencia del numerable (??).

NOTA:

El "sentido común" es lo que la gente piensa a nivel general sobre un tema en particular. Es un acuerdo natural de las personas sobre algo. Se entiende como una creencia que la gente considera prudente sobre un tema o situación, sin necesidad de que esa información esté comprobada científicamente o que sea parte de un conocimiento esotérico; lo único que importa en este caso es que la mayoría de las personas lo crean o lo tengan en "común".

Un factor importante relacionado con el sentido común es la experiencia que cada persona ha tenido en el transcurso de su vida. Muchas de esas experiencias resultan en algo positivo para la mayoría de las personas, por lo que, según el conocimiento que se adquiriere en base a esas experiencias, se establecen creencias que a nivel popular son de buen juicio. De hecho, muchas de las cosas que se creen como correctas, vienen desde generaciones pasadas, de tiempos anteriores en los cuales, por la experiencia de otros, se establecieron como buenas o prudentes y han perdurado hasta hoy.

edu.red

El "sentido común" es uno de los sentidos más valorados en las sociedades humanas, tal vez porque es el menos común de los sentidos y uno cuya aplicación generalmente produce buenos resultados. El concepto se compone de 2 palabras: "sentido", que da la idea de percepción o de capacidad para captar la realidad, y "común", que incluye a un conjunto de personas que tienen la misma visión o dan la misma orientación a las situaciones.

Según esto, es evidente que los transfinitos de Cantor violan el sentido común de la gente, porque dicho sentido común se basa en el conocimiento y experiencia tomados de la realidad finita que percibimos como humanos. Sin embargo, la matemática cantoriana nos informa de que el infinito posee ciertas reglas cuya percepción es dificultada por nuestro habitual sentido común.

Entre 2 números enteros cualesquiera, consecutivos entre sí, existe una infinidad de números racionales. Por ejemplo, los enteros consecutivos 2 y 3 son frontera de una cantidad infinita de números racionales de la forma "2+(1/n)" = "(2n+1)/n". Sin embargo, entre esa infinita cantidad de racionales, comprendidos entre 2 y 3, se puede tomar 2 de ellos tan próximos entre sí como se desee, tales como "2 + ½" y "2+(1/3)" y todavía encontrar entre estos últimos una infinidad de números racionales, y así sucesivamente e ilimitadamente:

edu.red

El sentido común, sin hacer más averiguaciones, nos dictaría que es sensato pensar que los números racionales, o el conjunto Q de ellos, llenarían la recta numérica y la saturarían; es decir, todo punto (ente adimensional) de la recta numérica quedaría nombrado por un elemento de Q (esto es: por un número racional), y ya no quedaría absolutamente ningún punto sin nombrar. Al parecer, ésta fue la manera de ver la geometría que tuvieron los sabios griegos de la antigüedad durante un cierto periodo de tiempo. Veamos.

Pitágoras de Samos (580-495 antes de la EC) fue un filósofo y matemático griego considerado el primer matemático puro. Contribuyó de manera significativa al avance de la matemática helénica, la geometría y la aritmética, derivadas particularmente de las relaciones numéricas, y aplicadas por ejemplo a la teoría de pesos y medidas, a la teoría de la música o a la astronomía. Fundador de la Hermandad Pitagórica (cuna del pitagorismo), una sociedad cerrada que, si bien era de naturaleza predominantemente religiosa, se interesaba también en medicina, la cosmología, la filosofía, la ética y la política, entre otras disciplinas, además de las matemáticas. El pitagorismo formuló principios que influyeron tanto en Platón como en Aristóteles y, de manera más general, en el posterior desarrollo de la matemática y en la filosofía racionalista de Occidente.

El pitagorismo era, pues, un movimiento esotérico, metafísico, filosófico, científico y religioso fundado por Pitágoras de Samos y sus seguidores: los pitagóricos. Éstos formaban la Escuela Pitagórica, que era una secta griega de astrónomos, músicos, matemáticos y filósofos que creían que todas las cosas son, en esencia, números.

Los pitagóricos se dedicaron a las matemáticas con gran afán, y fueron los primeros que hicieron progresar esta disciplina de manera notoria. Habiéndose formado en el concepto de número, pensaron que los principios que regían las relaciones numéricas eran los principios que regulaban todas las cosas. Tenían el entusiasmo propio de los primeros estudiosos de una ciencia en pleno progreso, y les cautivó la importancia del número en el cosmos: todas las cosas son numerables, y muchas las podemos expresar numéricamente. Así la relación entre dos cosas de la misma especie se puede expresar por una proporción numérica, o sea, mediante el concurso de los números racionales; el orden existente en una serie de objetos ordenados se puede expresar mediante números ordinales, y así sucesivamente.

Pero parece que lo que más les impresionó fue el descubrir que los intervalos musicales que hay entre las notas de la lira pueden expresarse numéricamente. Cabe decir que la altura de un sonido depende del número, en cuanto que depende de las longitudes de las cuerdas, y es posible representar los intervalos de la escala con razones numéricas (números racionales). A partir de esto surge la idea de cantidad, lo cuantitativo, como principio y esencia de la realidad, es decir, que lo cualitativo se determina en lo cuantitativo. Suponían que lo mismo que la armonía musical depende del número, la armonía del universo también depende del número.

El pensamiento pitagórico se levantó sobre una estructura matemático–racional. El hecho de que descubrieran que las relaciones armónicas entre las notas musicales correspondían a cocientes de números enteros (esto es, a números racionales) les inspiró a buscar proporciones numéricas en todas las demás cosas, y lo expresaron con la máxima: "Todo es número".

En la matemática pitagórica, dos magnitudes son conmensurables si es posible encontrar una tercera tal que las primeras dos sean múltiplos de la última, es decir, es posible encontrar una unidad común para la que las dos magnitudes tengan una medida entera. El principio pitagórico de que "todo número es un cociente de enteros", expresaba en esta forma que cualesquiera dos magnitudes deben ser conmensurables. Pero el ambicioso proyecto pitagórico de solidificar la matemática en torno al número racional se tambaleó ante el problema de medir la diagonal de un cuadrado, o la hipotenusa de un triángulo rectángulo, pues no es conmensurable respecto de los catetos.

edu.red

Surgió entonces un dilema, ya que de acuerdo al principio pitagórico de que "todo número era racional", la hipotenusa de un triángulo rectángulo isósceles violaba esa máxima, pues no era conmensurable con los catetos. Esta afrenta contra la norma pitagórica implicó que en adelante las magnitudes geométricas y las cantidades numéricas tendrían que tratarse por separado, hecho que tuvo consecuencias funestas en el desarrollo de la matemática durante los dos milenios subsiguientes.

Desde el mismo ámbito matemático en el que se desenvolvían los pitagóricos provino el descubrimiento que pondría en crisis los fundamentos del pitagorismo, pues se trataba del descubrimiento de lo irracional (es decir, entidades pseudonuméricas que violaban la racionalidad pitagórica), de magnitudes que no se podían racionalizar o convertir en fracciones racionales (números racionales). Éste era el caso de la raíz cuadrada de dos.

Los pitagóricos supusieron que el número racional podía medirlo todo, pero esta convicción no era aplicable a la relación entre los lados de un cuadrado y la diagonal del mismo. Los pitagóricos encontraron que en el caso del lado y la diagonal del cuadrado no existe ningún patrón que los mida exactamente a ambos. Fue un hallazgo que tuvo una gran incidencia negativa en la escuela, ya que cuestionaba los cimientos de su racionalismo numérico, en el cual tenían afianzado su convencimiento de la inviolable coherencia interior y la solidez incuestionable de su doctrina. Esto causó grandes desequilibrios y estragos entre los pitagóricos.

Hipaso de Metaponto fue un matemático, teórico de la música y filósofo presocrático, miembro de la Escuela pitagórica. Se cuenta entre los más renombrados de los pitagóricos, de la época más temprana. Se cree que fue quien probó la existencia de los números irracionales, en un momento en el que los pitagóricos pensaban que los números racionales podían describir toda la geometría del mundo. Hipaso habría roto la regla de silencio de los pitagóricos, revelando al mundo la existencia de estos nuevos números. Eso habría hecho que éstos lo expulsaran de la escuela y erigieran una tumba con su nombre, mostrando así que para ellos él estaba muerto. Los documentos de la época dan versiones diferentes de su final. Parece ser que murió en un naufragio, en circunstancias misteriosas. Algunos dicen que se suicidó como autocastigo, dejando así libertad a su alma para ir a buscar la purificación en otro cuerpo. Otros afirman que un grupo de pitagóricos lo mataron.

Si sobre la recta numérica erigimos un cuadrado de lado 1 y trazamos una diagonal "d" a dicho cuadrado, obtenemos un segmento "d" que, al caer sobre la recta numérica, determina un número que no es racional. Por el famoso "teorema de Pitágoras" se prueba que "d" es igual a la raíz cuadrada de 2 y, a partir de ahí, se demuestra rigurosamente que la raíz cuadrada de 2 no se corresponde con ningún número racional. Esto contraviene las previsiones del sentido común, al demostrar que los elementos de Q (los números racionales) no son capaces de saturar la recta numérica. De momento, tenemos el irracional " v2", el cual señala un punto de la recta numérica no cubierto por ningún número racional. Ahora bien, desarrollos modernos de la teoría de los llamados "números reales" (cuyo conjunto, R, es la unión del conjunto Q de los números racionales con el conjunto I de los números irracionales) muestran que " card(I) ?card(Q)"; además, "card(I) > card(Q)". Por lo tanto, los números irracionales casi saturan la recta numérica, en tanto que los números racionales salpican muy débilmente dicha recta; dicho de otro modo: la inmensa mayoría de los puntos de la recta numérica están designados por números irracionales.

edu.red

En la teoría de los números transfinitos, al cardinal de I se le designa por " ??" (alef-sub-uno). Éste es, pues, un infinito (un número transfinito) mayor (o de orden superior) a " ??". Por otra parte, se tiene que "card(I) = card (R) = ??"; en consecuencia: "?? + À1 = ??"; o sea: "card(Q) + card (R) = card (R)". Al "card (R) = ??" se le llama POTENCIA DEL CONTINUO.

En la teoría de conjuntos se toma en cuenta la posibilidad de que un conjunto carezca de elementos, representándose "{ }". A un tal conjunto se le denomina CONJUNTO VACÍO, y también se le designa con el símbolo "Ø ". Es evidente que "card(Ø) = 0". Y, si bien existen infinitos conjuntos finitos cuyo cardinal es un número natural "n" dado, en cambio sólo hay un único conjunto cuyo cardinal es cero: Ø.

Dado un conjunto A, se llama CONJUNTO POTENCIA (o CONJUNTO DE LAS PARTES DE UN CONJUNTO) A al conjunto P(A) formado por todos los posibles subconjuntos que se pueden formar con los elementos de A, incluido el propio A (su parte impropia) y el Ø (pues Ø es subconjunto o parte propia de todo conjunto no vacío, así como parte impropia de sí mismo). Por ejemplo, siendo A = {a, e, o}, todos sus posibles subconjuntos son: Ø, A1= {a}, A2= {e}, A3= {o}, A4= {a, e}, A5= {a, o}, A6= {e, o}, A. Por lo tanto, tenemos que: P(A) = { Ø, A1, A2, A3, A4, A5, A6, A}. Además, "card(A) = 3" y "card[P(A)] = 2card(A) = 23 = 8 ".

En general, siendo A finito o infinito, se tiene que "card[P(A)] = 2card(A)". Para el caso de que A sea finito, es evidente que "card(A) < card[P(A)]". Pero, ¿qué ocurre cuando A es infinito?

Un resultado de gran importancia para la teoría de los números transfinitos es el llamado TEOREMA DE CANTOR, que dice: "Siendo A un conjunto finito o infinito, se cumple que card(A) < card[P(A)]". Además, posteriores investigaciones mostraron que, modificando conveniente y legítimamente la teoría, resulta que, si bien "card(N) = ??", es "card(R) = card[P(N)] = ??". En consecuencia:

N1 = 2N0.

El teorema de Cantor, por tanto, permite construir una jerarquía infinita de cardinales transfinitos, cada uno de ellos estrictamente más grande que el anterior:

N0, N1, N2, N3, … ,Nn, …

y tales que:

Nn=2Nn-1

puesto que, siendo A infinito, es:

card(A) < card[P(A)] = 2card(A).

Algoritmos.

Un "algoritmo" es un conjunto finito de instrucciones o pasos que sirven para ejecutar una tarea o resolver un problema. De un modo más formal, un "algoritmo" es una secuencia finita de operaciones realizables, no ambiguas (deben ser claramente definidas), cuya ejecución da una solución a un problema. El término "algoritmo" no está exclusivamente relacionado con las matemáticas, las ciencias de la computación o la informática. En realidad, en la vida cotidiana empleamos algoritmos en multitud de ocasiones, para resolver diversos problemas. Ejemplos de algoritmos son el uso de una lavadora (se siguen las instrucciones al respecto), el cocinar (se siguen los pasos de la receta), etc. También existen ejemplos de índole matemática, como el algoritmo de la división para calcular el cociente de dos números decimales, el algoritmo de Euclides para calcular el máximo común divisor de dos números naturales, etc.

La palabra "algoritmo" proviene del nombre de un matemático musulmán persa llamado Al-Juarismi (780-850 de la EC), cuyos escritos, traducidos al latín en el siglo XII, tuvieron una gran influencia en Europa Occidental. AlJuarismi fue el iniciador de la rama de las matemáticas que hoy conocemos como Álgebra. Fue, además, el principal difusor del sistema de numeración decimal posicional que usamos comúnmente hoy día y que llamamos "sistema indoarábico de numeración", pues en realidad dicho sistema y parte de su grafismo se originó en la India, siendo los árabes meros transmisores del mismo.

En el siglo XII todavía predominaba en Europa el sistema romano de numeración que, como es sabido, carece del cero y hace extremadamente difíciles operaciones tan simples como multiplicar o dividir dos números naturales. En cambio el sistema indoarábico proporciona procedimientos sistemáticos para estas operaciones de un tecnicismo tan simple que todos los niños pueden aprenderlos en la escuela a muy corta edad. Como era de esperar, esta forma de calcular fue desplazando rápidamente a los métodos realizados mediante el ábaco, y recibió el nombre de "algoritmo" (pronunciación aproximada de Al-juarismi). Con el tiempo todo procedimiento sistemático y rutinario para resolver un problema matemático recibió, por analogía, el nombre de "algoritmo". Actualmente, el nombre se sigue aplicando a tales procedimientos, muchas veces manuales o puramente teóricos, pero sobre todo a los que son realizados por una computadora.

edu.red

Un "algoritmo" es, pues, un conjunto de reglas que, aplicadas sistemáticamente a unos datos de entrada adecuados (expresados en el enunciado del problema a tratar), resuelven un cierto problema en un número finito de pasos elementales. El conjunto de reglas ha de ser finito, de otro modo su definición o descripción algorítmica no terminaría. Además, el número de pasos elementales (que puede invocar la aplicación de todas o parte de las reglas, y hacerlo repitiendo o no algunas de tales reglas) ejecutados por el algoritmo ha de ser igualmente finito, pues de otra manera nunca se alcanzaría una solución (dicha solución requeriría una eternidad de tiempo para ser elaborada).

NOTA:

Por lo que se sabe, el trabajo de Al-Juarismi consistió en preservar y difundir el conocimiento de la antigua Grecia y de la India. Sus libros eran de fácil comprensión, de aquí que su principal valor no fuera el de crear nuevos teoremas o nuevas corrientes de pensamiento, sino el simplificar las matemáticas a un nivel lo suficientemente bajo para que pudiera ser comprendido por un amplio sector del público. Cabe destacar cómo él señaló las virtudes del sistema de numeración decimal indio, en contra de los sistemas tradicionales árabes, y cómo explicó mediante una especificación clara y concisa la manera de calcular sistemáticamente y que se podrían definir algoritmos que fueran usados en dispositivos mecánicos en vez de usar las manos (por ejemplo, ábacos). También estudió la manera de reducir las operaciones que formaban el cálculo. Es por esto que aún no siendo el creador del primer algoritmo, el concepto lleva un parecido a su nombre, a saber, el pseudónimo "algoritmo".

En principio se usó la palabra "algorismo", que originalmente hacía referencia a las reglas de uso de la aritmética utilizando dígitos indoarábigos. Posteriormente, "algorismo" evolucionó hacia la palabra latina "algobarismus". Finalmente, en el siglo XVIII, el término se posicionó definitivamente en la forma actual: "algoritmo". La palabra ha cambiado de forma a través de los siglos, pero la esencia de su definición incluye a todos los procedimientos finitos que sirven para resolver problemas.

El análisis y estudio de los algoritmos es una disciplina de las ciencias de la computación, y en la mayoría de los casos su estudio es completamente abstracto y no usa ningún tipo de lenguaje de programación ni cualquier otra implementación. Por eso, en este sentido, comparte las características de las disciplinas matemáticas. Así, el análisis de los algoritmos se centra en los principios básicos del algoritmo, no en los de su implementación particular. Una forma de plasmar (o algunas veces codificar) un algoritmo es escribirlo en pseudocódigo o utilizar un lenguaje muy simple cuyos códigos pueden estar en el mismo idioma del programador.

Algunos escritores restringen la definición de algoritmo a procedimientos que deben acabar en algún momento, mientras que otros dan cabida además a procedimientos que podrían ejecutarse eternamente sin parar (algoritmos eternos o infinitos), y para ello especulan con la existencia teórica de algún dispositivo físico que fuera capaz de funcionar eternamente. En este último caso, la finalización con éxito del algoritmo no se podría definir como la terminación de éste con una salida o solución satisfactoria al problema, sino que el éxito vendría definido en función de las secuencias de salidas evaluadas como satisfactorias y alcanzadas durante un cierto periodo de tiempo (o vida finita) extraído de la ejecución eterna del algoritmo.

Por ejemplo, la tarea "calcular el número p (léase: pi) en forma decimal" no es un algoritmo para los partidarios de la algoritmia tradicional (que excluye los algoritmos infinitos), pues la secuencia decimal de p contempla infinitas cifras y cada cifra supone un paso elemental del cálculo. En cambio, para los apoyadores de la algoritmia infinita, p ofrece la posibilidad de un cálculo algorítmico teóricamente factible, aunque infinito, cuyas secuencias de salida son satisfactorias y presentan una aproximación al valor real de p plenamente aceptable. El valor numérico de p, truncado a sus primeras cifras, es el siguiente: 3'14159265358979323846…

edu.red

Algoritmos infinitos.

Según hemos visto en la nota anterior, algunos expertos admiten como algoritmos ciertos procedimientos que podrían ejecutarse eternamente, como, por ejemplo, la tarea "calcular el número p en forma decimal". Figuras relevantes en el análisis matemático, tales como Leibnitz, Wallis y Euler han provisto algoritmos o fórmulas matemáticas capaces de aproximar el valor decimal de p tanto como se quiera y/o se pueda (dependiendo de los medios y del tiempo disponible para utilizar dichos medios). Gottfried Wilhelm von Leibnitz (1646-1716) proporcionó la denominada "serie de Leibnitz":

edu.red

NOTA:

El número p es la relación o cociente entre la longitud L de una circunferencia y su diámetro D, en el seno de la geometría euclidiana. Es un número irracional y una de las constantes matemáticas más importantes. Se emplea frecuentemente en análisis matemático, física e ingeniería.

edu.red

Los primeros millones de dígitos (cifras) decimales de p se han podido calcular gracias a los modernos ordenadores. Uno de los récords mas recientes fue alcanzado en diciembre de 2002 por Yasumasa Kanada de la Universidad de Tokio, fijando el numero p con 1 241 100 000 000 dígitos; se necesitaron unas 602 horas, con un superordenador de 64 nodos Hitachi SR8000 y con una memoria de un "terabyte" capaz de llevar a cabo 2 billones de operaciones por segundo. Estas aproximaciones proporcionaron una cantidad tan ingente de dígitos que puede decirse que ya no es útil la tarea, salvo para comprobar el funcionamiento de los superordenadores. La limitación no está en la computación, sino en la memoria necesaria para almacenar una cadena con una cantidad tan grande de números.

Números primos.

En matemáticas, un "número primo" es un número natural mayor que 1 que tiene únicamente dos divisores distintos: él mismo y el 1. Los números primos se contraponen así a los " números compuestos", que son aquellos números naturales que tienen algún divisor natural aparte de sí mismos y del 1. El número 1, por convenio, no se considera ni primo ni compuesto. Los números primos menores que 100 son los siguientes: 2, 3, 5, 7, 11, 13, 17, 19, 23, 29, 31, 37, 41, 43, 47, 53, 59, 61, 67, 71, 73, 79, 83, 89 y 97.

El estudio de los números primos es una parte importante de la "teoría de números", rama de las matemáticas que comprende el estudio de los números enteros. Los números primos están presentes en algunas especulaciones centenarias, tales como la "hipótesis de Riemann" y la "conjetura de Goldbach". La distribución de los números primos en la recta numérica es un tema recurrente de investigación en la teoría de números: si se consideran números individuales, los primos parecen estar distribuidos aleatoriamente, pero la distribución "global" de los números primos sigue leyes bien definidas.

edu.red

El conjunto de los números naturales N = {1, 2, 3, 4, 5, 6, 7, … } queda "partido", pues, en 2 subconjuntos disjuntos (que carecen de elementos comunes entre sí), a saber:

El conjunto de los números primos, con el 1 incluido: P = {1, 2, 3, 5, 7, … }.

El conjunto de los números compuestos: C = {4, 6, 8, 9, … }.

La primera prueba indiscutible del conocimiento de los números primos se remonta a alrededor del año 300 antes de la EC, y se encuentra en los "Elementos" de Euclides (tomos VII a IX). Euclides definió los números primos, demostró que hay infinitos de ellos y definió el máximo común divisor y el mínimo común múltiplo de un número natural en base a los números primos.

Por lo dicho anteriormente, el conjunto P de los números primos posee la potencia del numerable, por lo que teóricamente debería poder encontrarse una biyección (correspondencia uno a uno entre los elementos de 2 conjuntos) entre P y N, o al revés: entre N y P. Esto significa que todo número natural "n" debería poder ser transformado mediante una fórmula matemática o algoritmo "a(n)" en un número primo de manera biyectiva, siendo "a(n)" el término general de la sucesión de los números primos, todos obtenibles mediante la hipotética biyección citada. Sin embargo, hasta el presente, esto ha resultado imposible.

El estudio de los números primos es uno de los campos que más ha apasionado a los grandes matemáticos de la Historia. De carácter aparentemente impredecible, lo cierto es que los primos obedecen muchas leyes y aparecen en muchos teoremas matemáticos. Sin embargo, sólo con los ordenadores más potentes del mundo se puede seguir comprobando, para números naturales muy grandes, qué números son primos y cuáles son compuestos. De momento, no se conoce ninguna fórmula matemática práctica que nos permita predecir si un determinado número natural es primo. Para cada posible "candidato" se tiene que comprobar su "primalidad" mediante diversos algoritmos de "fuerza bruta" en potentes ordenadores. El primo más grande conocido hasta ahora es "243112609-1", descubierto el 8-8-2009; tiene casi 13 millones de cifras o dígitos.

El modelado geométrico de la distribución de los números primos es un tema de investigación recurrente entre los teóricos de los números. La "primalidad" de un número natural es (hasta ahora) impredecible a pesar de que existen leyes, como el "teorema de los números primos" y el "postulado de Bertrand", que gobiernan su distribución a gran escala. Leonhard Euler (1707-1783) comentó: "Hasta el día de hoy, los matemáticos han intentado en vano encontrar algún orden en la sucesión de los números primos, y tenemos motivos para creer que es un misterio en el que la mente jamás penetrará".

edu.red

Don Bernard Zagier (nacido el 29 de junio de 1951) es un reputado matemático americano, cuya principal área de trabajo se centra en la teoría de los números. Actualmente es uno de los directores del Instituto Max Planck de matemáticas en Bonn, Alemania, y profesor en el Collège de France, de París. En una conferencia de 1975, comentó: "Hay dos hechos sobre la distribución de los números primos de los que espero poder convencerles de forma tan incontestable que éstos quedarán permanentemente grabados en sus corazones. El primero es que, a pesar de su definición simple y del papel que desempeñan como ladrillos con los que se construyen los números naturales, los números primos crecen como malas hierbas entre los números naturales, y no parecen obedecer ninguna otra ley que la del azar, y nadie puede predecir dónde brotará el siguiente. El segundo hecho es aún más asombroso, ya que dice justo lo contrario: que los números primos muestran una regularidad pasmosa, que hay leyes que gobiernan su comportamiento, y que obedecen estas leyes con precisión casi militar".

Al presente, matemáticamente hablando, los números primos poseen en general un carácter aleatorio. Aparecen aquí y allá sin que se pueda predecir dónde. No hay una fórmula conocida que nos devuelva siempre números primos, y, de hecho, se debe verificar computacionalmente si los posibles "candidatos" a número primo realmente lo son. Sin embargo, hay ciertos números primos que siguen determinadas fórmulas matemáticas, pero eso no quiere decir que todos los números que siguen dichas fórmulas sean necesariamente primos. En algunas ocasiones, esto implica curiosas propiedades matemáticas, de manera que en el mejor de los casos nos encontramos con estos datos acumulados sobre la "personalidad" de los números primos, pero no hay nada definitivo en cuanto a ellos como "colectividad" global.

Dado que siempre ha sido patente que tratar de encontrar una ecuación o fórmula matemática que sólo sea cumplida por los números primos (una expresión matemática característica de todos los números primos y sólo de ellos) es una utopía, frecuentemente los matemáticos han buscado la manera de rodear el problema y hallar formas de aproximarse a la solución. Por ejemplo, Adrien-Marie Legendre, en 1798, intuyó que, si bien era imposible calcular qué números son primos en cualquier intervalo de números naturales, no obstante se podría hallar un algoritmo matemático capaz de dar una estimación aproximada sobre cuántos números primos hay por debajo de cierto número natural "n", por grande que sea este "n". Entonces él lanzó una conjetura (o proposición matemática no demostrada) que fue probada cierta un siglo más tarde por los matemáticos Jacques Hadamard y Vallée Poussin, independientemente. Dicha conjetura, ya demostrada, ha pasado a llamarse TEOREMA DE LOS NÚMEROS PRIMOS. De dicho teorema se desprende la consecuencia de que «para un número natural arbitrario "n", tan grande como se quiera, la probabilidad de que dicho número sea primo es aproximadamente igual a 1/L(n)», siendo "L(n)" el logaritmo neperiano de "n"; es decir, cuanto más grande sea el número "n", menos probable es que "n" sea primo. Esto significa que, a medida que la sucesión (ordenada de menor a mayor) de los números primos crece también crece la distancia o separación media entre 2 números primos consecutivos en la recta numérica.

edu.red

Un importante paso en la distribución geométrica de los números primos lo dio Stanislaw Marcin Ulam (1909-1984), nacido en Lvov (Lemberg), Polonia. Su familia formó parte de la minoría judía de Lvov. Él estudió en la escuela de Matemáticas de Lvov, donde su mentor fue el matemático polaco Stefan Banach. Cursó estudios de postgrado en el Instituto politécnico de Lvov, donde se doctoró en 1933. Gracias a su amigo John von Neumann logró llegar a Estados Unidos y ser aceptado en la Universidad de Harvard, en 1938. Regresó a Polonia en 1939 y logró escapar de los nazis junto con su hermano Adam, hacia Estados Unidos, y con ayuda de Neumann pudo encontrar un trabajo en el Instituto de Estudios Avanzados de Princenton. Mientras tanto, toda su familia murió asesinada en el Holocausto perpetrado por los alemanes durante la II Guerra Mundial.

En 1963, Ulam, aburrido durante una conferencia científica, estaba haciendo garabatos en una hoja de papel. Dispuso una malla de números naturales en espiral, empezando por el 1 en el centro, el 2 a su derecha, el 3 arriba, el 4 encima del 1, el 5 a la izquierda, y así sucesivamente. Posteriormente, marcó los números primos y descubrió que los números marcados tendían a distribuirse a lo largo de líneas diagonales.

edu.red

Todos los números primos, excepto el 2, son impares. Como en la "espiral de Ulam" algunas diagonales contienen números impares y otras contienen números pares, no sorprende ver cómo los números primos caen todos (salvo el 2) en diagonales alternas. Sin embargo, entre las diagonales que contienen números impares, unas contienen una proporción visiblemente mayor que otras de números primos. Las pruebas que se han hecho hasta ahora confirman que, incluso si se extiende mucho la espiral, se siguen mostrando esas diagonales. El patrón se muestra igualmente aunque el número central no sea 1 (en efecto, puede ser mucho mayor que 1). Este hallazgo fue tan célebre que la " espiral de Ulam" apareció en la cubierta de la revista Scientific American en marzo de 1964.

Existen otras variantes de la espiral de Ulam, tal como la "espiral de Sacks", que también muestra patrones geométricos sin explicación aparente. La espiral de Sacks fue descrita en 1994 por Robert Sacks. Se diferencia de la espiral de Ulam por 3 características fundamentales, a saber:

1. Los puntos (elementos equivalentes a los píxeles o puntitos de la pantalla de un ordenador: blancos para los números naturales compuestos y negros para los naturales primos) se ubican sobre una espiral de Arquímedes, en vez de sobre una espiral cuadrada como la que utilizó Ulam (ver figura abajo).

2. El número 0 (cero) se admite como natural y se ubica en el centro de la espiral arquimediana, en vez del 1 de la espiral de Ulam.

3. En la espiral de Sacks se realiza un giro completo para cada cuadrado perfecto (número natural elevado al cuadrado: n2), mientras que en la espiral de Ulam se ubican dos cuadrados perfectos por giro o rotación.

edu.red

edu.red

En la espiral de Sacks (ver figura de la página siguiente) se observa que algunas curvas que comienzan en el origen parecen tener una gran densidad de números primos, y una de estas curvas, por ejemplo, contiene números del tipo "n2 + n + 41", que curiosamente viene a ser un famoso polinomio abundante en números primos descubierto por Leonhard Euler en 1774. Sin embargo, se desconoce actualmente hasta qué punto las curvas de la espiral de Sacks permiten predecir grandes números primos o compuestos.

Estos curiosos descubrimientos son relativamente recientes. La espiral de Sacks data de 1994 y la de Ulam de 1963. Quién sabe qué otras sorpresas no descubiertas aún nos pueden deparar los números primos. Pero, de todas formas, una cosa sí va quedando clara: cuando se consideran grandes cantidades de números primos, comienza a aparecer cierto orden o regularidad en la distribución de los mismos. En otras palabras: cuando se tiende a considerar una cantidad cuasi infinita (o tendente a un cardinal infinito) de números primos, tiende también a emerger un orden en medio del aparente caos.

edu.red

Conclusión.

Si bien los números primos son construcciones puramente matemáticas (con algunas aplicaciones a la tecnología de las computadoras), su distribución geométrica en la recta numérica o en el plano numérico, cuando se hace tender hacia el infinito la cantidad representada de números, nos enseña una lección importante, a saber: un conjunto de entes que solían percibirse como caóticos, en su manifestación, pueden, por otra parte, presentar una notable regularidad cuando el enfoque científico de los mismos se realiza de una manera especial, o cuando eventualmente se descubre una nueva forma de interpretar la presencia de tales entes. También, el concepto mismo de "infinitud", al ser matematizado y precisado en su definición, con George Cantor como pionero en esta labor, ha dejado de parecer caótico y nebuloso y ha adquirido un nuevo talante, más comprensible y más racional.

Estos ejemplos deberían servirnos de advertencia en cuanto a calificar dogmáticamente al universo de "amasijo caótico" de entes y fenómenos y afirmar que la única ordenación de éste es aparente y sólo se produce en nuestra imaginación. Desde el punto de vista eriseísta, nos inclinamos a pensar que existe un diseño fundamental en el universo y, por ende, éste no puede ser anárquico y caótico en su esencia. No obstante, la realidad subyacente y su lógica de base es prácticamente desconocida para nosotros, siendo tarea de la ciencia el descubrir progresivamente indicios fidedignos del orden creativo que se esconde detrás de la apariencia de las cosas. No pocas veces nos equivocamos y atribuimos caos a lo que simplemente no somos capaces de comprender; o atribuimos un orden erróneo a un género de orden que no hemos descubierto todavía, y esto nos produce desagradables paradojas.

El libro "¿Existe un Creador que se interese por nosotros?", publicado en español y otros idiomas en 1998 por la Sociedad Watchtower Bible And Tract, páginas 24 y 25, expone:

« Probablemente sepa por experiencia propia que todas las cosas tienden al desorden. Como todo propietario de una vivienda ha observado, las cosas tienden a deteriorarse o descomponerse cuando se abandonan. Los científicos se refieren a esta tendencia como "la segunda ley de la termodinámica". Podemos ver los efectos de esta ley todos los días. Si se abandona un automóvil o una bicicleta nuevos, inevitablemente se estropean. Desatienda un edificio y acabará en ruinas. ¿Qué puede decirse del universo? También le es aplicable esta ley. El orden del universo debería dar paso con el tiempo al desorden completo.

Sin embargo, no parece que el universo tienda al desorden, como el físico y matemático Roger Penrose descubrió cuando estudió el estado de desorden (o entropía ) del universo observable. Una manera lógica de interpretar estos hallazgos es concluir que el universo empezó en un estado ordenado y todavía lo conserva. El astrofísico Alan Lightman dijo que a los científicos "les parece misterioso el hecho de que el universo fuera creado con este elevado grado de orden". También dijo que "cualquier teoría cosmológica viable debería explicar en última instancia esta contradicción de la entropía", es decir, que el universo no se halle en estado caótico ».

edu.red

La revista Newsweek (9 de noviembre de 1998) reseñó las implicaciones de algunos descubrimientos relativos a la creación del universo. Según señaló, los hechos “indicaban que la materia y el movimiento surgieron de forma muy parecida a como se presentaba en [el libro bíblico del] Génesis, ex nihilo (de la nada), en un extraordinario estallido de luz y energía”. Examinemos las razones que adujo Newsweek para comparar el comienzo del universo con la descripción bíblica de ese acontecimiento. “Las fuerzas desatadas estuvieron —y están— maravillosamente (¿milagrosamente?) equilibradas: Si la Gran Explosión hubiese sido un poco menos violenta, la expansión del universo habría sido menos veloz, de modo que rápidamente (en pocos millones de años, o hasta en pocos minutos) se habría colapsado y habría entrado en recesión; pero si hubiera sido un poco más potente, tal vez se hubiese dispersado hasta formar un caldo tan ralo que no habría podido condensarse para formar las estrellas. Las probabilidades que teníamos en contra eran, haciendo plena justicia al término, astronómicas. En el momento de la Gran Explosión, la relación existente entre la materia y la energía con respecto al volumen del espacio debe de haberse desviado menos de una milbillonésima del 1% del ideal".

Newsweek indicó que existía, por así decirlo, un "Regulador" del cosmos: "Quitemos tan sólo un grado (véase la milbillonésima del 1% mencionada antes como margen de error) […] y lo que sigue no es sólo desbarajuste, sino entropía y hielo por toda la eternidad. Así pues, ¿qué —o quién— fue el gran Regulador?".

edu.red

La revista DESPERTAD del 8-10-2000, páginas 3 y 4, dice, en parte: «La mayoría de las galaxias se concentran en cúmulos que comprenden desde unas cuantas galaxias a miles de éstas. Por ejemplo, han calificado a la vecina Andrómeda de gemela de nuestra Vía Láctea. La gravedad vincula a estas dos inmensas galaxias, que junto con otras pocas galaxias cercanas forman parte de un cúmulo.

El cosmos está compuesto de un sinnúmero de cúmulos galácticos. Algunos de ellos, en mutuo abrazo gravitatorio, forman supercúmulos. Pero, a partir de esa escala, el efecto de la gravedad se anula. Los astrónomos opinan que los supercúmulos se van distanciando unos de otros, es decir, el universo está en expansión. Este asombroso descubrimiento denota que hubo un principio en el que el cosmos era mucho más pequeño y denso. Para referirse a su origen, a menudo se utiliza la frase "la gran explosión".

Algunos científicos dudan mucho que el hombre logre saber algún día cómo nació el universo. Otros especulan sobre las maneras en las que pudo haberse originado sin una fuente inteligente. La revista "Investigación y Ciencia", en su número de marzo de 1999, analizó el tema "Así empezó el universo". Ya hay teorías científicas que se han demostrado carentes de base. La publicación comenta: "Resulta muy difícil […] que los astrónomos sometan a prueba cualquiera de estas hipótesis".

La idea de que el universo es obra del azar requiere fe en lo que los científicos llaman una serie de "accidentes afortunados" o "coincidencias". Por ejemplo, el universo consta de un sinfín de átomos de hidrógeno y de helio, los más simples. La vida, sin embargo, no sólo depende del hidrógeno sino también de una infinidad de otros elementos más complejos, especialmente el carbono y el oxígeno. La comunidad científica se preguntaba de dónde provenían esas valiosas partículas.

¿Es simple coincidencia que los complejos átomos necesarios para el sostén de la vida se formen en el interior de ciertos estrellas gigantescos? ¿y es sólo por azar que algunos de estas estrellas explo­ tan en supernovo y arrojan su tesoro de átomos raros? Sir Fred Hoy le, quien participó en estos descubri­ mientos, dijo: 'No creo que científico alguno que examine las pruebas pueda llegar a otra conclusión que ésta: los leyes de la física nuclear se han formulado a propósito"».

edu.red

 

 

Autor:

Jesús Castro

Partes: 1, 2
 Página anterior Volver al principio del trabajoPágina siguiente