- El dueño de la eternidad
- Dios y realidad
- Campos cuánticos y realidad
- Paradojas cuánticas
- Misticismo cuántico
- Perturbaciones sobre un medio
- Fenómenos emergentes
- Metafenómenos
- El metafenómeno "tiempo"
- Conclusión
La palabra española REY proviene del vocablo latino REX-REGIS, y éste de la raíz indoeuropea REG, la cual significa "conducir, dirigir, gobernar, llevar o regir". Al parecer, REY posee el mismo significado que la palabra MONARCA (del latín "monarcha"), la cual se refería a un solo gobernante absoluto, al menos nominalmente hablando. En este mismo sentido, la palabra hebrea para REY, que es MÉLEKJ, da la impresión de querer significar "gobernante absoluto"; numerosas tradiciones antiguas aplican este último término al infame Nemrod, personaje dictador y tiránico que se menciona en la Biblia en conexión con la famosa y malograda Torre de Babel.
La palabra española ETERNIDAD proviene del latín AETERNUS o AEVITERNUS, cuyo significado es "para todo tiempo, o sin principio ni final". A su vez, AEVITERNUS proviene del indoeuropeo AIW, de donde también procede el vocablo griego EÓN, de significados parecidos. En hebreo, el término usado para expresar un concepto similar es OLAM, el cual denota un período de duración larga e indefinida, dependiendo de las circunstancias o condiciones que describe. Por consiguiente, el significado de OLAM depende de la naturaleza del objeto al que se aplica, de tal manera que el lapso así designado puede no tener principio ni fin, o un principio sin fin, o un principio y un fin; "perpetuo" podría ser una buena traducción; no obstante, cuando se refiere a Dios significa "eterno" en sentido absoluto, sin comienzo ni fin, porque Dios es Eterno.
La sagrada escritura da a entender que el Creador es eterno en sentido absoluto, sin comienzo ni final: "Al único Dios nuestro Salvador mediante Jesucristo nuestro Señor, sea gloria, majestad, potencia y autoridad por toda la eternidad pasada y ahora y para toda la eternidad. Amén" (Carta de Judas, versículo 25).
Al referirse a Dios Todopoderoso como el "Rey de la eternidad", la sagrada escritura parece querer señalar a la posición elevadísima que ocupa el Creador en cuanto al aspecto de la "realidad" que tiene que ver con el "tiempo". Desde luego, el Sumo Hacedor controla la "realidad"; y hasta pudiéramos decir que es el Creador de dicha "realidad"; por lo tanto, gobierna (actúa como monarca o rey absoluto) sobre la "realidad". Y la "realidad", a su vez, engloba los conceptos de "espacio" y "tiempo".
El Dueño de la eternidad
La designación "Rey de la eternidad" aparece en dos pasajes de la sagrada escritura, evidentemente con relación a Dios, el Creador Todopoderoso. Ambas se encuentran en las santas escrituras griegas cristianas (conocidas también, popular e inexactamente, como "nuevo testamento"). El primer pasaje corresponde la la primera carta del apóstol Pablo a Timoteo, capítulo 1, versículo 17: "Ahora bien, al Rey de la eternidad, incorruptible, invisible, el único Dios, sea honra y gloria para siempre jamás. Amén " (Traducción del Nuevo Mundo de las Santas Escrituras, edición española de 1987). El segundo pasaje corresponde al libro sagrado del Apocalipsis (una revelación al apóstol Juan), capítulo 15, versículos 3 y 4: "Grandes y maravillosas son tus obras, Jehová Dios, el Todopoderoso. Justos y verdaderos son tus caminos, Rey de la eternidad. ¿Quién no te temerá verdaderamente, Jehová, y glorificará tu nombre, porque solo tú eres leal? Porque todas las naciones vendrán y adorarán delante de ti, porque tus justos decretos han sido manifestados".
Si, como hemos mencionado, el tiempo es un aspecto de la realidad y la realidad misma está supeditada al Todopoderoso, entonces el tiempo queda bajo control del Sumo Hacedor. Ahora bien, Dios mismo es una realidad; es decir, es un Ser real, ya que existe. Por lo tanto, si admitimos que Dios forma parte de la realidad, cabe preguntarse: ¿Cómo puede una parte de la realidad estar por encima de toda la realidad? Más concretamente: ¿Cómo es posible que un Ser real esté por encima de sí mismo? Una forma de salir de esta dificultad es afirmando que Dios supera a toda la realidad que es externa a Sí mismo, y no a la realidad que tiene que ver consigo o con Su persona. Pero, ¿podemos confiar en que sea válida esta respuesta? Por contra, si dicha realidad albergara a la persona divina misma, sin distinción entre realidad externa y realidad interna, entonces: ¿Estaría Dios superándose continuamente con respecto a Sí mismo, o no? Seguramente estas preguntas esconden en su interior un gran desacierto conceptual, o una enorme ignorancia cognitiva, lo cual no puede menos que producir paradojas. ¿Por qué? Porque dichas interrogantes han sido formuladas desde la óptica de nuestro sentido común actual, el cual resulta ser una buena guía dentro del infinitesimal reducto cósmico en el que nos desenvolvemos, pero una fatal brújula a la hora de orientarnos en aspectos de la realidad que superan con creces incluso al inmenso universo material creado por Dios. Un ejemplo de cómo el uso del sentido común es inservible en cuestiones que saltan fuera del conjunto de las nociones obtenidas a partir del espacio vital que nos rodea se provee en la monografía G078 (El infinito), página 12, nota:
«El "sentido común" es lo que la gente piensa a nivel general sobre un tema en particular. Es un acuerdo natural de las personas sobre algo. Se entiende como una creencia que la gente considera prudente sobre un tema o situación, sin necesidad de que esa información esté comprobada científicamente o que sea parte de un conocimiento esotérico; lo único que importa en este caso es que la mayoría de las personas lo crean o lo tengan en "común".
Un factor importante relacionado con el sentido común es la experiencia que cada persona ha tenido en el transcurso de su vida. Muchas de esas experiencias resultan en algo positivo para la mayoría de las personas, por lo que, según el conocimiento que se adquiriere en base a esas experiencias, se establecen creencias que a nivel popular son de buen juicio.
De hecho, muchas de las cosas que se creen como correctas, vienen desde generaciones pasadas, de tiempos anteriores en los cuales, por la experiencia de otros, se establecieron como buenas o prudentes y han perdurado hasta hoy.
El "sentido común" es uno de los sentidos más valorados en las sociedades humanas, tal vez porque es el menos común de los sentidos y uno cuya aplicación generalmente produce buenos resultados. El concepto se compone de dos palabras: "sentido", que da la idea de percepción o de capacidad para captar la realidad, y "común", que incluye a un conjunto de personas que tienen la misma visión o dan la misma orientación a las situaciones.
Según esto, es evidente que los "transfinitos de Cantor" violan el sentido común de la gente, porque dicho sentido común se basa en el conocimiento y experiencia tomados de la realidad finita que percibimos como humanos. Sin embargo, la matemática cantoriana nos informa de que el infinito posee ciertas reglas cuya percepción es dificultada por nuestro habitual sentido común».
Dios y realidad
El Rey de la eternidad no es un Dios distante e inasequible en el trato, pues la sagrada escritura nos informa lo siguiente: "Jehová está cerca de todos los que lo invocan, de todos los que lo invocan en apego a la verdad. Ejecutará el deseo de los que le temen, y oirá su clamor por ayuda, y los salvará " (Libro bíblico de los Salmos, capítulo 145, versículos 18 y 19). Un estudio profundo y completo de toda la Biblia nos revela que el Dios Todopoderoso considera muy valiosa a su creación humana, a pesar de su insignificante pequeñez y del estado de desequilibrio ancestral heredado como consecuencia de la rebelión edénica, por lo cual ha dispuesto una vía paternalista y protectora para aproximarse a los humanos que muestran reverencia sincera hacia Él y poseen un corazón inclinado a la verdad.
Por otra parte, la excelencia del Creador es de una magnitud tan elevada que sólo Él puede entenderla. A este respecto, la santa escritura se expresa así: "Jehová es grande y ha de ser alabado en gran manera, y su grandeza es inescrutable" (Libro bíblico de los Salmos, capítulo 145, versículo 3). Sin embargo, la tan infinita distancia entre Dios y nosotros no obsta para que seamos apreciados por Él y para que Él desee recuperar amorosamente para Sí al mayor número posible de humanos que, en su libre albedrío, deciden aceptarlo como Padre celestial.
La sagrada escritura nos presenta al Altísimo como un Dios de personalidad estable y predecible, con cualidades fácilmente entendibles por los humanos. Y entre dichas cualidades figuran el amor, la gran paciencia, la benignidad, la bondad, la apacibilidad, el autocontrol o autodominio, el apego inquebrantable a la justicia, la sabiduría en grado superlativo, el poder supremo y el gozo de vivir.
Ahora bien, al margen de esas hermosas cualidades divinas, se puede comprender que el entendimiento de la estructura corporal de Dios, de Sus capacidades mentales o de los recursos cósmicos que tiene a Su disposición para manipular la realidad quede, absolutamente, fuera de nuestro alcance. Así que las interrogantes que podamos formularnos acerca de estas cosas, por adolecer necesariamente de la imprecisión conceptual que siempre nos acompañará, están condenadas a ser desechadas y sustituidas por otras mejor elaboradas, en una sucesión sin final. Ello se debe a la detección de equívocos (ambigüedades, confusiones e imprecisiones en los conceptos empleados en la construcción de los enunciados de las preguntas). A este género de interrogantes pertenece, también, la que lee: "¿Cómo es que Dios no ha tenido comienzo o principio en Su existencia?".
Campos cuánticos y realidad
El estudio de la realidad desde el punto de vista físico-matemático llevó a la aparición de la noción de "campo gravitatorio", una especie de entelequia a modo de tinglado cósmico, extraño e invisible, que tiene la propiedad de permear todo el universo como si fuera un éter (atmósfera o clima), algo omnipresente, que posibilita la atracción gravitatoria entre cuerpos materiales separados entre sí por distancias más o menos grandes. El concepto nace en la física clásica de forma indirecta, tras la explicación de la fuerza de la gravedad dada por Isaac Newton (1643-1727) a finales del siglo XVII y tras su famoso e inevitable postulado de la "acción a distancia" entre los objetos que pueblan el cosmos.
Antes de Newton, la idea de un campo de fuerzas era totalmente inconcebible para los estudiosos de los fenómenos naturales. Incluso el concepto mismo ni siquiera aparece explícitamente en la obra cumbre de este célebre científico británico, a saber, en los "Principia Mathematica". No obstante, al introducir la noción de "fuerzas de atracción gravitatorias que actúan a distancia" (acción a distancia), sin la intervención de cuerpo físico alguno que sirva de intermediario en la transmisión de dichas fuerzas, Newton fue objeto de críticas. Ante esto, en un apéndice a la tercera edición de sus "Principia" incluyó su conocida "hypothesis non fingo" (en latín: "no propongo ninguna hipótesis"). Ahora bien, la intuición de Newton era que el universo está lleno de un campo, algo parecido al "éter"; y así lo explicó en unas cartas a unos colegas. Él creía en la existencia de un campo que podía explicar la acción a distancia de la gravedad, pero como no encontró ningún indicio experimental de su existencia, se limitó a sostener su "hypothesis non fingo".
En el siglo XIX, la noción de "campo" reapareció para comprender tanto la gravedad como el electromagnetismo, a instancias de Michael Faraday (1791-1867). Y para evitar el concepto embarazoso de "acción a distancia", Faraday propuso que el espacio estaba constituido por "líneas de fuerza" emanadas de los propios campos; pero no había que pensar que los campos se encuentran en el espacio de igual manera a como una partícula lo está, sino que los campos han de ser concebidos como algo intrínseco al mismo espacio, o como propiedades del espacio físico en un cierto sentido.
James Clerk Maxwell (1831-1879), más newtoniano y más matemático que Faraday, invocó el concepto de "éter mecánico" en el lugar del "campo", a saber, un medio contenido en el espacio que obedecía las leyes de Newton. Para Maxwell, las líneas de fuerza de Faraday correspondían a un estado oscilatorio u ondulatorio del "éter", interpretado éste como un medio acertadamente material. Pero la búsqueda infructuosa de indicios experimentales de la existencia de dicho "éter" llevó finalmente a reivindicar la idea de Faraday del "campo electromagnético" como un mero estado del espacio y no del éter.
Albert Einstein (1879-1955) llevó las ideas de Faraday a un extremo con su teoría especial de la relatividad, en 1905, y sobre todo con su teoría general de la relatividad, en 1915. El "campo gravitatorio" es redefinido entonces como un espacio-tiempo curvado; y el "espacio-tiempo curvado" es, a su vez, un campo gravitatorio. El "éter" es declarado no existente como un medio material en el espacio, y descatalogado ya para sustentar los "campos electromagnéticos", los cuales son afirmados como una propiedad del mismo espacio-tiempo e inseparables de él.
Al mismo tiempo que Einstein proponía su teoría especial de la relatividad, daba pábulo a la versión más primitiva de la "mecánica cuántica", al apadrinar las propuestas de Planck en este sentido a causa de tener que retomar la idea de partícula para describir a unos entes que él llamó "fotones" y a la vez admitir para ellos la denominada "dualidad onda-corpúsculo".
La mecánica cuántica es, cronológicamente, la última de las grandes ramas de la física contemporánea. Comienza a principios del siglo XX, en el momento en que dos de las teorías que intentaban explicar ciertos fenómenos, la ley de gravitación universal y la teoría electromagnética clásica, se volvían insuficientes para esclarecerlos. La teoría electromagnética, por su parte, generaba un problema cuando intentaba explicar la emisión de radiación de cualquier objeto en equilibrio, llamada "radiación térmica", que es la que proviene de la vibración microscópica de las partículas que lo componen. Usando las ecuaciones de la electrodinámica clásica, la energía que emitía esta radiación térmica tendía al infinito si se sumaban todas las frecuencias que emitía el objeto, con ilógico e impresentable resultado para los físicos.
Fue en el seno de la "mecánica estadística" donde surgieron las primeras ideas cuánticas, en 1900.
Al físico alemán Max Planck se le ocurrió un artificio matemático especulativo, a incorporar en el cálculo sumatorio de las frecuencias emitidas por el cuerpo radiante, que en electrodinámica clásica producía el indeseable infinito como resultado. Él sustituyó la integral de esas frecuencias por una suma no continua y consiguió evitar el infinito, con lo que eliminó el problema teórico; pero,además, el resultado que obtuvo concordaba con lo que después era medido. De esta estrambótica manera, un simple juego intuitivo condujo a una salida teórica que vino a estar refrendada experimentalmente. Entonces, Planck enunció la hipótesis de que la radiación electromagnética es absorbida y emitida por la materia en forma de "cuantos" (unidades energéticas discontinuas o discretas) de luz o fotones, de energía E=h·v, donde v representa la frecuencia de la radiación y h es la denominada "constante de Planck". La primera formulación cuántica de un fenómeno fue dada a conocer por el mismo Planck el 14 de diciembre de 1900, en una sesión de la Sociedad Física de la Academia de Ciencias de Berlín.
La idea de Planck habría quedado como simple hipótesis, por muchos años, si Albert Einstein no la hubiera retomado al proponer que la luz, en ciertas circunstancias, se comporta como haz de partículas independientes: los cuantos de luz o fotones. Por otra parte, Einstein completó en 1905 las correspondientes leyes de movimiento en su teoría especial de la relatividad, demostrando que el electromagnetismo era una teoría esencialmente no mecánica. Y con ello culminaba lo que se ha dado en llamar "física clásica", es decir, la física no-cuántica.
La propuesta de Einstein de que la luz se comporta a veces como haz de partículas o cuantos luminosos materiales (fotones) estaba motivada por la hasta entonces problemática elucidación del llamado "efecto fotoeléctrico", cuya explicación no era factible desde el modelo teórico de la física clásica. Einstein, entonces, consiguió explicar el fenómeno recurriendo a la hipótesis de la cuantización de la energía de Max Planck.
Se entiende por "efecto fotoeléctrico" al fenómeno por el cual la luz incidente sobre ciertas superficies metálicas ocasiona que desde ellas se emitan electrones. Los electrones emitidos reciben el nombre de "fotoelectrones". En la figura siguiente se muestra el diagrama de un aparato en el cual puede ocurrir el fenómeno fotoeléctrico. Un tubo de vidrio o cuarzo donde se ha hecho vacío contiene una placa metálica (E), conectada al terminal negativo de una batería. Cuando el tubo se mantiene en un ambiente de oscuridad, el amperímetro (A) registra cero, lo que indica que no hay corriente en el circuito.
Por el contrario, cuando una luz monocromática de longitud de onda apropiada ilumina la placa E, el amperímetro detecta una corriente, lo que es indicativo de la existencia de un flujo de cargas a través del vacío, entre la placa E y la placa C (colector). Conclusión: la corriente asociada a este proceso surge de los electrones (e-) emitidos desde la placa negativa E (emisor) hacia la placa positiva C, los cuales viajan a través del espacio vacío situado entre las placas.
En principio, sin detenerse mucho en el asunto, el fenómeno admite una explicación somera o superficial en el seno de la física clásica. Pues lo único que ocurre, al iluminarse el metal, es que los electrones absorben la energía luminosa y, como consecuencia de ello, pueden saltar hacia afuera de la placa y ocasionar el hecho de que el metal emita electrones (efecto fotoeléctrico). Sin embargo, hay una serie de cuestiones experimentales, más minuciosas, que no se pueden explicar desde el punto de vista del paradigma clásico. Son éstas:
1). Según la teoría electromagnética clásica, la energía cinética máxima de los electrones debería aumentar al aumentar asimismo la intensidad de la luz; pero esto no ocurre así. Se observa que la energía cinética máxima de los electrones emitidos depende de la frecuencia de la radiación luminosa recibida y no de la intensidad de la misma.
2). Para cualquier frecuencia de la radiación luminosa incidente se deberían emitir electrones por la placa, con tal que dicha radiación sea lo suficientemente grande en intensidad, de acuerdo con la física clásica. Pero sucede que por debajo de cierta frecuencia la placa no emite electrones, sea cual sea la intensidad de la radiación luminosa incidente.
3). Cuando la luz que llega a la placa es suficientemente débil en intensidad y como ésta se distribuye uniformemente en el haz luminoso, debería producirse un retraso entre la recepción de la luz por la placa y la emisión electrónica por la misma, de modo que, de acuerdo a los esquemas clásicos, el electrón consiga energía suficiente para salir del metal. Sin embargo, experimentalmente, se observa que la emisión de electrones es instantánea, aunque la intensidad de la radiación luminosa sea muy pequeña.
Basta, pues, con que la frecuencia de la radiación luminosa sea suficiente para que los electrones salten de la placa y lo hagan al mismo momento de llegada de la radiación, aunque la susodicha radiación sea demuy baja intensidad.
En 1905, Einstein se percató de que había que trascender la teoría clásica para tratar de explicar estos hechos. Recurrió, como ya se ha comentado anteriormente, a la hipótesis de Planck de la cuantización de la energía radiante electromagnética. Hizo hincapié en que la energía de una onda electromagnética, de frecuencia ?, sólo puede tomar valores que sean múltiplos enteros (mejor: múltiplos naturales o enteros positivos) de h ?. Además, afirmó que la energía no sólo está cuantizada sino que se encuentra concentrada en paquetes energéticos (o cuantos) denominados "fotones". La energía de un fotón es h ?, y todo fotón se comporta como una partícula indivisible. Con estas nuevas premisas, interpretó el efecto fotoeléctrico a la luz de una recién nacida física y aquello le valió el premio Nobel en 1921.
Esta explicación del efecto fotoeléctrico favorecía la interpretación de que los campos electromagnéticos estaban formados por partículas, por fotones, y, en definitiva, conducía a un universo hecho de partículas y no de campos. Pero esta idea desagradaba a Einstein y a muchos otros físicos, porque llevaba de forma natural a ciertas paradojas, como la forzada interpretación del experimento de Young (o de la "doble rendija") con partículas y no con ondas.
El experimento de Young fue realizado en 1801 por Thomas Young, en un intento de discernir sobre la naturaleza corpuscular u ondulatoria de la luz. Young hizo pasar un fino haz de luz, procedente de una fuente lejana, a través de dos rendijas y obtuvo como resultado un patrón de interferencias en la pantalla, típico de los fenómenos ondulatorios. Dicho resultado contribuyó a que se consolidara la teoría de la naturaleza ondulatoria de la luz.
Antes de proseguir, conviene entender qué es un campo desde el punto de vista físico-matemático. Un campo es una función que asigna una magnitud a cada punto del espacio tridimensional. Por ejemplo, el campo eléctrico asociado a una carga asigna un vector a cada punto del espacio que rodea a dicha carga. Los campos pueden ser de diferentes tipos: escalares, vectoriales, espinoriales, etc. Un campo escalar, como su nombre indica, asigna una magnitud escalar a cada punto del espacio; un campo vectorial asigna un vector a cada punto del espacio; y un campo espinorial asigna un espinor a cada punto del espacio. Los campos escalares se asocian a partículas escalares, como, por ejemplo, el famoso bosón de Higgs; los campos vectoriales se asocian a partículas vectoriales, como, por ejemplo, el fotón; y los campos espinoriales se asocian a partículas con movimiento de espín, como, por ejemplo, el electrón.
La física intenta desvelar la unidad o unificación profunda que subyace ante la aparente cantidad infinita de fenómenos que se observan en la naturaleza, y para ello ha usado pródigamente las matemáticas y su lenguaje cuantitativo; a partir de ellas, ha obtenido herramientas teóricas de formidable utilidad, como las nociones de campo, vector, tensor, etc. Los resultados han sido importantes. Newton unió la "mecánica terrestre" con la "mecánica celeste", en el siglo XVII. Dos siglos más tarde, James Clerk Maxwell unificó la "óptica" con la "electricidad" y el "magnetismo". Entre 1905 y 1916, Einstein unificó la "geometría del espacio-tiempo" y la "teoría de la gravitación". Un decenio después, establecida la mecánica cuántica, se unieron la "química" y la "física atómica".
Einstein dedicó los últimos treinta años de su vida a la búsqueda infructuosa de una "teoría de campos unificada", que uniría la "relatividad general" (su propia teoría del espacio-tiempo y la gravitación) con la "teoría del electromagnetismo" de Maxwell. En tiempo más reciente, se han realizado nuevos progresos de unificación, aunque en dirección distinta. Nuestra teoría actual de las fuerzas y partículas elementales, el llamado "modelo estándar", ha unificado el "electromagnetismo" y las "interacciones débiles" (las fuerzas responsables de la "transformación mutua de neutrones y protones" en los procesos radiactivos y en el interior de las estrellas). El "modelo estándar" ofrece también una descripción parecida, aunque independiente, de las "interacciones fuertes", que mantienen unidos los quarks dentro de los protones y neutrones y que, en el interior de los núcleos atómicos, da cuenta de la fusión entre protones y neutrones.
Algunas ideas se han ido asentando sobre cómo unificar la "teoría de las interacciones fuertes" con la "teoría de las interacciones débiles y electromagnéticas" (teoría electrodébil), logro en perspectiva que se suele denominar a menudo "la gran unificación". Pero se prevé que sólo hallarán pleno encaje cuando incluyan también a la "gravedad", problema nada fácil. Además, se conjetura que las diferencias manifestadas por estas fuerzas debieron surgir al inicio de la "gran explosión", pero no podemos comprender los instantes iniciales de la historia cósmica sin una mejor teoría de la gravitación y de las demás fuerzas.
El "modelo estándar" es una "teoría cuántica de campos". Sus componentes básicos o fundamentales son "campos" (como el eléctrico y el magnético, tomados de la electrodinámica del siglo XIX) y no "partículas". La energía y el momento (cantidad de movimiento) se transmiten en su seno mediante pequeñas ondas que, según la mecánica cuántica, aparecen en forma de paquetes, o cuantos, y se identifican en el laboratorio como "partículas elementales". Así, el cuanto del campo electromagnético es una aparente partícula llamada "fotón". En consecuencia, el "modelo estándar" asocia un "campo" a cada tipo de "partícula elemental".
Desde el "modelo estándar", existen "campos de leptones", cuyos cuantos son los "electrones", que forman las capas externas de los átomos, los "muones" y "tauones" (partículas similares a los electrones, si bien más pesadas) y unas partículas eléctricamente neutras emparentadas con las anteriores y que se denominan "neutrinos". Hay campos para las distintas clases de quarks, algunos de las cuales se agrupan formando protones y neutrones, que conforman los núcleos atómicos. Las "fuerzas" ejercidas entre las "partículas" (vistas éstas como perturbaciones energéticas infinitesimales provocadas en los "campos") se producen mediante el "intercambio de fotones" en las "interacciones electromagnéticas", o mediante otras "partículas elementales" similares, como las W(+), W(–) y Z(0), transmisoras de la "interacción débil". Las "interacciones fuertes" se realizan por mediación de ocho especies de "gluones".
Todas estas "partículas" exhiben masas muy dispares, distribuidas sin ningún patrón reconocible. El "electrón" es 350.000 veces más ligero que el "quark" más pesado; y los "neutrinos" son más ligeros todavía. El modelo "estándar" carece de recursos propios para explicar las masas de dichas "partículas", salvo que incorpore campos adicionales de tipo "escalar". La palabra "escalar" significa que estos "campos escalares", a diferencia de los "campos vectoriales" eléctricos, magnéticos y de otros tipos del modelo estándar, no muestran ninguna dirección espacial. Ello, entonces, obliga a postular que los "campos escalares" se extienden por todo el espacio, sin contradecir uno de los principios mejor establecidos de la física, a saber, que el espacio tiene el mismo aspecto en todas direcciones.
La interacción entre los "campos" del modelo estándar, en cuyos senos surgen las correspondientes "partículas elementales", y los "campos escalares" extendidos por todo el espacio daría, así se cree, a las "partículas" del modelo estándar las masas que presentan. Esto es lo que ha ocurrido recientemente al descubrirse el "campo escalar de Higgs", con el consiguiente descubrimiento de la "partícula" asociada al mismo, el "bosón de Higgs".
La relación entre "partículas" y "campos cuánticos" ha sido explorada por los investigadores, y no hace mucho el doctor Art Hobson, de la Universidad de Arkansas, ha escrito un artículo titulado "No hay partículas, sólo hay campos", que posteriormente ha comentado el físico Francis Villatoro, abundando en la misma idea. Por lo tanto, las "partículas" tienden a ser vistas como fenómenos derivados de los "campos", es decir, fenómenos accesorios que acompañan al fenómeno principal y que no tienen influencia sobre el mismo.
Ya lo dijo Richard Feynman en su conferencia Nobel en 1965: "sólo existe un único electrón en el universo, que se propaga por el espacio y el tiempo de tal forma que parece que está en muchos sitios simultáneamente". Según se dice, fue John Wheeler quien le sugirió esta idea a Feynman en una conversación por teléfono en la primavera de 1940. ¿Qué quería decir Feynman con esa frase que da la impresión de no tener sentido? Lo que intentan decir Wheeler y Feynman con la frase de que "sólo existe un único electrón en el universo" es que el electrón no existe como "partícula fundamental", sino como el "campo del electrón" y que hay un único "campo electrónico" en todo el universo. Por lo tanto, todos los electrones que observamos en el universo no son más que excitaciones localizadas de dicho campo. Por ello, todos los electrones son exactamente idénticos e indistinguibles entre sí.
Ser consciente de que el universo está hecho de "campos" y no de "partículas" es muy importante para entender los problemas y "paradojas" asociados a la interpretación de la mecánica cuántica no relativista, sobre todo en lo que concierne a la "dualidad onda-partícula", el "problema de la medida", el "colapso de la función de onda", la "no localidad" y muchas otras paradojas (en apariencia).
El "misticismo cuántico" y las "pseudociencias cuánticas" tienen su origen en estas supuestas "paradojas", ya que si los científicos afirman que no entienden la mecánica cuántica, entonces los "pseudocientíficos", que tampoco la entienden, se sienten en la potestad de abusar de ella a su libre albedrío. Este estado nebuloso de la cuestión ha sido mantenido por muchos libros de texto, que enseñan la mecánica cuántica sin aclarar que se trata de "una aproximación a la realidad", en el límite de las "bajas velocidades", es decir, de la "baja energía" y del "bajo momento": una aproximación a la mecánica cuántica no relativista, esto es, una aproximación a una teoría cuántica de campos.
En "física de altas energías", la mayoría de los físicos teóricos, si no todos, creen que la entidad fundamental es el "campo cuántico" y que las "partículas elementales" (electrones, fotones, quarks, etc.) son meras "excitaciones" (ondas) localizadas en dichos campos. Así, cuando a "baja energía" se habla de "partículas" a secas, aparecen "paradojas" (como la de que una partícula puede estar en dos lugares al mismo tiempo), que se resuelven fácilmente cuando uno se da cuenta de que son "excitaciones de un campo". El ejemplo paradigmático es el "experimento de la doble rendija", el cual nos lleva a dificultades tales como: ¿por qué rendija pasa la partícula? ¿O pasará la partícula al mismo tiempo por ambas rendijas? La famosa frase de Richard Feynman "Si usted piensa que entiende la mecánica cuántica, entonces usted no entiende la mecánica cuántica" abogaba por sustituir el concepto de "partícula" por el concepto de "campo", uno de los avances más importantes de la física moderna.
Todos los experimentos de principios del siglo XX que llevaron a la idea de la dualidad "onda-corpúsculo" tienen una interpretación natural en el marco de los "campos cuánticos", aunque muchos libros de texto obvian esta interpretación por considerarla conceptualmente demasiado avanzada para los estudiantes de un primer curso de física cuántica. Como comenta Art Hobson: si uno lo piensa detenidamente, estas ideas sobre los "campos cuánticos" lo único que hacen es complicarle la vida al estudiante y enfrascarlo en discusiones metafísicas y filosóficas acerca de la interpretación más conveniente de la mecánica cuántica. No obstante, el "concepto de campo" es la liberación teórica que todo estudiante de física necesita, aunque para calcular fenómenos a baja energía no utilice este concepto de forma explícita.
La idea de que sólo existen los campos y de que las partículas son propiedades emergentes o colaterales de los mismos (epifenómenos), que físicos como Wheeler y Feynman tenían muy claro ya desde principios de los años 1940, era considerada herética, o al menos desquiciadamente especulativa, por la mayoría de los físicos de la época. La opinión académica general era que no existía ningún campo detrás de la función de onda descrita por la ecuación de Schrödinger, o por la ecuación de Dirac. Se pensaba, de manera categórica, que dichas ecuaciones no eran más que meras construcciones matemáticas, sin ningún asomo de realidad. Sólo las partículas eran reales.
Sin embargo, a principios de los años 1970, la "teoría cuántica de campos" renació con fuerza, para no abandonar nunca más su protagonismo en la física. Desde entonces, la mayoría de los teóricos aceptó que la descripción más cercana a la realidad que hoy está disponible corresponde a la "teoría cuántica de campos", siendo la "mecánica cuántica no relativista" una aproximación efectiva que utiliza la "función de onda", solución de la ecuación de Schrödinger, "que no es un campo cuántico" y por tanto no tiene realidad en sí misma. La "función de onda" no es más que un concepto "efectivo", una simple herramienta matemática para calcular propiedades efectivas de las partículas, siendo tales partículas "excitaciones localizadas de los campos". Por lo tanto, no existe una realidad descrita por funciones de onda que correspondan a partículas que pueden estar localizadas en más de un estado energético o en más de un lugar de forma simultánea. La realidad está en los "campos cuánticos", por lo que el "experimento de doble rendija" se puede interpretar a la luz de los "campos cuánticos". Por ejemplo, un protón es el resultado de la interacción localizada en cierta región del "espacio-tiempo" de "campos de quarks" y "campos de gluones". En las colisiones de protones en el LHC (siglas para "Gran Colisionador de Hadrones", del CERN: la Organización Europea para la Investigación Nuclear; cerca de Ginebra, Suiza) estos "campos", que están acoplados a otros "campos", provocan la excitación localizada de estos otros campos, con lo que ciertos quarks y/o gluones se desexcitan, excitando algunos de esos campos y produciendo nuevas excitaciones, o "partículas" aparentes, que estaban dentro del protón.
Veamos un pequeño ejemplo en el seno de la teoría cuántica de campos de cómo se produce un "bosón de Higgs" (H), por fusión de "gluones" (g), que se finalmente se desintegra en fotones (?). Pero antes que nada, vamos a definir estas "partículas". El bosón de Higgs, o partícula de Higgs, es una micropartícula fundamental propuesta en el modelo estándar de la física de partículas, que recibe su nombre en honor a Peter Higgs, quien, junto con otros, postuló en 1964 el hoy llamado "Mecanismo de Higgs" para explicar el origen de la masa de las partículas elementales. Dentro de la mecánica cuántica de campos, el bosón de Higgs constituye el cuanto energético del campo de Higgs, que constituye la más pequeña excitación posible en dicho campo. De acuerdo al modelo propuesto por Higgs, este bosón carece de espín y carga eléctrica, es muy inestable y se desintegra rápidamente (su vida media es del orden del zeptosegundo, o de 10-21 segundos).
El gluón (g) es un bosón, portador de la interacción nuclear fuerte, que es una de las cuatro fuerzas fundamentales del universo material que nos acoge. Carente de masa y de carga eléctrica, pero de vida media estable, debe su nombre (derivado del vocablo inglés "glue", que significa "pegamento") a las características que posee como adhesivo de los quarks dentro de los nucleones (neutrones y protones). La descripción matemática de la interacción de los gluones entre sí y con los quarks viene dada por la denominada "cromodinámica cuántica". En dicho contexto, los gluones son concebidos como excitaciones en un campo gluónico (campo de Yang-Mills asociado a una "simetría de Gauge").
Un fotón (?) es también un bosón, de vida media estable y de carga eléctrica y masa nulas. Responsable de las manifestaciones cuánticas del fenómeno electromagnético. Partícula portadora de todas las formas de radiación electromagnética, incluyendo los rayos gamma, los rayos X, la luz ultravioleta, la luz visible a los seres humanos, la luz infrarroja, las microondas y las ondas de radio. De acuerdo con el modelo estándar de la física de partículas, los fotones son excitaciones del campo electromagnético y además son el resultado de que las leyes físicas tengan cierta simetría en todos los puntos del espaciotiempo.
En la figura que sigue, vemos un esquema de cómo se produce un "bosón de Higgs" (H), por fusión de "gluones" (g), que finalmente se desintegra en fotones (?):
En el año 2012 se hicieron colisionar partículas subatómicas de muy alta energía en el LHC, obteniéndose el esquema teórico de la figura anterior: El dibujo representa la colisión de 2 protones (P) a enorme velocidad (acelerados a muy alta energía en el LHC). Un protón aislado viene a ser un núcleo de hidrógeno (átomo de hidrógeno desprovisto del electrón). Y Como un protón está constituido por la unión de 3 quarks mediante gluones (g), resulta claro que la colisión de protones implica la colisión de gluones. En el esquema gráfico, en verde, se representa la colisión de 2 gluones, a muy alta energía (a causa de la aceleración de los protones en el LHC).
La interacción colisionadora mutua entre ambos gluones puede excitar el campo del quark "top" (t), que no está excitado dentro del protón; es decir, no hay quarks top dentro de un protón sino sólo el campo de dicho quark. Ello produce un triángulo de 3 "tops" (2 quarks top y un quark anti-top), que se puede desexcitar al traspasar la excitación energética al campo de Higgs (hasta ahora vacío de excitación), produciendo un bosón de Higgs (H), el cual no estaba dentro del protón antes de eso (como consecuencia de no estar excitado el campo del mismo nombre).
A su vez, el bosón de Higgs puede desexcitarse, excitando el campo del bosón W (que tampoco estaba dentro del protón como "partícula", aunque sí como campo), produciendo un triángulo de 3 bosones W, que a su vez se desexcita por medio de excitar al campo electromagnético protónico produciendo un par de fotones (?), que no estaban en los protones aunque sí su campo. Por tanto, la colisión de 2 protones (o mejor de 2 gluones) da como resultado la formación de 2 fotones que se observan como un "pico", asociado a la producción intermedia de un bosón de Higgs con cierta masa.
Habitualmente, no se usa este lenguaje porque es muy engorroso; y se describe todo usando el concepto de "partículas", en un diagrama de Feynman:
2P ? 2g ? 3t ? H ? 3W ? 2?
Página siguiente |