Descargar

El Rey de la eternidad (página 2)

Enviado por Jesús Castro


Partes: 1, 2, 3, 4

Paradojas cuánticas

En una región del espacio tan pequeña como la ocupada por un protón, o tan extensa como la ocupada por una galaxia, cohabitan campos cuánticos. Da la impresión de que todos ellos se interpenetran, de manera que cada cual permea a los otros. Esto constituye una asombrosa visión surrealista, o superrealista, de la realidad. Pero es en esta visión en donde la física contemporánea puede moverse con más soltura que nunca, logrando explicar insuperables paradojas de antaño. Sin embargo, también es cierto que el horizonte de esta nueva física se complica exponencialmente, ya que por cada respuesta aparecen multitud de preguntas advenedizas.

Parece que, para salir al paso del problema de la pluralidad de campos supuestamente ubicados en un mismo espacio cósmico, desde hace algún tiempo se han producido intentonas de unificación de todos los campos cuánticos en uno solo.

edu.red

Einstein trabajó los últimos años de su vida en esta tarea, sin conseguir resultados. Pretendía lograr la unificación del electromagnetismo (campo electromagnético) con la gravedad (campo gravitatorio), pues en sus días se desconocía la existencia de las fuerzas débil y fuerte y sus dos campos asociados.

Actualmente, avances en otros campos de la física o de otras ciencias han interactuado más o menos eficazmente con la teoría cuántica de campos para el adelanto dela misma. Por ejemplo, el experimento de la "doble rendija" ha sido realizado con fotones, electrones, neutrones e incluso fullerenos. Con partículas fundamentales, como los fotones y los electrones, la explicación del experimento utilizando campos cuánticos parece muy clara, pues sigue punto por punto la descripción mediante ondas. Pero ¿cómo se pueden interpretar estos fenómenos en el caso una macromolécula, como un fullereno, tomada en conjunto y utilizando la teoría de los campos cuánticos? El "fullereno", muy estudiado en química, es la tercera forma molecular más estable del carbono, tras el grafito y el diamante. La primera vez que se encontró un fullereno fue en 1985. Su naturaleza y forma se han hecho ampliamente conocidas en la ciencia y en la cultura en general, por sus características físicas, químicas, matemáticas y estéticas. Se destaca tanto por su versatilidad para la síntesis de nuevos compuestos como por la armonía de la configuración de las moléculas, con hexágonos y pentágonos. Se presenta en forma de esferas, elipsoides o cilindros. Los fullerenos esféricos reciben a menudo el nombre de "buckyesferas" (como el de la figura adjunta, con 60 átomos de carbono), y los cilíndricos reciben el nombre de "buckytubos" o "nanotubos".

Hasta fechas recientes no hemos empezado a entender cómo un protón está formado por quarks y gluones, y que la interpretación correcta de una "molécula" no es otra que un conjunto de excitaciones de campos en interacción mutua. Un fullereno es verdaderamente una gigantesca constelación de campos cuánticos excitados, como si se tratara de una monumental sinfonía de innumerables ondas de energía (en forma de pulsos) que se desplazan sobre un medio o sustrato completamente desconocido, el cual se ha logrado atisbar con extrema precariedad mediante la acertada introducción del concepto de "campo cuántico".

La "física de partículas" de hoy se denomina "teoría cuántica de campos", porque los físicos piensan que las "partículas" no son los objetos fundamentales de nuestro universo, sino únicamente fenómenos derivados de la actividad energética acaecida sobre los "campos" y malinterpretados al asignárseles una solidez o corporeidad que realmente no tienen. Los campos cuánticos son los objetos fundamentales, de los que derivan las partículas o pulsos perturbatorios de un medio universal.

Una "partícula" es una fluctuación localizada de un campo cuántico, pero hay fluctuaciones localizadas de campos cuánticos que no son "partículas"; no, al menos en nuestro universo. Incluso el "vacío" corresponde a fluctuaciones del campo. El "principio de incertidumbre" de la mecánica cuántica afirma que en regiones muy pequeñas del espacio todos los campos se encuentran fluctuando de forma continua y anárquica. El vacío no está vacío, pues el espacio vacío está ocupado por campos. El vacío del campo electromagnético es el estado del campo en el que no tenemos constancia de que exista ninguna partícula (las "partículas" del campo electromagnético se llaman "fotones", y son las partículas de la luz), pero dicho campo fluctúa de forma constante y los físicos han sido capaces de diseñar experimentos para verificar la existencia de este vacío cuántico del campo (gracias al efecto de Casimir o al efecto de Lamb, sobre los cuales no es conveniente entrar ahora en detalles). Y las fluctuaciones del campo en el estado del "vacío" no paran nunca, son permanentes.

edu.red

Tanto lo que en nuestro mundo se percibe como el "vacío", o lo que se tiene como "partículas", no son más que "fluctuaciones" (agitaciones u oscilaciones) de un "campo cuántico", por lo que cabe la pregunta: ¿cuándo las fluctuaciones de un campo cuántico corresponden a una partícula o a un vacío? Para saber si una fluctuación de un campo, localizada en cierta región del espacio alrededor de un punto, corresponde a una partícula elemental situada en dicho punto, hay que recurrir a la famosa fórmula de Einstein: E=mc2. Dicha fórmula, adaptada a la teoría de campos, hace que los físicos de partículas fundamentales prefieran escribirla así: E2=(mc2)2+(pc)2; donde m representa la masa de las partículas del campo, E es la energía contenida en la fluctuación, p es el momento lineal (o cantidad de movimiento) de la partícula (que, en física clásica o newtoniana, corresponde a la masa por la velocidad: p=mv) y c es la velocidad constante de la luz. La masa m hay que concebirla, en la nueva física, como una propiedad que tiene el campo. Por lo tanto, si se cumple esta ecuación, diremos que la "fluctuación del campo" es una "partícula", que se mueve con una velocidad p/m y posee una energía E. Los físicos afirman que esta fluctuación cuántica del campo, que satisface la ecuación (clásica) relativista de Einstein E=mc2, es una partícula "on-shell" (dentro del cascarón).

Por supuesto, hay fluctuaciones del campo cuántico que no cumplen la ecuación E=mc2 y, consecuentemente, no pueden ser llamadas "partículas on-shell". A dichas fluctuaciones se las denomina entonces partículas "off-shell" (fuera del cascarón), aunque es más habitual llamarlas "partículas virtuales". Se da la denominación de "partículas" a las "partículas virtuales" porque, aunque no son "partículas" en el sentido clásico del término, su interacción con las "partículas clásicas" (campos cuánticos excitados) puede transformarlas en "partículas" clásicas (esto es, pueden pasar de ser "fluctuaciones off-shell" a "fluctuaciones on-shell").

El término "virtual", aquí empleado, se refiere a que las "fluctuaciones off-shell" no son observables de forma directa: se puede detectar una "partícula" (fluctuación on-shell), pero no una "partícula virtual" (fluctuación off-shell). Muchos físicos teóricos se inclinan a interpretar las "fluctuaciones del vacío" como fluctuaciones de partículas "off-shell o virtuales". Aún no se han descubierto "fluctuaciones de los campos" que no sean "partículas" (on-shell), "partículas virtuales" (off-shell) o "vacío" (fluctuaciones o partículas de otra índole, para otros teóricos). Pero hay bastantes físicos que piensan que la existencia teórica de "fluctuaciones de los campos" que no son partículas on-shell ni of-shell (como los "instantotes", "monopolos" y otras "soluciones no lineales", que han sido observados en "física del estado sólido", aunque no a nivel fundamental) quizás algún día se descubran, y todo ello, en conjunto, apoya la idea de que los campos son más fundamentales que las partículas.

En definitiva, los datos experimentales se pueden explicar en términos de campos cuánticos y sus excitaciones, pero no se pueden explicar en términos de partículas. Por lo tanto, las entidades físicas fundamentales son los "campos cuánticos" y no las "partículas". Los "campos cuánticos" se pueden considerar como una propiedad del mismo "espacio", que constituye una entidad compacta que se extiende por todo el Universo. Las "excitaciones de dichos campos" son lo que entendemos como "partículas", y son estas "excitaciones" las que "vemos" desplazarse por el espacio a una velocidad máxima de "c".

La nueva física, la no clásica, comenzó con la teoría de la relatividad y la primitiva mecánica cuántica. Pronto se vio que la relatividad y la mecánica cuántica eran sendas teorías incompatibles a los ojos de los teóricos, pues la primera era aplicable sólo al macrocosmos y la segunda sólo al microcosmos. Así, pues, la "mecánica cuántica" primitiva era una teoría no relativista: bien llamada "mecánica cuántica no relativista". Sin embargo, a lo largo del siglo XX se hicieron enormes esfuerzos por aunar ambas teorías, sin grandes progresos al principio. Pero hacia el final de ese siglo se produjeron resultados prometedores, que desembocaron en una "mecánica cuántica relativista", la cual obtuvo un terreno teórico tomado de la intersección de conceptos pertenecientes a ambas teorías, es decir, la fusión de elementos relativistas y elementos cuánticos. La actual mecánica cuántica es una "mecánica cuántica relativista", de cuyo seno está brotando una "teoría cuántica de campos" (o "teoría de campos cuánticos") que da la impresión de querer convertirse en el paradigma dominante de la física teórica del futuro inmediato.

El experimento de la "doble rendija", desde la óptica de la mecánica cuántica primitiva o no relativista, conduce a una paradoja: la dualidad onda-corpúsculo. Ésta ha resultado ser una paradoja persistente en dicha teoría, pero deja de serlo en la teoría cuántica de campos. Hagamos un poco de historia sobre este fenómeno.

Una de las incógnitas más antiguas en la historia de la ciencia está relacionada con la luz: ¿qué es exactamente? ¿Cuál es su naturaleza?

edu.red

A primera vista puede parecer que la luz viaja en línea recta y se podría interpretar su comportamiento como el propio de un haz de partículas, que se desplazan radialmente a partir de un foco lumínico (tal como los radios de la rueda de una bicicleta), por lo que proponer que sea una onda, como las olas del mar, no encajaría en absoluto con la apariencia del fenómeno. Esto se debe a que el comportamiento de las ondas es muy diferente al de las partículas. Las ondas presentan unos picos y unos valles. Si quisiéramos sumar dos ondas y sus picos coincidieran entre sí, tendríamos una onda con picos más altos y valles más bajos; pero si las sumásemos de forma que el pico de una coincidiese con el valle de la otra, entonces se anularían. Es decir, dos ondas pueden interaccionar y desaparecer, algo impensable para las partículas (o bien hay una partícula, o hay dos, pero en ningún momento una partícula que choque con otra hará que las dos desaparezcan); y a este fenómeno ondulatorio se le conoce con el nombre de "interferencia".

Newton, con la autoridad que le proporcionó el éxito de su ley de la Gravitación Universal, se atrevió a afirmar de forma tajante que la luz es corpuscular (partículas de luz). Se opuso violentamente a la naturaleza ondulatoria de la luz, ya que no veía cómo se podía explicar con ella la propagación rectilínea de la misma. Por otra parte, Christian Huygens defendía la naturaleza ondulatoria de la luz.

Lo interesante es que las teorías de ambos científicos explicaban perfectamente la reflexión y refracción de la luz, pero diferían en una cosa: la teoría corpuscular predecía que las partículas de luz se acelerarían al pasar por un material óptico de mayor densidad, mientras que la teoría ondulatoria vaticinaba que sucedería todo lo contrario (las ondas se propagan a menor velocidad en los materiales ópticos de mayor densidad). Sin embargo, semejantes pronósticos no eran comprobables en aquella época. De todas formas, debido a la influencia de Newton y a la poca habilidad de Huygens para desarrollar matemáticamente su propuesta, la teoría ondulatoria quedó descartada durante un siglo.

Fue entonces cuando apareció Thomas Young, quien con tan sólo catorce años hablaba latín, hebreo, samaritano, caldeo, árabe, sirio, francés, italiano, persa, turco y etíope. Estudió medicina en Cambridge; investigó el funcionamiento del ojo humano, estableciendo que existían tres tipos de receptores, cada uno de ellos sensibles a uno de los colores primarios; y un largo etcétera. En 1801 realizó su tan relevante experimento de la "doble rendija", que ha pasado a la historia de la ciencia con el nombre de "experimento de Young".

Thomas Young (1773–1829), con su importante experimento de la "doble rendija", permitió obtener evidencias claras de la naturaleza ondulatoria de la luz, e incluso pudo medir ciertas longitudes de onda para luz visible. En la imagen que encabeza la página siguiente, podemos ver un dibujo que ilustra el famoso experimento, mediante el que el científico pudo comprobar un patrón de interferencias en la luz procedente de una fuente lejana (luz solar) al difractarse ésta tras el paso por dos rendijas.

edu.red

Young hizo que la luz atravesara una rendija muy estrecha, practicada en una persiana, S0. Este haz de luz incidía sobre una pantalla opaca, en la que había dos rendijas muy estrechas y cercanas entre sí, S1 y S2. Veamos cómo se produce el patrón de interferencia sobre la pantalla P:

Suponemos que las ondas que atraviesan las rendijas tienen una longitud de onda ? y están separadas, unas de otras, por una distancia d. Al atravesar las rendijas S1 y S2, las ondas se dispersan en todas direcciones. Las que llegan al centro de la pantalla habrán recorrido la misma distancia, por lo que están en fase: la cresta de una onda llega al mismo tiempo que la cresta de otra onda. Se forma entonces una interferencia constructiva y las amplitudes de ambas ondas se suman. El resultado de esta interferencia constructiva es un área brillante en el centro de la pantalla. La interferencia constructiva también ocurrirá cuando las trayectorias de los dos rayos luminosos difieran en una longitud de onda completa ? (o en cualquier número entero de longitudes de onda, es decir, n?, siendo n un número entero positivo o natural). Por su parte, las interferencias destructivas ocurrirán cuando un rayo recorra una distancia adicional de media longitud de onda ½?, o bien (n+½)?, siendo n un número natural. En este caso, las ondas estarían totalmente fuera de fase al llegar a la pantalla: la cresta de una onda coincidiría con el valle de otra. Entonces, al sumar las amplitudes de onda, daría como resultado una amplitud cero. Se forma así una interferencia destructiva y en la pantalla se ve una franja oscura. El patrón de interferencia que se ve en la pantalla P está formado, entonces, por una sucesión de líneas brillantes y oscuras. La siguiente imagen muestra cómo aparece el patrón de interferencia del experimento de Young en la pantalla de visualización P:

edu.red

De acuerdo con la física clásica, existen diferencias irreconciliables entre onda y partícula. Una partícula ocupa un lugar en el espacio, puede variar su velocidad en el medio y tiene masa, mientras que una onda se extiende en el espacio, se caracteriza por tener una velocidad definida en el medio y posee masa nula.

En 1905, Einstein logró una notable explicación del efecto fotoeléctrico, como ya se ha comentado antes. Éste había resultado ser un fenómeno bastante preocupante, pues la teoría ondulatoria clásica era incapaz de explicarlo.

edu.red

Pero Einstein lo hizo postulando la existencia de fotones, o cuantos de luz con propiedades de partículas.

En el efecto fotoeléctrico se observaba que si un haz de luz incidía en una placa de metal, producía electricidad en el circuito. Presumiblemente, la luz liberaba los electrones del metal, provocando su flujo. Sin embargo, mientras que una luz azul débil era suficiente para provocar este efecto, la más fuerte e intensa luz roja no lo provocaba.

De acuerdo con la teoría ondulatoria, clásica, la fuerza o amplitud de la luz se hallaba en proporción con su brillantez: La luz más brillante debería ser más que suficiente para crear el paso de electrones por el circuito. Sin embargo, extrañamente, no lo producía.

Einstein llegó a la conclusión de que los electrones eran expelidos fuera del metal por la incidencia de fotones. Cada fotón individual acarreaba una cantidad de energía E, que se encontraba relacionada con la frecuencia ? de la luz, mediante la siguiente ecuación: E = hv, donde h es la constante de Planck (cuyo valor es 6'626 × 10-34 J·s). Sólo los fotones con una frecuencia alta (por encima de un valor umbral específico) podían provocar la corriente de electrones. Por ejemplo, la luz azul emitía unos fotones con una energía suficiente para arrancar los electrones del metal, mientras que la luz roja no. Una luz más intensa por encima del umbral mínimo puede arrancar más electrones, pero ninguna cantidad de luz por debajo del mismo podrá arrancar uno solo, por muy intenso que sea su brillo. Einstein ganó el Premio Nobel de Física en 1921, por su teoría del efecto fotoeléctrico.

Albert Einstein proponía, de esta forma, que en determinados procesos las ondas electromagnéticas que forman la luz se comportan como corpúsculos. Entonces, el físico francés Louis-Victor de Broglie (1892-1987) se preguntó por qué no podría ser también de manera inversa, es decir, que una partícula material (un corpúsculo) pudiese mostrar el mismo comportamiento que una onda. Por consiguiente, en 1924, De Broglie formuló una hipótesis en la que afirmaba lo siguiente: "Toda la materia presenta características tanto ondulatorias como corpusculares, comportándose de uno u otro modo dependiendo del experimento específico".

El físico francés relacionó la longitud de onda, ? (lambda), con el momento lineal p de la partícula, mediante la fórmula: ? = h/p, con p = mv, donde ? es la longitud de la onda asociada a la partícula de masa m, que se mueve a una velocidad v, y h es la constante de Planck. Viendo la fórmula, se aprecia fácilmente, que a medida que la masa del cuerpo o su velocidad aumenta, disminuye considerablemente la longitud de onda.

Esta hipótesis se confirmó tres años después para los electrones, con la observación de los resultados del experimento de la doble rendija de Young en la difracción de electrones en dos investigaciones independientes. En la Universidad de Aberdeen, George Paget Thomson pasó un haz de electrones a través de una delgada placa de metal y observó los diferentes esquemas predichos. En los Laboratorios Bell, Clinton Joseph Davisson y Lester Halbert Germer guiaron su haz a través de una celda cristalina.

La ecuación de De Broglie se puede aplicar a toda la materia. Los cuerpos macroscópicos, también tendrían asociada una onda, pero, dado que su masa es muy grande, la longitud de onda resulta tan pequeña que en ellos se hace imposible apreciar sus características ondulatorias. De Broglie recibió el Premio Nobel de Física en 1929 por esta hipótesis. Thomson y Davisson compartieron el Nobel de 1937, por su trabajo experimental.

Similares experimentos fueron repetidos con neutrones y protones, el más famoso de ellos realizado por Estermann y Otto Stern en 1929. Experimentos más recientes, efectuados con átomos y moléculas, demostraron que éstos actúan también como ondas. En 1999, se informó de la difracción del fullereno, que es un objeto masivo, con una masa atómica de 720; hasta el año 2005, éste ha sido el mayor objeto sobre el que se han observado propiedades ondulatorias mecano-cuánticas de manera directa. La interpretación de dichos experimentos aún puede crear controversia, especialmente si se asumen los argumentos de la dualidad onda-corpúsculo y la validez de la ecuación de De Broglie en su formulación, esto es, en el marco teórico de la mecánica cuántica primitiva (no relativista).

Basándose en el planteamiento de De Broglie, de la dualidad onda-partícula, la mecánica cuántica moderna no relativista comenzó a tomar forma en 1925, cuando los físicos alemanes Werner Heisenberg y Max Born desarrollaron la "mecánica matricial" y el físico austríaco Erwin Schrödinger creó la "mecánica de ondas" y la "ecuación de Schrödinger no relativista" como una aproximación al caso generalizado de la teoría de De Broglie. Schrödinger, posteriormente, demostró que ambos enfoques (mecánica matricial y mecánica de ondas o mecánica ondulatoria) eran equivalentes.

Werner Karl Heisenberg (1901-1976), famoso físico alemán y premio Nobel en 1932, creador de la "mecánica de matrices" (mecánica matricial) en 1925, hizo una gran contribución fundamental al establecimiento de la "mecánica cuántica" (no relativista) con la formulación de su famoso "principio de incertidumbre" (o "principio de indeterminación") en 1927. Este principio afirma que es imposible medir simultáneamente, de forma precisa, la posición y el momento lineal (cantidad de movimiento) de una partícula. Dicho principio ha ejercido una profunda influencia en la física y en la filosofía del siglo XX.

edu.red

El descubrimiento de que nuestro universo a nivel microscópico se fundamenta sobre una realidad cuántica, incentivó a los científicos y también a los filósofos a emitir conjeturas e interpretaciones. En el pródigo año (para la física) de 1927, el danés Niels Bohr (1885-1962), con ayuda de Max Born y Werner Heisenberg, entre otros (durante una conferencia realizada en Como, Italia), formuló una interpretación de la mecánica cuántica que posteriormente ha llegado a conocerse con el nombre de "interpretación de Copenhague" (en alusión a la ciudad donde residía Bohr).

La interpretación de Copenhague incorpora, pues, el principio de incertidumbre, el cual establece, como ya se ha comentado, que no se puede conocer simultáneamente con absoluta precisión la posición y el momento (cantidad de movimiento) de una partícula. La interpretación de Copenhague, también, señala el hecho de que el principio de incertidumbre no opera en el mismo sentido hacia atrás y hacia delante en el tiempo. Muy pocos hechos en física tienen en cuenta la forma en que fluye el tiempo, y éste es uno de los problemas fundamentales a la hora de comprender el funcionamiento del Universo, donde ciertamente hay una distinción entre el pasado y el futuro. Las relaciones de incertidumbre de Heisenberg, según la interpretación de Copenhague, indican que no es posible conocer la posición y el momento simultáneamente, y, consiguientemente, no es posible predecir el futuro, ya que, en palabras de Heisenberg: "no podemos conocer, por principio, el presente en todos sus detalles". Pero es posible, de acuerdo con las leyes de la mecánica cuántica, conocer cuál era la posición y el momento de una partícula en un instante del pasado. El futuro es esencialmente impredecible e incierto, mientras que el pasado está completamente definido. Por lo tanto, nos movemos de un pasado definido a un futuro incierto.

mentariedad", que establece que ambas descripciones, la ondulatoria y la corpuscular, son necesarias para comprender el mundo cuántico. Bohr también señaló, en la conferencia de Como, Italia, que mientras en la física clásica un sistema de partículas direccionadas funciona como un aparato de relojería, independientemente de que sean observadas o no, en física cuántica el observador interactúa con el sistema en tal medida que el sistema no puede considerarse con una existencia independiente del observador.

Además, según la interpretación de Copenhague, toda la información experimental la constituyen los resultados de laboratorio. Se puede observar un átomo y ver un electrón en el estado de energía A, después volver a observar y ver un electrón en el estado de energía B. Se supone que el electrón saltó de A a B, quizás a causa de la observación. De hecho, no se puede asegurar siquiera de que se trate del mismo electrón, y no se puede hacer ninguna hipótesis de lo que ocurría cuando no se observaba. Lo que se puede deducir de los experimentos, o de las ecuaciones de la mecánica cuántica, es la probabilidad de que si al observar el sistema se obtiene el resultado A, otra observación posterior proporcione el resultado B. Nada se puede afirmar de lo que pasa cuando no se practica observación alguna, ni de cómo pasa el sistema del estado A al B.

edu.red

Después de esto, Einstein y muchos otros físicos se negaron a aceptar esta interpretación de la mecánica cuántica, presentando varias críticas en su contra. No obstante, Einstein y Bohr eran buenos amigos. Ambos se encontraron por vez primera durante una visita del danés a Berlín en junio de 1920, y se vieron por última vez en abril de 1954, en Princeton, EE.UU. La relación entre ellos fue estrecha y de gran afecto, así como de aprecio mutuo. Sin proponérselo, a resultas de la conferencia de Bohr en Como, entablaron una polémica acerca de la manera correcta de interpretar la mecánica cuántica que se prolongó hasta la muerte de Einstein en 1955 y que fue excelentemente documentada por Bohr. A pesar de la importancia y seriedad que este debate tuvo para el danés, no obstante, en la víspera de su muerte, acaecida 7 años después de la de Einstein, hizo memoria, con cariño, de su fallecido amigo y creador de la teoría de la relatividad.

Einstein fue uno de los científicos más decisivos en el desarrollo de la teoría cuántica; no sólo porque su trabajo sobre el efecto fotoeléctrico cobró vital importancia, sino porque junto con el indio Bose, por ejemplo, comenzó la primera teoría estadística en la que los gases recibían un tratamiento puramente cuántico. Y es que Einstein fue un gran físico estadístico, que también aplicaría la estadística a sistemas cuánticos para sentar las bases teóricas que llevarían a la construcción del láser. Pero el carácter probabilístico (o indeterminista) que se había instaurando en la teoría cuántica como consecuencia de la interpretación de Copenhague, le llevó a expresar sus reticencias. Nunca aceptó que una teoría que predijera que la posición de un electrón en un instante dado no proporciona un resultado único, sino sólo cierta probabilidad de encontrarlo en determinado lugar y en determinado instante. Esto, para él, no representaba una descripción de la naturaleza aceptable, ni que una tal teoría probabilística pudiera considerarse completa. Einstein, que era determinista, no conseguía admitir que fuera necesario renunciar a la certidumbre, por lo que solía afirmar: "Dios no juega a los dados con el universo"; a lo cual, Bohr le llegó a contestar: "Einstein, deje usted de decirle a Dios lo que tiene que hacer con sus dados".

En la mecánica cuántica, muchos teóricos se replantearon las bases epistemológicas del proceso de medida (o de captación de datos) y concluyeron que dicho proceso siempre tiene un efecto sobre el objeto observado o medido, de forma que es inútil atribuir propiedades a un sistema cuántico aislado: instrumento de medida. Esto, más o menos, es lo que nos venía a decir la "interpretación de Copenhague".

La "complementariedad", o el hecho de que una medida destruya en general todo conocimiento de alguna otra propiedad de un sistema cuántico, y el "indeterminismo", fueron tratados por Niels Bohr como aspectos fundamentales de la naturaleza; además, no podemos atribuir propiedades al objeto a menos que hayan sido medidas. Entonces, podríamos preguntarnos cómo sabemos que existe un objeto cuántico en ausencia de toda medida: la respuesta es, según la interpretación de Copenhague, que no lo sabemos.

Un sencillo ejemplo nos ayudará, pues, a entender el "principio de complementariedad". Supongamos que queremos medir la temperatura (obtención de un dato termológico) de una masa de agua en reposo, la cual está contenida en una piscina. Supongamos que utilizamos un pequeño termómetro, cuya interacción con el sistema acuoso (a medir) es despreciable; y supongamos, a su vez, que obtenemos 15ºC. Es evidente que, en este caso, es permisible ignorar la acción del termómetro sobre el agua y considerar sólo la masa de agua como sistema a medir, en independencia del termómetro. Éste sería el caso de la medición de fenómenos en el campo de la física macroscópica, o clásica.

Sin embargo, al acercarnos a la física microscópica, a la teoría cuántica, los fenómenos a medir son igualmente microscópicos. Sería algo similar a usar el termómetro del ejemplo anterior para medir la temperatura de una masa de agua con un volumen igual o menor al que ocupa el termómetro. Por ejemplo, al tomar la temperatura del agua contenida en un pequeño tubito de ensayo. Aquí, obviamente, no se puede despreciar la acción térmica del termómetro sobre el agua y habría que aplicar sin falta el "principio de complementariedad". Sería necesario considerar que el objeto a medir (agua) y el instrumento de medida (termómetro) forman un solo sistema indisoluble, desde el punto de vista métrico o de toma de datos.

En este último caso, si antes de tomar la temperatura del objeto, o antes de efectuar la medición termológica de la pequeña masa de agua, ésta tenía 20ºC, bien pudiera suceder que, después de introducirle el termómetro y estar éste a 10ºC, la medición arroje un resultado de 14ºC (a causa de la interacción térmica entre el agua y el termómetro). Pues bien, algo parecido a esto es lo que sucede a la hora de recabar datos experimentales en mecánica cuántica, según la interpretación de Copenhague.

edu.red

Ernest Solvay (1838-1922) fue un químico industrial belga, autodidacta. Una enfermedad (pleuritis tuberculosa) le impidió ir a la universidad, por lo que comenzó a trabajar en la industria química de la fábrica de su tío a la edad de 21 años. Ideó varios métodos de purificación de gases, pero se le conoce principalmente por el desarrollo de un método para la producción de carbonato sódico (sosa) que mejoraba considerablemente el existente. Adquirió su primera patente para la producción de sosa en 1861. En 1863 construyó su primera fábrica en Couillet, donde terminó de perfeccionar su método en 1872. En 1890 ya había fundado empresas en diversos países extranjeros, y en 1900 el 95% de la crecida producción mundial de sosa provenía del proceso "Solvay". Hoy en día siguen operativas cerca de 70 fábricas que lo emplean. La sosa es un componente esencial en numerosas aplicaciones industriales, como, por ejemplo, la fabricación del vidrio, la metalurgia o la fabricación de detergentes.

Este éxito le reportó a Solvay una riqueza considerable, la cual usó para diversos propósitos filántropos, incluyendo la fundación de varios institutos internacionales de investigación científica en fisiología (1893), sociología (Universidad de Bruselas, 1902), física (1912) y química (1913). Las conferencias sobre física de Solvay eran particularmente reconocidas por su papel en el desarrollo de las teorías de la mecánica cuántica y la estructura atómica. Al mismo tiempo, tomó iniciativas sociales, siendo un precursor del reconocimiento de los derechos laborales en sus industrias, donde inició un sistema de seguridad social inexistente en la época: una pensión para los trabajadores desde 1899, limitaciones al horario de trabajo y jornada de 8 horas desde 1908, la instauración de vacaciones pagadas desde 1913 y una especie de reciclaje profesional.

En 1911 fue el promotor de una importante conferencia científica, el denominado Congreso Solvay, donde estuvieron algunos de los físicos más importantes de la época, como Albert Einstein, Ernest Rutherford, Max Planck y Marie Curie, entre otros, todos ellos investigadores vanguardistas de la radiación, la mecánica cuántica y el modelo atómico. Después del éxito de esta primera conferencia, se produjeron otras cada tres años, en las que asistieron otros importantes científicos como Niels Bohr y Werner Heisenberg, entre muchos otros. La conferencia más importante de todas fue la quinta, celebrada en 1927 en Bruselas.

En octubre de 1927 se efectuó el 5° Congreso Solvay, en Bruselas, al que asistieron todos los elaboradores de la teoría cuántica: Planck, Einstein, Bohr, Heisenberg, Born, De Broglie, Schrödinger, Dirac y Pauli, así como muchas de las grandes figuras de la física de la época, como Madame Curie, Lorentz, Ehrenfest, W.L. Bragg, Debye, Compton, etc. Aquí fue donde se inició el gran debate, después que Einstein señalara públicamente su objeción a la teoría recién propuesta (la mecánica cuántica no relativista, según la interpretación de Copenhague); más aún, fuera de las sesiones, el creador de la teoría de la relatividad mantuvo continuas discusiones, especialmente con Bohr, que mostraban su completa insatisfacción con la teoría defendida por el grupo de Copenhague. Los jóvenes físicos contestatarios no se esperaban esa reacción en contra, pues acababan de ponerse de acuerdo tras varios años de discusiones entre ellos mismos, y ahora tenían la ilusión de que el congreso de Bruselas les facilitara la oportunidad de exponer los resultados de los que, en razón a su ardua tarea, se sentían especialmente orgullosos. Suponían a priori que habría alguna clase de resistencia por parte de Einstein, pero confiaban en poder convencerlo. No obstante, la empresa se les reveló mucho más difícil de lo previsto y consecuentemente se sintieron un tanto decepcionados. Einstein puso varias objeciones, y éstas les obligaron a refinar sus razonamientos. Se cuenta que los argumentos que Einstein presentaba contra la nueva teoría durante la cena eran desbaratados a la mañana siguiente en el desayuno, por Bohr, quien se había pasado toda la noche reflexionando.

edu.red

El siguiente congreso Solvay fue organizado en 1930, y allí Einstein discutió uno de sus famosos "gedanken experiment" (experimento mental), con el que intentó demostrar que es posible, en principio, violar las relaciones de Heisenberg; pero al día siguiente, Bohr hizo ver que si se toman en cuenta los efectos característicos de la teoría general de la relatividad desaparecía tal violación y se recuperaba la descripción cuántica. A partir de ese momento, Einstein aceptó expresamente la consistencia lógica de la mecánica cuántica propuesta por el grupo de Copenhague, pero su fino instinto le impedía ceder ante esta teoría como si se tratara de una conclusión final, por lo que repetidamente señalaba que la misma únicamente recogía un pedazo de la verdad, y que estaba lejos de ser una teoría completa o definitiva.

edu.red

La polémica continuó, pero cambió de forma, pues Einstein pronto se vería obligado a abandonar Alemania. En 1932, el Instituto de Estudios Avanzados que se estaba creando en Princeton, New Jersey, EEUU, le ofreció un puesto de profesor, para compartir su tiempo en partes iguales entre Berlín y Princeton. Einstein aceptó y en diciembre de ese mismo año partió para su primera estancia en Princeton. Semanas después, el 30 de enero de 1933, Hitler tomó el poder en Alemania y Einstein jamás volvería a pisar ese suelo. Su casa de verano, a las afueras de Berlín, fue registrada por la policía nazi en busca de supuestas armas del Partido Comunista. Entonces, para facilitar las cosas a sus amistades alemanas, Einstein renunció a su puesto en la Academia de Ciencias de Berlín.

Al terminar su estancia en Princeton, Einstein regresó por algunos meses a Europa, donde los reyes Alberto y Elizabeth de Bélgica, con quienes estableció estrecha amistad a través de los Congresos Solvay, le dieron hospedaje y protección. Recibió invitaciones de las universidades de Jerusalén, Leyden, Madrid, Oxford, París, etc. Aún en el viaje, Einstein hizo pronunciamientos políticos contra la guerra y por los intelectuales en exilio, y se dio tiempo también para publicar un par de trabajos científicos y dar conferencias. En breve regresó a Princeton, y ya no volvió a salir del país que en 1940 le otorgaría la plena ciudadanía estadounidense. En Princeton, Einstein inició una nueva vida, apacible y tranquila.

Allí instalado, y en colaboración con Boris Podolsky y su joven asistente Nathan Rosen, publicó un célebre trabajo en el que exponía la llamada "paradoja EPR", por las iniciales de sus tres signatarios (Einstein-Podolsky-Rosen). En dicho trabajo concluyó que si se adopta un punto de vista objetivo, claramente definido sobre la realidad física, entonces la mecánica cuántica es una teoría física incompleta, pues no puede contener todos los elementos de la realidad que son de interés para la descripción del sistema. En el artículo se demostraba que la física cuántica exige que se pueda medir a distancia una propiedad, tal como la polarización de un fotón, por medio de medir la polarización de otro fotón que haya interaccionado antes con él. Dado que es inconcebible que esta medida pueda haber interferido con el objeto distante, se deduce que el fotón debe haber poseído la propiedad antes de que se realizase la medida. Como la propiedad puede ser modificada por el experimentador, regulando el aparato distante, el grupo EPR concluye que todas las propiedades físicas tienen que ser reales antes de ser medidas, en directa contradicción con la interpretación de Copenhague.

Veamos más de cerca la "paradoja EPR" y sus extrañas repercusiones posteriores, pero antes de eso describamos brevemente qué es un "experimento mental". Se trata de un recurso de la imaginación empleado para investigar la naturaleza de las cosas, o un escenario hipotético que nos ayuda a comprender cierto razonamiento o algún aspecto de la realidad. En su acepción más básica, se suele emplear este método cotidianamente y con mucha frecuencia, como cuando uno intenta dar un consejo a alguien con la intención de ayudarle a actuar con sensatez.

edu.red

Existe, en la sagrada escritura, un pasaje que narra la manera magistral en que Jesucristo corrigió una situación de desenfoque existencial usando una parábola (o ilustración), a modo de experimento mental: «Entonces uno de la muchedumbre le dijo: "Maestro, di a mi hermano que divida conmigo la herencia". Él le dijo: "Hombre, ¿quién me nombró juez o repartidor sobre vosotros?". Entonces les dijo: "Mantened abiertos los ojos y guardaos de toda suerte de codicia, porque hasta cuando uno tiene en abundancia, su vida no resulta de las cosas que posee". ?Con eso les habló una ilustración, y dijo: "El terreno de cierto hombre rico produjo bien. Por consiguiente, él razonaba dentro de sí, diciendo: "¿Qué haré, ya que no tengo dónde recoger mis cosechas?". De modo que dijo: "Haré esto: demoleré mis graneros y edificaré otros mayores, y allí recogeré todo mi grano y todas mis cosas buenas; ?y diré a mi alma: "Alma, tienes muchas cosas buenas almacenadas para muchos años; pásalo tranquila, come, bebe, goza"". Pero Dios le dijo: "Irrazonable, esta noche exigen de ti tu alma. Entonces, ¿quién ha de tener las cosas que almacenaste?". Así pasa con el hombre que atesora para sí, pero no es rico para con Dios" » (Evangelio de Lucas, capítulo 12, versículos 13 a 21; Traducción del Nuevo Mundo de las Santas Escrituras, edición de 1987).

En lo que tiene que ver con la ciencia experimental, y sobre todo con la física, el siglo XVII fue testigo de la puesta en práctica de algunos experimentos mentales más brillantes de toda la historia. A este tipo de herramienta recurrieron Galileo, Descartes, Newton y Leibniz, con notable éxito. Y en nuestros tiempos, el surgimiento de la mecánica cuántica y la teoría de la relatividad es casi impensable sin el papel crucial jugado por los experimentos mentales. Pues bien, aquí, en este contexto, es donde entra en juego la denominada "paradoja EPR".

La paradoja de Einstein-Podolsky-Rosen, denominada "Paradoja EPR", consiste en un experimento mental propuesto por Albert Einstein, Boris Podolsky y Nathan Rosen en 1935. Es relevante históricamente, pues no sólo pone de manifiesto un problema aparente de la mecánica cuántica no relativista, sino que en las décadas siguientes se dedicaron múltiples esfuerzos a desarrollarla y resolverla con resultados inverosímiles y revolucionarios.

A partir de la formulación de la paradoja EPR, se fue gestando el extraño concepto de "entrelazamiento cuántico" como una propiedad predicha implícitamente por dicha paradoja. El término "entrelazamiento cuántico" fue introducido en 1935 por Erwin Schrödinger, para describir un fenómeno de la mecánica cuántica que se demuestra en los experimentos, aunque inicialmente no se comprendió bien la relevancia que éste llegaría a tener para la física teórica. Un conjunto de "partículas entrelazadas" no puede definirse como partículas individuales, con estados definidos, sino sólo como un sistema de partículas o entidad única con una función de onda igualmente única para todo el sistema.

En "entrelazamiento" es un fenómeno cuántico, sin equivalente en la física clásica, en el cual los estados cuánticos de dos o más objetos se deben describir mediante un estado único que involucra a todos los objetos del sistema, aún cuando los objetos estén separados espacialmente tanto como se quiera. Esto lleva a correlaciones entre las propiedades físicas observables; por ejemplo, es posible preparar (enlazar) dos partículas en un solo estado cuántico de espín nulo, de forma que cuando se observe que una gira hacia arriba, la otra automáticamente recibirá una "señal" y se mostrará como girando hacia abajo, pese a la imposibilidad de predecir, según los postulados de la mecánica cuántica, qué estado cuántico se observará.

Esas fuertes correlaciones cuánticas hacen que las medidas realizadas sobre un sistema parezcan estar influyendo instantáneamente en otros sistemas que están enlazados con él, y sugieren que alguna influencia se tendría que estar propagando instantáneamente entre los sistemas, a pesar de la separación (eventualmente astronómica) entre ellos. No obstante, esto propiciaría que se pudiera transmitir información a una velocidad superior a la de la luz, mediante el entrelazamiento, violando así el principio relativista plenamente aceptado de que no se puede transmitir ninguna información útil a más velocidad que la de la luz. Además, sólo es posible la transmisión de información usando un conjunto de estados entrelazados en conjugación con un canal de información clásico, también llamado "teleportación cuántica"; mas, por necesitar de ese canal clásico, la información útil no podría superar la velocidad de la luz. Ciertamente, un callejón sin salida aparente, es decir, una paradoja en toda regla.

edu.red

Después de propuesta públicamente la paradoja por el grupo EPR, Bohr se sintió obligado a responder, pues la paradoja venía adornada con una especie de aureola en forma de reto, o una embestida teórica, que, en palabras de León Rosenfeld, colaborador de Bohr: "fue un ataque violento que cayó sobre nosotros como una sorpresa desagradable". Entonces, echando a un lado las investigaciones sobre física nuclear que lo ocupaban, Bohr elaboró una larga y detallada respuesta, encaminada a mostrar que el punto de vista sobre la realidad física defendido por EPR era inaceptable desde el enfoque de la mecánica cuántica. El punto clave de la réplica estaba en que, en el ejemplo propuesto por el grupo EPR, el sistema cuántico está formado por dos fotones que no deben ser considerados como entidades separadas hasta después de que se haya hecho una medida para separarlos. Y aquí tenemos la idea central de la interpretación de Copenhague: Se puede considerar real a una cantidad sólo si ha sido medida o si está en el contexto de una medida en donde se puede predecir el resultado del experimento; y de ello se sigue que es posible cambiar las propiedades reales de un sistema cuántico si el experimentador reajusta su aparato.

Einstein reaccionó a la respuesta de Bohr diciendo que su posición era lógicamente posible, pero "tan contraria a mi instinto científico que no puedo abandonar la búsqueda de una concepción más completa". Hasta finales del siglo XX, esa concepción buscada por Einstein no fue hallada y había que utilizar la interpretación de Copenhague como la mejor propuesta. Sin embargo, resulta que esta aceptación condujo a otro problema mayor, cuyas implicaciones conceptuales y filosóficas rebasaban con mucho lo discutido hasta el momento. Se trata de denominado "problema de la medida", que puede ilustrarse de manera bastante gráfica por medio del experimento mental conocido como "el gato de Schrödinger": este científico austriaco ejemplificó de manera elocuente los problemas que se plantean al considerar los efectos de la medida en un sistema cuántico basado en la interpretación dominante o de Copenhague.

La situación, o experimento mental, que se expone en la paradoja del "gato de Schrödinger"es la siguiente. En el interior de una caja tenemos una fuente de luz, un polarizador, un detector, un revólver cargado (o algún otro dispositivo letal) y un gato. La aguja del detector, que nos dice el estado de polarización del fotón, estará conectada al gatillo del revólver de tal modo que si detecta un fotón polarizado según la vertical el revólver disparará y matará al gato, pero si el fotón lo está según la horizontal el gato seguirá vivo. ¿Qué puede decir acerca del resultado un observador que esté fuera de la caja y que acepte la interpretación de Copenhague? Cabe presumir que no puede sacar ninguna conclusión relativa al estado del sistema hasta que éste haya sido medido, cosa que ocurre, por lo que a él se refiere, cuando la caja ha sido abierta y se ha observado el estado del gato (muerto o vivo). Es más, concluirá que, hasta que esta observación haya sido realizada, el gato estará en un estado de mezcla, ni vivo ni muerto. Esto puede parecer demasiado extraño, e incluso ridículo, para ser tomado en serio; pero la verdad es que el "entrelazamiento cuántico" que explica este fenómeno es la base de algunas aplicaciones punteras que se están desarrollando actualmente, como la criptografía y la computación cuántica, e incluso la teleportación.

edu.red

Algunas posibles soluciones planteadas a este dilema provienen de mentes que se consideran lúcidas y, al mismo tiempo, científicas. Por ejemplo, tenemos la "hipótesis de la consciencia", que señala que el problema de la medida se plantea cuando intentamos tratar el aparato de medida como un sistema cuántico, pues necesitaremos más aparatos para medir el estado en el que se encuentra el primero y así obtendremos una cadena de medidas que parece continuar hasta el infinito. Hay, sin embargo, un punto en el que sin duda termina esta aparente secuencia infinita y éste es el instante en que la información llega a nosotros. Podría argumentarse que los seres humanos deberían ser vistos como el último instrumento de medida, y si es así entonces cabe preguntarse: ¿cuál es el elemento propio de los seres humanos que les da esa potestad, en apariencia única? Un poco de reflexión nos llevaría a pensar que la consciencia humana es el único rasgo diferente a todas las demás cosas que hay en el universo. Una teoría cuántica basada en la consciencia diría, en resumen, que la elección de los estados posibles de un sistema cuántico y su aparato de medida asociado no tiene lugar hasta que la información haya llegado a un observador consciente. Por lo visto, fue Eugene Wigner (físico y matemático húngaro, que recibió el Premio Nobel en el año 1963) el primero que destacó el papel de la conciencia en el problema de la medida.

Otro ejemplo lo provee la "hipótesis del multiverso cuántico", sugerida por Hugo Everett en 1957.

La conjetura propone que siempre que tiene lugar una medida cuántica, el universo se ramifica en tantas componentes como resultados posibles tenga la medida. Cada uno de los individuos que practican las mediciones, en su rama particular, piensa que el resultado de su medida es singular y que su universo concreto es el único que existe, pero se equivoca. Esta explicación posee un atractivo matemático que la ha hecho apetecible a muchos científicos profesionales. Sin embargo, esta hipótesis, así como la anterior y otras, presentan, todas ellas, ciertos puntos débiles y por lo tanto no terminan de resolver el "problema de la medida".

El concepto de "entidades extensas no localizadas", de la teoría cuántica de campos, permite resolver muchas de las paradojas de la física cuántica primitiva (no relativista). Esto señala hacia la dirección correcta, puesto que la resolución de paradojas siempre ha sido un indicador de confianza en cuanto al sendero que debe tomarse para adquirir un conocimiento de la realidad más certero y exacto. En el "experimento de la doble rendija", la teoría cuántica de campos asume que el campo electromagnético se extiende a lo largo de todo el camino a recorrer, así que la fuente emisora "no crea" un nuevo campo sino que "perturba el campo ya existente", produciendo una "excitación" que se desplaza siguiendo los criterios de la Relatividad. Por esto el campo ya "tiene información" de todo el trayecto, o ya "sabe" si la rendija está abierta o no; y, por supuesto, la perturbación pasa por ambas rendijas ya que el campo es un objeto extenso. En cada punto del espacio hay una probabilidad de detectar la "perturbación" del campo, la "energía de la excitación" del campo (la "partícula") interacciona con las moléculas del detector o de la pantalla con cierta "probabilidad" y la energía detectada siempre es un múltiplo de "h·v", ya que la energía del campo es discontinua.

Solo en términos de "campos" puede entenderse el "vacío cuántico": en éste no hay "partículas", sino que únicamente existe el "campo" en su estado "mínimo de energía". También en términos de "campos" parece poder explicarse bien el "entrelazamiento cuántico": los "fotones entrelazados" son la misma perturbación del campo que se desplaza en direcciones opuestas, por lo que al medir una "excitación" se encuentra una "correlación" en la otra (por ejemplo, de espines opuestos). La "resolución de las paradojas" tiene el coste de asumir la existencia de entidades físicas que permean todo el espacio. Por supuesto, estas entidades cuánticas no tienen nada que ver con el éter y sus cualidades "mecánicas". Sin embargo, si pensamos que el espacio, sea lo que sea, tiene que consistir en algo físico, es decir, algo provisto de energía (el cual puede curvarse cuando hay más energía próxima) y que dicha energía está constituida por los "campos cuánticos", entonces éstos parecen más fáciles de asimilar por nuestras mentes (acostumbradas a tratar con objetos "materiales").

edu.red

La teoría cuántica de campos contempla la posibilidad de asirse de una teoría unificada de campos cuánticos, o sea, alcanzar el sueño dorado de Einstein: lograr que todos los campos se unifiquen en uno solo (la teoría del campo único o unificado). Algunos teóricos presuponen que ése será el final, la última frontera, la cual conducirá a una "teoría cuántica de la gravedad" y al entendimiento de la naturaleza del "espacio-tiempo". Pero lo más probable es que no haya una última frontera, incluso si se alcanzara ese difícil objetivo teórico que podríamos denominar "la física del campo único".

Misticismo cuántico

Se atribuye a Pasteur (1822-1895) la siguiente frase: "Un poco de ciencia nos aparta de Dios. Mucha ciencia, nos aproxima a Él" (ver monografía G029: Generación espontánea; página 18, nota). Al parecer, la idea que transmiten esas palabras tiene que ver con las conjeturas y las especulaciones que se suscitan en la mente del ser humano cuando trata de explicar los fenómenos naturales. Habitualmente, las hipótesis iniciales se tornan enormemente fantasiosas y peregrinas y esto conduce en poco tiempo a la aparición de paradojas; pero a medida que avanza el conocimiento, sucede que la realidad lucha por imponerse, los conceptos cambian o se refinan, se resuelven algunas paradojas y las conjeturas iniciales van quedando diezmadas o descalificadas en su gran mayoría. La historia de la Ciencia es básicamente una lucha tenaz y sin final contra la apariencia engañosa de las cosas, es decir, contra las conjeturas e hipótesis que se asumen en un momento dado pero que son incapaces de resolver ciertas paradojas. Por su parte, las paradojas equivalen a síntomas o señales que nos indican que una determinada teoría flaquea en sus fundamentos y consecuentemente debe ser superada.

Aceptar que el universo está hecho de "campos" y no de "partículas" es un avance muy importante que ha permitido dar a luz la "teoría cuántica de campos" y que sirve para entender los problemas y "paradojas" asociados a la concepción antigua de la mecánica cuántica, esto es, a la vieja mecánica cuántica no relativista, en la figuró como protagonista la interpretación de Copenhague. Desde la nueva óptica teórica, parece poder resolverse todo lo que concierne a la "dualidad onda-partícula", el "problema de la medida", el "colapso de la función de onda", la "no localidad" y muchas otras paradojas.

Si la "teoría cuántica de campos" alcanzara a pincelar el sueño dorado de Einstein, esto es, a trazar el plano arquitectónico de la hasta ahora hipótesis del "campo unificado", probablemente conseguiría eliminar al mismo tiempo toda una serie de ideas místicas que se han desarrollado a la sombra de las paradojas de la mecánica cuántica no relativista y que han emigrado y persistido incluso en la mecánica cuántica relativista. Semejante misticismo colisiona contra la esencia criteriológica que rezuma de la sagrada escritura, la Biblia, por lo que para el creyente bien versado en la claves conceptuales bíblicas (es decir, en los principios y asertos que se desprenden de la información codificada en el texto bíblico) tal enfoque místico queda descalificado a priori. El creyente documentado fehacientemente se mantendrá a la expectativa y esperará a que avance la Ciencia para que ésta confirme, por sí misma y a posteriori, dicha descalificación, y lo haga de manera contundente. Aquí es donde se vuelve a desempolvar, con toda su fuerza, la presunta frase de Pasteur citada anteriormente.

edu.red

Resultaría conveniente ahora, citar, al menos en parte, del artículo titulado "Misticismo cuántico", de Rafael Andrés Alemán Berenguer (Licenciado en Bioquímica por la Universidad de Valencia y en Física Fundamental por la UNED, Diplomado en Estudios Avanzados por la Universidad Miguel Hernández, actualmente investigador colaborador y doctorando en el departamento de Ciencia de Materiales, Óptica y Tecnología Electrónica de la Universidad de Elche, así como colaborador honorífico y doctorando en el grupo de astronomía y astrofísica del Departamento de Física, Ingeniería de Sistemas y Teoría de la Señal del Instituto Universitario de Física Aplicada a las Ciencias y a la Tecnología; autor de diversos artículos y libros de divulgación científica que gozan de muy buena acogida entre el público serio, tales como: Relatividad para todos, Física para todos, Evolución o diseño, Ciencia y apocalipsis, etc.), publicado por la Agrupación Astronómica de Alicante (España).

Siguiendo al profesor Berenguer, tenemos que la revolución conceptual que supuso la teoría de la relatividad caló hondo y con una rapidez inusitada entre amplios sectores del público no especializado. Tan curioso efecto se debió en gran parte a la subyugante personalidad de su autor, a su magnífica habilidad para exponer de forma atractiva los postulados de la teoría, y a otras circunstancias sociales e históricas que allanaron su camino. Esto no quiere decir que un individuo común y corriente de la sociedad de la época, ni de la actual, tuviese plena conciencia de las implicaciones científicas y filosóficas de la relatividad, pero sí se produjo en el ambiente público una difusa sensación de que la obra de Einstein había cambiado radicalmente la antigua concepción humana del universo.

Sin embargo, no ocurrió lo mismo con el nacimiento de la Teoría Cuántica, la cual pasó desapercibida para el gran público, haciéndose acreedora del calificativo de "revolución silenciosa". Los resultados de la física cuántica, no obstante, son por lo menos tan estremecedores como los de la relativista, aunque las tremendas complejidades formales de la teoría, unidas a la disparidad de interpretaciones acerca de la misma, han contribuido a mantenerla en la penumbra del escenario cultural a lo largo de casi todo el siglo XX. Ahora bien, la confirmación de algunas de sus consecuencias más controvertidas y el aluvión subsiguiente de opiniones sobre su correcta interpretación, han propiciado que en el último cuarto del siglo pasado la divulgación de la física cuántica viniese mezclada indebidamente con dudosas hipótesis parapsicológicas y una mística orientalista de nuevo cuño.

El exceso de misticismo que ha impregnado a la inmensa mayoría de las vulgarizaciones de la física cuántica deriva, en buena parte, del extravío de los filósofos por carencia de conocimientos físicos aceptables, a la vez que los físicos se han visto descarriados por una mala filosofía o metaciencia (vale decir: metafísica). Toda la extrañeza del mundo cuántico y sus implicaciones esotéricas giran en torno a la aparente capacidad del observador para influir sobre la realidad exterior y al hecho de que esa influencia sea independiente de la distancia (el "problema de la medida"). En efecto, si las partículas elementales se encuentran en una situación indefinida entre varios estados posibles hasta que una medición las saca de ella, diríase que el observador, a través de su acto de medida, influye decisivamente sobre la realidad externa. Parecería, pues, que no existe una realidad objetiva al margen de nuestras mediciones y que esta eventualidad abre la puerta a un universo de asombrosas paradojas en el que los fenómenos parapsicológicos serían moneda corriente, e incluso una mera banalidad (es decir, nada sobrenatural).

Frente a las intrincadas cuestiones suscitadas por el problema de la medición cuántica, han florecido distintas escuelas de pensamiento, cada una de ellas con su propia respuesta particular. Se adscriben al "idealismo cuántico" los que creen que el observador humano, en virtud de una facultad trascendente (conciencia, espíritu o algo así), determina la posibilidad que se materializará en la medición. Los "realistas cuánticos", o "materialistas cuánticos", sostienen que la realidad existe independientemente de que la observemos o no. La "interpretación de Copenhague", que todavía colea, aspira a situarse en una postura intermedia, según la cual lo único verdaderamente relevante es lo que podemos conocer por medio de nuestras medidas. En pocas palabras, éstas son, las líneas de pensamiento que con mayor o menor acierto han intentado dotar de significado a las ecuaciones de la teoría cuántica no relativista, y en ellas, por tanto, se han apoyado (y siguen apoyándose) los parapsicólogos y esoteristas, dispuestos a esgrimir los descubrimientos de la nueva física (actualmente no tan nueva) en defensa de sus respectivos credos.

edu.red

Es lícito, pues, plantearse si los autores que tan alegremente la manejan entienden cabalmente los entresijos de una construcción teórica tan profunda y compleja como es la física cuántica. Tal vez porque la respuesta es negativa, el mérito de haberse anticipado a ella ha sido recabado para Platón, Buda, Lao-Tse, Hegel, el obispo Berkley y el conde de Saint-Germain, sin que los auténticos expertos encuentren razón alguna que avale semejantes pretensiones. Esto no ha impedido que un reducido número de científicos —algunos de ellos de cierto renombre— hayan decidido internarse por la engañosa senda de lo paranormal confiando en que la nueva física aportará luz suficiente para desenredar cualquier confusión. Uno de ellos fue el físico francés Olivier Costa de Beauregard (1911-2007), para quien la combinación de mecánica cuántica y relatividad constituirá la panacea universal capaz de aportar explicación a la totalidad de los fenómenos parapsicológicos. El propio Costa participó en un debate sobre los resultados de los experimentos de Alain Aspect (1947-) respecto al entrelazamiento cuántico, proponiendo la existencia de partículas facultadas para remontar el tiempo y establecer las correlaciones observadas en dichas experiencias (huelga resaltar la gélida acogida que recibió esta hipótesis en el ámbito académico). Escribió un libro titulado "La physique moderne et les pouvoirs de l'esprit" (la física moderna y los poderes de la mente) en donde hace una firme defensa del "tú puedes", afirmando que la física cuántica es controlable por la mente y de que ésta podría permitir seleccionar aquellos sucesos más favorables o extraordinarios a favor nuestro.

La actividad divulgadora de Beauregard ha encontrado cuantiosos ecos, cada vez más altisonantes, en medio de una sociedad occidental carente de valores trascendentes y prisionera de un materialismo marchito. En este clima de hastío pragmático general y de resurgimiento espiritualista en determinados foros, merced a la interpretación mística del problema cuántico de la medida, aparecen personas "iluminadas", no necesariamente malintencionadas, que tienen mucho que ofrecer a una población vacía en cuanto a motivaciones idealistas y significado existencial.

Por ejemplo, la doctora Michelle Nielsen, canadiense y ciudadana internacional que vive en Barcelona (España), lleva más de 20 años ejerciendo su pasión de estudiar métodos para optimizar el potencial humano y su sanación. Después de 18 años trabajando como quiropráctica, ha estado en diferentes países ayudando a muchas personas a tratar de encontrar su verdadero potencial. Ha editado un libro que ha conseguido millones de ventas, a saber, "Los 10 pasos para atraer y manifestar la realidad que deseas. El método Creando a Matisse". En este libro encontramos 10 supuestos pasos prácticos y simples para intentar ayudar a las personas a conseguir todas sus metas usando la mente, el cuerpo y el espíritu. La doctora Nielsen es muy querida y respetada, tanto nacional como internacionalmente, y ha colaborado en diferentes artículos de investigación publicados en diferentes medios.

Da la impresión de ser una persona bastante altruista y completamente convencida de lo que predica. Su gran fuerza persuasiva parece provenir de su pleno convencimiento interior, así como de los resultados sorprendentes que afirma haber obtenido. Mediante su libro "Los 10 pasos… Creando a Matisse", así como a través de toda su acción docente, sostiene que es posible crear la realidad con nuestra propia mente apoyándonos en la "ley cuántica", de tal manera que si creemos algo con fuerza podremos constatar que se realiza ante nuestros ojos (el problema de la medida, sublimado y llevado al terreno de mundo occidental (ciencia, materialismo, industria, economía) y el oriental (espiritualidad, arte, creatividad, naturaleza), y esto se correlaciona con los hemisferios cerebrales derecho (creer para ver: pensamiento orientalista) e izquierdo (ver para creer: pensamiento occidentalista).

edu.red

También, en la misma línea, se introduce la noción de "maestros manifestadores" o personas capaces de transformar sus visiones y sueños en una realidad sin un esfuerzo aparente, al haber desarrollado todo su potencial cerebral de una manera genial. Como ejemplos de tales genios se cita a Bill Gates, Leonardo Da Vinci, Miguel Ángel (Michelangelo), Beethoven, Madonna, Pau Casals, Madre Teresa de Calcula, Nelson Mandela, Gandhi, etc. Se sugieren métodos de meditación, visualización, hipnosis, ensayo mental y afirmación para conseguir el desarrollo de todo el potencial cerebral. Por otra parte, se expone que no existen límites a toda esa supuesta potencialidad cerebral que se puede desarrollar, vertiéndola hacia mejorar la salud, aumentar la bonanza financiera, lograr éxito en el amor y la amistad, sanar el planeta, eliminar el hambre mundial y traer la paz.

Otros autores que abundan en este tipo de misticismo son Félix Torán, doctor en Ingeniería e ingeniero de la Agencia Espacial Europea, que en 2011 publicó el libro "Mente Cuántica Un proyecto hacia la felicidad" (cuyo índice contiene lo siguiente: ¿qué es la física cuántica?, lo que no es, todo es energía y todo es vibración, la dualidad onda-corpúsculo, el problema de la medida, el principio de superposición, otros asombrosos fenómenos, el vacío está muy lleno, dé ahora el salto cuántico hacia el éxito), el doctor Frank Kinslow, con su libro "La curación cuántica: un sistema rápido, sencillo y eficaz para eliminar cualquier dolor físico o emocional", y el británico Brian Josephson (premio Nobel de física en 1973, a los 33 años de edad, quien no vacila en proclamar su creencia en el "cuerpo astral" del ocultismo tradicional, y lo entiende como un envoltorio etérico que duplica nuestro cuerpo carnal fuera del espacio y del tiempo, siendo éste el responsable de los presuntos fenómenos extrasensoriales). Añadamos los nombres de Jack Sarfatti, Russel Targ y Harold Puthoff, quienes se han distinguido públicamente por hacer una defensa de fundamentos mediocres sobre poderes mentales diversos. Etcétera.

Junto a la reivindicación de lo parapsicológico, cosa perfectamente comprensible a causa del ingente arsenal de fenómenos inexplicables que han sido miopemente ignorados por la dominante ciencia materialista, asistimos al rebrote de una visión del mundo de tipo ocultista. Se trata de una nueva manifestación del misticismo esotérico, que busca cobijarse a la sombra de los modernos hallazgos de la física teórica, proclamando desde algunos foros que el esoterismo y la mística han sido refrendados por los últimos avances de la ciencia. Esta mística moderna no se ha privado de presentar los descubrimientos de la mecánica cuántica no relativista (e incluso relativista) como éxitos a anotar en la cuenta de sus propias creencias, solicitando que los postulados y explicaciones del misticismo sean aceptados como solución plausible a las paradojas cuánticas.

Partes: 1, 2, 3, 4
 Página anterior Volver al principio del trabajoPágina siguiente