Descargar

Ciencia y pensamiento en Europa: Apogeo y crisis de la razón moderna, 1848-1927 (página 2)

Enviado por Eugenia Sol


Partes: 1, 2

La crítica a la representación mecanicista de la Naturaleza es desde los postulados machianos radical: "No existe ningún fenómeno puramente mecánico… El movimiento es en realidad multitud de uniones de variaciones térmicas, magnéticas y eléctricas que, en la medida que se producen, modifican el fenómeno… Los fenómenos puramente mecánicos son por tanto abstracciones requeridas cuyo objetivo es facilitar al máximo su examen… La opinión que hace de la mecánica la base fundamental de todas las otras ramas de la física, y según la cual todos los fenómenos físicos deben recibir una explicación mecánica, es únicamente un prejuicio… La concepción mecánica de la naturaleza se nos aparece como una hipótesis, puede ser muy útil por un tiempo, pero no deja de ser artificial… debemos limitar nuestra ciencia física a la expresión de los hechos observables sin construir hipótesis detrás de los hechos…".

Que Mach llegase a mantener y defender semejantes posturas refleja la crisis de los fundamentos acaecida en el último tercio del siglo XIX. Mach no era en la cultura europea del cambio de siglo un personaje ex-céntrico, situado al margen de la ciencia oficial. El debate filosófico sobre la distinción entre sujeto y objeto, la crisis de la posición dominante del sujeto, la negación del estatus privilegiado que gozaba en la filosofía y, por extensión, en la cultura a partir de la filosofía de la Ilustración y su continuación en Kant y Hegel, encontró su correlato en el papel central ocupado hasta entonces por el observador, el científico, y su capacidad para normativizar la naturaleza a través de la promulgación de leyes naturales de cumplimiento estricto. Mach con su llamada a la observación directa de los fenómenos naturales trata de escapar fallidamente a este crucial dilema. Su vuelta al empirismo no hace sino reflejar dicha crisis.

Paralelamente, Friedrich Nietzsche desarrolló su crítica al pesimismo schopenhaueriano, avanzando en la dirección de negar todo fundamento esencial a cualquier construcción científica. Para Nietzsche, detrás de los fenómenos no existía nada. La afirmación de los nexos causales entre los fenómenos, describirlos como leyes, situar la relación sujeto-objeto como relación entre una naturaleza -constituida por materia, nexos causales, leyes- y un sujeto como receptáculo de formas transcendentales no era posible desde el momento en que se renunciaba al concepto de verdad como comprensión de la constitución absoluta de las cosas. Para Nietzsche no existía un mundo verdadero. En este sentido, Nietzsche profundizó en la quiebra de la representación mecanicista del Mundo, concluyendo que de "el hecho de que algo suceda regularmente y de un modo calculable no se deduce que suceda necesariamente". La necesidad del acontecer no es demostrable: "La necesidad no es un hecho sino una interpretación". Nietzsche fue más allá del objetivo machiano de la refundación empírico-positiva de la física clásica.

Sin embargo, fue la crítica machiana y no la de Nietzsche la que ejerció un fuerte impacto en el pensamiento del cambio de siglo, tanto en la ciencia como en la filosofía. Fue Mach y no Nietzsche el que se situó como antecedente inmediato, públicamente reivindicado, del neopositivismo que surgió en los primeros decenios del siglo XX en Austria y Alemania.

edu.red

Los fundadores del Círculo de Viena y del neopositivismo berlinés encontraron en el fenomenismo radical de Mach el camino a seguir para eliminar toda metafísica de la filosofía. Su programa pretendía llevar al terreno de la Filosofía la crítica machiana a la metafísica de la representación mecanicista. Se trataba, pues, de refundar la Filosofía sobre unas bases científicas. La filosofía quedaba reducida, para los integrantes del Círculo de Viena, a una Lógica cuyo objetivo consistía en determinar las condiciones generales y formales que permitiesen la existencia del lenguaje, cualquiera que fuese su tipo. En Inglaterra, en Oxford y Cambridge, se desarrolló algunos años más tarde la Filosofía Analítica, bajo la influencia -y su particular interpretación– de las obras de Ludwig Wittgenstein posteriores al Tratactus logico-philosophicus, que hizo del análisis del lenguaje común el objetivo de la filosofía. El lenguaje, esto es, el análisis de los significados y de los usos lingüísticos, desempeñaba para los neopositivistas una función análoga a la que cumplía la experiencia en el empirismo decimonónico, es decir, la de criterio o norma de la investigación filosófica que elimina la metafísica de la Filosofía.

La revolución de los fundamentos de la razón moderna

Llegados a este punto es preciso apuntar que la crisis de los fundamentos que tuvo lugar durante el último tercio del siglo XIX no puede ser contemplada como la crisis de la Modernidad, entendida ésta como la destrucción de los fundamentos epistemológicos que estructuraron el Saber moderno. Tuvo que desarrollarse la revolución científica de la física contemporánea, mediante la aparición de la Teoría de la Relatividad y de la Mecánica Cuántica para que esta crisis de los fundamentos desembocara en revolución de los fundamentos sobre los que se asentaban presupuestos epistemológicos básicos que habían configurado la episteme clásica, razón de ser de las formas del Pensar que han dominado la cultura occidental en los últimos tres siglos.

La Teoría de la Relatividad: la destrucción del Tiempo y del Espacio absolutos.

Los motivos aducidos por Einstein, en su artículo de 1905, para formular la Teoría Especial de la Relatividad, sólo mencionan de manera genérica y de pasada algunos problemas de carácter práctico. Sobre una base tan vaga -que no hace sino confirmar que las inquietudes de Einstein no residían fundamentalmente en problemas de carácter experimental- estableció que "las mismas leyes de la electrodinámica y de la óptica son válidas en todos los sistemas de referencia para los que son ciertas las ecuaciones de la mecánica". Esta conjetura fue elevada a la categoría de postulado como Principio de Relatividad; al que seguió un segundo postulado: "la constancia de la velocidad de la luz en el vacío independientemente del estado de movimiento del cuerpo emisor". Mediante estos dos postulados Einstein consideró que era posible "obtener una teoría simple y coherente de la electrodinámica de los cuerpos en movimiento basada en la teoría de Maxwell para los cuerpos estacionarios", eliminando la problemática existencia del éter, que durante la segunda mitad del siglo XIX no había hecho sino complicar extraordinariamente la teoría electromagnética, debido a la necesidad de encontrar un medio que fuera soporte de las ondas electromagnéticas: "la introducción de un éter lumífero resultará superfluo en tanto en cuanto la concepción que aquí vamos a desarrollar no requiere un espacio absolutamente necesario provisto de propiedades especiales, ni necesita asignar un vector velocidad a un punto del espacio vacío en el que tienen lugar los procesos electromagnéticos".

edu.red

Para Einstein fue motivo suficiente la existencia de "ciertas asimetrías" de la teoría "que no parecen ser inherentes a los fenómenos" para llevar a cabo una reformulación completa de la electrodinámica tal como era entendida hasta entonces. Para ello sólo era preciso, una vez aceptados los dos postulados por él propuestos, aceptar que "las leyes de la física son invariantes con respecto de las transformaciones de Lorentz (para el paso de un sistema inercial a otro sistema inercial cualquiera)".

Einstein modificó radicalmente, con la Teoría Especial de la Relatividad, la forma de ver la física, mediante una nueva formulación de los conceptos de Espacio y Tiempo. Para ello recurrió a una nueva definición del concepto de simultaneidad, según el cual "Cada cuerpo de referencia (sistema de coordenadas) tiene su tiempo especial; una localización temporal tiene sólo sentido cuando se indica el cuerpo de referencia al que remite". Desaparecido así el tiempo absoluto característico de la Mecánica clásica, la crítica epistemológica de Mach se convirtió en crítica desde la teoría física. El tiempo absoluto dejó de ser necesario para la Física y se conviertió en un elemento superfluo que estorbaba a la propia teoría física. La ruptura con la física clásica aparece aquí de forma evidente. Otro tanto ocurrió con el concepto de espacio absoluto. El concepto de distancia espacial entre dos puntos de un cuerpo rígido se encuentra en función del sistema de referencia y sólo en este sentido puede ser empleado en Física. La reinterpretación de Einstein de las ecuaciones de Lorentz permitió establecer la transformación de las magnitudes espacio-temporales de un suceso al pasar de un sistema de referencia a otro. Einstein señalaba así su carácter de grupo, que no exigía la existencia de un sistema inercial privilegiado, diferente de los demás sistemas por su estado de reposo (espacio absoluto).

Claro que esto que parecía tan sencillo a primera vista, suponía el fin de la vieja ilusión mecanicista, con lo que todo el edificio de la Física clásica, que tantos esfuerzos había costado levantar, se tambaleaba peligrosamente. Estas son las razones que explican la incapacidad de Lorentz para interpretar correctamente las ecuaciones de transformación que él mismo había descubierto, atrapado como estaba por la epistemología de la Física clásica, de manera similar Poincaré no llegó a generalizar su principio de relatividad. Tuvo que ser Einstein quien cortase el nudo gordiano, haciendo desaparecer de la faz de la Física el espacio y el tiempo absolutos newtonianos.

La teoría Especial de la Relatividad analizaba y resolvía los problemas físicos de los cuerpos en movimiento en sistemas de referencia inerciales, pero dejaba fuera de su campo de aplicación toda una serie de problemas físicos, como los del campo gravitatorio y la no-equivalencia de todos los cuerpos de referencia de Galileo, de cara a la formulación de las leyes naturales. Einstein dedico buena parte de sus esfuerzos intelectuales en los siguientes diez años a generalizar la relatividad especial. En otras palabras, con la Relatividad Especial los sistemas inerciales parecían seguir ocupando una posición privilegiada, "lo que le daba un aire artificial al uso de coordenadas en movimiento", al quedar excluidos de ella los sistemas de referencia no inerciales, es decir, los sistemas de referencia de movimiento no uniforme.

Einstein llegó pronto, en 1907, al convencimiento de que en el marco de la Teoría de la Relatividad Especial no había lugar para una teoría satisfactoria de la gravitación. En el proceso de generalización de la Relatividad Especial se percató enseguida de la igualdad existente entre masa inercial y masa pesante, de donde se deducía que la aceleración gravitatoria es independiente de la naturaleza del cuerpo que cae. Esta igualdad ya había sido registrada por la física clásica, pero no había sido interpretada. El reconocimiento por parte de Einstein de que "la misma cualidad" del cuerpo se manifiesta como inercia o como gravedad, le condujo a establecer el principio de equivalencia; según el cual, un sistema de referencia acelerado libre de la acción de cualquier campo gravitacional es equivalente a un sistema de referencia en reposo afectado por la acción de un campo gravitacional. Esta equivalencia es aplicable a todas las leyes de la física, por lo que debían comportarse igual en los dos sistemas de referencia. De esta forma, Einstein encontró en 1907 el camino por el que podía ser generalizada la Relatividad Especial a los sistemas de referencia de movimiento uniformemente acelerado, es decir, el medio de aplicar las ecuaciones relativistas a un campo gravitatorio homogéneo.

La abolición del concepto de simultaneidad absoluta por la Relatividad Especial ponía en cuestión la acción directa a distancia introducida por la ley de gravitación de Newton. De acuerdo con la mecánica clásica, la aceleración vertical de un cuerpo en un campo gravitatorio vertical es independiente de la componente horizontal de su velocidad. Pero en la formulación de Einstein, la aceleración de un cuerpo que cae no es independiente de su velocidad horizontal o energía interna del sistema, este resultado entraba en contradicción con el hecho experimentalmente demostrado de la igualdad de las masas pesante e inercial, por la que todos los cuerpos sometidos a un mismo campo gravitatorio adquieren la misma aceleración. Ello condujo a Einstein a la convicción de que no era posible tratar el problema de la gravitación dentro de la estructura de la Relatividad Especial. El principio de equivalencia convenció, sin embargo, a Einstein de que era posible la generalización del principio de relatividad a los sistemas de coordenadas con aceleración variable entre sí, lo que desembocaría en una nueva teoría del campo gravitatorio. La solución al problema se demoró varios años, hasta que Einstein encontró en la geometría no euclídea de Reimann el instrumento eficaz para representar el campo gravitatorio dentro del espacio-tiempo relativista.

edu.red

En la Teoría de la Relatividad General, completada por Einstein en 1916, planteó una nueva ley general de la gravitación acorde con la física relativista, que eliminaba la acción instantánea a distancia de la teoría de la gravedad de Newton, dando cuenta del avance del perihelio de Mercurio -algo que no podía explicar la ley de gravitación newtoniana- y de la curvatura de la trayectoria de los rayos luminosos bajo la acción de intensos campos gravitatorios. En el campo gravitatorio relativista relojes sincronizados marcharían a distinta velocidad según su posición en el mismo. De tal manera que, resultaba imposible dar una definición exacta del tiempo dentro de un campo gravitatorio. Otro tanto ocurría a la hora de efectuar una definición de las coordenadas espaciales; éstas variaban en función de cómo se situaban dentro del campo gravitatorio. Tales resultados llevaron a la conclusión a Einstein de "que los teoremas de la geometría euclidea no pueden cumplirse exactamente sobre el disco rotatorio ni, en general, en un campo gravitacional… También el concepto de línea recta pierde con ello su significado".

Einstein se vio obligado a abandonar la geometría euclidea como marco en el que se desenvolvía el espacio-tiempo bajo la acción de un campo gravitatorio, rompiendo radicalmente con la representación espacial de la física clásica. Einstein recurrió a la utilización de coordenadas gaussianas como el método de aplicación adecuado a medidas -distancias- no euclideas, características del continuo espacio-temporal bajo el efecto de un campo gravitatorio.

En los campos gravitatorios, según la Relatividad General, no existen cuerpos rígidos con propiedades euclideas. La ficción del cuerpo de referencia rígido fracasa; a la vez que los campos gravitatorios influyen de forma directa en la marcha de los relojes, de tal manera que una definición física del tiempo con la ayuda de relojes no posee ni mucho menos el grado de evidencia que tiene en la Relatividad Especial.

edu.red

Con la Relatividad General desaparecía toda existencia de marcos de referencia privilegiados -con la relatividad especial éstos eran los sistemas inerciales-. En el continuo espacio-temporal curvo de la Relatividad General la trayectoria más corta -que es la recorrida por un rayo de luz- es una línea geodésica, por lo que la afirmación euclideana de que las líneas paralelas nunca se encuentran dejan de tener sentido en el espacio-tiempo.

La comprobación de la curvatura de la trayectoria de los rayos lumínicos por la acción de un campo gravitatorio fue realizada por las expediciones de sir Arthur Stanley Eddington y Crommelin, que estudiaron el eclipse solar del 29 de mayo de 1919; sus resultados abrieron el paso al reconocimiento generalizado de la Teoría de la Relatividad, vencidas las fuertes resistencias iniciales, dentro de la comunidad científica, para aceptar una teoría que rompía con una buena parte de los presupuestos epistemológicos que durante siglos habían sido tenidos por verdades inmutables.

A finales del siglo XVIII, como señala Koyré: "El Dios newtoniano reinaba plenamente en el vacío infinito del espacio absoluto". El Universo se tornó infinito tanto en el espacio como en el tiempo, por la influencia de los principios de plenitud y de razón suficiente. El Universo infinito de la cosmología moderna se transformó así infinito en duración y en extensión, donde la materia eterna, de acuerdo con leyes necesarias y eternas, se movía sin fin y sin objeto en el espacio eterno. Con la Relatividad General el Universo infinito de la cosmología moderna saltó hecho añicos. La Teoría de la Relatividad General puso fin a la visión clásica del Universo, provocando una profunda y radical transformación de los presupuestos sobre los que se sustentaba la Cosmología clásica, un nuevo Universo finito y sin límites, en el continuo espaciotemporal no euclideo, abrió las puertas a la nueva Cosmología contemporánea.

La mecánica cuántica: la destrucción de la validez universal del principio de causalidad estricto.

Si bien la teoría de la Relatividad eliminó algunos de los presupuestos epistemológicos básicos de la física clásica, como el espacio y el tiempo absolutos, sobre los que se asentaba la representación moderna del Universo, no puso en cuestión la representación determinista de la Naturaleza característica de la época Moderna. Ésta se asentaba en la validez universal del principio de causalidad clásico, cuyas premisas no quedaban afectadas por la revolución relativista, no resultando afectado, pues, el criterio de realidad dominante en la física moderna, postulado básico de la teoría del conocimiento desarrollada en la época Moderna.

Sin embargo, este pilar fundamental del Saber moderno pronto se vería sometido a una profunda crisis, como consecuencia del desarrollo de la Mecánica Cuántica, que cuestionó seriamente la validez universal del principio de causalidad clásico, arrastrando con ello el criterio de realidad sobre el que se había desarrollado la física moderna. El inicio de esta fractura epistemológica se sitúa en la introducción del cuanto de acción por Max Planck en 1900, resultado de su investigación sobre el problema de la radiación del cuerpo negro.

edu.red

Planck al embarcarse en su programa de investigación sobre la radiación del cuerpo negro en 1897 pretendía resolver los problemas planteados por dicho fenómeno a la física de su tiempo, a la vez que trataba de demostrar el carácter fundamental de la segunda ley de la termodinámica. Creía que si podía demostrar el aumento de entropía en el caso de la radiación del cuerpo negro habría conseguido fundamentar sobre bases sólidas lo segundo. Para ello recurrió al método estadístico de Ludwig Boltzmann. Planck fue más allá que Boltzmann, al dar un carácter físico a la división de la energía en elementos. Con ello introdujo el cuanto de energía como una realidad física, al subdividir el continuo de energía en elementos de tamaño finito, asignándoles un valor constante y proporcional a su frecuencia. Este paso que rompía radicalmente con la física del siglo XIX, al introducir la discontinuidad en la emisión y absorción de energía, hecho del que no se percató el propio Planck cuando estableció su teoría de la radiación del cuerpo negro, y que tardaría en reconocer cerca de diez años por la repugnancia epistemológica que ello le producía.

La fórmula de Planck por la que se establecía una igualdad entre la energía concebida como discontinua y la energía considerada continua, en función del carácter ondulatorio de la frecuencia, resultaba completamente extraña para los físicos de la época. Sólo Einstein comprendería el problema en toda su magnitud, al postular en 1905 la existencia de partículas de la luz -fotones-, y con ello establecer el carácter corpuscular y ondulatorio de la luz. Una posición que gozó de la animadversión del resto de los físicos, entre ellos el propio Planck, que atrapados por la teoría ondulatoria de la luz, dominante desde la segunda mitad del siglo XIX, no podían concebir un comportamiento a primera vista tan contrario con los postulados de la física. Tan sólo en 1922, con la introducción del efecto Compton y el desarrollo de la Mecánica Cuántica a partir de 1926-27, la solución propuesta por Einstein se abrió camino.

En 1906 Planck había identificado el cuanto de acción, estableciendo además su carácter de constante universal, pero aún no había llegado a la conclusión de que dicho descubrimiento suponía introducir la discontinuidad en la física. Fue Ehrenfest el primero en señalar que la teoría de Planck constituía una ruptura con la teoría clásica, al indicar que la cuestión fundamental de la teoría de Planck radicaba en el tratamiento probabilístico del campo. A conclusiones similares, pero por caminos distintos, llegó Einstein en las mismas fechas, al defender que durante la absorción y la emisión la energía de un resonador cambia discontinuamente en un múltiplo entero.

Einstein insistió en 1909 en la necesidad de proceder a una profunda reforma de la teoría clásica de la radiación y, por tanto, abandonar la interpretación clásica de la teoría de Planck, al resaltar que ésta se aparta del tratamiento estadístico realizado por Boltzmann para la teoría de los gases, debido a la incorporación de elementos de energía discontinuos y múltiplos enteros de una constante universal, el cuanto de acción, multiplicada por la frecuencia. Einstein fue más allá, cuando se refirió a la necesidad de introducir la discontinuidad en la física no sólo en lo referente a la teoría del cuerpo negro, ya que ésta excedía el marco de interacción entre materia y radiación.

edu.red

El siguiente gran paso no se produjo hasta 1913, cuando Niels Bohr aplicó la distribución cuántica de la energía para explicar el comportamiento de los electrones en el seno de la estructura atómica. Bohr resolvió así las dificultades del modelo atómico de Ernest Rutherford, al explicar por qué el átomo no emitía radiación de forma continua y los electrones no se precipitaban sobre el núcleo permaneciendo en órbitas estacionarias. Sin embargo, el modelo atómico de Bohr no estaba exento de dificultades teóricas, debidas a la introducción del cuanto de acción para explicar las transiciones energéticas del electrón. Ello implicaba que las transiciones entre los diferentes estados energéticos del átomo se producían mediante saltos cuánticos, algo que resultaba absolutamente incompatible con la teoría clásica que postulaba transiciones continuas de un estado de energía a otro. La dificultad se veía agravada por el recurso en la misma teoría a los principios de la mecánica y el electromagnetismo clásicos, para definir la carga y la masa del electrón y del núcleo atómico. La utilización dentro del mismo modelo atómico de dos teorías, la clásica y la cuántica, incompatibles entre sí generaba enormes dificultades teóricas, que no fueron resueltas hasta la aparición de la Mecánica Cuántica en 1926-27.

Los experimentos de James Frank y Gustav Hertz de 1914 demostraron que la cuantización de los niveles de energía de los átomos constituía una propiedad de la materia muy general, incompatible con la teoría corpuscular clásica de la materia, pues para ésta última la energía en un sistema de corpúsculos clásicos es una magnitud continua.

edu.red

En 1917, Einstein propugnó una nueva deducción de la fórmula de radiación de Planck, con el fin de resolver el problema de cómo explicar la frecuencia y la intensidad que acompaña a toda vibración armónica, mediante la sustitución del concepto clásico de intensidad de la radiación por el concepto estadístico de probabilidad de transición de un estado estacionario a otro. Con ello Einstein destacó el carácter fundamental de la descripción estadística. Sin embargo, las investigaciones sobre dispersión y difusión de la luz, realizadas entre 1921 y 1925 por Landenburg, Kramers y Heisenberg, pusieron de manifiesto que la formulación introducida por Einstein, de la probabilidad de transición basada en la mecánica estadística, resultaba insuficiente para explicar la intensidad de una onda.

La publicación de un artículo de Werner Karl Heisenberg, en 1925, representó un salto cualitativo en la resolución de los problemas que aquejaban a la teoría cuántica del átomo de Bohr, al proponer la necesidad de abandonar el concepto clásico de órbita electrónica e introducir un nuevo formalismo matemático, que sería desarrollado inmediatamente por Max Born y Pascual Jordan, consistente en la aplicación de la matemática de matrices. Nacía así la mecánica matricial, sobre la que se fundaría la Mecánica Cuántica. Paralelamente, Dirac llegó a resultados similares en Cambridge.

edu.red

Por las mismas fechas, 1924-1926, se desarrolló la Mecánica ondulatoria por Louis De Broglie y Erwin Schrödinger. De Broglie generalizó la dualidad onda-corpúsculo de la luz, establecida por Einstein en 1905 para el caso del electrón, señalando que esta dualidad se encontraba íntimamente asociada a la existencia misma del cuanto de acción. Se trataba, en definitiva, de asociar al movimiento de todo corpúsculo la propagación de una onda, ligando las magnitudes características de la onda a las magnitudes dinámicas del corpúsculo, mediante relaciones en las que intervenía la constante de Planck. Su propuesta encontraba serias dificultades teóricas, pues había sido desarrollada desde la óptica geométrica, cuyos resultados eran problemáticos de aplicar en el interior del átomo, lo cual planteaba la necesidad de desarrollar una nueva mecánica de carácter ondulatorio, que resolviese tales dificultades e incorporase los resultados de De Broglie. Esta nueva mecánica ondulatoria fue desarrollada por Schrödinger en los primeros meses de 1926, en ella señaló que los estados estacionarios de los sistemas atómicos podían representarse por las soluciones propias de una ecuación de ondas, cuyo formalismo matemático encontraba fundamento en la solución de Hamilton respecto de la analogía formal existente entre los sistemas mecánicos y ópticos.

La situación no podía dejar de ser más confusa. Por una parte, el desarrollo de la nueva mecánica matricial ofrecía una teoría que resolvía matemáticamente los problemas que habían aquejado a la primera teoría cuántica, sobre la base de la consideración corpuscular del electrón, obviando su posible comportamiento ondulatorio. Por otra parte, la mecánica ondulatoria de Schrödinger se basaba en el comportamiento ondulatorio del electrón y obviaba el posible carácter corpuscular del electrón. Dos teorías que en principio parecían radicalmente contradictorias, alcanzaban sin embargo resultados similares.

La situación se complicó aún más por la interpretación clásica que Schrödinger hizo de la ecuación de ondas, que perseguía eliminar los saltos cuánticos y la discontinuidad de los procesos atómicos, sobre la base de interpretar la función de onda de su ecuación desde la perspectiva de la teoría clásica de la radiación electromagnética. En otras palabras, interpretó la teoría cuántica como una simple teoría clásica de ondas, en la que era negada categóricamente la existencia de niveles discretos de energía. La interpretación clásica de Schrödinger encontró una gran audiencia entre los físicos, pues eliminaba el contrasentido de los saltos cuánticos que amenazaba a todo el edificio de la física clásica. Dicha interpretación fue contestada por Niels Bohr, Werner Heisenberg y Max Born.

edu.red

Fue Max Born quien resolvió la polémica y clarificó la situación, mediante su interpretación estadística de la ecuación de ondas de Schrödinger, al poner de manifiesto el carácter equivalente de la mecánica matricial y la mecánica ondulatoria. Born sostenía que en los procesos individuales no era posible determinar con exactitud el estado de la partícula, sino que sólo podía establecerse la probabilidad del estado de la partícula, como consecuencia de la existencia del cuanto de acción. De esta manera, la función de la ecuación de ondas debía ser interpretada como la probabilidad de encontrar al electrón en el espacio de configuración determinado por el cuadrado de la función de ondas, no siendo posible una determinación exacta de la posición del electrón. En otras palabras, Born demostró que la ecuación de ondas de Schrödinger sólo podía ser interpretada de una forma probabilística.

La interpretación probabilista de la mecánica cuántica realizada por Max Born, completada por la teoría de la transformación de Dirac y Jordan, constituyó un avance sustancial en la comprensión del significado de la nueva mecánica cuántica, al señalar el carácter físico de la probabilidad cuántica. La interpretación estadística de Born constituía una profunda ruptura con los conceptos y los fundamentos epistemológicos de la física clásica, al establecer que la nueva mecánica cuántica, basada en la discontinuidad y el carácter probabilístico de las predicciones físicas, debía sustituir en el nivel cuántico, al menos, a la mecánica newtoniana.

edu.red

La aparición en 1927 del artículo de Heisenberg en el que establecía las relaciones de incertidumbre como un principio físico fundamental, al postular que no era posible conocer simultáneamente la posición y el impulso -velocidad- de una partícula, no hizo sino profundizar dicha fractura epistemológica, al romper radicalmente con la antigua pretensión de la Física Moderna de alcanzar, mediante el conocimiento completo de todos los fenómenos físicos del Universo en un instante dado, la determinación absoluta hacia el pasado y hacia el futuro de todos los fenómenos físicos del Universo, en función de la validez universal del principio de causalidad estricto, origen y fundamento de la representación determinista de la Modernidad.

Para poder apreciar el papel que desempeñó el principio de incertidumbre en la renuncia del principio de causalidad estricto, conviene recordar que en la mecánica clásica son justamente los valores iniciales y los ritmos iniciales de cambio de todas las variables mecánicas, que definen el estado de un sistema dado, los que determinan los movimientos futuros del sistema en cuestión. Sin embargo, de acuerdo con el principio de incertidumbre, existe una limitación fundamental, derivada de las mismas leyes de la naturaleza en el nivel cuántico, consecuencia de la existencia del cuanto de acción, que hace imposible la predicción determinista del comportamiento de los procesos físicos cuánticos, debido a su naturaleza esencialmente probabilística.

edu.red

Las consecuencias epistemológicas que se desprendían de la nueva Mecánica Cuántica eran de tal magnitud que daban al traste con los presupuestos epistemológicos hasta entonces tenidos por básicos para la construcción de toda teoría física, hasta el punto de replantear el propio concepto de realidad sobre el que se había sustentado la construcción de la Física Moderna desde su nacimiento. Ello provocó una fuerte polémica entre los defensores y detractores de la mecánica cuántica, centrada en el alcance de las consecuencias epistemológicas y la interpretación que debía realizarse de la nueva teoría cuántica. La fractura era tan radical que tanto Planck como Einstein se negaron hasta su muerte a aceptar los resultados de la mecánica cuántica, al considerar que significaba el fin de la física como teoría comprensiva de la Naturaleza.

edu.red

La destrucción de la validez universal del principio de causalidad estricto, y con ella el desmoronamiento de la representación determinista característica de la época Moderna, introducía una nueva manera de representar la Naturaleza con hondas repercusiones sobre la configuración del Saber actual. La razón de tal aserto se encuentra en el papel central que la representación determinista ocupó en la episteme clásica, extendiéndose desde ahí a todos los ámbitos del Saber occidental, dando razón de ser de la representación de la Naturaleza, del Universo y de la Sociedad sobre los que se había fundamentado la cultura occidental de los últimos tres siglos. Con la mecánica cuántica esta pretensión totalizadora de la representación determinista es despojada de su pretendido carácter científico, la validez del principio de causalidad estricto como condición sine qua non para la existencia de toda posibilidad de conocimiento era eliminada.

La crisis de los fundamentos que se desarrolló entre el último tercio del siglo XIX y la revolución científica del primer tercio del siglo XX en el campo de la Física encontraría correlato durante el período de entreguerras en la denominada, por los contemporáneos, crisis de la civilización occidental que afectó a los círculos ilustrados de la opinión pública europea durante los primeros años del decenio de 1920. En este período se encuentran los orígenes históricos de la profunda crisis que atraviesa el Saber y la cultura occidentales, entendida ésta como el desmoronamiento de los códigos elementales sobre los que se sustentó el pensamiento occidental en la época moderna. La quiebra de la representación determinista se reveló, desde esta perspectiva, en toda su magnitud; su recuperación, su reconstrucción devinó así una tarea imposible, como fue imposible también retornar al Saber medieval después de Newton. La situación por la que atraviesa la cultura occidental desde entonces se caracteriza por su condición abierta, en el sentido de que la nueva episteme, la nueva configuración del Saber no ha concluido aún, dando lugar a una representación acabada de la Naturaleza, el Universo y la Sociedad, como ocurrió en la época clásica. El Saber actual no ha sido todavía normativizado, al igual que en los siglos XVI y XVII la representación de la Naturaleza procedente de la revolución científica moderna no había sido cerrada

 

Enviado por:

Eugenia Sol

Partes: 1, 2
 Página anterior Volver al principio del trabajoPágina siguiente