Descargar

Mecánica cuántica

Enviado por Juan Pablo Vasco


    1. Resumen
    2. Espectro de radiación del cuerpo negro
    3. El efecto fotoeléctrico
    4. El átomo de Bohr
    5. Principio de complementariedad
    6. Dualidad onda-partícula
    7. El principio de incertidumbre
    8. La antimateria
    9. Interpretaciones
    10. Paradoja del gato de Schrödinger
    11. Referencias bibliográficas

    Resumen

    Abordamos, a nivel conceptual, el fascinante y paradójico mundo de la mecánica cuántica, comenzando desde la cuantificación de la energía de Planck, pasando por los grandes aportes de Dirac, Born y Srchödinger, hasta llegar a las más impresionantes interpretaciones filosóficas.

    IntroducciónEl inicio formal de la física puede remontarse al año 1687, fecha en que el brillante físico Isaac Newton (conocido como el padre de la física), publica su libro: principios matemáticos de filosofía natural, en el que se abrevia todo su trabajo sobre el movimiento de los cuerpos. Newton resumió toda la mecánica, tanto celeste como la de cuerpos en tierra, en tres leyes fundamentales, con la cuales osaba explicarlo todo.

    Uno de los fenómenos explicados por aquél fue la propagación de la luz, que según él estaba compuesta de partículas diminutas con velocidad finita llamadas corpúsculos; esta hipótesis estaba fundamentada en la similitud que presentaban los choques de cuerpos macroscópicos con la reflexión de la luz (básicamente, notó que el ángulo que formaba un rayo de luz con respecto a la normal de la superficie después de ser reflejado, era igual al ángulo de incidencia; que es lo que ocurre con cuerpos que chocan contra superficies planas). Christiaan Huygens, contemporáneo de Newton, había desarrollado una teoría ondulatoria de la luz: según éste, la luz era una onda como las que se forman en un estanque al perturbar el agua, y así como éstas tienen un medio para propagarse (el líquido), la luz era producida por perturbaciones de un medio llamado éter. Esta teoría casi que fue desechada, pues los fenómenos que podían explicarse con aquella, también podían ser explicados con la teoría corpuscular (además Newton tenía un gran poder científico en aquella época). No fue sino hasta casi cien años después, que el ingles Thomas Youg comprobó experimentalmente la naturaleza ondulatoria de la luz por medio de un fenómeno que "sólo" es propio de las ondas: la producción de franjas de interferencias debido a la desviación (difracción) de una onda circular al pasar por un agujero más pequeño que la longitud de onda de ésta. Aun así Youg fue capaz de demostrar la naturaleza ondulatoria de la luz, no fue tomado muy en serio, pues Newton era considerado como un Dios en aquella época (aún después de muerto) y se seguía con la concepción corpuscular; Sólo fue hasta que científicos como Fresnel y Maxwell corroboraron por completo la naturaleza ondulatoria de la luz, que "todos" quedaron convencidos de esta propiedad. Los científicos de la época creían poder explicarlo todo con la mecánica de Newton y la teoría electromagnética de Maxwell; pero no fue sino hasta finales del siglo XIX que la física entro en una profunda crisis, pues dos fenómenos inexplicables con las teorías disponibles estaban "matando" a los físicos: La propagación de la luz (¿existe el éter?) y el espectro de radiación del cuerpo negro. El primero da origen a la física relativista, y el segundo da origen a la física cuántica.

    Espectro de radiación del cuerpo negroCuando se estudia la radiación electromagnética producida por un cuerpo caliente común, se deben tener en cuenta los "errores introducidos" por la energía que éste refleja. Los físicos, a finales del siglo XIX, querían estudiar de qué forma era el espectro de radiación de un cuerpo que no reflejase energía; así pues, optaron por un cuerpo negro, que en teoría es capaz de absorber toda la energía suministrada.

    Teóricamente un cuerpo con estas características, al calentarlo, emite luz (radiación electromagnética); esta luz aumenta poco a poco su longitud de onda a medida que el cuerpo se va haciendo más caliente, hasta el punto de llegar al espectro visible. Se disponía pues de dos leyes para predecir el comportamiento de un cuerpo en estas condiciones: la primera es la ley de Stefan, la cual postula que el poder emisor de un cuerpo negro (la potencia, o lo que es igual: la cantidad de energía por segundo) es proporcional a la cuarta potencia de la temperatura; La segunda es la ley de Wien-Golitzin, la cual postula que al elevarse la temperatura del cuerpo negro, la longitud de onda correspondiente al máximo del espectro va haciéndose más pequeña, desplazándose hasta el violeta. Con la primera ley no hay problema; pero la observaciones no concordaban con la segunda, pues a medida que la temperatura aumentaba, el máximo correspondiente a la longitud de onda se hacía azul y no violeta. Así pues, se trataron de unificar estas dos leyes y "repararlas", este trabajo fue conseguido por los físicos Rayleigh y Jeans, pero esta nueva ley unificada tan sólo podía explicar la curva del espectro en los intervalos del amarillo y el naranja, pues para el violeta, el ultravioleta y longitudes más cortas predecía que la intensidad de la radiación crecía ilimitadamente, lo cual era absurdo. La física clásica entró en crisis. Max Planck era uno de lo físicos que estaba tratando de explicar la curva del espectro obtenido. Aquél, a diferencia de otros colegas, optó por tratar de obtener la ecuación matemática de la curva experimental, y como un golpe de suerte la consiguió. Ahora planck tenía la ecuación que generaba la curva, pero éste se encontró en un callejón sin salida cuando trató de deducirla de las leyes de la termodinámica. Luego de agotadores días de trabajo, planck llegó a la conclusión de que con las leyes de la física clásica no era posible deducir la curva; sólo es posible si se asume que la energía no es emitida como un continuo sino como un conjunto de paquetes, a los que planck llamó cuantos. Estos paquetes no pueden tener energías arbitrarias, sólo pueden tener múltiplos enteros de una constante (constante de planck); además, la energía radiada por un oscilador depende de su frecuencia de oscilación (no de la amplitud). La hipótesis cuántica de planck se resume en la siguiente ecuación:

    E=hf donde h es la constante de planck que vale 6,55*10^-34 j.s , y f es la frecuencia

    Así pues, nace la teoría cuántica y caen dos supuestos clásicos : la energía no depende de la amplitud sino de la frecuencia, y la energía no se radia como un continuo sino como un conjunto de paquetes discretos. Planck, luego de su hipótesis cuántica, no fue tomado muy en serio, pues ni él mismo era capaz de explicar algunas implicaciones que esta hipótesis conllevaba. Sólo fue hasta que Einstein logró aplicarla que todo empezó a tornarse más claro.

    El efecto fotoeléctricoHacia 1899, el físico Lenard demostró que los rayos catódicos(electrones) pueden producirse mediante la iluminación de una superficie metálica dispuesta en el vacío, y descubrió algunos hechos interesantes: La cantidad de electrones desprendidos del metal depende de la intensidad; la velocidad de los electrones desprendidos no depende de la intensidad sino de la frecuencia del haz; y para cada metal existe un valor mínimo de frecuencia por debajo del cual no hay emisión de electrones. Este fenómeno no había podido ser explicado hasta la fecha; sólo un loco como Einstein, con su gran imaginación, era capaz de revivir la teoría corpuscular de la luz (de Newton) cuando se daba por hecho su naturaleza ondulatoria. Einstein aplicó la hipótesis cuántica de planck para explicar el fenómeno de desprendimiento de electrones por un haz de luz (conocido como efecto fotoeléctrico); según Einstein, no era posible dar una explicación a este fenómeno si se asumía la luz como una onda, había que darle pues una naturaleza corpuscular; a estos corpúsculos Einstein los llamo fotones, y explicó con ellos los fenómenos detectados por Lenard: Los electrones de los átomos del metal sólo pueden absorber ciertos valores de energía, múltiplos de un valor fundamental hf, es decir: la energía que absorben los electrones debe estar cuantificada. Por esta razón, la luz debe venir en paquetes que los electrones puedan absorber, y por esta razón, también, es que los metales no emiten electrones por debajo de un cierto valor de frecuencia, pues a los electrones sólo les "gustan" paquetes específicos. Como la energía es proporcional a la frecuencia (E=hf) y no a la intensidad, es por esta razón que las frecuencias más altas arrancan los electrones más veloces. Y debido a que mientras mayor sea la intensidad hay más fotones "golpeando" electrones, la cantidad de estos que se emiten depende de aquella. Einstein recibió el premio Nobel en 1921 por este trabajo. Ecuación del efecto fotoeléctrico:

    Ec=h.f-w Ec: energía cinética del electrón desprendido; f: frecuencia; h: cte planck; w:(función de trabajo)energía mínima requerida por un electrón para ser desprendido.

    Funbral= w/h F: frecuencia mínima para desprender el electrón

    Los valores F y w dependen del metal.

    El átomo de Bohr Hacia 1911, por medio de un experimento de dispersión de partículas en metales, Rutherford descubrió que el átomo contenía una estructura interna, y que no era como la "sandía" que Thomson había propuesto. Según Rutherford, el átomo estaba compuesto por un núcleo cargado positivamente, y un exterior compuesto por electrones (negativos); la suma de las cargas de los electrones era igual a la carga del núcleo (y se conseguía la neutralidad del átomo).

    Para que los electrones no cayeran al núcleo debido a la fuerza eléctrica, era necesario que éstos giraran, y así su fuerza centrífuga fuera igual a la fuerza de atracción eléctrica, para evitar el colapso del átomo; pero este movimiento por ser curvado generaba una aceleración, y según la teoría de Maxwell éstos deberían emitir radiación, lo que generaba que perdieran energía, y por ende se precipitaran en espiral hacia el núcleo. Así pues, con las teorías y las leyes de que se disponía no era posible explicar la estabilidad del átomo, como también el fenómeno de las líneas espectrales "perfectas" de una sustancia pura. Niels Bohr, en 1913, introdujo un nuevo modelo atómico, el cual combinaba tanto ideas clásicas como cuánticas; su trabajo se basó, generalmente, en introducir la constante de Planck al modelo matemático que representaba al átomo. Asumiendo el átomo como un sistema solar en miniatura, las ideas de Bohr fueron: .Las órbitas de los electrones en el interior del átomo no son todas estables; de aquí se sigue que el electrón sólo puede estar en órbitas definidas (a determinadas distancias del átomo). Esto debido a que cada órbita representa un nivel de energía para el electrón, pero el electrón no puede tomar cualquier valor de energía, sólo hf ; siendo el nivel uno correspondiente al valor de energía uno, el nivel dos al dos….Los niveles aumentan de adentro hacia afuera; al nivel uno se le llama estado fundamental, y el electrón no puede bajar de este estado, pues no hay órbitas mas bajas que uno (los valores son enteros positivos). .Cuando el electrón se encuentra en una órbita estable, éste no emite energía, sólo emite o absorbe energía cuando salta de una órbita a otra. Como el electrón no puede emitir valores arbitrarios y continuos de energía en una órbita estable, no se cumple la predicción electromagnética, el electrón sólo emite valores enteros de energía; esta emisión cuantificada sólo se da cuando el electrón salta de una órbita o nivel de energía mayor a uno menor, la emisión es un fotón, exactamente con la energía que el electrón necesito para pasar de un estado menor a uno mayor; también se da el caso contrario: para hacer subir a un electrón de órbita o nivel, se necesita exactamente la energía de diferencia entre las dos órbitas o niveles, y el electrón permanece allí durante un tiempo (se dice: exitado) hasta que cae otra vez a la órbita o nivel original, y devuelve la misma energía que le fue suministrada en un comienzo (es devuelta en forma de un fotón). Mediante estas ideas, Bohr explicó las líneas aparecidas en el espectro del átomo más sencillo, el hidrógeno; estas líneas eran muy bien definidas, y esto debido a que los electrones al ser excitados (con la energía exacta), saltaban a órbitas mayores que luego abandonaban, devolviendo la energía en forma de fotones con frecuencias muy específicas; estos fotones componían las líneas espectrales. Para cada elemento las líneas eran distintas, pues lo átomos también lo eran. Esta interpretación, aunque errónea (pues luego fue tumbada por la mecánica ondulatoria) , fue capaz de dar una explicación satisfactoria, bonita y acorde con lo observado con relación a los espectros atómicos y a la paradoja del "átomo de emisión continua". La verdadera importancia de esta explicación, es que todos los científicos de la época se estaban convenciendo de que la teoría cuántica (o mecánica cuántica), era una potente y única herramienta para explicar el mundo de lo muy pequeño: el mundo de lo atómico.

    Principio de complementariedadAunque Einstein ya estaba convencido de la existencia de los fotones, se necesitaba la prueba experimental que corroborara esta teoría. Compton desde 1913, venía trabajando con rayos x y su interacción con los electrones; aquél había descubierto que cuando un fotón golpea a un electrón, éste gana momento y energía hf, pero el fotón que ha entregado parte de su energía, disminuye su frecuencia (este fenómeno es conocido como dispersión o efecto Compton).

    Para poder lograr una descripción de este fenómeno, Compton tuvo que asumir que los rayos x eran fotones muy energéticos (corroborando la teoría de Einstein), pero para dar una descripción completa de este fenómeno no sólo bastaba con introducir la teoría corpuscular de la luz, sino también la ondulatoria. Resultaban pues, dos teorías de la luz: la ondulatoria y la corpuscular, ambas correctas. Esta dualidad onda-partícula de la luz fue a lo que Bohr llamó "principio de complementariedad", y se basa en que las teorías corpuscular y ondulatoria de la luz no se excluyen sino que se complementan, para así lograr una correcta descripción de la realidad. La luz es pues onda y partículas.

    Dualidad onda-partículaEl descubrimiento de la dualidad de la luz dejó inquieto a Louis de Broglie, un físico de la época, que se preguntó: "si la luz también se comporta como partículas ¿por qué no se deberían comportar los electrones también como ondas?" A los electrones sólo se les puede asociar números enteros de órbitas y energías, y esto es algo propio en los fenómenos de vibración en ondas. De Broglie le dio una estructura matemática a su hipótesis asociándole una longitud de onda a los electrones o cualquier cuerpo material:

    λ = h/mv mv: masa y velocidad del cuerpo; h: constante de Planck

    Así pues, si los electrones tenían propiedades ondulatorias, deberían presentar fenómenos de difracción. La longitud de onda asociada al electrón es de unos 10^-7cm; para difractarlo se necesita que éste pase por un espacio del orden de esta longitud. Hacia 1922 y1923 los físicos Clinton Dawisson y Charles Kunsman habían estudiado el comportamiento de los electrones al ser dispersados por cristales; de Broglie, al enterarse, los disuadió para que realizaran el experimento, y en 1925 se publicaron los resultados que corroboraban la teoría de de Broglie. Pero el mundo científico era muy escéptico, más aún cuando se trataba de la teoría de un joven de 21 años. Sólo fue hasta que Erwin Schrödinger formuló una teoría atómica con las ideas de de Broglie, que los físicos empezaron a revaluar las ideas sobre el electrón; En 1927 fueron publicados los resultados de nuevos experimentos, y fue comprobada la hipótesis de de Broglie. El total desprendimiento con la física clásica, fue cuando se comprobó que no sólo los electrones y los fotones tienen esta dualidad onda-partícula sino también todas las demás partículas existentes. Un macro cuerpo también tiene estas propiedades, pero su longitud de onda es tan ínfima que no puede detectarse. De Broglie, no interpretó muy bien este resultado, pues según él el electrón era como un bote viajando por una ola. Luego Max born y Heisemberg explicaron esta propiedad ondulatoria como la probabilidad de encontrar al electrón en un punto dado.

    El principio de incertidumbreSupongamos que queremos conocer la velocidad y la posición de una partícula, para lo cual es necesario una fuente de luz cuya longitud de onda sea igual o menor al tamaño de dicha partícula; luz con esta característica son los rayos gamma. Así pues, disparamos una haz de rayos gamma hacia la partícula, este rayo gamma va a "rebotar" (dispersarse) en la partícula (este rayo dispersado va hacia un detector para conocer algo sobre esa partícula), pero por efecto Compton este fotón gamma va a suministrar energía a la partícula y por ende, ésta se va a "perder" pues se le ha dado un golpe muy fuerte; así pues, vamos a tener algo de certeza sobre la velocidad pero casi ninguna sobre su posición. Ahora bien, supongamos que la partícula está en reposo (velocidad 0),si se sigue el mismo procedimiento anterior, cuando el fotón golpee a la partícula, ésta, de nuevo va ha perderse y no podremos saber algo sobre su posición. Werner Heisemberg, un precoz físico de la época y uno de los grandes estructuradores de la mecánica cuántica (desarrollo el método matricial de ésta), dedujo de las ecuaciones de la mecánica cuántica la conocida relación de incertidumbre en 1927, que en honor a Heisemberg fue llamado el principio de incertidumbre de Heisemberg. Las dos relaciones son:

    Δp.Δx ≥ h Δp: incertidumbre (Inexactitud) sobre el momento; Δx: incertidumbre (inexactitud) sobre la posiciσn h: constante de planck

    ΔE.Δt ≥ h ΔE: incertidumbre (inexactitud) sobre la energνa; Δt: incertidumbre (inexactitud) sobre el tiempo; h: constante de planck

    Así pues, mientras con más precisión se quiera saber la velocidad (o momento) de un cuerpo, más es la incertidumbre que se tiene sobre su posición. Así mismo, mientras con más precisión se quiera saber la energía de un cuerpo más incertidumbre se tendrá sobre la medida del tiempo. El principio de incertidumbre es uno de los peldaños más estables e importantes de la mecánica cuántica. Hay que aclarar que la incertidumbre no se condiciona al aparato de medida, la incertidumbre es una propiedad intrínseca en la naturaleza.

    La antimateria

    Paul Dirac, un físico de la época (Dirac fue a la mecánica cuántica como Newton fue a la física clásica), trató de obtener una versión relativista de la mecánica cuántica. Según la ecuación de Einstein para la energía de una partícula de masa m y momento p se tiene:

    E²=m²c^2 + p²c² y esta formula se reduce a E=mc² cuando el momento es cero

    Pero al calcular esta energía se obtiene el resultado de una raíz, es decir: se obtienen valores -mc² y +mc². Dirac no se detuvo aquí. Cuando se obtienen los niveles de energía de la versión relativista de la mecánica cuántica resultan conjuntos positivos y negativos; el mayor nivel negativo es menor al menor nivel positivo; según la teoría atómica, el electrón debe caer al nivel más bajo ¿por qué entonces no caían todos los electrones al nivel negativo? porque ya estaban llenos. Si ya había electrones allí ¿por qué no suministrarles la energía necesaria para que saltaran a un nivel positivo? Para que un electrón salte de un peldaño -mc² a uno +mc² se necesita energía 2mc², que para el electrón es aproximadamente 1 Mev (la energía de un rayo gamma aprox). El electrón creado es común y corriente, pero habrá dejado un hueco en el conjunto negativo; un hueco como estos deberá comportarse como una partícula cargada positivamente y con la misma masa del electrón. Dirac afirmo erróneamente que esta partícula era el protón a finales de los años 20. Pero un científico llamado Carl Anderson descubrió por accidente, en un experimento de rayos cósmicos, una partícula con la misma masa del electrón pero de carga positiva. Esta partícula fue llamada positrón. Luego se fueron descubriendo más antipartículas asociadas a partículas específicas, lo cual llegó a la conclusión que toda partícula creada genera una antipartícula (cualquier partícula tiene asociada una antipartícula).

    InterpretacionesLa interpretación de Copenhague Para muchos físicos de la época el principio de incertidumbre fue una habitación oscura en la cual no se podía caminar con seguridad; sin embargo para unos cuantos, fue la pieza que faltaba para que todo el sistema fuera completo y coherente. Bohr fue uno de estos hombres, y en 1927 en una conferencia en Italia presentó la idea de complementariedad, y lo que es conocido como interpretación de Copenhague. Bohr señaló que mientras en la física clásica un sistema puede considerarse como un mecanismo de relojería, en mecánica cuántica el observador interactúa con el sistema, haciendo que el último pueda considerarse como algo no independiente: si se realiza un experimento para medir la posición de una partícula se la obliga a que halla incertidumbre en su velocidad, y si lo que se obtiene no es la posición sino su velocidad, se la obliga a que halla incertidumbre en su posición, luego el observador hace parte del experimento y la mera detección lo modifica todo; el primero de estos experimentos muestra las propiedades corpusculares del sistema, mientras que el segundo muestra las propiedades ondulatorias del mismo; así pues, nunca, mediante un experimento podrán conocerse las propiedades corpusculares y ondulatorias de un sistema a la vez (se dice que la relatividad es una teoría clásica puesto que permite conocer posición y velocidad en el espacio-tiempo a la vez). Toda la información sobre el sistema la proporciona el experimento, y como el observador ha intervenido en éste, no puede decirse algo sobre el comportamiento de este sistema cuando no se lo observa, sólo pueden obtenerse las probabilidades de que un suceso se dé; por ejemplo, los saltos cuánticos en el átomo son una interpretación de por qué se obtienen dos resultados diferentes del mismo experimento, no pude saberse que hay entre salto y salto; No se tiene ni idea de lo que hace una partícula cuando no se la observa, entonces podría decirse que no existe mientras no se la observe; el núcleo atómico no existe, no existen las partículas: "nada es real". Richard Feynman, uno de los desarrolladores de la electrodinámica cuántica, presentó, por medio de un experimento imaginario, algunas implicaciones a las que se llegaría con la interpretación de Bohr: si realizáramos el experimento de la rendija, con el que Yuog demostró las propiedades ondulatorias de la luz, usando partículas, los patrones de interferencia nos llevarían a deducir las propiedades ondulatorias de éstas. Cuando se trata de una onda, como una ola por ejemplo, esta onda pasa por los dos agujeros de difracción, pero si hablamos de partículas como electrones o fotones ¿cuál partícula pasa por cuál agujero? Imaginemos un montaje en el que se tiene la rejilla de difracción, un detector de partículas (de electrones por ejemplo) y un cañón de partículas.

    Asumamos electrones: el cañón se pone en funcionamiento, los electrones pasan a través de la rejilla y producen patrones de interferencia; Ahora bien, si reducimos la cantidad de electrones disparados por segundo de forma que sólo uno pase por la rejilla, este electrón produce patrones de interferencia, pero ¿por dónde pasó el electrón? ¿por cuál de los dos agujeros? Si tapamos uno de los dos agujeros el electrón no produce interferencia, y si colocáramos un detector en los agujeros para saber por dónde pasa el electrón tampoco se obtendría la interferencia (ocurriría lo mismo si no es uno sino varios los electrones); entonces ¿sabe el electrón desde un principio que están intentando detectarlo? "Sí". Bien, entonces engañemos al electrón ¿cómo? Cuando sea disparado tapemos un agujero. Aún así, el electrón no produce interferencia ¿Qué está pasando entonces? Cuando tratamos de detectar el electrón estamos interviniendo en él buscando saber su posición, lo que significa que este electrón muestre propiedades corpusculares (y halla incertidumbre en su velocidad), se "materialice" y no halla interferencia; tapar un agujero o saber por dónde pasa el electrón es tener certidumbre sobre su posición. Si dejamos que el electrón "continúe en paz" su camino, como no sabemos algo de su posición, éste se comporta como una onda produce interferencia. Es como si el electrón se "enterara de todo".

    En probabilidades esto significa: hay dos agujeros, en cada uno hay probabilidades de que el electrón pase, estas probabilidades generan la interferencia; Si se tapara un agujero o si se detectara el electrón, las probabilidades se reducirían a un sólo agujero y ya no habría interferencia, esto equivale a decir: al dejar el cañón, el electrón se divide en muchos electrones llamados electrones fantasmas, estos muchos electrones producen la interferencia, pero si se detecta la posición del sistema, los electrones fantasmas se materializan en un solo electrón rompiendo la interferencia y produciendo lo que se llama colapso de función de onda, es decir: ya no hay onda. También, si el electrón deja de observarse, se desdobla en fantasmas de nuevo. Aquí se entiende mejor por qué la onda asociada a un cuerpo material es la probabilidad de encontrarlo en un sitio dado: pues si es la probabilidad de encontrarlo, no se conoce su posición, y si no se conoce su posición presenta propiedades ondulatorias.

    Otra interpretación: los múltiples mundos Bohr también dio una interpretación al experimento de la rendija: Supóngase una partícula la cual tiene dos posibilidades: pasar por el agujero A o por el B, estos agujeros pueden interpretarse como dos mundos; por un mundo la partícula pasa por el agujero A, y por el otro mundo por el B. Nuestro mundo no es alguno de estos dos mundos, sino una "mezcla híbrida" de los dos que genera la interferencia. Pero cuando detectamos por donde pasa el electrón todo se reduce a un sólo mundo: el mundo en donde la partícula pasó por ese agujero, y ya no hay interferencia. A cada partícula se le puede asociar dos mundos en este caso, pero ¿Cuántas partículas hay en el universo?

    Paradoja del gato de Schrödinger Hacia 1935, Schödinger publicó una paradoja calificada por Einstein como la forma más bonita de mostrar el carácter de incertidumbre en la mecánica cuántica, su carácter incompleto (Einstein nunca aceptó la incertidumbre como una propiedad intrínseca de la naturaleza). Los fenómenos radiactivos son completamente aleatorios, y sólo pueden expresarse en términos de probabilidades. Supóngase que se tiene una caja en la cual se ha metido un gato, una botella con cianuro, un material radiactivo y un detector de partículas; el experimento está diseñado de forma tal de que el detector esté conectado a la botella, para que cuando reciba radiación del material rompa la botella y mate al gato. Todo el sistema, se monta de forma de que halla un 50% de posibilidad que un núcleo atómico se desintegre; la caja se cierra. No es posible saber si el gato está vivo o no; la única manera de saberlo es si se abre la caja y se observa al gato, pues, como se dijo, la desintegración radiactiva es aleatoria, y para el experimento hay tantas posibilidades de que el gato muera como de que viva. Así pues, puede interpretarse esto como si el gato tuviera tantas probabilidades de vivir como de morir, esto genera una interferencia, que se rompe cuando se abre la caja (colapso de onda) y las probabilidades se reducen a una. Desde el punto de vista de los otros mundos, existen dos mundos: uno donde el gato está vivo y otro donde está muerto. Pero se está en un mundo híbrido donde el gato está vivo y muerto, esto genera la interferencia; cuando se abre la caja ya sólo se opta por un mundo, o donde el gato vive o donde muere, y se rompe la interferencia.

    Referencias bibliográficas

    GRIBBIN, JHON. En Busca del Gato de Schrödinger. Biblioteca Científica Salvat. 1986.

    HAWKING, Stephen. Historia del Tiempo. Editorial Crítica. Bogotá. 1988.

     

     

    Por

    Juan Pablo Vasco

    Categoría: Física