Descargar

Temas escogidos de Física y ciencias afines (página 2)


Partes: 1, 2, 3

La categoría proyección, es fundamental en la teoría de Bohm. Es lo que "vemos" como "separado" cuando según Bohm es sólo la imagen proyectada  de la totalidad "real", teniendo la proyección menor dimensionalidad que la totalidad. En la modelación de EPR, las proyecciones en los monitores son bidimensionales, mientras que la totalidad, la tablilla, es tridimensional.

La modelación descrita da una idea bastante aproximada no sólo de este experimento si no de la esencia de la Teoría de la Totalidad de Bohm, de su criterio de pensar las cosas sin que medie fragmentación alguna, ni siquiera entre el pensamiento y la cosa pensada, ni entre el observador y lo observado.

La Paradoja EPR ha suscitado y sigue suscitando controversias. A partir de 1964 el físico irlandés John Bell dio a conocer al respecto sus teoremas con la llamada desigualdad de Bell. En ésta se demuestra que una serie de teorías que pretenden completar la MC, las  llamadas teorías locales de variables ocultas (variables clásicas mediante las cuales se pretende aplicar a la MC los cánones clásicos), son incompatibles con la teoría cuántica. En consecuencia, no es posible comprender la realidad cuántica de manera netamente clásica.( Daremos una idea de en que consiste la Desigualdad de Bell.

Continuaremos refiriéndonos a las orientaciones del espín + y -, pero ahora (admitiendo un tratamiento por variables ocultas), no tomándola en una sóla dirección sino sus proyecciones en tres direcciones a, b, c, que no tienen que ser ortogonales. De nuevo consideraremos dos partículas A y B como en el EPR, primero unidas y después distanciadas fijándonos  en B. Llamaremos Pab a la probabilidad de ocurrencia de la correlación de espín + en a y – en b. Si llamamos өab al ángulo entre las direcciones a y b, en vez de escribir Pab, puede ponerse

P( өab ). Igual criterio seguiremos para las probabilidades de la correlación de espines en a y c, y b y c. Conocidas estas notaciones, la Desigualdad de Bell, se puede escribir así:   P( өab ) +  P ( өbc ) > /  P ( өac ).  La MC muestra que para cualquier ө, se cumple que  P( ө ) = ½ senocuadrado ө/2. Si puesta esta igualdad en la Desigualdad de Bell, ésta se cumpliera, las teorías sustentadas en variables ocultas mostrarían su validez, pero para una amplia gama  de valores de ө no se cumple, por tanto la Desigualdad de Bell de esa manera muestra lo que pudiéramos llamar el triunfo de la MC al menos en esta batalla).

          El aporte de Bell, al comprobarse la violación de la desigualdad, conjugado con las experiencias de Aspect indica que hay que apartarse  de las condiciones que Einstein exigía a una teoría en su decir realista: ser local y sensata. A partir de las consecuencias Bell-Aspect, se sugiere que nuestra racionalidad  estaba limitada ´por nuestro prejuicio de un universo mecánico el cual concebía que los atributos cuánticos como la orientación del espin  son una propiedad que se otorga por separado a cada partícula que habiendo estado unidas se alejan, sino que es una propiedad compartida u holística para una nueva clase de objeto. Que esa propiedad compartida permite la correlación a la que se refiere el experimento EPR sin que medie trans misión de señal alguna.

No obstante, se necesita continuar ahondando en la Paradoja EPR lo cual no arredra sino incentiva al verdadero cientifico en su fascinante quehacer.

Bibliografía

Bohm, D. Wholeness and Implicate Order. Classic Routledge. London and New York. 2002.

Treiman, S. The Odd Quamtum.Princeton University Press. New Jersey. 1999.

Zajonc, A. Atrapando la Luz. Editorial Andrés Bello. Santiago de Chile. 1994.

La geometrodinámica de John Wheeler

A partir del logro teórico y estético que significó el establecimiento de las teorías Especial y General de la Relatividad por Albert Einstein, sobre todo con la segunda al asimilar la fuerza de la gravedad como la curvatura del espacio-tiempo, su genial autor  concibió la idea de que también por la via de la geometrización podría explicarse el electromagnetismo. A ese empeño dedicó Einstein el resto de su vida y algunos físicos contemporáneos de él tales como H. Weyl y Th. Kaluza, realizaron aportes al empeño sin que se llegara a resultados concretos. En nuestros días la Teoría de las Cuerdas realiza ciertos aportes teóricos a la geometrización en el contexto que nos ocupa. Desde hace algun tiempo se ha destacado el trabajo en lo que dio en llamarse Geometrodinámica, del físico norteamericano John Wheeler el cual, denotando su entusiasmo llegó a expresar su creencia de que "no hay nada mas en el mundo que espacio curvo y vacío". Sin embargo, desafortunadamente para los que deseábamos el éxito de tan bella suposición, lo que iban mostrando los hechos apuntaban a la imposibilidad de una geometrización análoga a la de la obtenida para la gravitación. El propio John Wheeler es quien  ha propuesto con singular manejo del raciociocinio,que la materia prima del universo no era como pensaba Einstein y antes que él  W. K. Clifford, el espacio y su geometría. Wheeler, según su criterio, explica como la deficiencia de la tesis geométrica sobre el  material de construcción de las partículas y de todo lo demás, ha ido conduciendo al rechazo  de que la geometría fue primero y luego fue cuantizada. Por el contrario aduce que principios cuánticos como el de incertidumbre se erigieron como inherentes a la naturaleza y luego surgieron la geometría y las partículas. Afirma el físico inglés que el mundo es de por si, un mundo cuántico. Un sistema clásico sólo se obtiene como límite para números cuánticos grandes. El físico ruso Andrei Sajarov sustentó criterios semejantes a los de John Wheeler.

Se apoya Wheeler para sus argumentos, en el conocido hecho de que aún en el vacío en zonas de dimensiones inferiores a la longitud de Planck L*= 1.6 x 10-33 cm, en virtud del principio de incertidumbre se producen fluctuaciones de la energía que por la conocida E=mc2 dan lugar a pares partícula-antipartícula que propician cambios en la geometría los cuales llevan a modificaciones  en la conectividad topológica como formación y desaparición  de agujeros y asas en todo momento conformando la llamada estructura esponjosa del espacio. En 1924 Hermann Weyl propuso el concepto de que la electricidad consiste en líneas de fuerza que quedan atrapadas en agujeros en el espacio múltiplemente conexo descrito como estructura esponjosa. Los efectos de las fluctuaciones y la "naturaleza topológica" de las cargas eléctricas se han evidenciado al comprobarse experimentalmente la desviación de su órbita normal del electrón en el átomo de hidrógeno debido a esos hechos cuánticos, efecto conocido como desplazamiento Lamb-Rutherford. El desplazamiento en cuestión es debido a la aparición de un campo eléctrico producido por la carga de fluctuación concebida como líneas de fuerza atrapadas en un húeco topológico y que   no está relacionada con el átomo pues es una propiedad de todo el espacio, su valor sólo depende de  la constante h de Planck y de la velocidad de la luz c. El campo eléctrico causante del desplazamiento Lamb-Rutherford viene dado por  De»((h/2p)c)1/2/L2  donde en el numerador tenemos la carga eléctrica (líneas de fuerza atrapadas) q, y en el denominador la longitud subplanckiana L (dimensión del agujero) al cuadrado  esto es, se tiene la conocida expresión q/r 2 de la intensidad de campo eléctrico.

Si aplicamos la ley de Gauss   óE.dS » q al campo debido a la carga antes utilizada como líneas atrapadas en función sólo de h y c, nos dará la confirmación de la existencia de ese tipo de cargas que con valor absoluto del osden q, tanto positivas como negativas, se encuentran por todas partes. Sin embargo la Ley de Gauss en este caso que tratamos, para el magnetismo nos confirmará la no existencia de "cargas" magnéticas.

Con argumentos como los expuestos, John Wheeler defiende su tesis de que la geometría no es el material primario de construcción, que por el contrario, fue el principio cuántico de indeterminación, las fluctuaciones, la creación de partículas-antipartículas, la estructura porosa con huecos y asas, las cargas como líneas de fuerzas atrapadas,etc. Sin embargo somos de la opinión que a fin de cuentas  las fluctuaciones le ocurren al espacio como suponía Einstein, provocando alteraciones de éste aunque mas drásticas que las suaves ondulaciones que soñaba el sabio para su espacio-tiempo.

Sobre este tema puede consultarse el artículo "¿Está la física legislada por la cosmogonía?" de  John Wheeler y C. M. Patton.

Louis de Broglie y las ondas materiales

El físico francés Louis de Broglie recibió el Premio Nobel  en el cual exponía su idea según la cual las partículas materiales presentaban propiedades ondulatorias y que se les podía asignar una onda asociada de longitud l=h/p donde h es la constante de Planck ya conocida en ese momento en la expresión de la energía del cuanto, y p es el momentum lineal. Se sentaba así la base teórica de lo que sería el enfoque matemático ondulatorio de la Mecánica Cuántica llevado a cabo por Erwin Schroedinger.

Louis Victor Raymond de Broglie, al cual se se le daba y la historia le mantiene, el tratamiento de Príncipe, pertenecía a  la nobleza de la familia reinante en Francia antes de establecerse la Repúbica. Habiendo nacido en 1897, estudio en la Sorbona, Historia, pues sus padres aspiraban a que siguiera la carrera diplomática, no obstante lo cual se dedicó a los  estudios de la física de los cuales prefirió los teóricos y un tanto sus aspectos filosóficos.

A fijar su atención en el posible carácter ondulatorio  del comportamiento de las partículas lo motivaron  los primeros planteamientos matemáticos  que propiciara la en esos momentos  incipiente  Física Cuántica  y la forma de la Ecuación de Hamilton- Jacobi, los cuales apuntaban a semejanzas con la Optica Geométrica. Relaciones como la de la energía del cuanto  E=hn y del momentum  p=(hk)/2p donde n frcuencia y k=2p/l, número de onda aplicadas a corpúsculos de energía, condujeron al talento de de Broglie a la aplicación a corpúsculos de materia, esto es, a partículas.

Eliminando k entre las dos igualdades anteriores, se llega a la fórmula de la longitud de  la onda asociada a todo cuerpo: l=h/p o lo que es igual:  l=h/mv,, expresón esta última que nos muestra que siendo el valor de h sumamente pequeño, para masas que no sean las de partículas como electrones y semejantes, la onda asociada de  Broglie se hará indetectable.

 Segñn la teoría de la onda asociada u onda piloto como también se le denominó, ésta para cada electrón en el átomo, ocupa toda su órbita por lo cual, considerando a la misma cicular de radio r, se deberá cumplir  que:

2pr=nl donde n un número entero. De la anterior igualdad se deduce que:

pr=nh/2p y como pr=L, momento angular, se tendrá  L=nh/2p que nos indica que L toma un conjunto discreto de valores ya que n entero, lo cual se aviene con el carácter cuantizado de las magnitudes propias de la Mecánica Cuántica.

El carácter ondulatorio de las partículas materiales fue evidenciada experimentalmente unos años después de haber sido propuesto por Louis de Broglie, por los físicos norteamericanos C. J. Davisson y L. H. Germer al lograr que haces de electrones interfirieran como lo hacen los de luz al pasar por rendijas muy estrechas así como manifestaran fenómenos de difracción.

Por los mismos años de de Broglie y su teoría ondulatoria, en plena alborada de la Mecánica Cuántica, Werner Heisenberg dio a conocer su método de tratamiento matemático de la misma mediante matrices, procedimiento poco manejado a todos los niveles de talento científico. Poco tiempo después el ya citado enfoque de Schroedinger surgió como alternativa del un tanto engorroso propuesto por Heisemberg.

Inspirado en lo propuesto por Louis de Broglie, Erwin Schroedinger utiliza expresiones matemáticas que formalmente recuerdan las utizadas en el tratamiento de los movimientos ondulatorios tanto mecánicos como electromagnéticos. Utilliza ecuaciones diferenciales que se asemejan a las relacionadas  con la de Hamilto-Jacobi e introduce como variable dependiente la función de onda y la cual expresa los estados cuánticos.

La ecuación estacionaria de Schroedinger la plantearemos en aras de la brevedad y la claridad, para una sola variable y para el caso una partícula libre          (energía potencial V=0), así:

-h2/8p2m (∂2ψ/∂x) = Eψ    la cual puede comprobarse tiene por solución:  y=∂exp ikx   donde k= √(8mE/h) tomando k sólo valores discretos.

De la última expresión obtenemos el valor de la energía  E=(h2k2)/8m.

Si en la igualdad eanterior  hacemos la sustitución E=p2/2m nos encntraremos algo que ya vimos en esta exposición. Veamos:  p2/2m=(h2k2)/8m de lo cual obtenemos la conocida igualdad  p=(hk)/2p  una de las que sirvió de base a Louis de Boglie  para llegar a su  fundamental   l=h/p donde tuvo en cuenta  k=2p/l. Se hace patente así que, dado que es universalmente aceptada la formulación de Schroedinger, la concepción de las ondas

La matemática de la Mecánica Cuántica

Primeros Conceptos

A partir de los trabajos a principios del siglo XX de Max Planck y Albert Einstein, se sabe que las radiaciones electromagnéticas como la luz, las de radio, los rayos infrarrojos y ultravioletas, etc., tienen la curiosa propiedad de que para ciertos fenómenos como las interferencias luminosas, el arco iris y otros se comportan como ondas ( la propagación de una vibración u oscilación) y en otros como los fotoeléctricos (célula fotoeléctrica) se comportan como un flujo o chorro de partículas llamadas cuantos que en el caso de la luz se llaman fotones. Esta curiosa propiedad se llama "naturaleza dual de la radiación", que en el caso lumínico recibe el nombre de "naturaleza dual de la luz".

Los cuantos no son partículas de sustancia, son partículas de energía. Son la menor cantidad de energía que puede haber de determinada radiación. Así por ejemplo, la menor cantidad de energía que puede haber de luz verde, es el cuanto o fotón de luz verde. No puede haber medio cuanto, ni un tercio de cuanto.ni nada por el estilo.

El número de oscilaciones por unidad de tiempo en las ondas se llama frecuencia (la representaremos por f, en muchos libros se representa por la letra griega nu: υ). Por analogía a los cuantos también se les asigna una frecuencia f. En el caso de la luz cada color se diferencia por su frecuencia. El rojo tiene relativamente baja frecuencia y el violeta, alta, pero todos tienen su frecuencia carcterística.

Los cuantos tienen una energía E que viene dada por la fórmula:

                             E = h f

Donde h es la muy importante constante de Planck, que veremos en todas las ecuaciones de la Mecánica Cuántica.

La constante de Planck h, tiene un valor sumamente pequeño, tanto que h sólo tiene un valor significativo cuando aparece junto a magnitudes sumamente pequeñas, que son las que trata la Mecánica Cuántica, o sea las relativas a átomos, electrones, fotones, protones, neutrones, etc.,    que constituyen las llamadas partículas elementales y son, repetimos, el tema de la Mecánica Cuántica y de la Física Atómica, que son las ciencias del micromundo.

Cuando  se trata de la física de las cosas grandes, o sea del macromundo, que es la física habitual del movimiento de los vehículos, proyectiles, etc, la h se hace insignificante y no aparece en sus ecuaciones. La característica matemática de la Mecánica Cuántica  es la aparición en todas sus ecuaciones de la constante h.

En la  Mecánica Cuántica, es fundamental, el Principio de Incertidumbre o de Indeterminación de Heisenberg, que expresa que de una partícula del micromundo (electrones, etc.) no se puede determinar a la vez, con la misma precisión, su posición x, y su cantidad de movimiento p ( velocidad multiplicada por la masa). Esto es, mientras menos error en la medida de x cometamos, mayor error cometeremos en la medida de p. Podemos decir, no podemos, en el micromundo, medir a la vez, con precisión, la posición y la velocidad de una partícula.

Es por lo anterior, que en la Mecánica Cuántica, no se puede determinar con precisión el comportamiento de un sistema físico, sólo se puede hallar la probabilidad del comportamiento de un sistema. La probabilidad es una característica que diferencia radicalmente la Mecánica Cuántica de la Mecánica del macromundo.

El Principio de Incertidumbre de Heisenberg, se puede expresar con símbolos matemáticos así:

                         (Δx) (Δp)→ h

donde Δ error, imprecisión.. Se puede ver que si Δx se hace grande, entonces Δp se tiene que hacer pequeño para que su producto se mantenga  constante. Y esto es lo que dice el Principio de Incertidumbre de Heisenberg.

El Principio de Incertidumbre no sólo se cumple para la coordenada y el impulso. Sino también para otras magnitudes como es el caso de la energía E y el tiempo t. Así se cumple que:

                        (ΔE) (Δt)  → h.

También es un par complementario de incertidumbre el constituído por la amplitud de campo electromagnético u y su velocidad de variación ∂u/∂t, por lo que se cumple:

                      (Δ∂u/∂t)(Δu)  → h

La Ecuación de Schrodinger

Así como en la mecánica clásica la ecuación fundamental es la conocida F=ma, en  Mecánica Cuántica lo es la Ecuación de Schrodinger la cual para el caso más elemental de un solo grado de libertad  e independencia del tiempo tiene la forma:

                             d2ψ/ dx2  + (8π2m/ h2) (E-V) ψ = 0    (Ecuación Diferencial Estacionaria de Schrodinger)    

  donde  ψ recibe el nombre de función de onda la cual es la incógnita de la ecuación. La función de onda expresa el comportamiento del sistema que se estudia. La ecuación diferencial de Schroodinger se asemeja por su forma a la ecuación de onda en mecánica clásica y es así que a la Mecánica Cuántica se le llama también Mecánica Ondulatoria.  En la ecuación de Schrodinger sólo hay que sustituir V por la energía potencial del sistema que se estudia y la E, energía total, permanece constante. La probabilidad de encontrar la posición de una partícula en este caso  de un solo grado de libertad,  vendrá dada según Bohm, por el cuadrado de ψ que sólo dependerá de x. Para el caso mas general de tres grados de libertad dependerá de x,y,z.. Cuando el sistema estudiado depende también del tiempo, se requerirá de la ecuación de Schrodinger adaptada a esta situación y entonces la función de onda ψ dependerá de x,y,z,t y por ende también su cuadrado para determinar la probabilidad.

Veamos como se aplica la antes vista Ecuación Estacionaria de Schrodinger para el caso del movimiento libre (V=0) de una partícula entre dos paredes rígidas situada una en x=0 y la otra en x=L.

Haciendo V=0 en la ecuación se tendrá:

                                   d2ψ/dx 2   +( 8π2m/h2 )E = 0

cuya solución puede comprobarse por integración o sustitución en la ecuación, que es:

                                    ψ = Asen √ (8π2m/h2E) x

y como nada mas llega la partícula hasta x=L, para este valor ψ=0 se tendrá que cumplir que el seno debe ser  0 y por tanto                                                                                                                                          .

                                      √ (8π2m/h2 E)L = nπ         

y por tanto:

                                        En  = n2h2/8mL2        n= 1, 2, 3,……….

Para cada valor del número entero n al cual se le llama número cuántico, la energía toma un valor al que se le llama valor del estado estacionario n.

En el caso de los átomos mientras un electrón se mueve en un nivel estacionario de energía ni emite ni absorbe energía según el Postulado de Bohr. Si el electrón pasa de un nivel de energía E2  a otro de menor energía E1 se emite un fotón cuya  frecuencia se calcula mediante la ya vista E=hf donde E es la diferencia entre las de los dos niveles involucrados. Caso de que el paso del electrón sea de un nivel de menor energía  a uno de mayor, se absorbe un fotón.

Antes de continuar este breve recorrido por lo mas elemental de la Mecánica Cuántica, nos referiremos a la llamada onda de De Broglie que se asocia a toda partícula  cuya longitud de onda viene dada por λ= h/mv donde m es la masa de la partícula y v su velocidad. Dada la pequeñez de h es evidente que sólo la onda de De Broglie se manifestará en partículas del micromudo, el mundo de la Mecánica Cuántica.

Acerca de la fenomenología de Husserl

Una de las corrientes filosóficas contemporáneas mas estudiadas y discutidas en foros académicos y profesionales, es sin dudadas la Fenomenología expuesta y defendida por Edmundo Husserl en la primera mitad del pasado siglo XX y aún vigente en el interés de los estudiosos.

Comenzaremos por una cita de Jacques Derrida el cual con un magistral uso de la síntesis, nos adelanta la tesis central de la Fenomenología: "La filosofía de Husserl es el verdadero positivismo que vuelve a las cosas mismas y desaparece ante las originalidades". Se verá  el fundamental significado que revisten la palabras cosas mismas y desaparece en la tesis hussserliana., pues en efecto la Fenomenología busca captar los objetos (las cosas mismas) como son dados directamente a la conciencia por la experiencia sin implicarse en la conceptualización y pone entre paréntesis (en el decir de Husserl), el pensar filosófico  o sea  el raciocinio positivista no husserliano  el cual desaparece en la búsqueda fenomenológica que Husserl propone. El observador se propone como un ente pasivo que se suspende (epojé) se abstiene de ir más allá del acto de captar en la conciencia, de tender hacia un objeto, acción que en Fenomenología se denomina Intencionalidad (concepto que  Husserl toma de Franz Brentano que fue profesor suyo). Toda conciencia es siempre conciencia de algo. La presencia de un objeto en la conciencia implica que ese algo está presente en ella aunque tal presencia no se conceptualice.  A ese acto de captación directa del objeto sin posterior conceptualización, le llama Husserl, Reducción Eidética.

En un medular artículo por Derrida sobre la Fenomenología, éste llama Génesis a lo dado directamente a la conciencia, y Estructura a la conceptualización que seguiría pero que Husserl suprime en su proposición de Reducción Eidética. Se refiere en su artículo Derrida al primer trabajo de Husserl titulado Philosophie der Arithmetik, señalando (Derrida, no Husserl) que en el establecimiento del concepto de número natural a partir de la teoría de los conjuntos de Cantor propuesto, la Génesis la constituyen los elementos del conjunto  y la Estructura, la teoría del número natural  que de la conceptualización de aquella deriva. Con la captación directa por la conciencia de la Génesis, termina, pudiéramos decir, la Reducción Eidética husserliana.

Conviene en este punto de nuestra exposición, detenernos a dar una idea del importante concepto de Estructura según los criterios de Claude Leví-Strauss y Jan Paiget. La Estructura es un conjunto cuyos elementos independientemente de su naturaleza se relacionan de determinada forma entre si dando como producto de ésto, elementos que también pertenecen al conjunto o sea constituyen un grupo tal como se entiende en Matemática. Además los elementos al conformar una Estructura manifiestan características que no presentaban aislademente, en lo cual reconocemos lo que  en Teoría de la Complejidad se describe como surgimiento de  propiedades emergntes. El lector iniciado advertirá, que las conocidas estructuras matemáticas responden al concepto de Estructura el cual en el tema que nos ocupa, hemos visto  Derrida identifica con lo que sería la conceptualización la cual no incluye Husserl en su Reducción Eidética. En la conceptualización que conlleva a la Teoría del número natural, ésta se manifestaría como propiedad emergente al integrarse en Estructura los que aislados fueron los elementos sin significado de un conjunto.

La Fenomenología de Husserl  ha influído en otras tendencias de pensamiento como el  Existencialismo y la Teoría del Gestalt.

Antes de finalizar haremos referencia a una analogía que advertimos entre la Fenomenología de Edmundo Husserl y la filosofía del Budismo Zen. Específicamente  entre la Reducción Eidética y lo que  en el Budismo Zen se presenta como Meditación en Posición Sentada. Según leémos en el libro "Antología Zen" de Thomas Cleary, "La armonización con la sabiduría inefable intríseca a todo el mundo antes de implicarse en el pensamiento y la conceptualización se le llama meditación en posición sentada", (El subrrayado es nuestro). Mas adelante en el mismo libro aparece una genial imagen de lo que en Husserl sería la acción de suspensión después de la captación directa del objeto por la conciencia: "La meditación intensiva zen debe ser como [de] un mudo que tiene un sueño".  Aunque no hemos encontrado nada sobre esto en la literatura consultada, pensamos que quizás mas que una analogía, haya una influencia de Budismo Zen en  Edmundo Husserl a cuya filosofía creemos haber logrado un simplificado y sin pretensiones acercamiento.

Bibliografía

Abbagnano, N. Historia de la Filosofía.

Derrida, J. Génesis y Estructura. http.//www.jacquesderrida.com.ar/textos/husserl.htm

Cleary, T. Antología Zen.                 

Operadores en Mecánica Cuántica

La Ecuación de Schrodinger la podemos escribir así.

                        (-h2 /8π2m  d2/dx2   + V) ψ = Eψ

Notamos en la expresión anterior que el paréntesis y su contenido indican una operación sobre ψ que da como resultado la multiplicación de esa función por el valor E. A expresiones como ese paréntesis que indican que se efectúe una operación sobre una función, se les llama operador, concepto éste que cumple un papel muy importante en Mecánica Cuántica y que en general designaremos por Ä  y  toda expresión como esa última de la Ecuación de Schrodinger, utilizando operadores, la escribiremos así en general:

                                      Ä ψ = a ψ

Una ecuación de ese tipo   se denomina de funciones propias, en este caso las soluciones para ψ, y de valores propios, los que vaya tomando para cada solución, lo representado por a

Un ejemplo de ecuación de funciones y valores propios es la de Schrodinger. En el ejemplo que vimos la aplicación al movimiento de la partícula libre, los valores propios fueron los de la energía en cada uno de los niveles.

En el caso visto de la Ecuación de Schrodinger, al operador correspondiente al paréntesis se le llama hamiltoniano el cual se representa por ""H.  Así, dicha ecuación puede escribirse:

                                      "H ψ = E ψ

Otro operador muy utilizado en Mecánica Cuántica es el operador momento lineal   "P= -ih/2π d/dx.  En una ecuación de funciones y valores propios con este operador:

                                  -ih/2π d/dx ψ = pψ            (p=mv)

Se tiene que la solución es

                                          ψ = C exp i 2πp/h x

la cual comparada con la clásica onda plana:

                                          u = c exp ikx               (k=2π/λ)

nos lleva a la expresión de la longitud de la onda de De Broglie de la cual ya habíamos hablado:

                                            λ = h/p

Para los casos en que se trate de tres variables, en los operadores habrá que utilizar el símbolo de derivada parcial, esto es, en vez de d, aparecerá ∂ para cada variable.

Los operadores para las variables son ellas mismas y para la energía potencial potencial también será ella misma. Esto es V.

Utilizando operadores  se puede pasar de las conocidas expresiones de la Mecánica Clásica a las de la Mecánica Cuántica, sustituyendo la magnitud clásica por operadores cuánticos como los antes descritos, pero esto no quiere dedir que el formalismo todo de la Mecánica Cúantica se puede obtener sencillamente con realizar las citadas sustituciones de magnitudes por operadores. Sin embargo en muchos casos podrá hacerse, como obtener (que no deducir) la Ecuación de Schrodindiger a partir del empleo de la expresión clásica de la conservación de la energía:

                                  p2 /2m + V =   E

Donde en el primer término se reconoce a la energía cinética T.  a la cual se suma la potencial V y se iguala a la energía total E.

Sustituyendo p por el operador cuántico correspondiente antes visto, se obtendrá la Ecuación de Schrodinger.

Valores medios

Como ya hemos dicho, la Mecánica Cuántica es una ciencia probabilística por lo cual muchos conceptos de la Teoría de las Probabilidades tendrán que estar presentes en su tratamiento.

Uno de esos conceptos es el de densidad de probabilidad, la cual representaremos por φ se calculará mediante la fórmula:

                                          φ = dW/dx

donde W probabilidad de ocurrencia en el intervalo dx.

Se tendrá por tanto, que:

                                        dW = φ dx.

El valor medio de una variable x viene dado por:

                                        <x> = ∫ xφdx

En Mecánica Cuántica para el concepto análogo de φ se utiliza (ψ)2, pero para  ψ compleja que es el caso común,   se representa ψ*ψ, que en la integral anterior se utiliza intercalando la variable entre la conjugada de la función de onda (la que aparece con asterisco) y la función de onda misma:

                                            <x> = ó y*xydx

Cuando se trate de otra magnitud que no sea la coordenada, se colocará en vez de ésta la magnitud en cuestión. Si los límites son menos y más infinito, la integral será igual a uno.

Bibliografía

Alonso, M. Física Atómica.Universidad de la Habana.

Landau, L. y E. Lifshitz. Mecánica Cuántica. Reverté. Barcelona.

Page, L.  y M. Alonso. Física Teórica. Cultural S.A. La Habana.

La Ley de la gravedad de Newton como consecuencia de la teoría general de la relatividad

RESUMEN

Se presenta la obtención de la Ley de Gravitación de Newton a partir de la Ecuación de la Teoría General de la Relatividad a la vez que se señala como en algunas expresiones matemáticas del desarrollo aparecen implícitas algunas características del espacio-tiempo.

ABSTRACT

The Newton Gravitational Law is exposed from the General Relativity Theory Equation and at the same time is remarked how in some mathematical expressions obtained there are implicit some space-time features.

1.  Introducción.

En este trabajo nos acercamos a una aplicación de los  procedimientos de la Física Teórica a la obtención de expresiones matemáticas elementales importantes  como es el caso de la Ley de Gravitación de Newton, en nuestro caso a partir de la ecuación fundamental de la Teoría General de la Relatividad (TGR) a la vez que señalamos como, de cierta manera en las relaciones matemáticas que van apareciendo en el desarrollo, se encuentran implícitas determinadas características del espacio-tiempo que la TGR pone de manifiesto.

No suele encontrarse actualmente abundante literatura sobre la TGR, al menos en la que se desarrolle algún tema con esa teoría relacionado, utilizando tratamiento matemático, Lo que mas encontramos sobre TGR. Son artículos de divulgación en los que se habla, sin uso de las matemáticas, sobre la atracción gravitatoria, el principio de equivalencia, etc., casi siempre acudiendo con más o menos acierto a la modelación elemental. Así vemos con frecuencia la explicación elemental de la deformación del espacio-tiempo por la presencia de masas  apelando al recurso de la  ilustrativa lámina de goma pero nunca ensayando la utilización de las expresiones matemáticas que aparecen en la TGR.

Claro está que un tratamiento riguroso de tales temas, resulta de gran complejidad. Basándonos en lo dicho hemos elaborado este trabajo en el que en forma muy sintética y sin pretender de ninguna     manera, lo  .. 2/.,exhaustivo presentamos la obtención de ciertas relaciones que derivan de la TGR con cuyo formalismo es posible advertir algunas de las mas importantes consecuencias de esa teoría.

2.  Desarrollo.

La ecuación de la TGR (ecuación del campo gravitatorio), se escribe de la siguiente forma:

            Rik – ½ gikR = 8πk/c4 Tik                 (1)

donde Rik tensor de Ricci, gik tensor métrico, Tik tensor energía-impulso, R curvatura escalar del espacio, k constante gravitatoria. Debe tenerse presente que aunque la R es inicial de radio en varios idiomas, en las ecuaciones de la TGR está relacionada con curvatura.

Se utilizan tensores debido a que las leyes de la naturaleza deben describirse de una forma común en cualquier sistema tetradimensional de coordenadas, quiere decir, en forma covariante.

La ec.(1) puede transformarse mediante la siguiente sustitución, en la cual  se advierte la dependencia de la curvatura del espacio de las características mecánicas implícitas en T y por ende de la masa:

R = – 8πk/c4 T

Quedando en la forma:

       Rik = 8πk/c4 (Tik – ½  gikT )                     (2)

Veamos la aplicación de (2) al caso no relativista  de velocidades pequeñas y campo gravitatorio débil. En este caso la lagrangiana tendrá la forma:

      L = -mc2 + mv2 /2 – mφ

3/    donde φ potencial gravitatorio función de las coordenadas y el tiempo que caracteriza al campo.

La acción S no relativista para una partícula en un campo gravitatorio es:

  S = ∫ Ldt = -mc∫ (c- v2 /2c + φ/c ) dt

Comparando este resultado con  S = -mc∫ds donde ds es el intervalo:

ds = ( c – v2 /2c + φ/c ) dt

Elevando al cuadrado, para v/c tendiendo a cero y tomando vdt = dr, se tiene:

ds2  = c2   ( 1+ 2φ/c2) dt2 – dr2

lo cual comparado con la expresión general .

del  intervalo  ds 2  = -g oo c c2dt2- dr2  obtenemos que:

   goo = -1 -2φ/c2                        (3)

En cuanto al tensor Tik se tendrá que en nuestro caso Tik =T= – µc2 (4)         

Poniendo (4) así como gik= 1 en (2):

   Roo = 4πk/c2 µ                                                                   (5)

Por otra parte se sabe que para nuestro caso  Roo = ∂Γoo/∂x    (6) (donde Γoo símbolo de Christoffel) y

Γoo = -1/2∂goo/∂x se tendrá poniendo (3) en ésto, que:

Γoo = 1/c2∂φ/∂x                                                                     (7)

4/   expresión que nos permite darnos cuenta de que  los símbolos de Christofell al depender de la derivada del potencial vienen a ser componentes de la fuerza gravitatoria. Vemos también por (6) la dependencia entre la curvatura y la fuerza gravitatoria mediante Γ una de las consecuencias mas notables de la TGR, dependencia que  en vano trató Einstein de generalizar al campo electrodinámico y otros, algo que a muchos nos hubiera complacido por su gran carga estética. Otros físicos como Kaluza, Klein y Wheeler, como Einstein han trabajado en la geometrización de los campos, sin lograr la buscada unificación, pero sus aportes se emplean con igual fin en la actual teoría de las cuerdas con prometedores resultados.

Poniendo (7) en (6):

Roo = 1/c2  ∂2φ/∂x2                                                                (8)

Por (5)y (8):

       ∂2φ/∂x2   = 4πkµ                                                                     (9)

que es análoga a la ecuación de Poisson de la electrodinámica.

La solución del análogo de (9) para la carga eléctrica   es φ =const. q/r y por analogía en nuestro caso gravitatorio será  φ = -km/r (10) y siendo la fuerza

F = -m´∂φ/∂r, tenemos finalmente:

                            F =-kmm´/r2  

Que es la conocida ley de la gravitación universal de Isaac Newton. Vemos así una demostración de cómo las ecuaciones de la TGR de Albert Einstein, lógicamente, dan para el caso particular de pequeñas velocidades y débiles campos, el resultado   previsto por los métodos de la mecánica newtoniana.  

También podemos ver de (10) y (8) que cuando no hay presente masas se cumple que R00 = 0, Esto no quiere decir que en este caso el espacio es plano, pero nos va acercando a  algo que si se cumple para cuando un                5/  tensor también de curvatura llamado de Riemann, mas general que el de la igualdad anterior, se iguala a cero

3.     Conclusiones.

.Hemos visto como el formalismo matemático que se ha empleado nos da una idea de la relación geometría- gravedad, importante derivación de la TGR.                                                              

La dependencia  geometría- gravedad de cierta forma puesta de manifiesto en algunas de las expresiones matemáticas que hemos visto, permite una aproximación al hecho de que una masa produce una curvatura en el espacio- tiempo plano, una imagen de lo cual  la da la curvatura que un cuerpo pesado provoca al colocarse sobre una lámina de goma estirada. La curvatura debida a una masa en el espacio-tiempo provoca el que un cuerpo que antes de la presencia de la masa en cuestión, al moverse por esa región lo hiciera siguiendo una línea recta, euclídea, por efecto de la curvatura provocada, desvíe su trayectoria siguiendo la trayectoria curva de un segmento de geodésica, camino mas corto (o mas largo) entre dos puntos en el espacio curvo riemanniano, tendiendo a acercarse a la masa que produjo la curvatura. Esto explica el que un rayo de luz al pasar cerca de un cuerpo de gran masa curva su trayectoria hacia éste, hecho que la teoría newtoniana no podría justificar.6/

BIBLIOGRAFÍA

-González,J y R.Ávila. La Ciencia que Emerge con el Siglo.

-Einstein, A. The Meaning of Relativity.

-Greene, B. The Elegant Universe.

Solo percibimos el pasado

Cuando por las noches dirigimos la mirada al cielo estrellado, llegan a nuestros ojos luces de otros días, imágenes de otros tiempos. Sólo nos es dable percibir el pasado.

Cuando observamos la estrella mas cercana a nosotros, Alfa del Centauro, en realidad la vemos como era cuatro años antes ya que la luz tarda ese tiempo en llegar a nuestros ojos. y esta tardanza ocurre no obstante viajar a unos 300 mil kilómetros por segundo  De modo que nunca percibimos una señal luminosa en el  momento en el cual se emite,  pues su propagación aunque muy rápida, no es instantánea.

La demora en la llegada de la luz puede ser notable como es el caso de la procedente de las estrellas y sobre todo de galaxias alejadas a miles de millones de años luz, pero resulta inadvertida cuando el objeto luminoso, ya sea por luz propia o reflejada, se encuentra cerca del observador. Tardanza no advertida, pero existente. Es así que aún pareciendo metáfora, decimos que sólo percibimos el pasado. Pasado  que de los hechos cercanos en el espacio nos parecen del presente, pero no lo son.

 De la no instantaneidad de la propagación de la luz tenemos evidencia cuando en medio de una tempestad, al producirse una descarga eléctrica, vemos primero la luz del relámpago y algo mas tarde oímos el ruido del trueno. Aunque el sonido tampoco es instantáneo, es mucho mas lento que la luz, su velocidad es de sólo 340 metros por segundo. Tal cosa nos permite calcular aproximadamente la distancia a la que se ha producido la descarga, contando los segundos que median entre relámpago y trueno, y multiplicándolos por 340 ya que podemos considerar sin mucho error  la tardanza del relámpago igual a cero.

El extraordinario valor de la velocidad de la luz tuvo confirmación teórica a partir de las ecuaciones de la electrodinámica formuladas a mediados del siglo XIX, por el insigne físico escocés James Clerk Maxwell.  Las interesantes consecuencias que se derivan de la insuperable e inigualable velocidad de la luz, ha motivado reflexiones de filósofos y servido de inspiración a poetas y autores de relatos y novelas. El escritor inglés Bob Shaw, publicó un cuento que consideramos antológico titulado Luz de otros días catalogado de ciencia- ficción pero muy alejada, para bien, del estilo habitual de esa modalidad literaria. En el relato se habla de unos vidrios de ventana que ciertos expertos artesanos fabrican de tal forma que la luz va tan lenta en ellos, que tarda  años en atravesarlos. Una vez fabricados, los vidrios (no es correcto decir cristales), se colocan frente a un paisaje iluminado hermoso, por lo general campestre. En la narración se habla de cristales de diez años para que el paisaje atraviese el cristal. En la narración se cuenta una sentimental historia de un padre que ha instalado una ventana con uno de esos ccristales que le traen escenas de cuando su hijo vivía.

  Abel, Galois y el concepto de estructura matemática

No obstante lo corto de sus vidas, a los matemáticos  Niels Henrik Abel y Evariste Galois se debe la fundamentación del importante  concepto de Grupo en Matemáticas. Aunque mas adelante aclararemos los términos, por ahora daremos una idea de lo que se entiende por Grupo sin intentar una definición rigurosa. En Matemáticas un conjunto de elementos, por ejemplo de números, constituyen un Grupo asociado a una operación matemática, por ejemplo la suma, si la suma de dos de esos elementos da un elemento de ese mismo conjunto.  El Grupo constituye una Estructura Matemática. Existen otras Extructuras Matemáticas como las Estructuras de Anillo y de Cuerpo.  

Sin lo dramáticamente peculiar de sus vidas, habrían pasado a la historia de la ciencia, los nombres de Niels Henrik Abel y Evariste Galois, estos dos ilustres matemáticos por su talento y por la importancia de sus obras.

Niels Henrik Abel desarrolló su obra en los primeros años del siglo XlX. En su natal Noruega, pronto se destacó en el campo de las Matemáticas a las cuales hizo aportes que sólo después de su muerte fueron altamente valorados. Sus trabajos se concentraron en la resolución de ecuaciones algebraicas y en la teoría de los grupos fundamental concepto de la Matemática Moderna. Tal es la importancia de su contribución, que un tipo de Grupos Matemáticos se denominan Abelianos. Con motivo de conmemorarse en el 2002 el bicentenario de su nacimiento, se instituyó el Premio Abel de Matemáticas en honor a él.

Pero de tanta gloria ni siquiera sospechó Abel por la indiferencia o por la ignorancia de sus contemporáneos que no lo reconocieron al menos en su inmediato entorno, cosa muy común. No obstante sus trabajos llegaron a Berlín y su universidad acordó nombrarlo profesor de su claustro, distinción inmensa, pero la notificación llegó adonde hubiera podido recibirla Abel, dos días después de morir víctima de la tuberculosis. Tenía tan solo 27 años.

Análoga a la de Abel es la historia del francés Evariste Galois. Vivieron en la misma época y se dedicaron tambien dentro de las Matemáticas al estudio de los Grupos, pero no tenemos noticias de que se conocieran.Al igual que Abel, sus trabajos sólo fueron reconocidos, y de que manera, después de su muerte pero de tal forma que en cualquier texto de Algebra Moderna su nombre como el de Abel es citado alrededor de veinte veces.

Presumiendo su muerte escribió a un amigo una carta en la cual resumía toda su Teoría de los Grupos y le pedía que se la enseñara a los conocidos matemáticos Jacobi y Gauss solicitando su opinión. Al otro día de enviarla murió en un duelo a los 21 años de edad. El amigo no hizo lo que le pedía Galois. La carta apareció catorce años después

Triste historia de dos genios cuyas vidas fueron tronchadas cuando comenzaban, ignorados absurdamente por sus contemporáneos. Hemos calificado el no reconocimiento a tiempo de ignorancia, abulia, indiferencia, pero no hemos acudido a  una explicación que es muy probable: la envidia, la envidia  muy presente en estos casos, bien que lo saben los envidiables envidiados.

Pasaremos ahora a tratar sobre el concepto de Estructura Matemática para lo cual es necesario exponer previamente, el de Estructura  en general siguiendo los criterios de Jean Piaget y Claude Levi- Struss.

Sin pretender una definición rigurosa, diremos que a una Estructura es a) un sistema de elementos interrelacionados entre si, b) el sistema presenta propiedades que no se evidenciaban en los elementos aisladamente (emergencia), c) los elementos interaccionan (operan) entre si dando lugar a elementos que también pertenecen al sistema. La condición c) nos recuerda el concepto de Grupo que al principio dimos. Por lo menos por la condición b),  el surgimiento de propiedades emergentes  (Emergencia) en la Estructura, esto es, propiedades que no evidenciaban los elementos por separado, se asemeja el concepto de Estructura al de Sistema Complejo en el contexto de la Teoría de la Complejidad. Conocidos estos aspectos podremos entender que se tengan como ejemplos de Estructura, atendiendo principalmente a la Emergencia, los sigientes.

     – La mente. La conciencia emerge  en el sistema de neuronas, ninguna neurona es consciente por si sola.

-          La Sociedad. Las relaciones sociales emergen en la colectividad, un individuo aislado no evidencia lo social.                                                           La molécula. El cloruro de sodio. la sal común, emerge al combinarse  el átomo de cloro con el de sodio. Ni el átomo de cloro ni el el de sodio, aisladamente son la sal común.

-          Según Ferdinand de Saussure considerado como el fundador de la lingüística, la lengua es un conjunto de signos que aislados nada significan, sólo al integrarse en la Estructura habla,  los signos adquieren significado.

     En cada  uno de los ejemplos mostrados, se cumple también la condición c) antes enunciada. En cada caso, una relación propia del sistema (una operación) efectuada entre elementos del mismo, da lugar a un elemento del mismo conjunto. En la mente: la sinapsis, en la sociedad las respectivas y conocidas relaciones, en el caso de las molécula: las combinaciones químicas y en el habla: las reglas gramaticales.

Llegado a este punto ya podemos referirnos al ejemplo de Estructura que nos ocupa: la Estructura Matemática. El Grupo de cuyo concepto ya dimos idea, muestra las características de Estructura en general. Veamos, el conjunto de los números enteros y positivos con la operación suma constituye una Estructura. Los números aislados fuera del sistema nada significan, sólo toman significado cuando emergen propiedades como la suma dando como resultado elementos que también son del conjunto.

Como ya dijimos existen otros tipos de Estructuras Matemáticas como son la Estructura de Anillo y la de Cuerpo. Se asemejan a la de Grupo, pero en la de Anillo son dos las operaciones: suma y producto cumpliendo la propiedad distributiva. En la Estructura de Cuerpo, además se cumple la propiedad asociativa de la suma lo cual la diferencia de la de Anillo.

Hemos visto, pues, como  el breve pero brillante paso por la Historia de Niels Henrik Abel y Evariste Galois significó la consolidación de los fundamentos de lo que hoy se conoce como Matemática Moderna.

Alzarse sobre hombros de gigantes

A Isaac Newton se debe una frase a cuya cita acuden en sus obras quienes a la ciencia se dedican como investigadores, profesores y divulgadores cuando entre otras intenciones se resalta el gesto enaltecedor de quienes al lograr sintetizar inteligentemente una serie de hipótesis y supuestos teóricos hasta ese momento dispersos y aislados, al exponer sus resultados, declaran que el éxito se debe a haberse alzado sobre hombros de gigantes.

En su histórica frase del siglo XVII, contestaba Newton a frustrados detractores que alegaban que lo expuesto por el sabio inglés ya  estaba dicho por Kepler y Galileo. No alcanzaban los críticos en su miópico análisis que la genialidad consistió en descubrir que los atisbos teóricos de Galileo, Kepler, Tycho Brahe y otros, tenían una fundamentación única, poderosa, elegante.

Caso de semejante magnitud y significado, se presentó años mas tarde cuando el eminente físico escocés James C. Maxuell, elaboró la segunda gran síntesis que registra la historia de la física: la Teoría del Electromagnetismo

En cuatro concisas  y estéticamente admirables ecuaciones, con escaso número de símbolos y signos, que escritos en la tipografía habitual, ocupan unas cuatro pulgadas cuadradas, puede decirse que expuso Maxwell el basamento fisico-matemático del electromagnetismo.

En estas ecuaciones expresadas en una matemática un tanto sofisticada, que no compleja, puede advertirse  luego de un detenido análisis, bastante del contenido de las leyes de Gauss, Coulomb, Ampere y Faraday, y es ahí que en precipitado arranque, fracasados, científicos, convertidos en cazadores, pero al fin cazados, de aparentes fallas de los grandes, se lanzan a presentar a Maxwell como reproductor de los hallazgos de Gauss, Ampere y Faraday. No aprenden de la historia. Ocurrió con Maxwell y sus ecuaciones algo semejante a lo acontecido con Newton y sus leyes. Algo semejante pero de manera más brillante e impactante como a continuación veremos.

He aquí las ecuaciones de Maxwell:

óE.dA=q/e0           (1)

óB.dA=0               (2)

óE.ds=-dfB/dt      (3)

óB.ds=m0I+e0m0djB/dt      (4)

Cuando se habla de elegancia matemática se hace referencia entre otros aspectos a la sencillez de expresión, que permite advertir en símbolos y signos lo esencial del contenido en este caso, la evidente simetría formal correspondiéndose con la simetría de significados.

Veamos como se evidencian en las ecuaciones de Maxwell las citadas leyes de  Gauss, Coulomb, Faraday y Ampere.

La ecuación (1) lleva implícita la ley de Gauss y se puede derivar de ella la ley de Coulomb:

EA=q/e0    y E=1/4pe0q/r2

Tener en cuenta que  EA=jE   flujo eléctrico, y por tanto: jE=q/e0.

De igual forma la ecuación (2), consecuente con la simetría maxwelliana, expresa lo que puede llamarse ley de Gauss para el Magnetismo donde la igualdad a cero indica que el flujo magnético neto es cero y por tanto no existen "cargas magnéticas".

La ecuación (3) nos muestra en el primer miembro la fuerza electromotriz como circulación del vector campo eléctrico E y en el segundo miembro la variación con signo menos del flujo magnético con el tiempo. De modo que advertimos en esta ecuación (4), la ley de Faraday.

En la ecuación (4) se presenta con sin par elegancia y manejo del raciocinio fisico-matemático el genial hallazgo teórico de Maxwell de lo que se conoce como corriente de desplazamiento. Para entender el razonamiento en cuestión, debemos fijarnos en lo que ocurre entre las placas de un condensador alimentado por un generador de corriente alterna. Dado que entre las placas media un dieléctrico, entre las mismas no habrá corriente de conducción que si la habrá por los conductores que enlazan con el alternador. Para la corriente de conducción aparece el primer término del segundo miembro de la ecuación (4) que no es otra cosa que la ley de Ampere al completarse con el primer miembro. . En la interpretación y adaptación del segundo término aparecen con toda intensidad las luces de la mente maxwelliana. Intuyó el sabio escocés, primero que por analogía con la ley de Faraday, la variación del flujo eléctrico con el tiempo entre las placas generaría a su alrededor un campo magnético al igual que la variación del flujo magnético genera un campo eléctrico. Y que en la expresión matemática del segundo término aparece multiplicando a la permeabilidad magnética algo análogo a la intensidad de corriente o sea, algo análogo a dq/dt. Y en efecto si efectuamos la sustitución  del flujo por q/e0, se tendrá: e0d/dt (q/e0)=dq/dt expresión que por analogía (y por simetría) llamó corriente de desplazamiento Id. Así, el segundo término adquiere forma análoga al segundo miembro de la Ley de Ampere.

Toma entonces la ecuación (4) la sencilla forma:  óB.ds=m0(I + Id) en la cual se nos presenta una generalización de la ley de Ampere.

En esa monumental obra está la genialidad de Maxwell, pero está también la de Gauss, la de Coulomb, de Faraday y Ampere, gigantes sobre cuyos hombros pudo alzarse otro gigante.

         La dinámica del caos

La Dinámica, como es sabido, es la parte de la Física que estudia el movimiento. Por sistemas dinámicos entenderemos en este trabajo, los sistemas físicos, químicos, biológicos y sociales, cuyas propiedades varían con el tiempo y por lo general los estudiaremos mediante sistemas de ecuaciones diferenciales del tipo:

dx/dt=f(x,y.z)

dy/dt=g(x,y,z)                                (1)

dz/dt=h(x,y,z)

a los cuales llamaremos por brevedad, sistemas dinámicos.

Para el tratamiento del caos en el contexto de la Teoría del Caos, los sistemas dinámicos serán no lineares.

El climatólogo norteamericano Edward Lorenz  desarrolló la Teoría del Caos como hoy la conocemos, motivado por advertir que cuando por medio de sistemas de ecuaciones diferenciales semejantes a (1), intentaba establecer pronósticos de condiciones climáticas, partiendo de determinadas condiciones iniciales, los resultados variaban notablemente  con sólo variar ligeramente los valores iniciales de las variables. Se le ha llamado  caos a la situación que presenta un sistema dinámico cuando por ligeros cambios en las condiciones iniciales, a partir de ciertos valores de las variables, éstos cambian considerablemente sin presentar ni periodicidad ni aparente orden

Lorenz modeló matemáticamente la dinámica del caos mediante el siguiente sistema de ecuaciones:

dx/dt=s(y-x)

dy/dt=rx-y-xz                                 (2)

dz/dt=xy-bz

La no linealidad la advertimos en los términos xz  y   xy. s es el número de Pradtl. R número de Rayleigh y b una constante  sin nombre.

La resolución de sistemas como (1) y (2), a veces no posible por los métodos generales lo que hace recurrir a métodos numéricos y gráficos, conduce a la posiblidad de deteriminar en el espacio fásico de las x,y, z o análogas, trayectorias fásicas, conformando un retrato fásico del sistema, cada uno de cuyos puntos representan un estado del mismo. El flujo de trayectorias fásicas, remeda el de un fluído. Los puntos donde eventualmente convergen las trayectorias fásicas se denominan puntos fijos estables o atractores y constituyen estados estacionarios para los cuales los primeros miembros de (1) y (2) se hacen cero. También son iguales a cero los primeros miembros de (1) y (2),  para los puntos fijos inestables, esto es,  de donde salen trayectorias fásicas, los cuales se denominan  focos. En algunos casos las trayectorias que salen de los focos se enrrollan en órbitas cerradas las cuales pueden constituir cíclos límites característicos de los procesos  oscilatorios.  

El sistema de Lorenz (2) es disipativo con lo que el volumen fásico se contrae con el flujo como mostramos a continuación. Consideremos el volumen fásico V contendo en una superficie cerrada que pasa a ser  en un tiempo infinitesimal dt, V´.  La variación de volumen la calculamos tomando una porción de volumen en la superficie en forma de paralelepípedo infinitesimal   de base dA y espesor  f.ndt donde f  velocidad instantánea (idx/dt+jdy/dt+kdz/dt) y n vector unitario normal a la superficie, de modo que la variación de volumen será:

V´-V=ó(f.n)dtdA

y por tanto

dV/dt=(V´-V)/dt=óf.ndA                                (3)

y por el teorema de la divergencia.

dV/dt=óÑ.fdV

 Ñ.f=-s-1-b=C<0                                                 (4)

 donde C constante,se tendrá por (3) y (4):

V=De-C t          

Con D constate, igualdad que nos dice que el volumen se contrae exponencialmente, tendiendo a cero para t tendiendo a infinito, de acuerdo al carácter disipativo del sistema (2) de Lorenz.

Si en el proceso descrito se parte de cierto volumen de condiciones iniciales, eventualmente éste se contraerá en un conjunto límite, por lo antes explicado, tendiendo a cero. Todas las trayectorias que partan del volumen inicial terminan en dicho conjunto límite, el cual consistirá de puntos fijos, ciclos límites o en lo que como veremos mas adelante, se  denomina atractor extraño, característico del caos.

Mediante el sistema (2) de Lorenz, se muestra que para un valor  r= (s(s+b+3))/(s-b-1)  con s-b-1>0, ocurre una bifurcación, esto es, puntos fijos que pierden estabilidad. Lorenz mostró que para s=10, b=8/3 y r=28,  o sea para un valor de r justo por encima del valor de bifurcación como puede comprobarse  por la igualdad última, las trayectorias  muestran una fascinante estructura en el espacio de fases, que responde a la solución del sistema y el ploteo a partir de la condición inicial (0,1,0). Se ha llegado a la condición de caos. La forma tridimensional que aparece es un atractor extraño, configuración a la que antes nos referimos, y que como entonces demostramos se confina en un conjunto limitado cuyo volumen tiende a cero. Proyectada la figura en el plano xz, se observa la trayectoria que partiendo del origen describe un número indeterminado de espirales a un lado del gráfico, para pasar al otro lado describiendo espirales en parecida forma, pasos que ejecuta alternativamente, caóticamente, semejando el conjunto las alas de una mariposa. (Advertimos que no es a esto a lo que se refiere la célebre metáfora del caos:"el aleteo de una mariposa en San Francisco es capaz de provocar un huracán en Beiguin"). Es engañosa la aparente unión de las alas de la mariposa sobre el eje z, del Atractor Extraño de Lorenz En realidad las espiras están en planos distintos sumamente cercanos, adoptando  una regularidad fractal.  La regularidad aproximada del Fractal de Cantor, el cual se obtiene a partir de un segmento de recta que se divide en tres partes iguales, se suprime la del medio y este proceso se repite en cada porción que se obtiene, una y otra vez llegándose a segmentos tan pequeños que prácticamente son puntos. Los cortes de las espiras por un plano, conforman en el mismo un fractal de Cantor aproximadamente. Notamos así  un cierto orden en el caos.

Hemos dado una idea de lo fundamental de la dinámica del caos tal como se entiende en la llamada Teoría del Caos, la cual como aspecto de la Teoría de la Complejidad, constituye uno de los paradigmas de la ciencia de nuestros tiempos.

Bibliografía

Gleick, J. 1987. Chaos. Penguin Books. New York.

Peitgen-Jurgens-Saupe, 2004.Chaos and Fractals. Springer. New York.

Strogatz, S. 2000. Non Linear Dynamics and Chaos. Perseus Books Group. Cambridge.

Dos vidas, dos genios, dos absurdos finales

Sin lo dramáticamente peculiar de sus vidas, habrían pasado a la historia de la ciencia, los nombres de Niels Henrik Abel y Evariste Galois, estos dos ilustres matemáticos por ellos y por la importancia de sus obras.

Niels Henrik Abel desarrolló su obra en los primeros años del siglo XlX. En su natal Noruega, pronto se destacó en el campo de las matemáticas a las cuales hizo aportes que sólo después de su muerte fueron altamente valorados. Sus trabajos se concentraron en la resolución de ecuaciones algebraicas y en la teoría de los grupos fundamental concepto de la matemática moderna. Tal es la importancia de su contribución, que un tipo de grupos matemáticos se denominan abelianos. Con motivo de conmemorarse en el 2002 el bicentenario de su nacimiento, se instituyó el Premio Abel de Matemáticas en honor a él.

Pero de tanta gloria ni siquiera sospechó Abel por la indiferencia o por la ignorancia de sus contemporáneos que no lo reconocieron al menos en su inmediato entorno, cosa muy común. No obstante sus trabajos llegaron a Berlín y su universidad acordó nombrarlo profesor de su claustro, distinción inmensa, pero la notificación llegó adonde hubiera podido recibirla Abel, dos días después de morir víctima de la tuberculosis. Tenía tan solo 27 años.

Análoga a la de Abel es la historia del francés Evariste Galois. Vivieron en la misma época y se dedicaron también dentro de las matemáticas al estudio de los grupos, pero no tengo noticias de que se conocieran. Al igual que Abel, sus trabajos sólo fueron reconocidos, y de que manera, después de su muerte pero de tal forma que en cualquier texto de Algebra Moderna su nombre como el de Abel es citado alrededor de veinte veces.

Presumiendo su muerte escribió a un amigo una carta en la cual resumía toda su teoría de los grupos y le pedía que se la enseñara a los conocidos matemáticos Jacobi y Gauss solicitando su opinión. Al otro día de enviarla murió en un duelo a los 21 años de edad. El amigo no hizo lo que le pedía Galois. La carta apareció catorce años después

Triste historia de dos genios cuyas vidas fueron tronchadas cuando comenzaban, ignorados absurdamente por sus contemporáneos. Hemos calificado el no reconocimiento a tiempo de ignorancia, abulia, indiferencia, pero no hemos acudido a  una explicación que es muy probable: la envidia, la envidia  muy presente en estos casos, bien que lo saben los envidiables envidiados.

Me he referido varias veces al concepto grupo en el contexto matemático y quiero, como es mi costumbre, dar una idea de que se trata. En matemáticas, no es lo mismo grupo que conjunto. Todos los grupos son con juntos pero no ocurre lo contrario. Un conjunto, de números por ejemplo, es un grupo si una operación matemática  realizada entre ellos da como resultado orto elemento del mismo conjunto.

Complejidad, caos y biogenética

Resumen

Atendiendo a los conceptos en los cuales se sustenta la Teoría de la Complejidad  y por ende del Caos, tratamos los principales temas que conforman la moderna biología y la genética, los cuales constituyen gran parte  de su contenido.

LA COMPLEJIDAD

Nos referiremos a cómo se mide la complejidad de un objeto o de un sistema. La medida de la complejidad se expresa en términos de información tal como se entiende en teoría de la información. Un objeto A es mas complejo que un objeto B, si para expresar A se necesita un programa mas largo expresado en bits que el necesario para expresar B.

Sea el programa para expresar A:

                                 100110

y el necesario para expresar B:

                                  101010.

El programa de B es mas corto pues puede reducirse a decir: escribe tres veces 10. Su expresión es mas corta que su ejecución. Para expresar A hay que ejecutar el programa, no puede reducirse. A es un objeto mas complejo que B.

Pero la complejidad de un objeto o de un sistema no la caracteriza solamente su medida. Un sistema complejo se caracteriza porque, y esto es muy importante, presenta propiedades   que no presentaban los componentes del sistema antes de  entrar a constituir el sistema. A estas propiedades que surgen después de constituido el sistema se les llama propiedades emergentes y es éste uno de los conceptos mas importantes de la Teoría de la Complejidad.

Pondremos un ejemplo fuera de las matemáticas. Dos personas cantando al unísono sin acoplar sus voces, no constituyen un sistema complejo porque en lo que cantan no aparece musicalmente nada que no mostraran sus voces cantando por separado. No surgen propiedades emergentes. Pero si acoplan sus voces, cantando en tonos distintos, voz prima y voz segunda, ya surge una tonalidad nueva, armonizada, que no presentan las voces separadas. El dúo acoplado ya es un sistema complejo, presenta propiedades emergentes. Y además, en cuanto a lo que antes vimos de medida de la complejidad, es evidente que el programa del dúo cantando al unísono, que sería: canten, es mas corto que el del dúo acoplado que sería algo así como: cante uno en una tonalidad mas alta que la del otro.

Es en los sistemas complejos como la atmósfera, el organismo humano, las poblaciones y otros donde pueden surgir situaciones de caos cuando pequeñas variaciones de las condiciones iniciales provocan grandes variaciones en los correspondientes procesos físicos, químicos, biológicos, sociales, económicos o de otra índole, todos descritos por sistemas no lineales..

Aunque resulta válido el ejemplo del dúo armonizado para mostrar las características de un sistema complejo, tomaremos otro ejemplo ahora de la biología. En una célula aislada no se detecta la acción termorreguladora que si se advierte cuando se tiene un colectivo de células constituyendo un tejido. En éste ya se advierte la aparición de propiedades emergentes al constituirse el colectivo. Además la caracterización del tejido como sistema complejo la refuerza el hecho que el programa informático que lo describe es más complejo que el necesario para describir una célula aislada.

Y un ejemplo más de aparición de propiedades emergentes: el funcionamiento del láser. El dispositivo emisor de la luz láser tiene como función transformar luz incoherente esto es, luz producida por la excitación de átomos sin coordinación ninguna entre ellos, en luz coherente producto de la emisión por los átomos al actuar ordenadamente. Esta ordenación es una autoordenación, que surge como propiedad emergente al actuar los átomos cooperativamente, mostrando propiedades que no manifestaban aisladamente. El proceso de autoordenación a partir de una inestabilidad anterior en el sistema con el paso a una estabilidad, ocurre lejos del equilibrio termodinámico del sistema que se trate, como ocurre en el láser, en los tejidos vivos y otros.En ese proceso se establece lo que Prigogine llama una estructura disipativa pues necesita que se le suministre energía y/o sustancia para mantenerse. Estos procesos se efectuán en sistemas abiertos donde acciones endoergónicas se conjugan con exoergónicas o de aumento de entropía. Eso justifica el que los organismos vivos puedan mantenerse ordenados con aparente violación de la segunda ley de la termodinámica que afirma que la entropía (el desorden) tiende a aumentar. Estos argumentos que acabo de bocetar, constituyen el aporte que le valió el Premio Nobel a Prigogine.

La biofísica

A partir del pasado siglo XX, la física ocupa un papel preponderante entre las ciencias. Tanto es así, que a partir de la cuarta década de la pasada centuria, un icono de la ciencia moderna lo constituía la conocida representación, más bien simbólica del átomo consistente en una figura que recuerda la disposición de los planetas alrededor del sol.

Esa indiscutible importancia la mantiene en el presente siglo y es así que la UNESCO ha establecido el presente como Año Mundial de la Física. Pero otra ciencia, la Biología, comparte la relevancia en los últimos tiempos sobre todo en la rama de la genética. Los trascendentales logros de la ingeniería genética como la transgénesis, la clonación y últimamente lo relacionado con el genoma humano, junto con el hecho de que esta ciencia trata sobre la vida y su mantenimiento saludable, hace que se le asigne un papel protagónico.

Pero sin que se trate de discutir predominio entre ciencias, lo cual sería poco serio, es justo que se tenga presente que en la base teórica de la Moderna Biología, y recalcamos lo de moderna, está la física.

Antes de que la biología comenzara a adentrarse en el estudio de los procesos básicos que ocurrían en la materia viva, prevalecían los métodos descriptivos basados en la observación los cuales llegaban sólo hasta la célula. Cuando se comienzan a utilizar los instrumentos teóricos y prácticos de la química, los estudios  biológicos que antes  llegaban hasta la célula, siguieron hasta la molécula y surge esa importante rama de la biología moderna que es la Biología Molecular y es la que ha conducido a los logros de la genética a los que antes me refería.

Pero en el substrato de la química, en su base fundamental está la teoría del átomo, y ya esto es física. Y es con el decisivo, con el determinante aporte de la física que ha nacido la Biofísica

Los métodos de la física, con en el instrumento de las matemáticas se ha adentrado en gran parte de los procesos biológicos con lo cual se han alcanzado notables avances en ramas tan importantes como la medicina.

La biofísica explica procesos vitales como la transmisión del impulso nervioso, la contracción de los músculos, la fibrilación cardíaca, la visión, los procesos oscilatorios en el organismo y otros muchos.

Gracias a la Biofísica y sobre todo después de los estudios del  Premio Nobel belga, Ilya Prigogine , se ha podido comprender como en el ser vivo las sustancias en su interior tienden a ordenarse o sea a disminuir la entropía con lo cual aparentemente se viola la Segunda Ley de la Termodinámica. La Biofísica explica esto a partir de Prigogine, aduciendo que en los procesos químicos en el ser vivo ocurren lo que se llaman  reacciones conjugadas en las que cuando se presenta una que viola la Segunda Ley, surge otra en la que sí aumenta la entropía de tal modo que se produce un aumento neto de esa magnitud.-

La física hace su aporte también a la biología pero ya no como Biofísica propiamente dicha sino como Física Biológica que es la rama de la física que permite construir dispositivos para estudiar la materia viva. Es así que por procedimientos físicos como es el uso de los rayos X se han podido estudiar la estructura de moléculas como la del ADN del que tanto se habla en nuestros días y que es responsable de la transmisión de la información genética.

Ya en el estudio en si  de la información genética, es la Biofísica la que se hace cargo y no la Física Biológica que fue la que nos mostró por rayos X la estructura del ADN.

En los últimos tiempos la Biofísica ha recibido los aportes de la teoría del caos, la de los fractales y sobre todo de la termodinámica de los procesos irreversibles o de no equilibrio, aporte éste de Prigogine al cual antes me referí. Según esto último y contra lo que pudiera pensarse,  la consecución de condiciones de no equilibrio termódinámico coadyuva a que sistemas como el organismo vivo enfermo pase a un  estado de ordenamiento saludable.. Basándose en esa misma teoría algunos médicos como el colombiano Dr.José Félix Patiño opinan que  siendo el cáncer un  organismo vivo indeseable lo que se debe buscar es  evitar  que se mantenga en condiciones de no equilibrio para que no pase a un estado de ordenamiento. Debe tenerse en cuenta que en termodinámica no es lo mismo equilibrio que orden.

En resumen que en este Año Mundial de la Física es justo una merecida referencia a la Biofísica y a su importancia. 

Biología molecular y genética

En estos tiempos los medios de comunicación, aún los no especializados en ciencias, se hacen eco a menudo de conceptos como Biología Molecular y Genética en temas relacionados con la salud y los medicamentos.

La Biología Molecular trata de la química de las sustancias que desempeñan un papel fundamental en los procesos biológicos tanto como agentes pasivos como propiciadores de los mismos. Entre esas sustancias, las proteínas aparecen  entre las más importantes. Las proteínas realizan función de catalizadores en procesos vitales  que sin su intervención no serían posibles. Químicamente son el resultado de la síntesis de cuerpos menos complejos llamadas aminoácidos de los cuales se conocen 20. La reacción de síntesis de  las proteínas se produce con disminución de la entropía en una aparente violación de la segunda ley de la termodinámica si no fuera porque conjugada con la misma se realiza otra reacción en la que un aumento de entropía garantiza su crecimiento neto. Llamo en este punto la atención sobre como la física interviene en estos procesos que yo propongo denominar como de la bioquímica-física.

La secuencia de los aminoácidos en la constitución de las proteínas, está determinada por el llamado código genético de cada individuo mediante los genes, entidades biológicas contenidas en el núcleo de las células que a su vez son parte de la macromolécula del ácido desoxirribonucleico  conocido por sus siglas ADN.

Para explicar como determinan los genes de cada cual la disposición de los aminoácidos en las proteínas tenemos que referirnos a la composición y estructura del ADN.

El ADN está compuesto por dos cadenas  de nucleótidos entrelazadas unidas por pares de bases nitrogenadas constituyendo una doble hélice, figura ésta que semeja una escalera de caracol y que en los medios se toma como icono de la genética.

Cada nucleótido está formado por un azúcar,  un compuesto fosfatado y una de las citadas bases nitrogenadas la cual puede ser una de estas cuatro: Adenina, Guanina, Citosina y Timina. La secuencia de estas bases al unirse entre si  determinan las propiedades del gen. El número de pares de bases nitrogenadas es aproximadamente igual al número de bits de información o complejidad del ejemplar.  La información para la determinación de las propiedades del gen  debe copiarse primero en una forma químicamente parecida al ADN, el ácido ribonucleico, ANR mensajero de la información  que mediante la secuencia de sus bases nitrogenadas determina la disposición de los aminoácidos en las proteínas. Por tanto, variaciones en el ADN, transmitida esa información como explicamos por el ARN, puede producir cambios que afecten la estructura o la química de un organismo.

Al estar contenido el ADN en los genes y dado el papel de éstos en los caracteres hereditarios, se muestra el papel fundamental que desempeña ese ácido nucleíco en la evolución biológica. De ahí la importancia de los hallazgos relacionados con el descifrado del Genoma Humano de los cuales tanto se comenta en la actualidad.

 Los avances en los estudios de la genética han permitido espectaculares logros en ingeniería genética mediante manipulación biológica  en procesos tales como la transgénesis y la clonación, esta última generadora de amplios debates de índole no solo científicos sino también éticos, religiosos y filosóficos.

Otros avances han sido mucho mejor acogidos por sus evidentes beneficios como  son los experimentados en lo concerniente a los anticuerpos monoclonales, todo lo cual hace de la genética una de las ciencias que caracterizarán, al hacerse el debido recuento, a este siglo XXI del cual acaba de finalizar su primer quinquenio.  

La evolución biológica

Abordaré esta aproximación  a un análisis del proceso de la evolución biológica tomando en cuenta que un sistema biológico es un sistema termodinámico abierto lo cual quiere  decir que intercambia materia y energía con el exterior.

Mediante ese intercambio el sistema puede encontrarse alejado del equilibrio termodinámico, en el no equilibrio termodinámico tan necesario para posibilitar la vida, el movimiento.

Puede tenerse clara idea de lo que es el equilibrio termodinámico y de la importancia del no equilibrio mediante un ejemplo tomado de la física. Si calentamos una barra metálica por un extremo y la dejamos que evolucione libremente, llegará a adquirir una temperatura uniforme, la entropía, el desorden de las partículas del metal, habrá llegado al máximo, se habrá alcanzado el equilibrio termodinámico después del cual ya no habrá evolución alguna, habrá ocurrido la llamada "muerte térmica" del sistema.

El intercambio de energía y sustancia del sistema biológico con el exterior garantiza la no llegada de la entropía al máximo, esto es, propicia la evolución.

Partes: 1, 2, 3
 Página anterior Volver al principio del trabajoPágina siguiente