- Teoría atómica de Dalton
- Rayos catódicos
- Rayos X
- Radioactividad
- Teoría ondulatoria de la luz
- Teoría de Max Planck
- Espectros continuos y discontinuos
- La teoría de Bohr
- Ecuación de Rydberg
- Teoría de Broglie
- La Teoría Atómica moderna
- Distribución electrónica
- Ecuación de Schrödinger
- Números cuánticos
- Bibliografía
La teoría atómico-molecular clásica tiene por base la teoría atómica de Dalton. Existe entre estas dos teorías algunas diferencias fundamentales.
Para Dalton, la partícula mas pequeña de una sustancia era el átomo. Si la sustancia era simple, Dalton hablaba de "átomos simples"; por ejemplo de cloro, de hidrogeno, etc. Si la sustancia era Compuesta, Dalton hablaba de" átomos compuestos"; por ejemplo de agua. En realidad, los "átomos" de Dalton, son las partículas que nosotros Llamamos moléculas Los siguientes postulados, son los que constituyen la teoría atómico-molecular clásica: (1 – Toda la materia es discreta y esta formada por partículas pequeñas, definidas e indestructibles denominadas átomos, que son indivisibles por los métodos químicos ordinarios, (2 – Los átomos de un mismo elemento son iguales y tienen las mismas propiedades; los átomos de elementos distintos son diferentes y tienen propiedades también diferentes (3 – Las moléculas se forman por la unión de un numero entero de átomos del mismo o de distintos elementos, en relaciones numéricas simples. (1: 1; 2: 1; 3: 2; etc. )En el siguiente ejemplo se representa la formación de una molécula de cloro Cl2,a partir de dos átomos de cloro: relación numérica 1:1
Para ver el gráfico seleccione la opción "Descargar" del menú superior
En el siguiente ejemplo se representa la formación de una molécula de oxigeno O2 y una de hidrogeno H2 :
Para ver el gráfico seleccione la opción "Descargar" del menú superior
En el siguiente ejemplo se representa la formación de dos moléculas de agua, a partir de una molécula de oxigeno y dos de hidrogeno: relación numérica 2:1
Para ver el gráfico seleccione la opción "Descargar" del menú superior
.( 4 – Las sustancias simples y compuestas están constituidas por moléculas. ( 5 – Las moléculas de una misma sustancia son iguales en todos sus aspectos y distintas a las de otras sustancias, (6 – Las moléculas de las sustancias simples están formadas por átomos iguales (del mismo elemento). Cuando el numero de átomos que forma la molécula de una sustancia simple es uno, la molécula de esta sustancia se identifica con el átomo del elemento correspondiente. (7 – Las moléculas de las sustancias compuestas están formadas por átomos de por lo menos dos elementos diferentes. El numero de átomos de cada elemento que interviene en la formación de una molécula de una misma sustancia compuesta, es el mismo para todas las moléculas de la misma sustancia.
Entre los experimentos con electricidad había algunos que tenían que ver con enviar corrientes eléctricas a través de tubos de vidrio que contienen diferentes clases de gases. Cuando la corriente se encendía, el electrodo negativo, o cátodo, se iluminaba con una extraña luz verde, y en forma similar, un punto brillante verde aparecía en la pared opuesta del tubo. Era claro que algo estaba viajando en línea recta a través del tubo, a partir del cátodo; este "algo fue llamado rayo catódico.
Alguien sugirió que los rayos catódicos deberían ser ondas, como la luz o los recientemente descubiertos rayos-x. Pero las ondas, como todo el mundo sabía entonces, no podrían llevar carga eléctrica; solamente las partículas pueden hacer eso. Por esta razón los resultados experimentales de Thomson lo convencieron de que los rayos catódicos tenían que estar hechos de partículas.
Rayos Catódicos
Son electrones de alta velocidad emitidos por el electrodo negativo de un tubo de vacío al ser atravesado por una corriente eléctrica. Los rayos catódicos se generaron por primer vez utilizando el tubo de Crookes, invento del físico británico William Crookes. En 1895, mientras trabajaba en investigación, el físico alemán Wilhelm Roentgen descubrió casualmente que los rayos catódicos que golpeaban una placa metálica generaban rayos X. Los rayos catódicos pueden ser desviados y enfocados por campos magnéticos o electroestáticos. Estas propiedades se utilizan en el microscopio electrónico, en el osciloscopio de rayos catódicos y en el tubo de imagen de los receptores de televisión.
Un tubo de rayos catódicos básicamente en un recipiente provisto de dos electrodos en el cual se ha hecho una presión muy baja. Cuando la presión dentro de los tubos es de alrededor de 0.01 ó 0.001 mm Hg y los electrodos se cuentan a una fuente de potencia aparecer una corriente de rayos conocidos como rayos catódicos.
Rayos X, radiación electromagnética penetrante, con una longitud de onda menor que la luz visible, producida bombardeando un blanco —generalmente de volframio— con electrones de alta velocidad. Los rayos X fueron descubiertos de forma accidental en 1895 por el físico alemán Wilhelm Conrad Roentgen mientras estudiaba los rayos catódicos en un tubo de descarga gaseosa de alto voltaje. A pesar de que el tubo estaba dentro de una caja de cartón negro, Roentgen vio que una pantalla de platinocianuro de bario, que casualmente estaba cerca, emitía luz fluorescente siempre que funcionaba el tubo. Tras realizar experimentos adicionales, determinó que la fluorescencia se debía a una radiación invisible más penetrante que la radiación ultravioleta (Ver Luminiscencia). Roentgen llamó a los rayos invisibles "rayos X" por su naturaleza desconocida. Posteriormente, los rayos X fueron también denominados rayos Roentgen en su honor.
Los rayos X son radiaciones electromagnéticas cuya longitud de onda va desde unos 10 nm hasta 0,001 nm (1 nm o nanómetro equivale a 10-9 m). Cuanto menor es la longitud de onda de los rayos X, mayores son su energía y poder de penetración. Los rayos de mayor longitud de onda, cercanos a la banda ultravioleta del espectro electromagnético, se conocen como rayos X blandos; los de menor longitud de onda, que están más próximos a la zona de rayos gamma o incluso se solapan con ésta, se denominan rayos X duros. Los rayos X formados por una mezcla de muchas longitudes de onda diferentes se conocen como rayos X ‘blancos’, para diferenciarlos de los rayos X monocromáticos, que tienen una única longitud de onda. Tanto la luz visible como los rayos X se producen a raíz de las transiciones de los electrones atómicos de una órbita a otra. La luz visible corresponde a transiciones de electrones externos y los rayos X a transiciones de electrones internos. En el caso de la radiación de frenado o bremsstrahlung (ver más adelante), los rayos X se producen por el frenado o deflexión de electrones libres que atraviesan un campo eléctrico intenso. Los rayos gamma, cuyos efectos son similares a los de los rayos X, se producen por transiciones de energía en el interior de núcleos excitados. Ver Átomo; Radiactividad.
Los rayos X se producen siempre que se bombardea un objeto material con electrones de alta velocidad. Gran parte de la energía de los electrones se pierde en forma de calor; el resto produce rayos X al provocar cambios en los átomos del blanco como resultado del impacto. Los rayos X emitidos no pueden tener una energía mayor que la energía cinética de los electrones que los producen. La radiación emitida no es monocromática, sino que se compone de una amplia gama de longitudes de onda, con un marcado límite inferior que corresponde a la energía máxima de los electrones empleados para el bombardeo. Este espectro continuo se denomina a veces con el término alemán bremsstrahlung, que significa ‘radiación de frenado’, y es independiente de la naturaleza del blanco. Si se analizan los rayos X emitidos con un espectrómetro de rayos X, se encuentran ciertas líneas definidas superpuestas sobre el espectro continuo; estas líneas, conocidas como rayos X característicos, corresponden a longitudes de onda que dependen exclusivamente de la estructura de los átomos del blanco. En otras palabras, un electrón de alta velocidad que choca contra el blanco puede hacer dos cosas: inducir la emisión de rayos X de cualquier energía menor que su energía cinética o provocar la emisión de rayos X de energías determinadas, que dependen de la naturaleza de los átomos del blanco.
El primer tubo de rayos X fue el tubo de Crookes, llamado así en honor a su inventor, el químico y físico británico William Crookes; se trata de una ampolla de vidrio bajo vacío parcial con dos electrodos. Cuando una corriente eléctrica pasa por un tubo de Crookes, el gas residual que contiene se ioniza, y los iones positivos golpean el cátodo y expulsan electrones del mismo. Estos electrones, que forman un haz de rayos catódicos, bombardean las paredes de vidrio del tubo y producen rayos X. Estos tubos sólo generan rayos X blandos, de baja energía. Ver Ion; Ionización.
Un primer perfeccionamiento del tubo de rayos X fue la introducción de un cátodo curvo para concentrar el haz de electrones sobre un blanco de metal pesado, llamado anticátodo o ánodo. Este tipo de tubos genera rayos más duros, con menor longitud de onda y mayor energía que los del tubo de Crookes original; sin embargo, su funcionamiento es errático porque la producción de rayos X depende de la presión del gas en el tubo.
La siguiente gran mejora la llevó a cabo en 1913 el físico estadounidense William David Coolidge. El tubo de Coolidge tiene un vacío muy alto y contiene un filamento calentado y un blanco. Esencialmente, es un tubo de vacío termoiónico en el que el cátodo emite electrones al ser calentado por una corriente auxiliar, y no al ser golpeado por iones, como ocurría en los anteriores tipos de tubos. Los electrones emitidos por el cátodo calentado se aceleran mediante la aplicación de una alta tensión entre los dos electrodos del tubo. Al aumentar la tensión disminuye la longitud de onda mínima de la radiación.
La mayoría de los tubos de rayos X que se emplean en la actualidad son tubos de Coolidge modificados. Los tubos más grandes y potentes tienen anticátodos refrigerados por agua para impedir que se fundan por el bombardeo de electrones. El tubo antichoque, muy utilizado, es una modificación del tubo de Coolidge, con un mejor aislamiento de la carcasa (mediante aceite) y cables de alimentación conectados a tierra. Los aparatos como el betatrón (Ver Aceleradores de partículas) se emplean para producir rayos X muy duros, de longitud de onda menor que la de los rayos gamma emitidos por elementos naturalmente radiactivos.
Los rayos X afectan a una emulsión fotográfica del mismo modo que lo hace la luz (Ver Fotografía). La absorción de rayos X por una sustancia depende de su densidad y masa atómica. Cuanto menor sea la masa atómica del material, más transparente será a los rayos X de una longitud de onda determinada. Cuando se irradia el cuerpo humano con rayos X, los huesos —compuestos de elementos con mayor masa atómica que los tejidos circundantes— absorben la radiación con más eficacia, por lo que producen sombras más oscuras sobre una placa fotográfica. En la actualidad se utiliza radiación de neutrones para algunos tipos de radiografía, y los resultados son casi los inversos. Los objetos que producen sombras oscuras en una imagen de rayos X aparecen casi siempre claros en una radiografía de neutrones
En el Electrón la sustancia espacial se desplaza permanentemente pero en forma oscilatoria desde el PEI hacia el PEE como si intentase vaciar el sector del infinito microcosmos encerrado por el PEI. A la vez este movimiento crea masa o cuerpo para el electrón. Por otro lado el PEE del electrón propulsa una parte de la masa acumulada por el sector ínter esférico. Dada la condición infinitamente elástica de la sustancia espacial pudiese pasarse toda la eternidad extrayendo sustancia desde su ultra microscópico centro que es además infinito. Esto hace a la vez que los electrones se repudien entre sí. Cada uno expulsa sustancia interponiéndola delante de todo lo que se les acerca. Esta condición facilita el carácter errante de los mismos. La apariencia de la sustancia espacial en el área de descompresión es lo que conocemos como luz electrónica.
Todas las partículas están compuestas de dos planos esféricos: Plano Esferoidal Interno PEI: Que no es más que un área esférica determinada en el interior de otra esfera llamada "Plano Esferoidal externo". Plano Esferoidal Externo PEE: Que envuelve al Plano Esferoidal Interno
Unidad fundamental de carga eléctrica. Cualquier carga eléctrica es un múltiplo entero de esta cantidad. Su valor es: e = -1,602177·10-19 C y su masa es 9,109390·10-31 kg
Los átomos que constituyen la materia suelen ser, generalmente, estables pero algunos de ellos se transforman espontáneamente y emiten radiaciones que transportan energía. Es lo que se denomina radioactividad. En la naturaleza, la materia -ya se trate de agua, de gases, de rocas, de seres vivos- está formada por moléculas que son combinaciones de átomos. Los átomos tienen un núcleo cargado positivamente y a su alrededor se desplazan los electrones, cargados negativamente. El átomo es neutro. El núcleo del átomo esta formado a su vez por protones cargados positivamente y neutrones. En ciertos átomos, el núcleo al transformarse emite una radiación, manifestando de esta manera la radioactividad del átomo. Los protones y los neutrones están a su vez formados por quarks.
Los isótopos
Todos los átomos cuyos núcleos tienen el mismo número de protones constituyen un elemento químico. Como tienen el mismo número de protones, tienen el mismo número de electrones y, por consiguiente, las mismas propiedades químicas. Cuando su número de neutrones es diferente, reciben la denominación de "isótopos". Cada isótopo de un elemento determinado se designa por el número total de sus nucleones (protones y neutrones). Por ejemplo, el uranio 238 y el uranio 235 tienen ambos 92 electrones. Su núcleo tiene 92 protones. El isótopo 238 tiene 146 neutrones, o sea, 3 neutrones más que el uranio 235. Los isótopos del hidrógeno
Las radiaciones de la radioactividad
Se distinguen tres clases de radiaciones correspondientes a tres formas de radioactividad. La radioactividad a se traduce por la emisión de un núcleo de helio, denominado partícula a, que es particularmente estable y esta formado por dos protones y dos neutrones. La radioactividad b corresponde a la transformación, dentro del núcleo:- Ya sea de un neutrón en protón, radioactividad b-, caracterizada por la emisión de un electrón e-, Ya sea de un protón en neutrón, radioactividad b+, caracterizada por la emisión de un antielectrón o positrón e+ que sólo se manifiesta en núcleos radioactivos producidos artificialmente por reacciones nucleares. La radioactividad g contrariamente a las dos anteriores, no está vinculada a una transmutación del núcleo. Se traduce por la emisión, por el núcleo, de una radiación electromagnética, como la luz visible o los rayos X, pero más energética. La radioactividad g puede manifestarse sola o conjuntamente con la radioactividad a o b.
Hacia el 1800, el profesor inglés John Dalton recogió la idea del átomo que dio el filosofo Demócrito, si bien esta vez basándose en métodos experimentales. Mediante el estudio de las leyes pondérales, concluye que:
la materia está constituida por partículas indivisibles (átomos), todos los átomos de un mismo elemento químico son iguales, los átomos de elementos diferentes son también diferentes.
Modelo atómico de Thompson.-
En 1897 Joseph John Thompson realiza una serie de experimentos y descubre el electrón. En tubos de gases a baja presión en los que se establece una diferencia de potencial superior a 10.000 voltios, se comprobó que aparecían partículas con carga eléctrica negativa a las que se llamó electrones, y demostró que habían sido arrancados de los átomos (los cuales eran neutros). Tal descubrimiento modificó el modelo atómico de Dalton, que lo consideraba indivisible. Thompson supuso el átomo como una esfera homogénea e indivisible cargada positivamente en la que se encuentran incrustados los electrones.
5.1.7 Modelo atómico de Rutherford
Posteriormente otro físico inglés, Ernest Rutherford, realizó una serie de experimentos. Hizo incidir sobre una lámina finísima de oro un delgado haz de partículas cargadas positivamente de masa mucho mayor que el electrón y dotadas de energía cinética alta. En el choque observó distintos comportamientos:
la mayoría atravesaban la lámina sin desviarse algunas se desviaban muy pocas retrocedían
Esta experiencia implicaba:
que los átomos estaban casi vacíos, pues la mayoría de las partículas las atravesaban
que hay una zona cargada positivamente, ya que algunas partículas retrocedían o se desviaban. Esta zona debe estar muy concentrada ya que es mayor el número de desviaciones que de choques.
Esto le condujo a proponer en 1911 un nuevo modelo atómico en el que se afirmaba que los átomos estaban constituidos por 2 zonas bien diferenciadas:
Una de carga positiva con el 99,9% de la masa muy concentrada y por tanto de gran densidad a la que llamó núcleo.
Otra rodeando al núcleo a la que llamó corteza donde estaban los electrones con carga negativa girando alrededor del núcleo.
Sin embargo, el modelo de Rutherford presentaba fallos:
Según la teoría clásica de electromagnetismo, una partícula eléctrica acelerada emite energía. Y el electrón girando el torno al núcleo está sometido a una aceleración centrípeta por lo que irradiaría energía, perdería velocidad y, por fin, caería al núcleo desestabilizando el átomo. Pero como el átomo de hecho es estable, las cosas no pueden ocurrir según el modelo de Rutherford.
No explicaba los espectros
Esta teoría explica las leyes de la reflexión y la refracción , define la luz como un movimiento ondulatorio del mismo tipo que el sonido. Como las ondas se trasmiten en el vacío, supone que las ondas luminosas necesitan para propagarse un medio ideal, el ETER, presente tanto en el vacío como en los cuerpos materiales.
Esta teoría tiene una dificultad fundamental que es precisamente la hipótesis del éter. Tenemos que equiparar las vibraciones luminosas a las vibraciones elásticas transversales de los sólidos, y no transmitiendo por tanto vibraciones longitudinales. Existe, pues, una contradicción en la naturaleza del éter, ya que por un lado debe ser un sólido incompresible y por otro no debe oponer resistencia al movimiento de los cuerpos. (Nota: Las ondas transversales solo se propagan en medios sólidos)
Esta teoría no fue aceptada debido al gran prestigio de Newton. Tuvo que pasar más de un siglo para que se tomara nuevamente en consideración la "Teoría Ondulatoria". Los experimentos de Young (1801) sobre fenómenos de interferencias luminosas, y los de Fresnel sobre difracción fueron decisivos para que se tomaran en consideración los estudios de Huygens y para la explicación de la teoría ondulatoria.
Fue también Fresnel (1815) quien explicó el fenómeno de la polarización transformando el movimiento ondulatorio longitudinal, supuesto por Huygens, en transversal. Existe, sin embargo, una objeción a esta teoría, puesto que en el éter no se puede propagar la luz por medio de ondas transversales, ya que éstas solo se propagan en medios sólidos.
La teoría cuántica fue primeramente introducida por Planck, en 1900.
Max Planck, (1858 – 1947) nacido en Kiel, Alemania el 23 de abril de 1858. Es el "padre de la cuántica". Planck dedujo la hipótesis de la discontinuidad de la energía y en el año de 1900 Planck descubre los cuantos y formula la teoría que lo haría famoso, y que daría nacimiento a un campo desconocido hasta entonces, la Mecánica Cuántica, la cual da una nueva y muy especial forma de ver los fenómenos físicos. Gracias a sus esfuerzos, y muy merecidamente, Planck recibió el premio Nobel de Física en 1918. Max Planck muere el 4 de octubre de 1947.
Planck retomó la teoría defendida hace tiempo por Newton, la cual en ese entonces ya no tenía validez alguna. Newton consideraba a la luz como un haz de corpúsculos que se propagaban en línea recta, al aparecer la teoría ondulatoria de Huygens (1678), la teoría de los corpúsculos de Newton se vio destruida, pero era retomada nuevamente por Planck en 1900.
La teoría cuántica básicamente nos dice que la luz no llega de una manera continua, sino que está compuesta por pequeños paquetes de energía, a los que llamamos cuantos. Estos cuantos de energía se llaman fotones. Toda luz que nos llega viene por pequeños paquetes, no es continua.
Los fotones son las partículas "fundamentales" de la luz, así como los electrones son las partículas fundamentales de la materia, esta analogía es la que sirvió para realizar el descubrimiento del carácter cuántico de la luz. Por esta misma analogía, años después, de Broglie desarrolló la teoría que formula que la materia también tiene un carácter ondulatorio. La carga eléctrica y la energía tienen una estructura granular (está formada por cuantos), al igual que la materia.
La teoría cuántica ha servido para demostrar los fenómenos que no se pudieron explicar con la teoría ondulatoria de la luz, pero hay fenómenos que no pueden ser explicados con la teoría cuántica, y además hay ciertos fenómenos que pueden ser explicados por ambas teorías. Esto nos lleva a una duda: ¿cuál de las dos teorías es la correcta? ¿o son correctas ambas teorías? ¿Cómo pueden asociarse las dos teorías?
En 1900 emitió una hipótesis que interpretaba los resultados experimentales satisfactoriamente como los cuerpos captaban o emitían energía.
Según Planck, la energía emitida o captada por un cuerpo en forma de radiación electromagnética es siempre un múltiplo de la constante h, llamada posteriormente constante de Planck por la frecuencia v de la radiación.
e =nhv
h=6,62 10-34 J·s, constante de Planck
v=frecuencia de la radiación
A hv le llamó cuanto de energía. Que un cuanto sea más energético que otro dependerá de su frecuencia.
ESPECTROS CONTINUOS Y DISCONTINUOS
Los espectros
Es el conjunto de todas las variaciones electromagnéticas que existen en el universo.
Consiste en la descomposición de la radiación que emite un cuerpo.
Espectros: Continuos y Discontinuos.
Los espectros de absorción continuos se obtienen al intercalar el sólido entre el foco de radiación y el prisma. Así, por ejemplo, si intercalamos un vidrio de color azul quedan absorbidas todas las radiaciones menos el azul.
Cuando los limites de la radiación no son nítidos y forman una imagen continua, por ejemplo, el espectro de la luz blanca.
Los espectros de absorción discontinuos se producen al intercalar vapor o gas entre la fuente de radiación y el prisma. Se observan bandas o rayas situadas a la misma longitud de onda que los espectros de emisión de esos vapores o gases.
Este está formado por rayas separados entre sí, por ejemplo el espectro de emisión del sodio, que consiste en dos líneas amarillas separadas entre sí.
En el caso atómico, la dispersión de electrones está dominada por un campo de largo alcance, el coulombiano, que modifica la trayectoria de la partícula incidente siendo poco probable una interacción más directa con las constituyentes individuales del átomo. Es más, aún cuando esto último ocurre, la transferencia de energía puede verse como un proceso de dos cuerpos interaccionando bajo la influencia del campo generado por el resto de los electrones. Esto, que es consecuencia de la relativamente baja densidad atómica, tiene como resultado que la sección eficaz para procesos elásticos domina sobre las de procesos inelásticos como excitación, ionización y captura. En los términos de Bohr, el átomo es un sistema "abierto".
Las evidencias de Fermi indicaban que el caso nuclear refleja una naturaleza muy diferente, con secciones de reacción del orden de las elásticas o aún mayores. Ante esto, Bohr razona que, dada la densidad nuclear, la probabilidad de que un neutrón atraviese un núcleo sin interacciones directamente con uno de los constituyentes debería ser ínfima. Además, dada la naturaleza de corto alcance y la magnitud de la fuerza nuclear, una vez dentro seguramente se vería obligado a compartir su energía con el resto de los nucleones. El fenómeno de emisión, ya sea de partículas o de radiación gamma, se trataría entonces de un proceso estadístico complicado de desexcitación independiente. En este caso la probabilidad de emitir una partícula idéntica a la incidente, lo que sería el canal "elástico", compite con la de otros procesos energéticamente permitidos (evidencia a)). Los tiempos requeridos por este proceso, además, serían tales que la probabilidad de emisión gamma no sería tampoco despreciable (evidencia b)). En este sentido, para Bohr, el núcleo es un sistema "cerrado" en que las reacciones sólo se pueden llevar a cabo a través de la formación intermedia de un sistema compuesto relativamente estable cuyo decaimiento ocurre luego de un tiempo lo suficientemente largo como para poder ser considerado como un proceso dinámicamente independiente.
Bohr también hizo notar que las diferencias entre el caso atómico y el nuclear también se deberían reflejar en el esquema de niveles de ambos. En el átomo, por la naturaleza del campo coulombiano, la energía de ligadura de los diferentes electrones varía enormemente entre aquellos que se encuentran cercanos al núcleo y aquellos que se encuentran en la periferia. Dado que hay pocos electrones en las partes más externas, y están poco ligados, las excitaciones de baja energía tienden a envolver a electrones individuales siendo relativamente fácil liberarlos. Aun en el caso de excitaciones de electrones más internos al espectro de energías es bastante restringido.
Por otra parte, la idea de un "sistema compuesto", que corresponda a la formación de un ion negativo, es poco probable pues los niveles son escasos y, en todo caso, la energía del electrón incidente será en general mayor que la energía de ligadura correspondiente.
En el caso nuclear, el fenómeno de captura selectiva refleja algún nivel de respuesta resonante. Sin embargo, indica Bohr, estas resonancias no deben ser vistas como las de una partícula aislada en un pozo, ya que en ese caso la probabilidad de que esa misma partícula escape siempre será mayor que la de captura, en contraste con lo observado por Fermi. Las resonancias nucleares deben ser más complejas, de carácter colectivo. Al aumentar la energía incidente, la creciente variedad de maneras en que los constituyentes del núcleo pueden repartírsela debería reflejarse en un rápido aumento de la densidad de niveles que, sin embargo, se mantendrían relativamente angostos dada la baja probabilidad de concentrar suficiente energía en una sola partícula, con capacidad como para ser emitida.
Cabe recordar que la relación entre la "anchura" de un estado, es decir la máxima resolución en energía a la que se puede aspirar al observar su espectro y el tiempo promedio que el núcleo tarda en desexcitarse, está limitado por el principio de incertidumbre de Heisenberg: E t = h. En otras palabras, estados "angostos" corresponden a vidas medias largas y viceversa,
Por lo anterior, el espectro de niveles, aun a excitaciones relativamente altas, seguiría caracterizándose por líneas bien definidas (evidencia c)), hasta el punto en que la probabilidad de emisión de partículas se hiciera comparable. Esto explicaría la ausencia de absorción selectiva para neutrones no moderados aun cuando el espectro de gammas muestra líneas angostas (evidencia d)), fenómeno que sólo refleja la estabilidad del sistema compuesto. A energías suficientemente altas, la captura radiactiva disminuiría, dando lugar a la emisión de partículas, con un espectro de energías que incluya la dispersión inelástica tal como lo observó Ehrenberg.
En cuanto a la dependencia con la energía y con la carga del blanco de la emisión de partículas cargadas, Bohr las explica como simples reflejos de la diferencia entre la energía del estado y la barrera conlombiana (evidencia e)). Estos efectos, dada la independencia entre la formación y el decaímiento del sistema compuesto, tendrían su equivalente en el caso de reacciones inducidas por partículas cargadas. Salvo esta diferencia, la dinámica de reacciones propuesta debería ser la misma, tal como se había observado.
Consciente del carácter puramente conceptual de su teoría, Bohr indica al inicio de su plática las dificultades de desarrollar una descripción detallada ya que, además de tratarse de un problema de muchos cuerpos, aún se desconocía la constitución misma del núcleo. A este respecto, menciona los riesgos de suponer la existencia dentro del núcleo de partículas idénticas a los protones y neutrones libres, en vista de que no hace mucho tiempo la idea de la existencia de electrones en el núcleo, para explicar el decaimiento beta, hubo de cambiarse por el de una creación en el momento de la emisión. Sin embargo, descarta la posibilidad, sugerida por el éxito de Gamow al describir el decaímiento alfa, de la existencia de esas partículas como tales dentro del núcleo.
Para concluir, Bohr especula sobre lo que ocurriría si la energía de las partículas incidentes fuera aumentada de unos cuantos MeV, accesibles en ese momento, a 100 y hasta 1000 MeV, prediciendo que aun a tales energías sobreviviría su sistema compuesto, aumentando solamente el número de partículas emitidas hasta el punto de provocar una verdadera explosión del núcleo.
Hacia 1939, junto con Peielrs y Placzek, Bohr4 ya había desarrollado una primera formulación para calcular secciones eficaces en reacciones tipo núcleo compuesto, también llamadas fusión, en base a la sección de colisión del sistema ("canal") —proyectil-blanco— inicial y la probabilidad de decaímiento a través de las diferentes combinaciones posibles [núcleo residual-partícula emitida] evaluadas a través de las anchuras de los estados poblados en la región del continuo.
El razonamiento de Bohr era que la existencia de un átomo como el hidrógeno, formado por un protón cargado positivamente y un electrón cargado negativamente que gira alrededor de él, sólo se puede entender a partir de una determinada distancia básica entre ambos que explique las dimensiones estables del átomo (es decir, que explique por qué el electrón no "cae" en el núcleo). Como las consideraciones dimensiónales demuestran que esta distancia no puede obtenerse mediante una combinación matemática que implique exclusivamente la carga del electrón, e, y su masa, m, Bohr argumentó que había que introducir en la teoría atómica otra constante física fundamental que, combinada adecuadamente con las constantes e y m, proporcionara la distancia buscada. Bohr halló que la constante de Planck, h, cumplía bien ese cometido, y sugirió que la distancia básica venía dada por la combinación matemática
Para ver la fórmula seleccione la opción "Descargar" del menú superior
El valor de esta distancia es de 5,29·10-11 m, que constituye el llamado radio de Bohr del átomo de hidrógeno. Este valor también se denomina radio de la primera órbita de Bohr. Bohr utilizó un concepto revolucionario y totalmente opuesto a la física clásica, introducido por la teoría cuántica. Según este concepto, existe una cantidad física llamada acción que está cuantizada en unidades de valor h (lo que significa que no puede haber una acción menor que h). Bohr explicó la estabilidad del átomo de hidrógeno asignando una única unidad de acción a la primera de las llamadas órbitas de Bohr. Con ello se eliminaba cualquier posible órbita más pequeña, porque una órbita así tendría una acción menor que h, lo que violaría la hipótesis cuántica. A continuación, Bohr supuso que cada órbita permitida del electrón, a medida que se aleja del protón, difiere de la órbita inmediatamente anterior en una única unidad de acción h. Por tanto, la acción de la segunda órbita debe ser 2h, la acción de la tercera órbita 3h, y así sucesivamente. Esto significa que la acción de la órbita número n, donde n es un entero, debe ser nh, y entonces se puede demostrar que el radio de la n-ésima órbita tiene que ser
Para ver la fórmula seleccione la opción "Descargar" del menú superior
Por la dinámica clásica, Bohr sabía que la energía total cinética y potencial de una partícula que se mueve en una órbita circular es negativa, porque la energía potencial negativa de la órbita es mayor que su energía cinética (que es positiva). Además, la energía total es inversamente proporcional al radio de la órbita. Por tanto, asignó a la energía del electrón en la órbita n-ésima el valor
Para ver la fórmula seleccione la opción "Descargar" del menú superior
multiplicando la inversa del radio por e2/2 y cambiando su signo por motivos dimensiónales. Cuando el electrón salta de la órbita n-ésima a la órbita k-ésima, experimenta un cambio de energía igual a
Para ver la fórmula seleccione la opción "Descargar" del menú superior
o
Para ver la fórmula seleccione la opción "Descargar" del menú superior
Este cambio aparece en la forma de un único cuanto de energía, o fotón, emitido o absorbido. Cuando k es mayor que n, se absorbe un fotón; cuando k es menor que n, se emite un fotón.
Así, se llega a la fórmula de Bohr para la inversa de la longitud de onda del fotón emitido cuando el electrón salta de la órbita n a la órbita k, al igualar la fórmula anterior con signo cambiado y la energía del fotón, hc/λ. Esto proporciona la ecuación
Para ver la fórmula seleccione la opción "Descargar" del menú superior
La cantidad
Para ver la fórmula seleccione la opción "Descargar" del menú superior
se conoce como constante de Rydberg, R, en honor al físico sueco Robert Johannes Rydberg. Si k se hace igual a 2, la fórmula de Bohr es totalmente equivalente a la de Balmer, y se obtienen todas las líneas de la serie de Balmer haciendo n igual a 3, 4, 5, y así sucesivamente. Esto significa que las líneas de Balmer corresponden a transiciones de electrones desde órbitas superiores hasta la segunda órbita.
Si k se hace igual a 1 y n adopta los valores 2, 3, 4… (transiciones de los electrones a la órbita más baja) se obtiene la llamada serie de Lyman, un conjunto de líneas espectrales situado en el ultravioleta. Otras series de líneas como las de Paschen, Brackett o Pfund, situadas en el infrarrojo, se obtienen igualando k a 3, 4 y 5, y haciendo que n adopte todos los valores enteros superiores
Teoría de la relatividad
Teoría de la relatividad Teoría propuesta por Einstein* en 1905 con respecto a la estructura del tiempo y del espacio, que trasciende algunos de los conceptos y leyes de la física clásica. Según la teoría de la relatividad, para los objetos que se mueven con velocidades muy próximas a la de la luz no existe explicación de ciertos fenómenos dentro del marco de la física clásica; los postulados de la teoría restringida o especial de la relatividad permiten, sin embargo, explicarlos convincentemente. Para velocidades mucho más pequeñas que la velocidad de la luz, la teoría de la relatividad coincide exactamente con la física clásica (principio de correspondencia).
La teoría de la relatividad se basa en tres puntos: 1. La longitud de un cuerpo en movimiento disminuye en la dirección de su desplazamiento (contracción longitudinal). 2. El tiempo que transcurre entre dos sucesos simultáneos no es el mismo para dos observadores en movimiento relativo (dilatación del tiempo). 3. La masa de un cuerpo aumenta con su velocidad, de tal forma que a la velocidad de la luz se hace infinita, motivo por el cual esta velocidad es inalcanzable (inaccesibilidad a la velocidad de la luz).
Postulado de la universalidad de la velocidad de la luz: En el vacio, la luz se propaga con la velocidad universal c=299792458 ms-1 en todos los sistemas inerciales de referencia.
Postulado del principio de Relatividad Especial: Las leyes de la naturaleza son
invariantes (tienen la misma forma) bajo el grupo de transformaciones de Lorentz (L,a)
que mantienen la constancia de la velocidad de la luz en todos los sistemas de referencia inerciales.
TEORIA DE BROGLIELa nueva teoría permite explicar, además, porque en un campo eléctrico o magnético en gran escala los electrones se comportan como corpúsculos de tipo clásico, y lleva también a revenir fenómenos de carter totalmente nuevo. Puesto que la onda luminosa regula la repartición, en el espacio, de los fotones que le están asociados; puesto que en las experiencias de interferencia y de difracción los fotones se localizan en el espacio, proporcionalmente a la intensidad de la onda luminosa en cada punto, habrá que esperar que suceda algo análogo con los corpúsculos materiales; si la propagación de onda asociada a un flujo de corpúsculos materiales de la misma energía da a lugar a interferencias, los corpúsculos en cuestión deberán repartirse en el espacio prpoporcionalmente a la intensiadad de la onda y dar origen a manifiestaciones que la antigua dinámica de los puntos materiales era ciertamente incapaz de prever. La experiencia ha confirmado esta audaz previsión de la teoría. En efecto, según la mecánica ondulatoria, si se envía un haz paralelo de electrones de la misma energía sobre un cristal, la onda que dirige el movimiento de los electrones será difundida por los centros, regularmente dispuestos, de la red cristalina, las onditas difundidas interferirán entre sí y resultará la existencia del máximum de difusión en ciertas direcciones, direcciones que se podrán calcular fácilmente conociendo las constantes de la red cristalina utilizada y la longitud de onda incidente. Puesto que, en la nueva teoría, todo pasa como si la onda dirigiera el conjunto del movimento de los corpúsculos, los electrones difundidos porel cristal deberán concentrarse en las direcciones de difusión privilegiada de que acabamos de hablar. Y esta confirmación ha sido cuantitativa porque se ha podido verificar, con una gran precisión, la exactitud de la fórmula fundamental de la mecánica ondulatoria:
l =h/mv
Fórmula que da la longitud de la onda de la onda asociada a un corpúsculo de masa m y de velocidad v por el intermedio de la constante b de los quanta.
Así se establece sobre una sólida base experimental la nueva mecánica ondulatoria y cuántica. Nos ha ensenado a considerar la constante de b de un Planck como una especie de guión entre la imagen de los corpúsculos. Las dos imágenes son a la vez necesarias y sus valideces respectivas se limitan mútuamente porque la constante b tiene un valor finito.
Quisiera hacer hincapié sobre un punto interesante. Si la constante b tuviera un valor infinatamente pequeno, los quanta de la luz de valor bv serían infinatamente pequenos, y su número, en una radiación de energía dada, sería infinatamente grande: todo pasaría entonces como si las radiaciones tuvieran una estructura continua y puramente ondulatoria, que les atribuían Fresnel y sus continuadores. Por el contrario, los corpúsculos materiales obedecerían entonces exactamente(puede demostarse esto con facilidad) a las leyes clásicas de la dinámica del punto material, y no habría necesidad ninguna de introducir ondas en la teoría de la materia. Por lo tanto, si el valor de valor b fuera infinitamente pequeno, en la física clásica sería rigurosamente exacta. Por el contrario, si la constante de Planck fuera infinitamente grande, los quanta de luz serían enormes y su existencia saltaría a los ojos, por si decirlo, del físico menos perspicaz, pero en este cásalos corpúsculos materiales no seguirán jamás las leyes de la dinámica clásica, y se vería que en su estudio era necesario introducir desde el principio una onda para prever los movimientos de aquellos. Ahora bien, en la naturaleza real, la constante b no es infinitamente grande ni infinitamente pequeña, sino que su valor es finito, pero desde nuestro punto de vista humano parece extremadamente pequeno, pues se expresa rn unidades de c.g.s. Para nosotros, humanos, el caso de b infinitamente pequeno está, pues, mucho más próximo a realizarse que el caso opuesto que es infinitamente grande. Esta simple observación ilustra el verdadero sentido de la evolución reciente de la física. En efecto, ahora se comprende en seguida que la física de ayer, a consecuencia de un examen todavía algo superficial, se haya visto impulsada a proclamar la estructura continua y la naturaleza ondulatoria de la luz, mientras atribuía a la materia una estructura discontinua constituida por corpúsculos que obedecen a las leyes dinámicas clásicas. Han sido necesarios experimentos de los físicos contemporáneos para revelar la otra cara de la realidad; me refiero al aspecto discontinuo de la luz y al aspecto ondulatorio de la materia.
Cuando un electrón se mueve con una rapidez v , tiene asociada una onda de longitud l según la relación: l =h/mv
Donde: m es la masa del electrón en reposo ( = 9,11 × 10 – 31 [ kg ] ) y h es la constante de Planck ( = 6,63 × 10 – 34 [ J – s ] ).
Cada sustancia del universo, las piedras, el mar, nosotros mismos, los planetas y hasta las estrellas más lejanas, están enteramente formada por pequeñas partículas llamadas átomos. Son tan pequeñas que no son posible fotografiarlas. Para hacernos una idea de su tamaño, un punto de esta línea puede contener dos mil millones de átomos. Estas pequeñas partículas son estudiadas por la química, ciencia que surgió en la edad media y que estudia la materia. Pero si nos adentramos en la materia nos damos cuenta de que está formada por átomos. Para comprender estos átomos a lo largo de la historia diferentes científicos han enunciado una serie de teorías que nos ayudan a comprender la complejidad de estas partículas. Estas teorías significan el asentamiento de la química moderna. Como ya hemos dicho antes la química surgió en la edad media, lo que quiere decir que ya se conocía el átomo pero no del todo, así durante el renacimiento esta ciencia evoluciona. Posteriormente a fines del siglo XVIII se descubren un gran número de elementos, pero este no es el avance más notable ya que este reside cuando Lavoisier da una interpretación correcta al fenómeno de la combustión. Ya en el siglo XIX se establecen diferentes leyes de la combinación y con la clasificación periódica de los elementos (1871) se potencia el estudio de la constitución de los átomos. Actualmente su objetivo es cooperar a la interpretación de la composición, propiedades, estructura y transformaciones del universo, pero para hacer todo esto hemos de empezar de lo más simple y eso son los átomos, que hoy conocemos gracias a esas teorías enunciadas a lo largo de la historia. Estas teorías que tanto significan para la química es lo que vamos a estudiar en las próximas hojas de este trabajo
La Teoría Atómica se basa en la suposición (ratificada después por datos experimentales) de que la materia no es continua, sino que está formada por partículas distintas. Esta teoría describe una parte de nuestro mundo material a la que no es posible acceder por observación directa, y permite explicar las propiedades de las diversas sustancias.El concepto de átomo ha ido pasando por diversas concepciones, cada una de las cuales explicó en su momento todos los datos experimentales de que se disponía, pero con el tiempo fue necesario modificar cada modelo para adaptarlo a los nuevos datos. Cada modelo se apoya en los anteriores, conservando determinados aspectos y modificando otros. La primera aparición conocida del concepto de átomo procede de una escuela filosófica griega (Demócrito, Leucipo), la cual consideraba que la sustancia esencial de cualquier objeto debía permanecer constante, y trató de conciliar esa idea con el hecho de que en la materia se puede observar un cambio constante. Sin embargo, esta primera aproximación no puede considerarse una teoría científica, tal y como la entendemos hoy en día, ya que le faltaba el apoyarse en experimentos rigurosos (la idea moderna de que el conocimiento científico debe apoyarse siempre en experimentos que cualquiera pueda reproducir, procede del Renacimiento, con los trabajos de Copénico, Galileo, Newton…). La primera teoría científica sobre el átomo fue propuesta por John Dalton a principios del siglo XIX, y a partir de ahí se fueron proponiendo diversos modelos.
Para llegar a la configuración electrónica de los átomos, se debe conocer el orden que ocupan en los diversos subniveles. Los electrones ocupan los subniveles vacantes, en orden ascendente de sus energías, así pues, llenarán cada subnivel antes de pasar al siguiente.
A continuación se observará la distribución electrónica máxima para los primeros cuatro niveles de energía. Veamos:
Número Cuántico | Orbitas por subnivel | Número de electrones | d | |||
Principal | Nivel | Secundario | Subnivel | xc | Subnivel | Nivel |
1 | K | 0 | s | 1 | 2 | 2 |
2 | L | 0 1 | s p | 1 3 | 2 6 | 8 |
3 | M | 0 1 2 | s p d | 1 3 5 | 2 6 10 | 18 |
4 | N | 0 1 2 3 | s p d f | 1 3 5 7 | 2 6 10 14 | 32 |
En términos generales, se puede decir que al describir a la configuración electrónica, se debe tomar en cuenta que: 1. La corona, está dividida en niveles de energía de acuerdo con su proximidad al núcleo de la siguiente forma:
Nº de nivel | 1 | 2 | 3 | 4 | 5 | 6 | 7 |
Nivel de energía | K | L | M | N | O | P | Q |
2. Cada nivel de energía acepta un determinado número de electrones, el cual depende del número del nivel. 3. Cada nivel tiene un determinado número de subniveles, identificados con las letras: s, p, d, f (Ver tabla 1). Estos subniveles se llaman orbitales atómicos y constituyen el espacio que habita los electrones. 4. Cada subnivel acepta un máximo de dos electrones.
La Mecánica Cuántica (1927) engloba la hipótesis de Louis de Broglie y el Principio de indeterminación de Heisenberg. El carácter ondulatorio del electrón se aplica definiendo una función de ondas, , y utilizando una ecuación de ondas, que matemáticamente es una ecuación diferencial de segundo grado, es decir, una ecuación en la cual intervienen derivadas segundas de la función ψ:
Al resolver la ecuación diferencial, se obtiene que la función depende de una serie de parámetros, que se corresponden con los números cuánticos, tal y como se han definido en el modelo de Böhr. La ecuación sólo se cumplirá cuando esos parámetros tomen determinados valores permitidos (los mismos valores que se han indicado antes para el modelo de Böhr). El cuadrado de la función de ondas, 2, corresponde a la probabilidad de encontrar al electrón en una región determinada, con lo cual se está introduciendo en el modelo el Principio de Heisenberg. Por ello, en este modelo aparece el concepto de orbital: región del espacio en la que hay una máxima probabilidad de encontrar al electrón. (No debe confundirse el concepto de orbital con el de órbita, que corresponde al modelo de Böhr: una órbita es una trayectoria perfectamente definida que sigue el electrón, y por tanto es un concepto muy alejado de la mecánica probabilística.)
En este modelo atómico, se utilizan los mismos números cuánticos que en el modelo de Böhr y con los mismos valores permitidos, pero cambia su significado físico, puesto que ahora hay que utilizar el concepto de orbital:
Números cuánticos | Significado físico | Valores permitidos |
principal (n) | Energía total del electrón (nivel energético en que se encuentra el electrón) Distancia del electrón al núcleo. | 1, 2, 3…. |
secundario o azimutal (l) | Subnivel energético en donde está el electrón, dentro del nivel determinado por n. Forma del orbital: l = 0: orbital s (esférico) l = 1: orbital p (bilobulado) (un orbital p en la dirección de cada eje coordenado: px, py, pz) l = 2: orbital d | 0, 1, 2, …, n-1 |
magnético (m) | Orientación del orbital cuando se aplica un campo magnético externo. | -l, …, 0, …, + l |
espín (s) | Sentido de giro del electrón en torno a su propio eje. | ± 1/2 |
Así, cada conjunto de cuatro números cuánticos caracteriza a un electrón:
n determina el nivel energético
l determina el subnivel energético
m determina el orbital concreto dentro de ese subnivel
s determina el electrón concreto dentro de los que pueden alojarse en cada orbital (puede haber dos electrones en cada orbital).
Esto se refleja en el Principio de exclusión de Pauli (1925): en un átomo no puede haber dos electrones que tengan los cuatro números cuánticos iguales, al menos se tendrán que diferenciar en uno de
1.- Química / Raymond Chong
2.- Química / Mortimer, Brown – Le May, Tim
3.- Principios de los procesos químicos / Paúl Ander y Anthony Sonessa
Erik Alejandro Míreles Órnelas
estudia la carrera de ing. Químico