Descargar

El medio ambiente y su destrucción (página 4)


Partes: 1, 2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12

En tiempos más recientes, el control numérico y la telequerica son dos tecnologías importantes en el desarrollo de la robótica. El control numérico (NC) se desarrolló para máquinas herramienta a finales de los años 40 y principios de los 50. Como su nombre indica, el control numérico implica el control de acciones de un máquina-herramienta por medio de números. Está basado en el trabajo original de Jhon Parsons, que concibió el empleo de tarjetas perforadas, que contienen datos de posiciones, para controlar los ejes de una máquina-herramienta.

El campo de la telequerica abarca la utilización de un manipulador remoto controlado por un ser humano. A veces denominado teleoperador, el operador remoto es un dispositivo mecánico que traduce los movimientos del operador humano en movimientos correspondientes en una posición remota. A Goertz se le acredita el desarrollo de la telequerica. En 1948 construyó un mecanismo manipulador bilateral maestro-esclavo en el Argonne National Laboratory. El empleo más frecuente de los teleoperadores se encuentra en la manipulación de sustancias radiactivas, o peligrosas para el ser humano.  

La combinación del control numérico y la telequerica es la base que constituye al robot modelo. Hay dos individuos que merecen el reconocimiento de la confluencia de éstas dos tecnologías y el personal que podía ofrecer en las aplicaciones industriales. El primero fue un inventor británico llamado Cyril Walter Kenward, que solicitó una patente británica para un dispositivo robótico en marzo de 1954.

La segunda persona citada es George C. Devol, inventor americano, al que debe atribuirse dos invenciones que llevaron al desarrollo de los robots hasta nuestros días. La primera invención consistía en un dispositivo para grabar magnéticamente señales eléctricas y reproducirlas para controlar una máquina. La segunda invención se denominaba Transferencia de Artículos Programada.

Un robot industrial es un máquina programable de uso general que tiene algunas características antropomórficas o ¨humanoides¨. Las características humanoides más típicas de los robots actuales es la de sus brazos móviles, los que se desplazarán por medio de secuencias de movimientos que son programados para la ejecución de tareas de utilidad.

La definición oficial de un robot industrial se proporciona por la Robotics Industries Association (RIA), anteriormente el Robotics Institute of América.

"Un robot industrial es un manipulador multifuncional reprogramable diseñado para desplazar materiales , piezas, herramientas o dispositivos especiales, mediante movimientos variables programados para la ejecución de una diversidad de tareas".

Se espera en un futuro no muy lejano que la tecnología en robótica se desplace en una dirección que sea capaz de proporcionar a éstas máquinas un gran número de actividades industriales y sociales.

D) LA CARRERA AERONÁUTICA Y AEROESPACIAL.

El artista e inventor italiano, Leonardo Da Vinci diseñó, por primera vez, un tipo de avión (o aeroplano) en el siglo XV, pero nunca llegó a levantar el vuelo.

Varios siglos más tarde, los hermanos Wright fueron principalmente los creadores del avión autopropulsado de la historia. En 1903 desarrollaron el avión cerca de Kitty Hawk, cuyo vuelo duró aproximadamente un minuto y recorrió más o menos 26 metros, estando presentes, en este acontecimiento histórico 5 personas.

Durante la Primera Guerra Mundial, los aviones fueron diseñados para la exploración, pero, cuando los exploradores se encontraban y eran enemigos luchaban con pistolas y ladrillos. Tras esto, pensaron en poner metralletas y el alemán Anthony Fokker diseñó un sistema para que no dañara las hélices y otros mecanismos. Aviones importantes fueron: Sopwith Camel, Albatros DVa y los Fokker alemanes y sus variantes.

Durante el periodo denominado de entreguerras las potencias seguían mejorando sus aviones hasta crear aviones de dos alas, cada uno a un lado del aparato. Los primeros aviones que se crearon de este tipo fueron: FW-190, Aichi D3A ''llamados como los americanos VAL".

En la Segunda Guerra Mundial los aviones van adquiriendo cierta relevancia. Hasta ese momento no eran lo que se puede decir importantes,para el transcurso de una guerra, pero ahora, conseguir la supremacia aérea fundamental. Los aviones de ataque o cazas para abreviar, eran aviones que podían atacar objetivos aéreos con facilidad y destruirlos. Eran ligeros y rápidos, con metralletas incrustadas en las alas. Los bombarderos eran usados para destruir objetivos terrestres, tanto blindados como edificios o soldados. No tenían metralletas para atacar a enemigos aéreos. Eso sí, tenían metralletas que dirigían los soldados en diferentes partes del avión para defenderse. Eran lentos y resistentes.

A partir de principios de la década de los 50 del siglo pasado se inició la denominada Guerra Fría. Los americanos ayudaban, pero sin luchar ellos, a Corea del Sur y la URSS a Corea del Norte. Durante esta guerra se usaron los helicópteros para las misiones de reconocimiento, de ataque, de bombardero, de transporte, pero los cazas, mejorados y creados a propulsión para destruir objetivos más duros y para combates aéreos muchísimo más intensos.

Los cazas de ahora son a propulsión, con misiles dirigidos y son poderosísimos, llegando a superar la barrera del sonido. Además existen los denominados "aviones invisibles" pues no son detectados por los radares.

El avión invisible es el producto de la combinación de varios factores antidetección y el aprovechamiento de una debilidad de los misiles AA/IR (antiaéreos infrarrojos).

Estos misiles en su nariz tienen un sensor IR (infrarrojo) de ángulo estrecho (como la luz de una linterna) en cuya área o cono de captación se puede «ver» el objetivo. Si un avión se ubica perpendicular al eje del misil (a un lado) el misil no lo ve y sigue de largo. Por eso los misiles AA deben ser disparados hacia el punto donde el radar ubicado en tierra ve el objetivo. En caso de que el radar no logre ver el avión, no hay manera de disparar hacia el punto donde está el avión. Lo mismo pasa con los misiles AA del tipo FF, es decir misiles que en su morro llevan no un sensor infrarrojo sino un minirradar, e incluso con los combinados IR-FF.

En cuanto a los factores antidetección, para evitar la detección infrarroja o detección térmica, primeramente las turbinas se recubren externamente de amianto y otros aislantes térmicos, formando una gruesa capa entre el fuselaje de plástico del avión y la superficie metálica del cuerpo de la turbina. El fuselaje externo por ser de plástico contribuye al aislamiento. La cola del avión después de la salida o tobera de la turbina se hace un poco más larga para disipar aún más el chorro térmico. Esta cola se hace de doble capa con amianto en medio de las dos capas formadas por el fuselaje externo y la capa o cubierta interna. Para reforzar la merma de calor, la turbina se fabrica lo más pequeña posible y para operar a las mínimas revoluciones posibles (RPM), de ahí la baja velocidad de los F117.

Adicionalmente desde la boca delantera de entrada de aire frío, se hace una toma por 4 ó 6 conductos de poco diámetro que van a la prolongación de la cola, antes mencionada, para enfriar con aire frío el extremo final la cola del chorro de la turbina.

Pero, a pesar de todo esto, al avión siempre conserva un «Punto caliente» al ser visto desde atrás o por atrás. Si desde atrás se le dispara un AA-FF como éste trabaja respondiendo a un eco de radar, el misil no ve el avión. Pero si desde atrás se le dispara un AA-IR sí lo ve y da en el blanco, y esto fue la que paso en Kosovo con el F-117 derribado.

En cuanto al método antidetección de radar, es una combinación de varios factores, en primer lugar, se usa un material de fibra plástica similar a la fibra de cristal con la adicción de un derivado del amianto, que tiene una baja reflexión de radar como cualquier lancha con casco de fibra de vidrio. A esto se suma una pintura que tiene una baja reflexión a las ondas del radar. Y finalmente se agrega el diseño de superficie diédrica, para aprovechar un principio físico que dice que el ángulo de reflexión es igual al ángulo de incidencia, con respecto al plano donde se hace el rebote.

Sin embargo, los modernos micrófonos de alta sensibilidad, amplificadores de audio de sensibilidad extrema y altos factores de amplificación lineal, así como los filtros de audio pasabanda (que discriminan la frecuencia sónica a una estrecha banda sonora equivalente al sonido del avión), permiten la detección con gran exactitud a larga distancia. Los micrófonos, con su reflector parabólico, son montados en «baterías» de hasta 100 grupos como una especie de antena Yagi direccional. Además, el sonido del avión en el aire no se puede disfrazar e investigadores chinos han conseguido diseñar y construir un radar de baja frecuencia que rebota en superficies de baja reflexión a las altas frecuencias.

En el campo de la aviación civil las innovaciones que se vienen realizando en las últimas décadas son, igualmente, impresionantes.

En diciembre de 2009 Air Berlin estrenó el sistema GLS para asistir a los pilotos en el aterrizaje de aeronaves, y mientras eso sucede en Europa, en EEUU también avanzan en ese sentido.

La Federal Aviation Administration de ese país ha aprobado la puesta en marcha del sistema Automatic Dependent Surveillance-Broadcast, o ADS-B, que ofrece una visualización mucho más detallada del espacio aéreo, tanto desde las torres de control como desde las propias aeronaves.

Con ADS-B será posible un nivel de seguridad mucho mayor gracias a que los pilotos tendrán una referencia mucho más realista y detallada de las rutas, como así también de las dificultades que estas presentan, gracias a la utilización de vistas de terreno y acceso.

Air Berlin será la primera aerolínea en incorporar el Global Position Landing System (GLS), una tecnología de navegación satelital  de asistencia en vuelo.

Con ella será posible realizar vuelos de aproximación mucho más precisos y aterrizajes más exactos, lo cual permitirá reducir costos y aumentar significativamente la seguridad.

La Oficina Federal Alemana de Aviación (LBA) ya ha otorgado la autorización a Air Berlin para comenzar a utilizar el sistema GLS, lo cual convierte a la compañía en la precursora de esta tecnología.

La carrera espacial y la Guerra Fría, provocó los incentivos necesarios tanto para los Estados Unidos como para la URSS, creando y potenciando sus industrias aeroespaciales, y en la década de 1980, condujeron al mundo, en general, a importantes logros. El mercado aeroespacial mundial creció de forma sostenida en los años 1980, a pesar de que las ventas se desaceleraron en los EE.UU. a causa del accidente del transbordador espacial que destruyó el Challenger en 1986 y el fracaso del Delta del Titán. De hecho, los EE.UU. decidieron, en 1991, poner fin a su dependencia de los lanzamientos del transbordador. China y Japón amplían, entonces, sus programas espaciales para poder acceder a los mercados abiertos por la caída del programa de transbordadores de EE.UU. y el incierto futuro del programa espacial soviético como resultado de sus problemas políticos.

En los EE.UU. los principales productores de aviones, motores de aviones, misiles y vehículos espaciales superan la docena. Como los vehículos son cada vez más complejos, las empresas suelen trabajar en colaboración sobre los productos principales. También dependen de los proveedores especializados para muchos artículos. Decenas de miles de pequeñas empresas fabrican piezas para los productores primarios.

Los principales fabricantes de fuselajes de aviones, misiles y vehículos espaciales incluyen Boeing, Fairchild República, General Dynamics, Grumman, Hughes, Ling-Temco-Vought, Lockhead, Martin Marietta, McDonnell Douglas, de América del Norte de las aeronaves, y Northrop. Entre los productores de aviones privados son la haya, Cessna y Piper. Los fabricantes de motores incluyen Avco Lycoming, General Electric y Pratt and Whitney. Incluyen fabricantes de helicópteros Bell, Boeing, Hiller, Hughes, Kaman, y Sikorsky.

El gobierno federal norteamericano es el principal cliente de los misiles, vehículos espaciales, aeronaves y sus componentes. Las compras gubernamentales anuales de estos vehículos suman en total unos 23 millones de dólares, alrededor del 54 por ciento de los productos aeroespaciales de los EE.UU. y servicios vendidos.

Con el desvanecimiento de las hostilidades de la Guerra Fría, las partes de la industria dedicada a la aeronáutica militar comenzó a disminuir lentamente en la década de 1980, pero los analistas de la industria aseguran que la pérdida fue compensada por un saludable crecimiento en el mercado de aviones civiles, impulsado por el aumento de una proyección en el tráfico aéreo, por la necesidad de reemplazar los aviones ya envejecidos, por un aumento previsto del tráfico aéreo, y por las nuevas regulaciones que exigen modificaciones en las aeronaves existentes para alcanzar niveles de menor ruido.

El programa espacial soviético lanzó el primer satélite artificial del mundo (Sputnik 1) el 4 de octubre de 1957. El Congreso de los Estados Unidos lo percibió como una amenaza a la seguridad y el Presidente Eisenhower y sus consejeros, tras varios meses de debate, tomaron el acuerdo de fundar una nueva agencia federal que dirigiera toda la actividad espacial no militar.

El 29 de julio de 1958 Eisenhower firmó el Acta de fundación de la NASA, la cual empezó a funcionar el 1 de octubre de 1958 con cuatro laboratorios y unos 8.000 empleados.

La intención de los primeros programas era poner una nave tripulada en órbita y ello se realizó bajo la presión de la competencia entre los EE.UU. y la URSS en la denominada carrera espacial que se produjo durante la Guerra Fría.

El Programa Mercury comenzó en 1958 con el objetivo de descubrir si el hombre podía sobrevivir en el espacio exterior. El 5 de mayo de 1961 Alan B. Shephard fue el primer astronauta estadounidense al pilotar la nave Freedom 7 en un vuelo suborbital de 15 minutos. John Glenn se convirtió el 20 de febrero de 1962 en el primer estadounidense en orbitar la Tierra, durante un vuelo de 5 horas con la nave Friendship 7, que dio tres vueltas a la Tierra.

El 25 de mayo de 1961 el Presidente John F. Kennedy anunció que Estados Unidos debía comprometerse a "aterrizar a un hombre en la Luna y devolverlo sano y salvo a la Tierra antes del final de la década", para lo cual se creó el Programa Apolo. El Programa Gemini fue concebido para probar las técnicas necesarias para el Programa Apolo, cuyas misiones eran mucho más complejas.

Durante los ocho años de misiones preliminares la NASA tuvo la primera pérdida de astronautas. El Apolo 1 se incendió en la rampa de lanzamiento durante un ensayo y sus tres astronautas murieron. La NASA, tras este accidente, lanzó un programa de premios para mejorar la seguridad de las misiones, el Premio Snoopy. El Programa Apolo logró su meta con el Apolo 11, que alunizó con Neil Armstrong y Edwin E. Aldrin en la superficie de la Luna el 20 de julio de 1969 y los devolvió a la Tierra el 24 de julio. Las primeras palabras de Armstrong al poner el pie sobre la Luna fueron: «Este es un pequeño paso para un hombre, pero un gran salto para la humanidad».

Diez hombres más formarían la lista de astronautas en pisar la Luna cuando finalizó el programa anticipadamente con el Apolo 17 en diciembre de 1972, cuyo resultado fue, además de la recogida de muestras de regolito, la instalación de equipos de estudio superficiales ALSEP.

La NASA había ganado la carrera espacial y, en cierto sentido, esto la dejó sin objetivos al disminuir la atención pública capaz de garantizar los grandes presupuestos del Congreso. Aunque la inmensa mayoría del presupuesto de NASA se ha gastado en los vuelos tripulados, ha habido muchas misiones no tripuladas promovidas por la agencia espacial.

El desarrollo ya logrado por las dos potencias espaciales tenía que producir un acercamiento entre la Unión Soviética y los Estados Unidos. Por lo tanto, el 17 de julio de 1975, un Apolo, se acopló a un Soyuz soviético en la misión Apolo-Soyuz para la que hubo que diseñar un módulo intermedio y acercar la tecnología de las dos naciones. Aunque la Guerra Fría duraría más años, este fue un punto crítico en la historia de NASA y el principio de la colaboración internacional en la exploración espacial. Después vinieron los vuelos del transbordador a la estación rusa Mir, vuelos de estadounidense en la Soyuz y de rusos en el transbordador y la colaboración de ambas naciones y otras más en la construcción de la Estación Espacial Internacional (ISS).

El Transbordador espacial se convirtió en el programa espacial favorito de la NASA a finales de los años setenta y los años ochenta. Planeados tanto los dos cohetes lanzadores como el transbordador como reutilizables, se construyeron cuatro transbordadores. El primero en ser lanzado fue el Columbia el 12 de abril de 1981.

Pero los vuelos del transbordador eran mucho más costosos de lo que inicialmente estaba proyectado y, después de que el desastre del Challenger, en 1986, resaltó los riesgos de los vuelos espaciales, el público recuperó el interés perdido en las misiones espaciales.

No obstante, el transbordador se ha usado para poner en órbita proyectos de mucha importancia como el Telescopio Espacial Hubble (HST). El HST se creó con un presupuesto relativamente pequeño de 2.000 millones de dólares, pero ha continuado funcionando desde 1990 y ha maravillado a los científicos y al público. Algunas de las imágenes han sido legendarias, como las del denominado Campo Profundo del Hubble. El HST es un proyecto conjunto entre la ESA y la NASA, y su éxito ha ayudado en la mayor colaboración entre las agencias.

En 1995 la cooperación ruso-estadounidense se lograría de nuevo cuando comenzaron las misiones de acoplamiento entre el transbordador y la estación espacial Mir, en ese momento la única estación espacial completa. Esta cooperación continúa al día de hoy entre Rusia y Estados Unidos, los dos socios más importantes en la construcción de la Estación Espacial Internacional. La fuerza de su cooperación en este proyecto fue más evidente cuando la NASA empezó confiando en los vehículos de lanzamiento rusos para mantener la ISS tras el desastre en 2003 del Columbia que mantuvo en tierra la flota de los transbordadores durante más de un año.

Costando más de cien mil millones de dólares, ha sido a veces difícil para la NASA justificar el proyecto ISS. La población estadounidense ha sido históricamente difícil de impresionar con los detalles de experimentos científicos en el espacio. Además, no puede acomodar a tantos científicos como había sido planeado, sobre todo, desde que el transbordador espacial estuvo fuera de uso hasta marzo de 2005, deteniendo la construcción de la ISS y limitando su tripulación a una de mantenimiento de dos personas.

Durante la mayor parte de los años 1990 la NASA se enfrentó con una reducción de los presupuestos anuales por parte del Congreso. Para responder a este reto, el noveno administrador de la NASA, Daniel S. Goldin, inventó misiones baratas bajo el lema :"más rápido, más bueno, más barato" que le permitió a la NASA recortar los costes mientras se emprendía una gran variedad de programas aerospaciales. Ese método fue criticado y llevó en 1999 a las pérdidas de las naves gemelas Climate Orbiter y Mars Polar Lander de exploración en Marte.

Probablemente la misión con más éxito entre el público en los últimos años (1997) ha sido la de la sonda Mars Pathfinder y la Mars Global Surveyor. Los periódicos de todo el mundo llevaron las imágenes del robot Sojourner, desplazándose y explorando la superficie de Marte. Desde 1997 la Mars Global Surveyor estuvo orbitando Marte con gran éxito científico. Desde 2001 el orbitador Mars Odyssey ha estado buscando evidencia de agua en el Planeta rojo, en el pasado o en el presente, así como pruebas de actividad volcánica.

En 2004 una misión científicamente más ambiciosa llevó a dos robots, Spirit y Opportunity, a analizar las rocas en busca de agua, por lo que aterrizaron en dos zonas de Marte diametralmente opuestas, encontrando vestigios de un antiguo mar o lago salado.

El 14 de enero de 2004, diez días después del aterrizaje de Spirit , el Presidente George W. Bush anunció el futuro de la exploración espacial. La humanidad volvería a la Luna en 2020 como paso previo a un viaje tripulado a Marte.

El robot Spirit siempre fue el menos afortunado de los dos aparatos gemelos que la NASA envió a explorar la superficie de Marte. Apenas semanas después de llegar a un cráter marciano en 2004, comenzó a transmitir mensajes incoherentes a la Tierra. Los ingenieros temen que el Spirit se quede sin electricidad a menos que los científicos puedan reorientar sus celdas fotovoltaicas hacia el Sol.

El Spirit "siempre ha sido nuestra reina del drama'', dijo el científico en jefe Steve Squyres de la Universidad Cornell.

En abril, de 2009, cuando el Spirit circulaba hacia atrás por una falla en una rueda, cayó a través del suelo endurecido como una persona que atraviesa el hielo de un lago congelado y quedó encallado en arena suelta. Desde entonces, los intentos para liberarlo de allí no han avanzado mucho.

En cambio, su gemelo Opportunity le robó protagonismo, ya que llegó a un sitio geológicamente ideal y fue el primero en establecer que el Planeta rojo, hoy helado y polvoriento, tuvo un pasado con más humedad.

E) LA NANOTECNOLOGÍA.

La palabra "nanotecnología" es usada extensivamente para definir las ciencias y técnicas que se aplican al un nivel de nanoescala, esto es unas medidas extremadamente pequeñas "nanos" que permiten trabajar y manipular las estructuras moleculares y sus átomos. En síntesis nos llevaría a la posibilidad de fabricar materiales y máquinas a partir del reordenamiento de átomos y moléculas. El desarrollo de esta disciplina se produce a partir de las propuestas de Richard Feynman (Breve cronología – historia de la nanotecnología).

La mejor definición de Nanotecnología que hemos encontrado es esta: La nanotecnologia es el estudio, diseño, creación, síntesis, manipulación y aplicación de materiales, aparatos y sistemas funcionales a través del control de la materia a nano escala, y la explotación de fenómenos y propiedades de la materia a nano escala.

Cuando se manipula la materia a la escala tan minúscula de átomos y moléculas, demuestra fenómenos y propiedades totalmente nuevas. Por lo tanto, científicos utilizan la nanotecnología para crear materiales, aparatos y sistemas novedosos y poco costosos con propiedades únicas

Nos interesa, más que su concepto, lo que representa potencialmente dentro del conjunto de investigaciones y aplicaciones actuales cuyo propósito es crear nuevas estructuras y productos que tendrían un gran impacto en la industria, la medicina etc..

Esta nuevas estructuras con precisión atómica, tales como nanotubos de carbón, o pequeños instrumentos para el interior del cuerpo humano pueden introducirnos en una nueva era, tal como señala Charles Vest (ex-presidente del MIT). Los avances nanotecnológicos protagonizarían de esta forma la sociedad del conocimiento con multitud de desarrollos con una gran repercusión en su instrumentación empresarial y social.

La nanociencia está unida en gran medida desde la década de los 80 con Drexler y sus aportaciones a la"nanotecnología molecular", esto es, la construcción de nanomáquinas hechas de átomos y que son capaces de construir ellas mismas otros componentes moleculares. Desde entonces Eric Drexler (personal webpage), se le considera uno de los mayores visionarios sobre este tema. Ya en 1986, en su libro "Engines of creation" introdujo las promesas y peligros de la manipulación molecular.

El padre de la "nanociencia", es considerado Richard Feynman, premio Nóbel de Física, quién en 1959 propuso fabricar productos en base a un reordenamiento de átomos y moléculas. En 1959, el gran físico escribió un artículo que analizaba cómo los ordenadores trabajando con átomos individuales podrían consumir poquísima energía y conseguir velocidades asombrosas.

Existe un gran consenso en que la nanotecnología nos llevará a una nueva revolución industrial en el siglo XXI tal como anunció hace unos años, Charles Vest (ex-presidente del MIT).

Supondrá numerosos avances para muchas industrias y nuevos materiales con propiedades extraordinarias (desarrollar materiales más fuertes que el acero pero con solamente el diez por ciento de peso), nuevas aplicaciones informáticas con componentes increíblemente más rápidos o sensores moleculares capaces de detectar y destruir células cancerígenas en las partes más delicadas del cuerpo humano como el cerebro, entre otras muchas aplicaciones.

Podemos decir que muchos progresos de la nanociencia estarán entre los grandes avances tecnológicos que cambiarán el mundo.

Hace unos meses, el 4 de enero de 2010, un equipo médico, de un hospital londinense, creó una arteria con el empleo de nanotecnología que podría ayudar a pacientes que necesitan un injerto de arterias coronarias y de miembros inferiores, divulgaron los científicos londinenses.

Investigadores del Royal Free Hospital, Reino Unido, pondrán a prueba el material que imita el pulso natural de los vasos sanguíneos y puede transmitir los nutrientes necesarios a los tejidos del organismo, lo cual serviría de ayuda a miles de pacientes afectados por enfermedades cardiovasculares.

En la actualidad, las personas con esas dolencias son sometidas a un pypass, o el vaso sanguíneo dañado es reemplazado por un injerto hecho a partir de plástico, o una vena de la pierna del enfermo.

 Amador Menéndez Velázquez (Oviedo, 1969) sabe de lo que habla cuando pronostica que la nanotecnología puede revolucionar el futuro. De eso habla y así se titula el estudio que le valió el Premio Europeo de Divulgación Científica en 2009, «Una revolución en miniatura. Nanotecnología y disciplinas convergentes». Doctor en Química e investigador del Centro de Investigación de Nanomateriales y Nanotecnología (CINN), se ha incorporado al Instituto Tecnológico de Massachusetts (MIT), uno de los más prestigiosos del mundo.

El instituto tecnológico de Massachusetts, una de las instituciones más prestigiosas del mundo nos presenta a continuación Las diez tecnologías avanzadas que cambiarán el mundo (enero de 2010).

Redes de sensores sin cables (Wireless Sensor Networks): Son redes de nano aparatos autónomos capaces de una comunicación sin cable y suponen uno de los avances tecnológicos más investigados en la actualidad.

Ingeniería inyectable de tejidos (Injectable Tissue Engineering): Consiste en sustituir a los tradicionales trasplantes de órganos, se está a punto de aplicar un método por el que se inyecta articulaciones con mezclas diseñadas de polímeros, células y estimuladores de crecimiento que solidifiquen y formen tejidos sanos.-Nano-células solares (Nano Solar Cells): A través de la nanotecnología se está desarrollando un material fotovoltaico que se extiende como el plástico o como pintura. No solo se podrá integrar con otros materiales de la construcción, sino que ofrece la promesa de costos de producción baratos que permitirán que la energía solar se convierta en una alternativa barata y factible.

Mecatrónica (Mechatronics): Surge de la combinación sinérgica de distintas ramas de la ingeniería, entre las que destacan: la mecánica de precisión, la electrónica, la informática y los sistemas de control. Su principal propósito es el análisis y diseño de productos y de procesos de manufactura automatizados.

Sistemas informáticos Grid (Grid Computing): La computación grid es una tecnología innovadora que permite utilizar de forma coordinada todo tipo de recursos (cómputo, almacenamiento) que no están sujetos a un control centralizado.

Imágenes moleculares (Molecular Imaging): A diferencia de rayos x, ultrasonido y otras técnicas más convencionales, que aportan a los médicos pistas anatómicas sobre el tamaño de un tumor, las imágenes moleculares podrán ayudar a descubrir las verdaderas causas de la enfermedad. La apariencia de una proteína poco usual en un conjunto de células podrá advertir de la aparición de un cáncer.

Litografía Nano-impresión (Nanoimprint Lithography): Simplemente a través de la impresión de una moldura dura dentro de una materia blanda, puede imprimir caracteres más pequeños que 10 nanometros.

Software fiable (Software Assurance): Los ordenadores se averían, y cuando lo hacen, suele ser por un virus informático. Para evitar tales escenarios, se investigan herramientas que produzcan software sin errores.

Glucomicas (Glycomics): Un campo de investigación que pretende comprender y controlar los miles de tipos de azúcares fabricados por el cuerpo humano para diseñar medicinas que tendrán un impacto sobre problemas de salud relevantes.

Criptografía Quantum (Quantum Cryptography): La herramienta quantum cryptography, depende de la física cuántica aplicada a dimensiones atómicas y puede transmitir información de tal forma que cualquier intento de descifrar o escuchar será detectado.( Informe, MIT, tecnologías del futuro).

SEGUNDA PARTE

La destrucción medioambiental

1º. LOS DESASTRES NATURALES

Es evidente que la acción antrópica modifica, profundamente, el espacio natural, como veremos más adelante, en el siguiente capítulo. Sin embargo, existen algunos factores naturales que también, y desde hace cientos de millones de años, han modificado, muy profundamente, la superficie terrestre y marina. Analizaré alguno de los elementos naturales más importantes:

  • TERREMOTOS.

Un terremoto es el movimiento brusco de la Tierra, causado por la brusca liberación de energía acumulada durante largo tiempo. La corteza de la Tierra está conformada por una docena de placas de, aproximadamente, 70 Km de grosor, cada una con diferentes características físicas y químicas. Estas placas "tectónicas" se están acomodando en un proceso que lleva millones de años y han ido dando la forma que hoy conocemos a la superficie de nuestro Planeta, originando los continentes y los océanos.

Las placas de la corteza terrestre están sometidas a tensiones. En la zona de roce (falla), la tensión es muy alta y, a veces, supera a la fuerza de sujeción entre las placas. Entonces, las placas se mueven violentamente, provocando ondulaciones y liberando una enorme cantidad de energía. Este proceso se llama movimiento sísmico o terremoto.

Un terremoto de gran magnitud puede afectar más la superficie terrestre si el epifoco u origen del mismo se encuentra a menor profundidad. La destrucción de ciudades no depende únicamente de la magnitud del fenómeno, sino también de la distancia a que se encuentren del mismo, de la constitución geológica del subsuelo y de otros factores, entre los cuales hay que destacar las técnicas de construcción empleadas.

El estudio de los terremotos se denomina Sismología y es una ciencia relativamente reciente. Hasta el siglo XVIII los registros objetivos de terremotos son escasos y no había una real comprensión del fenómeno. De las explicaciones relacionadas con castigos divinos o respuestas de la Tierra al mal comportamiento humano, se pasó a explicaciones pseudocientíficas como que eran originados por liberación del aire desde cavernas presentes en las profundidades del Planeta.

Como todos sabemos, en nuestro Planeta se encuentran diferentes placas tectónicas, esto es algo así como diferentes "alfombras" que se van moviendo de manera lenta con el transcurrir de los años; así existe cierta fricción entre cualquiera de ellas, la cual es la que produce los movimientos telúricos que bien pueden ser temblores o terremotos.

El primer terremoto del que se tiene referencia ocurrió en China en el año 1177 A.C. Existe un Catálogo Chino de Terremotos que menciona unas docenas más de tales fenómenos en los siglos siguientes.

Desde el siglo XVII comienzan a aparecer numerosos relatos sobre terremotos, pero parece ser que la mayoría fueron distorsionados o exagerados. En Norteamérica se documentan una importante serie de terremotos ocurridos entre 1811 y 1812 cerca de New Madrid, Missouri, destacándose uno de magnitud estimada alrededor de los 8 grados la mañana del 16 de diciembre de 1811. El 23 de enero y el 7 de febrero de 1812 hubo otros dos terremotos considerables en la zona, especialmente el último mencionado, cuyas réplicas duraron meses y fue sentido en zonas tan lejanas como Denver y Boston. Por no estar tan pobladas entonces, las ciudades no registraron demasiadas muertes o daños. En el caso del estado de California se encuentran dos placas tectónicas, la del Pacífico y la de Norteamérica, que están a su vez separadas por la falla de San Andrés. Esta falla es un gigantesco surco que mide más de 1.200 kilómetros de largo y 15 kilómetros de profundidad, y que cruza de norte a sur dicho estado. Es esta la falla que produce casi todos los terremotos que se dan en California y a pesar que su ubicación es a casi 100 kilómetros al noroeste de Los Ángeles fue la responsable de el último gran terremoto que se dio en Fort Tejón en el año de 1857. En 1906, en San Francisco, se produjeron más de 700 víctimas y la ciudad fue arrasada por el sismo y el incendio subsecuente en el mayor terremoto de la historia de Estados Unidos, 250.000 personas quedaron sin hogar.

En Alaska, el 27 de marzo de 1964 se registró un terremoto de aún mayor energía, pero por ser una zona de poca densidad demográfica, los daños en la población no fueron tan graves, registrándose sólo 107 personas muertas, lo que no es tanto si se considera que el terremoto fue sentido en un área de 500.000 millas cuadradas y arrancó los árboles de la tierra en algunas zonas.

El último gran terremoto registrado en Europa, se produjo, en abril de 2009, en los Abruzos, al nordeste de Roma, de magnitud 6,3 grados en la escala de Richter y provocó 200 muertos, decenas de desaparecidos y más de 1.500 heridos, según el Ministerio del Interior de Italia.

El terremoto tuvo su epicentro a pocos kilómetros de L'Aquila, una ciudad amurallada situada a dos horas de Roma y capital de la región de los Abruzos. Las ondas sísmicas provocaron graves daños humanos y materiales en esta ciudad y en numerosas localidades de su provincia, como Santo Stefano di Sessanio, Villa Sant'Angelo, Paganica, San Demetrio, Fossa y Poggio Picenze..

Además, los funcionarios de defensa civil han estimado que el terremoto habría dejado unas 70.000 personas sin hogar. Según los medios italianos, unas 100.000 personas no tienen dónde pasar la noche.

Ha sido el peor terremoto registrado en Italia desde noviembre de 1980, cuando murieron en el sur del país 2.570 personas.

El martes, 12 de enero de 2010 se produjo un importante terremoto en Haití, el país más pobre de Latinoamérica. La intensidad del terremoto fue de 7 en la escala de Ritcher. El Gobierno de Haití ha decretado el Estado de Emergencia hasta fin de mes, con lo que se suspenden varias garantías constitucionales. Seis días después del terremoto que sembró la destrucción en Haití ya se han enterrado 70.000 cadáveres en fosas comunes, aunque el primer ministro de aquel país, Jean-Max Bellerive, estima que la cifra total de fallecidos por la catástrofe podría llegar a 200.000, informa el dirio 'El Nuevo Herald'.

Las calles situadas más cerca del mar están atestadas de gente. "Hay cadáveres hinchados y en descomposición por las calles, de los que sale un líquido amarillo", aseguró Schorno. "A su alrededor circulan las motocicletas y los coches, sin que nadie los mire siquiera. Los más jóvenes están sacando bloques de cemento de los edificios derrumbados. No buscan a gente, sino chatarra. Todos piensan ahora en su propia supervivencia", dijo.

A la sombra del edificio del Palacio Nacional, ahora en ruinas, la sede de la policía está vacía y su edificio medio derruido. Los agentes de policía y sus familias, que también necesitan ayuda, están sentados en sus coches y camionetas. "Los autobuses abarrotados de gente exhalan nubes de humo negro. Todo el que puede se marcha de la ciudad hacia el campo, donde puede ser más fácil sobrevivir y quizá empezar de nuevo", apostilló.

En los comercios del centro de la ciudad, los saqueos continúan casi con impunidad: grupos de muchachos se cuelan en comercios cerrados o almacenes y arrojan desde el tejado todo tipo de mercancías a los miles de personas que los reciben abajo. Los militares de la ONU pasan por delante sin intervenir, mientras que la policía haitiana dispara al aire sin éxito, según pudo comprobar Efe. Todo es desolación y muerte en este país caribeño que tardará años en recuperarse de esta catástrofe.

Un seísmo dejó el miércoles, 14 de abril de 2010, en el Tibet, "unos 400 muertos y 8.000 heridos", según el último balance oficial comunicado por la agencia China Nueva.

Numerosas casas se derrumbaron, las carreteras quedaron cortadas por aludes y las telecomunicaciones estaban perturbadas en esta región de las estribaciones del Himalaya. La prefectura de Yushu, epicentro del seísmo, tiene unos 80.000 habitantes, según datos oficiales.

El temblor se produjo menos de un año después del que en mayo de 2008 arrasó la provincia de Sichuan, también aledaña al Tíbet, que había dejado 87.000 entre muertos y desaparecidos.

El terremoto del miércoles, 14 de abril de 2010, se produjo a primeras horas del día y tuvo una magnitud de 6,9, según el Instituto de Geofísica de Estados Unidos (USGS), y de 7,1 según las autoridades chinas.

Para medir la intensidad de un terremoto se realiza a través de un instrumento llamado sismógrafo que registra en un papel la vibración de la Tierra producida por el sismo. Nos informa la magnitud y la duración. Este instrumento registra dos tipos de ondas: las superficiales, que viajan a través de la superficie y que producen la mayor vibración de ésta y las centrales o corporales que viajan a través de la Tierra desde su profundidad.

Uno de los mayores problemas para la medición de un terremoto es la dificultad inicial para coordinar los registros obtenidos por sismógrafos ubicados en diferentes puntos "Red Sísmica" de modo que no es inusual que las informaciones preliminares sean discordantes ya que fueron basadas en informes que registraron diferentes amplitudes de onda. Determinar el área total abarcada por el sismo puede tardar varias horas o días de análisis del movimiento mayor y de sus réplicas. La prontitud del diagnóstico es de capital importancia para echar a andar los mecanismos de ayuda en tales emergencias. A cada terremoto se le asigna un valor de magnitud único, pero la evaluación se realiza, cuando no hay un número suficiente de estaciones, principalmente basada en registros que no fueron realizados forzosamente en el epicentro sino en puntos cercanos. De ahí que se asigne distinto valor a cada localidad o ciudad e interpolando las cifras se consigue ubicar el epicentro.

Una vez coordinados los datos de las distintas estaciones, lo habitual es que no haya una diferencia asignada mayor a 0.2 grados para un mismo punto. Esto puede ser más difícil de efectuar si ocurren varios terremotos cercanos en tiempo o área. Aunque cada terremoto tiene una magnitud única, su efecto variará, grandemente, según la distancia, la condición del terremoto, los estándares de construcción y otros factores.

Resulta más útil, entonces, catalogar cada terremoto según su energía intrínseca. Esta clasificación debe ser un número único para cada evento, y este número no debe verse afectado por las consecuencias causadas, que varían mucho de un lugar a otro.

La denominada magnitud de escala Richter, representa la energía sísmica liberada en cada terremoto y se basa en el registro sismográfico. Es una escala que crece en forma potencial o semilogarítmica, de manera que cada punto de aumento puede significar un aumento de energía diez o más veces mayor. Una magnitud 4 no es el doble de 2, sino 100 veces mayor.

edu.red

Los intentos de predecir cuándo y dónde se producirán los terremotos han tenido cierto éxito en los últimos años. En la actualidad, China, Japón, Rusia y Estados Unidos son los países que apoyan más estas investigaciones. En 1975, sismólogos chinos predijeron el sismo de magnitud 7,3 de Haicheng, y lograron evacuar a 90.000 residentes sólo dos días antes de que destruyera el 90% de los edificios de la ciudad. Una de las pistas que llevaron a esta predicción fue una serie de temblores de baja intensidad, llamados sacudidas precursoras, que empezaron a notarse cinco años antes. Otras pistas potenciales son la inclinación o el pandeo de las superficies de tierra y los cambios en el campo magnético terrestre, en los niveles de agua de los pozos e incluso en el comportamiento de los animales. También hay un nuevo método en estudio basado en la medida del cambio de las tensiones sobre la corteza terrestre. Basándose en estos métodos, es posible pronosticar muchos terremotos, aunque estas predicciones no sean siempre acertadas.

Para finalizar, veamos la magnitud y número de víctimas causadas por los grandes terremotos durante el siglo XX. Además, como podemos observar en estos datos, la mayor o menor magnitud del terremoto no coincide, en muchos casos con el número de víctimas registradas. Depende de si se produce en una zona muy poblada, o no, con lo que, en el primer caso, aumentaría el número de posibles víctimas, así como la estructura y material empleado en la construcción de las viviendas.

GRANDES TERREMOTOS DEL SIGLO XX EN EL MUNDO

Año

Magnitud

Lugar

Víctimas

1960

9.5

Sur de Chile

5.700

1964

9.4

Alaska

131

1933

8.9

Sanriku, Japón

2.990

1906

8.9

Colombia

1.000

1950

8.7

India/Assam/Tíbet

1.530

1897

8.7

Assam, India

1.500

1906

8.6

Santiago/Valparaíso, Chile

20.000

1905

8.6

Sangra, India

19.000

1950

8.6

Assam, India

1.526

1899

8.6

Yakutat Bay, Alaska

* Sin datos

1920

8.5

Kansu, China

180.000

1934

8.4

India/Nepal

10.700

1946

8.4

Tonankai, Japón

1.330

1923

8.3

Kwanto, Japón

100.000

1927

8.3

Xining, China

200.000

1939

8.3

Chillan, Chile

28.000

1976

8.2

Tangshan, China

240.000

1923

8.2

Kwanto, Yokohama, Japón

143.000

1906

8.2

San Francisco, California

700

1907

8.1

Asia central

12.000

1939

8.0

Ezrican, Turquía

23.000

1976

7.9

Tang-Shan, China

655.200

1970

7.9

Ancash, Perú

60.000

1908

7.5

Messina, Italia

29.980

  • MAREMOTOS

Los terremotos submarinos provocan movimientos del agua del mar (maremotos o tsunamis). Los tsunamis son olas enormes con longitudes de onda de hasta 100 kilómetros que viajan a velocidades de 700 a 1.000 km/h. En alta mar la altura de la ola es pequeña, sin superar el metro; pero cuando llegan a la costa, al rodar sobre el fondo marino alcanzan alturas mucho mayores, de hasta 30 y más metros.

El tsunami está formado por varias olas que llegan separadas entre sí unos 15 ó 20 minutos. La primera que llega no suele ser la más alta, sino que es muy parecida a las normales. Después se produce un impresionante descenso del nivel del mar seguido por la primera ola gigantesca y a continuación por varias más. La forma de sucederse un maremoto es la siguiente: un terremoto (del cual una mínima parte de la potencia se traspasa al maremoto) desnivela el agua y comienza el maremoto, en el lugar que será devastado por el tsunami comienzan a aparecer "microtsunamis", los cuales se adentran en la costa unos 50-100 metros, y tras una marea baja, en la que el mar se recoge varios cientos de metros, se produce la sucesión de grandes olas.

La falsa seguridad que suele dar el descenso del nivel del mar ha ocasionado muchas víctimas entre las personas que, imprudentemente, se acercan por curiosidad u otros motivos, a la línea de costa.

España puede sufrir tsunamis catastróficos, como quedó comprobado en el terremoto de Lisboa en 1755. Como consecuencia de este seismo varias grandes olas arrasaron el golfo de Cádiz causando más de 2.000 muertos y muchos heridos.

Los países más afectados por los maremotos han desarrollado unos extremadamente eficaces sistemas de alerta de maremotos. La zona con mejores sistemas de alerta y planes de evacuación es la del océano Pacífico, sobre todo México, Perú, Japón, Ecuador, Chile y Hawai. Hay varios institutos sismológicos que se dedican a la medición de maremotos y a su evolución monitorizada a través de un sistema de satélites. El primer sistema se empleó en Hawai en la década de los años 20, pero tras los maremotos de 1946 y 1960 que terminaron en la destrucción de Hilo (Hawai), se innovaron los sistemas de alerta. Los Estados Unidos de América crearon el centro de prevención de maremotos del Pacífico en 1949, pasando en 1965 a formar parte de una red mundial de seguimiento y prevención de los mismos. Uno de los proyectos para la prevención de maremotos es la Información Consolidada de Terremotos y Maremotos (CREST en inglés) que es usado en la costa oeste de Estados Unidos, en Alaska y en Hawai por el United States Geological Survery (Centro de Estudios Geológicos de Estados Unidos) además de tres redes sísmicas universitarias.

En diciembre de 2004 un maremoto causó más de 150.000 muertos en el sudeste asiático. El fortísimo temblor desató una sucesión de maremotos con olas tipo tsunami de hasta 10 metros de altura y dejó bajo las aguas miles de kilómetros de tierra.Además de las 150.000 personas fallecidas, otras miles están desaparecidas en el sudeste de Asia como consecuencia del seísmo más intenso de los últimos 40 años, que estremeció el domingo, 2 de enero de 2005, a Indonesia y levantó olas gigantescas que devastaron las zonas costeras de siete países de la región.

El movimiento sísmico que originó los maremotos tuvo una magnitud de 9 grados en la escala abierta de Richter, según el Instituto Geológico norteamericano de Golden, y se produjo a las 00:58 hora GMT del domingo, 26 de diciembre de 2004, frente a las costas de la isla de Sumatra. El fortísimo temblor desató una sucesión de maremotos con olas de más de 10 metros, (de las denominadas Tsunamis) de altura y dejó bajo las aguas una superficie de miles de kilómetros en las costas de India, Sri Lanka, Indonesia (el país más afectado), Tailandia, Malasia, Maldivas y Bangladesh.

Nuevas réplicas de 6 grados del seísmo del domingo 26 se produjeron, el día 27 de enero, de 2005, en las islas de Andaman y Nicobar, en el golfo de Bengala.

  • CORRIMIENTO DE LOS SUELOS

Los desprendimientos y los deslizamientos son desplazamientos de masas de material de la corteza terrestre bajo la acción de la fuerza de la gravedad. Estas inestabilidades del terreno pueden ser de grandes dimensiones o involucrar volúmenes menores de materiales. Las inestabilidades del terreno pueden activarse por causas naturales, como las meteorológicas, los terremotos y las erupciones volcánicas, o bien pueden darse como consecuencia de la actividad humana: explotación minera de recursos, apertura de taludes para la construcción de carreteras, deforestación,etc. En muchas ocasiones las causas desencadenantes de las inestabilidades del terreno se deben buscar en una combinación de factores naturales y antrópicos.

Aparte de las inestabilidades gravitatorias propiamente dichas, existen otro tipo de inestabilidades: las subsidencias y los aludes.

  • Subsidencia: es el asentamiento de una zona normalmente llana que experimenta un descenso lento y progresivo del terreno sin que se produzca un movimiento horizontal. Cuando la deformación y el hundimiento son localizados y de dimensiones reducidas hablamos de un asentamiento, y si se da de manera muy rápida, de colapso. Los hundimientos pueden tener causas naturales (presencia de discontinuidades, disolución, oxidación, compactación, desecación, etc.) o por acciones antrópicas (extracción de recursos geológicos, humidificación excesiva de las arcillas, aumento de la carga, etc.). Suelen darse en materiales solubles en agua (calcáreas, yesos y sales) que se disuelven y pierden parte de su volumen (proceso de karstificación).

  • Aludes: se producen cuando una gran masa de nieve acumulada en una pendiente muy acusada se sobrecarga por nevadas posteriores o por cambios de temperatura que provocan unas discontinuidades en la estructura interna de la masa de nieve que generan su hundimiento. Los aludes pueden ser de tres tipos: de nieve reciente, de placa, de fusión.

Los factores condicionantes del corrimiento del suelo son todos aquellos elementos propios del medio, y los desencadenantes, los que provocan variaciones en las condiciones de estabilidad y pueden romper el equilibrio de la masa de terreno.

  • Factores condicionantes .

El tipo de material. Hay determinados tipos de rocas o suelos que tienen mayor o menor resistencia a estar involucrados en movimientos. Algunos ejemplos: la disolución de las rocas a causa de la circulación de agua a través de las grietas puede favorecer su disolución y la creación de vacíos cada vez más grandes que contribuirán a su colapso, ya que la capacidad de la roca para soportar el material que tiene encima va disminuyendo, la presencia de arcillas expansivas, la relación de los tamaños de grano de las partículas (limo-arcilla), la solubilidad de algunas rocas, como los yesos, las sales o las calizas.

Presencia de agua, que favorece el corrimiento de los terrenos saturados de agua. La adición de agua en el terreno puede favorecer su compactación y la formación de subsidencias.

Presencia de discontinuidades estructurales o estratigráficas (fallas, pliegues, diáclasas, planos de estratificación, esquistosidades), favorecen los movimientos traslacionales en algunos casos y, en otros, el asentamiento del terreno a lo largo de líneas de falla, dando lugar a procesos lentos de subsidencia.

Pendiente del terreno. El grado de pendiente, la orientación, la rugosidad y la presencia de vegetación determinarán la estabilidad de una vertiente.

Deslizamiento rotacional, generado en un talud en el que no se han tenido en cuenta los factores que aseguren su estabilidad (altura del talud y cohesión de los materiales).

  • Factores desencadenantes

Meteorológicos. Las lluvias intensas pueden generar movimientos de taludes o de vertientes críticas o inestables. La relación de nieve, temperatura, viento, precipitaciones, radiación y humedad, la formación de aludes.

Seísmos. Pequeños terremotos pueden ser la punta de lanza para que la estabilidad de una vertiente se rompe o para que se de un proceso súbito de subsidencia a lo largo de las líneas de falla.

Deforestación. La ausencia de una capa vegetal deja al terreno desprotegido y expuesto a los agentes erosivos y a la posibilidad de desprenderse.

Excavaciones al pie de vertiente o talud. Se pueden producir por fuerzas naturales, como la acción de las olas en los acantilados, o por causas antrópicas, como la destrucción de los depósitos situados a pie de monte.

Actividad minera. La extracción de recursos geológicos del subsuelo puede comportar la creación de grandes cavidades que generen el colapso de los materiales situados encima.

Explotación de fluidos. La extracción excesiva de fluidos atrapados en la roca (agua, petróleo o gas) puede crear un desequilibrio en la superficie del terreno, ya que estos actúan como un elemento de apoyo del terreno.

Los movimientos del terreno se pueden deber a múltiples causas entre las que podríamos destacar las siguientes:

  • Dinámica litoral. Es el conjunto de cambios, en muchos casos muy activos, que se producen en la zona que comprende la franja costera y que pueden comportar grandes variaciones en la morfología litoral. La principal fuerza que provoca estos cambios es el movimiento de las grandes masas de agua por medio de las olas, las corrientes y las mareas. Otros fenómenos excepcionales que pueden provocar un efecto sobre las zonas costeras son los tsunamis o la variación del nivel del mar (eustatismo). El oleaje es el principal agente que contribuye a que se den el mayor número de zonas en situación de riesgo.

  • Las inundaciones. Se producen por cambios súbitos del nivel del agua superficial, de manera que esta rebasa su confinamiento natural y cubre una porción del suelo que anteriormente no estaba cubierta.

Se trata de un proceso natural que se da en los sistemas fluviales de manera periódica por el deshielo de las nieves, las lluvias intensas o las tempestades costeras, que pueden provocar un aumento del nivel del mar por encima de la llanura costera. Estas causas son a menudo producto de otros procesos naturales, como los huracanes y los ciclones acompañados de fuertes aguaceros, las erupciones volcánicas capaces de fundir las nieves de manera súbita, etc. Aparte de los procesos naturales, la influencia humana es en muchos casos la causa de las inundaciones, y en otros agudiza los efectos.

Las inundaciones constituyen la principal amenaza para la humanidad frente al resto de las amenazas geológicas. Todos los años millones de personas se ven afectadas, y para muchos países devienen el proceso geológico más destructivo.

  • Los terremotos. Son manifestaciones en la superficie de la Tierra, ya sea bajo el mar o en tierra firme, de la liberación de la energía acumulada en algún punto del interior de la corteza terrestre, donde se ha producido un movimiento vibratorio a causa de la fricción de las rocas. Este proceso se da como consecuencia de las actividades volcánica o tectónica.

Los movimientos tectónicos, responsables de los terremotos, tienen lugar principalmente en las zonas de contacto de las placas litosféricas, donde se producen los esfuerzos de distensión-compresión y, por tanto, donde se va acumulando una cierta presión hasta que el punto de equilibrio se rompe. Las placas son rígidas y su movimiento se debe a desplazamientos en la capa inmediatamente más profunda, la astenosfera, que tiene un comportamiento más plástico y sobre la que flota la litosfera.

Los grandes esfuerzos en los márgenes litosféricos producen muchas fracturas, llamadas fallas, a lo largo de las cuales se producen repetidamente movimientos. Cerca del 95% de la energía sísmica total se libera en la superficie del planeta a través de grandes fallas. También se producen muchos seísmos en las zonas de intraplaca, como en el caso del este y el Medio Oeste de Estados Unidos. En estos casos los terremotos están asociados a fallas profundas situadas dentro de la misma placa litosférica.

  • Erupciones volcánicas. El daño que ocasiona una explosión volcánica es similar al causado por derrumbes, con el problema sumado de que la lava, ceniza y escombros que se precipitan por la ladera son extremadamente calientes (más de 700 grados Celsius). La ceniza soplada hacia la atmósfera puede cubrir también grandes áreas a favor del viento lejos del volcán, absorber la luz del día, destruir plantaciones y hacer difícil la respiración. En el caso de una erupción explosiva, puede darse una ola de energía expansiva procedente del volcán y causar daño severo por varios kilómetros alrededor de la explosión.

Similar a la amenaza de un terremoto, la actividad volcánica se riega a través de toda la región y las grandes erupciones pueden dañar considerablemente las áreas circundantes de un volcán. Por lo tanto, es difícil evitar todo el daño potencial de un terremoto durante el proceso de planificación de un sitio. Sin embargo, la posibilidad de daño excesivo se incrementa cuando se está más cercano a un volcán. Hasta donde sea posible, una urbanización debe estar lo más alejada posible a volcanes activos. Los planes de evacuación integrales deben ser preparados para áreas en desarrollo cercanas a volcanes activos. En la actualidad ya existen mapas de lugares donde se localizan volcanes históricamente activos .

  • Hundimientos del terreno. Las áreas con fundamentos de ciertos tipos de rocas a base de calcio (piedra caliza, dolomita, marga y mármol) que también reciben precipitación abundante están sujetas a formar hundimientos. Estas rocas son susceptibles a disolverse al exponerse a la lluvia ácida y al agua freática. Las ranuras naturales en este tipo de rocas se hacen más anchas y se expanden con las corrientes de agua. Comúnmente se hacen cuevas de las rocas. Cuando colapsa el techo de una cueva por el sobrepeso de la roca, se forma un hundimiento y cualquier cosa que haya estado localizada sobre el hueco se viene abajo.

El examinar un mapa geológico de un lecho rocoso puede servir para determinar si un lugar en particular tiene fundamentos de piedra caliza calcárea. Las rocas a base de calcio pueden ser el fundamento de grandes áreas, razón para no construir en esa zona. Sin embargo, vale la pena considerar que los hundimientos son relativamente raros aún en áreas fundamentadas con rocas a base de calcio. Los hundimientos sólo ocurren cuando el agua ha disuelto por completo la roca subyacente convirtiéndola casi en una gran caverna, y es cuando el techo de ésta se vuelve débil y no soporta el material. La guía obvia para investigar un sitio y minimizar el potencial de daño por hundimientos es la de evitar desarrollar urbanizaciones en áreas fundamentadas en piedra caliza, marla, mármol o dolomita cerca de depresiones superficiales y hundimientos conocidos.

  • LAS INUNDACIONES.

Las inundaciones son una de las catástrofes naturales que mayor número de víctimas producen en el mundo. Se ha calculado que en el siglo XX unas 3,2 millones de personas han muerto por este motivo, lo que es más de la mitad de los fallecidos por desastres naturales en el mundo en ese periodo. En España son un grave problema social y económico, sobre todo en la zona mediterránea y en el Norte.

Las grandes lluvias son la causa principal de inundaciones, pero además hay otros factores importantes. A continuación se analizan todos estos factores: 

  • Exceso de precipitación.- Los temporales de lluvias son el origen principal de las avenidas. Cuando el terreno no puede absorber o almacenar todo el agua que cae esta resbala por la superficie (escorrentía) y sube el nivel de los ríos. En España se registran todos los años precipitaciones superiores a 200 mm en un día, en algunas zonas, y se han registrado lluvias muy superiores hasta llegar a los 817 mm el 3 de noviembre de 1987 en Oliva.

  • Fusión de las nieves. En primavera se funden las nieves acumuladas en invierno en las zonas de alta montaña y es cuando los ríos que se alimentan de estas aguas van más crecidos. Si en esa época coinciden fuertes lluvias, lo cual no es infrecuente, se producen inundaciones.

  • Rotura de presas. Cuando se rompe una presa toda el agua almacenada en el embalse es liberada bruscamente y se forman grandes inundaciones muy peligrosas. Casos como el de la presa de Tous que se rompió en España, han sucedido en muchos países.

  • Actividades humanas. Los efectos de las inundaciones se ven agravados por algunas actividades humanas. Así sucede:

A) Al asfaltar cada vez mayores superficies se impermeabiliza el suelo, lo que impide que el agua se absorba por la tierra y facilita el que con gran rapidez las aguas lleguen a los cauces de los ríos a través de desagües y cunetas. 

B) La tala de bosques y los cultivos que desnudan al suelo de su cobertura vegetal facilitan la erosión, con lo que llegan a los ríos grandes cantidades de materiales en suspensión que agravan los efectos de la inundación.

C) Las canalizaciones solucionan los problemas de inundación en algunos tramos del río pero los agravan en otros a los que el agua llega mucho más rápidamente.

D)La ocupación de los cauces por construcciones reduce la sección útil para evacuar el agua y reduce la capacidad de la llanura de inundación del río. La consecuencia es que las aguas suben a un nivel más alto y que llega mayor cantidad de agua a los siguientes tramos del río, porque no ha podido ser embalsada por la llanura de inundación, provocando mayores desbordamientos. Por otra parte el riesgo de perder la vida y de daños personales es muy alto en las personas que viven en esos lugares.

En 1996, se produjo una de las inundaciones más recordadas por los daños que causó en Florencia (Italia). Debido a lluvias torrenciales el río Arno, que la atraviesa, aumentó su caudal y su velocidad (alrededor de 130 km/h), salió de su cauce e inundó gran parte de Florencia. En esta inundación no sólo hubo que lamentar las personas que quedaron sin techo y otros daños económicos, sino también las pérdidas que sufrió la cultura, pues las aguas y el barro entraron a los museos y dañaron más de un millón de cuadros y otros objetos de arte.

En julio de 2004, las inundaciones en el sur de Asia provocaron más de 900 muertos y decenas de miles de damnificados, y la situación fue peor en Bangladesh, cuya capital, Dacca, estaba parcialmente anegada y donde más de 3.500 equipos médicos han sido desplegados en el país para luchar contra las enfermedades como la diarrea, provocadas por la utilización de aguas estancadas.

Estas inundaciones provocadas por el monzón y el derretimiento de la nieve del Himalaya son un fenómeno anual, pero en esta ocasión han sido particularmente graves. Unas 12 millones de personas en India y 30 millones en Bangladesh se encontraron aisladas o siniestradas y en un mes y medio el total de muertos alcanza los 535 en India y 285 en Bangladesh, según las autoridades.

Mientras el nivel del agua bajaba en el noreste de India, la mitad de los 90 barrios de Dacca estaban parcial o totalmente inundados y unas 125.000 personas se habían refugiado en centros de acogida, según las autoridades municipales.

  • TORNADOS, TIFONES O HURACANES.

Cuando la atmósfera por determinadas causas va acumulando energía, por lo general en forma de calor y humedad, en algún momento tiene que liberarla. En algunos casos esa energía supera con holgura a la potencia de una o varias bombas atómicas y son estos gigantescos sistemas meteorológicos, con sus consecuencias, los encargados de liberar esa energía. A continuación vamos a ver qué los diferencia y qué los hace parecidos.

Los tres términos se relacionan con procesos atmosféricos sumamente peligrosos y destructivos. La diferencia radica entre el primero y los otros dos. En el caso de los tornados hablamos de una estrecha columna de aire que se desprende de la base de las nubes más desarrolladas de tormentas eléctricas, hasta tocar el suelo, ya sea en tierra o sobre el mar, caso que se conoce como tromba marina. El contacto con la superficie lo hace rotando muy violentamente en torno a un mínimo de presión atmosférica. Es un fenómeno muy destructivo pese a su corta vida, que no supera unos pocos minutos, y tiene un diámetro que, en el caso de los más destructivos no alcanza al centenar de metros. Cabe destacar que su violencia queda reflejada por los daños que provoca y se calcula que en el de mayor categoría, F 5, el viento alcanza casi 500 kph. y está asociado a la presencia de tormentas muy severas.

El tornado es un fenómeno meteorológico que se produce a raíz de una rotación de aire de gran intensidad y de poca extensión horizontal, que se prolonga desde la base de una nube madre, conocida como Cumulunimbus. La base de esta nube se encuentra a altitudes por debajo de los 2 Km y se caracteriza por su gran desarrollo vertical, en donde su tope alcanza aproximadamente los 10 Km de altura hasta la superficie de la tierra o cerca de ella.

La nube es de color blanco o gris claro mientras que el embudo permanece suspendido de la nube madre, cuando éste hace contacto con la tierra se presenta de un color gris oscuro o negro debido al polvo y escombros que son succionados del suelo por el violento remolino.

Estos torbellinos llamados también chimeneas o mangas, generalmente rotan en sentido contrario a las manecillas del reloj, en el hemisferio Norte. En algunas ocasiones se presentan como un cilindro, cuyo diámetro varía entre la base de la nube y la superficie del suelo y su diámetro inferior es aproximadamente de 1 Km alcanzando algunas veces los 100 metros.

Para medir la intensidad de los tornados se emplea, desde el año 2007, la denominada escala de Fujita mejorada, que iría desde la intensidad F-0, tornado muy débil a F-5, tornado increíble.

INTENSIDAD

MPH

KM/H

EF-0

65-85

105-137

EF-1

86-109

138-175

EF-2

110-137

176-220

EF-3

138-167

221-269

EF-4

168-199

270-320

EF-5

200-234

321-600

El 2 de marzo de 2007,un sistema de fuertes tornados ha causado estragos en varios estados del centro y sureste de Estados Unidos, donde provocó al menos 17 muertos, además de importantes daños materiales. Según la CNN, las tormentas causaron la muerte de nueve personas en Georgia, siete en Alabama y uno en Misuri. Asegura que el tornado que afectó al sureste de Alabama causó daños en una escuela de Secundaria, donde mató a cinco de las siete víctimas mortales. Otras dos de las víctimas mortales se produjeron en un hospital de la ciudad de Americus, en Georgia, dañado por los fuertes vientos. Las autoridades suspendieron de manera anticipada las actividades en muchas escuelas de Alabama tras ver la enorme nube negra que les cubría y que abarcaba prácticamente toda la extensión del estado.

A los otros dos vocablos sí, se los puede tomar como sinónimos ya que se trata del mismo proceso atmosférico que según su lugar de origen lleva el nombre que le han dado los pobladores originarios. Huracán en el Caribe, tifón en el caso de Asia. En este caso se trata de sistemas meteorológicos que nacen a partir de un pequeño núcleo de tormentas convectivas generadas sobre los océanos y que luego se desplazan desde el Este hacia el Oeste, siguiendo la dirección de los vientos Alisios en las proximidades al Ecuador. En la medida en que se produce este desplazamiento la nubosidad va ganando un gran desarrollo, hasta que llegando a las aguas de las grandes Antillas se separan del Ecuador, empiezan a adquirir esa típica configuración espiralada, encontrando a su paso aguas más cálidas como ocurre sobre el Golfo de México, se produce la máxima concentración de energía producto de la evaporación del agua de mar y es en este caso cuando estos sistemas alcanzan su máxima potencia. A diferencia de los tornados, su diámetro puede alcanzar centenares o miles de kilómetros, su duración puede alcanzar semanas y la velocidad de sus vientos asociados llegar desde los 120 hasta los 250 kph aproximadamente.

Un huracán o tifón, en esencia, funciona como una máquina de vapor, se forma y se alimenta sólo en los mares cálidos y necesita que varias condiciones se den en el lugar y momento preciso, por ejemplo: agua caliente a por lo menos 27ºC, aire húmedo y una perturbación que haga girar a los vientos.

El aire caliente, más ligero, se eleva, aspirando la humedad del mar y creando nubes. En su camino ese aire caliente se enfría rápidamente y libera energía que, a su vez, calienta más aire a su alrededor y los vientos remontan en altura y dan a las nubes un movimiento en espiral. La presencia de una perturbación, como vientos convergentes de distintas direcciones, succiona más aire caliente de la superficie y los vientos comienzan entonces a girar y la maquinaria del ciclón está en marcha. Ya tiene, más o menos, un movimiento giratorio, aunque bastante desorganizado. Si los vientos ascienden o descienden muy rápido el sistema no podrá organizarse, tal como suele ocurrir en el Atlántico Sur. Un ciclón se llama "depresión tropical" hasta que sus vientos máximos sostenidos (durante un minuto) lleguen a 62 Km/h; luego se convierte en "tormenta tropical" hasta que sus vientos lleguen a 119 Km/h, y en "huracán" de ahí en adelante.

Partes: 1, 2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12
 Página anterior Volver al principio del trabajoPágina siguiente