Descargar

Red interplanetaria Interplanet (IPN) (página 2)


Partes: 1, 2

Según todo esto la posibilidad de que la ciencia ficción toque a nuestros hogares, está a la vuelta de la esquina la IPN es el camino a que la primera red con el planeta rojo se haga realidad o que el láser de transmisión de señales a alta velocidad se ponga en uso así como varias antenas de comunicación sean instaladas en planetas, satélites y asteroides y con esto estar en contacto permanente con la tierra, el resultado de tecnología y ciencia ficción al servicio de los seres humanos y de soñadores que como nosotros lo pueden hacer realidad.

    1. Una red de ordenadores es un conjunto de equipos que pueden almacenar y procesar datos electrónicos, interconectados de forma que sus usuarios pueden almacenar, recuperar y compartir información con los demás. Las máquinas conectadas pueden ser, microordenadores, miniordenadores, grandes ordenadores, terminales, impresoras, dispositivos de almacenamiento, cámaras, entre otros.

      En una red de ordenadores se puede almacenar cualquier información, incluyendo textos, imágenes, mensajes de voz e imágenes visuales como por ejemplo fotos y vídeos.

    2. Redes de computadoras

      El Protocolo de red o también Protocolo de Comunicación es el conjunto de reglas que especifican el intercambio de datos u órdenes durante la comunicación entre las entidades que forman parte de una red.

    3. Protocolo de Redes

      Internet es un método de interconexión descentralizada de redes de computadoras implementado en un conjunto de protocolos denominado TCP/IP y garantiza que redes físicas heterogéneas funcionen como una red lógica única, de alcance mundial. Sus orígenes se remontan a 1969, cuando se estableció la primera conexión de computadoras, conocida como ARPANET, entre tres universidades en California y una en Utah, EE. UU.

      Al contrario de lo que se piensa comúnmente, Internet no es sinónimo de World Wide Web (WWW, o "la Web"). Ésta es parte de Internet, siendo uno de los muchos servicios ofertados en la red Internet. La Web es un sistema de información mucho más reciente, desarrollado inicialmente por Tim Berners Lee en 1989. El WWW utiliza Internet como medio de transmisión.

      Algunos de los servicios disponibles en Internet, aparte de la Web, su versión evolucionada Web 2.0 y los sistemas operativos web (WebOS, EyeOS), son el acceso remoto a otras máquinas (SSH y telnet), la transferencia de archivos (FTP), el correo electrónico (SMTP y POP), los boletines electrónicos (news o grupos de noticias), las conversaciones en línea (IRC y chats), la mensajería instantánea, la compartición de archivos (P2P, P2M, Descarga Directa), la radio a la carta (Podcast), el visionado de video a la carta (P2PTV, Miro, Joost, Videocast) y los juegos en línea.

    4. Internet
    5. Internet: un poco de historia.
  1. MARCO TEÓRICO

La historia de Internet comienza realmente en el año 1962. Las pocas computadoras de esa época tenían memorias de núcleos magnéticos con capacidad para almacenar unos pocos miles de caracteres. Los programadores, sin embargo las componían para hacer rendir con enorme ingenio a esos pocos caracteres, por ejemplo, procesando modelos de simulación y de programación lineal en una computadora tal como la IBM 1401 que fue pensada para ser simplemente una impresora y que justamente se caracterizaba por tener originalmente 1400 posiciones de memoria.  El mundo de las comunicaciones estaba en ese entonces en manos de IT&T. Existía en esa época un proyecto estratégico del DOD, Department of Defense, Departamento de Defensa de los Estados Unidos denominado ARPA por Advanced Research Projects Agency, Agencia para Proyectos de Investigación Avanzada. Clasificado a su vez como proyecto de alto riesgo y de incalculables beneficios, sienta las bases de la red ARPA o ARPANET, la cual mucho más tarde se convertiría en Internet.

En 1992, 30 años más tarde: 

  • Internet tenía un millón de computadoras conectadas.
  • ARPANET ya no existía.
  • Los computadores eran más rápidos en nueve órdenes de magnitud-
  • Los anchos de banda eran 20 millones más grandes.
      1. El Programa espacial soviético lanzó el primer satélite artificial del mundo (Sputnik 1) el 4 de octubre de 1957. El Congreso de los Estados Unidos lo percibió como una amenaza a la seguridad y el Presidente Eisenhower y sus consejeros, tras varios meses de debate, tomaron el acuerdo de fundar una nueva agencia federal que dirigiera toda la actividad espacial no militar.

        El 29 de julio de 1958 Eisenhower firmó el Acta que funda la NASA (Administración Nacional de Aeronáutica y del Espacio, en inglés: National Aeronautics and Space Administration) la cual empezó a funcionar el 1 de octubre de 1958 con cuatro laboratorios y unos 8.000 empleados.

        La intención de los primeros programas era poner una nave tripulada en órbita y ello se realizó bajo la presión de la competencia entre los EE.UU. y la URSS en la denominada Carrera espacial que se produjo durante la Guerra Fría.

        El 25 de mayo de 1961 el Presidente John F. Kennedy anunció que Estados Unidos debía comprometerse a "aterrizar a un hombre en la Luna y devolverlo sano y salvo a la Tierra antes del final de la década", para lo cual se creó el Programa Apollo. El Programa Gemini fue concebido para probar las técnicas necesarias para el Programa Apollo, cuyas misiones eran mucho más complejas.

        Comenzó con el Gemini 3 el 21 de marzo de 1965 y acabó con el Gemini 12 el 11 de noviembre de 1966. Edward White, quien posteriormente murió en el accidente del Apollo 1, hizo con el Gemini 4 el 3 de junio de 1965 la primera caminata espacial de un estadounidense. El 15 de diciembre de 1965 los Gemini 6 y 7, tripulados por dos astronautas cada uno, hicieron su primera cita espacial aproximando las naves hasta 1,8 m. El vuelo del Gemini 7 tuvo una duración de dos semanas, tiempo que se estimó necesario para las misiones Apollo. El 16 de marzo de 1966 la nave Gemini 8 tripulada por David Scott y Neil Armstrong, que luego sería el primer hombre en pisar la Luna, atracaron su nave al cohete Agena 8 preparando la maniobra de atraque entre el módulo lunar y la nave Apollo.

        Durante los ocho años de misiones preliminares la NASA tuvo la primera pérdida de astronautas. El Apolo 1 se incendió en la rampa de lanzamiento durante un ensayo y sus tres astronautas murieron. El Programa Apolo logró su meta con el Apolo 11 que aterrizó con Neil Armstrong y Edwin E. Aldrin en la superficie de la Luna el 20 de julio de 1969 y los devolvió a la Tierra el 24 de julio. Las primeras palabras de Armstrong al poner el pie sobre la Luna fueron: «Éste es un pequeño paso para un hombre, pero un gran salto para la humanidad».

        Diez hombres más formarían la lista de astronautas en pisar la Luna cuando finalizó el programa anticipadamente con el Apolo 17, en diciembre de 1972, cuyo resultado fue además de la recogida de muestras de regolito, la instalación de equipos de estudio superficiales ALSEP que aún continúan enviando información.

        La NASA había ganado la carrera espacial y, en algún sentido, esto la dejó sin objetivos al disminuir la atención pública capaz de garantizar los grandes presupuestos del Congreso. Ni la casi trágica misión del Apolo 13, donde la explosión de un tanque de oxígeno casi costó la vida a los tres astronautas y les obligó a renunciar a pisar la Luna, pudo volver a atraer la atención. Las misiones posteriores al Apolo 17 (estaban planificadas varias misiones más, hasta el Apolo 20) fueron suspendidas. Los recortes del presupuesto, debidos en parte a la Guerra de Vietnam, provocaron el fin del programa. Los tres Saturno V no utilizados se usaron para el desarrollo del primer laboratorio estadounidense en órbita, el Skylab, y las ideas fueron en la línea de desarrollar un vehículo espacial reutilizable como el transbordador espacial. Poco conocido es el proyecto AAP (Apollo Applications Program), que debía ser el sustituto de las misiones Apolo, o el LASS, destinado a establecer una base habitada en la superficie del satélite.

        Aunque la inmensa mayoría del presupuesto de NASA se ha gastado en los vuelos tripulados, ha habido muchas misiones no tripuladas promovidas por la agencia espacial.

        En 1962 el Mariner 2 fue la primera nave espacial en hacer un sobrevuelo cercano a otro planeta, en este caso Venus. Los programas Ranger, Surveyor y Lunar Orbiter eran esenciales para evaluar las condiciones lunares antes de intentar el vuelo tripulado del programa Apolo. Posteriormente, las dos sondas Viking que aterrizaron en la superficie de Marte enviaron a la Tierra las primeras imágenes de la superficie del planeta. Quizá las misiones no tripuladas más impresionantes fueron los programas Pioneer 10, Pioneer 11, Voyager 1 y Voyager 2, misiones que visitaron Júpiter, Saturno, Urano y Neptuno y enviaron impresionantes imágenes en color de todos ellos y la mayoría de sus satélites.

        El Transbordador espacial se convirtió en el programa espacial favorito de la NASA a finales de los años setenta y los años ochenta. Planeado tanto los dos cohetes lanzadores y el transbordador como reutilizables, se construyeron cuatro transbordadores. El primero en ser lanzado fue el Columbia el 12 de abril de 1981.

        Pero los vuelos del transbordador eran mucho más costosos de lo que inicialmente estaba proyectado y, después que el desastre del Transbordador Espacial Challenger en 1986 resaltó los riesgos de los vuelos espaciales, el público recuperó el interés perdido en las misiones espaciales.

        No obstante, el transbordador se ha usado para poner en órbita proyectos de mucha importancia como el Telescopio Espacial Hubble (HST). El HST se creó con un presupuesto relativamente pequeño de 2.000 millones de dólares, pero ha continuado funcionando desde 1990 y ha maravillado a los científicos y al público. Algunas de las imágenes han sido legendarias, como las imágenes del denominado Campo Profundo del Hubble. El HST es un proyecto conjunto entre la ESA y la NASA, y su éxito ha ayudado en la mayor colaboración entre las agencias.

        En 1995 la cooperación ruso-estadounidense se lograría de nuevo cuando comenzaron las misiones de acoplamiento entre el Transbordador y la estación espacial Mir, (en ese momento la única estación espacial completa). Esta cooperación continúa al día de hoy entre Rusia y Estados Unidos, los dos socios más importantes en la construcción de la ISS. La fuerza de su cooperación en este proyecto fue más evidente cuando la NASA empezó confiando en los vehículos de lanzamiento rusos para mantener la ISS tras el desastre en 2003 del Columbia que mantendrá en tierra la flota de los transbordadores durante más de un año.

        Costando más de cien mil millones de dólares, ha sido a veces difícil para la NASA justificar el proyecto ISS. La población estadounidense ha sido históricamente difícil de impresionar con los detalles de experimentos científicos en el espacio. Además, no puede acomodar a tantos científicos como había sido planeado, sobre todo desde que el transbordador espacial está fuera de uso, hasta marzo de 2005, deteniendo la construcción de la ISS y limitando su tripulación a una de mantenimiento de dos personas.

        Durante la mayoría de los años 1990 la NASA se enfrentó con una reducción de los presupuestos anuales por parte del Congreso. Para responder a este reto, el noveno administrador de la NASA, Daniel S. Goldin, inventó misiones baratas bajo el lema más rápido, más bueno, más barato que le permitió a la NASA que recortara los costos mientras se emprendían una ancha variedad de programas aerospaciales. Ese método fue criticado y llevó en 1999 a las pérdidas de las naves gemelas Climate Orbiter y Mars Polar Lander de la exploración de Marte.

        Probablemente la misión con más éxito entre el público en los últimos años (1997) ha sido la de la sonda Mars Pathfinder. Los periódicos de todo el mundo llevaron las imágenes del robot Sojourner, desplazándose y explorando la superficie de Marte. Desde 1997 la Mars Global Surveyor ha orbitado Marte con un éxito científico innegable. Desde 2001 el orbitador Mars Odyssey ha estado buscando evidencia de agua en el planeta rojo, en el pasado o en el presente, así como pruebas de actividad volcánica.

        En 2004 una misión científicamente más ambiciosa llevó a dos robots, Spirit y Opportunity, a analizar las rocas en busca de agua, por lo que aterrizaron en dos zonas de Marte diametralmente opuestas y parece que encontraron vestigios de un antiguo mar o lago salado.

        El 14 de enero de 2004, diez días después del aterrizaje de Spirit, el Presidente George W. Bush anunció el futuro de la exploración espacial. La humanidad volverá a la Luna en 2020 como paso previo a un viaje tripulado a Marte.

        El Transbordador espacial se retirará en 2010 y será reemplazado en 2014 por el Crew Exploration Vehicle, capaz de atracar en la ISS y dejar la órbita de la Tierra. El futuro del ISS es algo incierto, tras la explosión del Columbia el 1 de febrero de 2003, y el patrón de los vuelos del Transbordador. La construcción se completará, pero el futuro de las próximas misiones es incierto.

      2. La exploración espacial y los programas de la NASA

        La NASA planea establecer algo que se le llama "El Internet Interplanetario" con el lanzamiento del Orbitador de Telecomunicaciones de Marte (OTM) en el año 2009. El dispositivo espacial tendrá previsto llegar a la órbita sobre Marte en el 2010 y será usado para enviar paquetes de datos a la Tierra desde dispositivos sobre la superficie de Marte y de otros que se encuentren orbitándolo, por un período de más de 10 años y con una extremadamente alta tasa de transferencia. Se ha pensado en este satélite de comunicaciones dedicado debido a la vasta cantidad de información científica que deberá ser enviada a la Tierra tal como la del Laboratorio de Ciencia de Marte en la superficie del planeta. Sin embargo, el 21 de julio del 2005, se anunció que el OTM fue cancelada debido a la necesidad de apoyar otros objetivos a corto plazo, incluyendo, una misión de mantenimiento del Hubble, operaciones de la misión extendida de los vehículos de exploración espacial de Marte, asegurando que el Laboratorio de Ciencia de Marte pueda volar en el 2009, y para salvar de la cancelación a una misión de ciencia de la Tierra, llamada Glory.

      3. Orbitador de Telecomunicaciones de Marte
      4. Vinton "Vint" G. Cerf.
    1. Antecedentes
  1. MARCO REFERENCIAL

Mejor conocido como Vinton Cerf, es un científico de la computación estadounidense, considerado como uno de los 'padres' de la Internet. Nacido en Connecticut (Estados Unidos) en 1943, se graduó en Matemáticas y Ciencias de la Computación en la universidad de Stanford (1965). Durante su estancia posterior en la Universidad de California (UCLA) obtuvo el Máster en Ciencia y el Doctorado.

A principios de los años 70 comenzó a trabajar con Robert Kahn en el desarrollo de un conjunto de protocolos de comunicaciones para la red militar ARPANET financiado por la agencia gubernamental DARPA. El objetivo era crear una "red de redes" que permitiera interconectar las distintas redes del Departamento de Defensa norteamericano, todas ellas de diferente tipo y funcionando sobre diferentes sistemas operativos, con independencia del tipo de conexión: radioenlaces, satélites y líneas telefónicas.

Las investigaciones, lideradas por Vinton Cerf, primero desde la Universidad de California (1967-1972) y posteriormente desde la Universidad de Stanford (1972-1976), llevaron al diseño del conjunto de protocolos que hoy son conocidos como TCP/IP (Transmission Control Protocol/Internet Protocol), que fue presentado por Vinton Cerf y Robert Kahn en 1972).

Entre 1976 y 1982, trabajando en DARPA, fue pionero en el desarrollo de la transmisión por radio y satélite de paquetes, responsable del proyecto Internet y del programa de investigación de seguridad en la red. Siempre preocupado por los problemas de conexión de redes, Cerf estableció en 1979 la Internet Configurarion Control Board (que posteriormente se denominó Internet Activities Board) y fue su primer presidente.

Entre 1982 y 1986, Cerf diseñó el MCI MAIL, primer servicio comercial de correo electrónico que se conectaría a Internet.

En 1992 fue uno de los fundadores de la Internet Society y su primer presidente.

Actualmente Vinton Cerf es el Chief Internet Evangelist de Google, ocupación que compagina con el cargo de presidente del ICANN, también es miembro del Comité de Asesoramiento de Sistemas de Datos Espaciales.

Lideró el inicio del "Internet Interplanetario" con Dr. Adrian Hooke en el Laboratorio de Propulsión a Chorro (JPL, en inglés) de la NASA con el cual aún siguen sus investigaciones.

  1. En la actualidad la Internet actual está formada por una estructura mayoritariamente cableada a pesar de que cada vez más se hace uso de tecnologías inalámbricas. Aún así, hoy en día, está basada in infraestructuras cableadas. La razón de predominancia de este tipo de estructuras ha sido ha sido el número de ventajas que ofrecen sobre las inalámbricas.

    Estas redes son capaces de proporcionarnos enlaces punto a punto mediante conexiones que producen poca latencia en transferencia de mensajes en comparación con las comunicaciones inalámbricas a grandes distancias, así como hasta ahora, seguridad y fiabilidad.

  2. Internet Terrestre
  3. Internet "más allá"

Si se quiere llevar Internet más allá de las "fronteras" establecidas actualmente, deberemos ser capaces de adaptar los medios actuales para llevar a cabo esa expansión. Para ella, debemos analizar el tipo de dispositivos que se van a utilizar, sus características y el medio en el que van a situar.

Obviamente estamos hablando de comunicaciones inalámbricas entre nodos que pueden estar o no disponibles en un determinado intervalo de tiempo y que a su vez van a estar muy distanciados entre sí. Además estos nodos van a tener una alimentación de energía limitada y es una de las limitaciones que más van a restringir el diseño de los sistemas de comunicación.

Las limitaciones que nos vamos a encontrar ante la naturaleza de estas comunicaciones serán, por lo tanto: retrasos en la comunicación entre dos puntos, una mayor tasa de errores a las que estamos acostumbrados, conectividad punto a punto debido a que las partes no siempre van a estar disponibles, tasas de envío asimétricas, y la adaptación de mecanismos de calidad de servicio, fiabilidad, direccionamiento.

Por lo tanto, igual que necesitamos agentes que sirvan de enlace para unir redes incompatibles aquí en las redes que conocemos, también necesitaremos agentes capaces de unir las redes actuales con una red interplanetaria.

  1. EL INTERNET INTERPLANETARIO (IPN)

En 1998, la agencia de Investigación de proyectos avanzados del ministerio de defensa de los Estados Unidos, DARPA (US Defense Advanced Research Projects Agency), dentro de su plan para la siguiente generación de Internet, fundó un grupo de investigación en la NASA con el objetivo de estudiar los aspectos técnicos para formar una Internet interplanetaria.

La idea de este grupo era usar las técnicas que ya se habían desarrollado en la Internet actual para crear estándares que pudiesen ser utilizados por las distintas agencias para una comunicación interplanetaria. Sus objetivos fueron los siguientes:

  1. Usar protocolos actualmente usados en Internet o para formar distintos tipo de redes para poder crear redes en entornos con pocos retardos de transmisión y con relativamente poco ruido.
  2. Crear "backbones" en el espacio capaz de comunicar en muy largas distancias con el objetivo de interconectar las redes mencionadas anteriormente.
  3. La Internet resultante sería por lo tanto una red de Internets. En esta nueva Internet Interplanetaria se haría uso de un nuevo protocolo, el protocolo de mensaje ("bundling") capaz de "unir" estas redes de naturaleza heterogénea entre sí.

La IPN Trata un conjunto de nodos flotantes en el espacio que se pueden comunicar unos con otros. Pero, a causa de los retrasos de la velocidad de la luz en distancias interplanetarias, aproximadamente de 20 segundos, el IPN necesita un nuevo conjunto de protocolos y tecnología que san tolerantes a grandes retrasos. Por otro lado, el Internet como lo conocemos hoy día, tiende a ser una "red de redes" muy ocupada y con tráfico alto, con demoras y errores insignificantes y además posee un Backbone alámbrico, el Internet Interplanetario es una red "almacenamiento-y-reenvío" de Internets que a menudo se desconecta, con un "backbone inalámbrico" cargado de conexiones propensas a error, y demoras con rangos de retrasos que van desde decenas de minutos, incluso horas, aún cuando hay una conexión.

Viendo las comunicaciones de espacio desde la perspectiva histórica, ha habido una evolución constante de una costosa arquitectura punto a punto única en su tipo, a la tecnología reutilizable en misiones sucesivas, al desarrollo de protocolos uniformes acordados por las agencias del Espacio de muchos países. Esta última fase se ejecuta desde que 1982 por los esfuerzos de El Comité Consultivo para Sistemas de Datos de Espacio (CCSDS), un cuerpo compuesto por la mayoría de agencias del espacio del mundo. Este cuenta con diez agencias miembro, veintidós agencias observadoras, y más de 100 socios industriales.

La evolución de estándares de sistema de datos del espacio ha ido en paralelo con la evolución del Internet, con polinización cruzada conceptual donde es fructífero, pero a un grado grande, como una evolución separada. Desde que el final de la década de los noventa, los protocoles familiares de Internet y los protocolos CCSDS de vínculo espacial se han integrado y han convergido en varias maneras, por ejemplo, la transferencia exitosa de archivos del FTP al Orbitador de la Tierra STRV-1b el 2 de enero de 1996. El uso del Protocolo de Internet sin CCSDS ha sido demostrado también en naves espaciales, por ejemplo el satélite UoSAT-12 y la Constelación de Monitoreo de Desastres. Habiendo alcanzado la era donde la IP a bordo de una nave espacial, y IP o las Especificaciones de Protocolo de comunicaciones de Espacios similares a IP (SCPS) para saltos cortos, ha mostrado ser factible, un estudio de estimaciones futuras de la idea global fue la siguiente fase.

El estudio de Internet Interplanetario en el Laboratorio de Propulsión a Chorro de la NASA (JPL, en inglés) fue empezado por un equipo de científicos dirigido por Vinton Cerf y Adrian Hooke. El Dr. Cerf es uno de los pioneros del Internet en la Tierra, y tiene actualmente la posición de científico visitante distinguido en el JPL. El Señor. Hooke es uno de los directores del CCSDS.

Mientras que los protocolos SCPS similares al IP son factibles para saltos cortos, tal como una estación en la superficie a un orbitador, un explorador a un aterrizador, un aterrizador a un orbitador, una sonda, etcétera. Una red tolerante a retrasos (DTN, Delay Tolerant Network), que es prácticamente donde esta recargada la esencia del proyecto, es necesitada para conseguir información de una región del sistema solar a otra. Se hace manifiesto que el concepto de una "región" es una factorización arquitectónica natural del Internet Interplanetario.

Una "región" es un área donde las características de comunicación son la misma. Las características de una región incluyen comunicaciones, seguridad, conservación de recursos, quizás propiedad, y otros factores. El Internet Interplanetario es una "red de internet regionales".

Lo que se necesitada entonces, es una manera estándar para lograr comunicación punto a punto por múltiples regiones en un ambiente desconectado, de variable demoras que utilice una serie generalizada de protocolos. Ejemplos de regiones pueden incluir el Internet terrestre como una región, una región en la superficie de la luna o Marte, o una región superficie a órbita.

El reconocimiento de este requisito llevó al concepto de un "paquete" como una manera de alto nivel para dirigir el generalizado problema almacenamiento-y-reenvío. Los paquetes son un área de nuevo desarrollo de protocolo en las capas superiores del modelo de OSI, encima de la Capa de Transporte con la meta de dirigir el asunto de empaquetar la información de almacenamiento-y-reenvío para que pueda atravesar con seguridad los ambientes radicalmente diferentes que constituyen "la red de internet regionales".

La capa de servicio de empaquetado, implementado como la suite de protocolo de Empaquetamiento, proporcionará los servicios de protocolo tolerante a demoras de propósito general como soporte a una gama de aplicaciones: transferencia de custodia, segmentación y re-ensamblaje, aseguramiento de punto a punto, seguridad de punto a punto, y enrutamiento de punta a punta entre ellos.

Un ejemplo de una de esas aplicaciones punto-a-punto volando en una misión espacial es CFDP, utilizado en la misión de cometa, Impacto Profundo. CFDP es el protocolo de Entrega de Archivo de CCSDS un estándar internacional para la transferencia automática y segura de archivo en ambas direcciones. CFDP no debe ser confundido con el Protocolo de Distribución Coherente de Archivo, que tiene desafortunadamente las mismas siglas y es un protocolo experimental IETF-Documentado para entrega rápida de archivos a múltiples objetivos en un ambiente de red alto.

Además de copiar con seguridad un archivo de una entidad (i. E. una nave espacial o una estación en la superficie) a otra entidad, el CCSDS CFDP tiene la capacidad de transmitir con confiabilidad, pequeños mensajes arbitrarios definidos por el usuario, en los metadatos que acompañan el archivo, y también la transmisión segura de comandos relacionados a la administración de archivos de sistema que serán ejecutados automáticamente en la entidad remota de punto final (i. E., una nave espacial) luego de la recepción exitosa de un archivo.

El grupo inactivo de intereses especiales del Internet Interplanetario de la Sociedad de Internet ha trabajado en definir protocolos y estándares que harían el IPN posible. El grupo de Investigación de la red tolerante a demoras (DTNRG) es el investigador primario la cual tiene varias arenas mayores de aplicación además del Internet Interplanetario, incluyendo comunicaciones tácticas enfatizadas, redes de sensores, recuperación de desastres, ambientes hostiles, y puestos avanzados remotos. Como un ejemplo de puestos avanzados remotos imagínese una aldea ártica aislada o una isla lejana, con electricidad, y una o más computadoras pero ninguna conectividad de comunicación. Con la adición de un punto inalámbrico sencillo en la aldea, más dispositivos DTN-Habilitados, digamos, trineos de perro o barcos pesqueros, un residente podría verificar su correo electrónico o hacer clic en un artículo de Wikipedia, y tener sus pedidos enviados a la ubicación con red más cercana y en la visita del próximo trineo o barco, obtener sus pedidos.

Hasta el 2005, la NASA ha cancelado los planes para lanzar el Orbitador de Telecomunicaciones de Marte en septiembre 2009; con la meta de dar soporte a misiones futuras secundarias a Marte y podrían funcionar como un primer concentrador definitivo posible de Internet alrededor de otro cuerpo planetario.

  1. El objetivo del proyecto Interplanetario del Internet es de definir la arquitectura y hacer un protocolo necesario para permitir interoperación del residente del Internet en la Tierra con otro residente remotamente localizado de internet en otros planetas o la nave espacial en tránsito. Mientras el Internet de la Tierra es básicamente una "la red de redes conectadas", el Internet Interplanetario puede por lo tanto ser pensado como una "red de Internet desconectados". Trabajar en este ambiente requerirá nuevas técnicas para ser desarrolladas.

    Muchos elementos de la serie terrestre actual del Internet de protocolos son esperados ser útil en ambientes de espacio de bajo-demora, las operaciones tal como locales en y alrededor de otros planetas o dentro de volar libre vehículos espaciales. Sin embargo, las demoras de la velocidad de la luz, conectividad, y característica de error-valora intermitente y unidireccional de comunicación de espacio interplanetario hacen su uso irrealizable a través de distancias de espacio interplanetario.

    Es anticipado también que la arquitectura y protocolos desarrollados por este proyecto serán útiles en muchos ambientes terrestres en los que una dependencia en el tiempo real comunicación recíproca es o irrealizable o desaconsejable.

    El IPNSIG (Interplanet Special Interest Group) existe para permitir la participación pública en la evolución del Internet Interplanetario. La investigación técnica en cómo el Internet de la Tierra puede ser extendido en el espacio interplanetario ha estado en camino durante varios años como parte de un cuerpo internacional de la estandarización de comunicaciones conocido como el Comité Consultivo para Sistemas de Datos de Espacio (CCSDS).

    El comité del IPNSIG es formado por: Stephen Farrell, Leigh Torgerson, Scott Burleigh, Eric Travis and Bob Durst, Vint Cerf, Adrian Hooke, entre otros.

    La organización de CCSDS es concernida principalmente con la estandarización de comunicaciones para satélites científicos, con un foco primario en las necesidades de misiones de cerca de-término. Para extender este horizonte fuera varias décadas, y para comenzar a implicar la investigación terrestre del Internet y la ingeniería las comunidades, un Estudio Interplanetario especial del Internet fue propuesto y fue financiado subsiguientemente en los Estados Unidos.

    El Estudio Interplanetario del Internet es financiado por DARPA (La Agencia de Investigación de Proyectos Avanzados de Defensa), y actualmente consiste en un equipo del centro de investigadores del Laboratorio de Propulsión por Reacción de la NASA, la Corporación de MITRA, ESPARTA, la Ciencia Global & la Tecnología e investigadores consultores del USC/ISI, UCLA y CalTech. La meta primaria del estudio es de investigar protocolos cuán terrestres de internet y las técnicas pueden ser extendidas y/o utilizado a como-yo en la exploración de espacio interplanetario. El equipo del estudio tiene también fundado el IPNSIG y ha formado el centro de un IPNRG bajo el patrocinio del grupo de trabajo de Investigación de Internet.

    La meta primaria del equipo del Estudio de NASA IPN será de actuar como el enlace entre las comunidades de satélite y espacio y las comunidades de ISOC/IRTF. El equipo del Estudio de NASA IPN ayudará con requisitos y ayuda con la comprensión del ambiente de espacio interplanetario y misiones, mientras la investigación primaria en protocolos nuevos o modificados será realizada por el IRTF. Además, el Equipo del Estudio de NASA actuará como también el enlace con el Comité Consultivo para Sistemas de Datos de Espacio.

    El Equipo del Estudio de NASA permitirá también las oportunidades simuladas y verdaderas a probar protocolos y el uso de técnicas de Internet en el ambiente del espacio.

  2. SOBRE EL PROYECTO

    El DTNRG es un grupo de investigación que forma parte del IRTF (Grupo de Tareas de Investigación sobre Internet) el cual pertenece al grupo Internet Society. Este grupo tiene a cargo la arquitectura y los protocolos que permitirán la comunicación e interoperabilidad en ambientes donde la conectividad continua end-to-end no puede ser asumida. Dicho de otra forma, están encargados de interconectar redes altamente heterogéneas aunque puede que nunca llegase a existir una conectividad end-to-end. Algunos ejemplos de estos ambientes incluyen naves espaciales, militares y tácticas, algunas formas de responder a desastres, bajo el agua y algunas formas de redes ad-hoc. También puede incluir conectividad de internet en lugares donde el desempeño puede ser afectado por lugares inhóspitos e inalcanzables de la tierra.

    Este grupo investiga aspectos de redes tolerantes al retraso en muchas formas como publicaciones académicas, desarrollo y especificaciones de estándares, varias listas de correo activas para intercambiar conocimiento y desarrollo de código.

  3. EL GRUPO DE INVESTIGACION DE LA RED TOLERANTE A RETRASOS (DTNRG)

    1. Estructura de capas
  4. ARQUITECTURA DE LA RED TOLERANTE A RETRASOS (RFC 4838)

Los mensajes que enviamos a través de Internet son sometidos a distintas capas de protocolos. Las distintas capas procesan el mensaje recibido de la capa anterior de tal manera que se crea una jerarquía en los mensajes donde el mensaje en cada eslabón es interpretado por el actor correspondiente.

En la Internet, normalmente nos encontramos con las siguientes capas:

  • Capa Aplicación:

Genera y consume datos de usuario.

  • Capa Transporte:

Segmentación de los mensajes de origen a destino. reensamblado, control errores, control de flujo.

  • Capa de Red:

Direccionamiento de los mensajes. Con fragmentación y reensamblado si se requiere.

  • Capa de Enlace:

Transmisión enlace a enlace de las piezas.

  • Capa Física:

Transmisión de flujo de bits de enlace a enlace.

  1. Por qué una Red Tolerante a Retrasos (DTN, Delay Tolerant Network)?

Las redes "interplanetarias" se caracterizan por:

  • Conexiones intermitentes:

No siempre los nodos van a estar visibles los unos con los otros. Los objetos en el espacio están en movimiento, tanto los emisores como los receptores, así mismo como otros objetos o planetas. Cualquier elemento se podría poner en la trayectoria de la comunicación.

Además, debido a las limitaciones de energía, no todos los nodos están accesibles permanentemente por lo que su conexión con el siguiente nodo se programa previamente o bien, si este segundo nodo está permanentemente conectado, enviará datos en la medida en que pueda enviarlos.

Estos problemas de intermitencia en la disponibilidad hacen que se implementen mecanismos de almacenamiento de los mensajes hasta que puedan ser enviados, ya que la naturaleza de las comunicaciones hace que no se deban descartar mensajes con la relativa facilidad con la que se hace en las redes terrestres sin requerimientos especiales

Las comunicaciones pueden tener un destino muy lejano al origen. Incluso, un origen y un destino determinado no se encuentran siempre a la misma distancia uno de otro.

  • Flujo de datos asimétrico:

Dado que el envío de datos en largas distancias, con limitación de energía y con varias otras limitaciones es muy costoso, se limita al máximo los datos enviados. Generalmente suelen ser, de momento, envío de instrucciones hacia un extremo y envío de información masiva hacia el otro (por ejemplo los ‘Rover’ que están explorando Marte).

  • Alta tasa de fallos:

Debido a las limitaciones técnicas, de potencia, a largas distancias, alto número de interferencias electromagnéticas, la tasa de fallos en las comunicaciones es elevada. Así, se implementan mecanismos de detección y corrección de errores.

  1. Almacenamiento y reenvío

El almacenamiento y reenvío se establece como sistema para evitar una serie de problemas inherentes a la naturaleza de este tipo de comunicaciones, a saber:

  • Retrasos largos o variables:

Los nodos consecutivos en el camino pueden no estar visibles entre ellos durante largos periodos de tiempo.

  • Tráfico asimétrico:

Habrá nodos que puedan transmitir más rápidamente que otros. Así, se necesitarán mecanismos para poder almacenar los mensajes para su posterior envío de tal modo que no se produzca ninguna pérdida de datos.

  • Alta tasa de fallos:

En el medio en el que se transmite el mensaje así como las largas distancias que tienen que atravesar, existe una alta probabilidad de que se produzcan fallos de envío de los mensajes. Cuando se producen fallos, al tratarse de información importante, se requiere el envío de la información. De este modo, cuando un nodo envía un mensaje, no lo puede eliminar en el acto pues puede que se produzcan errores en la recepción, se debería esperar a una confirmación de llegada por parte del nodo destino.

  1. Conexiones

Las conexiones entre los nodos de una red tolerante a retrasos pueden ser:

  • Casuales:

Cuando un nodo detecta otro nodo con el cual se quiere comunicar, se comunica. Este tipo de conexión es posible siempre que el nodo emisor sepa que el receptor está activo y es capaz de hacer una recepción de los mensajes. El lado positivo de este tipo de transmisión es que el emisor puede enviar cuando cree oportuno puesto que confía en la disponibilidad del receptor. Esto hace que el emisor se active únicamente cuando le convenga transmitir una información. Cuando un nodo se encuentra con otro que quiere hablar, hablan.

  • Predichas:

Los nodos, al tener una disponibilidad presumiblemente intermitente, no pueden emitir en cualquier momento por la posible indisponibilidad del receptor. Los nodos se encuentran en movimiento, orbitando o sobre la superficie de un planeta. Si conocemos los ciclos de estos movimientos, se puede calcular la disponibilidad de estos nodos de modo que sólo se activen cuando predigan la disponibilidad de un nodo así como la probabilidad de transmisión de éste.

  • Programadas:

Básicamente como el caso anterior, con la diferencia es que no se basan en predicción. En este caso se sincronizan los envíos y recepción de los datos entre los nodos.

En este caso en concreto, ambos nodos están operativos para el envío y la recepción de los datos. Sin embargo, se establece la activación de un nodo por parte de otro del sistema de transmisión de mensajes. Entonces, en este caso las transmisiones se producen bajo demanda de algún nodo interesado.

  1. Las redes DTN implementan una arquitectura de conmutación de mensajes con almacenamiento y reenvío. Esto, lo consiguen introducción una nueva capa a la arquitectura de capas que ya conocemos. Introducen un nuevo protocolo, el "bundle layer" o capa de mensaje entre la capa de aplicación y la capa de transporte.

    El objetivo principal de esta nueva capa es el de unir distintas redes de naturaleza heterogénea entre sí. De esta manera hace que las capas inferiores a esta nueva capa, que usan protocolos específicos dependiendo de donde se encuentren esas redes, no sean un impedimento para la comunicación de las aplicaciones, situadas en la capa superior del nuevo protocolo introducido. Lo que hace es dotar a las comunicaciones entre distintas redes de independencia de las capas inferiores.

    El nuevo protocolo introducido es común para todas las redes que forman las redes DTN. Esta capa, es la que almacena y reenvía los mensajes entre los distintos nodos de las redes. Por el contrario, los protocolos de transporte, de red, de enlace y físico, son independientes de una región a otra. Esto es debido, como comentado anteriormente a las distintas características del entorno donde se establecen estas redes.

    Los mensajes por lo tanto consistirán en (1) los datos de la aplicación de usuario, (2) la información de control para aplicación de destino proporcionada por la aplicación de origen y (3) una cabecera, propia de este nuevo protocolo e insertada por el mismo.

    La nueva capa es capaz de fragmentar los mensajes, igual que como actúa IP. En este caso, será el mismo protocolo en encargado de reensamblarlos cuando sea necesario.

  2. Bundle layer

    Debido a la naturaleza de las comunicaciones, las largas distancias, los retrasos introducidos, la alta tasa de errores, hacen de la interactividad de la que disponemos con el protocolo TCP, de un lujo del que es muy caro disponer en las comunicaciones en redes DTN. De esta manera, estos viajes de ida y vuelta entre los nodos inicial y final tardarían mucho tiempo. Así, con el nuevo protocolo introducido, las comunicaciones se harán con los mínimos viajes posibles de ida y vuelta. Así, los "acknowledgements" del receptor serán opcionales dependiendo de la QoS elegida. Y esto, por supuesto, depende del tipo de conexión posible entre los nodos.

  3. Interactividad
  4. Nodos

En las redes DTN existen tres tipos de nodos diferentes. Los nodos pueden actuar como:

  • Hosts:

Los host envían o reciben "bundles", pero no los reenvían. No actúan como nodos intermedios. Son emisores o receptores.

  • Routers:

Reenvían "bundles" en una misma región DTN. Requieren almacenamiento persistente para poder hacer transmisiones bajo custodia y poder almacenar los mensajes hasta que el siguiente nodo en la ruta esté disponible.

  • Gateways:

Reenvían "bundles" entre distintas regiones DTN. Opcionalmente pueden actuar como host. Los Gateways deben soportar también almacenamiento persistente para envíos de tipo "store & forward" (almacenamiento-envío). Los "Gateways", a su vez, son capaces de de hacer conversiones en las capas más bajas de protocolo entre las regiones entre las que se encuentra. Así, hará compatible los mensajes entre distintas regiones DTN que no tienen porque ser homogéneas.

  1. Las DTNs deben soportar conexiones entre dos nodos. La capacidad de conexión nodo a nodo se debe implementar en la "bundle layer". La "bundle layer" soportará entonces las retransmisiones nodo a nodo en términos de transferencias bajo custodia.

    Las transferencias bajo custodia son concertadas entre las "bundle layers" de los sucesivos nodos cuando la aplicación inicia la conexión. Cuando un nodo quiere enviar, la "bundle layer" de este nodo comprueba si el siguiente nodo en la ruta soporta transferencias bajo custodia. De ser así, envía el mensaje y, cuando recibe una confirmación de que se ha entregado correctamente el mensaje, el nodo emisor borra entonces su copia del mensaje. Es entonces quien ha recibido el mensaje el responsable de enviarlo al siguiente nodo. Operando de la misma forma, el mensaje llegará al nodo destino.

    Las transferencias bajo custodia no aseguran un servicio garantizado punto a punto. Los mensajes contienen TTLs que deben cumplir. Debido a los grandes retrasos que se producen, cuando se forman los mensajes y se les asigna TTL, se tienen en cuenta las distintas situaciones por las que podría pasar el mensaje.

  2. Transferencias bajo custodia

    En este tipo de redes todos los nodos los nodos implementan la "bundle layer" y la capa de transporte.

    Los gateways en DTN pueden soportar distintos conjuntos de protocolos de transporte, red, enlace y físico, tal y como se muestra en la figura con el fin de poder enviar mensajes entre regiones con distintas configuraciones.

    La principal diferencia en redes DTN con respecto a las redes tradicionales que conocemos con respecto al "routing" reside en los Gateways. Los Gateways son capaces de compatibilizar mensajes pertenecientes a distintas regiones, mediante la transformación de los mensajes accediendo a los protocolos por debajo de la capa de mensaje (propios de cada región) como podemos ver en la figura anterior.

  3. Routing DTN

    Una DTN es una red de redes. Cada una de las redes conforma una región con unas características de comunicación homogéneas.

    Las regiones van a tener su propio identificador. Estos identificadores van a ser comúnmente conocidos por los nodos de la red y, el identificador de cada nodo estará formado por el identificador propio de la red junto con otro identificador que lo diferenciará dentro de la propia red. Los Gateways serán los únicos dispositivos que poseerán dos direcciones ya que forman parte de dos o más regiones simultáneamente.

  4. Regiones

    En redes DTN aparte de autenticar a los usuarios y la integridad de los mensajes, se autentica también los nodos por los que va atravesando el mensaje desde un origen hasta llegar a un destino. De esta manera se evita el tráfico ilegal y se conservan recursos.

    En las redes DTN tanto los mensajes como los nodos tienen su propio par de claves (pública y privada) así como su propio certificado. En los certificados se indica el tipo de calidad de servicio requerida para los envíos de los mensajes.

    Cuando un emisor quiere enviar un mensaje, lo firman con su clave privada. Los receptores, usando la clave pública pueden verificar la autenticidad del mensaje, la integridad y la clase de servicio requerida.

  5. Seguridad
  6. Ejemplo de comunicación

Por ejemplo, vamos a ver cómo sería una comunicación desde la Tierra hasta Marte. Iremos viendo cómo se va transmitiendo el mensaje de nodo a nodo.

Las direcciones de origen y destino van a ser las siguientes:

{earth.sol.int, src.jpl.nasa.gov:6769} y {mars.sol.int, dst.jpl.nasa.gov:6769} respectivamente.

Cuando se crea el mensaje, aparte de la dirección de origen y destino, también se especifica la firma, la clase de servicio y los datos de usuario.

Primero creamos el mensaje: la bundle layer comprueba la firma de la fuente de los datos, crea un mensaje y añade la cabecera y su firma. Seguidamente almacena el mensaje hasta que pueda ser enviado.

Posteriormente a la creación del mensaje, nos disponemos a la transmisión del mismo. Es el mismo protocolo de mensaje quien consulta su tabla de rutas y determina que el Gateway de la Tierra se encuentra en la dirección {earth.sol.int, ipngw1.jpl.nasa.gov:6769}. Este es el siguiente nodo en la trayectoria del paquete hacia el destino. También averigua que el protocolo de transporte que debe usar es TCP.

Es el momento de transmitir el mensaje.

El emisor envía una copia del mensaje al Gateway de la Tierra usando TCP como protocolo de transporte. Entonces el emisor queda a la espera de recibir la aceptación por parte del Gateway del mensaje. El mensaje se transmite bajo custodia.

Al recibir el Gateway de la tierra el mensaje, cierra la conexión TCP establecida. Esto es así ya que el protocolo de transporte utilizado en la comunicación hacia este nodo ha sido TCP. El Gateway verifica la firma del emisor así como la clase de servicio establecida. Cuando se verifica la validez del mensaje, el protocolo de mensaje cambia la firma. Aun así, conserva la firma del creador del mensaje. Y ahora almacena el mensaje en sus dispositivos de almacenamiento.

El Gateway de la Tierra, consulta la tabla de rutas y determina la dirección siguiente: {mars.sol.int, ipngw2.jpl.nasa.mars.org:6769}. Consulta también cuando este nodo estará disponible para enviarle el mensaje sólo cuando el receptor sea capaz de recibirlo. Entonces confirma el TTL y si puede enviar el mensaje, y entonces envía un mensaje al nodo de quien recibió el mensaje a transmitir comunicándole que ya puede borrar su copia del mensaje, que ya se encarga él de enviarlo.

Cuando llegue la hora establecida en la cual el receptor vaya a estar disponible, se envía el mensaje.

Cuando el mensaje llega al Gateway de Marte, aparte de hacer los pasos descritos anteriormente, descubre que el protocolo de transporte utilizado en la nueva región es TCP. De manera que el Gateway prepara el mensaje para una conexión TCP con el siguiente nodo, que ya será el destino. Y finalmente es enviado al destino.

El nodo destino recibe el mensaje vía una conexión TCP. El destino entonces cierra la conexión y comprueba la firma del nodo anterior. Almacena el mensaje, acepta la custodia e informa al Gateway de que ya puede borrar su copia.

Para finalizar, la capa de mensaje invoca a la aplicación por encima de él a quien va destinado el mensaje. Dependiendo de la aplicación, opcionalmente puede generar "acknowledgements" dirigidos al emisor del mensaje para confirmar la recepción.

  1. Los protocolos existentes hasta a fecha y que se comparan a gran escala con TCP/IP respectivamente son:

    1. Bundle Protocol (RFC 5050)
  2. ESPECIFICACIÓN DE PROTOCOLOS ACTUALES.

Intercambio de mensajes, puede ser una buena traducción de "bundles" según los investigadores del DTNRG. Acá queremos dar una breve especificación tomada de la Referencia 5050 de la IETF.

Las DTN son utilizadas en ambientes realmente cambiantes con una conectividad intermitente, largos y/o variables retrasos y una tasa alta de errores en la transferencia de bits. Para proveer servicios en las DTN, el BP se establece sobre la capa de aplicación para formar una red de almacenamiento y envío con el fin de que los datos lleguen al otro punto de conexión. Algunas de las capacidades de este protocolo son:

  • Retransmisión basada en custodia.
  • Capacidad de sobrellevar conectividad intermitente.
  • Capacidad de conexiones oportunistas, predictadas y planeadas (con el fin de prepara una conexión continua).

Este es un protocolo experimental, producido en el DTNRG y alimentado por consenso de muchos contribuyentes al grupo.

Las características aún más específicas de este protocolo se encuentran en el Anexo 1.

  1. Licklider Transmission Protocol (LTP) (RFC en proceso)

Es un protocolo de retransmisión para una comunicación segura entre dos puntos en un ambiente de tolerancia a retrasos. Nombrado en honor a Joseph Carl Robnett Licklider, científico estadounidense primero en articular la idea de una red de computadoras intergaláctica en sus inicios en 1962, Vint Cerf tuvo la iniciativa de este nombre. Por otro lado, también se la designado como un protocolo de convergencia para los pilares interplanetarios de una red tolerante a retrasos "end-to-end". Este protocolo se puede compara para su compresión con el protocolo TCP.

El funcionamiento de este protocolo se fundamente en la transmisión de un bloque de datos dividido en segmentos. Cuando estos segmentos son transmitimos, algunos son señalados como "checkpoints". Cuando un "checkpoint" es recibido, el receptor retorna un reporte de recepción acumulativa. Si los puntos de revisión no son explícitos los datos se vuelven a reenviar por medio de un "timer" que periódicamente revisa la recepción de puntos de revisión.

Dentro de las habilidades de este protocolo se destacan:

Tolera la interrupción de los enlaces sin pérdida de datos.

Designado para imponer un mínimo recargo en enlaces de baja capacidad y/o enlaces asimétricos.

Los segmentos pueden ser expandidos (seguridad de código).

Retransmisión acelerada: múltiples revisión de estado por bloque transmitido.

Certeza parcial: los puntos de revisión y retransmisión se pueden habilitar solamente por las primeros N bytes de un bloque.

Para las especificaciones mas detallas del protocolo favor ver el Anexo 2.

  1. El proyecto original conocido como Interplanet se ha expandido y crecido sustancialmente y se ha re-fundamentado en una arquitectura más global y con énfasis en las DTN, actualmente en el sitio web del DTNRG (http://www.dtnrg.org) existen accesos a artículos e investigaciones en los cuales se discute la situación pasada y actual de las aplicaciones de las DTN y los problemas que presentan en las redes terrestres. Por otro lado, es importante resaltar que la arquitectura de las DTN y el Bundle Protocol están documentados como estándares de referencia del IET.

    Actualmente, está iniciando lo que parece ser una actividad muy seria para implementar esta tecnología antes mencionada en comunicaciones de vuelos espaciales, tal y como lo imaginaron cuando el proyecto empezó en 1998.

    En adición a esto, también se tiene proyectado la instalación de esta tecnología a bordo de la Estación Espacial Internacional (ISS), está pendiente aún una discusión más profunda. También se está trabajando en un plan pruebas en Octubre para la nave "Deep Impact", cuyos datos no se sabrán hasta dentro de unos meses.

    Actualmente, el LTP está en proceso de inscripción como una norma del RFC y el protocolo se encuentra en perfeccionamiento y Steven Farrel está trabajando en su implementación.

  2. ÚLTIMOS AVANCES

    Interplanet es un proyecto con el cual se verá beneficiada toda la humanidad, debido que se podrán estudiar datos enviados desde Marte y poder validar aún más la posibilidad de que ese planeta sea habitable algún día.

    La investigación científica se verá fortalecida, pues la facilidad de analizar datos más confiables y de una manera más rápida, imágenes nítidas y confiables.

    El desarrollo de este proyecto y específicamente de los protocolos, modificará ciertos estándares conocidos como el modelo OSI, pues ha aparecido otra capa que deberá ser agregada a los estándares.

    La posibilidad de enviar y recibir datos entre redes tolerantes a retrasos, ayudará a que la conectividad incluso aquí en la tierra se vea sustancialmente mejorado, pues ya no importará el medio y los retrasos.

    Es un proyecto que todavía le falta mucho por terminar, por lo que está aún pendiente la culminación de los protocolos BP y LTP, pues están en un periodo experimental.

    La importancia fundamental radica en que los datos lleguen legibles y completos, sin que estos sean afectados, por ambientes completamente heterogéneos.

    Este proyecto desprende mucha documentación que puede ser aprovechada para artículos, desarrollo y proyectos que integren los protocolos antes mencionados.

    Los países podrán tomar ventaja de esta tecnología al realizar alianzas de investigación, tanto académicas como empresariales.

  3. CONCLUSIONES Y REFLEXIONES
  4. Referencias

Estudio de la Interplanet. En: . Visitado el: 23/3/2008

Internet Interplanetario. En: http://en.wikipedia.org/wiki/Interplanetary_Internet Visitado el: 23/3/2008

NASA. En: http://es.wikipedia.org/wiki/NASA Visitado el: 23/3/2008

Gobierno del Internet. En: http://www.wgig.org/docs/SociedadNorte-CommentApril.doc Visitado el: 23/3/2008

Internet Research Task Force Research Group. (DTNRG). En: http://www.dtnrg.org.Visitado el: 26/3/2008

DTN Architecture Document: En: http://tools.ietf.org/group/irtf/draft-irtf-dtnrg-arch-08.txt. Visitado el: 26/3/2008

Delay-Tolerant Networking: An Approach to Interplanetary Internet: Scott Burleigh, Adrian Hooke, and Leigh Torgerson, Jet Propulsion Laboratory

En: http://www.dtnrg.org/papers/ieee-comsoc-article.pdf. Visitado el: 26/3/2008

InterPlaNetary Internet: state-of-the-art and research challenges: Ian F. Akyildiz, Chao Chen, Jian Fang, Weilian Su. En: http://www.ece.gatech.edu/research/labs/bwn/space.pdf. Visitado el: 26/3/2008

Technologies for the InterPlanetary Network. Dr. James R. Lesh Chief Technologist & Manager, Technology Office Interplanetary Network and Information Systems Directorate Jet Propulsion Laboratory California Institute of Technology

En: http://www.ipnsig.org/reports/Lesh-IPN-Technologies.pdf. Visitado el: 26/3/2008.

TOWARDS AN INTERPLANETARY INTERNET: A PROPOSED STRATEGY FOR STANDARDIZATION. Adrian J. Hooke Jet Propulsion Laboratory, California Institute of Technology Pasadena, California, USA. En: http://www.ipnsig.org/reports/SpaceOps-Oct-2002.pdf. Visitado el: 28/3/2008

Delay-Tolerant Networks (DTNs): Forrest Warthman Warthman Associates

En: http://ipnsig.org/reports/DTN_Tutorial11.pdf. Visitado el: 28/3/2008

Borrador de la especificación RFC del IPN. En: http://ipnsig.org/reports/draft-irtf-ipnrg-arch-01.txt. Visitado el: 28/3/2008

Agradecimiento especial para:

Scott Burleigh del Laboratorio de Propulsión a Chorro de la NASA.

Steven Farrell del Grupo de Investigación de la Red Interplanetaria

Special thanks to:

Scott Burleigh of the Jet Propulsion Lab (JPL) – NASA.

Steven Farrell of the IPNSIG (Interplanet Special Interest Group).

 

 

 

 

Autor:

Edgar A. Vega Briceño

Ingeniero en Informática, Universidad Nacional de Costa Rica

Sobre el autor de este trabajo:

Edgar A. Vega Briceño, Ingeniero en Informática de la Universidad Nacional de Costa Rica y actualmente ostentando el grado de Máster en Administración de las Tecnologías de Información y Comunicación en la misma Universidad. Profesor universitario e investigador en temas relacionados con TI.

Partes: 1, 2
 Página anterior Volver al principio del trabajoPágina siguiente