- El Internet
- Cómo Funciona el Internet?
- Un protocolo
- Protocolos de Internet
- Cómo funciona el DNS
- Peer-to-Peer
- Riesgos al utilizar Peer to Peer
- Ventajas al usar Peer to Peer
- Conclusión
- Bibliografía
El Internet
Internet es una red de comunicaciones de cobertura mundial que posibilita intercambiar información a ordenadores situados en cualquier parte del mundo.
Internet es un conjunto descentralizado de redes de comunicación interconectadas que utilizan la familia de protocolos TCP/IP, garantizando que las redes físicas heterogéneas que la componen funcionen como una red lógica única, de alcance mundial. Sus orígenes se remontan a 1969, cuando se estableció la primera conexión de computadoras, conocida como ARPANET, entre tres universidades en California y una en Utah, Estados Unidos.
Uno de las facetas mas conocidas de Internet, que ha contribuido enormemente a su popularidad actual, es la "World Wide Web" o WWW ( se podría traducir como "Telaraña de Cobertura Mundial"), que permite acceder de forma sencilla a un enorme volumen de información sin necesidad de un complejo equipo informático ni de conocimientos técnicos especiales.
En la WWW las personas que buscan una información utilizan una herramienta conocida como navegador para acceder a información de distinto tipo (texto, imágenes, sonidos, etc.), pasar de una información a otra a la que se hace referencia, etc.
Sus orígenes se remontan a la década de 1960, dentro de ARPA (hoy DARPA), como respuesta a la necesidad de esta organización de buscar mejores maneras de usar los computadores de ese entonces, pero enfrentados al problema de que los principales investigadores y laboratorios deseaban tener sus propios computadores, lo que no sólo era más costoso, sino que provocaba una duplicación de esfuerzos y recursos. Así nace ARPANet (Advanced Research Projects Agency Network o Red de la Agencia para los Proyectos de Investigación Avanzada de los Estados Unidos), que nos legó el trazado de una red inicial de comunicaciones de alta velocidad a la cual fueron integrándose otras instituciones gubernamentales y redes académicas durante los años 70.
Investigadores, científicos, profesores y estudiantes se beneficiaron de la comunicación con otras instituciones y colegas en su rama, así como de la posibilidad de consultar la información disponible en otros centros académicos y de investigación. De igual manera, disfrutaron de la nueva habilidad para publicar y hacer disponible a otros la información generada en sus actividades.
En el mes de julio de 1961 Leonard Kleinrock publicó desde el MIT el primer documento sobre la teoría de conmutación de paquetes. Kleinrock convenció a Lawrence Roberts de la factibilidad teórica de las comunicaciones vía paquetes en lugar de circuitos, lo cual resultó ser un gran avance en el camino hacia el trabajo informático en red. El otro paso fundamental fue hacer dialogar a los ordenadores entre sí. Para explorar este terreno, en 1965, Roberts conectó una computadora TX2 en Massachusetts con un Q-32 en California a través de una línea telefónica conmutada de baja velocidad, creando así la primera (aunque reducida) red de computadoras de área amplia jamás construida.
A inicios de los 90, con la introducción de nuevas facilidades de interconexión y herramientas gráficas simples para el uso de la red, se inició el auge que actualmente le conocemos al Internet. Este crecimiento masivo trajo consigo el surgimiento de un nuevo perfil de usuarios, en su mayoría de personas comunes no ligadas a los sectores académicos, científicos y gubernamentales.
Esto ponía en cuestionamiento la subvención del gobierno estadounidense al sostenimiento y la administración de la red, así como la prohibición existente al uso comercial del Internet. Los hechos se sucedieron rápidamente y para 1993 ya se había levantado la prohibición al uso comercial del Internet y definido la transición hacia un modelo de administración no gubernamental que permitiese, a su vez, la integración de redes y proveedores de acceso privados.
Internet tiene un impacto profundo en el mundo laboral, el ocio y el conocimiento a nivel mundial. Gracias a la web, millones de personas tienen acceso fácil e inmediato a una cantidad extensa y diversa de información en línea. Un ejemplo de esto es el desarrollo y la distribución de colaboración del software de Free/Libre/Open-Source (SEDA) por ejemplo GNU, Linux, Mozilla y OpenOffice.org.
Comparado a las enciclopedias y a las bibliotecas tradicionales, la web ha permitido una descentralización repentina y extrema de la información y de los datos. Algunas compañías e individuos han adoptado el uso de los weblogs, que se utilizan en gran parte como diarios actualizables. Algunas organizaciones comerciales animan a su personal para incorporar sus áreas de especialización en sus sitios, con la esperanza de que impresionen a los visitantes con conocimiento experto e información libre.
Internet ha llegado a gran parte de los hogares y de las empresas de los países ricos. En este aspecto se ha abierto una brecha digital con los países pobres, en los cuales la penetración de Internet y las nuevas tecnologías es muy limitada para las personas.
Cómo Funciona el Internet?
El primer paso es lograr su interconexión física, para lo que se emplean sistemas muy diversos:Redes de área local, por lo general basadas en el estándar Ethernet. Son las más utilizadas en redes corporativas de empresas u organizaciones, con extensiones menores de 2 Km.Enlaces nacionales, con líneas de usos exclusivos o compartidos (de una compañía telefónica).Enlaces internacionales, proporcionados por compañía de comunicaciones con implantación internacional. Pueden utilizar cableado convencional, fibra óptica, satélites, enlaces por microondas, Además, muchos usuarios utilizan módems para conectarse desde sus casas, a través de llamadas telefónicas comunes, a proveedores de comunicaciones que dan, a su vez, acceso a Internet. El uso de líneas RDSI (Red Digital de Servicios Integrados) es cada vez más frecuente, como solución de futuro para conectar a usuarios particulares a las redes de información de alta velocidad.
Todos los sistemas de comunicaciones mencionados producen una "maraña" de cables, que permite, del mismo modo que en las comunicaciones telefónicas, disponer de un canal virtual de comunicación entre dos ordenadores situados en diferentes lugares de la red.
Un protocolo
Un protocolo es un método establecido de intercambiar datos en Internet. Un protocolo es un método por el cual dos ordenadores acuerdan comunicarse, una especificación que describe cómo los ordenadores hablan el uno al otro en una red.
En informática, un protocolo es un conjunto de reglas usadas por computadoras para comunicarse unas con otras a través de una red. Un protocolo es una regla o estándar que controla o permite la comunicación en su forma más simple, un protocolo puede ser definido como las reglas que dominan la sintaxis, semántica y sincronización de la comunicación. Los protocolos pueden ser implementados por hardware, software, o una combinación de ambos. A su más bajo nivel, un protocolo define el comportamiento de una conexión de hardware.
Los protocolos son reglas de comunicación que permiten el flujo de información entre equipos que manejan lenguajes distintos, por ejemplo, dos computadores conectados en la misma red pero con protocolos diferentes no podrían comunicarse jamás, para ello, es necesario que ambas "hablen" el mismo idioma. El protocolo TCP/IP fue creado para las comunicaciones en Internet. Para que cualquier computador se conecte a Internet es necesario que tenga instalado este protocolo de comunicación.
Estrategias para mejorar la seguridad (autenticación, cifrado).
Cómo se construye una red física.
Cómo los computadores se conectan a la red.
Protocolos de Internet
Protocolos de Aplicación de internet
* FTP y Telnet
FTP (Protocolo de transferencia de archivos) permite bajar y colocar archivos en la internet. Para bajar un archivo en un sistema de computación es necesario correr una aplicación cliente de FTP que se conecta al servidor FTP y procede a bajar el archivo de su correspondiente directorio o carpeta.
Telnet es una vía para realizar una conexión remota a otro sistema en la red. Un servidor telnet debe estar corriendo en el sistema remoto y un cliente de telnet debe estar corriendo en el sistema local. Los sistema operativos típicos para servidores telnet son unís, windows nt etc.
* HTTP
Es el protocolo primario de www. Cuando un navegador se conecta a un servidor web, este usa http para recibir páginas web, http tiene la capacidad para transferir páginas web, gráficos y muchos otros tipos de medios usados en internet.
* Internet, Correo electrónico
El correo electrónico utiliza un protocolo llamado SMTP (Protocolo de transferencia de correo simple) una aplicación cliente de correo electrónico es utilizado para enviar y recibir mensajes y esta se comunica con un servidor SMTP el cual esta fuera y se encarga de enviar los mensajes y tomar la responsabilidad de tomar estos. Una dirección de correo electrónico está compuesta de dos partes: el nombre del usuario y la dirección del servidor, un ejemplo [email protected].
TCP/IP El protocolo TCP/IP (Transmition Control Protocol/Internet Protocol) hace posible enlazar cualquier tipo de computadoras, sin importar el sistema operativo que usen o el fabricante. Este protocolo fue desarrollado originalmente por el ARPA (Advanced Research Projects Agency) del Departamento de Defensa de los Estados Unidos. Actualmente, es posible tener una red mundial llamada Internet usando este protocolo. Este sistema de IP permite a las redes enviar correo electrónico (e-mail), transferencia de archivos (FTP) y tener una interacción con otras computadoras (TELNET) no importando donde estén localizadas, tan solo que sean accesibles a través de Internet.
Cómo funciona el DNS
El DNS se utiliza principalmente para la resolución de nombres, esto es, decidir qué dirección IP pertenece a determinado nombre completo de host.
Usos del DNS
El DNS se utiliza para distintos propósitos. Los más comunes son:
Resolución de nombres: Dado el nombre completo de un host (por ejemplo blog.smaldone.com.ar), obtener su dirección IP (en este caso, 208.97.175.41).
Resolución inversa de direcciones: Es el mecanismo inverso al anterior. Consiste en, dada una dirección IP, obtener el nombre asociado a la misma.
Resolución de servidores de correo: Dado un nombre de dominio (por ejemplo gmail.com) obtener el servidor a través del cual debe realizarse la entrega del correo electrónico (en este caso, gmail-smtp-in.l.google.com).
Por tratarse de un sistema muy flexible, es utilizado también para muchas otras funciones, tales como la obtención de claves públicas de cifrado asimétrico y la validación de envío de e-mails (a través de mecanismos como SPF).
Arquitectura del DNS.
El sistema DNS funciona principalmente en base al protocolo UDP. Los requerimientos se realizan a través del puerto 53.
El sistema está estructurado en forma de "árbol". Cada nodo del árbol está compuesto por un grupo de servidores que se encargan de resolver un conjunto de dominios (zona de autoridad). Un servidor puede delegar en otro (u otros) la autoridad sobre alguna de sus sub-zonas (esto es, algún subdominio de la zona sobre la que él tiene autoridad). Un subdominio puede verse como una especialización de un dominio de nivel anterior. Por ejemplo, "smaldone.com.ar" es un subdominio de "com.ar", que a su vez lo es del TLD "ar".
El siguiente diagrama ilustra esto a través de un ejemplo:
Los servidores con autoridad sobre los TLD son los llamados "root servers" (o "servidores raíz") del sistema. Estos son fijos, ya que rara vez cambian, siendo actualmente 13.
Uso del DNS en una red local
Ya en redes de tamaño medio (quizás más de 5 equipos) es conveniente la utilización de DNS. Esto nada tiene que ver con el DNS de Internet (aunque el servidor local puede estar vinculado a este sistema).
Básicamente, es conveniente montar un servidor local de DNS por los siguientes motivos:
Agilizar el acceso a Internet: Al tener un servidor de nombres en nuestra propia red local (que acceda al DNS de nuestro proveedor o directamente a los root servers) se agiliza el mecanismo de resolución de nombres, manteniendo en caché los nombres recientemente usados en la red y disminuyendo el tráfico hacia/desde Internet.
Simplificar la administración de la red local: Al contar con un DNS propio (ya sea uno o varios servidores de nombres) es posible definir zonas locales (no válidas ni accesibles desde Internet) para asignar nombres a cada uno de los hosts de la LAN. De esta forma es posible, por ejemplo, referirnos a la impresora de red como "hplaser.mired.local" en vez de "192.168.0.2" y a nuestro servidor de correo interno como "smtp.mired.local" en vez de "192.168.0.3". (Pensemos, por ejemplo, que ocurriría con las configuraciones de las aplicaciones si un día decidimos cambiar el esquema de direcciones IP de nuestra red.)
Problemas del DNS.
El principal problema que presenta el DNS es que, al estar basado en UDP (protocolo de transporte que no garantiza la recepción de la información enviada), tanto las consultas como las respuestas pueden "perderse" (por ejemplo, a causa de congestionamiento en algún enlace de la red). Es común apreciar cómo, en el caso de servidores y redes no muy bien configuradas, la resolución de nombres se resiente sensiblemente ante cualquier anomalía (saturación de tráfico o del servidor de nombres local).
Otro inconveniente, que ya hemos hecho notar, es la lentitud de la propagación de las modificaciones en el sistema, producto de la propia arquitectura del mismo.
Pero quizás el mayor problema no sea inherente al sistema mismo, sino a la pésima configuración de los servidores de muchos ISP. Fibertel, el proveedor que utilizo, es un notable ejemplo de esta falencia. Una buena solución a esta situación es ejecutar un servidor de nombres en alguna PC de la red local, de forma tal que se comunique directamente con los root servers (evitando de esta forma pasar a través de los servidores de nombres de nuestro proveedor).
Peer-to-Peer
Una red Peer-to-Peer o red de pares o red entre iguales o red entre pares o red punto a punto (P2P, por sus siglas en inglés) es una red de computadoras en la que todos o algunos aspectos funcionan sin clientes ni servidores fijos, sino una serie de nodos que se comportan como iguales entre sí. Es decir, actúan simultáneamente como clientes y servidores respecto a los demás nodos de la red. Las redes P2P permiten el intercambio directo de información, en cualquier formato, entre los ordenadores interconectados.
El hecho de que sirvan para compartir e intercambiar información de forma directa entre dos o más usuarios ha propiciado que parte de los usuarios lo utilicen para intercambiar archivos cuyo contenido está sujeto a las leyes de copyright, lo que ha generado una gran polémica entre defensores y detractores de estos sistemas.
Las redes peer-to-peer aprovechan, administran y optimizan el uso del ancho de banda de los demás usuarios de la red por medio de la conectividad entre los mismos, y obtienen así más rendimiento en las conexiones y transferencias que con algunos métodos centralizados convencionales, donde una cantidad relativamente pequeña de servidores provee el total del ancho de banda y recursos compartidos para un servicio o aplicación.
Dichas redes son útiles para diversos propósitos. A menudo se usan para compartir ficheros de cualquier tipo (por ejemplo, audio, vídeo o software). Este tipo de red también suele usarse en telefonía VoIP para hacer más eficiente la transmisión de datos en tiempo real.
La eficacia de los nodos en el enlace y transmisión de datos puede variar según su configuración local (cortafuegos, NAT, ruteadores, etc.), velocidad de proceso, disponibilidad de ancho de banda de su conexión a la red y capacidad de almacenamiento en disco.
Las redes P2P pueden usarse también para hacer funcionar grandes sistemas de software diseñados para realizar pruebas que identifiquen la presencia de posibles fármacos. El primer sistema diseñado con tal propósito se desarrolló en el 2001, en el Centro Computacional para el Descubrimiento de Medicamentos (Centre for Computational Drug Discovery) en la prestigiosa Universidad de Oxford y con la cooperación de la Fundación Nacional para la Investigación del Cáncer (National Foundation for Cancer Research) de los Estados Unidos.
Actualmente existen varios sistemas software similares que se desarrollan bajo el auspicio de proyectos como el proyecto de Dispositivos Unidos en la Investigación del Cáncer (United Devices Cancer Research Project). En una escala más pequeña, existen sistemas de administración autónoma para los biólogos computacionales, como el Chinook, que se unen para ejecutar y hacer comparaciones de datos bioinformáticos con los más de 25 diferentes servicios de análisis que ofrece. Uno de sus propósitos consiste en facilitar el intercambio de técnicas de análisis dentro de una comunidad local.
Características:
Seis características deseables de las redes P2P:
Escalabilidad. Las redes P2P tienen un alcance mundial con cientos de millones de usuarios potenciales. En general, lo deseable es que cuantos más nodos estén conectados a una red P2P, mejor será su funcionamiento. Así, cuando los nodos llegan y comparten sus propios recursos, los recursos totales del sistema aumentan. Esto es diferente en una arquitectura del modo servidor-cliente con un sistema fijo de servidores, en los cuales la adición de clientes podría significar una transferencia de datos más lenta para todos los usuarios. Algunos autores advierten que, si proliferan mucho este tipo de redes, cliente-servidor, podrían llegar a su fin, ya que a cada una de estas redes se conectarán muy pocos usuarios.
Robustez. La naturaleza distribuida de las redes peer-to-peer también incrementa la robustez en caso de haber fallos en la réplica excesiva de los datos hacia múltiples destinos, y —-en sistemas P2P puros—- permitiendo a los peers encontrar la información sin hacer peticiones a ningún servidor centralizado de indexado. En el último caso, no hay ningún punto singular de falla en el sistema.
Descentralización. Estas redes por definición son descentralizadas y todos los nodos son iguales. No existen nodos con funciones especiales, y por tanto ningún nodo es imprescindible para el funcionamiento de la red. En realidad, algunas redes comúnmente llamadas P2P no cumplen esta característica, como Napster, eDonkey o BitTorrent.
Distribución de costes entre los usuarios. Se comparten o donan recursos a cambio de recursos. Según la aplicación de la red, los recursos pueden ser archivos, ancho de banda, ciclos de proceso o almacenamiento de disco.
Anonimato. Es deseable que en estas redes quede anónimo el autor de un contenido, el editor, el lector, el servidor que lo alberga y la petición para encontrarlo, siempre que así lo necesiten los usuarios. Muchas veces el derecho al anonimato y los derechos de autor son incompatibles entre sí, y la industria propone mecanismos como el DRM para limitar ambos.
Seguridad. Es una de las características deseables de las redes P2P menos implementada. Los objetivos de un P2P seguro serían identificar y evitar los nodos maliciosos, evitar el contenido infectado, evitar el espionaje de las comunicaciones entre nodos, creación de grupos seguros de nodos dentro de la red, protección de los recursos de la red… La mayor parte de los nodos aún están bajo investigación, pero los mecanismos más prometedores son: cifrado multiclave, cajas de arena, gestión de derechos de autor (la industria define qué puede hacer el usuario; por ejemplo, la segunda vez que se oye la canción se apaga), reputación (permitir acceso sólo a los conocidos), comunicaciones seguras, comentarios sobre los ficheros, etc.
Riesgos al utilizar Peer to Peer
las opiniones interesadas, que aseguran que las redes P2P (peer to peer, punto a punto o par a par) son muy seguras, estudios realizados por fuentes tan solventes como las Universidad Carlos III de Madrid, departamentos de Informática de otras universidades (tanto españolas como extranjeras), empresas de seguridad o la propia Asociación de Internautas (www.internautas.org), entre otras, demuestran todo lo contrario.
Lo primero que hay que tener en cuenta es que una red P2P es una serie de nodos que actúan a la vez como clientes y como servidores de los demás nodos de la red.
Es cierto que en la mayoría de estos programas elegimos las carpetas a compartir, pero ¿es que acaso esto supone un mayor problema o es una solución para mantener a salvo nuestra información? En el mejor de los casos, para aquellos que estén decididos a violar nuestra intimidad y nuestros datos es tan solo un pequeño inconveniente.
Muchas veces centramos el tema seguridad en lo más básico, es decir, en las posibilidades de que a través de archivos bajados mediante estas redes nos pueda entrar un virus, pero este problema, que ya de por sí es grave, no es precisamente el que más lo es, y además, con un buen antivirus y tomando las correctas medidas de precaución, como puede ser por ejemplo analizar todos los archivos que descarguemos antes de ejecutarlos, es el más fácil de controlar. El mayor de los problemas es que, dada la naturaleza de este tipo de redes, estamos dando entrada a nuestro ordenador a todos los que estén conectados a ella, ofreciéndoles además una serie de puertos abiertos para que puedan circular libremente, problema que se agudiza aun más cuando se trata de puertos abiertos para el uso de un programa concreto (los célebres puertos del Emule, Ares y similares).
En pruebas realizadas se ha demostrado que incluso utilizando el más habitual y, al parecer, seguro de estos programas, con tan solo algunas herramientas (que son programas públicos, fáciles de conseguir y muy simples y fáciles de utilizar, que por evidentes motivos de seguridad no vamos a nombra aquí) se pueden acceder a datos como nuestra IP, tipo de descargas que estamos haciendo, nuestra ubicación (con una aproximación bastante exacta) e incluso nuestro número de teléfono, y, por supuesto, a los datos que tengamos en nuestro ordenador. Es también posible acceder al router, listado de puertos abiertos, claves de acceso y demás información de seguridad.
Además, este ataque no va a ser reconocido como tal, ya que somos nosotros mismos (a través de estos programas) los que estamos permitiendo una comunicación entre nuestro sistema y el de la persona o personas que quieren acceder a él.
Pero es que en muchos casos no hace falta llegar ni a esos extremos, ya que si no hemos configurado bien las carpetas a las que damos acceso, nos podemos encontrar con que tan solo con buscar en el programa P2P de turno una serie de palabras claves va a ser posible acceder a los datos que, por error, estemos compartiendo.
La seguridad es la gran asignatura pendiente de los programas P2P, que a pesar de que muchos de sus adeptos aseguran que no suponen un riesgo para la seguridad, son realmente una amenaza para nuestro equipo y para nuestros datos, y este es un factor del que debemos ser plenamente conscientes. Los peligros son muchos, y como he dicho al principio, el que un fichero esté infectado por virus, troyanos u otro tipo de malware, dentro de la gravedad que ello supone, no es ni de lejos el peor de ellos, siendo además el más fácil de controlar.
Y todavía cuando aceptamos estos riesgos en nuestro ámbito particular pues vale, es un riesgo que sabemos (o debemos saber) que está ahí y lo asumimos, pero… ¿qué es lo que ocurre cuando, como se dan bastantes casos, se utilizan los ordenadores del trabajo para realizar este tipo de conexiones? Pues pasa que conscientemente o no estamos poniendo en un alto riesgo la seguridad de la empresa y de sus datos.
Ventajas al usar Peer to Peer
En una arquitectura de cliente-servidor, según se van añadiendo más clientes, la tasa de transferencia disminuye a niveles bajos. Esto ocurre porque los recursos en el servidor se ven consumidos debido al intenso tráfico. En las redes p2p, cada nodo o peer es el que provee de los recursos, como es el ancho de banda, el espacio de almacenamiento, etc. lo cual se traduce en velocidades de transferencia mayores.
Una red p2p es más robusta en el sentido de que si falla un nodo, los otros nodos no se ven afectados. Si el nodo que está transfiriendo datos de repente se detiene, el mismo contenido puede ser entregado por otros nodos sin tener que esperar a que se solucione el problema del primero. Esto contrasta con otras arquitecturas de red, donde el fallo en un nodo significa la caída de toda la red.
Usar un servidor central para indexar los nodos, pero NO almacenar datos, es una gran ventaja. Las transferencias son más rápidas y facilita encontrar varias fuentes de descarga.
La principal ventaja que presenta Peer to Peer es la creación de grandes bases de datos de manera gratuita, ya que todos los ordenadores conectados en línea pueden descargarse archivos de otros ordenadores también conectados. Con el aumento de la velocidad de conexión de Internet, propiciada por la instalación del ADSL, los programas de intercambio de archivos y la frecuencia de este tipo de operaciones aumenta de forma considerable. La calidad del ADSL es fundamental.
Conclusión
Internet es un conglomerado de ordenadores de diferente tipo, marca y sistema operativo, distribuidos por todo el mundo y unidos a través de enlaces de comunicaciones muy diversos. La gran variedad de ordenadores y sistemas de comunicaciones plantea numerosos problemas de entendimiento, que se resuelven con el empleo de sofisticados protocolos de comunicaciones. Gracias al internet la comunicación a nivel mundial es más eficaz y menos costosa es una de las maravillas del mundo que nos permite acceder a todo tipo de información y nos permite comunicarnos con el resto del mundo e intercambiar palabras con aquellos que están a cientos de kilómetros.
El P2P nos brinda la posibilidad de intercambiar material entre computadoras a través de Internet. Las redes P2P son actualmente el protocolo más utilizado por los usuarios de este tipo de actividad. Suele ser una de las más recomendables para compartir contenido, debido a la distribución de sus recursos, ya que como mencionamos, en ella cada una de las computadoras conectadas aportan ancho de banda y espacio de almacenamiento, lo que significa mayor velocidad de transferencia, además de la potente robustez que registra.
Bibliografía
http://es.wikipedia.org/wiki/Peer-to-peer
http://www.configurarequipos.com/doc986.html
http://www.microsoft.com/latam/athome/security/online/p2p_file_sharing.mspx
http://www.ordenadores-y-portatiles.com/p2p.html
Autor:
Zeusy Karina Álvarez De La Cruz
Materia: Fundamentos de la Tecnología de la Información.
Profesor (a): Juan Radhames Gómez Martínez.