Descargar

Tecnología de edición de paginas web (página 2)

Enviado por carlos mayor


Partes: 1, 2

4. Tecnologías futuras en Internet

Arquitectura computacional para sistemas de aprendizaje colaborativo. En este fin de siglo la emergencia de nuevas formas de comunicación y de tecnologías de información avanzadas, ofrecen excitantes oportunidades para desarrollar novedosas y variadas formas de enseñanza, aprendizaje y cooperación. Muchas universidades utilizan los ambientes basados en Internet como el soporte de las actividades de enseñanza-aprendizaje. El potencial que ofrecen las redes de computadoras – especialmente Internet y WWW en la educación, capacitación y entrenamiento, han estimulado la investigación en sistemas integrados de enseñanza-aprendizaje que, además de proporcionar material educativo multimedia, permitan clasificar, planificar, evaluar y orientar las actividades de los alumnos, para que estos aprendan eficientemente. Este es un campo de reciente creación, del cual se prevé un gran desarrollo en la próxima década. Dentro de este campo, existe una línea bien definida denominada aprendizaje colaborativo soportado por computadora (Computer-Supported Collaborative Learning) – dedicada a la creación de ambientes virtuales cooperativos y colaborativos para realizar a distancia y/o soportar las diversas actividades de enseñanza y aprendizaje que se realizan en las instituciones educativas aprendizaje colaborativo es especialmente útil en dominios complejos, en los que es difícil asimilar conocimiento de manera individual. "El Proyecto EVA consiste en el desarrollo e implantación de un ambiente computacional de aprendizaje, personalizado y colaborativo, mediante el cual, además de apoyar las distintas actividades académicas y administrativas que se realizan en el CIC, también se puedan ofrecer estas a distancia, tanto a estudiantes de otras instituciones como a empresas públicas y privadas" EVA es un nuevo paradigma de aprendizaje que considera las formas de adquirir, transmitir e intercambiar conocimiento entre personas y grupos de trabajo que normalmente no tienen acceso físico a las fuentes convencionales del saber: libros, revistas, escuelas, universidades, laboratorios, bibliotecas, buenos profesores, etc. EVA constituye una nueva concepción de la educación con ideas novedosas, la cual elimina la necesidad de que alumnos y profesores coincidan en el mismo espacio o tiempo y que utiliza tecnologías avanzadas de información como, por ejemplo: Agentes, Inteligencia Artificial, Groupware, Multimedios y Realidad Virtual. EVA permite al estudiante establecer su propia ruta y ritmo de aprendizaje, de acuerdo a sus intereses científicos y profesionales, a sus disponibilidades de tiempo y recursos, haciendo posible combinar sus requerimientos más inmediatos con sus objetivos de largo plazo. El propósito principal del trabajo en EVA es el aprendizaje de los alumnos participantes. La tarea se lleva a cabo en un ambiente de trabajo colaborativo, vía Internet. Los alumnos del grupo, el profesor responsable (monitor) y los asesores, interactúan de manera síncrona y asíncrona; pueden estar en lugares geográficos diferentes.

Arquitectura del sistema computacional de EVA. "El ambiente de EVA está formado por páginas HTML, programas Java (Applets y Servlets), un conjunto de sistemas multiagentes y una base de datos". El Sistema EVA se basa en la arquitectura clienteservidor. La información del Sistema EVA se almacena en una base de datos, la captura y consulta de información se realiza mediante páginas Web, lo que requiere que tanto en el cliente como en el servidor se manejen documentos Web. Existen tres tipos básicos de estos documentos:

  • Estáticos. La información de los documentos estáticos Web reside en la base de datos del servidor; una solicitud de un documento estático entrega siempre la misma respuesta.
  • Dinámicos. Los documentos Web dinámicos no existen en una forma predeterminada, sino que son creados por el servidor cuando son solicitados por algún cliente. Al llegar una solicitud, el servidor ejecuta un programa de aplicación que crea el documento dinámico, el cual se devuelve como respuesta al cliente que lo solicitó. Dado que se crea un documento nuevo con cada solicitud, el contenido de un documento dinámico puede variar entre una y otra consulta.
  • Activos. Los documentos activos se generan mediante un programa que se ejecuta en el cliente. Cuando un cliente solicita un documento activo, el servidor regresa una copia de un programa que se ejecuta localmente y genera la respuesta. Con ello el programa del documento activo puede interactuar con el usuario y cambiar continuamente la presentación de la información.

Para crear el ambiente, en donde el EVAnauta tiene una serie de servicios a su disposición. Los cuales son creados utilizando páginas Web mediante documentos dinámicos. Existen varias técnicas para crear éstos, las más usadas para interactuar con bases de datos son dos por mediante programas que se ejecutan en el servidor. Los programas más utilizados son dos, el primero se conoce como CGI (Common Gateway Interface), los cuáles se escriben en diferentes lenguajes como: C, C++, Perl entre otros y el segundo se denomina servlet. Para el manejo de la base de datos en EVA se eligieron los servlets, por las ventajas que tienen en relación con los CGIs. Estas ventajas son las siguientes:

  • Se programan en Java y se benefician de las ventajas de este lenguaje.
  • Pueden operar en diferentes plataformas sin necesidad de recompilarse; los CGIs no son multiplataformas, sí es necesario correrlos en otra plataforma será necesario recompilar su código fuente para la plataforma específica.
  • Consumen menos recursos que los CGIs; los servlets sólo requieren cargarse una vez, mientras que los CGIs requieren cargarse tantas veces como peticiones de ejecución existan.

Dado que los servlets se programan en Java, que es un lenguaje orientado a objetos, la estructura de los programas es más clara que los programas de los CGIs, que emplean programas no orientados a objetos. Para la operación del RDBMS se emplea el controlador ODBC. El controlador ODBC fue desarrollado por Microsoft y es una interfaz de comunicación común para los clientes de bases de datos. Es importante destacar que los servlets pueden interactuar con cualquier manejador de base de datos, y solo es necesario un driver para esto. Para cada petición del cliente se opera un servlet instalado en el Servidor JWS, el cual se comunica con la base de datos mediante el lenguaje SQL (Structured Query Language) y genera la respuesta en una página en el navegador del cliente. Los resultados de la consulta de la base de datos se muestran al cliente en una página Web generada como resultado de la ejecución de un servlet. Cuando se solicita una consulta, el Servidor Web del cliente envía los datos de la consulta y mediante el mecanismo de comunicación antes mencionado, se obtiene los resultados almacenados en la base de datos; con esto el servlet genera una página HTML con la respuesta a la consulta del cliente. En en algunos procesos encontramos tres tipos de servlets: de lectura, escritura y de lectura-escritura, donde el cliente emplea una página HTML para enviar los datos de la consulta y recibe como respuesta una página HTML. El manejo de los documentos dinámicos permite la generación del ambiente.

Comercio electrónico. Con la aparición de la Internet, los costos de hacer que negocio sea conocido globalmente, se han reducido dramáticamente. Esto significa que es posible promover un negocio en la Internet con un mínimo de presupuesto. Los costos se han reducido pero las oportunidades se han expandido. Ahora es posible: Promover un sitio sin las limitaciones del mercadeo tradicional Enviar correo directo a un costo casi cero. Vender un producto 24 horas día, 7 días a la semana la Internet no tiene limite de tiempo. Todo esto se ha hecho posible para cualquier negocio con cualquier presupuesto. Lo que se necesita hacer es invertir un presupuesto sabiamente simplemente no gastando mucho dinero de publicidad en áreas que están destinadas a fallar. Hay que ser productivo con tus actividades de promoción. Se pude presentar un mensaje promocional en muchas áreas de la Internet y todavía mantener la "Netiqueta". "Netiqueta" es el código de ética en la Internet cuando se está promocionando debemos tener presente estas reglas, o esto puede terminar dañando la credibilidad.

Foros de discusión. Estas son áreas en la Internet puestas por compañías para que la gente mantenga discusiones en línea de temas relevantes. Hay miles de estos foros en la Internet – desafortunadamente, muchos de estos foros tienen muy poco trafico resultando en simple perdida de tiempo. Sin embargo, hay foros muy buenos en la Internet que tocan temas relacionados a un negocio que pueden traer gran cantidad de visitantes a nuestro sitio. Netiqueta: ¿Cómo es posible promover un sitio si cada uno de estos Foros firmemente establece "No Sé Acepta Publicidad? Simplemente: Hay que ser relevante. Lo que se quiere dar a entender con esto es que no hagamos una entrada simple en las discusiones diciéndole a todos que bueno es nuestro producto y luego nos retiramos de dicho foro de discusión. Necesitamos adoptar una actitud delicada, refinada y perceptiva (tomara un poco mas de tiempo, pero la reputación no solo permanecerá intacta sino que nos daremos a conocer como experto en el tema). Debemos leer los mensajes y preguntas por unos días antes de querer entrar en las discusiones, de esta manera tomaremos idea de como se manejan las discusiones en el foro y si en realidad se tocan temas de interés para promover nuestro negocio. Cuando se toque un tema relacionado al negocio, entonces es hora de integrarse al tema. Contestemos cualquier pregunta de forma clara y verídica de manera que demostremos conocimiento del tema y, lo más importante, siempre poner un "Archivo de Firma" al final.

Sistemas de videoconferencia. Al sistema que nos permite llevar a cabo el encuentro de varias personas ubicadas en sitios distantes, y establecer una conversación como lo harían si todas se encontraran reunidas en una sala de juntas se le llama sistema de "videoconferencia". El término "videoconferencia" ha sido utilizado en los Estados Unidos para describir la transmisión de video en una sola dirección usualmente mediante satélites y con una respuesta en audio a través de líneas telefónicas para proveer una liga interactiva con la organización. En Europa la palabra teleconferencia se refiere específicamente a las conferencias o llamadas telefónicas, y la palabra "videoconferencia" es usada para describir la comunicación en dos sentidos de audio y video. Esta comunicación en dos sentidos de señales de audio y de video es lo que nosotros llamaremos "videoconferencia".

La videoconferencia puede ser dividida en dos áreas: Videoconferencia Grupal o Videoconferencia sala a sala con comunicación de video comprimido a velocidades desde 64 Kbps (E0, un canal de voz) hasta 2.048 mbps (E1, 30 canales de voz) y videotelefonía, la cual está asociada con la Red Digital de Servicios Integrados mejor conocida por las siglas "ISDN" operando a velocidades de 64 y 128 Kbps. Esta forma de videoconferencia esta asociada a la comunicación personal o videoconferencia escritorio a escritorio. Durante el desarrollo de éste y los siguientes capítulos, se utilizará el término videoconferencia haciendo referencia al modo grupal o sala a sala.

Aplicaciones de la videoconferencia. La baja sustancial registrada en los equipos de videoconferencia, así como también el abaratamiento y disponibilidad de los servicios de comunicación han hecho que la industria de videoconferencia sea la de mayor crecimiento en el mercado de teleconferencias. Con las videoconferencias, una reunión crítica toma sólo unos cuantos minutos en organizar. Además previenen errores y están siempre disponibles. Gracias a ellas, la información está siempre fresca, exacta y a tiempo. Cancelar una reunión importante, adelantarla o aplazarla es muy fácil, eliminándose de esta manera los problemas que esto podría traer al tener que cancelar compra de pasajes a última hora, o reservar vuelos anteriores, etc. Actualmente la mayoría de compañías innovadoras del primer mundo utilizan las videoconferencias para:

  • Juntas de directorio.
  • Servicio al cliente.
  • Educación a distancia.
  • Desarrollo de ingeniería.
  • Diagnósticos médicos.
  • Contratación / entrevistas.
  • Adiestramiento / capacitación.
  • Acortar los ciclos de desarrollo de sus productos.
  • Comunicarse con sus proveedores y socios.

Elementos básicos de un sistema de videoconferencia. Para fines de estudio y de diseño los sistemas de videoconferencia suelen subdividirse en tres elementos básicos que son: La red de comunicaciones, La sala de videoconferencia y El codec. A su vez la sala de videoconferencia se subdivide en cuatro componentes esenciales: el ambiente físico, el sistema de video, el sistema de audio y el sistema de control. A continuación se describe brevemente cada uno de los elementos básicos de que consta un sistema de videoconferencia. La red de comunicaciones. Para poder realizar cualquier tipo de comunicación es necesario contar primero con un medio que transporte la información del transmisor al receptor y viceversa o paralelamente (en dos direcciones). En los sistemas de videoconferencia se requiere que este medio proporcione una conexión digital bidireccional y de alta velocidad entre los dos puntos a conectar. Las razones por las cuales se requiere que esta conexión sea digital, bidireccional y de alta velocidad se comprenderán más adelante al adentrarnos en el estudio del procesamiento de las señales de audio y video. El número de posibilidades que existen de redes de comunicación es grande, pero se debe señalar que la opción particular depende enteramente de los requerimientos del usuario. Es importante hacer notar que, como se observa en la figura 1 el círculo que representa al CODEC no toca al que representa a la red, de hecho existe una barrera que los separa la que podemos denominarle como una interfase de comunicación, esto es para representar el hecho de que la mayoría de los proveedores de redes de comunicación solamente permiten conectar directamente equipo aprobado y hasta hace poco la mayoría de los fabricantes de CODECs no incluían interfaces aprobadas en sus equipos.

El codec Las señales de audio y video que se desean transmitir se encuentran por lo general en forma de señales analógicas, por lo que para poder transmitir esta información a través de una red digital. Esta debe de ser transformada mediante algún método a una señal digital, una vez realizado esto se debe de comprimir y multiplexar estas señales para su transmisión. El dispositivo que se encarga de este trabajo es el CODEC (Codificador/Decodificador) que en el otro extremo de la red realiza el trabajo inverso para poder desplegar y reproducir los datos provenientes desde el punto remoto. Existen en el mercado equipos modulares que junto con el CODEC, incluyen los equipos de video, de audio y de control, así como también equipos periféricos como pueden ser:

  • Tabla de anotaciones.
  • Convertidor de gráficos informáticos.
  • Cámara para documentos.
  • Proyector de video-diapositivas.
  • PC.
  • Videograbadora.
  • Pizarrón electrónico, etc.

Estándares e interoperabilidad de los sistemas de videoconferencia. El mercado estuvo restringido por muchos años porque las unidades de fax manufacturadas por diferentes vendedores no eran compatibles. Es claro que la explosión que ahora experimentamos esta directamente relacionada al estándar desarrollado por el grupo 3 del Comité Consultivo Internacional para la Telefonía y Telegrafía (CCITT), el cual hace posible que las unidades de fax de diferentes fabricantes sean compatibles. Algo similar ocurrió con la videoconferencia-videoteléfono. El mercado de la videoconferencia punto a punto estuvo restringido por la falta de compatibilidad hasta que surgió la recomendación de CCITT H.261 en 1990, con lo que el mercado de la videoconferencia ha crecido enormemente. Hay otros tres factores que han influido en este crecimiento, el primero es el descubrimiento de la tecnología de videocompresión, a partir de la cual, el estándar está basado. Mediante la combinación de las técnicas de la codificación predictiva, la transformada discreta del coseno (DCT), compensación de movimiento y la codificación de longitud variable, el estándar hace posible el transmitir imágenes de TV de calidad aceptable con bajos requerimientos de ancho de banda, anchos de banda que se han reducido lo bastante para lograr comunicaciones de bajo costo sobre redes digitales conmutadas. El segundo factor que ha influido es el desarrollo de la tecnología VLSI (Very Large System Integration), la cual redujo los costos de los codecs de video. Ahora en el mercado se encuentran chips mediante los cuales se pueden implantar las tecnologías DCT y de compensación de movimiento, partes del estándar. El tercer factor es el desarrollo de ISDN (Integrated Services Data Network; Red Digital de Servicios Integrados), la cual promete proveer de servicios de comunicaciones digitales conmutados de bajo costo. El acceso básico de ISDN consiste de dos canales full dúplex de 64 Kbps denominados canales B y un canal también full dúplex de 16 Kbps denominado D.

Historia del VRML (VIRTUAL REALITY MARKUP LANGUAGE). El VRML es un lenguaje computacional. Aunque presenta similitudes con otros lenguajes de cómputo como BASIC o "C", el VRML ha sido diseñado en forma específica para manejar gráficas computacionales. El VRML contiene varias características integradas que facilitan la creación de modelos detallados El lenguaje de VRML es la razón más importante por lo que este programa es ahora un poderoso lenguaje gráfico. El VRML es la adaptación de un lenguaje desarrollado en la compañía Silicon Graphics. El predecesor del VRML fue Open Inventor, un sistema desarrollado con el fin de crear un lenguaje gráfico con múltiples capacidades. El sistema VRML pasa por un análisis sintáctico antes de ser desplegado en pantalla. La descripción de escenas es un proceso estático, pues los elementos no cambian cuando el archivo VRML se carga. De hecho, es posible cambiar el punto de vista, pero no la escena misma.

Los estándares del VRML. Se puede definir la realidad virtual como un espacio en tres dimensiones (3D), creado con el ordenador y en donde los objetos son interactivos. Es decir, no se trata de una mera representación gráfica tridimensional estática, sino más bien de un escenario, donde el usuario puede adentrarse, rodear los objetos y examinarlos, cambiar la perspectiva e incluso interactuar con otros usuarios, representados bajo la forma de avatares. Esta tecnología es cada vez más accesible para el usuario medio, debido a que los equipos a su alcance son cada vez más potentes y a que por fin se está desarrollando un completo estándar oficial de su lenguaje de programación. Este lenguaje se llama VRML (Virtual Reality Modeling Language: lenguaje de modelación de la realidad virtual). Aunque su nombre es similar al del HTML (Hyper Text Markup Language: lenguaje de marcado del hipertexto), la clave de la diferencia entre ambos está en el cambio de la palabra "marcado" por "modelado". La palabra modelado hace referencia al carácter gráfico, y por lo tanto, bastante más complejo, de este lenguaje. Mientras que en el caso del HTML simplemente se "marca" o "etiqueta" el texto para formatearlo, en el caso del VRML se requiere una mayor planificación, así como una cierta habilidad para la programación.

Como funciona el VRLM. Para entender el funcionamiento de un visualizador VRML, sería recomendable contar con ciertos datos sobre la operación de los archivos VRML y el manejo del Web en general. El Word Wide Web se basa en dos componentes medulares: los visualizadores y los servidores. Estos elementos son piezas fundamentales del conjunto completo. Los visualizadores solicitan información contenida en los servidores, con base a las acciones que toma el usuario (cuando la persona hace clic sobre un enlace algún documento Web, por ejemplo). Esto genera una petición que se envía al servidor correspondiente. El servidor recibe la solicitud, la interpreta y la trata de proporcionar el material requerido mediante un documento que corresponde a la petición realizada por el visualizador. Cuando la respuesta se transmite, el servidor también envía alguna información adicional en el documento transferido. Esta información se denomina tipo de contenido y permite que el visualizador conozca la clase de datos que recibe. "De hecho, este factor es muy importante, pues sin él los visualizadores Web no sabrían la diferencia entre un documento de texto y una imagen". Es indispensable que el visualizador sepa qué tipo de contenido maneja un documento para poder desplegarlo en forma adecuada. A menudo cuando un visualizador Web no logra desplegar el tipo de contenido que recibe de un servidor, pide instrucciones al usuario para procesar los datos de alguna manera. Es entonces cuando en Netscape le pedirá que elija una opción: cancelarlo, guardarlo en el disco o configurar una "aplicación de ayuda" para recibir los datos.  De hecho el único cambio necesario es casi insignificante: el usuario tiene que indicar al servidor Web la extensión (la terminación del archivo) de los documentos VRML (wrl) e incluir el tipo MIME (extensiones multimedia de correo Internet). Con estos datos, el servidor Web podrá detectar los documentos VRML e informar al visualizador que está apunto de transmitir un archivo VRML. Esa es la única modificación requerida para que un servidor Web transfiera material VRML y la razón por la cual el sistema VRML ha cobrado tanta popularidad, en especial entre los administradores Web.

Aquí vienen los visualizadores. Los tres visualizadores VRML existentes al momento de escribir estas líneas son: WebSpace de la firma TGS, WorldView de la compañía Internista y Qmosaic de Quarterdeck, aunque cada uno opera de manera diferente. "El movimiento en los mundos (la navegación) se implementa por medio de metáforas disímiles en los visualizadores, donde cada caso representa el ejemplo de un programa de ayuda, una aplicación aislada y una aplicación integrada, respectivamente. La explicación de los visualizadores debe empezar con el historial y el análisis de la interfaz relacionada, al tiempo que se observa un modelo VRML muy simple. A partir de su punto, el proceso se hace más complejo, lo cual le permitirá observar una verdadera localidad en el espacio cibernético, a fin de obtener la sensación que cada proceso representa. Hoy día, los visualizadores mencionados en este libro aún se encuentran en etapa de desarrollo y alguna de las características que manejan podrían funcionar de distinta manera en contextos diferentes."

Ejemplos de aplicaciones reales del VRLM. He aquí algunos ejemplos de las posibles aplicaciones de este lenguaje:

  • Arquitectura: Representaciones tridimensionales de proyectos, que se pueden recorrer libremente.
  • Decoración: El usuario puede escoger entre distintas posibilidades.
  • Consumo: Se pueden dar las instrucciones de montaje de un kit en tres dimensiones.
  • Ciencia: Representaciones tridimensionales de diversos fenómenos.
  • Turismo: Se pueden visitar una serie de ciudades de manera virtual.

Aunque el lenguaje HTML (para la creación de páginas Web) y el VRML son completamente distintos, es posible integrar un escenario de VRML dentro de una página Web, como si fuera otro elemento más de ella.

5. Seguridad en Internet

Seguridad en el Web. Seguridad en Web tiene distintos significados dependiendo del punto de vista que se tome. Para algunos significa poder observar la Web en paz, sabiendo que nadie esta husmeando lo que se está viendo. Para otros significa ejecutar en forma segura transacciones financieras. Para los operadores del Web significa la confianza de que sus sitios no serán invadidos por delincuentes o usados como una entrada para colapsar una red de área local. En la actualidad la seguridad en Web, es muy simple y muy compleja a la vez. Simple por que es muy fácil quebrar la Web en partes y descubrir donde residen los problemas. Difícil por que no existen soluciones simples o mágicas que hagan a la Web segura.

 Las tres partes de la seguridad en Web La conexión en Web se compone de tres partes:

  1. El browser
  2. El servidor
  3. La conexión entre los dos.

La seguridad considera los siguientes supuestos: Desde el punto de vista del usuario: El servidor es administrado por una organización que se supone que es la dueña de este. El documento que retorna el servidor se encuentra libre de virus malicioso. El servidor remoto no grabará y distribuirá información del usuario que este considere privada.

Desde el punto del administrador del servidor: El usuario no irrumpirá el servidor y alterará su contenido. El usuario no ganará acceso a documentos no permitidos a él. El usuario no acaparará el servidor inhabilitando al resto de las personas. Si el usuario se identifica, que efectivamente corresponda a él.

Desde el punto de vista de ambos: La conexión de red se encuentra libre terceras persona que están escuchando la comunicación. La información que se envía entre el browser y el servidor se mantiene intacta, libre de la corrupción que le puedan hacer terceras personas. El propósito de la seguridad en Web es asegurar que estas suposiciones sean válidas. Seguridad por parte del cliente Proteger la privacidad del usuario y la integridad de su computador. Soluciones tecnológicas incluyen "guardaespaldas" que protegen al computador de los virus, programas maliciosos, y limitan la transmisión de información desde el browser sin la autorización del usuario.

Seguridad por parte del servidor Proteger al servidor de entradas sin autorización, vandalismo, y ataques que lo dejen fuera de servicio. Las soluciones tecnológicas abarcan desde sistemas de firewalls (cortafuegos) hasta sistemas de seguridad de sistema operativo.

Confidencialidad de documentos Proteger información privada para que no sea divulgada por terceras personas. La principal solución es la Criptografía, y otras como el uso de passwords.

Formas de entrada de atacantes de un sitio. Riesgos o formas de entrada de atacantes. Existen diversos riesgos, algunos afectan al usuario, otros al administrador del sitio y muchas veces a ambos al mismo tiempo. Esto es debido a que los "intrusos" dañan a cualquiera, por lo tanto la encriptación le interesa tanto al usuario como al administrador.

De hecho la seguridad por parte del cliente y por parte del servidor usualmente se traslapan complicadamente.

Riesgos que afectan al cliente y al servidor. Si dos computadores se encuentran en lugares físicos distintos, la información viaja a través de muchos sitios intermediarios antes de llegar a su destino final. Un mensaje desde el browser puede viajar a través de la línea telefónica hasta el proveedor de servicios de Internet ISP, luego a través de una línea dedicada hasta el proveedor regional de ISP o RSP, y desde ahí transferido rápidamente al servidor de destino en alguna otra parte del mundo. En cualquier parte de este camino el mensaje puede ser interceptado por algún intruso. Pequeños programas llamados "rastreadores de paquetes" (packet sniffers) son enviados para escuchar o husmear el tráfico en la red, mirando ciertos elementos interesantes como passwords o números de tarjetas de crédito. Este programa puede ser instalado en cualquier nodo perteneciente al camino que recorre el mensaje. Para ello el individuo inescrupuloso debe irrumpir algún ISP o algún computador de la LAN o el mismo servidor Web. Los pequeños ISP son más vulnerables y por lo tanto son un objetivo común para los delincuentes. Los "rastreadores de paquetes" pueden escuchar cualquier tráfico que esté circulando:

  • URL requerido
  • Documento retornado por el servidor
  • Passwords
  • Formularios llenados por el usuario

Más aún, un individuo puede alterar el contenido escuchado. Estos dañinos programas pueden residir en un servidor por varios días sin que sé de cuenta el administrador. La nueva generación de cable módem incrementa el riesgo del "rastreador de paquetes ", ya que estos comparten los paquetes enviados en una vecindad servida por un cable. La defensa contra estos programas es la Criptografía. Esto es encriptar o codificar todo lo que se transmite entre el browser y el servidor. Cuándo un usuario se conecta al sitio Web de su banco, ¿cómo puede saber él que el sitio conectado pertenece efectivamente al banco?, y en sentido contrario ¿cómo puede saber el banco que el cliente que se conectó corresponde efectivamente a un cliente legítimo?. Para ello debe existir un mecanismo de autentificación de individuos y organizaciones. Las misma técnicas de encriptación son utilizadas para resolver este problema. Se crean "firmas digitales" y "certificados" para autentificar usuarios y servidores respectivamente.

Riesgos que afectan sólo a clientes. Actualmente las páginas Web contienen una colección de tecnologías que las hacen más interesantes e interactivas. Los Java Applets, controles de ActiveX, plugs-in, Javascripts etc. son ejemplos de estas tecnologías. Pero estos contenidos activos, pueden contener problemas de seguridad que comprometer la privacidad del usuario y la integridad de los datos almacenados en su computador. Este problema es más bien potencial que real. Una variedad de "applets maliciosos" se han demostrado, pero muy pocos ataques se han denunciado. Por ejemplo existen "applets molestosos" que hacen congelar y caer al browser.

Infringir la privacidad Cada vez que se trae una página de un sitio remoto, se libera en el servidor una tarjeta de llamado, que puede ser la dirección de Internet del usuario, o información personal. Los sitios Web pueden extraer información del usuario de diversas maneras. La más básica es el log del servidor, el cual corresponde a la hora y fecha de conexión, otra es la dirección del usuario, la identidad del documento requerido, y el URL del documento solicitado previamente. Otra información esta disponible en los ISP donde los servidores proxy guardan cada servidor visitado por sus clientes. Otra manera en que los sitios Web recolectan información es a través de los "cookies". Los "cookies" son diseñados para mejorar la navegación por la Web, ya sea customizando las páginas, acceso a bases de datos, recorrer mapas complejos y otras operaciones que requieren mantener continuidad a lo largo de la navegación. Lo que debe preocupar más es cuando el usuario entrega información voluntariamente, e-mails, news, formularios etc.

Riesgos que afectan solo a servidores. Existe la posibilidad que un sitio de una organización sea irrumpido y modificado por delincuentes, los cuales explotan alguna debilidad tal como un sistema operativo o un servidor Web mal configurado. Otra fuente de problemas de seguridad son los scripts de CGI. Los CGI corresponden a interfaces de motores de búsqueda y de bases de datos. Estos programas son muy usados y muy simples de construir, y por lo tanto son hechos por programadores sin experiencia en temas de seguridad. Muchos delincuentes irrumpen servidores Web con diversos objetivos: atacar las bases de datos, sistemas de archivos, y otros sistemas de misión critica. Siempre el servidor provee una "puerta" para los intrusos. El problema de los servidores Web es que son sistemas complejos con una presión constante al crecimiento, y cualquier error que se cometa es una "puerta" para intrusos. La tecnología que hace un servidor protegido es el uso de cortafuegos (firewalls). Inhabilitación del Servidor. Los intrusos pueden dejar el servidor fuera de servicio. Estos ataques se hacen al sistema operativo, software de Web y CGI's. No existe una fórmula para evitar este riesgo, simplemente se puede disminuir el daño poniendo límites a los recursos del servidor y de otros programas, cerrando las vulnerabilidades conocidas del sistema operativo y otro software.

Seguridad en el servidor. Si el servidor está conectado a Internet o si está restringido a una Intranet, tendrá un incremento de visibilidad que puede tener un efecto lateral indeseable: ser un objetivo natural para atacar. Existen varios problemas que abren hoyos en la seguridad en los sitios Web. A continuación se muestran los "8 pecados mortales" de seguridad en los sitios Web: Un software seguro es aquel que hace lo que se supone que hace y nada más. Sin embargo, casi todos los softwares tienen bugs; la mayoría son errores de programación inadvertidos, pero algunos son "back doors" (código deliberadamente ubicado en el programa por el desarrollador del software para ayudar al debugging, que luego olvidan quitar). Los bugs son más frecuentes mientras más grande y complejo es el programa. Cuando ocurre un bug en un programa de aplicación, las consecuencias son molestas: el programa se cae, los documentos quedan corruptos, etc. Cuando un bug ocurre en un programa que actúa en un servidor en red, puede llegar a comprometer al servidor. Bugs típicos de softwares de servidor aparecen cuando el servidor se expone a una situación no anticipada por los desarrolladores, o cuando subsistemas del software interactúan inesperadamente. Los hackers están constantemente buscando bugs en los softwares de servidor ya que cada bug representa un potencial portal de entrada. Ya sea alimentando el input del servidor o manipulando el ambiente del servidor en una manera controlada, el hacker puede engañarlo para que desempeñe una acción determinada o conseguir acceso a alguna parte del sistema. Los softwares contienen bugs relacionados con la seguridad debido a la complejidad de los servidores modernos y a la competencia entre los vendedores, que sacan rápidamente nuevas versiones, grandes, complejas y poco testeadas. Además, los bugs en cualquier sistema que interactúe con el servidor (bases de datos, scripts de CGI, módulos API de servidor) pueden abrir hoyos en la seguridad.

Configuración incorrecta del software de sistema. Un sitio Web no será seguro a menos que el servidor y el sistema operativo subyacente estén configurados correctamente. La mayoría de los sistemas transportan datos en modo permisivo; servicios de red populares se activan por defecto, se habilitan facilidades de configuración remota, y la política de acceso a los archivos del sistema es muy liberal. Ejecutar un servidor de red sin saber sobre él es la mayor vulnerabilidad. Otra vulnerabilidad son las cuentas de usuario creadas por defecto que algunos sistemas operativos crean como una conveniencia de instalación, pero que no las borran cuando ya no las necesitan. La configuración por defecto de Windows NT Workstation es particularmente promiscua, aunque la versión de servidor no lo es tanto. Muchos dialectos de UNIX vienen con todo activado, y cuesta lograr un sistema que haga sólo lo que se necesita y nada más. Los permisos de archivo desconfigurados son un gran problema. Sistemas operativos multiusuario (UNIX y Windows NT incluidos) usan privilegios de cuenta como su mecanismo de seguridad fundamental. Cada usuario tiene registrada una cuenta y cada cuenta es asociada a un diferente set de privilegios. Estos mecanismos dan a usuarios confiables, tales como administradores de sistemas, la habilidad de hacer los ajustes necesarios en la configuración del sistema mientras previene que otros hagan cambios no autorizados. Si un usuario malicioso ve que un archivo de configuración puede ser manipulado, podría modificar el sistema y posiblemente expandir su acceso a este. Como los usuarios, servidores de red y otros programas también tienen distintos privilegios. En teoría un servidor debería tener sólo los privilegios que necesita para hacer su trabajo; en la práctica, muchos sitios dan a sus servidores mucho más amplio acceso al sistema que el que necesitan. Cuando este es el caso, el servidor se vuelve un tentador objetivo para atacar. Los hackers de sistemas buscarán explotar hoyos en la seguridad del software del servidor para ejecutar comandos de su elección. Cuando son exitosos, los comandos se ejecutarán con privilegios de servidor, permitiendo acceso a información confidencial.

No tener una política de seguridad. Sin una política de seguridad no se puede saber si un sitio es seguro. Esta política debiera estar escrita, con una lista de lo que es o no permitido; debe reflejar la realidad política de la organización y cualquier trade-off entre riesgo y conveniencia que se podría aceptar. Su importancia radica en que da algo concreto para diseñar y evaluar las medidas de seguridad. También sirve para evaluar cambios propuestos al sistema.

¿Qué sistema operativo es más seguro? El Macintosh OS es él más seguro, debido a que no tiene un intérprete de comandos, y en general no ejecuta ningún servicio de red. Es más probable que un Macintosh se caiga a que deje entrar a alguien. En Febrero de 1996, un consorcio de compañías desarrolladoras de software Internet para Macintosh, ofreció un premio a quien pudiera leer una página Web protegida con password en un Macintosh corriendo WebStar. Luego de miles de intentos, nadie pudo lograrlo. La principal razón por la cual Macintosh es seguro es porque sus capacidades por defecto son limitadas. Al agregarle servicios especiales (CGI scripts, servidor FTP, etc.) rápidamente se vuelve más riesgoso (de hecho, en un concurso similar al descrito se logró hackear el sistema gracias a una extensión third-party para administración remota de servicios). Además Macintosh no es inmune a ataques de inhabilitación de servicio. Si bien Unix y Windows NT han tenido problemas de seguridad, ambos sistemas operativos son razonablemente seguros si se configuran correctamente. Finalmente, la experiencia de la gente que ejecuta el host y los softwares de los servidores es el aspecto más importante en la seguridad del sistema. El sistema más seguro es con el que se sienten más confortables y con el cual tienen mayor experiencia.

¿Son los servidores "seguros" realmente seguros? Servidores "seguros" simplemente son aquellos que pueden proteger documentos en tránsito con encriptación. Desde un punto de vista más amplio, los servidores seguros son tan vulnerables a los hackers como cualquier otro. El servidor más seguro es el más simple. Servidores Web que sólo recuperan páginas HTML estáticas tienen menos bugs que aquellos más elegantes. El servidor WN de John Frank para sistemas UNIX tiene fama de seguro y confiable; sin embargo, no corre CGI scripts, ni incluye oferta del lado del servidor, ni permite Java servelets, ni soporta esquemas de autentificación sofisticados. Por tanto, es impropio para muchos sitios. Pocos servidores son diseñados específicamente para aplicaciones de alta seguridad. El servidor VirtualVault de la Hewlett Packard es un sistema turnkey que consiste en un Netscape Commerce Server corriendo sobre una sistema operativo HP-UX bastante modificado. Este sistema operativo divide el sistema en un área "interna" confiable (bases de datos, scripts de CGI privilegiados, y otra información delicada) y otra zona "exterior" no confiable, donde ejecutan los servidores Web. Todas las comunicaciones entre ambas zonas están duramente reguladas y analizadas.

¿Un sistema de firewall hará a un servidor web seguro? Un sistema de firewall es sólo un componente más de una estrategia de seguridad integrada. Si el servidor está bien configurado, no se necesita en absoluto un sistema de firewall. Si no se tiene una política de seguridad ni una estrategia de implementación bien pensadas, el firewall puede empeorar la situación dando una falsa sensación de seguridad. No se puede evitar que los usuarios desplieguen el documento HTML, bajen el código fuente y hagan con él lo que quieran. No se debe implementar un sistema de seguridad basado en información escondida dentro del documento HTML. El código fuente de los scripts de CGI, en cambio, no se transmite al browser remoto, sólo el resultado. Lo mismo se aplica para los includes del lado del servidor (como las "active server pages" de Microsoft). Sólo el HTML producido después de un script de CGI o los include del lado del servidor se procesan y se obtienen a través de la red.

Pasos para asegurar un sitio web. Asegurar el sistema operativo y el servidor Web. Hacer el sistema operativo tan seguro como sea posible, instalando los parches de los vendedores relacionados con seguridad, remover servicios innecesarios, y fijar las configuraciones por defecto para hacerlas menos permisivas ("endurecimiento"). Cuando el sistema operativo es seguro, se puede instalar el software del servidor. Monitorear el servidor por actividad sospechosa. No todos los ataques son obvios, por ello se debe monitorear la actividad sospechosa del servidor. Controlar el acceso a documentos confidenciales. No todas las partes del servidor Web son públicas. Muchos sitios tienen áreas privadas que sólo los usuarios registrados pueden visitar. En Intranets es deseable que el sitio entero sea accesible sólo por invitación. Servidores con SSL protegen información confidencial, encriptando documentos Web que pasan por la red, y usando certificados de clientes para autentificación de usuario confiable. Escribir scripts de CGI seguros. Aún si el servidor, el sistema operativo y todos los programas que soporta son seguros, los scripts de CGI o módulos de servidor que se instalen pueden dejar al sitio abierto a un ataque. Configurar las facilidades de autoría y administración remotas. Proteger la LAN contra el servidor Web. Antes de conectar el servidor Web a Internet, debe asegurarse que no puede ser usado como trampolín para atacar otras máquinas de misión crítica dentro de la organización. Lo mismo se aplica para organizaciones grandes donde un departamento no confía en otro. A menudo esto se logra endureciendo cuidadosamente el servidor y removiendo relaciones confiables entre unos y otros miembros de la LAN. A veces es necesario ir más allá y levantar un muro entre al LAN y el servidor. Mantenerse al día en problemas de seguridad. Hoyos en la seguridad se descubren todos los días. Se debe chequear periódicamente los sitios Web de los vendedores y fabricantes del sistema operativo y de software third-party que se han instalado. Si hay un parche de seguridad, se debe usar tan pronto como sea posible.

6. Conclusión.

Las tecnologías han avanzado tanto en nuestros días que nos es muy difícil imaginarnos a nosotros mismos sin ellas, ya que forman parte de nuestra vida cotidiana, las tecnologías de Internet no son la excepción, convivimos con ella diariamente ya sin darnos cuenta es lógico pensar que los maestros no pueden ser reemplazados, a pesar de esto, los niños deberán aprender a usar la tecnología como parte de su educación. La tecnología de información ofrece un gran potencial, pero para aprovechar los beneficios, las instituciones tendrán que transformarse de muchas maneras. Las computadoras pueden dar educación personalizada y sin horarios. El estudiante puede escoger el ritmo de estudio que más le acomode y sin importar su situación geográfica. La tecnología no puede enseñar al estudiante, mas bien deberá convertirse en una herramienta para accesar el conocimiento. Esto llevará a la educación en un proceso de aprendizaje mas que de enseñanza. Las escuelas representan una gran oportunidad para los vendedores, es por eso que los vendedores son los más empeñados en promover la educación usando tecnologías de computación. Existe el peligro de confundir innovación tecnológica en las escuelas. Debe tenerse cuidado y estudiar los materiales tecnológicos que la escuela necesita realmente. Ahora podemos hacer mas cosas y obtener mas información en menos tiempo. La tecnología de información puede hacer que la gente sea poderosa, se junte, forme alianzas y comunidades que la fortalezcan. El hombre puede ser libre con la información y tomar mejores oportunidades. La combinación hombre-información será la clave de éxito de aquí en adelante. El hombre y la industria ya no tendrá valor por sus riquezas, si no por la información que tiene a su disposición. En la época presente todos los aspectos de la cultura están tan vinculados con la tecnología que es ésta la que ha de determinar el futuro de la humanidad como nunca antes lo hizo. Otros dicen que dicha postura es unilateral y demasiado simplista. Sin embargo, ciertamente los avances tecnológicos establecieron normas y hábitos, introduciéndose en todos los aspectos de nuestra vida, y afectando nuestra manera de pensar la realidad.

7. Glosario

  • Aplicación:Aunque se suele utilizar indistintamente como sinónimo genérico de 'programa' es necesario subrayar que se trata de un tipo de programa específicamente dedicado al proceso de una función concreta dentro de la empresa.
  • Archie: Localizador de información en 'Internet'. 'Archie' permite localizar archivos e indicar cuál o cuales son los servidores de FTP anónimo que los tienen almacenados. Una vez conocido el nombre del servidor FTP, se podrán conseguir los archivos haciendo un FTP al servidor indicado. Su limitación radica en su criterio de búsqueda, limitado al nombre del archivo no pudiendo extenderse a su descripción.
  • ARCNET: Sistema de Red de área local (LAN) desarrollada por Datapoint. Utiliza las técnicas de pasa fichas ("token") pero no es una anillo ("ring") sino que sigue la topología física de estrella y permite un máximo de 256 nodos en la red. Datapoint licenció la tecnología ARCNET para la Tandy Corporation, Davon (fuera del mercado actualmente), Novell y Standard Microsystems. Es una de las redes locales más baratas actualmente. Su velocidad máxima actual es de 2.5 Mbps.
  • ASCII: American Standard Code for Information Interchange; Código de caracteres de siete bits estandarizado por ANSI y está designado como x3.4-1977 en donde 1977 es el año de la última revisión. ASCII también fue estandarizado por ISO y CCITT y es conocido internacionalmente como Alfabeto #5 Internacional de Telégrafos.
  • Capas: Se refiere a la organización por estratos jerárquicos de ciertos modelos de comunicación y sus protocolos. Cada capa o estrato se comunica exclusivamente con las capas vecinas. Lo que facilita su organización y estructuración modular. La capa más baja o capa FISICA, hace interfase con el "hardware" de la computadora. La capa de APLICACIÓN. Esta es la séptima (y más alta) capa del modelo OSI, que interactúa con los programas de aplicación o con un usuario.
  • Código De Caracteres: Es una manera estandarizada de referirse a los caracteres alfabéticos, numéricos, puntuación, control, etc… con patrones de bits binarios. Los códigos más populares son el Código ASCII y EBCDIC.
  • Dirección (Address): Un nombre, etiqueta, número o secuencia de bits que se usa para identificar: al receptor de un mensaje, a un dispositivo en particular en una línea multipunto, la trayectoria de una ruta, etc. Es un lugar único en la memoria, este también sirve para identificar un nodo en una red.
  • Domain Name: También conocido por su equivalencia castellano: 'Nombre de dominio' o simplemente 'Dominio'. Permite identificar un ordenador (o grupo de ellos) sin tener que recurrir a su dirección 'IP'. Los nombres de dominio tienen una férrea estructura jerárquica cuyo ejemplo más sencillo podría ser ctv.es desglosándose como sigue: ctv (nombre de empresa. (Separador) es (extensión de país, en este caso, España).
  • Dominio: Más conocido por su equivalencia inglesa: Domain Name (Nombre de dominio. Permite identificar un ordenador (o grupo de ellos) sin tener que recurrir a su dirección 'IP'. Los nombres de dominio tienen una férrea estructura jerárquica cuyo ejemplo más sencillo podría ser ctv.es desglosándose como sigue: ctv (nombre de empresa).(separador) es (extensión de país, en este caso, España).
  • E-Mail: En Internet se utiliza para intercambiar mensajes, programas fuentes, anuncios, artículos, etc. entre usuarios de la red. El programa que se utiliza para gestionar el correo es un "agente de usuario" cuya versión más conocida es el 'mail' de Unix aunque no sea el único.
  • Firewall: Un firewall es un sistema o un grupo de sistemas que decide que servicios pueden ser accesados desde el exterior (Internet, en este caso) de una red privada, por quienes pueden ser ejecutados estos servicios y también que servicios pueden correr los usuarios de la intranet hacia el exterior (Internet). Para realizar esta tarea todo él trafico entre las dos redes tiene que pasar a través de él. El firewall solo dejar pasar él trafico autorizado desde y hacia el exterior. No se puede confundir un firewall con un enrutador, un firewall no direcciona información (función que si realiza el enrutador), el firewall solamente filtra información.
  • HTML: Acrónimo de HyperText Markup Language (Lenguaje hipertexto de marcas) Una auténtica herramienta que permite desarrollar aplicaciones 'WWW'. Existen varias versiones siendo la primera de ellas la 1.0. La actualmente utilizada (tercer trimestre de 1995) es la 2.0 aunque la 3.0, denominada HTML+. 'HTML' pertenece al lenguaje 'SGML' Structured General Markup Language (Lenguaje general estructurado de marcas).
  • http: Acrónimo de HyperText Transport Protocol (Protocolo de transporte de hipertexto) Se suele escribir en letras minúsculas. Se trata de un protocolo que se utiliza para acceder a un servidor 'http' y servir páginas 'HTML' (World Wide Web).
  • Hipertexto: Documento que contiene enlaces o saltos tanto a otros documentos (locales o remotos) como a otras partes de sí mismo. Este tipo de documento permite contener elementos multimedia como animaciones, imágenes y sonido.
  • ID: Acrónimo de IDentification (Identificación) Nombre (real, alias, seudónimo, apodo o literal asignado por el sistema) que utiliza un usuario en un servicio telemático en línea. Se le conoce también como' USERID' o 'USERNAME'.
  • Interfaz: Conexión mecánica o eléctrica que permite el intercambio de información entre dos dispositivos o sistemas. Habitualmente se refiere al 'software' y 'hardware' necesarios para unir dos elementos de proceso en un sistema o bien para describir los estándares recomendados para realizar dichas interconexiones. Es más conocido por su denominación inglesa: 'interface'.
  • Internet: Colección de redes de telecomunicación que incluye ARPAnet, MILnet, y NSFnet (National Science Foundation net). Internet usa protocolos TCP/IP.
  • IP: Acrónimo de Internet Protocol [Protocolo Internet] Protocolo Internet que permite conectar ordenadores entre sí.
  • ISO (International Standards Organization): Organismo de las Naciones Unidas, con sede en Paris, cuya misión es el generar y difundir estándares entre las naciones, logrando así la compatibilidad y complementariedad en servicios y productos internacionalmente. Desarrolló el modelo de comunicación abierta OSI.
  • OSI (Open Systems Interconnect): Esta es una recomendación de la ISO que describe una estructura de siete capas para la partición de comunicación de datos y funciones de telecomunicaciones en capas.
  • Protocolo: Este es el procedimiento (conjunto de pasos, mensajes, forma de los mensajes y secuencias) que se utiliza para mover la información de una localización a otra sin errores.
  • Protocolo De Acceso: Estas son las reglas de tráfico a las que se sostienen estaciones de trabajo LAN para evitar la colisión de datos cuando se envían señales a través de un medio de red compartido. También conocido como MAC o "Media Acces Control protocol".
  • Tag: Cita ingeniosa, elemento expresivo y diferenciador adicional de uso frecuente en el correo electrónico ('e-mail'). Existe toda una 'cultura' del 'tag'.
  • Telnet: Acrónimo de TELecomunications NETwork (Red de telecomunicaciones) Protocolo de alto nivel que permite a un ordenador conectarse remotamente a otro de tal forma que el ordenador llamante parece ser el ordenador llamado. Es uno de los recursos más utilizados en 'Internet'. Para que el ordenador remoto no rechace la llamada (o al intruso) es necesario disponer de una cuenta autorizada que se denomina 'userid' (identificador de usuario).
  • URL: Acrónimo de Uniform Resource Locater (Localizador uniforme de recurso). Dirección de un recurso de 'Internet', se utiliza para indicar el camino que permite una conexión vía 'http', 'ftp', 'gopher', 'wais', etc.
  • WEB: Diminutivo de World Wide Web (Trama mundial) World Wide Web, es un hipertexto multimedia con texto, imágenes y sonidos que nos permite, de forma transparente, navegar por Internet explorándola y recogiendo la información que necesitamos.

8. Referencias bibliográficas

John December "Introduccion a java." Prentice hall hispanoamericana s.a, México 1995. Gonzalo Farrera Cortez "Internet gráfico, herramientas del WWW" Ed. Computec Patrick s. Portway "Seleccion De Articulos Sobre Teleconferencia Orientation " Microsoft Encarta 2001 Copyright ® 2001 Microsoft Visual Comms 1.1 Copyright ® 1995 C.T.V.

Páginas web consultadas.

 http://www.programacion.net/missing.html

 http://moon.act.uji.es/~inigo/seg-lfaq.html#Parte II

 http://netecsa.com/security/problem.htm

 http://www.netecsa.com/security/introduction.htm

 http://www.sasa.com.ni/tecnologia/sednt.htm

 http://www.sasa.com.ni/tecnologia/zak.htm

 http://www.sspain.com/servicios/seguridad/index.html

 http://rinconprog.metropoli2000.com/index.html?curso=http://rinconprog.metropoli2000.com/Cursos_Prog/Internet/Dhtml

 http://www.microsoft.com/spain/scripting/default.htm?/spain/scripting/jscript/doc/jstoc.htm

 http://moon.act.uji.es/~inigo/seg-lfaq.html#Parte II

 http://netecsa.com/security/problem.htm

 http://www.netecsa.com/security/introduction.htm

 http://www.sasa.com.ni/tecnologia/sednt.htm

 http://www.sasa.com.ni/tecnologia/zak.htm

 http://www.sspain.com/servicios/seguridad/index.html

Agradecimientos A dios: Por permitirme estar aquí en estos momentos y darme la oportunidad de expresar el poco conocimiento que tengo sobre lo que conozco hasta ahora.

A mis padres: Por apoyarme incondicinalmente durante todo el transcurso de mi vida, por darme aliento para poder seguir adelante y poderme levantar cuando estuve en serios problemas y sobre todo por darme la vida.

A los amigos: A todos aquellos que me ofrecieron su amistad y me tendieron la mano sin esperar nada a cambio, a todos aquellos que me regalaron parte de su conocimiento y que me dieron algunas lecciones que nunca olvidare y que contribuyeron en parte a la formación de mi persona, a todos ellos GRACIAS. Monografía realizada por Carlos Alberto Mayor Espinosa con el motivo de obtener el titulo de ingeniero en sistemas computacionales, presentándose en examen el dia 16 de junio del 2001, el cual fue aprobado.

 

 

 

Autor:

Carlos Alberto Mayor Espinosa

Partes: 1, 2
 Página anterior Volver al principio del trabajoPágina siguiente