Hacia el futuro: las grandes máquinas calculadoras
A mediados del S. XX, más precisamente en el año 1944, un equipo de la Universidad de Harvard, encabezado por Howard H. Aiken, construyó la Mark I, una computadora basada en rieles (aproximadamente 3000), con 800 kilómetros de cable, y dimensiones de 17 m. de largo por 3 m. de alto, más 1 m. de profundidad. Este gigante era capaz de realizar multiplicaciones y divisiones en cuestión de segundos. Siguiendo con el trabajo, a Mark I se le hicieron varias mejoras, dando nacimiento a sus sucesores, Mark II, Mark III y Mark IV.
Cabe destacar que la búsqueda de realización más rápida y eficaz de cálculo, provenía de una imperiosa necesidad militar, pues se estaba en plena Segunda Guerra Mundial.
Algunos años más tarde, en 1947, otro equipo, de la Universidad de Pennsylvania, encabezado por los ingenieros John Mauchly y John Eckert, construyó la ENIAC (Electronical Numerical Integrator and Calculator), la primera computadora en operar con tubos al vacío. Llegó a ser 1500 veces superior a Mark I, gracias a la inclusión de nuevas técnicas de electrónica en su diseño, que permitieron reducir el uso de la mecánica en su operación. Por ejemplo, podía realizar hasta 5000 sumas o 500 multiplicaciones en un segundo, y se podía aplicar su uso en astronomía, meteorología, entre otros.
Si bien las aplicaciones de la Mark I o la ENIAC nos pueden parecer simples en la actualidad, durante el desarrollo de esta última, el matemático Von Neumann propuso mejoras que sentaron las bases para llegar a los modelos de computadoras actuales: un sistema binario, que reemplazaría al sistema decimal; y que tanto las instrucciones como los datos quedaran almacenados en la memoria de la máquina, logrando así que memoria y programa residan en un mismo sitio.
Finalmente, en 1949, se construyó en la universidad de Connecticut la EDVAC (Electronic Discrete Variable Automatic Computer), el primer equipo con capacidad de almacenamiento de memoria, que volvió obsoletos a los otros aparatos que debían ser reconfigurados cada vez que eran utilizados. Compuesto por aprximadamente cuatro mil bulbos, utilizaba tubos llenos de mercurio por los que circulaban señales eléctricas sujetas a retardos. Era un verdadero gigante. Pesaba aproximadamente 7800 kg., y tenía una superficie de 150 m2. Se la considera la primera computadora digital de la historia, y fue el puntapié para el diseño de arquitecturas más completas.
De esta época, también se puede resaltar el gran avance que significó la creación del transistor, por dos científicos de los laboratorios Bell en 1956, William Bardeen y Walter Bratt, que obtuvieron el premio Nobel por este descubrimiento.
Luego de este recorrido, es dable decir que Babbage y Von Neumann pueden ser considerados como los padres de la computación.
La era de la computación moderna
Todo comenzó con la creación del Circuito Integrado o "IC". Más adelante, este invento recibió el sobrenombre de "chip". Este invento se le atribuye a Robert Noyce. En principio, el microchip de 6,45 mm2 (décima parte de una pulgada cuadrada) podía integrar hasta 10 transistores miniaturizados, y eventualmente logró integrar hasta 1000 piezas pequeñas en un mismo espacio. Llegada la década del "70, Intel, la nueva compañía de Noyce, desarrolló el microprocesador. Este logró integrar en un minúsculo microchip todas las funciones de un computador, al adicionar los circuitos mediante delgadísimas capas. Esto significó un gran avance para la computación, pues permitió la ejecución de varios programas al mismo tiempo. Así, las máquinas demostraban una mayor velocidad de memoria RAM, como así también de almacenamiento en disco duro.
La computadora personal o PC
Al igual que la TV, las computadoras tienen normas de compatibilidad. Las dos más populares del mundo han sido desde siempre IBM y Macintosh. La primera ha sido impuesta por la empresa del mismo nombre, y la segunda por la empresa APPLE. En el caso de la segunda, su tecnología era mucho mayor, pero siempre demostró inclinación por lograr un producto más caro orientado a trabajos específicos, como el diseño y las artes gráficas. IBM, en cambio, si bien ostentaba una tecnología de menor calidad, al ser mucho más amigable y de uso más amplio, logró mantener un lugar importante en el mercado mundial. ¿Y por qué es así?
La cuestión central es el sistema operativo, que no es sino el software que permite a la máquina operar, de lo contrario no sería sino un montón de piezas obsoletas. La PC que IBM lanzó en 1980 contaba con el "OS" (Operative System), que debía adquirirse por separado y venía en varios disquettes que contenían el software, y debía ser cargado al aparato para poder comenzar a utilizarlo. Esto impulsó a un joven a desarrollar un nuevo sistema operativo, similar al de IBM, pero menos costoso y compatible con la PC. Así, nació el DOS (Disk Operative System), de la mano del genial Bill Gates, hoy a la cabeza de la poderosa Microsoft. El DOS se destacaba por venir en un solo disquete.
Pronto, las empresas competidoras de IBM y que fabricaban PC"s similares a la del "gigante azul" (como se conocía a IBM), mucho más baratas desde luego, comenzaron a crecer y representar un gran problema, gracias al DOS de Bill Gates. Con el tiempo, de entre estas competidoras, INTEL tomó el liderazgo, pues producía microprocesadores cada vez más potentes, y Microsoft realizaba mejoras a su Sistema Operativo, compatibles con las mejoras de INTEL.
Eventualmente, IBM tuvo que adaptarse, y es así como hoy en día, las PC"s de IBM llevan microprocesadores INTEL y un sistema operativo de Microsoft. Pero el verdadero desafío de esta última llegaría con la aparición y creciente popularidad de un sistema de comunicación y transmisión de información que revolucionaría al mundo postmoderno, la INTERNET.
¿Qué es Internet?
El nombre Internet surge de la combinación da las palabras "International" (internacional) y "Net" (nexo). Sin embargo, no fue conocida con esa denominación desde un principio, sino que es producto de una serie de cambios, de la evolución de un sistema originario.
Para conocer los orígenes de internet, es necesario remontarnos a los años sesenta, época en que en Estados Unidos reinaba el temor al comunismo, época que hoy en día es conocida como "guerra fría". Se pensaba que ante un eventual ataque soviético, las comunicaciones podrían resultar frágiles, por lo que era necesario un sistema accesible desde varios puntos del país. Es así como en 1969 nace ARPANET, una red que en principio operó entre 4 computadoras ubicadas estratégicamente en cuatro universidades diferentes, para un par de años después llegar a estar en 40 computadoras interconectadas, lo cual hizo notable que el sistema vigente resultaba obsoleto. Fue el trabajo de dos investigadores lo que cambió esto, al crear el protocolo de comunicación TCP/IP. Con el paso de los años, y al calmarse los ánimos entre Estados Unidos y la U.R.S.S., ARPANET resultaba sumamente útil para aquellos que ingresaban con fines académicos. Desde varias universidades, ingresaban a dicha red con fines de investigación, por lo que eventualmente las comunicaciones con fines militares se trasladaron a una versión diferente, la MILNET. Más adelante, la National Science Fundation (Fundación Nacional de Ciencia), crea la NSFNET, que eventualmente absorbió a APARNET, convirtiéndose en una red de gran utilidad para la comunidad académica.
Finalmente, APARNET fue desmilitarizada por completo en 1983, fecha marcada por muchos como el nacimiento de INTERNET. La red era una formidable herramienta para los académicos y los científicos de todo el país, y para 1985 ya era una tecnología firmemente instalada, pero tenía la desventaja de ser poco accesible y conocida sólo por unos pocos. Y ni hablar de los países del tercer mundo. Más adelante, en los años "90, en el Centro Europeo de Investigaciones Nucleares, con sede en Suiza, el investigador Tim Berners Lee estaba al frente de un equipo que buscaba crear un nuevo sistema de almacenamiento y recuperación de datos. En 1989 presentó un trabajo titulado "El manejo de la información: una propuesta". En este hablaba sobre los "hipervínculos" (idea que tomó del autor Ted Nelson, un filósofo y sociólogo estadounidense, que en su proyecto "Xanadú", hablaba del "hipertexto", como fórmula de vinculación de todo el conocimiento humano), un sistema mediante el cual se podría interconectar toda la información del mundo. Robert Caillau, un ingeniero industrial belga, cooperó en el proyecto, y juntos decidieron bautizar al sistema World Wide Web (WWW). Era algo revolucionario. El nuevo sistema permitía vincular mediante el uso de hipertextos la información a través de la red, información que era luego interpretada y desplegada por un "browser" o "navegador", y permitía visualizar los datos. Finalmente, en 1993, Marc Andreesen fue el co-creador, junto con su compañero de trabajo, Eric Bina, de "Mosaic", uno de los primeros navegadores de la historia con interfaz gráfica, que facilitaba ampliamente la navegación por la red. Actualmente, Andreseen es conocido también como co-fundador de Netscape Communications Corporation, productora del navegador Netscape. Y fue así como comenzó una etapa de constante evolución de Internet, convirtiéndose en uno de los más importantes sistemas de comunicación y tráfico de información en todo el globo, siendo accesible para cualquiera que posea una computadora, y un MODEM, un dispositivo mediante el cual se accede a la red.
Bibliografía
Autor:
Díaz, Luciano Gabriel
UNIVERSIDAD ABIERTA INTERAMERICANA
-Sede Almagro-
Página anterior | Volver al principio del trabajo | Página siguiente |