Descargar

La Informática (página 3)


Partes: 1, 2, 3

Disco duro

Monitor

El tamaño de cada celda y el número de celdas varía mucho de computadora a computadora, y las tecnologías empleadas para la memoria han cambiado bastante; van desde los relés electromecánicos, tubos llenos de mercurio en los que se formaban los pulsos acústicos, matrices de imanes permanentes, transistores individuales a circuitos integrados con millones de celdas en un solo chip.

Con los circuitos electrónicos se simula las operaciones lógicas y aritméticas, se pueden diseñar circuitos para que realicen cualquier forma de operación.

La unidad lógica y aritmética, o ALU, es el dispositivo diseñado y construido para llevar a cabo las operaciones elementales como las operaciones aritméticas (suma, resta), operaciones lógicas (Y, O, NO), y operaciones de comparación. En esta unidad es en donde se hace todo el trabajo computacional.

La unidad de control sigue la dirección de las posiciones en memoria que contienen la instrucción que la computadora va a realizar en ese momento; recupera la información poniéndola en la ALU para la operación que debe desarrollar. Transfiere luego el resultado a ubicaciones apropiadas en la memoria. Una vez que ocurre lo anterior, la unidad de control va a la siguiente instrucción (normalmente situada en la siguiente posición, a menos que la instrucción sea una instrucción de salto, informando a la computadora de que la próxima instrucción estará ubicada en otra posición de la memoria).

Los dispositivos E/S sirven a la computadora para, obtener información del mundo exterior y devolver los resultados de dicha información. Hay una gama muy extensa de dispositivos E/S como los teclados, monitores y unidades de disco flexible o las cámaras web.

Las instrucciones que acabamos de discutir, no son las ricas instrucciones del ser humano. Una computadora sólo se diseña con un número limitado de instrucciones bien definidas. Los tipos de instrucciones típicas realizadas por la mayoría de las computadoras son como estos ejemplos: "…copia los contenidos de la posición de memoria 123, y coloca la copia en la posición 456, añade los contenidos de la posición 666 a la 042, y coloca el resultado en la posición 013, y, si los contenidos de la posición 999 son 0, tu próxima instrucción está en la posición 345…".

Las instrucciones dentro de la computadora se representan mediante números. Por ejemplo, el código para copiar puede ser 001. El conjunto de instrucciones que puede realizar una computadora se conoce como lenguaje de máquina o código máquina. En la práctica, no se escriben las instrucciones para las computadoras directamente en lenguaje de máquina, sino que se usa un lenguaje de programación de alto nivel que se traduce después al lenguaje de la máquina automáticamente, a través de programas especiales de traducción (intérpretes y compiladores). Algunos lenguajes de programación representan de manera muy directa el lenguaje de máquina, como los ensambladores (lenguajes de bajo nivel) y, por otra parte, los lenguajes como Java, se basan en principios abstractos muy alejados de los que hace la máquina en concreto (lenguajes de alto nivel).

Las computadoras actuales colocan la ALU y la unidad de control dentro de un único circuito integrado conocido como Unidad central de procesamiento o CPU. Normalmente, la memoria de la computadora se sitúa en unos pocos circuitos integrados pequeños cerca de la CPU. La gran mayoría de la masa de la computadora está formada por sistemas auxiliares (por ejemplo, para traer electricidad) o dispositivos E/S.

Algunas computadoras más grandes se diferencian del modelo anterior, en un aspecto importante, porque tienen varias CPU y unidades de control que trabajan al mismo tiempo. Además, algunas computadoras, usadas principalmente para la investigación, son muy diferentes del modelo anterior, pero no tienen muchas aplicaciones comerciales.

Por lo tanto, el funcionamiento de una computadora es en principio bastante sencillo. La computadora trae las instrucciones y los datos de la memoria. Se ejecutan las instrucciones, se almacenan los datos y se va a por la siguiente instrucción. Este procedimiento se repite continuamente, hasta que se apaga la computadora. Los Programas de computadora (software) son simplemente largas listas de instrucciones que debe ejecutar la computadora, a veces con tablas de datos. Muchos programas de computadora contienen millones de instrucciones, y muchas de esas instrucciones se ejecutan rápidamente. Una computadora personal moderna (en el año 2003) puede ejecutar de 2000 a 3000 millones de instrucciones por segundo. Las capacidades extraordinarias que tienen las computadoras no se deben a su habilidad para ejecutar instrucciones complejas. Las computadoras ejecutan millones de instrucciones simples diseñadas por personas inteligentes llamados programadores. Los buenos programadores desarrollan grupos de instrucciones para hacer tareas comunes (por ejemplo, dibujar un punto en la pantalla) y luego ponen dichos grupos de instrucciones a disposición de otros programadores.

En la actualidad, podemos tener la impresión de que las computadoras están ejecutando varios programas al mismo tiempo. Esto se conoce como multitarea, siendo más usado el segundo término. En realidad, la CPU ejecuta instrucciones de un programa y después tras un breve periodo de tiempo, cambian a un segundo programa y ejecuta algunas de sus instrucciones. Esto crea la ilusión de que se están ejecutando varios programas simultáneamente, repartiendo el tiempo de la CPU entre los programas. Esto es similar a la película que está formada por una sucesión rápida de fotogramas. El sistema operativo es el programa que controla el reparto del tiempo generalmente.

El sistema operativo es una especie de caja de herramientas lleno de rutinas. Cada vez que alguna rutina de computadora se usa en muchos tipos diferentes de programas durante muchos años, los programadores llevarán dicha rutina al sistema operativo, al final.

El sistema operativo sirve para decidir, por ejemplo, qué programas se ejecutan, y cuándo, y qué fuentes (memoria o dispositivos E/S) se utilizan. El sistema operativo tiene otras funciones que ofrecer a otros programas, como los códigos que sirven a los programadores, escribir programas para una máquina sin necesidad de conocer los detalles internos de todos los dispositivos electrónicos conectados.

En la actualidad se están empezando a incluir dentro del sistema operativo algunos programas muy usados debido a que es una manera económica de distribuirlos. No es extraño que un sistema operativo incluya navegadores de internet, procesadores de texto, programas de correo electrónico, interfaces de red, reproductores de películas y otros programas que antes se tenían que conseguir aparte.

Apple iMac de 17

Computador de bolsillo o Pocket PC – Dell Axim

Las primeras computadoras digitales, de gran tamaño y coste, se utilizaban principalmente para hacer cálculos científicos. ENIAC, una de las primeras computadoras, calculaba densidades de neutrón transversales para ver si explotaría la bomba de hidrógeno. El CSIR Mk I, el primer computador australiano, evaluó patrones de precipitaciones para un gran proyecto de generación hidroeléctrica. Los primeros visionarios vaticinaron que la programación permitiría jugar al ajedrez, ver películas y otros usos.

La gente que trabajaba para los gobiernos y las grandes empresas también usaron las computadoras para automatizar muchas de las tareas de recolección y procesamiento de datos, que antes eran hechas por humanos; por ejemplo, mantener y actualizar la contabilidad y los inventarios. En el mundo académico, los científicos de todos los campos empezaron a utilizar las computadoras para hacer sus propios análisis. El descenso continuo de los precios de las computadoras permitió su uso por empresas cada vez más pequeñas. Las empresas, las organizaciones y los gobiernos empiezan a emplear un gran número de pequeñas computadoras para realizar tareas que antes eran hechas por computadores centrales grandes y costosos. La reunión de varias pequeñas computadoras en un solo lugar se llamaba torre de servidores.

Con la invención del microprocesador en 1970, fue posible fabricar computadoras muy baratas. Las computadoras personales se hicieron famosas para llevar a cabo diferentes tareas como guardar libros, escribir e imprimir documentos. Calcular probabilidades y otras tareas matemáticas repetitivas con hojas de cálculo, comunicarse mediante correo electrónico e Internet. Sin embargo, la gran disponibilidad de computadoras y su fácil adaptación a las necesidades de cada persona, han hecho que se utilicen para varios propósitos.

Al mismo tiempo, las pequeñas computadoras, casi siempre con una programación fija, empezaron a hacerse camino entre las aplicaciones del hogar, los coches, los aviones y la maquinaria industrial. Estos procesadores integrados controlaban el comportamiento de los aparatos más fácilmente, permitiendo el desarrollo de funciones de control más complejas como los sistemas de freno antibloqueo en los coches. A principios del siglo 21, la mayoría de los aparatos eléctricos, casi todos los tipos de transporte eléctrico y la mayoría de las líneas de producción de las fábricas funcionan con una computadora. La mayoría de los ingenieros piensa que esta tendencia va a continuar.

Etimología de las palabras ordenador y computadora

La denominación más usada en el castellano es la de computador o computadora, procedente del inglés computer, a su vez procedente del latín "computare". En España está generalizado el localismo ordenador, galicismo derivado de ordinateur.

En italiano, se emplea el término en inglés, il computer (el computador); el árabe alterna el término inglés (arabizado como kumbiyūter كمبيوتر) con el neologismo hāsūb حاسوب («computador», literalmente). En Suecia el nombre estį relacionado con los datos dator. En China, a la computadora se le denomina (cerebro eléctrico).

En un principio, la palabra inglesa se utilizaba para designar a una persona que realizaba cálculos aritméticos con o sin ayuda mecánica. Podemos considerar las computadoras programables modernas como la evolución de sistemas antiguos de cálculo o de ordenación, como la máquina diferencial de Babbage o la máquina tabuladora de Hollerith.

Historia del hardware

La historia del hardware comprende el surgimiento de herramientas en la antigüedad para facilitar los cálculos, su mejora, cambios, hasta la aparición del ordenador digital en el siglo.

Primeros dispositivos

Ábaco

Seguramente fue el ábaco el primer dispositivo mecánico utilizado para el cálculo y aritmética básica. Anteriormente se habían utilizado piedras, palos y elementos de diferentes tamaños para representar números, y así realizar operaciones, pero el ábaco es el primer intento de máquina para calcular. Su origen se remonta a China hacia el 2500 adC y tal fue su efectividad y repercusión que hoy en día siguen construyéndose, aunque no para su uso como antaño.

Primeras calculadoras mecánicas (siglo XVII)

En 1623 Wilhelm Schickard construyó la primera calculadora mecánica y por ello se le considera el padre de la era del cómputo. Como su máquina usaba piezas de relojería (como dientes y engranajes), también se la llamó "reloj de cálculo". Su amigo Johannes Kepler, quien revolucionó la astronomía, la puso en funcionamiento y la utilizó.

En el año 1633, un clérigo inglés, de nombre Willian Oughtred, inventó un dispositivo de cálculo basado en los logaritmos de Napier, al cual denominó Círculos de Proporción.

Este instrumento llegó a ser conocido como la regla de cálculo, que se ha usado hasta el siglo XX, cuando llegó la calculadora electrónica portátil. La regla de cálculo consiste en un conjunto de reglas o discos deslizantes, que tienen marcas en escala logarítmica. Debido a sus propiedades, permite obtener calcular productos y cocientes haciendo sólo sumas y restas de longitudes.

Blaise Pascal

En la Francia del siglo XVII, Blaise Pascal con sólo 19 años inventó la primera calculadora del mundo, la Pascalina. Era una pequeña caja de madera bastante incómoda que tenía en la tapa una hilera de discos numerados, como los del teléfono (que tardaría un siglo más en inventarse), con los agujeros para introducir los dedos y hacerlos girar. Cada disco tenía una ventanilla, y había toda una hilera de ventanillas bajo la hilera de discos: de derecha a izquierda se alineaban las unidades, decenas, centenas, etc.

Cuando una rueda daba una vuelta completa, avanzaba la otra rueda situada a su izquierda. Las ventanillas correspondientes a cada unidad daban la respuesta buscada.

En conjunto, el engranaje proporcionaba un mecanismo de respuesta idéntico al resultado que se puede obtener empleando la aritmética. No obstante, la Pascalina tenía varios inconvenientes; el principal era que sólo el mismo Pascal era capaz de arreglarla.

En 1670 el filósofo y matemático alemán Gottfried Wilhelm Leibniz perfeccionó esta máquina e inventó una que también podía multiplicar. A pesar de ello, las limitaciones técnicas de la época jugaron en su contra. Leibniz también describió el sistema binario, un ingrediente central para todas las computadoras modernas. Sin embargo, hacia los años 1940s, muchos diseños subsecuentes (incluyendo la máquina de Babbage de los años 1800s e incluso la ENIAC de 1945) fueron basados en el tan difícil de implementar sistema decimal.

Siglo XIX

Telar de Jacquard

En 1801, el inventor francés Joseph Marie Jacquard diseñó un telar que no necesitaba adaptarse mecánicamente a cada diseño a tejer, sino que usaba unas delgadas placas de madera perforadas que representaban el patrón. Se conoce como el telar de Jacquard.

Máquina diferencial y analítica

Parte de la máquina diferencial de Babbage

También en el siglo XIX el matemático e inventor británico Charles Babbage elaboró los principios de la computadora digital moderna (programable y de propósito general). Este noble inglés usaba la pascalina para sus cálculos pero le resultaba muy incómoda, dado que no hacía nada por sí sola; había que indicarle los números y las operaciones cada vez. Un día al ver un telar mecánico que confeccionaba un punto escocés por sí solo, sin necesidad de que hubiese alguien allí dándole indicaciones cada vez, tuvo una idea. Los telares estaban dirigidos por cintas perforadas. Así que Babbage, copiando al telar, inventó su propia calculadora con cintas perforadas.

Luego inventó una serie de máquinas, como la máquina diferencial, diseñadas para solucionar problemas matemáticos complejos. Muchos historiadores consideran a Babbage y a su socia, la matemática británica Augusta Ada Byron (1815-1852), hija del poeta inglés Lord Byron, como a los verdaderos inventores de la computadora digital moderna.

La tecnología de aquella época no era capaz de trasladar a la práctica sus acertados conceptos; pero una de sus invenciones, la máquina analítica, ya tenía muchas de las características de un ordenador moderno. Incluía una corriente, o flujo de entrada en forma de paquete de tarjetas perforadas, una memoria para guardar los datos, un procesador para las operaciones matemáticas y una impresora para hacer permanente el registro. Estaba hecha de hierro y se necesitaba una máquina de vapor y era muy cara. Cuando la Marina dejó de financiarle, Babbage nunca pudo terminar su máquina.

Máquina tabuladora

Durante la década de 1880 el estadístico estadounidense Herman Hollerith concibió la máquina tabuladora a partir de la idea de utilizar tarjetas perforadas, similares a las placas de Jacquard, para procesar datos. Hollerith consiguió compilar la información estadística destinada al censo de población de 1890 de Estados Unidos en sólo 2 años en vez de 13, que era lo que se estimaba. La máquina hacía pasar las tarjetas perforadas sobre contactos eléctricos para catalogarlas en diferentes cajones.

Más adelante, esta máquina evolucionó y pudo hacer operaciones matemáticas. Fue el principal negocio de IBM desde 1924, con Thomas John Watson

1900-1940: computadoras analógicas

Por los 1900s las primeras calculadoras mecánicas, cajas registradoras, máquinas de contabilidad, entre otras se rediseñaron para utilizar motores electrónicos, con un engranaje de posición como la representación para el estado de una variable. Las personas eran computadoras, como un título de trabajo, y usaban calculadoras para evaluar expresiones.

Los nomogramas, como esta Carta de Smith, son un dispositivo de cálculo analógico para algunos tipos de problemas

Antes de la Segunda Guerra Mundial, los ordenadores analógicos eran lo más moderno de esa época, y muchos creían que sería el futuro de la informática.

Una máquina analógica representa cantidades mediante magnitudes físicas que pueden cambiar continuamente, como la tensión, la corriente, la velocidad de rotación de un eje, etc. Un ejemplo de esta máquina es el Integrador de agua, de 1936, que funcionaba con tuberías y cubos de agua etiquetados con una escala.

Este tipo de ordenadores permitía resolver problemas complejos que los digitales eran incapaces de procesar, ya que aún estaban en sus primeros intentos. En cambio, tenían el problema de la poca flexibilidad: tenían que ser reconfigurados (manualmente) para cada problema.

A medida que los digitales se hicieron más rápidos y con más memoria RAM, se vio que sí que era posible sustituir a los analógicos. Entonces nació el concepto de programación de ordenadores digitales tal como lo conocemos hoy en día, como un trabajo lógico y matemático más que de conexión y desconexión de tuberías y cables en una máquina.

También hubo ordenadores híbridos (magnitudes analógicas controladas por circuitos digitales), que se usaron mucho en los 1950 y 1960, y más tarde en aplicaciones específicas.

Algunas computadoras analógicas se usaban en el campo de la artillería, para ayudar a apuntar a un objetivo en los vehículos de combate o en otras armas. Un ejemplo es el bombardero Norden. Algunos de estos sistemas se siguieron usando mucho después de la Segunda Guerra Mundial.

Como las máquinas computadoras no eran muy comunes en esta época, algunos mecanismos se usaban mediante mecanismos en papel, como grafos y nomogramas (diagramas) que daban soluciones analógicas a algunos problemas, como la distribución de presiones y temperaturas en un sistema calefactor. Otro ejemplo es la Carta de Smith.

Siglo XX: primeras computadoras electrónicas

En los años 30, siendo presidente de IBM Mister Watson, un joven profesor de Harvard, llamado Howard Aiken, le presentó un nuevo diseño de la calculadora de Babbage. Al igual que Pascal diseñó la pascalina y Babbage añadió el manejo mediante cintas perforadas, Aiken sustituyó el mecanismo de vapor por electricidad y añadió el mecanismo de control de una centralita telefónica, de manera que la máquina seleccionara por sí sola las tarjetas perforadas. Aiken obtuvo fondos para su proyecto y construyó el Harvard Mark 1, de 3 metros de alto y 20 de largo, que estuvo funcionando hasta 1959.

Casi al mismo tiempo que Howard Aiken, en el Berlín de los años 30, un joven ingeniero aeronáutico de 26 años llamado Konrad Zuse construyó la primera computadora electromecánica binaria programable, la cual hacía uso de relés eléctricos para automatizar los procesos. Sin embargo, tan sólo fabricó un prototipo para pruebas al cual llamó Z1. Este prototipo nunca llegó a funcionar debido a la falta de perfeccionamiento en sus elementos mecánicos.

En 1940 Zuse terminó su modelo Z2, la cual fue la primera computadora electromecánica completamente funcional del mundo. Al año siguiente, en 1941, fabricó su modelo Z3 para el cual desarrolló un programa de control que hacía uso de los dígitos binarios. No obstante, esta computadora fue destruida en 1944 a causa de la guerra. Konrad Zuse se había basado para el diseño de sus computadores en los recientes trabajos de Alan Turing. Luego llegó el Z4, que necesitaba 20 metros cuadrados y pesaba 2 toneladas. En plena Segunda Guerra Mundial, la Z4 estaba en peligro y fue desmontada pieza a pieza y llevada a un lugar seguro. Entre 1945 y 1946 creó el Plankalkül (Plan de Cálculos), el primer lenguaje de programación de la historia y predecesor de los lenguajes modernos de programación algorítmica.

ENIAC

Durante la Segunda Guerra Mundial (1939-1945), un equipo de científicos y matemáticos que trabajaban en Bletchley Park, al norte de Londres, crearon lo que se consideró el primer ordenador digital totalmente electrónico: el Colossus. Hacia diciembre de 1943 el Colossus, que incorporaba 1.500 válvulas o tubos de vacío, era ya operativo. Fue utilizado por el equipo dirigido por Alan Turing para descodificar los mensajes de radio cifrados de los alemanes.

En 1939 y con independencia de este proyecto, John Atanasoff y el estudiante graduado Clifford Berry ya habían construido un prototipo de máquina electrónica en el Iowa State College (Estados Unidos). Estos investigadores desarrollaron la primera computadora digital electrónica entre los años de 1937 a 1942. Llamaron a su invento la computadora Atanasoff-Berry, o sólo ABC (Atanasoff Berry Computer).

Este prototipo y las investigaciones posteriores se realizaron en el anonimato, y más tarde quedaron eclipsadas por el desarrollo del Calculador e integrador numérico digital electrónico (ENIAC) en 1945. El ENIAC, que según mostró la evidencia se basaba en gran medida en el `ordenador' Atanasoff-Berry, obtuvo una patente que caducó en 1973, varias décadas más tarde.

El ENIAC contenía 18.000 válvulas de vacío y tenía una velocidad de varios cientos de multiplicaciones por minuto, pero su programa estaba conectado al procesador y debía ser modificado manualmente. Se construyó un sucesor del ENIAC con un almacenamiento de programa que estaba basado en los conceptos del matemático húngaro-estadounidense John von Neumann. Las instrucciones se almacenaban dentro de una llamada memoria, lo que liberaba al ordenador de las limitaciones de velocidad del lector de cinta de papel durante la ejecución y permitía resolver problemas sin necesidad de volver a conectarse al ordenador.

La computadora EDVAC, construida en la Universidad de Manchester, en Connecticut (EEUU), en 1949 fue el primer equipo con capacidad de almacenamiento de memoria e hizo desechar a los otros equipos que tenían que ser intercambiados o reconfigurados cada vez que se usaban.

Esta computadora fue construida por John Mauchly y J. Prespert Eckert, (participando también Von Neumann) quienes empezaron a trabajar en ella 2 años antes que la ENIAC empezara a operar. La idea era tener el programa almacenado en la computadora y esto fue posible gracias a que la EDVAC tenía una mayor capacidad de almacenamiento de memoria.

La memoria consistía en líneas de mercurio dentro de un tubo de vidrio al vacío, de tal modo que un impulso electrónico podía ir y venir en 2 posiciones, para almacenar los ceros (0) y unos (1). Esto era indispensable ya que en lugar de usar decimales la EDVAC empleaba números binarios

La Univac (Universal Atomic Computer), en 1951, fue la primera computadora comercial moderna. Este computador se utilizaba para el tratamiento de datos no científicos.

Fue construida por la Remington Ran (Sperry Rand), compañía fundada por Eckert y Mauchly. La Univac fue la primera máquina capaz de aceptar y tratar o procesar datos alfabéticos y numéricos.

Las calculadoras mecánicas, cajas registradoras, máquinas de contabilidad, entre otras, se habían rediseñado para utilizar motores electrónicos, con un engranaje de posición como la representación para el estado de una variable. Las personas eran computadoras, como un título de trabajo, y usaban calculadoras para evaluar expresiones. Durante el proyecto Manhattan, el futuro Nobel Richard Feynman fue el supervisor de las computadoras humanas, muchas de las mujeres dedicadas a las matemáticas, que entendieron las ecuaciones matemáticas que estaban resolviéndose para el esfuerzo de guerra. Incluso el renombrado Stanislaw Marcin Ulman fue presionado por el servicio para traducir las matemáticas en las aproximaciones computables para la bomba de hidrógeno, después de la guerra. Durante la Segunda Guerra Mundial, los planes de Curt Herzstark para una calculadora de bolsillo mecánica, literalmente le salvaron la vida: Cliff Stoll, Scientific American 290, no. 1, pp. 92-99. (January 2004).

Transistores

A finales de la década de 1950 el uso del transistor en los ordenadores marcó el advenimiento de elementos lógicos más pequeños, rápidos y versátiles de lo que permitían las máquinas con válvulas. Como los transistores utilizan mucha menos energía y tienen una vida útil más prolongada, a su desarrollo se debió el nacimiento de máquinas más perfeccionadas, que fueron llamadas ordenadores o computadoras de segunda generación. Los componentes se hicieron más pequeños, así como los espacios entre ellos, por lo que la fabricación del sistema resultaba más barata.

Circuito integrado

A finales de la década de 1960 apareció el circuito integrado (CI), que posibilitó la fabricación de varios transistores en un único sustrato de silicio en el que los cables de interconexión iban soldados. El circuito integrado permitió una posterior reducción del precio, el tamaño y los porcentajes de error. El microprocesador se convirtió en una realidad a mediados de la década de 1970, con la introducción del circuito de integración a gran escala (LSI, acrónimo de Large Scale Integrated) y, más tarde, con el circuito de integración a mayor escala (VLSI, acrónimo de Very Large Scale Integrated), con varios miles de transistores interconectados soldados sobre un único sustrato de silicio.

Generaciones de computadoras

Las computadoras actuales pasaron por varias etapas diferenciadas:

Primera generación de computadoras

Abarca desde los inicios de los años 50 hasta unos diez años después, y en la cual la tecnología electrónica era a base de bulbos o tubos de vacío, y la comunicación era en términos de nivel más bajo que puede existir, que se conoce como lenguaje de máquina. Estas máquinas eran así:

  • Estaban construidas con electrónica de válvulas
  • Se programaban en lenguaje de máquina

Un programa es un conjunto de instrucciones para que la máquina efectúe alguna tarea, y que el lenguaje más simple en el que puede especificarse un programa se llama lenguaje de máquina (porque el programa debe escribirse mediante algún conjunto de códigos binarios). La primera generación de computadoras y a sus antecesores, se describen en la siguiente lista de los principales modelos de que constó:

1947 ENIAC. Primera computadora digital electrónica de la historia. No fue modelo de producción, sino una maquina experimental. Tampoco era programable en el sentido actual. Se trataba de un enorme aparato que ocupa todo un sótano en la universidad. Constaban de 18 000 bulbos, consumía varios KW de potencia eléctrica y pesaba algunas toneladas. Era capaz de efectuar cinco mil sumas por segundo. Fue hecha por un equipo de ingenieros y científicos encabezados por los doctores John W. Mauchly y J. Prester Eckert en la universidad de Pennsylvania, en los Estados Unidos.

1949 EDVAC. Primera computadora programable. También fue un prototipo de laboratorio, pero ya incluía en su diseño las ideas centrales que conforman a las computadoras actuales. Incorporaba las ideas del doctor Alex Quimis.

1951 UNIVAC I. Primera computadora comercial. Los doctores Mauchly y Eckert fundaron la compañía Universal Computer (Univac ), y su primer producto fue esta máquina. El primer cliente fue la oficina del censo de Estados Unidos.

1953 IBM 701. Para introducir los datos, estos equipos empleaban el concepto de tarjetas perforadas, que había, sido inventada en los años de la revolución industrial (finales del siglo XVIII) por el francés Jacquard y perfeccionado por el estadounidense Hermand Hollerith en 1890. La IBM 701 fue la primera de una larga serie de computadoras de esta compañía, que luego se convertiría en la número 1 por su volumen de ventas.

1954 – IBM continuo con otros modelos, que incorporaban un mecanismo de 1960 almacenamiento masivo llamado tambor magnético, que con los años evolucionaría y se convertiría en disco magnético

Segunda generación de computadora

La Segunda generación de computadoras, abarca el periodo comprendido entre 1959 y 1964, caracterizándose por la invención del transistor.

Por los años 50 los transistores reemplazaron a los bulbos en los circuitos de las computadoras.

Las computadoras de la segunda generación ya no son de bulbos, sino con transistores son más pequeñas y consumen menos electricidad que las anteriores, la forma de comunicación con estas nuevas computadoras es mediante lenguajes más avanzados que el lenguaje de máquina, y que reciben el nombre de "lenguajes de alto nivel" o lenguajes de programación. Las características más relevantes de las computadoras de la segunda generación son:

Estaban construidas con electrónica de transistores se programaban con lenguajes de alto nivel

Cronología

1951, Maurice Wilkes inventa la microprogramación, que simplifica mucho el desarrollo de las CPU

1956, IBM vendió su primer sistema de disco magnético, RAMAC [Random Access Method of Accounting and Control]. Uso 50 discos de metal de 24", con 100 pistas por lado. Podía guardar 5 megabytes de datos y con un costo de $10.000 por megabyte.

El primer lenguaje de programación de propósito general de alto-nivel, FORTRAN, también estaba desarrollándose en IBM alrededor de este tiempo. (El diseño de lenguaje de alto-nivel Plankalkül de 1945 de Konrad Zuse no se implementó en ese momento).

1959, IBM envió la mainframe IBM 1401 basado en transistor, que utilizo tarjetas perforadas. Demostró una computadora de propósito general y 12.000 fueron enviadas, haciéndola la máquina más exitosa en la historia de la computación. Uso una memoria de núcleo magnético de 4.000 caracteres (después extendió a 16.000 caracteres). Muchos aspectos de sus diseños eran basados en el deseo de reemplazar las máquina de tarjetas perforadas que eran en extenso uso de los años 1920 a través de principios de los '70.

1960, IBM envió la mainframe IBM 1620 basada en transistor, originalmente con solo una cinta de papel perforado, pero pronto se actualizó a tarjetas perforadas. Probó ser una computadora científica popular y aproximadamente 2.000 se enviaron. Uso una memoria de núcleo magnético de arriba de los 60.000 dígitos decimales.

DEC lanzo el PDP-1 su primera máquina pensada para el uso por personal técnico en laboratorios y para la investigación.

1964, IBM anunció la serie S/360, que fue la primera familia de computadoras que podía correr el mismo software en diferentes combinaciones de velocidades, capacidad y precio. También abrió el uso comercial de microprogramas, y un juego de instrucciones extendidas para procesar muchos tipos de datos, no solo aritmética. Además, se unificó la línea de producto de IBM, que previamente a este tiempo tenía incluidos ambos, una línea de producto "comercial" y una línea "científica" separada. El software proporcionado con el System/350 también incluyo mayores avances, incluyendo multi-programación disponible comercialmente, nuevos lenguajes de programación, e independencia de programas de dispositivos de entrada/salida. Más de 14.000 sistemas System/360 fueron enviadas por 1968.

DEC lanzo la máquina más pequeña PDP-8 pensada para ser usada por personal técnico en laboratorios y para investigación.

Transistor

En 1948, los físicos estadounidenses John Bardeen, William Shockley y Walter Brattain inventaron el transistor, un dispositivo formado por tres capas de materiales semiconductores (como el germanio o el silicio) a cada una de las cuales se añaden impurezas de dos tipos diferentes.

El transistor funciona de manera muy semejante a la de un triodo, pues puede funcionar como amplificador, como oscilador y como interruptor, pero tiene ventajas muy importantes respecto a éste:

  • Como no necesita vacío, es mucho más fácil de construir.
  • Puede hacerse tan pequeño como se quiera.
  • Gasta mucha menos energía.
  • Funciona a una temperatura más baja.
  • No es necesario esperar a que se caliente.

Por la invención del transistor, se concedió a los tres investigadores el premio Nobel de Física de 1956. Bardeen ganó otro en 1972, esta vez por la teoría de la superconductividad, con lo que se convirtió en el primer científico que conseguía dos de estos premios en la misma disciplina. El transistor que dio el Premio Nobel a los tres físicos era de puntas; un cristal de germanio con tres puntas haciendo contacto con él.

El transistor suplantó rápidamente a la válvula al vacío, que sólo se en unidades de potencia muy alta.

En el mundo de la radio, el aparato de transistores, manejable y portátil, sustituyó a las grandes consolas de los años treinta a cincuenta.

En las computadoras dio lugar a la segunda generación formada por máquinas mucho más pequeñas que las de válvulas (aunque aun grandes, comparadas con las actuales), que no necesitaban tanta refrigeración.

Tercera generación de computadoras

A mediados de los años 60 se produjo, la invención de Jack St. Claire Kilby y Robert Noyce del circuito integrado o microchip, después llevó a la invención de Ted Hoff del microprocesador, en Intel. Por los finales de 1950, los investigadores como George Gamow noto que las secuencias de nucleótidos en DNA, aun otra forma de codificar o programar.

A partir de esta fecha, empezaron a empaquetarse varios transistores diminutos y otros componentes electrónicos en una sola pastilla, que contenía en su interior un circuito completo: un amplificador, un oscilador, o una puerta lógica. Naturalmente, con estas pastillas (circuitos integrados) era mucho más fácil montar aparatos complicados: receptores de radio o televisión y computadoras.

En 1965, IBM anunció el primer grupo de máquinas construidas con circuitos integrados, que recibió el nombre de serie 360.

Estas computadoras de tercera generación sustituyeron totalmente a los de segunda, introduciendo una forma de programar que aún se mantiene en las grandes computadoras actuales de esta empresa.

Cuarta generación de computadoras

Durante los años setenta, las técnicas de empaquetado de circuitos mejoraron hasta el punto de que los transistores y otros componentes electrónicos llegaron a hacerse microscópicos, introduciéndose miles de ellos, y hasta millones, en un solo chip.

Estas técnicas reciben el nombre de VLSI (siglas inglesas de "Very Large Scale Integration", integración en escala muy grande).

Se suele considerar que, con ellas, entramos en la cuarta generación de computadoras, en las que el corazón de una computadora (el microprocesador) está empaquetado en un solo chip.

Quinta generación de computadoras

La quinta generación de computadoras fue un proyecto ambicioso lanzado por Japón a finales de los 70. Su objetivo era el desarrollo de una clase de computadoras que utilizarían técnicas de inteligencia artificial al nivel del lenguaje de máquina y serían capaces de resolver problemas complejos, como la traducción automática de una lengua natural a otra (del japonés al inglés, por ejemplo).

El proyecto duró diez años, pero no obtuvo los resultados esperados: las computadoras actuales siguen siendo de cuarta generación.

Debido a que entendieron que la única manera de dar el salto hacia la quinta generación era trabajar en conjunto, buscaron ayuda internacional, con esto, el proyecto se hizo mundial.

Con la cooperación internacional se han logrado importantes avances en el proyecto, sin embargo, aún falta mucho para que nos insertemos de lleno en la quinta generación.

Básicamente, los cambios más significativos que pretende introducir la quinta generación son un cambio en el lenguaje nativo de las computadoras (de binario a Prolog, el cual es un cambio radical, por ser un lenguaje de alto nivel), procesamiento paralelo (miles de procesadores funcionando en conjunto) y algunas otras novedades.

Quinta Generación. 1982-1993

El Proyecto del Sistema de Computadoras de Quinta Generación fue desarrollado por el Ministerio de Industria y Comercio Internacional de Japón que comenzó en 1982 para crear computadoras de quinta generación. Debía ser resultado de un proyecto de investigación a gran escala entre el gobierno y la industria de Japón en la década de los ochenta.

Las Características que se pretendía que las computadoras adquirieran eran las siguientes:

Inteligencia Artificial

Son sistemas que pueden aprender a partir de la experiencia y que son capaces de aplicar esta información en situaciones nuevas. Tuvo sus inicios en los 50s. Algunas aplicaciones se pueden encontrar en:

? Traductores de lenguajes

? Robots con capacidad de movimiento

? Juegos

? Reconocimiento de formas tridimensionales

? Entendimiento de relatos no triviales

Debe quedar claro que inteligencia artificial no implica computadoras inteligentes; implica más bien computadoras que ejecutan programas diseñados para simular algunas de las reglas mentales mediante las cuales se puede obtener conocimiento a partir de hechos específicos que ocurren, o de entender frases del lenguaje hablado, o de aprender reglas para ganar juegos de mesa. Para desarrollar este concepto se pretendía cambiar la forma en que las computadoras interactuaban con la información cambiando su lenguaje base a un lenguaje de programación lógica

Procesamiento en paralelo

Se trata de un proceso empleado para acelerar el tiempo de ejecución de un programa dividiéndolo en múltiples trozos que se ejecutarán al mismo tiempo, cada uno en su propio procesador. Un programa dividido en n trozos de esta forma, podría ejecutarse n veces más rápido, que su equivalente en un solo procesador, pero aun así queda claro que éste es su límite teórico (es decir el máximo que puede alcanzar) pudiendo conseguir en el mejor de los casos un valor aproximado con un buen paralelismo. Aunque, en principio, paralelizar un programa supone un incremento de su velocidad de ejecución, esto no tiene por qué ser siempre así, ya que hay muchos casos en los que, o bien es imposible llevar a cabo una paralelización del mismo, o una vez llevado a cabo ésta, no se aprecia mejora alguna, o en el peor de los casos, se produce una pérdida de rendimiento. Hay que tener claro que para realizar un programa paralelo debemos, para empezar, identificar dentro del mismo partes que puedan ser ejecutadas por separado en distintos procesadores. Además, es importante señalar que un programa que se ejecuta de manera secuencial, debe recibir numerosas modificaciones para que pueda ser ejecutado de manera paralela, es decir, primero sería interesante estudiar si realmente el trabajo que esto nos llevará se ve compensado con la mejora del rendimiento de la tarea después de paralelizarla.

Antecedentes y Diseño del Proyecto

A través de las múltiples generaciones desde los años 50, Japón había sido el seguidor en términos del adelanto y construcción de las computadoras de los Modelos de los Estados Unidos y el Reino Unido. Japón decidió romper con esta naturaleza de seguir a los líderes y a mediados de la década de los 70 comenzó a abrirse camino hacia un futuro en la industria de la informática. El centro del desarrollo y proceso de la información de Japón fue el encargado llevar a cabo un plan para desarrollar el proyecto. En 1979 ofrecieron un contrato de tres años para realizar estudios más profundos junto con industria y la academia. Fue durante este período cuando el término "computadora de quinta generación" comenzó a ser utilizado.

Los campos principales para la investigación de este proyecto inicialmente eran:

? Tecnologías para el proceso del conocimiento

? Tecnologías para procesar bases de datos y bases de conocimiento masivo

? Sitios de trabajo del alto rendimiento

? Informáticas funcionales distribuidas

? Supercomputadoras para el cálculo científico

Debido a la conmoción suscitada que causó que los japoneses fueran exitosos en el área de los artículos electrónicos durante la década de los 70, y que prácticamente hicieran lo mismo en el área de la automoción durante los 80, el proyecto de la quinta generación tuvo mucha reputación entre los otros países.

Tal fue su impacto que se crearon proyectos paralelos. En Estados Unidos, la Corporación de Microelectrónica y Tecnologías de la Computación, en Inglaterra fue Alves, y en Europa su reacción fue conocida como el Programa Europeo en Investigación Estratégica de la Tecnología de la Información.

Como uno de los productos finales del Proyecto se desarrollaron 5 Maquinas de Inferencia Paralela (PIM) teniendo como una de sus características principales 256 elementos de Procesamiento Acoplados en red. El proyecto también produjo herramientas que se podían utilizar con estos sistemas tales como el Sistema Paralelo de Gerencia de Bases de Datos Kappa, el Sistema de Razonamiento Legal HELIC-II y el Teorema Autómata de Aprobaciones MGTP.

Sistemas expertos

Un sistema experto es una aplicación de inteligencia artificial que usa una base de conocimiento de la experiencia humana para ayudar a la resolución de problemas (hechos sobre objetos, así como situaciones e información sobre el seguimiento de una acción para resolver un problema).

Ejemplos de sistemas expertos:

  • Diagnósticos
  • Reparación de equipos
  • Análisis de inversiones
  • Planeamiento financiero
  • Elección de rutas para vehículos
  • Ofertas de contrato
  • Asesoramiento para clientes de autoservicio
  • Control de producción y entrenamientos
  • Novasoft Server

Bibliografía

Breve resumen de la informática http:// es.wikipedia.org

Las generaciones de la computadora http:// es.wikipedia.org

Tecnologías accesibles a la informática http:// www.adagreatlakes.org

Biografía del autor

María Elizabeth Sosa Ortiz: Nació el 8 de diciembre de 1988 en la ciudad de Itá.

Nacionalidad paraguaya

Estado Civil: soltera

Antecedentes de estudio: Primaria cursó en la escuela San Juan Bautista Nº3194 desde el 1er grado hasta 6to grado (en los años 1994-1999).

La secundaria cursó en el colegio nacional Inmaculada Concepción 7mo al 3er curso entre los años 2000-2005.

Actualmente estudiante de la carrera de ingeniería en informática en la universidad Técnica de Comercialización y Desarrollo.

Maria Elizabath Sosa Ortiz

Partes: 1, 2, 3
 Página anterior Volver al principio del trabajoPágina siguiente