Descargar

Fundamentos de la arquitectura de las computadoras (página 2)


Partes: 1, 2

Los primeros eran de 8 bits y funcionaba a 4,77 MHz, la misma velocidad que el procesador Intel 8088 empleado en el IBM PC. Posteriormente, cuando se lanzaron nuevos PCs con el procesador Intel 80286, se creó una extensión de 16 bits y se aumentó su velocidad a 8 MHz. Esta extensión es compatible con el bus ISA de 8 bits.

Este bus es insuficiente para las necesidades actuales, tales como tarjetas de vídeo de alta resolución, por lo que el bus ISA ya no se emplea en las PCs de hoy en día siendo sustituido por el bus PCI.

Las ranuras del bus ISA miden 8,5 cm. en la versión de 8 bits y 14 cm. en la de 16 bits; su color suele ser negro.

2. – BUS EXTENDED INDUSTRY STANDARD ARCHITECTURE (EISA)

El Extended Industry Standard Architecture (en inglés, Arquitectura Estándar Industrial Extendida – EISA) es una arquitectura de bus para computadores compatibles. Fue anunciado a finales de 1988 y desarrollado por el llamado "Grupo de los Nueve" (AST, Compaq, Epson, Hewlett-Packard, NEC Corporation, Olivetti, Tandy, Wyse y Zenith), vendedores de computadores clónicos como respuesta al uso por parte de IBM de su arquitectura propietaria MicroChannel (MCA) en su serie PS/2.

Tuvo un uso limitado en computadores personales con procesadores 80386 y 80486 hasta mediados de los años noventa cuando fue reemplazado por los buses locales tales como VESA y PCI.

EISA amplía la arquitectura de bus ISA a 32 bits y permite que más de una CPU comparta el bus. EISA es compatible con ISA.

2.- PCI (PERIPHERAL COMPONENT INTERCONNECT)

Se trata de un bus estándar para conectar dispositivos periféricos directamente a la mainboard. Desplazó al bus ISA de la mayoría de las PC"s. Entre sus principales características podemos notar:

  • Ruta de datos más ancha.

  • El bus PCI proporciona un ancho de bus de 32 bits o 64 bits. Conteniendo un espacio de dirección de 32 bits (4 GB)

  • Alta Velocidad

  • El bus PCI permite configuración dinámica de un dispositivo periférico.

3.- AGP (ACCELERATED GRAPHICS PORT)

Creado por Intel en 1996 como solución a los cuellos de botella que se producían en las tarjetas gráficas que usaban el bus PCI. Solo se puede conectar un dispositivo en este puerto mientras que en el bus PCI se pueden conectar varios.

El puerto AGP se utiliza exclusivamente para conectar tarjetas de video y debido a su arquitectura sólo puede haber una ranura en cada mainboard. Dicha ranura mide unos 8 cm. y se encuentra a un lado de las ranuras PCI. Entre sus principales características tenemos:

  • El bus AGP es de 32 bit como PCI.

  • Tiene 8 canales más para acceso a la memoria RAM. Además puede acceder directamente a esta a través del NorthBrigde pudiendo emular así memoria de vídeo en la RAM.

  • La velocidad del bus es de 66 MHz.

  • El bus AGP cuenta con diferentes modos de funcionamiento:

  • AGP 1X: velocidad 66 MHz con una tasa de transferencia de 264 MB/s y funcionando a un voltaje de 3,3V.

  • AGP 2X: velocidad 133 MHz con una tasa de transferencia de 528 MB/s y funcionando a un voltaje de 3,3V.

  • AGP 4X: velocidad 266 MHz con una tasa de transferencia de 1 GB/s y funcionando a un voltaje de 3,3 o 1,5V para adaptarse a los diseños de las tarjetas gráficas.

  • AGP 8X: velocidad 533 MHz con una tasa de transferencia de 2 GB/s y funcionando a un voltaje de 0,7V o 1,5V.

Ya no se desarrollan mejoras sobre el puerto AGP, pues esta siendo reemplazado por el bus PCI-Express.

PCI-EXPRESS

PCI-Express es un nuevo desarrollo del bus PCI que usa los conceptos de programación y los estándares de comunicación existentes, pero se basa en un sistema de comunicación mucho más rápida.

Es una evolución de PCI, en la que se consigue aumentar el ancho de banda mediante el incremento de la frecuencia llegando a ser 32 veces más rápido que el PCI 2.1.

PCI-Express se creó para ser usado sólo como bus local. Debido a que se basa en el bus PCI las tarjetas actuales pueden ser reconvertidas a PCI-Express cambiando solamente la capa física. La velocidad superior del PCI-Express permitirá reemplazar a casi todos los demás buses.

4.- UNIDAD CENTRAL DE PROCESAMIENTO (CPU)

El CPU o Unidad Central de Proceso es la unidad donde se ejecutan las instrucciones de los programas y se controla el funcionamiento de los distintos componentes del computador, es un microchip con una alta escala de integración, es decir, que aloja millones de transistores en su interior. Se dice que si la mainboard es el sistema nervioso de la computadora, el procesador o correctamente llamado CPU, es el cerebro.

Suele estar integrada en un chip denominado microprocesador. Sin el la computadora no podría funcionar. 

El CPU gestiona cada paso en el proceso de los datos. Actúa como el conductor de supervisión de los componentes de hardware del sistema.

El CPU está compuesto por: registros, la unidad de control, la unidad aritmético-lógica, y dependiendo del procesador, una unidad de coma flotante.

Cada fabricante de microprocesadores tiene sus propias familias de productos y cada familia su propio conjunto de instrucciones.

El microprocesador realiza en varias fases de ejecución la realización de cada instrucción:

  • Lee la instrucción desde la memoria principal.

  • Decodifica la instrucción, es decir, determinar qué instrucción es y por tanto qué se debe hacer.

  • Realiza la operación correspondiente.

  • Ejecuta la operación.

  • Escribe los resultados en la memoria principal o en los registros.

Cada una de estas fases se realiza en uno o varios ciclos de CPU dependiendo de la estructura del procesador. La duración de estos ciclos viene determinada por la frecuencia de reloj, y nunca podrá ser inferior al tiempo requerido para realizar la tarea individual (realizada en un solo ciclo) de mayor coste temporal.

El microprocesador dispone de un oscilador o cristal de cuarzo capaz de generar pulsos a un ritmo constante de modo que genera varios ciclos (o pulsos) en un segundo.

Para determinar las diferentes capacidades que tienen los procesadores se pueden evaluar algunas características de ellos, por ejemplo:

1.- VELOCIDADES DEL CPU

Trabaja en frecuencias de Megahercios (MHz) o Gigahercios (GHz), lo que quiere decir millones o miles de millones, respectivamente, de ciclos por segundo. El indicador de la frecuencia de un microprocesador es un buen referente de la velocidad de proceso del mismo, pero no el único.

La cantidad de instrucciones necesarias para llevar a cabo una tarea concreta, así como la cantidad de instrucciones ejecutadas por ciclo son los otros dos factores que determinan la velocidad de la CPU. La cantidad de instrucciones necesarias para realizar una tarea depende directamente del juego de instrucciones disponible.

2.- BUS DE DATOS

Esta es otra de las formas de medir la capacidad que tiene un procesador. Como ya lo explicamos en la sección anterior, un bus es un conjunto de conductos que permiten la transferencia de datos. El ancho del bus de datos determina la cantidad de señales o datos que puede transmitir al mismo tiempo. Cuanto mayor sea el número de líneas, mayor será la capacidad del procesador.

3.- BUS DE DIRECCIONES

Este es otro parámetro muy usado para la medición de los procesadores. Al igual que el bus de datos, el bus de direcciones es un conjunto de canales cuyo número indica la cantidad de direcciones de memoria a la que el procesador puede acceder.

4.- REGISTROS INTERNOS

Los registros internos de un procesador es un indicador de qué tanta información puede manejar el procesador de manera simultánea.

5.- MEMORIA:

  • Este es uno de los componentes principales y que es más sensible a los cambios en su estándar comercial. A lo largo de la historia, han sido muchos los esfuerzos para mejorar su performance y su capacidad de almacenamiento. Los avances en el software y en las demandas de video han exigido que las memorias siempre estén un paso adelante de estas necesidades.

  • La memoria o memoria RAM como es comunmente conocida se clasifica en :

  • SIMM.

  • DIMM

  • DDR / DDR2

  • SO-DIMM

  • RIMM

Adicionalmente existen dos memorias más que son las PC CARD para PC portátiles y la Stick Memory o USB drive, pero no serán consideradas en esta sección.

Esta pequeña clasificación reune a los tipos de memoria más conocidos y que se encuentran aún en vigencia. Las diferencias entre ellos radican en el número de contactos, en su capacidad de almacenamiento y en su velocidad de acceso.

Además existe una clasificación por velocidad de acceso la cual se describe en el Cuadro 1:

TIPO

AÑO

VELOCIDAD RELOJ (Mhz)

FPM

1990

25

EDO

1994

40

SDRAM

1996

66

SDRAM

1998

100

SDRAM

1999

133

RDRAM

1999

400

RDRAM

2003

533

DDR SDRAM

2001

100

DDR SDRAM

2001

133

DDR SDRAM

2002

166

DDR SDRAM

2004

200

DDR2

2004

200

DDR2

2005

333

Cuadro 1

Podemos decir que en la actualidad las memorias DDR2 son las más rápidas alcanzando 400 Mhz. A esta importante característica se añade su bajo consumo de energía y por consiguiente su baja producción de calor.

6.- FUENTE DE PODER

Este es tal vez uno de los componentes menos considerados por los usuarios de PC. Sin embargo, cumple una función muy importante al suministrar de la energía eléctrica necesaria para el funcionamiento del sistema. La fuente de poder recibe la corriente eléctrica alterna desde la línea pública y la transforma en continua. Debido a que muchos componentes de la PC funcionan a 3 / 5 v. y otros a 12 v.

La fuente de poder se debe encargar del suministro de ambos voltajes.

A pesar que el ámbito de las fuentes de poder puede estar inclinado hacia el campo de la electricidad y no de la informática, existen algunos criterios que si son de interés del presente trabajo como el de las formas que las fuentes adquieren. En el Cuadro 2 se hace un resumen de éstos:

NOMBRE

DESCRIPCION

AÑO DE APARICION

PC/XT/AT

Usado en placas con procesador 286. En desuso en la actualidad.

1984

BABY AT/LPX

Alcanzó gran popularidad entre 1985 y 1995. Tenía los mismos conectores que el AT, pero era de menor tamaño.

1985

ATX/NLX

Se suprimió el conector del monitor. Primer estándar.

1995

MINI ATX / MICRO-ATX/SFX

Más pequeño que el ATX, no cuenta con suministro de 5v.

1996

WTX

Desarrollado por Intel. Destinado al uso de servidores.

1998

ATX12V

Más reciente estándar con suministro de 12 v.

2000

Cuadro 2

Componentes de entrada y salida

DISPOSITIVOS DE ENTRADA:

1.- MOUSE

El mouse es un periférico, generalmente fabricado en plástico, utilizado como dispositivo de entrada de datos y de control. En los programas relacionados con el diseño y entornos operativos gráficos el mouse permite utilizar el software de forma más sencilla y rápida que si se realizara con el teclado. Sin embargo, el software pone a disposición todas sus funciones siempre accesibles desde el teclado de manera que sea el usuario quien voluntariamente escoja el periférico que le resulte más cómodo.

TIPOS DE MAUSE:

Mouse mecánico:

Un mouse mecánico tiene una gran bola en su fondo y esta bola conduce dos ruedas internas, una para cada eje coordenado, que generan pulsos en respuesta al movimiento del mouse.

La circuitería dentro del mouse cuenta los pulsos generados por las ruedas internas y manda información sobre los movimientos del mouse al computador. Ésta es procesada en el controlador del sistema operativo correspondiente.

Mouse óptico:

Es una variante de mouse que carece de bola de goma con lo que se consigue evitar el frecuente problema de la acumulación de suciedad en el eje de transmisión y por sus características ópticas es mucho menos propenso a sufrir este inconveniente. Se considera uno de los mouse más modernos y prácticos.

Mouse láser:

Este tipo de mouse es mucho más sensible que el mouse óptico haciéndolo ideal para los diseñadores gráficos y los fanáticos de los juegos por computadora. En vez de utilizar el sistema de refracción y el halo de luz roja que utilizan los ópticos, tiene un motor de captura de movimiento a base de un láser que es invisible al ojo humano.

Otro tipo de clasificación es por la conexión que tiene los mouse con la PC.

Mouse con cables:

Hoy en día se puede conseguir un mouse con cable a precios sumamente módicos lo que hace de éste el más popular. Sin embargo, también se puede conseguir un mouse con cable de altas prestaciones; por ejemplo, un mouse láser. Los hay de todos los tipos. Vienen con uno de 2 tipos de conectores posibles en la actualidad: Puerto USB y puerto PS/2. Aún existen versiones del mouse que se conectan por puerto Serial, pero son poco comunes.

Mouse inalámbrico:

Es un mouse que se usa sin cables de comunicación entre el computador y el mouse. Al usarlo, se requiere de un punto de concentración de la señal inalámbrica producida por el mouse. A este punto se le llama receptor y normalmente se conecta al computador por un puerto USB, aunque se le puede colocar un adaptador para que se conecte por el puerto PS/2.

Existen dos tipos importantes de mouse inalámbricos:

  • Radio Frecuencia (RF) Es el tipo más común y económico. Funciona enviando una señal a una frecuencia de 2.4Ghz, la misma que utilizan muchos teléfonos inalámbricos y las tecnologías inalámbricas IEEE 802.11b y IEEE 802.11g. No sufre de muchas desconexiones ni interferencias de los otros equipos en su misma frecuencia y tiene un rango aceptable de 3m.

  • Infrarrojo (IR) Éste utiliza la tecnología de transmisión de datos por señal infrarroja la misma que utilizan teléfonos móviles/celulares, los controles remotos de nuestros televisores y equipos de sonido. El rango de alcance es bastante inferior que el de radio frecuencia. También tienen el inconveniente de tener que mantener una línea visual directa e ininterrumpida entre el mouse y el receptor de la señal.

  • Bluetooth (Bt) Utiliza el relativamente nuevo estándar de transmisión inalámbrica Bluetooth, el mismo que utilizan los auriculares inalámbricos de los teléfonos celulares/móviles. El rango es de 10 metros.

2.- TECLADO:

Un teclado es un periférico utilizado para la introducción de órdenes y datos en un computador. Existen distintas disposiciones de teclado, para que se puedan utilizar en diversos idiomas.

Se han sugerido distintas alternativas a la disposición de teclado indicando ventajas tales como mayores velocidades de tecleado. La alternativa más famosa es el Teclado Simplificado Dvorak.

La disposición de las teclas se remonta a las primeras máquinas de escribir. Aquellas máquinas eran enteramente mecánicas. Al pulsar una letra en el teclado se movía un pequeño martillo mecánico que golpeaba el papel a través de una cinta impregnada en tinta. Al escribir con varios dedos de forma rápida, los martillos no tenían tiempo de volver a su sitio antes de que se moviesen los siguientes, de forma que se atoraban unos contra otros. Para que esto ocurriese lo menos posible se hizo una distribución de las letras de forma contraria a lo que hubiese sido lógico con base en la frecuencia con la que cada letra aparecía en un texto. De esta manera la pulsación era más lenta y los martillos se atoraban menos veces.

Cuando aparecieron las máquinas de escribir eléctricas y después los computadores, con sus teclados también eléctricos, se consideró seriamente modificar la distribución de las letras en los teclados, colocando las letras más corrientes en la zona central. El nuevo teclado ya estaba diseñado y los fabricantes preparados para iniciar la fabricación. Sin embargo, el proyecto se canceló debido al temor de que los usuarios tuvieran excesivas incomodidades para habituarse al nuevo teclado, y que ello perjudicara la introducción de los computadores personales, que por aquel entonces se encontraban en pleno auge.

El primer teclado apareció en 1981 y tenía 83 teclas, luego en 1984 apareció el teclado PC/AT con 84 teclas (una más al lado de SHIFT IZQ).

En 1987 IBM desarrolló el MF-II (Multifunción II o teclado extendido) a partir del AT. Sus características son que usa el mismo interfaz que el AT. Añade muchas teclas más, se ponen leds y soporta el Scan Code set 3, aunque usa por defecto el 2. De este tipo hay dos versiones, la americana con 101 teclas y la europea con 102. Los teclados PS/2 son básicamente iguales a los MF-II. Las únicas diferencias son el conector (mini-DIN de 6 pin) más pequeño que el AT y más comandos, pero la comunicación es la misma, usan el protocolo AT. Incluso los ratones PS/2 usan el mismo protocolo.

Actualmente la denominación AT ó PS/2 sólo se refiere al conector porque hay una gran diversidad de ellos.

Un teclado está realizado mediante un microcontrolador, normalmente de las familias 8048 u 8051 de Intel. Estos microcontroladores ejecutan sus propios programas que están grabados en sus respectivas ROMs internas. Estos programas realizan la exploración matricial de las teclas para determinar cuales están pulsadas.

Por cada pulsación o liberación de una tecla el microcontrolador envía un código identificativo que se llama Scan Code. Para permitir que varias teclas sean pulsadas simultáneamente, el teclado genera un código diferente cuando una tecla se pulsa y cuando dicha tecla se libera.

La comunicación del teclado es vía serial, aunque las tecnologías inalámbricas explicadas en la sección de mouse también son extensibles a estos dispositivos.

DISPOSITIVOS DE SALIDA:

1.- MONITOR:

El monitor es el componente más evidente cuando se habla de una computadora. En los primeros años de las PC, las computadoras no contaban con un sistema de comunicación visual con el usuario, en su lugar las luces parpadeantes que indicaban el procesamiento de los datos y una máquina de escribir que imprimía el resultado hacían ver lo que era capaz de hacer una PC.

Hoy en día los días en que prácticamente todo nuestro escritorio era ocupado por un monitor han quedado atrás con la aparición de los monitores LCD que cuentan con la misma tecnología que los monitores de laptop. Hoy en día existen monitores desde 14" hasta 21-22" muy recomendables para trabajos de edición fotográfica o para los fanáticos de los juegos de video.

2.- TARJETA DE VIDEO:

Es una tarjeta de ampliación o un conjunto de chips incorporados en una placa para poder visualizar texto y gráficos en el monitor de un computador. La también incluye un conector físico para el cable del monitor.

Una característica importante de una tarjeta de video es su resolución y la cantidad de colores que ésta puede soportar. La resolución es una medida de la cantidad de puntos horizontales y verticales que se pueden dibujar en una pantalla. Su notación es: 640 x 480, por citar la resolución más básica. Esto quiere decir 640 píxeles de ancho y 480 píxeles de alto, siempre con referencia a la pantalla. Las tarjetas de video cuentan con una pequeña memoria integrada que determinará la cantidad de colores y la resolución que podrá manejar.

El Cuadro 3 muestra un resumen de las diferentes resoluciones disponibles en el mercado:

TIPO DE TARJETA

RESOLUCIÓN

COLORES SOPORTADOS

CGA

Hasta 640 x 200

Hasta 4 ( resol. 300×200)

EGA

640 x 350

16

VGA

640 x 480

256

SVGA

2048 x 1536

16 millones

Cuadro 3

Unidades de almacenamiento

1.- DISQUETERA:

Es un dispositivo que poco a poco va quedando obsoleto y es utilizado para leer y grabar información en un disquete. 

2.- LECTORAS DE CD – ROM:

Los CD-ROM son leídos por una lectora de CD-ROM y escritos por grabadoras de CD (a menudo llamadas "quemadoras"). Los lectores CD-ROM puede ser conectados a la computadora por la interfase IDE (ATA), por una interfaz SCSI o a través del puerto USB. La mayoría de los lectores de CD-ROM leen CD de audio y CD de vídeo (VCD) con el software apropiado.

3.- LECTORAS DE DVD:

Los lectores de DVD-ROM también leen los DVD-Video y los formatos en CD, como CD-ROM, CD-R, CD-RW y CDs de Video. Para que pueda leer los DVD y CD las lectoras contienen en su parte interna un ojo óptico en la cual lee el formato de unos y ceros con la que se encuentran grabados estos tipos de CD"s.

4.- EL DISCO DURO:

Se llama disco duro (en inglés hard disk, abreviado con frecuencia HD o HDD) al dispositivo encargado de almacenar información de forma persistente en un computador. Los discos duros generalmente utilizan un sistema de grabación magnética analógica. El disco aloja dentro de una carcasa una serie de platos metálicos apilados girando a gran velocidad. Sobre estos platos se sitúan los cabezales encargados de leer o escribir los impulsos magnéticos. Hay distintos estándares a la hora de comunicar un disco duro con el sistema. Los más utilizados son IDE/ATA, SCSI, Ultra ATA y Serial ATA. Dada la importancia y complejidad de los discos duros explicaremos brevemente algunas características de este dispositivo.

1.- ESTRUCTURA FÍSICA DEL DISCO DURO:

Dentro de un disco duro hay varios platos (entre 2 y 4), que son discos (de aluminio o cristal) concéntricos y que giran todos a la vez.

El cabezal de lectura y escritura es un conjunto de brazos alineados verticalmente que se mueven hacia dentro o fuera según convenga, todos a la vez. En la punta de dichos brazos están las cabezas de lectura/escritura, que gracias al movimiento del cabezal pueden leer tanto zonas interiores como exteriores del disco. Cada plato tiene dos caras, y es necesaria una cabeza de lectura/escritura para cada cara (no es una cabeza por plato, sino una por cara). Si se mira el esquema Cilindro-Cabeza-Sector (más abajo), a primera vista se ven 4 brazos, uno para cada plato. En realidad, cada uno de los brazos es doble, y contiene 2 cabezas: una para leer la cara superior del plato, y otra para leer la cara inferior. Por tanto, hay 8 cabezas para leer 4 platos.

Las cabezas de lectura/escritura nunca tocan el disco, sino que pasan muy cerca (hasta a 3 nanómetros). Si alguna llega a tocarlo, causaría muchos daños en el disco, debido a lo rápido que giran los platos (uno de 7.200 revoluciones por minuto se mueve a 120 Km/h en el borde).

2.- ESTRUCTURA LÓGICA DEL DISCO DURO:

Dentro del disco se encuentran:

  • El Master Boot Record (en el sector de arranque), que contiene la tabla de particiones.

  • Las particiones, necesarias para poder colocar los sistemas de ficheros

CARÁCTERISTICAS DEL DISCO DURO:

Las características que se deben tener en cuenta en un disco duro son:

Tiempo medio de acceso:

Tiempo medio que tarda en situarse la aguja en el cilindro deseado; suele ser aproximadamente un 1/3 del tiempo que tarda en ir desde el centro al exterior o viceversa.

Tiempo de Giro:

Tiempo que tarda el disco en girar media vuelta, que equivale al promedio del tiempo de acceso (tiempo medio de acceso). Una vez que la aguja del disco duro se sitúa en el cilindro el disco debe girar hasta que el dato se sitúe bajo la cabeza; el tiempo en que esto ocurre es, en promedio, el tiempo que tarda el disco en dar medio giro; por este motivo la latencia es diferente a la velocidad de giro, pero es aproximadamente proporcional a esta.

Tasa de transferencia:

Velocidad a la que puede transferir la información al computador. Puede ser velocidad sostenida o de pico.

Caché de pista:

Es una memoria de estado sólido, tipo RAM, dentro del disco duro de estado sólido. Los discos duros de estado sólido utilizan cierto tipo de memorias construidas con semiconductores para almacenar la información. El uso de esta clase de discos generalmente se limita a las supercomputadoras, por su elevado precio.

5. – USB DRIVE O FLASH DRIVE:

Este dispositivo es de reciente aparición y se esta convirtiendo rápidamente en un medio de almacenamiento muy utilizado por el público, pues tiene una gran portabilidad y un bajo costo. Esta tecnología aprovecha la gran estandarización con que cuentan los puertos USB generalmente incluido en todas las mainboard. Además, casi no existe sistema operativo que no le brinde soporte. Su dimensiones muy pequeñas hacen que no solo sea utilizado para el almacenamiento de datos sino también como reproductores de música y video.

Clasificación de las computadoras

Las computadoras de uso general vienen en muchos tamaños y capacidades. Estos términos existentes desde hace mucho tiempo, pero sus capacidades han cambiado. Los términos son: supercomputadora, macrocomputadora, minicomputadora, estación de trabajo y computadora personal. Veamos sólo algunas características de cada clasificación

1.- MACROCOMPUTADORA:

– Son grandes, rápidas y bastante costosas.

– Permiten que cientos de terminales puedan compartir grandes bases centrales de datos.

– Terminal – computadora que no tiene su propio CPU o almacenamiento, es sólo un dispositivo de entrada/salida que se conecta a otra computadora localizada en otra parte.

– Las utilizan las empresas privadas u oficinas de gobierno para tener centralizado el almacenamiento, procesamiento y la administración de grandes cantidades de información.

2.- SUPERCOMPUTADORA:

– Constituyen el tipo más grande, rápido y costoso de estos aparatos.

– Usan su gran poder de procesamiento en la solución de problemas complejos.

– Su velocidad impresionante puede llegar a la de billones de instrucciones por segundo.

– Generan una gran cantidad de calor.

– Pueden costar de millones en adelante.

– Consume gran cantidad de energía eléctrica.

3.- MICROCOMPUTADORA:

– Vienen en todas formas y tamaños.

– Se encuentran en oficinas, salones de clase y hogares.

– Cuestan generalmente desde $1,000 en adelante.

Enseguida se dará una explicación de cada una de las anteriores para especifica sus orígenes, desarrollo futuro, algunos ejemplos y los usos de cada una de ellas.

4.- MINICOMPUTADORAS:

– Son algo mayores que las micros.

– Se utilizan para tareas específicas.

– Cuestan miles

– Conservan algunas características de "mainframe".

– Maneja tareas de procesamiento para usuarios múltiples.

5.- ESTACIONES DE TRABAJO:

– Está entre las mini y las macro.

– Es una computadora personal

– Las estaciones de trabajo tienen casi la misma capacidad que las microcomputadoras, pero generalmente es usada por una sola persona.

MACROCOMPUTADORAS

La macrocomputadora es un sistema de aplicación general cuya característica principal es el hecho de que el CPU es el centro de casi todas las actividades de procesamiento secundario.

Por lo general cuenta con varias unidades de disco para procesar y almacenar grandes cantidades de información. El CPU actúa como arbitro de todas las solicitudes y controla el acceso a todos los archivos, lo mismo hace con las operaciones de Entrada / Salida cuando se preparan salidas impresas o efímeras. El usuario se dirige a la computadora central de la organización cuando requiere apoyo de procesamiento.

De mayor tamaño en uso común es el macrocomputador. Las macrocomputadoras o también llamados mainframes están diseñadas para manejar grandes cantidades de entrada, salida y almacenamiento.

Tomemos como ejemplo el Departamento de Vehículos Automotores (DMV) de California. Esta agencia estatal mantiene oficinas en cada ciudad importante en California, cada una de las cuales tiene muchos empleados que trabajan con terminales de computadora.

Una terminal que es una especie de computadora que no tiene su propio CPU o almacenamiento; es sólo un dispositivo de entrada y salida que actúa como una ventana hacia otra computadora localizada en alguna parte. Todas las terminales en las oficinas del DMV de California están conectadas a una base de datos común en la capital del estado. La base de datos está controlada por una computadora mainframe que puede manejar las necesidades de entrada y salida de todas las terminales conectadas a ella. Cada usuario tiene acceso continuo a los registros de manejo e información administrativa de cada conductor con licencia y vehículo del estado (literalmente millones de registros). El manejo de este volumen de accesos de usuarios sería imposible en sistemas más pequeños.

Las computadoras mainframe de hoy generalmente cuestan desde $120,000 hasta varios millones de dólares. Era usual que las computadoras mainframe ocuparan cuartos completos o incluso pisos enteros de edificios. Generalmente eran colocadas dentro de oficinas con vidrios sellados y aire acondicionado especial para mantenerlas a una temperatura baja, y sobre pisos falsos para ocultar todos los cables necesarios para las conexiones de la máquina.

Este tipo de instalación ya no es muy utilizada. Hoy en día, una computadora mainframe común se ve como una hilera sencilla de grandes archiveros, aunque puede seguir requiriendo de un ambiente controlado.

Orígenes

Nadie sabe realmente dónde se originó el término mainframe. Algunos viejos documentos de IBM definen explícitamente el término "frame" como una parte integral de una computadora: "el bastidor… estructuras de soporte de hardware… y todas las partes y componentes que contiene". Sólo podemos especular que cuando empezaron a aparecer computadoras de todos los tamaños y formas en los ambientes de cómputo, se referían a la computadora grande como el "mainframe" (el bastidor principal), como en el término "the main computer" (la computadora principal). Eventualmente el término se acortó a una palabra "mainframe". Desarrollos futuros

La "BLUE GENE", esa macrocomputadora que podrá realizar operaciones billonarias en segundos para descifrar los 3 millardos de letras químicas que integran el genoma humano o "mapa de la vida", representa un desafió y un logro de la inteligencia jamás imaginado.

Ciertamente que la tentación del conocer y del saber no tiene límites en el ser humano, y ello, de suyo nos ha diferenciado de las especies animales inferiores. Y, en teoría, tal capacidad para desbordar en el afán por descubrir y también para poner nuestros descubrimientos al servicio de la vida –e incluso de la muerte– debería llevarnos hacia una valorización más acabada del sentido último de nuestra esencia y de nuestra propia existencia. Lamentablemente no es así.

En la medida en que el hombre se percata de la realidad de ese "ser" que somos, expresada en la magnitud casi sobrenatural de sus logros, igualmente olvida que los límites de su libertad terrena sólo puede fijarlos él y que esa libertad de actuar y de hacer -a partir de un "punto" X- puede revertirse contra la propia libertad y la existencia humanas.

La reflexión al respecto es crucial y oportuna. El logro del genoma humano es el producto de una alquimia entre la biología, la química y la cibernética. Pero avanzamos sin cesar hacia el saber de la causa material última que todo lo explica, en otras palabras, nos movemos hacia el secreto humano de la vida, sin detenernos un instante para preguntarnos acerca del ¿porqué? y sobretodo del ¿para qué? de tan maravillosa travesía.

El genoma y su disección detallada contribuirán a un amplio desarrollo de la medicina predictiva y ayudarán a resolver a tiempo numerosas enfermedades que hoy aquejan al Hombre y de no mediar una consideración ética proporcional sobre lo que hoy hacemos y sobre lo que, además, hará por nosotros en un futuro inmediato "BLUE GENE", quizá lleguemos a la convicción de que como humanos somos tan "producibles" y "prescindibles" como las salchichas que adquirimos en un automercado.

Y en dicho momento, sin lugar a dudas, no sólo podremos clonar o duplicar a hombres y a mujeres, en sus características genéticas: realidad ya en cierne; lo que es peor, cuando estorbemos –exceso de trabajadores, crecimiento de comensales, límites de vivienda o espacio habitable- probablemente se nos podrá enviar como basura hacia el depósito de androides reciclables o, de ser el caso, al de los desperdicios. Téngase presente, sólo a manera de ejemplo, que el muy actual debate sobre la pena de muerte para los delincuentes –que angustia moralmente incluso a no pocos de sus partidarios- pasarían a ser, durante la era de BLUE GENE, una verdadera trivialidad. ! Lo que sería bastante grave ¡

De alguna forma los mainframes son más poderosos que las supercomputadoras porque soportan más programas simultáneamente. Pero las supercomputadoras pueden ejecutar un solo programa más rápido que un mainframe.

En el pasado, los Mainframes ocupaban cuartos completos o hasta pisos enteros de algún edificio, hoy en día, un Mainframe es parecido a una hilera de archiveros en algún cuarto con piso falso, esto para ocultar los cientos de cables de los periféricos, y su temperatura tiene que estar controlada.

Aplicaciones El CPU actúa como árbitro de todas las solicitudes y controla el acceso a todos los archivos, lo mismo hace con las operaciones de Entrada/Salida cuando se preparan salidas impresas o efímeras.

El usuario se dirige a la computadora central de la organización cuando requiere apoyo de procesamiento.

– El CPU es el centro de procesamiento

– Diseñadas para sistemas multiusuario

S U P E R C O M P U T A D O R A

Es una computadora de gran capacidad, tremendamente rápida y de coste elevado, utilizada en cálculos complejos o tareas muy especiales. Normalmente se trata de una máquina capaz de distribuir el procesamiento de instrucciones y que puede utilizar instrucciones vectoriales. Las supercomputadoras se usan, por ejemplo, para hacer el enorme número de cálculos que se necesitan para dibujar y animar una nave espacial, o para crear un dinosaurio en movimiento para una película.

También se utilizan para hacer las previsiones meteorológicas, para construir modelos científicos a gran escala y en los cálculos de las prospecciones petrolíferas.

Orígenes

Charles J. Murray [1] menciona cómo después de una rara presentación pública en el Centro de Investigación Atmosférica en Boulder, Colorado (E.E.U.U.) en 1976, Seymour Cray se ofreció a responder preguntas de la audiencia. Sin embargo, los asistentes, que eran en su mayoría programadores de las supercomputadoras que él había diseñado, se quedaron completamente callados durante varios largos minutos. Tras haberse marchado Cray, el director de la división de cómputo del centro de investigación en cuestión reprimió a sus programadores. "¿Por qué nadie alzó la mano?", espetó.

Después de un momento de tensión, un programador se atrevió a replicar tímidamente: "¿Cómo se le habla a Dios?". Esa era la forma en que los programadores y los diseñadores de computadoras de todo el mundo veían en aquel entonces a Cray. Y tal vez esa visión, por extrema que parezca, tenía algo de sentido. Después de todo, Cray había logrado construir con sus propias manos las computadoras más rápidas sobre la Tierra. El "ingeniero supremo" como lo llamaban sus admiradores, había revolucionado la industria de las computadoras, haciendo temblar a gigantes como Control Data Corporation y la misma IBM, que no pudieron superar sus "cosas simples y tontas", que era como él llamaba a sus diseños tan radicales y eficientes. La primera supercomputadora

Cray quería construir una computadora de transistores, ya que pensaba que los bulbos eran una tecnología obsoleta, y su primer problema fue conseguir dinero para comprarlos, pues la situación financiera de CDC era muy endeble. Acudió a una tienda de Radio Shack y pidió los transistores más baratos que tenían, y empezó a trabajar con ellos. Pronto descubrió que sus características eléctricas eran tremendamente inconsistentes, pero no tuvo más remedio que diseñar un circuito que fuera muy tolerante a errores para compensar estos defectos de fabricación. Posteriormente, se hizo de más transistores mediante el artilugio de invitar a distribuidores de partes electrónicas a CDC, con la excusa de que comprarían grandes lotes de transistores y que querían ver cuáles les convenían más. En su afán por lograr una buena venta, los representantes de las compañías no sólo les regalaban varios transistores de muestra, sino que además solían invitar a los ingenieros de CDC a comer. Pese a todas sus carencias, Cray construyó la CDC 1604 que se puso a la venta en 1960. Con ello, se comenzó a forjar la leyenda del ingeniero de sólo 35 años de edad que había construído la computadora más rápida del mundo usando transistores defectuosos. Esta máquina no sólo le dio fama a CDC, sino también mucho dinero.

Esto trajo consigo más administradores y una mayor burocracia que nuevamente hastió a Cray. Entonces un día decidió pedirle a Norris que reubicara su laboratorio a 150 kilómetros de Minneapolis, en su pueblo natal, Chippewa Falls, pues necesitaba tranquilidad y quietud para sus nuevos proyectos. De tal forma, Cray partió con un puñado de ingenieros con el plan de diseñar la CDC 6600, que sería 50 veces más rápida que la CDC 1604. Utilizando transistores de silicio, disminuyendo la cantidad de alambre de los circuitos e introduciendo un innovador sistema de refrigeración usando freón para compensar por la gran cantidad de calor generada en su unidad central de proceso, la CDC 6600 fue introducida en 1963, con una capacidad para realizar 3 millones de operaciones por segundo, muy por arriba de la máquina líder de aquella época, la IBM 7094. En un memo interno de IBM escrito por Thomas Watson que se filtró a la prensa, el presidente de la gigantesca compañía reprendió fuertemente a sus empleados por haber perdido el liderazgo en el mercado ante "un equipo formado por sólo 34 personas incluyendo al que hace la limpieza". La fama de Cray se fue a las nubes, y la CDC 6600 se volvió tan importante que el gobierno de los Estados Unidos comenzó incluso a regular su venta al extranjero, para no poner en riesgo su supremacía tecnológica.

Tras completar la CDC 7600 (una máquina 4 veces más rápida que la 6600), el proyecto de Cray era construir la CDC 8600. Hacia 1972, el proyecto hubo de ser abandonado, pues la CDC decidió que estaba absorbiendo demasiados recursos y que no sería suficientemente redituable. Fue entonces cuando Cray decidió abandonar CDC tomando a 5 ingenieros con él para formar su propia empresa: Cray Research (CR). Su siguiente proyecto era la CRAY-1, una supercomputadora que usaría circuitos integrados. El único problema era que no tenían mucho dinero disponible y que no se veía de dónde podrían obtener más. En un alarde de osadía, Cray envió a John Rollwagen (su único administrador) a Nueva York a obtener dinero de inversionistas interesados en una empresa que no había completado todavía su primer producto, el cual costaría $8.8 millones de dólares, y del que habían no más de 80 clientes potenciales. Contra todos los pronósticos, CR logró reunir $10 millones de dólares con lo cual pudo concluirse la CRAY-1 en marzo de 1976. Sin embargo, su éxito tecnológico tuvo costos personales, y Cray se divorció de Verene en 1975. Un año después conoció a Geri M. Harrand, con quien contraería nupcias más tarde. Fue en esta época que comenzó a realizar más actividades fuera de su trabajo. Aprendió a esquiar, y empezó a viajar con frecuencia.

El proyecto de la CRAY-2, como era de esperarse, era sumamente ambicioso. Cray pensaba utilizar los indomables chips de arseniuro de galio para construir una máquina al menos 5 veces más rápida que la CRAY-1. Sin embargo, sus múltiples problemas técnicos lo convencieron de retornar a los chips de silicio y terminó la máquina en 1985. Usando 4 procesadores, la CRAY-2 resultó ser de 6 a 12 veces más rápida que la CRAY-1, pero a pesar de eso sólo 27 unidades se lograron vender (la mitad que las que se vendieron de la CRAY-1). Además, debido a sus numerosos retrasos, la compañía había decidido apoyar a otro genio naciente llamado Steve Chen, que los salvó de la bancarrota con el modelo CRAY X-MP, que era como una CRAY-1½. Eventualmente, Rollwagen se vio forzado a elegir entre Chen y Cray para mantener a la compañía a flote, y decidió optar por el primero. Cray abandonó CR en 1989 para iniciar Cray Computer Corporation, la cual se daría a la tarea de construir la CRAY-3 (que usaría arseniuro de galio) con recursos provenientes en su mayor parte de CR, mientras al mismo tiempo se patrocinaba la CRAY Y-MP que Chen estaba construyendo.

Pronto la empresa se vio en problemas financieros, y en su afán por recortar gastos acabaron por perder a Chen y a Cray. El primero formó su propia empresa: Supercomputer Systems, la cual gozó de un fugaz éxito para luego desaparecer. A Cray le tomó 3 años y $300 millones de dólares convencerse que la CRAY-3 no podía construirse. Sin inmutarse, empezó a trabajar inmediatamente en la CRAY-4, una máquina que tendría 64 procesadores y que correría a 1 Gigahertz de velocidad. Pero sus sueños se vieron cortados de tajo al no poder obtener $20 millones de dólares más para su empresa, y en marzo de 1995 hubo de declararse en bancarrota.

Como siempre, todo esto le afectó muy poco, y en agosto de 1996 formó una nueva empresa llamada SRC Computers, pero debido a su tradicional hermetismo con la prensa, poco pudo saberse de sus planes futuros, excepto que intentaría producir la CRAY-5.

Desarrollo futuro

Las supercomputadoras son una herramienta de apoyo importante para las ciencias, dada su alta capacidad para realizar modelos de simulación y cálculos complejos. En la región sólo Brasil cuenta con una máquina de este tipo, que en los países desarrollados es muy utilizada por los centros de investigación. Con CLEMENTINA 2 se sienta además, una base para el desarrollo de Internet 2 en la Argentina, una vía de alta velocidad para usos científicos y académicos

La supercomputadora CLEMENTINA 2. es una herramienta, de uso intensivo en los países desarrollados, que permitirá a los científicos y tecnólogos de la Argentina disponer de un recurso vital para las investigaciones que enfrentan necesidades de cómputos de alta complejidad y precisión.

Por otra parte, un significativo porcentaje de investigaciones científicas y desarrollos tecnológicos requieren la utilización de una herramienta de alta performance capaz de ejecutar procesamientos en paralelo. El paralelismo es, precisamente, la característica distintiva de la supercomputadora, según definen los profesionales que trabajaron en el diseño de CLEMENTINA 2.

La supercomputadora facilitará además el abordaje de problemas nuevos o de mayor complejidad y facilitará el desarrollo de tecnología de punta: a mediano plazo, su aplicación ayudará a mejorar la competitividad científico-tecnológica de la Argentina sobre todo en el Mercosur. En la región, sólo existe una supercomputadora en Brasil, por lo que un centro que ofrezca tecnología de avanzada tendrá influencia no solamente en la Argentina sino en otros países del continente. Disponer de un centro informático de estas características facilita el proceso numérico y permite la simulación de problemas científicos, industriales, ambientales o sociales en modelos complejos, difíciles de abordar desde los mecanismos convencionales.

Para la comunidad científica argentina, que hasta hoy no poseía un acceso sencillo a este tipo de herramientas, contar con CLEMENTINA 2 tendrá consecuencias a largo alcance, ya sea por el eventual cambio de enfoque en las metodologías de investigación o el abordaje de nuevos planteos.

Entre los objetivos propuestos por la Secretaría de Ciencia, Tecnología e Innovación Productiva con el proyecto CLEMENTINA 2 están:

Potenciar proyectos de investigación y desarrollo y de interacción con la industria de la Argentina y el Mercosur.

Contribuir a la formación de recursos humanos en técnicas de supercomputación y sus aplicaciones.

Promover su uso en la educación superior de postgrado.

Además, conectada con instituciones de investigación científica y desarrollo tecnológico a través de enlaces, la supercomputadora facilitará:

La promoción de la investigación básica y aplicada.

La transferencia tecnológica.

La incorporación como usuarios del centro a las empresas de desarrollo tecnológico productivo para que mejoren la calidad de sus productos.

En el curso de la presentación, se realizaron videocoferencias con Estados Unidos y Resistencia (Chaco), además de demostraciones sobre aplicaciones en Telemedicina, imágenes Satelital, Logística y Modelos de Procesamiento.

¿Una supercomputadora por 1.000 dólares? (IDG) — Dentro de 18 meses y por sólo 1.000 dólares podrá tener en su escritorio el equivalente actual a una supercomputadora. La unidad de proceso central (CPU), elemento clave en los ordenadores personales de hoy, podría ser un componente innecesario en las computadoras de alto rendimiento del mañana.

La nueva máquina será capaz de procesar 100.000 millones de instrucciones por segundo, según Kent Gilson, técnico de la empresa Star Bridge Systems. Representantes de la compañía debatieron esta semana sus planes para una nueva computadora personal de altas prestaciones, mientras anunciaban la HAL-300GrW1, una "hipercomputadora" que se dice es 60.000 veces más rápida que un procesador Pentium a 350 megahertzios, y varias veces más veloz que la Pacific Blue, la supercomputadora de IBM (la prueba utilizada para medir el desempeño de HAL fue diferente a la empleada para probar la Pacific Blue, por lo que es difícil comparar los dos aparatos).

El nuevo ordenador de 1.000 dólares cumplirá muchas de las funciones de una supercomputadora, como reconocimiento de voz, lenguaje natural de procesamiento y presentaciones holográficas, añadió. Además, Gilson dice, este super-ordenador "podrá utilizar aplicaciones de PC con un emulador". Y además de todo esto ahora es posible tener una supercomputadora en casa

Ejemplo Un ejemplo de estas computadoras puede ser la Supercomputadora Cray

La supercomputadora Cray-1 (diseñada por Seymour Cray de Cray Research, de Eagan, Minnesota, EEUU) fue la primera capaz de ejecutar más de 100 millones de operaciones de coma flotante por segundo.

Entre los numerosos problemas tecnológicos que hubo que resolver, uno de los más importantes fue eliminar el calor generado por la alta velocidad de las operaciones lógicas.

Esto se consiguió montando los circuitos sobre placas verticales enfriadas mediante un sistema basado en gas freón. Aunque en la actualidad ya se han construido máquinas más rápidas, la Cray-1 sigue utilizándose para estudios matemáticos de problemas muy complejos, como por ejemplo el análisis del habla, la previsión climatológica e interrogantes básicos en física y química.

Además, la Cray-1 se utiliza como unidad de medida informal para las supercomputadoras más nuevas, algunas de las cuales se proyectan ahora para ser equivalentes a 1.000 crays. Dale E. Boyer/Photo Researchers, Inc.

Aplicaciones:

Así mismo son las más caras, sus precios alcanzan los 30 MILLONES de dólares y más; y cuentan con un control de temperatura especial, ésto para disipar el calor que algunos componentes alcanzan a tener. Unos ejemplos de tareas a las que son expuestas las supercomputadoras son los siguientes:

1. Búsqueda y estudio de la energía y armas nucleares.

2. Búsqueda de yacimientos petrolíferos con grandes bases de datos sísmicos.

3. El estudio y predicción de tornados.

4. El estudio y predicción del clima de cualquier parte del mundo.

5. La elaboración de maquetas y proyectos de la creación de aviones, simuladores de vuelo.

M I C R O C O M P U T A D O R A

Es un dispositivo de computación de sobremesa o portátil, que utiliza un microprocesador como su unidad central de procesamiento o CPU.

Los microordenadores más comunes son las computadoras u ordenadores personales, PC, computadoras domésticas, computadoras para la pequeña empresa o micros. Las más pequeñas y compactas se denominan laptops o portátiles e incluso palm tops por caber en la palma de la mano. Cuando los microordenadores aparecieron por primera vez, se consideraban equipos para un solo usuario, y sólo eran capaces de procesar cuatro, ocho o 16 bits de información a la vez. Con el paso del tiempo, la distinción entre microcomputadoras y grandes computadoras corporativas o mainframe (así como los sistemas corporativos de menor tamaño denominados minicomputadoras) ha perdido vigencia, ya que los nuevos modelos de microordenadores han aumentado la velocidad y capacidad de procesamiento de datos de sus CPUs a niveles de 32 bits y múltiples usuarios.

Los microordenadores están diseñados para uso doméstico, didáctico y funciones de oficina. En casa pueden servir como herramienta para la gestión doméstica (cálculo de impuestos, almacenamiento de recetas) y como equipo de diversión (juegos de computadora, catálogos de discos y libros). Los escolares pueden utilizarlos para hacer sus deberes y, de hecho, muchas escuelas públicas utilizan ya estos dispositivos para cursos de aprendizaje programado independiente y cultura informática. Las pequeñas empresas pueden adquirir microcomputadoras para el procesamiento de textos, para la contabilidad y el almacenamiento y gestión de correo electrónico.

Desde su lanzamiento al mercado, hace unos 20 años, los sistemas informáticos de escritorio han sido adoptados por numerosas empresas. Los ordenadores o computadoras también son útiles a la investigación y compilación de proyectos estudiantiles, y numerosos centros docentes han incorporado hoy estas máquinas al proceso de aprendizaje. Una de las principales ventajas de las computadoras es la cantidad de información que ofrecen mediante la conexión en red a una gran variedad de bases de datos.

Los gráficos que estudian estos alumnos representan una de las numerosas opciones y posibilidades que ofrece el software educativo.

– Pequeñas

– de bajo costo

– múltiples aplicaciones.

O R Í G E N E S

El desarrollo de las microcomputadoras fue posible gracias a dos innovaciones tecnológicas en el campo de la microelectrónica: el circuito integrado, también llamado IC (acrónimo de Integrated Circuit), que fue desarrollado en 1959, y el microprocesador que apareció por primera vez en 1971. El IC permite la miniaturización de los circuitos de memoria de la computadora y el microprocesador redujo el tamaño de la CPU al de una sola pastilla o chip de silicio.

El hecho de que la CPU calcule, realice operaciones lógicas, contenga instrucciones de operación y administre los flujos de información favoreció el desarrollo de sistemas independientes que funcionaran como microordenadores completos.

El primer sistema de sobremesa de tales características, diseñado específicamente para uso personal, fue presentado en 1974 por Micro Instrumentation Telemetry Systems (MITS).

El editor de una revista de divulgación tecnológica

ESTACIONES DE TRABAJO O WORKSTATIONS

Las estaciones de trabajo se encuentran entre las minicomputadoras y las macrocomputadoras (por el procesamiento). Las estaciones de trabajo son un tipo de computadoras que se utilizan para aplicaciones que requieran de poder de procesam iento moderado y relativamente capacidades de gráficos de alta calidad. Son usadas para:

Estaciones de red Son dispositivos de cómputo diseñados para operar como estaciones de usuario, por lo general configurados sin disco duro y con capacidades de procesamiento independientes del servidor. Para programas y almacenamiento de datos, dependen por lo general de un servidor y de estar conectadas a una red.

Estaciones de trabajo (Workstations) Son dispositivos de cómputo diseñados para realizar trabajos y procesos más complejos y pesados que los que podrían realizarse en una PC. Por su naturaleza, se encuentran conectados a una red.

Desarrollo hacia el futuro

SGI presenta la nueva familia de estaciones de trabajo Silicon Graphics® 230, Silicon Graphics® 330 y Silicon Graphics® 550 para sistemas operativos Microsoft® Windows NT® y Linux.

Los nuevos sistemas están basados en procesadores Intel Pentium III e Intel Pentium III Xeon y certificados para los sistemas operativos Microsoft® Windows NT® 4.0 y Red Hat® 6.1.

Las workstations Silicon Graphics® 230, Silicon Graphics® 330 y Silicon Graphics® 550 aceleran las funciones gráficas OpenGL®, permitiendo a los usuarios obtener mayor realismo en los modelos 3D.

Estas características son esenciales para aquellos profesionales que trabajan sobre Windows NT y están disponibles también, y por primera vez, para usuarios Linux.

"Los clientes no son todos iguales. Algunos necesitan la simplicidad y fácil acceso a diferentes aplicaciones que ofrece Windows NT, otros quieren la confiabilidad y el bajo costo de Linux, mientras hay quienes requieren de la increíble escalabilidad de nuestros productos IRIX," dijo Greg Goelz, vicepresidente de la división de workstations y servidores basados en arquitectura Intel para SGI.

"Sin importar sus requerimientos particulares, nuestros clientes concuerdan en la necesidad de sistemas con capacidades gráficas, expertise y soporte como solo SGI puede ofrecer" Las nuevas workstations fueron diseñadas teniendo en cuenta las demandantes necesidades de profesionales técnicos y creativos de las áreas de generación de contenidos digitales, diseño por computadora, gobierno, medicina e investigación científica.

La primera workstation Linux optimizada para gráficos Este anuncio significa la introducción de la primera estación de trabajo de la compañía para usuarios Linux, y es la primer workstation de la industria diseñada para acelerar gráficos 3D OpenGL sobre SO Linux.

"Los nuevos sistemas SGI proveen una excelente plataforma tanto para aquellos profesionales que trabajan en ambientes Windows NT como en Linux," dijo Tom Copeland, vicepresidente de workstations y sistemas de alta performance para IDC.

"Adicionalmente, la implementación optimizada de OpenGL para Linux provee un ambiente excelente para desarrolladores de nuevas aplicaciones para Linux.

"Expansión hacia nuevos mercados La workstation Silicon Graphics 230, ofrece capacidades gráficas a una amplia base de usuarios y a precios realmente competitivos. Beneficios de la nueva familia de workstations SGI Performance de Sistema.

Las workstations están disponibles en configuraciones de uno o dos procesadores Intel Pentium III o Pentium III Xeon, front-side bus de 133 Mhz, hasta 2 GB de memoria y hasta 90 GB de espacio en disco interno.

Performance Gráfica. La compañía ofrece los gráficos VPro en sus estaciones de trabajo Windows y Linux. Estos gráficos, sobre las estaciones de trabajo Silicon Graphics 230, 330 y 550, ofrecen hasta 64 MB de memoria gráfica DDR (double data rate) de alta velocidad.

Los sistemas ofrecen, asimismo, performance geométrica sobre 17 millones de triángulos* por segundo y hasta 540 megapíxeles por segundo, permitiendo obtener mayor realismo e interactividad en modelos 3D.

Capacidad de expansión. SGI ha diseñado el sistema para adaptarse a las necesidades actuales y futuras de los profesionales técnicos y creativos. Los sistemas pueden ser expandidos para ofrecer hasta 90 GB de espacio en disco, capacidad crítica para quienes trabajan con archivos extensos.

Adicionalmente, los sistemas han sido diseñados de manera tal de poder sacar provecho de avances tecnológicos futuros en lo que a gráficos y capacidad de procesamiento se refiere. Flexibilidad. La nueva familia de workstations viene con sistema operativo Windows o Linux preinstalado, así como también sin sistema operativo.

Los canales de distribución y partners de SGI podrán configurar y customizar los sistemas dependiendo de los requerimientos específicos. La Silicon Graphics 230 ya está disponible; las Silicon Graphics 330 y 550 estarán disponibles para mediados de este año. *Geometry performance based on 5 pixel, smooth shaded, Z-buffered triangles.

Ejemplo RS/6000 43P MODELO 140 SERVIDOR O ESTACIONES DE TRABAJO DESCRIPCION GENERAL:

El modelo 43P 140 tiene un procesador a 166 Mhz ó a 200Mhz PowerPC 604e soportando una gran variedad de gráficos de 2D y 3D ofreciendo excelentes gráficos con el mejor precio y rendimiento. Este soporta adaptadores de comunicación asíncronos de alta velocidad Ethernet.

Una selección de veloces procesadores, múltiples sistemas operativos, y robustas características hacen de este modelo una buena inversión tanto estaciones de trabajo cliente como en servidores de trabajo en grupo.

CONFIGURACION BASICA:

Procesador PowerPC 604e

Uniprocesador

166Mhz/200Mhz

32MB/768MB en memoria

Memoria de datos/instrucciones de 32KB

Memoria cache de 512KB L2 de 64 bit

6 slots de memoria

3 bus PCI, 2 PCI/ISA

2.1GB en discos hasta 13.3GB

Hasta 291GB en disco externo SCSI.

POSICIONAMIENTO

El modelo 140 esta en el nivel de rango medio para estaciones de trabajo en la plataforma RS/6000 al igual que servidores de trabajo en grupo. Este modelo es de la línea de productos 43P y los siguientes modelos podr n ser reemplazados por los nuevos modelos de la 43P. El modelo 140 puede satisfacer los requerimientos si necesita tener sistema 4XX Con la configuración base agresiva en precio, funcionalidad adicional y un rango extenso en gráficos 2D y 3D el modelo 140 provee alto rendimiento sobre todos los modelos 43P.

Aplicaciones de ingeniería

CAD (Diseño asistido por computadora)

CAM (manufactura asistida por computadora)

Publicidad

Creación de Software:

En redes, la palabra "workstation" o "estación de trabajo" se utiliza para referirse a cualquier computadora que está conectada a una red de área local.

MINICOMPUTADORA

Miniordenador o Minicomputadora, un ordenador o computadora de nivel medio diseñada para realizar cálculos complejos y gestionar eficientemente una gran cantidad de entradas y salidas de usuarios conectados a través de un terminal. Normalmente, los miniordenadores se conectan mediante una red con otras minicomputadoras, y distribuyen los procesos entre todos los equipos conectados. Las minicomputadoras se utilizan con frecuencia en aplicaciones transaccionales y como interfaces entre sistemas de mainframe y redes de área extensa.

El primer miniordenador fue lanzado al mercado por Digital Equipment Corp. en 1959; era el PDP-1. A continuación, otras empresas como Hewlett-Packard, Data General, Wang, Tandem y Datapoint, entre otras, lanzaron sistemas similares.

Actualmente, el término miniordenador se sustituye con frecuencia por el de servidor, como elemento central de una red de medianas dimensiones a la que se conectan ordenadores personales —hasta varios centenares de usuarios.

Las máquinas de capacidad inferior a los miniordenadores, pero mayor que los ordenadores personales (microordenadores), que se utilizan de forma asilada o conectados a una red, se denominan Workstations (estaciones de trabajo) y se emplean, habitualmente, para aplicaciones científicas y CAD. Con el aumento de la capacidad de proceso de los ordenadores personales, el término Workstation ha perdido parte de su significado distintivo.

Influencia de la tecnología en la evolución de la arquitectura de las PC

La ciencia y la tecnología evolucionan a pasos agigantados. La revolución científico-tecnológica de las últimas décadas significo una espectacular transformación de las ideas básicas de la denominada "ciencia convencional".Si el siglo XVIII dio lugar a la "primera revolución industrial", producto de la cibernética que culminó cuando en el año 1944 Howard Aiken creo el primer ordenador electrónico. Dicho invento modificó sustancialmente el tratamiento de toda la información de datos, lo que sin duda ha provocado una verdadera eclosión científica que viene dando indudables frutos a toda la humanidad.

"La informática es una disciplina que incluye diversas técnicas y actividades relacionadas con el tratamiento automático y lógico de la información".Esta disciplina conoce en nuestros días, un enorme desarrollo gracias a las computadoras, pues tienen gran capacidad de memoria y el acceso a los datos e informaciones se realiza de manera sencilla y rápida.La revolución producida por la computadora en el saber humano proviene de la concentración de conocimientos que puede memorizar, la elaboración que de ellos pueden hacer (procesamiento), y de la complejidad de los estudios y tareas que puede realizar mediante instrucciones programadas. Además, contribuye a que el saber, tan disperso en el mundo, tienda a ser más accesible para los interesados (telecomunicación e informática = telemática = transmisión de informaciones a distancia entre equipos informáticos).Haciendo un esbozo historiográfico durante la segunda guerra mundial, se desarrollo una imponente maquina calculadora en la universidad de pennsylvania, bautizada con el nombre de ENIAC (Electronic numerical integrator and calculator), pesaba 30 toneladas, ocupaba una superficie de mas de 200 m2, su existencia se debió a la necesidad de calcular las tablas de disparos de los proyectiles que implicaban una enorme cantidad de operaciones aritméticas.La evolución de las computadoras se tiende a dividir en generaciones, teniendo en cuenta desarrollos tecnológicos que las hacen más eficaces, en cuanto a su velocidad y cantidad de operaciones a realizar; más cómoda por su tamaño y sencillez en su utilización y más inteligentes, con relación a las tareas que puedan llegar a cumplir, así tenemos:

Primera generación: año 40, con válvulas (circuitos con tubos al vació) Segunda generación: año 54, reemplazo de las válvulas por transistores. (Mucho más pequeños, no generan calor y menor costo)

Tercera generación: año 60, reemplazo de transistores por circuitos integrados (llamados chips construidos sobre cilicio; menor costo, tamaño y tiempo de operación)

Cuarta generación: año 70, circuitos integrados en gran escala. Quinta generación: año 80, Mejora a la anterior, teniendo como características trascendentales:

Aparece el microprocesador, el cual permite la introducción de más transistores en un solo chip.

  • Reconocimiento de voz.

  • Reconocimiento de formas graficas.

  • Utilización de software para aplicaciones especificas.

Dentro de esta generación se encuentran la 8080, 8086,8088, 80286, 80386, 486 y Pentium.

Sexta generación: Futuro, en esta generación se emplearán microcircuitos con inteligencia, en donde las computadoras tendrán la capacidad de aprender, asociar, deducir y tomar decisiones para la resolución de un problema. Es llamada "Generación de Inteligencia Artificial".

Para entender el surgimiento del fenómeno Internet, urge recordar los tensos días vividos durante la década del 60. El panorama internacional era un cóctel verdaderamente explosivo: Estados Unidos y la entonces Unión de Repúblicas Socialistas Soviéticas (U.R.S.S.) estaban enfrentados disputando una carrera armamentista que los llevó a contar con poderosas (y numerosas) armas de destrucción masiva. En este contexto de tensión y de miedo a una guerra nuclear, aunque difícil de creer, vio la luz la primera idea de lo que hoy es Internet. Los militares norteamericanos sintieron la necesidad de crear una red informática capaz de mantener en contacto los centros militares. Para lograr esto, la red debería ser descentralizada, es decir, debía establecer un método para que ante la destrucción de cualquiera de los trozos de la red (contemplando la posibilidad de un ataque nuclear), la información pudiera encontrar más de un camino alternativo para transportar los datos.

La primera experiencia tuvo lugar en septiembre de 1969 en manos de la DARPA (Defense Advanced Research Project Agency), nombre que recibía el departamento del gobierno de Estados Unidos dedicado al desarrollo de proyectos para la defensa nacional. Con la colaboración de profesores y alumnos avanzados en las universidades más importantes del país (a diferencia de lo que ocurre en América Latina, las fuerzas armadas y los académicos tienen una larga historia de cooperación en los Estados Unidos), el organismo logró conectar cuatro centros de cómputos: el primero ubicado en la Universidad de California en Los Ángeles (UCLA), el segundo en la Universidad de California en Santa Bárbara, el tercero en el Centro de Investigaciones de Stanford y el cuarto en la Universidad de Nevada. Por primera vez en la historia, estas computadoras ubicadas en distintos puntos del país pudieron "hablar" entre sí. Pero las cosas no quedaron ahí.Para que la red se pudiera extender era necesario establecer un lenguaje común que establezca las reglas de juego para que las computadoras técnicamente diferentes (con distinto hardware y software), se pudieran sumar al proyecto sin problemas de compatibilidad. La idea de un lenguaje capaz de ser entendido y hablado por diferentes computadoras se vio plasmada en un protocolo llamado NCP (Network Communications Protocol). Paralelamente al desarrollo de ARPANET se fueron creando otras redes como la BITNET, USENET y FidoNET. A diferencia de ARPANET, que tenía como finalidad sobrevivir a la Guerra Fría, estas redes eran experimentos cuyo objetivo era probar tecnología para la transmisión de mensajes. Pero cada una de estas redes tenía su propio lenguaje o protocolo; por lo tanto, no podía establecer comunicación con las otras. Con el tiempo, el protocolo NCP utilizado por ARPANET fue evolucionando hasta llegar al TCP/IP (Transmission Control Protocol / Internet Protocol). El TCP/IP es el protocolo estándar utilizado hasta el momento y permite que una PC con Windows ubicada en Usuahia, Argentina, se pueda comunicar con una iMac en Caracas (Venezuela) y con una Silicon Graphics en Guadalajara (México).

El surgimiento de este protocolo llevó a las redes independientes a sumarse a ARPANET. El proyecto original de ARPANET pasó entonces a ser el "backbone" o columna vertebral de un conjunto de redes en distintos lugares y el concepto de Internet tal como lo conocemos hoy, había nacido. En 1973, ARPANET traspasó las fronteras cuando se realizó el primer enlace entre las redes de Estados Unidos y otras similares en Inglaterra y Noruega. Así fue como de a poco se pasó de una red exclusivamente militar a otra más constructiva cuando se unieron a ARPANET centros de investigación y universidades de diversos lugares. Estas instituciones podían dar a conocer sus descubrimientos en forma rápida y sencilla. En 1990 ARPANET fue reemplazada por, una red auspiciada por la Fundación Nacional de Ciencias de Estados Unidos (NSF), llamada NFSNET. La gente de la NSF estableció las bases técnicas para que esa red, hasta entonces privilegio de investigadores y militares, tuviera los días contados.

Bibliografía

  • www.google.com.pe

  • www.monografias.com

  • www.arquitecturas.com

  • www.yahoo.es

  • www.elrincondelvago.com

  • la Biblia de la computación

  • enciclopedia de base de datos

  • Encarta 2009

  • Microsoft student 2009

 

 

 

Autor:

Milthon Fernando Lobo Zumaeta

Partes: 1, 2
 Página anterior Volver al principio del trabajoPágina siguiente