Descargar

Hardware de computadoras (página 4)

Enviado por Ernesto Pineda


Partes: 1, 2, 3, 4, 5, 6, 7, 8

Por lo tanto, al instalar las tarjetas de expansión, debe asegurarse que, durante la configuración, el mismo interruptor no se utilice para dos periféricos diferentes. Si esto sucediera, ocurriría un "conflicto del hardware" y ningún periférico funcionaria.

Verdaderamente, si dos periféricos utilizan el mismo interruptor, el sistema no sabrá cómo distinguirlos. Un conflicto del hardware no sucede únicamente cuando dos periféricos poseen el mismo hardware. También puede ocurrir un conflicto cuando dos periféricos poseen la misma dirección E/S o usan los mismos canales DMA.

Configuración IRQ

La IRQ de una tarjeta de expansión puede modificarse para asignarle un número IRQ que no está siendo utilizado por otro periférico.

  • En los periféricos más antiguos, este número IRQ se adjunta a los puentes que se encuentran en la placa.

  • En las placas recientes (que poseen un BIOS Plug & Play), el parámetro de recurso (direcciones IRQ, DMA E/S) es automático. También puede ser realizado por el SO con la ayuda de utilidades que brinda la tarjeta de expansión. Este modo plug & play debe ser desactivado en ocasiones para que puedan modificarse los parámetros manualmente.

Aún no resulta fácil hallar recursos disponibles para todos los periféricos. Por lo tanto, he aquí una lista incompleta de recursos que se utilizan generalmente, los que por consiguiente no pueden asignarse en forma manual:

edu.red

Resolución de conflictos del hardware

Si tiene un problema de hardware, primero trate de identificar el problema afín de poder determinar cuál es el periférico que lo está causando. Esto significa que debe tratar de eliminar tantas variables como sea posible hasta descubrir cuál es el elemento responsable:

  • abriendo la carcasa del equipo y retirando uno a uno los elementos que puedan estar causando el conflicto

  • desactivando el software en el SO para desactivar los periféricos

TAREA 24

1.- Realice un cuestionario de 10 preguntas.

Concepto de buses

Se denomina bus, en informática, al conjunto de conexiones físicas (cables, placa de circuito impreso, etc.) que pueden compartirse con múltiples componentes de hardware para que se comuniquen entre sí.

El propósito de los buses es reducir el número de rutas necesarias para la comunicación entre los distintos componentes, al realizar las comunicaciones a través de un solo canal de datos. Ésta es la razón por la que, a veces, se utiliza la metáfora "autopista de datos".

edu.red

En el caso en que sólo dos componentes de hardware se comuniquen a través de la línea, podemos hablar de puerto hardware ( puerto serial o puerto paralelo).

Características de un bus

Un bus se caracteriza por la cantidad de información que se transmite en forma simultánea. Este volumen se expresa en bits y corresponde al número de líneas físicas mediante las cuales se envía la información en forma simultánea. Un cable plano de 32 hilos permite la transmisión de 32 bits en paralelo. El término "ancho" se utiliza para designar el número de bits que un bus puede transmitir simultáneamente.

Por otra parte, la velocidad del bus se define a través de su frecuencia (que se expresa en Hercios o Hertz), es decir el número de paquetes de datos que pueden ser enviados o recibidos por segundo. Cada vez que se envían o reciben estos datos podemos hablar de ciclo.

De esta manera, es posible hallar la velocidad de transferencia máxima del bus (la cantidad de datos que puede transportar por unidad de tiempo) al multiplicar su ancho por la frecuencia. Por lo tanto, un bus con un ancho de 16 bits y una frecuencia de 133 MHz, tiene una velocidad de transferencia de:

16 * 133.106 = 2128*106 bit/s, o 2128*106/8 = 266*106 bytes/s o 266*106 /1000 = 266*103 KB/s o 259.7*103 /1000 = 266 MB/s

Subconjunto de un bus

En realidad, cada bus se halla generalmente constituido por entre 50 y 100 líneas físicas distintas que se dividen a su vez en tres subconjuntos:

  • El bus de direcciones, (también conocido como bus de memoria) transporta las direcciones de memoria al que el procesador desea acceder, para leer o escribir datos. Se trata de un bus unidireccional.

  • El bus de datos transfiere tanto las instrucciones que provienen del procesador como las que se dirigen hacia él. Se trata de un bus bidireccional.

  • El bus de control (en ocasiones denominado bus de comando) transporta las órdenes y las señales de sincronización que provienen de la unidad de control y viajan hacia los distintos componentes de hardware. Se trata de un bus bidireccional en la medida en que también transmite señales de respuesta del hardware.

Los buses principales

Por lo general, dentro de un equipo, se distinguen dos buses principales:

  • el bus interno o sistema (que también se conoce como bus frontal o FSB). El bus interno permite al procesador comunicarse con la memoria central del sistema (la memoria RAM).

  • el bus de expansión (llamado algunas veces bus de entrada/salida) permite a diversos componentes de la placa madre (USB, puerto serial o paralelo, tarjetas insertadas en conectores PCI, discos duros, unidades de CD-ROM y CD-RW, etc.) comunicarse entre sí. Sin embargo, permite principalmente agregar nuevos dispositivos por medio de las ranuras de expansión que están a su vez conectadas al bus de entrada/salida.

CHIP SET MOTHERBOARD.

El conjunto de chips es el componente que envía datos entre los distintos buses del equipo para que todos los componentes que forman el equipo puedan a su vez comunicarse entre sí. Originalmente, el conjunto de chips estaba compuesto por un gran número de chips electrónicos (de allí su nombre). Por lo general, presenta dos componentes:

  • El Puente Norte (que también se conoce como controlador de memoria, se encarga de controlar las transferencias entre el procesador y la memoria RAM. Se encuentra ubicado físicamente cerca del procesador. También se lo conoce como GMCH que significa Concentrador de controladores gráficos y de memoria.

  • El Puente Sur (también denominado controlador de entrada/salida o controlador de expansión) administra las comunicaciones entre los distintos dispositivos periféricos de entrada-salida. También se lo conoce como ICH (Concentrador controlador de E/S).

Por lo general, se utiliza el término puente para designar un componente de interconexión entre dos buses.

edu.red

Es interesante tener en cuenta que para que dos buses se comuniquen entre si, deben poseer el mismo ancho. Esto explica por qué los módulos de memoria RAM a veces deben instalarse en pares (por ejemplo, los primeros chips Pentium que tenían buses de procesador de 64 bits, necesitaban dos módulos de memoria con un ancho de 32 bits cada uno).

edu.red

BUS DE EXPANSION.

Los buses de expansión (a veces denominados buses periféricos) son buses que poseen conectores que permiten agregar tarjetas de expansión (periféricos) a un equipo. Existen diferentes tipos de buses internos estándar que se caracterizan por:

  • su forma

  • el número de clavijas del conector

  • los tipos de señales (frecuencia, datos, etc.)

Bus ISA

La versión original del bus ISA (Arquitectura estándar de la industria) que apareció en 1981 con PC XT fue un bus de 8 bits con una velocidad de reloj de 4,77 MHz.

En 1984, con la aparición de PC AT (el procesador Intel 286), el bit se expandió a un bus de 16 bits y la velocidad de reloj pasó de 6 a 8 MHz y finalmente a 8,33 MHz, ofreciendo una velocidad de transferencia máxima de 16 Mb/s (en la práctica solamente 8 Mb/s porque un ciclo de cada dos se utilizó para direccionar).

El bus ISA admitió el bus maestro, es decir, permitió que los controladores conectados directamente al bus se comunicaran directamente con los otros periféricos sin tener que pasar por el procesador. Una de las consecuencias del bus maestro es sin dudas el acceso directo a memoria (DMA). Sin embargo, el bus ISA únicamente permite que el hardware direccione los primeros 16 megabytes de RAM.

Hasta fines de la década de 1990, casi todos los equipos contaban con el bus ISA, pero fue progresivamente reemplazado por el bus PCI, que ofrecía un mejor rendimiento.

  • Conector ISA de 8 bits:

edu.red

  • Conector ISA de 16 bits:

edu.red

Bus MCA

El bus MCA (Arquitectura de microcanal) es un bus exclusivo mejorado diseñado por IBM en 1987 para utilizar en su línea de equipos PS/2. Este bus de 16 a 32 bits no era compatible con el bus ISA y podía alcanzar un rendimiento de 20 Mb/s.

Bus EISA

El bus EISA (Arquitectura estándar industrial extendida) fue desarrollado en 1988 por un grupo de compañías (AST, Compaq, Epson, Hewlett-Packard, NEC, Olivetti, Tandy, Wyse y Zenith) para competir con el bus exclusivo MCA lanzado por IBM el año anterior. El bus EISA utilizaba conectores cuyo tamaño era la mitad del conector ISA pero con 4 filas de contactos en lugar de 2, para direccionar 32 bits.

Los conectores EISA eran más profundos y las filas de contactos adicionales se encontraban ubicadas debajo de las filas de contactos ISA. Por lo tanto, era posible conectar una tarjeta de expansión ISA en un conector EISA. Sin embargo, el calce en el conector no era demasiado profundo (debido a los biseles) y sólo se utilizaban las filas de contactos superiores (ISA).

Bus local

Los buses E/S tradicionales, tales como ISA, MCA o nuestros buses EISA, se conectan directamente al bus principal y deben funcionar en la misma frecuencia. Sin embargo, algunos periféricos de E/S necesitan un ancho de banda muy bajo mientras que otros necesitan un ancho de banda superior. Por lo tanto, existen cuellos de botellas en el bus. Para resolver este problema, la arquitectura "bus local" ofrece aprovechar el bus del sistema, o bus frontal (FSB), al interactuar directamente con él.

Bus VLB

En 1992, el bus local de VESA (VLB) fue desarrollado por VESA (Asociación para estándares electrónicos y de video patrocinado por la compañía NEC) para ofrecer un bus local dedicado a sistemas gráficos. El VLB es un conector ISA de 16 bits con un conector de 16 bits agregado:

edu.red

El bus VLB es un bus de 32 bits inicialmente diseñado para permitir un ancho de banda de 33 MHz (el ancho de banda del primer PC 486 en aquel momento). El bus local VESA se utilizó en los siguientes 486 modelos (40 y 50 MHz respectivamente) así como en los primeros procesadores Pentium, pero fue reemplazado rápidamente por el bus PCI.

El bus PCI

El bus PCI (Interconexión de componentes periféricos) fue desarrollado por Intel el 22 de junio de 1992. A diferencia del bus VLB, no se trata de un bus local tradicional sino de un bus intermedio ubicado entre el bus de procesador (Puente Norte) y el bus de entrada/salida (Puente Sur).

Conectores PCI

Por lo general, las placas madre cuentan con al menos 3 ó 4 conectores PCI, identificables generalmente por su color blanco estándar.

La interfaz PCI existe en 32 bits con un conector de 124 clavijas o en 64 bits con un conector de 188 clavijas. También existen dos niveles de señalización de voltaje:

  • 3,3 V para los ordenadores portátiles

  • 5 V para los equipos de escritorio

El voltaje señalizado no es igual al voltaje de la fuente de alimentación de la placa madre, sino que es el umbral de voltaje necesario para el cifrado digital de los datos.

Existen 2 tipos de conectores de 32 bits:

  • conector PCI de 32 bits, 5 V:

edu.red

  • conector PCI de 32 bits, 3,3 V:

edu.red

Los conectores PCI de 63 bits disponen de clavijas adicionales para tarjetas PCI de 32 bits. Existen 2 tipos de conectores de 64 bits:

  • conector PCI de 64 bits, 5 V:

edu.red

  • conector PCI de 64 bits, 3,3 V:

edu.red

Interoperabilidad

En general, no se pueden cometer errores al introducir una tarjeta PCI en una ranura PCI. Si la tarjeta encaja correctamente, entonces es compatible. De lo contrario, existen dispositivos infalibles que pueden evitar dicha instalación.

edu.red

Existen tarjetas de expansión equipadas con lo que se denomina conectores "universales", es decir, que poseen dos tipos de dispositivos infalibles (dos muescas). Dichas tarjetas de expansión pueden detectar el voltaje señalizado y adaptarse a él. Por lo tanto, pueden insertarse tanto en ranuras de 3,3 V como en ranuras de 5 V.

Actualizaciones del bus

La versión original del bus PCI es de 32 bits de ancho y su velocidad de reloj es de 33 MHz, lo que en teoría permite un rendimiento de 132 Mb/s a 32 bits. En las arquitecturas de 64 bits, el bus funciona a 64 bits y su rendimiento teórico es de 264 Mb/s.

Con el fin de actualizar el estándar PCI, se formó un grupo de interés compuesto por un gran número de fabricantes, apodado PCI-SIG (Grupo de interés especial de PCI). Se publicaron actualizaciones del bus. La versión 2.0 del 30 de abril de 1993 definió la forma de los conectores y las tarjetas adicionales, y le confirió una velocidad de reloj de 66 MHz, en contraste con los 33 MHz de la versión 1.0. De esta manera se logró duplicar el rendimiento teórico hasta alcanzar los 266 MHz a 32 bits.

El 1 de junio de 1995, la revisión 2.1 del bus PCI mejoró su uso hasta 66 MHz. En ese momento, los ingenieros anticiparon un movimiento progresivo desde un voltaje señalizado de 5 V hasta 3,3 V.

La versión 2.2 del bus PCI, que apareció el 18 de diciembre de 1998, incorporó la capacidad de conectar los periféricos directamente (conexión en caliente).

La revisión 2.3, editada el 29 de marzo de 2002, eliminó la posibilidad de utilizar tarjetas de 5 V adicionales, pero incorporó el uso de tarjetas que admiten ambos voltajes con el fin de garantizar la compatibilidad descendente. La revisión 3.0 del estándar PCI eliminó por completo el uso de tarjetas de 5 V compatibles.

En septiembre de 1999, tuvo lugar un cambio importante en el bus PCI, cambio que fue conocido como PCI-X. El bus PCI-X 1.0 admite frecuencias de 66, 100 y 133 MHz. Dicho bus es completamente compatible con el formato PCI, y las ranuras PCI-X admiten tarjetas de formato PCI y viceversa.

La revisión 2.0 del bus PCI-X admite frecuencias de 66, 100, 133, 266 y 533 MHz, y permite un rendimiento de 4,27 Gb/s a 64 bits.

El siguiente cuadro resume las diferentes revisiones del bus PCI:

edu.red

Introducción al Bus AGP

El bus AGP (la sigla corresponde a Accelerated Graphics Port que en español significa puerto de gráficos acelerado) apareció por primera vez en mayo de 1997 para los chipsets Slot One. Luego se lanzó para los chips Super 7, con el objetivo de administrar los flujos de datos gráficos que se habían vuelto demasiado grandes como para ser controlados por el Bus PCI. De esta manera, el bus AGP se conecta directamente al FSB (Front Side Bus [Bus Frontal]) del procesador y utiliza la misma frecuencia, es decir, un ancho de banda más elevado.

La interfaz AGP se ha creado con el único propósito de conectarle una tarjeta de video. Funciona al seleccionar en la tarjeta gráfica un canal de acceso directo a la memoria (DMA, Direct Memory Access), evitado así el uso del controlador de entradas/salidas. En teoría, las tarjetas que utilizan este bus de gráficos necesitan menos memoria integrada ya que poseen acceso directo a la información gráfica (como por ejemplo las texturas) almacenadas en la memoria central. Su costo es aparentemente inferior.

La versión 1.0 del bus AGP, que funciona con 3.3 voltios, posee un modo 1X que envía 8 bytes cada dos ciclos y un modo 2X que permite transferir 8 bytes por ciclo.

En 1998, la versión 2.0 del bus AGP presenta el AGP 4X que permite el envío de 16 bytes por ciclo. La versión 2.0 del bus AGP funciona con una tensión de 1.5 voltios y con conectores AGP 2.0 "universales" que pueden funcionar con cualquiera de los dos voltajes.

La versión 3.0 del bus AGP apareció en 2002 y permite duplicar la velocidad del AGP 2.0 proponiendo un modo AGP 8X.

Características del bus AGP

El puerto AGP 1X funciona a una frecuencia de 66 MHz, a diferencia de los 33 MHZ del Bus PCI, lo que le provee una tasa máxima de transferencia de 264 MB/s (en contraposición a los 132 MB/s que comparten las diferentes tarjetas para el bus PCI). Esto le proporciona al bus AGP un mejor rendimiento, en especial cuando se muestran gráficos en 3D de alta complejidad.

Con la aparición del puerto AGP 4X, su tasa de transferencia alcanzó los 1 GB/s. Esta generación de AGP presentó un consumo de 25 vatios. La generación siguiente se llamó AGP Pro y consumía 50 vatios.

El AGP Pro 8x ofrece una tasa de transferencia de 2 GB/s.

Las tasas de transferencia para los diferentes estándares AGP son las siguientes:

  • AGP 1X : 66,66 MHz x 1(coef.) x 32 bits /8 = 266,67 MB/s

  • AGP 2X : 66,66 MHz x 2(coef.) x 32 bits /8 = 533,33 MB/s

  • AGP 4X : 66,66 MHz x 4(coef.) x 32 bits /8 = 1,06 GB/s

  • AGP 8X : 66,66 MHz x 8(coef.) x 32 bits /8 = 2,11 GB/s

Se debe tener en cuenta que las diferentes normas AGP son compatibles con la versión anterior, lo que significa que las tarjetas AGP 4X o AGP 2X pueden insertarse en una ranura para AGP 8X.

Conectores AGP

Las placas madre más recientes poseen un conector AGP general incorporado identificable por su color marrón. Existen tres tipos de conectores:

  • Conector AGP de 1,5 voltios:

edu.red

  • Conector AGP de 3,3 voltios:

edu.red

  • Conector AGP universal:

edu.red

edu.red

El Bus PCI Express

El bus PCI Express (Interconexión de Componentes Periféricos Express, también escrito PCI-E o 3GIO en el caso de las "Entradas/Salidas de Tercera Generación"), es un bus de interconexión que permite añadir placas de expansión a un ordenador. El bus PCI Express fue desarrollado en julio de 2002. A diferencia del bus PCI, que se ejecuta en una interfaz paralela, el bus PCI Express se ejecuta en una interfaz en serie, lo que permite alcanzar un ancho de banda mucho mayor que con el bus PCI.

edu.red

Características del Bus PCI Express

El bus PCI Express se presenta en diversas versiones (1X, 2X, 4X, 8X, 12X, 16X y 32X), con rendimientos de entre 250 Mb/s y 8 Gb/s, es decir, 4 veces el rendimiento máximo de los puertos AGP 8X. Dado que el costo de fabricación es similar al del puerto AGP, es de esperar que el bus PCI Express lo reemplace en forma progresiva.

Conectores PCI Express

Los conectores PCI Express no son compatibles con los conectores PCI más antiguos. Varían en tamaño y demandan menos energía eléctrica. Una de las características más interesantes del bus PCI Express es que admite la conexión en caliente, es decir, que puede conectarse y desconectarse sin que sea necesario apagar o reiniciar la máquina. Los conectores PCI Express son identificables gracias a su tamaño pequeño y su color gris oscuro.

  • El conector PCI Express 1X posee 36 clavijas, y está destinado a usos de entrada/salida con un gran ancho de banda

edu.red

  • El conector PCI Express 4X posee 64 clavijas y tiene como finalidad el uso en servidores:

edu.red

  • El conector PCI Express 8X posee 98 clavijas y tiene como finalidad el uso en servidores:

edu.red

  • El conector PCI Express 16X posee 164 clavijas, mide 89 mm de largo, y tiene como finalidad el uso en el puerto gráfico:

edu.red

El PCI Express estándar también tiene como finalidad reemplazar la tecnología PC Card, mediante conectores "PCI Express Mini Card". Además, a diferencia de los conectores PCI, que sólo pueden utilizarse para establecer conexiones internas, el PCI Express estándar puede utilizarse para conectar periféricos externos mediante el uso de cables. A pesar de ello, no compite con los puertos USB ni FireWire.

TAREA 25

1.- Realice un cuestionario de 20 preguntas.

Introducción a los puertos de Entrada/Salida

Los puertos de salida/entrada son elementos materiales del equipo, que permiten que el sistema se comunique con los elementos exteriores. En otras palabras, permiten el intercambio de datos, de aquí el nombre interfaz de entrada/salida (también conocida como interfaz de E/S).

Puerto serial

Los puertos seriales (también llamados RS-232, por el nombre del estándar al que hacen referencia) fueron las primeras interfaces que permitieron que los equipos intercambien información con el "mundo exterior". El término serial se refiere a los datos enviados mediante un solo hilo: los bits se envían uno detrás del otro (consulte la sección sobre transmisión de datos para conocer los modos de transmisión).

edu.red

Originalmente, los puertos seriales sólo podían enviar datos, no recibir, por lo que se desarrollaron puertos bidireccionales (que son los que se encuentran en los equipos actuales). Por lo tanto, los puertos seriales bidireccionales necesitan dos hilos para que la comunicación pueda efectuarse.

La comunicación serial se lleva a cabo asincrónicamente, es decir que no es necesaria una señal (o reloj) de sincronización: los datos pueden enviarse en intervalos aleatorios. A su vez, el periférico debe poder distinguir los caracteres (un carácter tiene 8 bits de longitud) entre la sucesión de bits que se está enviando. Ésta es la razón por la cual en este tipo de transmisión, cada carácter se encuentra precedido por un bit de ARRANQUE y seguido por un bit de PARADA. Estos bits de control, necesarios para la transmisión serial, desperdician un 20% del ancho de banda (cada 10 bits enviados, 8 se utilizan para cifrar el carácter y 2 para la recepción).

Los puertos seriales, por lo general, están integrados a la placa madre, motivo por el cual los conectores que se hallan detrás de la carcasa y se encuentran conectados a la placa madre mediante un cable, pueden utilizarse para conectar un elemento exterior.

Generalmente, los conectores seriales tienen 9 ó 25 clavijas y tienen la siguiente forma (conectores DB9 y DB25 respectivamente):

edu.red

edu.red

Puerto paralelo

La transmisión de datos paralela consiste en enviar datos en forma simultánea por varios canales (hilos). Los puertos paralelos en los PC pueden utilizarse para enviar 8 bits (un octeto) simultáneamente por 8 hilos.

edu.red

Los primeros puertos paralelos bidireccionales permitían una velocidad de 2,4 Mb/s. Sin embargo, los puertos paralelos mejorados han logrado alcanzar velocidades mayores:

  • El EPP (puerto paralelo mejorado) alcanza velocidades de 8 a 16 Mbps

  • El ECP (puerto de capacidad mejorada), desarrollado por Hewlett Packard y Microsoft. Posee las mismas características del EPP con el agregado de un dispositivo Plug and Play que permite que el equipo reconozca los periféricos conectados.

Los puertos paralelos, al igual que los seriales, se encuentran integrados a la placa madre. Los conectores DB25 permiten la conexión con un elemento exterior (por ejemplo, una impresora).

edu.red

Introducción al USB

El USB (Bus de serie universal), como su nombre lo sugiere, se basa en una arquitectura de tipo serial. Sin embargo, es una interfaz de entrada/salida mucho más rápida que los puertos seriales estándar. La arquitectura serial se utilizó para este tipo de puerto por dos razones principales:

  • La arquitectura serial le brinda al usuario una velocidad de reloj mucho más alta que la interfaz paralela debido a que este tipo de interfaz no admite frecuencias demasiado altas (en la arquitectura de alta velocidad, los bits que circulan por cada hilo llegan con retraso y esto produce errores);

  • Los cables seriales resultan mucho más económicos que los cables paralelos.

Estándares USB

A partir de 1995, el estándar USB se ha desarrollado para la conexión de una amplia gama de dispositivos.

El estándar USB 1.0 ofrece dos modos de comunicación:

  • 12 Mb/s en modo de alta velocidad,

  • 1,5 Mb/s de baja velocidad.

El estándar USB 1.1 brinda varias aclaraciones para los fabricantes de dispositivos USB, pero no cambia los rasgos de velocidad. Los dispositivos certificados por el estándar USB 1.1 llevan el siguiente logotipo:

edu.red

El estándar USB 2.0 permite alcanzar velocidades de hasta 480 Mbit/s. Los dispositivos certificados por el estándar USB 2.0 llevan el siguiente logotipo:

edu.red

Si no lleva ningún logotipo, la mejor manera de determinar si un dispositivo es de USB de alta o baja velocidad es consultar la documentación del producto, siempre y cuando los conectores sean los mismos.

La compatibilidad entre USB 1.0, 1.1 y 2.0 está garantizada. Sin embargo, el uso de un dispositivo USB 2.0 en un puerto USB de baja velocidad (es decir 1.0 ó 1.1) limitará la velocidad a un máximo de 12 Mbit/s. Además, es probable que el sistema operativo muestre un mensaje que indique que la velocidad será restringida.

Tipos de conectores

Existen dos tipos de conectores USB:

  • Los conectores conocidos como tipo A, cuya forma es rectangular y se utilizan, generalmente, para dispositivos que no requieren demasiado ancho de banda (como el teclado, el ratón, las cámaras Web, etc.);

  • Los conectores conocidos como tipo B poseen una forma cuadrada y se utilizan principalmente para dispositivos de alta velocidad (discos duros externos, etc.).

  • edu.red

    • Fuente de alimentación de +5 V (VBUS) máximo 100 mA

    • Datos (D-)

    • Datos (D+)

    • Conexión a tierra (GND)

    Funcionamiento del USB

    Una característica de la arquitectura USB es que puede proporcionar fuente de alimentación a los dispositivos con los que se conecta, con un límite máximo de 15 V por dispositivo. Para poder hacerlo, utiliza un cable que consta de cuatro hilos (la conexión a tierra GND, la alimentación del BUS y dos hilos de datos llamados D- y D+).

    edu.red

    El estándar USB permite que los dispositivos se encadenen mediante el uso de una topología en bus o de estrella. Por lo tanto, los dispositivos pueden conectarse entre ellos tanto en forma de cadena como en forma ramificada. La ramificación se realiza mediante el uso de cajas llamadas "concentradores" que constan de una sola entrada y varias salidas. Algunos son activos (es decir, suministran energía) y otros pasivos (la energía es suministrada por el ordenador).

    edu.red

    edu.red

    La comunicación entre el host (equipo) y los dispositivos se lleva a cabo según un protocolo(lenguaje de comunicación) basado en el principio de red en anillo. Esto significa que el ancho de banda se comparte temporalmente entre todos los dispositivos conectados. El host (equipo) emite una señal para comenzar la secuencia cada un milisegundo (ms), el intervalo de tiempo durante el cual le ofrecerá simultáneamente a cada dispositivo la oportunidad de "hablar". Cuando el host desea comunicarse con un dispositivo, transmite una red (un paquete de datos que contiene la dirección del dispositivo cifrada en 7 bits) que designa un dispositivo, de manera tal que es el host el que decide "hablar" con los dispositivos. Si el dispositivo reconoce su dirección en la red, envía un paquete de datos (entre 8 y 255 bytes) como respuesta. De lo contrario, le pasa el paquete a los otros dispositivos conectados. Los datos que se intercambian de esta manera están cifrados conforme a la codificación NRZI.

    Como la dirección está cifrada en 7 bits, 128 dispositivos (2^7) pueden estar conectados simultáneamente a un puerto de este tipo. En realidad, es recomendable reducir esta cantidad a 127 porque la dirección 0 es una dirección reservada.

    Debido a la longitud máxima de 5 metros del cable entre los dos dispositivos y a la cantidad máxima de 5 concentradores (a los que se les suministra energía), es posible crear una cadena de 25 metros de longitud.

    Los puertos USB admiten dispositivos Plug and play de conexión en caliente. Por lo tanto, los dispositivos pueden conectarse sin apagar el equipo (conexión en caliente). Cuando un dispositivo está conectado al host, detecta cuando se está agregando un nuevo elemento gracias a un cambio de tensión entre los hilos D+ y D-. En ese momento, el equipo envía una señal de inicialización al dispositivo durante 10 ms para después suministrarle la corriente eléctrica mediante los hilos GND y VBUS (hasta 100 mA). A continuación, se le suministra corriente eléctrica al dispositivo y temporalmente se apodera de la dirección predeterminada (dirección 0). La siguiente etapa consiste en brindarle la dirección definitiva (éste es el procedimiento de lista). Para hacerlo, el equipo interroga a los dispositivos ya conectados para poder conocer sus direcciones y asigna una nueva, que lo identifica por retorno. Una vez que cuenta con todos los requisitos necesarios, el host puede cargar el driver adecuado.

    Presentación del bus FireWire (IEEE 1394)

    El bus IEEE 1394 (nombre del estándar al cual hace referencia) fue desarrollado a fines de 1995 con el objetivo de brindar un sistema de intercomunicación que permita circular datos a alta velocidad y en tiempo real. La compañía Apple le dio el nombre comercial "FireWire", y como se lo conoce comúnmente. Sony también le dio un nombre comercial, i.Link. Texas Instruments, prefirió llamarlo Lynx.

    Se trata de un puerto existente en algunos equipos que permite conectarse a distintos periféricos (en particular cámaras digitales) con un ancho de banda alto. Existen tarjetas de expansión (generalmente en formato PCI o PC Card / PCMCIA) que le permiten equipar un ordenador con conectores FireWire. Los conectores y cables FireWire pueden localizarse fácilmente gracias a su forma y al siguiente logotipo:

    edu.red

    Estándares FireWire

    Existen diferentes estándares FireWire que le permiten obtener los siguientes anchos de banda:

    edu.red

    El estándar IEEE 1394b también llamado FireWire 2 o FireWire Gigabit.

    Conectores FireWire

    Existen diversos tipos de conectores FireWire para cada uno de los estándares IEEE 1394.

    • El estándar IEEE 1394a especifica dos conectores:

    • Conectores 1394a-1995:

    edu.red

    • Conectores 1394a-2000, denominados mini-DV, ya que se utilizan en cámaras de video digital (DV):

    edu.red

    • El estándar IEEE 1394a define dos tipos de conectores diseñados para que los cables 1394b Beta se puedan enchufar a conectores Beta y Bilingual, pero los conectores 1394b Bilingual sólo se pueden enchufar a conectores Bilingual:

    • Conectores 1394b Beta:

    edu.red

    • Conectores 1394b Bilingual:

    edu.red

    Cómo funciona el bus FireWire

    El Bus IEEE 1394 tiene aproximadamente la misma estructura que el bus USB, excepto que es un cable hecho de seis hilos (2 pares para los datos y el reloj, y 2 hilos destinados a la fuente de alimentación) que le permiten alcanzar un ancho de banda de 800Mb/s (pronto debería poder alcanzar 1.6 Gb/s o incluso 3.2 Gb/s en el futuro). Los dos hilos destinados al reloj son la diferencia más importante que existe entre el bus USB y el bus IEEE 1394, es decir, la posibilidad de funcionar según dos modos de transferencia:

    • Modo de transferencia asíncrono: este modo se basa en una transmisión de paquetes a intervalos de tiempo variables. Esto significa que el host envía un paquete de datos y espera a recibir un aviso de recepción del periférico. Si el host recibe un aviso de recepción, envía el siguiente paquete de datos. De lo contrario, el primer paquete se envía nuevamente después de un cierto período de tiempo.

    • Modo sincrónico: este modo permite enviar paquetes de datos de tamaños específicos a intervalos regulares. Un nodo denominado Maestro de ciclo es el encargado de enviar un paquete de sincronización (llamado paquete de inicio de ciclo) cada 125 microsegundos. De este modo, no se necesita ningún acuse de recibo lo que garantiza un ancho de banda fijo. Además, teniendo en cuenta que no se necesita ningún acuse de recibo, el método para abordar un periférico se simplifica y el ancho de banda ahorrado permite mejorar el rendimiento.

    Otra innovación del estándar IEEE 1394: pueden utilizarse puentes (sistemas que le permiten conectar buses con otros buses). Las direcciones periféricas se establecen mediante un identificador de nodo (es decir, un periférico) codificado en 16 bits. El identificador se divide a su vez en dos campos: un campo de 10 bits que permite identificar el puente y un campo de 6 bits que especifica el nodo. Por lo tanto, es posible conectar 1.023 puentes (o 210 -1) en los que puede haber 63 nodos (o 26 -1), lo que significa que es posible acceder a un total 65.535 periféricos. El estándar IEEE 1394 permite el intercambio en caliente. Mientras que el bus USB está diseñado para periféricos que no requieren de muchos recursos (por ejemplo, un ratón o un teclado), el ancho de banda IEEE 1394 es bastante más amplio y está diseñado para utilizarse con multimedia nueva y desconocida (adquisición de video, etc.).

    TAREA 26

    1.- Realice un cuestionario de 15 preguntas.

    Fuentes de alimentación

    En electrónica, una fuente de alimentación es un dispositivo que convierte la tensión alterna, en una o varias tensiones, prácticamente continuas, que alimentan los distintos circuitos del aparato electrónico al que se conecta (ordenador, televisor, impresora, router, etc.).

    edu.red

    Fuente de alimentación para PC formato ATX .

    edu.red

    Fuentes de alimentación externas.

    edu.red

    Sistema de control a lazo cerrado.

    Clasificación

    Las fuentes de alimentación, para dispositivos electrónicos, pueden clasificarse básicamente como fuentes de alimentación lineal y conmutada. Las lineales tienen un diseño relativamente simple, que puede llegar a ser más complejo cuanto mayor es la corriente que deben suministrar, sin embargo su regulación de tensión es poco eficiente. Una fuente conmutada, de la misma potencia que una lineal, será más pequeña y normalmente más eficiente pero será más complejo y por tanto más susceptible a averías.

    Fuentes de alimentación lineales

    Las fuentes lineales siguen el esquema: transformador, rectificador, filtro, regulación y salida.

    En primer lugar el transformador adapta los niveles de tensión y proporciona aislamiento galvánico. El circuito que convierte la corriente alterna en corriente continua pulsante se llama rectificador, después suelen llevar un circuito que disminuye el rizado como un filtro de condensador. La regulación, o estabilización de la tensión a un valor establecido, se consigue con un componente denominado regulador de tensión, que no es más que un sistema de control a lazo cerrado (realimentado ver figura 3) que en base a la salida del circuito ajusta el elemento regulador de tensión que en su gran mayoría este elemento es un transistor. Este transistor que dependiendo de la tipología de la fuente está siempre polarizado, actúa como resistencia regulable mientras el circuito de control juega con la región activa del transistor para simular mayor o menor resistencia y por consecuencia regulando el voltaje de salida. Este tipo de fuente es menos eficiente en la utilización de la potencia suministrada dado que parte de la energía se transforma en calor por efecto Joule en el elemento regulador (transistor), ya que se comporta como una resistencia variable. A la salida de esta etapa a fin de conseguir una mayor estabilidad en el rizado se encuentra una segunda etapa de filtrado (aunque no obligatoriamente, todo depende de los requerimientos del diseño), esta puede ser simplemente un condensador. Esta corriente abarca toda la energía del circuito, para esta fuente de alimentación deben tenerse en cuenta unos puntos concretos a la hora de decidir las características del transformador.

    Fuentes de alimentación conmutadas

    Una fuente conmutada es un dispositivo electrónico que transforma energía eléctrica mediante transistores en conmutación. Mientras que un regulador de tensión utiliza transistores polarizados en su región activa de amplificación, las fuentes conmutadas utilizan los mismos conmutándolos activamente a altas frecuencias (20-100 kHz típicamente) entre corte (abiertos) y saturación (cerrados). La forma de onda cuadrada resultante se aplica a transformadores con núcleo de ferrita (Los núcleos de hierro no son adecuados para estas altas frecuencias) para obtener uno o varios voltajes de salida de corriente alterna (CA) que luego son rectificados (Con diodos rápidos) y filtrados (inductores y condensadores) para obtener los voltajes de salida de corriente continua (CC). Las ventajas de este método incluyen menor tamaño y peso del núcleo, mayor eficiencia y por lo tanto menor calentamiento. Las desventajas comparándolas con fuentes lineales es que son más complejas y generan ruido eléctrico de alta frecuencia que debe ser cuidadosamente minimizado para no causar interferencias a equipos próximos a estas fuentes.

    Las fuentes conmutadas tienen por esquema: rectificador, conmutador, transformador, otro rectificador y salida.

    La regulación se obtiene con el conmutador, normalmente un circuito PWM (Pulse Width Modulation) que cambia el ciclo de trabajo. Aquí las funciones del transformador son las mismas que para fuentes lineales pero su posición es diferente. El segundo rectificador convierte la señal alterna pulsante que llega del transformador en un valor continuo. La salida puede ser también un filtro de condensador o uno del tipo LC.

    Las ventajas de las fuentes lineales son una mejor regulación, velocidad y mejores características EMC. Por otra parte las conmutadas obtienen un mejor rendimiento, menor coste y tamaño.

    Especificaciones

    Una especificación fundamental de las fuentes de alimentación es el rendimiento, que se define como la potencia total de salida entre la potencia activa de entrada. Como se ha dicho antes, las fuentes conmutadas son mejores en este aspecto.

    El factor de potencia es la potencia activa entre la potencia aparente de entrada. Es una medida de la calidad de la corriente.

    La fuente debe mantener la tensión de salida al voltaje solicitado independientemente de las oscilaciones de la línea, regulación de línea o de la carga requerida por el circuito, regulación de carga.

    Fuentes de alimentación especiales

    Entre las fuentes de alimentación alternas, tenemos aquellas en donde la potencia que se entrega a la carga está siendo controlada por transistores, los cuales son controlados en fase para poder entregar la potencia requerida a la carga.

    Otro tipo de alimentación de fuentes alternas, catalogadas como especiales son aquellas en donde la frecuencia es variada, manteniendo la amplitud de la tensión logrando un efecto de fuente variable en casos como motores y transformadores de tensión.

    TAREA 27

    1.- Realice un cuestionario de 10 preguntas.

    Estándar ATA

    El estándar ATA permite conectar periféricos de almacenamiento de manera directa con la placa madre mediante un cable de cinta, generalmente compuesto de 40 alambres paralelos y tres conectores (usualmente un conector azul para la placa madre y uno negro y otro gris para los dos periféricos de almacenamiento).

    edu.red

    edu.red

    En el cable, se debe establecer uno de los periféricos como cable maestro y el otro como esclavo. Por norma, se establece que el conector lejano (negro) se reserva para el periférico maestro y el conector del medio (de color gris) se destina al periférico esclavo. Un modo llamado selección de cable (abreviado CS o C/S) permite definir automáticamente el periférico maestro y el esclavo, en tanto el BIOS del equipo admita esta funcionalidad.

    Modos PIO

    La transmisión de datos se realiza gracias a un protocolo llamado PIO (Entrada/Salida Programada), que permite que los periféricos puedan intercambiar datos con la RAM con la ayuda de comandos administrados directamente por el procesador. De todos modos, las grandes transferencias de datos pueden imponer rápidamente una gran carga de trabajo en el procesador, reduciendo de esta manera, la velocidad de todo el sistema.

    Hay 5 modos PIO que definen el máximo rendimiento:

    Modo PIO

    Rendimiento (Mb/s)

    Modo 0

    3,3

    Modo 1

    5,2

    Modo 2

    8,3

    Modo 3

    11,1

    Modo 4

    16,7

    Modos DMA

    La técnica DMA (Acceso Directo a Memoria) permite que los equipos liberen el procesador permitiendo a cada periférico acceder directamente a la memoria. Existen dos tipos de modos de DMA:

    • El DMA de "palabra única", que permite la transferencia de una sola palabra (2 bytes o 16 bits) durante cada sesión de transferencia

    • El DMA de "palabras múltiples", que permite la transferencia sucesiva de varias palabras en cada sesión de transferencia

    La siguiente tabla proporciona una lista de los diferentes modos de DMA y sus rendimientos asociados:

    Modo de DMA

    Rendimiento (Mb/s)

    0 (Palabra única)

    2,1

    1 (Palabra única)

    4,2

    2 (Palabra única)

    8,3

    0 (Palabras múltiples)

    4,2

    1 (Palabras múltiples)

    13,3

    2 (Palabras múltiples)

    16,7

    Ultra DMA

    El estándar ATA se basa originalmente en un modo de transferencia asincrónico, es decir, que el envío de comandos y de datos se ajusta al ancho de banda del bus y se realizan en cada flanco ascendente de la señal del reloj. Sin embargo, el envío de comandos y el envío de datos no ocurren de manera simultánea, es decir, un comando no puede ser enviado en tanto los datos no hayan sido recibidos y viceversa.

    Para aumentar el rendimiento de los datos, puede parecer lógico aumentar la frecuencia de señal del reloj. Sin embargo, en una interfaz donde los datos se envían en paralelo, el aumento de la frecuencia ocasiona problemas de interferencia electromagnética.

    De este modo, Ultra DMA (en algunos casos abreviado UDMA) fue diseñado con el fin de optimizar al máximo la interfaz ATA. El primer concepto de Ultra DMA consiste en utilizar los flancos ascendentes y descendentes de la señal para realizar las transferencias de datos, lo que significa un aumento de la velocidad en un 100% (con un aumento del rendimiento de 16,6 Mb/s a 33,3 Mb/s). Además, Ultra DMA incorpora el uso de códigos CRC que permiten la detección de errores de transmisión. Por lo tanto, los diferentes modos Ultra DMA definen la frecuencia de la transferencia de datos. Al producirse un error (cuando la CRC recibida no corresponde a los datos), la transferencia se produce en un modo Ultra DMA más bajo o incluso sin Ultra DMA.

    Modo Ultra DMA

    Rendimiento (Mb/s)

    UDMA 0

    16,7

    UDMA 1

    25,0

    UDMA 2 (Ultra-ATA/33)

    33,3

    UDMA 3

    44,4

    UDMA 4 (Ultra-ATA/66)

    66,7

    UDMA 5 (Ultra-ATA/100)

    100

    UDMA 6 (Ultra-ATA/133)

    133

    Con la incorporación del modo Ultra DMA, se introdujo un nuevo tipo de cable de cinta que permite limitar la interferencia. Este tipo de cable de cinta añade 40 alambres (en un total de 80) entrelazados con los alambres de datos para poder aislarlos y tener los mismos conectores que el cable de cinta de 40 alambres.

    edu.red

    Sólo los modos Ultra DMA 2, 4, 5 y 6 son implementados realmente por los discos duros.

    Estándares ATA

    Existen diversas versiones del estándar ATA, que fueron presentadas sucesivamente:

    ATA-1

    El estándar ATA-1, más conocido como IDE, permite conectar dos periféricos en un cable de 40 alambres y ofrece una tasa de transferencia de 8 ó 16 bits con un rendimiento que oscila alrededor de los 8,3 Mb/s. ATA-1 define y es compatible con los modos PIO (entrada/salida programada) 0, 1 y 2 así como con el modo DMA de palabra múltiple (Acceso Directo a Memoria) 0.

    ATA-2

    El estándar ATA-2, más conocido como EIDE (o en algunos casos ATA rápido, ATA-2 rápido o IDE rápido), permite conectar dos periféricos en un cable de 40 alambres y ofrece a la vez una tasa de transferencia de 8 ó 16 bits con un rendimiento de alrededor de 16,6 Mb/s.

    ATA 2 es compatible con los modos PIO 0, 1, 2, 3 y 4 y con los modos DMA de palabra múltiple 0, 1 y 2. Además, ATA-2 permite aumentar el tamaño máximo del disco de 528 Mb (lo impuesto por el estándar ATA1) a 8,4 Gb gracias a la LBA (Dirección Masiva de Bloque).

    ATA-3

    El estándar ATA-3 (también llamado Interfaz 3 de Adjunto ATA) representa una revisión menor de ATA-2 (con compatibilidad de descarga) y ha sido publicado en 1997 bajo el estándar X3.298-1997. El estándar ATA 3 ofrece las siguientes mejoras:

    • Confiabilidad mejorada: ATA 3 permite una confiabilidad aumentada de transferencias de alta velocidad

    • S.M.A.R.T (Tecnología Automática de Monitoreo, Análisis e Informe: una función diseñada para mejorar la confiabilidad y prevenir posibles fallas

    • Función de seguridad: los periféricos pueden protegerse con una contraseña añadida al BIOS. Al encenderse, el equipo verifica que la contraseña codificada en el BIOS corresponde a una que se encuentra guardada en la unidad de disco. Esto permite evitar que se utilice dicha unidad en un equipo diferente.

    El ATA-3 no introduce un modo nuevo pero resulta en cambio, compatible con los modos PIO 0, 1, 2, 3 y 4, así como también con los modos DMA 0, 1 y 2.

    ATA-4

    El estándar ATA-4, o Ultra-ATA/3333, ha sido definido en 1998 bajo la norma ANSI NCITS 317-1998. El ATA-4 modifica el modo LBA buscando aumentar el límite del tamaño de disco a unidades de 128 Gb.

    Las direcciones LBA en el ATA-4 son de 28 bits. Cada sector representa 512 bytes, de modo que el límite exacto del tamaño de disco en el modo LBA es el siguiente:

    228*512 = 137 438 953 472 bytes 137 438 953 472/(1024*1024*1024)= 128 Gb

    ATA-5

    En 1990, el estándar ATA-5 definió dos modos nuevos de transferencia: Modos Ultra DMA 3 y 4 (el modo 4 también se denomina Ultra ATA/66 o Ultra DMA/66). Además, ofrece la detección automática del tipo de cable de cinta que se está utilizando (80 ó 40 alambres).

    ATA-6

    Desde 2001, ATA-6 define Ultra DMA/100 (también llamado Ultra DMA modo 5 o Ultra-ATA100), que permite que las unidades alcancen teóricamente rendimientos de 100 Mb/s.

    Además, ATA-6 define una funcionalidad nueva, llamada Gestión Acústica Automática (AAM), que permite a las unidades que soportan esta función el poder ajustar automáticamente las velocidades de acceso con el objetivo de reducir el ruido operativo.

    Finalmente, el estándar ATA-6 permite un LBA de los sectores de disco duro de 48 bits, llamado LBA48 (Dirección Lógica de Bloque de 48 bits). Gracias a LBA48, es posible usar discos duros 2^48 con 512 bytes por sector, lo que equivale a un límite del tamaño de disco de 2 petabytes.

    ATA-7

    El estándar ATA-7 define Ultra DMA/133133 (también llamado Ultra DMA modo 6 o Ultra-ATA133), que permite que las unidades alcancen teóricamente rendimientos de 133 Mb/s.

    Más información

    Puede encontrar las especificaciones técnicas en el sitio web de T13, que es la organización responsable de mantener el estándar ATA: T13.org

    Introducción

    El estándar Serial ATA (S-ATA o SATA) es un bus estándar que permite conectar periféricos de alta velocidad a equipos.

    El estándar Serial ATA se introdujo en febrero de 2003 con el fin de compensar las limitaciones del estándar ATA (más conocido con el nombre de "IDE" y antes llamado Paralela ATA), que utiliza un modo de transmisión paralelo. De hecho, este modo de transmisión no está diseñado para trabajar con altas frecuencias debido a problemas relacionados con alteraciones electromagnéticas entre los diferentes hilos.

    ESTANDAR SATA

    edu.red

    El estándar Serial ATA se basa en una comunicación en serie. Se utiliza una ruta de datos para transmitir los datos y otra ruta para transmitir las confirmaciones de recepción. En cada una de estas rutas, los datos se transmiten mediante el modo de transmisión LVDS (Señal diferencial de bajo voltaje) que consiste en transferir una señal a un hilo y su contrapartida a un segundo hilo para permitir que el destinatario recree la señal por diferencia. Los datos de control se transmiten por la misma ruta que los datos mediante una secuencia específica de bits que los distingue.

    Por lo tanto, la comunicación requiere de dos rutas de transmisión, cada una de las cuales está compuesta por dos hilos, con un total de cuatro hilos utilizados para la transmisión.

    Conectores de Serial ATA

    El cable utilizado por el estándar ATA Serial es un cable redondeado que contiene 7 hilos con un conector de 8 mm en su extremo:

    edu.red

    Tres hilos tienen conexión a tierra y dos pares se utilizan para la transmisión de datos.

    El conector de la fuente de alimentación también es diferente: comprende 15 clavijas que alimentan al periférico con una potencia de 3,3 V, 5 V o 12 V y tiene una apariencia similar al conector de datos:

    edu.red

    Características técnicas

    El estándar Serial ATA brinda una velocidad de 187,5 MB/s (1,5 Gb/s) y cada octeto se transmite con un bit de arranque y un bit de parada, con una velocidad efectiva teórica de 150 MB/s (1,2 Gb/s). El estándar Serial ATA II debe contribuir a alcanzar 375 MB/s (3 Gb/s), es decir, una velocidad efectiva teórica de 300 MB/s, y finalmente 750 MB/s (6 Gb/s), es decir, una velocidad efectiva teórica de 600 MB/s.

    Los cables del estándar Serial ATA pueden medir hasta 1 metro de longitud (en comparación con los 45 cm que miden los cables IDE). Además, la baja cantidad de hilos en una envoltura redonda permite una mayor flexibilidad y una mejor circulación del aire dentro de la carcasa que la de los cables IDE (incluso si existieran los cables IDE redondeados). A diferencia de los periféricos del estándar ATA, los del Serial ATA se encuentran solos en cada cable y ya no es necesario diferenciar los "periféricos maestros" de los "periféricos esclavos".

    Además, el estándar Serial ATA permite la conexión en caliente.

    TAREA 28

    1.- Realice un cuestionario de 15 preguntas.

    Discos duros

    El disco duro es el componente utilizado para almacenar los datos de manera permanente, a diferencia de la memoria RAM, que se borra cada vez que se reinicia el ordenador, motivo por el cual a veces se denomina dispositivo de almacenamiento masivo a los discos rígidos.

    El disco rígido se encuentra conectado a la placa madre por medio del controlador de disco duro que actúa a su vez como una interfaz entre el procesador y el disco rígido. El controlador de disco rígido administra los discos racionados con él, interpreta comandos enviados por el procesador y los envía al disco en cuestión. Los discos rígidos generalmente están agrupados por interfaz de la siguiente manera:

    • IDE

    • SCSI (Interfaz para sistemas de equipos pequeños)

    • Serial ATA

    Cuando apareció la norma USB se lanzaron al mercado carcasas que podían conectar un disco rígido mediante un puerto USB, lo que facilitó la instalación de discos rígidos y aumentó la capacidad de almacenamiento para hacer copias de seguridad. Estos discos se denominan discos rígidos externos, en oposición a los discos rígidos internos que se encuentran conectados directamente a la placa madre; de todas maneras, son el mismo tipo de discos, con la diferencia de que los discos duros externos se hallan conectados al ordenador mediante una cubierta enchufada a un puerto USB.

    Estructura

    Un disco rígido no está compuesto por un solo disco, sino por varios discos rígidos que pueden ser de metal, vidrio o cerámica, apilados muy juntos entre sí y llamados platos.

    edu.red

    Los discos giran rápidamente alrededor de un eje (en realidad, a varios miles de revoluciones por minuto) en sentido contrario a las agujas de un reloj. El ordenador funciona en modo binario, lo cual significa que los datos se almacenan en forma de ceros y unos (denominados bits). Los discos rígidos contienen millones de estos bits, almacenados muy próximos unos de otros en una delgada capa magnética de unos pocos micrones de espesor, recubierta a su vez por una película protectora.

    Estos datos pueden leerse y escribirse por medio de cabezales de lectura ubicados a ambos lados de los platos. Estos cabezales son electroimanes que suben y bajan para leer la información o bien escribirla. Los cabezales de lectura se encuentran a sólo unos micrones de la superficie, separados por una capa de aire creada por la rotación de los discos, que genera una rotación de aproximadamente 250km/h (150 mph). Más aún, estos cabezales son móviles y pueden mover hacia los laterales para que las cabezas puedan barrer toda la superficie.

    edu.red

    Sin embargo, los cabezales se encuentran unidos entre sí y solamente uno de ellos puede leer o escribir en un momento preciso. Se utiliza el término cilindro para hacer referencia a todos los datos almacenados verticalmente en cada uno de los discos.

    El mecanismo completo de precisión se encuentra dentro de una caja totalmente hermética, debido a que la más mínima partícula puede degradar la superficie del disco. Es por esta razón que los discos rígidos están sellados y muestran la advertencia "Garantía nula si se extrae", ya que únicamente los fabricantes de discos rígidos pueden abrirlos (en "salas limpias" libres de partículas).

    FUNCIONAMIENTO DE DISCO DURO.

    Se dice que los cabezales de lectura/escritura son "inductivos", lo que significa que pueden generar un campo magnético. Esto es de especial importancia en el momento de la escritura: Los cabezales, al crear campos positivos o negativos, tienden a polarizar la superficie del disco en un área muy diminuta, de modo tal que cuando luego se leen, la inversión de polaridad procede a completar el circuito con el cabezal de lectura. Estos campos luego son transformados mediante un conversor analógico-digital (CAD) en 0 ó 1 para que el ordenador los pueda comprender.

    edu.red

    Los cabezales comienzan a escribir datos comenzando desde el borde del disco (pista 0) y avanzando hacia el centro. Los datos se organizan en círculos concéntricos denominados "pistas", creadas por un formateo de bajo nivel.

    Estas pistas están separadas en zonas (entre dos radios) llamadas sectores, que contienen los datos (por lo menos 512 octetos por sector).

    edu.red

    El término cilindro hace referencia a todos los datos que se encuentran en la misma pista de distintos platos (es decir, sobre y debajo de cada uno de ellos), ya que esto constituye un "cilindro" de datos.

    edu.red

    Finalmente, el término clústers (también llamados unidades de asignación) se refiere al área mínima que puede ocupar un archivo dentro del disco rígido. Un sistema operativo utiliza bloques, que son en realidad grupos de sectores (entre 1 y 16 sectores). Un archivo pequeño puede llegar a ocupar múltiples sectores (un clúster).

    En los discos rígidos antiguos, el direccionamiento solía realizarse manualmente, mediante la definición de la posición de los datos desde las coordenadas Cilindro/Cabezal/Sector (CHS).

    Descargue: http://www.mediafire.com/?8kgbqbogbhql2

    Modo Bloque

    El modo Bloque y la transferencia de 32 bits se utilizan para obtener el mejor rendimiento de su disco rígido. El modo Bloque implica la transferencia de datos en bloques, generalmente en paquetes de 512 bytes, lo que evita que el procesador deba procesar grandes cantidades de paquetes diminutos de un bit. De esta manera, el procesador dispone del "tiempo necesario" para realizar otras operaciones. Desafortunadamente, este modo de transferencia de datos es únicamente útil para sistemas operativos antiguos (como MS-DOS), ya que los sistemas operativos actuales utilizan su propio administrador de disco rígido, lo que hace que este sistema de administración sea, por decirlo de alguna manera, obsoleto.

    Existe una opción BIOS (modo bloque IDE HDD o Transferencia Multi Sector) que suele determinar la cantidad de bloques que se pueden administrar a la vez. Es un número entre 2 y 32. Si no lo conoce, existen varias soluciones a su disposición:

    • Verifique la documentación de su disco rígido

    • Busque las especificaciones de su disco en Internet

    • Lleve a cabo pruebas para determinarlo.

    Sin embargo, es importante tener en cuenta que el modo Bloque puede generar errores en algunos sistemas, debido a redundancias en el administrador del disco rígido. El sistema requiere la desactivación de uno de los dos administradores:

    • el administrador de software de 32 bits en el sistema operativo;

    • el modo bloque en el BIOS.

    Modo de 32 bits

    El modo de 32 bits (contrariamente al modo de 16 bits) se caracteriza por las transferencias de datos de 32 bits. Para imaginar la transferencia de 32 bits se la puede comparar con 32 puertas que se abren y cierran a la vez. En el modo de 32 bits, se transmiten dos palabras de 16 bits (grupos de bits) una después de la otra, y luego se ensamblan.

    Cuando se pasa del modo de 16 bits al de 32 bits, las mejoras en el rendimiento son casi mínimas. De todas maneras, en teoría ya no es posible seleccionar el modo debido a que la placa madre determina automáticamente el modo que debe utilizarse en función del tipo de disco rígido.

    Sin embargo, la selección automática del modo de 32 bits puede lentificar las unidades CD-ROM IDE cuya velocidad es superior a 24x cuando se encuentran solas en un cable plano IDE. De hecho, cuando una unidad de CD-ROM se encuentra sola en el cable, el BIOS no puede determinar su compatibilidad con el modo de 32 bits (porque está buscando un disco rígido) y entonces pasa al modo de 16 bits. En este caso, la velocidad de transferencia (incorrectamente llamada tasa de transferencia) será inferior a la que el fabricante afirma.

    La solución es entonces enchufar la unidad de CD-ROM y un disco rígido compatible de 32 bits en el mismo cable plano.

    ESPECIFICACIONES TECNICAS DISCO DURO.

    • Capacidad: Cantidad de datos que pueden almacenarse en un disco rígido.

    • Tasa de transferencia: Cantidad de datos que pueden leerse o escribirse desde el disco por unidad de tiempo. Se expresa en bits por segundo.

    • Velocidad de rotación: La velocidad a la cual giran los platos. Se expresa en revoluciones por minuto (rpm, su acrónimo en inglés). Las velocidades de los discos rígidos se encuentran en el orden de 7200 a 15000 rpm. Cuanto más rápido rota un disco, más alta resulta su tasa de transferencia. Por el contrario, un disco rígido que rota rápidamente tiende a ser más ruidoso y a calentarse con mayor facilidad.

    • Latencia (también llamada demora de rotación): El lapso de tiempo que transcurre entre el momento en que el disco encuentra la pista y el momento en que encuentra los datos.

    • Tiempo medio de acceso: Tiempo promedio que demora el cabezal en encontrar la pista correcta y tener acceso a los datos. En otras palabras, representa el tiempo promedio que demora el disco en proporcionar datos después de haber recibido la orden de hacerlo. Debe ser lo más breve posible.

    • Densidad radial: número de pistas por pulgada (tpi).

    • Densidad lineal

    • : número de bits por pulgada (bpi) en una pista dada.

    • Densidad de área

    • : índice entre la densidad lineal y la densidad radial (expresado en bits por pulgada cuadrada).

    • Memoria caché (o memoria de búfer): Cantidad de memoria que se encuentra en el disco rígido. La memoria caché se utiliza para almacenar los datos del disco a los que se accede con más frecuencia, buscando de esta manera, mejorar el rendimiento general;

    • Interfaz: Se refiere a las conexiones utilizadas por el disco rígido. Las principales interfaces del disco rígido son:

    • IDE/ATA (Entorno integrado de desarrollo / Agregado de tecnología de avanzada)

    • Serial ATA

    • SCSI (Interfaz para sistemas de equipos pequeños)

    • Sin embargo, existen carcasas externas que se utilizan para conectar discos rígidos con puertos USB o FireWire.

    • INTRODUCCION INTERFAZ SCSI.

      El estándar SCSI (Interfaz para sistemas de ordenadores pequeños es una interfaz que se utiliza para permitir la conexión de distintos tipos de periféricos a un ordenador mediante una tarjeta denominada adaptador SCSI o controlador SCSI (generalmente mediante un conector PCI).

      El número de periféricos que se pueden conectar depende del ancho del bus SCSI. Con un bus de 8 bits, se pueden conectar 8 unidades físicas y con uno de 16 bits, 16 unidades. Dado que el controlador SCSI representa una unidad física independiente, el bus puede alojar 7 (8-1) ó 15 (16-1) periféricos.

      Direccionamiento de los periféricos

      Los periféricos se direccionan mediante números de identificación. El primer número es el ID, número que designa al controlador que se encuentra dentro de cada periférico (definido a través de los caballetes posicionados en cada periférico SCSI o por el software). El periférico puede tener hasta 8 unidades lógicas (por ejemplo, una unidad de CD-ROM con varios cajones). Las unidades lógicas se identifican mediante un LUN (Número de unidad lógica). Por último, un ordenador puede contener diversas tarjetas SCSI y, por lo tanto, a cada una le corresponde un número diferente.

      De este modo, para comunicarse con un periférico, el ordenador debe suministrar una dirección de la siguiente manera: "número de tarjeta – ID – LUN".

      SCSI asimétrico y diferencial

      Existen dos tipos de bus SCSI:

      • el bus asimétrico, conocido como SE (por Single-Ended o Terminación única), basado en una arquitectura paralela en la que cada canal circula en un alambre, sensible a las interferencias. Los cables SCSI en modo SE poseen 8 alambres para una transmisión de 8 bits (que se denominan limitados) o 16 alambres para cables de 16 bits (conocidos como extendidos). Este es el tipo de bus SCSI más común.

      • el bus diferencial transporta señales a un par de alambres. La información se codifica por diferencia entre los dos alambres (cada uno transmite el voltaje opuesto) para desplazar las interrupciones electromagnéticas, lo que permite obtener una distancia de cableado considerable (alrededor de 25 metros). En general, existen dos modos: el modo LVD (Voltaje bajo diferencial), basado en señales de 3,3 V y el modo HVD (Voltaje Alto Diferencial), que utiliza señales de 5 V. Los periféricos que utilizan este tipo de transmisión son cada vez más raros y por lo general llevan la palabra "DIFF".

      Los conectores para las dos categorías de periféricos son los mismos, pero las señales eléctricas son diferentes. Por lo tanto, los periféricos necesitan ser identificados (mediante los símbolos creados para tal fin) para no dañarlos.

      Estándares SCSI

      Los estándares SCSI definen los parámetros eléctricos de las interfaces de entrada/salida. El estándar SCSI-1 de 1986 definió los comandos estándar para el control de los periféricos SCSI en un bus con una frecuencia de 4,77 MHz con un ancho de 8 bits, lo que implicaba que era posible alcanzar velocidades de 5 MB/s.

      Sin embargo, un gran número de dichos comandos eran opcionales, por lo que en 1994 se adoptó el estándar SCSI-2. Éste define 18 comandos, conocidos como CCS (Conjunto de comandos comunes). Se han definido varias versiones del estándar SCSI-2:

      • El SCSI-2 extendido, basado en un bus de 16 bits (en lugar de 8), ofrece una velocidad de 10 MB/s

      • El SCSI-2 rápido es un modo sincrónico rápido que permite un aumento de 5 a 10 MB/s para el estándar SCSI y de 10 a 20 MB/s para el SCSI-2 extendido (denominado SCSI-2 extendido rápido).

      • Los modos Rápido-20 y Rápido-40 duplican y cuadriplican dichas velocidades respectivamente.

      El estándar SCSI-3 incluye nuevos comandos y permite la unión de 32 periféricos, así como una velocidad máxima de 320 MB/s (en modo Ultra-320).

      El siguiente cuadro resume las características de los diversos estándares SCSI:

      edu.red

      RAID

      RAID Redundant Array of Independent Disks, «conjunto redundante de discos independientes») hace referencia a un sistema de almacenamiento que usan múltiples discos duros o SSD entre los que se distribuyen o replican los datos. Dependiendo de su configuración (a la que suele llamarse «nivel»), los beneficios de un RAID respecto a un único disco son uno o varios de los siguientes: mayor integridad, mayor tolerancia a fallos, mayor throughput (rendimiento) y mayor capacidad. En sus implementaciones originales, su ventaja clave era la habilidad de combinar varios dispositivos de bajo coste y tecnología más antigua en un conjunto que ofrecía mayor capacidad, fiabilidad, velocidad o una combinación de éstas que un solo dispositivo de última generación y coste más alto.

      En el nivel más simple, un RAID combina varios discos duros en una sola unidad lógica. Así, en lugar de ver varios discos duros diferentes, el sistema operativo ve uno solo. Los RAIDs suelen usarse en servidores y normalmente (aunque no es necesario) se implementan con unidades de disco de la misma capacidad. Debido al decremento en el precio de los discos duros y la mayor disponibilidad de las opciones RAID incluidas en los chipsets de las placas base, los RAIDs se encuentran también como opción en las computadoras personales más avanzadas. Esto es especialmente frecuente en las computadoras dedicadas a tareas intensivas y que requiera asegurar la integridad de los datos en caso de fallo del sistema. Esta característica no está obviamente disponible en los sistemas RAID por software, que suelen presentar por tanto el problema de reconstruir el conjunto de discos cuando el sistema es reiniciado tras un fallo para asegurar la integridad de los datos. Por el contrario, los sistemas basados en software son mucho más flexibles (permitiendo, por ejemplo, construir RAID de particiones en lugar de discos completos y agrupar en un mismo RAID discos conectados en varias controladoras) y los basados en hardware añaden un punto de fallo más al sistema (la controladora RAID).

      Todas las implementaciones pueden soportar el uso de uno o más discos de reserva (hot spare), unidades preinstaladas que pueden usarse inmediatamente (y casi siempre automáticamente) tras el fallo de un disco del RAID. Esto reduce el tiempo del período de reparación al acortar el tiempo de reconstrucción del RAID.

      NIVELES DE RAID ESTANDAR.

      RAID 1

      Un RAID 1 crea una copia exacta (o espejo) de un conjunto de datos en dos o más discos. Esto resulta útil cuando el rendimiento en lectura es más importante que la capacidad. Un conjunto RAID 1 sólo puede ser tan grande como el más pequeño de sus discos. Un RAID 1 clásico consiste en dos discos en espejo, lo que incrementa exponencialmente la fiabilidad respecto a un solo disco; es decir, la probabilidad de fallo del conjunto es igual al producto de las probabilidades de fallo de cada uno de los discos (pues para que el conjunto falle es necesario que lo hagan todos sus discos).

      Adicionalmente, dado que todos los datos están en dos o más discos, con hardware habitualmente independiente, el rendimiento de lectura se incrementa aproximadamente como múltiplo lineal del número de copias; es decir, un RAID 1 puede estar leyendo simultáneamente dos datos diferentes en dos discos diferentes, por lo que su rendimiento se duplica. Para maximizar los beneficios sobre el rendimiento del RAID 1 se recomienda el uso de controladoras de disco independientes, una para cada disco (práctica que algunos denominan splitting o duplexing).

      Como en el RAID 0, el tiempo medio de lectura se reduce, ya que los sectores a buscar pueden dividirse entre los discos, bajando el tiempo de búsqueda y subiendo la tasa de transferencia, con el único límite de la velocidad soportada por la controladora RAID. Sin embargo, muchas tarjetas RAID 1 IDE antiguas leen sólo de un disco de la pareja, por lo que su rendimiento es igual al de un único disco. Algunas implementaciones RAID 1 antiguas también leen de ambos discos simultáneamente y comparan los datos para detectar errores.

      Al escribir, el conjunto se comporta como un único disco, dado que los datos deben ser escritos en todos los discos del RAID 1. Por tanto, el rendimiento no mejora.

      El RAID 1 tiene muchas ventajas de administración. Por ejemplo, en algunos entornos 24/7, es posible «dividir el espejo»: marcar un disco como inactivo, hacer una copia de seguridad de dicho disco y luego «reconstruir» el espejo. Esto requiere que la aplicación de gestión del conjunto soporte la recuperación de los datos del disco en el momento de la división. Este procedimiento es menos crítico que la presencia de una característica de snapshot en algunos sistemas de archivos, en la que se reserva algún espacio para los cambios, presentando una vista estática en un punto temporal dado del sistema de archivos.

      RAID 5

      edu.red

      Diagrama de una configuración RAID 5.

      Un RAID 5 es una división de datos a nivel de bloques distribuyendo la información de paridad entre todos los discos miembros del conjunto. El RAID 5 ha logrado popularidad gracias a su bajo coste de redundancia. Generalmente, el RAID 5 se implementa con soporte hardware para el cálculo de la paridad. RAID 5 necesitará un mínimo de 3 discos para ser implementado.

      En el gráfico de ejemplo anterior, una petición de lectura del bloque «A1» sería servida por el disco 0. Una petición de lectura simultánea del bloque «B1» tendría que esperar, pero una petición de lectura de «B2» podría atenderse concurrentemente ya que sería servida por el disco 1.

      Cada vez que un bloque de datos se escribe en un RAID 5, se genera un bloque de paridad dentro de la misma división (stripe). Un bloque se compone a menudo de muchos sectores consecutivos de disco. Una serie de bloques (un bloque de cada uno de los discos del conjunto) recibe el nombre colectivo de división (stripe). Si otro bloque, o alguna porción de un bloque, es escrita en esa misma división, el bloque de paridad (o una parte del mismo) es recalculada y vuelta a escribir. El disco utilizado por el bloque de paridad está escalonado de una división a la siguiente, de ahí el término «bloques de paridad distribuidos». Las escrituras en un RAID 5 son costosas en términos de operaciones de disco y tráfico entre los discos y la controladora.

      Los bloques de paridad no se leen en las operaciones de lectura de datos, ya que esto sería una sobrecarga innecesaria y disminuiría el rendimiento. Sin embargo, los bloques de paridad se leen cuando la lectura de un sector de datos provoca un error de CRC. En este caso, el sector en la misma posición relativa dentro de cada uno de los bloques de datos restantes en la división y dentro del bloque de paridad en la división se utiliza para reconstruir el sector erróneo. El error CRC se oculta así al resto del sistema. De la misma forma, si falla un disco del conjunto, los bloques de paridad de los restantes discos son combinados matemáticamente con los bloques de datos de los restantes discos para reconstruir los datos del disco que ha fallado «al vuelo».

      Lo anterior se denomina a veces Modo Interino de Recuperación de Datos (Interim Data Recovery Mode). El sistema sabe que un disco ha fallado, pero sólo con el fin de que el sistema operativo pueda notificar al administrador que una unidad necesita ser reemplazada: las aplicaciones en ejecución siguen funcionando ajenas al fallo. Las lecturas y escrituras continúan normalmente en el conjunto de discos, aunque con alguna degradación de rendimiento. La diferencia entre el RAID 4 y el RAID 5 es que, en el Modo Interno de Recuperación de Datos, el RAID 5 puede ser ligeramente más rápido, debido a que, cuando el CRC y la paridad están en el disco que falló, los cálculos no tienen que realizarse, mientras que en el RAID 4, si uno de los discos de datos falla, los cálculos tienen que ser realizados en cada acceso.

      El fallo de un segundo disco provoca la pérdida completa de los datos.

      El número máximo de discos en un grupo de redundancia RAID 5 es teóricamente ilimitado, pero en la práctica es común limitar el número de unidades. Los inconvenientes de usar grupos de redundancia mayores son una mayor probabilidad de fallo simultáneo de dos discos, un mayor tiempo de reconstrucción y una mayor probabilidad de hallar un sector irrecuperable durante una reconstrucción. A medida que el número de discos en un conjunto RAID 5 crece, el MTBF (tiempo medio entre fallos) puede ser más bajo que el de un único disco. Esto sucede cuando la probabilidad de que falle un segundo disco en los N-1 discos restantes de un conjunto en el que ha fallado un disco en el tiempo necesario para detectar, reemplazar y recrear dicho disco es mayor que la probabilidad de fallo de un único disco. Una alternativa que proporciona una protección de paridad dual, permitiendo así mayor número de discos por grupo, es el RAID 6.

      Algunos vendedores RAID evitan montar discos de los mismos lotes en un grupo de redundancia para minimizar la probabilidad de fallos simultáneos al principio y el final de su vida útil.

      Las implementaciones RAID 5 presentan un rendimiento malo cuando se someten a cargas de trabajo que incluyen muchas escrituras más pequeñas que el tamaño de una división (stripe). Esto se debe a que la paridad debe ser actualizada para cada escritura, lo que exige realizar secuencias de lectura, modificación y escritura tanto para el bloque de datos como para el de paridad. Implementaciones más complejas incluyen a menudo cachés de escritura no volátiles para reducir este problema de rendimiento.

      Partes: 1, 2, 3, 4, 5, 6, 7, 8
 Página anterior Volver al principio del trabajoPágina siguiente