Descargar

Organización de Entrada y Salida (página 2)

Enviado por R�os Teresita


Partes: 1, 2

 

2.- INTERFACES DE ENTRADA Y SALIDA:

Un subsistema de E/S consiste en interfases de E/S y dispositivos periféricos. La interfase de E/S controla la operatoria de los dispositivos conectados a ella. Las operaciones de control (por ejemplo rebobinado, posicionamiento, etc.) se arrancan mediante comandos emitidos por la CPU. El conjunto de comandos que se ejecutan para completar la transacción de E/S se denomina driver.

Las funciones de la interfase son almacenar los datos y realizar las conversiones que se le requieran. También detecta errores en la transmisión y es capaz de reiniciar la transacción en casos de error. Más aún, la interfase puede testear, arrancar y detener el dispositivo según las directivas impartidas por la CPU. En algunos casos la interfase puede consultar a la CPU si algún dispositivo está requiriendo atención urgente.

Existen distintos tipos de comandos que circulan por el bus, a saber:

– De control: son para activar el periférico y decirle que debe hacer (por ej. rebobinar una cinta); varían según cada tipo de periférico.

– De verificación: verifican las diversas condiciones de estado en la interfase o en el periférico (por ej., una vez seleccionada la ruta la CPU puede desear verificarla para ver si existe energía (power on) o que el periférico esté en línea (on line).

– Salida de datos: Hace que la interfase responda tomando un ítem de datos del bus.

– Entrada de datos: la interfase recibe un ítem de datos del periférico y lo coloca en su propio registro separador, avisa a la CPU, la que emite el comando de entrada de datos el cual transfiere el contenido de ese registro al bus de donde es tomado por la CPU y almacenado en su registro acumulador. Ejemplo: Salida de datos a una unidad de cinta.

El computador arranca la unidad de cinta emitiendo un comando de control. El procesador entonces monitorea el estado de la cinta por medio de comandos de verificación. Cuando la cinta está en posición correcta, el computador emite un comando de salida de datos. La interfase responde a la dirección y a las líneas de comando y transfiere los datos de la línea de datos del bus de E/S a su registro separador. La interfase se comunica entonces para aceptar un nuevo ítem de datos para almacenar en la cinta.

3.- MODOS DE COMUNICACIÓN

3.1.- DMA:

El Acceso directo a memoria (DMA, del inglés Direct Memory Access) permite a cierto tipo de componentes de ordenador acceder a la memoria del sistema para leer o escribir independientemente de la CPU principal. Muchos sistemas hardware utilizan DMA, incluyendo controladores de unidades de disco, tarjetas gráficas, y

tarjetas de sonido.

DMA es una característica esencial en todos los ordenadores modernos, ya que permite a dispositivos de diferentes velocidades comunicarse sin someter a la CPU a una carga masiva de interrupciones.

3.1.1.- Transferencia por DMA y sus estrategias:

Una transferencia DMA consiste principalmente en copiar un bloque de memoria de un dispositivo a otro. En lugar de que la CPU inicie la transferencia, la transferencia se lleva a cabo por el controlador DMA. Un ejemplo típico es mover un bloque de memoria desde una memoria externa a una interna más rápida. Tal operación no ocupa el procesador y como resultado puede ser planificado para efectuar otras tareas. Las transferencias DMA son esenciales para aumentar el rendimiento de aplicaciones que requieran muchos recursos.

Cabe destacar que aunque no se necesite a la CPU para la transacción de datos, sí que se necesita el bus del sistema (tanto bus de datos como bus de direcciones), por lo que existen diferentes estrategias para regular su uso, permitiendo así que no quede totalmente acaparado por el controlador DMA.

A continuación se muestran unos gráficos que muestran el proceso de transferencia DMA…

A continuación se exponen diferentes técnicas para realizar la transferencia de datos. El uso de cada una de ellas dependerá de las características que se deseen primar en un sistema.

3.1.1.1.- DMA por robo de ciclo: se basa en usar uno o más ciclos de CPU por cada instrucción que se ejecuta (de ahí el nombre). De esta forma se consigue una alta disponibilidad del bus del sistema para la CPU, aunque, en consecuencia, la transferencia de los datos será considerablemente lenta. Este método es el que se usa habitualmente ya que la interferencia con la CPU es muy baja.

3.1.1.2.- DMA por ráfagas: consiste en enviar el bloque de datos solicitado mediante una ráfaga, ocupando el bus del sistema hasta finalizar la transmisión. Así se consigue la máxima velocidad, sin embargo la CPU no podrá usar el bus durante todo ese tiempo, por lo que permanecería inactiva.

3.1.1.3.- DMA transparente: se trata de usar el bus del sistema cuando se tiene certeza de que la CPU no lo necesita, como por ejemplo en aquellas fases del proceso de ejecución de las instrucciones donde nunca se usa ya que la CPU realiza tareas internas (v. g. fase de decodificación de la instrucción). De esta manera, como su nombre indica, la DMA permanecerá transparente para la CPU y la transferencia se hará sin obstaculizar la relación CPU-bus del sistema. Como desventaja, la velocidad de transferencia es la más baja posible.

3.1.1.4.- DMA Scatter-gather: permite la transferencia de datos a varias áreas de memoria en una transacción DMA simple. Es equivalente al encadenamiento de múltiples peticiones DMA simples. De nuevo, el objetivo es liberar a la CPU de las tareas de copia de datos e interrupciones de entrada/salida múltiples.

3.1.2. – CONTROLADOR DMA:

Es el que permite llevar a cabo la transferencia DMA

A continuación se muestra un gráfico que especifica el proceso que realiza el controlador DMA…

3.2.- ESPECIAL:

En esta técnica la controladora del disco duro desconecta la controladora del bus y transfiere los datos con la ayuda de un controlador Bus Master DMA con control propio. Así se pueden alcanzar velocidades de 8 a 16 Mb por segundo.

4.- INTERCONEXIÓN PRIORITARIA:

Sistema que establece una prioridad entre las diversas fuentes de condiciones, Para determinar cual se va a atender primero según su prioridad.

Conclusiones

Se dice que los dispositivos que tienen control directo de la unidad de procesamiento están conectados en línea. Estos dispositivos transfieren información binaria dentro y fuera de la unidad de memoria cuando se recibe un comando de la CPU.

Los periféricos conectados a una computadora necesitan enlaces de comunicación especiales para conectarlos con la CPU. El objetivo de un enlace de comunicación consiste en resolver las diferencias que existen entre la computadora central y cada dispositivo periférico. Las diferencias principales son:

  • Los periféricos son dispositivos electromagnéticos y su forma de operación es diferente de la CPU y la memoria los cuales son dispositivos electrónicos. Por lo tanto, quizá se requiera una conversión de valores de señales.
  • La velocidad de transferencia de datos de los dispositivos periféricos suele ser menor que la CPU. En consecuencia, puede necesitarse un mecanismo de sincronización.
  • Los códigos y formatos de datos en los dispositivos periféricos difieren del formato de palabras en la CPU y la memoria.

La transferencia de datos entre dispositivos de almacenamiento veloz como un disco magnético y la memoria, a menudo se ve limitada por la velocidad del CPU. Durante la transferencia DMA la CPU esta desocupada y no tiene control de los buses de la memoria.

Bibliografía

  • Arquitectura de computadoras / Eduardo Alcalde Lancharro.
  • Arquitectura de computadoras y procesamiento paralelo / Kai Hwang.

Sitios consultados en Internet:

 

INTEGRANTES:

Gao Yan

Morris Gustavo

Ríos Teresita

Santana Diana

Urdaneta Marines

Maracaibo, 6 de Julio de 2006.

REPÚBLICA BOLIVARIANA DE VENEZUELA

MINISTERIO DE EDUCACIÓN SUPERIOR

UNIVERSIDAD DR. RAFAEL BELLOSO CHACIN

FACULTAD DE INGENIERÍA

ESCUELA DE COMPUTACIÓN

CÁTEDRA: TECNOLOGÍA DEL HARDWARE I

Partes: 1, 2
 Página anterior Volver al principio del trabajoPágina siguiente