Descargar

Componentes de la computadora (página 2)

Enviado por Omar Hernandez


Partes: 1, 2

Cada una de las instrucciones tiene un código diferente expresado en formato binario. Esta combinación distinta de unos y ceros la interpreta el <<cerebro>> del ordenador, y como está diseñado para que sepa diferenciar lo que tiene que hacer al procesar cada una de ellas, las ejecuta y continúa con la siguiente instrucción, sin necesidad de que intervenga el ordenador.

El proceso de una instrucción se descompone en operaciones muy simples de transferencia de información u operaciones aritméticas y lógicas elementales, que realizadas a gran velocidad le proporcionan una gran potencia que es utilizada en múltiples aplicaciones.

Realmente, esa información digitalizada en binario, a la que se refiere con unos y ceros, el ordenador la diferencia porque se trata de niveles diferentes de voltaje.

Cuando se emplean circuitos integrados, los niveles lógicos bajo y alto, que se representan por ceros y unos, corresponden a valores muy próximos a cero y cinco voltios en la mayoría de los casos.

Cuando las entradas de las puertas lógicas de los circuitos digitales se les aplica el nivel alto o bajo de voltaje, el comportamiento muy diferente. Por ejemplo, si se le aplica nivel alto conducen o cierran el circuito; en cambio si se aplica nivel bajo no conducen o dejan abierto el circuito. Para que esto ocurra, los transistores que constituyen los circuitos integrados trabajan en conmutación, pasando del corte a la saturación.

¿Qué es un computador mainframe?

Ordenador o computadora de gran capacidad, tremendamente rápida y de coste elevado, utilizada en cálculos complejos o tareas muy especiales. Normalmente se trata de una máquina capaz de distribuir el procesamiento de instrucciones y que puede utilizar instrucciones vectoriales. Las supercomputadoras se usan, por ejemplo, para hacer el enorme número de cálculos que se necesitan para dibujar y animar una nave espacial, o para crear un dinosaurio en movimiento para una película. También se utilizan para hacer las previsiones meteorológicas, para construir modelos científicos a gran escala y en los cálculos de las prospecciones petrolíferas.

Este tipo de equipos informáticos lo utilizan principalmente los científicos dedicados a la investigación pura y aplicada, las grandes compañías y el ejército.

¿QUE ES UN MICROCOMPUTADOR?

un ordenador o computadora de nivel medio diseñada para realizar cálculos complejos y gestionar eficientemente una gran cantidad de entradas y salidas de usuarios conectados a través de un terminal. Normalmente, los miniordenadores se conectan mediante una red con otras minicomputadoras, y distribuyen los procesos entre todos los equipos conectados. Las minicomputadoras se utilizan con frecuencia en aplicaciones transaccionales y como interfaces entre sistemas de mainframe y redes de área extensa.

Elementos de un computador

Los elementos del computador son:

Hardware

Equipo utilizado para el funcionamiento de una computadora. El hardware se refiere a los componentes materiales de un sistema informático.

La función de estos componentes suele dividirse en tres categorías principales: entrada, salida y almacenamiento. Los componentes de esas categorías están conectados a través de un conjunto de cables o circuitos llamado bus con la unidad central de proceso (CPU) del ordenador, el microprocesador que controla la computadora y le proporciona capacidad de cálculo.

El hardware es un conjunto de dispositivos eléctricos y algunos mecánicos. Se compone principalmente de:

* C.P.U. : microprocesador. Sus funciones principales son:

a) Controlar y supervisar el sistema integral del ordenador en base a un programa almacenado en la memoria principal.

b) Desarrollar operaciones lógicas que sean necesarias para procesar las demás y controlar la secuencia. La ejecución de las instrucciones.

c) Controlar el envío y recepción de datos de todas las unidades periféricas a la unidad de memoria.

En función de la cantidad de instrucciones que puede descodificar la C.P.U. se dividen en:

a) CISC: tiene un gran conjunto de instrucciones.

b) RISC: tiene un conjunto regular de instrucciones.

* MEMORIA: dispositivos que permiten almacenar un conjunto de instrucciones. Dos clases principales:

a) RAM memoria de lectura/escritura. Son de acceso aleatorio, lentas y volátil.

b) ROM solo lectura. De acceso aleatorio y permanentes

* Dispositivos de E/S: Son una serie de dispositivos que permiten al ordenador comunicarse con el exterior. Los principales son:

a) Teclados.

b) Displays.

c) Discos: flexibles, duros…

d) Impresoras.

e) Comunicaciones.

El soporte lógico o software

En cambio, es el conjunto de instrucciones que un ordenador emplea para manipular datos: por ejemplo, un procesador de textos o un videojuego. Estos programas suelen almacenarse y transferirse a la CPU a través del hardware de la computadora. El software también rige la forma en que se utiliza el hardware, como por ejemplo la forma de recuperar información de un dispositivo de almacenamiento. La interacción entre el hardware de entrada y de salida es controlada por un software llamado BIOS (siglas en inglés de 'sistema básico de entrada / salida').

Aunque, técnicamente, los microprocesadores todavía se consideran hardware, partes de su función también están asociadas con el software. Como los microprocesadores tienen tanto aspectos de hardware como de software, a veces se les aplica el término intermedio de microprogramación, o firmware.

Software, programas de computadoras. Son las instrucciones responsables de que el hardware (la máquina) realice su tarea. Como concepto general, el software puede dividirse en varias categorías basadas en el tipo de trabajo realizado. Las dos categorías primarias de software son los sistemas operativos (software del sistema), que controlan los trabajos del ordenador o computadora, y el software de aplicación, que dirige las distintas tareas para las que se utilizan las computadoras. Por lo tanto, el software del sistema procesa tareas tan esenciales, aunque a menudo invisibles, como el mantenimiento de los archivos del disco y la administración de la pantalla, mientras que el software de aplicación lleva a cabo tareas de tratamiento de textos, gestión de bases de datos y similares. Constituyen dos categorías separadas el software de red, que permite comunicarse a grupos de usuarios, y el software de lenguaje utilizado para escribir programas

Además de estas categorías basadas en tareas, varios tipos de software se describen basándose en su método de distribución. Entre estos se encuentran los así llamados programas enlatados, el software desarrollado por compañías y vendido principalmente por distribuidores, el freeware y software de dominio público, que se ofrece sin costo alguno, el shareware, que es similar al freeware, pero suele conllevar una pequeña tasa a pagar por los usuarios que lo utilicen profesionalmente y, por último, el infame vapourware, que es software que no llega a presentarse o que aparece mucho después de lo prometido.

Lenguajes en computación

En informática, cualquier lenguaje artificial puede utilizarse para definir una secuencia de instrucciones para su procesamiento por un ordenador o computadora. Es complicado definir qué es y qué no es un lenguaje. Se asume generalmente que la traducción de las instrucciones a un código que comprende la computadora debe ser completamente sistemática. Normalmente es la computadora la que realiza la traducción.

TIPOS DE LENGUAJES:

Lenguaje Máquina

El lenguaje propio del ordenador, basado en el sistema binario, o código máquina, resulta difícil de utilizar para las personas. El programador debe introducir todos y cada uno de los comandos y datos en forma binaria, y una operación sencilla como comparar el contenido de un registro con los datos situados en una ubicación del chip de memoria puede tener el siguiente formato: 11001010 00010111 11110101 00101011. La programación en lenguaje máquina es una tarea tan tediosa y consume tanto tiempo que muy raras veces lo que se ahorra en la ejecución del programa justifica los días o semanas que se han necesitado para escribir el mismo.

Lenguaje bajo nivel

Vistos a muy bajo nivel, los microprocesadores procesan exclusivamente señales electrónicas binarias. Dar una instrucción a un microprocesador supone en realidad enviar series de unos y ceros espaciadas en el tiempo de una forma determinada. Esta secuencia de señales se denomina código máquina. El código representa normalmente datos y números e instrucciones para manipularlos. Un modo más fácil de comprender el código máquina es dando a cada instrucción un mnemónico, como por ejemplo STORE, ADD o JUMP. Esta abstracción da como resultado el ensamblador, un lenguaje de muy bajo nivel que es específico de cada microprocesador.

Los lenguajes de bajo nivel permiten crear programas muy rápidos, pero que son a menudo difíciles de aprender. Más importante es el hecho de que los programas escritos en un bajo nivel sean altamente específicos de cada procesador. Si se lleva el programa a otra máquina se debe reescribir el programa desde el principio

Lenguaje alto nivel

Los lenguajes de alto nivel sueles utilizar términos ingleses del tipo LIST, PRINT u OPEN como comandos que representan una secuencia de decenas o de centenas de instrucciones en lenguaje máquina. Los comandos se introducen desde el teclado, desde un programa residente en la memoria o desde un dispositivo de almacenamiento, y son interceptados por un programa que los traduce a instrucciones en lenguaje máquina.

Los programas traductores son de dos tipos: interpretes y compiladores. Con un interprete, los programas que repiten un ciclo para volver a ejecutar parte de sus instrucciones, reinterpretan la misma instrucción cada vez que aparece. Por consiguiente, los programas interpretados se ejecutan con mucha mayor lentitud que los programas en lenguaje máquina. Por el contrario, los compiladores traducen un programa integro a lenguaje máquina antes de su ejecución, por lo cual se ejecutan con tanta rapidez como si hubiese sido escrita directamente en lenguaje máquina.

Aunque existen centenares de lenguajes informáticos y de variantes, hay algunos dignos de mención, como el PASCAL, diseñado en un principio como herramienta de enseñanza, hoy es uno de los lenguajes de microordenador más populares; el logro fue desarrollado para que los niños pudieran acceder al mundo de la informática; el C, un lenguaje de Bell Laboratories diseñado en la década de 1970, se utiliza ampliamente en el desarrollo de programas de sistemas, al igual que su sucesor, el C++. El LISP y el PROLOG han alcanzado amplia difusión en el campo de la inteligencia artificial.

edu.red

ELEMENTOS DE ENTRADA

  • También llamados periféricos o unidades de entrada

  • Son los encargados de introducir los datos y los programas desde el exterior a la memoria central para su utilización.

  • Preparan la información para que el computador la entienda de forma correcta

  • Entre ellos se tiene: el teclado, el ratón, scanner, CR-ROM, lectoras de barra, etc.

ELEMENTOS DE SALIDA

  • Son aquellos dispositivos cuya misión es recoger y proporcionar al exterior los datos de salida o resultado de los procesos que se ejecutan

  • Entre ellos se tiene: Monitor, impresoras, etc.

Medios de almacenamientos

Los medios de almacenamientos también son conocidos como memorias secundarias, entre estos tenemos:

Memoria: es un dispositivo físico, generalmente un circuito electrónico, en el que se almacenan datos e instrucciones para recuperarlos y utilizarlo posteriormente. En un sentido amplio tenemos las siguientes memorias:

Discos Duros ó memoria secundaria: es en esta memoria donde se almacena el sistema operativo, los multimedia, juegos y los programas de aplicación entre otros.

Pen Drive ó Flash Memory: es una memoria bajo un circuito integrado de alta capacidad, velocidad, con un conector para puertos USB, viene en diferentes modelos y versiones con capacidades de mega byte y giga byte, además es cómoda y portátil.

Unidad de Floppy ó Diskette de 31/2: en este dispositivo se utiliza un pequeño disco flexible con alta densidad magnética el cual almacena información, pero en baja calidad de retención ya que esta se borra cuando el disco pierde su magnetismo con el pasar de los tiempos.

UNIDAD CENTRAL DE PROCESOS (CPU, Central Process Unit)

LA MEMORIA PRINCIPAL

Está formada por un conjunto de celdas, posiciones o palabras de memoria. En cada celda se archiva determinada información (datos o instrucciones de programa). La manera de diferenciar unas posiciones de otras es asignando una dirección diferente a cada celda. Para acceder a ella es necesario únicamente referenciar la dirección de memoria que las identifica.

DEFINICIÓN DE HARDWARE

  • Palabra compuesta de : Hard (duro) y Ware (equipo)

  • Constituye todo el equipo duro del computador, la parte tangible o perceptible.

  • Todos aquellos elementos que tienen entidad física forman parte del hardware, por ejemplo: componentes de la computadora, dispositivos externos (monitor, teclado, impresora, cables, soportes de información, etc.)

Unidad Central de Procesos (CPU, Central Process Unit): es el corazón del Computador. Su principal misión consiste en coordinar y realizar todas las operaciones del sistema informático. Consta de:

  • Procesador: encargado del control y ejecución de las operaciones; esta formado por:

  • Unidad de Control (CU,Control Unit) : es la parte del procesador encargada de gobernar el resto de las unidades, además de interpretar y ejecutar las instrucciones controlando su secuencia.

  • Unidad Aritmético Lógica (ALU, Aritmetic logical Unit) : es la parte del procesador encargada de realizar todas las operaciones elementales de tipo aritmético y tipo lógico

UNIDAD CENTRAL DE PROCESOS

  • Memoria Central:

  • También denominada memoria interna o principal (main memory).

  • Es el encargado de almacenar los programas y los datos de estos, necesarios para que el sistema informático realice un determinado trabajo.

  • Una característica importante es que es volátil, es decir, al cortar el flujo eléctrico se borra el contenido almacenado en ella

  • Memoria RAM (Random Access Memory), memoria de acceso aleatorio

MEMORIA AUXILIAR

  • Dispositivos de almacenamiento masivo de información

  • Su principal importancia radica en que permite almacenar información a lo largo del tiempo, recuperándola cuando se quiera y sin que se pierda aunque el dispositivo quede desconectado de la red eléctrica.

  • Ejemplos: Diskettes, Disco duro, Cintas magnéticas

La secuencia lógica que la unidad de control debe realizar para ejecutar una instrucción es la siguiente:

  • Localizar y extraer de la memoria principal la instrucción correspondiente

  • Transferir la instrucción de la memoria a la Unidad de control

  • Determinar qué tipo de operación se debe ejecutar

  • Ejecutar la instrucción, enviando las señales de control u órdenes a los elementos pertinentes

  • Supervisar la operación anterior para determinar si ha finalizado correctamente.

  • Localizar la siguiente instrucción a ejecutar.

edu.red

 

DEFINICIÓN DE SOFTWARE

  • Palabra compuesta de : Soft (suave) y Ware (equipo)

  • Programas de computadoras. Son las instrucciones responsables de que el hardware (la máquina) realice su tarea.

  • Constituye la parte imperceptible o intangible

  • Es la parte lógica que le da al equipo físico la capacidad de realizar cualquier tipo de trabajo.

El CPU como corazón de la organización del computador

En su forma más simple, un sistema de computadora cuenta con una unidad que ejecuta instrucciones de programas. Esta unidad se comunica con otros subsistemas dentro de la computadora, y a menudo controla su operación. Debido al papel central de tal unidad se conoce como unidad central de procesamiento, o CPU (Central processing unit). Dentro de muchas computadoras, un subsistema como una unidad de entrada, o un dispositivo de almacenamiento masivo, puede incorporar una unidad de procesamiento propia. Tal unidad de procesamiento, aunque es central para su propio subsistema, resulta claro que no es "central" para el sistema de computadora en su conjunto. Sin embargo, los principios del diseño y operación de una CPU son independientes de su posición en un sistema de computadora. Este trabajo estará dedicado a la organización del hardware que permite a una CPU realizar su función principal: traer instrucciones desde la memoria y ejecutarlas.

El algoritmo de solución de cualquier problema consiste en varios pasos que deben realizarse en una secuencia específica. Para implantar tal algoritmo en una computadora, estos pasos se descomponen en pasos más pequeños, cada uno de los cuales representa una instrucción de máquina. La secuencia de instrucciones resultante es un programa en lenguaje de máquina que representa al algoritmo en cuestión. El mismo enfoque general se utiliza para permitir a la computadora realizar funciones especificadas por instrucciones individuales de máquina. Esto es, cada una de estas instrucciones se ejecuta realizando una secuencia de operaciones más rudimentarias. Estas operaciones, y los medios por los cuales se generan, serán el tema principal de análisis en este trabajo.

PUERTOS EN SERIE

El puerto en serie de un ordenador es un adaptador asíncrono utilizado para poder intercomunicar varios ordenadores entre si. Un puerto serie recibe y envía información fuera del ordenador mediante un determinado software de comunicación o un drive del puerto serie.

El Software envía la información al puerto, carácter a carácter, convirtiendo en una señal que puede ser enviada por cable serie o un módem. Cuando se ha recibido un carácter, el puerto serie envía una señal por medio de una interrupción indicando que el carácter está listo. Cuando el ordenador ve la señal, los servicios del puerto serie leen el carácter.

Ubicación en el sistema informativo

Se ubican en la parte trasera del case, podremos identificar estos puertos por los nombres COM 1, COM 2, COM 3. La cantidad de puertos de serie dependen de la tarjeta, ya que hay algunas tarjetas que son capaces de tener 4 u 8 puertos.

PUERTO PARALELO

Este puerto de E/S envía datos en formato paralelo (donde 8 bits de datos, forman un byte, y se envían simultáneamente sobre ocho líneas individuales en un solo cable.) El puerto paralelo usa un conector tipo D-25 (es de 25 pin) El puerto paralelo se utiliza principalmente para impresoras.

La mayoría de los software usan el termino LPT (impresor en línea) más un número para designar un puerto paralelo (por ejemplo, LPT1). Un ejemplo donde se utiliza la designación del puerto es el procedimiento de instalación de software donde se incluye un paso en que se identifica el puerto al cual se conecta a una impresora.

Ubicación en el sistema informático:

Se encuentra en la parte trasera del case, se pueden identificar fácilmente ya que la mayoría de los software utilizan el termino LPT (que significa impresión en línea por sus siglas en inglés). También en algunos modelos se pueden localizar en la parte inferior al puerto del Mouse.

Recursos del puerto paralelo:

Cada adaptador de puerto paralelo tienes tres direcciones sucesivas que se corresponden con otros tantos registros que sirven para controlar el dispositivo. Son el registro de salida de datos; el registro de estado y el registro de control.

El puerto paralelo está formado por 17 líneas de señales y 8 líneas de tierra. Las líneas de señales están formadas por grupos:

4. Líneas de control.

5. Líneas de estado.

8. Líneas de datos.

En el diseño original las líneas de control son usadas para la interfase, control e intercambio de mensajes al PC (falta papel, impresora ocupada, error en la impresora).

Las líneas de datos suministran los datos de impresora del PC hacia la impresora y solamente en esa dirección. Las nuevas implementaciones del puerto permiten una comunicación bidireccional mediante estas líneas.

Tipos de puerto paralelo:

En la actualidad se conoce cuatro tipos de puerto paralelo:

  • Puerto paralelo estándar (Standard Parallel Port SPP).

  • Puerto paralelo PS/2 (bidireccional).

  • Enhanced Parallel Port (EPP).

  • Extended Capability Port (ECP).

En la siguiente tabla se muestra información sintetizada de cada uno de estos tipos de puertos.

PUERTO USB (UNIVERSAL SERIAL BUS)

El puerto USB fue creado a principio de 1996. La sigla USB significa Bus Serie Universal (Universal Serial Bus) Se llama universal, porque todos los dispositivos se conecten al puerto. Conexión que es posible, porque es capaz de hacer conectar hasta un total de 127 dispositivos.

Unas de las razones más importantes dieron origen a este puerto fueron:

  • Conexión del PC con el teléfono.

  • Fácil uso.

  • Expansión del puerto.

Unas de las principales características más importantes de este puerto es que permite la conexión entre l PC y el teléfono, además, nos elimina la incomodidad al momento de ampliar el PC.

Cabe destacar que para hacer esto, se necesita abrir el case e introducir las tarjetas de expansión o cualquier dispositivo deseado y después configurar y reiniciar el PC. Por lo tanto se puede decir que con este puerto tienes la capacidad de almacenar hasta de 127 dispositivos periféricos simultáneamente.

Ubicación en el sistema Informático:

El puerto USB está ubicado en la mayoría de los case en la parte frontal o lateral y en la parte trasera del mismo. Pero hay otros case que poseen este puerto únicamente en la parte trasera del case.

Tipos de transferencia:

El puerto USB permite cuatro tipos de transferencia, que son:

  • Transferencias de control:

Es una transferencia no esperada, no se realiza periódicamente, sino que la realiza el software para iniciar una petición/respuesta de comunicación. Normalmente se utiliza para operar operaciones de control o estado.

  • Transferencias Isocrónicas:

Es periódica, una comunicación continúa entre el controlador y el dispositivo, se usa normalmente para información.

Este tipo de transferencia envía la señal de reloj encapsulando en los datos, mediante comunicaciones NZRI.

  • Transferencias Continúa:

Son datos pequeños no muy frecuentes, que provocan la espera de otras transferencias hasta que son realizadas.

No son transferencias periódicas. Se trata de paquetes de gran tamaño, usados en aplicaciones donde se utiliza todo el ancho de banda disponible en la comunicación. Estas transferencias pueden quedar a la espera de que el ancho de banda quede disponible.

Conectores RCA:

El conector RCA es un tipo de conector eléctrico común en le mercado audiovisual. El nombre RCA deriva de La Radio Corporation Of America, que introdujo el diseño en 1940.

Ubicación en el sistema informático:

Éste está ubicado en la parte trasera del case, exactamente en la ranura donde fue colocada la tarjeta gráfica o de sonido. El conector RCA de video mayormente está presente en la tarjeta de video y el conector RCA de audio siempre está presente en la tarjeta de sonido.

Conector de video VGA:

El equipo utiliza un conector D subminiatura de alta densidad de 15 patas en el panel posterior para conectar al equipo un monitor compatible con el estándar VGA (Video Graphics Arry {Arreglo de gráficos de videos}). Los circuitos de video en la placa base sincronizan las señales que controlan los cañones de electrones rojo, verde y azul en el monitor.

Ubicación en el sistema informático:

Se encuentran en la parte de atrás del case, no tienen un lugar en especifico pero en algunos modelos se pueden ubicar arriba de los conectores RCA y por un símbolo de red; en la mayoría de los casos solo se encuentra un solo puerto en el case.

Conector PS-2:

Es un conector de clavijas de conexión múltiples, DIN, (acrónimo de Deutsche Industrie Norm) miniatura, su nombre viene del uso que se le daba en los antiguos ordenadores de IBM PS/2 (Personal System/2). Actualmente los teclados y ratones utilizan este tipo de conector y se supone que en unos años casi todo se conectará al USB, en una cadena de periféricos conectados al mismo cable.

Conector RJ-45:

El RJ45 es una interfaz física comúnmente usada para conectar redes de cableado estructurado, (categoría 4, 5, 5e y 6). RJ es un acrónico inglés de Registered que a su vez es parte del código federal de regulaciones de Estados Unidos. Posee ocho pines o conexiones eléctricas.

Ethernet Nació en 1972 ideada por Roberto Metralfe y otros investigadores de Seros, en palo alto, California Research Center Ethernet al que también se le conoce como Ethernet II o IEEE 802.3, es el estándar más popular para las que se usa actualmente.

El estándar 802.3 emplea una topología de bus. Ethernet transmite datos a través de la red a una velocidad de 10 Mbisps por segundo.

Existen cinco estándares de Ethernet: 10Base5, 10Base2, 10BASE-T, Fast Ethernet 100BaseVg y 100BaseX, que define el tipo de cable de red, las especificaciones de longitud y la topología física que debe utilizarse para conectar nudo en la red.

Conector RJ-11

Es el conector modular común del teléfono. Es universal en los teléfonos, los módems, los faxes, y artículos similares y utilizado en receptores de la TV vía satélite

Ubicación en el sistema informático:

El conector del módem RJ-11 se encuentra en la parte posterior del ordenador. La ficha RJ-11 es un enchufe modular con 4 pines.

Recomendaciones

  • Tener Cuidado a la hora de enchufar los conectores porque son muy delicados y pueden dañarse los pines.

  • Revisar que el CPU no este energizado a la hora de acoplar los conectores al puerto.

  • Antes de adquirir o comprar un puerto para tu computador solicita una previa orientación.

  • Realizar actualizaciones como instalar puertos USB en el case de su computador ya que estos trabajan a una mayor velocidad.

Buses del sistema

Funciones que realiza

El bus se puede definir como un conjunto de líneas conductoras de hardware utilizadas para la transmisión de datos entre los componentes de un sistema informático. Un bus es en esencia una ruta compartida que conecta diferentes partes del sistema, como el microprocesador, la controladora de unidad de disco, la memoria y los puertos de entrada/salida (E/S), para permitir la transmisión de información.

En el bus se encuentran dos pistas separadas, el bus de datos y el bus de direcciones. La CPU escribe la dirección de la posición deseada de la memoria en el bus de direcciones accediendo a la memoria, teniendo cada una de las líneas carácter binario. Es decir solo pueden representar 0 o 1 y de esta manera forman conjuntamente el número de la posición dentro de la memoria (es decir: la dirección). Cuanto mas líneas haya disponibles, mayor es la dirección máxima y mayor es la memoria a la cual puede dirigirse de esta forma. En el bus de direcciones original habían ya 20 direcciones, ya que con 20 bits se puede dirigir a una memoria de 1 MB y esto era exactamente lo que correspondía a la CPU.

Esto que en le teoría parece tan fácil es bastante mas complicado en la práctica, ya que aparte de los bus de datos y de direcciones existen también casi dos docenas más de líneas de señal en la comunicación entre la CPU y la memoria, a las cuales también se acude. Todas las tarjetas del bus escuchan, y se tendrá que encontrar en primer lugar una tarjeta que mediante el envío de una señal adecuada indique a la CPU que es responsable de la dirección que se ha introducido. Las demás tarjetas se despreocupan del resto de la comunicación y quedan a la espera del próximo ciclo de transporte de datos que quizás les incumba a ellas.

Entrada Y Salida

Funciones que realiza

Vamos a señalar las funciones que debe realizar un computador para ejecutar trabajos de entrada/salida:

Direccionamiento o selección del dispositivo que debe llevar a cabo la operación de E/S. Transferencia de los datos entre el procesador y el dispositivo (en uno u otro sentido).Sincronización y coordinación de las operaciones.

Esta última función es necesaria debido a la deferencia de velocidades entre los dispositivos y la CPU y a la independencia que debe existir entre los periféricos y la CPU (por ejemplo, suelen tener relojes diferentes).

Se define una transferencia elemental de información como la transmisión de una sola unidad de información (normalmente un byte) entre el procesador y el periférico o viceversa. Para efectuar una transferencia elemental de información son precisas las siguientes funciones:

Establecimiento de una comunicación física entre el procesador y el periférico para la transmisión de la unidad de información.

Control de los periféricos, en que se incluyen operaciones como prueba y modificación del estado del periférico.

Para realizar estas funciones la CPU gestionará las líneas de control necesarias.

Definiremos una operación de E/S como el conjunto de acciones necesarias para la transferencia de un conjunto de datos (es decir, una transferencia completa de datos). Para la realización de una operación de E/S se deben efectuar las siguientes funciones:

Recuento de las unidades de información transferidas (normalmente bytes) para reconocer el fin de operación.

Sincronización de velocidad entre la CPU y el periférico.

Detección de errores (e incluso corrección) mediante la utilización de los códigos necesarios (bits de paridad, códigos de redundancia cíclica, etc.)

Almacenamiento temporal de la información. Es más eficiente utilizar un buffer temporal específico para las operaciones de E/S que utilizan el área de datos del programa.Conversión de códigos, conversión serie/paralelo, etc.

Dispositivos externos

Una de las funciones básicas del computador es comunicarse con los dispositivos exteriores, es decir, el computador debe ser capaz de enviar y recibir datos desde estos dispositivos. Sin esta función, el ordenador no sería operativo porque sus cálculos no serían visibles desde el exterior.

Existe una gran variedad de dispositivos que pueden comunicarse con un computador, desde los dispositivos clásicos (terminales, impresoras, discos, cintas, cte.) hasta convertidores A/D y D/A para aplicaciones de medida y control de procesos, De todos los posibles periféricos, algunos son de lectura, otros de escritura y otros de lectura y escritura (es importante resaltar que este hecho siempre se mira desde el punto de vista del proceso). Por otra parte, existen periféricos de almacenamiento también llamados memorias auxiliares o masivas.

La mayoría de los periféricos están compuestos por una parte mecánica y otra parte electrónica. Estas partes suelen separarse claramente para dar una mayor modularidad. A la componente electrónica del periférico se le suele denominar controlador del dispositivo o, también, adaptador del dispositivo. Si el dispositivo no tiene parte mecánica (como, por ejemplo, la pantalla de un terminal), el controlador estará formado por la parte digital del circuito. Frecuentemente los controladores de los dispositivos están alojados en una placa de circuito impreso diferenciada del resto del periférico. En este caso es bastante habitual que un mismo controlador pueda dar servicio a dispositivos de características similares.

El principal problema planteado por los periféricos es su gran variedad que también afecta a las velocidades de transmisión. Por tanto, el mayor inconveniente que encontramos en los periféricos es la diferencia entre sus velocidades de transmisión y la diferencia entre éstas y la velocidad de operación del computador. 

Uso de interrupciones

Un computador debe disponer de los elementos suficientes para que el programador tenga un control total sobre todo lo que ocurre durante la ejecución de su programa. La llegada de una interrupción provoca que la CPU suspenda la ejecución de un programa e inicie la de otro (rutina de servicio de interrupción). Como las interrupciones pueden producirse en cualquier momento, es muy probable que se altere la secuencia de sucesos que el programador había previsto inicialmente. Es por ello que las interrupciones deber

Lenguaje binario y sistema de medidas

Lenguaje binario: Para comenzar es muy importante saber, que es un BIT; un Bit, en informática, acrónimo de Binary Digit (dígito binario), que adquiere el valor 1 ó 0 en el sistema numérico binario. En el procesamiento y almacenamiento informático un BIT es la unidad de información más pequeña manipulada por el ordenador, y está representada físicamente por un elemento como un único pulso enviado a través de un circuito, o bien como un pequeño punto en un disco magnético capaz de almacenar un 0 ó un 1. La representación de información se logra mediante la agrupación de bits para lograr un conjunto de valores mayor que permite manejar mayor información. Por ejemplo, la agrupación de ocho bits componen un byte que se utiliza para representar todo tipo de información, incluyendo las letras del alfabeto y los dígitos del 0 al 9. Cuando se trabaja con señales digitales, estos traen asociadas el sistema de numeración binaria y el sistema de numeración hexadecimal. Ambos aparecen en los manuales de configuración de los dispositivos del PC. En dichos manuales el numero binario 1 puede representar el valor de encendido "On", cerrado ó 5 voltios. Un 0 lógico puede representar un apagado "Off", abierto, ó 0 voltios.

En el sistema de numeración tradicional, el decimal, la base de las potencias es el número 10 y los multiplicandos son el 0,1,2,3,4,5,6,7,8 y el 9 y cualquier valor superior se representa en base a estos, ejemplo:237  = 2*10^2 + 3*10^1 + 7*10^0 y     En el caso de los números binarios la base de las potencias es el 2 y los multiplicando son el 0 y el 1. En este caso, el numero 237 decimal sería:

237decimal  =   1*2^7 + 1*2^6 + 1*2^5 + 0*2^4 + 1*2^3 +1*2^2 + 0*2^1+ 1*2^0 

                      =    11101101 binario

    En el sistema hexadecimal la base de las potencias es el número 16 y los multiplicandos posibles son: 0,1,2,3,4,5,6,7,8,9,A, B, C ,D, E, F.

237 decimal =  E*16^1 + D*16^0

Tabla de conversión binaria

Continuación: Este sistema de numeración se emplea en el PC para indicar direcciones y valores diversos en la configuración del mismo.

        Es sencillo pasar del sistema binario al hexadecimal y viceversa haciendo uso de la tabla que se presenta a continuación, aquí a la derecha

El sistema de numeración octal es en base a las potencia de 8 y con números multiplicandos que son el 0,1,2,3,4,5,6,7.Estos eran empleados en el pasado por ciertos computadores centrales llamados ( mainframe).

Decimal

Binario

Hexadecimal

0

0000

0

1

0001

1

2

0010

2

3

0011

3

4

0100

4

5

0101

5

6

0110

6

7

0111

7

8

1000

8

9

1001

9

10

1010

A

11

1011

B

12

1100

C

13

1101

D

14

1110

E

15

1111

F

Conversión de datos en el sistema binario

Convertir de Decimal 5010 a Binario 502

Esto se realiza de la siguiente manera, ejemplo: primero se divide el nº 50 entre 2 hasta que el cociente llegue a la reducción final luego se ordenan, de derecha a izquierda, comenzando desde el ultimo cociente y aunándolo con el resto ó residuo de la división.

edu.red

Fíjese en la imagen animada, para usted es un divertido payasito…Sin embargo para el computador no es mas que una secuencia de códigos binarios que se repiten una y otra vez., ó señales eléctricas de corriente directa (DC).

Pues, Así es como el computador interpreta las ordenes del usuario, atraviesa una veloz y sorprendente conversión de datos, analizada e interpretada por el procesador (CPU), ya bien sea imágenes animadas, imágenes en 3D, sonidos, colores ó textos.

Conversión de datos en el sistema binario

Convertir de Binario 1100102 a Decimal 5010

Esta conversión se realiza de la siguiente manera, primero se toma el código 110010 binario, se cuenta cuantos dígitos tiene, en este caso tiene 6 dígitos, luego se multiplica por la potencia con base 2 precedido del símbolo + para ser sumados por la otra potencia.

¿Cómo se ordenaran los exponentes?

Después usted contará los exponentes de derecha a izquierda pero contando desde el nº cero (0) hasta el nº xxx es decir, hasta donde termine el conteo, y en este caso termina en el nº 5 como exponentes agregado.

Ejemplo:

D emostración: 1 1 0 0 1 0 Elevar a la potencia de 2n.

(1x 25 ) + (1x 24 ) + (0x 23 ) + (0x 22 ) + (1x 21 ) + (0x 20 ) esto es igual a = 50

Conversión de datos en el sistema binario

Convertir de Binario 1100102 a Hexadecimal ¿ ?16

de Binario 11110111101001012 a Hexadecimal ¿?16

Este procedimiento se realiza agrupando de cuatro en cuatro de derecha a izquierda y recontando los exponentes así : 23222120 _ 23222120 etc.. Luego se busca la letra ó el nº en la tabla a la cual pertenece.

Ejemplo:

edu.red

sistema de medidas

El bit: Unidad de información mas pequeña manipulada por el ordenador su valor es el (0 y 1).

El byte: Es la unidad de información que consta de 8 bits, representa a una letra y el almacenamiento.

El kilobyte: Equivale a 1.024 bytes, y de posibles almacenaje.

El Megabyte: Equivale a 1.048.576 bytes, es decir 1024 kilobytes.

El Gigabyte: Equivale a 1.073.741.824 bytes, es decir 1.024 megabytes.

Bit, unidad binaria de información. Es la cantidad más pequeña de almacenamiento de un ordenador y también la cantidad más pequeña que se puede procesar. (el bit sólo puede tomar dos valores: el 0 y el 1). dígito en sistema binario (0 o 1) con el que se forma toda la información. Evidentemente esta unidad es demasiado pequeña para poder contener una información diferente a una dualidad (abierto/cerrado, si/no), por lo que se emplea un conjunto de bits (en español el plural de bit NO es bites, sino bits). 8 bits equivalen a 1 byte.

Byte, Formado normalmente por un octeto (8 bits), aunque pueden ser entre 6 y 9 bits. La progresión de esta medida es del tipo B=Ax2, siendo esta del tipo 8, 16, 32, 64, 128, 256, 512. Se pueden usar capacidades intermedias, pero siempre basadas en esta progresión y siendo mezcla de ellas (24 bytes=16+8). Se describe como la unidad básica de almacenamiento de información, generalmente equivalente a ocho bits (01011101), pero el tamaño del byte depende del código de caracteres o código de información en el que se defina.

Kilobyte, Aunque se utilizan las acepciones utilizadas en el SI, un Kilobyte no son 1.000 bytes. Debido a lo anteriormente expuesto, un KB (Kilobyte) son 1.024 bytes. Debido al mal uso de este prefijo (Kilo, proveniente del griego, que significa mil), se está utilizando cada vez más el término definido por el IEC (Comisión Internacional de Electrónica) Kibi o KiB para designar esta unidad. Un kilobyte (pronunciado /kilobáit/) es una unidad de medida común para la capacidad de memoria o almacenamiento de las computadoras. Es equivalente a 1024 (o 210) bytes. Generalmente se abrevia como KB, K, kB, Kbyte o k-byte. Las PC de IBM más antiguas, por ejemplo, tenían una capacidad máxima de 640 K, o alrededor de 640 000 caracteres de datos.

Megabytes, El MB es la unidad de capacidad más utilizada en Informática. Un MB NO son 1.000 KB, sino 1.024 KB, por lo que un MB son 1.048.576 bytes. Al igual que ocurre con el KB, dado el mal uso del término, cada vez se está empleando más el término MiB. El Megabyte (MB) es una unidad de medida de cantidad de datos informáticos. Es un múltiplo binario del byte, que equivale a 220 (1 048 576) bytes, traducido a efectos prácticos como 106 (1 000 000) bytes.

Gigabyte, Un GB son 1.024 MB (o MiB), por lo tanto 1.048.576 KB. Cada vez se emplea más el término Gibibyte o GiB. Un gigabyte (de símbolo GB ó GiB) es una unidad de medida informática equivalente a mil millones de bytes (no confundir con el billón americano). Dado que los ordenadores trabajan en base binaria, en lugar de que un gigabyte sea 10³ megabytes (1000 MiB), el término gigabyte significa 210 megabytes (1024 MiB). Pero si somos exactos, 1 GB son 1.073.741.824 bytes ó 1.024 MB. En este último caso, puede ser abreviado como GiB (recomendado) ó GB

Terabyte, Aunque es aun una medida poco utilizada, pronto nos tendremos que acostumbrar a ella, ya que por poner un ejemplo la capacidad de los discos duros ya se está aproximando a esta medida. Un Terabyte son 1.024 GB. Aunque poco utilizada aun, al igual que en los casos anteriores se está empezando a utilizar la acepción Tebibyte. Una unidad de almacenamiento tan desorbitada que resulta imposible imaginársela, ya que coincide con algo más de un trillón de bytes. Un uno seguido de dieciocho ceros. Su símbolo es el TB y es equivalente a 240 bytes

edu.red

Nota: Usted debe enterarse que, la velocidad de un computador se mide, por la frecuencia del procesador (CPU), y este se conoce como: Hertz (Hz). Antes se usaba el Mega Hertz (MHz), ahora hoy en día, en la CPU se emplea o se mide por Giga Hertz (GHz), es decir, más velocidad.

CONVERSIÓN NUMÉRICA DE DECIMAL-BINARIO

Para cambiar un número decimal a número binario, se divide el número entre dos. Se escribe el cociente y el residuo. Si el cociente es mayor de uno, se divide el cociente entre dos. Se vuelve a escribir el cociente y el residuo. Este proceso se sigue realizando hasta que el cociente sea cero. Cuando el cociente es cero, se escribe el cociente y el residuo. Para obtener el número binario, se escribe cada uno de los residuos comenzando desde el último hasta el primero de izquierda a derecha, o sea, el primer residuo se escribe a la izquierda, el segundo residuo se escribe a la derecha del primer residuo, y así sucesivamente.

CONVERSIÓN DE SISTEMA NUMÉRICO BINARIO-DECIMAL.

El sistema de numeración binario es un sistema de posición donde cada dígito binario (bit) tiene un valor basado en su posición relativa al LSB. Cualquier número binario puede convenirse a su equivalente decimal, simplemente sumando en el número binario las diversas posiciones que contenga un 1.

Ejemplo: Cómo cambiar el número binario 11012 al sistema decimal.

11012 = 1 x 23 + 1 x 22 + 0 x 21 + 1 x 20

=1 x 8 + 1 x 4 + 0 x 2 + 1 x 1

= 8 + 4 + 0 + 1

= 13

Resultado 11012 = 1310

Unidades de medida

Herzt.

Unidad de frecuencia que equivale a un ciclo o repetición de un evento por segundo. Esto en palabras simples, significa que un procesador que trabaje a una velocidad de 500 megahercios es capaz de repetir 500 millones de ciclos por segundo. En la actualidad, dada la gran velocidad de los procesadores, la unidad más frecuente es el gigahercio, que corresponde a 1.000 millones de hercios por segundo. El hercio es la unidad de frecuencia del Sistema Internacional de Unidades. Proviene del apellido del físico alemán Heinrich Rudolf Hertz, descubridor de la transmisión de las ondas electromagnéticas. Su símbolo es hz. (que se escribe sin punto). En inglés se llama hertz (y se pronuncia /jérts/). Un hercio representa un ciclo por cada segundo, entendiendo ciclo como la repetición de un evento.

Megaherzt.

Múltiplo del hertzio igual a 1 millón de hertzios. Utilizado para medir la "velocidMegahertzios, es una medida de frecuencia (número de veces que ocurre algo en un segundo). En el caso de los ordenadores, un equipo a 200 MHz será capaz de dar 200 millones de pasos por segundo. En la velocidad real de trabajo no sólo influyen los MHz, sino también la arquitectura del procesador (y el resto de los componentes); por ejemplo, dentro de la serie X86, un Pentium a 60 MHz era cerca del doble de rápido que un 486 a 66 MHzad bruta" de los microprocesadores.

Ejemplo:

Si usted mira el dial de un receptor de radio, encontrará que lleva una indicación de frecuencias o longitudes de onda. La mayoría de los receptores tienen varias bandas de ondas y éstas pueden ser seleccionadas por medio de un botón llamado comúnmente el "selector de bandas de ondas", que le ofrece a usted una elección, por ejemplo, entre la banda de onda media (emisoras standard), la de la onda corta, o bandas de onda corta y la banda FM.

Nanosegundos, es la milmillonésima parte de un segundo, 10-9. Este tiempo tan corto no se usa en la vida diaria, pero es de interés en ciertas áreas de la física, la química, la electrónica y en la informática. Así, un nanosegundo es la duración de un ciclo de reloj de un procesador de 1 GHz, y es también el tiempo que tarda la luz en recorrer aproximadamente 30 cm.

Milisegundos, es el período de tiempo que corresponde a la milésima fracción de un segundo (0,001s).Su simbología, al igual que otras milesimas partes de distintas magnitudes como pudieran ser la masa o la longitud, viene especificada mediante una "m" minúscula antepuesta a la magnitud fundamental, que en el caso del segundo es una letra "s", resultando:

1 ms = 0.001 segundo = 1 milisegundo

Microsegundos, Es una Unidad de tiempo, equivalente a una milésima parte de un segundo. (ms).

Ejemplo:

Numerosas personas, no obstante, se han dado cuenta de que en 49.7 días hay 4294080000 milisegundos. Esa cifra es muy semejante a 2^32 = 4294967296. En otras palabras, un registro de 32 bits podría contar 4294967296 milisegundos o, lo que es lo mismo, 49'7103 días (exactamente, 49 días, 17 horas, 2 minutos y 47'296 segundos).

Software libre

Definición legal

Programa de computación cuya licencia garantiza al usuario acceso al código fuente del programa y lo autoriza a ejecutarlo con cualquier propósito, modificarlo y redistribuir tanto el programa original como sus modificaciones en las mismas condiciones de licenciamiento acordadas al programa original, sin tener que pagar regalías a los desarrolladores previos (Decreto 3390, artículo 2).

Se denomina software libre, (en inglés free software), al software que brinda libertad a los usuarios sobre su producto adquirido y por tanto, una vez obtenido, puede ser usado, copiado, estudiado. Siguiendo el mismo orden de ideas, software libre se refiere a la libertad de los usuarios para ejecutar, copiar, distribuir, estudiar, cambiar y mejorar el software modificado y redistribuido libremente. Cabe destacar que se refiere a cuatro libertades de los usuarios del software: la libertad de usar el programa, con cualquier propósito; de estudiar el funcionamiento del programa, y adaptarlo a las necesidades; de distribuir copias, con lo que puede ayudar a otros; de mejorar el programa y hacer públicas las mejoras, de modo que toda la comunidad se beneficie (para la segunda y última libertad mencionadas, el acceso al código fuente es un requisito previo).

El software libre suele estar disponible gratuitamente, o a precio del coste de la distribución a través de otros medios; sin embargo no es obligatorio que sea así, por ende no hay que asociar software libre a "software gratuito" (denominado usualmente freeware). El freeware suele incluir una licencia de uso, que permite su redistribución pero con algunas restricciones, como no modificar la aplicación en sí, ni venderla, y dar cuenta de su autor. También puede desautorizar el uso en una compañía con fines comerciales o en una entidad gubernamental

¿Qué son los Programas Informáticos Libres?

Los Programas Informáticos Libres son aquellos que cumplen con las siguientes cuatro libertades básicas:

Libertad Cero: "usar el programa con cualquier propósito". Es decir, el ejercicio de esta libertad implica que lo podemos utilizar con cualquier fin, ya sea educativo, cultural, comercial, político, social, etc. Esta libertad deriva de que hay ciertas licencias que restringen el uso del software a un determinado propósito, o que prohíben su uso para determinadas actividades.

Libertad Uno: "Estudiar como funciona el programa, y adaptarlo a sus necesidades". Significa que podemos estudiar su funcionamiento (al tener acceso al código fuente) lo que nos va a permitir, entre otras cosas: descubrir funciones ocultas, averiguar como realiza determinada tarea, descubrir que otras posibilidades tiene, que es lo que le falta para hacer algo, etc. El adaptar el programa a mis necesidades implica que puedo suprimirle partes que no me interesan, agregarle partes que considero importantes, copiarle una parte que realiza una tarea y adicionarla a otro programa, etc.

Libertad Dos: "Distribuir copias". Quiere decir que somos libres de redistribuir el programa, ya sea gratis o con algún costo, ya sea por email, FTP o en CD, ya sea a una persona o a varias, ya sea a un vecino o a una persona que vive en otro país, etc.

Libertad Tres: "Mejorar el programa, y liberar las mejoras al publico". Es la libertad de hacer mejor el programa, es decir que podemos hacer menores los requerimientos de hardware para funcionar, que tenga mayores prestaciones, que ocupe menos espacio, que tenga menos errores, entre otras modificaciones. El poder liberar las mejoras al publico quiere decir que si realizamos una mejora que permita un requerimiento menor de hardware, o que haga que ocupe menos espacio, soy libre de poder redistribuir ese programa mejorado, o simplemente proponer la mejora en un lugar publico (un foro de noticias, una lista de correo, un sitio Web, un FTP, un canal de Chat).

Sistemas operativos

"El Sistema Operativo es un conjunto de programas (software) que trata de optimizar todo el poder de una computadora y sus periféricos (hardware) y de facilitar al usuario el aprovechamiento de su equipo"

Redondo y Algara CCV 1999.

"Es el que toma el control cuando encendemos la computadora y realiza las primeras acciones….junto con la interfaz gráfica está al centro de la acción del software" Long y Long 1.997

Objetivos…..

  • Facilita la comunicación entre el sistema y la gente que lo maneja

  • Facilita la comunicación entre los componentes del sistema

  • Minimiza el tiempo para ejecutar un comando

  • Optimiza el uso de los recursos del sistema

  • Lleva el control de los archivos almacenados en disco.

  • Proporciona una cubierta de seguridad al sistema de computación.

  • Monitorea todas las capacidades del sistema y alerta al usuario sobre posibles fallas.

Funciones de los S. O.

  • Asignación de tiempo de CPU:

  • Planificar las diversas actividades.

  • Control de recursos:

  • Asignar recursos de forma racional. P. E. División de la memoria del ordenador entre los programas, controlar colas de e/s.

  • Control de entrada/salida:

  • Gestionar los datos desde y hacia los periféricos.

  • Control de los errores y protección:

  • Informar de las situaciones anómalas

  • Interfaz con el usuario:

  • Facilita el uso.

  • Facilidades contables:

  • Cálculo de costes de uso de CPU.

edu.red

TIPOS DE SISTEMAS OPERATIVOS

Un sistema Operativo (SO) es en sí mismo un programa de computadora. Sin embargo, es un programa muy especial, quizá el más complejo e importante en una computadora. El SO despierta a la computadora y hace que reconozca a la CPU, la memoria, el tecla do, el sistema de vídeo y las unidades de disco.

Además, proporciona la facilidad para que los usuarios se comuniquen con la computadora y sirve de plataforma a partir de la cual se corran programas de aplicación.

Sistemas Operativos por Servicios(Visión Externa).

Esta clasificación es la más comúnmente usada y conocida desde el punto de vista del usuario final. Esta clasificación se comprende fácilmente con el cuadro sinóptico que a continuación se muestra:

Por Número de Usuarios:

Sistema Operativo Monousuario.

Los sistemas operativos monousuarios son aquéllos que soportan a un usuario a la vez, sin importar el número de procesadores que tenga la computadora o el número de procesos o tareas que el usuario pueda ejecutar en un mismo instante de tiempo. Las computadoras personales típicamente se han clasificado en este renglón.

Sistema Operativo Multiusuario.

Los sistemas operativos multiusuarios son capaces de dar servicio a más de un usuario a la vez, ya sea por medio de varias terminales conectadas a la computadora o por medio de sesiones remotas en una red de comunicaciones. No importa el número de procesadores en la máquina ni el número de procesos que cada usuario puede ejecutar simultáneamente.

En esta categoría se encuentran todos los sistemas que cumplen simultáneamente las necesidades de dos o más usuarios, que comparten mismos recursos. Este tipo de sistemas se emplean especialmente en redes. En otras palabras consiste en el fraccionamiento del tiempo (timesharing).

Sistema Operativo Multitarea.

Un sistema operativo multitarea es aquél que le permite al usuario estar realizando varias labores al mismo tiempo.

Es el modo de funcionamiento disponible en algunos sistemas operativos, mediante el cual una computadora procesa varias tareas al mismo tiempo. Existen varios tipos de multitareas. La conmutación de contextos (context Switching) es un tipo muy simple de multitarea en el que dos o más aplicaciones se cargan al mismo tiempo, pero en el que solo se esta procesando la aplicación que se encuentra en primer plano (la que ve el usuario. En la multitarea cooperativa, la que se utiliza en el sistema operativo Macintosh, las tareas en segundo plano reciben tiempo de procesado durante los tiempos muertos de la tarea que se encuentra en primer plano (por ejemplo, cuando esta aplicación esta esperando información del usuario), y siempre que esta aplicación lo permita. En los sistemas multitarea de tiempo compartido, como OS/2, cada tarea recibe la atención del microprocesador durante una fracción de segundo.

Sistema Operativo de Uniproceso.

Un sistema operativo uniproceso es aquél que es capaz de manejar solamente un procesador de la computadora, de manera que si la computadora tuviese más de uno le sería inútil. El ejemplo más típico de este tipo de sistemas es el DOS y MacOS.

Sistema Operativo de Multiproceso.

Un sistema operativo multiproceso se refiere al número de procesadores del sistema, que es más de uno y éste es capaz de usarlos todos para distribuir su carga de trabajo. Generalmente estos sistemas trabajan de dos formas: simétrica o asimétricamente.

Asimétrica.

Cuando se trabaja de manera asimétrica, el sistema operativo selecciona a uno de los procesadores el cual jugará el papel de procesador maestro y servirá como pivote para distribuir la carga a los demás procesadores, que reciben el nombre de esclavos.

Simétrica.

Cuando se trabaja de manera simétrica, los procesos o partes de ellos (threads) son enviados indistintamente a cual quiera de los procesadores disponibles, teniendo, teóricamente, una mejor distribución y equilibrio en la carga de trabajo bajo este esquema.

Sistemas Operativos por su Estructura (Visión Interna).

Según, se deben observar dos tipos de requisitos cuando se construye un sistema operativo, los cuales son:

Requisitos de usuario: Sistema fácil de usar y de aprender, seguro, rápido y adecuado al uso al que se le quiere destinar.

Requisitos del software: Donde se engloban aspectos como el mantenimiento, forma de operación, restricciones de uso, eficiencia, tolerancia frente a los errores y flexibilidad.

A continuación se describen las distintas estructuras que presentan los actuales sistemas operativos para satisfacer las necesidades que de ellos se quieren obtener.

Estructura Monolítica.

Es la estructura de los primeros sistemas operativos constituidos fundamentalmente por un solo programa compuesto de un conjunto de rutinas entrelazadas de tal forma que cada una puede llamar a cualquier otra. Las características fundamentales de este tipo de estructura son:

  • Construcción del programa final a base de módulos compilados separadamente que se unen a través del ligador.

  • Buena definición de parámetros de enlace entre las distintas rutinas existentes, que puede provocar mucho acoplamiento.

  • Carecen de protecciones y privilegios al entrar a rutinas que manejan diferentes aspectos de los recursos de la computadora, como memoria, disco, etc.

Generalmente están hechos a medida, por lo que son eficientes y rápidos en su ejecución y gestión, pero por lo mismo carecen de flexibilidad para soportar diferentes ambientes de trabajo o tipos de aplicaciones.

Estructura Jerárquica.

A medida que fueron creciendo las necesidades de los usuarios y se perfeccionaron los sistemas, se hizo necesaria una mayor organización del software, del sistema operativo, donde una parte del sistema contenía subpartes y esto organizado en forma de niveles.

Se dividió el sistema operativo en pequeñas partes, de tal forma que cada una de ellas estuviera perfectamente definida y con un claro interface con el resto de elementos.

Se constituyó una estructura jerárquica o de niveles en los sistemas operativos, el primero de los cuales fue denominado THE (Technische Hogeschool, Eindhoven), de Dijkstra, que se utilizó con fines didácticos. Se puede pensar también en estos sistemas como si fueran `multicapa'. Multics y Unix caen en esa categoría.

Máquina Virtual.

Se trata de un tipo de sistemas operativos que presentan una interface a cada proceso, mostrando una máquina que parece idéntica a la máquina real subyacente. Estos sistemas operativos separan dos conceptos que suelen estar unidos en el resto de sistemas: la multiprogramación y la máquina extendida. El objetivo de los sistemas operativos de máquina virtual es el de integrar distintos sistemas operativos dando la sensación de ser varias máquinas diferentes.

Cliente-Servidor(Microkernel).

El tipo más reciente de sistemas operativos es el denominado Cliente-servidor, que puede ser ejecutado en la mayoría de las computadoras, ya sean grandes o pequeñas.

Este sistema sirve para toda clase de aplicaciones por tanto, es de propósito general y cumple con las mismas actividades que los sistemas operativos convencionales.

Sistemas Operativos por la Forma de Ofrecer sus Servicios

Esta clasificación también se refiere a una visión externa, que en este caso se refiere a la del usuario, el cómo accesa a los servicios. Bajo esta clasificación se pueden detectar dos tipos principales: sistemas operativos de red y sistemas operativos distribuidos.

Sistema Operativo de Red.

Los sistemas operativos de red se definen como aquellos que tiene la capacidad de interactuar con sistemas operativos en otras computadoras por medio de un medio de transmisión con el objeto de intercambiar información, transferir archivos, ejecutar comandos remotos y un sin fin de otras actividades. El punto crucial de estos sistemas es que el usuario debe saber la sintaxis de un conjunto de comandos o llamadas al sistema para ejecutar estas operaciones, además de la ubicación de los recursos que desee accesar. Por ejemplo, si un usuario en la computadora hidalgo necesita el archivo matriz.pas que se localiza en el directorio /software/codigo en la computadora morelos bajo el sistema operativo UNIX, dicho usuario podría copiarlo a través de la red con los comandos siguientes: hidalgo% hidalgo% rcp morelos:/software/codigo/matriz.pas . hidalgo%. En este caso, el comando rcp que significa "remote copy" trae el archivo indicado de la computadora morelos y lo coloca en el directorio donde se ejecutó el mencionado comando. Lo importante es hacer ver que el usuario puede accesar y compartir muchos recursos.

Sistemas Operativos Distribuidos.

Los sistemas operativos distribuidos abarcan los servicios de los de red, logrando integrar recursos ( impresoras, unidades de respaldo, memoria, procesos, unidades centrales de proceso ) en una sola máquina virtual que el usuario accesa en forma transparente. Es decir, ahora el usuario ya no necesita saber la ubicación de los recursos, sino que los conoce por nombre y simplemente los usa como si todos ellos fuesen locales a su lugar de trabajo habitual. Todo lo anterior es el marco teórico de lo que se desearía tener como sistema operativo distribuido, pero en la realidad no se ha conseguido crear uno del todo, por la complejidad que suponen: distribuir los procesos en las varias unidades de procesamiento, reintegrar sub-resultados, resolver problemas de concurrencia y paralelismo, recuperarse de fallas de algunos recursos distribuidos y consolidar la protección y seguridad entre los diferentes componentes del sistema y los usuarios. Los avances tecnológicos en las redes de área local y la creación de microprocesadores de 32 y 64 bits lograron que computadoras mas o menos baratas tuvieran el suficiente poder en forma autónoma para desafiar en cierto grado a los mainframes, y a la vez se dio la posibilidad de intercomunicarlas, sugiriendo la oportunidad de partir procesos muy pesados en cálculo en unidades más pequeñas y distribuirlas en los varios microprocesadores para luego reunir los sub-resultados, creando así una máquina virtual en la red que exceda en poder a un mainframe. El sistema integrador de los microprocesadores que hacer ver a las varias memorias, procesadores, y todos los demás recursos como una sola entidad en forma transparente se le llama sistema operativo distribuído.

edu.red

VENTAJAS Y DESVENTAJAS DE MAC ,LINUX Y WINDOWS

Cada Sistema operativo tiene sus pro y contras quen no debemos dejar pasar por alto, debido aquello les dejo algunas ventajas y desventajas de windows de mac y de linux

LinuxVentajas:

  • El mejor costo del mercado, gratuito o un precio simbolico por el cd.

  • Tienes una enorme cantidad de software libre para este sistema

  • Mayor estabilidad por algo lo usan en servidores de alto rendimiento

  • Entorno grafico (beryl) mejor que el aero de windows.

  • Existen distribuciones de linux para diversos tipos de equipo, hasta para maquinas de 64 bits.

  • Las vulneralidades son detectadas y corregidas más rapidamente que cualquier otro sistema operativo.

Desventajas:

  • Para algunas cosas debes de saber usar unix

  • La mayoria de los ISP no dan soporte para algo que no sea windows (ignorantes).

  • No Existe mucho software comercial.

  • Muchos juegos no corren en linux.

Windows

Ventajas:

  • Es más conocido

  • Es el que tiene más software desarrollado.

Desventajas:

  • El costo es muy alto

  • Las nuevas versiones requieren muchos recursos

  • La mayoria de los virus estan echos para win

  • Puedes tener errores de compatibilidad en sistemas nuevos.

  • Historicamente es más inestable de los 3

Mac

Ventajas:

  • mejor interfaz grafica del mercado

  • Ideal para diseño grafico.

  • Es muy estable

Desventajas:

  • Costoso (aunque viene incluido con la maquina)

  • Existe poco software para este sistema operativo.

Es más complicado encontrar gente que la pueda arreglar en caso de fallas.

Historia

Años 40, A finales de los años 40, con la primera generación de computadoras, se accedía directamente a la consola de la computadora desde la cual se actuaba sobre una serie de micro interruptores que permitían introducir directamente el programa en la memoria de la computadora.

Por aquel entonces no existían los sistemas operativos, y los programadores debían interactuar con el hardware del computador sin ayuda externa. Esto hacía que el tiempo de preparación para realizar una tarea fuera considerable. Además para poder utilizar la computadora debía hacerse por turnos.

Años 50, A principios de los años 50 con el objeto de facilitar la interacción entre persona y computador, los sistemas operativos hacen una aparición discreta y bastante simple, con conceptos tales como el monitor residente, el proceso por lotes y el almacenamiento temporal.

Años 60, En los años 60 se produjeron cambios notorios en varios campos de la informática, con la aparición del circuito cerrado la mayoría orientados a seguir incrementando el potencial de los computadores. Para ello se utilizaban técnicas de lo más diversas:

  • Multiprogramación

  • Tiempo compartido

  • Tiempo real

  • Multiprocesador

Años 70, Debido al avance de la electrónica, pudieron empezar a crearse circuitos con miles de transistores en un centímetro cuadrado de silicio, lo que llevaría, pocos años después, a producirse los primeros sistemas integrados.

Se creó específicamente para re-escribir por completo el código del sistema operativo Unix, convirtiéndolo en uno de los pocos SO escritos en un lenguaje de alto nivel.

SISTEMAS OPERATIVOS DESARROLLADOS:

  • MULTICS (Multiplexed Information and Computing Service): proyecto cooperativo liderado por Fernando Corbato del MIT, con General Electric y los laboratorios Bell, los laboratorios Bell lo abandonaron en 1969 para comenzar a crear el sistema UNIX.

  • MVS (Multiple Virtual Storage): Fue el sistema operativo más usado en los modelos de mainframes , desarrollado también por IBM y lanzado al mercado por primera vez en 1974. Permitía ejecución de múltiples tareas, introdujo el concepto de memoria virtual.

  • CP/M (Control Program/Monitor): Desarrollado por Gary Kildall para el microprocesador 8080/85 de Intel y el Zilog Z80, salió al mercado en 1976, distribuyéndose en disquetes de ocho pulgadas. Fue el SO más usado en las computadoras personales de esta década. Su éxito se debió a que era portátil.

Años 80, Un avance importante que se estableció a mediados de 1980 fue el desarrollo de redes de PC que corrían sistemas operativos en red y sistemas operativos distribuidos. En esta escena, dos sistemas operativos eran los mayoritarios: MS-DOS, escrito por Microsoft para IBM PC y otras computadoras que utilizaban la CPU Intel 8088 y sus sucesores, y UNIX, que dominaba en los ordenadores personales que hacían uso del Motorola 68000.

MS-DOS, En 1981 Microsoft compró un sistema operativo llamado QDOS que, tras realizar unas pocas modificaciones, se convirtió en la primera versión de MS-DOS (Microsoft Disk Operating System).

Apple Macintosh, El lanzamiento oficial se produjo en enero de 1984, al precio de 2495 dólares. Muchos usuarios, al ver que estaba completamente diseñado para funcionar a través de una GUI (Graphic User Interface), acostumbrados a la línea de comandos, lo tacharon de juguete. A pesar de todo, el Mac se situó a la cabeza en el mundo de la edición a nivel gráfico

Años 90, GNU/Linux.- En 1991 aparece la primera versión del núcleo de Linux. Creado por Linus Torvalds y un sinfín de colaboradores a través de Internet. Este sistema se basa en Unix, un sistema que en principio trabajaba en modo comandos, estilo MS-DOS.

Hoy en día dispone de Ventanas, gracias a un servidor grafico y a gestores de ventanas como KDE, GNOME entre muchos. Recientemente GNU/Linux dispone de un aplicativo que convierte las ventanas en un entorno 3D como por ejemplo Beryl. Lo que permite utilizar Linux de una forma muy visual y atractiva.

Novedades en sistemas operativos

Windows 7 El desarrollo de este sistema operativo comenzó inmediatamente después del lanzamiento de Windows Vista. El 20 de julio de 2007, se reveló que este sistema operativo es llamado internamente por Microsoft como la versión "7". Hasta el momento, la compañía declaró que Windows 7 tendrá soporte para plataformas de 32 bits y 64 bits,2 aunque la versión para servidor (que sucedería a Windows Server 2008) será exclusivamente de 64 bits.3

El 13 de octubre del 2008 fue anunciado que "Windows 7" además de haber sido uno de los tantos nombres código, sería el nombre oficial de este nuevo sistema operativo. Mike Nash dijo que esto se debía a que Windows 7 apunta a la simplicidad, y el nombre debe reflejarlo.

Ya para el 7 de enero del 2009, la versión beta se publicó para suscriptores de Technet y MSDN. El 9 de enero, se habilitó brevemente al público general mediante descarga directa en la página oficial, pero hubo problemas con los servidores que obligaron a retirar la posibilidad de descarga hasta horas más tarde después de añadir más servidores y, además, cambiaron el límite de 2,5 millones de personas como disculpa por el problema del retraso, el nuevo límite fue hasta el 10 de febrero del 2009.

Windows 7 (anteriormente conocido con nombre código Blackcomb, y luego Vienna) será la próxima versión de Microsoft Windows, sucesor de Windows Vista. Creado sobre un kernel basado en el de Windows Server 2008 y permitirá la compatibilidad hacia atrás mediante la virtualización.

Al tener 6.1 como código de versión, mucha gente piensa que éste será una actualización menor con respecto a Windows Vista, cuyo código de versión es 6.0, pero esto se debe únicamente para evitar problemas de compatibilidad, ya que Windows 7 será un significativo avance evolutivo y una edición mayor de los sistemas operativos de Microsoft.

NUEVAS TECNOLOGÍAS

Los investigadores, del Laboratorio Nacional de Argonne, han descubierto que las estructuras de giro llamadas vórtices magnéticos, cuando se encuentran atrapadas dentro de estructuras ferromagnéticas estampadas litográficamente, se comportan de manera sorprendente. En una aleación de níquel-hierro, los dos vórtices se arremolinan en direcciones opuestas, uno en el sentido de las agujas del reloj y el otro en sentido contrario. Sin embargo, los investigadores han descubierto que la polaridad magnética del centro de los vórtices, como el ojo de un huracán, es controlada por la evolución temporal de las propiedades magnéticas y no por la dirección de los giros.

El material estudiado es de un tamaño aproximado de una micra, y el área del centro del vórtice es de unos 10 nanómetros.

Deisseroth cree que se puede controlar las neuronas por medio de golpes de luz. El experto trabaja en identificar las neuronas responsables de la depresión para desarrollar un medicamento dirigido a las partes relevantes y eliminar los efectos secundarios actuales.

Uno de los avances más innovadores es el uso de pequeñas fibras que podrán salvar a personas durante cirugías o accidentes en el futuro. El científico del MIT, Rutledge Ellis-Behnke, responsable de la investigación, ha hecho pruebas en cirugías con ratas.

Al cortar intencionalmente una artería principal del hígado de uno de estos animales y colocar un líquido transparente en la herida, el sangrado se detiene de inmediato. Este líquido está formado por nanofragmentos de proteína que funcionan como una malla. Según el experto, aún faltan unos diez años para probar su uso en humanos.

Otros proyectos parecen, más bien, sacados de una obra de ficción. Tal es el caso de Kenneth Crozier y Federico Capasso, de la Universidad de Harvard, quienes diseñaron antenas ópticas que son alimentadas por la luz y que se espera permitan crear discos similares a los de DVD actuales, pero con una capacidad para almacenar unos 3.6 terabytes, es decir, el equivalente de 750 DVD grabables en un solo disco.

Otra apuesta va en el sentido de producir energía solar de bajo costo. Actualmente, los paneles solares para su producción alcanzan precios exorbitantes. La gran novedad es utilizar celdas denominadas "fotovoltaicas" que utilizan semiconductores, como la silicona, para convertir la energía de la luz en corriente eléctrica.

Tecnologías futras en sistemas operativos, Los sistemas operativos siguen evolucionando. Los sistemas operativos distribuidos están diseñados para su uso en un grupo de ordenadores conectados pero independientes que comparten recursos. En un sistema operativo distribuido, un proceso puede ejecutarse en cualquier ordenador de la red (normalmente, un ordenador inactivo en ese momento) para aumentar el rendimiento de ese proceso. En los sistemas distribuidos, todas las funciones básicas de un sistema operativo, como mantener los sistemas de archivos, garantizar un comportamiento razonable y recuperar datos en caso de fallos parciales, resultan más complejas.

 

 

Autor:

Omar Hernández

Partes: 1, 2
 Página anterior Volver al principio del trabajoPágina siguiente