Descargar

Planificación de procesos

Enviado por Pablo Turmero


    edu.red

    Definición y Conceptos Básicos El término planificación de procesos hace referencia a un conjunto de políticas y mecanismos del SO que gobiernan el orden en que se ejecutan los procesos (Milenkovic) Un planificador de procesos es un módulo del SO que se encarga de mover los procesos entre las distintas colas de planificación La ejecución de un proceso consiste en una alternancia entre ráfagas de CPU y ráfagas de E/S Un proceso limitado por E/S (I/O bound) es aquél que pasa más tiempo haciendo E/S que usando la CPU (tiene ráfagas de CPU cortas) Un proceso limitado por CPU (CPU bound) es aquél que pasa más tiempo computando que haciendo E/S (tiene ráfagas de CPU largas)

    edu.red

    Alternancia de Ráfagas de CPU y E/S

    edu.red

    Tipos de Planificadores Planificador a largo plazo (planificador de trabajos) – escoge los procesos que ingresarán en la cola de listos Planificador a medio plazo – escoge los procesos que se sacarán/introducirán temporalmente de/en la memoria principal (intercambio, swapping)

    Planificador a corto plazo (planificador de CPU) – escoge el proceso que se ejecutará a continuación y le asigna la CPU

    edu.red

    Planificador de CPU Escoge un proceso de entre los que están en memoria listos para ejecutarse y le asigna la CPU al proceso elegido La decisión de planificación puede ocurrir: 1. Cuando un proceso pasa de ejecución a espera 2. Cuando un proceso pasa de ejecución a listo 3. Cuando un proceso pasa de espera a listo 4. Cuando un proceso termina Un planificador es no expropiativo (nonpreemptive) cuando sólo planifica en los casos 1 y 4 En otro caso decimos que el planificador es expropiativo (preemptive)

    edu.red

    Despachador El despachador es un módulo que cede la CPU al proceso elegido por el planificador de CPU. Para ello el despachador tiene que: Realizar una conmutación de contexto Cambiar la máquina a modo usuario (no privilegiado) Saltar al punto apropiado del programa para continuar con su ejecución El tiempo que tarda el despachador en detener un proceso y poner otro en ejecución se denomina latencia del despachador. Debe ser lo más pequeña posible

    edu.red

    Criterios de Planificación Utilización de la CPU – mantener la CPU tan ocupada como sea posible (maximizar) Rendimiento – número de procesos que se completan por unidad de tiempo (maximizar) Tiempo de retorno – tiempo transcurrido desde que se presenta el proceso hasta que se completa (minimizar) Tiempo de espera – tiempo que un proceso pasa en la cola de procesos listos esperando la CPU (minimizar) Tiempo de respuesta – tiempo que tarda un proceso desde que se le presenta una solicitud hasta que produce la primera respuesta (minimizar)

    edu.red

    Algoritmo First-Come, First-Served (FCFS) Procesos Ráfaga de CPU (ms) P1 24 P2 3 P3 3 Los procesos llegan en el orden: P1 , P2 , P3 . La planificación es:

    Tiempo de espera para P1 = 0; P2 = 24; P3 = 27 Tiempo de espera medio: (0 + 24 + 27)/3 = 17 (Gp:) P1 (Gp:) P2 (Gp:) P3 (Gp:) 24 (Gp:) 27 (Gp:) 30 (Gp:) 0

    edu.red

    Algoritmo FCFS Ahora cambiamos el orden de llegada de los procesos P2 , P3 , P1 La nueva planificación es:

    Tiempo de espera para P1 = 6; P2 = 0; P3 = 3 Tiempo medio de espera: (6 + 0 + 3)/3 = 3 Mejoramos la planificación anterior Con este algoritmo se puede producir un efecto convoy: varios procesos de ráfaga de CPU corta tienen que esperar a un proceso de ráfaga larga (Gp:) P1 (Gp:) P3 (Gp:) P2 (Gp:) 6 (Gp:) 3 (Gp:) 30 (Gp:) 0

    edu.red

    Algoritmo Shortest Job First (SJF) También se conoce como Shortest Remaining Time Next (SRTN) Asigna la CPU al proceso cuya siguiente ráfaga de CPU es más corta. Si dos procesos empatan se resuelve el empate por FCFS Dos posibilidades: no expropiativo – cuando se asigna la CPU a un proceso no se puede expropiar hasta que completa su ráfaga de CPU expropiativo – si llega un proceso a la cola de listos con una ráfaga de CPU más corta que el tiempo que le queda al proceso en ejecución, se expropia. El SJF expropiativo se conoce también como Shortest Remaining Time First (SRTF) SJF es óptimo – da el mínimo tiempo de espera medio para un conjunto de procesos dado Pero requiere conocer de antemano la duración de la siguiente ráfaga de CPU

    edu.red

    Procesos Llegada Ráfaga CPU (ms) P1 0 7 P2 2 4 P3 4 1 P4 5 4 SJF (no expropiativo)

    Tiempo de espera medio = (0 + 6 + 3 + 7)/4 = 4 Ejemplo de SJF No Expropiativo (Gp:) P1 (Gp:) P3 (Gp:) P2 (Gp:) 7 (Gp:) 3 (Gp:) 16 (Gp:) 0 (Gp:) P4 (Gp:) 8 (Gp:) 12

    edu.red

    Ejemplo de SJF Expropiativo Procesos Llegada Ráfaga CPU (ms) P1 0 7 P2 2 4 P3 4 1 P4 5 4 SJF (expropiativo)

    Tiempo de espera medio = (9 + 1 + 0 +2)/4 = 3 (Gp:) P1 (Gp:) P3 (Gp:) P2 (Gp:) 4 (Gp:) 2 (Gp:) 11 (Gp:) 0 (Gp:) P4 (Gp:) 5 (Gp:) 7 (Gp:) P2 (Gp:) P1 (Gp:) 16

    edu.red

    Duración de la Siguiente Ráfaga de CPU Lo habitual es que no se conozca, así que sólo se puede estimar Se hace usando la duración de las ráfagas de CPU anteriores, usando un promedio exponencial

    edu.red

    Promedio Exponencial ? =0 ?n+1 = ?n La historia reciente no se tiene en cuenta ? =1 ?n+1 = tn Sólo se tiene en cuenta la última ráfaga de CPU Si expandimos la fórmula tenemos: ?n+1 = ? tn+(1 – ?)? tn-1 + … +(1 – ? )j ? tn-j + … +(1 – ? )n +1 ?0 Tanto ? como (1 – ?) son menores que 1, así que cada duración de ráfaga (ti) tiene más peso que la anterior (ti-1)

    edu.red

    Algoritmo de Planificación con Prioridad Se asocia con cada proceso una prioridad (número entero) La CPU se asigna al proceso con la prioridad más alta (consideramos número pequeño ? prioridad alta) Tenemos dos posibilidades: Expropiativo No expropiativo SJF se puede ver como un algoritmo de planificación por prioridad en el que la prioridad es la duración predicha para la siguiente ráfaga de CPU Problema: Inanición (starvation) – los procesos de más baja prioridad podrían no ejecutarse nunca Solución: Envejecimiento (aging) – conforme el tiempo pasa aumentar la prioridad de los procesos que esperan mucho en el sistema

    edu.red

    Ejemplo de Planificación con Prioridades Procesos Ráfaga CPU Prioridad P1 10 3 P2 1 1 P3 2 3 P4 1 4 P5 5 2

    edu.red

    Algoritmo Round Robin (RR) Cada proceso obtiene la CPU durante un breve espacio de tiempo (cuanto o quantum de tiempo), normalmente de 10 a 100 milisegundos. Cuando el tiempo pasa, el proceso es expropiado e insertado al final de la cola de listos. Si hay n procesos en la cola de listos y el quantum es q, cada proceso recibe 1/n del tiempo de CPU en intervalos de q unidades de tiempo como mucho. Ningún proceso espera más de (n-1)q unidades de tiempo. Desempeño q grande ? FCFS q pequeño ? q debe ser grande con respecto a la conmutación de contexto, en otro caso la sobrecarga es muy alta

    edu.red

    Ejemplo de RR con Quantum = 20 Procesos Ráfaga CPU P1 53 P2 17 P3 68 P4 24 Planificación: Normalmente el tiempo de retorno medio es mayor que en SJF, pero el tiempo de respuesta es mejor (Gp:) P1 (Gp:) P2 (Gp:) P3 (Gp:) P4 (Gp:) P1 (Gp:) P3 (Gp:) P4 (Gp:) P1 (Gp:) P3 (Gp:) P3 (Gp:) 0 (Gp:) 20 (Gp:) 37 (Gp:) 57 (Gp:) 77 (Gp:) 97 (Gp:) 117 (Gp:) 121 (Gp:) 134 (Gp:) 154 (Gp:) 162

    edu.red

    Quantum y Cambios de Contexto

    edu.red

    El Tiempo de Retorno Frente al Quantum

    edu.red

    Algoritmo de Colas Multinivel La cola de listos se divide en colas separadas. Ej.: procesos de primer plano (interactivos) procesos de segundo plano (por lotes) Cada cola puede tener un algoritmo de planificación diferente primer plano – RR segundo plano – FCFS Se debe planificar a nivel de cola Planificación por prioridad fija; ej.: la cola de primer plano tiene prioridad sobre la de segundo plano. Posible inanición. División de tiempo – cada cola obtiene cierta porción de tiempo de CPU que reparte entre sus procesos; ej., 80% para la cola de primer plano (RR) y 20% para la de segundo (FCFS)

    edu.red

    Colas Multinivel

    edu.red

    Colas Multinivel con Realimentación En este caso un proceso se puede mover entre las colas. Es una forma de implementar el envejecimiento para evitar inanición. Un algoritmo de planificación de colas multinivel con realimentación está definido por los siguientes parámetros: número de colas algoritmos de planificación para cada cola método usado para determinar cuándo promover un proceso a una cola de mayor prioridad método usado para determinar cuándo degradar un proceso a una cola de menor prioridad método usado para determinar en qué cola ingresará un proceso cuando necesite servicio

    edu.red

    Ejemplo de Colas Multinivel con Realimentación Tenemos tres colas: Q0 – RR con quantum 8 ms Q1 – RR con quantum 16 ms Q2 – FCFS Planificación Un proceso que entra en la cola de procesos listos ingresa en la cola Q0 . Cuando obtiene la CPU se le asignan 8 ms. Si no termina su ráfaga de CPU en ese tiempo se pasa a Q1. En Q1 se asignan 16 ms de CPU al proceso. Si no termina en ese tiempo es expropiado y colocado en la cola Q2.

    edu.red

    Ejemplo de Colas Multinivel con Realimentación

    edu.red

    Prioridades en Windows XP Clases de Prioridad (procesos) Modificadores (hilos) El algoritmo es de Colas Multinivel con Realimentación. Cada prioridad tiene asociada una cola con planificación RR. Prioridades 0-15 variables, 16-31 fijas (tiempo real). A los hilos que agotan su quantum se les reduce la prioridad. Cuando un hilo pasa de espera a listo se aumenta su prioridad.

    edu.red

    Planificación en Linux Se usan dos algoritmos: tiempo compartido y tiempo real Tiempo compartido Prioridad basada en créditos – el proceso con más créditos es el siguiente en tomar la CPU Los créditos se reducen cuando ocurre una interrupción de reloj Cuando el crédito es 0, se escoge otro proceso Cuando todos los procesos tienen crédito 0 se asigna de nuevo crédito para todos los procesos Basado en factores como prioridad e historia Tiempo real Tiempo real blando Cumple el estándar Posix.1b – dos clases FCFS y RR El proceso de mayor prioridad siempre se ejecuta primero

    edu.red

    Evaluación de los Algoritmos Modelado determinista – toma una carga de trabajo predeterminada y define el rendimiento de cada algoritmo para esa carga Modelos de colas Implementación