Descargar

Programación Paralela con Memoria Compartida

Enviado por Pablo Turmero


Partes: 1, 2

    edu.red

    ¿Qué es OpenMP? API Paralela portable de memoria compartida Fortran, C, y C++ Muchos distribuidores soporte para Linux y Windows Estandariza tareas y paralelismo de ciclos Soporta paralelismo de grano grueso Combina código serial y paralelo en un solo fuente Estandariza ~ 20 años de experiencia de paralelización dirigida por el compilador

    edu.red

    Modelo de programación

    El hilo maestro se divide en un equipo de hilos como sea necesario El Paralelismo se añade incrementalmente: el programa secuencial se convierte en un programa paralelo Regiones paralelas Hilo maestro

    edu.red

    Detalles de la sintaxis para comenzar Muchas de las construcciones de OpenMP son directivas del compilador o pragmas Para C y C++, los pragmas toman la forma: #pragma omp construct [clause [clause]…] Para Fortran, las directivas toman una de las formas: C$OMP construct [clause [clause]…] !$OMP construct [clause [clause]…] *$OMP construct [clause [clause]…] Archivo de cabecera o módulo de Fortran 90 #include “omp.h” use omp_lib

    edu.red

    Región Paralela y Bloques Estructurados (C/C++) Muchas de las construcciones de OpenMP se aplican a bloques estructurados Bloque Estructurado: un bloque con un punto de entrada al inicio y un punto de salida al final Los únicos “saltos” permitidos son sentencias de STOP en Fortran y exit() en C/C++

    edu.red

    Región Paralela y Bloques Estructurados (C/C++) Un bloque estructurado Un bloque no estructurado if (go_now()) goto more; #pragma omp parallel { int id = omp_get_thread_num(); more: res[id] = do_big_job(id); if (conv (res[id])) goto done; goto more; } done: if (!really_done()) goto more; #pragma omp parallel { int id = omp_get_thread_num();

    more: res[id] = do_big_job (id);

    if (conv (res[id])) goto more; } printf (“All donen”);

    edu.red

    Trabajo compartido Trabajo compartido es el término general usado en OpenMP para describir la distribución de trabajo entre hilos. Tres ejemplos de trabajo compartido en OpenMP son: Construcción omp for Construcción omp sections Construcción omp task

    Automáticamente divide el trabajo entre hilos

    edu.red

    Construcción omp for Los hilos se asignan a un conjunto de iteraciones independientes Los hilos deben de esperar al final del bloque de construcción de trabajo en paralelo (Gp:) #pragma omp parallel (Gp:) #pragma omp for (Gp:) Barrera implícita (Gp:) i = 0 i = 1 i = 2 i = 3 (Gp:) i = 4 i = 5 i = 6 i = 7 (Gp:) i = 8 i = 9 i = 10 i = 11

    // assume N=12 #pragma omp parallel #pragma omp for for(i = 0, i < N, i++) c[i] = a[i] + b[i];

    edu.red

    Combinando pragmas Estos códigos son equivalentes (Gp:) #pragma omp parallel { #pragma omp for for (i=0;i< MAX; i++) { res[i] = huge(); } }

    (Gp:) #pragma omp parallel for for (i=0;i< MAX; i++) { res[i] = huge(); }

    edu.red

    La cláusula Private Reproduce la variable por cada hilo Las variables no son inicializadas; en C++ el objeto es construido por default Cualquier valor externo a la región paralela es indefinido (Gp:) void* work(float* c, int N) { float x, y; int i; #pragma omp parallel for private(x,y) for(i=0; i<= end; i += 2 ) { if ( TestForPrime(i) ) gPrimesFound++; } Las iteraciones se dividen en bloques de 8 Si start = 3, el primer bloque es i={3,5,7,9,11,13,15,17}

    edu.red

    Actividad 2b – Planificación del Mandelbrot Objetivo: crea una versión paralela de mandelbrot que use planificación dinámica de OpenMP Sigue la actividad de Mandelbrot llamada Mandelbrot Scheduling en el documento de la práctica

    edu.red

    Agenda ¿Qué es OpenMP? Regiones Paralelas Trabajo compartido Ambiente de datos Sincronización Tópicos avanzados opcionales

    edu.red

    Descomposición de tareas a = alice(); b = bob(); s = boss(a, b); c = cy(); printf ("%6.2fn", bigboss(s,c));

    alice,bob, y cy pueden realizarse en paralelo (Gp:) alice

    (Gp:) bob

    (Gp:) boss

    (Gp:) bigboss

    (Gp:) cy

    edu.red

    Secciones omp #pragma omp sections Debe estar dentro de una región paralela Precede un bloque de código que contiene N bloques de código que pueden ser ejecutados concurrentemente por N hilos Abarca cada sección de omp

    Partes: 1, 2
    Página siguiente