Descargar

Introducción a la Computación de Alto Rendimiento (HPC)

Enviado por Pablo Turmero


Partes: 1, 2

    edu.red

    Contenido Prefacio Qué es la Computación de Alto Rendimiento? Computación Paralela Computación Distribuida, Computación Grid, y más Futura tendencia en HPC

    edu.red

    Propósito Propósito del curso: Educar a los investigadores acerca del valor e impacto de las técnicas de computación de alto rendimiento (HPC) y tecnologías en ciencias computacionales e Ingeniería

    Educar a los investigadores acerca de las técnicas y herramientas de computación paralela, y mostrar las posiblidades que presentan éstas mediante computación distribuida y Computación Grid

    edu.red

    Metas Las metas de esta presentación son ayudar a: Entender en que se basa la computación de alto rendimiento Desarrollar un comprensivo entendimeinto sobre la computación paralela Comenzar a entender cómo la computación Grid y Distribuida realzarán en el futuro las capacidades de las ciencias computacionales

    edu.red

    ‘Supercomputación’ Primero, los sistemas HPC fueron sistemas basados en vectores (e.g. Cray) llamados ‘supercomputadores’ porque ellos eran un orden de magnitud más poderosos que los sistemas comerciales Ahora, un ‘supercomputador’ está formado por computadores pequeños Los sistemas grandes son versiones escaladas de sistemas pequeños Sin embargo, la ‘Computación de Alto Rendimiento tiene varios significados

    edu.red

    Definiendo HPC Computación de Alto Rendimiento: Puede significar muchas Flop Por procesador En total sobre varios procesadores trabajando sobre un mismo problema En total sobre varios procesadores trabajando sobre problemas relacionados

    Puede significar rápidez de ejecución Sistemas más poderosos Usando multiples sistemas simultáneamente

    edu.red

    Mi Definición HPC: Cualquier técnica computacional que soluciona un problema grande de forma más rápida que usando posiblemente sistemas simples

    Procesadores de alto redimiento (e.g. Cray, NEC) Computación Paralela Computación Distribuida Computación Grid

    edu.red

    Mi Definición Computación Paralela: sistemas simples con varios procesadores trabajando sobre el mismo problema Computación Distribuida: varios sistemas acoplados por un secuenciador de trabajo sobre problemas relacionados Computación Grid: varios sistemas acoplados por software y redes para trabajar en conjunto en poblemas simples o en problemas relacionados

    edu.red

    Importancia de HPC HPC ha tenido tremendo impacto sobre todas las areas de ciencias computacionales e ingenieria en la academia, gobierno e industria. Muchos problemas han sido solucionados con técnicas de HPC que eran imposibles de solucionar con estaciones de trabajo individuales o computadores personales.

    edu.red

    Qué es un Computador Paralelo? Computación Paralela: el uso de multiples computadores o procesadores trabajando en conjunto sobre una tarea común Computador Paralelo: un computador que contiene multiples procesadores: Cada procesador trabaja sobre su sección del problema Los procesadores permiten intercambio de información con otros procesadores

    edu.red

    Computadores Paralelos vs. Seriales Dos grandes ventajas de los computadores paralelos: Rendimiento Memoria Los computadores Paralelos son capaces de resolver problemas que: Requerien una rápida solución Requieren gran cantidad de memoria Ejemplo que requiere ambas: predicción de clima

    edu.red

    Computadores Paralelos vs. Seriales Algunos beneficios de los computadores paralelos: muchos datos dominios muy grandes búsqueda de soluciones en regiones muy grandes muchas particulas muchos pasos de tiempo largas ejecuciones mejor resolución temporal ejecución más rápida tiempo más rápidos para obtener solución muchas soluciones al mismo tiempo largas simulaciones en tiempo real

    edu.red

    Rendimento de un Computador Serial Aunque la Ley de Moore’s ‘predice’ que el rendimiento de un simple procesador se dobla cada 18 meses, los limites físicos de la tecnología serán alcanzados

    edu.red

    Tipos de Computadores Paralelos La manera más simple y útil para clasificar los computadores paralelos modernos es por su modelo de memoria: memoria compartida memoria distribuida

    edu.red

    P P P P P P BUS Memory M P M P M P M P M P M P Network Memoria Compartida – Un espacio simple de direccionamiento. Todos los procesadores tienen acceso a un pool de memoria compartida. (Eje.: SGI Origin, Sun E10000) Memoria Distribuida – cada procesador tiene su propia memoria local. Se debe hacer paso de mensaje para intercambiar datos entre procesadores. (Eje.: CRAY T3E, IBM SP, clusters) Compartida vs. Distribuida

    edu.red

    P P P P P P BUS Memory Acceso Uniforme a Memoria (UMA): Cada procesador tiene un acceso uniforme a memoria. También conocido como multiprocesadores simétricos, o SMPs (Sun E10000) P P P P BUS Memory P P P P BUS Memory Network Acceso No-Uniforme a Memoria (NUMA): El tiempo de acceso depende de la ubicación de los datos. Los accesos locales son más rápidos. Son más fácilmente escalables que SMPs (SGI Origin) Memoria Compartida: UMA vs. NUMA

    edu.red

    Memoria Distribuida: MPPs vs. Clusters Nodos Procesador-memoria son conectados por algún tipo de red de interconexión Procesador Masivamente Paralelo (MPP): completamente integrado, imágen de un sistema simple. Cluster: computadores individuales conectados por un s/w (Gp:) CPU MEM (Gp:) CPU MEM (Gp:) CPU MEM (Gp:) CPU MEM (Gp:) CPU MEM (Gp:) CPU MEM (Gp:) CPU MEM (Gp:) CPU MEM (Gp:) CPU MEM

    Interconnect Network

    Partes: 1, 2
    Página siguiente