Descargar

Procesamiento de Grandes Volúmenes de Datos en Entornos Cloud Computing (página 2)

Enviado por Pablo Turmero


Partes: 1, 2
edu.red Integración Cloud Computing – apache hadoop Hadoop es adaptable a cualquier tipo de máquinas Incluso Virtuales Creamos una instancia virtual en nuestra nube OpenStack Instalamos Hadoop SingleNode en ella. Almacenamos la instancia como patrón Desplegamos tantas instancias como nuestros recursos nos permitan Configuramos Hadoop Multinode 14

edu.red Integración Cloud Computing – apache hadoop Seleccionamos un tipo de instancia. Utilizamos una máquina virtual Ubuntu. 15

edu.red Integración Cloud Computing – apache hadoop Nos conectamos vía SSH a la instancia. Configuramos Hadoop SingleNode. 16

edu.red Integración Cloud Computing – apache hadoop Almacenamos esta máquina virtual configurada con Hadoop SingleNode como patrón de instancias. Desplegamos tantas instancias como los recursos hardware de nuestro sistema Cloud Computing permitan. 17

edu.red Integración Cloud Computing – apache hadoop Configuramos Hadoop Multinode. Iniciamos los servicios del entorno distribuido. Primero el HDFS. Finalmente la capa MapReduce. 18

edu.red Programación MapReduce Programación Funcional (Map – Reduce) Balanceado de Carga Orientado a Grandes Cantidades de Datos Amplio Soporte Control de Errores en Nodos. Tolerancia a Fallos Licencia Libre Programación Paralela 20

edu.red Programación MapReduceFuncionamiento 21

edu.red Programación MapReduceFuncionamiento Los elementos principales de un programa MapReduce son: JobConf Mapper Reducer Formato de Salida Formato de Entrada No hay un ningún tipo de archivo para trabajar con Imágenes 22

edu.red Programación MapReduceLibrería HIPI Librería creada por la University of Virginia que aporta una API para el procesamiento de imágenes HipiImageBundle FloatImage CullMapper HipiJob 24

edu.red Programación MapReduceLibrería HIPI 25

edu.red Pruebas de Rendimiento y Ejemplos de Aplicación HIPI Prueba de Rendimiento WordCount Batería de pruebas aumentando el número de libros 27 Carga de Archivos en el Sistema Ejecución MapReduce

edu.red Pruebas de Rendimiento y Ejemplos de Aplicación HIPI Resultados obtenidos: 28

edu.red Pruebas de Rendimiento y Ejemplos de Aplicación HIPI Cuanto mayores son los conjuntos de entrada, mejor el comportamiento Las diferencias en los grandes conjuntos son menos significativas 29

edu.red Pruebas de Rendimiento y Ejemplos de Aplicación HIPI El aumento en el tiempo de ejecución es lineal, por lo que el incremento en la biblioteca de entrada afecta de forma normal. 30

edu.red Pruebas de Rendimiento y Ejemplos de Aplicación HIPI   31

edu.red Pruebas de Rendimiento y Ejemplos de Aplicación HIPI Para grandes volúmenes de datos el funcionamiento del HDFS es mucho más eficiente. Un clúster Hadoop junto con la programación MapReduce obtiene mejor rendimiento cuanto mayor son los conjuntos de datos de entrada. El framework Apache Hadoop está diseñado para sistemas en los que los datos se carguen una vez y sobre ellos se realicen múltiples trabajos. CONCLUSIONES PRUEBAS DE RENDIMIENTO 32

edu.red Pruebas de Rendimiento y Ejemplos de Aplicación HIPI Ejemplo de Aplicación HIPI Generación de contenedor HIB Ejecución sobre el contenedor Descarga de imágenes de la red social Flickr 33

edu.red Pruebas de Rendimiento y Ejemplos de Aplicación HIPI Ejecución Downloader 34

edu.red Pruebas de Rendimiento y Ejemplos de Aplicación HIPI Ejecución DumpHIB 35

edu.red Conclusiones 37 Se ha cumplido el objetivo principal del proyecto Integrar Cloud Computing y Apache Hadoop. OpenStack junto con StackOps proporciona una forma de configurar sistemas Cloud Computing de manera sencilla. Apache Hadoop ha demostrado ser un sistema de computación distribuido adaptable a cualquier tipo de sistema, incluso virtuales. Queda probado que el entornos Apache Hadoop, el HDFS y la programación MapReduce alcanzan su mayor rendimiento procesando grandes conjuntos de datos La librería Hadoop Image Processing Interface proporciona una API que permite trabajar directamente sobre imágenes en Apache Hadoop

Partes: 1, 2
 Página anterior Volver al principio del trabajoPágina siguiente