Ejemplo Sub if(myid == 0) { printf("Tenemos %d procesadoresn", numprocs); for(i=1;i< numprocs;i++) {
sprintf(buff, "¡Holaaa %d! ", i); // Regresa el resultado MPI_Send(buff, 128, MPI_CHAR, i, 0, MPI_COMM_WORLD); } for(i=1;i< numprocs;i++) { // Recive el valor de cada proceso MPI_Recv(buff, 128, MPI_CHAR, i, 0, MPI_COMM_WORLD, &stat); printf("%sn", buff); } }
Ejemplo Sub else { // Recive el valor de cada proceso
MPI_Recv(buff, 128, MPI_CHAR, 0, 0, MPI_COMM_WORLD, &stat); sprintf(idstr, "Procesador %d ", myid); strcat(buff, idstr); strcat(buff, "reportandosen"); // Regresa el resultado MPI_Send(buff, 128, MPI_CHAR, 0, 0, MPI_COMM_WORLD); } // FInaliza MPI_Finalize(); return 0; }
Trabajos Futuros Sub
Conclusiones Sub El acceso remoto a memoria es lento.
La programación puede ser complicada
Java Puro escaso rendimiento debido a la inicialización costosa RMI
Falta de rendimiento se agudiza para redes de baja latencia (Myrinet, SCI
Página anterior | Volver al principio del trabajo | Página siguiente |