Con el tamaño y la complejidad de los problemas aumentando, se han desarrollado varios modelos y marcos de programación paralela y distribuida para manejar eficientemente tales problemas. Este documento revisa brevemente los modelos de computación paralela y describe tres marcos de programación paralela ampliamente reconocidos: OpenMP, MPI y MapReduce. OpenMP es el estándar de facto para programación paralela en sistemas de memoria compartida. MPI es el estándar de facto de la industria para sistemas de memoria distribuida. El marco de trabajo MapReduce se ha convertido en el estándar de facto para aplicaciones de datos a gran escala. Se conocen los pros y contras cualitativos de cada marco, pero los índices de rendimiento cuantitativos ayudan a tener una buena idea de qué marco utilizar para las aplicaciones. Como problemas de referencia para comparar esos marcos, se eligen dos problemas: el problema del camino más corto entre todos los pares y el problema de unión de datos. Este documento presenta los programas paralelos para los problemas implementados en los tres marcos, respectivamente. M
Esta es una versión de prueba de citación de documentos de la Biblioteca Virtual Pro. Puede contener errores. Lo invitamos a consultar los manuales de citación de las respectivas fuentes.
Artículo:
Modelo de apropiación tecnológica: el caso de la industria del ladrillo rojo
Artículo:
Datos masivos y redes sociales en línea: herramientas para un mejor uso de la información en los negocios
Artículo:
Computación en la nube móvil y datos masivos de redes sociales
Artículo:
Un nuevo marco de semisupervisión-entropía para la clasificación de imágenes hiperespectrales basado en Random Forest.
Artículo:
Generación del cuerpo de los métodos a partir de la semántica de las operaciones del diagrama de clases