Las unidades de procesamiento gráfico (GPU) tienen una fuerte capacidad de punto flotante y un alto ancho de banda de memoria en paralelismo de datos, y han sido ampliamente utilizadas en cómputo de alto rendimiento (HPC). La arquitectura de dispositivo unificado de cómputo (CUDA) se utiliza como una plataforma de cómputo paralelo y modelo de programación para la GPU con el fin de reducir la complejidad de la programación. Las GPUs programables están volviéndose populares en aplicaciones de dinámica de fluidos computacional (CFD). En este trabajo, proponemos un algoritmo paralelo híbrido de la interfaz de paso de mensajes y CUDA para aplicaciones de CFD en clústeres de HPC multi-GPU. Se utilizan el esquema upwind AUSM+UP y el método de RungeKutta de tres pasos para la discretización espacial y temporal, respectivamente. La solución turbulenta se resuelve mediante el modelo de dos ecuaciones SST. La CPU solo gestiona la ejecución de la GPU y la comunic
Esta es una versión de prueba de citación de documentos de la Biblioteca Virtual Pro. Puede contener errores. Lo invitamos a consultar los manuales de citación de las respectivas fuentes.
Artículo:
Enfoque de Estimación de Canal con Bajo Sobrecoste de Pilotos en Sistemas FBMC/OQAM.
Artículo:
El problema Cmax de programar varios grupos de trabajos en varios procesadores a diferentes velocidades
Artículo:
Impacto de las interferencias del GPS en la sincronización horaria de los transmisores DVB-T
Artículo:
Un Análisis Comparativo de Modelos de Inteligencia Artificial y Empíricos Basados en Datos para Estimar Tasas de Infiltración
Artículo:
Análisis dinámico para un modelo de ciclo económico de Kaldor-Kalecki con retraso en el tiempo y efecto de difusión.