Programa del Curso

Introducción

Comprender los fundamentos de la metodología de computación heterogénea

¿Por qué la computación paralela? Comprender la necesidad de la computación paralela

Procesadores multinúcleo: arquitectura y diseño

Introducción a los hilos, conceptos básicos de los hilos y conceptos básicos del paralelo Programming

Comprender los fundamentos de GPU los procesos de optimización de software

OpenMP - Un estándar para paralelos basados en directivas Programming

Práctica / Demostración de varios programas en máquinas multinúcleo

Introducción a GPU Informática

GPUs para Computación Paralela

Modelo de GPU Programming

Práctica / Demostración de varios programas en GPU

SDK, kit de herramientas e instalación de entorno para GPU

Trabajar con varias bibliotecas

Demostración de GPU y herramientas con programas de ejemplo y OpenACC

Entendiendo el modelo CUDA Programming

Aprendizaje de la arquitectura CUDA

Exploración y configuración de los entornos de desarrollo de CUDA

Trabajar con la API de tiempo de ejecución de CUDA

Descripción del modelo de memoria CUDA

Exploración de funciones adicionales de la API de CUDA

AccessUso eficiente de la memoria global en CUDA: Optimización de la memoria global

Optimización de las transferencias de datos en CUDA mediante flujos CUDA

Uso de la memoria compartida en CUDA

Comprensión y uso de operaciones e instrucciones atómicas en CUDA

Caso de Estudio: Procesamiento Básico de Imágenes Digitales con CUDA

Trabajar con Multi-GPU Programming

Muestreo y perfilado de hardware avanzado en NVIDIA / CUDA

Uso de la API de paralelismo dinámico de CUDA para el lanzamiento dinámico del kernel

Resumen y conclusión

Requerimientos

  • C Programming
  • Linux GCC
 21 horas

Número de participantes



Precio por participante

Testimonios (1)

Categorías Relacionadas