NVIDIA–UNITO Workshop “Data Parallelism: How to Train Deep Learning Models on Multiple GPUs”
Venerdì 8 maggio 2026
Dipartimento di Informatica, Università di Torino
Bruno Casella, assegnista di ricerca presso il Dipartimento di Informatica dell’Università di Torino, e NVIDIA DLI Certified Instructor, presenta “Data Parallelism: How to Train Deep Learning Models on Multiple GPUs”.
Il corso in breve
Alcune delle sfide più comuni che ci si ritrova ad affrontare per addestrare i moderni modelli di deep learning consistono nello sfruttare datasets sempre più grandi e modelli sempre più complessi. Di conseguenza, una crescente e significativa potenza di calcolo viene richiesta per addestrare i modelli in maniera efficace ed efficiente. Imparare a distribuire i dati su più GPUs during la fase di addestramento dei modelli apre le porte per nuove e importanti applicazioni di deep learning.
Obiettivi
Dalla partecipazione a questo workshop:
– Capirai come la tecnica del Data Parallelism su più GPUs viene applicata durante il training di modelli deep learning.
– Otterrai il massimo throughput durante il training, per massimizzare l’uso di più GPUs.
– Distribuirai il training su più GPUs utilizzando PyTorch Distributed Data Parallel
– Capirai e utilizzerai delle considerazioni algoritmiche specifiche per il training multi-GPU.
Venue
Dipartimento di Informatica, Via Pessinetto, 12, 10149 Torino TO, scala L, terzo piano
Per ulteriori informazioni sul corso visitare: https://learn.nvidia.com/courses/course-detail?course_id=course-v1:DLI+C-MG-01+V3
La partecipazione è gratuita, ma richiede la registrazione.
