NVIDIA–UNITO Workshop “Data Parallelism: How to Train Deep Learning Models on Multiple GPUs”

Venerdì 8 maggio 2026

Dipartimento di Informatica, Università di Torino

Bruno Casella, assegnista di ricerca presso il Dipartimento di Informatica dell’Università di Torino, e NVIDIA DLI Certified Instructor, presenta “Data Parallelism: How to Train Deep Learning Models on Multiple GPUs”.

Il corso in breve

Alcune delle sfide più comuni che ci si ritrova ad affrontare per addestrare i moderni modelli di deep learning consistono nello sfruttare datasets sempre più grandi e modelli sempre più complessi. Di conseguenza, una crescente e significativa potenza di calcolo viene richiesta per addestrare i modelli in maniera efficace ed efficiente. Imparare a distribuire i dati su più GPUs during la fase di addestramento dei modelli apre le porte per nuove e importanti applicazioni di deep learning.

Obiettivi

Dalla partecipazione a questo workshop:
– Capirai come la tecnica del Data Parallelism su più GPUs viene applicata durante il training di modelli deep learning.
– Otterrai il massimo throughput durante il training, per massimizzare l’uso di più GPUs.
– Distribuirai il training su più GPUs utilizzando PyTorch Distributed Data Parallel
– Capirai e utilizzerai delle considerazioni algoritmiche specifiche per il training multi-GPU.

Venue

Dipartimento di Informatica, Via Pessinetto, 12, 10149 Torino TO, scala L, terzo piano

Per ulteriori informazioni sul corso visitare: https://learn.nvidia.com/courses/course-detail?course_id=course-v1:DLI+C-MG-01+V3

La partecipazione è gratuita, ma richiede la registrazione.