In questo rapporto tecnico, illustreremo i principi fondamentali del DDP. Sebbene, mostreremo a titolo esemplificativo l'addestramento distribuito di una rete di classificazione su più GPU i concetti trattati sono applicabili a qualsiasi architettura di modello e a varie applicazioni. A tal fine, sarà descritto l’uso del pacchetto DistributedDataParallel (DDP) di PyTorch, una libreria di deep learning progettata per velocizzare le operazioni di addestramento.
Data Parallelism: Deep Learning con GPU Multiple in modo efficiente e sostenibile
Francesco Gargiulo
;Antonio Francesco Gentile;Emilio Greco
2024
Abstract
In questo rapporto tecnico, illustreremo i principi fondamentali del DDP. Sebbene, mostreremo a titolo esemplificativo l'addestramento distribuito di una rete di classificazione su più GPU i concetti trattati sono applicabili a qualsiasi architettura di modello e a varie applicazioni. A tal fine, sarà descritto l’uso del pacchetto DistributedDataParallel (DDP) di PyTorch, una libreria di deep learning progettata per velocizzare le operazioni di addestramento.File in questo prodotto:
File | Dimensione | Formato | |
---|---|---|---|
RT-ICAR-NA-2024-04.pdf
accesso aperto
Licenza:
Dominio pubblico
Dimensione
962.93 kB
Formato
Adobe PDF
|
962.93 kB | Adobe PDF | Visualizza/Apri |
I documenti in IRIS sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione.