In questo rapporto tecnico, illustreremo i principi fondamentali del DDP. Sebbene, mostreremo a titolo esemplificativo l'addestramento distribuito di una rete di classificazione su più GPU i concetti trattati sono applicabili a qualsiasi architettura di modello e a varie applicazioni. A tal fine, sarà descritto l’uso del pacchetto DistributedDataParallel (DDP) di PyTorch, una libreria di deep learning progettata per velocizzare le operazioni di addestramento.

Data Parallelism: Deep Learning con GPU Multiple in modo efficiente e sostenibile

Francesco Gargiulo
;
Antonio Francesco Gentile;Emilio Greco
2024

Abstract

In questo rapporto tecnico, illustreremo i principi fondamentali del DDP. Sebbene, mostreremo a titolo esemplificativo l'addestramento distribuito di una rete di classificazione su più GPU i concetti trattati sono applicabili a qualsiasi architettura di modello e a varie applicazioni. A tal fine, sarà descritto l’uso del pacchetto DistributedDataParallel (DDP) di PyTorch, una libreria di deep learning progettata per velocizzare le operazioni di addestramento.
2024
Istituto di Calcolo e Reti ad Alte Prestazioni - ICAR - Sede Secondaria Napoli
DDP, Data Parallelism, PyTorch
File in questo prodotto:
File Dimensione Formato  
RT-ICAR-NA-2024-04.pdf

accesso aperto

Licenza: Dominio pubblico
Dimensione 962.93 kB
Formato Adobe PDF
962.93 kB Adobe PDF Visualizza/Apri

I documenti in IRIS sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione.

Utilizza questo identificativo per citare o creare un link a questo documento: https://hdl.handle.net/20.500.14243/513704
Citazioni
  • ???jsp.display-item.citation.pmc??? ND
  • Scopus ND
  • ???jsp.display-item.citation.isi??? ND
social impact