Speaker
Description
L’esecuzione efficiente di applicazioni parallele dipende in modo significativo dalle caratteristiche dell’architettura hardware del cluster e dai parametri della rete di interconnessione. Questo lavoro analizza l’impatto della latenza di rete sui tempi di esecuzione dei job paralleli per diverse architetture di calcolo. L’obiettivo è delineare una configurazione di lancio ottimale che minimizza il tempo di esecuzione di job HPC di tipo MPI. L’analisi è stata condotta attraverso serie ripetute di job di fluidodinamica computazionale (CFD) e benchmark su cluster HPC di generazioni diverse. I cluster hanno carattetistiche variabili, misurate in termini di latenza di comunicazione e distribuzione del carico computazionale. I risultati mostrano che tenendo fissato il numero di processi paralleli, i tempi di esecuzione diminuiscono fino al 90% all’aumentare del numero di nodi su cui il carico è distribuito. Ciò può essere determinante in scenari time-critical, ad esempio nelle analisi in tempo reale di eventi sismici ai fini dell’allerta e della mitigazione dei danni. I risultati sono inoltre strategici per la futura progettazione e ottimizzazione di sistemi HPC, in quanto possono guidare nella scelta delle architetture più adatte all’esecuzione di specifiche classi di applicazioni parallele.