Speaker
Roberto Ammendola
(ROMA2)
Description
20' + 10' discussione
Le direttive GPU Direct supportate dalle GPU Nvidia di classe Fermi e Kepler, permettono di accelerare i trasferimenti da e per la memoria locale della GPU tramite una connessione peer-to-peer con altre GPU e in generale con altre device PCIe, come ad esempio delle schede di comunicazione.
Tramite una stretta collaborazione tra INFN e Nvidia, la scheda di interconnessione della rete custom APENet+ è al momento l´unica device che supporta pienamente il P2P a livello hardware, con benefici già misurabili rispetto ai giganti commerciali.
Questa caratteristica viene sfruttata principalmente nell´ambito del calcolo parallelo, per cui diventa fondamentale minimizzare le latenze di comunicazione tra GPU presenti sullo stesso nodo e soprattutto tra GPU distribuite su nodi remoti ma interconnessi con la rete APENet+. Un prototipo da 16 nodi / 32 Fermi GPU è attualmente in funzione per quanto riguarda l´iniziativa QUonG (lQCD on GPU), su cui stiamo sviluppando e valutando in maniera comparativa alcune classi di applicazioni scientifiche di interesse.
Una tale rete di comunicazione abilitata al P2P con le GPU si sta rilevando molto interessante anche in ambito read-out e trigger di basso livello per detector HEP, in esperimenti quali NA62 in cui si può usare la GPU come sistema di calcolo per "low level trigger" a patto di garantire una minima latenza sul flusso dei dati.