Workshop sul Calcolo nell'INFN: La Biodola, 26 - 30 maggio 2025

Europe/Rome
Sala Maria Luisa (Hotel Hermitage - Isola d'Elba)

Sala Maria Luisa

Hotel Hermitage - Isola d'Elba

La Biodola 57037 Portoferraio (Li) Tel. +39.0565 9740 http://www.hotelhermitage.it/
Alessandro Brunengo (Istituto Nazionale di Fisica Nucleare), Gianpaolo Carlino (Istituto Nazionale di Fisica Nucleare)
Registration
Modulo di registrazione al workshop e prenotazione alberghiera
Participants
  • Alan TEICHMANN TARQUINI
  • Alberto Guercini
  • Alberto Pezzetta
  • ALESSANDRA CASALE
  • Alessandra Doria
  • Alessandra Retico
  • Alessandro Alberto Oliva
  • Alessandro Brunengo
  • Alessandro Caramia
  • Alessandro De Salvo
  • Alessandro Nettis
  • Alessandro Tirel
  • Alessio Fiori
  • Alex Lenni
  • Andrea Coppola
  • Andrea Fumagalli
  • Andrea Lavagno
  • Andrea Marangon
  • Andrea Rappoldi
  • Andrea Renato Rossi
  • Andrea Sciabà
  • Angelo Colletti
  • Anna Aprea
  • Anna Debora Maria Schampers
  • Antonino Formuso
  • Antonino Troja
  • Antonio Budano
  • Antonio Salvatore Calanducci
  • Antonio Vigorito
  • Arianna Carbone
  • Barbara Martelli
  • Carlo Puggioni
  • Caterina Maria Luigia Marcon
  • Caterina Mira
  • Chiara Scaini
  • Claudia Tofani
  • Claudio Grandi
  • Concezio Bozzi
  • Cristian Greco
  • Daniel Lupu
  • Daniela Anzellotti
  • Daniele Bonacorsi
  • Daniele Cesini
  • DANIELE Iseppi
  • Daniele Piccoli
  • Daniele Spiga
  • davide petrazzi
  • Davide Rebatto
  • Davide Salomoni
  • Diego Michelotto
  • Domenico Elia
  • Domenico Giordano
  • Donatella Truzzi
  • Elisa Zuccolo
  • Elisabetta Vilucchi
  • Emidio Maria Giorgio
  • Enrico Arnofi
  • Enrico Calore
  • Enrico Gaetano Orlando
  • Enrico Maria Vincenzo Fasanelli
  • Enrico Mazzoni
  • Enrico Pasqualucci
  • Erio Bagnato Bulgarelli
  • Federica Fanzago
  • Federica Frosali
  • Federico Andrea Guillaume Corchia
  • Federico Budano
  • Federico Zani
  • Filippo Valle
  • Francesca Lizzi
  • Francesco Amori
  • Francesco Dalessandro
  • Francesco Di pietro
  • Francesco Laruina
  • Francesco Sinisi
  • Franco Leveraro
  • Gabriele Indino
  • Gabriele Maria Papalino
  • Gen Li
  • Gianluca Ciaglia
  • Gianpaolo Carlino
  • Gioacchino Vino
  • Giordano Mancini
  • Giovanni Lorenzo Napoleoni
  • Giovanni Mazzitelli
  • Giovanni Savarese
  • Giulio Bianchini
  • Giuseppe Andronico
  • Guido Russo
  • Jacopo Gasparetto
  • Jonatan Motta
  • Jonathan Ronca
  • Laura Cappelli
  • Leandro Lanzi
  • Leonardo Cosmai
  • Leonardo Giusti
  • Leonardo Lanzi
  • Lisa Zangrando
  • Lorenzo Rinaldi
  • Luca Dell'Agnello
  • Luca Francioso
  • Luca Giommi
  • Luca Giovanni Carbone
  • Luca Marco Livraghi
  • Luca Tabasso
  • Luciano Gaido
  • Lucio Anderlini
  • Luigi Benedetto Scarponi
  • Marcello Marino
  • Marco Corvo
  • Marco Esposito Micenin
  • marco malatesta
  • Marco Redaelli
  • Marco Sassatelli
  • Marco Verlato
  • Marina Passaseo
  • Marta Dalla Vecchia
  • Massimo Brescia
  • Massimo Carboni
  • Massimo Sgaravatto
  • Matteo Casetti
  • Matteo Duranti
  • Matteo Ligabue
  • Matteo Sclafani
  • Mattia Ricchi
  • Maurizio Giordano
  • Mauro Gattari
  • Michela Ilardo
  • Michele Michelotto
  • Michele Onofri
  • Michele Pepe
  • Mirko Corosu
  • Mirko Mariotti
  • Nadir Marcelli
  • Nicola Giannini
  • Nicola Mori
  • Nicola Mosco
  • Paolo Bianco
  • Paolo Bolletta
  • Piero Iacovino
  • Pierpaolo Perticaroli
  • Pietro Fedele Spinnato
  • Roberta Miccoli
  • Roberto Lulli
  • Rosa Petrini
  • Rossana Chiaratti
  • Ruggero Ricci
  • Samir Gomaa
  • Sandra Parlati
  • Silvia Arezzini
  • Silvia Calegari
  • Silvio Pardi
  • Simona Maria Stellacci
  • Simone Lossano
  • Simone Savino
  • Stefano Dal Pra
  • Stefano Enrico Zotti
  • Stefano Longo
  • Stefano Lusso
  • Stefano Maria Barberis
  • Stefano Petrizzelli
  • Stefano Piano
  • Stefano Stalio
  • Stefano Zani
  • Tommaso Boccali
  • Tullio Macorini
  • Valerio Formato
  • Valerio Greco
  • Vincenzo Artiano
  • Vincenzo Ciaschini
  • Vincenzo Rega
  • Vincenzo Spinoso
  • Vittorio Sciortino
    • 11:00 AM
      REGISTRAZIONE
    • 1:00 PM
      Pranzo
    • 2:30 PM
      REGISTRAZIONE Sala Maria Luisa

      Sala Maria Luisa

      Hotel Hermitage - Isola d'Elba

      La Biodola 57037 Portoferraio (Li) Tel. +39.0565 9740 http://www.hotelhermitage.it/
    • 1
      Apertura dei lavori Sala Maria Luisa

      Sala Maria Luisa

      Hotel Hermitage - Isola d'Elba

      La Biodola 57037 Portoferraio (Li) Tel. +39.0565 9740 http://www.hotelhermitage.it/
      Speakers: Alessandro Brunengo (Istituto Nazionale di Fisica Nucleare), Gianpaolo Carlino (Istituto Nazionale di Fisica Nucleare)
    • Calcolo teorico e degli esperimenti: Parte 1 Sala Maria Luisa

      Sala Maria Luisa

      Hotel Hermitage - Isola d'Elba

      La Biodola 57037 Portoferraio (Li) Tel. +39.0565 9740 http://www.hotelhermitage.it/
      Convener: Domenico Elia (Istituto Nazionale di Fisica Nucleare)
      • 2
        Introduzione alla sessione Calcolo Teorico e degli Esperimenti
        Speaker: Domenico Elia (Istituto Nazionale di Fisica Nucleare)
      • 3
        Computing amplitudes in QFT: challenges in precision calculations

        I review the main aspects of QFT calculations, which affect many fields from HEP phenomenology, cosmology and gravitation. After an overview on amplitudes and Feynman Integrals, I will focus on the computational methods applied in the state-of-the-art results of our field, such as IBPs, tensor reduction, Differential equations, direct integration.
        They make use of both symbolical and numerical techniques, with the need of processing multivariate polynomials, solutions of linear systems, large matrices transformations, Monte Carlo methods and non-simple functions as polylogarithms and Bessel functions. I will finally discuss the computational resources needed to tackle nowadays predictions of observables in particle physics.

        Speaker: Jonathan Ronca (Istituto Nazionale di Fisica Nucleare)
      • 4
        Sustainability of ALICE Computing: Advancements and Improvements with O2

        ALICE has upgraded its computing infrastructure and software to accommodate the increased data rates and enhanced detector performance in Run 3. This upgrade has also resulted in a significant reduction in energy consumption and CO₂ emissions, achieved through a combination of optimized resource utilization and the adoption of energy-efficient technologies. Key strategies include maximizing GPU utilization, parallelizing and vectorizing CPU code, and organizing data analysis workflows into trains, along with the use of low-PUE data centers for analysis tuning and validation. The reuse of generated events in Monte Carlo simulations and the integration of ARM architecture support have further contributed to energy savings. Moreover, enhancements to the EPN infrastructure, including the implementation of energy-efficient cooling systems, have led to substantial cost reductions. These strategies will be presented and discussed in detail during the talk.

      • 5
        JUNO DCI: a status update

        The Jiangmen Underground Neutrino Observatory (JUNO) is a 20 kton liquid scintillator detector being constructed underground in southern China. The JUNO physics program aims to explore neutrino properties, particularly through electron anti-neutrinos emitted from two nuclear power complexes at a baseline of approximately 53 km. Targeting an unprecedented relative energy resolution of 3% at 1 MeV, JUNO will study neutrino oscillation phenomena and determine neutrino mass ordering with a statistical significance of about 3 sigma within six years. Currently, JUNO is in the commissioning phase.
        During physics data collection, the expected data rate after the global trigger is approximately 40 GB/s, which will be reduced to ~60 MB/s using online event classification. This results in an estimated dataflow of about 3 PB/year, including some auxiliary files. To support the large collaboration, a Distributed Computing Infrastructure (JUNO DCI) was developed and implemented, supported by four data centers distributed between China and Europe.
        This contribution provides an update on the deployment of the JUNO DCI, with a focus on JUNO’s computing requirements.

      • 6
        UrgentShake: un sistema HPC per la modellazione rapida dei terremoti

        UrgentShake è un sistema di urgent computing per la generazione rapida di scenari di scuotimento sismico basati su simulazioni fisiche. Il suo sviluppo è supportato dalle risorse di calcolo ad alte prestazioni (HPC) del progetto PNRR TeRABIT (Terabit Network for Research and Academic Big Data in Italy). L’architettura computazionale di UrgentShake sfrutta infrastrutture HPC e cloud distribuite per l’esecuzione parallela di simulazioni numeriche, con l’obiettivo di fornire stime affidabili del moto del terreno subito dopo l’occorrenza di un forte terremoto.
        Il sistema è progettato per integrarsi con i sistemi di allerta sismica di OGS e rispondere ai vincoli temporali imposti dalla gestione delle emergenze. Test condotti su eventi sismici di riferimento hanno permesso di ottimizzare l’utilizzo delle risorse computazionali, riducendo significativamente i tempi di elaborazione.
        L’implementazione di UrgentShake dimostra il ruolo chiave delle infrastrutture HPC federate e del calcolo distribuito nell’abilitare nuovi strumenti per la protezione civile e la gestione delle emergenze sismiche, fornendo un esempio concreto dell’impatto del supercalcolo nelle applicazioni di sicurezza e resilienza territoriale.

        Speakers: Elisa Zuccolo (OGS - National Institute Of Oceanography And Applied Geophysics), Chiara Scaini (OGS - National Institute Of Oceanography And Applied Geophysics)
      • 7
        Large scale computing for designing plasma-based particle accelerators and related applications

        Plasma accelerators can enable accelerator based applications at the university campus or large hospital level thanks to their reduced footprint and relatively low acquisition and operation costs. The underlying physical processes are described by the Vlasov-Maxwell equations coupled to the Lorentz force equation, so that their design requires solving a system of highly non-linear, partial differential equations; moreover, the physical problem is multi-scale (from fraction of um up to meters). An estimation of emitted radiation, reaching up to the few hundreds keV energy range, may also be required in some situations.

        Although fast reduced physics models do exist, the complete design of a plasma based facility and of the inherently plasma based applications (e.g. betatron radiation sources) require to run full 3D simulations with Particle-In-Cell (PIC) solvers in order to correctly evaluate the effects of jitters and (mostly inherently 3D) instabilities (e.g. hose instability). A sound design typically foresees a few hundreds runs, each worth up to 10^5 - 10^6 hours/core, and returns data for tens of terabytes requiring further analysis and, possibly, post-processing; moreover, the design process may also face unexpected, unwanted effects and must cope with strict project deadlines. Hence the need for a large scale, dedicated computational facility, efficient programming and adequate storage.

        In this contribution, we showcase a selection of the numeric tools frequently used in the design of plasma based facilities and related experiments/applications, detailing the techniques employed to improve performances and numerical accuracy and focusing on the LNF-based EuPRAXIA and EuAPS projects.

        Speaker: Andrea Renato Rossi (Istituto Nazionale di Fisica Nucleare)
    • 5:30 PM
      Coffee Break
    • Calcolo teorico e degli esperimenti: Parte 2 Sala Maria Luisa

      Sala Maria Luisa

      Hotel Hermitage - Isola d'Elba

      La Biodola 57037 Portoferraio (Li) Tel. +39.0565 9740 http://www.hotelhermitage.it/
      Convener: Domenico Elia (Istituto Nazionale di Fisica Nucleare)
      • 8
        Exploring the latent space of transcriptomic data with topic modeling

        The availability of high-dimensional transcriptomic datasets is increasing at a tremendous pace, together with the need for suitable computational tools. Clustering and dimensionality reduction methods are popular go-to methods to identify basic structures in these datasets. At the same time, different topic modeling techniques have been developed to organize the deluge of available data of natural language using their latent topical structure.
        This paper leverages the statistical analogies between text and transcriptomic datasets to compare different topic modeling methods when applied to gene expression data. Specifically, we test their accuracy in the specific task of
        discovering and reconstructing the tissue structure of the human transcriptome and distinguishing healthy from cancerous
        tissues. We examine the properties of the latent space recovered by different methods, highlight their differences, and
        their pros and cons across different tasks. We focus in particular on how different statistical priors can affect the results
        and their interpretability.
        Finally, we show that the latent topic space can be a useful low-dimensional embedding space, where a basic neural network classifier can annotate transcriptomic profiles with high accuracy.

        Speaker: Filippo Valle (Istituto Nazionale di Fisica Nucleare)
      • 9
        A user’s perspective on Disk Tiering and caching

        As the market trends towards larger hard disk drives to reduce operational costs, the throughput per terabyte (TB) is concurrently decreasing. Simultaneously, the shift of data reconstruction to earlier stages of data processing pipelines—up to the experimental triggers—is transforming the usage of storage resources. These resources are now expected to support multiple read cycles, as required to perform statistical analyses and machine learning algorithm training.

        The Worldwide LHC Computing Grid (WLCG) sites have observed a significant increase in the bandwidth demand for disk resource access, which is now replacing compute power as the primary bottleneck for data processing and analysis workflows. To address this, solutions involving faster drives, such as SSDs and NVMe technology, are under discussion.

        This contribution presents our experiences with tiering and caching strategies in the context of the LHCb experiment at CNAF. Specifically, we discuss the implementation of an NVMe-backed hot-storage pool, provisioned transparently via GPFS and StoRM-WebDAV storage. Additionally, we report on the AI_INFN Platform, which provisions resources for the ICSC - Spoke2 activities, and our attempt leveraging Cinder volumes fronted by NVMe disks for transparent caching.

        Although the discussion has not yet matured to the stage of definitive technical solutions, we believe that disk storage represents one of the most pressing challenges for the future of High Energy Physics (HEP) experiments. We aim to bring this issue to the forefront of the community’s attention, encouraging the development of analytics and fostering R&D initiatives.

        Speaker: Rosa Petrini (Istituto Nazionale di Fisica Nucleare)
      • 10
        Machine Learning-based Fast Simulation in ATLAS for LHC Run 3 and Beyond

        In view of the high luminosity campaign of the LHC (HL-LHC), the computational requirements of the ATLAS experiment are expected to increase remarkably in the coming years. In particular, simulation of Monte Carlo events is immensely demanding from the computational point of view and their limited availability is one of the major sources of uncertainty in many analyses. The main bottleneck in detector simulation is the detailed simulation of electromagnetic and hadronic showers in the ATLAS calorimeter system with the Geant4 software.
        In order to increase Monte Carlo statistics and better employ available resources, the ATLAS Collaboration has put into production the AtlFast3 fast simulation system, which runs simulation of events in the ATLAS detector in reduced time with respect to Geant4, guaranteeing at the same time good accuracy. This tool also employs Machine Learning models, harnessing their power to achieve these goals; these models are also trained on the Leonardo supercomputer at CINECA.
        This contribution presents the results obtained with the version of AtlFast3 currently in production for LHC Run 3, discussing the benefit it brings to ATLAS analyses in terms of computing resource usage and assessing its physics performance; the latest updates on the development of its future version are also presented, together with ideas and plans for the future of fast simulation in ATLAS also in view of HL-LHC.

      • 11
        La figura del Data Steward nell’INFN

        La Scienza Aperta si è affermata come paradigma dominante in tutti i settori della ricerca. Nella fisica nucleare e subnucleare, le grandi collaborazioni hanno fin da subito adottato i principi FAIR per la gestione dei dati, un approccio che si sta progressivamente diffondendo a comunità scientifiche più piccole e singoli esperimenti. Per favorire la concreta applicazione dei principi FAIR, numerose università e enti di ricerca hanno istituito team di Data Stewards, figure chiave a supporto della gestione dei dati della ricerca. Questo contributo presenta una proposta per delineare il profilo professionale dei Data Steward all'interno dell'INFN, illustrando alcuni esempi concreti di buone pratiche e di tipologie di supporto necessarie, tra cui una procedura guidata per la redazione del Data Management Plan (DMP), approcci che garantiscano pratiche di Long Term Data Preservation, linee guida per l’utilizzo dell’archivio istituzionale OAR e supporto per l’attribuzione delle licenze applicate al software sviluppato nel contesto delle attività di ricerca scientifica e tecnologica dell’INFN.

        Speaker: Lorenzo Rinaldi (Istituto Nazionale di Fisica Nucleare)
      • 12
        Sviluppo del PoC di computing model per piccoli/medi esperimenti di astroparticelle

        Con la nascita dell’infrastruttura INFN Cloud, inizialmente concepita per rispondere alle necessità delle collaborazioni CYGNO e QUAX, e più recentemente attraverso il lavoro svolto nell’ambito del WP3 dello Spoke 2-PNRR, è stato sviluppato un computing model per piccoli e medi esperimenti di astroparticelle. Questo modello è progettato per soddisfare i requisiti essenziali della gestione dei dati, del monitoraggio dei metadati prodotti dagli esperimenti e della creazione di un ambiente integrato per simulazione, ricostruzione e analisi.

        Il principio alla base dello sviluppo è stato quello di implementare tutti i servizi necessari al back-end dell’esperimento attraverso soluzioni containerizzate in ambiente Docker, garantendone generalizzabilità e scalabilità. Questo approccio ha permesso di integrare gli sviluppi del WP6 di DataCloud e di facilitare l’accesso a risorse eterogenee.

        Inoltre, parte del lavoro svolto ha portato alla realizzazione, grazie al supporto di WP2 di DataCloud, di un Proof of Concept (PoC) per lo sviluppo di un data lake di CSN2 destinato al calcolo su batch comune. Questo strumento consente di gestire richieste di calcolo di piccola entità o estemporanee, tipiche degli esperimenti astroparticellari di dimensioni ridotte, che non generano flussi di dati continui su larga scala come gli esperimenti grid-like.

        Verranno quindi presentati l’infrastruttura sviluppata, i risultati ottenuti e le prospettive future, con particolare attenzione agli sviluppi necessari per la ricerca di axion/axion-like particles con l’esperimento FLASH e ai progetti per lo studio delle Onde Gravitazionali ad alta frequenza nell’ambito del nuovo grant sinergy GravNet.

      • 13
        CTLab4ET: Updates on computing laboratory to support technology evolution for Einstein Telescope

        CTLab4ET (Computing Technology Laboratory for ET) was established under the ETIC (Einstein Telescope Infrastructure Consortium) project to provide the Einstein Telescope (ET) collaboration with a dedicated environment—nicknamed “TechZoo”—for testing and benchmarking emerging computing technologies. With ET’s operational horizon extending roughly a decade into the future, it is mandatory to keep pace with rapid advances in hardware and software to design a robust, scalable infrastructure for gravitational-wave data analysis. By late 2025, a first version of the ET computing model is anticipated, emphasizing the need for a laboratory capable of exploring novel technological
        architectures during the ET Preparatory Phase and for ET R&D in general.

        Procurement of the initial hardware resources was completed last year, establishing the foundation for TechZoo cluster. The laboratory will be inaugurated on April 14, 2025, and current efforts are focused on finalizing an access model that ensures transparent allocation of diverse resources—from CPU- to GPU-accelerated nodes—for a wide range of R&D activities. While CTLab4ET is funded by ETIC, it is committed to maintaining a close interplay with the “HPC Bubbles” initiative being developed under the TeRABIT project, thereby fostering synergies in high-performance computing at scale. A Kubernetes-based orchestration layer underpins the cluster, enabling the integration of heterogeneous hardware into both cloud-native and traditional workflows.

        This contribution provides an overview of the laboratory’s hardware infrastructure and the evolving software framework designed to make the cluster readily available to the collaboration, ensuring a dynamic testbed that can adapt to the evolving demands of ET data processing and foster innovative computing solutions.

    • Infrastrutture e sostenibilita': Parte 1 Sala Maria Luisa

      Sala Maria Luisa

      Hotel Hermitage - Isola d'Elba

      La Biodola 57037 Portoferraio (Li) Tel. +39.0565 9740 http://www.hotelhermitage.it/
      Convener: Daniele Cesini (Istituto Nazionale di Fisica Nucleare)
      • 14
        Introduzione alla sessione Infrastrutture e Sostenibilita'
        Speaker: Daniele Cesini (Istituto Nazionale di Fisica Nucleare)
      • 15
        WLCG Environmental Sustainability

        As computing demand at the LHC continues to rise, assessing and reducing its environmental impact has become a central pillar of the WLCG strategy for the coming year.
        In this talk, I will review the community‑wide initiatives and studies, bringing together both LHC experiments and WLCG computing sites to measure, monitor and reduce the environmental footprint of large‑scale scientific computing. I will also summarize the key findings from the December 2024 WLCG Environmental Sustainability Workshop, as well as the related reports at the recent HEPiX and WLCG Workshops.

        Speaker: Domenico Giordano (CERN)
      • 16
        Tecnologie per la sotenibilità al tecnopolo di Bologna
        Speaker: Luigi Benedetto Scarponi (CNAF Bologna)
      • 17
        Il nuovo Data Center HPC di LNF - infrastruttura e scelte progettuali

        A LNF è in costruzione un nuovo Data Center "space economy" da 1,2 MW finanziato da fondi PNRR e destinato ad ospitare una farm di calcolo scientifico in parte tradizionale e parte raffreddata ad acqua (DLC)
        Il talk presenterà le scelte progettuali, i criteri energetici e di affidabilità adottati, in linea con le best practice europee definite nel European Code of Conduct for Data Centres (EU DC CoC). In particolare saranno approfonditi gli aspetti dell'alimentazione e del cooling, centrato sul principio di recupero del calore da smaltire,già sperimentato a LNF,per il riscaldamento degli edifici LNF.

        Speaker: Ruggero Ricci (Istituto Nazionale di Fisica Nucleare)
      • 18
        Tavola rotonda: la sostenibilità energetica nell'INFN anche nel contesto nazionale e internazionale
        Speakers: Domenico Giordano (CERN), Luigi Benedetto Scarponi (CNAF Bologna), Marta Dalla Vecchia (Istituto Nazionale di Fisica Nucleare), Ruggero Ricci (Istituto Nazionale di Fisica Nucleare)
    • 11:00 AM
      Coffee Break
    • Infrastrutture e sostenibilita': Parte 2 Sala Maria Luisa

      Sala Maria Luisa

      Hotel Hermitage - Isola d'Elba

      La Biodola 57037 Portoferraio (Li) Tel. +39.0565 9740 http://www.hotelhermitage.it/
      Convener: Daniele Cesini (Istituto Nazionale di Fisica Nucleare)
      • 19
        Raspberry Pi Pico come sensori IoT: il monitoraggio dei consumi elettrici nel datacenter della Sezione di Padova

        La ricerca della miglior efficienza energetica è una sfida per i datacenter moderni in quanto i consumi incidono sui costi operativi, sull'ambiente e sull'infrastruttura di raffrescamento. Per definire le azioni migliorative è quindi fondamentale avere una maggiore consapevolezza dei consumi.
        L'implementazione di sensori IoT basati su Raspberry Pi Pico permette il monitoraggio in tempo reale della potenza assorbita da ogni rack del datacenter della sezione INFN di Padova.
        Oltre a fornire una visione dettagliata dei consumi, questi dispositivi agevolano le operazioni di bilanciamento del carico tra le fasi grazie ad una dashboard web sempre aggiornata.
        Infine l'integrazione con Influxdb e Grafana permette di archiviare e visualizzare lo storico dei dati, oltre a calcolare e visualizzare l'andamento del PUE nel tempo e la sua correlazione con la temperatura dell'ambiente esterno.

        Speaker: Daniele Piccoli (INFN - Padova)
      • 20
        Enabling performance insights: generating telemetry from software services developed at INFN-CNAF

        In a real-world production environment at large scale, where performance is crucial, it is very useful for software developers to understand how their code behaves and to precisely identify where bottlenecks may potentially occur.
        To obtain such information, developers can instrument their software, embedding probes and meters to collect data remotely. This concept, known in the industry as telemetry, permits to trace interesting code execution paths and precisely measure their time
        We have built and deployed a stack of several services to ingest different types of telemetry data, collected by instrumenting some software products we develop, enabling the real-time display of key product indicators (KPIs) on custom dashboards built in Grafana.
        In this contribution we present the described collector stack and how we have instrumented StoRM Tape, StorRM WebDAV and INDIGO IAM using the popular framework OpenTelemetry.

        Speaker: Jacopo Gasparetto (Istituto Nazionale di Fisica Nucleare)
      • 21
        Centro HPC ai LNGS: dalla visione alla progettazione e realizzazione

        I LNGS hanno sviluppato, nel corso degli ultimi 3 anni, il primo nucleo del futuro centro HPC sulla resilienza ai disastri utilizzando sia nodi di calcolo acquisiti da CINECA sia risorse finanziate dai LNGS stessi e da ICSC; il cluster e' funzionante e ospita use case e utenti di varie Istituzioni (vedi poster presentato al workshop 2024).

        Nel corso di quest'anno si svolgeranno le attivita' necessarie alla realizzazione completa del centro HPC e all'installazione di tutte le risorse di calcolo e storage acquisite, a partire dall'adeguamento del data center (finanziato con fondi ICSC).

        Dopo la fase di progettazione, in stretta collaborazione con la divisione tecnica dei LNGS, sono attualmente in corso, i lavori per la realizzazione di un'isola all'interno del data center, di un nuovo impianto di distribuzione elettrica protetto da UPS e di un sistema di raffreddamento free cooling e ridondato a servizio dell'isola.

        L’isola e’ stata progettata per ottimizzare lo spazio e massimizzare il numero di rack al suo interno; i 15 rack disponibili a regime ospiteranno i 400 server di calcolo del cluster Galileo di CINECA, server e storage acquisiti con fondi ICSC e risorse di altre istituzioni che partecipano o intendono partecipare alla realizzazione del centro.

        La disposizione dei rack e degli apparati nei rack, il cablaggio, la topologia della rete del centro HPC e il suo collegamento alla rete GARR sono stati progettati per garantire il miglior sfruttamento degli spazi, l’affidabilita’, l’espandibilita’ e il riutilizzo dell’infrastruttura in futuro.

        Si sta approntando il piano degli interventi necessari alla messa in funzione dei nuovi impianti nell'ottica di minimizzare l'impatto sui servizi informatici generali dei LNGS e sul calcolo degli esperimenti.

        Sono inoltre in via di installazione ai LNGS due PoP GARR (laboratori esterni e sotterranei) che garantiranno la necessaria capacita' e affidabilita' dei collegamenti dei LNGS e del centro HPC alla rete GARR.

        Grazie agli interventi in atto i LNGS si preparano a diventare il data center di riferimento per il calcolo sulla mitigazione e resilienza ai disastri (consorzio HPC4DR, ICSC spoke 5) e per gli enti di ricerca e gli Atenei sul territorio.

        Speaker: Sandra Parlati (Istituto Nazionale di Fisica Nucleare)
      • 22
        Advancements in Monitoring Infrastructure at INFN Torino Computing Centre

        Computing centres require sophisticated management and monitoring infrastructure to maintain operational efficiency. The increasing complexity of resource management necessitates robust frameworks capable of promptly responding to potential failures. This contribution provides an update on the monitoring framework at the INFN Torino computing centre, highlighting significant advancements implemented over the past year in response to challenges posed by the PNRR projects ETIC and TeRABIT.

        The monitoring solution has undergone substantial improvements across multiple domains.

        Advanced Database Architecture: Our PostgreSQL-based monitoring system now incorporates dedicated configuration tables for critical parameters. Thresholds, color schemes, and significant attribute values are now defined within the database structure, enhancing consistency and facilitating centralized management.

        Streamlined Dashboard Deployment: By leveraging the Grafana provisioning interface, we have automated the deployment of dashboards and data sources. We also employed Jsonnet and Grafonnet to build the structure of the main dashboard to overcome some limitations of Grafana itself. This approach ensures configuration consistency across the monitoring ecosystem while simplifying version control and reducing maintenance overhead.

        Enhanced Visualization Systems: We have developed sophisticated visualization tools including: A machine status dashboard with intuitive color-coded indicators representing various functions and health conditions; A dedicated power supply dashboard that visualizes power load distribution per rack and PDU bank, enabling optimized energy management.

        Integrated Protocol Framework: Our comprehensive monitoring approach combines multiple protocols: Redfish for modern performance metrics and its rich RESTful API interface; IPMI for hardware status retrieval where needed; SNMP for legacy device support.

        Speaker: Nicola Mosco (Istituto Nazionale di Fisica Nucleare)
    • 23
      Sponsor DELL - Open Rack v3 - A new form-factor for high density computing Sala Maria Luisa

      Sala Maria Luisa

      Hotel Hermitage - Isola d'Elba

      La Biodola 57037 Portoferraio (Li) Tel. +39.0565 9740 http://www.hotelhermitage.it/

      The evolving landscape of datacenters is being impacted by the increase in power consumption of chipsets and the mainstream adoption of liquid cooling. This talk explores a new alternative to traditional 19” rack design based on the OCP Open Rack v3 form factor, focusing on the different design approach and emphasizing the scalability, performance, and sustainability advancements granted by this new industry standard.

      Speaker: Paolo Bianco (DELL)
    • 1:00 PM
      Pranzo
    • Calcolo distribuito: Parte 1 Sala Maria Luisa

      Sala Maria Luisa

      Hotel Hermitage - Isola d'Elba

      La Biodola 57037 Portoferraio (Li) Tel. +39.0565 9740 http://www.hotelhermitage.it/
      Convener: Giacinto Donvito (Istituto Nazionale di Fisica Nucleare)
      • 24
        TBD
        Speaker: Davide Salomoni (Istituto Nazionale di Fisica Nucleare)
      • 25
        TBD
        Speaker: Luciano Gaido (Istituto Nazionale di Fisica Nucleare)
      • 26
        L'evoluzione del supporto utenti in DataCloud

        Il progetto INFN Cloud è nato nel Marzo 2021 con l'obiettivo di fornire agli utenti INFN un portafoglio di servizi di cloud computing, a livello PaaS, facile da usare e capace di rispondere alle diverse esigenze di calcolo, sia delle comunità scientifiche che dei singoli utilizzatori.

        Fin dall'inizio, per il successo di questo ambizioso progetto, è stata evidente l'importanza di avere un servizio di supporto agli utenti efficiente e affidabile, che coprisse l'uso dei servizi e, in parte, l'infrastruttura stessa.

        Per questo motivo INFN Cloud si è dotata di un sistema basato su una struttura multi livello in grado di rispondere alla vasta gamma di richieste, dalle più semplici come le registrazioni utenti a quelle che richiedono competenze tecniche avanzate, tenendo traccia di tutte le interazioni tra utenti, amministratori e sviluppatori. Alla fine del 2023, il progetto si è evoluto in DataCloud con l'obiettivo di integrare l'infrastruttura tradizionale «a Tier» tipica di WLCG e il modello «cloud-native». Successivamente, i progetti PNRR hanno introdotto un'ulteriore evoluzione, ampliando la platea di utilizzatori a comunità scientifiche esterne all'INFN e al mondo industriale. Questa trasformazione ha richiesto una riorganizzazione del supporto per rispondere alle richieste sempre più diversificate. In questa presentazione si vuole descrivere l'evoluzione del supporto in questi anni, con particolare attenzione alle sfide a cui va incontro e alle esigenze necessarie per mantenerne l'efficienza.

        Speaker: Carmelo Pellegrino (Istituto Nazionale di Fisica Nucleare)
      • 27
        TBD (Tier1)
      • 28
        Federating the ICSC resources of INFN Milano to INFN Datacloud: status and perspectives of the work on the bare metal Kubernetes/RKE2 cluster

        With its Datacloud infrastructure, INFN can rely on a scalable and nation-wide network of federated cloud sites. On this foundation, the PNRR-funded (National Recovery and Resilience Plan) ICSC project (National Research Center in High Performance Computing, Big Data and Quantum Computing) has been established to conduct R&D activities for innovation in high-performance computing, simulations, and big data analytics. The computing center managed by INFN Milano has increased its capacity as part of the ICSC efforts.

        INFN Milano opted for installing a bare metal Kubernetes/RKE2 cluster and federating the resources to the INFN Datacloud without the mediation of Openstack.

        This contribution describes the status of the federation of the ICSC resources at the INFN Milano computing center, namely:

        • JWT token ID to Kubernetes/RKE2 API access with multiple enabled IAMs
        • IPv6/IPv4 dual-stack configuration
        • load balancing
        • backup and restore
        • expedite recovery procedure after a catastrophic scenario where everything is destroyed (cluster and development/deployment tools)

        On-going work on the following topics is also described:

        • geographical extension of the cluster
        • hosting of HTC workload
        • integration with INFN DataCloud public interfaces
        Speaker: Francesco Dalessandro (Istituto Nazionale di Fisica Nucleare)
    • 4:50 PM
      Coffee Break
    • Calcolo distribuito: Parfte 2 Sala Maria Luisa

      Sala Maria Luisa

      Hotel Hermitage - Isola d'Elba

      La Biodola 57037 Portoferraio (Li) Tel. +39.0565 9740 http://www.hotelhermitage.it/
      Convener: Giacinto Donvito (Istituto Nazionale di Fisica Nucleare)
      • 29
        TBD (DataCloud)
      • 30
        StoRM WebDAV Authorization with Open Policy Agent: Implementation and Performance Enhancements

        StoRM WebDAV is a widely used storage service that provides WebDAV access to distributed storage systems. Initially, its authorization mechanism was simplistic, granting uniform access privileges to all members of trusted VOMS Virtual Organizations. With the introduction of support for trusted OpenID Connect/OAuth token issuers, starting from version 1.3.1, StoRM WebDAV includes a fine-grained authorization policy engine, enabling more detailed access control policies within storage areas.
        In this work, we present an alternative approach by integrating StoRM WebDAV with Open Policy Agent (OPA), a flexible and scalable policy decision engine. This integration aims to provide a more dynamic and decoupled authorization mechanism, improving maintainability and extensibility.
        We describe the implementation of the OPA-based authorization layer and evaluate its performance in comparison with the existing fine-grained StoRM WebDAV authorization engine. Our analysis focuses on request processing times and policy evaluation efficiency. This work aligns with the broader objective of establishing a uniform authorization layer within the Ri-SCALE project, in which the INFN is involved.

        Speaker: Federica Agostini (CNAF-INFN)
      • 31
        The INFN Cloud platform: state of the art and services implementation

        The National Institute for Nuclear Physics (INFN) has developed and manages "INFN Cloud," a federated cloud infrastructure that provides resources and a customizable service portfolio to the scientific communities it supports. The INFN Cloud platform’s federation middleware is based on the INDIGO PaaS Orchestration system, which integrates multiple open-source microservices and allows handling high-level deployment requests from users while orchestrating the deployment process across various IaaS platforms.
        As part of our involvement in national and European projects, we are enhancing the INFN Cloud platform by introducing new functionalities and developing additional microservices. This evolution stems from the need to replace obsolete PaaS components, leading to the integration of modern technologies, including artificial intelligence, to enable more efficient solutions while also improving user experience, accessibility, and automation.
        In particular, in this contribution, we provide details on the newly introduced services (the federation registry and feeder), the work done to integrate them into the PaaS Orchestration system, the updates to the Orchestrator dashboard aimed at introducing new features, and the introduction of the monitoring and the AI-ranker services to improve the provider ranking system. Additionally, new PaaS services have been designed, implemented, and made available to end users, such as the Kubernetes Cluster one that enables the transparent offloading of Kubernetes workloads to remote computation systems.

        Speaker: Luca Giommi (Istituto Nazionale di Fisica Nucleare)
      • 32
        Prime esperienze nell’integrazione di risorse eterogenee con InterLink: stato e sviluppi futuri

        L’integrazione di risorse eterogenee (Cloud, HTC, HPC...) fornite da provider distribuiti è una sfida tanto complessa quanto attuale. La complessità aumenta quanto più si intende garantire un utilizzo efficiente delle risorse, una gestione omogenea dei workload e una totale trasparenza dell’eterogeneità per l’utente finale. InterLink è stato sviluppato con l’obiettivo di rispondere a queste necessità: è in grado di eseguire qualsiasi container gestito tramite Kubernetes su qualunque backend, senza richiedere requisiti specifici all’utente. Recentemente InterLink è entrato nei progetti sandbox della Cloud Native Computing Foundation. In questo intervento verranno presentate le prime esperienze d’uso di interLink, nel contesto delle attività di WP6 di DataCloud e altre iniziative. Si inizierà presentando i casi d’uso supportati nell’integrazione delle risorse di Leonardo presso CINECA, per poi passare a quelle HTC fornite dai siti Grid INFN e agli ambienti HPC-Bubble. Successivamente verranno illustrati i principali risultati ottenuti e, infine, saranno presentati gli sviluppi futuri.

        Speaker: Giulio Bianchini (Istituto Nazionale di Fisica Nucleare)
      • 33
        Data Management e Storage Federation: verso la realizzazione del Datalake

        Il WP6 di DataCloud da tempo conduce un’attività di R&D sul data management e storage federation con l’obiettivo di verificare la fattibilità dell’adozione di un modello basato su tecnologie ben note (RUCIO+FTS) per la gestione dello storage presente nei centri di calcolo dell’ente. L’obiettivo prefissato era duplice: una verifica della funzionalità del sistema insieme ad una valutazione dell'impatto non solo sull’infrastruttura HW, ma anche sui servizi e sulle operazioni.

        La prima fase di R&D si è conclusa con successo ed è stato implementato un testbed di Datalake nel quale abbiamo federato storage eterogenei sparsi nel territorio nazionale. Questa infrastruttura permette ad un utente di interagire con i dati in maniera trasparente e dichiarativa (specificando, ad esempio, il numero di repliche necessarie di un data set, il ciclo vita, etc..). Un aspetto chiave di questa prima fase è stato l’on-boarding di alcune comunità scientifiche dell’INFN (Darkside, Dampe ed Euclid) che ha permesso di dimostrare con use case concreti la funzionalità del modello proposto. Queste tecnologie sono inoltre utilizzate nel proof-of-concept ICSC e Terabit, nel quale abbiamo in programma di federare anche uno storage esterno all’infrastruttura INFN (CINECA). In aggiunta, abbiamo testato diverse policy di accesso ai dati, visto l’altissimo livello di personalizzazione del sistema.

        In questa presentazione mostreremo lo stato dell’arte dell’infrastruttura e le evoluzioni che prevediamo nel breve futuro. Infine mostreremo i modelli di deployment che pensiamo possano essere messi in produzione a supporto degli esperimenti impegnati nella costruzione del loro computing model e che hanno bisogno di supporto rispetto alla gestione dei dati.

        Speaker: Antonino Troja (Istituto Nazionale di Fisica Nucleare)
      • 34
        Backup dati utenti INFN Cloud

        All’interno della Cloud INFN, in cui l'utente ha il pieno controllo sulle istanze gestite, il backup semiautomatico dei dati rappresenta un aspetto cruciale per garantire la continuità operativa e prevenire la perdita dei dati causata da errori umani, guasti hardware o attacchi informatici.

        Il presente lavoro si propone di mettere a disposizione degli utenti della piattaforma un sistema integrato "pronto all'uso", riducendo al minimo la necessità di configurazioni complesse e interventi manuali, semplificando così il processo di backup e offrendo, al contempo, un adeguato livello di affidabilità e sicurezza.

        La soluzione proposta si basa su un container appositamente realizzato, che integra in maniera trasparente una serie di applicativi open-source atti a pianificare, eseguire e monitorare in maniera automatizzata i backup delle istanze, utilizzando lo storage personale INFN Cloud come back-end per la conservazione dei dati. Attraverso la modifica di un file di configurazione gli utenti possono gestire facilmente i propri processi di backup, scegliendo tra diverse opzioni di conservazione e frequenza, per adattare la soluzione alle proprie specifiche esigenze operative.

        Nonostante la semplicità d'uso, la soluzione offre, grazie all'impiego del software restic, numerose funzionalità avanzate, quali crittografia integrata, deduplicazione dei dati, backup incrementale e un controllo dettagliato nella gestione degli snapshot.

        Inoltre, la configurazione modulare degli applicativi consente agli utenti più avanzati di personalizzare facilmente la soluzione, ad esempio modificando il back-end o utilizzando tool di terze parti sviluppati dalla fiorente community attorno al software restic. Pertanto, con gli opportuni adattamenti, questa soluzione potrebbe potenzialmente essere usata per il backup anche in contesti diversi dalla Cloud, come i servizi calcolo delle strutture INFN.

        Speaker: Alessandro Alberto Oliva (INFN-LNS)
    • Security e compliance: Parte 1 Sala Maria Luisa

      Sala Maria Luisa

      Hotel Hermitage - Isola d'Elba

      La Biodola 57037 Portoferraio (Li) Tel. +39.0565 9740 http://www.hotelhermitage.it/
      Convener: Luca Giovanni Carbone (Istituto Nazionale di Fisica Nucleare)
      • 35
        2FA "mito" e realtà - Collaborazione AAI-WG

        Nell'ultimo anno il gruppo AAI è stato costantemente impegnato nel passaggio al "secondo fattore di autenticazione". Se passare al secondo fattore è stato tutto sommato abbastanza lineare da un punto di vista tecnico, molto complessa si è invece rivelata l'adozione globale portata a termine a inizio aprile. Molte sono state le resistenze, basti pensare al fatto che circa il 50% degli utenti è passato al secondo fattore solo nel momento in cui è diventato obbligatorio.
        Ci è apparso chiaro che a dispetto del notevole livello tecnologico del nostro Ente la transizione a tecnologie digitali si può rivelarsi complessa sulla scala INFN e fare qualcosa di semplice (che facciamo tutti per la banca ad esempio) può anche essere rifiutato.
        Perché?
        Il gruppo AAI ha provato a riflettere sul problema anche per facilitare eventuali future transizioni digitali su scala nazionale. Di seguito alcuni spunti di riflessione.
        Quanto conta lo storytelling? AAI è una infrastruttura nazionale ma poi sono stati i singoli e le singole sedi a dover effettuare il passaggio. Esistono diversi modi per raccontare la stessa cosa. Può essere la modalità del racconto a influenzare la partecipazione?
        Le istruzioni sono state cambiate in corsa perché ritenute troppo difficili. Anche se una certa complessità nasceva dal vincolo di dover permettere un secondo fattore senza smartphone, erano davvero così complicate? Come sono le istruzioni semplici? Cosa è davvero efficace?
        E' davvero necessario evitare di usare lo smartphone?
        L'inclusività. Capire che il secondo fattore poteva rappresentare un problema per alcuni colleghi ci ha fatto riflettere sul fatto che in ogni progetto l'inclusività deve essere by default e by design.
        Le analisi di quanto sopra, effettuate all’interno della collaborazione AAI-WG, saranno esposte in una presentazione mantenuta breve per lasciare lo spazio adeguato alla discussione e alla riflessione collettiva

        Speaker: Silvia Arezzini (Istituto Nazionale di Fisica Nucleare)
      • 36
        Fishare 2fa: Una dimostrazione

        Si fara una dimostrazione live (connessione di rete permettendo) di phishing su INFN AAI con secondo fattore abilitato. Verranno poi spiegate le tecniche utilizzate per ottenere l'accesso

        Speaker: Vincenzo Ciaschini (Istituto Nazionale di Fisica Nucleare)
      • 37
        NIS2 & friends: un'altra corsa verso la prossima sconfitta?
        Speaker: Leonardo Lanzi (GARR)
      • 38
        Tavola rotonda: Normativa NIS2
        Speakers: Leonardo Lanzi (GARR), Luca Giovanni Carbone (Istituto Nazionale di Fisica Nucleare)
    • 39
      Sponsor WETECH'S - AI vs Cyber Threats: L’Intelligenza Artificiale nella Nuova Frontiera della Sicurezza Sala Maria Luisa

      Sala Maria Luisa

      Hotel Hermitage - Isola d'Elba

      La Biodola 57037 Portoferraio (Li) Tel. +39.0565 9740 http://www.hotelhermitage.it/
      Speaker: Luca Francioso (WETECH'S)
    • 10:35 AM
      Coffee Break
    • 40
      Sponsor SUPERMICRO - Infrastrutture sostenibili AI-Ready e HPC per la ricerca scientifica Sala Maria Luisa

      Sala Maria Luisa

      Hotel Hermitage - Isola d'Elba

      La Biodola 57037 Portoferraio (Li) Tel. +39.0565 9740 http://www.hotelhermitage.it/

      L’evoluzione dei carichi di lavoro scientifici nell’ambito INFN – dai piccoli ai grandi esperimenti fino ai progetti di fisica teorica computazionale – richiedono infrastrutture di calcolo sempre più potenti, flessibili e sostenibili.
      Supermicro, leader globale nelle soluzioni server ad alte prestazioni, illustrerà le più recenti innovazioni hardware per ambienti AI-driven e HPC, progettate per soddisfare i requisiti di scalabilità, efficienza energetica e sicurezza in contesti accademici e di ricerca avanzata.

      Durante l’intervento verranno presentate:
      Architetture GPU-accelerate per training/inferenza AI e HPC
      Infrastrutture energy-aware con raffreddamento a liquido (DLC) o combinato aria/liquido e design rack-scale per data center scientifici sostenibili.

      Speakers: Alan Teichmann-Tarquini (Supermicro - Senior Sales ManagerLeader HPC/AI market), Antonio Vigorito (Supermicro - Field Application Engineer)
    • Security e compliance: Parte 2 Sala Maria Luisa

      Sala Maria Luisa

      Hotel Hermitage - Isola d'Elba

      La Biodola 57037 Portoferraio (Li) Tel. +39.0565 9740 http://www.hotelhermitage.it/
      Convener: Luca Giovanni Carbone (Istituto Nazionale di Fisica Nucleare)
      • 41
        Stato e prospettive della piattaforma di calcolo certificata EPIC Cloud

        Il talk descrivera' lo stato della cloud certificata ISO 27001 27017 27018 e le prospettive di sviluppo verso la creazione di una piattaforma integrata per:
        - Genomica Computazionale
        - Virtual Human Twin
        - Virtual Image Trials
        - Molecular tumor board
        costruita mettendo a sistema le esperienze fatte nell'ambito delle collaborazioni INFN con IRCCS AOU (Sant'Orsola) e nell'ambito di progetti e iniziative life science come ICSC Spoke8, DARE, Health Big Data, THE, VITA, AIM_MIA, Elixir e altre attivita' che fanno capo al comitato INFN4LS https://web.infn.it/INFN4LS/

        Speaker: Barbara Martelli (Istituto Nazionale di Fisica Nucleare)
      • 42
        Progettazione e test di un NextGen SOC “Security Onion” AI-Based

        Nel panorama attuale della cybersecurity, minacce sempre più sofisticate come APT, ransomware e attacchi zero-day richiedono strategie di difesa reattive ma soprattutto proattive, in grado di rilevare e mitigare rapidamente attività anomale e malevole. La realizzazione di un Security Operations Center (SOC) è una delle risposte più efficaci, ma spesso è percepita come una soluzione accessibile solo a realtà di grandi dimensioni, a causa dei costi elevati delle piattaforme commerciali.
        In questo contesto si inserisce Security Onion, una piattaforma open source che consente di costruire un SOC completo e modulare. L'architettura del SOC qui presentata è costituita da una macchina centrale su cui è installato Security Onion in modalità standalone. Abbiamo collegato alcuni nodi configurati per generare e ricevere traffico benigno e malevolo rappresentativo di situazioni reali, al fine di condurre test realistici di detection e risposta.
        Il flusso operativo si sviluppa in tre fasi principali:
        1) SIEM: Raccolta, parsing e correlazione dei log
        2) SOAR: Automazione della risposta e gestione degli incidenti
        3) Monitoraggio degli host
        Per migliorare il framework è stato sviluppato e integrato nella pipeline di Security Onion un modulo IDS AI-based per analizzare in tempo reale il traffico di rete. Questo modulo applica modelli di machine learning per rilevare comportamenti anomali e potenziali attacchi sconosciuti, con l’obiettivo di ridurre i falsi positivi e migliorare la capacità di individuare minacce emergenti.
        L’intero sistema è stato implementato in ambiente di test, sfruttando una macchina fisica del CNAF per la parte centrale e un'infrastruttura virtualizzata per i test. Abbiamo collegato alcuni nodi configurati per generare e ricevere traffico benigno e malevolo rappresentativo di situazioni reali, al fine di valutare l'efficacia del sistema in scenari concreti.
        Lo scopo finale del progetto è arrivare a una configurazione granulare e distribuita, in cui un SOC centrale sarà in grado di permettere un monitoraggio attivo e proattivo della sicurezza informatica dell’intera organizzazione, con un'infrastruttura modulare, scalabile e sostenibile.

        Speaker: Mr Vincenzo Rega (Istituto Nazionale di Fisica Nucleare)
      • 43
        Analisi di un attacco Malware su WordPress

        Il presente lavoro analizza un attacco malware riuscito ai danni di un sito WordPress, con un focus specifico sul reverse engineering di plugin malevoli scritti in PHP. Il codice dannoso sfrutta PHP e JavaScript esterno per eseguire azioni illecite e implementa tecniche di offuscamento, tra cui encoding ASCII/Hex e manipolazione dinamica delle variabili.
        Uno degli aspetti chiave del codice offuscato riguarda la sostituzione ricorsiva delle variabili e l'uso dell'istruzione <goto>, impiegate per confondere il flusso di esecuzione ed eludere i meccanismi di analisi statica. Attraverso un approccio combinato di analisi statica, è stato possibile deoffuscare il codice, ripristinare la logica esecutiva originale e individuare i meccanismi di comunicazione con server remoti. L’analisi è stata condotta in un ambiente isolato e controllato, garantendo la sicurezza dell’infrastruttura di test.
        I risultati dello studio hanno permesso di valutare la reale pericolosità del malware, evidenziando le sue capacità di evasione, persistenza, tecniche e portata dell’attacco.

        Speaker: Francesco Amori (Istituto Nazionale di Fisica Nucleare)
    • 1:00 PM
      Pranzo
    • Poster: Incontro con gli autori Sala Maria Luisa

      Sala Maria Luisa

      Hotel Hermitage - Isola d'Elba

      La Biodola 57037 Portoferraio (Li) Tel. +39.0565 9740 http://www.hotelhermitage.it/
    • 44
      Sponsor E4 COMPUTING ENGINEERING - Heterogenous Computing: from Benchmark to Reconfigurable Infrastrucure Sala Maria Luisa

      Sala Maria Luisa

      Hotel Hermitage - Isola d'Elba

      La Biodola 57037 Portoferraio (Li) Tel. +39.0565 9740 http://www.hotelhermitage.it/

      In the book the “Fourth Paradigm” it is described how scientific computing and data-driven research have become the third and fourth pillars of science following observation and theoretical modeling and it is debated whether AI constitutes a separate fifth pillar. In case, computing infrastructures play a critical role in building upon these pillars either in running bottom-up simulations or processing large amounts of data from experimental sources such as it happens in high energy physics or biology or using machine learning techniques whose training process is based on these data. On one hand this evolution has meant for HPC centers providing computing power to adapt to different necessities at any scale and this demand for increased flexibility has caused increased complexity with more complicated software stacks and ways to access a computing facility; on the other hand, external constraints such as the pressure from the industrial sector (with the push to architectures specialized for inference and low precision integer arithmetic), the right demand for a controlled carbon footprint and finally the existence of heterogeneous platforms demands for accurate management of HPC workloads and infrastructures in order to adapt to different demands and still provide optimal performance, reliability and power use. In E4 we have labeled this as “reconfigurable HPC” and we are developing a complete hardware portfolio and software stack that blends the flexibility of procedures inherited from the cloud and the level of control and optimization required by on premise HPC cluster. In the presentation some case studies will be presented, starting from the evaluation of different architecture s for different workloads to examples of how this end-to-end building of HPC uses different solutions for lifecycle management, installation of software, orchestration and monitoring, in accordance with user’s necessities. A perspective will be given to a direction in which also E4 wants to proceed of a data driven HPC in which monitoring and analysis play a central role in the design and operation of an infrastructure.

      Speaker: Giordano Mancini (E4 Computer Engineering)
    • 45
      Sponsor SCHNEIDER ELECTRIC - Integrazione e Sostenibilità nei Data Center: Affrontare le Sfide Energetiche e Tecnologiche nell’era dell’AI e del Super Calcolo Sala Maria Luisa

      Sala Maria Luisa

      Hotel Hermitage - Isola d'Elba

      La Biodola 57037 Portoferraio (Li) Tel. +39.0565 9740 http://www.hotelhermitage.it/

      Questo panel intende fornire una panoramica completa delle sfide e delle opportunità nel settore dei data center, proponendo visioni innovative per un futuro sostenibile, evidenziando come le scelte tecnologiche e operative in questo settore possano generare lo sviluppo di data center resilienti, sostenibili e strategicamente rilevanti per il futuro.
      Si discuteranno le tecnologie e le soluzioni integrate necessarie per affrontare nuovi scenari energetici, con particolare attenzione alla sostenibilità dei data center. L'adozione di pratiche ecologiche e l'integrazione di soluzioni come le micro-grid e le fonti rinnovabili diventa essenziale non solo per ridurre l'impatto ambientale, ma anche per garantire la resilienza delle infrastrutture di calcolo in un contesto energetico in evoluzione.
      Inoltre, il panel esaminerà le sfide legate all'infrastruttura IT, focalizzandosi sulla progettazione del white space, un aspetto cruciale per ottimizzare l'efficienza operativa e l'adattabilità dei data center alle esigenze richieste da applicazioni come l’HPC e l’AI dove l’aumento di potenza determina
      Infine, l'architettura del raffreddamento nei data center sarà analizzata alla luce dell'era delle GPU cuore delle applicazioni AI e HPC, esplorando come le nuove tecnologie di raffreddamento affrontano le sfide della dissipazione di alta densità di calore, possano migliorare le performance energetiche e contribuire a un'operatività più sostenibile.

      Speaker: Alessandro Caramia (Schneider Electric - Head of Data Center Solution Sales – Secure Power Division – Schneider Electric President of Sustainability Technical Committee – IDA Italian Data Center Association)
    • 4:20 PM
      Coffee Break
    • Intelligenza artificiale: Parte 1 Sala Maria Luisa

      Sala Maria Luisa

      Hotel Hermitage - Isola d'Elba

      La Biodola 57037 Portoferraio (Li) Tel. +39.0565 9740 http://www.hotelhermitage.it/
      Convener: Tommaso Boccali (Istituto Nazionale di Fisica Nucleare)
      • 46
        La AI nell'INFN
        Speaker: Daniele Bonacorsi (Istituto Nazionale di Fisica Nucleare)
      • 47
        Il position paper INFN sull’AI
        Speaker: Luca Dell'Agnello (Istituto Nazionale di Fisica Nucleare)
      • 48
        L’infrastruttura AI nell’INFN
        Speaker: Lucio Anderlini (Istituto Nazionale di Fisica Nucleare)
      • 49
        What’s happening in the EU commission? A gentle introduction to the AI Act

        As the appointed INFN Point of Contact within the European Union (EU) Commission for the development of the General Purpose Artificial Intelligence (GPAI) Code of Practice (CoP) under the landmark AI Act, I propose a concise yet insightful presentation. This talk will delve into the intricacies of the AI Act, a pioneering legislative framework designed to regulate the burgeoning EU Artificial Intelligence market through a risk-based approach. Some key points, starting from the foundational definitions to the taxonomy of risk, underpinning the Act, will be discussed. Subsequently, I will provide an overview of the collaborative process involved in drafting the GPAI CoP, highlighting the progress achieved thus far, culminating in the Third Draft version. Notably, the final deadline for this document has been set for May 2025, underscoring the urgency and significance of this endeavor. The drafting process is structured around four distinct Working Groups, each addressing critical facets of AI governance. The first group focuses on transparency and copyright considerations, ensuring ethical and legal compliance. The second group examines systemic risk assessment while the third group delves into technical risk mitigation strategies. Finally, the fourth group addresses governance risk mitigation, establishing frameworks for responsible AI management.
        This discussion is of paramount importance for the INFN community. By fostering a collective understanding of these key topics, we can cultivate a unified perspective and a shared vision for the future of AI initiatives within our institute. This effort is important to strategically position INFN in the development and application of responsible and innovative AI technologies, shaping the future of scientific research and beyond.

        Speaker: Francesca Lizzi (Istituto Nazionale di Fisica Nucleare)
      • 50
        Tavola rotonda
        Speakers: Alessandra Retico (Istituto Nazionale di Fisica Nucleare), Enrico Pasqualucci (Istituto Nazionale di Fisica Nucleare), Francesca Lizzi (Istituto Nazionale di Fisica Nucleare), Luca Dell'Agnello (Istituto Nazionale di Fisica Nucleare), Lucio Anderlini (Istituto Nazionale di Fisica Nucleare), Tommaso Boccali (Istituto Nazionale di Fisica Nucleare)
    • 11:00 AM
      Coffee Break
    • Intelligenza artificiale: Parte 2 Sala Maria Luisa

      Sala Maria Luisa

      Hotel Hermitage - Isola d'Elba

      La Biodola 57037 Portoferraio (Li) Tel. +39.0565 9740 http://www.hotelhermitage.it/
      Convener: Tommaso Boccali (Istituto Nazionale di Fisica Nucleare)
      • 51
        Exploring Novel Neuromorphic Computing Architectures with a Multi-Node FPGA System

        Brain-inspired Spiking Neural Networks represent a promising frontier in computational models, offering potential advantages over traditional computing paradigms in terms of energy efficiency, temporal information processing, and adaptability to dynamic data. This can benefit numerous applications, such as real-time signal processing and pattern recognition in resource-constrained environments. Neuromorphic computing is an approach to hardware architecture design to efficiently implement these biologically-inspired networks, balancing biological plausibility against computational efficiency.

        This presentation describes a new multi-core neuromorphic architecture prototype that is under development within the INFN Brainstain project, bringing together the diverse expertise present inside CSN5, from computational neuroscience to the design and implementation of high performance computing architectures dedicated to physics tasks.

        Leveraging on the proprietary APEIRON framework for flexible, low latency communication we aim to deploy our architecture prototype on a multi-FPGA system, adopting a software-hardware codesign workflow that relies on the High Level Synthesis (HLS) programming paradigm for relatively fast and simple translation from a high level simulator of the architecture to the hardware design. Flexibility and modularity will allow us to explore support for different models of neuron dynamics, such as multi-compartment neuron models, and study the system performance with different inter-core communication schemes, and with different AI applications.

        This presentation will discuss our architectural approach, the current and planned features of the system, the status of the project and an outline of its future direction.

        Speaker: Pierpaolo Perticaroli (Istituto Nazionale di Fisica Nucleare)
      • 52
        Generative AI enhances conventional fluorescence microscopy towards super-resolution capabilities

        In recent years, Super-Resolution Microscopy (SRM) techniques have pushed the resolution of fluorescence microscopy down to the nanoscale, enabling the observation of in vivo cellular processes. Some of these techniques, such as Stochastic Optical Reconstruction Microscopy (STORM), achieve resolutions below 20 nm. However, they are less suitable for live imaging due to acquisition times of up to 90 minutes for a single image and present significant challenges for multicolor imaging.

        To address these limitations, we employed a deep learning model, the Enhanced Super-Resolution Generative Adversarial Network (ESRGAN), to generate super-resolution images from diffraction-limited ones. This approach allows us to massively accelerate STORM acquisition and overcome the complexities associated with multicolor imaging. Specifically, we trained the model to produce STORM-like images from diffraction-limited widefield (WF) images, which can be acquired in seconds using a conventional fluorescence microscope.

        We used a dataset comprising 76 pairs of High-Resolution (HR) and Low-Resolution (LR) images of cellular microtubules (STORM and WF images, respectively) to fine-tune a pre-trained ESRGAN model on this new image domain. Specifically, there is an upscaling factor of 4 between LR and HR images, with the HR images having dimensions of $2048 \times 2048$ pixels and file size ranging from 1 to 3 MB. Due to the large dimensions and file sizes, processing these images is computationally intensive.
        The model, which consists of nearly $4 \cdot 10^{7}$ parameters, was trained over several sessions, each consisting of $4 \cdot 10^{5}$ iterations with different hyperparameter settings. During each iteration, the network minimizes a complex four-term perceptual-driven loss function to progressively generate images that closely resemble the original STORM images to a human observer. The performance of the model during training were validated using Peak-to-Signal Noise Ratio (PSNR) and Structure Similarity Index (SSIM) metrics every $10^{4}$ iterations and finally assessed on indipendent test sets.
        Overall, all these operations constitute a computationally demanding process. To perform it, we employed the resources provided by the Computing Center of the Pisa Section of INFN. Our setup included 10 $\times$ 10-core Intel Xeon E5-2640v4 @2.40 GHz processors, 1 NVIDIA Tesla V100 with 32 GB VRAM, and 64 GB RAM, achieving an average execution time of 36 hours.
        Additionally, we evaluated the network's performance on a benchmark dataset and obtained results comparable to other state-of-the-art models, though with a higher resolution scaling factor. Once trained, the model generates super-resolution images in a few seconds per image. A selected trained model has already been applied to directly observe molecular motor movement as with dual-color STORM technique, greatly facilitating and accelerating the procedure, thereby enhancing the study of cellular in vivo processes and enabling faster quantitative analysis.

        Acknowledgments
        The authors acknowledge European Union by the Next Generation EU through the Italian Ministry of University and Research under PNRR - M4C2-I1.5 ECS00000017 “Ecosistema dell’innovazione” Tuscany Health Ecosystem - THE project (Spoke 1 “Advanced Radiotherapies and Diagnostics in Oncology” and Spoke 4 "Nanotechnologies for diagnosis and therapy"), CUP I53C21000350006, CUP I53C22000780001; INFN-CSN5 under the Minibeam Radiotherapy (MIRO) project; Fondazione Pisa prog. n. 134/202; Center for Instrument Sharing of the University of Pisa (CISUP) is acknowledged for the access to the Fluorescence Super-Resolution Microscopy facility.

        Speaker: Simone Lossano (Istituto Nazionale di Fisica Nucleare)
      • 53
        Advanced Tracking Analysis in Space Experiments with Graph Neural Networks

        The integration of advanced artificial intelligence techniques into astroparticle experiments marks a transformative step in data analysis and experimental design. As space missions grow increasingly complex, the adoption of AI technologies becomes critical to optimizing performance and achieving robust scientific outcomes.
        This study focuses on the development of innovative AI-driven algorithms for tracking purposes, leveraging the power of Graph Neural Networks (GNNs). GNNs, a subset of geometric deep learning, are well-suited for exploiting the inherent graph structure of tracking systems, where nodes correspond to energy deposits (hits) and edges represent their interconnections. These networks enable a range of tasks, including node classification, link prediction, and graph classification, tailored to the specific challenges of space-based experiments.
        A key obstacle in tracking systems for space experiments is the high-noise environment, characterized by backscattering tracks from calorimeter, which complicate the accurate identification of the primary particle trajectory. To overcome this, we propose a novel GNN-based approach for node-level classification, designed to distinguish noise hits, which include backscattering hits and electronic noise, from signal hits and accurately reconstruct particle tracks
        The algorithm recognizes the primary hits among the noises one and allows to easily retrieve the track parameters. We will present the algorithm's architecture and the training strategy, which includes parallelization across multiple GPUs to reduce both time and memory consumption and the preliminary results achieved.
        By addressing these challenges, our work aims to improve the accuracy and reliability of data interpretation in astroparticle physics, paving the way for more precise and insightful discoveries through the application of cutting-edge AI methodologies.

        Speaker: Dr Federica Cuna (Istituto Nazionale di Fisica Nucleare- Sezione di Bari)
      • 54
        INFN Cloud Kubeflow as a Platform (KaaP) and a ChatBot use case

        Kubeflow is an open-source Machine Learning (ML) platform built on Kubernetes providing a comprehensive set of tools to manage every step of the ML lifecycle.

        With Kubeflow, you can design, build, deploy and maintain an ML solution, therefore managing the end-to-end ML lifecycle.

        INFN Cloud offers a "Kubernetes Cluster" PaaS service, we aim to enrich this service with an additional option to configure and deploy a Kubeflow instance on top of it, adding therefore "Kubeflow as a Platform" - KaaP - to the INFN Cloud portfolio.

        In this presentation we provide a general introduction to Kubeflow, then we present a use case that we are developing within the INFN Information Systems Department (DSI): a fully hosted QA system - ChatBot - powered by a Large Language Model (LLM) that assists users with questions about the INFN LibroFirma application.

        The ChatBot is built using KaaP components:
        - Kubeflow Notebooks: JupyterLab instances to develop and test python code;
        - Kubeflow Pipelines: a multi-stage pipeline that periodically fetches and indexes new tickets from LibroFirma ServiceDesk to keep the ChatBot knowledge base up to date;
        - KServe: model serving platform that exposes text embeddings and chat completion endpoints;
        - Kotaemon: an open-source project to implement the QA system.

        The LibroFirma use-case, developed on top of KaaP, provides a reference implementation that can be customized to implement a QA system on any knowledge base.

        Speaker: Mauro Gattari (Istituto Nazionale di Fisica Nucleare)
    • 55
      Sponsor VERTIV - Abilitare l’AI con infrastrutture HPC ad alte prestazioni: efficienza, densità e scalabilità Sala Maria Luisa

      Sala Maria Luisa

      Hotel Hermitage - Isola d'Elba

      La Biodola 57037 Portoferraio (Li) Tel. +39.0565 9740 http://www.hotelhermitage.it/

      L’intelligenza artificiale sta rivoluzionando il modo in cui elaboriamo i dati, ma senza un’adeguata gestione dell’energia e del raffreddamento, le sue potenzialità restano limitate. La nostra tecnologia abilita l’AI fornendo piattaforme HPC ottimizzate per la gestione di carichi di lavoro estremi, garantendo massima densità computazionale, efficienza energetica e scalabilità senza compromessi.

      Attraverso l’adozione di architetture ad alta densità, soluzioni di raffreddamento avanzato e un'ottimizzazione mirata della continuità elettrica, rendiamo possibile l’esecuzione di modelli AI sempre più complessi, riducendo al contempo gli investimenti e i costi operativi. Durante l’intervento verranno presentati casi applicativi reali che dimostrano come la nostra infrastruttura supporti AI training su larga scala, inferenza in tempo reale e workload misti HPC/AI, accelerando ricerca, industria e applicazioni mission-critical.

      Attraverso queste esperienze, sarà possibile comprendere come un sistema di condizionamento e continuità elettrica correttamente progettato possa supportare le applicazioni HPC e AI-ready, che rappresentano la baseline per le nuove frontiere di innovazione e competitività. L’AI ha bisogno di potenza, efficienza e affidabilità: noi forniamo le soluzioni per renderla operativa su larga scala.

      Speaker: Maurizio Giordano (Vertiv - Solution Architect and National KAM for strategic Account)
    • 1:00 PM
      Pranzo
    • Technology Tracking: Parte 1 Sala Maria Luisa

      Sala Maria Luisa

      Hotel Hermitage - Isola d'Elba

      La Biodola 57037 Portoferraio (Li) Tel. +39.0565 9740 http://www.hotelhermitage.it/
      Convener: Michele Michelotto (Istituto Nazionale di Fisica Nucleare)
      • 57
        Automazione della rete ottica in GARR-T: approcci, sfide e soluzioni

        GARR-T, l’ultima generazione della rete GARR attiva dal 2023, è un’infrastruttura in continua evoluzione, progettata per offrire maggiore capillarità, capacità di trasmissione potenziata e nuove funzionalità software. Questa evoluzione consente di espandere la rete con connessioni sottomarine e abilitare applicazioni avanzate oltre la trasmissione dati.

        Nel percorso verso l’automazione della rete ottica, abbiamo affrontato diverse sfide. Sebbene Ansible si sia rivelato utile per attività di base come gli aggiornamenti, la mancanza di moduli idempotenti ha reso complessa l’automazione avanzata. Allo stesso tempo, l’API limitata del controller del vendor non offriva tutte le funzionalità disponibili nella GUI, costringendoci a compromessi o a lunghe attese per aggiornamenti.

        Per superare questi ostacoli, abbiamo adottato un framework sviluppato in ambito NREN come Workflow Orchestrator, adottando un approccio incrementale e partendo dai servizi più critici. Attraverso modelli di servizio astratti, client Python per la comunicazione diretta con i dispositivi (RESTCONF e TL1 per i ROADMs) e workflow modulari, abbiamo ottenuto un’architettura scalabile e adattabile. Questo metodo ha permesso di separare intenti astratti e configurazioni specifiche, semplificando l’integrazione di nuovi hardware ed evitando soluzioni frammentate e vincolate ai vendor.

        Lo sviluppo del prototipo in laboratorio è stato completato con successo e attualmente utilizziamo una beta version per completare le migrazioni dei servizi di rete prevista nei progetti ICSC e TeRABIT, il sistema entrerà in produzione per il provisioning dei servizi trasmissivi in tempo per la conferenza. In questa presentazione discuteremo le scelte architetturali, le lezioni apprese e il potenziale di questo approccio per il futuro dell’automazione di rete.

        Speaker: Paolo Bolletta
      • 58
        Una federazione di storage S3?

        In questo intervento presenteremo la proposta di un nuovo servizio comunitario.
        Il progetto di Federazione Storage S3 mira a creare un servizio di storage federato qualificato ACN basato sul protocollo S3, gestito da Università e Centri di Ricerca. Questo servizio offrirà un controllo completo sui dati, riducendo la latenza di accesso e migliorando la sicurezza e la continuità del servizio. La proposta include un modello collaborativo e un'architettura on-premise federata, con l'obiettivo di garantire l'autonomia digitale e ridurre la dipendenza dai cloud provider commerciali.
        Nell'intervento descriveremo i requisiti sul servizio, gli obiettivi della fase pilota in corso e le azioni che stiamo intraprendendo con CRUI per rendere il servizio sostenibile.

        Speaker: Massimo Carboni (LNF - GARR)
    • 59
      Sponsor LENOVO - AI Factories: La fucina per Opportunità e Sfide Sala Maria Luisa

      Sala Maria Luisa

      Hotel Hermitage - Isola d'Elba

      La Biodola 57037 Portoferraio (Li) Tel. +39.0565 9740 http://www.hotelhermitage.it/

      L'ascesa delle Fabbriche di Intelligenza Artificiale rappresenta un cambiamento fondamentale nella generazione di innovazione e valore. Questo discorso chiave esplora le dinamiche essenziali che alimentano questi complessi motori di progresso. Approfondiamo le fondamenta cruciali e le considerazioni operative necessarie per sviluppare e implementare efficacemente una gamma di sistemi intelligenti. Orchestrate con successo questi elementi è fondamentale per trasformare il potenziale dell'IA in scoperte tangibili e impatto diffuso. Ottieni approfondimenti strategici sulla costruzione di capacità di IA resilienti e scalabili, affrontando le sfide intrinseche per sbloccare significativi vantaggi competitivi e plasmare i progressi futuri.

      Speaker: Valerio Rizzo (Lenovo - EMEA AI Lead & subject-matter expert)
    • 4:50 PM
      Coffee Break
    • 60
      Sponsor HTDI - Infrastrutture HPC: un universo complesso in continua evoluzione Sala Maria Luisa

      Sala Maria Luisa

      Hotel Hermitage - Isola d'Elba

      La Biodola 57037 Portoferraio (Li) Tel. +39.0565 9740 http://www.hotelhermitage.it/

      Le infrastrutture ICT per l’High Performance Computing (HPC) rappresentano la pietra miliare dello sviluppo delle architetture dei sistemi di intelligenza artificiale (AI).
      Il nostro intervento, " Infrastrutture HPC: un universo complesso in continua evoluzione", mira a illustrare le sfide che HTDI affronta per superare le richieste che derivano dall'esigenza di disporre di maggior potenza e scalabilità computazionale combinata con la migliore efficienza energetica nelle infrastrutture HPC destinate all'AI. L'integrazione dell'intelligenza artificiale (IA) e del machine learning (ML) con i sistemi HPC sta rivoluzionando il modo in cui i dati vengono processati e analizzati. Gli algoritmi di IA e ML richiedono una potenza computazionale enorme per addestrare modelli complessi nei diversi campi di applicazione, e l'HPC fornisce l'infrastruttura necessaria per gestire queste esigenze

      Speaker: Marco Malatesta (HTDI)
    • Technology Tracking: Parte 2 Sala Maria Luisa

      Sala Maria Luisa

      Hotel Hermitage - Isola d'Elba

      La Biodola 57037 Portoferraio (Li) Tel. +39.0565 9740 http://www.hotelhermitage.it/
      Convener: Michele Michelotto (Istituto Nazionale di Fisica Nucleare)
      • 61
        COKA is dead, long live COKA!

        COKA is a small HPC cluster, designed for codes prototyping and benchmarking, initially installed in 2015 at INFN Ferrara with a DP peak performance of about 100 TFLOP/s. Like the Voyager, it outlived its original mission and it has been continuously operational since almost ten years, but the original system is now being decommissioned to be replaced by newer heterogeneous compute nodes and a completely refactored software ecosystem.
        Most of the compute power of this new system is given by 6 nodes based on the NVIDIA GraceHopper Superchip; then 4 more nodes equipped with 2 x IBM POWER9 plus 4 x NVIDIA v100 are available for educational activities; and an additional node is available for technology tracking, embedding an AMD GPU and multiple FPGAs.
        This new system is designed to be used for theoretical physics and quantum simulations; analysis of cosmological experimental data concerning CMB; artificial intelligence workloads; as well as technology tracking, analysis and benchmarking of novel accelerators.
        In this talk, after a brief introduction on the previous cluster infrastructure, we will focus on its newer hardware and software configuration.

        Speaker: Enrico Calore (Istituto Nazionale di Fisica Nucleare)
      • 62
        Custom FPGA Implementation of Neural Networks for Accelerated and Fully Controllable AI Processing in Medical Applications

        Neural Networks (NNs) are widely employed in tasks such as feature extraction, classification, segmentation, and reconstruction of quantitative MRI maps, particularly in scenarios lacking an analytical model, resulting in a reconstruction process that is computationally intensive and time-consuming. The versatility and ability of NNs to be trained on ground-truth datasets are particularly appealing in medical applications, where they can accelerate analysis and minimize human intervention.
        While they can achieve high efficiency, a major obstacle to NN application is the computational resources required to run them. Fully Connected NNs (FCNs) and Convolutional NNs (CNNs) architectures need a great number of images for training, validation, and testing, with computational complexity scaling exponentially with the number of parameters due to the “curse of dimensionality”. This often results in computational costs that can extend processing times to hours or days.
        Field Programmable Gate Arrays (FPGAs) are programmable circuits, offering a valued alternative due to their high throughput, low latency, and inherent programmability. While providing high-level synthesis software tools for rapid software-to-firmware conversion, they also offer a great solution to overcome the computational weight of NN training and running. Implementing NNs on FPGAs, after a traditional software validation of an AI algorithm, involves the replication of NN core functionalities at the firmware level, manually mimicking the basic functions and operations performed within NN layers, aiming at accelerating processing by a factor of a few times to hundreds.
        While high-level synthesis tools simplify FPGA implementation, they often limit customization and optimization. In contrast, FPGAs can be fully customized to exploit their complete acceleration potential, allowing for designs that are both highly efficient and targeted to specific application requirements.
        This work takes a radically different approach, presenting a completely custom FPGA implementation of NN architectures that intentionally avoids reliance on high-level synthesis. Instead, every component is developed in VHDL, providing unparalleled control over the design, precision, and resource usage. This work focuses on the most used NN architectures, each implemented as a standalone module. Each module, implemented as reusable VHDL building blocks, supports full customization and manual optimization of key numerical operations, including quantization in fixed-point representation. Unlike existing FPGA NN tools, which prioritize ease of use at the cost of flexibility, our approach ensures complete transparency and adaptability in every design aspect.
        We demonstrate the approach on the ALVEO U250 FPGA, which offers 1.7M Look-Up Tables (LUTs), 3.4M Flip-Flops (FFs), 12k Digital Signal Processors (DSPs), and 2.6k BRAMs. Key modules developed include Synaptic sum with ReLU activation, Convolution, MaxPooling, Padding, Dense layers, rescaling, Upsample, and Concatenate. Each module is validated against software counterparts to ensure precise numerical equivalence. Internal FPGA memory is developed to store hyperparameters, minimizing PCIe transfers and further improving execution times.
        In the Fully Connected NN (FCN) example, the synaptic sum was implemented generically to serve all nodes, with layers linked through parameterizable VHDL instances. Hardware testing on a 6-layer FCN with 498 nodes demonstrated agreement with software results for 5000 inference samples, with computation times reduced from tens of µs in software to 280 ns on FPGA at 200 MHz.
        For CNNs, a simplified 2-layer network (Convolution + ReLU, MaxPooling, Dense) achieved a total delay of 4.06 ns at 100 MHz, with the first result produced after 130 ns. Compared to Python implementations using TensorFlow/Keras or manually quantized software, our firmware achieved a speedup ranging from 3 to 6 orders of magnitude, with numerical discrepancies consistently below 0.1%.
        On a parallel track, we are also developing the training process of the FCN directly on the FPGA. This involves developing custom VHDL modules for backpropagation, gradient computation, and weights updates, ensuring compatibility with the fixed-point quantization used during inference. The aim is to achieve a fully hardware-integrated workflow that minimizes data transfer between the FPGA and external systems, thus significantly reducing training time while maintaining precision. Preliminary tests suggest a total training time of 200 seconds, significantly faster than standard CPU-based training, which can be up to 250 times slower.
        This custom FPGA implementation demonstrates the potential for NN acceleration using low-level, fully targeted firmware. Unlike high-level synthesis approaches, it provides precise optimization of hardware resources, dataflow, and numerical precision. By extending the framework to support both inference and training directly on hardware, this approach offers a comprehensive and highly efficient solution for applications that demand maximum performance and full control over design parameters.

        Bibliography
        • Gore, J.C.: Artificial intelligence in medical imaging. Magnetic Resonance Imaging 68, 1–4 (2020) https://doi.org/10.1016/j.mri.2019.12.006
        • Barbieri, M., Brizi, L., Giampieri, E., Solera, F., Manners, D., Castellani, G., Testa, C., Remondini, D.: A deep learning approach for magnetic resonance fingerprinting: Scaling capabilities and good training practices investigated by simulations. Physica Medica 89, 80–92 (2021) https://doi.org/10.1016/j.ejmp.2021.07.013
        • Barbieri, M., Brizi, L., Giampieri, E., Solera, F., Castellani, G., Testa, C., Remondini, D.: Circumventing the Curse of Dimensionality in Magnetic Resonance Fingerprinting Through a Deep Learning Approach. NMR Biomed (2022) https://doi.org/10.1002/nbm.4670
        • Sanaullah, A., Yang, C., Alexeev, Y., Yoshii, K., Herbordt, M.: Real-time data analysis for medical diagnosis using fpga-accelerated neural networks. BMC Bioinformatics 19 (2018) https://doi.org/10.1186/s12859-018-2505-7
        • Xiong, S., Wu, G., Fan, X., Feng, X., Huang, Z., Cao, W., Zhou, X., Ding, S., Yu, J., Wang, L., Shi, Z.: Mri-based brain tumor segmentation using fpga-accelerated neural network. BMC bioinformatics 22(1), 421 (2021) https://doi.org/10.1186/s12859-021-04347-6
        • Jacob, B., Kligys, S., Chen, B., Zhu, M., Tang, M., Howard, A., Adam, H., Kalenichenko, D.: Quantization and Training of Neural Networks for Efficient Integer-Arithmetic-Only Inference (2017). https://arxiv.org/abs/1712.05877
        • Grossi, M., Alfonsi, F., Prandini, M., Gabrielli, A.: A high throughput intrusion detection system (ids) to enhance the security of data transmission among research centers. Journal of Instrumentation 18(12), 12017 (2023) https://doi.org/10.1088/1748-0221/18/12/C12017

        Speaker: Mr Mattia Ricchi (Istituto Nazionale di Fisica Nucleare)
      • 63
        Quantum Computing Simulation on FPGA

        Since 2017 we started R&D on co-designing (HW/SW) computational systems, targeting mainly FPGAs. We developed over the years several solutions for computational acceleration on FPGAs, including, but not limited to, the creation of a full framework for building FPGA-based modular architectures, namely the BondMachine project.
        The problems addressed by these solutions range from the standard application to the complex neural network inference with a reduced precision. We can analyze the performance of the developed solutions in terms of speedup, latency, and power consumption.
        In this talk, we will present the activities of the last year, focusing on how we are using the developed framework and the acquired know-how to create a FPGA-based quantum computer simulator: bmqsim.
        bmqsim is a simulator for quantum circuits running on FPGAs. It can produce several target beckends, same based on the BondMachine framework, others based on different High Level Synthesis tools.

        Speaker: Mirko Mariotti (Istituto Nazionale di Fisica Nucleare)
    • Servizi ICT: Parte 1 Sala Maria Luisa

      Sala Maria Luisa

      Hotel Hermitage - Isola d'Elba

      La Biodola 57037 Portoferraio (Li) Tel. +39.0565 9740 http://www.hotelhermitage.it/
      Convener: Emidio Maria Giorgio (Istituto Nazionale di Fisica Nucleare)
      • 64
        INFN-AAI Single Sign On: da SAML2.0 e OAuth2/OIDC a OpenID Federation - Collaborazione AAI-WG

        Quando nel 2008 è partita l'attività di INFN-AAI SAML2.0 era la soluzione per il Single Sign-On per l’accesso alle risorse INFN e di federazione IDEM/eduGAIN. Da un paio di anni OpenID Federation (OIDFED) -il nuovo protocollo con supporto alle federazioni- ha iniziato a dimostrare un grado di maturità adeguato e negli ultimi mesi sono stati rilasciati prodotti software che possono essere usati, con un buon livello di confidenza, per una messa in produzione.

        In questo talk illustreremo i lavori in corso per mettere in produzione OIDFED nell’infrastruttura INFN-AAI e come questo potrà fornire supporto per l’accesso a servizi e risorse IT sia in ambito di federazioni nazionali (IDEM/SPiD/CIE) sia in ambito internazionale (eduGAIN/MyAccessID).

        Speaker: Enrico Maria Vincenzo Fasanelli (Istituto Nazionale di Fisica Nucleare)
      • 65
        Evoluzione di INDIGO IAM: sicurezza, interoperabilità e nuove funzionalità

        INDIGO IAM è un servizio per la gestione dell’autenticazione e dell'autorizzazione nelle infrastrutture di ricerca distribuite. Supporta la federazione dell'identità, il controllo degli accessi e l'autorizzazione basata su token. Gli sviluppi attuali e futuri si concentrano sul miglioramento di prestazioni, interoperabilità e sicurezza. In questo contributo dedichiamo particolare attenzione al supporto per l'autenticazione a più fattori (MFA), alla gestione dei client obsoleti e all'adozione delle linee guida della AARC Blueprint Architecture (BPA) per garantire conformità agli standard di federazione e interoperabilità, inclusa la European Open Science Cloud (EOSC).
        Il supporto di un secondo fattore di autenticazione è un obiettivo chiave, anche nel contesto di EOSC Beyond. Introdotto in IAM v1.11.0 come funzionalità opzionale per le credenziali locali, è stato poi esteso ai flussi di autenticazione con provider remoti (OIDC, SAML) e certificati X.509, seguendo le specifiche per la segnalazione dell'uso del MFA definite nel progetto europeo EOSC Beyond. Questo miglioramento rafforza la sicurezza e la gestione degli accessi nelle infrastrutture federate.
        La gestione dei client obsoleti è un altro tema rilevante, in particolare per DataCloud, dove l'accumulo di client non più attivi può compromettere sicurezza ed efficienza. Sfruttando il tracciamento dell'ultimo utilizzo del client già presente, è possibile realizzare tool esterni, come script che utilizzano le API per rimuovere i client obsoleti.
        La possibile adozione di INDIGO IAM nel nodo italiano della EOSC richiede anche lo sviluppo della proxied token introspection, un'estensione di OAuth2 che delega a un infrastructure proxy locale le richieste di introspezione agli authorization server remoti. A tal fine, in questo contributo, discuteremo l’evoluzione e l’integrazione di ESACO in IAM, un servizio che verifica la validità e la firma dei token OAuth per i server di autorizzazione registrati.
        Infine, verrà presentato il Proof-of-Concept sviluppato nei progetti ICSC/TeRABIT, un passo chiave per trasformare IAM in un Infrastructure Proxy/Community AAI per il nodo EOSC italiano, facilitando una maggiore sinergia con la comunità di ricerca e i servizi distribuiti.

        Speaker: Roberta Miccoli (Istituto Nazionale di Fisica Nucleare)
      • 66
        Enhancing Cloud Security with Integrated Information Management

        One of the key strengths of cloud e-Infrastructures is their ability to ensure the security of stored information. Preserving data integrity and non-repudiation is a fundamental requirement for any virtual environment especially in contexts where confidentiality and regulatory compliance are critical aspects, such as in the healthcare, financial, and scientific research sectors.

        In IT security, the techniques and procedures that regulate access to private resources are known as Identity and Access Management (IAM).

        In this work, we demonstrate how to integrate FreeIPA, an open-source IAM solution, selected from several available options, in a cloud environment using Kubernetes, a container orchestrator, for a future integration among INFN Cloud Services.

        This work extends upon previous efforts in developing a use case within the scope of ICSC Spoke 8 and Spoke 0, where we established a secure infrastructure for the processing and management of clinical data to support advanced healthcare research and decision-making through secure, data-driven simulations.

        Speaker: Riccardo Rotondo (Istituto Nazionale di Fisica Nucleare)
      • 67
        Q&A AAI/IAM
      • 68
        NBNDSync: Automazione per l'aggiornamento continuo dell'inventario di NetBox tramite NetDisco

        Nei moderni data center, un inventario di rete preciso e costantemente aggiornato costituisce la base per operazioni efficienti e risoluzione tempestiva dei problemi. Tuttavia, mantenere questa documentazione sincronizzata con lo stato effettivo dell'infrastruttura rappresenta oggi una sfida complessa. NetBox, come sistema centrale per la gestione dell'infrastruttura IT, documenta non solo la rete ma anche la disposizione fisica dei dispositivi, le connessioni, i ruoli e tutte le informazioni critiche sui nodi. Affiancando questa soluzione, NetDisco mette a disposizione strumenti di network discovery per raccogliere dati in modo dinamico. Aggiornare manualmente NetBox con tutte le informazioni raccolte rimane comunque un processo laborioso e soggetto a errori. Questo progetto introduce NBNDSync, un sistema automatizzato che utilizza le API di NetBox e NetDisco per raccogliere e aggiornare in modo continuo i dati relativi ai dispositivi. Oltre a interrogare NetDisco, il sistema può accedere direttamente ai nodi quando necessario, ottenendo informazioni aggiuntive non disponibili attraverso la sola discovery di rete. L'obiettivo principale è ottenere una mappatura completa di ogni nodo, raccogliendo dati su connessioni, indirizzi IP, MAC, modelli hardware, numeri di serie, stato operativo e altre informazioni essenziali per il monitoraggio e la gestione dell'infrastruttura. Il progetto è in evoluzione e si propone di diventare un'applicazione containerizzata che, in futuro, potrebbe integrare direttamente NetBox e NetDisco al suo interno, eliminando la necessità di dipendenze esterne e fornendo una soluzione unificata per la gestione dell'infrastruttura. Grazie alla sua architettura modulare, NBNDSync potrebbe essere facilmente integrato in sistemi di orchestrazione come Kubernetes, migliorandone scalabilità e gestione automatizzata.

        Speaker: Nadir Marcelli (Istituto Nazionale di Fisica Nucleare)
      • 69
        Gestione asset di rete INFN: una soluzione modulare integrata basata su Jira

        La gestione dei dispositivi connessi alla rete rappresenta una sfida critica in ambienti complessi, dove il controllo accurato delle risorse informatiche è essenziale per garantire sicurezza, efficienza e una rapida risposta alle criticità. All’interno di un ente come l’INFN, questo è vero non solo per ambienti distribuiti come la Cloud ma anche per le sezioni e i laboratori nazionali, caratterizzati per loro natura dalla presenza di utenti interni ed esterni e da una molteplicità di sistemi interconnessi. Pertanto, è fondamentale disporre di strumenti affidabili che consentano di monitorare, gestire e correlare in maniera efficace i vari componenti della rete.

        Per rispondere a tali esigenze, si è scelto di sfruttare la consolidata piattaforma di Atlassian, in particolare la funzione di asset management integrata in Jira, utilizzato già con successo come soluzione per l’issue tracking e il service desk. Questo strumento, tuttavia, presenta limitazioni in termini di personalizzazione dell’interfaccia e di integrazione con soluzioni di terze parti.

        Al fine di superare tali carenze, abbiamo sviluppato una web-app, che sfrutta e adatta le API di Jira per integrare il sistema di asset management esistente. Inoltre, la web-app include moduli software aggiuntivi che ampliano le funzionalità operative, permettendo ad esempio l’integrazione con il DNS, il monitoraggio di eventuali scansioni di sicurezza eseguite sugli asset e la gestione di notifiche automatiche per avvisare tempestivamente gli utenti in caso di criticità.

        Questa architettura offre quindi la flessibilità necessaria per adattarsi all'evoluzione delle infrastrutture sia dal punto di vista della rete che dei servizi.

        Speaker: Alessandro Alberto Oliva (INFN-LNS)
      • 70
        Q&A: asset
    • 11:00 AM
      Coffee Break
    • Servizi ICT: Parte 2 Sala Maria Luisa

      Sala Maria Luisa

      Hotel Hermitage - Isola d'Elba

      La Biodola 57037 Portoferraio (Li) Tel. +39.0565 9740 http://www.hotelhermitage.it/
      Convener: Emidio Maria Giorgio (Istituto Nazionale di Fisica Nucleare)
      • 71
        Stato dell'arte dell'architettura di monitoring e accounting nei progetti INFN

        Il monitoraggio e l'accounting sono fondamentali per gestire e ottimizzare le prestazioni, l'efficienza dei costi e la sicurezza negli ambienti IT. Questi strumenti si occupano del tracciamento delle risorse di sistema negli ambienti IT da parte di utenti, applicazioni e processi. Queste attività includono tipicamente il monitoraggio dell'uso della CPU, dell'allocazione della memoria, dello spazio su disco, della larghezza di banda di rete e di altre risorse critiche. Le informazioni ottenute attraverso il tracciamento e l'analisi delle attività servono a diversi scopi. L'allocazione delle risorse consente agli amministratori di distribuire le risorse in modo efficace, garantendo un utilizzo equo e prevenendo fenomeni di monopolizzazione. L'ottimizzazione delle prestazioni identifica i colli di bottiglia delle risorse o i processi inefficienti, migliorando le prestazioni complessive del sistema. La sicurezza si concentra sul rilevamento di attività non autorizzate o anomale per prevenire usi impropri o attacchi informatici. Infine, l'audit e la conformità garantiscono il mantenimento di registri dettagliati per soddisfare requisiti normativi o organizzativi.

        Nel contesto di INFN Cloud i meccanismi di monitoraggio e accounting sono stati disegnati e implementati proprio nell’ottica di far fronte ai bisogni sopra citati. La natura distribuita di INFN Cloud ha introdotto sfide aggiuntive nel monitoraggio e nell’accounting: la raccolta delle metriche in un ambiente federato, la definizione e l’inclusione di nuove metriche in funzione dell’utilizzo in produzione di nuove tecnologie e la necessità di aggregare tali dati in modo opportuno. Tali obiettivi hanno richiesto una fase di studio e analisi non solo delle soluzioni tecnologiche implementate, ma anche della loro rispettiva integrazione nel contesto di INFN Cloud.

        Il contributo fornisce lo stato dell'arte dell'architettura di monitoraggio e accounting sviluppata e implementata in INFN Cloud, con un focus particolare sulle soluzioni tecnologiche adottate per la definizione, la raccolta e l'analisi dei dati. Inoltre, verranno presentate soluzioni in studio volte a integrare la raccolta di nuove metriche, armonizzandole con quelle già raccolte.

        L’attività è stata svolta nel contesto del progetto europeo DARE (volto alla gestione di dati sensibili e allo sviluppo di soluzioni per la sorveglianza della popolazione, la prevenzione, la promozione della salute e la sicurezza) che, come altri progetti, beneficia del supporto di INFN Cloud.

        Speaker: Francesco Sinisi (Istituto Nazionale di Fisica Nucleare)
      • 72
        Analisi comparativa e prospettive evolutive degli strumenti di vulnerability assessment adottati dal NUCS dell'INFN

        Il nostro lavoro propone un'analisi approfondita degli strumenti di scansione di vulnerabilità implementati dal Nucleo di Cybersecurity (NUCS) dell'INFN, prendendo in esame quattro soluzioni: Greenbone Enterprise DECA, Greenbone Community Edition, Qualys Enterprise TruRisk Platform e Tenable Nessus. L'obiettivo è valutare l'efficacia operativa di queste piattaforme nel contesto specifico del nostro ente di ricerca. La trattazione si articola in tre momenti fondamentali. Una prima sezione inquadra il ruolo strategico delle scansioni di sicurezza nel moderno panorama della cybersecurity, delineando le peculiarità di ciascuna piattaforma analizzata. Segue poi una sezione centrale che presenta i risultati di un'attività di benchmarking condotta attraverso test pratici, dove vengono messi a confronto i report generati dai diversi strumenti. Questo confronto sistematico permette di apprezzare differenze sostanziali nell'accuratezza dei risultati, nella completezza delle informazioni fornite e nell'efficacia dei meccanismi di remediation suggeriti. Emergono chiaramente i tratti distintivi di ciascuna soluzione: la suite Greenbone, nelle sue due varianti, si caratterizza per l'elevato grado di personalizzazione e controllo, pur richiedendo un impegno gestionale più significativo, la piattaforma Qualys si distingue per le avanzate capacità di automazione e la perfetta integrazione in ambienti complessi, mentre Nessus conferma la sua reputazione per affidabilità e immediatezza d'uso. La riflessione conclusiva guarda alle prospettive evolutive, con particolare attenzione alle potenzialità offerte dall'integrazione sempre più spinta tra strumenti automatizzati e processi decisionali. In questo quadro, la piattaforma Qualys si candida a ricoprire un ruolo centrale nei meccanismi di remediation automatica, con l'obiettivo di comprimere i tempi di risposta e innalzare complessivamente il livello di sicurezza dell'infrastruttura INFN. L'analisi si propone dunque come base concreta per guidare le future scelte strategiche in materia di cybersecurity nell'ambito della ricerca scientifica.

        Speaker: Cristian Greco (Istituto Nazionale di Fisica Nucleare)
      • 73
        Servizi per la documentazione collaborativa di gruppi di lavoro: analisi e confronto soluzioni esistenti

        La gestione e la condivisione della documentazione tecnica e organizzativa rappresentano aspetti fondamentali per l'efficacia dei gruppi di lavoro. I servizi nazionali attualmente offrono diverse soluzioni, tra cui Confluence e CodiMD, mentre altri team si avvalgono di strumenti alternativi come MkDocs e Sphinx. Ogni piattaforma presenta un proprio formato di scrittura e funzionalità distinte. Un elemento cruciale del processo di redazione è l'editing collaborativo, accompagnato dalla possibilità di effettuare revisioni attraverso commenti e feedback.

        In quest'ottica, abbiamo intrapreso un'analisi mirata per identificare un'unica piattaforma in grado di integrare tutte le funzionalità necessarie a soddisfare le esigenze dei gruppi di lavoro, adottando un linguaggio comune (Markdown) e garantendo un'eccellente usabilità, un motore di ricerca efficace e autorizzazioni granulari.

        L'indagine ha condotto all'individuazione di Outline (https://www.getoutline.com), una piattaforma open source, come un possibile candidato a soddisfare i requisiti stabiliti. Abbiamo esaminato questa soluzione confrontandola con quelle attualmente in uso nell'ente, analizzando i rispettivi vantaggi e svantaggi. In seguito, abbiamo proceduto all'installazione di un'istanza su Cloud INFN (https://outline.infncloud.ct.infn.it), integrandola con il servizio IAM, per consentire a tutti i dipendenti dell'ente di testarne le funzionalità.

        Speaker: Antonio Salvatore Calanducci (Istituto Nazionale di Fisica Nucleare)
    • 74
      Chiusura dei lavori Sala Maria Luisa

      Sala Maria Luisa

      Hotel Hermitage - Isola d'Elba

      La Biodola 57037 Portoferraio (Li) Tel. +39.0565 9740 http://www.hotelhermitage.it/
      Speakers: Alessandro Brunengo (Istituto Nazionale di Fisica Nucleare), Gianpaolo Carlino (Istituto Nazionale di Fisica Nucleare)