Workshop sul Calcolo nell'I.N.F.N. - Marina di Ugento (Lecce) | 11 - 15 maggio 2026
Sala Meeting "Messapica"
Vivosa Apulia Resort
-
-
1
Registrazione Foyer adiacente Sala Messapica
Foyer adiacente Sala Messapica
Vivosa Apulia Resort
-
1
-
-
2
Apertura dei lavori Sala Meeting "Messapica"
Sala Meeting "Messapica"
Vivosa Apulia Resort
Via Vicinale Fontanelle - 73059 Ugento (Lecce) -
Sessione "Calcolo Teorico e degli Esperimenti": prima parte Sala Meeting "Messapica"
Sala Meeting "Messapica"
Vivosa Apulia Resort
Via Vicinale Fontanelle - 73059 Ugento (Lecce)-
3
Multiphase models of complex and active fluids
Active emulsions, droplets of liquid crystalline active matter encapsulating passive isotropic cores, represent a versatile and experimentally realisable class of topological active matter. Here, we present results from three-dimensional Lattice Boltzmann (LB) simulations of multiphase active nematic emulsions, developed and validated as part of the use case "Large Scale Simulations of Complex Systems". We developed an optimised MPI-parallelised LB solver enabling us to resolve the rich spatiotemporal dynamics of these confined active systems in 3D.
We demonstrate that the number of passive cores embedded in the outer active droplet controls the global topology of the director field, with profound consequences for the emergent dynamics. A topologically trivial single-core emulsion undergoes a sequence of activity-driven motility transitions — from quiescence to directed translation, periodic rotation, meandering, and finally chaotic motion — all while remaining defect-free. In contrast, a two-core emulsion is topologically non-trivial: the homeotropic anchoring at all interfaces forces the bulk liquid crystal to carry an odd hedgehog charge, nucleating a charged disclination loop. At low activity this loop acts as a self-assembled rotor, while at high activity, the loop stretches, writhes, and undergoes topological recombination, providing an example of an active living polymer. These results[1] establish active double emulsions as a platform for designing and selecting flow and topological patterns in active matter in a controlled way, with potential applications in drug delivery and self-propelled functional materials.[1]Negro, G., Head, L.C., Carenza, L.N. et al. Topology controls flow patterns in active double emulsions. Nat Commun 16, 1412 (2025). https://doi.org/10.1038/s41467-025-56236-8
Speaker: Giuseppe Negro -
4
Analyzing Scouting Data at HL-LHC with the CMS Experiment
The Compact Muon Solenoid (CMS) experiment at the CERN LHC has traditionally relied on a highly selective Level-1 trigger to reduce the 40 MHz LHC collision rate to a rate more manageable for data-reading and recording. During LHC Run 3, CMS deployed a novel 40 MHz data acquisition system that enables the continuous readout and real-time processing of L1 trigger-level detector data at the full bunch-crossing rate, without impacting standard data-taking.
For the HL-LHC era, the Level-1 Trigger will undergo a major architectural evolution, delivering significantly richer and higher-quality reconstructed physics objects. This shift toward near-offline reconstruction at the trigger level introduces substantially increased computational requirements for continuous 40 MHz acquisition and analysis.
To address these constraints, different heterogeneous computing systems have been considered integrating multiple types of hardware accelerator. Status of the art FPGA platforms and GPU clusters are considered for offloading event selection workloads and more complex reconstruction tasks.
This talk presents the motivation, architecture, as well as the physics and detector-performance opportunities unlocked by 40 MHz scouting for future real-time analysis strategies foreseen for the High-Luminosity LHC era.Speaker: Valentina Camagni (Universita & INFN, Milano-Bicocca (IT)) -
5
Fast Simulation of the ALICE Zero Degree Calorimeter using Generative Models
Fast Simulation of the ALICE Zero Degree Calorimeter using Generative Models
Davide Fuligno
On behalf of the ALICE Collaboration
Università di Pisa and INFN, Trieste ItalyThe ALICE experiment at the LHC faces unprecedented computing challenges in Run 3 and 4, necessitating innovative solutions to cope with the increased data-taking luminosity and the continuous readout. A critical bottleneck in the current simulation pipeline for Pb-Pb collisions is the Zero Degree Calorimeter (ZDC), which characterizes collision geometry by detecting spectator nucleons. The full Geant4 transport simulation of hadronic showers in the ZDC is currently so computationally expensive that it is omitted from standard Monte Carlo productions, resulting in the absence of a realistic modeling of forward energy, centrality, and spectator-nucleon multiplicity.
In this contribution, we present a novel deep-learning-based fast simulation framework designed to overcome this limitation. We employ a modular architecture based on two fast Multi-Layer Perceptrons (MLPs) trained on simulated spectator nucleons in Pb-Pb collisions. The first MLP performs deterministic particle transport to the Zero Degree Calorimeter (ZDC), while the second uses Conditional Flow Matching (CFM) to generatively model the detector response. This decoupled approach minimizes the computing time required for training data production, providing an immediately deployable model while ensuring the modularity needed to easily accommodate different LHC beam configurations.
Designed for seamless integration into the ALICE O2 software framework via the ONNX standard, the inference engine achieves a computational speed-up of approximately six orders of magnitude over full simulations. These results demonstrate the potential to enable high-statistics ZDC simulation in future ALICE production campaigns.Speaker: Davide Fuligno (Istituto Nazionale di Fisica Nucleare) -
6
ALICE experience with GPU computing
On behalf of the ALICE collaboration
The ALICE experiment has a long-standing expertise in GPU computing for high-energy physics, having used hardware accelerators since Run 2. With Run 3, ALICE changed its data acquisition model to triggerless mode, relying even more heavily on GPUs to handle the data throughput produced by continuous detector readout. During Pb-Pb collisions today, Alice generates up to 3.5 TB/s of raw data, which must be stored in compressed form. The experiment's solution is to employ a two-stage compression chain during data taking, deployed on two separate computing farms. After a first low-level compression performed by FPGAs in the first farm, the raw data are reconstructed and compressed on the fly using 2800 GPUs, enabling the storage of the experiment data in a temporary disk buffer. After the online processing, the compressed data are subsequently reprocessed on the Worldwide LHC Computing Grid (WLCG) and on the online farm using GPUs during periods without beam, to produce physics data for analysis, in the so-called "offline" pass.Processing the offline phase on the GPU-enabled online farm has already demonstrated a speedup of 2.5 when using the portion of reconstruction algorithms available on GPUs. Following these results, ALICE plans to port and optimize more algorithms to GPU, reaching an optimistic scenario where up to 80% of the current offline CPU time could be offloaded to GPUs. In parallel, ALICE is working to enhance the availability and monitoring of GPU resources on the grid, to further improve reconstruction performance for the offline pass.
This contribution will present ALICE’s experience with GPU computing, describing the GPU-powered data acquisition system, ALICE's vendor-agnostic GPU framework, and the performance improvements relative to CPU computing. It will also discuss future directions of GPU usage in ALICE, including the porting and optimization of reconstruction algorithms and the execution of GPU workloads on the grid.
Speaker: Gabriele Cimador (Istituto Nazionale di Fisica Nucleare) -
7
Il modello di computing di KM3NeT
The KM3NeT Collaboration is building a large-scale neutrino research infrastructure in the Mediterranean Sea, comprising the ARCA detector, in Italy, and the ORCA detector in France. Within this framework, INFN plays a central role in the computing and data management strategy supporting both detectors.
The Tier-0 facilities, hosted at the detector sites (Portopalo di Capo Passero for ARCA and La Seyne sur Mer for ORCA), manage the first stage of data handling, including data reception from the shore stations, integrity checks, noise filtering and initial event reconstruction. As detector construction progresses and data rates steadily increases, Tier-0 represents a critical component for ensuring smooth operations and allowing low-latency access to high-quality data.
Filtered data are subsequently transferred to Tier-1 centres, for offline data-processing. These sites, in CC-IN2P3 (Lyon) and INFN CNAF (Bologna), provide dedicated disk and tape storage alongside batch computing facilities. To ensure a scalable and homogeneous environment, the collaboration is currently integrating additional services, including INFN IAM for identity management and CVMFS for software distribution.
Currently, KM3NeT is transitioning from a predominantly site-centric computing model to a distributed infrastructure. The adoption of Rucio as the file catalogue and data management system enables structured data flows between Tier-0 and Tier-1 sites. KM3NeT is currently consolidating its participation in EGI and evaluating future integration within the WLCG ecosystem once the transition to distributed computing reaches operational maturity.
This contribution outlines the INFN computing strategy for KM3NeT, details the deployment of Tier-0 and Tier-1 resources, and presents the roadmap towards a fully distributed and scalable infrastructure aligned with international standards.
Speakers: Emidio Maria Giorgio (Istituto Nazionale di Fisica Nucleare), Riccardo Bruno (Istituto Nazionale di Fisica Nucleare) -
8
Multi-scale Geant4 simulations for BNCT applications
The optimization of Boron Neutron Capture Therapy (BNCT) requires an accurate computational framework capable of integrating complex neutron source characterization with precise energy deposition modeling. In this context and within the activities of the Geant4INFN project, this work presents recent advances of Geant4 simulations, using the Multi-Threading (MT) architecture and exploiting both condensed history and track-structure approaches.
In particular, we executed simulations on local 48-core computers available at INFN unit of Pavia, to investigate the p+$^9$Be reaction at 5 MeV. To minimize statistical noise and ensure robust validation against experimental data, we generated high-statistics distributions (considering 10$^{10}$−10$^{11}$ primaries). This intensive simulation revealed systematic underestimation of neutron yields when employing the QGSP_BIC_AllHP Physics list, specifically due to the omission of the (p,p′n) reaction channel. To resolve this, we implemented a hybrid approach, integrating simulation outputs with a novel data-driven theoretical model, recently published [1]. This methodology was successfully extended to composite $^9$Be+$^7$Li targets, with results currently accepted for publication [2]. Furthermore, we are extending the native Geant4 General Particle Source framework to enable the sampling of 2D energy-angle correlated distributions with updated fast algorithms.
The intensive utilization of local computing resources was beneficial in optimizing both the model development and the simulation time. We are currently evaluating strategies to scale this framework across multiple nodes, aiming to further increase our computational efficiency for a broader range of reaction channels.
Parallel to macroscopic source modeling, another highly computationally expensive research topic vital for BNCT is track-structure simulation. In this context, we use Geant4-DNA, the track-structure extension of the Geant4 Monte Carlo toolkit, to model and quantify DNA-level radiobiological damage induced by BNCT-relevant radiation. Validated against experimental data from the TRIGA reactor in Pavia, these intensive simulations reconstruct a realistic cellular scenario, linking heterogeneous boron distribution to the number of double-strand breaks (DSBs) produced. Ultimately, both of these high-performance computing efforts are carried out also within the framework of the PNC-PNRR ANTHEM project, supporting the future Accelerator-Based BNCT facility at the ‘L. Vanvitelli’ University of Caserta.References:
[1] A. Colombi, I. Postuma, S. Bortolussi, V. Vercesi and A. Fontana, A new hybrid model for accurate double differential neutron yield calculations on 9Be thick targets for proton-BNCT applications at low energies. Eur. Phys. J. Plus 140, 1142 (2025) https://doi.org/10.1140/epjp/s13360-025-07017-1 (full text available to read at https://rdcu.be/eSapR)
[2] A. Colombi, I. Postuma, S. Bortolussi, V. Vercesi and A. Fontana, Theoretical study of proton-induced reactions on a composite beryllium–lithium target as a BNCT neutron source. Eur. Phys. J. Plus 141, 324 (2026). https://doi.org/10.1140/epjp/s13360-026-07429-7Speaker: Dr Alessandro Colombi (Istituto Nazionale di Fisica Nucleare)
-
3
-
11:00
Pausa caffè Area Sponsor
Area Sponsor
Vivosa Apulia Resort
-
Sessione "Calcolo Teorico e degli Esperimenti": seconda parte Sala Meeting "Messapica"
Sala Meeting "Messapica"
Vivosa Apulia Resort
Via Vicinale Fontanelle - 73059 Ugento (Lecce)-
9
The QCD Equation of State from large scale HPC calculations
Quantum Chromodynamics (QCD) is the theory that describes the strong interactions among fundamental particles. Its highly complex dynamics cannot be solved analytically, and a predictive approach relies on numerical simulations in which space-time is discretized on a four-dimensional lattice and the theory is solved using Monte Carlo methods. These calculations are well suited for high-performance computing since the lattice can be decomposed into many subdomains processed in parallel on a computer.
In this talk I present recent results for the QCD Equation of State, which characterizes the thermodynamic properties of strongly interacting matter at high temperature. I will focus on the computational strategy that allows these simulations, emphasizing algorithmic efficiency and scalability on modern parallel architectures.Speaker: Matteo Bresciani (Trinity College Dublin) -
10
GPU-Accelerated Lattice QCD: Porting and Optimization
In the last decade, advances in theoretical and algorithmic methods together with the growth of computational resources have made lattice QCD a key tool at the precision frontier of particle physics, enabling systematically improvable predictions for observables measured with increasing experimental accuracy. Within this context, we present the development of software for lattice QCD and QCD+QED simulations using the open-source lattice QCD libraries NISSA and openQ*D. In particular, GPU kernels for NVIDIA architectures were developed, together with an interface between the CPU code and the highly optimized QUDA library, developed by the lattice QCD community with the support of NVIDIA to exploit state-of-the-art GPU solvers. At the same time, the CPU codebase was optimized to ensure portability and efficient execution across heterogeneous architectures, preventing non-accelerated components from becoming performance bottlenecks.
Speaker: Francesca Margari (University and INFN of Roma Tor Vergata) -
11
Opportunistic Integration of the LHCb HLT2 Farm into the Distributed Computing
The LHCb HLT2 Farm comprises ~4,500 nodes and ~260k CPU cores, primarily dedicated to real-time data processing. Extended idle periods during technical stops represent a significant, under exploited computing opportunity.
We present an HTCondor-based opportunistic computing model that integrates the HLT2 Farm into the LHCb distributed computing infrastructure while preserving strict priority for online activities. A custom HTCondor ClassAd evaluates node-level transitions between Idle and Not Idle HLT2 states, enabling Grid job execution only when both STARTD policies and state evaluation return TRUE. Upon reclamation by HLT2, running jobs receive a SIGUSR1 signal for graceful termination at event boundaries, ensuring compatibility with Gaudi workflows.
The system integrates with LHCbDirac for automated pilot submission.
Since commissioning, the infrastructure has processed a considerable fraction of MC jobs.
This work demonstrates a viable strategy for bridging online and offline computing, maximizing resource efficiency while maintaining operational safety—directly relevant to future hybrid resource models.Speaker: Antonio Falabella (Istituto Nazionale di Fisica Nucleare) -
12
The CTAO Italian Data Center (CIDC) at INFN Frascati: Architecture and Operations
The Cherenkov Telescope Array Observatory (CTAO) is the next-generation ground-based observatory for very-high-energy gamma-ray astronomy. The observatory will produce large volumes of scientific data, requiring a distributed computing infrastructure capable of supporting data processing, storage, and analysis for a geographically distributed scientific community.
The CTAO computing model relies on a network of four partner-operated data centers that collectively support the full data lifecycle, from data ingestion and processing to archival storage and user analysis. In this context, INFN contributes through the Frascati Data Center, named CIDC (CTAO Italian Data Center), operated in collaboration with the Istituto Nazionale di Astrofisica (INAF). CIDC provides storage and computing services fully integrated within the CTAO distributed infrastructure and serves as a key node for orchestrating distributed scientific workflows.
This contribution presents the architecture, services, and operational model of the CIDC. It highlights the storage infrastructure based on dCache, the orchestration of services via Kubernetes, and workload management with HTCondor. Emphasis is given to operational challenges, including service deployment, resource management, reliability, and the coordination required to maintain seamless integration with the CTAO distributed computing environment, providing a practical perspective on running a critical data center for an international observatory.
Speaker: Lisa Zangrando (Istituto Nazionale di Fisica Nucleare) -
13
Un submission framework generale e resiliente per la ricerca di Continuous Gravitational Waves
Si descrive il modello di calcolo che ha consentito l'esecuzione di grosse
campagne di CW search su diverse tipologie di Calcolo batch, Grid e HPC (CNAF, IGWN, ICSC). Durante le fasi di sviluppo e di impiego del framework, diversi paradigmi di fruizione delle risorse sono mutati, portando a implementare soluzioni flessibili, in grado di adattarsi alle differenti modalita' di ciascun provider. In particolare, si presenta con maggior dettaglio un servizio realizzato in occasione della dismissione del servizio VOMS in favore degli IAM token, per superare le problematiche legate alla loro ridotta durata, e permettere ai job di ottenere in sicurezza un token valido quando necessario. Tale soluzione offre al contempo un supporto per raccogliere informazioni di monitoring circa l'avanzamento di stato dei job in corso.Speaker: Stefano Dal Pra (Istituto Nazionale di Fisica Nucleare) -
14
Data Management and Computational Infrastructure to Study FLASH Radiotherapy in the PNRR-THE Project: An XNAT-based Platform
Negli ultimi anni, l’analisi data-driven è diventata un elemento centrale nella ricerca biomedica. Tuttavia, la gestione di dataset di grandi dimensioni, eterogenei e distribuiti su più centri rappresenta ancora una sfida significativa, soprattutto in termini di integrazione, tracciabilità e riproducibilità dei workflow. In questo contesto, presentiamo una piattaforma computazionale sviluppata nell’ambito del progetto PNRR-THE, progettata per supportare workflow complessi su dataset multi-sorgente.
La piattaforma è basata su XNAT e ne estende le funzionalità attraverso la definizione di un modello dati personalizzato e modulare. L’obiettivo è gestire in modo uniforme dati preclinici relativi alla radioterapia FLASH e MiniBeam altamente eterogenei, includendo parametri numerici, dati tabulari, immagini, file strutturati (XML) e dati grezzi provenienti da differenti pipeline sperimentali e computazionali. È stato definito un modello dati esteso rispetto alla configurazione standard, basato sull’identificazione di entità comuni a basso livello e sulla formalizzazione dei workflow sperimentali e analitici. Questo approccio permette di rappresentare in modo coerente i diversi domini applicativi e di supportare requisiti specifici dei gruppi di ricerca coinvolti.
Un aspetto chiave della piattaforma è l’integrazione di pipeline di elaborazione e analisi dei dati, resa possibile grazie al lavoro di integrazione di XNAT con le risorse HPC dell’INFN di Pisa mediante containerizzazione (Docker, Singularity) e job scheduler (Slurm). Gli utenti possono eseguire analisi statistiche, elaborazioni di immagini e procedure automatizzate direttamente sulla piattaforma, senza necessità di esportare i dati verso ambienti esterni. Questo garantisce maggiore coerenza tra dati e risultati, migliora la gestione delle dipendenze computazionali e abilita workflow riproducibili end-to-end.
L’approccio proposto favorisce l’interoperabilità, la standardizzazione dei dati, la loro gestione centralizzata e l’automazione dei processi, rappresentando una base solida per lo sviluppo di applicazioni avanzate basate su Machine Learning e modelli meccanicistici sviluppati nell’ambito dello studio dell’effetto FLASH nel progetto PNRR-THE.Ringraziamenti: We acknowledge PNRR-M4C2-I1.5-ECS00000017-Tuscany Health Ecosystem (THE), FLASH_IT cascade call project, INFN - CSN5 under the Minibeam Radiotherapy (MIRO) and Artificial Intelligence in Medicine: focus on Multi-Input Analysis (AIM MIA) projects, Fondazione Pisa prog. n. 134/202, INFN-CSN5.
Speaker: Dr Camilla Scapicchio (Istituto Nazionale di Fisica Nucleare, Sezione di Pisa)
-
9
-
13:00
Pausa pranzo Ristorante
Ristorante
Vivosa Apulia Resort
-
Sessione "Infrastrutture e Sostenibilita'": prima parte Sala Meeting "Messapica"
Sala Meeting "Messapica"
Vivosa Apulia Resort
Via Vicinale Fontanelle - 73059 Ugento (Lecce)-
15
Introduzione
-
16
Principi di sostenibilità energetica ed ambientale applicati al calcolo INFN
La presentazione si propone di illustrare gli elementi di base della sostenibilità energetica ed ambientale, inquadrandola nel contesto del calcolo INFN.
La consapevolezza su questi argomenti da parte degli operatori IT può portare ad un miglior utilizzo delle risorse informatiche, promettendo ampi margini di guadagno. Saranno affrontati, in maniera schematica, i seguenti argomenti: La grammatica della sostenibilità e la sua declinazione nel mondo del calcolo, la metrica energetica e la contabilità ambientale, la vita utile delle apparecchiature informatiche in relazione alla loro impronta ambientale e LCA, l'impatto di AI.
L’uso razionale delle risorse di calcolo. Proposta di task per CCR: Calcolare, archiviare e inviare in maniera efficiente. Una sfida per IT e per la consapevolezza degli utenti.Speaker: Dr Matilde Cavalli (Padova University) -
17
Overview generale sulla Sostenibilità in attività INFNSpeaker: Marta Dalla Vecchia (Istituto Nazionale di Fisica Nucleare)
-
18
Un anno nella CNCF Sandbox: retrospettiva e considerazioni
Da Aprile 2025 il software di interLink, sviluppato dall’INFN nel contesto del progetto interTwin e ICSC, contribuisce alla Cloud Native Computing Foundation come uno dei prodotti della sandbox. In questo talk analizzeremo il primo anno di esperienza come maintainers, partendo dalle motivazioni che ci hanno spinti a intraprendere questo percorso e proponendo una retrospettiva sull'esperienza maturata finora.
In particolare affronteremo vari aspetti quali l'adeguamento alla governance aperta, la gestione della proprietà intellettuale, sistemi di gestione del processo di onboarding per lo sviluppo, strumenti open-source per il monitoring della qualità software, finendo con alcune opportunità e idee offerte dalle strategie di outreach della fondazione.
L'obiettivo dell'intervento è fornire spunti sulle possibili sinergie tra l’attività del calcolo INFN e quella della Cloud Native Computing Foundation.Speaker: Diego Ciangottini (INFN Perugia) -
19
Aggiornamento architetturale dell’infrastruttura Cloud della Sezione di Torino: Orchestrazione KVM, Flessibilità Storage e Auditing con OpenNebula.
Il presente intervento illustra la prima parte di un aggiornamento generale dell'infrastruttura cloud del centro di calcolo della Sezione di Torino, basato su OpenNebula.
Il progetto prevede l'orchestrazione di tecnologie di virtualizzazione native Linux (hypervisor KVM, libvirt) e storage distribuito. L'obiettivo è fornire la flessibilità necessaria per supportare, all'interno del medesimo ambiente, sia servizi infrastrutturali standard sia applicazioni intensive di calcolo scientifico, ottimizzando l'uso di un parco macchine eterogeneo e introducendo strumenti di verifica automatizzata della configurazione.
L'infrastruttura include host generici affiancati a server specializzati equipaggiati con acceleratori hardware (GPU) o processori multicore adatti al calcolo intensivo, e richiede dunque regole specifiche di scheduling per confinare i workload di calcolo scientifico e le simulazioni sui nodi appropriati, garantendo l'accesso all'hardware dedicato senza frammentare la gestione in cluster separati.
Per rispondere ai diversi profili di I/O richiesti dalle applicazioni, sono implementati tre livelli di storage: locale, CephRBD e CephFS, in base alla necessità di prestazioni, flessibilità o necessità di filesystem condivisi tra i nodi.
Il routing del traffico tra le reti isolate interne e l'esterno è demandato a istanze di Virtual Router (appliance Linux basate su Alpine) fortemente personalizzate all’avvio.
Per garantire che lo stato configurato nel database corrisponda alla realtà operativa, è stato integrato un tool di audit che esegue script modulari che interrogano in parallelo le API di OpenNebula e la riga di comando dei nodi KVM. L'audit verifica il corretto posizionamento delle VM, l'applicazione effettiva delle regole di firewall e l'integrità dei bridge di rete, segnalando istantaneamente disallineamenti o derive di configurazione.Speaker: Luca Tabasso (Istituto Nazionale di Fisica Nucleare)
-
15
-
16:35
Pausa caffè Area Sponsor
Area Sponsor
Vivosa Apulia Resort
-
Sessione "Infrastrutture e Sostenibilita'": seconda parte Sala Meeting "Messapica"
Sala Meeting "Messapica"
Vivosa Apulia Resort
Via Vicinale Fontanelle - 73059 Ugento (Lecce)-
20
Software SustainabilitySpeaker: Francesco Giacomini (Istituto Nazionale di Fisica Nucleare)
-
21
Benchmarking energy efficiency in HPC: methods and insights for modern architectures
In this presentation, we will describe a range of tools and methodologies for energy measurement and profiling in modern HPC architectures, supported by case studies and benchmarking results. Particular attention will be given to emerging accelerators and heterogeneous systems, with a focus on cross-platform comparisons, including recent NVIDIA Grace Hopper–based architectures. The goal is to provide researchers and practitioners with practical insights and guidelines for profiling the energy efficiency of scientific applications on modern HPC systems.
Speakers: Enrico Calore (Istituto Nazionale di Fisica Nucleare), Laura Cappelli (Istituto Nazionale di Fisica Nucleare) -
22
Tavola rotonda
-
20
-
2
-
-
Sessione "Calcolo Distribuito": prima parte Sala Meeting "Messapica"
Sala Meeting "Messapica"
Vivosa Apulia Resort
Via Vicinale Fontanelle - 73059 Ugento (Lecce)-
23
Scaling AI_INFN: Building a Unified, Geo-Distributed Backbone for Federated AI Research
The National Institute for Nuclear Physics (INFN) is a distributed research institute with computing resources spread across its federation. Through initiatives such as AI_INFN and projects like TeRABIT and ICSC, INFN has built a large-scale infrastructure for Machine Learning and AI, including GPU clusters, HPC systems, FPGA nodes, and high-performance storage. This infrastructure supports a growing community of experts applying ML to physics research, with a focus on scalability, open science, the exploration of emerging computing paradigms such as quantum computing and connecting experts with collaborations and dedicated hackathon events. By shifting toward innovative resource provisioning and advanced hardware R&D, AI_INFN ensures that researchers can effectively deploy machine learning algorithms, bridging the gap between cutting-edge technology and practical scientific applications.
Building on architectural advancements at the CNAF Tier-1 site, the project has optimized hardware orchestration and scalability while specifically enhancing the user experience for interactive and batch workloads. To validate this mature AI_INFN configuration, the ReCaS-Bari site—within the INFN Cloud federation—has been selected for platform replication and functional extension. This deployment serves as a critical testbed for frontier features, including workload offloading to the Leonardo supercomputer and other high-performance centers. By establishing ReCaS-Bari as a viable alternative to the CNAF instance, the project creates a foundation for future goals like cross-platform federation and the realization of a truly geo-distributed AI computing infrastructure for INFN.
Speaker: Gioacchino Vino (INFN (IT)) -
24
Stato e prospettive del data lake nazionale
Il WP6 di DataCloud da tempo conduce un’attività di R&D sul data management. A tal fine Rucio e i suoi servizi ancillari sono stati identificati come una componente chiave dell'architettura del data lake nazionale per fornire un accesso trasparente ai dati memorizzati in una infrastruttura distribuita dedicata alle esigenze delle diverse comunità scientifiche dell’ente.
Questa presentazione illustrerà innanzitutto la nostra esperienza operativa con Rucio, dall'implementazione di federazione di storage che utilizzano backend eterogenei, passando per le esperienze di utilizzo da parte delle prime comunità scientifiche medio-piccole. Vedremo come abbiamo affrontato alcuni requisiti specifici, come i modelli di autorizzazione, la registrazione degli utenti e il sistema di monitoring e visualizzazione.
Discuteremo inoltre su un possibile modello cloud-nativo di deployment dei servizi RUCIO e ancillari, che sia sostenibile per DataCloud ed efficace per le comunità/gruppi di ricerca.
Speaker: Marco Verlato (Istituto Nazionale di Fisica Nucleare) -
25
Evoluzione di INDIGO IAM per Infrastrutture di Ricerca Sicure, Federate ed Interoperabili
INDIGO IAM è un servizio di Identity and Access Management che fornisce autenticazione e autorizzazione all’interno di infrastrutture di ricerca distribuite. Si tratta di un’applicazione Java basata su librerie e framework Spring che implementa i protocolli OAuth/OpenID Connect (OIDC), in continua evoluzione al fine di soddisfare requisiti sempre più stringenti in termini di sicurezza, interoperabilità e osservabilità.
Un aspetto chiave è il progressivo rafforzamento della piattaforma (hardening), che include la migrazione dalla libreria OAuth Authorization Server, non più mantenuta, alle moderne librerie di Spring Security. Questa transizione rafforza sicurezza e affidabilità, consentendo al tempo stesso una migliore scalabilità, modularità e una più stretta integrazione con l’ecosistema Spring. Questa evoluzione è guidata anche dalle esigenze di nuove infrastrutture di ricerca ad alta sensibilità dei dati, come EPIC Cloud (Enhanced PrIvacy and Compliance Cloud), per la gestione sicura di dati clinici, biomedici e genomici in conformità con normative europee quali il GDPR e con standard di sicurezza certificati (ISO/IEC 27001, 27017 e 27018).
Ulteriori misure di sicurezza includono il supporto per access token vincolati al client (client-bound access tokens) ed un rafforzamento dell’autenticazione con il supporto a più fattori (Multi-Factor Authentication, MFA). Le credenziali dei client OAuth non vengono più memorizzate in chiaro, ma sono sottoposte a hashing prima di essere salvate su database, riducendo l’impatto di eventuali violazioni dei dati. Inoltre, gli access token possono non essere più memorizzati nel database, riducendo l’overhead e migliorando le prestazioni durante i flussi di autenticazione.
L’usabilità operativa e l’osservabilità sono in fase di miglioramento tramite una nuova dashboard Web che semplifica la gestione del servizio e disaccoppia le funzionalità rivolte agli utenti dai servizi core. Per rafforzare l’interoperabilità e le capacità di identità federata, superando i limiti dell’onboarding statico in ambienti di ricerca eterogenei e multi-comunità, si sta ultimando il supporto alla OpenID Federation. Nello stesso contesto di rafforzamento dell’interoperabilità di INDIGO IAM, è stato anche introdotto il supporto alla Proxied Token Introspection, uno dei requisiti fondamentali per poter operare da EOSC Node.
Speakers: Enrico Vianello (Istituto Nazionale di Fisica Nucleare), Roberta Miccoli (Istituto Nazionale di Fisica Nucleare) -
26
Offloading e orchestrazione di workflow scientifici su risorse eterogenee
I progetti AI_INFN e DataCloud hanno integrato un modello di federazione cloud–HPC/HTC basato sulla tecnologia interLink, con l’obiettivo di validare l’integrazione di risorse computazionali distribuite secondo la topologia DataCloud. In questo contesto, il programma di lavoro del WP6 di DataCloud è stato esteso per consolidare ed evolvere le attività avviate nei progetti ICSC e Terabit, in particolare quelle finalizzate alla realizzazione del Proof of Concept (PoC) con CINECA.
In questo contributo sarà descritto il setup, comune ai due progetti, che prevede la possibilità di istanziare servizi su un cluster k8s ospitato su risorse INFN Cloud e accedere trasparentemente alle risorse specializzate quali la HPC Bubble di Padova così come quelle di Leonardo al CINECA. Particolare attenzione sarà dedicata alla presentazione delle recenti implementazioni relative al networking, che costituiscono un elemento abilitante sia per l’offloading verso risorse remote, in cui la connettività di rete e’ limitata (come nel caso di CINECA) che per il corretto funzionamento di workflow che devono essere distribuiti su diverse infrastrutture eterogenee.
Infine verranno analizzati i casi d’uso attualmente integrati, con particolare attenzione alle soluzioni di orchestrazione dei workflow abilitate all’offloading. In questo ambito rientrano: la piattaforma Kubeflow, impiegata per lo sviluppo di applicazioni di intelligenza artificiale in contesti scientifici e a supporto dei casi d’uso GenAI della DSI; l’integrazione di workflow di regression testing e di pipeline CI/CD per il progetto G4Med (CSN5), finalizzati alla validazione continua dei modelli Geant4 di interesse per applicazioni in ambito medico; e infine Snakemake, adottato come orchestratore di workload AI all’interno della piattaforma AI_INFN, come ulteriore esempio di integrazione di workflow distribuiti su risorse eterogenee.Speaker: Giulio Bianchini (Istituto Nazionale di Fisica Nucleare) -
27
Evolution of INFN Cloud PaaS: Geo-Distributed Event-Driven Architecture and GitOps- Managed Kubernetes Federation
The INFN Cloud provides a federated portfolio of cloud services for scientific communities, leveraging on an Infrastructure as Code (IaC) approach for PaaS deployments. As the infrastructure scales, the legacy INDIGO PaaS Orchestration system - a monolithic, request-driven federation middleware - exhibits structural limitations in terms of maintainability, extensibility, and cross-site portability.
This work presents a complete architectural paradigm shift, transitioning the orchestrator to a decoupled, event-driven, and geo-distributed pipeline. The legacy core is being replaced by modular, stateless Python microservices communicating via Apache Kafka, which acts as the central event bus. This design decouples data ingestion, monitoring, event processing, and scheduling, ensuring intrinsic high availability and disaster recovery across geographically distributed clusters. Furthermore, the asynchronous, event-driven model streamlines distributed operations, allowing independent development units to isolate domains such as monitoring, data-driven scheduling, and external communications.
In parallel, the orchestration microservices are migrating to a Kubernetes-based infrastructure managed via ArgoCD, enforcing a strict GitOps model to simplify deployment, ensure continuous integration, and enhance traceability. The service portfolio is further expanded by federating Kubernetes-based providers, utilizing evolved TOSCA templates for automated deployments.
Resource allocation and quota management across multiple scientific communities are enforced using Capsule. Ultimately, these modernization efforts resolve existing technical debt and establish a highly scalable, secure, and sustainable foundation for the next generation of INFN Cloud federation.Speakers: Gioacchino Vino (INFN (IT)), Luca Giommi (Istituto Nazionale di Fisica Nucleare)
-
23
-
11:00
Pausa caffè Area Sponsor
Area Sponsor
Vivosa Apulia Resort
-
Sessione "Calcolo Distribuito": seconda parte Sala Meeting "Messapica"
Sala Meeting "Messapica"
Vivosa Apulia Resort
Via Vicinale Fontanelle - 73059 Ugento (Lecce)-
28
FPGA nelle infrastruttura di ricerca federate dell’INFN: prime esperienze con la bolla di Milano-Bicocca
Negli ultimi anni l’INFN ha rafforzato ed ampliato la propria infrastruttura di calcolo distribuito includendo sistemi hardware eterogenei, anche grazie ai progetti ICSC e TeraBIT, finanziati nell’ambito del Piano Nazionale di Ripresa e Resilienza (PNRR). Tra gli elementi più innovativi della federazione nazionale figurano i cluster hardware specializzati denominati HPC Bubble, in particolare quelli dotati di FPGA e GPU.
Questo contributo descrive il lavoro svolto per rendere disponibili le risorse FPGA della HPC Bubble di Milano-Bicocca. Si focalizza sulle esperienze fatte partendo dal supporto a scuole e corsi di formazione, fino ai test in corso per esplorare soluzioni di federazione con DataCloud sfruttando la tecnologia InterLink. Sarà mostrata una configurazione, realizzata anche grazie all’esperienza acquisita nel progetto AI_INFN, che permette l’estensione di Kubernetes, ospitati sull’INFN Cloud presso il CNAF, verso nodi FPGA ospitati nella bolla di Milano-Bicocca.
Lo scopo dell’attività è verificare la possibilità di disaccoppiare le fasi di sintesi ed esecuzione del firmware su infrastrutture eterogenee, semplificando l’esperienza utente.
Speakers: Daniele Spiga (Istituto Nazionale di Fisica Nucleare), Francesco Brivio (Istituto Nazionale di Fisica Nucleare), Giulio Bianchini (Istituto Nazionale di Fisica Nucleare), Massimo Sgaravatto (Istituto Nazionale di Fisica Nucleare), Mirko Mariotti (Istituto Nazionale di Fisica Nucleare), Paolo Dini (Istituto Nazionale di Fisica Nucleare), Simone Gennai (MIB) -
29
AUDITOR al CNAF: messa in produzione
A seguito del contributo presentato nella scorsa edizione del Workshop CCR, in cui sono stati descritti il funzionamento di WLCG AUDITOR e i primi test eseguiti al CNAF, questo intervento illustra le fasi di validazione e il definitivo passaggio in produzione del nuovo sistema di accounting.
Per garantire scalabilità e una facile manutenzione, l’infrastruttura è stata integrata con i sistemi di provisioning e configuration management in uso al Tier-1 (Foreman e Puppet).
Verranno descritti gli step operativi che hanno portato alla messa in produzione e le strategie adottate per la validazione e l’archiviazione dei dati di accounting. Infine, si presenterà l’architettura di monitoraggio implementata per assicurare la stabilità di tutte le componenti, basata sull’analisi centralizzata dei log e sull'alerting.Speaker: Alessandro Pascolini (Istituto Nazionale di Fisica Nucleare) -
30
Evolution toward federated digital infrastructures: the EOSC context
Within the Italian National Institute for Nuclear Physics (INFN), the evolution toward federated digital infrastructures is strongly aligned with the broader European strategy for open and trusted science ecosystems. In this context, the European Open Science Cloud (EOSC) Federation represents a key conceptual and operational framework aimed at enabling the seamless federation of distributed computing, data, and service resources across organizational and national boundaries, while preserving autonomy, policy compliance, and security constraints of participating providers. INFN contributes to this vision by leveraging its long-standing expertise in large-scale distributed computing, secure data management, and service orchestration in support of scientific communities.
In this context the two European-funded projects, EOSC-Connect and FLUID-AI, play complementary and strategic roles in reinforcing INFN’s participation in the EOSC Federation. EOSC-Connect primarily addresses the federation of resources and services by focusing on interoperability, harmonization of access mechanisms, and policy-driven integration across heterogeneous infrastructures. This is mainly focused on the federation among national nodes. Through its activities, EOSC-Connect supports the adoption of common interfaces, federated identity and access management, and shared service catalogs, enabling INFN resources to be exposed and consumed as part of a broader federated ecosystem. This approach reduces fragmentation and lowers the entry barrier for research communities, while ensuring that governance and usage policies remain enforceable across the federation.
FLUID-AI, on the other hand, targets the dynamic management and allocation of resources within and beyond security-controlled environments, with particular attention to ISO/IEC 27001-compliant areas dedicated to secure information management. In the INFN context, this translates into the ability to orchestrate workloads and services across trusted internal domains and external federated resources, while preserving strict guarantees on data protection, risk management, and compliance. FLUID-AI introduces intelligent, policy-aware mechanisms for adaptive resource placement, enabling workloads to fluidly transition between secure zones and less constrained environments based on data sensitivity, operational requirements, and real-time availability.
The combined impact of EOSC-Connect and FLUID-AI strengthens INFN’s role within the EOSC Federation by addressing both structural and operational dimensions of federation. Such integrated approach enables INFN to contribute to a sustainable and trustworthy federated ecosystem, where advanced scientific workloads can be executed across organizational boundaries without compromising security, compliance, or operational control. The experience gained through these projects provides a concrete pathway toward scalable, secure, and intelligent federation within the EOSC framework and beyond.
Speakers: Alessandro Costantini (Istituto Nazionale di Fisica Nucleare), Giacinto Donvito (Istituto Nazionale di Fisica Nucleare) -
31
General overview of DataCloudSpeaker: Giacinto Donvito (Istituto Nazionale di Fisica Nucleare)
-
28
-
13:00
Pausa pranzo Ristorante
Ristorante
Vivosa Apulia Resort
-
Sessione "Security e Compliance": prima parte Sala Meeting "Messapica"
Sala Meeting "Messapica"
Vivosa Apulia Resort
Via Vicinale Fontanelle - 73059 Ugento (Lecce)-
32
Gestire la complessità: la sfida NIS2 in un ente di ricerca multi‑istituto come il CNRSpeaker: Ermann Ripepi (CNR)
-
33
Filosofie e metodologie implementative della NIS2 in un EPR
Idee pratiche su come tradurre i requisiti NIS2 in scelte architetturali e processi operativi in un EPR. Approccio, priorità e lezioni apprese per integrare sicurezza, compliance e continuità senza rallentare l’evoluzione dei servizi.
Speaker: Michele Zennaro (OGS) -
34
Il Sistema di Gestione della Sicurezza delle Informazioni certificato ISO 27001
A dicembre '25 l'INFN ha certificato il Sistema di Gestione della Sicurezza delle Informazioni (SGSI) di EPIC Cloud che include, oltre alla partizione gestita dal CNAF dedicata alla ricerca biomedicale, anche gli interi datacenter di Bari (ReCaS) e Catania.
In questa presentazione sara' descritto il livello di maturita' del sistema certificato e le prospettive di utilizzo nel prossimo futuro per supportare la compliance normativa dell'Ente.
Speaker: Barbara Martelli (Istituto Nazionale di Fisica Nucleare) -
35
Tavola Rotonda
-
32
-
16:50
Pausa caffè Area Sponsor
Area Sponsor
Vivosa Apulia Resort
-
36
SPONSOR FORTINET: "L’AI che protegge l’AI: Resilienza delle infrastrutture di ricerca e Security Operations AI-Driven senza sacrificare le performance" Sala Meeting "Messapica"
Sala Meeting "Messapica"
Vivosa Apulia Resort
Via Vicinale Fontanelle - 73059 Ugento (Lecce)L’intervento esplora come l’intelligenza artificiale possa blindare le infrastrutture di ricerca senza generare colli di bottiglia. Si analizzerà il ruolo degli ASIC nei NGFW per garantire ispezione e sicurezza alla velocità del silicio, supportando volumi di dati massivi. Verrà approfondito l'impatto delle Security Operations AI-Driven nella correlazione automatizzata delle minacce e, infine, l’adozione di firewall specifici per l'AI per mitigarne i rischi specifici. Una strategia integrata per coniugare prestazioni estreme e difesa avanzata dell’ecosistema scientifico.
Speaker: Marco Spennato (FORTINET) -
Sessione "Security e Compliance": seconda parte Sala Meeting "Messapica"
Sala Meeting "Messapica"
Vivosa Apulia Resort
Via Vicinale Fontanelle - 73059 Ugento (Lecce)-
37
Backup locale e vault anti-ransomware multi-livello offsite per dati critici di funzionamento tramite Proxmox Backup Server
Nel panorama attuale, gli attacchi informatici più frequenti sono quelli di tipo Ransomware, ormai veicolati tramite sistemi di Intelligenza Artificiale e mirati a bloccare le attività di una o più entità pubbliche o private, chiedendo un riscatto per rilasciare i dati e ripristinare le attività normali. I sistemi crittografati dal ransomware sono sempre molto delicati da gestire e da ripristinare, e la semplice protezione perimetrale o preventiva anti-intrusione non è sempre sufficiente a bloccare questo tipo di attacchi in maniera efficace. Una strategia fondamentale per avere una protezione contro questi tipi di attacchi è quella di attuare un piano di backup immutabili e non facilmente accessibili per facilitare il ripristino dei servizi attaccati.
A tale scopo si è iniziata la sperimentazione di backup locali crittografati, multi livello, tramite Proxmox Backup Server, con finalità di trasmissione dati crittografata tra più server, in modalità stealth. Tali backup possono essere sia online che offline su unità rimovibili criptate, con vault multi-livello on-site ed off-site e configurazioni resistenti ad agenti di Ransonware. In questo contributo verrà spiegata l’architettura hardware e software nonché la strategia di backup per vari tipi di dati critici, come file, Virtual Machine o Container, gestiti tramite file server Posix, Proxmox VE o altri sistemi come oVirt o analoghi.Speaker: Alessandro De Salvo (Istituto Nazionale di Fisica Nucleare) -
38
Protezione dei dati in un’infrastruttura Cloud-Native: esperienza nell’implementazione di workflow AI-driven
La convergenza tra intelligenza artificiale (AI) e ricerca biomedica sta trasformando radicalmente le modalità di analisi di dataset complessi, in particolare nel contesto dell’istopatologia, dove l’imaging ad alta risoluzione è fondamentale per la diagnosi e la pianificazione terapeutica. Con l’adozione crescente di workflow basati su AI, i centri di ricerca devono affrontare una doppia sfida: garantire scalabilità e prestazioni computazionali da un lato, e assicurare conformità a requisiti stringenti di sicurezza e protezione dei dati dall’altro.
Tale sfida si accentua quando le attività si svolgono all’interno di un sistema ISMS (Information Security Management System) che richiede che ogni scelta tecnologica sia pienamente allineata ai processi di governance e ai controlli di sicurezza applicabili.
In questo contesto, la collaborazione tra l’EOSC Nodes italiano e BBMRI-ERIC, con il supporto dell’INFN e del CERIT-SC della Masaryk University, rappresenta un passo significativo verso la costruzione di infrastrutture cloud-native sicure per l’elaborazione di dati medici. L’iniziativa fa leva su tecnologie avanzate — tra cui cluster Kubernetes con benchmark CIS, un sistema di gestione federata delle identità basato su Keycloak, e pipeline AI containerizzate — per abilitare progetti di ricerca multi-istituzionali garantendo, al contempo, la tutela dei dati sanitari e la tracciabilità e riproducibilità dei workflow.
L’integrazione di queste componenti all’interno di un sistema ISMS ha però evidenziato diverse complessità operative. Il bilanciamento tra esigenze di elasticità, modularità e innovazione tecnologica da un lato, e politiche di sicurezza e requisiti normativi dall’altro, ha richiesto un processo continuo di armonizzazione tra governance e sviluppo.
Questo contributo descrive l’esperienza concreta nel raggiungere un equilibrio funzionale tra questi elementi, presentando le principali scelte architetturali, i controlli di sicurezza adottati e le modalità di collaborazione tra i partner coinvolti. L’obiettivo è condividere un modello operativo utile alla comunità, dimostrando che l’avanzamento tecnologico e la conformità normativa possono coesistere attraverso progettazione consapevole, iterazioni progressive e un approccio fondato sulla sicurezza già in fase di design.
Speakers: Alessandro Costantini (Istituto Nazionale di Fisica Nucleare), Barbara Martelli (Istituto Nazionale di Fisica Nucleare) -
39
LLM open weight e IT security: tra analisi, automazione e difesa proattiva
L’evoluzione dei modelli di linguaggio di grandi dimensioni (LLM) sta ridefinendo anche il modo in cui affrontiamo la sicurezza informatica. In questo talk esploreremo casi d’uso concreti in cui modelli open weight, ospitati e controllati direttamente all’interno dei nostri data center con infrastruttura federata, possono migliorare i processi di analisi e risposta agli incidenti.
Presenteremo alcuni casi d’uso pratici: dall’analisi automatica o on demand delle e-mail per individuare phishing e spam, alla classificazione e correlazione di eventi di sicurezza estratti dai log di sistema.
Infine, esploreremo l’impiego di agenti basati su LLM in grado di eseguire penetration test controllati e analisi statica del codice, sfruttando capacità di reasoning e pianificazione autonoma.
L’obiettivo è mostrare come modelli aperti ed auto-gestiti consentano di integrare potenza di analisi e governance dei dati, evitando lock-in su modelli commerciali e mantenendo il pieno controllo sulla sicurezza e sulla conformità del contesto operativo.Speaker: Federico Zani (Istituto Nazionale di Fisica Nucleare)
-
37
-
40
Sponsor HPE - SIRTI: "Anziché spostare i dati verso l'IA, la rete WAN per l'IA avvicina l'IA ai dati" Foyer adiacente alla Sala Messapica
Foyer adiacente alla Sala Messapica
Vivosa Apulia Resort
Con lo spostamento dell'inferenza IA da cluster centralizzati a sedi regionali e periferiche, la WAN diventa la rete WAN per l'IA, integrando inferenza distribuita, training centralizzato, sicurezza e operazioni in un'unica piattaforma coerente. Le nuove applicazioni native per l'IA devono garantire latenza prevedibile, gestire un'elevata concorrenza e migliorare il costo per token su larga scala, accelerando così la transizione verso un'infrastruttura IA più distribuita. Molte richieste di inferenza dipendono ora dalla WAN per garantire prestazioni deterministiche, applicare policy e coordinare le attività tra i domini in tempo reale.
Nell'era dell'IA, l'intelligenza non risiede in un unico luogo, e lo stesso vale per la rete che la supporta. Una singola interazione IA può attraversare più cluster periferici, reti metropolitane e regionali e coordinarsi continuamente con ambienti IA centralizzati. In tale contesto, le decisioni di routing influenzano direttamente le prestazioni, l'affidabilità e l'esperienza utente dell'IA. Questo è il ruolo della griglia WAN per l'IA: una rete WAN che collega data center, hub regionali e siti periferici in un'unica piattaforma di intelligenza orchestrata.Al termine della presentazione sarà servito un aperitivo a tutti i presenti
Speaker: Gabriele Indino (HPE)
-
-
-
Sessione "Tecnologie ICT Hardware e Software": prima parte Sala Meeting "Messapica"
Sala Meeting "Messapica"
Vivosa Apulia Resort
Via Vicinale Fontanelle - 73059 Ugento (Lecce)-
41
Aggiornamento tecnologico
Consueta presentazione su aggiornamento tecnologico e su andamento prezzi. Si tratta di una riproposizione, con i dovuti aggiornamenti, di quanto mostrato alla riunione di fine marzo.
Speaker: Dr Diego Michelotto (CNAF)
-
41
-
42
SPONSOR LENOVO: " The Convergence of HPC and AI… How?" Sala Meeting "Messapica"
Sala Meeting "Messapica"
Vivosa Apulia Resort
Via Vicinale Fontanelle - 73059 Ugento (Lecce)The increasing convergence of High‑Performance Computing (HPC) and Artificial Intelligence (AI) is transforming scientific computing infrastructures used by large research organizations such as INFN. Driven by shared reliance on accelerators, high‑speed interconnects, advanced storage, and open software ecosystems, HPC platforms are increasingly required to support data‑intensive AI workloads alongside traditional simulation‑driven science.
This contribution explores where this convergence is occurring across scientific applications, enabling technologies, and deployment models, and examines the resulting challenges for large‑scale research infrastructures. Rapid growth in processor and accelerator power densities introduces significant constraints related to power delivery, thermal management, and facility design, pushing conventional air‑cooled approaches beyond their practical limits.
Using real‑world examples of large AI training systems and AI‑factory‑style reference architectures, the presentation highlights the role of direct liquid cooling in improving energy efficiency, reducing operational overhead, and enabling sustainable scaling. The session concludes with key considerations for designing future‑proof HPC–AI infrastructures supporting next‑generation scientific research.
Speaker: Rick Koopman (LENOVO) -
Sessione "Tecnologie ICT Hardware e Software": seconda parte Sala Meeting "Messapica"
Sala Meeting "Messapica"
Vivosa Apulia Resort
Via Vicinale Fontanelle - 73059 Ugento (Lecce)-
43
Quantum Computing Activities at INFN and HEP
An overview of quantum computing activities at INFN and HEP is presented. Strategic aspects, including national/international and hardware roadmaps, are discussed.
Speaker: Concezio Bozzi (Istituto Nazionale di Fisica Nucleare) -
44
The Quantum Landscape: State of the Art, Architectures, Installations and Use Cases
As the maturity of quantum computing technologies increases, Europe is solidifying its position as a global player in the sector through the strategic integration of quantum processing units (QPUs) with world-class High-Performance Computing (HPC) infrastructures. This talk explores the rapidly evolving quantum landscape, moving from theoretical architectures to the tangible state of the art in 2026.
At the heart of this transition is the EuroHPC Joint Undertaking (JU), which has deployed a federation of six flagship quantum computers across key hosting sites: Italy (CINECA), Germany (LRZ), France (GENCI), Spain (BSC), Czechia (IT4I), and Poland (PCSS). Each site serves as a hosting entity for a diverse range of European-developed technologies. We will examine the specific role of CINECA, where two machines are being tightly coupled to the Leonardo supercomputer to enable hybrid workflows. The former is a 54-qubit IQM superconducting quantum computer, while the latter is a 140-qubit Pasqal Neutral Atom quantum simulator.
Beyond CINECA, the talk will map other significant installations within Italy, such as the IQM "Lagrange" system at the Politecnico di Torino, or the 64-qubit Partenope machine built in the context of the Naples Quantum Bay at Federico II University. The talk will also discuss the major European industrial players driving this hardware sovereignty, including IQM Quantum Computers (Finland), which focuses on Superconducting qubits; Pasqal (France), utilizing Neutral Atom technology; Quandela (France), developing Photonic processors; and Qilimanjaro (Spain), which works with Superconducting-based Quantum Annealing architectures.
The session will conclude with an analysis of potential use cases. These include combinatorial optimization for logistics management, molecular dynamics and chemical simulations, and the implementation of Quantum Machine Learning (QML) algorithms, all of which benefit from the low-latency, co-localized integration of QPUs with pre-exascale classical power.
Speaker: Vito Palmisano (CINECA)
-
43
-
10:25
Pausa caffè Area Sponsor
Area Sponsor
Vivosa Apulia Resort
-
45
SPONSOR VERTIV: "La nuova frontiera dei data center: infrastrutture digitali nell’era dell’AI e del calcolo accelerato" Sala Meeting "Messapica"
Sala Meeting "Messapica"
Vivosa Apulia Resort
Via Vicinale Fontanelle - 73059 Ugento (Lecce)Il settore dei data center sta entrando in una nuova fase di trasformazione. L’intelligenza artificiale e il calcolo accelerato stanno ridefinendo il modo in cui l’infrastruttura digitale viene progettata, distribuita e scalata. Fenomeni come l’aumento della densità computazionale, l’espansione verso data center su scala gigawatt, la diversificazione del silicio e l’emergere dei data center come vere e proprie unità di calcolo stanno trasformando profondamente progettazione, alimentazione elettrica, gestione termica, sistemi IT e modelli operativi. In questo contesto emergono nuove soluzioni tecnologiche, tra cui digital twin, generazione energetica in sito, distribuzione DC ad alta tensione e liquid cooling, che aiuteranno le organizzazioni ad affrontare la crescente complessità. Comprendere queste dinamiche sarà fondamentale per guidare investimenti più consapevoli e sviluppare infrastrutture digitali resilienti e pronte per il futuro, capaci di sostenere carichi di lavoro sempre più intensivi, garantire efficienza energetica e supportare la crescita continua delle applicazioni basate su AI e dati.
Speaker: Maurizio Giordano (VERTIV) -
Sessione "Tecnologie ICT Hardware e Software": Sessione "Tecnologie ICT Hardware e Software": terza parte Sala Meeting "Messapica"
Sala Meeting "Messapica"
Vivosa Apulia Resort
Via Vicinale Fontanelle - 73059 Ugento (Lecce)-
46
Antares: Multi-Agent AI for Automated Network Analysis and Troubleshooting in GARR Data Centers
Antares is a multi-agent system for autonomous network troubleshooting deployed across GARR's data center infrastructure.
Built on LangGraph orchestration, the system employs specialized vendor-specific agents (Arista, Juniper, Cisco) that execute structured queries via native APIs (eAPI, SSH/XML, NETCONF).
Operators interact through natural language in Italian, while the system autonomously coordinates device diagnostics, historical telemetry analysis (InfluxDB), and documentation lookup (RAG) to provide actionable recommendations.
By encoding expert knowledge as deterministic tools and configurable thresholds, Antares reduces Mean Time To Repair in complex multi-vendor environments.
This presentation shares the development journey, architectural decisions, lessons learned, and real-world troubleshooting scenarios from operational deployment.Speaker: Francesco Lombardo (GARR) -
47
Extending HEPScore benchmark to GPU architectures
Since 2023, HEPScore has been well established in the High‑Energy Physics community as the standard benchmark for WLCG sites. With GPU applications increasingly important in HEP and a growing availability of GPUs in the Grid, the need for a representative GPU benchmark is rising accordingly. This is particularly relevant in view of the High‑Luminosity LHC (HL‑LHC) era, which will substantially increase computing demands across the WLCG, posing challenges in terms of cost, energy consumption, and environmental sustainability.
The HEPiX Benchmarking Working Group has therefore intensified the development of a GPU counterpart, HEPScore4GPU. This effort builds on existing software frameworks and follows the successful HEPScore approach by using real HEP applications as benchmark payloads. GPU benchmarking introduces additional challenges, including heterogeneous architectures, workload‑specific optimizations, and rapid hardware and software evolution.
In parallel, the benchmark suite is extended with lightweight modules to collect server utilization and power metrics, enabling a more comprehensive evaluation of performance and power efficiency across diverse computing environments.
This contribution analyzes these challenges and presents the current benchmarking strategy, the development status, and power‑aware measurements in WLCG.
Speaker: Domenico Giordano (CERN) -
48
FPGA devices in Scientific Computing: enhancing performance and flexibility in modern computing architecture
Modern computing systems provably benefit from a moderate level of reconfigurability to adapt architectural features and enhance performance to specific computational problems, ranging from High-Performance Computing (HPC) to Artificial Intelligence (AI). While FPGAs were historically utilized to implement limited and specific architectures for niche applications, state-of-the-art devices have evolved into comprehensive System-on-Chip (SoC) platforms. Thanks to their integration of high-performance standard interfaces and extensive logic resources for complex computing structures, these devices are now deployed across almost all partitions of computing systems—from hardware accelerators and network architectures to optimized I/O subsystems.
This talk provides an introduction to the motivated use of programmable components in computing systems, followed by a descriptive overview of the architectures, features, and programming framework of modern FPGAs. We conclude by highlighting various research and computing fields where FPGAs find effective application, presenting examples from our current activities. These include the design of HPC systems within European frameworks, the development of Data Acquisition and Trigger systems for High Energy Physics (HEP) experiments, and the integration of dedicated, brain-inspired neural network architectures.
Speaker: Piero Vicini (Istituto Nazionale di Fisica Nucleare) -
49
COKA: Towards an automated heterogeneous HPC environment for scientific computing
Over the past two years, COKA, the HPC cluster for code prototyping and benchmarking installed at INFN Ferrara, has been upgraded with newer heterogeneous compute nodes and a refactored software ecosystem. Evolving from its original homogeneous five-node architecture, today the system incorporates NVIDIA Grace Hopper Superchips, IBM POWER9 systems, and multiple FPGAs.
To efficiently manage this architectural complexity and ensure maximum reproducibility, the cluster administration has been transitioned to an automated Infrastructure-as-Code model. The cluster is now available to users, supporting a diverse range of workloads including technology tracking, theoretical physics simulations, CMB data analysis, quantum simulations and AI training.
Following last year’s presentation of the cluster's design and deployment plan, in this talk we present an update on the present configuration of the cluster. We will focus on the challenges of managing a highly heterogeneous environment, with particular emphasis on the integration and orchestration of ARM and POWER9 architectures. Preliminary performance results and user feedback from the first production workloads will also be discussed.
Speaker: Laura Cappelli (Istituto Nazionale di Fisica Nucleare)
-
46
-
13:00
Pausa pranzo Ristorante
Ristorante
Vivosa Apulia Resort
-
Poster session Sala Meeting "Messapica"
Sala Meeting "Messapica"
Vivosa Apulia Resort
Via Vicinale Fontanelle - 73059 Ugento (Lecce) -
50
SPONSOR E4 Computer Engineering: "Quantum Computing @ E4 Computer Engineering" Foyer adiancete Sala Messapica
Foyer adiancete Sala Messapica
Vivosa Apulia Resort
This talk provides a practical overview of how E4 Computer Engineering is approaching quantum computing as a technology that complements High Performance Computing, with a specific focus on hybrid workflows and real-world applications. The presentation will outline E4’s positioning in the quantum landscape, its main areas of activity, and selected ongoing projects in domains such as optimization, drug discovery, cryptography, quantum machine learning, and image reconstruction. It will also show how, at this stage of technological maturity, emulators and proof-of-concept activities are essential tools to validate algorithms, build skills, and prepare for industrial adoption. In this context, E4 promotes a pragmatic approach supported by concrete assets such as a Quantum Emulator Appliance based on NVIDIA CUDA-Q and a Quantum Random Number Generator for high-reliability applications. The goal of the talk is therefore not only to explain why quantum computing matters today, but above all how to start using it in a realistic and valuable way.
Speaker: Daniele Ottaviani (E4 Computer Engineering) -
51
Momento conviviale e consegna gadget Sala Meeting "Messapica"
Sala Meeting "Messapica"
Vivosa Apulia Resort
Via Vicinale Fontanelle - 73059 Ugento (Lecce)
-
-
-
Sessione "Intelligenza Artificiale": prima parte Sala Meeting "Messapica"
Sala Meeting "Messapica"
Vivosa Apulia Resort
Via Vicinale Fontanelle - 73059 Ugento (Lecce)-
52
TBCSpeaker: Gabriella Scipione (CINECA)
-
53
Aspetti etici e regolatori nell'INFNSpeaker: Alessandro Brunengo (Istituto Nazionale di Fisica Nucleare)
-
54
Il programma di formazione AI nell'INFNSpeakers: Francesca Lizzi (Istituto Nazionale di Fisica Nucleare), Luciano Gaido (Istituto Nazionale di Fisica Nucleare), Silvia Arezzini (Istituto Nazionale di Fisica Nucleare)
-
55
Strumenti AI nell'INFN: Valutazione, Opportunità e Strategia di Adozione
L'integrazione dell'intelligenza artificiale nel panorama odierno sta producendo un impatto straordinario. Come ente di ricerca, l'INFN ha il compito fondamentale di comprendere questa tecnologia, sviluppare competenze specifiche e massimizzarne i benefici.
L'impiego diretto dei modelli AI, tuttavia, può presentare sfide significative sotto il profilo dell'implementazione, della sicurezza informatica e dell'accessibilità per gli utenti. Gli strumenti basati sull'AI rappresentano in tal senso una risposta efficace a tali criticità, in quanto offrono interfacce intuitive, ottimizzazione per compiti specifici, integrazione nei flussi di lavoro preesistenti, nonché misure dedicate di sicurezza e conformità normativa per la gestione dei dati sensibili, garantendo in alcuni casi l'accesso a molteplici LLM attraverso un'unica licenza.
Il presente lavoro illustra le attività di valutazione e sperimentazione condotte all'interno del gruppo CCR_AI4INFN finalizzate all'identificazione degli strumenti AI maggiormente idonei a supportare le attività scientifiche e amministrative dell'INFN, evidenziando sia le opportunità tecnologiche che le sfide legate alla normativa, alla sicurezza e alla gestione dati. Si sottolinea, inoltre, l'importanza di un approccio metodico, con un graduale processo di acquisizione delle competenze, sperimentazione degli strumenti ed elaborazione di una strategia condivisa e formativa.Speaker: Marina Passaseo (Istituto Nazionale di Fisica Nucleare) -
56
Uso di LLM opensource on-prem per il supporto allo sviluppo software
Lo sviluppo software ha trovato negli LLM un valido supporto per l'analisi, il prototyping e il debugging. Questo studio riporta la valutazione di un setup con LLM opensource, come DeepSeek o Qwen, serviti da vLLM e interfacciati con Claude Code CLI.
Speaker: Marco Corvo (Istituto Nazionale di Fisica Nucleare) -
57
Un mese con OpenClaw al mio fianco
Ho installato OpenClaw, un assistente AI molto famoso in rete, e lo sto usando da un po' di tempo.
Scopo della presentazione e' raccontare la mia esperienza e far capire che cosa si puo' ottenere da strumenti di questo tipo: un occhio di riguardo verra' dato alla sicurezza, aspetto molto critico per questo tipo di strumento.Speaker: Dr Diego Michelotto (CNAF)
-
52
-
11:00
Pausa caffè Area Sponsor
Area Sponsor
Vivosa Apulia Resort
-
Sessione "Intelligenza Artificiale": seconda parte Sala Meeting "Messapica"
Sala Meeting "Messapica"
Vivosa Apulia Resort
Via Vicinale Fontanelle - 73059 Ugento (Lecce)-
58
Artificial Intelligence technique in space experiments
The integration of advanced artificial intelligence techniques into astroparticle and high-energy physics experiments represents a transformative shift in both data analysis and experimental design. As space missions become increasingly sophisticated, the adoption of AI-driven methodologies is essential for optimizing detector performance and ensuring robust scientific results.
In this work, we present the development and application of machine learning approaches for two key tasks in space-based experiments: particle tracking and calorimetric shower classification. For tracking, we introduce innovative algorithms based on Graph Neural Networks (GNNs), a central paradigm of geometric deep learning that naturally exploits the graph structure of detector data, where nodes represent energy deposits (hits) and edges encode spatial and temporal correlations. A major challenge in this context is the highly noisy environment, dominated by backscattering hits from the calorimeter, which complicates the reconstruction of primary particle trajectories. To address this, we propose a dedicated GNN-based node-classification pipeline designed to effectively discriminate noise hits from true signal hits, significantly improving tracking accuracy.
In parallel, we investigate AI techniques for the classification of electromagnetic and hadronic showers in space calorimeters (transformer and boosting algorithms). Using Monte Carlo simulations and dedicated feature engineering, our results demonstrate the strong potential of AI methods to enhance classification performance in complex detector environments.
To manage the large data volumes and computational demands of these tasks, we implement a distributed training strategy with parallelization across multiple GPUs. Extensive tests conducted on NVIDIA A100 and H100 architectures at the ReCaS data center, the Leonardo infrastructure and the Napoli GPUs cluster show substantial reductions in training time and memory usage, while preserving model stability and performance.
Overall, this study highlights the effectiveness of modern AI techniques, particularly GNNs and scalable training strategies, in addressing key challenges in space-based particle physics, paving the way for more efficient and accurate data analysis in future experiments.Speaker: Dr Federica Cuna (Istituto Nazionale di Fisica Nucleare- Sezione di Bari) -
59
Diamonds in the heterogeneous continuum: from AI_INFN to Data Cloud, with offloading
The offloading of Kubernetes‑managed computing workloads to the serverless INFN DataCloud infrastructure has become a key component in the emerging national strategy for federating heterogeneous computing resources. In this contribution, we present a workflow designed to simulate the response of 3D diamond detectors to minimum‑ionizing particles, providing the ground-truth for validating Physics Informed Neural Networks. This workflow is representative of a broader class of scientific applications because it integrates GPU‑accelerated computation with legacy high‑throughput (HTC) software originally developed for traditional grid environments.
To enable portable execution across heterogeneous backends, we decomposed the workflow into a Directed Acyclic Graph (DAG) managed by Snakemake and deployed through the AI_INFN Platform. This design separates HTC tasks from GPU‑intensive kernels, allowing their distribution across both the INFN Tier‑1 facility and the TeRABIT HPC Bubble in Padova via the interLink federation layer.
We report on the practical limitations encountered when using Snakemake as the orchestrator in this offloading scenario, particularly regarding secret management and automation. Finally, we discuss how recent developments, most notably the introduction of an overlay network in interLink deployments, enable the adoption of modern workflow engines such as Argo Workflows, opening the path to more flexible, cloud‑native orchestration models.Speaker: Rosa Petrini (Istituto Nazionale di Fisica Nucleare) -
60
Tavola rotonda: Evoluzioni dell'Infrastruttura di Calcolo ed Intelligenza Artificiale
-
58
-
13:00
Pausa pranzo Ristorante
Ristorante
Vivosa Apulia Resort
-
61
SPONSOR SCHNEIDER ELECTRIC: "I Fondamentali del Liquid Cooling: dall’IT all’infrastruttura di cooling" Sala Meeting "Messapica"
Sala Meeting "Messapica"
Vivosa Apulia Resort
Via Vicinale Fontanelle - 73059 Ugento (Lecce)Lo sviluppo e la diffusione delle applicazioni software per l’Intelligenza Artificiale hanno accelerato l’adozione di server con raffreddamento a liquido “built in”, in parziale o totale sostituzione del raffreddamento ad aria. L’infrastruttura di raffreddamento del data center è di conseguenza mutata per soddisfare le nuove specifiche termiche, ma non solo. I dettagli costruttivi e funzionali del server raffreddato a liquido impattano in modo sostanziale la tecnologia del sistema di cooling, la filosofia di progettazione e le logiche di regolazione. La presentazione affronta un “ritorno ai fondamentali” del sistema di cooling per comprendere come queste differenze costruttive “micro” si ripercuotano a livello “macro”. Quali sono i punti di attenzione nella progettazione di sistemi di raffreddamento a liquido efficaci, affidabili ed efficienti?
Speaker: Stefano Lena (Schneider Electric) -
Sessione "Intelligenza Artificiale": terza parte Sala Meeting "Messapica"
Sala Meeting "Messapica"
Vivosa Apulia Resort
Via Vicinale Fontanelle - 73059 Ugento (Lecce)-
62
Deep Learning e Transfer Learning per il denoising di immagini LDCT-torace
L’implementazione di protocolli a bassa dose per la Tomografia Computerizzata (Low-Dose Computed Tomography, LDCT) riveste oggi un ruolo fondamentale per ridurre l’esposizione del paziente alle radiazioni ionizzanti, mantenendo al contempo un’adeguata qualità diagnostica delle immagini. Questo aspetto è particolarmente rilevante in contesti quali lo screening del tumore polmonare, dove un ampio numero di individui potenzialmente sani viene sottoposto all’esame, nell’endoscopia virtuale, in cui l’acquisizione CT sostituisce procedure endoscopiche tradizionali, e nell’imaging pediatrico, dove la minimizzazione della dose è di primaria importanza a causa della maggiore radiosensibilità dei pazienti. Tuttavia, la riduzione della dose comporta un significativo aumento del rumore nelle immagini, dovuto alla relazione inversa tra il rumore e la radice quadrata della dose erogata. Questo può compromettere la visibilità di strutture patologiche di piccole dimensioni e a basso contrasto, come i noduli polmonari.
Per affrontare questo problema, il nostro gruppo ha sviluppato un modello basato su Deep Learning: una U-Net based Convolutional Autoencoder costituita da un’architettura convoluzionale a quattro livelli, arricchita con caratteristiche tipiche delle U-Net per favorire la preservazione dei dettagli anatomici nelle immagini ricostruite.
A causa della limitata disponibilità di dati clinici accoppiati a dose bassa e standard, il modello è stato addestrato mediante una strategia in due fasi. Nella prima fase sono state utilizzate esclusivamente immagini del fantoccio commerciale Catphan acquisite a diverse dosi, consentendo alla rete di apprendere i pattern fisici del rumore CT in un ambiente controllato. Nella seconda fase questa conoscenza preliminare viene sfruttata tramite Transfer Learning per adattare il modello al contesto clinico. In particolare, l’architettura viene inizializzata con i pesi della prima fase e riaddestrata per un numero limitato di epoche utilizzando un dataset clinico estremamente ridotto, costituito da un singolo esame CT, la cui controparte a bassa dose è ottenuta mediante aggiunta sintetica di rumore.
Nonostante l’utilizzo minimo di dati clinici, il modello risulta efficace nel denoising di immagini LDCT del torace, operando in diverse condizioni di rumore e su dati provenienti da scanner di vendor differenti. Sul test set di immagini LDCT cliniche, il metodo raggiunge in media un fattore di riduzione del rumore pari a 3.4. Inoltre, una valutazione qualitativa condotta da due radiologi esperti dell’Ospedale Cisanello di Pisa ha evidenziato un miglioramento della qualità percepita delle immagini, con una maggiore visibilità delle strutture anatomiche polmonari e delle eventuali strutture patologiche.Speaker: Dr Simone Damiani (Istituto Nazionale di Fisica Nucleare) -
63
An AI-based approach to discriminate malignant and benign breast lesions using morphological and dynamic features on T2 and DCE-MRI sequences
Distinguishing malignant from benign lesions using MRI imaging can significantly improve both diagnostic and therapeutic management. Artificial Intelligence (AI) can play a crucial role in this process. Dynamic Contrast-Enhanced (DCE) MRI has proven effective at this scope by providing valuable features related to cellularity and neoangiogenesis. We propose an ensemble learning approach to classify breast lesions leveraging morphological and dynamic features.
The analysis has been carried out on the publicly available “Advanced MRI Breast Lesions” dataset from The Cancer Imaging Archive. This dataset includes T2-weighted and DCE-MRI sequences (5 time-step), along with segmentations of all suspicious lesions. The 164 available lesions were divided into a training set (144 lesions) and a test set (20 lesions), with the latter taken apart to assess the generalization capability of the model. After extracting radiomic features using Pyradiomics python package, we computed dynamic features from DCE-MRI kinetic curves, which describe the contrast wash-in and wash-out. These features have been defined as the derivatives of measures, like mean or standard deviation, computed on the 5 DCE-MRI time steps inside the lesion masks. We trained and evaluated an XGBoost model, experimenting with different feature combinations in a stratified 5-fold cross-validation.
The best model trained on T2-weighted MRI morphological features achieved an Area Under the Curve (AUC) score of 0.83±0.02 on the independent test set, while the model using only dynamic features performed an AUC of 0.91±0.02.
Preliminary results show the great potential of integrating information present in DCE images. In the future, we will apply the analysis in a multicentric setting.
Speaker: Gianluca Morcaldi (Istituto Nazionale di Fisica Nucleare) -
64
Cobrawap: a flexible data analysis software bridging experimental neuroscience and state-of-the-art AI solutions
A fast and reliable data processing is becoming increasingly crucial in biological and medical applications for extracting quantitative information and providing reliable predictions, especially when coming to AI-assisted tools. At the same time, several concerns may be raised regarding the analysis of human data: fair comparison between heterogeneous data sources, reliability and explainability of data processing outcomes, potential clinical decisions based on them, and an acceptable trade-off between reproducibility in the analysis and privacy guaranteed by National and European regulations.
In this framework, the experience of Cobrawap (Collaborative Brain Wave Analysis Pipeline, https://doi.org/10.5281/zenodo.10198748) for the standardized multi-modal analysis of brain activity, either experimentally recorded or simulated, has provided interesting solutions to these problems, complying with FAIR and Open-Science principles. Showcased as a successful interdisciplinary project since the Human Brain Project, then within EBRAINS and the PNRR initiative EBRAINS-Italy, Cobrawap builds on the co-design between the needs expressed by the neuroscientific community and the technological solutions offered by our community, namely bringing into the neuroscience domain the computational expertise developed by INFN during decades of massive data analysis for core-business experiments.
We will show the latest technical solutions implemented with the purpose of releasing Cobrawap as a ready-to-go service for users coming from different backgrounds, leveraging either on-premise (e.g., HPC execution on CINECA facilities) or cloud solutions (e.g., EBRAINS Collab), still offering a customizable experience thanks to the modularity of the pipeline, and its innate collaborative design. The backbone execution is left behind the curtains, orchestrated by workflow managers such as Snakemake or CWL, with the final users in charge of handling simple human-readable configuration files.
Future outlooks regard the use of Cobrawap for the study of artificial neural networks, with the two-fold aim of unveiling the “black box” and offering biologically inspired solutions to enhance the accuracy and the energetic performances of current state-of-the-art AI architectures.
Speaker: Cosimo Lupo (Istituto Nazionale di Fisica Nucleare)
-
62
-
65
SPONSOR: INTEL DELL Technologies: Storage for HPC and AI will never be the same anymore Sala Meeting "Messapica"
Sala Meeting "Messapica"
Vivosa Apulia Resort
Via Vicinale Fontanelle - 73059 Ugento (Lecce)This session explores how AI workloads stress the data pipeline, highlighting the symbiosis between compute and storage. Starting from the characteristics of AI traffic and GPU bottlenecks, we show how to design high-performance file-based storage architectures (including a “two rings” data lake model) that maximize GPU utilization and prepare for tomorrow’s large-scale AI factories.
Speaker: Paolo Bianco (DELL Technologies) -
17:00
Pausa caffè Area Sponsor
Area Sponsor
Vivosa Apulia Resort
-
Sessione "Servizi ICT": prima parte Sala Meeting "Messapica"
Sala Meeting "Messapica"
Vivosa Apulia Resort
Via Vicinale Fontanelle - 73059 Ugento (Lecce)-
66
Dns-ha stato dell'arte
Aggiornamento dello stato del DNS-HA nazionale: il sistema DNS multimaster con ridondanza geografica, distribuito su quattro sedi differenti in tutta Italia. Utilizzando PowerDNS e il cluster database Percona e l'interfaccia web di gestione Poweradmin, abbiamo garantito la continuità operativa e la resilienza del sistema, permettendo la modifica dei record DNS da parte di vari gruppi di lavoro nazionali.
L'architettura del sistema è stata progettata per offrire alta disponibilità e tolleranza ai guasti, assicurando che ogni sede possa operare autonomamente in caso di disservizi locali. La sincronizzazione dei dati tra i nodi del cluster è gestita in modo efficiente, garantendo la coerenza dei record DNS in tempo reale.
Questo approccio permette una gestione decentralizzata e sicura dei record DNS, migliorando la flessibilità e la reattività del sistema alle esigenze dei gruppi di lavoro distribuiti. Il progetto rappresenta un passo verso l'ottimizzazione delle infrastrutture dei servizi nazionali, offrendo una soluzione robusta e scalabile per la gestione dei DNS.Speakers: Lorenzo Chiarelli (Istituto Nazionale di Fisica Nucleare), Mirko Corosu (Istituto Nazionale di Fisica Nucleare) -
67
eduVPN: verso una VPN nazionale per INFN?
L’accesso sicuro a risorse protette richiede l’utilizzo di server VPN affidabili e semplici da usare. EduVPN[1] si propone proprio come soluzione open-source, user‑friendly, integrabile facilmente con sistemi di Single Sign‑On e capace di gestire in modo trasparente certificati e chiavi crittografiche. Il client, disponibile per le principali piattaforme desktop e mobile, svolge due funzioni: comunica con il portale per ottenere le configurazioni e interagisce con i nodi per instaurare le connessioni protette.
Grazie all’esperienza maturata in Sezione a Pisa e alla chiara separazione architetturale tra il portale web (vpn-user-portal) e i nodi che erogano i tunnel cifrati, il NetGroup ha realizzato un testbed VPN a livello nazionale. Il portale è stato installato sui sistemi di business continuity, con il supporto dei Servizi Nazionali, e collegato a vari nodi situati nelle sedi dell’Istituto che hanno partecipato alla fase di test. Dopo il login, l’utente visualizza la lista dei profili a cui ha diritto di accesso e può selezionare quello desiderato (ad esempio uno split tunnel). La scelta genera in modo dinamico una configurazione personalizzata che include il materiale crittografico, il nodo di connessione, il protocollo e tutti i parametri necessari alla creazione del tunnel. L’autenticazione multifattore è realizzata attraverso INFN‑AAI e sfrutta gli attributi SAML per definire le ACL. L’intera procedura è completamente automatizzata dal client EduVPN.
WireGuard è il protocollo preferenziale; tuttavia, in caso di filtraggi delle porte, i client possono utilizzare ProxyGuard, che sfrutta HTTPS e consente generalmente di aggirare tali limitazioni.
È stato inoltre verificato con successo lo scenario multi‑nodo per uno stesso profilo, utile per garantire alta affidabilità, bilanciamento del carico e manutenzione con impatto minimo sul servizio.
Per semplificare il deploy dei nodi e rendere riproducibile in tempi rapidi il setup dell'intera infrastruttura il gruppo di lavoro ha anche prodotto dei playbook ansible.
In base ai risultati ottenuti, la piattaforma si conferma una soluzione promettente per offrire un servizio VPN all’intera comunità INFN.
[1] https://www.eduvpn.org/
Speaker: Francesco Laruina (Istituto Nazionale di Fisica Nucleare)
-
66
-
68
SPONSOR HUAWEI: "Innovazioni Tecnologiche in ambito AI e HPC: Le Roadmap di Huawei per la Nuova Era della Ricerca" Sala Meeting "Messapica"
Sala Meeting "Messapica"
Vivosa Apulia Resort
Via Vicinale Fontanelle - 73059 Ugento (Lecce)Nell’era dei Big Data scientifici, le infrastrutture AI e HPC sono diventate il motore fondamentale della Ricerca e Sviluppo. In questa sessione Huawei presenterà come ha potenziato il proprio ecosistema per rispondere a queste nuove sfide computazionali. Verrà offerta una panoramica rapida sulle ultime soluzioni tecnologiche e sulle loro integrazioni dirette nei principali ambiti di ricerca, mostrando come accelerare i carichi di lavoro complessi e ottimizzare l'analisi dei dati sperimentali.
Speaker: Mattia Crescente (HUAWEI)
-
-
-
Sessione "Servizi ICT": seconda parte Sala Meeting "Messapica"
Sala Meeting "Messapica"
Vivosa Apulia Resort
Via Vicinale Fontanelle - 73059 Ugento (Lecce)-
69
Proxy LDAP Translucent ai LNF: estensione POSIX dell'identità INFN per l'accesso HPC via credenziali AAI
Il sistema messo a punto ai Laboratori Nazionali di Frascati serve a estendere l'infrastruttura di identità nazionale dell'INFN per soddisfare le esigenze operative del sito. In particolare, si concentra sull'accesso degli utenti esterni autenticati tramite AAI alle interfacce utente delle Bubble HPC gestite con Slurm.
Il progetto nasce dalla necessità di offrire un punto di ingresso controllato e coerente con il modello di sicurezza dell'INFN, senza alterare l'albero di directory nazionale. La soluzione si basa su un server OpenLDAP locale configurato con backend MDB e overlay translucent, che opera come proxy arricchito verso i Directory System Agent (DSA) nazionali dell'INFN.
Il server mantiene due basi dati distinte: una per i gruppi specifici del sito e l'altra per gli attributi POSIX necessari all'ambiente HPC, come uidNumber, gidNumber, loginShell e homeDirectory, che non sono presenti nell'albero centrale. L'overlay translucent fonde dinamicamente questi dati locali con quelli provenienti dall'LDAP nazionale, operando in modalità strict per impedire qualsiasi scrittura verso monte.
L'autenticazione è interamente delegata all'infrastruttura nazionale: tutte le operazioni di bind vengono inoltrate ai server dell'INFN, che le gestiscono tramite Kerberos di sezione o altri meccanismi centrali. Questa scelta evita la proliferazione di domini di autenticazione paralleli e preserva la catena di trust ufficiale dell'ente.
I client Linux, compresi i nodi di accesso alle Bubble HPC, utilizzano SSSD per ottenere una vista unificata e coerente dell'identità. Gli attributi anagrafici e istituzionali provengono dal DSA nazionale, mentre gli attributi POSIX e i gruppi locali sono forniti direttamente dal server translucent. L'autenticazione resta completamente delegata allo stack centrale dell'INFN, senza alcuna gestione locale delle credenziali.
Questo approccio dimostra come sia possibile integrare requisiti POSIX locali in un'infrastruttura di identità federata, senza duplicare le informazioni già presenti né compromettere l'integrità, offrendo un modello di autenticazione trasparente per gli utenti sparsi nelle varie sedi dell'INFN.Speaker: Riccardo Gargana (Istituto Nazionale di Fisica Nucleare) -
70
Inventario, osservabilità e riconciliazione: un sistema integrato per datacenter di calcolo scientifico
Il monitoraggio di un datacenter di calcolo scientifico richiede due cose distinte: raccogliere metriche in modo affidabile, e sapere con precisione cosa c'è nell'infrastruttura. Il primo è ben coperto da Prometheus e Grafana con protocolli standard — SNMP, IPMI, Redfish. Il secondo — mantenere un inventario coerente quando le fonti di informazione sull'infrastruttura possono divergere silenziosamente — è il problema che questo sistema affronta.
La scelta architetturale centrale è tenere la logica vicina ai dati: un database PostgreSQL come source of truth, dove vivono le regole operative — stato delle macchine, eligibilità al monitoraggio, integrità dell'inventario. I target Prometheus sono generati dinamicamente da query sul database, non gestiti a mano. Ogni componente del sistema — schema, logica di probe, regole di riconciliazione, CLI — è ispezionabile e modificabile senza toccare una piattaforma esterna. Questo ha un costo: non c'è una GUI dedicata, e la curva di apprendimento per un nuovo operatore non è banale. Ma significa anche che il sistema si adatta al datacenter, non il contrario.
L'interfaccia verso gli operatori è un pacchetto Python con strumenti CLI per la gestione dell'inventario, il monitoraggio attivo, la verifica dei certificati X.509 e la sanitizzazione dei dati — evoluto da una prima generazione di script Bash.
Due componenti di osservazione chiudono il ciclo. Il primo raccoglie e storicizza osservazioni ARP, segnala conflitti e discrepanze, e supporta l'onboarding di nuovi nodi. Il secondo confronta sistematicamente tre fonti — Netdisco, scan ARP e database interno — per rilevare anomalie e proporre aggiornamenti alla topologia dichiarata, con scoring sull'affidabilità delle osservazioni e conferma esplicita dell'operatore. La topologia L2 è costruita combinando dati LLDP da Netdisco con una discovery diretta degli switch via SNMP, correlata con l'inventario e visualizzata come mappa HTML interattiva.
L'architettura aperta rende il sistema adattabile: chi dispone già di un CMDB esterno può usarlo come sorgente dell'inventario, alimentando il database e mantenendo l'intera pipeline funzionante. Non è un'integrazione pronta — richiede un adattatore specifico per l'infrastruttura — ma l'interfaccia è semplice e ben definita.
Gli sviluppi in corso riguardano due direzioni principali: rendere l'audit multidimensionale, sostituendo un insieme fisso di probe per macchina con un modello configurabile e componibile; e applicare uno scoring di stabilità anche alle osservazioni ARP, analogamente a quanto già fatto per la topologia L2. Restano aperte diverse strade e idee ancora da implementare con vario grado di dettaglio, per rendere il sistema più ergonomico.
Speaker: Nicola Mosco (Istituto Nazionale di Fisica Nucleare) -
71
Alta affidabilità e continuità operativa dei servizi core di INFN Datacloud
INFN Datacloud è il portfolio di infrastrutture e servizi cloud sviluppato dall’Istituto Nazionale di Fisica Nucleare per supportare le comunità scientifiche con piattaforme distribuite, scalabili e semplici da utilizzare. L’ecosistema offre numerosi servizi infrastrutturali e applicativi — tra cui PaaS, NaaS, repository di container basati su Harbor, sistemi di Identity and Access Management (IAM) e altri strumenti dedicati alla gestione di ambienti di calcolo scientifico — progettati per facilitare l’adozione del paradigma cloud nella ricerca.
La gestione di un’infrastruttura così articolata richiede strumenti avanzati di controllo, automazione e osservabilità. Per questo INFN Cloud adotta un sistema di gestione che semplifica il lavoro degli amministratori di sistema e garantisce visibilità sull’intera piattaforma. Tra questi rientrano sistemi di monitoring e accounting per il tracciamento delle risorse e delle prestazioni, strumenti di configurazione e automazione come Puppet, e piattaforme di logging e analisi che permettono di individuare rapidamente anomalie o degradi del servizio.
Un aspetto centrale nella progettazione di INFN Datacloud è la capacità di garantire alta affidabilità e continuità operativa dei servizi, requisiti fondamentali per supportare carichi di lavoro scientifici spesso critici e distribuiti. Per raggiungere questo obiettivo vengono adottate diverse strategie di resilienza infrastrutturale: storage e database distribuiti per eliminare singoli punti di guasto, ridondanza geografica tra diversi data center, meccanismi di replica e backup periodici per la protezione dei dati, e sistemi di failover basati su DNS che consentono di reindirizzare automaticamente il traffico verso siti alternativi in caso di indisponibilità.
In questo contributo presentiamo l’architettura dei servizi principali di INFN Datacloud e le soluzioni adottate per garantire robustezza e continuità del servizio. Verranno inoltre discusse le scelte tecnologiche e operative che permettono di mantenere un equilibrio tra semplicità d’uso per gli utenti finali, efficienza operativa per i gestori dell’infrastruttura e sicurezza complessiva della piattaforma. Come caso d'uso di questa architettura in alta affidabilità, discuteremo l'implementazione multi-primary del repository di container Harbor, la sua integrazione con il database Postgres, e il meccanismo di failover automatico basato su DNS e monitoring Zabbix.
Speakers: Alessio Fiori (Istituto Nazionale di Fisica Nucleare), Nadir Marcelli (Istituto Nazionale di Fisica Nucleare), Francesco Sinisi (Istituto Nazionale di Fisica Nucleare) -
72
I servizi di Software Management di INFN DataCloud
INFN DataCloud offre agli utenti un servizio di Software Management basato su CernVM-FS, un filesystem distribuito progettato per fornire un meccanismo affidabile e scalabile per la distribuzione di software in ambienti eterogenei. Il prototipo sviluppato dal gruppo Ricerca e Sviluppo di INFN DataCloud e l’istanza di pre-produzione messa a punto dal gruppo Operations sono stati presentati nelle scorse edizioni del Workshop. Il servizio è in produzione su INFN DataCloud dall’inizio di quest’anno ed è oggi integrato nella maggior parte dei centri di calcolo INFN.
Gli utenti possono scegliere tra due differenti modalità di pubblicazione, da specificare al momento della richiesta. Nella modalità standard, gli utenti richiedono un repository personale o di gruppo tramite il ServiceDesk di INFN DataCloud, e possono distribuire il loro software mediante i meccanismi nativi del CVMFS Publisher. Le chiavi e i certificati necessari per pubblicare vengono forniti all’utente in formato crittografato al momento della creazione del repository. La seconda modalità di pubblicazione permette invece agli utenti di pubblicare immagini scompattate di container in un repository dedicato. I progetti nel registro di container Harbor denominati “unpacked-[nome]” - creati su richiesta per esperimenti, gruppi o singoli utenti - vengono sincronizzati in un unico repository CVMFS denominato “unpacked.infn.it”. Grazie ad un webhook e al meccanismo di spacchettamento DUCC nativo di CVMFS, ogni immagine pubblicata dall’utente nel proprio progetto Harbor verrà automaticamente scompattata e resa disponibile nel repository in un percorso corrispondente al progetto.
Un’ulteriore modalità di pubblicazione, attualmente in fase di completamento, prevede la sincronizzazione automatica tra un bucket S3 personale o di gruppo - su cui gli utenti scrivono in INFN DataCloud - e un repository CVMFS tramite un’applicazione di sincronizzazione sviluppata ad-hoc. È in corso l’integrazione con un servizio aggiornato di gestione centralizzata delle chiavi, a seguito della quale questo scenario sarà messo in produzione.
Il sistema di Software Management è oggi integrato con gli altri servizi core di INFN DataCloud. Il gruppo Supporto Utenti fornisce documentazione e supporto dedicato. Questo servizio offre agli utenti una migliore esperienza grazie ad un meccanismo di pubblicazione software versatile, intuitivo e adatto a diversi casi d’uso.
Speakers: Alessio Fiori (Istituto Nazionale di Fisica Nucleare), Alex Lenni (Istituto Nazionale di Fisica Nucleare)
-
69
-
73
Chiusura Sala Meeting "Messapica"
Sala Meeting "Messapica"
Vivosa Apulia Resort
Via Vicinale Fontanelle - 73059 Ugento (Lecce) -
11:10
Pausa caffè Area Sponsor
Area Sponsor
Vivosa Apulia Resort
-