Workshop sul Calcolo nell'INFN: Paestum, 23 - 27 maggio 2022

Europe/Rome
Sala Saturno (Hotel Ariston)

Sala Saturno

Hotel Ariston

Via Laura, 13 - Capaccio-Paestum (SA)
Alessandro Brunengo (Istituto Nazionale di Fisica Nucleare), Gianpaolo Carlino (Istituto Nazionale di Fisica Nucleare)
    • 11:00
      Registrazione Reception Desk

      Reception Desk

    • 1
      Apertura dei lavori Sala Saturno

      Sala Saturno

      Hotel Ariston

      Via Laura, 13 - Capaccio-Paestum (SA)
      Speakers: Alessandro Brunengo (Istituto Nazionale di Fisica Nucleare), Gianpaolo Carlino (Istituto Nazionale di Fisica Nucleare)
    • Esperimenti e calcolo teorico Sala Saturno

      Sala Saturno

      Hotel Ariston

      Via Laura, 13 - Capaccio-Paestum (SA)
      Conveners: Domenico Elia (Istituto Nazionale di Fisica Nucleare), Silvio Pardi (Istituto Nazionale di Fisica Nucleare), Stefano Bagnasco (Istituto Nazionale di Fisica Nucleare), Tommaso Boccali (Istituto Nazionale di Fisica Nucleare)
      • 2
        Il modello di calcolo per l’analisi dati della missione Euclid

        La missione spaziale del telescopio Euclid dell’European Space Agency, in cui INFN ha una forte partecipazione, ha l’obiettivo di mappare la geometria dell'Universo per analizzare la materia ed energia oscura, che costituiscono la maggior parte del bilancio energetico del cosmo. La grande area osservata e le caratteristiche degli strumenti presenti nel telescopio permettono alla missione di studiare specifici fenomeni della fisica fondamentale grazie all’analisi della struttura ed evoluzione del cosmo, come ad esempio i neutrini e la natura del vuoto. L’enorme mole di dati (immagini) e simulazioni che verranno prodotti dal satellite nei 6 anni di missione, ha necessità di essere processata con algoritmi altamente ottimizzati per il calcolo parallelo ad alte prestazioni (HPC). In questa presentazione si illustra la soluzione scelta dal gruppo Euclid-INFN per l’analisi scientifica dei dati e simulazioni della missione Euclid.

        Speaker: Alessandro Renzi (Istituto Nazionale di Fisica Nucleare)
      • 3
        From AMS to HERD: status and exploration of CLOUD solutions for cosmic ray data analysis

        The computing model of the AMS-02 experiment was designed to cope with several TB of ROOT files produced every year of the mission. It requires periodical reprocessing of the full dataset and, throughout the year, massive MonteCarlo productions of the various CR species. Data analysis is often performed on a reduced set of data which is handled by the end-users directly (both in terms of production and usage). Both the data production and the data analysis for the AMS-02 experiment are run in the ~5 computing centers of the collaboration without any grid-like framework, but instead relying on the locally-provided batch systems.
        This is what prompted our efforts in the last years exploiting technical solutions provided by the "Dynamic On Demand Analysis Service" (DODAS) developed in the context of projects such as INDIGO-DataCloud, EOSC-hub, and XDC in order to seamlessly access cloud resources both commercial (Deutsche Telekom, Google-Cloud) and on premises (Cloud@ReCas, and Cloud@CNAF). A concrete examples of this is the successful initiative to include AMS-02 compute resources hosted at ASI.
        Building on the experience gathered so far dealing with the AMS-02 computing model, the design of the HERD experiment computing model started by trying to leverage as much as possible the INFN-Cloud infrastructure to deploy common services to the whole collaboration (IAM, calendar&document server, experiment website and internal documentation, dedicated gitlab instance, ...), to expand and test the integration of a DODAS-provided cluster with the resources available at CNAF, and to explore new solutions for data storage and handling.
        The status of these activities will be shown including the experience and perspectives of the experiments both on computing and data handling.

        Speaker: Valerio Formato (RM2)
      • 4
        The LHCb Event Builder: an update

        The LHCb experiment will face an unprecedented amount of data inLHC Run3 starting in 2022. We expect more than 30 Tbit/s of data from the detector into the event-builder, 100GB/s to the first Buffer Storage and 10GB/s to the second Buffer Storage with a software defined High Level Trigger performed on ~170 GPGPU at first stage and ~4000 CPU nodes for the second one.
        After an intense R&D phase we have decided on the details of the architecture, and we have procured all the hardware.
        In Terms of amount of data to handle this will be the biggest scientific data-acquisition system built to date. While the technology to build even bigger systems is clearly available, building a compact system at this size with a limited budget poses some interesting challenges. In our system we have tried to minimize the number of custom-made components to take advantage of technological development in industry, but our use-case for these components remains quite special.
        Particularly interesting is not only the new DAQ design of the Experiment itself but also the ICT infrastructure needed to achieve it: a new 4 MW Data-Center built from scratch with the latest free-cooling technologies.
        In this paper we review the design, the reasons which brought us to it and the measurements of the commissioning of our system.

        Speaker: Francesco Sborzacchi (LNF)
      • 5
        R&D su modello di analisi a CMS per Run3 e HL-LHC: iniziative in corso e prototipo INFN

        La luminosità prevista per la fase di HL-LHC e l’upgrade del rivelatore CMS genereranno un incremento della quantità di eventi acquisiti e della loro complessità, con impatto sostanziale sul futuro modello di calcolo dell'esperimento. Sono state avviate molteplici attività di R&D per ottimizzare l’uso di risorse di calcolo, tra cui quella sulla prototipizzazione di un modello di analisi adeguato alle nuove esigenze computazionali e alle nuove tecnologie. In questo contesto sono in corso di studio approcci interattivi all’analisi ma anche l’adozione di un modello di programmazione dichiarativo che offre almeno due vantaggi: la facilità di condivisione e revisione del codice di analisi e l’ottimizzazione dell’uso delle risorse di calcolo lasciando la parallelizzazione degli algoritmi fuori dalle competenze dell’analista. Tutto ciò rappresenta un cambio di paradigma con forti impatti su vari fronti: dall’accesso ai dati, alle risorse di calcolo fino allo sviluppo delle analisi stesse. Per queste ragioni nella seconda metà del 2021 CMS ha stabilito una task force sui tools di analisi finalizzata a definire raccomandazioni sia per l’inizio di Run3 che per la fase di HL-LHC. Tali raccomandazioni saranno sviluppate da gruppi esistenti ( Coffea, ROOT DataFrame ...) o di nuova creazione nelle aree di coordinamento di CMS. Più recentemente, anche in ambito HSF, è stata avviata un’attività focalizzata sulla creazione di un forum inter-experimento, con lo scopo di raccogliere e condividere le esperienze nell’ambito della prototipizzazione di infrastrutture dedicate alle cosiddette “Analysis Facilities”.

        In questo talk verrà fornita dapprima una panoramica delle iniziative in corso mostrandone motivazioni e sarà fatto poi un focus sullo stato delle attività di R&D in corso in Italia descrivendo anche il prototipo che è stato realizzato.

        Speaker: Diego Ciangottini (INFN Perugia)
      • 16:20
        Pausa caffé
      • 6
        Highlights of the ATLAS experiment computing developments

        The ATLAS experiment has been running smoothly up to 800 k reconstruction, simulation and analysis jobs simultaneously last year to finalize run2 analyses and prepare the upcoming run3. Several important changes have been introduced in the computing model both from the hardware and software sides. One of the most important achievements is the deployment of the multithreaded version of the event reconstruction code (AthenaMT) which allows a drastic reduction of the use of the memory, a mandatory feature to run efficiently on modern multi-core machines. In addition a very detailed review of the possible tunings in the simulation code has been carried out identifying several changes which lead to an expected speed up of the simulation time up to 30% without degrading the simulation quality. In addition a deep review of the analysis model has been performed : a unified analysis format has been identified which is expected to be used by more than 80% of the analyses in order to optimize the available disk capacity. On the operations side, the ATLAS experiment has seen several changes: on one side the first test on the usage of pre-exascale HPC resources (VEGA) and the full deployment of the data carousel mode, a new way to operate with data stored on tape which now becomes a crucial part in both the reconstruction and analysis models. In this talk an overview of the last-year ATLAS operations performance and improvements will be reported together with some projections on the HL-LHC phase.

        Speaker: Leonardo Carminati (Istituto Nazionale di Fisica Nucleare)
      • 7
        ATLAS simulation optimisation for HL-LHC

        The upgrades in view of the HL-LHC runs set ambitious computational requirements: ATLAS expects to record data at a rate of 10 kHz, which is approximately ten times larger than the 1 kHz achieved so far.
        The increase in the data recording rate requires a matching increase in the production of simulated data, which is already taking up almost 40% of the CPU hours consumed by the ATLAS experiment.
        An intensive Research and Development effort is ongoing to upscale the ATLAS simulation infrastructure in order to achieve tangible speed-ups and a large number of different paths are currently being investigated.
        Those optimizations achievable during the building process of the simulation code proved to have a significant impact in terms of improving the execution times: a speed-up of up to 7% of the full Geant4 simulations has been obtained by combining the effect of different build types and several compiler's optimization options.
        Attention has also been focused on evaluating the impact of the use of newer and simpler shape definitions for the detector geometry construction: a reduction of 5-6% has been observed.
        Several other research lines are currently active, focusing, for instance, on the intrinsic performance improvements coming with newer Geant4 releases, on the optimization of Geant4 physics parameters, statistical decision algorithms and range cuts and on the investigation of modern CPU vectorized registries.
        The overall effect of the ongoing optimization efforts has already achieved a combined reduction of the order of 30% of the execution times.
        In this talk, the most recent achievements of the ATLAS Geant4 Optimization Task Force, the ongoing studies and the projections on the HL-LHC phase are reviewed.

        Speaker: Dr Caterina Maria Luigia Marcon (Istituto Nazionale di Fisica Nucleare)
      • 8
        Role of GPU in ALICE Online-offline reconstruction at LHC Run 3

        In Run 3 the paradigm of the ALICE experiment will shift towards precision measurements of rare probes. This will be achieved by collecting large data samples at high interaction rates, continuously recording collisions with a triggerless approach called continuous readout.
        In this scenario, Pb-Pb collisions will be recorded at a rate up to 50 kHz, reaching a raw data flow rate of up to 3.4 TB/s.
        This requires full online processing of all recorded data, implying a major change compared to traditional online systems, which see only the data selected by a hardware trigger. To cope with the increased data rate and computing requirement, ALICE employs graphics cards (GPUs) as the backbone of the online processing.
        In order to make full use of the online farm also for asynchronous reconstruction, also for asynchronous reconstruction, a large fraction of the asynchronous phase is being designed to run on GPUs.
        The impact in Run 3 of the GPUs provided by the ALICE O2 farm at CERN will be described in the talk, providing benchmarks with the technologies explored so far. A first look to the perspectives for next years in employing GPU in Grid Tier sites will be discussed as well.

        Speaker: Francesco Noferini (Istituto Nazionale di Fisica Nucleare)
      • 9
        Il calcolo HPC nella Fisica Teorica INFN: stato e prospettive

        La Fisica teorica utilizza il calcolo HPC da lungo tempo come strumento fondamentale per affrontare problemi ad alta intensità computazionale in QCD su reticolo, in fisica nucleare, nella fisica dei sistemi complessi.
        In questa presentazione lo stato e le prospettive dei progetti di ricerca INFN nell'ambito della Fisica teorica computazionale.

        Speaker: Leonardo Cosmai (Istituto Nazionale di Fisica Nucleare)
      • 10
        Calcolo per Einstein Telescope: sfide e prospettive

        Per quanto la mole di dati prodotta dagli interferometri non sia gigantesca, e soprattutto non cresca molto con la sensibilità degli strumenti, Einstein Telescope dovrà confrontarsi con la necessità di estrarre segnali di onde gravitazionali a un rate senza precedenti. La sfida è duplice: da un lato imparare a trattare segnali che rimangono molto a lungo nella banda di sensibilità, che si sovrappongono tra loro, e magari provengono da fenomeni non ben modellizzati teoricamente. Dall’altro, la necessità di generare, distribuire e gestire alert per l’astronomia multi-messenger con la minima latenza e la massima affidabilità richiederanno una infrastruttura adeguata.

        Speaker: Stefano Bagnasco (Istituto Nazionale di Fisica Nucleare)
      • 11
        Calcolo su GPU nell’esperimento CMS, soluzioni attuali e prospettive future

        Negli cinque ultimi anni, nell’esperimento CMS, l’uso di GPU per la ricostruzione degli eventi è passato da essere un semplice progetto di R&D ad essere impiegato in production. Una percentuale sempre crescente degli algoritmi per la ricostruzione online è stata riscritta o ripensata. A tale scopo la farm dell’High Level Trigger di CMS è stata recentemente equipaggiata con GPU NVIDIA. Per l’inizio del Run3, il 30% della ricostruzione sarà eseguita su GPU, e l’obiettivo per il Run4 è di portare questa percentuale fino all’80%. L’uso di acceleratori ad architettura parallela è divenuto quindi un punto cardine per lo sviluppo del software di CMS.
        Il contributo descriverà lo status attuale dell’uso delle GPU in CMS focalizzandosi sulle soluzioni adottate per il Run3 e sulle prospettive e problematiche future
        come il porting e l’integrazione di nuovi algoritmi paralleli, lo sviluppo di soluzioni per la code portability, la validazione dei risultati e i problemi di reproducibility.

        Speaker: Adriano Di Florio (Istituto Nazionale di Fisica Nucleare)
    • 12
      SPONSOR VERTIV: Sharing Vision on High Density Evolution: From air cooling to liquid cooling and immersion cooling. When it will happen in Italy? Sala Saturno

      Sala Saturno

      Hotel Ariston

      Via Laura, 13 - Capaccio-Paestum (SA)

      Sponsor demo + aperitivo

      ABSTRACT:
      La pervasività della digitalizzazione, presente e futura, implica un ripensamento completo dell'infrastruttura del data center, sin qui progettata secondo i paradigmi passati. Per essere pronti alle prossime evoluzioni, l'esperienza gioca un ruolo chiave, in quanto consente di sfruttare le competenze e i progetti che negli anni hanno guidato l'innovazione in termini di flessibilità e sostenibilità.
      Durante questa round table aronteremo lo stato dell'arte delle tecnologie, risultanti dalle attività di ricerca e sviluppo, da sofisticati test di laboratorio e dal nostro know-how acquisito nelle università e nei centri di ricerca più rinomati al mondo.

      Speakers: Cristina Rebolini (Sales Director - VERTIV), Maurizio Giordano (Solution & Consulting Engineer - VERTIV)
    • 20:30
      Cena
    • Infrastrutture ICT e Calcolo Distribuito Sala Saturno

      Sala Saturno

      Hotel Ariston

      Via Laura, 13 - Capaccio-Paestum (SA)
      Conveners: Alessandra Doria (Istituto Nazionale di Fisica Nucleare), Claudio Grandi (Istituto Nazionale di Fisica Nucleare), Daniele Cesini (Istituto Nazionale di Fisica Nucleare), Daniele Spiga (Istituto Nazionale di Fisica Nucleare), Giacinto Donvito (Istituto Nazionale di Fisica Nucleare)
      • 13
        Ceph Deployment at CNAF

        The INFN CNAF data centre hosts resources for several scientific communities.
        The disk resources are deployed mainly with IBM Spectrum Scale (formerly GPFS).
        In order to widen the portfolio of the storage services we tested the Ceph distributed file system which provides a POSIX compliant file system (Ceph File System - CephFS), along with object storage and block device service.
        We have chosen Ceph to be deployed along with GPFS because it is open source and supported by a very wide community.
        We deployed an erasure coding Ceph cluster of 3.1PB of net space. This space is used to provide block devices to INFN Tier1 Openstack Cloud and
        1.5PB of pledged disk space to the ALICE LHC experiment which accesses their storage area via XrootD.
        POSIX compliance as well as support for extended attributes and ACLs were of key importance for this last use case.
        In this contribution we report on the choices we made to optimize purchasing costs, physical space and net storage space as well as the setup, performances of the first period of production activity.

        Speaker: Antonio Falabella (Istituto Nazionale di Fisica Nucleare)
      • 14
        OpenForBC, GPU partitioning made easy

        In recent years, compute performances of GPUs (Graphics Processing Units) dramatically increased, especially in comparison to those of CPUs (Central Processing Units). GPUs are the hardware of choice for scientific applications involving massive parallel operations, such as deep learning (DL) and Artificial Intelligence (AI) workflows. High performance GPUs are offered by computing infrastructures owned by INFN or available to INFN researchers, such as on-premises data centers, HPC (High Performance Computing) centers, and public or private clouds. The programming paradigms for GPUs significantly vary according to the GPU model and vendor, often posing a barrier to their use in scientific applications. In addition, powerful GPUs, such as those available in HPCs or data centers, are hardly saturated by typical computing applications. Multiple vendors proposed custom solutions to allow for GPU partitioning. OpenForBC (Open For Better Computing) is an INFN-founded project (through the R4I 2020 call) with the aim of easing the use of such partitioning patterns. OpenForBC is an open source software framework that allows for effortless and unified partitioning of GPUs from different vendors in Linux KVM virtualized environments. OpenForBC supports dynamic partitioning for various configurations of the GPU, which can be used to optimize the utilization of GPU kernels from different users or different applications. For example training complex DL models may require a full GPU, but inference may need only a fraction of it, leaving free resources for multiple cloned instances or other tasks. In this contribution we describe the most common GPU partitioning options available on the market, discuss the implementation of the OpenForBC interface, and show the results of benchmark tests in typical use case scenarios.

        Speaker: Federica Legger (Istituto Nazionale di Fisica Nucleare)
      • 15
        Secure Platforms for research projects' sensitive data

        Nei ultimi anni i big data hanno cambiato radicalmente il modo in cui le organizzazioni gestiscono, analizzano e sfruttano i dati in qualsiasi settore. Uno dei campi più promettenti in cui i big data possono essere applicati per apportare un cambiamento è l'assistenza sanitaria. La grande mole di dati sanitari ha un potenziale considerevole per prevedere focolai di epidemie, ottenere informazioni preziose per evitare malattie prevenibili, ridurre i costi di erogazione dell'assistenza sanitaria e migliorare la qualità della vita in generale. Tuttavia decidere sugli usi consentiti dei dati, preservando la sicurezza e il diritto del paziente alla privacy, è un compito difficile.
        Per soddisfare i requisiti dei progetti ed esperimenti che studiano dati clinici, biomedici e genomici presso il CNAF è stata realizzata un’infrastruttura cloud, chiamata EPIC Cloud (Enhanced PrIvacy and Compliance Cloud), certificata secondo standard per la gestione sicura delle informazioni riconosciuti a livello globale, come ISO/IEC 27001:2013, ISO/IEC 27017:2015 e ISO/IEC 27018:2017.

        In questa presentazione mostreremo come si è evoluta l’offerta fornita della piattaforma certificata EPIC Cloud, portando come esempio tre progetti per i quali sono state implementate tre soluzioni diverse:
        - Harmony (Healthcare Alliance for Resourceful Medicines Offensive against Neoplasms in Hematology), al quale viene offerta una soluzione di tipo IaaS
        - ACC (Alleanza Contro il Cancro), per il quale è stata realizzata una soluzione PaaS, con un modello di gestione condivisa
        - PLANET (Pollution Lake ANalysis for Effective Therapy), con una soluzione PaaS evoluta ed una prima versione di una soluzione SaaS.

        Speaker: Giusy Sergi (Istituto Nazionale di Fisica Nucleare)
      • 16
        Adapting HTCondor fairshare for mixed workloads

        The INFN Tier-1 data centre provides Grid and local access to several scientific communities. The job scheduling to the computing resources is performed by the HTCondor batch system. The set of different workloads submitted by the users to the computing cluster is highly heterogeneous and a very rich set of different requirements is to be considered by the batch system in order to provide user groups with a satisfactory fair share over the available resources. To prevent or reduce usage disparities a system to self adjust imbalances has been developed and it is being used with satisfactory results. This work explain how and when fair share implementations can miss optimal performances and describes a general method to improve them. Results of the current solution are presented and possible further developments are discussed.

        Speaker: Stefano Dal Pra (Istituto Nazionale di Fisica Nucleare)
      • 17
        HPC4DR e la futura infrastruttura di calcolo HPC ai LNGS

        Il consorzio HPC4DR (High Performance Computing for Disaster Resilience) ha lo scopo di creare un centro di competenza sulla prevenzione e sulla riduzione dei rischi derivati da disastri naturali e di origine umana con l'ausilio del calcolo ad alte prestazioni.
        Il progetto vede la partecipazione di enti di ricerca e universita'
        del centro Italia ed e' parte del futuro Centro Nazionale HPC, Big Data e Quantum Computing.
        La sede dell'infrastruttura di calcolo HPC e' stata individuata nei
        Laboratori Nazionali del Gran Sasso. Le risorse di calcolo inizialmente disponibili per il progetto sono costituite da 7 rack di calcolo acquisiti dalla dismissione del sistema Galileo del CINECA.
        In questa presentazione si descriveranno le finalita' e l'organizzazione di HPC4DR, le attivita' previste per l'adeguamento del CED e l'installazione della nuova infrastruttura di calcolo ai LNGS
        nonche' l'inserimento di questo centro all'interno del panorama del calcolo INFN a livello nazionale e del Centro Nazionale.

        Speaker: Sandra Parlati (Istituto Nazionale di Fisica Nucleare)
      • 18
        A Container-as-a-Service (CaaS) solution for CloudVeneto

        Recently, CaaS, short for Container-as-a-Service, has been added to the long list where anything can be delivered as a cloud service (as-a-Service). This is a new paradigm that makes it easier to deploy Linux containers on cloud infrastructures. Unlike the more well-known KaaS (Kubernetes-as-a-Service), users no longer have to manage their Kubernetes cluster to run their containers, but a fully-managed orchestration platform is provided as-a-Service. Therefore CaaS is essentially a service for the deployment of containerised software packages which includes built-in functionality for auto scaling and orchestration management. The benefits are twofold: at the user and provider level. Users don't need any knowledge about managing Kubernetes, as they hand over the container to the service provider along with a description of the required resources (RAM, CPU core), through the orchestrator APIs. At the provider level, the CaaS avoids the proliferation of dedicated Kubernetes clusters which cause an inevitable consumption of cloud resources often unused for a long time.
        We wish to present an innovative CaaS solution implemented for CloudVeneto which aims to provide a secure multi-tenant fully-managed Kubernetes service with no administrative activity required to the users and with an efficient management of the cloud resources.

        Speaker: Lisa Zangrando (Istituto Nazionale di Fisica Nucleare)
      • 11:00
        Pausa caffé
      • 19
        Ambienti virtuali di analisi dati in cloud creati on-demand e compliant con i requisiti tecnici e legali per la gestione di dati genetici e sanitari”

        Gli aspetti relativi alla sicurezza dei dati e i requisiti legali ed etici sulla conservazione e la gestione dei dati genetici e sanitari stanno diventando sempre più stringenti.
        Alcuni ostacoli normativi possono rappresentare un gap alla condivisione dei dati e all’applicazione dei principi di Open Science e Open Acces. In questa prospettiva la Task 6.6 del progetto EOSC-Pillar mirava ad analizzare la compliance normativa del servizio (Laniakea) di analisi dati di livello PaaS integrato e interoperabile per ELIXIR e la comunità di Life Science, frutto di un’interazione tra i servizi Galaxy e i repository di dati.
        Partendo dall’attività di ricerca svolta nell’ambito della Task 6.6, il lavoro si pone l’obiettivo di definire i requisiti etici e giuridici che devono essere rispettati al fine di garantire un adeguato bilanciamento tra tutela dei dati e della vita privata ed effettiva applicazione dei principi FAIR, OS e OA.
        Dal punto di vista tecnologico, abbiamo implementato le misure necessarie per migliorare la sicurezza dell'intero servizio. In particolare, l'obiettivo è garantire la creazione di ambienti isolati e sicuri per svolgere le analisi dati. Per far questo, ci siamo concentrati su due aspetti critici: la gestione dei dati e il controllo dell'accesso al servizio.
        L’isolamento dei dati degli utenti avviene criptando l’intero volume di storage associato alla macchina virtuale, usando il modulo di criptazione del kernel Linux. Il livello di crittografia del disco è completamente trasparente per le applicazioni software, in questo caso Galaxy. La procedura è stata completamente automatizzata attraverso la Dashboard web del servizio di orchestrazione, sfruttando Hashicorp Vault per la conservazione delle passphrase degli utenti. Dopo l’autenticazione sulla Dashboard, l’utente abilita la crittografia dei dati durante la configurazione di una nuova istanza. La Dashboard contatta Hashicorp Vault per ottenere un token che possa essere usato solo una volta. Il token viene passato allo script di crittografia sulla macchina virtuale, viene generata una passphrase casuale, il volume viene crittografato, sbloccato e formattato. Infine, lo script di crittografia accede a Vault usando il token monouso e memorizza la passphrase che sarà accessibile, in qualsiasi momento, solo all’utente tramite la Dashboard. Questa strategia consente di creare chiavi di criptazione sicure ed allo stesso tempo di evitare che le credenziali dell’utente o la passphrase di criptazione siano trasmesse in chiaro all’infrastruttura virtuale, compromettendone la sicurezza.
        Il sistema di orchestrazione delle risorse cloud (PaaS) che consente il deployment automatico del servizio di analisi dati è stato esteso per poter gestire la creazione di ambienti virtuali su rete privata , sfruttando l'isolamento delle reti virtuali L2 a livello di tenant garantito dal cloud provider e configurando automaticamente opportuni gruppi di sicurezza che controllano il traffico di rete. In questo modo l'accesso ai vari ambienti di analisi risulta bloccato dalla rete esterna e anche il traffico tra macchine virtuali istanziate sulla stessa rete privata ma appartenenti a deployment diversi risulta filtrato. La modalità di accesso al servizio fornita agli utenti è tramite VPN. Per migliorare l’esperienza dell’utente, l’autenticazione alla VPN è stata integrata con il sistema di autenticazione e autorizzazione, INDIGO IAM, utilizzato dall’intero stack PaaS/IaaS e basato su OpenID Connect. In questo modo, gli utenti non devono creare ulteriori account/credenziali, ma possono utilizzare l’autenticazione federata. In particolare, la soluzione implementata per la VPN si basa sul software opensource OpenVPN e su un modulo PAM sviluppato ad-hoc per permettere l’autenticazione via IAM.
        Le soluzioni descritte sono state testate e validate sulla cloud ReCaS-Bari e sull’infrastruttura distribuita multi-sito INFN-Cloud.

        Speaker: Marica Antonacci (Istituto Nazionale di Fisica Nucleare)
      • 20
        Stato e prospettive della transizione da proxy a token

        L'infrastruttura computazionale di WLCG, che serve con successo la comunità degli esperimenti HEP da più di vent'anni, è basata su sistemi di autenticazione e autorizzazione fondati su una PKI X.509, in base alla quale sia utenti che servizi sono identificati tramite dei certificati X.509 e l'accesso ai servizi di calcolo o di storage avviene presentando dei certificati proxy rilasciati da VOMS. Il mondo Web si è però mosso in un'altra direzione, basata sullo standard OAuth, in cui l'autenticazione degli utenti è mediata sempre da un browser e l'accesso ai servizi avviene in base alla presentazione di appositi Access Token rilasciati da un Authorization Server.
        Da alcuni anni è quindi in corso una transizione dell'infrastruttura WLCG al nuovo modello, che presenta indubbi vantaggi in termini di usabilità, flessibilità e interoperabilità con sistemi esterni. La transizione comporta innanzitutto un ripensamento di alcune scelte architetturali e, come conseguenza, un importante sviluppo di nuovi componenti software, nonché di adattamento di molti di quelli esistenti. Il tutto garantendo naturalmente la continuità operativa.
        In questa presentazione verrà illustrato lo stato generale della transizione e, a titolo esemplificativo, descritti gli sviluppi in corso di due componenti critici per l'infrastruttura: l'Authorization Server Indigo-IAM e il servizio di storage StoRM.

        Speaker: Enrico Vianello (Istituto Nazionale di Fisica Nucleare)
      • 21
        Stato delle attività dei progetti Europei
        Speaker: Luciano Gaido (Istituto Nazionale di Fisica Nucleare)
      • 22
        Stato e attività di R&D nei progetti finanziati
        Speaker: Giacinto Donvito (Istituto Nazionale di Fisica Nucleare)
    • 13:00
      Pausa pranzo
    • Infrastrutture ICT e Calcolo Distribuito Sala Saturno

      Sala Saturno

      Hotel Ariston

      Via Laura, 13 - Capaccio-Paestum (SA)
      Conveners: Alessandra Doria (Istituto Nazionale di Fisica Nucleare), Claudio Grandi (Istituto Nazionale di Fisica Nucleare), Daniele Cesini (Istituto Nazionale di Fisica Nucleare), Daniele Spiga (Istituto Nazionale di Fisica Nucleare), Giacinto Donvito (Istituto Nazionale di Fisica Nucleare)
      • 23
        Challenges and opportunities in migrating the CNAF datacenter to the Bologna Tecnopolo
        Speaker: Daniele Cesini (Istituto Nazionale di Fisica Nucleare)
      • 24
        Il supercomputer Leonardo al Tecnopolo di Bologna e gli sviluppi futuri del CINECA

        CINECA, established in 1969, is a non-profit consortium of 70 Italian Universities, 9 national research institutions, and the Ministry of Education, University and Research (MIUR). Cineca is the largest Italian supercomputing centre with an HPC environment equipped with cutting-edge technology and highly qualified personnel which cooperates with researchers in the use of the HPC infrastructure, in both the academic and industrial fields. Cineca’s mission is to enable the Italian and European research community to accelerate scientific discovery using HPC resources in a profitable way, exploiting the newest technological advances in HPC, data management, storage systems, tools, services, and expertise at large.
        In this talk, it will be presented the new technologies that CINECA will install in the next months becoming largely available to Italian research organizations. Recently, Cineca has been selected as a hosting entity of one of the future EuroHPC precursors to exascale European supercomputers, in this talk will be presented the pre-exascale HPC system, called Leonardo, that will become available in the months at the Bologna Tecnopole. To conclude, it will be shown the future evolution of CINECA's infrastructure roadmap and it will be introduced the data center facility of Leonardo located at the Tecnopole.

        Speaker: Daniele Cesarini (CINECA)
      • 25
        SPONSOR DELL: Design Principles for Exascale Computing

        Il continuo incremento degli assorbimenti e della TDP dei sistemi di calcolo e l'adozione sempre più vasta di sistemi GPU-based ad alta densità impongono di adottare principi di design differenti per l'implementazione dei futuri datacenter di nuova generazione.
        L'intervento offre una panoramica sullo sviluppo delle tecnologie di calcolo esistenti e della loro implementazione nei sistemi DELL, ed il punto di vista di DELL sulle scelte da adottare nell'implementazione delle nuove facility di calcolo.

        Speaker: Paolo Bianco (DELL Technologies)
      • 26
        INFN Cloud – un anno di operatività: esperienze di gestione infrastrutture e utenti

        Dopo più di un anno di operatività in produzione di INFN Cloud, piattaforma di servizi e risorse distribuite geograficamente in più sedi INFN, con questo contributo presentiamo i risultati ottenuti nella gestione dell’infrastruttura e dei servizi offerti agli utenti.

        • Dal punto di vista della gestione della piattaforma INFN Cloud, delle sue risorse e soluzioni, mostreremo lo stato raggiunto dai servizi offerti, a tutti i livelli: IaaS, PaaS e anche SaaS, con l’introduzione di nuove soluzioni e con i miglioramenti dei servizi esistenti, introdotti per rispondere a feedback ricevuti dagli utenti.
        • Parleremo anche del lavoro fatto su monitoring, accounting e gestione della sicurezza, orientato da una parte verso i gestori della piattaforma, ma anche verso gli utenti finali, con dashboard dedicate, scansioni di sicurezza personalizzate ed altri strumenti.
        • Concluderemmo illustrando le attività di comunicazione, supporto e training rivolti sia all’utenza interna, per la formazione di gruppi di gestione operativa dei servizi core della piattaforma INFN Cloud, sia agli utenti finali, allo scopo di agevolare l’accesso ai servizi cloud offerti.
        Speaker: Doina Cristina Duma (Istituto Nazionale di Fisica Nucleare)
      • 16:30
        Pausa caffé
      • 27
        INFN Cloud: visione futura e prossime attività
        Speaker: Davide Salomoni (Istituto Nazionale di Fisica Nucleare)
      • 28
        I progetti sul calcolo nel PNRR

        In questa presentazione saranno descritti i progetti sul calcolo a cui partecipa l'INFN nell'ambito dei finanziamenti del PNRR. In particolare si discutera' dello stato del Centro Nazionale ICSC e dell'Infrasrtuttura di Ricerca Terabit, con uno sguardo anche agli ecosistemi dell'innovazione e ai partenariati estesi

        Speaker: Claudio Grandi (Istituto Nazionale di Fisica Nucleare)
      • 29
        Stato e contesto EU/IT (EOSC, GAIA-X, ICDI)
        Speaker: Luciano Gaido (Istituto Nazionale di Fisica Nucleare)
      • 30
        Discussione
    • 31
      SPONSOR SCHNEIDER ELECTRIC: I vantaggi del monitoraggio remoto predittivo in Data Center distribuiti Sala Saturno

      Sala Saturno

      Hotel Ariston

      Via Laura, 13 - Capaccio-Paestum (SA)

      DEMO sponsor + aperitivo

      Speaker: Vincenzo Spagnoletti (Secure Power Sales Manager - Schneider Electric)
    • 20:00
      Cena
    • Tecnologie ICT Hardware e Software Sala Saturno

      Sala Saturno

      Hotel Ariston

      Via Laura, 13 - Capaccio-Paestum (SA)
      Conveners: Carmelo Pellegrino (Istituto Nazionale di Fisica Nucleare), Daniele Bonacorsi (Istituto Nazionale di Fisica Nucleare), Michele Michelotto (Istituto Nazionale di Fisica Nucleare), Roberto Alfieri (Istituto Nazionale di Fisica Nucleare), Stefano Zani (Istituto Nazionale di Fisica Nucleare)
      • 32
        The new GPU-based HPC cluster at ReCaS-Bari

        Il centro di calcolo ReCaS-Bari ha arricchito il proprio portfolio di servizi fornendo ai propri utenti un nuovo cluster HPC/GPU tramite il quale poter eseguire applicazioni complesse che richiedono l’impiego di una infrastruttura di calcolo massicciamente parallela. Il cluster è equipaggiato con risorse hardware di ultima generazione, come le schede grafiche Nvidia V100 e A100, ideali per tutte quelle applicazioni che, nativamente, sono in grado di adattare il proprio parallelismo all'hardware a disposizione. Esempi sono le applicazioni basate sull’Intelligenza Artificiale, sulla simulazione di modelli complessi (previsioni meteo, previsioni terremoti, formazione galassie e dinamica delle molecole) e tutte quelle applicazioni utilizzanti un elevato numero di operazioni in virgola mobile. Il cluster è formato da 10 macchine che mettono a disposizione complessivamente 1755 core, 13.7 TB di RAM, 55 TB di spazio disco locale e 38 GPU ad altissime prestazioni (18 Nvidia A100 e 20 Nvidia V100). Le applicazioni sono eseguite esclusivamente tramite Docker container (eseguito nativamente), tecnologia che conferisce semplicità di configurazione ed esecuzione, affidabilità, flessibilità e sicurezza. L'utente può richiedere (sia via APIs sia tramite semplici interfacce grafiche) l'istanziazione di servizi interattivi, come IDE utilizzabili da remoto (Jupyter Notebook e RStudio), e la sottomissione di workflow rappresentabili con Directed Acyclic Graphs (DAG). La gestione delle applicazioni di lunga durata (long running services) e la sottomissione dei job è affidata a Marathon e Chronos, due framework che lavorano in stretto contatto con Apache Mesos, che aggiunge caratteristiche come alta affidabilita’, robustezza ai guasti e sicurezza e la capacità di gestire le risorse disponibili nel cluster e le richieste da parte degli utenti. La soluzione tecnologica implementata consente all’utente di continuare ad accedere ai propri dati sia dal cluster HTC (basato su HTCondor) sia dal questo cluster HPC/GPU basato su Mesos. In questo contributo verranno presentate e discusse le risorse e le soluzioni tecnologiche utilizzate per renderle disponibili attraverso il cluster HPC/GPU di ReCaS-Bari. Verranno anche brevemente illustrati alcuni dei primi esempi di utilizzo del cluster da parte dei gruppi di ricerca della Sezione.

        Speaker: Gioacchino Vino (INFN Bari (IT))
      • 33
        Analisi delle performance degli acceleratori basati su FPGA in ambito HPC

        L'uso di acceleratori hardware è ormai molto comune, ed i più diffusi sono senz'altro basati su GPU. Recentemente però, in alcuni Data Center, stanno cominciato a venire utilizzati anche acceleratori basati su FPGA, con l'obiettivo di accelerare carichi di lavoro specifici.
        Data la tendenza all'utilizzo in ambito HPC di hardware sempre più eterogeneo e specializzato, nonché le recenti acquisizioni di produttori di FPGA da parte di aziende leader nello sviluppo di processori, si può immaginare che gli acceleratori basati su FPGA saranno sempre più diffusi nel prossimo futuro.
        È già noto che le FPGA permettono di accelerare l'esecuzione di codici in diversi campi applicativi, ma stimare le loro prestazioni, in particolare nel contesto di carichi di lavoro HPC, non è banale.
        Per farlo abbiamo sviluppato un benchmark sintetico denominato FER (FPGA Empirical Roofline), in grado di misurare la performance di calcolo e la larghezza di banda della memoria di acceleratori basati su FPGA. Utilizzando il noto modello Roofline come base teorica, FER permette inoltre di stimare le prestazioni raggiungibili da kernel generici, in base alla loro intensità computazionale.
        In questo intervento presenteremo il funzionamento del benchmark FER, cogliendo l'occasione di discutere le possibili applicazioni di acceleratori basati su FPGA nell'ambito del calcolo HPC.

        Speaker: Enrico Calore (Istituto Nazionale di Fisica Nucleare)
      • 34
        SPONSOR JUNIPER: Apstra AoS: Data Center Automation con Intent Based Networking

        "Intent-based networking is the true automation of networking,”
        With intent-based networking, users tell the network what they want, and the network essentially figures out how to achieve that goal.

        Speakers: Gabriele Indino (SE Italy - Juniper Networks & Manfred Felsberg – SD EMEA - Juniper Network – APSTRA), Manfred Felsberg (JUNIPER)
      • 35
        Il futuro di Linux all'INFN

        A seguito dell'annuncio di RedHat sul futuro di centOS molti dubbi sono sorti in merito al futuro di linux in ambito HEP.
        Nel contesto di HEPiX e di WLCG si sta discutendo e si stanno facendo proposte per cercare di coordinarsi e di avere politiche comuni.
        Al CNAF stiamo seguendo con attenzione questo problema perche' dobbiamo capire quale sistema operativo sara' installato nel futuro tecnopolo: vorremmo rivitalizzare il gruppo linux in ccr per estendere questa coordinazione il piu' possibile alle altre sezioni infn, ai T2 e ai T3.
        Nel corso della presentazione verranno riassunti i principali sviluppi del problema centos8, le possibili alternative, le proposte di coordinamento, lasciando ampio spazio alla discussione.

        Speaker: Andrea Chierici (Istituto Nazionale di Fisica Nucleare)
      • 36
        Cisco NGFW PoC

        Nell’ambito del gruppo Network di CCR è stata pianificata un PoC per verificare le funzionalità di dispositivi Cisco Firepower quali possibili alternative di Next Generation Firewall (NGFW) e/o router di accesso. A tale scopo Cisco ci ha fornito una coppia di dispositivi Firepower 2120 che è stata inserita nell’infrastruttura di rete di produzione presso la Sezione di Bologna. Abbiamo svolto due tipologie di test: la prima, inserendo i dispositivi Cisco in modalità IDS su una porta SPAN del traffico geografico. La seconda, inserendo i dispositivi Cisco in modalità L3 su una parte del traffico geografico di Sezione. In questa presentazione si mostreranno i risultati dei test effettuati, incluse alcune misure prestazionali. Si mostreranno inoltre due esempi di configurazione dei dispositivi. Uno in modalità SOC e analisi di sicurezza e l’altro come NGFW tradizionale interno o esterno. Mostrero' inoltre come la piattaforma di endpoint protection Cisco posso essere integrata in una soluzione ad approccio zero trust.

        Speaker: Gianluca Peco (Istituto Nazionale di Fisica Nucleare)
      • 10:40
        Pausa caffé
      • 37
        Il progetto TEXTAROSSA - Towards EXtreme scale Technologies and Accelerators for euROhpc hw/Sw Supercomputing Applications for exascale

        TEXTAROSSA - Towards EXtreme scale Technologies and Accelerators for euROhpc hw/Sw Supercomputing Applications for exascale è un progetto di ricerca triennale sottoposto alla call EuroHPC-2019 dello European HPC Joint Undertaking le cui attività sono iniziate nell’Aprile 2021.
        Lo scopo del progetto è superare il gap tecnologico verso la realizzazione nell’immediato futuro di sistemi di calcolo di classe exascale ad alta efficienza energetica, focalizzando le attività in tre aree principali: controllo termico dei dispositivi, calcolo ad alta efficienza tramite accelerazione hardware e aritmetica su nuovi formati numerici, metodologie e strumenti per l’integrazione di acceleratori riconfigurabili in sistemi HPC etereogenei.
        Il contributo dell’INFN al progetto prevede: i) la fornitura di quattro applicazioni scientifiche (HEP data analysis pipelines, Tensor Networks Methods, Distributed Spiking Neural Network simulation, Real-time High Performance Data Analytics) che saranno parte dei benchmark utilizzati per guidare la redazione delle specifiche architetturali della piattaforma calcolo di TEXTAROSSA e, in seguito, per il suo test e verifica prestazionale; ii) lo sviluppo di una rete di interconnessione diretta a bassa latenza tra kernel computazionali in esecuzione su dispositivi FPGA e, iii) il relativo stack sofware che consenta l’integrazione delle operazioni di comunicazione nel design flow basato su tool di sintesi di alto livello, in modo da facilitare lo sviluppo di applicazioni HPC, HPDA e AI su piattaforme di calcolo composte da molteplici dispositivi FPGA interconnessi.

        Speaker: Alessandro Lonardo (Istituto Nazionale di Fisica Nucleare)
      • 38
        SPONSOR ATOS: Costruire una comunità attorno al calcolo quantistico, l’esempio della Munich Quantum Valley

        Lo sforzo di numerosi centri di ricerca europei è votato alla costruzione di competenze specifiche legate alla programmazione quantistica e alle sue applicazioni, oltre che alla messa a disposizione di infrastrutture che facilitino la sperimentazione in questo settore. La presentazione parla di come Atos ha supportato, insieme ai propri partner, il progetto della Munich Quantum Valley.

        Speaker: Ivano Pullano (Global product manager – Quantum computing solutions @ Atos)
      • 39
        “Network Solution for Exascale Architectures”: progetto RED-SEA

        RED-SEA (https://redsea-project.eu/) è un progetto Europeo finanziato nell’ambito della call EuroHPC-2019 iniziato ad Aprile 2021. L'obiettivo di RED-SEA è quello di fornire elementi di valutazione per il disegno architetturale nonché lo sviluppo prototipale degli ingredienti principali delle reti di interconnessione di prossima generazione che possano supportare centinaia di migliaia di nodi di calcolo e abilitare lo scaling all’ExaFlops per applicazioni HPC, HPDA e AI. Il target tecnologico principale e’ la rete BXI, originariamente disegnata e messa in produzione da ATOS (Fr), che prevede di integrare nella sua prossima release, BXI3, le soluzioni architetturali ed i componenti innovativi sviluppati nell’ambito di RED-SEA.
        Il consorzio RED-SEA è composto da 11 realtà europee di eccellenza nel campo del Network design e dell’HPC in generale, sia accademiche che industriali e l’INFN in RED-SEA è coinvolto in attività che spaziano dalla contribuzione, con un approccio di co-design hardware/software, alla fase di progettazione dell’infrastruttura di rete, alla sua implementazione su FPGA di ultima generazione, al design di componenti innovativi HW/SW per il miglioramento delle prestazioni e resilienza della rete, al porting di applicazioni scientifiche (NEST, spiking network neural simulator) per benchmarking dei prototipi del progetto basati su testbed di precedenti iniziative(ExaNeSt, EuroEXA, piattaforma DIBONA con BXI).
        In questo talk si introdurranno le motivazioni tecnologiche e scientifiche alla base del progetto e si riportera’ lo stato corrente degli sviluppi.

        Speaker: Andrea Biagioni (Istituto Nazionale di Fisica Nucleare)
    • 12:40
      Partenza primo pullman Sala Saturno

      Sala Saturno

      Hotel Ariston

      Via Laura, 13 - Capaccio-Paestum (SA)
    • 12:50
      Partenza secondo pullman Sala Saturno

      Sala Saturno

      Hotel Ariston

      Via Laura, 13 - Capaccio-Paestum (SA)
    • 13:00
      Visita e pranzo presso Azienda Agricola "Il Tempio" Azienda Agricola "Il Tempio"

      Azienda Agricola "Il Tempio"

    • 14:30
      Visita al Parco Archeologico di Paestum Sala Saturno

      Sala Saturno

      Hotel Ariston

      Via Laura, 13 - Capaccio-Paestum (SA)
    • 40
      SPONSOR ARISTA: CloudVision : Automation & Telemetry Platform Sala Saturno

      Sala Saturno

      Hotel Ariston

      Via Laura, 13 - Capaccio-Paestum (SA)

      Sponsor Demo + aperitivo - Consegna gadget Workshop

    • 20:30
      Cena
    • Tecnologie ICT Hardware e Software Sala Saturno

      Sala Saturno

      Hotel Ariston

      Via Laura, 13 - Capaccio-Paestum (SA)
      Conveners: Carmelo Pellegrino (Istituto Nazionale di Fisica Nucleare), Daniele Bonacorsi (Istituto Nazionale di Fisica Nucleare), Michele Michelotto (Istituto Nazionale di Fisica Nucleare), Roberto Alfieri (Istituto Nazionale di Fisica Nucleare), Stefano Zani (Istituto Nazionale di Fisica Nucleare)
      • 41
        Sviluppo di firmware per il calcolo su processori ibridi (ARM e FPGA)

        In un contesto in cui il calcolo scientifico si sta muovendo verso l'eterogeneità con l’utilizzo di acceleratori hardware come: GPU, TPU, l’utilizzo di acceleratori basati su FPGA (Field-programmable gate array) assume un valore aggiuntivo per via delle caratteristiche intrinseche di riprogrammibilita’ di questi dispositivi.
        L’integrazione di questi dispositivi nei software degli esperimenti già esistenti rappresenta una sfida principalmente per il grado di complessità che si incontra nella creazione dei firmware.
        Alcuni progetti ([1,2]) mirano alla semplificazione di questo processo e provano a rendere più armonioso l’utilizzo di queste nuove tecnologie.
        In questa presentazione illustreremo la nostra esperienza nella creazione di firmware per processori ibridi (ARM+FPGA) che fungano da acceleratori custom per applicazioni standard.
        L'obiettivo ultimo di questa attività è quello di sviluppare uno stack hardware/software [3] che permetta di affrontare le nuove sfide per il calcolo, come ad esempio: l’efficienza energetica ed il Von Neumann bottleneck, che renda sempre più accessibile l’utilizzo di FPGA in una modalita’ vendor-indipendente.
        Nel corso della presentazione descriveremo una serie di benchmark sia in termini di efficienza computazionale che energetica. Infine presenteremo anche alcuni possibili sviluppi volti all'integrazione di tutti questi sistemi con il moderno approccio cloud based.

        Refs:
        [1] Alpaka
        DOI: 10.1109/IPDPSW.2016.50
        [2] Kokkos: Enabling performance portability across manycore architectures
        DOI: 10.1109/XSW.2013.7
        [3] BondMachine, a moldable computer architecture
        DOI: 10.1016/j.parco.2021.102873

        Speaker: Mirko Mariotti (Istituto Nazionale di Fisica Nucleare)
      • 42
        Quantum Computing Activities at INFN

        This contribution presents an overview of the activities and plans on Quantum Computing at INFN, with emphasis on the recently proposed National Center for HPC, Big Data and Quantum Computing.

        Speaker: Concezio Bozzi (Istituto Nazionale di Fisica Nucleare)
      • 43
        From HS06 to HEPSCORE. A New benchmark for HEP

        The HEPiX working group has been very active in the past months to find a replacement for HS06. This talk will focus on the technical aspect of the new benchmark and on the framework of the Benchmarking Suite in particular the analysis of the last results. We will also discuss the collaboration with the WLCG HEPScore Deployment Task Force.

        Speaker: Michele Michelotto (Istituto Nazionale di Fisica Nucleare)
      • 44
        Accendiamo la fibra!

        Update sulle rete ottica di GARR-T

        Speaker: Paolo Bolletta (GARR)
      • 45
        GARR-T: architettura di rete e servizi

        Il ruolo del Data Center nell'indirizzare le nuove esigenze

        Speaker: Massimo Carboni (LNF - GARR)
    • 11:05
      Pausa caffé Sala Saturno

      Sala Saturno

      Hotel Ariston

      Via Laura, 13 - Capaccio-Paestum (SA)
    • Tecnologie ICT Hardware e Software Sala Saturno

      Sala Saturno

      Hotel Ariston

      Via Laura, 13 - Capaccio-Paestum (SA)
      • 46
        Benchmarking of storage solutions in cloud environment: the Cloud@CNAF experience

        Recently, two different storage clusters were added to CLOUD@CNAF infrastructure to support both the Openstack infrastucure and the various usecases and projects. The new hardware was needed to replace obsoleted nodes, to henance the storage access performance and to improve the user experince.

        The arrival of the new storage, allowed the implementation of extremely interesting solutions and the definition of different QoS levels based on the definition of different replica strategies.

        We took into consideration solutions like CEPH and GPFS at the infrastrucure level and MinIO for user level storage implementation. To evaluate their performaces, standard benckmarcking tools have been adopted.

        We will provide a detailed description of the solutions adopted, based on the benchmarking results, and the performances obtained by furher fine tuning configuration.

        The results obtained during the test activity will be also used also to define the future infrastructure investment strategy for the CNAF Center and to complete the portfolio of solutions that will be offered globally to the users of the INFN Cloud distributed e-infrastructure

        Speaker: Alessandro Costantini (Istituto Nazionale di Fisica Nucleare)
      • 47
        SPONSOR NVIDIA - E4: Accelerating the Next Wave of Innovation and Discovery

        Accelerated computing is transforming the world of AI and computational science, from the data center to the cloud and to the edge. NVIDIA will provide an in-depth overview of the latest news, innovations, and technologies that will help INFN’s communities reap the benefits of AI supercomputing. We'll cover topics of interest to HPC developers, targeting traditional HPC modelling and simulation, quantum computing, HPC+AI, scientific visualization, and high-performance data analytics.

        Speaker: Gabriele Paciucci (NVIDIA Solution Architecture and Engineering EMEA)
    • Servizi ICT Sala Saturno

      Sala Saturno

      Hotel Ariston

      Via Laura, 13 - Capaccio-Paestum (SA)
      Conveners: Enrico Maria Vincenzo Fasanelli (Istituto Nazionale di Fisica Nucleare), Federico Zani (Istituto Nazionale di Fisica Nucleare), Luca Giovanni Carbone (Istituto Nazionale di Fisica Nucleare), Maria Cristina Vistoli (Istituto Nazionale di Fisica Nucleare), Sandra Parlati (Istituto Nazionale di Fisica Nucleare), Silvia Arezzini (Istituto Nazionale di Fisica Nucleare), Stefano Longo (Istituto Nazionale di Fisica Nucleare)
      • 48
        Microservices and software development infrastructure upgrade

        In the last few years, the infrastructure and technologies supporting software development and responsible for the provision / management of information system services have undergone significant changes and technological upgrades. Our aims were to accelerate and improve processes without sacrificing quality of the provided services.

        The constant increasing use of distributed services and the reengineering of obsolete applications by following a microservices approach have required a review of our software development processes and methodologies as well as the adoption of new technologies.

        This talk will describe the innovations introduced in our infrastructure in order to improve the services management. This new approach has led to technological and organizational challenges and changes to the software development platform and related software processes, with particular attention to quality, sustainability of produced software and security aspects.

        Speaker: Stefano Bovina (Istituto Nazionale di Fisica Nucleare)
    • 13:00
      Pausa pranzo
    • Servizi ICT Sala Saturno

      Sala Saturno

      Hotel Ariston

      Via Laura, 13 - Capaccio-Paestum (SA)
      Conveners: Enrico Maria Vincenzo Fasanelli (Istituto Nazionale di Fisica Nucleare), Federico Zani (Istituto Nazionale di Fisica Nucleare), Luca Giovanni Carbone (Istituto Nazionale di Fisica Nucleare), Maria Cristina Vistoli (Istituto Nazionale di Fisica Nucleare), Sandra Parlati (Istituto Nazionale di Fisica Nucleare), Silvia Arezzini (Istituto Nazionale di Fisica Nucleare), Stefano Longo (Istituto Nazionale di Fisica Nucleare)
      • 49
        Asset inventory al CNAF e al Tecnopolo

        Con la progressiva espansione del Data Center e la necessità di adeguarsi alle normative vigenti, per il CNAF è risultato estremamente utile ricorrere all’utilizzo di uno strumento per gestire l’inventario e monitorare il ciclo di vita degli asset.

        Dopo aver valutato alcuni degli strumenti disponibili, tra cui Insight di Atlassian, per il Data Center del CNAF e in futuro del Tecnopolo, è stato scelto di adottare OpenDCIM come asset inventory.

        Percorreremo il processo decisionale che ha portato a questa scelta partendo dai requisiti ricercati negli strumenti valutati fino ad illustrare l’esperienza maturata con esempi pratici presi dal sistema attualmente in produzione al CNAF che mostrano quali siano i punti di forza e i limiti dello strumento adottato.

        Speaker: Giusy Sergi (Istituto Nazionale di Fisica Nucleare)
      • 50
        NtopInsight an automatic tool for network identification and inventory @ LNS

        L'osservabilita' della rete e' un aspetto cruciale in un sito come LNS, la cui utenza prevede anche apparati sperimentali dislocati in sedi differenti da quella centrale.

        Storicamente l'inventario LNS era basato su un sistema fatto in casa e basato su un database, ed arpwatch. Il sistema faceva un discovery continuo della rete locale, e alla scoperta di un nuovo mac address inseriva l'host nel database, permettendo di associarlo ad un utente. Questo sistema, semplice ma efficace, era limitato principalmente dalla poverta’ di informazioni associabili all’oggetto inventariato, e quindi la poca aggreabilita’ delle stesse informazioni inserite : non si poteva raggruppare per locazione, o per gruppo logico di utenti.

        Per questo motivo, il sistema e’ stato completamente rivisto, rivedendo sia lo strumento di discovery, che di gestione vera e propria degli asset. Per il primo scopo, la scoperta di nuove risorse in rete, e’ stato scelto ntopng, che è in grado di fornire in tempo reale, sia attraverso interfaccia web sia attraverso REST API, vari tipi di dati come il numero di host corredati di utili informazioni accessorie, come hostname, indirizzo IPV4 e IPV6, mac address . Per il secondo scopo è il plugin Insight della suite Jira Software.

        Per quest’ultimo era disponibile anche un ulteriore tool, Insight Discovery, che avrebbe potuto sostituire ntopng e che consentirebbe anche l’importazione delle informazioni di rete direttamente su Insight. Discovery ha lo svantaggio di dover essere installato localmente, mentre l’istanza in uso di Insight e’ installata on-premise sui servizi nazionali. Sostanzialmente quindi il lavoro fatto consiste nell’interfacciare in maniera sicura ntopng e Insight, allo scopo di monitorare lo stato di attività della rete locale dei Laboratori Nazionali del Sud e nello stesso tempo realizzare un inventario degli asset informatici che venga inizializzato riempito ed aggiornato in maniera automatica. Parallelamente, a partire dai template predefiniti di Insight, e’ stato definito un Object Schema personalizzato per riflettere l’organizzazione logica degli host LNS e gli attributi ritenuti utili, ad esempio il gruppo di ricerca, il responsabile della risorsa, la locazione fisica e cosi’ via.

        Gli script che interfacciano Ntop e Insight girano su una macchina pivot che esegue operazioni schedulate manipolando dati in formato json provenienti da ntop e li scrive su Insight rispettando l'object schema dell'albero dell'inventario. La manipolazione dei file in locale sulla macchina pivot consente di fare una serie di analisi sia di tipo quantitativo, monitorando il numero di host complessivo, sia di tipo qualitativo monitorando le informazioni specifiche degli host, come il cambio di macaddress a parità di IP.

        Gli host scoperti da ntop vengono inizialmente inseriti su Insight in un ramo d’ingresso, dal quale possono successivamente essere processati manualmente ed assegnati ad altri rami dell’albero . Questa operazione deve necessariamente fatta manualmente perchè nessuno strumento automatico potrebbe classificare ed assegnare a una categoria un oggetto della rete aggiungendo gli attributi necessari alla completa classificazione,

        Questo sistema e’ tuttora in via di sviluppo, e ulteriori features saranno aggiunte discutendole all’interno del gruppo di lavoro nazionale recentemente costituito relativo alla gestione dell’asset management IT, nel quale gli LNS contribuiranno mettendo a disposizione quanto sviluppato.

        Speaker: Stefano Cannizzaro (Istituto Nazionale di Fisica Nucleare)
      • 51
        La gestione degli asset IT ai LNGS

        Nel corso dell'ultimo anno abbiamo sperimentato ai LNGS
        una implementazione del database/inventario degli asset IT gestiti dal
        servizio calcolo e reti, con l'utilizzo di Jira Insight.

        Sono stati censiti e inseriti nel database Insight sia gli apparati attivi
        presenti sulla rete locale (server, switch, sistemi di storage,
        etc) sia elementi passivi come rack, cassetti ottici e cavi in fibra ottica,
        installati ai laboratori esterni e sotterranei.
        Per ogni asset sono state raccolte e inserite nel database informazioni di tipo
        amministrativo come i documenti relativi all'acquisto, il contratto di assistenza
        nonche' la data di termine della manutenzione al fine di realizzare una sorta di scadenzario, con messaggi di alert inviati in prossimita' di una scadenza.
        Ad ogni asset e' stata associata una posizione, un luogo dei laboratori
        esterni o sotterranei; un QRCode con il link alla descrizione
        dell'asset su Insight viene stampato e fissato al bene stesso
        per renderlo immediatamente identificabile.
        A ciascun apparato attivo sono associate inoltre le caratteristiche tecniche,
        l'indirizzo IP e il nome DNS, e se possibile, il gruppo o l'esperimento
        che ha finanziato o che utilizza la risorsa.

        L'attivita' di sperimentazione e' ancora in corso e prevede ad esempio
        di testare l'integrazione del database degli asset con il software di gestione
        della rete locale. Si pensa inoltre di estendere l'utilizzo di Insight anche
        alla gestione delle licenze software acquistate localmente.
        E' inoltre in corso una valutazione sull'integrazione del database degli asset
        IT con quello relativo degli asset delle divisioni tecniche dei 4 laboratori INFN.

        Speaker: Sandra Parlati (Istituto Nazionale di Fisica Nucleare)
      • 52
        Discussione
      • 16:00
        Pausa caffé
      • 53
        AAI 2.0 - Come aumentare il livello di sicurezza e migliorare la fruibilità

        A 14 anni dalla messa in produzione del servizio, è arrivato il momento di un aggiornamento dell’infrastruttura di INFN-AAI. Il gruppo di lavoro ha disegnato la nuova versione dell’architettura che garantirà un maggiore livello di sicurezza, fornendo al contempo funzionalità aggiuntive in risposta alle richieste e alle esigenze delle strutture INFN e dei gruppi di lavoro.

        In questa presentazione verranno affrontati in dettaglio gli elementi salienti del nuovo disegno ed in particolare:

        • autenticazione forte;
        • distinzione tra identità e account;
        • account multipli per identità e per servizio;
        • strumenti disponibili per la protezione e gestione dei dati.

        Tempo richiesto: 45’

        Note:
        Dato l’impatto che una novità del genere potrà avere su tutti gli erogatori di servizio, questo lavoro sarà presentato alla CCR con congruo anticipo in modo da poter analizzare adeguatamente tutti i feedback e gli ulteriori desiderata da strutture finora non coinvolte.

        Speakers: Antonella Monducci (Istituto Nazionale di Fisica Nucleare), Enrico Maria Vincenzo Fasanelli (Istituto Nazionale di Fisica Nucleare)
      • 54
        Provisioning dinamico di portali web

        A Tor Vergata ci vengono spesso richiesti servizi di web hosting per esigenze diverse, che abbiamo normalizzato in :
        - Portali di esperimento o di gruppo
        - Web hosting personale
        - Web hosting di contenuti statici ma non riconducibili ad un singolo utente

        Usando un approccio ibrido con docker swarm ed il sistema di sync 'n share owncloud siamo riusciti a fornire questo tipo di servizi garantendo la scalabilità del sistema e soprattutto la sicurezza dei portali riducendo la superficie di attacco.

        Speaker: Federico Zani (Istituto Nazionale di Fisica Nucleare)
      • 55
        Sistema di backup e ripristino dati al CNAF

        Il sistema di backup e ripristino del CNAF tiene copia dei dati rilevanti di servizi amministrati dai vari reparti, come configurazioni di servizi, log, mail server, etc.
        Vengono conservate anche copie di backup dei dati della piattaforma EPIC Cloud, certificata secondo le norme ISO per la gestione dei dati in Cloud.
        In questa presentazione verranno descritti l'architettura di base e il funzionamento del sistema. In particolare verranno illustrate le recenti configurazioni mirate a minimizzare
        l'uso delle risorse, le procedure in atto per rispettare gli standard ISO e la soluzione di backup remoto sul sito di INFN-Catania.

        Speakers: Alessandro Cavalli (CNAF), Enrico Fattibene (Istituto Nazionale di Fisica Nucleare)
      • 56
        Monitoring con checkMk

        Il monitoring è un componente essenziale nell'ambito dell'ICT. Con l'evoluzione dei servizi, delle infrastrutture e delle tecnologie ICT, diventa sempre più complesso avere una visione che va dal particolare (carico cpu, occupazione dello spazio disco, consumo della memoria) al generale (utilizzo e performance di un cluster di vm, di contanier, di un progetto cloud).

        Nella sezione di Bologna per tanti anni è stato usato Nagios, nella sua versione base. Da un paio di anni è stato adottato il tool checkMk (https://checkmk.com/), un framework completo basato su nagios. Si descriverà l'esperienza con la versione Raw Edition (free e 100% open source) della sezione con particolare riguardo:

        • Installazione (su vm e come docker container)
        • Installazione distribuita
        • discovery e registrazione via API
        • monitoring base di server/vm/apparati di rete, con checkmk agent e/o snmp
        • monitoring di applicativi, db, container
        • gestione utenti
        Speaker: Paolo Veronesi (INFN-BOLOGNA)
    • 20:00
      Cena sociale Sala Minerva

      Sala Minerva

      Hotel Ariston

    • Servizi ICT Sala Saturno

      Sala Saturno

      Hotel Ariston

      Via Laura, 13 - Capaccio-Paestum (SA)
      Conveners: Enrico Maria Vincenzo Fasanelli (Istituto Nazionale di Fisica Nucleare), Federico Zani (Istituto Nazionale di Fisica Nucleare), Luca Giovanni Carbone (Istituto Nazionale di Fisica Nucleare), Maria Cristina Vistoli (Istituto Nazionale di Fisica Nucleare), Sandra Parlati (Istituto Nazionale di Fisica Nucleare), Silvia Arezzini (Istituto Nazionale di Fisica Nucleare), Stefano Longo (Istituto Nazionale di Fisica Nucleare)
      • 57
        Computer security nei grandi esperimenti: l'approccio (e l'esperienza) di CMS

        Le collaborazioni tendono spesso a sottovalutare - se non a ignorare del tutto - i problemi di sicurezza connessi alla gestione delle complesse infrastrutture di calcolo che controllano gli apparati sperimentali e trattano i dati da essi prodotti. GPS parlerà della suo ruolo di Computer Security Officer della CMS Collaboration al CERN, illustrerà come CMS ha affrontato il problema e offrirà spunti per generalizzare la sua esperienza all'ambito INFN.

        Speaker: Gian Piero Siroli (Istituto Nazionale di Fisica Nucleare)
      • 58
        Analisi dei server web dell'Ente in riferimento a quanto previsto Piano Triennale per l’informatica nella PA per gli anni 2021-2023

        Questo intervento si propone di esporre i risultati emersi dal monitoraggio dei server web dell'Ente esposti all'Internet pubblica rispetto a quanto raccomandato nel Piano Triennale per l’informatica nella Pubblica Amministrazione per gli anni 20021-2023, redatto dall'Agenzia per l’Italia Digitale (AgID) e il Dipartimento per la Trasformazione Digitale.
        Lo studio riguarda in particolare l'uso dei protocolli HTTP ed HTTPS ed evidenzia le azioni da intraprendenre per soddisfare quanto richiesto all'obiettivo 6.2 (Aumentare il livello di sicurezza informatica dei portali istituzionali della Pubblica Amministrazione) del Piano Triennale entro giugno 2022.

        Speakers: Leandro Lanzi (INFN-FI), Luca Giovanni Carbone (Istituto Nazionale di Fisica Nucleare)
      • 59
        Cybersecurity e stato di emergenza: profili tecnico-giuridici a confronto

        Agli ordinamenti statali è riconosciuto il diritto di far fronte agli stati di emergenza attraverso l’introduzione di norme giuridiche che permettono di attribuire all’esecutivo poteri emergenziali. In questo contesto un ruolo fondamentale assumono i sistemi e gli organi di monitoraggio previsti dai principali sistemi convenzionali a tutela dei diritti umani. Anche le misure adottate in situazioni di emergenza, tuttavia, devono rispettare alcune caratteristiche definite dai trattati in materia di diritti umani tra cui: l’espressa previsione normativa; la necessità di perseguire un obiettivo legittimo (il mantenimento dell’ordine pubblico, della salute pubblica, etc), l’essere necessarie al fine di raggiungere detto obiettivo. In particolare, questa ultima caratteristica implica inevitabilmente un bilanciamento fra il diritto soggetto a limitazione e l’interesse che la limitazione intende salvaguardare.

        Inoltre, le recenti situazioni di conflitto a livello internazionale hanno mostrato come il cyberspazio sia divenuto terreno di cyber attacchi interpellando in modo diretto le problematiche connesse alla cyber security dei sistemi informatici di tutto il mondo.

        Nel nostro ordinamento è stato recentemente adottato il Decreto UCRAINA (DECRETO-LEGGE 21 marzo 2022, n. 21) in cui compaiono anche misure per il rafforzamento della disciplina cyber, necessarie in conseguenza del protrarsi del conflitto ucraino-russo. In particolare l’Agenzia per la Cybersicurezza Nazionale, sentito il Nucleo per la cybersicurezza, raccomanda di procedere urgentemente a un’analisi del rischio derivante dalle soluzioni di sicurezza informatica utilizzate e di considerare l’attuazione di opportune strategie di diversificazione per quanto riguarda, in particolare, i dispositivi (endpoint security), ivi compresi applicativi antivirus, antimalware ed “endpoint detection and response” (EDR); “web application firewall” (WAF); protezione della posta elettronica; protezione dei servizi cloud; servizi di sicurezza gestiti (managed security service). In secondo luogo, il Decreto-Legge sopra citato all’art.29, impone a tutte le amministrazioni pubbliche centrali e locali di procedere tempestivamente alla diversificazione dei prodotti e servizi tecnologici di sicurezza informatica prodotti da imprese legate alla Federazione Russa. In questa prospettiva, conformemente a quanto definito dalla Commissione Europea nello Statement on Research del 3 marzo 2022, sono state adottate misure restrittive anche nell’ambito della collaborazione scientifica internazionale. A livello ministeriale con nota dell’11 marzo 2022, la ministra ha invitato università ed enti di ricerca “a sospendere ogni attività volta alla attivazione di nuovi programmi di doppio titolo o titolo congiunto” e ha ricordato che “dovranno essere sospesi quei progetti di ricerca in corso con istituzioni della Federazione Russa e della Bielorussia che comportino trasferimenti di beni o tecnologie dual use, ovvero siano altrimenti colpiti dalle sanzioni adottate dall'Unione Europea”.

        L’obiettivo del lavoro è esaminare quali limiti e quali caratteristiche tali limitazioni, ivi comprese quelle adottate a livello locale, possono avere per operare un corretto bilanciamento tra tutela dei diritti e tutela della cyber security, con riferimento in particolare a infrastrutture di tipo federato, in particolare basate su servizi cloud.

        Speaker: Nadina Foggetti (Istituto Nazionale di Fisica Nucleare)
      • 60
        Il registro dei trattamenti di dati personali: il ruolo dei Servizi Calcolo e Reti

        E' in dirittura di arrivo una applicazione INFN destinata a permettere la realizzazione di un Registro dei Trattamenti di Dati Personali per l'INFN. Ogni ufficio che tratta dati personali dovrà confrontarsi con questo strumento, quindi anche i Servizi Calcolo e Reti.
        Il talk intende orientare i Servizi Calcolo nella individuazione dei trattamenti di competenza, ma non solo...
        Parte integrante del Registro è infatti la definizione delle misure di sicurezza adottate nelle singole sedi. Questa parte è demandata, per competenza, proprio ai Servizi Calcolo e Reti che compileranno la scheda relativa in accordo con le Misure Minime e le eventuali altre misure specifiche di Sede.

        Speaker: Silvia Arezzini (Istituto Nazionale di Fisica Nucleare)
      • 11:10
        Pausa caffé
      • 61
        Sistemi di Gestione integrati per infrastrutture di ricerca: dall’esperienza di EPIC Cloud alle nuove opportunità offerte dal PNRR

        Nel 2017 al CNAF abbiamo avviato il Sistema di Gestione della Sicurezza delle Informazioni certificato ISO/IEC 27001, al fine di rispondere a particolari requisiti di sicurezza espressi da progetti di ricerca su dati genomici (in particolare Harmony Alliance). Nel corso degli anni, il sistema si è evoluto verso un paradigma cloud, utilizzando le tecnologie INFN Cloud, aggiungendo le certificazioni ISO/IEC 27017 e 27018 e dando vita a EPIC Cloud (Enhanced PrIvacy and Compliance Cloud), utilizzata oggi da diversi attori nazionali ed internazionali. Alla luce di questa esperienza, in questa presentazione discuterò una proposta, che si inserisce all’interno della recente ristrutturazione del calcolo INFN, volta a creare servizi cloud federati, certificati e distribuiti su diversi siti INFN. Questa proposta è in particolare coerente con le proposte che INFN ha avanzato in ambito PNRR, come il Centro Nazionale HPC e TeRABIT, che comprendono infrastrutture certificate e che rendono strategico l’obiettivo di presentarsi con una piattaforma cloud certificata ISO a livello nazionale.

        Speaker: Barbara Martelli (Istituto Nazionale di Fisica Nucleare)
      • 62
        Sintesi Sessione Servizi ICT
      • 63
        Conclusioni
    • 12:45
      Pranzo
    • 13:45
      Partenza navetta per trasferimento in aeroporto/stazione di Napoli Parcheggio Hotel Ariston

      Parcheggio Hotel Ariston