Incontri di Fisica delle Alte Energie 2025 (IFAE 2025)

Europe/Rome
Sala 004 (Manifattura Tabacchi - Cagliari)

Sala 004

Manifattura Tabacchi - Cagliari

Viale Regina Margherita, 33 Cagliari
Giuseppe Bozzi (University of Cagliari and INFN, Cagliari)
Descrizione

La 21ma edizione degli Incontri di Fisica delle Alte Energie è organizzata dalla Sezione INFN di Cagliari e dal Dipartimento di Fisica dell’Università degli studi di Cagliari.

La conferenza si terrà a Cagliari dal 9 all’11 aprile 2025 presso la Manifattura Tabacchi, situata nel Centro di Cagliari. 

L’edizione 2025 comprenderà unicamente sessioni plenarie, dedicate alla discussione degli argomenti di fisica delle alte energie di maggior interesse. Seguendo la tradizione, le relazioni saranno presentate in lingua italiana.

Le sessioni sono suddivise secondo quattro linee di ricerca:

  • Frontiera Energia
  • Frontiera Intensità
  • Cosmologia ed Astroparticelle
  • Nuove Tecnologie

 

Comitato scientifico

Alessia Tricomi (Presidente), Oscar Adriani, Diego Bettoni, Walter Bonivento, Concezio Bozzi, Claudia Cecchi, Giorgio Chiarelli, Marco Ciuchini, Eugenio Coccia, Giancarlo D’Ambrosio, Fulvia De Fazio, Guglielmo De Nardo, Anna Di Ciaccio, Fernando Ferroni, Claudia Gemme, Pasquale Lubrano, Sandra Malvezzi, Nicola Mori, Marco Paganoni, Marco Pallavicini, Daniele Pedrini, Giulia Ricciardi, Biagio Saitta, Luca Trentadue, Vincenzo Vagnoni, Francesco Vissani, Dario Zappalà, Antonio Zoccoli


Comitato organizzatore locale

Giuseppe Bozzi (Presidente), Walter Bonivento, Matteo Cadeddu, Andrea Contu, Francesco Dettori, Francesca Dordei, Fiorella Fionda, Alberto Masoni, Cristian Pisano

Partecipanti
  • Alberto Bellavista
  • Alberto Lorenzo Rescia
  • Aldana Holzmann Airasca
  • Aleandro Nisati
  • Alessandro Cortopassi
  • Alessandro Maria Ricci
  • Alessio Ubaldi
  • Alex Stephane Piedjou Komnang
  • Andrea Claudio Maria Bulla
  • Andrea Milici
  • Andrea Pareti
  • Anna Balboni
  • Anna Di Ciaccio
  • Anna Piccoli
  • Antonia Di Crescenzo
  • Benedetta Argiento
  • Benedetta Camaiani
  • Benedetto Spadavecchia
  • Cecilia Antonioli
  • Claudia Cecchi
  • Claudio Quaranta
  • Cristian Pisano
  • Cristina Ripoli
  • Cristina-Andreea Alexe
  • Daniele Pedrini
  • Daniele Provenzano
  • Dario Gaetano Carmelo Zappala'
  • Davide Depalo
  • Davide Fiacco
  • Elisa Gabbrielli
  • Emma Hess
  • Fabio Catalano
  • Fabrizio Norcia
  • Federico Andrea Guillaume Corchia
  • Federico Armato
  • Federico Battisti
  • Federico Testa
  • Felice Nenna
  • Foteini Faidra Trantou
  • Francesca Alemanno
  • Francesca Dordei
  • Francesca Maria Pofi
  • Francesco Dettori
  • Francesco Giuli
  • Francesco Martina
  • Francesco Murgia
  • Francesco Pio Ucci
  • Francesco Rosini
  • Francesco Schiavone
  • Francesco Zenesini
  • Fulvio Piccinini
  • Gaetano Marco Dallavalle
  • Gaia De Palma
  • Giovanna Saleh
  • Giovanni De Lellis
  • Giovanni Gaudino
  • Giovanni Maria Filippo Besio
  • Giovanni Padovano
  • Giovanni Stagnitto
  • Giulia Maineri
  • Giulia Tuci
  • Giuliana Galati
  • Giuliana Panzarini
  • Giuseppe Bozzi
  • Giuseppina Santoro
  • Guglielmo De Nardo
  • Laura Cappelli
  • Laura Salutari
  • Leonardo Di Venere
  • Leonardo Palombini
  • Leonardo Toffolin
  • Lorenzo Mirasola
  • Lorenzo Pierini
  • Luca Ferro
  • Luigi Carlo Bresciani
  • Luigi Volpicelli
  • Luis Matias Recabarren Vergara
  • Marco Baruzzo
  • Marco Caporale
  • Marco Cipriani
  • Mariano Cadoni
  • Mario Merola
  • Martino Errico
  • Matteo Ianni
  • Michela Sestu
  • Michele Verdoglia
  • Nanako Kato
  • Raffaele Delli Gatti
  • Riccardo Pavarani
  • Riccardo Rossini
  • Romano Orlandini
  • Sara Cesare
  • Sebastiano Covone
  • Sibilla Di Pace
  • Simone Ravera
  • Stefano Amoroso
  • Veronica Oliviero
  • Vincenzo Del Piano
  • Walter M. Bonivento
  • +43
    • 13:00
      Registrazione
    • Saluti istituzionali
      • 1
        Introduzione
        Relatore: Giuseppe Bozzi (University of Cagliari and INFN, Cagliari)
      • 2
        Prorettore alla Ricerca - Università degli Studi di Cagliari
        Relatore: Luciano Colombo
      • 3
        Direttore del Dipartimento di Fisica di Cagliari
        Relatore: Michele Saba
      • 4
        Sezione INFN di Cagliari
        Relatore: Alberto Masoni
      • 5
        Comitato Scientifico
        Relatore: Anna Di Ciaccio (Istituto Nazionale di Fisica Nucleare)
    • Apertura
      • 6
        Stato attuale del Modello Standard agli acceleratori
        Relatore: Fulvio Piccinini (Istituto Nazionale di Fisica Nucleare)
      • 7
        Strategia per il futuro della Fisica delle Alte Energie
        Relatore: Aleandro Nisati (Istituto Nazionale di Fisica Nucleare)
      • 8
        Direzioni di sviluppo della fisica delle alte energie e neutrini
        Relatore: Francesco Vissani (Istituto Nazionale di Fisica Nucleare)
    • Pausa caffè
    • Frontiera dell'Energia
      • 9
        Dall'entanglement al toponio: nuove prospettive sulla fisica del quark top a LHC

        Lo studio della matrice di densità di spin per la produzione di coppie top-antitop ($t\bar{t}$) permette di indagare le proprietà quantistiche del quark top. La recente osservazione dell’entanglement quantistico nelle coppie $t\bar{t}$ da parte delle collaborazioni ATLAS e CMS ne è un esempio centrale, aprendo nuove prospettive per testare la meccanica quantistica alle alte energie.
        Un interessante effetto nella produzione di coppie $t\bar{t}$ vicino all’energia di soglia di produzione è la possibile formazione di uno stato quasi-legato top-antitop, previsto dalla QCD non relativistica: il toponio. La presenza di questo stato potrebbe contribuire a spiegare le discrepanze osservate tra i dati sperimentali e le previsioni teoriche del Modello Standard nella misura dell’entanglement delle coppie $t\bar{t}$. Il primo studio sperimentale del toponio è stato realizzato nel contesto della ricerca di bosoni di Higgs neutri pesanti (A/H) che decadono in $t\bar{t}$, in cui l’esperimento CMS ha riportato evidenze di tali effetti di soglia nei propri dati, con una prima stima della sua sezione d’urto.
        In questo contributo verranno presentati i risultati più recenti degli esperimenti ATLAS e CMS sulle osservabili quantistiche delle coppie $t\bar{t}$, discutendo le prime evidenze sperimentali del toponio, sia nelle misure di entanglement delle coppie $t\bar{t}$ che nelle ricerche dei bosoni A/H nei due esperimenti.

        Relatore: Laura Pintucci (Istituto Nazionale di Fisica Nucleare)
      • 10
        Ricerca di nuova fisica con quark top e energia trasversa mancante con nuovi algoritmi di Machine Learning

        Diverse teorie che propongono di estendere il Modello Standard prevedono l'esistenza di una nuova fisica che si manifesta come stati finali con quark top prodotti in associazione con particelle invisibili in collisioni protone-protone a energie accessibili al Large Hadron Collider.

        Verrà descritto un nuovo algoritmo, sviluppato per identificare quark top in decadimento adronico su un ampio regime cinematico e compatibile con diversi scenari Beyond the Standard Model (BSM). Tale algoritmo utilizza collezioni di jet di raggio grande e piccolo per ricostruire possibili candidati quark top e sfrutta una Deep Neural Network per identificare la migliore combinazione possibile su un ampio spettro di impulso.

        Verranno mostrati esempi dell'applicazione alle ricerche di quark top prodotti da una risonanza che coinvolge Vector-Like Quarks o in associazione con candidati di materia oscura e saranno delineate le prospettive future verso l'applicazione al dataset completo di Run-III.

        Relatore: Benedetta Argiento (Istituto Nazionale di Fisica Nucleare)
      • 11
        Approccio di anomaly detection per la ricerca di risonanze dibosoniche ad alta massa in stati finali completamente adronici utilizzando collisioni pp a √s = 13 TeV con il rivelatore ATLAS

        Dopo la scoperta del bosone di Higgs al LHC del CERN di Ginevra, molta attenzione è stata dedicata alla ricerca di nuove risonanze bosoniche ad alta massa. L'uso di tecniche di Machine Learning combinate con metodi di anomaly detection rappresenta un approccio innovativo, che consente una ricerca indipendente dai modelli per nuove risonanze. I grafi e le Graph Neural Networks (GNN) vengono impiegati per ricerche basate su Anomaly Detection (Graph Anomaly Detection). Le GNN si sono dimostrate molto promettenti. Vengono riportati i primi risultati ottenuti con il dataset LHC Olympics, insieme alle loro applicazioni iniziali per la ricerca di risonanze dibosoniche ad alta massa in stati finali completamente adronici, utilizzando collisioni pp a √s = 13 TeV con il rivelatore ATLAS.

        Relatore: Fabrizio Norcia (Università Federico II and INFN Napoli)
      • 12
        Development of a pattern recognition algorithm for reconstructing multi-particle events in the Mu2e detector

        Mu2e is an upcoming experiment at Fermilab and its main goal is to search for CLFV in the coherent transition of a muon into an electron on an Al target. In Mu2e, multi-particle events can occur simultaneously within the same time region, and it is crucial to accurately identify each particle track, including signals, to improve the robustness of track-finding methods and enhance reconstruction efficiency. $\bar{p}$ annihilation is one of the background events and produces multiple particles that can mimic signal events. Additionally, photons from radiative pion captures can produce an $\gamma \rightarrow e^+e^-$ pair, which can be used to calibrate the Mu2e momentum scale and the resolution. The Mu2e track reconstruction sequence begins by grouping hits produced in the tracker based on time and z coordinate information, called TimeCluster, and selected hits are processed to reconstruct helices and determine their momentum. The current pattern recognition algorithms identify a single helix per TimeCluster for single-track events. A new pattern recognition algorithm is being developed to reconstruct multi-particle events, and its features for finding multiple tracks and the current evaluation results will be discussed.

        Relatore: Hussain Kitagawa (Istituto Nazionale di Fisica Nucleare)
      • 13
        Fisica dell'Higgs al Muon Collider a 10 TeV

        ESPPU 2025 evidenzia, tra le priorità dei collisori futuri, la necessità di caratterizzare in dettaglio gli accoppiamenti del bosone di Higgs con le altre particelle del Modello Standard (SM) e il suo auto-accoppiamento, permettendo di determinare le proprietà dello stato di vuoto del SM e di testare numerose ipotesi di nuova fisica, attraverso il “portale dell’Higgs”. Tra i diversi candidati, il Muon Collider a $\sqrt s=10$ TeV spicca per la possibilità di produrre oltre $10^7$ eventi di singolo Higgs e oltre $10^4$ di doppio Higgs con una luminosità integrata di $10ab^{-1}$. Questo permetterebbe la misura degli accoppiamenti dell’Higgs con le altre particelle dello SM con una precisione senza precedenti, e la determinazione diretta dell’auto-accoppiamento dell’Higgs con un’incertezza dell’ordine del %. Questa presentazione discute le precisioni raggiungibili sulle principali misure del bosone di Higgs, ottenute attraverso una simulazione dettagliata del rivelatore e includendo sia i fondi di fisica che quelli provenienti dalla macchina.

        Relatore: Leonardo Palombini (Istituto Nazionale di Fisica Nucleare)
      • 14
        L’Esperimento ALADDIN ad LHC

        ALADDIN (An LHC Apparatus for Direct Dipole moments INvestigation, https://aladdin.web.cern.ch/) è un esperimento compatto a bersaglio fisso proposto per LHC, concepito per ottenere misure di precisione senza precedenti dei momenti di dipolo magnetico (MDM) ed elettrico (EDM) dei barioni con charm. Il suo design innovativo sfrutta la deviazione dei protoni provenienti dall’alone del fascio principale su un bersaglio solido, in combinazione con un cristallo curvo. Questa configurazione consente di produrre barioni con charm fortemente collimati in avanti, che vengono poi canalizzati attraverso il cristallo stesso. L’elemento chiave dell’esperimento è lo studio della precessione di spin indotta dall’effetto di canalizzazione nel cristallo curvo. Analizzando la polarizzazione dei barioni con charm in decadimento, ALADDIN punta a misurare con grande precisione sia il momento di dipolo magnetico che quello elettrico, fornendo dati cruciali per la comprensione delle interazioni fondamentali. L’apparato sperimentale prevede uno spettrometro lungo 4,4 m e un rivelatore RICH da 5,0 m per l’identificazione delle particelle. L’installazione è pianificata nella regione IR3 di LHC durante il Long Shutdown 3, senza la necessità di interventi infrastrutturali e con un impatto minimo sul funzionamento dell’LHC. La presa dati è prevista per il Run 4. Attualmente, il test di prova di principio TWOCRYST è in corso al LHC per dimostrare la fattibilità del concetto, con risultati attesi per il 2025. La Lettera di Intenti dell’esperimento è stata presentata al LHCC (https://cds.cern.ch/record/2905467), che ha approvato il proseguimento della collaborazione verso una proposta tecnica nel 2025.

        Relatore: Sara Cesare (Istituto Nazionale di Fisica Nucleare)
    • Astroparticelle e Cosmologia
      • 15
        Migliorare la sensibilità dei rivelatori di Onde Gravitazionali: Il ruolo della Compensazione Termica

        La rete globale di rivelatori di Onde Gravitazionali ha rivoluzionato l'astrofisica offrendo nuove opportunità per lo studio di alcuni tra i fenomeni più energetici dell’universo. Il crescente numero di eventi rilevati dagli interferometri LIGO e Virgo nei diversi run scientifici ha dimostrando l’efficacia dei miglioramenti apportati a questi strumenti nel corso degli anni. L’aumento della sensibilità di questi rivelatori rappresenta un’ardua sfida poiché richiede il loro corretto funzionamento a potenze sempre più elevate.
        Tuttavia, l'incremento della potenza circolante nelle cavità ottiche Fabry-Perot comporta un aumento degli effetti termici e la comparsa di aberrazioni del fronte d’onda che, se non adeguatamente compensate, compromettono le prestazioni dello strumento. Per questo motivo si è dimostrata essenziale l’implementazione e il costante miglioramento di un sistema di monitoraggio e compensazione termica (TCS – Thermal Compensation System).
        L’esperienza maturata con lo sviluppo di LIGO e Virgo sarà determinante per la transizione verso i rivelatori di terza generazione, come l’Einstein Telescope in Europa e il Cosmic Explorer negli Stati Uniti.
        Questa presentazione introdurrà i principi fondamentali dei sistemi di compensazione termica, discuterà lo stato dell’arte e le prospettive future. Verranno descritti i sensori impiegati per analizzare le aberrazioni indotte dagli effetti termici e gli attuatori utilizzati per riportare l’interferometro alla sua configurazione ottica nominale, mostrando come queste tecniche possano evolvere per fronteggiare le sfide poste dai rivelatori di terza generazione.

        Relatore: Matteo Ianni (INFN, Section of Rome Tor Vergata, Rome, Italy. University of Rome Tor Vergata, Department of Physics, Rome, Italy)
      • 16
        Gravitational waves from compact binary systems: observational prospects for Advanced Virgo

        The detection of gravitational waves has estabilished a new way to see the Universe. The LIGO-Virgo-KAGRA collaboration, following the current observing run O4, has planned a future one, O5, within this decade. Furthermore, in 2030s third-generation gravitational wave detectors, such as Einstein Telescope and Cosmic Explorer, will become opertive. During the transition phase from second to third generation another observing run is planned, the so-called postO5, in which current advanced interferometers will be further upgraded, in order to achieve the best sensitivity possibile: this is the case of Virgo_nEXT, the upgrade program for Advanced Virgo.

        This work presents the observational prospects for the LIGO-Virgo-KAGRA detector network during postO5. We consider compact binary coalescences as sources of gravitational waves, while, for what concerns the detectors, we focus on different noise configurations for Advanced Virgo. The predictions presented in this work will be functional to design the upgrades of current ground-based interferometers in order to maximize the scientific outcome.

        We produced a realistic population of compact binary systems by appling accurate astrophysical population synthesis models for the evolution of binary stars across cosmic time and eventually their merger; therefore we simulated the gravitational wave signal expected for these sources. Consequently the observing scenarios for future runs are derived, in terms of the detection rates and localization regions of the detected sources.

        In conclusion, this talk shows the observing scenario for the LIGO-Virgo-KAGRA detector network during postO5, highlighting how different noise configurations simulated for Advanced Virgo can impact on the detection and localization capabilities of the network.

        Relatore: Luca Muccillo (Istituto Nazionale di Fisica Nucleare)
      • 17
        Einstein Telescope: sfide e soluzioni per il rumore magnetico

        I rivelatori di onde gravitazionali di terza generazione, come Einstein Telescope (ET) e Cosmic Explorer (CE), saranno in grado di rilevare onde gravitazionali a frequenze più basse e con una precisione molto maggiore rispetto agli interferometri attuali, come Advanced Virgo e Advanced LIGO. Questo miglioramento permetterà di osservare eventi cosmici più lontani e deboli, come le fusioni di buchi neri primordiali, e di approfondire la nostra comprensione delle fasi più antiche dell'universo.
        Per raggiungere questa sensibilità, è necessario minimizzare tutte le fonti di rumore. In particolare, nelle medio-basse frequenze (1-100 Hz), tra i rumori che necessitano una maggiore mitigazione ci sono quelli di natura magnetica. Questi si dividono in due categorie: rumori magnetici ambientali, dovuti all’elettronica dell’interferometro stesso, e rumori magnetici naturali, dovuti principalmente alle risonanze di Schumann.
        Nel mio intervento illustro le principali problematiche legate a questi rumori e presento diverse strategie necessarie per raggiungere la sensibilità richiesta.

        Relatore: Federico Armato (UNIGE - INFN Genova)
      • 18
        Primi risultati di LEGEND-200: alla ricerca del doppio decadimento beta senza neutrini

        Il doppio decadimento beta senza neutrini (0$\nu\beta\beta$) è un processo raro che potrebbe avvenire se i neutrini fossero fermioni di Majorana. Se osservato, questo decadimento costituirebbe un'evidenza sperimentale inequivocabile dell'esistenza di nuova Fisica oltre il Modello Standard, in quanto comporta una violazione del numero leptonico di due unità.

        L'esperimento LEGEND (Large Enriched Germanium Experiment for Neutrinoless $\beta\beta$ Decay) ricerca lo 0$\nu\beta\beta$ del $^{76}$Ge utilizzando rivelatori al germanio ad alta purezza (HPGe), arricchiti in $^{76}$Ge per oltre l'86%.
        Il programma sperimentale di LEGEND si articola in due fasi, LEGEND-200 e LEGEND-1000.
        La prima fase dell'esperimento, LEGEND-200, avviata nel 2023 ai Laboratori Nazionali del Gran Sasso (LNGS), ha preso dati in modo stabile per circa un anno con 142 kg di rivelatori in germanio. Con un'esposizione finale di 1 ton$\cdot$anno e un indice di background di $2 \cdot 10^{-4} $ conteggi/(keV kg anno) al Q$_{\beta\beta}$ = 2039 keV, LEGEND-200 dovrebbe raggiungere una sensibilità di scoperta (3$\sigma$) sul tempo di dimezzamento di $10^{27}$ anni.
        La seconda fase, LEGEND-1000, vedrà la messa in opera di 1000 kg di rivelatori in germanio che, con un indice di background atteso di $10^{-5} $ conteggi/(keV kg anno) al Q$_{\beta\beta}$ e un'esposizione di 10 ton$\cdot$anno, consentiranno di raggiungere una sensibilità di scoperta (3$\sigma$) di oltre $10^{28}$ anni, coprendo tutta la regione di gerarchia di massa inversa.

        In questo contributo verrà introdotto l'esperimento LEGEND-200, con un focus sul suo stato attuale e sui primi risultati ottenuti nella campagna sperimentale in corso.
        In particolare, saranno introdotte le routines di analisi utilizzate, saranno discusse le performance dell'esperimento nell'identificazione del segnale e nella soppressione del fondo e sarà analizzato il fondo attualmente osservato nella regione di interesse attorno al $Q_{\beta\beta}$.

        Relatore: Giovanna Saleh (INFN Padova, Università di Padova, Universitat Zurich)
      • 19
        The flux of electron antineutrinos from supernova SN1987A data

        The neutrinos from the core collapse SN1987A are the first extrasolar neutrinos to be ever detected and have been widely studied to infer the thermodynamical and temporal features of a supernova; however their interpretation in terms of the astrophysical properties of the explosion has been giving rise to heated debates since ever. At date, models are still under construction and simulations do not always depict same things, thus the significance of the data at our disposal must be assessed as accurately as possible.
        By adopting a state-of-the-art parameterized model of electron antineutrino emission, we have made some steps forward in the analysis of the available data from core collapse SN1987A taking into account the times, energies and angles of arrival of all detected events in a reliable framework which includes a finite ramp in the initial stage of the neutrino emission.
        We determine the parameters of the accretion and cooling emissions and discuss their durations. The results compare well with theoretical expectations and overcome some tensions found in previous similar analyses. We estimate the delay times between the first antineutrino and the first event in the detectors. We test the agreement of the best-fit flux with the empirical temporal, energy and angular distributions, eventually finding a good compatibility with the observed data.

        Relatore: Veronica Oliviero (Istituto Nazionale di Fisica Nucleare)
      • 20
        Il neutrino con PTOLEMY: dalla misura della massa alla rivelazione del fondo cosmico

        I neutrini cosmologici di fondo sono una radiazione emessa un secondo dopo in Big Bang. Questa radiazione è la sorgente più abbondante di neutrini nell’Universo tuttavia, essendo caratterizzata da un’energia molto bassa, non è stata mai misurata direttamente. PTOLEMY nasce con l’obiettivo di studiare nuove tecniche sperimentali per rivelare il fondo di neutrini cosmici sfruttando la cattura del neutrino su un bersaglio di trizio. Questo impone numerose sfide tecnologiche sia nel campo della fisica dei materiali per lo sviluppo di un bersaglio solido, sia nella rivelazione di radiofrequenze associata all’innovativo spettrometro elettromagnetico. A queste sfide si aggiunge la misura dell’energia degli elettroni con altissima precisione (50 meV), requisito fondamentale che permette anche di determinare la massa del neutrino.
        PTOLEMY sta entrando nella fase di costruzione del dimostratore, con il quale sarà possibile ottenere la prova di principio ed eseguire misure di alta precisione che permetteranno di raggiungere il primo obiettivo di fisica dell’esperimento: la misura della massa del neutrino. Lo stato corrente ed i futuri sviluppi del progetto sono presentati.

        Relatore: Francesca Maria Pofi (Istituto Nazionale di Fisica Nucleare)
    • 19:30
      Aperitivo di benvenuto
    • Frontiera dell'Intensità
      • 21
        Compositezza dell'Higgs e dinamiche non universali

        Presentiamo un'estensione ultravioletta del Modello Standard (MS) basata sulla non universalità delle interazioni di Gauge e sulla compositezza del bosone di Higgs. Ad alte energie i gruppi di Gauge SU(2)$_R$ e U(1)$_{B-L}$ agiscono in maniera non universale, differenziando la terza generazione di fermioni dalle altre due. L'introduzione di un nuovo settore fortemente interagente genera una rottura spontanea di simmetria Sp(4)$\rightarrow$ SU(2)$_R^{[3]}\times$SU(2)$_L$ da cui il bosone di Higgs emerge come pseudo bosone di Goldstone alla scala del TeV. Questo modello è in grado di motivare simultaneamente il tuning del potenziale dell'Higgs e la gerarchia osservata tra gli accoppiamenti di Yukawa nel MS, in maniera coerente con i constraints sperimentali. L'introduzione di nuovi bosoni di Gauge pesanti implica inoltre una fenomenologia testabile alla scala del TeV, quindi alla portata di collider futuri.

        Relatore: Sebastiano Covone (University of Zürich)
      • 22
        Produzione e decadimento di adroni con quark pesanti in ATLAS

        La campagna di misura delle proprietà dei sapori pesanti di ATLAS è primariamente diretta allo studio di stati finali muonici, che pur permettendo di approfittare dell'elevata luminosità integrata, soffrono moderatamente delle limitazioni del rivelatore. Questa presentazione illustrerà i risultati più recenti della misura delle proprietà di produzione e decadimento dei sapori pesanti, inclusa la misura di produzione di charmonio estesa al più ampio intervallo di momento trasverso, e la misura più precisa al mondo della vita media del mesone B0.

        Relatore: Alessandro Cerri (Università di Siena)
      • 23
        Violazione del sapore leptonico nella Fisica dei Sapori pesanti a CMS

        Lo studio della conservazione del sapore leptonico e della sua universalità è fondamentale per identificare segnali di Nuova Fisica oltre il Modello Standard. Sebbene il Modello Standard non imponga simmetrie che garantiscano la conservazione del sapore leptonico, le frazioni di decadimento previste dal SM sono estremamente piccole. Al contrario, alcune estensioni del Modello Standard (BSM) prevedono modifiche che potrebbero rendere tali violazioni osservabili negli esperimenti attuali. Analogamente, nuovi accoppiamenti di gauge introdotti dai modelli BSM possono violare l'universalità del sapore leptonico, portando a deviazioni nelle interazioni tra leptoni di generazioni diverse. L'esperimento CMS può avere accesso a un ampio set di questi scenari BSM. Questo contributo fornisce una panoramica dei risultati ottenuti dall'esperimento CMS nelle ricerche di Lepton Flavor Violation (LFV) e Lepton Flavor Universality (LFU) nelle collisioni protone-protone a un'energia del centro di massa di 13 TeV, concentrandosi sui decadimenti degli adroni pesanti e dei tau. In particolare, verranno presentate le analisi di LFV nel settore carico con il decadimento tau --> 3 mu e LFU nei decadimenti B -> K l+ l- e B_c -> J/\psi l nu. Nel contesto della European Particle Physics Strategy, questo contributo mostrerà per la prima volta le proiezioni stimate nella ricerca di LFV nello scenario di alta luminosità dell'High Luminosity LHC.

        Relatore: Felice Nenna (Istituto Nazionale di Fisica Nucleare)
      • 24
        Ricerca di violazione di $C\!P$ con barioni beauty a LHCb

        L'esperimento LHCb è ottimizzato per effettuare misure di precisione nel settore della fisica del sapore sfruttando le potenzialità del Large Hadron Collider. Verranno presentati i risultati più recenti riguardanti lo studio della violazione di $C\!P$ nel settore dei barioni pesanti. Lo studio di questi decadimenti è di particolare interesse in quanto ad oggi la violazione di $C\!P$ nel settore dei barioni è non osservata. Inoltre i decadimenti dei barioni pesanti ricevono contributi dagli stessi diagrammi responsabili del decadimento dei mesoni $B$, dove la violazione di $C\!P$ è stata osservata.

        Relatore: Marco Caporale (Istituto Nazionale di Fisica Nucleare)
      • 25
        Osservazione del decadimento raro $\Sigma^+ \to p \mu^+ \mu^-$ a LHCb

        The first observation of the $\Sigma^+ \to p \mu^+ \mu^-$ (very) rare decay at the LHCb experiment is presented.

        This is a flavour changing neutral current sensitive to physics beyond the Standard Model, which could modify it's properties.
        In particular the HyperCP experiment years ago presented an evidence of this decay with a hint of a possible unknown intermediate particle (HyperCP hypothesis). This was excluded by LHCb already in 2018.
        A new measurement, exploiting an integrated luminosity of $5.4$ fb$^{-1}$ of proton-proton collision data at a centre-of-mass energy of $13$ TeV, has lead to an observation of this channel with a significance greater than $5$ standard deviations. Furthermore, by confirming the previous LHCb result, the HyperCp hypothesis has been rejected again.
        A measurement of its integrated and differential branching fraction is ongoing. This would be the rarest baryon decay ever observed.
        Finally prospects for additional observables, such as a CP violation measurement, will also be presented.

        Relatore: Daniele Provenzano (University & INFN Cagliari)
      • 26
        Spettroscopia dei mesoni pesanti a Belle II

        Belle II è uno dei pochi esperimenti che puo’ effettuare misure di precisione sulle proprieta’ dei mesoni pesanti, fornendo informazioni sulla loro struttura interna e sull’interazione tra quark in regime non-perturbativo. Lo stato Y(10753) e’ il più recente candidato a stato esotico nel settore del bottomonio, e sulla sua natura sono state fatte decine di ipotesi. Belle II ha raccolto dati a varie energie nel centro di massa attorno a $\sqrt{s} = 10.753$ GeV per misurarne le proprietà. In questa presentazione verranno discussi tutti i risultati piu’ recenti sulla spettroscopia dei mesoni pesanti ottenuti da Belle II e le implicazioni per i modelli teorici sviluppati fino ad ora per descriverli.

        Relatore: Federico Testa (Istituto Nazionale di Fisica Nucleare)
      • 27
        Risultati recenti nei decadimenti del mesone B con un leptone tau nello stato finale

        I decadimenti elettrodeboli mediati da un diagramma a pinguino e i decadimenti leptonici del mesone (B) sono tra gli obiettivi chiave del programma di fisica di Belle II. Questi processi pongono una sfida sperimentale particolarmente complessa a causa della presenza di neutrini negli stati finali, che determinano una significativa quantità di energia mancante nelle rare transizioni (b \to u) e (b \to s).
        Utilizzando i dati delle collisioni elettrone-positrone raccolti alla risonanza (\Upsilon (4S)), presentiamo il limite superiore più stringente mai ottenuto per il decadimento (B^0 \to K^{*0} \tau^+ \tau^-). Inoltre, combinando i dati di Belle e Belle II, riportiamo i primi limit sperimentali sul decadimento (B \to K_S \tau^\pm \ell^\mp), aprendo nuove prospettive per l'osservazione di questi processi rari.
        Infine, grazie all’analisi dei dati di Belle II, presentiamo una nuova misura della frazione di decadimento del processo (B^+ \to \tau^+ \overline{\nu}_\tau), contribuendo a una comprensione più approfondita della fisica del sapore e alla ricerca di possibili segnali di nuova fisica oltre il Modello Standard.

        Relatore: Giovanni Gaudino (Istituto Nazionale di Fisica Nucleare)
      • 28
        Contaminazione da Nuova Fisica in misure di luminosità di precisione a futuri acceleratori $e^+e^-$

        Diverse osservabili chiave del programma di fisica di alta precisione nei futuri collider leptonici dipenderanno in modo critico dalla conoscenza assoluta della luminosità della macchina.
        La determinazione della luminosità si basa sulla conoscenza precisa di un processo di riferimento, che in linea di principio non è influenzato da fisica sconosciuta, in modo che la sua sezione d’urto possa essere calcolata all’interno di una teoria ben consolidata, come il Modello Standard. Quantificare le incertezze indotte da possibili effetti di Nuova Fisica su tali processi è quindi cruciale.
        Presentiamo un’indagine esplorativa dei contributi della Nuova Fisica, sia leggeri che pesanti, al processo Bhabha a piccolo angolo nei futuri collider $e^+e^-$ e discutiamo possibili strategie per eliminare potenziali incertezze derivanti da tali contaminazioni, facendo affidamento su osservabili indipendenti dalla luminosità assoluta.

        Relatore: Francesco Pio Ucci (Istituto Nazionale di Fisica Nucleare)
    • Pausa caffè
    • Nuove Tecnologie
      • 29
        Implementazione di Reti Neurali su FPGA con Memristori per l’Ottimizzazione dell’Elaborazione Dati in ATLAS

        Le reti neurali e l'intelligenza artificiale (IA) assumono un ruolo centrale nella ricerca di fisica fondamentale, trovando applicazione in diversi ambiti, dall'analisi dei dati ai sistemi di trigger di alto livello. Parallelamente, risulta cruciale lo sviluppo di tecnologie in grado di massimizzare le prestazioni degli algoritmi di IA e adattarsi alle loro esigenze, con particolare riferimento all'ottimizzazione dei processi di acquisizione dati. In questo contesto, i memristori emergono come una promettente tecnologia per lo sviluppo di architetture neuromorfe, consentendo di eseguire efficientemente le moltiplicazioni matriciali, operazioni fondamentali per il funzionamento delle reti neurali. Questa proprietà permette di migliorare significativamente la velocità di calcolo e di ottimizzare il consumo energetico, rendendo i memristori una soluzione particolarmente interessante per applicazioni di IA ad alte prestazioni. Il presente studio esplora l'integrazione delle reti neurali con FPGA (Field-Programmable Gate Array), affidando però il calcolo computazionale alla matrice di memristori. Le FPGA, grazie alla loro flessibilità e capacità di parallelizzazione, rappresentano un'interfaccia ideale tra la matrice neuromorfa e i sistemi di acquisizione dati, soprattutto in contesti che richiedono bassa latenza e alte prestazioni. La presentazione si focalizza su una breve introduzione alla tecnologia dei memristori e sulla caratterizzazione di questi dispositivi, illustrando lo stato attuale del progetto e le potenzialità dell'approccio proposto nell'ambito dell'elaborazione dati, con un'applicazione nel contesto dell’upgrade del trigger di muoni a Livello zero dell'esperimento ATLAS per HL-LHC.

        Relatore: Davide Fiacco (Istituto Nazionale di Fisica Nucleare)
      • 30
        Algoritmi avanzati per la ricostruzione di vertici 4D con il MIP Timing Detector di CMS al HL-LHC

        La fase High-Luminosity del Large Hadron Collider (HL-LHC) porrà sfide significative alla ricostruzione dei vertici primari, che è cruciale per molte analisi fisiche, a causa del sostanziale aumento del pileup nelle collisioni. Per mitigare questo effetto, l'esperimento CMS aggiornato includerà il MIP Timing Detector (MTD) per misurare il tempo di arrivo delle particelle cariche con una risoluzione temporale di 30-60 picosecondi. Questa presentazione presenta i recenti progressi negli algoritmi di ricostruzione dei vertici 4D, mirati a distinguere i vertici all'interno dell'ambiente denso di HL-LHC, incorporando le informazioni sul tempo di volo fornite dal MTD. Le prestazioni delle nuove tecniche, sviluppate oltre gli studi iniziali eseguiti al momento della proposta del rivelatore, vengono valutate confrontando l'efficienza della ricostruzione dei vertici, la risoluzione temporale e il rigetto del pileup con i metodi esistenti. Viene dimostrato l'impatto dell'informazione temporale sulla ricostruzione dei vertici, basata su una dettagliata catena di software di simulazione e ricostruzione.

        Relatore: Raffaele Delli Gatti (Istituto Nazionale di Fisica Nucleare)
      • 31
        Imaging delle interazioni di neutrino con ricostruzione su GPU in DUNE

        Il Deep Underground Neutrino Experiment (DUNE) è un esperimento di nuova generazione a long-baseline progettato per studiare le oscillazioni dei neutrini con una sensibilità senza precedenti. All’interno del complesso del Near Detector, il sistema SAND (System for on-Axis Neutrino Detection) integra GRAIN (Granular Argon for Interactions of Neutrinos), un innovativo sotto-rivelatore a Argon liquido (LAr) progettato per ottenere immagini delle interazioni dei neutrini utilizzando esclusivamente la luce di scintillazione. A tal fine, è in fase di studio un sistema ottico di lettura avanzato.

        GRAIN sfrutta 60 telecamere, ciascuna costituita da matrici di Silicon Photo Multiplier (SiPM) con 1024 pixel e da una Maschera ad Apertura Codificata, in grado di acquisire immagini delle tracce delle particelle cariche generate dalle interazioni dei neutrini. Questo approccio innovativo consente la ricostruzione precisa delle traiettorie delle particelle e del deposito di energia, migliorando l’identificazione dei vertici di interazione e delle particelle secondarie. A tal fine, è stato implementato un algoritmo di ricostruzione basato sulla Maximum Likelihood Expectation Maximization per ottenere una distribuzione tridimensionale proporzionale all’energia depositata dalle particelle cariche che attraversano il volume di LAr. L’algoritmo si basa sull’esecuzione di un prodotto matriciale con $O(10^8)$ elementi, il cui calcolo richiede necessariamente l'utilizzo di architetture di calcolo accelerato basate su GPU.

        Questo lavoro si concentra sull’ottimizzazione della ricostruzione utilizzando risorse di calcolo ad alte prestazioni (HPC), inclusi cluster su larga scala come Leonardo, il quale si trova a Bologna (Italia) gestito da CINECA. Sfruttando le capacità di calcolo parallelo delle GPU, il flusso di lavoro computazionale consente una ricostruzione più rapida degli eventi. Perciò, il talk presenterà una panoramica della progettazione e delle prestazioni previste di GRAIN, evidenziando il ruolo critico delle risorse HPC e dell’accelerazione su GPU come elementi chiave per ricostruire gli eventi di neutrino. In particolare, verrà illustrato come lo sfruttamento dell'elaborazione parallela accellera la ricostruzione tridimensionale, computazionalmente dispendiosa, dell'energia depositata, riducendo significativamente i tempi di elaborazione e mantenendo una precisione spaziale adeguata.

        Relatori: Lorenzo Pierini (Istituto Nazionale di Fisica Nucleare), Lorenzo Pierini (Istituto Nazionale di Fisica Nucleare)
      • 32
        Simulazione veloce in ATLAS per il Run 3 di LHC e oltre

        In vista della campagna ad alta luminosità del LHC (HL-LHC), si prevede che i requisiti computazionali dell'esperimento ATLAS aumentino notevolmente nei prossimi anni. In particolare, la simulazione di eventi Monte Carlo è altamente dispendiosa dal punto di vista computazionale e la limitata disponibilità degli stessi è una delle maggiori fonti di incertezza in molte analisi. Il principale collo di bottiglia nella simulazione del rivelatore è la simulazione dettagliata degli sciami elettromagnetici e adronici nel sistema di calorimetri di ATLAS mediante il software Geant4.
        Per aumentare la statistica Monte Carlo e impiegare al meglio le risorse disponibili, la collaborazione ATLAS ha messo in produzione il sistema di simulazione veloce AtlFast3, il quale combina approcci basati sia su parametrizzazioni sia su Machine Learning, per effettuare la simulazione degli eventi nel rivelatore ATLAS in minor tempo rispetto a Geant4, garantendo al contempo una buona accuratezza.
        Questo contributo presenta i risultati ottenuti con la versione di AtlFast3 attualmente in produzione per il Run 3 di LHC; si discutono inoltre gli ultimi progressi relativi allo sviluppo della sua versione futura, le idee e i piani per il futuro della simulazione veloce in ATLAS anche in vista di HL-LHC.

        Relatore: Federico Andrea Guillaume Corchia (Istituto Nazionale di Fisica Nucleare)
      • 33
        Ottimizzazione della risoluzione temporale del futuro calorimetro elettromagnetico di LHCb

        Durante i Run 5 e 6, l'esperimento LHCb opererà a una luminosità istantanea pari a $1.5 \times 10^{34}$ cm$^{-2}$s$^{-1}$. Queste condizioni richiedono un sostanziale upgrade del Calorimetro Elettromagnetico (ECAL), che dovrà sia sostenere alte dosi di radiazione, sia misurare il tempo di arrivo delle particelle incidenti con una risoluzione di poche decine di picosecondi per mitigare il pile-up.

        La regione centrale del nuovo rivelatore - chiamato PicoCal - sarà un Calorimetro a Spaghetti (SpaCal) composto da fibre scintillanti inserite in un materiale passivo ad alta densità e accoppiate a tubi fotomoltiplicatori (PMT). La scelta di questi ultimi è fondamentale per ottenere la risoluzione temporale richiesta.

        La simulazione della propagazione degli sciami elettromagnetici all’interno di un modulo SpaCal dotato di readout singolo (solo nella parte posteriore) mostra che PMT veloci possono misurare il tempo di arrivo delle particelle con una risoluzione peggiore rispetto a modelli più lenti, a causa delle fluttuazioni longitudinali degli sciami nel rivelatore. Queste introducono un bias nella misura del tempo di arrivo delle particelle, degradando la risoluzione temporale. È stato sviluppato un algoritmo di correzione di tale bias che migliora la risoluzione temporale in maniera promettente per gli scopi del progetto. Inoltre, si è osservata una correlazione tra il tempo di salita dei segnali di output e la profondità degli sciami.

        Alcuni testbeam presso SPS (CERN) e DESY hanno permesso di misurare la risoluzione temporale di prototipi SpaCal con readout singolo utilizzando fasci di elettroni fino a 100 GeV. Sono state ottenute risoluzioni inferiori a 20 ps, che dimostrano le ottime capacità di timing del nuovo rivelatore e l'efficacia dell'algoritmo di rimozione del bias.

        Relatore: Alberto Bellavista (Istituto Nazionale di Fisica Nucleare)
      • 34
        Enhancing Axion Searches with Quantum Coincidence in Superconducting Qubits

        The development of a single-photon counter based on superconducting qubits holds great promise for detecting weak and elusive signals, such as axions and high-frequency gravitational waves (HFGWs). Integrating such a detector into the INFN QUAX experiment could significantly enhance its sensitivity in the search for axions.
        As part of the INFN Qub-It project, this work focuses on designing an itinerant single-photon counter using two or more superconducting qubits dispersively coupled to a common storage cavity. By leveraging the quantum non-demolition (QND) technique, this approach aims to enhance sensitivity while reducing dark count rates. The design is informed by state-of-the-art two-dimensional (2D) and three-dimensional (3D) schemes.
        In the initial phase, superconducting transmon qubits —designed to resolve photon numbers inside a 3D cavity—were fabricated (TII, CNR-IFN) and fully characterized through experimental measurements in a 10mK cryogenic environment at the INFN National Laboratory of Frascati. To refine the design, simulations of a 3D device consisting of a transmon qubit inside a 3D cavity were conducted using Ansys HFSS and Python-based energy participation ratio (PyEPR) analysis. Several key system parameters were calculated, and experimental tests on the fabricated superconducting qubits validated the simulations, confirming the high sensitivity and stability required for photon counting within the target frequency range.
        Building on this foundation, we extended our design to a two-qubit system within the same cavity to exploit “quantum coincidence,” reducing the false positive rate. First, we derived the equations governing the quantum state dynamics and analyzed the system’s time evolution using QuTiP, a quantum toolbox in Python. This provided insights into optimizing control parameters to achieve near-unity detection efficiency for the final state |11>, corresponding to simultaneous photon detection by both qubits. Subsequently, Ansys HFSS and PyEPR analysis were used to simulate the two-qubit system, focusing on qubit-cavity interactions, individual qubit properties, and couplings with dedicated readout cavities.
        This work presents the experimental development, the design parameters and expected performance of the device, along with its anticipated impact on enhancing sensitivity in axion detection experiments.

        Relatore: Alex Stephane Piedjou Komnang (Istituto Nazionale di Fisica Nucleare)
    • Pranzo
    • Frontiera dell'Energia
      • 35
        Misura della massa del bosone W all'esperimento CMS

        Il bosone W è la particella mediatrice dell'interazione debole carica. La sua massa, m(W), è prevista dal modello standard (SM) della fisica delle particelle con una precisione di 6 MeV, circa 80 ppm. Tuttavia, nuove particelle nei loop potrebbero alterare il valore di m(W). Pertanto, le misure dirette di m(W) servono sia come test della coerenza interna dello SM sia come potenziali finestre sulla nuova fisica. L'esperimento CMS ha recentemente rilasciato una nuova misurazione, sugli eventi W -> mu nu, con dati di collisione protone-protone raccolti nel 2016 all'LHC: il valore misurato è compatibile con la previsione dello SM e ha una precisione di 9,9 MeV, paragonabile alla più recente misurazione CDF che invece è in disaccordo. Il risultato del CMS è ottenuto con un fit di massima verosimiglianza alla distribuzione di momento trasverso e pseudorapidità del muone, impiegando tecniche all'avanguardia per simulare la produzione e il decadimento del bosone W. Raggiungere la precisione dello SM richiede un'ampia descrizione di numerosi effetti sistematici sperimentali, si dara' quindi particolare attenzione alla strategia adottata per stimare con precisione le efficienze di ricostruzione dei muoni, che sono vitali per correggere le simulazioni e per perfezionare l'accordo con i dati negli osservabili utilizzati per estrarre m(W). Vengono inoltre discussi il modello di incertezza corrispondente e l'impatto sulla misura.

        Relatore: Ruben Forti (Istituto Nazionale di Fisica Nucleare)
      • 36
        Correzioni alla scala di impulso dei muoni da fit alla massa del bosone Z

        La determinazione precisa degli impulsi dei muoni è un input essenziale sia per le analisi di fisica che per le prestazioni del rivelatore nell'esperimento CMS. La traiettoria dei muoni nel tracciatore di CMS viene ricostruita utilizzando l'algoritmo del Kalman filter e l'allineamento dei sottomoduli del rivelatore, con un'incertezza sulla scala degli impulsi dei muoni di circa lo 0,1%. Si mostrera' una procedura per migliorare ulteriormente questa incertezza, progettata per la misurazione della massa del bosone W utilizzando i dati raccolti dall'esperimento CMS a un'energia di collisione di 13 TeV nel 2016. Le correzioni al bias di impulso sono derivate da fit della distribuzione di massa invariante dei dimuoni attorno al polo del bosone Z, in bin della cinematica dei muoni. Le tracce rilevanti sono state rifittate con l'algoritmo Continuous Variable Helix per una maggiore precisione. La differenza tra la distribuzione di massa invariante nei dati e nella simulazione è fittata con un modello analitico per estrarre la distorsione in scala, che è a sua volta fittata con un modello fisico che tiene conto del disallineamento residuo del rivelatore e delle descrizioni imperfette del campo magnetico e del materiale del rivelatore. Inoltre, la procedura tiene conto delle distorsioni di risoluzione ed è iterativa. Le attività menzionate nel presente documento sono state eseguite nell'ambito del progetto ERC-2020-COG, intitolato "Power to the LHC data: an ASYmptotically MOdel-independent measurement of the W boson mass".

        Relatore: Cristina-Andreea Alexe (Istituto Nazionale di Fisica Nucleare)
      • 37
        Verso una nuova definizione di sapore dei jet

        Lo studio di jet prodotti dall'adronizzazione di quark di sapore beauty e charm è interessante sia dal punto di vista teorico, in quanto problema multi-scala in cromodinamica quantistica (QCD), che sperimentale, poiché stati finali chiave al LHC - Higgs, top, particelle BSM, etc. - vengono identificati tramite essi. Questo contributo presenta recenti studi fenomenologici mirati a comprendere il comportamento di nuovi algoritmi di clusterizzazione di jet, per una definizione di sapore dei jet per cui sia possibile comparare misure e predizioni ad ordine NNLO in QCD. Inoltre vengono mostrati i risultati delle misure dello stato finale di produzione associata tra bosone Z e quark b effettuate dall'esperimento ATLAS, comparati a predizioni ottenute con questi nuovi algoritmi.

        Relatore: Alberto Lorenzo Rescia
      • 38
        Jet flavour tagging con reti neurali grafiche in ATLAS

        L'identificazione dei jet contenenti adroni con quark $b$ è fondamentale per molte analisi di fisica a LHC, comprese le misure che coinvolgono bosoni di Higgs o quark top, e per la ricerca di fisica oltre il Modello Standard. In questo contributo verranno presentati i più recenti miglioramenti nella capacità degli algoritmi della Collaborazione ATLAS di separare i $b$-jet dai jet originati da quark più leggeri. Le migliori prestazioni derivano dall'uso di algoritmi avanzati di machine learning basati su reti grafiche. In particolare, con l’algoritmo GN2 si osserva un fattore di miglioramento superiore a 2 nel rigetto di jet originati da quark leggeri e quark c rispetto alle prestazioni relative all’algoritmo DL1d calibrato e raccomandato per le analisi di fisica in ATLAS fino al 2023. Verrà inoltre discussa in dettaglio la performance attesa di questo algoritmo nell'ambito dell'LHC ad alta luminosita' (HL-LHC).

        Relatore: Leonardo Toffolin (CERN, Universita e INFN Trieste (IT))
      • 39
        Primi risultati dell'esperimento SND@LHC

        SND@LHC è un esperimento di nuova concezione, progettato per studiare i neutrini prodotti in laboratorio a LHC, nell'intervallo di energia del TeV finora inesplorato. È installato a 480 m dal punto di collisione protone-protone IP1 nel tunnel secondario TI18, dove arrivano solo muoni, neutrini e eventuali Feebly Interacting Particles, nell'intervallo di pseudo-rapidità tra 7.2 e 8.6. Il rivelatore usa una tecnologia ibrida: in un bersaglio di 800 Kg, composto da lastre di tungsteno alternate ad emulsioni nucleari, sono intercalati rivelatori elettronici per il tracciamento delle particelle cariche e per la misura degli sciami elettromagnetici. L'apparato è completato da un calorimetro adronico e da rivelatori per l'identificazione di muoni. Il sistema è capace di distinguere tra le tre specie di neutrini e misurarne i rapporti di produzione. Inoltre, SND@LHC è in grado di effettuare misure sui quark pesanti in una regione cinematica non accessibile a ATLAS, CMS e LHCb, e di particolare interesse per FCC e per esperimenti con neutrini atmosferici. SND@LHC prende dati dal 2022 e raccoglierà circa 300 fb^-1 nel Run 3 di LHC. Le prime misure, qui presentate, confermano le potenzialità dell'esperimento.

        Relatore: Gaetano Marco Dallavalle (Istituto Nazionale di Fisica Nucleare)
      • 40
        Ricerca di una prova diretta del meccanismo di generazione della massa dei neutrini con il rivelatore ATLAS a LHC

        La scoperta delle oscillazioni dei neutrini implica masse non nulle degli stessi, difficilmente giustificabili in modo naturale attraverso un semplice accoppiamento di Yukawa Modello Standard (MS) al campo di Higgs.
        Un interessante scenario di fisica oltre il MS è fornito dal Modello Left-Right Simmetrico (LRSM). In questo modello, la parità viene rotta spontaneamente e la massa di Majorana per il neutrino destrorso, $N$, è generata attraverso la rottura spontanea di simmetria $SU(2)_{R}$. Inoltre, grazie al meccanismo See-Saw, viene spiegata la piccola massa dei neutrini sinistrorsi. La massa di Dirac del neutrino è generata dall'Higgs del MS e, in diretta analogia, un Higgs "di Majorana" $\Delta$ fornisce la massa di Majorana $m_N$.
        In questo lavoro, viene presentata una ricerca su un nuovo stato finale, condotta utilizzando i dati del Run 2 di ATLAS. Questa analisi indaga la produzione di due $N$ che decadono in due jet e un leptone ciascuno, ovvero $pp \to NN \to 2l4j$, con $\Delta$ come mediatore dominante. In questo scenario, è permessa la violazione del numero leptonico, quindi le cariche dei leptoni nello stato finale possono essere uguali o opposte. Le ricerche di ATLAS svolte in precedenza hanno esaminato processi consentiti dal LRSM, ma che presentavano topologie differenti. Lo stato finale oggetto di questa nuova analisi consente di indagare la parte destrorsa, finora trascurata, del settore di Higgs del LRSM (ovvero il bosone $\Delta$). Lo spazio dei parametri è quindi complementare rispetto a quello delle analisi precedenti, coi leptoni prodotti che presentano valori di momento trasverso per lo più dell'ordine di decine di GeV, e possibili valori di $m_N$ più piccoli, al di sotto degli 80 GeV.

        Relatore: Elisa Sanzani (Istituto Nazionale di Fisica Nucleare)
      • 41
        Misure differenziali di H -> WW indipendenti dal modello

        Si presentera' la misura differenziale di H+jet nel canale di decadimento WW utilizzando dati di CMS nel full-run2. Le misure presentate sondano la natura CP degli accoppiamenti del bosone di Higgs ai quark. È stato utilizzato un nuovo approccio, sfruttando la rete neurale adversarial, per ridurre al minimo la dipendenza del modello dalla misurazione e consentire la reinterpretazione. Sono stati derivati ​​anche vincoli su diversi coefficienti di Wilson.

        Relatore: Benedetta Camaiani (Istituto Nazionale di Fisica Nucleare)
      • 42
        TMD dei gluoni e produzione di quarkonio

        Protons and neutrons are the building blocks of atomic nuclei. Understanding their internal structure is crucial for addressing fundamental questions in physics and interpreting phenomena, such as the high energy scattering processes currently under study at the LHC.
        Despite significant progress throughout the years, many fundamental questions remain unanswered: where does the mass of the nucleons originate? What determines their spin? How are partons distributed within nucleons?
        Our analysis focuses on accessing the 3-dimensional structure of the nucleons via transverse-momentum-dependent distributions (TMDs), which describe the transverse motion of the partons, as well as the correlation between their spins and momenta.
        In particular, we investigate gluon TMDs, which remain less understood than their quark counterparts, through the production of heavy quark-antiquark bound states (quarkonia) in proton-proton collisions, within the framework of TMD factorization combined with non-relativistic QCD.
        Our analysis focuses on quarkonium states with even charge conjugation, where the color-singlet production mechanism dominates at small transverse momenta. We demonstrate how linearly polarized gluons inside unpolarized, longitudinally, and transversely polarized protons contribute to the cross sections for scalar and pseudoscalar quarkonia.
        We will show the results of single and double spin asymmetries, enabling direct extraction of gluon TMDs, analogous to quark TMD studies in Drell-Yan processes. Using Gaussian models for gluon TMD, we provide numerical predictions for transverse single-spin asymmetries, which could be tested in the proposed LHCSpin fixed-target experiment.

        Relatore: Nanako Kato (Istituto Nazionale di Fisica Nucleare)
    • Pausa caffè
    • Astroparticelle e Cosmologia
      • 43
        Analisi spettrale congiunta dei GRB, un approccio sistematico risolto nel tempo

        La missione Fermi è un osservatorio spaziale progettato per studiare il cielo nei raggi gamma. È composto da due strumenti principali: il Large Area Telescope (LAT) e il Gamma-ray Burst Monitor (GBM), che coprono un ampio intervallo di energie, da ~10 keV a più di 300 GeV. Uno degli obiettivi principali della missione è rilevare e studiare i lampi di raggi gamma (Gamma-ray Bursts o GRBs), sebbene i meccanismi alla base della loro emissione immediata e i siti di emissione siano ancora poco compresi.

        In questa presentazione ci concentreremo sui GRB più brillanti ed energetici osservati contemporaneamente sia da Fermi-GBM che da Fermi-LAT. Abbiamo effettuato un'analisi spettroscopica sistematica congiunta, sia integrata che risolta nel tempo, su un campione di circa 50 GRBs. Presenteremo le distribuzioni preliminari dei parametri spettroscopici derivati, come gli indici spettrali, l'energia di picco e l’eventuale presenza di componenti spettrali aggiuntive. Confronteremo anche i risultati con le analisi a bassa energia effettuata sui dati di GBM per valutare ulteriormente l'impatto delle componenti ad alta energia. Sfruttando le capacità ad ampio spettro di Fermi, questo studio fornisce nuove informazioni per capire la fisica dei GRB.

        Relatore: Aldana Holzmann Airasca (Istituto Nazionale di Fisica Nucleare)
      • 44
        The Southern-hemisphere Wide-field Gamma-ray Observatory and the PeV energy scale

        The Southern-hemisphere Wide-field Gamma-ray Observatory (SWGO) will be the first instrument of its kind in the southern hemisphere. It consists of thousands of Cherenkov water detectors arranged in a circular area of $\sim1$ km$^{2}$. Currently under design phase, SWGO will be a wide-field-of-view and $100\%$ duty cycle facility to detect gamma rays in the $100$ GeV to tens of PeV energy range. Also, there is significant potential for cosmic ray studies including anisotropy. SWGO will be built in the Atacama Astronomical Park, Chile, at an altitude of 4770 m.a.s.l., allowing us to map the galactic center, transient, multiwavelength, and multimessenger phenomena. This facility will highly complement the Cherenkov Telescope Array Observatory (CTAO) which is ready to start the building phase near in the Atacama desert. Both instruments represent the next generation of gamma ray experiments, and are planned to make major advances in the field. In this work, I will present a general review of the current SWGO status and its scientific potential for fundamental physics such as Lorentz invariance violation testability. In addition, I will show a brief study on the muon content in extensive air showers at the PeV scale.

        Relatore: Luis Matias Recabarren Vergara (Istituto Nazionale di Fisica Nucleare, sezione di Padova)
      • 45
        Identificazione di particelle nei calorimetri 3D per applicazioni spaziali

        L'impiego di calorimetri segmentati tridimensionalmente negli esperimenti per la rivelazione diretta di raggi cosmici introduce la possibilità di ricostruire con precisione la topologia 3D degli sciami generati da particelle provenienti da qualunque direzione. Questa caratteristica permette di applicare metodi di analisi più avanzati, capaci di estrapolare informazioni ulteriori rispetto ai metodi tradizionalmente usati nei calorimetri segmentati a strati.

        In questo lavoro presentiamo una tecnica per l'analisi dei depositi energetici nei cristalli di un calorimetro, che sfrutta una parametrizzazione tridimensionale della forma degli sciami per implementare un test di likelihood da applicare sui singoli eventi osservati. Questo approccio si candida a diventare strumento altamente accurato per discriminare elettroni e positroni cosmici dall'elevato fondo di particelle adroniche nei raggi cosmici. Riportiamo inoltre i primi risultati di un approccio parallelo applicato agli stessi dati, ma basato su reti neurali.

        Sebbene l'analisi sia stata sviluppata usando il calorimetro del High Energy cosmic Radiation Detector (HERD) come caso studio, la sua validità si può estendere a qualunque calorimetro isotropo, omogeneo e finemente segmentato.

        Relatore: Claudio Brugnoni (Istituto Nazionale di Fisica Nucleare)
      • 46
        Sviluppi recenti del rivelatore HEPD-02, prossimo al lancio a bordo di CSES-02

        La missione Italo-Cinese CSES-LIMADOU, inaugurata il 25 Settembre 2013, consiste nell'invio di diversi satelliti nel corso dei prossimi anni. CSES-02 (China Seismo-Electromagnetic Satellite), aggiornamento del primo satellite CSES-01 attualmente in volo, verrà lanciato nell'estate del 2025. Tramite gli 11 payload installati esso ha lo scopo di studiare le interconnessioni tra litosfera, atmosfera, ionosfera e magnetosfera terrestri, estendere le misure di raggi cosmici a basse energie per diverse specie di particelle, analizzare le interazioni tra il Sole e la Terra e monitorare la dinamica delle fasce di Van Allen. Tra i payload installati sul satellite è presente anche il rivelatore di particelle HEPD-02 (High-Energy Particle Detector), realizzato interamente dalla collaborazione italiana, che consiste in una versione aggiornata e migliorata di HEPD-01 presente sul primo satellite della missione. Tale strumento, composto da tre piani di tracciatore a pixel e da un calorimetro elettromagnetico di piani di scintillatore plastico e cristalli inorganici di LYSO, ha lo scopo di studiare il flusso di particelle cariche, prevalentemente protoni (30-200 MeV), elettroni (3-100 MeV) e nuclei leggeri, in orbita bassa e con un'elevata risoluzione energetica e angolare. La nuova logica di trigger gli permetterà di misurare accuratamente flussi in zone intensa radiazione (SAA) e di registrare transienti gamma (Gamma Ray Burst). In questo lavoro si vuole fornire una descrizione dei sotto-rivelatori che compongono lo strumento, concentrandosi sui i principali cambiamenti rispetto al suo predecessore. Inoltre verranno discusse le performance ottenute utilizzando i dati raccolti durante la campagna di test a terra tramite acquisizioni presso acceleratori e muoni cosmici.

        Relatore: Stefano Amoroso (Istituto Nazionale di Fisica Nucleare)
      • 47
        The Antarctic Demonstrator for the Advanced Particle astrophysics Telescope (ADAPT)

        L'Advanced Particle-astrophysics Telescope (APT) è un futuro osservatorio spaziale di nuova generazione progettato per lo studio della radiazione gamma e dei raggi cosmici in un intervallo di energie che va da centinaia di keV fino a diversi TeV. Con un’area efficace di 3 m × 3 m × 2,5 m, orbiterà in L2, combinando in un unico strumento un telescopio Compton e un telescopio a coppie, per garantire copertura su tutto l’intervallo considerato. Il suo design innovativo prevede un tracciatori multistrato e un calorimetro d’imaging, ottimizzati per garantire la massima area efficace e un ampio field of view. Per testare le tecnologie di APT, è in via di sviluppo ADAPT (Antarctic Demonstrator for APT), un dimostratore che volerà su un pallone stratosferico sopra l’Antartide durante la finestra di lancio dell’estate antartica 2026-2027. ADAPT è una versione ridotta di APT: con solo l’1% del materiale totale, sarà equipaggiato con rivelatori a strip di silicio (SSDs), un calorimetro a imaging di cristalli di CsI (ICCs), un hodoscopio a fibre scintillanti e moduli di CsI per la misura dell’energia (Tail Counters). Il suo obiettivo principale è dimostrare la capacità di ricostruzione degli eventi Compton e fornire un’ allerta rapida per i Gamma Ray Bursts (GRB).L'esperimento ADAPT rappresenta un passo fondamentale verso la realizzazione di APT, fornendo dati cruciali per la calibrazione e l’ottimizzazione del futuro telescopio spaziale.

        Relatore: Gaia De Palma (Istituto Nazionale di Fisica Nucleare)
      • 48
        Nuove ricerche indirette di Materia Oscura con l’esperimento GAPS

        Esperimenti di ricerca di segnali indiretti di Materia Oscura (in inglese Dark Matter, DM) si prefiggono di indagare oltre la fisica del modello standard, focalizzandosi sulle particelle generate da una potenziale annichilazione o interazione fra particelle di DM. L’esperimento GAPS (General Antiparticle Spectrometer) è progettato per svolgere tali studi, cercando antiparticelle a bassa energia nei raggi cosmici: antiprotoni, antielio-3 e, specialmente, antideuterio. Il flusso di antideuterio, risultante da una pura interazione secondaria di raggi cosmici primari con il mezzo interstellare, è atteso essere molto basso. Teorie oltre il modello standard prevedono che alcuni candidati di DM potrebbero significativamente intensificare (di circa due ordini di grandezza) il flusso di questa popolazione, nell’intervallo di basse energie (< 250 MeV/n); per questa ragione, la ricerca di antideuterio in GAPS è considerata quasi priva di fondo. Inoltre, GAPS è progettato per ottenere misure assai precise di antiprotoni a basse energie e, possibilmente, segnature della presenza di antielio-3. Il rilevatore è formato da una serie di 10 piani di Si(Li) – che formano il tracciatore – circondati da un sistema di scintillatori plastici, che costituiscono il sistema del tempo di volo (Time-of-Flight, ToF). Questo design è stato ottimizzato per rendere possibile una tecnica di identificazione basata sulla cattura di antiparticelle e sulla formazione di atomi esotici con successivi decadimenti, attraverso una serie di transizioni atomiche che emettono raggi X ad energia ben definita. Successivamente, l’annichilazione dell’antiparticella con il nucleo bersaglio produce una pletora di particelle secondarie, provenienti tutte da un vertice comune (stella di pioni). Il lancio dell’esperimento è previsto per la fine del 2025, con il primo di una serie di voli su pallone dall’Antartide.

        Relatore: Luigi Volpicelli (Istituto Nazionale di Fisica Nucleare)
      • 49
        Materia oscura e fisica fondamentale con il Cherenkov Telescope Array Observatory

        Il Cherenkov Telescope Array Observatory (CTAO) sarà il principale osservatorio terrestre di raggi gamma di nuova generazione. Esso sarà composto da due grandi array di telescopi Cherenkov atmosferici ad immagini (IACT), con un sito nell’emisfero settentrionale (a La Palma, nelle Isole Canarie) e uno in quello meridionale (a Paranal, in Cile). CTAO punta ad offrire grandi miglioramenti nella risoluzione energetica e angolare rispetto agli attuali sistemi di IACT, coprendo un intervallo di energie di fotoni fra i 20 GeV e i 300 TeV, in aggiunta a un’area efficace considerevolmente più ampia e una completa copertura del cielo. Oltre a una percentuale del tempo di osservazione disponibile a proposte esterne, che lo renderà il primo osservatorio di raggi gamma “aperto”, il programma osservativo principale di CTAO sarà organizzato in diversi Key Science Projects. Una parte significativa di questo programma sarà dedicata a studi sulla materia oscura (ad esempio WIMP e axion-like particles) e sulla fisica fondamentale, tramite l’osservazione di sorgenti come il centro galattico della Via Lattea, le galassie sferoidali nane, la Grande Nube di Magellano, e oggetti extragalattici quali i blazar. In questa presentazione sarà fornita una panoramica delle principali caratteristiche di CTAO, con particolare attenzione alle sue capacità di investigare queste domande ancora aperte della fisica moderna.

        Relatore: Francesco Schiavone (Università degli Studi di Bari & INFN Bari)
      • 50
        BULLKID-DM: ricerca di WIMPs leggere con array monolitici di rivelatori

        BULLKID-DM è un nuovo esperimento mirato alla ricerca di materia oscura WIMP-like con massa intorno a $1$ GeV o inferiore e sezione d'urto con i nucleoni minore di $10^{-41}$ cm$^2$.

        Il target consiste in uno stack di wafer di silicio, intagliato in dadi di $5.4 \times 5.4 \times 5$ mm$^3$, con una massa totale di $800$ g e più di $2000$ dadi.

        I fononi prodotti dalle interazioni delle particelle all'interno di ogni dado vengono rilevati da rivelatori superconduttori ad Induttanza Cinetica (KIDs). Il volume completamente attivo del rivelatore consente la fiducializzazione dello stesso, una caratteristica cruciale per un'efficace esclusione del background.

        Dopo i test di successo di un singolo wafer prototipo da $60$ g, un dimostratore composto da $3$ wafer è attualmente in fase di test in superficie nel Laboratorio di Rivelatori Criogenici dell'Università di Roma "La Sapienza".

        La validazione del dimostratore in condizioni a basso fondo è prevista per l'inizio del $2026$ presso i Laboratori del Gran Sasso dell'INFN. Successivamente, per l'inizio del $2027$ è previsto il collaudo del rivelatore su larga scala nello stesso sito.

        Questo contributo fornirà una panoramica dello stato attuale e degli sviluppi futuri dell'esperimento, nonché una discussione approfondita dei principi fisici e delle principali sfide tecnologiche nell'operare i Rivelatori a Induttanza Cinetica per la rilevazione di particelle.

        Relatore: Davide Quaranta (Istituto Nazionale di Fisica Nucleare)
    • Cena sociale Ristorante Antica Cagliari - Terrazza

      Ristorante Antica Cagliari - Terrazza

      Viale Lungo Mare Poetto, 238 Cagliari
    • Nuove Tecnologie
      • 51
        Il nuovo tracciatore interno di BESIII: CGEM-IT

        L'estensione della presa dati dell'esperimento BESIII (IHEP, Pechino) fino al 2030 ha avviato un programma di miglioramento dell’acceleratore e del rivelatore, che prevede la sostituzione della camera a deriva interna con un tracciatore a GEM cilindriche (CGEM-IT). Il CGEM-IT è composto da tre strati coassiali di triple GEM e ha l’obiettivo di ripristinare l'efficienza, migliorare la determinazione della coordinata z così da affinare la ricostruzione della posizione dei vertici secondari, con una risoluzione di 130 μm nel piano xy e inferiore a 500 μm lungo la direzione del fascio.

        Per la lettura del segnale è stato sviluppato un sistema dedicato basato su TIGER, un ASIC a 64 canali, capace di fornire una lettura analogica di carica e tempo e trasmissione digitale delle informazioni alla scheda di acquisizione del CGEM-IT. L'assemblaggio dei tre strati è stato completato nell'ottobre 2023 e il rivelatore è stato installato in BESIII nell’ottobre 2024, dopo un anno di commissioning su stand con raggi cosmici. Attualmente è in corso una seconda campagna di acquisizione dati con raggi cosmici per valutare le prestazioni dopo l'installazione in BESIII.

        Verrà presentato lo stato generale del progetto CGEM-IT, con particolare attenzione ai risultati ottenuti dalla rivelazione dei raggi cosmici.

        Relatore: Damiano Cabiati a nome del gruppo di lavoro CGEM-IT (Istituto Nazionale di Fisica Nucleare)
      • 52
        The Photon Detection System of the DUNE Far Detector

        Since their discovery, neutrinos have captivated physicists worldwide, leading to a multitude of theories and experiments aimed at unveiling their mysterious nature. Despite extensive efforts,numerous open questions remain, and addressing one or more of these questions could profoundly impact our understanding of particle physics and the universe. Consequently, there is a strong motivation to develop new instruments, such as the Deep Underground Neutrino Experiment (DUNE), which will employ innovative technologies and the most powerful available neutrino beam to study CP violation in the neutrino sector and determine the neutrino mass ordering. Beyond these goals, the detector configuration will enable additional physics studies, such as supernova and solar neutrinos detection and search for physics beyond the Standard Model. DUNE will consist of a Near Detector complex, located close to the neutrino beam at Fermilab (Illinois), and a Far Detector (FD) at SURF (South Dakota), 1300 km away. The FD will comprise four 17-kton Liquid Argon (LAr) detectors. Two of them will be installed during Phase I of the experiment: a vertical
        drift (VD) LAr TPC and a horizontal drift (HD) LAr TPC. The remaining two, planned for Phase II, are currently under design. Both VD and HD will exploit the possibility of detecting scintillation light in argon using a Photon Detection System (PDS) composed of innovative detectors called X-Arapuca. The X-Arapucas will serve as trigger for non-beam events, enabling the experiment to achieve many of its primary scientific goals. Additionally, they will contribute to neutrino interaction vertex and primary track reconstruction while providing a complementary calorimetric measurement. Two 750-ton LAr prototypes were built at CERN to test this technology and are currently in operation. In this talk, the DUNE PDS will be described, along with a report on the ongoing activities involving the CERN prototypes.

        Relatore: Francesca Alemanno (Istituto Nazionale di Fisica Nucleare)
      • 53
        Micromegas resistive a “small-pad” di grande area per rivelazione di alti flussi di particelle ai futuri esperimenti di High Energy Physics.

        Il prototipo micromegas, denominato Paddy-2000, sviluppato nell’ambito del progetto pluriennale di R&D, è in grado di operare sotto grandi flussi di particelle fino a decine di MHz/cm2.
        Esso rappresenta un passo significativo verso la costruzione modulare di grandi apparati per futuri esperimenti di fisica delle particelle.
        Il rivelatore, delle dimensioni di 50x40 cm2, implementa uno schema resistivo innovativo, composto da un doppio strato di fogli in DLC (Diamond Like Carbon).
        Il piano di lettura è costituito da pad di piccola area (~mm2) per mantenere i tassi di conteggio sui singoli canali sufficientemente bassi, compatibili con i tempi di risposta del rivelatore e del sistema di readout.
        Il rivelatore è stato testato su fascio nell'aprile 2024 presso il CERN. Le sue performance sono state studiate con fasci di muoni e pioni ad alta energia, fornendo informazioni sul comportamento del rivelatore in funzione dei parametri operativi.
        Le efficienze spaziali e temporali ottenute sono in accordo con quanto atteso in fase di progetto.
        In questa presentazione verrà descritta la struttura del rivelatore e i nuovi studi di efficienza e risoluzione spaziale e temporale del rivelatore, ottenuti studiando le possibili sistematiche alle misure.

        Relatore: Simone Perna (Istituto Nazionale di Fisica Nucleare)
      • 54
        Identificazione di isotopi da frammentazione nucleare in FOOT: risultati preliminari mediante calorimetro in BGO e misura del tempo di volo / Identification of nuclear fragmentation isotopes in FOOT: preliminary results via BGO calorimeter and Time-Of-Flight measurements

        Nella radioterapia antitumorale con particelle cariche, conoscere la distribuzione di dose rilasciata nel paziente con una precisione pari o migliore del 3% minimizza il rischio di danneggiare tessuti sani. Tuttavia, sia il fascio sia il bersaglio possono subire frammentazione nucleare, causando un rilascio indesiderato di dose nei tessuti sani: le sezioni d'urto di tali processi non sono ben conosciute e sono disponibili pochissimi dati sulle sezioni d'urto differenziali rispetto all'energia e all'angolo di emissione.
        L'esperimento FOOT mira ad affrontare questo problema attraverso due configurazioni alternative identificando, con precisione rispettivamente del 2-3% e del 5%, la carica (Z) e la massa (A) delle particelle secondarie prodotte da fasci di protoni, 4-He, 12-C e 16-O nei trattamenti di adroterapia. Per raggiungere questo obiettivo, la risoluzione richiesta sulla misura dell’energia cinetica dei frammenti da parte del calorimetro dell’esperimento FOOT e' inferiore al 2%.
        In questo studio si valutano le prestazioni del detector e il loro impatto nell’identificazione degli isotopi di massa prodotti da frammentazione nucleare. Con riferimento alla campagna di presa dati del 2024 al CNAO (Pavia) si illustra il processo di calibrazione in energia del calorimetro, le sue limitazioni tecniche e le opportune correzioni da adottare. Nella seconda parte della presentazione sono mostrati i primi risultati sperimentali, concernenti l’identificazione in massa di frammenti prodotti da 12-C a 200 MeV/u su un bersaglio di grafite. Tali risultati sono ottenuti combinando le misure del detector in questione con quelle del resto del setup sperimentale, in particolare il TOF-Wall responsabile della misura di carica (Z) dei frammenti.

        Gli isotopi di H, He, Li, Be, B e C sono identificati con successo, sebbene la natura preliminare dell'analisi implichi la presenza di significativi margini di miglioramento. Inoltre, gran parte degli effetti sulla risposta del rivelatore, legati in particolare a fenomeni di quenching, sono stati modellizzati con successo, con risultati estendibili anche a frammenti di Z non nota.

        Relatore: Benedetto Spadavecchia
      • 55
        Un calorimetro adronico basato su micropattern gaseous detector resistivi

        I calorimetri destinati alle future Higgs factories dovranno garantire un’eccellente risoluzione energetica per distinguere i decadimenti adronici dei bosoni W e Z. L’algoritmo di Particle Flow (PFA), che combina i dati provenienti da diversi sottosistemi, è particolarmente adatto a questo scopo. Questo contributo presenta lo sviluppo di un calorimetro adronico basato su Micropattern Gaseous Detector (MPGD), progettato per esperimenti presso futuri collisori circolari e ottimizzato per un approccio Particle Flow. In quest’ottica, un Muon Collider multi-TeV viene trattato come caso di studio di riferimento.
        Grazie alla possibilità di raggiungere un’elevata granularità di readout (~cm²), gli MPGD sono ideali come strati attivi in un calorimetro adronico a sampling per il PFA. Inoltre, queste tecnologie si adattano particolarmente bene alle condizioni di fondo del Muon Collider, poiché sono altamente resistenti alle radiazioni e capaci di sostenere tassi di interazione elevati (fino a 10 MHz/cm²). In particolare, gli MPGD resistivi, come le Micromegas resistive e le µ-RWELL, offrono un’ottima risoluzione spaziale, elevata stabilità operativa (grazie alla mitigazione delle scariche) e uniformità, rendendole soluzioni estremamente efficaci per applicazioni calorimetriche.
        Questo contributo presenta studi sulla risoluzione energetica e temporale, condotti sia tramite simulazioni standalone con Geant4, sia all’interno del framework di simulazione completo per il Muon Collider. Inoltre, si riportano studi di caratterizzazione effettuati con fasci di muoni presso il CERN SPS su rivelatori Micromegas resistivi e µ-RWELL, valutandone efficienza, uniformità della risposta, risoluzione spaziale e temporale. Infine, si presentano i risulati riguardanti la risposta energetica di un prototipo di cella HCAL, costituito da otto strati (~1 λ) di acciaio inox alternati a rivelatori MPGD, testato con fasci di pioni fino a 10 GeV presso il CERN PS.

        Relatore: Lisa Generoso (Istituto Nazionale di Fisica Nucleare)
      • 56
        Sviluppo di prototipi di calorimetri adronici dual-readout e risultati ai test beam

        L’esperimento IDEA, incluso nei Conceptual Design Report sia del Future Circular Collider che del Circular Electron-Positron Collider, si basa sulla tecnologia dual-readout per il sistema calorimetrico del detector, pensata per migliorare sensibilmente la risoluzione nelle misure di energia degli sciami adronici. Questa tecnica sfrutta due differenti tipi di segnale: la scintillazione e l’emissione di luce per effetto Ĉerenkov. La combinazione dei due segnali permette di misurare la frazione elettromagnetica di ogni sciame adronico, le cui fluttuazioni sono la maggiore sorgente di deterioramento della risoluzione energetica. La seconda principale caratteristica di questo calorimetro è la lettura della luce prodotta nelle fibre ottiche del calorimetro con fotomoltiplicatori al silicio, uno per ogni fibra, cosa che permette un campionamento molto fine degli sciami nella direzione trasversa. La posizione degli sciami nella direzione longitudinale può essere ricostruita attraverso misure del tempo di arrivo con risoluzione dell’ordine di 100 ps. Due prototipi di calorimetri dual-readout, pensati come primi passi verso un dimostratore delle performance del calorimetro di IDEA, sono stati costruiti e testati su fasci di particelle. In questo contributo verranno descritti questi prototipi e i risultati dei test con fascio condotti su essi. I risultati dell’analisi dei dati raccolti sono inoltre importanti per validare le simulazioni sviluppate in Geant4, per assicurarsi che riproducano fedelmente il comportamento del rivelatore e possano essere utilizzate per studi aggiuntivi.

        Relatore: Andrea Pareti (Istituto Nazionale di Fisica Nucleare)
      • 57
        Caratterizzazione puntuale mediante laser micrometrico di sensori 3D a trincea irraggiati con neutroni fino a fluenze di $10^{18} \, 1MeV n_{eq}/ cm^{2}$

        I collisori di prossima generazione per esperimenti di fisica delle alte energie, come HL-LHC, saranno in grado di offrire una luminosità almeno cinque volte maggiore (ordine $5 \times 10^{34} \, cm^{−2}⋅s^{−1}$) rispetto quanto possono fare i collisori odierni. Questo aumento di luminosità porterà diverse sfide ai rivelatori di prossima generazione, i quali dovranno mantenere un’efficienza di ricostruzione degli eventi simili ai rivelatori attualmente operativi, ma con un pile-up molto più elevato. In particolare per i rivelatori di vertice una possibile soluzione sarà quella di misurare il tempo in cui le particelle attraversano i piani di rivelazione (tracciamento 4D) con una risoluzione temporale di alcune decine di picosecondi. Inoltre, l’incremento di luminosità sarà causa di un maggiore danno da radiazione subito dai rivelatori, le fluenze attese superano valori di $10^{16} \, 1MeV n_{eq}/cm^{2}$ per HL-LHC e fino a $10^{18} \, 1MeV n_{eq}/cm^{2}$ se si considerano i collisori futuri che succederanno HL-LHC. Queste sfide portano alla necessità di sviluppare rivelatori innovativi capaci di soddisfare stringenti requisiti. La collaborazione TimeSPOT dell'INFN ha sviluppato dei sensori a pixel di silicio 3D a trench con l’obiettivo di soddisfare i requisiti richiesti ai futuri rivelatori. Tali sensori hanno già dato prova di raggiungere risoluzioni spaziali di $10 \, \mu m$, risoluzioni temporali di $10 \, ps$ con elevata efficienza di rivelazione per particelle al minimo di ionizzazione fino a livelli di irraggiamento pari a $10^{17} \, 1MeV n_{eq}/cm^{2}$ . Spingendo lo sguardo ai collisori che succederanno HL-LHC, è stata condotta una campagna di irraggiamento presso il reattore TRIGA Mark II dello Jožef Stefan Institute, in cui i sensori 3D a trench sono stati irraggiati a fluenze estreme fino a $10^{18} \, 1MeV n_{eq}/cm^{2}$. Tali sensori altamente irraggiati sono attualmente in fase di caratterizzazione presso i laboratori INFN della sezione di Cagliari. Il sistema di caratterizzazione adottato consiste di un fascio laser rosso messo a fuoco in uno spot micrometrico, che consente di quantificare le prestazioni puntuali all’interno dei singoli pixel con accuratezza spaziale di pochi micrometri. I risultati delle caratterizzazioni di queste strutture di test ed i risultati ottenuti durante il test su fascio condotto presso l’SPS del CERN di Ginevra nel 2024 su strutture di test irraggiate fino a $10^{18} \, 1MeV n_{eq}/cm^{2}$ , saranno presentati alla conferenza. I risultati di questi studi indicano che i sensori TimeSPOT sono degli ottimi candidati per essere utilizzati nei tracciatori di prossima generazione.

        Relatore: Michele Verdoglia (Istituto Nazionale di Fisica Nucleare)
      • 58
        Caratteristiche e prestazioni uniche di una sorgente laser nel medio infrarosso per la spettroscopia dell’idrogeno muonico e la misura del raggio del protone: il laser dell’esperimento FAMU

        L’esperimento FAMU ha superato la metà della campagne di misura previste, il cui obiettivo è migliorare la precisione nella determinazione del raggio del protone attraverso la spettroscopia dell’atomo muonico di idrogeno.

        L’esperimento si svolge presso la facility ISIS del Rutherford Appleton Laboratory (RAL) nel Regno Unito e sfrutta un fascio di muoni impulsato per produrre idrogeno muonico. Questo, una volta formato, viene illuminato da un laser progettato per eccitare lo spin dello stato 1S dell’atomo. Il laser pulsato impiegato, sviluppato specificamente dalla sezione INFN di Trieste per questa applicazione, è unico al mondo per le sue caratteristiche di sintonizzabilità, energia e purezza spettrale, parametri essenziali per il successo dell’esperimento.

        La transizione di interesse, attesa intorno ai 183 meV, richiede un laser operante nel medio infrarosso, a circa 6.78 μm, capace di essere sintonizzato con estrema precisione e stabilità sulla lunghezza d'onda investigata per un periodo di tempo prolungato. Il sistema laser sfrutta un processo di Difference Frequency Generation (DFG) che avviene all'interno di un cristallo non lineare di BaGa$_4$Se$_7$. Tale processo combina due fasci laser iniziali a due lunghezze d’onda o frequenze diverse, andando a generare un terzo fascio laser con lunghezza d’onda o frequenza pari alla differenza in frequenza delle due sorgenti iniziali. In questo caso il fascio finale a 6.78 μm viene generato a partire da un fascio a 1064 nm, prodotto da un laser commerciale Nd:YAG, e da una sorgente sintonizzabile a 1262 nm basato su un oscillatore Cr:forsterite amplificata sviluppata appositamente per questo applicazione.

        Per consentire il funzionamento remoto del laser, evitando l’accesso diretto all’area sperimentale, e garantire una stabilità a lungo termine, è stato sviluppato un sistema di controllo dedicato. Questo sistema integra una rete di sensori di energia, lunghezza d’onda e posizione, i cui dati vengono acquisiti e utilizzati per il monitoraggio e la regolazione di un insieme di attuatori piezoelettrici, alcuni dei quali dotati di feedback attivo per un controllo automatico.

        Durante le quattro campagne di acquisizione dati condotte finora, il laser ha dimostrato una sintonizzabilità con step minimi inferiori a 10 pm e una stabilità della lunghezza d'onda dell'ordine di 3 pm. La linewidth è stata stimata inferiore a 30 pm, con una larghezza di riga totale, considerando effetti spettroscopici, di circa 80 pm. Inoltre, il laser ha dimostrato la capacità di superare stabilmente 1.5 mJ di energia, mantenendo al contempo le caratteristiche di stabilità e purezza richieste dall’esperimento. Un aspetto distintivo di questo sistema è la capacità di operare continuativamente per settimane, garantendo un alto livello di stabilità e riducendo al minimo la necessità di intervento da parte degli operatori, grazie ai suoi sofisticati sistemi di feedback.

        L’esperimento FAMU prevede a breve altre due sessioni di acquisizione dati, per le quali il laser è stato ulteriormente ottimizzato. Gli aggiornamenti riguardano un miglioramento della stabilità grazie a nuovi sistemi di stabilizzazione, un avanzamento nel monitoraggio con strumenti di misura più precisi e, soprattutto, un significativo incremento dell’energia. Quest’ultimo risultato è stato ottenuto focalizzando i fasci in ingresso, aumentando così la densità di energia iniettata nel cristallo non lineare, permettendo di ottenere in modo stabile energie superiori ai 3 mJ.

        Relatore: Marco Baruzzo (Istituto Nazionale di Fisica Nucleare)
    • Pausa caffè
    • Frontiera dell'Intensità
      • 59
        Rinormalizzazione di teorie di campo efficaci mediante metodi on‑shell

        Elaboriamo l'applicazione di metodi on‑shell e basati sull'unitarietà per il calcolo dei coefficienti del gruppo di rinormalizzazione nelle teorie di campo efficaci, estendendo tale approccio per includere il mixing tra operatori con dimensioni diverse e gli effetti dominanti di massa. In particolare, deriviamo una formula per le dimensioni anomale che deriva dalla struttura generale del mixing di operatori, fino all'ordine di due loop, e mostriamo come il teorema di Higgs a bassa energia possa essere sfruttato per includere gli effetti dominanti di massa. Le applicazioni alle proprietà di rinormalizzazione di diverse teorie di campo efficaci evidenziano una riduzione significativa della complessità computazionale rispetto agli approcci standard basati sui diagrammi di Feynman. Il calcolo degli integrali nello spazio delle fasi viene effettuato utilizzando diversi metodi, tra i quali l'integrazione basata sul teorema di Stokes si rivela tecnicamente più semplice ed efficace. I risultati ottenuti forniscono uno strumento potente per interpretare le misure sperimentali di osservabili a bassa energia, come i processi flavor-violating o i momenti di dipolo elettrico e magnetico, indotti da nuova fisica che emerge al di sopra della scala elettrodebole.

        Relatore: Luigi Carlo Bresciani (University of Padova & INFN-PD)
      • 60
        Prima osservazione del decadimento $K^+\to\pi^+\nu\bar\nu\,$ con l’esperimento NA62

        The $K^+\rightarrow\pi^+\nu\bar\nu $ decay is a golden mode for flavour physics. Its branching ratio
        is predicted with high precision by the Standard Model to be less than $10^{−10}$,
        and this decay mode is highly sensitive to indirect effects of new physics up to
        the highest mass scales. A new measurement of the $K^+\rightarrow\pi^+\nu\bar\nu $ decay by the
        NA62 experiment at the CERN SPS is presented, using data collected in 2021
        and 2022. This new dataset was collected after modifications to the beamline
        and detectors and at a higher instantaneous beam intensity with respect to the
        previous 2016–2018 data taking. Using the NA62 datasets from 2016–2022, a
        new measurement of $BR(K^+\rightarrow\pi^+\nu\bar\nu) = 13.0^{+3.3}_{-2.9}\times 10^{-11} $ is
        the first time the $K^+\rightarrow\pi^+\nu\bar\nu$ decay is observed with a significance exceeding $5\sigma$.

        Relatore: Ilaria Rosa (Istituto Nazionale di Fisica Nucleare)
      • 61
        L'esperimento SHiP al CERN

        La nostra conoscenza più avanzata della fisica delle particelle, sintetizzata nel Modello Standard, non mostra evidenti discrepanze nei risultati sperimentali. Tuttavia, numerosi fenomeni osservati rimangono inspiegati, tra cui la massa dei neutrini, l'asimmetria materia-antimateria e la materia oscura. Le future ricerche di quella "nuova fisica" che dovrebbe essere alla base di queste anomalie richiedono senza dubbio un approccio diversificato e esperimenti con una sensibilità complementare a diversi tipi di modelli teorici.
        Il CERN riconosce fortemente questa esigenza e promuove un'ampia diversità di programmi sperimentali. Tra questi, un ruolo di primo piano è ricoperto dal recentemente approvato esperimento SHiP (Search for Hidden Particles) insieme alla Beam Dump Facility presso l'acceleratore SPS del CERN. SHiP ha l'obiettivo di esplorare le cosiddette "particelle debolmente interagenti" attraverso l'osservazione dei loro decadimenti o della loro diffusione. L'inizio della presa dati è previsto per l'inizio degli anni '30.

        In questo intervento, discuterò le ricerche delle particelle debolmente interagenti presso l'SPS e la capacità di SHiP di effettuare misure uniche nella fisica dei neutrini, affrontando tutte le sfide sperimentali connesse. Questo esperimento rappresenta un'importante opportunità per sondare territori ancora inesplorati della fisica fondamentale, offrendo una prospettiva unica per rispondere ad alcune delle domande più profonde sulla natura dell'universo. Inoltre, SHiP beneficerà della sinergia con l'upgrade dell'esperimento SND@LHC previsto per Hi-Lumi LHC, il cui sviluppo e funzionamento offriranno un'importante opportunità per il rivelatore di neutrini di SHiP.

        Relatore: Antonia Di Crescenzo (Istituto Nazionale di Fisica Nucleare)
      • 62
        Test della violazione dell'isospin nel decadimento del charmonio in ΛΣ⁰+c.c.

        Il decadimento di un mesone vettore del charmonio ($c\bar c$) nello stato $\Lambda\bar\Sigma^0+\text{c.c.}$ si può ritenere puramente elettromagnetico nell’ipotesi di conservazione dell’isospin. L’interazione al primo ordine è mediata quindi da un fotone virtuale, come per il processo non risonante $e^+e^-\to\Lambda\bar \Sigma^0+\text{c.c.}$ in approssimazione di Born. Vista la natura dei due processi, una incongruenza fra le misure degli stessi è da ricondursi ad un contributo nel decadimento dello stato charmonio che violi l’isospin.

        Grazie all’elevata luminosità e la grande quantità di $\psi(2S)$ raccolte, la collaborazione BESIII ha recentemente riportato la misura del rapporto di decadimento $\text{BR}(\psi(2S)\to \Lambda\bar\Sigma^0+\text{c.c.})$, la prima misura in assoluto di questo processo e attualmente pubblicata nel Particle Data Group.

        Utilizzando questo dato, il rapporto di decadimento per lo stato $J/\psi$, i valori di sezione d’urto di produzione di coppie barione-antibarione neutri, è possibile estrarre il valore dell’accoppiamento elettromagnetico dalle due misure in maniera indipendente. Nella relazione, presenteremo il risultato di BESIII e mostreremo il procedimento per quantificare l’entità dell’eventuale violazione di isospin. Concluderemo che la misura sperimentale ottenuta dalla collaborazione esclude la presenza di significativi fenomeni di violazione dell’isospin nel decadimento $\psi(2S)\to \Lambda\bar\Sigma^0+\text{c.c.}$

        Relatore: Francesco Rosini (Istituto Nazionale di Fisica Nucleare)
      • 63
        Sull'anomalia nucleare di Atomki dopo il risultato di MEG-II

        I recenti risultati sperimentali della collaborazione Atomki hanno riportato l'osservazione di effetti anomali nelle transizioni nucleari del Berillio, dell'Elio e del Carbonio, che potrebbero suggerire la presenza di fisica oltre il Modello Standard. Tuttavia, l'esperimento MEG-II ha recentemente mostrato l'assenza di un segnale anomalo significativo nella transizione del Berillio $^8$Be$\to ^8$Be$ + e^+e^-$. Alla luce di questo risultato, riesaminiamo criticamente le possibili interpretazioni teoriche delle anomalie osservate dall'esperimento Atomki in termini di un nuovo bosone $X$ con massa 17 MeV. Il presente lavoro si propone di studiare la fenomenologia di uno stato di spin-2 e di riconsiderare la possibilità di uno scalare puro CP-pari. La nostra analisi mostra che uno stato di spin-2 è fortemente sfavorito dal vincolo di SINDRUM, mentre un bosone scalare potrebbe spiegare le anomalie dell'Elio e del Carbonio, rimanendo compatibile con altri vincoli sperimentali.

        Relatore: Stefano Scacco (Istituto Nazionale di Fisica Nucleare)
    • Pranzo
    • Astroparticelle e Cosmologia: Poster
      • 64
        Modelli di gravità modificata: la Teoria di Campo Efficace dell’Energia Oscura

        La Teoria di Campo Efficace dell’Energia Oscura (EFT of DE) è un approccio indipendente dal modello che consente di descrivere una vasta gamma di modelli di gravità modificata.
        In questo formalismo, l'azione di Einstein viene sostituita da una nuova azione, parametrizzata da una serie di funzioni del tempo, chiamate funzioni EFT.
        Fissando opportunamente queste funzioni, è possibile riprodurre il modello cosmologico standard (LCDM) e diversi modelli di gravità modificata, come la quintessenza, la k-essenza, i modelli f(R) e Brans-Dicke.
        Nel formalismo EFT, come nel modello LCDM, si definiscono densità e pressione di energia oscura. Tuttavia, questa definizione non è univoca e varia in letteratura. Il mio intervento si propone, dopo una breve introduzione sul formalismo EFT, di illustrare un criterio rigoroso e condivisibile per una definizione univoca della densità e della pressione di energia oscura, superando così le ambiguità presenti in letteratura.

        Relatore: Federico Armato (UNIGE - INFN Genova)
      • 65
        Osservazione della variazione Forbush nel flusso dei cosmici per mezzo della rete di telescopi del progetto Extreme Energy Events

        Una serie di intensi brillamenti solari con emissione di massa coronale, avvenuti nel Maggio 2024, i più intensi negli ultimi venti anni, ha prodotto – tra gli altri effetti – una notevole diminuzione Forbush nel flusso di raggi cosmici osservato sulla Terra. La diminuzione Forbush si caratterizza in genere per una rapida variazione (nell’arco di alcune ore) del flusso dei cosmici, con un’ampiezza che in alcuni casi può raggiungere anche il 10% a seconda del tipo di particelle rivelate, e una fase di recovery, della durata usuale di parecchi giorni. L’evento del Maggio 2024 è stato osservato e quantificato dai diversi telescopi MRPC del Progetto Extreme Energy Events (EEE), dislocati in Italia e al CERN a diverse latitudini, nonché dai tre telescopi EEE di scintillatori installati alle Svalbard, ad una latitudine elevata (79° N), caratterizzata da un basso valore di cutoff geomagnetico. In questo studio è stata eseguita un’analisi sistematica dei risultati ottenuti dai diversi rivelatori MRPC e un confronto con i dati ottenuti a latitudini elevate sia dai rivelatori di muoni che di neutroni.

        Relatore: Cristina Ripoli (Istituto Nazionale di Fisica Nucleare)
      • 66
        Il rivelatore Zirè a bordo del satellite NUSES

        L'apparato Zirè è uno degli strumenti scientifici a bordo del satellite NUSES, attualmente in costruzione, il cui lancio è previsto nel 2026. Gli obiettivi di Zirè sono la misura di elettroni, protoni e nuclei leggeri in un intervallo di energia cinetica da pochi MeV ad alcune centinaia di MeV, per effettuare studi sui raggi cosmici di bassa energia e di “space weather”. Lo strumento è stato progettato anche per rivelare fotoni nell'intervallo di energia da 0,1 MeV a 10 MeV, per lo studio di eventi transienti come lampi di raggi gamma (GRB) e brillamenti solari. Tutti i rivelatori di Zirè saranno dotati di un sistema di lettura interamente basato sulla tecnologia dei fotomoltiplicatori al silicio (SiPM). In questa presentazione verrà fornito un quadro generale delle attività di progettazione, degli obiettivi scientifici e dell'attuale stato di sviluppo dello strumento.

        Relatore: Giuliana Panzarini (Istituto Nazionale di Fisica Nucleare)
      • 67
        L’anomalia del Gallio: un enigma senza soluzione?

        Lo studio delle interazioni dei neutrini con la materia ha fornito approfondimenti significativi sulle proprietà dei neutrini e sulla dinamica delle interazioni deboli. Un enigma particolarmente affascinante è la cosiddetta “anomalia del gallio”, osservata negli esperimenti GALLEX, SAGE e recentemente BEST, che misurano il processo di cattura del neutrino su gallio, $ν_e +^{71}\text{Ga}→e^- +^{71}\text{Ge}$, usato storicamente per rilevare neutrini solari.
        Sorprendentemente, il tasso di eventi indotti dai neutrini sul $^{71}\text{Ga}$ risulta sistematicamente inferiore alle predizioni teoriche, raggiungendo una discrepanza con una significatività di 5σ a seguito dell'esperimento BEST. Questa anomalia ha suscitato interrogativi sulla validità dei calcoli teorici delle sezioni d'urto e sulle implicazioni per la fisica oltre il Modello Standard. Una delle sfide principali nel calcolo della sezione d’urto è relativa alla stima dell’elemento di matrice nucleare che descrive la transizione tra il gallio nello stato iniziale e il germanio nello stato finale. Per calcolarlo si sfrutta l’elemento di matrice del processo inverso, ovvero di cattura elettronica nel germanio, il cui rate è misurato sperimentalmente.
        Nel mio lavoro, ho utilizzato un codice numerico per risolvere l’equazione di Dirac in un potenziale centrale al fine di ottenere le funzioni d’onda dell’elettrone nello stato legato del germanio. Lo stesso codice permette di calcolare in modo consistente la funzione di Fermi, che tiene conto della distorsione della funzione d’onda dell’elettrone uscente in presenza del campo coulombiano.
        Questo approccio permette di testare le assunzioni alla base del calcolo della sezione d'urto, come ad esempio la forma della distribuzione nucleare, permettendone una determinazione più solida e dunque contribuendo alla descrizione teorica del processo alla base dell'anomalia del gallio.

        Relatore: Luca Ferro (Istituto Nazionale di Fisica Nucleare)
      • 68
        Scattering inelastico a corrente neutra e carica di neutrini su argon

        I processi di neutrino a bassa energia che coinvolgono i nuclei rappresentano uno strumento fondamentale per lo studio delle interazioni deboli e della struttura nucleare. Il processo dominante a queste energie è quello di diffusione coerente ed elastica di neutrini sui nuclei (CE$\nu$NS), misurato per la prima volta sull’argon soltanto nel 2020. Parallelamente a questo canale elastico, possono avvenire anche interazioni inelastiche di neutrini sui nuclei, che causano l’eccitazione degli stati nucleari a bassa energia e che possono essere mediate da correnti cariche o neutre. Lo studio di questi processi sui nuclei di argon è particolarmente rilevante, data la grande diffusione di esperimenti di neutrini e di materia oscura che utilizzano argon come materiale bersaglio. Nonostante ciò, non sono disponibili misure sperimentali per i processi inelastici di neutrini su argon, che risultano essere difficili da descrivere anche da un punto di vista teorico, data la necessità di avere una comprensione approfondita della struttura nucleare.

        Ho dunque rivisitato il calcolo delle sezioni d’urto inelastiche, sia per le interazioni a corrente debole neutra che carica, concentrandomi sulla stima degli elementi di matrice nucleari, necessari a descrivere le transizioni che avvengono all’interno del nucleo a seguito dell’interazione col neutrino. Per affinare tali stime, ho considerato le misure disponibili su nuclei specchio dell’argon, che ci si attende presentino caratteristiche analoghe, e le misure di scattering di fotoni su argon.

        I miglioramenti nel calcolo delle sezioni d’urto per i processi inelastici di neutrino su argon sono rilevanti al fine di stimare il numero di eventi inelastici attesi in esperimenti come il futuro rivelatore da 750 kg di argon della collaborazione COHERENT e l’esperimento di materia oscura DarkSide-20k.

        Relatore: Michela Sestu (Istituto Nazionale di Fisica Nucleare)
      • 69
        EPSI R&D: Sviluppo di un rivelatore spaziale a raggi X per la rivelazione della radiazione di sincrotrone da elettroni e positroni nel campo geomagnetico

        Le misure dirette della componente di antimateria nei raggi cosmici forniscono un’informazione cruciale sui meccanismi responsabili della loro accelerazione e propagazione e rappresentano uno strumento importante per la ricerca indiretta di materia oscura. Al momento, la discriminazione del segno della carica è effettuata tramite l’utilizzo di spettrometri magnetici, che non saranno in grado di estendere queste misure di discriminazione ad alte energie in tempi scala relativamente brevi. Dato che la maggior parte degli esperimenti spaziali presenti e futuri dedicati alle alte energie sono basati su calorimetri di grandi dimensioni, sarebbe importante sviluppare altre tecniche di discriminazione del segno della carica che possano essere integrate con essi.

        Investigare queste tecniche è lo scopo principale del progetto Electron Positron Space Instrument (EPSI), un R&D che è stato approvato e finanziato in Italia come PRIN (Progetti di ricerca di rilevante interesse nazionale), le cui attività sono iniziate a Settembre 2023. A questo scopo pianifichiamo di utilizzare un principio che è stato suggerito molto tempo fa, basato sulla radiazione di sincrotrone emessa dalle particelle cariche che viaggiano nel campo geomagnetico. Rivelare simultaneamente un elettrone o un positrone con un calorimetro e i fotoni di sincrotrone con un rivelatore a raggi X può essere sufficiente a permettere la discriminazione tra i due leptoni per ciascun evento, se la localizzazione delle rivelazioni è garantita con sufficiente granularità. La sfida principale è sviluppare un array di rivelatori a raggi X con una grande area attiva, elevata efficienza di rivelazione, bassa soglia in energia e conforme alle applicazioni spaziali.

        Per raggiungere le specifiche richieste e allo stesso tempo mantenere i costi sufficientemente bassi da poter attrezzare un’ampia area, stiamo studiando la performance di un’unità minima di rivelazione basata su un SiPM a grande area, un piccolo scintillatore e una finestra per raggi X. Abbiamo sperimentato diverse combinazioni per la singola cella con misure di laboratorio e simulazioni dettagliate, selezionando due possibili soluzioni per il cristallo scintillatore: uno Ioduro di Cesio con drogaggio al Tallio (CsI:Tl) e un GAGG con drogaggio al Cerio (GAGG:Ce). Stiamo conducendo i test su SiPM con celle di diverse dimensioni ma con elevata efficienza di rivelazione di fotoni (fino al 50 percento in condizioni nominali). La risposta temporale, il rumore e la risoluzione in energia sono in fase di caratterizzazione per ciascuna configurazione. Ulteriori test sono in programma per studiare l’effetto di diverse finestre per raggi X e per estendere queste misure oltre la singola unità. In questo contributo discuteremo i risultati attuali, lo status dell’R&D e i prossimi passi previsti per il raggiungimento degli obiettivi del progetto.

        Relatore: Giacomo De Giorgi (Istituto Nazionale di Fisica Nucleare)
      • 70
        Fisica di precisione con il rivelatore criogenico COHERENT CsI: verso nuove frontiere nella diffusione coerente dei neutrini su nucleo

        Il processo di scattering coerente ed elastico del neutrino sul nucleo (CEνNS) è un'interazione debole a corrente neutra che consiste nella diffusione di un neutrino di bassa energia (decine di MeV) su un nucleo, la quale genera un piccolo rinculo nucleare molto difficile da rivelare. A causa delle ridotte energie in gioco il processo è stato rivelato sperimentalmente solo nel 2017 dall'esperimento COHERENT. L'importanza di questo processo risiede nel fatto che la sua sezione d'urto è sensibilmente maggiore rispetto a quella di altri processi di neutrini alle stesse energie e ciò permette di effettuare misure utili a verificare alcuni parametri del modello standard o alla ricerca di nuova fisica. Inoltre il CEνNS risulta essere una componente importante negli esperimenti che hanno l'obiettivo di rivelare la materia oscura.
        Questo poster presenterà le potenzialità dei futuri rivelatori della collaborazione COHERENT che utilizzano lo ioduro di cesio a temperature criogeniche nel vincolare parametri fondamentali nella fisica elettrodebole. Si discuterà la precisione che potrà essere raggiunta nella misura di alcuni parametri del modello standard come l'angolo di Weinberg, il raggio della distribuzione di neutroni dello iodio e del cesio e il raggio carico dei neutrini. Verranno discusse inoltre le potenzialità di studiare modelli di nuova fisica che coinvolgono proprietà esotiche dei neutrini nonchè la presenza di nuovi mediatori dell'interazione previsti da estensioni del modello standard.

        Relatore: Riccardo Pavarani (Istituto Nazionale di Fisica Nucleare)
      • 71
        Analisi sistematica temporalmente risolta di lampi di raggi gamma rivelati da Fermi-GBM

        Il telescopio per raggi gamma Fermi, operativo dal 2008, è stato concepito per lo studio della radiazione elettromagnetica nell'intervallo di energie tra 8 keV e 300 GeV, permettendo lo studio di numerosi tipi di sorgenti galattiche ed extragalattiche. In particolare, il suo Gamma-Ray Burst Monitor (GBM) è il rivelatore di lampi di raggi gamma (Gamma-Ray Burst o GRB) più prolifico di sempre, con circa 4000 eventi osservati finora. Decine di pubblicazioni dedicate a singoli GRB e numerosi cataloghi generali hanno aiutato a far luce sulle proprietà temporali e spettrali di questi eventi affascinanti.
        Il lavoro che presentiamo è un’analisi sistematica di un sottogruppo di GRB brillanti rivelati dal GBM nei primi anni della missione, con particolare attenzione all’evoluzione temporale dei parametri dei modelli spettrali fittati. Le curve di luce sono suddivise in intervalli temporali usando il metodo dei Blocchi Bayesiani, mentre l’analisi temporalmente risolta viene effettuata utilizzando i nuovi “Gamma-Ray Data Tools” (GDT), un toolkit apposito scritto in Python. A ogni intervallo sono applicati diversi modelli spettrali, e attraverso degli opportuni criteri statistici viene selezionato il migliore tra essi. In questo contributo illustreremo le varie fasi di analisi e alcuni risultati preliminari, che includono le distribuzioni dei parametri dei migliori modelli . L’obiettivo finale del nostro lavoro è quello di implementare una pipeline automatizzata per una futura analisi sistematica di tutti i di GRB rivelati da GBM nel corso della missione.

        Relatore: Davide Depalo (Istituto Nazionale di Fisica Nucleare - Sezione di Bari)
      • 72
        Rivelatore ad Induttanza Cinetica mediato da fononi con volume ad effetto phonon-funnel

        I rivelatori criogenici a fononi vengono adottati nell’ambito della ricerca diretta di materia oscura leggera o scattering elastico e coerente neutrino-nucleo grazie alla bassa soglia in energia che possono raggiungere. La rivelazione di particelle mediata da fononi su assorbitori di Silicio è stata confermata per i Rivelatori ad Induttanza Cinetica (Kinetic Inductance Detectors, KID), i quali agiscono simultaneamente sia come assorbitori di fononi che come sensori. Con questo contributo, presenterò un primo prototipo di un KID accoppiato ad una struttura separata di assorbitore di fononi, al fine di aumentare la sensibilità. Esso consiste in un sottile KID, composto da un triplo strato di Alluminio/Titanio/Alluminio, accoppiato ad un grande volume di Alluminio che raccoglie fononi. I fononi che vengono assorbiti da tale volume creano quasi-particelle, le quali dopo la diffusione vengono intrappolate nel triplo strato caratterizzato da una gap più bassa. Le performance di questo dispositivo sono comparate a quelle di un KID mediato da fononi standard.

        Relatore: Leonardo Pesce (INFN Roma1/Sapienza)
      • 73
        Properties of Cosmic Phosphorus: Preliminary Results from the Alpha Magnetic Spectrometer

        The Alpha Magnetic Spectrometer (AMS-02) has been operating as a particle physics detector aboard the International Space Station (ISS) since May 19, 2011. Over the first 11 years of data collection, AMS-02 has recorded more than 200 billion cosmic ray events, providing unprecedented insights into the composition and energy spectra of cosmic rays up to TeV energies.

        We present preliminary results on Phosphorus (P) cosmic rays in the rigidity range 2.15 GV to 1.2 TV, based on 11 years of AMS-02 data.

        Relatore: Alessio Ubaldi (Istituto Nazionale di Fisica Nucleare)
    • Frontiera dell'Energia: Poster
      • 74
        Ricerca di coppie di bosoni di Higgs nello stato finale $b\bar{b}\gamma\gamma$ prodotte a LHC e rivelate con il detector ATLAS

        L’osservazione di coppie di bosoni di Higgs è un passo fondamentale per la comprensione del modello di rottura spontanea di simmetria elettro-debole in quanto rappresenta il metodo più diretto per stimare il termine cubico del potenziale di Higgs, responsabile dell’auto-accoppiamento tri-lineare del bosone ($\lambda_{HHH}$).
        Questa presentazione discuterà l’attuale stato e le prospettive future della ricerca di tali eventi prodotti a LHC e rivelati con il detector ATLAS nello stato finale $b\bar{b}\gamma\gamma$, uno dei canali di decadimento più sensibili all’accoppiamento tri-lineare dell’Higgs.
        Nonostante le misure di questi accoppiamenti siano ancora soggette a significative incertezze di natura statistica, che verranno ridotte con l’integrazione dei dati del Run 3 di LHC nel prossimo futuro, avanzamenti considerevoli sono stati compiuti anche nello sviluppo e ottimizzazione di metodi volti all’aumento della sensibilità dell’analisi.

        Relatore: Romano Orlandini (Istituto Nazionale di Fisica Nucleare)
      • 75
        Improving ICARUS track reconstruction algorithms

        The ICARUS experiment is part of the Short-Baseline Neutrino (SBN) program at Fermilab. The main goal of the experiment is to investigate the possibility of sterile neutrinos in the O(1 eV) mass region and provide clarification of the anomaly detected from the Liquid Scintillator Neutrino Detector (LSND) and MiniBooNE experiments.
        The ICARUS-T600 detector is a Liquid Argon Time Projection Chamber (LAr-TPC), that can provide excellent 3D imaging and calorimetric reconstruction of any ionizing particles. This detection technique allows a detailed study of neutrino interactions, spanning a wide energy spectrum (from a few keV to several hundreds of GeV). The detector consists of two identical adjacent modules, filled with a total of 760 tons of ultra-pure liquid argon. Each module houses two LAr-TPCs separated by a common cathode with a maximum drift distance of 1.5 m, equivalent to about 1 ms drift time for the nominal 500 V/m electric drift field. The anode is made of three parallel wire planes positioned 3 mm apart, where the stainless-steel wires are oriented on each plane at a different angle with respect to the horizontal direction ($+60^\circ$,$-60^\circ$,$0^\circ$). In total, 53248 wires with a 3 mm pitch and length up to 9 m are installed in the detector.
        In the first stage of the reconstruction, segments of waveforms corresponding to physical signals (hits) are searched for in the deconvolved wire waveform with a threshold-based hit-finding algorithm. Each hit is then fitted with a Gaussian, whose area is proportional to the number of drift electrons generating the signal. In the second stage of the reconstruction, hits are passed as input to Pandora, a framework software composed of different pattern recognition algorithms, that performs a 3D reconstruction of the full image recorded in the collected event, including the identification of interaction vertices and tracks and showers inside the TPC. These are organized into a hierarchical structure (called slice) of particles generated starting from a primary interaction vertex.
        In some cases, related to the inefficiencies in the hit detection or excessive deflection of the particle trajectory, Pandora breaks the particle's track into two or more smaller pieces and considers each piece as an independent track. We studied this phenomenon focusing on muons primary daughters of $\nu_\mu CC$ interactions contained in a single module with a track at least 20 cm long, to exclude delta rays. The study highlighted that about 7-8% of the muon tracks are broken. Approximately 80% of the times, Pandora assigns all segments of the track to the same slice (intra-slice track split), while in the remaining 20% of the cases, one of the segments is associated with another slice (extra-slice track split).
        To mitigate this phenomenon, we designed an algorithm that detects and stitches the tracks broken by Pandora for the intra-slice split. In Monte Carlo simulations, the algorithm showed an efficiency exceeding 87% and a purity exceeding 90%.

        Relatore: Alessandro Maria Ricci (Istituto Nazionale di Fisica Nucleare)
      • 76
        Improving the sensitivity on Higgs coupling measurements for hadronic final states with the ATLAS experiment

        Uno dei temi di ricerca più complessi su cui l'esperimento ATLAS sta attualmente lavorando, e che continuerà a esplorare nella prossima era dell'LHC, è la misura dei couplings di Yukawa H → bb e H → cc. Il canale più sensibile per queste misure è quello in cui il bosone di Higgs viene prodotto in associazione con un bosone W/Z. L'identificazione dei jet originati da quark b e c è di fondamentale importanza per questa analisi e ha subito un notevole miglioramento in ATLAS grazie all'uso di algoritmi di machine learning all'avanguardia basati su reti neurali a grafo (Graph Neural Networks). Questo contributo presenterà studi sull'impatto di queste nuove tecniche nella misura sopra citata. L'implementazione dell'algoritmo GN2 ha dimostrato miglioramenti eccezionali nella significatività del segnale rispetto a DL1r, e l'ottimizzazione di questo approccio di apprendimento automatico per ottenere i migliori risultati possibili è di cruciale importanza. Studi iniziali indicano miglioramenti significativi nei livelli di significatività quando si utilizzano diverse efficienze di tagging dei b- e c- jet. Questi studi saranno preziosi per misure mai effettuate prima, come l'accoppiamento dell'Higgs con il quark c.

        Relatore: Giovanni Maria Filippo Besio (Istituto Nazionale di Fisica Nucleare)
      • 77
        Stima del fondo da jet mis-identificati come leptoni tau con il metodo Universal Fake Factor nell’esperimento ATLAS

        I processi fisici con stati finali con uno o più leptoni tau rivestono un ruolo rilevante in molte analisi del programma di fisica dell’esperimento ATLAS al Large Hadron Collider. L’utilizzo dei canali adronici, in cui leptoni tau decadono in pioni carichi e/o neutri, consente di sfruttare l’elevata statistica associata a questo tipo di decadimenti, ma allo stesso tempo richiede di stimare con precisione l’elevato fondo di getti adronici ricostruiti come falsi tau adronici. La presentazione tratterà di una nuova tecnica recentemente pubblicata dalla Collaborazione ATLAS per la stima di questo tipo di fondo, denominata “Universal Fake Factor Method”. Verranno illustrati i dettagli di questa metodologia e della sua validazione in analisi con stato finale in singolo tau e doppio tau. Verrà fatto particolare riferimento alla misura di sezione d’urto della produzione di coppie di leptoni tau ad alta massa invariante (pp → 𝜏𝜏) recentemente resa pubblica da ATLAS.

        [Presentazione basata sul paper arXiv:2502.04156 e sulla conf-note ATLAS-EXOT-2022-42-001 in ATLAS circulation per Moriond 2025 (sarà pubblica al momento di IFAE).]

        Relatore: Giovanni Padovano (Sapienza università di Roma e INFN Roma)
      • 78
        Misure della produzione di un bosone Z in associazione a 2 b-jets con l'esperimento ATLAS ad LHC

        Le misure della produzione di un bosone W o Z in associazione con b-jets (W/Z+b-jets) in collisioni protone-protone ad LHC contribuiscono a migliorare la comprensione della QCD perturbativa e della struttura del protone. Inoltre, tali misure costituiscono un input prezioso per il miglioramento delle simulazioni Monte Carlo usate per stimare il fondo W/Z+b-jets in misure del bosone di Higgs ed in ricerche di Nuova Fisica. Nel 2024 la collaborazione ATLAS ha pubblicato una misura delle sezioni d'urto inclusive e differenziali di produzione di un bosone Z in associazione con 2 b-jets utilizzando l'intero dataset di collisioni di protoni con energia del centro di massa di 13 TeV. In questo contributo saranno presentate nuove misure di sezioni d'urto differenziali per questo processo, in funzione di variabili non presenti nella precedente pubblicazione ATLAS e di grande importanza per la QCD perturbativa e per la fisica del bosone di Higgs. Saranno anche presentate sezioni d'urto differenziali nella regione boostata ad alto impulso trasverso in cui i 2 b-jets sono ricostruiti come un unico jet a grande raggio. Le misure sono effettuate con lo stesso dataset della pubblicazione summenzionata e confrontate con le previsioni delle più avanzate simulazioni Monte Carlo ad oggi disponibili.

        Relatore: Giuseppina Santoro (Istituto Nazionale di Fisica Nucleare)
      • 79
        Unsupervised machine learning for data quality monitoring of hadronic jets in the CMS experiment

        In high-energy physics experiments like the Compact Muon Solenoid (CMS) at the Large Hadron Collider (LHC), ensuring data quality is crucial for accurate physics analyses. Traditional methods for data quality monitoring (DQM) rely heavily on manual inspections, which can be time-consuming and prone to human bias. To address these challenges, we explore the application of unsupervised machine learning for automating the DQM process. Specifically, we leverage anomaly detection techniques to identify patterns in data and detect deviations that may indicate data quality issues. Using methods such as autoencoders, our approach is designed to work with the high-dimensional data produced by CMS, allowing us to identify anomalies without the need for labeled datasets. Preliminary results on observables pertaining to hadronic jets show that our models can identify problematic data runs and flag potential anomalies with high accuracy, complementing existing DQM procedures. This approach provides a scalable solution that enhances the speed and reliability of DQM in the CMS experiment, ultimately contributing to more efficient data analysis workflows and improved physics results.

        Relatore: Jawaher Altork (Istituto Nazionale di Fisica Nucleare)
      • 80
        Sviluppo di un algoritmo basato su Reti Neurali Ricorrenti (modello VBF-RNN) per esplorare la topologia VBF(/VBS) nell’esperimento ATLAS

        Il lavoro descrive un algoritmo basato su Reti Neurali Ricorrenti (modello VBF-RNN) sviluppato per esplorare la topologia VBF(/VBS). Partendo dal lavoro pionieristico realizzato per la ricerca di risonanze semi-leptoniche VV nell’intero Run-2 (Eur. Phys. J. C 80 (2020) 1165), questo strumento ha dimostrato di migliorare significativamente la procedura precedentemente utilizzata per identificare la segnatura sperimentale di eventi VBF(/VBS). Un gran numero di eventi è prodotto con la topologia VBF/VBS e può beneficiare di questo algoritmo, utilizzando un modello pre-addestrato in grado di adattarsi in modo ottimale a diversi casi d'uso. Saranno presentati esempi di analisi, come la ricerca di nuove risonanze e lo scattering dei bosoni vettori del Modello Standard, evidenziando il miglioramento della sensibilità ottenuto grazie all’uso dello strumento di classificazione VBF-RNN.

        Relatore: Vincenzo Del Piano (Istituto Nazionale di Fisica Nucleare)
      • 81
        Identificazione della carica dei b-jets con reti neurali a grafi per studi sull’asimmetria forward backward in ATLAS

        L'identificazione di quark di sapore b che adronizzano in jet, ovvero il b-jet tagging, è fondamentale per gli esperimenti al LHC. La collaborazione ATLAS utilizza complessi algoritmi di apprendimento automatico basati su graph neural-networks. Gli studi presentati in questo lavoro mirano a integrare gli algoritmi attuali, caratterizzati da ottime prestazioni in termini di efficienza sul segnale e reiezione del fondo, con la capacità di distinguere tra stati b o anti-b, ovvero la discriminazione della carica dei b-jet. I risultati preliminari, ottenuti con una estensione degli attuali tagger basati su GNNs, mostrano una purezza nella discriminazione b/anti-b superiore al 70%, un miglioramento rilevante rispetto a quanto ottenuto in studi precedenti. L’uso di un algoritmo di identificazione della carica dei b-jet così efficace consente misure innovative di processi del Modello Standard. In particolare verrà discussa la possibile misura dell'asimmetria forward-backward dello stato finale con un bosone Z prodotto in associazione con un quark b o un anti-b, un processo sensibile all'angolo di mixing elettrodebole dei quark b.

        Relatore: Andrea Milici (Istituto Nazionale di Fisica Nucleare)
      • 82
        A caccia di particelle a vita media lunga

        Molti modelli che cercano di estendere il Modello Standard (MS) predicono l'esistenza di particelle pesanti a lunga vita media. Particelle cariche di massa superiore a 200 GeV e con  vita media di 10 ns o più possono essere rilevate da ATLAS sfruttando il segnale di ionizzazione anomalo nei vari rivelatori, o misurando il loro tempo di volo verso il calorimetro o lo spettrometro per muoni. Una ricerca che utilizzi sia le informazioni sul tempo di volo, per determinare la velocità $\beta$ delle particelle, che la ionizzazione specifica nel rivelatore a pixel, può aumentare in modo significativo la sensibilità di ATLAS alle particelle a vita media superiore a 10 ns. In questo modo è possibile esplorare una vasta regione dello spazio dei parametri per molti modelli che prevedono il superamento del MS. In questa presentazione i risultati di ATLAS ottenuti in passato utilizzando metodi basati su questi principi saranno ridiscussi per introdurre le innovazioni introdotte nella nuova analisi che utilizza tutte le collisioni registrate finora. Un'enfasi particolare sarà data alle attività legate alla calibrazione del segnale temporale dello spettrometro per muoni.

        Relatore: Serafima Nechaeva (Istituto Nazionale di Fisica Nucleare)
      • 83
        Stima dei processi di fondo nella ricerca del fotone oscuro da decadimento del bosone di Higgs con i dati raccolti da ATLAS nel Run3

        Il talk verterà sulla ricerca del fotone oscuro (yD) prodotto dal decadimento del bosone di Higgs in alcuni modelli di fisica oltre il Modello Standard, usando i dati raccolti dall'esperimento ATLAS durante il Run 3 di LHC. Il canale di ricerca è il decadimento dell'Higgs in un fotone e un fotone oscuro, la cui segnatura è il momento trasverso mancante. L'analisi si propone di indagare il canale di produzione della fusione di gluoni, finora inesplorato; a questo proposito, è stato sviluppato un algoritmo di trigger composito, basato sulle variabili del momento trasverso mancante, della massa trasversa e del momento trasverso del fotone.
        La Regione di Segnale (SR) è ottimizzata per aumentare la sensitività dell'analisi e ridurre il fondo sperimentale, a cui contribuiscono diversi processi previsti dal Modello Standard, come Wy e Zy, e processi in cui un elettrone o un jet è ricostruito erroneamente come un fotone. Vengono descritte le diverse tecniche "data-driven" utilizzate per la stima dei processi di fondo, sviluppate specificatamente per questa analisi, e le relative Regioni di Controllo (CRs). Un fit simultaneo nella SR e nelle CRs permette di estrarre il limite superiore atteso sulla Branching Ratio del decadimento H->yyD.

        Relatore: Giulia Maineri
    • Frontiera dell'Intensità: Poster
      • 84
        Fisica del leptone tau a Belle II.

        L'esperimento Belle II ha raccolto un campione di dati di collisioni e-e+ pari a 575fb$^{-1}$ a energie del centro di massa vicine alla risonanza Υ(4S). Utilizziamo 428$^{-1}$ di questo campione per diversi studi nel settore della fisica del tau, riguardanti violazione di sapore leptonico (LFV) e test di precisione del Modello Standard. In particolare, per lo studio di LFV presentiamo ricerche del decadimento del tau in tre leptoni carichi; in un leptone carico e mesone; ed un decadimento senza leptoni.

        Relatore: Laura Salutari (Istituto Nazionale di Fisica Nucleare)
      • 85
        Risultati recenti nella ricerca di particelle del "settore oscuro" a Belle e Belle II

        Gli esperimenti Belle e Belle II hanno una sensibilità unica per un'ampia classe di modelli che postulano l'esistenza di nuove particelle con masse nell’intervallo tra pochi MeV/c2 al GeV/c2, in grado di mediare interazioni tra materia oscura e materia visibile. I due esperimenti hanno raccolto un campione di collisioni e+e- corrispondente a una luminosità integrata di 1.5 ab-1 a energie nel centro di massa vicine alle risonanze Υ(nS), di cui 575 fb-1 raccolti da Belle II. In questo intervento presentiamo risultati recenti di fisica ottenuti a Belle e Belle II sulla ricerca di risonanze non appartenenti al Modello Standard prodotte nei decadimenti dei mesoni B; di materia oscura inelastica prodotta in associazione con un bosone oscuro; così come le prospettive a breve termine per altre ricerche nel settore oscuro.

        Relatore: Foteini Faidra Trantou (Univ. and INFN Pisa)
      • 86
        Decadimenti adronici dei mesoni B e misure di violazione di CP a Belle e Belle II

        L'esperimento Belle II è in grado di misurare con notevole precisione i processi fisici dovuti alla violazione della simmetria CP nei decadimenti dei mesoni $B$. Tali misure permettono di porre limiti stringenti sugli elementi della matrice di Cabibbo Kobayashi Maskawa, tramite il cosiddetto ''Triangolo di Unitarietà''.
        Utilizzando un campione di 428 fb$^{-1}$, presenteremo risultati nelle misure di rapporto di decadimento e asimmetrie CP sugli stati finali $B^0 \to \pi^0\pi^0$ e $B^0 \to \rho^+\rho^-$, sensibili all'angolo $\alpha/\phi_2$ del Triangolo dell'Unitarietà. Mostreremo inoltre una misura di rapporto di decadimento e violazione di CP dipendente dal tempo sul canale $B^0 \to J/\psi \, \pi^0$, utile per porre limiti su contaminazioni provenienti da diagrammi a pinguino nella misura dell'angolo $\beta/\phi_1$.

        Relatore: Cecilia Antonioli (Istituto Nazionale di Fisica Nucleare)
      • 87
        Produzione di coppie di pioni in annichilazioni $e^+ e^-$ all'ordine next-to-leading combinato con Parton Shower

        La produzione di coppie di pioni in annichilazioni $e^+ e^-$ alle flavour factory gioca un ruolo cruciale nella determinazione del contributo adronico al momento magnetico anomalo del muone. La recente misura di CMD-3 del fattore di forma di pioni attraverso uno scan in energia mostra una differenza significativa con le precedenti determinazioni sperimentali. Al fine di contribuire a una migliore descrizione teorica e simulazione degli esperimenti in scan di energia, presentiamo un calcolo del canale adronico $e^+ e^- \to \pi^+ \pi^- (\gamma)$ all'ordine next-to-leading combinato con un algoritmo di Parton Shower in QED e sQED. Seguendo i recenti progressi in letteratura, particolare attenzione viene data alla trattazione della struttura composita del pione nei digrammi di loop al di là del comune approccio fattorizzato in sQED, insieme con una modello dell'emissione multipla di fotoni attraverso un algoritmo di Parton Shower. In particolare, discutiamo in dettaglio l'inclusione del fattore di forma del pione nelle correzioni virtuali di sQED secondo due metodi indipendenti, ispirati dalla dominanza di mesoni vettori generalizzata e l'approccio dispersivo. Mostriamo i risultati fenomenologici per osservabili inclusive e differenziali rilevanti per misure precise in scan di energia, focalizzandoci sull'impatto delle correzioni radiative e l'effetto dei vari approcci nella trattazione del fattore di forma dei pioni. Il nostro conto è implementato in una versione aggiornata del generatore Monte Carlo BabaYaga@NLO, che può essere utilizzato per simulazioni completamente esclusive nell'analisi dei dati.

        Relatore: Francesco Pio Ucci (Istituto Nazionale di Fisica Nucleare)
      • 88
        Caratterizzazione della miscela di gas della camera a deriva nell’esperimento MEGII

        L'esperimento MEG II si trova al Paul Scherrer Institute, in Svizzera, e sta cercando il decadimento $\mu^+\rightarrow e^++\gamma$, fortemente soppresso nel Modello Standard, con una branching ratio $BR_{SM}(\mu^+\rightarrow e^++\gamma) \sim 10^{-54}$. Questo valore è molti ordini di grandezza al di sotto rispetto alla sensibilità sperimentale attualmente raggiungibile, per cui l'osservazione di un segnale sarebbe una prova inequivocabile di Nuova Fisica. MEG II raccoglierà dati fino al 2026, con l’obiettivo di raggiungere una sensibilità sulla branching ratio di $6\times 10^{-14}$. Combinando i primi dati raccolti nel 2021 con il risultato finale di MEG, è stato possibile ottenere il limite superiore più stringente mai ottenuto fino ad oggi sulla branching ratio: $BR(\mu^+\rightarrow e^++\gamma)<3.1\times 10^{-13}$ @ 90$%$ C.L..
        L’apparato sperimentale di MEG II è costituito da un rivelatore di fotoni, in particolare un calorimetro a LXe, e uno spettrometro per la ricostruzione del positrone, costituito da un magnete superconduttore e una camera a deriva cilindrica riempita con una miscela a base di elio e isobutano, con l'aggiunta di una piccola percentuale di O$_2$ e alcol isopropilico.
        Operando con un fascio di muoni con rate nel range di $(3\div5)\cdot10^7 \mu$/s, questa miscela ha dimostrato condizioni operative molto stabili con una rate di invecchiamento inferiore rispetto alle aspettative. Queste caratteristiche rendono la miscela interessante non solo per la collaborazione MEG II, ma anche per futuri esperimenti che operano ad alte rate.
        L'obiettivo del nostro studio è quello di caratterizzare miscele di gas con composizioni basate sulla miscela di MEG II, focalizzandoci sulla velocità di deriva e sull’attachment degli elettroni di ionizzazione. Per ottenere queste misure, abbiamo sviluppato un setup ottimale che utilizza una Time Projection Chamber illuminata da un laser UV. I risultati di questo studio si vanno ad inserire in un contesto più ampio legato allo studio di nuove miscele di gas per futuri esperimenti che operano ad alte rate.

        Relatore: Elisa Gabbrielli (Istituto Nazionale di Fisica Nucleare)
      • 89
        Status of the MUonE experiment

        The MUonE experiment at CERN aims to determine the leading-order hadronic contribution to the muon $g-2$ by an innovative approach, using elastic scattering of 160 GeV muons on atomic electrons in a low-Z target. The M2 beam line at CERN provides the necessary intensity needed to reach the statistical goal in few years of data taking. The experimental challenge relies in the precise control of the systematic effects. A first run with a minimal prototype setup was carried out in 2023. A pilot run has been approved to be held in 2025 with a reduced setup of the full detector components. We will present the status of the experiment, first preliminary results and the future plans.

        Relatori: Emma Hess (Universita' di Pisa e INFN), Emma Hess (Istituto Nazionale di Fisica Nucleare)
      • 90
        Modello confinante per la costante di accoppiamento analitica inversa della QCD

        L'andamento in funzione dell'energia della costante di accoppiamento $\alpha_s(q^2)$ della Cromodinamica quantistica (QCD) è caratterizzato dalla divergenza per piccoli valori di $q^2$, che descrive il fenomeno del confinamento tipico dell'interazione forte. A livello teorico è possibile riprodurre l'andamento della costante di accoppiamento, utilizzando lo sviluppo in serie della teoria perturbativa per $\alpha_s\to0$.
        Quando la costante di accoppiamento forte assume valori troppo grandi la teoria perturbativa perde valore e i modelli sviluppano divergenze non fisiche che impediscono di riprodurre il corretto andamento al di sotto di specifici poli energetici non fisici, detti "ghosts". Nel caso dell'interazione forte, al primo ordine perturbativo, si ha un solo polo, detto Polo di Landau a $q^2=\Lambda^2\simeq (300\text{ MeV})^2$, il quale impedisce di riprodurre la divergenza di $\alpha_s(q^2)$ nella regione infrarossa (IR).

        In questo contesto, interviene la Teoria delle Perturbazioni Analitica (APT), che sfruttando il principio di causalità che impone l'analiticitá dei propagatori nel piano complesso $q^2$ tagliato lungo il semiasse reale negativo, consente di prolungare analiticamente la funzione $\alpha_s(q^2)$ tramite l'utilizzo della rappresentazione di K\"allén-Lehmann (K-L). Si ottiene una funzione analitica che descrive la soluzione perturbativa di $\alpha_s(q^2)$ nel piano complesso riproducendone anche il comportamento al di sotto di $\Lambda^2$. In particolare la APT prevede per $\alpha_s(q^2)$ un valore costante per $q^2=0$, che quindi non riproduce la divergenza di confinamento.

        Questo lavoro ha l'obiettivo di trovare un modello in grado di riprodurre il confinamento, sfruttando l'analiticità applicata dall'APT. In particolare, lavorando con la Costante di Accoppiamento Inversa $\varepsilon_s(q^2)=1/\alpha_s(q^2)$, il confinamento viene tradotto con il suo annullamento in $q^2=0$. Siccome nella K-L compare la parte immaginaria della funzione che si sta prolungando analiticamente, è possibile imporre il confinamento andando ad annullare la parte immaginaria della $\varepsilon_s(q^2)$ semplicemente inserendo una funziona regolarizzatrice $r(q^2)$ nulla in zero e tendente a uno nella regione ultravioletta.

        Si sono studiati diversi tipi di funzione regolarizzatrice aventi un andamento a legge di potenza nella regione IR e per ognuno sono stati ottenuti i valori della costante di accoppiamento a $q^2=M_Z^2$, ovvero alla massa del bosone \emph{Z}. Questo approccio consente di ottenere delle previsioni teoriche per quelle osservabili fisiche che dipendono dall'andamento della costante di accoppiamento forte nella regione infrarossa. Tra queste, hanno particolare importanza nell'ambito della fisica delle alte energie il momento magnetico anomalo del muone $a_{\mu}$ e il rapporto di decadimento del leptone tau in adroni rispetto ai leptoni, indicato con $R_{\tau}$.

        Relatori: Lorenzo Pierini (Istituto Nazionale di Fisica Nucleare), Lorenzo Pierini (Istituto Nazionale di Fisica Nucleare)
      • 91
        Misura di ΔACP nei decadimenti di mesoni $D^0 \rightarrow h^+h^-$ a LHCb

        L’esperimento LHCb è stato progettato per svolgere un ruolo determinante nella ricerca della fisica delle particelle e della fisica del sapore. Fin dall’inizio, LHCb ha effettuato misure sulla violazione di CP nei decadimenti degli adroni contenenti il quark charm con un'altissima precisione, osservando la violazione di CP diretta nei decadimenti in due corpi carichi del mesone $D^0$ per la prima volta nel 2019 utilizzando i dati raccolti da LHCb durante il Run2.
        Nel Long Shutdown 2 di LHC, l’esperimento LHCb ha completato un massiccio aggiornamento, modificando completamente diversi sotto-rilevatori e sviluppando un trigger completamente software. Grazie a queste modifiche durante il 2024 l’esperimento ha potuto collezionare una luminosità integrata comparabile a quanto raccolto durante il Run 1 e il Run 2, che permetterà di raggiungere nuove precisioni statistiche. Questo contributo presenta i recenti sviluppi della misura di violazione di CP diretta $\Delta A_{CP}$ del mesone $D^0$ con i decadimenti singoli Cabibbo-soppressi $D^0\rightarrow K^+K^-$ e $D^0\rightarrow \pi^+\pi^-$ con i dati raccolti durante il 2024 da LHCb. Questa analisi migliorerà la precisione statistica, fattore limitante nella precedente analisi, per investigare a fondo la violazione di CP nella fisica del charm.

        Relatore: Francesco Zenesini (Istituto Nazionale di Fisica Nucleare)
      • 92
        Sviluppo di un sistema di lettura compatto di una Time Projection Chamber per futuri esperimenti $\mu \rightarrow e \gamma$ ad alta intensità

        L'esperimento MEGII presso il Paul Scherrer Institute (PSI) ha stabilito il miglior limite superiore al mondo sulla "branching ratio" del decadimento $\mu^+ \rightarrow e^+ \gamma$, pari a $\mathcal{B}(\mu^{+} \rightarrow e^+ \gamma)<3.1\times 10^{-13}$ (al 90% di livello di confidenza). Questo processo viola il sapore leptonico (Charged Lepton Flavor Violation, CLFV); la sua osservazione sperimentale fornirebbe un'evidenza di Nuova Fisica (NP) oltre il Modello Standard (SM), mentre i limiti sul valore di $\mathcal{B}$ vincolano i parametri dei modelli di NP.

        Per migliorare ulteriormente i risultati di MEGII, che ha come obiettivo il raggiungimento di una sensibilità di $6 \times 10^{-14}$ acquisendo dati fino al 2026, sono in corso studi presso il PSI per aumentare l'intensità del fascio di muoni fino a $\mathcal{O}(10^{10})\mu$/s. In futuri esperimenti $\mu \rightarrow e \gamma$ ad alta intensità sarà necessario migliorare i componenti del rivelatore per sostenere l'alta frequenza di eventi. Un metodo alternativo per la ricostruzione del fotone potrebbe essere la sua conversione in una coppia $e^+e^-$, rivelando successivamente i leptoni emessi per misurarne l'energia e la direzione.

        Per poter tracciare le coppie $e^+e^-$ è necessario un rivelatore leggero e compatto. Attualmente è in fase di studio una Time Projection Chamber (TPC) radiale con una lunghezza di deriva di circa 10 cm, una regione di amplificazione a Resistive Micro-Wells ($\mu$RWells) e una lettura del segnale con strip ortogonali. I $\mu$RWells sono micro-rivelatori a gas, caratterizzati da uno strato resistivo tra la regione di amplificazione e quella di lettura, che consente un corretto funzionamento in ambienti ad alta rate evitando la formazione di scariche permanenti.

        Questo tipo di rivelatore è stato preso in considerazione anche da parte della collaborazione n_TOF, che sta lavorando a un esperimento volto a indagare l'esistenza di un nuovo bosone, chiamato X17, che potrebbe spiegare le anomalie osservate per la prima volta presso il laboratorio ATOMKI (Ungheria). Quattro TPC con lettura a strip saranno utilizzate per tracciare le coppie $e^+e^-$ generate dalle reazioni nucleari in esame.

        Un prototipo del rivelatore con una lunghezza di deriva di 3 cm è stato caratterizzato in un test beam presso ATOMKI nel maggio 2024, mostrando una risoluzione spaziale di circa 800$\mu$m e una risoluzione angolare di circa 2°. Alcune criticità costruttive del rivelatore caratterizzato sono state evidenziate e sono state proposte idee per migliorare il modello e l'analisi dati. Ulteriori studi sono in corso e sono previsti test su prototipi migliorati.

        Relatore: Susanna Scarpellini (Istituto Nazionale di Fisica Nucleare)
    • Nuove Tecnologie: Poster
      • 93
        Caratterizzazione di Silicon Photo-Multiplier per l’Upgrade II dei rivelatori RICH di LHCb

        L’Upgrade II dell’esperimento LHCb impone nuove sfide ai rivelatori Ring Imaging Cherenkov (RICH) in termini di radiazione elevata e aumento della densità di fotoni durante la fase di HighLumi-LHC. Sarà quindi essenziale ridisegnare il layout ottico del rivelatore migliorando la risoluzione dell’angolo Cherenkov ricostruito, con un aumento della granularità spaziale e introducendo l’informazione temporale del fotone.

        In questo contesto, il Silicon PhotoMultiplier (SiPM) è uno dei candidati fotosensori più promettenti: offre infatti un’elevata efficienza nella rilevazione di singoli fotoni, una notevole risoluzione temporale, una buona granularità e costi contenuti. Tuttavia esso soffre di un elevato tasso di rumore (dovuto a dark count e correlated noise), che peggiora con l’esposizione alle radiazioni. Ciò rende indispensabile lo sviluppo di SiPM resistenti alle radiazioni; a questo scopo è in corso una campagna di studi dei parametri critici, quali il dark count rate, l’efficienza di rilevazione dei fotoni e la risoluzione temporale, al variare della temperatura e test su sensori irraggiati e ricotti.

        Questo talk intende presentare una visione generale delle sfide tecniche e scientifiche legate all’upgrade dei RICH detector, evidenziando le prospettive future e i possibili sviluppi della tecnologia SiPM nell’era High-Luminosity LHC.

        Relatore: Simon Ghizzo (Istituto Nazionale di Fisica Nucleare)
      • 94
        Sviluppo preliminare del modello di spin tune sull'anello di accumulazione ibrido per l'indagine dell'EDM

        I momenti di dipolo elettrico sono sonde molto sensibili della violazione di CP e potrebbero rappresentare lo strumento per risolvere alcune questioni lasciate senza risposta dal Modello Standard, come ad esempio l'asimmetria barionica. I recenti sviluppi nella tecnologia degli anelli di accumulazione hanno permesso di proporre un nuovo metodo per l’indagine del momento di dipolo elettrico. Uno dei principali parametri coinvolti in questo studio è il tempo di coerenza di spin, ossia l'intervallo di tempo durante il quale gli spin di tutte le particelle del fascio immagazzinato nell’anello precedono coerentemente mantenendo una polarizzazione netta maggiore di 1/e. Il tempo di coerenza di spin rappresenta il tempo disponibile per l'esperimento e, quindi, deve essere il più lungo possibile. Per identificare le condizioni di lavoro che lo massimizzano, è necessario tracciare con estrema precisione lo spin tune della singola particella, definito come il numero di precessioni di spin attorno all'asse verticale per ogni giro della particella attorno all'anello. Un modello per tracciare con precisione lo spin tune delle particelle cariche è stato sviluppato e testato sull'anello di accumulazione ibrido, un dispositivo di nuova generazione che prevede l'uso di deflettori elettrostatici per il confinamento e di quadrupoli magnetici per la focalizzazione. Il modello permette di stimare lo spin tune quando non è possibile misurarlo e apre la strada alla sua diretta applicazione all'ottimizzazione del tempo di coerenza di spin e, grazie alla sua flessibilità, alla sua estensione a una varietà di reticoli che rappresentano sia anelli di accumulazione esistenti sia una futura classe di anelli di accumulazione dedicati all’indagine del momento di dipolo elettrico.

        Relatore: Anna Piccoli (Istituto Nazionale di Fisica Nucleare)
      • 95
        Tracce di Nuova Fisica: Calibrazione della dE/dx nel Rivelatore ATLAS come strumento per la ricerca di particelle pesanti

        Oltre alle misure sul bosone di Higgs e sulle altre particelle del Modello Standard, il rilevatore dell'esperimento ATLAS viene utilizzato per ricercare nuova fisica oltre il Modello Standard. Un esempio di questa tipologia di studi è la ricerca di particelle cariche a lunga vita media. Se pesanti, queste particelle si muoverebbero molto più lentamente della velocità della luce (β < 1). Questo comporta che ad esse siano associate perdite di energia per ionizzazione specifica (dE/dx) molto maggiori rispetto a quelle delle particelle del Modello Standard di pari impulso. La misura della dE/dx negli strati del rivelatore a pixel fornisce sensibilità a particelle con tempi di vita fino a O(3) ns e con una massa compresa tra 200 GeV e 3 TeV. Inoltre, la ionizzazione specifica associata ad una traccia viene usata in altri ambiti, come la fisica del beauty o l'identificazione di tracce generate da particelle molto vicine tra loro nei jet. In questa presentazione verranno mostrati i risultati relativi alla calibrazione della dE/dx per il Run2 e Run3 di LHC. A causa del danno da radiazione dovuto alle collisioni in LHC, la carica raccolta dai rivelatori a pixel di ATLAS diminuisce all'aumentare della luminosità raccolta e dipende della distanza dal punto di interazione. Risulta dunque necessario calibrare questa variabile localmente per uniformare le misure di dE/dx durante tutto il periodo di presa dati analizzato.

        Relatore: Simone Ravera (Istituto Nazionale di Fisica Nucleare)
      • 96
        Reti neurali veloci per il trigger L0 dei muoni dell'esperimento ATLAS

        Le tecniche di Intelligenza Artificiale ricoprono un ruolo sempre più rilevante nell'identificazione e ricostruzione in tempo reale degli eventi di interesse negli esperimenti ai collisori di particelle. Questo contributo presenta la strategia e i risultati preliminari ottenuti nel progetto in corso per lo sviluppo di nuovi algoritmi di ricostruzione di muoni basati su reti neurali, adatti all'implementazione sulle FPGA del futuro trigger muonico di livello zero dell’esperimento ATLAS per la fase ad alta luminosità di LHC (HL-LHC). L'uso di reti neurali profonde su FPGA presenta sfide significative in termini di progettazione dei modelli, di utilizzo delle risorse disponibili, e di velocità di inferenza. L’approccio presentato integra architetture neurali avanzate con innovative tecniche di compressione delle reti neurali, mostrandone il potenziale nel migliorare la capacità degli esperimenti di selezionare con velocità ed efficienza i processi fisici più interessanti.

        Relatore: Martino Errico
      • 97
        Utilizzo di un Convertitore DC-DC a controllo remoto per la polarizzazione di fotomoltiplicatori al silicio per l'esperimento DUNE

        L'esperimento DUNE, dedicato allo studio della fisica delle oscillazioni di neutrini, è attualmente in costruzione negli Stati Uniti in collaborazione con il Fermilab, dove verrà generato il fascio di neutrini, e il laboratorio sotterraneo SURF (Sanford Underground Research Facility) in South Dakota, dove avranno sede i moduli del Far Detector per la futura presa dati. Questi ultimi sfruttano la tecnologia delle camere a proiezione temporale ad Argon Liquido (LAr-TPC) con un sistema innovativo per la raccolta dei fotoni di scintillazione nella regione dell'ultravioletto (128 nm) tramite l'utilizzo di fotomoltiplicatori al silicio (SiPM). Per il modulo detto Vertical Drift, dove l'applicazione del campo elettrico prevede una deriva verticale delle cariche di ionizzazione per la loro successiva raccolta sull'anodo, i sensori di luce sono disposti sia sulle pareti del rivelatore sia sul catodo per una migliore copertura del volume dello scintillatore liquido.
        Tuttavia, in questa configurazione, si apre il problema di alimentare i sensori di luce posti sul catodo, ovvero una regione caratterizzata da un'elevata tensione negativa (-300 kV) che preclude l'utilizzo di tradizionali cavi in rame. Di conseguenza, l'alimentazione e la lettura devono essere effettuate tramite fibre ottiche secondo la decisione presa dalla Collaborazione. Dal momento che la tensione di uscita fornita dai convertitori ottici-elettrici è di pochi volt, è necessario l'uso di un Convertitore DC-DC per raggiungere la tensione di polarizzazione richiesta per alimentare i SiPM (dell'ordine di decine di volt). Inoltre, la presa dati è prevista per una durata di decine di anni, dove i SiPM potrebbero modificare le loro tensioni operative nominali mentre le unità di alimentazione rimarranno inaccessibili all'interno del LAr.
        Per questo motivo, il gruppo dell'Università di Milano Statale e INFN Milano ha sviluppato un Convertitore DC-DC avanzato, i cui componenti sono stati caratterizzati indipendentemente a temperatura criogenica, con l'inclusione di un controllo remoto in grado di determinare diverse tensioni di uscita operando su un segnale esterno tramite una connessione in fibra ottica a temperatura ambiente. Queste scelte aprono la prospettiva di una maggiore flessibilità del Convertitore DC-DC nei futuri moduli di DUNE, rispetto a quanto installato nell'attuale primo modulo del rivelatore.

        In questo intervento si introduce il concetto di DUNE Vertical Drift e si presentano i risultati per quanto riguarda la caratterizzazione del Convertitore DC-DC. Vengono inoltre presentati i vantaggi del suo utilizzo per possibili futuri moduli del Far Detector di DUNE e per altri esperimenti dove l'ambiente criogenico e le alte tensioni precludono un approccio classico.

        Relatore: Valeria Trabattoni (Istituto Nazionale di Fisica Nucleare)
      • 98
        Il monitor di fascio e i rivelatori di raggi X dell’esperimento FAMU per la misura del raggio di Zemach del protone tramite spettroscopia dell’idrogeno muonico

        L’esperimento FAMU ha l’obiettivo di misurare la separazione iperfina dello stato fondamentale dell’atomo di idrogeno muonico al fine di stimare il raggio di Zemach del protone con una precisione mai raggiunta, migliore dell'1\%.

        L’esperimento si svolge presso la sorgente ISIS al Rutherford Appleton Laboratory (Regno Unito), presso la linea di fascio RIKEN Port1. Qui un fascio di pioni, originati dalla collisione su grafite di protoni da 800 MeV, viene fatto decadere in volo in modo da ottenere un fascio di muoni di momento selezionabile. Possono essere prodotti fasci di muoni positivi e negativi, nell’intervallo di momento 17-90 MeV/c, con flusso variabile in funzione della polarità e del momento dei muoni stessi.

        L’esperimento è basato sull’eccitazione della separazione iperfina da parte di un sistema laser, e sulla conseguente ricerca di un aumento nel numero di raggi X caratteristici dell’ossigeno muonico (nell’intervallo 100-200 keV) dovuti all’aumento di probabilità di cessione del muone ad un atomo di ossigeno conseguente al rinculo di diseccitazione dell’atomo di idrogeno muonico. Per questo motivo, il sistema di rivelatori dell’esperimento si compone di due elementi base: un monitor di fascio ed una serie di 35 rivelatori di diverse tipologie per la misura di raggi X nell’intervallo 60-600 keV, studiati in modo da ottimizzare la copertura e le informazioni raccolte.

        Il monitor di fascio è composto da due piani adiacenti, ciascuno composto da 32 fibre scintillanti a base quadrata, che permettono la ricostruzione della posizione e delle dimensioni del fascio. Un lavoro di caratterizzazione della risposta del rivelatore a muoni singoli, svolto tramite abbassamento controllato del numero di muoni trasportati, permette inoltre di utilizzare il rivelatore per misurare il flusso istantaneo di muoni con una risoluzione dell’ordine dell 1%. Questa informazione svolge un ruolo fondamentale sia nell’identificazione e correzione di problematiche riguardanti la linea di fascio, come avvenuto varie volte durante la presa dati, sia di normalizzare i dati raccolti sulla base delle oscillazioni di flusso misurate.

        Il sistema di rivelazione dei raggi X ha il compito di identificare un aumento nel numero di raggi X caratteristici dell’ossigeno muonico (i principali a 133, 158, 167 keV) in seguito all’iniezione del laser all’interno del bersaglio. Per questo motivo, per una misura accurata è necessario dotarsi di un apparato di rivelazione che coniughi buone performance temporali e risoluzione energetica. Il sistema è composto da 34 cristalli di bromuro di lantanio arricchito in cesio, 6 dei quali letti da tubo fotomoltiplicatore (PMT) ed i restanti 28 da fotomoltiplicatori al silicio (SiPM). I primi raggiungono performance temporali migliori, mentre i secondi hanno una migliore risoluzione energetica. Il lavoro di ottimizzazione svolto nell’esperimento su questi rivelatori ha permesso di ottenere rendimenti confrontabili tra le due categorie di rivelatori: tempi di salita dei segnali dell’ordine di 10 ns, tempi di discesa dell’ordine di 100 ns, ed una risoluzione energetica a 150 keV attorno al 10%. Vi è poi un rivelatore al germanio ad alta purezza (HPGe) con funzioni di intercalibrazione e di controllo delle impurità eventualmente presenti nel bersaglio, grazie alla sua ottima risoluzione energetica, attorno all’1% a 150 keV. Tuttavia, questo rivelatore non permette la discriminazione temporale dei segnali in quanto i tempi di salita e di discesa sono un ordine di grandezza maggiore rispetto agli scintillatori sopra citati.

        Il sistema qui descritto ha permesso lo svolgimento di 4 periodi di presa dati a partire dalla seconda metà del 2023, e si prevedono ulteriori periodi di misura nel 2025. La qualità e la robustezza del sistema di rivelatori dell’esperimento FAMU sono stati confermati dal loro prolungato e continuo utilizzo sperimentale e, pur con ulteriori spazi per l’ottimizzazione, verranno impiegati anche nelle prossime prese dati con il fine di stimare il raggio di Zemach del protone con la massima accuratezza e precisione possibili.

        Relatore: Riccardo Rossini (Istituto Nazionale di Fisica Nucleare)
      • 99
        ND-GAr: un'innovativa TPC a gas ad alta pressione per DUNE

        Il Deep Underground Neutrino Experiment (DUNE) è un esperimento di oscillazione di neutrini di nuova generazione, progettato per raggiungere una precisione senza precedenti nello studio delle oscillazioni di sapore dei neutrini. Per raggiungere questi obiettivi, DUNE si baserà su un complesso di rivelatori vicini, essenziale per vincolare le incertezze sistematiche, incluse quelle legate al flusso di neutrini e alle sezioni d’urto di interazione. La costruzione di DUNE seguirà un approccio a fasi. La presa dati inizierà con la configurazione di Fase I, che comprenderà un fascio di neutrini da 1,2 MW, due moduli di rivelatori lontani a argon liquido e un sistema di rivelatori vicini composto da una TPC a argon liquido (ND-LAr), uno spettrometro temporaneo per muoni (TMS) e un monitor di fascio in asse (SAND). Seguirà la Fase II, che includerà diversi miglioramenti, tra cui due moduli aggiuntivi per il rivelatore lontano, un fascio più potente e un rivelatore vicino potenziato. Un elemento centrale della Fase II sarà la sostituzione di TMS con una camera a proiezione temporale a gas ad alta pressione, ND-GAr, il cui utilizzo innovativo nella fisica dei neutrini consentirà soglie di tracciamento basse e misure ad alta precisione, fondamentali per il controllo delle incertezze sistematiche, centrali per l’esperimento DUNE. Questa presentazione illustrerà alcune delle opportunità offerte da questo rivelatore innovativo, tra cui lo studio degli effetti nucleari nelle interazioni dei neutrini e la ricerca di fisica oltre il Modello Standard.

        Relatore: Federico Battisti (Istituto Nazionale di Fisica Nucleare)
      • 100
        ProtoDUNE-HD Photon Detection System performance

        ProtoDUNE-HD è una camera a proiezione temporale ad argon liquido (LArTPC), che sfrutta la tecnologia horizontal drift (HD) per la raccolta della carica. Esso è stato costruito e ha operato presso la Neutrino Platform area del CERN durante il 2024. Si tratta del prototipo del secondo modulo del far detector (FD) del Deep Underground Neutrino Experiment (DUNE), un esperimento di nuova generazione per lo studio della fisica di neutrini in costruzione negli USA. Il corretto funzionamento di ProtoDUNE-HD dimostrerà l'efficacia della tecnologia pensata per il FD-HD. In particolare, il Photon Detection System (PDS) del FD sarà fondamentale per il programma di fisica di DUNE. L’interazione di un neutrino nella LArTPC è infatti ricostruita osservando le tracce delle particelle cariche secondarie che, durante la loro propagazione in LAr, producono luce di scintillazione e cariche libere a seguito della ionizzazione dell’argon. Il tempo di riferimento dell'evento è fornito dall’istante di tempo in cui viene rivelata la luce di scintillazione, per mezzo di moduli X-ARAPUCA, ovvero trappole di luce dotate di fotomoltiplicatori al silicio (SiPM).

        In questo talk verrà presentato il design del PDS di ProtoDUNE-HD, insieme ai risultati preliminari legati al suo funzionamento, con particolare attenzione allo studio della tensione di breakdown (Vbd) e del light yield (LY). La prima può essere misurata acquisendo curve tensione-corrente e il suo valore è strettamente correlato alla Photon Detection Efficiency (PDE) del sistema. Il LY invece stima la quantità di luce prodotta a seguito dell’interazione di una particella nella LArTPC. Poiché il numero di fotoni di scintillazione prodotti è proporzionale all’energia depositata da quest’ultima, il PDS può fornire una stima indipendente dell’energia della particella, contribuendo alla ricostruzione calorimetrica. Grazie a questo lavoro è possibile effettuare un’ottimizzazione delle performance del FD, con l’obiettivo di soddisfare il programma scientifico di DUNE.

        Relatori: Anna Balboni (Istituto Nazionale di Fisica Nucleare), Anna Balboni (University / INFN of Ferrara)
      • 101
        WINK: Pathfinder per un innovativo rivelatore di raggi X e Gamma dallo spazio

        WINK è un rivelatore nato per testare, migliorare e validare la tecnologia alla base di Crystal Eye. Quest'ultimo, concepito per la rivelazione di raggi X e gamma (0,1–30 MeV) dallo spazio, ha tra i suoi obiettivi primari lo studio delle emissioni elettromagnetiche provenienti da fenomeni estremi nell'Universo, come, ad esempio, le emissioni prompt dei Gamma Ray Bursts (GRB). Inoltre, grazie alle sue ottime capacità di localizzazione, potrà fungere da /alert/ per altri rivelatori.

        WINK è costituito da tre pixel completi del disegno originale di Crystal Eye: ogni pixel è composto da due strati di cristalli LYSO, ciascuno letto da Silicon Photomultipliers (SiPM), e da un sistema di anti-coincidenza. A bordo di Space Rider (SR), un nuovo veicolo ESA, WINK volerà per due mesi in orbita terrestre bassa (LEO), permettendo la caratterizzazione del fondo cosmico e la misura di Terrestrial Gamma-Ray Flashes (TGF) nelle due settimane circa in cui punterà verso Terra.

        L'engineering Qualification Model di WINK, che sfrutta una DAQ basata sull'utilizzo di COTS, è stato ultimato insieme alle componenti meccaniche del rivelatore. La DAQ sarà sottoposta alle qualifiche per lo spazio e permetterà quindi di abilitare i componenti usati anche per future per applicazioni spaziali. In questo contributo, saranno presentati i primi test elettrici, termici e di stabilità sul Qualification Model.

        Relatore: Matteo Tambone (Istituto Nazionale di Fisica Nucleare)
      • 102
        Controllo di qualità del circuito stampato flessibile per i pixel detector module di ATLAS ITk

        Il rilevatore di pixel ibrido ITk è costituito da moduli multi-chip che includono complessivamente circa 10000 sensori planari e 400 sensori 3D a tripletti, equipaggiati con chip di front-end sviluppati nell'ambito della collaborazione RD53.
        Per garantire un'affidabilità a lungo termine nell'ambiente ostile dell'HL-LHC, è obbligatoria una certificazione di qualità rigorosa.
        In particolare, il circuito stampato flessibile rappresenta uno dei componenti più critici, poiché fornisce l'interconnessione elettrica tra i dispositivi micro-elettronici ed il resto del sistema. Pertanto, la sua integrazione meccanica, incluso il processo di incollaggio, viene analizzata in dettaglio e convalidata. I circuiti flessibili vengono fabbricati e popolati adottando i più elevati standard di affidabilità. Tuttavia, un rigoroso protocollo di controllo qualità (QC) post-produzione consente di rilevare i difetti prima dell'assemblaggio, massimizzando la resa. In questo lavoro descriviamo in dettaglio i test previsti dalla collaborazione, tra cui: l'ispezione visiva, la metrologia e i test elettrici.

        Relatore: Francesco Martina (Istituto Nazionale di Fisica Nucleare)
    • 15:00
      Premiazioni
    • Tavola rotonda: il Progetto Einstein Telescope
      • 103
        Il progetto Einstein Telescope
        Relatori: Alessandro Cardini (Istituto Nazionale di Fisica Nucleare), Federica Govoni (INAF Cagliari), Giuseppe Bozzi (University of Cagliari), Irene Molinari (INGV Bologna), Matteo Serra (Istituto Nazionale di Fisica Nucleare)
    • Chiusura