- Indico style
- Indico style - inline minutes
- Indico style - numbered
- Indico style - numbered + minutes
- Indico Weeks View
La 20ma edizione degli Incontri di Fisica delle Alte Energie è organizzata dalla Sezione INFN di Firenze, dal Dipartimento di Fisica e Astronomia dell'Università di Firenze.
La conferenza si terrà a Firenze dal 3 al 5 aprile 2024. I lavori si svolgeranno presso l'Istituto degli Innocenti, situato nel Centro Storico di Firenze, in Piazza SS. Annunziata.
L’edizione 2024 comprenderà unicamente sessioni plenarie, dedicate alla discussione degli argomenti di fisica delle alte energie di maggior interesse. Seguendo la tradizione, le relazioni saranno presentate in lingua italiana.
Le sessioni sono suddivise secondo quattro linee di ricerca:
Comitato scientifico
Diego Bettoni, Walter Bonivento, Concezio Bozzi, Claudia Cecchi, Giorgio Chiarelli, Eugenio Coccia, Pietro Colangelo, Giancarlo D'Ambrosio, Fulvia De Fazio, Guglielmo De Nardo, Giuseppe Della Ricca, Anna Di Ciaccio, Fabrizio Fabbri, Speranza Falciano, Fernando Ferroni, Emidio Gabrielli, Claudia Gemme, Pasquale Lubrano, Antonio Masiero, Leonardo Merola, Marco Paganoni, Daniele Pedrini, Stefano Ragazzi, Giulia Ricciardi, Biagio Saitta, Luca Trentadue, Alessia Tricomi (Presidente), Vincenzo Vagnoni, Francesco Vissani, Dario Zappala`, Antonio Zoccoli
Sfide per HL-LHC e fisica ai colliders futuri
La fisica del neutrino: sviluppi recenti e prospettive
Cosmic rays: results, interpretations, open problems
Descrizione di questa sessione
Unconventional search and long lived particles at LHC: signature and experimental challenges
L'importanza dello studio delle interazioni multi-partoniche risiede nella loro capacità di fornire dati essenziali sulla struttura interna dei protoni e sulle dinamiche delle collisioni ad alte energie, contribuendo così in modo significativo a una comprensione più approfondita delle interazioni fondamentali. Questo intervento illustrerà i recenti studi condotti con l'esperimento CMS al LHC e presenterà i risultati ottenuti in questo contesto. La recente osservazione diretta di interazione partonica doppia (double parton scattering - DPS) nella produzione di due bosoni W dello stesso segno (ssWW) a \sqrt{s} = 13 TeV, da parte di CMS, rappresenta una pietra miliare in questo campo. Negli ultimi anni l'interesse nella misura di eventi di DPS è migrato dagli stati finali a cinematica più dura (come jets e bosoni elettrodeboli) a stati finali più caratteristici della fisica del sapore. Questa tendenza si verifica perché la sezione d'urto di produzione presenta in media valori più elevati, e in aggiunta, la conoscenza acquisita sul nostro rivelatore consente a CMS di ottenere risultati altamente competitivi anche in confronto con esperimenti più specializzati come LHCb. In particolare un’altra misura del segnale di DPS è stata estratta per la prima volta nell’analisi di doppia Y a \sqrt{s}=13 TeV. Mentre, dalla misura di doppia J/Psi condotta da CMS a \sqrt{s}=13 TeV, che conferma la risonanza X(6900) già vista da LHCb, si evince anche la possibilità di ottenere risultati interessanti in questo canale per il DPS. Infine, l’osservazione della produzione di tripla J/Psi ha dato prova per la prima volta del Triple Parton Scattering come meccanismo di produzione. Dopo una breve illustrazione delle misure, discuteremo il potenziale dell'inclusione di stati finali, da stati multibosonici a mesoni con quark pesanti, evidenziando il loro diverso contributo allo studio delle interazioni multi-partoniche.
Vector Boson Scattering (VBS) è un processo di produzione chiave per sondare la rottura della simmetria elettrodebole del modello standard (SM). I processi VBS svolgono un ruolo speciale nella teoria poiché la loro unitarietà è conservata controbilanciando i diagrammi che coinvolgono il bosone di Higgs. Infatti, se il meccanismo di Higgs non fosse l'unica fonte di rottura della simmetria elettrodebole, eventuali deviazioni dalle previsioni dello SM potrebbero rendersi visibili in questa classe di processi. Mediante una Teoria Efficace di Campo (EFT) è possibile rilevare tali deviazioni anche se la scala di energia di questi nuovi processi fisici è superiore a quella raggiunta dal Large Hadron Collider. In questo talk, mi concentrerò sui principali risultati recenti prodotti dalle varie analisi VBS e VBF svolte con i dati raccolti da CMS, compresi i limiti posti sugli accoppiamenti tripli e quartici di bosoni di gauge in un contesto EFT.
La misura della sezione d’urto di produzione di un bosone $Z$ in associazione a jet di sapore pesante, $b-$ o $c-$jets, presso un collisionatore adronico rappresenta un importante test della QCD perturbativa e permette lo studio della struttura fondamentale del protone.
In questa presentazione viene discussa la misura appena pubblicata dall'esperimento ATLAS di sezioni d’urto inclusive e differenziali per eventi di $Z+\geq 1$ $b-$jets, $Z+\geq 2$ $b-$jets, e $Z+\geq 1$ $c-$jets, quest'ultimo processo misurato per la prima volta dall'esperimento. Le misure, effettuate su di un dataset di collisioni a un'energia di 13 TeV nel centro di massa, hanno una precisione tra il 5 e il 10% circa e si estendono fino ad un impulso trasverso di oltre un TeV.
Le sezioni d’urto misurate sono state confrontate con diversi generatori Monte Carlo basati su calcoli con elementi di matrice next-to-leading-order interfacciati con simulazioni parton-shower, e con predizioni innovative a ordine fisso calcolate con precisione next-to-next-to-leading-order grazie all'uso di algoritmi IRC-safe.
Le misure di $Z+\geq 1$ $c-$jets vengono inoltre comparate a modelli di struttura del protone che contengono frazioni non nulle di quark charm intrinseco.
Nel passato recente, un sostanziale sforzo è stato indirizzato nella esplorazione delle simmetrie di sapore in varie estensioni del Modello Standard del settore leptonico. Tuttavia, com’è noto, i modelli tradizionali di sapore si sono rivelati essere piuttosto problematici. Nel 2017 è stato proposto un nuovo approccio “bottom-up” basato sulla invarianza modulare, nel quale i coupling di Yukawa del Modello Standard diventano forme modulari. All’interno di questo framework, abbiamo risposto alla seguente questione: è possibile sfruttare il più piccolo e minimalista gruppo modulare finito, $S_3$, per costruire modelli predittivi per i neutrini e per spiegare le gerarchie di massa dei leptoni carichi? Come dimostrato nel nostro lavoro, la risposta è affermativa se si assume un certo numero di princìpi guida, che sfruttano appieno l’invarianza modulare.
Descrizione di questa sessione
La precisione e l'efficienza nella ricostruzione delle tracce delle particelle cariche sono cruciali per il successo dell'esperimento CMS presso il collisionatore LHC. In previsione dell'inizio del Run 3 del LHC nel 2022, il primo strato di rivelatori a pixel del barile del Tracciatore al silicio è stato sostituito per affrontare l'alto tasso di collisioni protone-protone sovrapposte, e notevoli miglioramenti sono stati apportati agli algoritmi di ricostruzione delle tracce. Presenteremo le misure delle performance nella ricostruzione delle tracce basate sui dati raccolti nel 2022 e 2023, confrontandole con i risultati delle simulazioni. Infine, esamineremo gli sviluppi futuri pianificati per il resto del Run 3, mirati al continuo miglioramento della ricostruzione delle tracce.
25 + 5 min
12 + 3 min
12 + 3 min
12+3min
12 + 3 min
DAMPE (DArk Matter Particle Explorer) è un esperimento su satellite, operativo da dicembre 2015.
I suoi principali obiettivi scientifici includono la ricerca indiretta di materia oscura negli spettri di leptoni e raggi-gamma, lo studio di raggi cosmici primari fino ad energie di centinaia di TeV e l'astronomia di raggi-gamma.
In questo contributo vengono riportati i principali risultati sinora ottenuti nello studio degli spettri energetici elettroni/positroni e di protoni e nuclei.
L'esperimento Belle II dispone di 424 fb$^{-1}$ di collisioni $e^+e^-$ con energie nel centro di massa prossime alla risonanza $\Upsilon(4S)$, corrispondenti a 550 milioni di eventi $e^+e^-\to c\bar c$, utilizzabili per misure di precisione nel settore del charm. Qui il modello standard predice una violazione di CP tipicamente al di sotto dell'attuale sensibilità sperimentale: le misure di asimmetria CP nei decadimenti dei mesoni $D$ sono perciò sensibili ad effetti di nuova fisica.
Presenteremo i progressi di una misura di asimmetria CP nel canale Cabibbo-soppresso $D^0\to\pi^+\pi^-\pi^0$. Grazie ad un cambio di strategia per l'estrazione dei conteggi ci aspettiamo una precisione migliore rispetto a misure precedenti effettuate su campioni con simile statistica. Mostreremo, inoltre, studi preliminari sul miglior modo di suddividere il diagramma di Dalitz per misurare la variazione dell'asimmetria nello spazio delle fasi.
La spettroscopia del bottomonio offre una prospettiva vantaggiosa per la comprensione dell'interazione forte alle basse energie grazie allo studio delle proprietà di stati convenzionali ed esotici. Producendo collisioni $e^+e^-$ a diverse energie nel centro di massa, Belle e Belle II hanno raccolto dei campioni di dati unici per studiare transizioni rare tra stati del bottomonio e determinare la natura dell'ultimo stato scoperto, la $Y(10750)$. Presenteremo gli ultimi risultati ottenuti con questi campioni: i primi studi delle transizioni radiative tra $h_b(1,2P)$ e $\chi_{bJ}(1P)$, la misura delle sezioni d'urto per i processi di produzione di coppie di mesoni B intorno a $\sqrt{s}=10.750$ GeV, la prima osservazione del processo $e^+e^- \rightarrow \omega \chi_{bJ}(1P)$ e la conferma dell’esistenza dello stato Y(10750). Tutti i risultati saranno confrontati con le predizioni teoriche fornite da diverse interpretazioni della Y(10750): stato convenzionale, ibrido o tetraquark compatto.
L'esperimento Belle II ha completato con successo il Run1 di presa dati e dispone di un campione di 364 fb$^{-1}$ di luminosità integrata alla massa della $\Upsilon$(4S). Misure di violazione di CP nell'interferenza tra decadimento diretto e decadimento dopo oscillazione costituiscono ancora una delle motivazioni principali di fisica a Belle II, visto che gli errori statistici continueranno ad essere dominanti per la maggior parte dei canali per tutta la durata dell'esperimento. In questo contributo presenteremo l'ultimo aggiornamento della misura di CP dipendente dal tempo su canale golden $B^0 \rightarrow J/\psi K_S$. Tale studio utilizza per la prima volta un nuovo algoritmo di flavor tagging, basato su Graph Neural Networks, che aumenta l'efficienza di tagging del 18% (relativo) rispetto all'algoritmo precedente. Presenteremo poi le prime misure nei canali $B^0 \rightarrow \eta' K_S$ e $B^0 \rightarrow K_S \pi^0 \gamma$, particolarmente importanti per le ricerche di fisica oltre il Modello Standard e per i quali Belle II ha un'eccellente sensibilità, grazie all'efficiente ricostruzione di particelle neutre.
La conservazione del numero leptonico è una simmetria quasi perfetta all’interno dell’attuale Modello Standard. Ad oggi solo il processo di oscillazione dei neutrini permette la violazione di questa simmetria nel settore dei leptoni carichi, sebbene con una soppressione estrema dell'ordine di $10^{-50}$. Pertanto, l'osservazione diretta di processi come il decadimento $\tau\to\mu\phi$ rappresenterebbe un chiaro segnale di fisica al di là del Modello Standard. Numerose teorie di nuova fisica consentono una violazione del numero leptonico con branching fraction significativamente più elevato. Per esempio, per il decadimento $\tau\to\mu\phi$, introducendo un leptoquark vettoriale come nuovo mediatore del processo, si raggiungono valori fino a $10^{-8}$ non molto distanti dal miglior limite sperimentale disponibile: $\mathcal{B}(\tau\to\mu\phi) < 8.4 \times 10^{-8} \text{ al }90\%\,\mathrm{CL}$, fornito dalla collaborazione Belle.
In questa presentazione descrivo la ricerca del decadimento $\tau\to\mu\phi$ condotta per la prima volta a un collisionatore adronico con un'analisi blind utilizzando i dati raccolti dall’esperimento LHCb durante il Run 2 del Large Hadron Collider. La ricerca di questo processo a una macchina adronica si avvantaggia di una più abbondante sezione d’urto di produzione di leptoni tau rispetto a una macchina leptonica e+e-, al costo però della presenza di processi di background molto più difficili da rigettare. Presento quindi lo sviluppo di una nuova strategia di analisi sostanzialmente diversa rispetto a quelle adottate in passato, discutendo le prospettive di questa misura con il campione di dati attualmente disponibile e quelle future con i nuovi dati che verranno raccolti durante il Run 3 del Large Hadron Collider.
In recent years, modular invariance has been applied to the SM flavour puzzle, yielding compelling results. In this paradigm, one does not need a multitude of scalar fields charged under the flavour group (flavons) with aligned vacuum expectation values and potentially complicated or ad-hoc scalar potentials. One may simply need a single complex field, a.k.a. the modulus. Yukawa couplings and mass matrices are obtained from modular forms, which are known functions of the modulus. Its VEV can be the only source of flavour symmetry breaking and CP violation. The modular setup may shed light on the patterns of fermion mixing, the origin of fermion mass hierarchies and provide a solution to the strong CP problem.
L’esperimento LHCb è stato progettato per svolgere un ruolo determinante nella ricerca della fisica delle particelle e della fisica del sapore. Fin dall’inizio, LHCb ha effettuato misure sulla violazione di CP nei decadimenti degli adroni contenenti il quark charm con un'altissima precisione, osservando la violazione di CP diretta nei decadimenti in due corpi carichi del mesone $D^0$ per la prima volta nel 2019. Tuttavia, la violazione di CP nei decadimenti dei barioni non è mai stata osservata, e questa misura integra le varie misure effettuate fino ad oggi. Queste, infatti, rappresentano un aspetto cruciale del Modello Standard per comprendere l’asimmetria barionica nell’universo e individuare segnali di Nuova Fisica. Questo contributo presenta i recenti sviluppi della misura della violazione di CP diretta $\Delta A_{CP}$ del barione $\Lambda_c^+$ nei decadimenti singoli Caibibbo-soppressi $\Lambda_c\rightarrow p KK$ e $\Lambda_c\rightarrow p\pi\pi$, utilizzando i dati raccolti da LHCb durante il Run 2. Questa analisi migliorerà la precisione di $\Delta A_{CP}$ di un ordine di grandezza rispetto alla precedente misura realizzata da LHCb con i dati raccolti durante il Run 1.
La misura dei rapporti di decadimento rari dei bosoni Z e H in un mesone leggero e un fotone permette test accurati del metodo di fattorizzazione in QCD e, nel caso del bosone di Higgs, rappresenta uno dei pochissimi modi per accedere agli accoppiamenti con i quark di prima e seconda generazione. Verranno illustrate le analisi relative nell'esperimento CMS a LHC, a partire dalle strategie di trigger, di selezione degli eventi (di base e multivariate) fino all'estrazione dei limiti superiori su questi rapporti di decadimento.
Un aspetto fondamentale delle ricerche svolte all'esperimento CMS riguarda l'identificazione dei jet prodotti nelle collisioni protone-protone ad alta energia. I bosoni W/Z, il bosone di Higgs ed il quark top possono essere prodotti con elevato boost di Lorentz ed, in tali circostanze, i loro prodotti di decadimento possono essere ricostruiti come fat jet, ossia anti-k$_{t}$ jet di raggio 0.8 (AK8). L’identificazione della particella, che dà inizio al fat jet, ricopre pertanto un ruolo cruciale nel distinguere i top quark ed i bosoni boostati dal fondo dominante di QCD. Diversi algoritmi di identificazioni di AK8, basati su sofisticate tecniche di machine learning, sono stati sviluppati dalla collaborazione CMS. In questo talk verrà fornita una loro panoramica in termini di prestazione ed utilizzo all’interno della collaborazione.
Le ricerche di nuova fisica nel regime con un elevato boost di Lorentz sono una parte cruciale del programma di fisica di LHC, in quanto potrebbero rivelare la presenza di nuove risonanze pesanti, previste da modelli di fisica oltre il Modello Standard a masse elevate. Nella collaborazione CMS, numerosi algoritmi di boosted-jet tagging sono stati sviluppati per identificare jet adronici che originano appunto dal decadimento di particelle del Modello Standard come quark top, bosoni di Higgs o bosoni vettori, e impiegati in una varietà di analisi. In questo contesto, saranno descritte tecniche di apprendimento automatico, o Machine Learning, sono state applicate di modo da sfruttare al meglio l’informazione dei componenti dei jet, e la loro applicazione in analisi di fisica. Questo talk riassumerà la performance di questi algoritmi in analisi eseguite sui dati di collisione del Run-II di LHC ad un’energia nel centro di massa di 13 TeV.
Le ricerche di di-Higgs sono tra gli obbiettivi principali del programma del High-Luminosity Large Hadron Collider (HL-LHC) e con l'avvio dell'attuale fase di presa dati chiamata Run 3 è fondamentale perfezionare le tecniche già sviluppate per le analisi precedenti.
Ottimizzare l’efficienza di selezione del segnale, a partire dall’efficienza di trigger, è cruciale per questo tipo di analisi, a causa della ridotta sezione d'urto per la produzione di eventi di interesse.
Lo studio si concentra sull'ottimizzazione del canale HH->bbtautau, cruciale per la ricerca di di-Higgs perché offre un ottimo bilanciamento tra produzione di eventi e sensibilità del segnale.
L’efficienza di segnale dei trigger utilizzati da questa analisi ha già ottenuto un aumento del ~60% nei primi 2 anni del Run 3, grazie all'ottimizzazione di selezioni basate sui trigger di 2 tau e di 2 b-jets.
Tuttavia, lo sviluppo di un nuovo approccio di trigger basato sulla selezione di eventi con 1 b-jet e 1 tau (b+tau) ha aperto una finestra su diverse nuove possibilità di selezione degli eventi di interesse. Questo tipo di trigger, infatti, sarà introdotto per l'anno di acquisizione dati 2024, e porterà ad un aumento stimato dell'efficienza assoluta del ~95% rispetto alla selezione del trigger avuta durante il Run 2.
La presentazione verterà poi sullo studio e l'applicazione di modelli di intelligenza artificiale più recenti per l'identificazione di jet prodotti dal decadimento di tau all'interno di ATLAS. Incrementare ulteriormente il potere di reiezione del fondo degli attuali algoritmi è fondamentale perché permette didi diminuire il contributo dei tau-fake in tutte le analisi che utilizzano i tau come oggetto nello stato finale, e possono anche aumentare l'efficienza di questo tipo di trigger.
In fine la presentazione descriverà l'attuale stato dell'analisi HH->bbtautau ed i suoi diversi approcci in fase di studio per sfruttare gli incrementi di efficienza dei nuovi trigger.
Nel corso degli anni, diverse motivazioni hanno reso sempre più chiara la necessità di un'estensione del Modello Standard (SM), di conseguenza gli esperimenti di fisica delle alte energie devono esplorare nuovi scenari andando oltre il Modello Standard (BSM). Questi ultimi infatti ora costituiscono una parte importante del programma di fisica dell'esperimento ATLAS al CERN.
Le ricerche che coinvolgono stati finali multileptonici presentano un buon rapporto segnale-fondo, favorito dal basso numero di eventi SM con elevata molteplicità di leptoni.
Nel contesto del ‘‘Left-Right Symmetric Model" (LRSM) e del meccanismo di See-Saw di Tipo-III, vengono cercati eventi di Nuova Fisica (NP) in diversi processi, come la produzione di bosoni Higgs doppiamente carichi (H$^{\pm \pm}$) e la produzione di leptoni pesanti, sia neutri che carichi.
Gli stati finali investigati possono anche coinvolgere leptoni leggeri con stessa carica, consentendo la violazione del numero leptonico, prevista dal LRSM.
In questo lavoro sono presentate le ricerche BSM di ATLAS che esplorano questi scenari analizzando l'intero set di dati di Run-2, per una luminosità totale di $139~\mathrm{fb^{-1}}$ a un'energia nel centro di massa di $\sqrt{s}=13~$TeV in collisioni protone-protone.
Dopo la scoperta del bosone di Higgs ad LHC al CERN di Ginevra, molta attenzione è stata data alla ricerca di nuove risonanze bosoniche ad alta massa. L’uso di tecniche di Machine Learning unito a metodi di ricerca di anomalie (anomaly detection) è sicuramente un approccio innovativo che permette di cercare nuove risonanze in modo indipendente da modelli specifici. In questo contributo sono riportati i risultati di un primo studio nella ricerca di una risonanza $Y$ che decade in un bosone di Higgs e una nuova risonanza $X$ con stato finale puramente adronico ($Y\to XH$). Inoltre, è riportato uno studio in cui si utilizza un approccio non supervisionato con le Graph Neural Networks (GNN) per ricerche di Anomaly Detection (Graph Anomaly Detection). Le GNN sembrano essere molto promettenti, sono riportati i primi risultati ottenuti con il dataset di LHC Olympics e le sue prime applicazioni sui dati del Run II di ATLAS in stati finali completamente adronici.
The Alpha Magnetic Spectrometer (AMS), operating onboard the International Space Station since May 2011, has collected an impressive amount of cosmic-ray particles in space. The AMS measurements of the detailed time variation of multiple particle species in cosmic rays provides an invaluable resource for understanding heliospheric phenomena, the space radiation environment, and for improving space weather forecasting capabilities. Here I will present the recent results by AMS on cosmic-ray protons, nuclei, electrons and positrons and discuss their impact in understanding the physical mechanisms of cosmic-ray transport in the heliosphere
Le misure della produzione di un bosone W o Z in associazione con b-quarks in collisioni protone-protone ad LHC migliorano la comprensione della QCD perturbativa. Inoltre tali processi sono un fondo frequente in studi del bosone di Higgs ed in ricerche di nuova fisica. In particolare la scoperta del bosone di Higgs agli esperimenti ATLAS e CMS ad LHC motiva lo studio di precisione delle sue proprietà e dei suoi accoppiamenti al fine di stabilire la sua natura. Nell'ambito dello studio di precisione dell'accoppiamento del bosone di Higgs con il quark b, un ruolo fondamentale è giocato dal canale di decadimento del bosone di Higgs in due quark b prodotto in associazione con un bosone W o Z (W/ZH(bbbar)). Pertanto la misura della produzione di un bosone W o Z in associazione con b-quarks costituisce un input prezioso per il miglioramento delle simulazioni Monte Carlo utilizzate per la stima di questo fondo nel canale W/ZH(b bbar). Mentre misure di sezioni d'urto differenziali della produzione di un bosone Z in associazione a 2 b-jets in collisioni protone-protone sono state pubblicate con i dati di LHC a sqrt(s)=7, 8 and 13 TeV, al momento mancano misure di sezioni d'urto differenziali del processo di produzione di un bosone W in associazione a 2 b-jets. La misura è fatta selezionando il decadimento leptonico del bosone W (W->l nu), ovvero eventi con almeno un muone o un elettrone ed energia trasversa mancante. La sfida principale dell'analisi è la riduzione dell'enorme fondo di eventi originati dalla produzione di una coppia di quark top (ttbar). In questo poster è illustrato lo sviluppo di un'analisi innovativa basata su una tecnica multivariata, in particolare una rete neurale, che permette di ottenere una migliore separazione segnale-fondo rispetto ad analisi basate su tagli in cascata su singole osservabili. Questa tecnica potrà essere utilizzata per ridurre il fondo di ttbar nella misura di sezioni d'urto differenziali di produzione del bosone W in associazione con 2 b-jets con i dati di collisione protone-protone di LHC a sqrt(s)= 13 TeV raccolti dall'esperimento ATLAS. Lo studio illustrato utilizza le simulazioni Monte Carlo più avanzate per la descrizione di segnale e fondo. Se disponibili saranno anche presentati i risultati con i dati di collisione in una regione di controllo dominata dal fondo ttbar.
XCF è una nuova facility disponibile presso l’Università di Torino capace di caratterizzare rivelatori di raggi X grazie al suo setup custom, ottimizzato mediante apposite simulazioni. In particolare, dispone di tubi a raggi X con energie tra i 2 e gli 8 keV, fornisce 2 linee di fascio di cui una polarizzata per diffrazione di Bragg su cristalli. È dotato inoltre di un Silicon Drift Detector, di un CMOS ZWO ASI-294 per il monitoraggio dei fasci, ed è possibile utilizzare anche una sorgente di 55Fe.
Il CMOS commerciale in uso è stato riadattato per misurare raggi X, e ne sono state studiate le sue performance.
Lo scopo principale di XCF è la caratterizzazione dei Gas Pixel Detector, rivelatori in grado di misurare la polarizzazione dei raggi X incidenti, e lo studio della variazione delle loro performance nel tempo. La facility può essere anche sfruttata per ottimizzare il design di detector futuri per raggi X, come è stato fatto nello studio di trasparenza di finestre in Be.
The Deep Underground Neutrino Experiment (DUNE) beamline will be composed of a powerful neutrino beam, monitored by a Near Detector and a Far Detector (FD). The accelerator and ND are hosted at Fermilab (IL) while the FD is located at the Sanford Underground Research Facility (SD), at a distance of 1300km. The FD is being built 1500m underground with a modular design; the first two modules will adopt the Liquid Argon Time Projection Chamber (LArTPC) technology, each module will have 17kton total mass of liquid argon. The main physics goals are the determination of the neutrino mass hierarchy and a precision measurement of the cp-violating phase. In this talk the Photon Detection System (PDS) will be described from the base module, named XArapuca, to the integration in the first two modules of the far detector (FD1 and FD2).
Quarant'anni fa, Witten avanzò l'ipotesi che la materia oscura potesse essere composta da cluster macroscopici di materia strana (materia di quark contente il quark strange), noti come strangelets. Questa idea fu molto popolare per diversi anni, ma cadde in disuso una volta che i calcoli di QCD su reticolo indicarono che la transizione di confinamento/deconfinamento, a piccolo potenziale chimico barionico, non è del primo ordine, il che sembrava essere fondamentale per produrre grandi cluster di quark. Nel nostro lavoro rivediamo sia le condizioni sotto le quali gli strangelets possono essere prodotti nell'Universo primordiale sia le molteplici implicazioni fenomenologiche della loro esistenza, concentrandoci in particolare su come la loro presenza possa influenzare l'evoluzione stellare. Inoltre, discutiamo i limiti sulla loro distribuzione di massa e un possibile schema per la loro produzione.
Attraverso una misura di trasmissione di muoni atmosferici in materia è possibile studiarne la struttura interna in termini di densità. La tecnica prende il nome di “muografia per trasmissione” e rappresenta una vera a propria tecnica di imaging permettendo, in maniera non-invasiva, di individuare e localizzare eventuali anomalie interne alla struttura in studio. I campi di applicazione sono vari: dall’archeologico e geologico-minerario per la ricerca di vuoti (tombe cavità) o per la ricerca di filoni ad alta densità, alla sicurezza civile e industriale per il monitoraggio di grandi strutture come dighe, altoforni o strutture di interesse culturale.
In questo lavoro verrà presentata la prima applicazione della tecnica della muografia per trasmissione ad una necropoli etrusca per la ricerca non invasiva di possibili tombe. Il gruppo di muografia fiorentino (INFN-FI e UNIFI) in collaborazione con l’Università di Perugia ha applicato la tecnica ad un’area della necropoli del Palazzone (Perugia-Italia) non ancora completamente esplorata dagli archeologi, dando importanti informazioni sulla presenza e sulla localizzazione di possibili tombe sotterranee. La necropoli del Palazzone situata a Sud-Est della città rappresenta uno dei siti archeologici etruschi più importanti vista la presenza di circa 200 tombe etrusche con innumerevoli reperti e urne.
La novità dello studio presentato risiede nello sviluppo e nell’applicazione di algoritmi che attraverso una sola misura di trasmissione di muoni individuano tridimensionalmente le aree a maggior probabilità di contenere cavità senza la necessità di effettuare più di una misura e senza l’utilizzo di algoritmi tomografici sviluppati solitamente per questi scopi. In questo lavoro verranno dunque presentati: la misura di muografia effettuata con il tracciatore MIMA (Muon-Imaging-for-Mining-and-Archaeology) alla necropoli del Palazzone, le immagini muografiche e le aree individuate a maggior probabilità di contenere delle cavità con alcune conferme ottenute sul campo.
In recent years, monolithic active pixel sensors (MAPS) have emerged as valid alternatives to hybrid detectors in the design of next generation high-performance silicon vertex and tracking detectors for high-energy physics (HEP) experiments and other fields of research like medical imaging and space applications. This option is among the technologies taken into account for the Time Of Flight detector of the ALICE 3 experiment for the LHC Run 5.
One of the main features of MAPS is that they can be implemented cost-effectively using a commercial CMOS process without the need for an expensive interconnection. In this context, Fully Depleted Monolithic Active Pixel Sensors (FD-MAPS) represent a state-of-the-art detector technology, as they have the advantage of collecting charges by drift, enabling a fast and uniform response over the pixel matrix. The ARCADIA project, in particular, is developing FD-MAPS with an innovative sensor design, which exploits backside bias voltage to fully deplete the sensor and to improve the charge collection efficiency and the timing performances.
Recent developments have addressed the possibility of introducing a gain layer in MAPS. Thanks to the signal multiplication, a higher signal to noise ratio can be reached, translating into a lower power consumption with respect to standard MAPS without gain. This peculiarity makes these devices very attractive for space applications, where low power consumption is strongly desired.
This work illustrates the first characterization results on the monolithic CMOS sensors with additional gain layer, based on a standard 110 nm CMOS technology developed in collaboration with LFoundry for the third run of the ARCADIA project. Laboratory measurements will be presented, together with preliminary results from a test beam conducted at PS, CERN. To conclude, the future perspectives and the next steps in the ongoing R$\&$D will be pointed out.
Nella fase di alta luminosità del Large Hadron Collider (HL-LHC) il rivelatore ATLAS sarà esposto a una luminosità istantanea mai raggiunta in precedenza, con valori fino a 200 collisioni protone-protone per bunch crossing.
Per potersi adattare all’aumento di occupancy, ampiezza di banda e danni da radiazione, il tracciatore interno di ATLAS verrà sostituito con il nuovo rivelatore a silicio Inner Tracker (ITk). La sua parte più interna sarà costituita da un rivelatore a pixel, mentre quella esterna da un rivelatore a strip. Per far fronte alle esigenze di resistenza alle radiazioni e dissipazione di potenza, diverse tecnologie sono utilizzate per i sensori a pixel e a strip, con circuiti integrati dedicati (ASIC) e collegamenti mediante tecnica di bump-bonding e wire-bonding.
La collaborazione si sta occupando della pre-produzione di sensori e moduli, e della costruzione delle strutture meccaniche e dei servizi. In questa presentazione verrà illustrato lo stato del progetto, dando spazio sia ai risultati ottenuti sia che alle sfide affrontate per la realizzazione di moduli, componenti e servizi.
Durante il Long Shutdown 3 (LS-3), tra il 2026 e il 2028, il Compact Muon Solenoid (CMS), così come tutti gli altri esperimenti a LHC, sarà aggiornato per soddisfare i requisiti della Fase II di LHC, definita High Luminosity LHC (HL-LHC). La versione aggiornata del tracciatore più interno di CMS (IT) si baserà sempre sulla tecnologia dei sensori a silicio a pixel. L'elemento base dell'apparato è il modulo formato dal sensore a pixel accoppiato al circuito integrato di lettura e a un circuito stampato (HDI - High Density Interconnect) per l’alimentazione e la connessione delle linee dati digitali. Questi moduli sono stati oggetto di un'intensa campagna di ricerca e sviluppo e di validazione. I risultati ottenuti in questo ambito sono presentati, in particolare relativi a moduli prototipo formati da sensori composti da 145152 pixel, accoppiati al chip di lettura CROC-v1 (CMS Read-Out Chip version 1). Grazie a questa attività di verifica sono stati osservati effetti strumentali che affliggono la soglia di rivelazione del segnale di particella, un parametro di funzionamento importantissimo. La caratterizzazione approfondita della fenomenologia di questi effetti, intimamente legata alla modalità di funzionamento dell'elettronica come confermata anche da simulazioni, ha permesso di ottimizzare le procedure di calibrazione anche grazie all'implementazione di software dedicato.
Dopo il completamento dell’upgrade alla sua seconda versione ITS2 durante il Long Shutdown 2, l’attuale Inner Tracking System (ITS) del rivelatore ALICE è composto da 7 layer di chip in silicio ALPIDE, realizzati con l’innovativa tecnologia CMOS Monolithic Active Pixel Sensor (MAPS). Grazie all’elettronica integrata, lo spessore dei MAPS in termini di lunghezza di radiazione X₀ è già stato ridotto a 0.35%X₀ per layer nell’ITS2, ma potrebbe essere ulteriormente assottigliato a 0.05%X₀ per layer eliminando dal material budget i materiali diversi dal silicio.
Sono proprio questi gli obiettivi del secondo upgrade dell’ALICE ITS2 a ITS3, da completarsi nel corso del prossimo Long Shutdown 3 (previsto nel periodo 2026-2028). L’upgrade vedrà la sostituzione dei 3 layer interni dell’ITS2 (Inner Barrel, o IB) con 3 layer flessibili e perfettamente cilindrici di sensori MAPS stitched, per ottenere una riduzione del material budget, efficienza di rivelazione più elevata e risoluzione delle tracce circa due volte migliore rispetto all’ITS2 (in particolare a piccoli impulsi). Simili miglioramenti daranno un grande contributo agli studi di fisica degli adroni heavy-flavoured con cammini medi cτ di poche decine di μm.
I nuovi sensori ITS3 dovrebbero essere prodotti con il processo 65nm, in sostituzione dell’attuale tecnologia 180 nm dell’ITS2. È stata sviluppata un’ampia gamma di strutture di test Multi-Layer Reticle 1 (MLR1) costituite da piccole matrici di pixel per la validazione di questa nuova tecnologia, come ad esempio le Analog e Digital Pixel Test Structures (APTS e DPTS). In questa presentazione sarà riportata una selezione di risultati ottenuti con i dispositivi di piccole dimensioni MLR1, sviluppati per ottimizzare la geometria dei diodi collettori, il profilo di drogaggio, le dimensioni dei pixel e l’elettronica di front-end. Sono state condotte diverse misure, sia sotto test beam che in un setup in laboratorio con una sorgente di ⁵⁵Fe, per valutare le prestazioni dei dispositivi di piccole dimensioni MLR1 65nm e verificarne la compatibilità con i requisiti tecnici del futuro ITS3. In particolare, le misure in laboratorio sugli APTS hanno restituito valori più alti di efficienza di raccolta di carica per i chip su cui era stato impiantato uno strato di tipo n a basso drogaggio. I risultati dei test beam, sia sugli APTS che sui DPTS, hanno invece dimostrato che le aspettative per i sensori ITS3 possono essere in larga parte soddisfatte, con un’efficienza di rivelazione ~99% o superiore in condizioni di NIEL fino a 10¹⁴ 1 MeV neq/cm², risoluzione spaziale migliore di 5 μm per pixel di dimensioni di 15 μm o inferiori e un consumo di potenza elettrica che può essere mantenuto al di sotto dei 20 mW/cm².
Il MIP Timing Detector (MTD) dell'esperimento CMS, attualmente in costruzione per la fase ad alta luminosità di LHC, avrà un ruolo chiave nelle misure di precisione e nella ricerca di nuove segnature sperimentali nei prossimi 10 anni.
La misurazione precisa del tempo di arrivo delle particelle cariche fornita da MTD consente l'implementazione di una ricostruzione dei vertici 4D e aiuta a discriminare le interazioni multiple (pileup), migliorando di fatto le prestazioni nella ricostruzione e nell'identificazione degli oggetti fisici come leptoni, adroni o getti collimati di particelle.
In questo contributo, esploriamo l'impatto dell'incertezza misurata della quantità di moto della traccia nella determinazione del tempo di volo. Si valuta anche il suo utilizzo nella ricostruzione del vertice e nell'assegnazione dell'ipotesi di massa alle tracce cariche, facendo luce sul potenziale impatto sulla ricostruzione e classificazione degli eventi.
I risultati presentati in questo abstract dimostrano l’efficacia di MTD non solo nella mitigazione del pileup ma anche le sue potenzialità nel ricostruire e quindi sondare segnature di nuova fisica con caratteristiche strutture temporali.
I sensori a pixel High Voltage CMOS sono proposti per essere utilizzati in futuri esperimenti di fisica delle particelle. Il chip ATLASPIX3 è composto da 49000 pixel delle dimensioni di 50 μm x 150 μm, realizzati nella tecnologia TSI 180nm HVCMOS. È stato il primo sensore monolitico HVCMOS di dimensioni reticolari complete adatto alla costruzione di moduli multi-chip e supporta l'alimentazione seriale attraverso regolatori shunt-LDO. L'architettura di lettura supporta sia un readout triggered che triggerless con soppressione nulla.
Con la capacità di essere utilizzato in un contesto multi-chip, è stato sviluppato un telescopio a 4 strati fatto di ATLASPix 3.1, utilizzando il sistema di lettura GECCO come nel setup a singolo chip. Per dimostrare la capacità multi-chip e per la sua caratterizzazione, è stata condotto un test-beam presso DESY utilizzando fasci di elettroni da 3 a 6 GeV, con i chip operanti in modalità di lettura triggerless con soppressione nulla. Le prestazioni del rivelatore sono state anche testate con fasci di protoni e ioni carbonio di bassa energia presso il CNAO (Centro Nazionale di Adroterapia Oncologica) di Pavia.
Moduli multi-chip che integrano servizi elettrici e linee dati per 4 chip, tramite un circuito stampato flessibile, sono stati sviluppati e testati. Una nuova versione di questi moduli che implementa l'alimentazione seriale è in fase di produzione e permetterà, in futuro, di creare catene di moduli alimentati in serie, adatte ad essere impiegate in un sistema di rivelazione reale e complesso.
L’esperimento ATLAS ha iniziato la realizzazione di uno
strato di camere RPC (Resistive Plate Chambers) da inserire, nel lungo
shutdown LS3 (2026-2029), sopra le camere di tracciamento MDT dello
strato più interno del barrel dello spettrometro per muoni. Questi
nuovi rivelatori parteciperanno, insieme alle altre camere RPC già
presenti nello spettrometro, alla selezione (trigger) in tempi molto
brevi di particelle cariche in piccoli intervalli di impulso. Le
camere RPC saranno formate da un triplo strato di rivelatori che alla
luminosità di High Luminosity LHC avranno efficienza di rivelazione
del 80% per singolo layer (99.2% per camera), una risoluzione
temporale migliore di 400 ps e una risoluzione spaziale migliore di
6mm nella direzione $\eta$ e di 15mm nella direzione $\phi$. La
realizzazione dei rivelatori RPC nei settori Large (RPC-BIL), opera di
un lavoro congiunto dei gruppi INFN Roma1, Roma2, Bologna e Cosenza,
è iniziata a giugno 2023 e si protrarrà sino all’inizio di LS3
previsto per il 2026. L’assemblaggio delle 130 camere RPC-BIL sarà
svolta presso i laboratori del CERN. Ciascuna fase dell’assemblaggio
è seguita da test di qualità. In particolare i singoli
rivelatori di ciascuna camera (singoletti) vengono inseriti in una
stazione di test tracciante per raggi cosmici. La stazione consente di
misurare l’efficienza di rivelazione punto per punto e della
percentuale di streamer in funzione della tensione di lavoro. Le
camere di trigger della stazione sono i rivelatori RPC di ATLAS. La
torre quindi integra sia il sistema esistente di ATLAS che i
rivelatori di fase 1 e fase 2, e si pone sia come sistema di
validazione dei singoli rivelatori e delle camere complete che sistema
di studio per l’integrazione delle due tecnologie. In questa lavoro
vengono presentati i primi risultati e le potenzialità di questo
sistema di test.
L'esperimento CMS sarà profondamente aggiornato in vista della fase di alta luminosità di LHC (HL-LHC) entrando nella Fase II. Il tracciatore interno verrà completamente sostituito con uno capace di poter sostenere l'alto livello di radiazioni previsto per HL-LHC. Al fine di alimentare il tracciatore, diminuendo il materiale passivo e limitando i danni da radiazione, un nuovo schema basato sull'alimentazione seriale è stato sviluppato, coadiuvato da un read-out disegnato per poter lavorare ad alta lunghezza d'onda. Per verificare che le componenti si comportino come atteso quando combinate insieme si fanno dei test di sistema, o system test. I più recenti sviluppi sul system test di TBPX, contenenti la meccanica prototipale, i prototipi finali dei rivelatori e del read-out, saranno discussi in termini di soglia e rumore. Sarà presentato anche uno studio sul comportamento in funzione della potenza di alimentazione e saranno presentati i più recenti risultati ottenuti con il prototipo finale del read-out.
Una nuova era di collisioni adroniche inizierà intorno al 2029 con High-Luminosity LHC, che consentirà di raccogliere dieci volte più dati rispetto a quelli raccolti negli ultimi 10 anni di operatività. Questo sarà ottenuto con una luminosità istantanea più elevata, al prezzo di un numero maggiore di collisioni per bunch crossing. Per resistere alle elevate dosi di radiazioni previste e alle difficili condizioni di presa dati, l'elettronica di readout del calorimetro ad argon liquido di ATLAS sarà aggiornata. La catena dell’elettronica di readout è composta da quattro componenti principali. Le nuove schede front-end permetteranno di amplificare, modellizzare e digitalizzare il segnale di ionizzazione del calorimetro con due guadagni sovrapposti con un range dinamico di 16 bit e una precisione di 11 bit. È richiesto un rumore al di sotto del MIP, ad esempio al di sotto di 120 nA per un peaking time di 45 ns, e una non linearità massima del due per mille. Per soddisfare questi requisiti, sono in fase di sviluppo preamplificatori e shaper custom utilizzando tecnologie CMOS a 65 nm e 130 nm. Questi dispositivi devono essere stabili sotto irraggiamento fino a 1.4 kGy (TID) e 4.1 × 1013 neutroni/cm2 (NIEL). Sono stati sviluppati due ASIC preamp-shaper concorrenti e "ALFE", il migliore, è stato scelto. Verranno presentati i risultati dei test di questa ultima versione del chip. Inoltre è in fase di progettazione anche un nuovo chip ADC, chiamato "COLUTA". È in fase di preparazione un setup di test di produzione e sono in corso i test di integrazione dei diversi componenti (inclusi i link lpGBT sviluppati dal CERN) su una scheda front-end a 32 canali e saranno mostrati i risultati di questa integrazione. Le nuove schede di calibrazione permetteranno la calibrazione di tutti i 182.468 canali del calorimetro su una gamma dinamica di 16 bit. Si potrà ottenere una non linearità dell’ un per mille e una non uniformità tra i canali dello 0,25% con un tempo di salita dell’impulso inferiore a 1 ns. Inoltre, gli ASIC di calibrazione custom, devono essere stabili sotto irraggiamento alle stesse dosi degli ASIC preamp-shaper e ADC. E’ stata utilizzata la tecnologia HV SOI CMOS XFAB 180nm per l'ASIC "CLAROC", mentre è stata utilizzata la tecnologia TSMC 130 nm per la parte DAC, "LADOC". Saranno presentate le ultime versioni di questi 2 ASIC che hanno recentemente superato la Production Readiness Review. I dati del rivelatore a 40 MHz saranno ricevute da nuove schede di elaborazione del segnale in standard ATCA ("LASP"), dove le FPGA, collegate tramite link ad alta velocità lpGBT, eseguiranno la ricostruzione di energia e tempo. In totale, l'elettronica off-detector riceve 345 Tbps di dati tramite 33.000 link a 10 Gbps. Per la prima volta, si considererà in queste FPGA, l'utilizzo di tecniche di machine learning online. Un sottoinsieme dei dati originali viene inviato con bassa latenza al sistema di trigger hardware, mentre i dati completi vengono memorizzati in un buffer fino alla ricezione dei segnali di accettazione del trigger. Saranno mostrati l'ultimo stato di sviluppo della scheda e del firmware.
La sensibilità e l’operabilità dei rivelatori interferometrici avanzati per la ricerca di onde gravitazionali sono fortemente limitate dalla presenza di aberrazioni ottiche dovute sia a difetti intrinseci (o freddi) che ad effetti termici che deteriorano la configurazione ottica nominale dello strumento; questi ultimi in particolare sono intensificati all’aumentare della potenza del laser in ingresso all’interferometro poiché causati dalla percentuale di potenza assorbita dagli specchi che formano le cavità Fabry-Perot dell’interferometro. Il sistema di compensazione termica (TCS) dell’interferometro Advanced Virgo è tanto complesso quanto versatile ed ha un duplice scopo: caratterizzare e poi correggere le suddette aberrazioni ottiche. L’installazione e l’integrazione del sistema di compensazione termica sono il frutto di numerosi anni di studio ed esperienza nella progettazione di attuatori termici e nell’implementazione di strategie specifiche per la messa a punto del sistema. Gli effetti termici allo stato attuale vengono monitorati mediante l’utilizzo di molteplici configurazioni atte a misurare le aberrazioni ottiche accumulate da fronti d’onda di fasci-sonda: effetti termici come quello termo-elastico e quello termo-ottico vengono poi corretti con appositi attuatori. Le varie fasi di messa a punto del sistema di compensazione termica che si sono succedute negli anni sono state un’occasione estremamente proficua per comprendere a fondo le caratteristiche di questi effetti termici e le strategie per compensarli con la maggiore accuratezza possibile. La presentazione tratterà le caratteristiche del sistema di compensazione termica progettato ed attualmente installato nell’interferometro Advanced Virgo, illustrandone gli scopi, le funzioni ed i risultati ottenuti in seguito alla sua applicazione.
The second China Seismo-Electromagnetic Satellite (CSES-02) aims to deepen our understanding of the Earth magnetosphere and explore the time correlation between variation in the electron flux in the Inner Van Allen belts and geophysical phenomena like earthquake shocks.
For this purpose, the high energy particle detector (HEPD-02) on board CSES-02 is the first space experiment to feature a MAPS-based tracker that is implemented by using ALTAI chips developed in the framework of the ALICE (A Large Ion Collider Experiment) Inner Tracking System at CERN.
In this contribution, the assembly and quality test procedure of the tracker modules will be presented as well as an overview of the whole spatialization process.
A search for the Sigma+ -> p mu+ mu- decay at the LHCb experiment is presented.
This is a flavour changing neutral current sensitive to physics beyond the Standard Model, which could modify it's properties.
In particular the HyperCP experiment years ago presented an evidence of this decay with a hint of a possible unknown intermediate particle.
This was excluded by LHCb already in 2018. A new measurement, exploiting Run 2 data, is sensitive to a highly significant observation and a measurement of its integrated and differential branching fraction. This would be the rarest baryon decay ever observed.
Additionally, the sensitivity of these observables to Chiral Perturbation Theory parameters will be discussed.
Finally prospects for additional observables, such as a CP violation measurement, will also be presented.
La ricerca di coppie di bosoni di Higgs, prodotti a LHC, è un passo fondamentale per lo studio e la comprensione del potenziale del campo di Higgs, responsabile della rottura spontanea di simmetria elettro-debole. Infatti, l’osservazione di questo raro fenomeno permetterebbe di misurare l’accoppiamento tri-lineare di bosoni di Higgs e, conseguentemente, di avere una stima del termine cubico del potenziale.
Tuttavia, a causa del basso numero di eventi attesi, una delle attività principali attuali è sviluppare ed ottimizzare algoritmi di analisi volti ad aumentare la sensitività degli esperimenti.
In questo contributo saranno esposti l’implementazione ed alcuni risultati di un algoritmo molto promettente impiegato nel canale di decadimento di due bosoni di Higgs in coppie di fotoni e b-jets ad ATLAS basato su un fit cinematico. Questi è infatti in grado di migliorare la risoluzione della componente adronica del decadimento grazie all’imposizione di vincoli cinematici sui singoli eventi così da migliorare la capacità di rigettare il fondo gamma-gamma non risonante, consentendo di determinare intervalli di confidenza più stringenti sul parametro di accoppiamento tri-lineare.
La ricerca di anti-deuterio nei raggi cosmici permette di affrontare problemi di fisica fondamentale, come la natura della materia oscura o la presenza di antimateria primordiale.
Il progetto PHeSCAMI (Pressurized Helium Scintillating Calorimeter for AntiMatter Identification) ha come obiettivo l'identificazione di anti-deuterio nei raggi cosmici, sfruttando l'esistenza di annichilazioni ritardate ($\sim \mu $s) attese in un bersaglio di elio pressurizzato.
La tecnica proposta permette l'identificazione della natura della particella mediante il confronto tra la misura della velocità in un rivelatore di tempo di volo e la misura calorimetrica dell'energia cinetica residua. Il segnale di annichilazione ritardata in elio permette di determinare la natura dell'antiparticella e di distinguere un anti-protone da un anti-deuterio grazie al diverso numero di secondari emessi.
In questo contributo si presentano le caratteristiche di un possibile rivelatore di grande accettanza, basato sulla tecnica proposta nel progetto PHeSCAMI, finalizzato alla ricerca di anti-deuterio mediante volo su pallone stratosferico circum-polare.
L’esperimento NA62 al Super Proton Synchrotron (SPS) del CERN è stato progettato per misurare il rapporto di decadimento del canale ultra-raro $K^+ \rightarrow \pi^+ \nu \bar\nu$ ($BR = (8.60 \pm 0.42) \times 10^{-11}$). Lo spettrometro che fornisce la misura del momento e della direzione delle particelle del fascio di adroni entrante, che fluisce a 750 MHz, è un rivelatore a pixel di silicio, il GigaTracker (GTK). La gestione del pile up e del matching temporale e di ricostruzione del vertice tra $K^+$ e pioni prodotti nei decadimenti è di importanza cruciale per la riuscita delle analisi dell'esperimento.
In questo studio, viene mostrata l’applicazione di una rete neurale a grafo sui dati di NA62 al fine di ricostruire le tracce delle particelle nelle quattro stazioni del GTK. Il problema viene formulato come una classificazione binaria degli archi di un grafo dove i nodi rappresentano gli hit delle particelle nelle stazioni. La strategia proposta permette di imporre vincoli geometrici basati sulla conoscenza fisica dell’esperimento e notevole flessibilità rispetto al numero di particelle presenti in ciascun evento. I risultati mostrano efficienza e purezza elevate permettendo di ricostruire delle traiettorie senza ambiguità. L’aggiunta di ulteriori componenti mirerà a produrre traiettorie univoche per ciascuna particella e garanzie sulla certezza delle predizioni.
Primordial black holes (PBHs) could have been formed in the very early Universe from large amplitude perturbations of the metric. Their formation is naturally enhanced during phase-transitions, because of the softening of the equation of state, from the electron weak transition, corresponding to PBHs as CDM candidate, till the Nucleosynthesis, when the PBHs formed could be the seeds of SMBHs. The quark-hadron phase in particular has received lots of attention recently, with a characteristic scale between 1 and 3 solar masses and the abundance of PBHs significantly increased. Performing detailed numerical simulations we have computed the modified mass function for such black holes, showing that the minimum of the QCD transition works as an attractor solution. Making then a confrontation with the LVK phenomenological models describing the GWTC-3 catalog, we have found that a sub-population of such PBHs formed in the solar mass range is compatible with the current observational constraints and could explain some of the interesting sources emitting gravitational waves detected by LIGO/VIRGO in the black hole mass gap, such as GW190814, and other light events.
L’esperimento LHCf (Large Hadron Collider forward) rivela particelle neutre prodotte nella regione forward nelle collisioni a LHC. Le misure di LHCf contribuiscono alla validazione di modelli di interazione adronica, utilizzati nelle simulazioni degli sciami atmosferici generati da raggi cosmici di alta energia. LHCf ha due rivelatori, Arm1 e Arm2, ciascuno dei quali costituito da due torri calorimetriche a imaging, in cui si sviluppa lo sciame generato dalle particelle neutre. Grazie a un sistema di piani traccianti, è possibile ricostruire il profilo trasverso dello sciame a diverse profondità nelle torri calorimetriche. Il sistema tracciante di Arm2 è realizzato con piani di rivelatori a microstrisce di silicio, la cui elettronica di front end è costituita dai chip PACE3.
L'elevata statistica acquisita in occasione delle collisioni protone-protone a 13.6 TeV durante il Run III consentirà all'esperimento di misurare nuovi canali di produzione in avanti. Tra questi, è di particolare interesse il $\text{K}^0_{\text{S}}$, ricostruito attraverso la rivelazione simultanea dei quattro fotoni originati dal suo decadimento. Data l'elevata molteplicità di particelle nel calorimetro, la ricostruzione dell'evento è particolarmente complessa ed è necessario usare l'informazione dei piani traccianti non solo per ricostruire il punto di impatto, ma anche per ricostruire l'energia. A questo scopo è dunque fondamentale condurre una caratterizzazione accurata della curva di risposta dei chip PACE3 con apposite procedure di calibrazione. Nel poster saranno presentate le procedure di calibrazione utilizzate per studiare la non linearità e la saturazione dell’elettronica di front end e verranno proposte le soluzioni impiegate per correggere il segnale campionato in tali condizioni.
Il decadimento del bosone di Higgs in due fotoni permette la misura dettagliata della sezione d’urto di produzione nei vari meccanismi di produzione, sia fiduciale, che differenziale in diverse variabili cinematiche, grazie a un’eccellente risoluzione in massa invariante dello stato finale, e al suo BR relativamente grande. Questo permette di studiare la possibile presenza di fisica oltre il Modello Standard in regioni cinematiche ad alto impulso del bosone di Higgs, o alta molteplicita’ di jet, o in canali di produzione rari. Inoltre, poiché il Modello Standard prevede precisamente queste sezioni d’urto una volta fissata la sua massa, la sua misura di precisione, insieme a quella degli accoppiamenti alle altre particelle, rappresenta un suo test fondamentale.
La misura di sezione d'urto open charm costituisce un test fondamentale per la verifica della QCD perturbativa. Recentemente, diversi risultati sperimentali mostrano una violazione dell'assunzione di universalità della frammentazione del quark charm, risultando in una dipendenza dell'adronizzazione dal processo di produzione e dal momento dell'adrone. L'esperimento CMS ad LHC, sebbene non pensato per fare fisica del sapore, è attivo in questo campo con risultati già pubblici o in preparazione con l'obiettivo di estrapolare la sezione d'urto totale in funzione dell'energia del centro di massa. A questo scopo, il canale che offre il miglior rapporto segnale/rumore è il decadimento del mesone D* in D^0 pi. In questo contributo verrà presentata la strategia di ricostruzione dei mesoni charmati in CMS, dalla ricostruzione del segnale alla separazione dei contributi secondari dovuti al decadimento degli adroni B, fino alla misura di sezione d'urto. In particolare, verranno discussi i primi risultati con dati raccolti a 900 GeV nel Run III in corso.
La Muografia è una tecnica che utilizza i muoni provenienti dai raggi cosmici per investigare ambienti altrimenti difficili da raggiungere. Questa tecnica offre diversi vantaggi, tra cui l'assenza di acceleratori per generare le particelle che interagiscono con il bersaglio in esame. Si tratta di una tecnica non invasiva, sia per l'uomo che per l'oggetto osservato. Inoltre, grazie alla capacità dei muoni di penetrare materiali densi su lunghe distanze, è adatto per studiare strutture di grandi dimensioni come miniere, colline e piramidi, nonché materiali altamente densi come contenitori di rifiuti radioattivi e altiforni.\newline
In questo studio viene presentata una applicazione di questa tecnica alle miniere del Temperino. \newline
Generalmente l'individuazione di cavità tramite una radiografia muonica, si basa su un metodo visivo. In questo lavoro viene mostrato come tramite l'utilizzo di una rete neurale di tipo UNet, si è in grado di individuare e contornare queste cavità. Questo permette di definire una percentuale di precisione nella individuazione di queste cavità, passando così da una identificazione soggettiva ad una oggettiva. Oltre a questo si ha anche a disposizione informazioni più dettagliate sulla forma e sulla grandezza di queste ultime. \newline
La combinazione della radiografia muonica con l'uso di di una rete neurale di tipo UNet, mostra il suo grande potenziale come strumento per l'esplorazione del sottosuolo e gli studi geologici, fornendo un approccio più accurato e affidabile per il rilevamento e la caratterizzazione delle cavità.
Con il programma di alta luminosità del Large Hadron Collider (HL-LHC) il rivelatore ATLAS sarà sottoposto a severi livelli di radiazione, per questo motivo il sistema tracciante del rivelatore sarà interamente sostituito con un nuovo tracciatore completamente al silicio: l'Inner Tracker (ITk). Il rivelatore avrà 5 layer di moduli a pixel, organizzati in tre parti meccaniche indipendenti. L'Inner System (IS) includerà i due layer più vicini alla beam pipe ed è pensato per essere interamente sostituito a metà del programma di alta luminosità, quando i moduli a pixel avranno raggiunto una fluenza vicina a 2$\cdot$10$^{16}$ n$_{eq}$/cm$^2$ (considerando un safety factor di 1.5). Sensori a pixel fabbricati con tecnologia 3D sono stati scelti per il layer più interno del rivelatore. Tale tecnologia permettere di realizzare sensori estremamente resistenti alla radiazione e li rende ottimi canditati per la parti del tracciatore esposte a fluenza maggiore. In questo talk verranno presentati i recenti risultati riguardanti le performance dei sensori 3D scelti per ITk, tali sensori sono stati testati inizialmente presso il laboratori della sezione INFN di Genova e successivamente su fascio presso il CERN. Il talk inoltre presenterà i risulati sull'assemblaggio e test in laboratorio dei primi moduli di pre-produzione.
The LHCb experiment aims to operate in the harsh conditions imposed by the High-Luminosity run of the LHC, corresponding to a peak instantaneous luminosity of 1.5 x 10$^{34}$ cm$^{-2}$ s$^{-1}$. Elevated resistance to radiation, increased granularity and the capability to measure the time of arrival of particles with a resolution of a few tens of picoseconds will be fundamental for all subdetectors. In the case of the electromagnetic calorimeter (PicoCal) the candidate technologies are Spaghetti Calorimeter (SpaCal) with either crystals or plastic fibres as active and light-transport material, and either tungsten or lead as absorber, and Shashlik with polystyrene tiles, lead absorber and fast WLS fibres. The inclusion of a timing layer based on microchannel plate (MCP) technology has also been studied to reach the ultimate timing precision. A vigorous campaign of R&D and feasibility studies has been conducted in the last years, using accurate simulations, laboratory tests and beam tests at DESY and CERN facilities. Good energy resolutions scaling as $10\%/\sqrt{E}$ was achieved. Time resolutions range from about 20-30 ps for 5-GeV electrons to about 10 ps for 100-GeV electrons. The program has also led to a spin-off project aiming to realise MCP photomultiplier with picosecond time capabilities and much increased lifetime of the photocathode with respect to currently available devices. Details of the various technologies, experimental setups and relevant results will be shown and discussed.
I momenti di dipolo magnetici ed elettrici delle particelle fondamentali sono strumenti preziosi per studiare la fisica del Modello Standard e per compiere esplorazioni oltre di esso. Tuttavia, l’accesso sperimentale a questi momenti per le particelle di breve durata è stato difficile a causa della loro breve vita. Presentiamo nuove tecniche sperimentali progettate per misurare direttamente i momenti di dipolo elettromagnetici dei barioni con charm, e potenzialmente anche per il leptone tau, al Large Hadron Collider (LHC). Il test sperimentale è previsto per il 2025 nella regione IR3 dell'LHC e mira a dimostrare la fattibilità di un esperimento a bersaglio fisso utilizzando cristalli piegati. Questo test serve a convalidare la metodologia proposta e a stabilire le basi per un futuro esperimento per i momenti di dipolo di barioni con charm. Discuteremo le prospettive per un esperimento futuro e la sensibilità prevista in diversi scenari di luminosità.
Tra il 2024 e il 2029, il collider protone-protone LHC, presso il CERN, verrà sottoposto a molteplici interventi di upgrade volti a incrementare di un fattore 3.5 la luminosità istantanea di picco. Al fine di superare le complicazioni indotte da tale luminosità, l’esperimento ATLAS sarà equipaggiato con nuovi rivelatori e il primo livello di trigger (Level-1 Trigger) hardware-based sarà rinnovato (Level-0 Trigger).
L’upgrade per High-Luminosity LHC del sistema L0Muon di ATLAS prevede l’utilizzo di Field Programmable Gate Arrays (FPGAs) per eseguire rapidi algoritmi di trigger. In particolare, le schede della Sector Logic della regione di Barrel combineranno gli hit provenienti dai detector RPC e dal Tile Calorimeter, fornendo candidati muonici con una latenza di poche centinaia di nanosecondi.
Inoltre, la nuova geometria dello spettrometro a muoni, ottenuta mediante l’aggiunta di nuove stazioni BI di RPC, combinata con le elevate prestazioni delle FPGA, consente di vagliare differenti approcci per la logica di trigger: metodi geometrici, reti neurali, matching con pattern precalcolati (look-up table).
Si presenterà nello specifico lo sviluppo e l’ottimizzazione dell’algoritmo di pattern matching, confrontando i risultati ottenuti con quelli delle altre logiche proposte.
ATLAS Open Data è una iniziativa volta a rendere accessibili dati, simulazioni e risorse documentali dell’esperimento ad un ampio pubblico, in accordo con la policy Open Data del CERN.
Il progetto ha visto il rilascio di numerosi dataset di collisioni protone-protone ad energie del centro di massa di 8 TeV e 13 TeV raccolti ad LHC durante Run-1 e Run-2, permettendo di investigare fenomeni tipici della fisica delle alte energie.
Al fine di favorirne la diffusione, i dati sono condivisi in formati accessibili e di comune utilizzo. Inoltre, sono accompagnati da software e interfacce web pensati per una fruizione semplice, senza bisogno di installazioni o scrittura di codice da parte dell’utente.
L’obiettivo è duplice. Da un lato promuovere queste attività in contesti divulgativi ed educativi, come Summer School, Masterclass, progetti universitari, nonché varie iniziative all’interno della stessa Collaborazione ATLAS.
Dall’altro, rendere accessibile la ricerca in fisica delle alte energie ad un audience interdisciplinare, coinvolgendo esperti da altri settori per beneficiare delle loro competenze, per esempio machine learning, computer science.
In questo contributo, viene fornita una panoramica delle risorse di ATLAS Open Data, con esempi concreti su come possono essere utilizzate per promuovere l'educazione scientifica e la ricerca nel campo della fisica delle particelle.
In questo contributo, viene presentata una panoramica sui materiali di ATLAS Open Data disponibili e su come possono essere usati per fini di educazione e ricerca. Le informazioni sulle risorse a disposizione sono raccolte in un nuovo sito web dedicato, realizzato alla fine del 2023 e tuttora in fase di perfezionamento.
Nell’Esperimento ATLAS, i jet leggeri (ovvero provenienti da quark up, down e strange) erroneamente identificati come b-jet costituiscono un’importante fonte di incertezza sistematica per numerose analisi di fisica nel settore del quark top e nella ricerca di risonanze ad alta massa. Risulta pertanto fondamentale la determinazione del rateo e dell’efficienza di errata identificazione dei jet leggeri con jet di sapore pesante (bottom o charm).
La calibrazione dei jet da quark leggeri risulta essere un’importante sfida sperimentale. Infatti, una volta applicato un algoritmo di selezione dei jet provenienti da adronizzazione di quark b (b-jets). il campione di dati filtrati contiene un numero di jet leggeri troppo basso per poter estrarre l’efficienza di errata identificazione dei questi ultimi a partire dai dati. Tale problema risulta amplificato dalle ottime prestazioni dei moderni algoritmi usati in ATLAS, basati su reti neurali profonde (DL1r, DL1d) e grafiche (GN2), a causa dell’elevata performance nell’identificazione di b-jets. Una soluzione impiegata per ovviare al problema della bassa statistica dopo la selezione dell’algoritmo consiste nel “tagging negativo”, che prevede di arricchire artificialmente il campione di dati in Z+jets mediante inversione di segno del parametro d’impatto delle tracce associate ai jet stessi.
In questo contributo, vengono illustrate le caratteristiche degli algoritmi e delle strategie adoperate nella calibrazione dei jet leggeri, con una particolare attenzione alla principale calibrazione svolta con eventi Z+jets. Sono infine discussi i più recenti risultati ottenuti per Run 2 e Run 3 (per gli anni 2022 e 2023), i quali rientreranno nelle raccomandazioni fornite alle varie squadre di analisi da parte del gruppo di Flavour Tagging previste per metà aprile.
Il progetto PHeSCAMI (Pressurized Helium Scintillating Calorimeter
for AntiMatter Identification) ha come obiettivo l’identificazione di anti-deuterio
nei raggi cosmici, sfruttando l’esistenza di annichilazioni ritardate (∼ μs) attese
in un bersaglio di elio pressurizzato. La tecnica si basa sulla misura del segnale
di scintillazione dell’elio (80 nm) che richiede una conversione WLS (Wave-
Length Shifter) a due stadi. In questo contributo si presentano le misure di
test del secondo stadio WLS, basato sul materiale FB118 caratterizzato da una
bassa scintillazione residua. Saranno discussi i possibili utilizzi anche come come
rivelatore Cherenkov compatto.
La natura dei neutrini è ancora sconosciuta: potrebbero essere fermioni di Dirac o di Majorana. Un processo che, se osservato, dimostrerebbe che i neutrini sono particelle di Majorana è il doppio decadimento beta senza neutrini ($0\nu\beta\beta$), non previsto dal Modello Standard, che viola la conservazione del numero leptonico. La sua firma sperimentale è un picco nitido all'estremità dello spettro del doppio beta ($Q_{\beta\beta}$); la strategia quindi consiste nel raccogliere lo spettro della somma delle energie dei due elettroni emessi e nel minimizzare il rumore di fondo nella regione di $Q_{\beta \beta}$.
In questa presentazione verrà illustrato il progetto LEGEND, per la ricerca del $0\nu\beta\beta$ nel $^{76}$Ge. La tecnica si basa su rivelatori di germanio ad alta purezza (HPGe) che servono sia come sorgente dell'isotopo in decadimento sia come rilevatori per gli elettroni emessi. Per aumentare l’esposizione dell’esperimento i cristalli di germanio sono arricchiti in $^{76}$Ge oltre il 90%. Il $Q$-value per il $0\nu\beta\beta$ in $^{76}$Ge è di 2039 keV, e i rilevatori di Ge offrono un’ottima risoluzione energetica, scendendo al di sotto dei 3 keV di FWHM a $Q_{ββ}$.
L'esperimento LEGEND (Large Enriched Germanium Experiment for Neutrinoless double beta Decay) è attualmente nella prima fase, in cui il detector LEGEND-200 sta prendendo dati di fisica presso i Laboratori Nazionali del Gran Sasso. In questa fase si vuole arrivare ad una sensitività per il $^{76}$Ge di 10$^{27}$ anni, mentre nella successiva fase LEGEND-1000 arrivare a 10$^{28}$ anni.
Per raggiungere la sensibilità di progetto sulla vita media del $0\nu\beta\beta$ è necessario sopprimere quanto più possibile i fondi radioattivi e cosmogenici. A questo scopo LEGEND-200 utilizza una strategia combinata basata su Pulse Shape Discrimination e due veti attivi: un veto per muoni ed un veto ad argon liquido.
Il talk si concentrerà dunque sugli aspetti tecnologici e le strategie per la riduzione dei fondi in vista di LEGEND-1000 e mostrerà i primi risultati di LEGEND-200.
From recent observations it became clear that medium-low energy (i.e. ~keV-MeV) gamma-rays are powerful probes for the extreme Universe. Nevertheless this energy range is still underexplored. For this reason it is necessary to design new detectors optimized for the medium-low energy range. One of the proposed novel detection techniques is the one adopted by Crystal Eye. Crystal Eye is a new all-sky monitor using an up-to-date technology that includes a wide Field Of View, a good sky localization capability and a large effective area. This detector has a configuration which allows it to catch gamma-rays from 10 keV to 30 MeV.
Today the research group is working at several levels to this application: a Crystal Eye prototype for the Space Rider mission, the Crystal Eye full scale detector design and the use of the Crystal Eye detection technique in the calorimeter of the Zirè payload for the NUSES mission. For a Crystal Eye prototype LYSO crystals from different manufactures and with different treatment of the surfaces were used.
In this talk, I will present the characterization and test of several scintillators. These tests provide indications to fix some parameters of Crystal Eye to optimize its design. I will present simulation results for the prototype background mission and full detector, focusing on the effective area and sensitivity.
Il futuro collisore circolare elettrone-positrone (FCC-ee) sta ricevendo molta attenzione nel contesto dello studio di fattibilità per il progetto FCC attualmente in fase di avanzamento. Questo è un documento fondamentale in vista del prossimo aggiornamento della strategia dell’UE. In questa relazione vogliamo descrivere IDEA, un concetto di rivelatore ottimizzato per FCC-ee e composto da un rivelatore di vertice basato su DMAPS, una camera di deriva molto leggera, un involucro di silicio, un calorimetro a doppia lettura all'esterno di un sottile solenoide da 2 Tesla e camere per muoni all'interno del giogo del magnete. In particolare si discutono i requisiti fisici e le soluzioni tecniche scelte per affrontarli. Saranno presentate anche alcune possibili varianti studiate per estendere e migliorare ulteriormente le capacità fisiche di IDEA, come un calorimetro elettromagnetico a cristalli di grande precisione. Saranno quindi descritti gli studi attualmente in corso per la ricerca e sviluppo del rilevatore e le prestazioni attese su alcuni parametri chiave di riferimento.
DUNE è un esperimento di nuova generazione per la fisica del neutrino, attualmente in costruzione negli Stati Uniti. Il complesso del Near Detector di DUNE ha tra i suoi principali obiettivi quello di limitare le incertezze sistematiche, in modo da assicurare la precisione necessaria per la misura dei parametri di oscillazione. SAND, uno dei tre sistemi che comporrà il Near Detector di DUNE, permetterà di controllare la stabilità del fascio e di condurre misure di sezione d'urto di neutrini su diversi nuclei. SAND è costituito da un magnete superconduttore da $0.6$ T combinato con un calorimetro elettromagnetico in piombo e fibre di scintillatore. Il volume magnetizzato ospiterà un tracciatore a bassa densità basato su rivelatori a gas (Straw Tube Tracker) e piani sottili ($1-2\%$ $X_0$) di diversi materiali bersaglio, combinando una massa relativamente elevata (circa 5 t) con alte risoluzioni su impulso e posizione. Sfruttando bersagli alternati in $\text{CH}_2$ e carbonio puro sarà possibile ottenere un campione di interazioni $\nu(\bar{\nu})-\text{H}$ CC con statistica elevata. In questa comunicazione viene descritto il programma di fisica basato sul tracciatore di SAND e viene presentato lo stato attuale delle attività di progettazione, analisi e lo sviluppo di prototipi in scala ridotta.
L'esperimento DAMPE (DArk Matter Particle Explorer) misura i raggi cosmici dallo spazio, muovendosi in un'orbita eliosincrona attorno alla Terra sin dal suo lancio, avvenuto nel Dicembre del 2015. Lo studio dei raggi cosmici galattici in un intervallo di energia da decine di GeV fino a centinaia di TeV è uno dei principali obiettivi scientifici della missione. La misura dello spettro in energia dei nuclei secondari litio, berillio e boro offre informazioni fondamentali per migliorare la nostra comprensione della propagazione dei raggi cosmici nella Galassia. In questo intervento verranno presentate l'analisi e i risultati riguardanti gli spettri energetici di litio, berillio e boro misurati con l'esperimento DAMPE assieme ai rapporti dei flussi di questi elementi con il carbonio, nucleo primario.
Il ferro riveste una grande importanza nei raggi cosmici, poiché fra gli elementi pesanti è quello più abbondante, permettendo quindi misure con adeguata statistica sino ad energie relativamente alte.
Lo spettro energetico dei nuclei cosmici di ferro è stato studiato usando i dati raccolti fra il 2016 e il 2022 da DAMPE (DArk Matter Particle Explorer).
Grazie alle caratteristiche di DAMPE, e.g. un calorimetro molto profondo e un' accettanza molto alta, è possibile raggiungere energie significativamente più alte rispetto agli altri esperimenti che si occupano di misure dirette di raggi cosmici.
A queste energie inoltre possibile determinare la presenza di eventuali strutture nello spettro.
Risultati preliminari verranno presentati e discussi, insieme alle strategie di analisi dei dati.
Il progetto INFN "OREO" (ORiEnted calOrimeter) ha come obbiettivo lo sviluppo di un prototipo di calorimetro elettromagnetico composto da cristalli orientati di PbWO$_4$ accoppiati a fotomoltiplicatori al silicio (SiPM). L'idea di questo progetto nasce dall'osservazione che lo sciame indotto da fotoni, elettroni e positroni di alta energia ($\gtrsim 10$ GeV) incidenti entro $\sim$ 0.5$^\circ$ da uno degli assi di un cristallo orientato si sviluppa in uno spazio molto più ridotto del normale. Pertanto, un calorimetro orientato sarebbe capace di contenere una frazione significativamente più alta dell'energia delle particelle incidenti, rispetto a un rivelatore con lo stesso spessore ma composto da cristalli non orientati. Inoltre, dal momento che l'orientazione del reticolo cristallino non modifica le interazioni adroniche, questo rivelatore sarebbe capace di discriminare più efficientemente gli elettroni, i positroni e i fotoni dagli adroni. Questo contributo intende presentare lo stato attuale del progetto OREO e discutere i più recenti sviluppi nella simulazione numerica (con una versione modificata di Geant4) e nell'assemblaggio del prototipo di rivelatore. Saranno poi presentati i risultati ottenuti in test preliminari svolti al CERN con fasci di elettroni e adroni di alta energia (da 6 a 120 GeV). Infine, saranno discusse le potenziali applicazioni di un calorimetro elettromagnetico ultracompatto ad alta performance basato su questo prototipo nell'ambito degli esperimenti futuri a targhetta fissa alle alte intensità, nelle regioni forward dei futuri collider e nell'astrofisica gamma di alta energia su satellite.
Since the arrival directions of neutral particles point directly to their origin, they can be used to investigate sources of ultra-high-energy cosmic rays (UHECRs). The emission of UHECRs from a source is expected to be accompanied by the production of neutrons in its vicinity in nuclear interactions and via photo-pion production. Free neutrons undergo $\beta$-decay and travel a mean distance of 9.2$\times (E$/EeV) kpc. Therefore, neutron fluxes in the EeV range could be detected on Earth from sources of UHECRs in our Galaxy. Using cosmic ray data from the Surface Detector of the Pierre Auger Observatory, the largest cosmic ray experiment facility in the world, we investigate neutron fluxes from Galactic candidate sources. Since we cannot distinguish between air showers initiated by protons and neutrons, a neutron flux could be identified as an excess of cosmic ray events around the direction of the candidate source. We look for excesses by comparing the observed signal with the background contribution. As candidate sources, we select objects of astrophysical interest, such as pulsars, microquasars, and magnetars. We also consider the Galactic center and the Crab Nebula as targets, as well as a subset of the $\gamma$-ray emitters detected by LHAASO. We consider cosmic ray events with declinations from $-90^{\circ}$ up to $+45^{\circ}$ and energies starting at 0.1 EeV. Although we do not find evidence of a significant excess of events that could indicate a neutron flux from any of the tested targets, we establish the upper limit of the neutron flux in each investigated case.
La simulazione dei rivelatori è una componente fondamentale delle attività di analisi degli esperimenti dell'LHC che impiega notevoli risorse computazionali (60% circa). La parte più onerosa è la simulazione degli shower elettromagnetici e adronici nei calorimetri, che da sola impiega l'80% delle risorse di calcolo impegnate dalla simulazione dei rivelatori. Il carico aumenterà in futuro con l'attivazione dell'High Luminosity LHC. Per tale motivo si sono sviluppate e si stanno sviluppando varie soluzioni per alleggerire questo carico.
La prima è l'introduzione di sistemi di simulazione veloce, capaci di simulare la risposta del rivelatore con maggiore velocità e con minore richiesta di risorse rispetto al sistema di simulazione completa Geant4, garantendo al contempo buona accuratezza. La collaborazione ATLAS ha sviluppato AtlFast3 come sistema di simulazione veloce, che combina un approccio parametrico classico con un sistema di Machine Learning basato su GAN (Generative Adversarial Network). Il sistema è già in produzione con l'attuale run di presa dati dell'LHC.
Un'ulteriore strategia è dispiegare la fase più impegnativa della simulazione veloce, l'addestramento delle GAN di AtlFast3, su infrastrutture di calcolo in aggiunta a quelle tipicamente utilizzate (come il sistema batch del CERN e la Worldwide LHC Computing Grid). Si è dunque sviluppato FastCaloGANtainer, sistema basato su container che permette l'addestramento delle reti neurali su farm High Performance Computing (HPC) come Leonardo (CINECA, Bologna), garantendo l'appropriata indipendenza dal sistema su cui è installato.
In questo contributo sono presentati i sistemi AtlFast3 e FastCaloGANtainer, discutendone i dettagli tecnici e come essi apportino benefici alle attività di simulazione riguardo alle prestazioni di fisica e computazionali, oltre a idee per sviluppi futuri. Per FastCaloGANtainer si confrontano inoltre le prestazioni con differenti configurazioni hardware e software, con o senza GPU, su vari cluster tra cui il supercomputer Leonardo del CINECA, su cui si presenta il primo caso d'utilizzo per l'esperimento ATLAS.
La ricostruzione veloce delle tracce cariche risulta essere il processo più computazionalmente dispendioso nella ricostruzione di eventi in tempo reale a livello di trigger dell’esperimento ATLAS. La natura combinatoria degli algoritmi attualmente in uso implica una crescita significativa del tempo di elaborazione all’aumentare del numero di interazioni simultanee, anche detto pile-up, presenti nell’evento.
La transizione a High Luminosity LHC porterà quindi ad un aumento considerevole delle tempistiche della ricostruzione di tracce a livello di trigger. Per superare questo problema senza compromettere il programma di fisica dell'esperimento, occorrono nuove strategie di trigger che rendano la selezione meno dipendente dal numero di collisioni simultanee. In questo contesto, col mio contributo propongo l’utilizzo di un algoritmo di Machine Learning con lo scopo di filtrare gli hit di pile-up, in modo da ridurre considerevolmente le tempistiche del tracking.
L’architettura utilizzata è quella di una Convolutional Neural Network e la rete viene allenata e testata su un campione di eventi sintetici che ho generato utilizzando un modello semplificato. La rete risulta essere robusta rispetto all’aumento del pile-up, diminuendo il numero di hit di un fattore $30$ al punto di lavoro che preserva il $90\%$ degli hit di segnale. Lo sviluppo futuro di questo lavoro prevede di esplorare tecniche di accelerazione per un’inferenza più veloce e inoltre applicare l’algoritmo a eventi ATLAS.
Il Deep Underground Neutrino Experiment (DUNE) sarà un esperimento di nuova generazione, con lo scopo di studiare l’oscillazione di neutrini. Esso è finalizzato a risolvere quesiti ancora aperti come la definizione di una gerarchia di massa e una possibile violazione di CP nel settore leptonico.
L’esperimento si compone di un Near Detector (ND) e di un Far Detector (FD), ad una distanza di $\sim$1300 km. Il complesso del FD prevede quattro moduli di rivelatore a camere a proiezione temporale ad Argon Liquido. La luce di scintillazione emessa in seguito alle interazioni di neutrino al FD sarà rivelata da un sistema di fotorivelazione immerso in Argon Liquido e composto da collettori di luce accoppiati a fotomoltiplicatori al Silicio (SiPMs).
Questo talk è incentrato sulle attività di test e di validazione dei fotosensori per l'esperimento. I risultati del processo di selezione di SiPMs sono riportati, così come la completa caratterizzazione di questi dispositivi a temperatura ambiente e criogenica (77 K). Sulla base di questi risultati è stata completata la produzione dei SiPMs ora installati nel primo modulo di prototipo di rivelatore (ProtoDUNE, CERN). Si descrive il sistema semi automatico utilizzato per la validazione dei sensori insieme ai risultati ottenuti.
Una campagna di test di tutti i SiPMs ($\sim$300000) che verranno infine installati nel primo modulo del Far Detector di DUNE è attualmente in corso utilizzando il sistema citato e i risultati per i campioni sinora testati sono presentati.
Terza missione: la strategia INFN per il Public Engagement
Invited Talk
20 + 5 min
12 + 3 min
12 + 3 min
DUNE è un esperimento di ultima generazione nella fisica delle oscillazioni di neutrini, ed è attualmente in costruzione negli Stati Uniti, tra il Fermilab, dove verrà generato il fascio di neutrini, e il laboratorio sotterraneo SURF, in South Dakota, sede del Far Detector.
GRAIN (GRanular Argon for Interactions of Neutrinos) è il rivelatore ad Argon Liquido di SAND (System for On-Axis Neutrino Detection), che costituisce parte del complesso del Near Detector di DUNE.
Lo scopo principale di SAND è ridurre le incertezze sistematiche sul flusso di neutrini e sulle sezioni d'urto. In particolare, oltre a controllare la stabilità del fascio, SAND potrà studiare diversi modelli di interazione per i neutrini e allo stesso tempo fornire limiti sugli effetti nucleari grazie ai diversi elementi presenti nella sua struttura ($Ar$, $CH_2$, $C$). Un componente fondamentale di SAND è GRAIN, il quale fungerà da bersaglio di Argon Liquido in grado di rivelare neutrini e particelle a bassa energia, e garantirà una calibrazione incrociata con gli altri componenti del Near Detector.
In questa presentazione verrà descritto l'innovativo sistema di GRAIN per la ricostruzione delle tracce di particelle cariche in LAr, basata sulla rilevazione della luce di scintillazione mediante matrici di SiPM accoppiate a sistemi ottici ottimizzati per il Vacuum Ultra Violet. Sarà inoltre illustrato lo sviluppo di un ASIC criogenico a 1024 canali necessario per la lettura di matrici di SiPM di rango 32x32.
12 + 3 min
12 + 3 min
12 + 3 min
12 + 3 min
12 + 3 min
12 + 3 min
12 + 3 min
12 + 3 min
12 + 3 min
12 + 3 min
Invited Talk
20 + 5 min
12 + 3 min
L’analisi dei dati nell’ambito della Fisica delle Alte Energie presenta le esigenze tipiche dei big data, come la grande mole di dati da processare in maniera efficiente e veloce. Il Large Hadron Collider nella sua fase di alta luminosità produrrà circa 100 PB di dati all’anno, ponendo gli esperimenti di fronte alla necessità di adottare nuove strategie per l’analisi dei dati.
Lo sviluppo di nuovi paradigmi di analisi e di gestione delle risorse, unitamente all’accesso a strumenti open source quali Jupyter, Dask e HTCondor, creano i presupposti per riprogettare l’analisi dei dati a LHC, tradizionalmente basata su batch, con un approccio interattivo con alto throughput che sfrutta il “Centro Nazionale di Ricerca in HPC, Big Data and Quantum Computing” (ICSC) su modello data-lake.
In questo contributo descriveremo il lavoro svolto per portare diverse applicazioni di analisi dati - provenienti da varie collaborazioni per una vasta gamma di processi fisici - da un approccio tradizionale a un approccio interattivo basato su soluzioni dichiarative, come ROOT RDataFrame. Queste applicazioni utilizzano un’infrastruttura cloud, distribuendo in carico di lavoro su più nodi worker, laddove i risultati sono prodotti su una singola interfaccia in maniera trasparente per l’utilizzatore. Verrà inoltre fornita una valutazione delle prestazioni, tramite metriche indicative riscalate alle risorse di ICSC, al fine di individuare eventuali svantaggi dell’approccio interattivo ad alto throughput che proponiamo e fornire indicazioni utili alla sua implementazione su ICSC.
12 + 3 min
12 + 3 min