868 resultados para Massa efetiva (Fisica)


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Il lavoro di tesi svolto si colloca nell’ambito dei sistemi di determinazione del centro di massa di una specifica classe di satelliti definiti, in gergo, microsatelliti. Il metodo concepito è basato su un simulatore di calcolo del centro di gravità, implementato in ambiente MATLAB. Attraverso l’astrazione matematica del modello fisico, di cui si propone un primo concept anch’esso modellato mediante software CAD durante lo svolgimento della tesi, è possibile determinare il centro di massa del corpo in esame. Esso è stato definito come il punto medio del segmento di minima distanza tra due particolari rette. Gli obiettivi fissati presupponevano che tale dispositivo avesse una buona affidabilità, risultasse di semplice realizzazione e di facile utilizzo.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Questa tesi è volta a fornire un contributo conoscitivo alla quantificazione delle interferenze idrogeologiche causate dalla nuova stazione sotterranea del nodo di penetrazione ferroviaria urbana AV di Firenze, situata nei pressi dell’attuale stazione di superficie di Santa Maria Novella, e della verifica del dimensionamento delle opere di mitigazione in progetto. La tesi è effettuata in collaborazione e con il supporto tecnico di ARPAT (Agenzia Regionale per la Protezione Ambientale della Toscana), Sede di Firenze, Direzione Tecnica – Settore VIA/VAS (Valutazione d’Impatto Ambientale/Valutazione Ambientale Strategica). ARPAT è l’organo di supporto tecnico dell’Osservatorio Ambientale costituito per l’opera. La tesi sfrutta, come dati di base, tutti quelli raccolti dai progettisti nelle varie fasi, compresa la determinazione dei parametri idraulici dell’acquifero, ed i dati del monitoraggio ambientale. Il proponente dell’opera è RFI (Rete Ferroviaria Italiana) ed è realizzata e progettata dal consorzio Nodavia (General Contractor). Per l’analisi dell’interferenza idrogeologica causata dal camerone della stazione dell’alta velocità di Firenze è stato utilizzato un duplice approccio: un modello fisico ricostruito in laboratorio; un modello numerico alla differenze finite tramite codice Modflow.. Il modello fisico di laboratorio ha cercato di ricostruire, semplificandolo, il modello concettuale del problema idrogeologico di studio: l’inserimento di una diga totalmente impermeabile, trasversalmente al flusso in un mezzo poroso, attraversata da dreni orizzontali di collegamento monte-valle idrologico. Tale configurazione, anche se non strettamente in scala, ha permesso di definire preliminarmente le condizioni al contorno del sistema ed ha guidato la successiva implementazione del modello numerico. Il modello numerico fa riferimento a condizioni stazionarie. Prima è stato implementato per simulare l’andamento della falda nelle condizioni stazionarie ante-operam (I fase); successivamente è stato utilizzato per simulare l’effetto diga del camerone (II fase) e, come terza fase, per simulare l’effetto delle opere di mitigazione dell’effetto diga rappresentate da dreni sub-orizzontali.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Il seguente lavoro di tesi descrive un modello fisico di nana bianca all'equilibrio partendo da dati empirici tipici per tali stelle. Si schematizza la stella come una sfera di gas He completamente ionizzato di densità uniforme, a temperatura T=const e soggetta ad un potenziale gravitazionale centrale. Il gas si costituisce di una parte degenere relativistica (elettroni) ed una parte classica ideale (gli ioni). Si procede ricavando le relazioni essenziali per determinare le proprietà di un gas di Fermi degenere relativistico, mostrando come, al limite di Boltzmann, descrivano anche il caso classico. La trattazione teorica è progressivamente supportata dalle stime dei parametri caratteristici delle due componenti del gas per verificare le loro condizioni fisiche e stimare l'importanza dei rispettivi contributi all'intero sistema. Si procede quindi all'esposizione dell'equilibrio tra pressione degenere ed attrazione gravitazionale ponendo particolare attenzione alla relazione raggio-massa. Infine si discutono le condizioni entro le quali un sistema fisico con tali caratteristiche può sussistere, con esplicito riferimento al limite di Chandrasekhar.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

In questa tesi si sono studiati e sviluppati i rivelatori di fotoni x per l’esperimento FAMU (Fisica degli Atomi Muonici gruppo 3 dell’INFN) che indaga sulla natura e la struttura del protone. I rivelatori sono stati assemblati e testati con elementi che rappresentano lo stato dell’arte nel campo dei rivelatori di radiazione (scintillatori LaBr3(Ce) e fotomoltiplicatori Hamamatsu™ Ultra Bi-Alcali). È stata anche studiata e sviluppata parte della catena di formatura del segnale. Questa è stata implementata su un chip FPGA dell’ALTERA™ con buoni risultati per quanto riguarda la qualità del filtro; le performance dell’FPGA non hanno consentito di raggiungere la velocità di 500MHz richiesta dall’esperimento costringendo l’implementazione ad una velocità massima di 320MHz.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La sezione d’urto totale adronica gioca un ruolo fondamentale nel programma di fisica di LHC. Un calcolo di questo parametro, fondamentale nell’ambito della teoria delle interazioni forti, non é possibile a causa dell’inapplicabilità dell’approccio perturbativo. Nonostante ciò, la sezione d’urto può essere stimata, o quanto meno le può essere dato un limite, grazie ad un certo numero di relazioni, come ad esempio il Teorema Ottico. In questo contesto, il detector ALFA (An Absolute Luminosity For ATLAS) sfrutta il Teorema Ottico per determinare la sezione d’urto totale misurando il rate di eventi elastici nella direzione forward. Un tale approccio richiede un metodo accurato di misura della luminosità in condizioni sperimentali difficoltose, caratterizzate da valori di luminosità istantanea inferiore fino a 7 ordini di grandezza rispetto alle normali condizioni di LHC. Lo scopo di questa tesi è la determinazione della luminosità integrata di due run ad alto β*, utilizzando diversi algoritmi di tipo Event-Counting dei detector BCM e LUCID. Particolare attenzione è stata riservata alla sottrazione del fondo e allo studio delle in- certezze sistematiche. I valori di luminosità integrata ottenuti sono L = 498.55 ± 0.31 (stat) ± 16.23 (sys) μb^(-1) and L = 21.93 ± 0.07 (stat) ± 0.79 (sys) μb^(-1), rispettivamente per i due run. Tali saranno forniti alla comunità di fisica che si occupa della misura delle sezioni d’urto protone-protone, elastica e totale. Nel Run II di LHC, la sezione d’urto totale protone-protone sarà stimata con un’energia nel centro di massa di 13 TeV per capire meglio la sua dipendenza dall’energia in un simile regime. Gli strumenti utilizzati e l’esperienza acquisita in questa tesi saranno fondamentali per questo scopo.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Oggi sappiamo che la materia ordinaria rappresenta solo una piccola parte dell'intero contenuto in massa dell'Universo. L'ipotesi dell'esistenza della Materia Oscura, un nuovo tipo di materia che interagisce solo gravitazionalmente e, forse, tramite la forza debole, è stata avvalorata da numerose evidenze su scala sia galattica che cosmologica. Gli sforzi rivolti alla ricerca delle cosiddette WIMPs (Weakly Interacting Massive Particles), il generico nome dato alle particelle di Materia Oscura, si sono moltiplicati nel corso degli ultimi anni. L'esperimento XENON1T, attualmente in costruzione presso i Laboratori Nazionali del Gran Sasso (LNGS) e che sarà in presa dati entro la fine del 2015, segnerà un significativo passo in avanti nella ricerca diretta di Materia Oscura, che si basa sulla rivelazione di collisioni elastiche su nuclei bersaglio. XENON1T rappresenta la fase attuale del progetto XENON, che ha già realizzato gli esperimenti XENON10 (2005) e XENON100 (2008 e tuttora in funzione) e che prevede anche un ulteriore sviluppo, chiamato XENONnT. Il rivelatore XENON1T sfrutta circa 3 tonnellate di xeno liquido (LXe) e si basa su una Time Projection Chamber (TPC) a doppia fase. Dettagliate simulazioni Monte Carlo della geometria del rivelatore, assieme a specifiche misure della radioattività dei materiali e stime della purezza dello xeno utilizzato, hanno permesso di predire con accuratezza il fondo atteso. In questo lavoro di tesi, presentiamo lo studio della sensibilità attesa per XENON1T effettuato tramite il metodo statistico chiamato Profile Likelihood (PL) Ratio, il quale nell'ambito di un approccio frequentista permette un'appropriata trattazione delle incertezze sistematiche. In un primo momento è stata stimata la sensibilità usando il metodo semplificato Likelihood Ratio che non tiene conto di alcuna sistematica. In questo modo si è potuto valutare l'impatto della principale incertezza sistematica per XENON1T, ovvero quella sulla emissione di luce di scintillazione dello xeno per rinculi nucleari di bassa energia. I risultati conclusivi ottenuti con il metodo PL indicano che XENON1T sarà in grado di migliorare significativamente gli attuali limiti di esclusione di WIMPs; la massima sensibilità raggiunge una sezione d'urto σ=1.2∙10-47 cm2 per una massa di WIMP di 50 GeV/c2 e per una esposizione nominale di 2 tonnellate∙anno. I risultati ottenuti sono in linea con l'ambizioso obiettivo di XENON1T di abbassare gli attuali limiti sulla sezione d'urto, σ, delle WIMPs di due ordini di grandezza. Con tali prestazioni, e considerando 1 tonnellata di LXe come massa fiduciale, XENON1T sarà in grado di superare gli attuali limiti (esperimento LUX, 2013) dopo soli 5 giorni di acquisizione dati.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

VIRTIS, a bordo di Venus Express, è uno spettrometro in grado di operare da 0.25 a 5 µm. Nel periodo 2006-2011 ha ricavato un'enorme mole di dati ma a tutt'oggi le osservazioni al lembo sono poco utilizzate per lo studio delle nubi e delle hazes, specialmente di notte. Gli spettri al lembo a quote mesosferiche sono dominati dalla radianza proveniente dalle nubi e scatterata in direzione dello strumento dalle hazes. L'interpretazione degli spettri al lembo non può quindi prescindere dalla caratterizzazione dell'intera colonna atmosferica. L'obiettivo della tesi è di effettuare un’analisi statistica sulle osservazioni al nadir e proporre una metodologia per ricavare una caratterizzazione delle hazes combinando osservazioni al nadir e al lembo. La caratterizzazione delle nubi è avvenuta su un campione di oltre 3700 osservazioni al nadir. È stato creato un ampio dataset di spettri sintetici modificando, in un modello iniziale, vari parametri di nube quali composizione chimica, numero e dimensione delle particelle. Un processo di fit è stato applicato alle osservazioni per stabilire quale modello potesse descrivere gli spettri osservati. Si è poi effettuata una analisi statistica sui risultati del campione. Si è ricavata una concentrazione di acido solforico molto elevata nelle nubi basse, pari al 96% in massa, che si discosta dal valore generalmente utilizzato del 75%. Si sono poi integrati i risultati al nadir con uno studio mirato su poche osservazioni al lembo, selezionate in modo da intercettare nel punto di tangenza la colonna atmosferica osservata al nadir, per ricavare informazioni sulle hazes. I risultati di un modello Monte Carlo indicano che il numero e le dimensioni delle particelle previste dal modello base devono essere ridotte in maniera significativa. In particolare si osserva un abbassamento della quota massima delle hazes rispetto ad osservazioni diurne.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Per lo sviluppo di un modello realistico di formazione ed evoluzione delle galassie è necessario un confronto sistematico con le osservazioni in modo da verificare che i dati vengano ben riprodotti. Lo scopo che si prefigge questo lavoro di Tesi è un confronto tra le caratteristiche delle galassie presenti nei cataloghi simulati (mock), costruiti sulla base di alcuni modelli, e quelle evinte dai dati osservativi di campioni di galassie (surveys) con l'obbiettivo di far luce su quali siano le maggiori discrepanze e quindi sulla direzione in cui i modelli andrebbero perfezionati. Per far questo, si è scelto di far uso della funzione di massa stellare delle galassie (MF), in quanto strumento statistico più indicativo di una popolazione di galassie, considerando sia la totalità delle galassie, sia separatamente le star-forming e le quiescenti. Questo lavoro di Tesi attua un confronto tra le MF a 0massa cambino al variare del tasso di formazione stellare nei modelli e le differenze che vi sono nella loro distribuzione in base a colore e SFR. Infine si studia come varia col redshift la densità numerica delle galassie quiescenti osservate e teoriche di diversa massa. Anche questo tipo di confronto ha come scopo quello di sondare le differenze tra modelli ed osservazioni su quali siano le modalità e le tempistiche di evoluzione delle galassie a seconda della loro massa e su cosa sia quello che, dai modelli, costruiti sulla base dei processi fisici che conosciamo, non riesce ancora ad essere riprodotto.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Da numerose osservazioni astronomiche e cosmologiche si ipotizza che la Materia Oscura rappresenti gran parte della massa dell’Universo. La Materia Oscura ha la particolarita` di interagire solo gravitazionalmente o debolmente e si presenta come massiva e neutra. Tra i vari candidati al ruolo di particelle di Materia Oscura troviamo le WIMP (Weakly Interacting Massive Particles). Un’esperimento che si propone di rivelare in modo diretto le WIMP, mediante la loro diffusione elastica su nuclei di Xeno, `e il progetto XENON presso i Laboratori Nazionali del Gran Sasso. Le tecniche di rivelazione diretta prevedono l’utilizzo di rivelatori grandi, in questo caso a gas nobile, ultra puri e situati in ambienti a bassa radioattivita` per diminuire il rumore di fondo come ad esempio i neutroni indotti dai muoni provenienti dai raggi cosmici (laboratori sotterranei). A causa della sezione d’urto molto piccola necessario raggiungere basse energie di soglia. A tal proposito sono in fase di ricerca e sviluppo soluzioni che permettano di migliorare le prestazioni del rivelatore; ad esempio sono in fase di studio soluzioni tecnologiche che migliorino la raccolta di luce. Una di queste prevede l’utilizzo di foto rivelatori tipo SiPM da affiancare a normali PMT. Tali rivelatori devono essere in grado di funzionare a basse temperature (circa −100◦ C) e devono poter rivelare fotoni di lunghezza d’onda di 178 nm. Il mio lavoro di tesi si colloca nell’ambito di tale progetto di ricerca e sviluppo. Lo scopo di questo lavoro `e stato infatti la preparazione di un setup sperimentale per caratterizzare in aria fotorivelatori SiPM Hamamatsu (prototipo codice S12574) in grado di lavorare in Xeno liquido. Oltre all’installazione del setup mi sono occupato di scrivere un programma in C++ in grado di analizzare le forme d’onda acquisite in run preliminari e di misurare guadagno e dark count rate del rivelatore.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L'esperimento LHCb è stato progettato per eseguire misure di altissima precisione nel settore della fisica dei quark pesanti al Large Hadron Collidere del CERN. Sfruttando l'alta sezione d'urto di produzione di charm nelle interazioni protone-protone ad LHC e utilizzando la statistica raccolta durante il RUN-1, corrispondente ad una luminosità integrata di 3 fb{-1}, l'esperimento LHCb ha realizzato le misure più precise al mondo in questo settore. In particolare i decadimenti del mesone D0 in due corpi carichi senza leptoni nello stato finale hanno permesso di realizzare misure di violazione di CP} che raggiungono precisioni inferiori al 0.1 %. Da pochi mesi LHCb ha iniziato la seconda fase di presa dati, chiamata RUN-2, raccogliendo dati dalle interazioni protone-protone ad una energia nel centro di massa di sqrt{s}=13 TeV, superiore a quella del RUN-1. Le misure attuali di violazione di CP nel settore del charm, sono consistenti con l'ipotesi di non violazione. Il Modello Standard, pur con grandi incertezze teoriche, prevede una violazione di CP molto piccola, pertanto per verificare o meno l'esistenza di taleviolazione, sarà necessario sfruttare al massimo la statistica che verrà raccolta durante il RUN-2, ottimizzando gli algoritmi di selezione dei canali di interesse. In questa tesi verrà presentata uno studio preliminare che ha lo scopo di ottimizzare, mediante una tecnica di analisi multivariata, la selezione dei decadimenti D^*pm-> D0(K+K-)pi_s^pm e D^*pm}-> D0(pi+pi-)pi_s^pm} in previsione della prossima presa dati.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

In letteratura è noto che la variabilità cinematica dei bambini durante il cammino è molto maggiore se confrontata con quella di soggetti adulti. Ciò rende difficile definire lo sviluppo del cammino basandosi sull'analisi di angoli articolari. In questo lavoro è stata valutata la traiettoria del centro di massa come possibile fattore caratterizzante la maturazione del cammino durante la crescita: l’ipotesi è che questa risulti, nei bambini, più ripetibile rispetto al pattern degli angoli articolari. È stata analizzata la cinematica del cammino di soggetti appartenenti a tre fasce di età differenti (4 anni, 6 anni, giovani adulti), mediante un sistema di stereofotogrammetria e marker riflettenti (protocollo Plug-in Gait). Lo studio è stato condotto avvalendosi di software per l’acquisizione, l’elaborazione (BTS Smart-DX) e l’analisi statistica (SPM1D) dei parametri d’interesse. La variabilità è stata analizzata secondo tre diverse modalità (Inter-subject, Intra-subject, Inter-test). È stato osservato un trend simile in termini di variabilità del centro di massa tra bambini e adulti. La variabilità cinematica degli angoli articolari è invece risultata più alta nei bambini, in maniera significativa per tutte e tre le modalità citate. L’ipotesi è stata confermata per i soggetti che hanno preso parte allo studio: i bambini, pur avendo raggiunto un relativo sviluppo del cammino, presentano una variabilità segmentale maggiore di quella degli adulti, mentre la variabilità della traiettoria del centro di massa è risultata essere simile a quella dei soggetti maturi.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

In questo lavoro si parla di un particolare comportamento emergente nei sistemi complessi: il flocking. Dopo aver dato una panoramica generale di come sia stato affrontato finora lo studio della formazione degli stormi, vengono portati come esempio un modello matematico e uno studio empirico particolare, il quale fonda le basi del flocking su un’interazione topologica. Il modello matematico, basato su un’interazione metrica, viene dapprima presentato, cercando di darne una parziale spiegazione tramite le proprietà delle matrici laplaciane, per poi essere testato attraverso delle simulazioni numeriche. Lo studio empirico, invece, viene presentato nei dettagli fornendo risultati e ipotesi atte a spiegarli. Infine prendendo spunto da questi due lavori, nell’ultima parte vengono posti a confronto due modelli, uno metrico e uno topologico, tramite simulazioni al calcolatore. L’esito di queste simulazioni conferma le ipotesi avanzate per spiegare i risultati empirici.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Negli ultimi decenni la materia oscura è stata oggetto di crescente interesse scientifico: dati sperimentali indicano che essa costituisce il 26.8% della massa totale dell'Universo ma le sue origini e natura rimangono ancora ignote. Essa interagisce solo gravitazionalmente in quanto priva di carica, caratteristica che ne rende molto difficile la rivelazione. Numerosi esperimenti in tutto il mondo sono alla ricerca di maggiori informazioni riguardo la natura della materia oscura tramite metodi di rivelazione indiretta e diretta; questi ultimi sono accumunati da rivelatori molto massivi per sopperire alla piccola sezione d'urto di interazione e situati in ambienti molto isolati per diminuire il rumore di fondo dovuto alla radioattività terrestre. Tra le varie ipotesi avanzate riguardo la natura della materia oscura spiccano le WIMP, Weakly Interacting Massive Particle. L'esperimento XENON, situato ai Laboratori Nazionali del Gran Sasso, si occupa della rivelazione diretta di WIMP studiandone l'urto elastico con i nuclei di Xeno, presente allo stato liquido e gassoso all'interno della TPC, il rivelatore fulcro dell'esperimento. I primi risultati dell'ultima fase del progetto sono attesi per l'inizio del 2016; grazie alla massa fiduciale di circa una tonnellata di Xeno, da cui il nome XENON1T, e a migliorie atte a diminuire il rumore di fondo, quali la scelta accurata di materiali a bassa radioattività e a un sistema di veto dei muoni, si ipotizza che il rivelatore raggiungerà una sensibilità due ordini di grandezza superiore a quelle finora raggiunte. Sono in fase di ricerca soluzioni per incrementare la raccolta di luce del rivelatore, nell'ottica di diminuire l'energia di soglia di rivelazione migliorandone la sensibilità. Una delle possibili soluzioni consiste nell'affiancare i PMT già in uso con fotomoltiplicatori al Silicio SiPM. Essi dovranno essere in grado di lavorare a una temperatura di sim ~170 K ed avere una buona efficienza di rivelazione per fotoni di lunghezza d'onda di ~178 nm. Questo lavoro di tesi si colloca nell'ambito di tale progetto di ricerca e sviluppo. Lo scopo del lavoro di tesi presentato è stato la misura della variazione di guadagno e conteggi di buio dei SiPM a disposizione in funzione della temperatura

Relevância:

20.00% 20.00%

Publicador:

Resumo:

In questo lavoro di tesi sono state studiate le caratteristiche di una macchina per tomosintesi Fujifilm AMULET Innovality in uso presso l'Istituto Scientifico Romagnolo per lo Studio e la Cura dei Tumori (I.R.S.T.) di Meldola. Le valutazioni sono state fatte utilizzando diversi fantocci, uno dei quali costruito durante il lavoro di tesi. Per la valutazione delle immagini di mammografia digitale e di tomosintesi sono state seguite le linee guida della International Electrotechnical Commission (IEC) e della European Reference Organisation for Quality Assured Breast Screening and Diagnostic Services (EUREF). Per lo studio delle mammografie digitali sono stati valutati, utilizzando i software COQ e ImageJ, i parametri di NPS, MTF e DQE. Per lo studio delle immagini di tomosintesi sono stati appositamente sviluppati degli algoritmi in linguaggio Java, integrati poi all'interno del software COQ. Il programma sviluppato ha permesso di valutare ASF, MTF, NPS e omogeneità delle immagini ricostruite.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La fisica del sapore è uno dei settori di ricerca più promettenti per realizzare misure di altissima precisione del Modello Standard e per osservare indirettamente, attraverso i decadimenti mediati dalle interazioni deboli nuove particelle. L'esperimento LHCb \`e stato progettato per realizzare misure di altissima precisione in questo settore. Grazie all'alta luminosità integrata disponibile (3 fb \ap{-1}) ed alla elevata sezione d’urto di produzione dei quark charm, LHCb \`e in grado di realizzare misure di una precisione mai raggiunta fino ad ora da altri esperimenti. In questo lavoro di tesi \`e stata realizzata una misura preliminare della simmetria di violazione di CP, realizzata mediante i decadimenti dei mesoni neutri $D^0$ negli stati finali $K^+K^-$ e $\pi^+\pi^-$. Per realizzare la misura sono stati selezionati i decadimenti $D^{*\pm} \to D^0(K^+K^-)\pi^\pm_s$ e $D^{*\pm} \to D^0(\pi^+\pi^-)\pi^\pm_s$ utilizzando i dati raccolti da LHCb durante il RUN-1 (2010-2012) ed \`e stato sviluppato un modello di adattamento ai dati in grado di misurare la differenza di asimmetria di CP integrate nel tempo nei decadimenti $D^0 \rightarrow K^+K^-$ e $D^0 \rightarrow \pi^+\pi^-$, $\Delta A_{CP}$. Il modello \`e stato sviluppato in modo da descrivere le distribuzioni di massa invariante del $D^0$ e del $D^{*\pm}$ sia per la componente di segnale sia per quelle di fondo ed \`e stato adattato ai dati, per sottrarne i fondi e misurare le asimmetrie $A_{RAW}(K^+K^-)$ e $A_{RAW}(\pi^+\pi^-)$, corrispondenti alla differenza tra il numero di eventi di segnale $D^{*+}$ e $D^{*-}$, diviso la loro somma. La differenza di queste asimmetrie corrisponde a $\Delta A_{CP}$, la cui misura, non ufficiale, \`e stata determinata essere $\Delta A_{CP}= (-0.12\pm 0.08)\% $. Questo risultato rappresenta la miglior misura al mondo mai realizzata da un singolo esperimento.