980 resultados para Si multi-strip detector
Resumo:
Durante il Long Shutdown 1 di LHC sono stati cambiati i fotomoltiplicatori del rivelatore di luminosità LUCID di ATLAS. I due modelli candidati per la sostituzione sono stati sottoposti a test di resistenza alla radiazione di gamma e neutroni. In questa tesi si riportano i risultati delle misure di dark current, risposta spettrale, guadagno relativo e assoluto, prima e dopo l’irraggiamento con neutroni. L’unica differenza di rilievo riguarda un aumento della dark current, gli altri parametri non presentano variazioni entro la precisione delle misure. Non ci sono differenze sostanziali tra i due modelli per quanto riguarda la resistenza alle radiazioni.
Resumo:
The main purpose of ultrarelativistic heavy-ion collisions is the investigation of the QGP. The ALICE experiment situated at the CERN has been specifically designed to study heavy-ion collisions for centre-of-mass energies up to 5.5 per nucleon pair. Extended particle identification capability is one of the main characteristics of the ALICE experiment. In the intermediate momentum region (up to 2.5 GeV/c for pi/K and 4 GeV/c for K/p), charged particles are identified in the ALICE experiment by the Time of Flight (TOF) detector. The ALICE-TOF system is a large-area detector based on the use of Multi-gap Resistive Plate Chamber (MRPC) built with high efficiency, fast response and intrinsic time resolution better than 40 ps. This thesis work, developed with the ALICE-TOF Bologna group, is part of the efforts carried out to adapt the read-out of the detector to the new requirements after the LHC Long Shutdown 2. Tests on the feasibility of a new read-out scheme for the TOF detector have been performed. In fact, the achievement of a continuous read-out also for the TOF detector would not be affordable if one considers the replacement of the TRM cards both for hardware and budget reasons. Actually, the read-out of the TOF is limited at 250 kHz i.e. it would be able to collect up to just a fourth of the maximum collision rate potentially achievable for pp interactions. In this Master’s degree thesis work, I discuss a different read-out system for the ALICE-TOF detector that allows to register all the hits at the interaction rate of 1 MHz foreseen for pp interactions after the 2020, by using the electronics currently available. Such solution would allow the ALICE-TOF detector to collect all the hits generated by pp collisions at 1 MHz interaction rate, which corresponds to an amount four times larger than that initially expected at such frequencies with the triggered read-out system operated at 250 kHz for LHC Run 3. The obtained results confirm that the proposed read-out scheme is a viable option for the ALICE TOF detector. The results also highlighted that it will be advantageous if the ALICE-TOF group also implement an online monitoring system of noisy channels to allow their deactivation in real time.
Resumo:
In questa tesi si sono valutate le prestazioni di un sistema di localizzazione multi-antenna di tag radio frequency identification (RFID) passivi in ambiente indoor. Il sistema, composto da un reader in movimento che percorre una traiettoria nota, ha come obiettivo localizzare il tag attraverso misure di fase; più precisamente la differenza di fase tra il segnale di interrogazione, emesso dal reader, e il segnale ricevuto riflesso dal tag che è correlato alla distanza tra di essi. Dopo avere eseguito una ricerca sullo stato dell’arte di queste tecniche e aver derivato il criterio maximum likelihood (ML) del sistema si è proceduto a valutarne le prestazioni e come eventuali fattori agissero sul risultato di localizzazione attraverso simulazioni Matlab. Come ultimo passo si è proceduto a effettuare una campagna di misure, testando il sistema in un ambiente reale. Si sono confrontati i risultati di localizzazione di tutti gli algoritmi proposti quando il reader si muove su una traiettoria rettilinea e su una traiettoria angolare, cercando di capire come migliorare i risultati.
Resumo:
L’interruzione dell’attività di formazione stellare nelle galassie attraverso l’azione di venti guidati dalla potenza dell’AGN e/o dall’attività di starburst è una fase prevista da tutti i modelli di coevoluzione tra i buchi neri super massicci e la galassia ospite. La recente scoperta di venti molecolari massivi in alcune ULIRG locali ha fornito una prova forte a favore dell’esistenza del meccanismo di feedback negativo nelle galassie. Ad oggi non è chiaro il ruolo che l'attività di AGN e di starburst hanno nella produzione dei venti: tuttavia, la maggior parte delle ULIRG in cui sono stati osservati i venti molecolari presentano elevati tassi e velocità di outflow, suggerendo che l'AGN giochi un ruolo principale. IRAS 13120-5453 rappresenta un caso particolare: la sua attività e dominata dalla formazione stellare, ma sembra anche ospitare un AGN oscurato al suo interno. Tuttavia, non presenta elevati tassi di outflow e velocità dei venti: non è quindi chiaro quale dei due fenomeni vi sia all'origine. In questo lavoro di tesi si è operata un'analisi multibanda di questa sorgente con lo scopo di studiarne le principali proprietà fisiche. Lo studio in banda X attraverso l'analisi dei dati provenienti dai satelliti XMM-Newton, Chandra e NuSTAR ha permesso di conoscere parametri importanti come il grado di oscuramento della sorgente e la potenza dell'AGN. Con l'analisi in banda IR, è stato possibile conoscere il contributo dell'AGN e della starburst alla luminosità IR e i principali parametri fisici di questa galassia. L’obiettivo di tale lavoro è quello di capire il ruolo svolto da questi due principali fenomeni e quale possa essere la connessione con i venti molecolari.
Resumo:
Negli ultimi anni le tecnologie informatiche sono state al centro di uno sviluppo esponenziale. Fra le incalcolabili innovazioni presentate, ha preso sempre più campo il paradigma per la programmazione ad agenti, che permette la realizzazione di sistemi software complessi, i quali, nell'informatica moderna, ricoprono un ruolo di fondamentale importanza. Questi sistemi, denominati autonomi, mostrano caratteristiche interessanti per scenari dinamici; essi infatti devono essere robusti e resistenti, in grado di adattarsi al contesto ambientale e quindi reagire a determinate modifiche che si verificano nell'ambiente, comportandosi di conseguenza. Indicano perciò la pro-attività dell'entità presa in considerazione. In questa tesi saranno spiegate queste tipologie di sistemi, introdotte le loro caratteristiche e mostrate le loro potenzialità. Tali caratteristiche permettono di responsabilizzare i soggetti, rendendo il sistema auto-organizzato, con una migliore scalabilità e modularità, riducendo quindi le elevate esigenze di calcolo. L'organizzazione di questo documento prevede i primi capitoli atti a introdurre il mondo dei sistemi autonomi, partendo dalle definizioni di autonomia e di agenti software, concludendo con i sistemi multi-agenti, allo scopo di permettere al lettore una comprensione adatta ed esaustiva. I successivi capitoli riguardano le fasi di progettazione delle entità prese in esame, le loro forme di standardizzazione e i modelli che possono adottare, tra i quali il più conosciuto, il modello BDI. Ne seguono due diverse metodologie per l'ingegneria del software orientata agli agenti. Si conclude con la presentazione dello stato dell'arte degli ambienti di sviluppo conosciuti, contenente un'esauriente introduzione ad ognuno di essi ed una visione nel mondo del lavoro del loro apporto negli applicativi in commercio. Infine la tesi terminerà con un capitolo di conclusioni e di riflessioni sui possibili aspetti futuri.
Resumo:
Uno dei temi più recenti nel campo delle telecomunicazioni è l'IoT. Tale termine viene utilizzato per rappresentare uno scenario nel quale non solo le persone, con i propri dispositivi personali, ma anche gli oggetti che le circondano saranno connessi alla rete con lo scopo di scambiarsi informazioni di diversa natura. Il numero sempre più crescente di dispositivi connessi in rete, porterà ad una richiesta maggiore in termini di capacità di canale e velocità di trasmissione. La risposta tecnologica a tali esigenze sarà data dall’avvento del 5G, le cui tecnologie chiave saranno: massive MIMO, small cells e l'utilizzo di onde millimetriche. Nel corso del tempo la crescita delle vendite di smartphone e di dispositivi mobili in grado di sfruttare la localizzazione per ottenere servizi, ha fatto sì che la ricerca in questo campo aumentasse esponenzialmente. L'informazione sulla posizione viene utilizzata infatti in differenti ambiti, si passa dalla tradizionale navigazione verso la meta desiderata al geomarketing, dai servizi legati alle chiamate di emergenza a quelli di logistica indoor per industrie. Data quindi l'importanza del processo di positioning, l'obiettivo di questa tesi è quello di ottenere la stima sulla posizione e sulla traiettoria percorsa da un utente che si muove in un ambiente indoor, sfruttando l'infrastruttura dedicata alla comunicazione che verrà a crearsi con l'avvento del 5G, permettendo quindi un abbattimento dei costi. Per fare ciò è stato implementato un algoritmo basato sui filtri EKF, nel quale il sistema analizzato presenta in ricezione un array di antenne, mentre in trasmissione è stato effettuato un confronto tra due casi: singola antenna ed array. Lo studio di entrambe le situazioni permette di evidenziare, quindi, i vantaggi ottenuti dall’utilizzo di sistemi multi antenna. Inoltre sono stati analizzati altri elementi chiave che determinano la precisione, quali geometria del sistema, posizionamento del ricevitore e frequenza operativa.
Resumo:
Lo studio presentato in questo elaborato è stato sviluppato con la finalità di studiare il comportamento visivo del ciclista, in ambiente urbano, in modo tale da studiare i principali fattori che ne influenzano la guida. La prova è stata condotta mediante il contributo del mobile-eye detector, un dispositivo progettato per il monitoraggio ed il tracciamento dei movimenti oculari. In questo studio ci si è concentrati in particolar modo sulla strategia visiva del ciclista nel caso di pista ciclabile bidirezionale su marciapiede, con presenza di lievi discontinuità della carreggiata e presenza di intersezioni a raso. Lo studio è stato condotto esaminando prima i dati delle fissazioni a livello macroscopico definendo due aree di interesse e poi esaminando le fissazioni su ogni singola interferenza.
Resumo:
The purpose of the study was to evaluate observer performance in the detection of pneumothorax with cesium iodide and amorphous silicon flat-panel detector radiography (CsI/a-Si FDR) presented as 1K and 3K soft-copy images. Forty patients with and 40 patients without pneumothorax diagnosed on previous and subsequent digital storage phosphor radiography (SPR, gold standard) had follow-up chest radiographs with CsI/a-Si FDR. Four observers confirmed or excluded the diagnosis of pneumothorax according to a five-point scale first on the 1K soft-copy image and then with help of 3K zoom function (1K monitor). Receiver operating characteristic (ROC) analysis was performed for each modality (1K and 3K). The area under the curve (AUC) values for each observer were 0.7815, 0.7779, 0.7946 and 0.7066 with 1K-matrix soft copies and 0.8123, 0.7997, 0.8078 and 0.7522 with 3K zoom. Overall detection of pneumothorax was better with 3K zoom. Differences between the two display methods were not statistically significant in 3 of 4 observers (p-values between 0.13 and 0.44; observer 4: p = 0.02). The detection of pneumothorax with 3K zoom is better than with 1K soft copy but not at a statistically significant level. Differences between both display methods may be subtle. Still, our results indicate that 3K zoom should be employed in clinical practice.
Resumo:
I will present my work about constructing and characterizing a single photon detector. Using the 1550nm laser and second harmonic light generation, I am able to count single photons on a Multi‐Pixel Photon Counter (MPPC) silicon APD. My results show that upwards of 22% quantum efficiency is achievable with the MPPC. Future work will include coincidence detection of correlated photon‐pair.
Resumo:
The distributions of event-by-event harmonic flow coefficients v_n for n=2-4 are measured in sqrt(s_NN)=2.76 TeV Pb+Pb collisions using the ATLAS detector at the LHC. The measurements are performed using charged particles with transverse momentum pT> 0.5 GeV and in the pseudorapidity range |eta|<2.5 in a dataset of approximately 7 ub^-1 recorded in 2010. The shapes of the v_n distributions are described by a two-dimensional Gaussian function for the underlying flow vector in central collisions for v_2 and over most of the measured centrality range for v_3 and v_4. Significant deviations from this function are observed for v_2 in mid-central and peripheral collisions, and a small deviation is observed for v_3 in mid-central collisions. It is shown that the commonly used multi-particle cumulants are insensitive to the deviations for v_2. The v_n distributions are also measured independently for charged particles with 0.5
Resumo:
A measurement of splitting scales, as defined by the kT clustering algorithm, is presented for final states containing a W boson produced in proton-proton collisions at a centre-of-mass energy of 7 TeV. The measurement is based on the full 2010 data sample corresponding to an integrated luminosity of 36 pb(-1) which was collected using the ATLAS detector at the CERN Large Hadron Collider. Cluster splitting scales are measured in events containing W bosons decaying to electrons or muons. The measurement comprises the four hardest splitting scales in a k(T) cluster sequence of the hadronic activity accompanying the W boson, and ratios of these splitting scales. Backgrounds such as multi-jet and top-quark-pair production are subtracted and the results are corrected for detector effects. Predictions from various Monte Carlo event generators at particle level are compared to the data. Overall, reasonable agreement is found with all generators, but larger deviations between the predictions and the data are evident in the soft regions of the splitting scales.
Resumo:
This paper presents a measurement of the cross-section for high transverse momentum W and Z bosons produced in pp collisions and decaying to allhadronic final states. The data used in the analysis were recorded by the ATLAS detector at the CERN Large Hadron Collider at a centre-of-mass energy of s = 7 TeV and correspond to an integrated luminosity of 4.6 fb−1. The measurement is performed by reconstructing the boosted W or Z bosons in single jets. The reconstructed jet mass is used to identify the W and Z bosons, and a jet substructure method based on energy cluster information in the jet centre-of mass frame is used to suppress the large multi-jet background. The cross-section for events with a hadronically decaying W or Z boson, with transverse momentum pT > 320 GeV and pseudorapidity |η| < 1.9, is measured to be σ + = ± W Z 8.5 1.7 pb and is compared to next-to-leading-order calculations. The selected events are further used to study jet grooming techniques.
Resumo:
We study the sensitivity of large-scale xenon detectors to low-energy solar neutrinos, to coherent neutrino-nucleus scattering and to neutrinoless double beta decay. As a concrete example, we consider the xenon part of the proposed DARWIN (Dark Matter WIMP Search with Noble Liquids) experiment. We perform detailed Monte Carlo simulations of the expected backgrounds, considering realistic energy resolutions and thresholds in the detector. In a low-energy window of 2–30 keV, where the sensitivity to solar pp and 7Be-neutrinos is highest, an integrated pp-neutrino rate of 5900 events can be reached in a fiducial mass of 14 tons of natural xenon, after 5 years of data. The pp-neutrino flux could thus be measured with a statistical uncertainty around 1%, reaching the precision of solar model predictions. These low-energy solar neutrinos will be the limiting background to the dark matter search channel for WIMP-nucleon cross sections below ~2X 10-48 cm2 and WIMP masses around 50 GeV c 2, for an assumed 99.5% rejection of electronic recoils due to elastic neutrino-electron scatters. Nuclear recoils from coherent scattering of solar neutrinos will limit the sensitivity to WIMP masses below ~6 GeV c-2 to cross sections above ~4X10-45cm2. DARWIN could reach a competitive half-life sensitivity of 5.6X1026 y to the neutrinoless double beta decay of 136Xe after 5 years of data, using 6 tons of natural xenon in the central detector region.
Resumo:
NA61/SHINE (SPS Heavy Ion and Neutrino Experiment) is a multi-purpose experimental facility to study hadron production in hadron-proton, hadron-nucleus and nucleus-nucleus collisions at the CERN Super Proton Synchrotron. It recorded the first physics data with hadron beams in 2009 and with ion beams (secondary 7Be beams) in 2011. NA61/SHINE has greatly profited from the long development of the CERN proton and ion sources and the accelerator chain as well as the H2 beamline of the CERN North Area. The latter has recently been modified to also serve as a fragment separator as needed to produce the Be beams for NA61/SHINE. Numerous components of the NA61/SHINE set-up were inherited from its predecessors, in particular, the last one, the NA49 experiment. Important new detectors and upgrades of the legacy equipment were introduced by the NA61/SHINE Collaboration. This paper describes the state of the NA61/SHINE facility — the beams and the detector system — before the CERN Long Shutdown I, which started in March 2013.
Resumo:
We study the sensitivity of multi ton-scale time projection chambers using a liquid xenon target, e.g., the proposed DARWIN instrument, to spin-independent and spin-dependent WIMP-nucleon scattering interactions. Taking into account realistic backgrounds from the detector itself as well as from neutrinos, we examine the impact of exposure, energy threshold, background rejection efficiency and energy resolution on the dark matter sensitivity. With an exposure of 200 t x y and assuming detector parameters which have been already demonstrated experimentally, spin-independent cross sections as low as 2.5×10−49 cm2 can be probed for WIMP masses around 40 GeV/c2. Additional improvements in terms of background rejection and exposure will further increase the sensitivity, while the ultimate WIMP science reach will be limited by neutrinos scattering coherently off the xenon nuclei.