998 resultados para Experiment container, ISS, FSL, FEM


Relevância:

20.00% 20.00%

Publicador:

Resumo:

One of the main goals of the ATLAS experiment at the Large Hadron Collider (LHC) at CERN in Geneva is the search for new physics beyond the Standard Model. In 2011, proton-proton collisions were performed at the LHC at a center of mass energy of 7 TeV and an integrated luminosity of 4.7 fb^{-1} was recorded. This dataset can be tested for one of the most promising theories beyond limits achieved thus far: supersymmetry. Final states in supersymmetry events at the LHC contain highly energetic jets and sizeable missing transverse energy. The additional requirement of events with highly energetic leptons simplifies the control of the backgrounds. This work presents results of a search for supersymmetry in the inclusive dilepton channel. Special emphasis is put on the search within the Gauge-Mediated Symmetry Breaking (GMSB) scenario in which the supersymmetry breaking is mediated via gauge fields. Statistically independent Control Regionsrnfor the dominant Standard Model backgrounds as well as Signal Regions for a discovery of a possible supersymmetry signal are defined and optimized. A simultaneous fit of the background normalizations in the Control Regions via the profile likelihood method allows for a precise prediction of the backgrounds in the Signal Regions and thus increases the sensitivity to several supersymmetry models. Systematic uncertainties on the background prediction are constrained via the jet multiplicity distribution in the Control Regions driven by data. The observed data are consistent with the Standard Model expectation. New limits within the GMSB and the minimal Supergravity (mSUGRA) scenario as well as for several simplified supersymmetry models are set or extended.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Since its discovery, top quark has represented one of the most investigated field in particle physics. The aim of this thesis is the reconstruction of hadronic top with high transverse momentum (boosted) with the Template Overlap Method (TOM). Because of the high energy, the decay products of boosted tops are partially or totally overlapped and thus they are contained in a single large radius jet (fat-jet). TOM compares the internal energy distributions of the candidate fat-jet to a sample of tops obtained by a MC simulation (template). The algorithm is based on the definition of an overlap function, which quantifies the level of agreement between the fat-jet and the template, allowing an efficient discrimination of signal from the background contributions. A working point has been decided in order to obtain a signal efficiency close to 90% and a corresponding background rejection at 70%. TOM performances have been tested on MC samples in the muon channel and compared with the previous methods present in literature. All the methods will be merged in a multivariate analysis to give a global top tagging which will be included in ttbar production differential cross section performed on the data acquired in 2012 at sqrt(s)=8 TeV in high phase space region, where new physics processes could be possible. Due to its peculiarity to increase the pT, the Template Overlap Method will play a crucial role in the next data taking at sqrt(s)=13 TeV, where the almost totality of the tops will be produced at high energy, making the standard reconstruction methods inefficient.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The Large Hadron Collider, located at the CERN laboratories in Geneva, is the largest particle accelerator in the world. One of the main research fields at LHC is the study of the Higgs boson, the latest particle discovered at the ATLAS and CMS experiments. Due to the small production cross section for the Higgs boson, only a substantial statistics can offer the chance to study this particle properties. In order to perform these searches it is desirable to avoid the contamination of the signal signature by the number and variety of the background processes produced in pp collisions at LHC. Much account assumes the study of multivariate methods which, compared to the standard cut-based analysis, can enhance the signal selection of a Higgs boson produced in association with a top quark pair through a dileptonic final state (ttH channel). The statistics collected up to 2012 is not sufficient to supply a significant number of ttH events; however, the methods applied in this thesis will provide a powerful tool for the increasing statistics that will be collected during the next LHC data taking.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Light pseudoscalar bosons, such as the axion that was originally proposed as a solution of the strong CP problem, would cause a new spin-dependent short-range interaction. In this thesis, an experiment is presented to search for axion mediated short-range interaction between a nucleon and the spin of a polarized bound neutron. This interaction cause a shift in the precession frequency of nuclear spin-polarized gases in the presence of an unpolarized mass. To get rid of magnetic field drifts co-located, nuclear spin polarized 3He and 129Xe atoms were used. The free nuclear spin precession frequencies were measured in a homogeneous magnetic guiding field of about 350nT using LTc SQUID detectors. The whole setup was housed in a magnetically shielded room at the Physikalisch Technische Bundesanstalt (PTB) in Berlin. With this setup long nuclear spin-coherence times, respectively, transverse relaxation times of 5h for 129Xe and 53h for 3He could be achieved. The results of the last run in September 2010 are presented which give new upper limits on the scalar-pseudoscalar coupling of axion-like particles in the axion-mass window from 10^(-2) eV to 10^(-6) eV. The laboratory upper bounds were improved by up to 4 orders of magnitude.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La massa del quark top è qui misurata per mezzo dei dati raccolti dall’esperimento CMS in collisioni protone-protone ad LHC, con energia nel centro di massa pari ad 8 TeV. Il campione di dati raccolto corrisponde ad una luminosità integrata pari a 18.2 /fb. La misura è effettuata su eventi con un numero di jet almeno pari a 6, di cui almeno due b-taggati (ovvero identificati come prodotto dell’adronizzazione di due quark bottom). Il valore di massa trovato è di (173.95 +- 0.43 (stat)) GeV/c2, in accordo con la media mondiale. The top quark mass is here measured by using the data that have been collected with the CMS experiment in proton-proton collisions at the LHC, at a center-of-mass energy of 8 TeV. The dataset which was used, corresponds to an integrated luminosiy of 18.2 /fb. The mass measurement is carried out by using events characterized by six or more jets, two of which identified as being originated by the hadronization of bottom quarks. The result of the measurement of the top quark mass performed here is: (173.95 +- 0.43 (stat)) GeV/c2, in accordance with the recently published world average.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Im Jahr 2011 wurde am Large Hadron Collider mit dem ATLAS Experiment ein Datensatz von 4.7 inversen Femtobarn bei einer Schwerpunktsenergie von 7 TeV aufgezeichnet. Teil des umfangreichen Physikprogrammes des ATLAS Experiments ist die Suche nach Physik jenseits des Standardmodells. Supersymmetrie - eine neue Symmetrie zwischen Bosonen und Fermionen - wird als aussichtsreichester Kandidat für neue Physik angesehen, und zahlreiche direkte und indirekte Suchen nach Supersymmetrie wurden in den letzten Jahrzehnten bereits durchgeführt. In der folgenden Arbeit wird eine direkte Suche nach Supersymmetrie in Endzuständen mit Jets, fehlender Transversalenergie und genau einem Elektron oder Myon durchgeführt. Der analysierte Datensatz von 4.7 inversen Femtobarn umfasst die gesamte Datenmenge, welche am ATLAS Experiment bei einer Schwerpunktsenergie von 7 TeV aufgezeichnet wurde. Die Ergebnisse der Analyse werden mit verschiedenen anderen leptonischen Suchkanälen kombiniert, um die Sensitivität auf diversen supersymmetrischen Produktions- und Zerfallsmodi zu maximieren. Die gemessenen Daten sind kompatibel mit der Standardmodellerwartung, und neue Ausschlussgrenzen in verschiedenen supersymmetrischen Modellen werden berechnet.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Produktionsmechanismen für Teilchenproduktion im mittleren Energiebereich wurden in Proton-Proton Kollisionen innerhalb der COMPASS-Kollaboration mit Hilfe des COMPASS-Spektrometers am SPS Beschleuniger am CERN untersucht. Die verschiedenen Produktionsmechanismen werden mittels Produktion der Vektormesonen omega und phi studiert und können die diffraktive Anregung des Strahlteilchens mit anschliessendem Zerfall der Resonanz, zentrale Produktion und den damit verwandten “Shake-off” Mechanismus enthalten. Die für diese Arbeit verwendeten Daten wurden in den Jahren 2008 und 2009 mit 190 GeV/c-Protonen aufgenommen, die auf ein Flüssigwasserstofftarget trafen. Das Target war von einem Rückstoßprotonendetektor umgeben, der ein integraler Bestandteil des neuentwickelten Hadrontriggersystems ist. Für dieses System wurden außerdem einige neue Detektoren gebaut. Die Leistungsfähigkeit des Rückstoßprotonendetektors und des Triggersystems wird untersucht und Effizienzen extrahiert. Außerdem wird sowohl eine Methode zur Rekonstruktion von Rückstoßprotonen als auch eine Methode zur Kalibration des Rückstoßprotonendetektors entwickelt und beschrieben. Die Produktion von omega-Mesonen wurde in der Reaktion pp -> p omega p, omega -> pi+pi-pi0 und die Produktion von phi-Mesonen in der Reaktion pp -> p phi p, phi -> K+K- bei einem Impulsübertrag zwischen 0.1 (GeV/c)^2 und 1 (GeV/c)^2 gemessen. Das Produktionsverhältnis s(pp -> p phi p)/s(pp -> p omega p) wird als Funktion des longitudinalen Impulsanteils xF bestimmt und mit der Vorhersage durch die Zweigregel verglichen. Es ergibt sich eine signifikante Verletzung der Zweigregel, die abhängig von xF ist. Die Verletzung wird in Verbindung zu resonanten Strukturen im pomega-Massenspektrum diskutiert. Die xF-Abhängigkeit verschwindet, wenn man die Region niedriger pomega- und pphi-Masse entfernt, die solche resonanten Strukturen aufweist. Zusätzlich wird die Spinausrichtung bzw. das Spindichtematrixelement rho00 für omega- und phi-Mesonen untersucht. Die Spinausrichtung wird im Helizitätssystemrnanalysiert, welches für eine Abgrenzung von resonanten, diffraktiven Anregungen geeignet ist. Außerdem wird die Spinausrichtung in einem Referenzsystem mit Bezug auf die Richtung des Impulsübertrags untersucht, mit dessen Hilfe zentrale Prozesse wie zentrale Produktion oder “shake-off” abgegrenzt werden. Auch hier wird eine Abhängigkeit von xF und der invarianten Masse des pomega-Systems beobachtet. Diese Abhängigkeit kann wieder auf die resonanten Strukturen in der Produktion von omega-Mesonen zurückgeführt werden. Die Ergebnisse werden abschließend im Hinblick auf die verschiedenen Produktionsmechanismen diskutiert.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Il presente elaborato descrive l’attività di progetto svolta durante il periodo di tirocinio presso la business unit “automotive technologies” della Robert Bosch GmbH: la Robert Bosch GmbH Branch in Italy che ha sede a Torino, e che si configura come fornitore di componenti per l’industria automotive. La funzione logistica è l’ufficio in cui si è svolta l’esperienza di tirocinio, che si è sviluppato nell’ambito del progetto di Container Management System. In particolare, è stato analizzato il sistema di gestione dei Returnable Packaging relativi ai componenti che vengono forniti agli stabilimenti dei clienti localizzati in Italia. L’elaborato è composto da due parti: una parte teorica e una parte pratica. La parte teorica espone gli strumenti teorici sui quali si fondano i contenuti sviluppati nella parte pratica. La parte pratica è volta a descrivere l’attività di progetto da un punto di vista strettamente operativo. Il primo capitolo illustra i motivi che hanno determinato l’avvio del progetto. Sono poi messi in evidenza quali sono gli obiettivi intermedi e finali che si intendono raggiungere, declinandoli in termini di organizzazione del lavoro. Sono qui esposte le basi teoriche del metodo utilizzato e della disciplina a cui si fa riferimento. Viene inoltre dato spazio alla trattazione di alcuni topic nell’ambito dei Returnable Packaging, approfondendo l’argomento per il settore automotive. Il secondo capitolo descrive la struttura organizzativa, i settori di business e le attività svolte dal gruppo Robert Bosch GmbH nel mondo e in Italia. Viene dato particolare rilievo alla sede di Torino ed alla divisione logistica di quest’ultima, in modo tale da descrivere il contesto entro il quale si sviluppa il progetto. Il capitolo presenta infine gli attori che operano nella catena logistica analizzata, descrivendone le attività svolte e caratterizzando la rete logistica studiata al fine di definire i confini entro i quali si sviluppa il progetto. Il terzo capitolo presenta l’analisi effettuata sul caso in esame, descrivendone le modalità operative per ciascuna fase. Il quarto capitolo presenta delle osservazioni sull’analisi effettuata, la validazione tecnico econimica delle soluzioni proposte e le considerazioni conclusive.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Diese Arbeit beschreibt die Entwicklung, Konstruktion und Untersuchung eines Magnetometers zur exakten und präzisen Messung schwacher Magnetfelder. Diese Art von Magnetometer eignet sich zur Anwendung in physikalischen hochpräzisions Experimenten wie zum Beispiel der Suche nach dem elektrischen Dipolmomentrndes Neutrons. Die Messmethode beruht auf der gleichzeitigen Detektion der freien Spin Präzession Kern-Spin polarisierten 3He Gases durch mehrere optisch gepumpte Cäsium Magnetometer. Es wird gezeigt, dass Cäsium Magnetometer eine zuverlässige und vielseitige Methode zur Messung der 3He Larmor Frequenz und eine komfortable Alternative zur Benutzung von SQUIDs für diesen Zweck darstellen. Ein Prototyp dieses Magnetometers wurde gebaut und seine Funktion in der magnetisch abgeschirmten Messkabine der Physikalisch Technischen Bundesanstalt untersucht. Die Sensitivität des Magnetometers in Abhängigkeitrnvon der Messdauer wurde experimentell untersucht. Es wird gezeigt, dass für kurze Messperioden (< 500s) Cramér-Rao limitierte Messungen möglich sind während die Sensitivität bei längeren Messungen durch die Stabilität des angelegten Magnetfeldes limitiert ist. Messungen eines 1 muT Magnetfeldes mit einer relative Genauigkeit von besser als 5x10^(-8) in 100s werden präsentiert. Es wird gezeigt, dass die Messgenauigkeit des Magnetometers durch die Zahl der zur Detektion der 3He Spin Präzession eingesetzten Cäsium Magnetometer skaliert werden kann. Prinzipiell ist dadurch eine Anpassung der Messgenauigkeit an jegliche experimentellen Bedürfnisse möglich. Es wird eine gradiometrische Messmethode vorgestellt, die es erlaubt den Einfluss periodischerrnmagnetischer Störungen auf dieMessung zu unterdrücken. Der Zusammenhang zwischen der Sensitivität des kombinierten Magnetometers und den Betriebsparametern der Cäsium Magnetometer die zur Spin Detektion verwendet werden wird theoretisch untersucht und anwendungsspezifische Vor- und Nachteile verschiedener Betriebsartenwerden diskutiert. Diese Zusammenhänge werden in einer Formel zusammengefasst die es erlaubt, die erwartete Sensitivität des Magnetometers zu berechnen. Diese Vorhersagen befinden sich in perfekter Übereinstimmung mit den experimentellen Daten. Die intrinsische Sensitivität des Magnetometer Prototyps wird auf Basis dieser Formel theoretisch bestimmt. Ausserdem wird die erwartete Sensitivität für die Anwendung im Rahmen des Experiments der nächsten Generation zur Bestimmung des elektrischenrnDipolmoments des Neutrons am Paul Scherrer Institut abgeschätzt. Des weiteren wird eine bequeme experimentelle Methode zur Messung des Polarisationsgrades und des Rabi Flip-Winkels der 3He Kernspin Polarisation vorgestellt. Letztere Messung ist sehr wichtig für die Anwendung in hochpräzisions Experimenten.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La sezione d’urto totale adronica gioca un ruolo fondamentale nel programma di fisica di LHC. Un calcolo di questo parametro, fondamentale nell’ambito della teoria delle interazioni forti, non é possibile a causa dell’inapplicabilità dell’approccio perturbativo. Nonostante ciò, la sezione d’urto può essere stimata, o quanto meno le può essere dato un limite, grazie ad un certo numero di relazioni, come ad esempio il Teorema Ottico. In questo contesto, il detector ALFA (An Absolute Luminosity For ATLAS) sfrutta il Teorema Ottico per determinare la sezione d’urto totale misurando il rate di eventi elastici nella direzione forward. Un tale approccio richiede un metodo accurato di misura della luminosità in condizioni sperimentali difficoltose, caratterizzate da valori di luminosità istantanea inferiore fino a 7 ordini di grandezza rispetto alle normali condizioni di LHC. Lo scopo di questa tesi è la determinazione della luminosità integrata di due run ad alto β*, utilizzando diversi algoritmi di tipo Event-Counting dei detector BCM e LUCID. Particolare attenzione è stata riservata alla sottrazione del fondo e allo studio delle in- certezze sistematiche. I valori di luminosità integrata ottenuti sono L = 498.55 ± 0.31 (stat) ± 16.23 (sys) μb^(-1) and L = 21.93 ± 0.07 (stat) ± 0.79 (sys) μb^(-1), rispettivamente per i due run. Tali saranno forniti alla comunità di fisica che si occupa della misura delle sezioni d’urto protone-protone, elastica e totale. Nel Run II di LHC, la sezione d’urto totale protone-protone sarà stimata con un’energia nel centro di massa di 13 TeV per capire meglio la sua dipendenza dall’energia in un simile regime. Gli strumenti utilizzati e l’esperienza acquisita in questa tesi saranno fondamentali per questo scopo.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Oggi sappiamo che la materia ordinaria rappresenta solo una piccola parte dell'intero contenuto in massa dell'Universo. L'ipotesi dell'esistenza della Materia Oscura, un nuovo tipo di materia che interagisce solo gravitazionalmente e, forse, tramite la forza debole, è stata avvalorata da numerose evidenze su scala sia galattica che cosmologica. Gli sforzi rivolti alla ricerca delle cosiddette WIMPs (Weakly Interacting Massive Particles), il generico nome dato alle particelle di Materia Oscura, si sono moltiplicati nel corso degli ultimi anni. L'esperimento XENON1T, attualmente in costruzione presso i Laboratori Nazionali del Gran Sasso (LNGS) e che sarà in presa dati entro la fine del 2015, segnerà un significativo passo in avanti nella ricerca diretta di Materia Oscura, che si basa sulla rivelazione di collisioni elastiche su nuclei bersaglio. XENON1T rappresenta la fase attuale del progetto XENON, che ha già realizzato gli esperimenti XENON10 (2005) e XENON100 (2008 e tuttora in funzione) e che prevede anche un ulteriore sviluppo, chiamato XENONnT. Il rivelatore XENON1T sfrutta circa 3 tonnellate di xeno liquido (LXe) e si basa su una Time Projection Chamber (TPC) a doppia fase. Dettagliate simulazioni Monte Carlo della geometria del rivelatore, assieme a specifiche misure della radioattività dei materiali e stime della purezza dello xeno utilizzato, hanno permesso di predire con accuratezza il fondo atteso. In questo lavoro di tesi, presentiamo lo studio della sensibilità attesa per XENON1T effettuato tramite il metodo statistico chiamato Profile Likelihood (PL) Ratio, il quale nell'ambito di un approccio frequentista permette un'appropriata trattazione delle incertezze sistematiche. In un primo momento è stata stimata la sensibilità usando il metodo semplificato Likelihood Ratio che non tiene conto di alcuna sistematica. In questo modo si è potuto valutare l'impatto della principale incertezza sistematica per XENON1T, ovvero quella sulla emissione di luce di scintillazione dello xeno per rinculi nucleari di bassa energia. I risultati conclusivi ottenuti con il metodo PL indicano che XENON1T sarà in grado di migliorare significativamente gli attuali limiti di esclusione di WIMPs; la massima sensibilità raggiunge una sezione d'urto σ=1.2∙10-47 cm2 per una massa di WIMP di 50 GeV/c2 e per una esposizione nominale di 2 tonnellate∙anno. I risultati ottenuti sono in linea con l'ambizioso obiettivo di XENON1T di abbassare gli attuali limiti sulla sezione d'urto, σ, delle WIMPs di due ordini di grandezza. Con tali prestazioni, e considerando 1 tonnellata di LXe come massa fiduciale, XENON1T sarà in grado di superare gli attuali limiti (esperimento LUX, 2013) dopo soli 5 giorni di acquisizione dati.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

This paperwork compares the a numerical validation of the finite element model (FEM) with respect the experimental tests of a new generation wind turbine blade designed by TPI Composites Inc. called BSDS (Blade System Design Study). The research is focused on the analysis by finite element (FE) of the BSDS blade and its comparison with respect the experimental data from static and dynamic investigations. The goal of the research is to create a general procedure which is based on a finite element model and will be used to create an accurate digital copy for any kind of blade. The blade prototype was created in SolidWorks and the blade of Sandia National Laboratories Blade System Design Study was accurately reproduced. At a later stage the SolidWorks model was imported in Ansys Mechanical APDL where the shell geometry was created and modal, static and fatigue analysis were carried out. The outcomes of the FEM analysis were compared with the real test on the BSDS blade at Clarkson University laboratory carried out by a new procedures called Blade Test Facility that includes different methods for both the static and dynamic test of the wind turbine blade. The outcomes from the FEM analysis reproduce the real behavior of the blade subjected to static loads in a very satisfying way. A most detailed study about the material properties could improve the accuracy of the analysis.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Nowadays, data handling and data analysis in High Energy Physics requires a vast amount of computational power and storage. In particular, the world-wide LHC Com- puting Grid (LCG), an infrastructure and pool of services developed and deployed by a ample community of physicists and computer scientists, has demonstrated to be a game changer in the efficiency of data analyses during Run-I at the LHC, playing a crucial role in the Higgs boson discovery. Recently, the Cloud computing paradigm is emerging and reaching a considerable adoption level by many different scientific organizations and not only. Cloud allows to access and utilize not-owned large computing resources shared among many scientific communities. Considering the challenging requirements of LHC physics in Run-II and beyond, the LHC computing community is interested in exploring Clouds and see whether they can provide a complementary approach - or even a valid alternative - to the existing technological solutions based on Grid. In the LHC community, several experiments have been adopting Cloud approaches, and in particular the experience of the CMS experiment is of relevance to this thesis. The LHC Run-II has just started, and Cloud-based solutions are already in production for CMS. However, other approaches of Cloud usage are being thought of and are at the prototype level, as the work done in this thesis. This effort is of paramount importance to be able to equip CMS with the capability to elastically and flexibly access and utilize the computing resources needed to face the challenges of Run-III and Run-IV. The main purpose of this thesis is to present forefront Cloud approaches that allow the CMS experiment to extend to on-demand resources dynamically allocated as needed. Moreover, a direct access to Cloud resources is presented as suitable use case to face up with the CMS experiment needs. Chapter 1 presents an overview of High Energy Physics at the LHC and of the CMS experience in Run-I, as well as preparation for Run-II. Chapter 2 describes the current CMS Computing Model, and Chapter 3 provides Cloud approaches pursued and used within the CMS Collaboration. Chapter 4 and Chapter 5 discuss the original and forefront work done in this thesis to develop and test working prototypes of elastic extensions of CMS computing resources on Clouds, and HEP Computing “as a Service”. The impact of such work on a benchmark CMS physics use-cases is also demonstrated.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Le infrastrutture portuali rappresentano un elemento chiave come motore di crescita per l’economia globale. Il 74% delle merci importate ed esportate dall’UE transitano per porti. Per questo motivo sono necessari investimenti in infrastrutture e attrezzature portuali per far fronte alle previsioni di crescita del trasporto merci nel prossimo decennio. La crescita del transhipment, quindi di grossi scali chiamati hub, ha rivoluzionato la scelta delle tratte principali e la scelta degli scali. Nel corso del seguente elaborato ci si è concentrati sulla situazione dell’Alto Adriatico, analizzando lo stato attuale dei principali porti e i possibili sviluppi futuri. La situazione dell’Alto Adriatico è particolare, questi porti si trovano sulle rotte principali del trasporto globale ma vista la crescita di scambi commerciali con la Cina e l’estremo Oriente, per via dello spostamento verso Est del baricentro dell’economia, si trovano in posizione ottimale per diventare un grosso gateway. Questo è l’obbiettivo che si sono prefissati i porti del Nord Adriatico cioè far capire che risalire l’Adriatico, anche se fuori dalle rotte può risultare conveniente visto il risparmio di cinque giorni di navigazione, rispetto ai porti del Nord Europa, che si traduce in un risparmio di tempo e di costi. Per creare attrattiva sono stati svolti, e continuano, numerosi investimenti per lo sviluppo dei fondali e del retroporto, nel tentativo di potersi affermare all’interno del mercato europeo e globale. Nel corso dell’elaborato saranno analizzati i grossi vantaggi di cui godono i porti del Nord Adriatico grazie alla loro posizione geografica, e alcune delle problematiche che ostacolano la crescita.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Durante il Long Shutdown 1 di LHC sono stati cambiati i fotomoltiplicatori del rivelatore di luminosità LUCID di ATLAS. I due modelli candidati per la sostituzione sono stati sottoposti a test di resistenza alla radiazione di gamma e neutroni. In questa tesi si riportano i risultati delle misure di dark current, risposta spettrale, guadagno relativo e assoluto, prima e dopo l’irraggiamento con neutroni. L’unica differenza di rilievo riguarda un aumento della dark current, gli altri parametri non presentano variazioni entro la precisione delle misure. Non ci sono differenze sostanziali tra i due modelli per quanto riguarda la resistenza alle radiazioni.