145 resultados para neutroni simulazione scintillatori geant4 nucleare LNL lengnaro infn
Resumo:
In this thesis we present a study of the D0 meson (through one of its two-body decay channel, D0 → Kπ) collected by the CDF II experiment at the Tevatron pp ̄ collider at Fermilab. In particular we measured the differential production cross section as a function of the transverse momentum down to pT = 1.5 GeV/c.
Resumo:
The assessment of the RAMS (Reliability, Availability, Maintainability and Safety) performances of system generally includes the evaluations of the “Importance” of its components and/or of the basic parameters of the model through the use of the Importance Measures. The analytical equations proposed in this study allow the estimation of the first order Differential Importance Measure on the basis of the Birnbaum measures of components, under the hypothesis of uniform percentage changes of parameters. The aging phenomena are introduced into the model by assuming exponential-linear or Weibull distributions for the failure probabilities. An algorithm based on a combination of MonteCarlo simulation and Cellular Automata is applied in order to evaluate the performance of a networked system, made up of source nodes, user nodes and directed edges subjected to failure and repair. Importance Sampling techniques are used for the estimation of the first and total order Differential Importance Measures through only one simulation of the system “operational life”. All the output variables are computed contemporaneously on the basis of the same sequence of the involved components, event types (failure or repair) and transition times. The failure/repair probabilities are forced to be the same for all components; the transition times are sampled from the unbiased probability distributions or it can be also forced, for instance, by assuring the occurrence of at least a failure within the system operational life. The algorithm allows considering different types of maintenance actions: corrective maintenance that can be performed either immediately upon the component failure or upon finding that the component has failed for hidden failures that are not detected until an inspection; and preventive maintenance, that can be performed upon a fixed interval. It is possible to use a restoration factor to determine the age of the component after a repair or any other maintenance action.
Resumo:
The hard X-ray band (10 - 100 keV) has been only observed so far by collimated and coded aperture mask instruments, with a sensitivity and an angular resolution lower than two orders of magnitude as respects the current X-ray focusing telescopes operating below 10 - 15 keV. The technological advance in X-ray mirrors and detection systems is now able to extend the X-ray focusing technique to the hard X-ray domain, filling the gap in terms of observational performances and providing a totally new deep view on some of the most energetic phenomena of the Universe. In order to reach a sensitivity of 1 muCrab in the 10 - 40 keV energy range, a great care in the background minimization is required, a common issue for all the hard X-ray focusing telescopes. In the present PhD thesis, a comprehensive analysis of the space radiation environment, the payload design and the resulting prompt X-ray background level is presented, with the aim of driving the feasibility study of the shielding system and assessing the scientific requirements of the future hard X-ray missions. A Geant4 based multi-mission background simulator, BoGEMMS, is developed to be applied to any high energy mission for which the shielding and instruments performances are required. It allows to interactively create a virtual model of the telescope and expose it to the space radiation environment, tracking the particles along their path and filtering the simulated background counts as a real observation in space. Its flexibility is exploited to evaluate the background spectra of the Simbol-X and NHXM mission, as well as the soft proton scattering by the X-ray optics and the selection of the best shielding configuration. Altough the Simbol-X and NHXM missions are the case studies of the background analysis, the obtained results can be generalized to any future hard X-ray telescope. For this reason, a simplified, ideal payload model is also used to select the major sources of background in LEO. All the results are original contributions to the assessment studies of the cited missions, as part of the background groups activities.
Resumo:
In the thesis is presented the measurement of the neutrino velocity with the OPERA experiment in the CNGS beam, a muon neutrino beam produced at CERN. The OPERA detector observes muon neutrinos 730 km away from the source. Previous measurements of the neutrino velocity have been performed by other experiments. Since the OPERA experiment aims the direct observation of muon neutrinos oscillations into tau neutrinos, a higher energy beam is employed. This characteristic together with the higher number of interactions in the detector allows for a measurement with a much smaller statistical uncertainty. Moreover, a much more sophisticated timing system (composed by cesium clocks and GPS receivers operating in “common view mode”), and a Fast Waveform Digitizer (installed at CERN and able to measure the internal time structure of the proton pulses used for the CNGS beam), allows for a new measurement with a smaller systematic error. Theoretical models on Lorentz violating effects can be investigated by neutrino velocity measurements with terrestrial beams. The analysis has been carried out with blind method in order to guarantee the internal consistency and the goodness of each calibration measurement. The performed measurement is the most precise one done with a terrestrial neutrino beam, the statistical accuracy achieved by the OPERA measurement is about 10 ns and the systematic error is about 20 ns.
Resumo:
The atmospheric muon charge ratio, defined as the number of positive over negative charged muons, is an interesting quantity for the study of high energy hadronic interactions in atmosphere and the nature of the primary cosmic rays. The measurement of the charge ratio in the TeV muon energy range allows to study the hadronic interactions in kinematic regions not yet explored at accelerators. The OPERA experiment is a hybrid electronic detector/emulsion apparatus, located in the underground Gran Sasso Laboratory, at an average depth of 3800 meters water equivalent (m.w.e.). OPERA is the first large magnetized detector that can measure the muon charge ratio at the LNGS depth, with a wide acceptance for cosmic ray muons coming from above. In this thesis, the muon charge ratio is measured using the spectrometers of the OPERA detector in the highest energy region. The charge ratio was computed separately for single and for multiple muon events, in order to select different primary cosmic ray samples in energy and composition. The measurement as a function of the surface muon energy is used to infer parameters characterizing the particle production in atmosphere, that will be used to constrain Monte Carlo predictions. Finally, the experimental results are interpreted in terms of cosmic ray and particle physics models.
Resumo:
La narcolessia è un disturbo del sonno disabilitante caratterizzato da eccessiva sonnolenza diurna associata a disturbi del sonno REM che si manifestano con cataplessia (improvvisa perdita del tono muscolare scatenata da forti emozioni), paralisi del sonno (all’addormentamento o al risveglio) e allucinazioni ipnagogiche. Al momento attuale sono in corso studi di genome-wide solo sul genoma nucleare, l'unico ulteriore materiale genetico non indagato finora per una eventuale predisposizione genetica multifattoriale alla narcolessia è il genoma mitocondriale, che, a causa della sua variabilità, possiede un potenziale ruolo protettivo/predisponente nell’ambito di diverse malattie neurodegenerative, metaboliche ed infettive. Come obiettivo della tesi si propone la ricerca di eventuali polimorfismi sul DNA mitocondriale in grado di agire come fattori di suscettibilità/protezione nei confronti della narcolessia e di confermare quindi l’importante legame tra metabolismo bioenergetico, beta ossidazione e narcolessia. In particolare, vista la già nota capacità degli aplogruppi mitocondriali di modulare l’espressione di diverse malattie neurodegenerative, sono stati identificati i principali aplogruppi mitocondriali in un campione di pazienti con narcolessia successivamente confrontati con una popolazione di controllo per cercare eventuali differenze di distribuzione statisticamente significative tra le due popolazioni. I risultati presentati in questo studio completano con l’analisi del DNA mitocondriale i precedenti studi “genome wide”. L’assenza di associazione statisticamente significativa tra aplogruppi mitocondriali e narcolessia non esclude ancora il ruolo che la variabilità genetica del DNA mitocondriale può giocare nella patogenesi della narcolessia. La definitiva esclusione può essere conclusa solo espandendo la coorte dei pazienti studiati e considerando possibilmente origini etnico-geografiche diverse.
Resumo:
Lo scopo di questa tesi di dottorato di ricerca consiste nel fornire la giusta collocazione della manutenzione fra le discipline dell'ingegneria, raccogliendo e formalizzando le metodologie di analisi di affidabilità e di pianificazione degli interventi all'interno di un unico processo di progettazione e di controllo. In linea di principio, un processo di analisi dei guasti e di programmazione della manutenzione deve essere in grado di fornire chiare e sicure risposte ai seguenti interrogativi: Quali sono le funzioni richieste e con quali criteri di prestazioni il sistema è chiamato ad assolverle? Qual'è l'andamento della disponibilità del sistema in funzione del tempo? Quanti guasti e di quale tipo si possono verificare durante la vita del sistema? Quali possono essere le conseguenze che ledono la sicurezza e la protezione ambientale? Quanti pezzi di ricambio sono necessari? Che tipo di interventi di manutenzione preventiva risultano tecnicamente fattibili? A quali scadenze devono essere programmati? A quanto ammonta la previsione del costo di esercizio del sistema? Quante squadre di manutenzione devono essere assegnate al sistema? Come deve essere organizzata la logistica di manutenzione? Con quali tecniche si prevede di riconoscere i guasti e quali procedure devono essere attivate per farvi fronte? E' possibile implementare tecniche di `condition monitoring' delle macchine? Su quali tempi di preavviso sui guasti si può contare? In tal senso, la manutenzione necessita delle tecniche e degli opportuni strumenti che siano in grado di misurarne l'efficacia e l'efficienza. L'efficacia in primo luogo, in quanto l'obiettivo principe consiste nel garantire che il sistema oggetto di studio continui a svolgere le proprie funzioni nei limiti di prestazioni accettabili, secondo le specifiche richieste degli utilizzatori. L'efficienza in secondo luogo, ma non per questo di minore importanza, in quanto perseguendo l'obiettivo di cui sopra, occorre impegnare il minimo di risorse possibili, organizzando con razionalità il supporto logistico del sistema al fine di raggiungere i massimi livelli di rendimento di gestione. La migliore strategia di manutenzione può essere pianificata, a priori, solo se si è in grado di prevedere con la necessaria precisione l'evoluzione del sistema nel suo contesto operativo futuro. E' allora possibile formulare un modello matematico del sistema, studiarne la dinamica ed osservare le reazioni alla simulazione di eventuali stimoli esterni. I metodi ed i modelli noti dell'ingegneria dei sistemi possono essere molto utili per la risoluzione di casi semplici, ma sovente richiedono la formulazione di ipotesi troppo restrittive che aumentano in modo inaccettabile la distanza del modello dalla realtà. Una strada alternativa ed affascinante, che ho percorso con entusiasmo durante questi tre anni di studi e ricerca, consiste nella simulazione numerica della vita del sistema, utilizzando il metodo Monte Carlo per la gestione dei processi stocastici di guasto e per l'esecuzione degli interventi di manutenzione. Ho quindi messo a punto il codice di simulazione RAMSES, perseguendo l'idea di costruire uno strumento di misura dell'efficacia e dell'efficienza di una politica di manutenzione simulata al calcolatore. Nella tesi si presentano i concetti di base dell'ingegneria dei sistemi applicata al caso della manutenzione e si introduce il formalismo della Reliability Centred Maintenance come miglior guida nella pianificazione delle schede di manutenzione. Si introducono le nozioni di base per fornire una struttura solida e corretta alla simulazione numerica dei sistemi riparabili e si presenta il codice RAMSES corredando le informazioni tecniche con i dovuti esempi ed applicazioni pratiche. Si conclude il lavoro, infine, con la presentazione di un modello di massima verosimiglianza particolarmente utile per le analisi dei dati sperimentali di guasto dei componenti.
Resumo:
Charmless charged two-body B decays are sensitive probes of the CKM matrix, that parameterize CP violation in the Standard Model (SM), and have the potential to reveal the presence of New Physics. The framework of CP violation within the SM, the role of the CKM matrix, with its basic formalism, and the current experimental status are presented. The theoretical tools commonly used to deal with hadronic B decays and an overview of the phenomenology of charmless two-body B decays are outlined. LHCb is one of the four main experiments operating at the Large Hadron Collider (LHC), devoted to the measurement of CP violation and rare decays of charm and beauty hadrons. The LHCb detector is described, focusing on the technologies adopted for each sub-detector and summarizing their performances. The status-of-the-art of the LHCb measurements with charmless two-body B decays is then presented. Using the 37/pb of integrated luminosity collected at sqrt(s) = 7 TeV by LHCb during 2010, the direct CP asymmetries ACP(B0 -> Kpi) = −0.074 +/- 0.033 +/- 0.008 and ACP(Bs -> piK) = 0.15 +/- 0.19 +/- 0.02 are measured. Using 320/pb of integrated luminosity collected during 2011 these measurements are updated to ACP(B0 -> Kpi) = −0.088 +/- 0.011 +/- 0.008 and ACP(Bs -> piK) = 0.27 +/- 0.08 +/- 0.02. In addition, the branching ratios BR(B0 -> K+K-) = (0.13+0.06-0.05 +/- 0.07) x 10^-6 and BR(Bs -> pi+pi-) = (0.98+0.23-0.19 +/- 0.11) x 10^-6 are measured. Finally, using a sample of 370/pb of integrated luminosity collected during 2011, the relative branching ratios BR(B0 -> pi+pi-)/BR(B0 -> Kpi) = 0.262 +/- 0.009 +/- 0.017, (fs/fd)BR(Bs -> K+K-)/BR(B0 -> Kpi)=0.316 +/- 0.009 +/- 0.019, (fs/fd)BR(Bs -> piK)/BR(B0 -> Kpi) = 0.074 +/- 0.006 +/- 0.006 and BR(Lambda_b -> ppi)/BR(Lambda_b -> pK)=0.86 +/- 0.08 +/- 0.05 are determined.
Resumo:
In this thesis the analysis to reconstruct the transverse momentum p_{t} spectra for pions, kaons and protons identified with the TOF detector of the ALICE experiment in pp Minimum Bias collisions at $\sqrt{s}=7$ TeV was reported.
After a detailed description of all the parameters which influence the TOF PID performance (time resolution, calibration, alignment, matching efficiency, time-zero of the event) the method used to identify the particles, the unfolding procedure, was discussed. With this method, thanks also to the excellent TOF performance, the pion and kaon spectra can be reconstructed in the 0.5
Resumo:
The surprising discovery of the X(3872) resonance by the Belle experiment in 2003, and subsequent confirmation by BaBar, CDF and D0, opened up a new chapter of QCD studies and puzzles. Since then, detailed experimental and theoretical studies have been performed in attempt to determine and explain the proprieties of this state. Since the end of 2009 the world’s largest and highest-energy particle accelerator, the Large Hadron Collider (LHC), started its operations at the CERN laboratories in Geneva. One of the main experiments at LHC is CMS (Compact Muon Solenoid), a general purpose detector projected to address a wide range of physical phenomena, in particular the search of the Higgs boson, the only still unconfirmed element of the Standard Model (SM) of particle interactions and, new physics beyond the SM itself. Even if CMS has been designed to study high energy events, it’s high resolution central tracker and superior muon spectrometer made it an optimal tool to study the X(3872) state. In this thesis are presented the results of a series of study on the X(3872) state performed with the CMS experiment. Already with the first year worth of data, a clear peak for the X(3872) has been identified, and the measurement of the cross section ratio with respect to the Psi(2S) has been performed. With the increased statistic collected during 2011 it has been possible to study, in bins of transverse momentum, the cross section ratio between X(3872) and Psi(2S) and separate their prompt and non-prompt component.
Resumo:
La tesi di Dottorato studia il flusso sanguigno tramite un codice agli elementi finiti (COMSOL Multiphysics). Nell’arteria è presente un catetere Doppler (in posizione concentrica o decentrata rispetto all’asse di simmetria) o di stenosi di varia forma ed estensione. Le arterie sono solidi cilindrici rigidi, elastici o iperelastici. Le arterie hanno diametri di 6 mm, 5 mm, 4 mm e 2 mm. Il flusso ematico è in regime laminare stazionario e transitorio, ed il sangue è un fluido non-Newtoniano di Casson, modificato secondo la formulazione di Gonzales & Moraga. Le analisi numeriche sono realizzate in domini tridimensionali e bidimensionali, in quest’ultimo caso analizzando l’interazione fluido-strutturale. Nei casi tridimensionali, le arterie (simulazioni fluidodinamiche) sono infinitamente rigide: ricavato il campo di pressione si procede quindi all’analisi strutturale, per determinare le variazioni di sezione e la permanenza del disturbo sul flusso. La portata sanguigna è determinata nei casi tridimensionali con catetere individuando tre valori (massimo, minimo e medio); mentre per i casi 2D e tridimensionali con arterie stenotiche la legge di pressione riproduce l’impulso ematico. La mesh è triangolare (2D) o tetraedrica (3D), infittita alla parete ed a valle dell’ostacolo, per catturare le ricircolazioni. Alla tesi sono allegate due appendici, che studiano con codici CFD la trasmissione del calore in microcanali e l’ evaporazione di gocce d’acqua in sistemi non confinati. La fluidodinamica nei microcanali è analoga all’emodinamica nei capillari. Il metodo Euleriano-Lagrangiano (simulazioni dell’evaporazione) schematizza la natura mista del sangue. La parte inerente ai microcanali analizza il transitorio a seguito dell’applicazione di un flusso termico variabile nel tempo, variando velocità in ingresso e dimensioni del microcanale. L’indagine sull’evaporazione di gocce è un’analisi parametrica in 3D, che esamina il peso del singolo parametro (temperatura esterna, diametro iniziale, umidità relativa, velocità iniziale, coefficiente di diffusione) per individuare quello che influenza maggiormente il fenomeno.
Resumo:
Il tomografo sonico è uno strumento di recente applicazione nell’analisi morfo-sintomatica delle alberature. Si tratta di uno strumento che sfrutta la propagazione delle onde sonore nel legno per determinarne la densità e le possibili alterazioni interne. Oltre all’applicazione su larga scala in un parco di Imola, per effettuare una valutazione approfondita di tutti gli esemplari, lo strumento è stato applicato per scopi diversi. In prima analisi è stato utilizzato per valutare stadi precoci di alterazione e l’evoluzione delle patologie interne nel tempo. Successivamente si voleva identificare il percorso di sostanze liquide iniettate con mezzi endoterapici nel tronco, attraverso l’applicazione di tomografia sonica sopra e sotto il punto di iniezione. In ultima analisi è stato effettuato un confronto tra tomografia sonica e risonanza magnetica nucleare per identificare patologie invisibili ai normali strumenti utilizzati nell’analisi della stabilità delle piante.
Resumo:
Nei processi di progettazione e produzione tramite tecnologie di colata di componenti in alluminio ad elevate prestazioni, risulta fondamentale poter prevedere la presenza e la quantità di difetti correlabili a design non corretti e a determinate condizioni di processo. Fra le difettologie più comuni di un getto in alluminio, le porosità con dimensioni di decine o centinaia di m, note come microporosità, hanno un impatto estremamente negativo sulle caratteristiche meccaniche, sia statiche che a fatica. In questo lavoro, dopo un’adeguata analisi bibliografica, sono state progettate e messe a punto attrezzature e procedure sperimentali che permettessero la produzione di materiale a difettologia e microstruttura differenziata, a partire da condizioni di processo note ed accuratamente misurabili, che riproducessero la variabilità delle stesse nell’ambito della reale produzione di componenti fusi. Tutte le attività di progettazione delle sperimentazioni, sono state coadiuvate dall’ausilio di software di simulazione del processo fusorio che hanno a loro volta beneficiato di tarature e validazioni sperimentali ad hoc. L’apparato sperimentale ha dimostrato la propria efficacia nella produzione di materiale a microstruttura e difettologia differenziata, in maniera robusta e ripetibile. Utilizzando i risultati sperimentali ottenuti, si è svolta la validazione di un modello numerico di previsione delle porosità da ritiro e gas, ritenuto ad oggi allo stato dell’arte e già implementato in alcuni codici commerciali di simulazione del processo fusorio. I risultati numerici e sperimentali, una volta comparati, hanno evidenziato una buona accuratezza del modello numerico nella previsione delle difettologie sia in termini di ordini di grandezza che di gradienti della porosità nei getti realizzati.
Resumo:
La studio dell’efficienza di un indice azionario ha accresciuto la propria importanza nell’industria dell’asset management a seguito della diffusione dell’utilizzo di benchmark e investimenti indicizzati. Il presente lavoro valuta il livello di efficienza dei principali indici del mercato azionario statunitense, dell’Area Euro e italiano. Lo studio empirico ricorre a quattro misure di efficienza: il GRS, un test small-sample multivariato fondato sul CAPM; il test large sample di Wald, implementato tramite una simulazione bootstrap; il test GMM, che è stato applicato in una cornice non-gaussiana attraverso una simulazione block bootstrap; la misura di efficienza relativa di Kandel e Stambaugh. I risultati empirici forniscono una prova evidente della superiore efficienza degli indici equiponderati. Questa conclusione è interpretata sulla base della letteratura scientifica esistente, analizzando le diverse cause di ordine teorico ed empirico che sono state proposte.