145 resultados para neutroni simulazione scintillatori geant4 nucleare LNL lengnaro infn
Resumo:
L’obiettivo del lavoro consiste nell’implementare una metodologia operativa volta alla progettazione di reti di monitoraggio e di campagne di misura della qualità dell’aria con l’utilizzo del laboratorio mobile, ottimizzando le posizioni dei dispositivi di campionamento rispetto a differenti obiettivi e criteri di scelta. La revisione e l’analisi degli approcci e delle indicazioni fornite dalla normativa di riferimento e dai diversi autori di lavori scientifici ha permesso di proporre un approccio metodologico costituito da due fasi operative principali, che è stato applicato ad un caso studio rappresentato dal territorio della provincia di Ravenna. La metodologia implementata prevede l’integrazione di numerosi strumenti di supporto alla valutazione dello stato di qualità dell’aria e degli effetti che gli inquinanti atmosferici possono generare su specifici recettori sensibili (popolazione residente, vegetazione, beni materiali). In particolare, la metodologia integra approcci di disaggregazione degli inventari delle emissioni attraverso l’utilizzo di variabili proxy, strumenti modellistici per la simulazione della dispersione degli inquinanti in atmosfera ed algoritmi di allocazione degli strumenti di monitoraggio attraverso la massimizzazione (o minimizzazione) di specifiche funzioni obiettivo. La procedura di allocazione sviluppata è stata automatizzata attraverso lo sviluppo di un software che, mediante un’interfaccia grafica di interrogazione, consente di identificare delle aree ottimali per realizzare le diverse campagne di monitoraggio
Resumo:
The Schroeder's backward integration method is the most used method to extract the decay curve of an acoustic impulse response and to calculate the reverberation time from this curve. In the literature the limits and the possible improvements of this method are widely discussed. In this work a new method is proposed for the evaluation of the energy decay curve. The new method has been implemented in a Matlab toolbox. Its performance has been tested versus the most accredited literature method. The values of EDT and reverberation time extracted from the energy decay curves calculated with both methods have been compared in terms of the values themselves and in terms of their statistical representativeness. The main case study consists of nine Italian historical theatres in which acoustical measurements were performed. The comparison of the two extraction methods has also been applied to a critical case, i.e. the structural impulse responses of some building elements. The comparison underlines that both methods return a comparable value of the T30. Decreasing the range of evaluation, they reveal increasing differences; in particular, the main differences are in the first part of the decay, where the EDT is evaluated. This is a consequence of the fact that the new method returns a “locally" defined energy decay curve, whereas the Schroeder's method accumulates energy from the tail to the beginning of the impulse response. Another characteristic of the new method for the energy decay extraction curve is its independence on the background noise estimation. Finally, a statistical analysis is performed on the T30 and EDT values calculated from the impulse responses measurements in the Italian historical theatres. The aim of this evaluation is to know whether a subset of measurements could be considered representative for a complete characterization of these opera houses.
Resumo:
Negli anni Ottanta si assiste tanto nel vecchio quanto nel nuovo continente alla rinascita del movimento antinucleare. Mentre in Europa l’origine di questa ondata di proteste antinucleari è collegata alla “doppia decisione” NATO del 1979, negli Stati Uniti la genesi si colloca nel contesto dalla mobilitazione dei gruppi ambientalisti in seguito all’incidente alla centrale nucleare di Three Mile Island. Dopo l’elezione di Ronald Reagan, alle proteste contro le applicazioni pacifiche dell’atomo si affiancarono quelle contro la politica nucleare del Paese. La retorica di Reagan, il massiccio piano di riarmo, unitamente al rinnovato deteriorarsi delle relazioni tra USA e URSS contribuirono a diffondere nell’opinione pubblica la sensazione che l’amministrazione Reagan, almeno da un punto di vista teorico, non avesse escluso dalle sue opzioni il ricorso alle armi nucleari nel caso di un confronto con l’URSS. I timori legati a questa percezione produssero una nuova ondata di proteste che assunsero dimensioni di massa grazie alla mobilitazione provocata dalla Nuclear Weapons Freeze Campaign (NWFC). Il target della NWFC era l’ampio programma di riarmo nucleare sostenuto da Reagan, che secondo gli attivisti nucleari, in un quadro di crescenti tensioni internazionali, avrebbe fatto aumentare le possibilità di uno scontro atomico. Per evitare lo scenario dell’olocausto nucleare, la NWFC proponeva «un congelamento bilaterale e verificabile del collaudo, dell’installazione e della produzione di armi nucleari». L’idea del nuclear freeze, che era concepito come un passo per fermare la spirale del riarmo e tentare successivamente di negoziare riduzioni negli arsenali delle due superpotenze, riscosse un tale consenso nell’opinione pubblica americana da indurre l’amministrazione Reagan a formulare una risposta specifica. Durante la primavera del 1982 fu, infatti, creato un gruppo interdipartimentale ad hoc, l’Arms Control Information Policy Group, con il compito di arginare l’influenza della NWFC sull’opinione pubblica americana e formulare una risposta coerente alle critiche del movimento antinucleare.
Resumo:
The purpose of this thesis is the atomic-scale simulation of the crystal-chemical and physical (phonon, energetic) properties of some strategically important minerals for structural ceramics, biomedical and petrological applications. These properties affect the thermodynamic stability and rule the mineral-environment interface phenomena, with important economical, (bio)technological, petrological and environmental implications. The minerals of interest belong to the family of phyllosilicates (talc, pyrophyllite and muscovite) and apatite (OHAp), chosen for their importance in industrial and biomedical applications (structural ceramics) and petrophysics. In this thesis work we have applicated quantum mechanics methods, formulas and knowledge to the resolution of mineralogical problems ("Quantum Mineralogy”). The chosen theoretical approach is the Density Functional Theory (DFT), along with periodic boundary conditions to limit the portion of the mineral in analysis to the crystallographic cell and the hybrid functional B3LYP. The crystalline orbitals were simulated by linear combination of Gaussian functions (GTO). The dispersive forces, which are important for the structural determination of phyllosilicates and not properly con-sidered in pure DFT method, have been included by means of a semi-empirical correction. The phonon and the mechanical properties were also calculated. The equation of state, both in athermal conditions and in a wide temperature range, has been obtained by means of variations in the volume of the cell and quasi-harmonic approximation. Some thermo-chemical properties of the minerals (isochoric and isobaric thermal capacity) were calculated, because of their considerable applicative importance. For the first time three-dimensional charts related to these properties at different pressures and temperatures were provided. The hydroxylapatite has been studied from the standpoint of structural and phonon properties for its biotechnological role. In fact, biological apatite represents the inorganic phase of vertebrate hard tissues. Numerous carbonated (hydroxyl)apatite structures were modelled by QM to cover the broadest spectrum of possible biological structural variations to fulfil bioceramics applications.
Resumo:
Tradizionalmente, l'obiettivo della calibrazione di un modello afflussi-deflussi è sempre stato quello di ottenere un set di parametri (o una distribuzione di probabilità dei parametri) che massimizzasse l'adattamento dei dati simulati alla realtà osservata, trattando parzialmente le finalità applicative del modello. Nel lavoro di tesi viene proposta una metodologia di calibrazione che trae spunto dell'evidenza che non sempre la corrispondenza tra dati osservati e simulati rappresenti il criterio più appropriato per calibrare un modello idrologico. Ai fini applicativi infatti, può risultare maggiormente utile una miglior rappresentazione di un determinato aspetto dell'idrogramma piuttosto che un altro. Il metodo di calibrazione che viene proposto mira a valutare le prestazioni del modello stimandone l'utilità nell'applicazione prevista. Tramite l'utilizzo di opportune funzioni, ad ogni passo temporale viene valutata l'utilità della simulazione ottenuta. La calibrazione viene quindi eseguita attraverso la massimizzazione di una funzione obiettivo costituita dalla somma delle utilità stimate nei singoli passi temporali. Le analisi mostrano come attraverso l'impiego di tali funzioni obiettivo sia possibile migliorare le prestazioni del modello laddove ritenute di maggior interesse per per le finalità applicative previste.
Resumo:
In the context of increasing beam energy and luminosity of the LHC accelerator at CERN, it will be important to accurately measure the Machine Induced Background. A new monitoring system will be installed in the CMS cavern for measuring the beam background at high radius. This detector, called the Beam Halo Monitor, will provide an online, bunch-by-bunch measurement of background induced by beam halo interactions, separately for each beam. The detector is composed of synthetic quartz Cherenkov radiators, coupled to fast UV sensitive photomultiplier tubes. The directional and fast response of the system allows the discrimination of the background particles from the dominant flux in the cavern induced by pp collision debris, produced within the 25 ns bunch spacing. The readout electronics of this detector will make use of many components developed for the upgrade of the CMS Hadron Calorimeter electronics, with a dedicated firmware and readout adapted to the beam monitoring requirements. The PMT signal will be digitized by a charge integrating ASIC, providing both the signal rise time and the charge integrated over one bunch crossing. The backend electronics will record bunch-by-bunch histograms, which will be published to CMS and the LHC using the newly designed CMS beam instrumentation specific DAQ. A calibration and monitoring system has been designed to generate triggered pulses of UV light to monitor the efficiency of the system. The experimental results validating the design of the detector, the calibration system and the electronics will be presented.
Resumo:
Theories and numerical modeling are fundamental tools for understanding, optimizing and designing present and future laser-plasma accelerators (LPAs). Laser evolution and plasma wave excitation in a LPA driven by a weakly relativistically intense, short-pulse laser propagating in a preformed parabolic plasma channel, is studied analytically in 3D including the effects of pulse steepening and energy depletion. At higher laser intensities, the process of electron self-injection in the nonlinear bubble wake regime is studied by means of fully self-consistent Particle-in-Cell simulations. Considering a non-evolving laser driver propagating with a prescribed velocity, the geometrical properties of the non-evolving bubble wake are studied. For a range of parameters of interest for laser plasma acceleration, The dependence of the threshold for self-injection in the non-evolving wake on laser intensity and wake velocity is characterized. Due to the nonlinear and complex nature of the Physics involved, computationally challenging numerical simulations are required to model laser-plasma accelerators operating at relativistic laser intensities. The numerical and computational optimizations, that combined in the codes INF&RNO and INF&RNO/quasi-static give the possibility to accurately model multi-GeV laser wakefield acceleration stages with present supercomputing architectures, are discussed. The PIC code jasmine, capable of efficiently running laser-plasma simulations on Graphics Processing Units (GPUs) clusters, is presented. GPUs deliver exceptional performance to PIC codes, but the core algorithms had to be redesigned for satisfying the constraints imposed by the intrinsic parallelism of the architecture. The simulation campaigns, run with the code jasmine for modeling the recent LPA experiments with the INFN-FLAME and CNR-ILIL laser systems, are also presented.
Resumo:
The production rate of $b$ and $\bar{b}$ hadrons in $pp$ collisions are not expected to be strictly identical, due to imbalance between quarks and anti-quarks in the initial state. This phenomenon can be naively related to the fact that the $\bar{b}$ quark produced in the hard scattering might combine with a $u$ or $d$ valence quark from the colliding protons, whereas the same cannot happen for a $b$ quark. This thesis presents the analysis performed to determine the production asymmetries of $B^0$ and $B^0_s$. The analysis relies on data samples collected by the LHCb detector at the Large Hadron Collider (LHC) during the 2011 and 2012 data takings at two different values of the centre of mass energy $\sqrt{s}=7$ TeV and at $\sqrt{s}=8$ TeV, corresponding respectively to an integrated luminosity of 1 fb$^{-1}$ and of 2 fb$^{-1}$. The production asymmetry is one of the key ingredients to perform measurements of $CP$ violation in b-hadron decays at the LHC, since $CP$ asymmetries must be disentangled from other sources. The measurements of the production asymmetries are performed in bins of $p_\mathrm{T}$ and $\eta$ of the $B$-meson. The values of the production asymmetries, integrated in the ranges $4 < p_\mathrm{T} < 30$ GeV/c and $2.5<\eta<4.5$, are determined to be: \begin{equation} A_\mathrm{P}(\B^0)= (-1.00\pm0.48\pm0.29)\%,\nonumber \end{equation} \begin{equation} A_\mathrm{P}(\B^0_s)= (\phantom{-}1.09\pm2.61\pm0.61)\%,\nonumber \end{equation} where the first uncertainty is statistical and the second is systematic. The measurement of $A_\mathrm{P}(B^0)$ is performed using the full statistics collected by LHCb so far, corresponding to an integrated luminosity of 3 fb$^{-1}$, while the measurement of $A_\mathrm{P}(B^0_s)$ is realized with the first 1 fb$^{-1}$, leaving room for improvement. No clear evidence of dependences on the values of $p_\mathrm{T}$ and $\eta$ is observed. The results presented in this thesis are the most precise measurements available up to date.
Resumo:
Despite the scientific achievement of the last decades in the astrophysical and cosmological fields, the majority of the Universe energy content is still unknown. A potential solution to the “missing mass problem” is the existence of dark matter in the form of WIMPs. Due to the very small cross section for WIMP-nuleon interactions, the number of expected events is very limited (about 1 ev/tonne/year), thus requiring detectors with large target mass and low background level. The aim of the XENON1T experiment, the first tonne-scale LXe based detector, is to be sensitive to WIMP-nucleon cross section as low as 10^-47 cm^2. To investigate the possibility of such a detector to reach its goal, Monte Carlo simulations are mandatory to estimate the background. To this aim, the GEANT4 toolkit has been used to implement the detector geometry and to simulate the decays from the various background sources: electromagnetic and nuclear. From the analysis of the simulations, the level of background has been found totally acceptable for the experiment purposes: about 1 background event in a 2 tonne-years exposure. Indeed, using the Maximum Gap method, the XENON1T sensitivity has been evaluated and the minimum for the WIMP-nucleon cross sections has been found at 1.87 x 10^-47 cm^2, at 90% CL, for a WIMP mass of 45 GeV/c^2. The results have been independently cross checked by using the Likelihood Ratio method that confirmed such results with an agreement within less than a factor two. Such a result is completely acceptable considering the intrinsic differences between the two statistical methods. Thus, in the PhD thesis it has been proven that the XENON1T detector will be able to reach the designed sensitivity, thus lowering the limits on the WIMP-nucleon cross section by about 2 orders of magnitude with respect to the current experiments.
Resumo:
This work presents first a study of the national and international laws in the fields of safety, security and safeguards. The international treaties and the recommendations issued by the IAEA as well as the national regulations in force in France, the United States and Italy are analyzed. As a result of this, a comparison among them is presented. Given the interest of the Japan Atomic Energy Agency for the aspects of criminal penalties and monetary, also the Japanese case is analyzed. The main part of this work was held at the JAEA in the field of proliferation resistance (PR) and physical protection (PP) of a GEN IV sodium fast reactor. For this purpose the design of the system is completed and the PR & PP methodology is applied to obtain data usable by designers for the improvement of the system itself. Due to the presence of sensitive data, not all the details can be disclosed. The reactor site of a hypothetical and commercial sodium-cooled fast neutron nuclear reactor system (SFR) is used as the target NES for the application of the methodology. The methodology is applied to all the PR and PP scenarios: diversion, misuse and breakout; theft and sabotage. The methodology is applied to the SFR to check if this system meets the target of PR and PP as described in the GIF goal; secondly, a comparison between the SFR and a LWR is performed to evaluate if and how it would be possible to improve the PR&PP of the SFR. The comparison is implemented according to the example development target: achieving PR&PP similar or superior to domestic and international ALWR. Three main actions were performed: implement the evaluation methodology; characterize the PR&PP for the nuclear energy system; identify recommendations for system designers through the comparison.
Resumo:
The first part of this work deals with the inverse problem solution in the X-ray spectroscopy field. An original strategy to solve the inverse problem by using the maximum entropy principle is illustrated. It is built the code UMESTRAT, to apply the described strategy in a semiautomatic way. The application of UMESTRAT is shown with a computational example. The second part of this work deals with the improvement of the X-ray Boltzmann model, by studying two radiative interactions neglected in the current photon models. Firstly it is studied the characteristic line emission due to Compton ionization. It is developed a strategy that allows the evaluation of this contribution for the shells K, L and M of all elements with Z from 11 to 92. It is evaluated the single shell Compton/photoelectric ratio as a function of the primary photon energy. It is derived the energy values at which the Compton interaction becomes the prevailing process to produce ionization for the considered shells. Finally it is introduced a new kernel for the XRF from Compton ionization. In a second place it is characterized the bremsstrahlung radiative contribution due the secondary electrons. The bremsstrahlung radiation is characterized in terms of space, angle and energy, for all elements whit Z=1-92 in the energy range 1–150 keV by using the Monte Carlo code PENELOPE. It is demonstrated that bremsstrahlung radiative contribution can be well approximated with an isotropic point photon source. It is created a data library comprising the energetic distributions of bremsstrahlung. It is developed a new bremsstrahlung kernel which allows the introduction of this contribution in the modified Boltzmann equation. An example of application to the simulation of a synchrotron experiment is shown.
Resumo:
L’anguilla europea, è una specie eurialina catadroma con un complesso ciclo biologico: l’area di riproduzione, unica, si trova molto distante da quella di distribuzione. La specie necessita di una gestione dello stock a fini conservazionistici. Il problema è europeo: lo stock è unico, distribuito in Europa e nell’Africa settentrionale, si riproduce in Atlantico ed è panmittico. C’è preoccupazione per il declino del reclutamento e delle catture di adulti. Lo scopo del progetto è di individuare possibili unità di stock nella penisola italiana. La ricerca è basata sullo studio degli otoliti mediante analisi morfometrica e microchimica. I contorni degli otoliti sono sottoposti ad analisi ellittica di Fourier per individuare eventuali gruppi. Gli otoliti sono stati levigati per effettuare: letture d’età, indagini microstrutturali al SEM delle fasi larvali, analisi microchimiche LA-ICP-MS del nucleo, studiarne l’origine e valutare l’ambiente di sviluppo. Le indagini morfometriche mostrano evidenti pattern ontogenetici, ma non legati ocorrelati alla località, sesso o anno di nascita. Le indagini microstrutturali hanno evidenziano l’alto contenuto organico nucleare, un pattern comune di crescita ed eventi chiave delle fasi larvali, con una media di 212 anelli giornalieri. La microchimica rivela che le larve si sviluppano in acque salate fino alla metamorfosi, poi migrano verso acque meno salate. Le analisi su campioni nati nello stesso anno, evidenziano due gruppi: individui di rimonta naturale e individui di ripopolamento. I profili nucleo bordo evidenziano la permanenza a salinità intermedie degli adulti. L’attività di ricerca si è dimostrata proficua dal punto di vista tecnico con la messa a punto di protocolli innovativi e con forti ricadute sulla riduzione dei tempi e costi d’analisi. Il debole segnale di possibili unità di stock andrà verificato in futuro mediante analisi più dettagliate discriminando meglio la storia di ogni singolo individuo.
Resumo:
L’approccio chirurgico agli adenomi ipofisari ACTH secernenti è la terapia d’elezione nell’uomo. L’ipofisectomia transfenoidale è invece una tecnica poco diffusa in ambito veterinario. La terapia più diffusa nel cane con ipercortisolismo ipofisi dipendente (PDH) è di tipo medico e prevede la somministrazione di farmaci inibitori della sintesi del cortisolo. Gli adenomi ipofisari possono aumentare di volume e determinare una conseguente sintomatologia neurologica; in questi casi le uniche opzioni terapeutiche sono rappresentate dall’asportazione chirurgica della neoplasia e dalla radioterapia. Nella presente tesi vengono descritti 8 interventi di ipofisectomia transfenoidale effettuati su 7 cani con macroadenoma ipofisario presso il Dipartimento di Scienze Mediche Veterinarie dell’Università di Bologna. La difficoltà maggiore per il chirurgo è rappresentata dalla localizzazione della fossa ipofisaria rispetto ai punti di repere visibile in tomografia computerizzata o in risonanza magnetica nucleare, oltre ai problemi di sanguinamento durante la rimozione della neoplasia. Nel periodo post-operatorio maggiori complicazioni si riscontrano in soggetti con adenomi ipofisari di maggiori dimensioni. Al contrario, in presenza di adenomi di dimensioni più contenute, la ripresa post-operatoria risulta più rapida e il tasso di successo maggiore. Al fine di poter eseguire nel cane l’exeresi mirata della sola neoplasia ipofisaria, al pari di quanto avviene nell’uomo, è stato condotto uno studio sulla tomografia computerizzata (TC) in 86 cani con PDH. Il protocollo TC non ha tuttavia permesso di individuare con precisione la posizione della neoplasia per guidare il chirurgo nella sua rimozione. In due casi riportati nel presente lavoro si è verificata una recidiva della neoplasia ipofisaria. In un soggetto si è optato per il reintervento, mentre nell’altro caso per la radioterapia. Entrambe le opzioni hanno garantito una buona qualità di vita per più di un anno dall’intervento terapeutico. Questi casi clinici dimostrano come il reintervento e la radioterapia possano essere considerate valide opzioni in caso di recidiva.
Resumo:
Since the Three Mile Island Unit 2 (TMI-2), accident in 1979 which led to the meltdown of about one half of the reactor core and to limited releases of radioactive materials to the environment, an important international effort has been made on severe accident research. The present work aims to investigate the behaviour of a Small Modular Reactor during severe accident conditions. In order to perform these analyses, a SMR has been studied for the European reference severe accident analysis code ASTEC, developed by IRSN and GRS. In the thesis will be described in detail the IRIS Small Modular Reactor; the reference reactor chosen to develop the ASTEC input deck. The IRIS model was developed in the framework of a research collaboration with the IRSN development team. In the thesis will be described systematically the creation of the ASTEC IRIS input deck: the nodalization scheme adopted, the solution used to simulate the passive safety systems and the strong interaction between the reactor vessel and the containment. The ASTEC SMR model will be tested against the RELAP-GOTHIC coupled code model, with respect to a Design Basis Accident, to evaluate the capability of the ASTEC code on reproducing correctly the behaviour of the nuclear system. Once the model has been validated, a severe accident scenario will be simulated and the obtained results along with the nuclear system response will be analysed.
Resumo:
La corretta modellizzazione della zona del riflettore dei sistemi GEN III+ è un passaggio fondamentale per un’accurata predizione dei parametri di cella il cui valore influenza direttamente la distribuzione di potenza su tutto il nocciolo. Tale esigenza si è resa ancora più stringente dopo la constatazione che il fenomeno del “tilt power” risulta essere più amplificato nei noccioli nucleari equipaggiati con un riflettore pesante. Per tali ragioni, nel presente lavoro di tesi si è dedicata particolare attenzione alle metodiche di modellizzazione ed alla generazione delle sezioni d’urto efficaci omogenee ed agli assembly discontinuity factors (ADF) nella zona di riflessione. Il codice deterministico utilizzato per il calcolo è SCALE 6.1.3. La notevole differenza nelle proprietà neutroniche associata ad un’elevata eterogeneità geometrica tra un nocciolo ed un riflettore hanno suggerito di effettuare un’analisi preliminare sul sistema riflettente GEN II proposto nel benchmark NEA-NSC-DOC (2013) per testare la capacità di SCALE 6.1.3 di effettuare un corretto calcolo di cella adottando una modellizzazione monodimensionale assembly/riflettore. I risultati ottenuti sono confrontati con quelli presentati nel benchmark e e con quelli valutati attraverso il codice Monte Carlo SERPENT 2.0 confermando la capacità di calcolo di SCALE 6.1.3. L’analisi sulla modellizzazione dei sistemi riflettenti GEN III+ è stata effettuata ricavando il valore dei parametri di cella per configurazioni omogenee ed una serie di configurazioni geometriche esatte che comprendono tutte le modellizzazioni del sistema riflettente lungo la direzione angolare del riflettore. Si è inoltre effettuata un’analisi di sensitività su parametri operativi e sui parametri di codice. Si è infine effettuato un calcolo in color-set per indagare l’influenza degli effetti 2-D sui parametri di cella. I risultati prodotti rappresentano un contributo migliorativo nella conoscenza dei parametri di cella di riflettore e potranno essere utilizzati per una più precisa valutazione del fenomeno del tilt nei sistemi GEN III+.