20 resultados para particle Markov chain Monte Carlo
em AMS Tesi di Laurea - Alm@DL - Università di Bologna
Resumo:
The established isotropic tomographic models show the features of subduction zones in terms of seismic velocity anomalies, but they are generally subjected to the generation of artifacts due to the lack of anisotropy in forward modelling. There is evidence for the significant influence of seismic anisotropy in the mid-upper mantle, especially for boundary layers like subducting slabs. As consequence, in isotropic models artifacts may be misinterpreted as compositional or thermal heterogeneities. In this thesis project the application of a trans-dimensional Metropolis-Hastings method is investigated in the context of anisotropic seismic tomography. This choice arises as a response to the important limitations introduced by traditional inversion methods which use iterative procedures of optimization of a function object of the inversion. On the basis of a first implementation of the Bayesian sampling algorithm, the code is tested with some cartesian two-dimensional models, and then extended to polar coordinates and dimensions typical of subduction zones, the main focus proposed for this method. Synthetic experiments with increasing complexity are realized to test the performance of the method and the precautions for multiple contexts, taking into account also the possibility to apply seismic ray-tracing iteratively. The code developed is tested mainly for 2D inversions, future extensions will allow the anisotropic inversion of seismological data to provide more realistic imaging of real subduction zones, less subjected to generation of artifacts.
Resumo:
The cerebral cortex presents self-similarity in a proper interval of spatial scales, a property typical of natural objects exhibiting fractal geometry. Its complexity therefore can be characterized by the value of its fractal dimension (FD). In the computation of this metric, it has usually been employed a frequentist approach to probability, with point estimator methods yielding only the optimal values of the FD. In our study, we aimed at retrieving a more complete evaluation of the FD by utilizing a Bayesian model for the linear regression analysis of the box-counting algorithm. We used T1-weighted MRI data of 86 healthy subjects (age 44.2 ± 17.1 years, mean ± standard deviation, 48% males) in order to gain insights into the confidence of our measure and investigate the relationship between mean Bayesian FD and age. Our approach yielded a stronger and significant (P < .001) correlation between mean Bayesian FD and age as compared to the previous implementation. Thus, our results make us suppose that the Bayesian FD is a more truthful estimation for the fractal dimension of the cerebral cortex compared to the frequentist FD.
Resumo:
Despite the success of the ΛCDM model in describing the Universe, a possible tension between early- and late-Universe cosmological measurements is calling for new independent cosmological probes. Amongst the most promising ones, gravitational waves (GWs) can provide a self-calibrated measurement of the luminosity distance. However, to obtain cosmological constraints, additional information is needed to break the degeneracy between parameters in the gravitational waveform. In this thesis, we exploit the latest LIGO-Virgo-KAGRA Gravitational Wave Transient Catalog (GWTC-3) of GW sources to constrain the background cosmological parameters together with the astrophysical properties of Binary Black Holes (BBHs), using information from their mass distribution. We expand the public code MGCosmoPop, previously used for the application of this technique, by implementing a state-of-the-art model for the mass distribution, needed to account for the presence of non-trivial features, i.e. a truncated power law with two additional Gaussian peaks, referred to as Multipeak. We then analyse GWTC-3 comparing this model with simpler and more commonly adopted ones, both in the case of fixed and varying cosmology, and assess their goodness-of-fit with different model selection criteria, and their constraining power on the cosmological and population parameters. We also start to explore different sampling methods, namely Markov Chain Monte Carlo and Nested Sampling, comparing their performances and evaluating the advantages of both. We find concurring evidence that the Multipeak model is favoured by the data, in line with previous results, and show that this conclusion is robust to the variation of the cosmological parameters. We find a constraint on the Hubble constant of H0 = 61.10+38.65−22.43 km/s/Mpc (68% C.L.), which shows the potential of this method in providing independent constraints on cosmological parameters. The results obtained in this work have been included in [1].
Resumo:
Numerose osservazioni astrofisiche e cosmologiche compiute a partire dagli anni '30 confermano che circa il 26% dell'Universo è costituito da materia oscura. Tale materia ha la particolarità di interagire solo gravitazionalmente e, forse, debolmente: essa si presenta massiva e neutra. Tra le numerose ipotesi avanzate riguardanti la natura della materia oscura una delle più accreditate è quella delle WIMP (Weakly Interacting Massive Particle). Il progetto all'avanguardia nella ricerca diretta delle WIMP è XENON presso i Laboratori Nazionali del Gran Sasso (LNGS). Tale esperimento è basato sulla diffusione elastica delle particelle ricercate su nuclei di Xeno: il rivelatore utilizzato è una TPC a doppia fase (liquido-gas). La rivelazione diretta di materia oscura prevede l'impiego di un rivelatore molto grande, a causa della piccola probabilità di interazione, e di ambienti a bassa radioattività naturale, per ridurre al minimo il rumore di fondo. Risulta necessario inoltre l'utilizzo di uno schermo attivo che individui particelle di alta energia, in particolare muoni cosmici, che possono produrre falsi segnali. È stato realizzato a tale scopo un sistema di Muon Veto composto da un grande cilindro d'acqua posto attorno alla TPC, equipaggiato con 84 fotorivelatori atti ad osservare i fotoni ottici emessi per effetto Čherenkov dai raggi cosmici. Il presente lavoro di tesi si colloca nell'ambito di un programma di simulazione Monte Carlo, creato per realizzare virtualmente l'esperimento XENON1T e per effettuare studi preliminari. Lo scopo di tale lavoro è stato quello di contribuire alla scrittura e alla verifica del codice di simulazione e allo studio di eventi di muoni cosmici da esso generati. L'analisi dati è stata effettuata scrivendo un programma in C++ in grado di analizzare i risultati forniti dal simulatore e di generare degli Event Display statici e dinamici per una visualizzazione efficace degli eventi.
Resumo:
Ultracold gases provide an ideal platform for quantum simulations of many-body systems. Here we are interested in a particular system which has been the focus of most experimental and theoretical works on ultracold fermionic gases: the unitary Fermi gas. In this work we study with Quantum Monte Carlo simulations a two-component gas of fermionic atoms at zero temperature in the unitary regime. Specifically, we are interested in studying how the effective masses for the quasi-particles of the two components of the Fermi liquid evolve as the polarization is progressively reduced from full to lower values. A recent theoretical work, based on alternative diagrammatic methods, has indeed suggested that such effective masses should diverge at a critical polarization. To independently verify such predictions, we perform Variational Monte Carlo (VMC) calculations of the energy based on Jastrow-Slater wavefunctions after adding or subtracting a particle with a given momentum to a full Fermi sphere. In this way, we determine the quasi-particle dispersions, from which we extract the effective masses for different polarizations. The resulting effective masses turn out to be quite close to the non-interacting values, even though some evidence of an increase for the effective mass of the minority component appears close to the predicted value for the critical polarization. Preliminary results obtained for the majority component with the Fixed-node Diffusion Monte Carlo (DMC) method seem to indicate that DMC could lead to an increase of the effective masses in comparison with the VMC results. Finally, we point out further improvements of the trial wave-function and boundary conditions that would be necessary in future simulations to draw definite conclusions on the effective masses of the polarized unitary Fermi gas.
Resumo:
Il presente lavoro di tesi, sviluppato nell’arco di sei mesi presso l’Institut Supérieur Industriel de Bruxelles (ISIB) in collaborazione con Ion Beam Application Group (IBA, Louvain la Neuve), ha come principale soggetto lo studio della risposta del rem meter WENDI-2 commercializzato da Thermo Scientific. Lo studio si è basato principalmente sull’uso del codice Monte Carlo MCNPX 2.5.0, simulando la risposta del detector sia in caso di campi di radiazione neutronica monoenergetici sia in corrispondenza di spettri neutronici continui. La prima fase è stata dedicata alla modellizzazione MCNPX del rem counter, consentendo così la valutazione della sua funzione risposta. Questa è stata ricostruita interpolando 93 punti, ciascuno calcolato in corrispondenza di un singolo valore di energia di una sorgente puntiforme, compreso tra 1 meV e 5 GeV. In tal caso è stata rilevata un’ottima corrispondenza tra i risultati ottenuti e quelli riportati nella letteratura scientifica esistente. In una seconda fase, al fine di ottenere informazioni sulla risposta di WENDI II in corrispondenza di campi complessi di radiazione, simulazioni MCNPX sono state realizzate riproducendo un ambiente di lavoro esistente presso la sede IBA di Louvain la Neuve: la risposta del detector è stata valutata in corrispondenza di 9 diverse posizioni all’interno di un bunker contenente un ciclotrone PET (18 MeV H-), implicando la rilevazione di campi di radiazione neutronica continui ed estesi dalle energie termiche fino a 18 MeV. I risultati ottenuti sono stati infine comparati con i valori di dose ambiente equivalente calcolata nelle stesse condizioni di irraggiamento.
Resumo:
La radioterapia guidata da immagini (IGRT), grazie alle ripetute verifiche della posizione del paziente e della localizzazione del volume bersaglio, si è recentemente affermata come nuovo paradigma nella radioterapia, avendo migliorato radicalmente l’accuratezza nella somministrazione di dose a scopo terapeutico. Una promettente tecnica nel campo dell’IGRT è rappresentata dalla tomografia computerizzata a fascio conico (CBCT). La CBCT a kilovoltaggio, consente di fornire un’accurata mappatura tridimensionale dell’anatomia del paziente, in fase di pianificazione del trattamento e a ogni frazione del medisimo. Tuttavia, la dose da imaging attribuibile alle ripetute scansioni è diventata, negli ultimi anni, oggetto di una crescente preoccupazione nel contesto clinico. Lo scopo di questo lavoro è di valutare quantitativamente la dose addizionale somministrata da CBCT a kilovoltaggio, con riferimento a tre tipici protocolli di scansione per Varian OnBoard Imaging Systems (OBI, Palo Alto, California). A questo scopo sono state condotte simulazioni con codici Monte Carlo per il calcolo della dose, utilizzando il pacchetto gCTD, sviluppato sull’architettura della scheda grafica. L’utilizzo della GPU per sistemi server di calcolo ha permesso di raggiungere alte efficienze computazionali, accelerando le simulazioni Monte Carlo fino a raggiungere tempi di calcolo di ~1 min per un caso tipico. Inizialmente sono state condotte misure sperimentali di dose su un fantoccio d’acqua. I parametri necessari per la modellazione della sorgente di raggi X nel codice gCTD sono stati ottenuti attraverso un processo di validazione del codice al fine di accordare i valori di dose simulati in acqua con le misure nel fantoccio. Lo studio si concentra su cinquanta pazienti sottoposti a cicli di radioterapia a intensità modulata (IMRT). Venticinque pazienti con tumore al cervello sono utilizzati per studiare la dose nel protocollo standard-dose head e venticinque pazienti con tumore alla prostata sono selezionati per studiare la dose nei protocolli pelvis e pelvis spotlight. La dose media a ogni organo è calcolata. La dose media al 2% dei voxels con i valori più alti di dose è inoltre computata per ogni organo, al fine di caratterizzare l’omogeneità spaziale della distribuzione.
Resumo:
Per prevedere i campi di dose attorno a dispositivi radiologici, vengono sviluppati e validati, per mezzo di misure sperimentali, modelli Monte Carlo (utilizzando MCNP5). Lo scopo di questo lavoro è quello di valutare le dosi ricevute da persone che operano all'interno della sala di raggi X, mentre il tubo è in funzione. Il tubo utilizzato è un DI-1000/0.6-1.3 della azienda svizzera COMET AG. Per prima cosa si è ottenuto lo spettro di emissione dei raggi X con la Tally F5 simulando l'interazione di un fascio di elettroni contro un anodo di tungsteno. Successivamente, con una F4MESH, si è ricavato il flusso di fotoni in ogni cella della mesh tridimensionale definita sulla sala; la conversione a dose equivalente è ottenuta per mezzo di fattori di conversione estratti dal NIST. I risultati della Tally FMESH vengono confrontati con i valori di dose misurati con una camera di ionizzazione Radcal 1800 cc. I risultati sono ottenuti per le seguenti condizioni operative: 40 kVp, 100 mA, 200 mAs, fuoco fine e filtro in alluminio di spessore 0,8 mm. Confrontando con le misure sperimentali si osserva che tali valori differiscono da quelli simulati di circa un 10%. Possiamo quindi prevedere con buona approssimazione la distribuzione di dose mentre il tubo è in funzione. In questo modo è possibile ridurre al minimo la dose ricevuta dall'operatore.
Resumo:
Nell'ambito della Fisica Medica, le simulazioni Monte Carlo sono uno strumento sempre più diffuso grazie alla potenza di calcolo dei moderni calcolatori, sia nell'ambito diagnostico sia in terapia. Attualmente sono disponibili numerosi pacchetti di simulazione Monte Carlo di carattere "general purpose", tra cui Geant4. Questo lavoro di tesi, svolto presso il Servizio di Fisica Sanitaria del Policlinico "S.Orsola-Malpighi", è basato sulla realizzazione, utilizzando Geant4, di un modello Monte Carlo del target del ciclotrone GE-PETtrace per la produzione di C-11. Nel modello sono stati simulati i principali elementi caratterizzanti il target ed il fascio di protoni accelerato dal ciclotrone. Per la validazione del modello sono stati valutati diversi parametri fisici, tra i quali il range medio dei protoni nell'azoto ad alta pressione e la posizione del picco di Bragg, confrontando i risultati con quelli forniti da SRIM. La resa a saturazione relativa alla produzione di C-11 è stata confrontata sia con i valori forniti dal database della IAEA sia con i dati sperimentali a nostra disposizione. Il modello è stato anche utilizzato per la stima di alcuni parametri di interesse, legati, in particolare, al deterioramento dell'efficienza del target nel corso del tempo. L'inclinazione del target, rispetto alla direzione del fascio di protoni accelerati, è influenzata dal peso del corpo del target stesso e dalla posizione in cui questo é fissato al ciclotrone. Per questo sono stati misurati sia il calo della resa della produzione di C-11, sia la percentuale di energia depositata dal fascio sulla superficie interna del target durante l'irraggiamento, al variare dell'angolo di inclinazione del target. Il modello che abbiamo sviluppato rappresenta, dunque, un importante strumento per la valutazione dei processi che avvengono durante l'irraggiamento, per la stima delle performance del target nel corso del tempo e per lo sviluppo di nuovi modelli di target.
Resumo:
Nowadays communication is switching from a centralized scenario, where communication media like newspapers, radio, TV programs produce information and people are just consumers, to a completely different decentralized scenario, where everyone is potentially an information producer through the use of social networks, blogs, forums that allow a real-time worldwide information exchange. These new instruments, as a result of their widespread diffusion, have started playing an important socio-economic role. They are the most used communication media and, as a consequence, they constitute the main source of information enterprises, political parties and other organizations can rely on. Analyzing data stored in servers all over the world is feasible by means of Text Mining techniques like Sentiment Analysis, which aims to extract opinions from huge amount of unstructured texts. This could lead to determine, for instance, the user satisfaction degree about products, services, politicians and so on. In this context, this dissertation presents new Document Sentiment Classification methods based on the mathematical theory of Markov Chains. All these approaches bank on a Markov Chain based model, which is language independent and whose killing features are simplicity and generality, which make it interesting with respect to previous sophisticated techniques. Every discussed technique has been tested in both Single-Domain and Cross-Domain Sentiment Classification areas, comparing performance with those of other two previous works. The performed analysis shows that some of the examined algorithms produce results comparable with the best methods in literature, with reference to both single-domain and cross-domain tasks, in $2$-classes (i.e. positive and negative) Document Sentiment Classification. However, there is still room for improvement, because this work also shows the way to walk in order to enhance performance, that is, a good novel feature selection process would be enough to outperform the state of the art. Furthermore, since some of the proposed approaches show promising results in $2$-classes Single-Domain Sentiment Classification, another future work will regard validating these results also in tasks with more than $2$ classes.
Resumo:
Conoscere con dettaglio il campo di radiazione che si genera nell'utilizzo di un acceleratore lineare di elettroni durante una seduta di radioterapia è essenziale sia per i pazienti sia per gli operatori. L'utilizzo del codice Monte Carlo MCNPX 2.7.0 permette di stimare dati dosimetrici dettagliati in zone dove può essere complicato effettuare misurazioni.Lo scopo di questo lavoro è indagare il comportamento del fascio fotonico prodotto nel bunker di radioterapia dell'ASMN-IRCCS di Reggio Emilia, valutando con precisione in particolare la produzione di fotoneutroni secondari. L'obiettivo è la verifica dell'efficacia delle barriere offerte dalla struttura tenendo in considerazione anche il canale di penetrazione degli impianti di servizio che costituisce un punto di fuga per le radiazioni.
Resumo:
I calibratori di attività sono strumenti molto importanti per la pratica, diagnostica e terapeutica, in medicina nucleare, perché permettono di associare ad un radiofarmaco una misura accurata dell’attività dell’isotopo in esso contenuto; questo è fondamentale in quanto l’attività della sorgente esprime la quantità di farmaco somministrata al paziente. In questo lavoro è stato sviluppato il modello Monte Carlo di un calibratore di attività ampiamente diffuso nei laboratori di radiofarmacia (Capintec CRC-15), utilizzando il codice Monte Carlo FLUKA. Per realizzare il modello si è posta estrema attenzione nel riprodurre al meglio tutti i dettagli delle componenti geometriche della camera e dei campioni delle sorgenti radioattive utilizzati. A tale scopo, la camera di ionizzazione di un calibratore è stata studiata mediante imaging TAC. Un’analisi preliminare è stata eseguita valutando il confronto tra l’andamento sperimentale dell’efficienza della camera in funzione dell’energia dei fotoni incidenti e quello ottenuto in simulazione. In seguito si è proceduto con la validazione: si sono studiati a questo proposito la risposta del calibratore in funzione dell’altezza della sorgente e i confronti tra i fattori relativi (rispetto ad una sorgente certificata di 137Cs) e le misure di confronto sono state eseguite con diverse sorgenti certificate di 133Ba, 68Ge-68Ga, 177Lu ed uno standard tarato internamente di 99mTc. In tale modo, si è ricoperto l'intero campo di interesse dei principali radionuclidi impiegati nelle applicazioni diagnostiche e terapeutiche di Medicina Nucleare. Il modello sviluppato rappresenta un importante risultato per l’eventuale determinazione di nuovi fattori di calibrazione o per un futuro studio relativo all’ottimizzazione della risposta del calibratore.
Resumo:
La fisica delle collisioni ad alte energie è, ad oggi, uno dei campi di ricerca più interessante per la verifica di modelli teorici che spieghino la nascita e la formazione dell'universo in cui viviamo. In quest'ottica lavorano esperimenti presso i più importanti acceleratori di particelle: tra questi anche l'esperimento ALICE, presso il Large Hadron Collider LHC del CERN di Ginevra. Il suo scopo principale è quello di verificare e ampliare l'insieme delle prove sperimentali alla base sull'esistenza di un nuovo stato della materia: il Quark Gluon Plasma. La presenza della transizione di fase della materia adronica ordinaria a QGP era stata teorizzata da diversi studi termodinamici e da calcoli di QCD su reticolo: in particolare si prevedeva l'esistenza di uno stato della materia in cui i quark sono deconfinati. Il QGP è dunque un plasma colorato e densissimo di quark e gluoni, liberi di interagire tra loro. Queste condizioni sarebbero state quelle dell'universo primordiale, circa 1µs dopo il Big Bang: a seguito di una transizione di fase, si sarebbe poi formata tutta la materia adronica ordinaria. Per riprodurre le condizioni necessarie alla formazione del QGP occorrono collisioni ad energie ultrarelativistiche come quelle prodotte, negli ultimi anni, dall'acceleratore LHC. Uno dei principali rivelatori dedicati all'identificazione di particelle in ALICE è il sistema a tempo di volo TOF. Nonostante un attento processo di ottimizzazione della risoluzione delle sue componenti, persistono residui errori strumentali che limitano la qualità (già ottima) del segnale, tutt'oggi oggetto di studio. L'elaborato presentato in questa tesi è suddiviso in tre capitoli: nel primo ripercorriamo gli aspetti teorici del Modello Standard e del Quark Gluon Plasma. Nel secondo descriviamo la struttura di rivelazione di ALICE, analizzando il funzionamento delle singole componenti. Nel terzo, infine, verifichiamo le principali correzioni al TOF ad oggi note, confrontando i dati a nostra disposizione con delle simulazioni Monte Carlo: questo ci permette da un lato di approfondirne la conoscenza, dall'altro di cercarne di migliorare la descrizione del comportamento del rivelatore.
Resumo:
Il presente elaborato analizza il problema dell'intrusione salina e valuta l'influenza dei parametri idrologici e idrogeologici sulle dinamiche del processo mediate simulazioni Monte Carlo. A scopo esemplificativo, l’intrusione salina viene studiata in condizioni stazionarie e nell’ipotesi di interfaccia netta. La tecnica di simulazione viene descritta a partire dai concetti statistici di base che includono la definizione delle distribuzioni di probabilità scelte per descrviere il comportamento dei parametri del modello concettuale e la procedura di campionamento di tali distribuzioni. Un codice in Matlab è stato realizzato per l’applicazione ad un semplice caso studio.