15 resultados para Non-reversible stochastic dynamics
em AMS Tesi di Laurea - Alm@DL - Universit
Resumo:
Nella tesi viene studiata la dinamica stocastica di particelle non interagenti su network con capacita di trasporto finita. L'argomento viene affrontato introducendo un formalismo operatoriale per il sistema. Dopo averne verificato la consistenza su modelli risolvibili analiticamente, tale formalismo viene impiegato per dimostrare l'emergere di una forza entropica agente sulle particelle, dovuta alle limitazioni dinamiche del network. Inoltre viene proposta una spiegazione qualitativa dell'effetto di attrazione reciproca tra nodi vuoti nel caso di processi sincroni.
Resumo:
The purpose of this thesis is to clarify the role of non-equilibrium stationary currents of Markov processes in the context of the predictability of future states of the system. Once the connection between the predictability and the conditional entropy is established, we provide a comprehensive approach to the definition of a multi-particle Markov system. In particular, starting from the well-known theory of random walk on network, we derive the non-linear master equation for an interacting multi-particle system under the one-step process hypothesis, highlighting the limits of its tractability and the prop- erties of its stationary solution. Lastly, in order to study the impact of the NESS on the predictability at short times, we analyze the conditional entropy by modulating the intensity of the stationary currents, both for a single-particle and a multi-particle Markov system. The results obtained analytically are numerically tested on a 5-node cycle network and put in correspondence with the stationary entropy production. Furthermore, because of the low dimensionality of the single-particle system, an analysis of its spectral properties as a function of the modulated stationary currents is performed.
Resumo:
In questa tesi si è studiato l’insorgere di eventi critici in un semplice modello neurale del tipo Integrate and Fire, basato su processi dinamici stocastici markoviani definiti su una rete. Il segnale neurale elettrico è stato modellato da un flusso di particelle. Si è concentrata l’attenzione sulla fase transiente del sistema, cercando di identificare fenomeni simili alla sincronizzazione neurale, la quale può essere considerata un evento critico. Sono state studiate reti particolarmente semplici, trovando che il modello proposto ha la capacità di produrre effetti "a cascata" nell’attività neurale, dovuti a Self Organized Criticality (auto organizzazione del sistema in stati instabili); questi effetti non vengono invece osservati in Random Walks sulle stesse reti. Si è visto che un piccolo stimolo random è capace di generare nell’attività della rete delle fluttuazioni notevoli, in particolar modo se il sistema si trova in una fase al limite dell’equilibrio. I picchi di attività così rilevati sono stati interpretati come valanghe di segnale neurale, fenomeno riconducibile alla sincronizzazione.
Resumo:
Nowadays, rechargeable Li-ion batteries play an important role in portable consumer devices. Formulation of such batteries is improvable by researching new cathodic materials that present higher performances of cyclability and negligible efficiency loss over cycles. Goal of this work was to investigate a new cathodic material, copper nitroprusside, which presents a porous 3D framework. Synthesis was carried out by a low-cost and scalable co-precipitation method. Subsequently, the product was characterized by means of different techniques, such as TGA, XRF, CHN elemental analysis, XRD, Mössbauer spectroscopy and cyclic voltammetry. Electrochemical tests were finally performed both in coin cells and by using in situ cells: on one hand, coin cells allowed different formulations to be easily tested, on the other operando cycling led a deeper insight to insertion process and both chemical and physical changes. Results of several tests highlighted a non-reversible electrochemical behavior of the material and a rapid capacity fading over time. Moreover, operando techniques report that amorphisation occurs during the discharge.
Resumo:
Il presente lavoro di tesi si occupa di valutare, attraverso misure finanziarie, i benefici derivanti da un grosso investimento IT dell'azienda Hera. L'azienda ha deciso di investire in ERP basato su SAP per poter creare un nuovo sistema informativo integrato. Ma per calcolare dei reali benefici bisogna tener conto anche di variabili che mutano nel tempo. Per fare ciò, si è deciso di utilizzare due diversi approcci (System Dynamics e Balanced Scorecard) per arrivare alla creazione di un modello simulabile. Dopodiché è stato possibile analizzare i dati attraverso i grafici risultanti e concludere mostrando dei casi. Questi ultimi illustrano cosa succede nel caso in cui tutto sia in condizioni normali, oppure se il lavoro raddoppia, oppure non si concluda mai.
Resumo:
This thesis deals with inflation theory, focussing on the model of Jarrow & Yildirim, which is nowadays used when pricing inflation derivatives. After recalling main results about short and forward interest rate models, the dynamics of the main components of the market are derived. Then the most important inflation-indexed derivatives are explained (zero coupon swap, year-on-year, cap and floor), and their pricing proceeding is shown step by step. Calibration is explained and performed with a common method and an heuristic and non standard one. The model is enriched with credit risk, too, which allows to take into account the possibility of bankrupt of the counterparty of a contract. In this context, the general method of pricing is derived, with the introduction of defaultable zero-coupon bonds, and the Monte Carlo method is treated in detailed and used to price a concrete example of contract. Appendixes: A: martingale measures, Girsanov's theorem and the change of numeraire. B: some aspects of the theory of Stochastic Differential Equations; in particular, the solution for linear EDSs, and the Feynman-Kac Theorem, which shows the connection between EDSs and Partial Differential Equations. C: some useful results about normal distribution.
Resumo:
Il raffreddamento stratosferico associato alla riduzione dell’ozono nelle regioni polari induce un rafforzamento dei venti occidentali nella bassa stratosfera, uno spostamento verso il polo e un’intensificazione del jet troposferico delle medie latitudini. Si riscontra una proiezione di questi cambiamenti a lungo termine sulla polarità ad alto indice di un modo di variabilità climatica, il Southern Annular Mode, alla superficie, dove i venti occidentali alle medie latitudini guidano la Corrente Circumpolare Antartica influenzando la circolazione oceanica meridionale e probabilmente l’estensione del ghiaccio marino ed i flussi di carbonio aria-mare nell’Oceano Meridionale. Una limitata rappresentazione dei processi stratosferici nei modelli climatici per la simulazione del passato e la previsione dei cambiamenti climatici futuri, sembrerebbe portare ad un errore nella rappresentazione dei cambiamenti troposferici a lungo termine nelle rispettive simulazioni. In questa tesi viene condotta un’analisi multi-model mettendo insieme i dati di output derivati da diverse simulazioni di modelli climatici accoppiati oceano-atmosfera, che partecipano al progetto CMIP5, con l'obiettivo di comprendere come le diverse rappresentazioni della dinamica stratosferica possano portare ad una differente rappresentazione dei cambiamenti climatici alla superficie. Vengono utilizzati modelli “High Top” (HT), che hanno una buona rappresentazione della dinamica stratosferica, e modelli “Low Top” (LT), che invece non ne hanno. I risultati vengono confrontati con le reanalisi meteorologiche globali disponibili (ERA-40). Viene mostrato come la rappresentazione e l’intensità del raffreddamento radiativo iniziale e di quello dinamico nella bassa stratosfera, nei modelli, siano i fattori chiave che controllano la successiva risposta troposferica, e come il raffreddamento stesso dipenda dalla rappresentazione della dinamica stratosferica. Si cerca inoltre di differenziare i modelli in base alla loro rappresentazione del raffreddamento radiativo e dinamico nella bassa stratosfera e alla risposta del jet troposferico. Nei modelli, si riscontra che il trend del jet nell'intera troposfera è significativamente correlato linearmente al raffreddamento stesso della bassa stratosfera.
Resumo:
Il contenuto fisico della Relatività Generale è espresso dal Principio di Equivalenza, che sancisce l'equivalenza di geometria e gravitazione. La teoria predice l'esistenza dei buchi neri, i più semplici oggetti macroscopici esistenti in natura: essi sono infatti descritti da pochi parametri, le cui variazioni obbediscono a leggi analoghe a quelle della termodinamica. La termodinamica dei buchi neri è posta su basi solide dalla meccanica quantistica, mediante il fenomeno noto come radiazione di Hawking. Questi risultati gettano una luce su una possibile teoria quantistica della gravitazione, ma ad oggi una simile teoria è ancora lontana. In questa tesi ci proponiamo di studiare i buchi neri nei loro aspetti sia classici che quantistici. I primi due capitoli sono dedicati all'esposizione dei principali risultati raggiunti in ambito teorico: in particolare ci soffermeremo sui singularity theorems, le leggi della meccanica dei buchi neri e la radiazione di Hawking. Il terzo capitolo, che estende la discussione sulle singolarità, espone la teoria dei buchi neri non singolari, pensati come un modello effettivo di rimozione delle singolarità. Infine il quarto capitolo esplora le ulteriori conseguenze della meccanica quantistica sulla dinamica dei buchi neri, mediante l'uso della nozione di entropia di entanglement.
Resumo:
Scopo della modellizzazione delle stringhe di DNA è la formulazione di modelli matematici che generano sequenze di basi azotate compatibili con il genoma esistente. In questa tesi si prendono in esame quei modelli matematici che conservano un'importante proprietà, scoperta nel 1952 dal biochimico Erwin Chargaff, chiamata oggi "seconda regola di Chargaff". I modelli matematici che tengono conto delle simmetrie di Chargaff si dividono principalmente in due filoni: uno la ritiene un risultato dell'evoluzione sul genoma, mentre l'altro la ipotizza peculiare di un genoma primitivo e non intaccata dalle modifiche apportate dall'evoluzione. Questa tesi si propone di analizzare un modello del secondo tipo. In particolare ci siamo ispirati al modello definito da da Sobottka e Hart. Dopo un'analisi critica e lo studio del lavoro degli autori, abbiamo esteso il modello ad un più ampio insieme di casi. Abbiamo utilizzato processi stocastici come Bernoulli-scheme e catene di Markov per costruire una possibile generalizzazione della struttura proposta nell'articolo, analizzando le condizioni che implicano la validità della regola di Chargaff. I modelli esaminati sono costituiti da semplici processi stazionari o concatenazioni di processi stazionari. Nel primo capitolo vengono introdotte alcune nozioni di biologia. Nel secondo si fa una descrizione critica e prospettica del modello proposto da Sobottka e Hart, introducendo le definizioni formali per il caso generale presentato nel terzo capitolo, dove si sviluppa l'apparato teorico del modello generale.
Resumo:
In questo elaborato, abbiamo tentato di modellizzare i processi che regolano la presenza dei domini proteici. I domini proteici studiati in questa tesi sono stati ottenuti dai genomi batterici disponibili nei data base pubblici (principalmente dal National Centre for Biotechnology Information: NCBI) tramite una procedura di simulazione computazionale. Ci siamo concentrati su organismi batterici in quanto in essi la presenza di geni trasmessi orizzontalmente, ossia che parte del materiale genetico non provenga dai genitori, e assodato che sia presente in una maggiore percentuale rispetto agli organismi più evoluti. Il modello usato si basa sui processi stocastici di nascita e morte, con l'aggiunta di un parametro di migrazione, usato anche nella descrizione dell'abbondanza relativa delle specie in ambito delle biodiversità ecologiche. Le relazioni tra i parametri, calcolati come migliori stime di una distribuzione binomiale negativa rinormalizzata e adattata agli istogrammi sperimentali, ci induce ad ipotizzare che le famiglie batteriche caratterizzate da un basso valore numerico del parametro di immigrazione abbiano contrastato questo deficit con un elevato valore del tasso di nascita. Al contrario, ipotizziamo che le famiglie con un tasso di nascita relativamente basso si siano adattate, e in conseguenza, mostrano un elevato valore del parametro di migrazione. Inoltre riteniamo che il parametro di migrazione sia direttamente proporzionale alla quantità di trasferimento genico orizzontale effettuato dalla famiglia batterica.
Resumo:
In questa tesi viene presentata un'analisi numerica dell'evoluzione dinamica del modello di Heisenberg XXZ, la cui simulazione è stata effettuata utilizzando l'algoritmo che va sotto il nome di DMRG. La transizione di fase presa in esame è quella dalla fase paramagnetica alla ferromagnetica: essa viene simulata in una catena di 12 siti per vari tempi di quench. In questo modo si sono potuti esplorare diversi regimi di transizione, da quello istantaneo al quasi-adiabatico. Come osservabili sono stati scelti l'entropia di entanglement, la magnetizzazione di mezza catena e lo spettro dell'entanglement, particolarmente adatti per caratterizzare la fisica non all'equilibrio di questo tipo di sistemi. Lo scopo dell'analisi è tentare una descrizione della dinamica fuori dall'equilibrio del modello per mezzo del meccanismo di Kibble-Zurek, che mette in relazione la sviluppo di una fase ordinata nel sistema che effettua la transizione quantistica alla densità di difetti topologici, la cui legge di scala è predicibile e legata agli esponenti critici universali caratterizzanti la transizione.
Resumo:
Homeorhetic Assemblies indaga le potenzialità tettoniche ed architettoniche derivanti dallo studio dei sistemi biologici decentralizzati, dei loro comportamenti e delle relazioni dinamiche con la colonia in termini di processi adattativi e costruttivi continui nel tempo. La ragione di questo interesse è radicata nei principi dell’ecologia applicata al design ed alle tecnologie di fabbricazione contemporanee, che vanno al di là della mera imitazione formale: ci si è quindi chiesto come raggiungere una spazialità complessa ed articolata, omogeneità di prestazioni ed una struttura continua caratterizzata da molti elementi aventi le stesse caratteristiche di forma e materiale. L’ecologia è lo studio di un insieme di economie, ovvero rapporti di scambio, tra un organismo ed il suo ambiente e l’efficenza dei pattern distributivi che derivano da queste relazioni sono fondamentali al fine del successo evolutivo del sistema stesso. I sistemi su cui ci si è concentrati sono caratterizzati dalla capacità di creare strutture a buon mercato (con l’uso di istruzioni semplici ed un unico materiale) e ad elevato grado di complessità ed efficienza, armonizzando l’aspetto formale con l’organizzazione materica e fisiologica. Il modello di comportamento considerato riguarda le dinamiche alla base della creazione degli alveari naturali creati dalle api millifere. Queste caratteristiche sono state codificate nella programmazione di un sistema multi agente composto da agenti autonomi in grado di interagire in un ambiente eterogeneo e capaci di depositare selettivamente elementi in una struttura composta da springs e particles, periodicamente stabilizzata ed ottimizzata. In un tale sistema, a priori sono note solo le relazioni locali per i singoli agenti ed il comportamento strutturale generale, mentre gli oggetti e gli eventi emergono in maniera non predeterminata come risultato di queste interazioni nello spazio e nel tempo. I risultati appaiono estremamente complessi ed eterogenei nella loro organizzazione spaziale, pur emergendo un set di elementi identificabili nella loro specifica singolarità (come ad esempio superfici, colonne, capriate etc...) ma che generano strutture continue, e creano grande differenziazione di densità e di disposizione dei singoli elementi all’interno della struttura. La ridondanza strutturale ottenuta è una scelta deliberata e permessa dall’automatizzazione della fase di costruzione attraverso la programmazione di robot, tramite i quali si intende realizzare un prototipo fisico delle strutture ottenute.
Resumo:
In questo elaborato ci siamo occupati della legge di Zipf sia da un punto di vista applicativo che teorico. Tale legge empirica afferma che il rango in frequenza (RF) delle parole di un testo seguono una legge a potenza con esponente -1. Per quanto riguarda l'approccio teorico abbiamo trattato due classi di modelli in grado di ricreare leggi a potenza nella loro distribuzione di probabilità. In particolare, abbiamo considerato delle generalizzazioni delle urne di Polya e i processi SSR (Sample Space Reducing). Di questi ultimi abbiamo dato una formalizzazione in termini di catene di Markov. Infine abbiamo proposto un modello di dinamica delle popolazioni capace di unificare e riprodurre i risultati dei tre SSR presenti in letteratura. Successivamente siamo passati all'analisi quantitativa dell'andamento del RF sulle parole di un corpus di testi. Infatti in questo caso si osserva che la RF non segue una pura legge a potenza ma ha un duplice andamento che può essere rappresentato da una legge a potenza che cambia esponente. Abbiamo cercato di capire se fosse possibile legare l'analisi dell'andamento del RF con le proprietà topologiche di un grafo. In particolare, a partire da un corpus di testi abbiamo costruito una rete di adiacenza dove ogni parola era collegata tramite un link alla parola successiva. Svolgendo un'analisi topologica della struttura del grafo abbiamo trovato alcuni risultati che sembrano confermare l'ipotesi che la sua struttura sia legata al cambiamento di pendenza della RF. Questo risultato può portare ad alcuni sviluppi nell'ambito dello studio del linguaggio e della mente umana. Inoltre, siccome la struttura del grafo presenterebbe alcune componenti che raggruppano parole in base al loro significato, un approfondimento di questo studio potrebbe condurre ad alcuni sviluppi nell'ambito della comprensione automatica del testo (text mining).
Resumo:
The established isotropic tomographic models show the features of subduction zones in terms of seismic velocity anomalies, but they are generally subjected to the generation of artifacts due to the lack of anisotropy in forward modelling. There is evidence for the significant influence of seismic anisotropy in the mid-upper mantle, especially for boundary layers like subducting slabs. As consequence, in isotropic models artifacts may be misinterpreted as compositional or thermal heterogeneities. In this thesis project the application of a trans-dimensional Metropolis-Hastings method is investigated in the context of anisotropic seismic tomography. This choice arises as a response to the important limitations introduced by traditional inversion methods which use iterative procedures of optimization of a function object of the inversion. On the basis of a first implementation of the Bayesian sampling algorithm, the code is tested with some cartesian two-dimensional models, and then extended to polar coordinates and dimensions typical of subduction zones, the main focus proposed for this method. Synthetic experiments with increasing complexity are realized to test the performance of the method and the precautions for multiple contexts, taking into account also the possibility to apply seismic ray-tracing iteratively. The code developed is tested mainly for 2D inversions, future extensions will allow the anisotropic inversion of seismological data to provide more realistic imaging of real subduction zones, less subjected to generation of artifacts.
Resumo:
El Niño-Southern Oscillation (ENSO) è il maggiore fenomeno climatico che avviene a livello dell’Oceano Pacifico tropicale e che ha influenze ambientali, climatiche e socioeconomiche a larga scala. In questa tesi si ripercorrono i passi principali che sono stati fatti per tentare di comprendere un fenomeno così complesso. Per prima cosa, si sono studiati i meccanismi che ne governano la dinamica, fino alla formulazione del modello matematico chiamato Delayed Oscillator (DO) model, proposto da Suarez e Schopf nel 1988. In seguito, per tenere conto della natura caotica del sistema studiato, si è introdotto nel modello lo schema chiamato Stochastically Perturbed Parameterisation Tendencies (SPPT). Infine, si sono portati due esempi di soluzione numerica del DO, sia con che senza l’introduzione della correzione apportata dallo schema SPPT, e si è visto in che misura SPPT porta reali miglioramenti al modello studiato.