686 resultados para Superconduttività Equazioni di London Modello Quantistico Macroscopico Quantizzazione del flusso
Resumo:
E' stata presentata un'analisi di sensitività di un modello matematico della memoria spaziale nell'ippocampo. Il modello usa le masse neuronali per simulare le oscillazioni theta delle place cells dell'ippocampo. I risultati mostrano che il modello è robusto a variazioni di diversi parametri.
Resumo:
In questo lavoro viene presentato un recente modello di buco nero che implementa le proprietà quantistiche di quelle regioni dello spaziotempo dove non possono essere ignorate, pena l'implicazione di paradossi concettuali e fenomenologici. In suddetto modello, la regione di spaziotempo dominata da comportamenti quantistici si estende oltre l'orizzonte del buco nero e suscita un'inversione, o più precisamente un effetto tunnel, della traiettoria di collasso della stella in una traiettoria di espansione simmetrica nel tempo. L'inversione impiega un tempo molto lungo per chi assiste al fenomeno a grandi distanze, ma inferiore al tempo di evaporazione del buco nero tramite radiazione di Hawking, trascurata e considerata come un effetto dissipativo da studiarsi in un secondo tempo. Il resto dello spaziotempo, fuori dalla regione quantistica, soddisfa le equazioni di Einstein. Successivamente viene presentata la teoria della Gravità Quantistica a Loop (LQG) che permetterebbe di studiare la dinamica della regione quantistica senza far riferimento a una metrica classica, ma facendo leva sul contenuto relazionale del tessuto spaziotemporale. Il campo gravitazionale viene riformulato in termini di variabili hamiltoniane in uno spazio delle fasi vincolato e con simmetria di gauge, successivamente promosse a operatori su uno spazio di Hilbert legato a una vantaggiosa discretizzazione dello spaziotempo. La teoria permette la definizione di un'ampiezza di transizione fra stati quantistici di geometria spaziotemporale, applicabile allo studio della regione quantistica nel modello di buco nero proposto. Infine vengono poste le basi per un calcolo in LQG dell'ampiezza di transizione del fenomeno di rimbalzo quantistico all'interno del buco nero, e di conseguenza per un calcolo quantistico del tempo di rimbalzo nel riferimento di osservatori statici a grande distanza da esso, utile per trattare a posteriori un modello che tenga conto della radiazione di Hawking e, auspicatamente, fornisca una possibile risoluzione dei problemi legati alla sua esistenza.
Resumo:
Progetto di un controllore basato sulla teoria del modello interno per fare inseguire traiettorie circolari ad un quadrirotore
Resumo:
La conoscenza e la determinazione dell’equazione cinetica è indispensabile per lo studio, la progettazione e l’ottimizzazione di qualsiasi reattore chimico. Normalmente l’analisi cinetica viene eseguita con reattori che operano in maniera quanto più prossima a condizioni ideali in modo da rendere più facile e meno affetta da errori l’interpretazione dei risultati sperimentali. In fotocatalisi è invece di fatto impossibile realizzare, anche in presenza di una perfetta miscelazione, un sistema ideale in cui si abbia un’uniforme distribuzione di tutti i parametri che influenzano la velocità di reazione. Infatti in un reattore fotocatalitico il campo di radiazione è intrinsecamente non uniforme poiché l’assorbimento della radiazione e quindi la sua attenuazione sono necessari per l’attivazione della reazione. Pertanto l’impossibilità di realizzare un sistema fotocatalitico che operi in condizioni quanto più possibile prossime all’idealità e l’incapacità di misurare sperimentalmente i valori locali di velocità di reazione e di velocità di assorbimento dei fotoni possono rendere complessa una corretta analisi cinetica. In questo lavoro vengono studiate le modalità con cui condurre comunque una rigorosa analisi cinetica di un sistema fotocatalitico slurry, nel quale il fotocalizzatore è disperso come polvere fine in sospensione nella soluzione reagente. La reazione studiata è quella di mineralizzazione dell’acido formico. Sono stati impiegati due reattori con geometrie ed illuminazioni differenti: un reattore piano illuminato con luci LED ed un reattore anulare con lampada lineare fluorescente blacklight. È stata verificata la validità di una particolare equazione cinetica, che tiene conto dell’effetto non lineare della velocità specifica (cioè per unità di massa di catalizzatore) di assorbimento dei fotoni e delle concentrazioni del reagente, dell’ossigeno e del fotocatalizzatore. Sono state inoltre determinate le condizioni critiche che possono portare ad errori nell’analisi cinetica ed è stata dimostrata l’utilità di un modello matematico che tiene conto dei bilanci di energia raggiante, di materia nonché del campo di moto. Il modello matematico, in cui compare un solo parametro aggiustabile (il tempo caratteristico di reazione od equivalentemente la costante cinetica), è in grado di riprodurre molto soddisfacentemente i risultati sperimentali in tutte le diverse condizioni operative: diversa geometria di reattore, diversa illuminazione, differente spessore ottico, diverse contrazioni di substrato e di fotocatalizzatore. Infine è stato mostrato come l’equazione cinetica ad una sola costante cinetica, che è stata adottata, descriva meglio la cinetica della reazione fotocatalitica in esame di altre equazioni a due o più costanti cinetiche spesso utilizzate in fotocatalisi e basate sulla teoria di Langmuir-Hinshelwood, a dimostrazione di un diverso meccanismo di reazione.
Resumo:
Questo lavoro di tesi nasce con l'obbiettivo di studiare il modello di Guyton, proponendone una versione più dettagliata con lo scopo di utilizzarla poi come strumento di indagine per una patologia nota come atresia tricuspidale. Si è giunti così alla creazione di un modello ibrido del sistema cardiovascolare che vede la modellizzazione, a parametri concentrati, dell’intera rete circolatoria interfacciata con una rappresentazione dell' attività cardiaca mediante le cosidette curve di funzionalità. Nello specifico si è risaliti ad un modello della cicolazione cardiocircolatoria separando quella che è la circolazione sistemica dalla circolazione polmonare secondo il sopracitato modello di Guyton, dopo di chè si è trovato un analogo modello per pazienti sottoposti all' intervento di Fontan poiché affetti da atresia tricuspidale.Tramite l'ausilio del software Matlab sono stati implementati questi due modelli semplificati (“Guyton biventricolare” e “Guyton monoventricolare”) e il corrispondente algoritmo risolutivo, con l'obiettivo di verificare, graficamente e numericamente, i risultati ottenuti dalla simulazione.Una volta accertatisi della attendibilità dei risultati, mediante il confronto con dati fisiologici dai manuali e dagli articoli su cui si è fondato questo elaborato, si è proceduto alla simulazione di casi fisiologici di attività fisica e di malfunzionamento del ventricolo sinistro.L'utilizzo di un modello matematico per la circolazione permette di studiare e simulare l'interazione di diversi sistemi fisiologici superando il problema che si ha in ambito clinico, dove l'analisi è più complessa perchè la misurazione delle numerose variabili fisiologiche è indaginosa e a volte non fattibile.Fine ultimo dell'elaborato tuttavia non è quello di dare valutazioni cliniche dei casi presi in esame e delle loro variabili, ma quello di presentare un metodo per studiare come la fisiologia della circolazione umana reagisce a dei cambiamenti.
Resumo:
In questo elaborato si presentano alcuni risultati relativi alle equazioni differenziali stocastiche (SDE) lineari. La soluzione di un'equazione differenziale stocastica lineare è un processo stocastico con distribuzione multinormale in generale degenere. Al contrario, nel caso in cui la matrice di covarianza è definita positiva, la soluzione ha densità gaussiana Γ. La Γ è inoltre la soluzione fondamentale dell'operatore di Kolmogorov associato alla SDE. Nel primo capitolo vengono presentate alcune condizioni necessarie e sufficienti che assicurano che la matrice di covarianza sia definita positiva nel caso, più semplice, in cui i coefficienti della SDE sono costanti, e nel caso in cui questi sono dipendenti dal tempo. A questo scopo gioca un ruolo fondamentale la teoria del controllo. In particolare la condizione di Kalman fornisce un criterio operativo per controllare se la matrice di covarianza è definita positiva. Nel secondo capitolo viene presentata una dimostrazione diretta della disuguaglianza di Harnack utilizzando una stima del gradiente dovuta a Li e Yau. Le disuguaglianze di Harnack sono strumenti fondamentali nella teoria delle equazioni differenziali a derivate parziali. Nel terzo capitolo viene proposto un esempio di applicazione della disuguaglianza di Harnack in finanza. In particolare si osserva che la disuguaglianza di Harnack fornisce un limite superiore a priori del valore futuro di un portafoglio autofinanziante in funzione del capitale iniziale.
Resumo:
Questa tesi si focalizza sullo studio dei modelli fisico-matematici attualmente in uso per la simulazione di fluidi al calcolatore con l’obiettivo di fornire nozioni di base e avanzate sull’utilizzo di tali metodi. La trattazione ha lo scopo di facilitare la comprensione dei principi su cui si fonda la simulazione di fluidi e rappresenta una base per la creazione di un proprio simulatore. E’ possibile studiare le caratteristiche di un fluido in movimento mediante due approcci diversi, l’approccio lagrangiano e l’approccio euleriano. Mentre l’approccio lagrangiano ha lo scopo di conoscere il valore, nel tempo, di una qualsiasi proprietà di ciascuna particella che compone il fluido, l’approccio euleriano, fissato uno o più punti del volume di spazio occupato da quest’ultimo, vuole studiare quello che accade, nel tempo, in quei punti. In particolare, questa tesi approfondisce lo studio delle equazioni di Navier-Stokes, approcciandosi al problema in maniera euleriana. La soluzione numerica del sistema di equazioni differenziali alle derivate parziali derivante dalle equazioni sopracitate, approssima la velocità del fluido, a partire dalla quale è possibile risalire a tutte le grandezze che lo caratterizzano. Attenzione viene riservata anche ad un modello facente parte dell’approccio semi-lagrangiano, il Lattice Boltzmann, considerato una via di mezzo tra i metodi puramente euleriani e quelli lagrangiani, che si basa sulla soluzione dell’equazione di Boltzmann mediante modelli di collisione di particelle. Infine, analogamente al metodo di Lattice Boltzmann, viene trattato il metodo Smoothed Particles Hydrodynamics, tipicamente lagrangiano, secondo il quale solo le proprietà delle particelle comprese dentro il raggio di una funzione kernel, centrata nella particella di interesse, influenzano il valore della particella stessa. Un resoconto pratico della teoria trattata viene dato mediante delle simulazioni realizzate tramite il software Blender 2.76b.
Resumo:
Preservare la qualita delle acque sotterranee e di primaria importanza nel contesto della gestione delle risorse idriche. Al fine di interpretare in modo corretto i processi di trasporto di contaminanti all'interno di mezzi porosi saturi, e utile analizzare esperimenti a scala di laboratorio, in cui le condizioni al contorno e iniziali sono sufficientemente controllate. In questo lavoro, si e interpretato un esperimento di trasporto conservativo presente in letteratura, al fine di valutare l'accuratezza di un modello advettivo-dispersivo e di individuare tecniche appropriate per la stima dei parametri chiave del modello stesso.
Resumo:
La tesi si pone l'obiettivo di mappare le attività all'interno del magazzino di un operatore logistico, dalla consegna della merce da parte dei committenti, al flusso di ritorno dei pallet vuoti dai punti di consegna, attraverso la modellazione e la simulazione in linguaggio Arena. Dopo aver analizzato il ruolo e la posizione occupata da un provider logistico lungo la catena distributiva, è esposto il caso preso in considerazione, mediante lo studio dei committenti e dei punti di consegna serviti. Viene poi mappato nel dettaglio il processo di gestione all'interno del magazzino e approfonditi due aspetti principali: i costi di gestione e trasporto a carico dell'operatore e la gestione dei mezzi utilizzati per effettuare le consegne. Chiarito il sistema reale, si passa al modello in Arena. Al termine della simulazione, svoltasi in un adeguato orizzonte temporale, dall'analisi dei risultati sarà possibile trarre delle conclusioni al fine di migliorare l'efficienza del processo.
Resumo:
Questa tesi si prefigge di analizzare le condizioni di stabilità di un argine inferiore del fiume Po situato presso il comune di Viadana (MN), più volte interessato da eventi franosi che si sono ripetuti con una certa frequenza nel corso degli ultimi anni. L'argomento proposto nella tesi prende spunto dall’esperienza presso il Polo Scientifico e Tecnologico di AIPO a Boretto (RE), nell’ambito del tirocinio formativo, durante il quale ho portato a termine un programma di prove geotecniche su campioni indisturbati prelevati nel sito interessato da fenomeni di instabilità, allo scopo di migliorare le conoscenze sulla risposta meccanica dei terreni arginali e del substrato di fondazione. Utilizzando i risultati delle prove di laboratorio, unitamente alle informazioni provenienti dai sondaggi e dalle prove penetrometriche (CPT/CPTU), è stato possibile innanzitutto identificare le unità stratigrafiche presenti nel sistema arginale e determinarne i parametri meccanici, per poi procedere alla costruzione del modello geotecnico di riferimento per le analisi di stabilità. Pertanto la tesi si pone come obiettivi principali la messa a punto di un modello geotecnico affidabile dell'argine, la verifica della stabilità globale delle scarpate lato fiume e l'individuazione dei fattori scatenanti i fenomeni di scorrimento osservati, nonché la scelta di possibili interventi per la messa in sicurezza delle sponde, valutandone i benefici in termini del fattore di sicurezza ed i relativi costi. L'insieme dei risultati conseguiti in questo studio permette di fornire utili indicazioni a coloro che sono preposti alla manutenzione e messa in sicurezza delle strutture arginali del fiume Po.
Resumo:
Il lavoro sviluppato intende affrontare in modo integrato la problematica ambientale relativamente allo sviluppo della flotta di veicoli di un grande operatore del trasporto pubblico. In prima istanza il lavoro si è focalizzato sull’analisi approfondita della flotta esistente, ed accanto ai dati tradizionali è stata sviluppata anche un’analisi dei costi totali comprensive anche delle esternalità calcolate come da direttiva 2009/33/CE. Sono state sviluppate numerose elaborazioni di uso aziendale relativamente alla metodologia del costo del ciclo di vita, LCC, che è in uso presso TPER S.p.A. sin dal 2001. Successivamente sono stati sviluppati gli scenari evolutivi della flotta automobilistica individuando per il confronto finale tre scenari distinti in ottica 2020: - Il primo scenario inerziale senza nessuna modifica della flotta consolidato al 31.12.2015, tale scenario è definito dai veicoli presenti, dai costi di gestione della manutenzione, dai costi di carburante e dai costi esterni come suddetto; - Il secondo con orizzonte 2016 prevede l’inserimento in servizio dei n. 49 filosnodati Crealis e viene consolidato al 31.12.2016; - Il terzo scenario è quello obiettivo e considera nel 2020 l’entrata in parco via via degli acquisti che TPER S.p.A. ha già programmato per il 2017, 2018 e compresi i n.55 snodati con alimentazione elettrica del progetto PIMBO. Le comparazioni di questi scenari permettono in modo molto realistico di individuare gli effetti su una flotta reale delle politiche di investimento reali e non simulate e di poter quantificare quindi l’andamento dei costi esterni in relazione alla modifica della flotta di TPER S.p.A.
Resumo:
L'elaborato di tesi è stato redatto durante un progetto semestrale in Ferretti Group riguardante il campo di applicazione delle logiche della lean production all'interno del settore della cantieristica navale. Il primo capitolo contiene una descrizione dell'evoluzione del Gruppo Ferretti, dalla nascita fino ai giorni nostri. Nel secondo capitolo vi è una ampia descrizione della filosofia lean e delle tecniche e egli strumenti usati nei contesti aziendali; il terzo capitolo nasce invece per sintetizzare una serie di articoli accademici inerenti al tema del "lean shipbuilding". Infine il quarto capitolo descrive alcune attività eseguite in azienda, a supporto della nascita di una nuova linea di assemblaggio per il modello Ferretti 450.
Resumo:
Il lavoro presentato in questa tesi è stato svolto presso il Department of Computer Science, University of Oxford, durante il mio periodo all’estero nel Computational Biology Group. Scopo del presente lavoro è stato lo sviluppo di un modello matematico del potenziale d’azione per cellule umane cardiache di Purkinje. Tali cellule appartengono al sistema di conduzione elettrico del cuore, e sono considerate molto importanti nella genesi di aritmie. Il modello, elaborato in linguaggio Matlab, è stato progettato utilizzando la tecnica delle Popolazione di Modelli, un innovativo approccio alla modellazione cellulare sviluppato recentemente proprio dal Computational Biology Group. Tale modello è stato sviluppato in 3 fasi: • Inizialmente è stato sviluppato un nuovo modello matematico di cellula umana del Purkinje cardiaco, tenendo in considerazione i modelli precedenti disponibili in letteratura e le più recenti pubblicazioni in merito alle caratteristiche elettrofisiologiche proprie della cellula cardiaca umana di Purkinje. Tale modello è stato costruito a partire dall’attuale gold standard della modellazione cardiaca ventricolare umana, il modello pubblicato da T. O’Hara e Y. Rudy nel 2011, modificandone sia le specifiche correnti ioniche che la struttura interna cellulare. • Il modello così progettato è stato, poi, utilizzato come “modello di base” per la costruzione di una popolazione di 3000 modelli, tramite la variazione di alcuni parametri del modello all’interno di uno specifico range. La popolazione così generata è stata calibrata sui dati sperimentali di cellule umane del Purkinje. A valle del processo di calibrazione si è ottenuta una popolazione di 76 modelli. • A partire dalla popolazione rimanente, è stato ricavato un nuovo modello ai valori medi, che riproduce le principali caratteristiche del potenziale d’azione di una cellula di Purkinje cardiaca umana, e che rappresenta il dataset sperimentale utilizzato nel processo di calibrazione.
Resumo:
Il lavoro svolto si concentra sulla termografia attiva e su come essa possa essere usata come tecnica diagnostica non distruttiva. La sperimentazione ha visto la realizzazione di un modello di prova consisntente in una porzione di muro a forma di c costituito da mattoni pieni, intonacato solo su un lato. Attraverso il riscaldamento della porzione intonacata e tramite l'utilizzo di termocoppie sono state monitorate le temperature superficiali interne ed esterne e dell'ambiente interno ed esterno. In fase di raffreddamento il monitoraggio è stato implementato dalle riprese termografiche effettuate ad istanti di tempo regolari, riprendendo la superficie intonacata e riscaldata. Elaborando le immagini è stato possibile individuare sia la tessitura muraria che la discontinuità inserita in fase di costruzione. Per avere una verifica è stato realizzato, tramite un software, un modello bidimensionale dell'elemento studiato, ed è stato studiato il raffreddamento in condizioni dinamiche. Si osserva che i risultati ottenuti sono qualitativamente opposti a quelli riscontrati dalle immagini della sperimentazione, uno dei motivo può essere attribuito all'alta tridimensionalità del problema reale che il modello non tiene in considerazione.
Resumo:
Il seguente elaborato ha lo scopo di analizzare, attraverso modelli neuro-computazionali, le possibili alterazioni delle risposte in pazienti con malattia di Parkinson, sia indotte da alterazioni del livello di dopamina, sia indotte da modificazioni sinaptiche. Il punto chiave per comprendere i sintomi di PD e il loro deterioramento temporale si deve cercare nel rapporto tra l'attività dei neuroni in BG (in particolare nello striato) e i livelli di dopamina (o levodopa) nel cervello. Di conseguenza, l'obiettivo di questo elaborato è quello di quantificare la connessione tra i livelli di levodopa e performance del finger tapping per mezzo di modelli biologici e simulazioni al computer.