996 resultados para supernova SNe parametri vincoli cosmologia modelli cosmologici redshift espansione universo
Resumo:
In questo lavoro di tesi si presenta il primo studio multi-scala e multi-frequenza focalizzato sul getto della radiogalassia IC1531 (z=0.026) con i satelliti Chandra, XMM-Newton e Fermi con l’obiettivo di tracciarne l’emissione alle alte energie; definire i processi radiativi responsabili dell’emissione osservata e stimare i principali parametri fisici del getto; stimare l’energetica del getto alle diverse scale. La sorgente è stata selezionata per la presenza di un getto esteso (≈5’’) osservato in radio e ai raggi X, inoltre, era riportata come possibile controparte della sorgente gamma 3FGLJ0009.6-3211 presente nel terzo catalogo Fermi (3FGL). La presenza di emissione ai raggi γ, confermata dal nostro studio, è importante per la modellizzazione della SED della regione nucleare. L’emissione X del nucleo è dominata da una componente ben riprodotta da una legge di potenza con indice spettrale Γ=2.2. L’analisi dell’emissione in banda gamma ha evidenziato una variabilità su scale di 5 giorni, dalla quale è stato possibile stimare le dimensioni delle regione emittente. Inoltre viene presentato lo studio della distribuzione spettrale dell’energia della regione nucleare di IC 1531 dalla banda radio ai raggi γ. I modelli ci permettono di determinare la natura dell’emissione gamma e stimare la potenza cinetica del getto a scale del su-pc. Gli osservabili sono stati utilizzati per ottenere le stime sui parametri del modello. La modellizzazione così ottenuta ha permesso di stimare i parametri fisici del getto e la potenza trasportata del getto a scale del sub-pc. Le stime a 151MHz suggerisco che il getto abbia basse velocita' (Γ≤7) e angolo di inclinazione rispetto alla linea di vista 10°<ϑ<20°; nel complesso, il trasporto di energia da parte del getto risulta efficiente. L’origine dell’emissione X del getto a grandi scale è consistente con un’emissione di sincrotrone, che conferma la classificazione di IC1531 come sorgente di bassa potenza MAGN.
Resumo:
Il Building Information Modelling nasce da un processo di integrazione sostenibile, basato sull'interoperabilità dei processi. La caratteristica vincente è la circolarietà delle informazioni: ogni informazione è gestita come parametro di un ricco e complesso modello parametrico dell'edificio; la geometria, i materiali, i costi ed i tempi sono gestiti come parametri internamente collegati e quindi variabili di uno stesso sistema. Nel caso di beni storici, la maggior parte degli edifici possiede vincoli intrinseci che influenzano tali parametri. I materiali non possono essere scelti liberamente, in quanto parte di un organismo esistente, la geometria dell'edificio è definita e difficilmente sarà variata negli interventi di recupero. Nella presente tesi si applica il metodo CLOUD2FEM al mondo dell'Historic Building Information Modelling (HBIM) concentrandosi sullo studio della Rocca Estense di San Felice sul Panaro, colpita dal sisma dell'Emilia e attualmente inagibile. La procedura CLOUD2FEM permette di trasformare le informazioni ricavate dal laser scanner in mesh chiuse e regolari, generando in modo semi-automatico un modello FEM 3D. Nel caso di costruzioni complesse, la cui geometria non può essere ricondotta a modelli semplificati, è necessario valutare l'attendibilità del modello strutturale. Nel caso in esame, la validazione è stata condotta mediante il confronto del danno rilevato con il danno simulato. La flessibilità del modello permette di aggiungere dettagli inizialmente non rilevati: ogni informazione è inserita nel modello attraverso un parametro differente, al fine di eseguire analisi sullo stato di fatto e su futuri stati di progetto con semplice aggiornamento dei parametri.
Resumo:
Il seguente lavoro è uno studio di iniezione (strategia, timing, spray pattern) svolto con la simulazione numerica, alle quali oggi si richiede dettaglio e accuratezza. Il lavoro si concentra sullo studio di spray multi componente, tramite la scrittura di una UDF (user define function) proprietaria, valutazione sensibilità dell'impatto a parete, film boiling a parametri modellistici influenzati dal multicomponente e scrittura di un codice per l'elaborazione delle immagini sia sperimentali che numeriche per rendere più esteso il confronto tra CFD e sperimentale, per migliorare le tarature e i modelli e comprendere meglio la fenomenologia.
Resumo:
La fibrillazione atriale (FA) è la forma di aritmia cardiaca più diffusa nella pratica clinica. Attualmente, sono più di 30 milioni le persone affette da FA e si prevede una forte crescita di tale numero, conseguentemente al progressivo invecchiamento della popolazione. Ad oggi, la terapia anticoagulante orale è la principale strategia impiegata per la prevenzione di ictus ischemico. Nonostante l’efficacia degli anticoagulanti, un numero rilevante di pazienti non possono assumerli, a causa di un aumentato rischio emorragico e della pericolosa interazione con altri farmaci. È stato dimostrato che nel 90% dei casi la formazione dei trombi intracardiaci in pazienti con FA avviene in un punto ben preciso dell’atrio sinistro, ossia nell’auricola. Ciò è dovuto al fatto che essa, avendo una particolare morfologia, in condizioni non fisiologiche (emodinamica rallentata), tende a favorire la stasi del sangue al suo interno. Di conseguenza, la chiusura meccanica dell’auricola è emersa come alternativa clinica alla prevenzione farmacologica. I risultati relativi a recenti trials hanno suggerito che la chiusura percutanea della LAA attraverso l’impianto di opportuni occlusori è una terapia sicura, con un’efficacia non inferiore alla terapia di anticoagulanti orali nella prevenzione dell’ictus. L’obiettivo di questo elaborato di tesi è valutare in simulazione l’effetto dell’occlusione dell’auricola sinistra e di un eventuale dislocazione del dispositivo sulla fluidodinamica atriale in pazienti affetti da FA. Sono stati realizzati modelli 3D che simulano sia il risultato della procedura di LAAO con i dispositivi Amulet e Watchman, sia l’effetto della dislocazione dell’occlusore. Successivamente, sono state effettuate le simulazioni fluidodinamiche CFD sui modelli di atrio intero, sui modelli occlusi (privi di auricola) e sui modelli parzialmente occlusi (dislocazione Amulet) per studiare e valutare i parametri fluidodinamici (velocità, vorticità e stasi).
Resumo:
Il patrimonio residenziale italiano ammonta a 12,2 milioni di edifici, di cui il 57,5% ha più di 50 anni ed è stato costruito in assenza di normative specifiche, in termini di sicurezza sismica, resistenza al fuoco, efficienza energetica e accessibilità, e manifesta un’avanzata obsolescenza. Agire su questo patrimonio significa operare tramite le due macro categorie di intervento: demolizione/ricostruzione o riqualificazione energetica. Questa ricerca dottorale vuole indagare la demolizione/ricostruzione di comparti urbani periferici, costruiti tra 1945-1965, quale strategia di rigenerazione urbana, integrandola in un modello edilizio basato sui criteri dell’economia circolare. Vengono definite le caratteristiche costruttive e i principi di questo modello di progettazione ecosistemica, denominato Integrho, che coniuga i criteri di ecodesign nel ciclo di vita (Building in Layers, Design for Disassembly e il Design out Waste) con quelli di bioclimaticità e di adattabilità funzionale. Il lavoro è stato improntato secondo due livelli gerarchici, scala urbana e scala edilizia, tra loro correlate mediante quella intermedia dell’isolato, al fine di ottenere un obiettivo di natura metodologica: definire uno strumento di supporto decisionale, capace di indirizzare tra le categorie di intervento attraverso parametri oggettivi, valutati con analisi comparative speditive. Tale metodologia viene applicata al contesto di Bologna, e si fonda sulla creazione di un’approfondita base conoscitiva attraverso la catalogazione delle 8.209 pratiche edilizie di nuova costruzione presentate tra 1945 e il 1965. Tale strumento georeferenziato, contenente informazioni tipologiche, costruttive ecc., è impiegato per valutare in modo quantitativo e speditivo i consumi energetici, i materiali incorporati, gli impatti ambientali e i costi economici dei differenti scenari di intervento nel ciclo di vita. Infine, l’applicazione del modello edilizio Integrho e del paradigma Ri-Costruire per Ri-Generare ad uno degli isolati periferici selezionati, è impiegata come esemplificazione dell’intero processo, dalla fase conoscitiva a quella strumentale, al fine di verificarne l’attendibilità e l’applicabilità su larga scala.
Resumo:
Le galassie passive sono sistemi dominati da popolazioni stellari vecchie, non mostrano tracce di formazione stellare (spettri compatibili con assenza di righe in emissione e caratterizzati da righe in assorbimento), e ci sono evidenze osservative che indicano che le galassie passive abbiano iniziato ad assemblare la loro massa stellare a z. Gli spettri delle galassie passive conservano traccia dei meccanismi fisici ed evolutivi della loro popolazione stellare. Laddove si hanno a disposizione spettri di buona qualità, ovvero che abbiano un rapporto segnale-rumore elevato, l’informazione contenuta in tali spettri può essere dedotta dalla misura dell’intensità di alcune righe in assorbimento. Burstein et al. (1984) hanno costruito un insieme di indici spettroscopici, chiamato sistema di indici di Lick, i quali misurano l’intensità delle principali righe in assorbimento (nella regione di lunghezze d’onda ottiche tra 4000-6000 Å), in termini di larghezza equivalente. in questa tesi è stato adottato il metodo degli indici di Lick per stimare i parametri evolutivi di un campione di galassie passive. Gli obiettivi principali di questa tesi sono due: 1.) studiare l’evoluzione col redshift dei parametri di età, metallicità totale e abbondanze relative di elementi α rispetto al ferro di un campione di galassie estratto spettroscopicamente dalla SDDS (Moresco et al., 2011). L’obiettivo finale è quello di dedurre informazioni sulla storia di formazione stellare delle galassie del campione. 2.) realizzare una simulazione per valutare la possibilità di misurare gli indici di Lick negli spettri di galassie passive che verranno osservate con la missione futura Euclid. Da questo studio è emerso un chiaro andamento evolutivo del campione in linea con quello previsto dallo scenario evolutivo del mass-downsizing, per il quale la SFH di una popolazione stellare è fortemente vincolata dalla massa della popolazione stessa, nel senso che al crescere della massa la formazione delle galassie passive si colloca in epoche progressivamente più remote, e l’assemblaggio della loro massa stellare avviene in tempi scala via via inferiori. Dalla simulazione è emerso un risultato molto importante che deriva dalla robustezza delle misure del D4000 e riguarda la possibilità di determinare il redshift di galassie a z ≥ 1.5 con Euclid.
Resumo:
Questo lavoro è incentrato sulla pianificazione delle acquizioni e scaricamento del satellite PLATiNO. Le operazioni permesse a questo satellite sono vincolate da varie attività tra cui acquisizioni, manovre e scaricamento di dati. L'obiettivo finale è quello di soddisfare più richieste possibili massimizzando le operazioni del satellite senza però violare i vincoli imposti. A questo scopo, è stato sviluppato un modello in formulazione MILP per una versione rilassata del problema. In questa Tesi vengono innanzitutto trattati i principali argomenti di programmazione lineare e intera in modo da poter affrontare il modello matematico inerente al problema di downlink di PLATiNO. Successivamente viene descritto nel dettaglio il problema da modellizzare, con particolare attenzione alla strategia di downlink, che costituisce l'aspetto più problematico nella costruzione del modello. Si opta, infatti, per una formulazione mista rilassando i vincoli inerenti allo scaricamento dei dati. Infine, vengono valutate le prestazioni del modello rilassato confrontandolo con la sua versione esatta.
Resumo:
Il presente lavoro di tesi è stato svolto presso Marr S.p.A.: azienda italiana leader nella distribuzione di prodotti alimentari alla ristorazione extra domestica. Il fulcro dell'attività di MARR S.p.A risiede nell'approvvigionamento dei prodotti ai clientii. Per assicurare un servizio efficiente e redditizio è necessaria un'attenta pianificazione logistica, perciò, il lavoro di questa tesi si è concentrato su due aspetti centrali dell'operazione di riordino merce: la predizione della domanda futura dei prodotti, sulla base di dati riferiti al passato e l'individuazione della quantità effettiva da riordinare all'interno dei magazzini dell'azienda. Si è quindi svolta un'attenta analisi dell'attuale gestione dell'approvvigionamento da parte dell'azienda, quindi, ne sono state messe in luce le principali criticità, le quali risiedono nel fatto che il processo di riordino viene eseguito in maniera manuale sulla base dell'esperienza del Responsabile Acquisti. quindi, sono state sviluppate delle proposte di miglioramento delle attività di riordino: attraverso l’applicazione di modelli previsionali, è stato calcolato, per un campione ristretto di prodotti, il loro fabbisogno mensile, successivamente, questi risultati sono stati integrati con i vincoli di tempo di copertura e minimo d’ordine. Sono stati definiti e calcolati alcuni indici che potessero esprimere il grado di miglioramento della performance aziendale. I risultati avuti attraverso il lavoro di tesi cosa dimostrano quanto l’utilizzo di metodi basati sulle serie storiche forniscano una stima dei volumi di vendita futura più affidabili confronto a quelli ottenuti utilizzando i dati di vendita del mese corrente come stima delle vendite future. Attraverso l’utilizzo dei metodi di Media Mobile, Smorzamento Esponenziale e di Holt-Winters si può arrivare ad un livello di precisione maggiore di quello in uso in MARR S.p.A. ed è possibile giungere ad un’ottimizzazione dei magazzini, riducendone la giacenza del 10%.
Resumo:
La quantificazione non invasiva delle caratteristiche microstrutturali del cervello, utilizzando la diffusion MRI (dMRI), è diventato un campo sempre più interessante e complesso negli ultimi due decenni. Attualmente la dMRI è l’unica tecnica che permette di sondare le proprietà diffusive dell’acqua, in vivo, grazie alla quale è possibile inferire informazioni su scala mesoscopica, scala in cui si manifestano le prime alterazioni di malattie neurodegenerative, da tale tipo di dettaglio è potenzialmente possibile sviluppare dei biomarcatori specifici per le fasi iniziali di malattie neurodegenerative. L’evoluzione hardware degli scanner clinici, hanno permesso lo sviluppo di modelli di dMRI avanzati basati su acquisizioni multi shell, i quali permettono di ovviare alle limitazioni della Diffusion Tensor Imaging, in particolare tali modelli permettono una migliore ricostruzione trattografica dei fasci di sostanza bianca, grazie ad un’accurata stima della Orientation Distribution Function e la stima quantitativa di parametri che hanno permesso di raggiungere una miglior comprensione della microstruttura della sostanza bianca e delle sue eventuali deviazioni dalla norma. L’identificazione di biomarcatori sensibili alle prime alterazioni microstrutturali delle malattie neurodegenerative è uno degli obbiettivi principali di tali modelli, in quanto consentirebbero una diagnosi precoce e di conseguenza un trattamento terapeutico tempestivo prima di una significante perdità cellulare. La trattazione è suddivisa in una prima parte di descrizione delle nozioni fisiche di base della dMRI, dell’imaging del tensore di diffusione e le relative limitazioni, ed in una seconda parte dove sono analizzati tre modelli avanzati di dMRI: Diffusion Kurtosis Imaging, Neurite Orientation Dispersion and Density Imaging e Multi Shell Multi Tissue Constrained Spherical Deconvolution. L'obiettivo della trattazione è quello di offrire una panoramica sulle potenzialità di tali modelli.
Resumo:
Nel seguente elaborato di tesi è stato approfondito il tema dell’interoperabilità da software BIM a FEM nell’ambito degli edifici a parete in legno. L’utilizzo di programmi di Building Information Modeling si è affermato in maniera crescente nel mondo delle costruzioni. Infatti, la possibilità di costruire modelli tridimensionali della struttura, che associano ad ogni elemento presente nell’opera tutte le informazioni utili ai fini della sua, realizzazione (quali geometrie, costi, proprietà meccaniche, fasi d’impiego, ecc..) permette di accorciare notevolmente il tempo di progettazione e costruzione, diminuendo gli errori dovuti alla trasmissione dei dati tra le varie figure professionali. Nel campo delle costruzioni, l’elemento “parete in legno” non è ancora presente all’interno dei principali software BIM. Per questo motivo, è stato necessario, per lo svolgimento del presente progetto di tesi, uno studio dei principali parametri meccanici descrittivi del reale comportamento in opera delle pareti in legno. Tali parametri sono stati calcolati secondo i due principali metodi esistenti nell’ambito delle costruzioni in legno: il metodo fenomenologico e il metodo per componenti. Nel primo caso, l’influenza sul comportamento delle pareti da parte delle connessioni metalliche viene calcolata sotto forma di parametri meccanici equivalenti. Nel secondo metodo, invece, il comportamento in opera della parete risulta essere la conseguenza dell’interazione tra la rigidezza della parete stessa e quella delle connessioni, che vengono modellate come dei vincoli equivalenti. Al fine di validare i risultati ottenuti, si è proceduto ad applicare i parametri equivalenti a due casi studio. Il primo caso è rappresentato da una parete semplice (3.2m x 3.75m) sottoposta ad una forza concentrata in sommità. Successivamente è stato studiato il caso di un edificio a parete di legno di tre piani, sottoposto ai carichi di un edificio adibito a civile abitazione.
Resumo:
In questa tesi viene discusso il ruolo delle equazioni di diffusione e reazione e delle loro soluzioni di tipo traveling waves in alcuni modelli matematici per le scienze biomediche. Prima di tutto, viene analizzata l’equazione di Fisher-Kolmogorov-Petrovskii-Piskunov, che costituisce il prototipo di pdes di diffusione e reazione ad una specie. In seguito, si determinano condizioni per la nascita di instabilità di Turing nei modelli a due specie interagenti. La nostra attenzione si rivolge poi ai sistemi di diffusione e reazione con termini sorgente degeneri e caratterizzati dal possedere una famiglia di stati di equilibrio che dipende in modo continuo da un insieme di parametri. Si studiano gli effetti che una perturbazione ampia e fortemente localizzata di una delle popolazioni ha sulle soluzioni di tali sistemi e si ricavano condizioni affinché si generino traveling waves. Da ultimo, come applicazione degli studi effettuati, si analizza il modello di Tuckwell-Miura per la cortical spreading depression, un fenomeno in cui un’onda di depolarizzazione si propaga nelle cellule nervose della corteccia cerebrale.
Resumo:
The study of galaxies at high redshift plays a crucial role to understand the mechanism of galaxy formation and evolution. At redshifts just after the epoch of re-ionization (4
Resumo:
Il mio elaborato di tesi è basato sull'analisi generale dei modelli matematici alla base delle epidemie e lo studio dei punti di equilibrio dei sistemi che descrivono tali modelli. Il primo capitolo fornisce una descrizione degli elementi di base per lo studio che verrà poi affrontato nei capitoli successivi; nel capitolo in questione ci si riduce a introdurre nomenclatura, parametri e assunzioni di base. Nei capitoli secondo e terzo vengono esposti due tipi di modelli SIR diversi (epidemico e endemico), modelli alla base dell'epidemiologia che spiegano, sotto determinate ipotesi, il comportamento degli individui all'esplodere di una epidemia e il loro cambiamento di compartimento (suscettibile, infetto o rimosso) nel tempo. Di essi viene costruito il sistema di equazioni differenziali e analizzato il comportamento asintotico, per poi studiare i punti di equilibrio e la loro stabilità. Nel capitolo quarto viene analizzato allo stesso modo il modello SEIR, interessante perché fornisce una visione leggermente più sofisticata e vicina alla realtà, poiché tra i compartimenti possibili si suppone esistere anche un compartimento degli esposti, cioè di coloro che sono stati infettati ma che ancora non sono in grado di trasmettere la malattia. L'appendice finale illustra l'apparato matematico utile allo studio di questi modelli: le Equazioni Differenziali infatti sono uno strumento necessario per la descrizione dei fenomeni naturali e per lo studio della stabilità dei punti di equilibrio.
Resumo:
La Tesi presenta un metodo per valutare il livello di reversibilità e circolarità dei componenti edili. Il concetto cardine dello studio è il Design for Disassembly (DfD), definibile come un approccio alla progettazione di organismi edilizi secondo criteri costruttivi volti a facilitare successivi cambiamenti e smantellamenti (completi o parziali), consentendo il riutilizzo dei componenti, al fine di ridurre l’impatto ambientale degli interventi. Attualmente, diverse ricerche in ambito scientifico si dedicano all’approfondimento di questa tematica, correlandola ad altri concetti come la metodologia del Building Information Modeling (BIM), che consente di digitalizzare il processo progettuale, la sua realizzazione e la sua gestione attraverso modelli. Dopo l’analisi dello stato dell’arte, il lavoro è giunto alla definizione di un insieme di parametri idonei per essere introdotti in un modello informativo, in grado di rappresentare la circolarità del componente in termini di DfD. Per ogni elemento del componente analizzato viene assegnato un valore numerico (variabile da 0,1 a 1) a ogni parametro. Tramite l’utilizzo di una formula elaborata nell’ambito di precedenti ricerche svolte dal Dipartimento di Architettura dell'Università di Bologna, opportunamente modificata, si ottiene un indice sintetico finale denominato “Express Building Circularity Indicators” (EBCI). Il metodo di analisi proposto come strumento a supporto del processo progettuale è stato validato tramite l’applicazione a diverse soluzioni di facciata per l’efficientamento energetico di un fabbricato selezionato come caso di studio italiano dal progetto Europeo Horizon 2020 "DRIVE 0 – Driving decarbonization of the EU building stock by enhancing a consumer centred and locally based circular renovation process". I risultati ottenuti hanno consentito di verificare la replicabilità del processo digitalizzato a diverse soluzioni costruttive e l’affidabilità del metodo di valutazione del grado di circolarità.
Resumo:
Context. Observations in the cosmological domain are heavily dependent on the validity of the cosmic distance-duality (DD) relation, eta = D(L)(z)(1+ z)(2)/D(A)(z) = 1, an exact result required by the Etherington reciprocity theorem where D(L)(z) and D(A)(z) are, respectively, the luminosity and angular diameter distances. In the limit of very small redshifts D(A)(z) = D(L)(z) and this ratio is trivially satisfied. Measurements of Sunyaev-Zeldovich effect (SZE) and X-rays combined with the DD relation have been used to determine D(A)(z) from galaxy clusters. This combination offers the possibility of testing the validity of the DD relation, as well as determining which physical processes occur in galaxy clusters via their shapes. Aims. We use WMAP (7 years) results by fixing the conventional Lambda CDM model to verify the consistence between the validity of DD relation and different assumptions about galaxy cluster geometries usually adopted in the literature. Methods. We assume that. is a function of the redshift parametrized by two different relations: eta(z) = 1+eta(0)z, and eta(z) = 1+eta(0)z/(1+z), where eta(0) is a constant parameter quantifying the possible departure from the strict validity of the DD relation. In order to determine the probability density function (PDF) of eta(0), we consider the angular diameter distances from galaxy clusters recently studied by two different groups by assuming elliptical (isothermal) and spherical (non-isothermal) beta models. The strict validity of the DD relation will occur only if the maximum value of eta(0) PDF is centered on eta(0) = 0. Results. It was found that the elliptical beta model is in good agreement with the data, showing no violation of the DD relation (PDF peaked close to eta(0) = 0 at 1 sigma), while the spherical (non-isothermal) one is only marginally compatible at 3 sigma. Conclusions. The present results derived by combining the SZE and X-ray surface brightness data from galaxy clusters with the latest WMAP results (7-years) favors the elliptical geometry for galaxy clusters. It is remarkable that a local property like the geometry of galaxy clusters might be constrained by a global argument provided by the cosmic DD relation.