996 resultados para supernova SNe parametri vincoli cosmologia modelli cosmologici redshift espansione universo
Resumo:
Models where the dark matter component of the Universe interacts with the dark energy field have been proposed as a solution to the cosmic coincidence problem, since in the attractor regime both dark energy and dark matter scale in the same way. In these models the mass of the cold dark matter particles is a function of the dark energy field responsible for the present acceleration of the Universe, and different scenarios can be parametrized by how the mass of the cold dark matter particles evolves with time. In this article we study the impact of a constant coupling delta between dark energy and dark matter on the determination of a redshift dependent dark energy equation of state w(DE)(z) and on the dark matter density today from SNIa data. We derive an analytical expression for the luminosity distance in this case. In particular, we show that the presence of such a coupling increases the tension between the cosmic microwave background data from the analysis of the shift parameter in models with constant w(DE) and SNIa data for realistic values of the present dark matter density fraction. Thus, an independent measurement of the present dark matter density can place constraints on models with interacting dark energy.
Resumo:
The use of type Ia supernovae as distance estimators has shown that about 75% of the energy content of the universe has a negative equation of state parameter and thus, drives the acceleration of the universe. Constraining the exact nature of this energy is one of the main goals in cosmology. As the statistics of observed high-redshift supernovae increases, systematic effects become the limiting factor to pursue such investigations, thus deeper understanding of the physical properties of SNe is of great importance. In this thesis we investigate spectral homogeneity and diversity of local and high redshift supernovae. Special emphasis has been given to the analysis of optical spectra of local peculiar supernovae 1999aa and 1999ac. The study of the spectra of SN 1999aa pointed out that this SN could be a link between the extreme peculiar SN 1991T and normal SNe. Moreover, the identification of a high velocity component of Ca II and possibly of a low velocity component of C III suggests some degree of asphericity in the ejecta of this supernova. Evidence for a deflagration of a C+O white dwarf was found in the early spectra of SN 1999ac. The spectral proprieties of a vast sample of local SNe are also studied by means of newly introduced spectral indicators. These were used to possibly improve the intrinsic spread of SN peak magnitudes to 0.15 mag, independently of light curve parameters. The first quantitative comparison between local and high redshift supernova is carried out. No evidence for extreme peculiar sub-luminous SNe was found in our data set including 13 SNe with redshift range z=0.279-0.912. Furthermore, SN2002fd (z=0.279) was found to show spectral characteristics similar to SN 1991T/SN 1999aa-like supernovae. We also present a feasibility study of the Hubble diagram in rest frame I-band up to z~0.5, and show the possibility to probe the presence of intergalactic dust, which could possibly mimic the effect of dark energy in the Hubble diagram.
Resumo:
Costante è il dibattito relativo ai possibili sprechi nell’amministrazione della giustizia penale ed alle inefficienze dei tribunali, delle procure e, più in generale, dell’organizzazione giudiziaria e del processo. Può essere utile il tentativo di fornire a tale dibattito strumenti analitici innovativi, quali ad esempio l’analisi economica costi/benefici, con cui affrontare congiuntamente questioni di diritto ed osservazioni legate alla produzione degli uffici ed alla loro efficienza. È possibile, cioè, tentare di costruire e rendere disponibili dei semplici modelli economici – già diffusi nella letteratura anglosassone di law and economics – che, considerando le strutture preposte alla giurisdizione in termini di produzione e produttività e l’attore processuale come un’unità produttiva che opera con l’obiettivo di massimizzare i benefici ottenibili con le proprie risorse, facilitino lo studio del settore. Il tentativo di introdurre elementi di semplificazione e formalizzazione del comportamento dei soggetti della giurisdizione ha, infatti, grandissime potenzialità sia di carattere positivo sia di carattere normativo: permette, cioè, di interrogarsi sull’efficienza della funzione svolta dai tribunali e, nel caso di esito negativo, di capire come intervenire sulla struttura produttiva per ottenere una crescita di produttività. Tutto ciò in un contesto ove il court management sta emergendo come un nuovo campo fertile nello studio dei settori pubblici, in coerenza col crescente interesse nel definire quanto le corti (in generale) e le procure (più in particolare) siano performanti.
Resumo:
Tra i temi di attualità, quello del risparmio energetico è tra i più dibattuti negli ultimi anni; tale tema è strettamente correlato al problema del riscaldamento globale, infatti, mentre sul prossimo esaurimento delle risorse energetiche tradizionali non vi sono ancora certezze assolute, per quanto riguarda l’azione nociva dei gas serra, la Comunità Scientifica Internazionale si ritrova d’accordo su una netta presa di posizione contro l’emissione di tali sostanze, provocata in larga parte dall’utilizzo dei combustibili fossili. In questo contesto, l’Unione Europea sta promuovendo la diffusione di tecnologie che non prevedano l’utilizzo di gas, petrolio o carbone, soprattutto per il settore dell’edilizia, ove una corretta progettazione e l’utilizzo di tecnologie non convenzionali può portare alla riduzione anche dell’80% dei consumi, con conseguente abbattimento delle emissioni. Tra questi interventi innovativi, il più comune e conosciuto è sicuramente quello del solare termico e fotovoltaico; ma ne esistono anche di altri, ancora non molto pubblicizzati in Italia, ma ampiamente conosciuti e utilizzati in altri paesi dell’Unione. Tra questi, vi è il sistema di riscaldamento analizzato in questa tesi: la pompa di calore geotermica. Tale sistema, come verrà spiegato nell’elaborato di laurea, ha indubbi vantaggi economici, energetici ed ambientali, a fronte di una non trascurabile spesa iniziale. Attualmente, nel Nord Italia, si incominciano a vedere impianti di questo tipo, sulla scia del successo riscontrato nei paesi confinanti (in particolare Austria e Svizzera). La progettazione si basa attualmente su modelli statici, sviluppati dall’Università Svizzera del Canton Ticino, per l’utilizzo della pompa di calore nel territorio alpino. Obiettivo della tesi, è la verifica di tali modelli, di cui si è venuto a conoscenza grazie alla collaborazione con l’Università SUPSI, sulle condizioni idrogeologiche della Pianura Padana, soffermandosi su alcuni parametri fondamentali della progettazione di una pompa di calore geotermica, quali la conduttività e la capacità termica volumetrica dei terreni incontrati, la presenza di falde, ed i parametri geometrici del pozzo, al fine di dare una valutazione tecnica ed economica dell’impianto. Tali analisi è stata infatti fino ad ora affrontata in maniera sommaria dai perforatori, che eseguono generalmente sempre lo stesso modello di pozzo geotermico, sulla base degli esempi consolidati di Svizzera e Germania. Alcune misure di temperatura in situ sono state rilevate in collaborazione con la società Geotermia SRL di Mantova, ditta specializzata nella perforazione di pozzi geotermici (tale esperienza è parte centrale dell’estratto “Laboratorio di Tesi Ls”), mentre la parte modellistica della tesi è stata sviluppata in collaborazione con lo studio di progettazione Studio Seta SRL di Faenza, il cui stabile è climatizzato in parte con una pompa di calore geotermica.
Resumo:
Satellite SAR (Synthetic Aperture Radar) interferometry represents a valid technique for digital elevation models (DEM) generation, providing metric accuracy even without ancillary data of good quality. Depending on the situations the interferometric phase could be interpreted both as topography and as a displacement eventually occurred between the two acquisitions. Once that these two components have been separated it is possible to produce a DEM from the first one or a displacement map from the second one. InSAR DEM (Digital Elevation Model) generation in the cryosphere is not a straightforward operation because almost every interferometric pair contains also a displacement component, which, even if small, when interpreted as topography during the phase to height conversion step could introduce huge errors in the final product. Considering a glacier, assuming the linearity of its velocity flux, it is therefore necessary to differentiate at least two pairs in order to isolate the topographic residue only. In case of an ice shelf the displacement component in the interferometric phase is determined not only by the flux of the glacier but also by the different heights of the two tides. As a matter of fact even if the two scenes of the interferometric pair are acquired at the same time of the day only the main terms of the tide disappear in the interferogram, while the other ones, smaller, do not elide themselves completely and so correspond to displacement fringes. Allowing for the availability of tidal gauges (or as an alternative of an accurate tidal model) it is possible to calculate a tidal correction to be applied to the differential interferogram. It is important to be aware that the tidal correction is applicable only knowing the position of the grounding line, which is often a controversial matter. In this thesis it is described the methodology applied for the generation of the DEM of the Drygalski ice tongue in Northern Victoria Land, Antarctica. The displacement has been determined both in an interferometric way and considering the coregistration offsets of the two scenes. A particular attention has been devoted to investigate the importance of the role of some parameters, such as timing annotations and orbits reliability. Results have been validated in a GIS environment by comparison with GPS displacement vectors (displacement map and InSAR DEM) and ICEsat GLAS points (InSAR DEM).
Resumo:
Lo scopo del lavoro è quello di verificare tramite software CAD l’influenza dei principali parametri chirurgici e anatomici sul Range Of Motion (ROM). Sono stati costruiti 5 modelli, uno di articolazione sana(Senza Protesi), uno di protesi Convenzionale e tre di protesi Conservative o a Conservazione (Totale, Media e Bassa Conservazione). Per tutti i modelli sono state simulate le rotazioni di base e i cosiddetti movimenti critici, ovvero quei movimenti a rischio di lussazione. Le prove sono state eseguite per teste da 28-,32-,36-,40mm di diametro, e con la coppa orientata di 45° in abduzione e 15° gradi in antiversione prima e successivamente di 45° e 0°. Inoltre, per verificare l’influenza dell’offset sul ROM, sono stati costruiti e simulati i movimenti per altri 5 modelli che non conservassero il vincolo del mantenere l’offset anatomico. Variando il diametro della testa si registrano differenze apprezzabili in termini di ROM solo per i movimenti di Estensione e Abduzione per il modello di Protesi Convenzionale e di Abduzione per il modello a Bassa Conservazione. Variando il livello di resezione del collo si è visto come per i modelli di protesi a Media Conservazione, Bassa Conservazione e Convenzionale si misurano angoli superiori a quello del riferimento tratto dalla Letteratura. Diversamente per il modello di Protesi a Totale Conservazione i valori ottenuti per alcuni movimenti sono inferiori, poiché limitati da un contatto di tipo c-b. Le simulazioni dei movimenti critici confermano la tendenza di un ROM accettabile per i modelli di protesi a Bassa Conservazione e di protesi Convenzionale, i quali forniscono escursioni angolari sempre superiori a quelle prese come riferimento dalla Letteratura. Invece, le protesi a Totale e Media Conservazione forniscono valori inferiori al riferimento per i movimenti di Pivot e Roll, essendo limitati dall’antiversione della coppa (movimenti di ExtraRotazione e contatto c-b). Variando la posizione della coppa a 45°/0° i due movimenti Critici Pivot e Roll migliorano per i modelli a Totale e Media Conservazione, tornando in linea con il riferimento. Riguardo l’offset si nota come più si avvicina a quello anatomico che misura 46,2mm (da 37 a 44mm), più si riscontra un aumento in termini di ROM.
Resumo:
In questa tesi di laurea si affronta l’analisi di diversi modelli per il calcolo della capacità di un’intersezione a rotatoria: alcuni di questi sono di tipo empirico, altri invece sono di tipo teorico (teoria del gap acceptance). Innanzitutto si descrivono le caratteristiche di tutti i modelli studiati e si esaminano i risultati ottenuti nel calcolo della capacità al variare del flusso circolante, effettuato su un campione di venti rotatorie. In particolare si cerca di confrontare tra loro i vari modelli e di interpretare il significato dei parametri che compaiono nelle diverse formule. Successivamente si amplia l’analisi, utilizzando i dati raccolti come punto di partenza per una serie di altre elaborazioni ed interpolazioni. Alla base di questa seconda parte dello studio c’è l’idea di provare a vedere se sia possibile ricavare un nuovo modello, derivante da quelli studiati, che possa riassumerli in maniera semplice e aiutare a chiarire quali sono i parametri più importanti dai quali dipende il valore di capacità di una rotatoria. Questo nuovo modello dovrebbe eventualmente servire più che altro per interpretare i modelli studiati e per capire se uno di questi si comporti meglio degli altri in situazioni particolari oppure se sia più adatto in determinate condizioni di traffico piuttosto che in altre. Uno degli obiettivi principali di questo studio è infatti quello di provare a capire se la capacità di una rotatoria è influenzata maggiormente da aspetti geometrici, legati quindi alla forma e alle dimensioni della rotatoria stessa, oppure se un ruolo predominante è svolto da fattori comportamentali, legati quindi all’interazione tra i veicoli e ai processi di scelta degli utenti, che devono decidere se immettersi o meno nella rotatoria.
Resumo:
UML è ampiamente considerato lo standard de facto nella fase iniziale di modellazione di sistemi software basati sul paradigma Object-Oriented; il suo diagramma delle classi è utilizzato per la rappresentazione statica strutturale di entità e relazioni che concorrono alla definizione delle specifiche del sistema; in questa fase viene utilizzato il linguaggio OCL per esprimere vincoli semantici sugli elementi del diagramma. Il linguaggio OCL però soffre della mancanza di una verifica formale sui vincoli che sono stati definiti. Il linguaggio di modellazione Alloy, inserendosi in questa fase, concettualmente può sopperire a questa mancanza perchè può descrivere con le sue entità e relazioni un diagramma delle classi UML e, tramite propri costrutti molto vicini all'espressività di OCL, può specificare vincoli semantici sul modello che verranno analizzati dal suo ambiente l'Alloy Analyzer per verificarne la consistenza. In questo lavoro di tesi dopo aver dato una panoramica generale sui costrutti principali del linguaggio Alloy, si mostrerà come è possibile creare una corrispondenza tra un diagramma delle classi UML e un modello Alloy equivalente. Si mostreranno in seguito le analogie che vi sono tra i costrutti Alloy e OCL per la definizione di vincoli formali, e le differenze, offrendo nel complesso soluzioni e tecniche che il modellatore può utilizzare per sfruttare al meglio questo nuovo approccio di verifica formale. Verranno mostrati anche i casi di incompatibilità. Infine, come complemento al lavoro svolto verrà mostrata, una tecnica per donare una dinamicità ai modelli statici Alloy.
Resumo:
Le scelte di asset allocation costituiscono un problema ricorrente per ogni investitore. Quest’ultimo è continuamente impegnato a combinare diverse asset class per giungere ad un investimento coerente con le proprie preferenze. L’esigenza di supportare gli asset manager nello svolgimento delle proprie mansioni ha alimentato nel tempo una vasta letteratura che ha proposto numerose strategie e modelli di portfolio construction. Questa tesi tenta di fornire una rassegna di alcuni modelli innovativi di previsione e di alcune strategie nell’ambito dell’asset allocation tattica, per poi valutarne i risvolti pratici. In primis verificheremo la sussistenza di eventuali relazioni tra la dinamica di alcune variabili macroeconomiche ed i mercati finanziari. Lo scopo è quello di individuare un modello econometrico capace di orientare le strategie dei gestori nella costruzione dei propri portafogli di investimento. L’analisi prende in considerazione il mercato americano, durante un periodo caratterizzato da rapide trasformazioni economiche e da un’elevata volatilità dei prezzi azionari. In secondo luogo verrà esaminata la validità delle strategie di trading momentum e contrarian nei mercati futures, in particolare quelli dell’Eurozona, che ben si prestano all’implementazione delle stesse, grazie all’assenza di vincoli sulle operazioni di shorting ed ai ridotti costi di transazione. Dall’indagine emerge che entrambe le anomalie si presentano con carattere di stabilità. I rendimenti anomali permangono anche qualora vengano utilizzati i tradizionali modelli di asset pricing, quali il CAPM, il modello di Fama e French e quello di Carhart. Infine, utilizzando l’approccio EGARCH-M, verranno formulate previsioni sulla volatilità dei rendimenti dei titoli appartenenti al Dow Jones. Quest’ultime saranno poi utilizzate come input per determinare le views da inserire nel modello di Black e Litterman. I risultati ottenuti, evidenziano, per diversi valori dello scalare tau, extra rendimenti medi del new combined vector superiori al vettore degli extra rendimenti di equilibrio di mercato, seppur con livelli più elevati di rischio.
Resumo:
La stesura di questo elaborato di tesi trova le basi sull’articolo di Stergiopulos et al. “Determinants of stroke volume and systolic and diastolic aortic pressure” pubblicato sulla rivista americana American Journal of Physiology-Heart and Circulatory Physiology nel 1996. Si cerca di investigare sull’importanza che ricoprono alcuni parametri che descrivono il muscolo cardiaco e l’albero arterioso e sulla loro rispettiva influenza sulla pressione sistolica, pressione diastolica e sul volume di sangue eiettato in un battito, ovvero la gittata sistolica. Si procede con la descrizione in dettaglio della funzionalità cardiaca mediante il modello ad elastanza tempo variabile e il modello windkessel a tre elementi simulando così la contrazione ventricolare e l’albero arterioso sistemico. In dettaglio per quanto riguarda la struttura dell’elaborato è bene specificare che l’analisi teorica affrontata nei primi due capitoli ha l’obiettivo primario di: 1) chiarire i principali e caratteristici meccanismi che si trovano alla base della funzionalità cardiaca e procedere quindi con i richiami relativi alla fisiologia del sistema cardio-circolatorio facendo particolare attenzione al concetto di ciclo cardiaco, ciclo pressione-volume e fattori che determinano la funzionalità cardiaca in dettaglio; 2)illustrare quelli che sono i principali modelli di riferimento presenti in letteratura che descrivono la contrazione del ventricolo sinistro in termini di analisi pressione-volume ventricolari istantanei. Dal terzo capitolo in avanti si prosegue verso quello che è il vivo della trattazione dell’articolo di riferimento, nel capitolo appena citato si fa luce sui dettagli che caratterizzano il modello matematico utilizzato per approssimare al meglio il sistema cuore-sistema arterioso e sull’applicazione della teoria dell’analisi dimensionale mediante l’utilizzo del Teorema di Buckingham al fine di ricavare i parametri di interesse. Nel quarto capitolo si riportano i risultati dello studio con annessa validazione del modello e la sua applicazione rispetto al caso umano. Il quinto capitolo è sede della discussione dei risultati ottenuti cercando di far luce sull’universalità e applicabilità delle formule empiriche ottenute e su eventuali limitazioni e implicazioni riscontrabili. Tale elaborato si chiude con alcune conclusioni in merito allo studio effettuato.
Resumo:
Nel seguente elaborato verrà presentato il lavoro volto alla progettazione di una protesi di piede realizzata con materiale composito in fibra di carbonio riciclato. Per il suo conseguimento sono state prese in considerazione due scelte progettuali che permetteranno una futura realizzazione semplice ed economica. Una volta determinate le scelte progettuali, si sono generati dei semplici modelli di primo approccio, per i quali sono stati previsti modellazione CAD e simulazioni di opportuni modelli agli elementi finiti. Su quest’ultimi sono stati applicati i carichi e i vincoli secondo la norma UNI ISO 22675 e sono state eseguite diverse simulazioni al variare di alcuni parametri geometrici e del numero e orientamenti degli strati componenti le lamine. Dalle simulazioni sono stati ricavati i valori di tensione, ai quali è stato applicato il criterio di resistenza strutturale per i materiali compositi di Tsai – Hill. Dal confronto di tutti i risultati, si sono determinati i parametri di progetto ottimali per ognuna delle due varianti progettuali proposte. Sulla base dei risultati ottenuti sono stati realizzati nuovi modelli CAD più dettagliati, per i quali è stata condotta l’analisi FEM e la verifica del criterio strutturale come per i modelli di primo approccio. I modelli cosi definiti possono essere la base di partenza per la definizione del progetto costruttivo del prototipo di una o entrambe le varianti progettuali.
Resumo:
Nella presente tesi è proposta una metodologia per lo studio e la valutazione del comportamento sismico di edifici a telaio. Il metodo prevede la realizzazione di analisi non-lineari su modelli equivalenti MDOF tipo stick, in accordo alla classificazione data nel report FEMA 440. Gli step per l’applicazione del metodo sono descritti nella tesi. Per la validazione della metodologia si sono utilizzati confronti con analisi time-history condotte su modelli tridimensionali dettagliati delle strutture studiate (detailed model). I parametri ingegneristici considerati nel confronto, nell’ottica di utilizzare il metodo proposto in un approccio del tipo Displacement-Based Design sono lo spostamento globale in sommità, gli spostamenti di interpiano, le forze di piano e la forza totale alla base. I risultati delle analisi condotte sui modelli stick equivalenti, mostrano una buona corrispondenza, ottima in certi casi, con quelli delle analisi condotte sui modelli tridimensionali dettagliati. Le time-history realizzate sugli stick model permettono però, un consistente risparmio in termini di onere computazionale e di tempo per il post-processing dei risultati ottenuti.
Resumo:
Il lavoro di tesi esamina i plausibili sistemi progenitori per le supernovae di tipo di Ia e analizza i principali modelli di esplosione studiati ed implementati dai gruppi di ricerca per le SNe Ia.
Resumo:
La Tesi presenta uno studio sulla distribuzione dei raggi di Einsten compiuta su campioni di ammassi simulati. Il codice utilizzato, MOKA, consente la costruzione di vasti campioni di ammassi in differenti cosmologie e con differenti parametri strutturali. I risultati ottenuti sono stati confrontati con quelli ottenuti dalla simulazione cosmologica N-body ad alta risoluzione MUSIC. Sono stati quindi prodotti campioni di ammassi per sette valori diversi della normalizzazione dello spettro di potenza e 7 valori diversi del parametro di densità della materia mantenendo la geometria piatta
Resumo:
La cosmologia ha come scopo lo studio di origine ed evoluzione dell’Universo, per averne una comprensione generale attraverso le leggi fisiche conosciute. Il modello del Big Bang, di cui si dà la descrizione teorica nel capitolo 1, è una delle formulazioni più recenti di teoria che mira a spiegare l’inizio e la successiva evoluzione dell’Universo, fino ad avanzare anche ipotesi sul suo destino futuro; è inoltre il modello generalmente accettato dalla comunità scientifica in quanto, di tutti i modelli proposti nel corso degli anni, è quello con più riscontri sperimentali e che meglio si trova in accordo con le osservazioni. I principali successi del modello vengono trattati nel capitolo 2. In particolare: si tratterà di redshift e legge di Hubble, collegati all’espansione dell’Universo, importante prova dell’attendibilità del modello del Big Bang; della radiazione cosmica di fondo, scoperta negli anni ’60 quasi per caso e poi ricondotta a ipotesi teoriche già avanzate anni prima nelle prime formulazioni del modello; della nucleosintesi primordiale, che spiega l’abbondanza attuale dei principali costituenti dell’Universo, H ed He, cosa che altrimenti non sarebbe spiegabile se si considerasse soltanto la formazione di tali elementi nelle stelle. Ovviamente anche questo modello, come si vede nel capitolo 3, non manca di problemi, a cui si è trovata una risoluzione parziale o comunque non definitiva; in questa sede tuttavia, per ragioni di spazio, tali problemi e la loro soluzione verranno soltanto accennati. Si accennerà al problema dell’Universo piatto e al problema dell’orizzonte, e a come essi possano essere spiegati introducendo il concetto di inflazione. Infine, nel capitolo 4, si accenna anche alla materia oscura, soprattutto per quanto riguarda le evidenze sperimentali che ne hanno permesso la scoperta e le prove successive che ne confermano l’esistenza. Tuttora ne ignoriamo natura e composizione, visto che a differenza della materia ordinaria non emette radiazione elettromagnetica, ma i suoi effetti gravitazionali sono evidenti ed è estremamente difficile che la sua esistenza possa essere messa in discussione.