996 resultados para supernova SNe parametri vincoli cosmologia modelli cosmologici redshift espansione universo
Resumo:
L'elaborato tratta lo studio dell’evoluzione delle perturbazioni di densità non lineari, confrontando modelli con costante cosmologica (wΛ = −1) e modelli alternativi in cui l’energia oscura sia caratterizzata da un’equazione di stato con w diverso da −1, considerando sia il caso con energia oscura costante, sia quello in cui ha fluttuazioni. La costante cosmologica presenta infatti due problemi teorici attualmente senza soluzione: il problema del suo valore e il problema della coincidenza. Per analizzare l’evoluzione delle perturbazioni di materia ed energia oscura, sia nel caso delle sovradensità che nel caso delle sottodensità primordiali, si implementano numericamente le equazioni differenziali non lineari ricavate a partire dalla teoria del collasso sferico. Per parametrizzare il problema, si fa riferimento ai valori critici del contrasto di densità δc e δv che rappresentano, rispettivamente, la soglia lineare per il collasso gravitazionale e la soglia per l’individuazione di un vuoto cosmico. I valori di δc e δv sono importanti poich´e legati agli osservabili cosmici tramite la funzione di massa e la void size function. Le soglie critiche indicate sono infatticontenute nelle funzioni citate e quindi, cambiando δc e δv al variare del modello cosmologico assunto, è possibile influenzare direttamente il numero e il tipo di oggetti cosmici formati, stimati con la funzione di massa e la void size function. Lo scopo principale è quindi quello di capire quanto l’assunzione di un modello, piuttosto che di un altro, incida sui valori di δc e δv. In questa maniera è quindi possibile stimare, con l’utilizzo della funzione di massa e della void size function, quali sono gli effetti sulla formazione delle strutture cosmiche dovuti alle variazioni delle soglie critiche δc e δv in funzione del modello cosmologico scelto. I risultati sono messi a confronto con il modello cosmologico standard (ΛCDM) per cui si assume Ω0,m = 0.3, Ω0,Λ = 0.7 e wΛ = −1.
Resumo:
L’obiettivo del presente lavoro di tesi è quello di derivare la valutazione di un Total Return Swap (TRS) utilizzando la modellistica stocastica che sta alla base dello studio del pricing di derivati finanziari. I contratti di tipo swap, la cui origine è collocata intorno agli anni ’70, prevedono lo scambio di flussi tra due parti, definiti sulla base del sottostante. In particolare, un Total Return Swap è un derivato finanziario che prevede lo scambio periodico di pagamenti definiti rispetto alla gamba di performance del sottostante e alla gamba di interesse. L’elaborato è composto da un’introduzione alle nozioni matematiche preliminari alla costruzione di un modello di mercato utile a derivare il pricing di un derivato (i.e. Teoria di non arbitraggio, esistenza di una misura martingala e le condizioni sotto le quali questa è unica). Nel secondo capitolo, vengono presentate le definizioni finanziarie necessarie alla descrizione di tali prodotti (e.g. Tassi d’interesse spot e Tassi forward). Nel corso della tesi viene presentata una rassegna della modellistica per l’evoluzione dei tassi descritti da dinamiche di volta in volta più complesse, e.g. Modello di Vasicek, modello di Dothan e approccio di Heath-Jarrow-Morton (HJM). In tale contesto, sono state derivate le formule di valutazione ad Accrual e a Net Present Value (NPV) per il TRS sfruttando la teoria di non arbitraggio, la cui principale differenza diviene dal considerare o meno l’attualizzazione tramite il fattore di sconto stocastico dei flussi di cassa previsti tra le due parti del contratto. Nell’ultimo capitolo, viene presentata un’analisi delle due modalità di pricing effettuata su due TRS rispettivamente su basket di azioni e basket di indici.
Resumo:
Nella presente tesi si è realizzato uno sviluppo di base per l'implementazione di un motore turboalbero aeronautico all’utilizzo ad idrogeno. La parte iniziale dell'elaborato descrive le caratteristiche e i benefici dell’utilizzo di questo combustibile innovativo e riporta, poi, le principali modifiche hardware, presenti in letteratura, necessarie per l’implementazione voluta su un motore fisico. Vengono, poi, illustrati i modelli di combustori necessari per un corretto funzionamento del sistema propulsivo, oltre all’eventuale necessità di uno scambiatore di calore. Nella parte centrale della tesi, invece, é descritta la conversione di un modello MatLab Simulink del motore Allison 250 c18, esplicando e documentando le principali modifiche apportate riguardo alla creazione delle mappe del modello dinamico utile a ricavare le caratteristiche termodinamiche del flusso in camera di combustione e all'uscita da essa. Viene inoltre mostrato il metodo di utilizzo degli script CEA forniti dalla NASA, valido per desumere le proprietà dei gas post combustione, oltre che per la creazione delle funzioni di interpolazioni. Sono state svolte, infine, diverse simulazioni, con lo scopo di ricavare le portate corrette di combustibile ed osservare gli andamenti dei parametri fondamentali del sistema propulsivo, come: le portate elaborate, le potenze generate, le temperature e le pressioni ottenute.
Resumo:
Un forno è un oggetto costituito da una camera vuota, definita cavità, che espone in maniera controllata i materiali posti al suo interno ad un ambiente caldo. Esistono diversi tipi di forni (a gas, elettrici, a microonde, a legna) e sono utilizzati con diversi scopi a seconda delle dimensioni e di come generano il calore. Il prodotto alimentare viene cotto in forno attraverso la trasmissione di calore per irraggiamento, per convezione o per una combinazione di entrambi. Questo processo di riscaldamento richiede un elevato dispendio di energia, di cui solo il 20-25% è utilizzato per riscaldare il cibo in preparazione. I forni nello specifico sono responsabili di circa il 10-12% dell’impatto ambientale complessivo degli edifici civili, collocandosi tra i peggiori elettrodomestici in termini di efficienza energetica. A ragione di ciò, l’industria dei forni è stimolata a sviluppare tecnologie sempre più efficienti, attraverso la ricerca di un miglior controllo della temperatura interna del forno. Sono state redatte due normative europee, EN 60350 e EN 50304, che stabiliscono procedure di raccolta dati e calcolo dell’efficienza energetica di un forno per guidare i costruttori verso una progettazione a minor impatto energetico, che permetta loro di restare competitivi sul mercato. L’obiettivo del seguente lavoro bibliografico è stato quello di descrivere in maniera dettagliata le normative inerenti la determinazione dell’efficienza energetica dei forni domestici. Inoltre, è stata redatta una rassegna sistematica degli studi scientifici riguardanti la valutazione del consumo energico mediante modelli matematici.
Resumo:
A fronte delle politiche di gestione e mitigazione del rischio alluvionale definite dalla Direttiva Alluvioni (Direttiva 2007/60/CE), risulta necessario sviluppare modelli che riescano a quantificare le conseguenze economiche causate da eventi alluvionali a diversi settori, tra cui il settore agricolo. In questo lavoro di tesi si è posto l’obiettivo di estendere un modello disponibile in letteratura per la stima del danno subito alle colture più diffuse (i.e., seminativi; AGRIDE-c, Molinari et al., 2019) ad altre colture pluriennali, i frutteti, in particolar modo pereti e meleti. Il modello è stato sviluppato a scala regionale, facendo quindi riferimento ai valori di resa, prezzo e costi delle operazioni caratteristici delle pratiche agricole dell’Emilia-Romagna. L’applicazione è stata effettuata su cinque Aree a Potenziale Rischio Significativo (APSFR) del Distretto del fiume Po' e ricadenti all’interno del medesimo territorio regionale (Panaro, Secchia, Reno, Enza, Parma-Baganza). Il modello rappresenta uno strumento utilizzabile dalle Autorità competenti sia ex-post, per la stima speditiva del danno economico subìto dagli agricoltori colpiti dall’alluvione e il loro eventuale risarcimento, che ex-ante, ovvero come strumento di supporto decisionale per le attività di tipo Cost-Benefit Analysis (CBA) nell’ambito dei piani di gestione e mitigazione del rischio.
Resumo:
Questa tesi tratta lo studio e l’applicazione di una metodologia per la simulazione di getti gassosi sottoespansi, nello specifico getti di idrogeno in aria. La necessità di questo lavoro nasce dall’esigenza, nel mondo dei trasporti, di abbandonare i combustibili fossili derivati dal petrolio. L’idrogeno, come il metano, viene iniettato in fase gassosa, quindi occorre studiare bene i fenomeni e i meccanismi in gioco per ottimizzare la miscelazione con l’aria. La parte iniziale della tesi riguarda lo studio teorico e generale della letteratura sui getti sottoespansi, con l’obiettivo di capire cosa sono, come si formano, da cosa sono governati e quali sono i loro parametri principali. Successivamente si passa alla loro analisi numerica tramite il software CFD open source OpenFOAM. Le analisi condotte hanno permesso di valutare l’impiego di diversi approcci di modellazione al fine di trovare quello ottimale. Sono stati testati differenti risolutori (rhoCentralFoam, rhoPimpleFoam e reactingFoam), diverse configurazioni della mesh (wedge 2-D, empty 2-D e cyclic 3-D) e diversi modelli di turbolenza (k − ϵ, RNG k − ϵ e k − ω SST).
Resumo:
Il presente lavoro di tesi si pone come obiettivo l’individuazione di modelli matematici che possano essere utilizzati per la configurazione di simulatori di volo aerei elettrici dell’aviazione generale. In particolare, sono state trovate in letteratura delle formule da utlizzare per modellare eliche, motori elettrici di varie tipologie e batterie. Per meglio comprendere l’impatto dell’adozione dei motori elettrici sui velivoli dell’aviazione generale sono stati effettuati dei confronti di dati, in cui si è preso come riferimento il motore a combustione interna Continental O-300 montato sui Cessna C172. Successivamente, sono stati implementati i modelli dinamici in Simulink di motori elettrici che potrebbero sostituire il motore a combustione interna sopra citato. Sono, poi, state eseguite alcune comparazioni tra i risultati ottenuti in termini di spinte ottenibili, potenze e autonomie, e numero di giri di rotazione dell’elica per diversi motori elettrici. Per effettuare le simulazioni è stato utilizzato il software Simulink: ambiente in cui sono stati sviluppati modelli dinamici di propulsione sia tradizionale che elettrica. Nella parte conclusiva della tesi, sono riportate alcune considerazioni volte a stimare l'autonomia di un velivolo simile al Cessna C172, in cui si sotituisce il motore a combustione interna con un motore elettrico a parità di peso massimo al decollo e l’andamento di quest'ultimo in funzione dell’autonomia per un velivolo elettrico. I risultati ottenuti da queste ultime simulazioni suggeriscono che la conversione ad elettrico è attualmente critica in quanto la ridotta densità di energia delle batterie porta ad un significativo decadimento dell'autonomia generale.
Resumo:
Universidade Estadual de Campinas . Faculdade de Educação Física
Resumo:
A new age-redshift test is proposed in order to constrain H(0) on the basis of the existence of old high-redshift galaxies (OHRGs). In the flat Lambda cold dark matter model, the value of H(0) is heavily dependent on the mass density parameter Omega(M) = 1- Omega(Lambda). Such a degeneracy can be broken through a joint analysis involving the OHRG and baryon acoustic oscillation signature. By assuming a galaxy incubation time, t(inc) = 0.8 +/- 0.4 Gyr, our joint analysis yields a value of H(0) = 71 +/- 4 km s(-1) Mpc(-1) (1 sigma) with the best-fit density parameter Omega(M) = 0.27 +/- 0.03. Such results are in good agreement with independent studies from the Hubble Space Telescope key project and recent estimates of the Wilkinson Microwave Anisotropy Probe, thereby suggesting that the combination of these two independent phenomena provides an interesting method to constrain the Hubble constant.
Resumo:
Aims. We present a dynamical analysis of the galaxy cluster Abell 1942 based on a set of 128 velocities obtained at the European Southern Observatory. Methods. Data on individual galaxies are presented and the accuracy of the determined velocities as some properties of the cluster are discussed. We have also made use of publicly available Chandra X-ray data. Results. We obtained an improved mean redshift value z = 0.22513 +/- 0.0008 and velocity dispersion sigma = 908(139)(+147) km s(-1). Our analysis indicates that inside a radius of similar to 1.5 h(70)(-1) Mpc (similar to 7 arcmin) the cluster is well relaxed, without any remarkable features and the X-ray emission traces the galaxy distribution fairly well. Two possible optical substructures are seen at similar to 5 arcmin from the centre in the northwest and the southwest directions, but are not confirmed by the velocity field. These clumps are, however, kinematically bound to the main structure of Abell 1942. X-ray spectroscopic analysis of Chandra data resulted in a temperature kT = 5.5+/-0.5 keV and metal abundance Z = 0.33 +/- 0.15 Z(circle dot). The velocity dispersion corresponding to this temperature using the T(X-sigma) scaling relation is in good agreement with the measured galaxy velocities. Our photometric redshift analysis suggests that the weak lensing signal observed to the south of the cluster and previously attributed to a ""dark clump"" is produced by background sources, possibly distributed as a filamentary structure.
Resumo:
The influence of a possible nonzero chemical potential mu on the nature of dark energy is investigated by assuming that the dark energy is a relativistic perfect simple fluid obeying the equation of state, p=omega rho (omega < 0, constant). The entropy condition, S >= 0, implies that the possible values of omega are heavily dependent on the magnitude, as well as on the sign of the chemical potential. For mu > 0, the omega parameter must be greater than -1 (vacuum is forbidden) while for mu < 0 not only the vacuum but even a phantomlike behavior (omega <-1) is allowed. In any case, the ratio between the chemical potential and temperature remains constant, that is, mu/T=mu(0)/T(0). Assuming that the dark energy constituents have either a bosonic or fermionic nature, the general form of the spectrum is also proposed. For bosons mu is always negative and the extended Wien's law allows only a dark component with omega <-1/2, which includes vacuum and the phantomlike cases. The same happens in the fermionic branch for mu < 0. However, fermionic particles with mu > 0 are permitted only if -1
Resumo:
A component of dark energy has been recently proposed to explain the current acceleration of the Universe. Unless some unknown symmetry in Nature prevents or suppresses it, such a field may interact with the pressureless component of dark matter, giving rise to the so-called models of coupled quintessence. In this paper we propose a new cosmological scenario where radiation and baryons are conserved, while the dark energy component is decaying into cold dark matter. The dilution of cold dark matter particles, attenuated with respect to the usual a(-3) scaling due to the interacting process, is characterized by a positive parameter epsilon, whereas the dark energy satisfies the equation of state p(x) = omega rho(x) (omega < 0). We carry out a joint statistical analysis involving recent observations from type Ia supernovae, baryon acoustic oscillation peak, and cosmic microwave background shift parameter to check the observational viability of the coupled quintessence scenario here proposed.
Resumo:
Context. The luminous material in clusters of galaxies exists in two forms: the visible galaxies and the X-ray emitting intra-cluster medium. The hot intra-cluster gas is the major observed baryonic component of clusters, about six times more massive than the stellar component. The mass contained within visible galaxies is approximately 3% of the dynamical mass. Aims. Our aim was to analyze both baryonic components, combining X-ray and optical data of a sample of five galaxy clusters (Abell 496, 1689, 2050, 2631 and 2667), within the redshift range 0.03 < z < 0.3. We determined the contribution of stars in galaxies and the intra-cluster medium to the total baryon budget. Methods. We used public XMM-Newton data to determine the gas mass and to obtain the X-ray substructures. Using the optical counterparts from SDSS or CFHT we determined the stellar contribution. Results. We examine the relative contribution of galaxies, intra-cluster light and intra-cluster medium to baryon budget in clusters through the stellar-to-gas mass ratio, estimated with recent data. We find that the stellar-to-gas mass ratio within r(500) (the radius within which the mean cluster density exceeds the critical density by a factor of 500), is anti-correlated with the ICM temperature, which range from 24% to 6% while the temperature ranges from 4.0 to 8.3 keV. This indicates that less massive cold clusters are more prolific star forming environments than massive hot clusters.
Resumo:
Magnetic fields of intensities similar to those in our galaxy are also observed in high redshift galaxies, where a mean field dynamo would not have had time to produce them. Therefore, a primordial origin is indicated. It has been suggested that magnetic fields were created at various primordial eras: during inflation, the electroweak phase transition, the quark-hadron phase transition (QHPT), during the formation of the first objects, and during reionization. We suggest here that the large-scale fields similar to mu G, observed in galaxies at both high and low redshifts by Faraday rotation measurements (FRMs), have their origin in the electromagnetic fluctuations that naturally occurred in the dense hot plasma that existed just after the QHPT. We evolve the predicted fields to the present time. The size of the region containing a coherent magnetic field increased due to the fusion of smaller regions. Magnetic fields (MFs) similar to 10 mu G over a comoving similar to 1 pc region are predicted at redshift z similar to 10. These fields are orders of magnitude greater than those predicted in previous scenarios for creating primordial magnetic fields. Line-of-sight average MFs similar to 10(-2) mu G, valid for FRMs, are obtained over a 1 Mpc comoving region at the redshift z similar to 10. In the collapse to a galaxy (comoving size similar to 30 kpc) at z similar to 10, the fields are amplified to similar to 10 mu G. This indicates that the MFs created immediately after the QHPT (10(-4) s), predicted by the fluctuation-dissipation theorem, could be the origin of the similar to mu G fields observed by FRMs in galaxies at both high and low redshifts. Our predicted MFs are shown to be consistent with present observations. We discuss the possibility that the predicted MFs could cause non-negligible deflections of ultrahigh energy cosmic rays and help create the observed isotropic distribution of their incoming directions. We also discuss the importance of the volume average magnetic field predicted by our model in producing the first stars and in reionizing the Universe.
Resumo:
We discuss the dynamics of the Universe within the framework of the massive graviton cold dark matter scenario (MGCDM) in which gravitons are geometrically treated as massive particles. In this modified gravity theory, the main effect of the gravitons is to alter the density evolution of the cold dark matter component in such a way that the Universe evolves to an accelerating expanding regime, as presently observed. Tight constraints on the main cosmological parameters of the MGCDM model are derived by performing a joint likelihood analysis involving the recent supernovae type Ia data, the cosmic microwave background shift parameter, and the baryonic acoustic oscillations as traced by the Sloan Digital Sky Survey red luminous galaxies. The linear evolution of small density fluctuations is also analyzed in detail. It is found that the growth factor of the MGCDM model is slightly different (similar to 1-4%) from the one provided by the conventional flat Lambda CDM cosmology. The growth rate of clustering predicted by MGCDM and Lambda CDM models are confronted to the observations and the corresponding best fit values of the growth index (gamma) are also determined. By using the expectations of realistic future x-ray and Sunyaev-Zeldovich cluster surveys we derive the dark matter halo mass function and the corresponding redshift distribution of cluster-size halos for the MGCDM model. Finally, we also show that the Hubble flow differences between the MGCDM and the Lambda CDM models provide a halo redshift distribution departing significantly from the those predicted by other dark energy models. These results suggest that the MGCDM model can observationally be distinguished from Lambda CDM and also from a large number of dark energy models recently proposed in the literature.