1000 resultados para cosmologia,costante di hubble,parametri cosmologici,modello lambda-cdm,equazioni di Friedmann


Relevância:

100.00% 100.00%

Publicador:

Resumo:

La crescente attenzione verso un utilizzo attento, sostenibile ed economicamente efficiente della risorsa idrica rende di primaria importanza il tema delle perdite idriche e della gestione efficiente dei sistemi idrici. La richiesta di controlli dell’uso dell’acqua è stata avanzata a livello mondiale. Il problema delle perdite idriche nei Paesi industrializzati è stato così affrontato con specifiche normative e procedure di best practice gestionale per avanzare una valutazione delle perdite idriche e una limitazione degli sprechi e degli usi impropri. In quest’ambito, la pressione gioca un ruolo fondamentale nella regolazione delle perdite reali. La regolazione delle pressioni nelle diverse ore del giorno consente, infatti, di poter agire su queste ultime perdite, che aumentano all’aumentare della pressione secondo una cosiddetta legge di potenza. La motivazione della presente tesi è originata dalla necessità di quantificare il livello di perdita idrica in un sistema acquedottistico in relazione alla pressione all’interno del sistema stesso. Per avere una stima realistica che vada al di là della legge della foronomia, si vuole valutare l’influenza della deformabilità della condotta in pressione fessurata sull’entità delle perdite idriche, con particolare attenzione alle fessurazioni di tipo longitudinale. Tale studio è condotto tramite l’introduzione di un semplice modello di trave alla Winkler grazie al quale, attraverso un’analisi elastica, si descrive il comportamento di una generica condotta fessurata longitudinalmente e si valuta la quantità d’acqua perduta. I risultati ottenuti in condizioni specifiche della condotta (tipo di materiale, caratteristiche geometriche dei tubi e delle fessure, etc.) e mediante l’inserimento di opportuni parametri nel modello, calibrati sui risultati forniti da una raffinata modellazione tridimensionale agli elementi finiti delle medesime condotte, verranno poi confrontati con i risultati di alcune campagne sperimentali. Gli obiettivi del presente lavoro sono, quindi, la descrizione e la valutazione del modello di trave introdotto, per stabilire se esso, nonostante la sua semplicità, sia effettivamente in grado di riprodurre, in maniera realistica, la situazione che si potrebbe verificare nel caso di tubo fessurato longitudinalmente e di fornire risultati attendibili per lo studio delle perdite idriche. Nella prima parte verrà approfondito il problema della perdite idriche. Nella seconda parte si illustrerà il semplice modello di trave su suolo elastico adottato per l’analisi delle condotte in pressione fessurate, dopo alcuni cenni teorici ai quali si è fatto riferimento per la realizzazione del modello stesso. Successivamente, nella terza parte, si procederà alla calibrazione del modello, tramite il confronto con i risultati forniti da un’analisi tridimensionale agli elementi finiti. Infine nella quarta parte verrà ricavata la relazione flusso-pressione con particolare attenzione all’esponente di perdita, il cui valore risulterà superiore a quello predetto dalla teoria della foronomia, e verrà verificata l’effettiva validità del modello tramite un confronto con i risultati sperimentali di cui è stata fatta menzione in precedenza.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

ABSTRACT (italiano) Con crescente attenzione riguardo al problema della sicurezza di ponti e viadotti esistenti nei Paesi Bassi, lo scopo della presente tesi è quello di studiare, mediante la modellazione con Elementi Finiti ed il continuo confronto con risultati sperimentali, la risposta in esercizio di elementi che compongono infrastrutture del genere, ovvero lastre in calcestruzzo armato sollecitate da carichi concentrati. Tali elementi sono caratterizzati da un comportamento ed una crisi per taglio, la cui modellazione è, da un punto di vista computazionale, una sfida piuttosto ardua, a causa del loro comportamento fragile combinato a vari effetti tridimensionali. La tesi è incentrata sull'utilizzo della Sequentially Linear Analysis (SLA), un metodo di soluzione agli Elementi Finiti alternativo rispetto ai classici approcci incrementali e iterativi. Il vantaggio della SLA è quello di evitare i ben noti problemi di convergenza tipici delle analisi non lineari, specificando direttamente l'incremento di danno sull'elemento finito, attraverso la riduzione di rigidezze e resistenze nel particolare elemento finito, invece dell'incremento di carico o di spostamento. Il confronto tra i risultati di due prove di laboratorio su lastre in calcestruzzo armato e quelli della SLA ha dimostrato in entrambi i casi la robustezza del metodo, in termini di accuratezza dei diagrammi carico-spostamento, di distribuzione di tensioni e deformazioni e di rappresentazione del quadro fessurativo e dei meccanismi di crisi per taglio. Diverse variazioni dei più importanti parametri del modello sono state eseguite, evidenziando la forte incidenza sulle soluzioni dell'energia di frattura e del modello scelto per la riduzione del modulo elastico trasversale. Infine è stato effettuato un paragone tra la SLA ed il metodo non lineare di Newton-Raphson, il quale mostra la maggiore affidabilità della SLA nella valutazione di carichi e spostamenti ultimi insieme ad una significativa riduzione dei tempi computazionali. ABSTRACT (english) With increasing attention to the assessment of safety in existing dutch bridges and viaducts, the aim of the present thesis is to study, through the Finite Element modeling method and the continuous comparison with experimental results, the real response of elements that compose these infrastructures, i.e. reinforced concrete slabs subjected to concentrated loads. These elements are characterized by shear behavior and crisis, whose modeling is, from a computational point of view, a hard challenge, due to their brittle behavior combined with various 3D effects. The thesis is focused on the use of Sequentially Linear Analysis (SLA), an alternative solution technique to classical non linear Finite Element analyses that are based on incremental and iterative approaches. The advantage of SLA is to avoid the well-known convergence problems of non linear analyses by directly specifying a damage increment, in terms of a reduction of stiffness and strength in the particular finite element, instead of a load or displacement increment. The comparison between the results of two laboratory tests on reinforced concrete slabs and those obtained by SLA has shown in both the cases the robustness of the method, in terms of accuracy of load-displacements diagrams, of the distribution of stress and strain and of the representation of the cracking pattern and of the shear failure mechanisms. Different variations of the most important parameters have been performed, pointing out the strong incidence on the solutions of the fracture energy and of the chosen shear retention model. At last a confrontation between SLA and the non linear Newton-Raphson method has been executed, showing the better reliability of the SLA in the evaluation of the ultimate loads and displacements, together with a significant reduction of computational times.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il primo studio ha verificato l'affidabilità del software Polimedicus e gli effetti indotti d'allenamento arobico all’intensità del FatMax. 16 soggetti sovrappeso, di circa 40-55anni, sono stati arruolati e sottoposti a un test incrementale fino a raggiungere un RER di 0,95, e da quel momento il carico è stato aumentato di 1 km/ h ogni minuto fino a esaurimento. Successivamente, è stato verificato se i valori estrapolati dal programma erano quelli che si possono verificare durante a un test a carico costante di 1ora. I soggetti dopo 8 settimane di allenamento hanno fatto un altro test incrementale. Il dati hanno mostrato che Polimedicus non è molto affidabile, soprattutto l'HR. Nel secondo studio è stato sviluppato un nuovo programma, Inca, ed i risultati sono stati confrontati con i dati ottenuti dal primo studio con Polimedicus. I risultati finali hanno mostrato che Inca è più affidabile. Nel terzo studio, abbiamo voluto verificare l'esattezza del calcolo del FatMax con Inca e il test FATmaxwork. 25 soggetti in sovrappeso, tra 40-55 anni, sono stati arruolati e sottoposti al FATmaxwork test. Successivamente, è stato verificato se i valori estrapolati da INCA erano quelli che possono verificarsi durante un carico di prova costante di un'ora. L'analisi ha mostrato una precisione del calcolo della FatMax durante il carico di lavoro. Conclusione: E’ emersa una certa difficoltà nel determinare questo parametro, sia per la variabilità inter-individuale che intra-individuale. In futuro bisognerà migliorare INCA per ottenere protocolli di allenamento ancora più validi.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Questa tesi si propone di investigare l'origine di effetti non gaussiani nella distribuzione del segnale del rivelatore Time of Flight (TOF) dell'esperimento A Large Ion Collider Experiment (ALICE). Con la presa dati iniziata nel 2009 si è infatti osservata un'asimmetria nel segnale la cui origine è ancora oggetto di studio. L'analisi svolta mostra come essa sia dovuta a motivi strumentali piuttosto che fenomenologici e permette quindi di correggere in parte questa anomalia migliorando la risoluzione del rivelatore. ALICE è uno dei quattro esperimenti allestiti lungo l'anello del LHC e ha come obiettivo principale verificare l'esistenza di prove sperimentali che confermino l'esistenza di un nuovo stadio della materia, il cosiddetto Quark Gluon Plasma (QGP). Secondo la Cromodinamica Quantistica (QCD), la teoria che descrive l'interazione forte, caratteristica fondamentale di quark e gluoni è il loro confinamento all'interno di adroni. Studi recenti nell'ambito della QCD non-perturbativa hanno tuttavia dimostrato che in condizioni estreme di densità di materia adronica e temperatura sarebbe possibile un'inversione di tendenza nell'andamento della costante di accoppiamento forte. Le condizioni necessarie alla formazione del QGP sono ben riproducibili nelle collisioni ad energie ultrarelativistiche tra ioni pesanti, come quelle che sono state prodotte a LHC negli ultimi due anni, fra ioni di piombo con energie del centro di massa pari a 2.76 TeV per coppia di nucleoni. L'esperimento ALICE si propone di studiarne i prodotti e poiché la molteplicità di particelle che si generano nell'urto e considerevole, e necessario un sistema di rivelazione che permetta l'identificazione di particelle cariche su un grande angolo solido e in un ampio intervallo di impulsi. Il TOF, utilizzando un particolare rivelatore a gas detto Multigap Resistive Plate Chamber (MRPC), svolge brillantemente questo compito permettendo di raggiungere una risoluzione temporale inferiore ai 100 ps.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La tesi analizza, nel quadro del secondo dopoguerra, quattro casi studio scelti tra le opere di ricostruzione dell’architetto Josef Wiedemann (1910-2001) nel centro di Monaco di Baviera: Odeon (1951-1952), Alte Akademie (1951-1955), Siegestor (1956-1958) e Glyptothek (1961-1972). L’architetto si occupa di opere simbolo della città di Monaco, affrontando la loro ricostruzione come un tema fondante per la storia e l’identità del popolo bavarese, ma soprattutto come un’occasione per definire un metodo d’intervento sulle rovine della guerra. Il suo lavoro è caratterizzato infatti per la ricerca costante di una sintesi tra interesse per la conservazione dell’antico e apertura al nuovo; ispirandosi all’insegnamento del maestro Hans Döllgast, Wiedemann traccia una nuova originale strada per l’intervento sull’antico, segnata da una profonda capacità tecnico-progettuale e dall'attenzione alle nuove esigenze a cui deve rispondere un’architettura contemporanea. Partendo dai suoi scritti e dalle sue opere, si può rilevare un percorso coerente che, partendo dalla conoscenza della storia dell'edificio, ripercorrendone l’evoluzione dallo stato che potremmo definire “originario” allo stato di rovina, giunge a produrre nel progetto realizzato una sintesi tra il passato e il futuro. L'architetto, nella visione di Wiedemann, è chiamato a un compito di grande responsabilità: conoscere per progettare (o ri-progettare) un edificio che porta impressi su di sé i segni della propria storia. Nel metodo che viene messo progressivamente a punto operando nel corpo vivo dei monumenti feriti dalla guerra, è percepibile fino a distinguerlo chiaramente l’interesse e l’influenza del dibattito italiano sul restauro. La conservazione “viva” dell'esistente, così come viene definita da Wiedemann stesso, si declina in modo diverso per ogni caso particolare, approdando a risultati differenti tra loro, ma che hanno in comune alcuni principi fondamentali: conoscere, ricordare, conservare e innovare.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Tra i vari impatti causati dall’aumento costante di CO2 nell’atmosfera troviamo l’acidificazione oceanica. Le conseguenze di questo processo non sono interamente conosciute. Per questo è importante conoscere la risposta all’acidificazione degli organismi marini e degli ecosistemi. Lo scopo di questo lavoro è valutare le conseguenze dell’acidificazione su comunità meiofaunali epifite. Sono stati quindi condotti campionamenti in situ, in una zona acidificata in conseguenza della presenza di vents idrotermali presenti nell’isola di Ischia (Italia). La zona di studio indagata è stata suddivisa in due siti, differenti per esposizione al moto ondoso. All’interno di ciascuna esposizione sono stati individuate tre stazioni, differenti per il grado di acidificazione. Sono stati prelevati campioni di alghe lungo il gradiente di acidificazione con associata la meiofauna e sono stati considerati come substrato secondario. Le alghe sono state analizzate attraverso descrittori della loro complessità mentre gli organismi sono stati contati e classificati a livello di grandi taxa. I descrittori sintetici di ricchezza tassonomica e di abbondanza non presentano valori di correlazione alti con i descrittori di complessità algale. Invece, i risultati ottenuti considerando l’intera comunità mostrano una relazione significativa fra la struttura delle comunità meiofaunali e l’acidificazione e anche con la diversa esposizione al moto ondoso. Infine dalle analisi condotte mediante regressione multipla fra tutti i descrittori algali e la struttura di comunità si nota come i primi non giustificano da soli le variazioni dei popolamenti meiobentonici. In definitiva questi risultati sembrerebbero dimostrare che la struttura delle comunità meiofaunali venga influenzata sia dalla acidificazione che dall’esposizione al moto ondoso oltre che dalla struttura dell’habitat. È tuttavia difficile definire se le variazioni nella struttura di comunità sono dovute ad una azione parallela e sinergica dei fattori considerati (esposizione e gradiente) o se si tratta di un effetto a cascata dove l’acidità influenza le comunità algali che a loro volta strutturano le comunità bentoniche associate. In prospettiva di studi futuri sarebbe quindi interessante condurre uno studio simile prendendo in considerazione le possibili relazioni specie-specifiche intercorrenti tra la struttura delle comunità meiofaunali e le differenti specie algali.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

CysK, uno degli isoenzimi di O-acetilserina sulfidrilasi (OASS) presenti in piante e batteri, è un enzima studiato da molto tempo ed il suo ruolo fisiologico nella sintesi della cisteina è stato ben definito. Recentemente sono state scoperte altre funzioni apparentemente non collegate alla sua funzione enzimatica (moonlighting). Una di queste è l’attivazione di una tossina ad attività tRNAsica, CdiA-CT, coinvolta nel sistema di inibizione della crescita da contatto (CDI) di ceppi patogeni di E. coli. In questo progetto abbiamo studiato il ruolo di CysK nel sistema CDI e la formazione di complessi con due differenti partner proteici: CdiA-CT e CysE (serina acetiltransferasi, l’enzima che catalizza la reazione precedente nella biosintesi della cisteina). I due complessi hanno le stesse caratteristiche spettrofluorimetriche e affinità molto simili, ma la cinetica di raggiungimento dell’equilibrio per il complesso tossina:CysK è più lenta che per il complesso CysE:CysK (cisteina sintasi). In entrambi i casi la formazione veloce di un complesso d’incontro è seguita da un riarrangiamento conformazionale che porta alla formazione di un complesso ad alta affinità. L’efficienza di formazione del complesso cisteina sintasi è circa 200 volte maggiore rispetto al complesso CysK:tossina. Una differenza importante, oltre alla cinetica di formazione dei complessi, è la stechiometria di legame. Infatti mentre CysE riesce a legare solo uno dei due siti attivi del dimero di CysK, nel complesso con CdiA-CT entrambi i siti attivi dell’enzima risultano essere occupati. Le cellule isogeniche esprimono un peptide inibitore della tossina (CdiI), e sono quindi resistenti all’azione tRNAsica. Tuttavia, siccome CdiI non altera la formazione del complesso CdiA-CT:CysK, CdiA-CT può esercitare comunque un ruolo nel metabolismo della cisteina e quindi nella fitness dei batteri isogenici, attraverso il legame e l'inibizione di CysK e la competizione con CysE. La via biosintetica della cisteina, un precursore di molecole riducenti, risulta essere molto importante per i batteri soprattutto in condizioni avverse come all’interno dei macrofagi nelle infezioni persistenti. Perciò questa via metabolica è di interesse per lo sviluppo di nuovi antibiotici, e in particolare le due isoforme dell’OASS negli enterobatteri, CysK e CysM, sono potenziali target per lo sviluppo di nuove molecole ad azione antibatterica. Partendo dall’analisi delle modalità di interazione con CysK del suo partner ed inibitore fisiologico, CysE, si è studiato dapprima l’interazione di pentapeptidi che mimassero la regione C-terminale di quest'ultimo, e in base ai dati ottenuti sono stati sviluppati piccoli ligandi sintetici. La struttura generale di questi composti è costituita da un gruppo acido ed un gruppo lipofilo, separati da un linker ciclopropanico che mantiene questi due gruppi in conformazione trans, ottimale per l’interazione col sito attivo dell’enzima. Sulla base di queste considerazioni, di docking in silico e di dati sperimentali ottenuti con la tecnica dell’STD-NMR e con saggi di binding spettrofluorimetrici, si è potuta realizzare una analisi di relazione struttura-attività che ha portato via via all’ottimizzazione dei ligandi. Il composto più affine che è stato finora ottenuto ha una costante di dissociazione nel range del nanomolare per entrambe le isoforme, ed è un ottimo punto di partenza per lo sviluppo di nuovi farmaci.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La Tesi descrive il progetto di ricerca AALISABETH, un progetto che ha elaborato un sistema automatico per la prevenzione e l'assistenza delle persone anziane oltre i 65 anni. Tramite un sapiente utilizzo della domotica è stato possibile automatizzare l'assistenza sanitaria costante di cui una persona di quell'età ha bisogno, facendo in modo che il medico e i familiari siano sempre a conoscenza dello stato di salute dell'anziano.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Da anni si assiste ad una continua e incessante evoluzione del settore marittimo, nel tentativo costante di introdurre nuove tecnologie per migliorare i servizi offerti, con l’obiettivo di accelerare la velocità degli scambi commerciali e ridurre i costi delle operazioni. Nell’intento di offrire un’assistenza all’avanguardia ed in tempi ridotti, particolare importanza hanno avuto le evoluzioni in tema di Polizza di Carico. La Polizza di Carico o Bill of Lading (B/L) è il principale documento utilizzato nel trasporto marittimo a livello internazionale caratterizzandosi come ricevuta di carico, titolo rappresentativo di merce e prova del contratto di trasporto. Dagli anni Ottanta del secolo scorso, diversi sono stati i tentativi di sviluppare una polizza di carico elettronica che presenti le stesse funzionalità di quella cartacea al fine di ovviare agli inconvenienti del documento tradizionale garantendone, al tempo stesso, la medesima sicurezza ed efficacia. Di recente, il progresso scientifico e l’innovazione digitale, hanno contribuito all’introduzione nel settore dello shipping di una polizza di carico basata sulla Blockchain. Nonostante sia indubbio che tale tecnologia possa garantire molteplici vantaggi, il reale utilizzo di una Blockchain Bill of Lading risulta, a tuttora, un’ipotesi in piena evoluzione.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le fonti di energia rinnovabili rappresentano una forma di energia indispensabile al sostentamento dell’attuale sistema produttivo mondiale. L’energia eolica e fotovoltaica ricoprono un ruolo fondamentale nel panorama rinnovabile, e portano con se l’inevitabile svantaggio derivato dall’impossibilita di controllare la fonte primaria di energia. I sistemi di accumulo ed immagazzinamento di energia assumeranno un ruolo strategico nel prossimo scenario energetico, in particolare nell’elaborato viene posta l’attenzione sui sistemi Power-to-Gas. La tecnologia Power-to-Gas consente di produrre gas ad alta potenza specifica (idrogeno o metano sintetico), usando elettricità proveniente da fonti rinnovabili. L’elettrolisi è il metodo più efficiente per convertire energia elettrica in idrogeno. Tra le varie tecnologie, gli elettrolizzatori di tipologia PEM (Proton Exchange Membrane), sono considerati i più adatti all’accoppiamento con fonti di energia rinnovabile, per via della loro risposta alle variazioni di carico e dell’ampio campo di funzionamento. Il lavoro di tesi si concentra sull’analisi delle prestazioni di elettrolizzatori tipo PEM, ed in particolare sull’elettrolizzatore inserito all’interno del “Laboratorio di Microreti di Generazione ed Accumulo” del Tecnopolo di Ravenna. Il laboratorio ha lo scopo di studiare e testare sistemi per la produzione di energia elettrica da fonte rinnovabile e per l’accumulo. L’impianto è costituito principalmente da due pannelli fotovoltaici con il compito di produrre energia, due batterie per accumulare l’energia prodotta dai pannelli, un elettrolizzatore e tre bombole a idruri metallici per lo stoccaggio di idrogeno. Dai dati sperimentali ottenuti dalle prove in laboratorio si è ricavato un modello matematico black-box dell’elettrolizzatore. Il modello gestisce le equazioni della curva caratteristica (P;η). In seguito il modello ottenuto è stato confrontato con un caso analogo presente in letteratura.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il guadagno di un PMT è il fattore di amplificazione tra la corrente generata dal fotocatodo e quella finale dell’anodo. Quando un PMT è soggetto a una sorgente luminosa per lunghi periodi di tempo (processo noto come "invecchiamento"), il suo guadagno tende a diminuire. In questa tesi sono riportati i risultati della campagna di invecchiamento di un fotomoltiplicatore Hamamatsu R760. In particolare, è stato studiato come variasse il guadagno in funzione della carica integrata dal PMT tramite due principali tipi di misure: quella del guadagno assoluto, che consiste in singole misure di guadagno nella condizione di emissione di un singolo fotoelettrone alla volta, e quelle di guadagno relativo, le quali hanno permesso di studiare la dipendenza tra guadagno e voltaggio applicato al PMT. Il PMT in esame è stato fatto invecchiare fino a una carica integrata totale pari a 342 C. Una volta raggiunti i 282 C, è stato spento per 20 giorni, in modo da studiare l’eventuale capacità di recuperare guadagno durante i periodi di inattività. É stata osservata una rapida decrescita del guadagno nei primi 40 C integrati, com- inciando da 7.79 · 10^6 fino a un valore pari a 1.68 · 10^6, seguita da oscillazioni minori attorno a una decrescita lineare media. Dopo il periodo di inattività non è stato rilevato alcun recupero significativo di guadagno. Il guadagno del PMT dipende dal voltaggio applicato tramite una legge a potenza, i cui parametri sono stati misurati. In particolare, gli esponenti di tale relazione sono stati soggetti a una decrescita rapida iniziale (nei primi 40 C di carica integrata), seguita da una stabilizzazione. Inoltre, sono stati ricavati i valori di tensione da applicare al PMT per mantenere il guadagno a un valore costante di 1.5 · 10^5 in funzione della carica integrata. Questo valore è stato scelto come punto di lavoro per il rivelatore PLUME installato nell’esperimento LHCb, che utilizzerà questo tipo di PMT per la sua campagna di misure.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Questa Tesi di Laurea si propone di studiare il cosiddetto Principio di Propagazione del Massimo per alcune operatori alle derivate parziali lineari del secondo ordine semiellittici e omogenei. Proviamo infatti che, data una funzione subarmonica per un operatore della tipologia di sopra, se questa funzione ammette un punto di massimo interno al suo dominio di definizione, allora questo massimo si "propaga" lungo le curve integrali dei campi vettoriali principali per l'operatore. Come applicazione di questo risultato, verifichiamo che alcuni operatori di tipo somma di quadrati di Hörmander godono del cosiddetto Principio del Massimo Forte: cioè, se una funzione subarmonica per questi operatori ammette un punto di massimo interno, allora è costante.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Creation of cold dark matter (CCDM) can macroscopically be described by a negative pressure, and, therefore, the mechanism is capable to accelerate the Universe, without the need of an additional dark energy component. In this framework, we discuss the evolution of perturbations by considering a Neo-Newtonian approach where, unlike in the standard Newtonian cosmology, the fluid pressure is taken into account even in the homogeneous and isotropic background equations (Lima, Zanchin, and Brandenberger, MNRAS 291, L1, 1997). The evolution of the density contrast is calculated in the linear approximation and compared to the one predicted by the Lambda CDM model. The difference between the CCDM and Lambda CDM predictions at the perturbative level is quantified by using three different statistical methods, namely: a simple chi(2)-analysis in the relevant space parameter, a Bayesian statistical inference, and, finally, a Kolmogorov-Smirnov test. We find that under certain circumstances, the CCDM scenario analyzed here predicts an overall dynamics (including Hubble flow and matter fluctuation field) which fully recovers that of the traditional cosmic concordance model. Our basic conclusion is that such a reduction of the dark sector provides a viable alternative description to the accelerating Lambda CDM cosmology.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

We discuss the dynamics of the Universe within the framework of the massive graviton cold dark matter scenario (MGCDM) in which gravitons are geometrically treated as massive particles. In this modified gravity theory, the main effect of the gravitons is to alter the density evolution of the cold dark matter component in such a way that the Universe evolves to an accelerating expanding regime, as presently observed. Tight constraints on the main cosmological parameters of the MGCDM model are derived by performing a joint likelihood analysis involving the recent supernovae type Ia data, the cosmic microwave background shift parameter, and the baryonic acoustic oscillations as traced by the Sloan Digital Sky Survey red luminous galaxies. The linear evolution of small density fluctuations is also analyzed in detail. It is found that the growth factor of the MGCDM model is slightly different (similar to 1-4%) from the one provided by the conventional flat Lambda CDM cosmology. The growth rate of clustering predicted by MGCDM and Lambda CDM models are confronted to the observations and the corresponding best fit values of the growth index (gamma) are also determined. By using the expectations of realistic future x-ray and Sunyaev-Zeldovich cluster surveys we derive the dark matter halo mass function and the corresponding redshift distribution of cluster-size halos for the MGCDM model. Finally, we also show that the Hubble flow differences between the MGCDM and the Lambda CDM models provide a halo redshift distribution departing significantly from the those predicted by other dark energy models. These results suggest that the MGCDM model can observationally be distinguished from Lambda CDM and also from a large number of dark energy models recently proposed in the literature.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The mass function of cluster-size halos and their redshift distribution are computed for 12 distinct accelerating cosmological scenarios and confronted to the predictions of the conventional flat Lambda CDM model. The comparison with Lambda CDM is performed by a two-step process. First, we determine the free parameters of all models through a joint analysis involving the latest cosmological data, using supernovae type Ia, the cosmic microwave background shift parameter, and baryon acoustic oscillations. Apart from a braneworld inspired cosmology, it is found that the derived Hubble relation of the remaining models reproduces the Lambda CDM results approximately with the same degree of statistical confidence. Second, in order to attempt to distinguish the different dark energy models from the expectations of Lambda CDM, we analyze the predicted cluster-size halo redshift distribution on the basis of two future cluster surveys: (i) an X-ray survey based on the eROSITA satellite, and (ii) a Sunayev-Zeldovich survey based on the South Pole Telescope. As a result, we find that the predictions of 8 out of 12 dark energy models can be clearly distinguished from the Lambda CDM cosmology, while the predictions of 4 models are statistically equivalent to those of the Lambda CDM model, as far as the expected cluster mass function and redshift distribution are concerned. The present analysis suggests that such a technique appears to be very competitive to independent tests probing the late time evolution of the Universe and the associated dark energy effects.