653 resultados para Lauro Sodré
Resumo:
Redshift Space Distortions (RSD) are an apparent anisotropy in the distribution of galaxies due to their peculiar motion. These features are imprinted in the correlation function of galaxies, which describes how these structures distribute around each other. RSD can be represented by a distortions parameter $\beta$, which is strictly related to the growth of cosmic structures. For this reason, measurements of RSD can be exploited to give constraints on the cosmological parameters, such us for example the neutrino mass. Neutrinos are neutral subatomic particles that come with three flavours, the electron, the muon and the tau neutrino. Their mass differences can be measured in the oscillation experiments. Information on the absolute scale of neutrino mass can come from cosmology, since neutrinos leave a characteristic imprint on the large scale structure of the universe. The aim of this thesis is to provide constraints on the accuracy with which neutrino mass can be estimated when expoiting measurements of RSD. In particular we want to describe how the error on the neutrino mass estimate depends on three fundamental parameters of a galaxy redshift survey: the density of the catalogue, the bias of the sample considered and the volume observed. In doing this we make use of the BASICC Simulation from which we extract a series of dark matter halo catalogues, characterized by different value of bias, density and volume. This mock data are analysed via a Markov Chain Monte Carlo procedure, in order to estimate the neutrino mass fraction, using the software package CosmoMC, which has been conveniently modified. In this way we are able to extract a fitting formula describing our measurements, which can be used to forecast the precision reachable in future surveys like Euclid, using this kind of observations.
Resumo:
In this work I present the first measurements of the galaxy stellar mass function (GSMF) from the first public release of the VIPERS catalogue, containing ∼55,000 objects. First, I present the survey design, its scientific goal, the redshift measurements and validation. Then, I provide details about the estimate of galaxy stellar masses, star formation rates, and other physical quantities. I derive the GSMF of different galaxy types (e.g. active and passive galaxies) and as a function of the environment (defined through the local galaxy density contrast). These estimates represent new observational evidence useful to characterise the mechanism of galaxy evolution.
Resumo:
The mass estimation of galaxy clusters is a crucial point for modern cosmology, and can be obtained by several different techniques. In this work we discuss a new method to measure the mass of galaxy clusters connecting the gravitational potential of the cluster with the kinematical properties of its surroundings. We explore the dynamics of the structures located in the region outside virialized cluster, We identify groups of galaxies, as sheets or filaments, in the cluster outer region, and model how the cluster gravitational potential perturbs the motion of these structures from the Hubble fow. This identification is done in the redshift space where we look for overdensities with a filamentary shape. Then we use a radial mean velocity profile that has been found as a quite universal trend in simulations, and we fit the radial infall velocity profile of the overdensities found. The method has been tested on several cluster-size haloes from cosmological N-body simulations giving results in very good agreement with the true values of virial masses of the haloes and orientation of the sheets. We then applied the method to the Coma cluster and even in this case we found a good correspondence with previous. It is possible to notice a mass discrepancy between sheets with different alignments respect to the center of the cluster. This difference can be used to reproduce the shape of the cluster, and to demonstrate that the spherical symmetry is not always a valid assumption. In fact, if the cluster is not spherical, sheets oriented along different axes should feel a slightly different gravitational potential, and so give different masses as result of the analysis described before. Even this estimation has been tested on cosmological simulations and then applied to Coma, showing the actual non-sphericity of this cluster.
Resumo:
Uno dei più importanti campi di ricerca che coinvolge gli astrofisici è la comprensione della Struttura a Grande Scala dell'universo. I principi della Formazione delle Strutture sono ormai ben saldi, e costituiscono la base del cosiddetto "Modello Cosmologico Standard". Fino agli inizi degli anni 2000, la teoria che spiegava con successo le proprietà statistiche dell'universo era la cosiddetta "Teoria Perturbativa Standard". Attraverso simulazioni numeriche e osservazioni di qualità migliore, si è evidenziato il limite di quest'ultima teoria nel descrivere il comportamento dello spettro di potenza su scale oltre il regime lineare. Ciò spinse i teorici a trovare un nuovo approccio perturbativo, in grado di estendere la validità dei risultati analitici. In questa Tesi si discutono le teorie "Renormalized Perturbation Theory"e"Multipoint Propagator". Queste nuove teorie perturbative sono la base teorica del codice BisTeCca, un codice numerico originale che permette il calcolo dello spettro di potenza a 2 loop e del bispettro a 1 loop in ordine perturbativo. Come esempio applicativo, abbiamo utilizzato BisTeCca per l'analisi dei bispettri in modelli di universo oltre la cosmologia standard LambdaCDM, introducendo una componente di neutrini massicci. Si mostrano infine gli effetti su spettro di potenza e bispettro, ottenuti col nostro codice BisTeCca, e si confrontano modelli di universo con diverse masse di neutrini.
Resumo:
This work considers the reconstruction of strong gravitational lenses from their observed effects on the light distribution of background sources. After reviewing the formalism of gravitational lensing and the most common and relevant lens models, new analytical results on the elliptical power law lens are presented, including new expressions for the deflection, potential, shear and magnification, which naturally lead to a fast numerical scheme for practical calculation. The main part of the thesis investigates lens reconstruction with extended sources by means of the forward reconstruction method, in which the lenses and sources are given by parametric models. The numerical realities of the problem make it necessary to find targeted optimisations for the forward method, in order to make it feasible for general applications to modern, high resolution images. The result of these optimisations is presented in the \textsc{Lensed} algorithm. Subsequently, a number of tests for general forward reconstruction methods are created to decouple the influence of sourced from lens reconstructions, in order to objectively demonstrate the constraining power of the reconstruction. The final chapters on lens reconstruction contain two sample applications of the forward method. One is the analysis of images from a strong lensing survey. Such surveys today contain $\sim 100$ strong lenses, and much larger sample sizes are expected in the future, making it necessary to quickly and reliably analyse catalogues of lenses with a fixed model. The second application deals with the opposite situation of a single observation that is to be confronted with different lens models, where the forward method allows for natural model-building. This is demonstrated using an example reconstruction of the ``Cosmic Horseshoe''. An appendix presents an independent work on the use of weak gravitational lensing to investigate theories of modified gravity which exhibit screening in the non-linear regime of structure formation.
Resumo:
21 cm cosmology opens an observational window to previously unexplored cosmological epochs such as the Epoch of Reionization (EoR), the Cosmic Dawn and the Dark Ages using powerful radio interferometers such as the planned Square Kilometer Array (SKA). Among all the other applications which can potentially improve the understanding of standard cosmology, we study the promising opportunity given by measuring the weak gravitational lensing sourced by 21 cm radiation. We performed this study in two different cosmological epochs, at a typical EoR redshift and successively at a post-EoR redshift. We will show how the lensing signal can be reconstructed using a three dimensional optimal quadratic lensing estimator in Fourier space, using single frequency band or combining multiple frequency band measurements. To this purpose, we implemented a simulation pipeline capable of dealing with issues that can not be treated analytically. Considering the current SKA plans, we studied the performance of the quadratic estimator at typical EoR redshifts, for different survey strategies and comparing two thermal noise models for the SKA-Low array. The simulation we performed takes into account the beam of the telescope and the discreteness of visibility measurements. We found that an SKA-Low interferometer should obtain high-fidelity images of the underlying mass distribution in its phase 1 only if several bands are stacked together, covering a redshift range that goes from z=7 to z=11.5. The SKA-Low phase 2, modeled in order to improve the sensitivity of the instrument by almost an order of magnitude, should be capable of providing images with good quality even when the signal is detected within a single frequency band. Considering also the serious effect that foregrounds could have on this detections, we discussed the limits of these results and also the possibility provided by these models of measuring an accurate lensing power spectrum.
Resumo:
La materia ordinaria copre soli pochi punti percentuali della massa-energia totale dell'Universo, che è invece largamente dominata da componenti “oscure”. Il modello standard usato per descriverle è il modello LambdaCDM. Nonostante esso sembri consistente con la maggior parte dei dati attualmente disponibili, presenta alcuni problemi fondamentali che ad oggi restano irrisolti, lasciando spazio per lo studio di modelli cosmologici alternativi. Questa Tesi mira a studiare un modello proposto recentemente, chiamato “Multi-coupled Dark Energy” (McDE), che presenta interazioni modificate rispetto al modello LambdaCDM. In particolare, la Materia Oscura è composta da due diversi tipi di particelle con accoppiamento opposto rispetto ad un campo scalare responsabile dell'Energia Oscura. L'evoluzione del background e delle perturbazioni lineari risultano essere indistinguibili da quelle del modello LambdaCDM. In questa Tesi viene presentata per la prima volta una serie di simulazioni numeriche “zoomed”. Esse presentano diverse regioni con risoluzione differente, centrate su un singolo ammasso di interesse, che permettono di studiare in dettaglio una singola struttura senza aumentare eccessivamente il tempo di calcolo necessario. Un codice chiamato ZInCo, da me appositamente sviluppato per questa Tesi, viene anch'esso presentato per la prima volta. Il codice produce condizioni iniziali adatte a simulazioni cosmologiche, con differenti regioni di risoluzione, indipendenti dal modello cosmologico scelto e che preservano tutte le caratteristiche dello spettro di potenza imposto su di esse. Il codice ZInCo è stato usato per produrre condizioni iniziali per una serie di simulazioni numeriche del modello McDE, le quali per la prima volta mostrano, grazie all'alta risoluzione raggiunta, che l'effetto di segregazione degli ammassi avviene significativamente prima di quanto stimato in precedenza. Inoltre, i profili radiale di densità ottenuti mostrano un appiattimento centrale nelle fasi iniziali della segregazione. Quest'ultimo effetto potrebbe aiutare a risolvere il problema “cusp-core” del modello LambdaCDM e porre limiti ai valori dell'accoppiamento possibili.
The gas mass fraction and the dynamical state in x-ray luminous clusters of galaxies at low redshift
Resumo:
Gli ammassi di galassie sono le strutture gravitazionalmente legate con le più profonde buche di potenziale, pertanto è previsto che questi contengano una frazione di barioni non molto diversa da quella cosmologica. Con l’introduzione di modelli sempre più accurati di fisica barionica all’interno di simulazioni idrodinamiche è stato possibile predire la percentuale cosmica di barioni presente negli ammassi di galassie. Unendo questi modelli previsionali con misure della frazione di gas in ammassi e informazioni sulla densità di barioni dell’Universo si può ottenere una stima della densità di materia cosmica Ωm. L'obiettivo di questo lavoro di Tesi è la stima di Ωm a partire dalla frazione di gas osservata in questi sistemi. Questo lavoro era stato già fatto in precedenza, ma tenendo in considerazione solo gli ammassi più massivi e dinamicamente rilassati. Usando parametri che caratterizzano la morfologia della distribuzione di brillanza superficiale nei raggi X, abbiamo classificato i nostri oggetti come rilassati o disturbati, laddove presentassero evidenze di recenti attività di interazione. Abbiamo dunque valutato l’impatto degli oggetti disturbati sulla stima del parametro cosmologico Ωm, computando il Chi2 tra la frazione di massa barionica nell’Universo e quella da noi ricavata. Infine abbiamo investigato una relazione tra il valore della frazione di gas degli ammassi rilassati e quello dei disturbati, in modo da correggere quindi questi ultimi, riportandoli nei dintorni del valore medio per i rilassati e usarli per ampliare il campione e porre un vincolo più stringente su Ωm. Anche con il limitato campione a nostra disposizione, è stato possibile porre un vincolo più stretto su Ωm, utilizzando un maggior numero di oggetti e riducendo così l’errore statistico.
Resumo:
In this Thesis work we have studied the properties of high-redshift galaxy clusters through the X-ray emission from their intracluster gas. In particular, we have focused on the relation between concentration and mass that is related to the density of the universe at the formation time of the clusters and therefore, it is a powerful cosmological probe. Concentration is expected to be a decreasing function of mass but a complete characterization of this relation has not been reached yet. We have analysed 22 clusters observed withe the Chandra satellite at high redshift and we have investigated the concentration-mass relation.
Resumo:
Le SNe Ia vengono utilizzate in cosmologia come indicatori di distanza. Nel 1998 due team di ricerca, il Supernova Cosmology Project e l'High-z Supernova Search Team compirono degli studi su un campione di SNe in galassie lontane a z=0.2-0.9. Da questi lavori emerse che le luminosità apparenti erano tipicamente inferiori del 25% rispetto ai valori attesi. Questo indica che tali oggetti si trovano ad una distanza di luminosità superiore a quella prevista da modelli d'Universo dominati da materia. Venne quindi determinata per la prima volta l'evidenza di un Universo in condizione di espansione accelerata. Lo scopo del presente lavoro di tesi è quello di analizzare i vincoli cosmologici imposti da SNe Ia ad alto redshift. È stato compiuto uno studio sui moduli di distanza osservativi di un campione di 580 SNe Ia al fine di trovare i parametri cosmologici che meglio descrivono il loro andamento in funzione del redshift nell'ambito dei modelli cosmologici standard con costante cosmologica positiva. Nella prima parte si illustreranno i modelli d’Universo di Friedmann, introducendo i concetti di redshift, di fattore di scala e i vari tipi di distanza. Nella seconda parte si descriverà cosa sono le Supernovae, e in particolare, le SNe di tipo Ia, le proprietà che le rendono candele standard e l'importanza che hanno assunto in cosmologia. Nella terza parte verranno presentanti i risultati prodotti per i due modelli studiati, verrà inoltre discussa la compatibilità con i parametri prodotti nei lavori compiuti dai due team di ricerca.
Resumo:
L'accurata determinazione dei parametri che costituiscono un modello cosmologico è fondamentale per caratterizzare correttamente l'evoluzione globale dell'universo e per spiegare le sue caratteristiche locali. Per quanto riguarda questo lavoro di Tesi abbiamo studiato l'efficienza di un particolare metodo per la stima del parametro di densità della materia detto test di Alcock-Paczynski. Con tale metodo si studiando le distorsioni geometriche che un’errata assunzione dei parametri cosmologici introduce nella funzione di correlazione a due punti bidimensionale. Abbiamo applicato il test a diversi cataloghi prodotti dalla simulazione Magneticum. In particolare abbiamo studiato come l'efficienza del metodo nel riconoscere il corretto valore del parametro di densità dipenda dal tipo di tracciante considerato, dal redshift d'osservazione e dai metodi di modelizzazione delle distorsioni dovute alla dinamica degli oggetti osservati. Si è potuto osservare come l’efficienza del metodo dipenda dalla densità d’oggetti contenuti nel catalogo (rendendo le galassie il tracciante migliore su cui applicare il test) e dall’ampiezza dell’effetto di distorsione geometrica, massimo per redshift vicini a 1. Abbiamo verificato che considerare come indipendenti le misure effettuate sui cataloghi a diversi redshift migliora l’identificazione del corretto valore del parametro di densità. Nella combinazione delle diverse misure, inoltre, si nota che i contributi meno significativi vengono dai redshift estremi dell’intervallo considerato, ma i singoli risultati, per quanto incerti, non intaccano il risultato finale. Infine si è osservato come ridurre il numero di parametri liberi attraverso i quali si introducono nei modelli le distorsioni dinamiche, in particolar modo gli effetti di distorsione a piccole scale, migliora sensibilmente l’efficacia del metodo.
Resumo:
Computer vision-based food recognition could be used to estimate a meal's carbohydrate content for diabetic patients. This study proposes a methodology for automatic food recognition, based on the Bag of Features (BoF) model. An extensive technical investigation was conducted for the identification and optimization of the best performing components involved in the BoF architecture, as well as the estimation of the corresponding parameters. For the design and evaluation of the prototype system, a visual dataset with nearly 5,000 food images was created and organized into 11 classes. The optimized system computes dense local features, using the scale-invariant feature transform on the HSV color space, builds a visual dictionary of 10,000 visual words by using the hierarchical k-means clustering and finally classifies the food images with a linear support vector machine classifier. The system achieved classification accuracy of the order of 78%, thus proving the feasibility of the proposed approach in a very challenging image dataset.
Resumo:
The goal of this study was to determine the frequency of HLA class II antigen expression in colorectal carcinoma (CRC) tumors, its association with the clinical course of the disease, and the underlying mechanism(s). Two tissue microarrays constructed with 220 and 778 CRC tumors were stained with HLA-DR, DQ, and DP antigen-specific monoclonal antibody LGII-612.14, using the immunoperoxidase staining technique. The immunohistochemical staining results were correlated with the clinical course of the disease. The functional role of HLA class II antigens expressed on CRC cells was analyzed by investigating their in vitro interactions with immune cells. HLA class II antigens were expressed in about 25% of the 220 and 21% of the 778 tumors analyzed with an overall frequency of 23%. HLA class II antigens were detected in 19% of colorectal adenomas. Importantly, the percentage of stained cells and the staining intensity were significantly lower than those detected in CRC tumors. However, HLA class II antigen staining was weakly detected only in 5.4% of 37 normal mucosa tissues. HLA class II antigen expression was associated with a favorable clinical course of the disease. In vitro stimulation with interferon gamma (IFNγ) induced HLA class II antigen expression on two of the four CRC cell lines tested. HLA class II antigen expression on CRC cells triggered interleukin-1β (IL-1β) production by resting monocytes. HLA class II antigen expression in CRC tumors is a favorable prognostic marker. This association may reflect stimulation of IL-1β production by monocytes.
Resumo:
We conducted a stratigraphic analysis of the South Polar Layered Deposits (SPLDs) in Promethei Lingula (PL, Mars) based on the identification of regional unconformities at visible and radar wavelengths. According to the terrestrial classification, this approach constrains the stratigraphy of the region and remedies the ambiguous interpretation of stratigraphy through marker layers, bypassing the problem related to the morphologic and radiometric appearance of the layers. Thus, the approach does not exclude diverse classifications, but complements them, whereas other discriminant elements are doubtful or difficult/impossible to be defined. Using this approach, we defined two stratigraphic units (or synthems: PL1 and PL2) in PL, which are morphologically different and divided by a regional unconformity (AuR1). This stratigraphic architecture implies that the geological history of PL has been conditioned by periodic changes in climate, which in turn are related to orbital variations of Mars.
Resumo:
Narrar significa seleccionar la materia digna de ser referida y admitir huecos en la trama. En la tradición oral esos intersticios son colmados por el narrador, técnica que se conserva en las primeras novelas impresas. Cuando más tarde ni el autor ni el editor cumplen con esa tarea, el mismo lector se ve obligado a completar el texto sirviéndose de asociaciones propias que escapan al control del autor. Desde que la colocación de los capítulos se ha vuelto aleatoria como en Rayuela de Julio Cortázar los complementos imaginados por el lector para rellenar los intersticios resultan más individuales. Ese fenómeno se acentúa cuando los relatos son brevísimos y todos ofrecen contenidos diferentes como pasa en las antologías de microrrelatos o en ciertas novelas recientes. De acuerdo con la tendencia contemporánea a la ?fragmentación de una totalidad de sentido? recordada por Lauro Zavala a propósito del microrrelato, el lector de Bartleby y compañía por ejemplo se queda como abrumado por la diversidad de las anécdotas referidas y los huecos consecuentes en la narración. Ese fuego nutrido al que le expone Enrique Vila-Matas sugiere al lector un sinnúmero de asociaciones y lo transforman en co-autor