176 resultados para GZK neutrinos
Resumo:
Excesses on positron and electron fluxes-measured by ATIC and the PAMELA and Fermi-LAT telescopes-can be explained by dark matter annihilation in the Galaxy, however, it requires large boosts on the dark matter annihilation rate. There are many possible enhancement mechanisms such as the Sommerfeld effect or the existence of dark matter clumps in our halo. If enhancements on the dark matter annihilation cross section are taking place, the dark matter annihilation in the core of the Earth will be enhanced. Here we use recent results from the IceCube 40-string configuration to probe generic enhancement scenarios. We present results as a function of the dark matter-proton interaction cross section, sigma(chi p) weighted by the branching fraction into neutrinos f(nu(nu) over bar) as a function of a generic boost factor B-F, which parametrizes the expected enhancement of the annihilation rate. We find that dark matter models that require annihilation enhancements of O(100) or more and that annihilate significantly into neutrinos are excluded as an explanation for these excesses. We also determine the boost range that can be probed by the full IceCube telescope.
Resumo:
We describe the system of massive Weyl fields propagating in a background matter and interacting with an external electromagnetic field. The interaction with an electromagnetic field is due to the presence of anomalous magnetic moments. To canonically quantize this system first we develop the classical field theory treatment of Weyl spinors in frames of the Hamilton formalism which accounts for the external fields. Then, on the basis of the exact solution of the wave equation for a massive Weyl field in a background matter we obtain the effective Hamiltonian for the description of spin-flavor oscillations of Majorana neutrinos in matter and a magnetic field. Finally, we incorporate in our analysis the neutrino self-interaction which is essential when the neutrino density is sufficiently high. We also discuss the applicability of our results for the studies of collective effects in spin-flavor oscillations of supernova neutrinos in a dense matter and a strong magnetic field. (C) 2011 Elsevier B.V. All rights reserved.
Resumo:
We investigate standard and non-standard solar neutrino signals in direct dark matter detection experiments. It is well known that even without new physics, scattering of solar neutrinos on nuclei or electrons is an irreducible background for direct dark matter searches, once these experiments reach the ton scale. Here, we entertain the possibility that neutrino interactions are enhanced by new physics, such as new light force carriers (for instance a "dark photon") or neutrino magnetic moments. We consider models with only the three standard neutrino flavors, as well as scenarios with extra sterile neutrinos. We find that low-energy neutrino-electron and neutrino-nucleus scattering rates can be enhanced by several orders of magnitude, potentially enough to explain the event excesses observed in CoGeNT and CRESST. We also investigate temporal modulation in these neutrino signals, which can arise from geometric effects, oscillation physics, non-standard neutrino energy loss, and direction-dependent detection efficiencies. We emphasize that, in addition to providing potential explanations for existing signals, models featuring new physics in the neutrino sector can also be very relevant to future dark matter searches, where, on the one hand, they can be probed and constrained, but on the other hand, their signatures could also be confused with dark matter signals.
Resumo:
The nature of the dark matter in the Universe is one of the greatest mysteries in modern astronomy. The neutralino is a nonbaryonic dark matter candidate in minimal supersymmetric extensions to the standard model of particle physics. If the dark matter halo of our galaxy is made up of neutralinos some would become gravitationally trapped inside massive bodies like the Earth. Their pair-wise annihilation produces neutrinos that can be detected by neutrino experiments looking in the direction of the centre of the Earth. The AMANDA neutrino telescope, currently the largest in the world, consists of an array of light detectors buried deep in the Antarctic glacier at the geographical South Pole. The extremely transparent ice acts as a Cherenkov medium for muons passing the array and using the timing information of detected photons it is possible to reconstruct the muon direction. A search has been performed for nearly vertically upgoing neutrino induced muons with AMANDA-B10 data taken over the three year period 1997-99. No excess above the atmospheric neutrino background expectation was found. Upper limits at the 90 % confidence level has been set on the annihilation rate of neutralinos at the centre of the Earth and on the muon flux induced by neutrinos created by the annihilation products.
Resumo:
The OPERA experiment aims at the direct observation of ν_mu -> ν_tau oscillations in the CNGS (CERN Neutrinos to Gran Sasso) neutrino beam produced at CERN; since the ν_e contamination in the CNGS beam is low, OPERA will also be able to study the sub-dominant oscillation channel ν_mu -> ν_e. OPERA is a large scale hybrid apparatus divided in two supermodules, each equipped with electronic detectors, an iron spectrometer and a highly segmented ~0.7 kton target section made of Emulsion Cloud Chamber (ECC) units. During my research work in the Bologna Lab. I have taken part to the set-up of the automatic scanning microscopes studying and tuning the scanning system performances and efficiencies with emulsions exposed to a test beam at CERN in 2007. Once the triggered bricks were distributed to the collaboration laboratories, my work was centered on the procedure used for the localization and the reconstruction of neutrino events.
Resumo:
Die Suche nach kosmischen Neutrinopunktquellen ist durch dieFrage motiviert, wo die hochenergetische Kosmische Strahlungim Universum entsteht. Wenn dort Hadronen beschleunigtwerden, sollten Mesonen produziert werden und daraushochenergetische Neutrinos entstehen. Diese können nahezuungestört die Erde erreichen. Die Identifikation einerNeutrinopunktquelle ist eines der zentralen Ziele desAMANDA-Neutrinoteleskopes am geographischen Südpol. In dieser Dissertation wird zunächst gezeigt, wie dieWinkelauflösung für jedes einzelne Neutrinoereignisindividuell bestimmt werden kann. Zudem stellt sich derWinkelfehlerschätzer als guter Qualitätsparameter zurUnterdrückung von Untergrundereignissen heraus. Die bisher zur Punktquellensuche verwendete Suchmethode kanndiese zusätzliche Information nicht verwenden, da es sich umein reines Zählverfahren handelt. Dadurch motiviert wird einneues Verfahren entwickelt, das auf der Methode der MaximumLikelihood basiert. Darin wird die Winkelauflösung für jedesEreignis in natürlicher Art und Weise integriert. Die erreichte Sensitivität der Maximum-Likelihood-Methodevon bar{Phi}_nu^90 approx 2cdot 10^-8 cm^-2 s^-1 istvergleichbar mit derjenigen der bisherigen Vorgehensweise.Die Ortsauflösung, mit der die Position eineridentifizierten Quelle bestimmt wird, ist um den Faktor ca.4 verbessert, und liegt bei etwa einem Grad. Ebenfalls neu ist der Wegfall von künstlichen Suchgittern,mit denen der Himmel bei der Suche nach Quellen unbekannterLage bisher eingeteilt worden ist. Stattdessen werdenkontinuierliche Funktionen der Himmelskoordinaten studiert. Die im Jahr 2000 aufgezeichneten Daten wurden einer Suchenach Neutrinopunktquellen unterzogen. Wie schon bei einervorherigen Suche mit der alten Vorgehensweis konnte keineQuelle identifiziert werden. Für die 30 untersuchtenKandidatenobjekte ergeben sich obere Grenzen in der Nähe derSensitivität. Das entwickelte Verfahren ist problemlos auf jedesExperiment übertragbar, das ein Entdeckungspotenzial fürPunktquellen hat.
Resumo:
Der AMANDA-II Detektor ist primär für den richtungsaufgelösten Nachweis hochenergetischer Neutrinos konzipiert. Trotzdem können auch niederenergetische Neutrinoausbrüche, wie sie von Supernovae erwartet werden, mit hoher Signifikanz nachgewiesen werden, sofern sie innerhalb der Milchstraße stattfinden. Die experimentelle Signatur im Detektor ist ein kollektiver Anstieg der Rauschraten aller optischen Module. Zur Abschätzung der Stärke des erwarteten Signals wurden theoretische Modelle und Simulationen zu Supernovae und experimentelle Daten der Supernova SN1987A studiert. Außerdem wurden die Sensitivitäten der optischen Module neu bestimmt. Dazu mussten für den Fall des südpolaren Eises die Energieverluste geladener Teilchen untersucht und eine Simulation der Propagation von Photonen entwickelt werden. Schließlich konnte das im Kamiokande-II Detektor gemessene Signal auf die Verhältnisse des AMANDA-II Detektors skaliert werden. Im Rahmen dieser Arbeit wurde ein Algorithmus zur Echtzeit-Suche nach Signalen von Supernovae als Teilmodul der Datennahme implementiert. Dieser beinhaltet diverse Verbesserungen gegenüber der zuvor von der AMANDA-Kollaboration verwendeten Version. Aufgrund einer Optimierung auf Rechengeschwindigkeit können nun mehrere Echtzeit-Suchen mit verschiedenen Analyse-Zeitbasen im Rahmen der Datennahme simultan laufen. Die Disqualifikation optischer Module mit ungeeignetem Verhalten geschieht in Echtzeit. Allerdings muss das Verhalten der Module zu diesem Zweck anhand von gepufferten Daten beurteilt werden. Dadurch kann die Analyse der Daten der qualifizierten Module nicht ohne eine Verzögerung von etwa 5 Minuten geschehen. Im Falle einer erkannten Supernova werden die Daten für die Zeitdauer mehrerer Minuten zur späteren Auswertung in 10 Millisekunden-Intervallen archiviert. Da die Daten des Rauschverhaltens der optischen Module ansonsten in Intervallen von 500 ms zur Verfgung stehen, ist die Zeitbasis der Analyse in Einheiten von 500 ms frei wählbar. Im Rahmen dieser Arbeit wurden drei Analysen dieser Art am Südpol aktiviert: Eine mit der Zeitbasis der Datennahme von 500 ms, eine mit der Zeitbasis 4 s und eine mit der Zeitbasis 10 s. Dadurch wird die Sensitivität für Signale maximiert, die eine charakteristische exponentielle Zerfallszeit von 3 s aufweisen und gleichzeitig eine gute Sensitivität über einen weiten Bereich exponentieller Zerfallszeiten gewahrt. Anhand von Daten der Jahre 2000 bis 2003 wurden diese Analysen ausführlich untersucht. Während die Ergebnisse der Analyse mit t = 500 ms nicht vollständig nachvollziehbare Ergebnisse produzierte, konnten die Resultate der beiden Analysen mit den längeren Zeitbasen durch Simulationen reproduziert und entsprechend gut verstanden werden. Auf der Grundlage der gemessenen Daten wurden die erwarteten Signale von Supernovae simuliert. Aus einem Vergleich zwischen dieser Simulation den gemessenen Daten der Jahre 2000 bis 2003 und der Simulation des erwarteten statistischen Untergrunds kann mit einem Konfidenz-Niveau von mindestens 90 % gefolgert werden, dass in der Milchstraße nicht mehr als 3.2 Supernovae pro Jahr stattfinden. Zur Identifikation einer Supernova wird ein Ratenanstieg mit einer Signifikanz von mindestens 7.4 Standardabweichungen verlangt. Die Anzahl erwarteter Ereignisse aus dem statistischen Untergrund beträgt auf diesem Niveau weniger als ein Millionstel. Dennoch wurde ein solches Ereignis gemessen. Mit der gewählten Signifikanzschwelle werden 74 % aller möglichen Vorläufer-Sterne von Supernovae in der Galaxis überwacht. In Kombination mit dem letzten von der AMANDA-Kollaboration veröffentlicheten Ergebnis ergibt sich sogar eine obere Grenze von nur 2.6 Supernovae pro Jahr. Im Rahmen der Echtzeit-Analyse wird für die kollektive Ratenüberhöhung eine Signifikanz von mindestens 5.5 Standardabweichungen verlangt, bevor eine Meldung über die Detektion eines Supernova-Kandidaten verschickt wird. Damit liegt der überwachte Anteil Sterne der Galaxis bei 81 %, aber auch die Frequenz falscher Alarme steigt auf bei etwa 2 Ereignissen pro Woche. Die Alarm-Meldungen werden über ein Iridium-Modem in die nördliche Hemisphäre übertragen, und sollen schon bald zu SNEWS beitragen, dem weltweiten Netzwerk zur Früherkennung von Supernovae.
Resumo:
In the thesis is presented the measurement of the neutrino velocity with the OPERA experiment in the CNGS beam, a muon neutrino beam produced at CERN. The OPERA detector observes muon neutrinos 730 km away from the source. Previous measurements of the neutrino velocity have been performed by other experiments. Since the OPERA experiment aims the direct observation of muon neutrinos oscillations into tau neutrinos, a higher energy beam is employed. This characteristic together with the higher number of interactions in the detector allows for a measurement with a much smaller statistical uncertainty. Moreover, a much more sophisticated timing system (composed by cesium clocks and GPS receivers operating in “common view mode”), and a Fast Waveform Digitizer (installed at CERN and able to measure the internal time structure of the proton pulses used for the CNGS beam), allows for a new measurement with a smaller systematic error. Theoretical models on Lorentz violating effects can be investigated by neutrino velocity measurements with terrestrial beams. The analysis has been carried out with blind method in order to guarantee the internal consistency and the goodness of each calibration measurement. The performed measurement is the most precise one done with a terrestrial neutrino beam, the statistical accuracy achieved by the OPERA measurement is about 10 ns and the systematic error is about 20 ns.
Resumo:
Atmosphärische Neutrinos erlauben es Prinzipien der Relativitätstheorie, wie die Lorentz-Invarianz und das schwache Äquivalenzprinzip, zu überprüfen. Kleine Abweichungen von diesen Prinzipien können in einigen Theorien zu messbaren Neutrinooszillationen führen. In dieser Arbeit wird in den aufgezeichneten Neutrinoereignissen des AMANDA-Detektors nach solchen alternativen Oszillationseffekten gesucht. Das Neutrinoteleskop AMANDA befindet sich am geographischen Südpol und ist in einer Tiefe zwischen 1500 m und 2000 m im antarktischen Eispanzer eingebettet. AMANDA weist Myonneutrinos über das Tscherenkow-Licht neutrinoinduzierter Myonen nach, woraus die Richtung der Bahn des ursprünglichen Neutrinos rekonstruiert werden kann. Aus den AMANDA-Daten der Jahre 2000 bis 2003 wurden aus circa sieben Milliarden aufgezeichneten Ereignissen, die sich hauptsächlich aus dem Untergrund aus atmosphärischen Myonen zusammensetzen, 3401 Ereignisse neutrinoinduzierter Myonen selektiert. Dieser Datensatz wurde auf alternative Oszillationseffekte untersucht. Es wurden keine Hinweise auf solche Effekte gefunden. Für maximale Mischungswinkel konnte die untere Grenze für Oszillationsparameter, welche die Lorentz-Invarianz oder das Äquivalenzprinzip verletzen, auf DeltaBeta (2PhiDeltaGamma) < 5,15*10e-27 festgelegt werden.
Resumo:
Precision measurements of phenomena related to fermion mixing require the inclusion of higher order corrections in the calculation of corresponding theoretical predictions. For this, a complete renormalization scheme for models that allow for fermion mixing is highly required. The correct treatment of unstable particles makes this task difficult and yet, no satisfactory and general solution can be found in the literature. In the present work, we study the renormalization of the fermion Lagrange density with Dirac and Majorana particles in models that involve mixing. The first part of the thesis provides a general renormalization prescription for the Lagrangian, while the second one is an application to specific models. In a general framework, using the on-shell renormalization scheme, we identify the physical mass and the decay width of a fermion from its full propagator. The so-called wave function renormalization constants are determined such that the subtracted propagator is diagonal on-shell. As a consequence of absorptive parts in the self-energy, the constants that are supposed to renormalize the incoming fermion and the outgoing antifermion are different from the ones that should renormalize the outgoing fermion and the incoming antifermion and not related by hermiticity, as desired. Instead of defining field renormalization constants identical to the wave function renormalization ones, we differentiate the two by a set of finite constants. Using the additional freedom offered by this finite difference, we investigate the possibility of defining field renormalization constants related by hermiticity. We show that for Dirac fermions, unless the model has very special features, the hermiticity condition leads to ill-defined matrix elements due to self-energy corrections of external legs. In the case of Majorana fermions, the constraints for the model are less restrictive. Here one might have a better chance to define field renormalization constants related by hermiticity. After analysing the complete renormalized Lagrangian in a general theory including vector and scalar bosons with arbitrary renormalizable interactions, we consider two specific models: quark mixing in the electroweak Standard Model and mixing of Majorana neutrinos in the seesaw mechanism. A counter term for fermion mixing matrices can not be fixed by only taking into account self-energy corrections or fermion field renormalization constants. The presence of unstable particles in the theory can lead to a non-unitary renormalized mixing matrix or to a gauge parameter dependence in its counter term. Therefore, we propose to determine the mixing matrix counter term by fixing the complete correction terms for a physical process to experimental measurements. As an example, we calculate the decay rate of a top quark and of a heavy neutrino. We provide in each of the chosen models sample calculations that can be easily extended to other theories.
Resumo:
Das am Südpol gelegene Neutrinoteleskop IceCube detektiert hochenergetische Neutrinos über die schwache Wechselwirkung geladener und neutraler Ströme. Die Analyse basiert auf einem Vergleich mit Monte-Carlo-Simulationen, deren Produktion global koordiniert wird. In Mainz ist es erstmalig gelungen, Simulationen innerhalb der Architektur des Worldwide LHC Computing Grid (WLCG) zu realisieren, was die Möglichkeit eröffnet, Monte-Carlo-Berechnungen auch auf andere deutsche Rechnerfarmen (CEs) mit IceCube-Berechtigung zu verteilen. Atmosphärische Myonen werden mit einer Rate von über 1000 Ereignissen pro Sekunde aufgezeichnet. Eine korrekte Interpretation dieses dominanten Signals, welches um einen Faktor von 10^6 reduziert werden muss um das eigentliche Neutrinosignal zu extrahieren, ist deswegen von großer Bedeutung. Eigene Simulationen mit der Software-Umgebung CORSIKA wurden durchgeführt um die von Energie und Einfallswinkel abhängige Entstehungshöhe atmosphärischer Myonen zu bestimmen. IceCube Myonraten wurden mit Wetterdaten des European Centre for Medium-Range Weather Forcasts (ECMWF) verglichen und Korrelationen zwischen jahreszeitlichen sowie kurzzeitigen Schwankungen der Atmosphärentemperatur und Myonraten konnten nachgewiesen werden. Zudem wurde eine Suche nach periodischen Effekten in der Atmosphäre, verursacht durch z.B. meteorologische Schwerewellen, mit Hilfe einer Fourieranalyse anhand der IceCube-Daten durchgeführt. Bislang konnte kein signifikanter Nachweis zur Existenz von Schwerewellen am Südpol erbracht werden.
Resumo:
IceCube, ein Neutrinoteleskop, welches zur Zeit am Südpol aufgebaut und voraussichtlich 2011 fertiggestellt sein wird, kann galaktische Kernkollaps-Supernovae mit hoher Signifikanz und unübertroffener statistischer Genauigkeit der Neutrinolichtkurve detektieren. Derartige Supernovae werden begleitet von einem massiven Ausbruch niederenergetischer Neutrinos aller Flavour. Beim Durchfliegen des Detektormediums Eis entstehen Positronen und Elektronen, welche wiederum lokale Tscherenkowlichtschauer produzieren, die in ihrer Summe das gesamte Eis erleuchten. Ein Nachweis ist somit, trotz der Optimierung IceCubes auf hochenergetische Teilchenspuren, über eine kollektive Rauschratenerhöhung aller optischen Module möglich. Die vorwiegende Reaktion ist der inverse Betazerfall der Antielektronneutrinos, welcher über 90,% des gesamten Signals ausmacht.rnrnDiese Arbeit beschreibt die Implementierung und Funktionsweise der Supernova-Datennahme-Software sowie der Echtzeitanalyse, mit welcher die oben genannte Nachweismethode seit August 2007 realisiert ist. Die Messdaten der ersten zwei Jahre wurden ausgewertet und belegen ein extrem stabiles Verhalten des Detektors insgesamt sowie fast aller Lichtsensoren, die eine gemittelte Ausfallquote von lediglich 0,3,% aufweisen. Eine Simulation der Detektorantwort nach zwei unterschiedlichen Supernova-Modellen ergibt eine Sichtweite IceCubes, die im besten Falle bis zur 51,kpc entfernten Großen Magellanschen Wolke reicht. Leider ist der Detektor nicht in der Lage, die Deleptonisierungsspitze aufzulösen, denn Oszillationen der Neutrinoflavour innerhalb des Sterns modifizieren die Neutrinospektren ungünstig. Jedoch können modellunabhängig anhand des frühesten Signalanstiegs die inverse Massenhierarchie sowie $sin^2 2theta_{13} > 10^{-3}$ etabliert werden, falls die Entfernung zur Supernova $leq$,6,kpc beträgt. Gleiches kann durch Auswertung eines möglichen Einflusses der Erdmaterie auf die Neutrinooszillation mit Hilfe der Messung eines zweiten Neutrinodetektors erreicht werden.
Resumo:
Kernkollaps-Supernovae werden von einem massiven Ausbruch niederenergetischer Neutrinos begleitet. Sie zählen zu den energiereichsten Erscheinungen im Universum und stellen die derzeit einzig bekannte Quelle extrasolarer Neutrinos dar.rnDie Detektion einer solchen Neutrinosignatur würde zu einem tieferen Verständnis des bislang unzureichend bekannten stellaren Explosionsmechanismus führen. rnDarüber hinaus würden neue Einblicke in den Bereich der Teilchenphysik und der Supernova-Modellierung ermöglicht. Das sich zur Zeit am geographischen Südpol im Aufbau befindliche Neutrinoteleskop IceCube wird 2011 fertig gestellt sein.rnIceCube besteht im endgültigen Ausbau aus 5160 Photovervielfachern, die sich in gitterförmiger Anordnung in Tiefen zwischen 1450m und 2450m unter der Eisoberfläche befinden. Durch den Nachweis von Tscherenkow-Photonenrnim antarktischen Gletscher ist es in der Lage, galaktische Supernovae über einen kollektiven Anstieg der Rauschraten in seinen Photonenvervielfachern nachzuweisen.rnIn dieser Arbeit werden verschiedene Studien zur Implementierung einer künstlichen Totzeit vorgestellt, welche korreliertes Rauschen unterdrücken und somit das Signal-Untergund-Verhältnis maximieren würden.rnEin weiterer Teil dieser Dissertation bestand in der Integration der Supernova-Datenakquise eine neue Experiment-Steuerungssoftware.rnFür den Analyseteil der Arbeit wurde ein Monte-Carlo für IceCube entwickelt und Neutinooszillations-Mechanismen und eine Reihe von Signalmodellen integriert. Ein Likelihoodhypothesen-Test wurde verwendet, um die Unterscheidbarkeit verschiedener Supernova- beziehungsweise Neutrinooszillations-Szenarien zu untersuchen. Desweiteren wurde analysiert inwieweit sich Schock-Anregungen und QCD-Phasenübergnag im Verlauf des Explosionsprozesses detektieren lassen.
Resumo:
Marking the final explosive burning stage of massive stars, supernovae are onernthe of most energetic celestial events. Apart from their enormous optical brightnessrnthey are also known to be associated with strong emission of MeV neutrinos—up tornnow the only proven source of extrasolar neutrinos.rnAlthough being designed for the detection of high energy neutrinos, the recentlyrncompleted IceCube neutrino telescope in the antarctic ice will have the highestrnsensitivity of all current experiments to measure the shape of the neutrino lightrncurve, which is in the MeV range. This measurement is crucial for the understandingrnof supernova dynamics.rnIn this thesis, the development of a Monte Carlo simulation for a future low energyrnextension of IceCube, called PINGU, is described that investigates the response ofrnPINGU to a supernova. Using this simulation, various detector configurations arernanalysed and optimised for supernova detection. The prospects of extracting notrnonly the total light curve, but also the direction of the supernova and the meanrnneutrino energy from the data are discussed. Finally the performance of PINGU isrncompared to the current capabilities of IceCube.
Resumo:
Redshift Space Distortions (RSD) are an apparent anisotropy in the distribution of galaxies due to their peculiar motion. These features are imprinted in the correlation function of galaxies, which describes how these structures distribute around each other. RSD can be represented by a distortions parameter $\beta$, which is strictly related to the growth of cosmic structures. For this reason, measurements of RSD can be exploited to give constraints on the cosmological parameters, such us for example the neutrino mass. Neutrinos are neutral subatomic particles that come with three flavours, the electron, the muon and the tau neutrino. Their mass differences can be measured in the oscillation experiments. Information on the absolute scale of neutrino mass can come from cosmology, since neutrinos leave a characteristic imprint on the large scale structure of the universe. The aim of this thesis is to provide constraints on the accuracy with which neutrino mass can be estimated when expoiting measurements of RSD. In particular we want to describe how the error on the neutrino mass estimate depends on three fundamental parameters of a galaxy redshift survey: the density of the catalogue, the bias of the sample considered and the volume observed. In doing this we make use of the BASICC Simulation from which we extract a series of dark matter halo catalogues, characterized by different value of bias, density and volume. This mock data are analysed via a Markov Chain Monte Carlo procedure, in order to estimate the neutrino mass fraction, using the software package CosmoMC, which has been conveniently modified. In this way we are able to extract a fitting formula describing our measurements, which can be used to forecast the precision reachable in future surveys like Euclid, using this kind of observations.