995 resultados para Transmitting telescope


Relevância:

10.00% 10.00%

Publicador:

Resumo:

In this thesis, we have presented two deep 1.4 GHz and 345 MHz overlapping surveys of the Lockman Hole field taken with the Westerbork Synthesis Radio Telescope. We extracted a catalogue of ~6000 radio sources from the 1.4 GHz mosaic down to a flux limit of ~55 μJy and a catalogue of 334 radio sources down to a flux limit of ~4 mJy from the inner 7 sq. degree region of the 345 MHz image. The extracted catalogues were used to derive the source number counts at 1.4 GHz and at 345 MHz. The source counts were found to be fully consistent with previous determinations. In particular the 1.4 GHz source counts derived by the present sample provide one of the most statistically robust determinations in the flux range 0.1 < S < 1 mJy. During the commissioning program of the LOFAR telescope, the Lockman Hole field was observed at 58 MHz and 150 MHz. The 150 MHz LOFAR observation is particularly relevant as it allowed us to obtain the first LOFAR flux calibrated high resolution image of a deep field. From this image we extracted a preliminary source catalogue down to a flux limit of ~15 mJy (~10σ), that can be considered complete down to 20‒30 mJy. A spectral index study of the mJy sources in the Lockman Hole region, was performed using the available catalogues ( 1.4 GHz, 345 MHz and 150 MHz) and a deep 610 MHz source catalogue available from the literature (Garn et al. 2008, 2010).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The main purpose of my thesis has been the analysis of the space debris environment and their characterization through optical measurements. In particular I had the opportunity to contribute to the Italian Space Agency activities in space debris optical observation campaign and I cooperated directly with NASA Orbital Debris Program Office by working at the Astronomy Department of the University of Michigan for six months.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Das am Südpol gelegene Neutrinoteleskop IceCube detektiert hochenergetische Neutrinos über die schwache Wechselwirkung geladener und neutraler Ströme. Die Analyse basiert auf einem Vergleich mit Monte-Carlo-Simulationen, deren Produktion global koordiniert wird. In Mainz ist es erstmalig gelungen, Simulationen innerhalb der Architektur des Worldwide LHC Computing Grid (WLCG) zu realisieren, was die Möglichkeit eröffnet, Monte-Carlo-Berechnungen auch auf andere deutsche Rechnerfarmen (CEs) mit IceCube-Berechtigung zu verteilen. Atmosphärische Myonen werden mit einer Rate von über 1000 Ereignissen pro Sekunde aufgezeichnet. Eine korrekte Interpretation dieses dominanten Signals, welches um einen Faktor von 10^6 reduziert werden muss um das eigentliche Neutrinosignal zu extrahieren, ist deswegen von großer Bedeutung. Eigene Simulationen mit der Software-Umgebung CORSIKA wurden durchgeführt um die von Energie und Einfallswinkel abhängige Entstehungshöhe atmosphärischer Myonen zu bestimmen. IceCube Myonraten wurden mit Wetterdaten des European Centre for Medium-Range Weather Forcasts (ECMWF) verglichen und Korrelationen zwischen jahreszeitlichen sowie kurzzeitigen Schwankungen der Atmosphärentemperatur und Myonraten konnten nachgewiesen werden. Zudem wurde eine Suche nach periodischen Effekten in der Atmosphäre, verursacht durch z.B. meteorologische Schwerewellen, mit Hilfe einer Fourieranalyse anhand der IceCube-Daten durchgeführt. Bislang konnte kein signifikanter Nachweis zur Existenz von Schwerewellen am Südpol erbracht werden.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

IceCube, ein Neutrinoteleskop, welches zur Zeit am Südpol aufgebaut und voraussichtlich 2011 fertiggestellt sein wird, kann galaktische Kernkollaps-Supernovae mit hoher Signifikanz und unübertroffener statistischer Genauigkeit der Neutrinolichtkurve detektieren. Derartige Supernovae werden begleitet von einem massiven Ausbruch niederenergetischer Neutrinos aller Flavour. Beim Durchfliegen des Detektormediums Eis entstehen Positronen und Elektronen, welche wiederum lokale Tscherenkowlichtschauer produzieren, die in ihrer Summe das gesamte Eis erleuchten. Ein Nachweis ist somit, trotz der Optimierung IceCubes auf hochenergetische Teilchenspuren, über eine kollektive Rauschratenerhöhung aller optischen Module möglich. Die vorwiegende Reaktion ist der inverse Betazerfall der Antielektronneutrinos, welcher über 90,% des gesamten Signals ausmacht.rnrnDiese Arbeit beschreibt die Implementierung und Funktionsweise der Supernova-Datennahme-Software sowie der Echtzeitanalyse, mit welcher die oben genannte Nachweismethode seit August 2007 realisiert ist. Die Messdaten der ersten zwei Jahre wurden ausgewertet und belegen ein extrem stabiles Verhalten des Detektors insgesamt sowie fast aller Lichtsensoren, die eine gemittelte Ausfallquote von lediglich 0,3,% aufweisen. Eine Simulation der Detektorantwort nach zwei unterschiedlichen Supernova-Modellen ergibt eine Sichtweite IceCubes, die im besten Falle bis zur 51,kpc entfernten Großen Magellanschen Wolke reicht. Leider ist der Detektor nicht in der Lage, die Deleptonisierungsspitze aufzulösen, denn Oszillationen der Neutrinoflavour innerhalb des Sterns modifizieren die Neutrinospektren ungünstig. Jedoch können modellunabhängig anhand des frühesten Signalanstiegs die inverse Massenhierarchie sowie $sin^2 2theta_{13} > 10^{-3}$ etabliert werden, falls die Entfernung zur Supernova $leq$,6,kpc beträgt. Gleiches kann durch Auswertung eines möglichen Einflusses der Erdmaterie auf die Neutrinooszillation mit Hilfe der Messung eines zweiten Neutrinodetektors erreicht werden.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This thesis concerns the study of the variable stars and resolved stellar populations in four recently discovered dSphs, namely, Hercules and Ursa Major I (UMa I), which are UFD satellites of the MW; Andromeda XIX (And XIX) and Andromeda XXI (And XXI), which are satellites of M31. The main aim is to obtain detailed informations on the properties (age, metallicity, distance, and Oosterhoff type) of the stellar populations in these galaxies, to compare them with those of other satellites around the MW and M31, both ''classical'' dSphs and UFDs. The observables used to achieve these goals are the pulsating variables, especially the RR Lyrae stars, and the color magnitude diagram (CMD) of the resolved stellar populations. In particular, for UMa I, we combined B, V time-series observations from four different ground-based telescopes (Cassini, TLS, TT1 and Subaru) and for Hercules, we used archival data acquired with the Advanced Camera for Surveys (ACS) on board the HST. We used, instead B and V times-series photometry obtained with the Large Binocular Telescope (LBT) for And XIX and And XXI .

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Supernovae are among the most energetic events occurring in the universe and are so far the only verified extrasolar source of neutrinos. As the explosion mechanism is still not well understood, recording a burst of neutrinos from such a stellar explosion would be an important benchmark for particle physics as well as for the core collapse models. The neutrino telescope IceCube is located at the Geographic South Pole and monitors the antarctic glacier for Cherenkov photons. Even though it was conceived for the detection of high energy neutrinos, it is capable of identifying a burst of low energy neutrinos ejected from a supernova in the Milky Way by exploiting the low photomultiplier noise in the antarctic ice and extracting a collective rate increase. A signal Monte Carlo specifically developed for water Cherenkov telescopes is presented. With its help, we will investigate how well IceCube can distinguish between core collapse models and oscillation scenarios. In the second part, nine years of data taken with the IceCube precursor AMANDA will be analyzed. Intensive data cleaning methods will be presented along with a background simulation. From the result, an upper limit on the expected occurrence of supernovae within the Milky Way will be determined.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Kernkollaps-Supernovae werden von einem massiven Ausbruch niederenergetischer Neutrinos begleitet. Sie zählen zu den energiereichsten Erscheinungen im Universum und stellen die derzeit einzig bekannte Quelle extrasolarer Neutrinos dar.rnDie Detektion einer solchen Neutrinosignatur würde zu einem tieferen Verständnis des bislang unzureichend bekannten stellaren Explosionsmechanismus führen. rnDarüber hinaus würden neue Einblicke in den Bereich der Teilchenphysik und der Supernova-Modellierung ermöglicht. Das sich zur Zeit am geographischen Südpol im Aufbau befindliche Neutrinoteleskop IceCube wird 2011 fertig gestellt sein.rnIceCube besteht im endgültigen Ausbau aus 5160 Photovervielfachern, die sich in gitterförmiger Anordnung in Tiefen zwischen 1450m und 2450m unter der Eisoberfläche befinden. Durch den Nachweis von Tscherenkow-Photonenrnim antarktischen Gletscher ist es in der Lage, galaktische Supernovae über einen kollektiven Anstieg der Rauschraten in seinen Photonenvervielfachern nachzuweisen.rnIn dieser Arbeit werden verschiedene Studien zur Implementierung einer künstlichen Totzeit vorgestellt, welche korreliertes Rauschen unterdrücken und somit das Signal-Untergund-Verhältnis maximieren würden.rnEin weiterer Teil dieser Dissertation bestand in der Integration der Supernova-Datenakquise eine neue Experiment-Steuerungssoftware.rnFür den Analyseteil der Arbeit wurde ein Monte-Carlo für IceCube entwickelt und Neutinooszillations-Mechanismen und eine Reihe von Signalmodellen integriert. Ein Likelihoodhypothesen-Test wurde verwendet, um die Unterscheidbarkeit verschiedener Supernova- beziehungsweise Neutrinooszillations-Szenarien zu untersuchen. Desweiteren wurde analysiert inwieweit sich Schock-Anregungen und QCD-Phasenübergnag im Verlauf des Explosionsprozesses detektieren lassen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In recent years, thanks to the technological advances, electromagnetic methods for non-invasive shallow subsurface characterization have been increasingly used in many areas of environmental and geoscience applications. Among all the geophysical electromagnetic methods, the Ground Penetrating Radar (GPR) has received unprecedented attention over the last few decades due to its capability to obtain, spatially and temporally, high-resolution electromagnetic parameter information thanks to its versatility, its handling, its non-invasive nature, its high resolving power, and its fast implementation. The main focus of this thesis is to perform a dielectric site characterization in an efficient and accurate way studying in-depth a physical phenomenon behind a recent developed GPR approach, the so-called early-time technique, which infers the electrical properties of the soil in the proximity of the antennas. In particular, the early-time approach is based on the amplitude analysis of the early-time portion of the GPR waveform using a fixed-offset ground-coupled antenna configuration where the separation between the transmitting and receiving antenna is on the order of the dominant pulse-wavelength. Amplitude information can be extracted from the early-time signal through complex trace analysis, computing the instantaneous-amplitude attributes over a selected time-duration of the early-time signal. Basically, if the acquired GPR signals are considered to represent the real part of a complex trace, and the imaginary part is the quadrature component obtained by applying a Hilbert transform to the GPR trace, the amplitude envelope is the absolute value of the resulting complex trace (also known as the instantaneous-amplitude). Analysing laboratory information, numerical simulations and natural field conditions, and summarising the overall results embodied in this thesis, it is possible to suggest the early-time GPR technique as an effective method to estimate physical properties of the soil in a fast and non-invasive way.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nel primo capitolo di questa tesi viene presentata una panoramica dei principali metodi di rivelazione degli esopianeti: il metodo della Velocità Radiale, il metodo Astrometrico, il metodo del Pulsar Timing, il metodo del Transito, il metodo del Microlensing ed infine il metodo del Direct Imaging che verrà approfondito nei capitoli successivi. Nel secondo capitolo vengono presentati i principi della diffrazione, viene mostrato come attenuare la luce stellare con l'uso del coronografo; vengono descritti i fenomeni di aberrazione della luce provocati dalla strumentazione e dagli effetti distorsivi dell'atmosfera che originano le cosiddette speckle; vengono poi presentate le moderne soluzioni tecniche come l'ottica attiva e adattiva, che hanno permesso un considerevole miglioramento della qualità delle osservazioni. Nel terzo capitolo sono illustrate le tecniche di Differential Imaging che permettono di rimuovere efficacemente le speckle e di migliorare il contrasto delle immagini. Nel quarto viene presentata una descrizione matematica della Principal Component Analysis (Analisi delle Componenti Principali), il metodo statistico utilizzato per la riduzione dei dati astronomici. Il quinto capitolo è dedicato a SPHERE, lo strumento progettato per il Very Large Telescope (VLT), in particolare viene descritto il suo spettrografo IFS con il quale sono stati ottenuti, nella fase di test, i dati analizzati nel lavoro di tesi. Nel sesto capitolo vengono mostrate le procedure di riduzione dati e l'applicazione dell'algoritmo di IDL LA_SVD che applica la Principal Component Analysis e ha permesso, analogamente ai metodi di Differenzial Imaging visti in precedenza, di rimuovere le speckle e migliorare il contrasto delle immagini. Nella parte conclusiva, vengono discussi i risultati.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The PhD research activity has taken place in the space debris field. In detail, it is focused on the possibility of detecting space debris from the space based platform. The research is focused at the same time on the software and the hardware of this detection system. For the software, a program has been developed for being able to detect an object in space and locate it in the sky solving the star field. For the hardware, the possibility of adapting a ground telescope for space activity has been considered and it has been tested on a possible electronic board.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Atmosphärische Aerosolpartikel wirken in vielerlei Hinsicht auf die Menschen und die Umwelt ein. Eine genaue Charakterisierung der Partikel hilft deren Wirken zu verstehen und dessen Folgen einzuschätzen. Partikel können hinsichtlich ihrer Größe, ihrer Form und ihrer chemischen Zusammensetzung charakterisiert werden. Mit der Laserablationsmassenspektrometrie ist es möglich die Größe und die chemische Zusammensetzung einzelner Aerosolpartikel zu bestimmen. Im Rahmen dieser Arbeit wurde das SPLAT (Single Particle Laser Ablation Time-of-flight mass spectrometer) zur besseren Analyse insbesondere von atmosphärischen Aerosolpartikeln weiterentwickelt. Der Aerosoleinlass wurde dahingehend optimiert, einen möglichst weiten Partikelgrößenbereich (80 nm - 3 µm) in das SPLAT zu transferieren und zu einem feinen Strahl zu bündeln. Eine neue Beschreibung für die Beziehung der Partikelgröße zu ihrer Geschwindigkeit im Vakuum wurde gefunden. Die Justage des Einlasses wurde mithilfe von Schrittmotoren automatisiert. Die optische Detektion der Partikel wurde so verbessert, dass Partikel mit einer Größe < 100 nm erfasst werden können. Aufbauend auf der optischen Detektion und der automatischen Verkippung des Einlasses wurde eine neue Methode zur Charakterisierung des Partikelstrahls entwickelt. Die Steuerelektronik des SPLAT wurde verbessert, so dass die maximale Analysefrequenz nur durch den Ablationslaser begrenzt wird, der höchsten mit etwa 10 Hz ablatieren kann. Durch eine Optimierung des Vakuumsystems wurde der Ionenverlust im Massenspektrometer um den Faktor 4 verringert.rnrnNeben den hardwareseitigen Weiterentwicklungen des SPLAT bestand ein Großteil dieser Arbeit in der Konzipierung und Implementierung einer Softwarelösung zur Analyse der mit dem SPLAT gewonnenen Rohdaten. CRISP (Concise Retrieval of Information from Single Particles) ist ein auf IGOR PRO (Wavemetrics, USA) aufbauendes Softwarepaket, das die effiziente Auswertung der Einzelpartikel Rohdaten erlaubt. CRISP enthält einen neu entwickelten Algorithmus zur automatischen Massenkalibration jedes einzelnen Massenspektrums, inklusive der Unterdrückung von Rauschen und von Problemen mit Signalen die ein intensives Tailing aufweisen. CRISP stellt Methoden zur automatischen Klassifizierung der Partikel zur Verfügung. Implementiert sind k-means, fuzzy-c-means und eine Form der hierarchischen Einteilung auf Basis eines minimal aufspannenden Baumes. CRISP bietet die Möglichkeit die Daten vorzubehandeln, damit die automatische Einteilung der Partikel schneller abläuft und die Ergebnisse eine höhere Qualität aufweisen. Daneben kann CRISP auf einfache Art und Weise Partikel anhand vorgebener Kriterien sortieren. Die CRISP zugrundeliegende Daten- und Infrastruktur wurde in Hinblick auf Wartung und Erweiterbarkeit erstellt. rnrnIm Rahmen der Arbeit wurde das SPLAT in mehreren Kampagnen erfolgreich eingesetzt und die Fähigkeiten von CRISP konnten anhand der gewonnen Datensätze gezeigt werden.rnrnDas SPLAT ist nun in der Lage effizient im Feldeinsatz zur Charakterisierung des atmosphärischen Aerosols betrieben zu werden, während CRISP eine schnelle und gezielte Auswertung der Daten ermöglicht.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This thesis focuses on the energy efficiency in wireless networks under the transmission and information diffusion points of view. In particular, on one hand, the communication efficiency is investigated, attempting to reduce the consumption during transmissions, while on the other hand the energy efficiency of the procedures required to distribute the information among wireless nodes in complex networks is taken into account. For what concerns energy efficient communications, an innovative transmission scheme reusing source of opportunity signals is introduced. This kind of signals has never been previously studied in literature for communication purposes. The scope is to provide a way for transmitting information with energy consumption close to zero. On the theoretical side, starting from a general communication channel model subject to a limited input amplitude, the theme of low power transmission signals is tackled under the perspective of stating sufficient conditions for the capacity achieving input distribution to be discrete. Finally, the focus is shifted towards the design of energy efficient algorithms for the diffusion of information. In particular, the endeavours are aimed at solving an estimation problem distributed over a wireless sensor network. The proposed solutions are deeply analyzed both to ensure their energy efficiency and to guarantee their robustness against losses during the diffusion of information (against information diffusion truncation more in general).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

21 cm cosmology opens an observational window to previously unexplored cosmological epochs such as the Epoch of Reionization (EoR), the Cosmic Dawn and the Dark Ages using powerful radio interferometers such as the planned Square Kilometer Array (SKA). Among all the other applications which can potentially improve the understanding of standard cosmology, we study the promising opportunity given by measuring the weak gravitational lensing sourced by 21 cm radiation. We performed this study in two different cosmological epochs, at a typical EoR redshift and successively at a post-EoR redshift. We will show how the lensing signal can be reconstructed using a three dimensional optimal quadratic lensing estimator in Fourier space, using single frequency band or combining multiple frequency band measurements. To this purpose, we implemented a simulation pipeline capable of dealing with issues that can not be treated analytically. Considering the current SKA plans, we studied the performance of the quadratic estimator at typical EoR redshifts, for different survey strategies and comparing two thermal noise models for the SKA-Low array. The simulation we performed takes into account the beam of the telescope and the discreteness of visibility measurements. We found that an SKA-Low interferometer should obtain high-fidelity images of the underlying mass distribution in its phase 1 only if several bands are stacked together, covering a redshift range that goes from z=7 to z=11.5. The SKA-Low phase 2, modeled in order to improve the sensitivity of the instrument by almost an order of magnitude, should be capable of providing images with good quality even when the signal is detected within a single frequency band. Considering also the serious effect that foregrounds could have on this detections, we discussed the limits of these results and also the possibility provided by these models of measuring an accurate lensing power spectrum.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Trotz zahlreicher Hinweise auf die Existenz von Dunkler Materie, konnten entsprechende Teilchen bisher nicht nachgewiesen werden. Eine große Anzahl an Experimenten wird durchgeführt, um die Eigenschaften möglicher Kandidatenteilchen zu untersuchen. Eine Strategie ist die Suche nach einem Neutrinosignal aus den Annihilationen von schwach wechselwirkenden massiven Teilchen (WIMPs) in Regionen mit hoher Dichte von Dunkler Materie. Mögliche Zielobjekte dieser Suchen sind die Erde, die Sonne, das Zentrum und der Halo der Milchstraße sowie entfernte Objekte, die einen hohen Anteil Dunkler Materie aufweisen.In der vorliegenden Arbeit wird die erste Suche nach einem Neutrinosignal von Zwerggalaxien, größeren Galaxien und Galaxienhaufen beschrieben. Da kein Signal nachgewiesen wurde, konnten obere Grenzen auf den Annihilationsquerschnitt von WIMPs gesetzt werden. Die stärksten Grenzen wurden aus der Beobachtung des Virgo-Haufens unter der Annahme einer großen Signalverstärkung durch Unterstrukturen in der Dichteverteilung abgeleitet. Für WIMP-Massen oberhalb von einigen TeV ist das Ergebnis vergleichbar mit Grenzen, die aus der Suche mit Gammateleskopen abgeleitet wurden. Für den direkten Annihilationskanal in zwei Neutrinos konnte der Wirkungsquerschnitt stärker eingeschränkt werden, als in bisherigen Analysen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In the year 2013, the detection of a diffuse astrophysical neutrino flux with the IceCube neutrino telescope – constructed at the geographic South Pole – was announced by the IceCube collaboration. However, the origin of these neutrinos is still unknown as no sources have been identified to this day. Promising neutrino source candidates are blazars, which are a subclass of active galactic nuclei with radio jets pointing towards the Earth. In this thesis, the neutrino flux from blazars is tested with a maximum likelihood stacking approach, analyzing the combined emission from uniform groups of objects. The stacking enhances the sensitivity w.r.t. the still unsuccessful single source searches. The analysis utilizes four years of IceCube data including one year from the completed detector. As all results presented in this work are compatible with background, upper limits on the neutrino flux are given. It is shown that, under certain conditions, some hadronic blazar models can be challenged or even rejected. Moreover, the sensitivity of this analysis – and any other future IceCube point source search – was enhanced by the development of a new angular reconstruction method. It is based on a detailed simulation of the photon propagation in the Antarctic ice. The median resolution for muon tracks, induced by high-energy neutrinos, is improved for all neutrino energies above IceCube’s lower threshold at 0.1TeV. By reprocessing the detector data and simulation from the year 2010, it is shown that the new method improves IceCube’s discovery potential by 20% to 30% depending on the declination.