868 resultados para spatial resolution


Relevância:

60.00% 60.00%

Publicador:

Resumo:

Die chronisch obstruktive Lungenerkrankung (engl. chronic obstructive pulmonary disease, COPD) ist ein Überbegriff für Erkrankungen, die zu Husten, Auswurf und Dyspnoe (Atemnot) in Ruhe oder Belastung führen - zu diesen werden die chronische Bronchitis und das Lungenemphysem gezählt. Das Fortschreiten der COPD ist eng verknüpft mit der Zunahme des Volumens der Wände kleiner Luftwege (Bronchien). Die hochauflösende Computertomographie (CT) gilt bei der Untersuchung der Morphologie der Lunge als Goldstandard (beste und zuverlässigste Methode in der Diagnostik). Möchte man Bronchien, eine in Annäherung tubuläre Struktur, in CT-Bildern vermessen, so stellt die geringe Größe der Bronchien im Vergleich zum Auflösungsvermögen eines klinischen Computertomographen ein großes Problem dar. In dieser Arbeit wird gezeigt wie aus konventionellen Röntgenaufnahmen CT-Bilder berechnet werden, wo die mathematischen und physikalischen Fehlerquellen im Bildentstehungsprozess liegen und wie man ein CT-System mittels Interpretation als lineares verschiebungsinvariantes System (engl. linear shift invariant systems, LSI System) mathematisch greifbar macht. Basierend auf der linearen Systemtheorie werden Möglichkeiten zur Beschreibung des Auflösungsvermögens bildgebender Verfahren hergeleitet. Es wird gezeigt wie man den Tracheobronchialbaum aus einem CT-Datensatz stabil segmentiert und mittels eines topologieerhaltenden 3-dimensionalen Skelettierungsalgorithmus in eine Skelettdarstellung und anschließend in einen kreisfreien Graphen überführt. Basierend auf der linearen System Theorie wird eine neue, vielversprechende, integral-basierte Methodik (IBM) zum Vermessen kleiner Strukturen in CT-Bildern vorgestellt. Zum Validieren der IBM-Resultate wurden verschiedene Messungen an einem Phantom, bestehend aus 10 unterschiedlichen Silikon Schläuchen, durchgeführt. Mit Hilfe der Skelett- und Graphendarstellung ist ein Vermessen des kompletten segmentierten Tracheobronchialbaums im 3-dimensionalen Raum möglich. Für 8 zweifach gescannte Schweine konnte eine gute Reproduzierbarkeit der IBM-Resultate nachgewiesen werden. In einer weiteren, mit IBM durchgeführten Studie konnte gezeigt werden, dass die durchschnittliche prozentuale Bronchialwandstärke in CT-Datensätzen von 16 Rauchern signifikant höher ist, als in Datensätzen von 15 Nichtrauchern. IBM läßt sich möglicherweise auch für Wanddickenbestimmungen bei Problemstellungen aus anderen Arbeitsgebieten benutzen - kann zumindest als Ideengeber dienen. Ein Artikel mit der Beschreibung der entwickelten Methodik und der damit erzielten Studienergebnisse wurde zur Publikation im Journal IEEE Transactions on Medical Imaging angenommen.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Die Verifikation numerischer Modelle ist für die Verbesserung der Quantitativen Niederschlagsvorhersage (QNV) unverzichtbar. Ziel der vorliegenden Arbeit ist die Entwicklung von neuen Methoden zur Verifikation der Niederschlagsvorhersagen aus dem regionalen Modell der MeteoSchweiz (COSMO-aLMo) und des Globalmodells des Europäischen Zentrums für Mittelfristvorhersage (engl.: ECMWF). Zu diesem Zweck wurde ein neuartiger Beobachtungsdatensatz für Deutschland mit stündlicher Auflösung erzeugt und angewandt. Für die Bewertung der Modellvorhersagen wurde das neue Qualitätsmaß „SAL“ entwickelt. Der neuartige, zeitlich und räumlich hoch-aufgelöste Beobachtungsdatensatz für Deutschland wird mit der während MAP (engl.: Mesoscale Alpine Program) entwickelten Disaggregierungsmethode erstellt. Die Idee dabei ist, die zeitlich hohe Auflösung der Radardaten (stündlich) mit der Genauigkeit der Niederschlagsmenge aus Stationsmessungen (im Rahmen der Messfehler) zu kombinieren. Dieser disaggregierte Datensatz bietet neue Möglichkeiten für die quantitative Verifikation der Niederschlagsvorhersage. Erstmalig wurde eine flächendeckende Analyse des Tagesgangs des Niederschlags durchgeführt. Dabei zeigte sich, dass im Winter kein Tagesgang existiert und dies vom COSMO-aLMo gut wiedergegeben wird. Im Sommer dagegen findet sich sowohl im disaggregierten Datensatz als auch im COSMO-aLMo ein deutlicher Tagesgang, wobei der maximale Niederschlag im COSMO-aLMo zu früh zwischen 11-14 UTC im Vergleich zu 15-20 UTC in den Beobachtungen einsetzt und deutlich um das 1.5-fache überschätzt wird. Ein neues Qualitätsmaß wurde entwickelt, da herkömmliche, gitterpunkt-basierte Fehlermaße nicht mehr der Modellentwicklung Rechnung tragen. SAL besteht aus drei unabhängigen Komponenten und basiert auf der Identifikation von Niederschlagsobjekten (schwellwertabhängig) innerhalb eines Gebietes (z.B. eines Flusseinzugsgebietes). Berechnet werden Unterschiede der Niederschlagsfelder zwischen Modell und Beobachtungen hinsichtlich Struktur (S), Amplitude (A) und Ort (L) im Gebiet. SAL wurde anhand idealisierter und realer Beispiele ausführlich getestet. SAL erkennt und bestätigt bekannte Modelldefizite wie das Tagesgang-Problem oder die Simulation zu vieler relativ schwacher Niederschlagsereignisse. Es bietet zusätzlichen Einblick in die Charakteristiken der Fehler, z.B. ob es sich mehr um Fehler in der Amplitude, der Verschiebung eines Niederschlagsfeldes oder der Struktur (z.B. stratiform oder kleinskalig konvektiv) handelt. Mit SAL wurden Tages- und Stundensummen des COSMO-aLMo und des ECMWF-Modells verifiziert. SAL zeigt im statistischen Sinne speziell für stärkere (und damit für die Gesellschaft relevante Niederschlagsereignisse) eine im Vergleich zu schwachen Niederschlägen gute Qualität der Vorhersagen des COSMO-aLMo. Im Vergleich der beiden Modelle konnte gezeigt werden, dass im Globalmodell flächigere Niederschläge und damit größere Objekte vorhergesagt werden. Das COSMO-aLMo zeigt deutlich realistischere Niederschlagsstrukturen. Diese Tatsache ist aufgrund der Auflösung der Modelle nicht überraschend, konnte allerdings nicht mit herkömmlichen Fehlermaßen gezeigt werden. Die im Rahmen dieser Arbeit entwickelten Methoden sind sehr nützlich für die Verifikation der QNV zeitlich und räumlich hoch-aufgelöster Modelle. Die Verwendung des disaggregierten Datensatzes aus Beobachtungen sowie SAL als Qualitätsmaß liefern neue Einblicke in die QNV und lassen angemessenere Aussagen über die Qualität von Niederschlagsvorhersagen zu. Zukünftige Anwendungsmöglichkeiten für SAL gibt es hinsichtlich der Verifikation der neuen Generation von numerischen Wettervorhersagemodellen, die den Lebenszyklus hochreichender konvektiver Zellen explizit simulieren.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Sowohl in der Natur als auch in der Industrie existieren thermisch induzierte Strömungen. Von Interesse für diese Forschungsarbeit sind dabei die Konvektionen im Erdmantel sowie in den Glasschmelzwannen. Der dort stattfindende Materialtransport resultiert aus Unterschieden in der Dichte, der Temperatur und der chemischen Konzentration innerhalb des konvektierenden Materials. Um das Verständnis für die ablaufenden Prozesse zu verbessern, werden von zahlreichen Forschergruppen numerische Modellierungen durchgeführt. Die Verifikation der dafür verwendeten Algorithmen erfolgt meist über die Analyse von Laborexperimenten. Im Vordergrund dieser Forschungsarbeit steht die Entwicklung einer Methode zur Bestimmung der dreidimensionalen Temperaturverteilung für die Untersuchung von thermisch induzierten Strömungen in einem Versuchsbecken. Eine direkte Temperaturmessung im Inneren des Versuchsmaterials bzw. der Glasschmelze beeinflusst allerdings das Strömungsverhalten. Deshalb wird die geodynamisch störungsfrei arbeitende Impedanztomographie verwendet. Die Grundlage dieser Methode bildet der erweiterte Arrhenius-Zusammenhang zwischen Temperatur und spezifischer elektrischer Leitfähigkeit. Während der Laborexperimente wird ein zähflüssiges Polyethylenglykol-Wasser-Gemisch in einem Becken von unten her erhitzt. Die auf diese Weise generierten Strömungen stellen unter Berücksichtigung der Skalierung ein Analogon sowohl zu dem Erdmantel als auch zu den Schmelzwannen dar. Über mehrere Elektroden, die an den Beckenwänden installiert sind, erfolgen die geoelektrischen Messungen. Nach der sich anschließenden dreidimensionalen Inversion der elektrischen Widerstände liegt das Modell mit der Verteilung der spezifischen elektrischen Leitfähigkeit im Inneren des Versuchsbeckens vor. Diese wird mittels der erweiterten Arrhenius-Formel in eine Temperaturverteilung umgerechnet. Zum Nachweis der Eignung dieser Methode für die nichtinvasive Bestimmung der dreidimensionalen Temperaturverteilung wurden mittels mehrerer Thermoelemente an den Beckenwänden zusätzlich direkte Temperaturmessungen durchgeführt und die Werte miteinander verglichen. Im Wesentlichen sind die Innentemperaturen gut rekonstruierbar, wobei die erreichte Messgenauigkeit von der räumlichen und zeitlichen Auflösung der Gleichstromgeoelektrik abhängt.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

The biogenic production of NO in the soil accounts for between 10% and 40% of the global total. A large degree of the uncertainty in the estimation of the biogenic emissions stems from a shortage of measurements in arid regions, which comprise 40% of the earth’s land surface area. This study examined the emission of NO from three ecosystems in southern Africa which cover an aridity gradient from semi-arid savannas in South Africa to the hyper-arid Namib Desert in Namibia. A laboratory method was used to determine the release of NO as a function of the soil moisture and the soil temperature. Various methods were used to up-scale the net potential NO emissions determined in the laboratory to the vegetation patch, landscape or regional level. The importance of landscape, vegetation and climatic characteristics is emphasized. The first study occurred in a semi-arid savanna region in South Africa, where soils were sampled from 4 landscape positions in the Kruger National Park. The maximum NO emission occurred at soil moisture contents of 10%-20% water filled pore space (WFPS). The highest net potential NO emissions came from the low lying landscape positions, which have the largest nitrogen (N) stocks and the largest input of N. Net potential NO fluxes obtained in the laboratory were converted in field fluxes for the period 2003-2005, for the four landscape positions, using soil moisture and temperature data obtained in situ at the Kruger National Park Flux Tower Site. The NO emissions ranged from 1.5-8.5 kg ha-1 a-1. The field fluxes were up-scaled to a regional basis using geographic information system (GIS) based techniques, this indicated that the highest NO emissions occurred from the Midslope positions due to their large geographical extent in the research area. Total emissions ranged from 20x103 kg in 2004 to 34x103 kg in 2003 for the 56000 ha Skukuza land type. The second study occurred in an arid savanna ecosystem in the Kalahari, Botswana. In this study I collected soils from four differing vegetation patch types including: Pan, Annual Grassland, Perennial Grassland and Bush Encroached patches. The maximum net potential NO fluxes ranged from 0.27 ng m-2 s-1 in the Pan patches to 2.95 ng m-2 s-1 in the Perennial Grassland patches. The net potential NO emissions were up-scaled for the year December 2005-November 2006. This was done using 1) the net potential NO emissions determined in the laboratory, 2) the vegetation patch distribution obtained from LANDSAT NDVI measurements 3) estimated soil moisture contents obtained from ENVISAT ASAR measurements and 4) soil surface temperature measurements using MODIS 8 day land surface temperature measurements. This up-scaling procedure gave NO fluxes which ranged from 1.8 g ha-1 month-1 in the winter months (June and July) to 323 g ha-1 month-1 in the summer months (January-March). Differences occurred between the vegetation patches where the highest NO fluxes occurred in the Perennial Grassland patches and the lowest in the Pan patches. Over the course of the year the mean up-scaled NO emission for the studied region was 0.54 kg ha-1 a-1 and accounts for a loss of approximately 7.4% of the estimated N input to the region. The third study occurred in the hyper-arid Namib Desert in Namibia. Soils were sampled from three ecosystems; Dunes, Gravel Plains and the Riparian zone of the Kuiseb River. The net potential NO flux measured in the laboratory was used to estimate the NO flux for the Namib Desert for 2006 using modelled soil moisture and temperature data from the European Centre for Medium Range Weather Forecasts (ECMWF) operational model on a 36km x 35km spatial resolution. The maximum net potential NO production occurred at low soil moisture contents (<10%WFPS) and the optimal temperature was 25°C in the Dune and Riparian ecosystems and 35°C in the Gravel Plain Ecosystems. The maximum net potential NO fluxes ranged from 3.0 ng m-2 s-1 in the Riparian ecosystem to 6.2 ng m-2 s-1 in the Gravel Plains ecosystem. Up-scaling the net potential NO flux gave NO fluxes of up to 0.062 kg ha-1 a-1 in the Dune ecosystem and 0.544 kg h-1 a-1 in the Gravel Plain ecosystem. From these studies it is shown that NO is emitted ubiquitously from terrestrial ecosystems, as such the NO emission potential from deserts and scrublands should be taken into account in the global NO models. The emission of NO is influenced by various factors such as landscape, vegetation and climate. This study looks at the potential emissions from certain arid and semi-arid environments in southern Africa and other parts of the world and discusses some of the important factors controlling the emission of NO from the soil.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Fluorescence correlation spectroscopy (FCS) is a powerful technique to determine the diffusion of fluorescence molecules in various environments. The technique is based on detecting and analyzing the fluctuation of fluorescence light emitted by fluorescence species diffusing through a small and fixed observation volume, formed by a laser focused into the sample. Because of its great potential and high versatility in addressing the diffusion and transport properties in complex systems, FCS has been successfully applied to a great variety of systems. In my thesis, I focused on the application of FCS to study the diffusion of fluorescence molecules in organic environments, especially in polymer melts. In order to examine our FCS setup and a developed measurement protocol, I first utilized FCS to measure tracer diffusion in polystyrene (PS) solutions, for which abundance data exist in the literature. I studied molecular and polymeric tracer diffusion in polystyrene solutions over a broad range of concentrations and different tracer and matrix molecular weights (Mw). Then FCS was further established to study tracer dynamics in polymer melts. In this part I investigated the diffusion of molecular tracers in linear flexible polymer melts [polydimethylsiloxane (PDMS), polyisoprene (PI)], a miscible polymer blend [PI and poly vinyl ethylene (PVE)], and star-shaped polymer [3-arm star polyisoprene (SPI)]. The effects of tracer sizes, polymer Mw, polymer types, and temperature on the diffusion coefficients of small tracers were discussed. The distinct topology of the host polymer, i.e. star polymer melt, revealed the notably different motion of the small tracer, as compared to its linear counterpart. Finally, I emphasized the advantage of the small observation volume which allowed FCS to investigate the tracer diffusions in heterogeneous systems; a swollen cross-linked PS bead and silica inverse opals, where high spatial resolution technique was required.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Proxy data are essential for the investigation of climate variability on time scales larger than the historical meteorological observation period. The potential value of a proxy depends on our ability to understand and quantify the physical processes that relate the corresponding climate parameter and the signal in the proxy archive. These processes can be explored under present-day conditions. In this thesis, both statistical and physical models are applied for their analysis, focusing on two specific types of proxies, lake sediment data and stable water isotopes.rnIn the first part of this work, the basis is established for statistically calibrating new proxies from lake sediments in western Germany. A comprehensive meteorological and hydrological data set is compiled and statistically analyzed. In this way, meteorological times series are identified that can be applied for the calibration of various climate proxies. A particular focus is laid on the investigation of extreme weather events, which have rarely been the objective of paleoclimate reconstructions so far. Subsequently, a concrete example of a proxy calibration is presented. Maxima in the quartz grain concentration from a lake sediment core are compared to recent windstorms. The latter are identified from the meteorological data with the help of a newly developed windstorm index, combining local measurements and reanalysis data. The statistical significance of the correlation between extreme windstorms and signals in the sediment is verified with the help of a Monte Carlo method. This correlation is fundamental for employing lake sediment data as a new proxy to reconstruct windstorm records of the geological past.rnThe second part of this thesis deals with the analysis and simulation of stable water isotopes in atmospheric vapor on daily time scales. In this way, a better understanding of the physical processes determining these isotope ratios can be obtained, which is an important prerequisite for the interpretation of isotope data from ice cores and the reconstruction of past temperature. In particular, the focus here is on the deuterium excess and its relation to the environmental conditions during evaporation of water from the ocean. As a basis for the diagnostic analysis and for evaluating the simulations, isotope measurements from Rehovot (Israel) are used, provided by the Weizmann Institute of Science. First, a Lagrangian moisture source diagnostic is employed in order to establish quantitative linkages between the measurements and the evaporation conditions of the vapor (and thus to calibrate the isotope signal). A strong negative correlation between relative humidity in the source regions and measured deuterium excess is found. On the contrary, sea surface temperature in the evaporation regions does not correlate well with deuterium excess. Although requiring confirmation by isotope data from different regions and longer time scales, this weak correlation might be of major importance for the reconstruction of moisture source temperatures from ice core data. Second, the Lagrangian source diagnostic is combined with a Craig-Gordon fractionation parameterization for the identified evaporation events in order to simulate the isotope ratios at Rehovot. In this way, the Craig-Gordon model can be directly evaluated with atmospheric isotope data, and better constraints for uncertain model parameters can be obtained. A comparison of the simulated deuterium excess with the measurements reveals that a much better agreement can be achieved using a wind speed independent formulation of the non-equilibrium fractionation factor instead of the classical parameterization introduced by Merlivat and Jouzel, which is widely applied in isotope GCMs. Finally, the first steps of the implementation of water isotope physics in the limited-area COSMO model are described, and an approach is outlined that allows to compare simulated isotope ratios to measurements in an event-based manner by using a water tagging technique. The good agreement between model results from several case studies and measurements at Rehovot demonstrates the applicability of the approach. Because the model can be run with high, potentially cloud-resolving spatial resolution, and because it contains sophisticated parameterizations of many atmospheric processes, a complete implementation of isotope physics will allow detailed, process-oriented studies of the complex variability of stable isotopes in atmospheric waters in future research.rn

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Membranen spielen eine essentielle Rolle bei vielen wichtigen zellulären Prozessen. Sie ermöglichen die Erzeugung von chemischen Gradienten zwischen dem Zellinneren und der Umgebung. Die Zellmembran übernimmt wesentliche Aufgaben bei der intra- und extrazellulären Signalweiterleitung und der Adhäsion an Oberflächen. Durch Prozesse wie Endozytose und Exozytose werden Stoffe in oder aus der Zelle transportiert, eingehüllt in Vesikel, welche aus der Zellmembran geformt werden. Zusätzlich bietet sie auch Schutz für das Zellinnere. Der Hauptbestandteil einer Zellmembran ist die Lipiddoppelschicht, eine zweidimensionale fluide Matrix mit einer heterogenen Zusammensetzung aus unterschiedlichen Lipiden. In dieser Matrix befinden sich weitere Bausteine, wie z.B. Proteine. An der Innenseite der Zelle ist die Membran über Ankerproteine an das Zytoskelett gekoppelt. Dieses Polymernetzwerk erhöht unter anderem die Stabilität, beeinflusst die Form der Zelle und übernimmt Funktionenrnbei der Zellbewegung. Zellmembranen sind keine homogenen Strukturen, je nach Funktion sind unterschiedliche Lipide und Proteine in mikrsokopischen Domänen angereichert.Um die grundlegenden mechanischen Eigenschaften der Zellmembran zu verstehen wurde im Rahmen dieser Arbeit das Modellsystem der porenüberspannenden Membranen verwendet.Die Entwicklung der porenüberspannenden Membranen ermöglicht die Untersuchung von mechanischen Eigenschaften von Membranen im mikro- bis nanoskopischen Bereich mit rasterkraftmikroskopischen Methoden. Hierbei bestimmen Porosität und Porengröße des Substrates die räumliche Auflösung, mit welcher die mechanischen Parameter untersucht werdenrnkönnen. Porenüberspannende Lipiddoppelschichten und Zellmembranen auf neuartigen porösen Siliziumsubstraten mit Porenradien von 225 nm bis 600 nm und Porositäten bis zu 30% wurden untersucht. Es wird ein Weg zu einer umfassenden theoretischen Modellierung der lokalen Indentationsexperimente und der Bestimmung der dominierenden energetischen Beiträge in der Mechanik von porenüberspannenden Membranen aufgezeigt. Porenüberspannende Membranen zeigen eine linear ansteigende Kraft mit zunehmender Indentationstiefe. Durch Untersuchung verschiedener Oberflächen, Porengrößen und Membranen unterschiedlicher Zusammensetzung war es für freistehende Lipiddoppelschichten möglich, den Einfluss der Oberflächeneigenschaften und Geometrie des Substrates, sowie der Membranphase und des Lösungsmittels auf die mechanischen Eigenschaften zu bestimmen. Es ist möglich, die experimentellen Daten mit einem theoretischen Modell zu beschreiben. Hierbei werden Parameter wie die laterale Spannung und das Biegemodul der Membran bestimmt. In Abhängigkeit der Substrateigenschaften wurden für freitragende Lipiddoppelschichten laterale Spannungen von 150 μN/m bis zu 31 mN/m gefunden für Biegemodulde zwischen 10^(−19) J bis 10^(−18) J. Durch Kraft-Indentations-Experimente an porenüberspannenden Zellmembranen wurde ein Vergleich zwischen dem Modell der freistehenden Lipiddoppelschichten und nativen Membranen herbeigeführt. Die lateralen Spannungen für native freitragende Membranen wurden zu 50 μN/m bestimmt. Weiterhin konnte der Einfluss des Zytoskeletts und der extrazellulä-rnren Matrix auf die mechanischen Eigenschaften bestimmt und innerhalb eines basolateralen Zellmembranfragments kartiert werden, wobei die Periodizität und der Porendurchmesser des Substrates das räumliche Auflösungsvermögen bestimmen. Durch Fixierung der freistehenden Zellmembran wurde das Biegemodul der Membran um bis zu einem Faktor 10 erhöht. Diese Arbeit zeigt wie lokal aufgelöste, mechanische Eigenschaften mittels des Modellsystems der porenüberspannenden Membranen gemessen und quantifiziert werden können. Weiterhin werden die dominierenden energetischen Einflüsse diskutiert, und eine Vergleichbarkeit zurnnatürlichen Membranen hergestellt.rn

Relevância:

60.00% 60.00%

Publicador:

Resumo:

During my Doctoral study I researched about the remote detection of canopy N concentration in forest stands, its potentials and problems, under many overlapping perspectives. The study consisted of three parts. In S. Rossore 2000 dataset analysis, I tested regressions between N concentration and NIR reflectances derived from different sources (field samples, airborne and satellite sensors). The analysis was further expanded using a larger dataset acquired in year 2009 as part of a new campaign funded by the ESA. In both cases, a good correlation was observed between Landsat NIR, using both TM (2009) and ETM+ (2000) imagery, and N concentration measured by a CHN elemental analyzer. Concerning airborne sensors I did not obtain the same good results, mainly because of the large FOV of the two instruments, and to the anisotropy of vegetation reflectance. We also tested the relation between ground based ASD measures and nitrogen concentration, obtaining really good results. Thus, I decided to expand my study to the regional level, focusing only on field and satellite measures. I analyzed a large dataset for the whole of Catalonia, Spain; MODIS imagery was used, in consideration of its spectral characteristics and despite its rather poor spatial resolution. Also in this case a regression between nitrogen concentration and reflectances was found, but not so good as in previous experiences. Moreover, vegetation type was found to play an important role in the observed relationship. We concluded that MODIS is not the most suitable satellite sensor in realities like Italy and Catalonia, which present a patchy and inhomogeneous vegetation cover; so it could be utilized for the parameterization of eco-physiological and biogeochemical models, but not for really local nitrogen estimate. Thus multispectral sensors similar to Landsat Thematic Mapper, with better spatial resolution, could be the most appropriate sensors to estimate N concentration.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

This thesis presents a new imaging technique for ultracold quantum gases. Since the first observation of Bose-Einstein condensation, ultracold atoms have proven to be an interesting system to study fundamental quantum effects in many-body systems. Most of the experiments use optical imaging rnmethods to extract the information from the system and are therefore restricted to the fundamental limitation of this technique: the best achievable spatial resolution that can be achieved is comparable to the wavelength of the employed light field. Since the average atomic distance and the length scale of characteristic spatial structures in Bose-Einstein condensates such as vortices and solitons is between 100 nm and 500 nm, an imaging technique with an adequate spatial resolution is needed. This is achieved in this work by extending the method of scanning electron microscopy to ultracold quantum gases. A focused electron beam is scanned over the atom cloud and locally produces ions which are subsequently detected. The new imaging technique allows for the precise measurement of the density distribution of a trapped Bose-Einstein condensate. Furthermore, the spatial resolution is determined by imaging the atomic distribution in one-dimensional and two-dimensional optical lattices. Finally, the variety of the imaging method is demonstrated by the selective removal of single lattice site. rn

Relevância:

60.00% 60.00%

Publicador:

Resumo:

In this report a new automated optical test for next generation of photonic integrated circuits (PICs) is provided by the test-bed design and assessment. After a briefly analysis of critical problems of actual optical tests, the main test features are defined: automation and flexibility, relaxed alignment procedure, speed up of entire test and data reliability. After studying varied solutions, the test-bed components are defined to be lens array, photo-detector array, and software controller. Each device is studied and calibrated, the spatial resolution, and reliability against interference at the photo-detector array are studied. The software is programmed in order to manage both PIC input, and photo-detector array output as well as data analysis. The test is validated by analysing state-of-art 16 ports PIC: the waveguide location, current versus power, and time-spatial power distribution are measured as well as the optical continuity of an entire path of PIC. Complexity, alignment tolerance, time of measurement are also discussed.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Die Verifikation bewertet die Güte von quantitativen Niederschlagsvorhersagen(QNV) gegenüber Beobachtungen und liefert Hinweise auf systematische Modellfehler. Mit Hilfe der merkmals-bezogenen Technik SAL werden simulierte Niederschlagsverteilungen hinsichtlich (S)truktur, (A)mplitude und (L)ocation analysiert. Seit einigen Jahren werden numerische Wettervorhersagemodelle benutzt, mit Gitterpunktabständen, die es erlauben, hochreichende Konvektion ohne Parametrisierung zu simulieren. Es stellt sich jetzt die Frage, ob diese Modelle bessere Vorhersagen liefern. Der hoch aufgelöste stündliche Beobachtungsdatensatz, der in dieser Arbeit verwendet wird, ist eine Kombination von Radar- und Stationsmessungen. Zum einem wird damit am Beispiel der deutschen COSMO-Modelle gezeigt, dass die Modelle der neuesten Generation eine bessere Simulation des mittleren Tagesgangs aufweisen, wenn auch mit zu geringen Maximum und etwas zu spätem Auftreten. Im Gegensatz dazu liefern die Modelle der alten Generation ein zu starkes Maximum, welches erheblich zu früh auftritt. Zum anderen wird mit dem neuartigen Modell eine bessere Simulation der räumlichen Verteilung des Niederschlags, durch eine deutliche Minimierung der Luv-/Lee Proble-matik, erreicht. Um diese subjektiven Bewertungen zu quantifizieren, wurden tägliche QNVs von vier Modellen für Deutschland in einem Achtjahreszeitraum durch SAL sowie klassischen Maßen untersucht. Die höher aufgelösten Modelle simulieren realistischere Niederschlagsverteilungen(besser in S), aber bei den anderen Komponenten tritt kaum ein Unterschied auf. Ein weiterer Aspekt ist, dass das Modell mit der gröbsten Auf-lösung(ECMWF) durch den RMSE deutlich am besten bewertet wird. Darin zeigt sich das Problem des ‚Double Penalty’. Die Zusammenfassung der drei Komponenten von SAL liefert das Resultat, dass vor allem im Sommer das am feinsten aufgelöste Modell (COSMO-DE) am besten abschneidet. Hauptsächlich kommt das durch eine realistischere Struktur zustande, so dass SAL hilfreiche Informationen liefert und die subjektive Bewertung bestätigt. rnIm Jahr 2007 fanden die Projekte COPS und MAP D-PHASE statt und boten die Möglich-keit, 19 Modelle aus drei Modellkategorien hinsichtlich ihrer Vorhersageleistung in Südwestdeutschland für Akkumulationszeiträume von 6 und 12 Stunden miteinander zu vergleichen. Als Ergebnisse besonders hervorzuheben sind, dass (i) je kleiner der Gitter-punktabstand der Modelle ist, desto realistischer sind die simulierten Niederschlags-verteilungen; (ii) bei der Niederschlagsmenge wird in den hoch aufgelösten Modellen weniger Niederschlag, d.h. meist zu wenig, simuliert und (iii) die Ortskomponente wird von allen Modellen am schlechtesten simuliert. Die Analyse der Vorhersageleistung dieser Modelltypen für konvektive Situationen zeigt deutliche Unterschiede. Bei Hochdrucklagen sind die Modelle ohne Konvektionsparametrisierung nicht in der Lage diese zu simulieren, wohingegen die Modelle mit Konvektionsparametrisierung die richtige Menge, aber zu flächige Strukturen realisieren. Für konvektive Ereignisse im Zusammenhang mit Fronten sind beide Modelltypen in der Lage die Niederschlagsverteilung zu simulieren, wobei die hoch aufgelösten Modelle realistischere Felder liefern. Diese wetterlagenbezogene Unter-suchung wird noch systematischer unter Verwendung der konvektiven Zeitskala durchge-führt. Eine erstmalig für Deutschland erstellte Klimatologie zeigt einen einer Potenzfunktion folgenden Abfall der Häufigkeit dieser Zeitskala zu größeren Werten hin auf. Die SAL Ergebnisse sind für beide Bereiche dramatisch unterschiedlich. Für kleine Werte der konvektiven Zeitskala sind sie gut, dagegen werden bei großen Werten die Struktur sowie die Amplitude deutlich überschätzt. rnFür zeitlich sehr hoch aufgelöste Niederschlagsvorhersagen gewinnt der Einfluss der zeitlichen Fehler immer mehr an Bedeutung. Durch die Optimierung/Minimierung der L Komponente von SAL innerhalb eines Zeitfensters(+/-3h) mit dem Beobachtungszeit-punkt im Zentrum ist es möglich diese zu bestimmen. Es wird gezeigt, dass bei optimalem Zeitversatz die Struktur und Amplitude der QNVs für das COSMO-DE besser werden und damit die grundsätzliche Fähigkeit des Modells die Niederschlagsverteilung realistischer zu simulieren, besser gezeigt werden kann.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Thermal effects are rapidly gaining importance in nanometer heterogeneous integrated systems. Increased power density, coupled with spatio-temporal variability of chip workload, cause lateral and vertical temperature non-uniformities (variations) in the chip structure. The assumption of an uniform temperature for a large circuit leads to inaccurate determination of key design parameters. To improve design quality, we need precise estimation of temperature at detailed spatial resolution which is very computationally intensive. Consequently, thermal analysis of the designs needs to be done at multiple levels of granularity. To further investigate the flow of chip/package thermal analysis we exploit the Intel Single Chip Cloud Computer (SCC) and propose a methodology for calibration of SCC on-die temperature sensors. We also develop an infrastructure for online monitoring of SCC temperature sensor readings and SCC power consumption. Having the thermal simulation tool in hand, we propose MiMAPT, an approach for analyzing delay, power and temperature in digital integrated circuits. MiMAPT integrates seamlessly into industrial Front-end and Back-end chip design flows. It accounts for temperature non-uniformities and self-heating while performing analysis. Furthermore, we extend the temperature variation aware analysis of designs to 3D MPSoCs with Wide-I/O DRAM. We improve the DRAM refresh power by considering the lateral and vertical temperature variations in the 3D structure and adapting the per-DRAM-bank refresh period accordingly. We develop an advanced virtual platform which models the performance, power, and thermal behavior of a 3D-integrated MPSoC with Wide-I/O DRAMs in detail. Moving towards real-world multi-core heterogeneous SoC designs, a reconfigurable heterogeneous platform (ZYNQ) is exploited to further study the performance and energy efficiency of various CPU-accelerator data sharing methods in heterogeneous hardware architectures. A complete hardware accelerator featuring clusters of OpenRISC CPUs, with dynamic address remapping capability is built and verified on a real hardware.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

The upgrade of the Mainz Mikrotron (MAMI) electron accelerator facility in 2007 which raised the beam energy up to 1.5,GeV, gives the opportunity to study strangeness production channels through electromagnetic process. The Kaon Spectrometer (KAOS) managed by the A1 Collaboration, enables the efficient detection of the kaons associated with strangeness electroproduction. Used as a single arm spectrometer, it can be combined with the existing high-resolution spectrometers for exclusive measurements in the kinematic domain accessible to them.rnrnFor studying hypernuclear production in the ^A Z(e,e'K^+) _Lambda ^A(Z-1) reaction, the detection of electrons at very forward angles is needed. Therefore, the use of KAOS as a double-arm spectrometer for detection of kaons and the electrons at the same time is mandatory. Thus, the electron arm should be provided with a new detector package, with high counting rate capability and high granularity for a good spatial resolution. To this end, a new state-of-the-art scintillating fiber hodoscope has been developed as an electron detector.rnrnThe hodoscope is made of two planes with a total of 18432 scintillating double-clad fibers of 0.83 mm diameter. Each plane is formed by 72 modules. Each module is formed from a 60deg slanted multi-layer bundle, where 4 fibers of a tilted column are connected to a common read out. The read-out is made with 32 channels of linear array multianode photomultipliers. Signal processing makes use of newly developed double-threshold discriminators. The discriminated signal is sent in parallel to dead-time free time-to-digital modules and to logic modules for triggering purposes.rnrnTwo fiber modules were tested with a carbon beam at GSI, showing a time resolution of 220 ps (FWHM) and a position residual of 270 microm m (FWHM) with a detection efficiency epsilon>99%.rnrnThe characterization of the spectrometer arm has been achieved through simulations calculating the transfer matrix of track parameters from the fiber detector focal plane to the primary vertex. This transfer matrix has been calculated to first order using beam transport optics and has been checked by quasielastic scattering off a carbon target, where the full kinematics is determined by measuring the recoil proton momentum. The reconstruction accuracy for the emission parameters at the quasielastic vertex was found to be on the order of 0.3 % in first test realized.rnrnThe design, construction process, commissioning, testing and characterization of the fiber hodoscope are presented in this work which has been developed at the Institut für Kernphysik of the Johannes Gutenberg - Universität Mainz.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Allgemein erlaubt adaptive Gitterverfeinerung eine Steigerung der Effizienz numerischer Simulationen ohne dabei die Genauigkeit des Ergebnisses signifikant zu verschlechtern. Es ist jedoch noch nicht erforscht, in welchen Bereichen des Rechengebietes die räumliche Auflösung tatsächlich vergröbert werden kann, ohne die Genauigkeit des Ergebnisses signifikant zu beeinflussen. Diese Frage wird hier für ein konkretes Beispiel von trockener atmosphärischer Konvektion untersucht, nämlich der Simulation von warmen Luftblasen. Zu diesem Zweck wird ein neuartiges numerisches Modell entwickelt, das auf diese spezielle Anwendung ausgerichtet ist. Die kompressiblen Euler-Gleichungen werden mit einer unstetigen Galerkin Methode gelöst. Die Zeitintegration geschieht mit einer semi-implizite Methode und die dynamische Adaptivität verwendet raumfüllende Kurven mit Hilfe der Funktionsbibliothek AMATOS. Das numerische Modell wird validiert mit Hilfe einer Konvergenzstudie und fünf Standard-Testfällen. Eine Methode zum Vergleich der Genauigkeit von Simulationen mit verschiedenen Verfeinerungsgebieten wird eingeführt, die ohne das Vorhandensein einer exakten Lösung auskommt. Im Wesentlichen geschieht dies durch den Vergleich von Eigenschaften der Lösung, die stark von der verwendeten räumlichen Auflösung abhängen. Im Fall einer aufsteigenden Warmluftblase ist der zusätzliche numerische Fehler durch die Verwendung der Adaptivität kleiner als 1% des gesamten numerischen Fehlers, wenn die adaptive Simulation mehr als 50% der Elemente einer uniformen hoch-aufgelösten Simulation verwendet. Entsprechend ist die adaptive Simulation fast doppelt so schnell wie die uniforme Simulation.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Zur Untersuchung von Effekten beim Laserheizen von Polymeren wurde ein Temperaturmessaufbau entwickelt. Das Messprinzip basiert auf der Auswertung der thermischen Emission. Der Messaufbau besteht aus einer hochauflösenden Kamera, ausgestattet mit Bildverstärker, sowie Interferenzfiltern um eine spektrale Auflösung zu gewährleisten und einem gepulster NIR-Heizlaser. Die Pulsdauer des Lasers liegt in der Größenordnung von 10 µs, der Strahldurchmesser durch entsprechende Fokussierung in der Größenordnung von 10 µm. Mittels Fit des Planck‘schen Strahlungsgesetzes an die aufgenommene thermische Emission konnten 2D Temperaturgraphen erhalten werden. Eine Ortsauflösung von 1 µm und eine Zeitauflösung von 1 µs konnten realisiert werden. In Kombination mit Finite-Elemente-Simulationen wurde mit diesem Aufbau die Laserablation verschiedener Polymere untersucht. Dabei hat sich gezeigt, dass bei Polymeren mit einem Glasübergang im Temperaturbereich zwischen Raum- und Zerfallstemperatur, photomechanische Ablation stattfand. Die Ablationsschwelle lag für diese Polymere mehrere 10 K über dem Glasübergang, weit unter der Zerfallstemperatur aus thermogravimetrischen Experimenten mit typischen Heizraten von 10 K/min. Bei hohen Laserenergien und damit verbundenen hohen Temperaturen konnte dagegen thermischer Zerfall beobachtet werden. Ein Übergang des Mechanismus von photomechanischer Ablation zu Ablation durch thermischen Zerfall ergab sich bei Temperaturen deutlich über der Zerfallstemperatur des Polymers aus der Thermogravimetrie. Dies wurde bedingt durch die kurzen Reaktionszeiten des Laserexperiments in der Größenordnung der Pulsdauer und steht im Einklang mit dem Gesetz von Arrhenius. Polymere ohne Glasübergang im Heizbereich zeigten dagegen keine photomechanische Ablation, sondern ausschließlich thermischen Zerfall. Die Ablationsschwelle lag auch hier bei höheren Temperaturen, entsprechend dem Gesetz von Arrhenius. Hohe Temperaturen, mehrere 100 K über der Zerfallstemperatur, ergaben sich darüber hinaus bei hohen Laserenergien. Ein drastisches Überhitzen des Polymers, wie in der Literatur beschrieben, konnte nicht beobachtet werden. Experimentelle Befunde deuten vielmehr darauf hin, dass es sich bei dem heißen Material um thermische Zerfallsprodukte, Polymerfragmente, Monomer und Zerfallsprodukte des Monomers handelte bzw. das Temperaturprofil der Zerfallsreaktion selbst visualisiert wurde.