319 resultados para Überblick
Resumo:
We are currently at the cusp of a revolution in quantum technology that relies not just on the passive use of quantum effects, but on their active control. At the forefront of this revolution is the implementation of a quantum computer. Encoding information in quantum states as “qubits” allows to use entanglement and quantum superposition to perform calculations that are infeasible on classical computers. The fundamental challenge in the realization of quantum computers is to avoid decoherence – the loss of quantum properties – due to unwanted interaction with the environment. This thesis addresses the problem of implementing entangling two-qubit quantum gates that are robust with respect to both decoherence and classical noise. It covers three aspects: the use of efficient numerical tools for the simulation and optimal control of open and closed quantum systems, the role of advanced optimization functionals in facilitating robustness, and the application of these techniques to two of the leading implementations of quantum computation, trapped atoms and superconducting circuits. After a review of the theoretical and numerical foundations, the central part of the thesis starts with the idea of using ensemble optimization to achieve robustness with respect to both classical fluctuations in the system parameters, and decoherence. For the example of a controlled phasegate implemented with trapped Rydberg atoms, this approach is demonstrated to yield a gate that is at least one order of magnitude more robust than the best known analytic scheme. Moreover this robustness is maintained even for gate durations significantly shorter than those obtained in the analytic scheme. Superconducting circuits are a particularly promising architecture for the implementation of a quantum computer. Their flexibility is demonstrated by performing optimizations for both diagonal and non-diagonal quantum gates. In order to achieve robustness with respect to decoherence, it is essential to implement quantum gates in the shortest possible amount of time. This may be facilitated by using an optimization functional that targets an arbitrary perfect entangler, based on a geometric theory of two-qubit gates. For the example of superconducting qubits, it is shown that this approach leads to significantly shorter gate durations, higher fidelities, and faster convergence than the optimization towards specific two-qubit gates. Performing optimization in Liouville space in order to properly take into account decoherence poses significant numerical challenges, as the dimension scales quadratically compared to Hilbert space. However, it can be shown that for a unitary target, the optimization only requires propagation of at most three states, instead of a full basis of Liouville space. Both for the example of trapped Rydberg atoms, and for superconducting qubits, the successful optimization of quantum gates is demonstrated, at a significantly reduced numerical cost than was previously thought possible. Together, the results of this thesis point towards a comprehensive framework for the optimization of robust quantum gates, paving the way for the future realization of quantum computers.
Resumo:
In the past decades since Schumpeter’s influential writings economists have pursued research to examine the role of innovation in certain industries on firm as well as on industry level. Researchers describe innovations as the main trigger of industry dynamics, while policy makers argue that research and education are directly linked to economic growth and welfare. Thus, research and education are an important objective of public policy. Firms and public research are regarded as the main actors which are relevant for the creation of new knowledge. This knowledge is finally brought to the market through innovations. What is more, policy makers support innovations. Both actors, i.e. policy makers and researchers, agree that innovation plays a central role but researchers still neglect the role that public policy plays in the field of industrial dynamics. Therefore, the main objective of this work is to learn more about the interdependencies of innovation, policy and public research in industrial dynamics. The overarching research question of this dissertation asks whether it is possible to analyze patterns of industry evolution – from evolution to co-evolution – based on empirical studies of the role of innovation, policy and public research in industrial dynamics. This work starts with a hypothesis-based investigation of traditional approaches of industrial dynamics. Namely, the testing of a basic assumption of the core models of industrial dynamics and the analysis of the evolutionary patterns – though with an industry which is driven by public policy as example. Subsequently it moves to a more explorative approach, investigating co-evolutionary processes. The underlying questions of the research include the following: Do large firms have an advantage because of their size which is attributable to cost spreading? Do firms that plan to grow have more innovations? What role does public policy play for the evolutionary patterns of an industry? Are the same evolutionary patterns observable as those described in the ILC theories? And is it possible to observe regional co-evolutionary processes of science, innovation and industry evolution? Based on two different empirical contexts – namely the laser and the photovoltaic industry – this dissertation tries to answer these questions and combines an evolutionary approach with a co-evolutionary approach. The first chapter starts with an introduction of the topic and the fields this dissertation is based on. The second chapter provides a new test of the Cohen and Klepper (1996) model of cost spreading, which explains the relationship between innovation, firm size and R&D, at the example of the photovoltaic industry in Germany. First, it is analyzed whether the cost spreading mechanism serves as an explanation for size advantages in this industry. This is related to the assumption that the incentives to invest in R&D increase with the ex-ante output. Furthermore, it is investigated whether firms that plan to grow will have more innovative activities. The results indicate that cost spreading serves as an explanation for size advantages in this industry and, furthermore, growth plans lead to higher amount of innovative activities. What is more, the role public policy plays for industry evolution is not finally analyzed in the field of industrial dynamics. In the case of Germany, the introduction of demand inducing policy instruments stimulated market and industry growth. While this policy immediately accelerated market volume, the effect on industry evolution is more ambiguous. Thus, chapter three analyzes this relationship by considering a model of industry evolution, where demand-inducing policies will be discussed as a possible trigger of development. The findings suggest that these instruments can take the same effect as a technical advance to foster the growth of an industry and its shakeout. The fourth chapter explores the regional co-evolution of firm population size, private-sector patenting and public research in the empirical context of German laser research and manufacturing over more than 40 years from the emergence of the industry to the mid-2000s. The qualitative as well as quantitative evidence is suggestive of a co-evolutionary process of mutual interdependence rather than a unidirectional effect of public research on private-sector activities. Chapter five concludes with a summary, the contribution of this work as well as the implications and an outlook of further possible research.
Resumo:
Wenn sich in einem wichtigen Bereich der Elektrotechnik ein neues Halbleitermaterial zu etablieren beginnt, weckt dies einerseits Erwartungen der Wirtschaft und Industrie, andererseits kann es eine erhebliche Herausforderung für die Hersteller bedeuten. Nachdem Gallium-Nitrid erstmalig vor 20 Jahren als Transistor verwendet wurde und seit über einer Dekade serienmäßig in der Hochfrequenztechnik eingesetzt wird, erobert es nun die Leistungselektronik. Die ausschlaggebenden Kriterien sind hier die Verwendbarkeit bei höheren Betriebstemperaturen, die Energieeffizienz und die Reduzierung von Größe und Gewicht durch den Betrieb bei höheren Schaltfrequenzen. Die vorliegende Arbeit basiert auf der Motivation zunächst einen möglichst breit angelegten Überblick des ständig wachsenden Angebotsspektrums zu geben, das mittlerweile durch die vielfältigen Varianten der verfügbaren Transistoren an Übersichtlichkeit etwas verloren hat. Nach einer ausführlichen Erläuterung der physikalischen und elektrischen Eigenschaften, werden die jeweiligen Typen in überschaubaren Abschnitten beschrieben und im Anschluss tabellarisch zusammengefasst. Die elektrischen Eigenschaften der hier ausgewählten EPC 2010 eGaN-HFETs (200 V Spannungsklasse) werden eingehend diskutiert. Das Schaltverhalten der eGaN-HFETs in einem Synchron-Tiefsetzsteller wird untersucht und modelliert. Eine Analyse aller in den GaN-FETs entstehenden Verlustleistungen wird durchgeführt. Zur Abschätzung der dynamischen Verlustleistungen wird eine analytische Methode umgesetzt und weiter entwickelt. Um die Vorteile der erhöhten Schaltfrequenzen nutzen zu können, erfolgt eine sehr ausführliche Betrachtung der notwendigen magnetischen Komponenten, deren Auswahl- und Verwendungskriterien im Detail untersucht, evaluiert und aufgegliedert werden. Diese werden im praktischen Teil ausgiebig in Verbindung mit den GaN-Transistoren ausgesucht und messtechnisch bewertet. Theoretische Betrachtungen hinsichtlich der Grenzen, die magnetische Bauelemente schnell schaltenden Halbleitern auferlegen, werden durchgeführt. Da die untersuchten Niedervolt-GaN-HFETs quasi kein Gehäuse haben, ist eine korrekte Strommessung nicht realisierbar. Am praktischen Beispiel eines Synchron-Tiefsetzstellers werden zwei experimentelle Methoden entwickelt, mit deren Hilfe die Verlustleistungen in den EPC 2010 eGaN-HFETs ermittelt werden. Anschließend wird das Verbesserungspotential der GaN-Leistungstransistoren erläutert sowie deren Anwendungsbereiche diskutiert.
Resumo:
Ziel der Arbeit ist die Entwicklung eines allgemeingültigen, im mittleren Maßstabsbereich durchgeführten, GIS-Bewertungsverfahrens zur Ermittlung der Grundwasserneubildungsrate unter Berücksichtigung einer langzeitlichen Landnutzungsänderung sowie die Darstellung eines Szenarios zur Grundwassergefährdungsabschätzung für ausgewählte rüstungsspezifi-sche organische Verbindungen. Das Untersuchungsgebiet befindet sich in einem während der beiden Weltkriege stark militär- und rüstungstechnisch genutzten Raum. Die Beurtei-lungsszenarien der Grundwassergefährdung erfolgen rein qualitativ.Die Abhängigkeit der Grundwasserneubildungsrate von der Landnutzungsänderung ist deut-lich zu erkennen. Mit zunehmender Flächenversiegelung, einher gehend mit veränderten Sickerwasserraten und des oberflächennahen Abflusses, reduziert sich die Grundwasser-neubildungsrate deutlich. Die Abschätzung der Grundwassergefährdung für die sprengstofftypischen Verbindungen erfolgt im ersten Schritt emissionsbezogen für die ungesättigte Zone unter Berücksichtigung der Standort- und Bodeneigenschaften und der physikalisch-chemischen Stoffeigenschaften. Im zweiten Schritt erfolgt eine immissionsbezogene Betrachtung der potenziellen Belastun-gen von Trinkwasserbrunnen.Trotz starker Generalisierungseffekte bietet dieser stoffspezifische Bewertungsansatz in Verbindung mit physikalischen Methoden für organische Verbindungen einen guten ersten Überblick über eine potenzielle Gefährdungen des Grundwassers. Die Datenbestände der entwickelten GIS-Anwendung sind leicht erweiterbar, so dass eine Abschätzung der potenzi-ellen Gefährdung auch für andere organische Stoffgruppen sowie auch eine Übertragung auf andere Untersuchungsgebiete möglich ist.
Resumo:
The thesis deals with the modularity conjecture for three-dimensional Calabi-Yau varieties. This is a generalization of the work of A. Wiles and others on modularity of elliptic curves. Modularity connects the number of points on varieties with coefficients of certain modular forms. In chapter 1 we collect the basics on arithmetic on Calabi-Yau manifolds, including general modularity results and strategies for modularity proofs. In chapters 2, 3, 4 and 5 we investigate examples of modular Calabi-Yau threefolds, including all examples occurring in the literature and many new ones. Double octics, i.e. Double coverings of projective 3-space branched along an octic surface, are studied in detail. In chapter 6 we deal with examples connected with the same modular forms. According to the Tate conjecture there should be correspondences between them. Many correspondences are constructed explicitly. We finish by formulating conjectures on the occurring newforms, especially their levels. In the appendices we compile tables of coefficients of weight 2 and weight 4 newforms and many examples of double octics.
Resumo:
The present thesis is concerned with the study of a quantum physical system composed of a small particle system (such as a spin chain) and several quantized massless boson fields (as photon gasses or phonon fields) at positive temperature. The setup serves as a simplified model for matter in interaction with thermal "radiation" from different sources. Hereby, questions concerning the dynamical and thermodynamic properties of particle-boson configurations far from thermal equilibrium are in the center of interest. We study a specific situation where the particle system is brought in contact with the boson systems (occasionally referred to as heat reservoirs) where the reservoirs are prepared close to thermal equilibrium states, each at a different temperature. We analyze the interacting time evolution of such an initial configuration and we show thermal relaxation of the system into a stationary state, i.e., we prove the existence of a time invariant state which is the unique limit state of the considered initial configurations evolving in time. As long as the reservoirs have been prepared at different temperatures, this stationary state features thermodynamic characteristics as stationary energy fluxes and a positive entropy production rate which distinguishes it from being a thermal equilibrium at any temperature. Therefore, we refer to it as non-equilibrium stationary state or simply NESS. The physical setup is phrased mathematically in the language of C*-algebras. The thesis gives an extended review of the application of operator algebraic theories to quantum statistical mechanics and introduces in detail the mathematical objects to describe matter in interaction with radiation. The C*-theory is adapted to the concrete setup. The algebraic description of the system is lifted into a Hilbert space framework. The appropriate Hilbert space representation is given by a bosonic Fock space over a suitable L2-space. The first part of the present work is concluded by the derivation of a spectral theory which connects the dynamical and thermodynamic features with spectral properties of a suitable generator, say K, of the time evolution in this Hilbert space setting. That way, the question about thermal relaxation becomes a spectral problem. The operator K is of Pauli-Fierz type. The spectral analysis of the generator K follows. This task is the core part of the work and it employs various kinds of functional analytic techniques. The operator K results from a perturbation of an operator L0 which describes the non-interacting particle-boson system. All spectral considerations are done in a perturbative regime, i.e., we assume that the strength of the coupling is sufficiently small. The extraction of dynamical features of the system from properties of K requires, in particular, the knowledge about the spectrum of K in the nearest vicinity of eigenvalues of the unperturbed operator L0. Since convergent Neumann series expansions only qualify to study the perturbed spectrum in the neighborhood of the unperturbed one on a scale of order of the coupling strength we need to apply a more refined tool, the Feshbach map. This technique allows the analysis of the spectrum on a smaller scale by transferring the analysis to a spectral subspace. The need of spectral information on arbitrary scales requires an iteration of the Feshbach map. This procedure leads to an operator-theoretic renormalization group. The reader is introduced to the Feshbach technique and the renormalization procedure based on it is discussed in full detail. Further, it is explained how the spectral information is extracted from the renormalization group flow. The present dissertation is an extension of two kinds of a recent research contribution by Jakšić and Pillet to a similar physical setup. Firstly, we consider the more delicate situation of bosonic heat reservoirs instead of fermionic ones, and secondly, the system can be studied uniformly for small reservoir temperatures. The adaption of the Feshbach map-based renormalization procedure by Bach, Chen, Fröhlich, and Sigal to concrete spectral problems in quantum statistical mechanics is a further novelty of this work.
Resumo:
1. Teil: Bekannte Konstruktionen. Die vorliegende Arbeit gibt zunächst einen ausführlichen Überblick über die bisherigen Entwicklungen auf dem klassischen Gebiet der Hyperflächen mit vielen Singularitäten. Die maximale Anzahl mu^n(d) von Singularitäten auf einer Hyperfläche vom Grad d im P^n(C) ist nur in sehr wenigen Fällen bekannt, im P^3(C) beispielsweise nur für d<=6. Abgesehen von solchen Ausnahmen existieren nur obere und untere Schranken. 2. Teil: Neue Konstruktionen. Für kleine Grade d ist es oft möglich, bessere Resultate zu erhalten als jene, die durch allgemeine Schranken gegeben sind. In dieser Arbeit beschreiben wir einige algorithmische Ansätze hierfür, von denen einer Computer Algebra in Charakteristik 0 benutzt. Unsere anderen algorithmischen Methoden basieren auf einer Suche über endlichen Körpern. Das Liften der so experimentell gefundenen Hyperflächen durch Ausnutzung ihrer Geometrie oder Arithmetik liefert beispielsweise eine Fläche vom Grad 7 mit $99$ reellen gewöhnlichen Doppelpunkten und eine Fläche vom Grad 9 mit 226 gewöhnlichen Doppelpunkten. Diese Konstruktionen liefern die ersten unteren Schranken für mu^3(d) für ungeraden Grad d>5, die die allgemeine Schranke übertreffen. Unser Algorithmus hat außerdem das Potential, auf viele weitere Probleme der algebraischen Geometrie angewendet zu werden. Neben diesen algorithmischen Methoden beschreiben wir eine Konstruktion von Hyperflächen vom Grad d im P^n mit vielen A_j-Singularitäten, j>=2. Diese Beispiele, deren Existenz wir mit Hilfe der Theorie der Dessins d'Enfants beweisen, übertreffen die bekannten unteren Schranken in den meisten Fällen und ergeben insbesondere neue asymptotische untere Schranken für j>=2, n>=3. 3. Teil: Visualisierung. Wir beschließen unsere Arbeit mit einer Anwendung unserer neuen Visualisierungs-Software surfex, die die Stärken mehrerer existierender Programme bündelt, auf die Konstruktion affiner Gleichungen aller 45 topologischen Typen reeller kubischer Flächen.
Resumo:
X-ray laser fluorescence spectroscopy of the 2s-2p transition in Li-like ions is promising to become a widely applicable tool to provide information on the nuclear charge radii of stable and radioactive isotopes. For performing such experiments at the Experimental Storage Ring ESR, and the future NESR within the FAIR Project, a grazing incidence pumped (GRIP) x-ray laser (XRL) was set up at GSI Darmstadt using PHELIX (Petawatt High Energy Laser for heavy Ions eXperiments). The experiments demonstrated that lasing using the GRIP geometry could be achieved with relatively low pump energy, a prerequisite for higher repetition rate. In the first chapter the need of a plasma XRL is motivated and a short history of the plasma XRL is presented. The distinctive characteristic of the GRIP method is the controlled deposition of the pump laser energy into the desired plasma density region. While up to now the analysis performed were mostly concerned with the plasma density at the turning point of the main pump pulse, in this thesis it is demonstrated that also the energy deposition is significantly modified for the GRIP method, being sensitive in different ways to a large number of parameters. In the second chapter, the theoretical description of the plasma evolution, active medium and XRL emission properties are reviewed. In addition an innovative analysis of the laser absorption in plasma which includes an inverse Bremsstrahlung (IB) correction factor is presented. The third chapter gives an overview of the experimental set-up and diagnostics, providing an analytical formula for the average and instantaneous traveling wave speed generated with a tilted, on-axis spherical mirror, the only focusing system used up to now in GRIP XRL. The fourth chapter describes the experimental optimization and results. The emphasis is on the effect of the incidence angle of the main pump pulse on the absorption in plasma and on output and gain in different lasing lines. This is compared to the theoretical results for two different incidence angles. Significant corrections for the temperature evolution during the main pump pulse due to the incidence angle are demonstrated in comparison to a simple analytical model which does not take into account the pumping geometry. A much better agreement is reached by the model developed in this thesis. An interesting result is also the appearance of a central dip in the spatially resolved keV emission which was observed in the XRL experiments for the first time and correlates well with previous near field imaging and plasma density profile measurements. In the conclusion also an outlook to the generation of shorter wavelength XRL’s is given.
Resumo:
This dissertation presents for the first time a survey of bird pollinated (ornithophilous) Salvia species. Within the approximately 1000 species of the worldwide distributed genus roughly 20% (186 spp.) are bird pollinated. Excepting four species in the Old World (South Africa and Madagascar), ornithophilous species are restricted to the New World where they represent about one third of the species. They occur mainly in higher altitudes (1500-3000m) and usually grow as shrubs or perennial herbs (97%). The bilabiate to tubular flowers are often red (at least 49%), averaging 35mm (7-130mm) in length and produce a large to medium volume of nectar with rather low sugar concentration. Pollination by sunbirds and white-eyes is documented in a South African species, and that by hummingbirds in 16 species of the New World (USA, Mexico, Guatemala and Bolivia). Beside pollinator observations, the functionality of the staminal levers, the process of pollen transfer and the fitting between flowers and birds are tested by inserting museum skins and metal rods into fresh flowers. The most surprising result is the finding of two different main pollen transfer mechanisms. In at least 54% of the species an active staminal lever mechanism enables pollen deposition on the birds body. This is illustrated in detail in the South African S. lanceolata at which birds were observed to release the lever mechanism and became dusted with pollen. In contrast, the lever mechanism in about 35% of the New World species is reduced in different ways. Pollen transfer by inactive ‘levers’ is demonstrated in detail in S. haenkei in Bolivia, at which four pollinating hummingbird species could be observed. The tubular corolla forced the birds in a specific position, thereby causing pollen transfer from the exserted pollen-sacs to the birds body. With respect to the floral diversity and systematic affiliation of the species, parallel evolution of ornithophily and lever reduction is likely. Considering that bird pollinated species might have derived from bee pollinated species and that the staminal levers have become secondarily inactive, it is concluded that the shift in pollinators induced phenotypic changes even disabling such a sophisticated structure as the staminal lever mechanism.
Resumo:
In der Vergangenheit wurde die Wichtigkeit von Iodverbindungen im Bezug auf die Aerosolbildung in Küstennähe wiederholt bestätigt. Durch Photolyse von flüchtigen iodorganischen Verbindungen (VOIs) können in der Atmosphäre Iodatome gebildet werden. Diese hochreaktiven Radikale wiederum können mit Ozon und/oder OH-Radikalen reagieren. Es werden so unter anderem schwerflüchtige Iodoxide gebildet, die in die Partikelphase übergehen können. Um ein Verständnis für die Mechanismen und chemischen Reaktionen zu bekommen, die zur Bildung von iodhaltigen Aerosolpartikeln führen, müssen auch Vorläufersubstanzen qualitativ und quanitativ bestimmt werden. Ob diese Reaktionen und chemischen Verbindungen auch über dem offenen Ozean einen Beitrag zu Aerosolbildung und somit zur Beeinflussung des weltweitem Klimas leisten, soll in dem EU-Projekt MAP geklärt werden, diese Arbeit ist Teil dieses Projekts. Im Rahmen dieser Arbeit wurde eine Methode entwickelt, die es zum einen möglich macht, anorganisches Iod in Meerwasser zu bestimmen. Zum anderen sollte eine Methode entwickelt werden, um elementares Iod in der maritimen Atmosphäre zu bestimmen. Es wurde eine Derivatisierungsmethode entwickelt, die es möglich macht elementares Iod in Anwesenheit von Stärke, a-Cyclodextrin oder RAMEA zu derivatisieren. Die Derivatisierung erfolgt zu 4-Iodo-N,N-Dimethylanilin. Durch Extraktion wird der Analyt in die organische Phase überführt. Die Quantifizierung erfolgt anschließend über die Analyse mit GC/MS und externer Kalibrierung. Die absolute Nachweisgrenze für Iod in Wasser beträgt 0,57nmol, für Iodid 0,014nmol und für Iodat 0,115nmol. Die absoluten Nachweisgrenzen für Iod in Anwesenheit eines Absorptionsmittel betragen für Stärke 0,24nmol, für a-Cyclodextrin 0,9nmol und für RAMEA 0,35nmol. Die Analysenmethoden wurden zunächst im Labor entwickelt und anschließend zur Analyse von Realproben verwendet. An verschiedenen Orten wurden Meerwasserproben (auf der Celtic Explorer und in der Nähe der Mace Head Messstation) genommen und deren Iod-, Iodid- und Iodatgehalt bestimmt. Keine der Proben enthielt elementares Iod. Iodid konnte in allen Proben detektiert werden. In Proben, die auf dem offenen Ozean an Bord der Celtic Explorer genommen wurden variierte die Menge zwischen 12µg/L und 90µg/L. Auffällig war hierbei, dass die Proben, die in Küstennähe genommen wurden höhere Iodidkonzentrationen aufwiesen. Ein Einfluss der Küste und der dort vorhandenen Makroalgen ist sehr wahrscheinlich. Meerwasserproben, die in der Nähe der MHARS genommen wurden wiesen höhere Konzentrationen und einen größeren dynamischen Bereich der Iodidkonzentrationen auf. Die Konzentrationen variierten von 29µg/L bis 630 µg/L. Der Iodatgehalt der Meerwasserproben wurde ebenfalls bestimmt. 1µg/L bis 90µg/L Iodat konnte in den Proben vom offenen Ozean detektiert werden. Die Küstenproben wiesen mit 150µg/L bis 230µg/L deutlich höhere Iodatkonzentrationen auf. Es konnte kein Zusammenhang zwischen der Tageszeit und den Iodid- oder Iodatkonzentrationen gefunden werden. Es konnte ebenso kein Zusammenhang zwischen der Fluoreszenz des Meerwassers und den Iodid- oder Iodatkonzentrationen gefunden werden. Auf der Celtic Explorer, wie auch in Mace Head wurden außerdem beschichtete Denuder zur Anreicherung von elementarem Iod aus Luft eingesetzt. Die Denuder, die auf dem Schiff verwendet wurden waren mit Stärke bzw. mit a-CD beschichtet. Die mit Stärke beschichteten Denuder geben so einen Überblick über die Iodkonzentration in Luft über einen längeren Zeitraum (ca. 2-3h), während die mit Cyclodextrin beschichteten Denuder die Iodkonzentration in der letzten halben Stunde der Probennahme widerspiegeln. In fast allen Denudern, die mit Stärke beschichtet waren, konnte mehr Iod nachgewiesen werden, als in denen, die mit a-CD beschichtet waren. Im Allgemeinen konnten in den Proben höhere Iodkonzentrationen gefunden werden, die nachts genommen wurden. Der Grund hierfür liegt in der sehr hohen Photolyserate des elementaren Iods während des Tages. Ein Zusammenhang zwischen der Konzentration von VOIs und dem Iodgehalt konnte nicht gefunden werden. Anhand der genommen Denuderproben von Mace Head konnte festgestellt werden, dass die Iodkonzentration in Denudern, deren Probenahme während Ebbe beendet wurde hoch deutlich höher sind, als die in anderen Denudern. Das lässt sich dadurch erklären, dass Makroalgen während Ebbe in direktem Kontakt zur Luft sind und somit mehr Iod in der Luft zu finden ist. Eine wichtige Frage, die im Zusammenhang mit der Iodchemie in maritimer Umgebung steht konnte im Rahmen dieser Arbeit geklärt werden. In der maritimen Grenzschicht über dem Nordatlantik konnte elementares Iod detektiert werden, d.h. es deutet sich an, dass Iod auch auf dem offenen Ozean einen Beitrag zur Partikelbildung liefern kann und es sich nicht ausschließlich um einen Küsteneffekt handelt.
Resumo:
Im ersten Teil der Dissertation wurde in einem experimentellen Asthmamodell demonstriert, dass die Signaltransduktion über IL-6 das Gleichgewicht zwischen Effektorzellen und regulatorischen T-Zellen durch verschiedene Rezeptorkomponenten kontrolliert. Hierbei zeigte sich, dass speziell das IL-6 Trans-Signaling über den sIL-6R die TH2 Cytokinproduktion steuert. Dagegen führt die Blockade des mIL-6R zur Expansion regulatorischer T-Zellen mit suppressiven Eigenschaften. Diese CD4+CD25+ Tregs induzieren außerdem IFN gamma produzierende CD4+ T-Zellen in der Lunge und verbessern daneben die AHR. Im Überblick konnte in der vorliegenden Dissertation demonstriert werden, dass IL-6 die Balance zwischen der Funktion von Effektorzellen und regulatorischen T-Zellen in der Lunge über unterschiedliche Wege kontrolliert, dem sIL-6R und dem mIL-6R. Im zweiten Teil der Arbeit wurde die lokale Blockade der IL-2R alpha- und IL-2R beta-Kette untersucht. Hier konnte gezeigt werden, dass die Blockade der IL-2R beta-Kette zur Verbesserung der AHR als auch der Rekrutierung eosinophiler Granulozyten in den Atemwegen führt. Beide Blockaden führen zur Reduktion der TH2 Cytokine IL-4 und IL-5, wohingegen IL-13 nur nach Blockade der IL-2R beta-Kette vermindert sezerniert wird. In diesem Zusammenhang wurde auch die Rolle CD4+CD25+ regulatorischer T-Zellen untersucht, wobei eine Induktion dieser Population in den Lymphknoten nach Blockade der IL-2R beta-Kette nachgewiesen werden konnte. Die Blockade der IL-2R beta-Kette wirkt sich positiv auf experimentelle Asthmastudien aus und stellt somit ein mögliches therapeutisches Potential dar, erfordert aber teilweise noch weitere Untersuchungen.
Resumo:
In this thesis a mathematical model was derived that describes the charge and energy transport in semiconductor devices like transistors. Moreover, numerical simulations of these physical processes are performed. In order to accomplish this, methods of theoretical physics, functional analysis, numerical mathematics and computer programming are applied. After an introduction to the status quo of semiconductor device simulation methods and a brief review of historical facts up to now, the attention is shifted to the construction of a model, which serves as the basis of the subsequent derivations in the thesis. Thereby the starting point is an important equation of the theory of dilute gases. From this equation the model equations are derived and specified by means of a series expansion method. This is done in a multi-stage derivation process, which is mainly taken from a scientific paper and which does not constitute the focus of this thesis. In the following phase we specify the mathematical setting and make precise the model assumptions. Thereby we make use of methods of functional analysis. Since the equations we deal with are coupled, we are concerned with a nonstandard problem. In contrary, the theory of scalar elliptic equations is established meanwhile. Subsequently, we are preoccupied with the numerical discretization of the equations. A special finite-element method is used for the discretization. This special approach has to be done in order to make the numerical results appropriate for practical application. By a series of transformations from the discrete model we derive a system of algebraic equations that are eligible for numerical evaluation. Using self-made computer programs we solve the equations to get approximate solutions. These programs are based on new and specialized iteration procedures that are developed and thoroughly tested within the frame of this research work. Due to their importance and their novel status, they are explained and demonstrated in detail. We compare these new iterations with a standard method that is complemented by a feature to fit in the current context. A further innovation is the computation of solutions in three-dimensional domains, which are still rare. Special attention is paid to applicability of the 3D simulation tools. The programs are designed to have justifiable working complexity. The simulation results of some models of contemporary semiconductor devices are shown and detailed comments on the results are given. Eventually, we make a prospect on future development and enhancements of the models and of the algorithms that we used.
Resumo:
In den letzten drei Jahrzehnten sind Fernerkundung und GIS in den Geowissenschaften zunehmend wichtiger geworden, um die konventionellen Methoden von Datensammlung und zur Herstellung von Landkarten zu verbessern. Die vorliegende Arbeit befasst sich mit der Anwendung von Fernerkundung und geographischen Informationssystemen (GIS) für geomorphologische Untersuchungen. Durch die Kombination beider Techniken ist es vor allem möglich geworden, geomorphologische Formen im Überblick und dennoch detailliert zu erfassen. Als Grundlagen werden in dieser Arbeit topographische und geologische Karten, Satellitenbilder und Klimadaten benutzt. Die Arbeit besteht aus 6 Kapiteln. Das erste Kapitel gibt einen allgemeinen Überblick über den Untersuchungsraum. Dieser umfasst folgende morphologische Einheiten, klimatischen Verhältnisse, insbesondere die Ariditätsindizes der Küsten- und Gebirgslandschaft sowie das Siedlungsmuster beschrieben. Kapitel 2 befasst sich mit der regionalen Geologie und Stratigraphie des Untersuchungsraumes. Es wird versucht, die Hauptformationen mit Hilfe von ETM-Satellitenbildern zu identifizieren. Angewandt werden hierzu folgende Methoden: Colour Band Composite, Image Rationing und die sog. überwachte Klassifikation. Kapitel 3 enthält eine Beschreibung der strukturell bedingten Oberflächenformen, um die Wechselwirkung zwischen Tektonik und geomorphologischen Prozessen aufzuklären. Es geht es um die vielfältigen Methoden, zum Beispiel das sog. Image Processing, um die im Gebirgskörper vorhandenen Lineamente einwandfrei zu deuten. Spezielle Filtermethoden werden angewandt, um die wichtigsten Lineamente zu kartieren. Kapitel 4 stellt den Versuch dar, mit Hilfe von aufbereiteten SRTM-Satellitenbildern eine automatisierte Erfassung des Gewässernetzes. Es wird ausführlich diskutiert, inwieweit bei diesen Arbeitsschritten die Qualität kleinmaßstäbiger SRTM-Satellitenbilder mit großmaßstäbigen topographischen Karten vergleichbar ist. Weiterhin werden hydrologische Parameter über eine qualitative und quantitative Analyse des Abflussregimes einzelner Wadis erfasst. Der Ursprung von Entwässerungssystemen wird auf der Basis geomorphologischer und geologischer Befunde interpretiert. Kapitel 5 befasst sich mit der Abschätzung der Gefahr episodischer Wadifluten. Die Wahrscheinlichkeit ihres jährlichen Auftretens bzw. des Auftretens starker Fluten im Abstand mehrerer Jahre wird in einer historischen Betrachtung bis 1921 zurückverfolgt. Die Bedeutung von Regentiefs, die sich über dem Roten Meer entwickeln, und die für eine Abflussbildung in Frage kommen, wird mit Hilfe der IDW-Methode (Inverse Distance Weighted) untersucht. Betrachtet werden außerdem weitere, regenbringende Wetterlagen mit Hilfe von Meteosat Infrarotbildern. Genauer betrachtet wird die Periode 1990-1997, in der kräftige, Wadifluten auslösende Regenfälle auftraten. Flutereignisse und Fluthöhe werden anhand von hydrographischen Daten (Pegelmessungen) ermittelt. Auch die Landnutzung und Siedlungsstruktur im Einzugsgebiet eines Wadis wird berücksichtigt. In Kapitel 6 geht es um die unterschiedlichen Küstenformen auf der Westseite des Roten Meeres zum Beispiel die Erosionsformen, Aufbauformen, untergetauchte Formen. Im abschließenden Teil geht es um die Stratigraphie und zeitliche Zuordnung von submarinen Terrassen auf Korallenriffen sowie den Vergleich mit anderen solcher Terrassen an der ägyptischen Rotmeerküste westlich und östlich der Sinai-Halbinsel.
Resumo:
Die Marantaceae (550 Arten) sind eine weltweit verbreitete Familie von Stauden und Lianen aus dem Unterwuchs tropischer Tieflandregenwälder. Der morphologisch-ökologische Vergleich des basal abzweigenden Sarcophrynium-Astes mit dem in abgeleiteter Position stehenden Marantochloa-Ast, soll beispielhaft evolutionäre Muster in der Familie beleuchten. So wird in der Doktorarbeit zum ersten Mal ein Überblick über die Blütenbiologie und Phylogenie von rund 30 der 40 afrikanischen Marantaceae Arten präsentiert. Die Analysen basieren auf Daten von drei mehrmonatigen Feldaufenthalten in Gabun jeweils zwischen September und Januar. Vier Blütentypen werden beschrieben, die jeweils mit einer spezifischen Bestäubergilde verbunden sind (kleine, mittlere, große Bienen bzw. Vögel). Bestäubungsexperimente belegen, dass 18 Arten selbstkompatibel, aber nur zwei Arten autogam sind, also keine Bestäubungsvermittler benötigen. Der Fruchtansatz ist generell gering (10 -30 %). Die komplexe Synorganisation der Blüte ermöglicht in den Marantaceae einen explosiven Bestäubungsmechanismus. Um dessen ökologische Funktionalität zu verstehen, werden die Blüten von 66 Arten, alle wichtigen Äste der Marantaceae abdeckend, unter einem morphologisch-funktionalen Gesichtspunkt untersucht. Es gibt große Übereinstimmungen zwischen allen untersuchten Arten im Zusammenspiel (Synorganisation) der wichtigsten Bauelemente (Griffel, Kapuzenblatt, Schwielenblatt), die eine präzise Pollenübertragung ermöglichen. Basierend auf Daten von nrDNA (ITS, 5S) und cpDNA (trnL-F) wird für ein nahezu komplettes Artenspektrum die Phylogenie der zwei afrikanischen Äste erstellt. Hierauf werden morphologische und ökologische Merkmale sowie geographischer Verbreitungsmuster nach dem Parsimonieprinzip rekonstruiert, um so deren evolutionäre Bedeutung für die Marantaceae abschätzen zu können. Die Ergebnisse weisen auf die Beteiligung einer Vielzahl verschiedener Artbildungsfaktoren hin.
Resumo:
Except the article forming the main content most HTML documents on the WWW contain additional contents such as navigation menus, design elements or commercial banners. In the context of several applications it is necessary to draw the distinction between main and additional content automatically. Content extraction and template detection are the two approaches to solve this task. This thesis gives an extensive overview of existing algorithms from both areas. It contributes an objective way to measure and evaluate the performance of content extraction algorithms under different aspects. These evaluation measures allow to draw the first objective comparison of existing extraction solutions. The newly introduced content code blurring algorithm overcomes several drawbacks of previous approaches and proves to be the best content extraction algorithm at the moment. An analysis of methods to cluster web documents according to their underlying templates is the third major contribution of this thesis. In combination with a localised crawling process this clustering analysis can be used to automatically create sets of training documents for template detection algorithms. As the whole process can be automated it allows to perform template detection on a single document, thereby combining the advantages of single and multi document algorithms.