41 resultados para Abweichung


Relevância:

10.00% 10.00%

Publicador:

Resumo:

In der hier vorliegenden Arbeit wurde am Beispiel der Kraut- und Knollenfäule an Kartoffeln Phytophthora infestans und des Kartoffelkäfers Leptinotarsa decemlineata untersucht, ob durch den Einsatz von Geographischen Informationssystemen (GIS) landwirtschaftliche Schader¬reger¬prognosen für jeden beliebigen Kartoffelschlag in Deutschland erstellt werden können. Um dieses Ziel zu erreichen, wurden die Eingangsparameter (Temperatur und relative Luftfeuchte) der Prognosemodelle für die beiden Schaderreger (SIMLEP1, SIMPHYT1, SIMPHYT3 and SIMBLIGHT1) so aufbereitet, dass Wetterdaten flächendeckend für Deutschland zur Verfügung standen. Bevor jedoch interpoliert werden konnte, wurde eine Regionalisierung von Deutschland in Interpolationszonen durchgeführt und somit Naturräume geschaffen, die einen Vergleich und eine Bewertung der in ihnen liegenden Wetterstationen zulassen. Hierzu wurden die Boden-Klima-Regionen von SCHULZKE und KAULE (2000) modifiziert, an das Wetterstationsnetz angepasst und mit 5 bis 10 km breiten Pufferzonen an der Grenze der Interpolationszonen versehen, um die Wetterstationen so häufig wie möglich verwenden zu können. Für die Interpolation der Wetterdaten wurde das Verfahren der multiplen Regression gewählt, weil dieses im Vergleich zu anderen Verfahren die geringsten Abweichungen zwischen interpolierten und gemessenen Daten aufwies und den technischen Anforderungen am besten entsprach. Für 99 % aller Werte konnten bei der Temperaturberechnung Abweichungen in einem Bereich zwischen -2,5 und 2,5 °C erzielt werden. Bei der Berechnung der relativen Luftfeuchte wurden Abweichungen zwischen -12 und 10 % relativer Luftfeuchte erreicht. Die Mittelwerte der Abweichungen lagen bei der Temperatur bei 0,1 °C und bei der relativen Luftfeuchte bei -1,8 %. Zur Überprüfung der Trefferquoten der Modelle beim Betrieb mit interpolierten Wetterdaten wurden Felderhebungsdaten aus den Jahren 2000 bis 2007 zum Erstauftreten der Kraut- und Knollenfäule sowie des Kartoffelkäfers verwendet. Dabei konnten mit interpolierten Wetterdaten die gleichen und auch höhere Trefferquoten erreicht werden, als mit der bisherigen Berechnungsmethode. Beispielsweise erzielte die Berechnung des Erstauftretens von P. infestans durch das Modell SIMBLIGHT1 mit interpolierten Wetterdaten im Schnitt drei Tage geringere Abweichungen im Vergleich zu den Berechnungen ohne GIS. Um die Auswirkungen interpretieren zu können, die durch Abweichungen der Temperatur und der relativen Luftfeuchte entstanden wurde zusätzlich eine Sensitivitätsanalyse zur Temperatur und relativen Luftfeuchte der verwendeten Prognosemodelle durchgeführt. Die Temperatur hatte bei allen Modellen nur einen geringen Einfluss auf das Prognoseergebnis. Veränderungen der relativen Luftfeuchte haben sich dagegen deutlich stärker ausgewirkt. So lag bei SIMBLIGHT1 die Abweichung durch eine stündliche Veränderung der relativen Luftfeuchte (± 6 %) bei maximal 27 Tagen, wogegen stündliche Veränderungen der Temperatur (± 2 °C) eine Abweichung von maximal 10 Tagen ausmachten. Die Ergebnisse dieser Arbeit zeigen, dass durch die Verwendung von GIS mindestens die gleichen und auch höhere Trefferquoten bei Schaderregerprognosen erzielt werden als mit der bisherigen Verwendung von Daten einer nahegelegenen Wetterstation. Die Ergebnisse stellen einen wesentlichen Fortschritt für die landwirtschaftlichen Schaderregerprognosen dar. Erstmals ist es möglich, bundesweite Prognosen für jeden beliebigen Kartoffelschlag zur Bekämpfung von Schädlingen in der Landwirtschaft bereit zu stellen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Eine neue auf einer Pyruvat abhängigen Biolumineszenzreaktion basierende Methode zur quantitativen Bestimmung und räumlichen Darstellung von Pyruvat in Gefrierschnitten von Gewebeproben wurde entwickelt. Dabei wurden biochemische Reaktionen so verknüpft, dass sichtbares Licht proportional zum eingesetzten Pyruvatgehalt entstand. Eine hoch signifikante positive Korrelation beider Parameter ermöglichte eine Kalibrierung mit definierten Pyruvatgehalten und damit die Quantifizierung in unbekannten Proben. Die Nachweisgrenze lag bei 0,04 pmol Pyruvat mit einer Auflösung von 0,02 µmol/g. Das Biolumineszenzverfahren wurde mit Hilfe anderer Methoden validiert, wobei eine Wiederfindung mit einer konzentrationsabhängigen Abweichung von ≤ 15 % erzielt wurde. Ein wesentlicher Vorteil der neuen Methode gegenüber bisherigen Verfahren zum Pyruvatnachweis liegt in der Messwerterfassung definierter histologischer Gewebsareale. Dies wird durch computergesteuerte Überlagerung von Metabolitverteilungen mit Schnittbildern aus Strukturfärbungen und interaktiver, „optischer Mikrodissektion“ der Gewebeschnitte möglich. Ein weiterer Nutzen der Methode ist deren optionale Kombination mit der Biolumineszenztechnik für andere Stoffwechselprodukte. So ermöglicht eine exakte Superposition zweier Metabolitbilder von unmittelbar aufeinander folgenden Gewebeschnitten eine korrelative Kolokalisationsanalyse beider Metabolite. Das Ergebnis lässt sich zum einen in Form von „Pixel-zu-Pixel“-Korrelationen dokumentieren, zum anderen kann für jeden Bildpunkt ein Laktat/Pyruvat-Verhältnis als Maß für den Redoxzustand des Gewebes berechnet und dargestellt werden. Hieraus ergeben sich z.B. räumliche L/P-Verteilungen (L/P-Karten). Ein solches „Redoximaging“ durch Kartierung des L/P-Quotienten ist bislang mit keinem anderen Verfahren möglich. Während die Entwicklung des Pyruvatnachweises eine Kernaufgabe der vorliegenden Arbeit darstellte, bestand ein weiterer wesentlicher Teil in der praktischen Anwendung der neuen Methode im Bereich der experimentellen Tumorforschung. So ergaben Messungen an acht verschiedenen Linien von humanen HNSCC-Xenotransplantaten (n = 70 Tumoren) einen mittleren Pyruvatgehalt von 1,24 ± 0,20 µmol/g. In sechs Humanbiopsien derselben Tumorentität wurde ein durchschnittlicher Pyruvatgehalt von 0,41 ± 0,09 µmol/g gemessen. Bei den Xenotransplantaten konnte eine signifikante positive Korrelation zwischen der Summe aus Laktat und Pyruvat bzw. dem L/P Verhältnis und der Strahlensensibilität gefunden werden, wobei das L/P-Verhältnis ebenso wie die Summe aus Laktat und Pyruvat maßgeblich von Laktat bestimmt wurden. Der Zusammenhang der Metabolite mit der Strahlensensibilität lässt sich durch deren antioxidative Eigenschaften erklären. Da der Redoxzustand der Zelle kritisch bezüglich der Effizienz von ROS induzierenden Therapieansätzen, wie z.B. Bestrahlung oder bestimmter Chemotherapeutika sein kann, könnte die Bestimmung des L/P Verhältnisses als prognostischer Faktor prädiktive Aussagen über die Sensibilität gegenüber solchen Behandlungen erlauben.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Coupled-cluster theory provides one of the most successful concepts in electronic-structure theory. This work covers the parallelization of coupled-cluster energies, gradients, and second derivatives and its application to selected large-scale chemical problems, beside the more practical aspects such as the publication and support of the quantum-chemistry package ACES II MAB and the design and development of a computational environment optimized for coupled-cluster calculations. The main objective of this thesis was to extend the range of applicability of coupled-cluster models to larger molecular systems and their properties and therefore to bring large-scale coupled-cluster calculations into day-to-day routine of computational chemistry. A straightforward strategy for the parallelization of CCSD and CCSD(T) energies, gradients, and second derivatives has been outlined and implemented for closed-shell and open-shell references. Starting from the highly efficient serial implementation of the ACES II MAB computer code an adaptation for affordable workstation clusters has been obtained by parallelizing the most time-consuming steps of the algorithms. Benchmark calculations for systems with up to 1300 basis functions and the presented applications show that the resulting algorithm for energies, gradients and second derivatives at the CCSD and CCSD(T) level of theory exhibits good scaling with the number of processors and substantially extends the range of applicability. Within the framework of the ’High accuracy Extrapolated Ab initio Thermochemistry’ (HEAT) protocols effects of increased basis-set size and higher excitations in the coupled- cluster expansion were investigated. The HEAT scheme was generalized for molecules containing second-row atoms in the case of vinyl chloride. This allowed the different experimental reported values to be discriminated. In the case of the benzene molecule it was shown that even for molecules of this size chemical accuracy can be achieved. Near-quantitative agreement with experiment (about 2 ppm deviation) for the prediction of fluorine-19 nuclear magnetic shielding constants can be achieved by employing the CCSD(T) model together with large basis sets at accurate equilibrium geometries if vibrational averaging and temperature corrections via second-order vibrational perturbation theory are considered. Applying a very similar level of theory for the calculation of the carbon-13 NMR chemical shifts of benzene resulted in quantitative agreement with experimental gas-phase data. The NMR chemical shift study for the bridgehead 1-adamantyl cation at the CCSD(T) level resolved earlier discrepancies of lower-level theoretical treatment. The equilibrium structure of diacetylene has been determined based on the combination of experimental rotational constants of thirteen isotopic species and zero-point vibrational corrections calculated at various quantum-chemical levels. These empirical equilibrium structures agree to within 0.1 pm irrespective of the theoretical level employed. High-level quantum-chemical calculations on the hyperfine structure parameters of the cyanopolyynes were found to be in excellent agreement with experiment. Finally, the theoretically most accurate determination of the molecular equilibrium structure of ferrocene to date is presented.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In dieser Arbeit werden Strukturen beschrieben, die mit Polymeren auf Oberflächen erzeugt wurden. Die Anwendungen reichen von PMMA und PNIPAM Polymerbürsten, über die Restrukturierung von Polystyrol durch Lösemittel bis zu 3D-Strukturen, die aus PAH/ PSS Polyelektrolytmultischichten bestehen. Im ersten Teil werden Polymethylmethacrylat (PMMA) Bürsten in der ionischen Flüssigkeit 1-Butyl-3-Methylimidazolium Hexafluorophospat ([Bmim][PF6]) durch kontrollierte radikalische Polymerisation (ATRP) hergestellt. Kinetische Untersuchungen zeigten ein lineares und dichtes Bürstenwachstum mit einer Wachstumsrate von 4600 g/mol pro nm. Die durchschnittliche Pfropfdichte betrug 0.36 µmol/m2. Als Anwendung wurden Mikrotropfen bestehend aus der ionischen Flüssigkeit, Dimethylformamid und dem ATRP-Katalysator benutzt, um in einer definierten Geometrie Polymerbürsten auf Silizium aufzubringen. Auf diese Weise lässt sich eine bis zu 13 nm dicke Beschichtung erzeugen. Dieses Konzept ist durch die Verdampfung des Monomers Methylmethacrylat (MMA) limitiert. Aus einem 1 µl großen Tropfen aus ionischer Flüssigkeit und MMA (1:1) verdampft MMA innerhalb von 100 s. Daher wurde das Monomer sequentiell zugegeben. Der zweite Teil konzentriert sich auf die Strukturierung von Oberflächen mit Hilfe einer neuen Methode: Tintendruck. Ein piezoelektrisch betriebenes „Drop-on-Demand“ Drucksystem wurde verwendet, um Polystyrol mit 0,4 nl Tropfen aus Toluol zu strukturieren. Die auf diese Art und Weise gebildeten Mikrokrater können Anwendung als Mikrolinsen finden. Die Brennweite der Mikrolinsen kann über die Anzahl an Tropfen, die für die Strukturierung verwendet werden, eingestellt werden. Theoretisch und experimentell wurde die Brennweite im Bereich von 4,5 mm bis 0,21 mm ermittelt. Der zweite Strukturierungsprozess nutzt die Polyelektrolyte Polyvinylamin-Hydrochlorid (PAH) und Polystyrolsulfonat (PSS), um 3D-Strukturen wie z.B. Linien, Schachbretter, Ringe, Stapel mit einer Schicht für Schicht Methode herzustellen. Die Schichtdicke für eine Doppelschicht (DS) liegt im Bereich von 0.6 bis 1.1 nm, wenn NaCl als Elektrolyt mit einer Konzentration von 0,5 mol/l eingesetzt wird. Die Breite der Strukturen beträgt im Mittel 230 µm. Der Prozess wurde erweitert, um Nanomechanische Cantilever Sensoren (NCS) zu beschichten. Auf einem Array bestehend aus acht Cantilevern wurden je zwei Cantilever mit fünf Doppelschichten PAH/ PSS und je zwei Cantilever mit zehn Doppelschichten PAH/ PSS schnell und reproduzierbar beschichtet. Die Massenänderung für die individuellen Cantilever war 0,55 ng für fünf Doppelschichten und 1,08 ng für zehn Doppelschichten. Der daraus resultierende Sensor wurde einer Umgebung mit definierter Luftfeuchtigkeit ausgesetzt. Die Cantilever verbiegen sich durch die Ausdehnung der Beschichtung, da Wasser in das Polymer diffundiert. Eine maximale Verbiegung von 442 nm bei 80% Luftfeuchtigkeit wurde für die mit zehn Doppelschichten beschichteten Cantilever gefunden. Dies entspricht einer Wasseraufnahme von 35%. Zusätzlich konnte aus den Verbiegungsdaten geschlossen werden, dass die Elastizität der Polyelektrolytmultischichten zunimmt, wenn das Polymer gequollen ist. Das thermische Verhalten in Wasser wurde im nächsten Teil an nanomechanischen Cantilever Sensoren, die mit Poly(N-isopropylacrylamid)bürsten (PNIPAM) und plasmapolymerisiertem N,N-Diethylacrylamid beschichtet waren, untersucht. Die Verbiegung des Cantilevers zeigte zwei Bereiche: Bei Temperaturen kleiner der niedrigsten kritischen Temperatur (LCST) ist die Verbiegung durch die Dehydration der Polymerschicht dominiert und bei Temperaturen größer der niedrigsten kritischen Temperatur (LCST) reagiert der Cantilever Sensor überwiegend auf Relaxationsprozesse innerhalb der kollabierten Polymerschicht. Es wurde gefunden, dass das Minimum in der differentiellen Verbiegung mit der niedrigsten kritischen Temperatur von 32°C und 44°C der ausgewählten Polymeren übereinstimmt. Im letzten Teil der Arbeit wurden µ-Reflektivitäts- und µ-GISAXS Experimente eingeführt als neue Methoden, um mikrostrukturierte Proben wie NCS oder PEM Linien mit Röntgenstreuung zu untersuchen. Die Dicke von jedem individuell mit PMMA Bürsten beschichtetem NCS ist im Bereich von 32,9 bis 35,2 nm, was mit Hilfe von µ-Reflektivitätsmessungen bestimmt wurde. Dieses Ergebnis kann mit abbildender Ellipsometrie als komplementäre Methode mit einer maximalen Abweichung von 7% bestätigt werden. Als zweites Beispiel wurde eine gedruckte Polyelektrolytmultischicht aus PAH/PSS untersucht. Die Herstellungsprozedur wurde so modifiziert, dass Goldnanopartikel in die Schichtstruktur eingebracht wurden. Durch Auswertung eines µ-GISAXS Experiments konnte der Einbau der Partikel identifiziert werden. Durch eine Anpassung mit einem Unified Fit Modell wurde herausgefunden, dass die Partikel nicht agglomeriert sind und von einer Polymermatrix umgeben sind.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Im Laufe der Evolution müssen Sauerstoff-metabolisierende Organismen eine Reihe von Anpassungen entwickelt haben, um in der zytotoxischen oxidativen Umgebung der sauerstoff-haltigen Erdatmosphäre überleben zu können. Die im Rahmen dieser Arbeit durchgeführten vergleichenden Analysen mitochondrial kodierter und kern-kodierter Proteome mehrerer hundert Spezies haben ergeben, dass die Evolution eines alternativen genetischen Codes in Mitochondrien eine moderne Adaptation in diesem Sinne war. Viele aerobe Tiere und Pilze dekodieren in Abweichung vom genetischen Standard-Code das Codon AUA als Methionin. In der vorliegenden Arbeit wird gezeigt, dass diese Spezies dadurch eine massive Akkumulation der sehr leicht oxidierbaren Aminosäure Methionin in ihren Atmungskettenkomplexen erreichen, die generell ein bevorzugtes Ziel reaktiver Sauerstoffspezies sind. Der gewonnene Befund lässt sich widerspruchsfrei nur unter Annahme einer antioxidativen Wirkung dieser Aminosäure erklären, wie sie erstmals 1996 von R. Levine anhand von Oxidationsmessungen in Modellproteinen postuliert worden war. In der vorliegenden Arbeit wird diese Hypothese nun direkt mittels neuartiger Modellsubstanzen in lebenden Zellen bestätigt. Die durchgeführten bioinformatischen Analysen und zellbiologischen Experimente belegen, dass kollektive Proteinveränderungen die Triebkraft für die Evolution abweichender genetischer Codes sein können.rnDie Bedeutung von oxidativem Stress wurde darüber hinaus auch im Referenzrahmen einer akuten oxidativen Schädigung im Einzelorganismus untersucht. Da oxidativer Stress in der Pathogenese altersassoziierter neurodegenerativer Erkrankungen wie der Alzheimerschen Krankheit prominent involviert zu sein scheint, wurden die Auswirkungungen von Umwelt-induziertem oxidativem Stress auf den histopathologischen Verlauf in einem transgenen Modell der Alzheimerschen Krankheit in vivo untersucht. Dabei wurden transgene Mäuse des Modells APP23 im Rahmen von Fütterungsversuchen einer lebenslangen Defizienz der Antioxidantien Selen oder Vitamin E ausgesetzt. Während die Selenoproteinexpression durch die selendefiziente Diät gewebespezifisch reduziert wurde, ergaben sich keine Anzeichen eines beschleunigten Auftretens pathologischer Marker wie amyloider Plaques oder Neurodegeneration. Es war vielmehr ein unerwarteter Trend hinsichtlich einer geringeren Plaquebelastung in Vitamin E-defizienten Alzheimermäusen zu erkennen. Auch wenn diese Daten aufgrund einer geringen Versuchstiergruppengröße nur mit Vorsicht interpretiert werden dürfen, so scheint doch ein Mangel an essentiellen antioxidativen Nährstoffen die Progression in einem anerkannten Alzheimermodell nicht negativ zu beeinflussen.rn

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Beständig werden Spurenstoffe in die Atmosphäre emittiert, die ihren Ursprung in biogenen oder anthropogenen Quellen haben. Daß es dennoch im allgemeinen nicht zu einer Anreicherung bis hin zu toxischen Konzentrationen kommt, liegt an dem Vermögen der Atmosphäre sich durch Oxidationsprozesse selbst zu reinigen. Eine wichtige Aufgabe kommt dabei dem Hydroxylradikal OH zu, welches tagsüber die Oxidationskapazität der Atmosphäre bestimmt. Hierbei spielen die tropischen Regionen mit einer der höchsten OH-Produktionsraten eine zentrale Rolle. Gleichzeitig sind die tropischen Regenwälder eine bedeutende globale Quelle für Kohlenwasserstoffe, die durch Reaktion mit OH-Radikalen dessen Konzentration und damit die Oxidationskapazität der Atmosphäre herabsetzen. Während der GABRIEL-Meßkampagne 2005 im äquatorialen Südamerika wurde der Einfluß der Regenwaldemissionen auf das HOx-Budget (HOx = OH+HO2) untersucht. Zu diesem Zweck wurde das Radikalmeßinstrument HORUS entwickelt. Im Rahmen dieser Arbeit wurden unterschiedliche Komponenten des Gerätes optimiert, der Meßaufbau ins Flugzeug integriert und Methoden zur Kalibrierung entwickelt. Bei der internationalen Vergleichskampagne HOxComp2005 zeigte HORUS seine Eignung zur Messung von troposphärischen OH- und HO2-Radikalen.rnrnDie durchgeführten HOx-Messungen während der GABRIEL-Meßkampagne sind die ersten ihrer Art, die über einem tropischen Regenwald stattgefunden haben. Im Gegensatz zu den Vorhersagen globaler Modelle wurden unerwartet hohe OH- und HO2-Konzentrationen in der planetaren Grenzschicht des tropischen Regenwalds beobachtet. Der Vergleich der berechneten OH-Produktions- und Verlustraten, die aus dem umfangreichen Datensatz von GABRIEL ermittelt wurden, zeigte, daß hierbei eine wichtige OH-Quelle unberücksichtigt blieb. Mit Hilfe des Boxmodells MECCA, in welchem die gemessenen Daten als Randbedingungen in die Simulationen eingingen, wurden die modellierten OH- und HO2- Konzentrationen im Gleichgewichtszustand den beobachteten Konzentrationen gegenübergestellt. Luftmassen der freien Troposphäre und der maritimen Grenzschicht zeigten eine gute Übereinstimmung zwischen Messung und Modell. Über dem tropischen Regenwald jedoch wurden die beobachteten HOx-Konzentrationen in der planetaren Grenzschicht durch das Modell, vor allem am Nachmittag, signifikant unterschätzt. Dabei lag die Diskrepanz zwischen den beobachteten und simulierten Konzentrationen bei einem mittleren Wert von OHobs/OHmod = 12.2 ± 3.5 und HO2obs/HO2mod = 4.1 ± 1.4. Die Abweichung zwischen Messung und Modell korrelieren hierbei mit der Isoprenkonzentration. Während für niedrige Isoprenmischungsverhältnisse, wie sie über dem Ozean oder in Höhen > 3 km vorherrschten, die Beobachtungen mit den Simulationen innerhalb eines Faktors 1.6±0.7 übereinstimmten, nahm die Unterschätzung durch das Modell für steigende Isoprenmischungsverhältnisse > 200 pptV über dem tropischen Regenwald zu.rnrnDer kondensierte chemische Mechanismus von MECCA wurde mit der ausführlichen Isoprenchemie des ”Master Chemical Mechanism“ überprüft, welches vergleichbare HOx-Konzentrationen lieferte. OH-Simulationen, durchgeführt mit der gemessenen HO2-Konzentration als zusätzliche Randbedingung, zeigten, daß die Konversion zwischen HO2 und OH innerhalb des Modells nicht ausreichend ist. Durch Vernachlässigung der gesamten Isoprenchemie konnte dagegen eine Übereinstimmung zwischen Modell und Messung erreicht werden. Eine OH-Quelle in der gleichen Größenordnung wie die OH-Senke durch Isopren, ist somit zur Beschreibung der beobachteten OH-Konzentration notwendig. Reaktionsmechanismen, die innerhalb der Isoprenchemie die gleiche Anzahl an OH-Radikalen erzeugen wie sie verbrauchen, könnten eine mögliche Ursache sein. Unterschiedliche zusätzliche Reaktionen wurden in die Isoprenabbaumechanismen des Modells implementiert, die zur Erhöhung der OH-Quellstärke führen sollten. Diese bewirkten eine Zunahme der simulierten HO2-Konzentrationen um einen maximalen Faktor von 5 für OH und 2 für HO2. Es wird eine OH-Zyklierungswahrscheinlichkeit r von bis zu 94% gefordert, wie sie für die GABRIEL-Messungen erreicht wurde. Die geringe OH-Zyklierungswahrscheinlichkeit von 38% des Modells zeigte, daß wichtige Zyklierungsvorgänge im chemischen Mechanismus bislang nicht berücksichtigt werden. Zusätzliche Zyklierungsreaktionen innerhalb des Isoprenmechanismus, die auch unter niedrigen NO-Konzentrationen zur Rückbildung von OHRadikalen führen, könnten eine Erklärung für die über dem Regenwald beobachteten hohen OH-Konzentration liefern.rn

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die bedeutendste Folge der Luftverschmutzung ist eine erhöhte Konzentration an Ozon (O3) in der Troposphäre innerhalb der letzten 150 Jahre. Ozon ist ein photochemisches Oxidationsmittel und ein Treibhausgas, das als wichtigste Vorstufe des Hydroxyradikals OH die Oxidationskraft der Atmosphäre stark beeinflusst. Um die Oxidationskraft der Atmosphäre und ihren Einfluss auf das Klima verstehen zu können, ist es von großer Bedeutung ein detailliertes Wissen über die Photochemie des Ozons und seiner Vorläufer, den Stickoxiden (NOx), in der Troposphäre zu besitzen. Dies erfordert das Verstehen der Bildungs- und Abbaumechanismen von Ozon und seiner Vorläufer. Als eine für den chemischen Ozonabbau wichtige Region kann die vom Menschen weitgehend unberührte marine Grenzschicht (Marine boundary layer (MBL)) angesehen werden. Bisher wurden für diese Region jedoch kaum Spurengasmessungen durchgeführt, und so sind die dort ablaufenden photochemischen Prozesse wenig untersucht. Da etwa 70 % der Erdoberfläche mit Ozeanen bedeckt sind, können die in der marinen Granzschicht ablaufenden Prozesse als signifikant für die gesamte Atmosphäre angesehen werden. Dies macht eine genaue Untersuchung dieser Region interessant. Um die photochemische Produktion und den Abbau von Ozon abschätzen zu können und den Einfluss antrophogener Emissionen auf troposphärisches Ozon zu quantifizieren, sind aktuelle Messergebnisse von NOx im pptv-Bereich für diese Region erforderlich. Die notwendigen Messungen von NO, NO2, O3, JNO2, J(O1D), HO2, OH, ROx sowie einiger meteorologischer Parameter wurden während der Fahrt des französischen Forschungsschiffes Marion-Dufresne auf dem südlichen Atlantik (28°S-57°S, 46°W-34°E) im März 2007 durchgeführt. Dabei sind für NO und NO2 die bisher niedrigsten gemessenen Werte zu verzeichnen. Die während der Messcampagne gewonnen Daten wurden hinsichtlich Ihrer Übereinstimmung mit den Bedingungen des photochemischen stationären Gleichgewichts (photochemical steady state (PSS)) überprüft. Dabei konnte eine Abweichung vom PSS festgestellt werden, welche unter Bedingungen niedriger NOx-Konzentrationen (5 bis 25pptv) einen unerwarteten Trend im Leighton-Verhältnis bewirkt, der abhängig vom NOx Mischungsverhältnis und der JNO2 Intensität ist. Signifikante Abweichungen vom Verhältnis liegen bei einer Zunahme der JNO2 Intensität vor. Diese Ergebnisse zeigen, dass die Abweichung vom PSS nicht beim Minimum der NOx-Konzentrationen und der JNO2 Werte liegt, so wie es in bisherigen theoretischen Studien dargelegt wurde und können als Hinweis auf weitere photochemische Prozesse bei höheren JNO2-Werten in einem System mit niedrigem NOx verstanden werden. Das wichtigste Ergebnis dieser Untersuchung, ist die Verifizierung des Leighton-Verhältnisses, das zur Charakterisierung des PSS dient, bei sehr geringen NOx-Konzentrationen in der MBL. Die bei dieser Doktorarbeit gewonnenen Erkenntnisse beweisen, dass unter den Bedingungen der marinen Granzschicht rein photochemischer Abbau von Ozon stattfindet und als Hauptursache hierfür während des Tages die Photolyse gilt. Mit Hilfe der gemessenen Parameter wurde der kritische NO-Level auf Werte zwischen 5 und 9 pptv abgeschätzt, wobei diese Werte im Vergleich zu bisherigen Studien vergleichsweise niedrig sind. Möglicherweise bedeutet dies, dass das Ozon Produktion/ Abbau-Potential des südlichen Atlantiks deutlich stärker auf die Verfügbarkeit von NO reagiert, als es in anderen Regionen der Fall ist. Im Rahmen der Doktorarbeit wurde desweiteren ein direkter Vergleich der gemessenen Spezies mit dem Modelergebnis eines 3-dimensionalen Zirkulationsmodel zur Simulation atmosphären chemischer Prozesse (EMAC) entlang der exakten Schiffsstrecke durchgeführt. Um die Übereinstimmung der Messergebnisse mit dem bisherigen Verständnis der atmosphärischen Radikalchemie zu überprüfen, wurde ein Gleichgewichtspunktmodel entwickelt, das die während der Überfahrt erhaltenen Daten für Berechungen verwendet. Ein Vergleich zwischen der gemessenen und der modellierten ROx Konzentrationen in einer Umgebung mit niedrigem NOx zeigt, dass die herkömmliche Theorie zur Reproduktion der Beobachtungen unzureichend ist. Die möglichen Gründe hierfür und die Folgen werden in dieser Doktorarbeit diskutiert.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Das Glaukom ist eine der führenden Erblindungsursachen weltweit. Trotzdem ist die Pathogenese, die zur Degeneration der retinalen Ganglienzellen führt, bisher nicht verstanden. In den letzten Jahren ergaben sich verschiedene Hinweise auf die Beteiligung einer immunologischen Komponente. Thema dieser Arbeit waren elektrophysiologische Untersuchungen, im Sinne von visuell evozierten Potentialen, am Tiermodell des Experimentellen Autoimmun Glaukoms und die Etablierung dieses Modells. Das Modell basiert auf einer Immunisierung von Lewisratten mit Pertussistoxin, inkompletten Freunds Adjuvant und potentiellen Antigenen, die zu einer Immunreaktion und einem Verlust von retinalen Ganglienzellen führen sollen. Zur Etablierung des Experimentellen Autoimmun Glaukom Modells wurde eine fünfwöchige Studie mit vier Gruppen durchgeführt. Als Antigene wurden Glia fibrilläres saures Protein (n= 10) und Myelin basisches Protein (n=10) verwendet, die beide in Studien zu Serum- und Kammerwasseranalysen bei Glaukompatienten eine Abweichung zur Kontrollgruppe gezeigt hatten. Außerdem wurde eine Gruppe mit selbst hergestelltem Sehnerv-Homogenat (n=12) immunisiert. Eine Gruppe erhielt keine Immunisierung und diente als Kontrolle (n=10). Zur Überprüfung der Effekte des Modells dienten verschiedene Untersuchungsmethoden, wie die Augeninnendruckmessung und die Untersuchung der Fundi. Des Weiteren wurden transiente und stationäre visuell evozierte Potentiale abgeleitet und die Latenzen, Amplituden und die Marker S (Steigung) und TR (Temporale Antworten) verglichen. Außerdem erfolgte nach Tötung der Tiere die Entnahme der Gehirne und Augen. Die Gehirne wurden nach Paraffineinbettung geschnitten, mit Luxol Fast Blue und Kresylviolett gefärbt und hinsichtlich etwaiger Entmarkungsherde oder anderer Pathologien unter dem Mikroskop bewertet. Der Verlauf des intraokulären Drucks zeigte sowohl zwischen den Gruppen als auch zwischen den verschiedenen Zeitpunkten keine signifikanten Unterschiede. Er bewegte sich im physiologischen Bereich mit durchschnittlich circa 12 mmHg. Die Funduskopien lieferten zu keinem Zeitpunkt krankhafte Veränderungen. Auch die visuell evozierten Potentiale lieferten zwischen den Gruppen keine signifikanten Unterschiede, sondern belegten normale visuelle Funktion bei allen Tieren. Die Auswertung der histologischen Untersuchung der Hirnschnitte zeigte keine Entmarkungsherde. Die erzielten Ergebnisse dieser Arbeit legen nahe, dass der retinale Ganglienzellverlust beim Experimentellen Autoimmun Glaukom Modell ohne eine Augeninnendruckerhöhung stattfindet. Die Fundusuntersuchung und die visuell evozierten Potentiale, wie in diesem Versuchsaufbau durchgeführt, scheinen nicht sensibel genug zu sein, diese Verluste nachzuweisen. In weiteren Arbeiten sollten andere Methoden zum Nachweis der retinalen Ganglienzellverluste erprobt werden. Neben elektrophysiologischen Methoden bieten sich für das weitere Vorgehen besonders immunhistologische Methoden an. Außerdem sollten die Mechanismen erforscht werden durch die es nach der Immunisierung zur Apoptose von retinalen Ganglienzellen kommt und welche Antikörper dazuführen können. Des Weiteren ist von Interesse, ob und wie eine zelluläre Komponente an der Pathogenese des Experimentellen Autoimmun Glaukoms beteiligt ist.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Diese Dissertation ist in zwei Teile aufgeteilt: Teil 1 befasst sich mit der Vorhersage von Halb-Metallizität in quarternären Heuslerverbindungen und deren Potential für Spintronik-Anwendungen. Teil 2 befasst sich mit den strukturellen Eigenschaften der Mn2-basierenden Heuslerverbindungen und dem Tuning von ihrer magnetischen Eigenschaften bzgl. Koerzitivfeldstärke und Remanenz. Diese Verbindungen sind geeignet für Spin-Transfer Torque-Anwendungen.rnrnIn Teil 1 wurden die folgenden drei Probenserien quarternärer Heuslerverbindungen untersucht: XX´MnGa (X = Cu, Ni und X´ = Fe, Co), CoFeMnZ (Z = Al, Ga, Si, Ge) und Co2−xRhxMnZ (Z = Ga, Sn, Sb). Abgesehen von CuCoMnGa wurden alle diese Verbindungen mittels ab-initio Bandstrukturrechnungen als halbmetallische Ferromagnete prognostiziert. In der XX´MnGa-Verbindungsklasse besitzt NiFeMnGa zwar eine zu niedrige Curie-Temperatur für technologische Anwendungen, jedoch NiCoMnGa mit seiner hohen Spinpolarisation, einem hohen magnetischen Moment und einer hohen Curie-Temperatur stellt ein neues Material für Spintronik-Anwendungen dar. Alle CoFeMnZ-Verbindungen kristallisieren in der kubischen Heuslerstruktur und ihre magnetischen Momente folgen der Slater-Pauling-Regel, was Halbmetalizität und eine hohe Spinpolarisation impliziert. Die ebenfalls hohen Curie-Temperaturen ermöglichen einen Einsatz weit über Raumtemperatur hinaus. In der strukturellen Charakterisierung wurde festgestellt, dass sämtliche Co2−xRhxMnZ abgesehen von CoRhMnSn verschiedene Typen von Unordnung aufweisen; daher war die ermittelte Abweichung von der Slater-Pauling-Regel sowie von der 100%-igen Spinpolarisation dieser Verbindungen zu erwarten. Die Halbmetallizität der geordneten CoRhMnSn-Verbindung sollte nach den durchgeführten magnetischen Messungen vorhanden sein.rnrnIm zweiten Teil wurden Mn3−xCoxGa und Mn2−xRh1+xSn synthetisiert und charakterisiert. Es wurde gezeigt, dass Mn3−xCoxGa im Bereich x = 0.1 − 0.4 in einer tetragonal verzerrten inversen Heuslerstruktur kristallisiert und im Bereich x = 0.6−1 in einer kubisch inversen Heuslerstruktur. Während die tetragonalen Materialien hartmagnetisch sind und Charakeristika aufweisen, die typischerweise für Spin-Transfer Torque-Anwengungen attraktiv sind, repräsentieren die weichmagnetischen kubischen Vertreter die 100% spinpolarisierten Materialien, die der Slater-Pauling-Regel folgen. Mn2RhSn kristallisiert in der inversen tetragonal verzerrten Heuslerstruktur, weist einernhartmagnetische Hystereseschleife auf und folgt nicht der Slater-Pauling-Regel. Bei hohen Rh-Gehalt wird die kubische inverse Heuslerstruktur gebildet. Alle kubischen Proben sind weichmagnetisch und folgen der Slater-Pauling-Regel.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die vorliegende Arbeit beschäftigt sich mit der Frage, wie stark die Unterstützung eines demokratischen politischen Systems in der kambodschanischen Bevölkerung ist und welche Faktoren auf der Mikroebene die Demokratieunterstützung in Kambodscha beeinflussen. Hierfür werden das Unterstützungsmodell von Dieter Fuchs und die Modernisierungstheorie von Seymour Lipset für die Analyse von Einstellungen in einem autoritären politischen System modifiziert und entsprechend angepasste Hypothesen [zum Einfluss der Modernisierungsfaktoren auf die Demokratieunterstützung] formuliert. Nachdem die im Datensatz vorhandenen Einzelindikatoren zu Faktoren verdichtet und Probleme des Demokratieverständnisses und der Item-Nonresponse diskutiert wurden, werden Daten der zweiten Welle der Asian Barometer Survey 2008 analysiert. Die empirischen Ergebnisse zeigen zwar, dass eine substantielle Minderheit das autoritäre Regime des Landes und seine Entscheidungsträger kritisch betrachtet, die Bindung an liberal-demokratische Werte aber eher schwach ausgeprägt ist. Bi- und multivariate Analysen deuten auf einen Einfluss von Faktoren wie Bildung, Einkommen und Wohnort hin und bestätigen somit weitgehend die Modernisierungstheorie, allerdings mit einer bedeutsamen Abweichung: Größere Zufriedenheit mit der eigenen wirtschaftlichen Lage führt zwar zu einer stärkeren Bindung an demokratische Werte, gleichzeitig aber auch zu einer größeren Unterstützung des autoritären Regimes und seiner Entscheidungsträger.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die oberflächennahe Geothermie leistet im Bereich der Nutzung regenerativer Wärme einen wichtigen Beitrag zum Klima- und Umweltschutz. Um die technische Nutzung oberflächennaher Geothermie zu optimieren, ist die Kenntnis der Beschaffenheit des geologischen Untergrundes ausschlaggebend. Die vorliegende Dissertation befasst sich mit der Bestimmung verschiedener Untergrundparameter an einem Erdwärmesondenfeld. Es wurden Untersuchungen zur Bestimmung der Wärmeleitfähigkeit wie der enhanced Thermal Response Test (eTRT), sowie eine Untergrund-Temperaturüberwachung im ersten Betriebsjahr durchgeführt. Die Überwachung zeigte keine gegenseitige Beeinflussung einzelner Sonden. Ein Vergleich zwischen dem geplanten und dem tatsächlichem Wärmebedarf des ersten Betriebsjahres ergab eine Abweichung von ca. 35%. Dies zeigt, dass die Nutzungsparameter der Anlage deren Effizienz maßgeblich beeinflussen können. Der am Beispielobjekt praktisch durchgeführte eTRT wurde mittels numerischer Modellierung auf seine Reproduzierbarkeit hin überprüft. Bei einem rein konduktiven Wärmetransport im Untergrund betrug die maximale Abweichung der Messung selbst unter ungünstigen Bedingungen lediglich ca. 6% vom zu erwartenden Wert. Die Detektion von grundwasserdurchflossenen Schichten ist in den Modellen ebenfalls gut abbildbar. Problematisch bleibt die hohe Abhängigkeit des Tests von einer konstanten Wärmezufuhr. Lediglich die Bestimmung der Wärmeleitfähigkeit über das Relaxationsverhalten des Untergrundes liefert bei Wärmeeintragsschwankungen hinreichend genaue Ergebnisse. Die mathematische Nachbearbeitung von fehlerhaften Temperaturkurven bietet einen Einstiegspunkt für weiterführende Forschung.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Fine powders commonly have poor flowability and dispersibility due to interparticle adhesion that leads to formation of agglomerates. Knowing about adhesion in particle collectives is indispensable to gain a deeper fundamental understanding of particle behavior in powders. Especially in pharmaceutical industry a control of adhesion forces in powders is mandatory to improve the performance of inhalation products. Typically the size of inhalable particles is in the range of 1 - 5 µm. In this thesis, a new method was developed to measure adhesion forces of particles as an alternative to the established colloidal probe and centrifuge technique, which are both experimentally demanding, time consuming and of limited practical applicability. The new method is based on detachment of individual particles from a surface due to their inertia. The required acceleration in the order of 500 000 g is provided by a Hopkinson bar shock excitation system and measured via laser vibrometry. Particle detachment events are detected on-line by optical video microscopy. Subsequent automated data evaluation allows obtaining a statistical distribution of particle adhesion forces. To validate the new method, adhesion forces for ensembles of single polystyrene and silica microspheres on a polystyrene coated steel surface were measured under ambient conditions. It was possible to investigate more than 150 individual particles in one experiment and obtain adhesion values of particles in a diameter range of 3 - 13 µm. This enables a statistical evaluation while measuring effort and time are considerably lower compared to the established techniques. Measured adhesion forces of smaller particles agreed well with values from colloidal probe measurements and theoretical predictions. However, for the larger particles a stronger increase of adhesion with diameter was observed. This discrepancy might be induced by surface roughness and heterogeneity that influence small and large particles differently. By measuring adhesion forces of corrugated dextran particles with sizes down to 2 µm it was demonstrated that the Hopkinson bar method can be used to characterize more complex sample systems as well. Thus, the new device will be applicable to study a broad variety of different particle-surface combinations on a routine basis, including strongly cohesive powders like pharmaceutical drugs for inhalation.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In this thesis the measurement of the effective weak mixing angle wma in proton-proton collisions is described. The results are extracted from the forward-backward asymmetry (AFB) in electron-positron final states at the ATLAS experiment at the LHC. The AFB is defined upon the distribution of the polar angle between the incoming quark and outgoing lepton. The signal process used in this study is the reaction pp to zgamma + X to ee + X taking a total integrated luminosity of 4.8\,fb^(-1) of data into account. The data was recorded at a proton-proton center-of-mass energy of sqrt(s)=7TeV. The weak mixing angle is a central parameter of the electroweak theory of the Standard Model (SM) and relates the neutral current interactions of electromagnetism and weak force. The higher order corrections on wma are related to other SM parameters like the mass of the Higgs boson.rnrnBecause of the symmetric initial state constellation of colliding protons, there is no favoured forward or backward direction in the experimental setup. The reference axis used in the definition of the polar angle is therefore chosen with respect to the longitudinal boost of the electron-positron final state. This leads to events with low absolute rapidity have a higher chance of being assigned to the opposite direction of the reference axis. This effect called dilution is reduced when events at higher rapidities are used. It can be studied including electrons and positrons in the forward regions of the ATLAS calorimeters. Electrons and positrons are further referred to as electrons. To include the electrons from the forward region, the energy calibration for the forward calorimeters had to be redone. This calibration is performed by inter-calibrating the forward electron energy scale using pairs of a central and a forward electron and the previously derived central electron energy calibration. The uncertainty is shown to be dominated by the systematic variations.rnrnThe extraction of wma is performed using chi^2 tests, comparing the measured distribution of AFB in data to a set of template distributions with varied values of wma. The templates are built in a forward folding technique using modified generator level samples and the official fully simulated signal sample with full detector simulation and particle reconstruction and identification. The analysis is performed in two different channels: pairs of central electrons or one central and one forward electron. The results of the two channels are in good agreement and are the first measurements of wma at the Z resonance using electron final states at proton-proton collisions at sqrt(s)=7TeV. The precision of the measurement is already systematically limited mostly by the uncertainties resulting from the knowledge of the parton distribution functions (PDF) and the systematic uncertainties of the energy calibration.rnrnThe extracted results of wma are combined and yield a value of wma_comb = 0.2288 +- 0.0004 (stat.) +- 0.0009 (syst.) = 0.2288 +- 0.0010 (tot.). The measurements are compared to the results of previous measurements at the Z boson resonance. The deviation with respect to the combined result provided by the LEP and SLC experiments is up to 2.7 standard deviations.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The lattice formulation of Quantum ChromoDynamics (QCD) has become a reliable tool providing an ab initio calculation of low-energy quantities. Despite numerous successes, systematic uncertainties, such as discretisation effects, finite-size effects, and contaminations from excited states, are inherent in any lattice calculation. Simulations with controlled systematic uncertainties and close to the physical pion mass have become state-of-the-art. We present such a calculation for various hadronic matrix elements using non-perturbatively O(a)-improved Wilson fermions with two dynamical light quark flavours. The main topics covered in this thesis are the axial charge of the nucleon, the electro-magnetic form factors of the nucleon, and the leading hadronic contributions to the anomalous magnetic moment of the muon. Lattice simulations typically tend to underestimate the axial charge of the nucleon by 5 − 10%. We show that including excited state contaminations using the summed operator insertion method leads to agreement with the experimentally determined value. Further studies of systematic uncertainties reveal only small discretisation effects. For the electro-magnetic form factors of the nucleon, we see a similar contamination from excited states as for the axial charge. The electro-magnetic radii, extracted from a dipole fit to the momentum dependence of the form factors, show no indication of finite-size or cutoff effects. If we include excited states using the summed operator insertion method, we achieve better agreement with the radii from phenomenology. The anomalous magnetic moment of the muon can be measured and predicted to very high precision. The theoretical prediction of the anomalous magnetic moment receives contribution from strong, weak, and electro-magnetic interactions, where the hadronic contributions dominate the uncertainties. A persistent 3σ tension between the experimental determination and the theoretical calculation is found, which is considered to be an indication for physics beyond the Standard Model. We present a calculation of the connected part of the hadronic vacuum polarisation using lattice QCD. Partially twisted boundary conditions lead to a significant improvement of the vacuum polarisation in the region of small momentum transfer, which is crucial in the extraction of the hadronic vacuum polarisation.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Stable isotope composition of atmospheric carbon monoxide: A modelling study.rnrnThis study aims at an improved understanding of the stable carbon and oxygen isotope composition of the carbon monoxide (CO) in the global atmosphere by means of numerical simulations. At first, a new kinetic chemistry tagging technique for the most complete parameterisation of isotope effects has been introduced into the Modular Earth Submodel System (MESSy) framework. Incorporated into the ECHAM/MESSy Atmospheric Chemistry (EMAC) general circulation model, an explicit treatment of the isotope effects on the global scale is now possible. The expanded model system has been applied to simulate the chemical system containing up to five isotopologues of all carbon- and oxygen-bearing species, which ultimately determine the δ13C, δ18O and Δ17O isotopic signatures of atmospheric CO. As model input, a new stable isotope-inclusive emission inventory for the relevant trace gases has been compiled. The uncertainties of the emission estimates and of the resulting simulated mixing and isotope ratios have been analysed. The simulated CO mixing and stable isotope ratios have been compared to in-situ measurements from ground-based observatories and from the civil-aircraft-mounted CARIBIC−1 measurement platform.rnrnThe systematically underestimated 13CO/12CO ratios of earlier, simplified modelling studies can now be partly explained. The EMAC simulations do not support the inferences of those studies, which suggest for CO a reduced input of the highly depleted in 13C methane oxidation source. In particular, a high average yield of 0.94 CO per reacted methane (CH4) molecule is simulated in the troposphere, to a large extent due to the competition between the deposition and convective transport processes affecting the CH4 to CO reaction chain intermediates. None of the other factors, assumed or disregarded in previous studies, however hypothesised to have the potential in enriching tropospheric CO in 13C, were found significant when explicitly simulated. The inaccurate surface emissions, likely underestimated over East Asia, are responsible for roughly half of the discrepancies between the simulated and observed 13CO in the northern hemisphere (NH), whereas the remote southern hemisphere (SH) compositions suggest an underestimated fractionation during the oxidation of CO by the hydroxyl radical (OH). A reanalysis of the kinetic isotope effect (KIE) in this reaction contrasts the conventional assumption of a mere pressure dependence, and instead suggests an additional temperature dependence of the 13C KIE, which is driven by changes in the partitioning of the reaction exit channels. This result is yet to be confirmed in the laboratory.rnrnApart from 13CO, for the first time the atmospheric distribution of the oxygen mass-independent fractionation (MIF) in CO, Δ17O, has been consistently simulated on the global scale with EMAC. The applicability of Δ17O(CO) observations to unravelling changes in the tropospheric CH4-CO-OH system has been scrutinised, as well as the implications of the ozone (O3) input to the CO isotope oxygen budget. The Δ17O(CO) is confirmed to be the principal signal for the CO photochemical age, thus providing a measure for the OH chiefly involved in the sink of CO. The highly mass-independently fractionated O3 oxygen is estimated to comprise around 2% of the overall tropospheric CO source, which has implications for the δ18O, but less likely for the Δ17O CO budgets. Finally, additional sensitivity simulations with EMAC corroborate the nearly equal net effects of the present-day CH4 and CO burdens in removing tropospheric OH, as well as the large turnover and stability of the abundance of the latter. The simulated CO isotopologues nonetheless hint at a likely insufficient OH regeneration in the NH high latitudes and the upper troposphere / lower stratosphere (UTLS).rn