996 resultados para Roos, T.: Mitä on NLP
Resumo:
Die vorliegende Arbeit untersucht die Struktur und Zusammensetzung der untersten Atmosphäre im Rahmen der PARADE-Messkampagne (PArticles and RAdicals: Diel observations of the impact of urban and biogenic Emissions) am Kleinen Feldberg in Deutschland im Spätsommer 2011. Dazu werden Messungen von meteorologischen Grundgrößen (Temperatur, Feuchte, Druck, Windgeschwindigkeit und -richtung) zusammen mit Radiosonden und flugzeuggetragenen Messungen von Spurengasen (Kohlenstoffmonoxid, -dioxid, Ozon und Partikelanzahlkonzentrationen) ausgewertet. Ziel ist es, mit diesen Daten, die thermodynamischen und dynamischen Eigenschaften und deren Einfluss auf die chemische Luftmassenzusammensetzung in der planetaren Grenzschicht zu bestimmen. Dazu werden die Radiosonden und Flugzeugmessungen mit Lagrangeschen Methoden kombiniert und es wird zwischen rein kinematischen Modellen (LAGRANTO und FLEXTRA) sowie sogenannten Partikeldispersionsmodellen (FLEXPART) unterschieden. Zum ersten Mal wurde im Rahmen dieser Arbeit dabei auch eine Version von FLEXPART-COSMO verwendet, die von den meteorologischen Analysefeldern des Deutschen Wetterdienstes angetrieben werden. Aus verschiedenen bekannten Methoden der Grenzschichthöhenbestimmung mit Radiosondenmessungen wird die Bulk-Richardson-Zahl-Methode als Referenzmethode verwendet, da sie eine etablierte Methode sowohl für Messungen und als auch Modellanalysen darstellt. Mit einer Toleranz von 125 m, kann zu 95 % mit mindestens drei anderen Methoden eine Übereinstimmung zu der ermittelten Grenzschichthöhe festgestellt werden, was die Qualität der Grenzschichthöhe bestätigt. Die Grenzschichthöhe variiert während der Messkampagne zwischen 0 und 2000 m über Grund, wobei eine hohe Grenzschicht nach dem Durchzug von Kaltfronten beobachtet wird, hingegen eine niedrige Grenzschicht unter Hochdruckeinfluss und damit verbundener Subsidenz bei windarmen Bedingungen im Warmsektor. Ein Vergleich zwischen den Grenzschichthöhen aus Radiosonden und aus Modellen (COSMO-DE, COSMO-EU, COSMO-7) zeigt nur geringe Unterschiede um -6 bis +12% während der Kampagne am Kleinen Feldberg. Es kann allerdings gezeigt werden, dass in größeren Simulationsgebieten systematische Unterschiede zwischen den Modellen (COSMO-7 und COSMO-EU) auftreten. Im Rahmen dieser Arbeit wird deutlich, dass die Bodenfeuchte, die in diesen beiden Modellen unterschiedlich initialisiert wird, zu verschiedenen Grenzschichthöhen führt. Die Folge sind systematische Unterschiede in der Luftmassenherkunft und insbesondere der Emissionssensitivität. Des Weiteren kann lokale Mischung zwischen der Grenzschicht und der freien Troposphäre bestimmt werden. Dies zeigt sich in der zeitlichen Änderung der Korrelationen zwischen CO2 und O3 aus den Flugzeugmessungen, und wird im Vergleich mit Rückwärtstrajektorien und Radiosondenprofilen bestärkt. Das Einmischen der Luftmassen in die Grenzschicht beeinflusst dabei die chemische Zusammensetzung in der Vertikalen und wahrscheinlich auch am Boden. Diese experimentelle Studie bestätigt die Relevanz der Einmischungsprozesse aus der freien Troposphäre und die Verwendbarkeit der Korrelationsmethode, um Austausch- und Einmischungsprozesse an dieser Grenzfläche zu bestimmen.
Resumo:
Die Leishmaniose gehört zu den „vernachlässigten tropischen Erkrankungen“. Sie wird durch parasitäre Protozoen der Gattung Leishmania ausgelöst. Weltweit sind ca. 12 Mio. Menschen infiziert, ca. 70 Tausend erliegen ihr jährlich. Die aktuelle Therapie wird überschattet von Toxizitäts- und Teratogenitätsproblemen und von aufkommenden Resistenzen. Die von den Leishmanien exprimierten Cysteinproteasen spielen vielfältige Rollen bei Wachstum und Vermehrung der Erreger. Aufgrund der evolutionären Verwandtschaft der Enzyme sind die parasitären Cysteinproteasen strukturell den humanen sehr ähnlich. Die Herausforderung bei der Entwicklung antiparasitärer Wirkstoffe, basierend auf der Hemmung dieser Proteasen, besteht deshalb darin, sehr selektive Inhibitoren zu entwickeln, die die Wirtsproteasen nicht, oder nur in einem vertretbaren Rahmen, inhibieren. Das Ziel dieser Arbeit war die Weiterentwicklung der Aziridin-2,3-dicarbonsäure-basierten Cysteinproteaseinhibitoren RV122C bzw. CS09 hinsichtlich Selektivität und Aktivität gegenüber der parasitären Cathepsin-L-ähnlichen Cystein-Protease LmCPB2.8 durch Design, incl. Docking, Synthese und Testung. Neben der gezielten Variation nicht essenzieller Gruppen wurde molekulares Docking mittels AutoDock Vina an Cruzain als verwandtes Modellenzym durchgeführt, um durch Variationen K.O.-Kandidaten für die Differenzierung zwischen zwei postulierten Bindungsmodi zu finden. Die Ergebnisse der Enzymassays zeigen eine Verbesserung der Hemmeigenschaften bei gleichzeitig verbesserter Selektivität sowie erhöhter ligand efficiency und ligand lipophilic efficiency für Derivate mit sterisch anspruchsvolleren Ester-Resten und für Derivate mit einer freien Carbonsäurefunktion am Aziridin-Ring (Halbester).
Resumo:
Die S-adenosyl-L-Homocysteinhydrolase (AHCY)-Defizienz ist eine seltene autosomal rezessive Erbkrankheit, bei der Mutationen im AHCY-Gen die Funktionsfähigkeit des kodierten Enzyms beeinträchtigen. Diese Krankheit führt zu Symptomen wie Entwicklungsverzögerungen, mentaler Retardierung und Myopathie. In der vorliegenden Arbeit wurde der Einfluss der AHCY-Defizienz auf die Methylierung der DNA in Blutproben und Fibroblasten von Patienten mit AHCY-Defizienz, sowie in HEK293- und HepG2-Zelllinien mit AHCY-Knockdown untersucht. Der gesamtgenomische Methylierungsstatus wurde mit Hilfe des MethylFlash ™ Methylated DNA Quantification Kit (Epigentek) bei drei Patienten-Blutproben festgestellt. In den Blutproben von sieben Patienten und Fibroblasten von einem Patienten wurde die Methylierung von DMRs sieben geprägter Gene (GTL2, H19, LIT1, MEST, NESPAS, PEG3, SNRPN) und zwei repetitiver Elemente (Alu, LINE1) mittels Bisulfit-Pyrosequenzierung quantifiziert und durch High Resolution Melting-Analyse bestätigt. Zusätzlich wurde eine genomweite Methylierungsanalyse mit dem Infinium® HumanMethylation450 BeadChip (Illumina) für vier Patientenproben durchgeführt und die Expression von AHCY in Fibroblasten mittels Expressions-qPCR und QUASEP-Analyse untersucht. Die Methylierungsanalysen ergaben eine Hypermethylierung der gesamtgenomischen DNA und stochastische Hypermethylierungen von DMRs geprägter Gene bei einigen Patienten. Die HEK293- und HepG2-Zelllinien wiesen dagegen hauptsächlich stochastische Hypomethylierungen an einigen DMRs geprägter Gene und LINE1-Elementen auf. Die genomweite Methylierungsarray-Analyse konnte die Ergebnisse der Bisulfit-Pyrosequenzierung nicht bestätigen. Die Expressionsanalysen der AHCY-defizienten Fibroblasten zeigten eine verminderte Expression von AHCY, wobei beide Allele etwa gleich stark transkribiert wurden. Die Ergebnisse deuten darauf hin, dass die AHCY-Defizienz eine gute Modellerkrankung für die Untersuchung biologischer Konsequenzen von Methylierungsstörungen im Rahmen der Epigenetik-Forschung sein könnte. Sie ist unseres Wissens die erste monogene Erkrankung mit symptomaler DNA-Hypermethylierung beim Menschen.
A river runs through it - ancient DNA data on the neolithic populations of the Great Hungarian Plain
Resumo:
This thesis was part of a multidisciplinary research project funded by the German Research Foundation (“Bevölkerungsgeschichte des Karpatenbeckens in der Jungsteinzeit und ihr Einfluss auf die Besiedlung Mitteleuropas”, grant no. Al 287/10-1) aimed at elucidating the population history of the Carpathian Basin during the Neolithic. The Carpathian Basin was an important waypoint on the spread of the Neolithic from southeastern to central Europe. On the Great Hungarian Plain (Alföld), the first farming communities appeared around 6000 cal BC. They belonged to the Körös culture, which derived from the Starčevo-Körös-Criş complex in the northern Balkans. Around 5600 cal BC the Alföld-Linearbandkeramik (ALBK), so called due to its stylistic similarities with the Transdanubian and central European LBK, emerged in the northwestern Alföld. Following a short “classical phase”, the ALBK split into several regional subgroups during its later stages, but did not expand beyond the Great Hungarian Plain. Marking the beginning of the late Neolithic period, the Tisza culture first appeared in the southern Alföld around 5000 cal BC and subsequently spread into the central and northern Alföld. Together with the Herpály and Csőszhalom groups it was an integral part of the late Neolithic cultural landscape of the Alföld. Up until now, the Neolithic cultural succession on the Alföld has been almost exclusively studied from an archaeological point of view, while very little is known about the population genetic processes during this time period. The aim of this thesis was to perform ancient DNA (aDNA) analyses on human samples from the Alföld Neolithic and analyse the resulting mitochondrial population data to address the following questions: is there population continuity between the Central European Mesolithic hunter-gatherer metapopulation and the first farming communities on the Alföld? Is there genetic continuity from the early to the late Neolithic? Are there genetic as well as cultural differences between the regional groups of the ALBK? Additionally, the relationships between the Alföld and the neighbouring Transdanubian Neolithic as well as other European early farming communities were evaluated to gain insights into the genetic affinities of the Alföld Neolithic in a larger geographic context. 320 individuals were analysed for this study; reproducible mitochondrial haplogroup information (HVS-I and/or SNP data) could be obtained from 242 Neolithic individuals. According to the analyses, population continuity between hunter-gatherers and the Neolithic cultures of the Alföld can be excluded at any stage of the Neolithic. In contrast, there is strong evidence for population continuity from the early to the late Neolithic. All cultural groups on the Alföld were heavily shaped by the genetic substrate introduced into the Carpathian Basin during the early Neolithic by the Körös and Starčevo cultures. Accordingly, genetic differentiation between regional groups of the ALBK is not very pronounced. The Alföld cultures are furthermore genetically highly similar to the Transdanubian Neolithic cultures, probably due to common ancestry. In the wider European context, the Alföld Neolithic cultures also highly similar to the central European LBK, while they differ markedly from contemporaneous populations of the Iberian Peninsula and the Ukraine. Thus, the Körös culture, the ALBK and the Tisza culture can be regarded as part of a “genetic continuum” that links the Neolithic Carpathian Basin to central Europe and likely has its roots in the Starčevo -Körös-Criş complex of the northern Balkans.
Resumo:
Die Arbeit untersucht anhand empirischer Daten aus dem Jahr 2012 (ESS 6) das normative Demokratieverständnis von Jugendlichen im Alter zwischen 15 und 26 Jahren. Im Unterschied zu vorangegangenen Studien wird das normative Demokratieverständnis der Jugendlichen zum einen detaillierter untersucht, zum anderen dem der Erwachsenen gegenüber gestellt und drittens werden dessen Determinanten umfassender betrachtet. rnDen theoretischen Rahmen der Untersuchung bilden das klassische Konzept der politischen Kultur und die politische Sozialisationstheorie. rnEs zeigt sich, dass Jugendliche über ein verhältnismäßig gut ausgeprägtes normatives Demokratieverständnis verfügen, dieses jedoch niedriger ausgeprägt ist als das der Erwachsenen, wobei letzterer Befund für ältere Jugendliche nur noch punktuell gilt. Zudem weisen die Ergebnisse darauf hin, dass bei den Jugendlichen weitestgehend die gleichen Aspekte des normativen Demokratieverständnisses im gruppeninternen Vergleich über- bzw. unterdurchschnittlich ausgeprägt sind wie bei den Erwachsenen. Unterschiede zwischen Jugendlichen und Erwachsenen zeigen sich insbesondere für die elektorale Dimension der Demokratie und weniger für die liberale Dimension. Als wichtige Determinanten des Demokratieverständnisses von Jugendlichen werden sowohl der individuelle Bildungsgrad und das individuelle politische Interesse als auch der Bildungshintergrund der Eltern identifiziert.rnAus den Ergebnissen werden am Ende der Arbeit Implikationen mit Bezügen zu Inhalten, Adressaten und Akteuren politischer Bildungsarbeit diskustiert. rn
Resumo:
Der Fokus dieser Doktorarbeit liegt auf der kontrollierten Benetzung von festen Oberflächen, die in vielen Bereichen, wie zum Beispiel in der Mikrofluidik, für Beschichtungen und in biologischen Studien von Zellen oder Bakterien, von großer Bedeutung ist.rnDer erste Teil dieser Arbeit widmet sich der Frage, wie Nanorauigkeit das Benetzungsverhalten, d.h. die Kontaktwinkel und die Pinningstärke, von hydrophoben und superhydrophoben Beschichtungen beeinflusst. Hierfür wird eine neue Methode entwickelt, um eine nanoraue Silika-Beschichtung über die Gasphase auf eine superhydrophobe Oberfläche, die aus rauen Polystyrol-Silika-Kern-Schale-Partikeln besteht, aufzubringen. Es wird gezeigt, dass die Topographie und Dichte der Nanorauigkeiten bestimmt, ob sich die Superhydrophobizität verringert oder erhöht, d.h. ob sich ein Flüssigkeitstropfen im Nano-Wenzel- oder Nano-Cassie-Zustand befindet. Das verstärkte Pinning im Nano-Wenzel-Zustand beruht auf dem Eindringen von Flüssigkeitsmolekülen in die Nanoporen der Beschichtung. Im Nano-Cassie-Zustand dagegen sitzt der Tropfen auf den Nanorauigkeiten, was das Pinning vermindert. Die experimentellen Ergebnisse werden mit molekulardynamischen Simulationen in Bezug gesetzt, die den Einfluss der Oberflächenbeschichtungsdichte und der Länge von fluorinierten Silanen auf die Hydrophobizität einer Oberfläche untersuchen. rnEs wurden bereits verschiedenste Techniken zur Herstellung von transparenten superhydrophoben, d.h. extrem flüssigkeitsabweisenden, Oberflächen entwickelt. Eine aktuelle Herausforderung liegt darin, Funktionalitäten einzuführen, ohne die superhydrophoben Eigenschaften einer Oberfläche zu verändern. Dies ist extrem anspruchsvoll, da funktionelle Gruppen in der Regel hydrophil sind. In dieser Arbeit wird eine innovative Methode zur Herstellung von transparenten superhydrophoben Oberflächen aus Janus-Mikrosäulen mit variierenden Dimensionen und Topographien entwickelt. Die Janus-Säulen haben hydrophobe Seitenwände und hydrophile Silika-Oberseiten, die anschließend selektiv und ohne Verlust der superhydrophoben Eigenschaften der Oberfläche funktionalisiert werden können. Diese selektive Oberflächenfunktionalisierung wird mittels konfokaler Mikroskopie und durch das chemische Anbinden von fluoreszenten Molekülen an die Säulenoberseiten sichtbar gemacht. Außerdem wird gezeigt, dass das Benetzungsverhalten durch Wechselwirkungen zwischen Flüssigkeit und Festkörper in der Nähe der Benetzungslinie bestimmt wird. Diese Beobachtung widerlegt das allgemein akzeptierte Modell von Cassie und Baxter und beinhaltet, dass hydrophile Flächen, die durch mechanischen Abrieb freigelegt werden, nicht zu einem Verlust der Superhydrophobizität führen müssen, wie allgemein angenommen.rnBenetzung kann auch durch eine räumliche Beschränkung von Flüssigkeiten kontrolliert werden, z.B. in mikrofluidischen Systemen. Hier wird eine modifizierte Stöber-Synthese verwendet, um künstliche und natürliche Faser-Template mit einer Silika-Schicht zu ummanteln. Nach der thermischen Zersetzung des organischen Templat-Materials entstehen wohldefinierte Silika-Kanäle und Kanalkreuzungen mit gleichmäßigen Durchmessern im Nano- und Mikrometerbereich. Auf Grund ihrer Transparenz, mechanischen Stabilität und des großen Länge-zu-Durchmesser-Verhältnisses sind die Kanäle sehr gut geeignet, um die Füllgeschwindigkeiten von Flüssigkeiten mit variierenden Oberflächenspannungen und Viskositäten zu untersuchen. Konfokale Mikroskopie ermöglicht es hierbei, die Füllgeschwindigkeiten über eine Länge von mehreren Millimetern, sowie direkt am Kanaleingang zu messen. Das späte Füllstadium kann sehr gut mit der Lucas-Washburn-Gleichung beschrieben werden. Die anfänglichen Füllgeschwindigkeiten sind jedoch niedriger als theoretisch vorhergesagt. Wohingegen die vorhergehenden Abschnitte dieser Arbeit sich mit der quasistatischen Benetzung beschäftigen, spielt hier die Dynamik der Benetzung eine wichtige Rolle. Tatsächlich lassen sich die beobachteten Abweichungen durch einen geschwindigkeitsabhängigen Fortschreitkontaktwinkel erklären und durch dynamische Benetzungstheorien modellieren. Somit löst diese Arbeit das seit langem diskutierte Problem der Abweichungen von der Lucas-Washburn-Gleichung bei kleinen Füllgeschwindigkeiten.
Resumo:
Novel single step synthetic procedure for hydrophobically modified alkali soluble latexes (HASE) via a miniemulsion-analogous method is presented. This facile method simplifies the copolymerization of the monomers with basically “opposite” character in terms of their hydrophilic/hydrophobic nature, which represent one of the main challenges in water based systems. Considered systems do not represent classical miniemulsions due to a high content of water soluble monomers. However, the polymerization mechanism was found to be rather similar to miniemulsion polymerization process.rnThe influence of the different factors on the system stability has been investigated. The copolymerization behavior studies typically showed strong composition drifts during copolymerization. It was found that the copolymer composition drift can be suppressed via changing the initial monomer ratio.rnThe neutralization behavior of the obtained HASE systems was investigated via potentiometric titration. The rheological behavior of the obtained systems as a function of the different parameters, such as pH, composition (ultrahydrophobe content) and additive type and content has also been investigated.rnDetailed investigation of the storage and loss moduli, damping factor and the crossover frequencies of the samples showed that at the initial stages of the neutralization the systems show microgel-like behavior.rnThe dependence of the rheological properties on the content and the type of the ultrahydrophobe showed that the tuning of the mechanical properties can be easily achieved via minor (few percent) but significant changes in the content of the latter. Besides, changing the hydrophobicity of the ultrahydrophobe via increasing the carbon chain length represents another simple method for achieving the same results.rnThe influence of amphiphilic additives (especially alcohols) on the rheological behavior of the obtained systems has been studied. An analogy was made between micellation of surfactants and the formation of hydrophobic domains between hydrophobic groups of the polymer side chain.rnDilution induced viscosity reduction was investigated in different systems, without or with different amounts or types of the amphiphilic additive. Possibility of the controlled response to dilution was explored. It was concluded that the sensitivity towards dilution can be reduced, and in extreme cases even the increase of the dynamic modulus can be observed, which is of high importance for the setting behavior of the adhesive material.rnIn the last part of this work, the adhesive behavior of the obtained HASE systems was investigated on different substrates (polypropylene and glass) for the standard labeling paper. Wet tack and setting behavior was studied and the trends for possible applications have been evaluated.rnThe novel synthetic procedure, investigation of rheological properties and the possibility of the tuning via additives, investigated in this work create a firm background for the development of the HASE based adhesives as well as rheology modifiers with vast variety of possible applications due to ease of tuning the mechanical and rheological properties of the systems.
Resumo:
The excitation spectrum is one of the fundamental properties of every spatially extended system. The excitations of the building blocks of normal matter, i.e., protons and neutrons (nucleons), play an important role in our understanding of the low energy regime of the strong interaction. Due to the large coupling, perturbative solutions of quantum chromodynamics (QCD) are not appropriate to calculate long-range phenomena of hadrons. For many years, constituent quark models were used to understand the excitation spectra. Recently, calculations in lattice QCD make first connections between excited nucleons and the fundamental field quanta (quarks and gluons). Due to their short lifetime and large decay width, excited nucleons appear as resonances in scattering processes like pion nucleon scattering or meson photoproduction. In order to disentangle individual resonances with definite spin and parity in experimental data, partial wave analyses are necessary. Unique solutions in these analyses can only be expected if sufficient empirical information about spin degrees of freedom is available. The measurement of spin observables in pion photoproduction is the focus of this thesis. The polarized electron beam of the Mainz Microtron (MAMI) was used to produce high-intensity, polarized photon beams with tagged energies up to 1.47 GeV. A "frozen-spin" Butanol target in combination with an almost 4π detector setup consisting of the Crystal Ball and the TAPS calorimeters allowed the precise determination of the helicity dependence of the γp → π0p reaction. In this thesis, as an improvement of the target setup, an internal polarizing solenoid has been constructed and tested. A magnetic field of 2.32 T and homogeneity of 1.22×10−3 in the target volume have been achieved. The helicity asymmetry E, i.e., the difference of events with total helicity 1/2 and 3/2 divided by the sum, was determined from data taken in the years 2013-14. The subtraction of background events arising from nucleons bound in Carbon and Oxygen was an important part of the analysis. The results for the asymmetry E are compared to existing data and predictions from various models. The results show a reasonable agreement to the models in the energy region of the ∆(1232)-resonance but large discrepancies are observed for energy above 600 MeV. The expansion of the present data in terms of Legendre polynomials, shows the sensitivity of the data to partial wave amplitudes up to F-waves. Additionally, a first, preliminary multipole analysis of the present data together with other results from the Crystal Ball experiment has been as been performed.
Resumo:
Diese Arbeit widmet sich der Untersuchung der photophysikalischen Prozesse, die in Mischungen von Elektronendonoren mit Elektronenakzeptoren zur Anwendung in organischen Solarzellen auftreten. Als Elektronendonoren werden das Copolymer PBDTTT-C, das aus Benzodithiophen- und Thienothiophene-Einheiten besteht, und das kleine Molekül p-DTS(FBTTh2)2, welches Silizium-überbrücktes Dithiophen, sowie fluoriertes Benzothiadiazol und Dithiophen beinhaltet, verwendet. Als Elektronenakzeptor finden ein planares 3,4:9,10-Perylentetracarbonsäurediimid-(PDI)-Derivat und verschiedene Fullerenderivate Anwendung. PDI-Derivate gelten als vielversprechende Alternativen zu Fullerenen aufgrund der durch chemische Synthese abstimmbaren strukturellen, optischen und elektronischen Eigenschaften. Das gewichtigste Argument für PDI-Derivate ist deren Absorption im sichtbaren Bereich des Sonnenspektrums was den Photostrom verbessern kann. Fulleren-basierte Mischungen übertreffen jedoch für gewöhnlich die Effizienz von Donor-PDI-Mischungen.rnUm den Nachteil der PDI-basierten Mischungen im Vergleich zu den entsprechenden Fulleren-basierten Mischungen zu identifizieren, werden die verschiedenen Donor-Akzeptor-Kombinationen auf ihre optischen, elektronischen und strukturellen Eigenschaften untersucht. Zeitaufgelöste Spektroskopie, vor allem transiente Absorptionsspektroskopie (TA), wird zur Analyse der Ladungsgeneration angewendet und der Vergleich der Donor-PDI Mischfilme mit den Donor-Fulleren Mischfilmen zeigt, dass die Bildung von Ladungstransferzuständen einen der Hauptverlustkanäle darstellt.rnWeiterhin werden Mischungen aus PBDTTT-C und [6,6]-Phenyl-C61-buttersäuremethylesther (PC61BM) mittels TA-Spektroskopie auf einer Zeitskala von ps bis µs untersucht und es kann gezeigt werden, dass der Triplettzustand des Polymers über die nicht-geminale Rekombination freier Ladungen auf einer sub-ns Zeitskala bevölkert wird. Hochentwickelte Methoden zur Datenanalyse, wie multivariate curve resolution (MCR), werden angewendet um überlagernde Datensignale zu trennen. Zusätzlich kann die Regeneration von Ladungsträgern durch Triplett-Triplett-Annihilation auf einer ns-µs Zeitskala gezeigt werden. Darüber hinaus wird der Einfluss des Lösungsmitteladditivs 1,8-Diiodooctan (DIO) auf die Leistungsfähigkeit von p-DTS(FBTTh2)2:PDI Solarzellen untersucht. Die Erkenntnisse von morphologischen und photophysikalischen Experimenten werden kombiniert, um die strukturellen Eigenschaften und die Photophysik mit den relevanten Kenngrößen des Bauteils in Verbindung zu setzen. Zeitaufgelöste Photolumineszenzmessungen (time-resolved photoluminescence, TRPL) zeigen, dass der Einsatz von DIO zu einer geringeren Reduzierung der Photolumineszenz führt, was auf eine größere Phasentrennung zurückgeführt werden kann. Außerdem kann mittels TA Spektroskopie gezeigt werden, dass die Verwendung von DIO zu einer verbesserten Kristallinität der aktiven Schicht führt und die Generation freier Ladungen fördert. Zur genauen Analyse des Signalzerfalls wird ein Modell angewendet, das den gleichzeitigen Zerfall gebundener CT-Zustände und freier Ladungen berücksichtigt und optimierte Donor-Akzeptor-Mischungen zeigen einen größeren Anteil an nicht-geminaler Rekombination freier Ladungsträger.rnIn einer weiteren Fallstudie wird der Einfluss des Fullerenderivats, namentlich IC60BA und PC71BM, auf die Leistungsfähigkeit und Photophysik der Solarzellen untersucht. Eine Kombination aus einer Untersuchung der Struktur des Dünnfilms sowie zeitaufgelöster Spektroskopie ergibt, dass Mischungen, die ICBA als Elektronenakzeptor verwenden, eine schlechtere Trennung von Ladungstransferzuständen zeigen und unter einer stärkeren geminalen Rekombination im Vergleich zu PCBM-basierten Mischungen leiden. Dies kann auf die kleinere Triebkraft zur Ladungstrennung sowie auf die höhere Unordnung der ICBA-basierten Mischungen, die die Ladungstrennung hemmen, zurückgeführt werden. Außerdem wird der Einfluss reiner Fullerendomänen auf die Funktionsfähigkeit organischer Solarzellen, die aus Mischungen des Thienothienophen-basierenden Polymers pBTTT-C14 und PC61BM bestehen, untersucht. Aus diesem Grund wird die Photophysik von Filmen mit einem Donor-Akzeptor-Mischungsverhältnis von 1:1 sowie 1:4 verglichen. Während 1:1-Mischungen lediglich eine co-kristalline Phase, in der Fullerene zwischen den Seitenketten von pBTTT interkalieren, zeigen, resultiert der Überschuss an Fulleren in den 1:4-Proben in der Ausbildung reiner Fullerendomänen zusätzlich zu der co kristallinen Phase. Transiente Absorptionsspektroskopie verdeutlicht, dass Ladungstransferzustände in 1:1-Mischungen hauptsächlich über geminale Rekombination zerfallen, während in 1:4 Mischungen ein beträchtlicher Anteil an Ladungen ihre wechselseitige Coulombanziehung überwinden und freie Ladungsträger bilden kann, die schließlich nicht-geminal rekombinieren.
Resumo:
Um einen positiven Einfluss auf den Krankheitsverlauf bei Patienten mit Rheumatoider Arthritis zu nehmen, ist die Compliance mit dem Basistherapeutikum Methotrexat unerlässlich. Therapietreue mit Methotrexat kann die Krankheitsprogression verhindern und irreversiblen Knochenerosionen vorbeugen. Methotrexat wird sowohl in subkutaner als auch in peroraler Applikationsform verordnet. Im Rahmen der vorliegenden Arbeit wurde die Compliance mit der Anwendung von Methotrexat Fertigspritzen und Tabletten mit einer elektronischen Messmethode (MEMS™) bestimmt. Hauptziel der Studie war die Bestimmung der Taking Compliance mit Methotrexat. Untersucht wurde hinsichtlich eines Unterschieds zwischen der Applikationsform und der Erkrankungsdauer. Daneben wurde die Dosing Compliance mit peroralem Methotrexat erfasst, sowie Einschätzungen der Patienten bezüglich der Compliance, Funktionskapazität, Lebensqualität und Zufriedenheit erhoben. Die Compliancestudie erfolgte in Kooperation mit dem Netzwerk ADAPTHERA. 74 Studienpatienten wurden 3 Gruppen zugeteilt: Gruppe 1 Methotrexat p.o.; Gruppe 2 Methotrexat s.c. und Erkrankungsdauer <24 Monate; Gruppe 3 Methotrexat s.c. und Erkrankungsdauer >24 Monate. Die Beobachtungsdauer betrug bei peroraler Applikationsform 9 Monate und bei subkutaner 6 Monate. Im Median wurde eine Taking und Dosing Compliance von 100% gemessen. Anhand der subjektiven Einschätzung der Patienten zur Funktionskapazität konnten geringe Einschränkungen für die Patienten im Alltag verzeichnet werden. 25% des Studienkollektivs litt unter einem reduzierten Wohlbefinden. Die Studie konnte zeigen, dass Patienten von einer frühzeitigen Therapie und einer hohen Compliancerate profitieren.
Resumo:
Die Erdatmosphäre besteht hauptsächlich aus Stickstoff (78%), Sauerstoff (21%) und Edelga¬sen. Obwohl Partikel weniger als 0,1% ausmachen, spielen sie eine entscheidende Rolle in der Chemie und Physik der Atmosphäre, da sie das Klima der Erde sowohl direkt als auch indirekt beeinflussen. Je nach Art der Bildung unterscheidet man zwischen primären und sekundären Partikeln, wobei primäre Partikel direkt in die Atmosphäre eingetragen werden. Sekundäre Partikel hingegen entstehen durch Kondensation von schwerflüchtigen Verbindungen aus der Gasphase, welche durch Reaktionen von gasförmigen Vorläufersubstanzen (volatile organic compounds, VOCs) mit atmosphärischen Oxidantien wie Ozon oder OH-Radikalen gebildet werden. Da die meisten Vorläufersubstanzen organischer Natur sind, wird das daraus gebil¬dete Aerosol als sekundäres organisches Aerosol (SOA) bezeichnet. Anders als die meisten primären Partikel stammen die VOCs überwiegend aus biogenen Quellen. Es handelt sich da¬bei um ungesättigte Kohlenwasserstoffe, die bei intensiver Sonneneinstrahlung und hohen Temperaturen von Pflanzen emittiert werden. Viele der leichtflüchtigen Vorläufersubstanzen sind chiral, sowohl die Vorläufer als auch die daraus gebildeten Partikel werden aber in den meisten Studien als eine Verbindung betrachtet und gemeinsam analysiert. Die mit Modellen berechneten SOA-Konzentrationen, welche auf dieser traditionellen Vorstellung der SOA-Bil¬dung beruhen, liegen deutlich unterhalb der in der Atmosphäre gefundenen, so dass neben diesem Bildungsweg auch noch andere SOA-Bildungsarten existieren müssen. Aus diesem Grund wird der Fokus der heutigen Forschung vermehrt auf die heterogene Chemie in der Partikelphase gerichtet. Glyoxal als Modellsubstanz kommt hierbei eine wichtige Rolle zu. Es handelt sich bei dieser Verbindung um ein Molekül mit einem hohen Dampfdruck, das auf Grund dieser Eigenschaft nur in der Gasphase zu finden sein sollte. Da es aber über zwei Alde¬hydgruppen verfügt, ist es sehr gut wasserlöslich und kann dadurch in die Partikelphase über¬gehen, wo es heterogenen chemischen Prozessen unterliegt. Unter anderem werden in An¬wesenheit von Ammoniumionen Imidazole gebildet, welche wegen der beiden Stickstoff-He¬teroatome lichtabsorbierende Eigenschaften besitzen. Die Verteilung von Glyoxal zwischen der Gas- und der Partikelphase wird durch das Henrysche Gesetz beschrieben, wobei die Gleichgewichtskonstante die sogenannte Henry-Konstante ist. Diese ist abhängig von der un¬tersuchten organischen Verbindung und den im Partikel vorhandenen anorganischen Salzen. Für die Untersuchung chiraler Verbindungen im SOA wurde zunächst eine Filterextraktions¬methode entwickelt und die erhaltenen Proben anschließend mittels chiraler Hochleistungs-Flüssigchromatographie, welche an ein Elektrospray-Massenspektrometer gekoppelt war, analysiert. Der Fokus lag hierbei auf dem am häufigsten emittierten Monoterpen α-Pinen und seinem Hauptprodukt, der Pinsäure. Da bei der Ozonolyse des α-Pinens das cyclische Grund¬gerüst erhalten bleibt, können trotz der beiden im Molekül vorhanden chiralen Zentren nur zwei Pinsäure Enantiomere gebildet werden. Als Extraktionsmittel wurde eine Mischung aus Methanol/Wasser 9/1 gewählt, mit welcher Extraktionseffizienzen von 65% für Pinsäure Enan¬tiomer 1 und 68% für Pinsäure Enantiomer 2 erreicht werden konnten. Des Weiteren wurden Experimente in einer Atmosphärensimulationskammer durchgeführt, um die Produkte der α-Pinen Ozonolyse eindeutig zu charakterisieren. Enantiomer 1 wurde demnach aus (+)-α-Pinen gebildet und Enantiomer 2 entstand aus (-)-α-Pinen. Auf Filterproben aus dem brasilianischen Regenwald konnte ausschließlich Pinsäure Enantiomer 2 gefunden werden. Enantiomer 1 lag dauerhaft unterhalb der Nachweisgrenze von 18,27 ng/mL. Im borealen Nadelwald war das Verhältnis umgekehrt und Pinsäure Enantiomer 1 überwog vor Pinsäure Enantiomer 2. Das Verhältnis betrug 56% Enantiomer 1 zu 44% Enantiomer 2. Saisonale Verläufe im tropischen Regenwald zeigten, dass die Konzentrationen zur Trockenzeit im August höher waren als wäh¬rend der Regenzeit im Februar. Auch im borealen Nadelwald wurden im Sommer höhere Kon¬zentrationen gemessen als im Winter. Die Verhältnisse der Enantiomere änderten sich nicht im jahreszeitlichen Verlauf. Die Bestimmung der Henry-Konstanten von Glyoxal bei verschiedenen Saataerosolen, nämlich Ammoniumsulfat, Natriumnitrat, Kaliumsulfat, Natriumchlorid und Ammoniumnitrat sowie die irreversible Produktbildung aus Glyoxal in Anwesenheit von Ammoniak waren Forschungs¬gegenstand einer Atmosphärensimulationskammer-Kampagne am Paul-Scherrer-Institut in Villigen, Schweiz. Hierzu wurde zunächst das zu untersuchende Saataerosol in der Kammer vorgelegt und dann aus photochemisch erzeugten OH-Radikalen und Acetylen Glyoxal er¬zeugt. Für die Bestimmung der Glyoxalkonzentration im Kammeraerosol wurde zunächst eine beste¬hende Filterextraktionsmethode modifiziert und die Analyse mittels hochauflösender Mas¬senspektrometrie realisiert. Als Extraktionsmittel kam 100% Acetonitril, ACN zum Einsatz wo¬bei die Extraktionseffizienz bei 85% lag. Für die anschließende Derivatisierung wurde 2,4-Di¬nitrophenylhydrazin, DNPH verwendet. Dieses musste zuvor drei Mal mittels Festphasenex¬traktion gereinigt werden um störende Blindwerte ausreichend zu minimieren. Die gefunde¬nen Henry-Konstanten für Ammoniumsulfat als Saataerosol stimmten gut mit in der Literatur gefundenen Werten überein. Die Werte für Natriumnitrat und Natriumchlorid als Saataerosol waren kleiner als die von Ammoniumsulfat aber größer als der Wert von reinem Wasser. Für Ammoniumnitrat und Kaliumsulfat konnten keine Konstanten berechnet werden. Alle drei Saataerosole führten zu einem „Salting-in“. Das bedeutet, dass bei Erhöhung der Salzmolalität auch die Glyoxalkonzentration im Partikel stieg. Diese Beobachtungen sind auch in der Litera¬tur beschrieben, wobei die Ergebnisse dort nicht auf der Durchführung von Kammerexperi¬menten beruhen, sondern mittels bulk-Experimenten generiert wurden. Für die Trennung der Imidazole wurde eine neue Filterextraktionsmethode entwickelt, wobei sich ein Gemisch aus mit HCl angesäuertem ACN/H2O im Verhältnis 9/1 als optimales Extrak¬tionsmittel herausstellte. Drei verschiedenen Imidazole konnten mit dieser Methode quanti¬fiziert werden, nämlich 1-H-Imidazol-4-carbaldehyd (IC), Imidazol (IM) und 2,2‘-Biimidazol (BI). Die Effizienzen lagen für BI bei 95%, für IC bei 58% und für IM bei 75%. Kammerexperimente unter Zugabe von Ammoniak zeigten höhere Imidazolkonzentrationen als solche ohne. Wurden die Experimente ohne Ammoniak in Anwesenheit von Ammoni¬umsulfat durchgeführt, wurden höhere Imidazol-Konzentrationen gefunden als ohne Ammo¬niumionen. Auch die relative Luftfeuchtigkeit spielte eine wichtige Rolle, da sowohl eine zu hohe als auch eine zu niedrige relative Luftfeuchtigkeit zu einer verminderten Imidazolbildung führte. Durch mit 13C-markiertem Kohlenstoff durchgeführte Experimente konnte eindeutig gezeigt werden, dass es sich bei den gebildeten Imidazolen und Glyoxalprodukte handelte. Außerdem konnte der in der Literatur beschriebene Bildungsmechanismus erfolgreich weiter¬entwickelt werden. Während der CYPHEX Kampagne in Zypern konnten erstmalig Imidazole in Feldproben nach¬gewiesen werden. Das Hauptprodukt IC zeigte einen tageszeitlichen Verlauf mit höheren Kon¬zentrationen während der Nacht und korrelierte signifikant aber schwach mit der Acidität und Ammoniumionenkonzentration des gefundenen Aerosols.
Resumo:
Tree-ring chronologies are a powerful natural archive to reconstruct summer temperature variations of the late Holocene with an annual resolution. To develop these long-term proxy records tree-ring series are commonly extended back in time by combining samples from living trees with relict dead material preserved onshore or in lakes. Former studies showed that low frequency variations in such reconstructions can be biased if the relict and recent material is from different origins. A detailed analysis of the influence of various ecological (micro-) habitats representing the recent part is required to estimate potential errors in temperature estimates. The application of collective detrending methods, that comprise absolute growth rates, can produce errors in climate reconstructions and results in an underestimation of past temperatures. The appearance of these kind of micro-site effects is a wide-spread phenomenon that takes place all over Fennoscandia. Future research in this key region for dendroclimatology should take this issue into account. Especially the higher climate response at the lakeshore site is interesting to achieve smaller uncertainties when a tree-ring series is transformed to temperature anomalies. For new composite chronologies the main aim should be to minimize potential biases and this includes also micro-site effects.
Resumo:
This thesis assesses the question, whether accounting for non-tradable goods sectors in a calibrated Auerbach-Kotlikoff multi-regional overlapping-generations-model significantly affects this model’s results when simulating the economic impact of demographic change. Non-tradable goods constitute a major part of up to 80 percent of GDP of modern economies. At the same time, multi-regional overlapping-generations-models presented by literature on demographic change so far ignored their existence and counterfactually assumed perfect tradability between model regions. Moreover, this thesis introduces the assumption of an increasing preference share for non-tradable goods of old generations. This fact-based as-sumption is also not part of models in relevant literature. rnThese obvious simplifications of common models vis-à-vis reality notwithstanding, this thesis concludes that differences in results between a model featuring non-tradable goods and a common model with perfect tradability are very small. In other words, the common simplifi-cation of ignoring non-tradable goods is unlikely to lead to significant distortions in model results. rnIn order to ensure that differences in results between the ‘new’ model, featuring both non-tradable and tradable goods, and the common model solely reflect deviations due to the more realistic structure of the ‘new’ model, both models are calibrated to match exactly the same benchmark data and thus do not show deviations in their respective baseline steady states.rnA variation analysis performed in this thesis suggests that differences between the common model and a model with non-tradable goods can theoretically be large, but only if the bench-mark tradable goods sector is assumed to be unrealistically small.rnFinally, this thesis analyzes potential real exchange rate effects of demographic change, which could occur due to regional price differences of non-tradable goods. However, results show that shifts in real exchange rate based on these price differences are negligible.rn
Resumo:
The incorporation of modified nucleotides into ribonucleic acids (RNAs) is important for their structure and proper function. These modifications are inserted by distinct catalytic macromolecules one of them being Dnmt2. It methylates the Cytidine (C) at position 38 in tRNA to 5-methylcytidine (m5C). Dnmt2 has been a paradigm in this respect, because all of its nearest neighbors in evolution are DNA-cytosine C5-methyltransferases and methylate DNA, while its (own) DNA methyltransferase activity is the subject of controversial reports with rates varying between zero and very weak. This work determines whether the biochemical potential for DNA methylation is present in the enzyme. It was discovered that DNA fragments, when presented as covalent RNA:DNA hybrids in the structural context of a tRNA, can be more efficiently methylated than the corresponding natural tRNA substrate. Additional minor deviations from a native tRNA structure that were seen to be tolerated by Dnmt2 were used for a stepwise development of a composite system of guide RNAs that enable the enzyme to perform cytidine methylation on single stranded DNA in vitro. Furthermore, a proof-of-principle is presented for utilizing the S-adenosyl methionine-analog cofactor SeAdoYn with Dnmt2 to search for new possible substrates in a SELEX-like approach.rnIn innate immunity, nucleic acids can function as pathogen associated molecular patterns (PAMPs) recognized by pattern recognition receptors (PRRs). The modification pattern of RNA is the discriminating factor for toll-like receptor 7 (TLR7) to distinguish between self and non-self RNA of invading pathogens. It was found that a 2'-O-methylated guanosine (Gm) at position18, naturally occurring at this position in some tRNAs, antagonizes recognition by TLR7. In the second part of this work it is pointed out, that recognition extends to the next downstream nucleotide and the effectively recognized molecular detail is actually a methylated dinucleotide. The immune silencing effect of the ribose methylation is most pronounced if the dinucleotide motif is composed of purin nucleobases whereas pyrimidines diminish the effect. Similar results were obtained when the Gm modification was transposed into other tRNA domains. Point mutations abolishing base pairings important for a proper tertiary structure had no effect on the immune stimulatory potential of a Gm modified tRNA. Taken together these results suggest a processive type of RNA inspection by TLR7.rn
Resumo:
In „’Let ‘em have it – right on the chin.’ – Die Haltung der britischen Öffentlich-keit zum RAF-Flächenbombardement 1939-1945“ wird durch die Untersuchung der vier Tageszeitungen Times, Manchester Guardian, Daily Express und Daily Mirror sowie der wöchentlichen Berichte des britischen Informationsministeriums nachgewiesen, dass 1942 ein Konsens in der britischen Öffentlichkeit für Flächenbombardements eintrat. Diese Einigkeit entstand aufgrund der Kriegssituation, sozialpsychologischer Mechanismen und realpolitischer Erwägungen und verfestigte sich 1943 und zum Teil auch 1944 deutlich. Die öffentliche Meinung kehrte sich in den drei Jahren zwischen 1940 und 1943 vollständig um und wandelte sich 1944 erneut: Während 1940 die Mehrheit gegen die Bombardierung der deutschen Zivilbevölkerung eingestellt war, fand in den folgenden drei Jahren eine Entwicklung statt, die 1943 in den Konsens, 1944 aber in die Tabuisierung des Themas mündete. Dabei verstärkten insbesondere zwei Argumente den Prozess der Konsensbildung: Nachdem bis Anfang 1941 die Bedeutung der Begrifflichkeiten so weit vereinheitlicht worden war, dass beispielsweise die Mehrheit der Briten etwas mit dem Ausdruck „Flächenbombardement“ anfangen konnte, setzte sich im Laufe des Jahres 1940 – in Presse und Bevölkerung parallel – ein Feindbild durch, das das gesamte deutsche Volk in Haftung nahm und es insofern auch für die deutschen Luftangriffe auf Großbritannien verantwortlich machte. Erst daraus erwuchs die Rechtfertigung für die Forderung nach Vergeltung, die durch diese Begründung von bloßen Rachegelüsten losgelöst werden konnte. Seit dem deutschen Angriff auf die Sowjetunion im Juni 1941 galten Flächenbombardements – hier folgten Bevölkerung und Presse der britischen Regierung – außerdem als Vorbereitung für die Westoffensive. Eine Mehrheit sprach sich schon 1941 für Flächenbombardements aus, mit den großen Angriffen 1942 und vor allem 1943 war der Konsens dann so vollständig erreicht, dass kritische Stimmen fast gänzlich verstummten. Als mit der alliierten Landung in der Normandie 1944 ein wichtiges Argument für die Notwendigkeit von Flächenbombardements wegfiel, setzte eine Tabuisierung des Themas ein, die sich 1945 verfestigte. Insgesamt beleuchtet die Arbeit, durch welche Faktoren in einer Kontroverse eine gesellschaftliche Einigkeit im Großbritannien der frühen vierziger Jahre erzeugt wurde. Dieser Zusammenhalt war notwendig, um die Handlungsfähigkeit der Gesellschaft zu gewährleisten, so dass sich der Konsens in der Kriegssituation als wichtige Überlebensstrategie erwies. Erreicht wurde er aber auf Kosten des für eine demokratische Gesellschaft auch charakteristischen Pluralismus von Meinungen und Einstellungen.