954 resultados para Research Subject Categories::NATURAL SCIENCES::Chemistry::Biochemistry


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Die organische Halbleitertechnologie befindet sich seit Jahrzehnten im Focus des Interesses, da sie eine kostengünstige und umweltverträgliche Alternative zu anorganischen Silizium-basierten Halbleitern darstellt. Die Möglichkeit der gezielten Funktionalisierung von definierten Strukturen durch synthetische Methoden, welche eine große Vielfalt an Materialien ermöglicht, steht dabei besonders im Vordergrund. Die Modifikation von physikalischen Eigenschaften ermöglicht dabei eine stark erleichterte Anpassung für den geplanten Anwendungsbereich. Im Rahmen der vorliegenden Dissertation wurden organische Halbleitermaterialien basierend auf Cyclopenta[2,1-b:3,4-b']dithiophen (CDT) dargestellt und hinsichtlich ihrer strukturellen und elektronischen Eigenschaften untersucht. In Kombination mit Benzo[c][1,2,5]thiadiazol (BTZ) und weiteren Akzeptoren wurden zunächst Donor(D)-Akzeptor(A)-Polymere synthetisiert und Struktur-Eigenschaft-Beziehungen aufgestellt. So konnte ein sehr hochmolekulares Polymer CDT-BTZ-Polymer (Mn = 36 kg mol-1, PDI = 2.6) erhalten werden, welches sich durch eine hohe lamellare Ordnung und eine gemessene Ladungsträgermobilität in FETs von über 5.0 cm2V-1s-1 bei Raumtemperatur auszeichnete; bei niedrigen Temperaturen (240 K) war letztgenannte 6.5 cm2V-1s-1. Aufgrund dieses hohen Ladungstransports und der Abwesenheit niedermolekularer Polymerketten innerhalb des Polymers konnte erstmals eine Messung eines HALL-Effektes bewerkstelligt werden. Dies war der erste Beweis eines Band-artigen Ladungstransportes an einem Polymerhalbleiter. Des Weiteren wurde durch synthetische Veränderung der Grundstruktur des Polymers zu längeren Alkylketten eine anisotrope Anordnung der Polymerketten erreicht und die Ladungsträgermobilität (6.5 cm2V-1s-1 bei Raumtemperatur) weiter gesteigert. Darauf aufbauend wurde der Einfluss von stereoisomeren Seitenketten an CDT-BTZ-Polymeren auf Packungsverhalten, Parametern (Sperrstrom, Einschaltstrom) in FETs und Löslichkeit in organischen Lösungsmitteln untersucht. Durch cis-trans-Isomerisierung der Seitenketten wurde hier eine neue Methode zur Optimierung des Packungsverhaltens von Polymeren in dünnen Filmen und Lösung gefunden. Zuletzt wurden D-π-A-Farbstoffen, welche CDT als Verbrückungseinheit (π) beinhalten, dargestellt. Durch Variation von D und A konnten Struktur-Eigenschaft-Beziehungen in der Anwendung in Solarzellen (Feststoffsolarzellen, Flüssigsolarzellen) gefunden werden. Die Untersuchungen der photoinduzierten Absorption und der Photolumisenzenzquantenausbeute lieferten dabei Erklärungen für physikalische Prozesse wie Ladungsinjektion- und rekombination.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Das Hydroxyl Radikal ist, auf globalem Maßstab, das bedeutendste Oxidant in der Atmosphäre. Es initiiert den Abbauprozess vieler, teilweise schädlicher, Spurengase und insbesondere den von flüchtigen Kohlenwasserstoffen (VOC). Die OH Konzentration ist somit ein gutes Maß für die augenblickliche Selbstreinigungskapazität der Atmosphäre. Messungen zu nächtlicher Zeit mit LIF-FAGE-Instrumenten (engl.: laser-induced fluorescence - fluorescence assay by gas expansion) haben Konzentrationen des Hydroxylradikals (OH) ergeben, die signifikant höher waren, als sich mit der bekannten Chemie erklären ließ. Um herauszufinden, ob ein solches Signal wirklich atmosphärisches OH ist oder von einer störenden Spezies stammt, die im Messinstrument OH produziert, wurde das LIF-FAGE-Instrument des Max-Planck-Instituts für Chemie (MPIC) im Rahmen dieser Doktorarbeit modifiziert und getestet. Dazu wurde ein so genannter Inlet Pre-Injector (IPI) entwickelt, mit dem in regelmäßigen Abständen ein OH-Fänger in die Umgebungsluft abgegeben werden kann, bevor das OH vom Instrument erfasst wird. Mit dieser Technik ist es möglich, ein Hintergrund-OH (OHbg), d. h. ein im Instrument erzeugtes OH-Signal, vom gemessenen OH-Gesamtsignal (OHtot) zu trennen. Die Differenz zwischen OHtot und OHbg ist die atmosphärische OH-Konzentration (OHatm). Vergleichsmessungen mit der hier entwickelten Technik, dem IPI, in zwei verschiedenen Umgebungen mit Instrumenten basierend auf Massenspektrometrie mit chemischer Ionisation (CIMS, engl.: chemical ionization mass spectrometry) als alternativer Methode des OH-Nachweises, zeigten eine weitgehende Übereinstimmung. Eine umfassende Beschreibung des Systems zur Ermittlung der Ursache des OHbg hat ergeben, dass es weder von einem Artefakt des Instruments noch von hinlänglich bekannten und beschriebenen LIF-FAGE-Interferenzen stammt. Zur Bestimmung der Spezies, die das OHbg-Signal verursacht, wurden verschiedene Laborstudien durchgeführt. Die Arbeit im Rahmen dieser Doktorarbeit hat ergeben, dass das LIF-FAGE-Instrument leicht auf OH reagiert, das beim monomolekularen Zerfall stabilisierter Criegee-Intermediate (SCI) im Niederdruckbereich des Instruments gebildet wird. Criegee-Intermediate oder Carbonyloxide entstehen bei der Ozonolyse ungesättigter flüchtiger Kohlenwasserstoffverbindungen (VOC, engl.: volatile organic compounds) und können daher in der Umgebungsluft vorkommen. Anhand von Tests mit verschiedenen Verweilzeiten der SCI im Niederdruckbereich des Instruments in Verbindung mit einem detaillierten Modell mit der neuesten SCI-Chemie wurde die monomolekulare Zerfallsgeschwindigkeit von 20  10 s-1 für den syn-Acetaldehyd-Oxykonformer bestimmt. Der in Feldkampagnen gemessene OHbg-Wert wurde dahingehend untersucht, ob SCI die Quelle des beobachteten Hintergrund-OH im Feld sein könnten. Das Budget für die SCI-Konzentration, das für die Kampagnen HUMPPA-COPEC 2010 und HOPE 2012 berechnet wurde, ergab eine SCI-Konzentration zwischen ca. 103 und 106 Molekülen pro cm3. In der Kampagne HUMPPA-COPEC 2010 ergab die Schwefelsäurekonzentration, dass die OH-Oxidation von SO2 allein die gemessene H2SO4-Konzentration nicht erklären konnte. In dieser Arbeit konnte gezeigt werden, dass das Hintergrund-OH mit dieser ungeklärten Produktionsrate von H2SO4 korreliert und somit die Oxidation von SO2 durch SCI als mögliche Erklärung in Frage kommt. Ferner korreliert das Hintergrund-OH in der Kampagne HOPE 2012 mit dem Produkt aus Ozon und VOC und konnte mit SO2 als SCI Fänger entfernt werden. Qualitativ zeigen wir somit, dass das in der Umgebungsluft gemessene Hintergrund-OH wahrscheinlich durch den monomolekularen Zerfall von SCI verursacht wird, doch sind weitere Studien notwendig, um die quantitativen Beziehung für diese Spezies und dem Hintergrund-OH in unserem Instrument zu bestimmen.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Für das Vermögen der Atmosphäre sich selbst zu reinigen spielen Stickstoffmonoxid (NO) und Stickstoffdioxid (NO2) eine bedeutende Rolle. Diese Spurengase bestimmen die photochemische Produktion von Ozon (O3) und beeinflussen das Vorkommen von Hydroxyl- (OH) und Nitrat-Radikalen (NO3). Wenn tagsüber ausreichend Solarstrahlung und Ozon vorherrschen, stehen NO und NO2 in einem schnellen photochemischen Gleichgewicht, dem „Photostationären Gleichgewichtszustand“ (engl.: photostationary state). Die Summe von NO und NO2 wird deshalb als NOx zusammengefasst. Vorhergehende Studien zum photostationären Gleichgewichtszustand von NOx umfassen Messungen an unterschiedlichsten Orten, angefangen bei Städten (geprägt von starken Luftverschmutzungen), bis hin zu abgeschiedenen Regionen (geprägt von geringeren Luftverschmutzungen). Während der photochemische Kreislauf von NO und NO2 unter Bedingungen erhöhter NOx-Konzentrationen grundlegend verstanden ist, gibt es in ländlicheren und entlegenen Regionen, welche geprägt sind von niedrigeren NOx-Konzetrationen, signifikante Lücken im Verständnis der zugrundeliegenden Zyklierungsprozesse. Diese Lücken könnten durch messtechnische NO2-Interferenzen bedingt sein - insbesondere bei indirekten Nachweismethoden, welche von Artefakten beeinflusst sein können. Bei sehr niedrigen NOx-Konzentrationen und wenn messtechnische NO2-Interferenzen ausgeschlossen werden können, wird häufig geschlussfolgert, dass diese Verständnislücken mit der Existenz eines „unbekannten Oxidationsmittels“ (engl.: unknown oxidant) verknüpft ist. Im Rahmen dieser Arbeit wird der photostationäre Gleichgewichtszustand von NOx analysiert, mit dem Ziel die potenzielle Existenz bislang unbekannter Prozesse zu untersuchen. Ein Gasanalysator für die direkte Messung von atmosphärischem NO¬2 mittels laserinduzierter Fluoreszenzmesstechnik (engl. LIF – laser induced fluorescence), GANDALF, wurde neu entwickelt und während der Messkampagne PARADE 2011 erstmals für Feldmessungen eingesetzt. Die Messungen im Rahmen von PARADE wurden im Sommer 2011 in einem ländlich geprägten Gebiet in Deutschland durchgeführt. Umfangreiche NO2-Messungen unter Verwendung unterschiedlicher Messtechniken (DOAS, CLD und CRD) ermöglichten einen ausführlichen und erfolgreichen Vergleich von GANDALF mit den übrigen NO2-Messtechniken. Weitere relevante Spurengase und meteorologische Parameter wurden gemessen, um den photostationären Zustand von NOx, basierend auf den NO2-Messungen mit GANDALF in dieser Umgebung zu untersuchen. Während PARADE wurden moderate NOx Mischungsverhältnisse an der Messstelle beobachtet (10^2 - 10^4 pptv). Mischungsverhältnisse biogener flüchtige Kohlenwasserstoffverbindungen (BVOC, engl.: biogenic volatile organic compounds) aus dem umgebenden Wald (hauptsächlich Nadelwald) lagen in der Größenordnung 10^2 pptv vor. Die Charakteristiken des photostationären Gleichgewichtszustandes von NOx bei niedrigen NOx-Mischungsverhältnissen (10 - 10^3 pptv) wurde für eine weitere Messstelle in einem borealen Waldgebiet während der Messkampagne HUMPPA-COPEC 2010 untersucht. HUMPPA–COPEC–2010 wurde im Sommer 2010 in der SMEARII-Station in Hyytiälä, Süd-Finnland, durchgeführt. Die charakteristischen Eigenschaften des photostationären Gleichgewichtszustandes von NOx in den beiden Waldgebieten werden in dieser Arbeit verglichen. Des Weiteren ermöglicht der umfangreiche Datensatz - dieser beinhaltet Messungen von relevanten Spurengasen für die Radikalchemie (OH, HO2), sowie der totalen OH-Reaktivität – das aktuelle Verständnis bezüglich der NOx-Photochemie unter Verwendung von einem Boxmodell, in welches die gemessenen Daten als Randbedingungen eingehen, zu überprüfen und zu verbessern. Während NOx-Konzentrationen in HUMPPA-COPEC 2010 niedriger sind, im Vergleich zu PARADE 2011 und BVOC-Konzentrationen höher, sind die Zyklierungsprozesse von NO und NO2 in beiden Fällen grundlegend verstanden. Die Analyse des photostationären Gleichgewichtszustandes von NOx für die beiden stark unterschiedlichen Messstandorte zeigt auf, dass potenziell unbekannte Prozesse in keinem der beiden Fälle vorhanden sind. Die aktuelle Darstellung der NOx-Chemie wurde für HUMPPA-COPEC 2010 unter Verwendung des chemischen Mechanismus MIM3* simuliert. Die Ergebnisse der Simulation sind konsistent mit den Berechnungen basierend auf dem photostationären Gleichgewichtszustand von NOx.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Gewebe, Zellen und speziell Zellkompartimente unterscheiden sich in ihrer Sauerstoffkonzentration, Stoffwechselrate und in der Konzentration an gebildeten reaktiven Sauerstoffspezies. Um eine mögliche Änderung in der Aminosäurennutzung durch den Einfluss von Sauerstoff und seinen reaktiven Spezies untersuchen zu können wurden, Bereiche bzw. Kompartimente der menschlichen Zelle definiert, die einen Referenzrahmen bildeten und bekannt dafür sind, einen relativ hohen Grad an reaktiven Sauerstoffspezies aufzuweisen. Aus dem Vergleich wurde deutlich, dass vor allem die beiden redox-aktiven und schwefeltragenden Aminosäuren Cystein und Methionin durch eine besondere Verteilung und Nutzung charakterisiert sind. Cystein ist hierbei diejenige Aminosäure mit den deutlichsten Änderungen in den fünf untersuchten Modellen der oxidativen Belastung. In all diesen Modellen war die Nutzung von Cystein deutlich reduziert, wohingegen Methionin in Proteinen des Mitochondriums und der Elektronentransportkette angereichert war. Dieser auf den ersten Blick paradoxe Unterschied zwischen Cystein und Methionin wurde näher untersucht, indem die differenzierte Methioninnutzung in verschiedenen Zellkompartimenten von Homo sapiens charakterisiert wurde.rnDie sehr leicht zu oxidierende Aminosäure Methionin zeigt ein ungewöhnliches Verteilungsmuster in ihrer Nutzungshäufigkeit. Entgegen mancher Erwartung wird Methionin in zellulären Bereichen hoher oxidativer Belastung und starker Radikalproduktion intensiv verwendet. Dieses Verteilungsmuster findet man sowohl im intrazellulären Vergleich, als auch im Vergleich verschiedener Spezies untereinander, was daraufhin deutet, dass es einen lokalen Bedarf an redox-aktiven Aminosäuren gibt, der einen sehr starken Effekt auf die Nutzungshäufigkeit von Methionin ausübt. Eine hohe Stoffwechselrate, die im Allgemeinen mit einer erhöhten Produktion von Oxidantien assoziiert wird, scheint ein maßgeblicher Faktor der Akkumulation von Methionin in Proteinen der Atmungskette zu sein. Die Notwendigkeit, oxidiertes Antioxidans wieder zu reduzieren, findet auch bei Methionin Anwendung, denn zu Methioninsulfoxid oxidiertes Methionin wird durch die Methioninsulfoxidreduktase wieder zu Methionin reduziert. Daher kann die spezifische Akkumulation von Methionin in Proteinen, die verstärkt reaktiven Sauerstoffspezies ausgesetzt sind, als eine systematische Strategie angesehen werden, um andere labile Strukturen vor ungewollter Oxidation zu schützen. rnDa Cystein in allen untersuchten Modellen der oxidativen Belastung und im Besonderen in Membranproteinen der inneren Mitochondrienmembran lebensspannenabhängig depletiert war, wurde dieses Merkmal näher untersucht. Deshalb wurde die Hypothese getestet, ob ein besonderer Redox-Mechanismus der Thiolfunktion für diese selektive Depletion einer im Allgemeinen als harmlos oder antioxidativ geltenden Aminosäure verantwortlich ist. Um den Effekt von Cysteinresten in Membranen nachzustellen, wurden primäre humane Lungenfibroblasten (IMR90) mit diversen Modellsubstanzen behandelt. Geringe Konzentrationen der lipophilen Substanz Dodecanthiol verursachten eine signifikante Toxizität in IMR90-Zellen, die von einer schnellen Zunahme an polyubiquitinierten Proteinen und anderen Indikatoren des proteotoxischen Stresses, wie Sequestosom 1 (P62), HSP70 und HSP90 begleitet wurde. Dieser Effekt konnte spezifisch der Chemie der Thiolfunktion in Membranen zugeordnet werden, da Dodecanol (DOH), Dodecylmethylsulfid (DMS), Butanthiol oder wasserlösliche Thiole weder eine cytotoxische Wirkung noch eine Polyubiquitinierung von Proteinen verursachten. Die Ergebnisse stimmen mit der Hypothese überein, dass Thiole innerhalb von biologischen Membranen als radikalische Kettentransferagentien wirken. Diese Eigenschaft wird in der Polymerchemie durch Nutzung von lipophilen Thiolen in hydrophoben Milieus technisch für die Produktion von Polymeren benutzt. Da die Thiylradikal-spezifische Reaktion von cis-Fettsäuren zu trans-Fettsäuren in 12SH behandelten Zellen verstärkt ablief, kann gefolgert werden, dass 12SH zellulär radikalisiert wurde. In lebenden Organismen kann demnach die Oxidation von Cystein die Schädigung von Membranen beschleunigen und damit Einfallstore für die laterale Radikalisierung von integralen Membranproteinen schaffen, welche möglicherweise der Langlebigkeit abträglich ist, zumindest, wenn sie in der inneren Mitochondrienmembran auftritt.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Ozon (O3) ist ein wichtiges Oxidierungs- und Treibhausgas in der Erdatmosphäre. Es hat Einfluss auf das Klima, die Luftqualität sowie auf die menschliche Gesundheit und die Vegetation. Ökosysteme, wie beispielsweise Wälder, sind Senken für troposphärisches Ozon und werden in Zukunft, bedingt durch Stürme, Pflanzenschädlinge und Änderungen in der Landnutzung, heterogener sein. Es ist anzunehmen, dass diese Heterogenitäten die Aufnahme von Treibhausgasen verringern und signifikante Rückkopplungen auf das Klimasystem bewirken werden. Beeinflusst wird der Atmosphären-Biosphären-Austausch von Ozon durch stomatäre Aufnahme, Deposition auf Pflanzenoberflächen und Böden sowie chemische Umwandlungen. Diese Prozesse zu verstehen und den Ozonaustausch für verschiedene Ökosysteme zu quantifizieren sind Voraussetzungen, um von lokalen Messungen auf regionale Ozonflüsse zu schließen.rnFür die Messung von vertikalen turbulenten Ozonflüssen wird die Eddy Kovarianz Methode genutzt. Die Verwendung von Eddy Kovarianz Systemen mit geschlossenem Pfad, basierend auf schnellen Chemilumineszenz-Ozonsensoren, kann zu Fehlern in der Flussmessung führen. Ein direkter Vergleich von nebeneinander angebrachten Ozonsensoren ermöglichte es einen Einblick in die Faktoren zu erhalten, die die Genauigkeit der Messungen beeinflussen. Systematische Unterschiede zwischen einzelnen Sensoren und der Einfluss von unterschiedlichen Längen des Einlassschlauches wurden untersucht, indem Frequenzspektren analysiert und Korrekturfaktoren für die Ozonflüsse bestimmt wurden. Die experimentell bestimmten Korrekturfaktoren zeigten keinen signifikanten Unterschied zu Korrekturfaktoren, die mithilfe von theoretischen Transferfunktionen bestimmt wurden, wodurch die Anwendbarkeit der theoretisch ermittelten Faktoren zur Korrektur von Ozonflüssen bestätigt wurde.rnIm Sommer 2011 wurden im Rahmen des EGER (ExchanGE processes in mountainous Regions) Projektes Messungen durchgeführt, um zu einem besseren Verständnis des Atmosphären-Biosphären Ozonaustauschs in gestörten Ökosystemen beizutragen. Ozonflüsse wurden auf beiden Seiten einer Waldkante gemessen, die einen Fichtenwald und einen Windwurf trennt. Auf der straßenähnlichen Freifläche, die durch den Sturm "Kyrill" (2007) entstand, entwickelte sich eine Sekundärvegetation, die sich in ihrer Phänologie und Blattphysiologie vom ursprünglich vorherrschenden Fichtenwald unterschied. Der mittlere nächtliche Fluss über dem Fichtenwald war -6 bis -7 nmol m2 s-1 und nahm auf -13 nmol m2 s-1 um die Mittagszeit ab. Die Ozonflüsse zeigten eine deutliche Beziehung zur Pflanzenverdunstung und CO2 Aufnahme, was darauf hinwies, dass während des Tages der Großteil des Ozons von den Pflanzenstomata aufgenommen wurde. Die relativ hohe nächtliche Deposition wurde durch nicht-stomatäre Prozesse verursacht. Die Deposition über dem Wald war im gesamten Tagesverlauf in etwa doppelt so hoch wie über der Freifläche. Dieses Verhältnis stimmte mit dem Verhältnis des Pflanzenflächenindex (PAI) überein. Die Störung des Ökosystems verringerte somit die Fähigkeit des Bewuchses, als Senke für troposphärisches Ozon zu fungieren. Der deutliche Unterschied der Ozonflüsse der beiden Bewuchsarten verdeutlichte die Herausforderung bei der Regionalisierung von Ozonflüssen in heterogen bewaldeten Gebieten.rnDie gemessenen Flüsse wurden darüber hinaus mit Simulationen verglichen, die mit dem Chemiemodell MLC-CHEM durchgeführt wurden. Um das Modell bezüglich der Berechnung von Ozonflüssen zu evaluieren, wurden gemessene und modellierte Flüsse von zwei Positionen im EGER-Gebiet verwendet. Obwohl die Größenordnung der Flüsse übereinstimmte, zeigten die Ergebnisse eine signifikante Differenz zwischen gemessenen und modellierten Flüssen. Zudem gab es eine klare Abhängigkeit der Differenz von der relativen Feuchte, mit abnehmender Differenz bei zunehmender Feuchte, was zeigte, dass das Modell vor einer Verwendung für umfangreiche Studien des Ozonflusses weiterer Verbesserungen bedarf.rn

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Stratosphärische Partikel sind typischerweise mit dem bloßen Auge nicht wahrnehmbar. Dennoch haben sie einen signifikanten Einfluss auf die Strahlungsbilanz der Erde und die heteorogene Chemie in der Stratosphäre. Kontinuierliche, vertikal aufgelöste, globale Datensätze sind daher essenziell für das Verständnis physikalischer und chemischer Prozesse in diesem Teil der Atmosphäre. Beginnend mit den Messungen des zweiten Stratospheric Aerosol Measurement (SAM II) Instruments im Jahre 1978 existiert eine kontinuierliche Zeitreihe für stratosphärische Aerosol-Extinktionsprofile, welche von Messinstrumenten wie dem zweiten Stratospheric Aerosol and Gas Experiment (SAGE II), dem SCIAMACHY, dem OSIRIS und dem OMPS bis heute fortgeführt wird. rnrnIn dieser Arbeit wird ein neu entwickelter Algorithmus vorgestellt, der das sogenannte ,,Zwiebel-Schäl Prinzip'' verwendet, um Extinktionsprofile zwischen 12 und 33 km zu berechnen. Dafür wird der Algorithmus auf Radianzprofile einzelner Wellenlängen angewandt, die von SCIAMACHY in der Limb-Geometrie gemessen wurden. SCIAMACHY's einzigartige Methode abwechselnder Limb- und Nadir-Messungen bietet den Vorteil, hochaufgelöste vertikale und horizontale Messungen mit zeitlicher und räumlicher Koinzidenz durchführen zu können. Die dadurch erlangten Zusatzinformationen können verwendet werden, um die Effekte von horizontalen Gradienten entlang der Sichtlinie des Messinstruments zu korrigieren, welche vor allem kurz nach Vulkanausbrüchen und für polare Stratosphärenwolken beobachtet werden. Wenn diese Gradienten für die Berechnung von Extinktionsprofilen nicht beachtet werden, so kann dies dazu führen, dass sowohl die optischen Dicke als auch die Höhe von Vulkanfahnen oder polarer Stratosphärenwolken unterschätzt werden. In dieser Arbeit wird ein Verfahren vorgestellt, welches mit Hilfe von dreidimensionalen Strahlungstransportsimulationen und horizontal aufgelösten Datensätzen die berechneten Extinktionsprofile korrigiert.rnrnVergleichsstudien mit den Ergebnissen von Satelliten- (SAGE II) und Ballonmessungen zeigen, dass Extinktionsprofile von stratosphärischen Partikeln mit Hilfe des neu entwickelten Algorithmus berechnet werden können und gut mit bestehenden Datensätzen übereinstimmen. Untersuchungen des Nabro Vulkanausbruchs 2011 und des Auftretens von polaren Stratosphärenwolken in der südlichen Hemisphäre zeigen, dass das Korrekturverfahren für horizontale Gradienten die berechneten Extinktionsprofile deutlich verbessert.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Die Mikrophysik in Wolken bestimmt deren Strahlungseigenschaften und beeinflusst somit auch den Strahlungshaushalt des Planeten Erde. Aus diesem Grund werden im Rahmen der vorliegenden Arbeit die mikrophysikalischen Charakteristika von Cirrus-Wolken sowie von arktischen Grenzschicht-Wolken behandelt. Die Untersuchung dieser Wolken wurde mithilfe verschiedener Instrumente verwirklicht, welche Partikel in einem Durchmesserbereich von 250nm bis zu 6.4mm vermessen und an Forschungsflugzeugen montiert werden. Ein Instrumentenvergleich bestätigt, dass innerhalb der Bereiche in denen sich die Messungen dieser Instrumente überlappen, die auftretenden Diskrepanzen als sehr gering einzustufen sind. Das vorrangig verwendete Instrument trägt die Bezeichnung CCP (Cloud Combination Probe) und ist eine Kombination aus einem Instrument, das Wolkenpartikel anhand von vorwärts-gerichtetem Streulicht detektiert und einem weiteren, das zweidimensionale Schattenbilder einzelner Wolkenpartikel aufzeichnet. Die Untersuchung von Cirrus-Wolken erfolgt mittels Daten der AIRTOSS-ICE (AIRcraft TOwed Sensor Shuttle - Inhomogeneous Cirrus Experiment) Kampagne, welche im Jahr 2013 über der deutschen Nord- und Ostsee stattfand. Parameter wie Partikeldurchmesser, Partikelanzahlkonzentration, Partikelform, Eiswassergehalt, Wolkenhöhe und Wolkendicke der detektierten Cirrus-Wolken werden bestimmt und im Kontext des aktuellen Wissenstandes diskutiert. Des Weiteren wird eine beprobte Cirrus-Wolke im Detail analysiert, welche den typischen Entwicklungsprozess und die vertikale Struktur dieser Wolkengattung widerspiegelt. Arktische Grenzschicht-Wolken werden anhand von Daten untersucht, die während der VERDI (VERtical Distribution of Ice in Arctic Clouds) Kampagne im Jahr 2012 über der kanadischen Beaufortsee aufgezeichnet wurden. Diese Messkampagne fand im Frühling statt, um die Entwicklung von Eis-Wolken über Mischphasen-Wolken bis hin zu Flüssigwasser-Wolken zu beobachten. Unter bestimmten atmosphärischen Bedingungen tritt innerhalb von Mischphasen-Wolken der sogenannte Wegener-Bergeron-Findeisen Prozess auf, bei dem Flüssigwassertropfen zugunsten von Eispartikeln verdampfen. Es wird bestätigt, dass dieser Prozess anhand von mikrophysikalischen Messungen, insbesondere den daraus resultierenden Größenverteilungen, nachweisbar ist. Darüber hinaus wird eine arktische Flüssigwasser-Wolke im Detail untersucht, welche im Inneren das Auftreten von monomodalen Tröpfchen-Größenverteilungen zeigt. Mit zunehmender Höhe wachsen die Tropfen an und die Maxima der Größenverteilungen verschieben sich hin zu größeren Durchmessern. Dahingegen findet im oberen Übergangsbereich dieser Flüssigwasser-Wolke, zwischen Wolke und freier Atmosphäre, ein Wechsel von monomodalen zu bimodalen Tröpfchen-Größenverteilungen statt. Diese weisen eine Mode 1 mit einem Tropfendurchmesser von 20μm und eine Mode 2 mit einem Tropfendurchmesser von 10μm auf. Das dieses Phänomen eventuell typisch für arktische Flüssigwasser-Wolken ist, zeigen an dem Datensatz durchgeführte Analysen. Mögliche Entstehungsprozesse der zweiten Mode können durch Kondensation von Wasserdampf auf eingetragenen Aerosolpartikeln, die aus einer Luftschicht oberhalb der Wolke stammen oder durch Wirbel, welche trockene Luftmassen in die Wolke induzieren und Verdampfungsprozesse von Wolkentröpfchen hervorrufen, erklärt werden. Unter Verwendung einer direkten numerischen Simulation wird gezeigt, dass die Einmischung von trockenen Luftmassen in den Übergangsbereich der Wolke am wahrscheinlichsten die Ausbildung von Mode 2 verursacht.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Tree-ring chronologies are a powerful natural archive to reconstruct summer temperature variations of the late Holocene with an annual resolution. To develop these long-term proxy records tree-ring series are commonly extended back in time by combining samples from living trees with relict dead material preserved onshore or in lakes. Former studies showed that low frequency variations in such reconstructions can be biased if the relict and recent material is from different origins. A detailed analysis of the influence of various ecological (micro-) habitats representing the recent part is required to estimate potential errors in temperature estimates. The application of collective detrending methods, that comprise absolute growth rates, can produce errors in climate reconstructions and results in an underestimation of past temperatures. The appearance of these kind of micro-site effects is a wide-spread phenomenon that takes place all over Fennoscandia. Future research in this key region for dendroclimatology should take this issue into account. Especially the higher climate response at the lakeshore site is interesting to achieve smaller uncertainties when a tree-ring series is transformed to temperature anomalies. For new composite chronologies the main aim should be to minimize potential biases and this includes also micro-site effects.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In den letzten Jahren stieg in Deutschland der Gebrauch bzw. Missbrauch von Opioid-Analgetika zunehmend an. Das entwickelte Verfahren sollte unter Einbeziehung neuer Substanzen möglichst viele verschiedene Opioide und auch ihre pharmakologisch aktiven Stoffwechselprodukte berücksichtigen.rnVor Analyse wurden Blut-, Serum- oder Urinproben mit Phosphatpuffer versetzt und mittels Festphasenextraktion an C18-Säulenmaterial aufgearbeitet. Post-Mortem-Gewebematerial wurde mit isotonischer Kochsalzlösung versetzt, homogenisiert und anschließend durch eine Festphasenextraktion aufgereinigt. Haarproben wurden nach Zerkleinerung mit Methanol unter Ultrabeschallung extrahiert. Die Flüssigchromatographie gekoppelt mit Tandem-Massenspektrometrie (Elektrosprayionisation im positiven Modus) erwies sich als geeignetes Verfahren für die simultane Bestimmung der Opioide in biologischem Probenmaterial (Körperflüssigkeiten, Gewebe und Haaren). Der Multi-Analyt Assay erlaubt die quantitative Analyse von 35 verschiedenen Opioiden. Die Analyten wurden durch eine Phenyl-Hexyl Säule und einen Wasser/Acetonitril Gradienten durch eine UPLC 1290 Infinity gekoppelt mit einem 6490 Triple Quadrupol von Agilent Technologies separiert.rnDie LC/MS Methode zur simultanen Bestimmung von 35 Opioiden in Serum und Haaren wurde nach den Richtlinien der Gesellschaft für Toxikologische und Forensische Chemie (GTFCh) validiert. Im Fall der Serumvalidierung lagen die Nachweisgrenzen zwischen 0.02 und 0.6 ng/ml und die Bestimmungsgrenzen im Bereich von 0.1 bis 2.0 ng/ml. Die Kalibrationskurven waren für die Kalibrationslevel 1 bis 6 linear. Wiederfindungsraten lagen für alle Verbindungen zwischen 51 und 88 %, außer für Alfentanil, Bisnortiliidn, Pethidin und Morphin-3-Glucuronid. Der Matrixeffekt lag zwischen 86 % (Ethylmorphin) und 105 % (Desomorphin). Für fast alle Analyten konnten akzeptable Werte bei der Bestimmung der Genauigkeit und Richtigkeit nach den Richtlinien der GTFCh erhalten werden. Im Fall der Validierung der Haarproben lagen die Nachweisgrenzen zwischen 0.004 und 0.6 ng/Probe und die Bestimmungsgrenzen zwischen 0.1 ng/Probe und 2.0 ng/Probe. Für die Kalibrationslevel 1 bis 6 waren alle Kalibrationsgeraden linear. Die Wiederfindungsraten lagen für die Opioide im Bereich von 73.5 % (Morphin-6-Glucuronid) und 114.1 % (Hydrocodon). Die Werte für die Bestimmung der Richtigkeit lagen zwischen - 6.6 % (Methadon) und + 11.7 % (Pholcodin). Präzisionsdaten wurden zwischen 1.0 % für Dextromethorphan und 11.5 % für Methadon ermittelt. Die Kriterien der GTFCh konnten bei Ermittlung des Matrixeffekts für alle Substanzen erfüllt werden, außer für 6-Monoacetylmorphin, Bisnortilidin, Meperidin, Methadon, Morphin-3-glucuronid, Morphin-6-glucuronid, Normeperidin, Nortilidin und Tramadol.rnZum Test des Verfahrens an authentischem Probenmaterial wurden 206 Proben von Körperflüssigkeiten mit Hilfe der simultanen LC/MS Screening Methode untersucht. Über 150 Proben wurden im Rahmen von forensisch-toxikologischen Untersuchungen am Instituts für Rechtsmedizin Mainz analysiert. Dabei konnten 23 der 35 Opioide in den realen Proben nachgewiesen werden. Zur Untersuchung der Pharmakokinetik von Opioiden bei Patienten der anästhesiologischen Intensivstation mit Sepsis wurden über 50 Blutproben untersucht. Den Patienten wurde im Rahmen einer klinischen Studie einmal täglich vier Tage lang Blut abgenommen. In den Serumproben wurde hauptsächlich Sufentanil (0.2 – 0.8 ng/ml in 58 Fällen) und Piritramid (0.4 – 11 ng/ml in 56 Fällen) gefunden. Außerdem wurden die Proben von Körperflüssigkeiten und Gewebe von 13 verschiedenen Autopsiefällen mit Hilfe des Multi-Analyt Assays auf Opioide untersucht.rnIn einem zweiten Schritt wurde die Extraktions- und Messmethode zur Quantifizierung der 35 Opioide am Forensic Medicine Center in Ho Chi Minh City (Vietnam) etabliert. Insgesamt wurden 85 Herzblutproben von Obduktionsfällen mit Verdacht auf Opiatintoxikation näher untersucht. Der überwiegende Teil der untersuchten Fälle konnte auf eine Heroin- bzw. Morphin-Vergiftung zurückgeführt werden. Morphin wurde in 68 Fällen im Konzentrationsbereich 1.7 – 1400 ng/ml und der Heroinmetabolit 6-Monoactetylmorphin in 34 Fällen (0.3 – 160 ng/ml) nachgewiesen werden.rnSchließlich wurden noch 15 Haarproben von Patienten einer psychiatrischen Klinik, die illegale Rauschmittel konsumiert hatten, mit Hilfe der simultanen Opioid-LC/MS Screeningmethode gemessen. Die Ergebnisse der Untersuchung wurden mit früheren Auswertungen von gaschromatographischen Analysen verglichen. Es zeigte sich eine weitgehende Übereinstimmung der Untersuchungsergebnisse für die Opioide 6-Monoacetylmorphin, Morphin, Codein, Dihydrocodein und Methadon. Mit der LC/MS Methode konnten weitere Substanzen, wie zum Beispiel Bisnortilidin, Dextromethorphan und Tramadol in den Haarproben gefunden werden, die bislang nicht entdeckt worden waren.rn

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The incorporation of modified nucleotides into ribonucleic acids (RNAs) is important for their structure and proper function. These modifications are inserted by distinct catalytic macromolecules one of them being Dnmt2. It methylates the Cytidine (C) at position 38 in tRNA to 5-methylcytidine (m5C). Dnmt2 has been a paradigm in this respect, because all of its nearest neighbors in evolution are DNA-cytosine C5-methyltransferases and methylate DNA, while its (own) DNA methyltransferase activity is the subject of controversial reports with rates varying between zero and very weak. This work determines whether the biochemical potential for DNA methylation is present in the enzyme. It was discovered that DNA fragments, when presented as covalent RNA:DNA hybrids in the structural context of a tRNA, can be more efficiently methylated than the corresponding natural tRNA substrate. Additional minor deviations from a native tRNA structure that were seen to be tolerated by Dnmt2 were used for a stepwise development of a composite system of guide RNAs that enable the enzyme to perform cytidine methylation on single stranded DNA in vitro. Furthermore, a proof-of-principle is presented for utilizing the S-adenosyl methionine-analog cofactor SeAdoYn with Dnmt2 to search for new possible substrates in a SELEX-like approach.rnIn innate immunity, nucleic acids can function as pathogen associated molecular patterns (PAMPs) recognized by pattern recognition receptors (PRRs). The modification pattern of RNA is the discriminating factor for toll-like receptor 7 (TLR7) to distinguish between self and non-self RNA of invading pathogens. It was found that a 2'-O-methylated guanosine (Gm) at position18, naturally occurring at this position in some tRNAs, antagonizes recognition by TLR7. In the second part of this work it is pointed out, that recognition extends to the next downstream nucleotide and the effectively recognized molecular detail is actually a methylated dinucleotide. The immune silencing effect of the ribose methylation is most pronounced if the dinucleotide motif is composed of purin nucleobases whereas pyrimidines diminish the effect. Similar results were obtained when the Gm modification was transposed into other tRNA domains. Point mutations abolishing base pairings important for a proper tertiary structure had no effect on the immune stimulatory potential of a Gm modified tRNA. Taken together these results suggest a processive type of RNA inspection by TLR7.rn

Relevância:

100.00% 100.00%

Publicador:

Resumo:

This article contributes to the research on demographics and public health of urban populations of preindustrial Europe. The key source is a burial register that contains information on the deceased, such as age and sex, residence and cause of death. This register is one of the earliest compilations of data sets of individuals with this high degree of completeness and consistency. Critical assessment of the register's origin, formation and upkeep promises high validity and reliability. Between 1805 and 1815, 4,390 deceased inhabitants were registered. Information concerning these individuals provides the basis for this study. Life tables of Bern's population were created using different models. The causes of death were classified and their frequency calculated. Furthermore, the susceptibility of age groups to certain causes of death was established. Special attention was given to causes of death and mortality of newborns, infants and birth-giving women. In comparison to other cities and regions in Central Europe, Bern's mortality structure shows low rates for infants (q0=0.144) and children (q1-4=0.068). This could have simply indicated better living conditions. Life expectancy at birth was 43 years. Mortality was high in winter and spring, and decreased in summer to a low level with a short rise in August. The study of the causes of death was inhibited by difficulties in translating early 19th century nomenclature into the modern medical system. Nonetheless, death from metabolic disorders, illnesses of the respiratory system, and debilitation were the most prominent causes in Bern. Apparently, the worst killer of infants up to 12 months was the "gichteren", an obsolete German term for lethal spasmodic convulsions. The exact modern identification of this disease remains unclear. Possibilities such as infant tetanus or infant epilepsy are discussed. The maternal death rate of 0.72% is comparable with values calculated from contemporaneous sources. Relevance of childbed fever in the early 1800s was low. Bern's data indicate that the extent of deaths related to childbirth in this period is overrated. This research has an explicit interdisciplinary value for various fields including both the humanities and natural sciences, since information reported here represents the complete age and sex structure of a deceased population. Physical anthropologists can use these data as a true reference group for their palaeodemographic studies of preindustrial Central Europe of the late 18th and early 19th century. It is a call to both historians and anthropologists to use our resources to a better effect through combination of methods and exchange of knowledge.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The spectacular diversity in sexually selected traits among animal taxa has inspired the hypothesis that divergent sexual selection can drive speciation. Unfortunately, speciation biologists often consider sexual selection in isolation from natural selection, even though sexually selected traits evolve in an ecological context: both preferences and traits are often subject to natural selection. Conversely, while behavioural ecologists may address ecological effects on sexual communication, they rarely measure the consequences for population divergence. Herein, we review the empirical literature addressing the mechanisms by which natural selection and sexual selection can interact during speciation. We find that convincing evidence for any of these scenarios is thin. However, the available data strongly support various diversifying effects that emerge from interactions between sexual selection and environmental heterogeneity. We suggest that evaluating the evolutionary consequences of these effects requires a better integration of behavioural, ecological and evolutionary research.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In this chapter, the impact of watershed acidification treatments on WS3 at the Fernow Experimental Forest (FEF) and at WS9 on vegetation is presented and summarized in a comprehensive way for the first time. WS7 is used as a vegetative reference basin for WS3, while untreated plots within WS9 are used as a vegetative reference for WS9. Bioindicators of acidification impacts that will be considered include several measures of tree and stand growth rates, foliar chemistry, bolewood chemistry, and herbaceous species composition and diversity. These studies enhance our understanding of the inter-relationships of changes in soil conditions caused by the acidification treatment and the condition of forest vegetation.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Human activity in the last century has led to a substantial increase in nitrogen (N) emissions and deposition. This N deposition has reached a level that has caused or is likely to cause alterations to the structure and function of many ecosystems across the United States. One approach for quantifying the level of pollution that would be harmful to ecosystems is the critical loads approach. The critical load is dei ned as the level of a pollutant below which no detrimental ecological effect occurs over the long term according to present knowledge. The objective of this project was to synthesize current research relating atmospheric N deposition to effects on terrestrial and aquatic ecosystems in the United States and to identify empirical critical loads for atmospheric N deposition. The receptors that we evaluated included freshwater diatoms, mycorrhizal fungi and other soil microbes, lichens, herbaceous plants, shrubs, and trees. The main responses reported fell into two categories: (1) biogeochemical, and (2) individual species, population, and community responses. The range of critical loads for nutrient N reported for U.S. ecoregions, inland surface waters, and freshwater wetlands is 1 to 39 kg N ha-1 y-1. This broad range spans the range of N deposition observed over most of the country. The empirical critical loads for N tend to increase in the following sequence for different life forms: diatoms, lichens and bryophytes, mycorrhizal fungi, herbaceous plants and shrubs, trees. The critical loads approach is an ecosystem assessment tool with great potential to simplify complex scientii c information and effectively communicate with the policy community and the public. This synthesis represents the i rst comprehensive assessment of empirical critical loads of N for ecoregions across the United States.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

This study examines the inter-relation between enamel morphology and crack resistance by sectioning extracted human molars after loading to fracture. Cracks appear to initiate from tufts, hypocalcified defects at the enamel–dentin junction, and grow longitudinally around the enamel coat to produce failure. Microindentation corner cracks placed next to the tufts in the sections deflect along the tuft interfaces and occasionally penetrate into the adjacent enamel. Although they constitute weak interfaces, the tufts are nevertheless filled with organic matter, and appear to be stabilized against easy extension by self-healing, as well as by mutual stress-shielding and decussation, accounting at least in part for the capacity of tooth enamel to survive high functional forces.