992 resultados para Stein, Karl, Freiherr vom und zum, 1757-1831.


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Die Berechnung von experimentell überprüfbaren Vorhersagen aus dem Standardmodell mit Hilfe störungstheoretischer Methoden ist schwierig. Die Herausforderungen liegen in der Berechnung immer komplizierterer Feynman-Integrale und dem zunehmenden Umfang der Rechnungen für Streuprozesse mit vielen Teilchen. Neue mathematische Methoden müssen daher entwickelt und die zunehmende Komplexität durch eine Automatisierung der Berechnungen gezähmt werden. In Kapitel 2 wird eine kurze Einführung in diese Thematik gegeben. Die nachfolgenden Kapitel sind dann einzelnen Beiträgen zur Lösung dieser Probleme gewidmet. In Kapitel 3 stellen wir ein Projekt vor, das für die Analysen der LHC-Daten wichtig sein wird. Ziel des Projekts ist die Berechnung von Einschleifen-Korrekturen zu Prozessen mit vielen Teilchen im Endzustand. Das numerische Verfahren wird dargestellt und erklärt. Es verwendet Helizitätsspinoren und darauf aufbauend eine neue Tensorreduktionsmethode, die Probleme mit inversen Gram-Determinanten weitgehend vermeidet. Es wurde ein Computerprogramm entwickelt, das die Berechnungen automatisiert ausführen kann. Die Implementierung wird beschrieben und Details über die Optimierung und Verifizierung präsentiert. Mit analytischen Methoden beschäftigt sich das vierte Kapitel. Darin wird das xloopsnosp-Projekt vorgestellt, das verschiedene Feynman-Integrale mit beliebigen Massen und Impulskonfigurationen analytisch berechnen kann. Die wesentlichen mathematischen Methoden, die xloops zur Lösung der Integrale verwendet, werden erklärt. Zwei Ideen für neue Berechnungsverfahren werden präsentiert, die sich mit diesen Methoden realisieren lassen. Das ist zum einen die einheitliche Berechnung von Einschleifen-N-Punkt-Integralen, und zum anderen die automatisierte Reihenentwicklung von Integrallösungen in höhere Potenzen des dimensionalen Regularisierungsparameters $epsilon$. Zum letzteren Verfahren werden erste Ergebnisse vorgestellt. Die Nützlichkeit der automatisierten Reihenentwicklung aus Kapitel 4 hängt von der numerischen Auswertbarkeit der Entwicklungskoeffizienten ab. Die Koeffizienten sind im allgemeinen Multiple Polylogarithmen. In Kapitel 5 wird ein Verfahren für deren numerische Auswertung vorgestellt. Dieses neue Verfahren für Multiple Polylogarithmen wurde zusammen mit bekannten Verfahren für andere Polylogarithmus-Funktionen als Bestandteil der CC-Bibliothek ginac implementiert.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Phylogeography is a recent field of biological research that links phylogenetics to biogeography through deciphering the imprint that evolutionary history has left on the genetic structure of extant populations. During the cold phases of the successive ice ages, which drastically shaped species’ distributions since the Pliocene, populations of numerous species were isolated in refugia where many of them evolved into different genetic lineages. My dissertation deals with the phylogeography of the Woodland Ringlet (Erebia medusa [Denis and Schiffermüller] 1775) in Central and Eastern Europe. This Palaearctic butterfly species is currently distributed from central France and south eastern Belgium over large parts of Central Europe and southern Siberia to the Pacific. It is absent from those parts of Europe with mediterranean, oceanic and boreal climates. It was supposed to be a Siberian faunal element with a rather homogeneous population structure in Central Europe due to its postglacial expansion out of a single eastern refugium. An already existing evolutionary scenario for the Woodland Ringlet in Central and Eastern Europe is based on nuclear data (allozymes). To know if this is corroborated by organelle evolutionary history, I sequenced two mitochondrial markers (part of the cytochrome oxydase subunit one and the control region) for populations sampled over the same area. Phylogeography largely relies on the construction of networks of uniparentally inherited haplotypes that are compared to geographic haplotype distribution thanks to recent developed methods such as nested clade phylogeographic analysis (NCPA). Several ring-shaped ambiguities (loops) emerged from both haplotype networks in E. medusa. They can be attributed to recombination and homoplasy. Such loops usually avert the straightforward extraction of the phylogeographic signal contained in a gene tree. I developed several new approaches to extract phylogeographic information in the presence of loops, considering either homoplasy or recombination. This allowed me to deduce a consistent evolutionary history for the species from the mitochondrial data and also adds plausibility for the occurrence of recombination in E. medusa mitochondria. Despite the fact that the control region is assumed to have a lack of resolving power in other species, I found a considerable genetic variation of this marker in E. medusa which makes it a useful tool for phylogeographic studies. In combination with the allozyme data, the mitochondrial genome supports the following phylogeographic scenario for E. medusa in Europe: (i) a first vicariance, due to the onset of the Würm glaciation, led to the formation of several major lineages, and is mirrored in the NCPA by restricted gene flow, (ii) later on further vicariances led to the formation of two sub-lineages in the Western lineage and two sub-lineages in the Eastern lineage during the Last Glacial Maximum or Older Dryas; additionally the NCPA supports a restriction of gene flow with isolation by distance, (iii) finally, vicariance resulted in two secondary sub-lineages in the area of Germany and, maybe, to two other secondary sub-lineages in the Czech Republic. The last postglacial warming was accompanied by strong range expansions in most of the genetic lineages. The scenario expected for a presumably Siberian faunal element such as E. medusa is a continuous loss of genetic diversity during postglacial westward expansion. Hence, the pattern found in this thesis contradicts a typical Siberian origin of E. medusa. In contrast, it corroboratess the importance of multiple extra-Mediterranean refugia for European fauna as it was recently assumed for other continental species.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In dieser Arbeit werden nichtlineare Experimente zur Untersuchung der Dynamik in amorphen Festkörpern im Rahmen von Modellrechnungen diskutiert. Die Experimente beschäftigen sich mit der Frage nach dynamischen Heterogenitäten, worunter man das Vorliegen dynamischer Prozesse auf unterschiedlichen Zeitskalen versteht. Ist es möglich, gezielt 'langsame' oder 'schnelle' Dynamik in der Probe nachzuweisen, so ist die Existenz von dynamischen Heterogenitäten gezeigt. Ziel der Experimente sind deshalb sogenannte frequenzselektive Anregungen des Systems. In den beiden diskutierten Experimenten, zum einen nichtresonantes Lochbrennen, zum anderen ein ähnliches Experiment, das auf dem dynamischen Kerreffekt beruht, werden nichtlineare Antwortfunktionen gemessen. Um eine Probe in frequenzselektiver Weise anzuregen, werden zunächst einer oder mehrere Zyklen eines oszillierenden elektrischen Feldes an die Probe angelegt. Die Experimente werden zunächst im Terahertz-Bereich untersucht. Auf dieser Zeitskala findet man phonon-ähnliche kollektive Schwingungen in Gläsern. Diese Schwingungen werden durch (anharmonische) Brownsche Oszillatoren beschrieben. Der zentrale Befund der Modellrechnungen ist, daß eine frequenzselektive Anregung im Terahertz-Bereich möglich ist. Ein Nachweis dynamischer Heterogenitäten im Terahertz-Bereich ist somit durch beide Experimente möglich. Anschliessend wird das vorgestellte Kerreffekt-Experiment im Bereich wesentlich kleinerer Frequenzen diskutiert. Die langsame Reorientierungsdynamik in unterkühlten Flüssigkeiten wird dabei durch ein Rotationsdiffusionsmodell beschrieben. Es werden zum einen ein heterogenes und zum anderen ein homogenes Szenario zugrundegelegt. Es stellt sich heraus, daß wie beim Lochbrennen eine Unterscheidung durch das Experiment möglich ist. Das Kerreffekt-Experiment wird somit als eine relativ einfache Alternative zur Technik des nichtresonanten Lochbrennens vorgeschlagen.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Die Aufgabenstellung, welche dieser Dissertation zugrunde liegt, lässt sich kurz als die Untersuchung von komponentenbasierten Konzepten zum Einsatz in der Softwareentwicklung durch Endanwender beschreiben. In den letzten 20 bis 30 Jahren hat sich das technische Umfeld, in dem ein Großteil der Arbeitnehmer seine täglichen Aufgaben verrichtet, grundlegend verändert. Der Computer, früher in Form eines Großrechners ausschließlich die Domäne von Spezialisten, ist nun ein selbstverständlicher Bestandteil der täglichen Arbeit. Der Umgang mit Anwendungsprogrammen, die dem Nutzer erlauben in einem gewissen Rahmen neue, eigene Funktionalität zu definieren, ist in vielen Bereichen so selbstverständlich, dass viele dieser Tätigkeiten nicht bewusst als Programmieren wahrgenommen werden. Da diese Nutzer nicht notwendigerweise in der Entwicklung von Software ausgebildet sind, benötigen sie entsprechende Unterstützung bei diesen Tätigkeiten. Dies macht deutlich, welche praktische Relevanz die Untersuchungen in diesem Bereich haben. Zur Erstellung eines Programmiersystems für Endanwender wird zunächst ein flexibler Anwendungsrahmen entwickelt, welcher sich als Basis zur Erstellung solcher Systeme eignet. In Softwareprojekten sind sich ändernde Anforderungen und daraus resultierende Notwendigkeiten ein wichtiger Aspekt. Dies wird im Entwurf des Frameworks durch Konzepte zur Bereitstellung von wieder verwendbarer Funktionalität durch das Framework und Möglichkeiten zur Anpassung und Erweiterung der vorhandenen Funktionalität berücksichtigt. Hier ist zum einen der Einsatz einer serviceorientierten Architektur innerhalb der Anwendung und zum anderen eine komponentenorientierte Variante des Kommando-Musters zu nennen. Zum anderen wird ein Konzept zur Kapselung von Endnutzerprogrammiermodellen in Komponenten erarbeitet. Dieser Ansatz ermöglicht es, unterschiedliche Modelle als Grundlage der entworfenen Entwicklungsumgebung zu verwenden. Im weiteren Verlauf der Arbeit wird ein Programmiermodell entworfen und unter Verwendung des zuvor genannten Frameworks implementiert. Damit dieses zur Nutzung durch Endanwender geeignet ist, ist eine Anhebung der zur Beschreibung eines Softwaresystems verwendeten Abstraktionsebene notwendig. Dies wird durch die Verwendung von Komponenten und einem nachrichtenbasierten Kompositionsmechanismus erreicht. Die vorgenommene Realisierung ist dabei noch nicht auf konkrete Anwendungsfamilien bezogen, diese Anpassungen erfolgen in einem weiteren Schritt für zwei unterschiedliche Anwendungsbereiche.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Desmosomen sind hoch organisierte adhäsive interzelluläre Verbindungen, die benachbarte Zellen durch Verankerung mit den Intermediärfilamenten des Zytoskeletts miteinander verknüpfen und so Zellen und Geweben Stabilität verleihen. Die Adhäsionsmoleküle der Desmosomen sind die desmosomalen Cadherine. Diese transmembranen Glykoproteine gehen im Interzellulärraum Verbindungen mit den desmosomalen Cadherinen der Nachbarzelle ein und sind im zytoplasmatischen Bereich Anheftungspunkte für weitere an der Desmosomenbildung beteiligte Proteine. Ziel dieser Arbeit war die Untersuchung der Rolle von Desmoglein 2 (Dsg 2), einem in allen Epithelien exprimierten desmosomalen Cadherin. Da der konstitutive knock out von Dsg 2 embryonal letal ist, wurde im Rahmen dieser Doktorarbeit eine transgene Maus generiert, in der die Reduktion von Dsg 2 temporär regulierbar war (konditionaler knock down). Dazu wurde der Mechanismus der RNA Interferenz genutzt, wodurch Sequenz-spezifische, post-transkriptionelle Regulation von Genen möglich ist. Unter Verwendung eines über Cre/lox-induzierbaren Vektors wurden transgene Mäuse generiert, welche nach Induktion Dsg 2 shRNA exprimieren, die in der Zelle in siRNA umgewandelt wird und zum Abbau der Dsg 2 mRNA führt. Durch Verpaarung der generierten Dsg 2 knock down Maus mit der über Tamoxifen induzierbaren Cre Deleter knock in Mauslinie Rosa26CreERT2 konnte deutliche Reduktion der Dsg 2 Proteinmenge in Leber, Darm und Herz erreicht werden. In Immunfärbungen der Leber wurde zudem eine reduzierte Desmosomenbildung durch Expression der Dsg 2 shRNA detektiert. Die für diese Versuche generierte und getestete Rosa26CreERT2 Mauslinie ermöglichte jedoch nicht in allen Zellen eines Gewebes die komplette Aktivierung der Cre Rekombinase und damit die Expression der shRNA. Dadurch entstanden mosaikartige Wildtyp/knock down-Gewebe, in denen noch ausreichend Desmosomen gebildet wurden, um die Gewebestabilität und -struktur zu erhalten. Für eine funktionale Untersuchung von Dsg 2 in Zusammenhang mit der chronisch entzündlichen Darmerkrankung Colitis ulcerosa wurden die Dsg 2 knock down Mäuse mit Darm-spezifischen, induzierbaren Cre Deleter Mäusen (VillinCreERT2) verpaart. Nach Aktivierung der Cre Rekombinase mittels Tamoxifen wurde in bitransgenen Tieren über Gabe von Azoxymethan (AOM) und Dextransodiumsulfat (DSS) Colitis ulcerosa induziert. Diese entzündliche Erkrankung des Darms ist mit der Induktion von Darmtumoren assoziiert. Bereits nach einmaliger Induktion mit AOM/DSS wurde in der ersten endoskopischen Untersuchung eine starke Entzündung des Darmgewebes und die Ausbildung von flächig wachsenden Tumoren in den Dsg 2 knock down Tieren hervorgerufen. Es ist anzunehmen, dass durch knock down von Dsg 2, und die damit verbundene verminderte Desmosomenbildung und Zelladhäsion, Infiltration von Bakterien durch die epitheliale Barriere des Darms möglich war, und so die Entzündungsreaktion in der Darmmukosa verstärkte. In Zusammenhang mit Verlust der epithelialen Festigkeit durch verringerte Zellkontakte kam es zur Hyperproliferation der Darmmukosa, die sich in Ausbildung von flächigen Tumoren äußerte. In weiteren Experimenten müssen nun die Tumore und das entzündete Gewebe der Colitis-induzierten Mäuse mittels Immunfluoreszenz untersucht werden, um Veränderungen in der Desmosomenformation in situ detektieren zu können. Des Weiteren sind Verpaarungen der Dsg 2 knock down Maus mit anderen Cre Rekombinase exprimierenden Mauslinien möglich, um den Einfluss von Dsg 2 auch in anderen Geweben, beispielsweise im Herzen, zu untersuchen. Die hier vorgelegte Arbeit zeigt also erstmalig den ursächlichen Zusammenhang zwischen Dsg 2 und dem Auftreten von Colitis-assoziierten Tumoren in einem konditionalen RNAi-vermittelten knock down Tiermodell. Die Etablierung dieser Maus ist somit das erste konditionale Mausmodell, welches die bei vielen Krebspatienten gefundenen flachzellig wachsenden Tumore in vivo rekapituliert. Vorausschauend kann man sagen, dass mit Hilfe des im Rahmen dieser Doktorarbeit entwickelten Tiermodells wichtige Erkenntnisses über die Pathologie von Darmtumoren erbracht werden können, die unser Verständnis der Colitis-induzierten Tumorentstehung verbessern.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Der niederländische Astronom Willem de Sitter ist bekannt für seine inzwischen berühmte Kontroverse mit Einstein von 1916 bis 1918, worin die relativistische Kosmologie begründet wurde. In diesem Kontext wird sein Name mit dem von ihm geschaffenen kosmologischen Modell verbunden, welches er als Gegenbeispiel zu Einsteins physikalischer Intuition schuf. Obwohl diese Debatte schon in wissenschaftshistorischen Arbeiten analysiert wurde, hat de Sitters Rolle in der Rezeption und dem Verbreiten der allgemeinen Relativitätstheorie bislang in der Hauptrichtung der Einstein-Studien noch nicht die ihr zustehende Aufmerksamkeit erhalten. Die vorliegende Untersuchung zielt darauf ab, seine zentrale Wichtigkeit für die Forschung zur ART innerhalb der Leidener Community aufzuzeigen. Wie Eddington war de Sitter einer der wenigen Astronomen, die sowohl hinreichende Ausbildung als auch nötige Interessen vereinten, um zum einen die spezielle und zum anderen die allgemeine Relativitätstheorie zu verfolgen. Er befasste sich zunächst 1911 mit dem Relativitätsprinzip (Einsteins erstes Postulat der SRT); zwei Jahre später fand er einen Nachweis für die Konstanz der Lichtgeschwindigkeit (Einsteins zweites Postulat). De Sitters Interesse an Gravitationstheorien reicht sogar noch weiter zurück und lässt sich bis 1908 zurückverfolgen. Überdies verfolgte er Einsteins Versuche, einen feldtheoretischen Ansatz für die Gravitation zu konstruieren, inklusive der kontroversen Einstein-Grossmann Theorie von 1913. Diese Umstände zeigen deutlich, dass de Sitters bekannteres Werk zur ART eine Konsequenz seiner vorausgegangenen Forschungen war und kein Resultat einer plötzlichen, erst 1916 einsetzenden Beschäftigung mit Einsteins Relativitätstheorie.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Physicochemical experimental techniques combined with the specificity of a biological recognition system have resulted in a variety of new analytical devices known as biosensors. Biosensors are under intensive development worldwide because they have many potential applications, e.g. in the fields of clinical diagnostics, food analysis, and environmental monitoring. Much effort is spent on the development of highly sensitive sensor platforms to study interactions on the molecular scale. In the first part, this thesis focuses on exploiting the biosensing application of nanoporous gold (NPG) membranes. NPG with randomly distributed nanopores (pore sizes less than 50 nm) will be discussed here. The NPG membrane shows unique plasmonic features, i.e. it supports both propagating and localized surface plasmon resonance modes (p SPR and l-SPR, respectively), both offering sensitive probing of the local refractive index variation on/in NPG. Surface refractive index sensors have an inherent advantage over fluorescence optical biosensors that require a chromophoric group or other luminescence label to transduce the binding event. In the second part, gold/silica composite inverse opals with macroporous structures were investigated with bio- or chemical sensing applications in mind. These samples combined the advantages of a larger available gold surface area with a regular and highly ordered grating structure. The signal of the plasmon was less noisy in these ordered substrate structures compared to the random pore structures of the NPG samples. In the third part of the thesis, surface plasmon resonance (SPR) spectroscopy was applied to probe the protein-protein interaction of the calcium binding protein centrin with the heterotrimeric G-protein transducin on a newly designed sensor platform. SPR spectroscopy was intended to elucidate how the binding of centrin to transducin is regulated towards understanding centrin functions in photoreceptor cells.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Alkohol und Schläfrigkeit sind die wichtigsten fahrerbezogenen Faktoren bei der Entstehung von Autounfällen. Bislang gibt es relativ wenige konkrete Erkenntnisse über die schläfrigkeitsfördernde Wirkung von Alkohol. Mit der vorliegenden Arbeit sollte erstmals eine quantitative und objektive Analyse der (Tages-)Schläfrigkeit unter Alkoholeinfluss während der gesamten Alkoholumsetzungskurve erstellt werden. Mit dem pupillographischen Schläfrigkeitstest (PST) steht ein Verfahren zur Verfügung, mit dem es möglich ist, Schläfrigkeit unter Alkoholeinfluss quantitativ zu bestimmen. Diese Methode beruht auf der Vermessung der Pupille, deren Durchmesser der efferenten sympathischen Steuerung unterliegt. Bei zunehmender Schläfrigkeit lässt der sympathische Einfluss auf die Pupillenweite nach und es kommt zu typischen Oszillationen der Pupille. Diese Oszillationen, sogenannte „Fatigue Waves“, werden in einem ruhigen, abgedunkelten Raum mittels Infrarotkamera über 11 Minuten kontinuierlich aufgezeichnet und als Pupillen-Unruhe-Index (PUI) in mm / min ausgegeben. Für diesen Wert existieren Normwerte, welche eine Einteilung der PUI-Werte in „normal“, „erhöht“ und „pathologisch“ ermöglichen. Es wurde ein standardisiertes Kollektiv von 53 Probanden zwischen 20 und 60 Jahren untersucht. Dieses bestand aus 28 Männern und 25 Frauen. Die Probanden wurden wahlweise mit Bier oder Wein stufenweise unter Blutalkohohol-konzentrationen von annähernd 0,3, 0,5 und 0,8 ‰ gesetzt, die genaue BAK wurde jeweils durch Gaschromatographie und ADH-Methode bestimmt. Während dieser Anflutungsphase wurde bei jeder der drei Stufen die Schläfrigkeit bestimmt. Dies geschah zum einen mittels objektivem PST und zum anderen durch die subjektive Stanford Sleepiness Scale (SSS), eine siebenstufige Skala zur Einschätzung der eigenen Schläfrigkeit. In der Eliminationsphase der Alkoholumsetzungskurve wurde wiederum bei 0,5 und 0,3 ‰ sowohl die subjektive als auch die objektive Schläfrigkeit gemessen. Eine Kontrollgruppe von 11 Probanden aus dem genannten Kollektiv wurde zu einem späteren Zeitpunkt unter gleichen Bedingungen ohne Alkoholeinfluss untersucht. Im Ergebnis zeigte die Anflutungsphase zunächst ein signifikantes Absinken des PUI um 5,9 %, gleichbedeutend mit einer höheren Vigilanz. Im weiteren Verlauf war das Maximum der Schläfrigkeit in der Eliminationsphase bei einer verhältnismäßig geringen BAK von durchschnittlich 0,54 ‰ zu beobachten. Der PUI hatte sich im Vergleich zum Ausgangswert um durchschnittlich 17,4 % erhöht und 40,4 % der Probanden wiesen erhöhte oder pathologische Schläfrigkeitswerte auf. Dieser Anteil lag um hochsignifikante 110 % höher als bei der Ausgangsmessung. Insgesamt ließ sich keine Korrelation zwischen objektiver und subjektiver Schläfrigkeit feststellen, obwohl auch die subjektive Schläfrigkeit stieg. Das Maximum der subjektiven Schläfrigkeit fiel zusammen mit dem Maximum der Alkoholisierung von 0,8 ‰. Wirkung auf das Ausmaß der Schläfrigkeit hatten die Häufigkeit des Alkoholkonsums, der Body-Mass-Index (BMI) und das Geschlecht. Je häufiger die Probanden nach eigenen Angaben Alkohol tranken und je höher der jeweilige BMI war, desto geringer war der Einfluss des Alkohols auf die Schläfrigkeit. Mit der Eigenschaft „weibliches Geschlecht“ ging eine höhere objektive Schläfrigkeit einher, allerdings auch eine höhere subjektive Einschätzung der eigenen Schläfrigkeit. Ein Einfluss der Getränkeart ließ sich hingegen nicht nachweisen. Für die Abnahme der Vigilanz spielte es keine Rolle, ob dies durch Bier oder Wein verursacht worden war. Bedenklich erschien die Tatsache, dass zum einen die Probanden das Ausmaß der eigenen Schläfrigkeit sogar unter relativ geringer Alkoholisierung nicht adäquat einschätzen konnten, und dass zum anderen das Maximum der Schläfrigkeit – und damit auch des mutmaßlichen Unfallrisikos – in der Eliminationsphase lag. Ein Zeitpunkt, zu dem sicherlich die meisten Alkoholfahrten unternommen werden.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Die vorliegende Arbeit beschäftigt sich mit der Darstellung von Latexpartikeln in nicht-wässrigen Emulsionssystemen. Hintergrund der Untersuchungen war die Frage, ob es durch die Anwendung von nicht-wässrigen Emulsionen ermöglicht werden kann, sowohl wassersensitive Monomere als auch feuchtigkeitsempfindliche Polymerisationen zur Darstellung von Polymer-Latexpartikeln und deren Primärdispersionen einzusetzen. Das Basiskonzept der Arbeit bestand darin, nicht-wässrige Emulsionen auf der Basis zweier nicht mischbarer organischer Lösungsmittel unterschiedlicher Polarität auszubilden und anschließend die dispergierte Phase der Emulsion zur Synthese der Latexpartikel auszunutzen. Hierzu wurden verschiedene nicht-wässrige Emulsionssysteme erarbeitet, welche als dispergierte Phase ein polares und als kontinuierliche Phase ein unpolares Lösungsmittel enthielten. Auf Basis dieser Ergebnisse wurde in den nachfolgenden Untersuchungen zunächst die Anwendbarkeit solcher Emulsionen zur Darstellung verschiedener Acrylat- und Methacrylatpolymerdispersionen mittels radikalischer Polymerisation studiert. Um zu zeigen, dass die hier entwickelten nicht-wässrigen Emulsionen auch zur Durchführung von Stufenwachstumsreaktionen geeignet sind, wurden ebenfalls Polyester-, Polyamid- und Polyurethan-Latexpartikel dargestellt. Die Molekulargewichte der erhaltenen Polymere lagen bei bis zu 40 000 g/mol, im Vergleich zu wässrigen Emulsions- und Miniemulsions¬polymerisationssystemen sind diese um den Faktor fünf bis 30 höher. Es kann davon ausgegangen werden, dass hauptsächlich zwei Faktoren für die hohen Molekulargewichte verantwortlich sind: Zum einen die wasserfreien Bedingungen, welche die Hydrolyse der reaktiven Gruppen verhindern, und zum anderen die teilweise erfüllten Schotten-Baumann-Bedingungen, welche an der Grenzfläche zwischen dispergierter und kontinuierlicher Phase eine durch Diffusion kontrollierte ausgeglichene Stöchiometrie der Reaktionspartner gewährleisten. Somit ist es erstmals möglich, hochmolekulare Polyester, -amide und -urethane in nur einem Syntheseschritt als Primär¬dispersion darzustellen. Die Variabilität der nicht-wässrigen Emulsionen wurde zudem in weiteren Beispielen durch die Synthese von verschiedenen elektrisch leitfähigen Latices, wie z.B. Polyacetylen-Latexpartikeln, aufgezeigt. In dieser Arbeit konnte gezeigt werden, dass die entwickelten nicht-wässrigen Emulsionen eine äußerst breite Anwendbarkeit zur Darstellung von Polymer-Latexpartikeln aufweisen. Durch die wasserfreien Bedingungen erlauben die beschriebenen Emulsionsprozesse, Latexpartikel und entsprechende nicht-wässrige Dispersionen nicht nur traditionell radikalisch, sondern auch mittels weiterer Polymerisationsmechanismen (katalytisch, oxidativ oder mittels Polykondensation bzw. -addition) darzustellen.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Das Corticotropin Releasing Hormon (CRH) ist ein zentraler Mediator des neuroendokrinen Systems von Säugetieren und kontrolliert die physiologische Stressreaktion des Körpers. Zudem zeigten in vitro Daten, dass es Neuroprotektion gegenüber oxidativem Stress induzieren kann. In der vorliegenden Arbeit konnte erstmals ein neuroprotektiver Effekt des CRH in vivo gezeigt werden. Die Überexpression des CRH im ZNS von Mäusen konnte Nervenzellen in vivo vor Exzitotoxizität schützen; nach Injektion des Exzitotoxins Kainat verkürzte die CRH-Überexpression die Dauer der epileptischen Anfälle, schützte die Neurone der betroffenen Hippocampusregion vor Zelltod und verhinderte die bei Exzitotoxizität und vielen neurodegenerativen Erkrankungen auftretende Neuroinflammation. Desweiteren konnten in CRH-überexprimierenden Tieren erhöhte BDNF-Proteinspiegel nachgewiesen werden. BDNF, ein bedeutender neurotropher Faktor im ZNS, vermittelt daher teilweise die CRH-induzierte Neuroprotektion gegenüber der Exzitotoxizität in vivo. Im Rahmen dieser Arbeit wurde mit Connexin43, dem Haupt-Gap Junction-Protein der Astrozyten, ein neues CRH-Zielgen im ZNS identifiziert. Es konnte erstmals gezeigt werden, dass CRH sowohl die Expression des Connexin43-Gens als auch den Connexin43-Proteinspiegel in vitro und in vivo erhöht. Diese Effekte werden über die Aktivierung des CRH-Rezeptor 1 und nachfolgend der PKA- und MAPK-Signalwege vermittelt. In Übereinstimmung mit der Hochregulation des Connexin43-Proteinspiegels verstärkte CRH auch die interzelluläre Kommunikation über Gap Junctions. Physiologisch hat diese CRH-induzierte Verstärkung der astrozytären Gap Junction-Kommunikation eine große Bedeutung für die Neuroprotektion, da eine Hochregulation der interzellulären Kommunikation schnell toxische Moleküle verdünnt, Energiesubstrate und protektive Faktoren verteilt und Ionen abpuffert. Dadurch werden Schädigungen durch oxidativen Stress in den Zellen reduziert, was über die Analyse der Proteincarbonylierung gezeigt wurde. Die Relevanz der astrozytären Gap Junction-Kommunikation für das Überleben der Neurone konnte in organotypischen hippocampalen Schnitten und in Neuron-Astrozyten-Co-Kulturen deutlich gemacht werden. Die im Rahmen der vorliegenden Arbeit gewonnenen Daten zeigen, dass die Stress-induzierte Sekretion von CRH im ZNS zur verstärkten Expression neuroprotektiver Moleküle wie BDNF und Connexin43 beiträgt. Diese vermögen Neurone gegenüber toxischen Einflüssen zu schützen und zum Erhalt ihrer Funktion beizutragen. Die protektiven CRH-Effekte könnten speziell bei chronischen neurodegenerativen Krankheiten wie der Alzheimerschen Demenz und der Parkinsonschen Krankheit hilfreich sein.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Die vorliegende Arbeit beschäftigt sich mit Kriterien effizienter und flexibler Informationsverarbeitung und deren Auswirkungen auf den Karriereerfolg. Die Kriterien Interferenz, Interferenz unter der negativen Priming-Bedingung und die Spontanflexibilität wurden in drei aufeinander aufbauenden Studien untersucht. Die Interferenzindices wurden mit einer modifizierten Form des Stroop-Tests erhoben, und das Konstrukt der Spontanflexibilität wurde mit der Gauß-Aufgabe, der Wasserumschüttaufgabe, dem Wortgruppentest und der Anagramm-Aufgabe operationalisiert. Bei diesen Aufgaben wurde eine Lösungsstrategie vorgegeben, aber es gab zusätzlich eine effizientere Lösungsstrategie, die während der Bearbeitung der Einzelaufgaben immer offensichtlicher wurde. Da die einzelnen Aufgaben nicht signifikant miteinander korrelierten, wurde im Rahmen einer Nachuntersuchung die Reliabilität über Parallelaufgaben geprüft. Für die Diagnose von Gruppenunterschieden erwiesen sich die Indikatoren der Spontanflexibilität als hinreichend reliabel. Die Wortdarbietungszeiten der Interferenzindices waren hochreliabel. Zwischen den Interferenzindices zeigte sich ein starker positiver Zusammenhang. Zur Validierung der Aufgaben wurden Beurteilungen über die berufliche Leistung der Versuchsteilnehmer herangezogen. Zwischen den einzelnen Beurteilungskriterien zeigten sich hohe Zusammenhänge. Die Gauß-Aufgabe korrelierte mit einem Beurteilungskriterium, dessen Verhaltensbeschreibungen sehr gut mit der Definition der Spontanflexibilität übereinstimmten. Die Wasserumschüttaufgabe korrelierte mit einem Beurteilungskriterium, welches eher eine durch die Situation herausgeforderte Flexibilität widerspiegelt. Die Interferenzindikatoren korrelierten mit Beurteilungskriterien, die zum einen die Fähigkeit zum Aufbauen von professionellen Beziehungen und zum anderen die Effizienz und den Qualitätsstandard eines Mitarbeiters bewerteten. Aufgrund der replizierten Zusammenhänge kann davon ausgegangen werden, dass die Interferenz, die Interferenz unter der negativen Priming-Bedingung, die Spontanflexibilität und die herausgeforderte Flexibilität Einfluss auf den Karriereerfolg eines Mitarbeiters nehmen. Aus diesem Grund bieten sich im Bereich der Arbeits- und Organisationspsychologie vielversprechende Einsatzmöglichkeiten für die in dieser Untersuchung entwickelten Tests an.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Iodine chemistry plays an important role in the tropospheric ozone depletion and the new particle formation in the Marine Boundary Layer (MBL). The sources, reaction pathways, and the sinks of iodine are investigated using lab experiments and field observations. The aims of this work are, firstly, to develop analytical methods for iodine measurements of marine aerosol samples especially for iodine speciation in the soluble iodine; secondly, to apply the analytical methods in field collected aerosol samples, and to estimate the characteristics of aerosol iodine in the MBL. Inductively Coupled Plasma – Mass Spectrometry (ICP-MS) was the technique used for iodine measurements. Offline methods using water extraction and Tetra-methyl-ammonium-hydroxide (TMAH) extraction were applied to measure total soluble iodine (TSI) and total insoluble iodine (TII) in the marine aerosol samples. External standard calibration and isotope dilution analysis (IDA) were both conducted for iodine quantification and the limits of detection (LODs) were both 0.1 μg L-1 for TSI and TII measurements. Online couplings of Ion Chromatography (IC)-ICP-MS and Gel electrophoresis (GE)-ICP-MS were both developed for soluble iodine speciation. Anion exchange columns were adopted for IC-ICP-MS systems. Iodide, iodate, and unknown signal(s) were observed in these methods. Iodide and iodate were separated successfully and the LODs were 0.1 and 0.5 μg L-1, respectively. Unknown signals were soluble organic iodine species (SOI) and quantified by the calibration curve of iodide, but not clearly identified and quantified yet. These analytical methods were all applied to the iodine measurements of marine aerosol samples from the worldwide filed campaigns. The TSI and TII concentrations (medians) in PM2.5 were found to be 240.87 pmol m-3 and 105.37 pmol m-3 at Mace Head, west coast of Ireland, as well as 119.10 pmol m-3 and 97.88 pmol m-3 in the cruise campaign over the North Atlantic Ocean, during June – July 2006. Inorganic iodine, namely iodide and iodate, was the minor iodine fraction in both campaigns, accounting for 7.3% (median) and 5.8% (median) in PM2.5 iodine at Mace Head and over the North Atlantic Ocean, respectively. Iodide concentrations were higher than iodate in most of the samples. In the contrast, more than 90% of TSI was SOI and the SOI concentration was correlated significantly with the iodide concentration. The correlation coefficients (R2) were both higher than 0.5 at Mace Head and in the first leg of the cruise. Size fractionated aerosol samples collected by 5 stage Berner impactor cascade sampler showed similar proportions of inorganic and organic iodine. Significant correlations were obtained in the particle size ranges of 0.25 – 0.71 μm and 0.71 – 2.0 μm between SOI and iodide, and better correlations were found in sunny days. TSI and iodide existed mainly in fine particle size range (< 2.0 μm) and iodate resided in coarse range (2.0 – 10 μm). Aerosol iodine was suggested to be related to the primary iodine release in the tidal zone. Natural meteorological conditions such as solar radiation, raining etc were observed to have influence on the aerosol iodine. During the ship campaign over the North Atlantic Ocean (January – February 2007), the TSI concentrations (medians) ranged 35.14 – 60.63 pmol m-3 among the 5 stages. Likewise, SOI was found to be the most abundant iodine fraction in TSI with a median of 98.6%. Significant correlation also presented between SOI and iodide in the size range of 2.0 – 5.9 μm. Higher iodate concentration was again found in the higher particle size range, similar to that at Mace Head. Airmass transport from the biogenic bloom region and the Antarctic ice front sector was observed to play an important role in aerosol iodine enhancement. The TSI concentrations observed along the 30,000 km long cruise round trip from East Asia to Antarctica during November 2005 – March 2006 were much lower than in the other campaigns, with a median of 6.51 pmol m-3. Approximately 70% of the TSI was SOI on average. The abundances of inorganic iodine including iodine and iodide were less than 30% of TSI. The median value of iodide was 1.49 pmol m-3, which was more than four fold higher than that of iodate (median, 0.28 pmol m-3). Spatial variation indicated highest aerosol iodine appearing in the tropical area. Iodine level was considerably lower in coastal Antarctica with the TSI median of 3.22 pmol m-3. However, airmass transport from the ice front sector was correlated with the enhance TSI level, suggesting the unrevealed source of iodine in the polar region. In addition, significant correlation between SOI and iodide was also shown in this campaign. A global distribution in aerosol was shown in the field campaigns in this work. SOI was verified globally ubiquitous due to the presence in the different sampling locations and its high proportion in TSI in the marine aerosols. The correlations between SOI and iodide were obtained not only in different locations but also in different seasons, implying the possible mechanism of iodide production through SOI decomposition. Nevertheless, future studies are needed for improving the current understanding of iodine chemistry in the MBL (e.g. SOI identification and quantification as well as the update modeling involving organic matters).

Relevância:

100.00% 100.00%

Publicador:

Resumo:

This work focused on the synthesis of novel monomers for the design of a series of oligo(p-benzamide)s following two approaches: iterative solution synthesis and automated solid phase protocols. These approaches present a useful method to the sequence-controlled synthesis of side-chain and main-chain functionalized oligomers for the preparation of an immense variety of nanoscaffolds. The challenge in the synthesis of such materials was their modification, while maintaining the characteristic properties (physical-chemical properties, shape persistence and anisotropy). The strategy for the preparation of predictable superstructures was devote to the selective control of noncovalent interactions, monodispersity and monomer sequence. In addition to this, the structure-properties correlation of the prepared rod-like soluble materials was pointed. The first approach involved the solution-based aramide synthesis via introduction of 2,4-dimethoxybenzyl N-amide protective group via an iterative synthetic strategy The second approach focused on the implementation of the salicylic acid scaffold to introduce substituents on the aromatic backbone for the stabilization of the OPBA-rotamers. The prepared oligomers were analyzed regarding their solubility and aggregation properties by systematically changing the degree of rotational freedom of the amide bonds, side chain polarity, monomer sequence and degree of oligomerization. The syntheses were performed on a modified commercial peptide synthesizer using a combination of fluorenylmethoxycarbonyl (Fmoc) and aramide chemistry. The automated synthesis allowed the preparation of aramides with potential applications as nanoscaffolds in supramolecular chemistry, e.g. comb-like-

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Polycyclic aromatic hydrocarbons (PAHs) are ubiquitous and found in the atmosphere, aquatic environment, sediments and soils. For environmental risk assessments and the allocation of the polluter it is important to know the PAH sources. PAH contamination sites are usually the result of anthropogenic processes. Three major sources are known: i) petroleum, including crude oil and its refined products and coals (petrogenic PAHs), ii) burning of organic matter (pyrogenic PAHs) and iii) transformation products of natural organic precursors present in the environment (diagenetic processes). In one case elevated PAH concentrations were found in river bank soils when building a retention area along the Mosel River. The source of the PAHs in this area was unclear and required the investigation of possible sources. To evaluate the PAH distribution along the Mosel River, a section of ~ 160 km along the river and a short section along the Saar River were investigated within this study. Concentrations of the Σ16 EPA PAHs were as high as 81 mg kg-1 dry weight (dw). Additionally, coal particles were identified in some soils, which originated from mining activities in the Saarland region. PAH distribution patterns of the 16 EPA PAHs suggest a mainly pyrogenic origin and in some cases a mixture of pyrogenic and petrogenic origin. For a comprehensive investigation five sampling sites were selected. Two sites were located before the confluence of the Mosel and Saar River, one site at the confluence and two sites after the confluence. The examination included typical forensic methods such as PAH distribution patterns of 45 PAHs (including alkylated PAHs), calculation of PAH ratios, determination of PAH alkyl homologues, n-alkanes, principal component analysis (PCA) and coal petrography. The results revealed a mainly pyrogenic source at sampling sites before the confluence of the two rivers. At and after the confluence, a mixture of pyrogenic and petrogenic inputs were present. With the help of coal petrography, coal derived particles could be identified in these soils. Therefore, coal was suggested to be the petrogenic source. It could be shown that sites with diffuse sources of contaminants, like the bank soils of the Mosel River, are difficult to characterize. As previously mentioned for detailed source identifications, the use of various forensic methods is essential. Determination of PAH alkyl homologue series, biomarkers and isotopes are often recommended. Source identification was evaluated using three different methods (i.e. PAH distribution patterns of an extended PAH spectrum, PAH ratios and analyses of n-alkanes). It was assessed if these methods were sufficient for the initial steps in identifying sources of PAHs in selected samples, and if they could be used for decision-making purposes. Point- and non-point sources were identified by applying the three methods and it could be shown that these relatively simple methods are sufficient in determining the primary source. In a last step of this study two soils (one before the confluence of the Mosel and Saar rivers and one after the confluence), and one sediment of the Mosel River were evaluated by investigating the mutagenic potential of the soils and the sediment with a fluctuation version of the Ames-test. The study showed that coal bearing soils at the Mosel River do not exhibit a greater mutagenic potential than other soils or sediments without coal particles.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Am COMPASS-Experiment am CERN-SPS wird die Spinsstruktur des Nukleons mit Hilfe der Streuung von polarisierten Myonen an polarisierten Nukleonen untersucht. Der in der inklusiven tiefinelastischen Streuung gemessene Beitrag der Quarks zum Nukleonspin reicht nicht aus, um den Spin des Nukleons zu erklären. Daher soll geklärt werden, wie die Gluonpolarisation und die Bahndrehimpulse von Quarks und Gluonen zum Gesamtspin des Nukleons beitragen. Da sich die Gluonpolarisation aus der $Q^{2}$-Abhängigkeit der Asymmetrien in der inklusiven Streuung nur abschätzen lässt, wird eine direkte Messung der Gluonpolarisation benötigt. Die COMPASS-Kollaboration bestimmt daher die Wirkungsquerschnittsasymmetrien für Photon-Gluon-Fusionprozesse, indem sie zum einen die offene Charmproduktion und zum anderen die Produktion von Hadronpaaren mit großen Transversalimpulsen verwendet. In dieser Arbeit wird die Messung der Gluonpolarisation mit den COMPASS-Daten der Jahre 2003 und 2004 vorgestellt. Für die Analyse werden die Ereignisse mit großem Impulsübertrag ($Q^{2}>1$ $GeV^{2}/c^{2}$) und mit Hadronpaaren mit großem Transversalimpuls ($p_{perp}>0.7$ $GeV/c$) verwendet. Die Photon-Nukleon-Asymmetrie wurde aus dem gewichteten Doppelverhältnis der selektierten Ereignisse bestimmt. Der Schnitt auf $p_{perp}>0.7$rn$GeV/c$ unterdrückt die Prozesse führender Ordnung und QCD-Compton Prozesse, so dass die Asymmetrie direkt mit der Gluonpolarisation über die Analysierstärke verknüpft ist. Der gemessene Wert ist sehr klein und verträglich mit einer verschwindenden Gluonpolarisation. Zur Vermeidung von falschen Asymmetrien aufgrund der Änderung der Detektorakzeptanz wurden Doppelverhältnisse untersucht, bei denen sich der Wirkungsquerschnitt aufhebt und nur die Detektorasymmetrien übrig bleiben. Es konnte gezeigt werden, dass das COMPASS-Spektrometer keine signifikante Zeitabhängigkeit aufweist. Für die Berechnung der Analysierstärke wurden Monte Carlo Ereignisse mit Hilfe des LEPTO-Generators und des COMGeant Software Paketes erzeugt. Dabei ist eine gute Beschreibung der Daten durch das Monte Carlo sehr wichtig. Dafür wurden zur Verbesserung der Beschreibung JETSET Parameter optimiert. Es ergab sich ein Wert von rn$frac{Delta G}{G}=0.054pm0.145_{(stat)}pm0.131_{(sys)}pm0.04_{(MC)}$ bei einem mittleren Impulsbruchteil von $langle x_{gluon}rangle=0.1$ und $langle Q^{2}rangle=1.9$ $GeV^{2}/c^{2}$. Dieses Ergebnis deutet auf eine sehr kleine Gluonpolarisation hin und steht im Einklang mit den Ergebnissen anderer Methoden, wie offene Charmproduktion und mit den Ergebnissen, die am doppelt polarisierten RHIC Collider am BNL erzielt wurden.