252 resultados para Pantermöller, Marko: Zur orthographischen Integration von Fremdwörtern im Finnischen
Resumo:
Das Hepatitis C Virus stellt mit weltweit 170 Millionen infizierten Menschen ein großes gesundheitliches Problem dar. Zwar sind in den letzten Jahren deutliche Fortschritte in der Behandlung der Hepatitis C gemacht worden, gleichwohl ist die Hepatitis C durch das Fehlen eines potenten Impfstoffes weiterhin ein relevantes gesundheitliches Risiko, da sich Infektionsraten auf diesem Wege nicht eindämmen lassen. Der Ansatz dieser Dissertation bestand in der Konstruktion adenoviraler Vektoren, die Anteile des HCV-Genoms beinhalten. Mit Hilfe dieser Vektoren sollten verschiedene Zelltypen transduziert werden, eine Überexpression viraler Proteine initiert werden und Effekte der HCV Proteine HCV-Core und HCV-NS5a ermittelt werden. Diese Dissertationsschrift beschreibt die Konstruktion der adenoviralen Vektoren, die die Hepatitis Gene Core bzw. NS5a tragen. Die Klonierungsschritte werden umfassend aufgezeigt. Darauf aufbauend werden Versuche gezeigt, die die erfolgreiche adenovirale Transduktion in Zielzellen bestätigen. Es werden phänotypische Veränderungen der verschiedenen Zielzellen anhand mikroskopischer Aufnahmen demonstriert. Zusätzlich wird die erfolgreiche Konstruktion der Vektoren durch Detektion der viralen Proteine im Western Blot bestätigt. Es konnte gezeigt werden, dass sich verschiedene Zielzellen mit den Vektoren transduzieren lassen und die Proteinexpression der HCV-Proteine einer dosisabhänigen Expressionskinetik folgt. In weiteren Untersuchungen konnten Veränderungen der Viabilität der Zellen durch die Expression der viralen Proteine HCV-Core und HCV-NS5a gezeigt werden. Durch eine dosisabhängige Herunterregulation des anti-apoptoischen Proteins MCL-1 ist das Gesamtüberleben der Zellen vermindert. Die Wachstumskinetik der transduzierten Zellen ist signifikant herabgesetzt.
Resumo:
Dendritische Zellen (DC) verbinden angeborene und adaptive Immunität. Abhängig vom Aktivierungsgrad vermitteln sie Toleranz oder Immunität. Hier wurden konventionelle DC (kDC) und plasmazytoide DC (pDC) hinsichtlich ihrer T-Zellstimulation in An- und Abwesenheit regulatorischer T Zellen (Treg) verglichen. Als starke T-Zellstimulatoren induzieren aktivierte kDC Treg-Proliferation. Proliferierende Treg sind nicht suppressiv, weshalb T-Effektorzellen nach kDC-Stimulation in Treg-Anwesenheit proliferieren. Demgegenüber vermitteln aktivierte pDC nur schwache T-Zellstimulation, die aber ausreicht T-Effektorzellproliferation auszulösen. Aktivierte pDC brechen aber nicht die Anergie von Treg und induzieren daher nicht ihre Proliferation. Trotz der geringen T-Zellstimulation sind pDC in der Lage Proliferation und Expansion von T-Effektorzellen in Treg-Gegenwart zu bewirken. Dies konnte auf ein insuffizientes pDC-vermitteltes T-Zellrezeptorsignal für Treg zurückgeführt werden, das keine funktionelle pDC-vermittelte Treg-Aktivierung bewirkt.rnUnter homöostatischen Bedingung vermitteln DC Toleranz, so induzieren unreife kDC Treg in der Peripherie. Hierbei ist eine ICOS-vermittelte Kostimulation essentiell für die Induktion des IL-10-Rezeptors auf T-Zellen. Ein gleichzeitiges starkes CD28-Signal überkommt den ICOS-vermittelten Effekt und wirkt der IL-10R-Expression entgegen. Daher führt nur die Stimulation mit unreifen kDC zu IL-10-sensitiven T-Zellen in denen dann ein anergischer Phänotyp etabliert wird, der Teil des Differenzierungsprozesses zur induzierten Treg ist. Die ICOS/ICOS-L-Interaktion ist somit zentral für die Aufrechterhaltung peripherer Toleranz.rn
Resumo:
Atmosphärische Aerosolpartikel haben einen Einfluss sowohl auf das Klima als auch auf die menschliche Gesundheit, wobei sowohl die Größe, als auch die chemische Zusammensetzung der Partikel maßgeblich sind. Um insbesondere die chemische Zusammensetzung der Partikel in Abhängigkeit ihrer Quellen besser zu verstehen, wurden im Rahmen dieser Arbeit massenspektrometrische Untersuchungen thermisch verdampfbarer Partikel im Submikrometerbereich durchgeführt. Hierzu wurden sowohl die Massenspektren einzelner Partikel, als auch die von Ensembles von Partikeln mit dem Aerodyne Aerosolmassenspektrometer (AMS) in mehreren Feldmesskampagnen untersucht. Für die Messung von Einzelpartikelmassenspektren wurde das AMS zunächst durch den Einbau eines optischen Partikeldetektors (light scattering probe) modifiziert und anschließend eingehend charakterisiert. Dabei wurde festgestellt, dass mit dem Gerät im Partikelgrößenbereich von etwa 400-750 nm (untere Grenze bedingt durch die Detektionseffizienz des optischen Detektors, obere Grenze durch die Transmissionseffizienz des Aerosoleinlasssystems) quantitative Einzelpartikelmessungen möglich sind. Zudem wurde die Analyse der erhaltenen Messdaten systematisiert, und durch Einsatz von Standardspektren ein Sortieralgorithmus für die Einzelpartikelmassenspektren entwickelt, der erfolgreich auf Daten von Feldmesskampagnen angewandt werden konnte. Mit diesem Sortieralgorithmus sind zudem quantitative Aussagen über die verschiedenen Partikelbestandteile möglich. Im Sommer 2009 und im Winter 2010 fanden im Großraum Paris zwei einmonatige Feldmesskampagnen statt, bei denen unter anderem der Einfluss der Abluftfahne der Megastadt auf seine Vororte untersucht wurde. Erhöhte Konzentrationen sekundär gebildeter Aerosolkomponenten (Nitrat, Sulfat, oxidiertes organisches Aerosol (OOA)) waren insbesondere beim Herantransport kontinentaler Luftmassen zu beobachten. Im Gegensatz dazu waren die beobachteten Konzentrationen der Tracer primärer Emissionen NOx, BC (black carbon) und HOA (hydrocarbonlike organic aerosol) neben der lokalen Quellstärke insbesondere durch die herrschende Windgeschwindigkeit beeinflusst. Aus dem Vergleich der Messungen an drei Stationen konnte der Einfluss der Megastadt Paris auf seine Vororte (unter Annahme gleicher lokaler Emissionen an den zwei Vorort-Stationen) zu 0,1-0,7 µg m-3 BC, 0,3-1,1 µg m-3 HOA, und 3-5 ppb NOx abgeschätzt werden. Zudem konnten für zwei Stationen aus den Ensemble- bzw. den Einzelpartikelmessungen unabhängig voneinander zwei verschiedene HOA-Typen unterschieden werden, die den Quellen „Kochen“ und „Autoabgase“ zugeordnet wurden. Der Anteil der Partikel aus den Quellen „Kochen“ bzw. „Autoabgase“ am Gesamt-HOA betrug 65,5 % und 34,5 % für die Ensemblemessungen in der Innenstadt (nahe vieler Restaurants), und für die Einzelpartikelmessungen in einem Vorort 59 % bzw. 41 % (bezogen auf die Partikelanzahl, welche hier der Masse etwa proportional ist). Die Analyse der Einzelpartikelmassenspektren erbrachte zudem neue Erkenntnisse über den Mischungszustand der Einzelpartikel. So konnte belegt werden, dass Nitrat, Sulfat und OOA intern gemischt sind, HOA-Partikel aber als externe Mischung mit diesen vorliegen. Zudem konnte anhand der Tagesgänge der Masse pro Partikel von OOA, Nitrat und Sulfat und der Anzahl der diese Substanzen enthaltenden Partikel gezeigt werden, dass der im Ensemblemodus beobachtete fehlende Tagesgang der Sulfat-Massenkonzentration wahrscheinlich durch die gegensätzlichen Effekte der Modulation der Partikelanzahlkonzentration durch die sich verändernde Mischungsschichthöhe und der variierenden Masse an Sulfat pro Partikel (mittägliche photochemische Neuproduktion und Kondensation auf existierende Partikel) erklärt werden kann. Für OOA ist eine ähnliche Erklärung des Ensemblemodus-Tagesganges jedoch nur teilweise möglich; weitere Arbeit ist daher nötig, um auch für diese Substanzklasse belastbare Aussagen aus dem Vergleich der Ensemble- und Einzelpartikelmessungen zu erhalten. Im Rahmen einer Labormesskampagne an der AIDA-Kammer in Karlsruhe wurden Ensemble- und Einzelpartikelmassenspektren von Bakterien aufgenommen. Es konnte gezeigt werden, dass es prinzipiell möglich ist, Bakterien in Außenluft mittels Einzelpartikelmessungen nachzuweisen, jedoch wahrscheinlich nur bei sehr hohen Anzahlkonzentrationen. Der Nachweis von Bakterien und anderen primären biologischen Aerosolpartikeln mit dem AMS sollte daher in weiterführenden Experimenten noch optimiert werden.
Resumo:
In der vorliegenden Arbeit wurde der Nachweis des Isotops Np-237 mit Resonanzionisations-Massenspektrometrie (RIMS) entwickelt und optimiert. Bei RIMS werden Probenatome mehrstufig-resonant mit Laserstrahlung angeregt, ionisiert und anschließend massenspektrometrisch nachgewiesen. Die Bestimmung geeigneter Energiezustände für die Anregung und Ionisation von Np-237 erfolgte durch Resonanzionisationsspektroskopie (RIS), wobei über 300 bisher unbekannte Energieniveaus und autoionisierende Zustände von Np-237 identifiziert wurden. Mit in-source-RIMS wird für das Isotop eine Nachweisgrenze von 9E+5 Atome erreicht. rnrnDie Mobilität von Np in der Umwelt hängt stark von seiner Elementspeziation ab. Für Sicherheitsanalysen potentieller Endlagerstandorte werden daher Methoden benötigt, die Aussagen über die unter verschiedenen Bedingungen vorliegenden Neptuniumspezies ermöglichen. Hierzu wurde eine online-Kopplung aus Kapillarelektrophorese (CE) und ICP-MS (inductively coupled plasma mass spectrometry) genutzt, mit der die Np-Redoxspezies Np(IV) und Np(V) noch bei einer Konzentrationen von 1E-9 mol/L selektiv nachgewiesen werden können. Das Verfahren wurde eingesetzt, um die Wechselwirkung des Elements mit Opalinuston unter verschiedenen Bedingungen zu untersuchen. Dabei konnte gezeigt werden, dass bei Gegenwart von Fe(II) Np(V) zu Np(IV) reduziert wird und dieses am Tongestein sorbiert. Dies führt insgesamt zu einer deutlich erhöhten Sorption des Np am Ton.
Resumo:
Die vorliegende Arbeit beschäftigt sich mit derAutomatisierung von Berechnungen virtuellerStrahlungskorrekturen in perturbativen Quantenfeldtheorien.Die Berücksichtigung solcher Korrekturen aufMehrschleifen-Ebene in der Störungsreihenentwicklung istheute unabdingbar, um mit der wachsenden Präzisionexperimenteller Resultate Schritt zu halten. Im allgemeinen kinematischen Fall können heute nur dieEinschleifen-Korrekturen als theoretisch gelöst angesehenwerden -- für höhere Ordnungen liegen nur Teilergebnissevor. In Mainz sind in den letzten Jahren einige neuartigeMethoden zur Integration von Zweischleifen-Feynmandiagrammenentwickelt und im xloops-Paket in algorithmischer Formteilweise erfolgreich implementiert worden. Die verwendetenVerfahren sind eine Kombination exakter symbolischerRechenmethoden mit numerischen. DieZweischleifen-Vierbeinfunktionen stellen in diesem Rahmenein neues Kapitel dar, das durch seine große Anzahl vonfreien kinematischen Parametern einerseits leichtunüberschaubar wird und andererseits auch auf symbolischerEbene die bisherigen Anforderungen übersteigt. Sie sind ausexperimenteller Sicht aber für manche Streuprozesse vongroßem Interesse. In dieser Arbeit wurde, basierend auf einer Idee von DirkKreimer, ein Verfahren untersucht, welches die skalarenVierbeinfunktionen auf Zweischleifen-Niveau ganz ohneRandbedingungen an den Parameterraum zu integrierenversucht. Die Struktur der nach vier Residuenintegrationenauftretenden Terme konnte dabei weitgehend geklärt und dieKomplexität der auftretenden Ausdrücke soweit verkleinertwerden, dass sie von heutigen Rechnern darstellbar sind.Allerdings ist man noch nicht bei einer vollständigautomatisierten Implementierung angelangt. All dies ist dasThema von Kapitel 2. Die Weiterentwicklung von xloops über Zweibeinfunktionenhinaus erschien aus vielfältigen Gründen allerdings nichtmehr sinnvoll. Im Rahmen dieser Arbeit wurde daher einradikaler Bruch vollzogen und zusammen mit C. Bauer und A.Frink eine Programmbibliothek entworfen, die als Vehikel fürsymbolische Manipulationen dient und es uns ermöglicht,übliche symbolische Sprachen wie Maple durch C++ zuersetzen. Im dritten Kapitel wird auf die Gründeeingegangen, warum diese Umstellung sinnvoll ist, und dabeidie Bibliothek GiNaC vorgestellt. Im vierten Kapitel werdenDetails der Implementierung dann im Einzelnen vorgestelltund im fünften wird sie auf ihre Praxistauglichkeituntersucht. Anhang A bietet eine Übersicht über dieverwendeten Hilfsmittel komplexer Analysis und Anhang Bbeschreibt ein bewährtes numerisches Instrument.
Resumo:
Die (Wieder-)Nutzung auf Schwerkraft basierender Fördertechniken, die insbesondere durch das niedrige Energiepreisniveau in den Jahrzehnten nach dem 2. Weltkrieg in der Tagebautechnik nahezu vollständig verdrängt wurden, ist bei den heutigen wirtschaftlichen Randbedingungen und anzustrebenden ökologischen Standards eine Herausforderung für die bergbautreibende Industrie. Seit Aufnahme der Entwicklung des Förderkonzeptes – Geführte Versturztechnik – Mitte der 1990er Jahre haben sich die Kosten für Rohöl vor Steuern nach dem Tiefstand um das Jahr 1998 bis heute mehr als verdreifacht, alleine seit 2004 mehr als verdoppelt. Gesetzliche Regelwerke wie die europäische IVU-Richtlinie 96/61/EG zur „integrierten Vermeidung und Verminderung der Umweltverschmutzung“ fordern, Genehmigungen nur noch bei Einsatz der besten verfügbaren Techniken (BVT oder BAT: „best available techniques“) zu erteilen. Die Umsetzung in nationale Vorschriften wie das Bundes-Immissionsschutzgesetz und nachgeordnete Regelwerke fordern hierauf aufbauend, dass Umweltbelastungen nicht in andere Medien verlagert werden dürfen. Die Anordnung einer Versturzrinne zur Nutzung von Massenschwerebewegungen am Beispiel von Quarzitabbau im Rheinischen Schiefergebirge bei denen die Förderbezugsebene unterhalb der Strossen liegt, die zur sichern und selektiven Gewinnung des Rohstoffs aufgefahren werden müssen, erfüllt durch Rückgriff auf ein vermeintlich „archaisches“ Förderkonzept durch Nutzung der Schwerkraft die obigen Anforderungen. Offenkundige Umweltbelastungen, die alleine durch die Verbrennung von Dieselkraftstoff und hieraus resultierender Schadstoff- und Wärmeeinträge in die Luft beim verbreiteten Einsatz von SLKW zur Abwärtsförderung entstehen, können erheblich vermindert werden. Der Aspekt der Betriebssicherheit einer solchen Anordnung kann durch Auffahren eines geradlinigen Bauwerks mit an das Fördergut angepassten Dimensionen sowie Einrichtungen zur Beschränkung der kinetischen Energie erreicht werden. Diese stellen auch gleichzeitig sicher, dass die Zerkleinerung des durch die Versturzrinne abwärts transportierten Materials betrieblich zulässige Grenzen nicht überschreitet. Hierfür kann auf das umfangreiche Wissen zu Massenschwerebewegungen Rückgriff genommen werden. Dem Aspekt des Umweltschutzes, der sich in Bezug auf das Medium Luft auf den autochtonen Staub reduziert, kann durch Vorrichtungen zur Staubniederschlagung Rechnung getragen werden. Vertiefende Untersuchungen sind erforderlich, um die mit komplexen, aber erprobten Techniken arbeitende Tagebauindustrie auch in dicht besiedelten Regionen wieder an die Nutzung von Schwerkraft (-gestützten) Fördertechniken heranzuführen. Auch das Konzept – Geführte Versturztechnik – ist auf konkrete Anwendungsfälle hin in Details anzupassen.
Resumo:
Ein metallfreies Reaktionssystem mit Bis(triphenylphosphoranyliden)ammonium-Kationen als Gegenionen sowie das Additiv Lithium-2-methoxyethoxid wurden auf ihre Eignung zur anionischen Synthese von Blockcopolymeren mit (Meth)acrylatsegmenten bei moderaten Temperaturen im Strömungsrohr-Reaktor untersucht. Das metallfreie System ist zur lebenden Polymerisation von Methacrylaten in THF mit engen Molekulargewichtsverteilungen bei Reaktionszeiten < 1 s bis zu Temperaturen von 0 °C geeignet. In Gegenwart von Metallionen (Li+) findet eine Verlangsamung der Polymerisation unter Verlust der Reaktionskontrolle statt, Lithiumenolate verursachen nun breite, multimodale Molekulargewichtsverteilungen. Eine lebende Polymerisation von Acrylaten ist nicht möglich, massenspektroskopische Untersuchungen der Produkte weisen auf einen komplexen Reaktionsmechanismus mit Abbruch- und Übertragungsreaktionen hin. Die Synthese von Poly(styrol)-block-Poly(1,4-butadien)-block-Poly(methylmethacrylat)-Copolymeren in Toluol ist mit Lithium-2-methoxyethoxid als Additiv für die MMA-Polymerisation bei moderaten Mischtemperaturen (T < 0 °C) im Strömungsrohr-Reaktor möglich, die Effektivität des Wechselschritts von Polybutadien zu PMMA beträgt im Durchschnitt ca. 50 %. Untersuchungen verschiedener Reaktionsparameter, wie z.B. der Endfunktionalisierung des Polybutadiens mit 1,1-Diphenylethylen und der Temperatur während der Verkappung und der MMA-Polymerisation, geben keine eindeutigen Hinweise auf die Ursache dieses Phänomens. MALDI-TOF-Massenspektren des unreagierten Polybutadien Precursors zeigen die Anlagerung von 1-3 Molekülen Methylmethacrylat und keinen Abbruch durch Backbiting, was auf die Ausbildung stabiler Aggregate hindeutet.
Resumo:
In dieser interdisziplinären, translationswissenschaftlichen Studie wird die Integration von Curriculum und Evaluierung in der Dolmetscherausbildung theoretisch fundiert und im Rahmen einer Fallstudie empirisch untersucht. Dolmetschkompetenz wird als ein durch zweckgerechte und messgenaue (valid and reliable) Bewertungsmethoden dokumentiertes Ergebnis der Curriculumanwendung betrachtet. Definitionen, Grundlagen, Ansätze, Ausbildungs- und Lernziele werden anhand der Curriculumtheorie und Dolmetschwissenschaft beschrieben. Traditionelle und alternative Evaluierungsmethoden werden hinsichtlich ihrer Anwendbarkeit in der Dolmetscherausbildung erprobt. In der Fallstudie werden die Prüfungsergebnisse zweier Master-Studiengänge-MA Konferenzdolmetschen und MA Dolmetschen und Übersetzen-quantitativ analysiert. Die zur Dokumentation der Prüfungsergebnisse eingesetzte Bewertungsmethodik wird qualitativ untersucht und zur quantitativen Analyse in Bezug gesetzt. Die Fallstudie besteht aus 1) einer chi-square-Analyse der Abschlussprüfungsnoten getrennt nach Sprachkombination und Prüfungskategorie (n=260), 2) einer Umfrage unter den Jurymitgliedern hinsichtlich der Evaluierungsansätze, -verfahren, und -kriterien (n = 45; 62.22% Rücklaufrate); und 3) einer Analyse des ausgangssprachlichen Prüfungsmaterials ebenfalls nach Sprachkombination und Prüfungskategorie. Es wird nachgewiesen, dass Studierende im MA Dolmetschen und Übersetzen tendenziell schlechtere Prüfungsleistungen erbringen als Studierende im MA Konferenzdolmetschen. Die Analyseergebnisse werden jedoch als aussageschwach betrachtet aufgrund mangelnder Evaluierungsvalidität. Schritte zur Curriculum- und Evaluierungsoptimierung sowie ein effizienteres Curriculummodell werden aus den theoretischen Ansätzen abgeleitet. Auf die Rolle der Ethik in der Evaluierungsmethodik wird hingewiesen.
Resumo:
Ionenkäfige und speziell Penningfallen stellen sich in der Atomphysik als außergewöhnliche Werkzeuge heraus. Zum einen bieten diese 'Teilchencontainer' die Möglichkeit atomphysikalische Präzisionsmessungen durchzuführen und zum anderen stellen Penningfallen schwingungsfähige Systeme dar, in welchen nichtlineare dynamische Prozesse an gespeicherten Teilchen untersucht werden können. In einem ersten Teil der Arbeit wurde mit der in der Atomphysik bekannten Methode der optischen Mikrowellen-Doppelresonanz Spektroskopie der elektronische g-Faktor von Ca+ mit einer Genauigkeit von 4*10^{-8} zu gJ=2,00225664(9) bestimmt. g-Faktoren von Elektronen in gebundenen ionischen Systemen sind fundamentale Größen der Atomphysik, die Informationen über die atomare Wellenfunktion des zu untersuchenden Zustandes liefern. In einem zweiten Teil der Arbeit wurde hinsichtlich der Untersuchungen zur nichtlinearen Dynamik von parametrisch angeregten gespeicherten Elektronen beobachtet, dass ab bestimmten kritischen Teilchendichten in der Penningfalle die gespeicherten Elektronen kollektive Eigenschaften manifestieren. Weiterhin wurde bei der Anregung der axialen Eigenbewegung ein Schwellenverhalten der gemessenen Subharmonischen zur 2*omega_z-Resonanz beobachtet. Dieser Schwelleneffekt lässt sich mit der Existenz eines Dämpfungsmechanismus erklären, der auf die Elektronenwolke einwirkt, so dass eine Mindestamplitude der Anregung erforderlich ist, um diese Dämpfung zu überwinden. Durch Bestimmung der charakteristischen Kurven der gedämpften Mathieuschen Differentialgleichung konnte das beobachtete Phänomen theoretisch verstanden werden.
Resumo:
In dieser Arbeit wurde ein zweidimensionales Kopplungssystem zur Bestimmung von leichtflüchtigen bromierten und iodierten Kohlenwasserstoffen (LHKW) in Wasser- und Luftproben entwickelt. Hierzu wurde ein Gaschromatograph mit einem Elektroneneinfangdetektor (ECD) on-line an ein elementselektives induktiv gekoppeltes Plasma-Massenspektrometer (ICPMS) gekoppelt. Dieses extrem nachweisstarke Analysensystem ermöglicht eine simultane Identifizierung unbekannter und koeluierender Peaks sowie eine vereinfachte Quantifizierung mittels ICPMS. Beim Vergleich des GC-ECD-ICPMS-Kopplungssystem mit den herkömmlichen Detektionsmethoden wie dem Massenspektrometer mit Elektronenstoss-Ionisation und dem Atomemissionsdetektor mit mikrowelleninduziertem Plasma schnitt das neu entwickelte Kopplungssystem ausgezeichnet ab. Für die Isolierung der LHKW aus Meerwasserproben wurde die Purge und Trap Technik verwendet, Luftproben wurden durch Besaugung auf Adsorptionsmaterial angereichert. Im Rahmen des BMBF-Teilprojektes ReHaTrop/AFOHAL wurden im August 2001 und im April/Mai 2002 an der Deutschen Nordseeküste Probenahmen durchgeführt. Die Konzentrationen der Wasserproben lagen im Bereich von 0,1-158 ng L-1, die der Luftproben im Bereich von 0,01-470 pptv. Die Messungen bestätigen die wichtige Rolle von Makroalgen im Zusammenhang mit der Produktion von halogenierten Kohlenwasserstoffen. Die Konzentration der iodierten und bromierten Kohlenwasserstoffe war immer höher in Proben, die direkten Kontakt mit Makroalgen hatten. Inkubationsexperimente zeigen für verschiedene braune und grüne Makroalgen individuelle Fingerprints der biogenen LHKW-Produktion. Bei den Messungen an der Nordseeküste wurden Abhängigkeiten zwischen den LHKW und meteorologischen Parametern gefunden.
Resumo:
Im Rahmen der vorliegenden Arbeit wurden zum ersten Mal kalorimetrische Tieftemperatur-Detektoren in der Beschleuniger-Massenspektrometrie (Accelerator Mass Spectrometry AMS), einer Standard-Methode zur Bestimmung kleinster Isotopenverhältnisse, eingesetzt, um das Isotopenverhältnis von 236U zu 238U zu bestimmen. Das Uran-Isotop 236U entsteht in der Neutroneneinfang-Reaktion 235U(n,gamma)236U und kann daher als Monitor-Nuklid für Neutronenflüsse verwendet werden. Die Detektoren bestehen aus einem Saphir-Absorber, auf den ein supraleitender Aluminium-Film aufgedampft ist, der als Thermistor dient. Ein energetisches Schwerion deponiert seine kinetische Energie als Wärme im Absorber, dessen Temperaturänderung durch die Widerstandsänderung des Supraleiters nachgewiesen wird. Mit solchen Detektoren konnte in vorhergehenden Experimenten bei GSI in einem Energiebereich von E = 5 - 300 MeV/amu für eine Vielzahl von Ionen von Neon bis Uran eine relative Energieauflösung von (1 - 4) E-3 erreicht werden. Der für die Beschleuniger-Massenspektrometrie typische Energiebereich liegt bei E = 0.1 - 1 MeV/amu. Im ersten Schritt wurde daher die systematische Untersuchung der Detektoreigenschaften auf diesen Energiebereich ausgedehnt. Diese Untersuchungen sowie die AMS-Messungen wurden am Tandem-Beschleuniger VERA des Instituts für Isotopenforschung und Kernphysik der Universität Wien durchgeführt. In einem Energiebereich von 10 - 60 MeV konnte für verschiedene Ionen (13C, 197Au, 238U) zunächst eine relative Energieauflösung von DeltaE/E = 7 E-3 erreicht werden. Dies übertrifft die Auflösung konventioneller Ionisations-Detektoren um ca. eine Größenordnung. Durch eine Verbesserung thermischer und elektronischer Rauschbeiträge konnte in einem zweiten Experiment für Uran der Energie 17 MeV die Auflösung auf DeltaE/E = 4.6 E-3 verbessert werden. Die Energie-Response des Detektors war linear über den gesamten beobachteten Energiebereich und unabhängig von der Ionenmasse; bis auf ein Niveau von 0.1 % wurde kein Pulshöhendefekt beobachtet. Diese Ergebnisse zeigen, daß solche Detektoren ein wertvolles Werkzeug in der Schwerionenphysik im Bereich relativ niedriger Ionenenergien darstellen. Mit der erreichten Energieauflösung war es möglich, für mehrere Proben aus natürlichem Uran das Isotopenverhältnis 236U/238U zu bestimmen: Um einen Material-Standard für Uran in der AMS zu etablieren, wurde das Isotopenverhältnis 236U/238U für zwei Proben aus der Mine ''K.u.K. Joachimsthal'' möglichst präzise bestimmt. Die Ergebnisse in der vorliegenden Arbeit stimmen gut mit früheren Messungen überein, die mit einem konventionellen Detektorsystem durchgeführt wurden. Sowohl der statistische als auch der systematische Fehler konnten deutlich reduziert werden. Für eine weitere Probe, extrahiert aus dem Wasser einer Uran-haltigen Quelle in Bad Gastein, wurde ein Isotopenverhältnis von 6.1 E-12 gemessen. Dies stellt das kleinste bislang für 236U/238U gemessene Isotopenverhältnis dar und bedeutet eine Steigerung der Sensitivität um eine Größenordnung. Die erreichte Energieauflösung ermöglicht es außerdem, die Detektoren zur direkten Massenidentifikation von schweren Ionen mittels einer kombinierten Energie-Flugzeit-Messung einzusetzen. In ersten Test-Messungen im Rahmen der vorliegenden Arbeit wurde eine Massenauflösung von DeltaM/M = (8.5 - 11.0) E-3 erreicht. In einem ersten Test für den Einsatz dieser Detektoren zum Nachweis sog. ''superschwerer Elemente (Z >= 112)'' erlaubte der große dynamische Bereich, die Reaktionsprodukte und ihre nachfolgenden Alpha-Zerfälle mit hoher Energieauflösung simultan und zeitaufgelöst nachzuweisen.
Resumo:
Im Rahmen dieser Arbeit wurde eine neue Methode für einen empfindlichen und isotopenselektiven Elementnachweis entwickelt. Unter Einsatz von Laserablation geschieht der Probenaufschluß direkt und mit einer Ortsauflösung von unter 30 m. Hierzu wurde ein hochauflösendes MALDI-TOF-Massenspektrometer, welches üblicherweise für biochemische Fragestellungen eingesetzt wird, mit einem spektroskopischen Aufbau zur resonanten Ionisation von Elementgehalten modifiziert. Die Methode ist somit insbesondere für die Untersuchung von Elementspuren in Festkörperproben mit mikroskopischer Struktur konzipiert. Methodische Entwicklungsarbeiten wurden anhand des Elements Gadolinium durchgeführt. Durch die Verwendung gepulster Farbstofflaser stehen ausreichend hohe Laserfelder zur Verfügung, um unabhängig von Hyperfeinstruktur und Isotopieverschiebung Übergänge aller Isotope im Rahmen des Resonanzionisations-Verfahrens zu sättigen. Darauf konnte eine Isotopenverhältnisanalyse mit einer Genauigkeit im Prozentbereich verwirklicht werden. Verschiedene Anregungsleitern wurden untersucht, und mit elementspezifischen Resonanzüberhöhungen bis zu zwei Größenordnungen über dem nicht-resonant gebildeten Untergrund konnte eine Nachweiseffizienz von über 10-4 (entsprechend sub-fg/g-Niveau) erzielt werden. Dazu wurden Simulationsrechnungen zum atomaren Sättigungsverhalten in starken resonanten Laserfeldern durchgeführt. Erste Anwendungen des Laserablationsverfahrens waren Proben kosmologischer Herkunft. Der physikalische Prozeß der Laserablation bei Metallen wurde unter Hochvakuum-Bedingung systematisch in Abhängigkeit der Laserfluenz untersucht. In der ablatierten Plasmaphase erwies sich der Neutralanteil als besonders geeignet für geschwindigkeitsselektive Laserionisations-Messungen. Eine bimodale Struktur wurde beobachtet, bestehend aus einer thermischen und einer schockwellen-induzierten Komponente. Der ionische Anteil der ablatierten Dampfphase konnte über variable elektrische Feldpulse untersucht werden. Laserablation unter Atmosphärenbedingung wurde an einem beschichteten Messingtarget untersucht. Dabei wurde die Entstehung von permanenten Oberflächenstrukturen beobachtet, welche sich durch Nichtgleichgewichts-Prozesse in der Dampfphase erklären lassen.
Resumo:
Die vorliegende Arbeit gewährte neue Einblicke in zwei fundamentale Vorgänge der frühen Neurogenese von Drosophila melanogaster. Der erste Teil untersuchte die zeitliche Spezifizierung der Neuroblastenidentitäten. Durch die Expression verschiedener Gene entlang der Dorsoventral- und der Anterioposteriorachse wird ein kartesisches Koordinatensystem aufgebaut, indem ein Neuroblast (NB), der in einem bestimmten Quadranten entsteht, eine spezifische Identität erhält. Die Delamination der NBs erfolgt in fünf Segregationswellen, wobei in jeder Welle die gleiche Population NBs gebildet wird. In dieser Arbeit konnte nun gezeigt werden, dass es nicht nur einen räumlichen, sondern auch einen zeitlichen Aspekt bei der Entstehung der NBs gibt: So zeigten Transplantationsexperimente, dass sowohl im frühen als auch im späten Neuroektoderm extrinsische induktive Signale an der Spezifizierung der Neuroblastenidentität beteiligt sind. Die Natur dieser Signale bleibt noch unklar. Allerdings stellen die Segmentpolaritätsgene aufgrund ihrer dynamischen Expression eine potenzielle Kandidatengruppe dar. Der zweite Teil beschäftigte sich mit der segmentalen Spezifizierung der Neuroblasten. Für diesen Prozess zeigten frühere Genexpressionsstudien, dass NBs, die zwar an korrespondierenden Positionen innerhalb des kartesischen Systems, aber in unterschiedlichen Segmenten gebildet werden, die gleichen Genexpressionsmuster aufweisen und fast identische Zellstammbäume hervorbringen. Einige dieser seriell homologen NBs generieren jedoch segmentspezifische Zellstammbäume – ein solches Beispiel ist der NB6-4, der als Modellsystem benutzt wurde. Für die thorakale Variante dieses NBs konnte ich zeigen, dass die Homöotischen Gene zur Spezifizierung nicht notwendig sind – thorakales Schicksal ist eine Grundidentität. Diese wird in abdominalen Segmenten jedoch durch die Funktion der Homöotischen Gene abdominal-A (abd-A) und Abdominal-B (Abd-B) in abdominales Schicksal transformiert. Dieser segmentale Unterschied wird durch die Regulation des Zellzyklusgens CycE bewerkstelligen. Genauer: CycE ist notwendig, um neurogliales Schicksal in thorakalen Segmenten zu generieren und ausreichend, dieses Schicksal ebenfalls in abdominalen Segmenten zu erzeugen. Eine direkte Inhibierung der Expression von CycE durch Abd-A in abdominalen Segmenten führt dagegen zu einer differenziellen Expression von CycE im neuronalen thorakalen Anteil des Zellstammbaums. Weiterhin konnten in einem Enhancerelement, das für die Expression von CycE im Nervensystem verantwortlich ist, mehrere Bindestellen für Abd-A und Abd-B gefunden werden. Die gewonnen Daten legen – in Verbindung mit bereits bekannten Ergebnissen – den Schluss nahe, dass diese neuronspezifizierende Funktion von CycE unabhängig von seiner Rolle im Zellzyklus ist.
Resumo:
Die vorliegende Dissertation analysiert die Middleware- Technologien CORBA (Common Object Request Broker Architecture), COM/DCOM (Component Object Model/Distributed Component Object Model), J2EE (Java-2-Enterprise Edition) und Web Services (inklusive .NET) auf ihre Eignung bzgl. eng und lose gekoppelten verteilten Anwendungen. Zusätzlich werden primär für CORBA die dynamischen CORBA-Komponenten DII (Dynamic Invocation Interface), IFR (Interface Repository) und die generischen Datentypen Any und DynAny (dynamisches Any) im Detail untersucht. Ziel ist es, a. konkrete Aussagen über diese Komponenten zu erzielen, und festzustellen, in welchem Umfeld diese generischen Ansätze ihre Berechtigung finden. b. das zeitliche Verhalten der dynamischen Komponenten bzgl. der Informationsgewinnung über die unbekannten Objekte zu analysieren. c. das zeitliche Verhalten der dynamischen Komponenten bzgl. ihrer Kommunikation zu messen. d. das zeitliche Verhalten bzgl. der Erzeugung von generischen Datentypen und das Einstellen von Daten zu messen und zu analysieren. e. das zeitliche Verhalten bzgl. des Erstellens von unbekannten, d. h. nicht in IDL beschriebenen Datentypen zur Laufzeit zu messen und zu analysieren. f. die Vorzüge/Nachteile der dynamischen Komponenten aufzuzeigen, ihre Einsatzgebiete zu definieren und mit anderen Technologien wie COM/DCOM, J2EE und den Web Services bzgl. ihrer Möglichkeiten zu vergleichen. g. Aussagen bzgl. enger und loser Koppelung zu tätigen. CORBA wird als standardisierte und vollständige Verteilungsplattform ausgewählt, um die o. a. Problemstellungen zu untersuchen. Bzgl. seines dynamischen Verhaltens, das zum Zeitpunkt dieser Ausarbeitung noch nicht oder nur unzureichend untersucht wurde, sind CORBA und die Web Services richtungsweisend bzgl. a. Arbeiten mit unbekannten Objekten. Dies kann durchaus Implikationen bzgl. der Entwicklung intelligenter Softwareagenten haben. b. der Integration von Legacy-Applikationen. c. der Möglichkeiten im Zusammenhang mit B2B (Business-to-Business). Diese Problemstellungen beinhalten auch allgemeine Fragen zum Marshalling/Unmarshalling von Daten und welche Aufwände hierfür notwendig sind, ebenso wie allgemeine Aussagen bzgl. der Echtzeitfähigkeit von CORBA-basierten, verteilten Anwendungen. Die Ergebnisse werden anschließend auf andere Technologien wie COM/DCOM, J2EE und den Web Services, soweit es zulässig ist, übertragen. Die Vergleiche CORBA mit DCOM, CORBA mit J2EE und CORBA mit Web Services zeigen im Detail die Eignung dieser Technologien bzgl. loser und enger Koppelung. Desweiteren werden aus den erzielten Resultaten allgemeine Konzepte bzgl. der Architektur und der Optimierung der Kommunikation abgeleitet. Diese Empfehlungen gelten uneingeschränkt für alle untersuchten Technologien im Zusammenhang mit verteilter Verarbeitung.
Resumo:
Im embryonalen Nervensystem von Drosophila wird gliales Schicksal durch den Transkriptionsfaktor gcm induziert. Es konnte gezeigt werden, daß die ektopische Expression von gcm im Nervensystem einen Überschuß an Gliazellen generiert, während Funktionsverlustmutanten von gcm nahezu keine Gliazellen mehr besitzen. Im Gegensatz zu der beschriebenen Funktion von gcm als binäres Schaltergen zwischen neuronalem und glialem Schicksal, gibt es nur wenig Hinweise auf Mechanismen zur weiteren Spezifizierung und Differenzierung der verschiedenen glialen Subtypen und den daran beteiligten Genen. Die vorliegende Arbeit beschreibt die auf Microarray-Experimenten basierende Genom-weite Suche nach neuen gcm-abhängigen glialen Genen. Diese Analyse vergleicht die ektopische Expression von gcm im gesamten Nervensystem und zum ersten Mal die gcm Funktionsverlustmutante mit dem Wildtyp. Beide Ansätze wurden als Zeitverlaufsexperimente durchgeführt, die den Zeitraum der Gliogenese in Drosophila umfassen. Im Vorfeld durchgeführte Kontrollexperimente ermöglichten die Bestimmung des methodischen und genetischen Hintergrundrauschens, die eine Reduktion von "falsch positiven" Genen ermöglichte und die Sensitivität der Microarray-Auswertung erhöhte. Durch manuelle Filterschritte wurde der Schwerpunkt der Daten-Interpretation eher auf biologische Aspekte als auf eine rein statistische Auswertung gelegt und dies brachte deutlich Vorteile in der Auswahl der potentiellen Zielgene. Insbesondere die Analyse der temporalen Expressionsprofile, der Vergleich der antagonistischen Ansätze sowie eine ausführliche Recherche der vorhandenen Datenbanken im Hinblick auf bekannte Expression und Funktion der differentiell regulierten Gene, ermöglichten die Identifizierung von etwa 400 potentiellen Zielgenen. Für mehr als 30% dieser Gene konnte Expression in den gcm-abhängigen Gliazellen, hämatopoetischen Zellen oder den "tendon cells" nachgewiesen werden. Hierunter befinden sich mehr als 50 Gene, deren Abhängigkeit von gcm bisher nicht bekannt war. Eine zelluläre Analyse ausgewählter Kandidatengene auf Einzelzellebene, ihre Abhängigkeit von gcm sowie eine regulatorische Analyse in verschiedenen mutanten Hintergründen bekannter glialer Gene, geben Einblick in die verschiedenen Mechanismen glialer Regulation. An einigen Beispielen wird eine mögliche Funktion der aus dieser Analyse hervorgegangen Gene in den bekannten Kontext glialer Differenzierung und Funktion für Drosophila diskutiert.