237 resultados para generative Verfahren


Relevância:

10.00% 10.00%

Publicador:

Resumo:

In der vorliegenden Doktorarbeit werden neue, mikrofluidische Verfahren, zur Durchführung chemischer Reaktionen in mehrphasigen Systemen präsentiert. rnDas Einschließen von Reaktionspartnern in einzelne Segmente, deren Volumina im Bereich von Mikro- bis Femtoliter liegen und die dadurch erzeugten enormen, spezifischen Oberflächen, ermöglichen Massentransportprozesse über die Phasengrenzfläche zwischen einzelnen Segmenten, drastisch zu intensivieren. Aufgrund geringer räumlicher Ausdehnungen einzelner Kompartimente und durch vorherrschende, zirkulierende Strömungen in den einzelnen Abschnitten, sind Diffusions- und Konvektionsprozesse in diesen rasch, sodass an der Grenzfläche gebildete, reaktive Intermediate in sehr kurzen Zeitintervallen umgesetzt werden können. rnrn

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die BBC-Serie SHERLOCK war 2011 eine der meistexportierten Fernsehproduktionen Großbritanniens und wurde weltweit in viele Sprachen übersetzt. Eine der Herausforderungen bei der Übersetzung stellen die Schrifteinblendungen der Serie (kurz: Inserts) dar. Die Inserts versprachlichen die Gedanken des Protagonisten, bilden schriftliche und digitale Kommunikation ab und zeichnen sich dabei durch ihre visuelle Auffälligkeit und teilweise als einzige Träger sprachlicher Kommunikation aus, womit sie zum wichtigen ästhetischen und narrativen Mittel in der Serie werden. Interessanterweise sind in der Übersetztung alle stilistischen Eigenschaften der Original-Inserts erhalten. In dieser Arbeit wird einerseits untersucht, wie Schrifteinblendungen im Film theoretisch beschrieben werden können, und andererseits, was sie in der Praxis so übersetzt werden können, wie es in der deutschen Version von Sherlock geschah. Zur theoretischen Beschreibung werden zunächst die Schrifteinblendungen in Sherlock Untertitelungsnormen anhand relevanter grundlegender semiotischer Dimensionen gegenübergestellt. Weiterhin wird das Verhältnis zwischen Schrifteinblendungen und Filmbild erkundet. Dazu wird geprüft, wie gut verschiedene Beschreibungsansätze zu Text-Bild-Verhältnissen aus der Sprachwissenschaft, Comicforschung, Übersetzungswissenschaft und Typografie die Einblendungen in Sherlock erklären können. Im praktischen Teil wird die Übersetzung der Einblendungen beleuchtet. Der Übersetzungsprozess bei der deutschen Version wird auf Grundlage eines Experteninterviews mit dem Synchronautor der Serie rekonstruiert, der auch für die Formulierung der Inserts zuständig war. Abschließend werden spezifische Übersetzungsprobleme der Inserts aus der zweiten Staffel von SHERLOCK diskutiert. Es zeigt sich, dass Untertitelungsnormen zur Beschreibung von Inserts nicht geeignet sind, da sie in Dimensionen wie Position, grafische Gestaltung, Animation, Soundeffekte, aber auch Timing stark eingeschränkt sind. Dies lässt sich durch das historisch geprägte Verständnis von Untertiteln erklären, die als möglichst wenig störendes Beiwerk zum fertigen Filmbild und -ablauf (notgedrungen) hinzugefügt werden, wohingegen für die Inserts in SHERLOCK teilweise sogar ein zentraler Platz in der Bild- und Szenenkomposition bereits bei den Dreharbeiten vorgesehen wurde. In Bezug auf Text-Bild-Verhältnisse zeigen sich die größten Parallelen zu Ansätzen aus der Comicforschung, da auch dort schriftliche Texte im Bild eingebettet sind anstatt andersherum. Allerdings sind auch diese Ansätze zur Beschreibung von Bewegung und Ton unzureichend. Die Erkundung der Erklärungsreichweite weiterer vielversprechender Konzepte, wie Interface und Usability, bleibt ein Ziel für künftige Studien. Aus dem Experteninterview lässt sich schließen, dass die Übersetzung von Inserts ein neues, noch unstandardisiertes Verfahren ist, in dem idiosynkratische praktische Lösungen zur sprachübergreifenden Kommunikation zwischen verschiedenen Prozessbeteiligten zum Einsatz kommen. Bei hochqualitative Produktionen zeigt ist auch für die ersetzende Insertübersetzung der Einsatz von Grafikern unerlässlich, zumindest für die Erstellung neuer Inserts als Übersetzungen von gefilmtem Text (Display). Hierbei sind die theoretisch möglichen Synergien zwischen Sprach- und Bildexperten noch nicht voll ausgeschöpft. Zudem zeigt sich Optimierungspotential mit Blick auf die Bereitstellung von sorgfältiger Dokumentation zur ausgangssprachlichen Version. Diese wäre als Referenzmaterial für die Übersetzung insbesondere auch für Zwecke der internationalen Qualitätssicherung relevant. Die übersetzten Inserts in der deutschen Version weisen insgesamt eine sehr hohe Qualität auf. Übersetzungsprobleme ergeben sich für das genretypische Element der Codes, die wegen ihrer Kompaktheit und multiplen Bezügen zum Film eine Herausforderung darstellen. Neben weiteren bekannten Übersetzungsproblemen wie intertextuellen Bezügen und Realia stellt sich immer wieder die Frage, wieviel der im Original dargestellten Insert- und Displaytexte übersetzt werden müssen. Aus Gründen der visuellen Konsistenz wurden neue Inserts zur Übersetzung von Displays notwendig. Außerdem stellt sich die Frage insbesondere bei Fülltexten. Sie dienen der Repräsentation von Text und der Erweiterung der Grenzen der fiktiv dargestellten Welt, sind allerdings mit hohem Übersetzungsaufwand bei minimaler Bedeutung für die Handlung verbunden.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Zur Synthese hydrolysestabiler MUC1-Antitumorvakzine wurde im Rahmen dieser Arbeit zunächst ein Verfahren zur effizienten N Methylierung von Fmoc-Aminosäuren entwickelt. Die Synthese erfolgte in einer zweistufigen Umsetzung über Oxazolidinone unter Verwendung eines Tube-in-Tube-Durchflussreaktors mit einer semipermeablen Membran aus Teflon® AF 2400. In diesem Tube-in-Tube-Reaktor wurde in der ersten Stufe das Modellsubstrat Fmoc-Alanin bereits nach 2 h annähernd quantitativ in das entsprechende Oxazolidinon umgesetzt. In der zweiten Stufe wurde mit TFA erstmals eine Flüssigkeit durch eine solche Membran des Tube-in-Tube-Reaktors eingeleitet und lieferte innerhalb einer Stunde zahlreiche aliphatische, aromatische und funktionalisierte N-Methylaminosäuren in hohen Ausbeuten.rnDes Weiteren wurden erstmals sensible Glycosylaminosäuren, darunter auch TN Antigen-Strukturen, N-methyliert. Sie dienen als Bausteine für die Synthese von MUC1-Antitumorvakzinen. Neben Fmoc-N-Methyl-TN-Threonin konnten die Fmoc-geschützten N-Methyl-TN-Serin, N-Methyl-Sialyl-TN-Threonin sowie zwei N-Methyl-C Glycosylaminosäuren und in guten Ausbeuten erhalten werden. Anschließend wurde das N methylierte TN-Threonin gezielt in die tandem repeat-Sequenz des MUC1 in einer Festphasenpeptidsynthese eingebaut. Um einen direkten Vergleich bezüglich der N Methylierung im MUC1-Glycopeptide und dem darauf folgenden Einfluss auf die Tumorselektivität der resultierenden Vakzine erhalten zu können, wurde zudem ein Referenzpeptid aufgebaut. Zur Vollendung der Vakzinsynthese erfolgte die Konjugation beider Glycopeptidantigene an die jeweiligen BSA- und TTox-Proteine. rnEin alternativer Zugang zu hydrolysestabilen Glycopeptidbausteinen wurde im letzten Teil der Arbeit über die Synthese von α C Glycosylaminosäuren erarbeitet. Der entwickelte Syntheseweg basiert auf einer Ugi-Vier-Komponenten-Reaktion aus Aldehyd, Amin, Nitril und Carbonsäure. Als benötigte Aldehydkomponenten wurden ein einfaches Galactose- sowie ein Galactosamin-Derivat verwendet. Zum Aufbau des C-glycosidischen Grundgerüsts wurde eine Mikrowellen-unterstützte C-Allylierungsvariante im Durchfluss realisiert. Die Galactose- und Galactosaminaldehyde wurden danach mit chirale Glycosylaminen umgesetzt.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Der zunehmende Anteil von Strom aus erneuerbaren Energiequellen erfordert ein dynamisches Konzept, um Spitzenlastzeiten und Versorgungslücken aus der Wind- und Solarenergie ausgleichen zu können. Biogasanlagen können aufgrund ihrer hohen energetischen Verfügbarkeit und der Speicherbarkeit von Biogas eine flexible Energiebereitstellung ermöglichen und darüber hinaus über ein „Power-to-Gas“-Verfahren bei einem kurzzeitigen Überschuss von Strom eine Überlastung des Stromnetzes verhindern. Ein nachfrageorientierter Betrieb von Biogasanlagen stellt jedoch hohe Anforderungen an die Mikrobiologie im Reaktor, die sich an die häufig wechselnden Prozessbedingungen wie der Raumbelastung im Reaktor anpassen muss. Eine Überwachung des Fermentationsprozesses in Echtzeit ist daher unabdingbar, um Störungen in den mikrobiellen Gärungswegen frühzeitig erkennen und adäquat entgegenwirken zu können. rnBisherige mikrobielle Populationsanalysen beschränken sich auf aufwendige, molekularbiologische Untersuchungen des Gärsubstrates, deren Ergebnisse dem Betreiber daher nur zeitversetzt zur Verfügung stehen. Im Rahmen dieser Arbeit wurde erstmalig ein Laser-Absorptionsspektrometer zur kontinuierlichen Messung der Kohlenstoff-Isotopenverhältnisse des Methans an einer Forschungsbiogasanlage erprobt. Dabei konnten, in Abhängigkeit der Raumbelastung und Prozessbedingungen variierende Isotopenverhältnisse gemessen werden. Anhand von Isolaten aus dem untersuchten Reaktor konnte zunächst gezeigt werden, dass für jeden Methanogenesepfad (hydrogeno-troph, aceto¬klastisch sowie methylotroph) eine charakteristische, natürliche Isotopensignatur im Biogas nachgewiesen werden kann, sodass eine Identifizierung der aktuell dominierenden methanogenen Reaktionen anhand der Isotopen-verhältnisse im Biogas möglich ist. rnDurch den Einsatz von 13C- und 2H-isotopen¬markierten Substraten in Rein- und Mischkulturen und Batchreaktoren, sowie HPLC- und GC-Unter¬suchungen der Stoffwechselprodukte konnten einige bislang unbekannte C-Flüsse in Bioreaktoren festgestellt werden, die sich wiederum auf die gemessenen Isotopenverhältnisse im Biogas auswirken können. So konnte die Entstehung von Methanol sowie dessen mikrobieller Abbauprodukte bis zur finalen CH4-Bildung anhand von fünf Isolaten erstmalig in einer landwirtschaftlichen Biogasanlage rekonstruiert und das Vorkommen methylotropher Methanogenesewege nachgewiesen werden. Mithilfe molekularbiologischer Methoden wurden darüber hinaus methanoxidierende Bakterien zahlreicher, unbekannter Arten im Reaktor detektiert, deren Vorkommen aufgrund des geringen O2-Gehaltes in Biogasanlagen bislang nicht erwartet wurde. rnDurch die Konstruktion eines synthetischen DNA-Stranges mit den Bindesequenzen für elf spezifische Primerpaare konnte eine neue Methode etabliert werden, anhand derer eine Vielzahl mikrobieller Zielorganismen durch die Verwendung eines einheitlichen Kopienstandards in einer real-time PCR quantifiziert werden können. Eine über 70 Tage durchgeführte, wöchentliche qPCR-Analyse von Fermenterproben zeigte, dass die Isotopenverhältnisse im Biogas signifikant von der Zusammensetzung der Reaktormikrobiota beeinflusst sind. Neben den aktuell dominierenden Methanogenesewegen war es auch möglich, einige bakterielle Reaktionen wie eine syntrophe Acetatoxidation, Acetogenese oder Sulfatreduktion anhand der δ13C (CH4)-Werte zu identifizieren, sodass das hohe Potential einer kontinuierlichen Isotopenmessung zur Prozessanalytik in Biogasanlagen aufgezeigt werden konnte.rn

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Stratosphärische Partikel sind typischerweise mit dem bloßen Auge nicht wahrnehmbar. Dennoch haben sie einen signifikanten Einfluss auf die Strahlungsbilanz der Erde und die heteorogene Chemie in der Stratosphäre. Kontinuierliche, vertikal aufgelöste, globale Datensätze sind daher essenziell für das Verständnis physikalischer und chemischer Prozesse in diesem Teil der Atmosphäre. Beginnend mit den Messungen des zweiten Stratospheric Aerosol Measurement (SAM II) Instruments im Jahre 1978 existiert eine kontinuierliche Zeitreihe für stratosphärische Aerosol-Extinktionsprofile, welche von Messinstrumenten wie dem zweiten Stratospheric Aerosol and Gas Experiment (SAGE II), dem SCIAMACHY, dem OSIRIS und dem OMPS bis heute fortgeführt wird. rnrnIn dieser Arbeit wird ein neu entwickelter Algorithmus vorgestellt, der das sogenannte ,,Zwiebel-Schäl Prinzip'' verwendet, um Extinktionsprofile zwischen 12 und 33 km zu berechnen. Dafür wird der Algorithmus auf Radianzprofile einzelner Wellenlängen angewandt, die von SCIAMACHY in der Limb-Geometrie gemessen wurden. SCIAMACHY's einzigartige Methode abwechselnder Limb- und Nadir-Messungen bietet den Vorteil, hochaufgelöste vertikale und horizontale Messungen mit zeitlicher und räumlicher Koinzidenz durchführen zu können. Die dadurch erlangten Zusatzinformationen können verwendet werden, um die Effekte von horizontalen Gradienten entlang der Sichtlinie des Messinstruments zu korrigieren, welche vor allem kurz nach Vulkanausbrüchen und für polare Stratosphärenwolken beobachtet werden. Wenn diese Gradienten für die Berechnung von Extinktionsprofilen nicht beachtet werden, so kann dies dazu führen, dass sowohl die optischen Dicke als auch die Höhe von Vulkanfahnen oder polarer Stratosphärenwolken unterschätzt werden. In dieser Arbeit wird ein Verfahren vorgestellt, welches mit Hilfe von dreidimensionalen Strahlungstransportsimulationen und horizontal aufgelösten Datensätzen die berechneten Extinktionsprofile korrigiert.rnrnVergleichsstudien mit den Ergebnissen von Satelliten- (SAGE II) und Ballonmessungen zeigen, dass Extinktionsprofile von stratosphärischen Partikeln mit Hilfe des neu entwickelten Algorithmus berechnet werden können und gut mit bestehenden Datensätzen übereinstimmen. Untersuchungen des Nabro Vulkanausbruchs 2011 und des Auftretens von polaren Stratosphärenwolken in der südlichen Hemisphäre zeigen, dass das Korrekturverfahren für horizontale Gradienten die berechneten Extinktionsprofile deutlich verbessert.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die westliche Honigbiene (Apis mellifera) ist von großer ökologischer und ökonomischer Bedeutung. Seit Jahren zeichnen sich in Nordamerika sowie in manchen Teilen Europas rückläufige Bienenvölkerzahlen und eine abnehmende Artenvielfalt innerhalb der Bienenfamilie ab. Mittlerweile ist von einer globalen Bestäuberkrise die Rede und es wird verstärkt nach Möglichkeiten gesucht, um dieser Krise entgegenzuwirken. Eine Konservierung von Bienenspermien in flüssigem Stickstoff ohne Fruchtbarkeitsreduzierung würde die Bienenzucht revolutionieren und stark beschleunigen, da räumliche und zeitliche Restriktionen bei der Wahl des Bienenspermas wegfielen. Zudem wäre eine Möglichkeit zur Sicherung der genetischen Diversität geschaffen. Im Rahmen des hier vorgestellten Projektes wurde eine solche Methode erarbeitet. In umfangreichen Abkühl- und Einfrierversuchen konnte eine neue Konservierungstechnik entwickelt werden, bei der das Kryoprotektivum mittels Dialyse dem Bienensperma zugesetzt wird. Dieses Verfahren erhält die native Spermaform, in der die Spermien parallel und inaktiv in dicht gepackten Clustern vorliegen, und erzielt bisher unerreichte Besamungserfolge. So konnten durchschnittlich 1,25 Mio. Spermien in den Spermatheken besamter Königinnen gezählt werden und davon waren ungefähr 90% motil. Besonders vielversprechend ist jedoch, dass 79,4% der Brut weiblich waren. Ein so hoher Anteil weiblicher Brut konnte bislang nicht erreicht werden und wäre für züchterische Zwecke ausreichend.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Addressing current limitations of state-of-the-art instrumentation in aerosol research, the aim of this work was to explore and assess the applicability of a novel soft ionization technique, namely flowing atmospheric-pressure afterglow (FAPA), for the mass spectrometric analysis of airborne particulate organic matter. Among other soft ionization methods, the FAPA ionization technique was developed in the last decade during the advent of ambient desorption/ionization mass spectrometry (ADI–MS). Based on a helium glow discharge plasma at atmospheric-pressure, excited helium species and primary reagent ions are generated which exit the discharge region through a capillary electrode, forming the so-called afterglow region where desorption and ionization of the analytes occurs. Commonly, fragmentation of the analytes during ionization is reported to occur only to a minimum extent, predominantly resulting in the formation of quasimolecular ions, i.e. [M+H]+ and [M–H]– in the positive and the negative ion mode, respectively. Thus, identification and detection of signals and their corresponding compounds is facilitated in the acquired mass spectra. The focus of the first part of this study lies on the application, characterization and assessment of FAPA–MS in the offline mode, i.e. desorption and ionization of the analytes from surfaces. Experiments in both positive and negative ion mode revealed ionization patterns for a variety of compound classes comprising alkanes, alcohols, aldehydes, ketones, carboxylic acids, organic peroxides, and alkaloids. Besides the always emphasized detection of quasimolecular ions, a broad range of signals for adducts and losses was found. Additionally, the capabilities and limitations of the technique were studied in three proof-of-principle applications. In general, the method showed to be best suited for polar analytes with high volatilities and low molecular weights, ideally containing nitrogen- and/or oxygen functionalities. However, for compounds with low vapor pressures, containing long carbon chains and/or high molecular weights, desorption and ionization is in direct competition with oxidation of the analytes, leading to the formation of adducts and oxidation products which impede a clear signal assignment in the acquired mass spectra. Nonetheless, FAPA–MS showed to be capable of detecting and identifying common limonene oxidation products in secondary OA (SOA) particles on a filter sample and, thus, is considered a suitable method for offline analysis of OA particles. In the second as well as the subsequent parts, FAPA–MS was applied online, i.e. for real time analysis of OA particles suspended in air. Therefore, the acronym AeroFAPA–MS (i.e. Aerosol FAPA–MS) was chosen to refer to this method. After optimization and characterization, the method was used to measure a range of model compounds and to evaluate typical ionization patterns in the positive and the negative ion mode. In addition, results from laboratory studies as well as from a field campaign in Central Europe (F–BEACh 2014) are presented and discussed. During the F–BEACh campaign AeroFAPA–MS was used in combination with complementary MS techniques, giving a comprehensive characterization of the sampled OA particles. For example, several common SOA marker compounds were identified in real time by MSn experiments, indicating that photochemically aged SOA particles were present during the campaign period. Moreover, AeroFAPA–MS was capable of detecting highly oxidized sulfur-containing compounds in the particle phase, presenting the first real-time measurements of this compound class. Further comparisons with data from other aerosol and gas-phase measurements suggest that both particulate sulfate as well as highly oxidized peroxyradicals in the gas phase might play a role during formation of these species. Besides applying AeroFAPA–MS for the analysis of aerosol particles, desorption processes of particles in the afterglow region were investigated in order to gain a more detailed understanding of the method. While during the previous measurements aerosol particles were pre-evaporated prior to AeroFAPA–MS analysis, in this part no external heat source was applied. Particle size distribution measurements before and after the AeroFAPA source revealed that only an interfacial layer of OA particles is desorbed and, thus, chemically characterized. For particles with initial diameters of 112 nm, desorption radii of 2.5–36.6 nm were found at discharge currents of 15–55 mA from these measurements. In addition, the method was applied for the analysis of laboratory-generated core-shell particles in a proof-of-principle study. As expected, predominantly compounds residing in the shell of the particles were desorbed and ionized with increasing probing depths, suggesting that AeroFAPA–MS might represent a promising technique for depth profiling of OA particles in future studies.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Seit seiner Entdeckung im Jahre 1978 wurden für hyperpolarisiertes (HP) 129Xe zahlreiche Anwendungen gefunden. Aufgrund seiner hohen Verstärkung von NMR-Signalen wird es dabei typischerweise für Tracer- und Oberflächenstudien verwendet. Im gasförmigen Zustand ist es ein interessantes, klinisches Kontrastmittel, welches für dynamische Lungen MRT genutzt oder auch in Blut oder lipophilen Flüssigkeiten gelöst werden kann. Weiterhin findet HP-Xe auch in der Grundlagenphysik in He-Xe Co-Magnetometern Verwendung, mit welchen z. B. das elektrische Dipolmoment von Xe bestimmt werden soll, oder es dient zur Überprüfung auf Lorentz-Invarianzen. Alle diese Anwendungen profitieren von einem hohen Polarisationsgrad (PXe), um hohe Signalstärken und lange Lagerzeiten zu erreichen. rnIn dieser Arbeit wurden zwei mobile Xe-Polarisatoren konstruiert: einer für Experimente in der Grundlagenphysik mit einer Produktionsrate von 400 mbar·l/h mit PXe ≈ 5%. Der zweite Xe-Polarisator wurde für medizinische Anwendungen entwickelt und soll 1 bar l/h mit PXe > 20% erzeugen. Der letztere wurde noch nicht getestet. Die Arbeitsbedingungen des Xe-Polarisators für Grundlagenphysik (Strömung des Gasgemischs, Temperatur, Druck und Konzentration von Xe) wurden variiert, um einen höchstmöglichen Polarisationsgrad zu erzielen. Die maximale Polarisation von 5,6 % wurde bei Verwendung eine Gasmischung von 1% Xe bei einem Durchfluss von 200 ml/min, einer Temperatur von 150°C und einem Gesamtdruck von 4 bar erreicht. rnWeiterhin muss HP-Xe auch effizient gelagert werden, um Polarisationsverluste zu minimieren. Das ist besonders für solche Anwendungen notwendig, welche an einem entfernten Standort durchgeführt werden sollen oder auch wenn lange Spinkohärenzeiten gefordert sind, z.B. bei He-Xe Co-Magnetometern. rnHierbei bestand bisher die größte Schwierigkeit darin, die Reproduzierbarkeit der gemessenen Lagerzeiten sicherzustellen. In dieser Arbeit konnte die Spin-Gitter-Relaxationszeit (T1) von HP-129Xe in unbeschichteten, Rb-freien, sphärischen Zellen aus Aluminiumsilikatglas (GE-180) signifikant verbessert werden. Die T1–Zeit wurde in einem selbstgebauten Niederfeld-NMR-System (2 mT) sowohl für reines HP-Xe als auch für HP-Xe in Mischungen mit N2, SF6 und CO2 bestimmt. Bei diesen Experimenten wurde die maximale Relaxationszeit für reines Xe (85% 129 Xe) bei (4,6 ± 0,1) h festgestellt. Dabei lagen die typischen Wand-Relaxationszeiten bei ca. 18 h für Glaszellen mit einem Durchmesser von 10 cm. Des Weiteren wurde herausgefunden, dass CO2 eine unerwartet hohe Effizienz bei der Verkürzung der Lebensdauer der Xe-Xe Moleküle zeigte und somit zu einer deutlichen Verlängerung der gesamten T1-Zeit genutzt werden kann. rnIm Verlauf vieler Experimente wurde durch wiederholte Messungen mit der gleichen Zelle, ein "Alterungsprozess“ bei der Wandrelaxation identifiziert und untersucht. Dieser Effekt könnte leicht rückgängig gemacht werden, indem die anfängliche Reinigungsprozedur wiederholt wurde. Auf diese Weise kann eine konstante Wandrelaxation sichergestellt werden, durch die sehr reproduzierbare T1-Messungen möglich werden. rnSchließlich wurde die maximale Relaxationszeit für HP-Xe mit natürlicher Häufigkeit in Mischungen mit SF6 bestimmt. Überraschenderweise war dieser Wert um ca. 75% niedriger als der Wert für Xenon, das zu 85% mit 129Xe angereichert war. Dieser Effekt wurde durch drei unabhängige Experimente bestätigt, da er nicht von der bestehenden Theorie der Xe-Relaxation ableitbar ist. rnDie Polarisation von HP-Xe, PXe, wird normalerweise durch den Vergleich der NMR-Signale des HP-Xe mit einer thermischen polarisierten Probe (z. B. 1H2O oder Xe) bestimmt. Dabei beinhaltet der Vergleich unterschiedlicher Messungen an verschiedenen Proben (unterschiedlicher Druck, Signalintensität und Messverfahren) viele experimentelle Unsicherheiten, welche sich oft nicht leicht bestimmen lassen. Eine einfache, genaue und kostengünstige Methode zur Bestimmung von PXe durch eine direkte Messung der makroskopischen Magnetisierung in einem statischen Magnetfeld vermeidet alle diese Unsicherheiten. Dieses Verfahren kann Polarisationen von > 2 % mit einer Genauigkeit von maximal 10% fast ohne Polarisationsverlust bestimmen. Zusätzlich kann diese Methode ohne weitere Änderungen auch für Bestimmungen des Polarisationsgrades anderer HP-Gase verwendet werden.rn

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In den letzten Jahren stieg in Deutschland der Gebrauch bzw. Missbrauch von Opioid-Analgetika zunehmend an. Das entwickelte Verfahren sollte unter Einbeziehung neuer Substanzen möglichst viele verschiedene Opioide und auch ihre pharmakologisch aktiven Stoffwechselprodukte berücksichtigen.rnVor Analyse wurden Blut-, Serum- oder Urinproben mit Phosphatpuffer versetzt und mittels Festphasenextraktion an C18-Säulenmaterial aufgearbeitet. Post-Mortem-Gewebematerial wurde mit isotonischer Kochsalzlösung versetzt, homogenisiert und anschließend durch eine Festphasenextraktion aufgereinigt. Haarproben wurden nach Zerkleinerung mit Methanol unter Ultrabeschallung extrahiert. Die Flüssigchromatographie gekoppelt mit Tandem-Massenspektrometrie (Elektrosprayionisation im positiven Modus) erwies sich als geeignetes Verfahren für die simultane Bestimmung der Opioide in biologischem Probenmaterial (Körperflüssigkeiten, Gewebe und Haaren). Der Multi-Analyt Assay erlaubt die quantitative Analyse von 35 verschiedenen Opioiden. Die Analyten wurden durch eine Phenyl-Hexyl Säule und einen Wasser/Acetonitril Gradienten durch eine UPLC 1290 Infinity gekoppelt mit einem 6490 Triple Quadrupol von Agilent Technologies separiert.rnDie LC/MS Methode zur simultanen Bestimmung von 35 Opioiden in Serum und Haaren wurde nach den Richtlinien der Gesellschaft für Toxikologische und Forensische Chemie (GTFCh) validiert. Im Fall der Serumvalidierung lagen die Nachweisgrenzen zwischen 0.02 und 0.6 ng/ml und die Bestimmungsgrenzen im Bereich von 0.1 bis 2.0 ng/ml. Die Kalibrationskurven waren für die Kalibrationslevel 1 bis 6 linear. Wiederfindungsraten lagen für alle Verbindungen zwischen 51 und 88 %, außer für Alfentanil, Bisnortiliidn, Pethidin und Morphin-3-Glucuronid. Der Matrixeffekt lag zwischen 86 % (Ethylmorphin) und 105 % (Desomorphin). Für fast alle Analyten konnten akzeptable Werte bei der Bestimmung der Genauigkeit und Richtigkeit nach den Richtlinien der GTFCh erhalten werden. Im Fall der Validierung der Haarproben lagen die Nachweisgrenzen zwischen 0.004 und 0.6 ng/Probe und die Bestimmungsgrenzen zwischen 0.1 ng/Probe und 2.0 ng/Probe. Für die Kalibrationslevel 1 bis 6 waren alle Kalibrationsgeraden linear. Die Wiederfindungsraten lagen für die Opioide im Bereich von 73.5 % (Morphin-6-Glucuronid) und 114.1 % (Hydrocodon). Die Werte für die Bestimmung der Richtigkeit lagen zwischen - 6.6 % (Methadon) und + 11.7 % (Pholcodin). Präzisionsdaten wurden zwischen 1.0 % für Dextromethorphan und 11.5 % für Methadon ermittelt. Die Kriterien der GTFCh konnten bei Ermittlung des Matrixeffekts für alle Substanzen erfüllt werden, außer für 6-Monoacetylmorphin, Bisnortilidin, Meperidin, Methadon, Morphin-3-glucuronid, Morphin-6-glucuronid, Normeperidin, Nortilidin und Tramadol.rnZum Test des Verfahrens an authentischem Probenmaterial wurden 206 Proben von Körperflüssigkeiten mit Hilfe der simultanen LC/MS Screening Methode untersucht. Über 150 Proben wurden im Rahmen von forensisch-toxikologischen Untersuchungen am Instituts für Rechtsmedizin Mainz analysiert. Dabei konnten 23 der 35 Opioide in den realen Proben nachgewiesen werden. Zur Untersuchung der Pharmakokinetik von Opioiden bei Patienten der anästhesiologischen Intensivstation mit Sepsis wurden über 50 Blutproben untersucht. Den Patienten wurde im Rahmen einer klinischen Studie einmal täglich vier Tage lang Blut abgenommen. In den Serumproben wurde hauptsächlich Sufentanil (0.2 – 0.8 ng/ml in 58 Fällen) und Piritramid (0.4 – 11 ng/ml in 56 Fällen) gefunden. Außerdem wurden die Proben von Körperflüssigkeiten und Gewebe von 13 verschiedenen Autopsiefällen mit Hilfe des Multi-Analyt Assays auf Opioide untersucht.rnIn einem zweiten Schritt wurde die Extraktions- und Messmethode zur Quantifizierung der 35 Opioide am Forensic Medicine Center in Ho Chi Minh City (Vietnam) etabliert. Insgesamt wurden 85 Herzblutproben von Obduktionsfällen mit Verdacht auf Opiatintoxikation näher untersucht. Der überwiegende Teil der untersuchten Fälle konnte auf eine Heroin- bzw. Morphin-Vergiftung zurückgeführt werden. Morphin wurde in 68 Fällen im Konzentrationsbereich 1.7 – 1400 ng/ml und der Heroinmetabolit 6-Monoactetylmorphin in 34 Fällen (0.3 – 160 ng/ml) nachgewiesen werden.rnSchließlich wurden noch 15 Haarproben von Patienten einer psychiatrischen Klinik, die illegale Rauschmittel konsumiert hatten, mit Hilfe der simultanen Opioid-LC/MS Screeningmethode gemessen. Die Ergebnisse der Untersuchung wurden mit früheren Auswertungen von gaschromatographischen Analysen verglichen. Es zeigte sich eine weitgehende Übereinstimmung der Untersuchungsergebnisse für die Opioide 6-Monoacetylmorphin, Morphin, Codein, Dihydrocodein und Methadon. Mit der LC/MS Methode konnten weitere Substanzen, wie zum Beispiel Bisnortilidin, Dextromethorphan und Tramadol in den Haarproben gefunden werden, die bislang nicht entdeckt worden waren.rn

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The inter-American human rights system has been conceived following the example of the European system under the European Convention on Human Rights (ECHR) before it was modified by Protocol No 11. However, two important differences exist. First, the authority of the European Court of Human Rights (ECtHR) to order reparation has been strictly limited by the principle of subsidiarity. Thus, the ECtHR's main function is to determine whether the ECHR has been violated. Beyond the declaratory effect of its judgments, according to Article 41 ECHR, it may only "afford just satisfaction to the injured party". The powers of the Inter-American Court of Human Rights (IACtHR) were conceived in a much broader fashion in Article 63 of the American Convention on Human Rights (ACHR), giving the Court the authority to order a variety of individual and general measures aimed at obtaining restitutio in integrum. The first main part of this thesis shows how both Courts have developed their reparation practice and examines the advantages and disadvantages of each approach. Secondly, the ECtHR's rather limited reparation powers have, interestingly, been combined with an elaborate implementation system that includes several of the Council of Europe's organs, principally the Committee of Ministers. In the Inter-American System, no dedicated mechanism was implemented to oversee compliance with the IACtHR's judgments. The ACHR limits itself to inviting the Court to point out in its annual reports the cases that have not been complied with and to propose measures to be adopted by the General Assembly of the Organization of American States. The General Assembly, however, hardly ever took action. The IACtHR has therefore filled this gap by developing a proper procedure to oversee compliance with its judgments. Both the European and the American solutions to ensure compliance are presented and compared in the second main part of this thesis. Finally, based on the results of both main parts, a comparative analysis of the reparation practice and the execution results in both human rights systems is being provided, aimed at developing proposals for the improvement of the functioning of either human rights protection system.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die neogene Lagos-Portimão Formation (Unter- bis Mittelmiozän) bildet einen Teil der Steilküste der Algarve (S-Portugal) und besteht aus einer zyklischen Wechsellagerung von Karbonaten und Sand-steinen. Die vorliegende Arbeit bietet ein Modell zur sedimentologischen, faziellen und stratigraphischen Entwicklung dieser Einheit an. Basierend auf Profilen entlang der gesamten lateralen Erstreckung der Einheit wurden verschiedene Gelände- und Labormethoden angewandt, um ein Modell entwickeln zu können. Messungen des Sr87/86-Isotopenverhältnisses sollten Klarheit bezüglich der stratigraphischen Position bringen. Die laterale Korrelation der Profile erfolgte über lithologische und fazielle Ansprachen. Unterstützend wurden einzelne Profile mit einem tragbaren Gammaray-Spektrometer gemessen. Es wurden vier Leithorizonte etabliert, die sich durch fazielle Merkmale und spezielle Fossilführung defi-nieren lassen. Die Mikrofazies wurde qualitativ und quantitativ analysiert. Als statistisches Verfahren wurde unter anderem eine hierarchische Clusteranalyse durchgeführt, über welche fünf Biofaziestypen des warm-temperierten Klimabereichs unterschieden werden. Die Fossilführung wird von Mollusken, Bryozoen und Rotalgen dominiert. Ausnahmen bilden stratigraphisch isolierte Vorkommen von kolo-nialen Korallen, die jedoch keine Riffkörper aufbauen. Die Ergebnisse aller zuvor erwähnten Untersuchungen deuten auf Ablagerungen eines nicht-tropischen Hochenergie-Schelfs hin. Sedimentäre Zyklen sind oftmals unvollständig, es treten Hartgründe und Auf-arbeitungs- bzw- Kondesationshorizonte auf. Die geochemische Altersdatierung weist Alterssprünge und -inversionen auf. Ein Vergleich mit dem SW-australischen Schelf und dem von James et al. (1994) eingeführten Modell des shaved shelf bietet sich aufgrund der Ähnlichkeit der Sedimentgesteine und des ozeanographischen Settings an. Weiterhin werden zeitgleiche bzw. faziell ähnliche Becken vergleichend diskutiert. Das Sedimentationsgeschehen der Lagos-Portimão Formation wird maßgeblich durch eine halokinetisch bedingte unregelmäßige Subsidenz und Hebung beeinflußt. Der Salzdom von Albufeira war während der Sedimentation der Einheit mehrfach in Bewegung. Rutschungspakete, Entlastungsspalten und Sanddikes zeugen davon. Die sequenzstratigraphische Interpretation bietet einen neuen Ansatz, in dem sie von Hochstand-Sandsteinen und Tiefstand-Karbonaten ausgeht.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Klimamontoring benötigt eine operative, raum-zeitliche Analyse der Klimavariabilität. Mit dieser Zielsetzung, funktionsbereite Karten regelmäßig zu erstellen, ist es hilfreich auf einen Blick, die räumliche Variabilität der Klimaelemente in der zeitlichen Veränderungen darzustellen. Für aktuelle und kürzlich vergangene Jahre entwickelte der Deutsche Wetterdienst ein Standardverfahren zur Erstellung solcher Karten. Die Methode zur Erstellung solcher Karten variiert für die verschiedenen Klimaelemente bedingt durch die Datengrundlage, die natürliche Variabilität und der Verfügbarkeit der in-situ Daten.rnIm Rahmen der Analyse der raum-zeitlichen Variabilität innerhalb dieser Dissertation werden verschiedene Interpolationsverfahren auf die Mitteltemperatur der fünf Dekaden der Jahre 1951-2000 für ein relativ großes Gebiet, der Region VI der Weltorganisation für Meteorologie (Europa und Naher Osten) angewendet. Die Region deckt ein relativ heterogenes Arbeitsgebiet von Grönland im Nordwesten bis Syrien im Südosten hinsichtlich der Klimatologie ab.rnDas zentrale Ziel der Dissertation ist eine Methode zur räumlichen Interpolation der mittleren Dekadentemperaturwerte für die Region VI zu entwickeln. Diese Methode soll in Zukunft für die operative monatliche Klimakartenerstellung geeignet sein. Diese einheitliche Methode soll auf andere Klimaelemente übertragbar und mit der entsprechenden Software überall anwendbar sein. Zwei zentrale Datenbanken werden im Rahmen dieser Dissertation verwendet: So genannte CLIMAT-Daten über dem Land und Schiffsdaten über dem Meer.rnIm Grunde wird die Übertragung der Punktwerte der Temperatur per räumlicher Interpolation auf die Fläche in drei Schritten vollzogen. Der erste Schritt beinhaltet eine multiple Regression zur Reduktion der Stationswerte mit den vier Einflussgrößen der Geographischen Breite, der Höhe über Normalnull, der Jahrestemperaturamplitude und der thermischen Kontinentalität auf ein einheitliches Niveau. Im zweiten Schritt werden die reduzierten Temperaturwerte, so genannte Residuen, mit der Interpolationsmethode der Radialen Basis Funktionen aus der Gruppe der Neuronalen Netzwerk Modelle (NNM) interpoliert. Im letzten Schritt werden die interpolierten Temperaturraster mit der Umkehrung der multiplen Regression aus Schritt eins mit Hilfe der vier Einflussgrößen auf ihr ursprüngliches Niveau hochgerechnet.rnFür alle Stationswerte wird die Differenz zwischen geschätzten Wert aus der Interpolation und dem wahren gemessenen Wert berechnet und durch die geostatistische Kenngröße des Root Mean Square Errors (RMSE) wiedergegeben. Der zentrale Vorteil ist die wertegetreue Wiedergabe, die fehlende Generalisierung und die Vermeidung von Interpolationsinseln. Das entwickelte Verfahren ist auf andere Klimaelemente wie Niederschlag, Schneedeckenhöhe oder Sonnenscheindauer übertragbar.