43 resultados para Zuverlässigkeit


Relevância:

10.00% 10.00%

Publicador:

Resumo:

A one-dimensional multi-component reactive fluid transport algorithm, 1DREACT (Steefel, 1993) was used to investigate different fluid-rock interaction systems. A major short coming of mass transport calculations which include mineral reactions is that solid solutions occurring in many minerals are not treated adequately. Since many thermodynamic models of solid solutions are highly non-linear, this can seriously impact on the stability and efficiency of the solution algorithms used. Phase petrology community saw itself faced with a similar predicament 10 years ago. To improve performance and reliability, phase equilibrium calculations have been using pseudo compounds. The same approach is used here in the first, using the complex plagioclase solid solution as an example. Thermodynamic properties of a varying number of intermediate plagioclase phases were calculated using ideal molecular, Al-avoidance, and non-ideal mixing models. These different mixing models can easily be incorporated into the simulations without modification of the transport code. Simulation results show that as few as nine intermediate compositions are sufficient to characterize the diffusional profile between albite and anorthite. Hence this approach is very efficient, and can be used with little effort. A subsequent chapter reports the results of reactive fluid transport modeling designed to constrain the hydrothermal alteration of Paleoproterozoic sediments of the Southern Lake Superior region. Field observations reveal that quartz-pyrophyllite (or kaolinite) bearing assemblages have been transformed into muscovite-pyrophyllite-diaspore bearing assemblages due to action of fluids migrating along permeable flow channels. Fluid-rock interaction modeling with an initial qtz-prl assemblage and a K-rich fluid simulates the formation of observed mineralogical transformation. The bulk composition of the system evolves from an SiO2-rich one to an Al2O3+K2O-rich one. Simulations show that the fluid flow was up-temperature (e.g. recharge) and that fluid was K-rich. Pseudo compound approach to include solid solutions in reactive transport models was tested in modeling hydrothermal alteration of Icelandic basalts. Solid solutions of chlorites, amphiboles and plagioclase were included as the secondary mineral phases. Saline and fresh water compositions of geothermal fluids were used to investigate the effect of salinity on alteration. Fluid-rock interaction simulations produce the observed mineral transformations. They show that roughly the same alteration minerals are formed due to reactions with both types of fluid which is in agreement with the field observations. A final application is directed towards the remediation of nitrate rich groundwaters. Removal of excess nitrate from groundwater by pyrite oxidation was modeled using the reactive fluid transport algorithm. Model results show that, when a pyrite-bearing, permeable zone is placed in the flow path, nitrate concentration in infiltrating water can be significantly lowered, in agreement with proposals from the literature. This is due to nitrogen reduction. Several simulations investigate the efficiency of systems with different mineral reactive surface areas, reactive barrier zone widths, and flow rates to identify the optimum setup.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Einer der Hauptschwerpunkte der Arbeit lag in der Entwicklung einer spezies-spezifischen und einer spezies-unspezifischen GC-ICP-Q-MSIVA von Schwefelspezies in Petroprodukten. Es wurden hierzu Indikatoren, ausgehend von elementarem 34S-angereichertem Schwefel, im Mikromaßstab synthetisiert. Für die spezies-spezifische GC-ICP-Q-MSIVA wurde die erstmalige Synthese von 34S-markiertem Thiophen, Dibenzothiophen und 4-Methyldibenzothiophen verwirklicht. Als Indikatorsynthese für die spezies-unspezifische GC-ICP-Q-MSIVA erfolgte die erstmalige Darstellung von 34S-angereichertem Dimethyldisulid. Mit Hilfe der synthetisierten Verbindungen wurden spezies-spezifische und spezies-unspezifische massenspektrometrische Isotopenverdünnungsanalysen von Schwefelspezies in Petroprodukten durchgeführt. Vor allen GC-ICP-Q-MSIVA-Analysen erfolgte eine umfangreiche Speziesidentifizierung durch Aufstockexperimente mit kommerziell erhältlichen Standards und mit einem mit der GC gekoppelten Elektronenstoß (EI)-MS. Beide ICP-Q-MS Methoden zeichnen sich durch sehr niedrige Nachweisgrenzen (7 ng S/g) aus, welche auch eine Anwendbarkeit auf tiefentschwefelte Kraftstoffe garantieren. Mit der spezies-unspezifischen GC-ICP-Q-MSIVA ist neben einer Speziesanalyse auch eine Gesamtschwefelanalyse durch Aufsummierung aller in der Probe vorhandenen Spezies möglich. Es wurde im Rahmen dieser Arbeit auch der Einfluss möglicher Empfindlichkeitsänderungen des ICP-Q-MS durch koeluierende Kohlenwasserstoffe überprüft, wobei diese erwartungsgemäß auf das Ergebnis der spezies-spezifischen und spezies-unspezifischen GC-ICP-Q-MSIVA keinerlei Einfluss haben. Der zweite Hauptschwerpunkt der Arbeit lag auf der Ausarbeitung routinefähiger, schneller und zuverlässiger Methoden zur Gesamtelementspurenanalytik von Schwefel und Schwermetallen in Erdölen und Petroprodukten. Für die Gesamtschwefelanalyse wurde eine MSIVA nach thermaler Verdampfung mit 34S-markierten Dibenzothiophen als Indikator entwickelt. Die neu entwickelte Methode erlaubt eine sehr schnelle Bestimmung des Gesamtschwefelgehalts, wobei die eigentliche Messung des Isotopenverhältnisses innerhalb von Sekunden nach der Injektion der Probe erfolgt. Weiterhin zeichnet sich die Methode durch Robustheit und eine niedrige Nachweisgrenze (40 ng S/g) aus. Für die Analyse von Schwermetallen wurden erstmals Möglichkeiten einer direkten MSIVA von Erdölproben ohne zeitraubenden, kontaminationsträchtigen Aufschluss bzw. die schwierige Erzeugung einer Mikroemulsion zwischen hydrophober Probe und wässrigem Indikator entwickelt. Um eine homogene Verteilung des Indikators in der hydrophoben Probe zu ermöglichen, musste ausgehend von den zur Verfügung stehenden wässrigen Indikatorlösungen, eine Überführung des Indikators in ein organisches Lösungsmittel erfolgen. Hierzu wurde der jeweilige Metallindikator unter Komplexierung aus wässrigen Metallindikatorlösungen extrahiert. Für die Analyse der mit diesen Indikatorlösungen in organischer Phase versetzten Proben wurden zwei alternative Methoden ausgearbeitet. Bei der mit der Laserablation (LA) kombinierten ICP-SF-MSIVA wird die isotopenverdünnte Probe aus einer eigens für diesen Zweck entwickelten Probenhalterung ablatiert und so dem ICP-SF-MS zugeführt wird. Bei zeitlich sich verändernden Intensitäten der gemessenen Isotope werden aber reproduzierbare und konstante Isotopenverhältnisse erhalten. Im Falle einer homogenen Verteilung der Metallspuren wurde eine hervorragende Übereinstimmung mit Vergleichsmethoden und einem Referenzmaterial festgestellt. Im Falle einer heterogenen partikulären Verteilung der Metallspuren, wie sie z.B. bei Eisenspuren in den Erdölen vorlag, ist die Anwendbarkeit der LA-ICP-SF-MSIVA aufgrund des kleinen Probenvolumens (20 µL) jedoch begrenzt. Als Alternative zur LA-ICP-SF-MSIVA wurde ein System unter Verwendung der Fließinjektion für die Zuführung der isotopenverdünnten Probe zum ICP-SF-MS ausgearbeitet. Die isotopenverdünnte Probe wird hierbei in einen Eluentenstrom von Toluol injiziert und mit Hilfe einer Total-Consumption-Zerstäuber/Sprühkammer-Einheit vollständig bei einer Flussrate von 10 µL/min in das Plasma eingebracht. Neben einer nochmaligen Verkürzung der Analysenzeit und Vereinfachung der Probenvorbereitung bietet diese Methode zusätzlich stark verbesserte Nachweisgrenzen (z.B. Ni 0,9 ng/g). Leider sind mit diesem Verfahren bis jetzt nur Ni und Mo zuverlässig bestimmbar. Das in dieser Arbeit ausgearbeitete Methodenpaket erlaubt erstmals eine breite Einführung der ICP-MSIVA als zuverlässige Methode in die Routineanalytik der Petroindustrie. Durch die bewiesene Zuverlässigkeit, den geringen Zeitaufwand und die Robustheit der Methoden steht ihrem routinemäßigen Einsatz, außer einer weitergehenderen Automatisierung einzelner Verfahrensteile, prinzipiell nichts entgegen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In dieser Arbeit werden drei wasserstoffverbrückte Systeme in der kondensierten Phase mit Hilfe von first-principles-Elektronenstruktur-Rechnungen untersucht, die auf der Dichtefunktionaltheorie (DFT) unter periodischen Randbedingungen basieren. Ihre lokalen Konformationen und Wasserstoffbrückenbindungen werden mittels ab-initio Molekulardynamiksimulationen berechnet und weiterhin durch die Bestimmung ihrer spektroskopischen Parameter charakterisiert. Der Schwerpunkt liegt dabei auf lokalen Strukturen und auf schnellen Fluktuationen der Wasserstoffbrückenbindungen, welche von zentraler Bedeutung für die physikalischen und chemischen Eigenschaften der betrachteten Systeme sind. Die für die lokalen, instantanen Konformationen berechneten Spektren werden verwendet, um die physikalischen Prozesse, die hinter den untersuchten Phänomenen stehen, zu erklären: die Wasseradsorption auf metallischen Oberflächen, die Ionensolvatisierung in wässrigen Lösungen und der Protonentransport in protonleitenden Polymeren, welche Prototypen von Membranen für Brennstoffzellen sind. Die Möglichkeit der Vorhersage spektroskopischer Parameter eröffnet vielfältige Möglichkeiten des Dialogs zwischen Experimenten und numerischen Simulationen. Die in dieser Arbeit vorgestellten Ergebnisse zeigen, dass die Zuverlässigkeit dieser theoretischen Berechnungen inzwischen für viele experimentell relevante Systeme ein quantitatives Niveau erreicht hat.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Das Wachstum von Milchsäurebakterien-Arten der Gattungen Lactobacillus, Pediococcus und Leuconostoc während der Weinfermentation kann durch die Bildung verschiedener Stoffwechselprodukte zu Weinfehlern führen. Um rechtzeitig Gegenmaßnahmen ergreifen zu können und einem Weinverderb vorzubeugen, bedarf es geeigneter Identifizierungsmethoden. Klassische mikrobiologische Methoden reichen oft nicht aus, um Mikroorganismen auf Art- und Stammniveau gezielt zu identifizieren. Wegen ihrer schnellen Durchführbarkeit und Zuverlässigkeit sind molekularbiologische Identifizierungsmethoden zur Kontrolle der mikrobiellen Flora während der Lebensmittelfermentierung in der heutigen Zeit unabdingbar. In der vorliegenden Forschungsarbeit wurden die 23S rRNA-Gensequenzen von neun Pediococcus-Typstämmen sequenziert, analysiert und phylogenetische Analysen durchgeführt. Zur Art-Identifizierung der Pediokokken wurden PCR-Primer generiert und ein Multiplex PCR System entwickelt, mit dem alle typischen Arten simultan in einer Reaktion nachgewiesen werden konnten. Die Ergebnisse der Multiplex PCR-Identifizierung von 62 Pediococcus-Stämmen aus Kulturensammlungen und 47 neu isolierten Stämmen aus Wein zeigten, dass einige Stämme unter falschen Artnamen hinterlegt waren, und dass P. parvulus im Weinanbaugebiet Rheinhessen weit verbreitet war. Die Fähigkeit der Pediococcus-Stämme zur Exopolysaccharid-Synthese wurde durch den Nachweis zweier Gene überprüft. Auf Basis der 23S rDNA-Sequenzen wurden rRNA-Sekundärstrukturen mit der neu entwickelten Software Structure Star generiert, die zum Auffinden von Zielbereichen für fluoreszenzmarkierte DNA-Sonden geeignet waren. Die Sequenzunterschiede zwischen den Pediococcus-Arten reichten aus, um zwei Gruppen durch Fluoreszenz in situ Hybridisierung differenzieren zu können. Die Verwendung unmarkierter Helfer-sonden verbesserte die Zugänglichkeit der Sonden an die rRNA, wodurch das Fluoreszenz-Signal verstärkt wurde. Um Milchsäurebakterien durch Denaturierende Gradienten Gel Elektrophorese differenzieren zu können, wurden Primer entwickelt, mit denen ein hochvariabler 23S rDNA-Bereich amplifiziert werden konnte. Die Nested Specifically Amplified Polymorphic DNA (nSAPD)-PCR wurde in der vorliegenden Arbeit zur Art- und Stamm-Differenzierung pro- und eukaryotischer Organismen angewandt. Es wurden vor allem weinrelevante Milchsäurebakterien der Gattungen Oenococcus, Lactobacillus, Pediococcus und Leuconostoc und Hefen der Gattungen Dekkera / Brettanomyces und Saccharomyces untersucht. Die Cluster-Analyse der Pediococcus-Typstämme führte zu einer unterschiedlichen Baum-Topologie im Vergleich zum phylogenetischen 23S rDNA-Stammbaum. Die Verwandtschaftsverhältnisse der untersuchten O. oeni-Stämme aus Starterkulturen konnten in Bezug auf eine frühere Cluster-Analyse reproduziert werden. Die Untersuchung von 40 B. bruxellensis-Stämmen aus rheinhessischen Weinproben zeigte eine Gruppierung der Stämme gemäß dem Ort der Probennahme. Beim Vergleich der Verwandtschaftsverhältnisse von Stämmen der Arten P. parvulus und B. bruxellensis, die aus denselben Weinproben isoliert wurden, konnte eine hohe Übereinstimmung der beiden Baum-Topologien beobachtet werden. Anhand der SAPD-PCR Untersuchung von Sekthefen aus Starterkulturen konnten alle Stämme der Art S. cerevisiae zugeordnet werden. Die nSAPD-PCR war darüber hinaus geeignet, um höhere Eukaryoten wie Weinreben zu differenzieren und es konnten die Verwandtschaftsverhältnisse von Mäusen und menschlichen Individuen durch Cluster-Analysen nachvollzogen werden. Mit Hilfe der Sequence Characterized Amplified Region (SCAR)-Technik wurden (n)SAPD-Marker in SCAR-Marker konvertiert. Die neu generierten SCAR-Primer konnten zur simultanen Art-Identifizierung von sieben weinschädlichen Milchsäurebakterien in einer Multiplex PCR erfolgreich eingesetzt werden. Die in dieser Arbeit entwickelten molekularbiologischen Identifizierungsmethoden können zum Beispiel in der mikrobiologischen Qualitätskontrolle Anwendung finden.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die vorliegende Dissertation entstand im Rahmen eines multizentrischen EU-geförderten Projektes, das die Anwendungsmöglichkeiten von Einzelnukleotid-Polymorphismen (SNPs) zur Individualisierung von Personen im Kontext der Zuordnung von biologischen Tatortspuren oder auch bei der Identifizierung unbekannter Toter behandelt. Die übergeordnete Zielsetzung des Projektes bestand darin, hochauflösende Genotypisierungsmethoden zu etablieren und zu validieren, die mit hoher Genauigkeit aber geringen Aufwand SNPs im Multiplexformat simultan analysieren können. Zunächst wurden 29 Y-chromosomale und 52 autosomale SNPs unter der Anforderung ausgewählt, dass sie als Multiplex eine möglichst hohe Individualisierungschance aufweisen. Anschließend folgten die Validierungen beider Multiplex-Systeme und der SNaPshot™-Minisequenzierungsmethode in systematischen Studien unter Beteiligung aller Arbeitsgruppen des Projektes. Die validierte Referenzmethode auf der Basis einer Minisequenzierung diente einerseits für die kontrollierte Zusammenarbeit unterschiedlicher Laboratorien und andererseits als Grundlage für die Entwicklung eines Assays zur SNP-Genotypisierung mittels der elektronischen Microarray-Technologie in dieser Arbeit. Der eigenständige Hauptteil dieser Dissertation beschreibt unter Verwendung der zuvor validierten autosomalen SNPs die Neuentwicklung und Validierung eines Hybridisierungsassays für die elektronische Microarray-Plattform der Firma Nanogen Dazu wurden im Vorfeld drei verschiedene Assays etabliert, die sich im Funktionsprinzip auf dem Microarray unterscheiden. Davon wurde leistungsorientiert das Capture down-Assay zur Weiterentwicklung ausgewählt. Nach zahlreichen Optimierungsmaßnahmen hinsichtlich PCR-Produktbehandlung, gerätespezifischer Abläufe und analysespezifischer Oligonukleotiddesigns stand das Capture down-Assay zur simultanen Typisierung von drei Individuen mit je 32 SNPs auf einem Microarray bereit. Anschließend wurde dieses Verfahren anhand von 40 DNA-Proben mit bekannten Genotypen für die 32 SNPs validiert und durch parallele SNaPshot™-Typisierung die Genauigkeit bestimmt. Das Ergebnis beweist nicht nur die Eignung des validierten Analyseassays und der elektronischen Microarray-Technologie für bestimmte Fragestellungen, sondern zeigt auch deren Vorteile in Bezug auf Schnelligkeit, Flexibilität und Effizienz. Die Automatisierung, welche die räumliche Anordnung der zu untersuchenden Fragmente unmittelbar vor der Analyse ermöglicht, reduziert unnötige Arbeitsschritte und damit die Fehlerhäufigkeit und Kontaminationsgefahr bei verbesserter Zeiteffizienz. Mit einer maximal erreichten Genauigkeit von 94% kann die Zuverlässigkeit der in der forensischen Genetik aktuell eingesetzten STR-Systeme jedoch noch nicht erreicht werden. Die Rolle des neuen Verfahrens wird damit nicht in einer Ablösung der etablierten Methoden, sondern in einer Ergänzung zur Lösung spezieller Probleme wie z.B. der Untersuchung stark degradierter DNA-Spuren zu finden sein.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Compliance lebertransplantierter Patienten mit der immunsuppressiven Therapie ist unerlässlich für den lang-fristigen Erfolg der Lebertransplantation. Aus Non-Compliance mit der immunsuppressiven Therapie können Abstoßungsreaktionen, Organverlust oder sogar Tod resultieren. Hauptziel der vorliegenden Studie war die erstmalige Evaluation der Compliance bei Einnahme von Prograf® (zweimal tägliche Einnahme von Tacrolimus) im Vergleich zur Einnahme von Advagraf® (einmal tägliche Einnahme von Tacrolimus). Von Interesse war außerdem die Fragestellung, ob sich die Compliance bezüglich der immunsuppressiven Therapie mit dem Zeitabstand zur Transplantation verändert. rnDie Compliancemessung wurde offen mittels MEMS® (Aardex Ltd., Schweiz) durchgeführt, der Patient war also über die Compliancekontrolle informiert. Mittels MEMS® konnten Datum und Uhrzeit der Dosisentnahme dokumentiert und damit zuverlässig das gesamte Compliancemuster über im Durchschnitt 176 Tage mit der zweimal täglichen Einnahme und 188 Tage mit der einmal täglichen Einnahme pro Patient erfasst werden. 65 Patienten mit dem Basisimmunsuppressivum Prograf® wurden in die prospektive, nicht-interventionelle Studie eingeschlossen und nach Per Protokoll-Analyse konnten die Daten von 63 in Mainz lebertransplantierten Patienten ausgewertet werden (Prograf®: Gruppe 1: 15 Patienten (Pat.), Gruppe 2: 23 Pat., Gruppe 3: 22 Pat., Drop-outs: 3 Pat.; Advagraf®: Gruppe 1: 16 Pat., Gruppe 2: 23 Pat., Gruppe 3: 23 Pat., Drop-outs: 1 Pat.). Die Dosing Compliance (DC), definiert als Prozent der Tage, an denen der MEMS®-Behälter korrekt geöffnet und die Dosis höchstwahrscheinlich korrekt eingenommen wurde, war der primäre Zielparameter. Weitere Methoden der Compliancemessung, wie der Pill Count, mehrere Fragebögen (Selbsteinschätzung, Patientenwissen-, Morisky-, MESI-, HADS-, SF-36- und Patientenzufriedenheit-Fragebogen) sowie die Blutspiegelmessung wurden eingesetzt, um die Compliance der Patienten umfassend charakterisieren zu können. rnDer Median der DC mit der zweimal täglichen Einnahme betrug 97% bei Pat. > 6 m.p.t. < 2 y.p.t., 97% bei Pat. > 2 y.p.t. < 5 y.p.t. und 98% bei Pat. > 5 y.p.t. (p=0,931; Kruskal-Wallis-Test). Der Median der DC von Tacroli-mus bei einmal täglicher Einnahme (Advagraf®) betrug 99% bei Pat. > 6 m.p.t. < 2 y.p.t., 98% bei Pat. > 2 y.p.t. < 5 y.p.t. und 97% bei Pat. > 5 y.p.t. (p=0,158; Kruskal-Wallis-Test). Insgesamt zeigten die Patienten während des gesamten Beobachtungszeitraums von 12 Monaten eine gute Compliance für die Einnahme ihres Immun-suppressivums. Die Timing Compliance (TiC)-raten lagen auf einem niedrigeren Niveau als die Dosing- und Taking Compliance (TC)-raten. Die Complianceraten der drei Subgruppen unterschieden sich nicht signifikant. Die Patienten mit dem geringsten Abstand zur Transplantation zeigten bei beinahe allen Messmethoden die höchste Compliance im Gegensatz zur etwas geringeren Compliance der Patienten mit größerem Abstand zur Transplantation. Die während der Advagraf®-Phase mittels MEMS® gemessenen DC-, TC- und TiC-raten fielen höher aus als bei Einnahme von Prograf® (p(DC)=0,003; p(TC)=0,077; p(TiC)=0,003; Wilcoxon Vorzeichen-Rang-Test). Dieses Ergebnis untermauert die in anderen Indikationen gefundene Complianceverbesserung durch die einmal tägliche Arzneimittelgabe im Vergleich zur zweimal täglichen Gabe. Die Auswertung der Drug Holidays ergab für die Advagraf®-Phase hingegen niedrigere Complianceraten als für die Prograf®-Phase. Dieses Ergebnis ist auf die Definition des Drug Holidays (keine Arzneimitteleinnahme über 48 h) zurück zu führen. Die Chance Advagraf® einmal pro Tag zu vergessen ist doppelt so hoch, als Prograf® dreimal aufeinander fol-gend zu vergessen. Mit einer verhältnismäßigeren Definition von Drug Holidays (Einnahmepause von 72 Stun-den bei einmal täglicher Einnahme von Advagraf® entsprechend drei ausgelassenen Dosen von Prograf®) ist die Compliancerate 81%. Die Ergebnisse des Pill Counts waren sowohl bei Einnahme von Prograf® als auch von Advagraf® mit der jeweils gemessenen TC vergleichbar, was die Zuverlässigkeit der Messergebnisse bes-tätigt. rnDie zusätzlich eingesetzten Methoden verifizierten das Ergebnis der höheren Compliance mit der einmal tägli-chen Einnahme. Die während der Advagraf®-Phase beantworteten Fragebögen zeigten einen Trend zu besserer Compliance und Lebensqualität. Lediglich die Ergebnisse des MESI-Fragebogens und der Blutspiegelmessungen wichen sowohl während der Prograf®- als auch während der Advagraf®-Phase stark von den Ergebnis-sen der anderen Methoden ab. rnUnter Einbeziehung aller mittels MEMS® und Pill Count objektiv gemessenen Complianceparameter konnten während der Prograf®-Einnahme 54 von 60 Pat. (90%) und während der Advagraf®-Phase 59 von 62 Pat. (95%) als compliant eingestuft werden. Aufgrund subjektiver Compliancemessungen waren 49 von 58 Pat. (84%) während der Prograf®- und 54 von 59 Pat. (92%) während der Advagraf®-Phase als compliant einzustufen. Es wurde beobachtet, dass die zeitlich korrekte Einnahme der Morgendosis einfacher und bei Einmalgabe zu bevorzugen ist. Die wochentagsbezogene Auswertung ergab erwartungsgemäß, dass am Wochenende (Samstag und Sonntag) am häufigsten Dosen ausgelassen wurden. rnDie Umstellung von Prograf® auf Advagraf® stellte kein Problem dar. Beinahe alle Patienten waren dankbar und zufrieden mit der Reduzierung der Dosierungsfrequenz und der größeren Unabhängigkeit durch die entfallene abendliche Einnahme. Der positive Einfluss der geringeren Dosierungshäufigkeit auf die Langzeitcompliance der Patienten, ist ein hinreichender Grund die Entwicklung von Formulierungen zur einmal täglichen Ein-nahme für weitere Immunsuppressiva zu fordern. Insbesondere bei den häufig eingesetzten Kombinationstherapien von Immunsuppressiva würde der Effekt der Complianceverbesserung noch verstärkt werden, wenn alle eingesetzten Immunsuppressiva zur einmal täglichen Gabe geeignet wären.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This thesis concerns artificially intelligent natural language processing systems that are capable of learning the properties of lexical items (properties like verbal valency or inflectional class membership) autonomously while they are fulfilling their tasks for which they have been deployed in the first place. Many of these tasks require a deep analysis of language input, which can be characterized as a mapping of utterances in a given input C to a set S of linguistically motivated structures with the help of linguistic information encoded in a grammar G and a lexicon L: G + L + C → S (1) The idea that underlies intelligent lexical acquisition systems is to modify this schematic formula in such a way that the system is able to exploit the information encoded in S to create a new, improved version of the lexicon: G + L + S → L' (2) Moreover, the thesis claims that a system can only be considered intelligent if it does not just make maximum usage of the learning opportunities in C, but if it is also able to revise falsely acquired lexical knowledge. So, one of the central elements in this work is the formulation of a couple of criteria for intelligent lexical acquisition systems subsumed under one paradigm: the Learn-Alpha design rule. The thesis describes the design and quality of a prototype for such a system, whose acquisition components have been developed from scratch and built on top of one of the state-of-the-art Head-driven Phrase Structure Grammar (HPSG) processing systems. The quality of this prototype is investigated in a series of experiments, in which the system is fed with extracts of a large English corpus. While the idea of using machine-readable language input to automatically acquire lexical knowledge is not new, we are not aware of a system that fulfills Learn-Alpha and is able to deal with large corpora. To instance four major challenges of constructing such a system, it should be mentioned that a) the high number of possible structural descriptions caused by highly underspeci ed lexical entries demands for a parser with a very effective ambiguity management system, b) the automatic construction of concise lexical entries out of a bulk of observed lexical facts requires a special technique of data alignment, c) the reliability of these entries depends on the system's decision on whether it has seen 'enough' input and d) general properties of language might render some lexical features indeterminable if the system tries to acquire them with a too high precision. The cornerstone of this dissertation is the motivation and development of a general theory of automatic lexical acquisition that is applicable to every language and independent of any particular theory of grammar or lexicon. This work is divided into five chapters. The introductory chapter first contrasts three different and mutually incompatible approaches to (artificial) lexical acquisition: cue-based queries, head-lexicalized probabilistic context free grammars and learning by unification. Then the postulation of the Learn-Alpha design rule is presented. The second chapter outlines the theory that underlies Learn-Alpha and exposes all the related notions and concepts required for a proper understanding of artificial lexical acquisition. Chapter 3 develops the prototyped acquisition method, called ANALYZE-LEARN-REDUCE, a framework which implements Learn-Alpha. The fourth chapter presents the design and results of a bootstrapping experiment conducted on this prototype: lexeme detection, learning of verbal valency, categorization into nominal count/mass classes, selection of prepositions and sentential complements, among others. The thesis concludes with a review of the conclusions and motivation for further improvements as well as proposals for future research on the automatic induction of lexical features.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Im Rahmen meiner Dissertation habe ich gemäß dem Medizinproduktegesetz ein MR-kompatibles Verabreichungsgerät entwickelt, um Patienten hyperpolarisierte Gas Boli (He-3, Xe-129) als Kontrasgas zur MRT der Lunge zu applizieren. Das Gerät wurde dazu optimiert, die Gase oder Gasmischungen (z. B. HP Gas + N2) in definierten Mengen und zu definierten Zeitpunkten während der Inspiration mit hoher Reproduzierbarkeit und Zuverlässigkeit zu verabreichen, ohne dabei die MR-Qualität zu beeinträchtigen. Aus Sicherheitsgründen und zur späteren Datenanalyse werden die Atemflusskurven der Patienten kontinuierlich angezeigt und aufgezeichnet. Ein Kolbenkompressor ist integriert, um die gesamte gespeicherte He-3-Menge nutzen zu können. Weiterhin ist es möglich, die Polarisation vor Ort zu bestimmen und das abgeatmete He-3 zur späteren Rückgewinnung aufzufangen. Diese Auffangeffizienz konnte durch Untersuchungen mit He-4 (als He-3-Ersatz) gesteigert werden.rnDie ersten MR-Aufnahmen von 10 gesunden Probanden wurden mit diesem Aufbau imrnRahmen einer klinischen Studie durchgeführt. Die Analyse der bestimmten MR-Parameter Signal-Rausch-Verhältnis (SNR), Sauerstoffpartialdruck (pO2), Scheinbarer Diffusionskoeffizient (ADC=apparent diffusion coefficient) sowie die Signalanstiegszeit (rise-time) zeigt eine deutlich bessere Reproduzierbarkeit bei der Verabreichung des He-3 mit dem Applikators anstelle eines Tedlarbags (= kleine heliumdichte Plastiktüte).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The thesis deals with numerical algorithms for fluid-structure interaction problems with application in blood flow modelling. It starts with a short introduction on the mathematical description of incompressible viscous flow with non-Newtonian viscosity and a moving linear viscoelastic structure. The mathematical model consists of the generalized Navier-Stokes equation used for the description of fluid flow and the generalized string model for structure movement. The arbitrary Lagrangian-Eulerian approach is used in order to take into account moving computational domain. A part of the thesis is devoted to the discussion on the non-Newtonian behaviour of shear-thinning fluids, which is in our case blood, and derivation of two non-Newtonian models frequently used in the blood flow modelling. Further we give a brief overview on recent fluid-structure interaction schemes with discussion about the difficulties arising in numerical modelling of blood flow. Our main contribution lies in numerical and experimental study of a new loosely-coupled partitioned scheme called the kinematic splitting fluid-structure interaction algorithm. We present stability analysis for a coupled problem of non-Newtonian shear-dependent fluids in moving domains with viscoelastic boundaries. Here, we assume both, the nonlinearity in convective as well is diffusive term. We analyse the convergence of proposed numerical scheme for a simplified fluid model of the Oseen type. Moreover, we present series of experiments including numerical error analysis, comparison of hemodynamic parameters for the Newtonian and non-Newtonian fluids and comparison of several physiologically relevant computational geometries in terms of wall displacement and wall shear stress. Numerical analysis and extensive experimental study for several standard geometries confirm reliability and accuracy of the proposed kinematic splitting scheme in order to approximate fluid-structure interaction problems.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Arbeit befasst sich mit der Frage, ob Art. 33 II GG die Verwaltung verpflichtet, bei Per-sonalauswahlverfahren nach dem State of the Art der Personaldiagnostik vorzugehen.rnIn Kapitel 1 wird zunächst dieser State of the Art ermittelt. Zu diesem Zweck werden die verschieden personaldiagnostischen Instrumente (Interview, Assessment Center, Intelligenztest usw.) vorgestellt. Danach wird erarbeitet, wie diese Instrumente mit Hilfe der Testanalyse bewertet werden können, also wie sich ein geeignetes personaldiagnostisches Instrument von einem weniger geeigneten unterscheidet. Dazu werden die Qualitätskriterien Validität (Gültigkeit), Objektivität, Reliabilität (Zuverlässigkeit) und Effizienz betrachtet. Schließlich werden die vorgestellten personaldiagnostischen Instrumente an Hand dieser Kriterien beurteilt. Dabei stellt sich unter anderem die hohe Eignung von Intelligenztests für die Personalauswahl heraus.rnIn Kapitel 2 wird der Regelungsgehalt des Art. 33 II GG dargelegt, also zunächst die Ge-schichte seiner Vorgängernormen und die seiner Aufnahme in das Grundgesetz. Anschließend werden seine systematische Stellung, sein Tatbestand und sein Regelungsgehalt näher unter-sucht. Dabei werden auch ergänzende Normen, etwa aus dem Europarecht in den Blick ge-nommen. rnIn Kapitel 3 wird erkundet, durch welche rechtlichen Argumente die Verwaltung verpflichtet sein könnte, den State of the Art der Eignungsdiagnostik bei der Personalauswahl zu beach-ten. Dabei wird vorrangig die Rechtsfigur des Grundrechtsschutzes durch Verfahren in den Blick genommen. In diesem Zusammenhang wird deutlich gemacht, dass Art. 33 II GG ohne ein seiner Verwirklichung dienendes Auswahlverfahren bedeutungslos bleiben muss. Aber auch mit dem Art. 19 IV GG wird argumentiert, weil ein die Erkenntnisse der Eignungsdiag-nostik berücksichtigendes Personalauswahlverfahren vor Gericht besser überprüft werden kann als ein freies Personalauswahlverfahren.rnIn Kapitel 4 werden die Konsequenzen der vorhergehenden Erkenntnisse für die konkrete Gestaltung von Personalauswahlverfahren dargelegt, insbesondere die Verpflichtung für die Verwaltung, einige besonders geeignete Instrumente anzuwenden und einige nicht geeignete Instrumente nicht anzuwenden und bei der Anwendung bestimmte Standards einzuhalten. Schließlich wird auch empfohlen, dass der Gesetzgeber die Personalauswahlverfahren regelt, weil das Auswahlverfahren für das Grundrecht aus Art. 33 II GG von entscheidender Bedeu-tung ist. rn

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Among the different approaches for a construction of a fundamental quantum theory of gravity the Asymptotic Safety scenario conjectures that quantum gravity can be defined within the framework of conventional quantum field theory, but only non-perturbatively. In this case its high energy behavior is controlled by a non-Gaussian fixed point of the renormalization group flow, such that its infinite cutoff limit can be taken in a well defined way. A theory of this kind is referred to as non-perturbatively renormalizable. In the last decade a considerable amount of evidence has been collected that in four dimensional metric gravity such a fixed point, suitable for the Asymptotic Safety construction, indeed exists. This thesis extends the Asymptotic Safety program of quantum gravity by three independent studies that differ in the fundamental field variables the investigated quantum theory is based on, but all exhibit a gauge group of equivalent semi-direct product structure. It allows for the first time for a direct comparison of three asymptotically safe theories of gravity constructed from different field variables. The first study investigates metric gravity coupled to SU(N) Yang-Mills theory. In particular the gravitational effects to the running of the gauge coupling are analyzed and its implications for QED and the Standard Model are discussed. The second analysis amounts to the first investigation on an asymptotically safe theory of gravity in a pure tetrad formulation. Its renormalization group flow is compared to the corresponding approximation of the metric theory and the influence of its enlarged gauge group on the UV behavior of the theory is analyzed. The third study explores Asymptotic Safety of gravity in the Einstein-Cartan setting. Here, besides the tetrad, the spin connection is considered a second fundamental field. The larger number of independent field components and the enlarged gauge group render any RG analysis of this system much more difficult than the analog metric analysis. In order to reduce the complexity of this task a novel functional renormalization group equation is proposed, that allows for an evaluation of the flow in a purely algebraic manner. As a first example of its suitability it is applied to a three dimensional truncation of the form of the Holst action, with the Newton constant, the cosmological constant and the Immirzi parameter as its running couplings. A detailed comparison of the resulting renormalization group flow to a previous study of the same system demonstrates the reliability of the new equation and suggests its use for future studies of extended truncations in this framework.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Das in dieser Arbeit vorgestellte Experiment zur Messung des magnetischen Moments des Protons basiert auf der Messung des Verhältnisses von Zyklotronfrequenz und Larmorfrequenz eines einzelnen, in einer kryogenen Doppel-Penning Falle gespeicherten Protons. In dieser Arbeit konnten erstmalig zwei der drei Bewegungsfrequenzen des Protons gleichzeitig im thermischen Gleichgewicht mit entsprechenden hochsensitiven Nachweissystemen nicht-destruktiv detektiert werden, wodurch die Messzeit zur Bestimmung der Zyklotronfrequenz halbiert werden konnte. Ferner wurden im Rahmen dieser Arbeit erstmalig einzelne Spin-Übergänge eines einzelnen Protons detektiert, wodurch die Bestimmung der Larmorfrequenz ermöglicht wird. Mithilfe des kontinuierlichen Stern-Gerlach Effekts wird durch eine sogenannte magnetische Flasche das magnetische Moment an die axiale Bewegungsmode des Protons gekoppelt. Eine Änderung des Spinzustands verursacht folglich einen Frequenzsprung der axialen Bewegungsfrequenz, welche nicht-destruktiv gemessen werden kann. Erschwert wird die Detektion des Spinzustands dadurch, dass die axiale Frequenz nicht nur vom Spinmoment, sondern auch vom Bahnmoment abhängt. Die große experimentelle Herausforderung besteht also in der Verhinderung von Energieschwankungen in den radialen Bewegungsmoden, um die Detektierbarkeit von Spin-Übergängen zu gewährleisten. Durch systematische Studien zur Stabilität der axialen Frequenz sowie einer kompletten Überarbeitung des experimentellen Aufbaus, konnte dieses Ziel erreicht werden. Erstmalig kann der Spinzustand eines einzelnen Protons mit hoher Zuverlässigkeit bestimmt werden. Somit stellt diese Arbeit einen entscheidenden Schritt auf dem Weg zu einer hochpräzisen Messung des magnetischen Moments des Protons dar.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Supramolekulare Komplexe werden durch nichtkovalente Bindungen stabilisiert. Legt man eine externe Kraft an einen solchen Komplex an, ist es möglich, diese Bindungen zu öffnen. Anhand der dafür benötigten Kraft läßt sich die Stabilität des Komplexes bestimmen. Im Rahmen dieser Arbeit wurden zwei supramolekulare Komplexe, die unterschiedliche Arten von nichtkovalenten Bindungen enthalten, mit Hilfe von Molekulardynamik (MD) Simulationen untersucht. In beiden Fällen wurden die relevanten Bindungsstrukturen und deren Stabilität ermittelt.rnZum einen wurden zwei synthetische Calix[4]aren-Catenan-Dimersysteme betrachtet, in denen die beiden Monomere über Wasserstoffbrückenbindungen aneinander gebunden sind. Die Besonderheit dieser Komplexe ist, dass die Monomere aufgrund von verschlauften Alkylketten (Catenan-Struktur) nicht vollständig voneinander getrennt werden können. In Abhängigkeit der Länge derrnAlkylketten findet man für die beiden Komplexe eine unterschiedliche Zahl von relevanten Bindungsstrukturen (Zustände). Für ein System mit relativ kurzen Alkylketten findet man zwei Zustände, eine kompakte Struktur, die auch im Gleichgewicht beobachtet wird und eine gestreckte Struktur, die nur unter dem Einfluss der externen Kraft stabil ist. Verlängert man die Alkylketten,rnbeobachtet man einen weiteren Zustand, in dem das Dimer vollständig gestreckt ist und die Monomere eine größere Separation aufweisen.rnBei dem zweiten System, das untersucht wurde, handelte es sich um einen Carbohydrat-Kation-Carbohydrat Komplex, der für die Selbstadhäsion von Meeresschwämmen eine wichtige Rolle spielt. Experimentell ist bekannt, dass sich dieser Komplex zwar mit Calciumionen, nicht aber mit Magnesiumionen bildet. Im Rahmen dieser Arbeit wurde gezeigt, dass die wesentlichen Unterschiede der beiden Kationarten in Bezug auf die Komplexbildung auf den kleineren Ionenradius des Magnesiumions zurückzuführen sind. Aufgrund des kleineren Radius bindet ein solvatisiertes Magnesiumion die Hydrathülle stärker und die Komplexbindung wird kinetisch gehemmt. Zum anderen bindet im Magnesiumkomplex nur eines der beiden Carbohydrate direkt an das Kation.rnDas andere Carbohydrat bindet nur indirekt über ein Wassermolekül an das Kation. Da diese indirekte Bindung gegenüber einer direkten Bindung schwächer ist, weist der Magensiumkomplex eine geringere Stabilität auf als ein vergleichbarer Calciumkomplex.rnDes Weiteren wurde untersucht, inwieweit die Ergebnisse von MD Simulationen vom verwendeten Modell (Kraftfeld) abhängen. Allgemein ist bekannt, dass die Ergebnisse von Gleichgewichtssimulationen kraftfeldabhängig sind. Im Rahmen diese Arbeit konnte gezeigt werden, dass sich für Zugsimulationen, in denen eine externe Kraft an das System angelegt wird, eine ähnliche Kraftfeldabhängigkeit ergibt. Da sich die Unterschiede der Ergebnisse auf Unterschiede in den Gleichgewichtssimulationen zurückführen lassen, kann man annehmen, dass die externe Kraft keine zusätzliche Einschränkung in Bezug auf die Zuverlässigkeit der Kraftfelder darstellt.rnAbgesehen von den MD Simulationen wurde eine in der Literatur beschriebene Methode zur Analyse von Zweizustandssystemen unter dem Einfluss einer konstanten externen Kraft erweitert. Ein Komplex läßt sich als Zweizustandssystem beschreiben, wenn dieser zwei relevante Bindungsstrukturen aufweist. Wird an solch einen Komplex eine konstante Kraft angelegt, lassen sich Übergänge zwischen den beiden Zuständen beobachten. Ist das System weit entfernt vom Gleichgewicht, kann es problematisch sein, einen der beiden Übergänge vollständig aufzulösen. In diesen Fällen wird nun vorgeschlagen, die beiden Übergänge zu einem sogenannten Kreisübergang zusammen zu fassen und diese zu zählen. Bestimmt man die Zahl der Übergänge pro Zeit in Abhängigkeit der angelegten Kraft, können die Übergangsraten bestimmt werden. Um die Methode zu validieren wurden kinetische Monte-Carlo Simulationen durchgeführt. Es zeigt sich, dass schon mit relativ kleinen Datensätzen gute Ergebnisse erzielt werden können.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In dieser Arbeit wird das Konzept eines aktiven Pulverinhalators entwickelt. Im Gegensatz zu einem passiven Pulverinhalator ist bei solch einem Gerät die Abgabe und Dispergierung der Arzneistoffformulierung nicht von einem Inhalationsmanöver abhängig, welches von Patient zu Patient variiert. Solch ein System würde folglich die Zuverlässigkeit und Effizienz der inhalativen Therapie verbessern. Mögliche Anwendungen für einen aktiven Pulverinhalator wären vor allem Indikationen, die die Abgabe hoher Dosen erfordern, wie z.B. in der Therapie mit Antibiotika.rnIn einem Designprozess, der alle aus Kundenwünschen ermittelten Konstruktionsanforderungen sammelt und verschiedene Lösungsansätze vergleicht, wird ein mit Treibgas betriebener atemzugsausgelöster, Mehrfach-Dosis Pulverinhalator als aussichtsreichstes Konzept ermittelt. Dieses Konzept wird in Form von eigens konstruierten Labor-Test-Rigs entwickelt und vor allem hinsichtlich Höhe der Dosierung, Dosiergenauigkeit, und Flussratenabhängigkeit evaluiert. In der Spitze können über 16 mg lungengängiger Dosis erreicht werden, bei im Vergleich zu dem eingesetzten passiven Inhalator mindestens nur halb so großer Streuung. Bei niedrigen Flussraten können immer noch bis zu 80 % der erzielten inhalierbaren Dosis von hohen Flussraten erreicht werden und damit die Ergebnisse des passiven Inhalators deutlich übertreffen.rnTeil der Aufgabe war es, dieses treibgasbetriebene Labor-Test-Rig so zu entwickeln, dass es implementierbar in einen atemzugsausgelösten Mehrfachdosis-Pulverinhalator ist. Dieser treibgasbetriebene, atemzugsausgelöste Mehrfachdosis-Pulverinhalator würde die Kundenwünsche und Konstruktionsanforderungen in sehr hohen Maße erfüllen, so dass hier die Möglichkeit besteht einen Inhalator mit sehr hohem Grad an Patienten-Compliance zu verwirklichen. Durch die Verwendung und Neukombination bereits etablierter Technologien und einen akzeptablen Stückkostenpreis besteht die Möglichkeit den Inhalator tatsächlich zu realisieren und zu vermarkten.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The accretionary shells of bivalve mollusks can provide environmental information, such as water temperature, precipitation, freshwater fluxes, primary productivity and anthropogenic activities in the form of variable growth rates and variable geochemical properties, such as stable oxygen and carbon isotopes. However, paleoenvironmental reconstructions are constrained by uncertainties about isotopic equilibrium fractionation during shell formation, which is generally acknowledged as a reasonable assumption for bivalves, but it has been disputed in several species. Furthermore, the variation in shell growth rates is accepted to rely on multiple environmental variables, such as temperature, food availability and salinity, but can differ from species to species. Therefore, it is necessary to perform species-specific calibration studies for both isotope proxies and shell growth rates before they can be used with confidence for environmental interpretations of the past. Accordingly, the principal objective of this Ph.D research is to examine the reliability of selected bivalve species, the long-lived Eurhomalea exalbida (Dillwyn), the short-lived and fast growing species Paphia undulata (Born 1778), and the freshwater mussel Margaritifera falcata (Gould 1850), as paleoenvironmental proxy archives.rnThe first part is focused on δ18Oshell and shell growth history of live-collected E. exalbida from the Falkland Islands. The most remarkable finding, however, is that E. exalbida formed its shell with an offset of -0.48‰ to -1.91‰ from the expected oxygen isotopic equilibrium with the ambient water. If this remained unnoticed, paleotemperature estimates would overestimate actual water temperatures by 2.1-8.3°C. With increasing ontogenetic age, the discrepancy between measured and reconstructed temperatures increased exponentially, irrespective of the seasonally varying shell growth rates. This study clearly demonstrates that, when the disequilibrium fractionation effect is taken into account, E. exalbida can serve as a high-resolution paleoclimate archive for the southern South America. The species therefore provides quantifiable temperature estimates, which yields new insights into long-term paleoclimate dynamics for mid to high latitudes on the southern hemisphere.rnThe stable carbon isotope of biogenic carbonates is generally considered to be useful for reconstruction of seawater dissolved inorganic carbon. The δ13Cshell composition of E. exalbida was therefore, investigated in the second part of this study. This chapter focuses on inter-annual and intra-annual variations in δ13Cshell. Environmental records in δ13Cshell are found to be strongly obscured by changes in shell growth rates, even if removing the ontogenetic decreasing trend. This suggests that δ13Cshell in E. exalbida may not be useful as an environmental proxy, but a potential tool for ecological investigations. rnIn addition to long-lived bivalve species, short-lived species that secrete their shells extremely fast, can also be useful for environmental reconstructions, especially as a high-resolution recorder. Therefore, P. undulata from Daya Bay, South China Sea was utilized in Chapter 4 to evaluate and establish a potential proxy archive for past variations of the East Asian monsoon on shorter time-scales. The δ18Oshell can provide qualitative estimates of the amount of monsoonal rain and terrestrial runoff and the δ13Cshell likely reflect the relative amount of isotopically light terrestrial carbon that reaches the ocean during the summer monsoon season. Therefore, shells of P. undulata can provide serviceable proxy archives to reconstruct the frequency of exceptional summer monsoons in the past. The relative strength of monsoon-related precipitation and associated changes in ocean salinity and the δ13C ratios of the dissolved inorganic carbon signature (δ13CDIC) can be estimated from the δ18Oshell and δ13Cshell values as well as shell growth patterns. rnIn the final part, the freshwater pearl shell M. falcata from four rivers in British Columbia, Canada was preliminarily studied concerning the lifespans and the shell growth rates. Two groups separated by the Georgia Strait can be clearly distinguished. Specimens from the western group exhibit a shorter lifespan, while the eastern group live longer. Moreover, the average lifespan seems to decrease from south to north. The computed growth equations from the eastern and western groups differ as well. The western group exhibits a lower growth rate, while bivalves from the eastern group grow faster. The land use history seems to be responsible for the differences in lifespans of the specimens from the two groups. Differences in growth rate may be induced by differences in water temperature or nutrient input also related to the land use activities.