6 resultados para Input and outputs

em ArchiMeD - Elektronische Publikationen der Universität Mainz - Alemanha


Relevância:

90.00% 90.00%

Publicador:

Resumo:

Die Ziele der vorliegenden Arbeit waren 1) die Entwicklung und Validierung von sensitiven und substanz-spezifischen Methoden für die quantitative Bestimmung von anionischen, nichtionischen und amphoteren Tensiden und deren Metaboliten in wässrigen Umweltproben unter Einsatz leistungsfähiger, massenspektrometrischer Analysengeräte,2) die Gewinnung von aeroben, polaren Abbauprodukten aus Tensiden in einem die realen Umweltbedingungen simulierenden Labor-Festbettbioreaktor (FBBR), dessen Biozönose oberflächenwasserbürtig war,3) zur Aufklärung des Abbaumechanismus von Tensiden neue, in 2) gewonnene Metabolite zu identifizieren und massenspektrometrisch zu charakterisieren ebenso wie den Primärabbau und den weiteren Abbau zu verfolgen,4) durch quantitative Untersuchungen von Tensiden und deren Abbauprodukten in Abwasser und Oberflächenwasser Informationen zu ihrem Eintrag und Verhalten bei unterschiedlichen hydrologischen und klimatischen Bedingungen zu erhalten,5) das Verhalten von persistenten Tensidmetaboliten in Wasserwerken, die belastetes Oberflächenwasser aufbereiten, zu untersuchen und deren Vorkommen im Trinkwasser zu bestimmen,6) mögliche Schadwirkungen von neu entdeckten Metabolite mittels ökotoxikologischer Biotests abzuschätzen,7) durch Vergleich der Felddaten mit den Ergebnissen der Laborversuche die Umweltrelevanz der Abbaustudien zu belegen. Die Auswahl der untersuchten Verbindungen erfolgte unter Berücksichtigung ihres Produktionsvolumens und der Neuheit auf dem Tensidmarkt. Sie umfasste die Waschmittelinhaltsstoffe lineare Alkylbenzol-sulfonate (LAS), welches das Tensid mit der höchsten Produktionsmenge darstellte, die beiden nichtionischen Tenside Alkylglucamide (AG) und Alkylpolyglucoside (APG), ebenso wie das amphotere Tensid Cocamidopropylbetain (CAPB). Außerdem wurde der polymere Farbübertragungsinhibitor Polyvinylpyrrolidon (PVP) untersucht.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

This thesis concerns artificially intelligent natural language processing systems that are capable of learning the properties of lexical items (properties like verbal valency or inflectional class membership) autonomously while they are fulfilling their tasks for which they have been deployed in the first place. Many of these tasks require a deep analysis of language input, which can be characterized as a mapping of utterances in a given input C to a set S of linguistically motivated structures with the help of linguistic information encoded in a grammar G and a lexicon L: G + L + C → S (1) The idea that underlies intelligent lexical acquisition systems is to modify this schematic formula in such a way that the system is able to exploit the information encoded in S to create a new, improved version of the lexicon: G + L + S → L' (2) Moreover, the thesis claims that a system can only be considered intelligent if it does not just make maximum usage of the learning opportunities in C, but if it is also able to revise falsely acquired lexical knowledge. So, one of the central elements in this work is the formulation of a couple of criteria for intelligent lexical acquisition systems subsumed under one paradigm: the Learn-Alpha design rule. The thesis describes the design and quality of a prototype for such a system, whose acquisition components have been developed from scratch and built on top of one of the state-of-the-art Head-driven Phrase Structure Grammar (HPSG) processing systems. The quality of this prototype is investigated in a series of experiments, in which the system is fed with extracts of a large English corpus. While the idea of using machine-readable language input to automatically acquire lexical knowledge is not new, we are not aware of a system that fulfills Learn-Alpha and is able to deal with large corpora. To instance four major challenges of constructing such a system, it should be mentioned that a) the high number of possible structural descriptions caused by highly underspeci ed lexical entries demands for a parser with a very effective ambiguity management system, b) the automatic construction of concise lexical entries out of a bulk of observed lexical facts requires a special technique of data alignment, c) the reliability of these entries depends on the system's decision on whether it has seen 'enough' input and d) general properties of language might render some lexical features indeterminable if the system tries to acquire them with a too high precision. The cornerstone of this dissertation is the motivation and development of a general theory of automatic lexical acquisition that is applicable to every language and independent of any particular theory of grammar or lexicon. This work is divided into five chapters. The introductory chapter first contrasts three different and mutually incompatible approaches to (artificial) lexical acquisition: cue-based queries, head-lexicalized probabilistic context free grammars and learning by unification. Then the postulation of the Learn-Alpha design rule is presented. The second chapter outlines the theory that underlies Learn-Alpha and exposes all the related notions and concepts required for a proper understanding of artificial lexical acquisition. Chapter 3 develops the prototyped acquisition method, called ANALYZE-LEARN-REDUCE, a framework which implements Learn-Alpha. The fourth chapter presents the design and results of a bootstrapping experiment conducted on this prototype: lexeme detection, learning of verbal valency, categorization into nominal count/mass classes, selection of prepositions and sentential complements, among others. The thesis concludes with a review of the conclusions and motivation for further improvements as well as proposals for future research on the automatic induction of lexical features.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

In Deutschland wird zur oralen Vitamin-K-Antagonistentherapie überwiegend der Wirkstoff Phenprocoumon (PPC) eingesetzt und die meisten Patienten werden durch ihren Hausarzt betreut. In einer deskriptiven, nicht-interventionellen Studie wurde die Ist-Situation der Versorgung von PPC-Patienten im ambulanten Sektor untersucht. Ziel war es, die Qualität und Effektivität der bisherigen Standardtherapie zu evaluieren. In Anbetracht der Einführung der neuen oralen Antikoagulantien (NOAC) ist die Untersuchung der PPC-Therapie von besonderem Interesse. Dem „Throughput-Modell“ folgend sollten „Input“- und „Outcome“-Parameter analysiert werden. rnIn einer klinischen Studie wurden 50 ambulant behandelte Patienten mit PPC-Therapie jeweils über einen Zeitraum von 3 Jahren retrospektiv beobachtet. In 5 niedergelassenen Arztpraxen in Rheinland-Pfalz wurden dazu 10 Patienten pro Praxis rekrutiert. Anhand der Patientenakte wurde eine Dokumentenanalyse durchgeführt. Die Selbstmedikation wurde mit einem eigens erstellten Fragebogen erfasst. rnIm Studienkollektiv wurden im Median 3 Comorbiditäten ermittelt. Die mediane Wochendosis betrug 4,0 Tabletten à 3 mg PPC. Die Patienten wurden im Median mit weiteren 15 verschiedenen Wirkstoffen therapiert, einer davon wurde in Selbstmedikation eingenommen. Im gesamten Beobachtungszeitraum fanden pro Patient im Median 57 Arztbesuche statt, die durch die Phenprocoumon-Therapie bedingt waren. INR (International normalized ratio)-Messungen (Median 47) waren der häufigste Grund für die Arztbesuche, so dass ein 3-Wochen-Rhythmus vom Gesamtkollektiv zu 97% erreicht wurde. Die „stabile“ INR-Einstellung wurde im Median nach 94 Tagen erreicht. Die prozentuale Rate (INR (%)) für die Einhaltung des INR-Zielbereiches (ZSB) erreichte internationale Benchmark-Werte, was auf eine gute Versorgungsqualität hindeutete. Die genauere Analyse ergab jedoch große interindividuelle Schwankungen. Während der „stabilen“ INR-Einstellung wurden bessere Ergebnisse als im Gesamtbeobachtungszeitraum erzielt. Drei Patienten (6%) erreichten die „stabile“ INR-Einstellung innerhalb von 3 Jahren nie. Die Auswertung für den erweiterten ZSB (ZSB ± 0,2) ergab bessere INR (%)-Ergebnisse als für den ZSB. Die Zeit im INR-ZSB (TTR (%)) erreichte mit 75% höhere Werte als INR (%) im ZSB mit 70%. Tendenziell war das Patientenkollektiv eher unter- als übertherapiert (Median „Under-INR“ 18% bzw. „Over-INR“ 8%). Erkrankungen und Impfungen stellten die wichtigsten der zahlreichen Einflussfaktoren für INR-Shifts hin zu Werten außerhalb des ZSB dar. Patienten, die Comedikation mit hohem Interaktionspotential einnahmen, erreichten in den INR-Qualitätsindikatoren schlechtere Ergebnisse als Patienten ohne potentiell interagierende Comedikation (Mann-Whitney-U-Test; p-Wert=0,003 für TTR (%), p=0,008 für INR (%)). In Zeitintervallen der „stabilen“ INR-Einstellung war der Unterschied nur für TTR (%) auffällig (Mann-Whitney-U-Test; p=0,015). Für den erweiterten ZSB waren die Unterschiede bezüglich beider INR-Qualitätsindikatoren nicht auffällig. Insgesamt wurden 41 unerwünschte Ereignisse (UAW) beobachtet, davon 24 (59%) in der Phase der „stabilen“ INR-Einstellung (21 leichte Blutungen, 1 schwere Blutung, 2 thromboembolische Ereignisse (TE)). Je 4 leichte Blutungen (19%) wurden in einen möglichen bzw. sicheren kausalen Zusammenhang mit der VKA-Therapie gebracht, wenn ein Zeitintervall von 3 Tagen zwischen der INR-Messung und Auftreten der UAW geprüft wurde. Ein TE wurde als sicher kausal gewertet. Von insgesamt 5 Krankenhausaufenthalten waren 3 bzw. 2 durch Blutungen bzw. TE veranlasst. Des Weiteren wurde im 3-Tage-Zeitintervall für 4 INR-Shifts hin zu Werten außerhalb des ZSB eine Interaktion mit verordneter CM als in sicherem oder möglichem kausalen Zusammenhang bewertet. Bei 49% der beobachteten Grippeimpfungen wurde ein INR-Shift festgestellt, der in ca. 60% der Fälle zu einem subtherapeutischen INR-Wert führte. Insgesamt war das klinische Ergebnis nicht optimal. rnDas „Outcome“ in Form der gesundheitsbezogenen Lebensqualität (LQ) wurde retrospektiv-prospektiv mittels SF-36-Fragebogen ermittelt. Die Patienten zeigten gegenüber der Normalbevölkerung einen Verlust an LQ auf körperlicher Ebene bzw. einen Gewinn auf psychischer Ebene. Das humanistische Ergebnis erfüllte bzw. übertraf damit die Erwartungen. rnInsgesamt wiesen die Ergebnisse darauf hin, dass Qualität und Effektivität der Antikoagulationstherapie mit PPC im ambulanten Sektor weiterer Optimierung bedürfen. Mit intensivierten Betreuungsmodellen lässt sich ein besseres Outcome erzielen. rn

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Troposphärisches Ozon ist bekannt als wichtiges Oxidationsmittel und als Vorläufergas hoch reaktiver Radikale. Es zählt zu den wichtigsten Treibhausgasen und wirkt bei hohen Konzentrationen an der Erdoberfläche giftig für alle Lebewesen. Zwar wird der Großteil des troposphärischen Ozons photochemisch produziert, ein erheblicher Anteil hat aber stratosphärischen Ursprung und wird entlang von Tropopausenfalten in Zyklonen in die Troposphäre transportiert. Dieser Transport von Luftmassen aus der Stratosphäre in diernTroposphäre (STT) kann zu einem kurzzeitigen, starken Ozonanstieg am Boden führen und langfristig die Chemie der Troposphäre beeinflussen. Die Quantifizierung des Ozoneintrages und die Identifizierung der dafür verantwortlichen Prozesse ist mit großen Unsicherheiten belastet und ein aktuelles Forschungsthema.rnAufgrund ihrer groben Auflösung ist es mit globalen Modellen nicht möglich, die Details dieser STT-Prozesse zu erfassen. Deshalb wird in dieser Arbeit das Modellsystem MECO(n) genutzt, welches das regionale Atmosphärenchemie- und Klimamodell COSMO/MESSy mit dem globalen Chemie-Klimamodell ECHAM5/MESSy (EMAC) koppelt. Eine einheitliche Prozessparametrisierung ermöglicht konsistente, simultane Simulationen in verschiedenen Modellauflösungen. Ein als Teil dieser Arbeit neu entwickeltes Submodell erlaubt die Initialisierung künstlicher, passiver Tracer in Abhängigkeit verschiedener Variablen. Mit einem auf diese Weise freigesetzten, stratosphärischen Tracer lässt sich Ozon mit stratosphärischer Herkunft von solchem, das photochemisch produziert wurde, unterscheiden.rnIm Rahmen einer Fallstudie werden die Austauschprozesse an einer Tropopausenfalte sowohl aus der Eulerischen, als auch aus der Lagrangeschen Perspektive betrachtet. Die Analyse der STT-Prozesse zeigt, dass Luftmassen aus der Stratosphäre durch turbulente und diabatische Prozesse am Rand der Tropopausenfalte in die Troposphäre gelangen und anschließend bis zum Boden transportiert werden. Diese absinkenden, stratosphärischen Luftmassen führen in den Simulationen zu Ozonanstiegen am Boden, die mit Beobachtungsdaten evaluiert werden können. Es wird gezeigt, dass die Ergebnisse der feiner auflösendenrnModellinstanz gut mit den Messungen übereinstimmen.rnIn einer Lagrangeschen Analyse lassen sich Mischungszeitskalen für STT-Prozesse bestimmen. Es wird gezeigt, dass Luftpakete, die sich länger als zehn Stunden in der Troposphäre aufhalten, diese durch den Eintrag ihrer stratosphärischen Tracereigenschaften beeinflussen und daher nicht vernachlässigbar sind. Eine weitere Studie gibt Aufschluss über die Effektivität der Mischung an Tropopausenfalten: Fast die gesamte Luftmasse, die sich zu einem bestimmten Zeitpunkt in der Tropopausenfalte befindet, gelangt innerhalb von zwei Tagen in die Troposphäre.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

This thesis reports on the experimental realization, characterization and application of a novel microresonator design. The so-called “bottle microresonator” sustains whispering-gallery modes in which light fields are confined near the surface of the micron-sized silica structure by continuous total internal reflection. While whispering-gallery mode resonators in general exhibit outstanding properties in terms of both temporal and spatial confinement of light fields, their monolithic design makes tuning of their resonance frequency difficult. This impedes their use, e.g., in cavity quantum electrodynamics (CQED) experiments, which investigate the interaction of single quantum mechanical emitters of predetermined resonance frequency with a cavity mode. In contrast, the highly prolate shape of the bottle microresonators gives rise to a customizable mode structure, enabling full tunability. The thesis is organized as follows: In chapter I, I give a brief overview of different types of optical microresonators. Important quantities, such as the quality factor Q and the mode volume V, which characterize the temporal and spatial confinement of the light field are introduced. In chapter II, a wave equation calculation of the modes of a bottle microresonator is presented. The intensity distribution of different bottle modes is derived and their mode volume is calculated. A brief description of light propagation in ultra-thin optical fibers, which are used to couple light into and out of bottle modes, is given as well. The chapter concludes with a presentation of the fabrication techniques of both structures. Chapter III presents experimental results on highly efficient, nearly lossless coupling of light into bottle modes as well as their spatial and spectral characterization. Ultra-high intrinsic quality factors exceeding 360 million as well as full tunability are demonstrated. In chapter IV, the bottle microresonator in add-drop configuration, i.e., with two ultra-thin fibers coupled to one bottle mode, is discussed. The highly efficient, nearly lossless coupling characteristics of each fiber combined with the resonator's high intrinsic quality factor, enable resonant power transfers between both fibers with efficiencies exceeding 90%. Moreover, the favorable ratio of absorption and the nonlinear refractive index of silica yields optical Kerr bistability at record low powers on the order of 50 µW. Combined with the add-drop configuration, this allows one to route optical signals between the outputs of both ultra-thin fibers, simply by varying the input power, thereby enabling applications in all-optical signal processing. Finally, in chapter V, I discuss the potential of the bottle microresonator for CQED experiments with single atoms. Its Q/V-ratio, which determines the ratio of the atom-cavity coupling rate to the dissipative rates of the subsystems, aligns with the values obtained for state-of-the-art CQED microresonators. In combination with its full tunability and the possibility of highly efficient light transfer to and from the bottle mode, this makes the bottle microresonator a unique tool for quantum optics applications.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

A field of computational neuroscience develops mathematical models to describe neuronal systems. The aim is to better understand the nervous system. Historically, the integrate-and-fire model, developed by Lapique in 1907, was the first model describing a neuron. In 1952 Hodgkin and Huxley [8] described the so called Hodgkin-Huxley model in the article “A Quantitative Description of Membrane Current and Its Application to Conduction and Excitation in Nerve”. The Hodgkin-Huxley model is one of the most successful and widely-used biological neuron models. Based on experimental data from the squid giant axon, Hodgkin and Huxley developed their mathematical model as a four-dimensional system of first-order ordinary differential equations. One of these equations characterizes the membrane potential as a process in time, whereas the other three equations depict the opening and closing state of sodium and potassium ion channels. The membrane potential is proportional to the sum of ionic current flowing across the membrane and an externally applied current. For various types of external input the membrane potential behaves differently. This thesis considers the following three types of input: (i) Rinzel and Miller [15] calculated an interval of amplitudes for a constant applied current, where the membrane potential is repetitively spiking; (ii) Aihara, Matsumoto and Ikegaya [1] said that dependent on the amplitude and the frequency of a periodic applied current the membrane potential responds periodically; (iii) Izhikevich [12] stated that brief pulses of positive and negative current with different amplitudes and frequencies can lead to a periodic response of the membrane potential. In chapter 1 the Hodgkin-Huxley model is introduced according to Izhikevich [12]. Besides the definition of the model, several biological and physiological notes are made, and further concepts are described by examples. Moreover, the numerical methods to solve the equations of the Hodgkin-Huxley model are presented which were used for the computer simulations in chapter 2 and chapter 3. In chapter 2 the statements for the three different inputs (i), (ii) and (iii) will be verified, and periodic behavior for the inputs (ii) and (iii) will be investigated. In chapter 3 the inputs are embedded in an Ornstein-Uhlenbeck process to see the influence of noise on the results of chapter 2.