2 resultados para Natural Language Queries, NLPX, Bricks, XML-IR, Users

em ArchiMeD - Elektronische Publikationen der Universität Mainz - Alemanha


Relevância:

100.00% 100.00%

Publicador:

Resumo:

This thesis concerns artificially intelligent natural language processing systems that are capable of learning the properties of lexical items (properties like verbal valency or inflectional class membership) autonomously while they are fulfilling their tasks for which they have been deployed in the first place. Many of these tasks require a deep analysis of language input, which can be characterized as a mapping of utterances in a given input C to a set S of linguistically motivated structures with the help of linguistic information encoded in a grammar G and a lexicon L: G + L + C → S (1) The idea that underlies intelligent lexical acquisition systems is to modify this schematic formula in such a way that the system is able to exploit the information encoded in S to create a new, improved version of the lexicon: G + L + S → L' (2) Moreover, the thesis claims that a system can only be considered intelligent if it does not just make maximum usage of the learning opportunities in C, but if it is also able to revise falsely acquired lexical knowledge. So, one of the central elements in this work is the formulation of a couple of criteria for intelligent lexical acquisition systems subsumed under one paradigm: the Learn-Alpha design rule. The thesis describes the design and quality of a prototype for such a system, whose acquisition components have been developed from scratch and built on top of one of the state-of-the-art Head-driven Phrase Structure Grammar (HPSG) processing systems. The quality of this prototype is investigated in a series of experiments, in which the system is fed with extracts of a large English corpus. While the idea of using machine-readable language input to automatically acquire lexical knowledge is not new, we are not aware of a system that fulfills Learn-Alpha and is able to deal with large corpora. To instance four major challenges of constructing such a system, it should be mentioned that a) the high number of possible structural descriptions caused by highly underspeci ed lexical entries demands for a parser with a very effective ambiguity management system, b) the automatic construction of concise lexical entries out of a bulk of observed lexical facts requires a special technique of data alignment, c) the reliability of these entries depends on the system's decision on whether it has seen 'enough' input and d) general properties of language might render some lexical features indeterminable if the system tries to acquire them with a too high precision. The cornerstone of this dissertation is the motivation and development of a general theory of automatic lexical acquisition that is applicable to every language and independent of any particular theory of grammar or lexicon. This work is divided into five chapters. The introductory chapter first contrasts three different and mutually incompatible approaches to (artificial) lexical acquisition: cue-based queries, head-lexicalized probabilistic context free grammars and learning by unification. Then the postulation of the Learn-Alpha design rule is presented. The second chapter outlines the theory that underlies Learn-Alpha and exposes all the related notions and concepts required for a proper understanding of artificial lexical acquisition. Chapter 3 develops the prototyped acquisition method, called ANALYZE-LEARN-REDUCE, a framework which implements Learn-Alpha. The fourth chapter presents the design and results of a bootstrapping experiment conducted on this prototype: lexeme detection, learning of verbal valency, categorization into nominal count/mass classes, selection of prepositions and sentential complements, among others. The thesis concludes with a review of the conclusions and motivation for further improvements as well as proposals for future research on the automatic induction of lexical features.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

ZusammenfassungSchwerpunkt dieser Arbeit war die Verfahrensentwicklung zur Ultraspurenbestimmung der Platingruppenelemente (PGE) in Umwelt- und geologischen Proben unter Verwendung der massenspektrometrischen Isotopenverdünnungsanalyse mit anschließender Bestimmung an einem Quadrupol ICP-MS (ICP-QMSIVA). Geeignete Separationstechniken in der Probenaufbereitung, um die PGE von der Matrix der untersuchten Proben zu trennen, stellten eine richtige und präzise Bestimmung der Ultraspuren an einem Quadrupol ICP-MS sicher.Das Verfahren konnte anhand von geologischen Referenzmaterialien aus Kanada sichergestellt werden. Gerade die Wiederholungsbestimmungen der verschiedenen Referenzmaterialien unter Verwendung des ICP-QMSIVA Verfahrens sind beispiellos und in dieser Form noch nicht in der Literatur beschrieben. Durch systematische Messungen konnten Richtigkeit und Präzision des Verfahrens bestätigt werden und die Inhomogenität des Referenzmaterials UMT-1 bezüglich Pt bewiesen werden. Das in dieser Arbeit entwickelte Verfahren zur Ultraspurenbestimmung der PGE mit ICP-QMSIVA wurde im Rahmen des Projektes 'Production and certification of a road dust reference material for platinum, palladium and rhodium (PGEs) in automative catalytic converters (PACEPAC)' der Europäischen Union zur Zertifizierung von zwei Referenzmaterialien für Umweltproben eingesetzt. Hierbei wurde bei der Zertifizierung ('intercomparison round') eine sehr gute Übereinstimmung der Ergebnisse mit dem gewichteten Mittelwert der Ergebnisse für Pd und Pt mit den übrigen teilnehmenden Laboratorien festgestellt. Die mit der hier entwickelten Methode erhaltenen Ergebnisse wurden ohne Ausnahme für alle gemessenen Elemente zur Zertifizierung herangezogen. Damit leistete die vorliegende Arbeit einen erheblichen Beitrag zum erfolgreichen Abschluß dieses Projekts. Den Erwartungen hinsichtlich Richtigkeit und Reproduzierbarkeit des entwickelten Verfahrens wurde somit voll entsprochen. Erneut konnte die große Bedeutung der Isotopenverdünnungstechnik für die Zertifizierung von Referenzmaterialien aufgezeigt werden, da mit dieser Technik bei sachgerechtem Einsatz Ergebnisse hoher Richtigkeit erzielt werden. Durch vergleichende Messungen mit der NiS-Dokimasie und NAA, die in einer Kooperation mit dem Kernchemischen Institut der Universität Mainz durchgeführt wurden, und dem hier verwendeten Verfahren, konnten übereinstimmende Daten, hinsichtlich der Abnahme der Konzentrationen von Pd und Pt in Abhängigkeit von der Entfernung zu einer Autobahn, erzielt werden. Diese Arbeit und die Forschungsergebnisse, die mit der anerkannten NAA erzielt wurden, zeigen, daß die PGE durch Katalysatoren von Automobilen überwiegend metallisch emittiert werden. Der anthropogene Eintrag der PGE in die Umwelt kann mit dem ICP-QMSIVA Verfahren weiterhin sehr gut verfolgt werden.