7 resultados para Semi-Automatic Indexing System (SISA)
em ArchiMeD - Elektronische Publikationen der Universität Mainz - Alemanha
Resumo:
ZUSAMMENFASSUNG Langzeitbeobachtungsstudien zur Landschaftsdynamik inSahelländern stehen generell einem defizitären Angebot anquantitativen Rauminformationen gegenüber. Der in Malivorgefundene lokal- bis regionalräumliche Datenmangelführte zu einer methodologischen Studie, die die Entwicklungvon Verfahren zur multi-temporalen Erfassung und Analyse vonLandschaftsveränderungsdaten beinhaltet. Für den RaumWestafrika existiert in großer Flächenüberdeckunghistorisches Fernerkundungsmaterial in Form hochauflösenderLuftbilder ab den 50er Jahren und erste erdbeobachtendeSatellitendaten von Landsat-MSS ab den 70er Jahren.Multitemporale Langzeitanalysen verlangen zur digitalenReproduzierbarkeit, zur Datenvergleich- undObjekterfaßbarkeit die a priori-Betrachtung derDatenbeschaffenheit und -qualität. Zwei, ohne verfügbare, noch rekonstruierbareBodenkontrolldaten entwickelte Methodenansätze zeigen nichtnur die Möglichkeiten, sondern auch die Grenzen eindeutigerradiometrischer und morphometrischerBildinformationsgewinnung. Innerhalb desÜberschwemmungsgunstraums des Nigerbinnendeltas im ZentrumMalis stellen sich zwei Teilstudien zur Extraktion vonquantitativen Sahelvegetationsdaten den radiometrischen undatmosphärischen Problemen:1. Präprozessierende Homogenisierung von multitemporalenMSS-Archivdaten mit Simulationen zur Wirksamkeitatmosphärischer und sensorbedingter Effekte2. Entwicklung einer Methode zur semi-automatischenErfassung und Quantifizierung der Dynamik derGehölzbedeckungsdichte auf panchromatischenArchiv-Luftbildern Die erste Teilstudie stellt historischeLandsat-MSS-Satellitenbilddaten für multi-temporale Analysender Landschaftsdynamik als unbrauchbar heraus. In derzweiten Teilstudie wird der eigens, mittelsmorphomathematischer Filteroperationen für die automatischeMusterkennung und Quantifizierung von Sahelgehölzobjektenentwickelte Methodenansatz präsentiert. Abschließend wird die Forderung nach kosten- undzeiteffizienten Methodenstandards hinsichtlich ihrerRepräsentativität für die Langzeitbeobachtung desRessourceninventars semi-arider Räume sowie deroperationellen Transferierbarkeit auf Datenmaterial modernerFernerkundungssensoren diskutiert.
Resumo:
In der vorliegenden Diplomarbeit erfolgte die Beobachtung von Eisströmen und Schelfeisen an der Küste der Amundsen See in der West-Antarktis, unter Verwendung von ERS-SAR-Amplitudenbildprodukten. Bestandteile dieser Beobachtung waren die Erstellung eines Gletscherinventares, die Erstellung von Multitemporalbildern, die Auswertung von Veränderungen der Eisfronpositionen und - schwerpunktmäßig - die Bestimmung von Eisfließgeschwindigkeiten und deren räumlicher und zeitlicher Vergleich.
Resumo:
In dieser Dissertation stellen wir einen neuen Ansatz zurModellierungvon Polymersystemen vor. Es werden (von methodischer Seiteher) zweiautomatisierte Iterationschemata dazu eingeführt,Kraftfeldparametermesoskopischer Polymersysteme systematisch zu optimieren:DasSimplex-Verfahren und das Struktur-Differenzen-Verfahren. Sowerdendiejenigen Freiheitsgrade aus Polymersystemen eliminiert,die einehohe Auflösung erfordern, was die Modellierung größerersystemeermöglicht. Nach Tests an einfachen Flüssigkeiten werdenvergröberteModelle von drei prototypischen Polymeren (Polyacrylsäure,Polyvinylalkohol und Polyisopren) in unterschiedlichenUmgebungen(gutes Lösungsmittel und Schmelze) entwickelt und ihrVerhalten aufder Mesoskala ausgiebig geprüft. Die zugehörige Abbildung(vonphysikalischer Seite her) so zu gestalten, daß sie dieunverwechselbaren Charakteristiken jedes systems auf diemesoskopischeLängenskala überträgt, stellt eine entscheidende Anforderungan dieautomatisierten Verfahren dar. Unsere Studien belegen, daß mesoskopische Kraftfeldertemperatur- unddichtespezifisch sind und daher bei geändernden Bedingungennachoptimiert werden müssen. Gleichzeitig läßt sichabschätzen, beiwelchen Umgebungsbedingungen dies noch nicht notwendig wird.In allenFällen reichen effektive Paarpotentiale aus, einrealistischesmesoskopisches Modell zu konstruieren. VergröberteSimulationenwerden im Falle der Polyacrylsäure erfolgreich gegenexperimentelleLichtstreudaten getestet. Wir erzielen für Molmassen bis zu300000g/mol eine hervorragende Übereinstimmung für denhydrodynamischenRadius. Unsere Ergebnisse erklären auch Korrekturen zudessenVerhalten als Funktion der Kettenlänge ('Skalenverhalten'). Im Fallevon Polyisopren untersuchen wir sowohl statische als auchdynamischeGrößen und stellen klare Unterschiede unserer Ergebnisse zudeneneines einfachen semi-flexiblen Mesoskalenmodells fest. InderProteinforschung werden aus Datenbanken gewonnene effektivePaarwechselwirkungen dazu verwendet, die freie Energie einesneuensystems vorherzusagen. Wir belegen in einem Exkurs mittelsGittersimulationen, daß es selbst in einfachsten Fällennicht gelingt,dies auch nur qualitativ korrekt zu bewerkstelligen.
Resumo:
The subject of this thesis is the development of a Gaschromatography (GC) system for non-methane hydrocarbons (NMHCs) and measurement of samples within the project CARIBIC (Civil Aircraft for the Regular Investigation of the atmosphere Based on an Instrument Container, www.caribic-atmospheric.com). Air samples collected at cruising altitude from the upper troposphere and lowermost stratosphere contain hydrocarbons at low levels (ppt range), which imposes substantial demands on detection limits. Full automation enabled to maintain constant conditions during the sample processing and analyses. Additionally, automation allows overnight operation thus saving time. A gas chromatography using flame ionization detection (FID) together with the dual column approach enables simultaneous detection with almost equal carbon atom response for all hydrocarbons except for ethyne. The first part of this thesis presents the technical descriptions of individual parts of the analytical system. Apart from the sample treatment and calibration procedures, the sample collector is described. The second part deals with analytical performance of the GC system by discussing tests that had been made. Finally, results for measurement flight are assessed in terms of quality of the data and two flights are discussed in detail. Analytical performance is characterized using detection limits for each compound, using uncertainties for each compound, using tests of calibration mixture conditioning and carbon dioxide trap to find out their influence on analyses, and finally by comparing the responses of calibrated substances during period when analyses of the flights were made. Comparison of both systems shows good agreement. However, because of insufficient capacity of the CO2 trap the signal of one column was suppressed due to breakthroughed carbon dioxide so much that its results appeared to be unreliable. Plausibility tests for the internal consistency of the given data sets are based on common patterns exhibited by tropospheric NMHCs. All tests show that samples from the first flights do not comply with the expected pattern. Additionally, detected alkene artefacts suggest potential problems with storing or contamination within all measurement flights. Two last flights # 130-133 and # 166-169 comply with the tests therefore their detailed analysis is made. Samples were analyzed in terms of their origin (troposphere vs. stratosphere, backward trajectories), their aging (NMHCs ratios) and detected plumes were compared to chemical signatures of Asian outflows. In the last chapter a future development of the presented system with focus on separation is drawn. An extensive appendix documents all important aspects of the dissertation from theoretical introduction through illustration of sample treatment to overview diagrams for the measured flights.
Resumo:
The biogenic production of NO in the soil accounts for between 10% and 40% of the global total. A large degree of the uncertainty in the estimation of the biogenic emissions stems from a shortage of measurements in arid regions, which comprise 40% of the earth’s land surface area. This study examined the emission of NO from three ecosystems in southern Africa which cover an aridity gradient from semi-arid savannas in South Africa to the hyper-arid Namib Desert in Namibia. A laboratory method was used to determine the release of NO as a function of the soil moisture and the soil temperature. Various methods were used to up-scale the net potential NO emissions determined in the laboratory to the vegetation patch, landscape or regional level. The importance of landscape, vegetation and climatic characteristics is emphasized. The first study occurred in a semi-arid savanna region in South Africa, where soils were sampled from 4 landscape positions in the Kruger National Park. The maximum NO emission occurred at soil moisture contents of 10%-20% water filled pore space (WFPS). The highest net potential NO emissions came from the low lying landscape positions, which have the largest nitrogen (N) stocks and the largest input of N. Net potential NO fluxes obtained in the laboratory were converted in field fluxes for the period 2003-2005, for the four landscape positions, using soil moisture and temperature data obtained in situ at the Kruger National Park Flux Tower Site. The NO emissions ranged from 1.5-8.5 kg ha-1 a-1. The field fluxes were up-scaled to a regional basis using geographic information system (GIS) based techniques, this indicated that the highest NO emissions occurred from the Midslope positions due to their large geographical extent in the research area. Total emissions ranged from 20x103 kg in 2004 to 34x103 kg in 2003 for the 56000 ha Skukuza land type. The second study occurred in an arid savanna ecosystem in the Kalahari, Botswana. In this study I collected soils from four differing vegetation patch types including: Pan, Annual Grassland, Perennial Grassland and Bush Encroached patches. The maximum net potential NO fluxes ranged from 0.27 ng m-2 s-1 in the Pan patches to 2.95 ng m-2 s-1 in the Perennial Grassland patches. The net potential NO emissions were up-scaled for the year December 2005-November 2006. This was done using 1) the net potential NO emissions determined in the laboratory, 2) the vegetation patch distribution obtained from LANDSAT NDVI measurements 3) estimated soil moisture contents obtained from ENVISAT ASAR measurements and 4) soil surface temperature measurements using MODIS 8 day land surface temperature measurements. This up-scaling procedure gave NO fluxes which ranged from 1.8 g ha-1 month-1 in the winter months (June and July) to 323 g ha-1 month-1 in the summer months (January-March). Differences occurred between the vegetation patches where the highest NO fluxes occurred in the Perennial Grassland patches and the lowest in the Pan patches. Over the course of the year the mean up-scaled NO emission for the studied region was 0.54 kg ha-1 a-1 and accounts for a loss of approximately 7.4% of the estimated N input to the region. The third study occurred in the hyper-arid Namib Desert in Namibia. Soils were sampled from three ecosystems; Dunes, Gravel Plains and the Riparian zone of the Kuiseb River. The net potential NO flux measured in the laboratory was used to estimate the NO flux for the Namib Desert for 2006 using modelled soil moisture and temperature data from the European Centre for Medium Range Weather Forecasts (ECMWF) operational model on a 36km x 35km spatial resolution. The maximum net potential NO production occurred at low soil moisture contents (<10%WFPS) and the optimal temperature was 25°C in the Dune and Riparian ecosystems and 35°C in the Gravel Plain Ecosystems. The maximum net potential NO fluxes ranged from 3.0 ng m-2 s-1 in the Riparian ecosystem to 6.2 ng m-2 s-1 in the Gravel Plains ecosystem. Up-scaling the net potential NO flux gave NO fluxes of up to 0.062 kg ha-1 a-1 in the Dune ecosystem and 0.544 kg h-1 a-1 in the Gravel Plain ecosystem. From these studies it is shown that NO is emitted ubiquitously from terrestrial ecosystems, as such the NO emission potential from deserts and scrublands should be taken into account in the global NO models. The emission of NO is influenced by various factors such as landscape, vegetation and climate. This study looks at the potential emissions from certain arid and semi-arid environments in southern Africa and other parts of the world and discusses some of the important factors controlling the emission of NO from the soil.
Resumo:
Die transmembrane Potenzialdifferenz Δφm ist direkt mit der katalytischen Aktivität der Cytochrom c Oxidase (CcO) verknüpft. Die CcO ist das terminale Enzym (Komplex IV) in der Atmungskette der Mitochondrien. Das Enzym katalysiert die Reduktion von O2 zu 2 H2O. Dabei werden Elektronen vom natürlichen Substrat Cytochrom c zur CcO übertragen. Der Eleltronentransfer innerhalb der CcO ist an die Protonentranslokation über die Membran gekoppelt. Folglich bildet sich über der inneren Membrane der Mitochondrien eine Differenz in der Protonenkonzentration. Zusätzlich wird eine Potenzialdifferenz Δφm generiert.rnrnDas Transmembranpotenzial Δφm kann mit Hilfe der Fluoreszenzspektroskopie unter Einsatz eines potenzialemfindlichen Farbstoffs gemessen werden. Um quantitative Aussagen aus solchen Untersuchungen ableiten zu können, müssen zuvor Kalibrierungsmessungen am Membransystem durchgeführt werden.rnrnIn dieser Arbeit werden Kalibrierungsmessungen von Δφm in einer Modellmembrane mit inkorporiertem CcO vorgestellt. Dazu wurde ein biomimetisches Membransystem, die Proteinverankerte Doppelschicht (protein-tethered Bilayer Lipid Membrane, ptBLM), auf einem transparenten, leitfähigem Substrat (Indiumzinnoxid, ITO) entwickelt. ITO ermöglicht den simultanen Einsatz von elektrochemischen und Fluoreszenz- oder optischen wellenleiterspektroskopischen Methoden. Das Δφm in der ptBLM wurde durch extern angelegte, definierte elektrische Spannungen induziert. rnrnEine dünne Hydrogelschicht wurde als "soft cushion" für die ptBLM auf ITO eingesetzt. Das Polymernetzwerk enthält die NTA Funktionsgruppen zur orientierten Immobilisierung der CcO auf der Oberfläche der Hydrogels mit Hilfe der Ni-NTA Technik. Die ptBLM wurde nach der Immobilisierung der CcO mittels in-situ Dialyse gebildet. Elektrochemische Impedanzmessungen zeigten einen hohen elektrischen Widerstand (≈ 1 MΩ) der ptBLM. Optische Wellenleiterspektren (SPR / OWS) zeigten eine erhöhte Anisotropie des Systems nach der Bildung der Doppellipidschicht. Cyklovoltammetriemessungen von reduziertem Cytochrom c bestätigten die Aktivität der CcO in der Hydrogel-gestützten ptBLM. Das Membranpotenzial in der Hydrogel-gestützten ptBLM, induziert durch definierte elektrische Spannungen, wurde mit Hilfe der ratiometrischen Fluoreszenzspektroskopie gemessen. Referenzmessungen mit einer einfach verankerten Dopplellipidschicht (tBLM) lieferten einen Umrechnungsfaktor zwischen dem ratiometrischen Parameter Rn und dem Membranpotenzial (0,05 / 100 mV). Die Nachweisgrenze für das Membranpotenzial in einer Hydrogel-gestützten ptBLM lag bei ≈ 80 mV. Diese Daten dienen als gute Grundlage für künftige Untersuchungen des selbstgenerierten Δφm der CcO in einer ptBLM.
Resumo:
This thesis concerns artificially intelligent natural language processing systems that are capable of learning the properties of lexical items (properties like verbal valency or inflectional class membership) autonomously while they are fulfilling their tasks for which they have been deployed in the first place. Many of these tasks require a deep analysis of language input, which can be characterized as a mapping of utterances in a given input C to a set S of linguistically motivated structures with the help of linguistic information encoded in a grammar G and a lexicon L: G + L + C → S (1) The idea that underlies intelligent lexical acquisition systems is to modify this schematic formula in such a way that the system is able to exploit the information encoded in S to create a new, improved version of the lexicon: G + L + S → L' (2) Moreover, the thesis claims that a system can only be considered intelligent if it does not just make maximum usage of the learning opportunities in C, but if it is also able to revise falsely acquired lexical knowledge. So, one of the central elements in this work is the formulation of a couple of criteria for intelligent lexical acquisition systems subsumed under one paradigm: the Learn-Alpha design rule. The thesis describes the design and quality of a prototype for such a system, whose acquisition components have been developed from scratch and built on top of one of the state-of-the-art Head-driven Phrase Structure Grammar (HPSG) processing systems. The quality of this prototype is investigated in a series of experiments, in which the system is fed with extracts of a large English corpus. While the idea of using machine-readable language input to automatically acquire lexical knowledge is not new, we are not aware of a system that fulfills Learn-Alpha and is able to deal with large corpora. To instance four major challenges of constructing such a system, it should be mentioned that a) the high number of possible structural descriptions caused by highly underspeci ed lexical entries demands for a parser with a very effective ambiguity management system, b) the automatic construction of concise lexical entries out of a bulk of observed lexical facts requires a special technique of data alignment, c) the reliability of these entries depends on the system's decision on whether it has seen 'enough' input and d) general properties of language might render some lexical features indeterminable if the system tries to acquire them with a too high precision. The cornerstone of this dissertation is the motivation and development of a general theory of automatic lexical acquisition that is applicable to every language and independent of any particular theory of grammar or lexicon. This work is divided into five chapters. The introductory chapter first contrasts three different and mutually incompatible approaches to (artificial) lexical acquisition: cue-based queries, head-lexicalized probabilistic context free grammars and learning by unification. Then the postulation of the Learn-Alpha design rule is presented. The second chapter outlines the theory that underlies Learn-Alpha and exposes all the related notions and concepts required for a proper understanding of artificial lexical acquisition. Chapter 3 develops the prototyped acquisition method, called ANALYZE-LEARN-REDUCE, a framework which implements Learn-Alpha. The fourth chapter presents the design and results of a bootstrapping experiment conducted on this prototype: lexeme detection, learning of verbal valency, categorization into nominal count/mass classes, selection of prepositions and sentential complements, among others. The thesis concludes with a review of the conclusions and motivation for further improvements as well as proposals for future research on the automatic induction of lexical features.