57 resultados para Nutzung


Relevância:

10.00% 10.00%

Publicador:

Resumo:

This thesis concerns artificially intelligent natural language processing systems that are capable of learning the properties of lexical items (properties like verbal valency or inflectional class membership) autonomously while they are fulfilling their tasks for which they have been deployed in the first place. Many of these tasks require a deep analysis of language input, which can be characterized as a mapping of utterances in a given input C to a set S of linguistically motivated structures with the help of linguistic information encoded in a grammar G and a lexicon L: G + L + C → S (1) The idea that underlies intelligent lexical acquisition systems is to modify this schematic formula in such a way that the system is able to exploit the information encoded in S to create a new, improved version of the lexicon: G + L + S → L' (2) Moreover, the thesis claims that a system can only be considered intelligent if it does not just make maximum usage of the learning opportunities in C, but if it is also able to revise falsely acquired lexical knowledge. So, one of the central elements in this work is the formulation of a couple of criteria for intelligent lexical acquisition systems subsumed under one paradigm: the Learn-Alpha design rule. The thesis describes the design and quality of a prototype for such a system, whose acquisition components have been developed from scratch and built on top of one of the state-of-the-art Head-driven Phrase Structure Grammar (HPSG) processing systems. The quality of this prototype is investigated in a series of experiments, in which the system is fed with extracts of a large English corpus. While the idea of using machine-readable language input to automatically acquire lexical knowledge is not new, we are not aware of a system that fulfills Learn-Alpha and is able to deal with large corpora. To instance four major challenges of constructing such a system, it should be mentioned that a) the high number of possible structural descriptions caused by highly underspeci ed lexical entries demands for a parser with a very effective ambiguity management system, b) the automatic construction of concise lexical entries out of a bulk of observed lexical facts requires a special technique of data alignment, c) the reliability of these entries depends on the system's decision on whether it has seen 'enough' input and d) general properties of language might render some lexical features indeterminable if the system tries to acquire them with a too high precision. The cornerstone of this dissertation is the motivation and development of a general theory of automatic lexical acquisition that is applicable to every language and independent of any particular theory of grammar or lexicon. This work is divided into five chapters. The introductory chapter first contrasts three different and mutually incompatible approaches to (artificial) lexical acquisition: cue-based queries, head-lexicalized probabilistic context free grammars and learning by unification. Then the postulation of the Learn-Alpha design rule is presented. The second chapter outlines the theory that underlies Learn-Alpha and exposes all the related notions and concepts required for a proper understanding of artificial lexical acquisition. Chapter 3 develops the prototyped acquisition method, called ANALYZE-LEARN-REDUCE, a framework which implements Learn-Alpha. The fourth chapter presents the design and results of a bootstrapping experiment conducted on this prototype: lexeme detection, learning of verbal valency, categorization into nominal count/mass classes, selection of prepositions and sentential complements, among others. The thesis concludes with a review of the conclusions and motivation for further improvements as well as proposals for future research on the automatic induction of lexical features.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In der eingereichten Arbeit wurde die Nutzung von nicht-wässrigen Emulsionen, bestehend aus zwei organischen, aprotischen Lösungsmitteln, zur Erzeugung verschiedener polymerer Nanopartikel beschrieben. Diese Zweiphasenmischungen und die Verwendung maßgeschneiderter Emulgatoren bestehend aus Poly(isopren-block-methylmethacrylat) ermöglichten den Zugang zu einer Vielzahl an Reaktionen und Prozessen, welche in wässrigen Emulsionen bisher nicht oder nur schwer möglich waren. Die Generierung von Partikeln auf Basis katalytischer Polymerisationen erfolgte unter Verwendung der Ringöffnenden Metathese-Polymerisation (ROMP), der Acyclischen Dien-Metathese-Polymerisation (ADMET), der Cyclopolymerisation von α,ω-Diinen und der Ni-katalysierten Polymerisation von Isocyaniden. Mittels ROMP konnten stabile Dispersionen erzeugt werden, welche Partikel mit verschiedensten Molekulargewichten, Größen und Morphologien enthielten. Diese Eigenschaften konnten durch die Wahl des Monomers, die Katalysatorkonzentration oder den Emulgatortyp beeinflusst werden. Des Weiteren wurden Partikel mit komplexen Morphologien wie Kern-Schale-Strukturen synthetisiert. Dazu erfolgte die Generierung von Partikeln aus Poly(urethan) oder Poly(norbornenderivaten), welche in situ und ohne intermediäre Aufarbeitung mit einer Schale aus Poly(methacrylat) versehen wurden. Der Nachweis dieser Strukturen gelang mittels verschiedener Schwermetall-Markierungsverfahren in der Transmissionselektronenmikroskopie. Schlussendlich erfolgte die Herstellung von hochvernetzten und molekular geprägten Poly(acrylsäure)-Partikeln. Hierbei wurden unterschiedliche pharmakologische Wirkstoffe und Farbstoffe in die Partikel eingebracht, um deren Migrationsverhalten und Wiederanbindung an die Partikel zu untersuchen. Weiterhin wurden die Partikel erfolgreich in Zellaufnahmeexperimenten eingesetzt.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Der Wirkungsquerschnitt der Charmoniumproduktion wurde unter Nutzung der Daten aus pp-Kollisionen bei s^{1/2}=7TeV, die im Jahr 2010 vom Atlas-Experiment am LHC aufgezeichnet wurden, gemessen. Um das notwendige Detektorverständnis zu verbessern, wurde eine Energiekalibration durchgeführt.rnrnrnUnter Nutzung von Elektronen aus Zerfällen des Charmoniums wurde die Energieskala der elektromagnetischen Kalorimeter bei niedrigen Energien untersucht. Nach Anwendung der Kalibration wurden für die Energiemessung im Vergleich mit in Monte-Carlo-Simulationen gemessenen Energien Abweichungen von weniger als 0,5% gefunden.rnrnrnMit einer integrierten Luminosität von 2,2pb^{-1} wurde eine erste Messung des inklusiven Wirkungsquerschnittes für den Prozess pp->J/psi(e^{+}e^{-})+X bei s^{1/2}=7TeV vorgenommen. Das geschah im zugänglichen Bereich für Transversalimpulse p_{T,ee}>7GeV und Rapiditäten |y_{ee}|<2,4. Es wurden differentielle Wirkungsquerschnitte für den Transversalimpuls p_{T,ee} und für die Rapidität |y_{ee}| bestimmt. Integration beider Verteilungen lieferte für den inklusiven Wirkungsquerschnitt sigma(pp-> J/psi X)BR(J/psi->e^{+}e^{-}) die Werte (85,1+/-1,9_{stat}+/-11,2_{syst}+/-2,9_{Lum})nb und (75,4+/-1,6_{stat}+/-11,9_{syst}+/-2,6_{Lum})nb, die innerhalb der Systematik kompatibel sind.rnrnrnVergleiche mit Messungen von Atlas und CMS für den Prozess pp->J/psi(mu^{+}mu^{-})+X zeigten gute Übereinstimmung. Zum Vergleich mit der Theorie wurden Vorhersagen mit verschiedenen Modellen in nächst-zu-führender und mit Anteilen in nächst-zu-nächst-zu-führender Ordnung kombiniert. Der Vergleich zeigt eine gute Übereinstimmung bei Berücksichtigung von Anteilen in nächst-zu-nächst-zu-führender Ordnung.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In the present thesis I examined individual and sex-specific habitat use and site fidelity in the western barbastelle bat, Barbastella barbastellus, using data from a four-year monitoring in a Special Area of Conservation in Rhineland-Palatinate, Germany. The western barbastelle occurs in central and southern Europe from Portugal to the Caucasus, but is considered to be rare in large parts of its range. Up to now, long-term field studies to assess interannual site fidelity and the possible effects of intra- and interspecific competition have not been studied in this species. Nevertheless, such data provide important details to estimate the specific spatial requirements of its populations, which in turn can be incorporated in extended conservation actions. I used radio-telemetry, home range analyses und automated ultrasound detection to assess the relation between landscape elements and western barbastelle bats and their roosts. In addition, I estimated the degree of interspecific niche overlap with two selected forest-dwelling bat species, Bechstein's bat (Myotis bechsteinii) and the brown long-eared bat (Plecotus auritus). Intra- and interannual home range overlap analyses of female B. barbastellus revealed that fidelity to individual foraging grounds, i.e. a traditional use of particular sites, seems to effect the spatial distribution of home ranges more than intraspecific competition among communally roosting females. The results of a joint analysis of annual maternity roost selection and flight activities along commuting corridors highlight the necessity to protect roost complexes in conjunction with commuting corridors. Using radio-tracking data and an Euclidean distance approach I quantified the sex-specific and individual habitat use by female and male western barbastelle bats within their home ranges. My data indicated a partial sexual segregation in summer habitats. Females were found in deciduous forest patches and preferably foraged along linear elements within the forest. Males foraged closer to forest edges and in open habitats. Finally, I examined the resource partitioning between the western barbastelle bat and two syntopic bat species with a potential for interspecific competition due to similarities in foraging strategies, prey selection and roost preferences. Simultaneous radio-tracking of mixed-species pairs revealed a partial spatial separation of the three syntopic bat species along a gradient from the forest to edge habitats and open landscape. Long-eared bats were found close to open habitats which were avoided by the other two species. B. barbastellus preferred linear landscape elements (edge habitats) and forests, M. bechsteinii also preferred forest habitats. Only little overlap in terms of roost structure and tree species selection was found.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Im Wintersemester 2009/2010 und im Sommersemester 2010 wurde am Institut für Soziologie der Johannes Gutenberg-Universität Mainz unter unserer Leitung eine mündliche standardisierte Befragung durchgeführt, das sich mit der Nutzung und Bewertung des bibliothekarischen Angebotes dieser Universität durch die Studierenden beschäftigte. Aus der Grundgesamtheit der Studierenden im Wintersemester 2009/2010 wurde anhand einer Quotenauswahl eine Stichprobe im Umfang von n = 453 bestimmt.rnFolgende Untersuchungsergebnisse sind hervorzuheben:rnZu Studienzwecken arbeiten die Studierenden bevorzugt zu Hause und nicht in einer Bibliothek oder in einem anderen Arbeitsraum der Universität.rnDie unterschiedlichen elektronischen Angebote der Bibliothek, die allen Studierenden zur Verfügung stehen, werden von fast 90% der Studierenden zumindest teilweise wahrgenommen. Die Arbeit am Rechner zu Hause wird technisch durch die elektronischen Angebote der Bibliothek ermöglicht und unterstützt, ebenso die ortsunabhängige Benutzung eines Laptops.rnLob für die Bibliothek gibt es besonders für den Sachverstand der Bibliotheksmitarbeiter, die langen Öffnungszeiten und das reibungslose Funktionieren des Ausleihprozesses. Gleichfalls hervorgehoben wird die Qualität elektronischer Dienstleistungen (Reader-Plus, E-Mail-Erinnerungsservice, Verlängerungs- und Vormerkungsservice). rnKritik äußern viele Studierende an der mangelnden Aktualität der Buchbestände und an der zu geringen Anzahl an Buchexemplaren bei Werken, die zur Standardliteratur ihres Faches gehören. Häufig wird gefordert, dass der Anteil der ausleihbaren Bücher zu Lasten des Präsenzbestandes vergrößert werden sollte. Gewünscht werden ebenfalls eine ‚Modernisierung‘ von Arbeitsräumen und eine Erweiterung der Arbeitsplätze insbesondere für Arbeitsgruppen. Zusätzlich sollten nach Auffassung vieler Studierender innerhalb der Bibliothek Aufenthaltsräume für die Erholung und Kommunikation in Pausen geschaffen werden. Allgemein zeigt sich, dass beim Aufenthalt in den Bibliotheken nicht nur auf Funktionalität Wert gelegt wird.rn

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Elektronen in wasserstoff- und lithium-ähnlichen schweren Ionen sind den extrem starken elektrischen und magnetischen Feldern in der Umgebung des Kerns ausgesetzt. Die Laserspektroskopie der Hyperfeinaufspaltung im Grundzustand des Ions erlaubt daher einen sensitiven Test der Quantenelektrodynamik in starken Feldern insbesondere im magnetischen Sektor. Frühere Messungen an wasserstoffähnlichen Systemen die an einer Elektronenstrahl-Ionenfalle (EBIT) und am Experimentierspeicherring (ESR) der GSI Darmstadt durchgeführt wurden, waren in ihrer Genauigkeit durch zu geringe Statistik, einer starken Dopplerverbreiterung und der großen Unsicherheit in der Ionenenergie limitiert. Das ganze Potential des QED-Tests kann nur dann ausgeschöpft werden, wenn es gelingt sowohl wasserstoff- als auch lithium-ähnliche schwere Ionen mit einer um 2-3 Größenordnung gesteigerten Genauigkeit zu spektroskopieren. Um dies zu erreichen, wird gegenwärtig das neue Penningfallensystem SPECTRAP an der GSI aufgebaut und in Betrieb genommen. Es ist speziell für die Laserspektroskopie an gespeicherten hochgeladenen Ionen optimiert und wird in Zukunft von HITRAP mit nierderenergetischen hochgeladenen Ionen versorgt werden.rnrnSPECTRAP ist eine zylindrische Penningfalle mit axialem Zugang für die Injektion von Ionen und die Einkopplung eines Laserstrahls sowie einem radialen optischen Zugang für die Detektion der Fluoreszenz. Um letzteres zu realisieren ist der supraleitende Magnet als Helmholtz-Spulenpaar ausgelegt. Um die gewünschte Genauigkeit bei der Laserspektroskopie zu erreichen, muss ein effizienter und schneller Kühlprozess für die injizierten hochegeladenen Ionen realisiert werden. Dies kann mittels sympathetischer Kühlung in einer lasergekühlten Wolke leichter Ionen realisiert werden. Im Rahmen dieser Arbeit wurde ein Lasersystem und eine Ionenquelle für die Produktion einer solchen 24Mg+ Ionenwolke aufgebaut und erfolgreich an SPECTRAP in Betrieb genommen. Dazu wurde ein Festkörperlasersystem für die Erzeugung von Licht bei 279.6 nm entworfen und aufgebaut. Es besteht aus einem Faserlaser bei 1118 nm der in zwei aufeinanderfolgenden Frequenzverdopplungsstufen frequenzvervierfacht wird. Die Verdopplerstufen sind als aktiv stabilisierte Resonantoren mit nichtlinearen Kristallen ausgelegt. Das Lasersystem liefert unter optimalen Bedingeungen bis zu 15 mW bei der ultravioletten Wellenlänge und erwies sich während der Teststrahlzeiten an SPECTRAP als ausgesprochen zuverlässig. Desweiteren wurde eine Ionequelle für die gepulste Injektion von Mg+ Ionen in die SPECTRAP Falle entwickelt. Diese basiert auf der Elektronenstoßionisation eines thermischen Mg-Atomstrahls und liefert in der gepulsten Extraktion Ionenbündel mit einer kleinen Impuls- und Energieverteilung. Unter Nutzung des Lasersystems konnten damit an SPECTRAP erstmals Ionenwolken mit bis zu 2600 lasergekühlten Mg Ionen erzeugt werden. Der Nachweis erfolgte sowohl mittels Fluoreszenz als auch mit der FFT-ICR Technik. Aus der Analyse des Fluoreszenz-Linienprofils lässt sich sowohl die Sensitivität auf einzelne gespeicherte Ionen als auch eine erreichte Endtemperatur in der Größenordnung von ≈ 100 mK nach wenigen Sekunden Kühlzeit belegen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Als ein vielversprechendes Konzept zur Erhöhung der thermoelektrischen Effizienz wird seit Anfang der 90er Jahre die Nutzung niederdimensionaler Systeme angesehen. Aus theoretischen Arbeiten von Hicks und Dresselhaus folgt, dass in ein- und zweidimensionalen Systemen eine Erhöhung der thermoelektrischen Effizienz möglich ist, die einen Durchbruch für die Anwendung thermoelektrischer Wandler zur Folge haben könnte. Die Realisierung solcher niederdimensionaler Systeme ist in geeigneten Mehrlagenstrukturen und durch Verwendung von Halbleiterverbindungen mit unterschiedlicher Energiebandlücke möglich. Ziel des Verbundprojektes Nitherma war es Mehrfachschichtsysteme mit 2-dimensionalem Transportverhalten aus thermoelektrischen Materialien (Pb1-xSrxTe, Bi2(SexTe1-x)3) herzustellen und auf die erwartete hohe thermoelektrische Effizienz zu untersuchen. Diese wurde messtechnischrndurch die Bestimmung der elektrischen Leitfähigkeit, des Seebeck-Koeffizienten und der Wärmeleitfähigkeit parallel zu den Schichtebenen (in-plane-Transporteigenschaft) ermittelt. Ziel dieser Arbeit war einerseits die Verbesserung der Präparations- und Messtechnik bei der Untersuchung der Wärmeleitfähigkeit von Schichten und Schichtsystemen sowie die Demonstration der Reproduzierbarkeit, andererseits die Interpretation der an niederdimensionalen Strukturen ermittelten Transportmessungen. Um den Einfluß der Niederdimensionalität auf die Wärmeleitfähigkeit zu ermitteln, wurden umfangreiche Messungen an unterschiedlich dimensionierten Übergitter- und Multi-Quantum-Well-Strukturen (MQW-Strukturen) durchgeführt. Die Verifizierung der von den Projektpartnern durchgeführten Transportmessungen wurde durch die Messung des Seebeck-Koeffizienten unterstützt.Neben der Charakterisierung durch Transportmessungen erfolgte die Bestimmung der thermoelektrischen Effizienz.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Innerhalb des Untersuchungsgebiets Schleswig-Holstein wurden 39.712 topographische Hohlformen detektiert. Genutzt wurden dazu ESRI ArcMap 9.3 und 10.0. Der Datenaufbereitung folgten weitere Kalkulationen in MATLAB R2010b. Jedes Objekt wurde räumlich mit seinen individuellen Eigenschaften verschnitten. Dazu gehörten Fläche, Umfang, Koordinaten (Zentroide), Tiefe und maximale Tiefe der Hohlform und Formfaktoren wie Rundheit, Konvexität und Elongation. Ziel der vorgestellten Methoden war die Beantwortung von drei Fragestellungen: Sind negative Landformen dazu geeignet Landschaftseinheiten und Eisvorstöße zu unterscheiden und zu bestimmen? Existiert eine Kopplung von Depressionen an der rezenten Topographie zu geologischen Tiefenstrukturen? Können Senken unterschiedlicher Entstehung anhand ihrer Formcharakteristik unterteilt werden? Die vorgenommene Klassifikation der großen Landschaftseinheiten basiert auf der Annahme, dass sowohl Jungmoränengebiete, ihre Vorflächen als auch Altmoränengebiete durch charakteristische, abflusslose Hohlformen, wie Toteislöcher, Seen, etc. abgegrenzt werden können. Normalerweise sind solche Depressionen in der Natur eher selten, werden jedoch für ehemalige Glaziallandschaften als typisch erachtet. Ziel war es, die geologischen Haupteinheiten, Eisvorstöße und Moränengebiete der letzten Vereisungen zu differenzieren. Zur Bearbeitung wurde ein Detektionsnetz verwendet, das auf quadratischen Zellen beruht. Die Ergebnisse zeigen, dass durch die alleinige Nutzung von Depressionen zur Klassifizierung von Landschaftseinheiten Gesamtgenauigkeiten von bis zu 71,4% erreicht werden können. Das bedeutet, dass drei von vier Detektionszellen korrekt zugeordnet werden können. Jungmoränen, Altmoränen, periglazialeVorflächen und holozäne Bereiche können mit Hilfe der Hohlformen mit großer Sicherheit voneinander unterschieden und korrekt zugeordnet werden. Dies zeigt, dass für die jeweiligen Einheiten tatsächlich bestimmte Senkenformen typisch sind. Die im ersten Schritt detektierten Senken wurden räumlich mit weiterreichenden geologischen Informationen verschnitten, um zu untersuchen, inwieweit natürliche Depressionen nur glazial entstanden sind oder ob ihre Ausprägung auch mit tiefengeologischen Strukturen in Zusammenhang steht. 25.349 (63,88%) aller Senken sind kleiner als 10.000 m² und liegen in Jungmoränengebieten und können vermutlich auf glaziale und periglaziale Einflüsse zurückgeführt werden. 2.424 Depressionen liegen innerhalb der Gebiete subglazialer Rinnen. 1.529 detektierte Hohlformen liegen innerhalb von Subsidenzgebieten, von denen 1.033 innerhalb der Marschländer im Westen verortet sind. 919 große Strukturen über 1 km Größe entlang der Nordsee sind unter anderem besonders gut mit Kompaktionsbereichen elsterzeitlicher Rinnen zu homologisieren.344 dieser Hohlformen sind zudem mit Tunneltälern im Untergrund assoziiert. Diese Parallelität von Depressionen und den teils über 100 m tiefen Tunneltälern kann auf Sedimentkompaktion zurückgeführt werden. Ein Zusammenhang mit der Zersetzung postglazialen, organischen Materials ist ebenfalls denkbar. Darüber hinaus wurden in einer Distanz von 10 km um die miozän aktiven Flanken des Glückstadt-Grabens negative Landformen detektiert, die Verbindungen zu oberflächennahen Störungsstrukturen zeigen. Dies ist ein Anzeichen für Grabenaktivität während und gegen Ende der Vereisung und während des Holozäns. Viele dieser störungsbezogenen Senken sind auch mit Tunneltälern assoziiert. Entsprechend werden drei zusammenspielende Prozesse identifiziert, die mit der Entstehung der Hohlformen in Verbindung gebracht werden können. Eine mögliche Interpretation ist, dass die östliche Flanke des Glückstadt-Grabens auf die Auflast des elsterzeitlichen Eisschilds reagierte, während sich subglazial zeitgleich Entwässerungsrinnen entlang der Schwächezonen ausbildeten. Diese wurden in den Warmzeiten größtenteils durch Torf und unverfestigte Sedimente verfüllt. Die Gletschervorstöße der späten Weichselzeit aktivierten erneut die Flanken und zusätzlich wurde das Lockermaterial exariert, wodurch große Seen, wie z. B. der Große Plöner See entstanden sind. Insgesamt konnten 29 große Depressionen größer oder gleich 5 km in Schleswig-Holstein identifiziert werden, die zumindest teilweise mit Beckensubsidenz und Aktivität der Grabenflanken verbunden sind, bzw. sogar auf diese zurückgehen.Die letzte Teilstudie befasste sich mit der Differenzierung von Senken nach deren potentieller Genese sowie der Unterscheidung natürlicher von künstlichen Hohlformen. Dazu wurde ein DEM für einen Bereich im Norden Niedersachsens verwendet, das eine Gesamtgröße von 252 km² abdeckt. Die Ergebnisse zeigen, dass glazial entstandene Depressionen gute Rundheitswerte aufweisen und auch Elongation und Exzentrizität eher kompakte Formen anzeigen. Lineare negative Strukturen sind oft Flüsse oder Altarme. Sie können als holozäne Strukturen identifiziert werden. Im Gegensatz zu den potentiell natürlichen Senkenformen sind künstlich geschaffene Depressionen eher eckig oder ungleichmäßig und tendieren meist nicht zu kompakten Formen. Drei Hauptklassen topographischer Depressionen konnten identifiziert und voneinander abgegrenzt werden: Potentiell glaziale Senken (Toteisformen), Flüsse, Seiten- und Altarme sowie künstliche Senken. Die Methode der Senkenklassifikation nach Formparametern ist ein sinnvolles Instrument, um verschiedene Typen unterscheiden zu können und um bei geologischen Fragestellungen künstliche Senken bereits vor der Verarbeitung auszuschließen. Jedoch zeigte sich, dass die Ergebnisse im Wesentlichen von der Auflösung des entsprechenden Höhenmodells abhängen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die südamerikanischen Staaten Guyana und Suriname sind ehemalige Kolonien, die über gigantische Rohstoffressourcen verfügen. In den Regenwäldern, die die Länder zu 80 - 90% bedecken, lagern Gold und Bauxit und es wachsen wertvolle Hölzer. Außerdem haben beide Länder das Potential für eine touristische Inwertsetzung ihres Landesinneren. rnEbenso vielfältig wie die Ressourcen der Guayanas sind die Interessen daran. International agierende Unternehmen, einheimische Goldsucher sowie Indigene, Naturschützer und Dienstleister aus der Tourismusbranche stellen sich widersprechende Ansprüche an Rohstofflagerstätten sowie an touristisch vermarktbare Landschaft und Natur. Die Regierungen stehen vor der Herausforderung, die politischen Rahmenbedingungen für die Nutzung der Ressourcen des Regenwaldes festzulegen. rnDie vorliegende empirische Studie analysiert vergleichend die Motivationen der Akteure und den Einfluss von Institutionen auf die Akteure in den unterschiedlichen politischen Systemen der Staaten Guyana und Suriname. Um die Strategien der Akteure zu verstehen, wird geklärt, welche institutionelle und länderspezifische Regelungssysteme – formeller und informeller Art – die Akteure beeinflussen und inwiefern sich dabei der Einfluss der kolonialen Vergangenheit beider Staaten bemerkbar macht. rnIm Fokus der Untersuchung stehen Akteure, die an der Inwertsetzung des Regenwaldes durch Bergbau, Forstwirtschaft und (Natur-)Tourismus auf lokaler Ebene beteiligt sind sowie länderspezifischen Institutionen, die den Handlungsrahmen für diese Akteure definieren. rn

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Zweidimensionale Flüssigkeiten harter Scheiben sind in der Regel einfach zu simulieren, jedoch überraschend schwer theoretisch zu beschreiben. Trotz ihrer hohen Relevanz bleiben die meisten theoretischen Ansätze qualitativ. Hier wird eine Dichtefunktionaltheorie (DFT) vorgestellt, die erstmalig die Struktur solcher Flüssigkeiten bei hohen Dichten korrekt beschreibt und den Ansatz des Gefrierübergangs abbildet.rnEs wird gezeigt, dass der Ansatz der Fundamentalmaßtheorie zu einem solchen Funktional führt. Dabei werden sowohl Dichteverteilungen um ein Testteilchen als auch Zweiteilchen-Korrelationsfunktionen untersucht.rnGrafikkarten bieten sehr hohe Recheneffizienz und ihr Einsatz in der Wissenschaft nimmt stetig zu. In dieser Arbeit werden die Vor- und Nachteile der Grafikkarte für wissenschaftliche Berechnungen erörtert und es wird gezeigt, dass die Berechnung der DFT auf Grafikkarten effizient ausgeführt werden kann. Es wird ein Programm entwickelt, dass dies umsetzt. Dabei wird gezeigt, dass die Ergebnisse einfacher (bekannter) Funktionale mit denen von CPU-Berechnungen übereinstimmen, so dass durch die Nutzung der Grafikkarte keine systematischen Fehler zu erwarten sind.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Forschungsarbeit siedelt sich im Dreieck der Erziehungswissenschaften, der Informatik und der Schulpraxis an und besitzt somit einen starken interdisziplinären Charakter. Aus Sicht der Erziehungswissenschaften handelt es sich um ein Forschungsprojekt aus den Bereichen E-Learning und Multimedia Learning und der Fragestellung nach geeigneten Informatiksystemen für die Herstellung und den Austausch von digitalen, multimedialen und interaktiven Lernbausteinen. Dazu wurden zunächst methodisch-didaktische Vorteile digitaler Lerninhalte gegenüber klassischen Medien wie Buch und Papier zusammengetragen und mögliche Potentiale im Zusammenhang mit neuen Web2.0-Technologien aufgezeigt. Darauf aufbauend wurde für existierende Autorenwerkzeuge zur Herstellung digitaler Lernbausteine und bestehende Austauschplattformen analysiert, inwieweit diese bereits Web 2.0-Technologien unterstützen und nutzen. Aus Sicht der Informatik ergab sich aus der Analyse bestehender Systeme ein Anforderungsprofil für ein neues Autorenwerkzeug und eine neue Austauschplattform für digitale Lernbausteine. Das neue System wurde nach dem Ansatz des Design Science Research in einem iterativen Entwicklungsprozess in Form der Webapplikation LearningApps.org realisiert und stetig mit Lehrpersonen aus der Schulpraxis evaluiert. Bei der Entwicklung kamen aktuelle Web-Technologien zur Anwendung. Das Ergebnis der Forschungsarbeit ist ein produktives Informatiksystem, welches bereits von tausenden Nutzern in verschiedenen Ländern sowohl in Schulen als auch in der Wirtschaft eingesetzt wird. In einer empirischen Studie konnte das mit der Systementwicklung angestrebte Ziel, die Herstellung und den Austausch von digitalen Lernbausteinen zu vereinfachen, bestätigt werden. Aus Sicht der Schulpraxis liefert LearningApps.org einen Beitrag zur Methodenvielfalt und zur Nutzung von ICT im Unterricht. Die Ausrichtung des Werkzeugs auf mobile Endgeräte und 1:1-Computing entspricht dem allgemeinen Trend im Bildungswesen. Durch die Verknüpfung des Werkzeugs mit aktuellen Software Entwicklungen zur Herstellung von digitalen Schulbüchern werden auch Lehrmittelverlage als Zielgruppe angesprochen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Diese Arbeit beschreibt zum ersten Mal die kovalente Verknüpfung organischer Moleküle auf einer Isolatoroberfläche, motiviert im Hinblick auf die Nutzung der Synthesemethode für die molekulare Elektronik und verwandte Anwendungen. Durch die Verwendung der Nichtkontakt-Rasterkraftmikroskopie und der Kelvinprobe-Mikroskopie bei Raumtemperatur wurden grundlegende molekulare Prozesse der Wechselwirkungen zwischen Molekülen und der Calcit(10.4) Oberfläche sowie die chemische Reaktivität der Moleküle auf der Oberfläche analysiert. Das Zusammenspiel zwischen intermolekularen und Molekül-Oberfläche Wechselwirkungen zeigt sich für Biphenyl-4,4'-dicarbonsäure (BPDCA) durch die Koexistenz zweier unterschiedlicher molekularer Strukturen, die einen Einblick in die treibenden Kräfte der molekularen Selbstorganisation bieten. Die sehr ausgeprägte Reihenstruktur basiert auf der optimalen geometrischen Struktur der BPDCA Moleküle zu den Abmessungen des Substrats, während die zweite Struktur durch Wasserstoffbrücken zwischen den Molekülen gekennzeichnet ist. Der Deprotonierungsvorgang von 2,5-Dihydroxybenzoesäure (DHBA)-Molekülen auf Calcit wird bei Zimmertemperatur gezeigt. Zwei Phasen werden beobachtet, die nach Aufbringen der Moleküle koexistieren. Mit der Zeit geht eine bulk-ähnliche Phase in eine stabile, dicht gepackte Phase über. Der Übergang wird durch Betrachtung des Protonierungszustands der Moleküle erklärt. Die bulk-ähnliche Phase benötigt Wasserstoffbrückbindungen zur Strukturbildung. Werden die Moleküle deprotoniert, so wird die resultierende dicht gepackte Phase durch die elektrostatische Wechselwirkung der deprotonierten Carboxylatgruppen mit den Oberflächen-Calciumkationen stabilisiert. 4-Iodbenzoesäure (IBA)-Moleküle bilden auf Calcit nur Inseln an Stufenkanten, was auf die schwache Molekül-Oberflächen-Wechselwirkung zurückzuführen ist. Für einen stärkeren Einfluss des Substrats durchlaufen die Moleküle einen kontrollierten Übergangsschritt vom protonierten zum deprotonierten Zustand. Im deprotonierten Zustand nehmen die Moleküle eine wohldefinierte Adsorptionsposition auf dem Substrat ein. Die deprotonierte Säuregruppe wird ausgenutzt, um die Desorption der halogensubstituierten Benzoesäure-Moleküle bei der thermischer Aktivierung für die Vernetzungsreaktion zu vermeiden. Darüber hinaus wird die Carboxylatgruppe als starker Elektronendonor verwendet um die Phenyl-Halogen-Bindung zu schwächen und somit die homolytische Spaltung dieser Bindung auch bei moderaten Temperaturen zu ermöglichen. Diesem Konzept folgend ist die erste erfolgreiche kovalente Verknüpfung von 2,5-Diiod-benzoesäure, 2,5-Dichlorbenzoesäure, 3,5-Diiod Salicylsäure und 4-Iod-benzoesäure zu durchkonjugierten molekularen Drähten, Zick-Zack-Strukturen sowie Dimere gezeigt durch Ausnutzen von unterschiedlichen Substitutionsposition sowie Ändern der Anzahl der substituierten Halogenatome. Aufbauend auf diesem Erfolg, wird eine zweistufige Vernetzungsreaktion vorgestellt. Zum Induzieren der ortsspezifischen und sequentiellen kovalenten Verknüpfung wird ein Ausgangsmolekül gewählt, das sowohl eine Bromphenyl als auch eine Chlorphenyl Gruppe mit unterschiedlichen Dissoziationsenergien für die homolytische Spaltung besitzt. Die Reaktionsstellen und sequentielle Reihenfolge für die Reaktion sind somit in der molekularen Struktur einkodiert und bisher unerreichte Reaktionspfade können mithilfe der kovalente Verknüpfung organischer Moleküle auf einer Isolatoroberfläche beschritten werden.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die oberflächennahe Geothermie leistet im Bereich der Nutzung regenerativer Wärme einen wichtigen Beitrag zum Klima- und Umweltschutz. Um die technische Nutzung oberflächennaher Geothermie zu optimieren, ist die Kenntnis der Beschaffenheit des geologischen Untergrundes ausschlaggebend. Die vorliegende Dissertation befasst sich mit der Bestimmung verschiedener Untergrundparameter an einem Erdwärmesondenfeld. Es wurden Untersuchungen zur Bestimmung der Wärmeleitfähigkeit wie der enhanced Thermal Response Test (eTRT), sowie eine Untergrund-Temperaturüberwachung im ersten Betriebsjahr durchgeführt. Die Überwachung zeigte keine gegenseitige Beeinflussung einzelner Sonden. Ein Vergleich zwischen dem geplanten und dem tatsächlichem Wärmebedarf des ersten Betriebsjahres ergab eine Abweichung von ca. 35%. Dies zeigt, dass die Nutzungsparameter der Anlage deren Effizienz maßgeblich beeinflussen können. Der am Beispielobjekt praktisch durchgeführte eTRT wurde mittels numerischer Modellierung auf seine Reproduzierbarkeit hin überprüft. Bei einem rein konduktiven Wärmetransport im Untergrund betrug die maximale Abweichung der Messung selbst unter ungünstigen Bedingungen lediglich ca. 6% vom zu erwartenden Wert. Die Detektion von grundwasserdurchflossenen Schichten ist in den Modellen ebenfalls gut abbildbar. Problematisch bleibt die hohe Abhängigkeit des Tests von einer konstanten Wärmezufuhr. Lediglich die Bestimmung der Wärmeleitfähigkeit über das Relaxationsverhalten des Untergrundes liefert bei Wärmeeintragsschwankungen hinreichend genaue Ergebnisse. Die mathematische Nachbearbeitung von fehlerhaften Temperaturkurven bietet einen Einstiegspunkt für weiterführende Forschung.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Deposition von dünnen, metallischen Schichten auf Silizium-Substraten stellt bereits seit Jahrzehnten die wichtigste Möglichkeit dar, um die wachsenden Anforderungen der Speichertechnologien zu erfüllen. Obwohl Multilagenstrukturen aus oxidischen Schichten eine nahezu unerschöpfliche Vielfalt an neuen Effekten bieten, kommen diese aktuell nur in Nischenanwendungen zum Einsatz. Der Fokus dieser Arbeit liegt auf dem Verständnis von Phänomenen, die nur an Grenzflächensystemen zu beobachten sind. Die Basis der Untersuchungen stellten die Präparation der Multilagenstrukturen durch Laserablation dar. Eine Untersuchung der strukturellen Eigenschaften von multiferroischen BiFeO3 (BFO)-Schichten erlaubte eine Analyse der Wachstumsmodi und der Symmetrie der Einheitszelle von BFO unter heteroepitaktischer Verspannung. Durch Piezokraftmikroskopie konnte die ferroelektrische Domänenstruktur dünner BFO-Schichten analysiert werden. Die Abbildung der magnetischen Domänenstruktur der ferromagnetischen La0,67Sr0,33MnO3 (LSMO)-Schicht und der antiferromagnetischen BFO-Schicht einer Bilagenstruktur durch Photoemissionselektronenmikroskopie erlaubte eine Analyse der Austauschkopplung an der Grenzfläche. Durch elektronische Rekonstruktion entsteht an der LaAlO3 (LAO) /SrTiO3 (STO)-Grenzfläche ein leitfähiger, quasi-zweidimensionaler Zustand. Dessen Transporteigenschaften wurden mit einem Schwerpunkt auf deren Beeinflussung durch ein elektrisches Feld charakterisiert. Diese Ergebnisse führten zur Implementierung einer ferroelektrischen BFO-Schicht zur Manipulation der Leitfähigkeit an der LAO/STO-Grenzfläche. Die Kontrolle des Widerstandes eines mikrostrukturierten Bereichs durch die Polarisation der BFO-Schicht erlaubt die Nutzung der Struktur als Speichertechnologie.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Biobanken sind Sammlungen von Körpersubstanzen, die mit umfangreichen gesundheits- und lebensstilbezogenen sowie geneologischen Daten ihrer Spender verknüpft sind. Sie dienen der Erforschung weit verbreiteter Krankheiten. Diese sog. Volkskrankheiten sind multifaktoriell bedingte Krankheiten. Dies bedeutet, dass diese Krankheiten das Ergebnis eines komplizierten Zusammenspiels von umwelt- und verhaltensrelevanten Faktoren mit individuellen genetischen Prädispositionen sind. Forschungen im Bereich von Pharmakogenomik und Pharmakogenetik untersuchen den Einfluss von Genen und Genexpressionen auf die individuelle Wirksamkeit von Medikamenten sowie auf die Entstehung ungewollter Nebenwirkungen und könnten so den Weg zu einer individualisierten Medizin ebnen. Menschliches Material ist ein wichtiger Bestandteil dieser Forschungen und die Nachfrage nach Sammlungen, die Proben mit Daten verknüpfen, steigt. Einerseits sehen Mediziner in Biobanken eine Chance für die Weiterentwicklung der medizinischen Forschung und des Gesundheitswesens. Andererseits lösen Biobanken auch Ängste und Misstrauen aus. Insbesondere wird befürchtet, dass Proben und Daten unkontrolliert verwendet werden und sensible Bereiche des Persönlichkeitsrechts und der persönlichen Identität betroffen sind. Diese Gefahren und Befürchtungen sind nicht neu, sondern bestanden schon in der Vergangenheit bei jeglicher Form der Spende von Körpersubstanzen. Neu ist aber der Umfang an Informationen, der durch die Genanalyse entsteht und den Spender in ganz besonderer Weise betreffen kann. Bei der Speicherung und Nutzung der medizinischen und genetischen Daten ergibt sich somit ein Spannungsfeld insbesondere zwischen dem Recht der betroffenen Datenspender auf informationelle Selbstbestimmung und den Forschungsinteressen der Datennutzer. Im Kern dreht sich die ethisch-rechtliche Bewertung der Biobanken um die Frage, ob diese Forschung zusätzliche Regeln braucht, und falls ja, wie umfassend diese sein müssten. Im Zentrum dieser Diskussion stehen dabei v.a. ethische Fragen im Zusammenhang mit der informierten Einwilligung, dem Datenschutz, der Wiederverwendung von Proben und Daten, der Information der Spender über Forschungsergebnisse und der Nutzungsrechte an den Daten. Ziel dieser Arbeit ist es, vor dem Hintergrund des Verfassungsrechts, insbesondere dem Recht auf informationelle Selbstbestimmung, das Datenschutzrecht im Hinblick auf die Risiken zu untersuchen, die sich aus der Speicherung, Verarbeitung und Kommunikation von persönlichen genetischen Informationen beim Aufbau von Biobanken ergeben. Daraus ergibt sich die weitere Untersuchung, ob und unter welchen Voraussetzungen die sich entgegenstehenden Interessen und Rechte aus verfassungsrechtlichem Blickwinkel in Einklang zu bringen sind. Eine wesentliche Frage lautet, ob die bisherigen rechtlichen Rahmenbedingungen ausreichen, um den Schutz der gespeicherten höchstpersönlichen Daten und zugleich ihre angemessene Nutzung zu gewährleisten. Das Thema ist interdisziplinär im Schnittfeld von Datenschutz, Verfassungsrecht sowie Rechts- und Medizinethik angelegt. Aus dem Inhalt: Naturwissenschaftliche und empirische Grundlagen von Biobanken – Überblick über Biobankprojekte in Europa und im außereuropäischen Ausland – Rechtsgrundlagen für Biobanken - Recht auf informationelle Selbstbestimmung - Recht auf Nichtwissen - Forschungsfreiheit - Qualitätssicherung und Verfahren – informierte Einwilligung – globale Einwilligung - Datenschutzkonzepte - Forschungsgeheimnis –– Biobankgeheimnis - Biobankgesetz