252 resultados para Nutzung


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Hypernuclear physics is currently attracting renewed interest, due tornthe important role of hypernuclei spectroscopy rn(hyperon-hyperon and hyperon-nucleon interactions) rnas a unique toolrnto describe the baryon-baryon interactions in a unified way and to rnunderstand the origin of their short-range.rnrnHypernuclear research will be one of the main topics addressed by the {sc PANDA} experimentrnat the planned Facility for Antiproton and Ion Research {sc FAIR}.rnThanks to the use of stored $overline{p}$ beams, copiousrnproduction of double $Lambda$ hypernuclei is expected at thern{sc PANDA} experiment, which will enable high precision $gamma$rnspectroscopy of such nuclei for the first time.rnAt {sc PANDA} excited states of $Xi^-$ hypernuclei will be usedrnas a basis for the formation of double $Lambda$ hypernuclei.rnFor their detection, a devoted hypernuclear detector setup is planned. This setup consists ofrna primary nuclear target for the production of $Xi^{-}+overline{Xi}$ pairs, a secondary active targetrnfor the hypernuclei formation and the identification of associated decay products and a germanium array detector to perform $gamma$ spectroscopy.rnrnIn the present work, the feasibility of performing high precision $gamma$rnspectroscopy of double $Lambda$ hypernuclei at the {sc PANDA} experiment has been studiedrnby means of a Monte Carlo simulation. For this issue, the designing and simulation of the devoted detector setup as well as of the mechanism to produce double $Lambda$ hypernuclei have been optimizedrntogether with the performance of the whole system. rnIn addition, the production yields of double hypernuclei in excitedrnparticle stable states have been evaluated within a statistical decay model.rnrnA strategy for the unique assignment of various newly observed $gamma$-transitions rnto specific double hypernuclei has been successfully implemented by combining the predicted energy spectra rnof each target with the measurement of two pion momenta from the subsequent weak decays of a double hypernucleus.rn% Indeed, based on these Monte Carlo simulation, the analysis of the statistical decay of $^{13}_{Lambda{}Lambda}$B has been performed. rn% As result, three $gamma$-transitions associated to the double hypernuclei $^{11}_{Lambda{}Lambda}$Bern% and to the single hyperfragments $^{4}_{Lambda}$H and $^{9}_{Lambda}$Be, have been well identified.rnrnFor the background handling a method based on time measurement has also been implemented.rnHowever, the percentage of tagged events related to the production of $Xi^{-}+overline{Xi}$ pairs, variesrnbetween 20% and 30% of the total number of produced events of this type. As a consequence, further considerations have to be made to increase the tagging efficiency by a factor of 2.rnrnThe contribution of the background reactions to the radiation damage on the germanium detectorsrnhas also been studied within the simulation. Additionally, a test to check the degradation of the energyrnresolution of the germanium detectors in the presence of a magnetic field has also been performed.rnNo significant degradation of the energy resolution or in the electronics was observed. A correlationrnbetween rise time and the pulse shape has been used to correct the measured energy. rnrnBased on the present results, one can say that the performance of $gamma$ spectroscopy of double $Lambda$ hypernuclei at the {sc PANDA} experiment seems feasible.rnA further improvement of the statistics is needed for the background rejection studies. Moreover, a more realistic layout of the hypernuclear detectors has been suggested using the results of these studies to accomplish a better balance between the physical and the technical requirements.rn

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Einleitung: Die Besonderheiten in der Gesundheitsversorgung von gehörlosen Bürgerinnen und Bürgern in Deutschland sind weitgehend unbekannt. Schätzungsweise 41.500 bis zu 80.000 Menschen sind in Deutschland von Geburt an gehörlos oder früh ertaubt. Diese Gehörlosengemeinschaft verwendet vorrangig die Deutsche Gebärdensprache, die seit 2002 per Gesetzgebung als selbstständige Sprache in Deutschland amtlich anerkannt ist. Der Gesetzgeber hat vorgesehen, dass ein von der Krankenversicherung bezahlter Dolmetscher bei einem Arztbesuch bestellt werden kann. Erkenntnisse, inwieweit dies unter den Betroffenen bekannt ist und genutzt wird, liegen nicht vor. Ebenso sind Annahmen, dass gehörlose Patienten in einer vorrangig von Hörenden gestalteten Gesundheitsversorgung mutmaßlich auf Probleme, Barrieren und Vorurteile stoßen, in Deutschland nicht systematisch untersucht. Die vorliegende Arbeit gibt erstmalig anhand eines größeren Studienkollektivs einen sozialmedizinischen Einblick in den Gesundheitsversorgungszustand von Gehörlosen in Deutschland. Methodik: Im Rahmen einer Vorstudie wurden 2009 zunächst qualitative Experteninterviews geführt, um den Zustand der medizinischen Versorgung von Gehörlosen zu explorieren und Problemfelder zu identifizieren. Anschließend wurde für die Hauptstudie auf der Grundlage der Experteninterviews ein quantitativer Online-Fragebogen mit Gebärdensprachvideos entwickelt und erstmalig in der sozialmedizinischen Gehörlosenforschung eingesetzt. Die gehörlosen Teilnehmer wurden über etablierte Internetportale für Gehörlose und mit Hilfe von Gehörlosenverbänden und Selbsthilfegruppen sowie einer Pressemitteilung rekrutiert. Insgesamt wurden den Teilnehmern bis zu 85 Fragen zu sozioökonomischen Daten, Dolmetschernutzung, Arzt-Patienten-Beziehung und häufig auftretenden Problemen gestellt. Es wurden absolute und relative Häufigkeiten bestimmt und mittels Chi2-Test bzw. exaktem Fisher-Test auf geschlechtsspezifische Unterschiede geprüft. Alle Tests wurden zweiseitig mit der lokalen Irrtumswahrscheinlichkeit α = 0,05 durchgeführt. Ergebnisse: Am Ende der Feldphase verzeichnete die automatische Datenbank 1369 vollständig bearbeitete Fragebögen. 843 entsprachen den a-priori definierten Auswertungskriterien (volljährige Personen, gehörlos, keine fehlenden Angaben in wesentlichen Zielfragen). Häufigstes Ausschlusskriterium war ein anderer Hörstatus als Gehörlosigkeit. Etwa die Hälfte der 831 Teilnehmer (45,1% bzw. 52,8%) schätzte trotz ausreichender Schulbildung ihre Lese- bzw. Schreibkompetenz als mäßig bis schlecht ein. Zeitdruck und Kommunikationsprobleme belasteten bei 66,7% und 71,1% der Teilnehmer bereits einmal einen Arztbesuch. Von 56,6% der Teilnehmer wurde angegeben, dass Hilflosigkeits- und Abhängigkeitsgefühle beim Arztbesuch auftraten. Falsche Diagnosen auf Grund von Kommunikationsproblemen wurden von 43,3% der Teilnehmer vermutet. 17,7% der Teilnehmer gaben an, sich bereits einmal aktiv um psychotherapeutische Unterstützung bemüht zu haben. Gebärdensprachkompetente Ärzte wären optimal um die Kommunikation zu verbessern, aber auch Dolmetscher spielen eine große Rolle in der Kommunikation. 31,4% der gehörlosen Teilnehmer gaben jedoch an, nicht über die aktuellen Regelungen zur Kostenübernahme bei Dolmetschereinsätzen informiert zu sein. Dies betraf besonders jüngere, wenig gebildete und stark auf die eigene Familie hin orientierte Gehörlose. Wesentliche geschlechtsspezifische Unterschiede konnten nicht festgestellt werden. Diskussion: Geht man von etwa 80.000 Gehörlosen in Deutschland aus, konnten mit der Mainzer Gehörlosen-Studie etwa 1% aller Betroffenen erreicht werden, wobei Selektionsverzerrungen zu diskutieren sind. Es ist anzunehmen, dass Personen, die nicht mit dem Internet vertraut sind, selten bis gar nicht teilgenommen haben. Hier könnten Gehörlose mit hohem Alter sowie möglicherweise mit niedriger Schreib- und Lesekompetenz besonders betroffen sein. Eine Prüfung auf Repräsentativität war jedoch nicht möglich, da die Grundgesamtheit der Gehörlosen mit sozioökonomischen Eckdaten nicht bekannt ist. Die dargestellten Ergebnisse weisen erstmalig bei einem großen Studienkollektiv Problembereiche in der medizinischen Versorgung von Gehörlosen in Deutschland auf: Gehörlose Patienten laufen Gefahr, ihren Arztbesuch durch vielfältige Kommunikationsbarrieren und Missverständnisse als Zumutung zu erleben. Eine Informationskampagne unter Ärzten könnte helfen, diese Situation zu verbessern. Dolmetscher können die Kommunikation zwischen Arzt und Patient enorm verbessern, die gesetzlich geregelte Kostenübernahme funktioniert dabei in der Regel auch problemlos. Allerdings gibt es noch viele Gehörlose, die nicht über die Regelungen zur Dolmetscherunterstützung informiert sind und die Dienste entsprechend nicht nutzen können. Hier muss es weitere Bemühungen geben, die Gehörlosen aufzuklären, um ihnen eine barrierefreie Nutzung von gesundheitsbezogenen Leistungen zu ermöglichen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Im Zuge dieser Arbeit ist ein Massenspektrometer zur flugzeuggetragenen Messung von HNO3 und HONO auf dem neuen deutschen Forschungsflugzeug HALO aufgebaut worden (AIMS - Atmospheric chemical Ionization Mass Spectrometer). Die Ionisation der HNO3- und HONO-Moleküle erfolgt chemisch durch Reaktion mit SF5- -Ionen. Basierend auf den Ergebnissen von Laborversuchen wurden die Betriebsparameter optimiert, die Einzelkomponenten im HALO-Rack zusammengestellt und eine Einlassleitung entworfen, die Wandeffekte minimiert und Untergrundmessungen und HNO3-Kalibrationen im Flug ermöglicht. Die Empfindlichkeit der Messung von HNO3 und HONO wurde ebenso im Labor untersucht wie Interferenzen mit Wasserdampf und Ozon. Die HONO-Vergleichskampagne FIONA am Europäischen Photoreaktor (EUPHORE) in Valencia war die erste Messkampagne mit AIMS. Bei den offenen Vergleichsmessungen stimmten die von AIMS gemessenen HONO-Mischungsverhältnisse innerhalb +-20% mit dem Median von 9 weiteren HONO-Messungen überein. Die ersten flugzeuggetragenen Messungen mit AIMS werden im Verlauf der HALO-Missionen ML-CIRRUS und TACTS stattfinden. Neben dem Aufbau und der Charakterisierung von AIMS war die Analyse der Aufnahme von HNO3 in Eispartikel von Kondensstreifen und Zirren Gegenstand dieser Arbeit. Die Aufnahme von HNO3 in Kondensstreifeneispartikel wurde erstmals systematisch anhand einer Flugzeugmesskampagne (CIRRUS-III) untersucht. Während CIRRUS-III im November 2006 wurden Zirren und zufällig knapp 40 persistente Kondensstreifen über Deutschland und Nordeuropa beprobt. Die Messungen fanden in Höhen zwischen 10 und 11.5 km und bei Temperaturen zwischen 210 und 230 K statt. Die HNO3-Konzentration wurde mit Hilfe von NOy-Messungen bestimmt. Im Mittel war in Kondensstreifen ein größerer Anteil des Gesamt-HNO3 in den Eispartikeln gebunden (6 %) als in Zirren (3 %). Das Gasphasenäquivalent des eisgebundenen HNO3 betrug in Zirren durchschnittlich 6 pmol/mol, in Kondensstreifen 14 pmol/mol und in jungen Kondensstreifen (Alter<1 h) 21 pmol/mol. Das Mischungsverhältnis von HNO3 zu H2O in Eispartikeln war in Kondensstreifen leicht höher als in Zirren unter ähnlichen meteorologischen Bedingungen. Ursächlich für die höheren Werte in persistenten Kondensstreifen sind wahrscheinlich die hohen HNO3-Konzentrationen in den Abgasfahnen der Flugzeuge bei der Kondensstreifenbildung. Die beobachtete Abnahme des HNO3/H2O-Molverhältnisses mit zunehmendem Effektivdurchmesser der Eispartikel deutet an, dass die HNO3-Konzentrationen in Eispartikeln von jungen Kondensstreifen durch die Aufnahme von Abgas-HNO3 in die gefrierenden Aerosolpartikel bestimmt wird. Die Konzentrationen in älteren Kondensstreifen werden zunehmend durch das Vergraben von Umgebungs-HNO3 in wachsenden Eispartikeln kontrolliert. Diese Studie leistet einen Beitrag zu einem besseren Prozessverständnis der HNO3-Aufnahme in atmosphärische Eispartikel. Sie motiviert die Nutzung persistenter Kondensstreifen als atmosphärisches Labor zur Untersuchung der Spurengasaufnahme in wachsende Eispartikel.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This thesis concerns artificially intelligent natural language processing systems that are capable of learning the properties of lexical items (properties like verbal valency or inflectional class membership) autonomously while they are fulfilling their tasks for which they have been deployed in the first place. Many of these tasks require a deep analysis of language input, which can be characterized as a mapping of utterances in a given input C to a set S of linguistically motivated structures with the help of linguistic information encoded in a grammar G and a lexicon L: G + L + C → S (1) The idea that underlies intelligent lexical acquisition systems is to modify this schematic formula in such a way that the system is able to exploit the information encoded in S to create a new, improved version of the lexicon: G + L + S → L' (2) Moreover, the thesis claims that a system can only be considered intelligent if it does not just make maximum usage of the learning opportunities in C, but if it is also able to revise falsely acquired lexical knowledge. So, one of the central elements in this work is the formulation of a couple of criteria for intelligent lexical acquisition systems subsumed under one paradigm: the Learn-Alpha design rule. The thesis describes the design and quality of a prototype for such a system, whose acquisition components have been developed from scratch and built on top of one of the state-of-the-art Head-driven Phrase Structure Grammar (HPSG) processing systems. The quality of this prototype is investigated in a series of experiments, in which the system is fed with extracts of a large English corpus. While the idea of using machine-readable language input to automatically acquire lexical knowledge is not new, we are not aware of a system that fulfills Learn-Alpha and is able to deal with large corpora. To instance four major challenges of constructing such a system, it should be mentioned that a) the high number of possible structural descriptions caused by highly underspeci ed lexical entries demands for a parser with a very effective ambiguity management system, b) the automatic construction of concise lexical entries out of a bulk of observed lexical facts requires a special technique of data alignment, c) the reliability of these entries depends on the system's decision on whether it has seen 'enough' input and d) general properties of language might render some lexical features indeterminable if the system tries to acquire them with a too high precision. The cornerstone of this dissertation is the motivation and development of a general theory of automatic lexical acquisition that is applicable to every language and independent of any particular theory of grammar or lexicon. This work is divided into five chapters. The introductory chapter first contrasts three different and mutually incompatible approaches to (artificial) lexical acquisition: cue-based queries, head-lexicalized probabilistic context free grammars and learning by unification. Then the postulation of the Learn-Alpha design rule is presented. The second chapter outlines the theory that underlies Learn-Alpha and exposes all the related notions and concepts required for a proper understanding of artificial lexical acquisition. Chapter 3 develops the prototyped acquisition method, called ANALYZE-LEARN-REDUCE, a framework which implements Learn-Alpha. The fourth chapter presents the design and results of a bootstrapping experiment conducted on this prototype: lexeme detection, learning of verbal valency, categorization into nominal count/mass classes, selection of prepositions and sentential complements, among others. The thesis concludes with a review of the conclusions and motivation for further improvements as well as proposals for future research on the automatic induction of lexical features.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In der eingereichten Arbeit wurde die Nutzung von nicht-wässrigen Emulsionen, bestehend aus zwei organischen, aprotischen Lösungsmitteln, zur Erzeugung verschiedener polymerer Nanopartikel beschrieben. Diese Zweiphasenmischungen und die Verwendung maßgeschneiderter Emulgatoren bestehend aus Poly(isopren-block-methylmethacrylat) ermöglichten den Zugang zu einer Vielzahl an Reaktionen und Prozessen, welche in wässrigen Emulsionen bisher nicht oder nur schwer möglich waren. Die Generierung von Partikeln auf Basis katalytischer Polymerisationen erfolgte unter Verwendung der Ringöffnenden Metathese-Polymerisation (ROMP), der Acyclischen Dien-Metathese-Polymerisation (ADMET), der Cyclopolymerisation von α,ω-Diinen und der Ni-katalysierten Polymerisation von Isocyaniden. Mittels ROMP konnten stabile Dispersionen erzeugt werden, welche Partikel mit verschiedensten Molekulargewichten, Größen und Morphologien enthielten. Diese Eigenschaften konnten durch die Wahl des Monomers, die Katalysatorkonzentration oder den Emulgatortyp beeinflusst werden. Des Weiteren wurden Partikel mit komplexen Morphologien wie Kern-Schale-Strukturen synthetisiert. Dazu erfolgte die Generierung von Partikeln aus Poly(urethan) oder Poly(norbornenderivaten), welche in situ und ohne intermediäre Aufarbeitung mit einer Schale aus Poly(methacrylat) versehen wurden. Der Nachweis dieser Strukturen gelang mittels verschiedener Schwermetall-Markierungsverfahren in der Transmissionselektronenmikroskopie. Schlussendlich erfolgte die Herstellung von hochvernetzten und molekular geprägten Poly(acrylsäure)-Partikeln. Hierbei wurden unterschiedliche pharmakologische Wirkstoffe und Farbstoffe in die Partikel eingebracht, um deren Migrationsverhalten und Wiederanbindung an die Partikel zu untersuchen. Weiterhin wurden die Partikel erfolgreich in Zellaufnahmeexperimenten eingesetzt.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Der Wirkungsquerschnitt der Charmoniumproduktion wurde unter Nutzung der Daten aus pp-Kollisionen bei s^{1/2}=7TeV, die im Jahr 2010 vom Atlas-Experiment am LHC aufgezeichnet wurden, gemessen. Um das notwendige Detektorverständnis zu verbessern, wurde eine Energiekalibration durchgeführt.rnrnrnUnter Nutzung von Elektronen aus Zerfällen des Charmoniums wurde die Energieskala der elektromagnetischen Kalorimeter bei niedrigen Energien untersucht. Nach Anwendung der Kalibration wurden für die Energiemessung im Vergleich mit in Monte-Carlo-Simulationen gemessenen Energien Abweichungen von weniger als 0,5% gefunden.rnrnrnMit einer integrierten Luminosität von 2,2pb^{-1} wurde eine erste Messung des inklusiven Wirkungsquerschnittes für den Prozess pp->J/psi(e^{+}e^{-})+X bei s^{1/2}=7TeV vorgenommen. Das geschah im zugänglichen Bereich für Transversalimpulse p_{T,ee}>7GeV und Rapiditäten |y_{ee}|<2,4. Es wurden differentielle Wirkungsquerschnitte für den Transversalimpuls p_{T,ee} und für die Rapidität |y_{ee}| bestimmt. Integration beider Verteilungen lieferte für den inklusiven Wirkungsquerschnitt sigma(pp-> J/psi X)BR(J/psi->e^{+}e^{-}) die Werte (85,1+/-1,9_{stat}+/-11,2_{syst}+/-2,9_{Lum})nb und (75,4+/-1,6_{stat}+/-11,9_{syst}+/-2,6_{Lum})nb, die innerhalb der Systematik kompatibel sind.rnrnrnVergleiche mit Messungen von Atlas und CMS für den Prozess pp->J/psi(mu^{+}mu^{-})+X zeigten gute Übereinstimmung. Zum Vergleich mit der Theorie wurden Vorhersagen mit verschiedenen Modellen in nächst-zu-führender und mit Anteilen in nächst-zu-nächst-zu-führender Ordnung kombiniert. Der Vergleich zeigt eine gute Übereinstimmung bei Berücksichtigung von Anteilen in nächst-zu-nächst-zu-führender Ordnung.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In the present thesis I examined individual and sex-specific habitat use and site fidelity in the western barbastelle bat, Barbastella barbastellus, using data from a four-year monitoring in a Special Area of Conservation in Rhineland-Palatinate, Germany. The western barbastelle occurs in central and southern Europe from Portugal to the Caucasus, but is considered to be rare in large parts of its range. Up to now, long-term field studies to assess interannual site fidelity and the possible effects of intra- and interspecific competition have not been studied in this species. Nevertheless, such data provide important details to estimate the specific spatial requirements of its populations, which in turn can be incorporated in extended conservation actions. I used radio-telemetry, home range analyses und automated ultrasound detection to assess the relation between landscape elements and western barbastelle bats and their roosts. In addition, I estimated the degree of interspecific niche overlap with two selected forest-dwelling bat species, Bechstein's bat (Myotis bechsteinii) and the brown long-eared bat (Plecotus auritus). Intra- and interannual home range overlap analyses of female B. barbastellus revealed that fidelity to individual foraging grounds, i.e. a traditional use of particular sites, seems to effect the spatial distribution of home ranges more than intraspecific competition among communally roosting females. The results of a joint analysis of annual maternity roost selection and flight activities along commuting corridors highlight the necessity to protect roost complexes in conjunction with commuting corridors. Using radio-tracking data and an Euclidean distance approach I quantified the sex-specific and individual habitat use by female and male western barbastelle bats within their home ranges. My data indicated a partial sexual segregation in summer habitats. Females were found in deciduous forest patches and preferably foraged along linear elements within the forest. Males foraged closer to forest edges and in open habitats. Finally, I examined the resource partitioning between the western barbastelle bat and two syntopic bat species with a potential for interspecific competition due to similarities in foraging strategies, prey selection and roost preferences. Simultaneous radio-tracking of mixed-species pairs revealed a partial spatial separation of the three syntopic bat species along a gradient from the forest to edge habitats and open landscape. Long-eared bats were found close to open habitats which were avoided by the other two species. B. barbastellus preferred linear landscape elements (edge habitats) and forests, M. bechsteinii also preferred forest habitats. Only little overlap in terms of roost structure and tree species selection was found.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Im Wintersemester 2009/2010 und im Sommersemester 2010 wurde am Institut für Soziologie der Johannes Gutenberg-Universität Mainz unter unserer Leitung eine mündliche standardisierte Befragung durchgeführt, das sich mit der Nutzung und Bewertung des bibliothekarischen Angebotes dieser Universität durch die Studierenden beschäftigte. Aus der Grundgesamtheit der Studierenden im Wintersemester 2009/2010 wurde anhand einer Quotenauswahl eine Stichprobe im Umfang von n = 453 bestimmt.rnFolgende Untersuchungsergebnisse sind hervorzuheben:rnZu Studienzwecken arbeiten die Studierenden bevorzugt zu Hause und nicht in einer Bibliothek oder in einem anderen Arbeitsraum der Universität.rnDie unterschiedlichen elektronischen Angebote der Bibliothek, die allen Studierenden zur Verfügung stehen, werden von fast 90% der Studierenden zumindest teilweise wahrgenommen. Die Arbeit am Rechner zu Hause wird technisch durch die elektronischen Angebote der Bibliothek ermöglicht und unterstützt, ebenso die ortsunabhängige Benutzung eines Laptops.rnLob für die Bibliothek gibt es besonders für den Sachverstand der Bibliotheksmitarbeiter, die langen Öffnungszeiten und das reibungslose Funktionieren des Ausleihprozesses. Gleichfalls hervorgehoben wird die Qualität elektronischer Dienstleistungen (Reader-Plus, E-Mail-Erinnerungsservice, Verlängerungs- und Vormerkungsservice). rnKritik äußern viele Studierende an der mangelnden Aktualität der Buchbestände und an der zu geringen Anzahl an Buchexemplaren bei Werken, die zur Standardliteratur ihres Faches gehören. Häufig wird gefordert, dass der Anteil der ausleihbaren Bücher zu Lasten des Präsenzbestandes vergrößert werden sollte. Gewünscht werden ebenfalls eine ‚Modernisierung‘ von Arbeitsräumen und eine Erweiterung der Arbeitsplätze insbesondere für Arbeitsgruppen. Zusätzlich sollten nach Auffassung vieler Studierender innerhalb der Bibliothek Aufenthaltsräume für die Erholung und Kommunikation in Pausen geschaffen werden. Allgemein zeigt sich, dass beim Aufenthalt in den Bibliotheken nicht nur auf Funktionalität Wert gelegt wird.rn

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Elektronen in wasserstoff- und lithium-ähnlichen schweren Ionen sind den extrem starken elektrischen und magnetischen Feldern in der Umgebung des Kerns ausgesetzt. Die Laserspektroskopie der Hyperfeinaufspaltung im Grundzustand des Ions erlaubt daher einen sensitiven Test der Quantenelektrodynamik in starken Feldern insbesondere im magnetischen Sektor. Frühere Messungen an wasserstoffähnlichen Systemen die an einer Elektronenstrahl-Ionenfalle (EBIT) und am Experimentierspeicherring (ESR) der GSI Darmstadt durchgeführt wurden, waren in ihrer Genauigkeit durch zu geringe Statistik, einer starken Dopplerverbreiterung und der großen Unsicherheit in der Ionenenergie limitiert. Das ganze Potential des QED-Tests kann nur dann ausgeschöpft werden, wenn es gelingt sowohl wasserstoff- als auch lithium-ähnliche schwere Ionen mit einer um 2-3 Größenordnung gesteigerten Genauigkeit zu spektroskopieren. Um dies zu erreichen, wird gegenwärtig das neue Penningfallensystem SPECTRAP an der GSI aufgebaut und in Betrieb genommen. Es ist speziell für die Laserspektroskopie an gespeicherten hochgeladenen Ionen optimiert und wird in Zukunft von HITRAP mit nierderenergetischen hochgeladenen Ionen versorgt werden.rnrnSPECTRAP ist eine zylindrische Penningfalle mit axialem Zugang für die Injektion von Ionen und die Einkopplung eines Laserstrahls sowie einem radialen optischen Zugang für die Detektion der Fluoreszenz. Um letzteres zu realisieren ist der supraleitende Magnet als Helmholtz-Spulenpaar ausgelegt. Um die gewünschte Genauigkeit bei der Laserspektroskopie zu erreichen, muss ein effizienter und schneller Kühlprozess für die injizierten hochegeladenen Ionen realisiert werden. Dies kann mittels sympathetischer Kühlung in einer lasergekühlten Wolke leichter Ionen realisiert werden. Im Rahmen dieser Arbeit wurde ein Lasersystem und eine Ionenquelle für die Produktion einer solchen 24Mg+ Ionenwolke aufgebaut und erfolgreich an SPECTRAP in Betrieb genommen. Dazu wurde ein Festkörperlasersystem für die Erzeugung von Licht bei 279.6 nm entworfen und aufgebaut. Es besteht aus einem Faserlaser bei 1118 nm der in zwei aufeinanderfolgenden Frequenzverdopplungsstufen frequenzvervierfacht wird. Die Verdopplerstufen sind als aktiv stabilisierte Resonantoren mit nichtlinearen Kristallen ausgelegt. Das Lasersystem liefert unter optimalen Bedingeungen bis zu 15 mW bei der ultravioletten Wellenlänge und erwies sich während der Teststrahlzeiten an SPECTRAP als ausgesprochen zuverlässig. Desweiteren wurde eine Ionequelle für die gepulste Injektion von Mg+ Ionen in die SPECTRAP Falle entwickelt. Diese basiert auf der Elektronenstoßionisation eines thermischen Mg-Atomstrahls und liefert in der gepulsten Extraktion Ionenbündel mit einer kleinen Impuls- und Energieverteilung. Unter Nutzung des Lasersystems konnten damit an SPECTRAP erstmals Ionenwolken mit bis zu 2600 lasergekühlten Mg Ionen erzeugt werden. Der Nachweis erfolgte sowohl mittels Fluoreszenz als auch mit der FFT-ICR Technik. Aus der Analyse des Fluoreszenz-Linienprofils lässt sich sowohl die Sensitivität auf einzelne gespeicherte Ionen als auch eine erreichte Endtemperatur in der Größenordnung von ≈ 100 mK nach wenigen Sekunden Kühlzeit belegen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Als ein vielversprechendes Konzept zur Erhöhung der thermoelektrischen Effizienz wird seit Anfang der 90er Jahre die Nutzung niederdimensionaler Systeme angesehen. Aus theoretischen Arbeiten von Hicks und Dresselhaus folgt, dass in ein- und zweidimensionalen Systemen eine Erhöhung der thermoelektrischen Effizienz möglich ist, die einen Durchbruch für die Anwendung thermoelektrischer Wandler zur Folge haben könnte. Die Realisierung solcher niederdimensionaler Systeme ist in geeigneten Mehrlagenstrukturen und durch Verwendung von Halbleiterverbindungen mit unterschiedlicher Energiebandlücke möglich. Ziel des Verbundprojektes Nitherma war es Mehrfachschichtsysteme mit 2-dimensionalem Transportverhalten aus thermoelektrischen Materialien (Pb1-xSrxTe, Bi2(SexTe1-x)3) herzustellen und auf die erwartete hohe thermoelektrische Effizienz zu untersuchen. Diese wurde messtechnischrndurch die Bestimmung der elektrischen Leitfähigkeit, des Seebeck-Koeffizienten und der Wärmeleitfähigkeit parallel zu den Schichtebenen (in-plane-Transporteigenschaft) ermittelt. Ziel dieser Arbeit war einerseits die Verbesserung der Präparations- und Messtechnik bei der Untersuchung der Wärmeleitfähigkeit von Schichten und Schichtsystemen sowie die Demonstration der Reproduzierbarkeit, andererseits die Interpretation der an niederdimensionalen Strukturen ermittelten Transportmessungen. Um den Einfluß der Niederdimensionalität auf die Wärmeleitfähigkeit zu ermitteln, wurden umfangreiche Messungen an unterschiedlich dimensionierten Übergitter- und Multi-Quantum-Well-Strukturen (MQW-Strukturen) durchgeführt. Die Verifizierung der von den Projektpartnern durchgeführten Transportmessungen wurde durch die Messung des Seebeck-Koeffizienten unterstützt.Neben der Charakterisierung durch Transportmessungen erfolgte die Bestimmung der thermoelektrischen Effizienz.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Innerhalb des Untersuchungsgebiets Schleswig-Holstein wurden 39.712 topographische Hohlformen detektiert. Genutzt wurden dazu ESRI ArcMap 9.3 und 10.0. Der Datenaufbereitung folgten weitere Kalkulationen in MATLAB R2010b. Jedes Objekt wurde räumlich mit seinen individuellen Eigenschaften verschnitten. Dazu gehörten Fläche, Umfang, Koordinaten (Zentroide), Tiefe und maximale Tiefe der Hohlform und Formfaktoren wie Rundheit, Konvexität und Elongation. Ziel der vorgestellten Methoden war die Beantwortung von drei Fragestellungen: Sind negative Landformen dazu geeignet Landschaftseinheiten und Eisvorstöße zu unterscheiden und zu bestimmen? Existiert eine Kopplung von Depressionen an der rezenten Topographie zu geologischen Tiefenstrukturen? Können Senken unterschiedlicher Entstehung anhand ihrer Formcharakteristik unterteilt werden? Die vorgenommene Klassifikation der großen Landschaftseinheiten basiert auf der Annahme, dass sowohl Jungmoränengebiete, ihre Vorflächen als auch Altmoränengebiete durch charakteristische, abflusslose Hohlformen, wie Toteislöcher, Seen, etc. abgegrenzt werden können. Normalerweise sind solche Depressionen in der Natur eher selten, werden jedoch für ehemalige Glaziallandschaften als typisch erachtet. Ziel war es, die geologischen Haupteinheiten, Eisvorstöße und Moränengebiete der letzten Vereisungen zu differenzieren. Zur Bearbeitung wurde ein Detektionsnetz verwendet, das auf quadratischen Zellen beruht. Die Ergebnisse zeigen, dass durch die alleinige Nutzung von Depressionen zur Klassifizierung von Landschaftseinheiten Gesamtgenauigkeiten von bis zu 71,4% erreicht werden können. Das bedeutet, dass drei von vier Detektionszellen korrekt zugeordnet werden können. Jungmoränen, Altmoränen, periglazialeVorflächen und holozäne Bereiche können mit Hilfe der Hohlformen mit großer Sicherheit voneinander unterschieden und korrekt zugeordnet werden. Dies zeigt, dass für die jeweiligen Einheiten tatsächlich bestimmte Senkenformen typisch sind. Die im ersten Schritt detektierten Senken wurden räumlich mit weiterreichenden geologischen Informationen verschnitten, um zu untersuchen, inwieweit natürliche Depressionen nur glazial entstanden sind oder ob ihre Ausprägung auch mit tiefengeologischen Strukturen in Zusammenhang steht. 25.349 (63,88%) aller Senken sind kleiner als 10.000 m² und liegen in Jungmoränengebieten und können vermutlich auf glaziale und periglaziale Einflüsse zurückgeführt werden. 2.424 Depressionen liegen innerhalb der Gebiete subglazialer Rinnen. 1.529 detektierte Hohlformen liegen innerhalb von Subsidenzgebieten, von denen 1.033 innerhalb der Marschländer im Westen verortet sind. 919 große Strukturen über 1 km Größe entlang der Nordsee sind unter anderem besonders gut mit Kompaktionsbereichen elsterzeitlicher Rinnen zu homologisieren.344 dieser Hohlformen sind zudem mit Tunneltälern im Untergrund assoziiert. Diese Parallelität von Depressionen und den teils über 100 m tiefen Tunneltälern kann auf Sedimentkompaktion zurückgeführt werden. Ein Zusammenhang mit der Zersetzung postglazialen, organischen Materials ist ebenfalls denkbar. Darüber hinaus wurden in einer Distanz von 10 km um die miozän aktiven Flanken des Glückstadt-Grabens negative Landformen detektiert, die Verbindungen zu oberflächennahen Störungsstrukturen zeigen. Dies ist ein Anzeichen für Grabenaktivität während und gegen Ende der Vereisung und während des Holozäns. Viele dieser störungsbezogenen Senken sind auch mit Tunneltälern assoziiert. Entsprechend werden drei zusammenspielende Prozesse identifiziert, die mit der Entstehung der Hohlformen in Verbindung gebracht werden können. Eine mögliche Interpretation ist, dass die östliche Flanke des Glückstadt-Grabens auf die Auflast des elsterzeitlichen Eisschilds reagierte, während sich subglazial zeitgleich Entwässerungsrinnen entlang der Schwächezonen ausbildeten. Diese wurden in den Warmzeiten größtenteils durch Torf und unverfestigte Sedimente verfüllt. Die Gletschervorstöße der späten Weichselzeit aktivierten erneut die Flanken und zusätzlich wurde das Lockermaterial exariert, wodurch große Seen, wie z. B. der Große Plöner See entstanden sind. Insgesamt konnten 29 große Depressionen größer oder gleich 5 km in Schleswig-Holstein identifiziert werden, die zumindest teilweise mit Beckensubsidenz und Aktivität der Grabenflanken verbunden sind, bzw. sogar auf diese zurückgehen.Die letzte Teilstudie befasste sich mit der Differenzierung von Senken nach deren potentieller Genese sowie der Unterscheidung natürlicher von künstlichen Hohlformen. Dazu wurde ein DEM für einen Bereich im Norden Niedersachsens verwendet, das eine Gesamtgröße von 252 km² abdeckt. Die Ergebnisse zeigen, dass glazial entstandene Depressionen gute Rundheitswerte aufweisen und auch Elongation und Exzentrizität eher kompakte Formen anzeigen. Lineare negative Strukturen sind oft Flüsse oder Altarme. Sie können als holozäne Strukturen identifiziert werden. Im Gegensatz zu den potentiell natürlichen Senkenformen sind künstlich geschaffene Depressionen eher eckig oder ungleichmäßig und tendieren meist nicht zu kompakten Formen. Drei Hauptklassen topographischer Depressionen konnten identifiziert und voneinander abgegrenzt werden: Potentiell glaziale Senken (Toteisformen), Flüsse, Seiten- und Altarme sowie künstliche Senken. Die Methode der Senkenklassifikation nach Formparametern ist ein sinnvolles Instrument, um verschiedene Typen unterscheiden zu können und um bei geologischen Fragestellungen künstliche Senken bereits vor der Verarbeitung auszuschließen. Jedoch zeigte sich, dass die Ergebnisse im Wesentlichen von der Auflösung des entsprechenden Höhenmodells abhängen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die südamerikanischen Staaten Guyana und Suriname sind ehemalige Kolonien, die über gigantische Rohstoffressourcen verfügen. In den Regenwäldern, die die Länder zu 80 - 90% bedecken, lagern Gold und Bauxit und es wachsen wertvolle Hölzer. Außerdem haben beide Länder das Potential für eine touristische Inwertsetzung ihres Landesinneren. rnEbenso vielfältig wie die Ressourcen der Guayanas sind die Interessen daran. International agierende Unternehmen, einheimische Goldsucher sowie Indigene, Naturschützer und Dienstleister aus der Tourismusbranche stellen sich widersprechende Ansprüche an Rohstofflagerstätten sowie an touristisch vermarktbare Landschaft und Natur. Die Regierungen stehen vor der Herausforderung, die politischen Rahmenbedingungen für die Nutzung der Ressourcen des Regenwaldes festzulegen. rnDie vorliegende empirische Studie analysiert vergleichend die Motivationen der Akteure und den Einfluss von Institutionen auf die Akteure in den unterschiedlichen politischen Systemen der Staaten Guyana und Suriname. Um die Strategien der Akteure zu verstehen, wird geklärt, welche institutionelle und länderspezifische Regelungssysteme – formeller und informeller Art – die Akteure beeinflussen und inwiefern sich dabei der Einfluss der kolonialen Vergangenheit beider Staaten bemerkbar macht. rnIm Fokus der Untersuchung stehen Akteure, die an der Inwertsetzung des Regenwaldes durch Bergbau, Forstwirtschaft und (Natur-)Tourismus auf lokaler Ebene beteiligt sind sowie länderspezifischen Institutionen, die den Handlungsrahmen für diese Akteure definieren. rn

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Zweidimensionale Flüssigkeiten harter Scheiben sind in der Regel einfach zu simulieren, jedoch überraschend schwer theoretisch zu beschreiben. Trotz ihrer hohen Relevanz bleiben die meisten theoretischen Ansätze qualitativ. Hier wird eine Dichtefunktionaltheorie (DFT) vorgestellt, die erstmalig die Struktur solcher Flüssigkeiten bei hohen Dichten korrekt beschreibt und den Ansatz des Gefrierübergangs abbildet.rnEs wird gezeigt, dass der Ansatz der Fundamentalmaßtheorie zu einem solchen Funktional führt. Dabei werden sowohl Dichteverteilungen um ein Testteilchen als auch Zweiteilchen-Korrelationsfunktionen untersucht.rnGrafikkarten bieten sehr hohe Recheneffizienz und ihr Einsatz in der Wissenschaft nimmt stetig zu. In dieser Arbeit werden die Vor- und Nachteile der Grafikkarte für wissenschaftliche Berechnungen erörtert und es wird gezeigt, dass die Berechnung der DFT auf Grafikkarten effizient ausgeführt werden kann. Es wird ein Programm entwickelt, dass dies umsetzt. Dabei wird gezeigt, dass die Ergebnisse einfacher (bekannter) Funktionale mit denen von CPU-Berechnungen übereinstimmen, so dass durch die Nutzung der Grafikkarte keine systematischen Fehler zu erwarten sind.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Forschungsarbeit siedelt sich im Dreieck der Erziehungswissenschaften, der Informatik und der Schulpraxis an und besitzt somit einen starken interdisziplinären Charakter. Aus Sicht der Erziehungswissenschaften handelt es sich um ein Forschungsprojekt aus den Bereichen E-Learning und Multimedia Learning und der Fragestellung nach geeigneten Informatiksystemen für die Herstellung und den Austausch von digitalen, multimedialen und interaktiven Lernbausteinen. Dazu wurden zunächst methodisch-didaktische Vorteile digitaler Lerninhalte gegenüber klassischen Medien wie Buch und Papier zusammengetragen und mögliche Potentiale im Zusammenhang mit neuen Web2.0-Technologien aufgezeigt. Darauf aufbauend wurde für existierende Autorenwerkzeuge zur Herstellung digitaler Lernbausteine und bestehende Austauschplattformen analysiert, inwieweit diese bereits Web 2.0-Technologien unterstützen und nutzen. Aus Sicht der Informatik ergab sich aus der Analyse bestehender Systeme ein Anforderungsprofil für ein neues Autorenwerkzeug und eine neue Austauschplattform für digitale Lernbausteine. Das neue System wurde nach dem Ansatz des Design Science Research in einem iterativen Entwicklungsprozess in Form der Webapplikation LearningApps.org realisiert und stetig mit Lehrpersonen aus der Schulpraxis evaluiert. Bei der Entwicklung kamen aktuelle Web-Technologien zur Anwendung. Das Ergebnis der Forschungsarbeit ist ein produktives Informatiksystem, welches bereits von tausenden Nutzern in verschiedenen Ländern sowohl in Schulen als auch in der Wirtschaft eingesetzt wird. In einer empirischen Studie konnte das mit der Systementwicklung angestrebte Ziel, die Herstellung und den Austausch von digitalen Lernbausteinen zu vereinfachen, bestätigt werden. Aus Sicht der Schulpraxis liefert LearningApps.org einen Beitrag zur Methodenvielfalt und zur Nutzung von ICT im Unterricht. Die Ausrichtung des Werkzeugs auf mobile Endgeräte und 1:1-Computing entspricht dem allgemeinen Trend im Bildungswesen. Durch die Verknüpfung des Werkzeugs mit aktuellen Software Entwicklungen zur Herstellung von digitalen Schulbüchern werden auch Lehrmittelverlage als Zielgruppe angesprochen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Diese Arbeit beschreibt zum ersten Mal die kovalente Verknüpfung organischer Moleküle auf einer Isolatoroberfläche, motiviert im Hinblick auf die Nutzung der Synthesemethode für die molekulare Elektronik und verwandte Anwendungen. Durch die Verwendung der Nichtkontakt-Rasterkraftmikroskopie und der Kelvinprobe-Mikroskopie bei Raumtemperatur wurden grundlegende molekulare Prozesse der Wechselwirkungen zwischen Molekülen und der Calcit(10.4) Oberfläche sowie die chemische Reaktivität der Moleküle auf der Oberfläche analysiert. Das Zusammenspiel zwischen intermolekularen und Molekül-Oberfläche Wechselwirkungen zeigt sich für Biphenyl-4,4'-dicarbonsäure (BPDCA) durch die Koexistenz zweier unterschiedlicher molekularer Strukturen, die einen Einblick in die treibenden Kräfte der molekularen Selbstorganisation bieten. Die sehr ausgeprägte Reihenstruktur basiert auf der optimalen geometrischen Struktur der BPDCA Moleküle zu den Abmessungen des Substrats, während die zweite Struktur durch Wasserstoffbrücken zwischen den Molekülen gekennzeichnet ist. Der Deprotonierungsvorgang von 2,5-Dihydroxybenzoesäure (DHBA)-Molekülen auf Calcit wird bei Zimmertemperatur gezeigt. Zwei Phasen werden beobachtet, die nach Aufbringen der Moleküle koexistieren. Mit der Zeit geht eine bulk-ähnliche Phase in eine stabile, dicht gepackte Phase über. Der Übergang wird durch Betrachtung des Protonierungszustands der Moleküle erklärt. Die bulk-ähnliche Phase benötigt Wasserstoffbrückbindungen zur Strukturbildung. Werden die Moleküle deprotoniert, so wird die resultierende dicht gepackte Phase durch die elektrostatische Wechselwirkung der deprotonierten Carboxylatgruppen mit den Oberflächen-Calciumkationen stabilisiert. 4-Iodbenzoesäure (IBA)-Moleküle bilden auf Calcit nur Inseln an Stufenkanten, was auf die schwache Molekül-Oberflächen-Wechselwirkung zurückzuführen ist. Für einen stärkeren Einfluss des Substrats durchlaufen die Moleküle einen kontrollierten Übergangsschritt vom protonierten zum deprotonierten Zustand. Im deprotonierten Zustand nehmen die Moleküle eine wohldefinierte Adsorptionsposition auf dem Substrat ein. Die deprotonierte Säuregruppe wird ausgenutzt, um die Desorption der halogensubstituierten Benzoesäure-Moleküle bei der thermischer Aktivierung für die Vernetzungsreaktion zu vermeiden. Darüber hinaus wird die Carboxylatgruppe als starker Elektronendonor verwendet um die Phenyl-Halogen-Bindung zu schwächen und somit die homolytische Spaltung dieser Bindung auch bei moderaten Temperaturen zu ermöglichen. Diesem Konzept folgend ist die erste erfolgreiche kovalente Verknüpfung von 2,5-Diiod-benzoesäure, 2,5-Dichlorbenzoesäure, 3,5-Diiod Salicylsäure und 4-Iod-benzoesäure zu durchkonjugierten molekularen Drähten, Zick-Zack-Strukturen sowie Dimere gezeigt durch Ausnutzen von unterschiedlichen Substitutionsposition sowie Ändern der Anzahl der substituierten Halogenatome. Aufbauend auf diesem Erfolg, wird eine zweistufige Vernetzungsreaktion vorgestellt. Zum Induzieren der ortsspezifischen und sequentiellen kovalenten Verknüpfung wird ein Ausgangsmolekül gewählt, das sowohl eine Bromphenyl als auch eine Chlorphenyl Gruppe mit unterschiedlichen Dissoziationsenergien für die homolytische Spaltung besitzt. Die Reaktionsstellen und sequentielle Reihenfolge für die Reaktion sind somit in der molekularen Struktur einkodiert und bisher unerreichte Reaktionspfade können mithilfe der kovalente Verknüpfung organischer Moleküle auf einer Isolatoroberfläche beschritten werden.