863 resultados para ungdomar, tionde läsåret, natur, friluftspedagogik, välbefinnande, salutogenes
Resumo:
Es gibt kaum eine präzisere Beschreibung der Natur als die durch das Standardmodell der Elementarteilchen (SM). Es ist in der Lage bis auf wenige Ausnahmen, die Physik der Materie- und Austauschfelder zu beschreiben. Dennoch ist man interessiert an einer umfassenderen Theorie, die beispielsweise auch die Gravitation mit einbezieht, Neutrinooszillationen beschreibt, und die darüber hinaus auch weitere offene Fragen klärt. Um dieser Theorie ein Stück näher zu kommen, befasst sich die vorliegende Arbeit mit einem effektiven Potenzreihenansatz zur Beschreibung der Physik des Standardmodells und neuer Phänomene. Mit Hilfe eines Massenparameters und einem Satz neuer Kopplungskonstanten wird die Neue Physik parametrisiert. In niedrigster Ordnung erhält man das bekannte SM, Terme höherer Ordnung in der Kopplungskonstanten beschreiben die Effekte jenseits des SMs. Aus gewissen Symmetrie-Anforderungen heraus ergibt sich eine definierte Anzahl von effektiven Operatoren mit Massendimension sechs, die den hier vorgestellten Rechnungen zugrunde liegen. Wir berechnen zunächst für eine bestimmte Auswahl von Prozessen zugehörige Zerfallsbreiten bzw. Wirkungsquerschnitte in einem Modell, welches das SM um einen einzigen neuen effektiven Operator erweitertet. Unter der Annahme, dass der zusätzliche Beitrag zur Observablen innerhalb des experimentellen Messfehlers ist, geben wir anhand von vorliegenden experimentellen Ergebnissen aus leptonischen und semileptonischen Präzisionsmessungen Ausschlussgrenzen der neuen Kopplungen in Abhängigkeit von dem Massenparameter an. Die hier angeführten Resultate versetzen Physiker zum Einen in die Lage zu beurteilen, bei welchen gemessenen Observablen eine Erhöhung der Präzision sinnvoll ist, um bessere Ausschlussgrenzen angeben zu können. Zum anderen erhält man einen Anhaltspunkt, welche Prozesse im Hinblick auf Entdeckungen Neuer Physik interessant sind.
Resumo:
In dieser Arbeit wurde die Elektronenemission von Nanopartikeln auf Oberflächen mittels spektroskopischen Photoelektronenmikroskopie untersucht. Speziell wurden metallische Nanocluster untersucht, als selbstorganisierte Ensembles auf Silizium oder Glassubstraten, sowie ferner ein Metall-Chalcogenid (MoS2) Nanoröhren-Prototyp auf Silizium. Der Hauptteil der Untersuchungen war auf die Wechselwirkung von fs-Laserstrahlung mit den Nanopartikeln konzentriert. Die Energie der Lichtquanten war kleiner als die Austrittsarbeit der untersuchten Proben, so dass Ein-Photonen-Photoemission ausgeschlossen werden konnte. Unsere Untersuchungen zeigten, dass ausgehend von einem kontinuierlichen Metallfilm bis hin zu Clusterfilmen ein anderer Emissionsmechanismus konkurrierend zur Multiphotonen-Photoemission auftritt und für kleine Cluster zu dominieren beginnt. Die Natur dieses neuen Mechanismus` wurde durch verschiedenartige Experimente untersucht. Der Übergang von einem kontinuierlichen zu einem Nanopartikelfilm ist begleitet von einer Zunahme des Emissionsstroms von mehr als eine Größenordnung. Die Photoemissions-Intensität wächst mit abnehmender zeitlicher Breite des Laserpulses, aber diese Abhängigkeit wird weniger steil mit sinkender Partikelgröße. Die experimentellen Resultate wurden durch verschiedene Elektronenemissions-Mechanismen erklärt, z.B. Multiphotonen-Photoemission (nPPE), thermionische Emission und thermisch unterstützte nPPE sowie optische Feldemission. Der erste Mechanismus überwiegt für kontinuierliche Filme und Partikel mit Größen oberhalb von mehreren zehn Nanometern, der zweite und dritte für Filme von Nanopartikeln von einer Größe von wenigen Nanometern. Die mikrospektroskopischen Messungen bestätigten den 2PPE-Emissionsmechanismus von dünnen Silberfilmen bei „blauer“ Laseranregung (hν=375-425nm). Das Einsetzen des Ferminiveaus ist relativ scharf und verschiebt sich um 2hν, wenn die Quantenenergie erhöht wird, wogegen es bei „roter“ Laseranregung (hν=750-850nm) deutlich verbreitert ist. Es zeigte sich, dass mit zunehmender Laserleistung die Ausbeute von niederenergetischen Elektronen schwächer zunimmt als die Ausbeute von höherenergetischen Elektronen nahe der Fermikante in einem Spektrum. Das ist ein klarer Hinweis auf eine Koexistenz verschiedener Emissionsmechanismen in einem Spektrum. Um die Größenabhängigkeit des Emissionsverhaltens theoretisch zu verstehen, wurde ein statistischer Zugang zur Lichtabsorption kleiner Metallpartikel abgeleitet und diskutiert. Die Elektronenemissionseigenschaften bei Laseranregung wurden in zusätzlichen Untersuchungen mit einer anderen Anregungsart verglichen, der Passage eines Tunnelstroms durch einen Metall-Clusterfilm nahe der Perkolationsschwelle. Die elektrischen und Emissionseigenschaften von stromtragenden Silberclusterfilmen, welche in einer schmalen Lücke (5-25 µm Breite) zwischen Silberkontakten auf einem Isolator hergestellt wurden, wurden zum ersten Mal mit einem Emissions-Elektronenmikroskop (EEM) untersucht. Die Elektronenemission beginnt im nicht-Ohmschen Bereich der Leitungsstrom-Spannungskurve des Clusterfilms. Wir untersuchten das Verhalten eines einzigen Emissionszentrums im EEM. Es zeigte sich, dass die Emissionszentren in einem stromleitenden Silberclusterfilm Punktquellen für Elektronen sind, welche hohe Emissions-Stromdichten (mehr als 100 A/cm2) tragen können. Die Breite der Energieverteilung der Elektronen von einem einzelnen Emissionszentrum wurde auf etwa 0.5-0.6 eV abgeschätzt. Als Emissionsmechanismus wird die thermionische Emission von dem „steady-state“ heißen Elektronengas in stromdurchflossenen metallischen Partikeln vorgeschlagen. Größenselektierte, einzelne auf Si-Substraten deponierte MoS2-Nanoröhren wurden mit einer Flugzeit-basierten Zweiphotonen-Photoemissions-Spektromikroskopie untersucht. Die Nanoröhren-Spektren wiesen bei fs-Laser Anregung eine erstaunlich hohe Emissionsintensität auf, deutlich höher als die SiOx Substratoberfläche. Dagegen waren die Röhren unsichtbar bei VUV-Anregung bei hν=21.2 eV. Eine ab-initio-Rechnung für einen MoS2-Slab erklärt die hohe Intensität durch eine hohe Dichte freier intermediärer Zustände beim Zweiphotonen-Übergang bei hν=3.1 eV.
Resumo:
This dissertation is devoted to the experimental exploration of the propagation of elastic waves in soft mesoscopic structures with submicrometer dimensions. A strong motivation of this work is the large technological relevance and the fundamental importance of the subject. Elastic waves are accompanied by time-dependent fluctuations of local stress and strain fields in the medium. As such, the propagation phase velocities are intimately related to the elastic moduli. Knowledge of the elastic wave propagation directly provides information about the mechanical properties of the probed mesoscopic structures, which are not readily accessible experimentally. On the other hand, elastic waves, when propagating in an inhomogeneous medium with spatial inhomogeneities comparable to their wavelength, exhibit rather rich behavior, including the appearance of novel physical phenomena, such as phononic bandgap formation. So far, the experimental work has been restricted to macroscopic structures, which limit wave propagation below the KHz range. It was anticipated that an experimental approach capable of probing the interplay of the wave propagation with the controlled mesoscopic structures would contribute to deeper insights into the fundamental problem of elastic wave propagation in inhomogeneous systems. The mesoscopic nature of the structures to be studied precludes the use of traditional methods, such as sound transmission, for the study of elastic wave propagation. In this work, an optical method utilizing the inelastic scattering of photons by GHz frequency thermally excited elastic waves, known as Brillouin light scattering spectroscopy (BLS), was employed. Two important classes of soft structures were investigated: thin films and colloidal crystals. For the former, the main interest was the effect of the one-dimensional (1D) confinement on the wave propagation due to the presence of the free-surface or interface of the layer and the utilization of these waves to extract relevant material parameters. For the second system, the primary interest was the interaction of the elastic wave and the strong scattering medium with local resonance units in a three-dimensional (3D) periodic arrangement.
Resumo:
Diese Arbeit charakterisiert die Funktion und das Expressionmuster der beiden Zinkfinger-Homöodomänentranskriptionsfaktoren zfh1 und zfh2 von Drosophila melanogaster. Das zfh2 Gen wurde hierbei vor allem molekular charakterisiert. Es wurden eine Vielzahl möglicher Spleißformen identifiziert, welche das regulatorische Potential von Zfh2 enorm erweitern. Für Überexpressionsexperimente wurde zudem erstmalig die cDNA des längsten zfh2-Transkriptes kloniert. Durch Analysen an zfh1 Mutanten konnte gezeigt werden, dass zfh1 sowohl notwendig ist für die embryonale Entwicklung von Motoneuronen, als auch das larvale Wachstum motoneuronaler Endplatten reguliert. Wegen weit reichender pleiotroper Effekte, die zfh1 Funktionsverlustmutanten haben, war es notwendig, neben dem Einsatz hypomorpher Allele auf die Analyse genetischer Mosaike auszuweichen. Die als MARCM-Technik (Lee und Luo, 1999) bezeichnete Methode zur Erzeugung genetischer Mosaike wurde modifiziert um in dieser Arbeit erstmals für die Analyse mutanter larvaler Motoneurone eingesetzt werden zu können. Weitergehend konnte gezeigt werden, dass Zfh1 notwendig ist für die larvale Expression des Neuropeptides FMRFamid. Anhand von Sequenzvergleichen und durch Verwendung eines fmrfamid-Promoterkonstruktes (Benveniste et al., 1998) konnten Hinweise dafür gesammelt werden, dass die Zfh1-abhängige Regulation sehr wahrscheinlich direkter Natur ist. Bei fmrfamid handelt es sich somit um das erste identifizierte neurale Zielgen von Zfh1, an dem sich zudem modellhaft der molekulare Wirkmechanismus von Zfh1 erforschen lässt.
Resumo:
Die Arbeit behandelt das Problem der Skalierbarkeit von Reinforcement Lernen auf hochdimensionale und komplexe Aufgabenstellungen. Unter Reinforcement Lernen versteht man dabei eine auf approximativem Dynamischen Programmieren basierende Klasse von Lernverfahren, die speziell Anwendung in der Künstlichen Intelligenz findet und zur autonomen Steuerung simulierter Agenten oder realer Hardwareroboter in dynamischen und unwägbaren Umwelten genutzt werden kann. Dazu wird mittels Regression aus Stichproben eine Funktion bestimmt, die die Lösung einer "Optimalitätsgleichung" (Bellman) ist und aus der sich näherungsweise optimale Entscheidungen ableiten lassen. Eine große Hürde stellt dabei die Dimensionalität des Zustandsraums dar, die häufig hoch und daher traditionellen gitterbasierten Approximationsverfahren wenig zugänglich ist. Das Ziel dieser Arbeit ist es, Reinforcement Lernen durch nichtparametrisierte Funktionsapproximation (genauer, Regularisierungsnetze) auf -- im Prinzip beliebig -- hochdimensionale Probleme anwendbar zu machen. Regularisierungsnetze sind eine Verallgemeinerung von gewöhnlichen Basisfunktionsnetzen, die die gesuchte Lösung durch die Daten parametrisieren, wodurch die explizite Wahl von Knoten/Basisfunktionen entfällt und so bei hochdimensionalen Eingaben der "Fluch der Dimension" umgangen werden kann. Gleichzeitig sind Regularisierungsnetze aber auch lineare Approximatoren, die technisch einfach handhabbar sind und für die die bestehenden Konvergenzaussagen von Reinforcement Lernen Gültigkeit behalten (anders als etwa bei Feed-Forward Neuronalen Netzen). Allen diesen theoretischen Vorteilen gegenüber steht allerdings ein sehr praktisches Problem: der Rechenaufwand bei der Verwendung von Regularisierungsnetzen skaliert von Natur aus wie O(n**3), wobei n die Anzahl der Daten ist. Das ist besonders deswegen problematisch, weil bei Reinforcement Lernen der Lernprozeß online erfolgt -- die Stichproben werden von einem Agenten/Roboter erzeugt, während er mit der Umwelt interagiert. Anpassungen an der Lösung müssen daher sofort und mit wenig Rechenaufwand vorgenommen werden. Der Beitrag dieser Arbeit gliedert sich daher in zwei Teile: Im ersten Teil der Arbeit formulieren wir für Regularisierungsnetze einen effizienten Lernalgorithmus zum Lösen allgemeiner Regressionsaufgaben, der speziell auf die Anforderungen von Online-Lernen zugeschnitten ist. Unser Ansatz basiert auf der Vorgehensweise von Recursive Least-Squares, kann aber mit konstantem Zeitaufwand nicht nur neue Daten sondern auch neue Basisfunktionen in das bestehende Modell einfügen. Ermöglicht wird das durch die "Subset of Regressors" Approximation, wodurch der Kern durch eine stark reduzierte Auswahl von Trainingsdaten approximiert wird, und einer gierigen Auswahlwahlprozedur, die diese Basiselemente direkt aus dem Datenstrom zur Laufzeit selektiert. Im zweiten Teil übertragen wir diesen Algorithmus auf approximative Politik-Evaluation mittels Least-Squares basiertem Temporal-Difference Lernen, und integrieren diesen Baustein in ein Gesamtsystem zum autonomen Lernen von optimalem Verhalten. Insgesamt entwickeln wir ein in hohem Maße dateneffizientes Verfahren, das insbesondere für Lernprobleme aus der Robotik mit kontinuierlichen und hochdimensionalen Zustandsräumen sowie stochastischen Zustandsübergängen geeignet ist. Dabei sind wir nicht auf ein Modell der Umwelt angewiesen, arbeiten weitestgehend unabhängig von der Dimension des Zustandsraums, erzielen Konvergenz bereits mit relativ wenigen Agent-Umwelt Interaktionen, und können dank des effizienten Online-Algorithmus auch im Kontext zeitkritischer Echtzeitanwendungen operieren. Wir demonstrieren die Leistungsfähigkeit unseres Ansatzes anhand von zwei realistischen und komplexen Anwendungsbeispielen: dem Problem RoboCup-Keepaway, sowie der Steuerung eines (simulierten) Oktopus-Tentakels.
Resumo:
Im Rahmen dieser Arbeit wurden Untersuchungen zur Rückstoßeffekten, sowie Ausheizversuche zur Erforschung struktureller Veränderungen und Änderung der Edelgaskonzentrationen und Ausgasungsmuster in meteoritischen Nanodiamanten durchgeführt. In der ersten Versuchsserie wurden die durch prompte "?"-Strahlung bei Neutronenaktivierung von Brom in terrestrische Detonationsdiamanten und durch den "?"-Zerfall von 22Na in synthetischen und meteoritischen Diamanten verursachten Rückstoßverluste bestimmt. Diese wurden mit theoretischen Verlustwerten, berechnet mit Hilfe der SRIM-Software und der Korngrößenverteilung, verglichen. Im Fall der prompten "?"-Strahlung war der Unterschied signifikant. Hierzu können allerdings systematische Unsicherheiten in den gemessenen Verlusten, wie z.B. unbekannte Br-Verteilung innerhalb der Diamanten beigetragen haben. Die Ergebnisse des zweiten Versuchs bei kleineren Rückstoß-Energien, wie sie auch in der Natur vorkommen würden, zeigten dagegen keinen signifikanten Unterschied. Dies führt zu der Schlussfolgerung, dass weder das „Fehlen“ einiger in Supernovae Typ II gebildeter Radionuklide, wie 26Al, 44Ti, in den Diamanten noch die in einem für die Erklärung des Xe-H vorgeschlagenen Modell benötigte frühzeitige Trennung der Vorläuferkerne stabiler Xe-Isotope von den stabilen Xe-Isotopen durch Rückstoßverluste erklärt werden kann. In der zweiten Versuchsreihe wurden meteoritische Nanodiamantproben bei unterschiedlichen Temperaturen im Vakuum vorgeheizt und danach, um die Heizprodukte zu entfernen, chemisch behandelt. Bei allen Vorheiztemperaturen wurden zwiebelähnliche Strukturen registriert und auch in den nachbehandelten Proben wurden, bedingt durch die wegen Verklumpung der Proben eingeschränkte chemische Behandlung, neben Diamanten unveränderte, oder teilweise zerstörte Umwandlungsprodukte gefunden. Weiterhin wurden Edelgaskonzentrationen und Ausgasungsmuster gemessen, um die durch Vorheizen und chemische Behandlung bedingten Veränderungen im Vergleich zu den Original-Diamanten zu untersuchen. Ein unerwartetes Ergebnis dieser Untersuchungen war, dass die vorgeheizten und chemisch nachbehandelten Proben deutlich niedrigere Ausbeuten im Vergleich zu den nur vorgeheizten zeigten, was darauf hindeutete, dass die während des Vorheizens entstandenen Umwandlungsprodukte, wie z.B. zwiebelähnliche Strukturen, Edelgase zurückhalten konnten, die später (teilweise) durch chemische Behandlung entfernt wurden.
Resumo:
Im Rahmen der Doktorarbeit wurde das umstrittene Thema, ob die elektromagnetischen Felder biologischer Proben klassischer oder nichtklassischer Natur sind, sowohl von der theoretischen, als auch von der experimentellen Seite behandelt. Nach einer ausführlichen theoretischen Abhandlung werden die verschiedenen Möglichkeiten zum Nachweis nichtklassischer Zustände mit dem vorhandenen Messaufbau beschrieben. Diese Methoden wurden experimentell angewendet, führten aber zu keiner klaren Unterscheidung. Deshalb wurden verschiedene Simulationen durchgeführt und deren Ergebnisse diskutiert.
Resumo:
Sowohl in der Natur als auch in der Industrie existieren thermisch induzierte Strömungen. Von Interesse für diese Forschungsarbeit sind dabei die Konvektionen im Erdmantel sowie in den Glasschmelzwannen. Der dort stattfindende Materialtransport resultiert aus Unterschieden in der Dichte, der Temperatur und der chemischen Konzentration innerhalb des konvektierenden Materials. Um das Verständnis für die ablaufenden Prozesse zu verbessern, werden von zahlreichen Forschergruppen numerische Modellierungen durchgeführt. Die Verifikation der dafür verwendeten Algorithmen erfolgt meist über die Analyse von Laborexperimenten. Im Vordergrund dieser Forschungsarbeit steht die Entwicklung einer Methode zur Bestimmung der dreidimensionalen Temperaturverteilung für die Untersuchung von thermisch induzierten Strömungen in einem Versuchsbecken. Eine direkte Temperaturmessung im Inneren des Versuchsmaterials bzw. der Glasschmelze beeinflusst allerdings das Strömungsverhalten. Deshalb wird die geodynamisch störungsfrei arbeitende Impedanztomographie verwendet. Die Grundlage dieser Methode bildet der erweiterte Arrhenius-Zusammenhang zwischen Temperatur und spezifischer elektrischer Leitfähigkeit. Während der Laborexperimente wird ein zähflüssiges Polyethylenglykol-Wasser-Gemisch in einem Becken von unten her erhitzt. Die auf diese Weise generierten Strömungen stellen unter Berücksichtigung der Skalierung ein Analogon sowohl zu dem Erdmantel als auch zu den Schmelzwannen dar. Über mehrere Elektroden, die an den Beckenwänden installiert sind, erfolgen die geoelektrischen Messungen. Nach der sich anschließenden dreidimensionalen Inversion der elektrischen Widerstände liegt das Modell mit der Verteilung der spezifischen elektrischen Leitfähigkeit im Inneren des Versuchsbeckens vor. Diese wird mittels der erweiterten Arrhenius-Formel in eine Temperaturverteilung umgerechnet. Zum Nachweis der Eignung dieser Methode für die nichtinvasive Bestimmung der dreidimensionalen Temperaturverteilung wurden mittels mehrerer Thermoelemente an den Beckenwänden zusätzlich direkte Temperaturmessungen durchgeführt und die Werte miteinander verglichen. Im Wesentlichen sind die Innentemperaturen gut rekonstruierbar, wobei die erreichte Messgenauigkeit von der räumlichen und zeitlichen Auflösung der Gleichstromgeoelektrik abhängt.
Resumo:
Phononische Kristalle sind strukturierte Materialien mit sich periodisch ändernden elastischen Moduln auf der Wellenlängenskala. Die Interaktion zwischen Schallwellen und periodischer Struktur erzeugt interessante Interferenzphänomene, und phononische Kristalle erschließen neue Funktionalitäten, die in unstrukturierter Materie unzugänglich sind. Hypersonische phononische Kristalle im Speziellen, die bei GHz Frequenzen arbeiten, haben Periodizitäten in der Größenordnung der Wellenlänge sichtbaren Lichts und zeigen daher die Wege auf, gleichzeitig Licht- und Schallausbreitung und -lokalisation zu kontrollieren, und dadurch die Realisierung neuartiger akusto-optischer Anordnungen. Bisher bekannte hypersonische phononische Kristalle basieren auf thermoplastischen Polymeren oder Epoxiden und haben nur eingeschränkte thermische und mechanische Stabilität und mechanischen Kontrast. Phononische Kristalle, die aus mit Flüssigkeit gefüllten zylindrischen Kanälen in harter Matrix bestehen, zeigen einen sehr hohen elastischen Kontrast und sind bislang noch unerforscht. In dieser Dissertation wird die experimentelle Untersuchung zweidimensionaler hypersonischer phononischer Kristalle mit hexagonaler Anordnung zylindrischer Nanoporen basierend auf der Selbstorganisation anodischen Aluminiumoxids (AAO) beschrieben. Dazu wird die Technik der hochauflösenden inelastischen Brillouin Lichtstreuung (BLS) verwendet. AAO ist ein vielsetiges Modellsystem für die Untersuchung reicher phononischer Phänomene im GHz-Bereich, die eng mit den sich in den Nanoporen befindlichen Flüssigkeiten und deren Interaktion mit der Porenwand verknüpft sind. Gerichteter Fluss elastischer Energie parallel und orthogonal zu der Kanalachse, Lokalisierung von Phononen und Beeinflussung der phononischen Bandstruktur bei gleichzeitig präziser Kontrolle des Volumenbruchs der Kanäle (Porosität) werden erörtert. Außerdem ermöglicht die thermische Stabilität von AAO ein temperaturabhängiges Schalten phononischer Eigenschaften infolge temperaturinduzierter Phasenübergänge in den Nanoporen. In monokristallinen zweidimensionalen phononischen AAO Kristallen unterscheiden sich die Dispersionsrelationen empfindlich entlang zweier hoch symmetrischer Richtungen in der Brillouinzone, abhängig davon, ob die Poren leer oder gefüllt sind. Alle experimentellen Dispersionsrelationen werden unter Zuhilfenahme theoretische Ergebnisse durch finite Elemente Analyse (FDTD) gedeutet. Die Zuordnung der Verschiebungsfelder der elastischen Wellen erklärt die Natur aller phononischen Moden.
Resumo:
Der Ökotourismus hat sich in den letzten Jahren zu einer Tourismussparte entwickelt, die nicht nur immer mehr Interessenten unter den Nutzern findet, sondern auch vielfältige Forschungsmöglichkeiten eröffnet.rnAus interdisziplinärer Betrachtungsweise kann man sowohl in den Gebieten der Biologie, der Wirtschaft, der Geographie, aber auch der Politik forschend tätig werden. rnDa der Tourismus in den letzten Jahren eine immer größere Bedeutung gerade für Länder mit weitestgehend intakten Naturressourcen erlangt hat, stellt sich die Frage inwieweit die Wirtschaft eines Landes auf diese Einnahmequelle angewiesen ist und ob nicht die ökologischen Belange immer weiter in den Hintergrund treten.rnAus diesem Ansatz heraus erfolgte zunächst eine qualitative und quantitative Bestandsaufnahme, die ein klares Bild vom derzeitigen Zustand in der Region ermöglicht. Darüber hinaus werden im Rahmen der Untersuchungen Zukunftsperspektiven aufgezeigt. Diese sollen verdeutlichen, inwieweit man steuernd in solche dynamischen Entwicklungsprozesse eingreifen kann oder soll.rnDie Schwerpunkte dieser Arbeit liegen in dem Bereich der Befragung von Touristen und in der Ausarbeitung eines digitalen Geländemodells zur späteren Nutzung in einem aufzubauenden Nationalpark-Infozentrum. Auf der Grundlage dieser Untersuchungen wurde ein touristisches Nutzungskonzept entwickelt und auf seine ökologischen Umsetzungschancen hin untersucht. Der Aspekt des Ökotourismus wird einleitend erörtert und definiert. Anschließend werden die Potenziale der norwegischen Tourismuswirtschaft untersucht. Die Befragungsergebnisse sowohl der norwegischen Besucher als auch der ausländischen Touristen werden in verschiedenen Korrelationen näher untersucht.rnEin gesonderter Bereich der Untersuchungen gilt dem Problemfeld des Wildcampings in Norwegen. Die dramatischen Entwicklungen der letzten Jahre rufen immer mehr Aktivisten auf den Plan. Da die Deutschen die größte Besuchergruppe darstellen, wurden innerhalb der Jahre 2003 bis 2006 Einzelinterviews geführt, um einen Überblick über das Übernachtungsverhalten der Deutschen in Norwegen gewinnen zu können. In den vergangenen 10 Jahren sind die deutschen Besucherzahlen in Norwegen leicht rückläufig, während die der Niederländer kontinuierlich steigen.rnAuf diesen Ergebnissen basierend wurden problemzentrierte Interviews mit Wohnmobilreisenden, der größten Gruppe der Individualreisenden, durchgeführt. rnMehr als 600.000 Nächte pro Jahr verbrachten die deutschen Wohnmobilreisenden außerhalb der Campingplätze, was ökologische und ökonomische Auswirkungen hat und nicht mehr mit dem in Norwegen geltenden „Allemansrett“, dem Jedermannsrecht, vereinbar ist. rnGerade die Touristen, die mit dem Wohnmobil reisen, können nur schwer mit anderen Reisenden verglichen werden, da sie mit einer völlig anderen Reiseauffassung mehr oder weniger autark unterwegs sind. Dabei legen sie besonders große Distanzen zurück und haben sich zum Ziel gesetzt, möglichst viel in kurzer Zeit zu sehen und zu erleben. Für alle Touristengruppen wurde untersucht, auf welchem Weg die Informationen für die geplante Reise beschafft wurden. Der Reiseführer ist der hauptsächliche Informationslieferant und ist teilweise für das Verhalten der Urlauber mitverantwortlich. Es konnte festgestellt werden, dass das Image des Landes und die Reisemotive das Reiseverhalten und die Wahrnehmung determinieren. Eine Untersuchung der so genannten Pull- und Push-Faktoren ergab, dass die nahezu noch unberührte Natur, die raue Landschaft sowie Ruhe und Erholung die entscheidenden Pull-Faktoren für Norwegenreisende sind. Dabei überprägt das Image Norwegens als „wildes Naturland“ die Wahrnehmung für verschiedene Problembereiche, die in Norwegen, wie auch in vielen anderen Ländern Europas, durchaus vorhanden sind. rnProblemfelder, wie Landschaftsausbeutung, Wildcamping, reduziertes Konsumverhalten und damit einhergehende rückläufige Besucherzahlen, können aber durch innovative Tourismuskonzepte und neue Reiseformen abgebaut werden. Hierbei sind Medien, wie Reiseführer, Internet und Reisemagazine, in die Pflicht zu nehmen.
Resumo:
Significant interest in nanotechnology, is stimulated by the fact that materials exhibit qualitative changes of properties when their dimensions approach ”finite-sizes”. Quantization of electronic, optical and acoustic energies at the nanoscale provides novel functions, with interests spanning from electronics and photonics to biology. The present dissertation involves the application of Brillouin light scattering (BLS) to quantify and utilize material displacementsrnfor probing phononics and elastic properties of structured systems with dimensions comparable to the wavelength of visible light. The interplay of wave propagation with materials exhibiting spatial inhomogeneities at sub-micron length scales provides information not only about elastic properties but also about structural organization at those length scales. In addition the vector nature of q allows, for addressing the directional dependence of thermomechanical properties. To meet this goal, one-dimensional confined nanostructures and a biological system possessing high hierarchical organization were investigated. These applications extend the capabilities of BLS from a characterization tool for thin films to a method for unravelingrnintriguing phononic properties in more complex systems.
Resumo:
Das Standardmodell der Teilchenphysik, das drei der vier fundamentalen Wechselwirkungen beschreibt, stimmt bisher sehr gut mit den Messergebnissen der Experimente am CERN, dem Fermilab und anderen Forschungseinrichtungen überein. rnAllerdings können im Rahmen dieses Modells nicht alle Fragen der Teilchenphysik beantwortet werden. So lässt sich z.B. die vierte fundamentale Kraft, die Gravitation, nicht in das Standardmodell einbauen.rnDarüber hinaus hat das Standardmodell auch keinen Kandidaten für dunkle Materie, die nach kosmologischen Messungen etwa 25 % unseres Universum ausmacht.rnAls eine der vielversprechendsten Lösungen für diese offenen Fragen wird die Supersymmetrie angesehen, die eine Symmetrie zwischen Fermionen und Bosonen einführt. rnAus diesem Modell ergeben sich sogenannte supersymmetrische Teilchen, denen jeweils ein Standardmodell-Teilchen als Partner zugeordnet sind.rnEin mögliches Modell dieser Symmetrie ist das R-Paritätserhaltende mSUGRA-Modell, falls Supersymmetrie in der Natur realisiert ist.rnIn diesem Modell ist das leichteste supersymmetrische Teilchen (LSP) neutral und schwach wechselwirkend, sodass es nicht direkt im Detektor nachgewiesen werden kann, sondern indirekt über die vom LSP fortgetragene Energie, die fehlende transversale Energie (etmiss), nachgewiesen werden muss.rnrnDas ATLAS-Experiment wird 2010 mit Hilfe des pp-Beschleunigers LHC mit einer Schwerpunktenergie von sqrt(s)=7-10 TeV mit einer Luminosität von 10^32 #/(cm^2*s) mit der Suche nach neuer Physik starten.rnDurch die sehr hohe Datenrate, resultierend aus den etwa 10^8 Auslesekanälen des ATLAS-Detektors bei einer Bunchcrossingrate von 40 MHz, wird ein Triggersystem benötigt, um die zu speichernde Datenmenge zu reduzieren.rnDabei muss ein Kompromiss zwischen der verfügbaren Triggerrate und einer sehr hohen Triggereffizienz für die interessanten Ereignisse geschlossen werden, da etwa nur jedes 10^8-te Ereignisse für die Suche nach neuer Physik interessant ist.rnZur Erfüllung der Anforderungen an das Triggersystem wird im Experiment ein dreistufiges System verwendet, bei dem auf der ersten Triggerstufe mit Abstand die höchste Datenreduktion stattfindet.rnrnIm Rahmen dieser Arbeit rn%, die vollständig auf Monte-Carlo-Simulationen basiert, rnist zum einen ein wesentlicher Beitrag zum grundlegenden Verständnis der Eigenschaft der fehlenden transversalen Energie auf der ersten Triggerstufe geleistet worden.rnZum anderen werden Methoden vorgestellt, mit denen es möglich ist, die etmiss-Triggereffizienz für Standardmodellprozesse und mögliche mSUGRA-Szenarien aus Daten zu bestimmen. rnBei der Optimierung der etmiss-Triggerschwellen für die erste Triggerstufe ist die Triggerrate bei einer Luminosität von 10^33 #/(cm^2*s) auf 100 Hz festgelegt worden.rnFür die Triggeroptimierung wurden verschiedene Simulationen benötigt, bei denen eigene Entwicklungsarbeit eingeflossen ist.rnMit Hilfe dieser Simulationen und den entwickelten Optimierungsalgorithmen wird gezeigt, dass trotz der niedrigen Triggerrate das Entdeckungspotential (für eine Signalsignifikanz von mindestens 5 sigma) durch Kombinationen der etmiss-Schwelle mit Lepton bzw. Jet-Triggerschwellen gegenüber dem bestehenden ATLAS-Triggermenü auf der ersten Triggerstufe um bis zu 66 % erhöht wird.
Resumo:
In the present dissertation we consider Feynman integrals in the framework of dimensional regularization. As all such integrals can be expressed in terms of scalar integrals, we focus on this latter kind of integrals in their Feynman parametric representation and study their mathematical properties, partially applying graph theory, algebraic geometry and number theory. The three main topics are the graph theoretic properties of the Symanzik polynomials, the termination of the sector decomposition algorithm of Binoth and Heinrich and the arithmetic nature of the Laurent coefficients of Feynman integrals.rnrnThe integrand of an arbitrary dimensionally regularised, scalar Feynman integral can be expressed in terms of the two well-known Symanzik polynomials. We give a detailed review on the graph theoretic properties of these polynomials. Due to the matrix-tree-theorem the first of these polynomials can be constructed from the determinant of a minor of the generic Laplacian matrix of a graph. By use of a generalization of this theorem, the all-minors-matrix-tree theorem, we derive a new relation which furthermore relates the second Symanzik polynomial to the Laplacian matrix of a graph.rnrnStarting from the Feynman parametric parameterization, the sector decomposition algorithm of Binoth and Heinrich serves for the numerical evaluation of the Laurent coefficients of an arbitrary Feynman integral in the Euclidean momentum region. This widely used algorithm contains an iterated step, consisting of an appropriate decomposition of the domain of integration and the deformation of the resulting pieces. This procedure leads to a disentanglement of the overlapping singularities of the integral. By giving a counter-example we exhibit the problem, that this iterative step of the algorithm does not terminate for every possible case. We solve this problem by presenting an appropriate extension of the algorithm, which is guaranteed to terminate. This is achieved by mapping the iterative step to an abstract combinatorial problem, known as Hironaka's polyhedra game. We present a publicly available implementation of the improved algorithm. Furthermore we explain the relationship of the sector decomposition method with the resolution of singularities of a variety, given by a sequence of blow-ups, in algebraic geometry.rnrnMotivated by the connection between Feynman integrals and topics of algebraic geometry we consider the set of periods as defined by Kontsevich and Zagier. This special set of numbers contains the set of multiple zeta values and certain values of polylogarithms, which in turn are known to be present in results for Laurent coefficients of certain dimensionally regularized Feynman integrals. By use of the extended sector decomposition algorithm we prove a theorem which implies, that the Laurent coefficients of an arbitrary Feynman integral are periods if the masses and kinematical invariants take values in the Euclidean momentum region. The statement is formulated for an even more general class of integrals, allowing for an arbitrary number of polynomials in the integrand.
Resumo:
In this thesis, the self-assembled functional structure of a broad range of amphiphilic molecular transporters is studied. By employing paramagnetic probe molecules and ions, continuous-wave and pulse electron paramagnetic resonance spectroscopy reveal information about the local structure of these materials from the perspective of incorporated guest molecules. First, the transport function of human serum albumin for fatty acids is in the focus. As suggested by the crystal structure, the anchor points for the fatty acids are distributed asymmetrically in the protein. In contrast to the crystallographic findings, a remarkably symmetric entry point distribution of the fatty acid binding channels is found, which may facilitate the uptake and release of the guest molecules. Further, the metal binding of 1,2,3-triazole modified star-shaped cholic acid oligomers is studied. These biomimetic molecules are able to include and transport molecules in solvents of different polarity. A pre-arrangement of the triazole groups induces a strong chelate-like binding and close contact between guest molecule and metal ion. In absence of a preordering, each triazole moiety acts as a single entity and the binding affinity for metal ions is strongly decreased. Hydrogels based on N-isopropylacrylamide phase separate from water above a certain temperature. The macroscopic thermal collapse of these hydrogels is utilized as a tool for dynamic nuclear polarization. It is shown that a radical-free hyperpolarized solution can be achieved with a spin-labeled gel as separable matrix. On the nanoscale, these hydrogels form static heterogeneities in both structure and function. Collapsed regions protect the spin probes from a chemical decay while open, water-swollen regions act as catalytic centers. Similarly, thermoresponsive dendronized polymers form structural heterogeneities, which are, however, highly dynamic. At the critical temperature, they trigger the aggregation of the polymer into mesoglobules. The dehydration of these aggregates is a molecularly controlled non-equilibrium process that is facilitated by a hydrophobic dendritic core. Further, a slow heating rate results in a kinetically entrapped non-equilibrium state due to the formation of an impermeable dense polymeric layer at the periphery of the mesoglobule.
Resumo:
Die zwischen allen Objekten vorhandenen Wechselwirkungen können repulsiver und attraktiver Natur sein. Bei den attraktiven Kräften kommt der Bestimmung von Dispersionskräften eine besondere Bedeutung zu, da sie in allen kolloidalen Systemen vorhanden sind und entscheidenden Einfluss auf die Eigenschaften und Prozesse dieser Systeme nehmen. Eine der Möglichkeiten, Theorie und Experiment zu verbinden, ist die Beschreibung der London-Van der Waals-Wechselwirkung durch die Hamaker-Konstante, welche durch Berechnungen der Wechselwirkungsenergie zwischen Objekten erhalten werden kann. Für die Beschreibung von Oberflächenphänomenen wie Adhäsion, die in Termen der totalen potentiellen Energie zwischen Partikeln und Substrat beschrieben werden, benötigt man exakt bestimmte Hamaker-Konstanten. In der vorliegenden Arbeit wurde die asymmetrische Fluss Feld-Fluss Fraktionierung in Kombination mit einem auf dem Newton-Algorithmus basierenden Iterationsverfahren zur Bestimmung der effektiven Hamaker-Konstanten verschiedener Nanopartikeln sowie Polystyrollatex-Partikel in Toluol bzw. Wasser verwendet. Der Einfluss verschiedener Systemparameter und Partikeleigenschaften wurde im Rahmen der klassischen DLVO-Theorie untersucht.