10 resultados para one-to-many mapping

em ArchiMeD - Elektronische Publikationen der Universität Mainz - Alemanha


Relevância:

100.00% 100.00%

Publicador:

Resumo:

A one-dimensional multi-component reactive fluid transport algorithm, 1DREACT (Steefel, 1993) was used to investigate different fluid-rock interaction systems. A major short coming of mass transport calculations which include mineral reactions is that solid solutions occurring in many minerals are not treated adequately. Since many thermodynamic models of solid solutions are highly non-linear, this can seriously impact on the stability and efficiency of the solution algorithms used. Phase petrology community saw itself faced with a similar predicament 10 years ago. To improve performance and reliability, phase equilibrium calculations have been using pseudo compounds. The same approach is used here in the first, using the complex plagioclase solid solution as an example. Thermodynamic properties of a varying number of intermediate plagioclase phases were calculated using ideal molecular, Al-avoidance, and non-ideal mixing models. These different mixing models can easily be incorporated into the simulations without modification of the transport code. Simulation results show that as few as nine intermediate compositions are sufficient to characterize the diffusional profile between albite and anorthite. Hence this approach is very efficient, and can be used with little effort. A subsequent chapter reports the results of reactive fluid transport modeling designed to constrain the hydrothermal alteration of Paleoproterozoic sediments of the Southern Lake Superior region. Field observations reveal that quartz-pyrophyllite (or kaolinite) bearing assemblages have been transformed into muscovite-pyrophyllite-diaspore bearing assemblages due to action of fluids migrating along permeable flow channels. Fluid-rock interaction modeling with an initial qtz-prl assemblage and a K-rich fluid simulates the formation of observed mineralogical transformation. The bulk composition of the system evolves from an SiO2-rich one to an Al2O3+K2O-rich one. Simulations show that the fluid flow was up-temperature (e.g. recharge) and that fluid was K-rich. Pseudo compound approach to include solid solutions in reactive transport models was tested in modeling hydrothermal alteration of Icelandic basalts. Solid solutions of chlorites, amphiboles and plagioclase were included as the secondary mineral phases. Saline and fresh water compositions of geothermal fluids were used to investigate the effect of salinity on alteration. Fluid-rock interaction simulations produce the observed mineral transformations. They show that roughly the same alteration minerals are formed due to reactions with both types of fluid which is in agreement with the field observations. A final application is directed towards the remediation of nitrate rich groundwaters. Removal of excess nitrate from groundwater by pyrite oxidation was modeled using the reactive fluid transport algorithm. Model results show that, when a pyrite-bearing, permeable zone is placed in the flow path, nitrate concentration in infiltrating water can be significantly lowered, in agreement with proposals from the literature. This is due to nitrogen reduction. Several simulations investigate the efficiency of systems with different mineral reactive surface areas, reactive barrier zone widths, and flow rates to identify the optimum setup.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

1. Teil: Bekannte Konstruktionen. Die vorliegende Arbeit gibt zunächst einen ausführlichen Überblick über die bisherigen Entwicklungen auf dem klassischen Gebiet der Hyperflächen mit vielen Singularitäten. Die maximale Anzahl mu^n(d) von Singularitäten auf einer Hyperfläche vom Grad d im P^n(C) ist nur in sehr wenigen Fällen bekannt, im P^3(C) beispielsweise nur für d<=6. Abgesehen von solchen Ausnahmen existieren nur obere und untere Schranken. 2. Teil: Neue Konstruktionen. Für kleine Grade d ist es oft möglich, bessere Resultate zu erhalten als jene, die durch allgemeine Schranken gegeben sind. In dieser Arbeit beschreiben wir einige algorithmische Ansätze hierfür, von denen einer Computer Algebra in Charakteristik 0 benutzt. Unsere anderen algorithmischen Methoden basieren auf einer Suche über endlichen Körpern. Das Liften der so experimentell gefundenen Hyperflächen durch Ausnutzung ihrer Geometrie oder Arithmetik liefert beispielsweise eine Fläche vom Grad 7 mit $99$ reellen gewöhnlichen Doppelpunkten und eine Fläche vom Grad 9 mit 226 gewöhnlichen Doppelpunkten. Diese Konstruktionen liefern die ersten unteren Schranken für mu^3(d) für ungeraden Grad d>5, die die allgemeine Schranke übertreffen. Unser Algorithmus hat außerdem das Potential, auf viele weitere Probleme der algebraischen Geometrie angewendet zu werden. Neben diesen algorithmischen Methoden beschreiben wir eine Konstruktion von Hyperflächen vom Grad d im P^n mit vielen A_j-Singularitäten, j>=2. Diese Beispiele, deren Existenz wir mit Hilfe der Theorie der Dessins d'Enfants beweisen, übertreffen die bekannten unteren Schranken in den meisten Fällen und ergeben insbesondere neue asymptotische untere Schranken für j>=2, n>=3. 3. Teil: Visualisierung. Wir beschließen unsere Arbeit mit einer Anwendung unserer neuen Visualisierungs-Software surfex, die die Stärken mehrerer existierender Programme bündelt, auf die Konstruktion affiner Gleichungen aller 45 topologischen Typen reeller kubischer Flächen.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Zeitreihen sind allgegenwärtig. Die Erfassung und Verarbeitung kontinuierlich gemessener Daten ist in allen Bereichen der Naturwissenschaften, Medizin und Finanzwelt vertreten. Das enorme Anwachsen aufgezeichneter Datenmengen, sei es durch automatisierte Monitoring-Systeme oder integrierte Sensoren, bedarf außerordentlich schneller Algorithmen in Theorie und Praxis. Infolgedessen beschäftigt sich diese Arbeit mit der effizienten Berechnung von Teilsequenzalignments. Komplexe Algorithmen wie z.B. Anomaliedetektion, Motivfabfrage oder die unüberwachte Extraktion von prototypischen Bausteinen in Zeitreihen machen exzessiven Gebrauch von diesen Alignments. Darin begründet sich der Bedarf nach schnellen Implementierungen. Diese Arbeit untergliedert sich in drei Ansätze, die sich dieser Herausforderung widmen. Das umfasst vier Alignierungsalgorithmen und ihre Parallelisierung auf CUDA-fähiger Hardware, einen Algorithmus zur Segmentierung von Datenströmen und eine einheitliche Behandlung von Liegruppen-wertigen Zeitreihen.rnrnDer erste Beitrag ist eine vollständige CUDA-Portierung der UCR-Suite, die weltführende Implementierung von Teilsequenzalignierung. Das umfasst ein neues Berechnungsschema zur Ermittlung lokaler Alignierungsgüten unter Verwendung z-normierten euklidischen Abstands, welches auf jeder parallelen Hardware mit Unterstützung für schnelle Fouriertransformation einsetzbar ist. Des Weiteren geben wir eine SIMT-verträgliche Umsetzung der Lower-Bound-Kaskade der UCR-Suite zur effizienten Berechnung lokaler Alignierungsgüten unter Dynamic Time Warping an. Beide CUDA-Implementierungen ermöglichen eine um ein bis zwei Größenordnungen schnellere Berechnung als etablierte Methoden.rnrnAls zweites untersuchen wir zwei Linearzeit-Approximierungen für das elastische Alignment von Teilsequenzen. Auf der einen Seite behandeln wir ein SIMT-verträgliches Relaxierungschema für Greedy DTW und seine effiziente CUDA-Parallelisierung. Auf der anderen Seite führen wir ein neues lokales Abstandsmaß ein, den Gliding Elastic Match (GEM), welches mit der gleichen asymptotischen Zeitkomplexität wie Greedy DTW berechnet werden kann, jedoch eine vollständige Relaxierung der Penalty-Matrix bietet. Weitere Verbesserungen umfassen Invarianz gegen Trends auf der Messachse und uniforme Skalierung auf der Zeitachse. Des Weiteren wird eine Erweiterung von GEM zur Multi-Shape-Segmentierung diskutiert und auf Bewegungsdaten evaluiert. Beide CUDA-Parallelisierung verzeichnen Laufzeitverbesserungen um bis zu zwei Größenordnungen.rnrnDie Behandlung von Zeitreihen beschränkt sich in der Literatur in der Regel auf reellwertige Messdaten. Der dritte Beitrag umfasst eine einheitliche Methode zur Behandlung von Liegruppen-wertigen Zeitreihen. Darauf aufbauend werden Distanzmaße auf der Rotationsgruppe SO(3) und auf der euklidischen Gruppe SE(3) behandelt. Des Weiteren werden speichereffiziente Darstellungen und gruppenkompatible Erweiterungen elastischer Maße diskutiert.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In recent years, new precision experiments have become possible withthe high luminosity accelerator facilities at MAMIand JLab, supplyingphysicists with precision data sets for different hadronic reactions inthe intermediate energy region, such as pion photo- andelectroproduction and real and virtual Compton scattering.By means of the low energy theorem (LET), the global properties of thenucleon (its mass, charge, and magnetic moment) can be separated fromthe effects of the internal structure of the nucleon, which areeffectively described by polarizabilities. Thepolarizabilities quantify the deformation of the charge andmagnetization densities inside the nucleon in an applied quasistaticelectromagnetic field. The present work is dedicated to develop atool for theextraction of the polarizabilities from these precise Compton data withminimum model dependence, making use of the detailed knowledge of pionphotoproduction by means of dispersion relations (DR). Due to thepresence of t-channel poles, the dispersion integrals for two ofthe six Compton amplitudes diverge. Therefore, we have suggested to subtract the s-channel dispersion integrals at zero photon energy($nu=0$). The subtraction functions at $nu=0$ are calculated through DRin the momentum transfer t at fixed $nu=0$, subtracted at t=0. For this calculation, we use the information about the t-channel process, $gammagammatopipito Nbar{N}$. In this way, four of thepolarizabilities can be predicted using the unsubtracted DR in the $s$-channel. The other two, $alpha-beta$ and $gamma_pi$, are free parameters in ourformalism and can be obtained from a fit to the Compton data.We present the results for unpolarized and polarized RCS observables,%in the kinematics of the most recent experiments, and indicate anenhanced sensitivity to the nucleon polarizabilities in theenergy range between pion production threshold and the $Delta(1232)$-resonance.newlineindentFurthermore,we extend the DR formalism to virtual Compton scattering (radiativeelectron scattering off the nucleon), in which the concept of thepolarizabilities is generalized to the case of avirtual initial photon by introducing six generalizedpolarizabilities (GPs). Our formalism provides predictions for the fourspin GPs, while the two scalar GPs $alpha(Q^2)$ and $beta(Q^2)$ have to befitted to the experimental data at each value of $Q^2$.We show that at energies betweenpion threshold and the $Delta(1232)$-resonance position, thesensitivity to the GPs can be increased significantly, as compared tolow energies, where the LEX is applicable. Our DR formalism can be used for analysing VCS experiments over a widerange of energy and virtuality $Q^2$, which allows one to extract theGPs from VCS data in different kinematics with a minimum of model dependence.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The present state of the theoretical predictions for the hadronic heavy hadron production is not quite satisfactory. The full next-to-leading order (NLO) ${cal O} (alpha_s^3)$ corrections to the hadroproduction of heavy quarks have raised the leading order (LO) ${cal O} (alpha_s^2)$ estimates but the NLO predictions are still slightly below the experimental numbers. Moreover, the theoretical NLO predictions suffer from the usual large uncertainty resulting from the freedom in the choice of renormalization and factorization scales of perturbative QCD.In this light there are hopes that a next-to-next-to-leading order (NNLO) ${cal O} (alpha_s^4)$ calculation will bring theoretical predictions even closer to the experimental data. Also, the dependence on the factorization and renormalization scales of the physical process is expected to be greatly reduced at NNLO. This would reduce the theoretical uncertainty and therefore make the comparison between theory and experiment much more significant. In this thesis I have concentrated on that part of NNLO corrections for hadronic heavy quark production where one-loop integrals contribute in the form of a loop-by-loop product. In the first part of the thesis I use dimensional regularization to calculate the ${cal O}(ep^2)$ expansion of scalar one-loop one-, two-, three- and four-point integrals. The Laurent series of the scalar integrals is needed as an input for the calculation of the one-loop matrix elements for the loop-by-loop contributions. Since each factor of the loop-by-loop product has negative powers of the dimensional regularization parameter $ep$ up to ${cal O}(ep^{-2})$, the Laurent series of the scalar integrals has to be calculated up to ${cal O}(ep^2)$. The negative powers of $ep$ are a consequence of ultraviolet and infrared/collinear (or mass ) divergences. Among the scalar integrals the four-point integrals are the most complicated. The ${cal O}(ep^2)$ expansion of the three- and four-point integrals contains in general classical polylogarithms up to ${rm Li}_4$ and $L$-functions related to multiple polylogarithms of maximal weight and depth four. All results for the scalar integrals are also available in electronic form. In the second part of the thesis I discuss the properties of the classical polylogarithms. I present the algorithms which allow one to reduce the number of the polylogarithms in an expression. I derive identities for the $L$-functions which have been intensively used in order to reduce the length of the final results for the scalar integrals. I also discuss the properties of multiple polylogarithms. I derive identities to express the $L$-functions in terms of multiple polylogarithms. In the third part I investigate the numerical efficiency of the results for the scalar integrals. The dependence of the evaluation time on the relative error is discussed. In the forth part of the thesis I present the larger part of the ${cal O}(ep^2)$ results on one-loop matrix elements in heavy flavor hadroproduction containing the full spin information. The ${cal O}(ep^2)$ terms arise as a combination of the ${cal O}(ep^2)$ results for the scalar integrals, the spin algebra and the Passarino-Veltman decomposition. The one-loop matrix elements will be needed as input in the determination of the loop-by-loop part of NNLO for the hadronic heavy flavor production.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In den letzten drei Jahrzehnten sind Fernerkundung und GIS in den Geowissenschaften zunehmend wichtiger geworden, um die konventionellen Methoden von Datensammlung und zur Herstellung von Landkarten zu verbessern. Die vorliegende Arbeit befasst sich mit der Anwendung von Fernerkundung und geographischen Informationssystemen (GIS) für geomorphologische Untersuchungen. Durch die Kombination beider Techniken ist es vor allem möglich geworden, geomorphologische Formen im Überblick und dennoch detailliert zu erfassen. Als Grundlagen werden in dieser Arbeit topographische und geologische Karten, Satellitenbilder und Klimadaten benutzt. Die Arbeit besteht aus 6 Kapiteln. Das erste Kapitel gibt einen allgemeinen Überblick über den Untersuchungsraum. Dieser umfasst folgende morphologische Einheiten, klimatischen Verhältnisse, insbesondere die Ariditätsindizes der Küsten- und Gebirgslandschaft sowie das Siedlungsmuster beschrieben. Kapitel 2 befasst sich mit der regionalen Geologie und Stratigraphie des Untersuchungsraumes. Es wird versucht, die Hauptformationen mit Hilfe von ETM-Satellitenbildern zu identifizieren. Angewandt werden hierzu folgende Methoden: Colour Band Composite, Image Rationing und die sog. überwachte Klassifikation. Kapitel 3 enthält eine Beschreibung der strukturell bedingten Oberflächenformen, um die Wechselwirkung zwischen Tektonik und geomorphologischen Prozessen aufzuklären. Es geht es um die vielfältigen Methoden, zum Beispiel das sog. Image Processing, um die im Gebirgskörper vorhandenen Lineamente einwandfrei zu deuten. Spezielle Filtermethoden werden angewandt, um die wichtigsten Lineamente zu kartieren. Kapitel 4 stellt den Versuch dar, mit Hilfe von aufbereiteten SRTM-Satellitenbildern eine automatisierte Erfassung des Gewässernetzes. Es wird ausführlich diskutiert, inwieweit bei diesen Arbeitsschritten die Qualität kleinmaßstäbiger SRTM-Satellitenbilder mit großmaßstäbigen topographischen Karten vergleichbar ist. Weiterhin werden hydrologische Parameter über eine qualitative und quantitative Analyse des Abflussregimes einzelner Wadis erfasst. Der Ursprung von Entwässerungssystemen wird auf der Basis geomorphologischer und geologischer Befunde interpretiert. Kapitel 5 befasst sich mit der Abschätzung der Gefahr episodischer Wadifluten. Die Wahrscheinlichkeit ihres jährlichen Auftretens bzw. des Auftretens starker Fluten im Abstand mehrerer Jahre wird in einer historischen Betrachtung bis 1921 zurückverfolgt. Die Bedeutung von Regentiefs, die sich über dem Roten Meer entwickeln, und die für eine Abflussbildung in Frage kommen, wird mit Hilfe der IDW-Methode (Inverse Distance Weighted) untersucht. Betrachtet werden außerdem weitere, regenbringende Wetterlagen mit Hilfe von Meteosat Infrarotbildern. Genauer betrachtet wird die Periode 1990-1997, in der kräftige, Wadifluten auslösende Regenfälle auftraten. Flutereignisse und Fluthöhe werden anhand von hydrographischen Daten (Pegelmessungen) ermittelt. Auch die Landnutzung und Siedlungsstruktur im Einzugsgebiet eines Wadis wird berücksichtigt. In Kapitel 6 geht es um die unterschiedlichen Küstenformen auf der Westseite des Roten Meeres zum Beispiel die Erosionsformen, Aufbauformen, untergetauchte Formen. Im abschließenden Teil geht es um die Stratigraphie und zeitliche Zuordnung von submarinen Terrassen auf Korallenriffen sowie den Vergleich mit anderen solcher Terrassen an der ägyptischen Rotmeerküste westlich und östlich der Sinai-Halbinsel.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Lava aus der quartären Vulkanregion der Eifel wurde in römischer Zeit großmaßstäblich abgebaut, um daraus Mühlsteine hoher Qualität herzustellen, die in großen Mengen in weite Teile des Römischen Reiches exportiert wurden. Somit erweisen sich diese Mühlsteine als ideale Indikatoren für Handelsgebiete und –wege dieser Zeit. Für eine erfolgreiche Herkunftsanalyse von Fundstücken ist eine genaue Charakterisierung der infrage kommenden Rohstoffe die unbedingte Voraussetzung. Aus diesem Grund konzentriert sich diese Arbeit auf die geochemische Definition der 16 bekannten römischen „Basalt“-Abbaustellen in den Vulkanfeldern der Ost- und Westeifel, mit dem vorrangigen Ziel, eine möglichste eindeutige Charakterisierung der einzelnen Abbaustellen zu erreichen. Auf dieser Basis wird eine Vorgehensweise zur folgenden Provenienzanalyse der Mühlsteine entwickelt. Um die geochemische Variabilität der Laven zu erfassen wurden die Abbaustellen großflächig beprobt. Die Proben wurden zunächst petrographisch bestimmt und der Phasenbestand mittels Röntgendiffraktometrie (XRD) untersucht. Die Haupt- und Spurenelement-Zusammensetzung wurde anhand von Röntgenfluoreszenzanalysen und Laser-Massenspektrometrie mit induktiv gekoppeltem Plasma (LA-ICP-MS) ermittelt, die Sr-Nd-Pb-Isotopie ausgewählter Proben mittels Thermo-Ionen-Massenspektrometrie (TIMS). Es zeigte sich, dass auf Grundlage der Haupt- und Spurenelementzusammensetzung, gemessen mit RFA, eine Abgrenzung der Abbaustellen zueinander mittels einer Kombination aus geochemischer Diskriminierung mit Cluster- und Diskriminanzanalysen gelingt. Die anschließende Provenienzanalyse der Mühlsteinfundstücke erfolgt analog zur Charakterisierung der Abbaustellen. Im ersten Schritt wird eine geochemische Zuordnung des Fundstücks vorgenommen, um zu überprüfen, ob eine Eifeler Herkunft überhaupt in Frage kommt. Lässt der geochemische Vergleich mit den Referenzdaten aus dem Gelände eine Eifeler Herkunft zu, kommt im zweiten Schritt die Clusteranalyse zum Einsatz. Hier wird auf multivariater Ebene geprüft, ob das Fundstück einer Eifeler Abbaustelle oder einem Cluster von Eifeler Abbaustellen zugeordnet werden kann. Bei einer positiven Zuordnung wird ergänzend als dritter Schritt die Diskriminanzanalyse angewendet, anhand der das Mühlstein-Fundstück einer Abbaustelle mit einer bestimmten Wahrscheinlichkeit zugewiesen wird. Bei 68 analysierten Mühlsteinen aus verschiedenen Regionen Mitteleuropas konnte so für 49 Fundstücke eine Eifeler Provenienz festgestellt werden. Alle römischen Eifeler Mühlsteine entstammen dem Bellerberg bei Mayen, ein mittelalterliches Stück aus dem Niedermendiger Lavastrom. Die Zuordnung der übrigen 19 Mühlsteine zu anderen möglichen Abbaugebieten erfolgt anhand geochemischer Daten aus der Literatur. Aufgrund der unzureichenden Datenlage sind im Falle dieser Proben jedoch im Gegensatz zur Lavastrom-genauen Zuordnung der Eifeler Mühlen lediglich Vermutungen über die Herkunftsregionen möglich. Damit zeigt sich, dass eine ausführliche Referenzdatenbank der in Frage kommenden Rohstoffe die erforderliche Basis für erfolgreiche Provenienzanalysen ist. Die Möglichkeit der genauen Zuordnungen von Mühlsteinen zu den Eifeler Abbaustellen belegt, dass die Verbindung von geochemischer Auswertung mit Cluster- und Diskriminanzanalysen ein hilfreiches Verfahren zur Provenienzanalyse darstellt.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Gels are elastic porous polymer networks that are accompanied by pronounced mechanical properties. Due to their biocompatibility, ‘responsive hydrogels’ (HG) have many biomedical applications ranging from biosensors and drug delivery to tissue engineering. They respond to external stimuli such as temperature and salt by changing their dimensions. Of paramount importance is the ability to engineer penetrability and diffusion of interacting molecules in the crowded HG environment, as this would enable one to optimize a specific functionality. Even though the conditions under which biomedical devices operate are rather complex, a bottom-up approach could reduce the complexity of mutually coupled parameters influencing tracer mobility. The present thesis focuses on the interaction-induced tracer diffusion in polymer solutions and their homologous gels, probed by means of Fluorescence Correlation Spectroscopy (FCS). This is a single-molecule-sensitive technique having the advantage of optimal performance under ultralow tracer concentrations, typically employed in biosensors. Two different types of hydrogels have been investigated, a conventional one with broad polydispersity in the distance between crosslink points and a so-called ‘ideal’, with uniform mesh size distribution. The former is based on a thermoresponsive polymer, exhibiting phase separation in water at temperatures close to the human body temperature. The latter represents an optimal platform to study tracer diffusion. Mobilities of different tracers have been investigated in each network, varying in size, geometry and in terms of tracer-polymer attractive strength, as perturbed by different stimuli. The thesis constitutes a systematic effort towards elucidating the role of the strength and nature of different tracer-polymer interactions, on tracer mobilities; it outlines that interactions can still be very important even in the simplified case of dilute polymer solutions; it also demonstrates that the presence of permanent crosslinks exerts distinct tracer slowdown, depending on the tracer type and the nature of the tracer-polymer interactions, expressed differently by each tracer with regard to the selected stimulus. In aqueous polymer solutions, the tracer slowdown is found to be system-dependent and no universal trend seems to hold, in contrast to predictions from scaling theory for non-interacting nanoparticle mobility and empirical relations concerning the mesh size in polymer solutions. Complex tracer dynamics in polymer networks may be distinctly expressed by FCS, depending on the specific synergy among-at least some of - the following parameters: nature of interactions, external stimuli employed, tracer size and type, crosslink density and swelling ratio.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Die in der vorliegenden Dissertation entwickelten organochemischen Protokolle und Konzepte erweitern die Bottom-Up-Synthese von atompräzisen Nanographenstreifen (GNR) um zwei fundamentale Bereiche. Zum einen die Dotierung der halbleitenden GNR mit Schwefel oder Stickstoffatomen und zum anderen ein Protokoll für eine lösungsbasierte Synthese von stickstoffdotierten Zickzack-Streifen.rnDie Dotierung von GNR beinhaltet die Synthese von monomeren Bausteinen bei denen, im Gegensatz zu ihren reinen Kohlenstoffhomologen, definierte Positionen am Rand mit zwei oder vier Stickstoff- beziehungsweise zwei Schwefelatomen ersetzt wurden. Die Synthese atompräziser GNR konnte mit verschiedenen experimentellen Methoden analysiert und anschaulich über STM visualisiert werden. Neben einer n-Dotierung gelang so auch erstmals eine Bottom-Up-Synthese von schwefeldotierten GNR. Eine mögliche Anwendung in der Nanoelektronik aufbauend auf dotierten GNR wurde bestätigt, indem durch Co-Polymerisation von stickstoffhaltigen mit reinen Kohlenstoffmonomeren Heteroschnittstellen zwischen dotierten und undotierten Bereichen hergestellt werden konnten. Solche Heteroschnittstellen sind fundamentale Grundlage von Dioden und damit Basis einer Vielzahl elektronischer Elemente wie Solarzellen oder Leuchtdioden.rnWährend für halbleitende GNR mit einer Armlehnen-Form ein breites Spektrum an organischen Syntheseprotokollen zur Verfügung stand, existierte zu Beginn dieser Arbeit keines für GNR mit Zickzack-Struktur. Innerhalb dieser Arbeit konnte eine Bottom-Up-Synthese zur Erschließung stickstoffdotierter GNR mit Zickzack-Randstruktur erarbeitet werden. Durch die Verwendung eines (2-Hydroxymethyl)phenylboronsäureesters werden Hydroxymethylsubsituenten entlang eines Polyphenylenrückgrats eingebaut, die nach Kondensation mit dem Stickstoffatom eine Zickzack-Kante ergeben. Innerhalb der synthetisierten Zielstrukturen kann das 9a-Azaphenalen als letztes, bislang nicht erschlossenes Isomer der Azaphenalene, als wiederkehrende Struktur, gefunden werden. Die Reaktivität der Zickzackkante konnte zudem zum Aufbau einer Vielzahl bislang unzugänglicher, polycyclischer Heteroaromaten über 1,3-dipolare Addition dieses polycyclischen Azomethin Ylides (PAMY) genutzt werden.rn

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Seit seiner Entdeckung im Jahre 1978 wurden für hyperpolarisiertes (HP) 129Xe zahlreiche Anwendungen gefunden. Aufgrund seiner hohen Verstärkung von NMR-Signalen wird es dabei typischerweise für Tracer- und Oberflächenstudien verwendet. Im gasförmigen Zustand ist es ein interessantes, klinisches Kontrastmittel, welches für dynamische Lungen MRT genutzt oder auch in Blut oder lipophilen Flüssigkeiten gelöst werden kann. Weiterhin findet HP-Xe auch in der Grundlagenphysik in He-Xe Co-Magnetometern Verwendung, mit welchen z. B. das elektrische Dipolmoment von Xe bestimmt werden soll, oder es dient zur Überprüfung auf Lorentz-Invarianzen. Alle diese Anwendungen profitieren von einem hohen Polarisationsgrad (PXe), um hohe Signalstärken und lange Lagerzeiten zu erreichen. rnIn dieser Arbeit wurden zwei mobile Xe-Polarisatoren konstruiert: einer für Experimente in der Grundlagenphysik mit einer Produktionsrate von 400 mbar·l/h mit PXe ≈ 5%. Der zweite Xe-Polarisator wurde für medizinische Anwendungen entwickelt und soll 1 bar l/h mit PXe > 20% erzeugen. Der letztere wurde noch nicht getestet. Die Arbeitsbedingungen des Xe-Polarisators für Grundlagenphysik (Strömung des Gasgemischs, Temperatur, Druck und Konzentration von Xe) wurden variiert, um einen höchstmöglichen Polarisationsgrad zu erzielen. Die maximale Polarisation von 5,6 % wurde bei Verwendung eine Gasmischung von 1% Xe bei einem Durchfluss von 200 ml/min, einer Temperatur von 150°C und einem Gesamtdruck von 4 bar erreicht. rnWeiterhin muss HP-Xe auch effizient gelagert werden, um Polarisationsverluste zu minimieren. Das ist besonders für solche Anwendungen notwendig, welche an einem entfernten Standort durchgeführt werden sollen oder auch wenn lange Spinkohärenzeiten gefordert sind, z.B. bei He-Xe Co-Magnetometern. rnHierbei bestand bisher die größte Schwierigkeit darin, die Reproduzierbarkeit der gemessenen Lagerzeiten sicherzustellen. In dieser Arbeit konnte die Spin-Gitter-Relaxationszeit (T1) von HP-129Xe in unbeschichteten, Rb-freien, sphärischen Zellen aus Aluminiumsilikatglas (GE-180) signifikant verbessert werden. Die T1–Zeit wurde in einem selbstgebauten Niederfeld-NMR-System (2 mT) sowohl für reines HP-Xe als auch für HP-Xe in Mischungen mit N2, SF6 und CO2 bestimmt. Bei diesen Experimenten wurde die maximale Relaxationszeit für reines Xe (85% 129 Xe) bei (4,6 ± 0,1) h festgestellt. Dabei lagen die typischen Wand-Relaxationszeiten bei ca. 18 h für Glaszellen mit einem Durchmesser von 10 cm. Des Weiteren wurde herausgefunden, dass CO2 eine unerwartet hohe Effizienz bei der Verkürzung der Lebensdauer der Xe-Xe Moleküle zeigte und somit zu einer deutlichen Verlängerung der gesamten T1-Zeit genutzt werden kann. rnIm Verlauf vieler Experimente wurde durch wiederholte Messungen mit der gleichen Zelle, ein "Alterungsprozess“ bei der Wandrelaxation identifiziert und untersucht. Dieser Effekt könnte leicht rückgängig gemacht werden, indem die anfängliche Reinigungsprozedur wiederholt wurde. Auf diese Weise kann eine konstante Wandrelaxation sichergestellt werden, durch die sehr reproduzierbare T1-Messungen möglich werden. rnSchließlich wurde die maximale Relaxationszeit für HP-Xe mit natürlicher Häufigkeit in Mischungen mit SF6 bestimmt. Überraschenderweise war dieser Wert um ca. 75% niedriger als der Wert für Xenon, das zu 85% mit 129Xe angereichert war. Dieser Effekt wurde durch drei unabhängige Experimente bestätigt, da er nicht von der bestehenden Theorie der Xe-Relaxation ableitbar ist. rnDie Polarisation von HP-Xe, PXe, wird normalerweise durch den Vergleich der NMR-Signale des HP-Xe mit einer thermischen polarisierten Probe (z. B. 1H2O oder Xe) bestimmt. Dabei beinhaltet der Vergleich unterschiedlicher Messungen an verschiedenen Proben (unterschiedlicher Druck, Signalintensität und Messverfahren) viele experimentelle Unsicherheiten, welche sich oft nicht leicht bestimmen lassen. Eine einfache, genaue und kostengünstige Methode zur Bestimmung von PXe durch eine direkte Messung der makroskopischen Magnetisierung in einem statischen Magnetfeld vermeidet alle diese Unsicherheiten. Dieses Verfahren kann Polarisationen von > 2 % mit einer Genauigkeit von maximal 10% fast ohne Polarisationsverlust bestimmen. Zusätzlich kann diese Methode ohne weitere Änderungen auch für Bestimmungen des Polarisationsgrades anderer HP-Gase verwendet werden.rn