942 resultados para OWL <Informatik>
Resumo:
In der vorliegenden Arbeit wird die Faktorisierungsmethode zur Erkennung von Gebieten mit sprunghaft abweichenden Materialparametern untersucht. Durch eine abstrakte Formulierung beweisen wir die der Methode zugrunde liegende Bildraumidentität für allgemeine reelle elliptische Probleme und deduzieren bereits bekannte und neue Anwendungen der Methode. Für das spezielle Problem, magnetische oder perfekt elektrisch leitende Objekte durch niederfrequente elektromagnetische Strahlung zu lokalisieren, zeigen wir die eindeutige Lösbarkeit des direkten Problems für hinreichend kleine Frequenzen und die Konvergenz der Lösungen gegen die der elliptischen Gleichungen der Magnetostatik. Durch Anwendung unseres allgemeinen Resultats erhalten wir die eindeutige Rekonstruierbarkeit der gesuchten Objekte aus elektromagnetischen Messungen und einen numerischen Algorithmus zur Lokalisierung der Objekte. An einem Musterproblem untersuchen wir, wie durch parabolische Differentialgleichungen beschriebene Einschlüsse in einem durch elliptische Differentialgleichungen beschriebenen Gebiet rekonstruiert werden können. Dabei beweisen wir die eindeutige Lösbarkeit des zugrunde liegenden parabolisch-elliptischen direkten Problems und erhalten durch eine Erweiterung der Faktorisierungsmethode die eindeutige Rekonstruierbarkeit der Einschlüsse sowie einen numerischen Algorithmus zur praktischen Umsetzung der Methode.
Resumo:
Monte Carlo simulations are used to study the effect of confinement on a crystal of point particles interacting with an inverse power law potential in d=2 dimensions. This system can describe colloidal particles at the air-water interface, a model system for experimental study of two-dimensional melting. It is shown that the state of the system (a strip of width D) depends very sensitively on the precise boundary conditions at the two ``walls'' providing the confinement. If one uses a corrugated boundary commensurate with the order of the bulk triangular crystalline structure, both orientational order and positional order is enhanced, and such surface-induced order persists near the boundaries also at temperatures where the system in the bulk is in its fluid state. However, using smooth repulsive boundaries as walls providing the confinement, only the orientational order is enhanced, but positional (quasi-) long range order is destroyed: The mean-square displacement of two particles n lattice parameters apart in the y-direction along the walls then crosses over from the logarithmic increase (characteristic for $d=2$) to a linear increase (characteristic for d=1). The strip then exhibits a vanishing shear modulus. These results are interpreted in terms of a phenomenological harmonic theory. Also the effect of incommensurability of the strip width D with the triangular lattice structure is discussed, and a comparison with surface effects on phase transitions in simple Ising- and XY-models is made
Resumo:
Studies in regions of the nuclear chart in which the model predictions of properties of nuclei fail can bring a better understanding of the strong interaction in the nuclear medium. To such regions belongs the so called "island of inversion" centered around Ne, Na and Mg isotopes with 20 neutrons in which unexpected ground-state spins, large deformations and dense low-energy spectra appear. This is a strong argument that the magic N = 20 is not a closed shell in this area. In this thesis investigations of isotope shifts of stable 24,25,26Mg, as well as spins and magnetic moments of short-lived 29,31Mg are presented. The successful studies were performed at the ISOLDE facility at CERN using collinear laser and beta-NMR spectroscopy techniques. The isotopes were investigated as single-charged ions in the 280-nm transition from the atomic ground state 2S1/2 to one of the two lowest excited states 2P1/2,3/2 using continuous wave laser beams. The isotope-shift measurements with fluorescence detection for the three stable isotopes show that it is feasible to perform the same studies on radioactive Mg isotopes up to the "island of inversion". This will allow to determine differences in the mean charge square radii and interpret them in terms of deformation. The high detection efficiency for beta particles and optical pumping close to saturation allowed to obtain very good beta-asymmetry signals for 29Mg and 31Mg with half-lives around 1 s and production yields about 10^5 ions/s. For this purpose the ions were implanted into a host crystal lattice. Such detection of the atomic resonances revealed their hyperfine structure, which gives the sign and a first estimate of the value of the magnetic moment. The nuclear magnetic resonance gave also their g-factors with the relative uncertainty smaller than 0.2 %. By combining the two techniques also the nuclear spin of both isotopes could be unambiguously determined. The measured spins and g-factors show that 29Mg with 17 neutrons lies outside the "island of inversion". On the other hand, 31Mg with 19 neutrons has an unexpected ground-state spin which can be explained only by promoting at least two neutrons across the N = 20 shell gap. This places the above nucleus inside the "island". However, modern shell-model approaches cannot predict this level as the ground state but only as one of the low-lying states, even though they reproduce very well the experimental g-factor. This indicates that modifications to the available interactions are required. Future measurements include isotope shift measurements on radioactive Mg isotopes and beta-NMR studies on 33Mg.
Interfaccia web per un sistema di condivisione semantica dell'informazione: studio e implementazione
Resumo:
Questa tesi progettuale nasce per integrare gli sforzi attuali sullo sviluppo del web semantico. La piattaforma di riferimento sulla quale è stato svolto il presente lavoro è SMART-M3. Questa piattaforma mette a disposizione uno spazio condiviso di informazioni, rappresentate e accessibili secondo le tecnologie del web semantico. In questo scenario, nasce la necessità di disporre di un'interfaccia web capace di interagire con la piattaforma - in grado di risolvere la complessità intrinseca dei dati semantici - allo scopo di averne un completo controllo; ricerche precedenti a questo proposito hanno dato come frutto una libreria PHP che mi è stata consegnata come strumento per lo sviluppo dell'interfaccia. La tesi si è articolata in 3 fasi principali: una fase iniziale di documentazione sull'argomento, eseguita principalmente sul libro “A developer's guide to the semantic web” di Liyang Yu e sulla tesi “Ontologie per il web semantico: un'analisi comparativa.” di Indrit Beqiri; una seconda fase, quella principale, di sviluppo del progetto informatico; una terza fase, infine, di sviluppo di questo elaborato di tesi, da considerarsi come la trattazione di tutto il percorso soprascritto, dall'inizio alla fine, secondo l'ordine cronologico in cui si svolto l'intero processo della tesi.
Resumo:
Questa tesi tratta di scambio di dati aperti (open data exchange). In particolare, tratta di intervalli temporali con annesse informazioni di vario tipo. Le attività commerciali, come aziende, bar, ristoranti, cinema, teatri, e via dicendo, hanno bisogno di un modo comune per poter condividere i dati inerenti ai propri orari (timetable). Lo scopo di questa tesi è quello di mostrare un modello efficiente, compatto e completo per poter condividere tali informazioni con l'ausilio di formati standard (XML). Oggi giorno esistono diverse soluzioni atte a far fronte a questa necessità ma si tratta di soluzioni incomplete e che gestiscono tali informazioni separatamente. Il problema sorto è quello di avere un'unica struttura che posso unificare informazioni di diverso carattere con gli orari di un'attività: un cinema ha la necessità di fornire orari di diverse proiezioni svolte in sale diverse, una tournée dovrà poter specificare le coordinate geografiche del prossimo evento e così discorrendo.
Resumo:
Der ungarische Mathematiker Friedrich Riesz studierte und forschte in den mathematischen Milieus von Budapest, Göttingen und Paris. Die vorliegende Arbeit möchte zeigen, daß die Beiträge von Riesz zur Herausbildung eines abstrakten Raumbegriffs durch eine Verknüpfung von Entwicklungen aus allen drei mathematischen Kulturen ermöglicht wurden, in denen er sich bewegt hat. Die Arbeit konzentriert sich dabei auf den von Riesz 1906 veröffentlichten Text „Die Genesis des Raumbegriffs". Sowohl für seine Fragestellungen als auch für seinen methodischen Zugang fand Riesz vor allem in Frankreich und Göttingen Anregungen: Henri Poincarés Beiträge zur Raumdiskussion, Maurice Fréchets Ansätze einer abstrakten Punktmengenlehre, David Hilberts Charakterisierung der Stetigkeit des geometrischen Raumes. Diese Impulse aufgreifend suchte Riesz ein Konzept zu schaffen, das die Forderungen von Poincaré, Hilbert und Fréchet gleichermaßen erfüllte. So schlug Riesz einen allgemeinen Begriff des mathematischen Kontinuums vor, dem sich Fréchets Konzept der L-Klasse, Hilberts Mannigfaltigkeitsbegriff und Poincarés erfahrungsgemäße Vorstellung der Stetigkeit des ‚wirklichen' Raumes unterordnen ließen. Für die Durchführung seines Projekts wandte Riesz mengentheoretische und axiomatische Methoden an, die er der Analysis in Frankreich und der Geometrie bei Hilbert entnommen hatte. Riesz' aufnahmebereite Haltung spielte dabei eine zentrale Rolle. Diese Haltung kann wiederum als ein Element der ungarischen mathematischen Kultur gedeutet werden, welche sich damals ihrerseits stark an den Entwicklungen in Frankreich und Deutschland orientierte. Darüber hinaus enthält Riesz’ Arbeit Ansätze einer konstruktiven Mengenlehre, die auf René Baire zurückzuführen sind. Aus diesen unerwarteten Ergebnissen ergibt sich die Aufgabe, den Bezug von Riesz’ und Baires Ideen zur späteren intuitionistischen Mengenlehre von L.E.J. Brouwer und Hermann Weyl weiter zu erforschen.
Resumo:
In dieser Arbeit geht es um die Schätzung von Parametern in zeitdiskreten ergodischen Markov-Prozessen im allgemeinen und im CIR-Modell im besonderen. Beim CIR-Modell handelt es sich um eine stochastische Differentialgleichung, die von Cox, Ingersoll und Ross (1985) zur Beschreibung der Dynamik von Zinsraten vorgeschlagen wurde. Problemstellung ist die Schätzung der Parameter des Drift- und des Diffusionskoeffizienten aufgrund von äquidistanten diskreten Beobachtungen des CIR-Prozesses. Nach einer kurzen Einführung in das CIR-Modell verwenden wir die insbesondere von Bibby und Sørensen untersuchte Methode der Martingal-Schätzfunktionen und -Schätzgleichungen, um das Problem der Parameterschätzung in ergodischen Markov-Prozessen zunächst ganz allgemein zu untersuchen. Im Anschluss an Untersuchungen von Sørensen (1999) werden hinreichende Bedingungen (im Sinne von Regularitätsvoraussetzungen an die Schätzfunktion) für die Existenz, starke Konsistenz und asymptotische Normalität von Lösungen einer Martingal-Schätzgleichung angegeben. Angewandt auf den Spezialfall der Likelihood-Schätzung stellen diese Bedingungen zugleich lokal-asymptotische Normalität des Modells sicher. Ferner wird ein einfaches Kriterium für Godambe-Heyde-Optimalität von Schätzfunktionen angegeben und skizziert, wie dies in wichtigen Spezialfällen zur expliziten Konstruktion optimaler Schätzfunktionen verwendet werden kann. Die allgemeinen Resultate werden anschließend auf das diskretisierte CIR-Modell angewendet. Wir analysieren einige von Overbeck und Rydén (1997) vorgeschlagene Schätzer für den Drift- und den Diffusionskoeffizienten, welche als Lösungen quadratischer Martingal-Schätzfunktionen definiert sind, und berechnen das optimale Element in dieser Klasse. Abschließend verallgemeinern wir Ergebnisse von Overbeck und Rydén (1997), indem wir die Existenz einer stark konsistenten und asymptotisch normalen Lösung der Likelihood-Gleichung zeigen und lokal-asymptotische Normalität für das CIR-Modell ohne Einschränkungen an den Parameterraum beweisen.
Resumo:
Im Verzweigungsprozess mit Immigration werden Schätzer für die erwartete Nachkommenzahl m eines Individuums und die erwartete Immigration λ pro Generation konstruiert. Sie sind nur aufgrund der beobachteten Populationsgröße einer jeden Generation konsistent, ohne Vorkenntnis darüber, ob der Prozess subkritisch (m<1), kritisch (m=1) oder superkritisch (m>1) ist. Im superkritischen Fall ist der Schätzer für λ jedoch nicht konsistent. Dies ist aber keine Einschränkung, denn es wird gezeigt, dass in diesem Fall kein konsistenter Schätzer für λ existiert. Des Weiteren werden Konvergenzgeschwindigkeit der Schätzer und asymptotische Verteilungen der Schätzfehler untersucht. Dabei werden die Fälle (m<1), (m>1) und (m=1) unterschieden, was gänzlich verschiedene Vorgehensweisen erfordert (Ergodizität, Martingalmethoden, Diffusionsapproximationen). Diese hier vorliegende Diplomarbeit orientiert sich an den Ideen und Ergebnissen von Wei und Winnicki (1989/90).
Resumo:
The quark condensate is a fundamental free parameter of Chiral Perturbation Theory ($chi PT$), since it determines the relative size of the mass and momentum terms in the power expansion. In order to confirm or contradict the assumption of a large quark condensate, on which $chi PT$ is based, experimental tests are needed. In particular, the $S$-wave $pipi$ scattering lengths $a_0^0$ and $a_0^2$ can be predicted precisely within $chi PT$ as a function of this parameter and can be measured very cleanly in the decay $K^{pm} to pi^{+} pi^{-} e^{pm} stackrel{mbox{tiny(---)}}{nu_e}$ ($K_{e4}$). About one third of the data collected in 2003 and 2004 by the NA48/2 experiment were analysed and 342,859 $K_{e4}$ candidates were selected. The background contamination in the sample could be reduced down to 0.3% and it could be estimated directly from the data, by selecting events with the same signature as $K_{e4}$, but requiring for the electron the opposite charge with respect to the kaon, the so-called ``wrong sign'' events. This is a clean background sample, since the kaon decay with $Delta S=-Delta Q$, that would be the only source of signal, can only take place through two weak decays and is therefore strongly suppressed. The Cabibbo-Maksymowicz variables, used to describe the kinematics of the decay, were computed under the assumption of a fixed kaon momentum of 60 GeV/$c$ along the $z$ axis, so that the neutrino momentum could be obtained without ambiguity. The measurement of the form factors and of the $pipi$ scattering length $a_0^0$ was performed in a single step by comparing the five-dimensional distributions of data and MC in the kinematic variables. The MC distributions were corrected in order to properly take into account the trigger and selection efficiencies of the data and the background contamination. The following parameter values were obtained from a binned maximum likelihood fit, where $a_0^2$ was expressed as a function of $a_0^0$ according to the prediction of chiral perturbation theory: f'_s/f_s = 0.133+- 0.013(stat)+- 0.026(syst) f''_s/f_s = -0.041+- 0.013(stat)+- 0.020(syst) f_e/f_s = 0.221+- 0.051(stat)+- 0.105(syst) f'_e/f_s = -0.459+- 0.170(stat)+- 0.316(syst) tilde{f_p}/f_s = -0.112+- 0.013(stat)+- 0.023(syst) g_p/f_s = 0.892+- 0.012(stat)+- 0.025(syst) g'_p/f_s = 0.114+- 0.015(stat)+- 0.022(syst) h_p/f_s = -0.380+- 0.028(stat)+- 0.050(syst) a_0^0 = 0.246+- 0.009(stat)+- 0.012(syst)}+- 0.002(theor), where the statistical uncertainty only includes the effect of the data statistics and the theoretical uncertainty is due to the width of the allowed band for $a_0^2$.
Resumo:
Die Aufgabenstellung, welche dieser Dissertation zugrunde liegt, lässt sich kurz als die Untersuchung von komponentenbasierten Konzepten zum Einsatz in der Softwareentwicklung durch Endanwender beschreiben. In den letzten 20 bis 30 Jahren hat sich das technische Umfeld, in dem ein Großteil der Arbeitnehmer seine täglichen Aufgaben verrichtet, grundlegend verändert. Der Computer, früher in Form eines Großrechners ausschließlich die Domäne von Spezialisten, ist nun ein selbstverständlicher Bestandteil der täglichen Arbeit. Der Umgang mit Anwendungsprogrammen, die dem Nutzer erlauben in einem gewissen Rahmen neue, eigene Funktionalität zu definieren, ist in vielen Bereichen so selbstverständlich, dass viele dieser Tätigkeiten nicht bewusst als Programmieren wahrgenommen werden. Da diese Nutzer nicht notwendigerweise in der Entwicklung von Software ausgebildet sind, benötigen sie entsprechende Unterstützung bei diesen Tätigkeiten. Dies macht deutlich, welche praktische Relevanz die Untersuchungen in diesem Bereich haben. Zur Erstellung eines Programmiersystems für Endanwender wird zunächst ein flexibler Anwendungsrahmen entwickelt, welcher sich als Basis zur Erstellung solcher Systeme eignet. In Softwareprojekten sind sich ändernde Anforderungen und daraus resultierende Notwendigkeiten ein wichtiger Aspekt. Dies wird im Entwurf des Frameworks durch Konzepte zur Bereitstellung von wieder verwendbarer Funktionalität durch das Framework und Möglichkeiten zur Anpassung und Erweiterung der vorhandenen Funktionalität berücksichtigt. Hier ist zum einen der Einsatz einer serviceorientierten Architektur innerhalb der Anwendung und zum anderen eine komponentenorientierte Variante des Kommando-Musters zu nennen. Zum anderen wird ein Konzept zur Kapselung von Endnutzerprogrammiermodellen in Komponenten erarbeitet. Dieser Ansatz ermöglicht es, unterschiedliche Modelle als Grundlage der entworfenen Entwicklungsumgebung zu verwenden. Im weiteren Verlauf der Arbeit wird ein Programmiermodell entworfen und unter Verwendung des zuvor genannten Frameworks implementiert. Damit dieses zur Nutzung durch Endanwender geeignet ist, ist eine Anhebung der zur Beschreibung eines Softwaresystems verwendeten Abstraktionsebene notwendig. Dies wird durch die Verwendung von Komponenten und einem nachrichtenbasierten Kompositionsmechanismus erreicht. Die vorgenommene Realisierung ist dabei noch nicht auf konkrete Anwendungsfamilien bezogen, diese Anpassungen erfolgen in einem weiteren Schritt für zwei unterschiedliche Anwendungsbereiche.
Resumo:
The Spin-Statistics theorem states that the statistics of a system of identical particles is determined by their spin: Particles of integer spin are Bosons (i.e. obey Bose-Einstein statistics), whereas particles of half-integer spin are Fermions (i.e. obey Fermi-Dirac statistics). Since the original proof by Fierz and Pauli, it has been known that the connection between Spin and Statistics follows from the general principles of relativistic Quantum Field Theory. In spite of this, there are different approaches to Spin-Statistics and it is not clear whether the theorem holds under assumptions that are different, and even less restrictive, than the usual ones (e.g. Lorentz-covariance). Additionally, in Quantum Mechanics there is a deep relation between indistinguishabilty and the geometry of the configuration space. This is clearly illustrated by Gibbs' paradox. Therefore, for many years efforts have been made in order to find a geometric proof of the connection between Spin and Statistics. Recently, various proposals have been put forward, in which an attempt is made to derive the Spin-Statistics connection from assumptions different from the ones used in the relativistic, quantum field theoretic proofs. Among these, there is the one due to Berry and Robbins (BR), based on the postulation of a certain single-valuedness condition, that has caused a renewed interest in the problem. In the present thesis, we consider the problem of indistinguishability in Quantum Mechanics from a geometric-algebraic point of view. An approach is developed to study configuration spaces Q having a finite fundamental group, that allows us to describe different geometric structures of Q in terms of spaces of functions on the universal cover of Q. In particular, it is shown that the space of complex continuous functions over the universal cover of Q admits a decomposition into C(Q)-submodules, labelled by the irreducible representations of the fundamental group of Q, that can be interpreted as the spaces of sections of certain flat vector bundles over Q. With this technique, various results pertaining to the problem of quantum indistinguishability are reproduced in a clear and systematic way. Our method is also used in order to give a global formulation of the BR construction. As a result of this analysis, it is found that the single-valuedness condition of BR is inconsistent. Additionally, a proposal aiming at establishing the Fermi-Bose alternative, within our approach, is made.
Resumo:
Die diffusionsgewichtete Magnetresonanztomographie (MRT) mit dem hyperpolarisierten Edelgas-Isotop 3He ist ein neues Verfahren zur Untersuchung von Erkrankungen der Atem-wege und der Lunge. Die Diffusionsbewegung der 3He-Atome in den Luftwegen der Lunge wird durch deren Wände begrenzt, wobei diese Einschränkung sowohl von den Dimensionen der Atemwege als auch von den Messparametern abhängt. Man misst daher einen scheinbaren Diffusionskoeffizienten (Apparent Diffusion Coefficient, ADC) der kleiner ist als der Diffusionskoeffizient bei freier Diffusion. Der ADC gestattet somit eine qualitative Abschät-zung der Größe der Luftwege und deren krankhafte Veränderung, ohne eine direkte Abbil-dung der Luftwege selbst. Eine dreidimensionale Abbildung der räumlichen Verteilung von Lungenschädigungen wird dadurch möglich. Ziel der vorliegenden Arbeit war es, ein tieferes physikalisch fundiertes Verständnis der 3He-Diffusionsmessung zu ermöglichen und die Methode der diffusionsgewichteten 3He-MRT hin zur Erfassung des kompletten 3He-Diffusionstensors weiterzuentwickeln. Dazu wurde systematisch im Rahmen von Phantom- und tierexperimentellen Studien sowie Patientenmes-sungen untersucht, inwieweit unterschiedliche Einflussfaktoren das Ergebnis der ADC-Messung beeinflussen. So konnte beispielsweise nachgewiesen werden, dass residuale Luftströmungen am Ende der Einatmung keinen Einfluss auf den ADC-Wert haben. Durch Simulationsrechnungen konnte gezeigt werden, in welchem Maße sich die durch den Anregungspuls hervorgerufene Abnah-me der Polarisation des 3He-Gases auf den gemessenen ADC-Wert auswirkt. In einer Studie an lungengesunden Probanden und Patienten konnte die Wiederholbarkeit der ADC-Messung untersucht werden, aber auch der Einfluss von Gravitationseffekten. Diese Ergebnisse ermöglichen genauere Angaben über systematische und statistische Messfehler, sowie über Grenzwerte zwischen normalem und krankhaft verändertem Lungengewebe. Im Rahmen dieser Arbeit wurde die bestehende diffusionsgewichtete Bildgebung methodisch zur Erfassung des kompletten Diffusionstensors von 3He in der Lunge weiterentwickelt. Dies war wichtig, da entlang der Luftwege weitestgehend freie Diffusion vorherrscht, während senkrecht zu den Luftwegen die Diffusion eingeschränkt ist. Mit Hilfe von Simulationsrech-nungen wurde der kritische Einfluss von Rauschen in den MRT-Bildern auf die Qualität der Messergebnisse untersucht. Diese neue Methodik wurde zunächst an einem Phantom beste-hend aus einem Bündel aus Glaskapillaren, deren innerer Durchmesser mit dem des mensch-lichen Azinus übereinstimmt, validiert. Es ergab sich eine gute Übereinstimmung zwischen theoretischen Berechnungen und experimentellen Ergebnissen. In ersten Messungen am Menschen konnten so unterschiedliche Anisotropiewerte zwischen lungengesunden Proban-den und Patienten gefunden werden. Es zeigte sich eine Tendenz zu isotroper Diffusion bei Patienten mit einem Lungenemphysem. Zusammenfassend tragen die Ergebnisse der vorliegenden Arbeit zu einem besseren Ver-ständnis der ADC-Messmethode bei und helfen zukünftige Studien aufgrund des tieferen Verständnisses der die 3He Messung beeinflussenden Faktoren besser zu planen.
Resumo:
Die zuverlässige Berechnung von quantitativen Parametern der Lungenventilation ist für ein Verständnis des Verhaltens der Lunge und insbesondere für die Diagnostik von Lungenerkrankungen von großer Bedeutung. Nur durch quantitative Parameter sind verlässliche und reproduzierbare diagnostische Aussagen über den Gesundheitszustand der Lunge möglich. Im Rahmen dieser Arbeit wurden neue quantitative Verfahren zur Erfassung der Lungenventilation basierend auf der dynamischen Computer- (CT) und Magnetresonanztomographie (MRT) entwickelt. Im ersten Teil dieser Arbeit wurde die Frage untersucht, ob das Aufblähen der Lunge in gesunden Schweinelungen und Lungen mit Akutem Lungenversagen (ARDS) durch einzelne, diskrete Zeitkonstanten beschrieben werden kann, oder ob kontinuierliche Verteilungen von Zeitkonstanten die Realität besser beschreiben. Hierzu wurden Serien dynamischer CT-Aufnahmen während definierter Beatmungsmanöver (Drucksprünge) aufgenommen und anschließend aus den Messdaten mittels inverser Laplace-Transformation die zugehörigen Verteilungen der Zeitkonstanten berechnet. Um die Qualität der Ergebnisse zu analysieren, wurde der Algorithmus im Rahmen von Simulationsrechnungen systematisch untersucht und anschließend in-vivo an gesunden und ARDS-Schweinelungen eingesetzt. Während in den gesunden Lungen mono- und biexponentielle Verteilungen bestimmt wurden, waren in den ARDS-Lungen Verteilungen um zwei dominante Zeitkonstanten notwendig, um die gemessenen Daten auf der Basis des verwendeten Modells verlässlich zu beschreiben. Es wurden sowohl diskrete als auch kontinuierliche Verteilungen gefunden. Die CT liefert Informationen über das solide Lungengewebe, während die MRT von hyperpolarisiertem 3He in der Lage ist, direkt das eingeatmete Gas abzubilden. Im zweiten Teil der Arbeit wurde zeitlich hochaufgelöst das Einströmen eines 3He-Bolus in die Lunge erfasst. Über eine Entfaltungsanalyse wurde anschließend das Einströmverhalten unter Idealbedingungen (unendlich kurzer 3He-Bolus), also die Gewebeantwortfunktion, berechnet und so eine Messtechnik-unabhängige Erfassung des Einströmens von 3He in die Lunge ermöglicht. Zentrale Fragestellung war hier, wie schnell das Gas in die Lunge einströmt. Im Rahmen von Simulationsrechnungen wurde das Verhalten eines Entfaltungsalgorithmus (basierend auf B-Spline Repräsentationen) systematisch analysiert. Zusätzlich wurde ein iteratives Entfaltungsverfahren eingesetzt. Aus zeitlich hochaufgelösten Messungen (7ms) an einer gesunden und einer ARDS-Schweinelunge konnte erstmals nachgewiesen werden, dass das Einströmen in-vivo in weniger als 0,1s geschieht. Die Ergebnisse zeigen Zeitkonstanten im Bereich von 4ms–50ms, wobei zwischen der gesunden Lungen und der ARDS-Lunge deutliche Unterschiede beobachtet wurden. Zusammenfassend ermöglichen daher die in dieser Arbeit vorgestellten Algorithmen eine objektivere Bestimmung quantitativer Parameter der Lungenventilation. Dies ist für die eindeutige Beschreibung ventilatorischer Vorgänge in der Lunge und somit für die Lungendiagnostik unerlässlich. Damit stehen quantitative Methoden für die Lungenfunktionsdiagnostik zur Verfügung, deren diagnostische Relevanz im Rahmen wissenschaftlicher und klinischer Studien untersucht werden kann.
Resumo:
Germaniumdioxid (GeO2) ist ein Glasbildner, der wie das homologe SiO2 ein ungeordnetes tetraedrisches Netzwerk ausbildet. In dieser Arbeit werden mit Hilfe von Molekulardynamik-Computersimulationen die Struktur und Dynamik von GeO2 in Abhängigkeit von der Temperatur untersucht. Dazu werden sowohl Simulationen mit einem klassischen Paarpotentialmodell von Oeffner und Elliott als auch ab initio-Simulationen gemäß der Car-Parrinello-Molekulardynamik (CPMD), bei der elektronische Freiheitsgrade mittels Dichtefunktionaltheorie beschrieben werden, durchgeführt. In der klassischen Simulation werden dazu ein Temperaturen zwischen 6100 K und 2530 K betrachtet. Darüberhinaus ermöglichen Abkühlläufe auf T=300 K das Studium der Struktur des Glases. Zum Vergleich werden CPMD-Simulationen für kleinere Systeme mit 60 bzw. 120 Teilchen bei den Temperaturen 3760 K und 3000 K durchgeführt. In den klassischen Simulationen kann die im Experiment bis 1700 K nachgewiesene, im Vergleich zu SiO2 starke, Temperaturabhängigkeit der Dichte auch bei höheren Temperaturen beobachtet werden. Gute Übereinstimmungen der Simulationen mit experimentellen Daten zeigen sich bei der Untersuchung verschiedener struktureller Größen, wie z.B. Paarkorrelationsfunktionen, Winkelverteilungen, Koordinationszahlen und Strukturfaktoren. Es können leichte strukturelle Abweichungen der CPMD-Simulationen von den klassischen Simulationen aufgezeigt werden: 1. Die Paarabstände in CPMD sind durchweg etwas kleiner. 2. Es zeigt sich, daß die Bindungen in den ab initio-Simulationen weicher sind, was sich auch in einer etwas stärkeren Temperaturabhängigkeit der strukturellen Größen im Vergleich zu den klassischen Simulationen niederschlägt. 3. Für CPMD kann ein vermehrtes Auftreten von Dreierringstrukturen gezeigt werden. 4. In der CPMD werden temperaturabhängige Defektstrukturen in Form von Sauerstoffpaaren beobachtet, die vor allem bei 3760 K, kaum jedoch bei 3000 K auftreten. Alle strukturellen Unterschiede zwischen klassischer und CPMD-Simulation sind eindeutig nicht auf Finite-Size-Effekte aufgrund der kleinen Systemgrößen in den CPMD-Simulationen zurückzuführen, d.h. sie sind tatsächlich methodisch bedingt. Bei der Dynamik von GeO2 wird in den klassischen Simulationen ebenfalls eine gute Übereinstimmung mit experimentellen Daten beobachtet, was ein Vergleich der Diffusionskonstanten mit Viskositätsmessungen bei hohen Temperaturen belegt. Die Diffusionskonstanten zeigen teilweise ein verschiedenes Verhalten zum homologen SiO2. Sie folgen in GeO2 bei Temperaturen unter 3000 K einem Arrheniusgesetz mit einer deutlich niedrigeren Aktivierungsenergie. Darüberhinaus werden die Möglichkeiten der Parametrisierung eines neuen klassischen Paarpotentials mittels der Kräfte entlang der CPMD-Trajektorien untersucht. Es zeigt sich, daß derartige Parametrisierungen sehr stark von den gewählten Startparametern abhängen. Ferner führen sämtliche an die Schmelze parametrisierten Potentiale zu zu hohen Dichten im Vergleich zum Experiment. Zum einen liegt dies sehr wahrscheinlich daran,daß für das System GeO2 Kraftdaten allein nicht ausreichen, um grundlegende strukturelle Größen, wie z.B. Paarkorrelationen und Winkelverteilungen, der CPMD-Simulationen gut reproduzieren zu können. Zum anderen ist wohl die Beschreibung mittels Paarpotentialen nicht ausreichend und es ist erforderlich, Merkörperwechselwirkungen in Betracht zu ziehen.
Resumo:
In this thesis I present theoretical and experimental results concern- ing the operation and properties of a new kind of Penning trap, the planar trap. It consists of circular electrodes printed on an isolating surface, with an homogeneous magnetic field pointing perpendicular to that surface. The motivation of such geometry is to be found in the construction of an array of planar traps for quantum informa- tional purposes. The open access to radiation of this geometry, and the long coherence times expected for Penning traps, make the planar trap a good candidate for quantum computation. Several proposals for quantum 2-qubit interactions are studied and estimates for their rates are given. An expression for the electrostatic potential is presented, and its fea- tures exposed. A detailed study of the anharmonicity of the potential is given theoretically and is later demonstrated by experiment and numerical simulations, showing good agreement. Size scalability of this trap has been studied by replacing the original planar trap by a trap twice smaller in the experimental setup. This substitution shows no scale effect apart from those expected for the scaling of the parameters of the trap. A smaller lifetime for trapped electrons is seen for this smaller trap, but is clearly matched to a bigger misalignment of the trap’s surface and the magnetic field, due to its more difficult hand manipulation. I also give a hint that this trap may be of help in studying non-linear dynamics for a sextupolarly perturbed Penning trap.