964 resultados para Peixoto’s theorem


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die vorliegende Arbeit untersucht das inverse Hindernisproblem der zweidimensionalen elektrischen Impedanztomographie (EIT) mit Rückstreudaten. Wir präsentieren und analysieren das mathematische Modell für Rückstreudaten, diskutieren das inverse Problem für einen einzelnen isolierenden oder perfekt leitenden Einschluss und stellen zwei Rekonstruktionsverfahren für das inverse Hindernisproblem mit Rückstreudaten vor. Ziel des inversen Hindernisproblems der EIT ist es, Inhomogenitäten (sogenannte Einschlüsse) der elektrischen Leitfähigkeit eines Körpers aus Strom-Spannungs-Messungen an der Körperoberfläche zu identifizieren. Für die Messung von Rückstreudaten ist dafür nur ein Paar aus an der Körperoberfläche nahe zueinander angebrachten Elektroden nötig, das zur Datenerfassung auf der Oberfläche entlang bewegt wird. Wir stellen ein mathematisches Modell für Rückstreudaten vor und zeigen, dass Rückstreudaten die Randwerte einer außerhalb der Einschlüsse holomorphen Funktion sind. Auf dieser Grundlage entwickeln wir das Konzept des konvexen Rückstreuträgers: Der konvexe Rückstreuträger ist eine Teilmenge der konvexen Hülle der Einschlüsse und kann daher zu deren Auffindung dienen. Wir stellen einen Algorithmus zur Berechnung des konvexen Rückstreuträgers vor und demonstrieren ihn an numerischen Beispielen. Ferner zeigen wir, dass ein einzelner isolierender Einschluss anhand seiner Rückstreudaten eindeutig identifizierbar ist. Der Beweis dazu beruht auf dem Riemann'schen Abbildungssatz für zweifach zusammenhängende Gebiete und dient als Grundlage für einen Rekonstruktionsalgorithmus, dessen Leistungsfähigkeit wir an verschiedenen Beispielen demonstrieren. Ein perfekt leitender Einschluss ist hingegen nicht immer aus seinen Rückstreudaten rekonstruierbar. Wir diskutieren, in welchen Fällen die eindeutige Identifizierung fehlschlägt und zeigen Beispiele für unterschiedliche perfekt leitende Einschlüsse mit gleichen Rückstreudaten.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The aim of this thesis is to investigate the nature of quantum computation and the question of the quantum speed-up over classical computation by comparing two different quantum computational frameworks, the traditional quantum circuit model and the cluster-state quantum computer. After an introductory survey of the theoretical and epistemological questions concerning quantum computation, the first part of this thesis provides a presentation of cluster-state computation suitable for a philosophical audience. In spite of the computational equivalence between the two frameworks, their differences can be considered as structural. Entanglement is shown to play a fundamental role in both quantum circuits and cluster-state computers; this supports, from a new perspective, the argument that entanglement can reasonably explain the quantum speed-up over classical computation. However, quantum circuits and cluster-state computers diverge with regard to one of the explanations of quantum computation that actually accords a central role to entanglement, i.e. the Everett interpretation. It is argued that, while cluster-state quantum computation does not show an Everettian failure in accounting for the computational processes, it threatens that interpretation of being not-explanatory. This analysis presented here should be integrated in a more general work in order to include also further frameworks of quantum computation, e.g. topological quantum computation. However, what is revealed by this work is that the speed-up question does not capture all that is at stake: both quantum circuits and cluster-state computers achieve the speed-up, but the challenges that they posit go besides that specific question. Then, the existence of alternative equivalent quantum computational models suggests that the ultimate question should be moved from the speed-up to a sort of “representation theorem” for quantum computation, to be meant as the general goal of identifying the physical features underlying these alternative frameworks that allow for labelling those frameworks as “quantum computation”.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Questa tesi verte sullo studio di un modello a volatilità stocastica e locale, utilizzato per valutare opzioni esotiche nei mercati dei cambio. La difficoltà nell'implementare un modello di tal tipo risiede nella calibrazione della leverage surface e uno degli scopi principali di questo lavoro è quello di mostrarne la procedura.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In dieser Arbeit wird die bisher präziseste und erste direkte Hochpräzisionsmessung des g-Faktors eines einzelnen Protons präsentiert. Die Messung beruht auf der nicht-destruktiven Bestimmung der Zyklotronfrequenz und der Larmorfrequenz eines in einer Penning-Falle gespeicherten Protons. Zur Bestimmung der Larmorfrequenz wird die Spin-Flip-Wahrscheinlichkeit als Funktion einer externen Spin-Flip-Anregung aufgenommen. Zu diesem Zweck wird der kontinuierliche Stern-Gerlach Effekt verwendet, welcher zu einer Kopplung des Spin-Moments an die axiale Bewegung des Protons führt. Ein Spin-Flip zeigt sich dabei in einem Sprung der axialen Bewegungsfrequenz. Die Schwierigkeit besteht darin, diesen Frequenzsprung auf einem Hintergrund axialer Frequenzfluktuationen zu detektieren. Um diese Herausforderung zu bewältigen, wurden neuartige Methoden und Techniken angewandt. Zum einen wurden supraleitende Nachweise mit höchster Empfindlichkeit entwickelt, welche schnelle und damit präzise Frequenzmessungen erlauben. Zum anderen wurde eine auf dem statistischen Bayes Theorem basierende Spin-Flip-Analyse-Methode angewandt. Mit diesen Verbesserungen war es möglich, einzelne Spin-Flips eines einzelnen Protons zu beobachten. Dies wiederum ermöglichte die Anwendung der sogenannten Doppelfallen-Methode, und damit die eingangs erwähnte Messung des g-Faktors mit einer Präzision von 4.3 10^-9.