34 resultados para Autonome Objekte
em ArchiMeD - Elektronische Publikationen der Universität Mainz - Alemanha
Resumo:
Wir untersuchen die numerische Lösung des inversen Streuproblems der Rekonstruktion der Form, Position und Anzahl endlich vieler perfekt leitender Objekte durch Nahfeldmessungen zeitharmonischer elektromagnetischer Wellen mit Hilfe von Metalldetektoren. Wir nehmen an, dass sich die Objekte gänzlich im unteren Halbraum eines unbeschränkten zweischichtigen Hintergrundmediums befinden. Wir nehmen weiter an, dass der obere Halbraum mit Luft und der untere Halbraum mit Erde gefüllt ist. Wir betrachten zuerst die physikalischen Grundlagen elektromagnetischer Wellen, aus denen wir zunächst ein vereinfachtes mathematisches Modell ableiten, in welchem wir direkt das elektromagnetische Feld messen. Dieses Modell erweitern wir dann um die Messung des elektromagnetischen Feldes von Sendespulen mit Hilfe von Empfangsspulen. Für das vereinfachte Modell entwickeln wir, unter Verwendung der Theorie des zugehörigen direkten Streuproblems, ein nichtiteratives Verfahren, das auf der Idee der sogenannten Faktorisierungsmethode beruht. Dieses Verfahren übertragen wir dann auf das erweiterte Modell. Wir geben einen Implementierungsvorschlag der Rekonstruktionsmethode und demonstrieren an einer Reihe numerischer Experimente die Anwendbarkeit des Verfahrens. Weiterhin untersuchen wir mehrere Abwandlungen der Methode zur Verbesserung der Rekonstruktionen und zur Verringerung der Rechenzeit.
Resumo:
Mögliche Verformungsmechanismen, die zu den verschiedenen Glimmer- und Mineralfischen führen, sind: intrakristalline Verformung, Kristallrotation, Biegung und Faltung, Drucklösung in Kombination mit Ausfällung und dynamische Rekristallisation oder Mechanismen, die ein großes Mineral in mehrere kleine, fischförmige Kristalle aufspalten.Experimente mit ein neues Verformungsgerät und Objekten in zwei verschiedenen Matrixmaterialien werden beschrieben. Das eine ist PDMS, (Newtonianisch viskoses Polymer), und das andere Tapioca Perlen (Mohr-Couloumb Verhalten). Die Rotation von fischförmigen Objekten in PDMS stimmt mit der theoretischen Rotationsrate für ellipsenförmige Objekte in einem Newtonianischen Material überein. In einer Matrix von Tapioca Perlen nehmen die Objekte eine stabile Lage ein. Diese Orientierung ist vergleichbar mit der von Glimmerfischen. Die Verformung in der Matrix von Tapioca Perlen ist konzentriert auf dünne Scherzonen. Diese Ergebnisse implizieren, daß die Verformung in natürlichen Gesteinen auch in dünnen Scherzonen konzentriert ist.Computersimulationen werden beschrieben, mit denen der Einfluß der Eigenschaften einer Matrix auf die Rotation von Objekten und Verteilung von Deformation untersucht wird.Mit diesen Experimenten wird gezeigt, daß die Orientierung von Glimmerfischen nicht mit Verformung in einem nicht-linearen viskosen Material erklärt werden kann. Eine solche nicht-lineare Rheologie wird im Allgemeinen für die Erdkurste angenommen. Die stabile Orientierung eines Objektes kann mit weicheren Lagen in der Matrix erklärt werden.
Resumo:
Das Standardmodell der Elementarteilchenphysik istexperimentell hervorragend bestätigt, hat auf theoretischerSeite jedoch unbefriedigende Aspekte: Zum einen wird derHiggssektor der Theorie von Hand eingefügt, und zum anderenunterscheiden sich die Beschreibung des beobachtetenTeilchenspektrums und der Gravitationfundamental. Diese beiden Nachteile verschwinden, wenn mandas Standardmodell in der Sprache der NichtkommutativenGeometrie formuliert. Ziel hierbei ist es, die Raumzeit der physikalischen Theoriedurch algebraische Daten zu erfassen. Beispielsweise stecktdie volle Information über eine RiemannscheSpinmannigfaltigkeit M in dem Datensatz (A,H,D), den manspektrales Tripel nennt. A ist hierbei die kommutativeAlgebra der differenzierbaren Funktionen auf M, H ist derHilbertraum der quadratintegrablen Spinoren über M und D istder Diracoperator. Mit Hilfe eines solchen Tripels (zu einer nichtkommutativenAlgebra) lassen sich nun sowohl Gravitation als auch dasStandardmodell mit mathematisch ein und demselben Mittelerfassen. In der vorliegenden Arbeit werden nulldimensionale spektraleTripel (die diskreten Raumzeiten entsprechen) zunächstklassifiziert und in Beispielen wird eine Quantisierungsolcher Objekte durchgeführt. Ein Problem der spektralenTripel stellt ihre Beschränkung auf echt RiemannscheMetriken dar. Zu diesem Problem werden Lösungsansätzepräsentiert. Im abschließenden Kapitel der Arbeit wird dersogenannte 'Feynman-Beweis der Maxwellgleichungen' aufnichtkommutative Konfigurationsräume verallgemeinert.
Resumo:
The aim of this thesis was to investigate novel techniques to create complex hierarchical chemical patterns on silica surfaces with micro to nanometer sized features. These surfaces were used for a site-selective assembly of colloidal particles and oligonucleotides. To do so, functionalised alkoxysilanes (commercial and synthesised ones) were deposited onto planar silica surfaces. The functional groups can form reversible attractive interactions with the complementary surface layers of the opposing objects that need to be assembled. These interactions determine the final location and density of the objects onto the surface. Photolithographically patterned silica surfaces were modified with commercial silanes, in order to create hydrophilic and hydrophobic regions on the surface. Assembly of hydrophobic silica particles onto these surfaces was investigated and finally, pH and charge effects on the colloidal assembly were analysed. In the second part of this thesis the concept of novel, "smart" alkoxysilanes is introduced that allows parallel surface activation and patterning in a one-step irradiation process. These novel species bear a photoreactive head-group in a protected form. Surface layers made from these molecules can be irradiated through a mask to remove the protecting group from selected regions and thus generate lateral chemical patterns of active and inert regions on the substrate. The synthesis of an azide-reactive alkoxysilane was successfully accomplished. Silanisation conditions were carefully optimised as to guarantee a smooth surface layer, without formation of micellar clusters. NMR and DLS experiments corroborated the absence of clusters when using neither water nor NaOH as catalysts during hydrolysis, but only the organic solvent itself. Upon irradiation of the azide layer, the resulting nitrene may undergo a variety of reactions depending on the irradiation conditions. Contact angle measurements demonstrated that the irradiated surfaces were more hydrophilic than the non-irradiated azide layer and therefore the formation of an amine upon irradiation was postulated. Successful photoactivation could be demonstrated using condensation patterns, which showed a change in wettability on the wafer surface upon irradiation. Colloidal deposition with COOH functionalised particles further underlined the formation of more hydrophilic species. Orthogonal photoreactive silanes are described in the third part of this thesis. The advantage of orthogonal photosensitive silanes is the possibility of having a coexistence of chemical functionalities homogeneously distributed in the same layer, by using appropriate protecting groups. For this purpose, a 3',5'-dimethoxybenzoin protected carboxylic acid silane was successfully synthesised and the kinetics of its hydrolysis and condensation in solution were analysed in order to optimise the silanisation conditions. This compound was used together with a nitroveratryl protected amino silane to obtain bicomponent surface layers. The optimum conditions for an orthogonal deprotection of surfaces modified with this two groups were determined. A 2-step deprotection process through a mask generated a complex pattern on the substrate by activating two different chemistries at different sites. This was demonstrated by colloidal adsorption and fluorescence labelling of the resulting substrates. Moreover, two different single stranded oligodeoxynucleotides were immobilised onto the two different activated areas and then hybrid captured with their respective complementary, fluorescent labelled strand. Selective hybridisation could be shown, although non-selective adsorption issues need to be resolved, making this technique attractive for possible DNA microarrays.
Resumo:
Die vorliegende Dissertation analysiert die Middleware- Technologien CORBA (Common Object Request Broker Architecture), COM/DCOM (Component Object Model/Distributed Component Object Model), J2EE (Java-2-Enterprise Edition) und Web Services (inklusive .NET) auf ihre Eignung bzgl. eng und lose gekoppelten verteilten Anwendungen. Zusätzlich werden primär für CORBA die dynamischen CORBA-Komponenten DII (Dynamic Invocation Interface), IFR (Interface Repository) und die generischen Datentypen Any und DynAny (dynamisches Any) im Detail untersucht. Ziel ist es, a. konkrete Aussagen über diese Komponenten zu erzielen, und festzustellen, in welchem Umfeld diese generischen Ansätze ihre Berechtigung finden. b. das zeitliche Verhalten der dynamischen Komponenten bzgl. der Informationsgewinnung über die unbekannten Objekte zu analysieren. c. das zeitliche Verhalten der dynamischen Komponenten bzgl. ihrer Kommunikation zu messen. d. das zeitliche Verhalten bzgl. der Erzeugung von generischen Datentypen und das Einstellen von Daten zu messen und zu analysieren. e. das zeitliche Verhalten bzgl. des Erstellens von unbekannten, d. h. nicht in IDL beschriebenen Datentypen zur Laufzeit zu messen und zu analysieren. f. die Vorzüge/Nachteile der dynamischen Komponenten aufzuzeigen, ihre Einsatzgebiete zu definieren und mit anderen Technologien wie COM/DCOM, J2EE und den Web Services bzgl. ihrer Möglichkeiten zu vergleichen. g. Aussagen bzgl. enger und loser Koppelung zu tätigen. CORBA wird als standardisierte und vollständige Verteilungsplattform ausgewählt, um die o. a. Problemstellungen zu untersuchen. Bzgl. seines dynamischen Verhaltens, das zum Zeitpunkt dieser Ausarbeitung noch nicht oder nur unzureichend untersucht wurde, sind CORBA und die Web Services richtungsweisend bzgl. a. Arbeiten mit unbekannten Objekten. Dies kann durchaus Implikationen bzgl. der Entwicklung intelligenter Softwareagenten haben. b. der Integration von Legacy-Applikationen. c. der Möglichkeiten im Zusammenhang mit B2B (Business-to-Business). Diese Problemstellungen beinhalten auch allgemeine Fragen zum Marshalling/Unmarshalling von Daten und welche Aufwände hierfür notwendig sind, ebenso wie allgemeine Aussagen bzgl. der Echtzeitfähigkeit von CORBA-basierten, verteilten Anwendungen. Die Ergebnisse werden anschließend auf andere Technologien wie COM/DCOM, J2EE und den Web Services, soweit es zulässig ist, übertragen. Die Vergleiche CORBA mit DCOM, CORBA mit J2EE und CORBA mit Web Services zeigen im Detail die Eignung dieser Technologien bzgl. loser und enger Koppelung. Desweiteren werden aus den erzielten Resultaten allgemeine Konzepte bzgl. der Architektur und der Optimierung der Kommunikation abgeleitet. Diese Empfehlungen gelten uneingeschränkt für alle untersuchten Technologien im Zusammenhang mit verteilter Verarbeitung.
Resumo:
The present thesis is concerned with the study of a quantum physical system composed of a small particle system (such as a spin chain) and several quantized massless boson fields (as photon gasses or phonon fields) at positive temperature. The setup serves as a simplified model for matter in interaction with thermal "radiation" from different sources. Hereby, questions concerning the dynamical and thermodynamic properties of particle-boson configurations far from thermal equilibrium are in the center of interest. We study a specific situation where the particle system is brought in contact with the boson systems (occasionally referred to as heat reservoirs) where the reservoirs are prepared close to thermal equilibrium states, each at a different temperature. We analyze the interacting time evolution of such an initial configuration and we show thermal relaxation of the system into a stationary state, i.e., we prove the existence of a time invariant state which is the unique limit state of the considered initial configurations evolving in time. As long as the reservoirs have been prepared at different temperatures, this stationary state features thermodynamic characteristics as stationary energy fluxes and a positive entropy production rate which distinguishes it from being a thermal equilibrium at any temperature. Therefore, we refer to it as non-equilibrium stationary state or simply NESS. The physical setup is phrased mathematically in the language of C*-algebras. The thesis gives an extended review of the application of operator algebraic theories to quantum statistical mechanics and introduces in detail the mathematical objects to describe matter in interaction with radiation. The C*-theory is adapted to the concrete setup. The algebraic description of the system is lifted into a Hilbert space framework. The appropriate Hilbert space representation is given by a bosonic Fock space over a suitable L2-space. The first part of the present work is concluded by the derivation of a spectral theory which connects the dynamical and thermodynamic features with spectral properties of a suitable generator, say K, of the time evolution in this Hilbert space setting. That way, the question about thermal relaxation becomes a spectral problem. The operator K is of Pauli-Fierz type. The spectral analysis of the generator K follows. This task is the core part of the work and it employs various kinds of functional analytic techniques. The operator K results from a perturbation of an operator L0 which describes the non-interacting particle-boson system. All spectral considerations are done in a perturbative regime, i.e., we assume that the strength of the coupling is sufficiently small. The extraction of dynamical features of the system from properties of K requires, in particular, the knowledge about the spectrum of K in the nearest vicinity of eigenvalues of the unperturbed operator L0. Since convergent Neumann series expansions only qualify to study the perturbed spectrum in the neighborhood of the unperturbed one on a scale of order of the coupling strength we need to apply a more refined tool, the Feshbach map. This technique allows the analysis of the spectrum on a smaller scale by transferring the analysis to a spectral subspace. The need of spectral information on arbitrary scales requires an iteration of the Feshbach map. This procedure leads to an operator-theoretic renormalization group. The reader is introduced to the Feshbach technique and the renormalization procedure based on it is discussed in full detail. Further, it is explained how the spectral information is extracted from the renormalization group flow. The present dissertation is an extension of two kinds of a recent research contribution by Jakšić and Pillet to a similar physical setup. Firstly, we consider the more delicate situation of bosonic heat reservoirs instead of fermionic ones, and secondly, the system can be studied uniformly for small reservoir temperatures. The adaption of the Feshbach map-based renormalization procedure by Bach, Chen, Fröhlich, and Sigal to concrete spectral problems in quantum statistical mechanics is a further novelty of this work.
Resumo:
In linearen Paulfallen gespeicherte und lasergekühlte Ionen stellen in weiten Bereichen der Physik ideale Objekte hinsichtlich störungsfreier und präziser Messungen atomarer Übergangsfrequenzen und der gezielten Manipulation von Quantenzuständen dar. Eine Einschränkung dieser optimalen Bedingungen erfolgt durch Heizmechanismen, die aus Abweichungen des Speicherpotentials von der idealen Quadrupolform resultieren. Höhere Potentialordnungen führen zu einer Kopplung der radialen Bewegungsmoden und bei bestimmten Speicherparametern zu nichtlinearen Resonanzen. Hierbei werden die Ionenbahnen durch eine Energieaufnahme aus dem Speicherfeld destabilisiert. Dieses kann zu Linienverbreiterungen, einer Limitierung der Kohärenzzeiten und unter Umständen zu einem Ionenverlust führen. Die systematische Untersuchung dieser Instabilitäten in einer linearen Paulfalle erfolgt durch Spektroskopie an einer kleinen Anzahl lasergekühlter ^40Ca^+ - Ionen. Der experimentell zugängliche Speicherbereich wird mit hoher Auflösung abgetastet. Durch eine eingehende Quantifizierung der Falleneigenschaften werden die nichtlinearen Resonanzen eindeutig den erzeugenden Potentialtermen zugeordnet. Die Resonanzlinien zeigen eine charakteristische Aufspaltung, deren Größe vom angelegten Axialpotential bestimmt wird. Diese zusätzliche Kopplung der Radialbewegung an die Axialbewegung führt zu einer modifizierten Resonanzbedingung. Nichtlineare Resonanzen treten massenspezifisch auf. Da eine präzise Kontrolle der Axialpotentiale sehr einfach ist, könnten die beobachteten radial-axial koppelnden Resonanzen eine Anwendung in der Massenspektrometrie finden.
Resumo:
Metallische Objekte in der Größenordnung der optischen Wellenlänge zeigen Resonanzen im optischen Spektralbereich. Mit einer Kombination aus Kolloidlithographie, Metallfilmbedampfung und reaktivem Ionenstrahl¨atzen wurden Nanosicheln aus Gold bzw. Silber mit identischer Form und Orientierung in Sichelform mit einer Größe von 60nm bis 400nm hergestellt. Der Öffnungswinkel der Nanosicheln lässt sich kontinuierlich einstellen. Durch die einheitliche Orientierung lassen sich Messungen am Ensemble direkt auf das Verhalten des Einzelobjektes übertragen, wie ein Vergleich der Extinktionsspektren einer Ensemblemessung am UV/Vis/NIR-Spektrometer mit einer Einzelpartikelmessung in einem konfokalen Mikroskop zeigt. Die optische Antwort der Nanosicheln wurde als zwei-dimensionales Modell mit einer Finite Elemente Methode berechnet. Das Ergebnis sind mehrere polarisationsabhängige Resonanzen im optischen Spektrum. Diese lassen sich durch Variation des Öffnungswinkels und der Gr¨oße der Nanosichel verschieben. Durch Beleuchten lassen sich plasmonische Schwingungen anregen, die ein stark lokalisiertes Nahfeld an den Spitzen und in der Öffnung der Nanosicheln erzeugen. Das Nahfeld der Partikelresonanz wurde mit einer Fotolackmethode nachgewiesen. Die Untersuchungen am UV/Vis/NIR-Spektrometer zeigen mehrere polarisationsabhängige Resonanzen im Spektralbereich von 300 nm bis 3200 nm. Die Resonanzen der Nanosicheln lassen sich durch den Öffnungswinkel und den Durchmesser in der Größenordnung der Halbwertbreite im optischen Spektrum verschieben. In der Anwendung als Chemo- bzw. Biosensor zeigen Gold-Nanosicheln eine ähnliche Empfindlichkeit wie vergleichbare Sensoren auf der Basis von dünnen Metallstrukturen. Das Nahfeld zeichnet sich durch eine starke Lokalisierung aus und dringt, je nach Multipolordnung, zwischen 14 nm und 70 nm in die Umgebung ein. Quantenpunkte wurden an das Nahfeld der Nanosicheln gekoppelt. Die Emission der Quantenpunkte bei einer Wellenlänge von 860nm wird durch die Resonanz der Nanosicheln verstärkt. Die Nanosicheln wurden als optische Pinzette eingesetzt. Bei einer Anregung mit einem Laser bei einer Wellenlänge von 1064 nm wurden Polystyrolkolloide mit einem Durchmesser von 40 nm von den resonanten Nanosicheln eingefangen. Die Nanosicheln zeigen außergewöhnliche optische Eigenschaften, die mithilfe der Geometrieparameter über einen großen Bereich verändert werden können. Die ersten Anwendungen haben Anknüpfungspunkte zur Verwendung in der Sensorik, Fluoreszenzspektroskopie und als optische Pinzette aufgezeigt.
Resumo:
Wie viele andere Sprachen Ost- und Südostasiens ist das Thai eine numerusneutrale Sprache, in der ein Nomen lediglich das Konzept benennt und keinen Hinweis auf die Anzahl der Objekte liefert. Um Nomina im Thai zählen zu können, ist der Klassifikator (Klf) nötig, der die Objekte anhand ihrer semantischen Schlüsseleigenschaft herausgreift und individualisiert. Neben der Klassifikation stellt die Individualisierung die Hauptfunktion des Klf dar. Weitere Kernfunktionen des Klf außerhalb des Zählkontextes sind die Markierung der Definitheit, des Numerus sowie des Kontrasts. Die wichtigsten neuen Ergebnisse dieser Arbeit, die sowohl die Ebenen der Grammatik und Semantik als auch die der Logik und Pragmatik integriert, sind folgende: Im Thai kann der Klf sowohl auf der Element- als auch auf der Mengenebene agieren. In der Verbindung mit einem Demonstrativ kann der Klf auch eine pluralische Interpretation hervorrufen, wenn er auf eine als pluralisch präsupponierte Gesamtmenge referiert oder die Gesamtmenge in einer Teil-Ganzes-Relation individualisiert. In einem Ausdruck, der bereits eine explizite Zahlangabe enthält, bewirkt die Klf-Demonstrativ-Konstruktion eine Kontrastierung von Mengen mit gleichen Eigenschaften. Wie auch der Individualbegriff besitzt der Klf Intension und Extension. Intension und Extension von Thai-Klf verhalten sich umgekehrt proportional, d.h. je spezifischer der Inhalt eines Klf ist, desto kleiner ist sein Umfang. Der Klf signalisiert das Schlüsselmerkmal, das mit der Intension des Nomens der Identifizierung des Objekts dient. Der Klf individualisiert das Nomen, indem er Teilmengen quantifiziert. Er kann sich auf ein Objekt, eine bestimmte Anzahl von Objekten oder auf alle Objekte beziehen. Formal logisch lassen sich diese Funktionen mithilfe des Existenz- und des Allquantors darstellen. Auch die Nullstelle (NST) läßt sich formal logisch darstellen. Auf ihren jeweiligen Informationsgehalt reduziert, ergeben sich für Klf und NST abhängig von ihrer Positionierung verschiedene Informationswerte: Die Opposition von Klf und NST bewirkt in den Fragebögen ausschließlich skalare Q-Implikaturen, die sich durch die Informationsformeln in Form einer Horn-Skala darstellen lassen. In einem sich aufbauenden Kontext transportieren sowohl Klf als auch NST in der Kontextmitte bekannte Informationen, wodurch Implikaturen des M- bzw. I-Prinzips ausgelöst werden. Durch die Verbindung der Informationswerte mit den Implikaturen des Q-, M- und I-Prinzips lässt sich anhand der Positionierung direkt erkennen, wann der Klf die Funktion der Numerus-, der Definitheits- oder der Kontrast-Markierung erfüllt.
Resumo:
A study of maar-diatreme volcanoes has been perfomed by inversion of gravity and magnetic data. The geophysical inverse problem has been solved by means of the damped nonlinear least-squares method. To ensure stability and convergence of the solution of the inverse problem, a mathematical tool, consisting in data weighting and model scaling, has been worked out. Theoretical gravity and magnetic modeling of maar-diatreme volcanoes has been conducted in order to get information, which is used for a simple rough qualitative and/or quantitative interpretation. The information also serves as a priori information to design models for the inversion and/or to assist the interpretation of inversion results. The results of theoretical modeling have been used to roughly estimate the heights and the dip angles of the walls of eight Eifel maar-diatremes — each taken as a whole. Inversemodeling has been conducted for the Schönfeld Maar (magnetics) and the Hausten-Morswiesen Maar (gravity and magnetics). The geometrical parameters of these maars, as well as the density and magnetic properties of the rocks filling them, have been estimated. For a reliable interpretation of the inversion results, beside the knowledge from theoretical modeling, it was resorted to other tools such like field transformations and spectral analysis for complementary information. Geologic models, based on thesynthesis of the respective interpretation results, are presented for the two maars mentioned above. The results gave more insight into the genesis, physics and posteruptive development of the maar-diatreme volcanoes. A classification of the maar-diatreme volcanoes into three main types has been elaborated. Relatively high magnetic anomalies are indicative of scoria cones embeded within maar-diatremes if they are not caused by a strong remanent component of the magnetization. Smaller (weaker) secondary gravity and magnetic anomalies on the background of the main anomaly of a maar-diatreme — especially in the boundary areas — are indicative for subsidence processes, which probably occurred in the late sedimentation phase of the posteruptive development. Contrary to postulates referring to kimberlite pipes, there exists no generalized systematics between diameter and height nor between geophysical anomaly and the dimensions of the maar-diatreme volcanoes. Although both maar-diatreme volcanoes and kimberlite pipes are products of phreatomagmatism, they probably formed in different thermodynamic and hydrogeological environments. In the case of kimberlite pipes, large amounts of magma and groundwater, certainly supplied by deep and large reservoirs, interacted under high pressure and temperature conditions. This led to a long period phreatomagmatic process and hence to the formation of large structures. Concerning the maar-diatreme and tuff-ring-diatreme volcanoes, the phreatomagmatic process takes place due to an interaction between magma from small and shallow magma chambers (probably segregated magmas) and small amounts of near-surface groundwater under low pressure and temperature conditions. This leads to shorter time eruptions and consequently to structures of smaller size in comparison with kimberlite pipes. Nevertheless, the results show that the diameter to height ratio for 50% of the studied maar-diatremes is around 1, whereby the dip angle of the diatreme walls is similar to that of the kimberlite pipes and lies between 70 and 85°. Note that these numerical characteristics, especially the dip angle, hold for the maars the diatremes of which — estimated by modeling — have the shape of a truncated cone. This indicates that the diatreme can not be completely resolved by inversion.
Resumo:
In der vorliegenden Arbeit wird die Faktorisierungsmethode zur Erkennung von Gebieten mit sprunghaft abweichenden Materialparametern untersucht. Durch eine abstrakte Formulierung beweisen wir die der Methode zugrunde liegende Bildraumidentität für allgemeine reelle elliptische Probleme und deduzieren bereits bekannte und neue Anwendungen der Methode. Für das spezielle Problem, magnetische oder perfekt elektrisch leitende Objekte durch niederfrequente elektromagnetische Strahlung zu lokalisieren, zeigen wir die eindeutige Lösbarkeit des direkten Problems für hinreichend kleine Frequenzen und die Konvergenz der Lösungen gegen die der elliptischen Gleichungen der Magnetostatik. Durch Anwendung unseres allgemeinen Resultats erhalten wir die eindeutige Rekonstruierbarkeit der gesuchten Objekte aus elektromagnetischen Messungen und einen numerischen Algorithmus zur Lokalisierung der Objekte. An einem Musterproblem untersuchen wir, wie durch parabolische Differentialgleichungen beschriebene Einschlüsse in einem durch elliptische Differentialgleichungen beschriebenen Gebiet rekonstruiert werden können. Dabei beweisen wir die eindeutige Lösbarkeit des zugrunde liegenden parabolisch-elliptischen direkten Problems und erhalten durch eine Erweiterung der Faktorisierungsmethode die eindeutige Rekonstruierbarkeit der Einschlüsse sowie einen numerischen Algorithmus zur praktischen Umsetzung der Methode.
Resumo:
Die vorliegende Arbeit wurde durch die Erkenntnis motiviert, daß die Theorie der Intentionalität ohne eine Theorie der impliziten Intentionalität unvollständig ist. Die Anlage einer solchen Theorie gründet in der Annahme, daß die impliziten ("ergänzenden oder "mit-bewußten") Erfahrungsinhalte Inhalte intentional wirksam sind: daß sie zur "Konstitution" der intentionalen Objekte – im Sinne vom Husserl und Gurwitsch – beitragen. Die Bedingungen und Umstände dieser Wirksamkeit herauszuarbeiten, ist das Hauptziel der vorliegenden Untersuchungen. Dazu wurde (1) eine phänomenologische Theorie des impliziten Inhalts kritisch expliziert, und (2) diese anhand einiger aktueller Ansätze der analytischen Philosophie auf die Probe gestellt. Im phänomenologischen Teil der Arbeit wurden zuerst die methodologischen Voraussetzungen von Gurwitschs gestalttheoretischer Neuformulierung des Husserlschen Projekts unter Berücksichtigung der sogenannten Konstanzannahme kritisch untersucht. Weiterhin wurden Husserls Noema-Konzeption und seine Horizontlehre aus der Perspektive von Gurwitschs Feldtheorie des Bewußtseins expliziert, und in der Folge Gurwitschs dreifache Gliederung des Bewußtseinsfeldes – das Kopräsenz-Kohärenz-Relevanz-Schema – um die phänomenologischen Begriffe "Potentialität", "Typik" und "Motivation" erweitert. Die Beziehungen, die diesen Begriffen zugrunde liegen, erwiesen sich als "mehr denn bloß kontigent, aber als weniger denn logisch oder notwendig" (Mulligan). An Beispielen aus der analytischen Philosphie der Wahrnehmung (Dretske, Peacocke, Dennett, Kelly) und der Sprache (Sperber, Wilson, Searle) wurde das phänomenologische Konzept des impliziten Inhalts kritisch beurteilt und weiterentwickelt. Hierbei wurde(n) unter anderem (1) der Zusammenhang zwischen dem phänomenologischen Begriff "vorprädikativer Inhalt" und dem analytischen Begriff "nichtkonzeptueller Inhalt" aufgezeigt und (2) Kriterien für die Zuschreibung impliziter Überzeugungen in den typischen Fällen der prädikativen Intentionalität zusammengetragen und systematisiert.
Resumo:
Die Verifikation numerischer Modelle ist für die Verbesserung der Quantitativen Niederschlagsvorhersage (QNV) unverzichtbar. Ziel der vorliegenden Arbeit ist die Entwicklung von neuen Methoden zur Verifikation der Niederschlagsvorhersagen aus dem regionalen Modell der MeteoSchweiz (COSMO-aLMo) und des Globalmodells des Europäischen Zentrums für Mittelfristvorhersage (engl.: ECMWF). Zu diesem Zweck wurde ein neuartiger Beobachtungsdatensatz für Deutschland mit stündlicher Auflösung erzeugt und angewandt. Für die Bewertung der Modellvorhersagen wurde das neue Qualitätsmaß „SAL“ entwickelt. Der neuartige, zeitlich und räumlich hoch-aufgelöste Beobachtungsdatensatz für Deutschland wird mit der während MAP (engl.: Mesoscale Alpine Program) entwickelten Disaggregierungsmethode erstellt. Die Idee dabei ist, die zeitlich hohe Auflösung der Radardaten (stündlich) mit der Genauigkeit der Niederschlagsmenge aus Stationsmessungen (im Rahmen der Messfehler) zu kombinieren. Dieser disaggregierte Datensatz bietet neue Möglichkeiten für die quantitative Verifikation der Niederschlagsvorhersage. Erstmalig wurde eine flächendeckende Analyse des Tagesgangs des Niederschlags durchgeführt. Dabei zeigte sich, dass im Winter kein Tagesgang existiert und dies vom COSMO-aLMo gut wiedergegeben wird. Im Sommer dagegen findet sich sowohl im disaggregierten Datensatz als auch im COSMO-aLMo ein deutlicher Tagesgang, wobei der maximale Niederschlag im COSMO-aLMo zu früh zwischen 11-14 UTC im Vergleich zu 15-20 UTC in den Beobachtungen einsetzt und deutlich um das 1.5-fache überschätzt wird. Ein neues Qualitätsmaß wurde entwickelt, da herkömmliche, gitterpunkt-basierte Fehlermaße nicht mehr der Modellentwicklung Rechnung tragen. SAL besteht aus drei unabhängigen Komponenten und basiert auf der Identifikation von Niederschlagsobjekten (schwellwertabhängig) innerhalb eines Gebietes (z.B. eines Flusseinzugsgebietes). Berechnet werden Unterschiede der Niederschlagsfelder zwischen Modell und Beobachtungen hinsichtlich Struktur (S), Amplitude (A) und Ort (L) im Gebiet. SAL wurde anhand idealisierter und realer Beispiele ausführlich getestet. SAL erkennt und bestätigt bekannte Modelldefizite wie das Tagesgang-Problem oder die Simulation zu vieler relativ schwacher Niederschlagsereignisse. Es bietet zusätzlichen Einblick in die Charakteristiken der Fehler, z.B. ob es sich mehr um Fehler in der Amplitude, der Verschiebung eines Niederschlagsfeldes oder der Struktur (z.B. stratiform oder kleinskalig konvektiv) handelt. Mit SAL wurden Tages- und Stundensummen des COSMO-aLMo und des ECMWF-Modells verifiziert. SAL zeigt im statistischen Sinne speziell für stärkere (und damit für die Gesellschaft relevante Niederschlagsereignisse) eine im Vergleich zu schwachen Niederschlägen gute Qualität der Vorhersagen des COSMO-aLMo. Im Vergleich der beiden Modelle konnte gezeigt werden, dass im Globalmodell flächigere Niederschläge und damit größere Objekte vorhergesagt werden. Das COSMO-aLMo zeigt deutlich realistischere Niederschlagsstrukturen. Diese Tatsache ist aufgrund der Auflösung der Modelle nicht überraschend, konnte allerdings nicht mit herkömmlichen Fehlermaßen gezeigt werden. Die im Rahmen dieser Arbeit entwickelten Methoden sind sehr nützlich für die Verifikation der QNV zeitlich und räumlich hoch-aufgelöster Modelle. Die Verwendung des disaggregierten Datensatzes aus Beobachtungen sowie SAL als Qualitätsmaß liefern neue Einblicke in die QNV und lassen angemessenere Aussagen über die Qualität von Niederschlagsvorhersagen zu. Zukünftige Anwendungsmöglichkeiten für SAL gibt es hinsichtlich der Verifikation der neuen Generation von numerischen Wettervorhersagemodellen, die den Lebenszyklus hochreichender konvektiver Zellen explizit simulieren.
Resumo:
In this work, we consider a simple model problem for the electromagnetic exploration of small perfectly conducting objects buried within the lower halfspace of an unbounded two–layered background medium. In possible applications, such as, e.g., humanitarian demining, the two layers would correspond to air and soil. Moving a set of electric devices parallel to the surface of ground to generate a time–harmonic field, the induced field is measured within the same devices. The goal is to retrieve information about buried scatterers from these data. In mathematical terms, we are concerned with the analysis and numerical solution of the inverse scattering problem to reconstruct the number and the positions of a collection of finitely many small perfectly conducting scatterers buried within the lower halfspace of an unbounded two–layered background medium from near field measurements of time–harmonic electromagnetic waves. For this purpose, we first study the corresponding direct scattering problem in detail and derive an asymptotic expansion of the scattered field as the size of the scatterers tends to zero. Then, we use this expansion to justify a noniterative MUSIC–type reconstruction method for the solution of the inverse scattering problem. We propose a numerical implementation of this reconstruction method and provide a series of numerical experiments.
Resumo:
Diese Arbeit analysiert den Alltag in einem gymnasialen Jungeninternat in der Upper West Region in Ghana und setzt diese Analyse in eine anthropologische Perspektive zum Staat. Angeregt durch die Überlegungen von Michel Foucault zu Disziplinarmechanismen und „Technologien des Selbst“ steht die alltägliche Disziplinierung der Schüler im Mittelpunkt dieser Arbeit. Dabei wird Disziplin nicht als restriktiv, übergeordnet und allgegenwärtig gedacht, sondern als etwas, das die Schüler aktiv mitgestalten. Einerseits sind die Schüler der Nandom Secondary School Disziplinartechniken ausgesetzt, die sich auf die Kontrolle ihrer Körper beziehen: Sie werden vereinheitlicht, klassifiziert, hierarchisiert, überwacht, geprüft und bestraft. Andererseits sind die Schüler keine übermächtigten Objekte einer totalen Institution, sondern sie wirken kreativ mit beim Flechten des Netzes aus Kontrolle und Freiräumen in ihrer Schule: Sie spielen eine wichtige Rolle bei der Kontrolle der Lehrer; sie erkennen und nutzen Freiräume, deren Rahmen sie mit den Lehrern aushandeln. Auch ihr Selbst bekommen die Schüler nicht von den Lehrern einfach diktiert. Zwar wird ihnen durch das Bild des guten Schülers eine bestimmte Sicht auf sich selbst nahe gelegt, doch wie sie dieses Bild aufnehmen, ablehnen oder umdeuten liegt in ihren eigenen Händen.