17 resultados para Electrical impedance tomography, Calderon problem, factorization method

em ArchiMeD - Elektronische Publikationen der Universität Mainz - Alemanha


Relevância:

100.00% 100.00%

Publicador:

Resumo:

In this work we study localized electric potentials that have an arbitrarily high energy on some given subset of a domain and low energy on another. We show that such potentials exist for general L-infinity-conductivities (with positive infima) in almost arbitrarily shaped subregions of a domain, as long as these regions are connected to the boundary and a unique continuation principle is satisfied. From this we deduce a simple, but new, theoretical identifiability result for the famous Calderon problem with partial data. We also show how to construct such potentials numerically and use a connection with the factorization method to derive a new non-iterative algorithm for the detection of inclusions in electrical impedance tomography.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In electrical impedance tomography, one tries to recover the conductivity inside a physical body from boundary measurements of current and voltage. In many practically important situations, the investigated object has known background conductivity but it is contaminated by inhomogeneities. The factorization method of Andreas Kirsch provides a tool for locating such inclusions. Earlier, it has been shown that under suitable regularity conditions positive (or negative) inhomogeneities can be characterized by the factorization technique if the conductivity or one of its higher normal derivatives jumps on the boundaries of the inclusions. In this work, we use a monotonicity argument to generalize these results: We show that the factorization method provides a characterization of an open inclusion (modulo its boundary) if each point inside the inhomogeneity has an open neighbourhood where the perturbation of the conductivity is strictly positive (or negative) definite. In particular, we do not assume any regularity of the inclusion boundary or set any conditions on the behaviour of the perturbed conductivity at the inclusion boundary. Our theoretical findings are verified by two-dimensional numerical experiments.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In various imaging problems the task is to use the Cauchy data of the solutions to an elliptic boundary value problem to reconstruct the coefficients of the corresponding partial differential equation. Often the examined object has known background properties but is contaminated by inhomogeneities that cause perturbations of the coefficient functions. The factorization method of Kirsch provides a tool for locating such inclusions. In this paper, the factorization technique is studied in the framework of coercive elliptic partial differential equations of the divergence type: Earlier it has been demonstrated that the factorization algorithm can reconstruct the support of a strictly positive (or negative) definite perturbation of the leading order coefficient, or if that remains unperturbed, the support of a strictly positive (or negative) perturbation of the zeroth order coefficient. In this work we show that these two types of inhomogeneities can, in fact, be located simultaneously. Unlike in the earlier articles on the factorization method, our inclusions may have disconnected complements and we also weaken some other a priori assumptions of the method. Our theoretical findings are complemented by two-dimensional numerical experiments that are presented in the framework of the diffusion approximation of optical tomography.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In der vorliegenden Arbeit wird die Faktorisierungsmethode zur Erkennung von Inhomogenitäten der Leitfähigkeit in der elektrischen Impedanztomographie auf unbeschränkten Gebieten - speziell der Halbebene bzw. dem Halbraum - untersucht. Als Lösungsräume für das direkte Problem, d.h. die Bestimmung des elektrischen Potentials zu vorgegebener Leitfähigkeit und zu vorgegebenem Randstrom, führen wir gewichtete Sobolev-Räume ein. In diesen wird die Existenz von schwachen Lösungen des direkten Problems gezeigt und die Gültigkeit einer Integraldarstellung für die Lösung der Laplace-Gleichung, die man bei homogener Leitfähigkeit erhält, bewiesen. Mittels der Faktorisierungsmethode geben wir eine explizite Charakterisierung von Einschlüssen an, die gegenüber dem Hintergrund eine sprunghaft erhöhte oder erniedrigte Leitfähigkeit haben. Damit ist zugleich für diese Klasse von Leitfähigkeiten die eindeutige Rekonstruierbarkeit der Einschlüsse bei Kenntnis der lokalen Neumann-Dirichlet-Abbildung gezeigt. Die mittels der Faktorisierungsmethode erhaltene Charakterisierung der Einschlüsse haben wir in ein numerisches Verfahren umgesetzt und sowohl im zwei- als auch im dreidimensionalen Fall mit simulierten, teilweise gestörten Daten getestet. Im Gegensatz zu anderen bekannten Rekonstruktionsverfahren benötigt das hier vorgestellte keine Vorabinformation über Anzahl und Form der Einschlüsse und hat als nicht-iteratives Verfahren einen vergleichsweise geringen Rechenaufwand.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Die Elektrische Impedanztomographie soll als kostengünstige und nebenwirkungsfreie Tomographiemethode in der medizinischen Diagnostik, z. B. in der Mammographie dienen. Mit der EIT läßt sich Krebsgewebe von gesundem Gewebe unterscheiden, da es eine signifikant erhöhte Leitfähigkeit aufweist. Damit kann die EIT als Ergänzung zu den klassischen Diagnoseverfahren dienen. So ist z.B. bei jungen Frauen mit einem dichteren Fettgewebe die Identifizierung eines Mammakarzinoms mit der Röntgentomographie nicht immer möglich. Ziel dieser Arbeit war es, einen Prototypen für die Impedanztomographie zu entwickeln und mögliche Anwendungen zu testen. Der Tomograph ist in Zusammenarbeit mit Dr. K.H.Georgi gebaut worden. Der Tomograph erlaubt es niederohmige, Wechselströme an Elektroden auf der Körperoberfläche einzuspeisen. Die Potentiale können an diesen Elektroden programmierbar vorgegeben werden. Weitere hochohmige Elektroden dienen zur Potentialmessung. Um den Hautwiderstand zu überbrücken, werden Wechselstromfrequenzen von 20-100 kHz eingesetzt. Mit der Möglichkeit der Messung von Strom und Potential auf unterschiedlichen Elektroden kann man das Problem des nur ungenau bekannten Hautwiderstandes umgehen. Prinzipiell ist es mit dem Mainzer EIT System möglich, 100 Messungen in der Sekunde durchzuführen. Auf der Basis von mit dem Mainzer EIT gewonnenen Daten sollten unterschiedliche Rekonstruktionsalgorithmen getestet und weiterentwickelt werden. In der Vergangenheit sind verschiedene Rekonstruktionsalgorithmen für das mathematisch schlecht gestellte EIT Problem betrachtet worden. Sie beruhen im Wesentlichen auf zwei Strategien: Die Linearisierung und iterative Lösung des Problems und Gebietserkennungsmethoden. Die iterativen Verfahren wurden von mir dahingehend modifiziert, dass Leitfähigkeitserhöhungen und Leitfähigkeitserniedrigungen gleichberechtigt behandelt werden können. Für den modifizierten Algorithmus wurden zwei verschiedene Rekonstruktionsalgorithmen programmiert und mit synthetischen Daten getestet. Zum einen die Rekonstruktion über die approximative Inverse, zum anderen eine Rekonstruktion mit einer Diskretisierung. Speziell für die Rekonstruktion mittels Diskretisierung wurde eine Methode entwickelt, mit der zusätzliche Informationen in der Rekonstruktion berücksichtigt werden können, was zu einer Verbesserung der Rekonstruktion beiträgt. Der Gebietserkennungsalgorithmus kann diese Zusatzinformationen liefern. In der Arbeit wurde ein neueres Verfahren für die Gebietserkennung derart modifiziert, dass eine Rekonstruktion auch für getrennte Strom- und Spannungselektroden möglich wurde. Mit Hilfe von Differenzdaten lassen sich ausgezeichnete Rekonstruktionen erzielen. Für die medizinischen Anwendungen sind aber Absolutmessungen nötig, d.h. ohne Leermessung. Der erwartende Effekt einer Inhomogenität in der Leitfähigkeit ist sehr klein und als Differenz zweier grosser Zahlen sehr schwierig zu bestimmen. Die entwickelten Algorithmen kommen auch gut mit Absolutdaten zurecht.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The Factorization Method localizes inclusions inside a body from measurements on its surface. Without a priori knowing the physical parameters inside the inclusions, the points belonging to them can be characterized using the range of an auxiliary operator. The method relies on a range characterization that relates the range of the auxiliary operator to the measurements and is only known for very particular applications. In this work we develop a general framework for the method by considering symmetric and coercive operators between abstract Hilbert spaces. We show that the important range characterization holds if the difference between the inclusions and the background medium satisfies a coerciveness condition which can immediately be translated into a condition on the coefficients of a given real elliptic problem. We demonstrate how several known applications of the Factorization Method are covered by our general results and deduce the range characterization for a new example in linear elasticity.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Assuming that the heat capacity of a body is negligible outside certain inclusions the heat equation degenerates to a parabolic-elliptic interface problem. In this work we aim to detect these interfaces from thermal measurements on the surface of the body. We deduce an equivalent variational formulation for the parabolic-elliptic problem and give a new proof of the unique solvability based on Lions’s projection lemma. For the case that the heat conductivity is higher inside the inclusions, we develop an adaptation of the factorization method to this time-dependent problem. In particular this shows that the locations of the interfaces are uniquely determined by boundary measurements. The method also yields to a numerical algorithm to recover the inclusions and thus the interfaces. We demonstrate how measurement data can be simulated numerically by a coupling of a finite element method with a boundary element method, and finally we present some numerical results for the inverse problem.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In der vorliegenden Arbeit wird die Faktorisierungsmethode zur Erkennung von Gebieten mit sprunghaft abweichenden Materialparametern untersucht. Durch eine abstrakte Formulierung beweisen wir die der Methode zugrunde liegende Bildraumidentität für allgemeine reelle elliptische Probleme und deduzieren bereits bekannte und neue Anwendungen der Methode. Für das spezielle Problem, magnetische oder perfekt elektrisch leitende Objekte durch niederfrequente elektromagnetische Strahlung zu lokalisieren, zeigen wir die eindeutige Lösbarkeit des direkten Problems für hinreichend kleine Frequenzen und die Konvergenz der Lösungen gegen die der elliptischen Gleichungen der Magnetostatik. Durch Anwendung unseres allgemeinen Resultats erhalten wir die eindeutige Rekonstruierbarkeit der gesuchten Objekte aus elektromagnetischen Messungen und einen numerischen Algorithmus zur Lokalisierung der Objekte. An einem Musterproblem untersuchen wir, wie durch parabolische Differentialgleichungen beschriebene Einschlüsse in einem durch elliptische Differentialgleichungen beschriebenen Gebiet rekonstruiert werden können. Dabei beweisen wir die eindeutige Lösbarkeit des zugrunde liegenden parabolisch-elliptischen direkten Problems und erhalten durch eine Erweiterung der Faktorisierungsmethode die eindeutige Rekonstruierbarkeit der Einschlüsse sowie einen numerischen Algorithmus zur praktischen Umsetzung der Methode.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Wir untersuchen die numerische Lösung des inversen Streuproblems der Rekonstruktion der Form, Position und Anzahl endlich vieler perfekt leitender Objekte durch Nahfeldmessungen zeitharmonischer elektromagnetischer Wellen mit Hilfe von Metalldetektoren. Wir nehmen an, dass sich die Objekte gänzlich im unteren Halbraum eines unbeschränkten zweischichtigen Hintergrundmediums befinden. Wir nehmen weiter an, dass der obere Halbraum mit Luft und der untere Halbraum mit Erde gefüllt ist. Wir betrachten zuerst die physikalischen Grundlagen elektromagnetischer Wellen, aus denen wir zunächst ein vereinfachtes mathematisches Modell ableiten, in welchem wir direkt das elektromagnetische Feld messen. Dieses Modell erweitern wir dann um die Messung des elektromagnetischen Feldes von Sendespulen mit Hilfe von Empfangsspulen. Für das vereinfachte Modell entwickeln wir, unter Verwendung der Theorie des zugehörigen direkten Streuproblems, ein nichtiteratives Verfahren, das auf der Idee der sogenannten Faktorisierungsmethode beruht. Dieses Verfahren übertragen wir dann auf das erweiterte Modell. Wir geben einen Implementierungsvorschlag der Rekonstruktionsmethode und demonstrieren an einer Reihe numerischer Experimente die Anwendbarkeit des Verfahrens. Weiterhin untersuchen wir mehrere Abwandlungen der Methode zur Verbesserung der Rekonstruktionen und zur Verringerung der Rechenzeit.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Die vorliegende Arbeit untersucht das inverse Hindernisproblem der zweidimensionalen elektrischen Impedanztomographie (EIT) mit Rückstreudaten. Wir präsentieren und analysieren das mathematische Modell für Rückstreudaten, diskutieren das inverse Problem für einen einzelnen isolierenden oder perfekt leitenden Einschluss und stellen zwei Rekonstruktionsverfahren für das inverse Hindernisproblem mit Rückstreudaten vor. Ziel des inversen Hindernisproblems der EIT ist es, Inhomogenitäten (sogenannte Einschlüsse) der elektrischen Leitfähigkeit eines Körpers aus Strom-Spannungs-Messungen an der Körperoberfläche zu identifizieren. Für die Messung von Rückstreudaten ist dafür nur ein Paar aus an der Körperoberfläche nahe zueinander angebrachten Elektroden nötig, das zur Datenerfassung auf der Oberfläche entlang bewegt wird. Wir stellen ein mathematisches Modell für Rückstreudaten vor und zeigen, dass Rückstreudaten die Randwerte einer außerhalb der Einschlüsse holomorphen Funktion sind. Auf dieser Grundlage entwickeln wir das Konzept des konvexen Rückstreuträgers: Der konvexe Rückstreuträger ist eine Teilmenge der konvexen Hülle der Einschlüsse und kann daher zu deren Auffindung dienen. Wir stellen einen Algorithmus zur Berechnung des konvexen Rückstreuträgers vor und demonstrieren ihn an numerischen Beispielen. Ferner zeigen wir, dass ein einzelner isolierender Einschluss anhand seiner Rückstreudaten eindeutig identifizierbar ist. Der Beweis dazu beruht auf dem Riemann'schen Abbildungssatz für zweifach zusammenhängende Gebiete und dient als Grundlage für einen Rekonstruktionsalgorithmus, dessen Leistungsfähigkeit wir an verschiedenen Beispielen demonstrieren. Ein perfekt leitender Einschluss ist hingegen nicht immer aus seinen Rückstreudaten rekonstruierbar. Wir diskutieren, in welchen Fällen die eindeutige Identifizierung fehlschlägt und zeigen Beispiele für unterschiedliche perfekt leitende Einschlüsse mit gleichen Rückstreudaten.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Since historical times, coastal areas throughout the eastern Mediterranean are exposed to tsunami hazard. For many decades the knowledge about palaeotsunamis was solely based on historical accounts. However, results from timeline analyses reveal different characteristics affecting the quality of the dataset (i.e. distribution of data, temporal thinning backward of events, local periodization phenomena) that emphasize the fragmentary character of the historical data. As an increasing number of geo-scientific studies give convincing examples of well dated tsunami signatures not reported in catalogues, the non-existing record is a major problem to palaeotsunami research. While the compilation of historical data allows a first approach in the identification of areas vulnerable to tsunamis, it must not be regarded as reliable for hazard assessment. Considering the increasing economic significance of coastal regions (e.g. for mass tourism) and the constantly growing coastal population, our knowledge on the local, regional and supraregional tsunami hazard along Mediterranean coasts has to be improved. For setting up a reliable tsunami risk assessment and developing risk mitigation strategies, it is of major importance (i) to identify areas under risk and (ii) to estimate the intensity and frequency of potential events. This approach is most promising when based on the analysis of palaeotsunami research seeking to detect areas of high palaeotsunami hazard, to calculate recurrence intervals and to document palaeotsunami destructiveness in terms of wave run-up, inundation and long-term coastal change. Within the past few years, geo-scientific studies on palaeotsunami events provided convincing evidence that throughout the Mediterranean ancient harbours were subject to strong tsunami-related disturbance or destruction. Constructed to protect ships from storm and wave activity, harbours provide especially sheltered and quiescent environments and thus turned out to be valuable geo-archives for tsunamigenic high-energy impacts on coastal areas. Directly exposed to the Hellenic Trench and extensive local fault systems, coastal areas in the Ionian Sea and the Gulf of Corinth hold a considerably high risk for tsunami events, respectively.Geo-scientific and geoarcheaological studies carried out in the environs of the ancient harbours of Krane (Cefalonia Island), Lechaion (Corinth, Gulf of Corinth) and Kyllini (western Peloponnese) comprised on-shore and near-shore vibracoring and subsequent sedimentological, geochemical and microfossil analyses of the recovered sediments. Geophysical methods like electrical resistivity tomography and ground penetrating radar were applied in order to detect subsurface structures and to verify stratigraphical patterns derived from vibracores over long distances. The overall geochronological framework of each study area is based on radiocarbon dating of biogenic material and age determination of diagnostic ceramic fragments. Results presented within this study provide distinct evidence of multiple palaeotsunami landfalls for the investigated areas. Tsunami signatures encountered in the environs of Krane, Lechaion and Kyllini include (i) coarse-grained allochthonous marine sediments intersecting silt-dominated quiescent harbour deposits and/or shallow marine environments, (ii) disturbed microfaunal assemblages and/or (iii) distinct geochemical fingerprints as well as (iv) geo-archaeological destruction layers and (v) extensive units of beachrock-type calcarenitic tsunamites. For Krane, geochronological data yielded termini ad or post quem (maximum ages) for tsunami event generations dated to 4150 ± 60 cal BC, ~ 3200 ± 110 cal BC, ~ 650 ± 110 cal BC, and ~ 930 ± 40 cal AD, respectively. Results for Lechaion suggest that the harbour was hit by strong tsunami impacts in the 8th-6th century BC, the 1st-2nd century AD and in the 6th century AD. At Kyllini, the harbour site was affected by tsunami impact in between the late 7th and early 4th cent. BC and between the 4th and 6th cent. AD. In case of Lechaion and Kyllini, the final destruction of the harbour facilities also seems to be related to the tsunami impact. Comparing the tsunami signals obtained for each study areas with geo-scientific data from palaeotsunami events from other sites indicates that the investigated harbour sites represent excellent geo-archives for supra-regional mega-tsunamis.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Ziel war Herstellung und Charakterisierung festkörperunterstützter Membransysteme aus Glykolipopolymeren auf Goldoberflächen, mit elektrischen Eigenschaften, die denen der Schwarzfilmmembranen entsprechen. Um diese Eigenschaften mit impedanzspektroskopischen Techniken messen zu können, ist die Präparation der Membranen auf Goldfilmen notwendig. Eine direkte Verankerung der Glykolipopolymermoleküle (GLP) auf der Goldoberfläche ist nicht möglich, daher werden die untersuchten GLP mit Hilfe von photoreaktiven Molekülen kovalent auf der Goldoberfläche immobilisiert. Untersuchten Abstandhalter waren Thio-Polyethylenglykol und eine Mischung zweier Alkanthiole, bestehend aus 1-Thiohexanol und Bis-(Aminododecyl)-disulfid. Thio-PEG-Monoschichten zeigten sehr unterschiedliche Schichtdicken, weil die Moleküle auf der Oberfläche sehr unterschiedliche Konformationen annehmen können, die eine regelmässige Anordnung erschweren. Langmuir-Blodgett Übertrag sowie die durchgeführte photochemische Fixierung der GLP-Moleküle auf Thio-PEG Schichten führte zu Eigenschaften, die auf den Aufbau einer Lipidmonolage hinweisen. Diese stellte jedoch im Bereich der Lipidmoleküle keine geschlossene Schicht dar. Es kommen als Abstandhaltermoleküle für die Photofunktionalisierung nur Moleküle in Frage, die aufgrund ihrer Eigenschaften eine regelmässige Anordnung auf der Goldoberfläche anstreben. Diese Voraussetzung erfüllt am besten die Gruppe der Alkanthiole. Terminal funktionalisierte Alkanthiole müssen jedoch mit nicht oder anderweitig funktionalisierten Alkanthiolen verdünnt assembliert werden, um weitergehende Funktionalisierungen einzugehen. Die untersuchten GLP lassen sich aufgrund ihrer amphiphilen Struktur an der Wasser-Luft Grenzfläche vororientieren. In allen Fällen gelingt auch der Langmuir-Blodgett Übertrag der komprimierten Schicht, sowie, nach der für die Anbindung notwendigen Trocknung, die photochemisch kovalente Fixierung der Monoschicht durch Bestrahlung mit UV-Licht. Damit konnte erstmals die photochemisch kovalente Fixierung von GLPs auf der Goldoberfläche gezeigt werden. Untersuchungen erfolgten an einem Copolymer sowie zwei unterschiedlichen Homopolymermolekülen. Der unterschiedliche molekulare Aufbau der GLP spiegelt sich in ihrem Verhalten an der Wasser-Luft Grenzfläche sowie in den Eigenschaften der gebildeten Monoschichten wieder. Die Copolymer-Schichten zeigten sehr unterschiedliche Schichtdicken. Auch die EIS-Daten sind schlecht reproduzierbar. Dies ist auf die molekulare Struktur des Copolymers zurückzuführen. Gänzlich unterschiedlich verhalten sich die Homopolymere. Aufgrund ihrer Struktur lassen sie sich zu dichten Schichten komprimieren. Messungen der Fluoreszenzerholung nach Photobleichung (FRAP) zeigen homogene aber nicht fluide Schichten. Die photochemisch kovalente Fixierung des Moleküls auf der Goldoberfläche konnte durch SPR- sowie EIS-Messungen nachgewiesen werden. Die EIS-Messungen zeigen Werte, die sich in Bereichen der idealen Modellmembran bewegen. Der erfolgreiche Einbau von Valinomycin konnte bestätigt werden. FRAP Untersuchungen zeigten die Bildung homogener Schichten. Diese sind jedoch im Bereich der proximalen Lipidschicht nicht fluide. Um die Fluidität in Anlehnung an die Eigenschaften der natürlichen Membranen zu erhöhen, wurden die photochemisch kovalent fixierten Anker-Glykolipopolymer-Moleküle durch Mischung mit freien Lipiden lateral verdünnt. Auch die kovalente Fixierung der GLP-Bausteine innerhalb gemischten Schichten konnte erfolgreich demonstriert werden. Die Schichten zeigten sich jedoch, mit Ausnahme der Schichten aus 50mol% Homopolymer und 50mol% Lipid, inhomogen. Nach Photobleichung durch den Laserblitz kam es nur bei den 50mol%:50mol% -Schichten (Ho: Lipid) zur Erholung der Fluoreszenz, was auf das Vorliegen von beweglichen Lipidmolekülen innerhalb der Membran schliessen lässt. Der Versuch der Inkorporation von Valinomycin gelang ebenfalls. Alle genannten Ergebnisse deuten darauf hin, dass die molekulare Architektur der hergestellten Schichten durch die unterschiedlichen Längendimensionen des Homopolymer-Moleküls einerseits, sowie des Lipids andererseits nicht für alle Mischungsverhältnisse ausreichend stabil ist. Die für die kovalente Fixierung erforderliche Trocknung der Schicht führt zu einer deutlichen Verminderung des Wassergehaltes des Systems und einer daraus resultierenden starken Destabilisierung der aufgebauten Schichten. Insgesamt gesehen stellt somit die photochemische Fixierung der glykosidischen Homopolymer-Membranen ein vielversprechendes Modellsystem dar.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

For the detection of hidden objects by low-frequency electromagnetic imaging the Linear Sampling Method works remarkably well despite the fact that the rigorous mathematical justification is still incomplete. In this work, we give an explanation for this good performance by showing that in the low-frequency limit the measurement operator fulfills the assumptions for the fully justified variant of the Linear Sampling Method, the so-called Factorization Method. We also show how the method has to be modified in the physically relevant case of electromagnetic imaging with divergence-free currents. We present numerical results to illustrate our findings, and to show that similar performance can be expected for the case of conducting objects and layered backgrounds.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The aim of the work was to study the correlation between the orientation and excited-state lifetimes of organic dyes close to dielectric interfaces. For this purpose, an experimental setup was designed and built, guiding the light through a prism in total internal reflection geometry. Fluorescence intensities and lifetimes for an ensemble of dye molecules were analyzed as a function of the excitation and detection polarizations. Working close to the total internal reflection angle, the differences between polarization combinations were enhanced. A classical electromagnetic model that assumes a chromophore as a couple of point-like electrical dipoles was developed. A numerical method to calculate the excitation and emission of dye molecules embedded in a multilayer system was implemented, by which full simulation of the time resolved fluorescence experiments was achieved. Free organic dyes and organic dyes covalently bound to polyelectrolyte chains were used. The polymer functionalization process avoided aggregation and provided control over the dyes position, within a few nanometers to the interface. Moreover, by varying the pH, the polymer chains could be deposited on different substrates with different conformations and the resulting fluorescence characteristics analyzed. Initially the fluorescence of organic dyes embedded in a polymer matrix was studied as a function of the distance between the fluorophores and the polymer-air interface. The non-radiative decay rate, vacuum decay rate and the relative angle between the excitation and emission dipoles of the chromophores could be determined. Different free organic dyes were deposited onto different dielectric spacers, as close as possible to the air-dielectric interface. Surprisingly, the fluorescence characteristics of dyes deposited onto polyelectrolyte layer were in good agreement with theoretical predictions of dyes in a polymer matrix, even when the layer was only 2 nm thick. When functionalized chains were deposited at low pH, on top of a polyelectrolyte spacer, the fluorescence had the characteristics of emitters embedded in a polymer matrix as well. Surface deposition at high pH showed an intermediate behaviour between emitters embedded in polymer and on top of the surface, in air. In general, for low pH values, the chains are deposited on a substrate in a train-like conformation. For high pH values, the chains are deposited in a loop-like conformation. As a consequence at low pH the functionalized polymer strongly interdigitates with the polyelectrolyte chains of the spacer, bringing most of the dyes inside the polymer. Thus, the fluorophores may experience the polymer as surrounding environment. On the other hand, for high pH values the dye-loaded chains adsorbed have a conformational arrangement of dense loops that extend away from the surface. Therefore many fluorophores experience the air as surrounding environment. Changing the spacer from polyelectrolyte to negatively charged silane produced contradictory results for lifetimes and intensities. The fluorescence intensities indicated the behaviour of emitters embedded in a polymer matrix, regardless of the pH value. On the other hand, for low pH values, the excited-state lifetimes showed that the emitters behaved as in air. For higher pH values, an intermediate behaviour between fluorophores located within and above of a dielectric film was observed. The poor agreement between theoretical and experimental data may be due to the simplified model utilized, by which the dipoles are assumed either in one side or in the other with respect to a geometrical air-dielectric interface. In the case when the dielectric film is constituted by the functionalized polymer chains themselves, reality is more complex and a different model may apply. Nevertheless, possible applications of the technique arise from a qualitative analysis.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

In this work, we consider a simple model problem for the electromagnetic exploration of small perfectly conducting objects buried within the lower halfspace of an unbounded two–layered background medium. In possible applications, such as, e.g., humanitarian demining, the two layers would correspond to air and soil. Moving a set of electric devices parallel to the surface of ground to generate a time–harmonic field, the induced field is measured within the same devices. The goal is to retrieve information about buried scatterers from these data. In mathematical terms, we are concerned with the analysis and numerical solution of the inverse scattering problem to reconstruct the number and the positions of a collection of finitely many small perfectly conducting scatterers buried within the lower halfspace of an unbounded two–layered background medium from near field measurements of time–harmonic electromagnetic waves. For this purpose, we first study the corresponding direct scattering problem in detail and derive an asymptotic expansion of the scattered field as the size of the scatterers tends to zero. Then, we use this expansion to justify a noniterative MUSIC–type reconstruction method for the solution of the inverse scattering problem. We propose a numerical implementation of this reconstruction method and provide a series of numerical experiments.