7 resultados para chaotic and diffusive motion

em ArchiMeD - Elektronische Publikationen der Universität Mainz - Alemanha


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Die diffusionsgewichtete Magnetresonanztomographie (MRT) mit dem hyperpolarisierten Edelgas-Isotop 3He ist ein neues Verfahren zur Untersuchung von Erkrankungen der Atem-wege und der Lunge. Die Diffusionsbewegung der 3He-Atome in den Luftwegen der Lunge wird durch deren Wände begrenzt, wobei diese Einschränkung sowohl von den Dimensionen der Atemwege als auch von den Messparametern abhängt. Man misst daher einen scheinbaren Diffusionskoeffizienten (Apparent Diffusion Coefficient, ADC) der kleiner ist als der Diffusionskoeffizient bei freier Diffusion. Der ADC gestattet somit eine qualitative Abschät-zung der Größe der Luftwege und deren krankhafte Veränderung, ohne eine direkte Abbil-dung der Luftwege selbst. Eine dreidimensionale Abbildung der räumlichen Verteilung von Lungenschädigungen wird dadurch möglich. Ziel der vorliegenden Arbeit war es, ein tieferes physikalisch fundiertes Verständnis der 3He-Diffusionsmessung zu ermöglichen und die Methode der diffusionsgewichteten 3He-MRT hin zur Erfassung des kompletten 3He-Diffusionstensors weiterzuentwickeln. Dazu wurde systematisch im Rahmen von Phantom- und tierexperimentellen Studien sowie Patientenmes-sungen untersucht, inwieweit unterschiedliche Einflussfaktoren das Ergebnis der ADC-Messung beeinflussen. So konnte beispielsweise nachgewiesen werden, dass residuale Luftströmungen am Ende der Einatmung keinen Einfluss auf den ADC-Wert haben. Durch Simulationsrechnungen konnte gezeigt werden, in welchem Maße sich die durch den Anregungspuls hervorgerufene Abnah-me der Polarisation des 3He-Gases auf den gemessenen ADC-Wert auswirkt. In einer Studie an lungengesunden Probanden und Patienten konnte die Wiederholbarkeit der ADC-Messung untersucht werden, aber auch der Einfluss von Gravitationseffekten. Diese Ergebnisse ermöglichen genauere Angaben über systematische und statistische Messfehler, sowie über Grenzwerte zwischen normalem und krankhaft verändertem Lungengewebe. Im Rahmen dieser Arbeit wurde die bestehende diffusionsgewichtete Bildgebung methodisch zur Erfassung des kompletten Diffusionstensors von 3He in der Lunge weiterentwickelt. Dies war wichtig, da entlang der Luftwege weitestgehend freie Diffusion vorherrscht, während senkrecht zu den Luftwegen die Diffusion eingeschränkt ist. Mit Hilfe von Simulationsrech-nungen wurde der kritische Einfluss von Rauschen in den MRT-Bildern auf die Qualität der Messergebnisse untersucht. Diese neue Methodik wurde zunächst an einem Phantom beste-hend aus einem Bündel aus Glaskapillaren, deren innerer Durchmesser mit dem des mensch-lichen Azinus übereinstimmt, validiert. Es ergab sich eine gute Übereinstimmung zwischen theoretischen Berechnungen und experimentellen Ergebnissen. In ersten Messungen am Menschen konnten so unterschiedliche Anisotropiewerte zwischen lungengesunden Proban-den und Patienten gefunden werden. Es zeigte sich eine Tendenz zu isotroper Diffusion bei Patienten mit einem Lungenemphysem. Zusammenfassend tragen die Ergebnisse der vorliegenden Arbeit zu einem besseren Ver-ständnis der ADC-Messmethode bei und helfen zukünftige Studien aufgrund des tieferen Verständnisses der die 3He Messung beeinflussenden Faktoren besser zu planen.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Mit der Zielsetzung der vorliegenden Arbeit wurde die detailierten Analyse von Migrationsdynamiken epithelilaler Monolayer anhand zweier neuartiger in vitro Biosensoren verfolgt, der elektrischen Zell-Substrat Impedanz Spektroskopie (electrical cell-substrate impedance sensing, ECIS) sowie der Quarz Kristall Mikrowaage (quartz crystal microbalance, QCM). Beide Methoden erwiesen sich als sensitiv gegenüber der Zellmotilität und der Nanozytotoxizität.rnInnerhalb des ersten Projektes wurde ein Fingerprinting von Krebszellen anhand ihrer Motilitätsdynamiken und der daraus generierten elektrischen oder akkustischen Fluktuationen auf ECIS oder QCM Basis vorgenommen; diese Echtzeitsensoren wurdene mit Hilfe klassicher in vitro Boyden-Kammer Migrations- und Invasions-assays validiert. Fluktuationssignaturen, also Langzeitkorrelationen oder fraktale Selbstähnlichkeit aufgrund der kollektiven Zellbewegung, wurden über Varianz-, Fourier- sowie trendbereinigende Fluktuationsanalyse quantifiziert. Stochastische Langzeitgedächtnisphänomene erwiesen sich als maßgebliche Beiträge zur Antwort adhärenter Zellen auf den QCM und ECIS-Sensoren. Des weiteren wurde der Einfluss niedermolekularer Toxine auf die Zytoslelettdynamiken verfolgt: die Auswirkungen von Cytochalasin D, Phalloidin und Blebbistatin sowie Taxol, Nocodazol und Colchicin wurden dabei über die QCM und ECIS Fluktuationsanalyse erfasst.rnIn einem zweiten Projektschwerpunkt wurden Adhäsionsprozesse sowie Zell-Zell und Zell-Substrat Degradationsprozesse bei Nanopartikelgabe charackterisiert, um ein Maß für Nanozytotoxizität in Abhangigkeit der Form, Funktionalisierung Stabilität oder Ladung der Partikel zu erhalten.rnAls Schlussfolgerung ist zu nennen, dass die neuartigen Echtzeit-Biosensoren QCM und ECIS eine hohe Zellspezifität besitzen, auf Zytoskelettdynamiken reagieren sowie als sensitive Detektoren für die Zellvitalität fungieren können.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In vielen Industriezweigen, zum Beispiel in der Automobilindustrie, werden Digitale Versuchsmodelle (Digital MockUps) eingesetzt, um die Konstruktion und die Funktion eines Produkts am virtuellen Prototypen zu überprüfen. Ein Anwendungsfall ist dabei die Überprüfung von Sicherheitsabständen einzelner Bauteile, die sogenannte Abstandsanalyse. Ingenieure ermitteln dabei für bestimmte Bauteile, ob diese in ihrer Ruhelage sowie während einer Bewegung einen vorgegeben Sicherheitsabstand zu den umgebenden Bauteilen einhalten. Unterschreiten Bauteile den Sicherheitsabstand, so muss deren Form oder Lage verändert werden. Dazu ist es wichtig, die Bereiche der Bauteile, welche den Sicherhabstand verletzen, genau zu kennen. rnrnIn dieser Arbeit präsentieren wir eine Lösung zur Echtzeitberechnung aller den Sicherheitsabstand unterschreitenden Bereiche zwischen zwei geometrischen Objekten. Die Objekte sind dabei jeweils als Menge von Primitiven (z.B. Dreiecken) gegeben. Für jeden Zeitpunkt, in dem eine Transformation auf eines der Objekte angewendet wird, berechnen wir die Menge aller den Sicherheitsabstand unterschreitenden Primitive und bezeichnen diese als die Menge aller toleranzverletzenden Primitive. Wir präsentieren in dieser Arbeit eine ganzheitliche Lösung, welche sich in die folgenden drei großen Themengebiete unterteilen lässt.rnrnIm ersten Teil dieser Arbeit untersuchen wir Algorithmen, die für zwei Dreiecke überprüfen, ob diese toleranzverletzend sind. Hierfür präsentieren wir verschiedene Ansätze für Dreiecks-Dreiecks Toleranztests und zeigen, dass spezielle Toleranztests deutlich performanter sind als bisher verwendete Abstandsberechnungen. Im Fokus unserer Arbeit steht dabei die Entwicklung eines neuartigen Toleranztests, welcher im Dualraum arbeitet. In all unseren Benchmarks zur Berechnung aller toleranzverletzenden Primitive beweist sich unser Ansatz im dualen Raum immer als der Performanteste.rnrnDer zweite Teil dieser Arbeit befasst sich mit Datenstrukturen und Algorithmen zur Echtzeitberechnung aller toleranzverletzenden Primitive zwischen zwei geometrischen Objekten. Wir entwickeln eine kombinierte Datenstruktur, die sich aus einer flachen hierarchischen Datenstruktur und mehreren Uniform Grids zusammensetzt. Um effiziente Laufzeiten zu gewährleisten ist es vor allem wichtig, den geforderten Sicherheitsabstand sinnvoll im Design der Datenstrukturen und der Anfragealgorithmen zu beachten. Wir präsentieren hierzu Lösungen, die die Menge der zu testenden Paare von Primitiven schnell bestimmen. Darüber hinaus entwickeln wir Strategien, wie Primitive als toleranzverletzend erkannt werden können, ohne einen aufwändigen Primitiv-Primitiv Toleranztest zu berechnen. In unseren Benchmarks zeigen wir, dass wir mit unseren Lösungen in der Lage sind, in Echtzeit alle toleranzverletzenden Primitive zwischen zwei komplexen geometrischen Objekten, bestehend aus jeweils vielen hunderttausend Primitiven, zu berechnen. rnrnIm dritten Teil präsentieren wir eine neuartige, speicheroptimierte Datenstruktur zur Verwaltung der Zellinhalte der zuvor verwendeten Uniform Grids. Wir bezeichnen diese Datenstruktur als Shrubs. Bisherige Ansätze zur Speicheroptimierung von Uniform Grids beziehen sich vor allem auf Hashing Methoden. Diese reduzieren aber nicht den Speicherverbrauch der Zellinhalte. In unserem Anwendungsfall haben benachbarte Zellen oft ähnliche Inhalte. Unser Ansatz ist in der Lage, den Speicherbedarf der Zellinhalte eines Uniform Grids, basierend auf den redundanten Zellinhalten, verlustlos auf ein fünftel der bisherigen Größe zu komprimieren und zur Laufzeit zu dekomprimieren.rnrnAbschießend zeigen wir, wie unsere Lösung zur Berechnung aller toleranzverletzenden Primitive Anwendung in der Praxis finden kann. Neben der reinen Abstandsanalyse zeigen wir Anwendungen für verschiedene Problemstellungen der Pfadplanung.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Hydrogels are used in a variety of applications in daily life, such as super absorbers, contact lenses and in drug delivery. Functional hydrogels that allow the incorporation of additional functionalities have enormous potential for future development. The properties of such hydrogels can be diversified by introducing responsiveness to external stimuli. These crosslinked polymers are known to respond to changes in temperature, pH and pressure, as well as chemical and electrical stimuli, magnetic fields and irradiation. From this responsive behavior possible applications arise in many fields like drug delivery, tissue engineering, purification and implementation as actuators, biosensors or for medical coatings. However, their interaction with biomaterial and way of functioning are yet not fully understood. Therefore, thorough investigations regarding their optical, mechanical and chemical nature have to be conducted. A UV-crosslinkable polymer, consisting of N-isopropylacrylamide, methacrylic acid and the UV-crosslinker 4-benzoylphenyl methacrylate was synthesized. Its composition, determined by a comprehensive NMR study, is equivalent to the composition of the monomer mixture. The chemical characteristics were preserved during the subsequently formation of hydrogel films by photo-crosslinking as proved by XPS. For the optical characterization, e.g. the degree of swelling of very thin films, the spectroscopy of coupled long range surface plasmons is introduced. Thicker films, able to guide light waves were analyzed with combined surface plasmon and optical waveguide mode spectroscopy (SPR/OWS). The evaluation of the data was facilitated by the reverse Wentzel-Kramers-Brillouin (WKB) approximation. The meshsize and proper motion of the surface anchored hydrogels were investigated by fluorescence correlation spectroscopy (FCS), micro photon correlation spectroscopy (µPCS) and SPR/OWS. The studied gels exhibit a meshsize that allowed for the diffusion of small biomolecules inside their network. For future enhancement of probing diffusants, a dye that enables FRET in FCS was immobilized in the gel and the diffusion of gold-nanoparticles embedded in the polymer solution was studied by PCS. These properties can be conveniently tuned by the crosslinking density, which depends on the irradiation dose. Additionally, protocols and components for polymer analogous reactions based on active ester chemistry of the hydrogel were developed. Based on these syntheses and investigations, the hydrogel films are applied in the fields of medical coatings as well as in biosensing as matrix and biomimetic cushion. Their non-adhesive properties were proved in cell experiments, SPR/OWS and ToF-SIMS studies. The functionality and non-fouling property of the prepared hydrogels allowed for adaption to the needs of the respective application.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

The cooperative motion algorithm was applied on the molecular simulation of complex chemical reactions and macromolecular orientation phenomena in confined geometries. First, we investigated the case of equilibrium step-growth polymerization in lamellae, pores and droplets. In such systems, confinement was quantified as the area/volume ratio. Results showed that, as confinement increases, polymerization becomes slower and the average molecular weight (MW) at equilibrium decreases. This is caused by the sterical hindrance imposed by the walls since chain growth reactions in their close vicinity have less realization possibilities. For reactions inside droplets at surfaces, contact angles usually increased after polymerization to compensate conformation restrictions imposed by confinement upon growing chains. In a second investigation, we considered monodisperse and chemically inert chains and focused on the effect of confinement on chain orientation. Simulations of thin polymer films showed that chains are preferably oriented parallel to the surface. Orientation increases as MW increases or as film thickness d decreases, in qualitative agreement with experiments with low MW polystyrene. It is demonstrated that the orientation of simulated chains results from a size effect, being a function of the ratio between chain end-to-end distance and d. This study was complemented by experiments with thin films of pi-conjugated polymers like MEH-PPV. Anisotropic refractive index measurements were used to analyze chain orientation. With increasing MW, orientation is enhanced. However, for MEH-PPV, orientation does not depend on d even at thicknesses much larger than the chain contour length. This contradiction with simulations was discussed by considering additional causes for orientation, for instance the appearance of nematic-like ordering in polymer films. In another investigation, we simulated droplet evaporation at soluble surfaces and reproduced the formation of wells surrounded by ringlike deposits at the surface, as observed experimentally. In our simulations, swollen substrate particles migrate to the border of the droplet to minimize the contact between solvent and vacuum, which costs the most energy. Deposit formation in the beginning of evaporation results in pinning of the droplet. When polymer chains at the substrate surface have strong uniaxial orientation, the resulting pattern is no longer similar to a ring but to a pair of half-moons. In a final stage, as an extension for the model developed for polymerization in nanoreactors, we studied the effect of geometrical confinement on a hypothetical oscillating reaction following the mechanism of the so called periodically forced Brusselator. It was shown that a reaction which is chaotic in the bulk may be driven to periodicity by confinement and vice-versa, opening new perspectives for chaos control.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

In vielen Bereichen der industriellen Fertigung, wie zum Beispiel in der Automobilindustrie, wer- den digitale Versuchsmodelle (sog. digital mock-ups) eingesetzt, um die Entwicklung komplexer Maschinen m ̈oglichst gut durch Computersysteme unterstu ̈tzen zu k ̈onnen. Hierbei spielen Be- wegungsplanungsalgorithmen eine wichtige Rolle, um zu gew ̈ahrleisten, dass diese digitalen Pro- totypen auch kollisionsfrei zusammengesetzt werden k ̈onnen. In den letzten Jahrzehnten haben sich hier sampling-basierte Verfahren besonders bew ̈ahrt. Diese erzeugen eine große Anzahl von zuf ̈alligen Lagen fu ̈r das ein-/auszubauende Objekt und verwenden einen Kollisionserken- nungsmechanismus, um die einzelnen Lagen auf Gu ̈ltigkeit zu u ̈berpru ̈fen. Daher spielt die Kollisionserkennung eine wesentliche Rolle beim Design effizienter Bewegungsplanungsalgorith- men. Eine Schwierigkeit fu ̈r diese Klasse von Planern stellen sogenannte “narrow passages” dar, schmale Passagen also, die immer dort auftreten, wo die Bewegungsfreiheit der zu planenden Objekte stark eingeschr ̈ankt ist. An solchen Stellen kann es schwierig sein, eine ausreichende Anzahl von kollisionsfreien Samples zu finden. Es ist dann m ̈oglicherweise n ̈otig, ausgeklu ̈geltere Techniken einzusetzen, um eine gute Performance der Algorithmen zu erreichen.rnDie vorliegende Arbeit gliedert sich in zwei Teile: Im ersten Teil untersuchen wir parallele Kollisionserkennungsalgorithmen. Da wir auf eine Anwendung bei sampling-basierten Bewe- gungsplanern abzielen, w ̈ahlen wir hier eine Problemstellung, bei der wir stets die selben zwei Objekte, aber in einer großen Anzahl von unterschiedlichen Lagen auf Kollision testen. Wir im- plementieren und vergleichen verschiedene Verfahren, die auf Hu ̈llk ̈operhierarchien (BVHs) und hierarchische Grids als Beschleunigungsstrukturen zuru ̈ckgreifen. Alle beschriebenen Verfahren wurden auf mehreren CPU-Kernen parallelisiert. Daru ̈ber hinaus vergleichen wir verschiedene CUDA Kernels zur Durchfu ̈hrung BVH-basierter Kollisionstests auf der GPU. Neben einer un- terschiedlichen Verteilung der Arbeit auf die parallelen GPU Threads untersuchen wir hier die Auswirkung verschiedener Speicherzugriffsmuster auf die Performance der resultierenden Algo- rithmen. Weiter stellen wir eine Reihe von approximativen Kollisionstests vor, die auf den beschriebenen Verfahren basieren. Wenn eine geringere Genauigkeit der Tests tolerierbar ist, kann so eine weitere Verbesserung der Performance erzielt werden.rnIm zweiten Teil der Arbeit beschreiben wir einen von uns entworfenen parallelen, sampling- basierten Bewegungsplaner zur Behandlung hochkomplexer Probleme mit mehreren “narrow passages”. Das Verfahren arbeitet in zwei Phasen. Die grundlegende Idee ist hierbei, in der er- sten Planungsphase konzeptionell kleinere Fehler zuzulassen, um die Planungseffizienz zu erh ̈ohen und den resultierenden Pfad dann in einer zweiten Phase zu reparieren. Der hierzu in Phase I eingesetzte Planer basiert auf sogenannten Expansive Space Trees. Zus ̈atzlich haben wir den Planer mit einer Freidru ̈ckoperation ausgestattet, die es erlaubt, kleinere Kollisionen aufzul ̈osen und so die Effizienz in Bereichen mit eingeschr ̈ankter Bewegungsfreiheit zu erh ̈ohen. Optional erlaubt unsere Implementierung den Einsatz von approximativen Kollisionstests. Dies setzt die Genauigkeit der ersten Planungsphase weiter herab, fu ̈hrt aber auch zu einer weiteren Perfor- mancesteigerung. Die aus Phase I resultierenden Bewegungspfade sind dann unter Umst ̈anden nicht komplett kollisionsfrei. Um diese Pfade zu reparieren, haben wir einen neuartigen Pla- nungsalgorithmus entworfen, der lokal beschr ̈ankt auf eine kleine Umgebung um den bestehenden Pfad einen neuen, kollisionsfreien Bewegungspfad plant.rnWir haben den beschriebenen Algorithmus mit einer Klasse von neuen, schwierigen Metall- Puzzlen getestet, die zum Teil mehrere “narrow passages” aufweisen. Unseres Wissens nach ist eine Sammlung vergleichbar komplexer Benchmarks nicht ̈offentlich zug ̈anglich und wir fan- den auch keine Beschreibung von vergleichbar komplexen Benchmarks in der Motion-Planning Literatur.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Liquids and gasses form a vital part of nature. Many of these are complex fluids with non-Newtonian behaviour. We introduce a mathematical model describing the unsteady motion of an incompressible polymeric fluid. Each polymer molecule is treated as two beads connected by a spring. For the nonlinear spring force it is not possible to obtain a closed system of equations, unless we approximate the force law. The Peterlin approximation replaces the length of the spring by the length of the average spring. Consequently, the macroscopic dumbbell-based model for dilute polymer solutions is obtained. The model consists of the conservation of mass and momentum and time evolution of the symmetric positive definite conformation tensor, where the diffusive effects are taken into account. In two space dimensions we prove global in time existence of weak solutions. Assuming more regular data we show higher regularity and consequently uniqueness of the weak solution. For the Oseen-type Peterlin model we propose a linear pressure-stabilized characteristics finite element scheme. We derive the corresponding error estimates and we prove, for linear finite elements, the optimal first order accuracy. Theoretical error of the pressure-stabilized characteristic finite element scheme is confirmed by a series of numerical experiments.