5 resultados para Time-invariant Wavelet Analysis
em ArchiMeD - Elektronische Publikationen der Universität Mainz - Alemanha
Resumo:
The present thesis is concerned with the study of a quantum physical system composed of a small particle system (such as a spin chain) and several quantized massless boson fields (as photon gasses or phonon fields) at positive temperature. The setup serves as a simplified model for matter in interaction with thermal "radiation" from different sources. Hereby, questions concerning the dynamical and thermodynamic properties of particle-boson configurations far from thermal equilibrium are in the center of interest. We study a specific situation where the particle system is brought in contact with the boson systems (occasionally referred to as heat reservoirs) where the reservoirs are prepared close to thermal equilibrium states, each at a different temperature. We analyze the interacting time evolution of such an initial configuration and we show thermal relaxation of the system into a stationary state, i.e., we prove the existence of a time invariant state which is the unique limit state of the considered initial configurations evolving in time. As long as the reservoirs have been prepared at different temperatures, this stationary state features thermodynamic characteristics as stationary energy fluxes and a positive entropy production rate which distinguishes it from being a thermal equilibrium at any temperature. Therefore, we refer to it as non-equilibrium stationary state or simply NESS. The physical setup is phrased mathematically in the language of C*-algebras. The thesis gives an extended review of the application of operator algebraic theories to quantum statistical mechanics and introduces in detail the mathematical objects to describe matter in interaction with radiation. The C*-theory is adapted to the concrete setup. The algebraic description of the system is lifted into a Hilbert space framework. The appropriate Hilbert space representation is given by a bosonic Fock space over a suitable L2-space. The first part of the present work is concluded by the derivation of a spectral theory which connects the dynamical and thermodynamic features with spectral properties of a suitable generator, say K, of the time evolution in this Hilbert space setting. That way, the question about thermal relaxation becomes a spectral problem. The operator K is of Pauli-Fierz type. The spectral analysis of the generator K follows. This task is the core part of the work and it employs various kinds of functional analytic techniques. The operator K results from a perturbation of an operator L0 which describes the non-interacting particle-boson system. All spectral considerations are done in a perturbative regime, i.e., we assume that the strength of the coupling is sufficiently small. The extraction of dynamical features of the system from properties of K requires, in particular, the knowledge about the spectrum of K in the nearest vicinity of eigenvalues of the unperturbed operator L0. Since convergent Neumann series expansions only qualify to study the perturbed spectrum in the neighborhood of the unperturbed one on a scale of order of the coupling strength we need to apply a more refined tool, the Feshbach map. This technique allows the analysis of the spectrum on a smaller scale by transferring the analysis to a spectral subspace. The need of spectral information on arbitrary scales requires an iteration of the Feshbach map. This procedure leads to an operator-theoretic renormalization group. The reader is introduced to the Feshbach technique and the renormalization procedure based on it is discussed in full detail. Further, it is explained how the spectral information is extracted from the renormalization group flow. The present dissertation is an extension of two kinds of a recent research contribution by Jakšić and Pillet to a similar physical setup. Firstly, we consider the more delicate situation of bosonic heat reservoirs instead of fermionic ones, and secondly, the system can be studied uniformly for small reservoir temperatures. The adaption of the Feshbach map-based renormalization procedure by Bach, Chen, Fröhlich, and Sigal to concrete spectral problems in quantum statistical mechanics is a further novelty of this work.
Resumo:
In der vorliegenden Arbeit wurden Untersuchungen zur Aufklärung des Versagens thermisch verschweißter Polymergrenzflächen (hier: Polymethylmethacrylat) durchgeführt. Solch ein Wissen kommt in der Praxis bei sogenannten Sollbruchstellen zum Einsatz. Dabei muss die Grenzschicht bis zu einer bestimmten Belastungsintensität stabil bleiben bei höherer Belastung jedoch brechen. Zudem ist eine stabile Risspropagation entlang der Grenzschicht wichtig.Neben der Bruchstabilitätsbestimmung mit Hilfe des Double Cantilever Beam Tests wurden die beim Versagen der Grenzschicht entstandenen Defekte untersucht. Die Analyse der Bruchfläche erfolgte mit Mikroskopie und Höhenprofilometrie. Defekte im Volumen wurden durch Scanning-Ultra Small Angle X-ray Scattering und Scanning Microfokus-Small Angle X-ray Scattering untersucht.Im Modellsystem können Sollbruchstellen bis zu einer Belastungsintensität von maximal 280J/m² durch die Verschweißungsdauer eingestellt werden. Die Untersuchung der Bruchflächen lieferte ein kombiniertes Modell aus Ausheil- und Interdiffusionsprozess. Ferner folgt aus den Streuuntersuchungen, dass beim Modellsystem keine hochgeordneten Defektstrukturen vorliegen. Die entstandenen Strukturen folgen einem Modell diffuser Defektgrenzflächen. Über die gemessene Diffusivität kann zudem auf die Energiedissipation im Bereich um das Rissende geschlossen werden. Sie ist im unmittelbaren Rissbereich am Höchsten und nimmt mit Entfernung davon ab. Dabei haben die Defektbereiche eine Größe bis zu 650µm. Die Richtung der von außen angelegten Belastung spielt bei der räumlichen Orientierung der Defekte keine Rolle.
Resumo:
RNAi ist ein bedeutendes Werkzeug zur Funktionsanalyse von Genen und hat großes Potential für den Einsatz in der Therapie. Obwohl effiziente Knockdowns in der Zellkultur erzielt werden, erweist sich eine in vivo Anwendung als schwierig. Die großen Hürden sind dabei der Transport der siRNA ins Zielgewebe und deren voranschreitende Degradierung.rnMarkierte siRNA kann sowohl zur eigenen Integritätsmessung als auch zur Lokalisierung verwendet werden. Zwei Farbstoffe an den jeweiligen 3’- bzw. -5’-Enden des Sense- bzw. Antisense-Stranges erzeugen ein robustes FRET-System (Hirsch et al. 2012). Das Verhältnis von FRET- zu Donor-Signal, das R/G-Ratio, dient zur sensitiven Klassifizierung des Integritätslevels einer siRNA Probe (Järve et al. 2007; Hirsch et al. 2011; Kim et al. 2010). Mit diesem System kann eine Degradierung von weniger als 5 % in der Küvette und in Zellen nachgewiesen werden.rnDie vorliegende Arbeit beschäftigt sich mit der Evaluierung von potentiellen FRET Farbstoffpaaren hinsichtlich deren Eignung für in vitro und in vivo Anwendung. Verschiedenste FRET-Paare, die das gesamte sichtbare Spektrum abdecken, wurden evaluiert und ermöglichen nun die Auswahl eines geeigneten Paares für die jeweilige Anwendung oder Kombination mit anderen Farbstoffen.rnMit Hilfe von Alexa555/Atto647N siRNA wurde ein erfolgreicher Einschluss von siRNA in Liposomen beobachtet. Eine anschließende Evaluierung der RNase-Protektion ergab für Liposomen, Nanohydrogele und kationische Peptide hervorragende protektive Eigenschaften. Basierend auf den Ergebnisse können diese und andere Transportsysteme nun für eine zelluläre Aufnahme optimiert werden.rnAtto488/Atto590 zeigte die besten Eigenschaften für Echtzeit-Integritätsmessungen in der Lebendzellmikroskopie. Verringerte Bleicheigenschaften und minimaler spektraler “Cross-Talk” ermöglichten es, transfizierte Zellen über einen Zeitraum von bis zu 8 Stunden zu beobachten. Mittels Atto488/Atto590 siRNA wurde die Einschleusung und Freisetzung in Zellen in Echtzeit untersucht. Dabei konnten Freisetzung und Verteilung in einzelnen Zellen beobachtet und analysiert werden. rnAuf eine anfängliche Phase mit hoher Freisetzungsrate folgte eine Phase mit geringerer Rate für den restlichen Beobachtungszeitraum. Die durchschnittliche Verweildauer im Zytosol betrug 24 und 58 Minuten, wobei zwischen lang- und kurzanhaltenden Ereignissen unterschieden werden konnte. Obwohl ein Import von siRNA in den Zellkern beobachtet wurde, konnte kein Schema bzw. genauer Zeitpunkt, in Bezug auf den Transfektionszeitraum für diese Ereignisse bestimmt werden. Die beobachteten Freisetzungsprozesse fanden sporadisch statt und Änderungen in der zellulären Verteilung geschahen innerhalb von wenigen Minuten. Einmal freigesetzte siRNA verschwand mit der Zeit wieder aus dem Zytosol und es blieben nur kleine Aggregate von siRNA mit immer noch geringer Integrität zurück.rn
Resumo:
Ziel dieser Dissertation ist die experimentelle Charakterisierung und quantitative Beschreibung der Hybridisierung von komplementären Nukleinsäuresträngen mit oberflächengebundenen Fängermolekülen für die Entwicklung von integrierten Biosensoren. Im Gegensatz zu lösungsbasierten Verfahren ist mit Microarray Substraten die Untersuchung vieler Nukleinsäurekombinationen parallel möglich. Als biologisch relevantes Evaluierungssystem wurde das in Eukaryoten universell exprimierte Actin Gen aus unterschiedlichen Pflanzenspezies verwendet. Dieses Testsystem ermöglicht es, nahe verwandte Pflanzenarten auf Grund von geringen Unterschieden in der Gen-Sequenz (SNPs) zu charakterisieren. Aufbauend auf dieses gut studierte Modell eines House-Keeping Genes wurde ein umfassendes Microarray System, bestehend aus kurzen und langen Oligonukleotiden (mit eingebauten LNA-Molekülen), cDNAs sowie DNA und RNA Targets realisiert. Damit konnte ein für online Messung optimiertes Testsystem mit hohen Signalstärken entwickelt werden. Basierend auf den Ergebnissen wurde der gesamte Signalpfad von Nukleinsärekonzentration bis zum digitalen Wert modelliert. Die aus der Entwicklung und den Experimenten gewonnen Erkenntnisse über die Kinetik und Thermodynamik von Hybridisierung sind in drei Publikationen zusammengefasst die das Rückgrat dieser Dissertation bilden. Die erste Publikation beschreibt die Verbesserung der Reproduzierbarkeit und Spezifizität von Microarray Ergebnissen durch online Messung von Kinetik und Thermodynamik gegenüber endpunktbasierten Messungen mit Standard Microarrays. Für die Auswertung der riesigen Datenmengen wurden zwei Algorithmen entwickelt, eine reaktionskinetische Modellierung der Isothermen und ein auf der Fermi-Dirac Statistik beruhende Beschreibung des Schmelzüberganges. Diese Algorithmen werden in der zweiten Publikation beschrieben. Durch die Realisierung von gleichen Sequenzen in den chemisch unterschiedlichen Nukleinsäuren (DNA, RNA und LNA) ist es möglich, definierte Unterschiede in der Konformation des Riboserings und der C5-Methylgruppe der Pyrimidine zu untersuchen. Die kompetitive Wechselwirkung dieser unterschiedlichen Nukleinsäuren gleicher Sequenz und die Auswirkungen auf Kinetik und Thermodynamik ist das Thema der dritten Publikation. Neben der molekularbiologischen und technologischen Entwicklung im Bereich der Sensorik von Hybridisierungsreaktionen oberflächengebundener Nukleinsäuremolekülen, der automatisierten Auswertung und Modellierung der anfallenden Datenmengen und der damit verbundenen besseren quantitativen Beschreibung von Kinetik und Thermodynamik dieser Reaktionen tragen die Ergebnisse zum besseren Verständnis der physikalisch-chemischen Struktur des elementarsten biologischen Moleküls und seiner nach wie vor nicht vollständig verstandenen Spezifizität bei.
Resumo:
In vielen Industriezweigen, zum Beispiel in der Automobilindustrie, werden Digitale Versuchsmodelle (Digital MockUps) eingesetzt, um die Konstruktion und die Funktion eines Produkts am virtuellen Prototypen zu überprüfen. Ein Anwendungsfall ist dabei die Überprüfung von Sicherheitsabständen einzelner Bauteile, die sogenannte Abstandsanalyse. Ingenieure ermitteln dabei für bestimmte Bauteile, ob diese in ihrer Ruhelage sowie während einer Bewegung einen vorgegeben Sicherheitsabstand zu den umgebenden Bauteilen einhalten. Unterschreiten Bauteile den Sicherheitsabstand, so muss deren Form oder Lage verändert werden. Dazu ist es wichtig, die Bereiche der Bauteile, welche den Sicherhabstand verletzen, genau zu kennen. rnrnIn dieser Arbeit präsentieren wir eine Lösung zur Echtzeitberechnung aller den Sicherheitsabstand unterschreitenden Bereiche zwischen zwei geometrischen Objekten. Die Objekte sind dabei jeweils als Menge von Primitiven (z.B. Dreiecken) gegeben. Für jeden Zeitpunkt, in dem eine Transformation auf eines der Objekte angewendet wird, berechnen wir die Menge aller den Sicherheitsabstand unterschreitenden Primitive und bezeichnen diese als die Menge aller toleranzverletzenden Primitive. Wir präsentieren in dieser Arbeit eine ganzheitliche Lösung, welche sich in die folgenden drei großen Themengebiete unterteilen lässt.rnrnIm ersten Teil dieser Arbeit untersuchen wir Algorithmen, die für zwei Dreiecke überprüfen, ob diese toleranzverletzend sind. Hierfür präsentieren wir verschiedene Ansätze für Dreiecks-Dreiecks Toleranztests und zeigen, dass spezielle Toleranztests deutlich performanter sind als bisher verwendete Abstandsberechnungen. Im Fokus unserer Arbeit steht dabei die Entwicklung eines neuartigen Toleranztests, welcher im Dualraum arbeitet. In all unseren Benchmarks zur Berechnung aller toleranzverletzenden Primitive beweist sich unser Ansatz im dualen Raum immer als der Performanteste.rnrnDer zweite Teil dieser Arbeit befasst sich mit Datenstrukturen und Algorithmen zur Echtzeitberechnung aller toleranzverletzenden Primitive zwischen zwei geometrischen Objekten. Wir entwickeln eine kombinierte Datenstruktur, die sich aus einer flachen hierarchischen Datenstruktur und mehreren Uniform Grids zusammensetzt. Um effiziente Laufzeiten zu gewährleisten ist es vor allem wichtig, den geforderten Sicherheitsabstand sinnvoll im Design der Datenstrukturen und der Anfragealgorithmen zu beachten. Wir präsentieren hierzu Lösungen, die die Menge der zu testenden Paare von Primitiven schnell bestimmen. Darüber hinaus entwickeln wir Strategien, wie Primitive als toleranzverletzend erkannt werden können, ohne einen aufwändigen Primitiv-Primitiv Toleranztest zu berechnen. In unseren Benchmarks zeigen wir, dass wir mit unseren Lösungen in der Lage sind, in Echtzeit alle toleranzverletzenden Primitive zwischen zwei komplexen geometrischen Objekten, bestehend aus jeweils vielen hunderttausend Primitiven, zu berechnen. rnrnIm dritten Teil präsentieren wir eine neuartige, speicheroptimierte Datenstruktur zur Verwaltung der Zellinhalte der zuvor verwendeten Uniform Grids. Wir bezeichnen diese Datenstruktur als Shrubs. Bisherige Ansätze zur Speicheroptimierung von Uniform Grids beziehen sich vor allem auf Hashing Methoden. Diese reduzieren aber nicht den Speicherverbrauch der Zellinhalte. In unserem Anwendungsfall haben benachbarte Zellen oft ähnliche Inhalte. Unser Ansatz ist in der Lage, den Speicherbedarf der Zellinhalte eines Uniform Grids, basierend auf den redundanten Zellinhalten, verlustlos auf ein fünftel der bisherigen Größe zu komprimieren und zur Laufzeit zu dekomprimieren.rnrnAbschießend zeigen wir, wie unsere Lösung zur Berechnung aller toleranzverletzenden Primitive Anwendung in der Praxis finden kann. Neben der reinen Abstandsanalyse zeigen wir Anwendungen für verschiedene Problemstellungen der Pfadplanung.