13 resultados para Reduced-basis method
em ArchiMeD - Elektronische Publikationen der Universität Mainz - Alemanha
Resumo:
Die Synthese funktionalisierter Polyorganosiloxan-µ-Netzwerke (Rh = 5 30 nm) gelingt durch Polycokondensation von Alkoxysilanen. Die entstehenden sphärischen Teilchen sind in unpolaren organischen Lösungsmitteln partikulär dispergierbar. Durch die sequentielle Zugabe der Silanmonomere können Kern-Schale-Partikel mit unterschiedlichen Teilchenarchitekturen realisiert werden. In der vorliegenden Arbeit wird p-Chlormethylphenyltrimethoxysilan als funktionalisiertes Monomer verwendet, um den µ-Netzwerken durch eine anschließende Quaternisierung der Chlorbenzylgruppen mit Dimethylaminoethanol amphiphile Eigenschaften zu verleihen. Durch den Kern-Schale-Aufbau der Partikel sind die hydrophilen Bereiche im Kugelinneren von der hydrophoben äußeren Schale separiert, was unerläßlich für die Verwendung der Partikel zur Verkapselung wasserlöslicher Substanzen ist.So können in den amphiphilen µ-Netzwerken beispielsweise wasserlösliche Farbstoffe verkapselt werden. Diese diffundieren sowohl aus Lösung als auch aus dem Festkörper in das geladene Partikelinnere und werden dort angereichert. Es wird eine Abhängigkeit der Farbstoffbeladung vom Quaternisierungsgrad gefunden, wobei die Anzahl an verkapselten Farbstoffmolekülen mit dem Quaternisierungsgrad zunimmt.Weiterhin können amphiphile µ-Gelpartikel auch als molekulare Nanoreaktoren zur Synthese von Edelmetallkolloiden verwendet werden, die in den Netzwerken topologisch gefangen sind. Hierzu werden zuerst Metallionen im Kugelinneren verkapselt und anschließend reduziert, wobei das Kolloidwachstum durch den wohldefinierten Reaktionsraum gesteuert wird. Neben Gold- und Palladiumkolloiden können auf diese Weise beispielsweise auch Silberkolloide in den Kernen von µ-Netzwerken hergestellt werden.
Resumo:
The g-factor is a constant which connects the magnetic moment $vec{mu}$ of a charged particle, of charge q and mass m, with its angular momentum $vec{J}$. Thus, the magnetic moment can be writen $ vec{mu}_J=g_Jfrac{q}{2m}vec{J}$. The g-factor for a free particle of spin s=1/2 should take the value g=2. But due to quantum electro-dynamical effects it deviates from this value by a small amount, the so called g-factor anomaly $a_e$, which is of the order of $10^{-3}$ for the free electron. This deviation is even bigger if the electron is exposed to high electric fields. Therefore highly charged ions, where electric field strength gets values on the order of $10^{13}-10^{16}$V/cm at the position of the bound electron, are an interesting field of investigations to test QED-calculations. In previous experiments [H"aff00,Ver04] using a single hydrogen-like ion confined in a Penning trap an accuracy of few parts in $10^{-9}$ was obtained. In the present work a new method for precise measurement of magnetic the electronic g-factor of hydrogen-like ions is discussed. Due to the unavoidable magnetic field inhomogeneity in a Penning trap, a very important contribution to the systematic uncertainty in the previous measurements arose from the elevated energy of the ion required for the measurement of its motional frequencies. Then it was necessary to extrapolate the result to vanishing energies. In the new method the energy in the cyclotron degree of freedom is reduced to the minimum attainable energy. This method consist in measuring the reduced cyclotron frequency $nu_{+}$ indirectly by coupling the axial to the reduced cyclotron motion by irradiation of the radio frequency $nu_{coup}=nu_{+}-nu_{ax}+delta$ where $delta$ is, in principle, an unknown detuning that can be obtained from the knowledge of the coupling process. Then the only unknown parameter is the desired value of $nu_+$. As a test, a measurement with, for simplicity, artificially increased axial energy was performed yielding the result $g_{exp}=2.000~047~020~8(24)(44)$. This is in perfect agreement with both the theoretical result $g_{theo}=2.000~047~020~2(6)$ and the previous experimental result $g_{exp1}=2.000~047~025~4(15)(44).$ In the experimental results the second error-bar is due to the uncertainty in the accepted value for the electron's mass. Thus, with the new method a higher accuracy in the g-factor could lead by comparison to the theoretical value to an improved value of the electron's mass. [H"af00] H. H"affner et al., Phys. Rev. Lett. 85 (2000) 5308 [Ver04] J. Verd'u et al., Phys. Rev. Lett. 92 (2004) 093002-1
Resumo:
Im ersten Teil der Arbeit wurde das Bindungsverhalten von Annexin A1 und Annexin A2t an festkörperunterstützte Lipidmembranen aus POPC und POPS untersucht. Für beide Proteine konnte mit Hilfe der Fluoreszenzmikroskopie gezeigt werden, dass irreversible Bindung nur in Anwesenheit von POPS auftritt. Durch rasterkraftmikroskopische Aufnahmen konnte die laterale Organisation der Annexine auf der Lipidmembran dargestellt werden. Beide Proteine lagern sich in Form lateraler Aggregate (zweidimensionale Domänen) auf der Oberfläche an, außerdem ist der Belegungsgrad und die Größe der Domänen von der Membranzusammensetzung und der Calciumkonzentration abhängig. Mit zunehmendem POPS-Gehalt und Calciumkonzentration steigt der Belegungsgrad an und der mittlere Domänenradius wird kleiner. Diese Ergebnisse konnten in Verbindung mit detaillierten Bindungsstudien des Annexins A1 mit der Quarzmikrowaage verwendet werden, um ein Bindungsmodell auf Basis einer heterogenen Oberfläche zu entwickeln. Auf einer POPC-reichen Matrix findet reversible Adsorption statt und auf POPS-reichen Domänen irreversible Adsorption. Durch die Anpassung von dynamischen Monte Carlo-Simulationen basierend auf einer zweidimensionalen zufälligen sequentiellen Adsorption konnten Erkenntnisse über die Membranstruktur und die kinetischen Ratenkonstanten in Abhängigkeit von der Calciumkonzentration und der Inkubationszeit des Proteins gewonnen werden. Die irreversible Bindung ist in allen Calciumkonzentrationsbereichen schneller als die reversible. Außerdem zeigt die irreversible Adsorption eine deutlich stärkere Abhängigkeit von der Calciumkonzentration. Ein kleinerer Belegungsgrad bei niedrigen Ca2+-Gehalten ist hauptsächlich durch die Abnahme der verfügbaren Bindungsplätze auf der Oberfläche zu erklären. Die gute Übereinstimmung der aus den Monte Carlo-Simulationen erhaltenen Domänenstrukturen mit den rasterkraftmikroskopischen Aufnahmen und die Tatsache, dass sich die simulierten Resonanzfrequenzverläufe problemlos an die experimentellen Kurven aus den QCM-Messungen anpassen ließen, zeigt die gute Anwendbarkeit des entwickelten Simulationsprogramms auf die Adsorption von Annexin A1. Die Extraktion der kinetischen Parameter aus dem zweidimensionalen RSA-Modell ist mit Sicherheit einem einfachen Langmuir-Ansatz überlegen. Bei einem Langmuir-Modell erfolgt eine integrale Erfassung einer einzelnen makroskopischen Geschwindigkeitskonstante, während durch das RSA-Modell eine differenzierte Betrachtung des reversiblen und irreversiblen Bindungsprozesses möglich ist. Zusätzlich lassen sich mikroskopische Informationen über die Oberflächenbeschaffenheit gewinnen. Im zweiten Teil der Arbeit wurde das thermotrope Phasenverhalten von festkörperunterstützten Phospholipidbilayern untersucht. Dazu wurden mikrostrukturierte, frei stehende Membranstreifen präpariert und mit Hilfe der bildgebenden Ellipsometrie untersucht. Dadurch konnten die temperaturabhängigen Verläufe der Schichtdicke und der lateralen Membranausdehnung parallel beobachtet werden. Die ermittelten Phasenübergangstemperaturen von DMPC, diC15PC und DPPC lagen 2 - 3 °C oberhalb der Literaturwerte für vesikuläre Systeme. Außerdem wurde eine deutliche Verringerung der Kooperativität der Phasenumwandlung gefunden, was auf einen großen Einfluss des Substrats bei den festkörperunterstützten Lipidmembranen schließen lässt. Zusätzlich wurde ein nicht systematischer Zusammenhang der Ergebnisse von der Oberflächenpräparation gefunden, der es unabdingbar macht, bei Untersuchungen von festkörperunterstützten Substraten einen internen Standard einzuführen. Bei der Analyse des thermotropen Phasenübergangsverhaltens von DMPC/Cholesterol - Gemischen wurde daher die individuelle Adressierbarkeit der strukturierten Lipidmembranen ausgenutzt und ein Lipidstreifen aus reinem DMPC als Standard verwendet. Auf diese Weise konnte gezeigt werden, dass das für Phospholipide typische Phasenübergangsverhalten ab 30 mol% Cholesterol in der Membran nicht mehr vorhanden ist. Dies ist auf die Bildung einer nur durch höhere Sterole induzierten fluiden Phase mit hoch geordneten Acylketten zurückzuführen. Abschließend konnte durch die Zugabe von Ethanol zu einer mikrostrukturierten DMPC-Membran die Bildung eines interdigitierten Bilayers nachgewiesen werden. Die bildgebende Ellipsometrie ist eine sehr gute Methode zur Untersuchung festkörperunterstützter Lipidmembranen, da sie über ein sehr gutes vertikales und ein ausreichendes laterales Auflösungsvermögen besitzt. Sie ist darin zwar einem Rasterkraftmikroskop noch unterlegen, besitzt dafür aber eine einfachere Handhabung beim Umgang mit Flüssigkeiten und in der Temperierung, eine schnellere Bildgebung und ist als optische Methode nicht-invasiv.
Resumo:
Die Arbeit behandelt das Problem der Skalierbarkeit von Reinforcement Lernen auf hochdimensionale und komplexe Aufgabenstellungen. Unter Reinforcement Lernen versteht man dabei eine auf approximativem Dynamischen Programmieren basierende Klasse von Lernverfahren, die speziell Anwendung in der Künstlichen Intelligenz findet und zur autonomen Steuerung simulierter Agenten oder realer Hardwareroboter in dynamischen und unwägbaren Umwelten genutzt werden kann. Dazu wird mittels Regression aus Stichproben eine Funktion bestimmt, die die Lösung einer "Optimalitätsgleichung" (Bellman) ist und aus der sich näherungsweise optimale Entscheidungen ableiten lassen. Eine große Hürde stellt dabei die Dimensionalität des Zustandsraums dar, die häufig hoch und daher traditionellen gitterbasierten Approximationsverfahren wenig zugänglich ist. Das Ziel dieser Arbeit ist es, Reinforcement Lernen durch nichtparametrisierte Funktionsapproximation (genauer, Regularisierungsnetze) auf -- im Prinzip beliebig -- hochdimensionale Probleme anwendbar zu machen. Regularisierungsnetze sind eine Verallgemeinerung von gewöhnlichen Basisfunktionsnetzen, die die gesuchte Lösung durch die Daten parametrisieren, wodurch die explizite Wahl von Knoten/Basisfunktionen entfällt und so bei hochdimensionalen Eingaben der "Fluch der Dimension" umgangen werden kann. Gleichzeitig sind Regularisierungsnetze aber auch lineare Approximatoren, die technisch einfach handhabbar sind und für die die bestehenden Konvergenzaussagen von Reinforcement Lernen Gültigkeit behalten (anders als etwa bei Feed-Forward Neuronalen Netzen). Allen diesen theoretischen Vorteilen gegenüber steht allerdings ein sehr praktisches Problem: der Rechenaufwand bei der Verwendung von Regularisierungsnetzen skaliert von Natur aus wie O(n**3), wobei n die Anzahl der Daten ist. Das ist besonders deswegen problematisch, weil bei Reinforcement Lernen der Lernprozeß online erfolgt -- die Stichproben werden von einem Agenten/Roboter erzeugt, während er mit der Umwelt interagiert. Anpassungen an der Lösung müssen daher sofort und mit wenig Rechenaufwand vorgenommen werden. Der Beitrag dieser Arbeit gliedert sich daher in zwei Teile: Im ersten Teil der Arbeit formulieren wir für Regularisierungsnetze einen effizienten Lernalgorithmus zum Lösen allgemeiner Regressionsaufgaben, der speziell auf die Anforderungen von Online-Lernen zugeschnitten ist. Unser Ansatz basiert auf der Vorgehensweise von Recursive Least-Squares, kann aber mit konstantem Zeitaufwand nicht nur neue Daten sondern auch neue Basisfunktionen in das bestehende Modell einfügen. Ermöglicht wird das durch die "Subset of Regressors" Approximation, wodurch der Kern durch eine stark reduzierte Auswahl von Trainingsdaten approximiert wird, und einer gierigen Auswahlwahlprozedur, die diese Basiselemente direkt aus dem Datenstrom zur Laufzeit selektiert. Im zweiten Teil übertragen wir diesen Algorithmus auf approximative Politik-Evaluation mittels Least-Squares basiertem Temporal-Difference Lernen, und integrieren diesen Baustein in ein Gesamtsystem zum autonomen Lernen von optimalem Verhalten. Insgesamt entwickeln wir ein in hohem Maße dateneffizientes Verfahren, das insbesondere für Lernprobleme aus der Robotik mit kontinuierlichen und hochdimensionalen Zustandsräumen sowie stochastischen Zustandsübergängen geeignet ist. Dabei sind wir nicht auf ein Modell der Umwelt angewiesen, arbeiten weitestgehend unabhängig von der Dimension des Zustandsraums, erzielen Konvergenz bereits mit relativ wenigen Agent-Umwelt Interaktionen, und können dank des effizienten Online-Algorithmus auch im Kontext zeitkritischer Echtzeitanwendungen operieren. Wir demonstrieren die Leistungsfähigkeit unseres Ansatzes anhand von zwei realistischen und komplexen Anwendungsbeispielen: dem Problem RoboCup-Keepaway, sowie der Steuerung eines (simulierten) Oktopus-Tentakels.
Resumo:
The lattice Boltzmann method is a popular approach for simulating hydrodynamic interactions in soft matter and complex fluids. The solvent is represented on a discrete lattice whose nodes are populated by particle distributions that propagate on the discrete links between the nodes and undergo local collisions. On large length and time scales, the microdynamics leads to a hydrodynamic flow field that satisfies the Navier-Stokes equation. In this thesis, several extensions to the lattice Boltzmann method are developed. In complex fluids, for example suspensions, Brownian motion of the solutes is of paramount importance. However, it can not be simulated with the original lattice Boltzmann method because the dynamics is completely deterministic. It is possible, though, to introduce thermal fluctuations in order to reproduce the equations of fluctuating hydrodynamics. In this work, a generalized lattice gas model is used to systematically derive the fluctuating lattice Boltzmann equation from statistical mechanics principles. The stochastic part of the dynamics is interpreted as a Monte Carlo process, which is then required to satisfy the condition of detailed balance. This leads to an expression for the thermal fluctuations which implies that it is essential to thermalize all degrees of freedom of the system, including the kinetic modes. The new formalism guarantees that the fluctuating lattice Boltzmann equation is simultaneously consistent with both fluctuating hydrodynamics and statistical mechanics. This establishes a foundation for future extensions, such as the treatment of multi-phase and thermal flows. An important range of applications for the lattice Boltzmann method is formed by microfluidics. Fostered by the "lab-on-a-chip" paradigm, there is an increasing need for computer simulations which are able to complement the achievements of theory and experiment. Microfluidic systems are characterized by a large surface-to-volume ratio and, therefore, boundary conditions are of special relevance. On the microscale, the standard no-slip boundary condition used in hydrodynamics has to be replaced by a slip boundary condition. In this work, a boundary condition for lattice Boltzmann is constructed that allows the slip length to be tuned by a single model parameter. Furthermore, a conceptually new approach for constructing boundary conditions is explored, where the reduced symmetry at the boundary is explicitly incorporated into the lattice model. The lattice Boltzmann method is systematically extended to the reduced symmetry model. In the case of a Poiseuille flow in a plane channel, it is shown that a special choice of the collision operator is required to reproduce the correct flow profile. This systematic approach sheds light on the consequences of the reduced symmetry at the boundary and leads to a deeper understanding of boundary conditions in the lattice Boltzmann method. This can help to develop improved boundary conditions that lead to more accurate simulation results.
Resumo:
One of the main goals of the COMPASS experiment at CERN is the
determination of the gluon polarisation in the nucleon. It is determined from spin asymmetries in the scattering of
160 GeV/c polarised muons on a polarised LiD target.
The gluon polarisation is accessed by the selection of photon-gluon fusion (PGF) events. The PGF-process can be tagged through hadrons with high transverse momenta or through charmed hadrons in the final state. The advantage of the open charm channel is that, in leading order, the PGF-process is the only process for charm production, thus no physical background contributes to the selected data sample.
This thesis presents a measurement of the gluon polarisation from the COMPASS data taken in the years 2002-2004. In the analysis, charm production is tagged through a
reconstructed D0-meson decaying in $D^{0}-> K^{-}pi^{+}$ (and charge conjugates). The reconstruction is done on a combinatorial basis. The background of wrong track pairs is reduced using kinematic cuts to the reconstructed D0-candidate and the information on particle identification from the Ring Imaging Cerenkov counter. In addition, the event sample is separated into D0-candidates, where a soft pion from the decay of the D*-meson to a D0-meson, is found, and the D0-candidates without this tag. Due to the small mass difference between D*-meson and D0-meson the signal purity of the D*-tagged sample is about 7 times higher than in the untagged sample.
The gluon polarisation is measured from the event asymmetries for the for the different spin configurations of the COMPASS target. To improve the statistical precision of the final results, the events in the final sample are weighted.
This method results in an average value of the gluon polarisation in the x-range covered by the data. For the COMPASS data from 2002-2004, the resulting value of the gluon polarisation is $
Resumo:
During the last twenty years, Cydia pomonolla granulovirus (CpGV, Baculoviridae) has become the most important biological control agent for the codling moth (CM) in organic and integrated apple production. All registered products in Europe are based on the isolate CpGV-M, which was discovered 1964 in Mexico. A serious threat to future application of CpGV is the occurrence of CM field populations resistant to CpGV. Since 2003, populations with up to 10,000-fold reduced susceptibility were reported from orchards in Germany, France, Italy, Switzerland, Austria and the Netherlands. A putative alternative to CpGV-M are novel CpGV isolates which are able to overcome CM resistance. This thesis focuses on the identification and characterisation of resistance overcoming CpGV isolates and the analysis of their molecular difference to CpGV-M.rnSixteen CpGV isolates were tested against CM lab strains in bioassays. Hereby, five isolates were identified which were able to completely overcome resistance. The genomes of these isolates were compared to CpGV-M by restriction fragment length polymorphism (RFLP) analysis. To identify the molecular factor responsible for improved virulence of some CpGV isolates, major genomic differences were sequenced and analysed. A 0.7 kb insertion was found in CpGV-I01, -I12 and -E2, but not in other resistance overcoming isolates. Analysis of the insertions sequence revealed that it might be due to a transposition event, but not involved in overcoming resistance. rnFor unequivocal identification of CpGV isolates, a new method based on molecular analysis was established. Partial sequencing of the conserved polyhedrin/granulin (polh/gran), late expression factor-8 (lef-8) and late expression factor-9 (lef-9) genes revealed single nucleotide polymorphisms (SNPs). SNP analysis correlated with the grouping obtained by RFLP analysis. A phylogenetic classification due to different genome types A-E is proposed. Phylogenetic analysis suggested that CpGV-M was the phylogenetically youngest of the tested CpGV isolates.rnWhole genome sequencing of two resistance overcoming isolates CpGV-I12 (type D genome) and -S (type E genome) and CpGV-M (type A genome) was performed. Comparison of the three genomes revealed a high sequence identity. Several insertions and deletions ranging from 1-700 nucleotides (nt) were found. Comparison on open reading frame (ORF) level revealed that CpGV-I12 and -S shared only one protein alteration when compared to CpGV-M: a stretch of 24 nt present in ORF cp24 was not found in any of the resistance overcoming isolates. Cp24 codes for the early gene pe38. Combined with the results of phylogenetic analysis, it is proposed that these 24 nt are a recent insertion into the CpGV-M genome. The role of pe38 in overcoming resistance was investigated by knocking out pe38 of a CpGV-M based bacmid and swapping of CpGV-I12 pe38 of into the k.o. bacmid. When pe38 of CpGV-I12 was inserted into the k.o. bacmid, the infectivity could not be rescued, suggesting that the genomic portion of pe38 might play a role in its function.rnIt can be concluded that the recently observed CpGV resistance in CM is only related to type A genomes. RFLP and SNP analysis provide tools for identifying and characterising different CpGV isolates reliably, a pre-condition for a future registration of CpGV products based on novel CpGV isolates.rnrnrn
Resumo:
Vegetation-cycles are of general interest for many applications. Be it for harvest-predictions, global monitoring of climate-change or as input to atmospheric models.rnrnCommon Vegetation Indices use the fact that for vegetation the difference between Red and Near Infrared reflection is higher than in any other material on Earth’s surface. This gives a very high degree of confidence for vegetation-detection.rnrnThe spectrally resolving data from the GOME and SCIAMACHY satellite-instrumentsrnprovide the chance to analyse finer spectral features throughout the Red and Near Infrared spectrum using Differential Optical Absorption Spectroscopy (DOAS). Although originally developed to retrieve information on atmospheric trace gases, we use it to gain information on vegetation. Another advantage is that this method automatically corrects for changes in the atmosphere. This renders the vegetation-information easily comparable over long time-spans.rnThe first results using previously available reference spectra were encouraging, but also indicated substantial limitations of the available reflectance spectra of vegetation. This was the motivation to create new and more suitable vegetation reference spectra within this thesis.rnThe set of reference spectra obtained is unique in its extent and also with respect to its spectral resolution and the quality of the spectral calibration. For the first time, this allowed a comprehensive investigation of the high-frequency spectral structures of vegetation reflectance and of their dependence on the viewing geometry.rnrnThe results indicate that high-frequency reflectance from vegetation is very complex and highly variable. While this is an interesting finding in itself, it also complicates the application of the obtained reference spectra to the spectral analysis of satellite observations.rnrnThe new set of vegetation reference spectra created in this thesis opens new perspectives for research. Besides refined satellite analyses, these spectra might also be used for applications on other platforms such as aircraft. First promising studies have been presented in this thesis, but the full potential for the remote sensing of vegetation from satellite (or aircraft) could bernfurther exploited in future studies.
Resumo:
Therapeutisches Drug Monitoring (TDM) findet Anwendung in der Therapie mit Immunosuppressiva, Antibiotika, antiretroviraler Medikation, Antikonvulsiva, Antidepressiva und auch Antipsychotika, um die Effizienz zu steigern und das Risiko von Intoxikationen zu reduzieren. Jedoch ist die Anwendung von TDM für Substanzen, die Einsatz finden in der Rückfallprophylaxe, der Substitution oder dem Entzug von Abhängigkeitserkrankungen nicht etabliert. Für diese Arbeit wurde im ersten Schritt eine sensitive Rating-Skala mit 22 Items entwickelt, mit Hilfe derer der theoretische Nutzen von TDM in der Pharmakotherapie von substanzbezogenen Abhängigkeitserkrankungen auf der Basis von pharmakologischen Eigenschaften der Medikamente und von Patientencharakteristika evaluiert wurde. Die vorgenommene Einschätzung zeigte für Bupropion, Buprenorphin, Disulfiram (oder einen Metaboliten), Methadon (chirale Bestimmung wenn möglich) und Naltrexon einen potentiellen Nutzen von TDM.rnFür die meisten Medikamente, die zur Behandlung von Abhängigkeitserkrankungen zugelassen sind, fehlen valide Messverfahren für TDM. Im Alltag werden überwiegend Drogen Screening-Tests in Form immunologischer Schnelltests angewendet. Für die Anwendung von TDM wurden in dieser Arbeit chromatographische Verfahren für die Bestimmung von Naltrexon und 6β-Naltrexol, Bupropion und Hydroxybupropion sowie R,S-Methadon und R,S-2-Ethyliden-1,5-dimethyl-3,3-diphenylpyrrolidin entwickelt, optimiert und validiert. Es handelt sich dabei HPLC-UV-Methoden mit Säulenschaltung sowie zur Bestimmung von Naltrexon und 6β-Naltrexol zusätzlich eine LC-MS/MS-Methode. Voraussetzung für die Interpretation der Plasmaspiegel ist im Wesentlichen die Kenntnis eines therapeutischen Bereichs. Für Naltrexon und seinen aktiven Metaboliten 6β-Naltrexol konnte eine signifikante Korrelation zwischen dem auftretenden Craving und der Summenkonzentration gefunden werden. Mittels Receiver-Operation-Characteristics-Kurven-Analyse wurde ein Schwellenwert von 16,6 ng/ml ermittelt, oberhalb dessen mit einem erhöhten Ansprechen gerechnet werden kann. Für Levomethadon wurde bezüglich der Detoxifikationsbehandlung ein Zusammenhang in der prozentualen Reduktion des Plasmaspiegels und den objektiven und subjektiven Entzugssymptomen gefunden. rnDoch nicht nur die Wirkstoffe, sondern auch das Patientenmerkmal substanzbezogene Abhängigkeit wurde charakterisiert, zum einen bezüglich pharmakokinetischer Besonderheiten, zum anderen in Hinsicht auf die Therapietreue (Adhärenz). Für Patienten mit komorbider Substanzabhängigkeit konnte eine verminderte Adhärenz unabhängig von der Hauptdiagnose gezeigt werden. Die Betrachtung des Einflusses von veränderten Leberwerten zeigt für komorbide Patienten eine hohe Korrelation mit dem Metabolisiererstatus, nicht aber für Patienten ohne Substanzabhängigkeit.rnÜbergeordnetes Ziel von TDM ist die Erhöhung der Therapiesicherheit und die Steigerung der Therapieeffizienz. Dies ist jedoch nur möglich, wenn TDM im klinischen Alltag integriert ist und korrekt eingesetzt wird. Obwohl es klare Evidenz für TDM von psychiatrischer Medikation gibt, ist die Diskrepanz zwischen Laborempfehlung und der klinischen Umsetzung hoch. Durch Intensivierung der interdisziplinären Zusammenarbeit zwischen Ärzten und Labor, der Entwicklung von interaktivem TDM (iTDM), konnte die Qualität der Anwendung von TDM verbessert und das Risiko von unerwünschten Arzneimittelwirkungen vermindert werden. rnInsgesamt konnte durch die eigenen Untersuchungen gezeigt werden, dass TDM für die medikamentöse Einstellung von Patienten mit Abhängigkeitserkrankung sinnvoll ist und dass optimales TDM eine interdisziplinäre Zusammenarbeit erfordert.rn
Resumo:
In Rahmen der vorliegenden Arbeit wurde ein neuartiger Zugang zu einer Vielzahl von Polymerstrukturen auf Basis des klinisch zugelassenen Polymers Poly(N-(2-Hydroxypropyl)-methacrylamide) (PHPMA) entwickelt. Der synthetische Zugang beruht zum einen auf der Verwendung von Reaktivesterpolymeren und zum anderen auf der Reversible Addition Fragmentation Chain Transfer (RAFT) Polymerisationsmethode. Diese Form einer kontrollierten radikalischen Polymerisation ermöglichte es, neben der Synthese von besser definierten Homopolymeren auch statistische und Blockcopolymere herzustellen. Die Reaktivesterpolymere können durch einfache Aminolyse in HPMA-basierte Systeme überführt werden. Somit können sie als eine vielversprechende Basis zur Synthese von umfangreichen Polymerbibliotheken angesehen werden. Die hergestellten Polymere kombinieren verschiedene Funktionalitäten bei konstantem Polymerisationsgrad. Dies ermöglicht eine Optimierung auf eine gezielte Anwendung hin ohne den Parameter der Kettenlänge zu verändern.rnIm weiteren war es durch Verwendung der RAFT Polymerisation möglich partiell bioabbaubare Blockcopolymere auf Basis von Polylactiden und HPMA herzustellen, in dem ein Kettentransferreagenz (CTA) an ein wohl definiertes Polylactid Homopolymer gekoppelt wurde. Diese Strukturen wurden in ihrer Zusammensetzung variiert und mit Erkennungsstrukturen (Folaten) und markierenden Elementen (Fluoreszenzfarbstoffe und +-emittierenden Radionukleide) versehen und im weiteren in vitro und in vivo evaluiert.rnAuf Grund dieser Errungenschaften war es möglich den Einfluss der Polymermikrostruktur auf das Aggregationsverhalten hin mittel Lichtstreuung und Fluoreszenzkorrelationsspektroskopie zu untersuchen. Es konnte gezeigt werden, dass erst diese Informationen über die Überstrukturbildung die Kinetik der Zellaufnahme erklären können. Somit wurde die wichtige Rolle von Strukturwirkungsbeziehungen nachgewiesen.rnSomit konnte neben der Synthese, Charakterisierung und ersten biologischen Evaluierungen ein Beitrag zum besseres Verständnis zur Interaktion von polymeren Partikeln mit biologischen Systemen geleistet werden.
Resumo:
Durch steigende Energiekosten und erhöhte CO2 Emission ist die Forschung an thermoelektrischen (TE) Materialien in den Fokus gerückt. Die Eignung eines Materials für die Verwendung in einem TE Modul ist verknüpft mit der Gütezahl ZT und entspricht α2σTκ-1 (Seebeck Koeffizient α, Leitfähigkeit σ, Temperatur T und thermische Leitfähigkeit κ). Ohne den Leistungsfaktor α2σ zu verändern, soll ZT durch Senkung der thermischen Leitfähigkeit mittels Nanostrukturierung angehoben werden.rnBis heute sind die TE Eigenschaften von den makroskopischen halb-Heusler Materialen TiNiSn und Zr0.5Hf0.5NiSn ausgiebig erforscht worden. Mit Hilfe von dc Magnetron-Sputterdeposition wurden nun erstmals halbleitende TiNiSn und Zr0.5Hf0.5NiSn Schichten hergestellt. Auf MgO (100) Substraten sind stark texturierte polykristalline Schichten bei Substrattemperaturen von 450°C abgeschieden worden. Senkrecht zur Oberfläche haben sich Korngrößen von 55 nm feststellen lassen. Diese haben Halbwertsbreiten bei Rockingkurven von unter 1° aufgewiesen. Strukturanalysen sind mit Hilfe von Röntgenbeugungsexperimenten (XRD) durchgeführt worden. Durch Wachstumsraten von 1 nms 1 konnten in kürzester Zeit Filmdicken von mehr als einem µm hergestellt werden. TiNiSn zeigte den höchsten Leistungsfaktor von 0.4 mWK 2m 1 (550 K). Zusätzlich wurde bei Raumtemperatur mit Hilfe der differentiellen 3ω Methode eine thermische Leitfähigkeit von 2.8 Wm 1K 1 bestimmt. Es ist bekannt, dass die thermische Leitfähigkeit mit der Variation von Massen abnimmt. Weil zudem angenommen wird, dass sie durch Grenzflächenstreuung von Phononen ebenfalls reduziert wird, wurden Übergitter hergestellt. Dabei wurden TiNiSn und Zr0.5Hf0.5NiSn nacheinander abgeschieden. Die sehr hohe Kristallqualität der Übergitter mit ihren scharfen Grenzflächen konnte durch Satellitenpeaks und Transmissionsmikroskopie (STEM) nachgewiesen werden. Für ein Übergitter mit einer Periodizität von 21 nm (TiNiSn und Zr0.5Hf0.5NiSn jeweils 10.5 nm) ist bei einer Temperatur von 550 K ein Leistungsfaktor von 0.77 mWK 2m 1 nachgewiesen worden (α = 80 µVK 1; σ = 8.2 µΩm). Ein Übergitter mit der Periodizität von 8 nm hat senkrecht zu den Grenzflächen eine thermische Leitfähigkeit von 1 Wm 1K 1 aufgewiesen. Damit hat sich die Reduzierung der thermischen Leitfähigkeit durch die halb-Heusler Übergitter bestätigt. Durch die isoelektronischen Eigenschaften von Titan, Zirkonium und Hafnium wird angenommen, dass die elektrische Bandstruktur und damit der Leistungsfaktor senkrecht zu den Grenzflächen nur schwach beeinflusst wird.rn
Resumo:
Herz-Kreislauf-Erkrankungen zählen weltweit zu den Hauptursachen, die zu frühzeitigem Tod führen. Pathophysiologisch liegt eine Gefäßwandverdickung durch Ablagerung arteriosklerotischer Plaques (Arteriosklerose) vor. Die molekulare Bildgebung mit den nuklearmedizinischen Verfahren SPECT und PET zielt darauf ab, minderperfundierte Myokardareale zu visualisieren, um den Krankheitsverlauf durch frühzeitige Therapie abschwächen zu können. Routinemäßig eingesetzt werden die SPECT-Perfusionstracer [99mTc]Sestamibi und [99mTc]Tetrofosmin. Zum Goldstandard für die Quantifizierung der Myokardperfusion werden allerdings die PET-Tracer [13N]NH3 und [15O]H2O, da eine absolute Bestimmung des Blutflusses in mL/min/g sowohl in der Ruhe als auch bei Belastung möglich ist. 2007 wurde [18F]Flurpiridaz als neuer Myokardtracer vorgestellt, dessen Bindung an den MC I sowohl in Ratten, Hasen, Primaten als auch in ersten klinischen Humanstudien eine selektive Myokardaufnahme zeigte. Um eine Verfügbarkeit des Radionuklids über einen Radionuklidgenerator gewährleisten zu können, sollten makrozyklische 68Ga-Myokard-Perfusionstracer auf Pyridaben-Basis synthetisiert und evaluiert werden. Die neue Tracer-Klasse setzte sich aus dem makrozyklischen Chelator, einem Linker und dem Insektizid Pyridaben als Targeting-Vektor zusammen. Struktur-Affinitätsbeziehungen konnten auf Grund von Variation des Linkers (Länge und Polarität), der Komplexladung (neutral und einfach positiv geladen), des Chelators (DOTA, NODAGA, DO2A) sowie durch einen Multivalenzansatz (Monomer und Dimer) aufgestellt werden. Insgesamt wurden 16 neue Verbindungen synthetisiert. Ihre 68Ga-Markierung wurde hinsichtlich pH-Wert, Temperatur, Vorläufermenge und Reaktionszeit optimiert. Die DOTA/NODAGA-Pyridaben-Derivate ließen sich mit niedrigen Substanzmengen (6 - 25 nmol) in 0,1 M HEPES-Puffer (pH 3,4) bei 95°C innerhalb 15 min mit Ausbeuten > 95 % markieren. Für die DO2A-basierenden Verbindungen bedurfte es einer mikrowellengestützen Markierung (300 W, 1 min, 150°C), um vergleichbare Ausbeuten zu erzielen. Die in vitro-Stabilitätstests aller Verbindungen erfolgten in EtOH, NaCl und humanem Serum. Es konnten keine Instabilitäten innerhalb 80 min bei 37°C festgestellt werden. Unter Verwendung der „shake flask“-Methode wurden die Lipophilien (log D = -1,90 – 1,91) anhand des Verteilungs-quotienten in Octanol/PBS-Puffer ermittelt. Die kalten Referenzsubstanzen wurden mit GaCl3 hergestellt und zur Bestimmung der IC50-Werte (34,1 µM – 1 µM) in vitro auf ihre Affinität zum MC I getestet. In vivo-Evaluierungen erfolgten mit den zwei potentesten Verbindungen [68Ga]VN160.MZ und [68Ga]VN167.MZ durch µ-PET-Aufnahmen (n=3) in gesunden Ratten über 60 min. Um die Organverteilung ermitteln zu können, wurden ex vivo-Biodistributionsstudien (n=3) vorgenommen. Sowohl die µ-PET-Untersuchungen als auch die Biodistributionsstudien zeigten, dass es bei [68Ga]VN167.MZ zwar zu einer Herzaufnahme kam, die jedoch eher perfusionsabhängig ist. Eine Retention des Tracers im Myokard konnte in geringem Umfang festgestellt werden.
Resumo:
Moderne ESI-LC-MS/MS-Techniken erlauben in Verbindung mit Bottom-up-Ansätzen eine qualitative und quantitative Charakterisierung mehrerer tausend Proteine in einem einzigen Experiment. Für die labelfreie Proteinquantifizierung eignen sich besonders datenunabhängige Akquisitionsmethoden wie MSE und die IMS-Varianten HDMSE und UDMSE. Durch ihre hohe Komplexität stellen die so erfassten Daten besondere Anforderungen an die Analysesoftware. Eine quantitative Analyse der MSE/HDMSE/UDMSE-Daten blieb bislang wenigen kommerziellen Lösungen vorbehalten. rn| In der vorliegenden Arbeit wurden eine Strategie und eine Reihe neuer Methoden zur messungsübergreifenden, quantitativen Analyse labelfreier MSE/HDMSE/UDMSE-Daten entwickelt und als Software ISOQuant implementiert. Für die ersten Schritte der Datenanalyse (Featuredetektion, Peptid- und Proteinidentifikation) wird die kommerzielle Software PLGS verwendet. Anschließend werden die unabhängigen PLGS-Ergebnisse aller Messungen eines Experiments in einer relationalen Datenbank zusammengeführt und mit Hilfe der dedizierten Algorithmen (Retentionszeitalignment, Feature-Clustering, multidimensionale Normalisierung der Intensitäten, mehrstufige Datenfilterung, Proteininferenz, Umverteilung der Intensitäten geteilter Peptide, Proteinquantifizierung) überarbeitet. Durch diese Nachbearbeitung wird die Reproduzierbarkeit der qualitativen und quantitativen Ergebnisse signifikant gesteigert.rn| Um die Performance der quantitativen Datenanalyse zu evaluieren und mit anderen Lösungen zu vergleichen, wurde ein Satz von exakt definierten Hybridproteom-Proben entwickelt. Die Proben wurden mit den Methoden MSE und UDMSE erfasst, mit Progenesis QIP, synapter und ISOQuant analysiert und verglichen. Im Gegensatz zu synapter und Progenesis QIP konnte ISOQuant sowohl eine hohe Reproduzierbarkeit der Proteinidentifikation als auch eine hohe Präzision und Richtigkeit der Proteinquantifizierung erreichen.rn| Schlussfolgernd ermöglichen die vorgestellten Algorithmen und der Analyseworkflow zuverlässige und reproduzierbare quantitative Datenanalysen. Mit der Software ISOQuant wurde ein einfaches und effizientes Werkzeug für routinemäßige Hochdurchsatzanalysen labelfreier MSE/HDMSE/UDMSE-Daten entwickelt. Mit den Hybridproteom-Proben und den Bewertungsmetriken wurde ein umfassendes System zur Evaluierung quantitativer Akquisitions- und Datenanalysesysteme vorgestellt.