167 resultados para Prozess


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die vorliegende Arbeit ist motiviert durch biologische Fragestellungen bezüglich des Verhaltens von Membranpotentialen in Neuronen. Ein vielfach betrachtetes Modell für spikende Neuronen ist das Folgende. Zwischen den Spikes verhält sich das Membranpotential wie ein Diffusionsprozess X der durch die SDGL dX_t= beta(X_t) dt+ sigma(X_t) dB_t gegeben ist, wobei (B_t) eine Standard-Brown'sche Bewegung bezeichnet. Spikes erklärt man wie folgt. Sobald das Potential X eine gewisse Exzitationsschwelle S überschreitet entsteht ein Spike. Danach wird das Potential wieder auf einen bestimmten Wert x_0 zurückgesetzt. In Anwendungen ist es manchmal möglich, einen Diffusionsprozess X zwischen den Spikes zu beobachten und die Koeffizienten der SDGL beta() und sigma() zu schätzen. Dennoch ist es nötig, die Schwellen x_0 und S zu bestimmen um das Modell festzulegen. Eine Möglichkeit, dieses Problem anzugehen, ist x_0 und S als Parameter eines statistischen Modells aufzufassen und diese zu schätzen. In der vorliegenden Arbeit werden vier verschiedene Fälle diskutiert, in denen wir jeweils annehmen, dass das Membranpotential X zwischen den Spikes eine Brown'sche Bewegung mit Drift, eine geometrische Brown'sche Bewegung, ein Ornstein-Uhlenbeck Prozess oder ein Cox-Ingersoll-Ross Prozess ist. Darüber hinaus beobachten wir die Zeiten zwischen aufeinander folgenden Spikes, die wir als iid Treffzeiten der Schwelle S von X gestartet in x_0 auffassen. Die ersten beiden Fälle ähneln sich sehr und man kann jeweils den Maximum-Likelihood-Schätzer explizit angeben. Darüber hinaus wird, unter Verwendung der LAN-Theorie, die Optimalität dieser Schätzer gezeigt. In den Fällen OU- und CIR-Prozess wählen wir eine Minimum-Distanz-Methode, die auf dem Vergleich von empirischer und wahrer Laplace-Transformation bezüglich einer Hilbertraumnorm beruht. Wir werden beweisen, dass alle Schätzer stark konsistent und asymptotisch normalverteilt sind. Im letzten Kapitel werden wir die Effizienz der Minimum-Distanz-Schätzer anhand simulierter Daten überprüfen. Ferner, werden Anwendungen auf reale Datensätze und deren Resultate ausführlich diskutiert.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Therapeutisches Drug Monitoring (TDM) umfasst die Messung von Medikamentenspiegeln im Blut und stellt die Ergebnisse in Zusammenhang mit dem klinischen Erscheinungsbild der Patienten. Dabei wird angenommen, dass die Konzentrationen im Blut besser mit der Wirkung korrelieren als die Dosis. Dies gilt auch für Antidepressiva. Voraussetzung für eine Therapiesteuerung durch TDM ist die Verfügbarkeit valider Messmethoden im Labor und die korrekte Anwendung des Verfahrens in der Klinik. Ziel dieser Arbeit war es, den Einsatz von TDM für die Depressionsbehandlung zu analysieren und zu verbessern. Im ersten Schritt wurde für das neu zugelassene Antidepressivum Duloxetin eine hochleistungsflüssig-chromatographische (HPLC) Methode mit Säulenschaltung und spektrophotometrischer Detektion etabliert und an Patienten für TDM angewandt. Durch Analyse von 280 Patientenproben wurde herausgefunden, dass Duloxetin-Konzentrationen von 60 bis 120 ng/ml mit gutem klinischen Ansprechen und einem geringen Risiko für Nebenwirkungen einhergingen. Bezüglich seines Interaktionspotentials erwies sich Duloxetin im Vergleich zu anderen Antidepressiva als schwacher Inhibitor des Cytochrom P450 (CYP) Isoenzyms 2D6. Es gab keinen Hinweis auf eine klinische Relevanz. Im zweiten Schritt sollte eine Methode entwickelt werden, mit der möglichst viele unterschiedliche Antidepressiva einschließlich deren Metaboliten messbar sind. Dazu wurde eine flüssigchromatographische Methode (HPLC) mit Ultraviolettspektroskopie (UV) entwickelt, mit der die quantitative Analyse von zehn antidepressiven und zusätzlich zwei antipsychotischen Substanzen innerhalb von 25 Minuten mit ausreichender Präzision und Richtigkeit (beide über 85%) und Sensitivität erlaubte. Durch Säulenschaltung war eine automatisierte Analyse von Blutplasma oder –serum möglich. Störende Matrixbestandteile konnten auf einer Vorsäule ohne vorherige Probenaufbereitung abgetrennt werden. Das kosten- und zeiteffektive Verfahren war eine deutliche Verbesserung für die Bewältigung von Proben im Laboralltag und damit für das TDM von Antidepressiva. Durch Analyse des klinischen Einsatzes von TDM wurden eine Reihe von Anwendungsfehlern identifiziert. Es wurde deshalb versucht, die klinische Anwendung des TDM von Antidepressiva durch die Umstellung von einer weitgehend händischen Dokumentation auf eine elektronische Bearbeitungsweise zu verbessern. Im Rahmen der Arbeit wurde untersucht, welchen Effekt man mit dieser Intervention erzielen konnte. Dazu wurde eine Labor-EDV eingeführt, mit der der Prozess vom Probeneingang bis zur Mitteilung der Messergebnisse auf die Stationen elektronisch erfolgte und die Anwendung von TDM vor und nach der Umstellung untersucht. Die Umstellung fand bei den behandelnden Ärzten gute Akzeptanz. Die Labor-EDV erlaubte eine kumulative Befundabfrage und eine Darstellung des Behandlungsverlaufs jedes einzelnen Patienten inklusive vorhergehender Klinikaufenthalte. Auf die Qualität der Anwendung von TDM hatte die Implementierung des Systems jedoch nur einen geringen Einfluss. Viele Anforderungen waren vor und nach der Einführung der EDV unverändert fehlerhaft, z.B. wurden häufig Messungen vor Erreichen des Steady State angefordert. Die Geschwindigkeit der Bearbeitung der Proben war im Vergleich zur vorher händischen Ausführung unverändert, ebenso die Qualität der Analysen bezüglich Richtigkeit und Präzision. Ausgesprochene Empfehlungen hinsichtlich der Dosierungsstrategie der angeforderten Substanzen wurden häufig nicht beachtet. Verkürzt wurde allerdings die mittlere Latenz, mit der eine Dosisanpassung nach Mitteilung des Laborbefundes erfolgte. Insgesamt ist es mit dieser Arbeit gelungen, einen Beitrag zur Verbesserung des Therapeutischen Drug Monitoring von Antidepressiva zu liefern. In der klinischen Anwendung sind allerdings Interventionen notwendig, um Anwendungsfehler beim TDM von Antidepressiva zu minimieren.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

One of the main goals of the COMPASS experiment at CERN is the determination of the gluon polarisation in the nucleon. It is determined from spin asymmetries in the scattering of 160 GeV/c polarised muons on a polarised LiD target. The gluon polarisation is accessed by the selection of photon-gluon fusion (PGF) events. The PGF-process can be tagged through hadrons with high transverse momenta or through charmed hadrons in the final state. The advantage of the open charm channel is that, in leading order, the PGF-process is the only process for charm production, thus no physical background contributes to the selected data sample. This thesis presents a measurement of the gluon polarisation from the COMPASS data taken in the years 2002-2004. In the analysis, charm production is tagged through a reconstructed D0-meson decaying in $D^{0}-> K^{-}pi^{+}$ (and charge conjugates). The reconstruction is done on a combinatorial basis. The background of wrong track pairs is reduced using kinematic cuts to the reconstructed D0-candidate and the information on particle identification from the Ring Imaging Cerenkov counter. In addition, the event sample is separated into D0-candidates, where a soft pion from the decay of the D*-meson to a D0-meson, is found, and the D0-candidates without this tag. Due to the small mass difference between D*-meson and D0-meson the signal purity of the D*-tagged sample is about 7 times higher than in the untagged sample. The gluon polarisation is measured from the event asymmetries for the for the different spin configurations of the COMPASS target. To improve the statistical precision of the final results, the events in the final sample are weighted. This method results in an average value of the gluon polarisation in the x-range covered by the data. For the COMPASS data from 2002-2004, the resulting value of the gluon polarisation is $=-0.47+-0.44 (stat)+-0.15(syst.)$. The result is statistically compatible with the existing measurements of $$ in the high-pT channel. Compared to these, the open charm measurement has the advantage of a considerably smaller model dependence.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Der kanonische Wnt Signalweg ist durch Regulation einer Vielzahl von Zielgenen in unterschiedliche Prozesse wie Entwicklung, Wachstum und Differenzierung involviert. Fehlregulation des Signalwegs kann zur Tumorentstehung führen. Die exakte Rolle des Wnt Signalwegs und seiner Zielgene in der karzinogenen Kaskade ist noch nicht genau bekannt. In dieser Arbeit sollte die Beteiligung der Wnt Zielgene c-MYC, CCND1 (kodiert Cyclin D1) und VEGF an der Karzinogenese untersucht werden. Um die Funktionen der Wnt Zielgene und ihre zellulären Effekte unabhängig voneinander untersuchen zu können, wurden die Mengen der entsprechenden Transkriptionsprodukte durch siRNA (short interfering RNA) gezielt verringert. Die Konsequenzen der Inaktivierung wurden in Kolon- und Zervixkarzinomzelllinien untersucht, wobei die zellulären Parameter Proliferation, Apoptose, Metabolismus sowie Migration und Adhäsion untersucht wurden. Dabei konnte beobachtet werden, dass der Wnt Signalweg mit seinen Zielgenen Cyclin D1 und c-MYC die Proliferation mit dem Energiemetabolismus von Tumorzellen verknüpft. Darüber hinaus konnte gezeigt werden, dass Cyclin D1 an der Regulation der zelluläre Migration und Adhäsion beteiligt ist, während VEGF die Apoptose abhängig vom zellulären Kontext inhibiert. Diese Ergebnisse liefern erste Hinweise auf die funktionelle Rolle der verschiedenen Zielgene im Prozess der Karzinogenese in Tumoren mit aktiviertem Wnt Signalweg. Damit ist diese Arbeit ein möglicher Ausgangspunkt für Studien mit dem Ziel der gezielten therapeutischen Beeinflussung des Wnt Signalwegs auf Ebene der Zielgene.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In dieser Arbeit werden Strukturen beschrieben, die mit Polymeren auf Oberflächen erzeugt wurden. Die Anwendungen reichen von PMMA und PNIPAM Polymerbürsten, über die Restrukturierung von Polystyrol durch Lösemittel bis zu 3D-Strukturen, die aus PAH/ PSS Polyelektrolytmultischichten bestehen. Im ersten Teil werden Polymethylmethacrylat (PMMA) Bürsten in der ionischen Flüssigkeit 1-Butyl-3-Methylimidazolium Hexafluorophospat ([Bmim][PF6]) durch kontrollierte radikalische Polymerisation (ATRP) hergestellt. Kinetische Untersuchungen zeigten ein lineares und dichtes Bürstenwachstum mit einer Wachstumsrate von 4600 g/mol pro nm. Die durchschnittliche Pfropfdichte betrug 0.36 µmol/m2. Als Anwendung wurden Mikrotropfen bestehend aus der ionischen Flüssigkeit, Dimethylformamid und dem ATRP-Katalysator benutzt, um in einer definierten Geometrie Polymerbürsten auf Silizium aufzubringen. Auf diese Weise lässt sich eine bis zu 13 nm dicke Beschichtung erzeugen. Dieses Konzept ist durch die Verdampfung des Monomers Methylmethacrylat (MMA) limitiert. Aus einem 1 µl großen Tropfen aus ionischer Flüssigkeit und MMA (1:1) verdampft MMA innerhalb von 100 s. Daher wurde das Monomer sequentiell zugegeben. Der zweite Teil konzentriert sich auf die Strukturierung von Oberflächen mit Hilfe einer neuen Methode: Tintendruck. Ein piezoelektrisch betriebenes „Drop-on-Demand“ Drucksystem wurde verwendet, um Polystyrol mit 0,4 nl Tropfen aus Toluol zu strukturieren. Die auf diese Art und Weise gebildeten Mikrokrater können Anwendung als Mikrolinsen finden. Die Brennweite der Mikrolinsen kann über die Anzahl an Tropfen, die für die Strukturierung verwendet werden, eingestellt werden. Theoretisch und experimentell wurde die Brennweite im Bereich von 4,5 mm bis 0,21 mm ermittelt. Der zweite Strukturierungsprozess nutzt die Polyelektrolyte Polyvinylamin-Hydrochlorid (PAH) und Polystyrolsulfonat (PSS), um 3D-Strukturen wie z.B. Linien, Schachbretter, Ringe, Stapel mit einer Schicht für Schicht Methode herzustellen. Die Schichtdicke für eine Doppelschicht (DS) liegt im Bereich von 0.6 bis 1.1 nm, wenn NaCl als Elektrolyt mit einer Konzentration von 0,5 mol/l eingesetzt wird. Die Breite der Strukturen beträgt im Mittel 230 µm. Der Prozess wurde erweitert, um Nanomechanische Cantilever Sensoren (NCS) zu beschichten. Auf einem Array bestehend aus acht Cantilevern wurden je zwei Cantilever mit fünf Doppelschichten PAH/ PSS und je zwei Cantilever mit zehn Doppelschichten PAH/ PSS schnell und reproduzierbar beschichtet. Die Massenänderung für die individuellen Cantilever war 0,55 ng für fünf Doppelschichten und 1,08 ng für zehn Doppelschichten. Der daraus resultierende Sensor wurde einer Umgebung mit definierter Luftfeuchtigkeit ausgesetzt. Die Cantilever verbiegen sich durch die Ausdehnung der Beschichtung, da Wasser in das Polymer diffundiert. Eine maximale Verbiegung von 442 nm bei 80% Luftfeuchtigkeit wurde für die mit zehn Doppelschichten beschichteten Cantilever gefunden. Dies entspricht einer Wasseraufnahme von 35%. Zusätzlich konnte aus den Verbiegungsdaten geschlossen werden, dass die Elastizität der Polyelektrolytmultischichten zunimmt, wenn das Polymer gequollen ist. Das thermische Verhalten in Wasser wurde im nächsten Teil an nanomechanischen Cantilever Sensoren, die mit Poly(N-isopropylacrylamid)bürsten (PNIPAM) und plasmapolymerisiertem N,N-Diethylacrylamid beschichtet waren, untersucht. Die Verbiegung des Cantilevers zeigte zwei Bereiche: Bei Temperaturen kleiner der niedrigsten kritischen Temperatur (LCST) ist die Verbiegung durch die Dehydration der Polymerschicht dominiert und bei Temperaturen größer der niedrigsten kritischen Temperatur (LCST) reagiert der Cantilever Sensor überwiegend auf Relaxationsprozesse innerhalb der kollabierten Polymerschicht. Es wurde gefunden, dass das Minimum in der differentiellen Verbiegung mit der niedrigsten kritischen Temperatur von 32°C und 44°C der ausgewählten Polymeren übereinstimmt. Im letzten Teil der Arbeit wurden µ-Reflektivitäts- und µ-GISAXS Experimente eingeführt als neue Methoden, um mikrostrukturierte Proben wie NCS oder PEM Linien mit Röntgenstreuung zu untersuchen. Die Dicke von jedem individuell mit PMMA Bürsten beschichtetem NCS ist im Bereich von 32,9 bis 35,2 nm, was mit Hilfe von µ-Reflektivitätsmessungen bestimmt wurde. Dieses Ergebnis kann mit abbildender Ellipsometrie als komplementäre Methode mit einer maximalen Abweichung von 7% bestätigt werden. Als zweites Beispiel wurde eine gedruckte Polyelektrolytmultischicht aus PAH/PSS untersucht. Die Herstellungsprozedur wurde so modifiziert, dass Goldnanopartikel in die Schichtstruktur eingebracht wurden. Durch Auswertung eines µ-GISAXS Experiments konnte der Einbau der Partikel identifiziert werden. Durch eine Anpassung mit einem Unified Fit Modell wurde herausgefunden, dass die Partikel nicht agglomeriert sind und von einer Polymermatrix umgeben sind.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In dieser Arbeit wird eine schmalbandige kontinuierliche kohärente Lyman-α-Quelle basierend auf Festkörperlasersystemen zur zukünftigen Kühlung von Antiwasserstoff vorgestellt. Die fundamentalen Festkörperlasersysteme ermöglichen es im Vier-Wellen-Misch-Prozess zur Erzeugung der Lyman-α-Strahlung nicht nur die 6^1S – 7^1S-Zwei-Photonen-Resonanz des Quecksilbers sondern erstmals auch die 6^1S – 6^3P-Ein-Photonen-Resonanz zur Erhöhung der Konversionseffizienz optimal zu nutzen. In ersten Messungen wurden 0,063nW Leistung bei Lyman-α erzeugt. Mit dieser Lyman-α-Quelle war es, durch die Nähe des ersten fundamentalen Lasers zur Ein-Photonen-Resonanz, erstmals möglich den kompletten Verlauf der Phasenanpassungskurve des Vier-Wellen- Misch-Prozesses aufzunehmen. Neben den fundamentalen Lasersystemen und der Lyman-alpha-Erzeugung selbst, wird in dieser Arbeit die Detektion der produzierten Lyman-α-Strahlung mit einem Photomultiplier vorgestellt, die soweit optimiert wurde, dass eine zuverlässige Abschätzung der erzeugten Leistung möglich ist. Für diesen Zweck wurde zudem ein Teststand aufgebaut, mit dem die Transmissivität der Optiken, welche in der Lyman-α-Apparatur verwendet werden, bei 121,56nm gemessen wurde. Des Weiteren wird hier eine vielseitige Rechnung vorgestellt, mit der die erzeugte Leistung bei Lyman-α, unter anderem in Abhängigkeit von der Temperatur, der Absorption des ersten fundamentalen Laserstrahls, dem Dichteprofil des Quecksilberdampfes und unter dem Einfluss eines Puffergases, bestimmt wird.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Proxy data are essential for the investigation of climate variability on time scales larger than the historical meteorological observation period. The potential value of a proxy depends on our ability to understand and quantify the physical processes that relate the corresponding climate parameter and the signal in the proxy archive. These processes can be explored under present-day conditions. In this thesis, both statistical and physical models are applied for their analysis, focusing on two specific types of proxies, lake sediment data and stable water isotopes.rnIn the first part of this work, the basis is established for statistically calibrating new proxies from lake sediments in western Germany. A comprehensive meteorological and hydrological data set is compiled and statistically analyzed. In this way, meteorological times series are identified that can be applied for the calibration of various climate proxies. A particular focus is laid on the investigation of extreme weather events, which have rarely been the objective of paleoclimate reconstructions so far. Subsequently, a concrete example of a proxy calibration is presented. Maxima in the quartz grain concentration from a lake sediment core are compared to recent windstorms. The latter are identified from the meteorological data with the help of a newly developed windstorm index, combining local measurements and reanalysis data. The statistical significance of the correlation between extreme windstorms and signals in the sediment is verified with the help of a Monte Carlo method. This correlation is fundamental for employing lake sediment data as a new proxy to reconstruct windstorm records of the geological past.rnThe second part of this thesis deals with the analysis and simulation of stable water isotopes in atmospheric vapor on daily time scales. In this way, a better understanding of the physical processes determining these isotope ratios can be obtained, which is an important prerequisite for the interpretation of isotope data from ice cores and the reconstruction of past temperature. In particular, the focus here is on the deuterium excess and its relation to the environmental conditions during evaporation of water from the ocean. As a basis for the diagnostic analysis and for evaluating the simulations, isotope measurements from Rehovot (Israel) are used, provided by the Weizmann Institute of Science. First, a Lagrangian moisture source diagnostic is employed in order to establish quantitative linkages between the measurements and the evaporation conditions of the vapor (and thus to calibrate the isotope signal). A strong negative correlation between relative humidity in the source regions and measured deuterium excess is found. On the contrary, sea surface temperature in the evaporation regions does not correlate well with deuterium excess. Although requiring confirmation by isotope data from different regions and longer time scales, this weak correlation might be of major importance for the reconstruction of moisture source temperatures from ice core data. Second, the Lagrangian source diagnostic is combined with a Craig-Gordon fractionation parameterization for the identified evaporation events in order to simulate the isotope ratios at Rehovot. In this way, the Craig-Gordon model can be directly evaluated with atmospheric isotope data, and better constraints for uncertain model parameters can be obtained. A comparison of the simulated deuterium excess with the measurements reveals that a much better agreement can be achieved using a wind speed independent formulation of the non-equilibrium fractionation factor instead of the classical parameterization introduced by Merlivat and Jouzel, which is widely applied in isotope GCMs. Finally, the first steps of the implementation of water isotope physics in the limited-area COSMO model are described, and an approach is outlined that allows to compare simulated isotope ratios to measurements in an event-based manner by using a water tagging technique. The good agreement between model results from several case studies and measurements at Rehovot demonstrates the applicability of the approach. Because the model can be run with high, potentially cloud-resolving spatial resolution, and because it contains sophisticated parameterizations of many atmospheric processes, a complete implementation of isotope physics will allow detailed, process-oriented studies of the complex variability of stable isotopes in atmospheric waters in future research.rn

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Stylolites are rough paired surfaces, indicative of localized stress-induced dissolution under a non-hydrostatic state of stress, separated by a clay parting which is believed to be the residuum of the dissolved rock. These structures are the most frequent deformation pattern in monomineralic rocks and thus provide important information about low temperature deformation and mass transfer. The intriguing roughness of stylolites can be used to assess amount of volume loss and paleo-stress directions, and to infer the destabilizing processes during pressure solution. But there is little agreement on how stylolites form and why these localized pressure solution patterns develop their characteristic roughness.rnNatural bedding parallel and vertical stylolites were studied in this work to obtain a quantitative description of the stylolite roughness and understand the governing processes during their formation. Adapting scaling approaches based on fractal principles it is demonstrated that stylolites show two self affine scaling regimes with roughness exponents of 1.1 and 0.5 for small and large length scales separated by a crossover length at the millimeter scale. Analysis of stylolites from various depths proved that this crossover length is a function of the stress field during formation, as analytically predicted. For bedding parallel stylolites the crossover length is a function of the normal stress on the interface, but vertical stylolites show a clear in-plane anisotropy of the crossover length owing to the fact that the in-plane stresses (σ2 and σ3) are dissimilar. Therefore stylolite roughness contains a signature of the stress field during formation.rnTo address the origin of stylolite roughness a combined microstructural (SEM/EBSD) and numerical approach is employed. Microstructural investigations of natural stylolites in limestones reveal that heterogeneities initially present in the host rock (clay particles, quartz grains) are responsible for the formation of the distinctive stylolite roughness. A two-dimensional numerical model, i.e. a discrete linear elastic lattice spring model, is used to investigate the roughness evolving from an initially flat fluid filled interface induced by heterogeneities in the matrix. This model generates rough interfaces with the same scaling properties as natural stylolites. Furthermore two coinciding crossover phenomena in space and in time exist that separate length and timescales for which the roughening is either balanced by surface or elastic energies. The roughness and growth exponents are independent of the size, amount and the dissolution rate of the heterogeneities. This allows to conclude that the location of asperities is determined by a polimict multi-scale quenched noise, while the roughening process is governed by inherent processes i.e. the transition from a surface to an elastic energy dominated regime.rn

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In der vorliegenden Arbeit wurden Derivate des Ionentransporters Valinomycin synthetisiert und als Sensorelemente in Modellmembransysteme inkorporiert. Als Modellmembranen wurden festkörpergestützte Lipiddoppelschichten (tBLMs, tethered bilayer lipid membranes) verwendet. rnValinomycin transportiert selektiv Kalium-Ionen durch Membranen, was durch einen Rückgang des Widerstandes über elektrochemische Messmethoden nachgewiesen werden kann. Es ist ein zyklisches Dodecadepsipeptid, das aus zwei verschiedenen Aminosäuren (L- und D-Valin) und  Hydroxysäuren (L Milchsäure und D Hydroxyisovaleriansäure) besteht. In dieser Arbeit wurde ein L Valin durch ein L-Lysin ausgetauscht, um eine freie Aminogruppe zum Anbinden verschiedenster Liganden zu erhalten. rnDie Synthese erfolgte in Lösung über einen linearen Decadepsipeptid-Precursor, hierbei wurde hauptsächlich mit Benzyl- und Boc-Schutzgruppen gearbeitet. An den Precursor wurden dann unterschiedlich modifizierte Lysin-Didepside gebunden und das daraus erhaltene lineare Dodecadepsipeptid zyklisiert.rnInsgesamt wurden sechs verschiedene Derivate synthetisiert, deren Ionentransportfähigkeit mit Hilfe eines angebundenen Liganden blockiert wurde. Diese Blockade kann entweder mechanisch durch Festhalten des Ionencarriers an der Oberfläche der Membran oder chemisch durch Einbringen einer Ladung erfolgen, da geladene Moleküle eine Membran nicht überwinden können. rnAcetyl-Lysin-Valinomycin wurde als Testsystem hergestellt, um zu zeigen, dass die Synthese einen funktionsfähigen Ionencarrier ergeben hatte. Im nächsten Schritt wurde Lysin-Valinomycin mit freier Aminogruppe synthetisiert, um es als pH-Sensor zu nutzen und damit zu überprüfen, ob das chemische Einbringen einer Ladung möglich ist. Es konnte ein pH abhängiger Kalium-Transport nachgewiesen werden, die Blockade der Ionentransportfähigkeit über eine eingebrachte Ladung ist somit möglich. rnAuf dem gleichen Konzept beruht Ferrocen-Valinomycin. Wird der Ferrocen-Ligand oxidiert, liegt eine positive Ladung vor und der Ionencarrier kann die Membran nicht mehr überwinden. Eine Reduktion macht diesen Prozess reversibel. Ferrocen-Valinomycin konnte innerhalb einer tBLM chemisch oxidiert und reduziert werden, dieses System kann somit als chemischer Redox-Sensor eingesetzt werden.rnEine mechanische Blockade liegt dem Biotin- und dem Sulfonamid-Valinomycin zugrunde. Dabei soll die Zugabe von Streptavidin bzw. BCA II (bovine Carboanhydrase) den Ionentransport durch die Membran stoppen. Beide Valinomycin-Derivate zeigten aber keine Ionentransportfähigkeit, eine Inkorporation in tBLMs konnte jedoch über SPR gezeigt werden. rnDie Synthese eines fluoreszenz-markierten (FITC) Valinomycins ergab zwar auch keinen transportfähigen Ionencarrier, aber mit diesem Derivat konnte der Diffusionskoeffizient von Valinomycin in sBLMs mit Hilfe von Fluorescence Recovery after photobleaching (FRAP) bestimmt werden.rn

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Polymere Hohlstrukturen eignen sich um eine große Anzahl an Gastmolekülen zu verkapseln und bieten somit interessante Anwendungsmöglichkeiten, z.B. im Bereich kontrollierter Transportsysteme. Solche wohl definierten Strukturen lassen sich mittels des Sol-Gel-Prozesses durch Hydrolyse und Kondensation von Dialkoxydialkyl- und Trialkoxyalkylsilanen in wässriger Dispersion in Gegenwart von Tensiden synthetisieren. Die Methode ermöglicht den Aufbau verschiedener Kern-Schale-Systeme, inklusive Hohlkugelarchitekturen, mit Durchmessern von 10-100 nm. Abhängig von den eingestellten Parametern wird dabei eine bimodale Größenverteilung der Partikel beobachtet. Die bimodalen Proben wurden mittels der circularen asymmetrischen Fluss Feld-Fluss Fraktionierung (CAFFFE) fraktioniert. NMR-Untersuchungen deuten darauf hin, dass die Ursache der bimodalen Verteilung in der Synthese der Kerndispersion zu liegen scheint. MALDI-TOF-MS und GC-Messungen zeigen, dass der Kern der größeren Partikel ausschließlich aus zyklischen Kondensationsprodukten besteht, während im Kernmaterial der kleineren Partikel zusätzlich noch lineare Polydimethylsiloxan-Ketten vorhanden sind. Unter der Annahme, dass PDMS als Ultrahydrophob wirkt, lässt sich die Ostwaldreifung als Ursache der Bimodalität ausmachen. Eine Erhöhung des PDMS-Anteils, der zur Stabilisierung gegen den Reifungsprozess notwendig ist, führt zu einer monomodalen Verteilung der erhaltenen Partikel.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Innerhalb der vorliegenden Untersuchung geht es um die Verknüpfung von Medienbildung, homosexueller Sozialität und der Methodik der Biografieanalyse. Ausgangsbasis ist eine sozialkonstruktivistische Sichtweise auf Geschlecht und (Homo-) Sexualität, wobei eine sozio-historische Kontextualisierung von Homosexualität unter Berücksichtigung von Diskriminierung erfolgt. Im Fokus steht der Coming-out-Prozess, der zwischen Zeigen und Verstecken changiert und mittels des Mediums Internet einen Raum findet, indem neue Bestimmungen homosexueller Identitäten und Formen homosexueller Sozialität möglich werden. Kommunikative Aspekte des Internets werden ausführlich expliziert und durch die strukturelle Medienbildungstheorie nach Marotzki (2009) ergänzt, um mögliche verbundene Bildungsprozesse zu beschreiben. Innerhalb dieser Theorie werden vier kritische Reflexionshorizonte (Wissensbezug, Handlungsbezug, Grenzbezug, Biografiebezug) entfaltet und auf die Artikulations- und Präsentationsmöglichkeiten des Internets bezogen. Deutlich wird, dass das Internet Spielräume für Identitäten bietet, denen Potenziale für reale Identitätskonstruktionen inneliegen. Fassbar werden diese Potenziale durch das medienpädagogische Konstrukt der Medienbiografie, sowie Konzepte der erziehungswissenschaftlichen Biografieforschung (Konstrukt Bildung nach Marotzki, 1990a; Konstrukt Sexualbiografie nach Scheuermann, 1999; 1995). Empirisch orientiert sich die Studie an Methodologie und Methodik der Biografieforschung, Grounded Theory (Glaser/Strauss, 1967) und dem narrationsstrukturellen Verfahren nach Schütze (1984, 1983). Konkret wird auf folgende Forschungsfragen referiert: Wie gestalten sich Lern- und Bildungsprozesse für männliche Homosexuelle in digitalen Medienwelten? Welche Möglichkeiten und Gestaltungschancen gibt es für die Repräsentation des (sexuellen) Selbst im Medium Internet? Welche Auswirkungen haben diese virtuellen Prozesse auf die real gelebte Biografie und das Selbst- und Weltverhältnis der einzelnen Homosexuellen? Durch Rekonstruktion von vier Fallbeispielen werden Möglichkeiten des Internets für die Repräsentation und Identitätsgestaltung von männlichen Homosexuellen präsentiert, bei denen die Gestaltbarkeit von Konstruktionen sexueller Identität und die Problematik der Subjekt-Umwelt-Relation deutlich werden. Im weiteren erfolgt ein kontrastierender Vergleich der Einzelfälle (Dimensionen: Familie, Peer Group, sexualbiografische Entwicklung, Medienbildungsprozesse, biografische Fallstruktur), die einer anschließenden Konstruktion von vier idealtypischen Prozessvarianten der sexualbiografischen Identitätsentwicklung zugeführt werden. Vier verschiedene Möglichkeiten des Internets als Präsentationstraum der eigenen Sexualität und Konstruktionen homosexueller Identität lassen sich somit skizzieren (Virtualitätslagerung, Zweckorientierung, reflexive Balancierung, periodische Selbstaktualisierung). Tentative Bildungs- und Identitätsprozesse sind also in der Virtualität des Internets möglich und können rekursiv-zirkulär auf reale Identitätsentwicklungen und reale Zugänge zu spezifischen sozialen Gruppen einwirken.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Kombination magnetischer Nanopartikel (NP) mit temperatursensitiven Polymeren führt zur Bildung neuer Komposit-Materialien mit interessanten Eigenschaften, die auf vielfältige Weise genutzt werden können. Mögliche Anwendungsgebiete liegen in der magnetischen Trennung, der selektiven Freisetzung von Medikamenten, dem Aufbau von Sensoren und Aktuatoren. Als Polymerkomponente können z.B. Hydrogele dienen. Die Geschwindigkeit der Quellgradänderung mittels externer Stimuli kann durch eine Reduzierung des Hydrogelvolumens erhöht werden, da das Quellen ein diffusionskontrollierter Prozess ist. rnIm Rahmen dieser Arbeit wurde ein durch ultraviolettes Licht vernetzbares Hydrogel aus N-isopropylacrylamid, Methacrylsäure und dem Vernetzer 4-Benzoylphenylmethacrylat hergestellt (PNIPAAm-Hydrogel) und mit magnetischen Nanopartikeln aus Magnetit (Fe3O4) kombiniert. Dabei wurde die Temperatur- und die pH-Abhängigkeit des Quellgrades im Hinblick auf die Verwendung als nanomechanische Cantilever Sensoren (NCS) untersucht. Desweiteren erfolgte eine Charakterisierung durch Oberflächenplasmonen- und optischer Wellenleitermoden-Resonanz Spektroskopie (SPR/OWS). Die daraus erhaltenen Werte für den pKa-Wert und die lower critical solution Temperatur (LCST) stimmten mit den bekannten Literaturwerten überein. Es konnte gezeigt werden, dass eine stärkere Vernetzung zu einer geringeren LCST führt. Die Ergebnisse mittels NCS wiesen zudem auf einen skin-effect während des Heizens von höher vernetzten Polymeren hin.rnDie Magnetit Nanopartikel wurden ausgehend von Eisen(II)acetylacetonat über eine Hochtemperaturreaktion synthetisiert. Durch Variation der Reaktionstemperatur konnte die Größe der hergestellten Nanopartikel zwischen 3.5 und 20 nm mit einer Größenverteilung von 0.5-2.5 nm eingestellt werden. Durch geeignete Oberflächenfunktionalisierung konnten diese in Wasser stabilisiert werden. Dazu wurde nach zwei Strategien verfahren: Zum einen wurden die Nanopartikel mittels einer Silika-Schale funktionalisiert und zum anderen Zitronensäure als Tensid eingesetzt. Wasserstabilität ist vor allem für biologische Anwendungen wünschenswert. Die magnetischen Partikel wurden mit Hilfe von Transmissionselektronenmikroskopie (TEM), und superconductive quantum interference device (SQUID) charakterisiert. Dabei wurde eine Größenabhängigkeit der magnetischen Eigenschaften sowie superparamagnetisches Verhalten beobachtet. Außerdem wurde die Wärmeerzeugung der magnetischen Nanopartikel in einem AC Magnetfeld untersucht. rnDie Kombination beider Komponenten in Form eines Ferrogels wurde durch Mischen Benzophenon funktionalisierter magnetischer Nanopartikel mit Polymer erreicht. Durch Aufschleudern (Spin-Coaten) wurden dünne Filme erzeugt und diese im Hinblick auf ihr Verhalten in einem Magnetfeld untersucht. Dabei wurde eine geringes Plastikverhalten beobachtet. Die experimentellen Ergebnisse wurden anschließend mit theoretisch berechneten Erwartungswerten verglichen und mit den unterschiedlichen Werten für dreidimensionale Ferrogele in Zusammenhang gestellt. rn

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A thorough investigation was made of the structure-property relation of well-defined statistical, gradient and block copolymers of various compositions. Among the copolymers studied were those which were synthesized using isobornyl acrylate (IBA) and n-butyl acrylate (nBA) monomer units. The copolymers exhibited several unique properties that make them suitable materials for a range of applications. The thermomechanical properties of these new materials were compared to acrylate homopolymers. By the proper choice of the IBA/nBA monomer ratio, it was possible to tune the glass transition temperature of the statistical P(IBA-co-nBA) copolymers. The measured Tg’s of the copolymers with different IBA/nBA monomer ratios followed a trend that fitted well with the Fox equation prediction. While statistical copolymers showed a single glass transition (Tg between -50 and 90 ºC depending on composition), DSC block copolymers showed two Tg’s and the gradient copolymer showed a single, but very broad, glass transition. PMBL-PBA-PMBL triblock copolymers of different composition ratios were also studied and revealed a microphase separated morphology of mostly cylindrical PMBL domains hexagonally arranged in the PBA matrix. DMA studies confirmed the phase separated morphology of the copolymers. Tensile studies showed the linear PMBL-PBA-PMBL triblock copolymers having a relatively low elongation at break that was increased by replacing the PMBL hard blocks with the less brittle random PMBL-r-PMMA blocks. The 10- and 20-arm PBA-PMBL copolymers which were studied revealed even more unique properties. SAXS results showed a mixture of cylindrical PMBL domains hexagonally arranged in the PBA matrix, as well as lamellar. Despite PMBL’s brittleness, the triblock and multi-arm PBA-PMBL copolymers could become suitable materials for high temperature applications due to PMBL’s high glass transition temperature and high thermal stability. The structure-property relation of multi-arm star PBA-PMMA block copolymers was also investigated. Small-angle X-ray scattering revealed a phase separated morphology of cylindrical PMMA domains hexagonally arranged in the PBA matrix. DMA studies found that these materials possess typical elastomeric behavior in a broad range of service temperatures up to at least 250°C. The ultimate tensile strength and the elastic modulus of the 10- and 20-arm star PBA-PMMA block copolymers are significantly higher than those of their 3-arm or linear ABA type counterparts with similar composition, indicating a strong effect of the number of arms on the tensile properties. Siloxane-based copolymers were also studied and one of the main objectives here was to examine the possibility to synthesize trifluoropropyl-containing siloxane copolymers of gradient distribution of trifluoropropyl groups along the chain. DMA results of the PDMS-PMTFPS siloxane copolymers synthesized via simultaneous copolymerization showed that due to the large difference in reactivity rates of 2,4,6-tris(3,3,3-trifluoropropyl)-2,4,6-trimethylcyclotrisiloxane (F) and hexamethylcyclotrisiloxane (D), a copolymer of almost block structure containing only a narrow intermediate fragment with gradient distribution of the component units was obtained. A more dispersed distribution of the trifluoropropyl groups was obtained by the semi-batch copolymerization process, as the DMA results revealed more ‘‘pure gradient type’’ features for the siloxane copolymers which were synthesized by adding F at a controlled rate to the polymerization of the less reactive D. As with trifluoropropyl-containing siloxane copolymers, vinyl-containing polysiloxanes may be converted to a variety of useful polysiloxane materials by chemical modification. But much like the trifluoropropyl-containing siloxane copolymers, as a result of so much difference in the reactivities between the component units 2,4,6-trivinyl-2,4,6-trimethylcyclotrisiloxane (V) and hexamethylcyclotrisiloxane (D), thermal and mechanical properties of the PDMS-PMVS copolymers obtained by simultaneous copolymerization was similar to those of block copolymers. Only the copolymers obtained by semi-batch method showed properties typical for gradient copolymers.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The ability of block copolymers to spontaneously self-assemble into a variety of ordered nano-structures not only makes them a scientifically interesting system for the investigation of order-disorder phase transitions, but also offers a wide range of nano-technological applications. The architecture of a diblock is the most simple among the block copolymer systems, hence it is often used as a model system in both experiment and theory. We introduce a new soft-tetramer model for efficient computer simulations of diblock copolymer melts. The instantaneous non-spherical shape of polymer chains in molten state is incorporated by modeling each of the two blocks as two soft spheres. The interactions between the spheres are modeled in a way that the diblock melt tends to microphase separate with decreasing temperature. Using Monte Carlo simulations, we determine the equilibrium structures at variable values of the two relevant control parameters, the diblock composition and the incompatibility of unlike components. The simplicity of the model allows us to scan the control parameter space in a completeness that has not been reached in previous molecular simulations.The resulting phase diagram shows clear similarities with the phase diagram found in experiments. Moreover, we show that structural details of block copolymer chains can be reproduced by our simple model.We develop a novel method for the identification of the observed diblock copolymer mesophases that formalizes the usual approach of direct visual observation,using the characteristic geometry of the structures. A cluster analysis algorithm is used to determine clusters of each component of the diblock, and the number and shape of the clusters can be used to determine the mesophase.We also employ methods from integral geometry for the identification of mesophases and compare their usefulness to the cluster analysis approach.To probe the properties of our model in confinement, we perform molecular dynamics simulations of atomistic polyethylene melts confined between graphite surfaces. The results from these simulations are used as an input for an iterative coarse-graining procedure that yields a surface interaction potential for the soft-tetramer model. Using the interaction potential derived in that way, we perform an initial study on the behavior of the soft-tetramer model in confinement. Comparing with experimental studies, we find that our model can reflect basic features of confined diblock copolymer melts.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The membrane protein Cytochrome c Oxidase (CcO) is one of the most important functional bio-molecules. It appears in almost every eukaryotic cell and many bacteria. Although the different species differ in the number of subunits, the functional differences are merely marginal. CcO is the terminal link in the electron transfer pathway of the mitochondrial respiratory chain. Electrons transferred to the catalytic center of the enzyme conduce to the reduction of molecular oxygen to water. Oxygen reduction is coupled to the pumping of protons into the inter-membrane space and hence generates a difference in electrochemical potential of protons across the inner mitochondrial membrane. This potential difference drives the synthesis of adenosine triphosphate (ATP), which is the universal energy carrier within all biological cells. rnrnThe goal of the present work is to contribute to a better understanding of the functional mechanism of CcO by using time-resolved surface enhanced resonance Raman spectroscopy (TR-SERRS). Despite intensive research effort within the last decades, the functional mechanism of CcO is still subject to controversial discussions. It was the primary goal of this dissertation to initiate electron transfer to the redox centers CuA, heme a, heme a3 and CuB electrochemically and to observe the corresponding redox transitions in-situ with a focus on the two heme structures by using SERRS. A measuring cell was developed, which allowed combination of electrochemical excitation with Raman spectroscopy for the purpose of performing the accordant measurements. Cytochrome c was used as a benchmark system to test the new measuring cell and to prove the feasibility of appropriate Raman measurements. In contrast to CcO the heme protein cc contains only a single heme structure. Nevertheless, characteristic Raman bands of the hemes can be observed for both proteins.rnrnIn order to investigate CcO it was immobilized on top of a silver substrate and embedded into an artificial membrane. The catalytic activity of CcO and therefore the complete functional capability of the enzyme within the biomimetic membrane architecture was verified using cyclic voltammetry. Raman spectroscopy was performed using a special nano-structured silver surface, which was developed within the scope of the present work. This new substrate combined two fundamental properties. It facilitated the formation of a protein tethered bilayer lipid membrane (ptBLM) and it allowed obtaining Raman spectra with sufficient high signal-to-noise ratios.rnSpectro-electrochemical investigations showed that at open circuit potential the enzyme exists in a mixed-valence state, with heme a and and heme a3 in the reduced and oxidized state, respectively. This was considered as an intermediate state between the non-activated and the fully activated state of CcO. Time-resolved SERRS measurements revealed that a hampered electron transfer to the redox center heme a3 characterizes this intermediate state.rn