410 resultados para Prozess


Relevância:

10.00% 10.00%

Publicador:

Resumo:

The lattice Boltzmann method is a popular approach for simulating hydrodynamic interactions in soft matter and complex fluids. The solvent is represented on a discrete lattice whose nodes are populated by particle distributions that propagate on the discrete links between the nodes and undergo local collisions. On large length and time scales, the microdynamics leads to a hydrodynamic flow field that satisfies the Navier-Stokes equation. In this thesis, several extensions to the lattice Boltzmann method are developed. In complex fluids, for example suspensions, Brownian motion of the solutes is of paramount importance. However, it can not be simulated with the original lattice Boltzmann method because the dynamics is completely deterministic. It is possible, though, to introduce thermal fluctuations in order to reproduce the equations of fluctuating hydrodynamics. In this work, a generalized lattice gas model is used to systematically derive the fluctuating lattice Boltzmann equation from statistical mechanics principles. The stochastic part of the dynamics is interpreted as a Monte Carlo process, which is then required to satisfy the condition of detailed balance. This leads to an expression for the thermal fluctuations which implies that it is essential to thermalize all degrees of freedom of the system, including the kinetic modes. The new formalism guarantees that the fluctuating lattice Boltzmann equation is simultaneously consistent with both fluctuating hydrodynamics and statistical mechanics. This establishes a foundation for future extensions, such as the treatment of multi-phase and thermal flows. An important range of applications for the lattice Boltzmann method is formed by microfluidics. Fostered by the "lab-on-a-chip" paradigm, there is an increasing need for computer simulations which are able to complement the achievements of theory and experiment. Microfluidic systems are characterized by a large surface-to-volume ratio and, therefore, boundary conditions are of special relevance. On the microscale, the standard no-slip boundary condition used in hydrodynamics has to be replaced by a slip boundary condition. In this work, a boundary condition for lattice Boltzmann is constructed that allows the slip length to be tuned by a single model parameter. Furthermore, a conceptually new approach for constructing boundary conditions is explored, where the reduced symmetry at the boundary is explicitly incorporated into the lattice model. The lattice Boltzmann method is systematically extended to the reduced symmetry model. In the case of a Poiseuille flow in a plane channel, it is shown that a special choice of the collision operator is required to reproduce the correct flow profile. This systematic approach sheds light on the consequences of the reduced symmetry at the boundary and leads to a deeper understanding of boundary conditions in the lattice Boltzmann method. This can help to develop improved boundary conditions that lead to more accurate simulation results.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The PhD thesis at hand consists of three parts and describes the petrogenetic evolution of Uralian-Alaskan-type mafic ultramafic complexes in the Ural Mountains, Russia. Uralian-Alaskan-type mafic-ultramafic complexes are recognized as a distinct class of intrusions. Characteristic petrologic features are the concentric zonation of a central dunite body grading outward into wehrlite, clinopyroxenite and gabbro, the absence of orthopyroxene and frequently occurring platinum group element (PGE) mineralization. In addition, the presence of ferric iron-rich spinel discriminates Uralian-Alaskan-type complexes from most other mafic ultramafic rock assemblages. The studied Uralian-Alaskan-type complexes (Nizhnii Tagil, Kytlym and Svetley Bor) belong to the southern part of a 900 km long, N–S-trending chain of similar intrusions between the Main Uralian Fault to the west and the Serov-Mauk Fault to the east. The first chapter of this thesis studies the evolution of the ultramafic rocks tracing the compositional variations of rock forming and accessory minerals. The comparison of the chemical composition of olivine, clinopyroxene and chromian spinel from the Urals with data from other localities indicates that they are unique intrusions having a characteristic spinel and clinopyroxene chemistry. Laser ablation-ICPMS (LA-ICPMS ) analyses of trace element concentrations in clinopyroxene are used to calculate the composition of their parental melt which is characterized by enriched LREE (0.5-5.2 prim. mantle) and other highly incompatible elements (U, Th, Ba, Rb) relative to the HREE (0.25-2.0 prim. mantle). A subduction-related geotectonic setting is indicated by a positive anomaly for Sr and negative anomalies for Ti, Zr and Hf. The mineral compositions monitor the evolution of the parental magmas and decipher differences between the studied complexes. In addition, the observed variation in LREE/HREE (for example La/Lu = 2-24) can be best explained with the model of an episodically replenished and erupted open magma chamber system with the extensive fractionation of olivine, spinel and clinopyroxene. The data also show that ankaramites in a subduction-related geotectonic setting could represent parental magmas of Uralian-Alaskan-type complexes. The second chapter of the thesis discusses the chemical variation of major and trace elements in rock-forming minerals of the mafic rocks. Electron microprobe and LA-ICPMS analyses are used to quantitatively describe the petrogenetic relationship between the different gabbroic lithologies and their genetic link to the ultramafic rocks. The composition of clinopyroxene identifies the presence of melts with different trace element abundances on the scale of a thin section and suggests the presence of open system crustal magma chambers. Even on a regional scale the large variation of trace element concentrations and ratios in clinopyroxene (e.g. La/Lu = 3-55) is best explained by the interaction of at least two fundamentally different magma types at various stages of fractionation. This requires the existence of a complex magma chamber system fed with multiple pulses of magmas from at least two different coeval sources in a subduction-related environment. One source produces silica saturated Island arc tholeiitic melts. The second source produces silica undersaturated, ultra-calcic, alkaline melts. Taken these data collectively, the mixing of the two different parental magmas is the dominant petrogenetic process explaining the observed chemical variations. The results further imply that this is an intrinsic feature of Uralian-Alaskan-type complexes and probably of many similar mafic-ultramafic complexes world-wide. In the third chapter of this thesis the major element composition of homogeneous and exsolved spinel is used as a petrogenetic indicator. Homogeneous chromian spinel in dunites and wehrlites monitors the fractionation during the early stages of the magma chamber and the onset of clinopyroxene fractionation as well as the reaction of spinel with interstitial liquid. Exsolved spinel is present in mafic and ultramafic rocks from all three studied complexes. Its composition lies along a solvus curve which defines an equilibrium temperature of 600°C, given that spinel coexists with olivine. This temperature is considered to be close to the temperature of the host rocks into which the studied Uralian-Alaskan-type complexes intruded. The similarity of the exsolution temperatures in the different complexes over a distance of several hundred kilometres implies a regional tectonic event that terminated the exsolution process. This event is potentially associated with the final exhumation of the Uralian-Alaskan-type complexes along the Main Uralian Fault and the Serov-Mauk Fault in the Uralian fold belt.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

DNA block copolymer, a new class of hybrid material composed of a synthetic polymer and an oligodeoxynucleotide segment, owns unique properties which can not be achieved by only one of the two polymers. Among amphiphilic DNA block copolymers, DNA-b-polypropylene oxide (PPO) was chosen as a model system, because PPO is biocompatible and has a Tg < 0 °C. Both properties might be essential for future applications in living systems. During my PhD study, I focused on the properties and the structures of DNA-b-PPO molecules. First, DNA-b-PPO micelles were studied by scanning force microscopy (SFM) and fluorescence correlation spectroscopy (FCS). In order to control the size of micelles without re-synthesis, micelles were incubated with template-independent DNA polymerase TdT and deoxynucleotide triphosphates in reaction buffer solution. By carrying out ex-situ experiments, the growth of micelles was visualized by imaging in liquid with AFM. Complementary measurements with FCS and polyacrylamide gel electrophoresis (PAGE) confirmed the increase in size. Furthermore, the growing process was studied with AFM in-situ at 37 °C. Hereby the growth of individual micelles could be observed. In contrast to ex-situ reactions, the growth of micelles adsorbed on mica surface for in-situ experiments terminated about one hour after the reaction was initiated. Two reasons were identified for the termination: (i) block of catalytic sites by interaction with the substrate and (ii) reduced exchange of molecules between micelles and the liquid environment. In addition, a geometrical model for AFM imaging was developed which allowed deriving the average number of mononucleotides added to DNA-b-PPO molecules in dependence on the enzymatic reaction time (chapter 3). Second, a prototype of a macroscopic DNA machine made of DNA-b-PPO was investigated. As DNA-b-PPO molecules were amphiphilic, they could form a monolayer at the air-water interface. Using a Langmuir film balance, the energy released owing to DNA hybridization was converted into macroscopic movements of the barriers in the Langmuir trough. A specially adapted Langmuir trough was build to exchange the subphase without changing the water level significantly. Upon exchanging the subphase with complementary DNA containing buffer solution, an increase of lateral pressure was observed which could be attributed to hybridization of single stranded DNA-b-PPO. The pressure versus area/molecule isotherms were recorded before and after hybridization. I also carried out a series of control experiments, in order to identify the best conditions of realizing a DNA machine with DNA-b-PPO. To relate the lateral pressure with molecular structures, Langmuir Blodgett (LB) films were transferred to highly ordered pyrolytic graphite (HOPG) and mica substrates at different pressures. These films were then investigated with AFM (chapter 4). At last, this thesis includes studies of DNA and DNA block copolymer assemblies with AFM, which were performed in cooperation with different group of the Sonderforschungsbereich 625 “From Single Molecules to Nanoscopically Structured Materials”. AFM was proven to be an important method to confirm the formation of multiblock copolymers and DNA networks (chapter 5).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Escherichia coli α-Hämolysin (HlyA) ist ein Prototyp der RTX-Toxine, die zu den α-porenbildenden Toxinen gehören. HlyA bildet Poren in einer Vielzahl eukaryontischer Zielzellen. Das 107 kDa große Protein besteht aus 1024 Aminosäuren, die gemeinsam mit den Proteinen für posttranslationale Modifikation und Sekretion in einem Operon codiert werden. Die N-terminale Hälfte von HlyA besteht aus mehreren amphipathischen α –Helices, die mit der Porenbildung assoziiert werden, gefolgt von der Calcium-bindenden RTX-Domäne in der C-terminalen Hälfte des Moleküls. Über den porenbildenen Mechanismus ist wenig bekannt. Die vorliegende Arbeit fokussierte sich auf die Frage, ob dieser Prozess eine Oligomerisierung mehrerer HlyA-Moleküle beinhaltet, oder ob die membranschädigende Struktur von einem Monomer gebildet wird. Drei unabhängige biochemische Methoden wurden in dem Versuch eingesetzt, HlyA-Oligomere in permeabilisierten Membranen zu detektieren. In allen drei Ansätzen wurden negative Ergebnisse erreicht, was das Konzept bestätigt, dass die Pore von HlyA von einem Monomer gebildet wird. PCR-basierte Cysteinsubstitutionen wurden durchgeführt, um den N-terminus von HlyA zu charakterisieren. Einzelne Cysteinreste wurden an 21 Positionen innerhalb der Aminosäuresequenz 13-55 eingeführt, und mit dem umgebungssensitiven Fluorophor Badan markiert. Spektrofluorimetrische Messungen zeigten, dass alle untersuchten Aminosäuren innerhalb dieser Domäne unabhängig von der porenbildenden Aktivität in die Membran inserieren. Deletionen der Aminosäuren 1-50 hatten keinen Einfluß auf die lytische Aktivität, während die Deletion der Aminosäuren 1-100 in einer fast vollständig inaktiven Toxinmutante resultierte. Die Einführung von Prolinen durch PCR-basierte Mutagenese wurde durchgeführt, um die Beteiligung vorhergesagter α-Helices innerhalb der N-terminalen Hälfte von HlyA an der hämolytischen Aktivität zu untersuchen. Die Ergebnisse deuten darauf hin, dass die Struktur von mindestens vier vorhergesagten Helices bedeutend für die hämolytische Aktivität ist.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Der vorliegende Artikel befasst sich mit den Eindrücken einer vom Institut für Ethnologie und Afrikastudien in Mainz durchgeführten Lehrforschung, die staatliche Institutionen in Nordghana untersuchte. Obwohl unsere Arbeiten verschiedene Institutionen und verschiedene Forschungsfragen thematisierten, ließ sich in Gesprächen ein gemeinsames Motiv erkennen: die Konstruktion einer binären Dichotomie zwischen enlightened und unenlightened durch sprachliche und nicht-sprachliche Routinen der Bürokraten im Umgang mit ihren Klienten. Wir interessieren uns im vorliegenden Artikel nicht für Modernität und Entwicklung als universellen oder lokal angeeigneten Prozess, sondern untersuchen die Praktiken mit denen Akteure mittels der Konzepte Modernität, Entwicklung, Aufklärung und Erziehung Differenzen zwischen sich und ihren Klienten konstruieren und funktionale Kategorien zu schaffen, sowie die Bruchstellen dieses Konstruktionsprozesses. Anhand von Fallbeispielen aus Gerichten, Polizei, Kulturinstitutionen und Schulen erläutern wir die Praxis der Differenzierung, die als eine Form der Alltagsbewältigung für die Bürokraten erscheint.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die vorliegende Magisterarbeit beschäftigt sich mit der Produktivitaet bürokratischer Routinen am Centre for National Culture in Wa, Nordwestghana. Staat, Nation und nationale Kultur sind keine fest umgrenzten Entitäten, sondern entstehen in einem andauernden Prozess der Aushandlung und Bedeutungszuschreibung und in der permanenten Reproduzierung ihrer Grenzen und Kategorien. Bürokratische Routinen und administrativen Prozesse werden als jene Praktiken betrachtet, die Kultur nationalisieren. Die Arbeit geht der Frage nach, wie sich die stete Reproduktion der räumlichen Verortung des Staats durch bürokratische Routinen auf die Grenzen von Kultur und die Kategorien, in denen Kultur gedacht wird, auswirkt. Das wichtigste Schlagwort ghanaischer Kulturpolitik ist „unity in diversity“. Einer Vielzahl „lokaler Kulturen“ soll ihr rechtmäßiger Platz im nationalen Potpourri eingeräumt werden, aber die gewünschte Vielfalt darf keine politische Sprengkraft entwickeln. Die zentrale Aufgabe staatlicher Kulturinstitutionen in Ghana ist daher, die „rohe Kultur“ (die im Dorf verortet wird), zu choreographieren. Die Verwaltungspraxis der Kulturbeamten unterstellt die Einheit lokaler Kulturgrenzen (wo auch immer man die ziehen würde) mit den politisch-administrativen Grenzen, nach denen die Kulturinstitutionen organisiert sind, und trägt auf diese Weise zur Naturalisierung staatlicher Kulturgrenzen bei.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In der vorliegenden Arbeit wird zum einen ein Instrument zur Erfassung der Patient-Therapeut-Bindung validiert (Client Attachment to Therapist Scale, CATS; Mallinckrodt, Coble & Gantt, 1995), zum anderen werden Hypothesen zu den Zusammenhängen zwischen Selbstwirksamkeitserwartung, allgemeinem Bindungsstil, therapeutischer Beziehung (bzw. Therapiezufriedenheit), Patient-Therapeut-Bindung und Therapieerfolg bei Drogen-abhängigen in stationärer Postakutbehandlung überprüft. In die Instrumentenvalidierung (einwöchiger Retest) wurden 119 Patienten aus 2 Kliniken und 13 Experten einbezogen. Die Gütekriterien des Instrumentes fallen sehr zufriedenstellend aus. An der naturalistischen Therapieevaluationsstudie (Prä-, Prozess-, Post-Messung: T0, T1, T2) nahmen 365 Patienten und 27 Therapeuten aus 4 Kliniken teil. Insgesamt beendeten 44,1% der Patienten ihren stationären Aufenthalt planmäßig. Auf Patientenseite erweisen sich Alter und Hauptdiagnose, auf Therapeutenseite die praktizierte Therapierichtung als Therapieerfolgsprädiktoren. Selbstwirksamkeitserwartung, allgemeiner Bindungsstil, Patient-Therapeut-Bindung und Therapiezufriedenheit eignen sich nicht zur Prognose des Therapieerfolgs. Die zu T0 stark unterdurchschnittlich ausgeprägte Selbstwirksamkeits-erwartung steigert sich über den Interventionszeitraum, wobei sich ein Moderatoreffekt der Patient-Therapeut-Bindung beobachten lässt. Es liegt eine hohe Prävalenz unsicherer allgemeiner Bindungsstile vor, welche sich über den Therapiezeitraum nicht verändern. Die patientenseitige Zufriedenheit mit der Therapie steigt von T1 zu T2 an. Die Interrater-Konkordanz (Patient/Therapeut) zur Einschätzung der Patient-Therapeut-Bindung erhöht sich leicht von T1 zu T2. Im Gegensatz dazu wird die Therapiezufriedenheit von Patienten und Therapeuten zu beiden Messzeitpunkten sehr unterschiedlich beurteilt. Die guten Testgütekriterien der CATS sprechen für eine Überlegenheit dieses Instrumentes gegenüber der Skala zur Erfassung der Therapiezufriedenheit. Deshalb sollte die Patient-Therapeut-Bindung anhand dieses Instrumentes in weiteren Forschungsarbeiten an anderen Patientenkollektiven untersucht werden, um generalisierbare Aussagen zur Validität treffen zu können.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die vorliegende Arbeit ist motiviert durch biologische Fragestellungen bezüglich des Verhaltens von Membranpotentialen in Neuronen. Ein vielfach betrachtetes Modell für spikende Neuronen ist das Folgende. Zwischen den Spikes verhält sich das Membranpotential wie ein Diffusionsprozess X der durch die SDGL dX_t= beta(X_t) dt+ sigma(X_t) dB_t gegeben ist, wobei (B_t) eine Standard-Brown'sche Bewegung bezeichnet. Spikes erklärt man wie folgt. Sobald das Potential X eine gewisse Exzitationsschwelle S überschreitet entsteht ein Spike. Danach wird das Potential wieder auf einen bestimmten Wert x_0 zurückgesetzt. In Anwendungen ist es manchmal möglich, einen Diffusionsprozess X zwischen den Spikes zu beobachten und die Koeffizienten der SDGL beta() und sigma() zu schätzen. Dennoch ist es nötig, die Schwellen x_0 und S zu bestimmen um das Modell festzulegen. Eine Möglichkeit, dieses Problem anzugehen, ist x_0 und S als Parameter eines statistischen Modells aufzufassen und diese zu schätzen. In der vorliegenden Arbeit werden vier verschiedene Fälle diskutiert, in denen wir jeweils annehmen, dass das Membranpotential X zwischen den Spikes eine Brown'sche Bewegung mit Drift, eine geometrische Brown'sche Bewegung, ein Ornstein-Uhlenbeck Prozess oder ein Cox-Ingersoll-Ross Prozess ist. Darüber hinaus beobachten wir die Zeiten zwischen aufeinander folgenden Spikes, die wir als iid Treffzeiten der Schwelle S von X gestartet in x_0 auffassen. Die ersten beiden Fälle ähneln sich sehr und man kann jeweils den Maximum-Likelihood-Schätzer explizit angeben. Darüber hinaus wird, unter Verwendung der LAN-Theorie, die Optimalität dieser Schätzer gezeigt. In den Fällen OU- und CIR-Prozess wählen wir eine Minimum-Distanz-Methode, die auf dem Vergleich von empirischer und wahrer Laplace-Transformation bezüglich einer Hilbertraumnorm beruht. Wir werden beweisen, dass alle Schätzer stark konsistent und asymptotisch normalverteilt sind. Im letzten Kapitel werden wir die Effizienz der Minimum-Distanz-Schätzer anhand simulierter Daten überprüfen. Ferner, werden Anwendungen auf reale Datensätze und deren Resultate ausführlich diskutiert.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Therapeutisches Drug Monitoring (TDM) umfasst die Messung von Medikamentenspiegeln im Blut und stellt die Ergebnisse in Zusammenhang mit dem klinischen Erscheinungsbild der Patienten. Dabei wird angenommen, dass die Konzentrationen im Blut besser mit der Wirkung korrelieren als die Dosis. Dies gilt auch für Antidepressiva. Voraussetzung für eine Therapiesteuerung durch TDM ist die Verfügbarkeit valider Messmethoden im Labor und die korrekte Anwendung des Verfahrens in der Klinik. Ziel dieser Arbeit war es, den Einsatz von TDM für die Depressionsbehandlung zu analysieren und zu verbessern. Im ersten Schritt wurde für das neu zugelassene Antidepressivum Duloxetin eine hochleistungsflüssig-chromatographische (HPLC) Methode mit Säulenschaltung und spektrophotometrischer Detektion etabliert und an Patienten für TDM angewandt. Durch Analyse von 280 Patientenproben wurde herausgefunden, dass Duloxetin-Konzentrationen von 60 bis 120 ng/ml mit gutem klinischen Ansprechen und einem geringen Risiko für Nebenwirkungen einhergingen. Bezüglich seines Interaktionspotentials erwies sich Duloxetin im Vergleich zu anderen Antidepressiva als schwacher Inhibitor des Cytochrom P450 (CYP) Isoenzyms 2D6. Es gab keinen Hinweis auf eine klinische Relevanz. Im zweiten Schritt sollte eine Methode entwickelt werden, mit der möglichst viele unterschiedliche Antidepressiva einschließlich deren Metaboliten messbar sind. Dazu wurde eine flüssigchromatographische Methode (HPLC) mit Ultraviolettspektroskopie (UV) entwickelt, mit der die quantitative Analyse von zehn antidepressiven und zusätzlich zwei antipsychotischen Substanzen innerhalb von 25 Minuten mit ausreichender Präzision und Richtigkeit (beide über 85%) und Sensitivität erlaubte. Durch Säulenschaltung war eine automatisierte Analyse von Blutplasma oder –serum möglich. Störende Matrixbestandteile konnten auf einer Vorsäule ohne vorherige Probenaufbereitung abgetrennt werden. Das kosten- und zeiteffektive Verfahren war eine deutliche Verbesserung für die Bewältigung von Proben im Laboralltag und damit für das TDM von Antidepressiva. Durch Analyse des klinischen Einsatzes von TDM wurden eine Reihe von Anwendungsfehlern identifiziert. Es wurde deshalb versucht, die klinische Anwendung des TDM von Antidepressiva durch die Umstellung von einer weitgehend händischen Dokumentation auf eine elektronische Bearbeitungsweise zu verbessern. Im Rahmen der Arbeit wurde untersucht, welchen Effekt man mit dieser Intervention erzielen konnte. Dazu wurde eine Labor-EDV eingeführt, mit der der Prozess vom Probeneingang bis zur Mitteilung der Messergebnisse auf die Stationen elektronisch erfolgte und die Anwendung von TDM vor und nach der Umstellung untersucht. Die Umstellung fand bei den behandelnden Ärzten gute Akzeptanz. Die Labor-EDV erlaubte eine kumulative Befundabfrage und eine Darstellung des Behandlungsverlaufs jedes einzelnen Patienten inklusive vorhergehender Klinikaufenthalte. Auf die Qualität der Anwendung von TDM hatte die Implementierung des Systems jedoch nur einen geringen Einfluss. Viele Anforderungen waren vor und nach der Einführung der EDV unverändert fehlerhaft, z.B. wurden häufig Messungen vor Erreichen des Steady State angefordert. Die Geschwindigkeit der Bearbeitung der Proben war im Vergleich zur vorher händischen Ausführung unverändert, ebenso die Qualität der Analysen bezüglich Richtigkeit und Präzision. Ausgesprochene Empfehlungen hinsichtlich der Dosierungsstrategie der angeforderten Substanzen wurden häufig nicht beachtet. Verkürzt wurde allerdings die mittlere Latenz, mit der eine Dosisanpassung nach Mitteilung des Laborbefundes erfolgte. Insgesamt ist es mit dieser Arbeit gelungen, einen Beitrag zur Verbesserung des Therapeutischen Drug Monitoring von Antidepressiva zu liefern. In der klinischen Anwendung sind allerdings Interventionen notwendig, um Anwendungsfehler beim TDM von Antidepressiva zu minimieren.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

One of the main goals of the COMPASS experiment at CERN is the determination of the gluon polarisation in the nucleon. It is determined from spin asymmetries in the scattering of 160 GeV/c polarised muons on a polarised LiD target. The gluon polarisation is accessed by the selection of photon-gluon fusion (PGF) events. The PGF-process can be tagged through hadrons with high transverse momenta or through charmed hadrons in the final state. The advantage of the open charm channel is that, in leading order, the PGF-process is the only process for charm production, thus no physical background contributes to the selected data sample. This thesis presents a measurement of the gluon polarisation from the COMPASS data taken in the years 2002-2004. In the analysis, charm production is tagged through a reconstructed D0-meson decaying in $D^{0}-> K^{-}pi^{+}$ (and charge conjugates). The reconstruction is done on a combinatorial basis. The background of wrong track pairs is reduced using kinematic cuts to the reconstructed D0-candidate and the information on particle identification from the Ring Imaging Cerenkov counter. In addition, the event sample is separated into D0-candidates, where a soft pion from the decay of the D*-meson to a D0-meson, is found, and the D0-candidates without this tag. Due to the small mass difference between D*-meson and D0-meson the signal purity of the D*-tagged sample is about 7 times higher than in the untagged sample. The gluon polarisation is measured from the event asymmetries for the for the different spin configurations of the COMPASS target. To improve the statistical precision of the final results, the events in the final sample are weighted. This method results in an average value of the gluon polarisation in the x-range covered by the data. For the COMPASS data from 2002-2004, the resulting value of the gluon polarisation is $=-0.47+-0.44 (stat)+-0.15(syst.)$. The result is statistically compatible with the existing measurements of $$ in the high-pT channel. Compared to these, the open charm measurement has the advantage of a considerably smaller model dependence.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Der kanonische Wnt Signalweg ist durch Regulation einer Vielzahl von Zielgenen in unterschiedliche Prozesse wie Entwicklung, Wachstum und Differenzierung involviert. Fehlregulation des Signalwegs kann zur Tumorentstehung führen. Die exakte Rolle des Wnt Signalwegs und seiner Zielgene in der karzinogenen Kaskade ist noch nicht genau bekannt. In dieser Arbeit sollte die Beteiligung der Wnt Zielgene c-MYC, CCND1 (kodiert Cyclin D1) und VEGF an der Karzinogenese untersucht werden. Um die Funktionen der Wnt Zielgene und ihre zellulären Effekte unabhängig voneinander untersuchen zu können, wurden die Mengen der entsprechenden Transkriptionsprodukte durch siRNA (short interfering RNA) gezielt verringert. Die Konsequenzen der Inaktivierung wurden in Kolon- und Zervixkarzinomzelllinien untersucht, wobei die zellulären Parameter Proliferation, Apoptose, Metabolismus sowie Migration und Adhäsion untersucht wurden. Dabei konnte beobachtet werden, dass der Wnt Signalweg mit seinen Zielgenen Cyclin D1 und c-MYC die Proliferation mit dem Energiemetabolismus von Tumorzellen verknüpft. Darüber hinaus konnte gezeigt werden, dass Cyclin D1 an der Regulation der zelluläre Migration und Adhäsion beteiligt ist, während VEGF die Apoptose abhängig vom zellulären Kontext inhibiert. Diese Ergebnisse liefern erste Hinweise auf die funktionelle Rolle der verschiedenen Zielgene im Prozess der Karzinogenese in Tumoren mit aktiviertem Wnt Signalweg. Damit ist diese Arbeit ein möglicher Ausgangspunkt für Studien mit dem Ziel der gezielten therapeutischen Beeinflussung des Wnt Signalwegs auf Ebene der Zielgene.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In dieser Arbeit werden Strukturen beschrieben, die mit Polymeren auf Oberflächen erzeugt wurden. Die Anwendungen reichen von PMMA und PNIPAM Polymerbürsten, über die Restrukturierung von Polystyrol durch Lösemittel bis zu 3D-Strukturen, die aus PAH/ PSS Polyelektrolytmultischichten bestehen. Im ersten Teil werden Polymethylmethacrylat (PMMA) Bürsten in der ionischen Flüssigkeit 1-Butyl-3-Methylimidazolium Hexafluorophospat ([Bmim][PF6]) durch kontrollierte radikalische Polymerisation (ATRP) hergestellt. Kinetische Untersuchungen zeigten ein lineares und dichtes Bürstenwachstum mit einer Wachstumsrate von 4600 g/mol pro nm. Die durchschnittliche Pfropfdichte betrug 0.36 µmol/m2. Als Anwendung wurden Mikrotropfen bestehend aus der ionischen Flüssigkeit, Dimethylformamid und dem ATRP-Katalysator benutzt, um in einer definierten Geometrie Polymerbürsten auf Silizium aufzubringen. Auf diese Weise lässt sich eine bis zu 13 nm dicke Beschichtung erzeugen. Dieses Konzept ist durch die Verdampfung des Monomers Methylmethacrylat (MMA) limitiert. Aus einem 1 µl großen Tropfen aus ionischer Flüssigkeit und MMA (1:1) verdampft MMA innerhalb von 100 s. Daher wurde das Monomer sequentiell zugegeben. Der zweite Teil konzentriert sich auf die Strukturierung von Oberflächen mit Hilfe einer neuen Methode: Tintendruck. Ein piezoelektrisch betriebenes „Drop-on-Demand“ Drucksystem wurde verwendet, um Polystyrol mit 0,4 nl Tropfen aus Toluol zu strukturieren. Die auf diese Art und Weise gebildeten Mikrokrater können Anwendung als Mikrolinsen finden. Die Brennweite der Mikrolinsen kann über die Anzahl an Tropfen, die für die Strukturierung verwendet werden, eingestellt werden. Theoretisch und experimentell wurde die Brennweite im Bereich von 4,5 mm bis 0,21 mm ermittelt. Der zweite Strukturierungsprozess nutzt die Polyelektrolyte Polyvinylamin-Hydrochlorid (PAH) und Polystyrolsulfonat (PSS), um 3D-Strukturen wie z.B. Linien, Schachbretter, Ringe, Stapel mit einer Schicht für Schicht Methode herzustellen. Die Schichtdicke für eine Doppelschicht (DS) liegt im Bereich von 0.6 bis 1.1 nm, wenn NaCl als Elektrolyt mit einer Konzentration von 0,5 mol/l eingesetzt wird. Die Breite der Strukturen beträgt im Mittel 230 µm. Der Prozess wurde erweitert, um Nanomechanische Cantilever Sensoren (NCS) zu beschichten. Auf einem Array bestehend aus acht Cantilevern wurden je zwei Cantilever mit fünf Doppelschichten PAH/ PSS und je zwei Cantilever mit zehn Doppelschichten PAH/ PSS schnell und reproduzierbar beschichtet. Die Massenänderung für die individuellen Cantilever war 0,55 ng für fünf Doppelschichten und 1,08 ng für zehn Doppelschichten. Der daraus resultierende Sensor wurde einer Umgebung mit definierter Luftfeuchtigkeit ausgesetzt. Die Cantilever verbiegen sich durch die Ausdehnung der Beschichtung, da Wasser in das Polymer diffundiert. Eine maximale Verbiegung von 442 nm bei 80% Luftfeuchtigkeit wurde für die mit zehn Doppelschichten beschichteten Cantilever gefunden. Dies entspricht einer Wasseraufnahme von 35%. Zusätzlich konnte aus den Verbiegungsdaten geschlossen werden, dass die Elastizität der Polyelektrolytmultischichten zunimmt, wenn das Polymer gequollen ist. Das thermische Verhalten in Wasser wurde im nächsten Teil an nanomechanischen Cantilever Sensoren, die mit Poly(N-isopropylacrylamid)bürsten (PNIPAM) und plasmapolymerisiertem N,N-Diethylacrylamid beschichtet waren, untersucht. Die Verbiegung des Cantilevers zeigte zwei Bereiche: Bei Temperaturen kleiner der niedrigsten kritischen Temperatur (LCST) ist die Verbiegung durch die Dehydration der Polymerschicht dominiert und bei Temperaturen größer der niedrigsten kritischen Temperatur (LCST) reagiert der Cantilever Sensor überwiegend auf Relaxationsprozesse innerhalb der kollabierten Polymerschicht. Es wurde gefunden, dass das Minimum in der differentiellen Verbiegung mit der niedrigsten kritischen Temperatur von 32°C und 44°C der ausgewählten Polymeren übereinstimmt. Im letzten Teil der Arbeit wurden µ-Reflektivitäts- und µ-GISAXS Experimente eingeführt als neue Methoden, um mikrostrukturierte Proben wie NCS oder PEM Linien mit Röntgenstreuung zu untersuchen. Die Dicke von jedem individuell mit PMMA Bürsten beschichtetem NCS ist im Bereich von 32,9 bis 35,2 nm, was mit Hilfe von µ-Reflektivitätsmessungen bestimmt wurde. Dieses Ergebnis kann mit abbildender Ellipsometrie als komplementäre Methode mit einer maximalen Abweichung von 7% bestätigt werden. Als zweites Beispiel wurde eine gedruckte Polyelektrolytmultischicht aus PAH/PSS untersucht. Die Herstellungsprozedur wurde so modifiziert, dass Goldnanopartikel in die Schichtstruktur eingebracht wurden. Durch Auswertung eines µ-GISAXS Experiments konnte der Einbau der Partikel identifiziert werden. Durch eine Anpassung mit einem Unified Fit Modell wurde herausgefunden, dass die Partikel nicht agglomeriert sind und von einer Polymermatrix umgeben sind.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In dieser Arbeit wird eine schmalbandige kontinuierliche kohärente Lyman-α-Quelle basierend auf Festkörperlasersystemen zur zukünftigen Kühlung von Antiwasserstoff vorgestellt. Die fundamentalen Festkörperlasersysteme ermöglichen es im Vier-Wellen-Misch-Prozess zur Erzeugung der Lyman-α-Strahlung nicht nur die 6^1S – 7^1S-Zwei-Photonen-Resonanz des Quecksilbers sondern erstmals auch die 6^1S – 6^3P-Ein-Photonen-Resonanz zur Erhöhung der Konversionseffizienz optimal zu nutzen. In ersten Messungen wurden 0,063nW Leistung bei Lyman-α erzeugt. Mit dieser Lyman-α-Quelle war es, durch die Nähe des ersten fundamentalen Lasers zur Ein-Photonen-Resonanz, erstmals möglich den kompletten Verlauf der Phasenanpassungskurve des Vier-Wellen- Misch-Prozesses aufzunehmen. Neben den fundamentalen Lasersystemen und der Lyman-alpha-Erzeugung selbst, wird in dieser Arbeit die Detektion der produzierten Lyman-α-Strahlung mit einem Photomultiplier vorgestellt, die soweit optimiert wurde, dass eine zuverlässige Abschätzung der erzeugten Leistung möglich ist. Für diesen Zweck wurde zudem ein Teststand aufgebaut, mit dem die Transmissivität der Optiken, welche in der Lyman-α-Apparatur verwendet werden, bei 121,56nm gemessen wurde. Des Weiteren wird hier eine vielseitige Rechnung vorgestellt, mit der die erzeugte Leistung bei Lyman-α, unter anderem in Abhängigkeit von der Temperatur, der Absorption des ersten fundamentalen Laserstrahls, dem Dichteprofil des Quecksilberdampfes und unter dem Einfluss eines Puffergases, bestimmt wird.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Proxy data are essential for the investigation of climate variability on time scales larger than the historical meteorological observation period. The potential value of a proxy depends on our ability to understand and quantify the physical processes that relate the corresponding climate parameter and the signal in the proxy archive. These processes can be explored under present-day conditions. In this thesis, both statistical and physical models are applied for their analysis, focusing on two specific types of proxies, lake sediment data and stable water isotopes.rnIn the first part of this work, the basis is established for statistically calibrating new proxies from lake sediments in western Germany. A comprehensive meteorological and hydrological data set is compiled and statistically analyzed. In this way, meteorological times series are identified that can be applied for the calibration of various climate proxies. A particular focus is laid on the investigation of extreme weather events, which have rarely been the objective of paleoclimate reconstructions so far. Subsequently, a concrete example of a proxy calibration is presented. Maxima in the quartz grain concentration from a lake sediment core are compared to recent windstorms. The latter are identified from the meteorological data with the help of a newly developed windstorm index, combining local measurements and reanalysis data. The statistical significance of the correlation between extreme windstorms and signals in the sediment is verified with the help of a Monte Carlo method. This correlation is fundamental for employing lake sediment data as a new proxy to reconstruct windstorm records of the geological past.rnThe second part of this thesis deals with the analysis and simulation of stable water isotopes in atmospheric vapor on daily time scales. In this way, a better understanding of the physical processes determining these isotope ratios can be obtained, which is an important prerequisite for the interpretation of isotope data from ice cores and the reconstruction of past temperature. In particular, the focus here is on the deuterium excess and its relation to the environmental conditions during evaporation of water from the ocean. As a basis for the diagnostic analysis and for evaluating the simulations, isotope measurements from Rehovot (Israel) are used, provided by the Weizmann Institute of Science. First, a Lagrangian moisture source diagnostic is employed in order to establish quantitative linkages between the measurements and the evaporation conditions of the vapor (and thus to calibrate the isotope signal). A strong negative correlation between relative humidity in the source regions and measured deuterium excess is found. On the contrary, sea surface temperature in the evaporation regions does not correlate well with deuterium excess. Although requiring confirmation by isotope data from different regions and longer time scales, this weak correlation might be of major importance for the reconstruction of moisture source temperatures from ice core data. Second, the Lagrangian source diagnostic is combined with a Craig-Gordon fractionation parameterization for the identified evaporation events in order to simulate the isotope ratios at Rehovot. In this way, the Craig-Gordon model can be directly evaluated with atmospheric isotope data, and better constraints for uncertain model parameters can be obtained. A comparison of the simulated deuterium excess with the measurements reveals that a much better agreement can be achieved using a wind speed independent formulation of the non-equilibrium fractionation factor instead of the classical parameterization introduced by Merlivat and Jouzel, which is widely applied in isotope GCMs. Finally, the first steps of the implementation of water isotope physics in the limited-area COSMO model are described, and an approach is outlined that allows to compare simulated isotope ratios to measurements in an event-based manner by using a water tagging technique. The good agreement between model results from several case studies and measurements at Rehovot demonstrates the applicability of the approach. Because the model can be run with high, potentially cloud-resolving spatial resolution, and because it contains sophisticated parameterizations of many atmospheric processes, a complete implementation of isotope physics will allow detailed, process-oriented studies of the complex variability of stable isotopes in atmospheric waters in future research.rn

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Stylolites are rough paired surfaces, indicative of localized stress-induced dissolution under a non-hydrostatic state of stress, separated by a clay parting which is believed to be the residuum of the dissolved rock. These structures are the most frequent deformation pattern in monomineralic rocks and thus provide important information about low temperature deformation and mass transfer. The intriguing roughness of stylolites can be used to assess amount of volume loss and paleo-stress directions, and to infer the destabilizing processes during pressure solution. But there is little agreement on how stylolites form and why these localized pressure solution patterns develop their characteristic roughness.rnNatural bedding parallel and vertical stylolites were studied in this work to obtain a quantitative description of the stylolite roughness and understand the governing processes during their formation. Adapting scaling approaches based on fractal principles it is demonstrated that stylolites show two self affine scaling regimes with roughness exponents of 1.1 and 0.5 for small and large length scales separated by a crossover length at the millimeter scale. Analysis of stylolites from various depths proved that this crossover length is a function of the stress field during formation, as analytically predicted. For bedding parallel stylolites the crossover length is a function of the normal stress on the interface, but vertical stylolites show a clear in-plane anisotropy of the crossover length owing to the fact that the in-plane stresses (σ2 and σ3) are dissimilar. Therefore stylolite roughness contains a signature of the stress field during formation.rnTo address the origin of stylolite roughness a combined microstructural (SEM/EBSD) and numerical approach is employed. Microstructural investigations of natural stylolites in limestones reveal that heterogeneities initially present in the host rock (clay particles, quartz grains) are responsible for the formation of the distinctive stylolite roughness. A two-dimensional numerical model, i.e. a discrete linear elastic lattice spring model, is used to investigate the roughness evolving from an initially flat fluid filled interface induced by heterogeneities in the matrix. This model generates rough interfaces with the same scaling properties as natural stylolites. Furthermore two coinciding crossover phenomena in space and in time exist that separate length and timescales for which the roughening is either balanced by surface or elastic energies. The roughness and growth exponents are independent of the size, amount and the dissolution rate of the heterogeneities. This allows to conclude that the location of asperities is determined by a polimict multi-scale quenched noise, while the roughening process is governed by inherent processes i.e. the transition from a surface to an elastic energy dominated regime.rn