667 resultados para Bethe-ansatz


Relevância:

10.00% 10.00%

Publicador:

Resumo:

The interplay of hydrodynamic and electrostatic forces is of great importance for the understanding of colloidal dispersions. Theoretical descriptions are often based on the so called standard electrokinetic model. This Mean Field approach combines the Stokes equation for the hydrodynamic flow field, the Poisson equation for electrostatics and a continuity equation describing the evolution of the ion concentration fields. In the first part of this thesis a new lattice method is presented in order to efficiently solve the set of non-linear equations for a charge-stabilized colloidal dispersion in the presence of an external electric field. Within this framework, the research is mainly focused on the calculation of the electrophoretic mobility. Since this transport coefficient is independent of the electric field only for small driving, the algorithm is based upon a linearization of the governing equations. The zeroth order is the well known Poisson-Boltzmann theory and the first order is a coupled set of linear equations. Furthermore, this set of equations is divided into several subproblems. A specialized solver for each subproblem is developed, and various tests and applications are discussed for every particular method. Finally, all solvers are combined in an iterative procedure and applied to several interesting questions, for example, the effect of the screening mechanism on the electrophoretic mobility or the charge dependence of the field-induced dipole moment and ion clouds surrounding a weakly charged sphere. In the second part a quantitative data analysis method is developed for a new experimental approach, known as "Total Internal Reflection Fluorescence Cross-Correlation Spectroscopy" (TIR-FCCS). The TIR-FCCS setup is an optical method using fluorescent colloidal particles to analyze the flow field close to a solid-fluid interface. The interpretation of the experimental results requires a theoretical model, which is usually the solution of a convection-diffusion equation. Since an analytic solution is not available due to the form of the flow field and the boundary conditions, an alternative numerical approach is presented. It is based on stochastic methods, i. e. a combination of a Brownian Dynamics algorithm and Monte Carlo techniques. Finally, experimental measurements for a hydrophilic surface are analyzed using this new numerical approach.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This thesis focuses on the controlled assembly of monodisperse polymer colloids into ordered two-dimensional arrangements. These assemblies, commonly referred to as colloidal monolayers, are subsequently used as masks for the generation of arrays of complex metal nanostructures on solid substrates.rnThe motivation of the research presented here is twofold. First, monolayer crystallization methods were developed to simplify the assembly of colloids and to produce more complex arrangements of colloids in a precise way. Second, various approaches to colloidal lithography are designed with the aim to include novel features or functions to arrays of metal nanostructures.rnThe air/water interface was exploited for the crystallization of colloidal monolayer architectures as it combines a two-dimensional confinement with a high lateral mobility of the colloids that is beneficial for the creation of high long range order. A direct assembly of colloids is presented that provides a cheap, fast and conceptually simple methodology for the preparation of ordered colloidal monolayers. The produced two-dimensional crystals can be transformed into non-close-packed architectures by a plasma-induced size reduction step, thus providing valuable masks for more sophisticated lithographic processes. Finally, the controlled co-assembly of binary colloidal crystals with defined stoichiometries on a Langmuir trough is introduced and characterized with respect to accessible configurations and size ratios. rnSeveral approaches to lithography are presented that aim at introducing different features to colloidal lithography. First, using metal-complex containing latex particles, the synthesis of which is described as well, symmetric arrays of metal nanoparticles can be created by controlled combustion of the organic material of the colloids. The process does not feature an inherent limit in nanoparticle size and is able to produce complex materials as will be demonstrated for FePt alloy particles. Precise control over both size and spacing of the particle array is presented. rnSecond, two lithographic processes are introduced to create sophisticated nanoparticle dimer units consisting of two crescent shaped nanostructures in close proximity; essentially by using a single colloid as mask to generate two structures simultaneously. Strong coupling processes of the parental plasmon resonances of the two objects are observed that are accompanied by high near-field enhancements. A plasmon hybridization model is elaborated to explain all polarization dependent shifts of the resonance positions. Last, a technique to produce laterally patterned, ultra-flat substrates without surface topographies by embedding gold nanoparticles in a silicon dioxide matrix is applied to construct robust and re-usable sensing architectures and to introduce an approach for the nanoscale patterning of solid supported lipid bilayer membranes. rn

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This work deals with the car sequencing (CS) problem, a combinatorial optimization problem for sequencing mixed-model assembly lines. The aim is to find a production sequence for different variants of a common base product, such that work overload of the respective line operators is avoided or minimized. The variants are distinguished by certain options (e.g., sun roof yes/no) and, therefore, require different processing times at the stations of the line. CS introduces a so-called sequencing rule H:N for each option, which restricts the occurrence of this option to at most H in any N consecutive variants. It seeks for a sequence that leads to no or a minimum number of sequencing rule violations. In this work, CS’ suitability for workload-oriented sequencing is analyzed. Therefore, its solution quality is compared in experiments to the related mixed-model sequencing problem. A new sequencing rule generation approach as well as a new lower bound for the problem are presented. Different exact and heuristic solution methods for CS are developed and their efficiency is shown in experiments. Furthermore, CS is adjusted and applied to a resequencing problem with pull-off tables.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In der Herstellung fester Darreichungsformen umfasst die Granulierung einen komplexen Teilprozess mit hoher Relevanz für die Qualität des pharmazeutischen Produktes. Die Wirbelschichtgranulierung ist ein spezielles Granulierverfahren, welches die Teilprozesse Mischen, Agglomerieren und Trocknen in einem Gerät vereint. Durch die Kombination mehrerer Prozessstufen unterliegt gerade dieses Verfahren besonderen Anforderungen an ein umfassendes Prozessverständnis. Durch die konsequente Verfolgung des PAT- Ansatzes, welcher im Jahre 2004 durch die amerikanische Zulassungsbehörde (FDA) als Guideline veröffentlicht wurde, wurde der Grundstein für eine kontinuierliche Prozessverbesserung durch erhöhtes Prozessverständnis, für Qualitätserhöhung und Kostenreduktion gegeben. Die vorliegende Arbeit befasste sich mit der Optimierung der Wirbelschicht-Granulationsprozesse von zwei prozesssensiblen Arzneistoffformulierungen, unter Verwendung von PAT. rnFür die Enalapril- Formulierung, einer niedrig dosierten und hochaktiven Arzneistoffrezeptur, wurde herausgefunden, dass durch eine feinere Zerstäubung der Granulierflüssigkeit deutlich größere Granulatkörnchen erhalten werden. Eine Erhöhung der MassRatio verringert die Tröpfchengröße, dies führt zu größeren Granulaten. Sollen Enalapril- Granulate mit einem gewünschten D50-Kornverteilung zwischen 100 und 140 um hergestellt werden, dann muss die MassRatio auf hohem Niveau eingestellt werden. Sollen Enalapril- Granulate mit einem D50- Wert zwischen 80 und 120µm erhalten werden, so muss die MassRatio auf niedrigem Niveau eingestellt sein. Anhand der durchgeführten Untersuchungen konnte gezeigt werden, dass die MassRatio ein wichtiger Parameter ist und zur Steuerung der Partikelgröße der Enalapril- Granulate eingesetzt werden kann; unter der Voraussetzung dass alle anderen Prozessparameter konstant gehalten werden.rnDie Betrachtung der Schnittmengenplots gibt die Möglichkeit geeignete Einstellungen der Prozessparameter bzw. Einflussgrößen zu bestimmen, welche dann zu den gewünschten Granulat- und Tabletteneigenschaften führen. Anhand der Lage und der Größe der Schnittmenge können die Grenzen der Prozessparameter zur Herstellung der Enalapril- Granulate bestimmt werden. Werden die Grenzen bzw. der „Design Space“ der Prozessparameter eingehalten, kann eine hochwertige Produktqualität garantiert werden. rnUm qualitativ hochwertige Enalapril Tabletten mit der gewählten Formulierung herzustellen, sollte die Enalapril- Granulation mit folgenden Prozessparametern durchgeführt werden: niedrige Sprührate, hoher MassRatio, einer Zulufttemperatur von mindestens > 50 °C und einer effektiven Zuluftmenge < 180 Nm³/h. Wird hingegen eine Sprührate von 45 g/min und eine mittlere MassRatio von 4.54 eingestellt, so muss die effektive Zuluftmenge mindestens 200 Nm³/h und die Zulufttemperatur mindestens 60 °C betragen, um eine vorhersagbar hohe Tablettenqualität zu erhalten. Qualität wird in das Arzneimittel bereits während der Herstellung implementiert, indem die Prozessparameter bei der Enalapril- Granulierung innerhalb des „Design Space“ gehalten werden.rnFür die Metformin- Formulierung, einer hoch dosierten aber wenig aktiven Arzneistoffrezeptur wurde herausgefunden, dass sich der Wachstumsmechanismus des Feinanteils der Metformin- Granulate von dem Wachstumsmechanismus der D50- und D90- Kornverteilung unterscheidet. Der Wachstumsmechanismus der Granulate ist abhängig von der Partikelbenetzung durch die versprühten Flüssigkeitströpfchen und vom Größenverhältnis von Partikel zu Sprühtröpfchen. Der Einfluss der MassRatio ist für die D10- Kornverteilung der Granulate vernachlässigbar klein. rnMit Hilfe der Störgrößen- Untersuchungen konnte eine Regeleffizienz der Prozessparameter für eine niedrig dosierte (Enalapril)- und eine hoch dosierte (Metformin) Arzneistoffformulierung erarbeitet werden, wodurch eine weitgehende Automatisierung zur Verringerung von Fehlerquellen durch Nachregelung der Störgrößen ermöglicht wird. Es ergibt sich für die gesamte Prozesskette ein in sich geschlossener PAT- Ansatz. Die Prozessparameter Sprührate und Zuluftmenge erwiesen sich als am besten geeignet. Die Nachregelung mit dem Parameter Zulufttemperatur erwies sich als träge. rnFerner wurden in der Arbeit Herstellverfahren für Granulate und Tabletten für zwei prozesssensible Wirkstoffe entwickelt. Die Robustheit der Herstellverfahren gegenüber Störgrößen konnte demonstriert werden, wodurch die Voraussetzungen für eine Echtzeitfreigabe gemäß dem PAT- Gedanken geschaffen sind. Die Kontrolle der Qualität des Produkts findet nicht am Ende der Produktions- Prozesskette statt, sondern die Kontrolle wird bereits während des Prozesses durchgeführt und basiert auf einem besseren Verständnis des Produktes und des Prozesses. Außerdem wurde durch die konsequente Verfolgung des PAT- Ansatzes die Möglichkeit zur kontinuierlichen Prozessverbesserung, zur Qualitätserhöhung und Kostenreduktion gegeben und damit das ganzheitliche Ziel des PAT- Gedankens erreicht und verwirklicht.rn

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The common ground of this study is the development of novel synthetic strategies to extended one-, two- and three-dimensional aromate-rich systems for which a number of applications are envisaged. rnThe point of departure is the synthesis and characterization of highly symmetric macrocyclic PAHs (polycyclic aromatic hydrocarbons) for which various aspects of supramolecular chemistry will be investigated. The versatility of the Yamamoto macrocyclization will be demonstrated on the basis of a set of cyclic trimers that exhibit a rich supramolecular chemistry. 1,10-phenanthroline, triphenylene and ortho-terphenyl building blocks have been successfully assembled to the corresponding macrocycles following the newly developed synthetic route. Scanning-tunneling microscopy (STM) and two-dimensional wide-angle X-ray scattering (2D-WAXS) were used to study the two- and three-dimensional self-assembly, respectively.rnSecondly, the development of chemical approaches to highly shape-anisotropic graphene nanoribbons (GNRs) and related nanographene molecules shall be discussed. Aryl-aryl coupling was used for the bottom-up fabrication of dendronized monomers, polymers and model compounds. Subsequently, these structures were converted into the final graphene material using oxidative (Scholl-type) cyclodehydrogenation. The GNRs thus obtained are characterized by an unprecedented length and lateral extension. The relevance of structural tailoring in the field of well-defined graphene materials is discussed in detail as only the chemical approach provides full geometry control. rnLastly, novel pathways towards the synthesis of extended three-dimensional networks that are dominated by nitrogen-rich motifs will be presented. If porous, these materials hold a great potential in the fields of gas and energy storage as well as for applications in catalysis. Hence, poly(aminal) networks based on melamine as crosslinking unit were synthesized and characterized with respect to the applications mentioned above. As set of conjugated poly(azomethine) networks was investigated regarding their use as a novel class of organic semiconductors for photocatalytic water splitting. The network structures described in this chapter can also be subjected to a controlled pyrolysis yielding mesoporous, nitrogen-rich carbon materials that were evaluated as active component for supercapacitors.rn

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In this thesis, the phenomenology of the Randall-Sundrum setup is investigated. In this context models with and without an enlarged SU(2)_L x SU(2)_R x U(1)_X x P_{LR} gauge symmetry, which removes corrections to the T parameter and to the Z b_L \bar b_L coupling, are compared with each other. The Kaluza-Klein decomposition is formulated within the mass basis, which allows for a clear understanding of various model-specific features. A complete discussion of tree-level flavor-changing effects is presented. Exact expressions for five dimensional propagators are derived, including Yukawa interactions that mediate flavor-off-diagonal transitions. The symmetry that reduces the corrections to the left-handed Z b \bar b coupling is analyzed in detail. In the literature, Randall-Sundrum models have been used to address the measured anomaly in the t \bar t forward-backward asymmetry. However, it will be shown that this is not possible within a natural approach to flavor. The rare decays t \to cZ and t \to ch are investigated, where in particular the latter could be observed at the LHC. A calculation of \Gamma_{12}^{B_s} in the presence of new physics is presented. It is shown that the Randall-Sundrum setup allows for an improved agreement with measurements of A_{SL}^s, S_{\psi\phi}, and \Delta\Gamma_s. For the first time, a complete one-loop calculation of all relevant Higgs-boson production and decay channels in the custodial Randall-Sundrum setup is performed, revealing a sensitivity to large new-physics scales at the LHC.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Erkrankungen des Skelettapparats wie beispielsweise die Osteoporose oder Arthrose gehören neben den Herz-Kreislauferkrankungen und Tumoren zu den Häufigsten Erkrankungen des Menschen. Ein besseres Verständnis der Bildung und des Erhalts von Knochen- oder Knorpelgewebe ist deshalb von besonderer Bedeutung. Viele bisherige Ansätze zur Identifizierung hierfür relevanter Gene, deren Produkte und Interaktionen beruhen auf der Untersuchung pathologischer Situationen. Daher ist die Funktion vieler Gene nur im Zusammenhang mit Krankheiten beschrieben. Untersuchungen, die die Genaktivität bei der Normalentwicklung von knochen- und knorpelbildenden Geweben zum Ziel haben, sind dagegen weit weniger oft durchgeführt worden. rnEines der entwicklungsphysiologisch interessantesten Gewebe ist die Epiphysenfuge der Röhrenknochen. In dieser sogenannten Wachstumsfuge ist insbesondere beim fötalen Gewebe eine sehr hohe Aktivität derjenigen Gene zu erwarten, die an der Knochen- und Knorpelbildung beteiligt sind. In der vorliegenden Arbeit wurde daher aus der Epiphysenfuge von Kälberknochen RNA isoliert und eine cDNA-Bibliothek konstruiert. Von dieser wurden ca. 4000 Klone im Rahmen eines klassischen EST-Projekts sequenziert. Durch die Analyse konnte ein ungefähr 900 Gene umfassendes Expressionsprofil erstellt werden und viele Transkripte für Komponenten der regulatorischen und strukturbildenden Bestandteile der Knochen- und Knorpelentwicklung identifiziert werden. Neben den typischen Genen für Komponenten der Knochenentwicklung sind auch deutlich Bestandteile für embryonale Entwicklungsprozesse vertreten. Zu ersten gehören in erster Linie die Kollagene, allen voran Kollagen II alpha 1, das mit Abstand höchst exprimierte Gen in der fötalen Wachstumsfuge. Nach den ribosomalen Proteinen stellen die Kollagene mit ca. 10 % aller auswertbaren Sequenzen die zweitgrößte Gengruppe im erstellten Expressionsprofil dar. Proteoglykane und andere niedrig exprimierte regulatorische Elemente, wie Transkriptionsfaktoren, konnten im EST-Projekt aufgrund der geringen Abdeckung nur in sehr geringer Kopienzahl gefunden werden. Allerdings förderte die EST-Analyse mehrere interessante, bisher nicht bekannte Transkripte zutage, die detaillierter untersucht wurden. Dazu gehören Transkripte die, die dem LOC618319 zugeordnet werden konnten. Neben den bisher beschriebenen drei Exonbereichen konnte ein weiteres Exon im 3‘-UTR identifiziert werden. Im abgeleiteten Protein, das mindestens 121 AS lang ist, wurden ein Signalpeptid und eine Transmembrandomäne nachgewiesen. In Verbindung mit einer möglichen Glykosylierung ist das Genprodukt in die Gruppe der Proteoglykane einzuordnen. Leicht abweichend von den typischen Strukturen knochen- und knorpelspezifischer Proteoglykane ist eine mögliche Funktion dieses Genprodukts bei der Interaktion mit Integrinen und der Zell-Zellinteraktion, aber auch bei der Signaltransduktion denkbar. rnDie EST-Sequenzierungen von ca. 4000 cDNA-Klonen können aber in der Regel nur einen Bruchteil der möglichen Transkripte des untersuchten Gewebes abdecken. Mit den neuen Sequenziertechnologien des „Next Generation Sequencing“ bestehen völlig neue Möglichkeiten, komplette Transkriptome mit sehr hoher Abdeckung zu sequenzieren und zu analysieren. Zur Unterstützung der EST-Daten und zur deutlichen Verbreiterung der Datenbasis wurde das Transkriptom der bovinen fötalen Wachstumsfuge sowohl mit Hilfe der Roche-454/FLX- als auch der Illumina-Solexa-Technologie sequenziert. Bei der Auswertung der ca. 40000 454- und 75 Millionen Illumina-Sequenzen wurden Verfahren zur allgemeinen Handhabung, der Qualitätskontrolle, dem „Clustern“, der Annotation und quantitativen Auswertung von großen Mengen an Sequenzdaten etabliert. Beim Vergleich der Hochdurchsatz Blast-Analysen im klassischen „Read-Count“-Ansatz mit dem erstellten EST-Expressionsprofil konnten gute Überstimmungen gezeigt werden. Abweichungen zwischen den einzelnen Methoden konnten nicht in allen Fällen methodisch erklärt werden. In einigen Fällen sind Korrelationen zwischen Transkriptlänge und „Read“-Verteilung zu erkennen. Obwohl schon simple Methoden wie die Normierung auf RPKM („reads per kilo base transkript per million mappable reads“) eine Verbesserung der Interpretation ermöglichen, konnten messtechnisch durch die Art der Sequenzierung bedingte systematische Fehler nicht immer ausgeräumt werden. Besonders wichtig ist daher die geeignete Normalisierung der Daten beim Vergleich verschieden generierter Datensätze. rnDie hier diskutierten Ergebnisse aus den verschiedenen Analysen zeigen die neuen Sequenziertechnologien als gute Ergänzung und potentiellen Ersatz für etablierte Methoden zur Genexpressionsanalyse.rn

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Der Fokus dieser Arbeit liegt in dem Design, der Synthese und der Charakterisierung neuartiger photosensitiver Mikrogele und Nanopartikel als potentielle Materialien für Beladungs- und Freisetzungsanwendungen. Zur Realisierung dieses Konzepts wurden verschiedene Ansätze untersucht.Es wurden neuartige niedermolekulare lichtspaltbare Vernetzermoleküle auf der Basis von o-Nitrobenzylderivaten synthetisiert, charakterisiert und zur Herstellung von photosensitiven PMMA und PHEMA Mikrogelen verwendet. Diese sind unter Bestrahlung in organischen Lösungsmitteln quellbar und zersetzbar. Durch die Einführung anionischer MAA Gruppen in solche PHEMA Mikrogele wurde dieses Konzept auf doppelt stimuliresponsive p(HEMA-co-MAA) Mikrogele erweitert. Hierbei wurde ein pH-abhängiges Quellbarkeitsprofil mit der lichtinduzierten Netzwerkspaltung in wässrigen Medien kombiniert. Diese duale Sensitivität zu zwei zueinander orthogonalen Reizen stellt ein vielversprechendes Konzept zur Kombination einer pH-abhängigen Beladung mit einer lichtinduzierten Freisetzung von funktionellen Substanzen dar. Desweiteren wurden PAAm Mikrogele entwickelt, welche sowohl eine Sensitivität gegenüber Enzymen als auch Licht aufweisen. Dieses Verhalten wurde durch die Verwendung von (meth-)acrylatfunktionalisierten Dextranen als polymere Vernetzungsmoleküle erreicht. Das entsprechende stimuliresponsive Profil basiert auf der enzymatischen Zersetzbarkeit der Polysaccharid-Hauptkette und der Anbindung der polymerisierbaren Vinyleinheiten an diese über photospaltbare Gruppen. Die gute Wasserlöslichkeit der Vernetzermoleküle stellt einen vielversprechenden Ansatz zur Beladung solcher Mikrogele mit funktionellen hydrophilen Substanzen bereits während der Partikelsynthese dar. Ein weiteres Konzept zur Beladung von Mikrogelen basiert auf der Verwendung von photolabilen Wirkstoff-Mikrogel Konjugaten. In einem ersten Schritt zur Realisierung solch eines Ansatzes wurde ein neuartiges Monomer entwickelt. Hierbei wurde Doxorubicin über eine lichtspaltbare Gruppe an eine polymerisierbare Methacrylatgruppe angebunden. Für die Freisetzung hydrophober Substanzen in wässrigen Medien wurden polymere Photolack-Nanopartikel entwickelt, welche sich unter Bestrahlung in Wasser zersetzen. Die lichtinduzierte Änderung der Hydrophobizität des Polymers ermöglichte die Freisetzung von Nilrot durch das Auflösen der partikulären Struktur. Ein interessanter Ansatz zur Verhinderung einer unkontrollierten Freisetzung funktioneller Substanzen aus Mikrogelen ist die Einführung einer stimuliresponsiven Schale. In diesem Kontext wurden Untersuchungen zur Bildung von nicht-stimulisensitiven Schalen um vorgefertigte Mikrogelkerne und zur Synthese von Hydrogelkernen in vorgefertigten polymeren Schalen (Nanokapseln) durchgeführt.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Spinpolarisationsmessungen an freien Elektronen sind seit ihrer ersten Verwirklichung durch Mott anspruchsvoll geblieben. Die relevante Größe eines Spinpolarimeters ist seine Gütefunktion, FoM = S^2*I/I_0, mit der Asymmetriefunktion S und dem Verhältnis aus Streu- und Primärintensität I/I_0. Alle bisherigen Geräte basieren auf einer einkanaligen Streuung (Spin-Bahn- oder Austauschwechselwirkung), die durch FoM = 10^(-4) charakterisiert ist. Moderne Halbkugelanalysatoren ermöglichen hingegen eine effiziente Vielkanaldetektion der spinintegralen Intensität mit mehr als 10^4 simultan erfassten Datenpunkten. Im Vergleich zwischen spinaufgelöster und spinintegraler Elektronenspektroskopie findet man somit einen Effizienzunterschied von 8 Größenordnungen.rnDie vorliegende Arbeit beschäftigt sich mit der Entwicklung und Untersuchung eines neuartigen Verfahrens zur Effizienzsteigerung in der spinaufgelösten Elektronenspektroskopie unter Ausnutzung von Vielkanaldetektion. Der Spindetektor wurde in eine µ-metallgeschirmte UHV-Kammer integriert und hinter einem konventionellen Halbkugelanalysator angebracht. Durch elektronenoptische Simulationen wurde die Geometrie des elektrostatischen Linsensystems festgelegt. Das Grundkonzept basiert auf der k(senkrecht)-erhaltenden elastischen Streuung des (0,0)-Spekularstrahls an einem W(100)- Streukristall unter einem Einfallswinkel von 45°. Es konnte gezeigt werden, dass etwarn960 Datenpunkte (15 Energie- und 64 Winkelpunkte) in einem Energiebereich vonrnetwa 3 eV simultan auf einen Delayline-Detektor abgebildet werden können. Dies führt zu einer zweidimensionalen Gütefunktion von FoM_2D = 1,7. Verglichen mit konventionellen Spindetektoren ist der neuartige Ansatz somit durch einen Effizienzgewinn von 4 Größenordnungen gekennzeichnet.rnDurch Messungen einer Fe/MgO(100) und O p(1x1)/Fe(100)-Probe konnte die Funktionstüchtigkeit des neuen Spinpolarimeters nachgewiesen werden, indem die aus der Literatur bekannten typischen UPS-Ergebnisse mit stark verkürzter Messzeit reproduziert wurden. Durch die hohe Effizienz ist es möglich, besonders reaktive Oberflächen in kurzer Zeit zu vermessen. Dieser Vorteil wurde bereits für eine erste grundlagenorientierte Anwendung genutzt: Als Test für die Gültigkeit von Bandstrukturrechnungen für die Heusler-Verbindung Co_2MnGa, wobei eine gute Übereinstimmung zwischen Theorie und Experiment gefunden wurde.rnMit dem Vielkanal-Spinfilter wurde die Grundlage zu einem um Größenordnungen verbesserten Messverfahren der Elektronenspin-Polarisation geschaffen und damit der Zugang zu Experimenten eröffnet, die mit den bisherigen einkanaligen Detektoren nicht möglich sind.rn

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die vorliegende Arbeit zum kindlichen Erwerb der binären Opposition von „Möglichkeit“ und „Unmöglichkeit“ und ihrer modalen Ausdrucksweisen im Russischen ist in ihrem praktischen Teil eine Einzelfall- und Langzeitstudie, die eine Ergänzung zu den bisher veröffentlichten, durchgehend eher experimentell und statistisch orientierten Forschungsarbeiten darstellen soll.rnÜber dreieinhalb Jahre hinweg wurde kontinuierlich Sprachmaterial eines Kindes sowie einiger ungefährer Altersgenossen und Spielkameraden aufgezeichnet, geordnet und ausgewertet. Zu Beginn des Untersuchungszeitraums war die Hauptprobandin dreieinhalb Jahre alt, zum Schluß sieben Jahre. Dieses Verfahren wurde bisher für das Russische noch nicht angewandt und wird im theoretischen Teil sorgfältig begründet.rnDas Sammeln für die Fragestellung relevanten sprachlichen Materials erfordert naturgemäß einen hohen Zeit- und Arbeitsaufwand, liefert dafür aber Daten, die eine Beeinflussung durch einen vorgegebenen Versuchsaufbau ausschließen, der natürlichen, spontanen Kommunikation entspringende Äußerungen festhalten und es ermöglichen, unprovozierte Interaktion, situationsbedingte Einflüsse, das Diskursverhalten der Probanden und ähnliche, individuelle Faktoren bei der Interpretation des Sprachmaterials in angemessener Weise zu berücksichtigen.rnUm die Fülle modaler Ausdrucksweisen sinnvoll zu strukturieren, konzentriert sich die Analyse auf die kindliche Verwendung von Modalverben und Prädikative als zentrale Mittel innerhalb des „Möglichkeitsfeldes“ und richtet den Fokus dabei auf das Verb moč’. Aus diesem Grunde wurde das theoretische Fundament, das der Arbeit zugrunde liegt, zu einem nicht geringen Teil aus dem Ansatz I.V. Šatunovskijs entwickelt, der die differenzierteste Analyse der zahlreichen Bedeutungsschattierungen des Verbs moč’ vorgelegt hat. Für besonders bedeutungsvoll für die vorliegende Arbeit erweist sich die Unterscheidung von kontrollierbarer und unkontrollierbarer Möglichkeit.rnIm Rahmen der Untersuchung ließen sich die grundlegenden Entwicklungstendenzen verfolgen. Dabei wurde nicht nur versucht nachzuvollziehen, in welcher Weise sich bei einem Kind das Fundament des Sprachgebrauchs in Gestalt eines allgemeinen „Zitatenschatzes“ formiert, sondern es gelang mitunter sogar, erste Fälle der Verwendung des einen oder anderen kommunikativen Fragments mit der Bedeutung von „Möglichkeit“ / „Unmöglichkeit“ oder erste Fälle der Konfrontation des Kindes mit einer neuen Situation, die eine solche Bedeutung verlangte, und sein Sprachverhalten in diesem Moment zu fixieren.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Among all possible realizations of quark and antiquark assembly, the nucleon (the proton and the neutron) is the most stable of all hadrons and consequently has been the subject of intensive studies. Mass, shape, radius and more complex representations of its internal structure are measured since several decades using different probes. The proton (spin 1/2) is described by the electric GE and magnetic GM form factors which characterise its internal structure. The simplest way to measure the proton form factors consists in measuring the angular distribution of the electron-proton elastic scattering accessing the so-called Space-Like region where q2 < 0. Using the crossed channel antiproton proton <--> e+e-, one accesses another kinematical region, the so-called Time-Like region where q2 > 0. However, due to the antiproton proton <--> e+e- threshold q2th, only the kinematical domain q2 > q2th > 0 is available. To access the unphysical region, one may use the antiproton proton --> pi0 e+ e- reaction where the pi0 takes away a part of the system energy allowing q2 to be varied between q2th and almost 0. This thesis aims to show the feasibility of such measurements with the PANDA detector which will be installed on the new high intensity antiproton ring at the FAIR facility at Darmstadt. To describe the antiproton proton --> pi0 e+ e- reaction, a Lagrangian based approach is developed. The 5-fold differential cross section is determined and related to linear combinations of hadronic tensors. Under the assumption of one nucleon exchange, the hadronic tensors are expressed in terms of the 2 complex proton electromagnetic form factors. An extraction method which provides an access to the proton electromagnetic form factor ratio R = |GE|/|GM| and for the first time in an unpolarized experiment to the cosine of the phase difference is developed. Such measurements have never been performed in the unphysical region up to now. Extended simulations were performed to show how the ratio R and the cosine can be extracted from the positron angular distribution. Furthermore, a model is developed for the antiproton proton --> pi0 pi+ pi- background reaction considered as the most dangerous one. The background to signal cross section ratio was estimated under different cut combinations of the particle identification information from the different detectors and of the kinematic fits. The background contribution can be reduced to the percent level or even less. The corresponding signal efficiency ranges from a few % to 30%. The precision on the determination of the ratio R and of the cosine is determined using the expected counting rates via Monte Carlo method. A part of this thesis is also dedicated to more technical work with the study of the prototype of the electromagnetic calorimeter and the determination of its resolution.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Dissertation "Konsekutivdolmetschen und Notation" (Andres 2002) ist eine experimentelle Studie. Mit Hilfe einer von den Germersheimer Technikern konzipierten Spezialkamera wurde die Notizennahme von insgesamt 28 ProbandInnen, denen über Video die Fernsehansprache des französischen Staatspräsidenten zum Jahreswechsel 1996/1997 eingespielt wurde, gefilmt. Das Besondere an diesen Filmaufnahmen der Notizen war die mitlaufende Zeitschaltuhr. Damit konnte der zeitliche Abstand (Décalage) zur Originalrede gemessen werden. In der Verschriftung wurden die Originalrede, die Notizen und die Wiedergabe in ihrem temporalen Verlauf aufgezeichnet. Auch nonverbale Elemente wurden durch in Klammern hinter die jeweilige Äußerung gesetzte Anmerkungen integriert. Die Leistungen der ProbandInnen wurden von drei Dozentinnen bewertet. Die Auswertung der empirischen Daten erfolgte unter den Aspekten Effizienz und Knappheit, Quantität und Auswahl, Informationsstrukturierung, Décalage, Wissen und Erfahrung, Text als kommunikatives Ganzes. Auswertung der Dolmetschleistungen: Konsekutivdolmetschen ist eine komplexe Gesamtoperation, die sich aus zahlreichen miteinander vernetzten Teilen zusammensetzt. Faktoren wie Übung, Erfahrung, Wissen, das Verfügen über Sachkenntnis und Problemlösestrategien, spielen in diesem Prozess eine erhebliche Rolle. Daher ist es sinnvoll, im didaktischen Ansatz Einzeloperationen aus der Gesamtoperation herauszulösen und für Einzelbereiche die Fähigkeit zum Problemlösen zu trainieren. Die Grundvoraussetzung ist Verstehen, so dass vor allem Verstehenstechniken zu vermitteln sind. Insgesamt geht es darum, den Lernprozess so zu gestalten, dass Studierenden Strategien vermittelt werden, die es ihnen ermöglichen, defizitäre Daten der Textoberfläche durch differenzierte Erwartungsstrukturen zu ergänzen und zu lernen, Sinn zu konstruieren. In Bezug auf die Notation lassen die in der Untersuchung enthaltenen Daten den Schluss zu, dass es bei der Notation nicht um Fragen wie zielsprachliches oder ausgangssprachliches Notieren oder die Anzahl von Symbolen geht, sondern darum zu vermitteln, dass: (1) ein deutlich geschriebenes Notationssystem mit automatisierten Abkürzungsregeln und einem eindeutigen Stamm an Symbolen Zeitersparnis bewirkt, die für andere Operationen genutzt werden kann; (2) Verben und Tempusangaben für die Rekonstruktion des Gesagten ein wesentlicher Faktor sind; (3) Informationsgewichtung und -strukturierung in den Notizen die Verstehensoperationen intensivieren und die Textproduktion erleichtern; (4) Segmentierung und räumliche Anordnung in den Notizen das Zuordnen erleichtern und die Sprachproduktion positiv beeinflussen; (5) die Notation von Verknüpfungsmitteln ein wesentliches Element für die Herstellung von Kohäsion ist; (6) das Décalage in Abhängigkeit vom Faktor Verstehen Schwankungen unterworfen ist und sein darf; (7) jede Person das für sie individuelle Décalage herausfinden muss; (8) ein anhaltendes Décalage von mehr als 7 Sekunden zu Defiziten im Verstehens- oder im Notationsprozess führt; (9) diskontinuierliches Notieren zur Informationsstrukturierung oder -vervollständigung hilfreich sein kann; (10) rhetorische Merkmale in der Textproduktion leichter berücksichtigt werden, wenn diese in den Notizen markiert sind.rnSchließlich haben die Beobachtungen gezeigt, wie hilfreich für die Studierenden eine intensive Auseinandersetzung mit der Notation ist, wie wichtig ein trainiertes, verlässliches, effizientes Notationssystem als eine Teiloperation ist, die den Verstehensprozess stützt und damit entscheidenden Einfluss auf die Qualität der zielsprachlichen Umsetzung nimmt.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die vorliegende Dissertation beschäftigt sich mit dem Membrantransporter-vermittelten Export von asymmetrischem Dimethyl-L-Arginin (ADMA) aus der Endothelzelle. Da ADMA-Plasmakonzentrationen mit Erkrankungen wie koronaren Herzkrankheiten, Atherosklerose, Bluthochdruck und Endotheldysfunktion in Verbindung gebracht werden, ist ein effektiver ADMA-Export aus der Zelle heraus unabdingbar. Um den Mechanismus hierfür aufzuklären, wurden die immortalisierte Endothelzelllinie EA.hy926 und weitere primäre Endothelzellen (humane Umbilikalvenenendothelzellen und Endothelzellen der großen und kleinen Herzgefäße) auf die Expression basischer Aminosäuretransporter mittels einer qRT-PCR hin untersucht. Dabei zeigte sich, dass alle getesteten Endothelzellen die Aminosäuretransporter hCAT-1, y+LAT1 und y+LAT2 exprimierten. Basierend auf ADMA-Exportdaten, die mit entsprechenden Transporter-überexprimierenden Xenopus laevis-Oozyten gewonnen wurden, wurde festgestellt, dass alle drei Membrantransporter ADMA exportieren konnten. Der physiologisch wichtige Exportweg für intrazellulär anfallendes ADMA scheint dabei der via y+L zu sein, da es sich hierbei um einen aktiven Exportmechanismus handelt, der im Gegentransport von im humanen Plasma reichlich vorhandenen neutralen Aminosäuren und Natriumionen den nach innen gerichteten Natriumgradienten ausnutzt. Die Wichtigkeit des Membrantransportes für die Kontrolle intrazellulärer ADMA-Konzentrationen wurde in vitro durch Entzug von extrazellulären Austauschsubstraten und einer daraus resultierenden Blockade der Transportfunktion gezeigt. Hierbei wurde innerhalb von zwei Stunden ein 2,5-facher Anstieg der intrazellulären ADMA-Konzentration festgestellt, die bei Präsenz von Austauschsubstrat für die Transporter nicht auftrat. Die Relevanz der y+LATs für den ADMA-Export wurde durch Herunterregulation dieser Proteine mittels siRNA sichtbar: Unter diesen Bedingungen konnte ADMA auch in Anwesenheit von Austauschsubstrat für das System y+L weniger effektiv exportiert werden. Eine wichtige Aufgabe des humanen Endothels ist die Bildung bioaktiven Stickstoffmonoxids, das unter anderem eine Vasodilatation der Gefäße bewirkt. Für diese NO-Synthese wird L-Arginin als Substrat von der endothelialen NO-Synthase benötigt. ADMA stellt einen kompetitiven Inhibitor dar, dessen erhöhtes intrazelluläres Vorkommen möglicherweise hemmend auf die NO-Synthase wirken könnte. Es konnten hier allerdings keine Auswirkungen eines um das 4-fache gestiegenen, intrazellulären ADMA-Spiegels auf die Tätigkeit der endothelialen NO-Synthase festgestellt werden. Möglicherweise bedarf es eines noch weiter zu Gunsten des ADMAs verschobenen, intrazellulären L-Arginin:ADMA-Verhältnisses, um eine Hemmung der NO-Synthase festzustellen. Dies könnte bei einem pathologischen Transporterausfall eintreten, der intrazellulär permanent höhere ADMA-Konzentrationen zur Folge hätte. Des Weiteren hätte ein Anstieg der Arginasetätigkeit und damit einhergehend ein Substratdefizit für die NO-Synthase den gleichen Effekt. Der translationale Ansatz mit humanen peripheren mononukleären Blutzellen von Patienten aus der 2. Medizinischen Klinik zeigte die Tendenz einer Korrelation zwischen dem ADMA-Exportvermögen und der Endothelfunktion und brachte zudem die Erkenntnis eines individuell äußerst variablen ADMA-Exportvermögens zutage.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Mechanismen der zentralen und der peripheren Toleranz schützen den Körper vor Immunreaktionen gegen körpereigenes Gewebe oder gegen harmlose Umweltantigene. An der Aufrechterhaltung der peripheren Toleranz sind tolerogene Dendritische Zellen (DC) beteiligt. Tolerogene DC können in vitro u.a. mit Hilfe von immunsuppressiven und antiinflammatorischen Substanzen, aber auch durch virale Transduktionen, die zur Denovo- oder Überexpression toleranzassoziierter Moleküle führen, generiert werden. rnDa die Wirkung einiger immunmodulatorischer Substanzen über den intrazellulären sekundären Botenstoff cAMP vermittelt wird, sollte getestet werden, welchen Einfluss eine direkte Erhöhung des intrazellulären cAMP-Niveaus mittels Dibutyryl-cyclo-Adenosin-3´,5´-Mono-Phoshat (db-cAMP) auf die phänotypischen und funktionellen Eigenschaften von BM-DC („bone marrow derived dendritic cells“) hat.rnIm Vergleich zu unbehandelten BM-DC wiesen db-cAMP-DC ein vermindertes T-Zell-Stimulierungs-potenzial auf. Dieses verminderte T-Zell-Stimulierungspotenzial wird teilweise über die Proteinkinase A, nicht aber über Cyclooxygenase-2 (Cox-2) vermittelt. rnAnhand der FACS-Analyse mit DC- und MDSC- („myeloid derived suppressor cells“) spezifischen Markern konnte gezeigt werden, dass es sich bei den db-cAMP-DC um CD11c-positive DC mit einer vergleichsweise niedrigen Expression von MHCII und kostimulatorischen Oberflächenmolekülen handelt. Des Weiteren zeigte sich, dass sie verglichen mit BM-DC eine vermehrte mRNA-Expression der koinhibitorischen Moleküle B7-H1 und LIGHT und der toleranzassoziierten Moleküle FcγRIIB, HO-1 und Cox-2 aufweisen. Mittels ELISA konnte eine gesteigerte Expression der HO-1- und eine moderat gesteigerte PGE2-Synthese beobachtet werden. PGE2 wird mit Hilfe der Cox-2 aus Arachidonsäure gebildet.rnIm Gegensatz zu BM-DC wiesen db-cAMP-DC in beiden Reifungsstadien ein verändertes Zytokinprofil auf: Auf mRNA-Ebene zeigte sich, dass db-cAMP-DC verglichen mit BM-DC vermehrt IL-1RA und IL-10 exprimieren. Dieser Unterschied konnte für IL-10 auch mittels ELISA bestätigt werden. In den Kulturüberständen der stimulierten db-cAMP-DC konnte, im Gegensatz zu denen stimulierter BM-DC, kaum bioaktives IL-12 nachgewiesen werden. rnDb-cAMP-DC induzierten des Weiteren in kokultivierten allogenen T-Zellen ein differenzielles Zytokinprofil: Sie förderten die INFγ- und IL-17-Sezernierung durch T-Zellen, während die IL-5-Sezernierung geringer war, wenn T-Zellen mit stimulierten db-cAMP-DC kokultiviert wurden. Db-cAMP-DC hatten hingegen keinen Einfluss auf die IL-10-Produktion. Außerdem führte eine Kokultur der db-cAMP-DC mit allogenen T-Zellen nicht zu einer gesteigerten Induktion von FoxP3+ Treg. rnIn einem zweiten Ansatz sollte getestet werden ob es möglich ist die murine DC-Linie SP37A3 lentiviral mit dem toleranzassoziierten Oberflächenprotein B7-H3 zu transduzieren. Dies ist von Interesse, da die SP37A3-Zellen einige Vorteile gegenüber BM-DC aufweisen, wie z.B. ihren homogeneren Phänotyp und die Möglichkeit sie in einer Expansionskultur zu halten.rnEs konnte gezeigt werden, dass SP37A3-Zellen als Modell für myeloide DC für die Transduktion mit lentiviralen Partikeln geeignet sind. Hierbei zeigte es sich aber, dass darauf geachtet werden muss, mit konzentriertem Virus zu arbeiten und dass die Reportergen-Expression der Zielzellen über mehr als 3 Tage (mindestens 7 Tage) untersucht werden muss. Nur so kann eine eventuell auftretende Pseudotransduktion erkannt und verhindert werden. Ab einer MOI („multiplicity of infection“) von 50 konnte in SP37A3-Zellen eine Transgen-Expression nachgewiesen werden.rn

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die akute myeloische Leukämie (AML) stellt ein äußerst heterogenes hämatologisches Krankheitsbild dar, welches durch die unkontrollierte Proliferation unausdifferenzierter und gleichzeitig nicht-funktioneller hämatopoetischer Zellen gekennzeichnet ist. Sowohl die unterschiedliche Zellherkunft, als auch zytogenetische Aberrationen und molekulargenetische Mutationen sorgen für eine große Diversität der Erkrankung. In der Therapie kommen Chemotherapeutika zum Einsatz, welche die Leukämie in eine komplette Remission bringen sollen. Der einzige kurative Ansatz besteht aus der allogenen hämatopoetischen Stammzelltransplantation. Abgesehen von den gewünschten kurativen Effekten, induzieren die im Transplantat befindlichen Spender-T-Lymphozyten ebenfalls die Transplantat-gegen-Wirt Erkrankung – eine Hauptursache von Mortalität und Morbidität nach erfolgter allogener hämatopoetischer Stammzelltransplantation. Da bei vielen Patienten aufgrund ihres Alters und ihrer Begleiterkrankungen eine Transplantation nicht tolerieren und da viele akuten myeloischen Leukämien trotz Chemotherapie progredient sind, schlägt die Therapie fehl und es gibt keine Chance auf Heilung. rnZur Erforschung der pathologischen Prozesse der akuten myeloischen Leukämie sowie für die Entwicklung neuer Therapiekonzepte bedarf es stabiler Tiermodelle, die die maligne Erkrankung des Menschen darstellen können. Ziel der vorliegenden Arbeit war die Untersuchung des Engraftments humaner primärer akuter myeloischer Leukämien in immuninkompetenten NSG-Mäusen. Die Untersuchungen zeigten, dass lediglich 61,5% der getesteten Leukämien in den Versuchstieren nach der Xenotransplantation nachgewiesen werden konnten. Die Gründe hierfür sind noch nicht ausreichend geklärt, beinhalten jedoch vermutlich Elemente des Homings, des Überlebens der Zelle in der fremden murinen Knochenmarknische, der Abwesenheit spezifischer humaner Wachstumsfaktoren, sowie intrinsische Unterschiede unter den verschiedenen Leukämieproben. Leukämien, die mit einer schlechten Prognose beim Patienten verbunden sind, wachsen in den Tieren stärker an. In den Versuchen konnte gezeigt werden, dass Leukämien mit einer Längenmutation des FLT3-Rezeptors eher häufiger in den NSG-Mäusen anwachsen, als wenn diese Mutation fehlt. Die Analyse der erstellten Wachstumskinetiken zweier Leukämien ergab, dass die Höhe des Engraftments in den einzelnen Organen sowohl von der transplantierten Zellmenge, als auch von der Höhe der angesetzten Versuchszeit abhängt. Zudem wurde ein Wachstum humaner T-Lymphozyten in den xenotransplantierten Mäusen beobachtet, welches sowohl mit einem höheren Engraftment der Leukämie in der Maus verbunden war, als auch mit einer höheren Tiersterblichkeit vergesellschaftet war.rnZum Verhindern dieses Wachstums wurden zwei unterschiedliche Methoden angewendet und miteinander verglichen. Dabei erzielten sowohl die medikamentöse Behandlung der Tiere mit dem Calcineurininhibitor Cyclosporin A, als auch die CD3-Depletion der Leukämie vor der Transplantation ein T-Zell-freies Wachstum in den Mäusen, letzteres erwies sich jedoch als das schonendere Verfahren. In den T-Zell-freien Tieren konnte bei dem Großteil der Tiere kein Engraftment im Knochenmark festgestellt werden, was auf einen positiven Einfluss der humanen T-Lymphozyten beim Vorgang des Engraftments schließen lässt.rn