255 resultados para Einstellung <Psy>
Resumo:
In der vorliegenden Studie wurde überprüft, ob Broschüren, die negative Konsequenzen unzureichender Hautselbstuntersuchung (HSU) betonen (Verlustrahmung), besser geeignet sind, die Früherkennung von Hautkrebs zu fördern als Broschüren, die positive Konsequenzen bei richtig durchgeführter HSU schildern (Gewinnrahmung). Geschlecht und die Bewältigungsdispositionen Vigilanz und kognitive Vermeidung wurden als mögliche Moderatorvariablen untersucht. Nach Erfassung von Baseline- und Hintergrundvariablen lasen 180 Teilnehmer jeweils eine der Broschüren, die ihnen per Zufall zugeteilt wurde. Diese variierten in Rahmung (Gewinn/Verlust) und Bedrohungsgrad (gering/hoch), so dass vier unterschiedliche Versionen vorlagen. Rahmung und Bedrohungsgrad wirkten sich in Abhängigkeit von Vigilanz, d.h. der Disposition, bedrohungsbezogene Informationen systematisch zu verarbeiten, auf die Intention aus. Deutlicher war die Wirkung der Rahmung auf die berichtete Häufigkeit von HSU, die zwei Monate nach dem Lesen erneut erfragt worden war. In der Verlustbedingung stieg die berichtete Häufigkeit von HSU bei Personen mit hoher Vigilanz, bei Personen mit niedriger Vigilanz dagegen sank sie. In der Gewinnbedingung profitierten Personen mit niedriger Vigilanz, während Personen mit hoher Vigilanz weniger HSU berichteten als zuvor. Diese Effekte korrespondierten zwar mit Änderungen der eigenen Risikowahrnehmung, der Erinnerungsleistung und der Beschäftigung mit dem Studienthema, jedoch ließ sich für keine dieser Variablen eine vermittelnde Wirkung nachweisen. Einstellung und Anforderung von Informationsmaterialien blieben unbeeinflusst.
Resumo:
Kolloidale Suspensionen aus identischen kugelförmigen, geladenen Partikeln in wässrigen Medien stellen ein ideales Modellsystem zur Untersuchung des Gleichgewichtsverhaltens, aber auch des Nicht-Gleichgewichtsverhaltens Weicher Materie dar. So bilden derartige Systeme bei hinreichend starker und langreichweitiger elektrostatischer Repulsion fluid und kristallin geordnete Strukturen aus, die wegen der weitreichenden Analogie zu atomar kondensierter Materie als kolloidale Fluide und Kristalle bezeichnet werden. Von großem Vorteil ist dabei die Möglichkeit zur kontrollierten Einstellung der Wechselwirkung und die gute optische Zugänglichkeit für Mikroskopie und Lichtstreuung sowie die Weichheit der Materialien, aufgrund derer sich auch Zustände fernab des mechanischen Gleichgewichts gezielt präparieren lassen. Themenstellung der vorliegenden Arbeit ist die Untersuchung des Phasenverhaltens und der Fließmechanismen kolloidaler Kristalle in einer Rohrströmung. Im ersten Teil der Arbeit wird gezeigt, dass beim Fluss durch eine zylindrische Röhre Mehrphasenkoexistenz auftritt, wobei ein polykristalliner Kern von einer isotropen Scherschmelze umgeben ist. Zusätzlich treten an der Grenze zwischen diesen Phasen und an der Rohrwand Phasen hexagonal geordneter übereinander hinweggleitender Lagen auf. Der Vergleich zwischen auf der Basis der Navier-Stokes-Gleichung theoretisch berechneten und gemessenen Geschwindigkeitsprofilen zeigt, dass jede dieser Phasen für sich Newtonsches Fließverhalten aufweist. Die Gesamtviskosität ist hingegen durch die mit dem Durchsatz veränderliche Phasenzusammensetzung Nicht-Newtonsch. Damit gelang es, die erstmalig von Würth beschriebene Scherverdünnung auf eine Veränderung der Phasenzusammensetzung zurückzuführen. Im zweiten Teil der Arbeit wurde erstmals das Fließverhalten der Lagenphasen mittels Lichtstreuung und Korrelationsanalyse untersucht. Dafür wurde ein im Prinzip einfacher, aber leistungsstarker Aufbau realisiert, der es erlaubt, die zeitliche Veränderung der Bragg-Reflexe der Lagenphase in radialer und azimutaler Richtung zu verfolgen und mittels Fourieranalyse zu analysieren. In Abhängigkeit vom Durchsatz geht die zunächst rastend gleitende Lagenphase in eine frei gleitende Lagenphase über, wobei charakteristische Veränderungen der Spektren sowie der Korrelationsfunktionen auftreten, die detailliert diskutiert werden. Der Übergang im Gleitmechanismus ist mit einem Verlust der Autokorrelation der Rotationskomponente der periodischen Intra-Lagenverzerrung verbunden, während die Kompressionskomponente erhalten bleibt. Bei hohen Durchflüssen lassen die Reflexbewegungen auf das Auftreten einer Eigenschwingung der frei gleitenden Lagen schließen. Diese Schwingung lässt sich als Rotationsbewegung, gekoppelt mit einer transversalen Auslenkung in Vortexrichtung, beschreiben. Die Ergebnisse erlauben eine detaillierte Diskussion von verschiedenen Modellvorstellungen anderer Autoren.
Resumo:
In this thesis I present theoretical and experimental results concern- ing the operation and properties of a new kind of Penning trap, the planar trap. It consists of circular electrodes printed on an isolating surface, with an homogeneous magnetic field pointing perpendicular to that surface. The motivation of such geometry is to be found in the construction of an array of planar traps for quantum informa- tional purposes. The open access to radiation of this geometry, and the long coherence times expected for Penning traps, make the planar trap a good candidate for quantum computation. Several proposals for quantum 2-qubit interactions are studied and estimates for their rates are given. An expression for the electrostatic potential is presented, and its fea- tures exposed. A detailed study of the anharmonicity of the potential is given theoretically and is later demonstrated by experiment and numerical simulations, showing good agreement. Size scalability of this trap has been studied by replacing the original planar trap by a trap twice smaller in the experimental setup. This substitution shows no scale effect apart from those expected for the scaling of the parameters of the trap. A smaller lifetime for trapped electrons is seen for this smaller trap, but is clearly matched to a bigger misalignment of the trap’s surface and the magnetic field, due to its more difficult hand manipulation. I also give a hint that this trap may be of help in studying non-linear dynamics for a sextupolarly perturbed Penning trap.
Resumo:
Zwischen April und Juni 1994 wurden in dem kleinen zentralafrikanischen Land Ruanda ca. 800.000 Menschen ermordet worden. Die Mehrzahl der Opfer waren Tutsi, aber auch viele Hutu verloren ihr Leben. Nahezu jede internationale und nationale Organisation versagte im Angesicht des Ausmaßes der Tragödie. Auch die in Ruanda sehr einflussreiche katholische Kirche konnte oder wollte die Massaker nicht beenden. Einzig die in der ruandischen Geschichte bis zum Genozid immer marginalisierten Muslime verweigerten in der Mehrzahl eine Teilnahme an den Massakern. Warum es zu diesem Verhalten kam, steht als Ausgangsfrage zu Beginn der Untersuchung. Im Folgenden gliedert sich die Arbeit in drei Teile – Geschichte des Islam bis 1994, Verhalten der Muslime im Völkermord von 1994 und die Veränderungen in den zehn Jahren nach dem Genozid. Die Arbeit, welche sich auf die Ergebnisse einer zweimonatigen Feldforschung und einige ältere Arbeiten zum Thema stützt, macht deutlich, dass die Geschichte der ruandischen Muslime bis 1994 durch eine kontinuierliche Marginalisierung gekennzeichnet war. Als nach dem Völkermord das außergewöhnliche Verhalten der ruandischen Muslime langsam deutlich wurde, änderte sich bei vielen Menschen und auch bei offiziellen Stellen auch die Einstellung gegenüber Muslimen.
Resumo:
Zusammenfassung Die Integration verhaltensauffälliger Schülerinnen und Schüler stellt besondere Herausforderungen an die Kompetenz von Lehrerinnen und Lehrern. Zum einen wirkt sich die spezielle Problematik dieser Schülergruppe auf die Beziehungsgestaltung mit Peers und Lehrpersonen aus, zum anderen werden auch spezifische methodische Änderungen im Unterrichts- und Lerngeschehen notwendig, um den Anforderungen, die auffällige Schüler an die Unterrichtsgestaltung stellen, gerecht zu werden. Dabei ist die Gruppe der auffälligen Schülerinnen und Schüler selbst sehr heterogen. Vor dem Hintergrund einer systemisch-konstruktivistischen Sichtweise von Auffälligkeit nähert sich diese Arbeit der Themenstellung der Integration verhaltensauffälliger Schülerinnen und Schüler und legt dar, dass hier vor allem das Passungsverhältnis zwischen (auffälligem) Individuum und sämtlichen Systemen seiner Umwelt in eine Schieflage geraten ist. Auf dieser Basis wurde nach erfolgreichen Modellen der Integration verhaltensauffälliger Schülerinnen und Schüler gesucht, wobei dem immer wiederkehrenden Verweis auf den hilfreichen Beitrag der Freinet-Pädagogik hierbei mit einer eigenen empirischen Studie nachgegangen wurde. An zwei Freinet-Schulen in Deutschland wurde mit Hilfe von teilnehmender Beobachtung, Interviews und Gruppendiskussion die Lehrersichtweise fördernder und hemmender Bedingungen des Integrationsgeschehens erhoben und analysiert. Dabei trat vor allem eine spezifische Haltung der Freinet-Lehrerinnen und Lehrer gegenüber den in der Literatur immer wieder als besonders schwierig dargestellten auffälligen Schülerinnen und Schülern zutage. Diese Einstellung besteht vor allem in der kompetenzorientierten Sicht der auffälligen Schülerinnen und Schüler, die ihre Stärken unterstützt. Auf dieser Basis wird durch viele pädagogische, beraterische und therapeutische Angebote bei den Prozessen, die noch nicht gelingen, angesetzt. Diese Haltung, die sich auch in entsprechenden Rahmenbedingungen ausdrückt (z.B. in Gremien, die die Partizipation der Kinder gewährleisten, oder in auf das Individuum abgestimmten Arbeitstechniken), wurde zusammen mit den Rahmenbedingungen als „Kernkategorie“ Schulkultur im Sinne der Grounded Theory gefasst. Indem die Lehrerinnen und Lehrer an beiden Schulen zuerst die besonderen Begabungen aller ihrer Schülerinnen und Schüler sahen und die auffälligen nicht als spezielle Gruppe heraushoben (die zudem nicht als immer störend oder „schwierig“ klassifiziert wurden), trugen sie nicht nur entscheidend zur gelingenden Integration dieser konkreten Schülerinnen und Schüler bei, sondern stellen auch ein Beispiel für die Erweiterung der pädagogischen Professionalität von Lehrern dar. Die anfängliche enge Fragestellung auf das Integrationsgeschehen von auffälligen Schülerinnen und Schülern konnte durch den Bezug zur Schulkultur und zum schulkulturellen Passungsverhältnis der Schüler erweitert werden. Die vorliegende Arbeit gibt so nicht nur Aufschluss über die Integrationspraxis an Freinet-Schulen, sondern auch über die verschiedenen Dimensionen ihrer jeweiligen Schulkultur.
Resumo:
The optical resonances of metallic nanoparticles placed at nanometer distances from a metal plane were investigated. At certain wavelengths, these “sphere-on-plane” systems become resonant with the incident electromagnetic field and huge enhancements of the field are predicted localized in the small gaps created between the nanoparticle and the plane. An experimental architecture to fabricate sphere-on-plane systems was successfully achieved in which in addition to the commonly used alkanethiols, polyphenylene dendrimers were used as molecular spacers to separate the metallic nanoparticles from the metal planes. They allow for a defined nanoparticle-plane separation and some often are functionalized with a chromophore core which is therefore positioned exactly in the gap. The metal planes used in the system architecture consisted of evaporated thin films of gold or silver. Evaporated gold or silver films have a smooth interface with their substrate and a rougher top surface. To investigate the influence of surface roughness on the optical response of such a film, two gold films were prepared with a smooth and a rough side which were as similar as possible. Surface plasmons were excited in Kretschmann configuration both on the rough and on the smooth side. Their reflectivity could be well modeled by a single gold film for each individual measurement. The film has to be modeled as two layers with significantly different optical constants. The smooth side, although polycrystalline, had an optical response that was very similar to a monocrystalline surface while for the rough side the standard response of evaporated gold is retrieved. For investigations on thin non-absorbing dielectric films though, this heterogeneity introduces only a negligible error. To determine the resonant wavelength of the sphere-on-plane systems a strategy was developed which is based on multi-wavelength surface plasmon spectroscopy experiments in Kretschmann-configuration. The resonant behavior of the system lead to characteristic changes in the surface plasmon dispersion. A quantitative analysis was performed by calculating the polarisability per unit area /A treating the sphere-on-plane systems as an effective layer. This approach completely avoids the ambiguity in the determination of thickness and optical response of thin films in surface plasmon spectroscopy. Equal area densities of polarisable units yielded identical response irrespective of the thickness of the layer they are distributed in. The parameter range where the evaluation of surface plasmon data in terms of /A is applicable was determined for a typical experimental situation. It was shown that this analysis yields reasonable quantitative agreement with a simple theoretical model of the sphere-on-plane resonators and reproduces the results from standard extinction experiments having a higher information content and significantly increased signal-to-noise ratio. With the objective to acquire a better quantitative understanding of the dependence of the resonance wavelength on the geometry of the sphere-on-plane systems, different systems were fabricated in which the gold nanoparticle size, type of spacer and ambient medium were varied and the resonance wavelength of the system was determined. The gold nanoparticle radius was varied in the range from 10 nm to 80 nm. It could be shown that the polyphenylene dendrimers can be used as molecular spacers to fabricate systems which support gap resonances. The resonance wavelength of the systems could be tuned in the optical region between 550 nm and 800 nm. Based on a simple analytical model, a quantitative analysis was developed to relate the systems’ geometry with the resonant wavelength and surprisingly good agreement of this simple model with the experiment without any adjustable parameters was found. The key feature ascribed to sphere-on-plane systems is a very large electromagnetic field localized in volumes in the nanometer range. Experiments towards a quantitative understanding of the field enhancements taking place in the gap of the sphere-on-plane systems were done by monitoring the increase in fluorescence of a metal-supported monolayer of a dye-loaded dendrimer upon decoration of the surface with nanoparticles. The metal used (gold and silver), the colloid mean size and the surface roughness were varied. Large silver crystallites on evaporated silver surfaces lead to the most pronounced fluorescence enhancements in the order of 104. They constitute a very promising sample architecture for the study of field enhancements.
Resumo:
The lattice Boltzmann method is a popular approach for simulating hydrodynamic interactions in soft matter and complex fluids. The solvent is represented on a discrete lattice whose nodes are populated by particle distributions that propagate on the discrete links between the nodes and undergo local collisions. On large length and time scales, the microdynamics leads to a hydrodynamic flow field that satisfies the Navier-Stokes equation. In this thesis, several extensions to the lattice Boltzmann method are developed. In complex fluids, for example suspensions, Brownian motion of the solutes is of paramount importance. However, it can not be simulated with the original lattice Boltzmann method because the dynamics is completely deterministic. It is possible, though, to introduce thermal fluctuations in order to reproduce the equations of fluctuating hydrodynamics. In this work, a generalized lattice gas model is used to systematically derive the fluctuating lattice Boltzmann equation from statistical mechanics principles. The stochastic part of the dynamics is interpreted as a Monte Carlo process, which is then required to satisfy the condition of detailed balance. This leads to an expression for the thermal fluctuations which implies that it is essential to thermalize all degrees of freedom of the system, including the kinetic modes. The new formalism guarantees that the fluctuating lattice Boltzmann equation is simultaneously consistent with both fluctuating hydrodynamics and statistical mechanics. This establishes a foundation for future extensions, such as the treatment of multi-phase and thermal flows. An important range of applications for the lattice Boltzmann method is formed by microfluidics. Fostered by the "lab-on-a-chip" paradigm, there is an increasing need for computer simulations which are able to complement the achievements of theory and experiment. Microfluidic systems are characterized by a large surface-to-volume ratio and, therefore, boundary conditions are of special relevance. On the microscale, the standard no-slip boundary condition used in hydrodynamics has to be replaced by a slip boundary condition. In this work, a boundary condition for lattice Boltzmann is constructed that allows the slip length to be tuned by a single model parameter. Furthermore, a conceptually new approach for constructing boundary conditions is explored, where the reduced symmetry at the boundary is explicitly incorporated into the lattice model. The lattice Boltzmann method is systematically extended to the reduced symmetry model. In the case of a Poiseuille flow in a plane channel, it is shown that a special choice of the collision operator is required to reproduce the correct flow profile. This systematic approach sheds light on the consequences of the reduced symmetry at the boundary and leads to a deeper understanding of boundary conditions in the lattice Boltzmann method. This can help to develop improved boundary conditions that lead to more accurate simulation results.
Resumo:
In den konsultativen Referenden von 1972 und 1994 stimmte eine knappe Mehrheit der norwegischen Wählerschaft gegen einen Beitritt in die europäische Staatengemeinschaft. Regierung und Parlament zogen daraufhin ihr Aufnahmegesuch zurück. Ein erneuter Antrag auf Mitgliedschaft in der EU wird seither vermieden, da sich die Parteien des Konfliktpotenzials bewusst sind. Von der politischen Agenda ist diese Streitfrage jedoch nicht verschwunden. Die vorliegende Magisterarbeit greift den gängigen Erklärungsansatz der politikwissenschaftlichen Forschung auf: Das Scheitern der Referenden ist demnach auf die Aktualisierung traditioneller politischer Konfliktlinien zurückzuführen. Inwieweit diese Cleavages die Einstellungen norwegischer Staatsbürger zur Europäischen Integration bestimmen, wird anhand eines komplexen Konfliktlinienmodells und mittels aktueller Daten untersucht. Aufbauend auf dem klassischen Cleavage-Konzept von Seymour Lipset und Stein Rokkan (Zentrum/Peripherie, Staat/Kirche, Stadt/Land, Kapital/Arbeit), findet eine Konkretisierung von Stefano Bartolini und Peter Mair Anwendung, die jede der vier Konfliktlinien als dreidimensional (empirisch, normativ und organisatorisch) begreift. In einem historischen Überblick zeigt sich die Relevanz der tradierten Konfliktlinien für Norwegen, die sich sowohl im nationalen Parteiensystem als auch in den Standpunkten der Parteien zu einem EU-Beitritt widerspiegeln. Datengrundlage für die folgenden empirischen Analysen (Kreuztabellen, Mittelwert- und Korrelationsvergleiche, multiple lineare Regressionen) stellt die norwegische Teilstudie der zweiten Welle des European Social Survey von 2004/2005 dar. Europäische Integration wird von den meisten norwegischen Staatsbürgern, die sich empirisch, normativ und organisatorisch auf den Konfliktlinienpolen Peripherie, Kirche, Land oder Arbeit verorten lassen, negativ bewertet. Im Gegensatz dazu geht die recht häufig vertretene Kombination der empirischen Konfliktlinienpole Zentrum-Staat-Stadt-Kapital mit einer überdurchschnittlich positiven Einstellung einher. Insgesamt erweist sich der Zusammenhang mit der Zentrum/Peripherie-Konfliktlinie als am höchsten.
Resumo:
Während Therapeutisches Drug Monitoring (TDM) im klinischen Alltag der stationären Behandlung in der Psychiatrie bereits fest etabliert ist, kommt es in der ambulanten Betreuung von psychisch Kranken bislang noch selten zum Einsatz. Ziel dieser Arbeit war es zu klären, wie TDM im ambulanten Bereich eingesetzt wird, wann seine Anwendung sinnvoll ist und ob es Hinweise gibt, dass TDM zu einer besseren Psychopharmakotherapie beitragen kann. rnEine Grundvoraussetzung für den Einsatz von TDM ist die Messbarkeit des Arzneistoffes. Am Beispiel des Antipsychotikums Flupentixol wurde eine Quantifizierungsmethode entwickelt, validiert und in die Laborroutine integriert. Die neue Methode erfüllte alle nach Richtlinien vorgegebenen Anforderungen für quantitative Laboruntersuchungen. Die Anwendbarkeit in der Laborroutine wurde anhand von Untersuchungen an Patienten gezeigt. rnEine weitere Voraussetzung für eine TDM-geleitete Dosisanpassung ist die Kenntnis des therapeutischen Referenzbereiches. In dieser Arbeit wurde exemplarisch ein Referenzbereich für das Antipsychotikum Quetiapin ermittelt. Die Untersuchung verglich darüber hinaus die neu eingeführten Arzneiformulierung Quetiapin retard mit schnell freisetzendem Quetiapin. Es zeigte sich, dass die therapiebegleitenden Blutspiegelkontrollen beider Formulierungen mit der Einstellung des Blutspiegels auf den therapeutischen Bereich von 100 - 500 ng/ml die Wahrscheinlichkeit des Therapieansprechens erhöhen. Bei den verschiedenen Formulierungen musste unbedingt auf den Zeitpunkt der Blutentnahmen nach Einnahme geachtet werden.rnEs wurde eine multizentrische Querschnittsuntersuchung zur Analyse von TDM unter naturalistischen Bedingungen an ambulanten Patienten durchgeführt, und zwar in Ambulanzen, in denen TDM als fester Bestandteil der Therapieüberwachung genutzt wurde und in Ambulanzen, in denen TDM sporadisch engesetzt, bzw. neu eingeführt wurde. Nach dieser Erhebung schien die Anwendung von TDM zu einer besseren Versorgung der Patienten beizutragen. Es wurde festgestellt, dass in den Ambulanzen mit bewusster Anwendung von TDM mehr Patienten mit Blutspiegeln im therapeutischen Bereich vorkamen als in den Ambulanzen mit nur sporadisch durchgeführten Blutspiegelmessungen. Bei Letzteren betrug die mittlere Anzahl an Medikamenten pro Patient 2,8 gegenüber 2,2 in den anderen Ambulanzen, was mit höheren Nebenwirkungsraten einherging. Die Schlussfolgerung, dass das Einstellen der Blutspiegel auf den therapeutischen Bereich auch tatsächlich zu besseren Therapieeffekten führte, konnte mit der Studie nicht valide überprüft werden, da die Psychopathologie nicht adäquat abgebildet werden konnte. Eine weitere Erkenntnis war, dass das reine Messen des Blutspiegels nicht zu einer Verbesserung der Therapie führte. Eine Verbesserung der Anwendung von TDM durch die Behandler wurde nach einer Schulung festgestellt, die das Ziel hatte, die Interpretation der Blutspiegelbefunde im Kontext mit patienten- und substanzspezifischen Informationen zu verbessern. Basierend auf dieser Erfahrung wurden Arzneistoffdatenblätter für die häufigsten angewandten Antipsychotika und Antidepressiva entwickelt, um damit die ambulanten Ärzte für eine eigenständige Befundinterpretation zu unterstützen. rnEin weiterer Schwerpunkt der Untersuchungen an ambulanten Patienten war die Aufdeckung von Non-Compliance durch TDM. Ein neu entwickeltes Verfahren, durch Berechnung der Streuung der mittleren Blutspiegel, erwies sich als geeignetes Instrument zur Compliance-Kontrolle in der Clozapin-Langzeittherapie. Es war etablierten anderen Verfahren überlegen. Demnach hatten Patienten ein erhöhtes Rückfallrisiko, wenn der Variationskoeffizient von nur drei nacheinander gemessenen Blutspiegeln größer als 20 % war. Da für die Beurteilung des Variationskoeffizienten das Messen von nur drei aufeinander folgenden Blutspiegeln notwendig war, kann diese Methode leicht in den ambulanten Alltag integriert werden. Der behandelnde Arzt hat so die Möglichkeit, einen rückfallgefährdeten Patienten noch vor seiner psychopathologischen Verschlechterung zu erkennen und ihn beispielsweise durch engmaschigeres Supervidieren vor einem Rückfall zu bewahren.rnAlles in allem konnte durch die eigenen Untersuchungen an psychiatrischen Patienten, die unter naturalistischen Bedingungen behandelt wurden, gezeigt werden, wie die Voraussetzungen für die Anwendung von TDM geschaffen werden, nämlich durch die Etablierung und Validierung einer Messmethode und durch die Evaluierung eines therapeutischen Referenzbereiches und wie TDM bei adäquatem Einsatz, nach Verbesserung der Compliance und des Kenntnisstandes der behandelnden Ärzte im praktischen und theoretischen Umgang mit TDM, die Versorgung ambulanter psychiatrischer Patienten unterstützen kann.
Resumo:
Therapeutisches Drug Monitoring (TDM) findet Anwendung in der Therapie mit Immunosuppressiva, Antibiotika, antiretroviraler Medikation, Antikonvulsiva, Antidepressiva und auch Antipsychotika, um die Effizienz zu steigern und das Risiko von Intoxikationen zu reduzieren. Jedoch ist die Anwendung von TDM für Substanzen, die Einsatz finden in der Rückfallprophylaxe, der Substitution oder dem Entzug von Abhängigkeitserkrankungen nicht etabliert. Für diese Arbeit wurde im ersten Schritt eine sensitive Rating-Skala mit 22 Items entwickelt, mit Hilfe derer der theoretische Nutzen von TDM in der Pharmakotherapie von substanzbezogenen Abhängigkeitserkrankungen auf der Basis von pharmakologischen Eigenschaften der Medikamente und von Patientencharakteristika evaluiert wurde. Die vorgenommene Einschätzung zeigte für Bupropion, Buprenorphin, Disulfiram (oder einen Metaboliten), Methadon (chirale Bestimmung wenn möglich) und Naltrexon einen potentiellen Nutzen von TDM.rnFür die meisten Medikamente, die zur Behandlung von Abhängigkeitserkrankungen zugelassen sind, fehlen valide Messverfahren für TDM. Im Alltag werden überwiegend Drogen Screening-Tests in Form immunologischer Schnelltests angewendet. Für die Anwendung von TDM wurden in dieser Arbeit chromatographische Verfahren für die Bestimmung von Naltrexon und 6β-Naltrexol, Bupropion und Hydroxybupropion sowie R,S-Methadon und R,S-2-Ethyliden-1,5-dimethyl-3,3-diphenylpyrrolidin entwickelt, optimiert und validiert. Es handelt sich dabei HPLC-UV-Methoden mit Säulenschaltung sowie zur Bestimmung von Naltrexon und 6β-Naltrexol zusätzlich eine LC-MS/MS-Methode. Voraussetzung für die Interpretation der Plasmaspiegel ist im Wesentlichen die Kenntnis eines therapeutischen Bereichs. Für Naltrexon und seinen aktiven Metaboliten 6β-Naltrexol konnte eine signifikante Korrelation zwischen dem auftretenden Craving und der Summenkonzentration gefunden werden. Mittels Receiver-Operation-Characteristics-Kurven-Analyse wurde ein Schwellenwert von 16,6 ng/ml ermittelt, oberhalb dessen mit einem erhöhten Ansprechen gerechnet werden kann. Für Levomethadon wurde bezüglich der Detoxifikationsbehandlung ein Zusammenhang in der prozentualen Reduktion des Plasmaspiegels und den objektiven und subjektiven Entzugssymptomen gefunden. rnDoch nicht nur die Wirkstoffe, sondern auch das Patientenmerkmal substanzbezogene Abhängigkeit wurde charakterisiert, zum einen bezüglich pharmakokinetischer Besonderheiten, zum anderen in Hinsicht auf die Therapietreue (Adhärenz). Für Patienten mit komorbider Substanzabhängigkeit konnte eine verminderte Adhärenz unabhängig von der Hauptdiagnose gezeigt werden. Die Betrachtung des Einflusses von veränderten Leberwerten zeigt für komorbide Patienten eine hohe Korrelation mit dem Metabolisiererstatus, nicht aber für Patienten ohne Substanzabhängigkeit.rnÜbergeordnetes Ziel von TDM ist die Erhöhung der Therapiesicherheit und die Steigerung der Therapieeffizienz. Dies ist jedoch nur möglich, wenn TDM im klinischen Alltag integriert ist und korrekt eingesetzt wird. Obwohl es klare Evidenz für TDM von psychiatrischer Medikation gibt, ist die Diskrepanz zwischen Laborempfehlung und der klinischen Umsetzung hoch. Durch Intensivierung der interdisziplinären Zusammenarbeit zwischen Ärzten und Labor, der Entwicklung von interaktivem TDM (iTDM), konnte die Qualität der Anwendung von TDM verbessert und das Risiko von unerwünschten Arzneimittelwirkungen vermindert werden. rnInsgesamt konnte durch die eigenen Untersuchungen gezeigt werden, dass TDM für die medikamentöse Einstellung von Patienten mit Abhängigkeitserkrankung sinnvoll ist und dass optimales TDM eine interdisziplinäre Zusammenarbeit erfordert.rn
Resumo:
Functional and smart materials have gained large scientific and practical interest in current research and development. The Heusler alloys form an important class of functional materials used in spintronics, thermoelectrics, and for shape memory alloy applications. An important aspect of functional materials is the adaptability of their physical properties. In this work functional polycrystalline bulk and epitaxial thin film Heusler alloys are characterized by means of spectroscopic investigation methods, X-ray magnetic circular dichroism (XMCD) and energy dispersive X-ray analysis (EDX). With EDX the homogeneity of the samples is studied extensively. For some cases of quaternary compounds, for example Co2(MnxTi1−x)Sn and Co2(Mn0.5Dy0.5)Sn, an interesting phase separation in two nearly pure ternary Heusler phases occurs. For these samples the phase separation leads to an improvement of thermoelectric properties. XMCD as the main investigation method was used to study Co2TiZ (Z = Si, Sn, and Sb), Co2(MnxTi1−x)Si, Co2(MnxTi1−x)Ge, Co2Mn(Ga1−xGex), Co2FeAl, Mn2VAl, and Ni2MnGa Heusler compounds. The element-specific magnetic moments are calculated. Also, the spin-resolved unoccupied density of states is determined, for example giving hints for half-metallic ferromagnetism for some Co-based compounds. The systematic change of the magnetic moments and the shift of the Fermi energy is a proof that Heusler alloys are suitable for a controlled tailoring of physical properties. The comparison of the experimental results with theoretical predictions improves the understanding of complex materials needed to optimize functional Heusler alloys.
Resumo:
In Deutschland wird zur oralen Vitamin-K-Antagonistentherapie überwiegend der Wirkstoff Phenprocoumon (PPC) eingesetzt und die meisten Patienten werden durch ihren Hausarzt betreut. In einer deskriptiven, nicht-interventionellen Studie wurde die Ist-Situation der Versorgung von PPC-Patienten im ambulanten Sektor untersucht. Ziel war es, die Qualität und Effektivität der bisherigen Standardtherapie zu evaluieren. In Anbetracht der Einführung der neuen oralen Antikoagulantien (NOAC) ist die Untersuchung der PPC-Therapie von besonderem Interesse. Dem „Throughput-Modell“ folgend sollten „Input“- und „Outcome“-Parameter analysiert werden. rnIn einer klinischen Studie wurden 50 ambulant behandelte Patienten mit PPC-Therapie jeweils über einen Zeitraum von 3 Jahren retrospektiv beobachtet. In 5 niedergelassenen Arztpraxen in Rheinland-Pfalz wurden dazu 10 Patienten pro Praxis rekrutiert. Anhand der Patientenakte wurde eine Dokumentenanalyse durchgeführt. Die Selbstmedikation wurde mit einem eigens erstellten Fragebogen erfasst. rnIm Studienkollektiv wurden im Median 3 Comorbiditäten ermittelt. Die mediane Wochendosis betrug 4,0 Tabletten à 3 mg PPC. Die Patienten wurden im Median mit weiteren 15 verschiedenen Wirkstoffen therapiert, einer davon wurde in Selbstmedikation eingenommen. Im gesamten Beobachtungszeitraum fanden pro Patient im Median 57 Arztbesuche statt, die durch die Phenprocoumon-Therapie bedingt waren. INR (International normalized ratio)-Messungen (Median 47) waren der häufigste Grund für die Arztbesuche, so dass ein 3-Wochen-Rhythmus vom Gesamtkollektiv zu 97% erreicht wurde. Die „stabile“ INR-Einstellung wurde im Median nach 94 Tagen erreicht. Die prozentuale Rate (INR (%)) für die Einhaltung des INR-Zielbereiches (ZSB) erreichte internationale Benchmark-Werte, was auf eine gute Versorgungsqualität hindeutete. Die genauere Analyse ergab jedoch große interindividuelle Schwankungen. Während der „stabilen“ INR-Einstellung wurden bessere Ergebnisse als im Gesamtbeobachtungszeitraum erzielt. Drei Patienten (6%) erreichten die „stabile“ INR-Einstellung innerhalb von 3 Jahren nie. Die Auswertung für den erweiterten ZSB (ZSB ± 0,2) ergab bessere INR (%)-Ergebnisse als für den ZSB. Die Zeit im INR-ZSB (TTR (%)) erreichte mit 75% höhere Werte als INR (%) im ZSB mit 70%. Tendenziell war das Patientenkollektiv eher unter- als übertherapiert (Median „Under-INR“ 18% bzw. „Over-INR“ 8%). Erkrankungen und Impfungen stellten die wichtigsten der zahlreichen Einflussfaktoren für INR-Shifts hin zu Werten außerhalb des ZSB dar. Patienten, die Comedikation mit hohem Interaktionspotential einnahmen, erreichten in den INR-Qualitätsindikatoren schlechtere Ergebnisse als Patienten ohne potentiell interagierende Comedikation (Mann-Whitney-U-Test; p-Wert=0,003 für TTR (%), p=0,008 für INR (%)). In Zeitintervallen der „stabilen“ INR-Einstellung war der Unterschied nur für TTR (%) auffällig (Mann-Whitney-U-Test; p=0,015). Für den erweiterten ZSB waren die Unterschiede bezüglich beider INR-Qualitätsindikatoren nicht auffällig. Insgesamt wurden 41 unerwünschte Ereignisse (UAW) beobachtet, davon 24 (59%) in der Phase der „stabilen“ INR-Einstellung (21 leichte Blutungen, 1 schwere Blutung, 2 thromboembolische Ereignisse (TE)). Je 4 leichte Blutungen (19%) wurden in einen möglichen bzw. sicheren kausalen Zusammenhang mit der VKA-Therapie gebracht, wenn ein Zeitintervall von 3 Tagen zwischen der INR-Messung und Auftreten der UAW geprüft wurde. Ein TE wurde als sicher kausal gewertet. Von insgesamt 5 Krankenhausaufenthalten waren 3 bzw. 2 durch Blutungen bzw. TE veranlasst. Des Weiteren wurde im 3-Tage-Zeitintervall für 4 INR-Shifts hin zu Werten außerhalb des ZSB eine Interaktion mit verordneter CM als in sicherem oder möglichem kausalen Zusammenhang bewertet. Bei 49% der beobachteten Grippeimpfungen wurde ein INR-Shift festgestellt, der in ca. 60% der Fälle zu einem subtherapeutischen INR-Wert führte. Insgesamt war das klinische Ergebnis nicht optimal. rnDas „Outcome“ in Form der gesundheitsbezogenen Lebensqualität (LQ) wurde retrospektiv-prospektiv mittels SF-36-Fragebogen ermittelt. Die Patienten zeigten gegenüber der Normalbevölkerung einen Verlust an LQ auf körperlicher Ebene bzw. einen Gewinn auf psychischer Ebene. Das humanistische Ergebnis erfüllte bzw. übertraf damit die Erwartungen. rnInsgesamt wiesen die Ergebnisse darauf hin, dass Qualität und Effektivität der Antikoagulationstherapie mit PPC im ambulanten Sektor weiterer Optimierung bedürfen. Mit intensivierten Betreuungsmodellen lässt sich ein besseres Outcome erzielen. rn
Resumo:
In dieser Arbeit wird die Synthese von Polymerkolloiden mit unterschiedlichen Formen und Funktionalitäten sowie deren Verwendung zur Herstellung kolloidaler Überstrukturen beschrieben. Über emulgatorfreie Emulsionspolymerisation (SFEP) erzeugte monodisperse sphärische Kolloide dienen als Bausteine von Polymeropalen, die durch die Selbstorganisation dieser Kolloide über vertikale Kristallisation (mit Hilfe einer Ziehmaschine) oder horizontale Kristallisation (durch Aufschleudern oder Aufpipettieren) entstehen. Durch die Kontrolle der Kugelgröße über die Parameter der Emulsionspolymerisation sowie die Einstellung der Schichtdicke der Kolloidkristalle über die Anpassung der Kristallisationsparameter ist die Erzeugung von qualitativ hochwertigen Opalen mit definierter Reflektionswellenlänge möglich. Darüber hinaus kann die chemische und thermische Beständigkeit der Opale durch den Einbau von Vernetzern oder vernetzbaren Gruppen in die Polymere erhöht werden. Die Opalfilme können als wellenlängenselektive Reflektoren in auf Fluoreszenzkonzentratoren basierenden Solarzellensystemen eingesetzt werden, um Lichtverluste in diesen Systemen zu reduzieren. Sie können auch als Template für die Herstellung invertierter Opale aus verschiedenen anorganischen Oxiden (TiO2, Al2O3, ZnO) dienen. Über einen CVD-Prozess erzeugte ZnO-Replika besitzen dabei den Vorteil, dass sie nicht nur eine hohe optische Qualität sondern auch eine elektrische Leitfähigkeit aufweisen. Dies ermöglicht sowohl deren Einsatz als Zwischenreflektor in Tandemsolarzellen als auch die Herstellung hierarchischer Strukturen über die Elektroabscheidung von Nanokristallen. In einem weiteren Teil der Arbeit wird die Herstellung funktioneller formanisotroper Partikel behandelt. Durch die Entmischung von mit Monomer gequollenen vernetzten Partikeln in einer Saatpolymerisation sind mehrere Mikrometer große Kolloide zugänglich, die aus zwei interpenetrierenden Halbkugeln aus gleichen oder verschiedenen Polymeren bestehen. Dadurch sind unter anderem Glycidyl-, Alkin- und Carbonsäuregruppen in die eine oder die andere Halbkugel integrierbar. Diese funktionellen Gruppen erlauben die Markierung bestimmter Partikelhälften mit Farbstoffen, die Beschichtung von Partikelbereichen mit anorganischen Oxiden wie SiO2 sowie die Erzeugung amphiphiler formanisotroper Partikel, die sich an Grenzflächen ausrichten lassen. Das Synthesekonzept kann - ausgehend von mittels SFEP erzeugten stark vernetzten PMMA-Partikeln - auch auf kleine Kolloide mit Größen von mehreren hundert Nanometern übertragen werden.
Resumo:
Das Hauptziel der Arbeit ist es, die Beziehung zwischen Fontaine Modulen und F-T-Kristall zu studieren. Im ersten Kapitel wird die Definition von Fontaine Modulen, die auf die inversen Cartier Transform setzt erinnern wir von Ogus und Vologodsky errichtet. Neben der Erinnerung an die urspruengliche Konstruktion des inversen Cartier Transform, eine direktere Konstruktion, die wir auch vorstellen von G.T. Lan, M. Sheng und K. Zuo. Darueber hinaus beweisen wir diernGleichwertigkeit der beiden Konstruktion.rnrnrnIm zweiten Kapitel werden wir uns daran erinnern, den Konstruktion von inversen Cartier Transform in der Log Einstellung von D. Schepler und verallgemeinern die Lan-Sheng-Zuo Konstruktion an dieser Einstellung. Darueber hinaus geben wir eine Definition von Log FontainernModulen. Im dritten Kapitel werden wir erinnern an die Definition von F-T-Kristall und beweisen das wichtigste Ergebnis dieser Arbeit: Sei $Y$ eine glatte $S_{nu}$-Schema, wobei $S_{nu}$ ist eine flache $W_{nu+1}(k)$-Schema, $nugeq1$, und $X/S_0$ seine Reduction modulo $p$ sein. Bei einem F-T-Kristall $(E,Phi,B)$ auf $Y$ der Breite von weniger als $p$ und let $(E_Y ,B_Y ,nabla_Y)$ die entsprechende gefilterte $O_Y$-modulen mit einer integrierbar Zusammenhang ausgestattet. Anschliesend wird die Reduktion dieses Objekt modulo $p$ definiert eine Fontaine Modulen auf $X/S_0$ im dem Sinnernder Ogus und Vologodsky.
Resumo:
Polymerbasierte Kolloide mit Groen im Nanometerbereich werden als aussichts- reiche Kandidaten fur die Verkapselung und den Transport von pharmazeutischen Wirkstoen angesehen. Daher ist es wichtig die physikalischen Prozesse, die die Bil- dung, Struktur und kinetische Stabilitat der polymerbasierten Kolloide beein ussen, besser zu verstehen. Allerdings ist die Untersuchung dieser Prozesse fur nanome- tergroe Objekte kompliziert und erfordert fortgeschrittene Techniken. In dieser Arbeit beschreibe ich Untersuchungen, bei denen Zwei-Farben-Fluoreszenzkreuz- korrelationsspektroskopie (DC FCCS) genutzt wurde, um Informationen uber die Wechselwirkung und den Austausch von dispergierten, nanometergroen Kolloiden zu bekommen. Zunachst habe ich den Prozess der Polymernanopartikelherstellung aus Emul- sionstropfen untersucht, welcher einen der am haugsten angewendeten Prozesse der Nanopartikelformulierung darstellt. Ich konnte zeigen, dass mit DC FCCS eindeutig und direkt Koaleszenz zwischen Emulsionstropfen gemessen werden kann. Dies ist von Interesse, da Koaleszenz als Hauptgrund fur die breite Groenverteilung der nalen Nanopartikel angesehen wird. Weiterhin habe ich den Austausch von Mizellen bildenden Molekulen zwischen amphiphilen Diblock Kopolymermizellen untersucht. Als Modellsystem diente ein Linear-Burste Block Kopolymer, welches Mizellen mit einer dichten und kurzen Korona bildet. Mit Hilfe von DC FCCS konnte der Austausch in verschiedenen Losungsmitteln und bei verschiedenen Temperaturen beobachtet werden. Ich habe herausgefunden, dass in Abhangigkeit der Qualitat des Losungsmittels die Zeit des Austausches um Groenordnungen verschoben werden kann, was eine weitreichende Einstellung der Austauschkinetik ermoglicht. Eine Eigenschaft die all diese Kolloide gemeinsam haben ist ihre Polydispersitat. Im letzten Teil meiner Arbeit habe ich am Beispiel von Polymeren als Modellsystem untersucht, welchen Eekt Polydispersitat und die Art der Fluoreszenzmarkierung auf FCS Experimente haben. Eine Anpassung des klassischen FCS Modells kann die FCS Korrelationskurven dieser Systeme beschreiben. Die Richtigkeit meines Ansatzes habe ich mit dem Vergleich zur Gel-Permeations-Chromatographie und Brownschen Molekulardynamiksimulationen bestatigt.