468 resultados para Helizitätsmethode, Subtraktionsmethode, Numerische Methoden
Resumo:
Summary PhD Thesis Jan Pollmann: This thesis focuses on global scale measurements of light reactive non-methane hydrocarbon (NMHC), in the volatility range from ethane to toluene with a special focus on ethane, propane, isobutane, butane, isopentane and pentane. Even though they only occur at the ppt level (nmol mol-1) in the remote troposphere these species can yield insight into key atmospheric processes. An analytical method was developed and subsequently evaluated to analyze NMHC from the NOAA – ERSL cooperative air sampling network. Potential analytical interferences through other atmospheric trace gases (water vapor and ozone) were carefully examined. The analytical parameters accuracy and precision were analyzed in detail. It was proven that more than 90% of the data points meet the Global Atmospheric Watch (GAW) data quality objective. Trace gas measurements from 28 measurement stations were used to derive the global atmospheric distribution profile for 4 NMHC (ethane, propane, isobutane, butane). A close comparison of the derived ethane data with previously published reports showed that northern hemispheric ethane background mixing ratio declined by approximately 30% since 1990. No such change was observed for southern hemispheric ethane. The NMHC data and trace gas data supplied by NOAA ESRL were used to estimate local diurnal averaged hydroxyl radical (OH) mixing ratios by variability analysis. Comparison of the variability derived OH with directly measured OH and modeled OH mixing ratios were found in good agreement outside the tropics. Tropical OH was on average two times higher than predicted by the model. Variability analysis was used to assess the effect of chlorine radicals on atmospheric oxidation chemistry. It was found that Cl is probably not of significant relevance on a global scale.
Resumo:
Mit etwa 350 Millionen chronisch-infizierten Menschen gehört die Hepatitis-B neben der Tuberkulose und AIDS zu den häufigsten Infektionskrankheiten der Welt. Der einzig sichere Schutz vor dem bis zur Leberzirrhose persistierenden Virus bietet eine vorbeugende Impfung. Eine angemessene Therapie chronisch-erkrankter Patienten ist durch die Unkenntnis über viele Bereiche des HBV-Lebenszyklus nur eingeschränkt möglich. Gegenstand dieser Arbeit war vor allem etwas Licht in das Wechselspiel zwischen HBV und der Wirtszelle zu bringen und zelluläre Komponenten und Mechanismen zu identifizieren, die am Sortierungs- und Transportmechanismus viraler Substrukturen zur sogenannten Assembly-Plattform beteiligt sind, um dort die Freisetzung des Virus zu initiieren. Mit der vorliegenden Arbeit habe ich Methoden der Zellbiologie, Mikrobiologie, Molekularbiologie und Virologie vereint, um neue Einblicke in den HBV-Lebenszyklus zu gewinnen. Für die Ausschleusung von HBV wird seither der konstitutive Weg der Sekretion angenommen. In Anlehnung an den Mechanismus umhüllter RNA-Viren kann die Hypothese aufgestellt werden, dass das MVB (Multivesicular Body) im Prozess der HBV-Freisetzung beteiligt sein könnte. Die Freisetzung des Hepatitis-B-Virus aus einer infizierten Zelle ist ein streng organisierter Prozess, der sowohl das HBV-Coreprotein als auch die HBV-Hüllproteine zu benötigen scheint. (max. 5.000 Zeichen)Inhaltszusammenfassung in einer weiteren Sprache deutschenglischfranzösischrussischmehrsprachigsonst.Ausgangspunkt der Arbeit war eine spezifische Interaktion des großen HBV-Hüllproteins (L) mit einem neuen Mitglied der Adaptor-Protein-Komplex-Familie (AP-Komplex), dem g2?Adaptin (Hartmann-Stühler und Prange, 2001), das mutmaßlich an endosomalen Sortierungs- und Transportprozessen beteiligt ist. In Analogie zur Funktionsweise von Adaptin-Molekülen wurde vom g2-Adaptin eine Rolle in der Initiation und Steuerung der Sprossung und Freisetzung von HBV vermutet. Die im Rahmen dieser Arbeit erweiterte Charakterisierung der g2/L-Interaktion zeigte zum einen, dass die Ohrdomäne des Adaptins für die Interaktion essentiell ist und zum anderen, dass die Rekrutierung des Adaptins durch das L-Protein zu cis-Golgi-Strukturen innerhalb kleiner Transportvesikel entlang des Nukleus (perinukleär) erfolgt. Erste Ergebnisse dieser Arbeit deuteten bereits an, dass das virale Coreprotein mit demselben Adaptorprotein zu interagieren vermag. Für die g2/Core-Interaktion erwies sich in Folgearbeiten die Kopfregion des g2-Adaptins als die entscheidende Bindungsdomäne (Rost et al., 2006). Sowohl eine funktionelle Inaktivierung des g2-Adaptins durch RNA-Interferenz als auch eine g2-Adaptin- Überexpression störten die Virusmontage in späten Phasen der Morphogenese. Während ein g2-Adaptin-Überschuss die HBV-Produktion indirekt durch die Induktion dysfunktioneller endosomaler Kompartimente blockierte, verhinderte der siRNA-induzierte g2-Adaptin-Verlust die späte Ausschleusung des Virus aus der Zelle. Das Silencing von g2-Adaptin zeigte dabei weder einen Einfluss auf endosomale Strukturen noch auf die Freisetzung subviraler Partikel (Viren ohne Genom). Demzufolge scheinen sich die Mechanismen der Produktion von subviralen und viralen HBV-Partikeln bezüglich ihrer Anforderungen an Zellfunktionen und Transportwegen deutlich voneinander zu unterscheiden. Es konnten erste Hinweise darauf gefunden werden, dass die Virusmontage an endosomalen Kompartimenten (zum Beispiel dem MVB) erfolgen könnte, was durch bereits weitergeführte Untersuchungen bestätigt werden konnte (Lambert et al., J Virol, epub ahead of print). Darüber hinaus ist inzwischen bekannt, dass das Hepatitis-B-Virus für den Zusammenbau und die Freisetzung nicht nur das Adaptor-verwandte g2-Adaptin, sondern auch die endosomale Ubiquitin Ligase Nedd4, wahrscheinlich in Zusammenhang mit Ubiquitin selbst (Rost et al., 2006), benötigt. Eine Untersuchung dieser weiterführenden Aspekte war jedoch nicht mehr Inhalt dieser Arbeit. Insgesamt weisen die Daten darauf hin, dass die Sortierung und der Transport der Substrukturen des Hepatitis-B-Virus durch den MVB-Komplex zu erfolgen scheint. Dabei könnte das g2-Adaptin mit Hilfe einer Reihe von Kofaktoren (wie zum Beispiel Nedd4, Ubiquitin, etc.) eine entscheidende Rolle an der Sortierung und Anbindung des viralen L- und Coreproteins an die Assembly-Plattform spielen. Doch der genaue Mechanismus, welcher große Ähnlichkeit mit dem umhüllter RNA-Viren (wie zum Beispiel HIV-1) aufweist, bleibt noch ungeklärt. Ob weitere zelluläre Kofaktoren an der HBV-Sprossung und Freisetzung beteiligt sind, bleibt ebenfalls unbekannt und bedarf weiterer Untersuchungen.
Resumo:
It is lively debated how eclogites find their way from deep to mid-crustal levels during exhumation. Different exhumation models for high-pressure and ultrahigh-pressure rocks were suggested in previous studies, based mainly on field observations and less on microstructural studies on the exhumed rocks. The development and improvement of electron microscopy techniques allows it, to focus interest on direct investigations of microstructures and crystallographic properties in eclogites. In this case, it is of importance to study the applicability of crystallographic measurements on eclogites for exhumation processes and to unravel which processes affect eclogite textures. Previous studies suggested a strong relationship between deformation and lattice preferred orientation (LPO) in omphacite but it is still unclear if the deformation is related to the exhumation of eclogites. This study is focused on the questions which processes affect omphacite LPO and if textural investigations of omphacite are applicable for studying eclogite exhumation. Therefore, eclogites from two examples in the Alps and in the Caledonides were collected systematically and investigated with respect to omphacite LPO by using the electron backscattered diffraction (EBSD) technique. Omphacite textures of the Tauern Window (Austria) and the Western Gneiss Region (Norway) were studied to compare lattice preferred orientation with field observations and suggested exhumation models from previous studies. The interpretation of omphacite textures, regarding the deformation regime is mainly based on numerical simulations in previous studies. Omphacite LPO patterns of the Eclogite Zone are clearly independent from any kind of exhumation process. The textures were generated during omphacite growth on the prograde path of eclogite development until metamorphic peak conditions. Field observations in the Eclogite Zone show that kinematics in garnet mica schist, surrounding the eclogites, strongly indicate an extrusion wedge geometry. Stretching lineations show top-N thrusting at the base and a top-S normal faulting with a sinistral shear component at the top of the Eclogite Zone. The different shear sense on both sides of the unit does not affect the omphacite textures in any way. The omphacite lattice preferred orientation patterns of the Western Gneiss Region can not be connected with any exhumation model. The textures were probably generated during the metamorphic peak and reflect the change from subduction to exhumation. Eclogite Zone and Western Gneiss Region differ significantly in size and especially in metamorphic conditions. While the Eclogite Zone is characterized by constant P-T conditions (600-650°C, 20-25 kbar), the Western Gneiss Region contains a wide P-T range from high- to ultrahigh pressure conditions (400-800°C, 20-35 kbar). In contrast to this, the omphacite textures of both units are very similar. This means that omphacite LPO is independent from P-T conditions and therefore from burial depth. Further, in both units, omphacite LPO is independent from grain and subgrain size as well as from any shape preferred orientation (SPO) on grain and subgrain scale. Overall, omphacite lattice preferred orientation are generated on the prograde part of omphacite development. Therefore, textural investigations on omphacite LPO are not applicable to study eclogite exhumation.
Resumo:
Habitusbildung im Studium der Sozialpädagogik. Eine explorative Studie zur Strukturtypik studentischer Professionalisierungsprozesse Die qualitativ-empirische Studie untersucht die als studentischen und pädagogischen Habitus bezeichnete pädagogische Professionalisierung im Studium. Das zugrunde gelegte strukturtheoretische Modell einer professionalisierten sozialpädagogischen Praxis ist eine widersprüchliche Einheit von Theorie- und Fallverstehen. Schütze (1996) analysiert das im Kern paradoxale Verhältnis zwischen Professionellen und Klientel, die widersprüchliche Handlungslogik der Profession und die Konsequenzen ihrer herrschaftlicher Kontexte. In Oevermanns Skizze einer revidierten Theorie professionalisierten Handelns (1996) werden wissenschaftliches Verstehen und hermeneutisches Fallverstehen zur Grundlage des professionalisierten Handelns. Von besonderer Bedeutung ist Oevermanns Konzeption der stellvertretenden Deutung, der Deutung des latenten Sinns einer Interaktion, einer Handlung, einer latenten Sinnstrukur. Aus objektiv-hermeneutischer Sicht sind die Handlungsspielräume einer je konkreten Lebenspraxis durch Regeln gesetzt, bereits die Welt sozialer Regeln bestimmt Möglichkeiten und Folgen einer Handlung, nicht erst die Lebenspraxis. Die Kontrastierung von vier Fallrekonstruktionen mündet in der Formulierung zweier Strukturtypen. Beim Strukturtyp 1, „Scheitern der Habitusformation durch Verweigerung von Emergenz“, wird eine auf ein, maximal zwei sozialpädagogische Handlungsfelder gerichtete Berufskonzeption ausgeformt. Neue Inhalte, die sich nicht widerspruchsfrei in dieses minimalistische Konzept sozialer Praxis integrieren lassen, werden abgewehrt. Das Strukturpotential, das in dieser krisenhaften Übergangssituation angesprochen wird mit dem Anspruch, neue perzeptions- und handlungsleitende Sinnstrukturen zu bilden, stagniert in biografisch bewährten Bearbeitungsstrategien. Für die Fallstrukturgesetzlichkeit des Strukturtyps 2, „Krisenbearbeitung und Transformation biografietypischer Strukturen“, ist ein hohes Potential, in einem Prozess der Emergenz Krisen durch neue Handlungs- und Sinnstrukturen zu lösen, signifikant. Die gelingende Habitusformation vollzieht sich dort, wo diese emergenten Strukturen in die Vermitteltheit einer professionalisierten Routine überführt werden. Die Rückbindung der Strukturtypen an die Studienmodelle des „wissenschaftlich gebildeten Praktikers“ und des fallrekonstruktiven Modells fundiert die These, dass der durch die Einsozialisation in ein hermeneutisches Fallverstehen eröffnete Bildungsprozess vertiefte Kenntnisse um Lebensgesetzlichkeiten, Regelkenntnisse und eine entmystifizierte Haltung zur Theorie als einer „verwissenschaftlichten Rationalität“ vermittelt.
Resumo:
Einfluss einer Pharmazeutischen Betreuung auf den klinischen Verlauf und die Behandlungsergebnisse von Diabetikern mit Diabetischem Fußsyndrom (DFS) Hintergrund/Rationale: In Deutschland gibt es etwa 6 Millionen Diabetiker und die Tendenz ist steigend. Das Diabetische Fußsyndrom (DFS) stellt eine häufige und besonders gravierende Folgeerkrankung des Diabetes mellitus dar. Jährlich werden in Deutschland ca. 45.000 Amputationen aufgrund des DFS bei Diabetikern durchgeführt. Es verursacht bei den Patienten physische und psychische Beeinträchtigungen und produziert hohe Krankheitskosten. Der Prävention, der Behandlung und der Rezidivprophylaxe des DFS kommt daher ein hoher Stellenwert zu. Ziel dieser Arbeit war es, ein klinisch-pharmazeutisches Betreuungsprogramm für Patienten mit DFS zu erarbeiten und den Einfluss der Pharmazeutischen Betreuung, speziell einer intensivierten Patientenschulung, auf klinische und soziale Behandlungsergebnisse hin zu untersuchen. Es sollte geklärt werden, ob eine zusätzliche pharmazeutische Betreuung Einfluss auf den Wundheilungsverlauf und die Abheilungsrate der Fußläsionen von Diabetikern mit DFS nehmen kann. Methoden: 52 Patienten mit DFS wurden in eine randomisierte, kontrollierte Studie eingeschlossen und im Verhältnis 1:1 einer Interventions- oder Kontrollgruppe zugeteilt. Die Interventionsgruppe wurde kontinuierlich durch einen Apotheker zusätzlich individuell betreut (Anleitung zum sachgerechten Umgang mit Arzneimitteln, Medizinprodukten und Therapiemaßnahmen), die Kontrollgruppe erhielt die übliche medizinische Betreuung. Die Auswirkungen der Intervention auf den klinischen Verlauf der beobachteten Fußläsionen, die Rezidivfreiheit und Rehospitalisierungsrate, aber auch auf die Patientenzufriedenheit, das Patientenwissen und die Lebensqualität wurden untersucht. Jeder Patient wurde über einen Zeitraum von 12 Monaten beobachtet. Ergebnisse: Die Studienergebnisse belegen einen positiven Einfluss der Pharmazeutischen Betreuung auf die klinischen Endpunkte der Diabetiker mit DFS. Die Wundheilung der Läsionen in der Interventionsgruppe, bezogen auf Abheilungsdauer und -rate, konnte klinisch positiv beeinflusst werden. Des weiteren konnte in der Interventionsgruppe die Anzahl an neu aufgetretenen Läsionen, sowie weiterer Krankenhausaufenthalte um jeweils fast 50% verringert werden. Durch die Pharmazeutische Betreuung konnte die Patientenzufriedenheit mit der Behandlung deutlich gesteigert werden. Entsprechendes fand sich für das Patientenwissen und die Lebensqualität.
Resumo:
Computer simulations play an ever growing role for the development of automotive products. Assembly simulation, as well as many other processes, are used systematically even before the first physical prototype of a vehicle is built in order to check whether particular components can be assembled easily or whether another part is in the way. Usually, this kind of simulation is limited to rigid bodies. However, a vehicle contains a multitude of flexible parts of various types: cables, hoses, carpets, seat surfaces, insulations, weatherstrips... Since most of the problems using these simulations concern one-dimensional components and since an intuitive tool for cable routing is still needed, we have chosen to concentrate on this category, which includes cables, hoses and wiring harnesses. In this thesis, we present a system for simulating one dimensional flexible parts such as cables or hoses. The modeling of bending and torsion follows the Cosserat model. For this purpose we use a generalized spring-mass system and describe its configuration by a carefully chosen set of coordinates. Gravity and contact forces as well as the forces responsible for length conservation are expressed in Cartesian coordinates. But bending and torsion effects can be dealt with more effectively by using quaternions to represent the orientation of the segments joining two neighboring mass points. This augmented system allows an easy formulation of all interactions with the best appropriate coordinate type and yields a strongly banded Hessian matrix. An energy minimizing process accounts for a solution exempt from the oscillations that are typical of spring-mass systems. The use of integral forces, similar to an integral controller, allows to enforce exactly the constraints. The whole system is numerically stable and can be solved at interactive frame rates. It is integrated in the DaimlerChrysler in-house Virtual Reality Software veo for use in applications such as cable routing and assembly simulation and has been well received by users. Parts of this work have been published at the ACM Solid and Physical Modeling Conference 2006 and have been selected for the special issue of the Computer-Aided-Design Journal to the conference.
Resumo:
Die Verifikation numerischer Modelle ist für die Verbesserung der Quantitativen Niederschlagsvorhersage (QNV) unverzichtbar. Ziel der vorliegenden Arbeit ist die Entwicklung von neuen Methoden zur Verifikation der Niederschlagsvorhersagen aus dem regionalen Modell der MeteoSchweiz (COSMO-aLMo) und des Globalmodells des Europäischen Zentrums für Mittelfristvorhersage (engl.: ECMWF). Zu diesem Zweck wurde ein neuartiger Beobachtungsdatensatz für Deutschland mit stündlicher Auflösung erzeugt und angewandt. Für die Bewertung der Modellvorhersagen wurde das neue Qualitätsmaß „SAL“ entwickelt. Der neuartige, zeitlich und räumlich hoch-aufgelöste Beobachtungsdatensatz für Deutschland wird mit der während MAP (engl.: Mesoscale Alpine Program) entwickelten Disaggregierungsmethode erstellt. Die Idee dabei ist, die zeitlich hohe Auflösung der Radardaten (stündlich) mit der Genauigkeit der Niederschlagsmenge aus Stationsmessungen (im Rahmen der Messfehler) zu kombinieren. Dieser disaggregierte Datensatz bietet neue Möglichkeiten für die quantitative Verifikation der Niederschlagsvorhersage. Erstmalig wurde eine flächendeckende Analyse des Tagesgangs des Niederschlags durchgeführt. Dabei zeigte sich, dass im Winter kein Tagesgang existiert und dies vom COSMO-aLMo gut wiedergegeben wird. Im Sommer dagegen findet sich sowohl im disaggregierten Datensatz als auch im COSMO-aLMo ein deutlicher Tagesgang, wobei der maximale Niederschlag im COSMO-aLMo zu früh zwischen 11-14 UTC im Vergleich zu 15-20 UTC in den Beobachtungen einsetzt und deutlich um das 1.5-fache überschätzt wird. Ein neues Qualitätsmaß wurde entwickelt, da herkömmliche, gitterpunkt-basierte Fehlermaße nicht mehr der Modellentwicklung Rechnung tragen. SAL besteht aus drei unabhängigen Komponenten und basiert auf der Identifikation von Niederschlagsobjekten (schwellwertabhängig) innerhalb eines Gebietes (z.B. eines Flusseinzugsgebietes). Berechnet werden Unterschiede der Niederschlagsfelder zwischen Modell und Beobachtungen hinsichtlich Struktur (S), Amplitude (A) und Ort (L) im Gebiet. SAL wurde anhand idealisierter und realer Beispiele ausführlich getestet. SAL erkennt und bestätigt bekannte Modelldefizite wie das Tagesgang-Problem oder die Simulation zu vieler relativ schwacher Niederschlagsereignisse. Es bietet zusätzlichen Einblick in die Charakteristiken der Fehler, z.B. ob es sich mehr um Fehler in der Amplitude, der Verschiebung eines Niederschlagsfeldes oder der Struktur (z.B. stratiform oder kleinskalig konvektiv) handelt. Mit SAL wurden Tages- und Stundensummen des COSMO-aLMo und des ECMWF-Modells verifiziert. SAL zeigt im statistischen Sinne speziell für stärkere (und damit für die Gesellschaft relevante Niederschlagsereignisse) eine im Vergleich zu schwachen Niederschlägen gute Qualität der Vorhersagen des COSMO-aLMo. Im Vergleich der beiden Modelle konnte gezeigt werden, dass im Globalmodell flächigere Niederschläge und damit größere Objekte vorhergesagt werden. Das COSMO-aLMo zeigt deutlich realistischere Niederschlagsstrukturen. Diese Tatsache ist aufgrund der Auflösung der Modelle nicht überraschend, konnte allerdings nicht mit herkömmlichen Fehlermaßen gezeigt werden. Die im Rahmen dieser Arbeit entwickelten Methoden sind sehr nützlich für die Verifikation der QNV zeitlich und räumlich hoch-aufgelöster Modelle. Die Verwendung des disaggregierten Datensatzes aus Beobachtungen sowie SAL als Qualitätsmaß liefern neue Einblicke in die QNV und lassen angemessenere Aussagen über die Qualität von Niederschlagsvorhersagen zu. Zukünftige Anwendungsmöglichkeiten für SAL gibt es hinsichtlich der Verifikation der neuen Generation von numerischen Wettervorhersagemodellen, die den Lebenszyklus hochreichender konvektiver Zellen explizit simulieren.
Resumo:
Die Elementmassenspektrometrie wurde in den letzten Jahren sehr erfolgreich zur Aufklärung verschiedener Fragestellungen in der Bioanalytik eingesetzt. Hierbei spielen vor allem Kopplungstechniken von Trennmethoden wie der Flüssigchromatographie (LC) oder der Kapillarelektrophorese (CE) mit der induktiv gekoppelten Plasma-Massenspektrometrie (ICP-MS) als Multielementdetektor mit hervorragenden Quantifizierungseigenschaften eine entscheidende Rolle bei der Untersuchung von Biopolymeren und deren Wechselwirkung mit verschiedenen Metallen. So wurden beispielsweise verschiedene Methoden für die Trennung und Detektion von Metalloproteinen oder DNA-Metall-Addukten in unterschiedlichen Probenmaterialien entwickelt. Die traditionelle und leistungsstärkste Trennmethode für Biopolymere aller Art, die Gelelektrophorese, wurde jedoch bislang nicht in einem Online-Verfahren an die ICP-MS gekoppelt, um solche Fragestellungen zu bearbeiten. Verschiedene Versuche auf der Basis der Laserablation wurden in diese Richtung unternommen, wobei diese Techniken als sehr umständlich und zeitaufwändig anzusehen sind. In dieser Arbeit wird erstmals die technische Realisierung einer Online-Kopplung der Gelelektrophorese mit der ICP-MS beschrieben. Das System basiert auf einem Prinzip aus der präparativen Gelelektrophorese, in welcher eine kontinuierliche Elution der getrennten Komponenten aus dem Gel während der laufenden Elektrophorese durchgeführt wird. Die eluierten Komponenten werden mit dem Elutionspuffer direkt in das Zerstäubersystem des ICP-MS geführt. Die ersten Untersuchungen wurden am Beispiel der Fragemente von doppelsträngiger DNA (dsDNA) durchgeführt. Kommerziell erhältliche Standardlösungen wurden mit der Online-GE-ICP-MS mittels Detektion von 31P an einem hochauflösenden Massenspektrometer mit einer Massenauflösung von 4000 analysiert. Die Trennbedingungen (z.B. pH-Wert oder Ionenstärke der Pufferlösungen) wurden für die Trennung von dsDNA-Fragementen in Agarosegelen optimiert und auf verschiedene dsDNA-Fragmente angewandt. In einem nächsten Schritt wurden die Quantifizierungsmöglichkeiten für Biopolymere untersucht. Sehr kleine Mengen an dsDNA konnten mit einer Präzision von weniger als 3% quantifiziert werden. Hierfür kamen verschiedene Möglichkeiten der externen Kalibration zum Einsatz, wie der Kalibration mit einem Phosphat-Standard oder einem kommerziell erhältlichen quantitativen dsDNA-Standard. Um das Potenzial der entwickelten Methode für die Untersuchung von Biopolymer-Metall-Wechselwirkungen zu demonstrieren, wurden Oligonukleotide mit Cisplatin unter physiologischen Bedingungen inkubiert und die Reaktionsprodukte mit der Online-GE-ICP-MS mittels 31P- und 195Pt-Detektion untersucht. Verschiedene Cisplatin-Oligonukleotid-Addukte konnten auf diese Weise beobachtet werden, was zur Identifizierung die Anwendung der MALDI-TOF-MS als komplementärer Form der Massenspektrometrie notwendig machte. Abschließend wurde die Isotopenverdünnungsanalyse zum Zweck der Quantifizierung herangezogen.
Resumo:
Feste Lösungen homogen dispergierter Wirkstoffmoleküle in amorphen Polymermatrizen sind wichtige Materialien in vielen pharmazeutischen Anwendungen, bei denen eine kontrollierte Abgabe wasserunlöslicher Wirkstoffe in wässrige Systeme eine Rolle spielt. Die intermolekulare Bindungs-stärke zwischen Polymer- und Wirkstoffmolekülgruppen bestimmt die Stabilität der festen Lösung und steuert somit die biologische Aktivität der Wirkstoffmoleküle. In festen Lösungen, die aus acryl-säurehaltigen Copolymeren (Protonendonoren) und basischen Wirkstoffmolekülen (Protonenakzepto-ren) hergestellt werden, sind intermolekulare Wasserstoffbrücken zwischen den Systemkomponenten Triebkraft für die Bildung einer stabilen homogenen Dispersion und für die Entstehung struktureller Merkmale zwischen den Molekülgruppen der Systemkomponenten. Zudem ist die Bindungsstärke der Wasserstoffbrücken im Hinblick auf die kontrollierte Abgabe der Wirkstoffe von Bedeutung. Da dynamische chemische Gleichgewichte bei der Bildung der Wasserstoffbrücken eine wichtige Rolle spielen müssen neben strukturellen Parametern auch dynamische Faktoren beleuchtet werden. Ziel dieser Arbeit ist neben der Ermittlung von intermolekularen Bindungsstärken vor allem die Identifika-tion struktureller Verhältnisse zwischen den Systemkomponenten auf molekularer Ebene. Die Be-stimmung der Abhängigkeit dieser Parameter von der Struktur der verwendeten Polymere und einer Vielzahl weiterer Einflüsse wie z.B. Feuchtigkeit, Lagerdauer oder Wirkstoffkonzentration soll ein kontrolliertes Design fester Lösungen mit definierten anwendungsspezifischen Eigenschaften ermögli-chen. Temperaturabhängige 1H-Festkörper-MAS-NMR (Magic Angle Spinning Nuclear Magnetic Resonance) Experimente an festen Lösungen mit unterschiedlichen Copolymer-Zusammensetzungen weisen die Existenz dynamischer chemischer Gleichgewichte in den komplexen Wasserstoffbrücken-netzwerken nach. Veränderungen in der chemischen Verschiebung und in der Linienform der Reso-nanzlinien acider Protonen erlauben einen tiefen Einblick in die Architektur dieser Netzwerke und legen die Bindungsverhältnisse unter Berücksichtigung der Polymerchemie und der Mobilität der Systemkomponenten dar, wobei die Befunde mithilfe quantenchemischer Rechnungen untermauert werden können. Die Gegenwart acider Protonen ermöglicht einen einfachen 1H-2H-Austausch, wor-aufhin mithilfe rotorsynchronisierter temperaturabhängiger 2H-MAS-NMR Experimente die Wasser-stoffbrückenbindungsstärke bestimmt werden kann. Mit 1H-1H-Korrelationsexperimenten (Doppelquantenspektroskopie) stehen Methoden für die Bestimmung homonuklearer dipolarer 1H-1H-Kopplungen zur Verfügung, die strukturelle Aussagen aufgrund von bevorzugten räumlichen Kontak-ten bestimmter Molekülgruppen ermöglichen. Weiterhin können diese Experimente verwendet werden, um Wasserstoffbrücken zwischen Polymergruppen von Polymer-Wirkstoff-Wasserstoffbrücken zu unterscheiden, wodurch eine quantitative Beschreibung des Bindungsnetzwerks und der Konkurrenz-prozesse zwischen den einzelnen wasserstoffverbrückten Spezies ermöglicht wird. Eine Kristallisation der Wirkstoffmoleküle ist in vielen Anwendungen unerwünscht, da sie die biologische Verfügbarkeit des Wirkstoffs reduzieren. Mit 1H-Festkörper-MAS-NMR Experimenten können kristalline von amorph dispergierten Wirkstoffmolekülen unterschieden werden, wodurch eine Quantifizierung der Destabilisierungsprozesse ermöglicht wird, die durch Exposition der festen Lösungen mit Wasserdampf ausgelöst werden können. Die Zeit- und Konzentrationsabhängigkeit der Wasseraufnahme kann mit NMR-Experimenten verfolgt werden, wobei unterschiedlich mobile Was-serspezies an unterschiedlichen Bindungsorten identifiziert werden können, was zum molekularen Verständnis der Destabilisierungsprozesse beiträgt. Zusätzlich wird die Mobilität der Wirkstoffmole-küle bestimmt, die sich – wie auch die Wirkstoffkonzentration - als wichtige Größe in der Beschrei-bung der Destabilisierung erweist. Aufbauend auf den Beobachtungen wird ein Zusammenhang zwischen der Copolymerzusammensetzung und einer kritischen Wirkstoffkonzentration hergestellt, der für die Anwendungen amorpher fester Lösungen in biologischen Systemen von großer Bedeutung ist.
Resumo:
Therapeutisches Drug Monitoring (TDM) ist eine Maßnahme, bei der durch Messung der Medikamentenspiegel im Blut die Dosis ermittelt wird, bei der mit höchster Wahrscheinlichkeit mit Therapieansprechen gerechnet werden kann. Dabei wird angenommen, dass die Konzentrationen im Blut mit denen im Wirkkompartiment korrelieren. Für Antipsychotika wurde gezeigt, dass die Konzentrationen im Blut direkt mit denen im Gehirn korrelieren, die Verteilung zwischen den beiden Kompartimenten ist jedoch für die verschiedenen Antipsychotika sehr unterschiedlich. Die Distribution von Arzneistoffen zwischen Blut und Gehirn wird durch Effluxtransporter in der Blut-Hirn-Schranke kontrolliert. Welche Rolle dabei P-Glykoprotein (P-gp) für die Verteilung von atypischen Antipsychotika spielt und wie die Pharmakokinetik und –dynamik durch diesen Transporter beeinflusst werden, sollte in dieser Arbeit untersucht werden. Für die Messung des neu eingeführten Antipsychotikums Aripiprazol, sowie für seinen aktiven Metaboliten Dehydroaripiprazol, wurde eine hochleistungsflüssigchromatographische (HPLC) Methode mit Säulenschaltung und spektrophotometrischer Detektion etabliert. Die Methode wurde für die Messung von Serumproben schizophrener Patienten eingesetzt, um einen therapeutischen Bereich für Aripiprazol zu ermitteln. Aus der Analyse von 523 Patientenproben wurde herausgefunden, dass Aripiprazol-Serumkonzentrationen von 150 bis 300 ng/ml mit gutem klinischen Ansprechen und einem geringen Risiko für Nebenwirkungen einhergingen. Weiterhin wurde festgestellt, dass die Serumspiegel bei gleichzeitiger Gabe von Inhibitoren und Induktoren der Cytochrom P450 (CYP) Isoenzyme CYP2D6 und CYP3A4 erhöht bzw. gesenkt wurden. Am Modell der P-gp Knockout Maus im Vergleich zu FVB Wildtyp Mäusen wurden Konzentrationsverläufe von Antipsychotika nach i.p. Gabe von Amisulprid, Aripiprazol, Dehydroaripiprazol, Clozapin, Desmethylclozapin, Haloperidol, Olanzapin, Quetiapin, Risperidon und 9-Hydroxyrisperidon sowie der Kontrollsubstanz Domperidon im Gehirn und Blut über 24 Stunden mittels HPLC-Methoden gemessen. Welchen Einfluss eine verminderte Expression von P-gp auf die Pharmakodynamik hat, wurde in zwei Verhaltenstests untersucht. Mit Hilfe des Rotarods wurden motorische Effekte der Arzneistoffe erfasst und mittels Radial Arm Water Maze kognitive Fähigkeiten. Risperidon und sein aktiver Metabolit 9-Hydroxyrisperidon waren die stärksten Substrate von P-gp. 10-fach höhere Konzentrationen im Gehirn der P-gp Knockout Mäuse führten zu 10-fach stärkeren Beeinträchtigungen in den pharmakodynamischen Untersuchungen im Vergleich zu Wildtyp Tieren. Amisulprid, Aripiprazol, Dehydroaripiprazol, Desmethylclozapin und Quetiapin konnten ebenfalls als Substrate von P-gp identifiziert werden. Olanzapin, Haloperidol und Clozapin wurden durch P-gp wenig bzw. nicht in ihrer Pharmakokinetik und –dynamik beeinflusst. Da P-gp von Nagern und Menschen nach derzeitiger Kenntnis in ihren Substrateigenschaften weitgehend übereinstimmen, muss bei einer Behandlung von schizophrenen Patienten mit Antipsychotika, die als Substrate von P-gp identifiziert wurden, davon ausgegangen werden, dass eine Veränderung der Expression oder Aktivität von P-gp, genetisch verursacht oder durch Medikamente bedingt, für das Therapieansprechen oder das Auftreten von Nebenwirkungen bedeutsam sind.
Resumo:
Auf der Suche nach dem „vulnerablen Plaque“, der ein besonders hohes Risiko für Schlaganfall und Herzinfarkt besitzt, findet momentan ein Paradigmenwechsel statt. Anstelle des klassischen Stenosegrades gewinnt die Darstellung der Plaquemorphologie zunehmend an Bedeutung. Fragestellung: Ziel dieser Arbeit ist es, die Fähigkeiten eines modernen 16-Kanal-CT hinsichtlich der Auflösung des Plaqueinneren bei Atherosklerose der Karotiden zu untersuchen und den Halo-Effekt in vivo zu erforschen. Methoden: Für die Studie wurden von 28 Patienten mit bekannter, symptomatischer Karotisstenose vor der gefäßchirurgischen Intervention CT-Bilder angefertigt, die nachfolgend mit der Histologie der Gefäßpräparate korreliert wurden. Auf diese Weise konnten die mikroskopisch identifizierten Lipidkerne im CT-Bild eingezeichnet und hinsichtlich ihrer Fläche und Dichtewerte evaluiert werden. In einem weiteren Schritt führten 2 Radiologen in Unkenntnis der histologischen Ergebnisse unabhängig voneinander eine Befundung durch und markierten mutmaßliche Lipidkerne. Zudem wurden sowohl in der verblindeten als auch in der histologiekontrollierten Auswertung die Plaquetypen anhand der AHA-Klassifikation bestimmt. Ein dritter Befundungsdurchgang geschah unter Zuhilfenahme einer von uns entwickelten Software, die CT-Bilder farbkodiert um die Detektion der Lipidkerne zu verbessern. Anhand der Farbkodierung wurde zudem ein Indexwert errechnet, der eine objektive Zuordnung zur AHA-Klassifikation ermöglichen sollte. Von 6 Patienten wurde zusätzlich noch eine native CT-Aufnahme angefertigt, die durch MPR exakt an die Kontrastmittelserie angeglichen wurde. Auf diese Weise konnte der Halo-Effekt, der die Plaqueanteile im lumennahen Bereich überstrahlt, quantifiziert und charakterisiert werden. Ergebnisse: Während die Einstufung in die AHA-Klassifikation sowohl durch den Befunder als auch durch den Softwarealgorithmus eine hohe Korrelation mit der Histologie aufweist (Typ IV/Va: 89 %, Typ Vb: 70 %, Typ Vc: 89 %, Typ VI: 55 %), ist die Detektion der Lipidkerne in beiden Fällen nicht ausreichend gut und die Befunderabhängigkeit zu groß (Cohens Kappa: 18 %). Eine Objektivierung der AHA-Klassifikation der Plaques durch Indexberechnung nach Farbkodierung scheint möglich, wenn auch dem Befunder nicht überlegen. Die fibröse Kappe kann nicht abgegrenzt werden, da Überstrahlungseffekte des Kontrastmittels dessen HU-Werte verfälschen. Dieser Halo-Effekt zeigte sich im Median 1,1 mm breit mit einer Standardabweichung von 0,38 mm. Eine Abhängigkeit von der Kontrastmitteldichte im Gefäßlumen konnte dabei nicht nachgewiesen werden. Der Halo-Effekt fiel im Median um -106 HU/mm ab, bei einer Standardabweichung von 33 HU/mm. Schlussfolgerung: Die CT-Technologie zeigt sich, was die Darstellung von einzelnen Plaquekomponenten angeht, den bekannten Fähigkeiten der MRT noch unterlegen, insbesondere in Bezug auf die fibröse Kappe. Ihre Fähigkeiten liegen bisher eher in der Einstufung von Plaques in eine grobe Klassifikation, angelehnt an die der AHA. Die klinische Relevanz dessen jedoch gilt es in Zukunft in größeren Studien weiter zu untersuchen. Auch lässt die Weiterentwicklung der Computertomographie auf eine zukünftig höhere Auflösung der Plaquemorphologie hoffen.
Resumo:
The aim of this work presented here is the characterization of structure and dynamics of different types of supramolecular systems by advanced NMR spectroscopy. One of the characteristic features of NMR spectroscopy is based on its high selectivity. Thus, it is desirable to exploit this technique for studying structure and dynamics of large supramolecular systems without isotopic enrichment. The observed resonance frequencies are not only isotope specific but also influenced by local fields, in particular by the distribution of electron density around the investigated nucleus. Barbituric acid are well known for forming strongly hydrogen-bonded complexes with variety of adenine derivatives. The prototropic tautomerism of this material facilitates an adjustment to complementary bases containing a DDA(A = hydrogen bond acceptor site, D = hydrogen bond donor site) or ADA sequences, thereby yielding strongly hydrogen-bonded complexes. In this contribution solid-state structures of the enolizable chromophor "1-n-butyl-5-(4-nitrophenyl)-barbituric acid" that features adjustable hydrogen-bonding properties and the molecular assemblies with three different strength of bases (Proton sponge, adenine mimetic 2,6-diaminopyridine (DAP) and 2,6-diacetamidopyridine (DAC)) are studied. Diffusion NMR spectroscopy gives information over such interactions and has become the method of choice for measuring the diffusion coefficient, thereby reflecting the effective size and shape of a molecular species. In this work the investigation of supramolecular aggregates in solution state by means of DOSY NMR techniques are performed. The underlying principles of DOSY NMR experiment are discussed briefly and more importantly two applications demonstrating the potential of this method are focused on. Calix[n]arenes have gained a rather prominent position, both as host materials and as platforms to design specific receptors. In this respect, several different capsular contents of tetra urea calix[4]arenes (benzene, benzene-d6, 1-fluorobenzene, 1-fluorobenzene-d5, 1,4-difluorobenzene, and cobaltocenium) are studied by solid state NMR spectroscopy. In the solid state, the study of the interaction between tetra urea calix[4]arenes and guest is simplified by the fact that the guests molecule remains complexed and positioned within the cavity, thus allowing a more direct investigation of the host-guest interactions.
Resumo:
In den letzten drei Jahrzehnten sind Fernerkundung und GIS in den Geowissenschaften zunehmend wichtiger geworden, um die konventionellen Methoden von Datensammlung und zur Herstellung von Landkarten zu verbessern. Die vorliegende Arbeit befasst sich mit der Anwendung von Fernerkundung und geographischen Informationssystemen (GIS) für geomorphologische Untersuchungen. Durch die Kombination beider Techniken ist es vor allem möglich geworden, geomorphologische Formen im Überblick und dennoch detailliert zu erfassen. Als Grundlagen werden in dieser Arbeit topographische und geologische Karten, Satellitenbilder und Klimadaten benutzt. Die Arbeit besteht aus 6 Kapiteln. Das erste Kapitel gibt einen allgemeinen Überblick über den Untersuchungsraum. Dieser umfasst folgende morphologische Einheiten, klimatischen Verhältnisse, insbesondere die Ariditätsindizes der Küsten- und Gebirgslandschaft sowie das Siedlungsmuster beschrieben. Kapitel 2 befasst sich mit der regionalen Geologie und Stratigraphie des Untersuchungsraumes. Es wird versucht, die Hauptformationen mit Hilfe von ETM-Satellitenbildern zu identifizieren. Angewandt werden hierzu folgende Methoden: Colour Band Composite, Image Rationing und die sog. überwachte Klassifikation. Kapitel 3 enthält eine Beschreibung der strukturell bedingten Oberflächenformen, um die Wechselwirkung zwischen Tektonik und geomorphologischen Prozessen aufzuklären. Es geht es um die vielfältigen Methoden, zum Beispiel das sog. Image Processing, um die im Gebirgskörper vorhandenen Lineamente einwandfrei zu deuten. Spezielle Filtermethoden werden angewandt, um die wichtigsten Lineamente zu kartieren. Kapitel 4 stellt den Versuch dar, mit Hilfe von aufbereiteten SRTM-Satellitenbildern eine automatisierte Erfassung des Gewässernetzes. Es wird ausführlich diskutiert, inwieweit bei diesen Arbeitsschritten die Qualität kleinmaßstäbiger SRTM-Satellitenbilder mit großmaßstäbigen topographischen Karten vergleichbar ist. Weiterhin werden hydrologische Parameter über eine qualitative und quantitative Analyse des Abflussregimes einzelner Wadis erfasst. Der Ursprung von Entwässerungssystemen wird auf der Basis geomorphologischer und geologischer Befunde interpretiert. Kapitel 5 befasst sich mit der Abschätzung der Gefahr episodischer Wadifluten. Die Wahrscheinlichkeit ihres jährlichen Auftretens bzw. des Auftretens starker Fluten im Abstand mehrerer Jahre wird in einer historischen Betrachtung bis 1921 zurückverfolgt. Die Bedeutung von Regentiefs, die sich über dem Roten Meer entwickeln, und die für eine Abflussbildung in Frage kommen, wird mit Hilfe der IDW-Methode (Inverse Distance Weighted) untersucht. Betrachtet werden außerdem weitere, regenbringende Wetterlagen mit Hilfe von Meteosat Infrarotbildern. Genauer betrachtet wird die Periode 1990-1997, in der kräftige, Wadifluten auslösende Regenfälle auftraten. Flutereignisse und Fluthöhe werden anhand von hydrographischen Daten (Pegelmessungen) ermittelt. Auch die Landnutzung und Siedlungsstruktur im Einzugsgebiet eines Wadis wird berücksichtigt. In Kapitel 6 geht es um die unterschiedlichen Küstenformen auf der Westseite des Roten Meeres zum Beispiel die Erosionsformen, Aufbauformen, untergetauchte Formen. Im abschließenden Teil geht es um die Stratigraphie und zeitliche Zuordnung von submarinen Terrassen auf Korallenriffen sowie den Vergleich mit anderen solcher Terrassen an der ägyptischen Rotmeerküste westlich und östlich der Sinai-Halbinsel.
Resumo:
Eine neue auf einer Pyruvat abhängigen Biolumineszenzreaktion basierende Methode zur quantitativen Bestimmung und räumlichen Darstellung von Pyruvat in Gefrierschnitten von Gewebeproben wurde entwickelt. Dabei wurden biochemische Reaktionen so verknüpft, dass sichtbares Licht proportional zum eingesetzten Pyruvatgehalt entstand. Eine hoch signifikante positive Korrelation beider Parameter ermöglichte eine Kalibrierung mit definierten Pyruvatgehalten und damit die Quantifizierung in unbekannten Proben. Die Nachweisgrenze lag bei 0,04 pmol Pyruvat mit einer Auflösung von 0,02 µmol/g. Das Biolumineszenzverfahren wurde mit Hilfe anderer Methoden validiert, wobei eine Wiederfindung mit einer konzentrationsabhängigen Abweichung von ≤ 15 % erzielt wurde. Ein wesentlicher Vorteil der neuen Methode gegenüber bisherigen Verfahren zum Pyruvatnachweis liegt in der Messwerterfassung definierter histologischer Gewebsareale. Dies wird durch computergesteuerte Überlagerung von Metabolitverteilungen mit Schnittbildern aus Strukturfärbungen und interaktiver, „optischer Mikrodissektion“ der Gewebeschnitte möglich. Ein weiterer Nutzen der Methode ist deren optionale Kombination mit der Biolumineszenztechnik für andere Stoffwechselprodukte. So ermöglicht eine exakte Superposition zweier Metabolitbilder von unmittelbar aufeinander folgenden Gewebeschnitten eine korrelative Kolokalisationsanalyse beider Metabolite. Das Ergebnis lässt sich zum einen in Form von „Pixel-zu-Pixel“-Korrelationen dokumentieren, zum anderen kann für jeden Bildpunkt ein Laktat/Pyruvat-Verhältnis als Maß für den Redoxzustand des Gewebes berechnet und dargestellt werden. Hieraus ergeben sich z.B. räumliche L/P-Verteilungen (L/P-Karten). Ein solches „Redoximaging“ durch Kartierung des L/P-Quotienten ist bislang mit keinem anderen Verfahren möglich. Während die Entwicklung des Pyruvatnachweises eine Kernaufgabe der vorliegenden Arbeit darstellte, bestand ein weiterer wesentlicher Teil in der praktischen Anwendung der neuen Methode im Bereich der experimentellen Tumorforschung. So ergaben Messungen an acht verschiedenen Linien von humanen HNSCC-Xenotransplantaten (n = 70 Tumoren) einen mittleren Pyruvatgehalt von 1,24 ± 0,20 µmol/g. In sechs Humanbiopsien derselben Tumorentität wurde ein durchschnittlicher Pyruvatgehalt von 0,41 ± 0,09 µmol/g gemessen. Bei den Xenotransplantaten konnte eine signifikante positive Korrelation zwischen der Summe aus Laktat und Pyruvat bzw. dem L/P Verhältnis und der Strahlensensibilität gefunden werden, wobei das L/P-Verhältnis ebenso wie die Summe aus Laktat und Pyruvat maßgeblich von Laktat bestimmt wurden. Der Zusammenhang der Metabolite mit der Strahlensensibilität lässt sich durch deren antioxidative Eigenschaften erklären. Da der Redoxzustand der Zelle kritisch bezüglich der Effizienz von ROS induzierenden Therapieansätzen, wie z.B. Bestrahlung oder bestimmter Chemotherapeutika sein kann, könnte die Bestimmung des L/P Verhältnisses als prognostischer Faktor prädiktive Aussagen über die Sensibilität gegenüber solchen Behandlungen erlauben.
Resumo:
In this work the numerical coupling of thermal and electric network models with model equations for optoelectronic semiconductor devices is presented. Modified nodal analysis (MNA) is applied to model electric networks. Thermal effects are modeled by an accompanying thermal network. Semiconductor devices are modeled by the energy-transport model, that allows for thermal effects. The energy-transport model is expandend to a model for optoelectronic semiconductor devices. The temperature of the crystal lattice of the semiconductor devices is modeled by the heat flow eqaution. The corresponding heat source term is derived under thermodynamical and phenomenological considerations of energy fluxes. The energy-transport model is coupled directly into the network equations and the heat flow equation for the lattice temperature is coupled directly into the accompanying thermal network. The coupled thermal-electric network-device model results in a system of partial differential-algebraic equations (PDAE). Numerical examples are presented for the coupling of network- and one-dimensional semiconductor equations. Hybridized mixed finite elements are applied for the space discretization of the semiconductor equations. Backward difference formluas are applied for time discretization. Thus, positivity of charge carrier densities and continuity of the current density is guaranteed even for the coupled model.