597 resultados para Hilfe
Resumo:
Im Rahmen des Promotionsprojektes wurden a1,4,6-enthaltende GABAA-Rezeptoren in den Kombinationen ab3X (X= b3, g2, d) mit Hilfe der Patch-Clamp-Technik charakterisiert. Dazu wurde ein Set an Plasmiden erstellt, welche es erlauben GABAA-Rezeptoren definierter Stöchiometrie und Nachbarschaftsbeziehungen der Untereinheiten (UE) zu exprimieren. In der sogenannten Standardkonfiguration g2baba wurden folgende Resultate erhalten; (1) Assemblierungen, bei denen beide N-Termini der a-UE nicht verlinkt sind, zeigten, dass beide GABA-Bindestellen gleichwertig sind. (2) Die Benzodiazepinpharmakologie wird im Wesentlichen durch die a-UE neben der g2-UE determiniert. (3) Weiterhin wurde gezeigt, dass für eine vollständige Inhibition GABA-induzierter Ströme durch Furosemid eine a4- oder a6-UE unabhängig der Position im Pentamer ausreichend ist. (4) Charakterisierungen mit Etomidat und Loreclezol haben für a4b3g2 Rezeptoren ergeben, dass zwei b3-Untereinheiten im Pentamer vorliegen. (5) Für die b2-selektive Substanz E033-00233 konnte gezeigt werden, dass deren Wirkung unabhängig der Position der b2-UE, aber in Abhängigkeit ihrer Anzahl im Pentamer additiv ist. Insgesamt liefert die Konkatamerstragie eine Möglichkeit die Rolle von einzelnen Untereinheiten in pentameren GABAA-Rezeptoren zu studieren. Um Fehlinterpretationen weitestgehend zu vermeiden sind aber sorgfältige Kontrollen mit unterschiedlichen Linkerpositionen und der Einsatz von UE-selektiven notwendig.
Resumo:
Durch die massenmediale Zunahme von statischen und bewegten Bilder im Laufe des letzten Jahrhunderts vollzieht sich unsere lebensweltliche Wirklichkeitskonstruktion zu Beginn des 21. Jahrhunderts zunehmend über Visualisierungen, die mit den neuen Formen der Digitalisierung noch an Dynamik zunehmen werden. Mit diesen omnipräsenten visuell-medialen Repräsentationen werden meist räumliche Vorstellungen transportiert, denn Räume werden vor allem über Bilder konstruiert. Diese Bildräume zirkulieren dabei nicht als singuläre Bedeutungszuschreibungen, sondern sind in sprachliche und bildliche Diskurse eingebettet. Visuell-mediale Bild-Raum-Diskurse besitzen zunehmend die Fähigkeit, unser Wissen über und unsere Wahrnehmung von Räumen zu kanalisieren und auf stereotype Raumstrukturen zu reduzieren. Dabei verfestigt sich eine normative Ordnung von bestimmten machtvollen Bildräumen, die nicht genügend kritisch hinterfragt werden. Deshalb ist es für die Geographie von entscheidender Wichtigkeit, mediale Raumkonstruktio- nen, ihre Einbettung in diskursive Bildarchive und ihre essentialistische und handlungspraktische gesellschaftliche Wirkung zu verstehen.rnLandschaften können vor diesem Hintergrund als visuell-medial transportierte Bild-Raum-Diskurse konzeptionalisiert werden, deren gesellschaftliche Wirkmächtigkeit mit Hilfe einer visuell ausgerichteten Diskursanalyse hinterfragt werden sollte. Auf Grundlage einer zeichentheoretischen Ikonologie wurde eine Methodik entwickelt, die visuell ausgerichtete Schrift-Bild-Räume angemessen analysieren kann. Am Beispiel der Inszenierung des Mittelrheintals, wurde, neben einer diachronischen Strukturanalyse der diskursrelevanten Medien (Belletristik, Malerei, Postkarten, Druckgrafiken und Fotografien), eine Feinanalyse der fotografischen „Rheinlandschaften“ von August Sander der 1930er Jahre durchgeführt. Als Ergebnis zeigte sich, dass der Landschaftsdiskurs über das Mittelrheintal immer noch durch die gegenseitige Durchdringung der romantischen Literatur und Malerei in der ersten Hälfte des 19. Jahrhunderts und die historischen Fotografien in den ersten Jahrzehnten des 20. Jahrhunderts bestimmt ist, nicht zuletzt forciert durch die Ernennung zum UNESCO-Welterbe 2002. Der stark visuell ausgerichtete Landschaftsdiskurs trägt somit zum einen positiv konnotierte, romantisch-pittoreske Züge, die die Einheit von Mensch und Natur symbolisieren, zum anderen historisch-konservatorische Züge, die eine Mythifizierung zu einer gewachsenen, authentischen Kulturlandschaft evozieren.
Resumo:
Der Grund für die schlechte Prognose beim Nierenzellkarzinom (NZK) stellt nicht der Primärtumor dar sondern ist vielmehr der häufigen Ausbildung von Fernmetastasen geschuldet. Etwa 30 % aller Patienten mit fortgeschrittenem NZK bilden dabei Metastasen in den Knochen aus. Das Knochenmilieu scheint, aufgrund der hohen Frequenz der knochenspezifischen Metastasierung, einen idealen Wachstumslokus für die Nierenkarzinomzellen dazustellen und rückte in der jüngsten Vergangenheit in den Fokus der Forschung. Dabei konnte der Calcium-sensitive Rezeptor (CaSR), der im gesunden Gewebe die Konzentration der extrazellulären Calcium-Ionen reguliert und besonders in der Niere von Bedeutung ist, mit der Metastasierung in die Knochen in Zusammenhang gebracht werden. Die Knochen stellen im Körper das Organ mit der höchsten Calcium-Konzentration dar. Durch ständigen Knochenmetabolismus werden Calcium-Ionen freigesetzt, welche CaSR-exprimierende Zellen aktivieren können. Aus diesem Grund wurden im Zusammenhang mit dieser Arbeit Nierenkarzinomzellen (786 O) sowie gesunde Nierenzellen (HEK 293) mit dem Gen des CaSR transfiziert und anschließend unter dem Einfluss von Calcium (10 mM – 30 Min.), einem CaSR-Aktivator (Cinacalcet (10 µM – 1 Std.)), sowie einem CaSR-Inhibitor (NPS2143 (10 µM – 1 Std.)) auf Unterschiede im zellulären Verhalten hin untersucht.rnBereits ohne Calcium-Behandlung zeigten die CaSR-transfizierten 786 O-Zellen ein gesteigertes Migrationsverhalten (durchgeführt in einer Boyden Kammer, Fibronektin als Chemotaxin) und ein erhöhtes Adhäsionspotential (zum einen an Kompo¬nenten der EZM (Fibronektin und Kollagen I) und zum anderen an HUVEC). Bei den CaSR-transfizierten HEK 293-Zellen wurde nur die Migration positiv beeinflusst. Nach einer 30-minütigen Behandlung mit Calcium zeigten die CaSR-transfizierten 786 O-Zellen eine starke Zunahme des Adhäsions- und Proli¬ferations-verhaltens, sowie eine verstärkte Migration bei Verwendung von Calcium als Chemotaxin. CaSR-transfizierte HEK 293-Zellen hingegen zeigten keine Migration und nach Calcium-Behandlung nur geringfügige Änderungen in Adhäsion und Proliferation. Konsistent mit diesen Ergebnissen war die Auswertung der intrazellulären Signalwege mit Hilfe von Western Blot-Analysen. In CaSR-expri-mierenden 786 O-Zellen waren die Signalwege AKT, ERK, JNK und p38α nach Calcium-Behandlung deutlich erhöht. In den HEK 293-Zellen kam es zu einer Zunahme der Proteinmenge aktivierter ERK-, JNK-, Paxillin- und SHC-Moleküle. Mit Hilfe einer Kombinationsbehandlung aus NPS2143 und Calcium konnte der Calcium-bedingte Effekt in durchweg allen Untersuchungen wieder bis auf das Kontrollniveau gesenkt werden. Die Verwendung von Cinacalcet und Calcium führte zwar erneut zu deutlichen Steigerungen der zellulären Vorgänge, lag aber immer unter dem Calcium-abhängigen Maximum.rnDurch die Simulation der Vorgänge, die während einer Metastasierung ablaufen, konnte gezeigt werden, dass der CaSR in Nierenkarzinomzellen die Knochen-metastasierung induziert. Sollten sich diese Zusammenhänge in vivo im Mausmodell bestätigen, könnte der CaSR zukünftig als Marker für eine Früherkennung von Knochenmetastasen fungieren. Zudem könnten indivi¬dual¬isierte Therapieansätze entwickelt werden, die knochenmetastasierende Zellen bereits vor Metastasierung effizient bekämpfen können.rn
Resumo:
Tree-ring chronologies are a powerful natural archive to reconstruct summer temperature variations of the late Holocene with an annual resolution. To develop these long-term proxy records tree-ring series are commonly extended back in time by combining samples from living trees with relict dead material preserved onshore or in lakes. Former studies showed that low frequency variations in such reconstructions can be biased if the relict and recent material is from different origins. A detailed analysis of the influence of various ecological (micro-) habitats representing the recent part is required to estimate potential errors in temperature estimates. The application of collective detrending methods, that comprise absolute growth rates, can produce errors in climate reconstructions and results in an underestimation of past temperatures. The appearance of these kind of micro-site effects is a wide-spread phenomenon that takes place all over Fennoscandia. Future research in this key region for dendroclimatology should take this issue into account. Especially the higher climate response at the lakeshore site is interesting to achieve smaller uncertainties when a tree-ring series is transformed to temperature anomalies. For new composite chronologies the main aim should be to minimize potential biases and this includes also micro-site effects.
Resumo:
Der atmosphärische Kreislauf reaktiver Stickstoffverbindungen beschäftigt sowohl die Naturwissenschaftler als auch die Politik. Dies ist insbesondere darauf zurückzuführen, dass reaktive Stickoxide die Bildung von bodennahem Ozon kontrollieren. Reaktive Stickstoffverbindungen spielen darüber hinaus als gasförmige Vorläufer von Feinstaubpartikeln eine wichtige Rolle und der Transport von reaktivem Stickstoff über lange Distanzen verändert den biogeochemischen Kohlenstoffkreislauf des Planeten, indem er entlegene Ökosysteme mit Stickstoff düngt. Die Messungen von stabilen Stickstoffisotopenverhältnissen (15N/14N) bietet ein Hilfsmittel, welches es erlaubt, die Quellen von reaktiven Stickstoffverbindungen zu identifizieren und die am Stickstoffkeislauf beteiligten Reaktionen mithilfe ihrer reaktionsspezifischen Isotopenfraktionierung genauer zu untersuchen. rnIn dieser Doktorarbeit demonstriere ich, dass es möglich ist, mit Hilfe von Nano-Sekundärionenmassenspektrometrie (NanoSIMS) verschiedene stickstoffhaltige Verbindungen, die üblicherweise in atmosphärischen Feinstaubpartikeln vorkommen, mit einer räumlichen Auflösung von weniger als einem Mikrometer zu analysieren und zu identifizieren. Die Unterscheidung verschiedener stickstoffhaltiger Verbindungen erfolgt anhand der relativen Signalintensitäten der positiven und negativen Sekundärionensignale, die beobachtet werden, wenn die Feinstaubproben mit einem Cs+ oder O- Primärionenstrahl beschossen werden. Die Feinstaubproben können direkt auf dem Probenahmesubstrat in das Massenspektrometer eingeführt werden, ohne chemisch oder physikalisch aufbereited zu werden. Die Methode wurde Mithilfe von Nitrat, Nitrit, Ammoniumsulfat, Harnstoff, Aminosären, biologischen Feinstaubproben (Pilzsporen) und Imidazol getestet. Ich habe gezeigt, dass NO2 Sekundärionen nur beim Beschuss von Nitrat und Nitrit (Salzen) mit positiven Primärionen entstehen, während NH4+ Sekundärionen nur beim Beschuss von Aminosäuren, Harnstoff und Ammoniumsalzen mit positiven Primärionen freigesetzt werden, nicht aber beim Beschuss biologischer Proben wie z.B. Pilzsporen. CN- Sekundärionen werden beim Beschuss aller stickstoffhaltigen Verbindungen mit positiven Primärionen beobachtet, da fast alle Proben oberflächennah mit Kohlenstoffspuren kontaminiert sind. Die relative Signalintensität der CN- Sekundärionen ist bei kohlenstoffhaltigen organischen Stickstoffverbindungen am höchsten.rnDarüber hinaus habe ich gezeigt, dass an reinen Nitratsalzproben (NaNO3 und KNO3), welche auf Goldfolien aufgebracht wurden speziesspezifische stabile Stickstoffisotopenverhältnisse mithilfe des 15N16O2- / 14N16O2- - Sekundärionenverhältnisses genau und richtig gemessen werden können. Die Messgenauigkeit auf Feldern mit einer Rastergröße von 5×5 µm2 wurde anhand von Langzeitmessungen an einem hausinternen NaNO3 Standard als ± 0.6 ‰ bestimmt. Die Differenz der matrixspezifischen instrumentellen Massenfraktionierung zwischen NaNO3 und KNO3 betrug 7.1 ± 0.9 ‰. 23Na12C2- Sekundärionen können eine ernst zu nehmende Interferenz darstellen wenn 15N16O2- Sekundärionen zur Messung des nitratspezifischen schweren Stickstoffs eingesetzt werden sollen und Natrium und Kohlenstoff im selben Feinstaubpartikel als interne Mischung vorliegt oder die natriumhaltige Probe auf einem kohlenstoffhaltigen Substrat abgelegt wurde. Selbst wenn, wie im Fall von KNO3, keine derartige Interferenz vorliegt, führt eine interne Mischung mit Kohlenstoff im selben Feinstaubpartikel zu einer matrixspezifischen instrumentellen Massenfraktionierung die mit der folgenden Gleichung beschrieben werden kann: 15Nbias = (101 ± 4) ∙ f − (101 ± 3) ‰, mit f = 14N16O2- / (14N16O2- + 12C14N-). rnWird das 12C15N- / 12C14N- Sekundärionenverhältnis zur Messung der stabilen Stickstoffisotopenzusammensetzung verwendet, beeinflusst die Probematrix die Messungsergebnisse nicht, auch wenn Stickstoff und Kohlenstoff in den Feinstaubpartikeln in variablen N/C–Verhältnissen vorliegen. Auch Interferenzen spielen keine Rolle. Um sicherzustellen, dass die Messung weiterhin spezifisch auf Nitratspezies eingeschränkt bleibt, kann eine 14N16O2- Maske bei der Datenauswertung verwendet werden. Werden die Proben auf einem kohlenstoffhaltigen, stickstofffreien Probennahmesubstrat gesammelt, erhöht dies die Signalintensität für reine Nitrat-Feinstaubpartikel.
Resumo:
In der vorliegenden Arbeit wurden Essigsäure-, Propionsäure und Buttersäure-bildende Bakterien aus einer thermophilen und drei mesophilen Biogasanlagen sowie aus zwei Hochdruck-Biogas-Laborfermentern isoliert. Die Fermenter waren mit dem nachwachsenden Rohstoff Maissilage, teilweise mit Rinder- oder Schweinegülle und weiteren festen Inputstoffen gefüttert. Für die Isolierung von Säure-bildenden Bakterien wurde ein Mineralsalzmedium verwendet, welchem als Kohlenstoffquelle Na-DL-Laktat, Succinat, Ethanol, Glycerin, Glucose oder eine Aminosäuremischung (Alanin, Serin, Threonin, Glutaminsäure, Methionin und Cystein) hinzugefügt wurde. Hierbei handelt es sich um Substrate, welche beim anaeroben Abbau während der Hydrolyse oder der primären Gärung entstehen können. Die erhaltenen Isolate waren in der Lage, aus diesen Substraten Essigsäure, Propionsäure oder Buttersäure zu bilden. Insgesamt wurden aus den beprobten Anlagen 49 Isolate gewonnen, welche zu den Phyla Firmicutes, Tenericutes oder Thermotogae gehörten. Mit Hilfe von 16S rDNA-Sequenzen konnten die meisten Isolate als Clostridium sporosphaeroides, Defluviitoga tunisiensis und Dendrosporobacter sp. identifiziert werden. Die Bildung von Essigsäure, Propionsäure oder Buttersäure wurde in Kulturen von Isolaten festgestellt, welche als folgende Arten identifiziert wurden: Bacillus thermoamylovorans, Clostridium aminovalericum, Clostridium cochlearium/Clostridium tetani, Clostridium sporosphaeroides, Dendrosporobacter sp., Proteiniborus sp., Selenomonas bovis und Tepidanaerobacter sp. Zwei Isolate, verwandt mit Thermoanaerobacterium thermosaccharolyticum, konnten Buttersäure und Milchsäure bilden. In Kulturen von Defluviitoga tunisiensis wurde Essigsäurebildung festgestellt. Ein Vergleich der 16S rDNA-Sequenzen mit Datenbanken und die Ergebnisse der PCR-Amplifikationen mit Isolat-spezifischen Primerpaaren ergaben zusätzlich Hinweise, dass es sich bei einigen Isolaten um neue Arten handeln könnte (z. B. Stamm Tepidanaerobacter sp. AS34, Stamm Proteiniborus sp. ASG1.4, Stamm Dendrosporobacter sp. LG2.4, Stamm Desulfotomaculum sp. EG2.4, Stamm Gallicola sp. SG1.4B und Stamm Acholeplasma sp. ASSH51). Durch die Entwicklung Isolat-spezifischer Primerpaare, abgeleitet von 16S rDNA-Sequenzen der Isolate oder Referenzstämmen, konnten die Isolate in Biogasanlagen detektiert und mittels qPCR quantifiziert werden (hauptsächlich im Bereich zwischen 1000 bis 100000000 Kopien der 16S rDNA/g BGA-Probe). Weiterhin konnten die Isolate mit Hilfe physiologischer Versuche charakterisiert und deren Rolle in der anaeroben Abbaukette diskutiert werden. Die Art Defluviitoga tunisiensis scheint eine große Bedeutung in Biogasanlagen zu spielen. Defluviitoga tunisiensis wurde am häufigsten in Untersuchungen im Rahmen der vorliegenden Arbeit isoliert und konnte auch mit Hilfe des entwickelten Primerpaares in hohen Abundanzen in den beprobten Biogasanlagen detektiert werden (10000 - 100000000 Kopien der 16S rDNA/g BGA-Probe). Die manuelle Annotation des Gesamtgenoms sowie die Substratverwertungsversuche haben gezeigt, dass Defluviitoga tunisiensis ein sehr breites Substratspektrum in der Verwertung von Kohlenhydraten besitzt und dadurch möglicherweise eine wichtige Rolle bei der Verwertung von Biomasse in Biogasanlagen einnimmt. Mit Hilfe der Ergebnisse der vorliegenden Arbeit konnten somit neue Einblicke in die zweite Stufe des anaeroben Abbaus, die Acidogenese, in Biogasanlagen gegeben werden. rn
Resumo:
In der Form von Nanokapseln (AmB-HST), Nanoemulsion beziehungsweise multilamellaren Vesikeln (MLV) wurden drei Amphotericin-B-Formulierungen für die orale Applikation entwickelt, charakterisiert und verglichen. Die neuartige homogene Nanokapsel-Formulierung des hydrophoben Polyen-Antimykotikums Amphotericin B wurde in Analogie zu einem für Simvastatin und andere Arzneistoffe etablierten Prozess aus der Reinsubstanz, Lezithin und Gelatine mit Hilfe des HST-Verfahrens hergestellt. Photometrische Untersuchungen zeigten, dass das Endprodukt aus Monomeren aufgebaut ist. Mittels Mikroskopie ließen sich die Aggregate vor der Umhüllung mit Lezithin und Gelatine im Ausgangsmaterial als individuelle kugelförmige Arzneistoffpartikel darstellen. Strukturuntersuchungen mit dynamischer licht streuung (DLS) zeigten eine enge Größenverteilung der verkapselten Partikel von ca. 1 µm. Die Struktur der Hülle der HST-Partikel wurde erstmalig mit Neutronenstreuung unter Verwendung der Deuterium-basierten Lösungsmittel kontrastmethode aufgeklärt. Durch die teilweise Kontrastmaskierung des Partikelkerns bei der Neutronenstreuung konnte die Lezithin-Gelatine-Hülle als eine dünne, 5,64 ± 0.18 nm dicke Schicht aufgelöst werden, welche der biologischen Lipidmembran ähnlich, im Vergleich aber geringfügig größer ist. Dieses Resultat eröffnet Wege für die Optimierung der Formulierung von pharmazeutischen Nanopartikeln, z.B. durch Oberflächenmodifizierungen. Weitere Untersuchungen mittels Kleinwinkelneutronenstreuung unter Verwendung der D-Kontrastvariation deuten darauf hin, dass die Komponenten der Nanokapseln nicht den gleichen Masseschwerpunkt haben, sondern asymmetrisch aufgebaut sind und dass die stärker streuenden Domänen weiter außen liegen. Die Partikel sind im Vergleich zu Liposomen dichter. In-Vitro Freisetzungsstudien belegen das Solubilisierungsvermögen des HST-Systems, wonach die Freisetzung des Arzneistoffes aus der Formulierung zu allen gemessenen Zeitpunkten höher als diejenige der Reinsubstanz war. rnDie Nanoemulsion-Formulierung von Amphotericin B wurde mit einem Öl und Tensid system, jedoch mit unterschiedlichen Co-Solvenzien, erfolgreich entwickelt. Gemäß der Bestimmung der Löslichkeit in verschiedenen Hilfsstoffen erwies sich der Arzneistoff Amphotericin B als nicht-lipophil, gleichzeitig aber auch als nicht-hydrophil. Die zur Ermittlung der für die Emulsionsbildung notwendigen Hilfstoffkonzentrationen erstellten ternären Diagramme veranschaulichten, dass hohe Öl- und Tensidgehalte zu keiner Emulsionsbildung führten. Dementsprechend betrug der höchste Ölgehalt 10%. Die Tröpfchengröße wuchs mit zunehmender Tensidkonzentration, wobei die Co-Solventmenge der Propylenglykol-haltigen Nanoemulsion indirekt verringert wurde. Für die Transcutol®P-haltige Nanoemulsion hingegen wurde das Gegenteil beobachtet, nämlich eine Abnahme der Tröpfchengröße bei steigenden Tensidkonzentrationen. Durch den Einschluss des Arzneistoffes wurde nicht die Viskosität der Formulierung, sondern die Tröpfchengröße beeinflusst. Der Wirkstoffeinschluss führte zu höheren Tröpfchengrößen. Mit zunehmender Propylenglykolkonzentration wurde der Wirkstoffgehalt erhöht, mit zunehmender Transcutol®P-Konzentration dagegen vermindert. UV/VIS-spektroskopische Analysen deuten darauf hin, dass in beiden Formulierungen Amphotericin B als Monomer vorliegt. Allerdings erwiesen sich die Formulierungen Caco-2-Zellen und humanen roten Blutkörperchen gegenüber als toxisch. Da die Kontrollproben eine höhere Toxizität als die wirkstoffhaltigen Formulierungen zeigten, ist die Toxizität nicht nur auf Amphotericin, sondern auch auf die Hilfsstoffe zurückzuführen. Die solubilisierte Wirkstoffmenge ist in beiden Formulierungen nicht ausreichend im Hinblick auf die eingesetzte Menge an Hilfsstoff nach WHO-Kriterien. Gemäß diesen Untersuchungen erscheinen die Emulsions-Formulierungen für die orale Gabe nicht geeignet. Dennoch sind Tierstudien notwendig, um den Effekt bei Tieren sowie die systemisch verfügbare Wirkstoffmenge zu ermitteln. Dies wird bestandskräftige Schlussfolgerungen bezüglich der Formulierung und Aussagen über mögliche Perspektiven erlauben. Nichtsdestotrotz sind die Präkonzentrate sehr stabil und können bei Raumtemperatur gelagert werden.rnDie multilamellar-vesikulären Formulierungen von Amphotericin B mit ungesättigten und gesättigten neutralen Phospholipiden und Cholesterin wurden erfolgreich entwickelt und enthielten nicht nur Vesikel, sondern auch zusätzliche Strukturen bei zunehmender Cholesterinkonzentration. Mittels Partikelgrößenanalyse wurden bei den Formulierungen mit gesättigten Lipiden Mikropartikel detektiert, was abhängig von der Alkylkettenlänge war. Mit dem ungesättigten Lipid (DOPC) konnten hingegen Nanopartikel mit hinreichender Verkapselung und Partikelgrößenverteilung gebildet werden. Die Ergebnisse der thermischen und FTIR-spektroskopischen Analyse, welche den Einfluss des Arzneistoffes ausschließen ließen, liefern den Nachweis für die mögliche, bereits in der Literatur beschriebene Einlagerung des Wirkstoffs in lipid- und/oder cholesterinreiche Membranen. Mit Hilfe eines linearen Saccharosedichtegradienten konnte die Formulierung in Vesikel und Wirkstoff-Lipid-Komplexe nach bimodaler Verteilung aufgetrennt werden, wobei der Arzneistoff stärker mit den Komplexen als mit den Vesikeln assoziiert ist. Bei den Kleinwinkelneutronenstreu-Experimenten wurde die Methode der Kontrastvariation mit Erfolg angewendet. Dabei konnte gezeigt werden, dass Cholesterol in situ einen Komplex mit Amphotericin B bildet. Diesen Sachverhalt legt unter anderem die beobachtete Differenz in der äquivalenten Streulängendichte der Wirkstoff-Lipid- und Wirkstoff-Lipid-Cholesterin-haltigen kleinen unilamellaren Vesikeln nahe. Das Vorkommen von Bragg-Peaks im Streuprofil weist auf Domänen hin und systematische Untersuchungen zeigten, dass die Anzahl der Domänen mit steigendem Cholesteringehalt zunimmt, ab einem bestimmten Grenzwert jedoch wieder abnimmt. Die Domänen treten vor allem nahe der Außenfläche der Modellmembran auf und bestätigen, dass der Wirkstoff in den Cholesterinreichen Membranen vertikal eingelagert ist. Die Formulierung war sowohl Caco-2-Zellen als auch humanen roten Blutkörperchen gegenüber nicht toxisch und erwies sich unter Berücksichtigung der Aufnahme in Caco-2-Zellen als vielversprechend für die orale Applikation. Die Formulierung zeigt sich somit aussichtsreich und könnte in Tabletten weiterverarbeitet werden. Ein Filmüberzug würde den Wirkstoff gegen die saure Umgebung im Magen schützen. Für die Bestimmung der systemischen Verfügbarkeit der Formulierung sind Tierstudien notwendig. Die entwickelten multilamellaren Formulierungen einschließlich der Wirkstoff-Cholesterin-Komplexe bieten somit gute Aussichten auf die mögliche medizinische Anwendung. rnrn
Resumo:
Moderne ESI-LC-MS/MS-Techniken erlauben in Verbindung mit Bottom-up-Ansätzen eine qualitative und quantitative Charakterisierung mehrerer tausend Proteine in einem einzigen Experiment. Für die labelfreie Proteinquantifizierung eignen sich besonders datenunabhängige Akquisitionsmethoden wie MSE und die IMS-Varianten HDMSE und UDMSE. Durch ihre hohe Komplexität stellen die so erfassten Daten besondere Anforderungen an die Analysesoftware. Eine quantitative Analyse der MSE/HDMSE/UDMSE-Daten blieb bislang wenigen kommerziellen Lösungen vorbehalten. rn| In der vorliegenden Arbeit wurden eine Strategie und eine Reihe neuer Methoden zur messungsübergreifenden, quantitativen Analyse labelfreier MSE/HDMSE/UDMSE-Daten entwickelt und als Software ISOQuant implementiert. Für die ersten Schritte der Datenanalyse (Featuredetektion, Peptid- und Proteinidentifikation) wird die kommerzielle Software PLGS verwendet. Anschließend werden die unabhängigen PLGS-Ergebnisse aller Messungen eines Experiments in einer relationalen Datenbank zusammengeführt und mit Hilfe der dedizierten Algorithmen (Retentionszeitalignment, Feature-Clustering, multidimensionale Normalisierung der Intensitäten, mehrstufige Datenfilterung, Proteininferenz, Umverteilung der Intensitäten geteilter Peptide, Proteinquantifizierung) überarbeitet. Durch diese Nachbearbeitung wird die Reproduzierbarkeit der qualitativen und quantitativen Ergebnisse signifikant gesteigert.rn| Um die Performance der quantitativen Datenanalyse zu evaluieren und mit anderen Lösungen zu vergleichen, wurde ein Satz von exakt definierten Hybridproteom-Proben entwickelt. Die Proben wurden mit den Methoden MSE und UDMSE erfasst, mit Progenesis QIP, synapter und ISOQuant analysiert und verglichen. Im Gegensatz zu synapter und Progenesis QIP konnte ISOQuant sowohl eine hohe Reproduzierbarkeit der Proteinidentifikation als auch eine hohe Präzision und Richtigkeit der Proteinquantifizierung erreichen.rn| Schlussfolgernd ermöglichen die vorgestellten Algorithmen und der Analyseworkflow zuverlässige und reproduzierbare quantitative Datenanalysen. Mit der Software ISOQuant wurde ein einfaches und effizientes Werkzeug für routinemäßige Hochdurchsatzanalysen labelfreier MSE/HDMSE/UDMSE-Daten entwickelt. Mit den Hybridproteom-Proben und den Bewertungsmetriken wurde ein umfassendes System zur Evaluierung quantitativer Akquisitions- und Datenanalysesysteme vorgestellt.
Resumo:
In den letzten Jahren stieg in Deutschland der Gebrauch bzw. Missbrauch von Opioid-Analgetika zunehmend an. Das entwickelte Verfahren sollte unter Einbeziehung neuer Substanzen möglichst viele verschiedene Opioide und auch ihre pharmakologisch aktiven Stoffwechselprodukte berücksichtigen.rnVor Analyse wurden Blut-, Serum- oder Urinproben mit Phosphatpuffer versetzt und mittels Festphasenextraktion an C18-Säulenmaterial aufgearbeitet. Post-Mortem-Gewebematerial wurde mit isotonischer Kochsalzlösung versetzt, homogenisiert und anschließend durch eine Festphasenextraktion aufgereinigt. Haarproben wurden nach Zerkleinerung mit Methanol unter Ultrabeschallung extrahiert. Die Flüssigchromatographie gekoppelt mit Tandem-Massenspektrometrie (Elektrosprayionisation im positiven Modus) erwies sich als geeignetes Verfahren für die simultane Bestimmung der Opioide in biologischem Probenmaterial (Körperflüssigkeiten, Gewebe und Haaren). Der Multi-Analyt Assay erlaubt die quantitative Analyse von 35 verschiedenen Opioiden. Die Analyten wurden durch eine Phenyl-Hexyl Säule und einen Wasser/Acetonitril Gradienten durch eine UPLC 1290 Infinity gekoppelt mit einem 6490 Triple Quadrupol von Agilent Technologies separiert.rnDie LC/MS Methode zur simultanen Bestimmung von 35 Opioiden in Serum und Haaren wurde nach den Richtlinien der Gesellschaft für Toxikologische und Forensische Chemie (GTFCh) validiert. Im Fall der Serumvalidierung lagen die Nachweisgrenzen zwischen 0.02 und 0.6 ng/ml und die Bestimmungsgrenzen im Bereich von 0.1 bis 2.0 ng/ml. Die Kalibrationskurven waren für die Kalibrationslevel 1 bis 6 linear. Wiederfindungsraten lagen für alle Verbindungen zwischen 51 und 88 %, außer für Alfentanil, Bisnortiliidn, Pethidin und Morphin-3-Glucuronid. Der Matrixeffekt lag zwischen 86 % (Ethylmorphin) und 105 % (Desomorphin). Für fast alle Analyten konnten akzeptable Werte bei der Bestimmung der Genauigkeit und Richtigkeit nach den Richtlinien der GTFCh erhalten werden. Im Fall der Validierung der Haarproben lagen die Nachweisgrenzen zwischen 0.004 und 0.6 ng/Probe und die Bestimmungsgrenzen zwischen 0.1 ng/Probe und 2.0 ng/Probe. Für die Kalibrationslevel 1 bis 6 waren alle Kalibrationsgeraden linear. Die Wiederfindungsraten lagen für die Opioide im Bereich von 73.5 % (Morphin-6-Glucuronid) und 114.1 % (Hydrocodon). Die Werte für die Bestimmung der Richtigkeit lagen zwischen - 6.6 % (Methadon) und + 11.7 % (Pholcodin). Präzisionsdaten wurden zwischen 1.0 % für Dextromethorphan und 11.5 % für Methadon ermittelt. Die Kriterien der GTFCh konnten bei Ermittlung des Matrixeffekts für alle Substanzen erfüllt werden, außer für 6-Monoacetylmorphin, Bisnortilidin, Meperidin, Methadon, Morphin-3-glucuronid, Morphin-6-glucuronid, Normeperidin, Nortilidin und Tramadol.rnZum Test des Verfahrens an authentischem Probenmaterial wurden 206 Proben von Körperflüssigkeiten mit Hilfe der simultanen LC/MS Screening Methode untersucht. Über 150 Proben wurden im Rahmen von forensisch-toxikologischen Untersuchungen am Instituts für Rechtsmedizin Mainz analysiert. Dabei konnten 23 der 35 Opioide in den realen Proben nachgewiesen werden. Zur Untersuchung der Pharmakokinetik von Opioiden bei Patienten der anästhesiologischen Intensivstation mit Sepsis wurden über 50 Blutproben untersucht. Den Patienten wurde im Rahmen einer klinischen Studie einmal täglich vier Tage lang Blut abgenommen. In den Serumproben wurde hauptsächlich Sufentanil (0.2 – 0.8 ng/ml in 58 Fällen) und Piritramid (0.4 – 11 ng/ml in 56 Fällen) gefunden. Außerdem wurden die Proben von Körperflüssigkeiten und Gewebe von 13 verschiedenen Autopsiefällen mit Hilfe des Multi-Analyt Assays auf Opioide untersucht.rnIn einem zweiten Schritt wurde die Extraktions- und Messmethode zur Quantifizierung der 35 Opioide am Forensic Medicine Center in Ho Chi Minh City (Vietnam) etabliert. Insgesamt wurden 85 Herzblutproben von Obduktionsfällen mit Verdacht auf Opiatintoxikation näher untersucht. Der überwiegende Teil der untersuchten Fälle konnte auf eine Heroin- bzw. Morphin-Vergiftung zurückgeführt werden. Morphin wurde in 68 Fällen im Konzentrationsbereich 1.7 – 1400 ng/ml und der Heroinmetabolit 6-Monoactetylmorphin in 34 Fällen (0.3 – 160 ng/ml) nachgewiesen werden.rnSchließlich wurden noch 15 Haarproben von Patienten einer psychiatrischen Klinik, die illegale Rauschmittel konsumiert hatten, mit Hilfe der simultanen Opioid-LC/MS Screeningmethode gemessen. Die Ergebnisse der Untersuchung wurden mit früheren Auswertungen von gaschromatographischen Analysen verglichen. Es zeigte sich eine weitgehende Übereinstimmung der Untersuchungsergebnisse für die Opioide 6-Monoacetylmorphin, Morphin, Codein, Dihydrocodein und Methadon. Mit der LC/MS Methode konnten weitere Substanzen, wie zum Beispiel Bisnortilidin, Dextromethorphan und Tramadol in den Haarproben gefunden werden, die bislang nicht entdeckt worden waren.rn
Resumo:
The incorporation of modified nucleotides into ribonucleic acids (RNAs) is important for their structure and proper function. These modifications are inserted by distinct catalytic macromolecules one of them being Dnmt2. It methylates the Cytidine (C) at position 38 in tRNA to 5-methylcytidine (m5C). Dnmt2 has been a paradigm in this respect, because all of its nearest neighbors in evolution are DNA-cytosine C5-methyltransferases and methylate DNA, while its (own) DNA methyltransferase activity is the subject of controversial reports with rates varying between zero and very weak. This work determines whether the biochemical potential for DNA methylation is present in the enzyme. It was discovered that DNA fragments, when presented as covalent RNA:DNA hybrids in the structural context of a tRNA, can be more efficiently methylated than the corresponding natural tRNA substrate. Additional minor deviations from a native tRNA structure that were seen to be tolerated by Dnmt2 were used for a stepwise development of a composite system of guide RNAs that enable the enzyme to perform cytidine methylation on single stranded DNA in vitro. Furthermore, a proof-of-principle is presented for utilizing the S-adenosyl methionine-analog cofactor SeAdoYn with Dnmt2 to search for new possible substrates in a SELEX-like approach.rnIn innate immunity, nucleic acids can function as pathogen associated molecular patterns (PAMPs) recognized by pattern recognition receptors (PRRs). The modification pattern of RNA is the discriminating factor for toll-like receptor 7 (TLR7) to distinguish between self and non-self RNA of invading pathogens. It was found that a 2'-O-methylated guanosine (Gm) at position18, naturally occurring at this position in some tRNAs, antagonizes recognition by TLR7. In the second part of this work it is pointed out, that recognition extends to the next downstream nucleotide and the effectively recognized molecular detail is actually a methylated dinucleotide. The immune silencing effect of the ribose methylation is most pronounced if the dinucleotide motif is composed of purin nucleobases whereas pyrimidines diminish the effect. Similar results were obtained when the Gm modification was transposed into other tRNA domains. Point mutations abolishing base pairings important for a proper tertiary structure had no effect on the immune stimulatory potential of a Gm modified tRNA. Taken together these results suggest a processive type of RNA inspection by TLR7.rn
Resumo:
Klimamontoring benötigt eine operative, raum-zeitliche Analyse der Klimavariabilität. Mit dieser Zielsetzung, funktionsbereite Karten regelmäßig zu erstellen, ist es hilfreich auf einen Blick, die räumliche Variabilität der Klimaelemente in der zeitlichen Veränderungen darzustellen. Für aktuelle und kürzlich vergangene Jahre entwickelte der Deutsche Wetterdienst ein Standardverfahren zur Erstellung solcher Karten. Die Methode zur Erstellung solcher Karten variiert für die verschiedenen Klimaelemente bedingt durch die Datengrundlage, die natürliche Variabilität und der Verfügbarkeit der in-situ Daten.rnIm Rahmen der Analyse der raum-zeitlichen Variabilität innerhalb dieser Dissertation werden verschiedene Interpolationsverfahren auf die Mitteltemperatur der fünf Dekaden der Jahre 1951-2000 für ein relativ großes Gebiet, der Region VI der Weltorganisation für Meteorologie (Europa und Naher Osten) angewendet. Die Region deckt ein relativ heterogenes Arbeitsgebiet von Grönland im Nordwesten bis Syrien im Südosten hinsichtlich der Klimatologie ab.rnDas zentrale Ziel der Dissertation ist eine Methode zur räumlichen Interpolation der mittleren Dekadentemperaturwerte für die Region VI zu entwickeln. Diese Methode soll in Zukunft für die operative monatliche Klimakartenerstellung geeignet sein. Diese einheitliche Methode soll auf andere Klimaelemente übertragbar und mit der entsprechenden Software überall anwendbar sein. Zwei zentrale Datenbanken werden im Rahmen dieser Dissertation verwendet: So genannte CLIMAT-Daten über dem Land und Schiffsdaten über dem Meer.rnIm Grunde wird die Übertragung der Punktwerte der Temperatur per räumlicher Interpolation auf die Fläche in drei Schritten vollzogen. Der erste Schritt beinhaltet eine multiple Regression zur Reduktion der Stationswerte mit den vier Einflussgrößen der Geographischen Breite, der Höhe über Normalnull, der Jahrestemperaturamplitude und der thermischen Kontinentalität auf ein einheitliches Niveau. Im zweiten Schritt werden die reduzierten Temperaturwerte, so genannte Residuen, mit der Interpolationsmethode der Radialen Basis Funktionen aus der Gruppe der Neuronalen Netzwerk Modelle (NNM) interpoliert. Im letzten Schritt werden die interpolierten Temperaturraster mit der Umkehrung der multiplen Regression aus Schritt eins mit Hilfe der vier Einflussgrößen auf ihr ursprüngliches Niveau hochgerechnet.rnFür alle Stationswerte wird die Differenz zwischen geschätzten Wert aus der Interpolation und dem wahren gemessenen Wert berechnet und durch die geostatistische Kenngröße des Root Mean Square Errors (RMSE) wiedergegeben. Der zentrale Vorteil ist die wertegetreue Wiedergabe, die fehlende Generalisierung und die Vermeidung von Interpolationsinseln. Das entwickelte Verfahren ist auf andere Klimaelemente wie Niederschlag, Schneedeckenhöhe oder Sonnenscheindauer übertragbar.
Resumo:
„Intelligent, anpassungsfähig, verschwiegen und zuverlässig“ – so charakterisierte der Bundesnachrichtendienst seinen Agenten „ADLER“ in dessen Abschaltmeldung. rnEin halbes Jahr – von Mai bis Dezember 1966 – hatte „ADLER“ in Diensten des westdeutschen Auslandsnachrichtendienstes gestanden und seine Vorgesetzten für ein monatliches Salär von 500 DM mit Informationen über linksgerichtete Entwicklungstendenzen in Bolivien versorgt. rnBereits zwölf Jahre zuvor, im November 1954, war der deutsche Agent, der nun für den BND in Lateinamerika spionierte, vom Ständigen Militärgericht in Lyon aufgrund seiner während des Zweiten Weltkrieges begangenen Kriegsverbrechen in Abwesenheit zum Tode verurteilt worden. rnDoch Klaus Barbie, der sich in seiner Funktion als Gestapo-Offizier zwischen 1942 und 1944 am Mord hunderter Mitglieder der französischen Résistance schuldig gemacht hatte, war zu diesem Zeitpunkt bereits „verschwunden“. Deutsche und französische Ermittlungsbehörden vermuteten ihn in Deutschland, dann wieder in Ägypten. Erst zu Beginn der siebziger Jahre wurde der in Bolivien lebende Geschäftsmann „Klaus Altmann“ als ehemaliger Gestapo-Chef von Lyon identifiziert. rnSchon damals stellten Serge und Beate Klarsfeld, die mit ihren Ermittlungen den „Fall Barbie“ über Nacht auf die Titelseiten der internationalen Presse katapultierten, die berechtigte Frage, wie es möglich war, dass der NS-Kriegsverbrecher nach 1945 nach Lateinamerika entkommen konnte. Sie nährten damit bereits existierende Gerüchte, der amerikanische Geheimdienst sei an der Protektion Barbies nicht unbeteiligt gewesen. Die Auslieferungsbemühungen verliefen zunächst im Sande. rnZu groß war die Unterstützung, die der NS-Verbrecher von Seiten bolivianischer Militärdiktaturen genoss. Erst 1983 sollte Barbie an Frankreich ausgewiesen und vor Gericht gestellt werden. Die Flut internationaler Presseartikel im Vorfeld des „Jahrhundert-Prozesses“, die eine Beziehung Barbies mit westlichen Geheimdiensten nahelegte, gab schließlich Anlass für einen Offenbarungseid. Aus Angst, Barbie könne vor Gericht für einen Skandal sorgen, flüchtete die US-Regierung nach vorne: Gestützt auf hunderte Seiten teils streng geheimer Dokumente der US-Armee konnte der im August 1983 von Seiten des US-Justizministeriums vorgelegte Untersuchungsbericht belegen, dass das Counter Intelligence Corps, der Heeresgeheimdienst der US-Armee, den NS-Täter im April 1947 als Informanten angeworben, ihn vor den französischen Ermittlern versteckt und ihn 1951 mit Hilfe einer geheimen „Rattenlinie“ unter dem Aliasnamen „Altmann“ aus Europa nach Bolivien geschleust hatte.rnDie vorliegende Dissertation rekapituliert erstmals vollständig die Beziehungen zwischen Barbie und westlichen Geheimdiensten nach 1945 auf Basis des mittlerweile zugänglichen Aktenmaterials in deutschen, französischen, britischen, bolivianischen und US-amerikanischen Archiven. Im Mittelpunkt steht dabei die Analyse der einzelnen Faktoren, die die Rekrutierung von NS-Tätern durch westliche Nachrichtendienste nach 1945 begünstigten. rn rn