282 resultados para Menschen mit Behinderung
Resumo:
Mit etwa 350 Millionen chronisch-infizierten Menschen gehört die Hepatitis-B neben der Tuberkulose und AIDS zu den häufigsten Infektionskrankheiten der Welt. Der einzig sichere Schutz vor dem bis zur Leberzirrhose persistierenden Virus bietet eine vorbeugende Impfung. Eine angemessene Therapie chronisch-erkrankter Patienten ist durch die Unkenntnis über viele Bereiche des HBV-Lebenszyklus nur eingeschränkt möglich. Gegenstand dieser Arbeit war vor allem etwas Licht in das Wechselspiel zwischen HBV und der Wirtszelle zu bringen und zelluläre Komponenten und Mechanismen zu identifizieren, die am Sortierungs- und Transportmechanismus viraler Substrukturen zur sogenannten Assembly-Plattform beteiligt sind, um dort die Freisetzung des Virus zu initiieren. Mit der vorliegenden Arbeit habe ich Methoden der Zellbiologie, Mikrobiologie, Molekularbiologie und Virologie vereint, um neue Einblicke in den HBV-Lebenszyklus zu gewinnen. Für die Ausschleusung von HBV wird seither der konstitutive Weg der Sekretion angenommen. In Anlehnung an den Mechanismus umhüllter RNA-Viren kann die Hypothese aufgestellt werden, dass das MVB (Multivesicular Body) im Prozess der HBV-Freisetzung beteiligt sein könnte. Die Freisetzung des Hepatitis-B-Virus aus einer infizierten Zelle ist ein streng organisierter Prozess, der sowohl das HBV-Coreprotein als auch die HBV-Hüllproteine zu benötigen scheint. (max. 5.000 Zeichen)Inhaltszusammenfassung in einer weiteren Sprache deutschenglischfranzösischrussischmehrsprachigsonst.Ausgangspunkt der Arbeit war eine spezifische Interaktion des großen HBV-Hüllproteins (L) mit einem neuen Mitglied der Adaptor-Protein-Komplex-Familie (AP-Komplex), dem g2?Adaptin (Hartmann-Stühler und Prange, 2001), das mutmaßlich an endosomalen Sortierungs- und Transportprozessen beteiligt ist. In Analogie zur Funktionsweise von Adaptin-Molekülen wurde vom g2-Adaptin eine Rolle in der Initiation und Steuerung der Sprossung und Freisetzung von HBV vermutet. Die im Rahmen dieser Arbeit erweiterte Charakterisierung der g2/L-Interaktion zeigte zum einen, dass die Ohrdomäne des Adaptins für die Interaktion essentiell ist und zum anderen, dass die Rekrutierung des Adaptins durch das L-Protein zu cis-Golgi-Strukturen innerhalb kleiner Transportvesikel entlang des Nukleus (perinukleär) erfolgt. Erste Ergebnisse dieser Arbeit deuteten bereits an, dass das virale Coreprotein mit demselben Adaptorprotein zu interagieren vermag. Für die g2/Core-Interaktion erwies sich in Folgearbeiten die Kopfregion des g2-Adaptins als die entscheidende Bindungsdomäne (Rost et al., 2006). Sowohl eine funktionelle Inaktivierung des g2-Adaptins durch RNA-Interferenz als auch eine g2-Adaptin- Überexpression störten die Virusmontage in späten Phasen der Morphogenese. Während ein g2-Adaptin-Überschuss die HBV-Produktion indirekt durch die Induktion dysfunktioneller endosomaler Kompartimente blockierte, verhinderte der siRNA-induzierte g2-Adaptin-Verlust die späte Ausschleusung des Virus aus der Zelle. Das Silencing von g2-Adaptin zeigte dabei weder einen Einfluss auf endosomale Strukturen noch auf die Freisetzung subviraler Partikel (Viren ohne Genom). Demzufolge scheinen sich die Mechanismen der Produktion von subviralen und viralen HBV-Partikeln bezüglich ihrer Anforderungen an Zellfunktionen und Transportwegen deutlich voneinander zu unterscheiden. Es konnten erste Hinweise darauf gefunden werden, dass die Virusmontage an endosomalen Kompartimenten (zum Beispiel dem MVB) erfolgen könnte, was durch bereits weitergeführte Untersuchungen bestätigt werden konnte (Lambert et al., J Virol, epub ahead of print). Darüber hinaus ist inzwischen bekannt, dass das Hepatitis-B-Virus für den Zusammenbau und die Freisetzung nicht nur das Adaptor-verwandte g2-Adaptin, sondern auch die endosomale Ubiquitin Ligase Nedd4, wahrscheinlich in Zusammenhang mit Ubiquitin selbst (Rost et al., 2006), benötigt. Eine Untersuchung dieser weiterführenden Aspekte war jedoch nicht mehr Inhalt dieser Arbeit. Insgesamt weisen die Daten darauf hin, dass die Sortierung und der Transport der Substrukturen des Hepatitis-B-Virus durch den MVB-Komplex zu erfolgen scheint. Dabei könnte das g2-Adaptin mit Hilfe einer Reihe von Kofaktoren (wie zum Beispiel Nedd4, Ubiquitin, etc.) eine entscheidende Rolle an der Sortierung und Anbindung des viralen L- und Coreproteins an die Assembly-Plattform spielen. Doch der genaue Mechanismus, welcher große Ähnlichkeit mit dem umhüllter RNA-Viren (wie zum Beispiel HIV-1) aufweist, bleibt noch ungeklärt. Ob weitere zelluläre Kofaktoren an der HBV-Sprossung und Freisetzung beteiligt sind, bleibt ebenfalls unbekannt und bedarf weiterer Untersuchungen.
Resumo:
Einfluss einer Pharmazeutischen Betreuung auf den klinischen Verlauf und die Behandlungsergebnisse von Diabetikern mit Diabetischem Fußsyndrom (DFS) Hintergrund/Rationale: In Deutschland gibt es etwa 6 Millionen Diabetiker und die Tendenz ist steigend. Das Diabetische Fußsyndrom (DFS) stellt eine häufige und besonders gravierende Folgeerkrankung des Diabetes mellitus dar. Jährlich werden in Deutschland ca. 45.000 Amputationen aufgrund des DFS bei Diabetikern durchgeführt. Es verursacht bei den Patienten physische und psychische Beeinträchtigungen und produziert hohe Krankheitskosten. Der Prävention, der Behandlung und der Rezidivprophylaxe des DFS kommt daher ein hoher Stellenwert zu. Ziel dieser Arbeit war es, ein klinisch-pharmazeutisches Betreuungsprogramm für Patienten mit DFS zu erarbeiten und den Einfluss der Pharmazeutischen Betreuung, speziell einer intensivierten Patientenschulung, auf klinische und soziale Behandlungsergebnisse hin zu untersuchen. Es sollte geklärt werden, ob eine zusätzliche pharmazeutische Betreuung Einfluss auf den Wundheilungsverlauf und die Abheilungsrate der Fußläsionen von Diabetikern mit DFS nehmen kann. Methoden: 52 Patienten mit DFS wurden in eine randomisierte, kontrollierte Studie eingeschlossen und im Verhältnis 1:1 einer Interventions- oder Kontrollgruppe zugeteilt. Die Interventionsgruppe wurde kontinuierlich durch einen Apotheker zusätzlich individuell betreut (Anleitung zum sachgerechten Umgang mit Arzneimitteln, Medizinprodukten und Therapiemaßnahmen), die Kontrollgruppe erhielt die übliche medizinische Betreuung. Die Auswirkungen der Intervention auf den klinischen Verlauf der beobachteten Fußläsionen, die Rezidivfreiheit und Rehospitalisierungsrate, aber auch auf die Patientenzufriedenheit, das Patientenwissen und die Lebensqualität wurden untersucht. Jeder Patient wurde über einen Zeitraum von 12 Monaten beobachtet. Ergebnisse: Die Studienergebnisse belegen einen positiven Einfluss der Pharmazeutischen Betreuung auf die klinischen Endpunkte der Diabetiker mit DFS. Die Wundheilung der Läsionen in der Interventionsgruppe, bezogen auf Abheilungsdauer und -rate, konnte klinisch positiv beeinflusst werden. Des weiteren konnte in der Interventionsgruppe die Anzahl an neu aufgetretenen Läsionen, sowie weiterer Krankenhausaufenthalte um jeweils fast 50% verringert werden. Durch die Pharmazeutische Betreuung konnte die Patientenzufriedenheit mit der Behandlung deutlich gesteigert werden. Entsprechendes fand sich für das Patientenwissen und die Lebensqualität.
Resumo:
UV-B-Strahlung, die durch die fortschreitende Zerstörung der Ozonschicht zunimmt, ist hauptsächlich für das Entstehen von Basaliomen und Plattenepithelkarzinomen verantwort-lich, an denen jedes Jahr etwa 2-3 Millionen Menschen weltweit erkranken. UV-B indu-zierte Hautkarzinogenese ist ein komplexer Prozess, bei dem vor allem die mutagenen und immunsuppressiven Wirkungen der UV-B-Strahlung von Bedeutung sind. Die Rolle von GM-CSF in der Hautkarzinogenese ist dabei widersprüchlich. Aus diesem Grund wurde die Funktion von GM-CSF in vivo in der UV-B induzierten Hautkarzinogenese mittels zwei bereits etablierter Mauslinien untersucht: Erstens transgene Mäuse, die einen GM-CSF Antagonisten unter der Kontrolle des Keratin-10-Promotors in den suprabasalen Schichten der Epidermis exprimieren und zweitens solche, die unter dem Keratin-5-Promotor murines GM-CSF in der Basalschicht der Epidermis überexprimieren. Eine Gruppe von Tieren wurde chronisch, die andere akut bestrahlt. Die konstitutionelle Verfassung der Tiere mit erhöhter GM-CSF-Aktivität in der Haut war nach chronischer UV-B-Bestrahlung insgesamt sehr schlecht. Sie wiesen deshalb eine stark erhöhte Mortali-tät auf. Dies ist sowohl auf die hohe Inzidenz als auch dem frühen Auftreten der benignen und malignen Läsionen zurückzuführen. Eine verminderte GM-CSF Aktivität verzögerte dagegen die Karzinomentwicklung und erhöhte die Überlebensrate leicht. GM-CSF wirkt auf verschiedenen Ebenen tumorpromovierend: Erstens erhöht eine gesteigerte Mastzell-anzahl in der Haut der GM-CSF überexprimierenden Tiere per se die Suszeptibilität für Hautkarzinogenese. Zweitens stimuliert GM-CSF die Keratinozytenproliferation. Dadurch kommt es nach UV-B-Bestrahlung zu einer prolongierten epidermalen Hyperproliferation, die zur endogenen Tumorpromotion beiträgt, indem sie die Bildung von Neoplasien unter-stützt. Der Antagonist verzögert dagegen den Proliferationsbeginn, die Keratinozyten blei-ben demzufolge länger in der G1-Phase und der durch UV-B verursachte DNA-Schaden kann effizienter repariert werden. Drittens kann GM-CSF die LCs nicht als APCs aktivie-ren und eine Antitumorimmunität induzieren, da UV-B-Strahlung zur Apoptose von LCs bzw. zu deren Migration in Richtung Lymphknoten führt. Zusätzlich entwickeln GM-CSF überexprimierende Tiere in ihrer Haut nach UV-B-Bestrahlung ein Millieu von antago-nistisch wirkenden Zytokinen, wie TNF-a, TGF-b1 und IL-12p40 und GM-CSF, die proinflammatorische Prozesse und somit die Karzinomentwicklung begünstigen. Der Anta-gonist hemmt nach UV-B-Bestrahlung die Ausschüttung sowohl von immunsuppressiven Zytokinen, wie etwa TNF-a, als auch solchen, die die Th2-Entwicklung unterstützen, wie etwa IL-10 und IL-4. Dies wirkt sich negativ auf die Karzinomentwicklung aus.
Resumo:
Das Störungsbild der Hypochondrie stellt für die Betroffenen eine erhebliche Belastung und Beeinträchtigung dar und ist zudem von hoher gesundheitspolitischer Relevanz. Hieraus ergibt sich die Notwendigkeit für die Entwicklung und Evaluation wirkungsvoller Behandlungsansätze. Mit der vorliegenden Untersuchung wird die bisher umfangreichste Studie zur Wirksamkeit von gruppentherapeutischen Interventionen bei Patienten mit Hypochondrie beschrieben. Insgesamt nahmen 35 Patienten, die die DSM-IV-Kriterien der Hypochondrie erfüllten, an der Studie teil. Die durchgeführte Behandlung bestand aus insgesamt acht Gruppen- und sechs Einzelsitzungen. Zur Beurteilung des Therapieerfolgs wurden standardisierte Fragebogen und Einschätzungen der behandelnden Therapeuten eingeholt. Zudem wurde vor und nach der Behandlung die implizite Ängstlichkeit der Patienten mit Hilfe des Ängstlichkeits-IATs (Egloff & Schmukle, 2002) erfasst. Die Datenerhebung der Fragebögen erfolgte zu vier Messzeitpunkten. Eine Teilgruppe der Patienten (n = 10) konnte zudem über eine zweimonatige Wartezeit befragt werden. Ingesamt wurde die Therapie von den Patienten gut akzeptiert. Im Laufe der Behandlung zeigten sich auf den Selbstbeurteilungsverfahren umfangreiche Veränderungen im Erleben und Verhalten der Patienten. Es zeigte sich eine Reduktion von krankheitsbezogenen Kognitionen und Ängsten, eine Abnahme des Krankheitsverhaltens und eine Zunahme von Störungs- und Bewältigungswissen. Die Reduktion der hypochondrischen Symptomatik stellte sich als klinisch relevant heraus. Zudem zeigte sich eine Reduktion der allgemeinen Belastung und Ängstlichkeit sowie depressiver und körperlicher Symptome. Die Einschätzungen der behandelnden Therapeuten bestätigten die mittels Fragebogen ermittelten Befunde. Mit Hilfe des Ängstlichkeits-IATs konnte eine Veränderung des angstbezogenen Selbstkonzepts nachgewiesen werden. In einer Wartekontrollzeit zeigten sich nur geringfügige Reduktionen der hypochondrischen Symptomatik und keine bedeutsamen Reduktionen der allgemeinen Psychopathologie. Die Ergebnisse der durchgeführten Kombinationstherapie sind mit den Befunden bisheriger Evaluationen zur Effektivität von Einzeltherapien bei Hypochondrie vergleichbar. Die Befunde unterstreichen die Gleichwertigkeit von ökonomischeren gruppentherapeutischen Interventionen bei der Behandlung der Hypochondrie.
Resumo:
Das Usher Syndrom (USH) führt beim Menschen zur häufigsten Form erblicher Taub-Blindheit und wird aufgrund klinischer Merkmale in drei Typen unterteilt (USH1-3). Das Ziel dieser Arbeit war die Analyse der Expression und subzellulären Lokalisation des USH1G-Proteins SANS („Scaffold protein containing Ankyrin repeats and SAM domain“) in der Retina. Ein weiterer Fokus lag auf der Identifikation neuer Interaktionspartner zur funktionellen Charakterisierung von SANS. Im Rahmen der vorliegenden Arbeit konnte ein USH-Proteinnetzwerk identifiziert werden, das im Verbindungscilium und benachbarter Struktur, dem apikalen Innensegment von Photorezeptorzellen lokalisiert ist. Als Netzwerkkomponenten konnten die USH-Proteine SANS, USH2A Isoform b (USH2A), VLGR1b („Very Large G-protein coupled Receptor 1b“, USH2C) sowie Whirlin (USH2D) ermittelt werden. Innerhalb dieses Netzwerkes interagieren die Gerüstproteine SANS und Whirlin direkt miteinander. Die Transmembranproteine USH2A Isoform b und VLGR1b sind durch die direkte Interaktion mit Whirlin in ciliären-periciliären Membranen verankert und projizieren mit ihren langen Ektodomänen in den extrazellulären Spalt zwischen Verbindungscilium und apikalem Innensegment. Darüber hinaus konnte die Partizipation von SANS an Mikrotubuli-assoziiertem Vesikeltransport durch Identifikation neuer Interaktionspartner, wie dem MAGUK-Protein MAGI-2 („Membrane-Associated Guanylate Kinase Inverted-2“) sowie Dynaktin-1 (p150Glued) eruiert werden. Die Funktion des ciliären-periciliären USH-Proteinnetzwerkes könnte demnach in der Aufrechterhaltung benachbarter Membranstrukturen sowie der Beteiligung der Positionierung und Fusion von Transportvesikeln liegen.
Resumo:
Die Elementmassenspektrometrie wurde in den letzten Jahren sehr erfolgreich zur Aufklärung verschiedener Fragestellungen in der Bioanalytik eingesetzt. Hierbei spielen vor allem Kopplungstechniken von Trennmethoden wie der Flüssigchromatographie (LC) oder der Kapillarelektrophorese (CE) mit der induktiv gekoppelten Plasma-Massenspektrometrie (ICP-MS) als Multielementdetektor mit hervorragenden Quantifizierungseigenschaften eine entscheidende Rolle bei der Untersuchung von Biopolymeren und deren Wechselwirkung mit verschiedenen Metallen. So wurden beispielsweise verschiedene Methoden für die Trennung und Detektion von Metalloproteinen oder DNA-Metall-Addukten in unterschiedlichen Probenmaterialien entwickelt. Die traditionelle und leistungsstärkste Trennmethode für Biopolymere aller Art, die Gelelektrophorese, wurde jedoch bislang nicht in einem Online-Verfahren an die ICP-MS gekoppelt, um solche Fragestellungen zu bearbeiten. Verschiedene Versuche auf der Basis der Laserablation wurden in diese Richtung unternommen, wobei diese Techniken als sehr umständlich und zeitaufwändig anzusehen sind. In dieser Arbeit wird erstmals die technische Realisierung einer Online-Kopplung der Gelelektrophorese mit der ICP-MS beschrieben. Das System basiert auf einem Prinzip aus der präparativen Gelelektrophorese, in welcher eine kontinuierliche Elution der getrennten Komponenten aus dem Gel während der laufenden Elektrophorese durchgeführt wird. Die eluierten Komponenten werden mit dem Elutionspuffer direkt in das Zerstäubersystem des ICP-MS geführt. Die ersten Untersuchungen wurden am Beispiel der Fragemente von doppelsträngiger DNA (dsDNA) durchgeführt. Kommerziell erhältliche Standardlösungen wurden mit der Online-GE-ICP-MS mittels Detektion von 31P an einem hochauflösenden Massenspektrometer mit einer Massenauflösung von 4000 analysiert. Die Trennbedingungen (z.B. pH-Wert oder Ionenstärke der Pufferlösungen) wurden für die Trennung von dsDNA-Fragementen in Agarosegelen optimiert und auf verschiedene dsDNA-Fragmente angewandt. In einem nächsten Schritt wurden die Quantifizierungsmöglichkeiten für Biopolymere untersucht. Sehr kleine Mengen an dsDNA konnten mit einer Präzision von weniger als 3% quantifiziert werden. Hierfür kamen verschiedene Möglichkeiten der externen Kalibration zum Einsatz, wie der Kalibration mit einem Phosphat-Standard oder einem kommerziell erhältlichen quantitativen dsDNA-Standard. Um das Potenzial der entwickelten Methode für die Untersuchung von Biopolymer-Metall-Wechselwirkungen zu demonstrieren, wurden Oligonukleotide mit Cisplatin unter physiologischen Bedingungen inkubiert und die Reaktionsprodukte mit der Online-GE-ICP-MS mittels 31P- und 195Pt-Detektion untersucht. Verschiedene Cisplatin-Oligonukleotid-Addukte konnten auf diese Weise beobachtet werden, was zur Identifizierung die Anwendung der MALDI-TOF-MS als komplementärer Form der Massenspektrometrie notwendig machte. Abschließend wurde die Isotopenverdünnungsanalyse zum Zweck der Quantifizierung herangezogen.
Resumo:
In der hier vorliegenden Arbeit wurde am Beispiel der Kraut- und Knollenfäule an Kartoffeln Phytophthora infestans und des Kartoffelkäfers Leptinotarsa decemlineata untersucht, ob durch den Einsatz von Geographischen Informationssystemen (GIS) landwirtschaftliche Schader¬reger¬prognosen für jeden beliebigen Kartoffelschlag in Deutschland erstellt werden können. Um dieses Ziel zu erreichen, wurden die Eingangsparameter (Temperatur und relative Luftfeuchte) der Prognosemodelle für die beiden Schaderreger (SIMLEP1, SIMPHYT1, SIMPHYT3 and SIMBLIGHT1) so aufbereitet, dass Wetterdaten flächendeckend für Deutschland zur Verfügung standen. Bevor jedoch interpoliert werden konnte, wurde eine Regionalisierung von Deutschland in Interpolationszonen durchgeführt und somit Naturräume geschaffen, die einen Vergleich und eine Bewertung der in ihnen liegenden Wetterstationen zulassen. Hierzu wurden die Boden-Klima-Regionen von SCHULZKE und KAULE (2000) modifiziert, an das Wetterstationsnetz angepasst und mit 5 bis 10 km breiten Pufferzonen an der Grenze der Interpolationszonen versehen, um die Wetterstationen so häufig wie möglich verwenden zu können. Für die Interpolation der Wetterdaten wurde das Verfahren der multiplen Regression gewählt, weil dieses im Vergleich zu anderen Verfahren die geringsten Abweichungen zwischen interpolierten und gemessenen Daten aufwies und den technischen Anforderungen am besten entsprach. Für 99 % aller Werte konnten bei der Temperaturberechnung Abweichungen in einem Bereich zwischen -2,5 und 2,5 °C erzielt werden. Bei der Berechnung der relativen Luftfeuchte wurden Abweichungen zwischen -12 und 10 % relativer Luftfeuchte erreicht. Die Mittelwerte der Abweichungen lagen bei der Temperatur bei 0,1 °C und bei der relativen Luftfeuchte bei -1,8 %. Zur Überprüfung der Trefferquoten der Modelle beim Betrieb mit interpolierten Wetterdaten wurden Felderhebungsdaten aus den Jahren 2000 bis 2007 zum Erstauftreten der Kraut- und Knollenfäule sowie des Kartoffelkäfers verwendet. Dabei konnten mit interpolierten Wetterdaten die gleichen und auch höhere Trefferquoten erreicht werden, als mit der bisherigen Berechnungsmethode. Beispielsweise erzielte die Berechnung des Erstauftretens von P. infestans durch das Modell SIMBLIGHT1 mit interpolierten Wetterdaten im Schnitt drei Tage geringere Abweichungen im Vergleich zu den Berechnungen ohne GIS. Um die Auswirkungen interpretieren zu können, die durch Abweichungen der Temperatur und der relativen Luftfeuchte entstanden wurde zusätzlich eine Sensitivitätsanalyse zur Temperatur und relativen Luftfeuchte der verwendeten Prognosemodelle durchgeführt. Die Temperatur hatte bei allen Modellen nur einen geringen Einfluss auf das Prognoseergebnis. Veränderungen der relativen Luftfeuchte haben sich dagegen deutlich stärker ausgewirkt. So lag bei SIMBLIGHT1 die Abweichung durch eine stündliche Veränderung der relativen Luftfeuchte (± 6 %) bei maximal 27 Tagen, wogegen stündliche Veränderungen der Temperatur (± 2 °C) eine Abweichung von maximal 10 Tagen ausmachten. Die Ergebnisse dieser Arbeit zeigen, dass durch die Verwendung von GIS mindestens die gleichen und auch höhere Trefferquoten bei Schaderregerprognosen erzielt werden als mit der bisherigen Verwendung von Daten einer nahegelegenen Wetterstation. Die Ergebnisse stellen einen wesentlichen Fortschritt für die landwirtschaftlichen Schaderregerprognosen dar. Erstmals ist es möglich, bundesweite Prognosen für jeden beliebigen Kartoffelschlag zur Bekämpfung von Schädlingen in der Landwirtschaft bereit zu stellen.
Resumo:
Therapeutisches Drug Monitoring (TDM) ist eine Maßnahme, bei der durch Messung der Medikamentenspiegel im Blut die Dosis ermittelt wird, bei der mit höchster Wahrscheinlichkeit mit Therapieansprechen gerechnet werden kann. Dabei wird angenommen, dass die Konzentrationen im Blut mit denen im Wirkkompartiment korrelieren. Für Antipsychotika wurde gezeigt, dass die Konzentrationen im Blut direkt mit denen im Gehirn korrelieren, die Verteilung zwischen den beiden Kompartimenten ist jedoch für die verschiedenen Antipsychotika sehr unterschiedlich. Die Distribution von Arzneistoffen zwischen Blut und Gehirn wird durch Effluxtransporter in der Blut-Hirn-Schranke kontrolliert. Welche Rolle dabei P-Glykoprotein (P-gp) für die Verteilung von atypischen Antipsychotika spielt und wie die Pharmakokinetik und –dynamik durch diesen Transporter beeinflusst werden, sollte in dieser Arbeit untersucht werden. Für die Messung des neu eingeführten Antipsychotikums Aripiprazol, sowie für seinen aktiven Metaboliten Dehydroaripiprazol, wurde eine hochleistungsflüssigchromatographische (HPLC) Methode mit Säulenschaltung und spektrophotometrischer Detektion etabliert. Die Methode wurde für die Messung von Serumproben schizophrener Patienten eingesetzt, um einen therapeutischen Bereich für Aripiprazol zu ermitteln. Aus der Analyse von 523 Patientenproben wurde herausgefunden, dass Aripiprazol-Serumkonzentrationen von 150 bis 300 ng/ml mit gutem klinischen Ansprechen und einem geringen Risiko für Nebenwirkungen einhergingen. Weiterhin wurde festgestellt, dass die Serumspiegel bei gleichzeitiger Gabe von Inhibitoren und Induktoren der Cytochrom P450 (CYP) Isoenzyme CYP2D6 und CYP3A4 erhöht bzw. gesenkt wurden. Am Modell der P-gp Knockout Maus im Vergleich zu FVB Wildtyp Mäusen wurden Konzentrationsverläufe von Antipsychotika nach i.p. Gabe von Amisulprid, Aripiprazol, Dehydroaripiprazol, Clozapin, Desmethylclozapin, Haloperidol, Olanzapin, Quetiapin, Risperidon und 9-Hydroxyrisperidon sowie der Kontrollsubstanz Domperidon im Gehirn und Blut über 24 Stunden mittels HPLC-Methoden gemessen. Welchen Einfluss eine verminderte Expression von P-gp auf die Pharmakodynamik hat, wurde in zwei Verhaltenstests untersucht. Mit Hilfe des Rotarods wurden motorische Effekte der Arzneistoffe erfasst und mittels Radial Arm Water Maze kognitive Fähigkeiten. Risperidon und sein aktiver Metabolit 9-Hydroxyrisperidon waren die stärksten Substrate von P-gp. 10-fach höhere Konzentrationen im Gehirn der P-gp Knockout Mäuse führten zu 10-fach stärkeren Beeinträchtigungen in den pharmakodynamischen Untersuchungen im Vergleich zu Wildtyp Tieren. Amisulprid, Aripiprazol, Dehydroaripiprazol, Desmethylclozapin und Quetiapin konnten ebenfalls als Substrate von P-gp identifiziert werden. Olanzapin, Haloperidol und Clozapin wurden durch P-gp wenig bzw. nicht in ihrer Pharmakokinetik und –dynamik beeinflusst. Da P-gp von Nagern und Menschen nach derzeitiger Kenntnis in ihren Substrateigenschaften weitgehend übereinstimmen, muss bei einer Behandlung von schizophrenen Patienten mit Antipsychotika, die als Substrate von P-gp identifiziert wurden, davon ausgegangen werden, dass eine Veränderung der Expression oder Aktivität von P-gp, genetisch verursacht oder durch Medikamente bedingt, für das Therapieansprechen oder das Auftreten von Nebenwirkungen bedeutsam sind.
Resumo:
Die Arbeit behandelt das Problem der Skalierbarkeit von Reinforcement Lernen auf hochdimensionale und komplexe Aufgabenstellungen. Unter Reinforcement Lernen versteht man dabei eine auf approximativem Dynamischen Programmieren basierende Klasse von Lernverfahren, die speziell Anwendung in der Künstlichen Intelligenz findet und zur autonomen Steuerung simulierter Agenten oder realer Hardwareroboter in dynamischen und unwägbaren Umwelten genutzt werden kann. Dazu wird mittels Regression aus Stichproben eine Funktion bestimmt, die die Lösung einer "Optimalitätsgleichung" (Bellman) ist und aus der sich näherungsweise optimale Entscheidungen ableiten lassen. Eine große Hürde stellt dabei die Dimensionalität des Zustandsraums dar, die häufig hoch und daher traditionellen gitterbasierten Approximationsverfahren wenig zugänglich ist. Das Ziel dieser Arbeit ist es, Reinforcement Lernen durch nichtparametrisierte Funktionsapproximation (genauer, Regularisierungsnetze) auf -- im Prinzip beliebig -- hochdimensionale Probleme anwendbar zu machen. Regularisierungsnetze sind eine Verallgemeinerung von gewöhnlichen Basisfunktionsnetzen, die die gesuchte Lösung durch die Daten parametrisieren, wodurch die explizite Wahl von Knoten/Basisfunktionen entfällt und so bei hochdimensionalen Eingaben der "Fluch der Dimension" umgangen werden kann. Gleichzeitig sind Regularisierungsnetze aber auch lineare Approximatoren, die technisch einfach handhabbar sind und für die die bestehenden Konvergenzaussagen von Reinforcement Lernen Gültigkeit behalten (anders als etwa bei Feed-Forward Neuronalen Netzen). Allen diesen theoretischen Vorteilen gegenüber steht allerdings ein sehr praktisches Problem: der Rechenaufwand bei der Verwendung von Regularisierungsnetzen skaliert von Natur aus wie O(n**3), wobei n die Anzahl der Daten ist. Das ist besonders deswegen problematisch, weil bei Reinforcement Lernen der Lernprozeß online erfolgt -- die Stichproben werden von einem Agenten/Roboter erzeugt, während er mit der Umwelt interagiert. Anpassungen an der Lösung müssen daher sofort und mit wenig Rechenaufwand vorgenommen werden. Der Beitrag dieser Arbeit gliedert sich daher in zwei Teile: Im ersten Teil der Arbeit formulieren wir für Regularisierungsnetze einen effizienten Lernalgorithmus zum Lösen allgemeiner Regressionsaufgaben, der speziell auf die Anforderungen von Online-Lernen zugeschnitten ist. Unser Ansatz basiert auf der Vorgehensweise von Recursive Least-Squares, kann aber mit konstantem Zeitaufwand nicht nur neue Daten sondern auch neue Basisfunktionen in das bestehende Modell einfügen. Ermöglicht wird das durch die "Subset of Regressors" Approximation, wodurch der Kern durch eine stark reduzierte Auswahl von Trainingsdaten approximiert wird, und einer gierigen Auswahlwahlprozedur, die diese Basiselemente direkt aus dem Datenstrom zur Laufzeit selektiert. Im zweiten Teil übertragen wir diesen Algorithmus auf approximative Politik-Evaluation mittels Least-Squares basiertem Temporal-Difference Lernen, und integrieren diesen Baustein in ein Gesamtsystem zum autonomen Lernen von optimalem Verhalten. Insgesamt entwickeln wir ein in hohem Maße dateneffizientes Verfahren, das insbesondere für Lernprobleme aus der Robotik mit kontinuierlichen und hochdimensionalen Zustandsräumen sowie stochastischen Zustandsübergängen geeignet ist. Dabei sind wir nicht auf ein Modell der Umwelt angewiesen, arbeiten weitestgehend unabhängig von der Dimension des Zustandsraums, erzielen Konvergenz bereits mit relativ wenigen Agent-Umwelt Interaktionen, und können dank des effizienten Online-Algorithmus auch im Kontext zeitkritischer Echtzeitanwendungen operieren. Wir demonstrieren die Leistungsfähigkeit unseres Ansatzes anhand von zwei realistischen und komplexen Anwendungsbeispielen: dem Problem RoboCup-Keepaway, sowie der Steuerung eines (simulierten) Oktopus-Tentakels.
Resumo:
Die Perspektiven des MERCOSUR in den internationalen Beziehungen mit der Freihandelszone Amerikas ALCA/FTAA und der Europäischen Gemeinschaft Rita de Cassia Carvalho de Carvalho Abstract In dieser Arbeit wird MERCOSUR, Gemeinsamer Markt des Südens, als ein politischer Integrationsprozeß zwischen Entwicklungsländern, der mit der Integrationsherausforderung i. S. des wandelnden Völkerrechts, konfrontiert ist, vorgestellt. Damit sind die rechtspolitischen Perspektiven für MERCOSUR eng mit der Trilogie EU, ALCA und WTO verbunden. Aus integrationsrechtlichem Blickwinkel entwickelte sich MERCOSUR zu einem sui generis Integrationsprozeß mit der Gewährleistung der vier Marktfreiheiten nach dem EU-Vorbild. Im MERCOSUR-Recht herrscht die Zwischenstaatlichkeitsklausel. Die Herren der Verträge und Träger von Kompetenz-Kompetenz i. S. v. pouvoir constituant sind die Mitgliedsstaaten. Obwohl die fehlende Rechtssicherheit die Vertiefung des Gemeinsamen Marktes gefährdet, bietet die Übernahme des EU-Modells keine Lösung, weil die Problematik eher bei der schwachen Rechtsdurchsetzung in den Entwicklungsländern zu finden ist. Angesichts der ALCA-Logik, d. h. im Handels-, Investitions- und Dienstleistungswesen wettbewerbs¬fähig zu werden, dafür aber Rückschritte in Umwelt-, Sozial- und Arbeitsrechtsstandard hinnehmen zu müssen, übernimmt MERCOSUR die aktive Hauptrolle in Lateinamerika in den Verhandlungen mit den USA. In der WTO-Ordnung mit einer quasi-obligatorischen Gerichtsbarkeit, welche kaum Umwelt- und Menschenrecht einbezieht, sollte MERCOSUR die Politik des dritten Weges mit anderen Entwicklungsländern führen um einen Weg mit quasi der Entwicklung und Umsetzung einer neuen Wirtschafts- und Gesellschaftsordnung, die Umwelt- und Menschenrecht garantieren soll, zu gewährleisten.
Resumo:
Der Autor untersucht die Strategien und Konzepte des Göttinger Kulturwissenschaftlers Edmund Ballhaus, der mit seiner Filmarbeit die Entwicklung des wissenschaftlichen Films seit Mitte der achtziger Jahre maßgeblich beeinflußte. Detaillierte Analysen seiner ersten zwölf, in den Jahren 1986 bis 1996 entstandenen Filme verdeutlichen seine Abkehr von überholten inhaltlichen und methodischen Standards und die Entwicklung eines eigenständigen Typus des kulturwissenschaftlichen Films. Dieser rückt den Menschen in den Mittelpunkt der Betrachtung und erteilt den Gefilmten selbst das Wort. Damit wurde sowohl dem klassischen Erklärdokumentarismus des Fernsehens als auch dem distanzierten Dokumentationsstil des Instituts für den Wissenschaftlichen Film (IWF) ein neues Modell gegenübergestellt. Darüber hinaus löste sich Edmund Ballhaus von der traditionellen Arbeitsteilung in Hinblick auf Recherche, Konzeption und Umsetzung und ersetzte sie durch den selbstfilmenden Wissenschaftler, der für alle Arbeitsschritte einer Filmproduktion allein verantwortlich ist. Seine bereits 1987 veröffentlichten Forderungen verwirklichte er nicht nur in seinen Filmen, sondern auch mit der Gründung der Gesellschaft für den kulturwissenschaftlichen Film (GfkF) und der Einrichtung eines Studienganges Visuelle Anthropologie in Göttingen. In die Untersuchung einbezogen wurde eine im Anhang des Buches wiedergegebene Befragung des Filmautors, welche die Analyse um interessante Details sowohl in Hinblick auf die Entstehungsbedingungen einzelner Filme als auch auf seine persönlichen Überzeugungen und Beweggründe ergänzt.
Resumo:
Zusammenfassung Die Integration verhaltensauffälliger Schülerinnen und Schüler stellt besondere Herausforderungen an die Kompetenz von Lehrerinnen und Lehrern. Zum einen wirkt sich die spezielle Problematik dieser Schülergruppe auf die Beziehungsgestaltung mit Peers und Lehrpersonen aus, zum anderen werden auch spezifische methodische Änderungen im Unterrichts- und Lerngeschehen notwendig, um den Anforderungen, die auffällige Schüler an die Unterrichtsgestaltung stellen, gerecht zu werden. Dabei ist die Gruppe der auffälligen Schülerinnen und Schüler selbst sehr heterogen. Vor dem Hintergrund einer systemisch-konstruktivistischen Sichtweise von Auffälligkeit nähert sich diese Arbeit der Themenstellung der Integration verhaltensauffälliger Schülerinnen und Schüler und legt dar, dass hier vor allem das Passungsverhältnis zwischen (auffälligem) Individuum und sämtlichen Systemen seiner Umwelt in eine Schieflage geraten ist. Auf dieser Basis wurde nach erfolgreichen Modellen der Integration verhaltensauffälliger Schülerinnen und Schüler gesucht, wobei dem immer wiederkehrenden Verweis auf den hilfreichen Beitrag der Freinet-Pädagogik hierbei mit einer eigenen empirischen Studie nachgegangen wurde. An zwei Freinet-Schulen in Deutschland wurde mit Hilfe von teilnehmender Beobachtung, Interviews und Gruppendiskussion die Lehrersichtweise fördernder und hemmender Bedingungen des Integrationsgeschehens erhoben und analysiert. Dabei trat vor allem eine spezifische Haltung der Freinet-Lehrerinnen und Lehrer gegenüber den in der Literatur immer wieder als besonders schwierig dargestellten auffälligen Schülerinnen und Schülern zutage. Diese Einstellung besteht vor allem in der kompetenzorientierten Sicht der auffälligen Schülerinnen und Schüler, die ihre Stärken unterstützt. Auf dieser Basis wird durch viele pädagogische, beraterische und therapeutische Angebote bei den Prozessen, die noch nicht gelingen, angesetzt. Diese Haltung, die sich auch in entsprechenden Rahmenbedingungen ausdrückt (z.B. in Gremien, die die Partizipation der Kinder gewährleisten, oder in auf das Individuum abgestimmten Arbeitstechniken), wurde zusammen mit den Rahmenbedingungen als „Kernkategorie“ Schulkultur im Sinne der Grounded Theory gefasst. Indem die Lehrerinnen und Lehrer an beiden Schulen zuerst die besonderen Begabungen aller ihrer Schülerinnen und Schüler sahen und die auffälligen nicht als spezielle Gruppe heraushoben (die zudem nicht als immer störend oder „schwierig“ klassifiziert wurden), trugen sie nicht nur entscheidend zur gelingenden Integration dieser konkreten Schülerinnen und Schüler bei, sondern stellen auch ein Beispiel für die Erweiterung der pädagogischen Professionalität von Lehrern dar. Die anfängliche enge Fragestellung auf das Integrationsgeschehen von auffälligen Schülerinnen und Schülern konnte durch den Bezug zur Schulkultur und zum schulkulturellen Passungsverhältnis der Schüler erweitert werden. Die vorliegende Arbeit gibt so nicht nur Aufschluss über die Integrationspraxis an Freinet-Schulen, sondern auch über die verschiedenen Dimensionen ihrer jeweiligen Schulkultur.
Resumo:
Die Dissertation untersucht die geistige Produktion im Erziehungssystem anhand des Unterrichtsgegenstands populäre Musik. Hiermit ist sie im Kernbereich der musikpädagogischen Disziplin angesiedelt – Musik und Schule. Ferner rückt die Festlegung auf populäre Musik den Schüler in seinem Alltagswissen in den Vordergrund der Betrachtung. Die Frage nach dem Umgang mit populärer Musik ist somit indirekt eine Frage nach dem Umgang mit schülernahen Erfahrungswelten in der Schule. Innerhalb dieses Forschungsprofils erhält die Arbeit ihre eigentliche Relevanz - sie zeigt auf, wie eine moderne, selbstreferentielle Musikpädagogik eigene bedeutsame Kommunikationen beobachten kann. Entworfen in Anlehnung an die Systemtheorie nach Niklas Luhmann, werden in der Arbeit die unikalen Reflexionszusammenhänge von Pädagogik und Musikpädagogik anhand der folgenden Operationsfelder offengelegt: pädagogische und musikpädagogische Fachliteratur, Lehrpläne und Schulbücher. Nach Luhmann ist es erforderlich verstehend in die Unikalität systemischer Reflexionsleistungen einzudringen, um inkonsistente Anforderungen an die Aufgabe (Musik-)Erziehung und ihre Gegenstände aufzudecken und zukünftige Systemhandlungen zu optimieren. Die Arbeit ist in drei große historische Zeitblöcke gegliedert, die ihrerseits in verschiedene disziplinäre Operationsfelder unterteilt sind. Mit Hilfe dieser zweidimensionalen historisch-interdisziplinären Sichtweise wird populäre Musik als Bezugsgröße aufgewiesen, an der die zentralen Debatten von Pädagogik und Musikpädagogik kondensieren. Anhand von Schlüsselbegriffen wie Kultur, Gesellschaft und Ästhetik aber auch didaktischen Prinzipien wie Schüler- und Handlungsorientierung oder ganzheitliche (Musik-)Pädagogik lässt sich die Vielfalt historisch gewachsener inkonsistenter/konsistenter Forderungen belegen. Aus den Beobachtungen im Umgang mit populärer Musik werden Aufgaben deutlich, die die Disziplinen, vor allem die Musikpädagogik, in der Zukunft zu leisten haben. Diese beschäftigen sich auf der einen Seite mit dem disziplinären Selbstverständnis und auf der anderen Seite mit unbeantworteten didaktischen Fragestellungen wie den Möglichkeiten und Grenzen des einzelnen populären Musikstücks im konkret-situativen Lernkontext von Musikunterricht.
Resumo:
Über einen Zeitraum von 14 Monaten wurden Patienten mit akuter, duplexsonographisch nachgewiesener tiefer Beinvenenthrombose erfasst und im initialen Behandlungszeitraum mit niedermolekularem Heparin (Enoxaparin) sowie im weiteren Verlauf überlappend mit Marcumar® therapiert. Erhoben wurden eine ausführliche, standardisierte Eigen- sowie Familienanamnese und die Risikofaktoren für eine TVT. Desweiteren wurde eine klinische Untersuchung inklusive Duplexsonographie der Venen und eine Thrombophiliediagnostik durchgeführt. Täglich erfolgte die Bestimmung diverser Laborparameter (INR, APTT, D-Dimere, CRP, kleines Blutbild). Am ersten und fünften Tag wurden zusätzlich die Transaminasen bestimmt. Nach 30 Tagen erfolgte eine klinische Verlaufskontrolle, nach drei Monaten eine ambulante Kontrollduplexsonographie. Diskutiert werden Enoxaparin-Nebenwirkungen, Verläufe der duplexsonographisch erhobenen Befunde und klinischen Symptome, die Thrombophiliediagnostik sowie Laborverläufe der Infekt- und Gerinnungsparameter (APTT, INR, D-Dimere). Die D-Dimerverläufe und die Bedeutung der sinnvollen D-Dimerbestimmung wurden bereits auf mehreren Tagungen vorgestellt.