864 resultados para Wissenschaftliches Arbeiten


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Diese Arbeit hatte zum Ziel, den Ausschleusungsmechanismus des Hepatitis-B Virus zu beleuchten. Es ist bisher unbekannt, wie das virale Nukleokapsid umhüllt und das reife Virion aus der Leberzelle freigesetzt wird. Bei einigen RNA-Viren, beispielsweise HIV-1, Ebola oder RSV, vermitteln so genannte Late-Domänen im viralen Kapsid- oder Matrix-Protein die Knospung der Viren an intrazellulären Membranen oder der Plasmamembran. Da das HBV-Core-Protein ähnliche Sequenzen trägt, wurde in der vorliegenden Arbeit überprüft, welche Rolle diese im viralen Replikationszyklus spielen. Meine Ergebnisse zeigen, dass die beiden Prolin-reichen Sequenzen PPAY (129-132) und PPNAP (134-138), die retroviralen Late-Domänen ähneln, für die HBV-Morphogenese essentiell sind. Mutationen einzelner Aminosäuren innerhalb dieser Motive führen zu Phänotypen mit verändertem Kapsid-, Nukleokapsid- und Virus-Bildungs-Vermögen. Insbesondere sind die Aminosäure Tyrosin 132 des Motivs PPAY und die Prolinreste 134 und 135 des Motivs PPNAP erforderlich, da diese schon für die Bildung der Kapside unentbehrlich sind. Charakteristisch für beide Motive sind auch die hier gezeigten Interaktionen mit speziellen Wirtszellfaktoren, deren physiologische Funktion es ist, zelluläre Proteine in den endosomalen Sortierungsprozess einzuschleusen. Im Vordergrund stehen hier die E3 Ub-Ligase Nedd4, welche Proteine mit Ub konjugiert und diese so signifikant für die Einschleusung in das endosomale System markiert, und Tsg101, das als zentrale Komponente des ESCRT-I-Komplexes für die Erkennung von ubiquitinierten Proteinen zuständig ist und diese dadurch in die ESCRT-Kaskade des multivesikulären Endosoms einführt. Für die genannten Interaktionen ist das Motiv PPAY und hier wieder speziell das Tyrosin 132 des HBV-Core-Proteins für die Wechselwirkung mit Nedd4 notwendig. Hingegen vermittelt die L-Domänen-ähnliche Sequenz PPNAP die Assoziation von Core mit Tsg101, wobei die beiden Prolinreste 134 und 135 und auch das Asparagin 136 für die Interaktion essentiell sind. Sowohl Nedd4 als auch Tsg101 wirken im Zusammenhang mit Ubiquitin, weshalb eine Ubiquitinierung von Core, trotz bislang negativer Nachweise, wahrscheinlich ist. Zugunsten dieser Annahme spricht auch mein Nachweis, dass der Lysinrest an Position 96 des Core-Proteins, als potentieller Ub-Akzeptor, gerade in späten Schritten eine essentielle Rolle spielt. Weiterhin klärungsbedürftig ist auch die Frage, ob Core direkt mit Tsg101 und Nedd4 interagiert, oder ob andere Faktoren dazwischen geschaltet sind. Auch könnte mit Hilfe von siRNA-vermittelten Depletionsversuchen die physiologische Relevanz der Tsg101/Core-und Nedd4/Core-Interaktion weiterführend untersucht werden. Zudem zeigen meine Arbeiten, dass Core mit intrazellulären Membranen assoziiert, weshalb es interessant wäre, zu untersuchen, ob es sich hierbei um Membranen des endosomalen Systems handelt, an denen die finalen Schritte der Virus-Morphogenese stattfinden könnten.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Der niederländische Astronom Willem de Sitter ist bekannt für seine inzwischen berühmte Kontroverse mit Einstein von 1916 bis 1918, worin die relativistische Kosmologie begründet wurde. In diesem Kontext wird sein Name mit dem von ihm geschaffenen kosmologischen Modell verbunden, welches er als Gegenbeispiel zu Einsteins physikalischer Intuition schuf. Obwohl diese Debatte schon in wissenschaftshistorischen Arbeiten analysiert wurde, hat de Sitters Rolle in der Rezeption und dem Verbreiten der allgemeinen Relativitätstheorie bislang in der Hauptrichtung der Einstein-Studien noch nicht die ihr zustehende Aufmerksamkeit erhalten. Die vorliegende Untersuchung zielt darauf ab, seine zentrale Wichtigkeit für die Forschung zur ART innerhalb der Leidener Community aufzuzeigen. Wie Eddington war de Sitter einer der wenigen Astronomen, die sowohl hinreichende Ausbildung als auch nötige Interessen vereinten, um zum einen die spezielle und zum anderen die allgemeine Relativitätstheorie zu verfolgen. Er befasste sich zunächst 1911 mit dem Relativitätsprinzip (Einsteins erstes Postulat der SRT); zwei Jahre später fand er einen Nachweis für die Konstanz der Lichtgeschwindigkeit (Einsteins zweites Postulat). De Sitters Interesse an Gravitationstheorien reicht sogar noch weiter zurück und lässt sich bis 1908 zurückverfolgen. Überdies verfolgte er Einsteins Versuche, einen feldtheoretischen Ansatz für die Gravitation zu konstruieren, inklusive der kontroversen Einstein-Grossmann Theorie von 1913. Diese Umstände zeigen deutlich, dass de Sitters bekannteres Werk zur ART eine Konsequenz seiner vorausgegangenen Forschungen war und kein Resultat einer plötzlichen, erst 1916 einsetzenden Beschäftigung mit Einsteins Relativitätstheorie.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Das Aerosolmassenspektrometer SPLAT (Single Particle Laser Ablation Time-of-Flight Mass Spectrometer) ist in der Lage, die Größe einzelner Aerosolpartikel in einem Größenbereich von 0,3 µm bis 3 µm zu bestimmen und gleichzeitig chemisch zu analysieren. Die Größenbestimmung erfolgt durch Streulichtmessung und Bestimmung der Flugzeit der Partikel zwischen zwei kontinuierlichen Laserstrahlen. Durch Kalibrationsmessungen kann auf den aerodynamischen Durchmesser der Partikel geschlossen werden. Kurzzeitig nach der Streulichtdetektion werden die Partikel durch einen hochenergetischen gepulsten UV-Laser verdampft und ionisiert. Die Flugzeit der Partikel zwischen den kontinuierlichen Laserstrahlen wird dazu benutzt, die Ankunftszeit der Partikel in der Ionenquelle zu berechnen und den UV-Laserpuls zu zünden. Die entstandenen Ionen werden in einem bipolaren Flugzeitmassen¬spektrometer nachgewiesen. Durch die Laserablation/Ionisation ist das SPLAT in der Lage, auch schwer verdampfbare Komponenten des atmosphärischen Aerosols - wie etwa Minerale oder Metalle - nachzuweisen. Das SPLAT wurde während dieser Arbeit vollständig neu entwickelt und aufgebaut. Dazu gehörten das Vakuum- und Einlasssystem, die Partikeldetektion, die Ionenquelle und das Massen-spektrometer. Beim Design des SPLAT wurde vor allem auf den späteren Feldeinsatz Wert gelegt, was besondere Anforderungen an Mechanik und Elektronik stellte. Die Charakterisierung der einzelnen Komponenten sowie des gesamten Instruments wurde unter Laborbedingungen durchgeführt. Dabei wurde u.a. Detektionseffizienzen des Instruments ermittelt, die abhängig von der Größe der Partikel sind. Bei sphärischen Partikeln mit einem Durchmesser von 600 nm wurden ca. 2 % der Partikel die in das Instrument gelangten, detektiert und chemisch analysiert. Die Fähigkeit zum Feldeinsatz hat das SPLAT im Februar/März 2006 während einer internationalen Messkampagne auf dem Jungfraujoch in der Schweiz bewiesen. Auf dieser hochalpinen Forschungsstation in einer Höhe von ca. 3580 m fand das SPLAT mineralische und metallische Komponenten in den Aerosolpartikeln. Das SPLAT ist ein vielfältig einsetzbares Instrument und erlaubt vor allem in Kombination mit Aerosolmassenspektrometern, die mit thermischer Verdampfung und Elektronenstoßionisation arbeiten, einen Erkenntnisgewinn in der Analytik atmosphärischer Aerosolpartikel.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Messung der Stärke von Empfindungen hat in der Psychologie eine lange Tradition, die bis in die Zeit der Entstehung der Psychologie als eine eigenständige Wissenschaft gegen Ende des 19. Jahrhunderts zurückreicht. Gustav Theodor Fechner verband die Beobachtung Webers der Konstanz des Koeffizienten des eben merklichen Unterschieds zu der Vergleichsintensität (sog. "Weber-Quotient") mit der Annahme einer sensorischen Schwelle, und entwickelte daraus erstmals eine Skala für die Stärke von Empfindungen. Die Fechner-Skala verwendet die Anzahl sukzessiver Schwellenschritte als natürliche, psychologische Einheit. Die Stärke einer Empfindung für eine gegebene Reizintensität wird ausgedrückt als die Anzahl von Schwellenschritten, die man gehen muss, um von keiner Empfindung bis zur in Frage stehenden Empfindung zu gelangen. Die Funktion, die den Zusammenhang von Reizintensität und der Anzahl nötiger Schwellenschritte beschreibt, ist stets logarithmisch und über sukzessive Schwellenmessungen für Reize aus den verschiedensten Sinnesmodalitäten bestimmbar. Derart sich ergebende Skalierungen heißen "indirekt", weil die in Frage stehende Reizintensität selbst nicht von der Urteilsperson bewertet wird. Intensitäten sind vom Urteiler nur mit anderen Intensitäten in Bezug auf ein "stärker" oder "schwächer", also ordinal, zu vergleichen. Indirekte Skalierungsmethoden eignen sich insbesondere, wenn der Reizeindruck flüchtig und von der absoluten Stärke her schwer durch den Urteiler zu quantifizieren ist. Ein typisches Beispiel hierfür ist die Auffälligkeit (Salienz) von visuellen Objekten, die in zufällig wechselnde Hintergründe eingebettet sind und dem Betrachter nur als ein rasches raumzeitliches Aufblitzen präsentiert werden. Die Stärke des Unterschieds in Merkmalen wie Helligkeit, Farbe, Orientierung, Schattierung, Form, Krümmung, oder Bewegung bestimmt das Ausmaß der Salienz von Objekten. Obschon eine Fülle von Arbeiten existiert zu der Frage, welche Merkmale und deren Kombinationen ohne Wissen des Ortes ihrer Präsentation automatisch starke Salienz ("Pop-Out") erzeugen, existieren bislang keine systematischen Versuche, die Salienz von Merkmalen für einen weiten Bereich von Merkmalsunterschieden zu erfassen und vergleichbar zu machen. Indirekte Skalierungen liegen vor für die Merkmale Kontrast (Legge und Foley, 1980) und Orientierung (Motoyoshi und Nishida, 2001). Ein Vergleich der Salienz über mehrere Merkmale und der Nachweis, dass die Salienz eine eigene, von der Merkmalsdimension unabhängige sensorische Qualität ist, steht aber bislang aus. In der vorliegenden Arbeit wird gezeigt, dass der Unterschied von Objekten zur einbettenden Umgebung hinsichtlich visueller Merkmale zu Salienz führt und diese Salienz unabhängig von dem sie erzeugenden Merkmal der Stärke nach skalierbar ist. Es wird ferner gezeigt, dass die Einheiten der für zwei Merkmale erhobenen indirekten Skalierungsfunktionen in einem absoluten Sinne gleich sind, solange sichergestellt ist, dass (i) keine alternativen Hinweisreize existieren und nur der reine Merkmalsunterschied von Objekt und Umgebung bewertet wird und (ii) das sensorische Rauschen in den aktivierten Merkmalskanälen für beide Merkmale gleich ist. Für diesen Aufweis wurden exemplarisch die Merkmale Orientierung und Ortsfrequenz ausgewählt und die Salienz ihrer Merkmalskontraste über Naka-Rushton-Funktionen, gewonnen aus den zugrundeliegenden Salienz-Inkrementschwellenmessungen, indirekt skaliert. Für das Merkmal Ortsfrequenz liegt hiermit erstmals eine indirekte Skalierung vor. Hierfür musste eine spezielle Messtechnik entwickelt werden, die die Bewertung reiner Ortsfrequenzunterschiede, frei von konfundierenden absoluten Ausprägungen der Ortsfrequenzen, sicherstellt. Die Methode ist in Kapitel 7 dargestellt. Experimente, die die konfundierende Wirkung absoluter Merkmalsausprägungen auf die Salienzmessung demonstrieren, sind in Kapitel 6 dargestellt. In Kapitel 8 findet sich ein empirischer Abgleich der Ergebnisse von Inkrement- und Dekrementschwellenmessungen, eine Messtechnik, die zur Erfassung von Unterschiedsschwellen im Extrembereich der Orientierungsunterschiede von 90° nötig ist. Kapitel 9 enthält den empirischen Aufweis der Transitivität der Gleichheitsrelation für Salienzmessungen von Orientierung und Ortsfrequenz durch Abgleich mit einem dritten Merkmal und erbringt damit den Beleg der merkmalsunabhängigen Erfassung von Auffälligkeit über die indirekte Skalierungsmethodik. Ferner wird dort die Wirksamkeit der Grundsalienz von Mustern, gegeben über externes Rauschen in den Merkmalen (sog. "Merkmalsjitter") für die Verschiebung des Nullpunktes der Skalierungsfunktion aufgezeigt. Im letzten Experiment (Kapitel 10) wird dann die Skalierung von Orientierung und Ortsfrequenz bei gleicher Grundsalienz der Muster verglichen und gezeigt, dass beide Skalen in einem absoluten Sinne gleiche Einheiten aufweisen (also gleiche Skalenzahlen gleiche sensorische Auffälligkeiten anzeigen, obwohl sie von verschiedenen Merkmalen stammen), wenn der Effekt des sensorischen Rauschens, der im Merkmal Orientierung nicht über die verschiedenen Schwellenschritte konstant ist, kompensiert wird. Die Inkonstanz des Effektes des sensorischen Rauschens im Merkmal Orientierung wird über die Veränderung der Steigung der psychometrischen Präferenzfunktion für die Vergleichsurteile der Orientierungssalienz für eine fest vorgegebene Ortsfrequenzsalienz greifbar, und der Effekt der Steigungsveränderung kompensiert exakt die Nichtlinearität in der für beide Merkmale erhobenen Salienz-Matchingfunktion. Im letzten Kapitel wird ein Ausblick auf eine mögliche Modellierung der Salienzfunktionen über klassische Multikanal-Feedforwardmodelle gegeben. In den ersten fünf Kapiteln sind einführend die Gebiete der indirekten Skalierung, der Merkmalssalienz und der Texturtrennung im menschlichen visuellen System dargestellt.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Vor dem Hintergrund sich wandelnder (medialer) Lebenswelten von Schülerinnen und Schülern gewinnen Bestimmungsversuche um medienpädagogische Handlungskompetenzen von Lehrpersonen an Bedeutung. Der Erwerb medienpädagogischer Kompetenz, verstanden als dynamisches Zusammenspiel von domänenspezifischem Wissen und anwendungsorientiertem Können, wird in der vorliegenden Arbeit als wesentliches Lernziel der medienpädagogischen (Aus-)Bildung bestimmt. Als ein Weg zur Förderung medienpädagogischer Handlungskompetenz wird von der Autorin auf der Folie konstruktivistischer Vorstellungen über das Lehren und Lernen die Methode der Problemorientierung vorgeschlagen. Im ersten Teil der Arbeit werden Modelle und Konzepte diskutiert, die Bausteine für ein Modell medienpädagogischer Kompetenz liefern. Im zweiten Teil wird eine empirische Untersuchung zum Erwerb medienpädagogischer Handlungskompetenz auf der Basis eines von der Autorin erarbeiteten Modells vorgestellt und die Ergebnisse diskutiert. Eine kompetenztheoretische Annäherung erfolgt auf der Basis zweier Konzepte. Dies sind die Ausführungen zu einem Konzept kommunikativer Kompetenz nach Jürgen Habermas sowie dessen Überführung in die Medienpädagogik durch Dieter Baacke. Ferner wird die rezente bildungspolitische Kompetenzdebatte in Anbindung an Franz E. Weinert analysiert. Es folgt eine Zusammenschau über die methodischen Konzepte zur Erfassung von Kompetenzen in der Erziehungswissenschaft und deren Anwendbarkeit für die medienpädagogische Kompetenzforschung. Die gegenwärtig vorliegenden Entwürfe zu einer inhaltlichen Bestimmung medienpädagogischer Kompetenzen werden besprochen (Sigrid Blömeke, Werner Sesink, International Society for Technology in Education). Im Rekurs auf konstruktivistische lerntheoretische Überlegungen erfährt das problemorientierte Lernen beim Aufbau von Kompetenzen eine enorme Aufwertung. In der Arbeit wird insbesondere den Arbeiten von David Jonassen zu einer konstruktivistisch-instruktionistischen Herangehensweise bei der Gestaltung problemorientierter Lernumgebungen eine große Bedeutung zugesprochen (vgl. auch Ansätze des Goal-based Scenarios/Roger Schank und des Learning by Design/Janet Kolodner). Im zweiten Teil wird die Interventionsstudie im Kontrollgruppendesign vorgestellt. Anhand eines Modells medienpädagogischer Kompetenz, dass auf den Dimensionen Wissen einerseits und Können andererseits basiert, wurden Studierende (n=59) in einem Pre-Posttestverfahren auf diese Dimensionen getestet. Die Studierenden der Interventionsgruppe (n=30) arbeiteten über ein Semester mit einer problemorientierten Lernanwendung, die Studierenden der Kontrollgruppe (n=29) in einem klassischen Seminarsetting. Hauptergebnis der Untersuchung ist es, das die Intervention zu einem messbaren Lernerfolg beim medienpädagogischen Können führte. In der Diskussion der Ergebnisse werden Empfehlungen zur Gestaltung problemorientierter Lernumgebungen formuliert. Die Chancen einer Orientierung an problemorientierten Lernsettings für das Lernen an Hochschulen werden herausgestellt.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Habitusbildung im Studium der Sozialpädagogik. Eine explorative Studie zur Strukturtypik studentischer Professionalisierungsprozesse Die qualitativ-empirische Studie untersucht die als studentischen und pädagogischen Habitus bezeichnete pädagogische Professionalisierung im Studium. Das zugrunde gelegte strukturtheoretische Modell einer professionalisierten sozialpädagogischen Praxis ist eine widersprüchliche Einheit von Theorie- und Fallverstehen. Schütze (1996) analysiert das im Kern paradoxale Verhältnis zwischen Professionellen und Klientel, die widersprüchliche Handlungslogik der Profession und die Konsequenzen ihrer herrschaftlicher Kontexte. In Oevermanns Skizze einer revidierten Theorie professionalisierten Handelns (1996) werden wissenschaftliches Verstehen und hermeneutisches Fallverstehen zur Grundlage des professionalisierten Handelns. Von besonderer Bedeutung ist Oevermanns Konzeption der stellvertretenden Deutung, der Deutung des latenten Sinns einer Interaktion, einer Handlung, einer latenten Sinnstrukur. Aus objektiv-hermeneutischer Sicht sind die Handlungsspielräume einer je konkreten Lebenspraxis durch Regeln gesetzt, bereits die Welt sozialer Regeln bestimmt Möglichkeiten und Folgen einer Handlung, nicht erst die Lebenspraxis. Die Kontrastierung von vier Fallrekonstruktionen mündet in der Formulierung zweier Strukturtypen. Beim Strukturtyp 1, „Scheitern der Habitusformation durch Verweigerung von Emergenz“, wird eine auf ein, maximal zwei sozialpädagogische Handlungsfelder gerichtete Berufskonzeption ausgeformt. Neue Inhalte, die sich nicht widerspruchsfrei in dieses minimalistische Konzept sozialer Praxis integrieren lassen, werden abgewehrt. Das Strukturpotential, das in dieser krisenhaften Übergangssituation angesprochen wird mit dem Anspruch, neue perzeptions- und handlungsleitende Sinnstrukturen zu bilden, stagniert in biografisch bewährten Bearbeitungsstrategien. Für die Fallstrukturgesetzlichkeit des Strukturtyps 2, „Krisenbearbeitung und Transformation biografietypischer Strukturen“, ist ein hohes Potential, in einem Prozess der Emergenz Krisen durch neue Handlungs- und Sinnstrukturen zu lösen, signifikant. Die gelingende Habitusformation vollzieht sich dort, wo diese emergenten Strukturen in die Vermitteltheit einer professionalisierten Routine überführt werden. Die Rückbindung der Strukturtypen an die Studienmodelle des „wissenschaftlich gebildeten Praktikers“ und des fallrekonstruktiven Modells fundiert die These, dass der durch die Einsozialisation in ein hermeneutisches Fallverstehen eröffnete Bildungsprozess vertiefte Kenntnisse um Lebensgesetzlichkeiten, Regelkenntnisse und eine entmystifizierte Haltung zur Theorie als einer „verwissenschaftlichten Rationalität“ vermittelt.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Das humane Cytomegalovirus (HCMV) ist ein fakultativ-pathogener Erreger, der bei Patienten mit geschwächter oder unausgereifter Immunabwehr schwerwiegende Erkrankungen hervorrufen kann. Wie alle Herpesviren zeigt das HCMV eine streng koordinierte Expression viraler Gene, die in eine „sehr frühe-“ (IE), „frühe “ (E) und „späte-“ (L) Phase unterteilt werden kann. Die Produkte der IE-Gene IE1 und IE2 sind für die Expression der frühen Gene und somit für die Initiation der viralen DNA-Replikation entscheidend. Sie greifen gleichzeitig in den zellulären Stoffwechsel ein und schaffen damit optimale Vorraussetzungen für die virale Vermehrung. Zu Beginn dieser Arbeit war bekannt, dass HCMV in lytisch infizierten Zellen ein abundantes IE-Transkript von 5 kb (IE4-RNA) exprimierte, dessen Funktion bislang unklar war. Ältere Publikationen deuteten darauf hin, dass die IE4-Genregion an der Transformation eukaryonter Zellen beteiligt sein könnte. Neuere Arbeiten zeigten, dass es sich bei diesem IE4-Transkript um ein metabolisch stabiles Intron handelt. Im Rahmen dieser Arbeit sollte zunächst geklärt werden, ob die IE4-Genregion ein Protein kodiert. In der Folge sollten mit viralen Deletionsmutanten Hinweise auf die biologische Funktion des IE4-Bereichs erarbeitet werden. Durch Northern Blot Analysen und cDNA-Klonierungsexperimente konnte eine Reihe neuer Spleiß-Varianten der IE4-RNA identifiziert werden. Durch Sequenzanalysen wurde gezeigt, dass diese Transkripte keine längeren offenen Leserahmen enthalten. Zusammen mit bereits publizierten Erkenntnissen, kann aus diesen Ergebnissen mit hoher Wahrscheinlichkeit geschlossen werden, dass die IE4 Region nicht für ein Protein kodiert. Zur Analyse der biologischen Funktion der IE4-Region wurde das DNA-Genom des HCMV gezielt mutagenisiert. Eine phänotypische Analyse der entsprechenden Viren mittels Reportergen-Tests und quantitativer RealTime RT-PCR zeigte, dass einige der Mutanten eine verringerte Expression früher Gene aufwiesen, die mit einer Beeinträchtigung ihrer Replikationsfähigkeit in Fibroblastenkulturen korrelierte. Dabei war die Ausbildung eines Phänotyps jedoch von dem genetischen Hintergrund des verwendeten viralen Ausgangsstammes abhängig. Auffällig war, dass phänotypische Veränderungen nur bei solchen Mutanten sichtbar wurden, die auf der Grundlage des Laborstammes Ad169 des HCMV generiert worden waren. Die nachfolgende Analyse der Ausgangsstämme ergab deutliche Unterschiede in der IE-Genexpression. Die Ergebnisse dieser Arbeit zeigen somit, dass die IE4-RNA mit hoher Wahrscheinlichkeit nicht für ein Protein kodiert, aber bei limitierender Expression der essentiellen Regulatoren IE1 und IE2 die frühe lytische Genexpression stimuliert. Die Ergebnisse dieser Arbeit stellen die Grundlage für nachfolgende Untersuchungen zur Aufklärung der molekularen Funktion der IE4-RNA im Rahmen der lytischen Infektion des HCMV dar.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In der vorliegenden Arbeit wurde die Synthese von optisch aktivem 9,14-Methylen-Lipoxin A4 untersucht. Lipoxin A4 und seine Derivate leiten sich von der Arachidonsäurekaskade ab wie die Prostaglandine, Prostacycline, Thromboxana und Leucotriene. Alle diese Verbindungen sind biologisch aktive Eicosanoide, die aus 20 C-Atomen bestehen. Lipoxine können im Organismus auf verschiedenen Biosynthesewegen entstehen: über die Lipoxygenase sowie über die Zell-Zell-Wechselwirkungen. Untersuchungen ergaben, dass die Lipoxine selektive biologische Wirkungen zeigen, die eine wichtige Rolle vor allem in Entzündungsprozessen und Infektabwehr zeigen. Da aber diese Moleküle rasch isomerisieren, sind diese hohen Aktivitäten mit einer sehr geringen Stabilität gekoppelt. Aufgrund dieser Instabilität konnte die biologisch aktive Konformation des Lipoxin A4 am Rezeptor nicht eindeutig bestimmt werden. Zur besseren Untersuchung der Lipoxinrezeptor-Anordnung wurden deshalb stabile Analoga synthetisiert. Die biologische Aktivität des nach Nokami et al hergestellten Lipoxin A4-Analogons weicht sehr stark von der des Lipoxins ab. Angeregt durch diese Arbeiten wurde in der Arbeitsgruppe Nubbemeyer die Idee entwickelt, das konjugierte Tetraensystem des Lipoxin A4-Moleküls durch das Cycloheptatrien nachzuahmen. Die CH2-Gruppe bildet eine Brücke, die die Isomerisierung vom aktiven cis-Isomer zu den inaktiven trans-Isomeren verhindern soll. Mit diesem Cycloheptatriengerüst als Lipoxin A4-Analogon hoffen wir das Lipoxingerüst unwesentlich zu verändern und die damit verbundene biologische Aktivität zu erhalten. Die Synthese des 9,14-Methylen-LXA4 soll möglichst konvergent erfolgen, so dass gegebenenfalls auf Bausteine zurückgegriffen werden kann, deren Aufbau bereits optimiert wurde. Eine derartige Strategie ermöglicht darüber hinaus die Herstellung einer großen Zahl von weiteren potentiell interessanten Verbindungen ohne komplettes Umstellen der Synthese. Wichtige Reaktionen im Verlauf dieser Synthese sind: bei der Synthese des C8-C20-Bausteins: Friedel-Crafts-Acylierungen, Haloform-Reaktion, Veresterung mittels Standardmethoden, enantioselektive Reduktion mit dem chiralen CBS-Katalysator und Schutzgruppenoperation. bei der Synthese des C1-C7-Bausteins: ex-chiral-pool-Synthese aus 2-Desoxy-D-ribose, Wittig-Reaktion, Hydrierung mit Pd/C, Schutzgruppenoperation, Abspaltung von Schutzgruppen und Swern-Oxidation zum Aldehyd. Die Schlüsselreaktion der ganzen Synthese ist die Eintopf-Variante der Julia-Olefinierung nach Kocienski: selektiver Aufbau des trans-Olefins durch Verknüpfung der beiden Bausteine. Nach weiteren Schutzgruppenoperationen (und Öffnung des Valerolactons) wird der Methylester des 9,14-Lipoxin A4 erhalten, dessen biologische Aktivität zweifelsfrei bewiesen wurde.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Arbeit behandelt das Problem der Skalierbarkeit von Reinforcement Lernen auf hochdimensionale und komplexe Aufgabenstellungen. Unter Reinforcement Lernen versteht man dabei eine auf approximativem Dynamischen Programmieren basierende Klasse von Lernverfahren, die speziell Anwendung in der Künstlichen Intelligenz findet und zur autonomen Steuerung simulierter Agenten oder realer Hardwareroboter in dynamischen und unwägbaren Umwelten genutzt werden kann. Dazu wird mittels Regression aus Stichproben eine Funktion bestimmt, die die Lösung einer "Optimalitätsgleichung" (Bellman) ist und aus der sich näherungsweise optimale Entscheidungen ableiten lassen. Eine große Hürde stellt dabei die Dimensionalität des Zustandsraums dar, die häufig hoch und daher traditionellen gitterbasierten Approximationsverfahren wenig zugänglich ist. Das Ziel dieser Arbeit ist es, Reinforcement Lernen durch nichtparametrisierte Funktionsapproximation (genauer, Regularisierungsnetze) auf -- im Prinzip beliebig -- hochdimensionale Probleme anwendbar zu machen. Regularisierungsnetze sind eine Verallgemeinerung von gewöhnlichen Basisfunktionsnetzen, die die gesuchte Lösung durch die Daten parametrisieren, wodurch die explizite Wahl von Knoten/Basisfunktionen entfällt und so bei hochdimensionalen Eingaben der "Fluch der Dimension" umgangen werden kann. Gleichzeitig sind Regularisierungsnetze aber auch lineare Approximatoren, die technisch einfach handhabbar sind und für die die bestehenden Konvergenzaussagen von Reinforcement Lernen Gültigkeit behalten (anders als etwa bei Feed-Forward Neuronalen Netzen). Allen diesen theoretischen Vorteilen gegenüber steht allerdings ein sehr praktisches Problem: der Rechenaufwand bei der Verwendung von Regularisierungsnetzen skaliert von Natur aus wie O(n**3), wobei n die Anzahl der Daten ist. Das ist besonders deswegen problematisch, weil bei Reinforcement Lernen der Lernprozeß online erfolgt -- die Stichproben werden von einem Agenten/Roboter erzeugt, während er mit der Umwelt interagiert. Anpassungen an der Lösung müssen daher sofort und mit wenig Rechenaufwand vorgenommen werden. Der Beitrag dieser Arbeit gliedert sich daher in zwei Teile: Im ersten Teil der Arbeit formulieren wir für Regularisierungsnetze einen effizienten Lernalgorithmus zum Lösen allgemeiner Regressionsaufgaben, der speziell auf die Anforderungen von Online-Lernen zugeschnitten ist. Unser Ansatz basiert auf der Vorgehensweise von Recursive Least-Squares, kann aber mit konstantem Zeitaufwand nicht nur neue Daten sondern auch neue Basisfunktionen in das bestehende Modell einfügen. Ermöglicht wird das durch die "Subset of Regressors" Approximation, wodurch der Kern durch eine stark reduzierte Auswahl von Trainingsdaten approximiert wird, und einer gierigen Auswahlwahlprozedur, die diese Basiselemente direkt aus dem Datenstrom zur Laufzeit selektiert. Im zweiten Teil übertragen wir diesen Algorithmus auf approximative Politik-Evaluation mittels Least-Squares basiertem Temporal-Difference Lernen, und integrieren diesen Baustein in ein Gesamtsystem zum autonomen Lernen von optimalem Verhalten. Insgesamt entwickeln wir ein in hohem Maße dateneffizientes Verfahren, das insbesondere für Lernprobleme aus der Robotik mit kontinuierlichen und hochdimensionalen Zustandsräumen sowie stochastischen Zustandsübergängen geeignet ist. Dabei sind wir nicht auf ein Modell der Umwelt angewiesen, arbeiten weitestgehend unabhängig von der Dimension des Zustandsraums, erzielen Konvergenz bereits mit relativ wenigen Agent-Umwelt Interaktionen, und können dank des effizienten Online-Algorithmus auch im Kontext zeitkritischer Echtzeitanwendungen operieren. Wir demonstrieren die Leistungsfähigkeit unseres Ansatzes anhand von zwei realistischen und komplexen Anwendungsbeispielen: dem Problem RoboCup-Keepaway, sowie der Steuerung eines (simulierten) Oktopus-Tentakels.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Zur bronchialen Deposition von Arzneimitteln stehen im Wesentlichen drei Inhalationssysteme zur Verfügung: (1) Dosier-Aerosole (pressurized Metered Dose Inhaler, pMDI), (2) Trockenpulver-Inhalatoren (Dry Powder Inhaler, DPI) und (3) Druckluftvernebler zur Feuchtinhalation. Der Erfolg einer Inhalationstherapie hängt neben anderen Faktoren (s.u.) wesentlich vom Depositionsverhalten des als Aerosol inhalierten Medikamentes ab. Wie viel wirksame Substanz lagert sich an welchen Stellen der Atemwege ab und welche Dosis erreicht letztlich die kleinen Atemwege? Einflussfaktoren sind hier vor allem die Partikelgröße und die Inhalationstechnik. So verlangen beispielsweise DPI’s einen respiratorischen Spitzenfluss (PIF) von mindestens 30 l/min, wohingegen bei der Verwendung von pMDI’s ein gleich bleibender PIF von 40 bis 90 l/min erwünscht ist. Die für das jeweilige Inhalationssystem optimale Atemtechnik muss also vom Patienten erlernt werden. Mit den eigenen Arbeiten soll das Verständnis inhalativer Vorgänge sowie die bronchiale Deposition von inhalativen Medikamenten bei pädiatrischen Patienten verbessert werden. Aus der Vielzahl der Inhalatoren wählten wir für unsere Versuche fünf Systeme aus, deren unterschied-liche Anforderungen an den Patienten repräsentativ überprüft wurden: (1) DPI mit mittlerem Widerstand: Diskus®, (2) DPI mit hohem Widerstand: Turbohaler®, (3) pMDI: Autohaler®, (4) pMDI für Säuglinge: Budiair® mit verschiedenen Vorsatzkammern (Babyhaler®, AeroChamber® Plus small und medium) und (5) nachfüllbarer DPI mit niedrigem Widerstand: MAGhaler®. Für unsere Studien unverzichtbar war außerdem ein Testsystem, mit dem die Fähigkeit der Patienten überprüft und verbessert werden kann, einen bestimmten Inhalator effektiv zu benutzen, d.h. das gewünschte Atemmanöver durchzuführen und damit eine optimale Medikamenten-Deposition zu erreichen. Erste Untersuchungen ergaben, dass die kommerziell auf dem Markt verfügbaren Testsysteme suboptimal sind, weil sie sich nur auf die Messung des PIF’s konzentrieren und andere für die Deposition wichtige Parameter (Beschleunigung, Inhaltionsdauer etc.) außer Acht lassen. Wir entwickelten daher den Inhalation-Manager, der die Dokumentation des gesamten Atemmanövers ermöglicht. Es handelt sich dabei um ein computerbasiertes Mess- und Kontrollsystem, das unmittelbar nach der Inhalation ein optisches feedback des gesamten Manövers inklusive des generierten Partikelspektrums liefert. Die daraus weiterentwickelte Schulungssoftware ermöglicht die individuelle Schulung verschiedener Inhalationsmanöver auch mit neuen Inhalatoren. Patient und Arzt erhalten eine optische Rückmeldung, die den Erfolg oder Misserfolg der Inhalation erkennen lässt. Erste Schulungen mit dem neuen System von pädiatrischen Patienten mit Asthma bronchiale verliefen positiv: der Anteil der optimalen Inhalationsmanöver und damit auch der Therapieerfolg stiegen an. Allerdings zeigte sich auch, dass verschiedene Systeme nicht gleichzeitig geschult werden sollten. Generelle Schwierigkeiten bereitet die Inhalationstherapie von Kindern bis etwa zum 4. Geburtstag, da diese meist gar kein Inhalationsmanöver erlernen können. Die Medikamente müssen somit durch den Ruheatemfluss ins Bronchialsystem transportiert werden, wobei Dosieraerosole mit Vorsatzkammern (Spacer) oder Vernebler mit Masken zum Einsatz kommen sollten. Bei der Inhalation mit Spacer war bislang unklar, wie viel Prozent der Nominaldosis letztlich in die Lunge gelangen und therapeutisch wirksam werden. Unsere in-vitro Studien mit einem Dosieraerosol und verschiedenen Spacern zeigten, dass nach fünf Atemzügen maximal 20% der Nominaldosis das Gerät bzw. den Spacer verlassen. Nach nur einem Atemzug und bei Verwendung bestimmter Spacer (großes Totraumvolumen) beträgt dieser Wert sogar nur 5%. Dieses Ergebnis belegt, dass man vom Säuglings- bis zum Erwachsenenalter nahezu die gleiche Nominaldosis verabreichen kann, da durch unterschiedliche Inhalationsmanöver und –systeme die wirksame Dosis extrakorporal auf die altersentsprechende Dosis reduziert wird. Ein besonderes Problem ergibt sich schließlich bei der Feuchtinhalation mit Druckluftverneblern. Hier darf die Kompatibilität von unterschiedlichen Inhalationslösungen nicht außer Acht gelassen werden. So gaben in unserer Mukoviszidose-Ambulanz viele Betroffene an, aus Zeitgründen unterschiedliche Inhalationslösungen bei der Feuchtinhalation zu mischen. Physikalisch-chemische Inkompatibilitäten können dann die Wirksamkeit der Therapie beeinträchtigen und auch zu unerwünschten Nebenwirkungen führen. In einer interdisziplinären Arbeitsgruppe mit Chemikern und Pharmazeuten untersuchten wir daher die Mischbarkeit von häufig genutzten Inhalationslösungen (Salbutamol, Ipratropium, Cromoglicinsäure, Budenosid, Tobramycin und Dornase Alpha) und stellten die Ergebnisse (mögliche Inhaltionskombinationen) tabellarisch zusammen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Centrine sind kleine Ca2+-bindende Proteine aus der Familie der EF-Hand Proteine. Erstmals wurden Centrine als Hauptbestandteil der kontraktilen Flagellenwurzeln von Grünalgen beschrieben. Mittlerweile konnten Centrine in nahezu allen eukaryotischen Organismen nachgewiesen werden. In Säugetieren wurden bis zu vier Isoformen identifiziert, die an Centrosomen oder davon abgeleiteten Strukturen, wie Spindelpolkörpern und Basalkörper, aber auch in Übergangszonen von Cilien exprimiert werden. In der vorliegenden Arbeit konnte gezeigt werden, dass die Centrine im zellulären Kontext der Photorezeptorzellen nicht nur durch die Bindung von Ca2+ reguliert werden, sondern auch durch reversible Phosphorylierungen. Die Phosphorylierung der Centrin-Isoformen findet in der Retina von Vertebraten lichtabhängig während der Dunkeladaption statt. Die Protein Kinase CK2 (CK2) ist für die beschriebenen lichtabhängigen Phosphorylierungen hauptverantwortlich. Obwohl alle Centrin-Isoformen mehrere mögliche Zielsequenzen für die CK2 besitzen, kommt es nur zur Phosphorylierung einer einzigen Aminosäure in Cen1p, Cen2p und Cen4p. Im Gegensatz dazu stellt die Isoform Cen3p kein Substrat für die CK2 dar. Zudem wurden hier erstmals Phosphatasen identifiziert, die in der Lage sind Centrine zu dephosphorylieren. Die Dephosphorylierung durch die PP2Cund PP2C ist sehr spezifisch, da keine andere Phosphatase der Retina die CK2-vermittelte Phosphorylierung der Centrine rückgängig machen kann. Hoch auflösende licht- und elektronenmikroskopische Analysen zeigten erstmals, dass die Centrine sowohl mit der CK2 als auch mit der PP2C im Verbindungscilium der Photorezeptorzellen colokalisiert sind. Cen1p und CK2 sind in der Lage, direkt an Mikrotubuli zu binden, was die notwendige räumliche Nähe zwischen Enzymen und Substrat herstellt. Bisherige Arbeiten zeigten, dass alle Centrine Ca2+-abhängig mit dem visuellen G-Protein Transducin interagieren. Diese Wechselwirkung dürfte an der Regulation der lichtabhängigen Translokation des visuellen G-Proteins Transducin zwischen dem Außen- und dem Innensegment der Photorezeptorzelle beteiligt sein. In der vorliegenden Arbeit zeigten Interaktionsstudien, dass die Bindungsaffinitäten der Centrine für Transducin durch die CK2-vermittelte Phosphorylierung drastisch verringert wurden. Dieser beobachtete Effekt beruht auf deutlich verringerten Ca2+-Affinitäten der Centrin-Isoformen nach der CK2-vermittelten Phosphorylierung. In der vorliegenden Arbeit wurde ein neuartiger Regulationsmechanismus der Centrine in den Photorezeptorzellen der Vertebraten beschrieben. Centrine werden nicht nur durch Ca2+-Bindung zur Bildung von Protein Komplexen stimuliert, sondern durch die Phosphorylierung zum Auflösen dieser Komplexe angeregt. Damit reguliert die CK2-vermittelte, lichtabhängige Phosphorylierung der Centrine möglicherweise ebenfalls die adaptive Translokation des visuellen G-Proteins Transducin zwischen dem Außen- und Innensegment der Photorezeptorzellen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Alkoholabhängigkeit gehört zu den häufigen chronischen Erkrankungen, welche mit einem vorzeitigen Verlust von Gesundheit und Lebensqualität einhergeht. Familien- und Zwillingsuntersuchungen sprechen dafür, dass mehr als 50% der Verhaltensvarianz durch genetische Faktoren zu erklären ist. In der vorliegenden kumulativen Habilitationsarbeit wurden verhaltensgenetische, molekularbiologische, humangenetische und funktionell bildgebende Untersuchungstechniken kombiniert, um ein erweitertes Verständnis der Neurobiologie der Alkoholabhängigkeit zu erzielen. In einer Serie tierexperimenteller Arbeiten konnte u.a. nachgewiesen werden, dass das Gen für das Multiple PDZ Domänen Protein Mpdz ein Kandidatengen des Alkoholentzugs, Barbituratentzugs und der neuronalen Exzitabilität darstellt. In zwei weiteren Untersuchungen wurden Kandidatengene der Alkoholpräferenz untersucht. Hier konnte mit dem Syntaxin binding protein 1 (Stxbp1) ein Kandidatengen der Alkoholpräferenz bestätigt werden. Humangenetische Untersuchungen sprechen dafür, dass molekulare Varianten in der Alpha2 Untereinheit des GABAA Rezeptors zu einem erhöhten Risiko der Entwicklung einer Alkoholabhängigkeit beim Menschen beitragen. Mit einer 18F-Fluorodesoxyglucose Untersuchung konnte nachgewiesen werden, dass Alkohol in vivo das mesolimbische Rewardsystem stimuliert, diese Stimulation jedoch nicht durch Tiagabin, einem GABA-Transporterinhibitor, hemmbar ist. Zusammengefasst sprechen die Untersuchungen dafür, dass molekulare Varianten synaptischer Proteine zu einer veränderten Alkoholempfindlichkeit und dem Risiko zur Entwicklung einer Alkoholabhängigkeit beitragen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In dieser Dissertation wurden die Methoden Homologiemodellierung und Molekulardynamik genutzt, um die Struktur und das Verhalten von Proteinen in Lösung zu beschreiben. Mit Hilfe der Röntgenkleinwinkelstreuung wurden die mit den Computermethoden erzeugten Vorhersagen verifiziert. Für das alpha-Hämolysin, ein Toxin von Staphylococcus aureus, das eine heptamere Pore formen kann, wurde erstmalig die monomere Struktur des Protein in Lösung beschrieben. Homologiemodellierung auf Basis verwandter Proteine, deren monomere Struktur bekannt war, wurde verwendet, um die monomere Struktur des Toxins vorherzusagen. Flexibilität von Strukturelementen in einer Molekulardynamiksimulation konnte mit der Funktionalität des Proteines korreliert werden: Intrinsische Flexibilität versetzt das Protein in die Lage den Konformationswechsel zur Pore nach Assemblierung zu vollziehen. Röntgenkleinwinkelstreuung bewies die Unterschiede der monomeren Struktur zu den Strukturen der verwandten Proteine und belegt den eigenen Vorschlag zur Struktur. Überdies konnten Arbeiten an einer Mutante, die in einer sogenannten Präporenkonformation arretiert und nicht in der Lage ist eine Pore zu formen, zeigen, dass dieser Übergangszustand mit der Rotationsachse senkrecht zur Membran gelagert ist. Eine geometrische Analyse beweist, dass es sterisch möglich ist ausgehend von dieser Konformation die Konformation der Pore zu erreichen. Eine energetische und kinetische Analyse dieses Konformationswechsels steht noch aus. Ein weiterer Teil der Arbeit befasst sich mit den Konformationswechseln von Hämocyaninen. Diese wurden experimentell mittels Röntgenkleinwinkelstreuung verfolgt. Konformationswechsel im Zusammenhang mit der Oxygenierung konnten für die 24meren Hämocyanine von Eurypelma californicum und Pandinus imperator beschrieben werden. Für eine Reihe von Hämocyaninen ist nachgewiesen, dass sie unter Einfluss des Agenz SDS Tyrosinaseaktivität entfalten können. Der Konformationswechsel der Hämocyanine von E. californicum und P. imperator bei der Aktivierung zur Tyrosinase mittels SDS wurde experimentell bestätigt und die Stellung der Dodekamere der Hämocyanine als wesentlich bei der Aktivierung festgestellt. Im Zusammenhang mit anderen Arbeiten gilt damit die Relaxierung der Struktur unter SDS-Einfluss und der sterische Einfluss auf die verbindenden Untereinheiten b & c als wahrscheinliche Ursache für die Aktivierung zur Tyrosinase. Eigene Software zum sogenannten rigid body-Modellierung auf der Basis von Röntgenkleinwinkelstreudaten wurde erstellt, um die Streudaten des hexameren Hämocyanins von Palinurus elephas und Palinurus argus unter Einfluss der Effektoren Urat und Koffein strukturell zu interpretieren. Die Software ist die erste Implementierung eines Monte Carlo-Algorithmus zum rigid body-Modelling. Sie beherrscht zwei Varianten des Algorithmus: In Verbindung mit simulated annealing können wahrscheinliche Konformationen ausgefiltert werden und in einer anschließenden systematischen Analyse kann eine Konformation geometrisch beschrieben werden. Andererseits ist ein weiterer, reiner Monte Carlo-Algorithmus in der Lage die Konformation als Dichteverteilung zu beschreiben.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Im Replikationszyklus umhüllter Viren entstehen neue Viruspartikel durch die Knospung an Membranen der Wirtszelle. An diesem Prozess sind verschiedene zelluläre Faktoren und Mechanismen beteiligt, speziell die ESCRT-Proteinkomplexe, welche die Vesikelbildung an den MVBs steuern. Auch bei HBV ist davon auszugehen, dass Komponenten der Wirtszelle an der Umhüllung und Freisetzung der Virionen beteiligt sind, allerdings sind diese noch weitgehend unbekannt. Ziel dieser Arbeit war es daher, die zellulären Faktoren genauer zu charakterisieren und ihre Funktion bei der Virusumhüllung aufzuklären. Den Ausgangspunkt für die hier durchgeführten Untersuchungen bildeten vorangegangene Arbeiten, in denen die spezifische Interaktion des L-Hüllproteins von HBV mit g2-Adaptin nachgewiesen werden konnte. Diese ist für die Morphogenese von HBV essentiell, allerdings ist die zelluläre ebenso wie die virusspezifische Funktion von g2-Adaptin bislang unbekannt. Im Rahmen dieser Arbeit sollte daher untersucht werden, wo und wie g2-Adaptin in der Zelle funktionell ist, um daraus Rückschlüsse auf die Vorgänge bei der Morphogenese von HBV ziehen zu können. Die Grundlage für die Charakterisierung von g2-Adaptin bildete seine Ähnlichkeit zu zellulären Clathrin-Adaptorproteinen. So konnte hier gezeigt werden, dass auch g2-Adaptin ein Clathrin-Bindungsmotiv besitzt, welches eine Interaktion mit Clathrin ermöglicht. Außerdem konnte ein Ubiquitin-Interaktions-Motiv (UIM) identifiziert werden, das die Bindung an ubiquitinierte Proteine vermittelt. Diese Beobachtung deutet darauf hin, dass g2-Adaptin zu einer Gruppe monomerer Adaptorproteine zählen könnte, welche als Ubiquitin-Rezeptoren in der Zelle funktionell sind. Die folgenden Analysen zeigten eine weitere Gemeinsamkeit, da auch g2-Adaptin selbst durch Ubiquitin modifiziert wird, wobei die Ubiquitinierung von einem intakten UIM abhängt. Dieser als Coupled Monoubiquitination bezeichnete Prozess wird hierbei durch die Ubiquitin-Ligase Nedd4 vermittelt, die direkt mit g2-Adaptin interagiert. Dabei konnte nachgewiesen werden, dass die C2-Domäne von Nedd4 ebenfalls mit Ubiquitin modifiziert ist, wodurch der Kontakt zum UIM von g2-Adaptin erfolgt. Die meisten der bislang bekannten Ubiquitin-bindenden Adaptorproteine, spielen bei der Vesikelentstehung an verschiedenen zellulären Membranen eine Rolle, wo sie an der Sortierung der vorwiegend ubiquitinierten Membranproteine beteiligt sind und zelluläre Komponenten rekrutieren, welche die Vesikelabschnürung vermitteln. Die Adaptorproteine sind dabei meist mit der jeweiligen Membran assoziiert, was auch für g2-Adaptin nachgewiesen werden konnte. Diese Membranbindung wird durch den N-terminalen Proteinbereich von g2-Adaptin vermittelt und erfolgt unabhängig von den Ubiquitin-bindenden Eigenschaften und von Nedd4. Allerdings scheint die Ubiquitin-Modifikation von g2-Adaptin ausschließlich in membrangebundener Form zu erfolgen. An welchen Membranen g2-Adaptin lokalisiert ist, wurde in Immunfluoreszenzstudien untersucht, wobei eine enge Assoziation von g2-Adaptin mit späten Endosomen bzw. MVBs zu beobachten war. Bei weiteren Analysen konnte auch ein funktioneller Einfluss auf die Vesikelentstehung an den MVBs nachgewiesen werden, da durch die Depletion von g2-Adaptin stark vergrößerte, defekte MVBs induziert wurden. Dies deutet darauf hin, dass g2-Adaptin als Ubiquitin-Rezeptor an diesen Prozessen beteiligt sein könnte. Ebenso wie andere Adaptorproteine könnte es hier an die Cargo-Proteine binden, diese durch den Kontakt zu Clathrin lokal konzentrieren und die Vesikelabschnürung durch die Rekrutierung der MVB-Maschinerie vermitteln. Möglicherweise stellt g2-Adaptin hierbei den bislang nicht identifizierten Adaptor dar, der die Verbindung zwischen Nedd4 und der MVB-Kaskade herstellt. Eine ähnliche Funktion für g2-Adaptin ist auch bei der Morphogenese von HBV denkbar. Aufgrund der durchgeführten Lokalisationsstudien ist anzunehmen, dass die Umhüllung der HBV-Partikel direkt an den MVBs erfolgt. Vermutlich bindet g2-Adaptin hier an das L-Hüllprotein, wobei es durch die Rekrutierung von Clathrin zu einer lokalen Anreicherung der Hüllproteine kommt. g2-Adaptin interagiert zudem in UIM-abhängiger Weise mit dem Nukleokapsid, wobei der Kontakt direkt erfolgen könnte oder durch die Ubiquitin-Ligase Nedd4 vermittelt wird, welche über eine Late-Domäne ebenfalls mit dem Nukleokapsid verbunden ist. Anscheinend gelangt das Nukleokapsid durch den Einfluss von g2-Adaptin und Nedd4 zum Ort der Virusmorphogenese, wo die eigentliche Umhüllung und die Abschnürung der Viruspartikel erfolgen. Vermutlich sind auch hier Komponenten der MVB-Maschinerie beteiligt, die womöglich durch g2-Adaptin rekrutiert werden.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Der vorliegende Artikel befasst sich mit den Eindrücken einer vom Institut für Ethnologie und Afrikastudien in Mainz durchgeführten Lehrforschung, die staatliche Institutionen in Nordghana untersuchte. Obwohl unsere Arbeiten verschiedene Institutionen und verschiedene Forschungsfragen thematisierten, ließ sich in Gesprächen ein gemeinsames Motiv erkennen: die Konstruktion einer binären Dichotomie zwischen enlightened und unenlightened durch sprachliche und nicht-sprachliche Routinen der Bürokraten im Umgang mit ihren Klienten. Wir interessieren uns im vorliegenden Artikel nicht für Modernität und Entwicklung als universellen oder lokal angeeigneten Prozess, sondern untersuchen die Praktiken mit denen Akteure mittels der Konzepte Modernität, Entwicklung, Aufklärung und Erziehung Differenzen zwischen sich und ihren Klienten konstruieren und funktionale Kategorien zu schaffen, sowie die Bruchstellen dieses Konstruktionsprozesses. Anhand von Fallbeispielen aus Gerichten, Polizei, Kulturinstitutionen und Schulen erläutern wir die Praxis der Differenzierung, die als eine Form der Alltagsbewältigung für die Bürokraten erscheint.