62 resultados para Künstliche Bandscheibe
Resumo:
The ongoing depletion of the coastal aquifer in the Gaza strip due to groundwater overexploitation has led to the process of seawater intrusion, which is continually becoming a serious problem in Gaza, as the seawater has further invaded into many sections along the coastal shoreline. As a first step to get a hold on the problem, the artificial neural network (ANN)-model has been applied as a new approach and an attractive tool to study and predict groundwater levels without applying physically based hydrologic parameters, and also for the purpose to improve the understanding of complex groundwater systems and which is able to show the effects of hydrologic, meteorological and anthropogenic impacts on the groundwater conditions. Prediction of the future behaviour of the seawater intrusion process in the Gaza aquifer is thus of crucial importance to safeguard the already scarce groundwater resources in the region. In this study the coupled three-dimensional groundwater flow and density-dependent solute transport model SEAWAT, as implemented in Visual MODFLOW, is applied to the Gaza coastal aquifer system to simulate the location and the dynamics of the saltwater–freshwater interface in the aquifer in the time period 2000-2010. A very good agreement between simulated and observed TDS salinities with a correlation coefficient of 0.902 and 0.883 for both steady-state and transient calibration is obtained. After successful calibration of the solute transport model, simulation of future management scenarios for the Gaza aquifer have been carried out, in order to get a more comprehensive view of the effects of the artificial recharge planned in the Gaza strip for some time on forestall, or even to remedy, the presently existing adverse aquifer conditions, namely, low groundwater heads and high salinity by the end of the target simulation period, year 2040. To that avail, numerous management scenarios schemes are examined to maintain the ground water system and to control the salinity distributions within the target period 2011-2040. In the first, pessimistic scenario, it is assumed that pumping from the aquifer continues to increase in the near future to meet the rising water demand, and that there is not further recharge to the aquifer than what is provided by natural precipitation. The second, optimistic scenario assumes that treated surficial wastewater can be used as a source of additional artificial recharge to the aquifer which, in principle, should not only lead to an increased sustainable yield of the latter, but could, in the best of all cases, revert even some of the adverse present-day conditions in the aquifer, i.e., seawater intrusion. This scenario has been done with three different cases which differ by the locations and the extensions of the injection-fields for the treated wastewater. The results obtained with the first (do-nothing) scenario indicate that there will be ongoing negative impacts on the aquifer, such as a higher propensity for strong seawater intrusion into the Gaza aquifer. This scenario illustrates that, compared with 2010 situation of the baseline model, at the end of simulation period, year 2040, the amount of saltwater intrusion into the coastal aquifer will be increased by about 35 %, whereas the salinity will be increased by 34 %. In contrast, all three cases of the second (artificial recharge) scenario group can partly revert the present seawater intrusion. From the water budget point of view, compared with the first (do nothing) scenario, for year 2040, the water added to the aquifer by artificial recharge will reduces the amount of water entering the aquifer by seawater intrusion by 81, 77and 72 %, for the three recharge cases, respectively. Meanwhile, the salinity in the Gaza aquifer will be decreased by 15, 32 and 26% for the three cases, respectively.
Resumo:
Die soziale Waldamöbe Dictystelium discoideum ist ein etablierter Modellorganismus zur Erforschung grundlegender zellbiologischer Prozesse. Innerhalb der letzten Jahre konnte dabei insbesondere das Wissen zum Lipidmetabolismus umfassend erweitert werden. In diesem Zusammenhang spielt besonders eine Enzymgruppe eine wichtige Rolle: die LC/VLC-Acyl-CoA-Synthetasen. Diese übernehmen dabei die Aufgabe Fettsäuren zu aktivieren, um sie so dem Zellmetabolismus überhaupt erst zugänglich zu machen. D. discoideum verfügt über insgesamt vier dieser Enzyme: FcsA, FcsB, FcsC und das Bubblegum-Enzym Acsbg1. Während die FcsA und FcsB bereits in vorangegangenen Arbeiten untersucht wurden, werden die FcsC und die Acsbg1 in dieser Arbeit erstmals biologisch charakterisiert. Untersuchungen zur subzellulären Lokalisation der Proteine zeigen, dass die meisten LC/VLC-Acyl-CoA-Synthetase auf Endosomen und im Cytoplasma gefunden werden können (FcsA, FcsC und Acsbg1), während die FcsB als Transmembranprotein über das ER zu den Peroxisomen transportiert wird. Die Acsbg1 akkumuliert dabei zusätzlich an der Plasmamembran. Funktionell konnte gezeigt werden, dass neben der FcsA auch die Acsbg1 an der Bereitstellung von Acyl-CoA für Triacylglyceridsynthese beteiligt ist. Dabei besitzt die FcsA die Hauptenzymaktivität und kompensiert den Verlust der Acsbg1 in acsbg1- Zellen. In fcsA-/acsbg1- Zellen dagegen kommt der Verlust der Acsbg1 durch eine zusätzliche Verringerung des TAG-Gehaltes der Doppel-KOs im Vergleich zu fcsA- Zellen zum tragen. Alle vier Enzyme beeinflussen die Phagozytose. Dabei zeigen fcsA- und fcsC- Zellen eine gesteigerte Phagozytose in Gegenwart von der gesättigten Fettsäure Palmitinsäure im Kulturmedium. Auch der knockout der Acsbg1 wirkt sich positiv auf die Phagozytoserate aus, jedoch kommt auch nur dieser zum tragen, wenn neben der Acsbg1 auch die FcsA ausgeschaltet wird. Die FcsB dagegen zeigt eine dramatische Reduktion der Partikelaufnahme in nicht Fettsäure gefütterten Zellen. Durch die Zugabe einer exogenen Fettsäure kann dieser Effekt nicht kompensiert werden. Auch der zusätzliche Verlust der FcsA-Enzymaktivität verändert dieses Verhalten in Palmitinsäure inkubierten Zellen nicht. In fcsA-/fcsB- konnte zudem ein Defekt beim Abbau von Triacylglyceriden gefunden werden. Dieser Defekt liefert erste Hinweise für ein Modell, das den Abbau von LD gespeicherten Lipiden durch Autophagozytose in D. discoideum beschreibt. Peroxisomen sind wichtige Organellen für die Detoxifikation und die Oxidation von Fettsäuren. Durch das Ausschalten der Acaa1, der Thiolase, die den letzten Schritt der β-Oxidation in Peroxisomen katalysiert, zeigte sich ein verlangsamter Triacylglycerol-Abbau sowie eine verringerte Degradation des Etherlipids UKL und von Sterolestern, was auf eine Beteiligung der Peroxisomen beim Abbau von langkettigen Fettsäuren schließen lässt. Bei dem Versuch durch das Ausschalten des pex19-Gens eine Zelllinie zu generieren, die keine Peroxisomen besitzt, wurde die Organelle überraschender Weise, wenn auch mit einer vom Wildtyp abweichenden Morphologie, weiterhin vorgefunden. Dieser Befund korrelierte mit dem Resultat, dass trotzdem das pex19-Gen erfolgreich unterbrochen wurde, dennoch eine intakte Kopie des Gens nachgewiesen werden konnte. Dementsprechend sollte die erschaffene pex19- Zelllinie als knockdown und nicht als knockout gewertet werden. Der pex19 knockdown zeigte beim Abbau von Triacylglyceriden eine ähnliche Verlangsamung wie acaa1- Zellen. Zusätzlich wurde eine Verringerung der Synthese des Etherlipids UKL beobachtet, was darauf hindeutet, dass dieses Lipid im Peroxisom gebildet wird. Auch die Phagozytose und das Wachstum auf Bakterienrasen waren im pex19 knockdown dramatisch reduziert. Durch die Überexpression von Pex19-GFP im knockdown Hintergrund konnten die physiologischen Defekte in den meisten so generierten Zelllinien ausgeglichen werden. Lipid Droplets sind Organellen, die in Eukaryoten und Prokaryoten als Speicher für Neutralfette dienen und ebenfalls als Ort der Lipidsynthese fungieren. Um diese Aufgaben erfüllen zu können, besitzen sie auf ihrer Oberfläche Proteine, die für die Regulierung dieser Prozesse notwendig sind. Durch die weiterführende Analyse von Kandidatenproteinen, die durch eine proteomische Analyse von aufgereinigten LDs identifiziert wurden, konnte für vier weitere Proteine (Plsc1, Net4, Lip5 und Nsdhl) die LD-Assoziation durch GFP-Fusionsproteine bestätigt werden. Bei der Charakterisierung von plsc1 knockouts zeigte sich eine verminderte Fähigkeit beim Wachstum auf Bakterienrasen sowie eine erhöhte Phagozytoserate in Gegenwart einer exogenen Fettsäure, was auf eine Involvierung des Proteins in die Phospholipidsynthese hindeutet. Die bisher einzige identifizierte LD-assoziierte Lipase Lip5 nimmt nur eine untergeordnete Rolle bei der Hydrolyse von Triacylglycerolen und Sterolestern ein, da in KO-Mutanten nur ein milder Defekt beim Abbau beider Substanzen beobachtet werden konnte. Die LD-Lokalisation von Net4 ist evolutionär konserviert und kann nicht nur in D. discoideum beobachtet werden, sondern auch in humanen Zellen. Welche Funktion das Protein auf der LD-Oberfläche ausübt, konnte nicht geklärt werden. Allerdings kann ein direkter Einfluss auf den TAG- und Sterolaufbau ausgeschlossen werden. LDs stehen in engem Kontakt mit anderen Organellen, die in den Lipidmetabolismus involviert sind, wie mit den Mitochondrien oder dem ER. Durch Perilipin-Hybridproteine können künstliche, stabile Verbindungen zwischen LDs und diesen Organellen hergestellt werden. Dabei zeigte Perilipin ein sehr starkes Targeting-Potenzial, durch welches es notwendig war, als zweite Hybridhälfte ein Transmembranprotein zu wählen. Die Analyse eines Hybrids, das eine dauerhafte Verbindung von LDs und dem ER herstellt, wies dabeieine Reduktion der LD-Größe auf, wobei der Gesamt-TAG-Gehalt der Zellen unbeeinflusst blieb. Durch die starke Affinität von Perilipin für die Assoziation an LDs konnten durch die Generierung von Hybriden andere Proteine an die LD-Oberfläche dirigiert werden. Auf diese Weise konnte erfolgreich die LC-Acyl-CoA-Synthetase FcsA auf das LD transplantiert werden.
Resumo:
Die zunehmende Vernetzung der Informations- und Kommunikationssysteme führt zu einer weiteren Erhöhung der Komplexität und damit auch zu einer weiteren Zunahme von Sicherheitslücken. Klassische Schutzmechanismen wie Firewall-Systeme und Anti-Malware-Lösungen bieten schon lange keinen Schutz mehr vor Eindringversuchen in IT-Infrastrukturen. Als ein sehr wirkungsvolles Instrument zum Schutz gegenüber Cyber-Attacken haben sich hierbei die Intrusion Detection Systeme (IDS) etabliert. Solche Systeme sammeln und analysieren Informationen von Netzwerkkomponenten und Rechnern, um ungewöhnliches Verhalten und Sicherheitsverletzungen automatisiert festzustellen. Während signatur-basierte Ansätze nur bereits bekannte Angriffsmuster detektieren können, sind anomalie-basierte IDS auch in der Lage, neue bisher unbekannte Angriffe (Zero-Day-Attacks) frühzeitig zu erkennen. Das Kernproblem von Intrusion Detection Systeme besteht jedoch in der optimalen Verarbeitung der gewaltigen Netzdaten und der Entwicklung eines in Echtzeit arbeitenden adaptiven Erkennungsmodells. Um diese Herausforderungen lösen zu können, stellt diese Dissertation ein Framework bereit, das aus zwei Hauptteilen besteht. Der erste Teil, OptiFilter genannt, verwendet ein dynamisches "Queuing Concept", um die zahlreich anfallenden Netzdaten weiter zu verarbeiten, baut fortlaufend Netzverbindungen auf, und exportiert strukturierte Input-Daten für das IDS. Den zweiten Teil stellt ein adaptiver Klassifikator dar, der ein Klassifikator-Modell basierend auf "Enhanced Growing Hierarchical Self Organizing Map" (EGHSOM), ein Modell für Netzwerk Normalzustand (NNB) und ein "Update Model" umfasst. In dem OptiFilter werden Tcpdump und SNMP traps benutzt, um die Netzwerkpakete und Hostereignisse fortlaufend zu aggregieren. Diese aggregierten Netzwerkpackete und Hostereignisse werden weiter analysiert und in Verbindungsvektoren umgewandelt. Zur Verbesserung der Erkennungsrate des adaptiven Klassifikators wird das künstliche neuronale Netz GHSOM intensiv untersucht und wesentlich weiterentwickelt. In dieser Dissertation werden unterschiedliche Ansätze vorgeschlagen und diskutiert. So wird eine classification-confidence margin threshold definiert, um die unbekannten bösartigen Verbindungen aufzudecken, die Stabilität der Wachstumstopologie durch neuartige Ansätze für die Initialisierung der Gewichtvektoren und durch die Stärkung der Winner Neuronen erhöht, und ein selbst-adaptives Verfahren eingeführt, um das Modell ständig aktualisieren zu können. Darüber hinaus besteht die Hauptaufgabe des NNB-Modells in der weiteren Untersuchung der erkannten unbekannten Verbindungen von der EGHSOM und der Überprüfung, ob sie normal sind. Jedoch, ändern sich die Netzverkehrsdaten wegen des Concept drif Phänomens ständig, was in Echtzeit zur Erzeugung nicht stationärer Netzdaten führt. Dieses Phänomen wird von dem Update-Modell besser kontrolliert. Das EGHSOM-Modell kann die neuen Anomalien effektiv erkennen und das NNB-Model passt die Änderungen in Netzdaten optimal an. Bei den experimentellen Untersuchungen hat das Framework erfolgversprechende Ergebnisse gezeigt. Im ersten Experiment wurde das Framework in Offline-Betriebsmodus evaluiert. Der OptiFilter wurde mit offline-, synthetischen- und realistischen Daten ausgewertet. Der adaptive Klassifikator wurde mit dem 10-Fold Cross Validation Verfahren evaluiert, um dessen Genauigkeit abzuschätzen. Im zweiten Experiment wurde das Framework auf einer 1 bis 10 GB Netzwerkstrecke installiert und im Online-Betriebsmodus in Echtzeit ausgewertet. Der OptiFilter hat erfolgreich die gewaltige Menge von Netzdaten in die strukturierten Verbindungsvektoren umgewandelt und der adaptive Klassifikator hat sie präzise klassifiziert. Die Vergleichsstudie zwischen dem entwickelten Framework und anderen bekannten IDS-Ansätzen zeigt, dass der vorgeschlagene IDSFramework alle anderen Ansätze übertrifft. Dies lässt sich auf folgende Kernpunkte zurückführen: Bearbeitung der gesammelten Netzdaten, Erreichung der besten Performanz (wie die Gesamtgenauigkeit), Detektieren unbekannter Verbindungen und Entwicklung des in Echtzeit arbeitenden Erkennungsmodells von Eindringversuchen.
Resumo:
Das Ziel dieser Arbeit war, ein ökonomisch ausgerichtetes Zuchtprogramm für die bedrohte Schweinerasse „Bunte Bentheimer“ (BB) zu entwickeln. Ein wesentlicher Bestandteil von Zuchtprogrammen für bedrohte Rassen ist der Erhalt der genetischen Diversität durch Vermeidung von weiterer Inzucht und Reduzierung des Inzuchtzuwachses. In Kapitel 2 wurde die Population der BB unter Berücksichtigung der vorhandenen Abstammungsinformationen in Bezug auf genetische Diversität, Inzucht und Verwandtschaft analysiert. Durchschnittlicher Inzuchtkoeffizient und Inzuchtzunahme lagen mit 12% und 1,66% pro Generation auf einem relativ hohen Niveau. Effektive Maßnahmen zur Inzuchtkontrolle sollten daher im Zuchtprogramm integriert werden. Durch die Bestimmung optimaler Einsatzfrequenzen selektierter Tiere ist es möglich, Inzucht zu kontrollieren und gleichzeitig Zuchtfortschritt zu generieren. Das konnte am Beispiel von Zuchtwerten für Fruchtbarkeitsmerkmale gezeigt werden. Basierend auf den optimalen Einsatzfrequenzen der selektierten Elterntiere wurden zur weiteren Reduzierung der Inzucht in der Folgegeneration konkrete Anpaarungspläne erstellt. Die Anpaarungen wurden unter Berücksichtigung der Natursprungproblematik durch Festlegung von Zuchtgebieten konzipiert. Die Umsetzung dieser wurde allerdings erschwert durch die eingeschränkte Verfügbarkeit der Eber. Schließt man die künstliche Besamung als mögliche Alternative aus, müssten die Zuchtgebiete so optimiert werden, dass die vorgeschlagenen Anpaarungen auch in die Praxis umgesetzt werden können. Die Gestaltung eines Zuchtprogramms erfordert zudem die Verfügbarkeit populationsgenetischer Parameter. Für die Fruchtbarkeitsmerkmale „Anzahl lebend geborener Ferkel“ (NBA) und „abgesetzter Ferkel“ (NW) lagen die Heritabilitäten bei jeweils 12%. Auch die genetischen Varianzen lagen in einem guten Bereich, so dass für beide Merkmale Zuchtfortschritt durch Selektion möglich ist. In Kapitel 3 wurden genetische Parameter für Fleischleistungs- und Fleischqualitätsmerkmale geschätzt. Als Grundlage dafür dienten sowohl in vivo Ultraschallmessungen am lebenden Tier, als auch Messungen, die am Schlachtkörper bzw. an einer Fleischprobe erfolgten. Zucht-, Mast- und Schlachttiere wurden am RYR1 Genort typisiert, um Allel-Substitutionseffekte zu schätzen. Die quantitativen- und molekulargenetischen Ansätze wurden genutzt, um darauf aufbauend zur Verbesserung der Fleischqualität Zuchtstrategien zu entwickeln. Für das Fleischqualitätsmerkmal intramuskulärer Fettgehalt (IMF) wurde die höchste Heritabilität von 0,78 bei einer ebenfalls hohen additiv-genetischen Varianz geschätzt. Dennoch ist die Erfassung dieses Merkmals mit einem hohen Kostenaufwand verbunden. Ein mögliches Hilfsmerkmal ist die Rückenspeckdicke (BFiv), die direkt am Selektionskandidaten erfasst werden kann. Die genetische Korrelation zwischen beiden Merkmale lag bei rg = 0,39. Die Assoziationsstudie am RYR1 Genort zeigte, dass die Anwesenheit des ungewünschten Allels einen negativen Effekt auf IMF hatte, d.h. der IMF Gehalt wurde reduziert. Darauf aufbauend wurde eine Zuchtstrategie entwickelt, die Phänotyp (BFiv) und Marker-Informationen am RYR1 Genort des Selektionskandidaten kombiniert. Durch die zusätzliche Berücksichtigung der Marker-Informationen konnten eine höhere Genauigkeit und ein höherer Zuchtfortschritt erzielt werden im Vergleich zu einer Strategie, die nur auf den phänotypischen Leistungen basiert. In Kapitel 4 wurde basierend auf einer Konsumentenbefragung mit integrierter Verkostung von Fleischproben indirekt die Zahlungsbereitschaft für unterschiedliche Fleischqualitäten erfasst. Alle Fleischproben wurden zusätzlich hinsichtlich der instrumental erfassbaren Fleischqualität untersucht und durch ein geschultes Panel im Sensorik Labor in Bezug auf die sensorische Qualität beurteilt. Außerdem wurde die direkte Zahlungsbereitschaft für unterschiedliche Qualitätsausprägungen der optischen Merkmale „Fleischfarbe“, „Fleischmarmorierung“ und „Fleischsaftverlust“ anhand von Fotografien erfasst. Die Ergebnisse dieser Befragung wurden genutzt, um ökonomischen Gewichte abzuleiten. Für IMF ergab sich ein hohes ökonomisches Gewicht von 57,52 € pro Merkmalseinheit bei dem aktuellen Populationsdurchschnitt von 1,57%. Mit steigendem Populationsmittel sinkt das ökonomische Gewicht und nähert sich ab einem Mittelwert von 2% einem Wert von 0,00 €. Aus züchterischer Sicht wäre daher ein durchschnittlicher IMF Gehalt von mindestens 2% anzustreben. Für Fleischqualitätsmerkmale, die beim Verzehr nicht direkt erfassbar sind, wie die Farbhelligkeit oder der Tropfsaftverlust, ist die direkte Methode zur Erfassung der Zahlungsbereitschaft (basierend auf den Fotografien) der indirekten (basierend auf der Verkostung) vorzuziehen, um ökonomische Gewichte abzuleiten. Genetische Parameter ökonomischen Gewichte wurden anschließend für Zuchtplanungsrechnungen verwendet. Im Zuchtziel wurde in erster Linie die Fruchtbarkeit (NBA) und Fleischqualität (IMF) berücksichtigt. Zur Vermeidung hoher Kosten und der besseren Anpassung an kleine Betriebsstrukturen wurde u.a. ein Zuchtprogramm modelliert, das auf in vivo Ultraschallmessungen für BFiv basiert, direkt erfasst am Selektionskandidaten. Der Züchtungsgewinn für diese Zuchtstrategie lag bei 35,92 € pro Tier. Der Zuchtfortschritt für IMF war allerdings erwartungsgemäß geringer als bei direkter Selektion auf das Merkmal. Basierend auf den Ergebnissen wurde in Kapitel 5 ein Entwurf für ein Zuchtprogramm erstellt, das die notwendigen Maßnahmen zur Inzuchtkontrolle beinhaltet und Zuchtfortschritt für rassespezifische Merkmale zulässt. Zudem ist dieser Entwurf angepasst an die kleinen Betriebsstrukturen und die unterschiedlichen Vermarktungsstrategien, die sich bereits etabliert haben.
Resumo:
Gegenstand dieser Arbeit war die Untersuchung von metallischen gemischtvalenten Manganaten und magnetischen Doppelperowskiten. Aufgrund ihres großen negativen Magnetowiderstandes (MW) sind diese halbmetallischen Oxide interessant für mögliche technische Anwendungen, z.B. als Leseköpfe in Festplatten. Es wurden die kristallographischen, elektronischen und magnetischen Eigenschaften von epitaktischen Dünnschichten und polykristallinen Pulverproben bestimmt.Epitaktische Dünnschichten der Verbindungen La0.67Ca0.33MnO3 und La0.67Sr0.33MnO3 wurdenmit Kaltkathodenzerstäubung und Laserablation auf einkristallinen Substraten wie SrTiO3abgeschieden. Mit Hall-Effekt Messungen wurde ein Zusammenbruch der Ladungsträgerdichte bei der Curie-Temperatur TC beobachtet.Mit dem Wechsel des Dotierungsatoms A von Ca (TC=232 K) zu Sr (TC=345 K)in La0.67A0.33MnO3 konnte die Feldsensitivität des Widerstandes bei Raumtemperatur gesteigert werden. Um die Sensitivität weiter zu erhöhen wurde die hohe Spinpolarisation von nahezu 100% in Tunnelexperimenten ausgenutzt. Dazu wurden biepitaktische La0.67Ca0.33MnO3 Schichten auf SrTiO3 Bikristallsubstraten hergestellt. Die Abhängigkeit des Tunnelmagnetowiderstandes (TMW) vom magnetischen Feld, Temperatur und Strum war ein Schwerpunkt der Untersuchung. Mittels spinpolarisierten Tunnelns durch die künstliche Korngrenze konnte ein hysteretischer TMW von 70% bei 4 K in kleinen Magnetfeldern von 120 Oe gemessen werden. Eine weitere magnetische Oxidverbindung, der Doppelperowskit Sr2FeMoO6 miteine Curie-Temperatur oberhalb 400 K und einem großen MW wurde mittels Laserablation hergestellt. Die Proben zeigten erstmals das Sättigunsmoment, welches von einer idealen ferrimagnetischen Anordnung der Fe und Mo Ionen erwartet wird. Mit Hilfe von Magnetotransportmessungen und Röntgendiffraktometrie konnte eine Abhängigkeit zwischen Kristallstruktur (Ordnung oder Unordnung im Fe, Mo Untergitter) und elektronischem Transport (metallisch oder halbleitend) aufgedeckt werden.Eine zweiter Doppelperowskit Ca2FeReO6 wurde im Detail als Pulverprobe untersucht. Diese Verbindung besitzt die höchste Curie-Temperatur von 540 K, die bis jetzt in magnetischen Perowskiten gefunden wurde. Mit Neutronenstreuung wurde eine verzerrte monoklinische Struktur und eine Phasenseparation aufgedeckt.
Resumo:
Die vorliegende Arbeit untersucht, wie sich Greenaways Filme selbstreflexiv zur Problematik des filmischen Mediums stellen, d.h. wie der Illusions- und Artefaktcharakter des Films im Film selbst thematisiert wird. Die Untersuchung der Selbstreflexion wird konkret unter drei Untersuchungsaspekten erfolgt, nämlich die systematisch und künstlich organisierte formale Struktur, die Narrativität und die Wahrnehmungsweise des Zuschauers. Greenaways Filme veranschaulichen auf der formalen Ebene:· daß die Filmbilder diskontinuierlich und uneinheitlich sind, · wie einzelnen visuellen, akustischen und technischen Zeichen systematisch und künstlich organisiert sind und schließlich· wie die diskontinuierlichen und uneinheitlichen Filmbilder durch die systematische und künstliche Organisation der Zeichen kontinuierlich und einheitlich wirken. Seine Filme thematisieren auch auf der allegorischen, symbolischen und metaphorischen Ebene das Verhältnis zwischen der formalen Struktur, der Geschichte und der interaktiven Wahrnehmungsweise des Zuschauers, und die Beziehung zwischen dem Zuschauer, dem Film, dem Filmemacher. Die männliche Hauptfigur metaphorisiert den Zuschauer. Die Frauenfiguren allegorisieren die zwei Seiten des Films, die Form und den Inhalt des Films. Die sexuelle Beziehung zwischen der männlichen Hauptfigur und den Frauen umfaßt auf der metaphorischen Ebene die Interaktivität des Zuschauers mit dem Film.
Resumo:
Der isthmische Organisator liegt an der Grenze zwischen dem sich entwickelnden Mittel- und Hinterhirn und kontrolliert Wachstum und Musterbildung dieser beiden Hirnregionen. In der vorliegenden Arbeit wird die räumliche und zeitliche Expression der Rezeptor-ähnlichen Protein Tyrosin Phosphatase lambda aus dem Huhn (cRPTPλ, auch als cRPTPψ bekannt) während der Entwicklung dieser Struktur beschrieben. Nach einer anfänglich weitläufigen Expression im kaudalen Vorderhirn und in der Mittelhirnregion, beschränkt sich die Expression von cRPTPλ zwischen dem embryonalen Tag E2 und E3.5 auf die ventrale Mittellinie des Neuralrohrs, den Bereich der späteren neuralen Retina und Linse und auf einen schmalen Ring anterior der isthmischen Einschnürung, welcher der molekularen Mittel- / Hinterhirngrenze (MHO) entspricht. Ab dem embryonalen Tag E3.5 wird RPTPλ dann auch im gesamten Mittelhirn gebildet. Um Hinweise auf die Funktion von cRPTPλ zu bekommen, wurde die Regulation dieses Moleküls untersucht. Die Expression von cRPTPλ am MHO wird von dem Fibroblasten Wachstumsfaktor Fgf8 und dem Transkriptionsfaktor Lmx1b, nicht aber von dem sezernierten Glykoprotein Wnt1 induziert. Der Transkriptionsfaktor En-1 unterdrückt die Expression von cRPTPλ am MHO. cRPTPλ-Expression im Mittelhirn wird negativ durch das sezernierte Protein Sonic Hedgehog reguliert, während Lmx1b und En-1 dort keinen Einfluss auf das Expressionsmuster von cRPTPλ haben. Fgf8 und Wnt1 sind maßgeblich an der Regulation von Wachstum und Musterbildung des embryonalen Mittelhirns beteiligt. Funktionelle Studien zu RPTPλ deuten darauf hin, dass dieses Protein als negativer Rückkopplungsmechanismus beider Signalwege wirken kann. RNAi- und Überexpressionsstudien am MHO lieferten Hinweise darauf, dass RPTPλ der Induktion der Wnt1-Expression durch Fgf8 entgegenwirkt. Dies scheint durch Interaktion noch unbekannter Faktoren mit der Juxtamembrandomäne von RPTPλ vermittelt zu werden. Auf das Expressionsmuster von Fgf8 selbst, oder einer Reihe anderer Faktoren, die ebenfalls von Fgf8 reguliert werden, hat RPTPλ allerdings keinen Einfluss. Des Weiteren konnte in dieser Arbeit gezeigt werden, dass eine „künstliche“ Aufrechterhaltung der Expression von cRPTPλ im Mittelhirn zwischen dem embryonalen Tag E2 und E3.5 zu einem stark verkleinerten Mesenzephalon führt. RPTPλ bindet in vivo an β-Catenin, ein zentrales Protein des kanonischen Wnt-Signalweges, und moduliert dadurch vermutlich das Wnt-Signal, welches seinerseits Proliferation im Mesenzephalon fördert. Durch diesen Mechanismus könnte cRPTPλ als „Bremse“ des kanonischen Wnt-Signalweges im Mittelhirn wirken.
Resumo:
Quantitative branch determination in polyolefins by solid- and melt-state 13C NMR has been investigated. Both methods were optimised toward sensitivity per unit time. While solid-state NMR was shown to give quick albeit only qualitative results, melt-state NMR allowed highly time efficient accurate branch quantification. Comparison of spectra obtained using spectrometers operating at 300, 500 and 700 MHz 1H Larmor frequency, with 4 and 7~mm MAS probeheads, showed that the best sensitivity was achieved at 500 MHz using a 7 mm 13C-1H optimised high temperature probehead. For materials available in large quantities, static melt-state NMR, using large diameter detection coils and high coil filling at 300 MHz, was shown to produce comparable results to melt-state MAS measurements in less time. While the use of J-coupling mediated polarisation transfer techniques was shown to be possible, direct polarisation via single-pulse excitation proved to be more suitable for branch quantification in the melt-state. Artificial line broadening, introduced by FID truncation, was able to be reduced by the use of π pulse-train heteronuclear dipolar decoupling. This decoupling method, when combined with an extended duty-cycle, allowed for significant improvement in resolution. Standard setup, processing and analysis techniques were developed to minimise systematic errors contributing to the measured branch contents. The final optimised melt-state MAS NMR method was shown to allow time efficient quantification of comonomer content and distribution in both polyethylene- and polypropylene-co-α-olefins. The sensitivity of the technique was demonstrated by quantifying branch concentrations of 8 branches per 100,000 CH2 for an industrial ‘linear’ polyethylene in only 13 hours. Even lower degrees of 3–8 long-chain branches per 100,000 carbons were able to be estimated in just 24 hours for a series of γ-irradiated polypropylene homopolymers.
Resumo:
Drosophila melanogaster enthält eine geringe Menge an 5-methyl-Cytosin. Die von mir untersuchte männliche Keimbahn von Drosophila weist jedoch keine nachweisbaren Mengen an DNA-Methylierung auf. Eine künstliche Expression der murinen de novo Methyltransferasen, DNMT3A und DNMT3B1, in den Fliegenhoden, führte nicht zu der erwarteten Methylierungszunahme und hatte keinen Effekt auf die Fruchtbarkeit der Männchen. Auch die gewebespezifische Expression unter der Verwendung des UAS/GAL4-Systems zeigte keine phenotypischen Veränderungen. Hingegen fanden wir auf Protein-Ebene des Chromatins von D. melanogaster und D. hydei spezifische Modifikationsmuster der Histone H3 und H4 in der Keimbahn, wie auch in den somatischen Zellen des Hodenschlauches. Die Modifikationsmuster der beiden Zelltypen unterscheiden sich grundlegend und weichen zudem von dem für Eu- und Heterochromatin erwarteten ab, was auf eine größere Komplexität des „Histon-Codes“ als angenommen hindeutet. Folglich liegt die epigenetische Information in Drosophila wahrscheinlich anstatt auf DNA- auf Protein-Ebene, wodurch Genexpression über die Chromatinstruktur reguliert wird. Es wurde gezeigt, dass der Transkriptionsfaktor E2F, der eine Schlüsselfunktion im Zellzyklus hat, durch unterschiedliche Transkripte offenbar quantitativ reguliert wird. Unsere Nachforschungen ergaben, dass die drei E2F1 Genprodukte in Drosophila neben ihrer Zellspezifität auch in unterschiedlichen Expressionsniveaus auftreten, was die Annahme einer quantitativen Expression unterstützt. Die verschiedenen Funktionen der multiplen Gene in Säugern, könnten so funktionell kompensiert werden. Die durch die Expression dreier dE2F1-Transkripte vermutete Synthese verschiedener Proteine konnte nicht bewiesen werden.
Resumo:
Das Protein Cytochrom c Oxidase (CcO) ist ein Enzym der mitochondrialen Atmungskette. Als letzter Komplex (Komplex IV) einer Elektronentransportkette katalysiert sie die Reduktion von molekularem Sauerstoff zu Wasser. Hierbei werden Elektronen von Cytochrom c (Cc) in das Enzym geleitet. Die durch den Redoxprozess freiwerdende freie Enthalpie wird dazu genutzt, einen Protonengradienten über die innere Mitochondrien-Membran aufzubauen. Die zurückwandernden Protonen treiben in der ATP-Synthase die Produktion von Adenosintriphosphat (ATP) an, dem universellen Energieträger in lebenden Organismen. Gegenstand dieser Dissertation sind zeitaufgelöste ATR-FTIR-Messungen des direkten Elektronentransfers in die CcO. Das Protein wird hierzu orientiert auf einer Goldelektrode immobilisiert und in eine künstliche Membran rekonstituiert (Protein-tethered Bilayer Lipid Membrane, ptBLM). Das ptBLM-System wird hinsichtlich einer möglichst hohen Protein-Aktivität optimiert. Elektronen werden durch elektrochemische Anregung von der Elektrode in die CcO injiziert. Die Goldoberfläche wird auf die reflektierende Oberfläche eines Silizium-ATR-Kristalls aufgebracht. Durch die Präparation einer rauen Oberfläche (RMS-Rauigkeit ca. 5 nm) wird eine Verstärkung der IR-Absorption erreicht. Die mit den Ladungstransferprozessen einhergehenden Konformationsänderungen der die Redoxzentren umgebenden Gruppen (CONH-Gerüst und Aminosäure-Seitenketten) können durch Infrarot-Spektroskopie nachgewiesen werden. Phasensensitive Detektion (PSD) wird zur Rauschminderung eingesetzt, um Geschwindigkeitskonstanten für die Redox-Übergänge zu bestimmen. Im Bereich der Amid-I-Bande werden etliche Peaks identifiziert, die sich mit dem Redoxzustand des Proteins ändern. Für das CuA-Zentrum, welches als erstes der vier Redoxzentren der CcO reduziert wird, wird die schnellste Geschwindigkeitskonstante ks=4870/s ermittelt. Für das Häm a3-Zentrum wird eine Geschwindigkeitskonstante von ks=13,8/s ermittelt. Die Ergebnisse sind konsistent zu elektrochemischen und Raman-Spektroskopie-Experimenten, welche ebenfalls in unserer Gruppe durchgeführt wurden. Weitere Themen dieser Dissertation sind der Nachweis der Anwendbarkeit des ptBLM-Systems für andere Membranproteine (Beispiel: bakterielles photosynthetisches Reaktionszentrum) und der Einsatz des ATR-FTIR-Setups für verschiedene künstliche Membransysteme (Aktivitätsnachweis des OR5-Geruchsrezeptors in einer peptidgestützten Membran, Eigenschaften eines Oligoethylenglycol-Spacers).
Resumo:
In dieser Arbeit wird die Herstellung und Anwendung von funktionalen Polymer-Opalen beschrieben. Für die Synthese von funktionalen monodipsersen Kolloiden, den Bausteinen der Opale, wird die emulgatorfreie Emulsionspolymerisation (SFEP) verwendet. Je nach einzubauendem funktionalem Molekül werden verschiedene Varianten der SFEP verwendet, wie z. B. Homopolymerisation, Copolymerisation, Polymerisation mit Fremdstoffen und die Herstellung von Kern-Schale-Kolloiden. Die so hergestellten monodispersen Kolloide formen durch Selbstorganisation über horizontale (Aufpipettieren, Rakeln, Sprühen) oder vertikale Kristallisation (Ziehmaschine)hochqualitative künstliche Opale. Die eingebauten Funktionalitäten öffnen den Weg zu einer Vielzahl von Anwendungen. Über die Spaltung von funktionalen Estergruppen kann eine lichtinduzierte Strukturierung durchgeführt werden. Der Einbau von Epoxidgruppen ermöglicht eine makroskopische Vernetzung wodurch die mechanische Stabilität der Struktur erhöht wird. Der Einsatz von Reaktivestern kann zur Oberflächen- funktionalisierung verwendet werden. Durch Replizierung der Struktur zum inversen Opal können weitere funktionale Materialien eingeführt werden, was die Einsatzmöglichkeiten noch erweitert.
Resumo:
Forschung über Membranenproteine stellt strenge Hindernisse, seit ruhigem gerade wenige Beispiele der Membranenproteinsorten sind gekennzeichnet worden in den verwendbaren experimentellen Plattformen gegenüber. Die Hauptherausforderung ist, ihre ausgezeichnete entworfene strukturelle Vollständigkeit zu konservieren, während die Ausdruck-, Lokalisierungs- und Wiederherstellungprozesse auftreten. In-vitro übersetzungssysteme können Vorteile über auf Zellenbasisgenausdruck zum Beispiel haben, wenn das über-ausgedrückte Produkt zur Wirtszelle giftig ist oder wenn fehlende Pfosten-Übersetzungsänderung in den bakteriellen Ausdrucksystemen die Funktionalität der Säugetier- Proteine oder Mangel an vorhandenem Membranenraum verdirbt, Funktionsausdruck verbieten.rn Der Nachahmer von biologische Membranen wie feste gestützte Lipidmembranen sind als Plattform am meisten benutzt, Proteinmembraneninteraktionen nachzuforschen. Wir sind in der Lage, Membranenproteinsorte, da wir eine Plattform für Membranenproteinsynthese vorstellen, nämlich die in-vitrosynthese der Membranenproteine in ein Peptid gestütztes Membranensystem zu adressieren. Die Wiederherstellung der Membranenproteine in den Lipid bilayers resultiert im Allgemeinen mit verschiedenen Proteinanpassungen. Als Alternative erforschen wir dieses System zum ersten Mal, um genaueres Modell zu den zellularen Membranen zu verursachen und ihre Funktion, wie Proteineinfügung, Proteinfunktion und Ligandinteraktionen nachzuahmen.rn In dieser Arbeit ist unser Ziel, komplizierte Transmembraneproteine, wie des Cytochrome bo3-ubiquinol Oxydase (Cyt-bo3) direkt innerhalb der biomimetic vorbildlichen Membrane zu synthetisieren. In unserem System wird festes gestütztes tBLM wie, P19/DMPE/PC als Plattform benutzt. Dieses künstliche Membranensystem mimiks die amphiphile Architektur eines Zelle-abgeleiteten Membranensystems.rn
Resumo:
Amphiphile Blockcopolymere sind in der Lage in Wasser Morphologien auszubilden, die analog sind zur hydrophil-hydrophob-hydrophil-Struktur von natürlichen Lipiddoppelschichten. In dieser Arbeit wird zum ersten Mal die Präparation und Charakterisierung von oberflächengestützten Polymerdoppelschichten aus Polybutadien-b-Polyethylenoxid (PB-PEO) beschrieben. Für die Herstellung dieser Strukturen wurden zwei unterschiedliche Präparationsstrategien verfolgt. Der erste Weg besteht aus einer zweistufigen Methode, bei der im ersten Schritt organisierte Monoschichten mittels Langmuir-Blodgett-Transfer auf Gold übertragen und kovalent angebunden werden. Im zweiten Schritt werden hydrophobe Wechselwirkungen ausgenutzt, um über Langmuir-Schaefer-Transfer eine weitere Schicht aufzubringen. Somit wurden homogene Architekturen erzeugt, die oberflächengestützten Lipiddoppelschichten gleichen. Als alternativer, einstufiger Ansatz zur Herstellung von Polymerdoppelschichten wurde das Spreiten von Polymervesikeln auf Gold verfolgt. Auch hierdurch ließen sich Doppelschichtstrukturen mit einer vollständigen Oberflächenbedeckung erzeugen. Die hergestellten Polymerdoppelschichten besitzen eine Dicke von 11-14 nm, die von der Präparationsmethode abhängt. Die Polymerstrukturen weisen bei Trocknung für 1.5 h eine Stabilität gegenüber Luft auf. Bei längeren Trocknungszeiten von ca. 12 h kommt es zu einer Reorganisation der Oberfläche. Dies deutet darauf hin, dass Wasser dazu notwendig ist die Strukturen auf lange Sicht zu stabilisieren. Um die Biokompatibilität der Polymerschichten nachzuweisen, wurden die Wechselwirkungen mit dem membranaktiven Peptid Polymyxin B und dem Transmembranprotein α-Haemolysin gezeigt. Mobilität ist ein wichtiger Faktor für die korrekte Funktion vieler Transmembranproteine. Um die laterale Diffusionsdynamik innerhalb der künstlichen Strukturen zu untersuchen, wurde die Mobilität eines integralen Modellpeptids und von fluoreszierenden Membransonden gemessen. Es konnte mit einzelmolekülempfindlichen Techniken gezeigt werden, dass das α-helikale Peptid und die kleinen Fluoreszenzfarbstoffe frei im hydrophoben Kern der Polymerdoppelschicht diffundieren können. Die Diffusion von beiden Spezies scheint stark von der Fluidität der Polymermatrix beeinflusst zu sein. Ein weiterer Teil dieser Arbeit widmet sich der Entwicklung eines angemessenen, lipidbasierten Referenzsystems für zukünftige Proteinuntersuchungen. Hierzu wurde eine neue Methode zu Herstellung von peptidgestützten Lipiddoppelschichtmembranen entwickelt. Dies wurde durch kovalente Befestigung eines Thiopeptids an einen Goldfilm und darauffolgende Anbindung eines Lipids erreicht. Zur Ausbildung der Lipiddoppelschicht auf dem Lipopeptidunterbau wurder der Rapid Solvent Exchange verwendet. Die Ausbildung der Lipiddoppelschicht wurde sowohl auf microskopischer als auch auf makroskopischer Ebene nachgewiesen. Im letzten Schritt wurde die Anwendbarkeit des Modelsystems für elektrochemische Messungen durch den funktionalen Einbau des Ionentransporters Valinomycin unter Beweis gestellt.
Resumo:
Im Forschungsgebiet der Künstlichen Intelligenz, insbesondere im Bereich des maschinellen Lernens, hat sich eine ganze Reihe von Verfahren etabliert, die von biologischen Vorbildern inspiriert sind. Die prominentesten Vertreter derartiger Verfahren sind zum einen Evolutionäre Algorithmen, zum anderen Künstliche Neuronale Netze. Die vorliegende Arbeit befasst sich mit der Entwicklung eines Systems zum maschinellen Lernen, das Charakteristika beider Paradigmen in sich vereint: Das Hybride Lernende Klassifizierende System (HCS) wird basierend auf dem reellwertig kodierten eXtended Learning Classifier System (XCS), das als Lernmechanismus einen Genetischen Algorithmus enthält, und dem Wachsenden Neuralen Gas (GNG) entwickelt. Wie das XCS evolviert auch das HCS mit Hilfe eines Genetischen Algorithmus eine Population von Klassifizierern - das sind Regeln der Form [WENN Bedingung DANN Aktion], wobei die Bedingung angibt, in welchem Bereich des Zustandsraumes eines Lernproblems ein Klassifizierer anwendbar ist. Beim XCS spezifiziert die Bedingung in der Regel einen achsenparallelen Hyperquader, was oftmals keine angemessene Unterteilung des Zustandsraumes erlaubt. Beim HCS hingegen werden die Bedingungen der Klassifizierer durch Gewichtsvektoren beschrieben, wie die Neuronen des GNG sie besitzen. Jeder Klassifizierer ist anwendbar in seiner Zelle der durch die Population des HCS induzierten Voronoizerlegung des Zustandsraumes, dieser kann also flexibler unterteilt werden als beim XCS. Die Verwendung von Gewichtsvektoren ermöglicht ferner, einen vom Neuronenadaptationsverfahren des GNG abgeleiteten Mechanismus als zweites Lernverfahren neben dem Genetischen Algorithmus einzusetzen. Während das Lernen beim XCS rein evolutionär erfolgt, also nur durch Erzeugen neuer Klassifizierer, ermöglicht dies dem HCS, bereits vorhandene Klassifizierer anzupassen und zu verbessern. Zur Evaluation des HCS werden mit diesem verschiedene Lern-Experimente durchgeführt. Die Leistungsfähigkeit des Ansatzes wird in einer Reihe von Lernproblemen aus den Bereichen der Klassifikation, der Funktionsapproximation und des Lernens von Aktionen in einer interaktiven Lernumgebung unter Beweis gestellt.