574 resultados para Ehrenamtliche Arbeit
Resumo:
Ultrahochfester Beton besitzt aufgrund seiner Zusammensetzung eine sehr hohe Druckfestigkeit von 150 bis über 200 N/mm² und eine außergewöhnlich hohe Dichtigkeit. Damit werden Anwendungen in stark belasteten Bereichen und mit hohen Anforderungen an die Dauerhaftigkeit des Materials ermöglicht. Gleichzeitig zeigt ultrahochfester Beton bei Erreichen seiner Festigkeit ein sehr sprödes Verhalten. Zur Verhinderung eines explosionsartigen Versagens werden einer UHPC-Mischung Fasern zugegeben oder wird eine Umschnürung mit Stahlrohren ausgebildet. Die Zugabe von Fasern zur Betonmatrix beeinflusst neben der Verformungsfähigkeit auch die Tragfähigkeit des UHPC. Das Versagen der Fasern ist abhängig von Fasergeometrie, Fasergehalt, Verbundverhalten sowie Zugfestigkeit der Faser und gekennzeichnet durch Faserauszug oder Faserreißen. Zur Sicherstellung der Tragfähigkeit kann daher auf konventionelle Bewehrung außer bei sehr dünnen Bauteilen nicht verzichtet werden. Im Rahmen des Schwerpunktprogramms SPP 1182 der Deutschen Forschungsgemeinschaft (DFG) wurden in dem dieser Arbeit zugrunde liegenden Forschungsprojekt die Fragen nach der Beschreibung des Querkrafttragverhaltens von UHPC-Bauteilen mit kombinierter Querkraftbewehrung und der Übertragbarkeit bestehender Querkraftmodelle auf UHPC untersucht. Neben einer umfassenden Darstellung vorhandener Querkraftmodelle für Stahlbetonbauteile ohne Querkraftbewehrung und mit verschiedenen Querkraftbewehrungsarten bilden experimentelle Untersuchungen zum Querkrafttragverhalten an UHPC-Balken mit verschiedener Querkraftbewehrung den Ausgangspunkt der vorliegenden Arbeit. Die experimentellen Untersuchungen beinhalteten zehn Querkraftversuche an UHPC-Balken. Diese Balken waren in Abmessungen und Biegezugbewehrung identisch. Sie unterschieden sich nur in der Art der Querkraftbewehrung. Die Querkraftbewehrungsarten umfassten eine Querkraftbewehrung aus Stahlfasern oder Vertikalstäben, eine kombinierte Querkraftbewehrung aus Stahlfasern und Vertikalstäben und einen Balken ohne Querkraftbewehrung. Obwohl für die in diesem Projekt untersuchten Balken Fasergehalte gewählt wurden, die zu einem entfestigenden Nachrissverhalten des Faserbetons führten, zeigten die Balkenversuche, dass die Zugabe von Stahlfasern die Querkrafttragfähigkeit steigerte. Durch die gewählte Querkraftbewehrungskonfiguration bei ansonsten identischen Balken konnte außerdem eine quantitative Abschätzung der einzelnen Traganteile aus den Versuchen abgeleitet werden. Der profilierte Querschnitt ließ einen großen Einfluss auf das Querkrafttragverhalten im Nachbruchbereich erkennen. Ein relativ stabiles Lastniveau nach Erreichen der Höchstlast konnte einer Vierendeelwirkung zugeordnet werden. Auf Basis dieser Versuchsergebnisse und analytischer Überlegungen zu vorhandenen Querkraftmodellen wurde ein additiver Modellansatz zur Beschreibung des Querkrafttragverhaltens von UHPCBalken mit einer kombinierten Querkraftbewehrung aus Stahlfasern und Vertikalstäben formuliert. Für die Formulierung der Traganteile des Betonquerschnitts und der konventionellen Querkraftbewehrung wurden bekannte Ansätze verwendet. Für die Ermittlung des Fasertraganteils wurde die Faserwirksamkeit zugrunde gelegt. Das Lastniveau im Nachbruchbereich aus Viendeelwirkung ergibt sich aus geometrischen Überlegungen.
Resumo:
Im Rahmen dieser Arbeit wird eine gemeinsame Optimierung der Hybrid-Betriebsstrategie und des Verhaltens des Verbrennungsmotors vorgestellt. Die Übernahme von den im Steuergerät verwendeten Funktionsmodulen in die Simulationsumgebung für Fahrzeuglängsdynamik stellt eine effiziente Applikationsmöglichkeit der Originalparametrierung dar. Gleichzeitig ist es notwendig, das Verhalten des Verbrennungsmotors derart nachzubilden, dass das stationäre und das dynamische Verhalten, inklusive aller relevanten Einflussmöglichkeiten, wiedergegeben werden kann. Das entwickelte Werkzeug zur Übertragung der in Ascet definierten Steurgerätefunktionen in die Simulink-Simulationsumgebung ermöglicht nicht nur die Simulation der relevanten Funktionsmodule, sondern es erfüllt auch weitere wichtige Eigenschaften. Eine erhöhte Flexibilität bezüglich der Daten- und Funktionsstandänderungen, sowie die Parametrierbarkeit der Funktionsmodule sind Verbesserungen die an dieser Stelle zu nennen sind. Bei der Modellierung des stationären Systemverhaltens des Verbrennungsmotors erfolgt der Einsatz von künstlichen neuronalen Netzen. Die Auswahl der optimalen Neuronenanzahl erfolgt durch die Betrachtung des SSE für die Trainings- und die Verifikationsdaten. Falls notwendig, wird zur Sicherstellung der angestrebten Modellqualität, das Interpolationsverhalten durch Hinzunahme von Gauß-Prozess-Modellen verbessert. Mit den Gauß-Prozess-Modellen werden hierbei zusätzliche Stützpunkte erzeugt und mit einer verminderten Priorität in die Modellierung eingebunden. Für die Modellierung des dynamischen Systemverhaltens werden lineare Übertragungsfunktionen verwendet. Bei der Minimierung der Abweichung zwischen dem Modellausgang und den Messergebnissen wird zusätzlich zum SSE das 2σ-Intervall der relativen Fehlerverteilung betrachtet. Die Implementierung der Steuergerätefunktionsmodule und der erstellten Steller-Sensor-Streckenmodelle in der Simulationsumgebung für Fahrzeuglängsdynamik führt zum Anstieg der Simulationszeit und einer Vergrößerung des Parameterraums. Das aus Regelungstechnik bekannte Verfahren der Gütevektoroptimierung trägt entscheidend zu einer systematischen Betrachtung und Optimierung der Zielgrößen bei. Das Ergebnis des Verfahrens ist durch das Optimum der Paretofront der einzelnen Entwurfsspezifikationen gekennzeichnet. Die steigenden Simulationszeiten benachteiligen Minimumsuchverfahren, die eine Vielzahl an Iterationen benötigen. Um die Verwendung einer Zufallsvariablen, die maßgeblich zur Steigerung der Iterationanzahl beiträgt, zu vermeiden und gleichzeitig eine Globalisierung der Suche im Parameterraum zu ermöglichen wird die entwickelte Methode DelaunaySearch eingesetzt. Im Gegensatz zu den bekannten Algorithmen, wie die Partikelschwarmoptimierung oder die evolutionären Algorithmen, setzt die neu entwickelte Methode bei der Suche nach dem Minimum einer Kostenfunktion auf eine systematische Analyse der durchgeführten Simulationsergebnisse. Mit Hilfe der bei der Analyse gewonnenen Informationen werden Bereiche mit den bestmöglichen Voraussetzungen für ein Minimum identifiziert. Somit verzichtet das iterative Verfahren bei der Bestimmung des nächsten Iterationsschrittes auf die Verwendung einer Zufallsvariable. Als Ergebnis der Berechnungen steht ein gut gewählter Startwert für eine lokale Optimierung zur Verfügung. Aufbauend auf der Simulation der Fahrzeuglängsdynamik, der Steuergerätefunktionen und der Steller-Sensor-Streckenmodelle in einer Simulationsumgebung wird die Hybrid-Betriebsstrategie gemeinsam mit der Steuerung des Verbrennungsmotors optimiert. Mit der Entwicklung und Implementierung einer neuen Funktion wird weiterhin die Verbindung zwischen der Betriebsstrategie und der Motorsteuerung erweitert. Die vorgestellten Werkzeuge ermöglichten hierbei nicht nur einen Test der neuen Funktionalitäten, sondern auch eine Abschätzung der Verbesserungspotentiale beim Verbrauch und Abgasemissionen. Insgesamt konnte eine effiziente Testumgebung für eine gemeinsame Optimierung der Betriebsstrategie und des Verbrennungsmotorverhaltens eines Hybridfahrzeugs realisiert werden.
Resumo:
Zusammenfassung: Ziel der Arbeit ist den Sinn von Schauder philosophisch zu erhellen. An einem Einzelphänomen, wie es so bisher nicht behandelt wurde, wird zugleich das Geflecht von Affekt/Emotion/Gefühl, gestützt auf Hegel, Heidegger, Husserl, Freud und Lacan, in immer neuen Ansätzen kritisch reflektiert und Zug um Zug mit Derrida dekonstruiert. In einem Textverfahren, das sich auch grafisch durch gegenübergestellte Kolumnen auszeichnet, werden heterogene Ansätze zum Sinn von Schauder mit dekonstruktivistischen Einsichten konfrontiert. Die Ansätze, Schauder über Datum, Begriff, Phänomen oder Strukturelement bestimmen zu wollen, durchdringen sich dabei mit denjenigen, die sich einer solchen Bestimmung entziehen (Hegels Negativität, Heideggers Seinsentzug oder Lacans Signifikantenmangel). Am Fokus Schauder, an dem sich das Fiktive einer mit sich selbst identischen Präsenz besonders eindringlich darstellt, werden so spezifische Aporien der Metaphysik der Präsenz entfaltet und die Geschlossenheit logozentristischer Systeme in die Bewegung einer anderen Öffnung und Schließung im Sinn der Schrift bzw. des allgemeinen Textes transformiert. Neben der différance, dem Entzug der Metapher, dem Supplement und dem Gespenstischen stützt sich die Arbeit auf die Iterabilität, bei der im selben Zug die Identität des Sinns gestiftet und zerstreut wird (Dissemination). Im Kapitel Piloerection werden Ambivalenzen und Paradoxien des Schauders am Beispiel von computergestützten empirisch-psychologischen Studien aufgezeigt. Im Kapitel Atopologie des Schauders prädikative, propositionale und topologische Bedingungen zum Sinn von Schauder analysiert und dekonstruiert. Ebenso, im Folgekapitel Etymon, etymologische und technisch-mediale Bedingungen. Im Schlußkapitel Maß, Anmaß, Unmaß der Empfindung des Schauders wird am Beispiel der konkreten Beiträge zum Schauder von Aristoteles, Kant, Fechner, Otto, Klages, Lorenz und Adorno aufgezeigt, dass (1) ein Schauder nicht von einem Außen aus an-gemessen werden kann, (2) sich im Schauder die metaphysische Opposition von Fiktion und Realität in einer Unentscheidbarkeit zerstreut, (3) dass trotz der Heterogenität der Ansätze in diesen Beiträgen eine Komplizenschaft zum Ausdruck kommt: ein Begehren nach Präsenz, das durch den Ausschluß des Anderen zugleich die Gewalt des Einen produziert, (4) dass der Signifikant Schauder, der selbst in Abwesenheit eines Referenten, eines bestimmten Signifikats, einer aktuellen Bedeutungsintention, eines Senders oder Empfängers funktioniert, als verändertes Zurückbleiben eines differenzieller Zeichens betrachtet werden muss, als Effekt von Spuren, die sich nur in ihrem eigenen Auslöschen ereignen. Die Arbeit schließt mit dem Vorschlag, Spüren jenseits von Arché, Telos oder Eschaton, jenseits eines Phallogozentrismus in der derridaschen Spur zu denken. Nicht zuletzt über diese Pfropfung, wie sie im Französischen [trace] so nicht möglich ist, schließt sie als deutschsprachiger Beitrag an sein Werk an.
Resumo:
Diese Arbeit weist Momentum-Renditen für europäische Aktien im Zeitraum von 1991 bis 2010 nach, die – je nach Top/Flop-Prozentsatz – vor Kosten zwischen 6 und 19% p.a. liegen. Gleichzeitig liegen mit hohen Standardabweichungen, negativen Schiefe-Werten und hohen Drawdowns drei wesentliche Risikofaktoren vor. Für die Kernuntersuchungen des Top/Flop-Wertes von 5% treten die höchsten Momentum-Renditen von mehr als 10% p.a. für Ranking-Perioden von 80 bis 100 und Holding-Perioden von 60 bis 90 Handelstagen auf. Grundsätzlich sind die extremsten Aktien der Ranking-Periode entscheidend für die Ausprägung des Momentum-Effekts. Gleichzeitig steigen mit zunehmender Eingrenzung des Top/Flop-Wertes die Risiken, was eine Erklärung hoher Momentum-Renditen aus Sicht der Risikoaversions-Theorie nahelegt. Auch die Berücksichtigung zusätzlicher Filterbedingungen (Gleitende Durchschnitte, Handelsvolumen, Low Volatility) ermöglicht leicht höhere Momentum-Renditen bei entsprechend höheren Risiken. Zwischen dem Momentum-Effekt und dem Auftreten von Kurslücken besteht dagegen kein klarer Zusammenhang. Für die praktische Anwendung sind Momentum-Strategien mit dynamischer Positionsverwaltung während der Haltedauer interessant. Untersucht wurden Strategien anhand der eigens programmierten Simulationsverfahren Stopout und Castout sowie eines kombinierten Verfahrens. Im Ergebnis sind – je nach Präferenz des Investors – das Castout- und das kombinierte Verfahren optimal. Für das Rebalancing der Portfolios empfiehlt es sich, zu den entsprechenden Terminen jeweils nur die Short-Seite auf den Startwert zurückzusetzen. Weiterhin zeigen die Untersuchungen, dass deutliche Long-Übergewichtungen bei Momentum-Strategien grundsätzlich von Vorteil sind. Potenzielle Verbesserungen der Ergebnisse können durch weitere Stopp-Abstände, eine Verringerung des Top/Flop-Wertes oder eine längere Ranking-Periode erzielt werden. Weiterhin sind für die Praxis Long-only-Strategien auf Basis von Doppelranking-Verfahren attraktiv, bei denen das Zweitranking nach Standardabweichung oder Rendite/Standardabweichungs-Ratio erfolgt.
Resumo:
Die Epigenetik repräsentiert einen Teilbereich der Genetik, der sich mit Regulationsmechanismen befasst, welche Einfluss auf die Genexpression nehmen und dabei nicht auf Veränderungen in der DNA-Sequenz beruhen. Ein verbreiteter Mechanismus beruht auf der Kontrolle des Kondensationsgrades der DNA durch posttranslationale Modifizierung von Proteinen. Die Proteine können ein struktureller Bestandteil des Chromatins oder aber an dessen Etablierung und Aufrechterhaltung beteiligt sein. Heterochromatin Protein 1 (HP1) ist ein Schlüsselprotein bei der Bildung und Aufrechterhaltung heterochromatischer Strukturen. Zudem erfüllt es eine Reihe weiterer Funktionen und interagiert mit einer Vielzahl von Proteinen. In der vorliegenden Arbeit konnte gezeigt werden, dass die HP1-Homologe aus Dictyostelium discoideum umfangreich mit posttranslationalen Modifikationen versehen sind. Eine in der als Interaktionsdomäne bezeichneten Chromo-Shadow-Domäne gelegene Acetylierung steht zumindest in HcpB im Zusammenhang mit der Bildung von Heterochromatin. Darüber hinaus konnte gezeigt werden, dass HcpB physisch mit der Histonmethyltransferase SuvA interagiert. Der Einfluss der oben genannten Acetylierung auf die Bildung von Heterochromatin könnte dabei sowohl auf der Kontrolle der Homo- bzw. Heterodimerisierung als auch auf der Kontrolle der Interaktion mit SuvA beruhen. Die hohe Konservierung von HP1-Proteinen führt zu der Frage, ob das humane Homolog HP1α die endogenen HP1-Homologe in Dictyostelium discoideum kompensieren kann. Während humanes HP1α in der Lage ist im Einzel-Knockout mit heterochromatischen Strukturen zu assoziieren scheint der Knockout des zweiten Homologes letal zu sein. Dies legt nahe, dass HP1α nur einen Teil der Funktionen übernehmen kann. Um Interaktionspartner von HcpA und HcpB zu bestimmen wurden mit bioinformatischen Methoden drei Proteine aus Dictyostelium als potentielle Komponenten des Chromatin Assembly Factor 1 (CAF1) identifiziert und untersucht. Vorhergehende Experimente aus anderen Arbeiten stützen die Annahme, dass es sich hierbei um Komponenten des Chromatin Assembly Factor 1 handelt.
Resumo:
Das Ziel dieser Arbeit war, ein ökonomisch ausgerichtetes Zuchtprogramm für die bedrohte Schweinerasse „Bunte Bentheimer“ (BB) zu entwickeln. Ein wesentlicher Bestandteil von Zuchtprogrammen für bedrohte Rassen ist der Erhalt der genetischen Diversität durch Vermeidung von weiterer Inzucht und Reduzierung des Inzuchtzuwachses. In Kapitel 2 wurde die Population der BB unter Berücksichtigung der vorhandenen Abstammungsinformationen in Bezug auf genetische Diversität, Inzucht und Verwandtschaft analysiert. Durchschnittlicher Inzuchtkoeffizient und Inzuchtzunahme lagen mit 12% und 1,66% pro Generation auf einem relativ hohen Niveau. Effektive Maßnahmen zur Inzuchtkontrolle sollten daher im Zuchtprogramm integriert werden. Durch die Bestimmung optimaler Einsatzfrequenzen selektierter Tiere ist es möglich, Inzucht zu kontrollieren und gleichzeitig Zuchtfortschritt zu generieren. Das konnte am Beispiel von Zuchtwerten für Fruchtbarkeitsmerkmale gezeigt werden. Basierend auf den optimalen Einsatzfrequenzen der selektierten Elterntiere wurden zur weiteren Reduzierung der Inzucht in der Folgegeneration konkrete Anpaarungspläne erstellt. Die Anpaarungen wurden unter Berücksichtigung der Natursprungproblematik durch Festlegung von Zuchtgebieten konzipiert. Die Umsetzung dieser wurde allerdings erschwert durch die eingeschränkte Verfügbarkeit der Eber. Schließt man die künstliche Besamung als mögliche Alternative aus, müssten die Zuchtgebiete so optimiert werden, dass die vorgeschlagenen Anpaarungen auch in die Praxis umgesetzt werden können. Die Gestaltung eines Zuchtprogramms erfordert zudem die Verfügbarkeit populationsgenetischer Parameter. Für die Fruchtbarkeitsmerkmale „Anzahl lebend geborener Ferkel“ (NBA) und „abgesetzter Ferkel“ (NW) lagen die Heritabilitäten bei jeweils 12%. Auch die genetischen Varianzen lagen in einem guten Bereich, so dass für beide Merkmale Zuchtfortschritt durch Selektion möglich ist. In Kapitel 3 wurden genetische Parameter für Fleischleistungs- und Fleischqualitätsmerkmale geschätzt. Als Grundlage dafür dienten sowohl in vivo Ultraschallmessungen am lebenden Tier, als auch Messungen, die am Schlachtkörper bzw. an einer Fleischprobe erfolgten. Zucht-, Mast- und Schlachttiere wurden am RYR1 Genort typisiert, um Allel-Substitutionseffekte zu schätzen. Die quantitativen- und molekulargenetischen Ansätze wurden genutzt, um darauf aufbauend zur Verbesserung der Fleischqualität Zuchtstrategien zu entwickeln. Für das Fleischqualitätsmerkmal intramuskulärer Fettgehalt (IMF) wurde die höchste Heritabilität von 0,78 bei einer ebenfalls hohen additiv-genetischen Varianz geschätzt. Dennoch ist die Erfassung dieses Merkmals mit einem hohen Kostenaufwand verbunden. Ein mögliches Hilfsmerkmal ist die Rückenspeckdicke (BFiv), die direkt am Selektionskandidaten erfasst werden kann. Die genetische Korrelation zwischen beiden Merkmale lag bei rg = 0,39. Die Assoziationsstudie am RYR1 Genort zeigte, dass die Anwesenheit des ungewünschten Allels einen negativen Effekt auf IMF hatte, d.h. der IMF Gehalt wurde reduziert. Darauf aufbauend wurde eine Zuchtstrategie entwickelt, die Phänotyp (BFiv) und Marker-Informationen am RYR1 Genort des Selektionskandidaten kombiniert. Durch die zusätzliche Berücksichtigung der Marker-Informationen konnten eine höhere Genauigkeit und ein höherer Zuchtfortschritt erzielt werden im Vergleich zu einer Strategie, die nur auf den phänotypischen Leistungen basiert. In Kapitel 4 wurde basierend auf einer Konsumentenbefragung mit integrierter Verkostung von Fleischproben indirekt die Zahlungsbereitschaft für unterschiedliche Fleischqualitäten erfasst. Alle Fleischproben wurden zusätzlich hinsichtlich der instrumental erfassbaren Fleischqualität untersucht und durch ein geschultes Panel im Sensorik Labor in Bezug auf die sensorische Qualität beurteilt. Außerdem wurde die direkte Zahlungsbereitschaft für unterschiedliche Qualitätsausprägungen der optischen Merkmale „Fleischfarbe“, „Fleischmarmorierung“ und „Fleischsaftverlust“ anhand von Fotografien erfasst. Die Ergebnisse dieser Befragung wurden genutzt, um ökonomischen Gewichte abzuleiten. Für IMF ergab sich ein hohes ökonomisches Gewicht von 57,52 € pro Merkmalseinheit bei dem aktuellen Populationsdurchschnitt von 1,57%. Mit steigendem Populationsmittel sinkt das ökonomische Gewicht und nähert sich ab einem Mittelwert von 2% einem Wert von 0,00 €. Aus züchterischer Sicht wäre daher ein durchschnittlicher IMF Gehalt von mindestens 2% anzustreben. Für Fleischqualitätsmerkmale, die beim Verzehr nicht direkt erfassbar sind, wie die Farbhelligkeit oder der Tropfsaftverlust, ist die direkte Methode zur Erfassung der Zahlungsbereitschaft (basierend auf den Fotografien) der indirekten (basierend auf der Verkostung) vorzuziehen, um ökonomische Gewichte abzuleiten. Genetische Parameter ökonomischen Gewichte wurden anschließend für Zuchtplanungsrechnungen verwendet. Im Zuchtziel wurde in erster Linie die Fruchtbarkeit (NBA) und Fleischqualität (IMF) berücksichtigt. Zur Vermeidung hoher Kosten und der besseren Anpassung an kleine Betriebsstrukturen wurde u.a. ein Zuchtprogramm modelliert, das auf in vivo Ultraschallmessungen für BFiv basiert, direkt erfasst am Selektionskandidaten. Der Züchtungsgewinn für diese Zuchtstrategie lag bei 35,92 € pro Tier. Der Zuchtfortschritt für IMF war allerdings erwartungsgemäß geringer als bei direkter Selektion auf das Merkmal. Basierend auf den Ergebnissen wurde in Kapitel 5 ein Entwurf für ein Zuchtprogramm erstellt, das die notwendigen Maßnahmen zur Inzuchtkontrolle beinhaltet und Zuchtfortschritt für rassespezifische Merkmale zulässt. Zudem ist dieser Entwurf angepasst an die kleinen Betriebsstrukturen und die unterschiedlichen Vermarktungsstrategien, die sich bereits etabliert haben.
Resumo:
Es ist allgemein bekannt, dass sich zwei gegebene Systeme spezieller Funktionen durch Angabe einer Rekursionsgleichung und entsprechend vieler Anfangswerte identifizieren lassen, denn computeralgebraisch betrachtet hat man damit eine Normalform vorliegen. Daher hat sich die interessante Forschungsfrage ergeben, Funktionensysteme zu identifizieren, die über ihre Rodriguesformel gegeben sind. Zieht man den in den 1990er Jahren gefundenen Zeilberger-Algorithmus für holonome Funktionenfamilien hinzu, kann die Rodriguesformel algorithmisch in eine Rekursionsgleichung überführt werden. Falls die Funktionenfamilie überdies hypergeometrisch ist, sogar laufzeiteffizient. Um den Zeilberger-Algorithmus überhaupt anwenden zu können, muss es gelingen, die Rodriguesformel in eine Summe umzuwandeln. Die vorliegende Arbeit beschreibt die Umwandlung einer Rodriguesformel in die genannte Normalform für den kontinuierlichen, den diskreten sowie den q-diskreten Fall vollständig. Das in Almkvist und Zeilberger (1990) angegebene Vorgehen im kontinuierlichen Fall, wo die in der Rodriguesformel auftauchende n-te Ableitung über die Cauchysche Integralformel in ein komplexes Integral überführt wird, zeigt sich im diskreten Fall nun dergestalt, dass die n-te Potenz des Vorwärtsdifferenzenoperators in eine Summenschreibweise überführt wird. Die Rekursionsgleichung aus dieser Summe zu generieren, ist dann mit dem diskreten Zeilberger-Algorithmus einfach. Im q-Fall wird dargestellt, wie Rekursionsgleichungen aus vier verschiedenen q-Rodriguesformeln gewonnen werden können, wobei zunächst die n-te Potenz der jeweiligen q-Operatoren in eine Summe überführt wird. Drei der vier Summenformeln waren bislang unbekannt. Sie wurden experimentell gefunden und per vollständiger Induktion bewiesen. Der q-Zeilberger-Algorithmus erzeugt anschließend aus diesen Summen die gewünschte Rekursionsgleichung. In der Praxis ist es sinnvoll, den schnellen Zeilberger-Algorithmus anzuwenden, der Rekursionsgleichungen für bestimmte Summen über hypergeometrische Terme ausgibt. Auf dieser Fassung des Algorithmus basierend wurden die Überlegungen in Maple realisiert. Es ist daher sinnvoll, dass alle hier aufgeführten Prozeduren, die aus kontinuierlichen, diskreten sowie q-diskreten Rodriguesformeln jeweils Rekursionsgleichungen erzeugen, an den hypergeometrischen Funktionenfamilien der klassischen orthogonalen Polynome, der klassischen diskreten orthogonalen Polynome und an der q-Hahn-Klasse des Askey-Wilson-Schemas vollständig getestet werden. Die Testergebnisse liegen tabellarisch vor. Ein bedeutendes Forschungsergebnis ist, dass mit der im q-Fall implementierten Prozedur zur Erzeugung einer Rekursionsgleichung aus der Rodriguesformel bewiesen werden konnte, dass die im Standardwerk von Koekoek/Lesky/Swarttouw(2010) angegebene Rodriguesformel der Stieltjes-Wigert-Polynome nicht korrekt ist. Die richtige Rodriguesformel wurde experimentell gefunden und mit den bereitgestellten Methoden bewiesen. Hervorzuheben bleibt, dass an Stelle von Rekursionsgleichungen analog Differential- bzw. Differenzengleichungen für die Identifikation erzeugt wurden. Wie gesagt gehört zu einer Normalform für eine holonome Funktionenfamilie die Angabe der Anfangswerte. Für den kontinuierlichen Fall wurden umfangreiche, in dieser Gestalt in der Literatur noch nie aufgeführte Anfangswertberechnungen vorgenommen. Im diskreten Fall musste für die Anfangswertberechnung zur Differenzengleichung der Petkovsek-van-Hoeij-Algorithmus hinzugezogen werden, um die hypergeometrischen Lösungen der resultierenden Rekursionsgleichungen zu bestimmen. Die Arbeit stellt zu Beginn den schnellen Zeilberger-Algorithmus in seiner kontinuierlichen, diskreten und q-diskreten Variante vor, der das Fundament für die weiteren Betrachtungen bildet. Dabei wird gebührend auf die Unterschiede zwischen q-Zeilberger-Algorithmus und diskretem Zeilberger-Algorithmus eingegangen. Bei der praktischen Umsetzung wird Bezug auf die in Maple umgesetzten Zeilberger-Implementationen aus Koepf(1998/2014) genommen. Die meisten der umgesetzten Prozeduren werden im Text dokumentiert. Somit wird ein vollständiges Paket an Algorithmen bereitgestellt, mit denen beispielsweise Formelsammlungen für hypergeometrische Funktionenfamilien überprüft werden können, deren Rodriguesformeln bekannt sind. Gleichzeitig kann in Zukunft für noch nicht erforschte hypergeometrische Funktionenklassen die beschreibende Rekursionsgleichung erzeugt werden, wenn die Rodriguesformel bekannt ist.
Resumo:
Das Erkenntnisinteresse der vorliegenden Arbeit besteht darin, im Rahmen einer explorativ-interpretativen Querschnittstudie vertiefte Einblicke in den Sprachgebrauch von mehrsprachigen Deutschlernenden am Beispiel von Verb-Nomen Kollokationen zu gewinnen. Unter Berücksichtigung der in diesem Zusammenhang bisher nicht untersuchten Sprachenkonstellation L1 Persisch, L2 Englisch, L3 Arabisch und L4 Deutsch sollen die von den Lernenden angewendeten lexikalischen Transferstrategien erforscht werden. Der Untersuchungsgegenstand sind die soziokognitiven Löseprozesse der ProbandInnen bei der dyadischen Bearbeitung von Kollokationsaufgaben. Zur Identifizierung der Transferphänomene und der TL-Strategien (Target Language-Strategien) werden Gesprächs-protokolle ausgewählter Dyaden analysiert. Überdies werden zwecks Rekonstruktion und Interpretation der Löseprozesse stimulated recall-Interviews mit den ProbandInnen herangezogen, wodurch die Datensets miteinander trianguliert werden. Zudem wird ermittelt, inwieweit ausgewählte Faktoren (Psychotypologie, Kompetenz in der Zielsprache und Kompetenz in den zuvor gelernten Sprachen) den Transferprozess beeinflussen. Hierzu dienen die Erkenntnisse aus begleitend durchgeführten Leitfadeninterviews und Sprachstandstests (TOEFL- und Arabischtest). Ferner wird der Arbeitsstil der ProbandInnen bei der dyadischen Aufgabenbearbeitung anhand des Fragebogens Style Analysis Survey von Oxford (1995) bestimmt. An der Studie, die im Deutschen Sprachinstitut Teheran durchgeführt wurde, nahmen 14 iranische Deutschlernende auf dem Niveau B2.1 und C2.2 teil. Sie wurden aufgrund ihrer mittels eines Fragebogens erhobenen Sprachlernbiografien ausgewählt. Die Gesprächsprotokolle der Dyadenarbeit und die Interviews wurden vollständig transkribiert bzw. transliteriert und anschließend qualitativ-interpretativ ausgewertet. Um ihre Wissenslücken bei der Bearbeitung der Kollokationsaufgaben zu kompensieren, setzten die ProbandInnen verschiedene inter- und intralinguale Strategien ein. Dabei ist der L1 Persisch und der L4 Deutsch insgesamt der größte Einfluss beizumessen. Diesbezüglich wird deutlich, dass zwischen Sprachniveau und Transferverhalten der Lernenden ein Zusammenhang besteht, insofern als fortgeschrittene Lernende stärker zu intralingualem Transfer neigen. Zudem lässt sich festhalten, dass ein Zusammenhang zwischen der empfundenen psychotypologischen Distanz und der Rolle der Muttersprache besteht, d.h. bei als größer empfundener psychotypologischer Distanz zwischen Persisch und Deutsch wird seltener aus dem Persischen transferiert. Überdies ist festzustellen, dass die L2 Englisch zwar gelegentlich mitaktiviert wird, jedoch nur eine untergeordnete Rolle spielt. Ein Einfluss der L3 Arabisch kann aus verschiedenen Gründen (u.a. geringes Niveau und mangelnder Gebrauch dieser Sprache) nicht festgestellt werden. Die vorliegende Arbeit versteht sich als ein Plädoyer für die Relevanz der Schulung von Kollokationen im Fremdsprachenunterricht, da die produktive Kollokationskompetenz der ProbandInnen auch auf einem hohen Niveau gravierende Defizite aufweist.
Resumo:
In this work, we present an atomistic-continuum model for simulations of ultrafast laser-induced melting processes in semiconductors on the example of silicon. The kinetics of transient non-equilibrium phase transition mechanisms is addressed with MD method on the atomic level, whereas the laser light absorption, strong generated electron-phonon nonequilibrium, fast heat conduction, and photo-excited free carrier diffusion are accounted for with a continuum TTM-like model (called nTTM). First, we independently consider the applications of nTTM and MD for the description of silicon, and then construct the combined MD-nTTM model. Its development and thorough testing is followed by a comprehensive computational study of fast nonequilibrium processes induced in silicon by an ultrashort laser irradiation. The new model allowed to investigate the effect of laser-induced pressure and temperature of the lattice on the melting kinetics. Two competing melting mechanisms, heterogeneous and homogeneous, were identified in our big-scale simulations. Apart from the classical heterogeneous melting mechanism, the nucleation of the liquid phase homogeneously inside the material significantly contributes to the melting process. The simulations showed, that due to the open diamond structure of the crystal, the laser-generated internal compressive stresses reduce the crystal stability against the homogeneous melting. Consequently, the latter can take a massive character within several picoseconds upon the laser heating. Due to the large negative volume of melting of silicon, the material contracts upon the phase transition, relaxes the compressive stresses, and the subsequent melting proceeds heterogeneously until the excess of thermal energy is consumed. A series of simulations for a range of absorbed fluences allowed us to find the threshold fluence value at which homogeneous liquid nucleation starts contributing to the classical heterogeneous propagation of the solid-liquid interface. A series of simulations for a range of the material thicknesses showed that the sample width we chosen in our simulations (800 nm) corresponds to a thick sample. Additionally, in order to support the main conclusions, the results were verified for a different interatomic potential. Possible improvements of the model to account for nonthermal effects are discussed and certain restrictions on the suitable interatomic potentials are found. As a first step towards the inclusion of these effects into MD-nTTM, we performed nanometer-scale MD simulations with a new interatomic potential, designed to reproduce ab initio calculations at the laser-induced electronic temperature of 18946 K. The simulations demonstrated that, similarly to thermal melting, nonthermal phase transition occurs through nucleation. A series of simulations showed that higher (lower) initial pressure reinforces (hinders) the creation and the growth of nonthermal liquid nuclei. For the example of Si, the laser melting kinetics of semiconductors was found to be noticeably different from that of metals with a face-centered cubic crystal structure. The results of this study, therefore, have important implications for interpretation of experimental data on the kinetics of melting process of semiconductors.
Resumo:
Ziel dieser Dissertation ist es, eine Klasse interferometrischer Messgeräte zu charakterisieren und weiter zu entwickeln. Die Modulation der optischen Weglänge (OPLM) im Referenzarm eines interferometrischen Messsystems ist ein anpassungsfähiger Ansatz. Sie ist zur Messung von Oberflächenprofilen mit einer Auflösung bis in den sub-nm-Bereich bei einem Messbereich von bis zu 100 Mikrometer geeignet. Wird ein statisches Messobjekt gemessen, tritt durch die Modulation im Referenzarm am Detektor ein periodisches Interferenzmuster auf. Dies ist in der unten stehenden Abbildung schematisch dargestellt. Bei einer Veränderung des Abstandes zwischen Objekt und Messgerät kann aus der Phasen- und/oder Hüllkurvenverschiebung im Interferenzmuster die Abstandsänderung abgeleitet werden.Im Rahmen der Arbeit sind zwei funktionsfähige OPLM-Messsysteme entwickelt, aufgebaut und getestet worden. Diese demonstrieren, dass der OPLM-Ansatz ein breites Spektrum an Anwendungen durch eine optische Messung abdecken kann. Allerdings zeigen sich an den Messsystemen auch die Limitierungen des OPLM-Ansatzes. Die Systeme basieren auf einer Punktmessung mittels einer fasergekoppelten Sonde sowie auf einer linienförmigen Messung durch eine Zeilenkamera. Um eine hohe laterale Auflösung zu erzielen, wird die Zeilenkamera mit einem Mikroskop kombiniert. Damit flächenhaft gemessen werden kann, ist es notwendig, Messobjekt und Sensor zueinander zu verschieben. Daher wird eine Theorie entwickelt, unter welchen Randbedingungen bewegte Objekte von einem OPLM-Messsystem aufgelöst werden können. Die Theorie wird anschließend experimentell überprüft und bestätigt. Für die Auswertung der bei der Modulation der optischen Weglänge entstehenden Interferenzen existieren bereits einige erprobte Algorithmen, welche auf ihre Eignung hin untersucht und mit selbst entwickelten Algorithmen verglichen werden. Auch wird darauf eingegangen, welches die zentralen Herausforderungen bei der Planung von OPLM-Interferometern sind und wie sich insbesondere die Wahl des Aktors für die OPLM auf das gesamte Messsystem auswirkt. Bei den beiden Messsystemen werden jeweils wichtige Komponenten wie analoge Elektronik und Aktorik sowie ihre Funktionsweise erläutert. Es wird detailliert beschrieben, wie ein OPLM-Messsystem charakterisiert und kalibriert werden muss, um möglichst zuverlässige Messwerte zu liefern. Abschließend werden die Möglichkeiten der beiden entwickelten Systeme durch Beispielmessungen demonstriert, sowie ihre Messgenauigkeit charakterisiert.
Resumo:
Die vorliegende Arbeit befasst sich mit dem lateralen Auflösungsvermögen in der kurzkohärenten Interferenzmikroskopie. Das 3D-Auflösungsvermögen von Phasenobjekten ist im Gegensatz zu dem von Intensitätsobjekten stark nichtlinear und vom spezifischen Messverfahren abhängig. In diesem Zusammenhang sind systematische Messfehler von entscheidender Bedeutung. Für die kurzkohärente Interferenzmikroskopie ist das Überschwingen an Kanten von besonderem Belang, da sich der Effekt bei der Messung vieler technischer Oberflächen negativ auswirkt. Er entsteht durch die Überlagerung von Interferenzsignalen lateral benachbarter Objektpunkte von unterschiedlichen Höhenniveaus. Es wird an speziell für diesen Zweck entwickelten Messsystemen untersucht in wie weit dieser Effekt physikalisch reduziert werden kann und wie sich dies auf die laterale Auflösung auswirkt. An einem für den Einsatz in einer Nanomessmaschine optimierten Linnik-Interferometer wird die Justage eines solchen Systems erläutert. Der Sensor verfügt über die Option mit NUV-Licht betrieben zu werden, um die laterale Auflösung zu verbessern. Aufgrund des Einsatzzweckes ist der Arbeitsabstand relativ groß, was die laterale Auflösung einschränkt. Mit einem zweiten auf die Untersuchungen in dieser Arbeit optimierten Versuchsaufbau können die physikalischen Grenzen der kurzkohärenten Interferenzmikroskopie praktisch untersucht werden. Zu diesem Zweck ist der Aufbau mit einem Mikrospiegelarray ausgestattet, um hierüber variable konfokale Blenden zu schaffen. Mit diesem System wird erstmalig konfokale Mikroskopie mit Weißlichtinterferometrie kombiniert. Durch die optische Selektion der konfokalen Mikroskopie soll die Ursache für die Überschwinger an Kanten reduziert werden. Eine weitere Möglichkeit der Einflussnahme stellt die optionale Beleuchtung mit polarisiertem Licht dar, wodurch die laterale Auflösung weiter gesteigert werden kann. Zusätzlich kann auch dieser Aufbau mit kurzwelligem blauem Licht betrieben werden, um die laterale Auflösung zu optimieren. Die Messergebnisse, die mit diesen Versuchsaufbauten gemacht wurden, zeigen, dass im Gegensatz zu den in der derzeitigen Normung genutzten Modellen das Übertragungsverhalten in der Weißlichtinterferometrie bei der Messung von Phasenobjekten stark nichtlinear ist. Das laterale Auflösungsvermögen deckt sich je nach Auswerteverfahren recht gut mit dem von klassischen Mikroskopen bei der Wiedergabe von Intensitätsobjekten. Für die Untersuchungen wurde überwiegend ein Auflösungsnormal mit neun unterschiedlichen eindimensionalen Rechteckstrukturen verwendet, die eine Nominalhöhe im kritischen Bereich kleiner der Kohärenzlänge der verwendeten Lichtquelle aufweisen. Die Ergebnisse bestätigen sich aber auch an technischen Messobjekten aus der Praxis wie beispielsweise einer „digital video disc“.
Resumo:
Die vorgelegte Arbeit beschäftigt sich mit der Synthese alkinsubstituierter Silane. Die dafür erforderliche Gratwanderung zwischen organischer und anorganischer Chemie bringt Herausforderungen in der gezielten Synthese mehrfachalkinierter Silane mit sich. Hauptgebiet der vorgestellten neuen Synthesewege stellt die Darstellung relativ kleiner Polyethinylsilane dar. Angefangen bei der Etablierung allgemein gültiger Synthesevorschriften für die bisher noch sehr gering erforschten Oligochlorethinylsilane wird in weiterer Folge Wert darauf gelegt, aus diesen neuen Verbindungen über Derivatisierung weitere wertvolle Synthone der Synthesechemie zu gewinnen. Über die vorgestellten Verfahren wird so der Zugang zu Polyethinylsilanen auf neuem Wege mit deutlich verbesserter Anwendbarkeit und Ausbeute ebenso etabliert, wie die ersten Vertreter der Oligobromethinylsilane und Polyphosphanoethinylsilane. Diese Verbindungen wurden sowohl bezüglich ihrer NMR-spektroskopischen, vibronischen und strukturellen Eigenschaften charakterisiert und der weiteren Verwendung zugänglich gemacht. Ein direkter Vergleich der neu dargestellten Verbindungen untereinander als auch mit anderen Alkinylsilanen wird ebenfalls beschrieben. Neben der Synthese von Polyalkinylsilanen wurden zusätzlich anderweitige Alkinylsilane vorgestellt. So wurde eine Methode zur zielgerichteten Kupplung sterisch gehinderter Chlorsilane etabliert, aber auch ein möglicher Zugang zu verschiedenen, alkinverbrückten Chlorsilanen unter gezielter Phenolatsubstitution dargelegt.
Resumo:
Die fünf Arten des Heterobasidion annosum s. l.-Komplexes sind in Nordamerika und Eurasien dafür bekannt große Schäden in Nadelforsten zu verursachen. In Deutschland sind mit H. annsosum s. s., H. parviporum und H. abietinum alle drei eurasischen Weißfäuleerreger sympatrisch vertreten. Besonders in der Norddeutschen Tiefebene fallen H. annsoums s. s.-Stämme durch ansteigende Befallsherde und hohe Pathogenität auf. Seit Jahren untersucht die Nordwestdeutsche forstliche Versuchsanstalt (NW-FVA) Göttingen die Zusammenhänge der sogenannte „Ackersterbe“ in einzelnen Regionen. In diesem Zusammenhang sollte die vorliegende Arbeit den molekular-genetischen Aspekt behandeln und die inner- und zwischenartlichen Strukturen sowie das Beziehungsgefüge von H. annosum s. s. und H. parviporum-Individuen aus 18 europäischen Ländern darstellen. Für die molekularen Untersuchungen wurde die AFLP-Analyse (amplified fragment length polymorphism) ausgewählt. Die Vorteile der AFLP liegen in der großen Anzahl polymorpher und selektionsneutraler Marker, der guten Reproduzierbarkeit und der damit verbundenen Robustheit dieser Methode. Basierend auf acht AFLP-Primerpaarkombinationen mit 209 Individuen wurde eine binäre Matrix erstellt. Diese bildete die Grundlage für die molekulargenetischen Analysen und folgende Fragestellungen: Können die Heterobasidion-Individuen in Netzwerk- und Dendrogramm-Analysen den herkunftsspezifischen Populationen zugeordnet werden und lässt sich ein geografisches Muster erkennen? Wie groß ist das Ausmaß der genetischen Diversität innerhalb und zwischen den untersuchten europäischen Heterobasidion annosum s. l.-Populationen? Ist das gesteigerte Schadbild in der norddeutschen Tiefebene auf eine mögliche invasive Heterobasidion-Art zurückzuführen? Wie sieht die Populationsstruktur von Heterobasidion annosum s. l. in Europa bzw. Deutschland aus und gibt es Hinweise auf Subpopulationen oder Hybridisierungsereignisse? Die von der AFLP-Analyse erzeugten 888 informativen Marker wurden in Neighbor-Joining- und UPGMA-Phänogrammen, Median-joining Netzwerk und einem Principal coordinates analysis (PCoA)-Koordinatensystem dargestellt. Übereinstimmend zeigten sich die Arten H. annosum und H. parviporum eindeutig distinkt. Die Boostrapunterstützung der meisten H. annosum s. s.-Individuen erwies sich jedoch innerartlich als überwiegend schwach. Häufig kam es zu Gruppierungen der Individuen gemäß ihrer regionalen Herkunft. Seltener bildeten die Populationen gemeinsame Cluster entsprechend ihrer Länderzugehörigkeit. Eine zonale Gruppierungsstruktur der Individuen nach Süd-, Mittel-, und Nordeuropa konnte in keiner Analyse beobachtet werden. Mit der Analysis of Molecular Variance (AMOVA) wurde mit der AFLP-Methode eine genetische Varianz zwischen den beiden untersuchten Arten von 72 % nachgewiesen. Intraspezifisch ließ H. annosum s. s eine sehr hohe genetische Varianz innerhalb der Populationen (73%) und eine geringe Differenzierung zwischen diesen erkennen. Lediglich die deutschen Populationen zeigten eine gewisse Abgrenzung zueinander (33%). Als Ursache für die hohe individuelle genetische Vielfalt wird zum Einen das dichte Vorkommen der H. annosum s. s.- Wirte in Europa angesehen. Darüber hinaus sind gebietsfremde Sporeneinträge durch überregionale Forstarbeiten, globale Holzimporte und die für H. annosum s. s. nachgewiesenen weiten Sporenflüge zu erklären. Das Populationsannahmemodell von STRUCTURE generierte für den Datensatz beider Arten eine optimale Populationsanzahl von ΔK=4. Drei der Subpopulationen wurden H. annosum s. s. zugeordnet. Eine Korrelation dieser genetischen Cluster mit ihrem geografischen Ursprung oder der Wirtsbaumart war nicht feststellbar. Ein möglicher Zusammenhang der Subpopulationen mit weiteren ökologischen Parametern wie z. B. Substratgrundlage, Pathogenität, Sporulationsverhalten und sich änderte klimatische Umweltbedingungen konnten in dieser Studie nicht untersucht werden. Des Weiteren zeigte die STRUCTURE-Analyse, dass einige H. parviorum-Individuen Anteile eines H. annosum s. s.-Clusters führten. Um zu klären, ob es sich hierbei um einen erebten und konservierten Polymorphisums, oder um Introgression handelt, wären weiterführende Analysen notwendig.
Strukturelle und funktionelle Charakterisierung des Dnmt2-Homologs DnmA von Dictyostelium discoideum
Resumo:
In dieser Arbeit wurde die DNA Methyltransferase 2 aus Dictyostelium discoideum strukturell und funktionell untersucht. Sie vermittelt die Methylierung des Cytosin an Position 38 nahe des Anticodons der tRNAAsp (Goll et al., 2006; Müller et al., 2013). Jedoch ist die biologische Funktion dieser Methylierung bis heute nicht hinreichend geklärt. In der Vergangenheit konnten erhebliche Unterschiede in der in vivo- und in vitro-Methylierungsaktivität von DnmA, dem Dnmt2-Homolog aus D. discoideum, beobachtet werden. So wurde bis jetzt ausschließlich tRNAAsp als in vivo-Substrat des Proteins identifiziert. In vitro methyliert rekombinant gewonnenes DnmA aus E. coli allerdings auch Transkripte der tRNAGlu und tRNAGly (Müller et al., 2013). Aus diesem Grund sollten in dieser Arbeit posttranslationaler Proteinmodifikationen von DnmA identifiziert werden. Diese können an dem Protein aus D. discoideum, jedoch nicht oder verändert an dem Protein aus E. coli auftreten und deshalb zu einer abweichenden Methylierungsaktivität von DnmA führen. Es konnte gezeigt werden, dass DnmA aus D. discoideum isoliert, zahlreiche Proteinmodifikationen aufweist, wobei elf Methylierungen, drei Phosphorylierungen und drei Acetylierungen identifiziert werden konnten. Die als methyliert identifizierten Aminosäuren K205, K236, K276 und R341 und die phosphorylierte Aminosäure T239 wurden detaillierter untersucht. Dazu wurden sie jeweils zu Alanin mutiert. Keine der Aminosäureaustausch-mutationen führte zu einem erheblichen Strukturverlust des Proteins und alle Proteine zeigten in vitro-Methylierungsaktivität mit tRNAAsp, tRNAGlu und tRNAGly. Die Mutations-proteine DnmAK276A und R341A wurden überdies in vivo untersucht und zeigten eine verringerte Methylierungsaktivität. Diese Ergebnisse liefern erste Hinweise darauf, dass posttranslationale Proteinmodifikationen die Aktivität von DnmA in vivo beeinflussen könnten. Außerdem konnte gezeigt werden, dass auch DnmA, welches in D. discoideum überexprimiert und daraus gereinigt wurde, in vitro-Methylierungsaktivität mit tRNAGly besitzt. Da tRNAGly kein Substrat für DnmA in vivo darstellt (Müller et al., 2013), konnte dadurch nachgewiesen werden, dass das Protein, auch wenn es in D. discoideum exprimiert wird, in vivo und in vitro abweichende Substratspezifität aufweist. Weiterhin wurde versucht, Protein-Interaktionspartner von DnmA zu identifizieren. Mittels Immunpräzipitation und anschließender massenspektrometrischer Analyse konnten eine Vielzahl von Kandidaten identifiziert werden. Erste Versuche, die Ergebnisse zu verifizieren, zeigten allerdings keine Bestätigung der direkten Interaktion der Proteine CulB, CulE und Nola1 mit DnmA. Wie in vorherigen Untersuchungen (Dissertation Vladimir Maksimov, 2010; Dissertation Sara Müller, 2011), konnten auch im Rahmen dieser Arbeit keine direkt mit DnmA assoziierten Proteine in D. discoideum identifiziert werden. Im dritten Projekt der vorliegenden Arbeit wurde ein Zusammenhang zwischen der DnmA-vermittelten tRNA-Methylierung am C38 und einer weiteren tRNA-Modifikation, Queuosin an Position 34, gezeigt. Die Methylierung der tRNAAsp durch DnmA war signifikant erhöht, wenn das Nährmedium von D. discoideum mit Queuin supplementiert wurde. Allerdings ist Queuosin für die DnmA-vermittelte tRNA-Methylierung nicht unabdingbar. In vivo konnte nach Überexpression von DnmA ebenfalls eine Queuosin-unabhängige tRNAAsp-Methylierung detektiert werden. Weiterhin wurde gezeigt, dass Queuosin-enthaltende tRNAs kein generelles Substrat für DnmA darstellen. Nach Gabe von Queuin wiesen die anderen Queuosin-enthaltenden tRNAs tRNAAsn, tRNAHis und tRNATyr keine Methylierung putativer DnmA-targets auf. Auch an tRNAGlu und tRNAGly konnte unter diesen Bedingungen keine in vivo-Methylierung des C38 bzw. C37 gezeigt werden. Weiterhin wurden erste Untersuchungen zur Bestimmung der Funktion der DnmA-vermittelten Methylierung in Zusammenhang mit der Queuosin-Modifikation durchgeführt. Bereits 1985 wurde beschrieben, dass Queuin im Nährmedium die tRNA-Menge von tRNAAsp und tRNATyr in Wildtyp Dictyostelium-Zellen um das Zweifache erhöht (Ott and Kersten, 1985). Hier konnten diese Ergebnisse bestätigt und außerdem gezeigt werden, dass dieser Effekt in einem dnmA- -Stamm nicht auftritt. Interessanterweise stellte tRNATyr jedoch kein Methylierungssubstrat für DnmA dar. Dennoch konnte in einem dnmA- -Stamm ebenfalls keine erhöhte Menge dieser tRNA beobachtet werden, obwohl die Zellen mit Queuin kultiviert wurden. In wieweit ein indirekter Effekt, welcher nicht die DnmA-vermittelte Methylierung darstellt, weitere tRNA-Modifikationen oder andere Proteine an diesem Regulationsmechanismus beteiligt sind, muss in zukünftigen Analysen geklärt werden.
Resumo:
Die Miniaturisierung von konventioneller Labor- und Analysetechnik nimmt eine zentrale Rolle im Bereich der allgemeinen Lebenswissenschaften und medizinischen Diagnostik ein. Neuartige und preiswerte Technologieplattformen wie Lab-on-a-Chip (LOC) oder Mikrototalanalysesysteme (µTAS) versprechen insbesondere im Bereich der Individualmedizin einen hohen gesellschaftlichen Nutzen zur frühzeitigen und nichtinvasiven Diagnose krankheitsspezifischer Indikatoren. Durch den patientennahen Einsatz preiswerter und verlässlicher Mikrochips auf Basis hoher Qualitätsstandards entfallen kostspielige und zeitintensive Zentrallaboranalysen, was gleichzeitig Chancen für den globalen Einsatz - speziell in Schwellen- und Entwicklungsländern - bietet. Die technischen Herausforderungen bei der Realisierung moderner LOC-Systeme sind in der kontrollierten und verlässlichen Handhabung kleinster Flüssigkeitsmengen sowie deren diagnostischem Nachweis begründet. In diesem Kontext wird der erfolgreichen Integration eines fernsteuerbaren Transports von biokompatiblen, magnetischen Mikro- und Nanopartikeln eine Schlüsselrolle zugesprochen. Die Ursache hierfür liegt in der vielfältigen Einsetzbarkeit, die durch die einzigartigen Materialeigenschaften begründet sind. Diese reichen von der beschleunigten, aktiven Durchmischung mikrofluidischer Substanzvolumina über die Steigerung der molekularen Interaktionsrate in Biosensoren bis hin zur Isolation und Aufreinigung von krankheitsspezifischen Indikatoren. In der Literatur beschriebene Ansätze basieren auf der dynamischen Transformation eines makroskopischen, zeitabhängigen externen Magnetfelds in eine mikroskopisch veränderliche potentielle Energielandschaft oberhalb magnetisch strukturierter Substrate, woraus eine gerichtete und fernsteuerbare Partikelbewegung resultiert. Zentrale Kriterien, wie die theoretische Modellierung und experimentelle Charakterisierung der magnetischen Feldlandschaft in räumlicher Nähe zur Oberfläche der strukturierten Substrate sowie die theoretische Beschreibung der Durchmischungseffekte, wurden jedoch bislang nicht näher beleuchtet, obwohl diese essentiell für ein detailliertes Verständnis der zu Grunde liegenden Mechanismen und folglich für einen Markteintritt zukünftiger Geräte sind. Im Rahmen der vorgestellten Arbeit wurde daher ein neuartiger Ansatz zur erfolgreichen Integration eines Konzepts zum fernsteuerbaren Transport magnetischer Partikel zur Anwendung in modernen LOC-Systemen unter Verwendung von magnetisch strukturierten Exchange-Bias (EB) Dünnschichtsystemen verfolgt. Die Ergebnisse zeigen, dass sich das Verfahren der ionenbe-schussinduzierten magnetischen Strukturierung (IBMP) von EB-Systemen zur Herstellung von maßgeschneiderten magnetischen Feldlandschaften (MFL) oberhalb der Substratoberfläche, deren Stärke und räumlicher Verlauf auf Nano- und Mikrometerlängenskalen gezielt über die Veränderung der Materialparameter des EB-Systems via IBMP eingestellt werden kann, eignet. Im Zuge dessen wurden erstmals moderne, experimentelle Verfahrenstechniken (Raster-Hall-Sonden-Mikroskopie und rastermagnetoresistive Mikroskopie) in Kombination mit einem eigens entwickelten theoretischen Modell eingesetzt, um eine Abbildung der MFL in unterschiedlichen Abstandsbereichen zur Substratoberfläche zu realisieren. Basierend auf der quantitativen Kenntnis der MFL wurde ein neuartiges Konzept zum fernsteuerbaren Transport magnetischer Partikel entwickelt, bei dem Partikelgeschwindigkeiten im Bereich von 100 µm/s unter Verwendung von externen Magnetfeldstärken im Bereich weniger Millitesla erzielt werden können, ohne den magnetischen Zustand des Substrats zu modifizieren. Wie aus den Untersuchungen hervorgeht, können zudem die Stärke des externen Magnetfelds, die Stärke und der Gradient der MFL, das magnetfeldinduzierte magnetische Moment der Partikel sowie die Größe und der künstlich veränderliche Abstand der Partikel zur Substratoberfläche als zentrale Einflussgrößen zur quantitativen Modifikation der Partikelgeschwindigkeit genutzt werden. Abschließend wurde erfolgreich ein numerisches Simulationsmodell entwickelt, das die quantitative Studie der aktiven Durchmischung auf Basis des vorgestellten Partikeltransportkonzepts von theoretischer Seite ermöglicht, um so gezielt die geometrischen Gegebenheiten der mikrofluidischen Kanalstrukturen auf einem LOC-System für spezifische Anwendungen anzupassen.