52 resultados para Werkzeuge
Resumo:
Die Wissenschaft weist im Zuge der Entwicklung von der Industrie- zu einer Wissensgesellschaft einschneidende Veränderungen in der Wissensordnung auf, welche sich bis hin zu einem zunehmenden Verlust der wissenschaftlichen Selbststeuerungsmechanismen bemerkbar machen und einen veränderten Umgang mit dem generierten Wissensschatz erfordern. Nicht nur Änderungen in der Wissensordnung und -produktion stellen die Psychoanalyse vor neue Herausforderungen: In den letzten Jahrzehnten geriet sie als Wissenschaft und Behandlungsverfahren zunehmend in die Kritik und reagierte mit einer konstruktiven Diskussion um ein dem Forschungsgegenstand – die Untersuchung unbewusster Prozesse und Fantasien – adäquates psychoanalytisches Forschungsverständnis. Die Auseinandersetzung mit Forderungen gesellschaftlicher Geldgeber, politischer Vertreter und Interessensgruppen wie auch der wissenschaftlichen Community stellt die Psychoanalyse vor besondere Herausforderungen. Um wissenschaftsexternen wie -internen Gütekriterien zu genügen, ist häufig ein hoher personeller, materieller, finanzieller, methodischer wie organisatorischer Aufwand unabdingbar, wie das Beispiel des psychoanalytischen Forschungsinstitutes Sigmund-Freud-Institut zeigt. Der steigende Aufwand schlägt sich in einer zunehmenden Komplexität des Forschungsprozesses nieder, die unter anderem in den vielschichtigen Fragestellungen und Zielsetzungen, dem vermehrt interdisziplinären, vernetzten Charakter, dem Umgang mit dem umfangreichen, hochspezialisierten Wissen, der Methodenvielfalt, etc. begründet liegt. Um jener Komplexität des Forschungsprozesses gerecht zu werden, ist es zunehmend erforderlich, Wege des Wissensmanagement zu beschreiten. Tools wie z. B. Mapping-Verfahren stellen unterstützende Werkzeuge des Wissensmanagements dar, um den Herausforderungen des Forschungsprozesses zu begegnen. In der vorliegenden Arbeit werden zunächst die veränderten Forschungsbedingungen und ihre Auswirkungen auf die Komplexität des Forschungsprozesses - insbesondere auch des psychoanalytischen Forschungsprozesses - reflektiert. Die mit der wachsenden Komplexität einhergehenden Schwierigkeiten und Herausforderungen werden am Beispiel eines interdisziplinär ausgerichteten EU-Forschungsprojektes näher illustriert. Um dieser wachsenden Komplexität psychoanalytischer Forschung erfolgreich zu begegnen, wurden in verschiedenen Forschungsprojekten am Sigmund-Freud-Institut Wissensmanagement-Maßnahmen ergriffen. In der vorliegenden Arbeit wird daher in einem zweiten Teil zunächst auf theoretische Aspekte des Wissensmanagements eingegangen, die die Grundlage der eingesetzten Wissensmanagement-Instrumente bildeten. Dabei spielen insbesondere psychologische Aspekte des Wissensmanagements eine zentrale Rolle. Zudem werden die konkreten Wissensmanagement-Tools vorgestellt, die in den verschiedenen Forschungsprojekten zum Einsatz kamen, um der wachsenden Komplexität psychoanalytischer Forschung zu begegnen. Abschließend werden die Hauptthesen der vorliegenden Arbeit noch einmal reflektiert und die geschilderten Techniken des Wissensmanagements im Hinblick auf ihre Vor- und Nachteile kritisch diskutiert.
Resumo:
Im Rahmen dieser Arbeit wird eine gemeinsame Optimierung der Hybrid-Betriebsstrategie und des Verhaltens des Verbrennungsmotors vorgestellt. Die Übernahme von den im Steuergerät verwendeten Funktionsmodulen in die Simulationsumgebung für Fahrzeuglängsdynamik stellt eine effiziente Applikationsmöglichkeit der Originalparametrierung dar. Gleichzeitig ist es notwendig, das Verhalten des Verbrennungsmotors derart nachzubilden, dass das stationäre und das dynamische Verhalten, inklusive aller relevanten Einflussmöglichkeiten, wiedergegeben werden kann. Das entwickelte Werkzeug zur Übertragung der in Ascet definierten Steurgerätefunktionen in die Simulink-Simulationsumgebung ermöglicht nicht nur die Simulation der relevanten Funktionsmodule, sondern es erfüllt auch weitere wichtige Eigenschaften. Eine erhöhte Flexibilität bezüglich der Daten- und Funktionsstandänderungen, sowie die Parametrierbarkeit der Funktionsmodule sind Verbesserungen die an dieser Stelle zu nennen sind. Bei der Modellierung des stationären Systemverhaltens des Verbrennungsmotors erfolgt der Einsatz von künstlichen neuronalen Netzen. Die Auswahl der optimalen Neuronenanzahl erfolgt durch die Betrachtung des SSE für die Trainings- und die Verifikationsdaten. Falls notwendig, wird zur Sicherstellung der angestrebten Modellqualität, das Interpolationsverhalten durch Hinzunahme von Gauß-Prozess-Modellen verbessert. Mit den Gauß-Prozess-Modellen werden hierbei zusätzliche Stützpunkte erzeugt und mit einer verminderten Priorität in die Modellierung eingebunden. Für die Modellierung des dynamischen Systemverhaltens werden lineare Übertragungsfunktionen verwendet. Bei der Minimierung der Abweichung zwischen dem Modellausgang und den Messergebnissen wird zusätzlich zum SSE das 2σ-Intervall der relativen Fehlerverteilung betrachtet. Die Implementierung der Steuergerätefunktionsmodule und der erstellten Steller-Sensor-Streckenmodelle in der Simulationsumgebung für Fahrzeuglängsdynamik führt zum Anstieg der Simulationszeit und einer Vergrößerung des Parameterraums. Das aus Regelungstechnik bekannte Verfahren der Gütevektoroptimierung trägt entscheidend zu einer systematischen Betrachtung und Optimierung der Zielgrößen bei. Das Ergebnis des Verfahrens ist durch das Optimum der Paretofront der einzelnen Entwurfsspezifikationen gekennzeichnet. Die steigenden Simulationszeiten benachteiligen Minimumsuchverfahren, die eine Vielzahl an Iterationen benötigen. Um die Verwendung einer Zufallsvariablen, die maßgeblich zur Steigerung der Iterationanzahl beiträgt, zu vermeiden und gleichzeitig eine Globalisierung der Suche im Parameterraum zu ermöglichen wird die entwickelte Methode DelaunaySearch eingesetzt. Im Gegensatz zu den bekannten Algorithmen, wie die Partikelschwarmoptimierung oder die evolutionären Algorithmen, setzt die neu entwickelte Methode bei der Suche nach dem Minimum einer Kostenfunktion auf eine systematische Analyse der durchgeführten Simulationsergebnisse. Mit Hilfe der bei der Analyse gewonnenen Informationen werden Bereiche mit den bestmöglichen Voraussetzungen für ein Minimum identifiziert. Somit verzichtet das iterative Verfahren bei der Bestimmung des nächsten Iterationsschrittes auf die Verwendung einer Zufallsvariable. Als Ergebnis der Berechnungen steht ein gut gewählter Startwert für eine lokale Optimierung zur Verfügung. Aufbauend auf der Simulation der Fahrzeuglängsdynamik, der Steuergerätefunktionen und der Steller-Sensor-Streckenmodelle in einer Simulationsumgebung wird die Hybrid-Betriebsstrategie gemeinsam mit der Steuerung des Verbrennungsmotors optimiert. Mit der Entwicklung und Implementierung einer neuen Funktion wird weiterhin die Verbindung zwischen der Betriebsstrategie und der Motorsteuerung erweitert. Die vorgestellten Werkzeuge ermöglichten hierbei nicht nur einen Test der neuen Funktionalitäten, sondern auch eine Abschätzung der Verbesserungspotentiale beim Verbrauch und Abgasemissionen. Insgesamt konnte eine effiziente Testumgebung für eine gemeinsame Optimierung der Betriebsstrategie und des Verbrennungsmotorverhaltens eines Hybridfahrzeugs realisiert werden.
Resumo:
In den letzten Jahrzehnten haben sich makroskalige hydrologische Modelle als wichtige Werkzeuge etabliert um den Zustand der globalen erneuerbaren Süßwasserressourcen flächendeckend bewerten können. Sie werden heutzutage eingesetzt um eine große Bandbreite wissenschaftlicher Fragestellungen zu beantworten, insbesondere hinsichtlich der Auswirkungen anthropogener Einflüsse auf das natürliche Abflussregime oder der Auswirkungen des globalen Wandels und Klimawandels auf die Ressource Wasser. Diese Auswirkungen lassen sich durch verschiedenste wasserbezogene Kenngrößen abschätzen, wie z.B. erneuerbare (Grund-)Wasserressourcen, Hochwasserrisiko, Dürren, Wasserstress und Wasserknappheit. Die Weiterentwicklung makroskaliger hydrologischer Modelle wurde insbesondere durch stetig steigende Rechenkapazitäten begünstigt, aber auch durch die zunehmende Verfügbarkeit von Fernerkundungsdaten und abgeleiteten Datenprodukten, die genutzt werden können, um die Modelle anzutreiben und zu verbessern. Wie alle makro- bis globalskaligen Modellierungsansätze unterliegen makroskalige hydrologische Simulationen erheblichen Unsicherheiten, die (i) auf räumliche Eingabedatensätze, wie z.B. meteorologische Größen oder Landoberflächenparameter, und (ii) im Besonderen auf die (oftmals) vereinfachte Abbildung physikalischer Prozesse im Modell zurückzuführen sind. Angesichts dieser Unsicherheiten ist es unabdingbar, die tatsächliche Anwendbarkeit und Prognosefähigkeit der Modelle unter diversen klimatischen und physiographischen Bedingungen zu überprüfen. Bisher wurden die meisten Evaluierungsstudien jedoch lediglich in wenigen, großen Flusseinzugsgebieten durchgeführt oder fokussierten auf kontinentalen Wasserflüssen. Dies steht im Kontrast zu vielen Anwendungsstudien, deren Analysen und Aussagen auf simulierten Zustandsgrößen und Flüssen in deutlich feinerer räumlicher Auflösung (Gridzelle) basieren. Den Kern der Dissertation bildet eine umfangreiche Evaluierung der generellen Anwendbarkeit des globalen hydrologischen Modells WaterGAP3 für die Simulation von monatlichen Abflussregimen und Niedrig- und Hochwasserabflüssen auf Basis von mehr als 2400 Durchflussmessreihen für den Zeitraum 1958-2010. Die betrachteten Flusseinzugsgebiete repräsentieren ein breites Spektrum klimatischer und physiographischer Bedingungen, die Einzugsgebietsgröße reicht von 3000 bis zu mehreren Millionen Quadratkilometern. Die Modellevaluierung hat dabei zwei Zielsetzungen: Erstens soll die erzielte Modellgüte als Bezugswert dienen gegen den jegliche weiteren Modellverbesserungen verglichen werden können. Zweitens soll eine Methode zur diagnostischen Modellevaluierung entwickelt und getestet werden, die eindeutige Ansatzpunkte zur Modellverbesserung aufzeigen soll, falls die Modellgüte unzureichend ist. Hierzu werden komplementäre Modellgütemaße mit neun Gebietsparametern verknüpft, welche die klimatischen und physiographischen Bedingungen sowie den Grad anthropogener Beeinflussung in den einzelnen Einzugsgebieten quantifizieren. WaterGAP3 erzielt eine mittlere bis hohe Modellgüte für die Simulation von sowohl monatlichen Abflussregimen als auch Niedrig- und Hochwasserabflüssen, jedoch sind für alle betrachteten Modellgütemaße deutliche räumliche Muster erkennbar. Von den neun betrachteten Gebietseigenschaften weisen insbesondere der Ariditätsgrad und die mittlere Gebietsneigung einen starken Einfluss auf die Modellgüte auf. Das Modell tendiert zur Überschätzung des jährlichen Abflussvolumens mit steigender Aridität. Dieses Verhalten ist charakteristisch für makroskalige hydrologische Modelle und ist auf die unzureichende Abbildung von Prozessen der Abflussbildung und –konzentration in wasserlimitierten Gebieten zurückzuführen. In steilen Einzugsgebieten wird eine geringe Modellgüte hinsichtlich der Abbildung von monatlicher Abflussvariabilität und zeitlicher Dynamik festgestellt, die sich auch in der Güte der Niedrig- und Hochwassersimulation widerspiegelt. Diese Beobachtung weist auf notwendige Modellverbesserungen in Bezug auf (i) die Aufteilung des Gesamtabflusses in schnelle und verzögerte Abflusskomponente und (ii) die Berechnung der Fließgeschwindigkeit im Gerinne hin. Die im Rahmen der Dissertation entwickelte Methode zur diagnostischen Modellevaluierung durch Verknüpfung von komplementären Modellgütemaßen und Einzugsgebietseigenschaften wurde exemplarisch am Beispiel des WaterGAP3 Modells erprobt. Die Methode hat sich als effizientes Werkzeug erwiesen, um räumliche Muster in der Modellgüte zu erklären und Defizite in der Modellstruktur zu identifizieren. Die entwickelte Methode ist generell für jedes hydrologische Modell anwendbar. Sie ist jedoch insbesondere für makroskalige Modelle und multi-basin Studien relevant, da sie das Fehlen von feldspezifischen Kenntnissen und gezielten Messkampagnen, auf die üblicherweise in der Einzugsgebietsmodellierung zurückgegriffen wird, teilweise ausgleichen kann.
Resumo:
Estudiosos dos campos da Educação, da Linguística Aplicada e da Formação de Professores de Línguas insistem hoje na grande importância da inclusão de Tecnologias de Informação e Comunicação (TICs) na formação inicial, bem como na necessidade de promover o desenvolvimento do pensamento crítico-reflexivo dos futuros professores. Tomando como pressupostos teóricos estudos acerca das características da sociedade de informação, dos ambientes virtuais e da formação de professores, este trabalho tem como objetivo discutir possibilidades oferecidas pela plataforma Moodle de aprendizagem na formação inicial de professores de alemão. Para tanto, apresentaremos diferentes formas de uso de ambientes virtuais e de ferramentas neles disponíveis, que demonstraram ser de grande valor no processo de formação de licenciandos, tanto em língua alemã, quanto durante suas práticas iniciais. As experiências apontam para um valor inestimável de ambientes virtuais no acompanhamento de licenciandos no processo de aprendizagem da língua e nas primeiras experiências com a docência.
Resumo:
Ionenkäfige und speziell Penningfallen stellen sich in der Atomphysik als außergewöhnliche Werkzeuge heraus. Zum einen bieten diese 'Teilchencontainer' die Möglichkeit atomphysikalische Präzisionsmessungen durchzuführen und zum anderen stellen Penningfallen schwingungsfähige Systeme dar, in welchen nichtlineare dynamische Prozesse an gespeicherten Teilchen untersucht werden können. In einem ersten Teil der Arbeit wurde mit der in der Atomphysik bekannten Methode der optischen Mikrowellen-Doppelresonanz Spektroskopie der elektronische g-Faktor von Ca+ mit einer Genauigkeit von 4*10^{-8} zu gJ=2,00225664(9) bestimmt. g-Faktoren von Elektronen in gebundenen ionischen Systemen sind fundamentale Größen der Atomphysik, die Informationen über die atomare Wellenfunktion des zu untersuchenden Zustandes liefern. In einem zweiten Teil der Arbeit wurde hinsichtlich der Untersuchungen zur nichtlinearen Dynamik von parametrisch angeregten gespeicherten Elektronen beobachtet, dass ab bestimmten kritischen Teilchendichten in der Penningfalle die gespeicherten Elektronen kollektive Eigenschaften manifestieren. Weiterhin wurde bei der Anregung der axialen Eigenbewegung ein Schwellenverhalten der gemessenen Subharmonischen zur 2*omega_z-Resonanz beobachtet. Dieser Schwelleneffekt lässt sich mit der Existenz eines Dämpfungsmechanismus erklären, der auf die Elektronenwolke einwirkt, so dass eine Mindestamplitude der Anregung erforderlich ist, um diese Dämpfung zu überwinden. Durch Bestimmung der charakteristischen Kurven der gedämpften Mathieuschen Differentialgleichung konnte das beobachtete Phänomen theoretisch verstanden werden.
Resumo:
„Extraterrestrische und terrestrische Anwendungen eines miniaturisierten Mössbauer-Spektrometers“ Die vorliegende Arbeit befasst sich mit Anwendungen eines miniaturisierten Mössbauer- Spektrometers (MIMOS II), dessen Entwicklung in den frühen neunziger Jahren am Institut für Kernphysik der Technischen Universität Darmstadt unter Professor Egbert Kankeleit und seinen Mitarbeitern begann. Seit 1998 sind die Entwicklungsarbeiten im Arbeitskreis von Prof. Gütlich am Institut für Anorganische und Analytische Chemie der Johannes Gutenberg- Universität Mainz von Dr. Göstar Klingelhöfer und Mitarbeitern fortgesetzt worden. Vorrangiges Ziel war dabei der geplante Einsatz des Spektrometers zu mineralogischen Untersuchungen im Weltall. Entsprechend ist das Projekt mit erheblichen finanziellen Mitteln des Forschungsinstituts der Deutschen Luft- und Raumfahrt (DLR) in Bonn unterstützt worden. Bei den beiden Missionen, die im Jahre 2003 von der NASA zum Mars gesandt wurden und im Januar dieses Jahres die beiden „Mars Exploration Rover“ (MER) "Spirit" und "Opportunity" erfolgreich auf der Marsoberfläche abgesetzt haben, ist jeweils ein MIMOS II-Gerät zur Charakterisierung eisenhaltiger Minerale und Böden während der laufenden Mission im Einsatz. Einige Ergebnisse von MIMOS II an Gestein und Böden der Marsoberfläche werden in der vorliegenden Arbeit präsentiert und diskutiert. Diese Ergebnisse wurden vom MIMOS II-Consortium unter Führung von Dr. Göstar Klingelhöfer, mit Unterstützung des Ingenieurs- und Wissenschaftsteams von MER am Jet Propulsion Laboratory in Kalifornien, erlangt. Erste Spektren, die von Proben im Gusev-Krater (Landestelle von „Spirit“) aufgenommen wurden und in dieser Arbeit vorgestellt werden, weisen auf das Vorkommen von forsteritischem Olivin, Pyroxen, Magnetit hin; daneben zeigt sich ein von Eisen(III) herrührendes Quadrupoldublett, das (noch) nicht eindeutig zugeordnet werden konnte. Aus den gewonnenen Daten wurde geschlossen, dass physikalische Verwitterung der vorherrschende Veränderungsprozess in den Ebenen des Gusev-Kraters ist. Um die Fähigkeiten von MIMOS II in der Charakteriserung extraterrestrischen Materials vor dem Start zum Mars zu demonstrieren, wurde eine Auswahl von chondritischen, Eisenund Marsmeteoriten gemessen. Ein Datenanalysepaket, basierend auf künstlichen neuronalen Netzwerken, genetischen Algorithmen und "fuzzy" Logik, wurde erstellt, erfolgreich getestet und während der Echtzeit-Operation der MER benutzt. Eine Datenbasis von Mössbauer-Parametern und Referenzen von veröffentlichten Studien über den Temperaturbereich des Mars wurde zusammengestellt. Die Werkzeuge zur Datenanalyse eröffnen neue Einsatzmöglichkeiten des miniaturisierten Mössbauer-Spektrometers in vielen Bereichen ausserhalb des Physikllabors. Einige davon werden in dieser Arbeit vorgestellt, wie z.B.die Pigmentcharakterisierung, die Echtheit archäologischer Artefakte oder in-situ Luftverschmutzungsmessungen. Datum: 20.07.2004 1. Betreuer: Professor Dr. P. Gütlich Paulo A. de Souza Jr. GAFEP/GETEP Departamento de Pelotização - DIPE Companhia Vale do Rio Doce - CVRD Tel.: (27) 3333-4609 - Carrier (835)
Resumo:
The increasing precision of current and future experiments in high-energy physics requires a likewise increase in the accuracy of the calculation of theoretical predictions, in order to find evidence for possible deviations of the generally accepted Standard Model of elementary particles and interactions. Calculating the experimentally measurable cross sections of scattering and decay processes to a higher accuracy directly translates into including higher order radiative corrections in the calculation. The large number of particles and interactions in the full Standard Model results in an exponentially growing number of Feynman diagrams contributing to any given process in higher orders. Additionally, the appearance of multiple independent mass scales makes even the calculation of single diagrams non-trivial. For over two decades now, the only way to cope with these issues has been to rely on the assistance of computers. The aim of the xloops project is to provide the necessary tools to automate the calculation procedures as far as possible, including the generation of the contributing diagrams and the evaluation of the resulting Feynman integrals. The latter is based on the techniques developed in Mainz for solving one- and two-loop diagrams in a general and systematic way using parallel/orthogonal space methods. These techniques involve a considerable amount of symbolic computations. During the development of xloops it was found that conventional computer algebra systems were not a suitable implementation environment. For this reason, a new system called GiNaC has been created, which allows the development of large-scale symbolic applications in an object-oriented fashion within the C++ programming language. This system, which is now also in use for other projects besides xloops, is the main focus of this thesis. The implementation of GiNaC as a C++ library sets it apart from other algebraic systems. Our results prove that a highly efficient symbolic manipulator can be designed in an object-oriented way, and that having a very fine granularity of objects is also feasible. The xloops-related parts of this work consist of a new implementation, based on GiNaC, of functions for calculating one-loop Feynman integrals that already existed in the original xloops program, as well as the addition of supplementary modules belonging to the interface between the library of integral functions and the diagram generator.
Resumo:
Konditionale Modellsysteme zur Untersuchung der ERBB2-induzierten Tumorgenese Die Rezeptor-Tyrosinkinase ERBB2 ist in einer Vielzahl epithelialer Tumore, wie Mamma- und Ovarialkarzinomen, überexprimiert. Diese erhöhte Expression korreliert mit aggressivem Tumorwachstum, verstärkter Metastasierung und schlechter Prognose für den Patienten. Zur genaueren Untersuchung molekularer Mechanismen, die zur Tumorentstehung infolge der ERBB2-Überexpression führen, wurden im Rahmen dieser Arbeit mit Hilfe des Tet-Systems induzierbare MCF-7 Zelllinien generiert. Diese exprimieren bei Gabe von Doxyzyklin ERBB2 bzw. die zum humanen ERBB2 homologe und durch Punktmutation onkogen aktivierte Rattenvariante NeuT. Nachdem die stringente Regulierbarkeit durch Doxyzyklin für die untersuchten Zellklone gezeigt werden konnte, stellte sich bei der Charakterisierung der Zelllinien heraus, dass die Induktion von ERBB2 erstaunlicherweise nicht zur Proliferation der Zellen, sondern zum Wachstumsarrest führt. Bei der Untersuchung verschiedener Zellzyklusregulatoren konnte dieser Zellzyklusarrest dem CDK-Inhibitor P21 zugeordnet werden, dessen Expression durch ERBB2 induziert wird. In P21-Antisense-Experimenten konnte nachgewiesen werden, dass P21 eine Schlüsselrolle beim ERBB2-induzierten Zellzyklusarrest spielt. Neben der Induktion von P21 und der daraus resultierenden Wachstumsinhibition zeigten die Zellen starke morphologische Veränderungen und waren positiv beim Nachweis der Seneszenz-assoziierten -Galaktosidase. Erstmals konnte gezeigt werden, dass die Induktion des Onkogens ERBB2 nicht zur Proliferation, sondern zur Aktivierung eines verfrühten Seneszenz-Programms führt, welches der Zelle Schutz gegen die Onkogeneinwirkung bietet. Bei der Untersuchung verschiedener Signaltransduktionskaskaden mit Inhibitormolekülen konnte die Aktivierung dieses Seneszenz-Programms der Stress-aktivierten Proteinkinase P38 zugeordnet werden. Zur Identifizierung von Genen, die für die ERBB2-induzierte Tumorgenese relevant sind, wurde die differenzielle Genexpression eines NeuT-Klons nach 8- bzw. 48-stündiger Induktion mit Doxyzyklin in einem cDNA-Array untersucht. Dabei zeigte sich eine besonders starke Induktion von Integrin 5 und Integrin 1, die zusammen den Fibronektinrezeptor bilden. Der funktionale Nachweis des Rezeptors in einem Adhäsionsassay demonstrierte ein stark erhöhtes Adhäsionsverhalten ERBB2-überexprimierender Zellen an Fibronektin. Bei der Untersuchung von Mamma-, Ovarial- und Endometriumkarzinomen konnte die Expression von ERBB2 mit der von Integrin 5 korreliert werden. Diese Ergebnisse machen Integrin 5 zu einem potenziellen neuen Tumormarker und Therapieziel in ERBB2-überexprimierenden Tumoren. Ein weiteres interessantes Gen, das sich im Array durch ERBB2 überexprimiert zeigte, war die Matrix-Metalloproteinase MMP-9. In einem Zymografieassay konnte die erhöhte Gelatinaseaktivität von MMP-9 in Dox-induzierten Zellen nachgewiesen werden. Der Einsatz verschiedener Signaltransduktionsinhibitoren ergab, dass auch die ERBB2-induzierte Expression von MMP-9 über die Aktivierung von P38 läuft. Bei der Suche nach weiteren MMPs, die für die ERBB2-induzierte Tumorgenese relevant sein könnten, wurde MMP-13 untersucht. Erstmals konnte gezeigt werden, dass diese Matrix-Metalloproteinase von ERBB2 induziert wird. Dieser interessante Befund wurde auch in einem anderen Zellmodell in NIH3T3 Mausfibroblasten verifiziert. Durch ihre Matrix-degradierenden Eigenschaften sind MMPs potente „Werkzeuge“ für Tumorzellen und stellen ein wichtiges Ziel zur Unterbindung der Invasion und Metastasierung dieser Zellen dar. Neben den Zellkulturarbeiten wurden im Rahmen dieser Dissertation transgene Responder-Mäuse generiert, die NeuT unter Kontrolle eines Tet-responsiven Promotors exprimieren. Von vier transgenen Gründerlinien zeigten zwei eine unerwünschte, basale NeuT-Expression, für die beiden anderen Linien konnte sowohl in MEF-Assays, als auch nach Kreuzung mit rtTA- bzw. tTA-Effektor-Mäusen eine Dox-abhängige Regulation des Transgens gezeigt werden. Die Tiere dieser Linien sollen in Zukunft mit Effektor-Mäusen gepaart werden, die den rtTA bzw. tTA spezifisch in für die ERBB2-Tumorgenese relevanten Geweben, wie Ovarial- oder Lungenepithelzellen, exprimieren. So können individuelle Tumormodelle für die verschiedenen epithelialen Tumore, bei denen die Überexpression von ERBB2 von Bedeutung ist, entwickelt und untersucht werden.
Resumo:
Die vorliegende Arbeit beschäftigt sich mit der Synthese funktionalisierter Polyphenylen-Dendrimere für den Einsatz als Nanobausteine in übermolekularen 3-D Aggregaten für potentielle sensorische Anwendungen. Im ersten Teil werden zwei Konzepte zur Synthese von funktionalisierten Cyclopentadienonbausteinen vorgestellt: einer führt zu Bausteinen die zur Synthese von peripher-funktionalisierten Polyphenylen-Dendrimere geeignet sind, und ein zweiter Ansatz zielt auf Cyclopentadienonbausteine, die es erlauben Polyphenylen-Dendrimere im Inneren zu funktionalisieren. Für das erste Ziel erwies sich die Suzuki-Kreuzkupplung von Arylboronsäuren und Arylboronsäurenester mit Arylhalogeniden als ein optimales synthetisches Werkzeug. Demgegenüber wurden für das zweite Ziel -methylesterfunktionalisierten Cyclopentadienonbausteine anhand der Knoevenagel-Kondensation von bereits funktionstragenden-Partnern synthetisiert. Im zweiten Teil der Arbeit werden die Synthesen von funktionalisierten Polyphenylen-Dendrimeren vorgestellt. Hierbei kamen zwei verschiedene synthetische Ansätze zum Einsatz: Einerseits wurden durch die Diels-Alder-Addition der funktionalisierten Cyclopentadienonbausteine an ethinylfunktionalisierten Polyphenylen-Grundkörper unterschiedlicher Generation die verfolgten funktionalisierten Zielverbindungen erhalten. Andererseits wurde in bestimmten Fällen die polymeranaloge Konversion von „Übergangsfunktionen“ in einem a posteriori-Funktionalisierungsschritt angewendet. Dementsprechend wurde die Einführung von funktionellen Gruppen möglich die entweder die alkalischen Bedingungen der Knoevenagel – Kondensation oder die hohen Temperaturen der Diels-Alder-Cycloaddition nicht überstehen. Die synthetischen Werkzeuge, die bei der a posteriori-Funktionalisierung zum Einsatz kamen, mussten die vollständige und nebenreaktionsfreie Konversion der Übergangsfunktionen ermöglichen. Als Reaktionen, die dieser Bedingungen genügen, wurden die Williamson –Ethersynthese und die Esterknüpfung nach der DCC-Methode in Verbindung mit hydroxyfunktionalisierten Polyphenylen-Grundkörper und die basische Esterspaltung an methyleseterfunktionalisierten Dendrimeren angewandt. Die aufgezählten Reaktionen führten zu Endprodukten, die ihre Monodispersität beibehielten und eine definierte Anzahl an Funktionalität aufwiesen. Anhand eingehenden Untersuchungen (der Aufbau von Sensorschichten für flüchtige organische Lösungsmittel, die Untersuchungen an elektrostatisch-wechselwirkenden übermolekularen Aggregaten sowie die Einlagerung von Gastmolekülen) wird es ersichtlich dass die synthetisierten Polyphenylen-Dendrimere vielseitig als Nanobausteine zur Erzeugung von funktionalen Materialien von potenzieller Bedeutung sind.
Resumo:
Since the discovery of the nuclear magnetic resonance (NMR) phenomenon, countless NMR techniques have been developed that are today indispensable tools in physics, chemistry, biology, and medicine. As one of the main obstacles in NMR is its notorious lack of sensitivity, different hyperpolarization (HP) methods have been established to increase signals up to several orders of magnitude. In this work, different aspects of magnetic resonance, using HP noble gases, are studied, hereby combining different disciplines of research. The first part examines new fundamental effects in NMR of HP gases, in theory and experiment. The spin echo phenomenon, which provides the basis of numerous modern experiments, is studied in detail in the gas phase. The changes of the echo signal in terms of amplitude, shape, and position, due to the fast translational motion, are described by an extension of the existing theory and computer simulations. With this knowledge as a prerequisite, the detection of intermolecular double-quantum coherences was accomplished for the first time in the gas phase. The second part of this thesis focuses on the development of a practical method to enhance the dissolution process of HP 129Xe, without loss of polarization or shortening of T1. Two different setups for application in NMR spectroscopy and magnetic resonance imaging (MRI) are presented. The continuous operation allows biological and multidimensional spectroscopy in solutions. Also, first in vitro MRI images with dissolved HP 129Xe as contrast agent were obtained at a clinical scanner.
Resumo:
The use of Magnetic Resonance Imaging (MRI) as a diagnostic tool is increasingly employing functional contrast agents to study or contrast entire mechanisms. Contrast agents in MRI can be classified in two categories. One type of contrast agents alters the NMR signal of the protons in its surrounding, e.g. lowers the T1 relaxation time. The other type enhances the Nuclear Magnetic Resonance (NMR) signal of specific nuclei. For hyperpolarized gases the NMR signal is improved up to several orders of magnitude. However, gases have a high diffusivity which strongly influences the NMR signal strength, hence the resolution and appearance of the images. The most interesting question in spatially resolved experiments is of course the achievable resolution and contrast by controlling the diffusivity of the gas. The influence of such diffusive processes scales with the diffusion coefficient, the strength of the magnetic field gradients and the timings used in the experiment. Diffusion may not only limit the MRI resolution, but also distort the line shape of MR images for samples, which contain boundaries or diffusion barriers within the sampled space. In addition, due to the large polarization in gaseous 3He and 129Xe, spin diffusion (different from particle diffusion) could play a role in MRI experiments. It is demonstrated that for low temperatures some corrections to the NMR measured diffusion coefficient have to be done, which depend on quantum exchange effects for indistinguishable particles. Physically, if these effects can not change the spin current, they can do it indirectly by modifying the velocity distribution of the different spin states separately, so that the subsequent collisions between atoms and therefore the diffusion coefficient can eventually be affected. A detailed study of the hyperpolarized gas diffusion coefficient is presented, demonstrating the absence of spin diffusion (different from particle diffusion) influence in MRI at clinical conditions. A novel procedure is proposed to control the diffusion coefficient of gases in MRI by admixture of inert buffer gases. The experimental measured diffusion agrees with theoretical simulations. Therefore, the molecular mass and concentration enter as additional parameters into the equations that describe structural contrast. This allows for setting a structural threshold up to which structures contribute to the image. For MRI of the lung this allows for images of very small structural elements (alveoli) only, or in the other extreme, all airways can be displayed with minimal signal loss due to diffusion.
Effect of drug physicochemical properties on the release from liposomal systems in vitro and in vivo
Resumo:
Liposomes were discovered about 40 years ago by A. Bangham and since then they became very versatile tools in biology, biochemistry and medicine. Liposomes are the smallest artificial vesicles of spherical shape that can be produced from natural untoxic phospholipids and cholesterol. Liposome vesicles can be used as drug carriers and become loaded with a great variety of molecules, such as small drug molecules, proteins, nucleotides and even plasmids. Due to the variability of liposomal compositions they can be used for a large number of applications. In this thesis the β-adrenoceptor antagonists propranolol, metoprolol, atenolol and pindolol, glucose, 18F-Fluorodeoxyglucose (FDG) and Er-DTPA were used for encapsulation in liposomes, characterization and in vitro release studies. Multilamellar vesicles (MLV), large unilamellar vesicles (LUV) and smaller unilamellar vesicles (SUV) were prepared using one of the following lipids: 1,2-Dimyristoyl-sn-Glycero-3-Phosphocholine (DMPC), 1,2-Distearoyl-sn-Glycero-3-Phosphocholine (DSPC), Phospholipone 90H (Ph90H) or a mixture of DSPC and DMPC (1:1). The freeze thawing method was used for preparation of liposomes because it has three advantages (1) avoiding the use of chloroform, which is used in other methods and causes toxicity (2) it is a simple method and (3) it gives high entrapping efficiency. The percentage of entrapping efficiencies (EE) was different depending on the type and phase transition temperature (Tc) of the lipid used. The average particle size and particle size distribution of the prepared liposomes were determined using both dynamic light scattering (DLS) and laser diffraction analyzer (LDA). The average particle size of the prepared liposomes differs according to both liposomal type and lipid type. Dispersion and dialysis techniques were used for the study of the in vitro release of β-adrenoceptor antagonists. The in vitro release rate of β-adrenoceptor antagonists was increased from MLV to LUV to SUV. Regarding the lipid type, β-adrenoceptor antagonists exhibited different in vitro release pattern from one lipid to another. Two different concentrations (50 and 100mg/ml) of Ph90H were used for studying the effect of lipid concentration on the in vitro release of β-adrenoceptor antagonists. It was found that liposomes made from 50 mg/ml Ph90H exhibited higher release rates than liposomes made at 100 mg/ml Ph90H. Also glucose was encapsulated in MLV, LUV and SUV using 1,2-Dimyristoyl-sn-Glycero-3-Phosphocholine (DMPC), 1,2-Distearoyl-sn-Glycero-3-Phosphocholine (DSPC), Phospholipone 90H (Ph90H), soybean lipid (Syb) or a mixture of DSPC and DMPC (1:1). The average particle size and size distribution were determined using laser diffraction analysis. It was found that both EE and average particle size differ depending on both lipid and liposomal types. The in vitro release of glucose from different types of liposomes was performed using a dispersion method. It was found that the in vitro release of glucose from different liposomes is dependent on the lipid type. 18F-FDG was encapsulated in MLV 1,2-Dimyristoyl-sn-Glycero-3-Phosphocholine (DMPC), 1,2-Distearoyl-sn-Glycero-3-Phosphocholine (DSPC), Phospholipone 90H (Ph90H), soybean lipid (Syb) or a mixture of DSPC and DMPC (1:1). FDG-containing LUV and SUV were prepared using Ph90H lipid. The in vitro release of FDG from the different types of lipids was accomplished using a dispersion method. Results similar to that of glucose release were obtained. In vivo imaging of FDG in both uncapsulated FDG and FDG-containing MLV was performed in the brain and the whole body of rats using PET scanner. It was found that the release of FDG from FDG-containing MLV was sustained. In vitro-In vivo correlation was studied using the in vitro release data of FDG from liposomes and in vivo absorption data of FDG from injected liposomes using microPET. Erbium, which is a lanthanide metal, was used as a chelate with DTPA for encapsulation in SUV liposomes for the indirect radiation therapy of cancer. The liposomes were prepared using three different concentrations of soybean lipid (30, 50 and 70 mg/ml). The stability of Er-DTPA SUV liposomes was carried out by storage of the prepared liposomes at three different temperatures (4, 25 and 37 °C). It was found that the release of Er-DTPA complex is temperature dependent, the higher the temperature, the higher the release. There was an inverse relationship between the release of the Er-DTPA complex and the concentration of lipid.
Resumo:
Im Rahmen der vorliegenden Dissertation wurde die phylogenetischen Stellungen der Xenoturbellida (Deuterostomia) und der Syndermata (Protostomia) mit phylogenomischen Techniken untersucht. Auf methodischer Ebene konnte gezeigt werden, dass ribosomale Proteine aufgrund ihres mittleren bis hohen Konservierungsgrades, ihrer Häufigkeit in kleineren EST-Projekten, damit verbunden ihrer Häufigkeit in Datenbanken und ihres phylogenetischen Informationsgehalts nützliche Werkzeuge für phylogenetische Fragestellungen sind. Es konnte durch phylogenetische Rekonstruktionen und Hypothesentests auf Basis eines 11.912 Aminosäuren langen Datensatzes gezeigt werden, dass die Xenoturbellida innerhalb der Deuterostomia eine Schwestergruppenbeziehung zu den Ambulacraria eingehen. Diese Arbeit zeigt im Vergleich aller bisher durchgeführten Arbeiten die beste statistische Unterstützung für diese Topologie. Weiterhin konnte untermauert werden, dass die Urochordata vermutlich anstelle der Cephalochordata die Schwestergruppe der Vertebrata sind. Der Vergleich der publizierten Xenoturbella EST-Datensätze mit dem eigenen Datensatz ließ den Rückschluß zu, dass ESTs offenbar klar weniger anfällig gegen Kontaminationen mit Erbmaterial (DNA+RNA) anderer Spezies sind als PCR-Amplifikate genomischer oder mitochondrialer Gene. Allerdings bestimmt anscheinend der physiologische Zustand der Tiere die Repräsentation von Transkriptklassen wie Stressproteine und mitochondriale Transkripte. Die bakteriellen Transkripte in einem der EST-Datensätze stammen vermutlich von Chlamydien, die möglicherweise symbiontisch in Xenoturbella bocki leben. Im Bereich der Protostomia wurden drei EST-Projekte für Vertreter der Syndermata durchgeführt. Basierend auf drei verschiedenen Proteinalignment-Datensätzen von ca. 11.000 Aminosäuren Länge konnte gezeigt werden, dass die Syndermata innerhalb der Spiralia einzugruppieren sind und dass sie mit den Gnathostomulida das monophyletische Supertaxon Gnathifera bilden. Die genaue phylogenetische Position der Syndermata innerhalb der Spiralia konnte hingegen noch nicht eindeutig geklärt werden, ebenso wie kein kongruenter Beweis für die Existenz des Supertaxons Platyzoa gefunden werden konnte. Im Rahmen der Untersuchung der internen Phylogenie der Syndermata konnten drei der fünf konkurrierenden Hypothesen aufgrund der Paraphylie der Eurotatoria ausgeschlossen werden. Da keine Daten der Seisonidea in den Analysen implementiert waren, bleibt die Frage der internen Phylogenie der Syndermata letztlich offen. Klar ist jedoch, dass die Eurotatoria nicht wie bislang angenommen monophyletisch sind, da die räderorgantragenden Bdelloidea keinesfalls den morphologisch diesbezüglich ähnlichen Monogononta ähnlich sind, sondern den räderorganlosen Acanthocephala näher stehen. Die Abbildung der molekularen Phylogenie auf die morphologischen Verhältnisse zeigt, dass das Räderorgan (partiell oder komplett) offenbar kurz nach der Aufspaltung der Syndermata in Monogononta und Acanthocephala + Bdelloidea in der Acanthocephala + Bdelloidea-Linie reduziert wurde. Die Entstehung des einziehbaren hinteren Körperteils (Rostrum bei Bdelloidea bzw. Proboscis bei Acanthocephala) in der Acanthocephala + Bdelloidea-Linie könnte das Schlüsselereignis zur Entstehung des Endoparasitismus der Acanthocephala gewesen sein.
Resumo:
Die intrazelluläre Lokalisation von Proteinen und Makromolekülen unterliegt in Eukaryoten einer strengen Regulation. Insbesondere erlaubt die Kompartimentierung eukaryotischer Zellen in Zellkern und Zytoplasma den simultanen Ablauf räumlich getrennter biochemischer Reaktionen, und damit die unabhängige Regulation zellulärer Programme. Da trotz intensiver Forschungsbemühungen bis dato die molekularen Details sowie die (patho)biologische Bedeutung von Kern-Zytoplasma-Transportprozessen noch immer nicht vollkommen verstanden sind, wurde im Rahmen der vorliegenden Arbeit ein Fokus auf die Identifizierung von chemischen Transportinhibitoren gelegt. Das zu diesem Zweck entwickelte Translokations-Biosensor-System basiert auf der Kombination von autofluoreszierenden Proteinen, sowie spezifisch ausgewählten Kernexport- und Kernimportsignalen. Nach Etablierung geeigneter Zellmodelle, die effizient und stabil die Translokations-Biosensoren exprimieren, wurde die 17 000 Substanzen umfassende Bibliothek der ChemBioNet-Initiative nach Kernexportinhibitoren mittels einer Fluoreszenzmikroskopie-basierten Hochdurchsatzanalyse-Plattform durchmustert. Zunächst wurden Translokations-Algorithmen, welche eine zuverlässige automatisierte Erkennung von Zellkern und Zytoplasma erlauben, optimiert. Im Folgenden konnten acht neue niedermolekulare Kernexport-Inhibitoren identifiziert werden, die sich in der Stärke, der Geschwindigkeit, sowie in der Beständigkeit der vermittelten Inhibition unterscheiden. Die Aktivität der Inhibitoren konnte auf den isolierten nukleären Exportsignalen (NES) von HIV-1 Rev und Survivin als auch auf den entsprechenden Volllängeproteinen mittels Mikroinjektionsexperimenten sowie durch umfassende in vitro und biochemische Methoden bestätigt werden. Zur Untersuchung der funktionellen Einheiten der Inhibitoren wurden homologe Substanzen auf Ihre Aktivität hin getestet. Dabei konnten für die Aktivität wichtige chemische Gruppen definiert werden. Alle Substanzen stellen neue Inhibitoren des Crm1-abhängigen Exports dar und zeigen keine nachweisbare NES-Selektivität. Interessanterweise konnte jedoch eine zytotoxische und Apoptose-induzierende Wirkung auf verschiedene Krebszellarten festgestellt werden. Da diese Wirkung unabhängig vom p53-Status der Tumorzellen ist und die Inhibitoren C3 und C5 die Vitalität nicht-maligner humaner Zellen signifikant weniger beeinträchtigen, wurden diese Substanzen zum internationalen Patent angemeldet. Da der nukleäre Export besonders für Tumorzellen einen wichtigen Überlebenssignalweg darstellt, könnte dessen reversible Hemmung ausgenutzt werden, um besonders in Kombination mit gängigen Krebstherapien eine therapeutisch relevante Tumorinhibition zu erzeugen. Eine weitere Anwendungsmöglichkeit der neuen Exportinhibitoren ist auf dem Gebiet der Infektionskrankheiten zu sehen, da auch die Aktivität des essentiellen HIV-1 Rev-Proteins inhibiert wird. Zusätzlich konnte in der Arbeit gezeigt werden, dass der zelluläre Kofaktor des Crm1-abhängigen Exports des HIV-1 Rev-Proteins, die RNA-Helikase DDX3, ein eigenes NES enthält. Der Nachweis einer direkten Interaktion des HIV-1 Rev- mit dem DDX3-Protein impliziert, dass multiple Angriffstellen für chemische Modulatoren hinsichtlich einer antiviralen Therapie gegeben sind. Da die Vielfalt des chemischen Strukturraums es unmöglich macht diesen experimentell vollständig zu durchmustern, wurden im Rahmen dieser Arbeit auch Naturstoffe als vielversprechende Wirkstoffquelle untersucht. Um zukünftig umfassend bioaktive Substanzen aus diesen hochkomplexen Stoffgemischen experimentell identifizieren zu können, wurde eine Fluoreszenzmikroskopie-basierte Hochdurchsatzanalyse-Plattform am Mainz Screening Center (MSC) etabliert. Damit konnte bereits ein weiterer, bisher unbekannter Exportinhibitor aus Cyphellopsis anomala identifiziert werden. Neben einer Anwendung dieser Substanz als chemisches Werkzeug zur Aufklärung der Regulation von Transportvorgängen, stellt sich auch die evolutionsbiologisch relevante Frage, wie es dem Pilzproduzenten gelingt die Blockierung des eigenen Kernexports zu umgehen. Weiterführende Projekte müssen sich neben der Aufklärung der molekularen Wirkmechanismen der gefundenen Substanzen mit der Identifizierung spezifischer chemischer „Funktionseinheiten“ beschäftigen. Neben einem verbesserten mechanistischen Verständnis von Transportvorgängen stellen die erarbeiteten Transportinhibitoren Vorstufen zur Weiterentwicklung möglicher Wirkstoffe dar. Die im Rahmen dieser Arbeit etablierte Technologie-Plattform und molekularen Werkzeuge stellen darüber hinaus eine wichtige Voraussetzung dar, um eine systematische Suche nach möglichen Wirkstoffen im Forschungsfeld der „Chemischen Biomedizin“ voranzutreiben.
Resumo:
Data sets describing the state of the earth's atmosphere are of great importance in the atmospheric sciences. Over the last decades, the quality and sheer amount of the available data increased significantly, resulting in a rising demand for new tools capable of handling and analysing these large, multidimensional sets of atmospheric data. The interdisciplinary work presented in this thesis covers the development and the application of practical software tools and efficient algorithms from the field of computer science, aiming at the goal of enabling atmospheric scientists to analyse and to gain new insights from these large data sets. For this purpose, our tools combine novel techniques with well-established methods from different areas such as scientific visualization and data segmentation. In this thesis, three practical tools are presented. Two of these tools are software systems (Insight and IWAL) for different types of processing and interactive visualization of data, the third tool is an efficient algorithm for data segmentation implemented as part of Insight.Insight is a toolkit for the interactive, three-dimensional visualization and processing of large sets of atmospheric data, originally developed as a testing environment for the novel segmentation algorithm. It provides a dynamic system for combining at runtime data from different sources, a variety of different data processing algorithms, and several visualization techniques. Its modular architecture and flexible scripting support led to additional applications of the software, from which two examples are presented: the usage of Insight as a WMS (web map service) server, and the automatic production of a sequence of images for the visualization of cyclone simulations. The core application of Insight is the provision of the novel segmentation algorithm for the efficient detection and tracking of 3D features in large sets of atmospheric data, as well as for the precise localization of the occurring genesis, lysis, merging and splitting events. Data segmentation usually leads to a significant reduction of the size of the considered data. This enables a practical visualization of the data, statistical analyses of the features and their events, and the manual or automatic detection of interesting situations for subsequent detailed investigation. The concepts of the novel algorithm, its technical realization, and several extensions for avoiding under- and over-segmentation are discussed. As example applications, this thesis covers the setup and the results of the segmentation of upper-tropospheric jet streams and cyclones as full 3D objects. Finally, IWAL is presented, which is a web application for providing an easy interactive access to meteorological data visualizations, primarily aimed at students. As a web application, the needs to retrieve all input data sets and to install and handle complex visualization tools on a local machine are avoided. The main challenge in the provision of customizable visualizations to large numbers of simultaneous users was to find an acceptable trade-off between the available visualization options and the performance of the application. Besides the implementational details, benchmarks and the results of a user survey are presented.