226 resultados para Optimierung


Relevância:

10.00% 10.00%

Publicador:

Resumo:

In dieser Arbeit wird zum Erreichen hoher Kernspinpolarisationen die Methode des metastabilen optischen Pumpens benutzt. Das Verfahren beruht auf dem "Ubertrag des Drehimpulses absorbierter Photonen auf das hierbei angeregte Valenzelektron, welches durch Hyperfeinkopplung den Drehimpuls weiter auf den $^3$He-Kern transferiert. Da der Polarisationsprozess nur bei Dr"ucken von ca. 1~mbar effizient funktioniert, f"ur die meisten Anwendungen aber polarisiertes $^3$He bei einem Druck von $geq 1$~bar ben"otigt wird, muss das Gas nach der Aufpolarisation komprimiert werden. In unserer Arbeitsgruppe steht eine Maschine ("`Polarisator"') zur Verf"ugung, die das Gas polarisiert und anschlie"send komprimiert. Ziel dieser Dissertation ist, einerseits die Leistungsf"ahigkeit des Polarisators bez"uglich Maximalpolarisation und Gasfluss zu verbessern und andererseits den metastabilen Pumpprozess selbst genauer zu untersuchen.\ noindent Durch die Verwendung neuer Laser auf Basis der Fasertechnologie sowie einer systematischen Optimierung der optischen Komponenten konnten in abgeschlossenen Pumpzellen Rekord-Polarisationsgrade von $91pm 2$% erzielt werden.\ noindent Mit der Implementierung neuartiger Optiken und Laser am Mainzer Polarisator konnte die Leistungscharakteristik entscheidend verbessert werden. So wurde die erreichbare Polarisation bei identischer Produktionsrate um 20 Prozentpunkte gesteigert. Zurzeit sind maximale Polarisationsgrade von mehr als 75% im optischen Pumpvolumen erreichbar. Eine am Mainzer Triga-Reaktor durchgef"uhrte Polarisationsbestimmung ergab einen Wert von $72.7pm 0.7$%. Dies veranschaulicht die geringen Polarisationsverluste infolge der Gaskompression, des Transports und einer Lagerung "uber mehrere Stunden.\ noindent Zur Dynamik der geschwindigkeitsver"andernden St"o"se sowie zur Bestimmung der mittleren Photonen-Absorptionsrate wurde ein Modell entwickelt, welches auch experimentell best"atigt wurde. Damit konnte erstmalig das gemessene Absorptionsverhalten einer spektral schmalbandigen Laserdiode korrekt beschrieben werden.\ noindent Zudem stimmen die an so genannten abgeschlossenen Pumpzellen gemessenen extrem hohen Polarisationswerte mit theoretischen Vorhersagen "uberein, sofern der Druck im optischen Pumpvolumen geringer als 1~mbar ist und das $^3$He nicht durch Fremdgase verunreinigt ist. Bei derartigen Pumpzellen ist die gemessene Abh"angigkeit der Polarisation von Laserleistung, Metastabilendichte und falscher Zirkularkomponente mit der Theorie kompatibel.\

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Das Cydia pomonella Granulovirus (CpGV, Fam. Baculoviridae) ist ein sehr virulentes und hoch spezifisches Pathogen des Apfelwicklers (Cydia pomonella), das seit mehreren Jahren in der Bundesrepublik Deutschland und anderen Ländern der EU als Insektizid zugelassen ist. Wie andere Baculoviren auch befällt es die Larven der Insekten und ist aufgrund seiner Selektivität für Nicht-Zielorganismen unbedenklich. In der Vergangenheit konzentrierte sich die Erforschung des CpGV auf Bereiche, die für die Anwendung im Pflanzenschutz relevant waren, wobei nach fast 20 Jahren nach der ersten Zulassung noch immer nicht bekannt ist, ob und wie sich das CpGV in der Umwelt etablieren kann. Im Rahmen der vorliegenden Arbeit wurden verschiedene Parameter, mit deren Hilfe die Populationsdynamik des CpGV beschrieben werden kann, analysiert und quantitativ bestimmt. Neben den biologischen Eigenschaften wie Virulenz, DNA-Charakterisierung und Quantifizierung der Virusnachkommenschaft wurden insbesondere die horizontale sowie die vertikale Transmission, die Inaktivierung und die Infektion später Larvenstadien untersucht. Letztlich wurden die ermittelten Parameter zusammen mit Daten aus der Literatur in ein mathematisches Modell integriert. Um die Wahrscheinlichkeit der horizontalen Transmission zu quantifizieren, wurde ein Modellsystem mit losen Äpfeln etabliert, in dem verschiedene Szenarien möglicher horizontaler Transmission unter definierten Laborbedingungen getestet wurden. In Versuchsserien, in denen ein Virusfleck, entsprechend der produzierten Virusmenge einer Eilarve, auf einen Apfel appliziert worden war, war unter den aufgesetzten Apfelwicklerlarven lediglich eine sehr geringe Mortalität von 3 - 6% zu beobachten. Wurde jedoch ein an einer Virusinfektion gestorbener Larvenkadaver als Inokulum verwendet, lag die Mortalitätsrate aufgesetzter Larven bei über 40%. Diese beobachtete hohe horizontale Transmissionsrate konnte mit dem Verhalten der Larven erklärt werden. Die Larven zeigten eine deutliche Einbohrpräferenz für den Stielansatz bzw. den Kelch, wodurch die Wahrscheinlichkeit des Zusammentreffens einer an der Infektion verendeten Larve mit einer gesunden Larve um ein Vielfaches zunahm. In einem ähnlich angelegten Freilandversuch konnte eine horizontale Transmission nicht belegt werden. Der Unterschied zur Kontrollgruppe fiel aufgrund einer hohen natürlichen Mortalität und einer damit einhergehenden niedrigen Dichte der Larven zu gering aus. Parallel hierzu wurde außerdem eine Halbwertszeit von 52 Sonnenstunden für das CpGV ermittelt. Weiterhin konnte festgestellt werden, dass die Mortalität von späteren Larvenstadien, die 14 Tage Zeit hatten sich in die Äpfel einzubohren, bevor eine CpGV-Applikation durchgeführt wurde, ebenso hoch war wie bei Larven, die sich im L1-Stadium auf der Apfeloberfläche infizierten. Aufgrund des höheren Alters jener Larven war der Fraßschaden an befallenen Äpfeln jedoch wesentlich größer und vergleichbar mit dem Fraßschaden einer unbehandelten Kontrolle. Der Versuch zur vertikalen Transmission zeigte dass, obwohl die verwendete Apfelwicklerzucht nicht frei von CpGV war, die Mortalitätsrate der Nachkommen subletal infizierter Weibchen (44%) jedoch deutlich höher war als die der Nachkommen subletal infizierter Männchen (28%) und der unbehandelten Kontrolle (27%). Auch in den PCR-Analysen konnte eine größere Menge an CpGV-Trägern bei den Nachkommen subletal infizierter Weibchen (67%) als bei den Nachkommen subletal infizierter Männchen (49%) und bei der Kontrolle (42%) nachgewiesen werden. Die Ergebnisse deuten darauf hin, dass eine Infektion durch subletal infizierte Weibchen vertikal in die nächste Generation übertragen werden kann. Dies lässt erkennen, dass in der Folgegeneration des Apfelwicklers eine zusätzliche Wirkung des CpGV durch vertikale Transmission auftreten kann. Hierin wäre auch ein potentieller Mechanismus für eine dauerhafte Etablierung des Virus zu sehen. Letztlich wurden alle Parameter, die die CpGV-Apfelwickler-Beziehung beschreiben, in ein mathematisches Modell GRANULO integriert. Nach einer Sensitivitätsanalyse wurde GRANULO teilweise mit Daten aus den Freilandversuchen verifiziert. Durch Modifikation der Virusparameter im Modell konnte anschließend der Einfluss veränderter biologischer Eigenschaften (UV-Stabilität und Transmissionsraten) der Viren in Simulationen theoretisch erprobt werden. Das beschriebene Modell, das allerdings noch einer weitergehenden Verifizierung und Validierung bedarf, ist eine erste Annäherung an die quantitative Erfassung und Modellierung der Populationsdynamik des Systems CpGV-Apfelwickler. Die im Zusammenhang mit der Populationsdynamik des Apfelwicklers erhobenen Daten können einen wertvollen Beitrag zur Optimierung von Kontrollstrategien des Apfelwicklers mittels CpGV leisten. Außerdem geben sie Aufschluss über die Etablierungsmöglichkeiten dieses Bioinsektizids.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Der AMANDA-II Detektor ist primär für den richtungsaufgelösten Nachweis hochenergetischer Neutrinos konzipiert. Trotzdem können auch niederenergetische Neutrinoausbrüche, wie sie von Supernovae erwartet werden, mit hoher Signifikanz nachgewiesen werden, sofern sie innerhalb der Milchstraße stattfinden. Die experimentelle Signatur im Detektor ist ein kollektiver Anstieg der Rauschraten aller optischen Module. Zur Abschätzung der Stärke des erwarteten Signals wurden theoretische Modelle und Simulationen zu Supernovae und experimentelle Daten der Supernova SN1987A studiert. Außerdem wurden die Sensitivitäten der optischen Module neu bestimmt. Dazu mussten für den Fall des südpolaren Eises die Energieverluste geladener Teilchen untersucht und eine Simulation der Propagation von Photonen entwickelt werden. Schließlich konnte das im Kamiokande-II Detektor gemessene Signal auf die Verhältnisse des AMANDA-II Detektors skaliert werden. Im Rahmen dieser Arbeit wurde ein Algorithmus zur Echtzeit-Suche nach Signalen von Supernovae als Teilmodul der Datennahme implementiert. Dieser beinhaltet diverse Verbesserungen gegenüber der zuvor von der AMANDA-Kollaboration verwendeten Version. Aufgrund einer Optimierung auf Rechengeschwindigkeit können nun mehrere Echtzeit-Suchen mit verschiedenen Analyse-Zeitbasen im Rahmen der Datennahme simultan laufen. Die Disqualifikation optischer Module mit ungeeignetem Verhalten geschieht in Echtzeit. Allerdings muss das Verhalten der Module zu diesem Zweck anhand von gepufferten Daten beurteilt werden. Dadurch kann die Analyse der Daten der qualifizierten Module nicht ohne eine Verzögerung von etwa 5 Minuten geschehen. Im Falle einer erkannten Supernova werden die Daten für die Zeitdauer mehrerer Minuten zur späteren Auswertung in 10 Millisekunden-Intervallen archiviert. Da die Daten des Rauschverhaltens der optischen Module ansonsten in Intervallen von 500 ms zur Verfgung stehen, ist die Zeitbasis der Analyse in Einheiten von 500 ms frei wählbar. Im Rahmen dieser Arbeit wurden drei Analysen dieser Art am Südpol aktiviert: Eine mit der Zeitbasis der Datennahme von 500 ms, eine mit der Zeitbasis 4 s und eine mit der Zeitbasis 10 s. Dadurch wird die Sensitivität für Signale maximiert, die eine charakteristische exponentielle Zerfallszeit von 3 s aufweisen und gleichzeitig eine gute Sensitivität über einen weiten Bereich exponentieller Zerfallszeiten gewahrt. Anhand von Daten der Jahre 2000 bis 2003 wurden diese Analysen ausführlich untersucht. Während die Ergebnisse der Analyse mit t = 500 ms nicht vollständig nachvollziehbare Ergebnisse produzierte, konnten die Resultate der beiden Analysen mit den längeren Zeitbasen durch Simulationen reproduziert und entsprechend gut verstanden werden. Auf der Grundlage der gemessenen Daten wurden die erwarteten Signale von Supernovae simuliert. Aus einem Vergleich zwischen dieser Simulation den gemessenen Daten der Jahre 2000 bis 2003 und der Simulation des erwarteten statistischen Untergrunds kann mit einem Konfidenz-Niveau von mindestens 90 % gefolgert werden, dass in der Milchstraße nicht mehr als 3.2 Supernovae pro Jahr stattfinden. Zur Identifikation einer Supernova wird ein Ratenanstieg mit einer Signifikanz von mindestens 7.4 Standardabweichungen verlangt. Die Anzahl erwarteter Ereignisse aus dem statistischen Untergrund beträgt auf diesem Niveau weniger als ein Millionstel. Dennoch wurde ein solches Ereignis gemessen. Mit der gewählten Signifikanzschwelle werden 74 % aller möglichen Vorläufer-Sterne von Supernovae in der Galaxis überwacht. In Kombination mit dem letzten von der AMANDA-Kollaboration veröffentlicheten Ergebnis ergibt sich sogar eine obere Grenze von nur 2.6 Supernovae pro Jahr. Im Rahmen der Echtzeit-Analyse wird für die kollektive Ratenüberhöhung eine Signifikanz von mindestens 5.5 Standardabweichungen verlangt, bevor eine Meldung über die Detektion eines Supernova-Kandidaten verschickt wird. Damit liegt der überwachte Anteil Sterne der Galaxis bei 81 %, aber auch die Frequenz falscher Alarme steigt auf bei etwa 2 Ereignissen pro Woche. Die Alarm-Meldungen werden über ein Iridium-Modem in die nördliche Hemisphäre übertragen, und sollen schon bald zu SNEWS beitragen, dem weltweiten Netzwerk zur Früherkennung von Supernovae.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die vorliegende Dissertation analysiert die Middleware- Technologien CORBA (Common Object Request Broker Architecture), COM/DCOM (Component Object Model/Distributed Component Object Model), J2EE (Java-2-Enterprise Edition) und Web Services (inklusive .NET) auf ihre Eignung bzgl. eng und lose gekoppelten verteilten Anwendungen. Zusätzlich werden primär für CORBA die dynamischen CORBA-Komponenten DII (Dynamic Invocation Interface), IFR (Interface Repository) und die generischen Datentypen Any und DynAny (dynamisches Any) im Detail untersucht. Ziel ist es, a. konkrete Aussagen über diese Komponenten zu erzielen, und festzustellen, in welchem Umfeld diese generischen Ansätze ihre Berechtigung finden. b. das zeitliche Verhalten der dynamischen Komponenten bzgl. der Informationsgewinnung über die unbekannten Objekte zu analysieren. c. das zeitliche Verhalten der dynamischen Komponenten bzgl. ihrer Kommunikation zu messen. d. das zeitliche Verhalten bzgl. der Erzeugung von generischen Datentypen und das Einstellen von Daten zu messen und zu analysieren. e. das zeitliche Verhalten bzgl. des Erstellens von unbekannten, d. h. nicht in IDL beschriebenen Datentypen zur Laufzeit zu messen und zu analysieren. f. die Vorzüge/Nachteile der dynamischen Komponenten aufzuzeigen, ihre Einsatzgebiete zu definieren und mit anderen Technologien wie COM/DCOM, J2EE und den Web Services bzgl. ihrer Möglichkeiten zu vergleichen. g. Aussagen bzgl. enger und loser Koppelung zu tätigen. CORBA wird als standardisierte und vollständige Verteilungsplattform ausgewählt, um die o. a. Problemstellungen zu untersuchen. Bzgl. seines dynamischen Verhaltens, das zum Zeitpunkt dieser Ausarbeitung noch nicht oder nur unzureichend untersucht wurde, sind CORBA und die Web Services richtungsweisend bzgl. a. Arbeiten mit unbekannten Objekten. Dies kann durchaus Implikationen bzgl. der Entwicklung intelligenter Softwareagenten haben. b. der Integration von Legacy-Applikationen. c. der Möglichkeiten im Zusammenhang mit B2B (Business-to-Business). Diese Problemstellungen beinhalten auch allgemeine Fragen zum Marshalling/Unmarshalling von Daten und welche Aufwände hierfür notwendig sind, ebenso wie allgemeine Aussagen bzgl. der Echtzeitfähigkeit von CORBA-basierten, verteilten Anwendungen. Die Ergebnisse werden anschließend auf andere Technologien wie COM/DCOM, J2EE und den Web Services, soweit es zulässig ist, übertragen. Die Vergleiche CORBA mit DCOM, CORBA mit J2EE und CORBA mit Web Services zeigen im Detail die Eignung dieser Technologien bzgl. loser und enger Koppelung. Desweiteren werden aus den erzielten Resultaten allgemeine Konzepte bzgl. der Architektur und der Optimierung der Kommunikation abgeleitet. Diese Empfehlungen gelten uneingeschränkt für alle untersuchten Technologien im Zusammenhang mit verteilter Verarbeitung.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Tethered bilayer lipid membranes provide an efficient, stable and versatile platform for the investigation of integrated membrane proteins. However, the incorporation of large proteins, as well as of proteins with a large submembrane part is still a very critical issue and therefore, further optimisation of the system is necessary. The central element of a tBLM is a lipid bilayer. Its proximal leaflet is, at least to some extend, covalently attached to a solid support via a spacer group. The anchor lipid consists of three distinct parts, a lipid headgroup, a spacer group and an anchor. All parts together influence the final bilayer properties. In the frame of this work, the synthesis of new thiolipids for tBLMs on gold has been investigated. The aim was to obtain molecules with longer spacers in order to increase the submembrane space. The systems obtained have been characterized using SPR and EIS. The results obtained during this study are multiple. First, the synthesis of a previously synthesized architecture was successfully scaled up in an industrial lab using a new synthetic approach. The synthesis of large amounts is now feasible. Then, the synthesis of the new thiolipids was carried out taking into account the following requirements: the increase of the submembrane space by having longer ethyleneglycol spacers, the attachment of the molecules to a gold substrate via a thiol bond, and the tunability of the lateral mobility by changing the lipid headgroup. Three different synthetic strategies have been investigated. The polymeric approach did not prove to be successful, merely because of the broad molecular weight distribution. The synthesis of heterofunctionally protected oligoethyleneglycols allowed to obtain ethyleneglycol moieties with 6 and 8 units, but the tedious purification steps gave very low yields. Finally, the block by block synthesis using ethyleneglycol precursors proved to be an efficient and fast method to synthesize the target molecules. Indeed, these were obtained with very high yields, and the separation was very efficient. A whole family of new compounds was obtained, having 6, 8 and 14 ethyleneglycol units and with mono- or diphytanyl lipid headgroups. This new pathway is a very promising synthetic strategy that can be used further in the development of new compounds of the tether system. The formation of bilayers was investigated for the different thiolipids mainly by using EIS. The electrical properties of a bilayer define the quality of the membrane and allow the study of the functionality of proteins embedded in such a system. Despite multiple trials to improve the system using self assembly, Langmuir Blodgett transfer, and detergent mixed vesicles, the new polymer thiolipids did not show as high electrical properties as tBLMs reported in the literature. Nevertheless, it was possible to show that a bilayer could be obtained for the different spacer lengths. These bilayers could be formed using self assembly for the first monolayer, and two different methods for bilayer formation, namely vesicle fusion and solvent exchange. We could furthermore show functional incorporation of the ion carrier valinomycin: the selective transport of K+ ions could be demonstrated. For DPHL, it was even possible to show the functional incorporation of the ion channel gramicidin. The influence of the spacer length is translated into an increase of the spacer capacitance, which could correspond to an increase in the capacity of charge accumulation in the submembrane space. The different systems need to be further optimised to improve the electrical properties of the bilayer. Moreover, the incorporation of larger proteins, and proteins bearing submembrane parts needs to be investigated.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Berechnung von experimentell überprüfbaren Vorhersagen aus dem Standardmodell mit Hilfe störungstheoretischer Methoden ist schwierig. Die Herausforderungen liegen in der Berechnung immer komplizierterer Feynman-Integrale und dem zunehmenden Umfang der Rechnungen für Streuprozesse mit vielen Teilchen. Neue mathematische Methoden müssen daher entwickelt und die zunehmende Komplexität durch eine Automatisierung der Berechnungen gezähmt werden. In Kapitel 2 wird eine kurze Einführung in diese Thematik gegeben. Die nachfolgenden Kapitel sind dann einzelnen Beiträgen zur Lösung dieser Probleme gewidmet. In Kapitel 3 stellen wir ein Projekt vor, das für die Analysen der LHC-Daten wichtig sein wird. Ziel des Projekts ist die Berechnung von Einschleifen-Korrekturen zu Prozessen mit vielen Teilchen im Endzustand. Das numerische Verfahren wird dargestellt und erklärt. Es verwendet Helizitätsspinoren und darauf aufbauend eine neue Tensorreduktionsmethode, die Probleme mit inversen Gram-Determinanten weitgehend vermeidet. Es wurde ein Computerprogramm entwickelt, das die Berechnungen automatisiert ausführen kann. Die Implementierung wird beschrieben und Details über die Optimierung und Verifizierung präsentiert. Mit analytischen Methoden beschäftigt sich das vierte Kapitel. Darin wird das xloopsnosp-Projekt vorgestellt, das verschiedene Feynman-Integrale mit beliebigen Massen und Impulskonfigurationen analytisch berechnen kann. Die wesentlichen mathematischen Methoden, die xloops zur Lösung der Integrale verwendet, werden erklärt. Zwei Ideen für neue Berechnungsverfahren werden präsentiert, die sich mit diesen Methoden realisieren lassen. Das ist zum einen die einheitliche Berechnung von Einschleifen-N-Punkt-Integralen, und zum anderen die automatisierte Reihenentwicklung von Integrallösungen in höhere Potenzen des dimensionalen Regularisierungsparameters $epsilon$. Zum letzteren Verfahren werden erste Ergebnisse vorgestellt. Die Nützlichkeit der automatisierten Reihenentwicklung aus Kapitel 4 hängt von der numerischen Auswertbarkeit der Entwicklungskoeffizienten ab. Die Koeffizienten sind im allgemeinen Multiple Polylogarithmen. In Kapitel 5 wird ein Verfahren für deren numerische Auswertung vorgestellt. Dieses neue Verfahren für Multiple Polylogarithmen wurde zusammen mit bekannten Verfahren für andere Polylogarithmus-Funktionen als Bestandteil der CC-Bibliothek ginac implementiert.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Photorezeptorzellen der Vertebraten sind hoch spezialisierte, visuell sensorische Neurone in der Retina, die die Lichtinformation in ein neuronales Signal umwandeln. Durch ihre Einbindung in die Retina im Gesamtorgan Auge, sind Photorezeptorzellen im Organismus für zellbiologische Analysen, wie beispielsweise unter Einsatz pharmakologischer Substanzen, nur schwer zugänglich. Demgegenüber ist bei der Nutzung von Zellkulturtechniken eine Beeinflussung oder externe Manipulation von Zellen mit geringem Aufwand möglich. Bei Etablierungsversuchen von Primärkulturen von Photorezeptorzellen zeigte sich jedoch, dass diese rasch ihre spezifische Kompartimentierung und das damit verbundene (lichtsensitive) Funktionsvermögen verlieren. Eine Alternative zur Einzelzellkultur bietet die Kultivierung der Retina als organotypisches Gewebe, in der, durch den überlebenswichtigen Kontakt der retinalen Zellen zu einander, deren Morphologie und Funktionsvermögen erhalten bleibt. In der vorliegenden Arbeit konnte durch Optimierung der Kultivierungstechnik erstmals die adulte Retina für mehrere Tage intakt kultiviert und deren Vitalität und physiologische Aktivität nachgewiesen werden. Nach dem Nachweis der Eignung der organotypischen Retinakultur, stand diese nun für zellbiologische Analysen von Photorezeptorzellen zur Verfügung. Die Langzeitadaptation von Photorezeptorzellen geht einher mit der Translokation der Proteine Arrestin und Transducin. Doch sind die zugrunde liegenden molekularen Mechanismen dieser lichtabhängigen molekularen Bewegungen bislang noch nicht verstanden. Im Kontext der Diskussion um Diffusion oder aktivem Transport der genannten Translokationen, wurden in der vorliegenden Arbeit Experimente zur Abhängigkeit vom Cytoskelett durchgeführt. Die Ergebnisse zeigen, dass die gegensätzlichen Translokationen von Arrestin und Transducin während der Dunkeladaptation vom Aktin-, als auch Mikrotubulicytoskelett abhängig sind. Demgegenüber sind es die während der Helladaptation stattfindenden Translokationen nicht. Diese Befunde verweisen damit auf unterschiedliche Mechanismen für die untersuchten molekularen Bewegungen während der Dunkel- und Helladaptation, und das im Falle des Arrestins auch verschieden Mechanismen zusammen oder in einer Abfolge für die Bewegung durch verschiedene Zellkompartimente notwendig sind. Darüber hinaus konnte in der vorliegenden Arbeit die Eignung der Retinakulturtechnik für Gentransfers in retinale Zellen mittels verschiedener Methoden gezeigt werden. Die organotypische Gewebekultur der adulten Retina erweist sich als ein Analysesystem mit dem zellbiologische Untersuchungen an ausdifferenzierten Photorezeptorzellen durchgeführt werden können, die im lebenden Tier, bzw. der Zellkultur nicht möglich sind. Erfolgreiche Pharmakologische Beeinflussung, sowie Gentransfer in Zellen der Retinakultur prädestinieren die Retinakultur für zellbiologische und Proteinfunktionsanalysen. Dabei kann sie ferner als Modellsystem zur Evaluation von Therapiestrategien zu Retinadystrophien dienen und das ohne, oder zumindest in einer Reduktion von Tierversuchen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Here, we present the adaptation and optimization of (i) the solvothermal and (ii) the metal-organic chemical vapor deposition (MOCVD) approach as simple methods for the high-yield synthesis of MQ2 (M=Mo, W, Zr; Q = O, S) nanoparticles. Extensive characterization was carried out using X-ray diffraction (XRD), scanning and transmission electron micros¬copy (SEM/TEM) combined with energy dispersive X-ray analysis (EDXA), Raman spectroscopy, thermal analyses (DTA/TG), small angle X-ray scattering (SAXS) and BET measurements. After a general introduction to the state of the art, a simple route to nanostructured MoS2 based on the decomposition of the cluster-based precursor (NH4)2Mo3S13∙xH2O under solvothermal conditions (toluene, 653 K) is presented. Solvothermal decomposition results in nanostructured material that is distinct from the material obtained by decomposition of the same precursor in sealed quartz tubes at the same temperature. When carried out in the presence of the surfactant cetyltrimethyl¬ammonium bromide (CTAB), the decomposition product exhibits highly disordered MoS2 lamellae with high surface areas. The synthesis of WS2 onion-like nanoparticles by means of a single-step MOCVD process is discussed. Furthermore, the results of the successful transfer of the two-step MO¬CVD based synthesis of MoQ2 nanoparticles (Q = S, Se), comprising the formation of amorphous precursor particles and followed by the formation of fullerene-like particles in a subsequent annealing step to the W-S system, are presented. Based on a study of the temperature dependence of the reactions a set of conditions for the formation of onion-like structures in a one-step reaction could be derived. The MOCVD approach allows a selective synthesis of open and filled fullerene-like chalcogenide nanoparticles. An in situ heating stage transmission electron microscopy (TEM) study was employed to comparatively investigate the growth mechanism of MoS2 and WS2 nanoparticles obtained from MOCVD upon annealing. Round, mainly amorphous particles in the pristine sample trans¬form to hollow onion-like particles upon annealing. A significant difference between both compounds could be demonstrated in their crystallization conduct. Finally, the results of the in situ hea¬ting experiments are compared to those obtained from an ex situ annealing process under Ar. Eventually, a low temperature synthesis of monodisperse ZrO2 nanoparticles with diameters of ~ 8 nm is introduced. Whereas the solvent could be omitted, the synthesis in an autoclave is crucial for gaining nano-sized (n) ZrO2 by thermal decomposition of Zr(C2O4)2. The n-ZrO2 particles exhibits high specific surface areas (up to 385 m2/g) which make them promising candidates as catalysts and catalyst supports. Co-existence of m- and t-ZrO2 nano-particles of 6-9 nm in diameter, i.e. above the critical particle size of 6 nm, demonstrates that the particle size is not the only factor for stabilization of the t-ZrO2 modification at room temperature. In conclusion, synthesis within an autoclave (with and without solvent) and the MOCVD process could be successfully adapted to the synthesis of MoS2, WS2 and ZrO2 nanoparticles. A comparative in situ heating stage TEM study elucidated the growth mechanism of MoS2 and WS2 fullerene-like particles. As the general processes are similar, a transfer of this synthesis approach to other layered transition metal chalcogenide systems is to be expected. Application of the obtained nanomaterials as lubricants (MoS2, WS2) or as dental filling materials (ZrO2) is currently under investigation.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Antigen-kodierende RNA wird als eine sichere und effiziente Alternative zu traditionellen Impfstoff-Formulierungen, wie Peptid-, Protein-, rekombinanten viralen oder DNA basierten Impfstoffen betrachtet. Der endgültige klinische Nutzen RNA-basierter Impfstoffe wird von der Optimierung verschiedener Parameter abhängig sein, die zur Induktion und effizienten Expansion der humoralen und zellvermittelten Immunantwort beitragen. Vor diesem Hintergrund war die Zielsetzung der vorliegenden Arbeit, die Etablierung pharmakologischer und immunologischer Parameter für die Generierung effektiver Immunantworten durch RNA-Impfstoffe sowie deren Wirksamkeit in vitro und im Mausmodell unter Nutzung von Modellantigenen zu testen. Zur Untersuchung und Optimierung der RNA-Pharmakokinetik, als einem Schlüsselaspekt der klinischen Medikamentenentwicklung, wurde der Einfluss von strukturellen Modifikationen auf die Transkriptstabilität und Translationseffizienz von Reporter-Proteinen in einer zeitabhängigen Kinetik evaluiert. Es wurde gezeigt, dass ein poly(A) Schwanz von 120 Adenosinen, verglichen mit einem kürzeren, ein freies 3´ poly(A) Ende, verglichen mit einem verdeckten und eine doppelte β-globin 3´ UTR, unabhängig voneinander zu einer Erhöhung der IVT-RNA Stabilität und zu einer Verbesserung der Translationseffizienz beitrugen und dadurch insgesamt zu einer erhöhten Proteinexpression führten. Antigen-kodierende IVT-RNA mit diesen molekularen Merkmalen in Kombination führte, im Vergleich zur Standard IVT-RNA, zu einer erhöhten Dichte und Stabilität von Peptid/MHC-Komplexen auf der Zelloberfläche transfizierter DCs und dadurch zu einer verbesserten Stimulation von CD4+ und CD8+ T-Zellen im murinen und humanen System. Mit dem Ziel, die RNA kodierte Antigenform für die Induktion einer verstärkten Antikörperantwort zu modifizieren, wurde im zweiten Teil der Arbeit ein Antigen-IgM Fusionskonstrukt hergestellt und hinsichtlich seiner Eignung als neues Impfstoff-Format untersucht. Die Ausgangshypothese, dass die RNA kodierten Antigen-IgM Fusionsproteine polymerisieren, von transfizierten Zellen sezerniert werden und aufgrund der repetitiven Antigenstruktur im Vergleich mit dem monomeren Antigen zu einer Verstärkung der Antikörperantwort führen, wurde in vitro und in vivo im Mausmodell bestätigt. Die Entwicklung und Evaluierung von Zytokinfusionsproteinen zur selektiven Verstärkung der antigenspezifischen Immunantworten bildeten den dritten Schwerpunkt der vorliegenden Arbeit. Zur weiteren Verstärkung der Antikörperantwort wurde basierend auf den Resultaten aus dem zweiten Teil ein IL2-IgM Fusionskonstrukt hergestellt. Die Ko-Transfektion von Antigen-IgM und IL2-IgM kodierender IVT-RNA führte zu einer signifikant stärkeren Antikörperantwort als die Ko-Transfektion von Antigen-IgM und IL2. Für die Initiierung einer erfolgreichen anti-Tumor-Immunantwort ist das Priming antigenspezifischer T-Zellen essentiell. Um die Effizienz dieses Prozesses zu steigern, wurde ein bifunktionelles IL2-mCD40L Fusionskonstrukt hergestellt und sein Einfluss auf die Effektorfunktion von DCs in vitro und in vivo untersucht. Es wurde gezeigt, dass ein RNA kodiertes IL2-mCD40L Fusionsprotein als genetisches Adjuvanz zu einer Effizienzsteigerung des Priming zytotoxischer T-Zellen führt. Somit wurden in dieser Arbeit durch die Optimierung der Pharmakokinetik, die Modifikation der Antigenform und die Herstellung und Evaluierung von Zytokinfusionskonstrukten als genetische Adjuvantien, RNA-basierte Impfstoffe für eine optimierte Induktion von antigenspezifischen Immunantworten weiter verbessert.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Recent developments in the theory of plasma-based collisionally excited x-ray lasers (XRL) have shown an optimization potential based on the dependence of the absorption region of the pumping laser on its angle of incidence on the plasma. For the experimental proof of this idea, a number of diagnostic schemes were developed, tested, qualified and applied. A high-resolution imaging system, yielding the keV emission profile perpendicular to the target surface, provided positions of the hottest plasma regions, interesting for the benchmarking of plasma simulation codes. The implementation of a highly efficient spectrometer for the plasma emission made it possible to gain information about the abundance of the ionization states necessary for the laser action in the plasma. The intensity distribution and deflection angle of the pump laser beam could be imaged for single XRL shots, giving access to its refraction process within the plasma. During a European collaboration campaign at the Lund Laser Center, Sweden, the optimization of the pumping laser incidence angle resulted in a reduction of the required pumping energy for a Ni-like Mo XRL, which enabled the operation at a repetition rate of 10 Hz. Using the experiences gained there, the XRL performance at the PHELIX facility, GSI Darmstadt with respect to achievable repetition rate and at wavelengths below 20 nm was significantly improved, and also important information for the development towards multi-100 eV plasma XRLs was acquired. Due to the setup improvements achieved during the work for this thesis, the PHELIX XRL system now has reached a degree of reproducibility and versatility which is sufficient for demanding applications like the XRL spectroscopy of heavy ions. In addition, a European research campaign, aiming towards plasma XRLs approaching the water-window (wavelengths below 5 nm) was initiated.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

N-Vinylamidderivate sind eine toxikologische unbedenkliche Monomerklasse. Mit diesen Monomeren wurden verschiedene technische Anwendungsgebiete im Bereich der Kern-Schale-Partikel und der fließfähigen und vernetzten Hydrogele untersucht. Kern-Schale-Partikel Für die Synthese von Kern-Schale-Partikeln wurden die N-Vinylamidderivate als Schalenpolymere auf kommerziellen Poly(styrol-stat.-butadien)-Kernpartikeln aufpolymerisiert. Mit Hilfe verschiedener Untersuchungsmethoden (DLS, SEM, FFF, Ultrazentrifuge) wurde die Kern-Schale-Strukturbildung und die Effizienz der Pfropfungsreaktion untersucht und eine erfolgreiche Synthese der Kern-Schale-Partikel belegt. Durch die gezielte Modifizierung des Schalenpolymers wurde ein kationisches, organisches Mikropartikelsystem entwickelt, charakterisiert und auf die Eignung als „Duales Flockungsmittel“ untersucht. Diese Versuche belegten die Eignung der modifizierten Kern-Schale-Partikel als „Duales Flockungsmittel“ und bieten eine Alternative zu kommerziell verwendeten Retentionsmitteln. Außerdem wurden die filmbildenden Eigenschaften der Poly(N﷓vinylformamid)-Kern-Schale-Dispersionen untersucht. Nach der Verfilmung der Dispersionen wurden transparente und harte Filme erhalten. Die Auswirkungen auf die mechanischen Eigenschaften der Filme wurden durch die Variation verschiedener Parameter eingehend studiert. Auf der Basis dieser Partikel wurden selbstvernetzende Dispersionssysteme entwickelt. Das P﷓(VFA)-Schalenpolymer wurde teilweise hydrolysiert und die generierten freien Aminogruppen des Poly(N-vinylamins) durch eine Michael-Addition mit einem divinylfunktionalisierten Acrylat (Tetraethylenglykoldiacrylat) vernetzt. Untersuchungen zur mechanischen Beständigkeit der Filme zeigten bei geringen Vernetzungsgraden eine deutliche Optimierung der maximalen Zugbelastungen. Die Untersuchungen belegten, dass die Verwendung des selbstvernetzenden Dispersionssystems als Dispersion für eine Polymerbeschichtung möglich ist. Hydrogele Die Synthese von fließfähigen und quervernetzten Hydrogelen erfolgte auf der Basis verschiedener N﷓Vinylamide. Mit Hilfe geeigneter Vernetzer wurden feste Hydrogelplatten synthetisiert und für die Auftrennung von DNA-Sequenzen mit Hilfe der Gelelektrophorese verwendet. Scharfe und gute Auftrennung der verschiedenen „DNA-Ladder Standards“ wurden durch die Variation des Vernetzeranteils, der Polymerzusammensetzung, der angelegten Spannung und der Verweilzeit in der Gelelektrophoresekammer mit P﷓(MNVA)-Hydrogelplatten erreicht. Fließfähige und quervernetzte Elektrolytgele auf Poly-(N-vinylamid)-Basis wurden in wartungsfreien pH﷓Elektroden eingesetzt. Die Eignung dieser Hydrogele wurden in Bezug auf die Anwendung eingehend charakterisiert. Elektroden befüllt mit Poly(N-vinylamid)-Gelen wurden in Dauerbelastungsexperimenten, direkt mit kommerziellen pH﷓Elektroden verglichen. Es konnte gezeigt werden, dass die fließfähigen und quervernetzten Poly-(N-vinylamid)-Elektrolytgele in ihren Messeigenschaften gleichwertige bzw. bessere Potentialstabilitäten aufweisen als kommerzielle Referenzelektroden. Die Hydrogele auf Basis von Poly(N-vinylamidderivaten) boten für die beiden getesteten Anwendungen eine toxikologisch unbedenkliche Alternative zu Poly(acrylamid)-Gelen. In dieser Arbeit konnten die durchgeführten Untersuchungen belegen, dass N﷓Vinylamide eine attraktive Monomerklasse ist, die erfolgreich in vielen technischen Anwendungen einsetzbar ist.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

„Risikomaße in der Finanzmathematik“ Der Value-at -Risk (VaR) ist ein Risikomaß, dessen Verwendung von der Bankenaufsicht gefordert wird. Der Vorteil des VaR liegt – als Quantil der Ertrags- oder Verlustverteilung - vor allem in seiner einfachen Interpretierbarkeit. Nachteilig ist, dass der linke Rand der Wahrscheinlichkeitsverteilung nicht beachtet wird. Darüber hinaus ist die Berechnung des VaR schwierig, da Quantile nicht additiv sind. Der größte Nachteil des VaR ist in der fehlenden Subadditivität zu sehen. Deswegen werden Alternativen wie Expected Shortfall untersucht. In dieser Arbeit werden zunächst finanzielle Risikomaße eingeführt und einige ihre grundlegenden Eigenschaften festgehalten. Wir beschäftigen uns mit verschiedenen parametrischen und nichtparametrischen Methoden zur Ermittlung des VaR, unter anderen mit ihren Vorteilen und Nachteilen. Des Weiteren beschäftigen wir uns mit parametrischen und nichtparametrischen Schätzern vom VaR in diskreter Zeit. Wir stellen Portfoliooptimierungsprobleme im Black Scholes Modell mit beschränktem VaR und mit beschränkter Varianz vor. Der Vorteil des erstens Ansatzes gegenüber dem zweiten wird hier erläutert. Wir lösen Nutzenoptimierungsprobleme in Bezug auf das Endvermögen mit beschränktem VaR und mit beschränkter Varianz. VaR sagt nichts über den darüber hinausgehenden Verlust aus, während dieser von Expected Shortfall berücksichtigt wird. Deswegen verwenden wir hier den Expected Shortfall anstelle des von Emmer, Korn und Klüppelberg (2001) betrachteten Risikomaßes VaR für die Optimierung des Portfolios im Black Scholes Modell.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die regionale Bestimmung der Durchblutung (Perfusion) ermöglicht differenzierte Aussagen über den Gesundheitszustand und die Funktionalität der Lunge. Durch neue Messverfahren ermöglicht die Magnetresonanztomographie (MRT) eine nicht-invasive und strahlungsfreie Untersuchung der Perfusion. Obwohl die Machbarkeit qualitativer MRT-Durchblutungsmessungen bereits gezeigt wurde, fehlt bisher eine validierte quantitative Methode. Ziel dieser Arbeit war eine Optimierung der bestehenden Messprotokolle und mathematischen Modelle zur Absolutquantifizierung der Lungenperfusion mit Magnetresonanztomographie. Weiterhin sollte die Methodik durch Vergleich mit einem etablierten Referenzverfahren validiert werden. Durch Simulationen und Phantommessungen konnten optimale MRT-Messparameter und ein standardisiertes Protokoll festgelegt werden. Des Weiteren wurde eine verallgemeinerte Bestimmung der Kontrastmittelkonzentration aus den gemessenen Signalintensitäten vorgestellt, diskutiert und durch Probandenmessungen validiert. Auf der Basis dieser Entwicklungen wurde die MRT-Durchblutungsmessung der Lunge tierexperimentell mit der Positronenemissionstomographie (PET) intraindividuell verglichen und validiert. Die Ergebnisse zeigten nur kleine Abweichungen und eine statistisch hochsignifikante, stark lineare Korrelation. Zusammenfassend war es durch die Entwicklungen der vorgestellten Arbeit möglich, die kontrastmittelgestützte MRT-Durchblutungsmessung der Lunge zu optimieren und erstmals zu validieren.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Durch globale Expressionsprofil-Analysen auf Transkriptom-, Proteom- oder Metabolom-Ebene können biotechnologische Produktionsprozesse besser verstanden und die Erkenntnisse für die zielgerichtete, rationale Optimierung von Expressionssystemen genutzt werden. In der vorliegenden Arbeit wurde die Überexpression einer Glukose-Dehydrogenase (EC 1.1.5.2), die von der Roche Diagnostics GmbH für die diagnostische Anwendung optimiert worden war, in Escherichia coli untersucht. Die Enzymvariante unterscheidet sich in sieben ihrer 455 Aminosäuren vom Wildtyp-Enzym und wird im sonst isogenen Wirt-/Vektor-System in signifikant geringeren Mengen (Faktor 5) gebildet. Das prokaryontische Expressionssystem wurde auf Proteom-Ebene charakterisiert. Die 2-dimensionale differenzielle Gelelektrophorese (DIGE) wurde zuvor unter statistischen Aspekten untersucht. Unter Berücksichtigung von technischen und biologischen Variationen, falsch-positiven (α-) und falsch-negativen (β-) Fehlern sowie einem daraus abgeleiteten Versuchsdesign konnten Expressionsunterschiede als signifikant quantifiziert werden, wenn sie um den Faktor ≥ 1,4 differierten. Durch eine Hauptkomponenten-Analyse wurde gezeigt, dass die DIGE-Technologie für die Expressionsprofil-Analyse des Modellsystems geeignet ist. Der Expressionsstamm für die Enzymvariante zeichnete sich durch eine höhere Variabilität an Enzymen für den Zuckerabbau und die Nukleinsäure-Synthese aus. Im Expressionssystem für das Wildtyp-Enzym wurde eine unerwartet erhöhte Plasmidkopienzahl nachgewiesen. Als potenzieller Engpass in der Expression der rekombinanten Glukose-Dehydrogenase wurde die Löslichkeitsvermittlung identifiziert. Im Expressionsstamm für das Wildtyp-Enzym wurden viele Proteine für die Biogenese der äußeren Membran verstärkt exprimiert. Als Folge dessen wurde ein sog. envelope stress ausgelöst und die Zellen gingen in die stationäre Wuchsphase über. Die Ergebnisse der Proteomanalyse wurden weiterführend dazu genutzt, die Produktionsleistung für die Enzymvariante zu verbessern. Durch den Austausch des Replikationsursprungs im Expressionsvektor wurde die Plasmidkopienzahl erhöht und die zelluläre Expressionsleistung für die diagnostisch interessantere Enzymvariante um Faktor 7 - 9 gesteigert. Um die Löslichkeitsvermittlung während der Expression zu verbessern, wurde die Plasmidkopienzahl gesenkt und die Coexpression von Chaperonen initiiert. Die Ausbeuten aktiver Glukose-Dehydrogenase wurden durch die Renaturierung inaktiven Produkts aus dem optimierten Expressionssystem insgesamt um einen Faktor von 4,5 erhöht. Somit führte im Rahmen dieser Arbeit eine proteombasierte Expressionsprofil-Analyse zur zielgerichteten, rationalen Expressionsoptimierung eines prokaryontischen Modellsystems.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The central aim of this thesis work is the application and further development of a hybrid quantum mechanical/molecular mechanics (QM/MM) based approach to compute spectroscopic properties of molecules in complex chemical environments from electronic structure theory. In the framework of this thesis, an existing density functional theory implementation of the QM/MM approach is first used to calculate the nuclear magnetic resonance (NMR) solvent shifts of an adenine molecule in aqueous solution. The findings show that the aqueous solvation with its strongly fluctuating hydrogen bond network leads to specific changes in the NMR resonance lines. Besides the absolute values, also the ordering of the NMR lines changes under the influence of the solvating water molecules. Without the QM/MM scheme, a quantum chemical calculation could have led to an incorrect assignment of these lines. The second part of this thesis describes a methodological improvement of the QM/MM method that is designed for cases in which a covalent chemical bond crosses the QM/MM boundary. The development consists in an automatized protocol to optimize a so-called capping potential that saturates the electronic subsystem in the QM region. The optimization scheme is capable of tuning the parameters in such a way that the deviations of the electronic orbitals between the regular and the truncated (and "capped") molecule are minimized. This in turn results in a considerable improvement of the structural and spectroscopic parameters when computed with the new optimized capping potential within the QM/MM technique. This optimization scheme is applied and benchmarked on the example of truncated carbon-carbon bonds in a set of small test molecules. It turns out that the optimized capping potentials yield an excellent agreement of NMR chemical shifts and protonation energies with respect to the corresponding full molecules. These results are very promising, so that the application to larger biological complexes will significantly improve the reliability of the prediction of the related spectroscopic properties.