328 resultados para diskrete Elemente Methode
Resumo:
Die Suche nach kosmischen Neutrinopunktquellen ist durch dieFrage motiviert, wo die hochenergetische Kosmische Strahlungim Universum entsteht. Wenn dort Hadronen beschleunigtwerden, sollten Mesonen produziert werden und daraushochenergetische Neutrinos entstehen. Diese können nahezuungestört die Erde erreichen. Die Identifikation einerNeutrinopunktquelle ist eines der zentralen Ziele desAMANDA-Neutrinoteleskopes am geographischen Südpol. In dieser Dissertation wird zunächst gezeigt, wie dieWinkelauflösung für jedes einzelne Neutrinoereignisindividuell bestimmt werden kann. Zudem stellt sich derWinkelfehlerschätzer als guter Qualitätsparameter zurUnterdrückung von Untergrundereignissen heraus. Die bisher zur Punktquellensuche verwendete Suchmethode kanndiese zusätzliche Information nicht verwenden, da es sich umein reines Zählverfahren handelt. Dadurch motiviert wird einneues Verfahren entwickelt, das auf der Methode der MaximumLikelihood basiert. Darin wird die Winkelauflösung für jedesEreignis in natürlicher Art und Weise integriert. Die erreichte Sensitivität der Maximum-Likelihood-Methodevon bar{Phi}_nu^90 approx 2cdot 10^-8 cm^-2 s^-1 istvergleichbar mit derjenigen der bisherigen Vorgehensweise.Die Ortsauflösung, mit der die Position eineridentifizierten Quelle bestimmt wird, ist um den Faktor ca.4 verbessert, und liegt bei etwa einem Grad. Ebenfalls neu ist der Wegfall von künstlichen Suchgittern,mit denen der Himmel bei der Suche nach Quellen unbekannterLage bisher eingeteilt worden ist. Stattdessen werdenkontinuierliche Funktionen der Himmelskoordinaten studiert. Die im Jahr 2000 aufgezeichneten Daten wurden einer Suchenach Neutrinopunktquellen unterzogen. Wie schon bei einervorherigen Suche mit der alten Vorgehensweis konnte keineQuelle identifiziert werden. Für die 30 untersuchtenKandidatenobjekte ergeben sich obere Grenzen in der Nähe derSensitivität. Das entwickelte Verfahren ist problemlos auf jedesExperiment übertragbar, das ein Entdeckungspotenzial fürPunktquellen hat.
Resumo:
ZusammenfassungDer humane kationische Aminosäure-Transporter hCAT-1 (CAT für cationic amino acid transporter) gehört zur Familie der Na+- und pH-unabhängigen Transporter für basische Aminosäuren (BAS). Die vorliegende Arbeit befasst sich mit unterschiedlichen Aspekten des hCAT-1-vermittelten Transportes, die in zwei Teilabschnitten behandelt werden. Im ersten Abschnitt wurden die Transporteigenschaften von hCAT-1-exprimierenden X. laevis-Oozyten mit Hilfe von elektrophysiologischen Methoden untersucht und mit denen der Isoformen hCAT-2A und -2B verglichen. Dabei zeigte sich, dass es durch die Expression von hCAT-2A und -2B in Oozyten zur Bildung eines BAS-Potentiales kommt, jedoch nicht durch die Expression von hCAT-1. Hierfür dürfte die hohe Transstimulierbarkeit des hCAT-1-Proteins verantwortlich sein. Obwohl das Membranpotential einer Zelle die Akkumulation von BAS durch die hCAT-Proteine beeinflusst, war bei sehr hohen extrazellulären BAS-Konzentrationen die Akkumulation durch hCAT-1 und -2B im Gegensatz zu hCAT-2A nicht vom Membranpotential abhängig, da unter diesen Bedingungen der Efflux limitierend wirkte. Mit Hilfe der voltage clamp-Methode wurden die L-Arginin-induzierten Maximalströme (Vmax) und die Leitfähigkeiten der hCAT-Proteine bestimmt. Die so ermittelten Vmax-Werte sind nur halb so groß wie die durch Flux-Studien bestimmten. Daher muss von einem Gegentransport an positiver Ladung (Substrat) ausgegangen werden. Weiterhin konnte gezeigt werden, dass die hCAT-Isoformen zwei unterschiedliche Leitfähigkeitszustände für BAS besitzen, die von der intrazellulären BAS-Konzentration abhängig sind. Eine Leitfähigkeitszunahme durch Zugabe von extrazellulärem L-Arginin konnte bei allen hCAT-Isoformen in depletierten Oozyten beobachtet werden. In BAS-beladenen Oozyten führte die Zugabe von L-Arginin dagegen zu keiner (hCAT-1 und hCAT-2B) bzw. zu einer geringen (hCAT-2A) Zunahme der Leitfähigkeit der Transporter. Im Substratgleichgewicht jedoch nahm die Leitfähigkeit der drei untersuchten hCAT-Isoformen in Abhängigkeit von der Substratkonzentration zu. Überraschenderweise wurden für die untersuchten hCAT-Isoformen Leck-Ströme in Abwesenheit von BAS nachgewiesen. An hCAT-2B-exprimierenden Oozyten wurde eine erhöhte Leitfähigkeit für K+-Ionen gezeigt. Die physiologische Bedeutung dieser Kanalfunktion ist jedoch noch völlig ungeklärt. Im zweiten Abschnitt wurde der Mechanismus der Proteinkinase C (PKC)-vermittelten Inhibition der hCAT-1-Transportaktivität untersucht. Hierfür wurden hCAT-1.EGFP-Konstrukte in Oozyten und in U373MG Glioblastom-Zellen exprimiert. Mit Hilfe konfokaler Mikroskopie und Western-Blot-Analysen von biotinylierten Zelloberflächen-Proteinen wurde gezeigt, dass die PKC-vermittelte Reduktion der hCAT-1-Transportaktivität auf einer Reduktion der hCAT-Expression an der Zelloberfläche beruht. Ähnliche Ergebnisse wurden auch mit dem endogen in humanen DLD-1 Kolonkarzinom-Zellen exprimierten hCAT-1 erzielt. Der PKC-Effekt war auch noch nach Entfernung der putativen PKC-Erkennungsstellen am hCAT-1-Protein vorhanden. Daher reguliert die PKC die hCAT-1-Transportaktivität vermutlich über einen indirekten Mechanismus, d. h. nicht über eine direkte Phosphorylierung des hCAT-1-Proteins. Die Veränderung der Zelloberflächenexpression stellt einen neuen Regulationsmechanismus für die CAT-Proteine dar, der erklären kann, warum sich Modifikationen in der CAT-Proteinexpression oft nicht in entsprechenden Veränderungen der Transportaktivität widerspiegeln.
Resumo:
Diese Dissertation stellt das neu entwickelte SystemRelAndXML vor, das für das Management und dieSpeicherung von hypertextzentrierten XML-Dokumenten und dendazugehörenden XSL-Stylesheets spezialisiert ist. DerAnwendungsbereich sind die Vorlesungsmaterialien anUniversitäten. RelAndXML speichert die XML-formatiertenÜbungsblätter in Textbausteinen und weiterenTeilen in einer speziellen Datenbank.Die Speicherung von XML-Dokumenten in Datenbanken ist seiteinigen Jahren ein wichtiges Thema der Datenbankforschung.Ansätze dafür gliedern sich in solche fürdatenzentrierte und andere für dokumentenzentrierteDokumente. Die Dissertation präsentiert einen Ansatzzur Speicherung von hypertextzentrierten XML-Dokumenten, derAspekte von datenzentrierten und dokumentenzentriertenAnsätzen kombiniert. Der Ansatz erlaubt dieWiederverwendung von Textbausteinen und speichert dieReihenfolge dort, wo sie wichtig ist. Mit RelAndXML könnennicht nur Elemente gespeichert werden, wie mit einigenanderen Ansätzen, sondern auch Attribute, Kommentareund Processing Instructions. Algorithmen für dieFragmentierung und Rekonstruktion von Dokumenten werdenbereit gestellt.RelAndXML wurde mit Java und unter Verwendung einerobjektrelationalen Datenbank implementiert. Das System hateine graphische Benutzungsoberfläche, die das Erstellenund Verändern der XML- und XSL-Dokumente, dasEinfügen von neuen oder schon gespeichertenTextbausteinen sowie das Erzeugen von HTML-Dokumenten zurVeröffentlichung ermöglicht.
Methodische Entwicklung der MALDI-TOF-Massenspektrometrie für Grenzbereiche der Makromolekülanalytik
Resumo:
Ziel dieser Arbeit war die methodische Entwicklung der Matrix-unterstützten Laserdesorptions/Ionisations- (MALDI-) Time-of-Flight- (TOF-) Massenspektrometrie (MS) zur Charakterisierung von Makromolekülen. Durch geeignete Experimente und unter Berücksichtigung der Ergebnisse ergänzender analytischer Methoden wurden neue Möglichkeiten der MALDI-TOF-MS-Methode erarbeitet, deren bisherige Grenzen genauer definiert und auf Basis eines besseren Verständnisses der limitierenden Faktoren in vielen Fällen auch überwunden.Die MALDI-Probenpräparation gestaltet sich generell sehr komplex. Es konnte gezeigt werden, dass die lösungsmittelfreie Probenpräparation die MALDI-Analytik in der Art verbessert, dass erzielte Ergebnisse qualitativ (z.B. Auflösung, Genauigkeit) und quantitativ (z.B. Reproduzierbarkeit) zuverlässiger sind. Wichtige Vorteile der lösungsmittelfreien MALDI-TOF-MS konnten bei einem breiten Spektrum unterschiedlicher Analyten herausgearbeitet werden. Fragmentierungslabile Analyte waren charakterisierbar, da weniger Laserleistung für den Desorptionsschritt in das Probengemisch eingebracht werden musste. Oxidationslabile bzw. thermolabile Substanzen (z.B. Pigmente) konnten charakterisiert werden, da auf den Löseschritt verzichtet werden konnte, der zu unerwünschten Veränderungen des Analyten führen kann. Generell konnte gezeigt werden, dass diese Probenpräparation geeignet ist, um schwer- und unlösliche Substanzen wie z.B. Poly(dithiathianthren)e und Poly(fluoren)e zu charakterisieren. Entmischungseffekte (z.B. bei Poly(etherimid)en und Poly(dimethylsiloxan)en), die in der konventionellen Probenpräparation während des Verdampfungsschrittes des Lösungsmittels zu einer inhomogenen Kristallisation des MALDI-Probengemisches führen, können überwunden werden, da vollständig auf Lösungsmittel verzichtet wird. So konnten beispielsweise nur durch den gezielten Einsatz der lösungsmittelfreien MALDI-TOF-MS Polystyrol-Proben analysiert werden, bei denen trotz optimierter Bedingungen die lösungsmittelbasierende MALDI-TOF-MS aufgrund unerwünschter Lösungsmitteleinflüsse fälschliche Ergebnisse lieferte. Die lösungsmittelfreie Probenpräparation ist eine wichtige Ergänzung zur Charakterisierung von Makromolekülen und erschließt neue Bereiche der Analytik, insbesondere bei unlöslichen Verbindungen und bei Analyt Matrix-Entmischungsphänomenen. Das bisherige Verständnis des zugrundeliegenden MALDI-Prozesses postuliert den homogenen Einbau des Analyten in den Matrixkristall. Die äußerst positiven experimentellen Ergebnisse der lösungsmittelfreien MALDI-TOF-MS widersprechen jedoch dieser Modellvorstellung, da bei der angewendeten Probenpräparation eine Homogenisierung auf molekularer Ebene auszuschließen ist. Durch die lösungsmittelfreie MALDI-TOF-MS am Modellanalyten Cytochrom C konnte nachgewiesen werden, dass der Einbau eines Analyten in einen Matrixkristall nicht zwingend notwendig, sondern aufgrund der erhöhten einzubringenden Laserleistung sogar eher von Nachteil ist. Der MALDI-Prozess verläuft umso effektiver, je geringer die (Rest)-Kristallinität und je inniger der Kontakt zwischen Analyt und Matrix sind. Methodische Aspekte der Fragmentionenanalyse wurden zunächst an einfachen Homopolymeren erarbeitet. Durch den gezielten Einsatz der MALDI-Fragmentionenanalytik konnte im Folgenden z.B. erstmals direkt die Sequenzanalyse eines statistischen Copolymers und eines Triblockcopolymers durchgeführt werden. Abschließend wurden bei anwendungsorientierten Untersuchungen zur Charakterisierung problematischer Analyten mittels MALDI-TOF-MS zunächst die individuellen Schwachstellen festgelegt. Durch geeignete Probenpräparations- und Messbedingungen wurde dann die MALDI-TOF-MS-Methode zur direkten Analyse schwer charakterisierbarer, labiler bzw. unlöslicher Analyten und Substanzgemische ermöglicht (z.B. Dendrimere, Polyzyklische Aromatische Kohlenwasserstoffe, umweltrelevantes Poly(vinylpyrrolidon)). Dabei wurden qualitative und quantitative Aspekte berücksichtigt. Außerdem wurden die analytischen Möglichkeiten und Limitierungen zur Charakterisierung von supramolekularen Komplexen anhand geeigneter Modellsysteme (z.B. Cyclodextrine) ermittelt.
Resumo:
Basierend auf schriftlichen Quellen, hauptsächlich von 1881-1980 (ohne 1941-50), werden die raum-zeitlichen Eigenschaften von Gewittern mit Schäden im südlichen hessischen Berg- und Beckenland und im Rhein-Main-Tiefland (= UG) herausgestellt. Nach Auswertung des Materials in einer Datenbank erfolgt die Intensitätskategorisierung der Schadensvorgänge für gewitterbedingte Starkregen erstmals anhand der Ähnlichkeitsmerkmale von Folgeerscheinungen, für Blitzschlag erstmals nach Schadensaspekten sowie für Hagelschlag und Sturm mittels existierender und modifizierter Klassifizierungen. Diese Kategorisierungen können für alle Beschreibungen von Gewitterschadensereignissen in schriftlichen Quellen angewandt werden. Die einzelnen Phänomene zeigen deutlich voneinander abweichende Eigenschaften. So treten z.B. Starkregenschäden verstärkt im Frühsommer auf, Sturmschäden überwiegend erst im Hoch- und Spätsommer. Generell lassen sich zwei Jahresmaxima in der Gewitterschadenstätigkeit nachweisen (erste Junidekade, zweite Julihälfte). Schwergewitter mit Sturm (auch Hagel) aus SW-W verursachen überwiegend Schäden im südlichen und westlichen UG, aus W-N meist im nördlichen und östlichen UG. Gewitter mit Starkregenschäden dominieren im östlichen UG. Nach der hier vorgestellten Methode der Schadensschwerpunkte können für Schwergewitter aus dem westlichen Sektor (SW-W, W-N) Schwerpunktzugbahnen im UG gedeutet werden. Es wird die Möglichkeit aufgezeigt, die Schadensdatenauswertung auf historische Szenarien zu übertragen. Für Interpretation und Rekonstruktion dieser für die Belange der Historischen Klimatologie wichtigen Vorgänge wird Datenmaterial aus dem zurückreichenden Zeitraum bis 1700 verwendet.
Resumo:
The g-factor is a constant which connects the magnetic moment $vec{mu}$ of a charged particle, of charge q and mass m, with its angular momentum $vec{J}$. Thus, the magnetic moment can be writen $ vec{mu}_J=g_Jfrac{q}{2m}vec{J}$. The g-factor for a free particle of spin s=1/2 should take the value g=2. But due to quantum electro-dynamical effects it deviates from this value by a small amount, the so called g-factor anomaly $a_e$, which is of the order of $10^{-3}$ for the free electron. This deviation is even bigger if the electron is exposed to high electric fields. Therefore highly charged ions, where electric field strength gets values on the order of $10^{13}-10^{16}$V/cm at the position of the bound electron, are an interesting field of investigations to test QED-calculations. In previous experiments [H"aff00,Ver04] using a single hydrogen-like ion confined in a Penning trap an accuracy of few parts in $10^{-9}$ was obtained. In the present work a new method for precise measurement of magnetic the electronic g-factor of hydrogen-like ions is discussed. Due to the unavoidable magnetic field inhomogeneity in a Penning trap, a very important contribution to the systematic uncertainty in the previous measurements arose from the elevated energy of the ion required for the measurement of its motional frequencies. Then it was necessary to extrapolate the result to vanishing energies. In the new method the energy in the cyclotron degree of freedom is reduced to the minimum attainable energy. This method consist in measuring the reduced cyclotron frequency $nu_{+}$ indirectly by coupling the axial to the reduced cyclotron motion by irradiation of the radio frequency $nu_{coup}=nu_{+}-nu_{ax}+delta$ where $delta$ is, in principle, an unknown detuning that can be obtained from the knowledge of the coupling process. Then the only unknown parameter is the desired value of $nu_+$. As a test, a measurement with, for simplicity, artificially increased axial energy was performed yielding the result $g_{exp}=2.000~047~020~8(24)(44)$. This is in perfect agreement with both the theoretical result $g_{theo}=2.000~047~020~2(6)$ and the previous experimental result $g_{exp1}=2.000~047~025~4(15)(44).$ In the experimental results the second error-bar is due to the uncertainty in the accepted value for the electron's mass. Thus, with the new method a higher accuracy in the g-factor could lead by comparison to the theoretical value to an improved value of the electron's mass. [H"af00] H. H"affner et al., Phys. Rev. Lett. 85 (2000) 5308 [Ver04] J. Verd'u et al., Phys. Rev. Lett. 92 (2004) 093002-1
Resumo:
Wir betrachten die eindimensionale Heisenberg-Spinkette aus einem neuen und aktuelleren Blickwinkel. Experimentelle Techniken der Herstellung und selbstverständlich auch experimentelle Meßmethoden erlauben nicht nur die Herstellung von Nanopartikeln und Nanodrähten, sondern gestatten es auch, Domänenwände in diesen Strukturen auszumessen. Die meisten heute verwendeten Theorien und Simulationsmethoden haben ihre Grundlage im mikromagnetischen Kontinuumsmodell, daß schon über Jahrzehnte hinweg erforscht und erprobt ist. Wir stellen uns jedoch die Frage, ob die innere diskrete Struktur der Substrate und die quantenmechanischen Effekte bei der Genauigkeit heutiger Messungen in Betracht gezogen werden müssen. Dazu wählen wir einen anderen Ansatz. Wir werden zunächst den wohlbekannten klassischen Fall erweitern, indem wir die diskrete Struktur der Materie in unseren Berechnungen berücksichtigen. Man findet in diesem Formalismus einen strukturellen Phasenübergang zwischen einer Ising-artigen und einer ausgedehnten Wand. Das führt zu bestimmten Korrekturen im Vergleich zum Kontinuumsfall. Der Hauptteil dieser Arbeit wird sich dann mit dem quantenmechanischen Fall beschäftigen. Wir rotieren das System zunächst mit einer Reihe lokaler Transformationen derart, daß alle Spins in die z-Richtung ausgerichtet sind. Im Rahmen einer 1/S-Entwicklung läßt sich der erhaltene neue Hamilton-Operator diagonalisieren. Setzt man hier die klassische Lösung ein, so erhält man Anregungsmoden in diesem Grenzfall. Unsere Resultate erweitern und bestätigen frühere Berechnungen. Mit Hilfe der Numerik wird schließlich der Erwartungswert der Energie minimiert und somit die Form der Domänenwand im quantenmechanischen Fall berechnet. Hieraus ergeben sich auch bestimmte Korrekturen zum kritischen Verhalten des Systems. Diese Ergebnisse sind vollkommen neu.
Resumo:
Streulängen beschreiben die s-Wellen-Streuung niederenergetischer Neutronen an Kernen. Solche Streuprozesse laufen nahezu ausschließlich über die starke Wechselwirkung ab. Wegen der Spinabhängigkeit der starken Wechselwirkung werden den Multiplett-Streulängen, d.h. den Streulängen der Gesamtspinzustände J, im Allgemeinen verschiedene Werte zugeordnet. Im Experiment sind die Multiplett-Streuzustände an makroskopischen Proben in der Regel nicht unmittelbar zugänglich. Messbar sind jedoch der polarisationsabhängige und -unabhängige Anteil der Streulänge, welche als inkohärente Streulänge und kohärente Streulänge bezeichnet werden und Linearkombinationen der Multiplettstreulängen sind. Durch komplexe Streulängen lässt sich der für reine Streuprozesse entwickelte Formalismus erweitern: Der Imaginärteil der Streulänge beschreibt dann die Absorption von Projektilen im Target. Sämtliche Reaktionsquerschnitte lassen sich als Funktionen der Streulänge angeben. Verbesserte Messungen der 3He-Streulängen sind für die Entwicklung theoretischer Modelle von Wenig-Nukleonen-Systemen wichtig. Für die Systeme (n,D) und (n,T) wurden in den letzten Jahren u.a. präzise theoretische Vorhersagen für die Multiplett-Streulängen gemacht. Die Übereinstimmung mit den experimentellen Ergebnissen untermauert, dass die theoretischen Unsicherheiten dieser Werte nur etwa 1 Promille betragen. Demgegenüber ist die theoretische Behandlung des n-3He-Systems aufwändiger. Bis zu Beginn der 1980er Jahre wurde eine Reihe von Vorhersagen für die Multiplett-Streulängen gemacht, die auf erfolgreichen Dreinukleon-Potentialmodellen basierten, untereinander aber vollkommen inkompatibel waren. Daneben waren zwei disjunkte Wertepaare für die Multiplett-Streulängen mit den experimentellen Ergebnissen verträglich. Obwohl es begründete Argumente zugunsten eines der Wertepaare gab, bestand die Hoffnung auf eine experimentelle Verifikation durch direkte Messung der inkohärenten Streulänge bereits 1980. Die Bestimmung des Realteils der inkohärenten Streulänge liefert in der Multiplettstreulängenebene eine Gerade, die fast orthogonal zum Band des Realteils der kohärenten Streulänge verläuft. Vermutlich aufgrund der unzureichenden Kenntnis der Realteile hat in den letzten Jahren keine nennenswerte Weiterentwicklung der Modelle für das System n–3He stattgefunden. Diese Arbeit entstand in der Absicht, durch polarisierte und unpolarisierte Experimente an 3He quantitative Fakten zur Beurteilung konkurrierender Vier-Nukleonen-Modelle zu schaffen und somit der theoretischen Arbeit auf diesem Feld einen neuen Impuls zu geben. Eine jüngst veröffentlichte theoretische Arbeit [H. M. Hofmann und G. M. Hale. Phys. Rev. C, 68(021002(R)): 1–4, Apr. 2003] zur spinabhängigen Streulänge des 3He belegt, dass die im Rahmen dieser Arbeit unternommenen Anstrengungen auf reges Interesse stoßen. Durch die Anwendung zweier sehr unterschiedlicher experimenteller Konzepte wurden Präzisionsmessungen der Realteile der kohärenten und inkohärenten Neutronenstreulänge des 3He durchgeführt. Während sich die Methode der Neutroneninterferometrie seit Ende der 1970er Jahre als Standardverfahren zur Messung von spinunabhängigen Streulängen etabliert hat, handelt es sich bei der Messung des pseudomagnetischen Präzessionswinkels am Spinecho-Spektrometer um ein neues experimentelles Verfahren. Wir erhalten aus den Experimenten für die gebundenen kohärenten und inkohärenten Streulängen neue Werte, welche die Unsicherheiten im Falle der kohärenten Streulänge um eine Größenordnung, im Falle der inkohärenten Streulänge sogar um den Faktor 30 reduzieren. Die Kombination dieser Resultate liefert verbesserte Werte der, für die nukleare Wenigkörper-Theorie wichtigen, Singulett- und Triplett-Streulängen. Wir erhalten neue Werte für die kohärenten und inkohärenten Anteile des gebundenen Streuquerschnitts, das für die Neutronenstreuung an der 3He-Quantenflüssigkeit wichtige Verhältnis von inkohärentem und kohärentem Streuquerschnitt und für den freien totalen Streuquerschnitt.
Resumo:
Motorische Bewegungen werden über die visuelle Rückmeldung auf ihre Genauigkeit kontrolliert und ggf. korrigiert. Über einen technischen Eingriff, wie beispielsweise einer Prismenbrille, kann man eine Differenz zwischen optisch wahrgenommener und haptisch erlebter Umwelt erzeugen, um die Fähigkeiten des visuomotorischen Systems zu testen. In dieser Arbeit wurde eine computergestützte Methode entwickelt, eine solche visuomotorische Differenz zu simulieren. Die Versuchspersonen führen eine ballistische Bewegung mit Arm und Hand aus in der Absicht, ein vorgegebenes Ziel zu treffen. Die Trefferpunkte werden durch einen Computer mit Hilfe eines Digitalisierungstablettes aufgenommen. Die visuelle Umwelt, welche den Versuchspersonen präsentiert wird, ist auf einem Monitor dargestellt. Das Monitorabbild – ein Kreuz auf weißem Hintergrund – betrachten die Testpersonen über einen Spiegel. Dieser ist in einem entsprechenden Winkel zwischen Monitor und Digitalisierungstablett angebracht, so dass das Zielbild auf dem Digitalisierungstablett projiziert wird. Die Testpersonen nehmen das Zielkreuz auf dem Digitalisierungstablett liegend wahr. Führt die Versuchsperson eine Zielbewegung aus, können die aufgenommenen Koordinaten als Punkte auf dem Monitor dargestellt werden und die Testperson erhält über diese Punktanzeige ein visuelles Feedback ihrer Bewegung. Der Arbeitsbereich des Digitalisierungstabletts kann über den Computer eingerichtet und so motorische Verschiebungen simuliert werden. Die verschiedenartigen Möglichkeiten dieses Aufbaus wurden zum Teil in Vorversuchen getestet um Fragestellungen, Methodik und technische Einrichtungen aufeinander abzustimmen. Den Hauptversuchen galt besonderes Interesse an der zeitlichen Verzögerung des visuellen Feedbacks sowie dem intermanuellen Transfer. Hierbei ergaben sich folgende Ergebnisse: ● Die Versuchspersonen adaptieren an eine räumlich verschobene Umwelt. Der Adaptationsverlauf lässt sich mit einer Exponentialfunktion mathematisch berechnen und darstellen. ● Dieser Verlauf ist unabhängig von der Art des visuellen Feedbacks. Die Beobachtung der Handbewegung während der Adaptation zeigt die gleiche Zielabfolge wie eine einfache Punktprojektion, die den Trefferort der Bewegung darstellt. ● Der exponentielle Verlauf der Adaptationsbewegung ist unabhängig von den getesteten zeitlichen Verzögerungen des visuellen Feedbacks. ● Die Ergebnisse des Folgeeffektes zeigen, dass bei zunehmender zeitlicher Verzögerung des visuellen Feedbacks während der Adaptationsphase, die Größe des Folgeeffektwertes geringer wird, d.h. die anhaltende Anpassungsleistung an eine visuomotorische Differenz sinkt. ● Die Folgeeffekte weisen individuelle Eigenheiten auf. Die Testpersonen adaptieren verschieden stark an eine simulierte Verschiebung. Ein Vergleich mit den visuomotorischen Herausforderungen im Vorleben der Versuchspersonen ließ vermuten, dass das visuomotorische System des Menschen trainierbar ist und sich - je nach Trainingszustand – unterschiedlich an wahrgenommene Differenzen anpasst. ● Der intermanuelle Transfer konnte unter verschiedenen Bedingungen nachgewiesen werden. ● Ein deutlich stärkerer Folgeeffekt kann beobachtet werden, wenn die wahrgenommene visuomotorische Differenz zwischen Ziel und Trefferpunkt in eine Gehirnhälfte projiziert wird und der Folgeeffekt mit der Hand erfolgt, welche von dieser Hirnhemisphäre gesteuert wird. Der intermanuelle Transfer wird demnach begünstigt, wenn die visuelle Projektion der Fehlerbeobachtung in die Gehirnhälfte erfolgt, die während der Adaptationsphase motorisch passiv ist.
Resumo:
Es wurde bis heute meist mit relativ aufwendigen Methoden nach dem Vorkommen von Strangbrüchen in der DNA gesucht. Die hier verwendete Fast-Micromethod steht jetzt neben mehreren bereits etablierten Methoden zur qualitativen und quantitativen Erfassung von DNA-Strangbrüchen zur Verfügung. Die Methode wurde zur schnellen und empfindlichen Messung von DNA-Schäden und deren Reparatur unter Verwendung von PicoGreen, einem spezifisch an DNA-Einzelstränge bindenden Fluoreszenzfarbstoff, durchgeführt. Die Methode wurde in der vorliegenden Arbeit für verschiedene Zellarten wie HeLa-Zellen und Schwamm-Zellen mit Schwermetallionen verwendet. Sie wurde ebenfalls bei verschiedenen Strangbruch-induzierenden Stoffen wie NQO und physikalischen Faktoren wie UV-Bestrahlung und Gammastrahlung erfolgreich eingesetzt. Die Strangbrüche wurden bei HeLa-Zellen mit 10 µM NQO nach 90 Minuten Inkubation und ebenso bei Gammastrahlung mit 16 Gy gemessen. An Schwammzellen wurden Effekte von Schwermetallionen und UV, auch einschließlich nachgeschalteter Reparaturaktivität, gemessen. Dabei war die Reparatur jedoch nicht ganz vollständig. Durch die Fast-Micromethod wurde DNA-Schädigung durch UV-Bestrahlung und Gentoxizität von Schwermetall-Ionen an HeLa-Zellen nachgewiesen. Die Schwammzellen wurden mit verschiedenen Schwermetall-Ionen in verschiedenen Konzentrationen getestet und mit UV bei verschiedenen Dosen bestrahlt. Teilweise wurde nach dem Einfluss die DNA-Reparatur erfasst. Schwammzellen wurden in den drei häufig verwendeten Medien CMFSW, CMFSW+EDTA und Seewasser aufgenommen. Im Seewasser waren die Zellen nach 60 Minuten Inkubationszeit aggregiert (Primmorphe). Im CMFSW+EDTA Medium lagen dagegen nur Einzellen vor, da die Zellen im EDTA-Medium dissoziiert wurden und auch nicht mehr proliferierten.
Resumo:
Sekundäres organisches Aerosol (SOA) ist ein wichtiger Bestandteil von atmosphärischen Aerosolpartikeln. Atmosphärische Aerosole sind bedeutsam, da sie das Klima über direkte (Streuung und Absorption von Strahlung) und indirekte (Wolken-Kondensationskeime) Effekte beeinflussen. Nach bisherigen Schätzungen ist die SOA-Bildung aus biogenen Kohlenwasserstoffen global weit wichtiger als die SOA-Bildung aus anthropogenen Kohlenwasserstoffen. Reaktive Kohlenwasserstoffe, die in großen Mengen von der Vegetation emittiert werden und als die wichtigsten Vorläufersubstanzen für biogenes SOA gelten, sind die Terpene. In der vorliegenden Arbeit wurde eine Methode entwickelt, welche die Quantifizierung von aciden Produkten der Terpen-Oxidation ermöglicht. Die Abscheidung des größenselektierten Aerosols (PM 2.5) erfolgte auf Quarzfilter, die unter Zuhilfenahme von Ultraschall mittels Methanol extrahiert wurden. Nach Aufkonzentrierung und Lösungsmittelwechsel auf Wasser sowie Standardaddition wurden die Proben mit einer Kapillar-HPLC-ESI-MSn-Methode analysiert. Das verwendete Ionenfallen-Massenspektrometer (LCQ-DECA) bietet die Möglichkeit, Strukturaufklärung durch selektive Fragmentierung der Qasimolekülionen zu betreiben. Die Quantifizierung erfolgte teilweise im MS/MS-Modus, wodurch Selektivität und Nachweisgrenze verbessert werden konnten. Um Produkte der Terpen-Oxidation zu identifizieren, die nicht als Standards erhältlich waren, wurden Ozonolysexperimente durchgeführt. Dadurch gelang die Identifizierung einer Reihe von Oxidationsprodukten in Realproben. Neben schon bekannten Produkten der Terpen-Oxidation konnten einige Produkte erstmals in Realproben eindeutig als Produkte des α Pinens nachgewiesen werden. In den Proben der Ozonolyseexperimente konnten auch Produkte mit hohem Molekulargewicht (>300 u) nachgewiesen werden, die Ähnlichkeit zeigen zu den als Dimeren oder Polymeren in der Literatur bezeichneten Substanzen. Sie konnten jedoch nicht in Feldproben gefunden werden. Im Rahmen von 5 Messkampagnen in Deutschland und Finnland wurden Proben der atmosphärischen Partikelphase genommen. Die Quantifizierung von Produkten der Oxidation von α-Pinen, β-Pinen, 3-Caren, Sabinen und Limonen in diesen Proben ergab eine große zeitliche und örtliche Variationsbreite der Konzentrationen. Die Konzentration von Pinsäure bewegte sich beispielsweise zwischen etwa 0,4 und 21 ng/m³ während aller Messkampagnen. Es konnten stets Produkte verschiedener Terpene nachgewiesen werden. Produkte einiger Terpene eignen sich sogar als Markersubstanzen für verschiedene Pflanzenarten. Sabinen-Produkte wie Sabinsäure können als Marker für die Emissionen von Laubbäumen wie Buchen oder Birken verwendet werden, während Caren-Produkte wie Caronsäure als Marker für Nadelbäume, speziell Kiefern, verwendet werden können. Mit den quantifizierten Substanzen als Marker wurde unter zu Hilfenahme von Messungen des Gehaltes an organischem und elementarem Kohlenstoff im Aerosol der Anteil des sekundären organischen Aerosols (SOA) errechnet, der von der Ozonolyse der Terpene stammt. Erstaunlicherweise konnten nur 1% bis 8% des SOA auf die Ozonolyse der Terpene zurückgeführt werden. Dies steht im Gegensatz zu der bisherigen Meinung, dass die Ozonolyse der Terpene die wichtigste Quelle für biogenes SOA darstellt. Gründe für diese Diskrepanz werden in der Arbeit diskutiert. Um die atmosphärischen Prozesse der Bildung von SOA vollständig zu verstehen, müssen jedoch noch weitere Anstrengungen unternommen werden.
Resumo:
Im Rahmen dieser Arbeit wurde eine neue Methode für einen empfindlichen und isotopenselektiven Elementnachweis entwickelt. Unter Einsatz von Laserablation geschieht der Probenaufschluß direkt und mit einer Ortsauflösung von unter 30 m. Hierzu wurde ein hochauflösendes MALDI-TOF-Massenspektrometer, welches üblicherweise für biochemische Fragestellungen eingesetzt wird, mit einem spektroskopischen Aufbau zur resonanten Ionisation von Elementgehalten modifiziert. Die Methode ist somit insbesondere für die Untersuchung von Elementspuren in Festkörperproben mit mikroskopischer Struktur konzipiert. Methodische Entwicklungsarbeiten wurden anhand des Elements Gadolinium durchgeführt. Durch die Verwendung gepulster Farbstofflaser stehen ausreichend hohe Laserfelder zur Verfügung, um unabhängig von Hyperfeinstruktur und Isotopieverschiebung Übergänge aller Isotope im Rahmen des Resonanzionisations-Verfahrens zu sättigen. Darauf konnte eine Isotopenverhältnisanalyse mit einer Genauigkeit im Prozentbereich verwirklicht werden. Verschiedene Anregungsleitern wurden untersucht, und mit elementspezifischen Resonanzüberhöhungen bis zu zwei Größenordnungen über dem nicht-resonant gebildeten Untergrund konnte eine Nachweiseffizienz von über 10-4 (entsprechend sub-fg/g-Niveau) erzielt werden. Dazu wurden Simulationsrechnungen zum atomaren Sättigungsverhalten in starken resonanten Laserfeldern durchgeführt. Erste Anwendungen des Laserablationsverfahrens waren Proben kosmologischer Herkunft. Der physikalische Prozeß der Laserablation bei Metallen wurde unter Hochvakuum-Bedingung systematisch in Abhängigkeit der Laserfluenz untersucht. In der ablatierten Plasmaphase erwies sich der Neutralanteil als besonders geeignet für geschwindigkeitsselektive Laserionisations-Messungen. Eine bimodale Struktur wurde beobachtet, bestehend aus einer thermischen und einer schockwellen-induzierten Komponente. Der ionische Anteil der ablatierten Dampfphase konnte über variable elektrische Feldpulse untersucht werden. Laserablation unter Atmosphärenbedingung wurde an einem beschichteten Messingtarget untersucht. Dabei wurde die Entstehung von permanenten Oberflächenstrukturen beobachtet, welche sich durch Nichtgleichgewichts-Prozesse in der Dampfphase erklären lassen.
Resumo:
In dieser Arbeit wird zum Erreichen hoher Kernspinpolarisationen die Methode des metastabilen optischen Pumpens benutzt. Das Verfahren beruht auf dem "Ubertrag des Drehimpulses absorbierter Photonen auf das hierbei angeregte Valenzelektron, welches durch Hyperfeinkopplung den Drehimpuls weiter auf den $^3$He-Kern transferiert. Da der Polarisationsprozess nur bei Dr"ucken von ca. 1~mbar effizient funktioniert, f"ur die meisten Anwendungen aber polarisiertes $^3$He bei einem Druck von $geq 1$~bar ben"otigt wird, muss das Gas nach der Aufpolarisation komprimiert werden. In unserer Arbeitsgruppe steht eine Maschine ("`Polarisator"') zur Verf"ugung, die das Gas polarisiert und anschlie"send komprimiert. Ziel dieser Dissertation ist, einerseits die Leistungsf"ahigkeit des Polarisators bez"uglich Maximalpolarisation und Gasfluss zu verbessern und andererseits den metastabilen Pumpprozess selbst genauer zu untersuchen.\ noindent Durch die Verwendung neuer Laser auf Basis der Fasertechnologie sowie einer systematischen Optimierung der optischen Komponenten konnten in abgeschlossenen Pumpzellen Rekord-Polarisationsgrade von $91pm 2$% erzielt werden.\ noindent Mit der Implementierung neuartiger Optiken und Laser am Mainzer Polarisator konnte die Leistungscharakteristik entscheidend verbessert werden. So wurde die erreichbare Polarisation bei identischer Produktionsrate um 20 Prozentpunkte gesteigert. Zurzeit sind maximale Polarisationsgrade von mehr als 75% im optischen Pumpvolumen erreichbar. Eine am Mainzer Triga-Reaktor durchgef"uhrte Polarisationsbestimmung ergab einen Wert von $72.7pm 0.7$%. Dies veranschaulicht die geringen Polarisationsverluste infolge der Gaskompression, des Transports und einer Lagerung "uber mehrere Stunden.\ noindent Zur Dynamik der geschwindigkeitsver"andernden St"o"se sowie zur Bestimmung der mittleren Photonen-Absorptionsrate wurde ein Modell entwickelt, welches auch experimentell best"atigt wurde. Damit konnte erstmalig das gemessene Absorptionsverhalten einer spektral schmalbandigen Laserdiode korrekt beschrieben werden.\ noindent Zudem stimmen die an so genannten abgeschlossenen Pumpzellen gemessenen extrem hohen Polarisationswerte mit theoretischen Vorhersagen "uberein, sofern der Druck im optischen Pumpvolumen geringer als 1~mbar ist und das $^3$He nicht durch Fremdgase verunreinigt ist. Bei derartigen Pumpzellen ist die gemessene Abh"angigkeit der Polarisation von Laserleistung, Metastabilendichte und falscher Zirkularkomponente mit der Theorie kompatibel.\
Resumo:
Schwämme (Porifera) sind die phylogenetisch ältesten Metazoa. Sie besitzen komplexe Abwehrsysteme, welche vor allem auf der Synthese bioaktiver niedermolekularer Sekundärmetaboliten beruhen und diese Tiere zu einer der reichhaltigsten Quellen für medizinisch nutzbare Wirkstoffe machen. Besonders der marine Einsiedler-Korkschwamm (Suberites domuncula) hat sich in den letzten Jahren zur Untersuchung der molekularen Zusammenhänge dieser Abwehrmechanismen als besonders geeignet herausgestellt. So wurden in diesem Schwamm beispielsweise zwei lyso-PAF (plättchenaktivierender Faktor) Derivate (1-O Hexadecyl-sn-glycero-3-phosphatidylcholin und 1-O-Octadecyl-sn-glycero-3-phosphatidylcholin) identifiziert und charakterisiert, sowie deren ausgeprägte antibakterielle Aktivität besonders gegenüber gramnegativen Bakterien demonstriert. Eine Behandlung mit der Modellsubstanz zur Simulation einer bakteriellen Infektion, dem Endotoxin Lipopolysaccharid (LPS), für insgesamt 72 Stunden resultierte in einem Anstieg der Expressionslevel zweier an der Biosynthese dieser bioaktiven Etherphospholipide beteiligten Proteine. Unter Anwendung der Methode des Differential Display konnte einerseits das Schlüsselenzym der Etherphospholipid Biosynthese Alkyl- Dihydroxyacetonphosphat (DHAP)-Synthase und andererseits die regulatorische Untereinheit der PAF-deacetylierenden PAF Acetylhydrolase I
Resumo:
This work presents algorithms for the calculation of the electrostatic interaction in partially periodic systems. The framework for these algorithms is provided by the simulation package ESPResSo, of which the author was one of the main developers. The prominent features of the program are listed and the internal structure is described. In the following, algorithms for the calculation of the Coulomb sum in three dimensionally periodic systems are described. These methods are the foundations for the algorithms for partially periodic systems presented in this work. Starting from the MMM2D method for systems with one non-periodic coordinate, the ELC method for these systems is developed. This method consists of a correction term which allows to use methods for three dimensional periodicity also for the case of two periodic coordinates. The computation time of this correction term is neglible for large numbers of particles. The performance of MMM2D and ELC are demonstrated by results from the implementations contained in ESPResSo. It is also discussed, how different dielectric constants inside and outside of the simulation box can be realized. For systems with one periodic coordinate, the MMM1D method is derived from the MMM2D method. This method is applied to the problem of the attraction of like-charged rods in the presence of counterions, and results of the strong coupling theory for the equilibrium distance of the rods at infinite counterion-coupling are checked against results from computer simulations. The degree of agreement between the simulations at finite coupling and the theory can be characterized by a single parameter gamma_RB. In the special case of T=0, one finds under certain circumstances flat configurations, in which all charges are located in the rod-rod plane. The energetically optimal configuration and its stability are determined analytically, which depends on only one parameter gamma_z, similar to gamma_RB. These findings are in good agreement with results from computer simulations.