648 resultados para experimentelle Atomphysik, Speicherung einzelner Teilchen
Resumo:
Zu den Hauptcharakteristika von Teilchen gehoert - neben der Masse - die Lebensdauer. Die mittlere Lebensdauer des Xi0-Hyperons, die sich aus der mittleren Lebensdauer des Xi--Hyperons ueber die Delta I=1/2-Regel theoretisch voraussagen laesst, wurde bereits mehrfach experimentell bestimmt. Die neueste Messung aus dem Jahr 1977 besitzt jedoch eine relative Unsicherheit von 5%, was sich mit Daten neuerer Experimente deutlich verbessern laesst. Die mittlere Lebensdauer ist ein wichtiger Parameter bei der Bestimmung des Matrixelements Vus der Cabibbo-Kobayashi-Maskawa-Matrix in semileptonischen Xi0-Zerfaellen. Im Jahre 2002 wurde mit dem NA48-Detektor eine Datennahme mit hoher Intensitaet durchgefuehrt, bei der unter anderem etwa 10^9 Xi0-Zerfallskandidaten aufgezeichnet wurden. Davon wurden im Rahmen dieser Arbeit 192000 Ereignisse des Typs "Xi0 nach Lambda pi0" rekonstruiert und 107000 Ereignisse zur Bestimmung der mittleren Lebensdauer durch Vergleich mit simulierten Ereignissen verwendet. Zur Vermeidung von systematischen Fehlern wurde die Lebensdauer in zehn Energieintervallen durch Vergleich von gemessenen und simulierten Daten ermittelt. Das Ergebnis ist wesentlich genauer als bisherige Messungen und weicht vom Literaturwert (tau=(2,90+-0,09)*10^(-10)s) um (+4,99+-0,50(stat)+-0,58(syst))% ab, was 1,7 Standardabweichungen entspricht. Die Lebensdauer ergibt sich zu tau=(3,045+-0,015(stat)+-0,017(syst))*10^(-10)s. Auf die gleiche Weise konnte mit den zur Verfuegung stehenden Daten erstmals die Lebensdauer des Anti-Xi0-Hyperons gemessen werden. Das Ergebnis dieser Messung ist tau=(3,042+-0,045(stat)+-0,017(syst))*10^(-10)s.
Resumo:
Sterne mit einer Anfangsmasse zwischen etwa 8 und 25 Sonnenmassen enden ihre Existenz mit einer gewaltigen Explosion, einer Typ II Supernova. Die hierbei entstehende Hoch-Entropie-Blase ist ein Bereich am Rande des sich bildenden Neutronensterns und gilt als möglicher Ort für den r-Prozess. Wegen der hohen Temperatur T innerhalb der Blase ist die Materie dort vollkommen photodesintegriert. Das Verhältnis von Neutronen zu Protonen wird durch die Elektronenhäufigkeit Ye beschrieben. Die thermodynamische Entwicklung des Systems wird durch die Entropie S gegeben. Da die Expansion der Blase schnell vonstatten geht, kann sie als adiabatisch betrachtet werden. Die Entropie S ist dann proportional zu T^3/rho, wobei rho die Dichte darstellt. Die explizite Zeitentwicklung von T und rho sowie die Prozessdauer hängen von Vexp, der Expansionsgeschwindigkeit der Blase, ab. Der erste Teil dieser Dissertation beschäftigt sich mit dem Prozess der Reaktionen mit geladenen Teilchen, dem alpha-Prozess. Dieser Prozess endet bei Temperaturen von etwa 3 mal 10^9 K, dem sogenannten "alpha-reichen" Freezeout, wobei überwiegend alpha-Teilchen, freie Neutronen sowie ein kleiner Anteil von mittelschweren "Saat"-Kernen im Massenbereich um A=100 gebildet werden. Das Verhältnis von freien Neutronen zu Saatkernen Yn/Yseed ist entscheidend für den möglichen Ablauf eines r-Prozesses. Der zweite Teil dieser Arbeit beschäftigt sich mit dem eigentlichen r-Prozess, der bei Neutronenanzahldichten von bis zu 10^27 Neutronen pro cm^3 stattfindet, und innerhalb von maximal 400 ms sehr neutronenreiche "Progenitor"-Isotope von Elementen bis zum Thorium und Uran bildet. Bei dem sich anschliessendem Ausfrieren der Neutroneneinfangreaktionen bei 10^9 K und 10^20 Neutronen pro cm^3 erfolgt dann der beta-Rückzerfall der ursprünglichen r-Prozesskerne zum Tal der Stabilität. Diese Nicht-Gleichgewichts-Phase wird in der vorliegenden Arbeit in einer Parameterstudie eingehend untersucht. Abschliessend werden astrophysikalische Bedingungen definiert, unter denen die gesamte Verteilung der solaren r-Prozess-Isotopenhäufigkeiten reproduziert werden können.
Resumo:
Die vorliegende Arbeit behandelt die Adsorption von Phospholipidvesikeln, Proteinen und Latex Beads an funktionalisierten festkörpergestützten Oberflächen. Der Schwerpunkt der Abhandlung liegt in der Modellierung der Kinetik mit Hilfe eines Simulationsprogramms unter Berücksichtigung des Massentransports in Staupunktgeometrie, der Adsorption und nachfolgender konformativer Änderungen adhärierter Partikel. Das Simulationsprogramm basiert auf einem RSA (random sequential adsorption) Algorithmus und erlaubt es aufgrund zusätzlich implementierter Optionen, z.B. zur Behandlung elektrostatischer Abstoßung, von Spreitprozessen oder von Desorptionsereignissen, den Adsorptionsprozess unter realistischen physikalischen Bedingungen nachzuempfinden und spezifische biologische Fragestellungen zu beantworten. Aus Anpassungen von Simulationen an experimentelle Daten ergeben sich dynamische Parameter, wie z.B. die Transport-, Adsorptions-, Spreit- und die Desorptionsrate. Die experimentellen Daten wurden mit Hilfe der Quarzmikrowaagetechnik (QCM), der Impedanzspektroskopie (IS) und der Rasterkraftmikroskopie (AFM) erhoben. Zusätzlich zur Kinetik gibt die graphische Ausgabe des Simulationsprogramms Aufschluss über die Oberflächenverteilung der adsorbierten und gespreiteten Partikel. Bei der Untersuchung von Systemen, in denen die Adsorption reversibel ist und infolge dessen Desorptionsprozesse eine wichtige Rolle spielen, wurde mit Hilfe des Simulationsprogramms ein völlig neuartiges Sensorkonzept in Aussicht gestellt. Es wurde gezeigt, dass aus der Analyse des Leistungsspektrums der Fluktuationen in der Belegung die Kinetik von Adsorption und Desorption ermittelt werden kann. Dies ist aus sensorischer Sicht interessant, da eine Vielzahl störender Einflüsse, wie z.B: der Massentransport und die elektronische Drift in diesem Fall nicht berücksichtigt werden müssen.
Resumo:
Sowohl die Komplexierung von Polyelektrolyten mit anorganischen Salzen, als auch die mit entgegengesetzt geladenen Polymeren wurde von vielen Autoren bereits intensiv untersucht. Doch gerade mit Molekülen die zwischen diesen beiden Extremen liegen, sollte es möglich sein, durch elektrostatische Wechselwirkungen gezielt nanometergroße Teilchen definierter Struktur herzustellen. Ziel dieser Arbeit war es deshalb, die Strukturbildung doppelthydrophiler Blockcopolymere mit mehrwertigen organischen Gegenionen zu untersuchen und insbesondere Parameter für die Bildung supramolekularer Strukturen in wässriger Lösung zu finden. Als Blockcopolymer wurde dabei Polyethylenoxid-b-methacrylsäure mittels anionischer Polymerisation hergestellt und mittels Gelpermeationschromatographie (GPC) und Kernresonanzspektroskopie (NMR)charakterisiert. Die Strukturbildung des Polyelektrolyten mit mehrwertigen organischen Gegenionen wurde in pH = 6- und pH = 7-Pufferlösung mit dynamischer und statischer Lichtstreuung, Kleinwinkelneutronenstreuung und Ultrazentrifugation untersucht. Mit Diaminobenzidin als Gegenion wurden dabei sphärische Komplexe mit einem hydrodynamischen Radius um 100 nm erhalten und mit Ultrazentrifugation der Anteil des Gegenions im Komplex quantifiziert. Die schlechte Löslichkeit des Diaminobenzidins in wässrigem Medium erschwerte allerdings die Interpretation der Ergebnisse. Trotzdem deuten diese darauf hin, dass keine Kolloidbildung des Diaminobenzidins, sondern eine Komplexierung der Einzelmoleküle mit dem Copolymer vorliegt. Um Probleme mit der Löslichkeit zu vermeiden, wurden schliesslich Polyamidoamin-Dendrimere als Gegenionen verwendet. Dabei wurde in pH = 6- und pH = 7-Pufferlösung für Dendrimere der Generation 4 mit steigender Gegenionenkonzentration ein kontinuierlicher Anstieg des hydrodynamischen Radius bis zu einer Größe von 70 nm gefunden. Mit Kleinwinkelneutronenstreuung konnte eine ellipsoidale Struktur dieser Komplexe beobachtet werden. Auch die Größe der Gegenionen spielt für die Bildung supramolekularer Aggregate eine Rolle. So zeigte sich, dass für Polyamidoamin-Dendrimere der Generation 2, analog zu denen der Generation 4, ein Anstieg des hydrodynamischen Radius mit steigender Gegenionenkonzentration zu beobachten ist. Für Generation 0-Dendrimere hingegen wurde ein umgekehrter Verlauf beobachtet, welcher dem für Diaminobenzidin gleicht. Somit kann man annehmen, dass die Aggregation mit kleinen Molekülen zu einer anderen Struktur der Komplexe führt, als die mit größeren Molekülen.
Resumo:
Ein neu konstruierter Kondensationskernzähler COPAS (COndensation PArticle counting System) für in-situ-Messungen der Konzentration von Aitken-Teilchen und ultrafeinen Aerosolpartikeln wurde im Rahmen dieser Arbeit erstmals erfolgreich bei Flugzeugmessungen eingesetzt. COPAS ist ein für flugzeuggestützte Messungen an Bord des Forschungsflugzeuges „Geophysica“ in der oberen Troposphäre und unteren Stratosphäre angepaßtes und voll automatisiertes System. Die Verfahrensweise, die Aerosolpartikel des Größenbereichs mit Durchmessern d < 100 nm zum Anwachsen zu bringen, um sie mittels optischer Detektion zu erfassen, ist im COPAS durch das Prinzip der thermischen Diffusion realisiert, wodurch eine kontinuierliche Messung der Aerosolkonzentration mit der untersten Nachweisgrenze für Partikeldurchmesser von d = 6 nm gewährleistet ist. Durch die Verwendung einer Aerosolheizung ist die Unterscheidung von volatilem und nichtvolatilem Anteil des Aerosols mit COPAS möglich. In umfassenden Laborversuchen wurde das COPAS-System hinsichtlich der unteren Nachweisgrenze in Abhängigkeit von der Betriebstemperatur und bei verschiedenen Druckbedingungen charakterisiert sowie die Effizienz der Aerosolheizung bestimmt. Flugzeuggestützte Messungen fanden in mittleren und polaren Breiten im Rahmen des EUPLEX-/ENVISAT-Validierungs–Projektes und in den Tropen während der TROCCINOX/ENVISAT-Kampagne statt. Die Messungen der vertikalen Konzentrationsverteilung des Aerosols ergaben in polaren Breiten eine Zunahme der Konzentration oberhalb von 17 km innerhalb des polaren Vortex mit hohem Anteil nichtvolatiler Partikel von bis zu 70 %. Als Ursache hierfür wird der Eintrag von meteoritischen Rauchpartikeln aus der Mesosphäre in die obere und mittlere Stratosphäre des Vortex angesehen. Ferner konnte in der unteren Stratosphäre des polaren Vortex der Einfluß troposphärischer Luft aus niedrigen Breiten festgestellt werden, die sich in einer hohen Variabilität der Aerosolpartikelkonzentration manifestiert. In tropischen Breiten wurde die Tropopausenregion untersucht. Dabei wurden Konzentrationen von bis zu 104 ultrafeiner Aerosolpartikel mit 6 nm < d < 14 nm pro cm-3 Luft gemessen, deren hoher volatiler Anteil einen sicheren Hinweis darauf gibt, daß die Partikel durch den Prozeß der homogenen Nukleation gebildet wurden. Damit konnte erstmals die Schlußfolgerungen von Brock et al. (1995) durch direkte Messungen der ultrafeinen Partikelkonzentration weitergehend belegt werden, daß in der tropischen Tropopausenregion die Neubildung von Aerosolpartikeln durch homogene Nukleation stattfindet. Die vertikalen Verteilungen der stratosphärischen Aerosolpartikelkonzentration mittlerer Breiten verdeutlichen die Ausbildung einer über 6 Jahre hinweg nahezu konstanten Hintergrundkonzentration des stratosphärischen Aerosols unter vulkanisch unbeeinflußten Bedingungen. Ferner gibt die vergleichende Untersuchung der stratosphärischen Aerosolpartikelkonzentration aus polaren, mittleren und tropischen Breiten Aufschluß über den Transport und die Prozessierung des stratosphärischen Aerosols und insbesondere über den Austausch von Luftmassen zwischen der Stratosphäre und der Troposphäre.
Resumo:
Being basic ingredients of numerous daily-life products with significant industrial importance as well as basic building blocks for biomaterials, charged hydrogels continue to pose a series of unanswered challenges for scientists even after decades of practical applications and intensive research efforts. Despite a rather simple internal structure it is mainly the unique combination of short- and long-range forces which render scientific investigations of their characteristic properties to be quite difficult. Hence early on computer simulations were used to link analytical theory and empirical experiments, bridging the gap between the simplifying assumptions of the models and the complexity of real world measurements. Due to the immense numerical effort, even for high performance supercomputers, system sizes and time scales were rather restricted until recently, whereas it only now has become possible to also simulate a network of charged macromolecules. This is the topic of the presented thesis which investigates one of the fundamental and at the same time highly fascinating phenomenon of polymer research: The swelling behaviour of polyelectrolyte networks. For this an extensible simulation package for the research on soft matter systems, ESPResSo for short, was created which puts a particular emphasis on mesoscopic bead-spring-models of complex systems. Highly efficient algorithms and a consistent parallelization reduced the necessary computation time for solving equations of motion even in case of long-ranged electrostatics and large number of particles, allowing to tackle even expensive calculations and applications. Nevertheless, the program has a modular and simple structure, enabling a continuous process of adding new potentials, interactions, degrees of freedom, ensembles, and integrators, while staying easily accessible for newcomers due to a Tcl-script steering level controlling the C-implemented simulation core. Numerous analysis routines provide means to investigate system properties and observables on-the-fly. Even though analytical theories agreed on the modeling of networks in the past years, our numerical MD-simulations show that even in case of simple model systems fundamental theoretical assumptions no longer apply except for a small parameter regime, prohibiting correct predictions of observables. Applying a "microscopic" analysis of the isolated contributions of individual system components, one of the particular strengths of computer simulations, it was then possible to describe the behaviour of charged polymer networks at swelling equilibrium in good solvent and close to the Theta-point by introducing appropriate model modifications. This became possible by enhancing known simple scaling arguments with components deemed crucial in our detailed study, through which a generalized model could be constructed. Herewith an agreement of the final system volume of swollen polyelectrolyte gels with results of computer simulations could be shown successfully over the entire investigated range of parameters, for different network sizes, charge fractions, and interaction strengths. In addition, the "cell under tension" was presented as a self-regulating approach for predicting the amount of swelling based on the used system parameters only. Without the need for measured observables as input, minimizing the free energy alone already allows to determine the the equilibrium behaviour. In poor solvent the shape of the network chains changes considerably, as now their hydrophobicity counteracts the repulsion of like-wise charged monomers and pursues collapsing the polyelectrolytes. Depending on the chosen parameters a fragile balance emerges, giving rise to fascinating geometrical structures such as the so-called pear-necklaces. This behaviour, known from single chain polyelectrolytes under similar environmental conditions and also theoretically predicted, could be detected for the first time for networks as well. An analysis of the total structure factors confirmed first evidences for the existence of such structures found in experimental results.
Resumo:
Die Messung der Elektroproduktion geladener Pionen in der Nähe der Produktionsschwelle ermöglicht die Bestimmung des axialen Formfaktors des Nukleons G_A(Q²) und aus seinem Verlauf die Extraktion der axialen Masse M_A. Diese Größe kann im Rahmen der chiralen Störungstheorie vorhergesagt werden, so daß ihre experimentelle Bestimmung eine Überprüfung der theoretischen Beschreibung des Nukleons erlaubt. Im Rahmen dieser Arbeit wurden die bereits am Institut für Kernphysik der Universität Mainz in der A1-Kollaboration durchgeführten Messungen der Reaktion H(e,e'Pi+)n bei einer Schwerpunktsenergie von W = 1125 MeV und einem Vierer- impulsübertrag Q² von 0.117, 0.195 und 0.273 (GeV/c)² durch eine weitere Messung bei Q² = 0.058 (GeV/c)² ergänzt. In einer zweiten Meßperiode wurden zusätzlich die Messungen für die Q²-Werte von 0.117 und 0.195 (GeV/c)² wiederholt. Für alle Q²-Werte wurden Daten bei mindestens drei verschiedenen Werten der Polarisation des virtuellen Photons genommen, so daß für alle Messungen eine Rosenbluthseparation durchgeführt werden konnte, um den transversalen und den longitudinalen Anteil des Wirkungsquerschnitts zu bestimmen. Das Ergebnis für Q² = 0.195 (GeV/c)² stimmt im Rahmen der Fehler mit dem alten Ergebnis überein, für Q² = 0.117 (GeV/c)² ergibt sich eine deutliche Abweichung des longitudinalen Anteils. Das Ergebnis für Q² = 0.058 (GeV/c)² liegt unter der aus den alten Messungen gewonnenen Vorhersage. Der induzierte pseudoskalare Formfaktor des Nukleons G_P(Q²) kann ebenfalls in der Pionelektroproduktion bestimmt werden, wenn die Messung bei einer Schwerpunktsenergie nur wenige MeV über der Produktionsschwelle stattfindet. Eine solche Messung erfordert den Nachweis von Pionen mit kinetischen Energien unter 35 MeV, für den die in der A1-Kollaboration vorhandenen Spektrometer nicht geeignet sind. Im apparativen Teil der Arbeit wurde daher ein Szintillatorhodoskop für ein dediziertes Pionspektrometer mit kurzer Weglänge gebaut und getestet. Außerdem wurden für dieses sogenannte Short-Orbit-Spektrometer drei Kollimatoren entworfen und eingebaut.
Resumo:
Over the last three decades, sensors based on the phenomenon of surface plasmon resonance have proven particularly suitable for real time thin film characterization, gas detection, biomolecular interaction examination and to supplement electrochemical methods. Systems based on prism coupling have been combined with fluorescence detection under the name of surface plasmon fluorescence spectroscopy to increase sensitivity even further. Alternatively, metal gratings can be employed to match photons for plasmon resonance. The real time monitoring of binding reactions not yet been reported in the combination of fluorescence detection and grating coupling. Grating-based systems promise more competitive products, because of reduced operating costs, and offer benefits for device engineering. This thesis is comprised of a comprehensive study of the suitability of grating coupling for fluorescence based analyte detection. Fundamental properties of grating coupled surface plasmon fluorescence spectroscopy are described, as well as issues related to the commercial realization of the method. Several new experimental techniques are introduced and demonstrated in order to optimize performance in certain areas and improve upon capabilities in respect to prism-based systems. Holographically fabricated gratings are characterized by atomic force microscopy and optical methods, aided by simulations and profile parameters responsible for efficient coupling are analyzed. The directional emission of fluorophores immobilized on a grating surface is studied in detail, including the magnitude and geometry of the fluorescence emission pattern for different grating constants and polarizations. Additionally, the separation between the minimum of the reflected intensity and the maximum fluorescence excitation position is examined. One of the key requirements for the commercial feasibility of grating coupling is the cheap and faithful mass production of disposable samples from a given master grating. The replication of gratings is demonstrated by a simple hot embossing method with good reproducibility to address this matter. The in-situ fluorescence detection of analyte immobilization and affinity measurements using grating coupling are described for the first time. The physical factors related to the sensitivity of the technique are assessed and the lower limit of detection of the technique is determined for an exemplary assay. Particular attention is paid to the contribution of bulk fluorophores to the total signal in terms of magnitude and polarization of incident and emitted light. Emission from the bulk can be a limiting factor for experiments with certain assay formats. For that reason, a novel optical method, based on the modulation of both polarization and intensity of the incident beam, is introduced and demonstrated to be capable of eliminating this contribution.
Resumo:
In this work we develop and analyze an adaptive numerical scheme for simulating a class of macroscopic semiconductor models. At first the numerical modelling of semiconductors is reviewed in order to classify the Energy-Transport models for semiconductors that are later simulated in 2D. In this class of models the flow of charged particles, that are negatively charged electrons and so-called holes, which are quasi-particles of positive charge, as well as their energy distributions are described by a coupled system of nonlinear partial differential equations. A considerable difficulty in simulating these convection-dominated equations is posed by the nonlinear coupling as well as due to the fact that the local phenomena such as "hot electron effects" are only partially assessable through the given data. The primary variables that are used in the simulations are the particle density and the particle energy density. The user of these simulations is mostly interested in the current flow through parts of the domain boundary - the contacts. The numerical method considered here utilizes mixed finite-elements as trial functions for the discrete solution. The continuous discretization of the normal fluxes is the most important property of this discretization from the users perspective. It will be proven that under certain assumptions on the triangulation the particle density remains positive in the iterative solution algorithm. Connected to this result an a priori error estimate for the discrete solution of linear convection-diffusion equations is derived. The local charge transport phenomena will be resolved by an adaptive algorithm, which is based on a posteriori error estimators. At that stage a comparison of different estimations is performed. Additionally a method to effectively estimate the error in local quantities derived from the solution, so-called "functional outputs", is developed by transferring the dual weighted residual method to mixed finite elements. For a model problem we present how this method can deliver promising results even when standard error estimator fail completely to reduce the error in an iterative mesh refinement process.
Resumo:
Neuronen haben für die Informationsübertragung untereinander spezielle Strukturen entwickelt, welche als Synapsen bezeichnet werden. Um eine schnelle und präzise synaptische Signalübertragung zu gewährleisten, ist eine hohe Konzentration von Neurotransmitter-regulierten Ionenkanälen in der postsynaptischen Plasmamembran notwendig. Die spezifische Verankerung der Rezeptoren wird durch intrazelluläre Proteine der Postsynapse vermittelt. Das periphere Membranprotein Gephyrin spielt eine essentielle Rolle in der synaptischen Lokalisation von Glyzin- und GABAA-Rezeptoren an inhibitorischen Synapsen. Um das postsynaptische Netzwerk zu stabilisieren, ist eine Interaktion von Gephyrin mit Proteinen der Mikrofilamente und der Mikrotubuli nötig. In der vorliegenden Arbeit sollte analysiert werden, wie Gephyrin mit dem Aktin-Zytoskelett interagiert, und ob die Größe und Stabilität neuronaler Gephyrincluster durch das Aktin-Zytoskelett reguliert wird. Dies wurde mittels Expression von GFP-Gephyrin-Konstrukten in HEK293T-Zellen und Aktin-depolymerisierende Alkaloidbehandlung von hippokampalen Primärkulturzellen untersucht. Der Einfluss unterschiedlicher Signalkaskaden auf die Lokalisation und Funktionalität von GABAA- oder Glyzin-Rezeptoren wurde bereits intensiv untersucht, jedoch für Rezeptor-assoziierte Proteine wie Gephyrin existierten nur wenig relevante Daten. Ein weiteres Ziel war daher, durch pharmakologische Beeinflussung von Schlüsselenzymen in hippokampalen Primärkulturen jene Signalwege zu identifizieren, die am Transport von Gephyrin, seiner Stabilisierung im postsynaptischen Netzwerk und seinem Abbau beteiligt sind. Im Verlauf der Arbeit konnte belegt werden, dass das Aktin-regulierende Phosphoprotein ena/VASP als Adapter die Interaktion von Gephyrin mit F-Aktin vermittelt, und dass diese Bindung ausreicht, um Gephyrin an das Aktin-Zytoskelett zu rekrutieren. Entgegen früheren Veröffentlichungen konnte die Bindung von ena/VASP im Bereich der sog. Linkerregion von Gephyrin nachgewiesen werden. Aktin-depolymerisierende Alkaloidbehandlungen von hippokampalen Neuronen bestätigten, das die Lokalisation von Gephyrin an sich entwickelnden inhibitorischen Kontakten von einem intakten Mikrofilamentsystem abhängig zu sein scheint. Das Aktin-Zytoskelett könnte somit eine transiente Rolle in der Ausbildung und Stabilisierung des Gephyrin-Netzwerkes in der frühen Entwicklung von inhibitorischen GABAergen Synapsen haben, während die Abhängigkeit der synaptisch-lokalisierten Gephyrincluster vom Aktin-Zytoskelett mit steigender neuronaler Differenzierung abnimmt. Zusätzlich konnte erstmals der Einfluss einzelner Signaltransduktionskaskaden auf die synaptische Lokalisation von Gephyrin nachgewiesen werden. Dabei hatte die Inhibition der Protein- Phosphatasen 1 und 2A eine Destabilisierung synaptisch-lokalisierter Gephyrincluster bei gleichzeitigem Anstieg der zytoplasmatischen Immunreaktivität zur Folge. Dies ist möglicherweise auf eine Hyperphosphorylierung wichtiger Sequenzabschnitten von Gephyrin zurückzuführen, wobei Änderungen im Phosphorylierungsstatus der Linkerregion von Gephyrin unter anderem die Assoziation mit dem Zytoskelett beeinträchtigen oder lösen könnten. Umgekehrt könnte eine Dephosphorylierung möglicherweise die Stabilität der Vernetzung erhöht. Kopräzipitationsstudien konnten zusätzlich nachweisen, dass Gephyrin, PP1 und PP2A nicht nur gemeinsam an inhibitorischen Synapsen vorliegen, sondern dass eine direkte Interaktion besteht. Dabei handelt es sich um den ersten Nachweis einer direkten Bindung von Gephyrin an Ser/Thr-Phosphatasen. Die Komplexbildung von PP1 und PP2A mit Gephyrin könnten der Regulation des Phosphorylierungsgrades dienen. Der genaue Mechanismus wird jedoch in weiteren Experimenten zu untersuchen sein.
Resumo:
Bohrbrunnen sind die unmittelbare Schnittstelle zwischen dem Grundwasser als Ressource und der Nutzung zur Trinkwasserbereitstellung. Ihre Leistung nimmt jedoch mit fortschreitendem Alter infolge komplexer chemischer und biologischer Vorgänge ab, so dass sie regelmäßig gewartet und regeneriert werden müssen. Um die Auswahl geeigneter Maßnahmen zu erleichtern, erfolglose Regenerierungen zu vermeiden und Kosten zu sparen, ist ein geeignetes, auf den Betrieb und die Standortbedingungen ausgelegtes Überwachungsprogramm notwendig, Im Rahmen der Arbeit wurden aus den Ergebnissen von Regeneriermaßnahmen mit dem Ultraschallverfahren an Brunnen des Wasserwerkes Wiesbaden-Schierstein und der Analyse vorliegender Altdaten Zusammenhänge zwischen der Brunnenalterung und dem Regeneriererfolg einerseits und der Dokumentation und Überwachung eines Brunnens andererseits abgeleitet. Sie bildet damit die noch fehlende Brücke zwischen der Betrachtung einzelner Verfahren und einer allgemeingültigen Brunnenbewirtschaftung. Aus den Schlussfolgerungen für das Wasserwerk Wiesbaden-Schierstein, den Empfehlungen des DVGW, dem Fachwissen aus anderen Publikationen und der Einbeziehung der Erfahrungen aus der wissenschaftlichen Begleitung von Regenerierungen mit Ultraschall konnten die Mindestparameter unter geologischen und hydrochemischen Aspekten und daraus ein Leitfaden zur Entscheidungshilfe über Zeitpunkt und Wahl des Verfahrens einer Brunnenregenerierung abgeleitet werden. Das richtige Brunnenmonitoring ist somit Grundlage der optimalen Brunnennutzung und –pflege.
Resumo:
Die Berechnung von experimentell überprüfbaren Vorhersagen aus dem Standardmodell mit Hilfe störungstheoretischer Methoden ist schwierig. Die Herausforderungen liegen in der Berechnung immer komplizierterer Feynman-Integrale und dem zunehmenden Umfang der Rechnungen für Streuprozesse mit vielen Teilchen. Neue mathematische Methoden müssen daher entwickelt und die zunehmende Komplexität durch eine Automatisierung der Berechnungen gezähmt werden. In Kapitel 2 wird eine kurze Einführung in diese Thematik gegeben. Die nachfolgenden Kapitel sind dann einzelnen Beiträgen zur Lösung dieser Probleme gewidmet. In Kapitel 3 stellen wir ein Projekt vor, das für die Analysen der LHC-Daten wichtig sein wird. Ziel des Projekts ist die Berechnung von Einschleifen-Korrekturen zu Prozessen mit vielen Teilchen im Endzustand. Das numerische Verfahren wird dargestellt und erklärt. Es verwendet Helizitätsspinoren und darauf aufbauend eine neue Tensorreduktionsmethode, die Probleme mit inversen Gram-Determinanten weitgehend vermeidet. Es wurde ein Computerprogramm entwickelt, das die Berechnungen automatisiert ausführen kann. Die Implementierung wird beschrieben und Details über die Optimierung und Verifizierung präsentiert. Mit analytischen Methoden beschäftigt sich das vierte Kapitel. Darin wird das xloopsnosp-Projekt vorgestellt, das verschiedene Feynman-Integrale mit beliebigen Massen und Impulskonfigurationen analytisch berechnen kann. Die wesentlichen mathematischen Methoden, die xloops zur Lösung der Integrale verwendet, werden erklärt. Zwei Ideen für neue Berechnungsverfahren werden präsentiert, die sich mit diesen Methoden realisieren lassen. Das ist zum einen die einheitliche Berechnung von Einschleifen-N-Punkt-Integralen, und zum anderen die automatisierte Reihenentwicklung von Integrallösungen in höhere Potenzen des dimensionalen Regularisierungsparameters $epsilon$. Zum letzteren Verfahren werden erste Ergebnisse vorgestellt. Die Nützlichkeit der automatisierten Reihenentwicklung aus Kapitel 4 hängt von der numerischen Auswertbarkeit der Entwicklungskoeffizienten ab. Die Koeffizienten sind im allgemeinen Multiple Polylogarithmen. In Kapitel 5 wird ein Verfahren für deren numerische Auswertung vorgestellt. Dieses neue Verfahren für Multiple Polylogarithmen wurde zusammen mit bekannten Verfahren für andere Polylogarithmus-Funktionen als Bestandteil der CC-Bibliothek ginac implementiert.
Resumo:
Die reblausresistente Unterlagsrebsorte ’Börner’ reagiert auf einen Reblausbefall mit einer Hypersensitivitätsreaktion (HR), die sich in Form von Nekrosen an Blättern und Wurzeln zeigt. Im Rahmen dieser Dissertation wurde der Resistenzmechanismus mittels differenzieller Genexpressionsanalysen untersucht. Unter Anwendung der suppressiven subtraktiven Hybridisierung, der DNA-Microarraytechnik sowie der GeneFishingTM-Methode erfolgte ein Vergleich zwischen der Genexpression in hypersensitivem Wurzelgewebe und Normalgewebe der Unterlagsrebe ’Börner’. Neben der Reblaus induzierten HR wurde insbesondere auf die experimentelle Induktion durch das Pflanzenhormon Indol-3-Essigsäure (IES) zurückgegriffen. Damit sollten Kenntnisse über die Rolle der IES als auslösender Faktor der Resistenzreaktion gewonnen werden. Die Ergebnisse bestätigen die Annahme, dass die IES Pathogenabwehrreaktionen in ’Börner’ induziert. So konnten Hinweise auf die transkriptionelle Aktivierung Resistenz und HR assoziierter Proteine gefunden werden, wie z.B. Phytoalexine und pathogen-related (PR)-Proteine sowie Vertreter aus der hypersensitive-induced response-Familie. Es konnten weiterhin wertvolle Informationen im Hinblick auf die Transduktion des IES-Signals im Zusammenhang mit der Aktivierung von Resistenzreaktionen gewonnen werden. So wurden Hinweise auf die Beteiligung der Signalsubstanzen Ethylen, Salicylsäure, Jasmonsäure, Calcium sowie reaktiver Sauerstoffspezies gefunden. Es konnten zudem Anhaltspunkte für die Aktivierung des Auxin induzierten Ubiquitin/26S-Proteolyseweges und weiterer Signalkomponenten, wie z.B. Kinasen und Transkriptionsfaktoren, ermittelt werden. Auch auf die Beteiligung von Auxinrezeptoren konnte aufgrund der Resultate geschlossen werden. Damit war es im Rahmen der Dissertation möglich, potenzielle Signaltransduktionswege zu erarbeiten, die für weiterführende Untersuchungen des Reblausresistenzmechanismus von entscheidender Bedeutung sind.
Resumo:
X-ray laser fluorescence spectroscopy of the 2s-2p transition in Li-like ions is promising to become a widely applicable tool to provide information on the nuclear charge radii of stable and radioactive isotopes. For performing such experiments at the Experimental Storage Ring ESR, and the future NESR within the FAIR Project, a grazing incidence pumped (GRIP) x-ray laser (XRL) was set up at GSI Darmstadt using PHELIX (Petawatt High Energy Laser for heavy Ions eXperiments). The experiments demonstrated that lasing using the GRIP geometry could be achieved with relatively low pump energy, a prerequisite for higher repetition rate. In the first chapter the need of a plasma XRL is motivated and a short history of the plasma XRL is presented. The distinctive characteristic of the GRIP method is the controlled deposition of the pump laser energy into the desired plasma density region. While up to now the analysis performed were mostly concerned with the plasma density at the turning point of the main pump pulse, in this thesis it is demonstrated that also the energy deposition is significantly modified for the GRIP method, being sensitive in different ways to a large number of parameters. In the second chapter, the theoretical description of the plasma evolution, active medium and XRL emission properties are reviewed. In addition an innovative analysis of the laser absorption in plasma which includes an inverse Bremsstrahlung (IB) correction factor is presented. The third chapter gives an overview of the experimental set-up and diagnostics, providing an analytical formula for the average and instantaneous traveling wave speed generated with a tilted, on-axis spherical mirror, the only focusing system used up to now in GRIP XRL. The fourth chapter describes the experimental optimization and results. The emphasis is on the effect of the incidence angle of the main pump pulse on the absorption in plasma and on output and gain in different lasing lines. This is compared to the theoretical results for two different incidence angles. Significant corrections for the temperature evolution during the main pump pulse due to the incidence angle are demonstrated in comparison to a simple analytical model which does not take into account the pumping geometry. A much better agreement is reached by the model developed in this thesis. An interesting result is also the appearance of a central dip in the spatially resolved keV emission which was observed in the XRL experiments for the first time and correlates well with previous near field imaging and plasma density profile measurements. In the conclusion also an outlook to the generation of shorter wavelength XRL’s is given.
Resumo:
In Drosophila melanogaster wird das Nervensystem von neuralen Vorläuferzellen, den Neuroblasten (NB) gebildet. Diese teilen sich im Stammzellmodus und bringen bei jeder Teilung eine Ganglienmutterzelle (GMZ) hervor. GMZ teilen sich einmal und generieren zwei Zellen, die ein neuronales und/oder gliales Schicksal annehmen. Die Reihenfolge in der ein NB GMZ generiert, ist vermutlich ein zellautonomer Prozess, der an die transiente und sequenzielle Expression der Transkriptionsfaktoren Hunchback (Hb), Krüppel (Kr), Pdm, Castor (Cas) und Grainy head (Grh) gekoppelt ist. Hb ist der erste Faktor dieser Genkaskade. Damit der NB zur nächsten zeitlichen Identität übergehen kann, die in der Regel von Kr bestimmt wird, muss die Hb-Expression im NB beendet werden. Das Abschalten wird transkriptionell reguliert und ist von einer vorhergehenden Mitose abhängig. Im Gegensatz zum NB wird in der GMZ, die bei dieser Teilung entsteht, die Hb-Expression beibehalten. In der vorliegenden Arbeit wurde der Mitose-abhängige Mechanismus aufgeklärt, durch den eine selektive Abschaltung von hb im NB erfolgt, nicht aber in der GMZ. Der Transkriptionsfaktor Seven-up (Svp) beendet die hb-Expression im NB. svp wird vor der entscheidenden Zellteilung im NB transkribiert, aber kaum translatiert. Nach erfolgter Zellteilung wird Svp verstärkt translatiert und sowohl im NB als auch in der neu entstandenen GMZ exprimiert. Im NB führt die Svp-Funktion zur Abschaltung von Hb. In der ebenfalls Svp-positiven GMZ verhindert jedoch Prospero (Pros), das während der Teilung in diese Zelle segregiert ist, die Aktivität von Svp. Um zu überprüfen, ob Svp und Pros die Transkription von Hb entweder direkt oder indirekt regulieren, wurde eine Enhancerfragment-Analyse durchgeführt. Durch diese Unter-suchungen sollten relevante regulatorische Bereiche des hb-Gens identifiziert werden. Zusätzlich zu den bereits bekannten Regionen im 5´-Bereich von hb, konnten 3´ des transkribierten Bereiches weitere nervensystemspezifische Enhancerelemente gefunden werden. Neben der Spezifizierung von früh geborenen Nachkommen von NB hat Hb im Nervensystem die Funktion, den multipotenten Zustand junger NB aufrecht zu erhalten. Um den Beitrag einzelner Domänen des Hb-Proteins an diesen Aufgaben zu bestimmen, wurden verschiedene hb-Varianten, in denen spezifische Domänen deletiert bzw. mutiert waren, im NB7-1 überexprimiert und auf die Induktion von „frühem“ Schicksal getestet. In einem zweiten Ansatz wurden mutante hb-Allele analysiert. Es stellte sich heraus, dass der D-Box eine entscheidende Rolle bei der Spezifizierung von „frühem“ Schicksal zukommt. Die terminalen Zinkfinger sind vermutlich in die Aufrechterhaltung der Kompetenz von NB involviert. Eine Deletion der A-Box erhöht möglicherweise die Aktivität des Hb-Proteins.