96 resultados para Teilchen


Relevância:

10.00% 10.00%

Publicador:

Resumo:

The present thesis is concerned with the study of a quantum physical system composed of a small particle system (such as a spin chain) and several quantized massless boson fields (as photon gasses or phonon fields) at positive temperature. The setup serves as a simplified model for matter in interaction with thermal "radiation" from different sources. Hereby, questions concerning the dynamical and thermodynamic properties of particle-boson configurations far from thermal equilibrium are in the center of interest. We study a specific situation where the particle system is brought in contact with the boson systems (occasionally referred to as heat reservoirs) where the reservoirs are prepared close to thermal equilibrium states, each at a different temperature. We analyze the interacting time evolution of such an initial configuration and we show thermal relaxation of the system into a stationary state, i.e., we prove the existence of a time invariant state which is the unique limit state of the considered initial configurations evolving in time. As long as the reservoirs have been prepared at different temperatures, this stationary state features thermodynamic characteristics as stationary energy fluxes and a positive entropy production rate which distinguishes it from being a thermal equilibrium at any temperature. Therefore, we refer to it as non-equilibrium stationary state or simply NESS. The physical setup is phrased mathematically in the language of C*-algebras. The thesis gives an extended review of the application of operator algebraic theories to quantum statistical mechanics and introduces in detail the mathematical objects to describe matter in interaction with radiation. The C*-theory is adapted to the concrete setup. The algebraic description of the system is lifted into a Hilbert space framework. The appropriate Hilbert space representation is given by a bosonic Fock space over a suitable L2-space. The first part of the present work is concluded by the derivation of a spectral theory which connects the dynamical and thermodynamic features with spectral properties of a suitable generator, say K, of the time evolution in this Hilbert space setting. That way, the question about thermal relaxation becomes a spectral problem. The operator K is of Pauli-Fierz type. The spectral analysis of the generator K follows. This task is the core part of the work and it employs various kinds of functional analytic techniques. The operator K results from a perturbation of an operator L0 which describes the non-interacting particle-boson system. All spectral considerations are done in a perturbative regime, i.e., we assume that the strength of the coupling is sufficiently small. The extraction of dynamical features of the system from properties of K requires, in particular, the knowledge about the spectrum of K in the nearest vicinity of eigenvalues of the unperturbed operator L0. Since convergent Neumann series expansions only qualify to study the perturbed spectrum in the neighborhood of the unperturbed one on a scale of order of the coupling strength we need to apply a more refined tool, the Feshbach map. This technique allows the analysis of the spectrum on a smaller scale by transferring the analysis to a spectral subspace. The need of spectral information on arbitrary scales requires an iteration of the Feshbach map. This procedure leads to an operator-theoretic renormalization group. The reader is introduced to the Feshbach technique and the renormalization procedure based on it is discussed in full detail. Further, it is explained how the spectral information is extracted from the renormalization group flow. The present dissertation is an extension of two kinds of a recent research contribution by Jakšić and Pillet to a similar physical setup. Firstly, we consider the more delicate situation of bosonic heat reservoirs instead of fermionic ones, and secondly, the system can be studied uniformly for small reservoir temperatures. The adaption of the Feshbach map-based renormalization procedure by Bach, Chen, Fröhlich, and Sigal to concrete spectral problems in quantum statistical mechanics is a further novelty of this work.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In dieser Arbeit aus dem Bereich der Wenig-Nukleonen-Physik wird die neu entwickelte Methode der Lorentz Integral Transformation (LIT) auf die Untersuchung von Kernphotoabsorption und Elektronenstreuung an leichten Kernen angewendet. Die LIT-Methode ermoeglicht exakte Rechnungen durchzufuehren, ohne explizite Bestimmung der Endzustaende im Kontinuum. Das Problem wird auf die Loesung einer bindungzustandsaehnlichen Gleichung reduziert, bei der die Endzustandswechselwirkung vollstaendig beruecksichtigt wird. Die Loesung der LIT-Gleichung wird mit Hilfe einer Entwicklung nach hypersphaerischen harmonischen Funktionen durchgefuehrt, deren Konvergenz durch Anwendung einer effektiven Wechselwirkung im Rahmem des hypersphaerischen Formalismus (EIHH) beschleunigt wird. In dieser Arbeit wird die erste mikroskopische Berechnung des totalen Wirkungsquerschnittes fuer Photoabsorption unterhalb der Pionproduktionsschwelle an 6Li, 6He und 7Li vorgestellt. Die Rechnungen werden mit zentralen semirealistischen NN-Wechselwirkungen durchgefuehrt, die die Tensor Kraft teilweise simulieren, da die Bindungsenergien von Deuteron und von Drei-Teilchen-Kernen richtig reproduziert werden. Der Wirkungsquerschnitt fur Photoabsorption an 6Li zeigt nur eine Dipol-Riesenresonanz, waehrend 6He zwei unterschiedliche Piks aufweist, die dem Aufbruch vom Halo und vom Alpha-Core entsprechen. Der Vergleich mit experimentellen Daten zeigt, dass die Addition einer P-Wellen-Wechselwirkung die Uebereinstimmung wesentlich verbessert. Bei 7Li wird nur eine Dipol-Riesenresonanz gefunden, die gut mit den verfuegbaren experimentellen Daten uebereinstimmt. Bezueglich der Elektronenstreuung wird die Berechnung der longitudinalen und transversalen Antwortfunktionen von 4He im quasi-elastischen Bereich fuer mittlere Werte des Impulsuebertrages dargestellt. Fuer die Ladungs- und Stromoperatoren wird ein nichtrelativistisches Modell verwendet. Die Rechnungen sind mit semirealistischen Wechselwirkungen durchgefuert und ein eichinvarianter Strom wird durch die Einfuehrung eines Mesonaustauschstroms gewonnen. Die Wirkung des Zweiteilchenstroms auf die transversalen Antwortfunktionen wird untersucht. Vorlaeufige Ergebnisse werden gezeigt und mit den verfuegbaren experimentellen Daten verglichen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Zu den Hauptcharakteristika von Teilchen gehoert - neben der Masse - die Lebensdauer. Die mittlere Lebensdauer des Xi0-Hyperons, die sich aus der mittleren Lebensdauer des Xi--Hyperons ueber die Delta I=1/2-Regel theoretisch voraussagen laesst, wurde bereits mehrfach experimentell bestimmt. Die neueste Messung aus dem Jahr 1977 besitzt jedoch eine relative Unsicherheit von 5%, was sich mit Daten neuerer Experimente deutlich verbessern laesst. Die mittlere Lebensdauer ist ein wichtiger Parameter bei der Bestimmung des Matrixelements Vus der Cabibbo-Kobayashi-Maskawa-Matrix in semileptonischen Xi0-Zerfaellen. Im Jahre 2002 wurde mit dem NA48-Detektor eine Datennahme mit hoher Intensitaet durchgefuehrt, bei der unter anderem etwa 10^9 Xi0-Zerfallskandidaten aufgezeichnet wurden. Davon wurden im Rahmen dieser Arbeit 192000 Ereignisse des Typs "Xi0 nach Lambda pi0" rekonstruiert und 107000 Ereignisse zur Bestimmung der mittleren Lebensdauer durch Vergleich mit simulierten Ereignissen verwendet. Zur Vermeidung von systematischen Fehlern wurde die Lebensdauer in zehn Energieintervallen durch Vergleich von gemessenen und simulierten Daten ermittelt. Das Ergebnis ist wesentlich genauer als bisherige Messungen und weicht vom Literaturwert (tau=(2,90+-0,09)*10^(-10)s) um (+4,99+-0,50(stat)+-0,58(syst))% ab, was 1,7 Standardabweichungen entspricht. Die Lebensdauer ergibt sich zu tau=(3,045+-0,015(stat)+-0,017(syst))*10^(-10)s. Auf die gleiche Weise konnte mit den zur Verfuegung stehenden Daten erstmals die Lebensdauer des Anti-Xi0-Hyperons gemessen werden. Das Ergebnis dieser Messung ist tau=(3,042+-0,045(stat)+-0,017(syst))*10^(-10)s.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Sterne mit einer Anfangsmasse zwischen etwa 8 und 25 Sonnenmassen enden ihre Existenz mit einer gewaltigen Explosion, einer Typ II Supernova. Die hierbei entstehende Hoch-Entropie-Blase ist ein Bereich am Rande des sich bildenden Neutronensterns und gilt als möglicher Ort für den r-Prozess. Wegen der hohen Temperatur T innerhalb der Blase ist die Materie dort vollkommen photodesintegriert. Das Verhältnis von Neutronen zu Protonen wird durch die Elektronenhäufigkeit Ye beschrieben. Die thermodynamische Entwicklung des Systems wird durch die Entropie S gegeben. Da die Expansion der Blase schnell vonstatten geht, kann sie als adiabatisch betrachtet werden. Die Entropie S ist dann proportional zu T^3/rho, wobei rho die Dichte darstellt. Die explizite Zeitentwicklung von T und rho sowie die Prozessdauer hängen von Vexp, der Expansionsgeschwindigkeit der Blase, ab. Der erste Teil dieser Dissertation beschäftigt sich mit dem Prozess der Reaktionen mit geladenen Teilchen, dem alpha-Prozess. Dieser Prozess endet bei Temperaturen von etwa 3 mal 10^9 K, dem sogenannten "alpha-reichen" Freezeout, wobei überwiegend alpha-Teilchen, freie Neutronen sowie ein kleiner Anteil von mittelschweren "Saat"-Kernen im Massenbereich um A=100 gebildet werden. Das Verhältnis von freien Neutronen zu Saatkernen Yn/Yseed ist entscheidend für den möglichen Ablauf eines r-Prozesses. Der zweite Teil dieser Arbeit beschäftigt sich mit dem eigentlichen r-Prozess, der bei Neutronenanzahldichten von bis zu 10^27 Neutronen pro cm^3 stattfindet, und innerhalb von maximal 400 ms sehr neutronenreiche "Progenitor"-Isotope von Elementen bis zum Thorium und Uran bildet. Bei dem sich anschliessendem Ausfrieren der Neutroneneinfangreaktionen bei 10^9 K und 10^20 Neutronen pro cm^3 erfolgt dann der beta-Rückzerfall der ursprünglichen r-Prozesskerne zum Tal der Stabilität. Diese Nicht-Gleichgewichts-Phase wird in der vorliegenden Arbeit in einer Parameterstudie eingehend untersucht. Abschliessend werden astrophysikalische Bedingungen definiert, unter denen die gesamte Verteilung der solaren r-Prozess-Isotopenhäufigkeiten reproduziert werden können.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Sowohl die Komplexierung von Polyelektrolyten mit anorganischen Salzen, als auch die mit entgegengesetzt geladenen Polymeren wurde von vielen Autoren bereits intensiv untersucht. Doch gerade mit Molekülen die zwischen diesen beiden Extremen liegen, sollte es möglich sein, durch elektrostatische Wechselwirkungen gezielt nanometergroße Teilchen definierter Struktur herzustellen. Ziel dieser Arbeit war es deshalb, die Strukturbildung doppelthydrophiler Blockcopolymere mit mehrwertigen organischen Gegenionen zu untersuchen und insbesondere Parameter für die Bildung supramolekularer Strukturen in wässriger Lösung zu finden. Als Blockcopolymer wurde dabei Polyethylenoxid-b-methacrylsäure mittels anionischer Polymerisation hergestellt und mittels Gelpermeationschromatographie (GPC) und Kernresonanzspektroskopie (NMR)charakterisiert. Die Strukturbildung des Polyelektrolyten mit mehrwertigen organischen Gegenionen wurde in pH = 6- und pH = 7-Pufferlösung mit dynamischer und statischer Lichtstreuung, Kleinwinkelneutronenstreuung und Ultrazentrifugation untersucht. Mit Diaminobenzidin als Gegenion wurden dabei sphärische Komplexe mit einem hydrodynamischen Radius um 100 nm erhalten und mit Ultrazentrifugation der Anteil des Gegenions im Komplex quantifiziert. Die schlechte Löslichkeit des Diaminobenzidins in wässrigem Medium erschwerte allerdings die Interpretation der Ergebnisse. Trotzdem deuten diese darauf hin, dass keine Kolloidbildung des Diaminobenzidins, sondern eine Komplexierung der Einzelmoleküle mit dem Copolymer vorliegt. Um Probleme mit der Löslichkeit zu vermeiden, wurden schliesslich Polyamidoamin-Dendrimere als Gegenionen verwendet. Dabei wurde in pH = 6- und pH = 7-Pufferlösung für Dendrimere der Generation 4 mit steigender Gegenionenkonzentration ein kontinuierlicher Anstieg des hydrodynamischen Radius bis zu einer Größe von 70 nm gefunden. Mit Kleinwinkelneutronenstreuung konnte eine ellipsoidale Struktur dieser Komplexe beobachtet werden. Auch die Größe der Gegenionen spielt für die Bildung supramolekularer Aggregate eine Rolle. So zeigte sich, dass für Polyamidoamin-Dendrimere der Generation 2, analog zu denen der Generation 4, ein Anstieg des hydrodynamischen Radius mit steigender Gegenionenkonzentration zu beobachten ist. Für Generation 0-Dendrimere hingegen wurde ein umgekehrter Verlauf beobachtet, welcher dem für Diaminobenzidin gleicht. Somit kann man annehmen, dass die Aggregation mit kleinen Molekülen zu einer anderen Struktur der Komplexe führt, als die mit größeren Molekülen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ein neu konstruierter Kondensationskernzähler COPAS (COndensation PArticle counting System) für in-situ-Messungen der Konzentration von Aitken-Teilchen und ultrafeinen Aerosolpartikeln wurde im Rahmen dieser Arbeit erstmals erfolgreich bei Flugzeugmessungen eingesetzt. COPAS ist ein für flugzeuggestützte Messungen an Bord des Forschungsflugzeuges „Geophysica“ in der oberen Troposphäre und unteren Stratosphäre angepaßtes und voll automatisiertes System. Die Verfahrensweise, die Aerosolpartikel des Größenbereichs mit Durchmessern d < 100 nm zum Anwachsen zu bringen, um sie mittels optischer Detektion zu erfassen, ist im COPAS durch das Prinzip der thermischen Diffusion realisiert, wodurch eine kontinuierliche Messung der Aerosolkonzentration mit der untersten Nachweisgrenze für Partikeldurchmesser von d = 6 nm gewährleistet ist. Durch die Verwendung einer Aerosolheizung ist die Unterscheidung von volatilem und nichtvolatilem Anteil des Aerosols mit COPAS möglich. In umfassenden Laborversuchen wurde das COPAS-System hinsichtlich der unteren Nachweisgrenze in Abhängigkeit von der Betriebstemperatur und bei verschiedenen Druckbedingungen charakterisiert sowie die Effizienz der Aerosolheizung bestimmt. Flugzeuggestützte Messungen fanden in mittleren und polaren Breiten im Rahmen des EUPLEX-/ENVISAT-Validierungs–Projektes und in den Tropen während der TROCCINOX/ENVISAT-Kampagne statt. Die Messungen der vertikalen Konzentrationsverteilung des Aerosols ergaben in polaren Breiten eine Zunahme der Konzentration oberhalb von 17 km innerhalb des polaren Vortex mit hohem Anteil nichtvolatiler Partikel von bis zu 70 %. Als Ursache hierfür wird der Eintrag von meteoritischen Rauchpartikeln aus der Mesosphäre in die obere und mittlere Stratosphäre des Vortex angesehen. Ferner konnte in der unteren Stratosphäre des polaren Vortex der Einfluß troposphärischer Luft aus niedrigen Breiten festgestellt werden, die sich in einer hohen Variabilität der Aerosolpartikelkonzentration manifestiert. In tropischen Breiten wurde die Tropopausenregion untersucht. Dabei wurden Konzentrationen von bis zu 104 ultrafeiner Aerosolpartikel mit 6 nm < d < 14 nm pro cm-3 Luft gemessen, deren hoher volatiler Anteil einen sicheren Hinweis darauf gibt, daß die Partikel durch den Prozeß der homogenen Nukleation gebildet wurden. Damit konnte erstmals die Schlußfolgerungen von Brock et al. (1995) durch direkte Messungen der ultrafeinen Partikelkonzentration weitergehend belegt werden, daß in der tropischen Tropopausenregion die Neubildung von Aerosolpartikeln durch homogene Nukleation stattfindet. Die vertikalen Verteilungen der stratosphärischen Aerosolpartikelkonzentration mittlerer Breiten verdeutlichen die Ausbildung einer über 6 Jahre hinweg nahezu konstanten Hintergrundkonzentration des stratosphärischen Aerosols unter vulkanisch unbeeinflußten Bedingungen. Ferner gibt die vergleichende Untersuchung der stratosphärischen Aerosolpartikelkonzentration aus polaren, mittleren und tropischen Breiten Aufschluß über den Transport und die Prozessierung des stratosphärischen Aerosols und insbesondere über den Austausch von Luftmassen zwischen der Stratosphäre und der Troposphäre.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In this work we develop and analyze an adaptive numerical scheme for simulating a class of macroscopic semiconductor models. At first the numerical modelling of semiconductors is reviewed in order to classify the Energy-Transport models for semiconductors that are later simulated in 2D. In this class of models the flow of charged particles, that are negatively charged electrons and so-called holes, which are quasi-particles of positive charge, as well as their energy distributions are described by a coupled system of nonlinear partial differential equations. A considerable difficulty in simulating these convection-dominated equations is posed by the nonlinear coupling as well as due to the fact that the local phenomena such as "hot electron effects" are only partially assessable through the given data. The primary variables that are used in the simulations are the particle density and the particle energy density. The user of these simulations is mostly interested in the current flow through parts of the domain boundary - the contacts. The numerical method considered here utilizes mixed finite-elements as trial functions for the discrete solution. The continuous discretization of the normal fluxes is the most important property of this discretization from the users perspective. It will be proven that under certain assumptions on the triangulation the particle density remains positive in the iterative solution algorithm. Connected to this result an a priori error estimate for the discrete solution of linear convection-diffusion equations is derived. The local charge transport phenomena will be resolved by an adaptive algorithm, which is based on a posteriori error estimators. At that stage a comparison of different estimations is performed. Additionally a method to effectively estimate the error in local quantities derived from the solution, so-called "functional outputs", is developed by transferring the dual weighted residual method to mixed finite elements. For a model problem we present how this method can deliver promising results even when standard error estimator fail completely to reduce the error in an iterative mesh refinement process.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Berechnung von experimentell überprüfbaren Vorhersagen aus dem Standardmodell mit Hilfe störungstheoretischer Methoden ist schwierig. Die Herausforderungen liegen in der Berechnung immer komplizierterer Feynman-Integrale und dem zunehmenden Umfang der Rechnungen für Streuprozesse mit vielen Teilchen. Neue mathematische Methoden müssen daher entwickelt und die zunehmende Komplexität durch eine Automatisierung der Berechnungen gezähmt werden. In Kapitel 2 wird eine kurze Einführung in diese Thematik gegeben. Die nachfolgenden Kapitel sind dann einzelnen Beiträgen zur Lösung dieser Probleme gewidmet. In Kapitel 3 stellen wir ein Projekt vor, das für die Analysen der LHC-Daten wichtig sein wird. Ziel des Projekts ist die Berechnung von Einschleifen-Korrekturen zu Prozessen mit vielen Teilchen im Endzustand. Das numerische Verfahren wird dargestellt und erklärt. Es verwendet Helizitätsspinoren und darauf aufbauend eine neue Tensorreduktionsmethode, die Probleme mit inversen Gram-Determinanten weitgehend vermeidet. Es wurde ein Computerprogramm entwickelt, das die Berechnungen automatisiert ausführen kann. Die Implementierung wird beschrieben und Details über die Optimierung und Verifizierung präsentiert. Mit analytischen Methoden beschäftigt sich das vierte Kapitel. Darin wird das xloopsnosp-Projekt vorgestellt, das verschiedene Feynman-Integrale mit beliebigen Massen und Impulskonfigurationen analytisch berechnen kann. Die wesentlichen mathematischen Methoden, die xloops zur Lösung der Integrale verwendet, werden erklärt. Zwei Ideen für neue Berechnungsverfahren werden präsentiert, die sich mit diesen Methoden realisieren lassen. Das ist zum einen die einheitliche Berechnung von Einschleifen-N-Punkt-Integralen, und zum anderen die automatisierte Reihenentwicklung von Integrallösungen in höhere Potenzen des dimensionalen Regularisierungsparameters $epsilon$. Zum letzteren Verfahren werden erste Ergebnisse vorgestellt. Die Nützlichkeit der automatisierten Reihenentwicklung aus Kapitel 4 hängt von der numerischen Auswertbarkeit der Entwicklungskoeffizienten ab. Die Koeffizienten sind im allgemeinen Multiple Polylogarithmen. In Kapitel 5 wird ein Verfahren für deren numerische Auswertung vorgestellt. Dieses neue Verfahren für Multiple Polylogarithmen wurde zusammen mit bekannten Verfahren für andere Polylogarithmus-Funktionen als Bestandteil der CC-Bibliothek ginac implementiert.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dendrimere spielen als strukturtreue Nanopartikel eine herausragende Rolle. Ziel dieser Arbeit war, Dendrimere mit einer hohen Dichte an photoaktiven Chromophoren herzu-stellen und zu untersuchen. Dazu wurden die terminalen Aminogruppen von Poly(propylenimin)dendrimeren 1. und 2. Generation, Astramol DAB-Am-4R und DAB-Am-8R, mit Stilbenen und Styrylstilbenen als Chromophor verknüpft. Mittels Wittig-Horner- und Heck-Reaktion wurden (E)-Stilbene aufgebaut, die auf der einen Seite drei Propoxygruppen zur Verbesserung der Löslichkeit und auf der anderen Seite eine passende Funktionalität zur Verknüpfung mit dem dendritischen Core tragen. Als Verknüpfungsmethoden wurden die Verknüpfung als Amid (PSDA), Schiffsche Base (PSDS) und Harnstoff (PSDH) getestet. Die Schiffschen Basen wurden außerdem zur Erhöhung der Hydrolysestabilität zum sekundären Amin reduziert (PSDR und PQDR). Durch die Verknüpfung mit dem Core werden die stilbenoiden Chromophore sehr stark photoaktiviert. Das beruht auf einem Singulett-Energietransfer (Förster-Mechanismus) von Chromophor zu Chromophor. Dieser Prozeß konkurriert zu den Deaktivierungsprozessen, verlängert die mittlere S1-Lebensdauer und erhöht somit die Chancen der Photochemie. Der Styrylstilben-Chromophor hat darüber hinaus einen erheblichen Teil seiner UV-Absorbtion bereits im Tageslicht und photopolymerisiert daher bereits im Tageslicht. Vor allem bei den Dendrimeren 2. Generation stellte sich die Frage nach der vollständigen, d.h. achtfachen Umsetzung; das Core sollte als Knäuel vorliegen, die Arme zum Teil nach innen gefaltet und somit dem Reaktand nur bedingt zugänglich. Auch dort konnten unter optimierten Reaktionsbedingungen alle Aminogruppen umgesetzt werden. Die vollständige Umsetzung der Dendrimere wurde mittels NMR und massenspektroskopischen Methoden untersucht. Bei den Absorptionsspektren der Dendrimere 1. Generation ändert sich die Lage der Maxima je nach Art der Verknüpfung der Chromophore mit dem Core. Die Verlängerung des Chromophors um eine Styryleinheit bedingt eine beträchtliche Rotverschiebung. Die Lage der Emissionsmaxima differiert stärker als die Lage der Absorptionsmaxima. Den geringsten Stokes-Shift weist der Harnstoff auf, dann folgt das sekundäre Amin, dann die Schiffsche Base. Dies weist auf unterschiedlich relaxierte S1-Geometrien hin. Die Verbindungen PSDS1, PSDR1 und PSDH1 aus 3,4,5-Tripropoxystilbeneinheit und Astramol-Core 1. Generation DAB-Am-4 wurden in einer Konzentration von 10-5 mol/L belichtet. Der vollständige Photoabbau durch Belichtung in Chloroform mit einer Xenon-Lampe erfolgte ohne jeglichen Filter innerhalb von zehn Minuten (PSDH1), 20 Minuten (PSDR1) und einer Stunde (PSDS1). Allen drei Verbindungen gemeinsam ist das Entstehen eines intermediären neuen Maximums geringer Intensität, das um etwa 100 nm bathochrom verschoben ist. Das Harnstoffsystem weist außerdem ein weiteres intermediäres Maximum bei 614 nm auf. Diese Maxima können (laut früherer Untersuchungen) durch Oxidation entstandenen chinoiden Strukturen zugeordnet werden, deren Lebensdauer (im Sekundenbereich) zu kurz für eine NMR-Charakterisierung ist. PSDR1 wurde außerdem bei höheren Konzentrationen (10-4 und 10-3 mol/L) mit einer Quecksilberlampe mit Pyrex-Filter (lambda > 300 nm) belichtet. Dabei wird, wie erwartet, eine Verbreiterung der NMR-Signale beobachtet. Es bildet sich zunächst cis-Stilben. Außerdem läßt sich bei 4.3 ppm ein Signal beobachten, das von inter- oder intramolekular gebildeten Methinprotonen herrührt. Auch wenn laut MOPAC- und Kraftfeldrechnung die Doppelbindungen ungünstig für eine [pi2s + pi2s]-Cyclodimerisierung zueinander stehen, kann im photochemisch angeregten Zustand eine Geometrie vorherrschen, die die intramolekulare Kopf-Kopf-Cyclobutanbildung ermöglicht. Die massenspektrometrischen Untersuchungen der Belichtungsprodukte (FD, ESI, MALDI-TOF) zeigen als höchste Masse lediglich das Monomer. Allerdings kann dadurch nicht auf eine rein intramolekulare Reaktion geschlossen werden. Die fortschreitende statistische CC-Verknüpfung kann schnell zu vernetzten Nanopartikeln führen, die im Massenspektrometer nicht fliegen. Die NMR-Spektren der mit zunehmender Vernetzung immer schlechter löslich werdenden Teilchen belegen die Oligomerisierung.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Monte Carlo simulations are used to study the effect of confinement on a crystal of point particles interacting with an inverse power law potential in d=2 dimensions. This system can describe colloidal particles at the air-water interface, a model system for experimental study of two-dimensional melting. It is shown that the state of the system (a strip of width D) depends very sensitively on the precise boundary conditions at the two ``walls'' providing the confinement. If one uses a corrugated boundary commensurate with the order of the bulk triangular crystalline structure, both orientational order and positional order is enhanced, and such surface-induced order persists near the boundaries also at temperatures where the system in the bulk is in its fluid state. However, using smooth repulsive boundaries as walls providing the confinement, only the orientational order is enhanced, but positional (quasi-) long range order is destroyed: The mean-square displacement of two particles n lattice parameters apart in the y-direction along the walls then crosses over from the logarithmic increase (characteristic for $d=2$) to a linear increase (characteristic for d=1). The strip then exhibits a vanishing shear modulus. These results are interpreted in terms of a phenomenological harmonic theory. Also the effect of incommensurability of the strip width D with the triangular lattice structure is discussed, and a comparison with surface effects on phase transitions in simple Ising- and XY-models is made

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Studies in regions of the nuclear chart in which the model predictions of properties of nuclei fail can bring a better understanding of the strong interaction in the nuclear medium. To such regions belongs the so called "island of inversion" centered around Ne, Na and Mg isotopes with 20 neutrons in which unexpected ground-state spins, large deformations and dense low-energy spectra appear. This is a strong argument that the magic N = 20 is not a closed shell in this area. In this thesis investigations of isotope shifts of stable 24,25,26Mg, as well as spins and magnetic moments of short-lived 29,31Mg are presented. The successful studies were performed at the ISOLDE facility at CERN using collinear laser and beta-NMR spectroscopy techniques. The isotopes were investigated as single-charged ions in the 280-nm transition from the atomic ground state 2S1/2 to one of the two lowest excited states 2P1/2,3/2 using continuous wave laser beams. The isotope-shift measurements with fluorescence detection for the three stable isotopes show that it is feasible to perform the same studies on radioactive Mg isotopes up to the "island of inversion". This will allow to determine differences in the mean charge square radii and interpret them in terms of deformation. The high detection efficiency for beta particles and optical pumping close to saturation allowed to obtain very good beta-asymmetry signals for 29Mg and 31Mg with half-lives around 1 s and production yields about 10^5 ions/s. For this purpose the ions were implanted into a host crystal lattice. Such detection of the atomic resonances revealed their hyperfine structure, which gives the sign and a first estimate of the value of the magnetic moment. The nuclear magnetic resonance gave also their g-factors with the relative uncertainty smaller than 0.2 %. By combining the two techniques also the nuclear spin of both isotopes could be unambiguously determined. The measured spins and g-factors show that 29Mg with 17 neutrons lies outside the "island of inversion". On the other hand, 31Mg with 19 neutrons has an unexpected ground-state spin which can be explained only by promoting at least two neutrons across the N = 20 shell gap. This places the above nucleus inside the "island". However, modern shell-model approaches cannot predict this level as the ground state but only as one of the low-lying states, even though they reproduce very well the experimental g-factor. This indicates that modifications to the available interactions are required. Future measurements include isotope shift measurements on radioactive Mg isotopes and beta-NMR studies on 33Mg.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The Spin-Statistics theorem states that the statistics of a system of identical particles is determined by their spin: Particles of integer spin are Bosons (i.e. obey Bose-Einstein statistics), whereas particles of half-integer spin are Fermions (i.e. obey Fermi-Dirac statistics). Since the original proof by Fierz and Pauli, it has been known that the connection between Spin and Statistics follows from the general principles of relativistic Quantum Field Theory. In spite of this, there are different approaches to Spin-Statistics and it is not clear whether the theorem holds under assumptions that are different, and even less restrictive, than the usual ones (e.g. Lorentz-covariance). Additionally, in Quantum Mechanics there is a deep relation between indistinguishabilty and the geometry of the configuration space. This is clearly illustrated by Gibbs' paradox. Therefore, for many years efforts have been made in order to find a geometric proof of the connection between Spin and Statistics. Recently, various proposals have been put forward, in which an attempt is made to derive the Spin-Statistics connection from assumptions different from the ones used in the relativistic, quantum field theoretic proofs. Among these, there is the one due to Berry and Robbins (BR), based on the postulation of a certain single-valuedness condition, that has caused a renewed interest in the problem. In the present thesis, we consider the problem of indistinguishability in Quantum Mechanics from a geometric-algebraic point of view. An approach is developed to study configuration spaces Q having a finite fundamental group, that allows us to describe different geometric structures of Q in terms of spaces of functions on the universal cover of Q. In particular, it is shown that the space of complex continuous functions over the universal cover of Q admits a decomposition into C(Q)-submodules, labelled by the irreducible representations of the fundamental group of Q, that can be interpreted as the spaces of sections of certain flat vector bundles over Q. With this technique, various results pertaining to the problem of quantum indistinguishability are reproduced in a clear and systematic way. Our method is also used in order to give a global formulation of the BR construction. As a result of this analysis, it is found that the single-valuedness condition of BR is inconsistent. Additionally, a proposal aiming at establishing the Fermi-Bose alternative, within our approach, is made.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die dieser Arbeit zugrundeliegenden Nanopartikel wurden mittels der Makromonomer-Strategie aus polymerisierbaren Polystyrol-b-Poly(2-vinylpyridin) Oligomeren dargestellt. Die Bürstenpolymere besitzen eine polare PS-Schale und einen polaren Kern (P2VP), dessen Polarität durch Quaternisierung deutlich erhöht werden kann. Die Bürstenpolymere weisen bei Molmassen um 400 - 800 kg/mol einen Teilchendurchmesser von ca. 15 - 20 nm auf. Die Nanopartikel eignen sich dazu, hydrophile Farbstoffe in unpolaren Lösungsmitteln zu solubilisieren. Durch spektroskopische Untersuchungen wurden in Abhängigkeit der chemischen Struktur und der Bürstenpolymere Beladungsgrade von über 1 g Farbstoff pro Gramm Polymer ermittelt. Die Beladung der Nanopartikel folgt hierbei einer nichttrivialen Kinetik, was möglicherweise durch eine wasserinduzierte Überstrukturbildung während der Beladung bedingt ist. Mittels isothermer Titrationskalorimetrie konnten die Wechselwirkungen zwischen polymeren Substrat und niedermolekularen Liganden genauer charakterisiert werden. Teilweise werden hierbei zweistufige Titrationsverläufe und "überstöchiometrische" Beladung der Bürstenpolymere beobachtet. Den Hauptbeitrag zur Wechselwirkung liefert hierbei die exotherme Wechselwirkung zwischen basischen Polymer und saurem Farbstoff. Die hohe Farbstoffbeladung führt zur deutlichen Vergrößerung der einzelnen Nanopartikel, was sowohl in Lösung durch Lichtstreu-Techniken als auch auf Oberflächen mit Hilfe des AFM zu beobachten ist. Durch Untersuchungen mit der analytischen Ultrazentrifuge konnte nachgewiesen werden, dass sich der eingelagerte Farbstoff in einem Polaritäts-abhängigen Gleichgewicht mit der Umgebung steht, er somit auch wieder aus den Nanopartikeln freigesetzt werden kann. Darüberhinaus wurden im Rahmen der Arbeit erste Erfolge bei der Synthese von wasserlöslichen Nanopartikeln mit Poly(2-vinylpyridin)-Kern erzielt. Als hierfür geeignet stellte sich eine Synthesestrategie heraus, bei der zunächst ein Bürstenpolymer mit P2VP-Seitenketten dargestellt und dieses anschließend mit geeignet funktionalisierten Polyethylenoxid-Ketten zum Kern-Schale Teilchen umgesetzt wurde. Neben Untersuchungen zum Mizellisierungsverhalten von PEO-b-P2VP Makromonomeren wurden deren Aggregate in Wasser hinsichtlich ihrer Zelltoxizität durch in-vitro Experimente an C26-Mäusekarzinom-Zellen charakterisiert. Die extrem geringe Toxizität macht das PEO-P2VP System zu einem potentiellen Kandidaten für drug-delivery Anwendungen. Besonders die pH-abhängige Löslichkeitsänderung des Poly(2-vinylpyridin) erscheint hierbei besonders interessant.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Germaniumdioxid (GeO2) ist ein Glasbildner, der wie das homologe SiO2 ein ungeordnetes tetraedrisches Netzwerk ausbildet. In dieser Arbeit werden mit Hilfe von Molekulardynamik-Computersimulationen die Struktur und Dynamik von GeO2 in Abhängigkeit von der Temperatur untersucht. Dazu werden sowohl Simulationen mit einem klassischen Paarpotentialmodell von Oeffner und Elliott als auch ab initio-Simulationen gemäß der Car-Parrinello-Molekulardynamik (CPMD), bei der elektronische Freiheitsgrade mittels Dichtefunktionaltheorie beschrieben werden, durchgeführt. In der klassischen Simulation werden dazu ein Temperaturen zwischen 6100 K und 2530 K betrachtet. Darüberhinaus ermöglichen Abkühlläufe auf T=300 K das Studium der Struktur des Glases. Zum Vergleich werden CPMD-Simulationen für kleinere Systeme mit 60 bzw. 120 Teilchen bei den Temperaturen 3760 K und 3000 K durchgeführt. In den klassischen Simulationen kann die im Experiment bis 1700 K nachgewiesene, im Vergleich zu SiO2 starke, Temperaturabhängigkeit der Dichte auch bei höheren Temperaturen beobachtet werden. Gute Übereinstimmungen der Simulationen mit experimentellen Daten zeigen sich bei der Untersuchung verschiedener struktureller Größen, wie z.B. Paarkorrelationsfunktionen, Winkelverteilungen, Koordinationszahlen und Strukturfaktoren. Es können leichte strukturelle Abweichungen der CPMD-Simulationen von den klassischen Simulationen aufgezeigt werden: 1. Die Paarabstände in CPMD sind durchweg etwas kleiner. 2. Es zeigt sich, daß die Bindungen in den ab initio-Simulationen weicher sind, was sich auch in einer etwas stärkeren Temperaturabhängigkeit der strukturellen Größen im Vergleich zu den klassischen Simulationen niederschlägt. 3. Für CPMD kann ein vermehrtes Auftreten von Dreierringstrukturen gezeigt werden. 4. In der CPMD werden temperaturabhängige Defektstrukturen in Form von Sauerstoffpaaren beobachtet, die vor allem bei 3760 K, kaum jedoch bei 3000 K auftreten. Alle strukturellen Unterschiede zwischen klassischer und CPMD-Simulation sind eindeutig nicht auf Finite-Size-Effekte aufgrund der kleinen Systemgrößen in den CPMD-Simulationen zurückzuführen, d.h. sie sind tatsächlich methodisch bedingt. Bei der Dynamik von GeO2 wird in den klassischen Simulationen ebenfalls eine gute Übereinstimmung mit experimentellen Daten beobachtet, was ein Vergleich der Diffusionskonstanten mit Viskositätsmessungen bei hohen Temperaturen belegt. Die Diffusionskonstanten zeigen teilweise ein verschiedenes Verhalten zum homologen SiO2. Sie folgen in GeO2 bei Temperaturen unter 3000 K einem Arrheniusgesetz mit einer deutlich niedrigeren Aktivierungsenergie. Darüberhinaus werden die Möglichkeiten der Parametrisierung eines neuen klassischen Paarpotentials mittels der Kräfte entlang der CPMD-Trajektorien untersucht. Es zeigt sich, daß derartige Parametrisierungen sehr stark von den gewählten Startparametern abhängen. Ferner führen sämtliche an die Schmelze parametrisierten Potentiale zu zu hohen Dichten im Vergleich zum Experiment. Zum einen liegt dies sehr wahrscheinlich daran,daß für das System GeO2 Kraftdaten allein nicht ausreichen, um grundlegende strukturelle Größen, wie z.B. Paarkorrelationen und Winkelverteilungen, der CPMD-Simulationen gut reproduzieren zu können. Zum anderen ist wohl die Beschreibung mittels Paarpotentialen nicht ausreichend und es ist erforderlich, Merkörperwechselwirkungen in Betracht zu ziehen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Precision measurements of phenomena related to fermion mixing require the inclusion of higher order corrections in the calculation of corresponding theoretical predictions. For this, a complete renormalization scheme for models that allow for fermion mixing is highly required. The correct treatment of unstable particles makes this task difficult and yet, no satisfactory and general solution can be found in the literature. In the present work, we study the renormalization of the fermion Lagrange density with Dirac and Majorana particles in models that involve mixing. The first part of the thesis provides a general renormalization prescription for the Lagrangian, while the second one is an application to specific models. In a general framework, using the on-shell renormalization scheme, we identify the physical mass and the decay width of a fermion from its full propagator. The so-called wave function renormalization constants are determined such that the subtracted propagator is diagonal on-shell. As a consequence of absorptive parts in the self-energy, the constants that are supposed to renormalize the incoming fermion and the outgoing antifermion are different from the ones that should renormalize the outgoing fermion and the incoming antifermion and not related by hermiticity, as desired. Instead of defining field renormalization constants identical to the wave function renormalization ones, we differentiate the two by a set of finite constants. Using the additional freedom offered by this finite difference, we investigate the possibility of defining field renormalization constants related by hermiticity. We show that for Dirac fermions, unless the model has very special features, the hermiticity condition leads to ill-defined matrix elements due to self-energy corrections of external legs. In the case of Majorana fermions, the constraints for the model are less restrictive. Here one might have a better chance to define field renormalization constants related by hermiticity. After analysing the complete renormalized Lagrangian in a general theory including vector and scalar bosons with arbitrary renormalizable interactions, we consider two specific models: quark mixing in the electroweak Standard Model and mixing of Majorana neutrinos in the seesaw mechanism. A counter term for fermion mixing matrices can not be fixed by only taking into account self-energy corrections or fermion field renormalization constants. The presence of unstable particles in the theory can lead to a non-unitary renormalized mixing matrix or to a gauge parameter dependence in its counter term. Therefore, we propose to determine the mixing matrix counter term by fixing the complete correction terms for a physical process to experimental measurements. As an example, we calculate the decay rate of a top quark and of a heavy neutrino. We provide in each of the chosen models sample calculations that can be easily extended to other theories.