982 resultados para 240302 Nuclear and Particle Physics
Resumo:
The present work is devoted to the assessment of the energy fluxes physics in the space of scales and physical space of wall-turbulent flows. The generalized Kolmogorov equation will be applied to DNS data of a turbulent channel flow in order to describe the energy fluxes paths from production to dissipation in the augmented space of wall-turbulent flows. This multidimensional description will be shown to be crucial to understand the formation and sustainment of the turbulent fluctuations fed by the energy fluxes coming from the near-wall production region. An unexpected behavior of the energy fluxes comes out from this analysis consisting of spiral-like paths in the combined physical/scale space where the controversial reverse energy cascade plays a central role. The observed behavior conflicts with the classical notion of the Richardson/Kolmogorov energy cascade and may have strong repercussions on both theoretical and modeling approaches to wall-turbulence. To this aim a new relation stating the leading physical processes governing the energy transfer in wall-turbulence is suggested and shown able to capture most of the rich dynamics of the shear dominated region of the flow. Two dynamical processes are identified as driving mechanisms for the fluxes, one in the near wall region and a second one further away from the wall. The former, stronger one is related to the dynamics involved in the near-wall turbulence regeneration cycle. The second suggests an outer self-sustaining mechanism which is asymptotically expected to take place in the log-layer and could explain the debated mixed inner/outer scaling of the near-wall statistics. The same approach is applied for the first time to a filtered velocity field. A generalized Kolmogorov equation specialized for filtered velocity field is derived and discussed. The results will show what effects the subgrid scales have on the resolved motion in both physical and scale space, singling out the prominent role of the filter length compared to the cross-over scale between production dominated scales and inertial range, lc, and the reverse energy cascade region lb. The systematic characterization of the resolved and subgrid physics as function of the filter scale and of the wall-distance will be shown instrumental for a correct use of LES models in the simulation of wall turbulent flows. Taking inspiration from the new relation for the energy transfer in wall turbulence, a new class of LES models will be also proposed. Finally, the generalized Kolmogorov equation specialized for filtered velocity fields will be shown to be an helpful statistical tool for the assessment of LES models and for the development of new ones. As example, some classical purely dissipative eddy viscosity models are analyzed via an a priori procedure.
Resumo:
The surprising discovery of the X(3872) resonance by the Belle experiment in 2003, and subsequent confirmation by BaBar, CDF and D0, opened up a new chapter of QCD studies and puzzles. Since then, detailed experimental and theoretical studies have been performed in attempt to determine and explain the proprieties of this state. Since the end of 2009 the world’s largest and highest-energy particle accelerator, the Large Hadron Collider (LHC), started its operations at the CERN laboratories in Geneva. One of the main experiments at LHC is CMS (Compact Muon Solenoid), a general purpose detector projected to address a wide range of physical phenomena, in particular the search of the Higgs boson, the only still unconfirmed element of the Standard Model (SM) of particle interactions and, new physics beyond the SM itself. Even if CMS has been designed to study high energy events, it’s high resolution central tracker and superior muon spectrometer made it an optimal tool to study the X(3872) state. In this thesis are presented the results of a series of study on the X(3872) state performed with the CMS experiment. Already with the first year worth of data, a clear peak for the X(3872) has been identified, and the measurement of the cross section ratio with respect to the Psi(2S) has been performed. With the increased statistic collected during 2011 it has been possible to study, in bins of transverse momentum, the cross section ratio between X(3872) and Psi(2S) and separate their prompt and non-prompt component.
Resumo:
Es gibt kaum eine präzisere Beschreibung der Natur als die durch das Standardmodell der Elementarteilchen (SM). Es ist in der Lage bis auf wenige Ausnahmen, die Physik der Materie- und Austauschfelder zu beschreiben. Dennoch ist man interessiert an einer umfassenderen Theorie, die beispielsweise auch die Gravitation mit einbezieht, Neutrinooszillationen beschreibt, und die darüber hinaus auch weitere offene Fragen klärt. Um dieser Theorie ein Stück näher zu kommen, befasst sich die vorliegende Arbeit mit einem effektiven Potenzreihenansatz zur Beschreibung der Physik des Standardmodells und neuer Phänomene. Mit Hilfe eines Massenparameters und einem Satz neuer Kopplungskonstanten wird die Neue Physik parametrisiert. In niedrigster Ordnung erhält man das bekannte SM, Terme höherer Ordnung in der Kopplungskonstanten beschreiben die Effekte jenseits des SMs. Aus gewissen Symmetrie-Anforderungen heraus ergibt sich eine definierte Anzahl von effektiven Operatoren mit Massendimension sechs, die den hier vorgestellten Rechnungen zugrunde liegen. Wir berechnen zunächst für eine bestimmte Auswahl von Prozessen zugehörige Zerfallsbreiten bzw. Wirkungsquerschnitte in einem Modell, welches das SM um einen einzigen neuen effektiven Operator erweitertet. Unter der Annahme, dass der zusätzliche Beitrag zur Observablen innerhalb des experimentellen Messfehlers ist, geben wir anhand von vorliegenden experimentellen Ergebnissen aus leptonischen und semileptonischen Präzisionsmessungen Ausschlussgrenzen der neuen Kopplungen in Abhängigkeit von dem Massenparameter an. Die hier angeführten Resultate versetzen Physiker zum Einen in die Lage zu beurteilen, bei welchen gemessenen Observablen eine Erhöhung der Präzision sinnvoll ist, um bessere Ausschlussgrenzen angeben zu können. Zum anderen erhält man einen Anhaltspunkt, welche Prozesse im Hinblick auf Entdeckungen Neuer Physik interessant sind.
Resumo:
This research focuses on taxonomy, phylogeny and reproductive ecology of Gentiana lutea. L.. Taxonomic analysis is a critical step in botanical studies, as it is necessary to recognize taxonomical unit. Herbarium specimens were observed to assess the reliability of several subspecies-diagnostic characters. The analysis of G. lutea genetic variability and the comparison with that of the other species of sect. Gentiana were performed to elucidate phylogenetic relationships among G. lutea subspecies and to propose a phylogenetic hypothesis for the evolution and the colonization dynamics of the section. Appropriate scientific information is critical for the assessment of species conservation status and for effective management plans. I carried out field work on five natural populations and performed laboratory analyses on specific critical aspects, with special regard to G. lutea breeding system and type and efficiency of plant-pollinator system. Bracts length is a reliable character to identify subsp. vardjanii, however it is not exclusive, hence to clearly identify subsp. vardjanii, other traits have to be considered. The phylogenetic hypotheses obtained from nuclear and chloroplast data are not congruent. Nuclear markers show a monophyly of sect. Gentiana, a strongly species identity of G. lutea and clear genetic identity of subsp. vardjanii. The little information emerging from plastid markers indicate a weak signal of hybridization and incomplete sorting of ancestral lineages. G. lutea shows a striking variation in intra-floral dichogamy probably evolved to reduce pollen-stigma interference. Although the species is partially self-compatible, pollen vectors are necessary for a successful reproduction, and moreover it shows a strong inbreeding depression. G. lutea is a generalist species: within its spectrum of visitors is possible to recognize "nectar thieves" and pollinators with sedentary or dynamic behaviour. Pollen limitation is frequent and it could be mainly explained by poor pollen quality.
Effect of drug physicochemical properties on the release from liposomal systems in vitro and in vivo
Resumo:
Liposomes were discovered about 40 years ago by A. Bangham and since then they became very versatile tools in biology, biochemistry and medicine. Liposomes are the smallest artificial vesicles of spherical shape that can be produced from natural untoxic phospholipids and cholesterol. Liposome vesicles can be used as drug carriers and become loaded with a great variety of molecules, such as small drug molecules, proteins, nucleotides and even plasmids. Due to the variability of liposomal compositions they can be used for a large number of applications. In this thesis the β-adrenoceptor antagonists propranolol, metoprolol, atenolol and pindolol, glucose, 18F-Fluorodeoxyglucose (FDG) and Er-DTPA were used for encapsulation in liposomes, characterization and in vitro release studies. Multilamellar vesicles (MLV), large unilamellar vesicles (LUV) and smaller unilamellar vesicles (SUV) were prepared using one of the following lipids: 1,2-Dimyristoyl-sn-Glycero-3-Phosphocholine (DMPC), 1,2-Distearoyl-sn-Glycero-3-Phosphocholine (DSPC), Phospholipone 90H (Ph90H) or a mixture of DSPC and DMPC (1:1). The freeze thawing method was used for preparation of liposomes because it has three advantages (1) avoiding the use of chloroform, which is used in other methods and causes toxicity (2) it is a simple method and (3) it gives high entrapping efficiency. The percentage of entrapping efficiencies (EE) was different depending on the type and phase transition temperature (Tc) of the lipid used. The average particle size and particle size distribution of the prepared liposomes were determined using both dynamic light scattering (DLS) and laser diffraction analyzer (LDA). The average particle size of the prepared liposomes differs according to both liposomal type and lipid type. Dispersion and dialysis techniques were used for the study of the in vitro release of β-adrenoceptor antagonists. The in vitro release rate of β-adrenoceptor antagonists was increased from MLV to LUV to SUV. Regarding the lipid type, β-adrenoceptor antagonists exhibited different in vitro release pattern from one lipid to another. Two different concentrations (50 and 100mg/ml) of Ph90H were used for studying the effect of lipid concentration on the in vitro release of β-adrenoceptor antagonists. It was found that liposomes made from 50 mg/ml Ph90H exhibited higher release rates than liposomes made at 100 mg/ml Ph90H. Also glucose was encapsulated in MLV, LUV and SUV using 1,2-Dimyristoyl-sn-Glycero-3-Phosphocholine (DMPC), 1,2-Distearoyl-sn-Glycero-3-Phosphocholine (DSPC), Phospholipone 90H (Ph90H), soybean lipid (Syb) or a mixture of DSPC and DMPC (1:1). The average particle size and size distribution were determined using laser diffraction analysis. It was found that both EE and average particle size differ depending on both lipid and liposomal types. The in vitro release of glucose from different types of liposomes was performed using a dispersion method. It was found that the in vitro release of glucose from different liposomes is dependent on the lipid type. 18F-FDG was encapsulated in MLV 1,2-Dimyristoyl-sn-Glycero-3-Phosphocholine (DMPC), 1,2-Distearoyl-sn-Glycero-3-Phosphocholine (DSPC), Phospholipone 90H (Ph90H), soybean lipid (Syb) or a mixture of DSPC and DMPC (1:1). FDG-containing LUV and SUV were prepared using Ph90H lipid. The in vitro release of FDG from the different types of lipids was accomplished using a dispersion method. Results similar to that of glucose release were obtained. In vivo imaging of FDG in both uncapsulated FDG and FDG-containing MLV was performed in the brain and the whole body of rats using PET scanner. It was found that the release of FDG from FDG-containing MLV was sustained. In vitro-In vivo correlation was studied using the in vitro release data of FDG from liposomes and in vivo absorption data of FDG from injected liposomes using microPET. Erbium, which is a lanthanide metal, was used as a chelate with DTPA for encapsulation in SUV liposomes for the indirect radiation therapy of cancer. The liposomes were prepared using three different concentrations of soybean lipid (30, 50 and 70 mg/ml). The stability of Er-DTPA SUV liposomes was carried out by storage of the prepared liposomes at three different temperatures (4, 25 and 37 °C). It was found that the release of Er-DTPA complex is temperature dependent, the higher the temperature, the higher the release. There was an inverse relationship between the release of the Er-DTPA complex and the concentration of lipid.
Resumo:
The standard model (SM) of particle physics is a theory, describing three out of four fundamental forces. In this model the Cabibbo-Kobayashi-Maskawa (CKM) matrix describes the transformation between the mass and weak eigenstates of quarks. The matrix properties can be visualized as triangles in the complex plane. A precise measurement of all triangle parameters can be used to verify the validity of the SM. The least precisely measured parameter of the triangle is related to the CKM element |Vtd|, accessible through the mixing frequency (oscillation) of neutral B mesons, where mixing is the transition of a neutral meson into its anti-particle and vice versa. It is possible to calculate the CKM element |Vtd| and a related element |Vts| by measuring the mass differences Dmd (Dms ) between neutral Bd and bar{Bd} (Bs and bar{Bs}) meson mass eigenstates. This measurement is accomplished by tagging the initial and final state of decaying B mesons and determining their lifetime. Currently the Fermilab Tevatron Collider (providing pbar{p} collisions at sqrt{s}=1.96 TeV) is the only place, where Bs oscillations can be studied. The first selection of the "golden", fully hadronic decay mode Bs->Ds pi(phi pi)X at DØ is presented in this thesis. All data, taken between April 2002 and August 2007 with the DØ detector, corresponding to an integrated luminosity of int{L}dt=2.8/fb is used. The oscillation frequency Dms and the ratio |Vtd|/|Vts| are determined as Dms = (16.6 +0.5-0.4(stat) +0.4-0.3(sys)) 1/ps, |Vtd|/|Vts| = 0.213 +0.004-0.003(exp)pm 0.008(theor). These results are consistent with the standard model expectations and no evidence for new physics is observable.
Resumo:
Das am Südpol gelegene Neutrinoteleskop IceCube detektiert hochenergetische Neutrinos über die schwache Wechselwirkung geladener und neutraler Ströme. Die Analyse basiert auf einem Vergleich mit Monte-Carlo-Simulationen, deren Produktion global koordiniert wird. In Mainz ist es erstmalig gelungen, Simulationen innerhalb der Architektur des Worldwide LHC Computing Grid (WLCG) zu realisieren, was die Möglichkeit eröffnet, Monte-Carlo-Berechnungen auch auf andere deutsche Rechnerfarmen (CEs) mit IceCube-Berechtigung zu verteilen. Atmosphärische Myonen werden mit einer Rate von über 1000 Ereignissen pro Sekunde aufgezeichnet. Eine korrekte Interpretation dieses dominanten Signals, welches um einen Faktor von 10^6 reduziert werden muss um das eigentliche Neutrinosignal zu extrahieren, ist deswegen von großer Bedeutung. Eigene Simulationen mit der Software-Umgebung CORSIKA wurden durchgeführt um die von Energie und Einfallswinkel abhängige Entstehungshöhe atmosphärischer Myonen zu bestimmen. IceCube Myonraten wurden mit Wetterdaten des European Centre for Medium-Range Weather Forcasts (ECMWF) verglichen und Korrelationen zwischen jahreszeitlichen sowie kurzzeitigen Schwankungen der Atmosphärentemperatur und Myonraten konnten nachgewiesen werden. Zudem wurde eine Suche nach periodischen Effekten in der Atmosphäre, verursacht durch z.B. meteorologische Schwerewellen, mit Hilfe einer Fourieranalyse anhand der IceCube-Daten durchgeführt. Bislang konnte kein signifikanter Nachweis zur Existenz von Schwerewellen am Südpol erbracht werden.
Resumo:
Materials that can mold the flow of elastic waves of certain energy in certain directions are called phononic materials. The present thesis deals essentially with such phononic systems, which are structured in the mesoscale (<1 µm), and with their individual components. Such systems show interesting phononic properties in the hypersonic region, i.e., at frequencies in the GHz range. It is shown that colloidal systems are excellent model systems for the realization of such phononic materials. Therefore, different structures and particle architectures are investigated by Brillouin light scattering, the inelastic scattering of light by phonons.rnThe experimental part of this work is divided into three chapters: Chapter 4 is concerned with the localized mechanical waves in the individual spherical colloidal particles, i.e., with their resonance- or eigenvibrations. The investigation of these vibrations with regard to the environment of the particles, their chemical composition, and the influence of temperature on nanoscopically structured colloids allows novel insights into the physical properties of colloids at small length scales. Furthermore, some general questions concerning light scattering on such systems, in dispute so far, are convincingly addressed.rnChapter 5 is a study of the traveling of mechanical waves in colloidal systems, consisting of ordered and disordered colloids in liquid or elastic matrix. Such systems show acoustic band gaps, which can be explained geometrically (Bragg gap) or by the interaction of the acoustic band with the eigenvibrations of the individual spheres (hybridization gap).rnWhile the latter has no analogue in photonics, the presence of strong phonon scatterers, when a large elastic mismatch between the composite components exists, can largely impact phonon propagation in analogy to strong multiple light scattering systems. The former is exemplified in silica based phononic structures that opens the door to new ways of sound propagation manipulation.rnChapter 6 describes the first measurement of the elastic moduli in newly fabricated by physical vapor deposition so-called ‘stable organic glasses’. rnIn brief, this thesis explores novel phenomena in colloid-based hypersonic phononic structures, utilizing a versatile microfabrication technique along with different colloid architectures provided by material science, and applying a non-destructive optical experimental tool to record dispersion diagrams.rn
Resumo:
Das Standardmodell der Teilchenphysik, das drei der vier fundamentalen Wechselwirkungen beschreibt, stimmt bisher sehr gut mit den Messergebnissen der Experimente am CERN, dem Fermilab und anderen Forschungseinrichtungen überein. rnAllerdings können im Rahmen dieses Modells nicht alle Fragen der Teilchenphysik beantwortet werden. So lässt sich z.B. die vierte fundamentale Kraft, die Gravitation, nicht in das Standardmodell einbauen.rnDarüber hinaus hat das Standardmodell auch keinen Kandidaten für dunkle Materie, die nach kosmologischen Messungen etwa 25 % unseres Universum ausmacht.rnAls eine der vielversprechendsten Lösungen für diese offenen Fragen wird die Supersymmetrie angesehen, die eine Symmetrie zwischen Fermionen und Bosonen einführt. rnAus diesem Modell ergeben sich sogenannte supersymmetrische Teilchen, denen jeweils ein Standardmodell-Teilchen als Partner zugeordnet sind.rnEin mögliches Modell dieser Symmetrie ist das R-Paritätserhaltende mSUGRA-Modell, falls Supersymmetrie in der Natur realisiert ist.rnIn diesem Modell ist das leichteste supersymmetrische Teilchen (LSP) neutral und schwach wechselwirkend, sodass es nicht direkt im Detektor nachgewiesen werden kann, sondern indirekt über die vom LSP fortgetragene Energie, die fehlende transversale Energie (etmiss), nachgewiesen werden muss.rnrnDas ATLAS-Experiment wird 2010 mit Hilfe des pp-Beschleunigers LHC mit einer Schwerpunktenergie von sqrt(s)=7-10 TeV mit einer Luminosität von 10^32 #/(cm^2*s) mit der Suche nach neuer Physik starten.rnDurch die sehr hohe Datenrate, resultierend aus den etwa 10^8 Auslesekanälen des ATLAS-Detektors bei einer Bunchcrossingrate von 40 MHz, wird ein Triggersystem benötigt, um die zu speichernde Datenmenge zu reduzieren.rnDabei muss ein Kompromiss zwischen der verfügbaren Triggerrate und einer sehr hohen Triggereffizienz für die interessanten Ereignisse geschlossen werden, da etwa nur jedes 10^8-te Ereignisse für die Suche nach neuer Physik interessant ist.rnZur Erfüllung der Anforderungen an das Triggersystem wird im Experiment ein dreistufiges System verwendet, bei dem auf der ersten Triggerstufe mit Abstand die höchste Datenreduktion stattfindet.rnrnIm Rahmen dieser Arbeit rn%, die vollständig auf Monte-Carlo-Simulationen basiert, rnist zum einen ein wesentlicher Beitrag zum grundlegenden Verständnis der Eigenschaft der fehlenden transversalen Energie auf der ersten Triggerstufe geleistet worden.rnZum anderen werden Methoden vorgestellt, mit denen es möglich ist, die etmiss-Triggereffizienz für Standardmodellprozesse und mögliche mSUGRA-Szenarien aus Daten zu bestimmen. rnBei der Optimierung der etmiss-Triggerschwellen für die erste Triggerstufe ist die Triggerrate bei einer Luminosität von 10^33 #/(cm^2*s) auf 100 Hz festgelegt worden.rnFür die Triggeroptimierung wurden verschiedene Simulationen benötigt, bei denen eigene Entwicklungsarbeit eingeflossen ist.rnMit Hilfe dieser Simulationen und den entwickelten Optimierungsalgorithmen wird gezeigt, dass trotz der niedrigen Triggerrate das Entdeckungspotential (für eine Signalsignifikanz von mindestens 5 sigma) durch Kombinationen der etmiss-Schwelle mit Lepton bzw. Jet-Triggerschwellen gegenüber dem bestehenden ATLAS-Triggermenü auf der ersten Triggerstufe um bis zu 66 % erhöht wird.
Resumo:
Diese Dissertation untersucht den Einfluss von Eiskristallform und räumlicher Inhomogenität von Zirren auf das Retrieval von optischer Wolkendicke und effektivem Eispartikelradius. Zu diesem Zweck werden flugzeuggetragene spektrale Messungen solarer Strahlung sowie solare und langwellige Strahlungstransfersimulationen durchgeführt. Flugzeuggetragene spektrale aufwärtsgerichtete Radianzen (Strahldichten) sind mit dem SMART-Albedometer (Spectral Modular Airborne Radiation measurement sysTem) während des CIRCLE-2 (CIRrus CLoud Experiment-2) Feldexperiments im Mai 2007 gemessen worden. Basierend auf diesen Radianzdaten werden mittels eines Wolkenretrievalalgorithmus optische Wolkendicken und effektive Eispartikelradien anhand von eindimensionalen Strahlungstransferrechnungen bestimmt. Die Auswirkung der Annahme unterschiedlicher Eiskristallformen auf die retrievten Parameter wird durch Variation der Einfachstreueigenschaften der Eispartikel untersucht. Darüber hinaus wird mittels Strahlungstransferrechnungen auch der Einfluss der Eiskristallform auf den Strahlungsantrieb von Eiswolken ermittelt. Die Frage nach dem relativen Einfluss von räumlicher Wolkeninhomogenität und Eiskristallform wird anhand von dreidimensionalen und independent pixel approximation (IPA) Strahlungssimulationen untersucht. Die Analyse basiert auf einer Modelleiswolke, die aus Daten des NASA (National Aeronautics and Space Administration) TC4 (Tropical Composition, Cloud, and Climate Coupling) Feldexperiments im Sommer 2007 in Costa Rica erzeugt wurde. Lokal gesehen können beide Effekte - Eiskristallform und räumliche Eiswolkeninhomogenität - die gleiche Grössenordnung haben und zu einer Unter- bzw. Überschätzung der retrievten Parameter um 40 – 60% führen. Gemittelt über die ganze Wolke ist jedoch der Einfluss der Eiskristallform viel bedeutender als der von räumlichen Inhomogenitäten.
Resumo:
The beta-decay of free neutrons is a strongly over-determined process in the Standard Model (SM) of Particle Physics and is described by a multitude of observables. Some of those observables are sensitive to physics beyond the SM. For example, the correlation coefficients of the involved particles belong to them. The spectrometer aSPECT was designed to measure precisely the shape of the proton energy spectrum and to extract from it the electron anti-neutrino angular correlation coefficient "a". A first test period (2005/ 2006) showed the “proof-of-principles”. The limiting influence of uncontrollable background conditions in the spectrometer made it impossible to extract a reliable value for the coefficient "a" (publication: Baessler et al., 2008, Europhys. Journ. A, 38, p.17-26). A second measurement cycle (2007/ 2008) aimed to under-run the relative accuracy of previous experiments (Stratowa et al. (1978), Byrne et al. (2002)) da/a =5%. I performed the analysis of the data taken there which is the emphasis of this doctoral thesis. A central point are background studies. The systematic impact of background on a was reduced to da/a(syst.)=0.61 %. The statistical accuracy of the analyzed measurements is da/a(stat.)=1.4 %. Besides, saturation effects of the detector electronics were investigated which were initially observed. These turned out not to be correctable on a sufficient level. An applicable idea how to avoid the saturation effects will be discussed in the last chapter.
Resumo:
This thesis work is devoted to the conceptual and technical development of the Adaptive Resolution Scheme (AdResS), a molecular dynamics method that allows the simulation of a system with different levels of resolution simultaneously. The simulation domain is divided into high and low resolution zones and a transition region that links them, through which molecules can freely diffuse.rnThe first issue of this work regards the thermodynamic consistency of the method, which is tested and verified in a model liquid of tetrahedral molecules. The results allow the introduction of the concept of the Thermodynamic Force, an external field able to correct spurious density fluctuations present in the transition region in usual AdResS simulations.rnThe AdResS is also applied to a system where two different representations with the same degree of resolution are confronted. This simple test extends the method from an Adaptive Resolution Scheme to an Adaptive Representation Scheme, providing a way of coupling different force fields based on thermodynamic consistency arguments. The Thermodynamic Force is successfully applied to the example described in this work as well.rnAn alternative approach of deducing the Thermodynamic Force from pressure consistency considerations allows the interpretation of AdResS as a first step towards a molecular dynamics simulation in the Grand Canonical ensemble. Additionally, such a definition leads to a practical way of determining the Thermodynamic Force, tested in the well studied tetrahedral liquid. The effects of AdResS and this correction on the atomistic domain are analyzed by inspecting the local distribution of velocities, radial distribution functions, pressure and particle number fluctuation. Their comparison with analogous results coming from purely atomistic simulations shows good agreement, which is greatly improved under the effect of the external field.rnA further step in the development of AdResS, necessary for several applications in biophysics and material science, consists of its application to multicomponent systems. To this aim, the high-resolution representation of a model binary mixture is confronted with its coarse-grained representation systematically parametrized. The Thermodynamic Force, whose development requires a more delicate treatment, also gives satisfactory results.rnFinally, AdResS is tested in systems including two-body bonded forces, through the simulation of a model polymer allowed to adaptively change its representation. It is shown that the distribution functions that characterize the polymer structure are in practice not affected by the change of resolution.rnThe technical details of the implementation of AdResS in the ESPResSo package conclude this thesis work.
Resumo:
Während das Standardmodell der Elementarteilchenphysik eine konsistente, renormierbare Quantenfeldtheorie dreier der vier bekannten Wechselwirkungen darstellt, bleibt die Quantisierung der Gravitation ein bislang ungelöstes Problem. In den letzten Jahren haben sich jedoch Hinweise ergeben, nach denen metrische Gravitation asymptotisch sicher ist. Das bedeutet, daß sich auch für diese Wechselwirkung eine Quantenfeldtheorie konstruieren läßt. Diese ist dann in einem verallgemeinerten Sinne renormierbar, der nicht mehr explizit Bezug auf die Störungstheorie nimmt. Zudem sagt dieser Zugang, der auf der Wilsonschen Renormierungsgruppe beruht, die korrekte mikroskopische Wirkung der Theorie voraus. Klassisch ist metrische Gravitation auf dem Niveau der Vakuumfeldgleichungen äquivalent zur Einstein-Cartan-Theorie, die das Vielbein und den Spinzusammenhang als fundamentale Variablen verwendet. Diese Theorie besitzt allerdings mehr Freiheitsgrade, eine größere Eichgruppe, und die zugrundeliegende Wirkung ist von erster Ordnung. Alle diese Eigenschaften erschweren eine zur metrischen Gravitation analoge Behandlung.rnrnIm Rahmen dieser Arbeit wird eine dreidimensionale Trunkierung von der Art einer verallgemeinerten Hilbert-Palatini-Wirkung untersucht, die neben dem Laufen der Newton-Konstante und der kosmologischen Konstante auch die Renormierung des Immirzi-Parameters erfaßt. Trotz der angedeuteten Schwierigkeiten war es möglich, das Spektrum des freien Hilbert-Palatini-Propagators analytisch zu berechnen. Auf dessen Grundlage wird eine Flußgleichung vom Propertime-Typ konstruiert. Zudem werden geeignete Eichbedingungen gewählt und detailliert analysiert. Dabei macht die Struktur der Eichgruppe eine Kovariantisierung der Eichtransformationen erforderlich. Der resultierende Fluß wird für verschiedene Regularisierungsschemata und Eichparameter untersucht. Dies liefert auch im Einstein-Cartan-Zugang berzeugende Hinweise auf asymptotische Sicherheit und damit auf die mögliche Existenz einer mathematisch konsistenten und prädiktiven fundamentalen Quantentheorie der Gravitation. Insbesondere findet man ein Paar nicht-Gaußscher Fixpunkte, das Anti-Screening aufweist. An diesen sind die Newton-Konstante und die kosmologische Konstante jeweils relevante Kopplungen, wohingegen der Immirzi-Parameter an einem Fixpunkt irrelevant und an dem anderen relevant ist. Zudem ist die Beta-Funktion des Immirzi-Parameters von bemerkenswert einfacher Form. Die Resultate sind robust gegenüber Variationen des Regularisierungsschemas. Allerdings sollten zukünftige Untersuchungen die bestehenden Eichabhängigkeiten reduzieren.
Resumo:
In this thesis, we investigate mixtures of quantum degenerate Bose and Fermi gases of neutral atoms in threedimensional optical lattices. Feshbach resonances allow to control interspecies interactions in these systems precisely, by preparing suitable combinations of internal atomic states and applying external magnetic fields. This way, the system behaviour can be tuned continuously from mutual transparency to strongly interacting correlated phases, up to the stability boundary.rnThe starting point for these investigations is the spin-polarized fermionic band insulator. The properties of this non-interacting system are fully determined by the Pauli exclusion principle for the occupation of states in the lattice. A striking demonstration of the latter can be found in the antibunching of the density-density correlation of atoms released from the lattice. If bosonic atoms are added to this system, isolated heteronuclear molecules can be formed on the lattice sites via radio-frequency stimulation. The efficiency of this process hints at a modification of the atom number distribution over the lattice caused by interspecies interaction.rnIn the following, we investigate systems with tunable interspecies interaction. To this end, a method is developed which allows to assess the various contributions to the system Hamiltonian both qualitatively and quantitatively by following the quantum phase diffusion of the bosonic matter wave.rnBesides a modification of occupation number statistics, these measurements show a significant renormalization of the bosonic Hubbard parameters. The final part of the thesis considers the implications of this renormalization effect on the many particle physics in the mixture. Here, we demonstrate how the quantum phase transition from a bosonic superfluid to a Mott insulator state is shifted towards considerably shallower lattices due to renormalization.
Resumo:
Flüchtige organische Bestandteile (engl.: VOC) sind in der Atmosphäre in Spuren vorhanden, spielen aber trotzdem eine wichtige Rolle in der Luftchemie: sie beeinflussen das Ozon der Troposphäre, städtischen Smog, Oxidationskapazität und haben direkte und indirekte Auswirkungen auf die globale Klimaveränderung. Eine wichtige Klasse der VOC sind die Nicht-Methan-Kohlenwasserstoffe (engl.: NMHC), die überwiegend von anthropogenen Quellen kommen. Aus diesem Grund ist für Luftchemiker ein Messinstrument nötig, das die VOC, die NMHC eingeschlossen, mit einer höheren Zeitauflösung misst, besonders für Echtzeitmessungen an Bord eines Forschungsflugzeuges. Dafür wurde das System zur schnellen Beobachtung von organischen Spuren (engl.: FOTOS) entworfen, gebaut für den Einsatz in einem neuen Wissenschaftlichen Flugzeug, das in großen Höhen und über weite Strecken fliegt, genannt HALO. In der Folge wurde FOTOS in zwei Messkampagnen am Boden getestet. FOTOS wurde entworfen und gebaut mit einem speziell angefertigten, automatisierten, kryogenen Probensystem mit drei Fallen und einem angepassten, erworbenen schnellen GC-MS. Ziel dieses Aufbaus war es, die Vielseitigkeit zu vergrößern und das Störungspotential zu verringern, deshalb wurden keine chemischen Trocknungsmittel oder adsorbierenden Stoffe verwendet. FOTOS erreichte eine Probenfrequenz von 5.5 Minuten, während es mindestens 13 verschiedene C2- bis C5-NMHC maß. Die Drei-Sigma-Detektionsgrenze für n- und iso-Pentan wurde als 2.6 und 2.0 pptv ermittelt, in dieser Reihenfolge. Labortests bestätigten, dass FOTOS ein vielseitiges, robustes, hochautomatisiertes, präzises, genaues, empfindliches Instrument ist, geeignet für Echtzeitmessungen von VOC in Probenfrequenzen, die angemessen sind für ein Forschungsflugzeug wie HALO. Um die Leistung von FOTOS zu bestätigen, wurde vom 26. Januar bis 4. Februar 2010 ein Zwischenvergleich gemacht mit dem GC-FID-System am Meteorologischen Observatorium Hohenpeißenberg, einer WMO-GAW-globalen Station. Dreizehn verschiedene NMHC wurden innerhalb des Rahmens der GWA Data Quality Objectives (DQO) analysiert und verglichen. Mehr als 80% der Messungen von sechs C3- bis C5-NMHC erfüllten diese DQO. Diese erste Messkampagne im Feld hob die Robustheit und Messgenauigkeit von FOTOS hervor, zusätzlich zu dem Vorteil der höheren Probenfrequenz, sogar in einer Messung am Boden. Um die Möglichkeiten dieses Instrumentes im Feld zu zeigen, maß FOTOS ausgewählte leichte NMHC während einer Messkampagne im Borealen Waldgebiet, HUMPPA-COPEC 2010. Vom 12. Juli bis zum 12. August 2010 beteiligte sich eine internationale Gruppe von Instituten und Instrumenten an Messungen physikalischer und chemischer Größen der Gas- und Partikelphasen der Luft über dem Borealen Wald an der SMEAR II-Station nahe Hyyttiälä, Finnland. Es wurden mehrere Hauptpunkte von Interesse im Mischungsverhältnis der Alkane und im Isomerenverhätnis von Pentan identifiziert, insbesondere sehr unterschiedliche Perioden niedriger und hoher Variabilität, drei Rauchschwaden von Biomassen-Verbrennung von russischen Waldbränden und zwei Tage mit extrem sauberer Luft aus der Polarregion. Vergleiche der NMHC mit anderen anthropogenen Indikatoren zeigten mehrere Quellen anthropogener Einflüsse am Ort auf und erlaubten eine Unterscheidung zwischen lokalen und weiter entfernten Quellen. Auf einen minimalen natürlichen Beitrag zum 24h-Kreislauf von NOx wurde geschlussfolgert aus der Korrelation von NOx mit Alkanen. Altersschätzungen der Luftmassen durch das Isomerenverhältnis von Pentan wurden erschwert durch sich verändernde Verhältnisse der Quellen und durch Besonderheiten der Photochemie während des Sommers im hohen Norden. Diese Messungen zeigten den Wert des Messens leichter NMHC, selbst in abgelegenen Regionen, als einen zusätzlichen spezifischen Marker von anthropogenem Einfluss.