961 resultados para Kierkegaard, Kommunikationsanalyse, Sozialkritik, Existenzphilosophie, Masse, Nivellierung


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Light pseudoscalar bosons, such as the axion that was originally proposed as a solution of the strong CP problem, would cause a new spin-dependent short-range interaction. In this thesis, an experiment is presented to search for axion mediated short-range interaction between a nucleon and the spin of a polarized bound neutron. This interaction cause a shift in the precession frequency of nuclear spin-polarized gases in the presence of an unpolarized mass. To get rid of magnetic field drifts co-located, nuclear spin polarized 3He and 129Xe atoms were used. The free nuclear spin precession frequencies were measured in a homogeneous magnetic guiding field of about 350nT using LTc SQUID detectors. The whole setup was housed in a magnetically shielded room at the Physikalisch Technische Bundesanstalt (PTB) in Berlin. With this setup long nuclear spin-coherence times, respectively, transverse relaxation times of 5h for 129Xe and 53h for 3He could be achieved. The results of the last run in September 2010 are presented which give new upper limits on the scalar-pseudoscalar coupling of axion-like particles in the axion-mass window from 10^(-2) eV to 10^(-6) eV. The laboratory upper bounds were improved by up to 4 orders of magnitude.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Diese Arbeit beschäftigt sich mit der Suche nach dem Higgs-Boson.rn Dazu wurden die Daten des D0-Experimentes am Fermi National rn Accelerator Laboratory analysiert. Diese stammen ausrn Proton-Antiproton-Kollisionen, welche vom Tevatron-Beschleuniger beirn einer Schwerpunktsenergie von sqrt(s)=1.96 TeV erzeugtrn wurden. Der Datensatz umfasst mit einer integrierten Luminosität vonrn 9.7 fb^-1 den vollen RunII, welcher von April 2002 bisrn September 2011 aufgezeichnet wurde. Die Suche wurde für dreirn unterschiedliche Modelle durchgeführt: Das Standardmodell, einrn fermiophobes Higgs-Modell und ein Modell mit einer viertenrn Fermiongeneration. Zusätzlich wurde der Wirkungsquerschnitt derrn nicht resonanten WW-Produktion gemessen.rnrn Dazu wurden Daten mit einem Elektron, einem Myon und fehlenderrn Transversalenergie im Endzustand untersucht. Dieser Endzustand wirdrn beim Zerfall eines Higgs-Bosons in zwei W-Bosonen mit anschließendemrn Zerfall in ein Elektron, ein Myon und zwei Neutrinos erwartet undrn weist die größte Sensitivität für die Suche am Tevatron auf.rnrn Weder für das Standardmodell noch für die erweiterten Modelle konntern ein Hinweis auf ein Higgs-Signal gefunden werden. Deshalb wurdenrn obere Grenzen auf den Produktionswirkungsquerschnitt für diern einzelnen Modelle bestimmt. Die oberen Grenzen für Higgs-Bosonen imrn Rahmen des Standardmodells reichen von 28*sigma_SM für einrn Higgs-Boson mit einer Masse von 100 GeV bis zu einemrn Ausschluss des Standardmodell-Higgs-Bosons im Bereich zwischen 160rn und 167 GeV mit 95% Vertrauensniveau. Damit ist der inrn dieser Arbeit beschriebene Kanal der einzige Kanal amrn D0-Experiment, welcher eine ausreichend hohe Sensitivität erreicht,rn um allein ein Higgs-Boson im hohen Massenbereich auszuschließen. Fürrn ein Higgs-Boson mit 125 GeV Masse sind die Ergebnisse sowohlrn mit der Signal+Untergrund- als auch mit der Untergrund-Hypothesern kompatibel. rn Im Rahmen des fermiophoben Higgs-Modells wurden oberen Grenzenrn zwischen 2*sigma_FHM und 4*sigma_FHM imrn Massenbereich zwischen 100 und 170 GeV bestimmt. Für diern betrachteten Modelle mit einer vierten Fermiongeneration konnte einrn Higgs-Boson in einem weiten Massenbereich zwischen 135 undrn 220 GeV mit 95% Vertrauensniveau ausgeschlossen werden.rnrn Die Messung des Wirkungsquerschnitts der nicht-resonantenrn WW-Produktion ist die genaueste Messung fürrn sqrt(s)=1.96 TeV. Der gemessene Wirkungsquerschnitt beträgtrn sigma_ppbar->WW^em=11.1 +- 0.6 (stat.) +- 0.6 (syst.) pbrn und bestätigt damit die theoretische NLO-Vorhersage im Rahmen ihrerrn Unsicherheiten.rn

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'Open Data, letteralmente “dati aperti”, è la corrente di pensiero (e il relativo “movimento”) che cerca di rispondere all'esigenza di poter disporre di dati legalmente “aperti”, ovvero liberamente re-usabili da parte del fruitore, per qualsiasi scopo. L’obiettivo dell’Open Data può essere raggiunto per legge, come negli USA dove l’informazione generata dal settore pubblico federale è in pubblico dominio, oppure per scelta dei detentori dei diritti, tramite opportune licenze. Per motivare la necessità di avere dei dati in formato aperto, possiamo usare una comparazione del tipo: l'Open Data sta al Linked Data, come la rete Internet sta al Web. L'Open Data, quindi, è l’infrastruttura (o la “piattaforma”) di cui il Linked Data ha bisogno per poter creare la rete di inferenze tra i vari dati sparsi nel Web. Il Linked Data, in altre parole, è una tecnologia ormai abbastanza matura e con grandi potenzialità, ma ha bisogno di grandi masse di dati tra loro collegati, ossia “linkati”, per diventare concretamente utile. Questo, in parte, è già stato ottenuto ed è in corso di miglioramento, grazie a progetti come DBpedia o FreeBase. In parallelo ai contributi delle community online, un altro tassello importante – una sorta di “bulk upload” molto prezioso – potrebbe essere dato dalla disponibilità di grosse masse di dati pubblici, idealmente anche già linkati dalle istituzioni stesse o comunque messi a disposizione in modo strutturato – che aiutino a raggiungere una “massa” di Linked Data. A partire dal substrato, rappresentato dalla disponibilità di fatto dei dati e dalla loro piena riutilizzabilità (in modo legale), il Linked Data può offrire una potente rappresentazione degli stessi, in termini di relazioni (collegamenti): in questo senso, Linked Data ed Open Data convergono e raggiungono la loro piena realizzazione nell’approccio Linked Open Data. L’obiettivo di questa tesi è quello di approfondire ed esporre le basi sul funzionamento dei Linked Open Data e gli ambiti in cui vengono utilizzati.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Although the Standard Model of particle physics (SM) provides an extremely successful description of the ordinary matter, one knows from astronomical observations that it accounts only for around 5% of the total energy density of the Universe, whereas around 30% are contributed by the dark matter. Motivated by anomalies in cosmic ray observations and by attempts to solve questions of the SM like the (g-2)_mu discrepancy, proposed U(1) extensions of the SM gauge group have raised attention in recent years. In the considered U(1) extensions a new, light messenger particle, the hidden photon, couples to the hidden sector as well as to the electromagnetic current of the SM by kinetic mixing. This allows for a search for this particle in laboratory experiments exploring the electromagnetic interaction. Various experimental programs have been started to search for hidden photons, such as in electron-scattering experiments, which are a versatile tool to explore various physics phenomena. One approach is the dedicated search in fixed-target experiments at modest energies as performed at MAMI or at JLAB. In these experiments the scattering of an electron beam off a hadronic target e+(A,Z)->e+(A,Z)+l^+l^- is investigated and a search for a very narrow resonance in the invariant mass distribution of the lepton pair is performed. This requires an accurate understanding of the theoretical basis of the underlying processes. For this purpose it is demonstrated in the first part of this work, in which way the hidden photon can be motivated from existing puzzles encountered at the precision frontier of the SM. The main part of this thesis deals with the analysis of the theoretical framework for electron scattering fixed-target experiments searching for hidden photons. As a first step, the cross section for the bremsstrahlung emission of hidden photons in such experiments is studied. Based on these results, the applicability of the Weizsäcker-Williams approximation to calculate the signal cross section of the process, which is widely used to design such experimental setups, is investigated. In a next step, the reaction e+(A,Z)->e+(A,Z)+l^+l^- is analyzed as signal and background process in order to describe existing data obtained by the A1 experiment at MAMI with the aim to give accurate predictions of exclusion limits for the hidden photon parameter space. Finally, the derived methods are used to find predictions for future experiments, e.g., at MESA or at JLAB, allowing for a comprehensive study of the discovery potential of the complementary experiments. In the last part, a feasibility study for probing the hidden photon model by rare kaon decays is performed. For this purpose, invisible as well as visible decays of the hidden photon are considered within different classes of models. This allows one to find bounds for the parameter space from existing data and to estimate the reach of future experiments.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Produktionsmechanismen für Teilchenproduktion im mittleren Energiebereich wurden in Proton-Proton Kollisionen innerhalb der COMPASS-Kollaboration mit Hilfe des COMPASS-Spektrometers am SPS Beschleuniger am CERN untersucht. Die verschiedenen Produktionsmechanismen werden mittels Produktion der Vektormesonen omega und phi studiert und können die diffraktive Anregung des Strahlteilchens mit anschliessendem Zerfall der Resonanz, zentrale Produktion und den damit verwandten “Shake-off” Mechanismus enthalten. Die für diese Arbeit verwendeten Daten wurden in den Jahren 2008 und 2009 mit 190 GeV/c-Protonen aufgenommen, die auf ein Flüssigwasserstofftarget trafen. Das Target war von einem Rückstoßprotonendetektor umgeben, der ein integraler Bestandteil des neuentwickelten Hadrontriggersystems ist. Für dieses System wurden außerdem einige neue Detektoren gebaut. Die Leistungsfähigkeit des Rückstoßprotonendetektors und des Triggersystems wird untersucht und Effizienzen extrahiert. Außerdem wird sowohl eine Methode zur Rekonstruktion von Rückstoßprotonen als auch eine Methode zur Kalibration des Rückstoßprotonendetektors entwickelt und beschrieben. Die Produktion von omega-Mesonen wurde in der Reaktion pp -> p omega p, omega -> pi+pi-pi0 und die Produktion von phi-Mesonen in der Reaktion pp -> p phi p, phi -> K+K- bei einem Impulsübertrag zwischen 0.1 (GeV/c)^2 und 1 (GeV/c)^2 gemessen. Das Produktionsverhältnis s(pp -> p phi p)/s(pp -> p omega p) wird als Funktion des longitudinalen Impulsanteils xF bestimmt und mit der Vorhersage durch die Zweigregel verglichen. Es ergibt sich eine signifikante Verletzung der Zweigregel, die abhängig von xF ist. Die Verletzung wird in Verbindung zu resonanten Strukturen im pomega-Massenspektrum diskutiert. Die xF-Abhängigkeit verschwindet, wenn man die Region niedriger pomega- und pphi-Masse entfernt, die solche resonanten Strukturen aufweist. Zusätzlich wird die Spinausrichtung bzw. das Spindichtematrixelement rho00 für omega- und phi-Mesonen untersucht. Die Spinausrichtung wird im Helizitätssystemrnanalysiert, welches für eine Abgrenzung von resonanten, diffraktiven Anregungen geeignet ist. Außerdem wird die Spinausrichtung in einem Referenzsystem mit Bezug auf die Richtung des Impulsübertrags untersucht, mit dessen Hilfe zentrale Prozesse wie zentrale Produktion oder “shake-off” abgegrenzt werden. Auch hier wird eine Abhängigkeit von xF und der invarianten Masse des pomega-Systems beobachtet. Diese Abhängigkeit kann wieder auf die resonanten Strukturen in der Produktion von omega-Mesonen zurückgeführt werden. Die Ergebnisse werden abschließend im Hinblick auf die verschiedenen Produktionsmechanismen diskutiert.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In dieser Arbeit wird der Entwurf, der Aufbau, die Inbetriebnahme und die Charakterisierung einer neuartigen Penning-Falle im Rahmen des Experiments zur Bestimmung des g-Faktors des Protons präsentiert. Diese Falle zeichnet sich dadurch aus, dass die Magnetfeldlinien eines äußeren homogenen Magnetfeldes durch eine ferromagnetische Ringelektrode im Zentrum der Falle verzerrt werden. Der inhomogene Anteil des resultierenden Magnetfeldes, die sogenannte magnetische Flasche, lässt sich durch den Koeffizient B2 = 297(10) mT/mm2 des Terms zweiter Ordnung der Ortsabhängigkeit des Feldes quantifizieren. Eine solche ungewöhnlich starke Feldinhomogenität ist Grundvoraussetzung für den Nachweis der Spinausrichtung des Protons mittels des kontinuierlichen Stern-Gerlach-Effektes. Dieser Effekt basiert auf der im inhomogenen Magnetfeld entstehenden Kopplung des Spin-Freiheitsgrades des gefangenen Protons an eine seiner Eigenfrequenzen. Ein Spin-Übergang lässt sich so über einen Frequenzsprung detektieren. Dabei ist die nachzuweisende Änderung der Frequenz proportional zu B2 und zum im Fall des Protons extrem kleinen Verhältnis zwischen seinem magnetischen Moment nund seiner Masse. Die durch die benötigte hohe Inhomogenität des Magnetfeldes bedingten technischen Herausforderungen erfordern eine fundierte Kenntnis und Kontrolle der Eigenschaften der Penning-Falle sowie der experimentellen Bedingungen. Die in der vorliegenden Arbeit entwickelte Penning-Falle ermöglichte den erstmaligen zerstörungsfreien Nachweis von Spin-Quantensprüngen eines einzelnen gefangenen Protons, was einen Durchbruch für das Experiment zur direkten Bestimmung des g-Faktors mit der angestrebten relativen Genauigkeit von 10−9 darstellte. Mithilfe eines statistischen Verfahrens ließen sich die Larmor- und die Zyklotronfrequenz des Protons im inhomogenen Magnetfeld der Falle ermitteln. Daraus wurde der g-Faktor mit einer relativen Genauigkeit von 8,9 × 10−6 bestimmt. Die hier vorgestellten Messverfahren und der experimentelle Aufbau können auf ein äquivalentes Experiment zur Bestimmung des g-Faktors des Antiprotons zum Erreichen der gleichen Messgenauigkeit übertragen werden, womit der erste Schritt auf dem Weg zu einem neuen zwingenden Test der CPT-Symmetrie im baryonischen Sektor gemacht wäre.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Quantenchromodynamik ist die zugrundeliegende Theorie der starken Wechselwirkung und kann in zwei Bereiche aufgeteilt werden. Harte Streuprozesse, wie zum Beispiel die Zwei-Jet-Produktion bei hohen invarianten Massen, können störungstheoretisch behandelt und berechnet werden. Bei Streuprozessen mit niedrigen Impulsüberträgen hingegen ist die Störungstheorie nicht mehr anwendbar und phänemenologische Modelle werden für Vorhersagen benutzt. Das ATLAS Experiment am Large Hadron Collider am CERN ermöglicht es, QCD Prozesse bei hohen sowie niedrigen Impulsüberträgen zu untersuchen. In dieser Arbeit werden zwei Analysen vorgestellt, die jeweils ihren Schwerpunkt auf einen der beiden Regime der QCD legen:rnDie Messung von Ereignisformvariablen bei inelastischen Proton--Proton Ereignissen bei einer Schwerpunktsenergie von $sqrt{s} = unit{7}{TeV}$ misst den transversalen Energiefluss in hadronischen Ereignissen. rnDie Messung des zweifachdifferentiellen Zwei-Jet-Wirkungsquerschnittes als Funktion der invarianten Masse sowie der Rapiditätsdifferenz der beiden Jets mit den höchsten Transversalimpulsen kann genutzt werden um Theorievorhersagen zu überprüfen. Proton--Proton Kollisionen bei $sqrt{s} = unit{8}{TeV}$, welche während der Datennahme im Jahr 2012 aufgezeichnet wurden, entsprechend einer integrierten Luminosität von $unit{20.3}{fb^{-1}}$, wurden analysiert.rn

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Der Free Fatty Acid Receptor 1 (FFAR1) ist ein G-Protein gekoppelter Rezeptor, welcher neben einer hohen Expression im Gehirn auch eine verstärkte Expressionsrate auf den β-Zellen des Pankreas aufweist. Diese Expressionsmuster machen ihn zu einem idealen Target für die Visualisierung der sogenannten β-Zell-Masse mittels molekularer bildgebender Verfahren wie der PET. Eine Entwicklung geeigneter Radiotracer für die β-Zell-Bildgebung würde sowohl für die Diagnostik als auch für die Therapie von Typ-1- und Typ-2-Diabetes ein wertvolles Hilfsmittel darstellen.rnAufbauend auf einem von Sasaki et al. publiziertem Agonisten mit einem vielversprechendem EC50-Wert von 5,7 nM wurden dieser Agonist und zwei weitere darauf basierende 19F-substituierte Moleküle als Referenzverbindungen synthetisiert (DZ 1-3). Für die 18F-Markierung der Moleküle DZ 2 und DZ 3 wurden die entsprechenden Markierungsvorläufer (MV 1-3) synthetisiert und anschließend die Reaktionsparameter hinsichtlich Temperatur, Lösungsmittel, Basensystem und Reaktionszeit für die nukleophile n.c.a. 18F-Fluorierung optimiert. Die abschließende Entschützung zum fertigen Radiotracer wurde mit NaOH-Lösung durchgeführt und die Tracer injektionsfertig in isotonischer NaCl-Lösung mit radiochemischen Ausbeuten von 26,9 % ([18F]DZ 2) und 39 % ([18F]DZ 3) erhalten.rnZusätzlich wurde ein Chelator zur 68Ga-Markierung an den Liganden gekoppelt (Verb. 46) und die Markierungsparameter optimiert. Nach erfolgter Markierung mit 95 % radiochemischer Ausbeute, wurde der Tracer abgetrennt und in vitro Stabilitätsstudien durchgeführt. Diese zeigten eine Stabilität von mehr als 90 % über 120 min in sowohl humanem Serum (37 °C) als auch isotonischer NaCl-Lösung.rnMit einem ebenfalls synthetisierten fluoreszenzmarkierten Derivat des Liganden (Verb. 43) wurden erste LSM-Bilder an sowohl Langerhansschen Inseln als auch FFAR1-tragenden RIN-M Zellen durchgeführt, welche einen vielversprechenden Uptake des neuen Liganden in die Zellen zeigen. Weitere Untersuchungen und biologische Evaluierungen stehen noch aus. Mit den Referenzsubstanzen wurden zusätzlich Vitalitätsstudien an Langerhansschen Inseln durchgeführt, um einen negativen toxischen Einfluss auszuschließen.rn

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The Standard Model of particle physics is a very successful theory which describes nearly all known processes of particle physics very precisely. Nevertheless, there are several observations which cannot be explained within the existing theory. In this thesis, two analyses with high energy electrons and positrons using data of the ATLAS detector are presented. One, probing the Standard Model of particle physics and another searching for phenomena beyond the Standard Model.rnThe production of an electron-positron pair via the Drell-Yan process leads to a very clean signature in the detector with low background contributions. This allows for a very precise measurement of the cross-section and can be used as a precision test of perturbative quantum chromodynamics (pQCD) where this process has been calculated at next-to-next-to-leading order (NNLO). The invariant mass spectrum mee is sensitive to parton distribution functions (PFDs), in particular to the poorly known distribution of antiquarks at large momentum fraction (Bjoerken x). The measurementrnof the high-mass Drell-Yan cross-section in proton-proton collisions at a center-of-mass energy of sqrt(s) = 7 TeV is performed on a dataset collected with the ATLAS detector, corresponding to an integrated luminosity of 4.7 fb-1. The differential cross-section of pp -> Z/gamma + X -> e+e- + X is measured as a function of the invariant mass in the range 116 GeV < mee < 1500 GeV. The background is estimated using a data driven method and Monte Carlo simulations. The final cross-section is corrected for detector effects and different levels of final state radiation corrections. A comparison isrnmade to various event generators and to predictions of pQCD calculations at NNLO. A good agreement within the uncertainties between measured cross-sections and Standard Model predictions is observed.rnExamples of observed phenomena which can not be explained by the Standard Model are the amount of dark matter in the universe and neutrino oscillations. To explain these phenomena several extensions of the Standard Model are proposed, some of them leading to new processes with a high multiplicity of electrons and/or positrons in the final state. A model independent search in multi-object final states, with objects defined as electrons and positrons, is performed to search for these phenomenas. Therndataset collected at a center-of-mass energy of sqrt(s) = 8 TeV, corresponding to an integrated luminosity of 20.3 fb-1 is used. The events are separated in different categories using the object multiplicity. The data-driven background method, already used for the cross-section measurement was developed further for up to five objects to get an estimation of the number of events including fake contributions. Within the uncertainties the comparison between data and Standard Model predictions shows no significant deviations.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Flachwassergleichungen (SWE) sind ein hyperbolisches System von Bilanzgleichungen, die adäquate Approximationen an groß-skalige Strömungen der Ozeane, Flüsse und der Atmosphäre liefern. Dabei werden Masse und Impuls erhalten. Wir unterscheiden zwei charakteristische Geschwindigkeiten: die Advektionsgeschwindigkeit, d.h. die Geschwindigkeit des Massentransports, und die Geschwindigkeit von Schwerewellen, d.h. die Geschwindigkeit der Oberflächenwellen, die Energie und Impuls tragen. Die Froude-Zahl ist eine Kennzahl und ist durch das Verhältnis der Referenzadvektionsgeschwindigkeit zu der Referenzgeschwindigkeit der Schwerewellen gegeben. Für die oben genannten Anwendungen ist sie typischerweise sehr klein, z.B. 0.01. Zeit-explizite Finite-Volume-Verfahren werden am öftersten zur numerischen Berechnung hyperbolischer Bilanzgleichungen benutzt. Daher muss die CFL-Stabilitätsbedingung eingehalten werden und das Zeitinkrement ist ungefähr proportional zu der Froude-Zahl. Deswegen entsteht bei kleinen Froude-Zahlen, etwa kleiner als 0.2, ein hoher Rechenaufwand. Ferner sind die numerischen Lösungen dissipativ. Es ist allgemein bekannt, dass die Lösungen der SWE gegen die Lösungen der Seegleichungen/ Froude-Zahl Null SWE für Froude-Zahl gegen Null konvergieren, falls adäquate Bedingungen erfüllt sind. In diesem Grenzwertprozess ändern die Gleichungen ihren Typ von hyperbolisch zu hyperbolisch.-elliptisch. Ferner kann bei kleinen Froude-Zahlen die Konvergenzordnung sinken oder das numerische Verfahren zusammenbrechen. Insbesondere wurde bei zeit-expliziten Verfahren falsches asymptotisches Verhalten (bzgl. der Froude-Zahl) beobachtet, das diese Effekte verursachen könnte.Ozeanographische und atmosphärische Strömungen sind typischerweise kleine Störungen eines unterliegenden Equilibriumzustandes. Wir möchten, dass numerische Verfahren für Bilanzgleichungen gewisse Equilibriumzustände exakt erhalten, sonst können künstliche Strömungen vom Verfahren erzeugt werden. Daher ist die Quelltermapproximation essentiell. Numerische Verfahren die Equilibriumzustände erhalten heißen ausbalanciert.rnrnIn der vorliegenden Arbeit spalten wir die SWE in einen steifen, linearen und einen nicht-steifen Teil, um die starke Einschränkung der Zeitschritte durch die CFL-Bedingung zu umgehen. Der steife Teil wird implizit und der nicht-steife explizit approximiert. Dazu verwenden wir IMEX (implicit-explicit) Runge-Kutta und IMEX Mehrschritt-Zeitdiskretisierungen. Die Raumdiskretisierung erfolgt mittels der Finite-Volumen-Methode. Der steife Teil wird mit Hilfe von finiter Differenzen oder au eine acht mehrdimensional Art und Weise approximniert. Zur mehrdimensionalen Approximation verwenden wir approximative Evolutionsoperatoren, die alle unendlich viele Informationsausbreitungsrichtungen berücksichtigen. Die expliziten Terme werden mit gewöhnlichen numerischen Flüssen approximiert. Daher erhalten wir eine Stabilitätsbedingung analog zu einer rein advektiven Strömung, d.h. das Zeitinkrement vergrößert um den Faktor Kehrwert der Froude-Zahl. Die in dieser Arbeit hergeleiteten Verfahren sind asymptotisch erhaltend und ausbalanciert. Die asymptotischer Erhaltung stellt sicher, dass numerische Lösung das &amp;amp;quot;korrekte&amp;amp;quot; asymptotische Verhalten bezüglich kleiner Froude-Zahlen besitzt. Wir präsentieren Verfahren erster und zweiter Ordnung. Numerische Resultate bestätigen die Konvergenzordnung, so wie Stabilität, Ausbalanciertheit und die asymptotische Erhaltung. Insbesondere beobachten wir bei machen Verfahren, dass die Konvergenzordnung fast unabhängig von der Froude-Zahl ist.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Am vertikalen Windkanal der Johannes Gutenberg-Universität Mainz wurden physikalische und chemische Bereifungsexperimente durchgeführt. Dabei lagen die Umgebungstemperaturen bei allen Experimenten zwischen etwa -15 und -5°C und der Flüssigwassergehalt erstreckte sich von 0,9 bis etwa 1,6g/m³, typische Bedingungen für Mischphasenwolken in denen Bereifung stattfindet. Oberflächentemperaturmessungen an wachsenden hängenden Graupelpartikeln zeigten, dass während der Experimente trockene Wachstumsbedingungen herrschten.rnZunächst wurde das Graupelwachstum an in einer laminaren Strömung frei schwebenden Eispartikeln mit Anfangsradien zwischen 290 und 380µm, die mit flüssigen unterkühlten Wolkentröpfchen bereift wurden, studiert. Ziel war es, den Kollektionskern aus der Massenzunahme des bereiften Eispartikels und dem mittleren Flüssigwassergehalt während des Wachstumsexperimentes zu bestimmen. Die ermittelten Werte für die Kollektionskerne der bereiften Eispartikel erstreckten sich von 0,9 bis 2,3cm³/s in Abhängigkeit ihres Kollektorimpulses (Masse * Fallgeschwindigkeit des bereifenden Graupels), der zwischen 0,04 und 0,10gcm/s lag. Bei den Experimenten zeigte sich, dass die hier gemessenen Kollektionskerne höher waren im Vergleich mit Kollektionskernen flüssiger Tropfen untereinander. Aus den aktuellen Ergebnissen dieser Arbeit und der vorhandenen Literaturwerte wurde ein empirischer Faktor entwickelt, der von dem Wolkentröpfchenradius abhängig ist und diesen Unterschied beschreibt. Für die untersuchten Größenbereiche von Kollektorpartikel und flüssigen Tröpfchen können die korrigierten Kollektionskernwerte in Wolkenmodelle für die entsprechenden Größen eingebunden werden.rnBei den chemischen Experimenten zu dieser Arbeit wurde die Spurenstoffaufnahme verschiedener atmosphärischer Spurengase (HNO3, HCl, H2O2, NH3 und SO2) während der Bereifung untersucht. Diese Experimente mussten aus technischen Gründen mit hängenden Eispartikeln, dendritischen Eiskristallen und Schneeflocken, bereift mit flüssigen Wolkenlösungströpfchen, durchgeführt werden.rnDie Konzentrationen der Lösung, aus der die Wolkentröpfchen mit Hilfe von Zweistoffdüsen erzeugt wurden, lagen zwischen 1 und 120mg/l. Für die Experimente mit Ammoniak und Schwefeldioxid wurden Konzentrationen zwischen 1 und 22mg/l verwendet. Das Schmelzwasser der bereiften hängenden Graupel und Schneeflocken wurden ionenchromatographisch analysiert und zusammen mit der bekannten Konzentration der bereifenden Wolkentröpfchen konnte der Retentionskoeffizient für jeden Spurenstoff bestimmt werden. Er gibt die Menge an Spurenstoff an, die bei der Phasenumwandlung von flüssig zu fest in die Eisphase übergeht. Salpetersäure und Salzsäure waren nahezu vollständig retiniert (Mittelwerte der gesamten Experimente entsprechend 99±8% und 100±9%). Für Wasserstoffperoxid wurde ein mittlerer Retentionskoeffizient von 65±17% bestimmt. rnDer mittlere Retentionskoeffizient von Ammoniak ergab sich unabhängig vom Flüssigwassergehalt zu 92±21%, während sich für Schwefeldioxid 53±10% für niedrige und 29±7% für hohe Flüssigphasenkonzentrationen ergaben. Bei einigen der untersuchten Spurenstoffe wurde eine Temperaturabhängigkeit beobachtet und wenn möglich durch Parametrisierungen beschrieben.rn

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Liquids and gasses form a vital part of nature. Many of these are complex fluids with non-Newtonian behaviour. We introduce a mathematical model describing the unsteady motion of an incompressible polymeric fluid. Each polymer molecule is treated as two beads connected by a spring. For the nonlinear spring force it is not possible to obtain a closed system of equations, unless we approximate the force law. The Peterlin approximation replaces the length of the spring by the length of the average spring. Consequently, the macroscopic dumbbell-based model for dilute polymer solutions is obtained. The model consists of the conservation of mass and momentum and time evolution of the symmetric positive definite conformation tensor, where the diffusive effects are taken into account. In two space dimensions we prove global in time existence of weak solutions. Assuming more regular data we show higher regularity and consequently uniqueness of the weak solution. For the Oseen-type Peterlin model we propose a linear pressure-stabilized characteristics finite element scheme. We derive the corresponding error estimates and we prove, for linear finite elements, the optimal first order accuracy. Theoretical error of the pressure-stabilized characteristic finite element scheme is confirmed by a series of numerical experiments.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

E' stata presentata un'analisi di sensitività di un modello matematico della memoria spaziale nell'ippocampo. Il modello usa le masse neuronali per simulare le oscillazioni theta delle place cells dell'ippocampo. I risultati mostrano che il modello è robusto a variazioni di diversi parametri.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Da poco più di 30 anni la comunità scientifica è a conoscenza dell’occasionale presenza di strutture cicloniche con alcune caratteristiche tropicali sul Mar Mediterraneo, i cosiddetti medicane. A differenza dei cicloni baroclini delle medie latitudini, essi posseggono una spiccata simmetria termica centrale che si estende per gran parte della troposfera, un occhio, talvolta privo di nubi, e una struttura nuvolosa a bande spiraleggianti. Ad oggi non esiste ancora una teoria completa che spieghi la loro formazione ed evoluzione. La trattazione di questa tesi, incentrata sull’analisi dei campi di vorticità potenziale e di umidità relativa, è sviluppata nell’ottica di una miglior comprensione delle dinamiche alla mesoscala più rilevanti per la nascita dei medicane. Lo sviluppo di tecniche avanzate di visualizzazione dei campi generati dal modello WRF, quali l’animazione tridimensionale delle masse d’aria aventi determinate caratteristiche, ha permesso l’individuazione di due zone di forti anomalie di due campi derivati dalla vorticità potenziale in avvicinamento reciproco, intensificazione e mutua interazione nelle ore precedenti la formazione dei medicane. Tramite la prima anomalia che è stata chiamata vorticità potenziale secca (DPV), viene proposta una nuova definizione di tropopausa dinamica, che non presenta i problemi riscontrati nella definizione classica. La seconda anomalia, chiamata vorticità potenziale umida (WPV), individua le aree di forte convezione e permette di avere una visione dinamica dello sviluppo dei medicane alle quote medio-basse. La creazione di pseudo immagini di vapore acqueo tramite la teoria del trasferimento radiativo e la comparazione di queste mappe con quelle effettivamente misurate nei canali nella banda del vapore acqueo dai sensori MVIRI e SEVIRI dei satelliti Meteosat hanno da un lato confermato l’analisi modellistica, dall’altro consentito di stimare gli errori spazio-temporali delle simulazioni. L’utilizzo dei dati di radianza nelle microonde, acquisiti dai sensori AMSU-B e MHS dei satelliti NOAA, ha aggiunto ulteriori informazioni sia sulle intrusioni di vorticità potenziale che sulla struttura degli elementi convettivi presenti sul dominio, in modo particolare sulla presenza di ghiaccio in nube. L’analisi dettagliata di tre casi di medicane avvenuti nel passato sul Mar Mediterraneo ha infine consentito di combinare gli elementi innovativi sviluppati in questo lavoro, apportando nuove basi teoriche e proponendo nuovi metodi di indagine non solo per lo studio di questi fenomeni ma anche per un’accurata ricerca scientifica su ciclogenesi di altro tipo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Abstract Il presente lavoro si propone di tracciare un breve excursus circa il potere del linguaggio partendo dalle origini della retorica, disciplina che, ancora oggi condiziona l’organizzazione del discorso. Il concetto di norma ed infrazione sarà esplorato nei paragrafi che compongono questa tesi tenendo conto dei vari processi storici che hanno in qualche modo influenzato l’evoluzione del linguaggio. Dopo aver delineato una breve presentazione sulle origini della retorica il discorso si sposta in ambito filosofico dedicando ampio spazio alla dialettica aristotelica, per poi incentrarsi su due diversi esempi di uso dell’ars oratoria applicati a scritti di epoca romana. Il secondo, invece, si focalizza su due aspetti in realtà molto simili tra di loro; la censura imposta dalla Chiesa sin dal XVI secolo come mezzo per ostacolare il grado di conoscenza a quell’epoca accessibile al popolo, e la conseguente manipolazione delle masse. Il terzo paragrafo può essere considerato di raccordo in quanto espone la ricerca millenaria, da parte dell’uomo, della perfezione, canone che nel corso dei secoli ha mutato caratteristiche. Infine, l’ultimo paragrafo presenta un’analisi approfondita delle opere di due autori che con i loro ideali innovativi hanno influenzato tutta la letteratura del XX secolo.