71 resultados para diagramme triangulaire


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce mémoire concerne la modélisation mathématique de l’érythropoïèse, à savoir le processus de production des érythrocytes (ou globules rouges) et sa régulation par l’érythropoïétine, une hormone de contrôle. Nous proposons une extension d’un modèle d’érythropoïèse tenant compte du vieillissement des cellules matures. D’abord, nous considérons un modèle structuré en maturité avec condition limite mouvante, dont la dynamique est capturée par des équations d’advection. Biologiquement, la condition limite mouvante signifie que la durée de vie maximale varie afin qu’il y ait toujours un flux constant de cellules éliminées. Par la suite, des hypothèses sur la biologie sont introduites pour simplifier ce modèle et le ramener à un système de trois équations différentielles à retard pour la population totale, la concentration d’hormones ainsi que la durée de vie maximale. Un système alternatif composé de deux équations avec deux retards constants est obtenu en supposant que la durée de vie maximale soit fixe. Enfin, un nouveau modèle est introduit, lequel comporte un taux de mortalité augmentant exponentiellement en fonction du niveau de maturité des érythrocytes. Une analyse de stabilité linéaire permet de détecter des bifurcations de Hopf simple et double émergeant des variations du gain dans la boucle de feedback et de paramètres associés à la fonction de survie. Des simulations numériques suggèrent aussi une perte de stabilité causée par des interactions entre deux modes linéaires et l’existence d’un tore de dimension deux dans l’espace de phase autour de la solution stationnaire.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse poursuit la réflexion de Foucault sur les « sociétés de sécurité » en abordant le thème de l’inflexion des (in)conduites des « sujets interstitiels » : les individus qui s’inscrivent en marge du pouvoir politique et qui par leurs revendications et leurs présences suscitent des inquiétudes, provoquent des dérangements. Plus précisément, elle interroge l’histoire de la police et les stratégies de gestion des manifestations pour dégager les facteurs menant, dans la foulée des grandes mobilisations altermondialistes, à l’adoption de l’incapacitation stratégique. Sur le plan méthodologique et théorique, elle convoque les réflexions de Foucault sur la police, la loi et la communication pour élaborer un cadre à partir duquel les travaux des sociologues des manifestations et des historiens de la police, portant sur l’évolution du contrôle des foules, seront interrogés dans l’objectif de dégager les tendances « lourdes » et la rationalité policière (et étatique) marquant le maintien de l’ordre contemporain. De même, elle examine des lois encadrant les manifestations pour mettre en lumière que celles-ci sont le fruit de tactiques permettant d’accroître la puissance d’action de leurs « convocateurs ». En parallèle à cette réflexion sur les caractéristiques de la ratio sécuritaire actuelle et sur les tactiques de contrôle, cette thèse identifie les principaux objets utilisés pour circonscrire les pratiques manifestantes afin d’en dégager leurs « fonctions », mais aussi, de relever les indices permettant de schématiser les relations constitutives du dispositif policier. Ainsi, en plus de réaliser une « analytique du présent », cette thèse explicite un diagramme de pouvoir.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Après des décennies de développement, l'ablation laser est devenue une technique importante pour un grand nombre d'applications telles que le dépôt de couches minces, la synthèse de nanoparticules, le micro-usinage, l’analyse chimique, etc. Des études expérimentales ainsi que théoriques ont été menées pour comprendre les mécanismes physiques fondamentaux mis en jeu pendant l'ablation et pour déterminer l’effet de la longueur d'onde, de la durée d'impulsion, de la nature de gaz ambiant et du matériau de la cible. La présente thèse décrit et examine l'importance relative des mécanismes physiques qui influencent les caractéristiques des plasmas d’aluminium induits par laser. Le cadre général de cette recherche forme une étude approfondie de l'interaction entre la dynamique de la plume-plasma et l’atmosphère gazeuse dans laquelle elle se développe. Ceci a été réalisé par imagerie résolue temporellement et spatialement de la plume du plasma en termes d'intensité spectrale, de densité électronique et de température d'excitation dans différentes atmosphères de gaz inertes tel que l’Ar et l’He et réactifs tel que le N2 et ce à des pressions s’étendant de 10‾7 Torr (vide) jusqu’à 760 Torr (pression atmosphérique). Nos résultats montrent que l'intensité d'émission de plasma dépend généralement de la nature de gaz et qu’elle est fortement affectée par sa pression. En outre, pour un délai temporel donné par rapport à l'impulsion laser, la densité électronique ainsi que la température augmentent avec la pression de gaz, ce qui peut être attribué au confinement inertiel du plasma. De plus, on observe que la densité électronique est maximale à proximité de la surface de la cible où le laser est focalisé et qu’elle diminue en s’éloignant (axialement et radialement) de cette position. Malgré la variation axiale importante de la température le long du plasma, on trouve que sa variation radiale est négligeable. La densité électronique et la température ont été trouvées maximales lorsque le gaz est de l’argon et minimales pour l’hélium, tandis que les valeurs sont intermédiaires dans le cas de l’azote. Ceci tient surtout aux propriétés physiques et chimiques du gaz telles que la masse des espèces, leur énergie d'excitation et d'ionisation, la conductivité thermique et la réactivité chimique. L'expansion de la plume du plasma a été étudiée par imagerie résolue spatio-temporellement. Les résultats montrent que la nature de gaz n’affecte pas la dynamique de la plume pour des pressions inférieures à 20 Torr et pour un délai temporel inférieur à 200 ns. Cependant, pour des pressions supérieures à 20 Torr, l'effet de la nature du gaz devient important et la plume la plus courte est obtenue lorsque la masse des espèces du gaz est élevée et lorsque sa conductivité thermique est relativement faible. Ces résultats sont confirmés par la mesure de temps de vol de l’ion Al+ émettant à 281,6 nm. D’autre part, on trouve que la vitesse de propagation des ions d’aluminium est bien définie juste après l’ablation et près de la surface de la cible. Toutefois, pour un délai temporel important, les ions, en traversant la plume, se thermalisent grâce aux collisions avec les espèces du plasma et du gaz.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans ce mémoire, on s'intéresse à l'action du groupe des transformations affines et des homothéties sur l'axe du temps des systèmes différentiels quadratiques à foyer faible d'ordre trois, dans le plan. Ces systèmes sont importants dans le cadre du seizième problème d'Hilbert. Le diagramme de bifurcation a été produit à l'aide de la forme normale de Li dans des travaux de Andronova [2] et Artès et Llibre [4], sans utiliser le plan projectif comme espace des paramètres ni de méthodes globales. Dans [7], Llibre et Schlomiuk ont utilisé le plan projectif comme espace des paramètres et des notions à caractère géométrique global (invariants affines et topologiques). Ce diagramme contient 18 portraits de phase et certains de ces portraits sont répétés dans des parties distinctes du diagramme. Ceci nous mène à poser la question suivante : existe-t-il des systèmes distincts, correspondant à des valeurs distinctes de paramètres, se trouvant sur la même orbite par rapport à l'action du groupe? Dans ce mémoire, on prouve un résultat original : l'action du groupe n'est pas triviale sur la forme de Li (théorème 3.1), ni sur la forme normale de Bautin (théorème 4.1). En utilisant le deuxième résultat, on construit l'espace topologique quotient des systèmes quadratiques à foyer faible d'ordre trois par rapport à l'action de ce groupe.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse concerne l’étude de phase de séparation de deux polymères thermosensibles connus-poly(N-isopropylacylamide) (PNIPAM) et poly(2-isopropyl-2-oxazoline) (PIPOZ). Parmi des études variées sur ces deux polymères, il y a encore deux parties de leurs propriétés thermiques inexplicites à être étudiées. Une partie concerne l’effet de consolvant de PNIPAM dans l’eau et un autre solvant hydromiscible. L’autre est l’effet de propriétés de groupes terminaux de chaînes sur la séparation de phase de PIPOZ. Pour ce faire, nous avons d’abord étudié l’effet de l’architecture de chaînes sur l’effet de cosolvant de PNIPAMs dans le mélange de méthanol/eau en utilisant un PNIPAM en étoile avec 4 branches et un PNIPAM cyclique comme modèles. Avec PNIPAM en étoile, l’adhérence de branches PNIPAM de à un cœur hydrophobique provoque une réduction de Tc (la température du point de turbidité) et une enthalpie plus faible de la transition de phase. En revanche, la Tc de PNIPAM en étoile dépend de la masse molaire de polymère. La coopérativité de déhydratation diminue pour PNIPAM en étoile et PNIPAM cyclique à cause de la limite topologique. Une étude sur l’influence de concentration en polymère sur l’effet de cosolvant de PNIPAM dans le mélange méthanol/eau a montré qu’une séparation de phase liquide-liquide macroscopique (MLLPS) a lieu pour une solution de PNIPAM dans le mélange méthanol/eau avec la fraction molaire de méthanol entre 0.127 et 0.421 et la concentration en PNIPAM est constante à 10 g.L-1. Après deux jours d’équilibration à température ambiante, la suspension turbide de PNIPAM dans le mélange méthanol/eau se sépare en deux phases dont une phase possède beaucoup plus de PNIPAM que l’autre. Un diagramme de phase qui montre la MLLPS pour le mélange PNIPAM/eau/méthanol a été établi à base de données expérimentales. La taille et la morphologie de gouttelettes dans la phase riche en polymère condensée dépendent de la fraction molaire de méthanol. Parce que la présence de méthanol influence la tension de surface des gouttelettes liquides, un équilibre lent de la séparation de phase pour PNIPAM/eau/méthanol système a été accéléré et une séparation de phase liquide-liquide macroscopique apparait. Afin d’étudier l’effet de groupes terminaux sur les propriétés de solution de PIPOZ, deux PIPOZs téléchéliques avec groupe perfluorodécanyle (FPIPOZ) ou groupe octadécyle (C18PIPOZ) comme extrémités de chaîne ont été synthétisés. Les valeurs de Tc des polymères téléchéliques ont beaucoup diminué par rapport à celle de PIPOZ. Des micelles stables se forment dans des solutions aqueuses de polymères téléchéliques. La micellization et la séparation de phase de ces polymères dans l’eau ont été étudiées. La séparation de phase de PIPOZs téléchéliques suit le mécanisme de MLLPS. Des différences en tailles de gouttelettes formées à l’intérieur de solutions de deux polymères ont été observées. Pour étudier profondément les différences dans le comportement d’association entre deux polymères téléchéliques, les intensités des signaux de polymères correspondants et les temps de relaxation T1, T2 ont été mesurés. Des valeurs de T2 de protons correspondants aux IPOZs sont plus hautes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La présente thèse rend compte de la dimension affective de la communication. Pour ce faire, l’expérience est d’abord considérée comme durée qualitative (Henri Bergson). Donc, l’expérience est mouvement. Point de départ : le mouvement comme caractéristique intrinsèque du corps qui, ainsi compris, devient un point de passage. Qu’est-ce qui le traverse? Des événements. Il se constitue par ce passage même, ce qui fait de lui un devenir-corps. Ici, toute expérience est acte de communication à son stade le plus pur. Qui est-ce qui communique? L’expérience est une occasion d’actualisation du virtuel. Il s’agit de l’actualisation d’une force virtuelle – que A. N. Whitehead appelle la forme subjective. Le sens du message est l’événement lui-même, c’est-à-dire ce qui émerge dans l’expérience (Gilles Deleuze). Non pas l’expérience subjective d’un sujet préconstitué, mais l’expérience pure, telle que définie par William James : une relationalité. Ce qui s’actualise est une tonalité affective (Whitehead), vécue comme qualité esthétique. Quels sont les facteurs constitutifs du sens? Élargissons la traditionnelle dualité sujet-objet à un complexe relationnel : nous pouvons ainsi percevoir des acteurs affectifs, perceptifs, humains et technologiques, dans un agencement qui se concrétise comme relationalité émergente. Tout événement est situé. Par conséquent, l’émergence du sens devient acte de co-création dans lequel participent les multiples facteurs qui conditionnent l’événement. Cette vision sort d’un anthropocentrisme pour concevoir l’événement lui-même comme sujet de ses propres expériences (Whitehead). De sorte que, tout comme chaque acte de communication, l’expérience des médias est aussi événement vécu. Ce dernier est incorporé par les dimensions du devenir-corps – la conscience-affective et la conscience-réflexive. Celles-ci sont si intimement interreliées qu’elles deviennent mutuellement inclusives dans l’expérience et totalement actives dans l’actualisation du sens.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Der Anteil dezentraler eingebetteter Systeme steigt in zahlreichen Andwendungsfeldern, wie der Kfz-Elektronik oder der Anlagenautomatisierung [ScZu03]. Zudem steigen die Anforderungen and die Flexibilität und den Funktionsumfang moderner automatisierungs-technischer Systeme. Der Einsatz agentenorientierter Methoden ist diesbezüglich ein geeigneter Ansatz diesen Anforderungen gerecht zu werden [WGU03]. Mit Agenten können flexible, anpassungsfähige Softwaresysteme entwickelt werden, welche die Verteilung von Informationen, Aufgaben, Ressourcen oder Entscheidungsprozessen der realen Problemstellung im Softwaresystem widerspiegeln. Es ist somit möglich, die gewünschte Flexibilität des Systems, bezüglich der Struktur oder des Verhaltens gezielt zu entwerfen. Nachteilig ist jedoch der Indeterminismus des Verhaltens des Gesamtsystems, der sich aufgrund von schwer vorhersagbaren Interaktionen ergibt [Jen00]. Dem gegenüber stehen statische Softwaresysteme, welche zwar einen hohen Determinismus aufweisen aber wenig flexibel in Bezug auf Änderungen der Struktur des Systems oder des Ablaufs des realen Prozesses sind. Mit der steigenden Komplexität der Systeme ist allerdings selbst mit einem statischen Entwurf die Vorhersagbarkeit immer weniger zu gewährleisten. Die Zahl der möglichen Zustände einer Anlage wird mit der Berücksichtigung von allen möglichen Fehlern, Ausfällen und externen Einflüssen (dynamische Umgebung) so groß, daß diese mit vertretbarem Aufwand kaum noch erfassbar sind und somit auch nicht behandelt werden können. Das von der DFG geförderten Projekt AVE [AVE05], welches in Kooperation mit dem Institut für Automatisierungs- und Softwaretechnik der Universität Stuttgart bearbeitet wird, beschäftigt sich in diesem Kontext mit dem Konflikt, die Vorteile der Flexibilität und Anpassungsfähigkeit von agentenorientierter Software mit den spezifischen Anforderungen der Domäne der Echtzeitsysteme, wie Zeit- und Verlässlichkeitsanforderungen, zu verknüpfen. In einer detaillierten Analyse dieser Anforderungen wurde untersucht, wie die Eigenschaften der Anpassungsfähigkeit und Flexibilität prinzipiell die Anforderungen an Echtzeit- und Verlässlichkeitseigenschaften beeinflussen und wie umgekehrt Anforderungen an Echtzeit- und Verlässlichkeitseigenschaften die Anpassungsfähigkeit und Flexibilität beschränken können. Aufbauend auf diesen Erkenntnissen werden Methoden und Konzepte für den Entwurf und die Implementierung von Agentensystemen auf gängiger Automatisierungshardware, insbesondere Speicher Programmierbare Steuerungen (SPS), entwickelt. In diesem Rahmen wird ein Konzept für die Modellierung von Sicherheit in Agentensystemen vorgestellt, welches insbesondere den modularen Charakter von Agenten berücksichtigt. Kernaspekt ist es, dem Entwickler einen Rahmen vorzugeben, der ihn dabei unterstützt ein möglichst lückenloses Sicherheitskonzept zu erstellen und ihm dabei genug Freiheiten lässt den Aufwand für die Strategien zur Fehlererkennung, Fehlerdiagnose und Fehlerbehandlung je nach Anforderung für jedes Modul individuell festzulegen. Desweiteren ist besonderer Wert darauf gelegt worden, dass die verwendeten Darstellungen und Diagramme aus der Domäne stammen und eine gute Vorlage für die spätere Implementierung auf automatisierungstechnischer Hardware bieten.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In der vorliegenden Dissertation wurden die Formfaktoren desNukleons in einer relativistischen Formulierung der chiralenStörungstheorie bis zur chiralen Ordnung O(q^4) berechnet. Im Einzelnen haben wir den skalaren Formfaktor, dieelektromagnetischen Formfaktoren F_1 und F_2 bzw. G_E und G_M, die beiden axialen Formfaktoren G_A und G_P und denPion-Nukleon-Formfaktor G_pi untersucht. Dabei kam ein neuesRenormierungsschema zur Anwendung, das in Zusammenarbeit mitGegelia, Japaridze und Scherer entwickelt wurde. Das Ziel der neuen Methode bestand darin, ein konsistentes chirales Zählschema für renormierte Diagramme der relativistischen Theorie zu entwickeln. Zu diesem Zweck werden über das MS-Schema hinausgehend zusätzlich reguläre Terme abgezogen und in den Niederenergiekonstanten der allgemeinsten effektiven Lagrange-Dichte absorbiert. Als Folge respektieren auch Schleifendiagramme mit inneren Nukleonlinien ähnlich wie im mesonischen Sektor ein chirales Zählschema. Die Ergebnisse wurden mit denen aus der Infrarotregularisierung von Becher und Leutwyler und bis zur Ordnung O(q^3) auch mit denen aus der chiralen Störungstheorie für schwere Baryonen (HBChPT) verglichen. Der zweite Teil der Arbeit beschäftigte sich mit der Frage, ob der axiale Formfaktor in der Pionelektroproduktion nahe der Schwelle bestimmt werden kann. Dazu haben wir ein phänomenologisches Modell benutzt, das einerseits alle Symmetrien der Lagrange-Dichte der QCD respektiert, d.h. insbesondere die chirale Symmetrie und ihre spontane Brechung, andererseits relativ einfach nachzuvollziehendeRechnungen beinhaltet. Das Modell basierte auf denLagrange-Dichten der chiralen Störungstheorie mit derEinschränkung, dass wir keine Schleifengraphen berechnet haben. Wir benutzten diese Baumgraphennäherung, da die Schleifengraphen chirale Korrekturen zu unseren Ergebnissen liefern, die im Rahmen der HBChPT von Bernard, Kaiser und Meißner berechnet wurden und unter Kontrolle sind. Als ein Test des Modells haben wir die axialen Formfaktoren des Nukleons bestimmt und eine auf die chirale Symmetrie zurückgehende Beziehung zwischen diesen und demPion-Nukleon-Formfaktor überprüft. Der Hauptbestandteil dieses Teils der Arbeit bestand aus dem Test der so genannten Adlerschen Relation, die in Form einer chiralen Ward-Identität drei Greensche Funktionen miteinander verbindet. Wir haben explizit verifiziert, dass die Abhängigkeit der Pionelektroproduktionsamplitude vomaxialen Formfaktor eine direkte Konsequenz aus der chiralenSymmetrie ist. Durch einen Vergleich mit den Ergebnissen vonHaberzettl konnten wir schießlich feststellen, dass die sogenannte Eichableitungsmethode die chirale Symmetrie nichtrespektiert.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The increasing precision of current and future experiments in high-energy physics requires a likewise increase in the accuracy of the calculation of theoretical predictions, in order to find evidence for possible deviations of the generally accepted Standard Model of elementary particles and interactions. Calculating the experimentally measurable cross sections of scattering and decay processes to a higher accuracy directly translates into including higher order radiative corrections in the calculation. The large number of particles and interactions in the full Standard Model results in an exponentially growing number of Feynman diagrams contributing to any given process in higher orders. Additionally, the appearance of multiple independent mass scales makes even the calculation of single diagrams non-trivial. For over two decades now, the only way to cope with these issues has been to rely on the assistance of computers. The aim of the xloops project is to provide the necessary tools to automate the calculation procedures as far as possible, including the generation of the contributing diagrams and the evaluation of the resulting Feynman integrals. The latter is based on the techniques developed in Mainz for solving one- and two-loop diagrams in a general and systematic way using parallel/orthogonal space methods. These techniques involve a considerable amount of symbolic computations. During the development of xloops it was found that conventional computer algebra systems were not a suitable implementation environment. For this reason, a new system called GiNaC has been created, which allows the development of large-scale symbolic applications in an object-oriented fashion within the C++ programming language. This system, which is now also in use for other projects besides xloops, is the main focus of this thesis. The implementation of GiNaC as a C++ library sets it apart from other algebraic systems. Our results prove that a highly efficient symbolic manipulator can be designed in an object-oriented way, and that having a very fine granularity of objects is also feasible. The xloops-related parts of this work consist of a new implementation, based on GiNaC, of functions for calculating one-loop Feynman integrals that already existed in the original xloops program, as well as the addition of supplementary modules belonging to the interface between the library of integral functions and the diagram generator.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This thesis is concerned with calculations in manifestly Lorentz-invariant baryon chiral perturbation theory beyond order D=4. We investigate two different methods. The first approach consists of the inclusion of additional particles besides pions and nucleons as explicit degrees of freedom. This results in the resummation of an infinite number of higher-order terms which contribute to higher-order low-energy constants in the standard formulation. In this thesis the nucleon axial, induced pseudoscalar, and pion-nucleon form factors are investigated. They are first calculated in the standard approach up to order D=4. Next, the inclusion of the axial-vector meson a_1(1260) is considered. We find three diagrams with an axial-vector meson which are relevant to the form factors. Due to the applied renormalization scheme, however, the contributions of the two loop diagrams vanish and only a tree diagram contributes explicitly. The appearing coupling constant is fitted to experimental data of the axial form factor. The inclusion of the axial-vector meson results in an improved description of the axial form factor for higher values of momentum transfer. The contributions to the induced pseudoscalar form factor, however, are negligible for the considered momentum transfer, and the axial-vector meson does not contribute to the pion-nucleon form factor. The second method consists in the explicit calculation of higher-order diagrams. This thesis describes the applied renormalization scheme and shows that all symmetries and the power counting are preserved. As an application we determine the nucleon mass up to order D=6 which includes the evaluation of two-loop diagrams. This is the first complete calculation in manifestly Lorentz-invariant baryon chiral perturbation theory at the two-loop level. The numerical contributions of the terms of order D=5 and D=6 are estimated, and we investigate their pion-mass dependence. Furthermore, the higher-order terms of the nucleon sigma term are determined with the help of the Feynman-Hellmann theorem.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In dieser Arbeit wurde die elektromagnetische Pionproduktion unter der Annahme der Isospinsymmetrie der starken Wechselwirkung im Rahmen der manifest Lorentz-invarianten chiralen Störungstheorie in einer Einschleifenrechnung bis zur Ordnung vier untersucht. Dazu wurden auf der Grundlage des Mathematica-Pakets FeynCalc Algorithmen zur Berechnung der Pionproduktionsamplitude entwickelt. Bis einschließlich der Ordnung vier tragen insgesamt 105 Feynmandiagramme bei, die sich in 20 Baumdiagramme und 85 Schleifendiagramme unterteilen lassen. Von den 20 Baumdiagrammen wiederum sind 16 als Polterme und vier als Kontaktgraphen zu klassifizieren; bei den Schleifendiagrammen tragen 50 Diagramme ab der dritten Ordnung und 35 Diagramme ab der vierten Ordnung bei. In der Einphotonaustauschnäherung lässt sich die Pionproduktionsamplitude als ein Produkt des Polarisationsvektors des (virtuellen) Photons und des Übergangsstrommatrixelements parametrisieren, wobei letzteres alle Abhängigkeiten der starken Wechselwirkung beinhaltet und wo somit die chirale Störungstheorie ihren Eingang findet. Der Polarisationsvektor hingegen hängt von dem leptonischen Vertex und dem Photonpropagator ab und ist aus der QED bekannt. Weiterhin lässt sich das Übergangsstrommatrixelement in sechs eichinvariante Amplituden zerlegen, die sich im Rahmen der Isospinsymmetrie jeweils wiederum in drei Isospinamplituden zerlegen lassen. Linearkombinationen dieser Isospinamplituden erlauben letztlich die Beschreibung der physikalischen Amplituden. Die in dieser Rechnung auftretenden Einschleifenintegrale wurden numerisch mittels des Programms LoopTools berechnet. Im Fall tensorieller Integrale erfolgte zunächst eine Zerlegung gemäß der Methode von Passarino und Veltman. Da die somit erhaltenen Ergebnisse jedoch i.a. noch nicht das chirale Zählschema erfüllen, wurde die entsprechende Renormierung mittels der reformulierten Infrarotregularisierung vorgenommen. Zu diesem Zweck wurde ein Verfahren entwickelt, welches die Abzugsterme automatisiert bestimmt. Die schließlich erhaltenen Isospinamplituden wurden in das Programm MAID eingebaut. In diesem Programm wurden als Test (Ergebnisse bis Ordnung drei) die s-Wellenmultipole E_{0+} und L_{0+} in der Schwellenregion berechnet. Die Ergebnisse wurden sowohl mit Messdaten als auch mit den Resultaten des "klassischen" MAID verglichen, wobei sich i. a. gute Übereinstimmungen im Rahmen der Fehler ergaben.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

ABSTRACT Corundum is one of the most famous gems materials. Different heat treatment methods for enhancement purposes are commonly applied and accepted in the gem market. With this reason, the identification of the natural, unheated corundum is intensively investigated. In this study, aluminium hydroxide minerals and zircon are focused to observe the crystallization and phase change of these minerals during heat treatment procedures. Aluminium hydroxide minerals can be transformed to alumina with the corundum structure by heating. The reaction history of aluminium hydroxide minerals containing corundum was investigated comparing it with diaspore, boehmite, gibbsite and bayerite by TG and DTA methods. These hydroxide minerals were entirely transformed to corundum after heating at 600°C. Zircon inclusions in corundums from Ilakaka, Madagascar, were investigated for the influence of different heat-treatment temperatures on the recovery of their crystalline structure and on possible reactions within and with the host crystals. The host corundum was heated at 500, 800, 1000, 1200, 1400, 1600 and 1800°C. The crystallinity, the trapped pressure, and the decomposition of the zircon inclusions within the host corundum have been investigated by Raman spectroscopy. Radiation-damaged zircon inclusions may be used as an indicator for unheated Ilakaka corundum crystals. They are fully recrystallized after heating at 1000°C influencing the lowering of the 3 Raman band shift, the decreasing of FWHM of the 3 Raman band and the decreasing of the trapped pressure between the inclusion and the host corundum. Under microscopic observation, surface alterations of the inclusions can be firstly seen from transparent into frosted-like appearance at 1400°C. Then, between 1600°C and 1800 °C, the inclusion becomes partly or even completely molten. The decomposition of the zircon inclusion to m-ZrO2 and SiO2-glass phases begins at the rim of the inclusion after heating from 1200°C to 1600°C which can be detected by the surface change, the increase of the 3 Raman band position and the trapped pressure. At 1800°C, the zircon inclusions entirely melt transforming to solid phases during cooling like m-ZrO2 and SiO2-glass accompanied by an increase of pressure between the transformed inclusion and its host.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The electromagnetic form factors of the proton are fundamental quantities sensitive to the distribution of charge and magnetization inside the proton. Precise knowledge of the form factors, in particular of the charge and magnetization radii provide strong tests for theory in the non-perturbative regime of QCD. However, the existing data at Q^2 below 1 (GeV/c)^2 are not precise enough for a hard test of theoretical predictions.rnrnFor a more precise determination of the form factors, within this work more than 1400 cross sections of the reaction H(e,e′)p were measured at the Mainz Microtron MAMI using the 3-spectrometer-facility of the A1-collaboration. The data were taken in three periods in the years 2006 and 2007 using beam energies of 180, 315, 450, 585, 720 and 855 MeV. They cover the Q^2 region from 0.004 to 1 (GeV/c)^2 with counting rate uncertainties below 0.2% for most of the data points. The relative luminosity of the measurements was determined using one of the spectrometers as a luminosity monitor. The overlapping acceptances of the measurements maximize the internal redundancy of the data and allow, together with several additions to the standard experimental setup, for tight control of systematic uncertainties.rnTo account for the radiative processes, an event generator was developed and implemented in the simulation package of the analysis software which works without peaking approximation by explicitly calculating the Bethe-Heitler and Born Feynman diagrams for each event.rnTo separate the form factors and to determine the radii, the data were analyzed by fitting a wide selection of form factor models directly to the measured cross sections. These fits also determined the absolute normalization of the different data subsets. The validity of this method was tested with extensive simulations. The results were compared to an extraction via the standard Rosenbluth technique.rnrnThe dip structure in G_E that was seen in the analysis of the previous world data shows up in a modified form. When compared to the standard-dipole form factor as a smooth curve, the extracted G_E exhibits a strong change of the slope around 0.1 (GeV/c)^2, and in the magnetic form factor a dip around 0.2 (GeV/c)^2 is found. This may be taken as indications for a pion cloud. For higher Q^2, the fits yield larger values for G_M than previous measurements, in agreement with form factor ratios from recent precise polarized measurements in the Q2 region up to 0.6 (GeV/c)^2.rnrnThe charge and magnetic rms radii are determined as rn⟨r_e⟩=0.879 ± 0.005(stat.) ± 0.004(syst.) ± 0.002(model) ± 0.004(group) fm,rn⟨r_m⟩=0.777 ± 0.013(stat.) ± 0.009(syst.) ± 0.005(model) ± 0.002(group) fm.rnThis charge radius is significantly larger than theoretical predictions and than the radius of the standard dipole. However, it is in agreement with earlier results measured at the Mainz linear accelerator and with determinations from Hydrogen Lamb shift measurements. The extracted magnetic radius is smaller than previous determinations and than the standard-dipole value.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In this thesis, a systematic analysis of the bar B to X_sgamma photon spectrum in the endpoint region is presented. The endpoint region refers to a kinematic configuration of the final state, in which the photon has a large energy m_b-2E_gamma = O(Lambda_QCD), while the jet has a large energy but small invariant mass. Using methods of soft-collinear effective theory and heavy-quark effective theory, it is shown that the spectrum can be factorized into hard, jet, and soft functions, each encoding the dynamics at a certain scale. The relevant scales in the endpoint region are the heavy-quark mass m_b, the hadronic energy scale Lambda_QCD and an intermediate scale sqrt{Lambda_QCD m_b} associated with the invariant mass of the jet. It is found that the factorization formula contains two different types of contributions, distinguishable by the space-time structure of the underlying diagrams. On the one hand, there are the direct photon contributions which correspond to diagrams with the photon emitted directly from the weak vertex. The resolved photon contributions on the other hand arise at O(1/m_b) whenever the photon couples to light partons. In this work, these contributions will be explicitly defined in terms of convolutions of jet functions with subleading shape functions. While the direct photon contributions can be expressed in terms of a local operator product expansion, when the photon spectrum is integrated over a range larger than the endpoint region, the resolved photon contributions always remain non-local. Thus, they are responsible for a non-perturbative uncertainty on the partonic predictions. In this thesis, the effect of these uncertainties is estimated in two different phenomenological contexts. First, the hadronic uncertainties in the bar B to X_sgamma branching fraction, defined with a cut E_gamma > 1.6 GeV are discussed. It is found, that the resolved photon contributions give rise to an irreducible theory uncertainty of approximately 5 %. As a second application of the formalism, the influence of the long-distance effects on the direct CP asymmetry will be considered. It will be shown that these effects are dominant in the Standard Model and that a range of -0.6 < A_CP^SM < 2.8 % is possible for the asymmetry, if resolved photon contributions are taken into account.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In der vorliegenden Arbeit werden Photopionproduktion (PPP) und Elektropionproduktion (EPP) im Rahmen der manifest lorentzinvarianten baryonischen chiralen Störungstheorie untersucht. Dabei werden zwei verschiedene Ansätze verfolgt. Zum einen wird eine Rechnung auf Einschleifenniveau bis zur chiralen Ordnung O(q^4) mit Pionen und Nukleonen als Freiheitsgrade durchgeführt, um die Energieabhängigkeit der Reaktionen über einen möglichst großen Bereich zu beschreiben. Um die Abhängigkeit von der Photonvirtualität in der EPP zu verbessern, werden zum anderen in einer zweiten Rechnung Vektormesonen in die Theorie einbezogen. Diese Rechnung wird bis zur chiralen Ordnung O(q^3) auf Einschleifenniveau durchgeführt. rnrnVon den vier physikalischen Prozessen in PPP und EPP sind nur drei experimentell zugänglich. Untersucht werden diese Reaktionen an mehreren verschiedenen Anlagen, z.B. in Mainz, Bonn oder Saskatoon. Die dort gewonnenen Daten werden hier verwendet, um die Grenzen der chiralen Störungstheorie auszuloten. rnrnDiese Arbeit stellt die erste, vollständige, manifest lorentzinvariante Rechnung in O(q^4) für PPP und EPP, und die erste jemals durchgeführte Rechnung mit Vektormesonen als Freiheitsgrade für diesen Prozess, dar. Neben der Berechnung der physikalischen Observablen wird auch eine Partialwellenzerlegung durchgeführt und die wichtigsten Multipole untersucht. Diese lassen sich aus den gewonnenen Amplituden extrahieren und bieten eine gute Möglichkeit das Nukleon und Resonanzen zu untersuchen. rnrnUm das Matrixelement für die Prozesse berechnen zu können, wurden verschiedene Routinen für das Computeralgebrasystem Mathematica entwickelt, da die Anzahl der zu bestimmenden Diagramme sehr groß ist. Für die Multipolzerlegung werden zwei verschiedene Programme verwendet. Zum einen das bereits existierende Programm XMAID, welches für diese Arbeit entsprechend modifiziert wurde. Zum anderen wurden vergleichbare Routinen für Mathematica entwickelt. Am Ende der Analysen werden die verschiedenen Rechnungen bezüglich ihrer Anwendbarkeit auf PPP und EPP verglichen.