917 resultados para finite Elemente Berechnung
Resumo:
Im Rahmen dieser Arbeit wurden Experimente auf verschiedenen Gebieten der chemischen Charakterisierung der schwersten Elemente durchgeführt. So wurden Vorarbeiten zur Elektrochemie der superschweren Elemente geleistet. Hier konnte gezeigt werden, dass sich Po aus verdünnten Säuren auf Metallelektroden spontan abscheiden lässt. Als wichtigste Reaktionsparameter wurden Temperatur, Konvektion und Viskosität des Elektrolyten identifiziert. Für die Elektrodeposition ist es von Bedeutung, reproduzierbar saubere Elektroden einzusetzen. Auch hierzu konnten Erkenntnisse gewonnen werden. Auf dem Gebiet der Charakterisierung von Nukliden wurde der Elektroneneinfang in Db-263 untersucht. Aus diesem Zerfall geht Rf-263 hervor, welches mit einer Halbwertszeit von 15min überwiegend durch Spontanspaltung zerfällt. Im Experiment wurde Rf-263 mittels Ionenaustauschchromatographie und nachfolgender Flüssig-Flüssig-Extraktion von Db und Aktiniden getrennt. Das erhaltene Präparat wurde auf Alpha-Zerfall und Spontanspaltung untersucht. Die Zahl der Rf-263 Zerfälle lässt auf einen Zerfallszweig durch Elektroneneinfang in Db-263 von 3% schließen. Ein Großteil der Arbeit beschäftigt sich mit der Bestimmung des Kd-Wertes von Sg am Anionenaustauscher Aminex A27 in 0.1M HNO3/5E-3M HF. Beim mit dem ALOHA-System durchgeführten Experiment wurde die Mehrsäulentechnik (MCT) erstmals für die wässrige Chemie von Sg genutzt. Aufgrund zahlreicher Probleme konnte letztlich kein Kd-Wert bestimmt werden. Stattdessen wurde das Experiment einer Fehleranalyse unterzogen. Hier zeigte sich eine Anfälligkeit der MCT auf natürliche Radionuklide. Weiterhin konnten Probleme bei ALOHA aufgedeckt werden, die eine Wiederholung des Experiments ausschlossen. In der Folge wurde ein alternativer Anionenaustauscher charakterisiert, sowie die Elektrolysebedingungen, als wichtiger Schritt der chemischen Aufarbeitung bei der MCT, genauer spezifiziert.
Resumo:
The topic of my Ph.D. thesis is the finite element modeling of coseismic deformation imaged by DInSAR and GPS data. I developed a method to calculate synthetic Green functions with finite element models (FEMs) and then use linear inversion methods to determine the slip distribution on the fault plane. The method is applied to the 2009 L’Aquila Earthquake (Italy) and to the 2008 Wenchuan earthquake (China). I focus on the influence of rheological features of the earth's crust by implementing seismic tomographic data and the influence of topography by implementing Digital Elevation Models (DEM) layers on the FEMs. Results for the L’Aquila earthquake highlight the non-negligible influence of the medium structure: homogeneous and heterogeneous models show discrepancies up to 20% in the fault slip distribution values. Furthermore, in the heterogeneous models a new area of slip appears above the hypocenter. Regarding the 2008 Wenchuan earthquake, the very steep topographic relief of Longmen Shan Range is implemented in my FE model. A large number of DEM layers corresponding to East China is used to achieve the complete coverage of the FE model. My objective was to explore the influence of the topography on the retrieved coseismic slip distribution. The inversion results reveals significant differences between the flat and topographic model. Thus, the flat models frequently adopted are inappropriate to represent the earth surface topographic features and especially in the case of the 2008 Wenchuan earthquake.
Resumo:
In the present study, pterosaur skull constructions were analysed using a combined approach of finite element analysis (FEA), static investigations as well as applying classical beam theory and lever mechanics. The study concentrates on the operating regime „bite“, where loads are distributed via the dentition or a keratinous rhamphotheca into the skull during jaw occlusion. As a first step, pterosaur tooth constructions were analysed. The different morphologies of the tooth construction determine specific operational ranges, in which the teeth perform best (= greatest resistance against failure). The incomplete enamel-covering of the pterosaur tooth constructions thereby leads to a reduction of strain and stress and to a greater lateral elasticity than for a complete enamel cover. This permits the development of high and lateral compressed tooth constructions. Further stress-absorption occurs in the periodontal membrane, although its mechanical properties can not be clarified unambiguously. A three-dimensionally preserved skull of Anhanguera was chosen as a case-study for the investigation of the skull constructions. CT-scans were made to get information about the internal architecture, supplemented by thin-sections of a rostrum of a second Anhanguera specimen. These showed that the rostrum can be approximated as a double-walled triangular tube with a large central vacuity and an average wall-thickness of the bony layers of about 1 mm. On base of the CT-scans, a stereolithography of the skull of Anhanguera was made on which the jaw adductor and abductor muscles were modelled, permitting to determine muscular forces. The values were used for the lever mechanics, cantilever and space frame analysis. These studies and the FEA show, that the jaw reaction forces are critical for the stability of the skull construction. The large jugal area ventral to the orbita and the inclined occipital region act as buttresses against these loads. In contrast to the orbitotemporal region which is subject to varying loading conditions, the pattern in the rostrum is less complex. Here, mainly bending in dorsal direction and torsion occur. The hollow rostrum leads to a reduction of weight of the skull and to a high bending and torsional resistance. Similar to the Anhanguera skull construction, the skulls of those pterosaur taxa were analysed, from which enough skull material is know to permit a reliable reconstruction. Furthermore, FEA were made from five selected taxa. The comparison of the biomechanical behaviour of the different skull constructions results in major transformational processes: elongation of rostra, inclination of the occipital region, variation of tooth morphology, reduction of the dentition and replacement of teeth by a keratinous hook or rhamphotheca, fusion of naris and antorbital fenestra, and the development of bony and soft-tissue crests. These processes are discussed for their biomechanical effects during bite. Certain optional operational ranges for feeding are assigned to the different skull constructions and previous hypotheses (e.g. skimming) are verified. Using the principle of economisation, these processes help to establish irreversible transformations and to define possible evolutionary pathways. The resulting constructional levels and the structural variations within these levels are interpreted in light of a greater feeding efficiency and reduction of bony mass combined with an increased stability against the various loads. The biomechanical conclusive pathways are used for comparison and verification of recent hypothesis of the phylogenetic systematics of pterosaurs.
Resumo:
In 'Involutory reflection groups and their models' (F. Caselli, 2010), a uniform Gelfand model is constructed for all complex reflection groups G(r,p,n) satisfying GCD(p,n)=1,2 and for all their quotients modulo a scalar subgroup. The present work provides a refinement for this model. The final decomposition obtained is compatible with the Robinson-Schensted generalized correspondence.
Resumo:
Im Rahmen der vorliegenden Dissertation wurde, basierend auf der Parallel-/Orthogonalraum-Methode, eine neue Methode zur Berechnung von allgemeinen massiven Zweischleifen-Dreipunkt-Tensorintegralen mit planarer und gedrehter reduzierter planarer Topologie entwickelt. Die Ausarbeitung und Implementation einer Tensorreduktion fuer Integrale, welche eine allgemeine Tensorstruktur im Minkowski-Raum besitzen koennen, wurde durchgefuehrt. Die Entwicklung und Implementation eines Algorithmus zur semi-analytischen Berechnung der schwierigsten Integrale, die nach der Tensorreduktion verbleiben, konnte vollendet werden. (Fuer die anderen Basisintegrale koennen wohlbekannte Methoden verwendet werden.) Die Implementation ist bezueglich der UV-endlichen Anteile der Masterintegrale, die auch nach Tensorreduktion noch die zuvor erwaehnten Topologien besitzen, abgeschlossen. Die numerischen Integrationen haben sich als stabil erwiesen. Fuer die verbleibenden Teile des Projektes koennen wohlbekannte Methoden verwendet werden. In weiten Teilen muessen lediglich noch Links zu existierenden Programmen geschrieben werden. Fuer diejenigen wenigen verbleibenden speziellen Topologien, welche noch zu implementieren sind, sind (wohlbekannte) Methoden zu implementieren. Die Computerprogramme, die im Rahmen dieses Projektes entstanden, werden auch fuer allgemeinere Prozesse in das xloops-Projekt einfliessen. Deswegen wurde sie soweit moeglich fuer allgemeine Prozesse entwickelt und implementiert. Der oben erwaehnte Algorithmus wurde insbesondere fuer die Evaluation der fermionischen NNLO-Korrekturen zum leptonischen schwachen Mischungswinkel sowie zu aehnlichen Prozessen entwickelt. Im Rahmen der vorliegenden Dissertation wurde ein Grossteil der fuer die fermionischen NNLO-Korrekturen zu den effektiven Kopplungskonstanten des Z-Zerfalls (und damit fuer den schachen Mischungswinkel) notwendigen Arbeit durchgefuehrt.
Resumo:
Die Berechnung von experimentell überprüfbaren Vorhersagen aus dem Standardmodell mit Hilfe störungstheoretischer Methoden ist schwierig. Die Herausforderungen liegen in der Berechnung immer komplizierterer Feynman-Integrale und dem zunehmenden Umfang der Rechnungen für Streuprozesse mit vielen Teilchen. Neue mathematische Methoden müssen daher entwickelt und die zunehmende Komplexität durch eine Automatisierung der Berechnungen gezähmt werden. In Kapitel 2 wird eine kurze Einführung in diese Thematik gegeben. Die nachfolgenden Kapitel sind dann einzelnen Beiträgen zur Lösung dieser Probleme gewidmet. In Kapitel 3 stellen wir ein Projekt vor, das für die Analysen der LHC-Daten wichtig sein wird. Ziel des Projekts ist die Berechnung von Einschleifen-Korrekturen zu Prozessen mit vielen Teilchen im Endzustand. Das numerische Verfahren wird dargestellt und erklärt. Es verwendet Helizitätsspinoren und darauf aufbauend eine neue Tensorreduktionsmethode, die Probleme mit inversen Gram-Determinanten weitgehend vermeidet. Es wurde ein Computerprogramm entwickelt, das die Berechnungen automatisiert ausführen kann. Die Implementierung wird beschrieben und Details über die Optimierung und Verifizierung präsentiert. Mit analytischen Methoden beschäftigt sich das vierte Kapitel. Darin wird das xloopsnosp-Projekt vorgestellt, das verschiedene Feynman-Integrale mit beliebigen Massen und Impulskonfigurationen analytisch berechnen kann. Die wesentlichen mathematischen Methoden, die xloops zur Lösung der Integrale verwendet, werden erklärt. Zwei Ideen für neue Berechnungsverfahren werden präsentiert, die sich mit diesen Methoden realisieren lassen. Das ist zum einen die einheitliche Berechnung von Einschleifen-N-Punkt-Integralen, und zum anderen die automatisierte Reihenentwicklung von Integrallösungen in höhere Potenzen des dimensionalen Regularisierungsparameters $epsilon$. Zum letzteren Verfahren werden erste Ergebnisse vorgestellt. Die Nützlichkeit der automatisierten Reihenentwicklung aus Kapitel 4 hängt von der numerischen Auswertbarkeit der Entwicklungskoeffizienten ab. Die Koeffizienten sind im allgemeinen Multiple Polylogarithmen. In Kapitel 5 wird ein Verfahren für deren numerische Auswertung vorgestellt. Dieses neue Verfahren für Multiple Polylogarithmen wurde zusammen mit bekannten Verfahren für andere Polylogarithmus-Funktionen als Bestandteil der CC-Bibliothek ginac implementiert.
Resumo:
Das Hauptziel der vorliegenden Arbeit war die Entwicklung eines Experimentaufbaus für die elektrochemische Abscheidung von Transactiniden mit anschließender Detektion. Zu diesem Zweck wurden Experimente mit den Homologen dieser Elemente durchgeführt. Die Elektrodeposition von Tracermengen an Fremdelektroden führt zu einer Elektrodenbedeckung von weniger als einer Monolage. Die erforderlichen Abscheidepotentiale sind häufig positiver, als nach der Nernst’schen Gleichung zu erwarten ist. Dieses Phänomen nennt man Unterpotentialabscheidung. In zahlreichen Versuchen mit Radiotracern wurde die Abscheideausbeute als Funktion des Elektrodenpotentials bestimmt, wobei abzuscheidendes Ion, Elektrodenmaterial und Elektrolyt variiert wurden. Es wurden kritische Potentiale, bei denen eine nennenswerte Abscheidung gerade begann, ermittelt sowie Potentiale für die Abscheidung von 50 % der in der Lösung befindlichen Atome. Diese Werte wurden mit theoretisch vorhergesagten Potentialen und Werten aus der Literatur verglichen. Die Abscheidung von Pb als Homologem von Element 114 funktionierte sehr gut an Elektroden aus Palladium oder palladinierten Nickelelektroden unter Verwendung von 0,1 M HCl als Elektrolyt. Zur Charakterisierung der Unterpotentialabscheidung wurde neben der Radiotracer-Methode auch die Cyclovoltammetrie eingesetzt. Hier findet die Abscheidung der ersten Monolage auf der Elektrode ebenfalls häufig bei positiveren Potentialen statt, als die der Hauptmenge. Die mit beiden Methoden ermittelten Werte wurden einander gegenübergestellt. Die Elektrodeposition von kurzlebigen Isotopen muss sehr schnell erfolgen. Es konnte gezeigt werden, dass eine hohe Temperatur und damit verbunden eine niedrige Viskosität des Elektrolyten die Abscheidung beschleunigt. Ebenfalls wichtig ist ein gutes Rühren der Lösung, um eine kleine Nernst’sche Diffusionsschichtdicke zu erzielen. Das Verhältnis von Elektrodenfläche zu Elektrolytvolumen muss möglichst groß sein. Auf der Grundlage dieser Ergebnisse wurde eine für schnelle Elektrolysen optimierte Elektrolysezelle entwickelt. Unter Einsatz dieser Zelle wurden die Abscheidegeschwindigkeiten für verschiedene Ionen- und Elektrodenkombinationen gemessen. Es wurden Experimente zur Kopplung von Gasjet und Elektrolysezelle durchgeführt, dabei wurde sowohl mit am Reaktor erzeugten Spaltprodukten, mit Pb-Isotopen aus einer emanierenden Quelle und mit am Beschleuniger erzeugten Isotopen gearbeitet. Mit den dort gewonnenen Erkenntnissen wurde ein Experimentaufbau für die kontinuierliche Abscheidung und Detektion von kurzlebigen Isotopen realisiert. Am Beschleuniger wurden u. a. kurzlebige Hg- und Pb-Isotope erzeugt und mit einem Gasjet aus der Targetkammer zum ALOHA-System transportiert. Dort wurden sie in einem quasi-kontinuierlichen Prozess in die wässrige Phase überführt und zu einer Elektrolyszelle transportiert. In dieser erfolgte die Elektrodeposition auf eine bandförmige Elektrode aus Nickel oder palladiniertem Nickel. Nach der Abscheidung wurde das Band zu einer Detektorphalanx gezogen, wo der -Zerfall der neutronenarmen Isotope registriert wurde. Es wurden charakteristische Größen wie die Abscheidegeschwindigkeit und die Gesamtausbeute der Elektrolyse ermittelt. Das System wurde im Dauerbetrieb getestet. Es konnte gezeigt werden, dass der gewählte Aufbau prinzipiell für die Abscheidung von kurzlebigen, am Beschleuniger erzeugten Isotopen geeignet ist. Damit ist eine wichtige Voraussetzung für den zukünftigen Einsatz der Methode zum Studium der chemischen Eigenschaften der superschweren Elemente geschaffen.
Resumo:
Precision measurements of phenomena related to fermion mixing require the inclusion of higher order corrections in the calculation of corresponding theoretical predictions. For this, a complete renormalization scheme for models that allow for fermion mixing is highly required. The correct treatment of unstable particles makes this task difficult and yet, no satisfactory and general solution can be found in the literature. In the present work, we study the renormalization of the fermion Lagrange density with Dirac and Majorana particles in models that involve mixing. The first part of the thesis provides a general renormalization prescription for the Lagrangian, while the second one is an application to specific models. In a general framework, using the on-shell renormalization scheme, we identify the physical mass and the decay width of a fermion from its full propagator. The so-called wave function renormalization constants are determined such that the subtracted propagator is diagonal on-shell. As a consequence of absorptive parts in the self-energy, the constants that are supposed to renormalize the incoming fermion and the outgoing antifermion are different from the ones that should renormalize the outgoing fermion and the incoming antifermion and not related by hermiticity, as desired. Instead of defining field renormalization constants identical to the wave function renormalization ones, we differentiate the two by a set of finite constants. Using the additional freedom offered by this finite difference, we investigate the possibility of defining field renormalization constants related by hermiticity. We show that for Dirac fermions, unless the model has very special features, the hermiticity condition leads to ill-defined matrix elements due to self-energy corrections of external legs. In the case of Majorana fermions, the constraints for the model are less restrictive. Here one might have a better chance to define field renormalization constants related by hermiticity. After analysing the complete renormalized Lagrangian in a general theory including vector and scalar bosons with arbitrary renormalizable interactions, we consider two specific models: quark mixing in the electroweak Standard Model and mixing of Majorana neutrinos in the seesaw mechanism. A counter term for fermion mixing matrices can not be fixed by only taking into account self-energy corrections or fermion field renormalization constants. The presence of unstable particles in the theory can lead to a non-unitary renormalized mixing matrix or to a gauge parameter dependence in its counter term. Therefore, we propose to determine the mixing matrix counter term by fixing the complete correction terms for a physical process to experimental measurements. As an example, we calculate the decay rate of a top quark and of a heavy neutrino. We provide in each of the chosen models sample calculations that can be easily extended to other theories.
Resumo:
The present thesis is concerned with certain aspects of differential and pseudodifferential operators on infinite dimensional spaces. We aim to generalize classical operator theoretical concepts of pseudodifferential operators on finite dimensional spaces to the infinite dimensional case. At first we summarize some facts about the canonical Gaussian measures on infinite dimensional Hilbert space riggings. Considering the naturally unitary group actions in $L^2(H_-,gamma)$ given by weighted shifts and multiplication with $e^{iSkp{t}{cdot}_0}$ we obtain an unitary equivalence $F$ between them. In this sense $F$ can be considered as an abstract Fourier transform. We show that $F$ coincides with the Fourier-Wiener transform. Using the Fourier-Wiener transform we define pseudodifferential operators in Weyl- and Kohn-Nirenberg form on our Hilbert space rigging. In the case of this Gaussian measure $gamma$ we discuss several possible Laplacians, at first the Ornstein-Uhlenbeck operator and then pseudo-differential operators with negative definite symbol. In the second case, these operators are generators of $L^2_gamma$-sub-Markovian semi-groups and $L^2_gamma$-Dirichlet-forms. In 1992 Gramsch, Ueberberg and Wagner described a construction of generalized Hörmander classes by commutator methods. Following this concept and the classical finite dimensional description of $Psi_{ro,delta}^0$ ($0leqdeltaleqroleq 1$, $delta< 1$) in the $C^*$-algebra $L(L^2)$ by Beals and Cordes we construct in both cases generalized Hörmander classes, which are $Psi^*$-algebras. These classes act on a scale of Sobolev spaces, generated by our Laplacian. In the case of the Ornstein-Uhlenbeck operator, we prove that a large class of continuous pseudodifferential operators considered by Albeverio and Dalecky in 1998 is contained in our generalized Hörmander class. Furthermore, in the case of a Laplacian with negative definite symbol, we develop a symbolic calculus for our operators. We show some Fredholm-criteria for them and prove that these Fredholm-operators are hypoelliptic. Moreover, in the finite dimensional case, using the Gaussian-measure instead of the Lebesgue-measure the index of these Fredholm operators is still given by Fedosov's formula. Considering an infinite dimensional Heisenberg group rigging we discuss the connection of some representations of the Heisenberg group to pseudo-differential operators on infinite dimensional spaces. We use this connections to calculate the spectrum of pseudodifferential operators and to construct generalized Hörmander classes given by smooth elements which are spectrally invariant in $L^2(H_-,gamma)$. Finally, given a topological space $X$ with Borel measure $mu$, a locally compact group $G$ and a representation $B$ of $G$ in the group of all homeomorphisms of $X$, we construct a Borel measure $mu_s$ on $X$ which is invariant under $B(G)$.
Resumo:
Questa tesi si pone come obiettivo l'analisi delle componenti di sollecitazione statica di un serbatoio, in acciaio API 5L X52, sottoposto a carichi di flessione e pressione interna attraverso il programma agli elementi finiti PLCd4, sviluppato presso l'International Center for Numerical Methods in Engineering (CIMNE - Barcelona). Questo tipo di analisi rientra nel progetto europeo ULCF, il cui traguardo è lo studio della fatica a bassissimo numero di cicli per strutture in acciaio. Prima di osservare la struttura completa del serbatoio è stato studiato il comportamento del materiale per implementare all'interno del programma una nuova tipologia di curva che rappresentasse al meglio l'andamento delle tensioni interne. Attraverso il lavoro di preparazione alla tesi è stato inserito all'interno del programma un algoritmo per la distribuzione delle pressioni superficiali sui corpi 3D, successivamente utilizzato per l'analisi della pressione interna nel serbatoio. Sono state effettuate analisi FEM del serbatoio in diverse configurazioni di carico ove si è cercato di modellare al meglio la struttura portante relativa al caso reale di "full scale test". Dal punto di vista analitico i risultati ottenuti sono soddisfacenti in quanto rispecchiano un corretto comportamento del serbatoio in condizioni di pressioni molto elevate e confermano la bontà del programma nell'analisi computazionale.
Resumo:
This thesis deals with the study of optimal control problems for the incompressible Magnetohydrodynamics (MHD) equations. Particular attention to these problems arises from several applications in science and engineering, such as fission nuclear reactors with liquid metal coolant and aluminum casting in metallurgy. In such applications it is of great interest to achieve the control on the fluid state variables through the action of the magnetic Lorentz force. In this thesis we investigate a class of boundary optimal control problems, in which the flow is controlled through the boundary conditions of the magnetic field. Due to their complexity, these problems present various challenges in the definition of an adequate solution approach, both from a theoretical and from a computational point of view. In this thesis we propose a new boundary control approach, based on lifting functions of the boundary conditions, which yields both theoretical and numerical advantages. With the introduction of lifting functions, boundary control problems can be formulated as extended distributed problems. We consider a systematic mathematical formulation of these problems in terms of the minimization of a cost functional constrained by the MHD equations. The existence of a solution to the flow equations and to the optimal control problem are shown. The Lagrange multiplier technique is used to derive an optimality system from which candidate solutions for the control problem can be obtained. In order to achieve the numerical solution of this system, a finite element approximation is considered for the discretization together with an appropriate gradient-type algorithm. A finite element object-oriented library has been developed to obtain a parallel and multigrid computational implementation of the optimality system based on a multiphysics approach. Numerical results of two- and three-dimensional computations show that a possible minimum for the control problem can be computed in a robust and accurate manner.
Resumo:
When non-adsorbing polymers are added to an isotropic suspension of rod-like colloids, the colloids effectively attract each other via depletion forces. Monte Carlo simulations were performed to study the phase diagram of such rod-polymer mixtures. The colloidal rods were modelled as hard spherocylinders; the polymers were described as spheres of the same diameter as the rods. The polymers may overlap with no energy cost, while overlap of polymers and rods is forbidden. In this thesis the emphasis was on the depletion effects caused by the addition of spheres on the isotropic phase of rod-like particles. Although most of the present experimental studies consider systems close to or beyond the isotropic-nematic transition, the isotropic phase with depletion interactions turns out to be a not less interesting topic. First, the percolation problem was studied in canonical simulations of a system of hard rods and soft spheres, where the amount of depletant was kept low to prevent phase separation of the mixture. The lowering of the percolation threshold seen in experiment is confirmed to be due to the depletion interactions. The local changes in the structure of the fluid of rods, which were measured in the simulations, indicated that the depletion forces enhance local alignment and aggregation of the rods. Then, the phase diagram of isotropic-isotropic demixing of short spherocylinders was calculated using grand canonical ensemble simulations with successive umbrella sampling. Finite size scaling analysis allowed to estimate the location of the critical point. Also, estimates for the interfacial tension between the coexisting isotropic phases and analyses of its power-law behaviour on approach of the critical point are presented. The obtained phase diagram was compared to the predictions of the free volume theory. After an analysis of the bulk, the phase behaviour in confinement was studied. The critical point of gas-liquid demixing is shifted to higher concentrations of rods and smaller concentrations of spheres due to the formation of an orientationally ordered surface film. If the separation between the walls becomes very small, the critical point is shifted back to smaller concentrations of rods because the surface film breaks up. A method to calculate the contact angle of the liquid-gas interface with the wall is introduced and the wetting behaviour on the approach to the critical point is analysed.