984 resultados para SCALAR


Relevância:

10.00% 10.00%

Publicador:

Resumo:

[EN]An analysis of the influence that reservoir levels and bottom sediment properties (especially on the degree of saturation) have on the dynamic response of arch dams is caried out. For this purpose, a Boundary Element Model developed by the authors that allows the direct dynamic study of problems that incorporate scalar, viscoelastic and poroelastic media is used.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The theory of the 3D multipole probability tomography method (3D GPT) to image source poles, dipoles, quadrupoles and octopoles, of a geophysical vector or scalar field dataset is developed. A geophysical dataset is assumed to be the response of an aggregation of poles, dipoles, quadrupoles and octopoles. These physical sources are used to reconstruct without a priori assumptions the most probable position and shape of the true geophysical buried sources, by determining the location of their centres and critical points of their boundaries, as corners, wedges and vertices. This theory, then, is adapted to the geoelectrical, gravity and self potential methods. A few synthetic examples using simple geometries and three field examples are discussed in order to demonstrate the notably enhanced resolution power of the new approach. At first, the application to a field example related to a dipole–dipole geoelectrical survey carried out in the archaeological park of Pompei is presented. The survey was finalised to recognize remains of the ancient Roman urban network including roads, squares and buildings, which were buried under the thick pyroclastic cover fallen during the 79 AD Vesuvius eruption. The revealed anomaly structures are ascribed to wellpreserved remnants of some aligned walls of Roman edifices, buried and partially destroyed by the 79 AD Vesuvius pyroclastic fall. Then, a field example related to a gravity survey carried out in the volcanic area of Mount Etna (Sicily, Italy) is presented, aimed at imaging as accurately as possible the differential mass density structure within the first few km of depth inside the volcanic apparatus. An assemblage of vertical prismatic blocks appears to be the most probable gravity model of the Etna apparatus within the first 5 km of depth below sea level. Finally, an experimental SP dataset collected in the Mt. Somma-Vesuvius volcanic district (Naples, Italy) is elaborated in order to define location and shape of the sources of two SP anomalies of opposite sign detected in the northwestern sector of the surveyed area. The modelled sources are interpreted as the polarization state induced by an intense hydrothermal convective flow mechanism within the volcanic apparatus, from the free surface down to about 3 km of depth b.s.l..

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Experimental investigations of visible Smith-Purcell-radiation with a micro-focused high relativistic electron beam (E=855 MeV) are presented in the near region, in which the electron beam grazes the surface of the grating. The radiation intensity was measured as a function of the angle of observation and of the distance between electron beam axis and the surface of the grating simultaneously for two different wavelengths (360 nm, 546 nm).In the experiments Smith-Purcell-radiation was identified by the measured angular distribution fulfilling the characteristic coherence condition. By the observed distance dependence of the intensity two components of Smith-Purcell-radiation could be separated: one component with the theoretical predicted interaction length hint, which is produced by electrons passing over the surface of the grating, and an additional component in the near region leading to a strong enhancement of the intensity, which is produced by electrons hitting the surface. To describe the intensity of the observed additional radiation component a simple model for optical grating transition radiation, caused by the electrons passing through the grating structure, is presented. Taking into account the simple scalar model, the results of a Monte-Carlo calculation show that the additional radiation component could be explained by optical grating transition radiation.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The term Ambient Intelligence (AmI) refers to a vision on the future of the information society where smart, electronic environment are sensitive and responsive to the presence of people and their activities (Context awareness). In an ambient intelligence world, devices work in concert to support people in carrying out their everyday life activities, tasks and rituals in an easy, natural way using information and intelligence that is hidden in the network connecting these devices. This promotes the creation of pervasive environments improving the quality of life of the occupants and enhancing the human experience. AmI stems from the convergence of three key technologies: ubiquitous computing, ubiquitous communication and natural interfaces. Ambient intelligent systems are heterogeneous and require an excellent cooperation between several hardware/software technologies and disciplines, including signal processing, networking and protocols, embedded systems, information management, and distributed algorithms. Since a large amount of fixed and mobile sensors embedded is deployed into the environment, the Wireless Sensor Networks is one of the most relevant enabling technologies for AmI. WSN are complex systems made up of a number of sensor nodes which can be deployed in a target area to sense physical phenomena and communicate with other nodes and base stations. These simple devices typically embed a low power computational unit (microcontrollers, FPGAs etc.), a wireless communication unit, one or more sensors and a some form of energy supply (either batteries or energy scavenger modules). WNS promises of revolutionizing the interactions between the real physical worlds and human beings. Low-cost, low-computational power, low energy consumption and small size are characteristics that must be taken into consideration when designing and dealing with WSNs. To fully exploit the potential of distributed sensing approaches, a set of challengesmust be addressed. Sensor nodes are inherently resource-constrained systems with very low power consumption and small size requirements which enables than to reduce the interference on the physical phenomena sensed and to allow easy and low-cost deployment. They have limited processing speed,storage capacity and communication bandwidth that must be efficiently used to increase the degree of local ”understanding” of the observed phenomena. A particular case of sensor nodes are video sensors. This topic holds strong interest for a wide range of contexts such as military, security, robotics and most recently consumer applications. Vision sensors are extremely effective for medium to long-range sensing because vision provides rich information to human operators. However, image sensors generate a huge amount of data, whichmust be heavily processed before it is transmitted due to the scarce bandwidth capability of radio interfaces. In particular, in video-surveillance, it has been shown that source-side compression is mandatory due to limited bandwidth and delay constraints. Moreover, there is an ample opportunity for performing higher-level processing functions, such as object recognition that has the potential to drastically reduce the required bandwidth (e.g. by transmitting compressed images only when something ‘interesting‘ is detected). The energy cost of image processing must however be carefully minimized. Imaging could play and plays an important role in sensing devices for ambient intelligence. Computer vision can for instance be used for recognising persons and objects and recognising behaviour such as illness and rioting. Having a wireless camera as a camera mote opens the way for distributed scene analysis. More eyes see more than one and a camera system that can observe a scene from multiple directions would be able to overcome occlusion problems and could describe objects in their true 3D appearance. In real-time, these approaches are a recently opened field of research. In this thesis we pay attention to the realities of hardware/software technologies and the design needed to realize systems for distributed monitoring, attempting to propose solutions on open issues and filling the gap between AmI scenarios and hardware reality. The physical implementation of an individual wireless node is constrained by three important metrics which are outlined below. Despite that the design of the sensor network and its sensor nodes is strictly application dependent, a number of constraints should almost always be considered. Among them: • Small form factor to reduce nodes intrusiveness. • Low power consumption to reduce battery size and to extend nodes lifetime. • Low cost for a widespread diffusion. These limitations typically result in the adoption of low power, low cost devices such as low powermicrocontrollers with few kilobytes of RAMand tenth of kilobytes of program memory with whomonly simple data processing algorithms can be implemented. However the overall computational power of the WNS can be very large since the network presents a high degree of parallelism that can be exploited through the adoption of ad-hoc techniques. Furthermore through the fusion of information from the dense mesh of sensors even complex phenomena can be monitored. In this dissertation we present our results in building several AmI applications suitable for a WSN implementation. The work can be divided into two main areas:Low Power Video Sensor Node and Video Processing Alghoritm and Multimodal Surveillance . Low Power Video Sensor Nodes and Video Processing Alghoritms In comparison to scalar sensors, such as temperature, pressure, humidity, velocity, and acceleration sensors, vision sensors generate much higher bandwidth data due to the two-dimensional nature of their pixel array. We have tackled all the constraints listed above and have proposed solutions to overcome the current WSNlimits for Video sensor node. We have designed and developed wireless video sensor nodes focusing on the small size and the flexibility of reuse in different applications. The video nodes target a different design point: the portability (on-board power supply, wireless communication), a scanty power budget (500mW),while still providing a prominent level of intelligence, namely sophisticated classification algorithmand high level of reconfigurability. We developed two different video sensor node: The device architecture of the first one is based on a low-cost low-power FPGA+microcontroller system-on-chip. The second one is based on ARM9 processor. Both systems designed within the above mentioned power envelope could operate in a continuous fashion with Li-Polymer battery pack and solar panel. Novel low power low cost video sensor nodes which, in contrast to sensors that just watch the world, are capable of comprehending the perceived information in order to interpret it locally, are presented. Featuring such intelligence, these nodes would be able to cope with such tasks as recognition of unattended bags in airports, persons carrying potentially dangerous objects, etc.,which normally require a human operator. Vision algorithms for object detection, acquisition like human detection with Support Vector Machine (SVM) classification and abandoned/removed object detection are implemented, described and illustrated on real world data. Multimodal surveillance: In several setup the use of wired video cameras may not be possible. For this reason building an energy efficient wireless vision network for monitoring and surveillance is one of the major efforts in the sensor network community. Energy efficiency for wireless smart camera networks is one of the major efforts in distributed monitoring and surveillance community. For this reason, building an energy efficient wireless vision network for monitoring and surveillance is one of the major efforts in the sensor network community. The Pyroelectric Infra-Red (PIR) sensors have been used to extend the lifetime of a solar-powered video sensor node by providing an energy level dependent trigger to the video camera and the wireless module. Such approach has shown to be able to extend node lifetime and possibly result in continuous operation of the node.Being low-cost, passive (thus low-power) and presenting a limited form factor, PIR sensors are well suited for WSN applications. Moreover techniques to have aggressive power management policies are essential for achieving long-termoperating on standalone distributed cameras needed to improve the power consumption. We have used an adaptive controller like Model Predictive Control (MPC) to help the system to improve the performances outperforming naive power management policies.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In recent years, new precision experiments have become possible withthe high luminosity accelerator facilities at MAMIand JLab, supplyingphysicists with precision data sets for different hadronic reactions inthe intermediate energy region, such as pion photo- andelectroproduction and real and virtual Compton scattering.By means of the low energy theorem (LET), the global properties of thenucleon (its mass, charge, and magnetic moment) can be separated fromthe effects of the internal structure of the nucleon, which areeffectively described by polarizabilities. Thepolarizabilities quantify the deformation of the charge andmagnetization densities inside the nucleon in an applied quasistaticelectromagnetic field. The present work is dedicated to develop atool for theextraction of the polarizabilities from these precise Compton data withminimum model dependence, making use of the detailed knowledge of pionphotoproduction by means of dispersion relations (DR). Due to thepresence of t-channel poles, the dispersion integrals for two ofthe six Compton amplitudes diverge. Therefore, we have suggested to subtract the s-channel dispersion integrals at zero photon energy($nu=0$). The subtraction functions at $nu=0$ are calculated through DRin the momentum transfer t at fixed $nu=0$, subtracted at t=0. For this calculation, we use the information about the t-channel process, $gammagammatopipito Nbar{N}$. In this way, four of thepolarizabilities can be predicted using the unsubtracted DR in the $s$-channel. The other two, $alpha-beta$ and $gamma_pi$, are free parameters in ourformalism and can be obtained from a fit to the Compton data.We present the results for unpolarized and polarized RCS observables,%in the kinematics of the most recent experiments, and indicate anenhanced sensitivity to the nucleon polarizabilities in theenergy range between pion production threshold and the $Delta(1232)$-resonance.newlineindentFurthermore,we extend the DR formalism to virtual Compton scattering (radiativeelectron scattering off the nucleon), in which the concept of thepolarizabilities is generalized to the case of avirtual initial photon by introducing six generalizedpolarizabilities (GPs). Our formalism provides predictions for the fourspin GPs, while the two scalar GPs $alpha(Q^2)$ and $beta(Q^2)$ have to befitted to the experimental data at each value of $Q^2$.We show that at energies betweenpion threshold and the $Delta(1232)$-resonance position, thesensitivity to the GPs can be increased significantly, as compared tolow energies, where the LEX is applicable. Our DR formalism can be used for analysing VCS experiments over a widerange of energy and virtuality $Q^2$, which allows one to extract theGPs from VCS data in different kinematics with a minimum of model dependence.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die vorliegende Arbeit beschäftigt sich mit derAutomatisierung von Berechnungen virtuellerStrahlungskorrekturen in perturbativen Quantenfeldtheorien.Die Berücksichtigung solcher Korrekturen aufMehrschleifen-Ebene in der Störungsreihenentwicklung istheute unabdingbar, um mit der wachsenden Präzisionexperimenteller Resultate Schritt zu halten. Im allgemeinen kinematischen Fall können heute nur dieEinschleifen-Korrekturen als theoretisch gelöst angesehenwerden -- für höhere Ordnungen liegen nur Teilergebnissevor. In Mainz sind in den letzten Jahren einige neuartigeMethoden zur Integration von Zweischleifen-Feynmandiagrammenentwickelt und im xloops-Paket in algorithmischer Formteilweise erfolgreich implementiert worden. Die verwendetenVerfahren sind eine Kombination exakter symbolischerRechenmethoden mit numerischen. DieZweischleifen-Vierbeinfunktionen stellen in diesem Rahmenein neues Kapitel dar, das durch seine große Anzahl vonfreien kinematischen Parametern einerseits leichtunüberschaubar wird und andererseits auch auf symbolischerEbene die bisherigen Anforderungen übersteigt. Sie sind ausexperimenteller Sicht aber für manche Streuprozesse vongroßem Interesse. In dieser Arbeit wurde, basierend auf einer Idee von DirkKreimer, ein Verfahren untersucht, welches die skalarenVierbeinfunktionen auf Zweischleifen-Niveau ganz ohneRandbedingungen an den Parameterraum zu integrierenversucht. Die Struktur der nach vier Residuenintegrationenauftretenden Terme konnte dabei weitgehend geklärt und dieKomplexität der auftretenden Ausdrücke soweit verkleinertwerden, dass sie von heutigen Rechnern darstellbar sind.Allerdings ist man noch nicht bei einer vollständigautomatisierten Implementierung angelangt. All dies ist dasThema von Kapitel 2. Die Weiterentwicklung von xloops über Zweibeinfunktionenhinaus erschien aus vielfältigen Gründen allerdings nichtmehr sinnvoll. Im Rahmen dieser Arbeit wurde daher einradikaler Bruch vollzogen und zusammen mit C. Bauer und A.Frink eine Programmbibliothek entworfen, die als Vehikel fürsymbolische Manipulationen dient und es uns ermöglicht,übliche symbolische Sprachen wie Maple durch C++ zuersetzen. Im dritten Kapitel wird auf die Gründeeingegangen, warum diese Umstellung sinnvoll ist, und dabeidie Bibliothek GiNaC vorgestellt. Im vierten Kapitel werdenDetails der Implementierung dann im Einzelnen vorgestelltund im fünften wird sie auf ihre Praxistauglichkeituntersucht. Anhang A bietet eine Übersicht über dieverwendeten Hilfsmittel komplexer Analysis und Anhang Bbeschreibt ein bewährtes numerisches Instrument.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Deutsche Version: Zunächst wird eine verallgemeinerte Renormierungsgruppengleichung für die effektiveMittelwertwirkung der EuklidischenQuanten-Einstein-Gravitation konstruiert und dann auf zwei unterschiedliche Trunkierungen, dieEinstein-Hilbert-Trunkierung und die$R^2$-Trunkierung, angewendet. Aus den resultierendenDifferentialgleichungen wird jeweils die Fixpunktstrukturbestimmt. Die Einstein-Hilbert-Trunkierung liefert nebeneinem Gaußschen auch einen nicht-Gaußschen Fixpunkt. Diesernicht-Gaußsche Fixpunkt und auch der Fluß in seinemEinzugsbereich werden mit hoher Genauigkeit durch die$R^2$-Trunkierung reproduziert. Weiterhin erweist sichdie Cutoffschema-Abhängigkeit der analysierten universellenGrößen als äußerst schwach. Diese Ergebnisse deuten daraufhin, daß dieser Fixpunkt wahrscheinlich auch in der exaktenTheorie existiert und die vierdimensionaleQuanten-Einstein-Gravitation somit nichtperturbativ renormierbar sein könnte. Anschließend wird gezeigt, daß der ultraviolette Bereich der$R^2$-Trunkierung und somit auch die Analyse des zugehörigenFixpunkts nicht von den Stabilitätsproblemen betroffen sind,die normalerweise durch den konformen Faktor der Metrikverursacht werden. Dadurch motiviert, wird daraufhin einskalares Spielzeugmodell, das den konformen Sektor einer``$-R+R^2$''-Theorie simuliert, hinsichtlich seinerStabilitätseigenschaften im infraroten (IR) Bereichstudiert. Dabei stellt sich heraus, daß sich die Theorieunter Ausbildung einer nichttrivialen Vakuumstruktur auf dynamische Weise stabilisiert. In der Gravitation könnteneventuell nichtlokale Invarianten des Typs $intd^dx,sqrt{g}R (D^2)^{-1} R$ dafür sorgen, daß der konformeSektor auf ähnliche Weise IR-stabil wird.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The research is aimed at contributing to the identification of reliable fully predictive Computational Fluid Dynamics (CFD) methods for the numerical simulation of equipment typically adopted in the chemical and process industries. The apparatuses selected for the investigation, specifically membrane modules, stirred vessels and fluidized beds, were characterized by a different and often complex fluid dynamic behaviour and in some cases the momentum transfer phenomena were coupled with mass transfer or multiphase interactions. Firs of all, a novel modelling approach based on CFD for the prediction of the gas separation process in membrane modules for hydrogen purification is developed. The reliability of the gas velocity field calculated numerically is assessed by comparison of the predictions with experimental velocity data collected by Particle Image Velocimetry, while the applicability of the model to properly predict the separation process under a wide range of operating conditions is assessed through a strict comparison with permeation experimental data. Then, the effect of numerical issues on the RANS-based predictions of single phase stirred tanks is analysed. The homogenisation process of a scalar tracer is also investigated and simulation results are compared to original passive tracer homogenisation curves determined with Planar Laser Induced Fluorescence. The capability of a CFD approach based on the solution of RANS equations is also investigated for describing the fluid dynamic characteristics of the dispersion of organics in water. Finally, an Eulerian-Eulerian fluid-dynamic model is used to simulate mono-disperse suspensions of Geldart A Group particles fluidized by a Newtonian incompressible fluid as well as binary segregating fluidized beds of particles differing in size and density. The results obtained under a number of different operating conditions are compared with literature experimental data and the effect of numerical uncertainties on axial segregation is also discussed.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die vorliegende Dissertation untersucht die biogeochemischen Vorgänge in der Vegetationsschicht (Bestand) und die Rückkopplungen zwischen physiologischen und physikalischen Umweltprozessen, die das Klima und die Chemie der unteren Atmosphäre beeinflussen. Ein besondere Schwerpunkt ist die Verwendung theoretischer Ansätze zur Quantifizierung des vertikalen Austauschs von Energie und Spurengasen (Vertikalfluss) unter besonderer Berücksichtigung der Wechselwirkungen der beteiligten Prozesse. Es wird ein differenziertes Mehrschicht-Modell der Vegetation hergeleitet, implementiert, für den amazonischen Regenwald parametrisiert und auf einen Standort in Rondonia (Südwest Amazonien) angewendet, welches die gekoppelten Gleichungen zur Energiebilanz der Oberfläche und CO2-Assimilation auf der Blattskala mit einer Lagrange-Beschreibung des Vertikaltransports auf der Bestandesskala kombiniert. Die hergeleiteten Parametrisierungen beinhalten die vertikale Dichteverteilung der Blattfläche, ein normalisiertes Profil der horizontalen Windgeschwindigkeit, die Lichtakklimatisierung der Photosynthesekapazität und den Austausch von CO2 und Wärme an der Bodenoberfläche. Desweiteren werden die Berechnungen zur Photosynthese, stomatären Leitfähigkeit und der Strahlungsabschwächung im Bestand mithilfe von Feldmessungen evaluiert. Das Teilmodell zum Vertikaltransport wird im Detail unter Verwendung von 222-Radon-Messungen evaluiert. Die ``Vorwärtslösung'' und der ``inverse Ansatz'' des Lagrangeschen Dispersionsmodells werden durch den Vergleich von beobachteten und vorhergesagten Konzentrationsprofilen bzw. Bodenflüssen bewertet. Ein neuer Ansatz wird hergeleitet, um die Unsicherheiten des inversen Ansatzes aus denjenigen des Eingabekonzentrationsprofils zu quantifizieren. Für nächtliche Bedingungen wird eine modifizierte Parametrisierung der Turbulenz vorgeschlagen, welche die freie Konvektion während der Nacht im unteren Bestand berücksichtigt und im Vergleich zu früheren Abschätzungen zu deutlich kürzeren Aufenthaltszeiten im Bestand führt. Die vorhergesagte Stratifizierung des Bestandes am Tage und in der Nacht steht im Einklang mit Beobachtungen in dichter Vegetation. Die Tagesgänge der vorhergesagten Flüsse und skalaren Profile von Temperatur, H2O, CO2, Isopren und O3 während der späten Regen- und Trockenzeit am Rondonia-Standort stimmen gut mit Beobachtungen überein. Die Ergebnisse weisen auf saisonale physiologische Änderungen hin, die sich durch höhere stomatäre Leitfähigkeiten bzw. niedrigere Photosyntheseraten während der Regen- und Trockenzeit manifestieren. Die beobachteten Depositionsgeschwindigkeiten für Ozon während der Regenzeit überschreiten diejenigen der Trockenzeit um 150-250%. Dies kann nicht durch realistische physiologische Änderungen erklärt werden, jedoch durch einen zusätzlichen cuticulären Aufnahmemechanismus, möglicherweise an feuchten Oberflächen. Der Vergleich von beobachteten und vorhergesagten Isoprenkonzentrationen im Bestand weist auf eine reduzierte Isoprenemissionskapazität schattenadaptierter Blätter und zusätzlich auf eine Isoprenaufnahme des Bodens hin, wodurch sich die globale Schätzung für den tropischen Regenwald um 30% reduzieren würde. In einer detaillierten Sensitivitätsstudie wird die VOC Emission von amazonischen Baumarten unter Verwendung eines neuronalen Ansatzes in Beziehung zu physiologischen und abiotischen Faktoren gesetzt. Die Güte einzelner Parameterkombinationen bezüglich der Vorhersage der VOC Emission wird mit den Vorhersagen eines Modells verglichen, das quasi als Standardemissionsalgorithmus für Isopren dient und Licht sowie Temperatur als Eingabeparameter verwendet. Der Standardalgorithmus und das neuronale Netz unter Verwendung von Licht und Temperatur als Eingabeparameter schneiden sehr gut bei einzelnen Datensätzen ab, scheitern jedoch bei der Vorhersage beobachteter VOC Emissionen, wenn Datensätze von verschiedenen Perioden (Regen/Trockenzeit), Blattentwicklungsstadien, oder gar unterschiedlichen Spezies zusammengeführt werden. Wenn dem Netzwerk Informationen über die Temperatur-Historie hinzugefügt werden, reduziert sich die nicht erklärte Varianz teilweise. Eine noch bessere Leistung wird jedoch mit physiologischen Parameterkombinationen erzielt. Dies verdeutlicht die starke Kopplung zwischen VOC Emission und Blattphysiologie.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The first part of the thesis concerns the study of inflation in the context of a theory of gravity called "Induced Gravity" in which the gravitational coupling varies in time according to the dynamics of the very same scalar field (the "inflaton") driving inflation, while taking on the value measured today since the end of inflation. Through the analytical and numerical analysis of scalar and tensor cosmological perturbations we show that the model leads to consistent predictions for a broad variety of symmetry-breaking inflaton's potentials, once that a dimensionless parameter entering into the action is properly constrained. We also discuss the average expansion of the Universe after inflation (when the inflaton undergoes coherent oscillations about the minimum of its potential) and determine the effective equation of state. Finally, we analyze the resonant and perturbative decay of the inflaton during (p)reheating. The second part is devoted to the study of a proposal for a quantum theory of gravity dubbed "Horava-Lifshitz (HL) Gravity" which relies on power-counting renormalizability while explicitly breaking Lorentz invariance. We test a pair of variants of the theory ("projectable" and "non-projectable") on a cosmological background and with the inclusion of scalar field matter. By inspecting the quadratic action for the linear scalar cosmological perturbations we determine the actual number of propagating degrees of freedom and realize that the theory, being endowed with less symmetries than General Relativity, does admit an extra gravitational degree of freedom which is potentially unstable. More specifically, we conclude that in the case of projectable HL Gravity the extra mode is either a ghost or a tachyon, whereas in the case of non-projectable HL Gravity the extra mode can be made well-behaved for suitable choices of a pair of free dimensionless parameters and, moreover, turns out to decouple from the low-energy Physics.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The present thesis is divided into two main research areas: Classical Cosmology and (Loop) Quantum Gravity. The first part concerns cosmological models with one phantom and one scalar field, that provide the `super-accelerated' scenario not excluded by observations, thus exploring alternatives to the standard LambdaCDM scenario. The second part concerns the spinfoam approach to (Loop) Quantum Gravity, which is an attempt to provide a `sum-over-histories' formulation of gravitational quantum transition amplitudes. The research here presented focuses on the face amplitude of a generic spinfoam model for Quantum Gravity.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In dieser Arbeit werden die QCD-Strahlungskorrekturen in erster Ordnung der starken Kopplungskonstanten für verschiedene Polarisationsobservablen zu semileptonischen Zerfällen eines bottom-Quarks in ein charm-Quark und ein Leptonpaar berechnet. Im ersten Teil wird der Zerfall eines unpolarisierten b-Quarks in ein polarisiertes c-Quark sowie ein geladenes Lepton und ein Antineutrino im Ruhesystem des b-Quarks analysiert. Es werden die Strahlungskorrekturen für den unpolarisierten und den polarisierten Beitrag zur differentiellen Zerfallsrate nach der Energie des c-Quarks berechnet, wobei das geladene Lepton als leicht angesehen und seine Masse daher vernachlässigt wird. Die inklusive differentielle Rate wird durch zwei Strukturfunktionen in analytischer Form dargestellt. Anschließend werden die Strukturfunktionen und die Polarisation des c-Quarks numerisch ausgewertet. Nach der Einführung der Helizitäts-Projektoren befaßt sich der zweite Teil mit dem kaskadenartigen Zerfall eines polarisierten b-Quarks in ein unpolarisiertes c-Quark und ein virtuelles W-Boson, welches weiter in ein Paar leichter Leptonen zerfällt. Es werden die inklusiven Strahlungskorrekturen zu drei unpolarisierten und fünf polarisierten Helizitäts-Strukturfunktionen in analytischer Form berechnet, welche die Winkelverteilung für die differentielle Zerfallsrate nach dem Viererimpulsquadrat des W-Bosons beschreiben. Die Strukturfunktionen enthalten die Informationen sowohl über die polare Winkelverteilung zwischen dem Spinvektor des b-Quarks und dem Impulsvektor des W-Bosons als auch über die räumliche Winkelverteilung zwischen den Impulsen des W-Bosons und des Leptonpaars. Der Impuls und der Spinvektor des b-Quarks sowie der Impuls des W-Bosons werden im b-Ruhesystem analysiert, während die Impulse des Leptonpaars im W-Ruhesystem ausgewertet werden. Zusätzlich zu den genannten Strukturfunktionen werden noch die unpolarisierte und die polarisierte skalare Strukturfunktion angegeben, die in Anwendungen bei hadronischen Zerfällen eine Rolle spielen. Anschließend folgt eine numerische Auswertung aller berechneten Strukturfunktionen. Im dritten Teil werden die nichtperturbativen HQET-Korrekturen zu inklusiven semileptonischen Zerfällen schwerer Hadronen diskutiert, welche ein b-Quark enthalten. Sie beschreiben hadronische Korrekturen, die durch die feste Bindung des b-Quarks in Hadronen hervorgerufen werden. Es werden insgesamt fünf unpolarisierte und neun polarisierte Helizitäts-Strukturfunktionen in analytischer Form angegeben, die auch eine endliche Masse und den Spin des geladenen Leptons berücksichtigen. Die Strukturfunktionen werden sowohl in differentieller Form in Abhängigkeit des quadrierten Viererimpulses des W-Bosons als auch in integrierter Form präsentiert. Zum Schluß werden die zuvor erhaltenen Resultate auf die semi-inklusiven hadronischen Zerfälle eines polarisierten Lambda_b-Baryons oder eines B-Mesons in ein D_s- oder ein D_s^*-Meson unter Berücksichtigung der D_s^*-Polarisation angewandt. Für die zugehörigen Winkelverteilungen werden die inklusiven QCD- und die nichtperturbativen HQET-Korrekturen zu den Helizitäts-Strukturfunktionen in analytischer Form angegeben und anschließend numerisch ausgewertet.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The present state of the theoretical predictions for the hadronic heavy hadron production is not quite satisfactory. The full next-to-leading order (NLO) ${cal O} (alpha_s^3)$ corrections to the hadroproduction of heavy quarks have raised the leading order (LO) ${cal O} (alpha_s^2)$ estimates but the NLO predictions are still slightly below the experimental numbers. Moreover, the theoretical NLO predictions suffer from the usual large uncertainty resulting from the freedom in the choice of renormalization and factorization scales of perturbative QCD.In this light there are hopes that a next-to-next-to-leading order (NNLO) ${cal O} (alpha_s^4)$ calculation will bring theoretical predictions even closer to the experimental data. Also, the dependence on the factorization and renormalization scales of the physical process is expected to be greatly reduced at NNLO. This would reduce the theoretical uncertainty and therefore make the comparison between theory and experiment much more significant. In this thesis I have concentrated on that part of NNLO corrections for hadronic heavy quark production where one-loop integrals contribute in the form of a loop-by-loop product. In the first part of the thesis I use dimensional regularization to calculate the ${cal O}(ep^2)$ expansion of scalar one-loop one-, two-, three- and four-point integrals. The Laurent series of the scalar integrals is needed as an input for the calculation of the one-loop matrix elements for the loop-by-loop contributions. Since each factor of the loop-by-loop product has negative powers of the dimensional regularization parameter $ep$ up to ${cal O}(ep^{-2})$, the Laurent series of the scalar integrals has to be calculated up to ${cal O}(ep^2)$. The negative powers of $ep$ are a consequence of ultraviolet and infrared/collinear (or mass ) divergences. Among the scalar integrals the four-point integrals are the most complicated. The ${cal O}(ep^2)$ expansion of the three- and four-point integrals contains in general classical polylogarithms up to ${rm Li}_4$ and $L$-functions related to multiple polylogarithms of maximal weight and depth four. All results for the scalar integrals are also available in electronic form. In the second part of the thesis I discuss the properties of the classical polylogarithms. I present the algorithms which allow one to reduce the number of the polylogarithms in an expression. I derive identities for the $L$-functions which have been intensively used in order to reduce the length of the final results for the scalar integrals. I also discuss the properties of multiple polylogarithms. I derive identities to express the $L$-functions in terms of multiple polylogarithms. In the third part I investigate the numerical efficiency of the results for the scalar integrals. The dependence of the evaluation time on the relative error is discussed. In the forth part of the thesis I present the larger part of the ${cal O}(ep^2)$ results on one-loop matrix elements in heavy flavor hadroproduction containing the full spin information. The ${cal O}(ep^2)$ terms arise as a combination of the ${cal O}(ep^2)$ results for the scalar integrals, the spin algebra and the Passarino-Veltman decomposition. The one-loop matrix elements will be needed as input in the determination of the loop-by-loop part of NNLO for the hadronic heavy flavor production.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Wie viele andere Sprachen Ost- und Südostasiens ist das Thai eine numerusneutrale Sprache, in der ein Nomen lediglich das Konzept benennt und keinen Hinweis auf die Anzahl der Objekte liefert. Um Nomina im Thai zählen zu können, ist der Klassifikator (Klf) nötig, der die Objekte anhand ihrer semantischen Schlüsseleigenschaft herausgreift und individualisiert. Neben der Klassifikation stellt die Individualisierung die Hauptfunktion des Klf dar. Weitere Kernfunktionen des Klf außerhalb des Zählkontextes sind die Markierung der Definitheit, des Numerus sowie des Kontrasts. Die wichtigsten neuen Ergebnisse dieser Arbeit, die sowohl die Ebenen der Grammatik und Semantik als auch die der Logik und Pragmatik integriert, sind folgende: Im Thai kann der Klf sowohl auf der Element- als auch auf der Mengenebene agieren. In der Verbindung mit einem Demonstrativ kann der Klf auch eine pluralische Interpretation hervorrufen, wenn er auf eine als pluralisch präsupponierte Gesamtmenge referiert oder die Gesamtmenge in einer Teil-Ganzes-Relation individualisiert. In einem Ausdruck, der bereits eine explizite Zahlangabe enthält, bewirkt die Klf-Demonstrativ-Konstruktion eine Kontrastierung von Mengen mit gleichen Eigenschaften. Wie auch der Individualbegriff besitzt der Klf Intension und Extension. Intension und Extension von Thai-Klf verhalten sich umgekehrt proportional, d.h. je spezifischer der Inhalt eines Klf ist, desto kleiner ist sein Umfang. Der Klf signalisiert das Schlüsselmerkmal, das mit der Intension des Nomens der Identifizierung des Objekts dient. Der Klf individualisiert das Nomen, indem er Teilmengen quantifiziert. Er kann sich auf ein Objekt, eine bestimmte Anzahl von Objekten oder auf alle Objekte beziehen. Formal logisch lassen sich diese Funktionen mithilfe des Existenz- und des Allquantors darstellen. Auch die Nullstelle (NST) läßt sich formal logisch darstellen. Auf ihren jeweiligen Informationsgehalt reduziert, ergeben sich für Klf und NST abhängig von ihrer Positionierung verschiedene Informationswerte: Die Opposition von Klf und NST bewirkt in den Fragebögen ausschließlich skalare Q-Implikaturen, die sich durch die Informationsformeln in Form einer Horn-Skala darstellen lassen. In einem sich aufbauenden Kontext transportieren sowohl Klf als auch NST in der Kontextmitte bekannte Informationen, wodurch Implikaturen des M- bzw. I-Prinzips ausgelöst werden. Durch die Verbindung der Informationswerte mit den Implikaturen des Q-, M- und I-Prinzips lässt sich anhand der Positionierung direkt erkennen, wann der Klf die Funktion der Numerus-, der Definitheits- oder der Kontrast-Markierung erfüllt.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In 'Involutory reflection groups and their models' (F. Caselli, 2010), a uniform Gelfand model is constructed for all complex reflection groups G(r,p,n) satisfying GCD(p,n)=1,2 and for all their quotients modulo a scalar subgroup. The present work provides a refinement for this model. The final decomposition obtained is compatible with the Robinson-Schensted generalized correspondence.