1000 resultados para Exakte Wissenschaften


Relevância:

10.00% 10.00%

Publicador:

Resumo:

The asymptotic safety scenario allows to define a consistent theory of quantized gravity within the framework of quantum field theory. The central conjecture of this scenario is the existence of a non-Gaussian fixed point of the theory's renormalization group flow, that allows to formulate renormalization conditions that render the theory fully predictive. Investigations of this possibility use an exact functional renormalization group equation as a primary non-perturbative tool. This equation implements Wilsonian renormalization group transformations, and is demonstrated to represent a reformulation of the functional integral approach to quantum field theory.rnAs its main result, this thesis develops an algebraic algorithm which allows to systematically construct the renormalization group flow of gauge theories as well as gravity in arbitrary expansion schemes. In particular, it uses off-diagonal heat kernel techniques to efficiently handle the non-minimal differential operators which appear due to gauge symmetries. The central virtue of the algorithm is that no additional simplifications need to be employed, opening the possibility for more systematic investigations of the emergence of non-perturbative phenomena. As a by-product several novel results on the heat kernel expansion of the Laplace operator acting on general gauge bundles are obtained.rnThe constructed algorithm is used to re-derive the renormalization group flow of gravity in the Einstein-Hilbert truncation, showing the manifest background independence of the results. The well-studied Einstein-Hilbert case is further advanced by taking the effect of a running ghost field renormalization on the gravitational coupling constants into account. A detailed numerical analysis reveals a further stabilization of the found non-Gaussian fixed point.rnFinally, the proposed algorithm is applied to the case of higher derivative gravity including all curvature squared interactions. This establishes an improvement of existing computations, taking the independent running of the Euler topological term into account. Known perturbative results are reproduced in this case from the renormalization group equation, identifying however a unique non-Gaussian fixed point.rn

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In this thesis we investigate the phenomenology of supersymmetric particles at hadron colliders beyond next-to-leading order (NLO) in perturbation theory. We discuss the foundations of Soft-Collinear Effective Theory (SCET) and, in particular, we explicitly construct the SCET Lagrangian for QCD. As an example, we discuss factorization and resummation for the Drell-Yan process in SCET. We use techniques from SCET to improve existing calculations of the production cross sections for slepton-pair production and top-squark-pair production at hadron colliders. As a first application, we implement soft-gluon resummation at next-to-next-to-next-to-leading logarithmic order (NNNLL) for slepton-pair production in the minimal supersymmetric extension of the Standard Model (MSSM). This approach resums large logarithmic corrections arising from the dynamical enhancement of the partonic threshold region caused by steeply falling parton luminosities. We evaluate the resummed invariant-mass distribution and total cross section for slepton-pair production at the Tevatron and LHC and we match these results, in the threshold region, onto NLO fixed-order calculations. As a second application we present the most precise predictions available for top-squark-pair production total cross sections at the LHC. These results are based on approximate NNLO formulas in fixed-order perturbation theory, which completely determine the coefficients multiplying the singular plus distributions. The analysis of the threshold region is carried out in pair invariant mass (PIM) kinematics and in single-particle inclusive (1PI) kinematics. We then match our results in the threshold region onto the exact fixed-order NLO results and perform a detailed numerical analysis of the total cross section.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Data deduplication describes a class of approaches that reduce the storage capacity needed to store data or the amount of data that has to be transferred over a network. These approaches detect coarse-grained redundancies within a data set, e.g. a file system, and remove them.rnrnOne of the most important applications of data deduplication are backup storage systems where these approaches are able to reduce the storage requirements to a small fraction of the logical backup data size.rnThis thesis introduces multiple new extensions of so-called fingerprinting-based data deduplication. It starts with the presentation of a novel system design, which allows using a cluster of servers to perform exact data deduplication with small chunks in a scalable way.rnrnAfterwards, a combination of compression approaches for an important, but often over- looked, data structure in data deduplication systems, so called block and file recipes, is introduced. Using these compression approaches that exploit unique properties of data deduplication systems, the size of these recipes can be reduced by more than 92% in all investigated data sets. As file recipes can occupy a significant fraction of the overall storage capacity of data deduplication systems, the compression enables significant savings.rnrnA technique to increase the write throughput of data deduplication systems, based on the aforementioned block and file recipes, is introduced next. The novel Block Locality Caching (BLC) uses properties of block and file recipes to overcome the chunk lookup disk bottleneck of data deduplication systems. This chunk lookup disk bottleneck either limits the scalability or the throughput of data deduplication systems. The presented BLC overcomes the disk bottleneck more efficiently than existing approaches. Furthermore, it is shown that it is less prone to aging effects.rnrnFinally, it is investigated if large HPC storage systems inhibit redundancies that can be found by fingerprinting-based data deduplication. Over 3 PB of HPC storage data from different data sets have been analyzed. In most data sets, between 20 and 30% of the data can be classified as redundant. According to these results, future work in HPC storage systems should further investigate how data deduplication can be integrated into future HPC storage systems.rnrnThis thesis presents important novel work in different area of data deduplication re- search.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Oceans are key sources and sinks in the global budgets of significant atmospheric trace gases, termed Volatile Organic Compounds (VOCs). Despite their low concentrations, these species have an important role in the atmosphere, influencing ozone photochemistry and aerosol physics. Surprisingly, little work has been done on assessing their emissions or transport mechanisms and rates between ocean and atmosphere, all of which are important when modelling the atmosphere accurately.rnA new Needle Trap Device (NTD) - GC-MS method was developed for the effective sampling and analysis of VOCs in seawater. Good repeatability (RSDs <16 %), linearity (R2 = 0.96 - 0.99) and limits of detection in the range of pM were obtained for DMS, isoprene, benzene, toluene, p-xylene, (+)-α-pinene and (-)-α-pinene. Laboratory evaluation and subsequent field application indicated that the proposed method can be used successfully in place of the more usually applied extraction techniques (P&T, SPME) to extend the suite of species typically measured in the ocean and improve detection limits. rnDuring a mesocosm CO2 enrichment study, DMS, isoprene and α-pinene were identified and quantified in seawater samples, using the above mentioned method. Based on correlations with available biological datasets, the effects of ocean acidification as well as possible ocean biological sources were investigated for all examined compounds. Future ocean's acidity was shown to decrease oceanic DMS production, possibly impact isoprene emissions but not affect the production of α-pinene. rnIn a separate activity, ocean - atmosphere interactions were simulated in a large scale wind-wave canal facility, in order to investigate the gas exchange process and its controlling mechanisms. Air-water exchange rates of 14 chemical species (of which 11 VOCs) spanning a wide range of solubility (dimensionless solubility, α = 0:4 to 5470) and diffusivity (Schmidt number in water, Scw = 594 to 1194) were obtained under various turbulent (wind speed at ten meters height, u10 = 0:8 to 15ms-1) and surfactant modulated (two different sized Triton X-100 layers) surface conditions. Reliable and reproducible total gas transfer velocities were obtained and the derived values and trends were comparable to previous investigations. Through this study, a much better and more comprehensive understanding of the gas exchange process was accomplished. The role of friction velocity, uw* and mean square slope, σs2 in defining phenomena such as waves and wave breaking, near surface turbulence, bubbles and surface films was recognized as very significant. uw* was determined as the ideal turbulent parameter while σs2 described best the related surface conditions. A combination of both uw* and σs2 variables, was found to reproduce faithfully the air-water gas exchange process. rnA Total Transfer Velocity (TTV) model provided by a compilation of 14 tracers and a combination of both uw* and σs2 parameters, is proposed for the first time. Through the proposed TTV parameterization, a new physical perspective is presented which provides an accurate TTV for any tracer within the examined solubility range. rnThe development of such a comprehensive air-sea gas exchange parameterization represents a highly useful tool for regional and global models, providing accurate total transfer velocity estimations for any tracer and any sea-surface status, simplifying the calculation process and eliminating inevitable calculation uncertainty connected with the selection or combination of different parameterizations.rnrn

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die vorliegende kulturwissenschaftlich ausgerichtete Arbeit befasst sich mit der Konstruktion und Inszenierung von Realität, insbesondere im Verhältnis zu Körperdiskursen und Körperpraktiken in Makeover-Sendungen sowie mit deren komplexen politischen und kulturellen Implikationen. Die leitenden Fragen der vorliegenden Arbeit sind: Wie wird der Körper in den ausgewählten Formaten dargestellt? Wie wird er erzählt und mit welchen (Film-)Techniken in Szene gesetzt? Welche expliziten und impliziten Körperbilder liegen den Darstellungen zu Grunde? Welche kulturellen und politischen Normen werden über den Körper konstruiert? Welche Rolle spielt diese Konstruktion des Körpers für die Darstellung von „Realität“ in den entsprechenden Formaten? Was ist der größere gesellschaftliche Zusammenhang dieser Darstellung? rnTrotz der Vielzahl und Komplexität der Darstellungsweisen des Körpers soll anhand verschiedener repräsentativ ausgewählter Reality-TV-Formate eine Annäherung an die heterogene kulturelle sowie politische Tragweite derselben geleistet werden. Hierzu werden insbesondere Formate bevorzugt, die explizit die Transformation des Körpers thematisieren. Dies kann durch kosmetische, d.h. nicht-operative Veränderungen (Kleidung, Make-up, Frisur), Fitness und Ernährung bis hin zu medizinischen Eingriffen wie etwa plastischer Chirurgie erfolgen.rnAls erstes wird der Untersuchungsgegenstand genauer eingegrenzt, wobei sich zeigt, dass sich exakte Grenzziehungen aufgrund des schwer greifbaren Reality-TV-Genres und der transmedialen Eigenschaft des Makeover-Fensehtextes als Herausforderung erweisen. Danach werden die kulturwissenschaftlichen Annahmen, die dieser Arbeit zugrunde liegen, ausgeführt. Darüber hinaus wird das revolutionäre Forschungsfeld der Fat Studies eruiert und auch der körpertheoretische Zugang erläutert. Abschließend wird näher auf den filmnarratologischen Zugang, der den Analysen als theoretische, aber auch methodische Grundlage dient, eingegangen. Zudem wird behandelt wie der Körper in den behandelten Makeover-Formaten zunächst erzählbar gemacht und erzählt wird. Die Körper der Teilnehmer werden zunächst in einen ökonomischen Diskurs der Maße und Zahlen überführt, um im weiteren Verlauf die „Transformation“ auch diskursiv dramatisieren zu können. Die über die Ökonomisierung vorbereitete, zumeist als märchenhaft dargestellte, Verwandlung der Teilnehmer, kulminiert immer in der Gegenüberstellung des „Vorher“-Bildes und des „Nachher“-Bildes. Diese Ökonomisierung ist allerdings nur die narrative Grundlage einer viel umfassenderen, in den Sendungen meist implizit vermittelten Selbstregierungstechnologie, der „Gouvernementalität“, die kontrovers im Hinblick auf Vertreter einer Affekttheorie, die die Vermittlung der besagten Gouvernementalität in Zweifel ziehen, diskutiert wird. Die Kernthese der vorliegenden Arbeit, die den Körper als entscheidendes, die „Realität“ der Makeover-Formate affirmierendes Element versteht, ist ferner eng mit dem Begriff der „Authentizität“ verknüpft. „Authentische“ Effekte sind oft das selbsterklärte Ziel der Einsätze des Körpers im Reality-TV und äußern sich in unterschiedlichen Erzähltechniken wie den autobiografischen Elementen der Formate. Die bereits im Genre des Reality-TV angelegte Selbstreflexivität sowohl auf Inhalts- als auch auf Produktionsseite wird abschließend kontextualisiert und bewertet. Letztendlich stellt sich die Frage, welche kulturellen Widerstände und Spielarten trotz der sehr dogmatisch wirkenden Inhalte der Makeover-Serien erhalten bleiben.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

„Natürlich habe ich mich [...] unausgesetzt mit Mathematik beschäftigt, umso mehr als ich sie für meine erkenntnistheoretisch-philosophischen Studien brauchte, denn ohne Mathematik lässt sich kaum mehr philosophieren.“, schreibt Hermann Broch 1948, ein Schriftsteller, der ca. zehn Jahre zuvor von sich selbst sogar behauptete, das Mathematische sei eine seiner stärksten Begabungen.rnDiesem Hinweis, die Bedeutung der Mathematik für das Brochsche Werk näher zu untersuchen, wurde bis jetzt in der Forschung kaum Folge geleistet. Besonders in Bezug auf sein Spätwerk Die Schuldlosen fehlen solche Betrachtungen ganz, sie scheinen jedoch unentbehrlich für die Entschlüsselung dieses Romans zu sein, der oft zu Unrecht als Nebenarbeit abgewertet wurde, weil ihm „mit gängigen literaturwissenschaftlichen Kategorien […] nicht beizukommen ist“ (Koopmann, 1994). rnDa dieser Aspekt insbesondere mit Blick auf Die Schuldlosen ein Forschungsdesiderat darstellt, war das Ziel der vorliegenden Arbeit, Brochs mathematische Studien genauer nachzuvollziehen und vor diesem Hintergrund eine Neuperspektivierung der Schuldlosen zu leisten. Damit wird eine Grundlage geschaffen, die einen adäquaten Zugang zur Struktur dieses Romans eröffnet.rnDie vorliegende Arbeit ist in zwei Teile gegliedert. Nach einer Untersuchung von Brochs theoretischen Betrachtungen anhand ausgewählter Essays folgt die Interpretation der Schuldlosen aus diesem mathematischen Blickwinkel. Es wird deutlich, dass Brochs Poetik eng mit seinen mathematischen Anschauungen verquickt ist, und somit nachgewiesen, dass sich die spezielle Bauform des Romans wie auch seine besondere Form des Erzählens tatsächlich aus dem mathematischen Denken des Autors ableiten lassen. Broch nutzt insbesondere die mathematische Annäherung an das Unendliche für seine Versuche einer literarischen Erfassung der komplexen Wirklichkeit seiner Zeit. Dabei spielen nicht nur Elemente der fraktalen Geometrie eine zentrale Rolle, sondern auch Brochs eigener Hinweis, es handele sich „um eine Art Novellenroman“ (KW 13/1, 243). Denn tatsächlich ergibt sich aus den poetologischen Forderungen Brochs und ihren Umsetzungen im Roman die Gattung des Novellenromans, wie gezeigt wird. Dabei ist von besonderer Bedeutung, dass Broch dem Mythos eine ähnliche Rolle in der Literatur zuspricht wie der Mathematik in den Wissenschaften allgemein.rnMit seinem Roman Die Schuldlosen hat Hermann Broch Neuland betreten, indem er versuchte, durch seine mathematische Poetik die komplexe Wirklichkeit seiner Epoche abzubilden. Denn „die Ganzheit der Welt ist nicht erfaßbar, indem man deren Atome einzelweise einfängt, sondern nur, indem man deren Grundzüge und deren wesentliche – ja, man möchte sagen, deren mathematische Struktur aufzeigt“ (Broch).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The focus of this thesis is to contribute to the development of new, exact solution approaches to different combinatorial optimization problems. In particular, we derive dedicated algorithms for a special class of Traveling Tournament Problems (TTPs), the Dial-A-Ride Problem (DARP), and the Vehicle Routing Problem with Time Windows and Temporal Synchronized Pickup and Delivery (VRPTWTSPD). Furthermore, we extend the concept of using dual-optimal inequalities for stabilized Column Generation (CG) and detail its application to improved CG algorithms for the cutting stock problem, the bin packing problem, the vertex coloring problem, and the bin packing problem with conflicts. In all approaches, we make use of some knowledge about the structure of the problem at hand to individualize and enhance existing algorithms. Specifically, we utilize knowledge about the input data (TTP), problem-specific constraints (DARP and VRPTWTSPD), and the dual solution space (stabilized CG). Extensive computational results proving the usefulness of the proposed methods are reported.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Thema dieser Arbeit ist die Entwicklung und Kombination verschiedener numerischer Methoden, sowie deren Anwendung auf Probleme stark korrelierter Elektronensysteme. Solche Materialien zeigen viele interessante physikalische Eigenschaften, wie z.B. Supraleitung und magnetische Ordnung und spielen eine bedeutende Rolle in technischen Anwendungen. Es werden zwei verschiedene Modelle behandelt: das Hubbard-Modell und das Kondo-Gitter-Modell (KLM). In den letzten Jahrzehnten konnten bereits viele Erkenntnisse durch die numerische Lösung dieser Modelle gewonnen werden. Dennoch bleibt der physikalische Ursprung vieler Effekte verborgen. Grund dafür ist die Beschränkung aktueller Methoden auf bestimmte Parameterbereiche. Eine der stärksten Einschränkungen ist das Fehlen effizienter Algorithmen für tiefe Temperaturen.rnrnBasierend auf dem Blankenbecler-Scalapino-Sugar Quanten-Monte-Carlo (BSS-QMC) Algorithmus präsentieren wir eine numerisch exakte Methode, die das Hubbard-Modell und das KLM effizient bei sehr tiefen Temperaturen löst. Diese Methode wird auf den Mott-Übergang im zweidimensionalen Hubbard-Modell angewendet. Im Gegensatz zu früheren Studien können wir einen Mott-Übergang bei endlichen Temperaturen und endlichen Wechselwirkungen klar ausschließen.rnrnAuf der Basis dieses exakten BSS-QMC Algorithmus, haben wir einen Störstellenlöser für die dynamische Molekularfeld Theorie (DMFT) sowie ihre Cluster Erweiterungen (CDMFT) entwickelt. Die DMFT ist die vorherrschende Theorie stark korrelierter Systeme, bei denen übliche Bandstrukturrechnungen versagen. Eine Hauptlimitation ist dabei die Verfügbarkeit effizienter Störstellenlöser für das intrinsische Quantenproblem. Der in dieser Arbeit entwickelte Algorithmus hat das gleiche überlegene Skalierungsverhalten mit der inversen Temperatur wie BSS-QMC. Wir untersuchen den Mott-Übergang im Rahmen der DMFT und analysieren den Einfluss von systematischen Fehlern auf diesen Übergang.rnrnEin weiteres prominentes Thema ist die Vernachlässigung von nicht-lokalen Wechselwirkungen in der DMFT. Hierzu kombinieren wir direkte BSS-QMC Gitterrechnungen mit CDMFT für das halb gefüllte zweidimensionale anisotrope Hubbard Modell, das dotierte Hubbard Modell und das KLM. Die Ergebnisse für die verschiedenen Modelle unterscheiden sich stark: während nicht-lokale Korrelationen eine wichtige Rolle im zweidimensionalen (anisotropen) Modell spielen, ist in der paramagnetischen Phase die Impulsabhängigkeit der Selbstenergie für stark dotierte Systeme und für das KLM deutlich schwächer. Eine bemerkenswerte Erkenntnis ist, dass die Selbstenergie sich durch die nicht-wechselwirkende Dispersion parametrisieren lässt. Die spezielle Struktur der Selbstenergie im Impulsraum kann sehr nützlich für die Klassifizierung von elektronischen Korrelationseffekten sein und öffnet den Weg für die Entwicklung neuer Schemata über die Grenzen der DMFT hinaus.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The cannabinoid type 1 (CB1) receptor is involved in a plethora of physiological functions and heterogeneously expressed on different neuronal populations. Several conditional loss-of-function studies revealed distinct effects of CB1 receptor signaling on glutamatergic and GABAergic neurons, respectively. To gain a comprehensive picture of CB1 receptor-mediated effects, the present study aimed at developing a gain-of-function approach, which complements conditional loss-of-function studies. Therefore, adeno-associated virus (AAV)-mediated gene delivery and Cre-mediated recombination were combined to recreate an innovative method, which ensures region- and cell type-specific transgene expression in the brain. This method was used to overexpress the CB1 receptor in glutamatergic pyramidal neurons of the mouse hippocampus. Enhanced CB1 receptor activity at glutamatergic terminals caused impairment in hippocampus-dependent memory performance. On the other hand, elevated CB1 receptor levels provoked an increased protection against kainic acid-induced seizures and against excitotoxic neuronal cell death. This finding indicates the protective role of CB1 receptor on hippocampal glutamatergic terminals as a molecular stout guard in controlling excessive neuronal network activity. Hence, CB1 receptor on glutamatergic hippocampal neurons may represent a target for novel agents to restrain excitotoxic events and to treat neurodegenerative diseases. Endocannabinoid synthesizing and degrading enzymes tightly regulate endocannabinoid signaling, and thus, represent a promising therapeutic target. To further elucidate the precise function of the 2-AG degrading enzyme monoacylglycerol lipase (MAGL), MAGL was overexpressed specifically in hippocampal pyramidal neurons. This genetic modification resulted in highly increased MAGL activity accompanied by a 50 % decrease in 2-AG levels without affecting the content of arachidonic acid and anandamide. Elevated MAGL protein levels at glutamatergic terminals eliminated depolarization-induced suppression of excitation (DSE), while depolarization-induced suppression of inhibition (DSI) was unchanged. This result indicates that the on-demand availability of the endocannabinoid 2-AG is crucial for short-term plasticity at glutamatergic synapses in the hippocampus. Mice overexpressing MAGL exhibited elevated corticosterone levels under basal conditions and an increase in anxiety-like behavior, but surprisingly, showed no changes in aversive memory formation and in seizure susceptibility. This finding suggests that 2 AG-mediated hippocampal DSE is essential for adapting to aversive situations, but is not required to form aversive memory and to protect against kainic acid-induced seizures. Thus, specific inhibition of MAGL expressed in hippocampal pyramidal neurons may represent a potential treatment strategy for anxiety and stress disorders. Finally, the method of AAV-mediated cell type-specific transgene expression was advanced to allow drug-inducible and reversible transgene expression. Therefore, elements of the tetracycline-controlled gene expression system were incorporated in our “conditional” AAV vector. This approach showed that transgene expression is switched on after drug application and that background activity in the uninduced state was only detectable in scattered cells of the hippocampus. Thus, this AAV vector will proof useful for future research applications and gene therapy approaches.

Relevância:

10.00% 10.00%

Publicador:

Relevância:

10.00% 10.00%

Publicador:

Relevância:

10.00% 10.00%

Publicador:

Relevância:

10.00% 10.00%

Publicador: