10 resultados para Millionaire Problem, Efficiency, Verifiability, Zero Test, Batch Equation
em ArchiMeD - Elektronische Publikationen der Universit
Resumo:
We consider the heat flux through a domain with subregions in which the thermal capacity approaches zero. In these subregions the parabolic heat equation degenerates to an elliptic one. We show the well-posedness of such parabolic-elliptic differential equations for general non-negative L-infinity-capacities and study the continuity of the solutions with respect to the capacity, thus giving a rigorous justification for modeling a small thermal capacity by setting it to zero. We also characterize weak directional derivatives of the temperature with respect to capacity as solutions of related parabolic-elliptic problems.
Resumo:
In der vorliegenden Arbeit werden zwei physikalischeFließexperimente an Vliesstoffen untersucht, die dazu dienensollen, unbekannte hydraulische Parameter des Materials, wiez. B. die Diffusivitäts- oder Leitfähigkeitsfunktion, ausMeßdaten zu identifizieren. Die physikalische undmathematische Modellierung dieser Experimente führt auf einCauchy-Dirichlet-Problem mit freiem Rand für die degeneriertparabolische Richardsgleichung in derSättigungsformulierung, das sogenannte direkte Problem. Ausder Kenntnis des freien Randes dieses Problems soll dernichtlineare Diffusivitätskoeffizient derDifferentialgleichung rekonstruiert werden. Für diesesinverse Problem stellen wir einOutput-Least-Squares-Funktional auf und verwenden zu dessenMinimierung iterative Regularisierungsverfahren wie dasLevenberg-Marquardt-Verfahren und die IRGN-Methode basierendauf einer Parametrisierung des Koeffizientenraumes durchquadratische B-Splines. Für das direkte Problem beweisen wirunter anderem Existenz und Eindeutigkeit der Lösung desCauchy-Dirichlet-Problems sowie die Existenz des freienRandes. Anschließend führen wir formal die Ableitung desfreien Randes nach dem Koeffizienten, die wir für dasnumerische Rekonstruktionsverfahren benötigen, auf einlinear degeneriert parabolisches Randwertproblem zurück.Wir erläutern die numerische Umsetzung und Implementierungunseres Rekonstruktionsverfahrens und stellen abschließendRekonstruktionsergebnisse bezüglich synthetischer Daten vor.
Resumo:
The aim of this work is to explore, within the framework of the presumably asymptotically safe Quantum Einstein Gravity, quantum corrections to black hole spacetimes, in particular in the case of rotating black holes. We have analysed this problem by exploiting the scale dependent Newton s constant implied by the renormalization group equation for the effective average action, and introducing an appropriate "cutoff identification" which relates the renormalization scale to the geometry of the spacetime manifold. We used these two ingredients in order to "renormalization group improve" the classical Kerr metric that describes the spacetime generated by a rotating black hole. We have focused our investigation on four basic subjects of black hole physics. The main results related to these topics can be summarized as follows. Concerning the critical surfaces, i.e. horizons and static limit surfaces, the improvement leads to a smooth deformation of the classical critical surfaces. Their number remains unchanged. In relation to the Penrose process for energy extraction from black holes, we have found that there exists a non-trivial correlation between regions of negative energy states in the phase space of rotating test particles and configurations of critical surfaces of the black hole. As for the vacuum energy-momentum tensor and the energy conditions we have shown that no model with "normal" matter, in the sense of matter fulfilling the usual energy conditions, can simulate the quantum fluctuations described by the improved Kerr spacetime that we have derived. Finally, in the context of black hole thermodynamics, we have performed calculations of the mass and angular momentum of the improved Kerr black hole, applying the standard Komar integrals. The results reflect the antiscreening character of the quantum fluctuations of the gravitational field. Furthermore we calculated approximations to the entropy and the temperature of the improved Kerr black hole to leading order in the angular momentum. More generally we have proven that the temperature can no longer be proportional to the surface gravity if an entropy-like state function is to exist.
Resumo:
Die vorliegende Arbeit beschäftigt sich mit Kriterien effizienter und flexibler Informationsverarbeitung und deren Auswirkungen auf den Karriereerfolg. Die Kriterien Interferenz, Interferenz unter der negativen Priming-Bedingung und die Spontanflexibilität wurden in drei aufeinander aufbauenden Studien untersucht. Die Interferenzindices wurden mit einer modifizierten Form des Stroop-Tests erhoben, und das Konstrukt der Spontanflexibilität wurde mit der Gauß-Aufgabe, der Wasserumschüttaufgabe, dem Wortgruppentest und der Anagramm-Aufgabe operationalisiert. Bei diesen Aufgaben wurde eine Lösungsstrategie vorgegeben, aber es gab zusätzlich eine effizientere Lösungsstrategie, die während der Bearbeitung der Einzelaufgaben immer offensichtlicher wurde. Da die einzelnen Aufgaben nicht signifikant miteinander korrelierten, wurde im Rahmen einer Nachuntersuchung die Reliabilität über Parallelaufgaben geprüft. Für die Diagnose von Gruppenunterschieden erwiesen sich die Indikatoren der Spontanflexibilität als hinreichend reliabel. Die Wortdarbietungszeiten der Interferenzindices waren hochreliabel. Zwischen den Interferenzindices zeigte sich ein starker positiver Zusammenhang. Zur Validierung der Aufgaben wurden Beurteilungen über die berufliche Leistung der Versuchsteilnehmer herangezogen. Zwischen den einzelnen Beurteilungskriterien zeigten sich hohe Zusammenhänge. Die Gauß-Aufgabe korrelierte mit einem Beurteilungskriterium, dessen Verhaltensbeschreibungen sehr gut mit der Definition der Spontanflexibilität übereinstimmten. Die Wasserumschüttaufgabe korrelierte mit einem Beurteilungskriterium, welches eher eine durch die Situation herausgeforderte Flexibilität widerspiegelt. Die Interferenzindikatoren korrelierten mit Beurteilungskriterien, die zum einen die Fähigkeit zum Aufbauen von professionellen Beziehungen und zum anderen die Effizienz und den Qualitätsstandard eines Mitarbeiters bewerteten. Aufgrund der replizierten Zusammenhänge kann davon ausgegangen werden, dass die Interferenz, die Interferenz unter der negativen Priming-Bedingung, die Spontanflexibilität und die herausgeforderte Flexibilität Einfluss auf den Karriereerfolg eines Mitarbeiters nehmen. Aus diesem Grund bieten sich im Bereich der Arbeits- und Organisationspsychologie vielversprechende Einsatzmöglichkeiten für die in dieser Untersuchung entwickelten Tests an.
Resumo:
In various imaging problems the task is to use the Cauchy data of the solutions to an elliptic boundary value problem to reconstruct the coefficients of the corresponding partial differential equation. Often the examined object has known background properties but is contaminated by inhomogeneities that cause perturbations of the coefficient functions. The factorization method of Kirsch provides a tool for locating such inclusions. In this paper, the factorization technique is studied in the framework of coercive elliptic partial differential equations of the divergence type: Earlier it has been demonstrated that the factorization algorithm can reconstruct the support of a strictly positive (or negative) definite perturbation of the leading order coefficient, or if that remains unperturbed, the support of a strictly positive (or negative) perturbation of the zeroth order coefficient. In this work we show that these two types of inhomogeneities can, in fact, be located simultaneously. Unlike in the earlier articles on the factorization method, our inclusions may have disconnected complements and we also weaken some other a priori assumptions of the method. Our theoretical findings are complemented by two-dimensional numerical experiments that are presented in the framework of the diffusion approximation of optical tomography.
Resumo:
Assuming that the heat capacity of a body is negligible outside certain inclusions the heat equation degenerates to a parabolic-elliptic interface problem. In this work we aim to detect these interfaces from thermal measurements on the surface of the body. We deduce an equivalent variational formulation for the parabolic-elliptic problem and give a new proof of the unique solvability based on Lions’s projection lemma. For the case that the heat conductivity is higher inside the inclusions, we develop an adaptation of the factorization method to this time-dependent problem. In particular this shows that the locations of the interfaces are uniquely determined by boundary measurements. The method also yields to a numerical algorithm to recover the inclusions and thus the interfaces. We demonstrate how measurement data can be simulated numerically by a coupling of a finite element method with a boundary element method, and finally we present some numerical results for the inverse problem.
Resumo:
ZusammenfassungrnrnrnDer Köderstreifentest, die Auswertung der Minicontainer und die Erfassung der Bodenlebewesen mit Hilfe der Bodenstechkerne ergeben zusammen eine gut standardisierte Methode zur Darstellung und Beurteilung der Mesofauna. Unter der Vorraussetzung gleicher abiotischer Faktoren ist es problemlos möglich, selbst unterschiedliche Standorte wie Agrarflächen, Weinberge und Waldböden vergleichend zu untersuchen.rnrnAuf den verschiedenen Versuchsflächen des Laubenheimer Weinberges gelingt es deutlich zu zeigen, wie wichtig eine naturnahe Begrünung für den Boden ist. Dies betrifft nicht nur die Entwicklung der Humusschicht und damit die Bodenlebewesen, sondern auch die Schaffung von Kapillaren und Poren, die durch schwere landwirtschaftliche Geräte im Rahmen der Bo-denverdichtung reduziert werden. Erosionserscheinungen kommen vollständig zum Stillstand. Das Ökosystem Boden sollte auch so gut wie keine Belastung durch Herbizide, Insektizide und Pestizide erfahren. Ähnliches gilt auch für agrarisch genutzte Flächen. rnrnDer Lennebergwald als Naherholungsregion von Mainz ist besonders schützenswert, da dieser durch intensiven Immissionseintrag aufgrund der Nähe zu den Autobahnen und durch die Eutrophierung über die Haustiere stark belastet wird. Die immer größere Ausdehnung des Siedlungsgebietes und die damit verbundene steigende Anzahl an Waldbesuchern, die durch Verlassen der vorgegebenen Wege den Boden zerstören, gefährden zusätzlich das Ökosystem.rnrnÜber Sinn und Zweck einer Flurbereinigung zu diskutieren ist hier nicht angebracht. Aus bo-denkundlicher Sicht ist sie nicht zu befürworten, da hiermit alle bodenbewahrenden Maßnah-men ignoriert werden. Wichtig ist es, bei den Landwirten Aufklärungsarbeit zu leisten, was bodenschonende und bodenweiterentwickelnde Bearbeitungsmethoden bedeuten. Mit Hilfe sachgemäßer Aufklärung und richtiger Umsetzung kann durch Begrünungsmaßnahmen der zum Teil sehr stark strapazierte Boden erhalten, gefördert und auf lange Sicht stabilisiert wer-den.rnrnAufgrund der festgestellten Tatsachen wurde ab 2008 auf eine flächige Dauerbegrünung um-gestellt, so dass es auch in den unbegrünten Rebzeilen zu einer Bodenverbesserung kommen kann. Mit großer Wahrscheinlichkeit dürfte diese schneller voranschreiten, da die Mesofauna von den benachbarten begrünten Rebzeilen einwandern kann. rnDie Mesofauna landwirtschaftlich genutzter Flächen und Waldgebiete kann, obwohl extrem unterschiedlich, miteinander verglichen werden.rnrnBrachflächen und Waldgebiete lassen sich aufgrund der unberührten Bodenstrukturen sogar gut miteinander vergleichen. Temperatur- und Niederschlagsverhältnisse müssen dabei über-einstimmen. Die Azidität der jeweiligen Böden gilt es zu berücksichtigen, da verschiedene Tiergruppen damit unterschiedlich umgehen. Collembolen bevorzugen neutrale Böden, wäh-rend Acari als Räuber mit den Lebewesen in sauren Böden besser zurechtkommen. Die Streu-auflage ist dabei von großer Bedeutung.rnrnIm Rahmen von Bearbeitungsmaßnahmen kommt es durch jeglichen Maschineneinsatz zu ei-ner mehr oder weniger starken Veränderung der Bodenstruktur und somit auch der darin le-benden Mesofauna. Bis sich diese erholt hat, steht meist schon die nächste Bodenbewirtschaf-tung an. Die Bodenverdichtung spielt auch eine Rolle. Bei herkömmlichem Ackerbau ist eine Fruchtfolge mit eingeschalteter Brache oder Gründüngung mit Klee oder Luzerne angebracht, um die Mesofauna nicht zu stark zu strapazieren. Organische Düngegaben leicht abbaubarer Streu sind deutlich zu bevorzugen gegenüber sehr zellulose- und ligninhaltigen Pflanzenresten. Die Einbringung von Stoppeln nach Aberntung von Getreidefeldern ist sinnvoll, solange dabei nicht zu tief in die Bodenstruktur eingegriffen wird (ZIMMER 1997).rnrnIm Rahmen der Sonderkultur Wein, bei der eine Bodenbearbeitung aus den aufgezeigten Gründen eigentlich nicht notwendig wäre, sind Dauerbegrünungsmaßnahmen generell von Nutzen: der Erosion wird vorgebeugt, die Bodenfeuchte konstant gehalten, der anfallende Mulch als Gründüngung genutzt. Dies sind alles entscheidende Faktoren, die die Meso- und Makrofauna fördern. Nur die Bodenverdichtung durch schweres Gerät, wie Schlepper und Vollernter, sind für den Boden nicht förderlich (HEISLER 1993, EHRENSBERGER 1993). Nie-derdruckreifen und Verringerung der Befahrung sind geeignete Gegenmaßnahmen. rnrnEntgegen landläufiger Winzermeinung, stellen die Pflanzen einer Begrünung eigentlich keine Konkurrenz für die Weinstöcke dar. Die Vorteile einer Begrünung sind nicht nur die Förde-rung der einheimischen Flora in ihrem standortgerechten Artenreichtum, sondern auch Ver-vielfältigung von Meso- und Makrofauna aufgrund der dadurch mehr anfallenden und ein-zuarbeitenden leicht abbaubaren Streu (GRIEBEL 1995).rn
Resumo:
This work deals with the car sequencing (CS) problem, a combinatorial optimization problem for sequencing mixed-model assembly lines. The aim is to find a production sequence for different variants of a common base product, such that work overload of the respective line operators is avoided or minimized. The variants are distinguished by certain options (e.g., sun roof yes/no) and, therefore, require different processing times at the stations of the line. CS introduces a so-called sequencing rule H:N for each option, which restricts the occurrence of this option to at most H in any N consecutive variants. It seeks for a sequence that leads to no or a minimum number of sequencing rule violations. In this work, CS’ suitability for workload-oriented sequencing is analyzed. Therefore, its solution quality is compared in experiments to the related mixed-model sequencing problem. A new sequencing rule generation approach as well as a new lower bound for the problem are presented. Different exact and heuristic solution methods for CS are developed and their efficiency is shown in experiments. Furthermore, CS is adjusted and applied to a resequencing problem with pull-off tables.
Resumo:
Allgemein erlaubt adaptive Gitterverfeinerung eine Steigerung der Effizienz numerischer Simulationen ohne dabei die Genauigkeit des Ergebnisses signifikant zu verschlechtern. Es ist jedoch noch nicht erforscht, in welchen Bereichen des Rechengebietes die räumliche Auflösung tatsächlich vergröbert werden kann, ohne die Genauigkeit des Ergebnisses signifikant zu beeinflussen. Diese Frage wird hier für ein konkretes Beispiel von trockener atmosphärischer Konvektion untersucht, nämlich der Simulation von warmen Luftblasen. Zu diesem Zweck wird ein neuartiges numerisches Modell entwickelt, das auf diese spezielle Anwendung ausgerichtet ist. Die kompressiblen Euler-Gleichungen werden mit einer unstetigen Galerkin Methode gelöst. Die Zeitintegration geschieht mit einer semi-implizite Methode und die dynamische Adaptivität verwendet raumfüllende Kurven mit Hilfe der Funktionsbibliothek AMATOS. Das numerische Modell wird validiert mit Hilfe einer Konvergenzstudie und fünf Standard-Testfällen. Eine Methode zum Vergleich der Genauigkeit von Simulationen mit verschiedenen Verfeinerungsgebieten wird eingeführt, die ohne das Vorhandensein einer exakten Lösung auskommt. Im Wesentlichen geschieht dies durch den Vergleich von Eigenschaften der Lösung, die stark von der verwendeten räumlichen Auflösung abhängen. Im Fall einer aufsteigenden Warmluftblase ist der zusätzliche numerische Fehler durch die Verwendung der Adaptivität kleiner als 1% des gesamten numerischen Fehlers, wenn die adaptive Simulation mehr als 50% der Elemente einer uniformen hoch-aufgelösten Simulation verwendet. Entsprechend ist die adaptive Simulation fast doppelt so schnell wie die uniforme Simulation.
Resumo:
Lattice Quantum Chromodynamics (LQCD) is the preferred tool for obtaining non-perturbative results from QCD in the low-energy regime. It has by nowrnentered the era in which high precision calculations for a number of phenomenologically relevant observables at the physical point, with dynamical quark degrees of freedom and controlled systematics, become feasible. Despite these successes there are still quantities where control of systematic effects is insufficient. The subject of this thesis is the exploration of the potential of todays state-of-the-art simulation algorithms for non-perturbativelyrn$\mathcal{O}(a)$-improved Wilson fermions to produce reliable results in thernchiral regime and at the physical point both for zero and non-zero temperature. Important in this context is the control over the chiral extrapolation. Thisrnthesis is concerned with two particular topics, namely the computation of hadronic form factors at zero temperature, and the properties of the phaserntransition in the chiral limit of two-flavour QCD.rnrnThe electromagnetic iso-vector form factor of the pion provides a platform to study systematic effects and the chiral extrapolation for observables connected to the structure of mesons (and baryons). Mesonic form factors are computationally simpler than their baryonic counterparts but share most of the systematic effects. This thesis contains a comprehensive study of the form factor in the regime of low momentum transfer $q^2$, where the form factor is connected to the charge radius of the pion. A particular emphasis is on the region very close to $q^2=0$ which has not been explored so far, neither in experiment nor in LQCD. The results for the form factor close the gap between the smallest spacelike $q^2$-value available so far and $q^2=0$, and reach an unprecedented accuracy at full control over the main systematic effects. This enables the model-independent extraction of the pion charge radius. The results for the form factor and the charge radius are used to test chiral perturbation theory ($\chi$PT) and are thereby extrapolated to the physical point and the continuum. The final result in units of the hadronic radius $r_0$ is rn$$ \left\langle r_\pi^2 \right\rangle^{\rm phys}/r_0^2 = 1.87 \: \left(^{+12}_{-10}\right)\left(^{+\:4}_{-15}\right) \quad \textnormal{or} \quad \left\langle r_\pi^2 \right\rangle^{\rm phys} = 0.473 \: \left(^{+30}_{-26}\right)\left(^{+10}_{-38}\right)(10) \: \textnormal{fm} \;, $$rn which agrees well with the results from other measurements in LQCD and experiment. Note, that this is the first continuum extrapolated result for the charge radius from LQCD which has been extracted from measurements of the form factor in the region of small $q^2$.rnrnThe order of the phase transition in the chiral limit of two-flavour QCD and the associated transition temperature are the last unkown features of the phase diagram at zero chemical potential. The two possible scenarios are a second order transition in the $O(4)$-universality class or a first order transition. Since direct simulations in the chiral limit are not possible the transition can only be investigated by simulating at non-zero quark mass with a subsequent chiral extrapolation, guided by the universal scaling in the vicinity of the critical point. The thesis presents the setup and first results from a study on this topic. The study provides the ideal platform to test the potential and limits of todays simulation algorithms at finite temperature. The results from a first scan at a constant zero-temperature pion mass of about 290~MeV are promising, and it appears that simulations down to physical quark masses are feasible. Of particular relevance for the order of the chiral transition is the strength of the anomalous breaking of the $U_A(1)$ symmetry at the transition point. It can be studied by looking at the degeneracies of the correlation functions in scalar and pseudoscalar channels. For the temperature scan reported in this thesis the breaking is still pronounced in the transition region and the symmetry becomes effectively restored only above $1.16\:T_C$. The thesis also provides an extensive outline of research perspectives and includes a generalisation of the standard multi-histogram method to explicitly $\beta$-dependent fermion actions.