20 resultados para Melanchthon, Philipp, 1497-1560
em Universitätsbibliothek Kassel, Universität Kassel, Germany
Resumo:
In [4], Guillard and Viozat propose a finite volume method for the simulation of inviscid steady as well as unsteady flows at low Mach numbers, based on a preconditioning technique. The scheme satisfies the results of a single scale asymptotic analysis in a discrete sense and comprises the advantage that this can be derived by a slight modification of the dissipation term within the numerical flux function. Unfortunately, it can be observed by numerical experiments that the preconditioned approach combined with an explicit time integration scheme turns out to be unstable if the time step Dt does not satisfy the requirement to be O(M2) as the Mach number M tends to zero, whereas the corresponding standard method remains stable up to Dt=O(M), M to 0, which results from the well-known CFL-condition. We present a comprehensive mathematical substantiation of this numerical phenomenon by means of a von Neumann stability analysis, which reveals that in contrast to the standard approach, the dissipation matrix of the preconditioned numerical flux function possesses an eigenvalue growing like M-2 as M tends to zero, thus causing the diminishment of the stability region of the explicit scheme. Thereby, we present statements for both the standard preconditioner used by Guillard and Viozat [4] and the more general one due to Turkel [21]. The theoretical results are after wards confirmed by numerical experiments.
Resumo:
Diese Arbeit beschreibt den Evaluationsprozess einer dreidimensionalen Visualisierungstechnik, die am Institut für periphere Mikroelektronik der Universität Kassel entwickelt wurde. Hinter der dreidimensionalen Darstellung mittels Linsenrasterscheibe verbirgt sich eine neue Dimension der Interaktion mit dem Computer. Im Vergleich zu gewöhnlichen dreidimensionalen Darstellungen, bei denen ein 3D-Objekt auf einer 2D-Fläche abgebildet wird und somit nach wie vor nicht aus der Bildschirmebene heraus kann, können bei der stereoskopen Darstellung die Objekte dreidimensional visualisiert werden. Die Objekte tauchen vor, beziehungsweise hinter der Darstellungsebene auf. Da die Linsenrasterscheibe bisher noch nicht wahrnehmungspsychologisch untersucht wurde und auch allgemein auf dem Gebiet der Evaluation von 3D-Systemen nur wenige Untersuchungen mit quantitativen Ergebnissen verfügbar sind (Vollbracht, 1997), besteht hier ein zentrales Forschungsinteresse. Um eine Evaluation dieses 3D-Systems durchzuführen, wird im Theorieteil der Arbeit zunächst der Begriff der Evaluation definiert. Des Weiteren werden die wahrnehmungspsychologischen Grundlagen der monokularen und binokularen Raumwahrnehmung erörtert. Anschließend werden Techniken zur Erzeugung von Tiefe in Bildern und auf Bildschirmen erläutert und die Unterschiede zwischen der technisch erzeugten und der natürlichen Tiefenwahrnehmung näher beleuchtet. Nach der Vorstellung verschiedener stereoskoper Systeme wird näher auf die autostereoskope Linsenrasterscheibe eingegangen. Zum Abschluss des theoretischen Teils dieser Arbeit wird die Theorie des eingesetzten Befindlichkeitsfragebogens veranschaulicht. Gegenstand des empirischen Teils dieser Arbeit sind zwei zentrale Fragestellungen. Erstens soll untersucht werden, ob durch den höheren Informationsgehalt grundlegende Wahrnehmungsleistungen in bestimmten Bereichen positiv beeinflusst werden können. Zweitens soll untersucht werden, ob sich die höhere visuelle Natürlichkeit und die Neuartigkeit der Bildpräsentation auch auf die subjektive Befindlichkeit der Probanden auswirkt. Die empirische Überprüfung dieser Hypothesen erfolgt mittels dreier Experimente. Bei den ersten beiden Experimenten stehen grundlegende wahrnehmungspsychologische Leistungen im Vordergrund, während in der dritten Untersuchung der Bereich der subjektiven Befindlichkeit gemessen wird. Abschließend werden die Ergebnisse der Untersuchungen vorgestellt und diskutiert. Des Weiteren werden konkrete Einsatzmöglichkeiten für die Linsenrasterscheibe aufgezeigt und denkbare nachfolgende experimentelle Vorgehensweisen skizziert.
Resumo:
Dieser Tagungsband enthält die gesammelten Zusammenfassungen der acht eingereichten Vorträge des 5. Krypto-Tags. Der Kryptotag ist eine zentrale Aktivität der Fachgruppe "Angewandte Kryptologie" der Gesellschaft für Informatik e.V. Er ist eine wissenschaftliche Veranstaltung im Bereich der Kryptologie und von der organisatorischen Arbeit der Fachgruppe getrennt.
Resumo:
This article is concerned with the numerical simulation of flows at low Mach numbers which are subject to the gravitational force and strong heat sources. As a specific example for such flows, a fire event in a car tunnel will be considered in detail. The low Mach flow is treated with a preconditioning technique allowing the computation of unsteady flows, while the source terms for gravitation and heat are incorporated via operator splitting. It is shown that a first order discretization in space is not able to compute the buoyancy forces properly on reasonable grids. The feasibility of the method is demonstrated on several test cases.
Resumo:
In the present paper we concentrate on solving sequences of nonsymmetric linear systems with block structure arising from compressible flow problems. We attempt to improve the solution process by sharing part of the computational effort throughout the sequence. This is achieved by application of a cheap updating technique for preconditioners which we adapted in order to be used for our applications. Tested on three benchmark compressible flow problems, the strategy speeds up the entire computation with an acceleration being particularly pronounced in phases of instationary behavior.
Resumo:
This work is concerned with finite volume methods for flows at low mach numbers which are under buoyancy and heat sources. As a particular application, fires in car tunnels will be considered. To extend the scheme for compressible flow into the low Mach number regime, a preconditioning technique is used and a stability result on this is proven. The source terms for gravity and heat are incorporated using operator splitting and the resulting method is analyzed.
Resumo:
With this document, we provide a compilation of in-depth discussions on some of the most current security issues in distributed systems. The six contributions have been collected and presented at the 1st Kassel Student Workshop on Security in Distributed Systems (KaSWoSDS’08). We are pleased to present a collection of papers not only shedding light on the theoretical aspects of their topics, but also being accompanied with elaborate practical examples. In Chapter 1, Stephan Opfer discusses Viruses, one of the oldest threats to system security. For years there has been an arms race between virus producers and anti-virus software providers, with no end in sight. Stefan Triller demonstrates how malicious code can be injected in a target process using a buffer overflow in Chapter 2. Websites usually store their data and user information in data bases. Like buffer overflows, the possibilities of performing SQL injection attacks targeting such data bases are left open by unwary programmers. Stephan Scheuermann gives us a deeper insight into the mechanisms behind such attacks in Chapter 3. Cross-site scripting (XSS) is a method to insert malicious code into websites viewed by other users. Michael Blumenstein explains this issue in Chapter 4. Code can be injected in other websites via XSS attacks in order to spy out data of internet users, spoofing subsumes all methods that directly involve taking on a false identity. In Chapter 5, Till Amma shows us different ways how this can be done and how it is prevented. Last but not least, cryptographic methods are used to encode confidential data in a way that even if it got in the wrong hands, the culprits cannot decode it. Over the centuries, many different ciphers have been developed, applied, and finally broken. Ilhan Glogic sketches this history in Chapter 6.
Resumo:
Die vorliegende Arbeit befasst sich primär mit der Trauerbewältigung von unmittelbaren Angehörigen und Betroffenen nach dem Amoklauf im Erfurter Gutenberg-Gymnasium vom 26. April 2002. Zur Forschungsmethodik wurde als Erhebungsverfahren eine spezielle Technik der qualitativen Inhaltsanalyse nach Philipp Mayring gewählt. Das Anliegen dabei ist, eine Methodik systematischer Interpretation zu verwenden, die an den in jeder Inhaltsanalyse notwendig enthaltenen qualitativen Bestandteilen ansetzt, sie durch Analyseschritte und Analyseregeln systematisiert und überprüfbar macht. Anhand dieser Forschungsmethode werden die Bewältigungsmechanismen der Trauer von Angehörigen und Betroffenen untersucht. Ferner befasst sich die Arbeit mit bis dato vorliegenden Untersuchungen und Hypothesen zum Amoklauf selbst und erstellt hypothetische Überlegungen zum Täterprofil, sowie eine Literaturrecherche zur Ätiologie und Epidemiologie von Amok.
Resumo:
Die Stadt-Umland-Problematik ist kein neues oder für die Metropolregion Hamburg spezifisches Thema, sondern eine der klassischen, bundesweiten raumordnungspolitischen Fragestellungen. Unter den Vorzeichen der aktuellen und künftigen demografischen Entwicklung, einer globalen Standortkonkurrenz und immer engerer öffentlicher Finanzspielräume geht es allerdings heute weniger um die Steuerung eines quantitativen Flächenwachstums, sondern vielmehr um die offensive und qualitative Entwicklung und Einbindung aller regionalen Potenziale. Klassische Planungsinstrumente stoßen dabei zunehmend an ihre Grenzen. In dieser Publikation werden die Möglichkeiten neuartiger Formen kooperativer Strukturen umfassend aufgezeigt. Dies geschieht sowohl in einer Gegenüberstellung bisher bekannter Ansätze von stadt-regionalen Kooperationen wie auch, unter besonderer Berücksichtigung des ländergrenzenübergreifenden Aspektes, anhand der Metropolregion Hamburg. Diese wird auf die siedlungsstrukturelle, regionalplanerische sowie politische Ausgangssituationen eingehend untersucht sowie die daraus resultierenden Stärken und Schwächen aufgezeigt und bewertet. Aufbauend auf diese Untersuchung wird für die Metropolregion Hamburg ein möglicher Ansatz stadtregionaler Kooperation, das Modell der Nachbarschaftsforen, vorgestellt, die möglichen Handlungsfelder sowie -konflikte benannt und auf einen spezifischen Teilraum der Region angewendet.
Resumo:
The application of nonlinear schemes like dual time stepping as preconditioners in matrix-free Newton-Krylov-solvers is considered and analyzed. We provide a novel formulation of the left preconditioned operator that says it is in fact linear in the matrix-free sense, but changes the Newton scheme. This allows to get some insight in the convergence properties of these schemes which are demonstrated through numerical results.
Resumo:
Among many other knowledge representations formalisms, Ontologies and Formal Concept Analysis (FCA) aim at modeling ‘concepts’. We discuss how these two formalisms may complement another from an application point of view. In particular, we will see how FCA can be used to support Ontology Engineering, and how ontologies can be exploited in FCA applications. The interplay of FCA and ontologies is studied along the life cycle of an ontology: (i) FCA can support the building of the ontology as a learning technique. (ii) The established ontology can be analyzed and navigated by using techniques of FCA. (iii) Last but not least, the ontology may be used to improve an FCA application.
Resumo:
In der Anwendung treten häufig Differentialgleichungssysteme auf, deren Komponenten über das Lösen mit einer vorgegeben Genauigkeit hinaus Anforderungen an die, zur Näherung verwendeten, numerischen Verfahren stellen. Die Arbeit widmet sich hierbei den beiden Forderungen 1. Erhaltung der Positivität aller positiven Größen (z.B. Massen, Konzentrationen, Energie) und 2. Erhaltung der Masse in abgeschlossenen Systemen. Ausgehend von einem komplexen ökologischen 2D Modell zur Beschreibung von Algendynamiken in flachen Gewässern auf Grund der verfügbaren Phosphorvorkommen wird ein problemangepasstes Finite-Volumen-Verfahren entwickelt. Den in diesem Rahmen auftauchenden gewöhnlichen Differentialgleichungssystemen wird spezielle Aufmerksamkeit geschenkt. Es werden die bestehenden Begriffe auf eine gemeinsame formale Basis gestellt und die bestehenden Verfahren (Bruggeman und modifizierte Patankar Ansätze) mit Hilfe dieser vereinheitlichten Basis formuliert. Anschließend werden die diesen Ansätzen jeweils eigenen Schwierigkeiten und Einschränkungen (Ordnungsschranke von zwei, Erhaltung der Konservativität nur für Gleichungen mit einfacher Struktur, nicht für steife Systeme geeignet) betrachtet. Danach werden zwei Verfahrensverallgemeinerungen des modifizierten Patankar Euler Verfahrens präsentiert, welche jeweils eine der bestehenden Schwächen aufhebt. 1. Das extrapolierte mod. Pat. Euler Verfahren ermöglicht in Abhängigkeit des zu Grunde liegenden Problems die Erzeugung von Näherungen beliebig hoher Ordnung. 2. Das verallgemeinerte mod. Pat. Euler Verfahren erlaubt den Erhalt der Masse auch für komplexe Strukturen. Anschließend befasst sich die Arbeit mit der Vorstellung des verwendeten FVV, einer angepassten Form der 2D DLR Taucodes. Im weiteren Verlauf werden sämtliche theoretischen Aussagen zu den Verfahren an Hand entsprechend gewählter praktischer Testfälle demonstriert. Abschließend wird die Wirksamkeit des Gesamtverfahrens in seiner Anwendung auf das Algendynamikmodell vorgeführt.
Resumo:
Im Zuge dieser Arbeit werden die Entstehungszusammenhänge vorhandener und teilweise auch de facto genutzter Nachhaltigkeitspotentiale ausgewählter Gemeinden Nordhessens beleuchtet. Die Gemeinde als bürgernahste staatliche Verwaltungseinheit, welche aktiv auf das Verhalten von Menschen und Unternehmen Einfluss nehmen kann, endet dabei nicht an der verwaltungsrechtlichen und politischen Gemeindegrenze. Aus Gründen der Handhabbarkeit des Promotionsvorhabens beschränkt sich der Autor auf die getrennt voneinander zu betrachtenden Arenen der Ernährung und Energiewirtschaft. Ziel dieses Vergleiches ist es, diejenigen Gemeinden benennen zu können, welche von sich und anderen Gemeinden als Musterschüler angesehen werden und die Gründe zu eruieren, welche Faktoren für diese subjektiv positive Entwicklung entscheidend waren und sind. Umgekehrt gilt es, für Gemeinden mit Nachholbedarf im Bereich nachhaltiger Ernährung und Energiewirtschaft, die hemmenden Faktoren herauszufinden. Auf der Ebene der Gemeinde gibt es zahlreiche Möglichkeiten, energiesparende und klimarelevante Maßnahmen durchzuführen oder etwa eine regional-biologische Schulspeisung einzuführen. Niemand ist für eine Klimaveränderung mit katastrophalen Auswirkungen auf unsere Lebensverhältnisse in der Zukunft. Das Verhalten der entscheidenden Akteure legt es aber nahe, dass eine “derartige Veränderung mit zunehmender Wahrscheinlichkeit eintreten wird. Warum gibt es diese Diskrepanz? Dafür lassen sich zwei wesentliche Gründe anführen: die Unwissenheit über die Zusammenhänge und das Ausmaß der Bedrohung sowie die Gleichgültigkeit oder auch der Mangel an Verantwortung gegenüber der Zukunft.” Zum aktuellen Stand der globalen Nachhaltigkeit ist festzustellen: „Der Weltklimagipfel 2009 in Kopenhagen brachte keine spürbaren Fortschritte in Sachen Nachhaltigkeit, hier wurden im Bezug auf die Klimaerwärmung nur vage Ziele formuliert. Es gab zwar eine Abschlusserklärung, diese wurde aber nicht abgestimmt. Den teilnehmenden Ländern bleibt es somit freigestellt, ob sie den Text annehmen und umsetzen oder eben nicht.“ Aufgrund des besagten partiellen Versagens der nationalen und internationalen Ebene steigt die Verantwortung der kommunalen Ebene, welche sich ansonsten auf die Erfolge der Erstgenannten hätte berufen können. Auf der Ebene der Gemeinde gibt es zahlreiche Möglichkeiten, energiesparende und klimarelevante Maßnahmen durchzuführen, dies gilt auch noch nach dem Klimagipfel in Cancún, der seine Wirksamkeit erst noch beweisen muss.
Resumo:
Im Zuge der Novellierung der Gasnetzzugangsverordnung sowie des Erneuerbare-Energien-Gesetzes entwickelte sich die Einspeisung von Biomethan in das Erdgasnetz als alternative Investitionsmöglichkeit der Erneuerbare-Energien-Branche. Als problematisch erweist sich dabei die Identifikation und Strukturierung einzelner Risikofaktoren zu einem Risikobereich, sowie die anschließende Quantifizierung dieser Risikofaktoren innerhalb eines Risikoportfolios. Darüber hinaus besteht die Schwierigkeit, diese Risikofaktoren in einem cashflowbasierten und den Ansprüchen der Investoren gewachsenem Risikomodell abzubilden. Zusätzlich müssen dabei Wechselwirkungen zwischen einzelnen Risikofaktoren berücksichtigt werden. Aus diesem Grund verfolgt die Dissertation das Ziel, die Risikosituation eines Biomethanprojektes anhand aggregierter und isolierter Risikosimulationen zu analysieren. Im Rahmen einer Diskussion werden Strategien und Instrumente zur Risikosteuerung angesprochen sowie die Implementierungsfähigkeit des Risikomodells in das Risikomanagementsystem von Investoren. Die Risikomaße zur Beschreibung der Risikoauswirkung betrachten die Shortfälle einer Verteilung. Dabei beziehen sich diese auf die geplanten Ausschüttungen sowie interne Verzinsungsansprüche der Investoren und die von Kreditinstituten geforderte minimale Schuldendienstdeckungsrate. Im Hinblick auf die Risikotragfähigkeit werden liquiditätsorientierte Kennzahlen hinzugezogen. Investoren interessieren sich vor dem Hintergrund einer gezielten Risikosteuerung hauptsächlich für den gefahrvollsten Risikobereich und innerhalb dessen für den Risikofaktor, der die größten Risikoauswirkungen hervorruft. Zudem spielt der Zeitpunkt maximaler Risikoauswirkung eine große Rolle. Als Kernaussage dieser Arbeit wird festgestellt, dass in den meisten Fällen die Aussagefähigkeit aggregierter Risikosimulationen durch Überlagerungseffekte negativ beeinträchtigt wird. Erst durch isoliert durchgeführte Risikoanalysen können diese Effekte eliminiert werden. Besonders auffällig gestalten sich dabei die Ergebnisse der isoliert durchgeführten Risikoanalyse des Risikobereichs »Politik«. So verursacht dieser im Vergleich zu den übrigen Risikobereichen, wie »Infrastruktur«, »Rohstoffe«, »Absatzmarkt« und »Finanzmarkt«, die geringsten Wahrscheinlichkeiten avisierte Planwerte der Investoren zu unterschreiten. Kommt es jedoch zu einer solchen Planwert-Unterschreitung, nehmen die damit verbundenen Risikoauswirkungen eine überraschende Position im Risikoranking der Investoren ein. Hinsichtlich der Aussagefähigkeit des Risikomodells wird deutlich, dass spezifische Risikosichtweisen der Investoren ausschlaggebend dafür sind, welche Strategien und Instrumente zur Risikosenkung umgesetzt werden. Darüber hinaus wird festgestellt, dass die Grenzen des Risikomodells in der Validität der Expertenmeinungen und dem Auffinden einer Optimallösung zu suchen sind.