714 resultados para Numerisches Verfahren


Relevância:

20.00% 20.00%

Publicador:

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The planning and organization of audio-visual instruction media are placed within a communication theoretical reference frame which begins where audio-visual media cease to function for daily instruction. Media-bound disorders however, are only seen as the surface conflict between opposing communication paradigms. The decisive task of the teacher is to remove audio-visual media from a communication context which is contradictory to instruction. This is successful when the objectification performance of audio-visual media is used to serve the subjective process of cognition. As order to support the teacher in this complex task of planning, a taxonomy is presented which operationalizes the essential problems when using media.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Im Rahmen dieser Arbeit werden Modellbildungsverfahren zur echtzeitfähigen Simulation wichtiger Schadstoffkomponenten im Abgasstrom von Verbrennungsmotoren vorgestellt. Es wird ein ganzheitlicher Entwicklungsablauf dargestellt, dessen einzelne Schritte, beginnend bei der Ver-suchsplanung über die Erstellung einer geeigneten Modellstruktur bis hin zur Modellvalidierung, detailliert beschrieben werden. Diese Methoden werden zur Nachbildung der dynamischen Emissi-onsverläufe relevanter Schadstoffe des Ottomotors angewendet. Die abgeleiteten Emissionsmodelle dienen zusammen mit einer Gesamtmotorsimulation zur Optimierung von Betriebstrategien in Hybridfahrzeugen. Im ersten Abschnitt der Arbeit wird eine systematische Vorgehensweise zur Planung und Erstellung von komplexen, dynamischen und echtzeitfähigen Modellstrukturen aufgezeigt. Es beginnt mit einer physikalisch motivierten Strukturierung, die eine geeignete Unterteilung eines Prozessmodells in einzelne überschaubare Elemente vorsieht. Diese Teilmodelle werden dann, jeweils ausgehend von einem möglichst einfachen nominalen Modellkern, schrittweise erweitert und ermöglichen zum Abschluss eine robuste Nachbildung auch komplexen, dynamischen Verhaltens bei hinreichender Genauigkeit. Da einige Teilmodelle als neuronale Netze realisiert werden, wurde eigens ein Verfah-ren zur sogenannten diskreten evidenten Interpolation (DEI) entwickelt, das beim Training einge-setzt, und bei minimaler Messdatenanzahl ein plausibles, also evidentes Verhalten experimenteller Modelle sicherstellen kann. Zum Abgleich der einzelnen Teilmodelle wurden statistische Versuchs-pläne erstellt, die sowohl mit klassischen DoE-Methoden als auch mittels einer iterativen Versuchs-planung (iDoE ) generiert wurden. Im zweiten Teil der Arbeit werden, nach Ermittlung der wichtigsten Einflussparameter, die Model-strukturen zur Nachbildung dynamischer Emissionsverläufe ausgewählter Abgaskomponenten vor-gestellt, wie unverbrannte Kohlenwasserstoffe (HC), Stickstoffmonoxid (NO) sowie Kohlenmono-xid (CO). Die vorgestellten Simulationsmodelle bilden die Schadstoffkonzentrationen eines Ver-brennungsmotors im Kaltstart sowie in der anschließenden Warmlaufphase in Echtzeit nach. Im Vergleich zur obligatorischen Nachbildung des stationären Verhaltens wird hier auch das dynami-sche Verhalten des Verbrennungsmotors in transienten Betriebsphasen ausreichend korrekt darge-stellt. Eine konsequente Anwendung der im ersten Teil der Arbeit vorgestellten Methodik erlaubt, trotz einer Vielzahl von Prozesseinflussgrößen, auch hier eine hohe Simulationsqualität und Ro-bustheit. Die Modelle der Schadstoffemissionen, eingebettet in das dynamische Gesamtmodell eines Ver-brennungsmotors, werden zur Ableitung einer optimalen Betriebsstrategie im Hybridfahrzeug ein-gesetzt. Zur Lösung solcher Optimierungsaufgaben bieten sich modellbasierte Verfahren in beson-derer Weise an, wobei insbesondere unter Verwendung dynamischer als auch kaltstartfähiger Mo-delle und der damit verbundenen Realitätsnähe eine hohe Ausgabequalität erreicht werden kann.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Mit der Einführung von Qualitätsmanagementsystemen an Beruflichen Schulen stellt sich für die externe Evaluation (Breitbandevaluation) die Herausforderung, verstärkt auf jene Aspekte einzugehen, die traditionell in den Bereich der Metaevaluation des Qualitätsmanagements (QM) gehören. So müssen sich in Hessen die Schulen, die sich für die nach dem 2011 novellierten Hessischen Schulgesetz ermöglichte Selbstständigkeit entscheiden, ein QM-System einführen. Erfolgt dies auf der Basis des Q2E-Modells, ist vorgesehen, ihnen ab 2012 eine Metaevaluation nach Q2E kombiniert mit Elementen der Schulinspektion im Rahmen einer Primärevaluation des Qualitätsbereichs „Lehren und Lernen“ des Hessischen Referenzrahmens für Schulqualität anzubieten. Hierfür wurde das Verfahren QEE-Hessen konzipiert und pilotiert. In dem Verfahren wird der Qualitätsbegriff an den beruflichen Schulen in Hessen dergestalt konkretisiert, dass zwei Qualitätskonzepte - Q2E und Schulinspektion - zusammengeführt werden. Die Reflexion des Verfahrens und seiner Pilotierung erfolgt auf den Grundlagen der beiden kombinierten Verfahren externer Evaluation sowie auf alltagstheoretischer und auf wissenschaftstheoretischer Ebene. Die Autoren machen Optimierungsvorschläge und stellen als positives Ergebnis fest, dass durch QEE-Hessen für alle Maßnahmen der schulischen Qualitätsentwicklung und -sicherung nun der Hessische Referenzrahmen Schulqualität als verbindlicher Orientierungsrahmen dient, der einheitliche Kriterien vorgibt, auf dessen Basis selbstständige Berufliche Schulen entwickelt, evaluiert, legitimiert und gesteuert werden können.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Selbstbestimmung und -gestaltung des eigenen Alltages gewinnen immer mehr an Bedeutung, insbesondere für ältere Mitmenschen in ländlichen Regionen, die auf ärztliche Versorgung angewiesen sind. Die Schaffung sogenannter smart personal environments mittels einer Vielzahl von, nahezu unsichtbar installierten Sensoren im gewohnten Lebensraum liefert dem Anwender (lebens-) notwendige Informationen über seine Umgebung oder seinen eigenen Körper. Dabei gilt es nicht den Anwender mit technischen Daten, wie Spektren, zu überfordern. Vielmehr sollte die Handhabung so einfach wie möglich gestaltet werden und die ausgewertete Information als Indikationsmittel zum weiteren Handeln dienen. Die Anforderungen an moderne Technologien sind folglich eine starke Miniaturisierung, zur optimalen Integration und Mobilität, bei gleichzeitig hoher Auflösung und Stabilität. Die Zielsetzung der vorliegenden Arbeit ist die Miniaturisierung eines spektroskopischen Systems bei gleichzeitig hohem Auflösungsvermögen für die Detektion im sichtbaren Spektralbereich. Eine Möglichkeit für die Herstellung eines konkurrenzfähigen „Mini-„ oder „Mikrospektrometers“ basiert auf Fabry-Pérot (FP) Filtersystemen, da hierbei die Miniaturisierung nicht wie üblich auf Gittersysteme limitiert ist. Der maßgebliche Faktor für das spektrale Auflösungsvermögen des Spektrometers ist die vertikale Präzision und Homogenität der einzelnen 3D Filterkavitäten, die die unterschiedlichen Transmissionswellenlängen der einzelnen Filter festlegen. Die wirtschaftliche Konkurrenzfähigkeit des am INA entwickelten Nanospektremeters wurde durch die maximale Reduzierung der Prozessschritte, nämlich auf einen einzigen Schritt, erreicht. Erstmalig wird eine neuartige Nanoimprint Technologie, die sog. Substrate Conformal Imprint Lithography, für die Herstellung von wellenlängen-selektierenden Filterkavitäten von stark miniaturisierten Spektrometern eingesetzt. Im Zuge dieser Arbeit wird das Design des FP Filtersystems entwickelt und technologisch mittels Dünnschichtdeposition und der Nanoimprinttechnologie realisiert. Ein besonderer Schwerpunkt liegt hierbei in der Untersuchung des Prägematerials, dessen optische Eigenschaften maßgeblich über die Performance des Filtersystems entscheiden. Mit Hilfe eines speziell gefertigten Mikroskopspektrometers werden die gefertigten Filterfelder hinsichtlich ihrer Transmissionseigenschaften und ihres Auflösungsvermögens hin untersucht. Im Hinblick auf publizierte Arbeiten konkurrierender Arbeitsgruppen konnte eine deutliche Verbesserung des miniaturisierten Spektrometers erreicht werden. Die Minimierung der Prozessschritte auf einen einzigen Prägeschritt sorgt gleichzeitig für eine schnelle und zuverlässige Replikation der wellenlängenselektierenden Filterkavitäten. Im Rahmen dieser Arbeit wurde aufgezeigt, dass das angestrebte Nanospektrometer, trotz der sehr geringen Größe, eine hohe Auflösung liefern kann und gerade wegen der starken Miniaturisierung mit kommerziellen Mini- und Mikro-spektrometern konkurrenzfähig ist.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Im Bereich von Bildung, Weiterbildung und Personalentwicklung genauso wie in klinischen und therapeutischen Kontexten stellt sich immer wieder die Frage, wie Lern- und Veränderungsprozesse bei Menschen wirksam angestoßen und intensiviert werden können. Ziel dabei ist, dass Menschen ihr Potenzial besser entfalten können. Neurobiologisch ist der Frontallappen die Region im Gehirn, die für Lern-, Entwicklungs- und Entfaltungsprozesse besonders relevant ist. Wenn dieser in Aktion ist, dann zeigen wir unser höchstes Bewusstseinsniveau, unser Selbstbewusstsein und die Fähigkeit, die Wirklichkeit aufmerksam und feinfühlig zu beobachten. Der Einsatz von vertrauten und automatischen Routinen aktiviert den für Weiterentwicklungen wichtigen Teil des menschlichen Gehirns nicht. Werden die automatisierten Programme abgerufen, werden wir von unseren Glaubenssätzen und Gewohnheiten bestimmt, die Gefühle übernehmen auf der Basis alter Lernerfahrungen die Steuerung und es entsteht nichts Neues. Mit Hilfe eines neuartigen Diagnoseverfahrens gelingt es, die relevanten Handlungsmuster und die im Laufe des Lebens durchlaufenen Lernerfahrungen objektiv messbar und transparent zu machen, um sie dann leichter zu verändern. Die Ausprägung sog. exekutiver Metakompetenzen ist das Ergebnis von bedeutsamen emotionalen Beziehungserfahrungen, die sich im Gehirn in neuronalen Verschaltungen „eingebrannt“ haben. Sie bestimmen unseren Umgang mit uns selbst wie mit anderen. Verändern können wir nur die Dinge, die wir auch wahrnehmen können. Anhand unterschiedlicher modellhafter Einsätze des Verfahrens in der Praxis, u. a. bei Projekten zur Team- und Potenzialentwicklung in zwei DAX-Unternehmen sowie im Rahmen der Beschäftigungsförderung auf kommunaler Ebene, erläutert die Dissertation die vielfältigen Einsatzmöglichkeiten und den Erkenntnisgewinn für die Beratungspraxis.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Im Rahmen der vorliegenden Arbeit werden mikroanalytische Verfahren zur Untersuchung der verschiedenen Aspekte der Rissinitiierung und –Ausbreitung unter zyklischer Belastung angewendet und gekoppelt, um somit die Informationstiefe durch Korrelation der Ergebnisse zu vergrößern. Die eingesetzten mikroanalytischen Verfahren werden auf verschiedene polykristalline Werkstoffe mit kubisch-raumzentrierter und kubisch-flächenzentierter Gitterstruktur angewendet. Dabei steht der Einfluss der Mikrostruktur auf die Ausbreitung von Ermüdungsrissen in diesen Werkstoffen im Vordergrund. Die im Rahmen dieser Arbeit untersuchten mikrostrukturellen Größen hinsichtlich der Rissinitiierung und -ausbreitung sind die Phasenverteilung, die Korngröße und –Orientierung, die plastische Verformung infolge von Versetzungsbewegungen und die lokale Beanspruchung. Die Methode der Beugung rückgestreuter Elektronen (EBSD) im Rasterelektronenmikroskop steht dabei im Vordergrund der Untersuchungen der mikrostrukturellen Größen. Zu dieser Methode werden Bildkorrelationsverfahren in ihrer Anwendung untersucht, um lokale Verformungen im Bereich der Rissspitze mikrostrukturell kurzer Risse zu erfassen. Die Kopplung der Verfahren liefert ein vertieftes Verständnis der Schädigungsprozesse bei Ermüdungsbelastung an der Oberfläche. Neben der Untersuchung oberflächenbasierter Aspekte bei der Initiierung und Ausbreitung mikro-strukturell kurzer Risse werden volumenbasierte Methoden in Form mikrocomputertomographischer Verfahren eingesetzt, um das Ausbreitungsverhalten nicht nur an der Oberfläche zu untersuchen, sondern auch zusätzlich in Tiefenrichtung. In diesem Zusammenhang werden in-situ Versuche mit hochbrillianter Röntgenstrahlung am Synchrotron SPring-8 vorgestellt und mittels Methoden der Volumenkorrelation ausgewertet. Die Kopplung der Ergebnisse aus den einzelnen analytischen Verfahren liefert ein Betrag zur Ursachenfindung von Rissinitiierung und –Ausbreitung auf mikrostruktureller Ebene sowohl für oberflächen- als auch volumenbehafte Aspekte.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Albert Einstein gilt wohl als einer der genialsten Menschen und größten Physiker aller Zeiten. Das Zitat „Es ist schwieriger, eine vorgefasste Meinung zu zertrümmern als ein Atom.“ stammte ebenfalls von ihm und verweist auf eine schier unmögliche Aufgabe. Doch bedenkt man, dass zu Einsteins Zeiten der griechische Begriff „atomos“, der dem „Atom“ seinen Namen verlieh, noch „unteilbar“ meinte, konnte (vermutlich einige Zeit nach diesem Zitat) das Unmögliche doch möglich gemacht werden. Heute, im Zeitalter der Atomenergie ist Einsteins Zitat wohl nur noch zu belächeln. Wie aber verhält es sich nun mit den vorgefassten Meinungen, mit den Stereotypen und Vorurteilen? Ist es auch heute, trotz fokussierter Anti-Diskriminierungs-Arbeit, noch nicht möglich, diese zu überwinden? Zunächst möchte ich die Begrifflichkeiten „Stereotyp“ und „Vorurteil“ in Abhängigkeit voneinander definieren. Danach soll erörtert werden, ob Stereotypen komplett erfunden sind, oder vielleicht doch einen wahren Kern besitzen. In Anlehnung an die hier dargestellten Ergebnisse, möchte ich schließlich zeigen, wie aus einem kulturellen Unterschied ein Vorurteil werden kann. Dabei stehen psychologische und soziologische Erscheinungen wie Ethnozentrismus, Wahrnehmungskonstruktion, kognitive Vereinfachung, Kategorisierung, Sozialisation und das Phänomen der selbsterfüllenden Prophezeiung im Zentrum meiner Aufmerksamkeit und sollen durch die Schilderung verschiedener Experimente ergänzt und bewiesen werden. Das vierte Kapitel soll der Relevanz von Stereotypen und Vorurteilen gelten. Dabei werde ich zuerst auf ihre allgemeinen Wirkungen und Folgen eingehen, da Vorurteile gesellschaftlich oft verpönt sind, kaum aber jemand weiß, warum. Danach möchte ich auch die Bedeutsamkeit von vorgefassten Meinungen auf Seite der Lehrer betrachten und gleichzeitig zeigen, dass niemand frei von Vorurteilen zu sein scheint. Schließlich soll auch die bildungspolitische Wichtigkeit der Abschaffung von Intoleranzen beleuchtet werden. Dazu werde ich beispielhaft die fächerübergreifenden Kompetenzen sowie den Lehrplan Französisch untersuchen. Nachdem nun die Entstehung von Vorurteilen sowie deren Bedeutung erläutert wurde, soll im darauffolgenden Kapitel gezeigt werden, wie diese abgeschafft werden können und wo die Gestaltpädagogik ansetzt. Dazu werde ich die zwölf gestaltpädagogischen Prinzipien nach Burow (1988) theoretisch auf ihre Möglichkeiten und Grenzen in der Vorurteilsüberwindung untersuchen. Diese Theorie soll schließlich auch in die Praxis umgesetzt werden. Demzufolge möchte ich in Kapitel 6 meine Erfahrungen mit Gestaltpädagogik, angewendet auf die Vorurteile französischer Schüler über Deutsche, darstellen und herausfinden, ob es tatsächlich möglich ist, Stereotypen mit Hilfe dieser Erziehungswissenschaft zu verhindern.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Die Miniaturisierung von konventioneller Labor- und Analysetechnik nimmt eine zentrale Rolle im Bereich der allgemeinen Lebenswissenschaften und medizinischen Diagnostik ein. Neuartige und preiswerte Technologieplattformen wie Lab-on-a-Chip (LOC) oder Mikrototalanalysesysteme (µTAS) versprechen insbesondere im Bereich der Individualmedizin einen hohen gesellschaftlichen Nutzen zur frühzeitigen und nichtinvasiven Diagnose krankheitsspezifischer Indikatoren. Durch den patientennahen Einsatz preiswerter und verlässlicher Mikrochips auf Basis hoher Qualitätsstandards entfallen kostspielige und zeitintensive Zentrallaboranalysen, was gleichzeitig Chancen für den globalen Einsatz - speziell in Schwellen- und Entwicklungsländern - bietet. Die technischen Herausforderungen bei der Realisierung moderner LOC-Systeme sind in der kontrollierten und verlässlichen Handhabung kleinster Flüssigkeitsmengen sowie deren diagnostischem Nachweis begründet. In diesem Kontext wird der erfolgreichen Integration eines fernsteuerbaren Transports von biokompatiblen, magnetischen Mikro- und Nanopartikeln eine Schlüsselrolle zugesprochen. Die Ursache hierfür liegt in der vielfältigen Einsetzbarkeit, die durch die einzigartigen Materialeigenschaften begründet sind. Diese reichen von der beschleunigten, aktiven Durchmischung mikrofluidischer Substanzvolumina über die Steigerung der molekularen Interaktionsrate in Biosensoren bis hin zur Isolation und Aufreinigung von krankheitsspezifischen Indikatoren. In der Literatur beschriebene Ansätze basieren auf der dynamischen Transformation eines makroskopischen, zeitabhängigen externen Magnetfelds in eine mikroskopisch veränderliche potentielle Energielandschaft oberhalb magnetisch strukturierter Substrate, woraus eine gerichtete und fernsteuerbare Partikelbewegung resultiert. Zentrale Kriterien, wie die theoretische Modellierung und experimentelle Charakterisierung der magnetischen Feldlandschaft in räumlicher Nähe zur Oberfläche der strukturierten Substrate sowie die theoretische Beschreibung der Durchmischungseffekte, wurden jedoch bislang nicht näher beleuchtet, obwohl diese essentiell für ein detailliertes Verständnis der zu Grunde liegenden Mechanismen und folglich für einen Markteintritt zukünftiger Geräte sind. Im Rahmen der vorgestellten Arbeit wurde daher ein neuartiger Ansatz zur erfolgreichen Integration eines Konzepts zum fernsteuerbaren Transport magnetischer Partikel zur Anwendung in modernen LOC-Systemen unter Verwendung von magnetisch strukturierten Exchange-Bias (EB) Dünnschichtsystemen verfolgt. Die Ergebnisse zeigen, dass sich das Verfahren der ionenbe-schussinduzierten magnetischen Strukturierung (IBMP) von EB-Systemen zur Herstellung von maßgeschneiderten magnetischen Feldlandschaften (MFL) oberhalb der Substratoberfläche, deren Stärke und räumlicher Verlauf auf Nano- und Mikrometerlängenskalen gezielt über die Veränderung der Materialparameter des EB-Systems via IBMP eingestellt werden kann, eignet. Im Zuge dessen wurden erstmals moderne, experimentelle Verfahrenstechniken (Raster-Hall-Sonden-Mikroskopie und rastermagnetoresistive Mikroskopie) in Kombination mit einem eigens entwickelten theoretischen Modell eingesetzt, um eine Abbildung der MFL in unterschiedlichen Abstandsbereichen zur Substratoberfläche zu realisieren. Basierend auf der quantitativen Kenntnis der MFL wurde ein neuartiges Konzept zum fernsteuerbaren Transport magnetischer Partikel entwickelt, bei dem Partikelgeschwindigkeiten im Bereich von 100 µm/s unter Verwendung von externen Magnetfeldstärken im Bereich weniger Millitesla erzielt werden können, ohne den magnetischen Zustand des Substrats zu modifizieren. Wie aus den Untersuchungen hervorgeht, können zudem die Stärke des externen Magnetfelds, die Stärke und der Gradient der MFL, das magnetfeldinduzierte magnetische Moment der Partikel sowie die Größe und der künstlich veränderliche Abstand der Partikel zur Substratoberfläche als zentrale Einflussgrößen zur quantitativen Modifikation der Partikelgeschwindigkeit genutzt werden. Abschließend wurde erfolgreich ein numerisches Simulationsmodell entwickelt, das die quantitative Studie der aktiven Durchmischung auf Basis des vorgestellten Partikeltransportkonzepts von theoretischer Seite ermöglicht, um so gezielt die geometrischen Gegebenheiten der mikrofluidischen Kanalstrukturen auf einem LOC-System für spezifische Anwendungen anzupassen.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Die vorliegende Arbeit beschäftigt sich mit derAutomatisierung von Berechnungen virtuellerStrahlungskorrekturen in perturbativen Quantenfeldtheorien.Die Berücksichtigung solcher Korrekturen aufMehrschleifen-Ebene in der Störungsreihenentwicklung istheute unabdingbar, um mit der wachsenden Präzisionexperimenteller Resultate Schritt zu halten. Im allgemeinen kinematischen Fall können heute nur dieEinschleifen-Korrekturen als theoretisch gelöst angesehenwerden -- für höhere Ordnungen liegen nur Teilergebnissevor. In Mainz sind in den letzten Jahren einige neuartigeMethoden zur Integration von Zweischleifen-Feynmandiagrammenentwickelt und im xloops-Paket in algorithmischer Formteilweise erfolgreich implementiert worden. Die verwendetenVerfahren sind eine Kombination exakter symbolischerRechenmethoden mit numerischen. DieZweischleifen-Vierbeinfunktionen stellen in diesem Rahmenein neues Kapitel dar, das durch seine große Anzahl vonfreien kinematischen Parametern einerseits leichtunüberschaubar wird und andererseits auch auf symbolischerEbene die bisherigen Anforderungen übersteigt. Sie sind ausexperimenteller Sicht aber für manche Streuprozesse vongroßem Interesse. In dieser Arbeit wurde, basierend auf einer Idee von DirkKreimer, ein Verfahren untersucht, welches die skalarenVierbeinfunktionen auf Zweischleifen-Niveau ganz ohneRandbedingungen an den Parameterraum zu integrierenversucht. Die Struktur der nach vier Residuenintegrationenauftretenden Terme konnte dabei weitgehend geklärt und dieKomplexität der auftretenden Ausdrücke soweit verkleinertwerden, dass sie von heutigen Rechnern darstellbar sind.Allerdings ist man noch nicht bei einer vollständigautomatisierten Implementierung angelangt. All dies ist dasThema von Kapitel 2. Die Weiterentwicklung von xloops über Zweibeinfunktionenhinaus erschien aus vielfältigen Gründen allerdings nichtmehr sinnvoll. Im Rahmen dieser Arbeit wurde daher einradikaler Bruch vollzogen und zusammen mit C. Bauer und A.Frink eine Programmbibliothek entworfen, die als Vehikel fürsymbolische Manipulationen dient und es uns ermöglicht,übliche symbolische Sprachen wie Maple durch C++ zuersetzen. Im dritten Kapitel wird auf die Gründeeingegangen, warum diese Umstellung sinnvoll ist, und dabeidie Bibliothek GiNaC vorgestellt. Im vierten Kapitel werdenDetails der Implementierung dann im Einzelnen vorgestelltund im fünften wird sie auf ihre Praxistauglichkeituntersucht. Anhang A bietet eine Übersicht über dieverwendeten Hilfsmittel komplexer Analysis und Anhang Bbeschreibt ein bewährtes numerisches Instrument.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

In this work we are concerned with the analysis and numerical solution of Black-Scholes type equations arising in the modeling of incomplete financial markets and an inverse problem of determining the local volatility function in a generalized Black-Scholes model from observed option prices. In the first chapter a fully nonlinear Black-Scholes equation which models transaction costs arising in option pricing is discretized by a new high order compact scheme. The compact scheme is proved to be unconditionally stable and non-oscillatory and is very efficient compared to classical schemes. Moreover, it is shown that the finite difference solution converges locally uniformly to the unique viscosity solution of the continuous equation. In the next chapter we turn to the calibration problem of computing local volatility functions from market data in a generalized Black-Scholes setting. We follow an optimal control approach in a Lagrangian framework. We show the existence of a global solution and study first- and second-order optimality conditions. Furthermore, we propose an algorithm that is based on a globalized sequential quadratic programming method and a primal-dual active set strategy, and present numerical results. In the last chapter we consider a quasilinear parabolic equation with quadratic gradient terms, which arises in the modeling of an optimal portfolio in incomplete markets. The existence of weak solutions is shown by considering a sequence of approximate solutions. The main difficulty of the proof is to infer the strong convergence of the sequence. Furthermore, we prove the uniqueness of weak solutions under a smallness condition on the derivatives of the covariance matrices with respect to the solution, but without additional regularity assumptions on the solution. The results are illustrated by a numerical example.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Wir untersuchen die numerische Lösung des inversen Streuproblems der Rekonstruktion der Form, Position und Anzahl endlich vieler perfekt leitender Objekte durch Nahfeldmessungen zeitharmonischer elektromagnetischer Wellen mit Hilfe von Metalldetektoren. Wir nehmen an, dass sich die Objekte gänzlich im unteren Halbraum eines unbeschränkten zweischichtigen Hintergrundmediums befinden. Wir nehmen weiter an, dass der obere Halbraum mit Luft und der untere Halbraum mit Erde gefüllt ist. Wir betrachten zuerst die physikalischen Grundlagen elektromagnetischer Wellen, aus denen wir zunächst ein vereinfachtes mathematisches Modell ableiten, in welchem wir direkt das elektromagnetische Feld messen. Dieses Modell erweitern wir dann um die Messung des elektromagnetischen Feldes von Sendespulen mit Hilfe von Empfangsspulen. Für das vereinfachte Modell entwickeln wir, unter Verwendung der Theorie des zugehörigen direkten Streuproblems, ein nichtiteratives Verfahren, das auf der Idee der sogenannten Faktorisierungsmethode beruht. Dieses Verfahren übertragen wir dann auf das erweiterte Modell. Wir geben einen Implementierungsvorschlag der Rekonstruktionsmethode und demonstrieren an einer Reihe numerischer Experimente die Anwendbarkeit des Verfahrens. Weiterhin untersuchen wir mehrere Abwandlungen der Methode zur Verbesserung der Rekonstruktionen und zur Verringerung der Rechenzeit.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

In dieser Arbeit wird ein neuer Dynamikkern entwickelt und in das bestehendernnumerische Wettervorhersagesystem COSMO integriert. Für die räumlichernDiskretisierung werden diskontinuierliche Galerkin-Verfahren (DG-Verfahren)rnverwendet, für die zeitliche Runge-Kutta-Verfahren. Hierdurch ist ein Verfahrenrnhoher Ordnung einfach zu realisieren und es sind lokale Erhaltungseigenschaftenrnder prognostischen Variablen gegeben. Der hier entwickelte Dynamikkern verwendetrngeländefolgende Koordinaten in Erhaltungsform für die Orographiemodellierung undrnkoppelt das DG-Verfahren mit einem Kessler-Schema für warmen Niederschlag. Dabeirnwird die Fallgeschwindigkeit des Regens, nicht wie üblich implizit imrnKessler-Schema diskretisiert, sondern explizit im Dynamikkern. Hierdurch sindrndie Zeitschritte der Parametrisierung für die Phasenumwandlung des Wassers undrnfür die Dynamik vollständig entkoppelt, wodurch auch sehr große Zeitschritte fürrndie Parametrisierung verwendet werden können. Die Kopplung ist sowohl fürrnOperatoraufteilung, als auch für Prozessaufteilung realisiert.rnrnAnhand idealisierter Testfälle werden die Konvergenz und die globalenrnErhaltungseigenschaften des neu entwickelten Dynamikkerns validiert. Die Massernwird bis auf Maschinengenauigkeit global erhalten. Mittels Bergüberströmungenrnwird die Orographiemodellierung validiert. Die verwendete Kombination ausrnDG-Verfahren und geländefolgenden Koordinaten ermöglicht die Behandlung vonrnsteileren Bergen, als dies mit dem auf Finite-Differenzenverfahren-basierendenrnDynamikkern von COSMO möglich ist. Es wird gezeigt, wann die vollernTensorproduktbasis und wann die Minimalbasis vorteilhaft ist. Die Größe desrnEinflusses auf das Simulationsergebnis der Verfahrensordnung, desrnParametrisierungszeitschritts und der Aufteilungsstrategie wirdrnuntersucht. Zuletzt wird gezeigt dass bei gleichem Zeitschritt die DG-Verfahrenrnaufgrund der besseren Skalierbarkeit in der Laufzeit konkurrenzfähig zurnFinite-Differenzenverfahren sind.