52 resultados para Aspekt


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Im Rahmen dieser Arbeit wurden zwei verschiedene Systeme untersucht, deren verbindende Gemeinsamkeit in den verwendeten ortsauflösenden, spektroskopischen Messmethoden der Oberflächenanalytik, wie z.B. abbildendes XPS, Röntgennahkanten-Photoemissionsmikroskopie (XANES-PEEM) und Augerspektroskopie (AES) liegt. Im ersten Teil der Arbeit wurden Diamant-Nukleationsdomänen auf Ir/SrTiO3 untersucht und mit vorherrschenden Modellen aus der Literatur verglichen. Die Nukleationsdomänen, wie sie im Mikrowellen-induzierten CVD Prozess unter Verwendung der BEN Prozedur (bias-enhanced nucleation) entstehen, bilden die „Startschicht“ für ein heteroepitaktisches Wachstum einer hoch orientierten Diamantschicht. Sie entwickeln sich aber unter Bedingungen, unter denen 3D-Diamant abgetragen und weggeätzt wird. Mittels XANES-PEEM Messungen konnte erstmals die lokale Bindungsumgebung des Kohlenstoffs in den Nukleationsdomänen ortsaufgelöst aufgezeigt werden und aus AES Messungen ließ sich die Schichtdicke der Nukleationsdomänen abschätzen. Es zeigte sich, dass die Nukleationsdomänen Bereiche mit etwa 1 nm Dicke darstellen, in denen der Übergang von eine sp2-koordinierte amorphen Kohlenstoff- zu einer Diamantschicht mit hohem sp3 Anteil abläuft. Zur Erklärung des Nukleationsprozesses wurde auf das „Clustermodell“ von Lifshitz et al. zurückgegriffen, welches um einen wesentlichen Aspekt erweitert wurde. Die Stabilität der Nukleationsdomänen gegen die Ätzwirkung des Nukleationsprozesses auf Volumendiamant wird durch eine starke Wechselwirkung zwischen dem Diamant und dem Iridiumsubstrat erklärt, wobei die Dicke von etwa 1 nm als Maß für die Ausdehnung dieses Wechselwirkungsbereichs angesehen wird. Der zweite Teil der Arbeit beschäftigt sich mit der Charakterisierung präsolarer SiC-Körner und darin eingeschlossener Spurenelemente. Neben den Hauptelementen Si und C wurden auch Spinelle wie Chromit (FeCr2O4), Korund (Al2O3) und auch verschiedene Spurenelemente (z. B. Al, Ba und Y) nachgewiesen. Ferner wurden XPS-Linien bei Energien nachgewiesen, welche sich den Seltenen Erden Erbium, Thulium und Dysprosium zuordnen lassen. Aufgrund von Abweichungen zur Literatur bzgl. der ausgeprägten Intensität der XPS-Linien, wurde als alternative Erklärungsmöglichkeit für verschiedene Signale der Nachweis von stark schwefelhaltigen Körnern (z.B. so genannte „Fremdlinge“) mit Aufladungen von mehreren Volt diskutiert. Es zeigt sich, dass abbildendes XPS und XANES-PEEM Methoden zur leistungsfähigen chemischen Charakterisierung von SiC-Körnern und anderer solarer und präsolarer Materie im Größenbereich bis herab zu 100 – 200 nm Durchmesser (z.B. als Grundlage für eine spätere massenspektrometrische Isotopenanalyse)darstellen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die (Wieder-)Nutzung auf Schwerkraft basierender Fördertechniken, die insbesondere durch das niedrige Energiepreisniveau in den Jahrzehnten nach dem 2. Weltkrieg in der Tagebautechnik nahezu vollständig verdrängt wurden, ist bei den heutigen wirtschaftlichen Randbedingungen und anzustrebenden ökologischen Standards eine Herausforderung für die bergbautreibende Industrie. Seit Aufnahme der Entwicklung des Förderkonzeptes – Geführte Versturztechnik – Mitte der 1990er Jahre haben sich die Kosten für Rohöl vor Steuern nach dem Tiefstand um das Jahr 1998 bis heute mehr als verdreifacht, alleine seit 2004 mehr als verdoppelt. Gesetzliche Regelwerke wie die europäische IVU-Richtlinie 96/61/EG zur „integrierten Vermeidung und Verminderung der Umweltverschmutzung“ fordern, Genehmigungen nur noch bei Einsatz der besten verfügbaren Techniken (BVT oder BAT: „best available techniques“) zu erteilen. Die Umsetzung in nationale Vorschriften wie das Bundes-Immissionsschutzgesetz und nachgeordnete Regelwerke fordern hierauf aufbauend, dass Umweltbelastungen nicht in andere Medien verlagert werden dürfen. Die Anordnung einer Versturzrinne zur Nutzung von Massenschwerebewegungen am Beispiel von Quarzitabbau im Rheinischen Schiefergebirge bei denen die Förderbezugsebene unterhalb der Strossen liegt, die zur sichern und selektiven Gewinnung des Rohstoffs aufgefahren werden müssen, erfüllt durch Rückgriff auf ein vermeintlich „archaisches“ Förderkonzept durch Nutzung der Schwerkraft die obigen Anforderungen. Offenkundige Umweltbelastungen, die alleine durch die Verbrennung von Dieselkraftstoff und hieraus resultierender Schadstoff- und Wärmeeinträge in die Luft beim verbreiteten Einsatz von SLKW zur Abwärtsförderung entstehen, können erheblich vermindert werden. Der Aspekt der Betriebssicherheit einer solchen Anordnung kann durch Auffahren eines geradlinigen Bauwerks mit an das Fördergut angepassten Dimensionen sowie Einrichtungen zur Beschränkung der kinetischen Energie erreicht werden. Diese stellen auch gleichzeitig sicher, dass die Zerkleinerung des durch die Versturzrinne abwärts transportierten Materials betrieblich zulässige Grenzen nicht überschreitet. Hierfür kann auf das umfangreiche Wissen zu Massenschwerebewegungen Rückgriff genommen werden. Dem Aspekt des Umweltschutzes, der sich in Bezug auf das Medium Luft auf den autochtonen Staub reduziert, kann durch Vorrichtungen zur Staubniederschlagung Rechnung getragen werden. Vertiefende Untersuchungen sind erforderlich, um die mit komplexen, aber erprobten Techniken arbeitende Tagebauindustrie auch in dicht besiedelten Regionen wieder an die Nutzung von Schwerkraft (-gestützten) Fördertechniken heranzuführen. Auch das Konzept – Geführte Versturztechnik – ist auf konkrete Anwendungsfälle hin in Details anzupassen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In this thesis a mathematical model was derived that describes the charge and energy transport in semiconductor devices like transistors. Moreover, numerical simulations of these physical processes are performed. In order to accomplish this, methods of theoretical physics, functional analysis, numerical mathematics and computer programming are applied. After an introduction to the status quo of semiconductor device simulation methods and a brief review of historical facts up to now, the attention is shifted to the construction of a model, which serves as the basis of the subsequent derivations in the thesis. Thereby the starting point is an important equation of the theory of dilute gases. From this equation the model equations are derived and specified by means of a series expansion method. This is done in a multi-stage derivation process, which is mainly taken from a scientific paper and which does not constitute the focus of this thesis. In the following phase we specify the mathematical setting and make precise the model assumptions. Thereby we make use of methods of functional analysis. Since the equations we deal with are coupled, we are concerned with a nonstandard problem. In contrary, the theory of scalar elliptic equations is established meanwhile. Subsequently, we are preoccupied with the numerical discretization of the equations. A special finite-element method is used for the discretization. This special approach has to be done in order to make the numerical results appropriate for practical application. By a series of transformations from the discrete model we derive a system of algebraic equations that are eligible for numerical evaluation. Using self-made computer programs we solve the equations to get approximate solutions. These programs are based on new and specialized iteration procedures that are developed and thoroughly tested within the frame of this research work. Due to their importance and their novel status, they are explained and demonstrated in detail. We compare these new iterations with a standard method that is complemented by a feature to fit in the current context. A further innovation is the computation of solutions in three-dimensional domains, which are still rare. Special attention is paid to applicability of the 3D simulation tools. The programs are designed to have justifiable working complexity. The simulation results of some models of contemporary semiconductor devices are shown and detailed comments on the results are given. Eventually, we make a prospect on future development and enhancements of the models and of the algorithms that we used.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Der Wandel der bildungspolitischen Ansichten der Weltbank. In dieser Arbeit wird dargestellt, welchen Stellenwert das Thema Bildung in der Politik der Weltbank von 1962 bis heute besessen hat und welche Prioritätensetzung es in der Förderung von Bildungsprojekten zu welchem Zeitpunkt gab. Nach diesen Kriterien werden fünf Phasen in der Bildungspolitik der Weltbank unterschieden. In der ersten Phase (1962 bis Ende der 1970er Jahre) ist ein geringes Interesse der Weltbank am Bildungssektor und ein fehlendes Gesamtkonzept ihrer Bildungspolitik erkennbar. Gefördert wurden in dieser Zeit hauptsächlich Sekundar- und Hochschulbildung. Die zweite Phase (Ende der 1970er Jahre bis 1987) zeichnet sich durch die Förderung von Primarschulbildung und durch einen geringen Bedeutungsgewinn des Themas Bildung als einen entwicklungspolitischen Faktor aus. In der dritten Phase (1987 bis Mitte der 1990er Jahre) wurde der Schwerpunkt der Förderung der Weltbank im Bereich Primarschulförderung um die Bereiche Sekundar- und Hochschulförderung ergänzt. Da Bildung nur als ein Aspekt des Ziels der Armutsbekämpfung betrachtet wurde, mangelte es in der vierten Phase (Mitte bis Ende der 1990er Jahre) an einem eigenständigen Konzept für die Förderung des Bildungssektors. In dieser Zeit war nur eine leichte Schwerpunktsetzung in den Primarschulbereich erkennbar. In der fünften Phase (ab dem Jahre 2000) setzt die Weltbank in der Förderung wieder auf eine Kombination von Primar-, Sekundar- und Hochschulbildung. Bildung wird nun als ein eigenständiges Ziel der Entwicklungszusammenarbeit angesehen. Bei der Betrachtung des Wandels der bildungspolitischen Ansichten der Weltbank wird die additive Politik der Weltbank deutlich. Alte Strategien werden nicht komplett verworfen, sondern lediglich neue Aspekte und Schwerpunktsetzungen in die alten Konzepte eingeflochten. Außerdem sind eine Widersprüchlichkeit in der Bildungspolitik, das Fehlen eines langfristigen Konzeptes, große Unterschiede zwischen den theoretischen Konzepten und der Umsetzung der Bildungspolitik der Weltbank zu erkennen. Festzuhalten ist, dass das Thema Bildung von 1962 bis heute in der Politik der Weltbank stark an Bedeutung hinzugewonnen hat.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Welche Literatur liegt im Trend? Welche Aktionen und Instrumente bietet der Markt, um Bücher an den Leser zu vermitteln? Wie lässt sich das gegenwärtige Literaturverständnis beschreiben – auch in Abgrenzung und im Vergleich zu den etablierten Literaturtheorien? Diese allgemeinen Fragen wurden in der vorliegenden Arbeit spezialisiert und auf Schwerpunkte konzentriert. In den Vordergrund rückte – unter dem Aspekt des Zeitgeistphänomens – die junge deutsche Literatur, auf die bei diesem Projekt aus persönlichem Interesse heraus der Fokus gelegt wurde. Erforscht wurde, welche Bücher, Themen und Autoren zeitweise populär waren, wie es um Status und Selbstpräsentation letztgenannter bestellt war und ist. Als Beispiele zu nennen sind Benjamin von Stuckrad-Barre und Florian Illies, beide sich ihres (Markt-)Wertes wohl bewusste Vertreter der Pop- und Generationsliteratur, die in den letzten Jahren einen Boom erlebte. Beide Schriftsteller wurden mit ihren Werken einer detailgenauen Analyse unterzogen. Spricht man über Literatur, ist es unumgänglich, das – vorherrschende – nicht unproblematische Literaturverständnis zu durchleuchten. Galten Bücher einst als Status- und Bildungssymbol, ist von dieser Wertschätzung und von solch hohem Prestige heute nicht mehr allzu viel vorhanden. Das Erarbeiten eines Literaturbegriffs bot sich in der Auseinandersetzung mit in der Germanistik gängigen Theorien an (z. B. Empirische Theorie der Literatur nach S. J. Schmidt). Reduzierte man (als ein Ergebnis) Leistung und Wert von Literatur tatsächlich nur noch auf reine, unkomplizierte und schnelllebige Unterhaltung, führte dies zwangsweise zur Frage nach einer Medienkonkurrenz in erster Linie mit dem Fernsehen, dann mit dem Computer und seinen Möglichkeiten. Im dritten und letzten Abschnitt der Arbeit wurde anhand von ausgewählten Beispielen dargestellt, wie das gegenwärtige Literaturverständnis mit dem Markt konform geht, sprich welche Aktionen an der Schnittstelle Markt – Leser stattfinden, mit denen letztere auf Literatur aufmerksam gemacht und zum Lesen animiert werden sollen. In diesem Rahmen wurde u. a. das System der Literaturkritik knapp beschrieben und anhand von drei aktuellen Rezensionsbeispielen veranschaulicht.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Analyse funktioneller Zusammenhänge zwischen Ernährung und Zahnmorphologie ist ein wichtiger Aspekt primatologischer und paläontologischer Forschung. Als überdauernder Teil des Verdauungssystems geben Zähne die bestmöglichen Hinweise auf die Ernährungsstrategien (ausgestorbener) Arten und eine Fülle weiterer Informationen. Aufgrund dessen ist es für die wissenschaftliche Arbeit von größter Bedeutung, die Zähne so detailliert und exakt wie möglich in ihrer gesamten Struktur zu erfassen. Bisher wurden zumeist zweidimensionale Parameter verwendet, um die komplexe Kronenmorphologie von Primatenmolaren vergleichend zu untersuchen. Die vorliegende Arbeit hatte das Ziel, Zähne verschiedener Arten von Altweltaffen mittels computerbasierter Methoden dreidimensional zu erfassen und neue Parameter zu definieren, mit denen die Form dieser Zähne objektiv erfasst und funktionell interpretiert werden kann. Mit einem Oberflächen-Scanner wurden die Gebisse einer Stichprobe von insgesamt 48 Primaten von fünf verschiedenen Arten eingescannt und mit Bildverarbeitungsmethoden so bearbeitet, dass dreidimensionale digitale Modelle einzelner Backenzähne zur Analyse vorlagen. Es wurden dabei sowohl Arten ausgewählt, die eine für ihre Gattung typische Ernährungsweise besitzen - also Frugivorie bei den Cercopithecinen und Folivorie bei den Colobinen - als auch solche, die eine davon abweichende Alimentation bevorzugen. Alle Altweltaffen haben sehr ähnliche Molaren. Colobinen haben jedoch höhere und spitzere Zahnhöcker, dünneren Zahnschmelz und scheinen ihre Zähne weniger stark abzukauen als die Meerkatzen. Diese Beobachtungen konnten mit Hilfe der neuen Parameter quantifiziert werden. Aus der 3D-Oberfläche und der Grundfläche der Zähne wurde ein Index gebildet, der die Stärke des Oberflächenreliefs angibt. Dieser Index hat bei Colobinen deutlich höhere Werte als bei Cercopithecinen, auch bei Zähnen, die schon stark abgekaut sind. Die Steilheit der Höcker und ihre Ausrichtung wurden außerdem gemessen. Auch diese Winkelmessungen bestätigten das Bild. Je höher der Blätteranteil an der Ernährung ist, desto höher sind die Indexwerte und umso steiler sind die Höcker. Besonders wichtig war es, dies auch für abgekaute Zähne zu bestätigen, die bisher nicht in funktionelle Analysen miteinbezogen wurden. Die Ausrichtung der Höckerseiten gibt Hinweise auf die Kaubewegung, die zum effizienten Zerkleinern der Nahrung notwendig ist. Die Ausrichtung der Höcker der Colobinen deutet darauf hin, dass diese Primaten flache, gleitende Kaubewegungen machen, bei denen die hohen Höcker aneinander vorbei scheren. Dies ist sinnvoll zum Zerschneiden von faserreicher Nahrung wie Blättern. Cercopithecinen scheinen ihre Backenzähne eher wie Mörser und Stößel zu verwenden, um Früchte und Samen zu zerquetschen und zu zermahlen. Je nachdem, was neben der hauptsächlichen Nahrung noch gekaut wird, unterscheiden sich die Arten graduell. Anders als bisher vermutet wurde, konnte gezeigt werden, dass Colobinen trotz des dünnen Zahnschmelzes ihre Zähne weniger stark abkauen und weniger Dentin freigelegt wird. Dies gibt eindeutige Hinweise auf die Unterschiede in der mechanischen Belastung, die während des Kauvorgangs auf die Zähne wirkt, und lässt sich gut mit der Ernährung der Arten in Zusammenhang bringen. Anhand dieser modellhaften Beobachtungen können in Zukunft ausgestorbene Arten hinsichtlich ihrer Ernährungsweise mit 3D-Techniken untersucht werden.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Der irische Buchmarkt als Teil des englischsprachigen Buchmarktes ist stark von der Geschichte des Landes geprägt. Die Fremdbestimmung im Rahmen des Commonwealth unterdrückte eine eigenständige Verlagslandschaft bis weit ins 20. Jahrhundert hinein. Mit der Unabhängigkeit des irischen Staates stieg die Anzahl der Verlage langsam aber stetig an. In den 70er Jahren kam die irische Verlagslandschaft zu einem fast explosionsartigen Erblühen. Die Gründung des Verlegerverbandes Clé war einer von vielen Schritten, um den nationalen Buchmarkt von der Dominanz britischer Bücher in Buchhandlungen und Bibliotheken zu emanzipieren. Die Nachfrage nach Irish-Interest-Titeln ist im Inland hoch. Britische Verlage hatten bis dato diesen Bedarf übersehen, und so füllten irische Verlage diese Nische. Die Einführung eines von Großbritannien unabhängigen Lehrplans führte zur Etablierung eines eigenständigen Schulbuchmarktes, inklusive Lehrwerke zur irischen Sprache bzw. Titel auf Irisch. Irische Verlage sind in ihrem Programm größtenteils breit aufgestellt und selten spezialisiert. Sie sind erstaunlich häufig unabhängige mittelständische Unternehmen. Nur wenige Verlage sind staatlich geführt oder gehören ausländischen Konzernen an. Auch der stationäre Buchhandel ist überwiegend eigenständig, da die – vor dem Wirtschaftsboom wenig kaufkräftige - Republik von den expandierenden britischen Buchhandelsketten vernachlässigt wurde. Erst nach dem Wirtschaftsboom und dem damit verbundenen soziokulturellen Wandel von einer traditionellen Agrar- hin zu einer modernen Informationsgesellschaft stiegen die Umsätze mit Büchern stark an. Sobald der Buchmarkt eine nennenswerte wirtschaftliche Größe erreichte, eröffneten britische Buchhandlungen Filialen in irischen Städten. Sie vermochten jedoch nicht, die Sortimentsvielfalt der irischen Buchhandelslandschaft zu zerstören. Die fehlende Buchpreisbindung ist keine Bedrohung der Titelvielfalt, da Handelsformen wie Buchclubs, Supermärkte und Internethandel – die mit teils aggressivem Preismarketing arbeitenden Nebenmärkte – hier nur eine Randexistenz führen. In diesem Fall wandelt sich die geringe (Umsatz-) Größe und damit Attraktivität des Buchmarktes zum Vorteil. Die staatliche Kulturförderung ist ein bedeutender Beitrag zum Verlegen von Literatur, die wirtschaftlich gerechnet keine Daseinsberechtigung hätte. Irische Verleger mit relativ geringem Budget sind nicht in der Lage, solche unökonomischen Titel mit dem finanziellen Erfolg eines Bestsellers in Mischkalkulation aufzufangen. Hier greift die staatliche Unterstützung. Die Subventionierung von Titeln über die irischen Sprache bzw. von Literatur auf Irisch führte zur Herausbildung eines Marktsektors, der vor der Staatsgründung nicht existierte. Die Übersetzungsförderung verstärkt die Verbreitung von bis dato unbekannter irischer Literatur im Ausland und stimuliert das Lizenzgeschäft. Die aktuelle staatliche Kulturpolitik setzt ihren Schwerpunkt auf Marketing, PR sowie Nachfolgeregelung und fördert so nachhaltig statt bloß in Form einer kurzlebigen Titelsubvention. Eine noch mehr in die Zukunft gerichtete Förderung würde genauso wie die Unterstützung von Fortbildungsmaßnahmen zu besseren wirtschaftlichen Rahmenbedingungen führen. Auch wenn die nationale Verlagsszene im Aufschwung begriffen ist, befindet sich der irische Buchmarkt insgesamt in fester Hand der britischen Verlagsproduktion. Der britische Buchmarkt mit seinen multinationalen und finanzkräftigen Verlagen lebt vom Export. Aus Sicht von Großbritannien ist heutzutage der Nachbar Irland, einst Teil des britischen Buchmarktes, einer der besten Kunden. Dieser Aspekt bezieht sich nicht nur auf die langjährig entwickelten Handelsbeziehungen. In kulturellen Aspekten orientiert sich Irland stark am britischen Vorbild: Ein britischer Bestseller wird fast immer auch ein Bestseller in Irland. Lediglich Irish-Interest-Titel durchbrechen diesen Automatismus. Während Irish Interest im Inland hohe Umsätze vorweist, sind diese Titel im Ausland lediglich ein Nischenprodukt. Zusätzlich müssen irische Verlage außerhalb des Landes mit britischen und US-amerikanischen Verlagen in Konkurrenz treten, die ebenfalls Irish-Interest-Titel für die irische Diaspora anbieten. Es besteht daher nur eine geringe Chance, erfolgreich am globalen englischsprachigen Buchmarkt mitzuwirken. Bis dato haben Versuche, dem irischen Buchmarkt durch Export zu Umsatzwachstum zu verhelfen, keinen nennenswerten Erfolg gebracht. Lediglich auf dem Gebiet der populären Literatur und in Form von Kooperationen mit britischen Verlagskonzernen vermögen irische Verlage, am internationalen Buchhandel teilzuhaben.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

We have performed Monte Carlo and molecular dynamics simulations of suspensions of monodisperse, hard ellipsoids of revolution. Hard-particle models play a key role in statistical mechanics. They are conceptually and computationally simple, and they offer insight into systems in which particle shape is important, including atomic, molecular, colloidal, and granular systems. In the high density phase diagram of prolate hard ellipsoids we have found a new crystal, which is more stable than the stretched FCC structure proposed previously . The new phase, SM2, has a simple monoclinic unit cell containing a basis of two ellipsoids with unequal orientations. The angle of inclination is very soft for length-to-width (aspect) ratio l/w=3, while the other angles are not. A symmetric state of the unit cell exists, related to the densest-known packings of ellipsoids; it is not always the stable one. Our results remove the stretched FCC structure for aspect ratio l/w=3 from the phase diagram of hard, uni-axial ellipsoids. We provide evidence that this holds between aspect ratios 3 and 6, and possibly beyond. Finally, ellipsoids in SM2 at l/w=1.55 exhibit end-over-end flipping, warranting studies of the cross-over to where this dynamics is not possible. Secondly, we studied the dynamics of nearly spherical ellipsoids. In equilibrium, they show a first-order transition from an isotropic phase to a rotator phase, where positions are crystalline but orientations are free. When over-compressing the isotropic phase into the rotator regime, we observed super-Arrhenius slowing down of diffusion and relaxation, and signatures of the cage effect. These features of glassy dynamics are sufficiently strong that asymptotic scaling laws of the Mode-Coupling Theory of the glass transition (MCT) could be tested, and were found to apply. We found strong coupling of positional and orientational degrees of freedom, leading to a common value for the MCT glass-transition volume fraction. Flipping modes were not slowed down significantly. We demonstrated that the results are independent of simulation method, as predicted by MCT. Further, we determined that even intra-cage motion is cooperative. We confirmed the presence of dynamical heterogeneities associated with the cage effect. The transit between cages was seen to occur on short time scales, compared to the time spent in cages; but the transit was shown not to involve displacements distinguishable in character from intra-cage motion. The presence of glassy dynamics was predicted by molecular MCT (MMCT). However, as MMCT disregards crystallization, a test by simulation was required. Glassy dynamics is unusual in monodisperse systems. Crystallization typically intervenes unless polydispersity, network-forming bonds or other asymmetries are introduced. We argue that particle anisometry acts as a sufficient source of disorder to prevent crystallization. This sheds new light on the question of which ingredients are required for glass formation.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Im Zentrum der vorliegenden Untersuchung steht die Nutzung von Medizinalpflanzen vor dem Hintergrund einer zurückgehenden Phytodiversität in Nordbenin. Die Dissertation ba-siert auf ethnologischen Forschungen, die in das interdisziplinäre Forschungsprojekt BIOTA (Biodiversity Monitoring Transect Analysis in Africa) eingebunden sind. Das BIOTA-Projekt untersucht die Wirkung menschlichen Handelns (insbesondere Nutzung) auf die Biodiversi-tät und versucht aus diesen Erkenntnissen Maßnahmen zum Erhalt der biologischen Vielfalt abzuleiten. Die vorliegende Studie basiert auf einem 13-monatigen Feldforschungsaufenthalt im Zeitraum von April 2004 bis August 2006 in der nordbeninischen Gemeinde Ouassa-Pehunco. Meine Informanten sind überwiegend traditionelle Heiler, mit denen ich standardi-sierte und offene Interviews durchführte, deren Behandlungsverfahren und Heilzeremonien ich teilnehmend beobachtete sowie dokumentierte und auf deren Initiative hin ich mich bei dem Aufbau eines Medizinalpflanzengartens einbrachte (cf. Kap. 1). In diesem Forschungsfeld situiere ich mich mit der Frage nach dem Einfluss einer verän-derten Pflanzenvielfalt auf die traditionelle medizinische Versorgung der Baatombu Nordbe-nins. Die Beantwortung dieser Frage erfolgt in mehreren Schritten. 1. Die Phytodiversität nimmt, wie von naturwissenschaftlicher Seite bestätigt, in der Region ab. 2. Lokale Heilkun-dige nehmen diesen Rückgang an verfügbaren Heilpflanzen ebenso wahr. 3. Die Abnahme der Pflanzenbestände führen die Heiler vor allem auf den Baumwollanbau und die demogra-fischen Entwicklungen der Region zurück - dies entspricht ebenfalls den Auffassungen von Naturwissenschaftlern, die eine Verdichtung der landwirtschaftlichen Bodennutzung fest-stellten. 4. Heilkundige und Heilpflanzenverkäuferinnen vermerken eine zunehmende Nach-frage nach lokaler Pflanzenmedizin aufgrund der steigenden Bevölkerungszahlen. 5. Die pflanzenbasierte Gesundheitsversorgung der lokalen Bevölkerung ist jedoch relativ gesi-chert, da die Heiler sich alternativ wirkender Medizinalpflanzen bedienen, ihre Therapiefor-men der veränderten Lage anpassen (z.B. geringere Dosierungen) und sie regelmäßig genutz-te Pflanzen im Medizinalpflanzengarten Guson wieder anpflanzen. Ein wichtiger Aspekt der Arbeit ist, dass die Heilpraktiken der Baatombu nicht allein auf naturheilkundlichem Erfahrungswissen beruhen, sondern in magisch-religiöse Vorstellungen eingebettet sind (cf. Kap. 2). Demzufolge untersuche ich die lokalen Krankheits- und Ge-sundheitsvorstellungen und die symbolischen Klassifikationen von Heilpflanzen und Krank-heiten (cf. Kap. 3). Ich stellte fest, dass nach Auffassung von Heilkundigen soziokulturelle Faktoren wie der Zeitpunkt und der Ort einer Sammlung sowie entsprechende Ernte-Rituale die medizinische Wirksamkeit von Pflanzen maßgeblich bedingen (cf. Kap. 5). Die Umwelt-klassifikation der Heiler (Landschafts- und Vegetationstypen) richtet sich demzufolge nach dem medizinischen Wert, den sie einer Heilpflanze zuschreiben (cf. Kap.4). Basierend auf diesen Erkenntnissen wurde von einigen engagierten Heilern und mit Un-terstützung von BIOTA, der GTZ und der Deutschen Botschaft der Medizinalpflanzengarten Guson eingerichtet, der eine Antwort auf die regionale Ressourcenverknappung darstellt und in seiner Anlage dem lokalen ökologischen und heilkundlichen Wissen der Heiler entspricht (cf. Kap. 6). Den Anwendungsbezug der Forschung nutzten die Heiler, um sich als Interes-sensgemeinschaft für den Erhalt der benötigten pflanzlichen Ressourcen einzusetzen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Der Ökotourismus hat sich in den letzten Jahren zu einer Tourismussparte entwickelt, die nicht nur immer mehr Interessenten unter den Nutzern findet, sondern auch vielfältige Forschungsmöglichkeiten eröffnet.rnAus interdisziplinärer Betrachtungsweise kann man sowohl in den Gebieten der Biologie, der Wirtschaft, der Geographie, aber auch der Politik forschend tätig werden. rnDa der Tourismus in den letzten Jahren eine immer größere Bedeutung gerade für Länder mit weitestgehend intakten Naturressourcen erlangt hat, stellt sich die Frage inwieweit die Wirtschaft eines Landes auf diese Einnahmequelle angewiesen ist und ob nicht die ökologischen Belange immer weiter in den Hintergrund treten.rnAus diesem Ansatz heraus erfolgte zunächst eine qualitative und quantitative Bestandsaufnahme, die ein klares Bild vom derzeitigen Zustand in der Region ermöglicht. Darüber hinaus werden im Rahmen der Untersuchungen Zukunftsperspektiven aufgezeigt. Diese sollen verdeutlichen, inwieweit man steuernd in solche dynamischen Entwicklungsprozesse eingreifen kann oder soll.rnDie Schwerpunkte dieser Arbeit liegen in dem Bereich der Befragung von Touristen und in der Ausarbeitung eines digitalen Geländemodells zur späteren Nutzung in einem aufzubauenden Nationalpark-Infozentrum. Auf der Grundlage dieser Untersuchungen wurde ein touristisches Nutzungskonzept entwickelt und auf seine ökologischen Umsetzungschancen hin untersucht. Der Aspekt des Ökotourismus wird einleitend erörtert und definiert. Anschließend werden die Potenziale der norwegischen Tourismuswirtschaft untersucht. Die Befragungsergebnisse sowohl der norwegischen Besucher als auch der ausländischen Touristen werden in verschiedenen Korrelationen näher untersucht.rnEin gesonderter Bereich der Untersuchungen gilt dem Problemfeld des Wildcampings in Norwegen. Die dramatischen Entwicklungen der letzten Jahre rufen immer mehr Aktivisten auf den Plan. Da die Deutschen die größte Besuchergruppe darstellen, wurden innerhalb der Jahre 2003 bis 2006 Einzelinterviews geführt, um einen Überblick über das Übernachtungsverhalten der Deutschen in Norwegen gewinnen zu können. In den vergangenen 10 Jahren sind die deutschen Besucherzahlen in Norwegen leicht rückläufig, während die der Niederländer kontinuierlich steigen.rnAuf diesen Ergebnissen basierend wurden problemzentrierte Interviews mit Wohnmobilreisenden, der größten Gruppe der Individualreisenden, durchgeführt. rnMehr als 600.000 Nächte pro Jahr verbrachten die deutschen Wohnmobilreisenden außerhalb der Campingplätze, was ökologische und ökonomische Auswirkungen hat und nicht mehr mit dem in Norwegen geltenden „Allemansrett“, dem Jedermannsrecht, vereinbar ist. rnGerade die Touristen, die mit dem Wohnmobil reisen, können nur schwer mit anderen Reisenden verglichen werden, da sie mit einer völlig anderen Reiseauffassung mehr oder weniger autark unterwegs sind. Dabei legen sie besonders große Distanzen zurück und haben sich zum Ziel gesetzt, möglichst viel in kurzer Zeit zu sehen und zu erleben. Für alle Touristengruppen wurde untersucht, auf welchem Weg die Informationen für die geplante Reise beschafft wurden. Der Reiseführer ist der hauptsächliche Informationslieferant und ist teilweise für das Verhalten der Urlauber mitverantwortlich. Es konnte festgestellt werden, dass das Image des Landes und die Reisemotive das Reiseverhalten und die Wahrnehmung determinieren. Eine Untersuchung der so genannten Pull- und Push-Faktoren ergab, dass die nahezu noch unberührte Natur, die raue Landschaft sowie Ruhe und Erholung die entscheidenden Pull-Faktoren für Norwegenreisende sind. Dabei überprägt das Image Norwegens als „wildes Naturland“ die Wahrnehmung für verschiedene Problembereiche, die in Norwegen, wie auch in vielen anderen Ländern Europas, durchaus vorhanden sind. rnProblemfelder, wie Landschaftsausbeutung, Wildcamping, reduziertes Konsumverhalten und damit einhergehende rückläufige Besucherzahlen, können aber durch innovative Tourismuskonzepte und neue Reiseformen abgebaut werden. Hierbei sind Medien, wie Reiseführer, Internet und Reisemagazine, in die Pflicht zu nehmen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This thesis studies molecular dynamics simulations on two levels of resolution: the detailed level of atomistic simulations, where the motion of explicit atoms in a many-particle system is considered, and the coarse-grained level, where the motion of superatoms composed of up to 10 atoms is modeled. While atomistic models are capable of describing material specific effects on small scales, the time and length scales they can cover are limited due to their computational costs. Polymer systems are typically characterized by effects on a broad range of length and time scales. Therefore it is often impossible to atomistically simulate processes, which determine macroscopic properties in polymer systems. Coarse-grained (CG) simulations extend the range of accessible time and length scales by three to four orders of magnitude. However, no standardized coarse-graining procedure has been established yet. Following the ideas of structure-based coarse-graining, a coarse-grained model for polystyrene is presented. Structure-based methods parameterize CG models to reproduce static properties of atomistic melts such as radial distribution functions between superatoms or other probability distributions for coarse-grained degrees of freedom. Two enhancements of the coarse-graining methodology are suggested. Correlations between local degrees of freedom are implicitly taken into account by additional potentials acting between neighboring superatoms in the polymer chain. This improves the reproduction of local chain conformations and allows the study of different tacticities of polystyrene. It also gives better control of the chain stiffness, which agrees perfectly with the atomistic model, and leads to a reproduction of experimental results for overall chain dimensions, such as the characteristic ratio, for all different tacticities. The second new aspect is the computationally cheap development of nonbonded CG potentials based on the sampling of pairs of oligomers in vacuum. Static properties of polymer melts are obtained as predictions of the CG model in contrast to other structure-based CG models, which are iteratively refined to reproduce reference melt structures. The dynamics of simulations at the two levels of resolution are compared. The time scales of dynamical processes in atomistic and coarse-grained simulations can be connected by a time scaling factor, which depends on several specific system properties as molecular weight, density, temperature, and other components in mixtures. In this thesis the influence of molecular weight in systems of oligomers and the situation in two-component mixtures is studied. For a system of small additives in a melt of long polymer chains the temperature dependence of the additive diffusion is predicted and compared to experiments.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In dieser Arbeit werden vier unterschiedliche, stark korrelierte, fermionische Mehrbandsysteme untersucht. Es handelt sich dabei um ein Mehrstörstellen-Anderson-Modell, zwei Hubbard-Modelle sowie ein Mehrbandsystem, wie es sich aus einer ab initio-Beschreibung für ein korreliertes Halbmetall ergibt.rnrnDie Betrachtung des Mehrstörstellen-Anderson-Modells konzentriert sich auf die Untersuchung des Einflusses der Austauschwechselwirkung und der nicht-lokalen Korrelationen zwischen zwei Störstellen in einem einfach-kubischen Gitter. Das zentrale Resultat ist die Abstandsabhängigkeit der Korrelationen der Störstellenelektronen, welche stark von der Gitterdimension und der relativen Position der Störstellen abhängen. Bemerkenswert ist hier die lange Reichweite der Korrelationen in der Diagonalrichtung des Gitters. Außerdem ergibt sich, dass eine antiferromagnetische Austauschwechselwirkung ein Singulett zwischen den Störstellenelektronen gegenüber den Kondo-Singuletts der einzelnen Störstellen favorisiert und so den Kondo-Effekt der einzelnen Störstellen behindert.rnrnEin Zweiband-Hubbard-Modell, das Jz-Modell, wird im Hinblick auf seine Mott-Phasen in Abhängigkeit von Dotierung und Kristallfeldaufspaltung auf dem Bethe-Gitter untersucht. Die Entartung der Bänder ist durch eine unterschiedliche Bandbreite aufgehoben. Wichtigstes Ergebnis sind die Phasendiagramme in Bezug auf Wechselwirkung, Gesamtfüllung und Kristallfeldparameter. Im Vergleich zu Einbandmodellen kommen im Jz-Modell sogenannte orbital-selektive Mott-Phasen hinzu, die, abhängig von Wechselwirkung, Gesamtfüllung und Kristallfeldparameter, einerseits metallischen und andererseits isolierenden Charakter haben. Ein neuer Aspekt ergibt sich durch den Kristallfeldparameter, der die ionischen Einteilchenniveaus relativ zueinander verschiebt, und für bestimmte Werte eine orbital-selektive Mott-Phase des breiten Bands ermöglicht. Im Vergleich mit analytischen Näherungslösungen und Einbandmodellen lassen sich generische Vielteilchen- und Korrelationseffekte von typischen Mehrband- und Einteilcheneffekten differenzieren.rnrnDas zweite untersuchte Hubbard-Modell beschreibt eine magneto-optische Falle mit einer endlichen Anzahl Gitterplätze, in welcher fermionische Atome platziert sind. Es wird eine z-antiferromagnetische Phase unter Berücksichtigung nicht-lokaler Vielteilchenkorrelationen erhalten, und dabei werden bekannte Ergebnisse einer effektiven Einteilchenbeschreibung verbessert.rnrnDas korrelierte Halbmetall wird im Rahmen einer Mehrbandrechnung im Hinblick auf Korrelationseffekte untersucht. Ausgangspunkt ist eine ab initio-Beschreibung durch die Dichtefunktionaltheorie (DFT), welche dann durch die Hinzunahme lokaler Korrelationen ergänzt wird. Die Vielteilcheneffekte werden an Hand einer einfachen Wechselwirkungsnäherung verdeutlicht, und für ein Wechselwirkungsmodell in sphärischer Symmetrie präzisiert. Es ergibt sich nur eine schwache Quasiteilchenrenormierung. Besonders für röntgenspektroskopische Experimente wird eine gute Übereinstimmung erzielt.rnrnDie numerischen Ergebnisse für das Jz-Modell basieren auf Quanten-Monte-Carlo-Simulationen im Rahmen der dynamischen Molekularfeldtheorie (DMFT). Für alle anderen Systeme wird ein Mehrband-Algorithmus entwickelt und implementiert, welcher explizit nicht-diagonale Mehrbandprozesse berücksichtigt.rnrn

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Im Rahmen dieser Arbeit wurden zunächst die Grundlagen der Reaktivester-Chemiernuntersucht. Hierfür wurden verschiedenste Reaktivester-Monomere synthetisiert undrnmittels kontrolliert radikalischer Polymerisation polymerisiert. Diese Polymerernkonnten mit engen Molekulargewichtsverteilungen und vorherbestimmbarenrnMolekulargewichten dargestellt werden. Die daraus erhaltenen Kenntnisse wurdenrnauf verschiedene Bereiche angewendet.rnZum einen wurden auflösbare Netzwerke dargestellt. Dazu wurde 2,3,5,6-Tetrafluor-rn1,4-phenyldiacrylat synthetisiert. Durch die Verwendung eines reaktiven Vernetzersrnwurden Gele hergestellt, die durch den Einfluss von Nukleophilen gezielt auflösbarrnsind.rnAußerdem wurden erstmalig Blockcopolymer-Strukturen aus Poly(ethylenglycol),rnOligo(p-benzamid)en (OPBA) und Reaktivester-Polymeren synthetisiert. Diernpolymeranaloge Umsetzung des Reaktivesterblocks sollte zu stimuli responsivenrnSystemen führen, die durch thermischen Einfluss den Volumenanspruch verändernrnund somit das Aggregationsverhalten der OPBA bestimmen sollten.rnEin weiterer Aspekt war die Synthese von orthogonal funktionalisierbarenrnBlockcopolymeren, die durch Kombination von ringöffnender Polymerisation vonrnLactonen und RAFT Polymerisation von Reaktivester-Monomeren dargestellt werdenrnsollten. So war es erstmals möglich Blockcopolymere zu synthetisieren, die diernEigenschaften aliphatischer Polyester besitzen und durch Reaktivester-Chemiernfunktionalisiert werden konnten. Desweiteren wurden auf dieser Basis orthogonalrnfunktionalisierbare Blockcopolymere dargestellt, an die polymeranalog Nukleophilernangebunden und per Click-Chemie Poly(ethylenglycol)-Seitenketten eingefügtrnwerden konnten. Durch die Möglichkeit, die reaktiven Gruppen unterschiedlichrnansprechen zu können, eröffnet sich ein weites Feld der Funktionalisierung, ohne diernBioabbaubarkeit der aliphatischen Polyester zu beeinflussen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Experimentelle Autoimmunenzephalomyelitis (EAE) ist das Tiermodell für Multiple Sklerose (MS). Es ist bekannt, dass das proinflammatorische Zytokin IL-17A eine wichtige Rolle in MS und EAE spielt. Dieses wird hauptsächlich von einer Subpopulation der T-Helferzellen (Th17 Zellen) exprimiert. Es war bekannt, dass diese am Zusammenbruch der Blut-Hirnschranke (BHS) beteiligt sind. Der Integritätsverlust der BHS ist ein wichtiger und früher Aspekt in der Pathogenese von EAE und MS. Daraufhin können Immunzellen in das zentrale Nervensystem (ZNS) eindringen. Spezifische T-Zellen greifen das Myelin an und führen so zu einer Entzündungsreaktion, Demyelinisierung und axonalem Schaden. In dieser Arbeit konnte ich zeigen, dass durch Hemmung des kontraktilen endothelialen Apparates das BHS Versagen vermindert werden kann und es dadurch zu einem milderen Verlauf der EAE Pathogenese kommt. Wird der Inhibitor der Myosinleichtkettenkinase ML-7 C57/bl6 Mäusen, bei denen EAE induziert wurde, intraperitoneal verabreicht, kommt es zu einem geringeren Phosphorylierungsgrad der leichten Kette des Myosins in Endothelzellen und folglich zu einem verringerten Schrankenversagen. Außerdem konnte ich zeigen, dass weniger reaktive Sauerstoffspezies (ROS) gebildet werden. Folglich kommt es zu einer geringeren Infiltration von Immunzellen aus der Peripherie in das ZNS. Somit werden weniger Zytokine und auch Matrixmetalloproteinasen (MMP) ausgeschüttet, wodurch die Entzündungsreaktion weniger stark ausgeprägt ist. Außerdem werden weniger Mikrogliazellen aktiviert. Ich habe den Zusammenhang zwischen Mikrogliazellaktivierung und IL-17A näher untersucht. Dieses proinflammatorische Zytokin aktiviert Mikrogliazellen auch in vitro. Durch IL-17A Stimulation kommt es zur vermehrten ROS Bildung. Folglich kommt es zu einer vermehrten Proliferation und Migration, sowie einer erhöhten Zytokinproduktion. Außerdem konnte ich zeigen, dass der N-Methyl-D-Aspartat (NMDA)-Rezeptor an der Mikrogliaaktivierung beteiligt ist. Abhängig von IL-17A Stimulation kommt es zu einem Kalziumeinstrom über den NMDA-Rezeptor. Werden Inhibitoren des NMDA-Rezeptors eingesetzt, können IL-17A vermittelte Proliferation, Migration, Zytokin-und ROS-Produktion verhindert werden. Der NMDA-Rezeptor ist sehr gut in Neuronen erforscht, wohingegen bisher sehr wenig über seine Funktion in Gliazellen bekannt war. In dieser Arbeit ist es mir gelungen einen Zusammenhang zwischen IL-17A vermittelter Mikrogliaaktivierung und Kalziumeinstrom über den NMDA-Rezeptor herzustellen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Verifikation bewertet die Güte von quantitativen Niederschlagsvorhersagen(QNV) gegenüber Beobachtungen und liefert Hinweise auf systematische Modellfehler. Mit Hilfe der merkmals-bezogenen Technik SAL werden simulierte Niederschlagsverteilungen hinsichtlich (S)truktur, (A)mplitude und (L)ocation analysiert. Seit einigen Jahren werden numerische Wettervorhersagemodelle benutzt, mit Gitterpunktabständen, die es erlauben, hochreichende Konvektion ohne Parametrisierung zu simulieren. Es stellt sich jetzt die Frage, ob diese Modelle bessere Vorhersagen liefern. Der hoch aufgelöste stündliche Beobachtungsdatensatz, der in dieser Arbeit verwendet wird, ist eine Kombination von Radar- und Stationsmessungen. Zum einem wird damit am Beispiel der deutschen COSMO-Modelle gezeigt, dass die Modelle der neuesten Generation eine bessere Simulation des mittleren Tagesgangs aufweisen, wenn auch mit zu geringen Maximum und etwas zu spätem Auftreten. Im Gegensatz dazu liefern die Modelle der alten Generation ein zu starkes Maximum, welches erheblich zu früh auftritt. Zum anderen wird mit dem neuartigen Modell eine bessere Simulation der räumlichen Verteilung des Niederschlags, durch eine deutliche Minimierung der Luv-/Lee Proble-matik, erreicht. Um diese subjektiven Bewertungen zu quantifizieren, wurden tägliche QNVs von vier Modellen für Deutschland in einem Achtjahreszeitraum durch SAL sowie klassischen Maßen untersucht. Die höher aufgelösten Modelle simulieren realistischere Niederschlagsverteilungen(besser in S), aber bei den anderen Komponenten tritt kaum ein Unterschied auf. Ein weiterer Aspekt ist, dass das Modell mit der gröbsten Auf-lösung(ECMWF) durch den RMSE deutlich am besten bewertet wird. Darin zeigt sich das Problem des ‚Double Penalty’. Die Zusammenfassung der drei Komponenten von SAL liefert das Resultat, dass vor allem im Sommer das am feinsten aufgelöste Modell (COSMO-DE) am besten abschneidet. Hauptsächlich kommt das durch eine realistischere Struktur zustande, so dass SAL hilfreiche Informationen liefert und die subjektive Bewertung bestätigt. rnIm Jahr 2007 fanden die Projekte COPS und MAP D-PHASE statt und boten die Möglich-keit, 19 Modelle aus drei Modellkategorien hinsichtlich ihrer Vorhersageleistung in Südwestdeutschland für Akkumulationszeiträume von 6 und 12 Stunden miteinander zu vergleichen. Als Ergebnisse besonders hervorzuheben sind, dass (i) je kleiner der Gitter-punktabstand der Modelle ist, desto realistischer sind die simulierten Niederschlags-verteilungen; (ii) bei der Niederschlagsmenge wird in den hoch aufgelösten Modellen weniger Niederschlag, d.h. meist zu wenig, simuliert und (iii) die Ortskomponente wird von allen Modellen am schlechtesten simuliert. Die Analyse der Vorhersageleistung dieser Modelltypen für konvektive Situationen zeigt deutliche Unterschiede. Bei Hochdrucklagen sind die Modelle ohne Konvektionsparametrisierung nicht in der Lage diese zu simulieren, wohingegen die Modelle mit Konvektionsparametrisierung die richtige Menge, aber zu flächige Strukturen realisieren. Für konvektive Ereignisse im Zusammenhang mit Fronten sind beide Modelltypen in der Lage die Niederschlagsverteilung zu simulieren, wobei die hoch aufgelösten Modelle realistischere Felder liefern. Diese wetterlagenbezogene Unter-suchung wird noch systematischer unter Verwendung der konvektiven Zeitskala durchge-führt. Eine erstmalig für Deutschland erstellte Klimatologie zeigt einen einer Potenzfunktion folgenden Abfall der Häufigkeit dieser Zeitskala zu größeren Werten hin auf. Die SAL Ergebnisse sind für beide Bereiche dramatisch unterschiedlich. Für kleine Werte der konvektiven Zeitskala sind sie gut, dagegen werden bei großen Werten die Struktur sowie die Amplitude deutlich überschätzt. rnFür zeitlich sehr hoch aufgelöste Niederschlagsvorhersagen gewinnt der Einfluss der zeitlichen Fehler immer mehr an Bedeutung. Durch die Optimierung/Minimierung der L Komponente von SAL innerhalb eines Zeitfensters(+/-3h) mit dem Beobachtungszeit-punkt im Zentrum ist es möglich diese zu bestimmen. Es wird gezeigt, dass bei optimalem Zeitversatz die Struktur und Amplitude der QNVs für das COSMO-DE besser werden und damit die grundsätzliche Fähigkeit des Modells die Niederschlagsverteilung realistischer zu simulieren, besser gezeigt werden kann.