66 resultados para mediale Erweiterung

em ArchiMeD - Elektronische Publikationen der Universität Mainz - Alemanha


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Durch die massenmediale Zunahme von statischen und bewegten Bilder im Laufe des letzten Jahrhunderts vollzieht sich unsere lebensweltliche Wirklichkeitskonstruktion zu Beginn des 21. Jahrhunderts zunehmend über Visualisierungen, die mit den neuen Formen der Digitalisierung noch an Dynamik zunehmen werden. Mit diesen omnipräsenten visuell-medialen Repräsentationen werden meist räumliche Vorstellungen transportiert, denn Räume werden vor allem über Bilder konstruiert. Diese Bildräume zirkulieren dabei nicht als singuläre Bedeutungszuschreibungen, sondern sind in sprachliche und bildliche Diskurse eingebettet. Visuell-mediale Bild-Raum-Diskurse besitzen zunehmend die Fähigkeit, unser Wissen über und unsere Wahrnehmung von Räumen zu kanalisieren und auf stereotype Raumstrukturen zu reduzieren. Dabei verfestigt sich eine normative Ordnung von bestimmten machtvollen Bildräumen, die nicht genügend kritisch hinterfragt werden. Deshalb ist es für die Geographie von entscheidender Wichtigkeit, mediale Raumkonstruktio- nen, ihre Einbettung in diskursive Bildarchive und ihre essentialistische und handlungspraktische gesellschaftliche Wirkung zu verstehen.rnLandschaften können vor diesem Hintergrund als visuell-medial transportierte Bild-Raum-Diskurse konzeptionalisiert werden, deren gesellschaftliche Wirkmächtigkeit mit Hilfe einer visuell ausgerichteten Diskursanalyse hinterfragt werden sollte. Auf Grundlage einer zeichentheoretischen Ikonologie wurde eine Methodik entwickelt, die visuell ausgerichtete Schrift-Bild-Räume angemessen analysieren kann. Am Beispiel der Inszenierung des Mittelrheintals, wurde, neben einer diachronischen Strukturanalyse der diskursrelevanten Medien (Belletristik, Malerei, Postkarten, Druckgrafiken und Fotografien), eine Feinanalyse der fotografischen „Rheinlandschaften“ von August Sander der 1930er Jahre durchgeführt. Als Ergebnis zeigte sich, dass der Landschaftsdiskurs über das Mittelrheintal immer noch durch die gegenseitige Durchdringung der romantischen Literatur und Malerei in der ersten Hälfte des 19. Jahrhunderts und die historischen Fotografien in den ersten Jahrzehnten des 20. Jahrhunderts bestimmt ist, nicht zuletzt forciert durch die Ernennung zum UNESCO-Welterbe 2002. Der stark visuell ausgerichtete Landschaftsdiskurs trägt somit zum einen positiv konnotierte, romantisch-pittoreske Züge, die die Einheit von Mensch und Natur symbolisieren, zum anderen historisch-konservatorische Züge, die eine Mythifizierung zu einer gewachsenen, authentischen Kulturlandschaft evozieren.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In dieser Arbeit wurde der Aufbau und der Einsatz einer Laser-Extraktionsanlage für Edelgase dargestellt. Diese neue Anlage stellt eine Erweiterung eines bereits bestehenden Edelgas-Massenspektrometers dar. Ein Großteil der Arbeit befasste sich mit dem Aufbau und der Abschätzung der Einsatzmöglichkeiten. Erste Untersuchungen waren Tiefenprofile an Meteoriten. Dabei stand die Unterscheidung der zwei Komponenten der kosmischen Strahlung im Mittelpunkt. Es ist erstmalig gelungen einen Beitrag zur Produktion von stabilen Nukliden durch die 'solare kosmische Strahlung' direkt nachzuweisen. Ebenfalls konnten die zwei unterschiedlichen Komponenten gegeneinander abgeschätzt und eine zweistufige Bestrahlung belegt werden. An Hand eines zweistufigen Modells wurde gezeigt, dass der Nachweis eines SCR-Beitrags durch Radionuklide deutlicher ausfallen muss, als der über stabile Nuklide. Der direkte Nachweis durch die Analyse der Neon-Isotope ist somit bei einer 'ungewöhnlichen' Bestrahlungsgeschichte erfolgt. Die empirischen Produktionsraten (Eugster) wurden so interpretiert, dass sie eine Superposition der Produkte aus galaktischer- und solarer kosmischer Strahlung darstellen, welche von den 'theoretischen' Modellen vorhergesagt werden.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In dieser Arbeit werden zehn neue symmetrische (176,50,14) Designs und ein neues symmetrisches (144,66,30) Design durch Vorgabe von nichtauflösbaren Automorphismengruppen konstruiert. Im Jahre 1969 entdeckte G. Higman ein symmetrisches (176,50,14) Design, dessen volle Automorphismengruppe die sporadische einfache Gruppe HS der Ordnung 44.352.000 ist. Hier wurden nun Designs gesucht, die eine Untergruppe von HS zulassen. Folgende Untergruppen wurden betrachtet: die transitive und die intransitive Erweiterung einer elementarabelschen Gruppe der Ordnung 16 durch Alt(5), AGL(3,2), das direkte Produkt einer zyklischen Gruppe der Ordnung 5 mit Alt(5) und PSL(2,11). Die transitive Erweiterung von E(16) durch Alt(5) lieferte zwei neue Designs mit Automorphismengruppen der Ordnungen 960 bzw. 11.520; letzteres konnte auch mit der transitiven Erweiterung erhalten werden. Die Gruppe PSL(2,11) operiert auf den Punkten des Higman-Designs in drei Bahnen; sucht man nach symmetrischen (176,50,14) Designs, auf denen diese Gruppe in zwei Bahnen operiert, so erhält man acht neue Designs. Die übrigen Gruppen lieferten keine neuen Designs. Schließlich konnte ein neues symmetrisches (144,66,30) Design unter Verwendung der sporadischen Mathieu-Gruppe M(12) konstruiert werden. Dies war zu diesem Zeitpunkt außer dem Higman-Design das einzige bekannte symmetrische Design, dessen volle Automorphismengruppe im Wesentlichen eine sporadische einfache Gruppe ist.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Über viele Jahre hinweg wurden wieder und wieder Argumente angeführt, die diskreten Räumen gegenüber kontinuierlichen Räumen eine fundamentalere Rolle zusprechen. Unser Zugangzur diskreten Welt wird durch neuere Überlegungen der Nichtkommutativen Geometrie (NKG) bestimmt. Seit ca. 15Jahren gibt es Anstrengungen und auch Fortschritte, Physikmit Hilfe von Nichtkommutativer Geometrie besser zuverstehen. Nur eine von vielen Möglichkeiten ist dieReformulierung des Standardmodells derElementarteilchenphysik. Unter anderem gelingt es, auch denHiggs-Mechanismus geometrisch zu beschreiben. Das Higgs-Feld wird in der NKG in Form eines Zusammenhangs auf einer zweielementigen Menge beschrieben. In der Arbeit werden verschiedene Ziele erreicht:Quantisierung einer nulldimensionalen ,,Raum-Zeit'', konsistente Diskretisierungf'ur Modelle im nichtkommutativen Rahmen.Yang-Mills-Theorien auf einem Punkt mit deformiertemHiggs-Potenzial. Erweiterung auf eine ,,echte''Zwei-Punkte-Raum-Zeit, Abzählen von Feynman-Graphen in einer nulldimensionalen Theorie, Feynman-Regeln. Eine besondere Rolle werden Termini, die in derQuantenfeldtheorie ihren Ursprung haben, gewidmet. In diesemRahmen werden Begriffe frei von Komplikationen diskutiert,die durch etwaige Divergenzen oder Schwierigkeitentechnischer Natur verursacht werden könnten.Eichfixierungen, Geistbeiträge, Slavnov-Taylor-Identität undRenormierung. Iteratives Lösungsverfahren derDyson-Schwinger-Gleichung mit Computeralgebra-Unterstützung,die Renormierungsprozedur berücksichtigt.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die protokollbasierte Medizin stellt einen interdisziplinären Brennpunkt der Informatik dar. Als besonderer Ausschnitt der medizinischen Teilgebiete erlaubt sie die relativ formale Spezifikation von Prozessen in den drei Bereichen der Prävention, Diagnose und Therapie.Letzterer wurde immer besonders fokussiert und gilt seit jeher im Rahmen klinischer Studien als Projektionsfläche für informationstechnologische Konzepte. Die Euphorie der frühen Jahre ernüchtert sich jedoch bei jeder Bilanz. Nur sehr wenige der unzählbaren Projekte haben ihre Routine in der alltäglichen Praxis gefunden. Die meisten Vorhaben sind an der Illusion der vollständigen Berechenbarkeit medizinischer Arbeitsabläufe gescheitert. Die traditionelle Sichtweise der klinischen Praxis beruht auf einer blockorientierten Vorstellung des Therapieausführungsprozesses. Sie entsteht durch seine Zerlegung in einzelne Therapiezweige, welche aus vordefinierten Blöcken zusammengesetzt sind. Diese können sequentiell oder parallel ausgeführt werden und sind selbst zusammengesetzt aus jeweils einer Menge von Elementen,welche die Aktivitäten der untersten Ebene darstellen. Das blockorientierte Aufbaumodell wird ergänzt durch ein regelorientiertes Ablaufmodell. Ein komplexes Regelwerk bestimmt Bedingungen für die zeitlichen und logischen Abhängigkeiten der Blöcke, deren Anordnung durch den Ausführungsprozeß gebildet wird. Die Modellierung der Therapieausführung steht zunächst vor der grundsätzlichen Frage, inwieweit die traditionelle Sichtweise für eine interne Repräsentation geeignet ist. Das übergeordnete Ziel besteht in der Integration der unterschiedlichen Ebenen der Therapiespezifikation. Dazu gehört nicht nur die strukturelle Komponente, sondern vorallem die Ablaufkomponente. Ein geeignetes Regelmodell ist erforderlich, welches den spezifischen Bedürfnissen der Therapieüberwachung gerecht wird. Die zentrale Aufgabe besteht darin, diese unterschiedlichen Ebenen zusammenzuführen. Eine sinnvolle Alternative zur traditionellen Sichtweise liefert das zustandsorientierte Modell des Therapieausführungsprozesses. Das zustandsorientierte Modell beruht auf der Sichtweise, daß der gesamte Therapieausführungsprozeß letztendlich eine lineare Folge von Zuständen beschreibt, wobei jeder Zustandsübergang durch ein Ereignis eingeleitet wird, an bestimmte Bedingungen geknüpft ist und bestimmte Aktionen auslösen kann. Die Parallelität des blockorientierten Modells tritt in den Hintergrund, denn die Menge der durchzuführenden Maßnahmen sind lediglich Eigenschaften der Zustände und keine strukturellen Elemente der Ablaufspezifikation. Zu jedem Zeitpunkt ist genau ein Zustand aktiv, und er repräsentiert eine von endlich vielen klinischen Situationen, mit all ihren spezifischen Aktivitäten und Ausführungsregeln. Die Vorteile des zustandsorientierten Modells liegen in der Integration. Die Grundstruktur verbindet die statische Darstellung der möglichen Phasenanordnungen mit der dynamischen Ausführung aktiver Regeln. Die ursprünglichen Inhalte des blockorientierten Modells werden als gewöhnliche Eigenschaften der Zustände reproduziert und stellen damit nur einen Spezialfall der zustandsbezogenen Sicht dar.Weitere Möglichkeiten für die Anreicherung der Zustände mit zusätzlichen Details sind denkbar wie sinnvoll. Die Grundstruktur bleibt bei jeder Erweiterung jedoch die gleiche. Es ergibt sich ein wiederverwendbares Grundgerüst,ein gemeinsamer Nenner für die Erfüllung der Überwachungsaufgabe.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Beziehung zwischen genetischem Polymorphismus von Populationen und Umweltvariabilität: Anwendung der Fitness-Set Theorie Das Quantitative Fitness-Set Modell (QFM) ist eine Erweiterung der Fitness-Set Theorie. Das QFM kann Abstufungen zwischen grob- und feinkörnigen regelmäßigen Schwankungen zweier Umwelten darstellen. Umwelt- und artspezifische Parameter, sowie die bewirkte Körnigkeit, sind quantifizierbar. Experimentelle Daten lassen sich analysieren und das QFM erweist sich in großen Populationen als sehr genau, was durch den diskreten Parameterraum unterstützt wird. Kleine Populationen und/oder hohe genetische Diversität führen zu Schätzungsungenauigkeiten, die auch in natürlichen Populationen zu erwarten sind. Ein populationsgrößenabhängiger Unschärfewert erweitert die Punktschätzung eines Parametersatzes zur Intervallschätzung. Diese Intervalle wirken in finiten Populationen als Fitnessbänder. Daraus ergibt sich die Hypothese, dass bei Arten, die in dichten kontinuierlichen Fitnessbändern leben, Generalisten und in diskreten Fitnessbändern Spezialisten evolvieren.Asynchrone Reproduktionsstrategien führen zur Bewahrung genetischer Diversität. Aus dem Wechsel von grobkörniger zu feinkörniger Umweltvariation ergibt sich eine Bevorzugung der spezialisierten Genotypen. Aus diesem Angriffspunkt für disruptive Selektion lässt sich die Hypothese Artbildung in Übergangsszenarien von grobkörniger zu feinkörniger Umweltvariation formulieren. Im umgekehrten Fall ist Diversitätsverlust und stabilisierende Selektion zu erwarten Dies ist somit eine prozessorientierte Erklärung für den Artenreichtum der (feinkörnigen) Tropen im Vergleich zu den artenärmeren, jahreszeitlichen Schwankungen unterworfenen (grobkörnigen) temperaten Zonen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die vorliegende Arbeit beschäftigt sich mit dem Phasenverhalten von Polyethylen (PE) in nicht-reaktiven und in reaktiven Systemen. Von drei eng verteilten Polyethylenen (Mw = 6,4, 82 bzw. 380 kg/mol) in n-Hexan sowie für das System 2,2-Dimethylbutan / PE 82 wurde die Entmischung in Abhängigkeit von der Zusammensetzung, dem Druck und der Temperatur experimentell bestimmt. Die Modellierung der Trübungskurven erfolgte nach der Theorie von Sanchez und Lacombe. Dieser Ansatz beschreibt die Ergebnisse qualitativ und kann in einem engen Temperatur- und Druckbereich für gegebenes Molekulargewicht die kritische Temperatur und den kritischen Druck quantitativ vorhersagen. Durch Extrapolation der kritischen Temperatur der verschiedenen Lösungen von PE in n-Hexan auf unendliches Molekulargewicht nach Shultz-Flory wurde im Druckbereich von 20 bis 100 bar und im Temperaturbereich von 130 bis 200 °C eine Grenzlinie bestimmt. Diese Linie trennt unabhängig vom Molekulargewicht des Polymers und der Zusammensetzung der Mischung das Zweiphasengebiet vom homogenen Bereich. Im Fall des Mischlösungsmittels n-Hexan / 2,2-Dimethylbutan wurde für eine annähernd kritische Polymerkonzentration die Abhängigkeit der Entmischungsbedingungen von der Zusammensetzung untersucht. Durch einfache Erweiterung der Sanchez-Lacombe-Theorie und Einführen eines Fitparameters konnte das ternäre System beschrieben werden. An einer breit verteilten PE-Probe wurden Experimente zur Fraktionierung von PE in n-Hexan durchgeführt. Die Analyse der in den koexistenten Phasen enthaltenen Polymere lieferte Informationen über die Konzentration und die Molekulargewichtsverteilung des PE in diesen Phasen sowie die kritische Zusammensetzung der Mischung. Von verschiedenen PE-Lösungen (Mw = 0,5 kg/mol) wurde die polymerisationsinduzierte Phasenseparation in Isobornylmethacrylat mit und ohne Vernetzer untersucht. Mit 15 Gew.-% PE und in Abwesenheit von Vernetzer findet die Entmischung erst bei hohen Umsätzen statt. Die Charakterisierung der resultierenden Proben zeigte, dass sich etwas mehr als 5 Gew.-% PE im Polyisobornylmethacrylat lösen. Die Glasübergangstemperaturen der Polymermischungen steigen mit steigender Vernetzer- und sinkender Polyethylenkonzentration. Bei Proben mit 15 Gew.-% PE zeigte sich folgendes: 5 Gew.-% Vernetzer führen zu großen PE-Bereichen (150 - 200 nm) in der Matrix und der Kristallinitätsgrad ist gering. Bei der Polymermischung mit 10 Gew.-% Vernetzer bilden sich sehr kleine Polyethylenkristalle (< 80 nm) und der Kristallinitätsgrad ist hoch. Ohne Vernetzer hängt der Kristallinitätsgrad - wie bei reinem PE - von der Abkühlrate ab, mit Vernetzer ist er von ihr unabhängig.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die vorliegende Arbeit beschäftigt sich mit der Synthese arenoanellierter Naphthothiete und Benzobisthiete, sowie mit der Umsetzung der aus diesen Thieten thermisch generierbaren Valenzisomeren (Thiochinonmethide). Diese Thiochinonmethide sind hochreaktive Diensysteme, die mit zahlreichen Dienophilen (homo- und hetero-Doppel- und Dreifachbindungssysteme) nach Diels-Alder abreagieren, die dabei entstehenden S-Heterocyclen können im Sechsring noch weitere Heteroatome (N, P, O, S) enthalten. Daraus resultiert ein großes Potential der Arenothiete zur Synthese neuer Thioheterocyclen. Durch die erstmals gelungene Synthese der beiden Benzobisthiete 2H,3H-Benzo[1,2-b:4,3-b']bisthiet und 1H,4H-Benzo[2,1-b:3,4-b']bisthiet mit gewinkelter Anellierungsgeometrie hat das synthetische Spektrum der aus Arenothieten darstellbaren Thioheterocyclen nochmal eine deutliche Erweiterung erfahren.

Die Darstellung der Arenothiete erfolgt in einer mehrstufigen Synthese, in deren finalem Schritt sie mittels Blitz-Vakuum-Pyrolyse aus Arylhydroxymethylthiolen gebildet werden, dabei wird das Edukt mittels molekularer Strömung in den "Reaktor" eingebracht. Da die Arylhydroxymethylthiole in der Regel nur eine sehr geringe Flüchtigkeit haben, waren die Arenothiete meist nur in geringen Mengen darstellbar. Daher wurde in dieser Arbeit sowohl die Synthese neuer Arenothiete (gewinkelte Benzobisthiete) als auch eine Optimierung der bisherigen Synthesemethode angestrebt; diese erfolgt bevorzugt durch Variation der Pyrolyseedukte in Richtung zu potentiell höherflüchtigen Verbindungen.

Im Rahmen dieser Versuche war die Darstellung zweier Arenothiete ausgehend von cyclischen O,S-Acetalen als alternative Pyrolysevorstufen erfolgreich.

Ein besonderes Interesse speziell an Benzobisthieten begründet sich in ihrer generellen Fähigkeit zum Aufbau von bandartigen Strukturen durch Oligo- und Poly-Diels-Alder-Reaktionen. Durch die Synthese einiger Modellverbindungen konnte ihre prinzipielle Eignung zum Aufbau von Bandstrukturen auch für die beiden Benzobisthiete belegt werden.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Arbeit beginnt mit dem Vergleich spezieller Regularisierungsmethoden in der Quantenfeldtheorie mit dem Verfahren zur störungstheoretischen Konstruktion der S-Matrix nach Epstein und Glaser. Da das Epstein-Glaser-Verfahren selbst als Regularisierungsverfahren verwandt werden kann und darüberhinaus ausschließlich auf physikalisch motivierten Postulaten basiert, liefert dieser Vergleich ein Kriterium für die Zulässigkeit anderer Regularisierungsmethoden. Zusätzlich zur Herausstellung dieser Zulässigkeit resultiert aus dieser Gegenüberstellung als weiteres wesentliches Resultat ein neues, in der Anwendung praktikables sowie konsistentes Regularisierungsverfahren, das modifizierte BPHZ-Verfahren. Dieses wird anhand von Ein-Schleifen-Diagrammen aus der QED (Elektronselbstenergie, Vakuumpolarisation und Vertexkorrektur) demonstriert. Im Gegensatz zur vielverwandten Dimensionalen Regularisierung ist dieses Verfahren uneingeschränkt auch für chirale Theorien anwendbar. Als Beispiel hierfür dient die Berechnung der im Rahmen einer axialen Erweiterung der QED-Lagrangedichte auftretenden U(1)-Anomalie. Auf der Stufe von Mehr-Schleifen-Diagrammen zeigt der Vergleich der Epstein-Glaser-Konstruktion mit dem bekannten BPHZ-Verfahren an mehreren Beispielen aus der Phi^4-Theorie, darunter das sog. Sunrise-Diagramm, daß zu deren Berechnung die nach der Waldformel des BPHZ-Verfahrens zur Regularisierung beitragenden Unterdiagramme auf eine kleinere Klasse eingeschränkt werden können. Dieses Resultat ist gleichfalls für die Praxis der Regularisierung bedeutsam, da es bereits auf der Stufe der zu berücksichtigenden Unterdiagramme zu einer Vereinfachung führt.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Due to its high Curie temperature of 420K and band structure calculations predicting 100% spin polarisation, Sr2FeMoO6 is a potential candidate for spintronic devices. However, the preparation of good quality thin films has proven to be a non-trivial task. Epitaxial Sr2FeMoO6 thin films were prepared by pulsed laser deposition on different substrates. Differing from previous reports a post-deposition annealing step at low oxygen partial pressure (10-5 mbar) was introduced and enabled the fabrication of reproducible, high quality samples. According to the structural properties of the substrates the crystal structure and morphology of the thin films are modified. The close interrelation between the structural, magnetic and electronic properties of Sr2FeMoO6 was studied. A detailed evaluation of the results allowed to extract valuable information on the microscopic nature of magnetism and charge transport. Smooth films with a mean roughness of about 2 nm have been achieved, which is a pre-requisite for a possible inclusion of this material in future devices. In order to establish device-oriented sub-micron patterning as a standard technique, electron beam lithography and focussed ion beam etching facilities have been put into operation. A detailed characterisation of these systems has been performed. To determine the technological prospects of new spintronics materials, the verification of a high spin polarisation is of vital interest. A popular technique for this task is point contact Andreev reflection (PCAR). Commonly, the charge transport in a transparent metal-superconductor contact of nanometer dimensions is attributed solely to coherent transport. If this condition is not fulfilled, inelastic processes in the constriction have to be considered. PCAR has been applied to Sr2FeMoO6 and the Heusler compound Co2Cr0.6Fe0.4Al. Systematic deviations between measured spectra and the standard models of PCAR have been observed. Therefore existing approaches have been generalised, in order to include the influence of heating. With the extended model the measured data was successfully reproduced but the analysis has revealed grave implications for the determination of spin polarisation, which was found to break down completely in certain cases.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Being basic ingredients of numerous daily-life products with significant industrial importance as well as basic building blocks for biomaterials, charged hydrogels continue to pose a series of unanswered challenges for scientists even after decades of practical applications and intensive research efforts. Despite a rather simple internal structure it is mainly the unique combination of short- and long-range forces which render scientific investigations of their characteristic properties to be quite difficult. Hence early on computer simulations were used to link analytical theory and empirical experiments, bridging the gap between the simplifying assumptions of the models and the complexity of real world measurements. Due to the immense numerical effort, even for high performance supercomputers, system sizes and time scales were rather restricted until recently, whereas it only now has become possible to also simulate a network of charged macromolecules. This is the topic of the presented thesis which investigates one of the fundamental and at the same time highly fascinating phenomenon of polymer research: The swelling behaviour of polyelectrolyte networks. For this an extensible simulation package for the research on soft matter systems, ESPResSo for short, was created which puts a particular emphasis on mesoscopic bead-spring-models of complex systems. Highly efficient algorithms and a consistent parallelization reduced the necessary computation time for solving equations of motion even in case of long-ranged electrostatics and large number of particles, allowing to tackle even expensive calculations and applications. Nevertheless, the program has a modular and simple structure, enabling a continuous process of adding new potentials, interactions, degrees of freedom, ensembles, and integrators, while staying easily accessible for newcomers due to a Tcl-script steering level controlling the C-implemented simulation core. Numerous analysis routines provide means to investigate system properties and observables on-the-fly. Even though analytical theories agreed on the modeling of networks in the past years, our numerical MD-simulations show that even in case of simple model systems fundamental theoretical assumptions no longer apply except for a small parameter regime, prohibiting correct predictions of observables. Applying a "microscopic" analysis of the isolated contributions of individual system components, one of the particular strengths of computer simulations, it was then possible to describe the behaviour of charged polymer networks at swelling equilibrium in good solvent and close to the Theta-point by introducing appropriate model modifications. This became possible by enhancing known simple scaling arguments with components deemed crucial in our detailed study, through which a generalized model could be constructed. Herewith an agreement of the final system volume of swollen polyelectrolyte gels with results of computer simulations could be shown successfully over the entire investigated range of parameters, for different network sizes, charge fractions, and interaction strengths. In addition, the "cell under tension" was presented as a self-regulating approach for predicting the amount of swelling based on the used system parameters only. Without the need for measured observables as input, minimizing the free energy alone already allows to determine the the equilibrium behaviour. In poor solvent the shape of the network chains changes considerably, as now their hydrophobicity counteracts the repulsion of like-wise charged monomers and pursues collapsing the polyelectrolytes. Depending on the chosen parameters a fragile balance emerges, giving rise to fascinating geometrical structures such as the so-called pear-necklaces. This behaviour, known from single chain polyelectrolytes under similar environmental conditions and also theoretically predicted, could be detected for the first time for networks as well. An analysis of the total structure factors confirmed first evidences for the existence of such structures found in experimental results.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In der vorliegenden Arbeit wird die Faktorisierungsmethode zur Erkennung von Gebieten mit sprunghaft abweichenden Materialparametern untersucht. Durch eine abstrakte Formulierung beweisen wir die der Methode zugrunde liegende Bildraumidentität für allgemeine reelle elliptische Probleme und deduzieren bereits bekannte und neue Anwendungen der Methode. Für das spezielle Problem, magnetische oder perfekt elektrisch leitende Objekte durch niederfrequente elektromagnetische Strahlung zu lokalisieren, zeigen wir die eindeutige Lösbarkeit des direkten Problems für hinreichend kleine Frequenzen und die Konvergenz der Lösungen gegen die der elliptischen Gleichungen der Magnetostatik. Durch Anwendung unseres allgemeinen Resultats erhalten wir die eindeutige Rekonstruierbarkeit der gesuchten Objekte aus elektromagnetischen Messungen und einen numerischen Algorithmus zur Lokalisierung der Objekte. An einem Musterproblem untersuchen wir, wie durch parabolische Differentialgleichungen beschriebene Einschlüsse in einem durch elliptische Differentialgleichungen beschriebenen Gebiet rekonstruiert werden können. Dabei beweisen wir die eindeutige Lösbarkeit des zugrunde liegenden parabolisch-elliptischen direkten Problems und erhalten durch eine Erweiterung der Faktorisierungsmethode die eindeutige Rekonstruierbarkeit der Einschlüsse sowie einen numerischen Algorithmus zur praktischen Umsetzung der Methode.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Aufgabenstellung, welche dieser Dissertation zugrunde liegt, lässt sich kurz als die Untersuchung von komponentenbasierten Konzepten zum Einsatz in der Softwareentwicklung durch Endanwender beschreiben. In den letzten 20 bis 30 Jahren hat sich das technische Umfeld, in dem ein Großteil der Arbeitnehmer seine täglichen Aufgaben verrichtet, grundlegend verändert. Der Computer, früher in Form eines Großrechners ausschließlich die Domäne von Spezialisten, ist nun ein selbstverständlicher Bestandteil der täglichen Arbeit. Der Umgang mit Anwendungsprogrammen, die dem Nutzer erlauben in einem gewissen Rahmen neue, eigene Funktionalität zu definieren, ist in vielen Bereichen so selbstverständlich, dass viele dieser Tätigkeiten nicht bewusst als Programmieren wahrgenommen werden. Da diese Nutzer nicht notwendigerweise in der Entwicklung von Software ausgebildet sind, benötigen sie entsprechende Unterstützung bei diesen Tätigkeiten. Dies macht deutlich, welche praktische Relevanz die Untersuchungen in diesem Bereich haben. Zur Erstellung eines Programmiersystems für Endanwender wird zunächst ein flexibler Anwendungsrahmen entwickelt, welcher sich als Basis zur Erstellung solcher Systeme eignet. In Softwareprojekten sind sich ändernde Anforderungen und daraus resultierende Notwendigkeiten ein wichtiger Aspekt. Dies wird im Entwurf des Frameworks durch Konzepte zur Bereitstellung von wieder verwendbarer Funktionalität durch das Framework und Möglichkeiten zur Anpassung und Erweiterung der vorhandenen Funktionalität berücksichtigt. Hier ist zum einen der Einsatz einer serviceorientierten Architektur innerhalb der Anwendung und zum anderen eine komponentenorientierte Variante des Kommando-Musters zu nennen. Zum anderen wird ein Konzept zur Kapselung von Endnutzerprogrammiermodellen in Komponenten erarbeitet. Dieser Ansatz ermöglicht es, unterschiedliche Modelle als Grundlage der entworfenen Entwicklungsumgebung zu verwenden. Im weiteren Verlauf der Arbeit wird ein Programmiermodell entworfen und unter Verwendung des zuvor genannten Frameworks implementiert. Damit dieses zur Nutzung durch Endanwender geeignet ist, ist eine Anhebung der zur Beschreibung eines Softwaresystems verwendeten Abstraktionsebene notwendig. Dies wird durch die Verwendung von Komponenten und einem nachrichtenbasierten Kompositionsmechanismus erreicht. Die vorgenommene Realisierung ist dabei noch nicht auf konkrete Anwendungsfamilien bezogen, diese Anpassungen erfolgen in einem weiteren Schritt für zwei unterschiedliche Anwendungsbereiche.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Untersuchungen umfassen die Periode 1981 – 2000 und basieren hauptsächlich auf Daten des Deutschen Wetterdienstes (DWD). Relativwerte der Globalstrahlung beziehen sich auf die Rayleigh-Atmosphäre. Das Regressionsmodell nach Angström ermöglicht die Erweiterung des Meßnetzes. In linearer und nichtlinearer Regression und Korrelation ist die Globalstrahlung entweder abhängige (Sonnenscheindauer, Bewölkung) oder unabhängige Variable (Lufttemperatur, Bodentemperatur). Ihre Intensität in Abhängigkeit von Großwetterlagen, Großwettertypen und Luftmassen wird diskutiert. Diesbezüglich werden mit der Linearen Diskriminanzanalyse ähnliche Großwetterlagen und Stationen in signifikant unterschiedenen Gruppen zusammengefaßt, getrennt nach Sommer- und Winterhalbjahr. Abhängig von der Zeit betrachtet, enthalten Globalstrahlung, direkte und diffuse Sonnenstrahlung, Lufttemperatur, Bewölkung und Niederschlag signifikante zyklische Variationen, die gegebenenfalls klimatologisch relevant sind. Weiteren Aufschluß ergeben deshalb die Zeitreihenanalysen. Autokorrelation-Spektralanalysen (ASA) der genannten Variablen werden in integrierten Spektren dargestellt. Hinweise auf die zeitliche Konstanz signifikanter Varianzmaxima enthalten die Spektren der dynamischen (gleitenden) ASA.