423 resultados para Raum
Resumo:
Wir betrachten Systeme von endlich vielen Partikeln, wobei die Partikel sich unabhängig voneinander gemäß eindimensionaler Diffusionen [dX_t = b(X_t),dt + sigma(X_t),dW_t] bewegen. Die Partikel sterben mit positionsabhängigen Raten und hinterlassen eine zufällige Anzahl an Nachkommen, die sich gemäß eines Übergangskerns im Raum verteilen. Zudem immigrieren neue Partikel mit einer konstanten Rate. Ein Prozess mit diesen Eigenschaften wird Verzweigungsprozess mit Immigration genannt. Beobachten wir einen solchen Prozess zu diskreten Zeitpunkten, so ist zunächst nicht offensichtlich, welche diskret beobachteten Punkte zu welchem Pfad gehören. Daher entwickeln wir einen Algorithmus, um den zugrundeliegenden Pfad zu rekonstruieren. Mit Hilfe dieses Algorithmus konstruieren wir einen nichtparametrischen Schätzer für den quadrierten Diffusionskoeffizienten $sigma^2(cdot),$ wobei die Konstruktion im Wesentlichen auf dem Auffüllen eines klassischen Regressionsschemas beruht. Wir beweisen Konsistenz und einen zentralen Grenzwertsatz.
Resumo:
In vielen Industriezweigen, zum Beispiel in der Automobilindustrie, werden Digitale Versuchsmodelle (Digital MockUps) eingesetzt, um die Konstruktion und die Funktion eines Produkts am virtuellen Prototypen zu überprüfen. Ein Anwendungsfall ist dabei die Überprüfung von Sicherheitsabständen einzelner Bauteile, die sogenannte Abstandsanalyse. Ingenieure ermitteln dabei für bestimmte Bauteile, ob diese in ihrer Ruhelage sowie während einer Bewegung einen vorgegeben Sicherheitsabstand zu den umgebenden Bauteilen einhalten. Unterschreiten Bauteile den Sicherheitsabstand, so muss deren Form oder Lage verändert werden. Dazu ist es wichtig, die Bereiche der Bauteile, welche den Sicherhabstand verletzen, genau zu kennen. rnrnIn dieser Arbeit präsentieren wir eine Lösung zur Echtzeitberechnung aller den Sicherheitsabstand unterschreitenden Bereiche zwischen zwei geometrischen Objekten. Die Objekte sind dabei jeweils als Menge von Primitiven (z.B. Dreiecken) gegeben. Für jeden Zeitpunkt, in dem eine Transformation auf eines der Objekte angewendet wird, berechnen wir die Menge aller den Sicherheitsabstand unterschreitenden Primitive und bezeichnen diese als die Menge aller toleranzverletzenden Primitive. Wir präsentieren in dieser Arbeit eine ganzheitliche Lösung, welche sich in die folgenden drei großen Themengebiete unterteilen lässt.rnrnIm ersten Teil dieser Arbeit untersuchen wir Algorithmen, die für zwei Dreiecke überprüfen, ob diese toleranzverletzend sind. Hierfür präsentieren wir verschiedene Ansätze für Dreiecks-Dreiecks Toleranztests und zeigen, dass spezielle Toleranztests deutlich performanter sind als bisher verwendete Abstandsberechnungen. Im Fokus unserer Arbeit steht dabei die Entwicklung eines neuartigen Toleranztests, welcher im Dualraum arbeitet. In all unseren Benchmarks zur Berechnung aller toleranzverletzenden Primitive beweist sich unser Ansatz im dualen Raum immer als der Performanteste.rnrnDer zweite Teil dieser Arbeit befasst sich mit Datenstrukturen und Algorithmen zur Echtzeitberechnung aller toleranzverletzenden Primitive zwischen zwei geometrischen Objekten. Wir entwickeln eine kombinierte Datenstruktur, die sich aus einer flachen hierarchischen Datenstruktur und mehreren Uniform Grids zusammensetzt. Um effiziente Laufzeiten zu gewährleisten ist es vor allem wichtig, den geforderten Sicherheitsabstand sinnvoll im Design der Datenstrukturen und der Anfragealgorithmen zu beachten. Wir präsentieren hierzu Lösungen, die die Menge der zu testenden Paare von Primitiven schnell bestimmen. Darüber hinaus entwickeln wir Strategien, wie Primitive als toleranzverletzend erkannt werden können, ohne einen aufwändigen Primitiv-Primitiv Toleranztest zu berechnen. In unseren Benchmarks zeigen wir, dass wir mit unseren Lösungen in der Lage sind, in Echtzeit alle toleranzverletzenden Primitive zwischen zwei komplexen geometrischen Objekten, bestehend aus jeweils vielen hunderttausend Primitiven, zu berechnen. rnrnIm dritten Teil präsentieren wir eine neuartige, speicheroptimierte Datenstruktur zur Verwaltung der Zellinhalte der zuvor verwendeten Uniform Grids. Wir bezeichnen diese Datenstruktur als Shrubs. Bisherige Ansätze zur Speicheroptimierung von Uniform Grids beziehen sich vor allem auf Hashing Methoden. Diese reduzieren aber nicht den Speicherverbrauch der Zellinhalte. In unserem Anwendungsfall haben benachbarte Zellen oft ähnliche Inhalte. Unser Ansatz ist in der Lage, den Speicherbedarf der Zellinhalte eines Uniform Grids, basierend auf den redundanten Zellinhalten, verlustlos auf ein fünftel der bisherigen Größe zu komprimieren und zur Laufzeit zu dekomprimieren.rnrnAbschießend zeigen wir, wie unsere Lösung zur Berechnung aller toleranzverletzenden Primitive Anwendung in der Praxis finden kann. Neben der reinen Abstandsanalyse zeigen wir Anwendungen für verschiedene Problemstellungen der Pfadplanung.
Resumo:
Analyzing and modeling relationships between the structure of chemical compounds, their physico-chemical properties, and biological or toxic effects in chemical datasets is a challenging task for scientific researchers in the field of cheminformatics. Therefore, (Q)SAR model validation is essential to ensure future model predictivity on unseen compounds. Proper validation is also one of the requirements of regulatory authorities in order to approve its use in real-world scenarios as an alternative testing method. However, at the same time, the question of how to validate a (Q)SAR model is still under discussion. In this work, we empirically compare a k-fold cross-validation with external test set validation. The introduced workflow allows to apply the built and validated models to large amounts of unseen data, and to compare the performance of the different validation approaches. Our experimental results indicate that cross-validation produces (Q)SAR models with higher predictivity than external test set validation and reduces the variance of the results. Statistical validation is important to evaluate the performance of (Q)SAR models, but does not support the user in better understanding the properties of the model or the underlying correlations. We present the 3D molecular viewer CheS-Mapper (Chemical Space Mapper) that arranges compounds in 3D space, such that their spatial proximity reflects their similarity. The user can indirectly determine similarity, by selecting which features to employ in the process. The tool can use and calculate different kinds of features, like structural fragments as well as quantitative chemical descriptors. Comprehensive functionalities including clustering, alignment of compounds according to their 3D structure, and feature highlighting aid the chemist to better understand patterns and regularities and relate the observations to established scientific knowledge. Even though visualization tools for analyzing (Q)SAR information in small molecule datasets exist, integrated visualization methods that allows for the investigation of model validation results are still lacking. We propose visual validation, as an approach for the graphical inspection of (Q)SAR model validation results. New functionalities in CheS-Mapper 2.0 facilitate the analysis of (Q)SAR information and allow the visual validation of (Q)SAR models. The tool enables the comparison of model predictions to the actual activity in feature space. Our approach reveals if the endpoint is modeled too specific or too generic and highlights common properties of misclassified compounds. Moreover, the researcher can use CheS-Mapper to inspect how the (Q)SAR model predicts activity cliffs. The CheS-Mapper software is freely available at http://ches-mapper.org.
Resumo:
One of the fundamental interactions in the Standard Model of particle physicsrnis the strong force, which can be formulated as a non-abelian gauge theoryrncalled Quantum Chromodynamics (QCD). rnIn the low-energy regime, where the QCD coupling becomes strong and quarksrnand gluons are confined to hadrons, a perturbativernexpansion in the coupling constant is not possible.rnHowever, the introduction of a four-dimensional Euclidean space-timernlattice allows for an textit{ab initio} treatment of QCD and provides arnpowerful tool to study the low-energy dynamics of hadrons.rnSome hadronic matrix elements of interest receive contributionsrnfrom diagrams including quark-disconnected loops, i.e. disconnected quarkrnlines from one lattice point back to the same point. The calculation of suchrnquark loops is computationally very demanding, because it requires knowledge ofrnthe all-to-all propagator. In this thesis we use stochastic sources and arnhopping parameter expansion to estimate such propagators.rnWe apply this technique to study two problems which relay crucially on therncalculation of quark-disconnected diagrams, namely the scalar form factor ofrnthe pion and the hadronic vacuum polarization contribution to the anomalousrnmagnet moment of the muon.rnThe scalar form factor of the pion describes the coupling of a charged pion torna scalar particle. We calculate the connected and the disconnected contributionrnto the scalar form factor for three different momentum transfers. The scalarrnradius of the pion is extracted from the momentum dependence of the form factor.rnThe use ofrnseveral different pion masses and lattice spacings allows for an extrapolationrnto the physical point. The chiral extrapolation is done using chiralrnperturbation theory ($chi$PT). We find that our pion mass dependence of thernscalar radius is consistent with $chi$PT at next-to-leading order.rnAdditionally, we are able to extract the low energy constant $ell_4$ from thernextrapolation, and ourrnresult is in agreement with results from other lattice determinations.rnFurthermore, our result for the scalar pion radius at the physical point isrnconsistent with a value that was extracted from $pipi$-scattering data. rnThe hadronic vacuum polarization (HVP) is the leading-order hadronicrncontribution to the anomalous magnetic moment $a_mu$ of the muon. The HVP canrnbe estimated from the correlation of two vector currents in the time-momentumrnrepresentation. We explicitly calculate the corresponding disconnectedrncontribution to the vector correlator. We find that the disconnectedrncontribution is consistent with zero within its statistical errors. This resultrncan be converted into an upper limit for the maximum contribution of therndisconnected diagram to $a_mu$ by using the expected time-dependence of therncorrelator and comparing it to the corresponding connected contribution. Wernfind the disconnected contribution to be smaller than $approx5%$ of thernconnected one. This value can be used as an estimate for a systematic errorrnthat arises from neglecting the disconnected contribution.rn
Resumo:
Ziel der vorliegenden Dissertation war es, Einblicke in das Kristallisationsverhalten weicher Materie („soft matter“), wie verschiedener Polymere oder Wasser, unter räumlicher Einschränkung („confinement“) zu erlangen. Dabei sollte untersucht werden, wie, weshalb und wann die Kristallisation in nanoporösen Strukturen eintritt. Desweiteren ist Kristallisation weicher Materie in nanoporösen Strukturen nicht nur aus Aspekten der Grundlagenforschung von großem Interesse, sondern es ergeben sich zahlreiche praktische Anwendungen. Durch die gezielte Steuerung der Kristallinität von Polymeren könnten somit Materialien mit verschiendenen mechanischen und optischen Eigenschaften erhalten werden. Desweiteren wurde auch räumlich eingeschränktes Wasser untersucht. Dieses spielt eine wichtige Rolle in der Molekularbiologie, z.B. für das globuläre Protein, und als Wolkenkondensationskeime in der Atmosphärenchemie und Physik. Auch im interstellaren Raum ist eingeschränktes Wasser in Form von Eispartikeln anzutreffen. Die Kristallisation von eingeschränktem Wasser zu verstehen und zu beeinflussen ist letztlich auch für die Haltbarkeit von Baumaterialien wie etwa Zement von großem Interesse.rnUm dies zu untersuchen wird Wasser in der Regel stark abgekühlt und das Kristallisationsverhalten in Abhängigkeit des Volumens untersucht. Dabei wurde beobachtet, dass Mikro- bzw. Nanometer große Volumina erst ab -38 °C bzw. -70 °C kristallisieren. Wasser unterliegt dabei in der Regel dem Prozess der homogenen Nukleation. In der Regel gefriert Wasser aber bei höheren Temperaturen, da durch Verunreinigungen eine vorzeitige, heterogene Nukleation eintritt.rnDie vorliegende Arbeit untersucht die sachdienlichen Phasendiagramme von kristallisierbaren Polymeren und Wasser unter räumlich eingeschränkten Bedingungen. Selbst ausgerichtetes Aluminiumoxid (AAO) mit Porengrößen im Bereich von 25 bis 400 nm wurden als räumliche Einschränkung sowohl für Polymere als auch für Wasser gewählt. Die AAO Nanoporen sind zylindrisch und parallel ausgerichtet. Außerdem besitzen sie eine gleichmäßige Porenlänge und einen gleichmäßigen Durchmesser. Daher eignen sie sich als Modelsystem um Kristallisationsprozesse unter wohldefinierter räumlicher Einschränkung zu untersuchen.rnEs wurden verschiedene halbkristalline Polymere verwendet, darunter Poly(ethylenoxid), Poly(ɛ-Caprolacton) und Diblockcopolymere aus PEO-b-PCL. Der Einfluss der Porengröße auf die Nukleation wurde aus verschiedenen Gesichtspunkten untersucht: (i) Einfluss auf den Nukleationmechanismus (heterogene gegenüber homogener Nukleation), (ii) Kristallorientierung und Kristallinitätsgrad und (iii) Zusammenhang zwischen Kristallisationstemperatur bei homogener Kristallisation und Glasübergangstemperatur.rnEs konnte gezeigt werden, dass die Kristallisation von Polymeren in Bulk durch heterogene Nukleation induziert wird und das die Kristallisation in kleinen Poren hauptsächlich über homogene Nukleation mit reduzierter und einstellbarer Kristallinität verläuft und eine hohe Kristallorientierung aufweist. Durch die AAOs konnte außerdem die kritische Keimgröße für die Kristallisation der Polymere abgeschätzt werden. Schließlich wurde der Einfluss der Polydispersität, von Oligomeren und anderen Zusatzstoffen auf den Nukleationsmechanismus untersucht.rn4rnDie Nukleation von Eis wurde in den selben AAOs untersucht und ein direkter Zusammenhang zwischen dem Nukleationstyp (heterogen bzw. homogen) und der gebildeten Eisphase konnte beobachtet werden. In größeren Poren verlief die Nukleation heterogen, wohingegen sie in kleineren Poren homogen verlief. Außerdem wurde eine Phasenumwandlung des Eises beobachtet. In den größeren Poren wurde hexagonales Eis nachgewiesen und unter einer Porengröße von 35 nm trat hauptsächlich kubisches Eis auf. Nennenswerter Weise handelte es sich bei dem kubischem Eis nicht um eine metastabile sondern eine stabile Phase. Abschließend wird ein Phasendiagramm für räumlich eingeschränktes Wasser vorgeschlagen. Dieses Phasendiagramm kann für technische Anwendungen von Bedeutung sein, so z.B. für Baumaterial wie Zement. Als weiteres Beispiel könnten AAOs, die die heterogene Nukleation unterdrücken (Porendurchmesser ≤ 35 nm) als Filter für Reinstwasser zum Einsatz kommen.rnNun zur Anfangs gestellten Frage: Wie unterschiedlich sind Wasser und Polymerkristallisation voneinander unter räumlicher Einschränkung? Durch Vergleich der beiden Phasendiagramme kommen wir zu dem Schluss, dass beide nicht fundamental verschieden sind. Dies ist zunächst verwunderlich, da Wasser ein kleines Molekül ist und wesentlich kleiner als die kleinste Porengröße ist. Wasser verfügt allerdings über starke Wasserstoffbrückenbindungen und verhält sich daher wie ein Polymer. Daher auch der Name „Polywasser“.
Resumo:
Die vorliegende Dissertation ist eine molekulargenetische Studie an humanem neolithischem Skelettmaterial. Im zentralen Blickpunkt stand die Bestimmung der Variabilität der mitochondrialen Haplogruppen einer frühneolithischen Stichprobe aus drei unterschiedlichen Kulturkreisen, welche die Linearbandkeramik (LBK und AVK), die Körös-Kultur und eine Sammelkategorie osteuropäischer spätmeso- und frühneolithischer Kulturen umfasste. Im Vergleich dieser Gruppen untereinander sowie mit Rezentdaten moderner Populationen aus vergleichbaren Gebieten Mittel- und Osteuropas sowie dem Nahen Osten sollten bestehende Modelle und Hypothesen zur Neolithisierung Mitteleuropas geprüft werden. Insgesamt konnte für 43 neolithische Individuen aus 16 Fundorten der reproduzierbare Nachweis endogener DNA erbracht werden. Eine eindeutige Haplogruppenbestimmung konnte durch die Sequenzierung vier überlappender Fragmente der mitochondrialen Hypervariablen Region I sowie durch RFLP-Analyse zusätzlicher charakteristischer Nukleotidpositionen für alle 43 Individuen durchgeführt werden. Die neolithischen Individuen der Linearbandkeramik sowie der Körös-Kultur zeigten eine hohe Diversität an bekannten europäischen Haplogruppen, wohingegen die kleinere Stichprobe aus dem Gebiet Osteuropas eine auffällige Homogenität aufwies. Neben Frequenzunterschieden zur modernen mitteleuropäischen Bevölkerung war innerhalb der LBK/AVK-Stichprobe eine hohe Frequenz der Haplogruppe N1a festzustellen, welche nicht in den beiden anderen neolithischen Stichproben zu finden war und auch in der heutigen Rezentbevölkerung Eurasiens und Nordafrikas nur mit einer durchschnittlichen Frequenz von 0,2% vertreten ist. Innerhalb der Individuen der Körös-Kultur fanden sich zwei Haplotypen, welche heute nicht in Europa bekannt sind, dagegen jedoch in Süd- bzw. Nordostasien gehäuft vorkommen. Die Ergebnisse der aDNA-Analysen bestätigten im Wesentlichen das komplexe Bild der Neolithischen Transition in Mitteleuropa und konnten die, für diesen Raum postulierte, Hypothese der leap frog colonization weitestgehend unterstützen. Auch für den geographischen Vergleichsraum des nördlichen Osteuropa konnten Parallelen zur etablierten Sichtweise der archäologischen Forschung zu diesem Gebiet und den vorliegenden Ergebnissen der aDNA-Analysen aufgezeigt werden. Die zeitlich verzögerte Annahme der neolithischen Lebensweise im waldreichen nördlichen Osteuropa spiegelt sich in der reduzierten Diversität an mtDNA-Haplogruppen wider. Die vorliegende Dissertation konnte nicht nur durch die Ergebnisse der Haplogruppen-Bestimmung, sondern vor allem durch die umfangreichen und elaborierten Reproduktions- und Authentifizierungprotokolle deutlich machen, dass der Nachweis von humaner alter DNA trotz der allgegenwärtigen, methodenimmanenten Kontaminationsgefahr unter streng kontrollierten Bedingungen möglich ist. Gleichermaßen konnte veranschaulicht werden, dass die aDNA-Analyse wertvolle Hinweise auf das genetische status quo einer Population liefern kann, welche nicht bzw. nur in sehr eingeschränkten Maße von rezenten DNA-Daten abgeleitet werden können. Als sekundäres Ergebnis erlaubte der bislang größte vorliegende Datensatz von ~2500 Klonsequenzen zudem einen detaillierten Einblick in Häufigkeiten und Verteilungsmuster von post mortem Sequenzveränderungen. Es konnten für den mitochondrialen Bereich der Nukleotidpositionen 15997-16409 so genannte hot bzw. cold spots definiert werden, welche für die Auswertung und Interpretation von zukünftigen Sequenzierungen der Hypervariablen Region I des mt-Genoms von entscheidender Bedeutung sein werden.
Resumo:
Georg Breitner Simulacra Artis pretio metienda Studien zur Erforschung spätantiker mythologischer Rundplastik Zusammenfassung: Die römische Rundplastik stellt einen zentralen Bestandteil römischer Ausstattung dar. Wirtschaftliche und religionspolitische Veränderungen in der Spätantike beeinflussten nachhaltig ihre Herstellung und Verwendung. In der Forschung stehen sich derzeit zwei Haupttendenzen gegenüber. Während die eine das Ende der römischen Idealplastik im 3.Jh.n.Chr. sehen möchte, schlägt die andere eine nahezu ungebrochene Produktion bis in das späte 4.Jh.n.Chr. vor. Die Arbeit untersucht daher nicht nur den Entwicklungsprozess, sondern auch die Gründe für die heute so unterschiedliche Bewertung. Nach dem einleitenden Teil zum Forschungstand, dem chronologischen Rahmen und der Zielsetzung der Arbeit, wird im zweiten Teil die heidnische Rundplastik in der spätantiken Literatur betrachtet. Ausgehend von der Frage nach dem Bedarf an Rundplastik und dem privaten wie öffentlichen Aufstellungskontextes in der Spätantike, werden Grundlagen für die Bestimmung spätantiker Verhaltensmuster herausgearbeitet, die eine Aussage über die Herstellung von rundplastischen Werken wahrscheinlich macht. Hierzu werden ausgewählte literarische Quellen herangezogen, die Veränderungen im Umgang mit der Präsenz heidnischer Rundplastik in einem zunehmend christlich geprägten gesellschaftlichen Raum nachzeichnen lassen. Die höchst unterschiedlichen Äußerungen spätantiker Autoren weisen auf eine vielschichtige Auseinandersetzung mit dem kulturellen Erbe und seinem Weiterleben. Die Betrachtung der literarischen Quellen zeigt, dass weder Hinweise für ein mangelndes Interesse bestehen, noch die im 4.Jh. einsetzenden religiösen Veränderungen eine Produktion und Aufstellung der mythologischen Rundplastik ausschließen. Vielmehr zeigt sich ein wachsendes Bewusstsein am kulturellen Erbe, das sich in der Auseinandersetzung mit dem Inhalt und dem künstlerischen Schaffensprozess einer Statue ausdrückt. Durch die Loslösung des mythologischen Inhalts der Statuen von der heidnischen Religionsausübung erhalten die Statuen, aber auch ihre Künstler eine neue Wertschätzung, die ihren Erhalt garantieren und neue künstlerische Prozesse auslösen. Mit der Analyse der literarischen Quellen sind die Rahmenbedingungen eines gesellschaftlichen Umfelds bestimmt, die in den folgenden Kapiteln auf ihre Verbindungen mit der realen Existenz spätantiker Statuen mit mythologischem Inhalt geprüft werden. Im dritten Teil werden zunächst methodische Aspekte zu den unterschiedlichen Positionen in der Forschung diskutiert. Die bisherigen Datierungsvorschläge spätantiker Rundplastik stehen dabei ebenso im Zentrum, wie die Vorschläge eigener methodischer Zielsetzungen. Es zeigt sich, dass die Polarisierung der Forschungsmeinung nicht allein durch das untersuchte Material, sondern vom methodischen Umgang mit der archäologischen Stilkritik und der Definition von Modellen kunsthistorischer Entwicklungen bestimmt wird. Es werden daher Wege gesucht, die Datierung spätantiker Kunstentwicklung am Beispiel der mythologischen Rundplastik auf eine neue methodische Basis zu stellen. Ausgehend von der Rundplastik des 3.Jh.n.Chr. werden im dritten Teil der Arbeit anhand ausgewählter Statuengruppen die bisherigen, teilweise kontrovers geführten Überlegungen zur Datierbarkeit und kunsthistorischen Stellung und Entwicklung spätantiker Rundplastik geprüft. Es zeigt sich, dass durch die Einbeziehung eines chronologisch weiter gefassten Rahmens (3.-5.Jh.) Möglichkeiten zur Bestimmung spätantiker Stiltendenzen und ihrer Datierung hinzugewonnen werden können. Auf dieser Grundlage können einige Statuen erstmals der Spätantike zugewiesen werden. Andere Statuen- bislang für spätantik gehalten - werden dagegen deutlich früher datiert. Die zeitstilistischen Bewertungen der Fallbeispiele zeigen, dass grundsätzliche Phänomene und Definitionen spätantiker Kunstentwicklung überdacht werden müssen. So zeugt das Fortbestehen klassischer Formprinzipien in einem gewandelten gesellschaftlichen Umfeld nicht von einer Renaissance, sondern vielmehr von einem andauernden Prozeß im Umgang mit dem kulturellen Erbe. Im fünften Abschnitt der Arbeit werden alle angesprochenen Aspekte nochmals aufgegriffen, um ein Bild von der Wertschätzung, Produktion und damit Fortbestandes römischer Idealplastik zu zeichnen. Die Arbeit schließt mit einem Ausblick ab, der Perspektiven der Stilanalyse spätantiker Rundplastik für die Bewertung nachfolgender Stilentwicklungen aufzeigt.
Resumo:
Kulturlandschaften als Ausdruck einer über viele Jahrhunderte währenden intensiven Interaktion zwischen Menschen und der sie umgebenden natürlichen Umwelt, sind ein traditionelles Forschungsobjekt der Geographie. Mensch/Natur-Interaktionen führen zu Veränderungen der natürlichen Umwelt, indem Menschen Landschaften kultivieren und modifizieren. Die Mensch/Natur-Interaktionen im Weinbau sind intensiv rückgekoppelt, Veränderungen der natürlichen Umwelt wirken auf die in den Kulturlandschaften lebenden und wirtschaftenden Winzer zurück und beeinflussen deren weiteres Handeln, was wiederum Einfluss auf die Entwicklung der gesamten Weinbau-Kulturlandschaft hat. Kulturlandschaft wird aus diesem Grund als ein heterogenes Wirkungsgefüge sozialer und natürlicher Elemente konzeptionalisiert, an dessen Entwicklung soziale und natürliche Elemente gleichzeitig und wechselseitig beteiligt sind. Grundlegend für die vorliegende Arbeit ist die Überzeugung, dass sich Kulturlandschaften durch Mensch/Natur-Interaktionen permanent neu organisieren und nie in einen Gleichgewichtszustand geraten, sondern sich ständig weiterentwickeln und wandeln. Die Komplexitätstheorie bietet hierfür die geeignete theoretische Grundlage. Sie richtet ihren Fokus auf die Entwicklung und den Wandel von Systemen und sucht dabei nach den Funktionsweisen von Systemzusammenhängen, um ein Verständnis für das Gesamtsystemverhalten von nicht-linearen dynamischen Systemen zu erreichen. Auf der Grundlage der Komplexitätstheorie wird ein Untersuchungsschema entwickelt, dass es ermöglich, die sozio-ökonomischen und raum-strukturellen Veränderungsprozesse in der Kulturlandschaftsentwicklung als sich wechselseitig beeinflussenden Systemzusammenhang zu erfassen. Die Rekonstruktion von Entwicklungsphasen, die Analysen von raum-strukturellen Mustern und Akteurskonstellationen sowie die Identifikation von Bifurkationspunkten in der Systemgeschichte sind dabei von übergeordneter Bedeutung. Durch die Untersuchung sowohl der physisch-räumlichen als auch der sozio-ökonomischen Dimension der Kulturlandschaftsentwicklung im Weinbau des Oberen Mittelrheintals soll ein Beitrag für die geographische Erforschung von Mensch/Natur-Interaktionen im Schnittstellenbereich von Physischer Geographie und Humangeographie geleistet werden. Die Anwendung des Untersuchungsschemas erfolgt auf den Weinbau im Oberen Mittelrheintal. Das Anbaugebiet ist seit vielen Jahrzehnten einem starken Rückgang an Weinbaubetrieben und Rebfläche unterworfen. Die rückläufigen Entwicklungen seit 1950 verliefen dabei nicht linear, sondern differenzierten das System in unterschiedliche Entwicklungspfade aus. Die Betriebsstrukturen und die Rahmenbedingungen im Weinbau veränderten sich grundlegend, was sichtbare Spuren in der Kulturlandschaft hinterließ. Dies zu rekonstruieren, zu analysieren und die zu verschiedenen Phasen der Entwicklung bedeutenden externen und internen Einflussfaktoren zu identifizieren, soll dazu beitragen, ein tief greifendes Verständnis für das selbstorganisierte Systemverhalten zu generieren und darauf basierende Handlungsoptionen für zukünftige Eingriffe in die Systementwicklung aufzuzeigen