1000 resultados para Köln kann auch anders
Resumo:
Immer wieder und mit viel schlechtem Gewissen hat sich Freud mit der Frage auseinandergesetzt, inwieweit die Psychoanalyse Wissenschaft oder nicht vielmehr Kunst sei. So stellt er etwa fest, daß seine Krankengeschichten wie Novellen zu lesen seien, daß die psychoanalytische Methode einer spezifischen Kunstbetrachtung gleiche und daß die freie Assoziation ihre Vorläuferschaft in einer kreativen Methode der literarischen Produktion finde. Damit droht eine "Ästhetisierung der Erkenntnis", die spätestens seit Nietzsche die Frage nach der Wahrheit grundlegend umwälzt. Diese ist nicht einfach vorfindbar oder abbildbar und existiert nicht prima facie, sondern muß "gedeutet", "erraten" und "konstruiert" werden. Die gleichsam ästhetischen Darstellungsformen des Psychischen reflektieren damit das Dargestellte selbst, nämlich die unbewußte psychische Realität, in der es kein Unterscheidungszeichen zwischen Realität und Fiktion gibt. Daraus erschließt sich auch ein anderes Verständnis des psychoanalytischen Tuns, das sich nicht hierarchisch einem wissenschaftlichen Regelwerk unterstellen läßt, sondern als ein heuristischer Suchprozeß zu beschreiben und mit Hilfe der Erkenntnisse der Kreativitätsforschung zu verstehen ist. Die Autoren plädieren weiterhin dafür, daß Psychoanalyse nur als ein dialogisch-intersubjektives Geschehen begriffen werden kann, in dem die "biographische Wahrheit" in einem gleichsam poetischen Akt gemeinsam erfunden und erzeugt wird.
Resumo:
Kunst und Wissenschaft - ein unüberbrückbarer Gegensatz, gar Widerspruch oder ein sich befruchtendes Verhältnis? Beide haben sich im laufe der letzten Jahrhunderte immer weiter auseinanderentwickelt. Es scheint sich um weitgehend voneinander unabhängige und fast gänzlich voneinander geschiedene Bereiche zu handeln, die nach je eigenen, nicht ineinander überführbaren Regeln und Prinzipien funktionieren. Zählt in der Kunst Kreativität, Intuition und Subjektivität, so ist Wissenschaft traditionell durch andere Tugenden beherrscht: Der Erkenntnisprozeß soll geregelt, möglichst unter Ausschluß von subjektiver Willkür und vermittels des disziplinierten Einsatzes einer objektiven Vernunft vonstatten gehen. Wie kann sich Psychotherapie, wie die rationale Wissenschaft ein Kind der Neuzeit, die aber auch und andererseits über eine Tradition verfügt, die sie in die Nähe einer Heil"kunst" bringt, innerhalb dieses (Un-)Verhältnisses situieren? Ist sie ganz dem Kanon wissenschaftlicher Verfahren zuzuschlagen, wie es die Mehrheit der Forscher und auch einige Praktiker wollen? Oder kommt sie in die Nähe eines poetischen und ästhetischen Tuns, und bringen im Behandlungsprozeß zwei Menschen nicht durchaus kunstvoll eine neue Wirklichkeit hervor, die einer Novelle oder einem Roman gleicht? Diesen Fragen wollen wir im folgenden nachgehen. Wir werden vor allem bei Freud nachschlagen, der vor etwa 100 Jahren die Psychotherapie begründet hat, und wir werden die spannungsreiche und zerrissene Geschichte der Psychotherapie nach Freud schlaglichthaft nachvollziehen. Es liegt bei diesem Thema nahe, sowohl die wissenschaftliche Psychotherapie als auch kreative Prozesse zu untersuchen, die nicht nur in der künstlerischen Produktion eine Rolle spielen, sondern sich eben auch auf therapeutisches Handeln anwenden und übertragen lassen. Wenn es denn wahr ist, daß Kunst und Wissenschaft sich im Feld der Psychotherapie berühren, so wird der Gegensatz zwischen ihnen vielleicht nicht mehr so kraß ausfallen, und es werden Übergänge möglich. Wenn Wissenschaft sich von Kunst affizieren läßt, so wird sie sich erweitern und, was nicht unwesentlich ist, nicht nur darauf achten, daß ihre Erkenntnisse "wahr", sondern auch schön sind.
Resumo:
Projekte und Projektmanagement sind zunehmend wesentliche Merkmale heutiger Unternehmen, Nicht alle diese Projekte verlaufen jedoch erfolgreich. Der vorliegende Beitrag soll aufzeigen, wie mit Krisen im Projektverlauf oder mit scheiternden Projekten umgegangen werden kann, damit sie zu einem guten Ende gebracht werden können. Daraus entstehen gewinnbringende Lernchancen, die sowohl der Einzelne als auch die Gesamtorganisation konstruktiv nutzen können.
Resumo:
In der Betrachtung der Supervision begegnen sich zwei unterschiedliche Perspektiven. Einerseits wird Supervision als schlichte Anwendung wissenschaftlich gewonnener Erkenntnisse gewertet. Andererseits läßt sie sich jedoch auch als eine »Kunst« begreifen. Die Autoren gehen davon aus, daß sich professionelles supervisorisches Handeln nicht hierarchisch einem wissenschaftlichen Regelwerk unterstellen läßt, sondern daß beide Bereiche gleichberechtigt ihren je eigenen Diskurs- und Handlungsformen folgen. Sinnvoll scheint es, das supervisorische Tun als einen heuristischen Suchprozeß zu beschreiben und ihn mit Hilfe der Erkenntnisse der Kreativitätsforschung besser zu verstehen. Die Autoren plädieren weiterhin dafür, daß eine psychoanalytisch orientierte Supervision nur als ein dialogisch-intersubjektives Geschehen begriffen werden kann, in dem die biographische "Wahrheit" oder das institutionelle bzw. organisatorische Unbewußte in einem gleichsam poetisch-schöpferischen Akt zwischen Supervisor und Supervisand(en) gemeinsam erfunden und erzeugt wird.
Resumo:
Die gegenwärtigen Rekonstruktionsbemühungen sind keine Nachwirkungen der Wendezeit, die auf ostdeutschem Gebiet nachholen, was auf westdeutschem Terrain direkt nach dem Krieg erfolgte: der Nachkriegswiederaufbau. Es handelt sich beim Rekonstruktionsboom um ein generelles zeitgenössisches Phänomen wie anhand der Beispielsituationen Dresden – Frauenkirche, Frankfurt am Main – Römerberg und Berlin – Stadtschloss dargestellt wird. Dieses wird durch die Globalisierung aber auch andere Faktoren begünstigt. Die Planungen für die jeweiligen Rekonstruktionssituationen seit der Zerstörungen des Zweiten Weltkrieges werden verfolgt und innerhalb des Stadtwiederaufbaus der Nachkriegsjahre bis zur Gegenwart verortet. Dabei wird aufgezeigt, dass die jeweiligen Planungsvorhaben und besonders die Einstellungen zu Rekonstruktionen beziehungsweise zu den heute gewünschten Situationen in allen drei Beispielstädten abhängig sind von dem jeweiligen Zeitgeschmack und politischen, wirtschaftlichen oder finanziell geprägten Einflüssen; um den Willen der Stadtbürger geht es dabei immer nur am Rand – erfolgreich beim Durchsetzen der Vorstellungen sind deshalb selten sie, sondern vielmehr politische und wirtschaftliche Interessensverbände. Sucht man nach festgesetzten Richtlinien, die eine Rekonstruktion autorisieren, werden häufig Denkmalpflegeleitlinien zitiert, die jedoch nicht ausreichend detailliert formuliert sind und beispielsweise mit dem Fall der beschränkten Fehlstelle sowohl Befürwortern als auch Gegnern der Rekonstruktionen Argumente liefern. In den Diskussionen geht es nicht um Denkmäler im klassischen Sinne, das heißt es handelt sich nicht um Objekte, die vor ihrer Zerstörung das offizielle Siegel trugen und die deshalb wiederhergestellt werden sollen. Aus diesem Grund sind die gegenwärtigen Rekonstruktionsdebatten nicht klassischer Gegenstand der Denkmalpflegedisziplin. Dennoch werden erfolgreiche Fälle wie die Frauenkirche als Musterobjekte der Disziplin inszeniert, was suggeriert, dass sich das klassische Aufgabenfeld der Denkmalpflege verschiebt. Der bürgerliche Wunsch nach Rekonstruktionen spricht von einem neuen Denkmalverständnis: Als erhaltenswert werden nicht die offiziell mit Siegel erwählten Objekte verstanden, sondern Bauten, die für die eigene Identität eine wichtige Rolle spielen. Diese Form der Denkmalbewertung ist allerdings abhängig von Generationslinien, verschiedenen sozialen Schichten und anderen gesellschaftlichen Gruppierungen. Diese Tatsache führt zu einer unterschiedlichen Wertebeurteilung bestimmter Objekte und zu Diskussionen wie sie momentan für und wider Rekonstruktionen geführt werden. Der Rekonstruktionsboom barocker und renaissance-orientierter Strukturen wird durch ein sich wandelndes Geschichtsbild beeinflusst, welches das Interesse an diesen Epochen neu erweckt hat. Wurde bisher das Mittelalter und die Zeit zwischen Reformation und Französischer Revolution verdrängt, werden diese vergessenen Epochen wieder zunehmend zum Forschungsgegenstand und zum Bestandteil der kulturellen Debatte. Die gewünschten barocken und mittelalterlichen Rekonstruktionen kann man als mediale Rekonstruktionsarchitekturen bezeichnen. Die Macht der Medien ist auf fünf, die Rekonstruktion umgebenden Ebenen zu beobachten: Erschaffung; Vermarktung; Konsumentenüberzeugung; Bildneukompositionen; Erschaffung und Verbreitung von Bildern oder Realitäten.
Resumo:
In der Betrachtung der Supervision begegnen sich zwei unterschiedliche Perspektiven. Einerseits wird Supervision als schlichte Anwendung wissenschaftlich gewonnener Erkenntnisse gewertet. Andererseits lässt sie sich jedoch auch als eine "Kunst" begreifen. Die Autoren gehen davon aus, dass sich professionelles supervisorisches Handeln nicht hierarchisch einem wissenschaftlichen Regelwerk unterstellen lässt, sondern dass beide Bereiche gleichberechtigt ihren je eigenen Diskurs- und Handlungsformen folgen. Sinnvoll scheint es, das supervisorische Tun als einen heuristischen Suchprozess zu beschreiben und ihn mit Hilfe der Erkenntnisse der Kreativitätsforschung besser zu verstehen. Die Autoren plädieren weiterhin dafür, dass eine psychoanalytisch orientierte Supervision nur als ein dialogisch-intersubjektives Geschehen begriffen werden kann, in dem die biographische "Wahrheit" oder das institutionelle bzw. organisatorische Unbewusste in einem gleichsam poetischen-schöpferischen Akt zwischen Supervisor und Supervisand(en) gemeinsam erfunden und erzeugt wird.
Resumo:
Die vorliegende Arbeit befasst sich mit den Fehlern, die bei der Berechnung von Tragstrukturen auftreten können, dem Diskretisierungs- und dem Modellfehler. Ein zentrales Werkzeug für die Betrachtung des lokalen Fehlers in einer FE-Berechnung sind die Greenschen Funktionen, die auch in anderen Bereichen der Statik, wie man zeigen kann, eine tragende Rolle spielen. Um den richtigen Einsatz der Greenschen Funktion mit der FE-Technik sicherzustellen, werden deren Eigenschaften und die konsistente Generierung aufgezeigt. Mit dem vorgestellten Verfahren, der Lagrange-Methode, wird es möglich auch für nichtlineare Probleme eine Greensche Funktion zu ermitteln. Eine logische Konsequenz aus diesen Betrachtungen ist die Verbesserung der Einflussfunktion durch Verwendung von Grundlösungen. Die Greensche Funktion wird dabei in die Grundlösung und einen regulären Anteil, welcher mittels FE-Technik bestimmt wird, aufgespalten. Mit dieser Methode, hier angewandt auf die Kirchhoff-Platte, erhält man deutlich genauere Ergebnisse als mit der FE-Methode bei einem vergleichbaren Rechenaufwand, wie die numerischen Untersuchungen zeigen. Die Lagrange-Methode bietet einen generellen Zugang zur zweiten Fehlerart, dem Modellfehler, und kann für lineare und nichtlineare Probleme angewandt werden. Auch hierbei übernimmt die Greensche Funktion wieder eine tragende Rolle, um die Auswirkungen von Parameteränderungen auf ausgewählte Zielgrößen betrachten zu können.
Resumo:
In dieser Arbeit werden nichtüberlappende Gebietszerlegungsmethoden einerseits hinsichtlich der zu lösenden Problemklassen verallgemeinert und andererseits in bisher nicht untersuchten Kontexten betrachtet. Dabei stehen funktionalanalytische Untersuchungen zur Wohldefiniertheit, eindeutigen Lösbarkeit und Konvergenz im Vordergrund. Im ersten Teil werden lineare elliptische Dirichlet-Randwertprobleme behandelt, wobei neben Problemen mit dominantem Hauptteil auch solche mit singulärer Störung desselben, wie konvektions- oder reaktionsdominante Probleme zugelassen sind. Der zweite Teil befasst sich mit (gleichmäßig) monotonen koerziven quasilinearen elliptischen Dirichlet-Randwertproblemen. In beiden Fällen wird das Lipschitz-Gebiet in endlich viele Lipschitz-Teilgebiete zerlegt, wobei insbesondere Kreuzungspunkte und Teilgebiete ohne Außenrand zugelassen sind. Anschließend werden Transmissionsprobleme mit frei wählbaren $L^{\infty}$-Parameterfunktionen hergeleitet, wobei die Konormalenableitungen als Funktionale auf geeigneten Funktionenräumen über den Teilrändern ($H_{00}^{1/2}(\Gamma)$) interpretiert werden. Die iterative Lösung dieser Transmissionsprobleme mit einem Ansatz von Deng führt auf eine Substrukturierungsmethode mit Robin-artigen Transmissionsbedingungen, bei der eine Auswertung der Konormalenableitungen aufgrund einer geschickten Aufdatierung der Robin-Daten nicht notwendig ist (insbesondere ist die bekannte Robin-Robin-Methode von Lions als Spezialfall enthalten). Die Konvergenz bezüglich einer partitionierten $H^1$-Norm wird für beide Problemklassen gezeigt. Dabei werden keine über $H^1$ hinausgehende Regularitätsforderungen an die Lösungen gestellt und die Gebiete müssen keine zusätzlichen Glattheitsvoraussetzungen erfüllen. Im letzten Kapitel werden nichtmonotone koerzive quasilineare Probleme untersucht, wobei das Zugrunde liegende Gebiet nur in zwei Lipschitz-Teilgebiete zerlegt sein soll. Das zugehörige nichtlineare Transmissionsproblem wird durch Kirchhoff-Transformation in lineare Teilprobleme mit nichtlinearen Kopplungsbedingungen überführt. Ein optimierungsbasierter Lösungsansatz, welcher einen geeigneten Abstand der rücktransformierten Dirichlet-Daten der linearen Teilprobleme auf den Teilrändern minimiert, führt auf ein optimales Kontrollproblem. Die dabei entstehenden regularisierten freien Minimierungsprobleme werden mit Hilfe eines Gradientenverfahrens unter minimalen Glattheitsforderungen an die Nichtlinearitäten gelöst. Unter zusätzlichen Glattheitsvoraussetzungen an die Nichtlinearitäten und weiteren technischen Voraussetzungen an die Lösung des quasilinearen Ausgangsproblems, kann zudem die quadratische Konvergenz des Newton-Verfahrens gesichert werden.
Resumo:
Die Bedeutung des Dienstgüte-Managements (SLM) im Bereich von Unternehmensanwendungen steigt mit der zunehmenden Kritikalität von IT-gestützten Prozessen für den Erfolg einzelner Unternehmen. Traditionell werden zur Implementierung eines wirksamen SLMs Monitoringprozesse in hierarchischen Managementumgebungen etabliert, die einen Administrator bei der notwendigen Rekonfiguration von Systemen unterstützen. Auf aktuelle, hochdynamische Softwarearchitekturen sind diese hierarchischen Ansätze jedoch nur sehr eingeschränkt anwendbar. Ein Beispiel dafür sind dienstorientierte Architekturen (SOA), bei denen die Geschäftsfunktionalität durch das Zusammenspiel einzelner, voneinander unabhängiger Dienste auf Basis deskriptiver Workflow-Beschreibungen modelliert wird. Dadurch ergibt sich eine hohe Laufzeitdynamik der gesamten Architektur. Für das SLM ist insbesondere die dezentrale Struktur einer SOA mit unterschiedlichen administrativen Zuständigkeiten für einzelne Teilsysteme problematisch, da regelnde Eingriffe zum einen durch die Kapselung der Implementierung einzelner Dienste und zum anderen durch das Fehlen einer zentralen Kontrollinstanz nur sehr eingeschränkt möglich sind. Die vorliegende Arbeit definiert die Architektur eines SLM-Systems für SOA-Umgebungen, in dem autonome Management-Komponenten kooperieren, um übergeordnete Dienstgüteziele zu erfüllen: Mithilfe von Selbst-Management-Technologien wird zunächst eine Automatisierung des Dienstgüte-Managements auf Ebene einzelner Dienste erreicht. Die autonomen Management-Komponenten dieser Dienste können dann mithilfe von Selbstorganisationsmechanismen übergreifende Ziele zur Optimierung von Dienstgüteverhalten und Ressourcennutzung verfolgen. Für das SLM auf Ebene von SOA Workflows müssen temporär dienstübergreifende Kooperationen zur Erfüllung von Dienstgüteanforderungen etabliert werden, die sich damit auch über mehrere administrative Domänen erstrecken können. Eine solche zeitlich begrenzte Kooperation autonomer Teilsysteme kann sinnvoll nur dezentral erfolgen, da die jeweiligen Kooperationspartner im Vorfeld nicht bekannt sind und – je nach Lebensdauer einzelner Workflows – zur Laufzeit beteiligte Komponenten ausgetauscht werden können. In der Arbeit wird ein Verfahren zur Koordination autonomer Management-Komponenten mit dem Ziel der Optimierung von Antwortzeiten auf Workflow-Ebene entwickelt: Management-Komponenten können durch Übertragung von Antwortzeitanteilen untereinander ihre individuellen Ziele straffen oder lockern, ohne dass das Gesamtantwortzeitziel dadurch verändert wird. Die Übertragung von Antwortzeitanteilen wird mithilfe eines Auktionsverfahrens realisiert. Technische Grundlage der Kooperation bildet ein Gruppenkommunikationsmechanismus. Weiterhin werden in Bezug auf die Nutzung geteilter, virtualisierter Ressourcen konkurrierende Dienste entsprechend geschäftlicher Ziele priorisiert. Im Rahmen der praktischen Umsetzung wird die Realisierung zentraler Architekturelemente und der entwickelten Verfahren zur Selbstorganisation beispielhaft für das SLM konkreter Komponenten vorgestellt. Zur Untersuchung der Management-Kooperation in größeren Szenarien wird ein hybrider Simulationsansatz verwendet. Im Rahmen der Evaluation werden Untersuchungen zur Skalierbarkeit des Ansatzes durchgeführt. Schwerpunkt ist hierbei die Betrachtung eines Systems aus kooperierenden Management-Komponenten, insbesondere im Hinblick auf den Kommunikationsaufwand. Die Evaluation zeigt, dass ein dienstübergreifendes, autonomes Performance-Management in SOA-Umgebungen möglich ist. Die Ergebnisse legen nahe, dass der entwickelte Ansatz auch in großen Umgebungen erfolgreich angewendet werden kann.
Resumo:
Zur Erholung in die Natur gehen oder doch lieber zur Natursimulation greifen? Intuitiv würden die meisten Menschen der Natur einen größeren Erholungswert zusprechen als einer Natursimulation. Aber ist die Natur tatsächlich erholsamer? In der Naturerholungsforschung (Restorative Environment Research) kommen häufig Natursimulationen zum Einsatz, um die erholsame Wirkung von Natur zu ermitteln. Problematisch ist dabei, dass deren ökologische Validität und Vergleichbarkeit noch nicht empirisch abgesichert ist. Vorliegende Arbeit setzt an dieser methodischen und empirischen Lücke an. Sie überprüft sowohl die ökologische Validität als auch die Vergleichbarkeit von Natursimulationen. Dazu wird die erholsame Wirkung von zwei Natursimulationen im Vergleich zu der physisch-materiellen Natur empirisch untersucht und verglichen. Darüber hinaus werden Aspekte des subjektiven Erlebens und der Bewertung im Naturerholungskontext exploriert. Als bedeutsamer Wirkmechanismus wird die erlebnisbezogene Künstlichkeit/Natürlichkeit angesehen, die sich auf die Erlebnisqualität von Natursimulationen und der physisch-materiellen Natur bezieht: Natursimulationen weisen im Vergleich zur physisch-materiellen Natur eine reduzierte Erlebnisqualität auf (erlebnisbezogene Künstlichkeit), z.B. eine reduzierte Qualität und Quantität der Sinnesansprache. Stellt man einen derartigen Vergleich nicht nur mit der physisch-materiellen Natur, sondern mit unterschiedlichen Natursimulationstypen an, dann zeigen sich auch hier Unterschiede in der erlebnisbezogenen Künstlichkeit. Beispielsweise unterscheidet sich ein Naturfoto von einem Naturfilm durch das Fehlen von auditiven und bewegten Stimuli. Diese erlebnisbezogene Künstlichkeit kann die erholsame Wirkung von Natur - direkt oder indirekt über Bewertungen - hemmen. Als Haupthypothese wird angenommen, dass mit zunehmendem Ausmaß an erlebnisbezogener Künstlichkeit die erholsame Wirkung der Natur abnimmt. Dem kombinierten Feld- und Laborexperiment liegt ein einfaktorielles Vorher-Nachher-Design zugrunde. Den 117 Probanden wurde zunächst eine kognitiv und affektiv belastende Aufgabe vorgelegt, danach folgte die Erholungsphase. Diese bestand aus einem Spaziergang, der entweder in der physisch-materiellen Natur (urbaner Park) oder in einer der beiden audio-visuellen Natursimulationen (videogefilmter vs. computergenerierter Spaziergang durch selbigen urbanen Park) oder auf dem Laufband ohne audio-visuelle Darbietung stattfand. Die erlebnisbezogene Künstlichkeit/Natürlichkeit wurde also wie folgt operationlisiert: die physische Natur steht für die erlebnisbezogene Natürlichkeit. Die beiden Natursimulationen stehen für die erlebnisbezogene Künstlichkeit. Die computergenerierte Version ist im Vergleich zur Videoversion erlebnisbezogen künstlicher, da sie weniger fotorealistisch ist. Die Zuordnung zu einer der vier experimentellen Erholungssettings erfolgte nach dem Zufallsprinzip. Die Effekte von moderater Bewegung wurden in den Natursimulationen durch das Laufen auf dem Laufband kontrolliert. Die Beanspruchungs- bzw. Erholungsreaktionen wurden auf kognitiver (Konzentriertheit, Aufmerksamkeitsleistung) affektiver (3 Befindlichkeitsskalen: Wachheit, Ruhe, gute Stimmung) und physiologischer (Alpha-Amylase) Ebene gemessen, um ein umfassendes Bild der Reaktionen zu erhalten. Insgesamt zeigen die Ergebnisse, dass die beiden Natursimulationen trotz Unterschiede in der erlebnisbezogenen Künstlichkeit/Natürlichkeit zu relativ ähnlichen Erholungsreaktionen führen, wie die physisch-materielle Natur. Eine Ausnahme stellen eine der drei affektiven (Wachheit) und die physiologische Reaktion dar: Probanden der physisch-materiellen Naturbedingung geben an wacher zu sein und weisen - wider erwarten - eine höhere physiologische Erregung auf. Demnach ist die physisch-materielle Natur nicht grundsätzlich erholsamer als die Natursimulationen. Die Hypothese ließ sich somit nicht bestätigen. Vielmehr deuten sich komplexe Erholungsmuster und damit auch unterschiedliche Erholungsqualitäten der Settings an, die einer differenzierten Betrachtung bedürfen. Für die ökologische Validität von Natursimulationen gilt, dass diese nur mit Einschränkung als ökologisch valide bezeichnet werden können, d.h. nur für bestimmte, aber nicht für alle Erholungsreaktionen. Die beiden Natursimulationen führen ebenfalls trotz Unterschiede in der erlebnisbezogenen Künstlichkeit zu ähnlichen Erholungsreaktionen und können somit als gleichwertig behandelt werden. Erstaunlicherweise kommt es hier zu ähnlichen Erholungsreaktionen, obwohl die bestehenden Unterschiede von den Probanden wahrgenommen und die erlebnisbezogen künstlichere computergenerierte Version negativer bewertet wird. Aufgrund der nicht erwartungskonformen Ergebnisse muss das Erklärungskonzept der erlebnisbezogenen Künstlichkeit/Natürlichkeit infrage gestellt werden. Alternative Erklärungskonzepte für die Ergebnisse („Ungewissheit“, mentale räumliche Modelle), die sich andeutenden unterschiedlichen Erholungsqualitäten der Settings, methodische Einschränkungen sowie die praktische Bedeutung der Ergebnisse werden kritisch diskutiert.
Resumo:
The 21st century has brought new challenges for forest management at a time when globalization in world trade is increasing and global climate change is becoming increasingly apparent. In addition to various goods and services like food, feed, timber or biofuels being provided to humans, forest ecosystems are a large store of terrestrial carbon and account for a major part of the carbon exchange between the atmosphere and the land surface. Depending on the stage of the ecosystems and/or management regimes, forests can be either sinks, or sources of carbon. At the global scale, rapid economic development and a growing world population have raised much concern over the use of natural resources, especially forest resources. The challenging question is how can the global demands for forest commodities be satisfied in an increasingly globalised economy, and where could they potentially be produced? For this purpose, wood demand estimates need to be integrated in a framework, which is able to adequately handle the competition for land between major land-use options such as residential land or agricultural land. This thesis is organised in accordance with the requirements to integrate the simulation of forest changes based on wood extraction in an existing framework for global land-use modelling called LandSHIFT. Accordingly, the following neuralgic points for research have been identified: (1) a review of existing global-scale economic forest sector models (2) simulation of global wood production under selected scenarios (3) simulation of global vegetation carbon yields and (4) the implementation of a land-use allocation procedure to simulate the impact of wood extraction on forest land-cover. Modelling the spatial dynamics of forests on the global scale requires two important inputs: (1) simulated long-term wood demand data to determine future roundwood harvests in each country and (2) the changes in the spatial distribution of woody biomass stocks to determine how much of the resource is available to satisfy the simulated wood demands. First, three global timber market models are reviewed and compared in order to select a suitable economic model to generate wood demand scenario data for the forest sector in LandSHIFT. The comparison indicates that the ‘Global Forest Products Model’ (GFPM) is most suitable for obtaining projections on future roundwood harvests for further study with the LandSHIFT forest sector. Accordingly, the GFPM is adapted and applied to simulate wood demands for the global forestry sector conditional on selected scenarios from the Millennium Ecosystem Assessment and the Global Environmental Outlook until 2050. Secondly, the Lund-Potsdam-Jena (LPJ) dynamic global vegetation model is utilized to simulate the change in potential vegetation carbon stocks for the forested locations in LandSHIFT. The LPJ data is used in collaboration with spatially explicit forest inventory data on aboveground biomass to allocate the demands for raw forest products and identify locations of deforestation. Using the previous results as an input, a methodology to simulate the spatial dynamics of forests based on wood extraction is developed within the LandSHIFT framework. The land-use allocation procedure specified in the module translates the country level demands for forest products into woody biomass requirements for forest areas, and allocates these on a five arc minute grid. In a first version, the model assumes only actual conditions through the entire study period and does not explicitly address forest age structure. Although the module is in a very preliminary stage of development, it already captures the effects of important drivers of land-use change like cropland and urban expansion. As a first plausibility test, the module performance is tested under three forest management scenarios. The module succeeds in responding to changing inputs in an expected and consistent manner. The entire methodology is applied in an exemplary scenario analysis for India. A couple of future research priorities need to be addressed, particularly the incorporation of plantation establishments; issue of age structure dynamics; as well as the implementation of a new technology change factor in the GFPM which can allow the specification of substituting raw wood products (especially fuelwood) by other non-wood products.
Resumo:
Summary: Productivity and forage quality of legume-grass swards are important factors for successful arable farming in both organic and conventional farming systems. For these objectives the botanical composition of the swards is of particular importance, especially, the content of legumes due to their ability to fix airborne nitrogen. As it can vary considerably within a field, a non-destructive detection method while doing other tasks would facilitate a more targeted sward management and could predict the nitrogen supply of the soil for the subsequent crop. This study was undertaken to explore the potential of digital image analysis (DIA) for a non destructive prediction of legume dry matter (DM) contribution of legume-grass mixtures. For this purpose an experiment was conducted in a greenhouse, comprising a sample size of 64 experimental swards such as pure swards of red clover (Trifolium pratense L.), white clover (Trifolium repens L.) and lucerne (Medicago sativa L.) as well as binary mixtures of each legume with perennial ryegrass (Lolium perenne L.). Growth stages ranged from tillering to heading and the proportion of legumes from 0 to 80 %. Based on digital sward images three steps were considered in order to estimate the legume contribution (% of DM): i) The development of a digital image analysis (DIA) procedure in order to estimate legume coverage (% of area). ii) The description of the relationship between legume coverage (% area) and legume contribution (% of DM) derived from digital analysis of legume coverage related to the green area in a digital image. iii) The estimation of the legume DM contribution with the findings of i) and ii). i) In order to evaluate the most suitable approach for the estimation of legume coverage by means of DIA different tools were tested. Morphological operators such as erode and dilate support the differentiation of objects of different shape by shrinking and dilating objects (Soille, 1999). When applied to digital images of legume-grass mixtures thin grass leaves were removed whereas rounder clover leaves were left. After this process legume leaves were identified by threshold segmentation. The segmentation of greyscale images turned out to be not applicable since the segmentation between legumes and bare soil failed. The advanced procedure comprising morphological operators and HSL colour information could determine bare soil areas in young and open swards very accurately. Also legume specific HSL thresholds allowed for precise estimations of legume coverage across a wide range from 11.8 - 72.4 %. Based on this legume specific DIA procedure estimated legume coverage showed good correlations with the measured values across the whole range of sward ages (R2 0.96, SE 4.7 %). A wide range of form parameters (i.e. size, breadth, rectangularity, and circularity of areas) was tested across all sward types, but none did improve prediction accuracy of legume coverage significantly. ii) Using measured reference data of legume coverage and contribution, in a first approach a common relationship based on all three legumes and sward ages of 35, 49 and 63 days was found with R2 0.90. This relationship was improved by a legume-specific approach of only 49- and 63-d old swards (R2 0.94, 0.96 and 0.97 for red clover, white clover, and lucerne, respectively) since differing structural attributes of the legume species influence the relationship between these two parameters. In a second approach biomass was included in the model in order to allow for different structures of swards of different ages. Hence, a model was developed, providing a close look on the relationship between legume coverage in binary legume-ryegrass communities and the legume contribution: At the same level of legume coverage, legume contribution decreased with increased total biomass. This phenomenon may be caused by more non-leguminous biomass covered by legume leaves at high levels of total biomass. Additionally, values of legume contribution and coverage were transformed to the logit-scale in order to avoid problems with heteroscedasticity and negative predictions. The resulting relationships between the measured legume contribution and the calculated legume contribution indicated a high model accuracy for all legume species (R2 0.93, 0.97, 0.98 with SE 4.81, 3.22, 3.07 % of DM for red clover, white clover, and lucerne swards, respectively). The validation of the model by using digital images collected over field grown swards with biomass ranges considering the scope of the model shows, that the model is able to predict legume contribution for most common legume-grass swards (Frame, 1992; Ledgard and Steele, 1992; Loges, 1998). iii) An advanced procedure for the determination of legume DM contribution by DIA is suggested, which comprises the inclusion of morphological operators and HSL colour information in the analysis of images and which applies an advanced function to predict legume DM contribution from legume coverage by considering total sward biomass. Low residuals between measured and calculated values of legume dry matter contribution were found for the separate legume species (R2 0.90, 0.94, 0.93 with SE 5.89, 4.31, 5.52 % of DM for red clover, white clover, and lucerne swards, respectively). The introduced DIA procedure provides a rapid and precise estimation of legume DM contribution for different legume species across a wide range of sward ages. Further research is needed in order to adapt the procedure to field scale, dealing with differing light effects and potentially higher swards. The integration of total biomass into the model for determining legume contribution does not necessarily reduce its applicability in practice as a combined estimation of total biomass and legume coverage by field spectroscopy (Biewer et al. 2009) and DIA, respectively, may allow for an accurate prediction of the legume contribution in legume-grass mixtures.
Resumo:
Die Stadt Kirkuk liegt im Norden des Irak, ist die Hauptstadt der Provinz Kirkuk. Heute hat die Stadt ca. 800.000 Einwohner, die Provinz etwa 1 Mio. Die Entstehungsgeschichte der Stadt reicht bis ins Jahr 2000 v. Chr. zurück. Die Entwicklung der Stadt ist geprägt durch verschiedene Epochen der Herrscher und Besatzer, die zum Teil über mehrere Jahrhunderte dauerten und durch den Zuzug unterschiedlicher Völker und Stämme. Die heutige Situation der Stadt Kirkuk zeigt die Auswirkungen der gezielten Maßnahmen Zentralregierungen in den Jahren von 1958 bis 2003. Diese Zeit war bestimmt durch Vernachlässigung der baulichen Strukturen und Arabisierung der Bevölkerungsstrukturen. Zu den Methoden der Arabisierung gehörte neben der Ansiedlung von Arabern auch die Vertreibung und Verfeindung der ethnischen Gruppen. Der Zusammenbruch der gesamten Infrastruktur und ein zerstörtes Stadtbild bestimmen heute die Landschaft der Stadt. Die heutige Vielfältigkeit der Gesellschaft in Kirkuk umfasst das Zusammenleben von verschiedenen Ethnien und religiösen Gruppen: Kurden, Turkmenen, Araber, Assyrer und Chaldäer. Ein Ziel der Arbeit war es, diese multikulturelle Vielfalt der Stadt offen zu legen und dadurch Grundlagen für ein harmonisches Zusammenleben der verschiedenen ethnischen und religiösen Gruppierungen darzustellen. Hierzu wurden die gesellschaftlichen Entwicklungsprozesse seit der Beendigung der osmanischen Herrschaft im Jahre 1900 untersucht. Denn verschiedene Epochen zeigten, dass die Gruppierungen der Gesellschaft Kirkuks fähig waren ein reibungsloses Zusammenleben in der Gemeinschaft zu führen. Diese untersuchte Zeitspanne umfasst verschiedene politische Umbrüche: Gründung des Staates Irak, Mandatrecht der Engländer über den Irak, Verwaltung des Iraks in der Monarchie, die Entdeckung und Vermarktung des Erdöls in Kirkuk, Ausrufung der Republik Irak und Beendigung der Monarchie, Machtübernahme durch den Militärputsch, Beendigung der Republikregierungen durch Alliierten und Beginn des Demokratisierungsprozesses des irakischen Politiksystems. Weiteres Ziel dieser Arbeit war es, einen konzeptionellen Beitrag zum Wiederaufbau der Stadt Kirkuk zu leisten, damit die verschiedenen kulturell-ethnischen Gruppen die Stadt als ihren Ort finden. Die aktuellen Schwierigkeiten hinsichtlich der Lebenssituation in der Stadt wären zu überwinden wenn jede der in der Stadt lebenden Gruppen die Stadt als Heimat aller Gruppen ansehen würde. Auf dem Weg zu diesem Ziel soll diese Arbeit eine Grundlage für die Diskussion über die Identität von Kirkuk sein. Sie bietet Ansätze zur Beantwortung folgender Fragen: Wie kann der Umgang einer vielfältigen Gesellschaft mit sozialen Spannungen, in Folge von politischen Auseinandersetzungen, in den sozialen und politischen Bereichen aussehen, um die Gestaltung des Demokratisierungsprozesses zu unterstützen? Wie kann die städtebauliche Modernisierung gelingen ohne die historischen Strukturen der Stadt zu zerstören? Wie kann die Zusammengehörigkeit der verschiedenen Gruppen in der vielfältigen Stadt durch städtebauliche Ideen unterstützt werden?
Resumo:
A real-time analysis of renewable energy sources, such as arable crops, is of great importance with regard to an optimised process management, since aspects of ecology and biodiversity are considered in crop production in order to provide a sustainable energy supply by biomass. This study was undertaken to explore the potential of spectroscopic measurement procedures for the prediction of potassium (K), chloride (Cl), and phosphate (P), of dry matter (DM) yield, metabolisable energy (ME), ash and crude fibre contents (ash, CF), crude lipid (EE), nitrate free extracts (NfE) as well as of crude protein (CP) and nitrogen (N), respectively in pretreated samples and undisturbed crops. Three experiments were conducted, one in a laboratory using near infrared reflectance spectroscopy (NIRS) and two field spectroscopic experiments. Laboratory NIRS measurements were conducted to evaluate to what extent a prediction of quality parameters is possible examining press cakes characterised by a wide heterogeneity of their parent material. 210 samples were analysed subsequent to a mechanical dehydration using a screw press. Press cakes serve as solid fuel for thermal conversion. Field spectroscopic measurements were carried out with regard to further technical development using different field grown crops. A one year lasting experiment over a binary mixture of grass and red clover examined the impact of different degrees of sky cover on prediction accuracies of distinct plant parameters. Furthermore, an artificial light source was used in order to evaluate to what extent such a light source is able to minimise cloud effects on prediction accuracies. A three years lasting experiment with maize was conducted in order to evaluate the potential of off-nadir measurements inside a canopy to predict different quality parameters in total biomass and DM yield using one sensor for a potential on-the-go application. This approach implements a measurement of the plants in 50 cm segments, since a sensor adjusted sideways is not able to record the entire plant height. Calibration results obtained by nadir top-of-canopy reflectance measurements were compared to calibration results obtained by off-nadir measurements. Results of all experiments approve the applicability of spectroscopic measurements for the prediction of distinct biophysical and biochemical parameters in the laboratory and under field conditions, respectively. The estimation of parameters could be conducted to a great extent with high accuracy. An enhanced basis of calibration for the laboratory study and the first field experiment (grass/clover-mixture) yields in improved robustness of calibration models and allows for an extended application of spectroscopic measurement techniques, even under varying conditions. Furthermore, off-nadir measurements inside a canopy yield in higher prediction accuracies, particularly for crops characterised by distinct height increment as observed for maize.