781 resultados para kinematische Struktur
Resumo:
Anlass der Untersuchung sind Verstärkungen von strukturwandel- und globalisierungsbedingten Wandlungen unter Schrumpfungs- und Stagnationsbedingungen. Denn Stagnations- und Schrumpfungstendenzen in einer Region sind selektiv, sie begünstigen über verschiedene Mechanismen Polarisierungen und Marginalisierungen: Die allgemeine Entspannung am Wohnungsmarkt hat erhöhte Mobilität und damit sozialräumliche Segregierungen und Polarisierungen der Wohnungsversorgung zur Folge. Leerstände und ausbleibende Investitionen begünstigen Polarisierungen von baulich-räumlichen Qualitäten. Diese beiden Entwicklungen überlagern sich im Stadtraum und verstärken sich gegenseitig. Dabei verbessert sich die Wohnungsversorgung in den benachteiligten Quartieren kaum, so die Ausgangshypothesen. Die Untersuchung fragt nach den Wirkungen des Nebeneinanders von Wachstums-, Stagnations- und Schrumpfungserscheinungen auf unterschiedlichen Maßstabsebenen, dem Zusammenspiel von sozialstrukturellen und qualitativen Veränderungen der baulich-räumlichen Gegebenheiten in den Quartieren sowie in innerstädtischer Differenzierung. Dabei interessieren besonders die Einflüsse eines regional entspannten Wohnungsmarktes und dessen Folgen für die Verwertungsstrategien im Wohnungsbestand auf Segregationsprozesse und die Wohnungsversorgung. Als Fallbeispiel der Untersuchung dient die Stadt Kassel. Der sozialräumliche Fokus liegt auf drei Typen benachteiligter Quartiere: Neben den in der aktuellen Diskussion zumeist betrachteten gründerzeitlichen Arbeiterquartieren und den Großsiedlungen der 1960/70er Jahre wurden auch die peripheren Geschosswohnungsbausiedlungen der 1950er/60er Jahre in die Untersuchung einbezogen, um den unterschiedlichen Rahmenbedingungen und Wirkungen in den Quartierstypen auf die Spur zu kommen und damit letztlich Grundlagen für stadtentwicklungspolitische Strategien zu erarbeiten. Die kleinräumigen Analysen von sozialräumlicher und baulich-räumlicher Struktur sowie zur Wohnungsversorgung deckten Parallelen und gegenläufige Entwicklungen zwischen den unterschiedlichen Quartierstypen auf; es ergaben sich verschiedene Anhaltspunkte zur Erhärtung der Ausgangsthesen. So wurde z.B. deutlich, dass sich unter den Marktbedingungen stagnierender Städte die Wohnflächenversorgung in den benachteiligten Quartieren kaum verbessert. Hierin zeigt sich ein entscheidender Unterschied zu stark schrumpfenden Städten, in denen sich die Versorgungslage (fast) durchgängig verbessert. Wohnungsmarktbarrieren wirken offensichtlich unter Stagnationsbedingungen für bestimmte Bevölkerungsgruppen weiter. Da sich ihre Wirkung aber für weitere Kreise der Bevölkerung abschwächt, verschärfen sich sozialräumliche Konzentrationen. Vor allem aber wurden Überlagerung und gegenseitige Verstärkung dieser sozialräumlichen mit baulich-räumlichen Polarisierungen deutlich, die vor allem aus stadträumlich konzentrierten Investitionen in den Gebäude- und Wohnungsbestand resultieren. Letztlich zeigt sich damit, dass regulierende Eingriffe nicht nur im Rahmen des Umbaus und der Erneuerung der Quartiere erforderlich sind, sondern insbesondere auch in den Wohnungsmarkt und dies auch bei entspannter regionaler Marktlage. Andernfalls ist weder eine angemessene Wohnungsversorgung aller Bevölkerungsgruppen noch der Zusammenhalt der Stadt(Gesellschaft) zu gewährleisten. Dabei ist die Stadtpolitik permanent mit der Gleichzeitigkeit von (wirtschaftlicher) Standortpolitik und sozialer Stadtentwicklung konfrontiert, die sie im Sinne einer nachhaltigen Entwicklung gegeneinander und miteinander abwägen muss.
Resumo:
Die Diskussion in den Planungswissenschaften beschreibt den Paradigmenwechsel vom so genannten DEAD-Model (Decide-Announce-Defend) zum Tripple-D-Model (Dialogue-Decide-Deliver) und beschäftigt sich intensiv mit dem Thema Governance. Komplexe Planungsaufgaben brauchen eine Vielfalt an Lösungsideen unterschiedlicher gesellschaftlicher Gruppen. Planung verfolgt u. a. die Umsetzung der Ziele einer nachhaltigen Entwicklung, die die Einbeziehung der Öffentlichkeit (Zivilgesellschaft, Unternehmen und Bürger) verlangt. Darüber hinaus wird eine Erweiterung der Perspektive über Verfahren und Steuerungsformen hinaus auf Akteure und Prozesse gefordert. Räumliche Entwicklungen sollen stärker im Zusammenhang mit Entscheidungsfindungsprozesse untersucht werden. Die Dissertation ergänzt eine wirkungsorientierte Perspektive, die Wirkungen, sowohl räumliche als auch soziale, in den Mittelpunkt der Betrachtung stellt. Sie stützt sich auf Beobachtungen, dass klassisches Projektmanagement für erfolgreiche Planungsprozesse nicht ausreicht, sondern zusätzlich Prozessmanagement braucht. Mit der Weiterentwicklung der partizipativen Planung, die zusätzlich in den Kontext gesellschaftlicher Lernprozesse und zukunftsfähiger Veränderungen gesellschaftlicher Bedingungen gestellt wird, ergänzt die Dissertation planungswissenschaftliche Theorien. Aus einem fachübergreifenden Blickwinkel wird die räumliche Planung in die Reihe von Management- und Organisationswissenschaften eingeordnet. Ausgehend von der Frage, welche räumlichen und sozialen Wirkungen durch Beteiligungsprozesse unter welchen Bedingungen erzielt werden, wurden Fallstudien aus der Wasserwirtschaft und ihre Prozessbiografien umfassend evaluiert. Als Evaluierungsmethode wurde ein von der EU-Kommission empfohlener Evaluierungsrahmen gewählt, der sowohl den Prozess selbst, seine Rahmenbedingungen und Durchführung, als auch Wirkungen analysiert und bewertet. Auf der Grundlage der Ergebnisse und theoretischer Erkenntnisse, vorrangig aus der Evaluationsforschung, wird ein umfassender Beteiligungsansatz konzipiert. Dabei handelt es sich um ein offenes Gerüst, in das sich bewährte und innovative Elemente strategisch gezielt integrieren lassen. Die Struktur verbindet verschiedene Beteiligungswerkzeuge unterschiedlicher Intensitäten und für unterschiedliche Zielgruppen zu einem Gesamtkonzept, mit dem Ziel, möglichst die gewünschten Wirkungen zu erreichen. Wesentlich an dem Ansatz ist, dass bereits das Prozessdesign unter Mitwirkung von Projektträgern, Beratern und Schlüsselakteuren erfolgt. Die partizipative Beteiligungsplanung bedeutet somit Klärung der Vorgehensweise und gleichzeitig Bewusstseins- und Kompetenzerweiterung der verantwortlichen Akteure. Im Ausblick werden künftige Forschungsaufgaben im Bereich der Mitwirkung in der räumlichen Planung formuliert und Handlungsmöglichkeiten aufgezeigt, um Partizipation als Teil planerischer „Alltagskultur“ weiterzuentwickeln. Dies erfolgt vor dem Hintergrund der Bedeutung von Partizipation und Bildung als Umsetzungsstrategie von Ideen der Landschaftsentwicklung und Nachhaltigkeit.
Resumo:
Die Arbeit behandelt die numerische Untersuchung von Wasserstoff-Moleküldynamik in starken Laserfeldern. Im Speziellen wird die Struktur von Ionisationsspektren bei Einfach-Photoionisation betrachtet. Korrelationen zwischen Elektron- und Kernbewegung werden identifiziert und mit Effekten in den Energiespektren in Verbindung gebracht. Dabei wird stets auf die Integration der zeitabhängigen Schrödingergleichung zurückgegriffen.
Resumo:
Der Aufsatz behandelt das methodologische Prinzip der Viabilität, das ein Prinzip der sprachhistorischen Adäquatheit darstellt. Nach diesem Prinzip muss jede linguistische Beschreibung (bzw. Erklärung) mit der Beschreibung (bzw. Erklärung) der Geschichte des zu beschreibenden (bzw. zu erklärenden) Phänomens konform sein. Bezogen auf grammatische Strukturen: Die Beschreibung (bzw. Erklärung) einer aktuellen Struktur ist viabel, wenn sie sich in die Beschreibung (bzw. Erklärung) der Geschichte der Struktur fügt. Exemplifiziert wird das Prinzip an der Serialisierung im Verbalkomplex.
Resumo:
Die q-Analysis ist eine spezielle Diskretisierung der Analysis auf einem Gitter, welches eine geometrische Folge darstellt, und findet insbesondere in der Quantenphysik eine breite Anwendung, ist aber auch in der Theorie der q-orthogonalen Polynome und speziellen Funktionen von großer Bedeutung. Die betrachteten mathematischen Objekte aus der q-Welt weisen meist eine recht komplizierte Struktur auf und es liegt daher nahe, sie mit Computeralgebrasystemen zu behandeln. In der vorliegenden Dissertation werden Algorithmen für q-holonome Funktionen und q-hypergeometrische Reihen vorgestellt. Alle Algorithmen sind in dem Maple-Package qFPS, welches integraler Bestandteil der Arbeit ist, implementiert. Nachdem in den ersten beiden Kapiteln Grundlagen geschaffen werden, werden im dritten Kapitel Algorithmen präsentiert, mit denen man zu einer q-holonomen Funktion q-holonome Rekursionsgleichungen durch Kenntnis derer q-Shifts aufstellen kann. Operationen mit q-holonomen Rekursionen werden ebenfalls behandelt. Im vierten Kapitel werden effiziente Methoden zur Bestimmung polynomialer, rationaler und q-hypergeometrischer Lösungen von q-holonomen Rekursionen beschrieben. Das fünfte Kapitel beschäftigt sich mit q-hypergeometrischen Potenzreihen bzgl. spezieller Polynombasen. Wir formulieren einen neuen Algorithmus, der zu einer q-holonomen Rekursionsgleichung einer q-hypergeometrischen Reihe mit nichttrivialem Entwicklungspunkt die entsprechende q-holonome Rekursionsgleichung für die Koeffizienten ermittelt. Ferner können wir einen neuen Algorithmus angeben, der umgekehrt zu einer q-holonomen Rekursionsgleichung für die Koeffizienten eine q-holonome Rekursionsgleichung der Reihe bestimmt und der nützlich ist, um q-holonome Rekursionen für bestimmte verallgemeinerte q-hypergeometrische Funktionen aufzustellen. Mit Formulierung des q-Taylorsatzes haben wir schließlich alle Zutaten zusammen, um das Hauptergebnis dieser Arbeit, das q-Analogon des FPS-Algorithmus zu erhalten. Wolfram Koepfs FPS-Algorithmus aus dem Jahre 1992 bestimmt zu einer gegebenen holonomen Funktion die entsprechende hypergeometrische Reihe. Wir erweitern den Algorithmus dahingehend, dass sogar Linearkombinationen q-hypergeometrischer Potenzreihen bestimmt werden können. ________________________________________________________________________________________________________________
Resumo:
Autistische Phänomene haben seit ihrer Entdeckung (Kanner 1943, Asperger 1944) Wissenschaftler verschiedener Disziplinen immer wieder beschäftigt: Psychiater, Neurowissenschaftler, kognitive Psychologen, Säuglingsforscher, Evolutionspsychologen und Psychoanalytiker haben sich sowohl mit der Beschreibung des Krankheitsbildes wie auch mit den psychischen Prozessen, die bei autistischen Phänomenen vorhanden sind, befasst. Wenn man von einem globalen interdisziplinären Ergebnis der Autismus-Forschung sprechen wollte, könnte man behaupten, dass diese sich als eine Möglichkeit anbot, ein umfassenderes Verständnis für psychische Vorgänge im Allgemeinen zu entwickeln. Die Psychoanalyse als eine „Wissenschaft der Subjektivität“ (Meissner 1983) hat eine lange Tradition in der Entwicklung von Theorie- und Behandlungsansätzen entwickelt. Die kognitiv-psychologischen Untersuchungen haben sich ebenfalls ausführlich mit autistischen Phänomenen befasst. Diese Arbeit stellt einen Versuch dar, eine Fragestellung zu entwickeln, die das psychoanalytische Verständnis autistischer Phänomene mit Auffassungen kognitions-psychologischer Autoren zu verbinden und zu vergleichen sucht. Aus der Sichtweise der Psychoanalyse ist das ein Versuch, die interne bzw. narrative Kohärenz (Leuzinger-Bohleber 1995) psychoanalytischen Verständnisses durch die externe Kohärenz des interdisziplinären Dialoges mit einer anderen Wissenschaft her zu stellen. Zugrunde liegt der Versuch einer Vernetzung verschiedener Erkenntnisse im Sinne verschiedener Modelle, die sich gegenseitig bereichern können. Dem Begriff der Theory of Mind, deren Beeinträchtigung von Kognitionswissenschaftlern (Baron-Cohen 1993, 1995; Baron-Cohen et.al. 1985; Hobson 1993, 2007; Frith 1989, 2003) in der Autismusforschung als grundlegendes Merkmal betrachtet wird, werde ich die psychodynamische Betrachtung (Tustin 1972, 1995; 1981, 1989; 1991; Meltzer 1975; Bion 1962, 1992) gegenüber stellen, die eher von einer Dysfunktion projektiv-identifikatorischer Prozesse (-PI) ausgeht, die sich in einem scheinbaren Mangel an diesen Prozessen äußert. Den von Baron-Cohen entwickelten Parametern, die eine phänomenologische Betrachtung autistischer Phänomene ermöglichen, werde ich die intrapsychische und objektbezogene psychoanalytische Betrachtungsweise gegenüberstellen, die postuliert, dass die Projektive Identifizierung als psychisches Phänomen, das der unbewussten averbalen Kommunikation zugrunde liegt, in autistischen Manifestationen beeinträchtig zu sein scheint. Da die Fähigkeit, psychische Phänomene in sich selbst und in anderen wahrzunehmen, der Psyche immanenteste Eigenschaft und gerade in autistischen Phänomenen beeinträchtigt ist, kann die psychoanalytische Konzeptbildung, die sich mit der Struktur des Psychischen und deren prozesshaftem Charakter befasst, den verschiedenen Disziplinen und auch der Autismus Forschung wichtige Anregungen geben. Anhand einer Einzelfalldarstellung, aus der sich psychodynamische Hypothesen entwickelten, die zu einem psychoanalytischen Verständnis führten, versuche ich, eine gewisse Korrespondenz mit Hypothesen aus der „embodied“ kognitiven Psychologie, wie z.B. die Rolle der Projektiven Identifizierung in der Bildung einer „Theory of Mind“ und ihre Beeinträchtigung (-PI) bei autistischen Phänomenen (Mindblindness, Baron-Cohen) herzustellen.
Resumo:
The oil price rises more and more, and the world energy consumption is projected to expand by 50 percent from 2005 to 2030. Nowadays intensive research is focused on the development of alternative energies. Among them, there are dye-sensitized nanocrystalline solar cells (DSSCs) “the third generation solar cells”. The latter have gained attention during the last decade and are currently subject of intense research in the framework of renewable energies as a low-cost photovoltaic. At present DSSCs with ruthenium based dyes exhibit highest efficiencies (ca 11%). The objective of the present work is to fabricate, characterize and improve the performance of DSSCs based on metal free dyes as sensitizers, especially on perylene derivatives. The work begins by a general introduction to the photovoltaics and dye-sensitized solar cells, such as the operating principles and the characteristics of the DSSCs. Chapter 2 and 3 discuss the state of the art of sensitizers used in DSSCs, present the compounds used as sensitizer in the present work and illustrate practical issues of experimental techniques and device preparation. A comparative study of electrolyte-DSSCs based on P1, P4, P7, P8, P9, and P10 are presented in chapter 4. Experimental results show that the dye structure plays a crucial role in the performance of the devices. The dye based on the spiro-concept (bipolar spiro compound) exhibited a higher efficiency than the non-spiro compounds. The presence of tert-butylpyridine as additive in the electrolyte was found to increase the open circuit voltage and simultaneously decrease the efficiency. The presence of lithium ions in the electrolyte increases both output current and the efficiency. The sensitivity of the dye to cations contained in the electrolyte was investigated in the chapter 5. FT-IR and UV-Vis were used to investigate the in-situ coordination of the cation to the adsorbed dye in the working devices. The open-circuit voltage was found to depend on the number of coordination sites in the dye. P1 with most coordination sites has shown the lowest potential drop, opposite to P7, which is less sensitive to cations in the working cells. A strategy to improve the dye adsorption onto the TiO2 surface, and thus the light harvesting efficiency of the photoanode by UV treatment, is presented in chapter 6. The treatment of the TiO2 film with UV light generates hydroxyl groups and renders the TiO2 surface more and more hydrophilic. The treated TiO2 surface reacts readily with the acid anhydride group of the dye that acts as an anchoring group and improves the dye adsorption. The short-circuit current density and the efficiency of the electrolyte-based dye cells was considerably improved by the UV treatment of the TiO2 film. Solid-state dye-sensitized solar cells (SSDs) based on spiro-MeOTAD (used as hole transport material) are studied in chapter 7. The efficiency of SSDs was globally found to be lower than that of electrolyte-based solar cells. That was due to poor pore filling of the dye-loaded TiO2 film by the spin-coated spiro-MeOTAD and to the significantly slower charge transport in the spiro-MeOTAD compared to the electrolyte redox mediator. However, the presence of the donor moieties in P1 that are structurally similar to spiro-MeOTAD was found to improve the wettability of the P1-loaded TiO2 film. As a consequence the performance of the P1-based solid-state cells is better compared to the cells based on non-spiro compounds.
Resumo:
Die Bedeutung des Dienstgüte-Managements (SLM) im Bereich von Unternehmensanwendungen steigt mit der zunehmenden Kritikalität von IT-gestützten Prozessen für den Erfolg einzelner Unternehmen. Traditionell werden zur Implementierung eines wirksamen SLMs Monitoringprozesse in hierarchischen Managementumgebungen etabliert, die einen Administrator bei der notwendigen Rekonfiguration von Systemen unterstützen. Auf aktuelle, hochdynamische Softwarearchitekturen sind diese hierarchischen Ansätze jedoch nur sehr eingeschränkt anwendbar. Ein Beispiel dafür sind dienstorientierte Architekturen (SOA), bei denen die Geschäftsfunktionalität durch das Zusammenspiel einzelner, voneinander unabhängiger Dienste auf Basis deskriptiver Workflow-Beschreibungen modelliert wird. Dadurch ergibt sich eine hohe Laufzeitdynamik der gesamten Architektur. Für das SLM ist insbesondere die dezentrale Struktur einer SOA mit unterschiedlichen administrativen Zuständigkeiten für einzelne Teilsysteme problematisch, da regelnde Eingriffe zum einen durch die Kapselung der Implementierung einzelner Dienste und zum anderen durch das Fehlen einer zentralen Kontrollinstanz nur sehr eingeschränkt möglich sind. Die vorliegende Arbeit definiert die Architektur eines SLM-Systems für SOA-Umgebungen, in dem autonome Management-Komponenten kooperieren, um übergeordnete Dienstgüteziele zu erfüllen: Mithilfe von Selbst-Management-Technologien wird zunächst eine Automatisierung des Dienstgüte-Managements auf Ebene einzelner Dienste erreicht. Die autonomen Management-Komponenten dieser Dienste können dann mithilfe von Selbstorganisationsmechanismen übergreifende Ziele zur Optimierung von Dienstgüteverhalten und Ressourcennutzung verfolgen. Für das SLM auf Ebene von SOA Workflows müssen temporär dienstübergreifende Kooperationen zur Erfüllung von Dienstgüteanforderungen etabliert werden, die sich damit auch über mehrere administrative Domänen erstrecken können. Eine solche zeitlich begrenzte Kooperation autonomer Teilsysteme kann sinnvoll nur dezentral erfolgen, da die jeweiligen Kooperationspartner im Vorfeld nicht bekannt sind und – je nach Lebensdauer einzelner Workflows – zur Laufzeit beteiligte Komponenten ausgetauscht werden können. In der Arbeit wird ein Verfahren zur Koordination autonomer Management-Komponenten mit dem Ziel der Optimierung von Antwortzeiten auf Workflow-Ebene entwickelt: Management-Komponenten können durch Übertragung von Antwortzeitanteilen untereinander ihre individuellen Ziele straffen oder lockern, ohne dass das Gesamtantwortzeitziel dadurch verändert wird. Die Übertragung von Antwortzeitanteilen wird mithilfe eines Auktionsverfahrens realisiert. Technische Grundlage der Kooperation bildet ein Gruppenkommunikationsmechanismus. Weiterhin werden in Bezug auf die Nutzung geteilter, virtualisierter Ressourcen konkurrierende Dienste entsprechend geschäftlicher Ziele priorisiert. Im Rahmen der praktischen Umsetzung wird die Realisierung zentraler Architekturelemente und der entwickelten Verfahren zur Selbstorganisation beispielhaft für das SLM konkreter Komponenten vorgestellt. Zur Untersuchung der Management-Kooperation in größeren Szenarien wird ein hybrider Simulationsansatz verwendet. Im Rahmen der Evaluation werden Untersuchungen zur Skalierbarkeit des Ansatzes durchgeführt. Schwerpunkt ist hierbei die Betrachtung eines Systems aus kooperierenden Management-Komponenten, insbesondere im Hinblick auf den Kommunikationsaufwand. Die Evaluation zeigt, dass ein dienstübergreifendes, autonomes Performance-Management in SOA-Umgebungen möglich ist. Die Ergebnisse legen nahe, dass der entwickelte Ansatz auch in großen Umgebungen erfolgreich angewendet werden kann.
Resumo:
The 21st century has brought new challenges for forest management at a time when globalization in world trade is increasing and global climate change is becoming increasingly apparent. In addition to various goods and services like food, feed, timber or biofuels being provided to humans, forest ecosystems are a large store of terrestrial carbon and account for a major part of the carbon exchange between the atmosphere and the land surface. Depending on the stage of the ecosystems and/or management regimes, forests can be either sinks, or sources of carbon. At the global scale, rapid economic development and a growing world population have raised much concern over the use of natural resources, especially forest resources. The challenging question is how can the global demands for forest commodities be satisfied in an increasingly globalised economy, and where could they potentially be produced? For this purpose, wood demand estimates need to be integrated in a framework, which is able to adequately handle the competition for land between major land-use options such as residential land or agricultural land. This thesis is organised in accordance with the requirements to integrate the simulation of forest changes based on wood extraction in an existing framework for global land-use modelling called LandSHIFT. Accordingly, the following neuralgic points for research have been identified: (1) a review of existing global-scale economic forest sector models (2) simulation of global wood production under selected scenarios (3) simulation of global vegetation carbon yields and (4) the implementation of a land-use allocation procedure to simulate the impact of wood extraction on forest land-cover. Modelling the spatial dynamics of forests on the global scale requires two important inputs: (1) simulated long-term wood demand data to determine future roundwood harvests in each country and (2) the changes in the spatial distribution of woody biomass stocks to determine how much of the resource is available to satisfy the simulated wood demands. First, three global timber market models are reviewed and compared in order to select a suitable economic model to generate wood demand scenario data for the forest sector in LandSHIFT. The comparison indicates that the ‘Global Forest Products Model’ (GFPM) is most suitable for obtaining projections on future roundwood harvests for further study with the LandSHIFT forest sector. Accordingly, the GFPM is adapted and applied to simulate wood demands for the global forestry sector conditional on selected scenarios from the Millennium Ecosystem Assessment and the Global Environmental Outlook until 2050. Secondly, the Lund-Potsdam-Jena (LPJ) dynamic global vegetation model is utilized to simulate the change in potential vegetation carbon stocks for the forested locations in LandSHIFT. The LPJ data is used in collaboration with spatially explicit forest inventory data on aboveground biomass to allocate the demands for raw forest products and identify locations of deforestation. Using the previous results as an input, a methodology to simulate the spatial dynamics of forests based on wood extraction is developed within the LandSHIFT framework. The land-use allocation procedure specified in the module translates the country level demands for forest products into woody biomass requirements for forest areas, and allocates these on a five arc minute grid. In a first version, the model assumes only actual conditions through the entire study period and does not explicitly address forest age structure. Although the module is in a very preliminary stage of development, it already captures the effects of important drivers of land-use change like cropland and urban expansion. As a first plausibility test, the module performance is tested under three forest management scenarios. The module succeeds in responding to changing inputs in an expected and consistent manner. The entire methodology is applied in an exemplary scenario analysis for India. A couple of future research priorities need to be addressed, particularly the incorporation of plantation establishments; issue of age structure dynamics; as well as the implementation of a new technology change factor in the GFPM which can allow the specification of substituting raw wood products (especially fuelwood) by other non-wood products.
Resumo:
In der Anwendung treten häufig Differentialgleichungssysteme auf, deren Komponenten über das Lösen mit einer vorgegeben Genauigkeit hinaus Anforderungen an die, zur Näherung verwendeten, numerischen Verfahren stellen. Die Arbeit widmet sich hierbei den beiden Forderungen 1. Erhaltung der Positivität aller positiven Größen (z.B. Massen, Konzentrationen, Energie) und 2. Erhaltung der Masse in abgeschlossenen Systemen. Ausgehend von einem komplexen ökologischen 2D Modell zur Beschreibung von Algendynamiken in flachen Gewässern auf Grund der verfügbaren Phosphorvorkommen wird ein problemangepasstes Finite-Volumen-Verfahren entwickelt. Den in diesem Rahmen auftauchenden gewöhnlichen Differentialgleichungssystemen wird spezielle Aufmerksamkeit geschenkt. Es werden die bestehenden Begriffe auf eine gemeinsame formale Basis gestellt und die bestehenden Verfahren (Bruggeman und modifizierte Patankar Ansätze) mit Hilfe dieser vereinheitlichten Basis formuliert. Anschließend werden die diesen Ansätzen jeweils eigenen Schwierigkeiten und Einschränkungen (Ordnungsschranke von zwei, Erhaltung der Konservativität nur für Gleichungen mit einfacher Struktur, nicht für steife Systeme geeignet) betrachtet. Danach werden zwei Verfahrensverallgemeinerungen des modifizierten Patankar Euler Verfahrens präsentiert, welche jeweils eine der bestehenden Schwächen aufhebt. 1. Das extrapolierte mod. Pat. Euler Verfahren ermöglicht in Abhängigkeit des zu Grunde liegenden Problems die Erzeugung von Näherungen beliebig hoher Ordnung. 2. Das verallgemeinerte mod. Pat. Euler Verfahren erlaubt den Erhalt der Masse auch für komplexe Strukturen. Anschließend befasst sich die Arbeit mit der Vorstellung des verwendeten FVV, einer angepassten Form der 2D DLR Taucodes. Im weiteren Verlauf werden sämtliche theoretischen Aussagen zu den Verfahren an Hand entsprechend gewählter praktischer Testfälle demonstriert. Abschließend wird die Wirksamkeit des Gesamtverfahrens in seiner Anwendung auf das Algendynamikmodell vorgeführt.
Resumo:
Die Reduktion von Schadstoff-Emissionen und des Kraftstoffverbrauches sind für die Einhaltung von immer strenger werdenden Abgasgrenzwerten zum Schutz der menschlichen Gesundheit und der Vegetation von großer gesellschaftlicher Bedeutung. Ob Deutschland die innerstädtischen Immissionsgrenzwerte der Europäischen Union (EU) für Stickstoffdioxid (NO2) ab 2010 einhalten wird, ist fraglich. Vor allem Lastkraftwagen mit Dieselmotor emittieren einen Großteil dieses Schadstoffes, sodass man mit einer Senkung der NO2-Emissionen dem gesetzten Ziel der Einhaltung der von der EU festgelegten NO2-Immisionsgrenzwerte bereits erheblich näher kommen würde. Ziel dieser Arbeit war es zu untersuchen, ob mit der Kenntnis der NO2-Konzentration im Abgas von Lastkraftwagen mit Dieselmotor mittels Spektroskopie eine Reduzierung der NO2-Emissionen und eine Senkung des Kraftstoffverbrauches erreicht werden kann. Hierzu muss sowohl die Bestimmung der NO2-Konzentration aus der spektralen Analyse des Abgases möglich sein, als auch die Herstellung eines mikromechanisch durchstimmbaren optischen Fabry-Pérot-Filters mit Bragg-Spiegeln, der die Voraussetzungen erfüllt, das für die spektrale Analyse benötigte Spektrum quantifizieren zu können. Zusätzlich soll mit Hilfe der aus den Spektren extrahierten Information eine in Echtzeit gemessene NO2-Konzentration im Abgas ableitbar sein. Damit sollen Kraftstoff eingespart und Schadstoff-Emissionen reduziert werden. Hierfür wird am Beispiel eines Lastkraftwagens mit typischer Abgasnachbehandlung aufgezeigt, wie über innermotorische Maßnahmen die Verbrennung optimierbar ist und wie die Eigenschaften der Abgasnachbehandlung verbesserbar sind, sodass die gewünschten Senkungen erreicht werden. Zusätzlich kann auf den Einbau eines Sperrkatalysators im Abgasstrang verzichtet werden. Ferner reduziert sich auch der Verbrauch des für die Abgasnachbehandlung benötigten Harnstoffs. Zur Klärung, ob die NO2-Konzentration aus der spektralen Analyse des Abgases bestimmt werden kann, wurden an einem Motorprüfstand Spektren für verschiedene NO2-Konzentrationen gemessen. Zusätzlich wurde das in dieser Arbeit behandelte Sensor-System mittels mathematischer Modellrechnung beschrieben, sodass dieses Modell anschließend auf die am Motorprüfstand gemessenen Spektren angewendet werden konnte. Die auf diese Weise berechneten Ergebnisse wurden mit den NO2-Messungen am Motorprüfstand verglichen und zeigen eine große Korrelation. In dem mathematischen Modell wird auch die spektrale Auflösung des Sensors berücksichtigt, die vom optischen Filter erreicht werden muss. Es wurde in dieser Arbeit untersucht, ob ein solches Filter realisiert werden kann. Hierzu wurde unter Anwendung der Transfer-Matrix-Methode (TMM) zur Berechnung optischer Eigenschaften von Dünnschichtsystemen eine Struktur entwickelt, die den optischen Anforderungen an das Filter genügt. Grundlage für dieses Design ist ein mikromechanisch durchstimmbares Fabry-Pérot-Filter mit Bragg-Spiegeln. Zur Herstellung dieses mikromechanisch durchstimmbaren, optischen Filters wurde eine Prozesskette entwickelt, mit der Filter mit einer Transmission von über 60 % hergestellt wurden. Die mit dieser Prozesskette hergestellten Strukturen wurden topografisch und optisch charakterisiert. Der Vergleich der gemessenen Ergebnisse mit theoretischen Modellrechnungen zeigt eine hohe Übereinstimmung, sodass mit der verwendeten Methodik gute Prognosen von Filtereigenschaften getroffen werden können. Es kann außerdem ein verbessertes Design präsentiert werden, welches eine um 10 % höhere Transmission und ein doppelt so großes Auflösungsvermögen gegenüber dem ursprünglichen Design aufweist. Verbesserungspotenziale in der Prozesskette können präsentiert werden, mit denen die optischen und mechanischen Eigenschaften zukünftiger Filter optimiert werden können. Es wird gezeigt, dass ein optisches Filter hergestellt werden kann, mit dem die NO2-Konzentration im Abgas von Lastkraftwagen mit Dieselmotoren spektroskopisch bestimmt werden kann, sodass der Kraftstoffverbrauch gesenkt und die Schadstoffemissionen reduziert werden können. In Abgasnormen sind einzuhaltende NOX-Grenzwerte festgelegt. Sollten in Zukunft auch NO2-Emissionsgrenzwerte in den Abgasnormen festgelegt werden, kann deren Einhaltung mit dem vorgestellten Sensor-Prinzip überwacht werden. Auf diese Weise wird die Chance auf Einhaltung der NO2-Immissionsgrenzwerte der EU maßgeblich erhöht.
Resumo:
Ein angemessenes Verständnis der Natur der Naturwissenschaften stellt eine zentrale Kompetenz naturwissenschaftlicher Grundbildung („Scientific Literacy“) dar und ist im Rahmen des Kompetenzbereichs Erkenntnisgewinnung in den nationalen Bildungsstandards in den naturwissenschaftlichen Fächern verankert. Schülerinnen und Schüler sollen demnach in der Schule Lernerfahrungen über die Grundzüge und Grenzen naturwissenschaftlicher Erkenntnisgewinnung und naturwissenschaftlichen Wissens erlangen. In dieser Arbeit liegen vier Studien vor, die sich mit Aspekten des Verstehens der Natur der Naturwissenschaften von Schülerinnen und Schülern in der Sekundarstufe I beschäftigen. In der ersten Studie, die die Entwicklung eines quantitativen Messinstruments im Blick hat, wird die Kompetenzstruktur theoretisch modelliert und empirisch überprüft. Faktorenanalytisch nachweisbare Dimensionen sind die Herkunft, Sicherheit, Entwicklung, Rechtfertigung und Einfachheit naturwissenschaftlichen Wissens, der Zweck der Naturwissenschaften und die Kreativität von Naturwissenschaftlern. Die zweite Studie nimmt den Entwicklungsaspekt des Naturwissenschaftsverständnisses in den Fokus. Lernende zeigen sowohl im längsschnittlichen Vergleich eines Schuljahres als auch im querschnittlichen Vergleich verschiedener Jahrgangsstufen einen Zuwachs hin zu höheren Klassenstufen auf. Jüngere Lernende zeigen bereits angemessene Ansichten, allerdings sind die Konzepte älterer Schülerinnen und Schüler als stabiler anzusehen als die Ansichten der Lernenden in jüngeren Jahrgangsstufen. In der dritten Studie wird die Kontextabhängigkeit des Naturwissenschaftsverständnisses untersucht. Es kann ein Zusammenhang berichtet werden zwischen den selbst berichteten Kenntnissen der Jugendlichen und ihrem Naturwissenschaftsverständnis sowie zwischen den berichteten Vorstellungen zu spezifischen Kontexten und allgemeinen Vorstellungen über die Natur der Naturwissenschaften. Abschließend wird die Bedeutung des Naturwissenschaftsverständnisses für den Erwerb wissenschaftsmethodischer Kompetenzen in den Blick genommen. Zusammenhänge zwischen den Konstrukten deuten auf inhaltliche Schnittstellen sowie Unterschiede im Kompetenzerwerb hin. Aus den Befunden lassen sich Folgerungen für eine adäquate Vermittlung von Kompetenzen des Naturwissenschaftsverständnisses ableiten. Dimensionen der Natur der Naturwissenschaften sollten sich kumulativ aufbauend in das Curriculum integrieren sowie in Bezug zum forschenden Lernen und der Vermittlung von Fachkonzepten explizit reflektiert werden.
Resumo:
Nachhaltige Konversion bei der Herrichtung frei gewordener militärischer Liegenschaften, insbesondere zu Hochschuleinrichtungen, ist mit großen Herausforderungen verbunden. Abgestimmte Raumbedarfe, nutzungsgerecht und wirtschaftlich vertretbar, in der Struktur einer ehemaligen Kaserne umzusetzen, erfordert ein kompetentes Projektmanagement mit allen erforderlichen Fachplanern. Maximale Ausnutzung der vorhandenen Raumstrukturen und weitestgehende Weiterverwendung der bestehenden Bausubstanz der Kasernengebäude haben Priorität und erhöhen u. a. den Wert der Nachhaltigkeit. Bei erforderlichen Neubauten auf ehemals militärisch genutzten Arealen sind unter Beachtung der wirtschaftlichen Vertretbarkeit das Erzielen der höchsten Energieeffizienz, die intelligente Umsetzung der Nutzerbelange und die weitreichende Schonung der Ressourcen unerlässlich. Das Buch mit seinen Nachhaltigkeitsanalysen dient als Arbeitshilfe für Baufachleute zur Umsetzung von Nachhaltigkeitszielen bei der Planung und der Realisierung ihrer Konversions-Bauvorhaben.
Resumo:
In genannter Schrift soll versucht werden, einen aus der Kantschen und Fichteschen Erkenntnistheorie erfolgenden allgemeinen Zusammenhang herzustellen zwischen dem kategorialen Denken hinsichtlich Denken und Anschauen und dem Problem von Raum und Zeit, wie es sich mit der Entwicklung der modernen Physik durch die Relativitäts- und Quantentheorie deutlich aufdrängt. Es wird gezeigt, dass F.W.J. Schelling grundlegende Lösungsansätze hierzu bereitstellt, welche auf dem Gebiet der Logik, der Epistomologie und Naturphilosophie in der Nachfolge von Kant, Fichte und Spinoza stattfinden, jedoch weit über seine Zeit hinausreichen. Diese Ansätze werden von Schelling selbst unter den Begriff einer „Identität der Identität und Differenz“ gesetzt. In der genannten Dissertation sollen Denkbewegungen dargestellt werden, die eine Anbindung der Schellingschen Naturphilosophie an die sich mit den genannten unterschiedlichen Theorien bzw. deren problematischer Vereinheitlichung beschäftigende Physik zu erreichen versuchen. Der formelle Aufbau der Arbeit gehorcht der inhaltlichen Struktur dieser Anbindungsbemühung, insofern unterstellt wird, dass diese rein nur aus einem dialektischen Denken (sowohl in der Erkenntnistheorie, als auch Naturphilosophie) heraus überhaupt erreicht werden kann. So werden sowohl die Tätigkeiten des Verstandes als die des Anschauens in ihrem Zusammenspiel, wie aber auch die Verstandes- und Anschauungstätigkeiten an sich selbst betrachtet, dialektisch vermittelt dargestellt, was innerhalb der formellen Deduktion der Kantschen Kategorien und der korrespondierenden Anschauungsformen selbst durchgeführt wird. Schellings Intention seines späteren Denkens, die philosophischen Probleme auf die Geschichtlichkeit, die Freiheit und den Erfahrungsbezug des Menschen zu beziehen, wird nicht als Gegenposition zu den frühen Ansätze der Logik und Transzendentalphilosophie gedeutet, sondern selbst als Endpunkt einer dialektischen Entwicklung des Schellingschen Denkens gefasst. Dies ergibt folgenden formellen Aufbau der Arbeit: Zunächst wird in einem einleitenden Abschnitt über die Aufgabe der Philosophie selbst und ihrer Darstellbarkeit im Zusammenhang mit der Hegel-Schelling-Kontroverse gearbeitet, um Schelling als adäquaten Bezugspunkt für unsere moderne Diskussion auf der methodischen und sprachlichen Ebene einzuführen. Im Hauptteil werden die wesentlichen Momente der für Schelling wichtigen Transzendentalphilosophie der Jahrhundertwende dargestellt, um diese dann an den späteren phänomenologisch-epistemologischen Ansätzen zu spiegeln. Von der theoretischen Seite kommend werden die Hauptmomente der praktischen Philosophie Schellings aufgezeigt, um dann den Menschen in einem dritten Schritt Symbol der Ununterschiedenheit von logischen und freien Tätigkeiten bzw. von Leib und Seele zu deuten. Diese Resultate bleiben zunächst einmal liegen, um in dem zweiten Hauptabschnitt auf grundlegende naturphilosophische Voraussetzungen und Resultate derjenigen Physik einzugehen, welche die prinzipiellen Verständnisschwierigkeiten der Physik des frühen 20. Jahrhundert in die heutige kosmologische und atomistische Diskussion mitbringt. Der dritte Hauptabschnitt stellt den Versuch dar, Schellings Naturphilosophie an symptomatische Anschauungen der Physik heranzuführen, um ihn als zeitgenössischen Kritiker einzuführen, wie aber auch als einen, der bestimmte moderne naturwissenschaftliche bzw. physikalische Resultate im Besonderen vorwegzunehmen vermochte. Die Einführung seiner Philosophie in aktuelle naturphilosophische Diskussion wird als unabdingbare Voraussetzung zu einem zukünftigen Verständnis des Natur, des Kosmos´ und des Menschen gefordert.