64 resultados para Interne Modelle

em Universitätsbibliothek Kassel, Universität Kassel, Germany


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Diese Arbeit entstand vor dem Hintergrund einer zunehmenden Hinwendung der wissenschaftlichen Didaktiken zum Konstruktivismus und der damit verbundenen Forderung nach schülerzentrierten Lehr- und Lernarrangements. Die Gründe für diese Entwicklung liegen u. a. in der Vorstellung, dass sich Schüler durch eigenes Konstruieren von Problemlösungen intensiver und verständiger mit dem Lernstoff auseinandersetzen. Im Bereich des Wirtschaftslehreunterrichts ergeben sich aufgrund einer nicht unproblematischen Bezugsdisziplin und ihrer begrifflichen Grundlagen Besonderheiten. Diese begründen sich in einem stark an der klassischen Physik angenäherten Grundverständnis der neoklassischen Ökonomik. Hier setzte die Arbeit an einem typischen ökonomischen Konzept, dem Produktlebenszyklus, beispielhaft an. Wenngleich dieser nicht die radikale Stringenz zwischen gesetzten Annahmen und den daraus abgeleiteten logisch wahren Folgerungen aufweist und somit nicht als originär neoklassisches Konzept gelten kann, weist dieser dennoch deutliche Kompatibilitäten zur Machart der Neoklassik auf, wie beispielsweise weit reichende Komplexitätsreduzierungen. Der Umgang mit dem Produktlebenszyklus durch Lernende wird analytisch-experimentell sowie interpretativ in den didaktischen Spannungsfeldern von Instruktion und Konstruktion untersucht. Im Rahmen einer Schulbuchanalyse konnte gezeigt werden, dass die Leistungsfähigkeit des Produktlebenszyklus in den Lehrwerken durch besonders plausible Beispiele und einen auf Instruktionen setzenden Vermittlungsstil besonders deutlich hervorgehoben wird, obwohl dies empirisch nicht haltbar ist. Dies wirkt verengend auf die differenzierte Wahrnehmung von Märkten und Produkten, wie in Testreihen mit angehenden Wirtschaftslehrern gezeigt werden konnte. Diese Experimente machten am Beispiel des Produktlebenszyklus deutlich, wie prägend instruierende und plausibilisierende Unterrichte wirken können, wenn die behandelten Modelle einen plausiblen Kern haben. Trotz offensichtlicher Inkompatibilitäten zur Realität verteidigten die Probanden mehrheitlich das Modell und immunisierten es gegen Kritik. Eine zweite, stärker auf Konstruktionen setzende Experimentreihe konnte diese Haltung zwar aufweichen und legte den Grundstein für einen konstruktiv-kritischen Umgang mit dem Produktlebenszyklus. Es wurde allerdings auch hier deutlich, welch große Hürde es darstellt, durch instruierende und plausibilisierende Unterrichte erworbene Schemata später noch zu korrigieren. Aus diesen Befunden wurden Empfehlungen für die wesentlichen an der Lehrerausbildung beteiligten Institutionen abgeleitet.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Autistische Phänomene haben seit ihrer Entdeckung (Kanner 1943, Asperger 1944) Wissenschaftler verschiedener Disziplinen immer wieder beschäftigt: Psychiater, Neurowissenschaftler, kognitive Psychologen, Säuglingsforscher, Evolutionspsychologen und Psychoanalytiker haben sich sowohl mit der Beschreibung des Krankheitsbildes wie auch mit den psychischen Prozessen, die bei autistischen Phänomenen vorhanden sind, befasst. Wenn man von einem globalen interdisziplinären Ergebnis der Autismus-Forschung sprechen wollte, könnte man behaupten, dass diese sich als eine Möglichkeit anbot, ein umfassenderes Verständnis für psychische Vorgänge im Allgemeinen zu entwickeln. Die Psychoanalyse als eine „Wissenschaft der Subjektivität“ (Meissner 1983) hat eine lange Tradition in der Entwicklung von Theorie- und Behandlungsansätzen entwickelt. Die kognitiv-psychologischen Untersuchungen haben sich ebenfalls ausführlich mit autistischen Phänomenen befasst. Diese Arbeit stellt einen Versuch dar, eine Fragestellung zu entwickeln, die das psychoanalytische Verständnis autistischer Phänomene mit Auffassungen kognitions-psychologischer Autoren zu verbinden und zu vergleichen sucht. Aus der Sichtweise der Psychoanalyse ist das ein Versuch, die interne bzw. narrative Kohärenz (Leuzinger-Bohleber 1995) psychoanalytischen Verständnisses durch die externe Kohärenz des interdisziplinären Dialoges mit einer anderen Wissenschaft her zu stellen. Zugrunde liegt der Versuch einer Vernetzung verschiedener Erkenntnisse im Sinne verschiedener Modelle, die sich gegenseitig bereichern können. Dem Begriff der Theory of Mind, deren Beeinträchtigung von Kognitionswissenschaftlern (Baron-Cohen 1993, 1995; Baron-Cohen et.al. 1985; Hobson 1993, 2007; Frith 1989, 2003) in der Autismusforschung als grundlegendes Merkmal betrachtet wird, werde ich die psychodynamische Betrachtung (Tustin 1972, 1995; 1981, 1989; 1991; Meltzer 1975; Bion 1962, 1992) gegenüber stellen, die eher von einer Dysfunktion projektiv-identifikatorischer Prozesse (-PI) ausgeht, die sich in einem scheinbaren Mangel an diesen Prozessen äußert. Den von Baron-Cohen entwickelten Parametern, die eine phänomenologische Betrachtung autistischer Phänomene ermöglichen, werde ich die intrapsychische und objektbezogene psychoanalytische Betrachtungsweise gegenüberstellen, die postuliert, dass die Projektive Identifizierung als psychisches Phänomen, das der unbewussten averbalen Kommunikation zugrunde liegt, in autistischen Manifestationen beeinträchtig zu sein scheint. Da die Fähigkeit, psychische Phänomene in sich selbst und in anderen wahrzunehmen, der Psyche immanenteste Eigenschaft und gerade in autistischen Phänomenen beeinträchtigt ist, kann die psychoanalytische Konzeptbildung, die sich mit der Struktur des Psychischen und deren prozesshaftem Charakter befasst, den verschiedenen Disziplinen und auch der Autismus Forschung wichtige Anregungen geben. Anhand einer Einzelfalldarstellung, aus der sich psychodynamische Hypothesen entwickelten, die zu einem psychoanalytischen Verständnis führten, versuche ich, eine gewisse Korrespondenz mit Hypothesen aus der „embodied“ kognitiven Psychologie, wie z.B. die Rolle der Projektiven Identifizierung in der Bildung einer „Theory of Mind“ und ihre Beeinträchtigung (-PI) bei autistischen Phänomenen (Mindblindness, Baron-Cohen) herzustellen.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The rapid growth in high data rate communication systems has introduced new high spectral efficient modulation techniques and standards such as LTE-A (long term evolution-advanced) for 4G (4th generation) systems. These techniques have provided a broader bandwidth but introduced high peak-to-average power ratio (PAR) problem at the high power amplifier (HPA) level of the communication system base transceiver station (BTS). To avoid spectral spreading due to high PAR, stringent requirement on linearity is needed which brings the HPA to operate at large back-off power at the expense of power efficiency. Consequently, high power devices are fundamental in HPAs for high linearity and efficiency. Recent development in wide bandgap power devices, in particular AlGaN/GaN HEMT, has offered higher power level with superior linearity-efficiency trade-off in microwaves communication. For cost-effective HPA design to production cycle, rigorous computer aided design (CAD) AlGaN/GaN HEMT models are essential to reflect real response with increasing power level and channel temperature. Therefore, large-size AlGaN/GaN HEMT large-signal electrothermal modeling procedure is proposed. The HEMT structure analysis, characterization, data processing, model extraction and model implementation phases have been covered in this thesis including trapping and self-heating dispersion accounting for nonlinear drain current collapse. The small-signal model is extracted using the 22-element modeling procedure developed in our department. The intrinsic large-signal model is deeply investigated in conjunction with linearity prediction. The accuracy of the nonlinear drain current has been enhanced through several issues such as trapping and self-heating characterization. Also, the HEMT structure thermal profile has been investigated and corresponding thermal resistance has been extracted through thermal simulation and chuck-controlled temperature pulsed I(V) and static DC measurements. Higher-order equivalent thermal model is extracted and implemented in the HEMT large-signal model to accurately estimate instantaneous channel temperature. Moreover, trapping and self-heating transients has been characterized through transient measurements. The obtained time constants are represented by equivalent sub-circuits and integrated in the nonlinear drain current implementation to account for complex communication signals dynamic prediction. The obtained verification of this table-based large-size large-signal electrothermal model implementation has illustrated high accuracy in terms of output power, gain, efficiency and nonlinearity prediction with respect to standard large-signal test signals.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Wir leben in einer schnelllebigen unsicheren Welt. In einer Welt, in der fast jede Person schon einmal ein Gefühl von Wertlosigkeit und Ausgrenzung verspürt hat. Im vorliegenden an einer Schnittstelle zwischen Soziologie und Psychologie lokalisierten Dissertationsprojekt wird sich mit eben diesem aversiven Empfinden, sozial sowie gesellschaftlich überflüssig und ausgeschlossen zu sein, in Entstehung und möglichen Auswirkungen auseinandergesetzt. Dafür wurden eine deutschlandweite Telefon- und zwei experimentelle Laborstudien durchgeführt. Die theoretische und empirische Basis der Arbeit bilden soziologische Ansätze wie die Theorie der Desintegration (Anhut & Heitmeyer, 2000, 2009), psychologische Modelle wie das "Need-Threat"-Modell sozialer Ausgrenzung (Williams, 2009) und interdisziplinäre sozialwissenschaftliche Studien (Bude & Lantermann, 2006; Heitmeyer, 2002-2012; Lantermann, Döring-Seipel, Eierdanz & Gerhold, 2009). Die Befunde der Telefonstudie zeigen, dass die individuelle Wahrnehmung und Empfindung nicht unweigerlich vorhandene objektiv prekäre Lebenslagen akkurat spiegelt. So können ausgeprägte interne Ressourcen wie die des Kohärenzsinns einen positiven Effekt objektiver zum Beispiel finanzieller und/oder sozialer Prekarität auf subjektives soziales sowie gesellschaftliches Exklusionsempfinden abschwächen. Auch zeigte sich im experimentellen Kontext, dass induzierter sozialer Ausschluss nicht zu empfundener sozialer Exklusion führen muss. Als mögliche Auswirkungen empfundener sozialer und gesellschaftlicher Exklusion wurden ein Streben nach sozialem Anschluss über eine verstärkte Identifikation mit sozialen Eigengruppen wie der religiösen oder nationalen Eigengruppe (Telefonstudie, Laborstudie II) sowie ebenfalls aggressive feindselige Tendenzen über fremdenfeindliche oder antisemitische Haltungen (Telefonstudie) aufgedeckt. Weiterhin stellt generelle Selbstunsicherheit einen Mediator zwischen empfundener Exklusion und der sozialen Eigengruppenidentifikation über die nationale Eigengruppe dar (Telefonstudie). Ein Fokus des Dissertationsprojekts lag zudem auf einer ersten Untersuchung von Indikatoren eines kontrollbasierten Drei-Phasenmodells im Umgang mit subjektiv empfundener Exklusion (Telefonstudie, Laborstudie I). Basierend auf dem Modell kann ein Prozess empfundener Exklusion erstmalig empirisch analysiert werden, welcher sich auch in potenziellen Folgen wie einem erhöhten sozialen Anschlussstreben oder verstärkten aggressiven Tendenzen spiegeln sollte. Das Phasenmodell wurde aus den Theorien psychologischer Reaktanz (Brehm & Brehm, 1981), sekundärer Kontrolle (Rothbaum, Weisz & Snyder, 1982) und erlernter Hilflosigkeit (Seligman, 1975, 1992) abgeleitet. Aus den empirischen Befunden gezogene theoretische Schlussfolgerungen werden abschließend dargestellt und diskutiert. Zudem werden Hinweise für eine zukünftige Exklusionsforschung gegeben. So erscheint beispielsweise eine Differenzierung zwischen sozial und gesellschaftlich empfundener Exklusion auch hinsichtlich resultierender Gedanken, Gefühle und Verhaltensweisen für weitere sozialwissenschaftliche Untersuchungen interessant.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Zur Senkung von Kosten werden in vielen Unternehmen Dienstleistungen, die nicht zur Kernkompetenz gehören, an externe Dienstleister ausgelagert. Dieser Prozess wird auch als Outsourcing bezeichnet. Die dadurch entstehenden Abhängigkeiten zu den externen Dienstleistern werden mit Hilfe von Service Level Agreements (SLAs) vertraglich geregelt. Die Aufgabe des Service Level Managements (SLM) ist es, die Einhaltung der vertraglich fixierten Dienstgüteparameter zu überwachen bzw. sicherzustellen. Für eine automatische Bearbeitung ist daher eine formale Spezifikation von SLAs notwendig. Da der Markt eine Vielzahl von unterschiedlichen SLM-Werkzeugen hervorgebracht hat, entstehen in der Praxis Probleme durch proprietäre SLA-Formate und fehlende Spezifikationsmethoden. Daraus resultiert eine Werkzeugabhängigkeit und eine limitierte Wiederverwendbarkeit bereits spezifizierter SLAs. In der vorliegenden Arbeit wird ein Ansatz für ein plattformunabhängiges Service Level Management entwickelt. Ziel ist eine Vereinheitlichung der Modellierung, so dass unterschiedliche Managementansätze integriert und eine Trennung zwischen Problem- und Technologiedomäne erreicht wird. Zudem wird durch die Plattformunabhängigkeit eine hohe zeitliche Stabilität erstellter Modelle erreicht. Weiteres Ziel der Arbeit ist, die Wiederverwendbarkeit modellierter SLAs zu gewährleisten und eine prozessorientierte Modellierungsmethodik bereitzustellen. Eine automatisierte Etablierung modellierter SLAs ist für eine praktische Nutzung von entscheidender Relevanz. Zur Erreichung dieser Ziele werden die Prinzipien der Model Driven Architecture (MDA) auf die Problemdomäne des Service Level Managements angewandt. Zentrale Idee der Arbeit ist die Definition von SLA-Mustern, die konfigurationsunabhängige Abstraktionen von Service Level Agreements darstellen. Diese SLA-Muster entsprechen dem Plattformunabhängigen Modell (PIM) der MDA. Durch eine geeignete Modelltransformation wird aus einem SLA-Muster eine SLA-Instanz generiert, die alle notwendigen Konfigurationsinformationen beinhaltet und bereits im Format der Zielplattform vorliegt. Eine SLA-Instanz entspricht damit dem Plattformspezifischen Modell (PSM) der MDA. Die Etablierung der SLA-Instanzen und die daraus resultierende Konfiguration des Managementsystems entspricht dem Plattformspezifischen Code (PSC) der MDA. Nach diesem Schritt ist das Managementsystem in der Lage, die im SLA vereinbarten Dienstgüteparameter eigenständig zu überwachen. Im Rahmen der Arbeit wurde eine UML-Erweiterung definiert, die eine Modellierung von SLA-Mustern mit Hilfe eines UML-Werkzeugs ermöglicht. Hierbei kann die Modellierung rein graphisch als auch unter Einbeziehung der Object Constraint Language (OCL) erfolgen. Für die praktische Realisierung des Ansatzes wurde eine Managementarchitektur entwickelt, die im Rahmen eines Prototypen realisiert wurde. Der Gesamtansatz wurde anhand einer Fallstudie evaluiert.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In dieser Arbeit werden verschiedene Computermodelle, Rechenverfahren und Methoden zur Unterstützung bei der Integration großer Windleistungen in die elektrische Energieversorgung entwickelt. Das Rechenmodell zur Simulation der zeitgleich eingespeisten Windenergie erzeugt Summenganglinien von beliebig zusammengestellten Gruppen von Windenergieanlagen, basierend auf gemessenen Wind- und Leistungsdaten der nahen Vergangenheit. Dieses Modell liefert wichtige Basisdaten für die Analyse der Windenergieeinspeisung auch für zukünftige Szenarien. Für die Untersuchung der Auswirkungen von Windenergieeinspeisungen großräumiger Anlagenverbünde im Gigawattbereich werden verschiedene statistische Analysen und anschauliche Darstellungen erarbeitet. Das im Rahmen dieser Arbeit entwickelte Modell zur Berechnung der aktuell eingespeisten Windenergie aus online gemessenen Leistungsdaten repräsentativer Windparks liefert wertvolle Informationen für die Leistungs- und Frequenzregelung der Netzbetreiber. Die zugehörigen Verfahren zur Ermittlung der repräsentativen Standorte und zur Überprüfung der Repräsentativität bilden die Grundlage für eine genaue Abbildung der Windenergieeinspeisung für größere Versorgungsgebiete, basierend auf nur wenigen Leistungsmessungen an Windparks. Ein weiteres wertvolles Werkzeug für die optimale Einbindung der Windenergie in die elektrische Energieversorgung bilden die Prognosemodelle, die die kurz- bis mittelfristig zu erwartende Windenergieeinspeisung ermitteln. In dieser Arbeit werden, aufbauend auf vorangegangenen Forschungsarbeiten, zwei, auf Künstlich Neuronalen Netzen basierende Modelle vorgestellt, die den zeitlichen Verlauf der zu erwarten Windenergie für Netzregionen und Regelzonen mit Hilfe von gemessenen Leistungsdaten oder prognostizierten meteorologischen Parametern zur Verfügung stellen. Die softwaretechnische Zusammenfassung des Modells zur Berechnung der aktuell eingespeisten Windenergie und der Modelle für die Kurzzeit- und Folgetagsprognose bietet eine attraktive Komplettlösung für die Einbindung der Windenergie in die Leitwarten der Netzbetreiber. Die dabei entwickelten Schnittstellen und die modulare Struktur des Programms ermöglichen eine einfache und schnelle Implementierung in beliebige Systemumgebungen. Basierend auf der Leistungsfähigkeit der Online- und Prognosemodelle werden Betriebsführungsstrategien für zu Clustern im Gigawattbereich zusammengefasste Windparks behandelt, die eine nach ökologischen und betriebswirtschaftlichen Gesichtspunkten sowie nach Aspekten der Versorgungssicherheit optimale Einbindung der geplanten Offshore-Windparks ermöglichen sollen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A stand-alone power system is an autonomous system that supplies electricity to the user load without being connected to the electric grid. This kind of decentralized system is frequently located in remote and inaccessible areas. It is essential for about one third of the world population which are living in developed or isolated regions and have no access to an electricity utility grid. The most people live in remote and rural areas, with low population density, lacking even the basic infrastructure. The utility grid extension to these locations is not a cost effective option and sometimes technically not feasible. The purpose of this thesis is the modelling and simulation of a stand-alone hybrid power system, referred to as “hydrogen Photovoltaic-Fuel Cell (PVFC) hybrid system”. It couples a photovoltaic generator (PV), an alkaline water electrolyser, a storage gas tank, a proton exchange membrane fuel cell (PEMFC), and power conditioning units (PCU) to give different system topologies. The system is intended to be an environmentally friendly solution since it tries maximising the use of a renewable energy source. Electricity is produced by a PV generator to meet the requirements of a user load. Whenever there is enough solar radiation, the user load can be powered totally by the PV electricity. During periods of low solar radiation, auxiliary electricity is required. An alkaline high pressure water electrolyser is powered by the excess energy from the PV generator to produce hydrogen and oxygen at a pressure of maximum 30bar. Gases are stored without compression for short- (hourly or daily) and long- (seasonal) term. A proton exchange membrane (PEM) fuel cell is used to keep the system’s reliability at the same level as for the conventional system while decreasing the environmental impact of the whole system. The PEM fuel cell consumes gases which are produced by an electrolyser to meet the user load demand when the PV generator energy is deficient, so that it works as an auxiliary generator. Power conditioning units are appropriate for the conversion and dispatch the energy between the components of the system. No batteries are used in this system since they represent the weakest when used in PV systems due to their need for sophisticated control and their short lifetime. The model library, ISET Alternative Power Library (ISET-APL), is designed by the Institute of Solar Energy supply Technology (ISET) and used for the simulation of the hybrid system. The physical, analytical and/or empirical equations of each component are programmed and implemented separately in this library for the simulation software program Simplorer by C++ language. The model parameters are derived from manufacturer’s performance data sheets or measurements obtained from literature. The identification and validation of the major hydrogen PVFC hybrid system component models are evaluated according to the measured data of the components, from the manufacturer’s data sheet or from actual system operation. Then, the overall system is simulated, at intervals of one hour each, by using solar radiation as the primary energy input and hydrogen as energy storage for one year operation. A comparison between different topologies, such as DC or AC coupled systems, is carried out on the basis of energy point of view at two locations with different geographical latitudes, in Kassel/Germany (Europe) and in Cairo/Egypt (North Africa). The main conclusion in this work is that the simulation method of the system study under different conditions could successfully be used to give good visualization and comparison between those topologies for the overall performance of the system. The operational performance of the system is not only depending on component efficiency but also on system design and consumption behaviour. The worst case of this system is the low efficiency of the storage subsystem made of the electrolyser, the gas storage tank, and the fuel cell as it is around 25-34% at Cairo and 29-37% at Kassel. Therefore, the research for this system should be concentrated in the subsystem components development especially the fuel cell.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die gegenwärtige Entwicklung der internationalen Klimapolitik verlangt von Deutschland eine Reduktion seiner Treibhausgasemissionen. Wichtigstes Treibhausgas ist Kohlendioxid, das durch die Verbrennung fossiler Energieträger in die Atmosphäre freigesetzt wird. Die Reduktionsziele können prinzipiell durch eine Verminderung der Emissionen sowie durch die Schaffung von Kohlenstoffsenken erreicht werden. Senken beschreiben dabei die biologische Speicherung von Kohlenstoff in Böden und Wäldern. Eine wichtige Einflussgröße auf diese Prozesse stellt die räumliche Dynamik der Landnutzung einer Region dar. In dieser Arbeit wird das Modellsystem HILLS entwickelt und zur Simulation dieser komplexen Wirkbeziehungen im Bundesland Hessen genutzt. Ziel ist es, mit HILLS über eine Analyse des aktuellen Zustands hinaus auch Szenarien über Wege der zukünftigen regionalen Entwicklung von Landnutzung und ihrer Wirkung auf den Kohlenstoffhaushalt bis 2020 zu untersuchen. Für die Abbildung der räumlichen und zeitlichen Dynamik von Landnutzung in Hessen wird das Modell LUCHesse entwickelt. Seine Aufgabe ist die Simulation der relevanten Prozesse auf einem 1 km2 Raster, wobei die Raten der Änderung exogen als Flächentrends auf Ebene der hessischen Landkreise vorgegeben werden. LUCHesse besteht aus Teilmodellen für die Prozesse: (A) Ausbreitung von Siedlungs- und Gewerbefläche, (B) Strukturwandel im Agrarsektor sowie (C) Neuanlage von Waldflächen (Aufforstung). Jedes Teilmodell umfasst Methoden zur Bewertung der Standorteignung der Rasterzellen für unterschiedliche Landnutzungsklassen und zur Zuordnung der Trendvorgaben zu solchen Rasterzellen, die jeweils am besten für eine Landnutzungsklasse geeignet sind. Eine Validierung der Teilmodelle erfolgt anhand von statistischen Daten für den Zeitraum von 1990 bis 2000. Als Ergebnis eines Simulationslaufs werden für diskrete Zeitschritte digitale Karten der Landnutzugsverteilung in Hessen erzeugt. Zur Simulation der Kohlenstoffspeicherung wird eine modifizierte Version des Ökosystemmodells Century entwickelt (GIS-Century). Sie erlaubt einen gesteuerten Simulationslauf in Jahresschritten und unterstützt die Integration des Modells als Komponente in das HILLS Modellsystem. Es werden verschiedene Anwendungsschemata für GIS-Century entwickelt, mit denen die Wirkung der Stilllegung von Ackerflächen, der Aufforstung sowie der Bewirtschaftung bereits bestehender Wälder auf die Kohlenstoffspeicherung untersucht werden kann. Eine Validierung des Modells und der Anwendungsschemata erfolgt anhand von Feld- und Literaturdaten. HILLS implementiert eine sequentielle Kopplung von LUCHesse mit GIS-Century. Die räumliche Kopplung geschieht dabei auf dem 1 km2 Raster, die zeitliche Kopplung über die Einführung eines Landnutzungsvektors, der die Beschreibung der Landnutzungsänderung einer Rasterzelle während des Simulationszeitraums enthält. Außerdem integriert HILLS beide Modelle über ein dienste- und datenbankorientiertes Konzept in ein Geografisches Informationssystem (GIS). Auf diesem Wege können die GIS-Funktionen zur räumlichen Datenhaltung und Datenverarbeitung genutzt werden. Als Anwendung des Modellsystems wird ein Referenzszenario für Hessen mit dem Zeithorizont 2020 berechnet. Das Szenario setzt im Agrarsektor eine Umsetzung der AGENDA 2000 Politik voraus, die in großem Maße zu Stilllegung von Ackerflächen führt, während für den Bereich Siedlung und Gewerbe sowie Aufforstung die aktuellen Trends der Flächenausdehnung fortgeschrieben werden. Mit HILLS ist es nun möglich, die Wirkung dieser Landnutzungsänderungen auf die biologische Kohlenstoffspeicherung zu quantifizieren. Während die Ausdehnung von Siedlungsflächen als Kohlenstoffquelle identifiziert werden kann (37 kt C/a), findet sich die wichtigste Senke in der Bewirtschaftung bestehender Waldflächen (794 kt C/a). Weiterhin führen die Stilllegung von Ackerfläche (26 kt C/a) sowie Aufforstung (29 kt C/a) zu einer zusätzlichen Speicherung von Kohlenstoff. Für die Kohlenstoffspeicherung in Böden zeigen die Simulationsexperimente sehr klar, dass diese Senke nur von beschränkter Dauer ist.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Dissertation "Individualisierung und Sozialstruktur - objektive und subjektive Dimensionen sozialer Ungleichheit" setzt sich mit einem zentralen Problem der gegenwärtigen Sozialstrukturforschung in den westlichen Industrienationen und im Speziellen in Deutschland auseinander: Im Zuge der Diskussion um die Modernisierung und Individualisierung gesellschaftlicher Strukturen sind die Begriffe "Klasse" und "Schicht" sowie die zugehörigen theoretischen und methodischen Konzepte zunehmender Kritik ausgesetzt. Als ein Resultat dieser Debatte kann die zunehmende Popularität neuer Konzepte angesehen werden, die soziale Differenzierungen eher in einem horizontal-soziokulturellen Kontext deuten und theoretisch an das Individuum knüpfen. Die vorliegende Arbeit zeigt, dass diese "neuen" Milieu- und Lebensstilmodelle einen radikalen Bruch mit den theoretischen Grundlagen der Sozialstrukturanalyse darstellen und als holistische Modelle zur Beschreibung und Deutung sozialer Strukturen ebenso einseitig erscheinen, wie das ihrerseits kritisierte vertikale Paradigma der Klassen- und Schichtungssoziologie. Aus diesem Grunde wird hier ein integratives Konzept entwickelt und vorgeschlagen, das objektive und subjektive Dimensionen sozialer Ungleichheit in einem einheitlichem theoretischen Rahmen sinnvoll miteinander verknüpft und somit in der Lage ist Aspekte von Individualisierung und vertikaler Ungleichheit zu verbinden. Die vielseitigen Möglichkeiten und Vorteile, die ein solches "flexibles Habituskonzept" im Sinne einer umfassenderen und zeitgemäßen Sozialstrukturanalyse bietet, werden anhand einer Sekundäranalyse aktueller Daten aus der Lebensstilforschung aufgezeigt und können somit die entwickelte theoretische Perspektive nachhaltig bestätigen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Summation ueber des vollstaendige Spektrum des Atoms, die in der Stoehrungstheorie zweiter Ordnung vorkommt, wurde mit Hilfe der Greenschen Funktion Methode berechnet. Die Methode der Greenschen Funktion verlangt die Berechnung der unterschiedlichen Greenschen Funktionen: eine Coulomb-Greensche-Funktion im Fall von wasserstoffaehnlichen Ionen und eine Zentral-feld-Greensche-Funktion im Fall des Vielelektronen-Atoms. Die entwickelte Greensche Funktion erlaubte uns die folgenden atomaren Systeme in die Zweiphotonenionisierung der folgenden atomaren Systeme zu untersuchen: - wasserstoffaehnliche Ionen, um relativistische und Multipol-Effekte aufzudecken, - die aeussere Schale des Lithium; Helium und Helium-aehnliches Neon im Grundzustand, um taugliche Modelle des atomaren Feldes zu erhalten, - K- und L-Schalen des Argon, um die Vielelektronen-Effekte abzuschaetzen. Zusammenfassend, die relativistische Effekte ergeben sich in einer allgemeinen Reduzierung der Zweiphotonen Wirkungsquerschnitte. Zum Beispiel, betraegt das Verhaeltnis zwischen den nichtrelativistischen und relativistischen Wirkungsquerschnitten einen Faktor zwei fuer wasserstoffaehnliches Uran. Ausser dieser relativistischen Kontraktion, ist auch die relativistische Aufspaltung der Zwischenzustaende fuer mittelschwere Ionen sichtbar. Im Gegensatz zu den relativistischen Effekten, beeinflussen die Multipol-Effekte die totalen Wirkungsquerschnitte sehr wenig, so dass die Langwellennaeherung mit der exakten Naeherung fuer schwere Ionen sogar innerhalb von 5 Prozent uebereinstimmt. Die winkelaufgeloesten Wirkungsquerschnitte werden durch die relativistischen Effekte auf eine beeindruckende Weise beeinflusst: die Form der differentiellen Wirkungsquerschnitte aendert sich (qualitativ) abhaengig von der Photonenenergie. Ausserdem kann die Beruecksichtigung der hoeheren Multipole die elektronische Ausbeute um einen Faktor drei aendern. Die Vielelektronen-Effekte in der Zweiphotonenionisierung wurden am Beispiel der K- und L-Schalen des Argon analysiert. Hiermit wurden die totalen Wirkungsquerschnitte in einer Ein-aktives-Elektron-Naeherung (single-active-electron approximation) berechnet. Es hat sich herausgestellt, dass die Elektron--Elektron-Wechselwirkung sehr wichtig fuer die L-Schale und vernachlaessigbar fuer die K-Schale ist. Das bedeutet, dass man die totalen Wirkungsquerschnitte mit wasserstoffaehnlichen Modellen im Fall der K-Schale beschreiben kann, aber fuer die L-Schale fortgeschrittene Modelle erforderlich sind. Die Ergebnisse fuer Vielelektronen-Atome wurden mittels einer Dirac-Zentral-feld-Greenschen Funktion erlangt. Ein numerischer Algorithmus wurde urspruenglich von McGuire (1981) fuer der Schroedinger-Zentral-feld-Greensche Funktion eingefuehrt. Der Algorithmus wurde in dieser Arbeit zum ersten Mal fuer die Dirac-Gleichung angewandt. Unser Algorithmus benutzt die Kummer- und Tricomi-Funktionen, die mit Hilfe eines zuverlaessigen, aber noch immer langsamen Programmes berechnet wurden. Die Langsamkeit des Programms begrenzt den Bereich der Aufgaben, die effizient geloest werden koennen. Die Zentral-feld-Greensche Funktion konnte bei den folgenden Problemen benutzt werden: - Berechnung der Zweiphotonen-Zerfallsraten, - Berechnung der Zweiphotonenanregung und -ionisierungs-Wirkungsquerschnitte, - Berechnung die Multiphotonenanregung und -ionisierungs-Wirkungsquerschnitte, - Berechnung einer atomaren Vielelektronen-Green-Funktion. Von diesen Aufgaben koennen nur die ersten beiden in angemessener Zeit geloest werden. Fuer die letzten beiden Aufgaben ist unsere Implementierung zu langsam und muss weiter verbessert werden.