574 resultados para Ehrenamtliche Arbeit
Resumo:
In dieser Arbeit werden nichtüberlappende Gebietszerlegungsmethoden einerseits hinsichtlich der zu lösenden Problemklassen verallgemeinert und andererseits in bisher nicht untersuchten Kontexten betrachtet. Dabei stehen funktionalanalytische Untersuchungen zur Wohldefiniertheit, eindeutigen Lösbarkeit und Konvergenz im Vordergrund. Im ersten Teil werden lineare elliptische Dirichlet-Randwertprobleme behandelt, wobei neben Problemen mit dominantem Hauptteil auch solche mit singulärer Störung desselben, wie konvektions- oder reaktionsdominante Probleme zugelassen sind. Der zweite Teil befasst sich mit (gleichmäßig) monotonen koerziven quasilinearen elliptischen Dirichlet-Randwertproblemen. In beiden Fällen wird das Lipschitz-Gebiet in endlich viele Lipschitz-Teilgebiete zerlegt, wobei insbesondere Kreuzungspunkte und Teilgebiete ohne Außenrand zugelassen sind. Anschließend werden Transmissionsprobleme mit frei wählbaren $L^{\infty}$-Parameterfunktionen hergeleitet, wobei die Konormalenableitungen als Funktionale auf geeigneten Funktionenräumen über den Teilrändern ($H_{00}^{1/2}(\Gamma)$) interpretiert werden. Die iterative Lösung dieser Transmissionsprobleme mit einem Ansatz von Deng führt auf eine Substrukturierungsmethode mit Robin-artigen Transmissionsbedingungen, bei der eine Auswertung der Konormalenableitungen aufgrund einer geschickten Aufdatierung der Robin-Daten nicht notwendig ist (insbesondere ist die bekannte Robin-Robin-Methode von Lions als Spezialfall enthalten). Die Konvergenz bezüglich einer partitionierten $H^1$-Norm wird für beide Problemklassen gezeigt. Dabei werden keine über $H^1$ hinausgehende Regularitätsforderungen an die Lösungen gestellt und die Gebiete müssen keine zusätzlichen Glattheitsvoraussetzungen erfüllen. Im letzten Kapitel werden nichtmonotone koerzive quasilineare Probleme untersucht, wobei das Zugrunde liegende Gebiet nur in zwei Lipschitz-Teilgebiete zerlegt sein soll. Das zugehörige nichtlineare Transmissionsproblem wird durch Kirchhoff-Transformation in lineare Teilprobleme mit nichtlinearen Kopplungsbedingungen überführt. Ein optimierungsbasierter Lösungsansatz, welcher einen geeigneten Abstand der rücktransformierten Dirichlet-Daten der linearen Teilprobleme auf den Teilrändern minimiert, führt auf ein optimales Kontrollproblem. Die dabei entstehenden regularisierten freien Minimierungsprobleme werden mit Hilfe eines Gradientenverfahrens unter minimalen Glattheitsforderungen an die Nichtlinearitäten gelöst. Unter zusätzlichen Glattheitsvoraussetzungen an die Nichtlinearitäten und weiteren technischen Voraussetzungen an die Lösung des quasilinearen Ausgangsproblems, kann zudem die quadratische Konvergenz des Newton-Verfahrens gesichert werden.
Resumo:
Es wird der Frage nachgegangen, welchen Einfluss Beziehungskonzepte, also die kognitiven Repräsentationen von Paarbeziehungen, auf den Umgang mit begrenzten Bedürfnissen in Paarbeziehungen haben. Als begrenzte Bedürfnisse werden dabei Wünsche der Beziehungspartner verstanden, welche innerhalb des Beziehungsarrangements keine Erfüllung finden, das heißt, im raummetaphorischen Sinne auf Grenzen stoßen. In einem umfangreichen theoretischen Teil der Arbeit werden Untersuchungen zu Beziehungskonzepten vorgestellt. Es wird eine Arbeitsdefinition zu Beziehungskonzepten für die vorliegende Arbeit hergeleitet. Es wird die Determiniertheit von Beziehungskonzepten durch gesellschaftliche Wandlungsprozesse diskutiert. Des Weiteren wird eine Auswahl an Bedürfniskonzeptionen und –klassifikationen vorgestellt. Daraufhin wird der Begriff des Beziehungshandelns eingeführt, indem ein allgemeines Handlungsmodell vorgestellt und in Bezug zu Beziehungskonzepten gestellt wird. Des Weiteren werden die Rolle der Emotionen und der Aspekt der Emotionsregulation im Kontext von Beziehungshandeln diskutiert. Abschließend wird im theoretischen Teil der Arbeit der Einfluss von Beziehungskonzept und Beziehungshandeln auf die Beziehungsqualität erörtert. Der methodische Teil beschreibt die Empirie der vorliegenden Arbeit. Es wurden 12 Interviews geführt, teilweise leitfadenbasiert und teilweise narrationsgenerierend. Interviewt wurden 15 Personen im Alter von 21-75 Jahren, die alle in einer Beziehung leben. Die Interviews fanden entweder paarweise oder im Einzelsetting statt. Alle Interviews wurden gemäß der Grounded Theory-Methodik nach Strauss und Corbin (1996) ausgewertet. Die Ergebnisse werden in Form eines paradigmatischen Modells strukturiert dargestellt, in dessen Zentrum die raummetaphorische Kategorie „Beziehung als Raum“ steht. Paarbeziehung, räumlich betrachtet, öffnet den Blick auf zwei wesentliche Merkmale der individuellen Ausgestaltung von Beziehung und damit auch des spezifischen Umgangs mit partneradressierten Bedürfnissen: 1. Grenzen konstituieren den Beziehungsraum, der damit als begrenztes Phänomen zu verstehen ist. 2. Die Grenzen des Beziehungsraumes variieren in Eigenschaften wie der Bewusstheit, der expliziten vs. impliziten Thematisierung, der Weite vs. Enge, der Statik vs. Flexibilität. Sie bestimmen damit die Form und die Inhalte der jeweiligen Beziehung. Es wurden aus der Variation dieser Merkmale zwei prototypische Beziehungskonzeptionen herausgearbeitet, das „kulturell, verankerte Beziehungskonzept“ sowie das „alternative, freigesetzte Beziehungskonzept“. Beide Beziehungskonzeptionen werden entlang der Dimension eines Freiheitsgrade in Hinblick auf ihre Ziele, Grenzen und Rollen beschrieben und unterschieden und in der Disposition zu verschiedenen Strategien im Umgang mit begrenzten Bedürfnissen miteinander verglichen. Abschließend wird der Einfluss beider Konzeptionen und verwandter Handlungsstrategien auf die Beziehungsqualität dargestellt. In einem anschließenden Diskussionsteil werden die methodische Güte der Ergebnisse, die inhaltliche Güte der Ergebnisse sowie deren Anwendbarkeit diskutiert und ein Forschungsausblick geben.
Resumo:
Die Bedeutung des Dienstgüte-Managements (SLM) im Bereich von Unternehmensanwendungen steigt mit der zunehmenden Kritikalität von IT-gestützten Prozessen für den Erfolg einzelner Unternehmen. Traditionell werden zur Implementierung eines wirksamen SLMs Monitoringprozesse in hierarchischen Managementumgebungen etabliert, die einen Administrator bei der notwendigen Rekonfiguration von Systemen unterstützen. Auf aktuelle, hochdynamische Softwarearchitekturen sind diese hierarchischen Ansätze jedoch nur sehr eingeschränkt anwendbar. Ein Beispiel dafür sind dienstorientierte Architekturen (SOA), bei denen die Geschäftsfunktionalität durch das Zusammenspiel einzelner, voneinander unabhängiger Dienste auf Basis deskriptiver Workflow-Beschreibungen modelliert wird. Dadurch ergibt sich eine hohe Laufzeitdynamik der gesamten Architektur. Für das SLM ist insbesondere die dezentrale Struktur einer SOA mit unterschiedlichen administrativen Zuständigkeiten für einzelne Teilsysteme problematisch, da regelnde Eingriffe zum einen durch die Kapselung der Implementierung einzelner Dienste und zum anderen durch das Fehlen einer zentralen Kontrollinstanz nur sehr eingeschränkt möglich sind. Die vorliegende Arbeit definiert die Architektur eines SLM-Systems für SOA-Umgebungen, in dem autonome Management-Komponenten kooperieren, um übergeordnete Dienstgüteziele zu erfüllen: Mithilfe von Selbst-Management-Technologien wird zunächst eine Automatisierung des Dienstgüte-Managements auf Ebene einzelner Dienste erreicht. Die autonomen Management-Komponenten dieser Dienste können dann mithilfe von Selbstorganisationsmechanismen übergreifende Ziele zur Optimierung von Dienstgüteverhalten und Ressourcennutzung verfolgen. Für das SLM auf Ebene von SOA Workflows müssen temporär dienstübergreifende Kooperationen zur Erfüllung von Dienstgüteanforderungen etabliert werden, die sich damit auch über mehrere administrative Domänen erstrecken können. Eine solche zeitlich begrenzte Kooperation autonomer Teilsysteme kann sinnvoll nur dezentral erfolgen, da die jeweiligen Kooperationspartner im Vorfeld nicht bekannt sind und – je nach Lebensdauer einzelner Workflows – zur Laufzeit beteiligte Komponenten ausgetauscht werden können. In der Arbeit wird ein Verfahren zur Koordination autonomer Management-Komponenten mit dem Ziel der Optimierung von Antwortzeiten auf Workflow-Ebene entwickelt: Management-Komponenten können durch Übertragung von Antwortzeitanteilen untereinander ihre individuellen Ziele straffen oder lockern, ohne dass das Gesamtantwortzeitziel dadurch verändert wird. Die Übertragung von Antwortzeitanteilen wird mithilfe eines Auktionsverfahrens realisiert. Technische Grundlage der Kooperation bildet ein Gruppenkommunikationsmechanismus. Weiterhin werden in Bezug auf die Nutzung geteilter, virtualisierter Ressourcen konkurrierende Dienste entsprechend geschäftlicher Ziele priorisiert. Im Rahmen der praktischen Umsetzung wird die Realisierung zentraler Architekturelemente und der entwickelten Verfahren zur Selbstorganisation beispielhaft für das SLM konkreter Komponenten vorgestellt. Zur Untersuchung der Management-Kooperation in größeren Szenarien wird ein hybrider Simulationsansatz verwendet. Im Rahmen der Evaluation werden Untersuchungen zur Skalierbarkeit des Ansatzes durchgeführt. Schwerpunkt ist hierbei die Betrachtung eines Systems aus kooperierenden Management-Komponenten, insbesondere im Hinblick auf den Kommunikationsaufwand. Die Evaluation zeigt, dass ein dienstübergreifendes, autonomes Performance-Management in SOA-Umgebungen möglich ist. Die Ergebnisse legen nahe, dass der entwickelte Ansatz auch in großen Umgebungen erfolgreich angewendet werden kann.
Resumo:
Der Name einer kleinen Internatsschule im Berner Oberland taucht zunehmend in den Diskussionen über die Gestaltung von selbst organisiertem Lernen auf: Institut Beatenberg. Der Direktor des Instituts, Andreas Müller, und seine Mitarbeiter sind gefragte Referenten auf Veranstaltungen über die Einführung einer Lehr-Lernkultur, die den Lernenden und seine Lernprozesse in den Mittelpunkt der pädagogischen Arbeit stellt. Zudem finden ihre Publikationen zunehmendes Interesse im gesamten deutschsprachigen Raum. Ein Schlüsselinstrument wurde dabei zum Schlagwort: Kompetenzraster. Doch die stellen nur eines der Instrumente dar, die den ‚Wirkungskreislauf des Lernerfolgs’ in Beatenberg stützen. Berufliche Schulen in Hessen und Hamburg haben im Rahmen von Modellprojekten mit der Erarbeitung von Kompetenzrastern nach den Vorbildern in Beatenberg begonnen und versprechen sich damit eine neue, auf selbst organisiertem Lernen aufbauende kompetenzorientierte berufliche Bildung. In dem Beitrag werden die Arbeit mit Kompetenzrastern und den dahinter liegenden ‚Lernlandschaften’ sowie der ‚Wirkungskreislauf den Lernerfolgs’ in Beatenberg kompetenzorientiert dargestellt. Die Dimensionen Definition, Beschreibung, Ordnung, Erwerb, Messung und Anerkennung von Kompetenzen werden herausgearbeitet und die Möglichkeiten von Kompetenzrastern in der beruflichen Bildung kritisch gewürdigt. Der Beitrag ist entlang der genannten Dimensionen gegliedert.
Resumo:
Zur Erholung in die Natur gehen oder doch lieber zur Natursimulation greifen? Intuitiv würden die meisten Menschen der Natur einen größeren Erholungswert zusprechen als einer Natursimulation. Aber ist die Natur tatsächlich erholsamer? In der Naturerholungsforschung (Restorative Environment Research) kommen häufig Natursimulationen zum Einsatz, um die erholsame Wirkung von Natur zu ermitteln. Problematisch ist dabei, dass deren ökologische Validität und Vergleichbarkeit noch nicht empirisch abgesichert ist. Vorliegende Arbeit setzt an dieser methodischen und empirischen Lücke an. Sie überprüft sowohl die ökologische Validität als auch die Vergleichbarkeit von Natursimulationen. Dazu wird die erholsame Wirkung von zwei Natursimulationen im Vergleich zu der physisch-materiellen Natur empirisch untersucht und verglichen. Darüber hinaus werden Aspekte des subjektiven Erlebens und der Bewertung im Naturerholungskontext exploriert. Als bedeutsamer Wirkmechanismus wird die erlebnisbezogene Künstlichkeit/Natürlichkeit angesehen, die sich auf die Erlebnisqualität von Natursimulationen und der physisch-materiellen Natur bezieht: Natursimulationen weisen im Vergleich zur physisch-materiellen Natur eine reduzierte Erlebnisqualität auf (erlebnisbezogene Künstlichkeit), z.B. eine reduzierte Qualität und Quantität der Sinnesansprache. Stellt man einen derartigen Vergleich nicht nur mit der physisch-materiellen Natur, sondern mit unterschiedlichen Natursimulationstypen an, dann zeigen sich auch hier Unterschiede in der erlebnisbezogenen Künstlichkeit. Beispielsweise unterscheidet sich ein Naturfoto von einem Naturfilm durch das Fehlen von auditiven und bewegten Stimuli. Diese erlebnisbezogene Künstlichkeit kann die erholsame Wirkung von Natur - direkt oder indirekt über Bewertungen - hemmen. Als Haupthypothese wird angenommen, dass mit zunehmendem Ausmaß an erlebnisbezogener Künstlichkeit die erholsame Wirkung der Natur abnimmt. Dem kombinierten Feld- und Laborexperiment liegt ein einfaktorielles Vorher-Nachher-Design zugrunde. Den 117 Probanden wurde zunächst eine kognitiv und affektiv belastende Aufgabe vorgelegt, danach folgte die Erholungsphase. Diese bestand aus einem Spaziergang, der entweder in der physisch-materiellen Natur (urbaner Park) oder in einer der beiden audio-visuellen Natursimulationen (videogefilmter vs. computergenerierter Spaziergang durch selbigen urbanen Park) oder auf dem Laufband ohne audio-visuelle Darbietung stattfand. Die erlebnisbezogene Künstlichkeit/Natürlichkeit wurde also wie folgt operationlisiert: die physische Natur steht für die erlebnisbezogene Natürlichkeit. Die beiden Natursimulationen stehen für die erlebnisbezogene Künstlichkeit. Die computergenerierte Version ist im Vergleich zur Videoversion erlebnisbezogen künstlicher, da sie weniger fotorealistisch ist. Die Zuordnung zu einer der vier experimentellen Erholungssettings erfolgte nach dem Zufallsprinzip. Die Effekte von moderater Bewegung wurden in den Natursimulationen durch das Laufen auf dem Laufband kontrolliert. Die Beanspruchungs- bzw. Erholungsreaktionen wurden auf kognitiver (Konzentriertheit, Aufmerksamkeitsleistung) affektiver (3 Befindlichkeitsskalen: Wachheit, Ruhe, gute Stimmung) und physiologischer (Alpha-Amylase) Ebene gemessen, um ein umfassendes Bild der Reaktionen zu erhalten. Insgesamt zeigen die Ergebnisse, dass die beiden Natursimulationen trotz Unterschiede in der erlebnisbezogenen Künstlichkeit/Natürlichkeit zu relativ ähnlichen Erholungsreaktionen führen, wie die physisch-materielle Natur. Eine Ausnahme stellen eine der drei affektiven (Wachheit) und die physiologische Reaktion dar: Probanden der physisch-materiellen Naturbedingung geben an wacher zu sein und weisen - wider erwarten - eine höhere physiologische Erregung auf. Demnach ist die physisch-materielle Natur nicht grundsätzlich erholsamer als die Natursimulationen. Die Hypothese ließ sich somit nicht bestätigen. Vielmehr deuten sich komplexe Erholungsmuster und damit auch unterschiedliche Erholungsqualitäten der Settings an, die einer differenzierten Betrachtung bedürfen. Für die ökologische Validität von Natursimulationen gilt, dass diese nur mit Einschränkung als ökologisch valide bezeichnet werden können, d.h. nur für bestimmte, aber nicht für alle Erholungsreaktionen. Die beiden Natursimulationen führen ebenfalls trotz Unterschiede in der erlebnisbezogenen Künstlichkeit zu ähnlichen Erholungsreaktionen und können somit als gleichwertig behandelt werden. Erstaunlicherweise kommt es hier zu ähnlichen Erholungsreaktionen, obwohl die bestehenden Unterschiede von den Probanden wahrgenommen und die erlebnisbezogen künstlichere computergenerierte Version negativer bewertet wird. Aufgrund der nicht erwartungskonformen Ergebnisse muss das Erklärungskonzept der erlebnisbezogenen Künstlichkeit/Natürlichkeit infrage gestellt werden. Alternative Erklärungskonzepte für die Ergebnisse („Ungewissheit“, mentale räumliche Modelle), die sich andeutenden unterschiedlichen Erholungsqualitäten der Settings, methodische Einschränkungen sowie die praktische Bedeutung der Ergebnisse werden kritisch diskutiert.
Resumo:
The 21st century has brought new challenges for forest management at a time when globalization in world trade is increasing and global climate change is becoming increasingly apparent. In addition to various goods and services like food, feed, timber or biofuels being provided to humans, forest ecosystems are a large store of terrestrial carbon and account for a major part of the carbon exchange between the atmosphere and the land surface. Depending on the stage of the ecosystems and/or management regimes, forests can be either sinks, or sources of carbon. At the global scale, rapid economic development and a growing world population have raised much concern over the use of natural resources, especially forest resources. The challenging question is how can the global demands for forest commodities be satisfied in an increasingly globalised economy, and where could they potentially be produced? For this purpose, wood demand estimates need to be integrated in a framework, which is able to adequately handle the competition for land between major land-use options such as residential land or agricultural land. This thesis is organised in accordance with the requirements to integrate the simulation of forest changes based on wood extraction in an existing framework for global land-use modelling called LandSHIFT. Accordingly, the following neuralgic points for research have been identified: (1) a review of existing global-scale economic forest sector models (2) simulation of global wood production under selected scenarios (3) simulation of global vegetation carbon yields and (4) the implementation of a land-use allocation procedure to simulate the impact of wood extraction on forest land-cover. Modelling the spatial dynamics of forests on the global scale requires two important inputs: (1) simulated long-term wood demand data to determine future roundwood harvests in each country and (2) the changes in the spatial distribution of woody biomass stocks to determine how much of the resource is available to satisfy the simulated wood demands. First, three global timber market models are reviewed and compared in order to select a suitable economic model to generate wood demand scenario data for the forest sector in LandSHIFT. The comparison indicates that the ‘Global Forest Products Model’ (GFPM) is most suitable for obtaining projections on future roundwood harvests for further study with the LandSHIFT forest sector. Accordingly, the GFPM is adapted and applied to simulate wood demands for the global forestry sector conditional on selected scenarios from the Millennium Ecosystem Assessment and the Global Environmental Outlook until 2050. Secondly, the Lund-Potsdam-Jena (LPJ) dynamic global vegetation model is utilized to simulate the change in potential vegetation carbon stocks for the forested locations in LandSHIFT. The LPJ data is used in collaboration with spatially explicit forest inventory data on aboveground biomass to allocate the demands for raw forest products and identify locations of deforestation. Using the previous results as an input, a methodology to simulate the spatial dynamics of forests based on wood extraction is developed within the LandSHIFT framework. The land-use allocation procedure specified in the module translates the country level demands for forest products into woody biomass requirements for forest areas, and allocates these on a five arc minute grid. In a first version, the model assumes only actual conditions through the entire study period and does not explicitly address forest age structure. Although the module is in a very preliminary stage of development, it already captures the effects of important drivers of land-use change like cropland and urban expansion. As a first plausibility test, the module performance is tested under three forest management scenarios. The module succeeds in responding to changing inputs in an expected and consistent manner. The entire methodology is applied in an exemplary scenario analysis for India. A couple of future research priorities need to be addressed, particularly the incorporation of plantation establishments; issue of age structure dynamics; as well as the implementation of a new technology change factor in the GFPM which can allow the specification of substituting raw wood products (especially fuelwood) by other non-wood products.
Resumo:
In der Mathematikdidaktik gibt es die weit verbreitete Auffassung, durch die Verwendung von Simulationen Lernprozesse zu unterstützen. Dies hat mich im Rahmen meiner Dissertation dazu bewogen, erstens eine Werkzeuganalyse des Simulationspotentials der Software Fathom durchzuführen und zweitens exemplarische Analysen dazu, wie Lernende mit der Software arbeiten. Bei der Werkzeuganalyse standen vor allem folgende zwei Fragen im Mittelpunkt: Was bietet die Software an Simulationspotential? Wie gut und leicht lassen sich Zufallsexperimente in Fathom realisieren? Dieses Wissen ist für die praktische Anwendung der Software und die diagnostische Kompetenz der Lehrkräfte, die Schüler bei der Arbeit mit der Software unterstützen wollen, essentiell. Mit dieser Werkzeuganalyse wurde ein allgemeineres Instrument entwickelt, mit dem man das Simulationspotential auch anderer Werkzeugsoftware wie Excel, Tinkerplots oder den TI-Nspire systematisch analysieren könnte. Im zweiten Teil werden die Ergebnisse einer Fallstudie zur Kompetenz von Studierenden beim Bearbeiten von stochastischen Simulations- und Modellierungsproblemen vorgestellt. Die insgesamt aufwendige Analyse von Mikroprozessen macht sehr viel relevante und wichtige Details im Umgang von Studierenden mit Simulationsaufgaben erkennbar. Auch ist als Ergebnis der Studie nicht nur einfach ein differenziertes Bild der Kompetenzen von Studierenden anzusehen. Vielmehr liegt ein wesentlicher Beitrag auch in der Konzeptualisierung unterschiedlicher Kompetenzen und ihrer Wechselwirkung, wie sie bei der Bearbeitung von mathematischen Aufgaben mit dem Computer auftreten.
Resumo:
Im Rahmen der vorliegenden Arbeit wird ein Konzept zur mechanismenorientierten Lebensdauervorhersage entwickelt und auf eine Flanschwelle mit gradiertem Gefüge übertragen. Das Konzept wird in Form eines Computercodes (LOCC) zur Anwendung gebracht. Basierend auf lokalen Spannungen wird für jedes Element eines FE-Modells eine bedingte Versagenswahrscheinlichkeit berechnet. Mithilfe bruch- und ggf. mikromechanischer Modelle werden lokale kritische Risslängen und die bei gegebener Lebensdauer zugehörigen Anfangsrisslängen bestimmt. Diese werden mit geeigneten Modellen in mikrostrukturelle Größen überführt. Die Lebensdauerverteilung der Komponente ergibt sich schließlich aus der Verteilungsfunktion der Anfangsrisslängen bzw. der zugehörigen mikrostrukturellen Einheiten. Die betrachtete Flanschwelle weist als Ergebnis eines thermo-mechanischen Umformprozesses ein gradiertes Gefüge auf. Das Ermüdungsverhalten der Hauptphasen Ferrit-Perlit und Martensit wird untersucht. Während ausgewählter Ermüdungsversuche wird die Schädigungsentwicklung an der Oberfläche mit einem langreichweitigen Mikroskop beobachtet. Das ferritisch-perlitische Ausgangsgefüge zeigt eine sehr komplexe Schädigungsentwicklung (lokale plastische Aktivität, hohe Rissdichte), während beim Martensit keine multiple Rissinitiierung beobachtet wird. Anhand fraktographischer Untersuchungen wird dargelegt, dass der Hauptriss beim Martensit im Bereich von Karbidanhäufungen initiiert. Im LCF-Bereich wird nur ein verschwindender Anteil der Lebensdauer mit Langrisswachstum verbracht, d. h. die martensitischen Proben versagen fast unmittelbar nach der Rissinitiierung. Die Beschreibung ihrer Lebensdauer wird somit direkt auf die Rissinitiierungsphase zurückgeführt. Das ferritisch-perlitische Gefüge hingegen zeigt im LCF-Bereich sowohl eine ausgeprägte Rissinitiierungs- wie auch Langrisswachstumsphase. Diese komplexe Schädigungsentwicklung wird mittels verschiedener Schädigungsvariablen beschrieben, die im Rahmen einer automatisierten Bildanalyse bestimmt werden. Hierbei werden sowohl plastisch stark aktive Bereiche wie auch reale Risse pauschal als Schädigung definiert. Der Vergleich dieser automatisiert bestimmten Schädigungsvariablen mit ausgewählten Rissen zeigt deren Eignung zur quantitativen Beschreibung der Schädigungsentwicklung. Die Lebensdauer einer gradierten Komponente ergibt sich nicht direkt durch Verknüpfung der Lebensdauern der Einzelphasen, sondern sie hängt ggf. auch von den Übergangsbereichen zwischen den Phasen ab. Mithilfe einiger grundlegender bruchmechanischer Überlegungen wird ein konservatives Kriterium zur Behandlung solcher Übergangsbereiche bereitgestellt, womit das LOCC-Konzept letztendlich erfolgreich auf die gradierte Flanschwelle übertragen wird.
Resumo:
Zusammenfassung der Dissertation von Barbara Wieder zum Thema: Entwicklung von Interessen und Nicht-Interessen bei Kindern im Kindergarten, in der Grundschule und in der Sekundarstufe I. Die vorliegende Arbeit beschäftigt sich mit der Genese und Entwicklung von Interessen und Nicht-Interessen von Kindern im Alter von 4 bis 16 Jahren. Dazu wurden 87 Kinder sowie deren Eltern und Lehrkräfte bzw. Erzieherinnen mittels strukturierter Interviews in einem Längsschnitt etwa alle zwei Jahre wiederholt befragt. Theoretische Grundlage ist die Rahmenkonzeption einer pädagogischen Interessentheorie, die Interesse als einen Bezug zwischen einer Person und einem Gegenstand bestimmt. Dieser Bezug ist charakterisiert durch die Merkmale kognitive Ausprägung, emotionale Tönung und Wertaspekt (SCHIEFELE et al. 1983) sowie durch die Merkmale zur qualitativen Unterscheidung der PG-Bezüge zwischen Vorläufer-Interessen und Individuellen Interessen von VOGT und WIEDER (1999). Nicht-Interesse wird gemäß UPMEIER ZU BELZEN und VOGT (2001) mithilfe theoretischer Merkmale (wie z. B. Kognition, Emotion, Wertbezug) in zwei unterschiedliche Ausprägungsformen – Desinteresse und Abneigung – differenziert. Für die vorliegende Arbeit ergeben sich folgende Untersuchungsfragen: Wie entstehen Interessen und Nicht-Interessen und wie verlaufen qualitative Entwicklungen? Inwiefern werden die Interessen und Nicht-Interessen im Verlauf außerschulisch und schulisch beeinflusst? Für die Datenerhebung wurden im Rahmen der vorliegenden Studie „halbstandardisierte“ Interviewleitfäden entwickelt und mithilfe der Grundtechniken der qualitativen Inhaltsanalyse von MAYRING (2003) ausgewertet. Die Ergebnisse verdeutlichen, dass alle befragten Kinder spätestens ab dem Schuleintritt über mindestens ein gemäß der Theorie definiertes Individuelles Interesse verfügten, die bis auf eine Ausnahme im außerschulischen Bereich festgestellt wurden. Ausgelöst wurden die Interessen hauptsächlich durch die Eltern und Peers, wobei der Einfluss der Peers im Entwicklungsverlauf immer mehr an Bedeutung gewann. Mit zunehmendem Alter hatten die Kinder auch Nicht-Interessen, die vor allem durch Erlebnisse ausgelöst wurden. Zusätzlich wurde die Entwicklung der Interessen und Nicht-Interessen durch den Grad der Befriedigung der grundlegenden Bedürfnisse (basic needs gemäß DECI & RYAN 1993) nach Kompetenz, Autonomie und sozialer Eingebundenheit während der Person-Gegenstands-Auseinandersetzungen beeinflusst. Beispielsweise fehlte bei Kindern mit schulischen Nicht-Interessen häufig das Erleben von Kompetenz und Autonomie in der Schule. Um der Entstehung von Nicht-Interessen in der Schule vorbeugen zu können, sollte ein alltagsrelevanter, kognitiv und methodisch differenzierter Unterricht stattfinden, der möglichst allen Kindern ein individuelles, positives Kompetenz- und Autonomieerleben ermöglicht. Dann könnten zukünftig sogar vielleicht auch Interessen in der Schule angestoßen werden.
Resumo:
Im Rahmen der Arbeit wird den Fragen nachgegangen, inwiefern der Konsum von Öko-Lebensmitteln in Familien mit Kindern im zeitlichen Verlauf Veränderungen unterliegt und worin Veränderungen im Öko-Lebensmittelkonsum in Familien mit Kindern begründet sind. Aus den hierzu gewonnenen Erkenntnissen werden Schlussfolgerungen für die Konsumentenforschung und das Marketing von Öko-Produkten gezogen. Theoretische Grundlage stellen der Familienzyklus sowie Forschungsergebnisse zum Konsumentenverhalten in Familien und zum Konsum von Öko-Lebensmitteln in Familien dar. Für die empirische Bearbeitung der Forschungsfragen wurde ein qualitatives Forschungsdesign gewählt. Der Forschungsprozess gliederte sich in drei Wellen der Datenerhebung und -auswertung. Im Rahmen dessen wurden Eltern mithilfe problemzentrierter Interviews zur Entwicklung des Öko-Konsums in ihren Familien befragt. Die Interviews wurden computergestützt und in Anlehnung an die Kodierprozeduren offenes und axiales Kodieren der Grounded Theory ausgewertet. Ergebnis der Datenanalyse sind drei Zusammenhangsmodelle, die zu einer Erklärung von Veränderungen im Öko-Lebensmittelkonsum von Familien beitragen. Veränderungen können demnach erstens in einer Erhöhung der Konsumintensität während einer Schwangerschaft bestehen. Als Bedingungen hierfür konnten ein verstärktes Bewusstsein für Öko-Produkte, die körperliche Konstitution der Mutter sowie die Unterstützung durch die soziale Umwelt identifiziert werden. Weitere Bedingungen stellen Lebensmittelskandale sowie eine gute Verfügbarkeit von Öko-Produkten dar. Handlungsstrategien der Eltern beziehen sich auf das Wohlergehen des noch ungeborenen Kindes (Förderung der Gesundheit, Erhalten der zukünftigen Lebenswelt, Orientierung für die spätere Ernährung des Kindes) sowie auf das Wohlergehen der werdenden Mutter (Förderung der Gesundheit, Förderung des Wohlbefindens, Umgang mit schwangerschaftsbedingten Beschwerden). Zweitens können Veränderungen des Öko-Lebensmittelkonsums in einer Erhöhung der Konsumintensität ab dem Zeitpunkt der Umstellung der Ernährung eines Kindes auf eine Beikosternährung bestehen. Bedingungen hierfür sind eine verstärkte Beachtung von Öko-Produkten, die körperliche Konstitution des Kindes, die Abstimmung von Familien- und Baby-Kost, der Austausch mit und die Unterstützung durch die soziale Umwelt sowie der Wunsch von Eltern, einen Beitrag zum Öko-Landbau zu liefern. Bedingungen können außerdem eine gute Verfügbarkeit von Öko-Produkten sowie der Einfluss von Medien darstellen. Handlungsstrategien der Eltern beziehen sich auf die Ernährung des Kindes (Förderung der Gesundheit, Förderung der Geschmackssozialisation) und auf die Ernährung der restlichen Familie (effiziente Beschaffung und Verwendung von Lebensmitteln, Förderung des Wohlbefindens der Eltern). Drittens können Veränderungen im Öko-Lebensmittelkonsum in Familien in einem Rückgang der Konsumintensität während des Übergangs von Kindern ins Jugendalter bestehen. Bedingungen hierfür bestehen in der Konsequenz, mit der Eltern konventionellen Lebensmittelwünschen ihrer Kinder nachgeben, in der Beurteilung von Lebensmitteln durch die Eltern sowie in der Intensität, mit der Kinder ihre Wünsche einfordern. Handlungsstrategien der Eltern sind darauf ausgerichtet Kindern einen Wunsch zu erfüllen, sich gegenüber diesen liberal zu verhalten, Konflikte mit Kindern zu vermeiden oder diese ihre eigenen Erfahrungen sammeln zu lassen. Die Ergebnisse tragen zu einer theoretischen Fundierung des Zusammenhangs zwischen Familienzyklus und dem Öko-Lebensmittelkonsum in Familien bei und zeigen, dass dieser ein sinnvolles theoretisches Bezugssystem für Veränderungen der Konsumintensität von Öko-Produkten darstellt. Für die Konsumentenforschung tragen die Ergebnisse zu einem differenzierten Verständnis von Ober- und Untergrenzen von Familienzyklusstadien bei. Es zeigt sich weiterhin, dass Veränderungen des Öko-Konsums unter anderem unter dem Einfluss der sozialen Umwelt stehen. Im Hinblick auf das Marketing kann insbesondere geschlussfolgert werden, dass bei bestimmten Produktkategorien die Bedürfnisse jugendlicher Zielgruppen verstärkt berücksichtigt werden sollten. Zur Bindung junger Familien ist darauf hinzuwirken, einen Mehraufwand bei der Beschaffung von Öko-Produkten auszuschließen. Für die Ansprache der Zielgruppe Schwangere erscheinen Kommunikationsbotschaften geeignet, die sich auf das Wohlbefinden von Kind und Mutter und auf Nachhaltigkeitsaspekte beziehen. Eltern mit Kindern im Übergang zu einer Beikosternährung könnten gezielt durch Kommunikationsbotschaften angesprochen werden, die in Zusammenhang mit der Förderung der Gesundheit und der Geschmacksozialisation von Kindern stehen.
Resumo:
In der Anwendung treten häufig Differentialgleichungssysteme auf, deren Komponenten über das Lösen mit einer vorgegeben Genauigkeit hinaus Anforderungen an die, zur Näherung verwendeten, numerischen Verfahren stellen. Die Arbeit widmet sich hierbei den beiden Forderungen 1. Erhaltung der Positivität aller positiven Größen (z.B. Massen, Konzentrationen, Energie) und 2. Erhaltung der Masse in abgeschlossenen Systemen. Ausgehend von einem komplexen ökologischen 2D Modell zur Beschreibung von Algendynamiken in flachen Gewässern auf Grund der verfügbaren Phosphorvorkommen wird ein problemangepasstes Finite-Volumen-Verfahren entwickelt. Den in diesem Rahmen auftauchenden gewöhnlichen Differentialgleichungssystemen wird spezielle Aufmerksamkeit geschenkt. Es werden die bestehenden Begriffe auf eine gemeinsame formale Basis gestellt und die bestehenden Verfahren (Bruggeman und modifizierte Patankar Ansätze) mit Hilfe dieser vereinheitlichten Basis formuliert. Anschließend werden die diesen Ansätzen jeweils eigenen Schwierigkeiten und Einschränkungen (Ordnungsschranke von zwei, Erhaltung der Konservativität nur für Gleichungen mit einfacher Struktur, nicht für steife Systeme geeignet) betrachtet. Danach werden zwei Verfahrensverallgemeinerungen des modifizierten Patankar Euler Verfahrens präsentiert, welche jeweils eine der bestehenden Schwächen aufhebt. 1. Das extrapolierte mod. Pat. Euler Verfahren ermöglicht in Abhängigkeit des zu Grunde liegenden Problems die Erzeugung von Näherungen beliebig hoher Ordnung. 2. Das verallgemeinerte mod. Pat. Euler Verfahren erlaubt den Erhalt der Masse auch für komplexe Strukturen. Anschließend befasst sich die Arbeit mit der Vorstellung des verwendeten FVV, einer angepassten Form der 2D DLR Taucodes. Im weiteren Verlauf werden sämtliche theoretischen Aussagen zu den Verfahren an Hand entsprechend gewählter praktischer Testfälle demonstriert. Abschließend wird die Wirksamkeit des Gesamtverfahrens in seiner Anwendung auf das Algendynamikmodell vorgeführt.