61 resultados para Praktische Theologie
Resumo:
Speckle Pattern Shearing Interferometrie (Shearografie) ist eine speckle-interferometrische Messmethode und zeichnet sich durch die ganzflächige, berührungslose Arbeitsweise, hohe räumliche Auflösung und hohe Messempfindlichkeit aus. Diese Dissertation beinhaltet die neue bzw. weitere Entwicklung der Shearografie zur qualitativen Schwingungsbeobachtung und zur quantitativen Schwingungsmessung. Für die qualitative Schwingungsbeobachtung in Echtzeit werden die Optimierung des Zeitmittelungsverfahrens und die neue entwickelte Online-Charakterisierung von Streifenmustern mit statistischen Verfahren vorgestellt. Auf dieser Basis können sowohl eine genaue Fehlstellen-Detektion bei der zerstörungsfreien Materialprüfung als auch eine präzise Resonanzuntersuchung zeitsparend und vollautomatisch durchgeführt werden. Für die quantitative Schwingungsmessung wird eine sog. dynamische Phasenschiebe-Technik neu entwickelt, welche durch die Einführung eines synchron zum Objekt schwingenden Referenzspiegels realisiert wird. Mit dieser Technik ermöglicht das Zeitmittelungsverfahren die Amplituden und Phasen einer Objektschwingung quantitativ zu ermitteln. Auch eine Weiterentwicklung des stroboskopischen Verfahrens in Kombination mit zeitlicher Phasenverschiebung wird in der Arbeit präsentiert, womit der gesamte Prozess der Schwingungsmessung und -rekonstruktion beschleunigt und automatisch durchgeführt wird. Zur Bestimmung des Verschiebungsfeldes aus den gemessenen Amplituden und Phasen des Verformungsgradienten stellt diese Arbeit auch eine Weiterentwicklung des Summationsverfahrens vor. Das Verfahren zeichnet sich dadurch aus, dass die Genauigkeit des ermittelten Verschiebungsfelds unabhängig von der Sheargröße ist und gleichzeitig das praktische Problem - Unstetigkeit - gelöst wird. Eine quantitative Messung erfordert eine genaue Kalibrierung der gesamten Messkette. Ein auf dem Least-Square-Verfahren basierendes Kalibrierverfahren wird in der Arbeit zur Kalibrierung der statischen und dynamischen Phasenverschiebung vorgestellt. Auch die Ermittelung der Sheargröße mit Hilfe der 1D- bzw. 2D-Kreuz-Korrelation wird präsentiert. Zum Schluss wurde die gesamte Entwicklung durch eine Vergleichsmessung mit einem handelsüblichen Scanning-Laser-Doppler-Vibrometer experimentell verifiziert.
Resumo:
In der vorliegenden Arbeit wird der Frage nachgegangen, wie das bundesgesetzlich vorgegebene Leitziel beruflicher Handlungskompetenz in länderspezifischen Curricula für die Krankenpflegeausbildung in Form von Lernzielen konkretisiert wird. Dabei wird von der Annahme ausgegangen, dass mit dieser Zieldimension eine curriculare Schwerpunktverlagerung von der Auswahl und Legitimation der Lehrinhalte fort und hin zur Explikation von Lernergebnissen einhergeht, die als Outcomes der Ausbildung an zukünftigen beruflichen Handlungssituationen orientiert sind. Die Zielformulierungen in den krankenpflegeausbildungsrelevanten Lehrplänen der Länder Nordrhein-Westfalen, Sachen und Brandenburg werden mittels einer Dokumentenanalyse sowohl auf die intendierten kognitiven Anforderungen als auch auf die Intention vollständigen beruflichen Handelns hin untersucht. Im Anschluss an die Interpretation der drei Einzelanalysen erfolgt eine vergleichende Bewertung und Diskussion der Ergebnisse.
Resumo:
In der Arbeit werden zunächst die wesentlichsten Fakten über Schiefpolynome wiederholt, der Fokus liegt dabei auf Shift- und q-Shift-Operatoren in Charakteristik Null. Alle für die Arithmetik mit diesen Objekten notwendigen Konzepte und Algorithmen finden sich im ersten Kapitel. Einige der zur Bestimmung von Lösungen notwendigen Daten können aus dem Newtonpolygon, einer den Operatoren zugeordneten geometrischen Figur, abgelesen werden. Die Herleitung dieser Zusammenhänge ist das Thema des zweiten Kapitels der Arbeit, wobei dies insbesondere im q-Shift-Fall in dieser Form neu ist. Das dritte Kapitel beschäftigt sich mit der Bestimmung polynomieller und rationaler Lösungen dieser Operatoren, dabei folgt es im Wesentlichen der Darstellung von Mark van Hoeij. Der für die Faktorisierung von (q-)Shift Operatoren interessanteste Fall sind die sogenannten (q-)hypergeometrischen Lösungen, die direkt zu Rechtsfaktoren erster Ordnung korrespondieren. Im vierten Kapitel wird der van Hoeij-Algorithmus vom Shift- auf den q-Shift-Fall übertragen. Außerdem wird eine deutliche Verbesserung des q-Petkovsek-Algorithmus mit Hilfe der Daten des Newtonpolygons hergeleitet. Das fünfte Kapitel widmet sich der Berechnung allgemeiner Faktoren, wozu zunächst der adjungierte Operator eingeführt wird, der die Berechnung von Linksfaktoren erlaubt. Dann wird ein Algorithmus zur Berechnung von Rechtsfaktoren beliebiger Ordnung dargestellt. Für die praktische Benutzung ist dies allerdings für höhere Ordnungen unpraktikabel. Bei fast allen vorgestellten Algorithmen tritt das Lösen linearer Gleichungssysteme über rationalen Funktionenkörpern als Zwischenschritt auf. Dies ist in den meisten Computeralgebrasystemen nicht befriedigend gelöst. Aus diesem Grund wird im letzten Kapitel ein auf Evaluation und Interpolation basierender Algorithmus zur Lösung dieses Problems vorgestellt, der in allen getesteten Systemen den Standard-Algorithmen deutlich überlegen ist. Alle Algorithmen der Arbeit sind in einem MuPAD-Package implementiert, das der Arbeit beiliegt und eine komfortable Handhabung der auftretenden Objekte erlaubt. Mit diesem Paket können in MuPAD nun viele Probleme gelöst werden, für die es vorher keine Funktionen gab.
Rissbildung und Zugtragverhalten von mit Stabstahl und Fasern bewehrtem Ultrahochfesten Beton (UHPC)
Resumo:
Ultrahochfester Beton (UHPC) ist ein sehr gefügedichter zementgebundener Werkstoff, der sich nicht nur durch eine hohe Druckfestigkeit, sondern auch durch einen hohen Widerstand gegen jede Form physikalischen oder chemischen Angriffs auszeichnet. Duktiles Nachbruchverhalten bei Druckversagen wird meist durch die Zugabe dünner kurzer Fasern erreicht. In Kombination mit konventioneller Betonstahl- oder Spannbewehrung ermöglicht UHPC die Ausführung sehr schlanker, weitgespannter Konstruktionen und eröffnet zugleich neue Anwendungsgebiete, wie zum Beispiel die flächenhafte Beschichtung von Brückendecks. Durch das Zusammenwirken kontinuierlicher Bewehrungselemente und diskontinuierlich verteilter kurzer Fasern ergeben sich unter Zugbeanspruchung Unterschiede gegenüber dem bekannten Stahl- und Spannbeton. In der vorliegenden Arbeit wird hierzu ein Modell entwickelt und durch eine umfangreiche Versuchsreihe abgesichert. Ausgangspunkt sind experimentelle und theoretische Untersuchungen zum Verbundverhalten von Stabstählen in einer UHPC-Matrix und zum Einfluss einer Faserzugabe auf das Reiß- und Zugtragverhalten von UHPC. Die Modellbildung für UHPC-Zugelemente mit gemischter Bewehrung aus Stabstahl und Fasern erfolgt auf der Grundlage der Vorgänge am diskreten Riss, die daher sehr ausführlich behandelt werden. Für den elastischen Verformungsbereich der Stabbewehrung (Gebrauchslastbereich) kann damit das Last-Verformungs-Verhalten für kombiniert bewehrte Bauteile mechanisch konsistent unter Berücksichtigung des bei UHPC bedeutsamen hohen Schwindmaßes abgebildet werden. Für die praktische Anwendung wird durch Vereinfachungen ein Näherungsverfahren abgeleitet. Sowohl die theoretischen als auch die experimentellen Untersuchungen bestätigen, dass der faserbewehrte UHPC bei Kombination mit kontinuierlichen Bewehrungselementen selbst kein verfestigendes Verhalten aufweisen muss, um insgesamt verfestigendes Verhalten und damit eine verteilte Rissbildung mit sehr keinen Rissbreiten und Rissabständen zu erzielen. Diese Beobachtungen können mit Hilfe der bisher zur Verfügung stehenden Modelle, die im Wesentlichen eine Superposition isoliert ermittelter Spannungs-Dehnungs-Beziehungen des Faserbetons und des reinen Stahls vorsehen, nicht nachvollzogen werden. Wie die eigenen Untersuchungen zeigen, kann durch ausreichend dimensionierte Stabstahlbewehrung zielgerichtet und ohne unwirtschaftlich hohe Fasergehalte ein gutmütiges Verhalten von UHPC auf Zug erreicht werden. Die sichere Begrenzung der Rissbreiten auf deutlich unter 0,1 mm gewährleistet zugleich die Dauerhaftigkeit auch bei ungünstigen Umgebungsbedingungen. Durch die Minimierung des Material- und Energieeinsatzes und die zu erwartende lange Nutzungsdauer lassen sich so im Sinne der Nachhaltigkeit optimierte Bauteile realisieren.
Resumo:
Angesichts der Geschichte der Entwicklungspolitik, ist diese Arbeit darauf ausgerichtet, einige Beobachtungen in Bezug auf die so genannte Entwicklung hervorzuheben; insbesondere auf die andauernde prekäre Situation und Armut in ländlichen afrikanischen Gebieten. Armut ist nach Amartya SEN – weiter präzisiert von J.L. Dubois – die Deprivation von „Fähigkeiten“, die Individuen und lokale Gemeinschaften zu ausgeschlossenen und vergessenen Akteuren des Systems machen. Das nennt Paulo Freire, das Menschen zu „Objekten“ gemacht werden. Es rechtfertigt die starke Annahme, die in dieser Studie getroffen wird, dass vielmehr die Menschen als „Subjekte“ ihrer Veränderung und Entwicklung im Mittelpunkt stehen. Die Arbeit zeigt und erklärt in historischer Chronologie, wie die Entwicklungspolitiken und unterschiedliche Beteiligte auf allen Ebenen diese Situation verursachen. Trotz alledem bleiben die Individuen und lokalen Gemeinschaften, die in Symbiose mit ihrer natürlichen Umwelt leben, die reich an verschiedenen Ressourcen und Potentialen ist, als Reaktion darauf und gleichzeitig als Überlebensstrategie zutiefst verbunden mit dem, was sie vor Ort haben, womit sie eine tiefere und intensive Beziehung besitzen, wenn man von ihrer Geschichte, ihrer Kultur und der Handlungslogik ausgeht. Für externe Akteure, die sie über das vorhandene System dominieren und beeinflussen bleiben sie „Objekte“, aber in der Vielzahl ihrer endogenen Initiativen, zeigen sie die Fähigkeit und Substanz, die beweisen, dass sie auf ihrer Ebene das eigentliche Subjekt sind, die dynamischen Akteure. Aber isolierte Initiativen auf spezifische reale Bedürfnisse bei gleichzeitiger Dominierung durch das System mit seiner Marktlogik, führt dies langfristig nur zu dem Zirkulus Vitiosus der Armut. Daher ist eine ganzheitliche Sicht entscheidend für nachhaltige Entwicklung und für die notwendige Veränderung. Es geht nicht nur um die Veränderung des Systems und die Wahl politischer Maßnahmen, sondern genau genommen um das Verhalten der Akteure auf allen Ebenen und die Art der Beziehungen zwischen ihnen allen. Es ist eine Frage des erneuten Überdenkens des Entwicklungspfades, der andere Logik, Visionen, Interessen und Strategien aller Beteiligten, unserer so genannten Akteure einschließt. Ob dies von endogenen Initiativen oder neuen gemeinsamen Projekten ausgeht: man wird in einen Prozess kollektiven Lernens eintreten, den Paul Singer und Clarita Müller-Plantenberg erläutern und entwickeln in dem Konzept der Inkubation und Solidarischen Ökonomie, die Eigeninitiative, Selbstbestimmung und Selbstverwaltung von lokalen Gemeinschaften und die Öffnung für eine Neu-Konzeptualisierung und Institutionalisierung einschließt. So ein Prozess ist nur mit einem interdisziplinären Rahmen möglich. Dieser Rahmen soll auf einer zusätzlicher Kommunikation zwischen den Akteuren und Sozialwissenschaften beruhen und mit jenen, die auf dem Feld der Technologie arbeiten. So können dann technische „Experten“ angesichts eines technischen Projektfehlers, der aufgrund von bestimmten sozialen und kulturellen Realitäten zustande kam sagen, „es ist kein Scheitern ; es war ein Schritt innerhalb eines Lernprozesse der in die technischen Projekte und Studien einbezogen werden muss“. Wir haben das Energiethema gewählt; und insbesondere, Energie für eine nachhaltige ländliche Entwicklung in Subsahara-Afrika, um den Weg von der Theorie in die Praxis zu illustrieren und experimentell auszuprobieren, den Weg von den Beobachtungen zu der Veränderung, wobei Fragen, Annahmen, Strategien und konkrete Aktionen für den Wandel behandelt werden. Wir nennen unseren experimentellen Weg: DRIEE, das heißt auf Deutsch Ländliche Entwicklung und Inkubation von Energieunternehmen. Dabei gehen wir davon aus, dass: - Energie im Allgemeinen auf der internationalen Ebene fast gleichbedeutend mit Elektrizität ist. Heute bestehen die wichtigsten Bedürfnisse nach Energie dort wo die agro-pastorale Produktion, das Kochen, die Nahrungsmittelkonservierung und Verarbeitung …etc. stattfindet. - Diese ländliche Bevölkerung zu etwa 80% der nationalen Wirtschaft ausmacht. Dass sie gleichzeitig aber nur zu weniger als 5% der Energieproduktion Zugang hat, was oft auf Licht reduziert ist und nicht einmal ihrer Produktion zugute kommen kann. - Die Projekte für Energie und Elektrizität vor allem auf die Technologischen Fragen konzentriert sind und weniger auf die Bedürfnisse. Fast die Gesamtheit der Fonds für Energie wird in Bezug auf die Investitionen Infrastruktur der Produktion und Verteilung durch die konventionellen zentralisierten Netze geplant. Angesichts dieser Analysen gehen die in dieser Arbeit vorgenommenen Studien in Gambia und Kamerun von Bestandsaufnahmen und / oder beschreibenden regionalen Analysen aus: - von Bedürfnissen, von Praktiken und lokalen Initiativen von Fragen der Energie, für einzelne Professionen, Haushalte, Gruppen, spezifische Gruppen, wie Frauen, ländliche Gemeinden mit ihren spezifischen Charakteristika. - Von Potentialen: natürliche lokale Energieressourcen, soziokulturelle Ressourcen – so z.B. die empirisch feststellbaren menschliche Ressourcen wie endogenes Wissen und praktische organisatorische Fähigkeiten gegenüber den Problemen der Energie. Dieser experimentelle Schritt von Handlungsforschung (DRIEE) in Kamerun führte zu der Gründung einer Organisation, über die und mit der wir die Logik der Inkubation und Solidarischen Ökonomie einführen. Das ist FERDEDSI, das heißt auf Deutsch „Forum für Erneuerbare Energie – Nachhaltige Entwicklung und Internationale Solidarität“. Zunächst war dies eine Energiegenossenschaft und dann (im Prozess) wurde es zu einer institutionellen Nische von mehreren Mikro Initiativen in ländlichen Gebieten. FERDEDSI ist ein Prozess der Inkubation und ein Inkubator ist also gleichzeitig ein inkubiertes Energieunternehmen aber auch ein Inkubator für lokale Organisationen. Die ersten Aktionen finden in den Departments von Noun und Ménoua in der westlichen Provinz von Kamerun statt. Während der Forschungsperiode findet akademische Austausch statt (Nord-Süd und Süd-Süd), diese ist dabei zu formalen Partnerschaften zu werden, nicht nur zwischen Universitäten sondern genauer lokale Organisationen und Universitäten. Dieser letzte Typ von Partnerschaften, die die solidarische Ökonomie ausmachen ist auch eine Innovation des Prozesses für die afrikanischen Fälle, die dem Beispiel dessen, was in Lateinamerika geschieht, folgen. So kommt es zu gegenseitiger sinnvoller Ausbildung in den internationalen Arbeitsgruppen und Seminaren der Universität.
Resumo:
Es soll im Folgenden nicht darum gehen, eine neue Methode zu kreieren, eine Bindestrich-Methode wie etwa "psychoanalytische Organisationsberatung" oder dergleichen. Vielmehr gehen wir davon aus, dass jeder Berater, der als Externer mit einer Organisation in Kontakt kommt auf Neues und damit Unbekanntes stößt. Wir machen dabei immer wieder die schmerzhafte Erfahrung, nicht zu durchschauen, nicht zu wissen, d.h. unsicher zu sein über die eigene Rolle und Identität. Die Realität von Institutionen erleben wir als unüberschaubar komplex. Damit ist eine Gefahr verbunden, denn der Organisationsberater selbst bewegt sich in der Unbewusstheit der Institution. Er selbst ist Produkt dieses Prozesses. Mit diesem Neuen und Unbekannten kann man in zweierlei Hinsicht umgehen: Entweder man versucht sich an vorherigen Erfahrungen zu orientieren und subsumiert das Neue unter das Alte, oder man nimmt das Neue bewusst wahr und lässt sich verunsichern, um die Irritationen produktiv im Sinne eines diagnostischen Erkenntnisinteresses zu nutzen. In diesem Sinne geht es nicht um eine Methode, sondern um eine Haltung, die mit anderen methodischen Grundorientierungen durchaus kompatibel sein kann. Im folgenden greifen wir auf unsere Vorarbeiten zu dem Thema "Supervision als praktische Ethnopsychoanalyse" (Pühl 1992, 1998, Möller 1997) zurück und vervollständigen diesen Ansatz um den Kulturbegriff, der der Ethnopsychoanalyse immanent ist.
Resumo:
The oil price rises more and more, and the world energy consumption is projected to expand by 50 percent from 2005 to 2030. Nowadays intensive research is focused on the development of alternative energies. Among them, there are dye-sensitized nanocrystalline solar cells (DSSCs) “the third generation solar cells”. The latter have gained attention during the last decade and are currently subject of intense research in the framework of renewable energies as a low-cost photovoltaic. At present DSSCs with ruthenium based dyes exhibit highest efficiencies (ca 11%). The objective of the present work is to fabricate, characterize and improve the performance of DSSCs based on metal free dyes as sensitizers, especially on perylene derivatives. The work begins by a general introduction to the photovoltaics and dye-sensitized solar cells, such as the operating principles and the characteristics of the DSSCs. Chapter 2 and 3 discuss the state of the art of sensitizers used in DSSCs, present the compounds used as sensitizer in the present work and illustrate practical issues of experimental techniques and device preparation. A comparative study of electrolyte-DSSCs based on P1, P4, P7, P8, P9, and P10 are presented in chapter 4. Experimental results show that the dye structure plays a crucial role in the performance of the devices. The dye based on the spiro-concept (bipolar spiro compound) exhibited a higher efficiency than the non-spiro compounds. The presence of tert-butylpyridine as additive in the electrolyte was found to increase the open circuit voltage and simultaneously decrease the efficiency. The presence of lithium ions in the electrolyte increases both output current and the efficiency. The sensitivity of the dye to cations contained in the electrolyte was investigated in the chapter 5. FT-IR and UV-Vis were used to investigate the in-situ coordination of the cation to the adsorbed dye in the working devices. The open-circuit voltage was found to depend on the number of coordination sites in the dye. P1 with most coordination sites has shown the lowest potential drop, opposite to P7, which is less sensitive to cations in the working cells. A strategy to improve the dye adsorption onto the TiO2 surface, and thus the light harvesting efficiency of the photoanode by UV treatment, is presented in chapter 6. The treatment of the TiO2 film with UV light generates hydroxyl groups and renders the TiO2 surface more and more hydrophilic. The treated TiO2 surface reacts readily with the acid anhydride group of the dye that acts as an anchoring group and improves the dye adsorption. The short-circuit current density and the efficiency of the electrolyte-based dye cells was considerably improved by the UV treatment of the TiO2 film. Solid-state dye-sensitized solar cells (SSDs) based on spiro-MeOTAD (used as hole transport material) are studied in chapter 7. The efficiency of SSDs was globally found to be lower than that of electrolyte-based solar cells. That was due to poor pore filling of the dye-loaded TiO2 film by the spin-coated spiro-MeOTAD and to the significantly slower charge transport in the spiro-MeOTAD compared to the electrolyte redox mediator. However, the presence of the donor moieties in P1 that are structurally similar to spiro-MeOTAD was found to improve the wettability of the P1-loaded TiO2 film. As a consequence the performance of the P1-based solid-state cells is better compared to the cells based on non-spiro compounds.
Resumo:
Zur Erholung in die Natur gehen oder doch lieber zur Natursimulation greifen? Intuitiv würden die meisten Menschen der Natur einen größeren Erholungswert zusprechen als einer Natursimulation. Aber ist die Natur tatsächlich erholsamer? In der Naturerholungsforschung (Restorative Environment Research) kommen häufig Natursimulationen zum Einsatz, um die erholsame Wirkung von Natur zu ermitteln. Problematisch ist dabei, dass deren ökologische Validität und Vergleichbarkeit noch nicht empirisch abgesichert ist. Vorliegende Arbeit setzt an dieser methodischen und empirischen Lücke an. Sie überprüft sowohl die ökologische Validität als auch die Vergleichbarkeit von Natursimulationen. Dazu wird die erholsame Wirkung von zwei Natursimulationen im Vergleich zu der physisch-materiellen Natur empirisch untersucht und verglichen. Darüber hinaus werden Aspekte des subjektiven Erlebens und der Bewertung im Naturerholungskontext exploriert. Als bedeutsamer Wirkmechanismus wird die erlebnisbezogene Künstlichkeit/Natürlichkeit angesehen, die sich auf die Erlebnisqualität von Natursimulationen und der physisch-materiellen Natur bezieht: Natursimulationen weisen im Vergleich zur physisch-materiellen Natur eine reduzierte Erlebnisqualität auf (erlebnisbezogene Künstlichkeit), z.B. eine reduzierte Qualität und Quantität der Sinnesansprache. Stellt man einen derartigen Vergleich nicht nur mit der physisch-materiellen Natur, sondern mit unterschiedlichen Natursimulationstypen an, dann zeigen sich auch hier Unterschiede in der erlebnisbezogenen Künstlichkeit. Beispielsweise unterscheidet sich ein Naturfoto von einem Naturfilm durch das Fehlen von auditiven und bewegten Stimuli. Diese erlebnisbezogene Künstlichkeit kann die erholsame Wirkung von Natur - direkt oder indirekt über Bewertungen - hemmen. Als Haupthypothese wird angenommen, dass mit zunehmendem Ausmaß an erlebnisbezogener Künstlichkeit die erholsame Wirkung der Natur abnimmt. Dem kombinierten Feld- und Laborexperiment liegt ein einfaktorielles Vorher-Nachher-Design zugrunde. Den 117 Probanden wurde zunächst eine kognitiv und affektiv belastende Aufgabe vorgelegt, danach folgte die Erholungsphase. Diese bestand aus einem Spaziergang, der entweder in der physisch-materiellen Natur (urbaner Park) oder in einer der beiden audio-visuellen Natursimulationen (videogefilmter vs. computergenerierter Spaziergang durch selbigen urbanen Park) oder auf dem Laufband ohne audio-visuelle Darbietung stattfand. Die erlebnisbezogene Künstlichkeit/Natürlichkeit wurde also wie folgt operationlisiert: die physische Natur steht für die erlebnisbezogene Natürlichkeit. Die beiden Natursimulationen stehen für die erlebnisbezogene Künstlichkeit. Die computergenerierte Version ist im Vergleich zur Videoversion erlebnisbezogen künstlicher, da sie weniger fotorealistisch ist. Die Zuordnung zu einer der vier experimentellen Erholungssettings erfolgte nach dem Zufallsprinzip. Die Effekte von moderater Bewegung wurden in den Natursimulationen durch das Laufen auf dem Laufband kontrolliert. Die Beanspruchungs- bzw. Erholungsreaktionen wurden auf kognitiver (Konzentriertheit, Aufmerksamkeitsleistung) affektiver (3 Befindlichkeitsskalen: Wachheit, Ruhe, gute Stimmung) und physiologischer (Alpha-Amylase) Ebene gemessen, um ein umfassendes Bild der Reaktionen zu erhalten. Insgesamt zeigen die Ergebnisse, dass die beiden Natursimulationen trotz Unterschiede in der erlebnisbezogenen Künstlichkeit/Natürlichkeit zu relativ ähnlichen Erholungsreaktionen führen, wie die physisch-materielle Natur. Eine Ausnahme stellen eine der drei affektiven (Wachheit) und die physiologische Reaktion dar: Probanden der physisch-materiellen Naturbedingung geben an wacher zu sein und weisen - wider erwarten - eine höhere physiologische Erregung auf. Demnach ist die physisch-materielle Natur nicht grundsätzlich erholsamer als die Natursimulationen. Die Hypothese ließ sich somit nicht bestätigen. Vielmehr deuten sich komplexe Erholungsmuster und damit auch unterschiedliche Erholungsqualitäten der Settings an, die einer differenzierten Betrachtung bedürfen. Für die ökologische Validität von Natursimulationen gilt, dass diese nur mit Einschränkung als ökologisch valide bezeichnet werden können, d.h. nur für bestimmte, aber nicht für alle Erholungsreaktionen. Die beiden Natursimulationen führen ebenfalls trotz Unterschiede in der erlebnisbezogenen Künstlichkeit zu ähnlichen Erholungsreaktionen und können somit als gleichwertig behandelt werden. Erstaunlicherweise kommt es hier zu ähnlichen Erholungsreaktionen, obwohl die bestehenden Unterschiede von den Probanden wahrgenommen und die erlebnisbezogen künstlichere computergenerierte Version negativer bewertet wird. Aufgrund der nicht erwartungskonformen Ergebnisse muss das Erklärungskonzept der erlebnisbezogenen Künstlichkeit/Natürlichkeit infrage gestellt werden. Alternative Erklärungskonzepte für die Ergebnisse („Ungewissheit“, mentale räumliche Modelle), die sich andeutenden unterschiedlichen Erholungsqualitäten der Settings, methodische Einschränkungen sowie die praktische Bedeutung der Ergebnisse werden kritisch diskutiert.
Resumo:
In der Mathematikdidaktik gibt es die weit verbreitete Auffassung, durch die Verwendung von Simulationen Lernprozesse zu unterstützen. Dies hat mich im Rahmen meiner Dissertation dazu bewogen, erstens eine Werkzeuganalyse des Simulationspotentials der Software Fathom durchzuführen und zweitens exemplarische Analysen dazu, wie Lernende mit der Software arbeiten. Bei der Werkzeuganalyse standen vor allem folgende zwei Fragen im Mittelpunkt: Was bietet die Software an Simulationspotential? Wie gut und leicht lassen sich Zufallsexperimente in Fathom realisieren? Dieses Wissen ist für die praktische Anwendung der Software und die diagnostische Kompetenz der Lehrkräfte, die Schüler bei der Arbeit mit der Software unterstützen wollen, essentiell. Mit dieser Werkzeuganalyse wurde ein allgemeineres Instrument entwickelt, mit dem man das Simulationspotential auch anderer Werkzeugsoftware wie Excel, Tinkerplots oder den TI-Nspire systematisch analysieren könnte. Im zweiten Teil werden die Ergebnisse einer Fallstudie zur Kompetenz von Studierenden beim Bearbeiten von stochastischen Simulations- und Modellierungsproblemen vorgestellt. Die insgesamt aufwendige Analyse von Mikroprozessen macht sehr viel relevante und wichtige Details im Umgang von Studierenden mit Simulationsaufgaben erkennbar. Auch ist als Ergebnis der Studie nicht nur einfach ein differenziertes Bild der Kompetenzen von Studierenden anzusehen. Vielmehr liegt ein wesentlicher Beitrag auch in der Konzeptualisierung unterschiedlicher Kompetenzen und ihrer Wechselwirkung, wie sie bei der Bearbeitung von mathematischen Aufgaben mit dem Computer auftreten.