574 resultados para Ehrenamtliche Arbeit
Resumo:
In der vorliegenden Dissertation geht es um die Dokumentation, theoretische Begründung und Auswertung des in 25 Jahren Praxis entwickelten Curriculums der Bewusstseinsschulung und -weitung der Orgodynamik. Dabei geht es insbesondere um den Vergleich und die forschungsorientierte Verknüpfung verschiedener Traditionen der Bewusstseinsbildung, der ihnen zugrunde liegenden Konzepte und anthropologischen Dimensionen im Schnittfeld pädagogischer, psychologischer und spiritueller Perspektiven. In Anlehnung an das von Fuhr/Dauber (2002) entwickelte Modell, der Praxisentwicklungsforschung, welche die Verflechtung von Theorie und Praxis ansteuert, wird der orgodynamische Ansatz wissenschaftlich dokumentiert und theoretisch begründet. Über eine induktive Vorgehensweise werden die historischen Wurzeln konzeptionell dargelegt, die verborgenen Paradigmen herausgearbeitet, sowie das Curriculum erläutert und ausgewertet. In einem ersten theorieorientierten Kapitel wird das orgodynamische Methodenspektrum in seinem Grundmodell und den vier zentralen Dimensionen (mentale, körperliche, emotionale, energetische Dimension) aufgezeigt und mit theoretischen Hintergrundkonzepten verglichen und verknüpft. Die vier sich überlappenden Methodengruppen der mental, körperlich, emotional und energetisch orientierten Bewusstseinsarbeit werden differenziert dargestellt und in ihrer Beziehung zueinander diskutiert. Anhand eines Modells (Methodenrad) wird die multi-dimensionale Perspektive des Methodenspektrums, in einer nichthierarchischen Zuordnung sichtbar. Im zweiten theorieorientierten Hauptteil werden zunächst die zentralen vier Paradigmen der Orgodynamik (Präsenz, Multidimensionalität, Flow/Fließendes Gewahrsein, Bezogenheit) vorgestellt, theoretisch und praxisbezogen entfaltet und in einer Paradigmen-Landkarte zueinander in Beziehung gesetzt. Dabei werden die kategorialen Ausführungen durchgehend an Praxisbeispielen veranschaulicht und im Blick auf drei vorgestellte Zugänge zur Bewusstseinsweitung (Immersion, Integration und Dekonstruktion) exemplarisch didaktisch kommentiert. Im dritten Hauptteil wird das Curriculum im Zusammenhang mit einer Auswertungsmatrix erläutert. Diese dient als Überprüfungsinstrument. Mit ihrer Hilfe werden die verschiedenen methodischen Zugangsweisen und Arbeitsformen dieses Ansatzes, exemplarisch anhand von 2 Ausbildungswochen, im Blick der Multidimensionalität dokumentiert. Damit wird diese multidimensional angelegte Praxis exemplarisch bis in methodische Details nachvollziehbar und in dialogisch-selbstreflexiver Form überprüfbar. Exemplarisch werden in einem Exkurs erste Itemvorschläge gemacht, welche die wissenschaftliche Anschlussfähigkeit an neuere Forschung im transpersonalen Bereich aufzeigen. Das innere Anliegen der vorliegenden Arbeit zeigt in der Verschränkung von Theorie und Praxis, dass die Paradigmen der Orgodynamik, Präsenz, Multidimensionalität, fließendes Gewahrsein und bewusste Bezogenheit vier pädagogisch umgesetzte Paradigmen für eine Bewusstseinserforschung in der Erwachsenenbildung sind. Stichworte: Multidimensional, Bewusstseinserforschung, Bewusstseinsweite, Präsenz, bewusste Bezogenheit, Flow/Fließendes Gewahrsein, das „Größere“, Immersion, Integration, Dekonstruktion, pädagogische Paradigmen, Erwachsenenbildung, Multidimensionales Methodenspektrum, Orgodynamik, Körpertherapie. ---------------------------
Resumo:
Ein angemessenes Verständnis der Natur der Naturwissenschaften stellt eine zentrale Kompetenz naturwissenschaftlicher Grundbildung („Scientific Literacy“) dar und ist im Rahmen des Kompetenzbereichs Erkenntnisgewinnung in den nationalen Bildungsstandards in den naturwissenschaftlichen Fächern verankert. Schülerinnen und Schüler sollen demnach in der Schule Lernerfahrungen über die Grundzüge und Grenzen naturwissenschaftlicher Erkenntnisgewinnung und naturwissenschaftlichen Wissens erlangen. In dieser Arbeit liegen vier Studien vor, die sich mit Aspekten des Verstehens der Natur der Naturwissenschaften von Schülerinnen und Schülern in der Sekundarstufe I beschäftigen. In der ersten Studie, die die Entwicklung eines quantitativen Messinstruments im Blick hat, wird die Kompetenzstruktur theoretisch modelliert und empirisch überprüft. Faktorenanalytisch nachweisbare Dimensionen sind die Herkunft, Sicherheit, Entwicklung, Rechtfertigung und Einfachheit naturwissenschaftlichen Wissens, der Zweck der Naturwissenschaften und die Kreativität von Naturwissenschaftlern. Die zweite Studie nimmt den Entwicklungsaspekt des Naturwissenschaftsverständnisses in den Fokus. Lernende zeigen sowohl im längsschnittlichen Vergleich eines Schuljahres als auch im querschnittlichen Vergleich verschiedener Jahrgangsstufen einen Zuwachs hin zu höheren Klassenstufen auf. Jüngere Lernende zeigen bereits angemessene Ansichten, allerdings sind die Konzepte älterer Schülerinnen und Schüler als stabiler anzusehen als die Ansichten der Lernenden in jüngeren Jahrgangsstufen. In der dritten Studie wird die Kontextabhängigkeit des Naturwissenschaftsverständnisses untersucht. Es kann ein Zusammenhang berichtet werden zwischen den selbst berichteten Kenntnissen der Jugendlichen und ihrem Naturwissenschaftsverständnis sowie zwischen den berichteten Vorstellungen zu spezifischen Kontexten und allgemeinen Vorstellungen über die Natur der Naturwissenschaften. Abschließend wird die Bedeutung des Naturwissenschaftsverständnisses für den Erwerb wissenschaftsmethodischer Kompetenzen in den Blick genommen. Zusammenhänge zwischen den Konstrukten deuten auf inhaltliche Schnittstellen sowie Unterschiede im Kompetenzerwerb hin. Aus den Befunden lassen sich Folgerungen für eine adäquate Vermittlung von Kompetenzen des Naturwissenschaftsverständnisses ableiten. Dimensionen der Natur der Naturwissenschaften sollten sich kumulativ aufbauend in das Curriculum integrieren sowie in Bezug zum forschenden Lernen und der Vermittlung von Fachkonzepten explizit reflektiert werden.
Resumo:
Seit der Gründung der Ökologischen Landbaubewegung wird über eine angepasste Bodenbearbeitung diskutiert. Konservierende Bodenbearbeitungssysteme scheinen zwar dem Prinzip des Erhalts und der Förderung der Bodenfruchtbarkeit am ehesten gerecht zu werden, wurden bislang vor allem auf Grund der Unkrautregulierung im Ökolandbau abgelehnt. Anhand von vier Methoden (Literaturrecherche, Feldversuch, Umfrage und Experteninterviews) werden die unterschiedlichen Aspekte der konservierenden Bodenbearbeitung in der Praxis des Ökolandbaus untersucht. In dem dreijährigen Feldversuch wurde das Mulchsaatverfahren nach Getreide mit zwei verschiedenen Bearbeitungstiefen (5-7 cm und 13-15 cm) zur Zwischenfrucht mit dem Pflugeinsatz (25 cm) verglichen. Dabei zeigt sich, dass bei der tiefen Bearbeitung mit dem Grubber der für einen nennenswerten Erosionsschutz notwendige Bedeckungsgrad von 30 % nicht zuverlässig erreicht wird. Gleichzeitig sprechen die geringen Unterschiede in den Trockenmasseerträgen der flachen und tiefen Grubbervarianten für eine flachere Bearbeitung. Die Ergebnisse der Umfrage zur Bodenbearbeitung, die 367 Ökobauern beantworteten, zeigen, dass die Mehrheit der Betriebe (56%) bei der Grundbodenbearbeitung den Pflug einsetzt. 6% der befragten Ökobauern geben an ohne Pflug zu wirtschaften. Etwa 40 % der befragten Ökobauern verzichten zumindest einmal in ihrer Fruchtfolge auf den Pflug. Die Experteninterviews von drei Ökobauern verdeutlichen die unterschiedlichen Maßnahmen der konservierenden Bodenbearbeitung. Ein komplexes System wird erkennbar, das sich durch langjährige Erfahrung der Landwirte entwickelt hat. Anhand der Ergebnisse ist eine konservierende Bodenbearbeitung im Ökolandbau möglich und im Sinne der Förderung der Bodenfruchtbarkeit auch als notwendig zu bezeichnen. Allerdings ist dabei die Bodenbearbeitung nicht isoliert zu betrachten. Im Konzept der konservierenden Bodenbearbeitung sind Entscheidungen in vielen Teilbereichen des Ökobetriebs zum Erfolg notwendig.
Resumo:
Die Arbeit untersucht ein Format der modernen Architektur: Tiefe Geschossbauten. Diese werden definiert als kompakte Gebäude mit mindestens vier Geschossebenen von mindestens 25 Metern Seitenlänge in beiden Richtungen ("tiefe Grundrisse", "deep plans") ohne zentralen Kern oder zentrales Atrium. Anstelle der Nutzung wird die Gebäudetiefe als entscheidender typologischer Parameter herausgearbeitet. Der einheitlich durchgehende Abbildungsmaßstab von 1:1000 für Grundrisse und Schnitte erlaubt den unmittelbaren visuellen Vergleich innerhalb der vorgestellten Gebäudereferenzen. Von den drei Teilen der Arbeit betrachtet Teil I die Referenzen der Zeit zwischen 1890 und 1990. Teil II untersucht die Referenzen seit 1990. Während für den ersten Teil eine chronologische Gliederung gewählt wurde, werden die Referenzen des zweiten Teils unter morphologischem Blickwinkel gruppiert. Dieser Wechsel der Perspektive signalisiert, wie in Teil III weiter ausgeführt wird, dass die neueren Referenzen als Entfaltung von Möglichkeiten, die in früheren Phasen der architektonischen Moderne angelegt waren, interpretiert werden können. Die Arbeit liegt somit in der Schnittmenge von Architekturgeschichte, Gebäudekunde und Entwurfstheorie.
Resumo:
Die Konvektionstrocknung ist eine der ältesten Methoden zur Konservierung von Lebensmitteln. Es ist bekannt, dass Agrarprodukte temperaturempfindlich sind. Bei Überhitzung erleiden sie chemische und physikalische Veränderungen, die ihre Qualität vermindern. In der industriellen Praxis wird die Konvektionstrocknung in der Regel auf Grundlage empirisch ermittelter Werte durchgeführt, welche die Produkttemperatur nicht berücksichtigen. Es ist deshalb nicht sichergestellt, ob der Prozess optimal oder auch nur gut betrieben wird. Inhalt dieser Arbeit ist ein Vergleich der klassischen einstufigen Konvektionstrocknung mit einer Prozessführungsstrategie bei der die Produkttemperatur als Regelgröße eingeführt wird. Anhand der Untersuchung des Trocknungsverhaltens von Äpfeln werden die beiden Verfahren analysiert, die erhaltenen Ergebnisse miteinander verglichen und daraus optimierte Trocknungsbedingungen abgeleitet. Die für dieses Projekt entwickelte Prozessanlage erlaubt die simultane Untersuchung sämtlicher wesentlicher Temperaturen, der Gewichtsveränderung und der optischen Qualitätskriterien. Gleichzeitig ist es möglich, entweder die Lufttemperatur oder die Temperatur des Produktes zur regeln, während die jeweils andere Größe als Messwert erfasst wird. Es kann weiterhin zwischen Durch- und Überströmung gewählt werden.
Resumo:
Gegenstand der Arbeit ist ein journalistisches Unterrichtsprojekt zur Förderung einer politischen Medienbildung. Das Projekt wurde deutschlandweit in 20 Haupt- und Gesamtschulklassen mit rund 400 Schülern und Schülerinnen durchgeführt und qualitativ untersucht. Im theoretischen Teil werden Konzepte von Medienbildung, medienpädagogische Ansätze und Ergebnisse empirischer Untersuchungen vorgestellt, die für die Arbeit und das Projekt relevant waren. Kapitel 2 thematisiert das Phänomen „TV-Journalismus“ vor dem Hintergrund der Cultural Studies (v. a. Stuart Hall, Margret Lünenborg) und diskutiert es im Hinblick auf medienpädagogische Fragestellungen. Journalismus wird dabei als ein möglicher Weg gesehen, eine politische Bildung mit einer Medienbildung zu verknüpfen. Allerdings führen die Schwerpunkte Journalismus und Politik auch zu Schwierigkeiten bei der Umsetzung, wenn man bedenkt, dass sowohl journalistische Genres als auch Politik in der jugendlichen Lebenswelt keine maßgebliche Rolle spielen, wie aktuelle Jugendstudien zeigen (z. B. JIM- und Deutsche-Shell-Studien). Sinnvoll erscheint hier die Öffnung entsprechender Konzepte hin zu einem weiteren, lebensweltbezogenen Politik- und Journalismusverständnis, um Jugendlichen Bezugspunkte zu ihrer Alltagswelt zu bieten. Kapitel 3 und 4 stellen leitende theoretische Konzepte von Medienbildung/Medienkompetenz (etwa Winfried Marotzki, Manuela Pietraß) sowie medienpädagogische Ansätze (z. B. den handlungsorientierten, themenzentrierten Ansatz von Bernd Schorb) dar. „Medienbildung“ wird in der Arbeit verstanden als Beziehung des Menschen zu sich selbst und zur gegenständlichen und sozialen Welt, wie sie ihm medienvermittelt begegnet. Bildung ist dann das Ergebnis des kritisch-reflexiven Umgangs mit der medial vermittelten Welt. Eine Medienbildung umfasst dabei auch eine Medienkompetenz im Sinne von medienspezifischem Wissen und Fähigkeiten des Umgangs mit Medien. Eine „politische Medienbildung“ wird in Anlehnung an David Buckingham dann zum einen als ein kritisches „Lesen“ medialer Texte definiert, in welchen die soziale Welt vermittelt wird. Zum anderen bedeutet eine „politische Medienbildung“ auch die eigene Gestaltung medialer Texte und die Teilhabe an einer medialen Kultur. Kapitel 5 beschreibt die konkrete forschungsmethodische Herangehensweise: Das medienpädagogische Projekt wurde qualitativ im Hinblick auf eine Medienbildung untersucht. Anders als in bisherigen Medienkompetenz-Studien wurde nicht nach den Wissenszuwächsen und erlernten Fähigkeiten nach Projektende gefragt. Im Zentrum des Interesses standen die im Unterrichtsprojekt beobachteten Situationen und Prozesse einer reflexiven Auseinandersetzung mit journalistisch vermittelten Themen und Darstellungsweisen. Verschiedene Methoden und Datenquellen wurden miteinander kombiniert, um die Unterrichtsrealität angemessen erfassen zu können. Zu den Erhebungsmethoden gehörten etwa die Unterrichtsaufzeichnung, die Gruppendiskussion und das Sammeln von alltagskulturellem Material. Die dabei gewonnenen Daten wurden mit den Auswertungsverfahren der Text- und Bildanalyse untersucht. Die Ergebnisse folgen schließlich in Kapitel 6. Dieses wird im Hinblick auf die konkretisierten Forschungsfragen differenziert in: • Kapitel 6.1: Hier geht es um die Auseinandersetzung der Schüler/innen mit Wissen über Medien. Relevant sind hier Fragen nach einem Vorwissen von Jugendlichen über journalistische Gestaltungsmittel und wie die Schüler/innen ein solches Vorwissen im Kontext des Unterrichts einbrachten. • Kapitel 6.2: Diese Ergebnisse zeigen auf, wie sich die Jugendlichen mithilfe journalistischer Texte mit einem Thema auseinandersetzten, z. B. wie sie diese hinsichtlich ihrer Glaubwürdigkeit oder ihrer Darstellung bewerteten. • Kapitel 6.3: In diesem Kapitel finden sich Ergebnisse aus den Gruppenarbeiten, in welchen die Schüler/innen selbst ein mediales Konzept entwarfen. Die Aufzeichnungen in den Gruppen deckten auf, wie die Schüler/innen an diese Aufgabe herangingen, welche inhaltlichen Schwerpunkte sie setzten, wie sie Sichtweisen in der Gruppe aushandelten und welche formale Darstellungsweise sie planten. Die Kapitel 6.4 und 7 liefern eine Zusammenfassung der wichtigsten Erkenntnisse und eine kritische Diskussion, welche Chancen und Probleme ein journalistisches Projekt im Kontext der Schule und insbesondere für die Zielgruppe einer niedrigen Bildungszugehörigkeit mit sich bringt.
Resumo:
In der vorliegenden Arbeit werden die Erfolge und Misserfolge der Freiraumpolitik im Ruhrgebiet untersucht. Ausgangspunkte sind der Freiraumschwund, der über einen Zeitraum von fast 200 Jahren dokumentiert wird, sowie die Gegenbewegungen, die sich für den Freiraumschutz einsetzen. Nach der Vorstellung einer Freiraumtypologie werden diese Entwicklungen in detaillierten historischen Abrissen für jeden Freiraumtyp dargestellt, woraus sich eine eigene Ruhrgebietsgeschichte - aus der Perspektive der Freiflächen und ihrer Nutzer - ergibt. Folgerichtig beginnt die vorliegende Arbeit nicht mit Kohle und Eisen, sondern mit der Land- und Forstwirtschaft. Anhand historischer Quellen wird die gängige Am-Anfang-war-die-Heide-These widerlegt, denn das Ruhrgebiet war waldreich und ein produktiver Agrarraum. Landwirtschaftliche Flächen- und Waldverluste sind die Basis der Siedlungstätigkeit. Ohne die Gemeinheitsteilungen im 19. Jahrhundert wären die Stadterweiterungen und Industrieansiedlungen im Ruhrgebiet nicht möglich gewesen. Die - in Grundzügen im Ersten Weltkrieg entwickelte - Agrarpolitik mit der Förderung von Produktivitätssteigerungen und Hofaufgaben erleichterte den weiteren Entzug von Agrarflächen, und genauso wirkt heute die Liberalisierung der Agrarmärkte. Alternative Ansätze (z.B. Direktvermarktung) konnten diesen Trend noch nicht aufhalten. Auch das Baumschutzgesetz von 1922 konnte die nationalsozialistischen Kahlschläge, die Waldverluste im Zweiten Weltkrieg und durch den Wiederaufbau nicht verhindern. Erst seit der Deindustrialisierung, der Aufforstung von Halden und der Umweltbewegung nehmen Wälder wieder zu. Demgegenüber treten Ende des 19. Jahrhunderts völlig neue Freiraumtypen auf. Die bürgerschaftliche Kleingartenbewegung wurde dank ihrer Bedeutung für die Ernährung in den Städten seit dem Ersten Weltkrieg vom Staat stark unterstützt, von den Nationalsozialisten gleichgeschaltet, konnte aber in den 1950er Jahren ihren bürgerschaftlichen Charakter und ihre Stärke wieder zurückgewinnen. Auch wenn Kleingärten als bauliche Reserveflächen missbraucht werden, geschieht dies nicht mehr ohne Ersatzland. Im Unterschied hierzu wurde die Stadtparkbewegung kommunalisiert. Sodann entstanden Volksparks mit Sportanlagen, ästhetisch ausgerichtete Gartenschauen, die breit gefächerten Revierparks der 1970er Jahre und neue Parktypen im Emscher Landschaftspark. 1920 wird der Siedlungsverband Ruhrkohlenbezirk gegründet, der mit den Verbandsgrünflächen ein eigenes Instrument zum Freiraumschutz und die Kompetenz zur Fluchtlinien- bzw. Bebauungsplanung erhielt. Inzwischen darf der Verband, vor einigen Jahren in den Regionalverband Ruhr umgewandelt, zu kommunalen Planungen nur noch Stellungnahmen abgeben. Schon früh versuchte der Verband, industrielles Ödland zu begrünen. Nach den Bahndammbegrünungen vor dem Zweiten Weltkrieg hat er seit den 1950er Jahren Halden aufgeforstet, bis in den 1990er Jahren der Aufbau des Emscher Landschaftsparks begann. Zechen- und Industriebrachen werden in neue Parks, Halden und Mülldeponien in Landmarken und Freizeitlandschaften verwandelt. Zu fragen ist, was aus diesen Geschichten für die Freiraumpolitik folgt. Zwei gegensätzliche Thesen werden diskutiert: die Tragedy of the Commons, die im Gemeineigentum die Ursache ökologischer Probleme sieht, während der Common-Property-Ansatz gerade in gemeinschaftlichen Nutzungen einen Ansatz für Problemlösungen sieht. Dabei liegt eine Besonderheit von Freiräumen in ihrem hohen Öffentlichkeitsgrad, d.h. dass sie von vielen Menschen genutzt werden und gleichzeitig mehrere, z.B. produktive, ökologische, politische oder berufliche Funktionen erfüllen. Untersucht wird, inwieweit erfolgreich gesicherte Freiflächen Merkmale von stabilen Common-Property-Institutionen tragen, d.h. welche Funktionen die Freiräume erfüllen, wie ihre Nutzung geregelt ist und vor allem welchen Einfluss die Nutzer auf Entscheidungen haben. Thesenhaft lässt sich zusammenfassen, dass ein Teil der Freiräume sein Wachstum einer derzeit unverzichtbaren Funktion verdankt, nämlich der Camouflage von Müll und Altlasten, die eine bauliche Nutzung ausschließen. Andere Freiräume verdanken ihren Bestand ihren vielfältigen Nutzungen, zur Erholung, durch Denkmäler, für Veranstaltungen, aber auch der Wertsteigerung für umliegende Wohngebiete. Ein kleiner Teil der Freiräume hat tatsächlich einen Common-Property-Charakter: Kleingartenanlagen, die von bürgerschaftlichen Gruppen gegründeten Parks sowie die Flächen, die durch Bürgerinitiativen o.ä. gegen eine bauliche Umnutzung verteidigt werden. Grund genug, um die Idee eines Netzwerks von Parkvereinen aufzugreifen, die sich von bürgerschaftlicher Seite aus für Freiräume einsetzen können.
Resumo:
Auch wenn die Dimension Raum in den Sozialwissenschaften zunehmend an Bedeutung gewinnt, ist es überraschend, dass es nur wenige aktuelle Studien gibt, die sich mit regionaler Bildungsungleichheit beschäftigen. Wie ein Blick auf den Forschungsstand zeigt, gibt es keinen Grund anzunehmen, dass die in den 1960er Jahren festgestellte Bildungsbenachteiligung der Kinder auf dem Land im Vergleich zu den Stadtkindern heute ganz verschwunden ist. Vor dem Hintergrund der sinkenden Schülerzahlen um 18 % bis 2020 (KMK 2007) und den daraus folgenden Schulschließungen (Weißhaupt 2006), ist es dringend regionale Bildungsungleichheit wieder zu thematisieren. Die vorliegende Arbeit greift dieses Thema auf. Sie geht der Frage nach, inwieweit regionale Strukturen bei Bildungsentscheidungen eine Rolle spielen und ob es sich dabei um einen Effekt handelt, der mit der sozialen Herkunft eines Kindes im Zusammenhang steht. Für einen Erklärungsansatz werden drei Konzepte in der theoretischen Argumentation verknüpft: der relationale Raum von Löw (2001), das Model zur Erklärung schichtspezifischer Bildungsentscheidungen von Erikson und Jonsson (1996) sowie die Idee der Aneignung von Raumprofiten von Bourdieu (1991). Zunächst wird argumentiert, dass regionale Strukturen als Restriktionen und Optionen generell einen Handlungsrahmen für Entscheidungen bilden. Im Falle von Bildungsentscheidungen wird der Handlungsrahmen durch regionale Opportunitätsstrukturen determiniert, die sich als Kosten und Erträge von Bildungsalternativen beschreiben lassen. Geht man des Weiteren davon aus, dass Handlungsrahmen mit entsprechenden Kapitalien erweitert werden können, ist es nahliegend anzunehmen, dass regionale Strukturen in ihrer Bedeutsamkeit an die Kapitalausstattung gekoppelt sind. Folglich kommt es zu schichtspezifischen Reaktionen auf regionale Strukturen. Es ergibt sich die These, dass regionale Strukturen für Familien in privilegierten sozialen Schichten bei weitem weniger bedeutsam für Bildungsentscheidungen sind, als für Familien in weniger privilegierten sozialen Schichten. Für diese Familien ist zu erwarten, dass regionale Strukturen, welche die Kosten einer weiterführenden Bildungsalternative senken und regionale Strukturen, die den Ertrag einer Bildungsalternative steigern, zu Determinanten der Bildungsentscheidung werden. Die Daten des Sozio-Oekonomischen Panels (SOEP) werden verwendet, um den entwickelten Hypothesen empirisch nachzugehen. Zu diesen Individualdaten werden regionale Indikatoren aus der Regionaldatenbank des DJI, dem Betriebs-Historik-Panel (BHPS; FDZ/BA) und Indikatoren aus INKAR (BBR) zugespielt. Im Fokus der Fragestellung steht die Wahl des Gymnasiums. Ihr Zusammenhang mit dem regionalen Angebot an Gymnasien sowie regionalen Arbeitsmarktstrukturen, wie der Arbeitslosenquote sowie dem Anteil der hoch qualifiziert Beschäftigten in einer Region, wird untersucht. Mit Hilfe von mehrebenenanalytischen logistischen Regressionen lässt sich zeigen, dass das regionale Schulangebot auch heute noch mit Bildungschancen in Zusammenhang steht: Je höher der Anteil der Gymnasien in der Region, desto wahrscheinlicher ist es die Hochschulreife zu erlangen. Es zeigt sich aber auch, dass regionale Arbeitsmarktstrukturen keine signifikante Bedeutung für Bildungsentscheidungen an diesem Übergang haben. Besonders interessant ist weiter der Befund, dass regionale und soziale Herkunft in Interaktion stehen und insbesondere jene Kinder von einem vorteilhaften Bildungsangebot zu profitieren scheinen, die sich durch ihre Bildungsherkunft in einer bereits vorteilhaften Position hinsichtlich ihrer Bildungschancen befinden.
Resumo:
Das vorliegende Dokument ist in einem Gemeinschaftsprojekt der Universität Kassel und der Elisabeth-Knipping-Schule Kassel entstanden. Im Rahmen der fachbezogenen schulpraktischen Stu-dien für das Fach Mathematik ist eine Unterrichtsreihe zur Beschreibenden Statistik mit Softwareein-satz für die Fachoberschule Klasse 11 entwickelt und umgesetzt worden. Dieses Dokument fasst Ideen, Materialien und didaktische Kommentare der durchgeführten Unterrichtsreihe in aufbereiteter Form zusammen. Viele der konzeptionellen Ansätze und Unterrichtsideen beruhen auf Vorarbeiten der Kassel-Paderborner Arbeitsgruppe „Interaktive Stochastik mit FATHOM“ von Prof. Dr. Rolf Biehler, Fakultät EIM, Universität Paderborn (bis 28.02.2009 Universität Kassel). Der Fokus dieser Arbeit liegt darin, Schülern der Fachoberschule die Erfahrung eines komplet-ten statistischen Untersuchungsprozesses mit Softwareeinsatz zu ermöglichen. Die Werkzeugsoftware FATHOM wurde 2006 ins Deutsche adaptiert. Seit 2008 ist eine multimediale Lernumgebung für diese Software verfügbar, die durch Tobias Hofmann, Mitglied der Arbeitsgruppe, entwickelt wurde. Im Vorfeld der Unterrichtsreihe erheben die Schüler Daten durch eine Online-Umfrage, für deren Inhalte sie mit verantwortlich sind. Zu Beginn der Unterrichtsreihe erwerben die Schüler über sechs Doppelstunden hinweg grundlegende Kenntnisse in der Datenanalyse mit der Werkzeugsoftware FATHOM anhand von Beispieldatensätzen. Dabei geht der Erwerb händischer Kompetenzen in der Datenanalyse einher mit dem Erlernen der Datendarstellung und Datenauswertung mit FATHOM. In der sich anschließenden Projektphase analysieren die Schüler in Gruppenarbeit die von ihnen erhobenen Daten. Sie lernen selbstständig Fragen zu formulieren und entsprechende Hypothesen aufzustellen sowie erhobene Daten sinnvoll darzustellen und geeignet auszuwerten. Aufgrund ihrer Analyse sollten Schüler in der Lage sein, eigenständig Antworten auf ihre eingangs gestellten Fragen und Hypothesen zu formulieren. Für das Vorstellen ihrer Datenanalyse erstellen die Schüler eine Präsentation mit einer dafür geeigneten Software. Sie lernen dabei auch das Kommunizieren und Argumentieren vor der eigenen Lerngruppe. Für jede Unterrichtseinheit in dieser Unterrichtsreihe gibt es einen Steckbrief, der den Inhalt des Unterrichts und die verfügbaren Materialien in Stichworten enthält. Desweiteren wird in jede Un-terrichtseinheit durch einen Didaktischen Kommentar eingeführt, der die grundlegende didaktische Idee charakterisiert und einen möglichen Ablauf der jeweiligen Unterrichtseinheit skizziert. Alle Mate-rialien, wie Arbeitsblätter, Folien, Übungen, Lösungen, Datensätze, Präsentationen, Projekte, Tests und Klausuren, sind im Ordner Materialien verfügbar.
Resumo:
Die vorliegende Arbeit entstand während meiner Zeit als wissenschaftlicher Mitarbeiter im Fachgebiet Technische Informatik an der Universität Kassel. Im Rahmen dieser Arbeit werden der Entwurf und die Implementierung eines Cluster-basierten verteilten Szenengraphen gezeigt. Bei der Implementierung des verteilten Szenengraphen wurde von der Entwicklung eines eigenen Szenengraphen abgesehen. Stattdessen wurde ein bereits vorhandener Szenengraph namens OpenSceneGraph als Basis für die Entwicklung des verteilten Szenengraphen verwendet. Im Rahmen dieser Arbeit wurde eine Clusterunterstützung in den vorliegenden OpenSceneGraph integriert. Bei der Erweiterung des OpenSceneGraphs wurde besonders darauf geachtet den vorliegenden Szenengraphen möglichst nicht zu verändern. Zusätzlich wurde nach Möglichkeit auf die Verwendung und Integration externer Clusterbasierten Softwarepakete verzichtet. Für die Verteilung des OpenSceneGraphs wurde auf Basis von Sockets eine eigene Kommunikationsschicht entwickelt und in den OpenSceneGraph integriert. Diese Kommunikationsschicht wurde verwendet um Sort-First- und Sort-Last-basierte Visualisierung dem OpenSceneGraph zur Verfügung zu stellen. Durch die Erweiterung des OpenScenGraphs um die Cluster-Unterstützung wurde eine Ansteuerung beliebiger Projektionssysteme wie z.B. einer CAVE ermöglicht. Für die Ansteuerung einer CAVE wurden mittels VRPN diverse Eingabegeräte sowie das Tracking in den OpenSceneGraph integriert. Durch die Anbindung der Geräte über VRPN können diese Eingabegeräte auch bei den anderen Cluster-Betriebsarten wie z.B. einer segmentierten Anzeige verwendet werden. Die Verteilung der Daten auf den Cluster wurde von dem Kern des OpenSceneGraphs separat gehalten. Damit kann eine beliebige OpenSceneGraph-basierte Anwendung jederzeit und ohne aufwendige Modifikationen auf einem Cluster ausgeführt werden. Dadurch ist der Anwender in seiner Applikationsentwicklung nicht behindert worden und muss nicht zwischen Cluster-basierten und Standalone-Anwendungen unterscheiden.
Resumo:
Diese Arbeit behandelt die numerische Simulation von Rührbehältern und Flotationszellen mit Hilfe kommerzieller Software basierend auf einer Finite-Volumen-Methode. Ziel der Untersuchungen ist es, ein Verfahren zu entwickeln, das eine Beurteilung der Anlagen in Abhängigkeit verschiedener geometrischer und strömungsmechanischer Parameter ermöglicht und so unterstützend zur Prozessauslegung beiträgt. An zwei einfachen Geometrien (Strömungsrohr, Scheibenrührer) werden grundsätzliche Parameter und Fragestellungen erläutert, welche für die Simulation von Bedeutung sind und der Verifzierung des eingesetzten Programmpakets dienen. Die Betrachtung industriell eingesetzter Flotationsmaschinen erfolgt beispielhaft an zwei Anlagen mit unterschiedlichen Rotor-Stator-Systemen. Eine Modellzelle im Labormaßstab dient zur Berechnung der Verweilzeitverteilung und zur Charakterisierung wichtiger Einflussgrößen (Drehzahl, Volumenstrom, Durchströmungskonfiguration, Partikelmasse, Randbedingung). Die numerisch gewonnenen Ergebnisse werden dabei erfolgreich mit Experimenten validiert. Ein Flotationssegment in Originalgröße liefert weitere Ergebnisse zur Hydrodynamik. Die Berechnung wird stationär und transient vorgenommen, um die Bedeutung der Zeitabhängigkeit bewerten zu können. Damit ist ferner eine Aussage zum Einlaufverhalten der Strömung möglich, indem das Drehmoment am Rührer als Funktion der Zeit ausgewertet wird. Eine Bewertung erfolgt über die Bestimmung der Verweilzeitverteilung in Abhängigkeit verschiedener Strömungskonfigurationen.
Resumo:
Lipid Droplets dienen zur Speicherung von Neutrallipiden wie z. B. Triglyceriden und Sterolestern. Im ersten Teil der vorliegenden Arbeit wurde die Bildung dieser zellulären Fettspeicher in D. discoideum untersucht. Es konnte herausgefunden werden, dass Lipid Droplets entstehen, wenn die Zellen entweder in einer Suspension von Bakterien oder in Gegenwart von Palmitinsäure kultiviert werden. Die Bildung der Lipidtröpfchen wird dabei von einem schnelleren Zellwachstum, einem Anstieg des Triglyceridgehalts, einer Reduktion der Phagozytoserate und einer Abnahme des Zellvolumens begleitet. Wurde die Lipid Droplet-Bildung durch Kultivierung der Zellen mit Palmitinsäure angeregt, entsteht neben Triglyceriden noch eine weitere Verbindung, bei der es sich entweder um Fettsäureethylester oder Wachsester handelt. Eine weitere Eigenschaft von Zellen, die in Gegenwart der Palmitinsäure inkubiert wurden, ist die Fähigkeit exogene Fettsäuren schneller aufzunehmen, als normal kultivierte Zellen. Aus der vorliegenden Arbeit wurde gefolgert, dass dies durch eine zusätzliche Aufnahme der Fettsäuren über die Plasmamembran hervorgerufen wird. In Zellen, die ohne Fettsäuren inkubiert wurden, findet hingegen der Fettsäureimport über die Endosomen statt. Ein Protein, das nicht direkt am Prozess der Fettsäureaufnahme beteiligt ist, aber importierte Fettsäuren mit CoA aktiviert, ist die LC-FACS1. Aus Versuchen mit der Knockout-Mutante ging hervor, dass die aktivierten Fettsäuren, in Zellen, die zuvor mit Palmitinsäure oder Bakterien inkubiert wurden, in Triglyceride eingebaut werden. Der reduzierte Triglyceridgehalt im Knockout rief eine Erhöhung der Phagozytoserate hervor. Im zweiten Teil dieser Arbeit wurden die Lipidtröpfchen mit einem Saccharosegradienten aufgereinigt. Mit Hilfe der Massenspektrometrie konnten 281 Proteine in der Lipid Droplet-Fraktion identifiziert werden. Ein Teil dieser Proteine könnte durch die Interaktion der Lipidtröpfchen mit anderen Organellen in die Lipid Droplet-Fraktion gelangt sein und ist ebenso wenig Teil des Lipid Droplet-Proteoms wie die zytoplasmatischen Proteine, die eine Verunreinigung darstellen. Vier der zehn Proteine aus der Lipid Droplet-Fraktion, die in der vorliegenden Arbeit untersucht wurden, konnten nach Kultivierung in palmitinsäurehaltigem Medium tatsächlich auf der Oberfläche der Lipidtröpfchen beobachtet werden. Eines dieser Proteine ist LSD1. Es stellt das einzige PAT-Protein in D. discoideum dar und gehört der Kategorie der CPATs an. Analog zu Perilipin/PLIN1 und Adipophilin/PLIN2 könnte LSD1 eine Schutzfunktion der Lipid Droplets vor zytoplasmatischen Lipasen haben. Neben DdLSD1 konnten auch die Proteine ADH und ALI auf den Lipidtröpfchen lokalisiert werden. Bei beiden handelt es sich um 17beta-Hydroxysteroid-Dehydrogenasen - Proteine, die eine Funktion im Lipid- oder Fettsäuremetabolismus besitzen können. Das Protein SMT katalysiert die C24-Methylierung des Sterolgerüsts in D. discoideum und war nach Inkubation der Zellen mit exogenen Fettsäuren ebenfalls auf den Lipid Droplets zu beobachten.
Resumo:
Die Inhalte der Arbeit befassen sich nach dem immanenten Erkenntnisinteresse mit dem Zusammenhang zwischen menschlichen Konflikten, Krisen und Krankheiten einerseits sowie mentalen Zuständen und Befindlichkeiten andererseits. Um die Voraussetzungen für ein umfassendes Verständnis der komplexen Materie herauszustellen, werden folgende Theorien und Erkenntnisse untersucht und diskutiert: Der Themenschwerpunkt Soziale Therapie gibt Einblick in die Entwicklung und den Stand der psychosozialen Beratung, es folgt die Darstellung und Auseinandersetzung mit innovativen Aspekten der Gesundheitswissenschaften, aufgezeigt an den Paradigmen Resilienz, Salutogenese und Bindungsforschung. Exemplarisch werden die Neurobiologie des Gehirns und des Nervensystems, die Epigenetik (Zellbiologie) und ihre Bedeutung für Entwicklungs- und Lebensprozesse betrachtet und auf Anwendungsmöglichkeiten hin diskutiert. In die Schlussfolgerungen zur Anwendung werden Neuropsychotherapie, Hypnose, Energetische Psychotherapie und Neurozeption einbezogen. Beispiel für eine nicht evidenzbasierte ganzheitliche Arbeit mit veränderten Bewusstseinszuständen ist die Auseinandersetzung mit dem peruanischen Schamanismus. In der abschließenden Zusammenfassung zeigt sich, dass die Erarbeitung und die Auseinandersetzung dem Verfasser ein tieferes Verständnis seiner eigenen Arbeit als Berater und Therapeut eingebracht hat.