29 resultados para Schule im alpinen Raum
Resumo:
The article explores the developments in German-language anthropology in the past decades, focussing on the period after the 1970s. It argues that the recent history of German-language Ethnologie (social and cultural anthropology) is one of catching-up modernization. German-speaking anthropologists are increasingly involved in, and contribute to, broader theoretical debates, publish in English and in international journals, and are actively engaged in international academic networks. The paper discusses how and under what conditions of knowledge production these transformations have taken place. It analyses the changing institutional environment in which German anthropologists have worked and work today, as well as the theoretical impulses from within and outside the discipline that have given rise to the contemporary orientation of German-language anthropology as an anthropology of the 'present'. Finally, and beyond the focus on Germany, the article offers some ideas on the future of anthropology as a symmetrical social science, characterized by a continued strong reliance on field work and a high level of 'worldliness', a basic attitude of systematically shifting perspectives, the critical reflection of the social and political embeddedness of knowledge production, and an engagement with social theory across disciplinary boundaries.
Resumo:
In vielen Industriezweigen, zum Beispiel in der Automobilindustrie, werden Digitale Versuchsmodelle (Digital MockUps) eingesetzt, um die Konstruktion und die Funktion eines Produkts am virtuellen Prototypen zu überprüfen. Ein Anwendungsfall ist dabei die Überprüfung von Sicherheitsabständen einzelner Bauteile, die sogenannte Abstandsanalyse. Ingenieure ermitteln dabei für bestimmte Bauteile, ob diese in ihrer Ruhelage sowie während einer Bewegung einen vorgegeben Sicherheitsabstand zu den umgebenden Bauteilen einhalten. Unterschreiten Bauteile den Sicherheitsabstand, so muss deren Form oder Lage verändert werden. Dazu ist es wichtig, die Bereiche der Bauteile, welche den Sicherhabstand verletzen, genau zu kennen. rnrnIn dieser Arbeit präsentieren wir eine Lösung zur Echtzeitberechnung aller den Sicherheitsabstand unterschreitenden Bereiche zwischen zwei geometrischen Objekten. Die Objekte sind dabei jeweils als Menge von Primitiven (z.B. Dreiecken) gegeben. Für jeden Zeitpunkt, in dem eine Transformation auf eines der Objekte angewendet wird, berechnen wir die Menge aller den Sicherheitsabstand unterschreitenden Primitive und bezeichnen diese als die Menge aller toleranzverletzenden Primitive. Wir präsentieren in dieser Arbeit eine ganzheitliche Lösung, welche sich in die folgenden drei großen Themengebiete unterteilen lässt.rnrnIm ersten Teil dieser Arbeit untersuchen wir Algorithmen, die für zwei Dreiecke überprüfen, ob diese toleranzverletzend sind. Hierfür präsentieren wir verschiedene Ansätze für Dreiecks-Dreiecks Toleranztests und zeigen, dass spezielle Toleranztests deutlich performanter sind als bisher verwendete Abstandsberechnungen. Im Fokus unserer Arbeit steht dabei die Entwicklung eines neuartigen Toleranztests, welcher im Dualraum arbeitet. In all unseren Benchmarks zur Berechnung aller toleranzverletzenden Primitive beweist sich unser Ansatz im dualen Raum immer als der Performanteste.rnrnDer zweite Teil dieser Arbeit befasst sich mit Datenstrukturen und Algorithmen zur Echtzeitberechnung aller toleranzverletzenden Primitive zwischen zwei geometrischen Objekten. Wir entwickeln eine kombinierte Datenstruktur, die sich aus einer flachen hierarchischen Datenstruktur und mehreren Uniform Grids zusammensetzt. Um effiziente Laufzeiten zu gewährleisten ist es vor allem wichtig, den geforderten Sicherheitsabstand sinnvoll im Design der Datenstrukturen und der Anfragealgorithmen zu beachten. Wir präsentieren hierzu Lösungen, die die Menge der zu testenden Paare von Primitiven schnell bestimmen. Darüber hinaus entwickeln wir Strategien, wie Primitive als toleranzverletzend erkannt werden können, ohne einen aufwändigen Primitiv-Primitiv Toleranztest zu berechnen. In unseren Benchmarks zeigen wir, dass wir mit unseren Lösungen in der Lage sind, in Echtzeit alle toleranzverletzenden Primitive zwischen zwei komplexen geometrischen Objekten, bestehend aus jeweils vielen hunderttausend Primitiven, zu berechnen. rnrnIm dritten Teil präsentieren wir eine neuartige, speicheroptimierte Datenstruktur zur Verwaltung der Zellinhalte der zuvor verwendeten Uniform Grids. Wir bezeichnen diese Datenstruktur als Shrubs. Bisherige Ansätze zur Speicheroptimierung von Uniform Grids beziehen sich vor allem auf Hashing Methoden. Diese reduzieren aber nicht den Speicherverbrauch der Zellinhalte. In unserem Anwendungsfall haben benachbarte Zellen oft ähnliche Inhalte. Unser Ansatz ist in der Lage, den Speicherbedarf der Zellinhalte eines Uniform Grids, basierend auf den redundanten Zellinhalten, verlustlos auf ein fünftel der bisherigen Größe zu komprimieren und zur Laufzeit zu dekomprimieren.rnrnAbschießend zeigen wir, wie unsere Lösung zur Berechnung aller toleranzverletzenden Primitive Anwendung in der Praxis finden kann. Neben der reinen Abstandsanalyse zeigen wir Anwendungen für verschiedene Problemstellungen der Pfadplanung.
Resumo:
Analyzing and modeling relationships between the structure of chemical compounds, their physico-chemical properties, and biological or toxic effects in chemical datasets is a challenging task for scientific researchers in the field of cheminformatics. Therefore, (Q)SAR model validation is essential to ensure future model predictivity on unseen compounds. Proper validation is also one of the requirements of regulatory authorities in order to approve its use in real-world scenarios as an alternative testing method. However, at the same time, the question of how to validate a (Q)SAR model is still under discussion. In this work, we empirically compare a k-fold cross-validation with external test set validation. The introduced workflow allows to apply the built and validated models to large amounts of unseen data, and to compare the performance of the different validation approaches. Our experimental results indicate that cross-validation produces (Q)SAR models with higher predictivity than external test set validation and reduces the variance of the results. Statistical validation is important to evaluate the performance of (Q)SAR models, but does not support the user in better understanding the properties of the model or the underlying correlations. We present the 3D molecular viewer CheS-Mapper (Chemical Space Mapper) that arranges compounds in 3D space, such that their spatial proximity reflects their similarity. The user can indirectly determine similarity, by selecting which features to employ in the process. The tool can use and calculate different kinds of features, like structural fragments as well as quantitative chemical descriptors. Comprehensive functionalities including clustering, alignment of compounds according to their 3D structure, and feature highlighting aid the chemist to better understand patterns and regularities and relate the observations to established scientific knowledge. Even though visualization tools for analyzing (Q)SAR information in small molecule datasets exist, integrated visualization methods that allows for the investigation of model validation results are still lacking. We propose visual validation, as an approach for the graphical inspection of (Q)SAR model validation results. New functionalities in CheS-Mapper 2.0 facilitate the analysis of (Q)SAR information and allow the visual validation of (Q)SAR models. The tool enables the comparison of model predictions to the actual activity in feature space. Our approach reveals if the endpoint is modeled too specific or too generic and highlights common properties of misclassified compounds. Moreover, the researcher can use CheS-Mapper to inspect how the (Q)SAR model predicts activity cliffs. The CheS-Mapper software is freely available at http://ches-mapper.org.
Resumo:
Ziel der vorliegenden Dissertation war es, Einblicke in das Kristallisationsverhalten weicher Materie („soft matter“), wie verschiedener Polymere oder Wasser, unter räumlicher Einschränkung („confinement“) zu erlangen. Dabei sollte untersucht werden, wie, weshalb und wann die Kristallisation in nanoporösen Strukturen eintritt. Desweiteren ist Kristallisation weicher Materie in nanoporösen Strukturen nicht nur aus Aspekten der Grundlagenforschung von großem Interesse, sondern es ergeben sich zahlreiche praktische Anwendungen. Durch die gezielte Steuerung der Kristallinität von Polymeren könnten somit Materialien mit verschiendenen mechanischen und optischen Eigenschaften erhalten werden. Desweiteren wurde auch räumlich eingeschränktes Wasser untersucht. Dieses spielt eine wichtige Rolle in der Molekularbiologie, z.B. für das globuläre Protein, und als Wolkenkondensationskeime in der Atmosphärenchemie und Physik. Auch im interstellaren Raum ist eingeschränktes Wasser in Form von Eispartikeln anzutreffen. Die Kristallisation von eingeschränktem Wasser zu verstehen und zu beeinflussen ist letztlich auch für die Haltbarkeit von Baumaterialien wie etwa Zement von großem Interesse.rnUm dies zu untersuchen wird Wasser in der Regel stark abgekühlt und das Kristallisationsverhalten in Abhängigkeit des Volumens untersucht. Dabei wurde beobachtet, dass Mikro- bzw. Nanometer große Volumina erst ab -38 °C bzw. -70 °C kristallisieren. Wasser unterliegt dabei in der Regel dem Prozess der homogenen Nukleation. In der Regel gefriert Wasser aber bei höheren Temperaturen, da durch Verunreinigungen eine vorzeitige, heterogene Nukleation eintritt.rnDie vorliegende Arbeit untersucht die sachdienlichen Phasendiagramme von kristallisierbaren Polymeren und Wasser unter räumlich eingeschränkten Bedingungen. Selbst ausgerichtetes Aluminiumoxid (AAO) mit Porengrößen im Bereich von 25 bis 400 nm wurden als räumliche Einschränkung sowohl für Polymere als auch für Wasser gewählt. Die AAO Nanoporen sind zylindrisch und parallel ausgerichtet. Außerdem besitzen sie eine gleichmäßige Porenlänge und einen gleichmäßigen Durchmesser. Daher eignen sie sich als Modelsystem um Kristallisationsprozesse unter wohldefinierter räumlicher Einschränkung zu untersuchen.rnEs wurden verschiedene halbkristalline Polymere verwendet, darunter Poly(ethylenoxid), Poly(ɛ-Caprolacton) und Diblockcopolymere aus PEO-b-PCL. Der Einfluss der Porengröße auf die Nukleation wurde aus verschiedenen Gesichtspunkten untersucht: (i) Einfluss auf den Nukleationmechanismus (heterogene gegenüber homogener Nukleation), (ii) Kristallorientierung und Kristallinitätsgrad und (iii) Zusammenhang zwischen Kristallisationstemperatur bei homogener Kristallisation und Glasübergangstemperatur.rnEs konnte gezeigt werden, dass die Kristallisation von Polymeren in Bulk durch heterogene Nukleation induziert wird und das die Kristallisation in kleinen Poren hauptsächlich über homogene Nukleation mit reduzierter und einstellbarer Kristallinität verläuft und eine hohe Kristallorientierung aufweist. Durch die AAOs konnte außerdem die kritische Keimgröße für die Kristallisation der Polymere abgeschätzt werden. Schließlich wurde der Einfluss der Polydispersität, von Oligomeren und anderen Zusatzstoffen auf den Nukleationsmechanismus untersucht.rn4rnDie Nukleation von Eis wurde in den selben AAOs untersucht und ein direkter Zusammenhang zwischen dem Nukleationstyp (heterogen bzw. homogen) und der gebildeten Eisphase konnte beobachtet werden. In größeren Poren verlief die Nukleation heterogen, wohingegen sie in kleineren Poren homogen verlief. Außerdem wurde eine Phasenumwandlung des Eises beobachtet. In den größeren Poren wurde hexagonales Eis nachgewiesen und unter einer Porengröße von 35 nm trat hauptsächlich kubisches Eis auf. Nennenswerter Weise handelte es sich bei dem kubischem Eis nicht um eine metastabile sondern eine stabile Phase. Abschließend wird ein Phasendiagramm für räumlich eingeschränktes Wasser vorgeschlagen. Dieses Phasendiagramm kann für technische Anwendungen von Bedeutung sein, so z.B. für Baumaterial wie Zement. Als weiteres Beispiel könnten AAOs, die die heterogene Nukleation unterdrücken (Porendurchmesser ≤ 35 nm) als Filter für Reinstwasser zum Einsatz kommen.rnNun zur Anfangs gestellten Frage: Wie unterschiedlich sind Wasser und Polymerkristallisation voneinander unter räumlicher Einschränkung? Durch Vergleich der beiden Phasendiagramme kommen wir zu dem Schluss, dass beide nicht fundamental verschieden sind. Dies ist zunächst verwunderlich, da Wasser ein kleines Molekül ist und wesentlich kleiner als die kleinste Porengröße ist. Wasser verfügt allerdings über starke Wasserstoffbrückenbindungen und verhält sich daher wie ein Polymer. Daher auch der Name „Polywasser“.
Resumo:
Die vorliegende Dissertation untersucht die Darstellung von außerirdischen Lebensformen im amerikanischen Sciencefiction-Film in Form eines filmhistorischen Gesamtüberblicks.Noch bevor der 1. Weltkrieg begann, waren die meisten Genremerkmale, die den Sciencefiction-Film bis heute charakterisieren, bereits erdacht. Die wenigen Sciencefiction-Filme, die Außerirdische zeigten, fügten sich jedoch sehr gut in den verspielten, märchenhaften Sciencefiction-Film der Vorkriegszeit. Bis sich das Topos des Außerirdischen als eigenes Subgenre etablieren konnte, sollten aber noch einige Jahrzehnte vergehen. Im Jahr 1950 nahm das Interesse am Weltraum schlagartig zu. Bei der Darstellung der fremden Wesen orientierte man sich zunächst an irdischen Vorbildern und es entstanden zahlreiche humanoide, tierische, pflanzliche, mineralische und amorphe außerirdische Lebensformen, die dem Menschen oft überlegen waren. In den 60ern brach der Mensch häufiger selbst in den Weltraum auf - immer öfter standen Menschen und Außerirdische nun auf gleicher Stufe. In den 70ern wurden die märchencharakteristischen Begriffe Gut und Böse durch Außerirdische verkörpert. In den 80ern gelang es dem Guten, sich durchzusetzen. Einige wunderbare Freundschaften zwischen Menschen und Außerirdischen entwickelten sich und Außerirdische wurden in die menschliche Gesellschaft integriert. Damit scheinen aber alle Spielarten des Guten gezeigt zu sein und in den 90ern ist wieder Raum für Geschichten, in denen Außerirdische das Böse verkörpern.
Resumo:
Basierend auf schriftlichen Quellen, hauptsächlich von 1881-1980 (ohne 1941-50), werden die raum-zeitlichen Eigenschaften von Gewittern mit Schäden im südlichen hessischen Berg- und Beckenland und im Rhein-Main-Tiefland (= UG) herausgestellt. Nach Auswertung des Materials in einer Datenbank erfolgt die Intensitätskategorisierung der Schadensvorgänge für gewitterbedingte Starkregen erstmals anhand der Ähnlichkeitsmerkmale von Folgeerscheinungen, für Blitzschlag erstmals nach Schadensaspekten sowie für Hagelschlag und Sturm mittels existierender und modifizierter Klassifizierungen. Diese Kategorisierungen können für alle Beschreibungen von Gewitterschadensereignissen in schriftlichen Quellen angewandt werden. Die einzelnen Phänomene zeigen deutlich voneinander abweichende Eigenschaften. So treten z.B. Starkregenschäden verstärkt im Frühsommer auf, Sturmschäden überwiegend erst im Hoch- und Spätsommer. Generell lassen sich zwei Jahresmaxima in der Gewitterschadenstätigkeit nachweisen (erste Junidekade, zweite Julihälfte). Schwergewitter mit Sturm (auch Hagel) aus SW-W verursachen überwiegend Schäden im südlichen und westlichen UG, aus W-N meist im nördlichen und östlichen UG. Gewitter mit Starkregenschäden dominieren im östlichen UG. Nach der hier vorgestellten Methode der Schadensschwerpunkte können für Schwergewitter aus dem westlichen Sektor (SW-W, W-N) Schwerpunktzugbahnen im UG gedeutet werden. Es wird die Möglichkeit aufgezeigt, die Schadensdatenauswertung auf historische Szenarien zu übertragen. Für Interpretation und Rekonstruktion dieser für die Belange der Historischen Klimatologie wichtigen Vorgänge wird Datenmaterial aus dem zurückreichenden Zeitraum bis 1700 verwendet.
Resumo:
Die Großherzog Wilhelm Ernst Ausgabe deutscher Klassiker wurde seit 1904 bis in die Zwanziger Jahre hinein im Insel Verlag in Leipzig publiziert. Die Buchreihe hat nicht nur für den Verlag und die Druckerei Poeschel in der sie gedruckt wurde eine ganze Reihe von Neuerungen nach sich gezogen, auch für den deutschen Buchmarkt hat die Klassikerausgabe einen Meilenstein bedeutet. Sie hat einige Eigenschaften des Taschenbuches vorweggenommen. Sie orientierte sich an der Qualität bibliophiler Buchpublikationen, aber war dennoch preislich erschwinglich. Zeitgenössische Klassikerausgaben erschienen zumeist mit einem Kommentar. Nicht so die Großherzog Wilhelm Ernst Ausgabe. Der Text wurde zwar von führenden Wissenschaftlern editiert, aber sie war dennoch unkommentiert. Der Text war in einer Jenson-Antiqua gesetzt obwohl die Debatte um individuell gestaltete Künstlerschriften und die Diskussion um die als deutsche Schrift begriffene Fraktur unter den wichtigsten Protagonisten des deutschen Buchgewerbes ihren Höhepunkt noch nicht erreicht hatte. Ziel für die Klassikerausgabe war darüber hinaus, das zur Jahrhundertwende leicht angestaubte Image der Stadt Weimar aufzupolieren. Über das Patronat des Großherzogs hinaus hätte man die Gewinne aus dem Verkauf der Bücher der Permanenten Ausstellung für die Anschaffung von modernen Kunstobjekten zur Verfügung stellen wollen, die unter der Leitung von Harry Graf Kessler stand. Sieht man den Inhalt der Werke der in der Klassikerreihe erschienen Dichter Goethe, Schiller und Körner in einem ästhetischen Kontext mit dem der Philosophen Schopenhauer und Kant, wird im Spiegel der Formalästhetik der Klassikerausgabe Graf Kesslers Bildungs- und Kulturbegriff erkennbar, der sich in den Jahren nach der Jahrhundertwende zu seinem Lebenskunstideal verdichtete. Der zerrütteten Existenz der Zeitgenossen, wie Friedrich Nietzsche sie beschrieben hatte, sollte der Inhalt der Ausgabe in seiner modernen Form eine moderne Wertehaltung entgegensetzen. Die Lektüre der Klassiker sollte den deutschen Philister „entkrampfen“ und ihm ein Stück der verloren geglaubten Lebensfreude wieder zurück bringen, in dem dieser auch die Facetten des Lebensleids als normal hinnehmen und akzeptieren lernte. Die Klassikerausgabe repräsentierte aus diesem Grund auch den kulturellen und politischen Reformwillen und die gesellschaftlichen Vorstellungen die der Graf für ein modernes Deutschland als überfällig erachtete. Die Buchreihe war aus diesem Grund auch ein politisches Statement gegen die Beharrungskräfte im deutschen Kaiserreich. Die Klassikerreihe wurde in der buchhistorischen Forschung zwar als bedeutender Meilenstein charakterisiert und als „wichtiges“ oder gar „revolutionäres“ Werk der Zeit hervorgehoben, die Ergebnisse der Forschung kann man überspitzt aber in der Aussage zusammenfassen, dass es sich bei der Großherzog Wilhelm Ernst Ausgabe um einen „zufälligen Glückstreffer“ deutscher Buchgestaltung zu handeln scheint. Zumindest lassen die Aussagen, die bisher in dieser Hinsicht gemacht wurden, keine eindeutige Einordnung zu, außer vielleicht der, dass die Klassiker von der englischen Lebensreform inspiriert wurden und Henry van de Velde und William Morris einen Einfluss auf ihre äußere Form hatten. Gerade die Gedankenansätze dieser Beiden nutzte Graf Kessler aber für eigene Überlegungen, die ihn schließlich auch zu eigenen Vorstellungen von idealer Buchgestaltung brachten. Da für Kessler auch Gebrauchsgegenstände Kunst sein konnten, wird das Konzept der Klassikerausgabe bis zur Umsetzung in ihrer `bahnbrechenden´ Form in das ideengeschichtliche und ästhetische Denken des Grafen eingeordnet. Die Klassiker werden zwar in buchhistorischen Einzeluntersuchungen bezüglich ihrer Komponenten, dem Dünndruckpapier, ihrem Einband oder der Schrifttype exponiert. In buchwissenschaftlichen Überblicksdarstellungen wird ihr Einfluss hingegen weniger beachtet, denn verschiedene Kritiker bezogen sie seit ihrem ersten Erscheinen nicht als deutsches Kulturgut mit ein, denn sie lehnten sowohl die englischen Mitarbeiter Emery Walker, Edward Johnston, Eric Gill und Douglas Cockerell wie auch ihre Gestaltung als „welsche“ Buchausgabe ab. Richtig ist, die Großherzog Wilhelm Ernst Ausgabe hatte dieselbe Funktion wie die von Graf Kessler in Weimar konzipierten Kunstausstellungen und die dortige Kunstschule unter der Leitung seines Freundes Henry van de Velde. Auch das für Weimar geplante Theater, das unter der Leitung von Hugo von Hofmannsthal hätte stehen sollen und die Großherzog Wilhelm Ernst Schule, hätten dieselben Ideen der Moderne mit anderen Mitteln transportieren sollen, wie die Großherzog Wilhelm Ernst Ausgabe deutscher Klassiker.
Resumo:
Innerhalb der vorliegenden Untersuchung geht es um die Verknüpfung von Medienbildung, homosexueller Sozialität und der Methodik der Biografieanalyse. Ausgangsbasis ist eine sozialkonstruktivistische Sichtweise auf Geschlecht und (Homo-) Sexualität, wobei eine sozio-historische Kontextualisierung von Homosexualität unter Berücksichtigung von Diskriminierung erfolgt. Im Fokus steht der Coming-out-Prozess, der zwischen Zeigen und Verstecken changiert und mittels des Mediums Internet einen Raum findet, indem neue Bestimmungen homosexueller Identitäten und Formen homosexueller Sozialität möglich werden. Kommunikative Aspekte des Internets werden ausführlich expliziert und durch die strukturelle Medienbildungstheorie nach Marotzki (2009) ergänzt, um mögliche verbundene Bildungsprozesse zu beschreiben. Innerhalb dieser Theorie werden vier kritische Reflexionshorizonte (Wissensbezug, Handlungsbezug, Grenzbezug, Biografiebezug) entfaltet und auf die Artikulations- und Präsentationsmöglichkeiten des Internets bezogen. Deutlich wird, dass das Internet Spielräume für Identitäten bietet, denen Potenziale für reale Identitätskonstruktionen inneliegen. Fassbar werden diese Potenziale durch das medienpädagogische Konstrukt der Medienbiografie, sowie Konzepte der erziehungswissenschaftlichen Biografieforschung (Konstrukt Bildung nach Marotzki, 1990a; Konstrukt Sexualbiografie nach Scheuermann, 1999; 1995). Empirisch orientiert sich die Studie an Methodologie und Methodik der Biografieforschung, Grounded Theory (Glaser/Strauss, 1967) und dem narrationsstrukturellen Verfahren nach Schütze (1984, 1983). Konkret wird auf folgende Forschungsfragen referiert: Wie gestalten sich Lern- und Bildungsprozesse für männliche Homosexuelle in digitalen Medienwelten? Welche Möglichkeiten und Gestaltungschancen gibt es für die Repräsentation des (sexuellen) Selbst im Medium Internet? Welche Auswirkungen haben diese virtuellen Prozesse auf die real gelebte Biografie und das Selbst- und Weltverhältnis der einzelnen Homosexuellen? Durch Rekonstruktion von vier Fallbeispielen werden Möglichkeiten des Internets für die Repräsentation und Identitätsgestaltung von männlichen Homosexuellen präsentiert, bei denen die Gestaltbarkeit von Konstruktionen sexueller Identität und die Problematik der Subjekt-Umwelt-Relation deutlich werden. Im weiteren erfolgt ein kontrastierender Vergleich der Einzelfälle (Dimensionen: Familie, Peer Group, sexualbiografische Entwicklung, Medienbildungsprozesse, biografische Fallstruktur), die einer anschließenden Konstruktion von vier idealtypischen Prozessvarianten der sexualbiografischen Identitätsentwicklung zugeführt werden. Vier verschiedene Möglichkeiten des Internets als Präsentationstraum der eigenen Sexualität und Konstruktionen homosexueller Identität lassen sich somit skizzieren (Virtualitätslagerung, Zweckorientierung, reflexive Balancierung, periodische Selbstaktualisierung). Tentative Bildungs- und Identitätsprozesse sind also in der Virtualität des Internets möglich und können rekursiv-zirkulär auf reale Identitätsentwicklungen und reale Zugänge zu spezifischen sozialen Gruppen einwirken.
Resumo:
Im Rahmen der interdisziplinären Zusammenarbeit zur Durchsetzung des »Menschenrecht Gesundheit« wurde ein geomedizinisches Informationssystem erstellt, das auf die nordexponierten Bergdörfer zwischen 350 m ü. NN und 450 m ü. NN des Kabupaten Sikka auf der Insel Flores in Indonesien anwendbar ist. Es wurde eine Analyse der Zeit-Raum-Dimension der Gesundheitssituation in Wololuma und Napun Lawan - exemplarisch für die nordexponierten Bergdörfer - durchgeführt. Im Untersuchungsraum wurden Gesundheitsgefahren und Gesundheitsrisiken analysiert, Zonen der Gefahren herausgearbeitet und Risikoräume bewertet. Trotz eines El Niño-Jahres waren prinzipielle Bezüge der Krankheiten zum jahreszeitlichen Rhythmus der wechselfeuchten Tropen zu erkennen. Ausgehend von der Vermutung, dass Krankheiten mit spezifischen Klimaelementen korrelieren, wurden Zusammenhänge gesucht. Für jede Krankheit wurden Makro-, Meso- und Mikrorisikoräume ermittelt. Somit wurden Krankheitsherde lokalisiert. Die Generalisierung des geomedizinischen Informationssystems lässt sich auf der Makroebene auf die nordexponierten Bergdörfer zwischen 350 m ü. NN und 450 m ü. NN des Kabupaten Sikka übertragen. Aus einer Vielzahl von angetroffenen Krankheiten wurden sechs Krankheiten selektiert. Aufgrund der Häufigkeitszahlen ergibt sich für das Gesundheitsrisiko der Bevölkerung eine Prioritätenliste:rn- Dermatomykosen (ganzjährig)rn- Typhus (ganzjährig)rn- Infektionen der unteren Atemwege (Übergangszeit)rn- Infektionen der oberen Atemwege (Übergangszeit)rn- Malaria (Regenzeit)rn- Struma (ganzjährig)rnDie Hauptrisikogruppe der Makroebene ist die feminine Bevölkerung. Betroffen sind weibliche Kleinkinder von null bis sechs Jahren und Frauen ab 41 Jahren. Die erstellten Karten des zeitlichen und räumlichen Verbreitungsmusters der Krankheiten und des Zugangs zu Gesundheitsdienstleistungen dienen Entscheidungsträgern als Entscheidungshilfe für den Einsatz der Mittel zur Primärprävention. Die Geographie als Wissenschaft mit ihren Methoden und dem Zeit-Raum-Modell hat gezeigt, dass sie die Basis für die interdisziplinäre Forschung darstellt. Die interdisziplinäre Zusammenarbeit zur Gesundheitsforschung im Untersuchungszeitraum 2009 hat sich bewährt und muss weiter ausgebaut werden. Die vorgeschlagenen Lösungsmöglichkeiten dienen der Minimierung des Gesundheitsrisikos und der Gesundheitsvorsorge. Da die Systemzusammenhänge der Ätiologie der einzelnen Krankheiten sehr komplex sind, besteht noch immer sehr großer Forschungsbedarf. rnDas Ergebnis der vorliegenden Untersuchung zeigt, dass Wasser in jeder Form die primäre Ursache für das Gesundheitsrisiko der Bergdörfer im Kabupaten Sikka auf der Insel Flores in Indonesien ist.rnDer Zugang zu Wasser ist unerlässlich für die Verwirklichung des »Menschenrecht Gesundheit«. Das Recht auf Wasser besagt, dass jeder Mensch Zugang zu nicht gesundheitsgefährdendem, ausreichendem und bezahlbarem Wasser haben soll. Alle Staaten dieser Erde sollten sich dieser Forderung verpflichtet fühlen.rn
Resumo:
Die vorliegende Arbeit befasst sich mit den veränderten Studienbedingungen, die durch die europaweite Einführung eines einheitlichen Systems von Bachelor- und Masterstudiengängen entstanden sind. In Deutschland wurde der Bologna-Prozess von umfangreichen Protesten begleitet und in der medialen Öffentlichkeit unter anderem die zeitliche und inhaltliche Überlastung der Studierenden und die verschulten Studiengänge kritisiert, die keinen Raum für die persönliche Entwicklung ließen. rnIm Rahmen des BMBF-geförderten Projekts ZEITLast wurde die zeitliche Belastung von Studierenden untersucht. Der scheinbare Widerspruch zwischen dem objektiv messbaren Zeitaufwand und dem subjektiven Belastungsempfinden der Studierenden stellt den Ausgangspunkt der vorliegenden Arbeit dar. Es wird der Frage nachgegangen, welche Strategien Studierende im Umgang mit den neuen Bachelorstudienstrukturen entwickeln und in welchem Zusammenhang diese mit dem subjektiven Belastungsempfinden stehen. Zur Beantwortung der Fragestellung werden quantitative und qualitative Forschungsmethoden kombiniert. Neben der Auswertung von umfangreichen Zeitbudgetanalysen und Befragungen aus dem Forschungsprojekt ZEITLast werden mit ausgewählten Probanden des Studiengangs Erziehungswissenschaft an der Universität Mainz problemzentrierte Interviews geführt und objektiv hermeneutisch ausgewertet. Eine zeitliche Überlastung der Studierenden lässt sich empirisch nicht nachweisen, dennoch fühlen sich Studierende subjektiv stark belastet Es zeigt sich, dass unterschiedliche subjektive Perspektiven auf die individuelle Studienorganisation und das Belastungsempfinden der Studierenden wirken. Vor allem spielt das individuelle Zeit- und Selbstmanagement bei der erfolgreichen Bewältigung der Anforderungen im Studium eine bedeutende Rolle. Insgesamt wird deutlich, dass Vorgaben im Studium abhängig von individuellen Dispositionen sowohl als Entlastung als auch als Belastung wahrgenommen werden. Die Aufgabe der Hochschule ist es, Studiengänge so zu gestalten, dass sie den unsicheren Studierenden Orientierung und Hilfestellung bieten, während sie den selbstbestimmten Studierenden Freiräume zur individuellen Entwicklung lassen. Aus den Ergebnissen der Arbeit werden abschließend hochschuldidaktische Maßnahmen entwickelt, die zu einer Entlastung der Studierenden beitragen können.
Resumo:
Webbasierte Medien haben in den letzten Jahren eine stetig steigende Bedeutung im Alltag Jugendlicher. Konträr zu diesem Befund haben mediendidaktische Modelle kaum Eingang in die Politische Bildung, speziell die Politikdidaktik der Schule, gefunden. Zudem wird kritisch vermerkt, dass beim Einsatz digitaler Medien an klassischen lerntheoretischen Konzepten festgehalten wird, obwohl instruktionale Lehr-Lern-Settings als kontraproduktiv im Zusammenhang mit webbasierten Medien angesehen werden. Dagegen ist die in der Politikdidaktik äußerste kontrovers rezipierte konstruktivistische Lerntheorie äußerst anschlussfähig an eine Planung und Durchführung von Unterricht, welche den Fokus speziell auf den Einsatz webbasierter Medien richtet. rnAufgrund dieser Ausgangslage ist es das Erkenntnisinteresse dieser Arbeit, konstruktivistische Bedingungen des Politikunterrichts auf theoretischer Ebene zu formulieren. Dazu werden zunächst die erkenntnistheoretischen Grundlagen des Konstruktivismus anhand der zentralen Begriffe Autopoiesis, Soziale Konstruktion und Viabilität erörtert. In einem zweiten Schritt wird anhand der erkenntnistheoretischen Grundlagen gezeigt, wie eine konstruktivistische Lerntheorie formuliert werden kann. Dabei wird der Lernvorgang im Gegensatz zu den gängigen Modellen des Behaviorismus und Kognitivismus aus Schülersicht beschrieben. Im Anschluss wird der Einfluss des konstruktivistischen Paradigmas und einer konstruktivistischen Lerntheorie auf die Politikdidaktik aufgezeigt. rnAus dieser Analyse folgt, dass Schülerorientierung und Kontroversität sich als Kernprinzipien der Politischen Bildung uneingeschränkt anschlussfähig an die konstruktivistische Ausrichtung von Unterricht erweisen. Dabei wird die didaktische Rezeption und Umsetzungsproblematik dieser beiden didaktischen Prinzipien als Planungstools vor dem Hintergrund der Ziele des Politikunterrichts kritisch reflektiert. rnAus diesen lerntheoretischen Bedingungen wird abschließend analysiert, inwieweit webbasierte Medien bei der Umsetzung eines konstruktivistischen Politikunterrichts sinnvoll eingesetzt werden können. Dabei wird aufgezeigt, dass sich vor allem die in dieser Arbeit vorgestellten Medien Blog und Wiki für ein solches Vorhaben eignen. Die Analyse zeigt, dass eine enge Verzahnung von konstruktivistischer Lerntheorie und dem Einsatz webbasierter Medien im Politikunterricht möglich ist. Blogs und Wikis erweisen sich als geeignete Medien, um schülerorientierten und kontroversen Politikunterricht umzusetzen und den von Konstruktivisten geforderten grundlegenden Perspektivwechsel vorzunehmen. rn
Resumo:
Durch die massenmediale Zunahme von statischen und bewegten Bilder im Laufe des letzten Jahrhunderts vollzieht sich unsere lebensweltliche Wirklichkeitskonstruktion zu Beginn des 21. Jahrhunderts zunehmend über Visualisierungen, die mit den neuen Formen der Digitalisierung noch an Dynamik zunehmen werden. Mit diesen omnipräsenten visuell-medialen Repräsentationen werden meist räumliche Vorstellungen transportiert, denn Räume werden vor allem über Bilder konstruiert. Diese Bildräume zirkulieren dabei nicht als singuläre Bedeutungszuschreibungen, sondern sind in sprachliche und bildliche Diskurse eingebettet. Visuell-mediale Bild-Raum-Diskurse besitzen zunehmend die Fähigkeit, unser Wissen über und unsere Wahrnehmung von Räumen zu kanalisieren und auf stereotype Raumstrukturen zu reduzieren. Dabei verfestigt sich eine normative Ordnung von bestimmten machtvollen Bildräumen, die nicht genügend kritisch hinterfragt werden. Deshalb ist es für die Geographie von entscheidender Wichtigkeit, mediale Raumkonstruktio- nen, ihre Einbettung in diskursive Bildarchive und ihre essentialistische und handlungspraktische gesellschaftliche Wirkung zu verstehen.rnLandschaften können vor diesem Hintergrund als visuell-medial transportierte Bild-Raum-Diskurse konzeptionalisiert werden, deren gesellschaftliche Wirkmächtigkeit mit Hilfe einer visuell ausgerichteten Diskursanalyse hinterfragt werden sollte. Auf Grundlage einer zeichentheoretischen Ikonologie wurde eine Methodik entwickelt, die visuell ausgerichtete Schrift-Bild-Räume angemessen analysieren kann. Am Beispiel der Inszenierung des Mittelrheintals, wurde, neben einer diachronischen Strukturanalyse der diskursrelevanten Medien (Belletristik, Malerei, Postkarten, Druckgrafiken und Fotografien), eine Feinanalyse der fotografischen „Rheinlandschaften“ von August Sander der 1930er Jahre durchgeführt. Als Ergebnis zeigte sich, dass der Landschaftsdiskurs über das Mittelrheintal immer noch durch die gegenseitige Durchdringung der romantischen Literatur und Malerei in der ersten Hälfte des 19. Jahrhunderts und die historischen Fotografien in den ersten Jahrzehnten des 20. Jahrhunderts bestimmt ist, nicht zuletzt forciert durch die Ernennung zum UNESCO-Welterbe 2002. Der stark visuell ausgerichtete Landschaftsdiskurs trägt somit zum einen positiv konnotierte, romantisch-pittoreske Züge, die die Einheit von Mensch und Natur symbolisieren, zum anderen historisch-konservatorische Züge, die eine Mythifizierung zu einer gewachsenen, authentischen Kulturlandschaft evozieren.
Resumo:
Kulturlandschaften als Ausdruck einer über viele Jahrhunderte währenden intensiven Interaktion zwischen Menschen und der sie umgebenden natürlichen Umwelt, sind ein traditionelles Forschungsobjekt der Geographie. Mensch/Natur-Interaktionen führen zu Veränderungen der natürlichen Umwelt, indem Menschen Landschaften kultivieren und modifizieren. Die Mensch/Natur-Interaktionen im Weinbau sind intensiv rückgekoppelt, Veränderungen der natürlichen Umwelt wirken auf die in den Kulturlandschaften lebenden und wirtschaftenden Winzer zurück und beeinflussen deren weiteres Handeln, was wiederum Einfluss auf die Entwicklung der gesamten Weinbau-Kulturlandschaft hat. Kulturlandschaft wird aus diesem Grund als ein heterogenes Wirkungsgefüge sozialer und natürlicher Elemente konzeptionalisiert, an dessen Entwicklung soziale und natürliche Elemente gleichzeitig und wechselseitig beteiligt sind. Grundlegend für die vorliegende Arbeit ist die Überzeugung, dass sich Kulturlandschaften durch Mensch/Natur-Interaktionen permanent neu organisieren und nie in einen Gleichgewichtszustand geraten, sondern sich ständig weiterentwickeln und wandeln. Die Komplexitätstheorie bietet hierfür die geeignete theoretische Grundlage. Sie richtet ihren Fokus auf die Entwicklung und den Wandel von Systemen und sucht dabei nach den Funktionsweisen von Systemzusammenhängen, um ein Verständnis für das Gesamtsystemverhalten von nicht-linearen dynamischen Systemen zu erreichen. Auf der Grundlage der Komplexitätstheorie wird ein Untersuchungsschema entwickelt, dass es ermöglich, die sozio-ökonomischen und raum-strukturellen Veränderungsprozesse in der Kulturlandschaftsentwicklung als sich wechselseitig beeinflussenden Systemzusammenhang zu erfassen. Die Rekonstruktion von Entwicklungsphasen, die Analysen von raum-strukturellen Mustern und Akteurskonstellationen sowie die Identifikation von Bifurkationspunkten in der Systemgeschichte sind dabei von übergeordneter Bedeutung. Durch die Untersuchung sowohl der physisch-räumlichen als auch der sozio-ökonomischen Dimension der Kulturlandschaftsentwicklung im Weinbau des Oberen Mittelrheintals soll ein Beitrag für die geographische Erforschung von Mensch/Natur-Interaktionen im Schnittstellenbereich von Physischer Geographie und Humangeographie geleistet werden. Die Anwendung des Untersuchungsschemas erfolgt auf den Weinbau im Oberen Mittelrheintal. Das Anbaugebiet ist seit vielen Jahrzehnten einem starken Rückgang an Weinbaubetrieben und Rebfläche unterworfen. Die rückläufigen Entwicklungen seit 1950 verliefen dabei nicht linear, sondern differenzierten das System in unterschiedliche Entwicklungspfade aus. Die Betriebsstrukturen und die Rahmenbedingungen im Weinbau veränderten sich grundlegend, was sichtbare Spuren in der Kulturlandschaft hinterließ. Dies zu rekonstruieren, zu analysieren und die zu verschiedenen Phasen der Entwicklung bedeutenden externen und internen Einflussfaktoren zu identifizieren, soll dazu beitragen, ein tief greifendes Verständnis für das selbstorganisierte Systemverhalten zu generieren und darauf basierende Handlungsoptionen für zukünftige Eingriffe in die Systementwicklung aufzuzeigen
Resumo:
Klimamontoring benötigt eine operative, raum-zeitliche Analyse der Klimavariabilität. Mit dieser Zielsetzung, funktionsbereite Karten regelmäßig zu erstellen, ist es hilfreich auf einen Blick, die räumliche Variabilität der Klimaelemente in der zeitlichen Veränderungen darzustellen. Für aktuelle und kürzlich vergangene Jahre entwickelte der Deutsche Wetterdienst ein Standardverfahren zur Erstellung solcher Karten. Die Methode zur Erstellung solcher Karten variiert für die verschiedenen Klimaelemente bedingt durch die Datengrundlage, die natürliche Variabilität und der Verfügbarkeit der in-situ Daten.rnIm Rahmen der Analyse der raum-zeitlichen Variabilität innerhalb dieser Dissertation werden verschiedene Interpolationsverfahren auf die Mitteltemperatur der fünf Dekaden der Jahre 1951-2000 für ein relativ großes Gebiet, der Region VI der Weltorganisation für Meteorologie (Europa und Naher Osten) angewendet. Die Region deckt ein relativ heterogenes Arbeitsgebiet von Grönland im Nordwesten bis Syrien im Südosten hinsichtlich der Klimatologie ab.rnDas zentrale Ziel der Dissertation ist eine Methode zur räumlichen Interpolation der mittleren Dekadentemperaturwerte für die Region VI zu entwickeln. Diese Methode soll in Zukunft für die operative monatliche Klimakartenerstellung geeignet sein. Diese einheitliche Methode soll auf andere Klimaelemente übertragbar und mit der entsprechenden Software überall anwendbar sein. Zwei zentrale Datenbanken werden im Rahmen dieser Dissertation verwendet: So genannte CLIMAT-Daten über dem Land und Schiffsdaten über dem Meer.rnIm Grunde wird die Übertragung der Punktwerte der Temperatur per räumlicher Interpolation auf die Fläche in drei Schritten vollzogen. Der erste Schritt beinhaltet eine multiple Regression zur Reduktion der Stationswerte mit den vier Einflussgrößen der Geographischen Breite, der Höhe über Normalnull, der Jahrestemperaturamplitude und der thermischen Kontinentalität auf ein einheitliches Niveau. Im zweiten Schritt werden die reduzierten Temperaturwerte, so genannte Residuen, mit der Interpolationsmethode der Radialen Basis Funktionen aus der Gruppe der Neuronalen Netzwerk Modelle (NNM) interpoliert. Im letzten Schritt werden die interpolierten Temperaturraster mit der Umkehrung der multiplen Regression aus Schritt eins mit Hilfe der vier Einflussgrößen auf ihr ursprüngliches Niveau hochgerechnet.rnFür alle Stationswerte wird die Differenz zwischen geschätzten Wert aus der Interpolation und dem wahren gemessenen Wert berechnet und durch die geostatistische Kenngröße des Root Mean Square Errors (RMSE) wiedergegeben. Der zentrale Vorteil ist die wertegetreue Wiedergabe, die fehlende Generalisierung und die Vermeidung von Interpolationsinseln. Das entwickelte Verfahren ist auf andere Klimaelemente wie Niederschlag, Schneedeckenhöhe oder Sonnenscheindauer übertragbar.