185 resultados para Vorstellung
Resumo:
Die Dissertation „Teamentwicklung im Sportunterricht. Eine experimentelle Studie zur Wirksamkeit eines erlebnispädagogischen Sportprogramms.“ ist im pädagogischen Kontext eines Erziehenden Sportunterrichts verortet - ein Kontext, der bislang im Bereich sportunterrichtlicher Forschung wenig Beachtung gefunden hat. Um diesem Mangel an fachpraktischen Konzepten als auch an empirischen Wirkungsstudien entgegenzuwirken, war es Ziel der vorliegenden Forschungsarbeit anhand eines experimentellen Kontrollgruppenplans die Auswirkungen von zwei verschieden gerichteten Sportprogrammen auf die soziale Entwicklung von Schulsportgruppen zu untersuchen. Die Ausgangsbasis der Dissertation bildeten dabei folgende Leitfragen: (1) Welche spezifischen sozialen Prozesse finden in verschieden gerichteten Sportprogrammen statt? (2) Durch welche sportunterrichtlichen Maßnahmen kann soziale Interaktion verbessert werden? Die Arbeit ist in einen Theorie-Teil (Kapitel 2 und 3) und einen Empirie-Teil (Kapitel 4 bis 6) gegliedert. Im Kapitel 2 werden auf Basis von psychologischer und sportwissenschaftlicher Literatur die Grundlagen der Gruppentheorie und der Gruppenentwicklung expliziert. Insbesondere wird die Anpassung des für die Untersuchung leitenden theoretischen Modells - des Modells der Gruppenentwicklung von Tuckman (1965) - an den schulischen Kontext vorgenommen. Daran anknüpfend werden in Kapitel 3 wesentliche Aspekte für das teamentwicklungsbasierte Lernarrangement, welches das Treatment der Experimentalgruppe darstellt, herausgearbeitet. In dem 17 Doppelstunden umfassenden Unterrichtsvorhaben der Hauptuntersuchung lag der Schwerpunkt vor allem auf erlebnispädagogisch orientierten Bewegungsaktivitäten. Der Gruppenprozess und die Kooperative Gruppenleistung wurden als abhängige Variablen erfasst. Die spezifische qualitative Struktur des teamentwicklungsbasierten Lernarrangements wurde für die empirische Untersuchung in drei Unterrichtsblöcken umgesetzt. Im Kapitel 4 wird die Methode der empirischen Untersuchung erläutert. Es erfolgt eine Eingrenzung der drei zentralen Gegenstandsbereiche (I=Gruppenprozess; II=Kooperative Gruppenleistung; III=Geschlechtsspezifik), die Vorstellung des Untersuchungsdesigns sowie eine ausführliche Darlegung der benutzten Untersuchungsinstrumente der empirischen Untersuchung. Das Untersuchungsdesign folgt einem experimentellen Prä-Post-Kontrollgruppendesign, dessen Basis ein randomisierter Untersuchungsplan bildet. Mit diesem wird die Auswirkung des erlebnispädagogisch orientierten Lernarrangements auf der einen Seite versus dem traditionell gerichteten Sportprogramm auf der anderen Seite auf die Entwicklung des Gruppenprozesses und der Kooperativen Gruppenleistung untersucht. Für den Gegenstandsbereich Gruppenprozess (Untersuchungsinstrument: Fragebogen) und für den Gegenstandsbereich Kooperative Gruppenleistung (Untersuchungsinstrument: Beobachtung anhand eines Beurteilungsinventars) werden sieben theoriegeleitete Hypothesen formuliert. Der Hypothesen generierende Gegenstandsbereich III (Geschlechtsspezifik) enthält zwei Hypothesen erkundende Annahmen. Die Ergebnisse der empirischen Untersuchung werden in Kapitel 5 vorgestellt. Anhand der umfassenden Hypothesenprüfungen ergeben sich Effekte, die auf eine spezifische soziale Entwicklung durch das experimentelle Treatment hinweisen: Die Experimentalgruppe wies zu Beginn nur wenig gefestigte Gruppenbeziehungen und eine große soziale Dynamik auf. Im letzten Drittel der Intervention verbesserten und stabilisierten sich jedoch die Gruppenbeziehungen. Ebenso verbesserte sich bei der Experimentalgruppe vom Prätest zum Posttest 1 bzw. Posttest 2 die Kooperative Gruppenleistung. Bei der Kontrollgruppe zeigten sich hingegen über den gesamten Interventionszeitraum nur geringe soziale Veränderungen. Insgesamt belegen die inferenzstatistischen Testergebnisse zwischen der Experimental- und der Kontrollgruppe deutliche Unterschiede in der Entwicklung der beiden abhängigen Variablen. Die Befunde zeigen, dass das experimentelle Treatment, d. h. das erlebnispädagogisch orientierte und teamentwicklungsbasierte Lernarrangement eine quantifizierbare positive Wirkung auf den Gruppenprozess und die Kooperative Gruppenleistung hatte. Den Abschluss der Dissertation bilden eine Diskussion und ein Resümee (Kapitel 6). Neben der Interpretation der Ergebnisse werden die Untersuchungsmethode beurteilt sowie weiterführende Perspektiven aufgezeigt.
Resumo:
Kann es gelingen, anhand der Simpsons Satire im Politikunterricht zu vermitteln? Auf den ersten Blick scheinen die Simpsons eine bloße Zeichentrickserie zu sein, doch bei genauerem Hinsehen wird deutlich, dass die Serie einen Fundus an Satire und Parodie enthält, der im Unterricht behandelt werden kann. Die Simpsons sind politisch - nicht nur wegen einzelner Gastauftritte ehemaliger US-amerikanischer Präsidenten sondern auch wegen ihrer Vielzahl an satirischen Äußerungen und Anspielungen gegen die US-amerikanische Gesellschaft und deren Politik. Aufgabe dieser Arbeit soll es sein, zu untersuchen, inwieweit sich die Simpsons als Unterrichtsgegenstand eignen. Dabei soll ein erster Blick auf den Beliebtheitsgrad der Serie fallen. Es werden Gründe gesucht, warum die Serie bei Jugendlichen so erfolgreich ist und inwieweit sie sowohl junge Menschen als auch Erwachsene beeinflusst. Im Weiteren wird zum umfassenden Verständnis ein Überblick über die Serie und eine Vorstellung der Hauptcharaktere gegeben. In diesem Zusammenhang scheint auch der Bezug der Charaktere zur Gesellschaft einen wichtigen Stellenwert einzunehmen. Nachfolgend sollen politische Themen aufgezeigt werden, um zu untersuchen, ob eine Behandlung der Themen im Unterricht möglich ist. Dabei spielt auch die Satire eine wichtige Rolle. Unter Punkt 2.5 wird Satire in den Fokus gestellt. Dabei geht es neben Definitionen auch um die Frage, ob die Serie mit ihrer beinhaltenden Satire als Medium die politische Bildung beeinflusst. In einem letzten großen Schritt geht es um die Umsetzung der politisch, satirischen Themen in den Simpsons. Es soll praktisch gezeigt werden, dass es möglich ist, die Serie im Unterricht zu verwenden. Hierbei spielen sowohl Lernziele und Kompetenzen der SchülerInnen eine Rolle als auch methodische Überlegungen und Entscheidungen. Für die Behandlung der Satire in den Simpsons werden zwei Unterrichtsstunden entwickelt, wovon eine im Unterricht durchgeführt und beurteilt wurde.
Resumo:
Resumen tomado de la publicación
Resumo:
Zusammenfassung Kooperativität bei Atmungsproteinen bedeutet eine Änderung der O2-Affinität während der Beladung mit O2 und läßt sich durch die Wechselbeziehung zwischen O2-Beladung und Konformation beschreiben. In dieser Arbeit wurde das 24-mere Hämocyanin der Vogelspinne Eurypelma californicum bzgl. Beladung und Konformationen sowohl auf der Ensemble- wie auch auf der Einzel-Molekül-Ebene charakterisiert. EnsembleDie Bindung von O2 an Hämocyanine ist mit einer drastischen Abnahme der Fluoreszenz-Quantenausbeute verbunden. Durch Vergleich von theoretisch und experimentell bestimmten Quantenausbeuten konnte gezeigt werden, daß die Löschung auf Förster-Transfer zurückzuführen ist, und daß kein Einfluß der Oligomerisierung, Protein-Konformation, Beweglichkeit oder Tierart besteht. Die Konformation von Hämocyaninen konnte mit Crosslinkern im oxy- und deoxy-Zustand fixiert werden. Die Charakterisierung der Produkte führte zu einer neuen Vorstellung, wie unterschiedliche Affinitäten realisiert sein können. Hierbei kommt der Dynamik der Protein-Matrix eine entscheidende Rolle zu. Einzel-MoleküleMittels Zwei-Photonen-Anregung konnten erstmalig einzelne Proteine über ihre intrinsische Tryptophan-Fluoreszenz nachgewiesen werden. Zum einen gelang es, Modellsysteme mit nur 340 Trp abzubilden, andererseits konnte die Diffusion einzelner Hämocyanine (148 Trp) mit Hilfe der Fluoreszenz-Korrelationsspektroskopie nachgewiesen werden.Einzelne Hämocyanine konnten durch Adsorption und mildes Eintrocknen an verschiedenen Oberflächen immobilisiert werden. Mittels Atomarer Kraft-Mikroskopie (AFM) ließen sich individuelle Hämocyanine abgebilden, wobei Details der Quarärstruktur aufgelöst werden konnten.
Resumo:
Thema der vorliegenden Untersuchung ist die erkenntnistheoretische Funktion des Ästhetischen für das philosophische System Arthur Schopenhauers. Der epistemologischen Kohärenz des Gesamtsystems wird dabei größere Bedeutung zugemessen als den in der Sache begründeten Diskrepanzen und systemimmanenten Brüchen.Als zentrale Problematik ergibt sich die des Überganges zwischen zwei Erkenntnisarten, die beschrieben werden können als schematische Welterkenntnis in Ursache-Wirkungs-verhältnissen einerseits und grundloses' Wissen um die Bedeutung der Welt andererseits. Im Fortgang der Untersuchung rückt die Möglichkeit des Zusammenwirkens der Erkenntnis-vermögen selbst im Bewusstsein und damit die Frage nach dessen Struktur in den Mittelpunkt. Das führt letztlich zu philosophischen Grundfragen: Kann ein Übergang vom Stoff ins Bewusstsein gedacht werden? Wie geschieht er? Schopenhauers Konzeption der Idee und der ästhetischen Kontemplation können Antworten geben: Sie dokumentieren die Durchlässigkeit der Erkenntnisvermögen als Spezifikum des menschlichen Intellekts', und erweisen sich so die Hauptthese der Arbeit als Wesenserkenntnis im Erleben von Wollen und Erkennen als ungeschiedenem Ganzen.Diese Interpretation von Schopenhauers Ideenlehre will die erkenntnistheoretische Relevanz des philosophischen Entwurfs eines menschlichen Selbst- und Weltverständnisses als Wille und Vorstellung aufzeigen, das ein wesensadäquates ist, weil es vom lebeendigen Gegenstand' ausgeht: An ihm allein ist das in Erscheinung getretene/tretende Wesen fassbar, an empfindungslosen anorganischen wie auch an erkenntnisfähigen organischen Körpern, die dennoch mehr sind als bloße Materie. Im Immateriellen sind sie identisch, und davon gibt es ein Bewusstsein: die Idee des Menschen.
Resumo:
Die protokollbasierte Medizin stellt einen interdisziplinären Brennpunkt der Informatik dar. Als besonderer Ausschnitt der medizinischen Teilgebiete erlaubt sie die relativ formale Spezifikation von Prozessen in den drei Bereichen der Prävention, Diagnose und Therapie.Letzterer wurde immer besonders fokussiert und gilt seit jeher im Rahmen klinischer Studien als Projektionsfläche für informationstechnologische Konzepte. Die Euphorie der frühen Jahre ernüchtert sich jedoch bei jeder Bilanz. Nur sehr wenige der unzählbaren Projekte haben ihre Routine in der alltäglichen Praxis gefunden. Die meisten Vorhaben sind an der Illusion der vollständigen Berechenbarkeit medizinischer Arbeitsabläufe gescheitert. Die traditionelle Sichtweise der klinischen Praxis beruht auf einer blockorientierten Vorstellung des Therapieausführungsprozesses. Sie entsteht durch seine Zerlegung in einzelne Therapiezweige, welche aus vordefinierten Blöcken zusammengesetzt sind. Diese können sequentiell oder parallel ausgeführt werden und sind selbst zusammengesetzt aus jeweils einer Menge von Elementen,welche die Aktivitäten der untersten Ebene darstellen. Das blockorientierte Aufbaumodell wird ergänzt durch ein regelorientiertes Ablaufmodell. Ein komplexes Regelwerk bestimmt Bedingungen für die zeitlichen und logischen Abhängigkeiten der Blöcke, deren Anordnung durch den Ausführungsprozeß gebildet wird. Die Modellierung der Therapieausführung steht zunächst vor der grundsätzlichen Frage, inwieweit die traditionelle Sichtweise für eine interne Repräsentation geeignet ist. Das übergeordnete Ziel besteht in der Integration der unterschiedlichen Ebenen der Therapiespezifikation. Dazu gehört nicht nur die strukturelle Komponente, sondern vorallem die Ablaufkomponente. Ein geeignetes Regelmodell ist erforderlich, welches den spezifischen Bedürfnissen der Therapieüberwachung gerecht wird. Die zentrale Aufgabe besteht darin, diese unterschiedlichen Ebenen zusammenzuführen. Eine sinnvolle Alternative zur traditionellen Sichtweise liefert das zustandsorientierte Modell des Therapieausführungsprozesses. Das zustandsorientierte Modell beruht auf der Sichtweise, daß der gesamte Therapieausführungsprozeß letztendlich eine lineare Folge von Zuständen beschreibt, wobei jeder Zustandsübergang durch ein Ereignis eingeleitet wird, an bestimmte Bedingungen geknüpft ist und bestimmte Aktionen auslösen kann. Die Parallelität des blockorientierten Modells tritt in den Hintergrund, denn die Menge der durchzuführenden Maßnahmen sind lediglich Eigenschaften der Zustände und keine strukturellen Elemente der Ablaufspezifikation. Zu jedem Zeitpunkt ist genau ein Zustand aktiv, und er repräsentiert eine von endlich vielen klinischen Situationen, mit all ihren spezifischen Aktivitäten und Ausführungsregeln. Die Vorteile des zustandsorientierten Modells liegen in der Integration. Die Grundstruktur verbindet die statische Darstellung der möglichen Phasenanordnungen mit der dynamischen Ausführung aktiver Regeln. Die ursprünglichen Inhalte des blockorientierten Modells werden als gewöhnliche Eigenschaften der Zustände reproduziert und stellen damit nur einen Spezialfall der zustandsbezogenen Sicht dar.Weitere Möglichkeiten für die Anreicherung der Zustände mit zusätzlichen Details sind denkbar wie sinnvoll. Die Grundstruktur bleibt bei jeder Erweiterung jedoch die gleiche. Es ergibt sich ein wiederverwendbares Grundgerüst,ein gemeinsamer Nenner für die Erfüllung der Überwachungsaufgabe.
Resumo:
Für eine Reihe einzelner genetischer Faktoren und Promotorelemente wurde in der Vergangenheit eine Regulation der Genexpression in der Leber (und auch in anderen Geweben) gezeigt. Mit der Verfügbarkeit des gesamten humanen Genoms sowie dessen Expressionsdaten in großen Microarray- und SAGE-Datenbanken bietet sich die Möglichkeit, solche Regulationsmechanismen in großem, genomweitem Maßstab zu untersuchen. Dabei geht diese Arbeit der Frage nach, ob es übergeordnete, eine Expression speziell in der Leber fördernde oder hemmende Faktoren gibt oder ob jedes Gen von einer unabhängigen Kombination von Faktoren reguliert wird, in dessen Summe die Expression des individuellen Gens in der Leber am stärksten ist. Sollten sich übergeordnete, eine Expression in der Leber stimulierende Faktoren finden, wären diese interessant für die Entwicklung neuer Behandlungskonzepte bei Lebererkrankungen. Zur Untersuchung dieser Fragestellung wurden aus einem Affymetrix Microarray Datenset für 12 Gewebe die Expressiondaten von insgesamt jeweils 15.472 Genen extrahiert. In einem zweiten Schritt wurden zusätzlich die Promotorsequenzen der einzelnen zugehörigen Gene, definiert als eine 1000 bp Region upstream des Transkriptionsstarts, in dieselbe Datenbank abgelegt. Die Promotorsequenzen wurden über den PromotorScan-Algorithmus analysiert. Auf diese Weise wurden Transkriptionsfaktorbindungsstellen auf 7042 der Promotoren identifiziert. Es fand sich eine Gesamtzahl von 241.984 Transkriptionsfaktorbindungsstellen. Anhand der Microarray-Expressionsdaten wurde die Gesamtgruppe der verfügbaren Gene und Promotoren in zwei Gruppen unterteilt, nämlich in die Gruppe der Gene, deren Expression in der Leber deutlich am höchsten gefunden wurde und in die Gruppe der Gene, die in anderen Geweben am höchsten exprimiert waren. Jeder potentiell bindende Transkriptionsfaktor wurde auf unterschiedliches Vorkommen in diesen beiden Gruppen hin untersucht. Dies geschah unter der Vorstellung, dass übergeordnete Faktoren, die eine Expression in der Leber stimulieren in der Gruppe der Gene, die in der Leber am höchsten exprimiert sind, verhältnismäßig wesentlich häufiger zu finden sein könnten. Eine solches häufigeres Vorkommen ließ sich jedoch für keinen einzigen Faktor nachweisen. Transkriptionsfaktorbindungsstellen sind typischerweise zwischen 5 und 15 bp lang. Um auszuschließen, dass mit dem verwendeten PromotorScan-Algorithmus Transkriptionsfaktorbindungsstellen, die bisher nicht bekannt sind, nicht übersehen wurden, wurden die Häufigkeit sämtlicher möglicher 8 bp (48) und 10 bp (410) Nukleotid-Kombinationen in diesen Promotoren untersucht. Biologisch relevante Unterschiede fanden sich zwischen den beiden Gruppen nicht. In gleicher Weise wurde auch die Bedeutung von TATA-Boxen untersucht. TATA-Boxen kommt bei der Transkriptionsinitiierung eine wichtige Rolle zu, indem über sie die Bindung des initialen Transkriptionskomplexes vermittelt wird. Insgesamt 1033 TATA-Boxen wurden ebenfalls mittels PromotorScan vorausgesagt. Dabei waren 57 auf Promotoren von Genen, die in der Leber überexprimiert waren und 976 auf Promotoren von Genen, die in anderen Geweben überexprimiert waren. Der Vergleich dieser beiden Gruppen ließ keine signifikant unterschiedliche Häufigkeit an TATA-Boxen erkennen. Im weiteren wurde die Bedeutung von CpG-Islands für eine potentiell differentielle Regulation untersucht. Insgesamt wurden 8742 CpG-Islands in einem Bereich von bis zu 5 kb upstream des Transkriptionsstarts identifiziert, 364 davon auf Promotoren von Genen, die am höchsten in der Leber exprimiert waren, 8378 auf Promotoren von Genen, die in anderen Geweben am höchsten exprimiert waren. Signifikante Unterschiede in der Verteilung von CpG-Islands auf Promotoren dieser beiden Gengruppen ließen sich nicht nachweisen. Schließlich wurden die RNA- und Proteinsequenzen des Transkriptoms und Proteoms hinsichtlich ihrer Zusammensetzung aus einzelnen Nukleotiden bzw. Aminosäuren analysiert. Auch hierbei fanden sich keine signifikanten Unterschiede in der Verteilung zwischen beiden Gengruppen. Die Zusammenschau der Ergebnisse zeigt, dass die Regulation der einzelnen Gene im Lebergewebe im wesentlichen individuell erfolgt. Im Rahmen der vorgelegten bioinformatischen Analysen fanden sich keine übergeordneten genetischen „Leberfaktoren“, die speziell eine Expression von Genen in der Leber stimulieren. Neue therapeutische Ansätze, die auf eine Regulation der Genexpression in der Leber zielen, werden somit auch weiterhin auf die Beeinflussung individueller Gene fokussiert bleiben.
Resumo:
Der ungarische Mathematiker Friedrich Riesz studierte und forschte in den mathematischen Milieus von Budapest, Göttingen und Paris. Die vorliegende Arbeit möchte zeigen, daß die Beiträge von Riesz zur Herausbildung eines abstrakten Raumbegriffs durch eine Verknüpfung von Entwicklungen aus allen drei mathematischen Kulturen ermöglicht wurden, in denen er sich bewegt hat. Die Arbeit konzentriert sich dabei auf den von Riesz 1906 veröffentlichten Text „Die Genesis des Raumbegriffs". Sowohl für seine Fragestellungen als auch für seinen methodischen Zugang fand Riesz vor allem in Frankreich und Göttingen Anregungen: Henri Poincarés Beiträge zur Raumdiskussion, Maurice Fréchets Ansätze einer abstrakten Punktmengenlehre, David Hilberts Charakterisierung der Stetigkeit des geometrischen Raumes. Diese Impulse aufgreifend suchte Riesz ein Konzept zu schaffen, das die Forderungen von Poincaré, Hilbert und Fréchet gleichermaßen erfüllte. So schlug Riesz einen allgemeinen Begriff des mathematischen Kontinuums vor, dem sich Fréchets Konzept der L-Klasse, Hilberts Mannigfaltigkeitsbegriff und Poincarés erfahrungsgemäße Vorstellung der Stetigkeit des ‚wirklichen' Raumes unterordnen ließen. Für die Durchführung seines Projekts wandte Riesz mengentheoretische und axiomatische Methoden an, die er der Analysis in Frankreich und der Geometrie bei Hilbert entnommen hatte. Riesz' aufnahmebereite Haltung spielte dabei eine zentrale Rolle. Diese Haltung kann wiederum als ein Element der ungarischen mathematischen Kultur gedeutet werden, welche sich damals ihrerseits stark an den Entwicklungen in Frankreich und Deutschland orientierte. Darüber hinaus enthält Riesz’ Arbeit Ansätze einer konstruktiven Mengenlehre, die auf René Baire zurückzuführen sind. Aus diesen unerwarteten Ergebnissen ergibt sich die Aufgabe, den Bezug von Riesz’ und Baires Ideen zur späteren intuitionistischen Mengenlehre von L.E.J. Brouwer und Hermann Weyl weiter zu erforschen.
Resumo:
This study examines the case of Vietnam and uses the method of process tracing to explore the sources of foreign policy choice and change. Foreign policy is derived from grand strategy, which refers to the full package of a state’s domestic and foreign policies. I argue that a state’s grand strategy results from the interaction of four factors—its society’s historical experience, social motivation, international power, and political contest among domestic groups. Grand strategies emerge as a response to perceived shifts in the balance of international economic, political, and military power. However, this is not to say that international pressures and incentives are translated into foreign policy. Rather, pressures and incentives are given meaning by worldviews, which reflect a society’s historical experiences of its place in the international system at traumatic junctures of its encounter with the outside world. Strategic changes in foreign policy follow what I call the “strategic algorithm,” which incorporates four major mechanisms—balancing against threat, bandwagoning with power, learning, and survival by transformation. This case study generates hypotheses for a theory of strategic choice, a theory of foreign policy transformation, and a theory of grand strategy emergence.
Resumo:
In vorliegender Dissertation werden die von Albert Schweitzer ersonnene Weltanschauungsphilosophie sowie dessen Ethik der Ehrfurcht vor dem Leben untersucht und auf ihre Kohärenz sowie auf ihre argumentative Tragfähigkeit geprüft. Es zeigt sich dabei, dass dieselben, entgegen der Meinung vieler Kritiker, keineswegs nur weltfremde Gedankenkonstrukte sind, sondern sehr wohl Orientierung hinsichtlich der ethischen Ausrichtung unserer Zeit zu geben vermögen und insbesondere die Schweitzer’sche Ehrfurchtsethik aus diesem Grunde als theoretisch vollwertiges Konzept einer philosophischen Ethik respektiert zu werden verdient. Schweitzer hat als Hintergrund all seiner Ausführungen die Vorstellung vom "Verfall der Kultur", daher sind sämtliche seiner philosophischen Überlegungen als Antwortversuche auf diesen von ihm konstatierten Kulturverfall zu verstehen. Ist der Verfall der Kultur seiner Zeit für Schweitzer bedingt durch das Fehlen einer lebens- und weltbejahenden Weltanschauung, so kann ein entsprechender Wiederaufbau der Kultur für ihn nur über den Weg der Konzeption einer aus tiefstem Denken ersonnenen lebens- und weltbejahenden Weltanschauung führen; das Kernstück dieser gesuchten neuen Weltanschauung ist für Schweitzer schließlich die Ethik der Ehrfurcht vor dem Leben. Es entbehrt indes nicht einer gewissen Tragik, dass diese Ethik der Ehrfurcht vor dem Leben, welche Schweitzer selbst ein Herzensanliegen war und um die sein gesamtes Denken seit Beginn des 20. Jahrhunderts kreiste, weder bei philosophisch interessierten Laien noch bei den Gelehrten dieser Zunft auf reges Interesse stieß. Mit Verweis auf die unsystematische Verfasstheit sowie den unausgereiften bzw. unvollkommenen Zustand dieses Ethikkonzepts schenkte (und schenkt) man demselben in Fachkreisen so gut wie keine Beachtung und auch im Blickpunkt des öffentlichen Interesses standen (und stehen) für gewöhnlich die greif- und sichtbaren Aktivitäten Schweitzers – so etwa sein humanitäres Engagement in Afrika oder seine Rolle als "kritisches Gewissen" seiner Zeit hinsichtlich der damals mehr oder minder akuten Bedrohung der Menschheit durch das atomare Wettrüsten der beiden Supermächte USA und UdSSR – wobei man jedoch verkennt, dass diese letztlich nur verstehbar sind vor dem Hintergrund der Ethik der Ehrfurcht vor dem Leben und nur von dort einen Sinn erhalten. Um diese überragende Bedeutung der Ethik der Ehrfurcht vor dem Leben im Gesamtgefüge des Schweitzer’schen Denkens angemessen einschätzen zu können, werden die tragenden Begriffe dieser Ethikkonzeption aus den Texten Schweitzers heraus so exakt als möglich bestimmt sowie der innere Zusammenhang derselben aufgezeigt, um wiederum die diese Begriffe fundierende Architektonik freizulegen.
Resumo:
Data deduplication describes a class of approaches that reduce the storage capacity needed to store data or the amount of data that has to be transferred over a network. These approaches detect coarse-grained redundancies within a data set, e.g. a file system, and remove them.rnrnOne of the most important applications of data deduplication are backup storage systems where these approaches are able to reduce the storage requirements to a small fraction of the logical backup data size.rnThis thesis introduces multiple new extensions of so-called fingerprinting-based data deduplication. It starts with the presentation of a novel system design, which allows using a cluster of servers to perform exact data deduplication with small chunks in a scalable way.rnrnAfterwards, a combination of compression approaches for an important, but often over- looked, data structure in data deduplication systems, so called block and file recipes, is introduced. Using these compression approaches that exploit unique properties of data deduplication systems, the size of these recipes can be reduced by more than 92% in all investigated data sets. As file recipes can occupy a significant fraction of the overall storage capacity of data deduplication systems, the compression enables significant savings.rnrnA technique to increase the write throughput of data deduplication systems, based on the aforementioned block and file recipes, is introduced next. The novel Block Locality Caching (BLC) uses properties of block and file recipes to overcome the chunk lookup disk bottleneck of data deduplication systems. This chunk lookup disk bottleneck either limits the scalability or the throughput of data deduplication systems. The presented BLC overcomes the disk bottleneck more efficiently than existing approaches. Furthermore, it is shown that it is less prone to aging effects.rnrnFinally, it is investigated if large HPC storage systems inhibit redundancies that can be found by fingerprinting-based data deduplication. Over 3 PB of HPC storage data from different data sets have been analyzed. In most data sets, between 20 and 30% of the data can be classified as redundant. According to these results, future work in HPC storage systems should further investigate how data deduplication can be integrated into future HPC storage systems.rnrnThis thesis presents important novel work in different area of data deduplication re- search.
Resumo:
In dieser Dissertation wird ein in Vergessenheit geratener Philosoph behandelt. Er hieß Karl Joël und war zu seinen Lebzeiten einer der bekannteren Philosophen. Die erste Bedeutung dieser Dissertation liegt deshalb darin, seine zwar genialen, aber vergessenen Gedanken (hauptsächlich von einem seiner Hauptwerke, „Seele und Welt“) wieder ans Licht gebracht zu haben. Es ist aber unmöglich, alle Gedanken einer großartigen Philosophie in einer einzigen Arbeit eingehend zu analysieren; aus diesem Grund wird in dieser Dissertation hauptsächlich Joëls „Seele und Welt“, eines seiner Hauptwerke, behandelt. rnAm Anfang dieser Doktorarbeit wird eine Einleitung (Kapitel 1) gegeben, die Lesern einen Überblick auf die gesamte Arbeit geben soll. Es folgt dann eine Biographie (Kapitel 2), in der das Leben des Philosophen relativ detailliert dargestellt wird. Da der Philosoph heute ein ziemlich unbekannter Philosoph ist, musste die Biographie einen dementsprechenden Umfang haben und nach vorne gestellt werden, so dass Leser gleich das ganze Bild seiner Philosophie haben können. Im Kapitel 3 werden Joëls frühere Werke bis „Seele und Welt“ behandelt und seine Gedanken bis „Seele und Welt“ verfolgt, um die Ideen in diesem Buch vertieft erforschen zu können. Im Kapitel 4 wird die Geschichte des Leib-Seele-Problems kurz zusammengefasst, um die Fragestellung des Problems zu verdeutlichen. Diese vier Kapitel machen zusammen den ersten Teil der Dissertation (die Einführung) aus. rnDanach fängt der zweite Teil der Dissertation an, der mit „Systematische Erklärung von Joëls Organismuskonzeption“ betitelt ist. Im Kapitel 5 wird Fechners Parallelismus erörtert. Joël kritisiert im ersten Teil von „Seele und Welt“ Fechners parallelistische Auffassung und versucht, diese zu überwinden. Deshalb musste in dieser Dissertation auch Fechners Parallelismus behandelt werden, um Joëls Kritik an Fechner richtig einschätzen zu können. Im Kapitel 6 wird zuerst der „Seelenbegriff im 19. Jahrhundert“ thematisiert und die philosophische Lage zu Joëls Zeit klar dargestellt. Anschließend wird Joëls Seelenbegriff behandelt. Joël versucht, seinen Seelenbegriff so formulieren, dass dieser über den traditionellen Seelenbegriff hinaus den neuen naturwissenschaftlichen Erkenntnissen gerecht werden kann. Im Kapitel 7 wird Joëls Organismusbegriff erörtert. Der Organismusbegriff macht das Wesentliche von Joëls Philosophie aus. Dies ist davon abzuleiten, dass „Seele und Welt“ eigentlich „Versuch einer organischen Auffassung“ heißt. Joël nahm neue Erkenntnisse auf und entwarf seinen Organismusbegriff, obwohl dieser von Schelling stark beeinflusst ist. rnAb dem Kapitel 8 wird die Philosophie Joëls dargestellt (der dritte Teil). Im Kapitel 8 wird der Indifferenzbegriff Joëls behandelt, aus der sich die zwei Weltextreme, Seele und Körper, entfalteten. In Kapiteln 9 und 10 wird dargestellt, wie aus der Indifferenz zur Mannigfaltigkeit der Welt gelangt wird. Im Kapitel 11 wird erklärt, wie die Äußerlichkeit (die Anschauungen) zur reinen Innerlichkeit (dem Denken) übergehen kann. Dadurch wird eine gewisse Erklärung für das Leib-Seele-Problem geliefert. Im Kapitel 12 wird versucht, Joëls Philosophie auf die moderne physische Problematik anzuwenden. Unsere Vorstellung des Raums als Dreidimensionalität kommt ins Wanken angesichts der neuen physischen Auffassung, dass es eigentlich nicht drei, sondern neun Raumdimensionen geben muss. In diesem Kapitel wird Joëls Begriff der Dreidimensionalität entwickelt, so dass sich dieser auch an die modernen Erkenntnisse anpassen kann. Im Kapitel 13 wird die Funktionsweise des Willens erörtert. Es ist unmöglich, den Willen als absolut frei oder notwendig zu bestimmen. Es kann nur nach einem freieren und notwendigeren Willen gefragt werden. Im Kapitel 14 befindet sich die Schlussbemerkung. Im Kapitel 15 findet man das Literaturverzeichnis von und über Joël. Da dieser Philosoph unbekannt ist, kann das Kapitel von größerer Bedeutung sein, als man sich sonst vorstellt.
Resumo:
Die Erdatmosphäre besteht hauptsächlich aus Stickstoff (78%), Sauerstoff (21%) und Edelga¬sen. Obwohl Partikel weniger als 0,1% ausmachen, spielen sie eine entscheidende Rolle in der Chemie und Physik der Atmosphäre, da sie das Klima der Erde sowohl direkt als auch indirekt beeinflussen. Je nach Art der Bildung unterscheidet man zwischen primären und sekundären Partikeln, wobei primäre Partikel direkt in die Atmosphäre eingetragen werden. Sekundäre Partikel hingegen entstehen durch Kondensation von schwerflüchtigen Verbindungen aus der Gasphase, welche durch Reaktionen von gasförmigen Vorläufersubstanzen (volatile organic compounds, VOCs) mit atmosphärischen Oxidantien wie Ozon oder OH-Radikalen gebildet werden. Da die meisten Vorläufersubstanzen organischer Natur sind, wird das daraus gebil¬dete Aerosol als sekundäres organisches Aerosol (SOA) bezeichnet. Anders als die meisten primären Partikel stammen die VOCs überwiegend aus biogenen Quellen. Es handelt sich da¬bei um ungesättigte Kohlenwasserstoffe, die bei intensiver Sonneneinstrahlung und hohen Temperaturen von Pflanzen emittiert werden. Viele der leichtflüchtigen Vorläufersubstanzen sind chiral, sowohl die Vorläufer als auch die daraus gebildeten Partikel werden aber in den meisten Studien als eine Verbindung betrachtet und gemeinsam analysiert. Die mit Modellen berechneten SOA-Konzentrationen, welche auf dieser traditionellen Vorstellung der SOA-Bil¬dung beruhen, liegen deutlich unterhalb der in der Atmosphäre gefundenen, so dass neben diesem Bildungsweg auch noch andere SOA-Bildungsarten existieren müssen. Aus diesem Grund wird der Fokus der heutigen Forschung vermehrt auf die heterogene Chemie in der Partikelphase gerichtet. Glyoxal als Modellsubstanz kommt hierbei eine wichtige Rolle zu. Es handelt sich bei dieser Verbindung um ein Molekül mit einem hohen Dampfdruck, das auf Grund dieser Eigenschaft nur in der Gasphase zu finden sein sollte. Da es aber über zwei Alde¬hydgruppen verfügt, ist es sehr gut wasserlöslich und kann dadurch in die Partikelphase über¬gehen, wo es heterogenen chemischen Prozessen unterliegt. Unter anderem werden in An¬wesenheit von Ammoniumionen Imidazole gebildet, welche wegen der beiden Stickstoff-He¬teroatome lichtabsorbierende Eigenschaften besitzen. Die Verteilung von Glyoxal zwischen der Gas- und der Partikelphase wird durch das Henrysche Gesetz beschrieben, wobei die Gleichgewichtskonstante die sogenannte Henry-Konstante ist. Diese ist abhängig von der un¬tersuchten organischen Verbindung und den im Partikel vorhandenen anorganischen Salzen. Für die Untersuchung chiraler Verbindungen im SOA wurde zunächst eine Filterextraktions¬methode entwickelt und die erhaltenen Proben anschließend mittels chiraler Hochleistungs-Flüssigchromatographie, welche an ein Elektrospray-Massenspektrometer gekoppelt war, analysiert. Der Fokus lag hierbei auf dem am häufigsten emittierten Monoterpen α-Pinen und seinem Hauptprodukt, der Pinsäure. Da bei der Ozonolyse des α-Pinens das cyclische Grund¬gerüst erhalten bleibt, können trotz der beiden im Molekül vorhanden chiralen Zentren nur zwei Pinsäure Enantiomere gebildet werden. Als Extraktionsmittel wurde eine Mischung aus Methanol/Wasser 9/1 gewählt, mit welcher Extraktionseffizienzen von 65% für Pinsäure Enan¬tiomer 1 und 68% für Pinsäure Enantiomer 2 erreicht werden konnten. Des Weiteren wurden Experimente in einer Atmosphärensimulationskammer durchgeführt, um die Produkte der α-Pinen Ozonolyse eindeutig zu charakterisieren. Enantiomer 1 wurde demnach aus (+)-α-Pinen gebildet und Enantiomer 2 entstand aus (-)-α-Pinen. Auf Filterproben aus dem brasilianischen Regenwald konnte ausschließlich Pinsäure Enantiomer 2 gefunden werden. Enantiomer 1 lag dauerhaft unterhalb der Nachweisgrenze von 18,27 ng/mL. Im borealen Nadelwald war das Verhältnis umgekehrt und Pinsäure Enantiomer 1 überwog vor Pinsäure Enantiomer 2. Das Verhältnis betrug 56% Enantiomer 1 zu 44% Enantiomer 2. Saisonale Verläufe im tropischen Regenwald zeigten, dass die Konzentrationen zur Trockenzeit im August höher waren als wäh¬rend der Regenzeit im Februar. Auch im borealen Nadelwald wurden im Sommer höhere Kon¬zentrationen gemessen als im Winter. Die Verhältnisse der Enantiomere änderten sich nicht im jahreszeitlichen Verlauf. Die Bestimmung der Henry-Konstanten von Glyoxal bei verschiedenen Saataerosolen, nämlich Ammoniumsulfat, Natriumnitrat, Kaliumsulfat, Natriumchlorid und Ammoniumnitrat sowie die irreversible Produktbildung aus Glyoxal in Anwesenheit von Ammoniak waren Forschungs¬gegenstand einer Atmosphärensimulationskammer-Kampagne am Paul-Scherrer-Institut in Villigen, Schweiz. Hierzu wurde zunächst das zu untersuchende Saataerosol in der Kammer vorgelegt und dann aus photochemisch erzeugten OH-Radikalen und Acetylen Glyoxal er¬zeugt. Für die Bestimmung der Glyoxalkonzentration im Kammeraerosol wurde zunächst eine beste¬hende Filterextraktionsmethode modifiziert und die Analyse mittels hochauflösender Mas¬senspektrometrie realisiert. Als Extraktionsmittel kam 100% Acetonitril, ACN zum Einsatz wo¬bei die Extraktionseffizienz bei 85% lag. Für die anschließende Derivatisierung wurde 2,4-Di¬nitrophenylhydrazin, DNPH verwendet. Dieses musste zuvor drei Mal mittels Festphasenex¬traktion gereinigt werden um störende Blindwerte ausreichend zu minimieren. Die gefunde¬nen Henry-Konstanten für Ammoniumsulfat als Saataerosol stimmten gut mit in der Literatur gefundenen Werten überein. Die Werte für Natriumnitrat und Natriumchlorid als Saataerosol waren kleiner als die von Ammoniumsulfat aber größer als der Wert von reinem Wasser. Für Ammoniumnitrat und Kaliumsulfat konnten keine Konstanten berechnet werden. Alle drei Saataerosole führten zu einem „Salting-in“. Das bedeutet, dass bei Erhöhung der Salzmolalität auch die Glyoxalkonzentration im Partikel stieg. Diese Beobachtungen sind auch in der Litera¬tur beschrieben, wobei die Ergebnisse dort nicht auf der Durchführung von Kammerexperi¬menten beruhen, sondern mittels bulk-Experimenten generiert wurden. Für die Trennung der Imidazole wurde eine neue Filterextraktionsmethode entwickelt, wobei sich ein Gemisch aus mit HCl angesäuertem ACN/H2O im Verhältnis 9/1 als optimales Extrak¬tionsmittel herausstellte. Drei verschiedenen Imidazole konnten mit dieser Methode quanti¬fiziert werden, nämlich 1-H-Imidazol-4-carbaldehyd (IC), Imidazol (IM) und 2,2‘-Biimidazol (BI). Die Effizienzen lagen für BI bei 95%, für IC bei 58% und für IM bei 75%. Kammerexperimente unter Zugabe von Ammoniak zeigten höhere Imidazolkonzentrationen als solche ohne. Wurden die Experimente ohne Ammoniak in Anwesenheit von Ammoni¬umsulfat durchgeführt, wurden höhere Imidazol-Konzentrationen gefunden als ohne Ammo¬niumionen. Auch die relative Luftfeuchtigkeit spielte eine wichtige Rolle, da sowohl eine zu hohe als auch eine zu niedrige relative Luftfeuchtigkeit zu einer verminderten Imidazolbildung führte. Durch mit 13C-markiertem Kohlenstoff durchgeführte Experimente konnte eindeutig gezeigt werden, dass es sich bei den gebildeten Imidazolen und Glyoxalprodukte handelte. Außerdem konnte der in der Literatur beschriebene Bildungsmechanismus erfolgreich weiter¬entwickelt werden. Während der CYPHEX Kampagne in Zypern konnten erstmalig Imidazole in Feldproben nach¬gewiesen werden. Das Hauptprodukt IC zeigte einen tageszeitlichen Verlauf mit höheren Kon¬zentrationen während der Nacht und korrelierte signifikant aber schwach mit der Acidität und Ammoniumionenkonzentration des gefundenen Aerosols.
Resumo:
Zahnriemenfördersysteme haben auf Grund ihrer wirtschaftlichen und technischen Vorteile beim Transport von Stückgütern ein breites Anwendungsfeld in den unterschiedlichen Bereichen der Industrie gefunden und gewinnen weiterhin an Bedeutung. Die Auslegung der Systeme beschränkt sich gegenwärtig im Wesentlichen auf die Zugstrang- und die Zahnfußfestigkeit des Zahnriemens. Grundlagen der Berechnungen sind oft recht vage Aussagen zur Höhe des Reibwertes zwischen dem Zahnriemen und dessen Stützschiene. Die Erhöhung der Kontakttemperatur durch die eingebrachte Reibleistung wird meist völlig vernachlässigt. In der Praxis wird oftmals auf Erfahrungswerte zurückgegriffen, wobei die Gefahr der Über- bzw. Unterdimensionierung mit erheblichen Auswirkungen auf die Lebensdauer, das Verschleißverhalten und die Betriebssicherheit besteht. 1. Anwendung von Zahnriemenförderern Das Einsatzgebiet der Zahnriemen ist neben der Antriebstechnik in zunehmendem Maße die Fördertechnik, wo diese als Zug- und Tragmittel für den Stückguttransport zur Anwendung kommen. Der Grund dieser Entwicklung lässt sich mit den günstigen Eigenschaften dieser Maschinenelemente erklären. Besonders zu erwähnen sind dabei der geräuscharme Lauf, die geringe Masse und die niedrigen Kosten in Anschaffung und Wartung. Der synchrone Lauf, der mit Zahnriemen wie auch mit Förderketten realisierbar ist, ist ein weiterer wesentlicher Vorteil. Dabei übernehmen die robusten Förderketten den Bereich der Fördertechnik, in dem große Kräfte übertragen werden müssen und stark schmutzintensive Umgebungsbedingungen vorherrschen. Haupteinsatzgebiete der Zahnriemenförderer ist der Bereich der empfindlicheren Güter mit relativ geringen Massen, wobei sich immer mehr abzeichnet, dass auch Einsatzgebiete mit schweren Werkzeugträgern erschlossen werden. Die Transportzahnriemen müssen bei dem Einsatz zahnseitig abgestützt werden, um die Gutmasse aufnehmen zu können. Stückgüter können von Zahnriemen durch Kraft- oder Formschluss transportiert werden. Der Einsatz ist von den technologischen Erfordernissen und der Art des Transportgutes abhängig. Formschluss wird meist über aufgeschweißte Formelemente / Mitnehmer realisiert. Diese Art des Transportes wird verwendet, wenn Teile: • vereinzelt, • genau positioniert, ������ zeitlich exakt getaktet, • über starke Steigungen bis hin zum vertikalen transportiert werden müssen, • bzw. sich gegenseitig nicht berühren dürfen. Abbildung 1: Formschlüssiger Transport mit aufgeschweißten Formelementen Die Art und die Form des auf dem Zahnriemenrücken aufgebrachten Formelementes werden vom Gut selbst und dem Einsatzzweck bestimmt. Eine Vielzahl von verschiedenen Elementen wird von der Industrie standardmäßig angeboten. Bei der kraftschlüssigen Variante können zwei grundlegende Arten unterschieden werden: Zum einen Zahnriemenbeschichtungen mit sehr hohem Reibwert, zum anderen mit sehr niedrigen Reibwerten. Beschichtungen mit sehr hohem Reibwert (z. B. Silikon, PUR-Schaum, Naturkautschuk) eignen sich besonders für Schrägförderer und Abzugsbänder sowie für einfache Positionieraufgaben. Dabei wird eine relative Verschiebung des Gutes zum Zahnriemen durch den hohen Reibwert in der Kontaktzone behindert. Abbildung 2: Abzugsband für biegeschlaffe Flachformkörper z. B. Folie, Textilien Zahnriemenrückenbeschichtungen mit geringen Reibwerten bestehen meist aus Polyamidgewebe und eignen sich besonders gut für den Staubetrieb. Hierbei dient der Zahnriemen selbst als Zwischenspeicher. Bei Bedarf können die Güter freigegeben werden. Dabei muss aber sichergestellt werden, dass auch die Auflagefläche des Fördergutes für einen solchen Einsatzzweck geeignet ist, da es zu einer Relativbewegung zwischen Gut und undZahnriemen kommt. Abbildung 3: Stauförderer Parallelförderer können sowohl als reibschlüssige als auch als formschlüssige Variante ausgeführt werden. Ihr Vorteil liegt darin, dass größere Güter, z. B. Flachglas, Bleche usw. auf zwei oder mehreren Riemen aufliegen und durch die gleiche Geschwindigkeit der synchron angetriebenen Riemen keine Verschiebung des Gutes erfolgt. Würde der Antrieb nicht über Zahnriemen erfolgen, sondern über Flachriemen bzw. Gurte, wäre außerdem ein Zugmittel in der Breite des Fördergutes notwendig. Daraus ergibt sich zusätzlich eine wesentliche Massereduzierung der Zugmittel für den Stückguttransport in der Fördertechnik. Abbildung 4: Parallelförderer für kraftschlüssigen Transport Allen diesen Varianten ist jedoch gemein, dass der Zahnriemen auf einer Stützschiene gleitet und die Normalkraft des Transportgutes in Verbindung mit Riemengeschwindigkeit und Reibwert eine Reibleistung und damit Wärme erzeugt. Zum gegenwärtigen Zeitpunkt fehlen exakte Angaben zu den Reibwerten für die einzelnen Gleitpaarungen. Auch ist eine Veränderung dieser Reibwerte bei Geschwindigkeits-, Temperatur-, und Belastungsänderung ungeklärt. Des Weiteren ist es auch notwendig, die Belastungsgrenzen für die Auslegung von Zahnriemenförderern zu definieren und das Verschleißverhalten zu kennen. Die derzeit üblichen Auslegungskriterien für diese fördertechnischen Anlagen sind Zugstrangfestigkeit und Zahnfußfestigkeit. Dabei bleibt jedoch die Erwärmung des Zugmittels und der Stützschiene durch die eingebrachte Reibleistung und den sich ändernden Reibwert unbeachtet. Insbesondere bei kurzen Förderstrecken mit großen Lasten bzw. hohen Transportgeschwindigkeiten ist die Gefahr von thermischen Überlastungen gegeben, welche zu erhöhtem Verschleiß bzw. zum Totalausfall der Anlage führen kann. Soll dieses zusätzliche Auslegungskriterium angewandt werden, sind Erkenntnisse aus den Gebieten der Tribologie und der Wärmelehre/Thermodynamik anzuwenden. Zum einen ist eine Bestimmung der entstehenden Reibleistung notwendig und zum anderen der abgeführte Wärmestrom zu ermitteln. Die sehr komplexen Zusammenhänge werden durch konstruktive und technologische Größen beschrieben, welche sich wiederum gegenseitig beeinflussen. 2. Reibwerte in der Gleitpaarung In DIN ISO 7148-2 sind die Besonderheiten bei der tribologischen Prüfung von polymeren Werkstoffen beschrieben. Dabei wird explizit darauf hingewiesen, dass die Prüfanordnung möglichst der praktischen Anwendung entsprechen sollte, um die Übertragbarkeit der Prüfergebnisse zu gewährleisten. Deshalb wurde ein Versuchsstand konzipiert, der die Kontaktverhältnisse von Zahnriemen und Stützschienen möglichst real abbildet (Abb.5). Abbildung 5: Schematischer Aufbau des Versuchsstandes Für die Untersuchung der Zahnriemenpaarung wird der Zahnriemen mit der Zahnseite nach oben aufgespannt. Auf die nach oben zeigende Zahnseite wird eine planparallele Platte des jeweiligen Gleitschienenmaterials aufgelegt. Die Flächenpressung der Paarung lässt sich über aufgebrachte Massestücke variieren und die Reibkraft über den Kraftsensor direkt über eine Schnittstelle zur Aufzeichnung an einen Rechner weiterleiten. Zur Ermittlung der Kontakttemperaturen wurden Bohrungen in das Gleitschienenmaterial eingebracht, die unmittelbar bis an die Oberfläche der Kontaktfläche reichen und mit Thermoelementen bestückt sind. Die Abstützung des Zahnriemens erfolgt auf einem Flachriemen, der wiederum auf einer Rollenbahn abrollt. Dadurch wird ein zusätzlicher Wärmeeintrag durch eine gleitende Abstützung vermieden. Die Gleitgeschwindigkeit und Flächenpressung auf die Paarung werden in Stufen variiert. Als Versuchszahnriemen dienten PU-Riemen mit und ohne zahnseitiger Polyamidbeschichtung der Abmessung 1250 x 25 T10. Abbildung 6: Reibwertmessungen an PU-Zahnriemen ohne Beschichtung (Kurzzeitversuche) Die ermittelten Messwerte der Gleitreibungszahl µ für verschiedene PU-Zahnriemen – Stützschienenkombinationen sind in Abbildung 6 dargestellt. Die schraffierten Balken geben die Reibungszahlempfehlungen von Herstellern sowie aus Literaturquellen für diese Paarungen wieder. Oft wird jedoch darauf hingewiesen, dass für einen konkreten Anwendungsfall eigene Untersuchungen durchzuführen sind. Die grauen Balken geben die bei einer Versuchsdauer von bis zu 8 Stunden ermittelten Reibungszahlen wieder. Dabei wurden sowohl die Flächenpressungen als auch die Gleitgeschwindigkeiten variiert. Bei einigen Paarungen (Holz (Abb.7)) konnte ein sehr starker abrasiver Verschleiß am Zahnriemen festgestellt werden. Diese Werkstoffkombinationen sind nur für geringe Belastungen geeignet. Abbildung 7: Oberfläche PU-Zahnriemen, verschlissen an Schichtholz Die Paarungen in Verbindung mit Stahl- bzw. Aluminiumstützschienen neigen zu stick-slip- Erscheinungen verbunden mit starker Geräuschentwicklung. Aufgrund der relativ hohen Reibungszahlen wurden keine Dauerversuche an unbeschichteten PU-Zahnriemen durchgeführt. Für die weiteren Untersuchungen wurden ausschließlich polyamidbeschichtete Zahnriemen verwendet. In Abbildung 8 werden die Ergebnisse der Reibwertuntersuchungen an PAZ-Zahnriemen (Polyamidgewebebeschichtung auf der Zahnseite) dargestellt. Die schraffierten Balken stellen wiederum die bisherigen Empfehlungen dar, die grauen Balken die ermittelten Messwerte im Kurzzeitversuch (bis 8 Stunden) und die schwarzen Balken die Messwerte im Langzeitversuch (zwischen 7 und teilweise bis zu 100 Tagen). Hier ist die Übereinstimmung der Reibungszahlen zwischen Empfehlungen und Kurzzeitmesswerten sehr gut. Der deutliche Anstieg der Werte im weiteren Verlauf der Untersuchungen deutet daraufhin, dass der tribologische Einlauf innerhalb von 8 Stunden meist noch nicht abgeschlossen ist und dass nach fortlaufender Belastung weitere tribologische Phänomene die Kontaktverhältnisse ändern. Abbildung 8: Reibungszahlen an polyamidbeschichteten PU-Zahnriemen (PAZ) in Verbindung mit verschiedenen Gleitschienen Bei den Paarungen mit einer Stützschiene aus Stahl, Aluminium oder Schichtholz konnte eine polymere Filmbildung auf der Gleitfläche beobachtet werden. In Abbildung 9 und 10 ist die Entwicklung am Beispiel von Stahlproben zu sehen. Gemeinsam bei diesen Paarungen ist die fortschreitende Schichtbildung, verbunden mit einer Reibwerterhöhung. Der Verschleiß der Gewebeschicht am Zahnriemen setzt bei größeren Reibungszahlen ein, was zu deren weiterer Erhöhung führt Ein weiterer Einsatz führt zur vollständigen Abtragung der Gewebeschicht und damit zu einer neuen tribologischen Paarung PU-Zahnriemen ��� Polymerschicht. Abbildung 9: beginnende polymere Ablagerung auf Stahlprobe Rz28 Abbildung 10: nahezu geschlossener polymerer Film auf Stahlprobe Rz28 Am Beispiel der Paarung PAZ Zahnriemen – Stahlstützschiene wird die Entwicklung der Reibungszahl über die Zeit des Gleitkontaktes in Abbildung 12 dargestellt. Dabei wurde die Oberflächenrauigkeit (Rz 6,3; Rz 28) durch entsprechende Bearbeitungen variiert. Der relativ starke Anstieg an der Paarung Rz 6,3 kann zum einen auf die hohe Gleitgeschwindigkeit und den damit entsprechend langen Gleitweg zurückgeführt werden, zum anderen auf den höheren adhäsiven Anteil durch die relativ glatte Oberfläche und der damit erhöhten Kontaktfläche. Abbildung 11 zeigt einen verschlissenen Zahnkopf. Abbildung 9: Verschlissene Zahnkopfflanke, PAZ - Stahl Abbildung 10: Änderung der Reibungszahl im zeitlichen Verlauf an der Paarung ZR PA – Stahl Die Erhöhung der Reibungszahlen an der Paarung PE UHMW - polyamidbeschichteter Zahnriemen kann nicht unmittelbar auf direkte Verschleißerscheinungen zurückgeführt werden. Sowohl die Gleitfläche als auch der Zahnriemen weisen auch nach längerem Kontakt keine sichtbaren Schäden auf: Es bildet sich kein polymerer Film auf der PE- UHMW- Gleitfläche heraus. In Abbildung 11 wird die Änderung der Reibungszahl dargestellt. Es wurden Paarungen mit steigendem p•v-Wert gewählt. Mit höheren Werten für die eingebrachte Leistung pro Flächeneinheit ist ein schnellerer Anstieg der Reibungszahlen zu verzeichnen. Abbildung 11: Änderung der Reibungszahl im zeitlichen Verlauf an der Paarung ZR PAZ – PE UHMW Die Erhöhung der Reibwerte zieht nicht nur eine Steigerung der Antriebsleistung nach sich, sondern auch eine Zunahme der Reibleistung und damit einen Anstieg der Kontakttemperatur. Hat diese einen bestimmten Wert erreicht, kommt es zum Aufschmelzen der Gleitflächen und damit zum Totalausfall der Paarung (Abbildungen 14, 15, 16). Ebenfalls tritt durch die Reibwerterhöhung eine höhere Belastung des Zugstranges und der Zahnfüße im Einlauf des Zahnriemens auf. Für eine konstruktive Auslegung entsprechender Zahnriemenförderer ist dies durch entsprechende Sicherheitsfaktoren zu berücksichtigen. Abbildung 12: Aufgeschmolzene PE-Laufschiene, 2-fach vergrößert Abbildung 13: geschmolzene Faserbündel 20- fach Abbildung 14: zerstörtes Gewebe in Folge thermischer Überlastung 3. Thermische Zusammenhänge Die Temperaturerhöhung in der Wirkstelle zwischen Zahnriemen und Stützschiene kann im stationären Zustand in der vereinfachten Form: p Flächenpressung v Gleitgeschwindigkeit µ Reibungszahl A Kontaktfläche / jeweilige Oberfläche a Wärmeübergangskoeffizient l Wärmeleitwert Abbildung 15: Kontaktmodell dargestellt werden. Dabei werden verschiedene Vereinfachungen angenommen: • Reibleistung wird auf die gesamte Fläche gleichmäßig verteilt, • Wärmestrom erfolgt nur in Normalenrichtung zur Gleitfläche, • konstante Reibleistung über die gesamte Zeit, • keine Ableitung des Wärmestromes über Stirn- und Seitenflächen, • eingeschwungener Gleichgewichtszustand der Temperaturverteilung, • gleiche Temperatur über der jeweiligen Oberfläche, • gleiche Strömungsverhältnisse und -bedingungen an der jeweiligen Oberfläche, • konstante - und - Werte über der gesamten Fläche. Der Temperaturverlauf für verschiedene Materialpaarungen ist in Abbildung 16 dargestellt. Der unterschiedliche Verlauf der Kurven kann mit den verschiedenen eingebrachten Reibleistungen durch sich unterschiedlich einstellende Reibungszahlen und durch die unterschiedlichen Wärmeleitwerte und Wärmekapazitäten der Gleitschienen erklärt werden. Ist eine stationäre Temperatur erreicht, so gilt vereinfacht die Vorstellung von Abbildung 15. Abbildung 16: thermischer Einlauf verschiedener Stützschienenmaterialien Die sich einstellende Gleitflächentemperatur ist im Wesentlichen von den in Abbildung 17 dargestellten Einflüssen abhängig. Da die Kontakttemperatur die Grenztemperatur (ca. 65°C) nicht überschreiten darf, um eine thermische Schädigung zu vermeiden, sind die entsprechenden Einflussgrößen zweckmäßig zu wählen. Die Parameter Gleitgeschwindigkeit und Flächenpressung sind meist durch die technologischen Erfordernisse vorgegeben, die Reibungszahl stellt sich entsprechend der tribologischen Paarung ein und die Wärmeleitfähigkeit ist ein kaum zu verändernder Stoffwert. Die Einflussmaßnahmen erstrecken sich also meist auf die Schichtstärke s der Abstützung und den Wärmeübergang zur Umgebung. Abbildung 17: Technologische und konstruktive Einflüsse auf die Gleitflächentemperatur in der Wirkstelle 4. Zusammenfassung Die Kenntnis der sich nach einer entsprechenden Einlaufphase einstellenden Reibungszahlen für verschiedene Zahnriemen – Stützschienenkombinationen ist für die Anwender und Entwickler wichtig, da damit eine optimale Auslegung von Zahnriemenförderern erfolgen kann. Diese optimale Auslegung realisiert dann in der Anwendung eine ökonomische Lebensdauer bei verbesserter konstruktiver Auslegung. Die bisher weitgehend unbeachtete Temperaturerhöhung in der Gleitschienen – Zahnriemenkombination durch die eingebrachte Reibleistung sollte zukünftig ein weiteres Auslegungskriterium darstellen. Eine erste Annäherung an dieses Problem kann durch die Form: p Flächenpressung v Gleitgeschwindigkeit µ Reibungszahl A Kontaktfläche / jeweilige Oberfläche K Wärmeabgabekoeffizient DT max. zul. Temperaturerhöhung K= f (µ, p, v, Gleitschienenmaterial, Zahnriemenausführung, Maschinenkonstante…) gezeigt werden. Für die Ermittlung des Wärmeabgabekoeffizienten sind entsprechende Untersuchungen durchzuführen und Zusammenhänge zu ermitteln. Bestimmte Praxiseinflüsse (Umgebungstemperaturschwankungen, Verschmutzung, Stöße, Montagefehler) sind in die bisherigen Untersuchungen noch nicht eingeflossen, sollten aber nicht unbeachtet bleiben. Durch eine vorteilhafte Auslegung der Förderanlagen kann eine höhere Zuverlässigkeit bei geringeren Wechselintervallen und niedrigeren Kosten für den Betrieb erreicht werden.