283 resultados para Humanisierung der Arbeit


Relevância:

80.00% 80.00%

Publicador:

Resumo:

Am Beginn des 21. Jahrhundert gilt die ökologische Krise nach wie vor als ein existenzgefährdendes Problem der Menschheit. Schelling war vor nahezu 200 Jahren der erste und in dieser Entschiedenheit der einzige Denker, der auf die Bedrohung aufmerksam gemacht hat, die von einer Absolutsetzung der menschlichen Subjektivität ausgeht. Es ist das Ziel der genannten Schrift, Grundidee und -struktur der Naturphilosophie Schellings zu analysieren und die Überwindungsmöglichkeit der ökologischen Krise im Ausgang seiner Naturphilosophie zu finden. Mit Schellings Konzept der Natur als Subjekt könnte die Frage nach der Überwindungsmöglichkeit der ökologischen Krise und dem von der Philosophie hier zu leistenden Beitrag präzisiert werden. Deshalb ist das Hauptanliegen dieser Untersuchung, ob Schellings Konzept eine Alternative zu unserem heutigen Naturverständnis sein kann. Angesichts dieser neuen Fragestellung und der mit ihr verbundenen Aufgabe, einen prinzipiell anderen Begriff von Natur zu gewinnen, sind seine frühen naturphilosophischen Schriften für die in der Arbeit anvisierte Fragestellung besonders aufschlussreich und dienen daher auch als Quelle und Grundlage für die folgende Untersuchung. Die genannte Schrift gliedert sich in vier Kapitel. Im ersten Kapitel wird das Absolute als Zentralprinzip der Schellingschen Philosophie erörtert. Die Kontinuität seiner ganzen Philosophie beruht auf dem Prinzip des Absoluten. Im zweiten Kapitel werden die Anfänge der Schellingschen Naturphilosophie untersucht. Zuerst wird Kants Kritik der Urteilskraft als Vorstudien zu Schellings Begriff einer sich selbst organisierenden und hervorbringenden Natur herausgearbeitet. Und dann wird dargelegt, wie Schelling seine Naturkonzeption in der Auseinandersetzung mit Fichte aus grundsätzlichen philosophischen Überlegungen ableitet. Im dritten Kapitel stehen Grundidee und -struktur der früheren Naturphilosophie Schellings im Zentrum der Analyse. Vor allem setze ich mich unter Berücksichtigung seiner organisch-ganzheitlichen Naturauffassung mit dem Verständnis von Natur als Subjekt und Produktivität ausführlich auseinander, um die Überwindungsmöglichkeit der ökologischen Krise zu bedenken. Schellings Einwand gegen die mechanistische Naturauffassung erklärt sich aus seinem Begriff der Natur als Subjekt. Dieser Begriff hängt unmittelbar mit der Idee der Natur als Organismus zusammen. Die Natur ist ein sich selbst organisierendes Ganzes und ihre dynamische Enzwicklung vollzieht sich durch ihre eigenen Potenzen. Das vierte Kapitel setzt sich mit der Kernfrage auseinander, welche Bedeutung Schellings Naturphilosophie für die Überwindung der ökologischen Krise hat und wie die vermeintliche Aktualität seiner Naturphilosophie zu erklären ist. Hier wird Schellings Naturphilosophie im Sinne eines Rezeptes gegen die ökologische Krise als der Versuch der Begründung eines anderen Naturbegriffs und einer neuen Natur-Ethik interpretiert.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Der in dieser Arbeit wesentliche Fokus ist die Realisierung eines anwendungsbezogenen Konzeptes zur Förderung stochastischer Kompetenzen im Mathematikunterricht, die sich auf Entscheiden und Urteilen unter Unsicherheit beziehen. Von zentraler Bedeutung ist hierbei die alltagsrelevante Kompetenz, mit Problemen um bedingte Wahrscheinlichkeiten und Anwendungen des Satzes von Bayes umgehen zu können, die i.w.S. mit „Bayesianischem Denken“ bezeichnet wird. Die historische und theoretische Grundlage der Arbeit sind kognitionspsychologische Erkenntnisse zum menschlichen Urteilen unter Unsicherheit: Intuitive Formen probabilistischen Denkens basieren auf Häufigkeitsanschauungen (z.B. Piaget & Inhelder, 1975; Gigerenzer, 1991). Meine didaktischen Analysen ergaben aber, dass der Umgang mit Unsicherheit im üblichen Stochastikunterricht nach einer häufigkeitsbasierten Einführung des Wahrscheinlichkeitsbegriffes (der ja bekanntlich vielfältige Interpretationsmöglichkeiten aufweist) nur noch auf Basis der numerischen Formate für Wahrscheinlichkeiten (z.B. Prozentwerte, Dezimalbrüche) und entsprechenden Regeln gelehrt wird. Damit werden m.E. grundlegende Intuitionen von Schülern leider nur unzureichend beachtet. Das in dieser Arbeit detailliert entwickelte „Didaktische Konzept der natürlichen Häufigkeiten“ schlägt somit die konsequente Modellierung probabilistischer Probleme mit Häufigkeitsrepräsentationen vor. Auf Grundlage empirischer Laborbefunde und didaktischer Analysen wurde im Rahmen der Arbeit eine Unterrichtsreihe „Authentisches Bewerten und Urteilen unter Unsicherheit“ für die Sekundarstufe I entwickelt (Wassner, Biehler, Schweynoch & Martignon, 2004 auch als Band 5 der KaDiSto-Reihe veröffentlicht). Zum einen erfolgte eine Umsetzung des „Didaktischen Konzeptes der natürlichen Häufigkeiten“, zum anderen wurde ein Zugang mit hohem Realitätsbezug verwirklicht, in dem so genannte „allgemeinere Bildungsaspekte“ wie Lebensvorbereitung, eigenständige Problemlösefähigkeit, kritischer Vernunftgebrauch, Sinnstiftung, motivationale Faktoren etc. wesentliche Beachtung fanden. Die Reihe wurde auch im Rahmen dieser Arbeit in der Sekundarstufe I (fünf 9. Klassen, Gymnasium) implementiert und daraufhin der Unterrichtsgang detailliert bewertet und analysiert. Diese Arbeit stellt die Dissertation des Verfassers dar, die an der Universität Kassel von Rolf Biehler betreut wurde. Sie ist identisch mit der Erstveröffentlichung 2004 im Franzbecker Verlag, Hildesheim, der der elektronischen Veröffentlichung im Rahmen von KaDiSto zugestimmt hat.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

In der Arbeit wird ein Ansatz für die destabilisierende Wirkung von adaptiven Hedge-Fonds Aktivitäten diskutiert und mit einer konkreten Implementation für den USD-JPY Carry Trade illustriert. Die sich dabei entwickelnde Marktdynamik wird systemtheoretisch durch den Prozess einer kollektiven Selbstorganisation erklärt. Die Neuerung des vorgestellten Ansatzes liegt darin, dass durch die Kombination von Fallstudien-/Simulations- und systemtheoretischer Methodik ein besserer Zugang zur Erklärung der Entstehung exzessiver Preisentwicklungen in Währungsmärkten gefunden werden konnte, als bisher mit traditionellen Ansätzen möglich war. In der Dissertation wird gezeigt, dass Hedge-Fonds nicht die alleinige Schuld für das Entstehen von Finanzmarktinstabilitäten trifft.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Soil organic matter (SOM) vitally impacts all soil functions and plays a key role in the global carbon (C) cycle. More than 70% of the terrestric C stocks that participate in the active C cycle are stored in the soil. Therefore, quantitative knowledge of the rates of C incorporation into SOM fractions of different residence time is crucial to understand and predict the sequestration and stabilization of soil organic carbon (SOC). Consequently, there is a need of fractionation procedures that are capable of isolating functionally SOM fractions, i.e. fractions that are defined by their stability. The literature generally refers to three main mechanisms of SOM stabilization: protection of SOM from decomposition by (i) its structural composition, i.e. recalcitrance, (ii) spatial inaccessibility and/or (iii) interaction with soil minerals and metal ions. One of the difficulties in developing fractionation procedures for the isolation of functional SOM fractions is the marked heterogeneity of the soil environment with its various stabilization mechanisms – often several mechanisms operating simultaneously – in soils and soil horizons of different texture and mineralogy. The overall objective of the present thesis was to evaluate present fractionation techniques and to get a better understanding of the factors of SOM sequestration and stabilization. The first part of this study is attended to the structural composition of SOM. Using 13C cross-polarization magic-angle spinning (CPMAS) nuclear magnetic resonance (NMR) spectroscopy, (i) the effect of land use on SOM composition was investigated and (ii) examined whether SOM composition contributes to the different stability of SOM in density and aggregate fractions. The second part of the present work deals with the mineral-associated SOM fraction. The aim was (iii) to evaluate the suitability of chemical fractionation procedures used in the literature for the isolation of stable SOM pools (stepwise hydrolysis, treatments using oxidizing agents like Na2S2O8, H2O2, and NaOCl as well as demineralization of the residue obtained by the NaOCl treatment using HF (NaOCl+HF)) by pool sizes, 13C and 14C data. Further, (iv) the isolated SOM fractions were compared to the inert organic matter (IOM) pool obtained for the investigated soils using the Rothamsted Carbon Model and isotope data in order to see whether the tested chemical fractionation methods produce SOM fractions capable to represent this pool. Besides chemical fractionation, (v) the suitability of thermal oxidation at different temperatures for obtaining stable SOC pools was evaluated. Finally, (vi) the short-term aggregate dynamics and the factors that impact macroaggregate formation and C stabilization were investigated by means of an incubation study using treatments with and without application of 15N labeled maize straw of different degradability (leaves and coarse roots). All treatments were conducted with and without the addition of fungicide. Two study sites with different soil properties and land managements were chosen for these investigations. The first one, located at Rotthalmünster, is a Stagnic Luvisol (silty loam) under different land use regimes. The Ah horizons of a spruce forest and continuous grassland and the Ap and E horizons of two plots with arable crops (continuous maize and wheat cropping) were examined. The soil of the second study site, located at Halle, is a Haplic Phaeozem (loamy sand) where the Ap horizons of two plots with arable crops (continuous maize and rye cropping) were investigated. Both study sites had a C3-/C4-vegetational change on the maize plot for the purpose of tracing the incorporation of the younger, maize-derived C into different SOM fractions and the calculation of apparent C turnover times of these. The Halle site is located near a train station and industrial areas, which caused a contamination with high amounts of fossil C. The investigation of aggregate and density fractions by 13C CPMAS NMR spectroscopy revealed that density fractionation isolated SOM fractions of different composition. The consumption of a considerable part (10–20%) of the easily available O-alkyl-C and the selective preservation of the more recalcitrant alkyl-C when passing from litter to the different particulate organic matter (POM) fractions suggest that density fractionation was able to isolate SOM fractions with different degrees of decomposition. The spectra of the aggregate fractions resembled those of the mineral-associated SOM fraction obtained by density fractionation and no considerable differences were observed between aggregate size classes. Comparison of plant litter, density and aggregate size fractions from soil under different land use showed that the type of land use markedly influenced the composition of SOM. While SOM of the acid forest soil was characterized by a large content (> 50%) of POM, which contained high amounts of spruce-litter derived alkyl-C, the organic matter in the biologically more active grassland and arable soils was dominated by mineral-associated SOM (> 95%). This SOM fraction comprised greater proportions of aryl- and carbonyl-C and is considered to contain a higher amount of microbially-derived organic substances. Land use can alter both, structure and stability of SOM fractions. All applied chemical treatments induced considerable SOC losses (> 70–95% of mineral-associated SOM) in the investigated soils. The proportion of residual C after chemical fractionation was largest in the arable Ap and E horizons and increased with decreasing C content in the initial SOC after stepwise hydrolysis as well as after the oxidative treatments with H2O2 and Na2S2O8. This can be expected for a functional stable pool of SOM, because it is assumed that the more easily available part of SOC is consumed first if C inputs decrease. All chemical treatments led to a preferential loss of the younger, maize-derived SOC, but this was most pronounced after the treatments with Na2S2O8 and H2O2. After all chemical fractionations, the mean 14C ages of SOC were higher than in the mineral-associated SOM fraction for both study sites and increased in the order: NaOCl < NaOCl+HF ≤ stepwise hydrolysis << H2O2 ≈ Na2S2O8. The results suggest that all treatments were capable of isolating a more stable SOM fraction, but the treatments with H2O2 and Na2S2O8 were the most efficient ones. However, none of the chemical fractionation methods was able to fit the IOM pool calculated using the Rothamsted Carbon Model and isotope data. In the evaluation of thermal oxidation for obtaining stable C fractions, SOC losses increased with temperature from 24–48% (200°C) to 100% (500°C). In the Halle maize Ap horizon, losses of the young, maize-derived C were considerably higher than losses of the older C3-derived C, leading to an increase in the apparent C turnover time from 220 years in mineral-associated SOC to 1158 years after thermal oxidation at 300°C. Most likely, the preferential loss of maize-derived C in the Halle soil was caused by the presence of the high amounts of fossil C mentioned above, which make up a relatively large thermally stable C3-C pool in this soil. This agrees with lower overall SOC losses for the Halle Ap horizon compared to the Rotthalmünster Ap horizon. In the Rotthalmünster soil only slightly more maize-derived than C3-derived SOC was removed by thermal oxidation. Apparent C turnover times increased slightly from 58 years in mineral-associated SOC to 77 years after thermal oxidation at 300°C in the Rotthalmünster Ap and from 151 to 247 years in the Rotthalmünster E horizon. This led to the conclusion that thermal oxidation of SOM was not capable of isolating SOM fractions of considerably higher stability. The incubation experiment showed that macroaggregates develop rapidly after the addition of easily available plant residues. Within the first four weeks of incubation, the maximum aggregation was reached in all treatments without addition of fungicide. The formation of water-stable macroaggregates was related to the size of the microbial biomass pool and its activity. Furthermore, fungi were found to be crucial for the development of soil macroaggregates as the formation of water-stable macroaggregates was significantly delayed in the fungicide treated soils. The C concentration in the obtained aggregate fractions decreased with decreasing aggregate size class, which is in line with the aggregate hierarchy postulated by several authors for soils with SOM as the major binding agent. Macroaggregation involved incorporation of large amounts maize-derived organic matter, but macroaggregates did not play the most important role in the stabilization of maize-derived SOM, because of their relatively low amount (less than 10% of the soil mass). Furthermore, the maize-derived organic matter was quickly incorporated into all aggregate size classes. The microaggregate fraction stored the largest quantities of maize-derived C and N – up to 70% of the residual maize-C and -N were stored in this fraction.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Im Mittelpunkt der Arbeit steht die Entwicklung eines Konzeptes einer psychoanalytischen Prävention zur Verhinderung von psychischen und psychosomatischen Erkrankungen bei Kindern im Alter von 0-3 Jahre unter Einbeziehung ihrer Eltern. Dieses soll nicht lediglich die Entstehung von Symptomen bei Kindern in statu nascendi verhindern, sondern darüber hinausgehend der Entfaltung einer stabilen altersgemäßen Persönlichkeit im Rahmen einer adäquaten, kindlichen, psychischen und körperlichen Entwicklung dienen. Ohne mögliche genetische Kofaktoren in Abrede zu stellen, werden in dieser Arbeit die schon in der Säuglingszeit beginnenden, sozialen und familiendynamischen Entwicklungsbedingungen von Kindern als die entscheidenden Variablen in den Überlegungen zur Psychopathologie angesehen, die auch in der Entwicklung des Gehirns über die daraus resultierenden frühen Bindungserfahrungen mit den Eltern eine entscheidende Rolle spielen. So können die Wurzeln von später verdrängten kindlichen Konflikten mit den Wünschen nach einem emotionalen Austausch in Bezug auf Ohnmachtserlebnisse bis in die früheste Kindheit hinein reichen und später u.a. zu Symptomen von Unaufmerksamkeit und Bewegungsunruhe führen. In der vorliegenden Arbeit werden psychoanalytisch reflektierte Interviews als hypothesengenerierendes Forschungsinstrument angewandt, mit dem sich das in der Übertragung und Gegenübertragung vermittelnde, individuelle, zugrunde liegende, innere Erleben erschließen lässt. Die dabei generierten Hypothesen werden durch Evidenzerlebnisse und Erweiterungen der Handlungsspielräume der Betroffenen bestätigt oder verworfen. Anhand einer nach intrafamiliären Kommunikationsstörungen, sozialen Status, psychischer und körperlicher Komorbidität und Alter ausgewählten Anzahl von fünf Einzelfalldarstellungen von beteiligten Familien wird ein Einblick in die auf die inner familiären Konfliktkonstellationen ausgerichteten Interventionstechniken ermöglicht. Unter Berücksichtigung der Abwehrstruktur der beteiligten Personen und einer auf einem emotionalen Verstehen basierenden Begleitung kommen dabei Interventionen, Konfrontationen, Deutungen und gelegentlich auch Beratungen zur Anwendung. Bei allen Familien konnte durch neue Beziehungserfahrungen zunächst in den Sitzungen und danach auch außerhalb eine Symptom- und Konfliktreduzierung bzw. -auflösung bei den Kindern und einigen der Erwachsenen erreicht werden. Zwei Erwachsene begannen eine eigene Psychotherapie, um u.a. ihre emotionalen Handlungsspielräume ihren Kindern gegenüber zu erweitern. Die Replizierbarkeit der Ergebnisse der Studie müssen der Langzeituntersuchung an ausreichend großen und differenzierten Stichproben vorbehalten bleiben.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Das Ziel der vorliegenden Arbeit war die Synthese und Charakterisierung von donor-funktionalisierten Spiro-Perylencarboximiden, welche für den Einsatz in optoelektronischen Bauelementen wie z.B. organischen Phototransistoren, Feldeffekttransistoren oder Solarzellen vorgesehen sind. Die donorfunktionalisierten Spiro-Perylencarboximide stellen kovalent gebundene Donor-Akzeptor-Verbindungen dar, die unter geeigneter Belichtung einen ladungsgetrennten Zustand bilden können. Die Verbindungen wurden aus unterschiedlichen Spiroamin- und Perylenanhydrid-Edukten synthetisiert, die im Baukastenprinzip zu den entsprechenden Zielverbindungen umgesetzt wurden. Mittels unterschiedlicher Charakterisierungsmethoden (z.B. DSC, TGA, CV, Absorptions- und Fluoreszenzmessungen) wurden die Eigenschaften der neuartigen Zielverbindungen untersucht. Im Rahmen der Arbeit wurden vier neue Spiroamin-Edukte erstmalig synthetisiert und charakterisiert. Sie wurden durch Reduktion aus den bisher noch nicht beschriebenen Nitroverbindungen bzw. mittels Pd-katalysierter Kreuzkupplung (Hartwig-Buchwald-Reaktion) aus einer halogenierten Spiroverbindung erhalten. Als Perylenanhydrid-Edukt wurde erstmals eine perfluorierte Perylenanhydrid-Imid-Verbindung hergestellt. Aus den Spiroamin- und Perylenanhydrid-Edukten wurden insgesamt neun neue, donorfunktionalisierte Spiro-Perylencarboximide synthetisiert. Zusätzlich wurden sechs neuartige Spiro-Perylencarboximide ohne Diphenylamin-Donor hergestellt, die als Vergleichsverbindungen dienten. Die donorfunktionalisierten Spiro-Perylencarboximide besitzen eine Absorption im UV- und sichtbaren Spektralbereich, wobei hohe Extinktionskoeffizienten erreicht werden. Die Verbindungen zeigen in verdünnter Lösung (sowohl in polaren als auch in unpolaren Lösungsmitteln) eine Fluoreszenzquantenausbeute unter 1 %, was auf einen effizienten Ladungstransfer zurückzuführen ist. Alle donorfunktionalisierten Spiro-Perylencarboximide zeigen in den CV-Messungen reversibles Verhalten. Mittels CV-Messungen und optischer Methode konnten die HOMO- und LUMO-Lagen der jeweiligen Molekülhälften berechnet und das Fluoreszenzverhalten der Verbindungen erklärt werden. Ebenso konnten die Auswirkungen von unterschiedlichen Substituenten auf die jeweiligen HOMO-/LUMO-Lagen näher untersucht werden. Die durchgeführten DSC- und TGA-Untersuchungen zeigen hohe morphologische und thermische Stabilität der Verbindungen, wobei Glasübergangstemperaturen > 211 °C, Schmelztemperaturen > 388 °C und Zersetzungstemperaturen > 453 °C gemessen wurden. Diese Werte sind höher als die bisher in der Literatur für ähnliche spiroverknüpfte Verbindungen berichteten. Als besonders interessant haben sich die unsymmetrischen donorfunktionalisierten Spiro-Perylencarboximide herausgestellt. Sie zeigen hohe Löslichkeit in gängigen Lösungsmitteln, sind bis zu einer Molmasse < 1227 g/mol aufdampfbar und bilden stabile, amorphe Schichten.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Die Arbeit soll einen Einblick in die Theorie der Kettenbrüche geben. Wir haben gesehen, dass schwer greifbare Zahlen als Kettenbrüche ausgedrückt werden können. Es ist besonders hervorzuheben, dass irrationale Zahlen mit Hilfe einer Abschätzung vereinfacht durch Kettenbrüche dargestellt werden können. Weiter sind wir auch darauf eingegangen, wie wir Kettenbrüche wieder in eine rationale Darstellung umwandeln können. Es wurde gezeigt, wie wir rationale Zahlen als endlichen Kettenbrüche schreiben können. Die endlichen Kettenbrüche lieferten uns dann die Grundlage, um unendliche zu betrachten, wobei das größte Augenmerk darauf gerichtet war, dass wir eine irrationale Zahl durch einen unendlichen Kettenbruch abschätzen können. Den Kern der Arbeit bildet der Kettenbruch-Algorithmus, mit dessen Hilfe wir irrationale Zahlen in einen Kettenbruch umwandeln können. Ein wichtiger Aspekt sind auch die Abschätzungen, die wir vorgenommen haben. Mit ihrer Hilfe können wir sehen, wie dicht die letzte Konvergente der Kettenbruchentwicklung an der gesuchten irrationalen Zahl liegt. Da die Konvergenten immer aus teilerfremden Zählern und Nennern bestehen, können wir sogar sagen, dass eine Konvergente die beste Approximation an eine irrationale Zahl bietet. Es ist die beste Approximation in dem Sinne, dass keine rationale Zahl mit kleinerem oder gleichem Nenner existiert, die die irrationale Zahl besser annähert. Ein weiterer wichtiger Aspekt der Kettenbruchtheorie ist, dass quadratische Irrationalitäten endlich durch einen periodischen Kettenbruch dargestellt werden können. Es ist bemerkenswert, dass Kettenbrüche von quadratischen Irrationalitäten eine Regelmäßigkeit aufweisen, so dass sie endlich als periodicher Kettenbruch geschrieben werden können.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Überblick über die Arbeit: "Die Notwendigkeit deutscher Kinderfernseh- und -filmproduktion ist unbestritten. Sie sind die Voraussetzung dafür, dass Kinder im Fernsehen ihre eigene Lebenswirklichkeit wiederfinden und zur Reflexion dieser Wirklichkeit angeregt werden."(Rosenbaum 2000) Kinderfernsehexperten wie Uwe Rosenbaum (Landessenderdirektor des Südwestrundfunks Rheinland-Pfalz) oder Armin Maiwald (Geschäftsführer der Flash Filmstudio GmbH, Produzent und Regisseur vieler Sachgeschichten der Sendung mit der Maus) vertreten die Meinung, dass in Deutschland mehr Kinderprogramm mit Kindern produziert werden müsse, die in Deutschland wohnen. Sie sind dabei auch der Meinung, Realprogramm sei qualitativ hochwertiger und damit für Kinder besser, als einseitiges, triviales Zeichentrickprogramm. Der Teil 1 greift diesen Diskurs auf und beschreibt ihn. Einen Beitrag zu diesem Diskurs möchte die Frageleisten, welche Darstellungsformen von Welt vom expliziten Kinderfernsehen angeboten werden und welche davon Kinder bevorzugen. Das Material einer systematischen Fernsehprogrammanalyse, die von den Nutzungspräferenzen der Kinder ausgeht, kann dabei helfen. Dabei konzentriere ich mich auf die zwei Aspekte "Animation" und "real", da der Diskurs Realfilm als qualitativ hochwertig ansieht und Animation in dieser Hinsicht das genaue Gegenteil darstellt. Dabei ist ein zentrales Ergebnis der Analyse, dass sich die Nutzungspräferenzen der Jungen und Mädchen in bezug auf realitätsnahes Programm sehr unterscheiden: Jungen sehen eher Zeichentrickprogramm und Mädchen sehen eher Realformate wie z.B. Soap-Operas. Das legt nahe, die Diskussion um Realitätsnähe im Kinderfernsehen aus geschlechterspezifischer Sicht zu betrachten und die Fragestellung der Arbeit dahingehend neu zu formulieren. Der zweite Teil der Arbeit sortiert zunächst die Begriffe "Realitätsnähe", "Realfilm" und "Zeichentrick", die im ersten Teil eingeführt wurden und trennt sie von einander. Die "Jährliche Bestandsaufnahme zum Kinderfernsehen - qualitative und quantitative Fernsehprogrammanalyse in der Sicht der Kinder" dient dazu, im Kinderfernsehen die Spuren des Diskurses wieder zu finden. Die systematische Suche nach solchen Programmen macht es nötig, mit Hilfe operationalisierter Begriffe, Fernsehprogramm zu kodieren. Dabei bieten sich bereits vorhandene Kodes zur Realitätsnähe an. Für die Auswertung sind zudem auch Zugänge über weitere Kodes wie z.B. Information/ Unterhaltung oder Fiction/ Non-Fiction möglich. Die Ansätze in Teil 1 und 2 waren bis dahin umgangssprachliche Formulierungen, deshalb folgt im dritten Teil der Arbeit ein Exkurs in die Theorie, um den Begriff der Realitätsnähe im Fernsehen theoretisch zu begründen und um Realfilm und Animation theoretisch zu beschreiben. Zwei Themenfelder sind hierbei wesentlich: Das erste Themenfeld behandelt die Wirklichkeitskonstruktion im Fernsehen mit den Autoren Alfred Schütz, Thomas Luckmann und Jürgen Fritz. Das Wesentliche in diesem Abschnitt ist der Versuch Realfilm und Zeichentrick als geschlossene Sinngebiete wie "reale Welt" und "Spielwelt" zu verstehen, da geschlossenen Sinngebieten spezifische, eigene Erlebnis- und Erkenntnisstile zugrunde liegen. Fazit dieser Überlegung ist, dass Realfilm und Zeichentrick einander nicht über- oder untergeordnet sind, sondern formal nebeneinander mit unterschiedlichen Erkenntnis- und Erlebnisstilen in Erscheinung treten, bzw. in ihnen unterschiedliche Erlebnis- und Erkenntnisstile angelegt sind. Das zweite Themenfeld widmet sich der von David Buckingham so genannten "Perceived Reality", die nach der Wahrnehmung der Kinder von Wirklichkeit im Fernsehen fragt. Dabei geht es um die Frage, wie Kinder die Realität des Fernsehens beurteilen. Ein Fazit ist hierbei, dass Kinder an Fernsehsendungen keine allgemeingültige Messlatte anlegen, um die Realitätsnähe zu bestimmen, sondern Kinder handeln die Realitätsnähe von Sendungen und deren Bewertung in sozialen Kontexten mit Peers und Erwachsenen je nach Situation aus. Der vierte Teil der Arbeit wertet die Kodierung aus dem zweiten Teil aus und präsentiert Ergebnisse. In diesem Teil werden verschiedene Auswertungsverfahren ausprobiert, um Muster in der Rezeption und im Ein- und Ausschaltverhalten der Kinder in bezug auf Realitätsnähe zu finden. Nachdem Überblick über das Angebot an realitätsnahem Kinderfernsehprogramm, folgt die Auswertung der Nutzung des Kinderprogramms. Hierbei steht die Frage im Vordergrund, in welchem Ausmaß Kinder realitätsnahe Programme nutzen und welche geschlechterspezifischen Unterschiede es in der Nutzung Formate "Animation" und "real" gibt. Im Groben werden in diesem Kapitel zahlreiche Listen präsentiert, Sendungen beschrieben und vor allem unterschiedliche Altersgruppen sowie Geschlechter berücksichtigt. Eines der auffälligsten Merkmale wird sein, dass Jungen in Bezug auf die eingangs eröffneten Begriffe andere Präferenzen und Fernsehnutzungsmuster zeigen als Mädchen. Im Gegensatz zu Mädchen sehen die Jungen eher weniger Realprogramm und eher mehr Animationsprogramm. Kinder im Fernsehen stehen stellvertretend für Muster und Typen von Kindern der realen Welt. Das legitimiert anhand der Typologie der Kinder nach Freizeitmustern , nach diesen Kindertypen im Fernsehen und bei den Zuschauern zu suchen. Ein Ergebnis bestätigte die Beobchtung, dass Mädchen neben Realprogramm auch Zeichentrick sehen, und Jungen nur Zeichentrick. Anhand der bis dort gewonnenen Ergebnisse und zweier Beispiele aus dem Schulalltag folgt abschließend in Teil 5 ein pädagogisches Fazit. Der Umgang von Jungen mit Medien wird häufig problematisiert und so wie es sich in den Ergebnissen dieser und anderer Arbeiten wie der PISA2000-Studie oder in der Typologie der Freizeitmuster darstellt, könnte man durchaus den Eindruck gewinnen, dass Jungen eine schwierige Beziehung zu Medien haben. Deshalb muss man sich vermutlich zunächst eingestehen, dass Jungen eher Zeichentrick und Mädchen eher Soaps gucken, um danach Jungen emphatisch in Bezug auf ihre Mediennutzungsmuster zu begegnen und ihre Vorlieben nicht zu trivialisieren oder zu verurteilen. Das hat pädagogische Bedeutung für die Schule, wie die beiden Beispiele zeigen.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

In der vorliegenden Arbeit wird die Konzeption und Realisierung der Persistenz-, Verteilungs- und Versionierungsbibliothek CoObRA 2 vorgestellt. Es werden zunächst die Anforderungen an ein solches Rahmenwerk aufgenommen und vorhandene Technologien für dieses Anwendungsgebiet vorgestellt. Das in der neuen Bibliothek eingesetzte Verfahren setzt Änderungsprotokolle beziehungsweise -listen ein, um Persistenzdaten für Dokumente und Versionen zu definieren. Dieses Konzept wird dabei durch eine Abbildung auf Kontrukte aus der Graphentheorie gestützt, um die Semantik von Modell, Änderungen und deren Anwendung zu definieren. Bei der Umsetzung werden insbesondere das Design der Bibliothek und die Entscheidungen, die zu der gewählten Softwarearchitektur führten, eingehend erläutert. Dies ist zentraler Aspekt der Arbeit, da die Flexibilität des Rahmenwerks eine wichtige Anforderung darstellt. Abschließend werden die Einsatzmöglichkeiten an konkreten Beispielanwendungen erläutert und bereits gemachte Erfahrungen beim Einsatz in CASE-Tools, Forschungsanwendungen und Echtzeit-Simulationsumgebungen präsentiert.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Die vorliegende Arbeit berichtet über ein neuartiges, kombiniertes Messverfahren zur gleichzeitigen Erfassung von Form und Material einer glänzenden Probenoberfläche. Die Materialerkennung erfolgt über die polarisationsoptische Brechzahlbestimmung im Messpunkt mit Mikroellipsometrie. Die Mikroellipsometrie ist ein fokussierendes Ellipsometer, das aus der Polarisationsänderung, bedingt durch die Wechselwirkung Licht – Materie, die materialcharakteristische komplexe Brechzahl eines reflektierenden Materials ermitteln kann. Bei der fokussierenden Ellipsometrie ist die Anordnung der fokussierenden Optiken von Bedeutung. Die hier vorgestellte ellipsometerexterne Fokussierung vermeidet Messfehler durch optische Anisotropien und ermöglicht die multispektrale ellipsometrische Messung. Für die ellipsometrische Brechzahlbestimmung ist zwingend die Kenntnis des Einfallswinkels des Messstrahls und die räumliche Orientierung der Oberflächenneigung zum Koordinatensystem des Ellipsometers notwendig. Die Oberflächenneigung wird mit einem Deflektometer ermittelt, das speziell für den Einsatz in Kombination mit der Ellipsometrie entwickelt wurde. Aus der lokalen Oberflächenneigung kann die Topographie einer Probe rekonstruiert werden. Der Einfallswinkel ist ebenfalls aus den Oberflächenneigungen ableitbar. Die Arbeit stellt die Systemtheorie der beiden kombinierten Messverfahren vor, außerdem werden Beiträge zu Messunsicherheiten diskutiert. Der experimentelle Teil der Arbeit beinhaltet die separate Untersuchung zur Leistungsfähigkeit der beiden zu kombinierenden Messverfahren. Die experimentellen Ergebnisse erlauben die Schlussfolgerung, dass ein Mikro-Deflexions-Ellipsometer erfolgreich realisierbar ist.

Relevância:

80.00% 80.00%

Publicador:

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Mit aktiven Magnetlagern ist es möglich, rotierende Körper durch magnetische Felder berührungsfrei zu lagern. Systembedingt sind bei aktiv magnetgelagerten Maschinen wesentliche Signale ohne zusätzlichen Aufwand an Messtechnik für Diagnoseaufgaben verfügbar. In der Arbeit wird ein Konzept entwickelt, das durch Verwendung der systeminhärenten Signale eine Diagnose magnetgelagerter rotierender Maschinen ermöglicht und somit neben einer kontinuierlichen Anlagenüberwachung eine schnelle Bewertung des Anlagenzustandes gestattet. Fehler können rechtzeitig und ursächlich in Art und Größe erkannt und entsprechende Gegenmaßnahmen eingeleitet werden. Anhand der erfassten Signale geschieht die Gewinnung von Merkmalen mit signal- und modellgestützten Verfahren. Für den Magnetlagerregelkreis erfolgen Untersuchungen zum Einsatz modellgestützter Parameteridentifikationsverfahren, deren Verwendbarkeit wird bei der Diagnose am Regler und Leistungsverstärker nachgewiesen. Unter Nutzung von Simulationsmodellen sowie durch Experimente an Versuchsständen werden die Merkmalsverläufe im normalen Referenzzustand und bei auftretenden Fehlern aufgenommen und die Ergebnisse in einer Wissensbasis abgelegt. Diese dient als Grundlage zur Festlegung von Grenzwerten und Regeln für die Überwachung des Systems und zur Erstellung wissensbasierter Diagnosemodelle. Bei der Überwachung werden die Merkmalsausprägungen auf das Überschreiten von Grenzwerten überprüft, Informationen über erkannte Fehler und Betriebszustände gebildet sowie gegebenenfalls Alarmmeldungen ausgegeben. Sich langsam anbahnende Fehler können durch die Berechnung der Merkmalstrends mit Hilfe der Regressionsanalyse erkannt werden. Über die bisher bei aktiven Magnetlagern übliche Überwachung von Grenzwerten hinaus erfolgt bei der Fehlerdiagnose eine Verknüpfung der extrahierten Merkmale zur Identifizierung und Lokalisierung auftretender Fehler. Die Diagnose geschieht mittels regelbasierter Fuzzy-Logik, dies gestattet die Einbeziehung von linguistischen Aussagen in Form von Expertenwissen sowie die Berücksichtigung von Unbestimmtheiten und ermöglicht damit eine Diagnose komplexer Systeme. Für Aktor-, Sensor- und Reglerfehler im Magnetlagerregelkreis sowie Fehler durch externe Kräfte und Unwuchten werden Diagnosemodelle erstellt und verifiziert. Es erfolgt der Nachweis, dass das entwickelte Diagnosekonzept mit beherrschbarem Rechenaufwand korrekte Diagnoseaussagen liefert. Durch Kaskadierung von Fuzzy-Logik-Modulen wird die Transparenz des Regelwerks gewahrt und die Abarbeitung der Regeln optimiert. Endresultat ist ein neuartiges hybrides Diagnosekonzept, welches signal- und modellgestützte Verfahren der Merkmalsgewinnung mit wissensbasierten Methoden der Fehlerdiagnose kombiniert. Das entwickelte Diagnosekonzept ist für die Anpassung an unterschiedliche Anforderungen und Anwendungen bei rotierenden Maschinen konzipiert.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Bei Dämmen auf wenig tragfähigem Untergrund ist es zwischenzeitlich Stand der Technik, an der Dammbasis eine Bewehrung aus hochzugfesten Geokunststoffen (Gewebe oder Geogitter) einzulegen. Dabei können die Bewehrungslagen direkt auf den weichen Boden oder über Pfahlelementen angeordnet werden, die die Dammlasten in tiefere, tragfähigere Schichten abtragen. Die horizontale Bewehrung an der Dammbasis hat die Aufgabe, die vertikalen Dammlasten und die nach außen wirkenden Spreizkräfte aufzunehmen. Dies ist besonders für bewehrte Tragschichten über Pfählen von großer Bedeutung, da sonst die Pfähle/Säulen eine Biegebeanspruchung erhalten, die sie aufgrund des geringen Durchmessers (oftmals unbewehrt) nicht aufnehmen können. Abgesicherte wissenschaftliche Erkenntnisse über Größe und Verteilung der Spreizspannung in Höhe ober- und unterhalb der Bewehrungslagen liegen derzeit noch nicht vor, aus denen dann auch die Beanspruchung abzuleiten ist, die aus der Spreizwirkung bei der Geokunststoffbemessung zu berücksichtigen ist. Herr Dr.-Ing. Gourge Fahmi hat dafür zunächst den Kenntnisstand zur Spreizbeanspruchung ohne und mit Bewehrung sowie ohne und mit Pfahlelementen zusammengefasst. Ein wesentlicher Teil einer wissenschaftlichen Untersuchungen stellt die Modellversuche in einem relativ großen Maßstab dar, die u. a. auch zur Validierung von numerischen Berechnungen zur Fragestellung vorgesehen waren. Dabei konnte nach gewissen Parameteranpassungen überwiegend eine gute Übereinstimmung zwischen Modellversuchen und FEM-Berechnungen erreicht werden. Lediglich bei den Dehnungen bzw. Zugkräften in den Geogittern über Pfahlelementen ergab die FEM bei dem verwendeten Programmsystem viel zu niedrige Werte. Es wurde dazu in der Arbeit anhand eigener Untersuchungen und Vergleichsergebnissen aus der Literatur eine Hypothese formuliert und zunächst die Berechnungsergebnisse mit einem Faktor angepasst. Mit den durchgeführten Verifikationen stand damit dann ein weitestgehend abgesichertes numerisches Berechnungsmodell zur Verfügung. Aufbauend auf diesen Vorarbeiten konnten Parameterstudien mit numerischen und analytischen Methoden zur Spreizproblematik durchgeführt werden. Dabei wurden die Randbedingungen und Parametervariationen sinnvoll und für die Fragestellung zutreffend gewählt. Die numerischen Verfahren ergaben vertiefte Erkenntnisse zur Mechanik und zum Verhalten der Konstruktion. Die analytischen Vergleichsberechnungen validierten primär die Güte dieser vereinfachten Ansätze für praktische Berechnungen. Zusammenfassend wurde festgestellt, dass erwartungsgemäß die Spreizkräfte im Geogitter nahezu linear mit der Dammhöhe anwachsen. Von besonderer Bedeutung für die Größe der Spreizkräfte ist die Steifigkeit der Weichschichten. Dieser Parameter wird bei den bisher bekannten analytischen Berechnungsverfahren nicht berücksichtigt. Je weicher der Untergrund, je größer wird das Verhältnis zwischen Spreiz- und Membranbeanspruchung. Eine steilere Dammböschung hat erwartungsgemäß ebenfalls eine höhere Spreizwirkung zur Folge. Des Weiteren ergeben sich bei mehrlagigen Geogittern die höheren Beanspruchungen in der unteren Lage aus dem Membraneffekt und in der oberen Lage aus dem Spreizeffekt. Zu diesen Erkenntnissen wurden in der Arbeit erste Vorschläge für die praktischen Bemessungen gemacht, die aber noch weiter zu optimieren sind. Schließlich erfolgt von Herrn Fahmi eine Betrachtung der Pfahlelementbeanspruchung aus Pfahlkopfverschiebung und Biegemomenten. Dabei wurde ersichtlich, dass die Pfahlelemente bei hohen Dämmen erhebliche Beanspruchungen erhalten können, wenn relativ weicher Untergrund vorhanden ist, und es zeigt die Notwendigkeit entsprechend abgesicherter Bemessungsverfahren auf.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Bildbasierte Authentifizierung und Verschlüsselung: Identitätsbasierte Kryptographie (oft auch identity Based Encryption, IBE) ist eine Variation der asymmetrischen Schlüsselverfahren, bei der der öffentliche Schlüssel des Anwenders eine beliebig wählbare Zeichenfolge sein darf, die dem Besitzer offensichtlich zugeordnet werden kann. Adi Shamir stellte 1984 zunächst ein solches Signatursystem vor. In der Literatur wird dabei als öffentlicher Schlüssel meist die Email-Adresse oder eine Sozialversicherungsnummer genannt. Der Preis für die freie Schlüsselwahl ist die Einbeziehung eines vertrauenswürdigen Dritten, genannt Private Key Generator, der mit seinem privaten Generalschlüssel den privaten Schlüssel des Antragstellers generiert. Mit der Arbeit von Boneh und Franklin 2001 zum Einsatz der Weil-Paarbildung über elliptischen Kurven wurde IBE auf eine sichere und praktikable Grundlage gestellt. In dieser Arbeit wird nach einer allgemeinen Übersicht über Probleme und Lösungsmöglichkeiten für Authentifizierungsaufgaben im zweiten Teil als neue Idee der Einsatz eines Bildes des Anwenders als öffentlicher Schlüssel vorgeschlagen. Dazu wird der Ablauf der Schlüsselausgabe, die Bestellung einer Dienstleistung, z. B. die Ausstellung einer personengebundenen Fahrkarte, sowie deren Kontrolle dargestellt. Letztere kann offline auf dem Gerät des Kontrolleurs erfolgen, wobei Ticket und Bild auf dem Handy des Kunden bereitliegen. Insgesamt eröffnet sich dadurch die Möglichkeit einer Authentifizierung ohne weitere Preisgabe einer Identität, wenn man davon ausgeht, dass das Bild einer Person angesichts allgegenwärtiger Kameras sowieso öffentlich ist. Die Praktikabilität wird mit einer Implementierung auf der Basis des IBE-JCA Providers der National University of Ireland in Maynooth demonstriert und liefert auch Aufschluss auf das in der Praxis zu erwartende Laufzeitverhalten.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Unternehmen konkurrieren in einem globalen Wettbewerb um den Transfer neuer Technologien in erfolgreiche Geschäftsmodelle. Aus diesem Grund stehen sie zunehmend der Herausforderung gegenüber, technologische Potenziale frühzeitig zu identifizieren, zu bewerten und Strategien für das Erschließen dieser Potenziale zu entwickeln. Dies ist zentraler Gegenstand der Vorausschau und Planung neuer Technologiepfade. In der vorliegenden Arbeit wird gemeinsam mit vier Unternehmen ein Leitfaden für die Strategiefindung, Entwicklung und Kommerzialisierung neu aufkommender Technologien entwickelt und angewendet. Den Ausgangspunkt der Arbeit bildet eine systematische Aufarbeitung des Forschungsstandes der Vorausschau und Planung neuer Technologien. Anschließend wird ein Beschreibungsmodell der Entstehung neuer Technologiepfade in technologiebasierten Innovationssystemen entwickelt. Auf Basis dieses Modells werden unterschiedliche Kategorien von Einflussfaktoren definiert, die als Analyserahmen für die neu entstehende Technologie dienen. Auf Basis der in der Literatur dokumentierten Abläufe, Teamstrukturen und Methoden (z.B. Roadmaps, Szenarien, Datenbankanalysen) wird ein sechsstufiger Ansatz für die Durchführung der Vorausschau und Planung neuer Technologiepfade konzipiert. Dieser Ansatz wird in vier Firmen für die Vorausschau und Planung neuer Technologien angewendet. Die untersuchten Technologien lassen sich den Feldern Biotechnologie, Nanotechnologie, Umwelttechnologie und Sensorik zuordnen. Zentrales Ergebnis der Arbeit ist ein entsprechend der Erfahrungen in den Unternehmen angepasster Ansatz für die Vorausschau und Planung neuer Technologiepfade. Dieser Ansatz ist in Abhängigkeit von Unternehmens- und Technologiecharakteristika für die weitere Anwendung konkretisiert. Dabei finden die zu beteiligenden Organisationseinheiten, zu betrachtende Einflussfaktoren sowie anwendbare Methoden besondere Berücksichtigung. Die Arbeit richtet sich an Personen in Führungspositionen im Bereich des strategischen Technologiemanagements sowie der Forschung und Entwicklung in Unternehmen, die Strategien für neu aufkommende Technologien entwickeln. Weiterhin sind die Ergebnisse der Arbeit für Wissenschaftler auf dem Gebiet der Methoden zur Vorausschau und Strategieentwicklung für neue Technologien von Interesse.