431 resultados para STL-Modelle


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Dissertation "Individualisierung und Sozialstruktur - objektive und subjektive Dimensionen sozialer Ungleichheit" setzt sich mit einem zentralen Problem der gegenwärtigen Sozialstrukturforschung in den westlichen Industrienationen und im Speziellen in Deutschland auseinander: Im Zuge der Diskussion um die Modernisierung und Individualisierung gesellschaftlicher Strukturen sind die Begriffe "Klasse" und "Schicht" sowie die zugehörigen theoretischen und methodischen Konzepte zunehmender Kritik ausgesetzt. Als ein Resultat dieser Debatte kann die zunehmende Popularität neuer Konzepte angesehen werden, die soziale Differenzierungen eher in einem horizontal-soziokulturellen Kontext deuten und theoretisch an das Individuum knüpfen. Die vorliegende Arbeit zeigt, dass diese "neuen" Milieu- und Lebensstilmodelle einen radikalen Bruch mit den theoretischen Grundlagen der Sozialstrukturanalyse darstellen und als holistische Modelle zur Beschreibung und Deutung sozialer Strukturen ebenso einseitig erscheinen, wie das ihrerseits kritisierte vertikale Paradigma der Klassen- und Schichtungssoziologie. Aus diesem Grunde wird hier ein integratives Konzept entwickelt und vorgeschlagen, das objektive und subjektive Dimensionen sozialer Ungleichheit in einem einheitlichem theoretischen Rahmen sinnvoll miteinander verknüpft und somit in der Lage ist Aspekte von Individualisierung und vertikaler Ungleichheit zu verbinden. Die vielseitigen Möglichkeiten und Vorteile, die ein solches "flexibles Habituskonzept" im Sinne einer umfassenderen und zeitgemäßen Sozialstrukturanalyse bietet, werden anhand einer Sekundäranalyse aktueller Daten aus der Lebensstilforschung aufgezeigt und können somit die entwickelte theoretische Perspektive nachhaltig bestätigen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Summation ueber des vollstaendige Spektrum des Atoms, die in der Stoehrungstheorie zweiter Ordnung vorkommt, wurde mit Hilfe der Greenschen Funktion Methode berechnet. Die Methode der Greenschen Funktion verlangt die Berechnung der unterschiedlichen Greenschen Funktionen: eine Coulomb-Greensche-Funktion im Fall von wasserstoffaehnlichen Ionen und eine Zentral-feld-Greensche-Funktion im Fall des Vielelektronen-Atoms. Die entwickelte Greensche Funktion erlaubte uns die folgenden atomaren Systeme in die Zweiphotonenionisierung der folgenden atomaren Systeme zu untersuchen: - wasserstoffaehnliche Ionen, um relativistische und Multipol-Effekte aufzudecken, - die aeussere Schale des Lithium; Helium und Helium-aehnliches Neon im Grundzustand, um taugliche Modelle des atomaren Feldes zu erhalten, - K- und L-Schalen des Argon, um die Vielelektronen-Effekte abzuschaetzen. Zusammenfassend, die relativistische Effekte ergeben sich in einer allgemeinen Reduzierung der Zweiphotonen Wirkungsquerschnitte. Zum Beispiel, betraegt das Verhaeltnis zwischen den nichtrelativistischen und relativistischen Wirkungsquerschnitten einen Faktor zwei fuer wasserstoffaehnliches Uran. Ausser dieser relativistischen Kontraktion, ist auch die relativistische Aufspaltung der Zwischenzustaende fuer mittelschwere Ionen sichtbar. Im Gegensatz zu den relativistischen Effekten, beeinflussen die Multipol-Effekte die totalen Wirkungsquerschnitte sehr wenig, so dass die Langwellennaeherung mit der exakten Naeherung fuer schwere Ionen sogar innerhalb von 5 Prozent uebereinstimmt. Die winkelaufgeloesten Wirkungsquerschnitte werden durch die relativistischen Effekte auf eine beeindruckende Weise beeinflusst: die Form der differentiellen Wirkungsquerschnitte aendert sich (qualitativ) abhaengig von der Photonenenergie. Ausserdem kann die Beruecksichtigung der hoeheren Multipole die elektronische Ausbeute um einen Faktor drei aendern. Die Vielelektronen-Effekte in der Zweiphotonenionisierung wurden am Beispiel der K- und L-Schalen des Argon analysiert. Hiermit wurden die totalen Wirkungsquerschnitte in einer Ein-aktives-Elektron-Naeherung (single-active-electron approximation) berechnet. Es hat sich herausgestellt, dass die Elektron--Elektron-Wechselwirkung sehr wichtig fuer die L-Schale und vernachlaessigbar fuer die K-Schale ist. Das bedeutet, dass man die totalen Wirkungsquerschnitte mit wasserstoffaehnlichen Modellen im Fall der K-Schale beschreiben kann, aber fuer die L-Schale fortgeschrittene Modelle erforderlich sind. Die Ergebnisse fuer Vielelektronen-Atome wurden mittels einer Dirac-Zentral-feld-Greenschen Funktion erlangt. Ein numerischer Algorithmus wurde urspruenglich von McGuire (1981) fuer der Schroedinger-Zentral-feld-Greensche Funktion eingefuehrt. Der Algorithmus wurde in dieser Arbeit zum ersten Mal fuer die Dirac-Gleichung angewandt. Unser Algorithmus benutzt die Kummer- und Tricomi-Funktionen, die mit Hilfe eines zuverlaessigen, aber noch immer langsamen Programmes berechnet wurden. Die Langsamkeit des Programms begrenzt den Bereich der Aufgaben, die effizient geloest werden koennen. Die Zentral-feld-Greensche Funktion konnte bei den folgenden Problemen benutzt werden: - Berechnung der Zweiphotonen-Zerfallsraten, - Berechnung der Zweiphotonenanregung und -ionisierungs-Wirkungsquerschnitte, - Berechnung die Multiphotonenanregung und -ionisierungs-Wirkungsquerschnitte, - Berechnung einer atomaren Vielelektronen-Green-Funktion. Von diesen Aufgaben koennen nur die ersten beiden in angemessener Zeit geloest werden. Fuer die letzten beiden Aufgaben ist unsere Implementierung zu langsam und muss weiter verbessert werden.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Landwirtschaft spielt eine zentrale Rolle im Erdsystem. Sie trägt durch die Emission von CO2, CH4 und N2O zum Treibhauseffekt bei, kann Bodendegradation und Eutrophierung verursachen, regionale Wasserkreisläufe verändern und wird außerdem stark vom Klimawandel betroffen sein. Da all diese Prozesse durch die zugrunde liegenden Nährstoff- und Wasserflüsse eng miteinander verknüpft sind, sollten sie in einem konsistenten Modellansatz betrachtet werden. Dennoch haben Datenmangel und ungenügendes Prozessverständnis dies bis vor kurzem auf der globalen Skala verhindert. In dieser Arbeit wird die erste Version eines solchen konsistenten globalen Modellansatzes präsentiert, wobei der Schwerpunkt auf der Simulation landwirtschaftlicher Erträge und den resultierenden N2O-Emissionen liegt. Der Grund für diese Schwerpunktsetzung liegt darin, dass die korrekte Abbildung des Pflanzenwachstums eine essentielle Voraussetzung für die Simulation aller anderen Prozesse ist. Des weiteren sind aktuelle und potentielle landwirtschaftliche Erträge wichtige treibende Kräfte für Landnutzungsänderungen und werden stark vom Klimawandel betroffen sein. Den zweiten Schwerpunkt bildet die Abschätzung landwirtschaftlicher N2O-Emissionen, da bislang kein prozessbasiertes N2O-Modell auf der globalen Skala eingesetzt wurde. Als Grundlage für die globale Modellierung wurde das bestehende Agrarökosystemmodell Daycent gewählt. Neben der Schaffung der Simulationsumgebung wurden zunächst die benötigten globalen Datensätze für Bodenparameter, Klima und landwirtschaftliche Bewirtschaftung zusammengestellt. Da für Pflanzzeitpunkte bislang keine globale Datenbasis zur Verfügung steht, und diese sich mit dem Klimawandel ändern werden, wurde eine Routine zur Berechnung von Pflanzzeitpunkten entwickelt. Die Ergebnisse zeigen eine gute Übereinstimmung mit Anbaukalendern der FAO, die für einige Feldfrüchte und Länder verfügbar sind. Danach wurde das Daycent-Modell für die Ertragsberechnung von Weizen, Reis, Mais, Soja, Hirse, Hülsenfrüchten, Kartoffel, Cassava und Baumwolle parametrisiert und kalibriert. Die Simulationsergebnisse zeigen, dass Daycent die wichtigsten Klima-, Boden- und Bewirtschaftungseffekte auf die Ertragsbildung korrekt abbildet. Berechnete Länderdurchschnitte stimmen gut mit Daten der FAO überein (R2 = 0.66 für Weizen, Reis und Mais; R2 = 0.32 für Soja), und räumliche Ertragsmuster entsprechen weitgehend der beobachteten Verteilung von Feldfrüchten und subnationalen Statistiken. Vor der Modellierung landwirtschaftlicher N2O-Emissionen mit dem Daycent-Modell stand eine statistische Analyse von N2O-und NO-Emissionsmessungen aus natürlichen und landwirtschaftlichen Ökosystemen. Die als signifikant identifizierten Parameter für N2O (Düngemenge, Bodenkohlenstoffgehalt, Boden-pH, Textur, Feldfrucht, Düngersorte) und NO (Düngemenge, Bodenstickstoffgehalt, Klima) entsprechen weitgehend den Ergebnissen einer früheren Analyse. Für Emissionen aus Böden unter natürlicher Vegetation, für die es bislang keine solche statistische Untersuchung gab, haben Bodenkohlenstoffgehalt, Boden-pH, Lagerungsdichte, Drainierung und Vegetationstyp einen signifikanten Einfluss auf die N2O-Emissionen, während NO-Emissionen signifikant von Bodenkohlenstoffgehalt und Vegetationstyp abhängen. Basierend auf den daraus entwickelten statistischen Modellen betragen die globalen Emissionen aus Ackerböden 3.3 Tg N/y für N2O, und 1.4 Tg N/y für NO. Solche statistischen Modelle sind nützlich, um Abschätzungen und Unsicherheitsbereiche von N2O- und NO-Emissionen basierend auf einer Vielzahl von Messungen zu berechnen. Die Dynamik des Bodenstickstoffs, insbesondere beeinflusst durch Pflanzenwachstum, Klimawandel und Landnutzungsänderung, kann allerdings nur durch die Anwendung von prozessorientierten Modellen berücksichtigt werden. Zur Modellierung von N2O-Emissionen mit dem Daycent-Modell wurde zunächst dessen Spurengasmodul durch eine detailliertere Berechnung von Nitrifikation und Denitrifikation und die Berücksichtigung von Frost-Auftau-Emissionen weiterentwickelt. Diese überarbeitete Modellversion wurde dann an N2O-Emissionsmessungen unter verschiedenen Klimaten und Feldfrüchten getestet. Sowohl die Dynamik als auch die Gesamtsummen der N2O-Emissionen werden befriedigend abgebildet, wobei die Modelleffizienz für monatliche Mittelwerte zwischen 0.1 und 0.66 für die meisten Standorte liegt. Basierend auf der überarbeiteten Modellversion wurden die N2O-Emissionen für die zuvor parametrisierten Feldfrüchte berechnet. Emissionsraten und feldfruchtspezifische Unterschiede stimmen weitgehend mit Literaturangaben überein. Düngemittelinduzierte Emissionen, die momentan vom IPCC mit 1.25 +/- 1% der eingesetzten Düngemenge abgeschätzt werden, reichen von 0.77% (Reis) bis 2.76% (Mais). Die Summe der berechneten Emissionen aus landwirtschaftlichen Böden beträgt für die Mitte der 1990er Jahre 2.1 Tg N2O-N/y, was mit den Abschätzungen aus anderen Studien übereinstimmt.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Diese Arbeit umfaßt das elektromechanische Design und die Designoptimierung von weit durchstimmbaren optischen multimembranbasierten Bauelementen, mit vertikal orientierten Kavitäten, basierend auf der Finiten Element Methode (FEM). Ein multimembran InP/Luft Fabry-Pérot optischer Filter wird dargestellt und umfassend analysiert. In dieser Arbeit wird ein systematisches strukturelles Designverfahren dargestellt. Genaue analytische elektromechanischer Modelle für die Bauelemente sind abgeleitet worden. Diese können unschätzbare Werkzeuge sein, um am Anfang der Designphase schnell einen klaren Einblick zur Verfügung zu stellen. Mittels des FEM Programms ist der durch die nicht-lineare Verspannung hervorgerufene versteifende Effekt nachgeforscht und sein Effekt auf die Verlängerung der mechanischen Durchstimmungsstrecke der Bauelemente demonstriert worden. Interessant war auch die Beobachtung, dass die normierte Relation zwischen Ablenkung und Spannung ein unveränderliches Profil hat. Die Deformation der Membranflächen der in dieser Arbeit dargestellten Bauelementformen erwies sich als ein unerwünschter, jedoch manchmal unvermeidbarer Effekt. Es zeigt sich aber, dass die Wahl der Größe der strukturellen Dimensionen den Grad der Membrandeformation im Falle der Aktuation beeinflusst. Diese Arbeit stellt ein elektromechanisches in FEMLAB implementierte quasi-3D Modell, das allgemein für die Modellierung dünner Strukturen angewendet werden kann, dar; und zwar indem man diese als 2D-Objekte betrachtet und die dritte Dimension als eine konstante Größe (z.B. die Schichtdicke) oder eine Größe, welche eine mathematische Funktion ist, annimmt. Diese Annahme verringert drastisch die Berechnungszeit sowie den erforderlichen Arbeitsspeicherbedarf. Weiter ist es für die Nachforschung des Effekts der Skalierung der durchstimmbaren Bauelemente verwendet worden. Eine neuartige Skalierungstechnik wurde abgeleitet und verwendet. Die Ergebnisse belegen, dass das daraus resultierende, skalierte Bauelement fast genau die gleiche mechanische Durchstimmung wie das unskalierte zeigt. Die Einbeziehung des Einflusses von axialen Verspannungen und Gradientenverspannungen in die Berechnungen erforderte die Änderung der Standardimplementierung des 3D Mechanikberechnungsmodus, der mit der benutzten FEM Software geliefert wurde. Die Ergebnisse dieser Studie zeigen einen großen Einfluss der Verspannung auf die Durchstimmungseigenschaften der untersuchten Bauelemente. Ferner stimmten die Ergebnisse der theoretischen Modellrechnung mit den experimentellen Resultaten sehr gut überein.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ausgehend von dem von Friedrich Edding geprägten Begriff der Schlüsselfähigkeit entwickelte Dieter Mertens Anfang der 1970er Jahre sein Konzept der Schlüsselqualifikationen. Damit suchte er Wege, Menschen so zu qualifizieren, dass sie ihnen übertragene berufliche Aufgaben, auch in einem sich rasch verändernden Umfeld, bewältigen können. In der vorliegenden Arbeit wird gezeigt, dass die Rezeption des Begriffs in verschiedenen Bildungsbereichen mit unterschiedlichen Intensitäten und Resultaten verlief. Am folgenreichsten war die Rezeption in der Berufsbildung. Von wenigen skeptischen Stimmen abgesehen, stieß das Konzept der Schlüsselqualifikationen auf positive Zustimmung und mehrere Umsetzungsversuche wurden unternommen. Diese führten allerdings zu einer Verlängerung der Liste der Schlüsselqualifikationen (die ursprünglich von Mertens als abschließbar angedacht war). Ein Konsens, was in der Berufsbildung als Schlüsselqualifikationen zu gelten hat, ist immer noch nicht in Sicht. In den allgemeinbildenden Schulen hingegen fand das Konzept keine große Beachtung. Zwar wurde hin und wieder auf den Begriff zurückgegriffen, um beispielsweise allgemein verbindliche Standards in der Schule zu thematisieren oder neuen Inhalten eine Legitimation zu verschaffen, dennoch griff die Debatte in der Schulpädagogik nicht nachhaltig. Gründe dafür liegen zum einen in der dem Konzept inhärenten berufsvorbereitenden Funktion, die der Idealvorstellung einer zweckfreien Bildung widerspricht, zum anderen in der relativ straffen und zentralisierten Gestaltung der Lehrpläne. Die vorliegende Arbeit setzt sich mit dem Konzept der Schlüsselqualifikationen im Hochschulbereich auseinander. Eine Untersuchung von ca. 130 deutsch- und englischsprachigen Arbeiten, die Schlüsselqualifikationen im Hochschulbereich zum Thema haben, belegt eine sehr große Heterogenität der zugrunde liegenden Vorstellungen und konkreten Modelle. Es wird gezeigt, dass die zwei wichtigsten Ordnungsschemata, die gelegentlich zur Abgrenzung der Schlüsselqualifikationen gegenüber anderen Bildungskomponenten herangezogen werden (nämlich die Taxonomie der Lernziele von Bloom und das Handlungskompetenzmodell von Roth in der Weiterentwicklung von Reetz) mit keinem kohärenten Rahmenwerk, das der Fülle der Modelle von Schlüsselqualifikationen im Hochschulbereich gerecht wäre, aufwarten können. Eine Alternative bietet eine diskursanalytische Perspektive foucaultscher Prägung. Begriffen als eine diskursive Formation, haben Modelle der Schlüsselqualifikationen ihre Gemeinsamkeit nicht in dem vermeintlich gemeinsamen Gegenstand. Demnach sind Schlüsselqualifikationen in der heutigen Hochschuldebatte keine Qualifikationen suis generis, die eine eigene Kategorie bilden, sondern eine Antwort auf die Herausforderungen, die die verschiedenartigen Veränderungen in und um Hochschulen mit sich bringen. Es lassen sich drei Kontexte identifizieren, in denen die Modelle der Schlüsselqualifikationen der Herausforderung zu begegnen versuchen: in der Gesellschaft im Allgemeinen, in der vor-universitären Bildung sowie in der Hochschulbildung und in der Berufswelt. In diesen Kontexten artikulieren die Modelle der Schlüsselqualifikationen verschiedene Dimensionen, um Gesellschafts-, Studier und Beschäftigungsfähigkeit der Studierenden zu fördern. Eine vergleichende Analyse der Debatten und Modelle der Schlüsselqualifikationen in der BRD und in England zeigt, dass diese drei Kontexte in beiden Ländern vorfindbar sind, jedoch deren inhaltliche Vorstellung und konkrete Umsetzung aufgrund der Partikularitäten des jeweiligen Hochschulsystems unterschiedliche Akzentuierungen erfahren. Anders als in der BRD betonen die Modelle der Förderung der Studierfähigkeit in England die Brückenkurse als Hilfestellung bei der Vorbereitung auf das Studium. Das hängt mit den uneinheitlichen Zugangsregelungen zum Hochschulstudium und der hierarchischen Struktur im englischen Hochschulsystem zusammen. Bei der Förderung der Beschäftigungsfähigkeit setzen die Modelle der Schlüsselqualifikationen in Deutschland, wo traditionell ein Hochschulstudium als berufsvorbereitend angesehen wird, den Akzent auf Praxisbezug des Studiums und auf Flexibilität. In England hingegen, wo sich das Studium per se nicht als berufsqualifizierend versteht, rücken die Modelle der Schlüsselqualifikationen den Übergang in den Arbeitsmarkt und das Karrieremanagement - subsumiert unter dem Konzept der employability - in den Vordergrund.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Wenn man die Existenz von physikalischen Mechanismen ignoriert, die für die Struktur hydrologischer Zeitreihen verantwortlich sind, kann das zu falschen Schlussfolgerungen bzgl. des Vorhandenseins möglicher Gedächtnis (memory) -Effekte, d.h. von Persistenz, führen. Die hier vorgelegte Doktorarbeit spürt der niedrigfrequenten klimatischen Variabilität innerhalb den hydrologischen Zyklus nach und bietet auf dieser "Reise" neue Einsichten in die Transformation der charakteristischen Eigenschaften von Zeitreihen mit einem Langzeitgedächtnis. Diese Studie vereint statistische Methoden der Zeitreihenanalyse mit empirisch-basierten Modelltechniken, um operative Modelle zu entwickeln, die in der Lage sind (1) die Dynamik des Abflusses zu modellieren, (2) sein zukünftiges Verhalten zu prognostizieren und (3) die Abflusszeitreihen an unbeobachteten Stellen abzuschätzen. Als solches präsentiert die hier vorgelegte Dissertation eine ausführliche Untersuchung zu den Ursachen der niedrigfrequenten Variabilität von hydrologischen Zeitreihen im deutschen Teil des Elbe-Einzugsgebietes, den Folgen dieser Variabilität und den physikalisch basierten Reaktionen von Oberflächen- und Grundwassermodellen auf die niedrigfrequenten Niederschlags-Eingangsganglinien. Die Doktorarbeit gliedert sich wie folgt: In Kapitel 1 wird als Hintergrundinformation das Hurst Phänomen beschrieben und ein kurzer Rückblick auf diesbezügliche Studien gegeben. Das Kapitel 2 diskutiert den Einfluss der Präsenz von niedrigfrequenten periodischen Zeitreihen auf die Zuverlässigkeit verschiedener Hurst-Parameter-Schätztechniken. Kapitel 3 korreliert die niedrigfrequente Niederschlagsvariabilität mit dem Index der Nord-Atlantischen Ozillations (NAO). Kapitel 4-6 sind auf den deutschen Teil des Elbe-Einzugsgebietes fokussiert. So werden in Kapitel 4 die niedrigfrequenten Variabilitäten der unterschiedlichen hydro-meteorologischen Parameter untersucht und es werden Modelle beschrieben, die die Dynamik dieser Niedrigfrequenzen und deren zukünftiges Verhalten simulieren. Kapitel 5 diskutiert die mögliche Anwendung der Ergebnisse für die charakteristische Skalen und die Verfahren der Analyse der zeitlichen Variabilität auf praktische Fragestellungen im Wasserbau sowie auf die zeitliche Bestimmung des Gebiets-Abflusses an unbeobachteten Stellen. Kapitel 6 verfolgt die Spur der Niedrigfrequenzzyklen im Niederschlag durch die einzelnen Komponenten des hydrologischen Zyklus, nämlich dem Direktabfluss, dem Basisabfluss, der Grundwasserströmung und dem Gebiets-Abfluss durch empirische Modellierung. Die Schlussfolgerungen werden im Kapitel 7 präsentiert. In einem Anhang werden technische Einzelheiten zu den verwendeten statistischen Methoden und die entwickelten Software-Tools beschrieben.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Forschungsarbeit beschäftigt sich schwerpunktmäßig mit der Ausbildung von Bodengewölben über punkt- und linienförmigen Auflagerungen und der Stabilisierung des Gewölbebereiches durch horizontale Bewehrungseinlagen aus Geokunststoffen. Während das Tragverhalten entsprechender Bodengewölbe unter ruhenden Belastungen bereits wissenschaftlich erforscht ist untersucht die Dissertation vornehmlich das Gewölbeverhalten unter nichtruhenden Belastungen. Da die Gewölbemodelle primär im Verkehrswegebau als geokunststoffbewehrte Erdschichten über Pfahlelementen (GEP) ausgeführt werden, ist für die Praxis die Untersuchung der Auswirkung einer nichtruhenden Belastung (Verkehrslast) von besonderer Bedeutung. Methodisch wurden umfangreiche großmaßstäbliche Modellversuche (Maßstab 1:3) zur Gewölbeausbildungen am Pfahlrasterausschnitt sowie am Dammquerschnitt mit Berücksichtigung der Böschungssituation vorgenommen. Die Modellversuche wurden in einer differenzierten numerischen Analyse mit der Methode der finiten Elemente (FEM) verifiziert. Die zyklischen FEM-Modelle basierten dabei auf einem zyklisch-viskoplastischen Stoffansatz. Aufbauend auf den Modellversuchsergebnissen wurden schließlich modifizierte analytische Berechnungsansätze entwickelt. Zusammenfassend kann es bei zyklischen Beanspruchungen im unbewehrten System zu einer Gewölberückbildung und zu erhöhten Systemverformungen kommen. Die Größe der Gewölberückbildung ist abhängig von der Überdeckungshöhe, der Belastungsfrequenz, der Lastzyklenzahl sowie der zyklischen Belastungsamplitude in Relation zur statischen Überlagerungsspannung. Mit abnehmender Höhe, zunehmender Frequenz, zunehmender Zyklenzahl und Belastungsamplitude tritt eine Gewölbereduktion verstärkt ein. Eine erhöhte Primärspannung kann dazu führen, dass die Bodengewölbe überdrückt werden und dadurch gegenüber zyklischer Beanspruchung stabiler sind. Auch bei Anordnung von Bewehrungslagen sind ähnliche Effekte zu beobachten wie im unbewehrten Fall. Mit zunehmender zyklischer Beanspruchung behindern die eingebauten Geokunststoffe allerdings die Ausbildung der Scherfugen, reduzieren dadurch die Setzungen, erhöhen die Lastumlagerung auf die Pfähle und stabilisieren dadurch das System. Aus den Modellversuchen wurde ein vereinfachter Ansatz für die vorhandenen analytischen Berechnungsverfahren in Form eines Gewölbereduktionsfaktors k abgeleitet, mit dem näherungsweise auch für praktische Fälle eine erste Abschätzung der Gewölbereduktion infolge nichtruhender Belastung möglich ist. Ergänzend zu dem Hauptthema der Gewölbeausbildung unter nichtruhenden Lasten unter-sucht die Forschungsarbeit die allgemeine Verwendbarkeit der FEM-Methode zur Berechnung eines GEP-Systems unter ruhender und nichtruhender Belastung, beurteilt die derzeit gültigen Spreizdruckansätze sowie den derzeitigen Verankerungsnachweis für eingelegte Geokunststofflagen und untersucht die Lastabtragung im Geogitter bei dreieckrasterförmiger Lagerung.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Aus der Einleitung: "Der Beitrag prüft kritisch die Entwicklung zum Stand der Professionalisierung der Handlungsfelder der kindheitsbezogenen Pädagogik. Fokussiert wird dabei die Frage, ob die vorliegenden empirischen Befunde eine Akademisierung des ErzieherInnenberufs beziehungsweise des pädagogischen Personals in Kindertageseinrichtungen stützen (1.). Anschließend, nach einem kurzen Rekurs auf die bisherige ErzieherInnenausbildung (2.), werden Grundfragen der Akademisierung der Ausbildung für die Pädagogik der Kindheit diskutiert (3.) und die bisher erkennbaren Modelle der Implementierung von Studienprogrammen der 'Pädagogik der Kindheit' an Universitäten vorgestellt (4.). Abschließend werden die Fallstricke und Chancen einer 'Akademisierung' der Qualifizierungen für diejenigen erörtert, die ein berufliches Engagement in Handlungsfeldern der Pädagogik der Kindheit anstreben (5.). Quer zur Kapitelstruktur wird in dem Beitrag auch der Frage nachgegangen, ob es in den gegenwärtigen Diskussionen tatsächlich um eine Akademisierung der ErzieherInnenausbildung geht oder ob nicht vielmehr der Einstieg in eine über unterschiedliche teildisziplinäre Zugänge der Erziehungswissenschaft ausgestaltete Implementierung von Studiengängen und -programmen der akademischen Qualifizierung für Tätigkeiten in Kindertageseinrichtungen – und darüber hinaus die Verfachlichung des Handlungsfeldes der Kindertageseinrichtungen insgesamt – sowie für andere Felder der Pädagogik der Kindheit angestrebt wird. Angesprochen wird zudem auch die Frage nach einer Neuschneidung bisheriger Studiengänge im Sinne einer einheitlichen Qualifizierung für die Handlungsfelder der Elementar- und Primarpädagogik."

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Eine Sammelrezension zum Thema Zwangssterilisationen im Nationalsozialismus

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Mit der Verwirklichung ,Ökologischer Netzwerke‘ werden Hoffnungen zum Stopp des Verlustes der biologischen Vielfalt verknüpft. Sowohl auf gesamteuropäischer Ebene (Pan-European Ecological Network - PEEN) als auch in den einzelnen Staaten entstehen Pläne zum Aufbau von Verbundsystemen. Im föderalen Deutschland werden kleinmaßstäbliche Biotopverbundplanungen auf Landesebene aufgestellt; zum nationalen Biotopverbund bestehen erste Konzepte. Die vorliegende Arbeit ist auf diese überörtlichen, strategisch vorbereitenden Planungsebenen ausgerichtet. Ziele des Verbunds sind der Erhalt von Populationen insbesondere der gefährdeten Arten sowie die Ermöglichung von Ausbreitung und Wanderung. Aufgrund fehlender Datengrundlagen zu den Arten und Populationen ist es nicht ohne weiteres möglich, die Konzepte und Modelle der Populationsökologie in die überörtlichen Planungsebenen zu übertragen. Gemäß der o.g. Zielstellungen sollte sich aber die Planung von Verbundsystemen an den Ansprüchen der auf Verbund angewiesenen Arten orientieren. Ziel der Arbeit war die Entwicklung einer praktikablen GIS-gestützten Planungshilfe zur größtmöglichen Integration ökologischen Wissens unter der Bedingung eingeschränkter Informationsverfügbarkeit. Als Grundlagen dazu werden in Übersichtsform zunächst die globalen, europäisch-internationalen und nationalen Rahmenbedingungen und Anforderungen bezüglich des Aufbaus von Verbundsystemen zusammengestellt. Hier sind die Strategien zum PEEN hervorzuheben, die eine Integration ökologischer Inhalte insbesondere durch die Berücksichtigung räumlich-funktionaler Beziehungen fordern. Eine umfassende Analyse der landesweiten Biotopverbundplanungen der BRD zeigte die teilweise erheblichen Unterschiede zwischen den Länderplanungen auf, die es aktuell nicht ermöglichen, ein schlüssiges nationales Konzept zusammenzufügen. Nicht alle Länder haben landesweite Biotopverbundplanungen und Landeskonzepte, bei denen dem geplanten Verbund die Ansprüche von Arten zugrunde gelegt werden, gibt es nur ansatzweise. Weiterhin wurde eine zielgerichtete Eignungsprüfung bestehender GIS-basierter Modelle und Konzepte zum Verbund unter Berücksichtigung der regelmäßig in Deutschland verfügbaren Datengrundlagen durchgeführt. Da keine integrativen regelorientierten Ansätze vorhanden waren, wurde der vektorbasierte Algorithmus HABITAT-NET entwickelt. Er arbeitet mit ,Anspruchstypen‘ hinsichtlich des Habitatverbunds, die stellvertretend für unterschiedliche ökologische Gruppen von (Ziel-) Arten mit terrestrischer Ausbreitung stehen. Kombiniert wird die Fähigkeit zur Ausbreitung mit einer Grobtypisierung der Biotopbindung. Die wichtigsten Grundlagendaten bilden die jeweiligen (potenziellen) Habitate von Arten eines Anspruchstyps sowie die umgebende Landnutzung. Bei der Bildung von ,Lebensraumnetzwerken‘ (Teil I) werden gestufte ,Funktions- und Verbindungsräume‘ generiert, die zu einem räumlichen System verknüpft sind. Anschließend kann die aktuelle Zerschneidung der Netzwerke durch Verkehrstrassen aufgezeigt werden, um darauf aufbauend prioritäre Abschnitte zur Wiedervernetzung zu ermitteln (Teil II). Begleitend wird das Konzept der unzerschnittenen Funktionsräume (UFR) entworfen, mit dem die Indikation von Habitatzerschneidung auf Landschaftsebene möglich ist. Diskutiert werden schließlich die Eignung der Ergebnisse als kleinmaßstäblicher Zielrahmen, Tests zur Validierung, Vergleiche mit Verbundplanungen und verschiedene Setzungen im GIS-Algorithmus. Erläuterungen zu den Einsatzmöglichkeiten erfolgen beispielsweise für die Bereiche Biotopverbund- und Landschaftsplanung, Raumordnung, Strategische Umweltprüfung, Verkehrswegeplanung, Unterstützung des Konzeptes der Lebensraumkorridore, Kohärenz im Schutzgebietssystem NATURA 2000 und Aufbau von Umweltinformationssystemen. Schließlich wird ein Rück- und Ausblick mit der Formulierung des weiteren Forschungsbedarfs verknüpft.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die vorliegende Dissertation stellt einen Überblick dar, der theoretische und praktische Ansätze und Modelle untersucht, die transpersonale Dimensionen enthalten. Die transpersonale Psychologie entwickelte sich aus der Humanistischen Psychologie, die in der Mitte des letzten Jahrhunderts in Amerika entstand und sich in den 60er und 70er Jahren in Europa etablierte. Der Schwerpunkt der transpersonalen Psychologie liegt nicht primär auf menschlichen Bedürfnissen und Interessen, sondern bezieht neben der gesellschaftlichen die über die Person hinausgehende Dimension des Menschen mit ein. Der Theorieteil umfasst eine Vielzahl von Konzepten aus der Entwicklungspsychologie, der Reformpädagogik, der Psychotherapie, der Körpertherapie, spirituellen Schulungen, der Tiefenökologie sowie der Neurobiologie. Diese Ansätze geben Aufschluss darüber, wie sich das Weltbild von einer streng rationalen, linearen Sichtweise hin zu einem dynamischen Verständnis entwickelt hat. Der Praxisteil enthält pädagogische Fallstudien alternativer Schulen, deren Konzepte über reformpädagogische Konzepte hinausweisen und insbesondere Wert auf Spiritualität, Naturverbundenheit, Demokratiefähigkeit sowie die Anerkennung verschiedener Lernprozesse legen. Er beinhaltet außerdem Schulungen für Erwachsene, die meditative und psychotherapeutische Verfahren miteinander verbinden sowie Ansätze fernöstlicher Meditationstechniken, die sich besonders für westliche Menschen eignen. Aus den theoretischen Modellen und den praktischen Konzepten ergeben sich zehn transpersonale Dimensionen: Die 'Ethik der Ehrfurcht vor dem Leben', 'Tiefenökologie und Bewusstseinswandel', den 'politisch-sozialen Aspekt', das persönlich-bedeutsame Lernen', das 'Gefühl des Getragenseins' das taoistische 'Tun des Nicht-Tuns', die Schulung von 'Achtsamkeit, Selbstreflexion und Vielperspektivität', das 'Transformative Lernen', 'Spiritualität im Alltag' und die 'neue Rolle des Lehrers'. Diese transpersonalen Dimensionen erlauben keine klare Einordnung einer Schule, sondern weisen auf eine potentielle Entwicklung hin, die durch Schulungen erreicht werden kann. Dabei geht es in erster Linie darum, wie Kinder, Jugendliche und Erwachsene sich durch eine Pädagogik, die eine intensivere Zugangsweise zu sich selbst zulässt, getragen fühlen und ein Seinsvertrauen erlangen können, dass ihnen dabei hilft, auch in kritischen Lebensphasen gelassen zu reagieren. Bei der transpersonale Pädagogik handelt es sich nicht um eine neue Schule, sondern um eine neue Dimension, die integrierendes Potenzial besitzt, da sie Menschen dabei unterstützt, eine Perspektive einzunehmen, die über die eigene hinausreicht und zu einem erweiterten Verständnis für andere Menschen, Lebensweisen und Werte beiträgt. Durch die transpersonale Pädagogik entstehen neue Möglichkeiten, globalen Herausforderungen zu begegnen. Das Einbeziehen der transpersonalen Dimensionen fördert eine Entwicklung, die ein persönliches und gesellschaftliches Verantwortungsbewusstsein miteinander verbindet. Spiritualität kann dazu beitragen, dass der Mensch Erfahrungen macht, die über das hinausgehen, was er bisher kennengelernt hat und sich ihm dadurch neue Perspektiven eröffnen. Spirituelle Schulungen sollten aber immer auch die Person des Übenden einbeziehen, das In-der-Welt-Sein, die Verbindungen zum Alltag fördern, denn nur die Entwicklung von Sozialkompetenzen führt dazu, dass der Mensch eine tiefe Verantwortung für sein eigenes Leben, die Menschen in seiner Gemeinschaft und darüber hinaus spüren kann. Die in der Dissertation erarbeiteten transpersonalen Dimensionen können dazu beitragen, Schule in einen salutogenen Ort zu verwandeln und Bildungsprozesse respektvoll zu gestalten. Das bedeutet, Lernen nicht auf die Wissensvermittlung zu reduzieren, sondern als Lebenserfahrung anzuerkennen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die vorliegende Arbeit behandelt Restartautomaten und Erweiterungen von Restartautomaten. Restartautomaten sind ein Werkzeug zum Erkennen formaler Sprachen. Sie sind motiviert durch die linguistische Methode der Analyse durch Reduktion und wurden 1995 von Jancar, Mráz, Plátek und Vogel eingeführt. Restartautomaten bestehen aus einer endlichen Kontrolle, einem Lese/Schreibfenster fester Größe und einem flexiblen Band. Anfänglich enthält dieses sowohl die Eingabe als auch Bandbegrenzungssymbole. Die Berechnung eines Restartautomaten läuft in so genannten Zyklen ab. Diese beginnen am linken Rand im Startzustand, in ihnen wird eine lokale Ersetzung auf dem Band durchgeführt und sie enden mit einem Neustart, bei dem das Lese/Schreibfenster wieder an den linken Rand bewegt wird und der Startzustand wieder eingenommen wird. Die vorliegende Arbeit beschäftigt sich hauptsächlich mit zwei Erweiterungen der Restartautomaten: CD-Systeme von Restartautomaten und nichtvergessende Restartautomaten. Nichtvergessende Restartautomaten können einen Zyklus in einem beliebigen Zustand beenden und CD-Systeme von Restartautomaten bestehen aus einer Menge von Restartautomaten, die zusammen die Eingabe verarbeiten. Dabei wird ihre Zusammenarbeit durch einen Operationsmodus, ähnlich wie bei CD-Grammatik Systemen, geregelt. Für beide Erweiterungen zeigt sich, dass die deterministischen Modelle mächtiger sind als deterministische Standardrestartautomaten. Es wird gezeigt, dass CD-Systeme von Restartautomaten in vielen Fällen durch nichtvergessende Restartautomaten simuliert werden können und andererseits lassen sich auch nichtvergessende Restartautomaten durch CD-Systeme von Restartautomaten simulieren. Des Weiteren werden Restartautomaten und nichtvergessende Restartautomaten untersucht, die nichtdeterministisch sind, aber keine Fehler machen. Es zeigt sich, dass diese Automaten durch deterministische (nichtvergessende) Restartautomaten simuliert werden können, wenn sie direkt nach der Ersetzung einen neuen Zyklus beginnen, oder ihr Fenster nach links und rechts bewegen können. Außerdem gilt, dass alle (nichtvergessenden) Restartautomaten, die zwar Fehler machen dürfen, diese aber nach endlich vielen Zyklen erkennen, durch (nichtvergessende) Restartautomaten simuliert werden können, die keine Fehler machen. Ein weiteres wichtiges Resultat besagt, dass die deterministischen monotonen nichtvergessenden Restartautomaten mit Hilfssymbolen, die direkt nach dem Ersetzungsschritt den Zyklus beenden, genau die deterministischen kontextfreien Sprachen erkennen, wohingegen die deterministischen monotonen nichtvergessenden Restartautomaten mit Hilfssymbolen ohne diese Einschränkung echt mehr, nämlich die links-rechts regulären Sprachen, erkennen. Damit werden zum ersten Mal Restartautomaten mit Hilfssymbolen, die direkt nach dem Ersetzungsschritt ihren Zyklus beenden, von Restartautomaten desselben Typs ohne diese Einschränkung getrennt. Besonders erwähnenswert ist hierbei, dass beide Automatentypen wohlbekannte Sprachklassen beschreiben.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Arbeit befasst sich mit der Entwicklung analytischer Modelle im Bereich der elektrischen Maschinenauslegung und deren Umsetzung in ein Softwaresystem, dass zur Auslegung elektrischer Maschinen verwendet werden kann. Es wurden zahlreiche Modelle für die elektromagnetische sowie thermische Berechnung der permanentmagneterregten Synchronmaschine sowie Asynchronmaschine mit Kurzschlussläufer entwickelt. Bei den Berechnungen wurde mit einer geringen Anzahl von Eingabewerten eine gute Genauigkeit bei der Berechnung der Maschinenparameter erreicht. Dieses zeigte sich durch den Vergleich von analytisch berechneten Maschinenparametern und den Werten, die mittels der Finite-Elemente-Methode berechnet wurden. Darüber hinaus wurden auch Modelle entwickelt, die für spezielle Fragestellungen herangezogen werden können, wie zum Beispiel die Auswirkung der Stromverdrängung auf das dynamische Verhalten der Asynchronmaschine mit Käfigläufern. Die einzelnen Modelle wurden zu einer Softwareeinheit zusammengefasst, die Dienste zur Auslegung elektrischer Maschinen bereitstellt. Die Dienste dieser Softwareeinheit, die auf einem Server installiert ist, können über graphische Benutzerschnittstellen ortsunabhängig und somit weltweit verwendet werden. Durch die zentrale Lage der Modelle können sehr einfach Erweiterungen an der Berechnungssoftware vorgenommen und dem Nutzer zur Verfügung gestellt werden. Mit der Entwicklung einer graphischen Benutzerschnittstelle ist eine geführte und übersichtliche Eingabe der zur Berechnung notwendigen Eingaben entstanden. Mit der Wahl von http als Transportprotokoll wird ein etabliertes Protokoll verwendet, das eine Kommunikation zwischen zwei durch Firewalls abgesicherten Teilnetzen ermöglicht, ohne dass dadurch bedenkliche Lücken in einem Sicherheitskonzept entstehen. Durch die Verwendung von SOAP als Übertragungsprotokoll zwischen den Kommunikationspartnern wird ein firmen- und produktunabhängiges Protokoll verwendet, das sich in der Praxis immer stärker etabliert.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die vorliegende Dissertation betrachtet institutionsinterne lokale (Critical-)Incident-Reporting-Systeme ((C)IRS) als eine Möglichkeit zum Lernen aus Fehlern und unerwünschten kritischen Ereignissen (sogenannte Incidents) im Krankenhaus. Die Notwendigkeit aus Incidents zu lernen, wird im Gesundheitswesen bereits seit den 1990er Jahren verstärkt diskutiert. Insbesondere risikoreichen Organisationen, in denen Incidents fatale Konsequenzen haben können, sollten umfassende Strategien erarbeiten, die sie vor Fehlern und unerwünschten Ereignissen schützen und diese als Lernpotenzial nutzen können. Dabei können lokale IRS als ein zentraler Bestandteil des Risikomanagements und freiwillige Dokumentationssysteme im Krankenhaus ein Teil dieser Strategie sein. Sie können eine Ausgangslage für die systematische Erfassung und Auswertung von individuellen Lerngelegenheiten und den Transfer zurück in die Organisation schaffen. Hierfür sind eine lernförderliche Gestaltung, Implementierung und Einbettung lokaler IRS eine wichtige Voraussetzung. Untersuchungen über geeignete lerntheoretisch fundierte und wirkungsvolle IRS-Modelle und empirische Daten fehlen bisher im deutschsprachigen Raum. Einen entsprechenden Beitrag leistet die vorliegende Fallstudie in einem Schweizer Universitätsspital (800 Betten, 6.100 Mitarbeitende). Zu diesem Zweck wurde zuerst ein Anforderungsprofil an lernförderliche IRS aus der Literatur abgeleitet. Dieses berücksichtigt zum einen literaturbasierte Kriterien für die Gestaltung und Nutzung aus der IRS-Literatur, zum anderen die aus der Erziehungswissenschaft und Arbeitspsychologie entlehnten Gestaltungsbedingungen und Erfolgskriterien an organisationales Lernen. Das Anforderungsprofil wurde in drei empirischen Teilstudien validiert und entsprechend adaptiert. In der ersten empirischen Teilstudie erfolgte eine Standortbestimmung der lokalen IRS. Die Erhebung erfolgte in vier Kliniken mittels Dokumentenanalyse, leitfadengestützter Interviews (N=18), sieben strukturierter Gruppendiskussionen und teilnehmender Beobachtungen über einen Zeitraum von 22 Monaten. Erfolgskritische IRS-Merkmale wurden identifiziert mit dem Ziel einer praxisgerechten lernförderlichen Systemgestaltung und Umsetzung von Incident Reporting unter Betrachtung von organisationalen Rahmenbedingungen, Lernpotenzialen und Barrieren. Die zweite Teilstudie untersuchte zwei Fallbeispiele organisationalen Lernens mittels Prozessbegleitung, welche zu einem verwechslungssicheren Design bei einem Medizinalprodukt und einer verbesserten Patientenidentifikation in Zusammenhang mit Blutentnahmen führten. Für das organisationale Lernen im Spital wurden dabei Chancen, Barrieren und Gestaltungsansätze abgeleitet, wie erwünschte Veränderungen und Lernen unter Nutzung von IRS initiiert werden können und dabei ein besseres Gesundheitsresultat erreicht werden kann. Die dritte Teilstudie überprüfte, inwiefern die Nutzung und Implementierung lokaler IRS mittels einer Mitarbeitervollbefragung zur Sicherheitskultur gefördert werden kann. Hierfür wurde eine positive Interaktion, zwischen einer starken Sicherheitskultur und der Bereitschaft ein IRS zu implementieren und Incidents zu berichten, angenommen. Zum Einsatz kam eine deutschsprachige Version des Hospital Survey on Patient Safety Culture (Patientensicherheitsklimainventar) mit einem Rücklauf von 46.8% (2.897 gültige Fragebogen). In 23 von 37 Kliniken führte laut einer Nachbefragung die Sicherheitskulturbefragung zum Implementierungsentscheid. Dies konnte durch Monitoring der IRS-Nutzung bestätigt werden. Erstmals liegen mit diesen Studien empirische Daten für eine wirkungsvolle und lernförderliche Gestaltung und Umsetzung von lokalen IRS am Beispiel einer Schweizer Gesundheitsorganisation vor. Die Ergebnisse der Arbeit zeigen Chancen und Barrieren für IRS als Berichts- und Lernsysteme im Krankenhaus auf. Als Resultat unsachgemäss gestalteter und implementierter IRS konnte dabei vor allem Lernverhinderung infolge IRS aufgezeigt werden. Blinder Aktionismus und eine fehlende Priorisierung von Patientensicherheit, unzureichende Kompetenzen, Qualifikationen und Ressourcen führten dabei zur Schaffung neuer Fehlerquellen mit einer Verstärkung des Lernens erster Ordnung. Eine lernförderliche Gestaltung und Unterhaltung der lokalen IRS, eingebettet in eine klinikumsweite Qualitäts- und Patientensicherheitsstrategie, erwiesen sich hingegen als wirkungsvoll im Sinne eines organisationalen Lernens und eines kontinuierlichen Verbesserungsprozesses. Patientensicherheitskulturbefragungen erwiesen sich zudem bei entsprechender Einbettung als effektives Instrument, um die Implementierung von IRS zu fördern. Zwölf Thesen zeigen in verdichteter Form auf, welche Gestaltungsprinzipien für IRS als Instrument des organisationalen Lernens im Rahmen des klinischen Risikomanagements und zur Förderung einer starken Patientensicherheitskultur zu berücksichtigen sind. Die Erkenntnisse aus den empirischen Studien münden in ein dialogorientiertes Rahmenmodell organisationalen Lernens unter Nutzung lokaler IRS. Die Arbeit zeigt damit zum einen Möglichkeiten für ein Lernen auf den verschiedenen Ebenen der Organisation auf und weist auf die Notwendigkeit einer (Re-)Strukturierung der aktuellen IRS-Diskussion hin.