997 resultados para Köln kann auch anders


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Die Technologie dienstorientierter Architekturen (Service-oriented Architectures, kurz SOA) weckt große Visionen auf Seiten der Industrie wie auch der Forschung. Sie hat sich als derzeit ideale Lösung für Umgebungen, in denen sich die Anforderungen an die IT-Bedürfnisse rapide ändern, erwiesen. Heutige IT-Systeme müssen Managementaufgaben wie Softwareinstallation, -anpassung oder -austausch erlauben, ohne dabei den laufenden Betrieb wesentlich zu stören. Die dafür nötige Flexibilität bieten dienstorientierte Architekturen, in denen Softwarekomponenten in Form von Diensten zur Verfügung stehen. Ein Dienst bietet über seine Schnittstelle lokalen wie entfernten Applikationen einen Zugang zu seiner Funktionalität. Wir betrachten im Folgenden nur solche dienstorientierte Architekturen, in denen Dienste zur Laufzeit dynamisch entdeckt, gebunden, komponiert, verhandelt und adaptiert werden können. Eine Applikation kann mit unterschiedlichen Diensten arbeiten, wenn beispielsweise Dienste ausfallen oder ein neuer Dienst die Anforderungen der Applikation besser erfüllt. Eine unserer Grundvoraussetzungen lautet somit, dass sowohl das Dienstangebot als auch die Nachfrageseite variabel sind. Dienstorientierte Architekturen haben besonderes Gewicht in der Implementierung von Geschäftsprozessen. Im Rahmen des Paradigmas Enterprise Integration Architecture werden einzelne Arbeitsschritte als Dienste implementiert und ein Geschäftsprozess als Workflow von Diensten ausgeführt. Eine solche Dienstkomposition wird auch Orchestration genannt. Insbesondere für die so genannte B2B-Integration (Business-to-Business) sind Dienste das probate Mittel, um die Kommunikation über die Unternehmensgrenzen hinaus zu unterstützen. Dienste werden hier in der Regel als Web Services realisiert, welche vermöge BPEL4WS orchestriert werden. Der XML-basierte Nachrichtenverkehr und das http-Protokoll sorgen für eine Verträglichkeit zwischen heterogenen Systemen und eine Transparenz des Nachrichtenverkehrs. Anbieter dieser Dienste versprechen sich einen hohen Nutzen durch ihre öffentlichen Dienste. Zum einen hofft man auf eine vermehrte Einbindung ihrer Dienste in Softwareprozesse. Zum anderen setzt man auf das Entwickeln neuer Software auf Basis ihrer Dienste. In der Zukunft werden hunderte solcher Dienste verfügbar sein und es wird schwer für den Entwickler passende Dienstangebote zu finden. Das Projekt ADDO hat in diesem Umfeld wichtige Ergebnisse erzielt. Im Laufe des Projektes wurde erreicht, dass der Einsatz semantischer Spezifikationen es ermöglicht, Dienste sowohl im Hinblick auf ihre funktionalen als auch ihre nicht-funktionalen Eigenschaften, insbesondere die Dienstgüte, automatisch zu sichten und an Dienstaggregate zu binden [15]. Dazu wurden Ontologie-Schemata [10, 16], Abgleichalgorithmen [16, 9] und Werkzeuge entwickelt und als Framework implementiert [16]. Der in diesem Rahmen entwickelte Abgleichalgorithmus für Dienstgüte beherrscht die automatische Aushandlung von Verträgen für die Dienstnutzung, um etwa kostenpflichtige Dienste zur Dienstnutzung einzubinden. ADDO liefert einen Ansatz, Schablonen für Dienstaggregate in BPEL4WS zu erstellen, die zur Laufzeit automatisch verwaltet werden. Das Vorgehen konnte seine Effektivität beim internationalen Wettbewerb Web Service Challenge 2006 in San Francisco unter Beweis stellen: Der für ADDO entwickelte Algorithmus zur semantischen Dienstkomposition erreichte den ersten Platz. Der Algorithmus erlaubt es, unter einer sehr großenMenge angebotener Dienste eine geeignete Auswahl zu treffen, diese Dienste zu Dienstaggregaten zusammenzufassen und damit die Funktionalität eines vorgegebenen gesuchten Dienstes zu leisten. Weitere Ergebnisse des Projektes ADDO wurden auf internationalen Workshops und Konferenzen veröffentlicht. [12, 11]

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Der Kempter Wald ist aufgrund seiner großflächigen prioritären Lebensräume - den Hoch- und Übergangsmooren - aber auch den landesweit selten gewordenen und durch Nutzungsaufgabe bedrohten Streuwiesen und Flachmoorgesellschaften ein Landschaftsraum von herausragender naturschutzfachlicher Bedeutung. Ausgehend von der nach wie vor aktuellen Debatte um die Schutzgebietsausweisung im Kempter Wald wurde auf dem Gebiet der Marktgemeinde Unterthingau und der Gemeinde Kraftisried die vorhandene Grünlandvegetation auf Feuchtstandorten im Kempter Wald vegetationskundlich erfasst mit der Absicht, auf der Grundlage dieser Untersuchung exemplarisch ein Entwicklungskonzept für die Streu- und Feuchtwiesen zu erarbeiten. Erfasst wurden auf der Grundlage von insgesamt über 170 Vegetationsaufnahmen nach BRAUN-BLANQUET (1965) neben mehrschnittigem Wirtschaftsgrünland auf Feuchtstandorten ein- und zweischnittig genutzte Bachdistel-Wiesen, Pfeifengraswiesen in zwei unterschiedlichen Ausbildungen, Flachmoorgesellschaften auf eher basischen Standorten – das Davallseggen-Quellmoor – sowie im Kontaktbereich der Moore gelegene Kleinseggenrieder auf bodensauren Standorten - der Herzblatt-Braunseggensumpf. Sowohl in den Pfeifengraswiesen als auch in den Kleinseggensümpfen kennzeichnen Blöcke mit Fettwiesenarten in den Vegetationstabellen einen streuwiesenuntypischen Frühschnitt der Flächen im Sommer. Ein Grundkennartengerüst der jeweiligen Gesellschaften ist aber trotzdem bislang noch erhalten geblieben. Im zweiten Teil der Untersuchung wird ein Konzept für eine zukünftige Entwicklung der Streu- und Feuchtwiesennutzung vorgestellt. Das Entwicklungskonzept greift den hohen Stellenwert der offenen Flächen für die Naherholung und den Tourismus auf und versucht auf der Grundlage der beiden Bewertungsfaktoren „Arten- und Biotopschutz“ und „Erholungsnutzung“ Prioritäten für eine zukünftige Entwicklung herauszuarbeiten. So wird im Bereich der Haupterschließungswege der Erhalt der artenreichen Streu- und Feuchtwiesen als vorrangig erachtet. In abgelegenen, z. T. von Wald eingeschlossenen Streuwiesen oder im Randbereich der Hochmoore, kann dagegen für den Fall, dass eine Fortsetzung der Bewirtschaftung aufgrund ausbleibender Fördermittel gefährdet ist, eine natürliche Sukzession zugelassen werden. Isoliert inmitten intensiv genutzter Grünlandflächen gelegene Streuwiesen können sich bei Nutzungsaufgabe zu Feuchtwäldchen oder Feldgehölzen weiterentwickeln. Hinsichtlich der Streuwiesenpflege sollten die Schnittzeitpunkte insgesamt flexibler gehandhabt werden. Nasse Kleinseggenrieder können auch durch eine Mahd in größeren Zeitabständen von 2 bis 5 Jahren erhalten werden. In Randbereichen der Hochmoore sollte in Streuwiesenbrachen in größeren Zeitabständen (10 bis 20 Jahre) auflaufender Gehölzbestand entfernt werden um den Offenlandcharakter für bestimmte Tierartengruppen zu erhalten. In der Beweidung der Streuwiesen wird für Gebiete wie dem Kempter Wald keine realistische Alternative gesehen. Bei der großen Anzahl an Eigentümern und Pächtern ist die Organisation der Beweidung äußerst schwierig. Die Offenhaltung durch Beweidung erfordert außerdem eine gezielte Weideführung sowie die Nachmahd nicht abgefressener Nassbereiche. Eine Kosteneinsparung durch Beweidung erscheint daher eher unwahrscheinlich. Als ergänzende Maßnahmen werden für brachfallende Streuwiesen die Anlage von Kleingewässern sowie der Rückbau von Entwässerungsgräben vorgeschlagen.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Am Beispiel der in der Wetterau gelegenen Reichsgrafschaft Solms-Rödelheim werden in der Dissertation die Existenzbedingungen der kleinen und kleinsten selbstständigen Reichsstände im Heiligen Römischen Reich Deutscher Nation der Frühen Neuzeit untersucht. Erkenntnisleitend ist dabei die Frage, ob und wie solche Territorien nicht nur trotz wiederkehrender Existenzbedrohungen bis zum Ende des Alten Reichs überleben konnten, sondern durch welche Strategien es ihnen gelang, dabei teilweise recht erfolgreich zu sein, wobei sich Erfolg durch politische Stabilität und wirtschaftliche Effizienz äußern konnte. Diese Frage rückt die zahlreichen kleinen Stände in den Fokus, nachdem diese lange Zeit marginalisiert und als bloße Objekte im Spiel der mächtigen Fürsten angesehen wurden. Insofern füllt sie eine bis heute evidente Lücke in der historischen Forschung zu frühneuzeitlicher Landesherrschaft, aber auch zum Funktionieren des Reichs als Verbund von Hoch-adelsherrschaften insgesamt. Zu ihrer Beantwortung werden zunächst systematisch die territorialen und rechtlichen Grundlagen reichsgräflicher Herrschaft herausgearbeitet, die aus einer größeren Zahl einzelner Rechts- und Herrschaftstitel zusammengesetzt waren. Die Herrschaft der Reichsgrafen unterschied sich also im 18. Jahrhundert deutlich von derjenigen der meisten Fürsten, die oft eine autonome und einheitliche Landeshoheit hatten herausbilden können. Die verstreut liegenden Gebiete, auf die sie sich bezog, wurden durch eine wirtschaftliche und herrschaftliche Administration verwaltet, die trotz kleiner Dimensionen als auf der Höhe der Zeit befindlich und leistungsfähig bezeichnet werden kann. Sowohl Herrschaft als auch Ökonomie waren dabei jederzeit stark auf die Person des regierenden Reichsgrafen ausge-richtet, weshalb in der Dissertation der Begriff „personale Ökonomie“ analog zur geläufigen „personalen Herrschaft“ entwickelt wird. Die schmale territoriale Basis konnte im späten 17. und im 18. Jahrhundert auf verschiedenen Wegen erweitert werden. Durch eine rigidere Kontrolle über die Weitergabe durch Vererbung durch die Durchsetzung der Primogenitur gelang es zudem, eine neuerliche Zersplitterung beim Tod eines Regenten weitgehend zu verhindern. Dass dies jedoch nicht die Lösung aller Probleme bedeutete, zeigt die Untersuchung der Position des Sekundogenitus, die – insbesondere wenn er der Erbe eines verfeindeten Bruders war – große Bedeutung für die Entwicklung einer Reichsgrafschaft gewinnen konnte. Im letzten Kapitel schließlich rückt das in der Dissertation entwickelte Konzept der „Herrschaft durch Delegation“ in den Mittelpunkt. Danach funktionierte eine Landesherrschaft kleiner und kleinster Reichsstände angesichts der großen Herausforderungen bei gleichzeitig geringer Macht und vergleichsweise wenig leistungsfähiger Verwaltungen dann besonders gut, wenn die Landesherren darauf verzichteten, alle ihnen prinzipiell zustehenden Rechte selbst auszuüben, sondern sie statt dessen an Dritte delegierten. Für die Reichsgrafen von Solms-Rödelheim wird herausgearbeitet, dass besonders Haus und Familie, Ständische Bündnissysteme wie der Wetterauer Grafenverein, der Oberrheinische Reichskreis und innerterritoriale Mediatgewalten, hier v.a. die Gemeinden, große Bedeutung als Träger delegierter Herrschaft besaßen.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Objektorientierte Modellierung (OOM) im Unterricht ist immer noch ein breit diskutiertes Thema - in der Didaktik akzeptiert und gewünscht, von der Praxis oft als unnötiger Overhead oder als schlicht zu komplex empfunden. Ich werde in dieser Arbeit zeigen, wie ein Unterrichtskonzept aufgebaut sein kann, das die lerntheoretischen Vorteile der OOM nutzt und dabei die berichteten Schwierigkeiten größtenteils vermeidet. Ausgehend von den in der Literatur dokumentierten Konzepten zur OOM und ihren Kritikpunkten habe ich ein Unterrichtskonzept entwickelt, das aus Erkenntnissen der Lernpsychologie, allgemeiner Didaktik, Fachdidaktik und auch der Softwaretechnik Unterrichtsmethoden herleitet, um den berichteten Schwierigkeiten wie z.B. dem "Lernen auf Vorrat" zu begegnen. Mein Konzept folgt vier Leitideen: models first, strictly objects first, Nachvollziehbarkeit und Ausführbarkeit. Die strikte Umsetzung dieser Ideen führte zu einem Unterrichtskonzept, das einerseits von Beginn an das Ziel der Modellierung berücksichtigt und oft von der dynamischen Sicht des Problems ausgeht. Da es weitgehend auf der grafischen Modellierungsebene verbleibt, werden viele Probleme eines Programmierkurses vermieden und dennoch entstehen als Ergebnis der Modellierung ausführbare Programme.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Die empirische Studie untersucht das Wechselspiel zwischen der fachbezogenen Sprachentwicklung und dem Fachlernen von Schülerinnen und Schülern bei der Einführung in den Kraftbegriff. Sie betrachtet also sowohl sprachliche wie auch kognitive Aspekte des Lernens in der Mechanik. Dafür wurde ein Unterrichtskonzept entwickelt, das den Gebrauch des Fachwortes Kraft in der Wissenschaft und in der alltäglichen Sprache besonders thematisiert. Dieses Unterrichtskonzept basiert auf Empfehlungen und Ergebnissen der Kognitionspsychologie, Linguistik, Philosophie, Sprachlehrforschung und der Didaktiken der Physik und der Fremdsprachen. Im Rahmen des Unterrichts wurden die Schülerinnen und Schüler mit zwei Aufgabentypen konfrontiert: Beim ersten Aufgabentyp waren die Lerner aufgefordert, den Kraftbegriff so zu verwenden, wie es einer fachsprachlich angemessenen Form entspräche, etwa um die Bewegung eines Zuges zu beschreiben. Aufgaben des zweiten Typs sahen vor, dass die Schülerinnen und Schüler kurze Texte danach klassifizierten, ob sie der Alltagssprache oder der Fachsprache angehörten. Diese als Metadiskurs bezeichnete Form der Auseinandersetzung mit sprachlichen Aspekten verhalf den Schülerinnen und Schülern zu einer Gelegenheit, ihr eigenes Verständnis des Kraftbegriffs zu thematisieren. Weiter lieferte der Metadiskurs wichtige Hinweise darauf, ob die Schülerinnen und Schüler sich bei ihren Beurteilungen eher auf formal-sprachliche oder inhaltliche Aspekte der Sprache bezogen. Für die Datenerhebung wurden alle Unterrichtsstunden videografiert und transkribiert. Zusammen mit schriftlichen Arbeitsergebnissen und Tests stand ein umfangreicher Datensatz zur Verfügung, für dessen Auswertung ein inhaltsanalytisches Verfahren Anwendung fand. Die Ergebnisse zeigen, dass das Lernen im Fach Physik bestimmte Ähnlichkeiten mit dem Lernen einer Fremdsprache zeigt: Wenn die Schülerinnen und Schüler den Kraftbegriff fachsprachlich verwenden sollen, sehen sie sich oft einer Alternativentscheidung gegenüber. Entweder sie versuchen, einer fachsprachlichen Form zu gehorchen und verlieren dabei den Inhalt aus den Augen, oder sie konzentrieren sich auf den Inhalt, drücken sich dabei aber in ihrer Alltagssprache aus und folgen Alltagskonzepten, die weit entfernt von den fachlich intendierten liegen. Ähnliche Beobachtungen kann man im Sprachunterricht machen, wenn Schüler eine neue grammatische Regel einüben: Sie konzentrieren sich entweder auf die neu zu erlernende Regel, oder aber auf den Inhalt des Gesagten, wobei sie die grammatische Regel, die an sich Gegenstand der Übung ist, verletzen. Meistens fällt diese Entscheidung derart, dass die Konzentration auf den Inhalt des Gesagten gerichtet ist, nicht oder wenig auf seine Form. Im Unterschied zum Sprachunterricht ist der Physikunterricht allerdings nicht nur darauf gerichtet, fachsprachlich angemessene Formen einzuüben, sondern insbesondere darauf, den Blick für neue und ungewohnte Konzepte zu öffnen. Damit müssen die Schülerinnen und Schüler hier häufig sprachliche und kognitive Hürden zur selben Zeit bewältigen. Die detaillierte Analyse des Metadiskurses zeigt, dass das Problem des Nebeneinanders zweier unterschiedlicher Anforderung entschäft werden kann: Während die Schüler im Metadiskurs unterschiedliche Aspekte der Sprache diskutieren, sind sie eher in der Lage, sowohl formale wie inhaltsbezogene Merkmale der Sprache wahrzunehmen. Der Text referiert weitere Parallelen zwischen dem Physikunterricht und dem Fremdsprachenlernen, sodass die Auffassung gerechtfertigt ist, dass die Fremdsprachendidaktik als Ideenlieferantin dafür dienen kann, neue Verbesserungsmöglichkeiten für den Physikunterricht aufzufinden.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Die vorliegende Arbeit liefert erstmals einen umfassenden Überblick über die molekulare Epidemiologie von Methicillin resistenten Staphylococcus aureus (MRSA) eines nordhessischen Krankenhauses inklusive seines Umfeldes und deren Entwicklung in einem Zeitraum von fünf Jahren. Von besonderer Bedeutung ist, dass die MRSA-Stämme hierfür nicht nur anhand ihrer SCCmec-Region (staphylococcal cassette chromosome) typisiert wurden, sondern eine weitergehende Charakterisierung auf Grund der Bestimmung des Vorkommens von Antibiotikaresistenz- und Toxingenen, sowie Plasmiden erfolgte. Dabei wurde ein neuer SCCmec-Typ entdeckt und charakterisiert und weitere noch unbekannte SCCmec-Elemente beschrieben. Bei der Charakterisierung der MRSA-Kollektive konnten bzgl. aller untersuchten Eigenschaften im Laufe der Zeit signifikante Veränderungen beobachtet werden. Am deutlichsten waren diese Unterschiede zwischen dem ältesten Kollektiv aus 1999 und allen nachfolgenden Kollektiven. Die Kollektive aus 2001, 2002, 2003 und 2004 zeigten untereinander größere Ähnlichkeiten, aber dennoch gleichzeitig eine tendenziell divergente Entwicklung einzelner Eigenschaften. Besonders auffallend war das dominante Auftreten von SCCmecIV mit 63-87% der Isolate eines Kollektivs ab 2001, gegenüber 16% in 1999. Weiterhin erfolgte eine markante Veränderung im Vorkommen einzelner Antibiotikaresistenzgene von 1999 bis 2004. So waren aacA-aphD und ermA bei MRSA aus 1999 mit 84% bzw. 90% deutlich häufiger als in allen Kollektiven der folgenden Jahre (aacA-aphD: max. 32%, ermA: max. 40%). Wohingegen ermC ein stets zunehmendes Vorkommen von 3% auf 67% über den Untersuchungszeitraum zeigte. Unkontinuierliches aber statistisch relevant vermehrtes Auftreten von tetM konnte bei Isolaten aus 1999 (40%) und 2004 (74%) nachgewiesen werden. Auch bei Toxingenen zeigten sich deutliche Unterschiede in der zeitlichen Verteilung. Ab 2001 zeigten alle Isolate wesentlich höhere Anteile an sec, seg und sei verglichen mit den MRSA aus 1999. So konnte sec im Kollektiv aus 1999 gar nicht nachgewiesen werden, in denen der Folgejahre mit 54-77%. Die Werte für seg und sei stiegen von 48% bzw. 41% in 1999 kontinuierlich auf über 90% in 2004. Die Häufigkeit von MRSA sowohl mit mehreren Resistenzgenen als auch die mit mehreren Toxingenen nahm im Laufe der Zeit zu und korrelierte mit dem Vorkommen von Plasmiden. Bezüglich seiner Korrelation mit den vorkommenden Plasmiden zeigte SCCmecIV im Erhebungszeitraum besonders deutlich eine Veränderung. So nahm über den Zeitraum der Beobachtung die Anzahl der Stämme die zusätzlich zu einem großen Plasmid ein weiteres kleines Plasmid besaßen signifikant zu. Auch beim Vergleich der SCCmec-Typen der MRSA-Isolate konnten Unterschiede bzgl. aller weiteren untersuchten Eigenschaften dargestellt werden. So zeigten z.B. alle SCCmecIIIA das sea-Gen, während dies bei allen anderen in der vorliegenden Arbeit untersuchten SCCmec-Typen nur vereinzelt vorkam. SCCmecII-Stämme wiesen sowohl die meisten Antibiotikaresistenz- als auch Toxingene auf. Es wurde ferner gezeigt, dass Stämme mit vielen Resistenzgenen auch eine hohe Anzahl Toxingene besaßen und dies im Zusammenhang mit einem erhöhten Plasmidgehalt stehen könnte. Aus den MRSA-Kollektiven isolierte Plasmide konnten aufgrund von Restriktionsanalysen als verwandt zu β-Laktamase-Plasmiden des Grundtyps pI524 und pI258 beschrieben werden. Der in vorliegender Arbeit gezeigte Zusammenhang zwischen der Anzahl von direct repeat units (dru) in der Hypervariablen Region (HVR) und dem SCCmec-Typ half den Unterschied zwischen SCCmecIV und SCCmecIVA, sowie die Sonderstellung des in vorliegender Arbeit erstmalig beschriebenen SCCmecIA/II darzustellen. Nicht alle Isolate konnten einem bekannten SCCmec-Typ zugeordnet werden, es handelt sich bei diesen Ausnahmen um weitere noch unbekannte und hier erstmalig beschriebene SCCmec-Typen. Aufgrund der vorliegenden Arbeit konnte ein neuer SCCmec-Typ definiert werden, namentlich der Typ SCCmecIA/II, der seit 1999 in der Region gehäuft vorkommt Die vorliegenden Untersuchungen zeigten somit, dass die Epidemiologie von MRSA der Region Nordhessen trotz bestehender Gemeinsamkeiten zur MRSA-Situation in ganz Deutschland auch Besonderheiten aufweist. Diese nun zu kennen kann einen Beitrag zur gezielten Verbesserung bisheriger Maßnahmen zur Ausbreitungskontrolle von MRSA in der nordhessischen Region leisten.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Grenzwertberechnung ist ein unbeliebtes Gebiet der Mathematik. Jeder Schüler hasst es. Das liegt daran, dass es kein universelles Kochrezept gibt, das einen automatisch zur Lösung führt. Statt dessen muss man verschiedenste Ansätze daraufhin überprüfen, ob sie einen einer Lösung näher bringen. Computeralgebra leidet unter dem gleichen Problem, denn Computer lieben Kochrezepte ebenfalls. Entsprechend haben manche Computeralgebrasysteme auch heute noch starke Probleme mit Grenzwerten. 1996 stellte Dominik Gruntz in seiner Dissertation "On Computing Limits in a Symbolic Manipulation System" einen Algorithmus vor, der eine Vielzahl komplexer Grenzwertaufgaben souverän und schnell lösen kann und der dennoch durch seine Einfachheit und Überschaubarkeit besticht. Ziel dieser Diplomarbeit ist es, den Algorithmus von Dominik Gruntz vorzustellen und im Computeralgebrasystem Mathematica zu implementieren.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Die technischen Oberflächen werden oft als Bauteilversagungsorte definiert. Deswegen ist eine optimale Ausnutzung der Werkstoffeigenschaften ohne mechanische Oberflächenbehandlungsverfahren nicht mehr wegzudenken. Mechanische Randschichtoptimierungsverfahren sind vergleichsweise einfach, Kosten sparend und hocheffektiv. Gerade das Festwalzen wird wegen seiner günstigen Auswirkungen wie die exzellente Oberflächengüte, die hohen Druckeigenspannungen sowie die hohe Oberflächenverfestigung zunehmend an Bedeutung gewinnen. Außerdem wird durch das Festwalzen in einigen Legierungen eine nanokristalline Oberflächenschicht gebildet. Diese brillanten Eigenschaften führen nach einer mechanischen Oberflächenbehandlung zur Erhöhung des Werkstoffwiderstandes unter anderem gegen Verschleiß, Spannungsrisskorrosion und insbesondere zur Steigerung der Schwingfestigkeit. Ein etabliertes Beispiel zur Steigerung der Schwingfestigkeit ist das Festwalzen von Achsen und Kurbelwellen. Auch solche komplexen Komponenten wie Turbinenschaufeln werden zur Schwingfestigkeitssteigerung laserschockverfestigt oder festgewalzt. Die Laserschockverfestigung ist ein relativ neues Verfahren auf dem Gebiet der mechanischen Oberflächenbehandlungen, das z.B. bereits in der Flugturbinenindustrie Anwendung fand und zur Schwingfestigkeitsverbesserung beiträgt. Das Verfahrensprinzip besteht darin, dass ein kurzer Laserimpuls auf die zu verfestigende, mit einer Opferschicht versehene Materialoberfläche fokussiert wird. Das Auftreffen des Laserimpulses auf der verwendeten Opferschicht erzeugt ein expandierendes Plasma, welches eine Schockwelle in randnahen Werkstoffbereichen erzeugt, die elastisch-plastische Verformungen bewirkt. Eine konsekutive Wärmebehandlung, Auslagerung nach dem Festwalzen, nutzt den statischen Reckalterungseffekt. Hierdurch werden die Mikrostrukturen stabilisiert. Die Änderung der Mikrostrukturen kann jedoch zu einer beträchtlichen Abnahme der mittels Festwalzen entstandenen Druckeigenspannungen und der Kaltverfestigungsrate führen. Das Festwalzen bei erhöhter Temperatur bietet eine weitere Möglichkeit die Schwingfestigkeit von metallischen Werkstoffen zu verbessern. Die Mikrostruktur wird durch den Effekt der dynamischen Reckalterung stabilisiert. Die Effekte beim Festwalzen bei erhöhten Temperaturen sind ähnlich dem Warmstrahlen. Das Festwalzen erzeugt Oberflächenschichten mit sehr stabilen Kaltverfestigungen und Druckeigenspannungen. Diese Strukturen haben viele Vorteile im Vergleich zu den durch rein mechanische Verfahren erzeugten Strukturen in Bezug auf die Schwingfestigkeit und die Stabilität der Eigenspannungen. Die Aufgabe der vorliegenden Dissertation war es, Verfahren zur Verbesserung der Schwingfestigkeit im Temperaturbereich zwischen Raumtemperatur und 600 °C zu erforschen. Begleitende mikrostrukturelle sowie röntgenographische Untersuchungen sollen zum Verständnis der Ursachen der Verbesserung beitragen. Für diese Arbeit wurde der in der Praxis häufig verwendete Modellwerkstoff X5CrNi18-10 ausgewählt. Als Randschichtverfestigungsverfahren wurden das Festwalzen, eine Kombination der mechanischen und thermischen, thermomechanischen Verfahren auf der Basis des Festwalzens und eine Laserschockverfestigung verwendet.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

In Folge der Ergebnisse der PISA und IGLU Studien ist das Thema Diagnose und individuelle Förderung in die öffentliche Diskussion geraten. Vor diesem Hintergrund richtet sich im Herbst 2002 die Aufmerksamkeit der Arbeitsgruppe Wollring auf ein mathematikdidaktisches empirisches Forschungsprojekt in Australien: Early Numeracy Research Project (ENRP) (Clarke et al. 2002). Eine Besonderheit dieses Projektes besteht in der Eins-zu-eins-Situation zwischen Lehrer und Schüler bei einem Interview über Mathematik. Dieses Projekt bildet den Ausgangspunkt der vorliegenden Arbeit. Im ersten Kapitel wird das australische Projekt sowie seine Umsetzung in Deutschland vorgestellt. Ziel des Projektes ist es, die individuellen mathematischen Performanzen von Grund-schulkindern mit Hilfe eines Interviews in einer Eins-zu-eins-Situation des Schülers mit dem Lehrer (Schüler-Interview) zu erheben und damit mathematikdidaktische Orientierungshilfen für den Unterricht zu liefern. Das Schüler-Interview bestimmt den Lernstandort eines Kindes, der als Ausgangspunkt für eine Diagnose dienen kann. Daher werden unterschiedlichen Sichtweisen der Disziplinen – Psychologie, Medizin, Pädagogik, Sonderpädagogik und Fachdidaktik – in Hinblick auf den Begriff „Diagnose“ diskutiert. Die Durchführung von Schüler-Interviews kann neben ihrem diagnostischen Wert auch eine Bedeutung für die Professionalisierung von Lehrern einnehmen, da sie die Lehrer herausfordert, sich mit den Denk- und Lösungswege von Kindern aller Leistungsniveaus intensiv auseinanderzusetzen. In einer Studie von Steinberg et al. (2004, p. 238) wird deutlich, dass dieses Wissen des Lehrers sowohl als ein Index der Veränderung als auch als ein Mechanismus zur Veränderung des Unterrichts dient. In dieser Arbeit werden über den Zeitraum eines Jahres der Umgang der Lehrer mit dem Führen von Schüler-Interviews und den von ihnen daraus gewonnenen Erkenntnissen ausgewertet. Dabei werden mit den Lehrern nach einem halben und nach einem Jahr Erprobung mehrerer von ihnen selbst geführter Schüler-Interviews je ein Interview mit der Forscherin geführt, um herauszufinden, in welchen verschiedenen Bereichen das Führen von Schüler-Interviews den einzelnen Lehrern Unterstützung bietet. Die erhobenen Daten werden qualitativ mit Hilfe der Grounded Theory ausgewertet. Im empirischen Teil der Arbeit werden drei, der am Projekt beteiligten, Lehrerinnen in Form von Fallstudien vorgestellt und ausgewertet. Bei der Lehrerin, die Mathematik nicht als Fach studiert hat, besteht vor allem ein eigener Lernzuwachs in der Sicht auf Mathematik. Zu Beginn der Untersuchung hatte sie laut ihrer eigenen Aussagen eine eher ergebnisorientierte Sicht auf die Mathematik. Die Aussagen der drei Lehrerinnen beruhen auf einzelnen Schülern und ihren Besonderheiten. Im Laufe der Studie verallgemeinern sie ihre Erkenntnisse und beginnen Konsequenzen für ihren Unterricht aus den Schüler-Interviews zu folgern, wie sie in den abschließenden Interviews berichten. Das Schüler-Interview scheint dem Lehrer einen geschützten Raum zu bieten, um die Reflexion über die mathematischen Performanzen seiner Schüler und seinen eigenen Unterricht anzuregen, ohne ihn bloßzustellen und ohne ihm Vorschriften zu machen. Nach der einjährigen Erprobung von Schüler-Interviews betonen alle drei Lehrerinnen größeren Wert auf prozessorientiertes Mathematiklernen zu legen. Sie berichten, dass sie die Performanzen der Kinder stärker kompetenzorientiert wahrnehmen. Jedoch haben sie Schwierigkeiten, die für sich selbst gewonnene Transparenz über die mathematischen Performanzen des interviewten Kindes, den Schülern mitzuteilen und ihnen ermutigende Rückmeldungen zu geben. Außerdem können die Lehrer die problematischen mathematischen Bereiche der Schüler zwar beschreiben, sehen sich laut ihrer eigenen Aussage aber nicht in der Lage mit den Schülern daran zu arbeiten und sie angemessen zu för-dern. Selbst nach den ausführlichen Analysen der ausgewählten Lehrerinnen bleibt unklar, ob und in welcher Weise sie die Erkenntnisse aus dem Führen der Schüler-Interviews für ihren Unterricht nutzen. Laut der Aussage zweier beteiligter Lehrerinnen sollten Lehrer offen und interessiert sein und sich bereitwillig mit ihren eigenen Kompetenzen auseinandersetzen, damit das Führen von Schüler-Interviews für die Lehrer selbst und für die Schüler einen besonderen Nutzen besitzt. Um diese Auseinandersetzung stärker anzuregen und zu vermeiden, dass sich im Schüler-Interview mit dem Kind nicht die Einstellungen des Lehrers gegenüber den Leistungen des Schülers widerspiegeln, könnten sie vor Beginn des Führens von Schüler-Interviews verstärkt in der Ausbildung ihrer Interviewkompetenzen unterstützt und geschult werden. Obwohl sich die Lehrer zuerst Freiräume schaffen mussten, in denen sie trotz ihres Zeitmangels Schüler interviewen konnten, bietet das Führen von Schüler-Interviews die Chance, den Ist-Zustand der Schülerperformanzen in den mathematischen Bereichen Zahlen, Größen und Raum zu erfassen.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Im ersten Kapitel dieser Arbeit, dem theoretischen Rahmen, erhalten die Ergebnisse der Fernsehprogrammanalyse ihre theoretische Grundlage. Anhand von Beispielen aus der alltäglichen Mediennutzung von Kindern werden die in der Einleitung entfalteten Annahmen über Orientierungsbedürfnisse von Kindern nochmals aufgegriffen. Diese Orientierungsbedürfnisse werden als Selbstschutzbedürfnisse definiert und es werden Strategien aufgezeigt, die Kinder entwickeln, um diesen Selbstschutz aufrecht zu erhalten. Die Kompetenzen, die Kinder im Umgang mit Medien in ihrem privaten Alltag entwickelt haben, spielen dabei eine Rolle, aber auch die Fähigkeit, vorgegebene Strukturen der Medien und im Umgang mit ihnen zu durchschauen, zu reflektieren und gezielt für ihre eigenen Bedürfnisse einzusetzen. Als Vertreter eines pädagogischen Verständnisses von Medienkompetenz, das Mediennutzer als vor allem im gesellschaftlichen Kontext handlungsfähig denkt, wird Dieter Baacke im zweiten Theorieteil angeführt. Seine vier Dimensionen von Medienkompetenz bildeten die Ausgangsposition für die qualitative Fernsehprogrammanalyse. Unter dem Vorzeichen kultureller Handlungsfähigkeit wird im dritten Teil der Theorie der Versuch unternommen, den theoretischen Rahmen für die Analyse von Programmangeboten abzustecken, die „anders“ sind als andere. Wesentlich dabei ist der Gedanke, sich mit Mitteln der Dekonstruktion und Eigeninterpretation durchschaubar zu machen. Solche Angebote können als Chance für Mediennutzer begriffen werden, Differenzerfahrungen fruchtbar für sich und andere zu gestalten und zu nutzen. Die methodische Vorgehensweise bei der qualitativen Fernsehprogrammanalyse und Operationalisierung der Fragestellung sind in Kapitel zwei beschrieben. Ausgehend von dem Versuch, Dieter Baackes vier Dimensionen von Medienkompetenz zur Operationalisierung der Fragestellung heranzuziehen, wurde während des Zeitraums von zwei Jahren versucht, „Medienkompetenz“ als kodierbare Variable zu definieren und Sendungen qualitativ darauf zu untersuchen, ob sie Elemente enthalten, die Kinder dabei unterstützen, das Fernsehprogrammangebot und andere Medien zu ordnen und zu (er)klären und es den Zuschauern ermöglichen, darin zu manövrieren. Das Datenmaterial zu dieser Untersuchung stammt aus dem Forschungsprojekt „Jährliche Bestandsaufnahme zum Kinderfernsehen – qualitative und quantitative Fernsehprogrammanalyse in der Sicht der Kinder“ der Medienpädagogik der Universität Kassel. In mehreren Schritten wird verdeutlicht, wie die Kategorienbildung zur Einordnung der analysierten Programme und Programmelemente erfolgte. Die qualitative Fernsehprogrammanalyse teilt sich in zwei Kapitel: In Kapitel drei wird das exemplarische Programmangebot innerhalb der in Kapitel eins und zwei beschriebenen Kategorien „Regeln geben“, „Regeln anwenden“ und „Regeln brechen“ diskutiert. Die Analyse bezieht sich dabei auf das Fernsehprogrammangebot aus den Jahren 2000 bis 2003. Kapitel vier ist eine Auskopplung aus der ersten Kategorie des dritten Kapitels „Regeln geben“ und widmet sich den „orientierenden Elementen“, also Programmangeboten, die hinweisenden und werbenden Charakter haben. Solche Elemente, auch wenn sie aus Sicht der Programmanbieter für das Programm werben sollen, strukturieren das Fernsehprogramm zum einen intramedial, zum anderen bieten sie über diese inhaltlich und zeitlich strukturierenden Elemente den Zuschauer Bezugspunkte, die Zuschauer als Freiraum zum Navigieren nutzen können. Dieser Teil, das Programmangebot an orientierenden Elementen, wird in erster Linie aufgrund des Umfangs der Ausarbeitung in einem eigenen Kapitel behandelt. Zum anderen würde sich diese Trennung aber auch aufgrund der Tatsache rechtfertigen lassen, dass die Elemente, die als orientierenden Elemente bezeichnet werden, als intramediale Verweisstrukturen auf das Fernsehprogramm selbst verweisen, die in Kapitel drei behandelten Sendungen hingegen eher einen expliziten Alltagsbezug der Mediennutzer aufweisen. In Kapitel fünf, dem Fazit, werden die zentralen Ergebnisse der Fernsehprogrammanalyse zusammengefasst. In Bezug auf die Fragestellung „Fördert Fernsehen Medienkompetenz?“ und den theoretischen Rahmen, der dieser Arbeit zugrunde liegt, werden die Angebote des Fernsehen für Orientierungsbedürfnisse der Zuschauer betrachtet und mögliche Konsequenzen formuliert.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

In der professionsgeschichtlichen Studie ‘Metaphern und Metamorphosen der Landschaft’ wird die Funktion von Leitbildern in der Landespflege erörtert. Leitbilder sind auf fast allen gesellschaftlichen Feldern verbreitet, sowohl im täglichen Leben als auch in der Werbung und im Wissenschaftsbetrieb. Sie gehören auch zum Grundbestand der Landespflege. // In dieser Studie wird analysiert, wie Leitbilder in der Landespflege eingesetzt werden und welche Aufgabe sie erfüllen. Ausgehend von der These, dass die Landespflege für Leitbilder besonders empfänglich ist, weil ihr professionelles Idol ‘Landschaft’ sie dafür disponiert, wird die Genese des modernen Landschaftsbegriffs dargelegt und dabei herausgearbeitet, dass die Metapher Landschaft sowohl ästhetische als auch normative Implikationen enthält, die in der Landespflege als ‘gegenständliche Eigenart’ einer Landschaft aufgefasst werden. Insofern ist Landschaft eine ideologische Formation. Anschließend wird die professionelle Gestalt und Praxis der Landespflege idealtypisch beschrieben und auf die ‘absolute Metapher’ Landschaft bezogen, wobei gezeigt werden kann, dass im Diskurs der Landespflege die entworfenen Leitbilder an die Landschaft anschlussfähig sind. In der Gestaltung von Leitbildern erweist sich die Landespflege als Kulturindustrie. // Die Funktionsweise von Leitbildern und die Leitbildnerei im Allgemeinen werden von einem semiotischen Ansatz her analysiert, der um eine gesellschaftstheoretisch basierte Ideologiekritik ergänzt wird. Leitbilder werden in Reklame und Propaganda eingesetzt, wo sie Gegenstände bzw. Themen, die in eine pragmatische oder politische Debatte eingebunden sind, zuerst ästhetisieren und dann Normen über eingängige Images, Klischees und Phrasen verdinglichen. Insofern erfüllen Leitbilder eine ideologische Aufgabe. Landschaft und Leitbild entsprechen sich im landespflegerischen Diskurs als ideologische Formationen. // Anhand des Leitbildes ‘Nachhaltigkeit’ wird exemplarisch gezeigt, wie Leitbilder in der Landespflege entworfen und eingesetzt werden. ‘Nachhaltigkeit’ ist das wichtigste Leitbild der Landespflege, das in der Professionsgeschichte unter verschiedenen Vorzeichen wiederholt auftritt und z.B. als ‘nachhaltige Entwicklung’ seit den 1990er Jahren durch politische Debatten und auch durch den landespflegerischen Diskurs geistert. Geschichtlich retrospektiv werden die Leitbilder ‘nachhaltige Entwicklung’, ‘nachhaltige Umweltsicherung’, ‘nachhaltiger Ressourcenschutz’ und ‘nachhaltige Fruchtbarkeit’ innerhalb des landespflegerischen Diskurses rekonstruiert. Durch diese Rekonstruktion kann gezeigt werden, dass den Leitbildern der Nachhaltigkeit die Funktion zugrunde liegt, den Zugriff auf ‘freie Güter’ zu monopolisieren sowie zu privatisieren und den autonomen Gebrauch der lokalen Produktionsmittel sowie die Subsistenzwirtschaft zu zerstören. Diese Ausrichtung der Landespflege auf Herrschaft und Industrialisierung kann sowohl an der Entstehungsgeschichte der Landespflege (im Landschaftspark) als auch im Ursprungstext der Nachhaltigkeit (zur Forstwirtschaft) nachgewiesen werden. // Abschließend wird ein Ausblick auf eine Landschaftsplanung gegeben, die nicht an der ästhetisch-normativen Idee Landschaft, sondern am Freiraum als sozial-räumliches Handlungsfeld im Alltag der Menschen orientiert ist.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Überblick über die Arbeit: "Die Notwendigkeit deutscher Kinderfernseh- und -filmproduktion ist unbestritten. Sie sind die Voraussetzung dafür, dass Kinder im Fernsehen ihre eigene Lebenswirklichkeit wiederfinden und zur Reflexion dieser Wirklichkeit angeregt werden."(Rosenbaum 2000) Kinderfernsehexperten wie Uwe Rosenbaum (Landessenderdirektor des Südwestrundfunks Rheinland-Pfalz) oder Armin Maiwald (Geschäftsführer der Flash Filmstudio GmbH, Produzent und Regisseur vieler Sachgeschichten der Sendung mit der Maus) vertreten die Meinung, dass in Deutschland mehr Kinderprogramm mit Kindern produziert werden müsse, die in Deutschland wohnen. Sie sind dabei auch der Meinung, Realprogramm sei qualitativ hochwertiger und damit für Kinder besser, als einseitiges, triviales Zeichentrickprogramm. Der Teil 1 greift diesen Diskurs auf und beschreibt ihn. Einen Beitrag zu diesem Diskurs möchte die Frageleisten, welche Darstellungsformen von Welt vom expliziten Kinderfernsehen angeboten werden und welche davon Kinder bevorzugen. Das Material einer systematischen Fernsehprogrammanalyse, die von den Nutzungspräferenzen der Kinder ausgeht, kann dabei helfen. Dabei konzentriere ich mich auf die zwei Aspekte "Animation" und "real", da der Diskurs Realfilm als qualitativ hochwertig ansieht und Animation in dieser Hinsicht das genaue Gegenteil darstellt. Dabei ist ein zentrales Ergebnis der Analyse, dass sich die Nutzungspräferenzen der Jungen und Mädchen in bezug auf realitätsnahes Programm sehr unterscheiden: Jungen sehen eher Zeichentrickprogramm und Mädchen sehen eher Realformate wie z.B. Soap-Operas. Das legt nahe, die Diskussion um Realitätsnähe im Kinderfernsehen aus geschlechterspezifischer Sicht zu betrachten und die Fragestellung der Arbeit dahingehend neu zu formulieren. Der zweite Teil der Arbeit sortiert zunächst die Begriffe "Realitätsnähe", "Realfilm" und "Zeichentrick", die im ersten Teil eingeführt wurden und trennt sie von einander. Die "Jährliche Bestandsaufnahme zum Kinderfernsehen - qualitative und quantitative Fernsehprogrammanalyse in der Sicht der Kinder" dient dazu, im Kinderfernsehen die Spuren des Diskurses wieder zu finden. Die systematische Suche nach solchen Programmen macht es nötig, mit Hilfe operationalisierter Begriffe, Fernsehprogramm zu kodieren. Dabei bieten sich bereits vorhandene Kodes zur Realitätsnähe an. Für die Auswertung sind zudem auch Zugänge über weitere Kodes wie z.B. Information/ Unterhaltung oder Fiction/ Non-Fiction möglich. Die Ansätze in Teil 1 und 2 waren bis dahin umgangssprachliche Formulierungen, deshalb folgt im dritten Teil der Arbeit ein Exkurs in die Theorie, um den Begriff der Realitätsnähe im Fernsehen theoretisch zu begründen und um Realfilm und Animation theoretisch zu beschreiben. Zwei Themenfelder sind hierbei wesentlich: Das erste Themenfeld behandelt die Wirklichkeitskonstruktion im Fernsehen mit den Autoren Alfred Schütz, Thomas Luckmann und Jürgen Fritz. Das Wesentliche in diesem Abschnitt ist der Versuch Realfilm und Zeichentrick als geschlossene Sinngebiete wie "reale Welt" und "Spielwelt" zu verstehen, da geschlossenen Sinngebieten spezifische, eigene Erlebnis- und Erkenntnisstile zugrunde liegen. Fazit dieser Überlegung ist, dass Realfilm und Zeichentrick einander nicht über- oder untergeordnet sind, sondern formal nebeneinander mit unterschiedlichen Erkenntnis- und Erlebnisstilen in Erscheinung treten, bzw. in ihnen unterschiedliche Erlebnis- und Erkenntnisstile angelegt sind. Das zweite Themenfeld widmet sich der von David Buckingham so genannten "Perceived Reality", die nach der Wahrnehmung der Kinder von Wirklichkeit im Fernsehen fragt. Dabei geht es um die Frage, wie Kinder die Realität des Fernsehens beurteilen. Ein Fazit ist hierbei, dass Kinder an Fernsehsendungen keine allgemeingültige Messlatte anlegen, um die Realitätsnähe zu bestimmen, sondern Kinder handeln die Realitätsnähe von Sendungen und deren Bewertung in sozialen Kontexten mit Peers und Erwachsenen je nach Situation aus. Der vierte Teil der Arbeit wertet die Kodierung aus dem zweiten Teil aus und präsentiert Ergebnisse. In diesem Teil werden verschiedene Auswertungsverfahren ausprobiert, um Muster in der Rezeption und im Ein- und Ausschaltverhalten der Kinder in bezug auf Realitätsnähe zu finden. Nachdem Überblick über das Angebot an realitätsnahem Kinderfernsehprogramm, folgt die Auswertung der Nutzung des Kinderprogramms. Hierbei steht die Frage im Vordergrund, in welchem Ausmaß Kinder realitätsnahe Programme nutzen und welche geschlechterspezifischen Unterschiede es in der Nutzung Formate "Animation" und "real" gibt. Im Groben werden in diesem Kapitel zahlreiche Listen präsentiert, Sendungen beschrieben und vor allem unterschiedliche Altersgruppen sowie Geschlechter berücksichtigt. Eines der auffälligsten Merkmale wird sein, dass Jungen in Bezug auf die eingangs eröffneten Begriffe andere Präferenzen und Fernsehnutzungsmuster zeigen als Mädchen. Im Gegensatz zu Mädchen sehen die Jungen eher weniger Realprogramm und eher mehr Animationsprogramm. Kinder im Fernsehen stehen stellvertretend für Muster und Typen von Kindern der realen Welt. Das legitimiert anhand der Typologie der Kinder nach Freizeitmustern , nach diesen Kindertypen im Fernsehen und bei den Zuschauern zu suchen. Ein Ergebnis bestätigte die Beobchtung, dass Mädchen neben Realprogramm auch Zeichentrick sehen, und Jungen nur Zeichentrick. Anhand der bis dort gewonnenen Ergebnisse und zweier Beispiele aus dem Schulalltag folgt abschließend in Teil 5 ein pädagogisches Fazit. Der Umgang von Jungen mit Medien wird häufig problematisiert und so wie es sich in den Ergebnissen dieser und anderer Arbeiten wie der PISA2000-Studie oder in der Typologie der Freizeitmuster darstellt, könnte man durchaus den Eindruck gewinnen, dass Jungen eine schwierige Beziehung zu Medien haben. Deshalb muss man sich vermutlich zunächst eingestehen, dass Jungen eher Zeichentrick und Mädchen eher Soaps gucken, um danach Jungen emphatisch in Bezug auf ihre Mediennutzungsmuster zu begegnen und ihre Vorlieben nicht zu trivialisieren oder zu verurteilen. Das hat pädagogische Bedeutung für die Schule, wie die beiden Beispiele zeigen.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Mit der Verwirklichung ,Ökologischer Netzwerke‘ werden Hoffnungen zum Stopp des Verlustes der biologischen Vielfalt verknüpft. Sowohl auf gesamteuropäischer Ebene (Pan-European Ecological Network - PEEN) als auch in den einzelnen Staaten entstehen Pläne zum Aufbau von Verbundsystemen. Im föderalen Deutschland werden kleinmaßstäbliche Biotopverbundplanungen auf Landesebene aufgestellt; zum nationalen Biotopverbund bestehen erste Konzepte. Die vorliegende Arbeit ist auf diese überörtlichen, strategisch vorbereitenden Planungsebenen ausgerichtet. Ziele des Verbunds sind der Erhalt von Populationen insbesondere der gefährdeten Arten sowie die Ermöglichung von Ausbreitung und Wanderung. Aufgrund fehlender Datengrundlagen zu den Arten und Populationen ist es nicht ohne weiteres möglich, die Konzepte und Modelle der Populationsökologie in die überörtlichen Planungsebenen zu übertragen. Gemäß der o.g. Zielstellungen sollte sich aber die Planung von Verbundsystemen an den Ansprüchen der auf Verbund angewiesenen Arten orientieren. Ziel der Arbeit war die Entwicklung einer praktikablen GIS-gestützten Planungshilfe zur größtmöglichen Integration ökologischen Wissens unter der Bedingung eingeschränkter Informationsverfügbarkeit. Als Grundlagen dazu werden in Übersichtsform zunächst die globalen, europäisch-internationalen und nationalen Rahmenbedingungen und Anforderungen bezüglich des Aufbaus von Verbundsystemen zusammengestellt. Hier sind die Strategien zum PEEN hervorzuheben, die eine Integration ökologischer Inhalte insbesondere durch die Berücksichtigung räumlich-funktionaler Beziehungen fordern. Eine umfassende Analyse der landesweiten Biotopverbundplanungen der BRD zeigte die teilweise erheblichen Unterschiede zwischen den Länderplanungen auf, die es aktuell nicht ermöglichen, ein schlüssiges nationales Konzept zusammenzufügen. Nicht alle Länder haben landesweite Biotopverbundplanungen und Landeskonzepte, bei denen dem geplanten Verbund die Ansprüche von Arten zugrunde gelegt werden, gibt es nur ansatzweise. Weiterhin wurde eine zielgerichtete Eignungsprüfung bestehender GIS-basierter Modelle und Konzepte zum Verbund unter Berücksichtigung der regelmäßig in Deutschland verfügbaren Datengrundlagen durchgeführt. Da keine integrativen regelorientierten Ansätze vorhanden waren, wurde der vektorbasierte Algorithmus HABITAT-NET entwickelt. Er arbeitet mit ,Anspruchstypen‘ hinsichtlich des Habitatverbunds, die stellvertretend für unterschiedliche ökologische Gruppen von (Ziel-) Arten mit terrestrischer Ausbreitung stehen. Kombiniert wird die Fähigkeit zur Ausbreitung mit einer Grobtypisierung der Biotopbindung. Die wichtigsten Grundlagendaten bilden die jeweiligen (potenziellen) Habitate von Arten eines Anspruchstyps sowie die umgebende Landnutzung. Bei der Bildung von ,Lebensraumnetzwerken‘ (Teil I) werden gestufte ,Funktions- und Verbindungsräume‘ generiert, die zu einem räumlichen System verknüpft sind. Anschließend kann die aktuelle Zerschneidung der Netzwerke durch Verkehrstrassen aufgezeigt werden, um darauf aufbauend prioritäre Abschnitte zur Wiedervernetzung zu ermitteln (Teil II). Begleitend wird das Konzept der unzerschnittenen Funktionsräume (UFR) entworfen, mit dem die Indikation von Habitatzerschneidung auf Landschaftsebene möglich ist. Diskutiert werden schließlich die Eignung der Ergebnisse als kleinmaßstäblicher Zielrahmen, Tests zur Validierung, Vergleiche mit Verbundplanungen und verschiedene Setzungen im GIS-Algorithmus. Erläuterungen zu den Einsatzmöglichkeiten erfolgen beispielsweise für die Bereiche Biotopverbund- und Landschaftsplanung, Raumordnung, Strategische Umweltprüfung, Verkehrswegeplanung, Unterstützung des Konzeptes der Lebensraumkorridore, Kohärenz im Schutzgebietssystem NATURA 2000 und Aufbau von Umweltinformationssystemen. Schließlich wird ein Rück- und Ausblick mit der Formulierung des weiteren Forschungsbedarfs verknüpft.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Das Protein Orb2, welches zum Xenopus CPEB homolog ist, erfüllt während der Spermatogenese von Drosophila melanogaster eine wesentliche Funktion. Das teilweise Ausschalten von orb2 führt zu Störungen in der Individualisierung der Spermatiden, Veränderung in der Morphologie und Lokalisation der Spermatidenkerne und damit verbunden zu männlicher Sterilität. Der weit gestreute Phänotyp spricht für eine regulatorische Funktion des Proteins, wie es aufgrund der Homologie zu CPEB zu erwarten ist. Orb2 mutante Weibchen zeigen dagegen keinen Phänotyp. Die Sterilität konnte mit spezifischen Rettungskonstrukten rückgängig gemacht werden, wobei die beiden Proteinformen in ihrer Funktion höchstwahrscheinlich äquivalent sind, da eine größere Menge an kleinem Protein das Fehlen des größeren ausgleichen kann. Beide Proteinformen lokalisieren in fast alle Stadien der Spermatogenese, wobei nur das kleinere auch in reifen Spermien persistiert. Zur Untersuchung der regulatorischen Funktion des Proteins Orb2 wurden zunächst drei mögliche Protein-Interaktionskandidaten analysiert. Obwohl ähnliche mutante Phänotypen in Gap und Cup ausgelöst wurden, lässt sich eine Interaktion bis jetzt mit diesen Kandidaten weder ausschließen noch bestätigen. Daneben zeigte das Protein Tob eine ähnliche Lokalisierung und einen deutlich ähnlicheren mutanten Phänotyp, wie er für Orb2 beschrieben wurde. Besonders auffällig ist die Lokalisation der Tob mRNA an die Spermatidenenden und die Verringerung der Transkriptmenge in der orb2-Mutante. Ob dieser Phänotyp durch den Verlust der regulatorischen Funktion von Orb2 hervorgerufen wird oder durch den späten Zeitpunkt der Transkription bedingt ist, muß in späteren Experimenten geklärt werden. Mit Hilfe eines Co-Immunpräzipitations-Experimentes wurde nach weiteren Proteininteraktionspartnern sowie nach Ziel-mRNAs gesucht, die durch Orb2 reguliert werden könnten. Dabei ergaben die massenspektrometrischen Analysen zwar Proteine, die mit der Translation selbst in Zusammenhang stehen, sowie einige regulatorische RNA-bindende Proteine, wiesen aber auch in Gestalt eines häufig nachgewiesenen Anhangsdrüsenproteins auf deutliche systematische Probleme hin. Auf genetischem Wege war bereits der Nachweis gelungen, dass die Protamine und mst77F, die strukturelle Komponenten der kompaktierten Kern-DNA sind, durch Orb2 in ihrer Translation reprimiert werden. Dieses Ergebnis wurde zum Teil bestätigt durch den Nachweis der Protamin mRNAs in den Eluaten aus dem Co-Immunpräzipitationsexperiment. Damit konnte zum ersten Mal in der Drosophila Spermatogenese das regulatorische Protein zu einer translationskontrollierten mRNA identifiziert werden.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Während zum Genehmigungsrecht zahlreiche Abhandlungen in der juristischen Literatur und eine große Zahl von Urteilen veröffentlicht sind, hält sich die Forschung und praktische Behandlung zum Aufsichtsrecht in Grenzen. Diese Arbeit vertieft das Verständnis, für die spezifische Verknüpfung und gegenseitige Abhängigkeit der Eröffnungskontrollen und der begleitenden Kontrollen im deutschen Arbeits-, Umwelt- und Verbraucherschutzrecht. Zentraler Punkt dieser Arbeit ist die Entwicklung von Grundlinien der begleitenden Aufsicht im Gewerbeaufsichtsrecht. Dazu ist es erforderlich die verschiedenen Randbedingungen gewerbeaufsichtlichen Handelns in den Blick zu nehmen. Es ist ein Blick auf die zu erwartende Ausbildung eines neuen Rationalitätstyps der gesellschaftlichen Entwicklung (2.), auf die Typisierung von Staats-, Gewerbe- und Wirtschaftsaufsicht und deren spezifischen Handlungsmustern, den festgestellten Defiziten des Aufsichtsrechts und des Aufsichtshandelns der begleitenden Kontrollen und den festgestellten tatsächlichen Wirkungen des Aufsichtssystems (3.) zu werfen. Weitere Einflüsse auf das Aufsichtsmodell der Zukunft kommen aus der erwarteten und wünschenswerten Entwicklung des Genehmigungsrechts (4.), der Art und Weise wie die begleitende Aufsicht gehandhabt werden kann und soll (5.) und den Privatisierungstypen und deren verfassungsrechtlichen Grenzen (6.). Die Arbeit schließt mit der Formulierung eines Zukunftsmodells, dass die Gewichte zwischen der Eröffnungs- und der begleitender Kontrolle, sowie das Verhältnis zwischen Staat, Privaten Dritten und Unternehmen, neu ordnet. Insgesamt wird in dieser Arbeit für ein Aufsichtsmodell plädiert, indem der Staat stärker in die Verantwortung für eine risikoorientierte begleitende Aufsicht genommen wird. Maßstäbe für die Risikoregelung sind künftig komplett vom Staat aufzustellen. Staatliche Aufsicht kann sich zukünftig auf Rahmenregelungen und Rahmenprüfungen bei den risikoreichsten Anlagen, Tätigkeiten und Produkten beschränken. Private Dritte können die Detailermittlungen und Freigaben bearbeiten. Private Sachverständige können künftig die Hauptlast detaillierter und zeitintensiver Kontrolltätigkeiten bei Anlagen, Tätigkeiten und Produkten mit mittlerem Risiko übernehmen. Anlagen, Tätigkeiten und Produkte mit geringem Risiko können der Eigenüberwachung überlassen werden. Im Gegenzug muss der Staat in deutlich stärkeren Maß die Aufsicht über die Kontrolleure anhand einheitlicher Maßstäbe organisieren und durchführen. Die Anforderungen an die Kontrolleure müssen künftig allgemein, sowohl für die externen Kontrollpersonen als auch für die internen Aufsichtspersonen, gelten und überprüft werden.