952 resultados para lange termijn strategieën
Resumo:
Es wird der Frage nachgegangen, welchen Einfluss Beziehungskonzepte, also die kognitiven Repräsentationen von Paarbeziehungen, auf den Umgang mit begrenzten Bedürfnissen in Paarbeziehungen haben. Als begrenzte Bedürfnisse werden dabei Wünsche der Beziehungspartner verstanden, welche innerhalb des Beziehungsarrangements keine Erfüllung finden, das heißt, im raummetaphorischen Sinne auf Grenzen stoßen. In einem umfangreichen theoretischen Teil der Arbeit werden Untersuchungen zu Beziehungskonzepten vorgestellt. Es wird eine Arbeitsdefinition zu Beziehungskonzepten für die vorliegende Arbeit hergeleitet. Es wird die Determiniertheit von Beziehungskonzepten durch gesellschaftliche Wandlungsprozesse diskutiert. Des Weiteren wird eine Auswahl an Bedürfniskonzeptionen und –klassifikationen vorgestellt. Daraufhin wird der Begriff des Beziehungshandelns eingeführt, indem ein allgemeines Handlungsmodell vorgestellt und in Bezug zu Beziehungskonzepten gestellt wird. Des Weiteren werden die Rolle der Emotionen und der Aspekt der Emotionsregulation im Kontext von Beziehungshandeln diskutiert. Abschließend wird im theoretischen Teil der Arbeit der Einfluss von Beziehungskonzept und Beziehungshandeln auf die Beziehungsqualität erörtert. Der methodische Teil beschreibt die Empirie der vorliegenden Arbeit. Es wurden 12 Interviews geführt, teilweise leitfadenbasiert und teilweise narrationsgenerierend. Interviewt wurden 15 Personen im Alter von 21-75 Jahren, die alle in einer Beziehung leben. Die Interviews fanden entweder paarweise oder im Einzelsetting statt. Alle Interviews wurden gemäß der Grounded Theory-Methodik nach Strauss und Corbin (1996) ausgewertet. Die Ergebnisse werden in Form eines paradigmatischen Modells strukturiert dargestellt, in dessen Zentrum die raummetaphorische Kategorie „Beziehung als Raum“ steht. Paarbeziehung, räumlich betrachtet, öffnet den Blick auf zwei wesentliche Merkmale der individuellen Ausgestaltung von Beziehung und damit auch des spezifischen Umgangs mit partneradressierten Bedürfnissen: 1. Grenzen konstituieren den Beziehungsraum, der damit als begrenztes Phänomen zu verstehen ist. 2. Die Grenzen des Beziehungsraumes variieren in Eigenschaften wie der Bewusstheit, der expliziten vs. impliziten Thematisierung, der Weite vs. Enge, der Statik vs. Flexibilität. Sie bestimmen damit die Form und die Inhalte der jeweiligen Beziehung. Es wurden aus der Variation dieser Merkmale zwei prototypische Beziehungskonzeptionen herausgearbeitet, das „kulturell, verankerte Beziehungskonzept“ sowie das „alternative, freigesetzte Beziehungskonzept“. Beide Beziehungskonzeptionen werden entlang der Dimension eines Freiheitsgrade in Hinblick auf ihre Ziele, Grenzen und Rollen beschrieben und unterschieden und in der Disposition zu verschiedenen Strategien im Umgang mit begrenzten Bedürfnissen miteinander verglichen. Abschließend wird der Einfluss beider Konzeptionen und verwandter Handlungsstrategien auf die Beziehungsqualität dargestellt. In einem anschließenden Diskussionsteil werden die methodische Güte der Ergebnisse, die inhaltliche Güte der Ergebnisse sowie deren Anwendbarkeit diskutiert und ein Forschungsausblick geben.
Resumo:
Prinzipien und Strategien der Nachhaltigkeit spielen auch in der zeitgenössischen Landschaftsarchitektur eine immer bedeutendere Rolle. Vor dem Hintergrund der ansteigenden Zahl an postindustriellen Flächen in Deutschland und der gleichzeitigen Zielsetzung, im Sinne einer nachhaltigen gesellschaftlichen Entwicklung die Flächeninanspruchnahme zu reduzieren, entsteht die Forderung, die Altindustrie-Areale in eine nachhaltige neue Nutzung zu überführen und damit auch den Außenraum nachhaltig zu entwickeln. Dabei spielt die Integration der vorhandenen Strukturen wie Baukonstruktionen, Materialien und Vegetation eine bedeutende Rolle. Für den nachhaltigen Umgang mit den vorhandenen Elementen im Außenraum gibt es bisher keine systematisierten Anweisungen oder Handlungsrichtlinien. Die Arbeit schließt diese Lücke , indem sowohl grundsätzliche Nachhaltigkeitspotenziale in der Landschaftsarchitektur untersucht und definiert werden als auch die Anwendung der erarbeiteten Prinzipien auf den Umgang mit den besonderen Orten der Altindustrieflächen erfolgt. Ein Vorgehen im Sinne einer nachhaltigen Entwicklung des Außenraumes unter Einbeziehung der vorhandenen Elemente und Strukturen wird systematisiert und in Handlungsrichtlinien formuliert. Praxisnähe und Anwendbarkeit sind dabei wichtige Zielsetzungen. Um nicht nur die Relevanz der vorhandenen Strukturen für die ökonomische Dimension der Nachhaltigkeit zu untersuchen, wird im zweiten Teil der Arbeit die Frage nach der Bedeutung der vorhandenen Elemente für den ökonomischen Aspekt der Nachhaltigkeit gestellt und beantwortet. Dazu wird ein Beispielstandort einer ehemaligen Zeche im Ruhrgebiet ausgewählt. Für ein charakteristisches Teilareal mit zahlreichen vorhandenen Strukturen im Außenraum wie befestigten Flächen aus unterschiedlichen Materialien, Baukonstruktionen sowie Vegetation werden die Baukosten detailliert für verschiedene Szenarien - je nach Anteil von Wiederverwendung bzw. Neubau - kalkuliert und verglichen. In einem zweiten Schritt erfolgt die Kalkulation der Baukosten für die Szenarien bei Verwendung vorhandener recycelter Materialien. Im Ergebnis zeigt die Arbeit die Nachhaltigkeitspotenziale innovativer Landschaftsarchitektur systematisch und praxisbezogen auf - generell, wie auch für den speziellen Fall der postindustriellen Flächen. Die ökonomische Bedeutung der vorhandenen Substanz im Außenraum wird anhand eines konkreten Fallbeispiels untersucht, und es werden Aussagen zu Einsparungsmöglichkeiten durch die Integration der vorhandenen Strukturen sowie durch den Einsatz der recycelten vorhandenen Materialien getroffen. So können z.B. für bestimmte Kostengruppen Baukosten in einem Rahmen von bis zu 40 % bei Verwendung/Recycling der vorhandenen Bausubstanz eingespart werden. Die Ergebnisse der Untersuchungen sind in praxisnaher Form präsentiert und stellen eine wichtige Entscheidungsgrundlage im Planungsprozess postindustrieller Nutzungen auf Altindustrieflächen dar.
Resumo:
Die vorliegende Arbeit untersuchte die Einflüsse der Bodenart und Einarbeitungstiefe von Streu auf die mikrobielle Nutzung und ihren Abbau. Anhand einer Kohlenstoffsequestrierung wurde die Verlagerung streubürtigen Kohlenstoffes in die Fraktionen CO2-C, SOC, extrahierbaren Kohlenstoff, Cmik und POM-C betrachtet. Aufgrund der Analyse der δ13C-CO2 Werte der Bodenrespiration, im Rahmen der Sequestrierung des streubürtigen Kohlenstoffes, war der Anteil der streubürtigen Bodenrespiration und somit die gesamte, zu erwartende Bodenrespiration bekannt. Durch die, bei der Kohlenstoffsequestrierung, ermittelten Werte konnte eine Plausibilitätsprüfung an vier Methoden zur Erfassung der Bodenrespiration, auf ihre Genauigkeit und mögliche Artefakte hin, durchgeführt werden. Des Weiteren wurden in einem anschließenden Freilandversuch unter subtropischen Bedingungen die Einflüsse verschiedener Dünger und Feldfrüchte, in Abhängigkeit der Streuqualität, auf den Streuabbau und die mikrobielle Besiedelung hin untersucht. Im ersten Versuch (Kapitel 3), wurde anhand eines Säulenversuches der Einfluss der Einarbeitungstiefe, in Anhängigkeit der Bodenart, auf den Streuabbau untersucht. Dieses ist von großer Bedeutung, da auf landwirtschaftlich genutzten Flächen Streu und so genannte "Grüne Dünger" durch den Einsatz unterschiedlicher Bodenbearbeitungssysteme, wie z.B. der Kreiselegge oder dem Wendepflug, in unterschiedliche Tiefen eingearbeitet werden. Die Verlagerung streubürtigen mikrobiellen Kohlenstoffes per Pilzhyphen, über eine Distanz von bis zu 20 cm wurde innerhalb dieser Arbeit das erste Mal gezeigt. Bisherige Studien zeigten einzig einen Transport von streubürtigem Kohlenstoff per Pilzhyphen, über eine kurze Distanz von der Detritussphäre in den angrenzenden Boden. Der höhere Anteil streubürtigen mikrobiellen Kohlenstoffes innerhalb der von der Streuschicht weiter entfernten Schichten im sandigen Boden, im Vergleich zum lehmigen Boden zeigte, dass das feine Porenvolumen des lehmigen Bodens den Transport Streubürtigen Kohlenstoffes per Pilzhyphen grundsätzlich behindert. Diese Annahme wurde durch die stärkere Abnahme des Anteils streubürtigen mikrobiellen Kohlenstoffes, mit zunehmender Entfernung zur Streuschicht, im lehmigen Boden im Vergleich zum sandigen Boden unterstützt. Es ist davon auszugehen, dass der sandige Boden zusätzlich durch die höhere Porosität eine erhöhte Sauerstoffdurchlässigkeit und somit, in den tieferen Schichten bessere Wachstumsbedingungen für Mikroorganismen bietet als der lehmige Boden. Durch die Ausbreitung substratbürtigen mikrobiellen Kohlenstoffes wurde im sandigen Boden mehr streubürtiger Kohlenstoff durch Mikroorganismen inkorporiert als im lehmigen Boden. Ein weiterer Grund für die geringere Verlagerung von streubürtigem Kohlenstoff in die mikrobielle Biomasse des lehmigen Bodens ist wahrscheinlich der bessere physikalische Schutz durch den höheren Tonanteil. Durch die Einarbeitung der Streu stieg in allen Ansätzen der Gehalt an Ergosterol, welcher ein wesentlicher Indikator für die Präsenz saprotropher Pilze ist. Besonders stark ausgeprägt war der Anstieg des Ergosterolgehaltes, sowie des Ergosterol / mikrobielle Biomasse C – Quotienten, wenn Streu in die untere Schicht (15 - 20 cm) ein-gearbeitet wurde. Diese tiefenspezifischen Unterschiede wurden bisher in noch keinem weiteren Versuch beobachtet und können auf die Entwicklung unterschiedlicher pilzlicher Gemeinschaften zurück zu führen sein. Es ist jedoch wahrscheinlicher, dass pilzliche Nekromasse in den oberen Bodenschichten schneller umgesetzt wird und somit bei der Ergosterolbestimmung nicht mit erfasst wird. Da der Umsatz der pilzlichen Nekromasse im porösen sandigen Boden, aufgrund der höheren Sauerstoffverfügbarkeit und des geringeren physikalischen Schutzes, vermutlich höher ist als im lehmigen Boden, wird diese Annahme durch den im sandigen Boden geringeren Gehalt an mikrobiellen Kohlenstoff unterstützt. Wie erwartet, überstieg die Mineralisation der Streu im sandigen Boden die der im lehmigen Boden. Jedoch anders als erwartet, unterschied sich die Mineralisation in Abhängigkeit der Einarbeitungstiefe, mit einer erhöhten Mineralisation bei Einarbeitung der Streu in 0 - 5 cm Tiefe, einzig im sandigen Boden. Die Berechnung des Ertragskoeffizienten zeigte, dass die Substratsnutzungseffizienz der Mikroorganismen im sandigen Boden signifikant geringer war als die im lehmigen Boden. Die Zugabe von Streu führte in beiden Böden, verstärkt jedoch im lehmigen Boden, zu einem positiven Priming Effekt, der in beiden Bö-den stärker ausgeprägt war, als Streu in 0–5 cm Tiefe eingearbeitet wurde. Trotz Abnahme der SOC-bürtigen mikrobiellen Biomasse stieg die Mineralisation des SOC stark an. Es ist anzunehmen, dass extrazelluläre Enzyme wie Cellulase und Lignin modifizierende Enzy-me, produziert von saprotrophen Pilzen, zum Abbau von Cellolose und Lignin der Streu, zum Teil sehr effizient SOC abbauen. Im zweiten Versuch (Kapitel 4) wurde anhand des gleichen Säulenversuches (Versuch 1; Kapitel 3) der Einfluss der Entfernung von CO2-hot-spots im Boden zur Bodenoberfläche, in Abhängigkeit der Bodenart, auf vier verschiedene Methoden zur Erfassung der Bodenrespiration betrachtet. Zusätzlich wurde durch eine Plausibilitätsprüfung anhand der Kohlenstoffbilanz, basierend auf der in Versuch 1 durchgeführten Kohlenstoffsequestrierung, die Genauigkeit der vier Methoden in Abhängigkeit der Bodenart überprüft. Für beide Ansätze mit sandigem Boden zeigen IR und PAS eine deutliche Überschätzung der mit NaOH und GC bestimmten Bodenrespiration. Die Überschätzung durch IR ist dabei auf die durch die dynamische Haube verursachten Turbulenzen und deren Auswirkungen auf den porösen sandigen Boden zurück zu führen. Bei geringen Respirationsraten, wie bei der Kontrolle, zeigt die Messung mittels IR trotz Turbulenzen, verursacht durch den Ventilator der Haube, keine Überschätzung. Die Überschätzung durch PAS hingegen kann nicht auf Turbulenzen, verursacht durch die dynamische Haube, zurück geführt werden, da bei den Analysen mit PAS und GC identische Hauben, höher und größer als bei IR, eingesetzt wurden und die Bodenrespiration durch GC nicht überschätzt wurde. Im Gegensatz zu beiden sandigen Ansätzen überschätzt IR die Bodenrespiration im lehmigen Boden nicht. NaOH hingegen unterschätzt die Bodenrespiration, wenn Streu in 15-20 cm Tiefe des lehmigen Bodens eingearbeitet ist. Dieses ist dadurch zu erklären, dass, bedingt durch die geringere Porosität sowie das höhere Wasserhaltevermögen und dem daraus resultierenden geringeren Luft gefüllten Porenvolumen, die Diffusion von CO2 im lehmigen Boden langsamer ist als im sandigen Boden. Nach Absorption des CO2 der Haubenluft diffundiert das CO2 des CO2-hot-spots in 15-20 cm Tiefe, entlang des Diffusionsgradienten, aufgrund des Diffusionswiderstandes in lehmigen Boden langsamer zur Oberfläche als im sandigen Boden oder wenn der CO2-hot-spot direkt unter der Bodenoberfläche liegt. Da bei der Messung mit der dynamischen Haube diese nur kurz auf der Fläche verbleibt, beeinflusst der Diffusionsgradient diese Messungen nicht. Hinzukommt, dass bei den Messsystemen, die in Kombination mit der dynamischen Haube eingesetzt werden, im Gegensatz zur Absorption durch Lauge keine CO2 Abreicherung stattfindet und die Diffusion von CO2 aus dem Boden über lange Zeit bis zu hohen CO2 Konzentration in der Haube linear bleibt. Alle drei mit einer dynamischen Haube kombinierten Methoden zeigen mit Korrelations-koeffizienten zwischen 0,90 und 0,93 starke Korrelationen mit NaOH. Während PAS die Bodenrespiration im Verhältnis zu NaOH immer überschätzt, tritt eine Überschätzung durch GC nur bei Mineralisationsraten unter 500 mg m-2 h-1 und für IR bei Mineralisations-raten über 40 mg m-2 h-1 ein. Die Plausibilitätsprüfung zeigt, dass für sandigen Boden, mit NaOH und GC eine sehr exakte Wiederfindung von Kohlenstoff erreicht wird, wohingegen IR und PAS in der Wiederfindung von Kohlenstoff bei deutlich über 100 % liegen. Für den lehmigen Boden hingegen ist nach Entfernung der CO2-hot-spots zur Bodenoberfläche zu differenzieren. Befindet sich der CO2-hot-spot direkt unter der Bodenoberfläche ist die Wiederfindung von Kohlenstoff für NaOH, GC und IR sehr exakt. Befindet sich der CO2-hot-spot jedoch in 15-20 cm Tiefe, ist die Wiederfindung des Kohlenstoffes durch NaOH deutlich unter 100 %. Die Wiederfindung durch PAS liegt sowohl für den sandigen als auch für den lehmigen Boden immer deutlich über 100 %. Im dritten Versuch (Kapitel 5), wurde anhand eines Litterbag-Versuches im Norden des Omans, der Einfluss verschiedener Dünger und Feldfrüchte auf den Abbau von Streu auf landwirtschaftlich genutzten Flächen in Abhängigkeit der Streuqualität betrachtet. Bei dem Großteil bisheriger Streuabbauversuche, unter gemäßigten und subtropischen Klimaten, stand der Abbau von Streu im Wald im Fokus der Betrachtung. Die wenigen Versuche zum Streuabbau auf landwirtschaftlich genutzten Flächen beschränken sich auf die gemäßigten Klimate. Wohingegen der Abbau von Streu, sowie der Einfluss von Dünger und Feldfrucht unter subtropischen Bedingungen, zum ersten mal mit der vorliegenden Arbeit fokussiert wurde. Der Verlust an organischem Material war verglichen mit Versuchen un-ter gemäßigten Klimaten, bei allen vier Streuarten, generell hoch. Der höhere Abbau von Luzernen- und Maisstreu im Vergleich zu Raps- und Weizenstreu ist auf Unterschiede der Streuqualität zurückzuführen. Neben der Verwertbarkeit durch Mikroorganismen beeinflusst die Streuqualität zusätzlich die "Schmackhaftigkeit" der Streu für Organismen der Mesofauna. Wodurch ein selektiver Transport und/oder Grazing von Mikroorganismen stattfindet. Der geringere Abbau der Luzernenstreu verglichen mit Maisstreu jedoch ist nicht auf die Streuqualität sondern auf die geringere mikrobielle Besiedelung der Luzernenstreu während der Versuchszeit zurückzuführen. Der Unterschied im Grad der mikrobiellen Besiedelung kann durch die erhobenen Daten nicht erklärt werden. Es ist jedoch davon auszugehen, dass Leguminosen Substanzen wie z.B. Polyphenole enthalten, welche die mikrobielle Biomasse und im Besonderen die pilzliche Biomasse in beachtlichem Umfang inhibitieren. Ebenso wenig ist der höhere Abbau von Weizenstreu verglichen mit Rapsstreu durch die Streuqualität zu begründen. Eine mögliche Erklärung für den geringeren Abbau der Rapsstreu kann ihr hoher Aluminium Gehalt sein. Es ist jedoch wahrscheinlicher, dass die Rapsstreu organische Substanzen wie Glucosinolate enthält, welche den mikrobiellen Streuabbau inhibitieren. Während der Hemicellulosegehalt am Ende des Versuches nicht durch die Streuqualität beeinflusst war, zeigten Cellulose und Lignin quali-tätsabhängige Effekte. Der stärkere Abbau von Cellulose bei Luzernen- und Maisstreu ist auf den anfänglich höheren Stickstoffgehalt zurückzuführen, wodurch die Produktion und Aktivität von Cellulose degradierenden Enzymen, wie Exo-Cellulase, Endo-Cellulase und Xylanase, anstieg. Es ist davon auszugehen, dass die Differenzen im Celluloseabbau von Luzernen- und Maisstreu im Vergleich zu Raps- und Weizenstreu, neben Unterschieden im anfänglichen Stickstoffgehalt, auf den höheren Schutz von Cellulose durch Lignin in Raps- und Weizenstreu zurückzuführen sind. Während der initial geringe Stickstoffgehalt den Ligninabbau in Raps- und Weizenstreu unterstützt, ist die relative Anreicherung von Lignin in Luzernen- und Maisstreu hingegen auf den initial hohen Stickstoffgehalt zurückzuführen. Dem entgegen hat die Zusammensetzung weiterer Nährstoffe einen sehr geringen Effekt. Es ist jedoch möglich, dass stärkere Effekte durch den Eintrag von Boden in die Litterbags durch Organismen der Mesofauna, Wurzelwachstum oder physikalische Verlagerung überdeckt werden. Während unter organische Düngung, die pilzliche Biomasse ansteigt, fördert der leicht verfügbare Stickstoff der mineralischen Düngung die Bildung bakterieller Biomasse. Der höher Gehalt an pilzlicher Biomasse unter organischer Düngung zeigte keinen generellen Effekt auf den Abbau von Kohlenstoff. Er führte jedoch zu einer Veränderung in der Streuzusammensetzung. Die verringerte Abnahme bzw. verstärkte Zunahme der Nährstoffgehalte bei organischer Düngung ist durch den Eintrag dünger-bürtiger Nährstoffe, im Besonderen durch die verstärkte Bildung pilzlicher Hyphen in die Litterbags hinein, zu erklären. Trotz höherer Gehalte an pilzlicher Biomasse war der Ligningehalt am Ende des Versuches unter organischer Düngung höher als unter mineralischer Düngung. Diese ist auf den Eintrag düngerbürtiger Pilze zurückzuführen, welche eine geringere Lignindegradierungseffizienz aufweisen. Der Einfluss der Feldfrucht auf den Streuabbau äußert sich durch höhere Gehalte mikrobieller und im Besonderen pilzlicher Biomasse, und durch geringere Gehalte an N, P, Ca, Na und K in, im Litterbag verbleiben-der Streu, unter dem Anbau von Mohrrüben. Der Anstieg der pilzlichen Biomasse führt, ebenso wie bei der organischen Düngung zu keinem generellen Anstieg der Kohlenstoffdegradation, zeigt jedoch einen selektiven Effekt auf den Abbau von Cellulose. Der Einfluss, sowohl auf die mikrobielle Biomasse, als auch auf den Nährstoffgehalt, zeigt die Bedeutung der Unterschiede im Wurzelwachstum, der Rhizodeposition sowie des Nährstoffbedarfs in Abhängigkeit der Feldfrucht. Trotz großer Unterschiede der Streuarten im anfänglichen Gehalt mikrobieller Biomasse war dieser am Ende des Versuches für alle Streuarten identisch. Dieses war Folge eines starken Anstiegs der pilzlichen Biomasse bei Luzernen- und Maisstreu sowie einer Abnahme der pilzlichen Biomasse bei Raps- und Weizenstreu, welche zuvor noch nicht beobachtet wurde. Dieses macht den Einfluss der anfänglichen mikrobiellen Biomasse auf deren Entwicklung während des Streuabbauprozesses im Boden deutlich. Es ist anzunehmen, dass ein Teil der anfänglichen pilzlichen Biomasse der Raps- und Weizenstreu, welche sich unter gemäßigten Klimaten entwickelte, unter subtropischen Bedingungen nicht überlebensfähig war. Generell war der Streuabbau durch Pilze dominiert. Es zeigte sich jedoch, dass Unterschiede im Pflanzenmaterial einen Einfluss auf die bakterielle Biomasse hatten, Unterschiede in Düngung und Feldfrucht hingegen die pilzliche Biomasse und die bakterielle Biomasse beeinflussten.
Resumo:
Die Fachgruppe AFS (früher Fachgruppe 0.1.5) der Gesellschaft für Informatik veranstaltet seit 1991 einmal im Jahr ein Treffen der Fachgruppe im Rahmen eines Theorietags, der traditionell eineinhalb Tage dauert. Seit dem Jahr 1996 wird dem eigentlichen Theorietag noch ein eintägiger Workshop zu speziellen Themen der theoretischen Informatik vorangestellt. In diesem Jahr wurde der Theorietag vom Fachgebiet "Theoretische Informatik" des Fachbereichs Elektrotechnik/Informatik der Universität Kassel organisiert. Er fand vom 29.9. bis 1.10.2010 in Baunatal bei Kassel statt. Dabei stand der begleitende Workshop unter dem allgemeinen Thema "Ausgewählte Themen der Theoretischen Informatik". Als Vortragende für diesen Workshop konnten Carsten Damm (Göttingen), Markus Holzer (Giessen), Peter Leupold (Kassel), Martin Plátek (Prag) und Heribert Vollmer (Hannover) gewonnen werden. Das Programm des eigentlichen Theorietags bestand aus 20 Vorträgen sowie der Sitzung der Fachgruppe AFS. In diesem Band finden sich die Zusammenfassungen aller Vorträge sowohl des Workshops als auch des Theorietags. Desweiteren enthält er das Programm und die Liste aller Teilnehmer.
Resumo:
Die Inhalte der Arbeit befassen sich nach dem immanenten Erkenntnisinteresse mit dem Zusammenhang zwischen menschlichen Konflikten, Krisen und Krankheiten einerseits sowie mentalen Zuständen und Befindlichkeiten andererseits. Um die Voraussetzungen für ein umfassendes Verständnis der komplexen Materie herauszustellen, werden folgende Theorien und Erkenntnisse untersucht und diskutiert: Der Themenschwerpunkt Soziale Therapie gibt Einblick in die Entwicklung und den Stand der psychosozialen Beratung, es folgt die Darstellung und Auseinandersetzung mit innovativen Aspekten der Gesundheitswissenschaften, aufgezeigt an den Paradigmen Resilienz, Salutogenese und Bindungsforschung. Exemplarisch werden die Neurobiologie des Gehirns und des Nervensystems, die Epigenetik (Zellbiologie) und ihre Bedeutung für Entwicklungs- und Lebensprozesse betrachtet und auf Anwendungsmöglichkeiten hin diskutiert. In die Schlussfolgerungen zur Anwendung werden Neuropsychotherapie, Hypnose, Energetische Psychotherapie und Neurozeption einbezogen. Beispiel für eine nicht evidenzbasierte ganzheitliche Arbeit mit veränderten Bewusstseinszuständen ist die Auseinandersetzung mit dem peruanischen Schamanismus. In der abschließenden Zusammenfassung zeigt sich, dass die Erarbeitung und die Auseinandersetzung dem Verfasser ein tieferes Verständnis seiner eigenen Arbeit als Berater und Therapeut eingebracht hat.
Resumo:
Jede sportliche Karriere ist durch eine Vielzahl von Entscheidungen geprägt. Während sich ein Teil dieser Entscheidungsprozesse nur geringfügig auf den Karriereverlauf auswirkt, können andere diesen massiv beeinflussen. In den meisten Fällen begründet sich ein vorzeitiger Ausstieg nicht auf der Grundlage eines akuten Ereignisses, sondern lässt sich aus langfristigen Bilanzierungsprozessen, in denen Kosten und Nutzen des leistungssportlichen Engagements gegenüber gestellt werden, ableiten. Welche der Gründe eine solche Entscheidung maßgeblich beeinflussen, kann jedoch nicht mit aller Sicherheit gesagt werden. Diese Tatsache begründet sich vor Allem über die in diesem Forschungsfeld bisher meist sportartspezifisch ausgerichteten Untersuchungen. Neben den Begründungen, die zum Karriereabbruch führen, interessieren zudem die Athleten, die langfristig im Fördersystem aktiv sind. Wie unterscheiden sie sich von den Aussteigern und welche Strategien verfolgen sie, um den Anforderungen aus den unterschiedlichen Lebensbereichen gerecht werden zu können? Die Studie versucht die Frage nach karrierebeeinflussenden Merkmalen auf der Grundlage eines theoretisch abgeleiteten Analysemodells aus der Sicht der Athleten sportartübergreifend zu bearbeiten und legt hierbei den Fokus vor allem auf die Rahmen- und Umweltbedingungen der leistungssportlich trainierenden Athleten. Ausgangspunkt des entwickelten Untersuchungsmodells sind die Überlegungen von Mayntz und Scharpf zum akteurzentrierten Institutionalismus. Demnach muss eine umfassende Betrachtung von Entscheidungen im Karriereverlauf junger Nachwuchsathleten neben systemischen Fragen vor allem über die Interaktionen der am Förderprozess beteiligten Personengruppen geführt werden. Das längsschnittlich angelegte Untersuchungsdesign soll einerseits ermöglichen, den vorzeitigen Karriereabbruch aufgrund der Veränderungen in der Bewertung der Einflussfaktoren im Karriereverlauf zu erklären, andererseits soll über die retrospektive Betrachtung der Antworten zum ersten Messzeitpunkt überprüft werden, ob sich die Aussteiger und Fortsetzer bereits im Vorfeld anhand zentraler Variablen unterscheiden lassen. Hinsichtlich der Untersuchungsgruppen zeigte sich, dass zwischen den Aussteigern und den Fortsetzern eine Reihe von signifikanten Unterschieden festgestellt werden konnte. Vor allem dem Erwerb von Strategien zur Bewältigung der Anforderungen aus der Verbindung von Leistungssport mit den weiteren Lebensbereichen der Athleten ist in der Gruppe der Fortsetzer deutlich höher ausgeprägt, wenngleich diese Athleten auch angeben, mit höheren Belastungen umgehen zu müssen. Es ist anzunehmen, dass diese in der Auseinandersetzung erworbenen Kompetenzen im Sinne des Transfers auf sportliche Situationen übertragen werden können und zu einer für die Athleten zufriedenstellenderen Bewältigung beitragen.
Resumo:
Bildung ist zu einem Gut geworden, das den weiteren Lebensweg für alles öffnen oder auch versperren kann. Dabei ist die Bildung schon lange nicht mehr nur eine Sache der Schulen, auch die Frühkindliche Förderung rückt immer mehr in den Vordergrund. Nicht mehr nur eine Ansammlung von Abschlüssen, sondern Fähigkeiten und Fertigkeiten werden im Mittelpunkt gerückt. Bildung soll den Menschen ermöglichen selbst zu bestimmen und sein eigenes Leben in Beruf, Familien und anderen Bereichen zu führen Deutschland hat im Bereich der Bildungspolitik besonders mit den Folgen der schlechten PISA-Ergebnisse von 2000 zu kämpfen. Die Kritik an dem längst überholten System und der mangelnden Chancengleichheit, besonders bei Schülerinnen und Schülern mit Migrationshintergrund, werden von Seiten der Eltern, Lehrer und Bildungsforscher immer lauter. Der Blick auf den Rest der Welt und dessen Bildungssysteme werden dabei immer wichtiger. Schweden hingegen gilt schon seit Jahrzehnten als Vorzeigeland in Sachen Bildung. Die schwedischen Schüler schneiden bei PISA unter anderem bei der Lesekompetenz deutlich besser ab als die deutschen Schüler. In dieser Arbeit soll der Frage nachgegangen werden, wie Schweden es schafft eine hohe Chancengleichheit in der Bildung durchzusetzen und was Deutschland von diesem Land lernen kann. Besonders die aktuelle PISA- Diskussion steht dabei im Mittelpunkt. Infolge dessen wird besonders auf die Chancengleichheit im Bezug auf die Migrationspolitik eingegangen. Welche Maßnahmen Schweden und Deutschland unternehmen, um Chancengleichheit zu garantieren wird erläutert, um abschließend einen Blick in die Zukunft zu werfen und aufzuzeigen, wie es mit dem deutschen Bildungssystem weiter gehen kann und welche Herausforderungen es gegenüber steht.
Resumo:
„Cyber-Mobbing-Tod eines Teenagers“ titelt Spiegel-Online 2007: auch auf Stern.de (2009) findet sich die Meldung: „15-jährige tötet sich nach Cyber-Mobbing“, Zeit Online (2009) berichtet ebenfalls über diesen Vorfall. In Deutschland sind bisher keine derartigen Extremfälle öffentlich bekannt, dennoch ist das Phänomen, vermutlich veranlasst durch diese oder ähnliche Vorfälle, in das Interesse der medialen Öffentlichkeit gerückt. Diese Arbeit geht daher der Frage auf den Grund, ob Cyber-Mobbing auch ein Problem an deutschen Schulen ist und in welchem Ausmaß es dort auftritt. Im Fokus stehen jedoch nicht die genannten Extremfälle, da sie glücklicherweise eher eine Seltenheit darstellen, sondern alltägliche Formen des Cyber-Mobbings, weil genau hier der Grundstein für solch furchtbare Ereignisse gelegt wird. Cyber-Mobbing ist ein recht neues und junges Phänomen, das noch nicht allzu lange im Fokus der wissenschaftlichen Welt steht. Daher gelten viele Facetten als noch nicht ausreichend erschlossen, um eindeutige Aussagen hinsichtlich bestimmter Kausalitäten zu machen. Eine Vielzahl der wissenschaftlichen Arbeiten orientiert sich daher am Konzept des Mobbings, um Unterschiede oder Gemeinsamkeiten zwischen diesen Spielarten der Gewalt herauszuarbeiten. Daher folgt die vorliegende Arbeit dieser Tradition in metaanalytischer Form, untersucht folglich bestehende Literatur und setzt diese in einen kausalen Zusammenhang. Leitend für die Literaturanalyse ist die Frage ob sich die Dimensionen schulischer Gewalt, in diesem Falle Mobbing, durch die neuen Kommunikationsmedien verändert haben. Die Beantwortung dieser Frage zielt primär darauf ab herauszufinden, ob Cyber-Mobbing ähnlichen Strukturen folgt, wie Mobbing oder aber spezifische Muster existieren und ob die Schüler, die in Cyber-Mobbing involviert sind, auch in Mobbing verwickelt sind oder von einer Verschiebung der Interaktionsmuster gesprochen werden kann. Handelt es sich bei Cyber-Mobbing also um eine neue Form des Mobbings, oder um ein eigenständiges und unabhängiges Phänomen?
Resumo:
Evolutionäre Algorithmen werden gerne für Optimierungsaufgaben mit sehr vielen Freiheitsgraden eingesetzt. Eine spezielle Konvergenzeigenschaft, daß nämlich der Rechenaufwand nur mit der Wurzel der Anzahl der Unbekannten steigt, prädestiniert sie dafür. Die evolutionären Algorithmen haben aber auch noch eine weitere interessante Eigenschaft: Von der Zielfunktion wird nur verlangt, daß sie monoton ist - nichts weiter. Speziell wird, im Gegensatz zu gradientenbasierten Verfahren, keinerlei Ableitung von der Zielfunktion benötigt. Dadurch können evolutionäre Algorithmen auch in solchen Fällen eingesetzt werden, in denen Ableitungen der Zielfunktion nicht oder nur schwierig zu beschaffen sind. Die evolutionären Algorithmen kommen deshalb mit so geringen Anforderungen an die Zielfunktion aus, weil nur absolute Bewertungen einzelner Punkte (hier Vektoren) im Lösungsraum durch die Zielfunktion vorgenommen werden. Dafür werden eine gewisse Anzahl Punkte gleichzeitig betrachtet. Im direkten Vergleich untereinander relativ günstig liegende Punkte werden für die weitere Rechnung übernommen, die anderen verworfen. Aus den Komponenten der übernommenen Punkte werden nun zufällig neue Punkte zusammengesetzt und ein wenig verschoben. Dann schließt sich der Kreis, indem diese neuen Punkte ebenfalls bewertet werden. Im Verlauf einer solchen Iteration konvergiert die Punktmenge in der Regel gegen ein Optimum. Oft kommt es gerade zu Beginn der Iteration zu schnellen Fortschritten. In dieser Arbeit wird ein Verfahren vorgestellt, bei dem mit Hilfe von evolutionären Algorithmen verbessernde Eingriffe in laufenden Echtzeitsystemen vorgenommen werden. Was gut oder schlecht ist, wird zu diesem Zweck über die Zielfunktion für die Optimierung definiert. Da von der Zielfunktion letztlich das Verhalten des Gesamtsystems abhängt, sollte sie sorgfältig ausgewählt werden. Die Eingriffe in das System sind zeitlich begrenzte Steuertrajektorien. Sie werden zusätzlich zur permanent wirkenden Regelung auf das System aufgebracht. Um die Anzahl der zu optimierenden Variablen in Grenzen zu halten, werden die Steuertrajektorien durch wenige Parameter repräsentiert. Da die Steuertrajektorien im voraus berechnet werden müssen, wird das Systemverhalten mittels eines Modells für eine gewisse, in der Zukunft liegende, Zeitspanne vorhergesagt. Wird die geforderte Qualität während dieser Zeitspanne unterschritten, kann so schon im Vorfeld ein Optimierungslauf des evolutionären Algorithmus durchgeführt werden. Allerdings ist die zur Verfügung stehende Rechenzeit von vornherein begrenzt. Daher ist es wesentlich, daß die mit evolutionären Algorithmen häufig assoziierte lange Rechenzeit nicht benötigt wird. Tatsächlich läßt sich unter Umständen mit wenig Rechenzeit auskommen. Erstens wird nur mit wenigen Variablen gerechnet, zweitens kommt es bei dem beschriebenen Verfahren - halbwegs gutmütige Systeme vorausgesetzt - gar nicht auf die letzte Nachkommastelle, sondern (ähnlich wie bei Sliding-Mode-Regelungen) mehr auf eine Tendenz an. Da evolutionäre Algorithmen aber gerade zu Beginn einer Iteration die größten Fortschritte in Richtung des Optimums machen, kann schon nach vergleichsweise wenigen Schritten eine deutliche Verbesserung der Gesamtsituation erreicht werden. Gerade um eine schnelle Konvergenz zu erreichen, sind die spezielle Ausprägung und die Parameter des evolutionären Algorithmus mit Bedacht zu wählen. Dafür werden im Rahmen der Arbeit einige Experimente durchgeführt. Anhand der Ergebnisse der Experimente können konkrete Empfehlungen für eine günstige Konfiguration des evolutionären Algorithmus gegeben werden. Um es vorwegzunehmen: Zuviel Aufwand beim evolutionären Algorithmus zu treiben, lohnt sich nicht. Schon mit einfachen Konfigurationen können gute Ergebnisse erzielt werden. Die einzige Maßnahme, die sich bei den Experimenten tatsächlich als vorteilhaft herausstellte, war die Aufteilung der Gesamtpopulation (betrachtete Punktmenge im Lösungsraum) in mehrere Subpopulationen. Schließlich wird noch ein Computerprogramm beschrieben, das die Arbeitsweise des vorgestellten Verfahrens am Bildschirm erlebbar macht. Die einzelnen Komponenten werden vom Programm während der Ausführung mit einigen wesentlichen Rechengrößen visualisiert. Der Betrachter erhält so einen besseren Eindruck vom Zusammenwirken der einzelnen Verfahrens-Teile.
Resumo:
Die fliegerische Tätigkeit auf der Kurzstrecke in der zivilen Luftfahrt unterliegt arbeitsspezifischen Belastungsfaktoren, die sich in wesentlichen Punkten von denen auf der Langstrecke unterscheiden. Eine hohe Arbeitsbelastung auf der Kurzstrecke ist mit vielen Starts und Landungen am Tag verbunden. Neben der Anzahl der Flugabschnitte können auch lange Flugdienstzeiten und/oder unregelmäßige Arbeitszeiten sowie der Zeitdruck während der Einsätze auf der Kurzstrecke zur Belastung für Cockpitbesatzungsmitglieder werden und zu Ermüdungserscheinungen führen. Bisher wurden flugmedizinische und -psychologische Daten hauptsächlich auf der Langstrecke in Bezug auf die Auswirkungen der Jet-Leg Symptomatik und kaum auf der Kurzstrecke erhoben. Deshalb wurde im Rahmen des DLR- Projekts „Untersuchungen zu kumulativen psychischen und physiologischen Effekten des fliegenden Personals auf der Kurzstrecke“ eine Langzeituntersuchung zur Belastung/Beanspruchung, Ermüdung sowie Erholung des Cockpitpersonals auf der Kurzstrecke über jeweils 56 Tage durchgeführt. In Zusammenarbeit mit der Deutschen Lufthansa AG dauerte die Untersuchung zu den Auswirkungen arbeitsspezifischer Belastungsfaktoren auf die Cockpitbesatzungsmitglieder der Boeing 737-Flotte von 2003 bis 2006. ZIEL: Unter Berücksichtigung theoretisch fundierter arbeitspsychologischer Konzepte war das Ziel der Studie, kumulative und akute Effekte auf das Schlaf-Wach-Verhalten, auf die Belastung/Beanspruchung sowie auf die Müdigkeit zu identifizieren, die durch aufeinander folgende Einsätze auf der Kurzstrecke innerhalb eines Zeitraums von acht Wochen auftreten können. Hierfür wurden Daten von 29 Piloten (N=13 Kapitäne; N=16 Erste Offiziere) aufgezeichnet. Das Durchschnittsalter lag bei 33,8 ± 7,9 Jahren (Kapitäne: 42,0 ± 3,8 Jahre; Erste Offiziere: 27,4 ± 2,2 Jahre). METHODEN: Über ein Handheld PC konnten effizient Fragebögen bearbeitet und das Sleep Log sowie das Flight Log geführt werden. Die subjektive Ermüdung und Arbeitsbeanspruchung wurden durch standardisierte Fragebögen (z.B. Ermüdungsskala von Samn & Perelli (1982), NASA-TLX) operationalisiert. Im Sleep Log und im Flight Log wurden das Schlaf-Wach-Verhalten sowie flugspezifische Daten dokumentiert (z.B. Dienstbeginn, Dienstende, Flugabschnitte, Zielorte, etc.). Der Schlaf-Wach-Zyklus wurde mittels der Aktimetrie während des gesamten Messverlaufs aufgezeichnet. Die objektive Leistungsfähigkeit wurde täglich morgens und abends mit Hilfe einer computergestützten Psychomotor Vigilance Task (PVT) nach Dinges & Powell (1985) erfasst. Die Leistung in der PVT diente als Indikator für die Ermüdung eines Piloten. Zusätzliche Befragungen mit Paper-Pencil-Fragebögen sollten Aufschluss über relevante, psychosoziale Randbedingungen geben, die bei den täglichen Erhebungen nicht berücksichtigt wurden (z.B. Arbeitszufriedenheit; Essgewohnheiten; Kollegenbeziehungen). ERGEBNISSE: Unter Beachtung kumulativer Effekte wurde über die Studiendauer keine Veränderung in der Schlafqualität und im Schlafbedürfnis festgestellt. Die Müdigkeit nahm dagegen während der achtwöchigen Untersuchung zu. Die Reaktionszeit in der PVT zeigte an Flugdiensttagen eine Verschlechterung über die Zeit. Insgesamt wurden keine kritischen längerfristigen Effekte analysiert. Akute signifikante Effekte wurden bei der Ermüdung, der Gesamtbelastung und der Leistungsfähigkeit an Flugdiensttagen gefunden. Die Ermüdung als auch die Gesamtbelastung stiegen bei zunehmender Flugdienstdauer und Leganzahl und die Leistung nahm in der PVT ab. Der „time on task“ Effekt zeigte sich besonders in der Ermüdung durch die fliegerische Tätigkeit ab einer Flugdienstzeit von > 10 Stunden und > 4 Legs pro Tag. SCHLUSSFOLGERUNG: Mit diesen Ergebnissen konnte eine wissenschaftliche Datenbasis geschaffen werden aus der Empfehlungen resultieren, wie die Einsatzplanung für das Cockpitpersonal auf der Kurzstrecke unter flugmedizinischen und flugpsychologischen Gesichtspunkten optimiert werden kann. Zudem kann ein sachgerechter Beitrag im Rahmen der Diskussion zur Flugdienst- und Ruhezeitenregelung auf europäischer Ebene geleistet werden.
Resumo:
Summary: Recent research on the evolution of language and verbal displays (e.g., Miller, 1999, 2000a, 2000b, 2002) indicated that language is not only the result of natural selection but serves as a sexually-selected fitness indicator that is an adaptation showing an individual’s suitability as a reproductive mate. Thus, language could be placed within the framework of concepts such as the handicap principle (Zahavi, 1975). There are several reasons for this position: Many linguistic traits are highly heritable (Stromswold, 2001, 2005), while naturally-selected traits are only marginally heritable (Miller, 2000a); men are more prone to verbal displays than women, who in turn judge the displays (Dunbar, 1996; Locke & Bogin, 2006; Lange, in press; Miller, 2000a; Rosenberg & Tunney, 2008); verbal proficiency universally raises especially male status (Brown, 1991); many linguistic features are handicaps (Miller, 2000a) in the Zahavian sense; most literature is produced by men at reproduction-relevant age (Miller, 1999). However, neither an experimental study investigating the causal relation between verbal proficiency and attractiveness, nor a study showing a correlation between markers of literary and mating success existed. In the current studies, it was aimed to fill these gaps. In the first one, I conducted a laboratory experiment. Videos in which an actor and an actress performed verbal self-presentations were the stimuli for counter-sex participants. Content was always alike, but the videos differed on three levels of verbal proficiency. Predictions were, among others, that (1) verbal proficiency increases mate value, but that (2) this applies more to male than to female mate value due to assumed past sex-different selection pressures causing women to be very demanding in mate choice (Trivers, 1972). After running a two-factorial analysis of variance with the variables sex and verbal proficiency as factors, the first hypothesis was supported with high effect size. For the second hypothesis, there was only a trend going in the predicted direction. Furthermore, it became evident that verbal proficiency affects long-term more than short-term mate value. In the second study, verbal proficiency as a menstrual cycle-dependent mate choice criterion was investigated. Basically the same materials as in the former study were used with only marginal changes in the used questionnaire. The hypothesis was that fertile women rate high verbal proficiency in men higher than non-fertile women because of verbal proficiency being a potential indicator of “good genes”. However, no significant result could be obtained in support of the hypothesis in the current study. In the third study, the hypotheses were: (1) most literature is produced by men at reproduction-relevant age. (2) The more works of high literary quality a male writer produces, the more mates and children he has. (3) Lyricists have higher mating success than non-lyric writers because of poetic language being a larger handicap than other forms of language. (4) Writing literature increases a man’s status insofar that his offspring shows a significantly higher male-to-female sex ratio than in the general population, as the Trivers-Willard hypothesis (Trivers & Willard, 1973) applied to literature predicts. In order to test these hypotheses, two famous literary canons were chosen. Extensive biographical research was conducted on the writers’ mating successes. The first hypothesis was confirmed; the second one, controlling for life age, only for number of mates but not entirely regarding number of children. The latter finding was discussed with respect to, among others, the availability of effective contraception especially in the 20th century. The third hypothesis was not satisfactorily supported. The fourth hypothesis was partially supported. For the 20th century part of the German list, the secondary sex ratio differed with high statistical significance from the ratio assumed to be valid for a general population.
Resumo:
Obwohl die DNA Methyltransferase 2 (Dnmt2) hoch konserviert ist und zu der am weitesten verbreiteten eukaryotischen MTase-Familie gehört, ist ihre biologische Funktion nach wie vor unklar. Nachdem lange Zeit keine DNA Methylierungsaktivität nachgewiesen werden konnte, wurde vor einigen Jahren über geringe Mengen an 5-Methylcytosin (5mC) in Retroelementen der “Dnmt2-only”-Organismen D. melanogaster, D. discoideum und E. histolytica berichtet (Kunert et al. 2003; Fisher et al. 2004; Kuhlmann et al. 2005; Phalke et al. 2009). Als kurze Zeit später robuste Methylierung der tRNAAsp durch humane Dnmt2 gezeigt wurde (Goll et al. 2006), wurde zunächst eine Dualspezifität des Enzyms vorgeschlagen (Jeltsch et al. 2006). Neuere Daten zum 5mC-Status verschiedener „Dnmt2-only“-Organismen bilden Anlass für kontroverse Diskussionen über Ausmaß und Bedeutung der DNA Methyltransferaseaktivität von Dnmt2 (Schaefer et al. 2010a; Krauss et al. 2011). Die vorliegende Arbeit konzentriert sich auf die Identifizierung neuer RNA Substrate des Dnmt2-Homologs DnmA aus D. discoideum sowie die biologische Bedeutung der tRNA-Methylierung durch Dnmt2. Wie in anderen Organismen beschrieben, fungiert auch DnmA als tRNAAsp(GUC) MTase in vitro und in vivo. Zusätzlich konnte in vitro tRNAGlu(UUC) als neues Substrat der Dnmt2-Homologe aus D. discoideum und dem Menschen identifiziert werden. In einem Kooperationsprojekt wurde außerdem auch tRNAAsp-Methylierungsaktivität für das Dnmt2-Homolog aus S. pombe (Pmt1) nachgewiesen. Crosslink-RNA-Immunopräzipitationen (RNA-CLIP) mit anschließender Next-Generation-Sequenzierung der mit DnmA assoziierten RNAs zeigen, dass DnmA mit tRNA Fragmenten interagiert, die sich vom Anticodonloop bis in den T-loop erstrecken. Neben der tRNAAsp(GUC) und tRNAGlu(UUC/CUC) sind Fragmente der tRNAGly(GCC) verstärkt angereichert. Inwiefern diese Fragmente eine biologische Funktion haben oder spezifische Degradationsprodukte darstellen, ist noch ungeklärt. Interessanterweise sind von einigen tRNAs wenige Sequenzen von antisense-Fragmenten in den RNA-CLIP Daten zu finden, die etwas kürzer, jedoch exakt komplementär zu den genannten sense-Fragmenten sind. Besonders stark sind diese Fragmente der tRNAGlu(UUC) vertreten. In einem weiteren RNA-CLIP Experiment wurden U-snRNAs, snoRNA und intergenische Sequenzen mit DnmA angereichert. Bei nachfolgenden in vitro Methylierungsstudien konnte ausschließlich die U2-snRNA als potentielles Nicht-tRNA-Substrat der hDnmt2 und DnmA identifiziert werden. Da tRNA Modifikationen im Anticodonloop die Codonerkennung beeinflussen können, wurde ein System etabliert um die Translationseffizienz eines GFP-Reportergens in Wildtyp- und dnmAKO-Zellen zu messen. In D. discoideum wird das Aspartat-Codon GAU ca. zehnmal häufiger genutzt als das GAC Codon, allerdings ist nur eine tRNAAsp(GUC) im Genom der Amöbe kodiert. Aus diesem Grund wurde zusätzlich die Frage adressiert, inwiefern die DnmA-abhängige Methylierung dieser tRNA das „Wobbling“ beeinflusst. Dazu wurde dem Reportergen jeweils eine (GAU)5- und (GAC)5-Leadersequenz vorgeschaltet. Entgegen der Annahme wurde der (GAC)5-Leader in beiden Stämmen etwas effizienter translatiert. Insgesamt zeigte der dnmAKO-Stamm eine leicht erhöhte Translationseffizienz der Reportergene. Vergleichende Analysen zur Aufnahme von Fremd-DNA zeigten signifikant reduzierte Transformationseffizienzen mit einem integrierenden Plasmid in dnmAKO-Zellen. Ein weiterer dnmAKO-Stamm zeigte diesen Effekt jedoch nicht, wobei bei derselben Mutante eine deutlich reduzierte Aufnahme eines extrachromosomalen Plasmids zu verzeichnen war. Untersuchungen zum Einfluss von DnmA auf die Regulation des Retroelements skipper ergaben keinen Zusammenhang zwischen der Generierung kleiner RNAs und der erhöhten Transkription des Retrotransposons in dnmAKO-Zellen (Kuhlmann et al. 2005). Durch Kompensationsversuche sowie Experimente mit einer weiteren dnmAKO-Mutante konnte die Mobilisierung des Retrotransposons nicht eindeutig als DnmA-Funktion eingeordnet werden. In einem weiteren Projekt wurden die Bindung des m5C-bindenden Proteins EhMLBP aus E. histolytica an DNA mittels Rasterkraftmikroskopie abgebildet (Lavi et al. 2006). Neben vermutlich unspezifischen Endbindungsereignissen konnte eine bevorzugte Bindungsstelle des Proteins an LINE DNA (long intersperesed nuclear element) identifiziert werden. Möglicherweise fällt diese mit einem von zwei A/T-reichen Bereichen der LINE DNA zusammen, von denen vermutet wird, dass diese für die Bindung von EhMLBP an DNA von Bedeutung sind. Insgesamt bestätigen die Ergebnisse dieser Arbeit die tRNAAsp Methylierungsaktivität als konservierte Dnmt2-Funktion. Darüber hinaus erweitern sie das Substratspektrum der Dnmt2-Methyltransferasen im Bereich der tRNA. Außerdem wird erstmals ein potentielles Nicht-tRNA Substrat vorgeschlagen. Zusätzlich geben neu entdeckte Phänotypen Hinweise auf vielfältige zelluläre Dnmt2-Funktionen.
Resumo:
Optische Spektrometer sind bekannte Instrumente für viele Anwendungen in Life Sciences, Produktion und Technik aufgrund ihrer guten Selektivität und Sensitivität zusammen mit ihren berührungslosen Messverfahren. MEMS (engl. Micro-electro-mechanical system)-basierten Spektrometer werden als disruptive Technologie betrachtet, in der miniaturisierte Fabry-Pérot Filter als sehr attraktiv für die optische Kommunikation und 'Smart Personal Environments', einschließlich des medizinischen Anwendungen, zu nennen sind. Das Ziel dieser Arbeit ist, durchstimmbare Filter-Arrays mit kostengünstigen Technologien herzustellen. Materialien und technologische Prozesse, die für die Herstellung der Filter-Arrays benötigt werden, wurden untersucht. Im Rahmen dieser Arbeit, wurden durchstimmbare Fabry Pérot Filter-Arrays für den sichtbaren Spektralbereich untersucht, die als Nano-Spektrometer eingesetzt werden. Darüber hinaus wurde ein Modell der numerischen Simulation vorgestellt, die zur Ermittlung eines optimales geometrisches Designs verwendet wurde, wobei sich das Hauptaugenmerk der Untersuchung auf die Durchbiegung der Filtermembranen aufgrund der mechanischen Verspannung der Schichten richtet. Die geometrische Form und Größe der Filtermembranen zusammen mit der Verbindungsbrücken sind von entscheidender Bedeutung, da sie die Durchbiegung beeinflussen. Lange und schmale Verbindungsbrücken führen zur stärkeren Durchbiegung der Filtermembranen. Dieser Effekt wurde auch bei der Vergrößerung der Durchmesser der Membran beobachtet. Die Filter mit spiralige (engl. curl-bent) Verbindungsbrücken führten zu geringerer Deformation als die mit geraden oder gebogenen Verbindungsbrücken. Durchstimmbare Si3N4/SiO2 DBR-basierende Filter-Arrays wurden erfolgreich hergestellt. Eine Untersuchung über die UV-NIL Polymere, die als Opferschicht und Haltepfosten-Material der Filter verwendet wurden, wurde durchgeführt. Die Polymere sind kompatibel zu dem PECVD-Verfahren, das für die Spiegel-Herstellung verwendet wird. Die laterale Strukturierung der DBR-Spiegel mittels des RIE (engl. Reactive Ion Etching)-Prozesses sowie der Unterätz-Prozess im Sauerstoffplasma zur Entfernung der Opferschicht und zum Erreichen der Luftspalt-Kavität, wurden durchgeführt. Durchstimmbare Filter-Arrays zeigten einen Abstimmbereich von 70 nm bei angelegten Spannungen von weniger als 20 V. Optimierungen bei der Strukturierung von TiO2/SiO2 DBR-basierenden Filtern konnte erzielt werden. Mit der CCP (engl. Capacitively Coupling Plasma)-RIE, wurde eine Ätzrate von 20 nm/min erreicht, wobei Fotolack als Ätzmaske diente. Mit der ICP (engl. Inductively Coupling Plasma)-RIE, wurden die Ätzrate von mehr als 60 nm/min mit einem Verhältniss der Ar/SF6 Gasflüssen von 10/10 sccm und Fotolack als Ätzmasken erzielt. Eine Ätzrate von 80 bis 90 nm/min wurde erreicht, hier diente ITO als Ätzmaske. Ausgezeichnete geätzte Profile wurden durch den Ätzprozess unter Verwendung von 500 W ICP/300 W RF-Leistung und Ar/SF6 Gasflüsse von 20/10 sccm erreicht. Die Ergebnisse dieser Arbeit ermöglichen die Realisierung eines breiten Spektralbereichs der Filter-Arrays im Nano-Spektrometer.
Resumo:
Diese Dissertation hat das Ziel, zum einen die Transformation des Handelssystems von der GATT zur Welthandelsorganisation (WTO) im Kontext einer veränderten Weltordnung und zum anderen die Rollen von transnationalen Unternehmen im Rahmen dieser Transformation zu untersuchen und zu verstehen. Die Arbeit wird theoretisch vom Neogramscianismus angeleitet, da die etablierten Ansätzen in den Internationalen Beziehungen und der International Politischen Ökonomie nur unzureichend die intersubjektive Natur von Regimen und nicht-staatlichen Akteuren darstellen. Für Anhänger des Neogramscianismus sind internationale Regime intersubjektive Einheiten, deren Zusammenspiel von Ideen und Machtkonfigurationen historische Strukturen prägen. Die Hegemonie ist ein Konzept, das soziale Einflüsse als Agenten historischen Wandels in international Regimen und der Weltordnung zusammenbindet. Mit dem Konzept der Hegemonie wird eine Machtsituation beschrieben, in der politische Macht in legitime Autorität übersetzt wird, indem die Zustimmung subalterner Akteure eingeholt wird. Hegemonie beinhaltet die konsensuellen Aspekte von Machtausübung in einer jeweiligen Weltordnung. Diese Dissertation argumentiert vor allem, dass die Transformation des Handelssystems als hegemonisch bezeichnet werden kann, da sie parallel mit der Transformation der Weltordnung von einer von den USA dominierten Nachkriegszeit zu einer neoliberalen Hegemonie stattfand. Mit der Transformation zur Welthandlungsorganisation wird der legale Rahmen des Handelssystems neu strukturiert und ihre normative Grundlagen neu definiert, wodurch der ethische Rahmen des Neoliberalismus reflektiert wird. Diese Änderungen werden in der neuartigen Anerkennung der legitimen Autorität des Marktes gegenüber Nationalstaaten und der Anerkennung von der Notwendigkeit von bindenden Disziplinen, die Regierungen übergeordnet sind, reflektiert. Diese Dissertation analysiert zwei Fälle, um die Rolle von transnationalen Unternehmen innerhalb diese Transformationsprozesses zu erklären. Dabei wird der Fokus vor allem auf die Aktivitäten und Fähigkeiten der Unternehmen gerichtet, die Ausrichtung des Handelsregimes zu bestimmen. Die erste Studie untersucht die Eingliederung von Dienstleistungen in das GATT Regime vor und während der Uruguay-Runde (1986 – 1994) und argumentiert, dass diese Eingliederung zu einer Neudefinierung von Liberalisierung und Normen der Nichtdiskriminierung führte. Die zweite Studie analysiert den gescheiterten Versuch, ausländische Direktinvestitionen noch bevor und während der 2001 begonnenen Doha Runde in die Welthandelsorganisation zu integrieren. Letztendlich wird in dieser Dissertation argumentiert, dass transnationale Unternehmen, die in den Vereinigten Staaten ansässig sind, hegemonische Agenten der Regimetransformation waren und eine wichtige Rolle dabei gespielt haben, Dienstleistungen in das GATT einzubinden. Und zwar gelang ihnen dies durch eine in den späten 1970er Jahren begonnenen Kampagne. Auf der einen Seite war die Kampagne darin erfolgreich, etablierte Denkstrukturen zu Handelsthemen systematisch im Sinne des Neoliberalismus zu verändern – und zwar sowohl hinsichtlich der normativen Inhalte als auch der intersubjektiven Bedeutungen des Regimes. Auf der anderen Seite deutet der Fall des Investitionsabkommens die Grenzen der hegemonischen Ideen, Institutionen, und Strömungen seit den frühen 90er Jahren an. Transnationale Unternehmen, die in Europa ansässig waren, sind mit ihren Bemühungen gescheitert, das Regime weiter zu transformieren und das Thema Investitionen in die legalen und normativen Rahmenbedingungen der WTO zu integrieren. Die Prioritäten und Strategien der transnationalen Unternehmen, die Agenda der WTO zu beeinflussen, waren beschränkt und wurden im Kontext einer angefochtenen neoliberalen Hegemonie geformt, die wiederum von dem Widerstand und anti-hegemonischen Kampagnen der Zivilgesellschaft beeinflusst wurden. Die Analyse in dieser Dissertation wurde durch eine qualitative Diskursanalyse von Sekundär- und Primärquellen durchgeführt: Regierungsvorschläge, Verhandlungstexte, Konferenzzusammenfassungen und Statements von Unternehmen.