1000 resultados para Stochastische Prozesse


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Gerade männliche Jugendliche nutzen in ihrer Pubertät und Adoleszenz zu einer gelingenden Gestaltung ihres Alltags und zur Ausbildung ihrer Identität zahlreiche Erscheinungsformen des Fantasy-Rollenspielens. In einem Prozess von Aneignung und Entäußerung integrieren dabei die Jugendlichen das überaus reiche multimediale Angebot, welches die Spiele bieten, in ihre Alltagsgestaltung, indem sie sich daraus spezifische Medien-, Text- und Ereignisarrangements bauen. Diese dienen einerseits der sozialen Integration und Distinktion, andererseits der Präsentation ihrer Identitätsentwürfe sich und anderen. Die Jugendlichen schaffen sich mittels dieser spezifischen Medien-, Text- und Ereignisarrangements eine in weiten Teilen von ihnen selbst bestimmte Welt, in der sie ihre Phantasie wie Kreativität mit großer Intensität, ja Obsession, innerhalb integrativer und solidarischer Interaktionsformen selbststeuernd und professionell ausleben. Diese Medien-, Text- und Ereignisarrangements zeigen Angebots- und Nutzungsformen, die sich nach einem medienkommunikativen Aneignungs- und Entäußerungsmodell in der Tradition der Cultural Studies (Stuart Hall) beschreiben lassen. Die Langzeitbeobachtung der Jugendlichen zeigt, dass sie alltagspragmatische Kulturtechniken zur selbstbestimmten Gestaltung von Alltag entwickeln: zunächst eine Strukturierung ihrer kognitiven, affektiven und pragmatischen Interaktion nach Kriterien erfolgreicher intrinsischer Interaktion, mit dem Ziel derer Perpetuierung im Flow-Erleben (Mihalyi Csikszentmihalyi), dann eine Ästhetisierung von Alltagswirklichkeit mittels kollektiver Fiktionalisierung in der Tradition des Collective Story Telling (Janet H. Murray). Diese Kulturtechniken stellen vor dem Hintergrund der Enkodierung und Dekodierung sozialer Codes spezifische Adaptionen von Prozessen der Bedeutungszuweisung und Subjekt- bzw. Identitätskonstitution dar. Die sie evozierenden und mit ihnen korrespondierenden handlungsleitenden Themen der Jugendlichen sind der Wunsch nach Rekonstitution von Gesamtheit in einer sich fragmentarisierenden Wirklichkeit, die Affirmation von Selbstbestimmung- und Autonomieerfahrungen, das Erleben von Reintegration und Solidarität für das sich dissoziiert erfahrende Individuum. Das Handeln der Jugendlichen basiert damit auf dem momentan dominanten Prozess einer Individualisierung von Lebenswelt unter den Bedingungen von Reflexivität und Erlebnisrationalität in der postmodernen Gesellschaft. Mit ihren Versuchen selbstbestimmter Gestaltung folgen sie dem aktuellen gesellschaftlichen Auftrag einer weitgehend in eigener Regie vorzunehmenden Lokalisierung dieses Prozesses. Zunehmend tritt diese von den Jugendlichen selbstgesteuerte Sozialisation neben die traditionell heteronome Sozialisation von gesellschaftlichen Instituten wie etwa die von Schule. Damit wird das Handeln der Jugendlichen zu einer Herausforderung an Pädagogik und Schule. Schule muss, wenn sie ihrem eigentlichen Auftrag von Förderung gerecht werden will, eine Sensibilität für diese Eigenständigkeit von Jugendlichen entwickeln und in der Beobachtung ihres Handelns didaktische Innovationen für Lehren und Lernen entwickeln. Im Mittelpunkt steht dabei die Wiederentdeckung des pädagogischen Dialogs, besonders aber die Entwicklung einer individualisierten Lernkultur und die Förderung jugendlicher Gestaltungskompetenzen, welche von deren alltagsästhetischen Erfahrungen und Kompetenzen im Umgang mit multimedialen Kulturprodukten ausgeht. Schule kann und muss für diese Prozesse selbstgesteuerten Lernens angemessene pädagogische Räume bereitstellen, in denen die Jugendlichen innerhalb eines geschützten Kontextes in der Auseinandersetzung mit eigenen wie fremden Entwürfen ihre Identität entwickeln können.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Im Dezember 1997 veröffentlichte die Frankfurter Allgemeine Zeitung den als Rechtsgutachten abgefassten Beitrag des Heidelberger Juristen Friedrich-Christian Schoeder (Schroeder 1997). Die Frage, die Autor und Zeitung eher spielerisch als aus konkretem Anlass umtrieb, galt dem rechtlichen Status eines Menschen, dessen Kopf auf den Körper eines anderen Menschen transplantiert wurde. Medizinisch waren und sind solche Eingriffe noch nicht durchführbar, aber immerhin schienen sie für den Autor und die Zeitung eine Aktualität zu besitzen. Auch bei folgenden Auseinandersetzungen, die in den Medien um die Konsequenzen der medizinisch-technischen Entwicklung geführt wurden, geraten Bewusstsein, Subjektivität und Körper zum statischem Abbild des Gegenwärtigen, sie werden nicht als Substrat historischer Prozesse begriffen. Ohne den Begriff der Vergangenheit plaudern sich eine Vielzahl Autoren durch die Zukunft. In dieser muss auch der auf einen fremden Körper übertragene Kopf als Rechtssubjekt verwaltet werden. Aber wie verändert sich der Mensch, durch eine medizinische Maßnahme vervollständigt, die dauerhaft seine Körpergrenze verschiebt? Die Transplantationsmedizin ist bei der Auseinandersetzung um Subjektivität nicht nur dann von besonderem Interesse, wenn ein Kopf auf, sondern auch, wenn ein gespendetes Organ in einen fremden Körper verpflanzt wird. Die Trennung von Fremd und Eigen, Außen und Innen ist eng mit dem Zivilisationsprozess und der Subjektwerdung verbunden. Was körperlich durch medizinische Maßnahmen verschoben wird, die Grenze zwischen Außen und Innen, ist die Bedingung der Möglichkeit von Subjektivität. Der Titel dieser Arbeit, Der Prothesengott, verweist auf die individuellen und zivilisatorischen Leistungen, die vollbracht werden mussten, um mit Fug und Recht „Ich“ sagen zu können. Der Begriff Prothesengott ist der Freudschen Schrift Das Unbehagen in der Kultur entnommen. Freud schreibt dort vom Ideal des Prothesengottes und das erste Kapitel der hier vorgelegten Arbeit ist der Entfaltung dieses Ideals gewidmet. Dieses Begriffspaar hat mehr Bedeutungsnuancen, als Freud an Ort und Stelle entwickelte. Es umfasst die Bedeutung von Mythos und Gott als Prothesen, als Ideale, die den Menschen vervollständigten. Aber auch die Bedeutung von Theorien, Ideen, schlicht Idealen als Prothesen Gottes ist angesprochen, und damit der Versuch, den Verlust Gottes auszugleichen. Und zu guter Letzt benennt es das Ideal eines Gottes durch Prothesen, die Apotheose, wie Freud sie meinte: Als Vergötzung der Prothesen, mit denen der Mensch sich vervollständigt, um sich nach dem Tod Gottes selber ein Versprechen auf Erlösung sein zu können. Mit dieser Entfaltung soll die Zivilisation wie die individuelle Entwicklung als ein Prozess rekonstruiert werden, in dem Subjektivität gleichzeitig hervorgebracht und beschädigt wird. Diese Dialektik von Zivilisation und Barbarisierung findet ihren vorläufigen Höhepunkt im Fortschreiten der technischen Mittel unserer Zeit. Zur empirischen Fassung der historisch vorfindlichen Subjektivität wurden Patienten der Transplantationseinheit der Universität Leipzig gebeten, in den ersten drei Monaten nach der Operation Tagebücher auszufüllen. Diese Tagebücher wurden mit statistischen und hermeneutischen Methoden ausgewertet. Die Transplantationserfahrung offenbart sich in den Tagebüchern zwar als besondere, aber in eine Vielzahl von Techniken der Körpergestaltung eingebettete Maßnahme. Neben einer kritischen Würdigung des methodischen Vorgehens wird im fünften Kapitel die Transplantationserfahrung in den Kontext anderer Forschungsergebnisse zur Gestaltung des Körpers gestellt. Deren kritische Diskussion und die Transplantationserfahrungen bieten einen Ausblick darauf, was Eingedenken der Natur im Subjekt heute bedeuten kann.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Landwirtschaft spielt eine zentrale Rolle im Erdsystem. Sie trägt durch die Emission von CO2, CH4 und N2O zum Treibhauseffekt bei, kann Bodendegradation und Eutrophierung verursachen, regionale Wasserkreisläufe verändern und wird außerdem stark vom Klimawandel betroffen sein. Da all diese Prozesse durch die zugrunde liegenden Nährstoff- und Wasserflüsse eng miteinander verknüpft sind, sollten sie in einem konsistenten Modellansatz betrachtet werden. Dennoch haben Datenmangel und ungenügendes Prozessverständnis dies bis vor kurzem auf der globalen Skala verhindert. In dieser Arbeit wird die erste Version eines solchen konsistenten globalen Modellansatzes präsentiert, wobei der Schwerpunkt auf der Simulation landwirtschaftlicher Erträge und den resultierenden N2O-Emissionen liegt. Der Grund für diese Schwerpunktsetzung liegt darin, dass die korrekte Abbildung des Pflanzenwachstums eine essentielle Voraussetzung für die Simulation aller anderen Prozesse ist. Des weiteren sind aktuelle und potentielle landwirtschaftliche Erträge wichtige treibende Kräfte für Landnutzungsänderungen und werden stark vom Klimawandel betroffen sein. Den zweiten Schwerpunkt bildet die Abschätzung landwirtschaftlicher N2O-Emissionen, da bislang kein prozessbasiertes N2O-Modell auf der globalen Skala eingesetzt wurde. Als Grundlage für die globale Modellierung wurde das bestehende Agrarökosystemmodell Daycent gewählt. Neben der Schaffung der Simulationsumgebung wurden zunächst die benötigten globalen Datensätze für Bodenparameter, Klima und landwirtschaftliche Bewirtschaftung zusammengestellt. Da für Pflanzzeitpunkte bislang keine globale Datenbasis zur Verfügung steht, und diese sich mit dem Klimawandel ändern werden, wurde eine Routine zur Berechnung von Pflanzzeitpunkten entwickelt. Die Ergebnisse zeigen eine gute Übereinstimmung mit Anbaukalendern der FAO, die für einige Feldfrüchte und Länder verfügbar sind. Danach wurde das Daycent-Modell für die Ertragsberechnung von Weizen, Reis, Mais, Soja, Hirse, Hülsenfrüchten, Kartoffel, Cassava und Baumwolle parametrisiert und kalibriert. Die Simulationsergebnisse zeigen, dass Daycent die wichtigsten Klima-, Boden- und Bewirtschaftungseffekte auf die Ertragsbildung korrekt abbildet. Berechnete Länderdurchschnitte stimmen gut mit Daten der FAO überein (R2 = 0.66 für Weizen, Reis und Mais; R2 = 0.32 für Soja), und räumliche Ertragsmuster entsprechen weitgehend der beobachteten Verteilung von Feldfrüchten und subnationalen Statistiken. Vor der Modellierung landwirtschaftlicher N2O-Emissionen mit dem Daycent-Modell stand eine statistische Analyse von N2O-und NO-Emissionsmessungen aus natürlichen und landwirtschaftlichen Ökosystemen. Die als signifikant identifizierten Parameter für N2O (Düngemenge, Bodenkohlenstoffgehalt, Boden-pH, Textur, Feldfrucht, Düngersorte) und NO (Düngemenge, Bodenstickstoffgehalt, Klima) entsprechen weitgehend den Ergebnissen einer früheren Analyse. Für Emissionen aus Böden unter natürlicher Vegetation, für die es bislang keine solche statistische Untersuchung gab, haben Bodenkohlenstoffgehalt, Boden-pH, Lagerungsdichte, Drainierung und Vegetationstyp einen signifikanten Einfluss auf die N2O-Emissionen, während NO-Emissionen signifikant von Bodenkohlenstoffgehalt und Vegetationstyp abhängen. Basierend auf den daraus entwickelten statistischen Modellen betragen die globalen Emissionen aus Ackerböden 3.3 Tg N/y für N2O, und 1.4 Tg N/y für NO. Solche statistischen Modelle sind nützlich, um Abschätzungen und Unsicherheitsbereiche von N2O- und NO-Emissionen basierend auf einer Vielzahl von Messungen zu berechnen. Die Dynamik des Bodenstickstoffs, insbesondere beeinflusst durch Pflanzenwachstum, Klimawandel und Landnutzungsänderung, kann allerdings nur durch die Anwendung von prozessorientierten Modellen berücksichtigt werden. Zur Modellierung von N2O-Emissionen mit dem Daycent-Modell wurde zunächst dessen Spurengasmodul durch eine detailliertere Berechnung von Nitrifikation und Denitrifikation und die Berücksichtigung von Frost-Auftau-Emissionen weiterentwickelt. Diese überarbeitete Modellversion wurde dann an N2O-Emissionsmessungen unter verschiedenen Klimaten und Feldfrüchten getestet. Sowohl die Dynamik als auch die Gesamtsummen der N2O-Emissionen werden befriedigend abgebildet, wobei die Modelleffizienz für monatliche Mittelwerte zwischen 0.1 und 0.66 für die meisten Standorte liegt. Basierend auf der überarbeiteten Modellversion wurden die N2O-Emissionen für die zuvor parametrisierten Feldfrüchte berechnet. Emissionsraten und feldfruchtspezifische Unterschiede stimmen weitgehend mit Literaturangaben überein. Düngemittelinduzierte Emissionen, die momentan vom IPCC mit 1.25 +/- 1% der eingesetzten Düngemenge abgeschätzt werden, reichen von 0.77% (Reis) bis 2.76% (Mais). Die Summe der berechneten Emissionen aus landwirtschaftlichen Böden beträgt für die Mitte der 1990er Jahre 2.1 Tg N2O-N/y, was mit den Abschätzungen aus anderen Studien übereinstimmt.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

(1) Neuropeptid Y (NPY), einer der häufigsten peptidergen Neurotransmitter im zentralen und peripheren Nervensystem der Säuger, ist an der Steuerung zahlreicher physiologischer Prozesse beteiligt. Auch Amphibien weisen eine verstärkte NPY-Immunreaktivität im Zentralnervensystem auf. Im Hinblick auf bereits gewonnene Erkenntnisse sollte in der vorliegenden Arbeit eine Modulierbarkeit retino-tectaler Aktivität durch Neuropeptid Y an der chinesischen Rotbauchunke (Bombina orientalis) überprüft und erstmals mit Hilfe der 14[C]-2-Desoxiglukose-Methode (14C-2DG) (Sokoloff et al. 1977) quantitativ analysiert werden. Als Vergleichstier diente die Agakröte (Bufo marinus). Zur Darstellung eines möglichen Effektes auf das Tectum opticum wurde NPY lokal auf die tectale Oberfläche visuell stimulierter Rotbauchunken appliziert. Mit Hilfe der 14C-2DG-Methode und den daraus autoradiographisch ermittelten Daten konnten die zerebralen Aktivitäten visualisiert, quantitativ ausgewertet und miteinander verglichen werden. In einer weiteren Versuchsreihe wurde hinterfragt, welche inhibitorische Wirkung NPY entwickeln kann, wenn zuvor der retinale Input pharmakologisch durch systemische Gabe von Apomorphin (APO) signifikant erhöht wurde. (2) Die 14C-2DG-Methode erlaubt einen Blick in die funktionale Aktivität des Gehirns und ermöglicht es, regional ablaufende physiologische und biochemische Energiestoffwechselprozesse innerhalb des Gehirns quantitativ zu erfassen. Mit Hilfe der 14C-2DG-Methode werden die neuromodulatorischen Wirkungen von NPY kartiert und analysiert. (3) Versuchstiergruppe 1 – Bombina orientalis – unbehandelt Zur Beurteilung pharmakologischer Effekte durch NPY bzw. APO auf den Hirnmetabolismus war es zunächst erforderlich, die Gehirnaktivitäten pharmakologisch unbeeinflusster Tiere nach visueller Reizgabe zu untersuchen. Im Bereich des medialen Mesencephalon wurden die tectalen 14C-2DG-Konzentrationen über zehn Messreihen pro Einzeltier sowohl an der rechten als auch an der linken tectalen Hälfte auf Höhe des ventrolateralen Tectum opticum ermittelt. Beim rechts-links Vergleich zeigen sich gleich verteilte Strahlungsintensitäten. Basierend auf dieser Aussage konnte NPY unilateral auf die tectale Oberfläche aufgebracht und auf seine Wirkung geprüft werden. (4) Versuchstiergruppe 2 – Bombina orientalis – NPY-Applikation Der unilaterale Einsatz von NPY auf die tectale Oberfläche des Versuchstieres bewirkt, dass die unter dem Einfluss von NPY stehende tectale Hälfte, im Gegensatz zur unbehandelten tectalen Hälfte, einen deutlich niedrigeren 14C-2DG-Gebrauch aufweist. Besonders in den oberen Schichten des Tectum opticum (Layer 9) zeigt die 14C-2DG-Methode qualitativ und quantitativ auswertbare Aktivitätsminderungen an. (5) Verhalten unter NPY: Durchschnittlich nach 10 min Versuchsdauer zeigt Bombina orientalis eine deutliche Abnahme in der Beutefangaktivität, die sich gegen Ende der Versuchszeit noch weiter reduziert. (6) Versuchstiergruppe 3 – Bombina orientalis – APO-Applikation Systemisch verabreichtes APO führt bei Bombina orientalis zu einer Verstärkung des retinalen Ausganges in die retino-tectalen Projektionsfelder. Die neuronalen Aktivitäten im Tectum opticum erhöhen sich unter dem Einfluss von APO im Durchschnitt um 40% im Vergleich zu APO-unbehandelten Tieren. (7) Verhalten unter APO: Bombina orientalis zeigt nach systemischer Applikation von APO keine verstärkten stereotypen Schnappreaktionen. Die Tiere reagieren ausschließlich mit Akinese, d.h. einem Ausfall gerichteter Lokomotionen und Orientierungsbewegungen. (8) Versuchstiergruppe 4 – Bombina orientalis – APO/NPY-Applikation Die durch systemisch verabreichtes APO erhöhten retino-tectalen Aktivitäten im Tectum opticum werden unter dem unilateralen Einsatz von NPY deutlich abgeschwächt. Eindeutig niedrigere 14C-2DG-Aufnahmen sind in den oberen Schichten des Tectum opticum messbar, was die starke Wirkung von NPY quantitativ belegt. (9) Versuchstiergruppe 2 – Bufo marinus – NPY-Applikation Der unilaterale Einsatz von NPY auf die tectale Oberfläche von Bufo marinus zeigt ebenfalls, dass die unter dem Einfluss von NPY stehende tectale Hälfte, im Gegensatz zur unbehandelten tectalen Hälfte, einen deutlich niedrigeren 14C-2DG-Gebrauch aufweist. Bufo marinus zeigt aber aufgrund erweiterter Versuchsbedingungen (On-Off-Beleuchtungswechsel) anders verteilte Strahlungsintensitäten über dem Tectum-Querschnitt als Bombina orientalis. Stärkere [14C]-Akkumulationen zeigen sich in den tieferen zentralen Schichten des Tectum opticum. (10) Versuchstiergruppe 4 – Bufo marinus – APO/NPY-Applikation Auch die durch systemisch verabreichtes APO erhöhten retino-tectalen Aktivitäten im Tectum opticum von Bufo marinus werden unter dem unilateralen Einsatz von NPY deutlich abgeschwächt. (11) Die Ergebnisse der vorliegenden Arbeit leisten einen Beitrag zum Einfluss von NPY auf den retino-tectalen Informationstransfer bei Anuren im Sinne einer praetecto-tectalen inhibitorischen Modulation. Im Einklang mit früheren neuroanatomischen, immuncytochemischen und elektro-physiologischen Befunden liefern diese Ergebnisse erstmals ein biochemisches Korrelat auf der Basis des tectalen Energiestoffwechsels. (12) Es ist hervorzuheben, dass NPY-vermittelte inhibitorische Modulationen visuellen Informationstransfers in der vorliegenden Arbeit an Bombina orientalis nachgewiesen wurden, die phylogenetisch zu den ältesten Anuren (Anamnioten) gehört. Vergleichbares ist an verschiedenen Amnioten – einschließlich Primaten – beschrieben worden, was darauf hinweist, dass solche NPY-vermittelten Prozesse sich innerhalb der Tetrapoden relativ früh herausgebildet haben und in der Evolution konserviert worden sind.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Dissertation befasst sich mit der Einführung komplexer Softwaresysteme, die, bestehend aus einer Kombination aus parametrisierter Standardsoftware gepaart mit Wettbewerbsvorteil sichernden Individualsoftwarekomponenten, keine Software-Engineering-Projekte im klassischen Sinn mehr darstellen, sondern einer strategieorientierten Gestaltung von Geschäftsprozessen und deren Implementierung in Softwaresystemen bedürfen. Die Problemstellung einer adäquaten Abwägung zwischen TCO-optimierender Einführung und einer gleichzeitigen vollständigen Unterstützung der kritischen Erfolgsfaktoren des Unternehmens ist hierbei von besonderer Bedeutung. Der Einsatz integrierter betriebswirtschaftlicher Standardsoftware, mit den Möglichkeiten einer TCO-Senkung, jedoch ebenfalls der Gefahr eines Verlustes von Alleinstellungsmerkmalen am Markt durch Vereinheitlichungstendenzen, stellt ein in Einführungsprojekten wesentliches zu lösendes Problem dar, um Suboptima zu vermeiden. Die Verwendung von Vorgehensmodellen, die sich oftmals an klassischen Softwareentwicklungsprojekten orientieren oder vereinfachte Phasenmodelle für das Projektmanagement darstellen, bedingt eine fehlende Situationsadäquanz in den Detailsituationen der Teilprojekte eines komplexen Einführungsprojektes. Das in dieser Arbeit entwickelte generische Vorgehensmodell zur strategieorientierten und partizipativen Einführung komplexer Softwaresysteme im betriebswirtschaftlichen Anwendungsbereich macht - aufgrund der besonders herausgearbeiteten Ansätze zu einer strategieorientierten Einführung, respektive Entwicklung derartiger Systeme sowie aufgrund der situationsadäquaten Vorgehensstrategien im Rahmen der Teilprojektorganisation � ein Softwareeinführungsprojekt zu einem Wettbewerbsfaktor stärkenden, strategischen Element im Unternehmen. Die in der Dissertation diskutierten Überlegungen lassen eine Vorgehensweise präferieren, die eine enge Verschmelzung des Projektes zur Organisationsoptimierung mit dem Softwareimplementierungsprozess impliziert. Eine Priorisierung der Geschäftsprozesse mit dem Ziel, zum einen bei Prozessen mit hoher wettbewerbsseitiger Priorität ein organisatorisches Suboptimum zu vermeiden und zum anderen trotzdem den organisatorischen Gestaltungs- und den Systemimplementierungsprozess schnell und ressourcenschonend durchzuführen, ist ein wesentliches Ergebnis der Ausarbeitungen. Zusätzlich führt die Ausgrenzung weiterer Prozesse vom Einführungsvorgang zunächst zu einem Produktivsystem, welches das Unternehmen in den wesentlichen Punkten abdeckt, das aber ebenso in späteren Projektschritten zu einem System erweitert werden kann, welches eine umfassende Funktionalität besitzt. Hieraus ergeben sich Möglichkeiten, strategischen Anforderungen an ein modernes Informationssystem, das die kritischen Erfolgsfaktoren eines Unternehmens konsequent unterstützen muss, gerecht zu werden und gleichzeitig ein so weit als möglich ressourcenschonendes, weil die Kostenreduktionsaspekte einer Standardlösung nutzend, Projekt durchzuführen. Ein weiterer wesentlicher Aspekt ist die situationsadäquate Modellinstanziierung, also die projektspezifische Anpassung des Vorgehensmodells sowie die situationsadäquate Wahl der Vorgehensweisen in Teilprojekten und dadurch Nutzung der Vorteile der verschiedenen Vorgehensstrategien beim konkreten Projektmanagement. Der Notwendigkeit der Entwicklung einer Projektorganisation für prototypingorientiertes Vorgehen wird in diesem Zusammenhang ebenfalls Rechnung getragen. Die Notwendigkeit der Unternehmen, sich einerseits mit starken Differenzierungspotenzialen am Markt hervorzuheben und andererseits bei ständig sinkenden Margen einer Kostenoptimierung nachzukommen, lässt auch in Zukunft das entwickelte Modell als erfolgreich erscheinen. Hinzu kommt die Tendenz zu Best-Of-Breed-Ansätzen und komponentenbasierten Systemen im Rahmen der Softwareauswahl, die eine ausgesprochen differenzierte Vorgehensweise in Projekten verstärkt notwendig machen wird. Durch die in das entwickelte Modell integrierten Prototyping-Ansätze wird der auch in Zukunft an Bedeutung gewinnenden Notwendigkeit der Anwenderintegration Rechnung getragen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Untersuchung betrifft die deutsche öffentliche Verwaltung. Untersucht werden soll, ob eine Intensivierung des Organisationslernens Möglichkeiten zur Optimierung von Strukturen und Prozessen der öffentlichen Verwaltung bietet, mithin das Organisationslernen eine zweckmäßige Option für die Bürokratie darstellt. Untersucht wird diese Frage am Beispiel der Kommunalverwaltungen, die im Vergleich zu staatlichen Verwaltungen über größere Handlungsspielräume verfügen. Die Kommunalverwaltungen befinden sich derzeit in einem Reformprozess, der 1993 von der Kommunalen Gemeinschaftsstelle für Verwaltungsvereinfachung (KGSt) durch die Vorlage eines "Neuen Steuerungsmodells" (NSM) angestoßen wurde. Am Beispiel dieses Reformprozesses soll mit der vorliegenden Untersuchung zunächst geprüft werden, ob unter Berücksichtigung von Verlauf und Ergebnis dieses Prozesses ein Bedarf an einer Optimierung der Programme oder der Prozesse zur Verwaltungsentwicklung erkennbar ist. Sofern ein Bedarf zur Optimierung der Programme oder der Prozesse zur Verwaltungsentwicklung erkennbar wird, ist weiter zu fragen, ob dieser Bedarf durch das Organisationslernen befriedigt werden kann. Unter der Voraussetzung, dass die Modell-Vorstellung von der lernenden Organisation prinzipiell geeignet erscheint, in einem Entwicklungsprozess förderlich zu wirken, ist abschließend zu prüfen, ob dies auch unter der besonderen Aufgabenstellung und den besonderen Handlungsbedingungen der öffentlichen Verwaltung gelten könnte. Nach einer inzwischen mehr als 10-jährigen Einführungsphase wird ungeachtet einiger positiver Veränderungen die Gesamtbilanz zum NSM verhalten beurteilt. Im einzelnen lassen sich sowohl bezüglich des Modells problematische Lücken und Beschränkungen erkennen als auch Defizite in dem Implementationsverfahren. Insgesamt ist also die Frage nach dem Optimierungsbedarf zu bejahen. Die Intensivierung des Organisationslernens als Möglichkeit zur Optimierung von Implementationsprozessen kann nach dem Ergebnis der vorgenommenen Analysen grundsätzlich auch für die öffentliche Verwaltung in Betracht gezogen werden. Sowohl die grundlegenden Lernvoraussetzungen für das Organisationslernen als auch die grundlegenden verwaltungswissenschaftlich begründeten Anforderungen an die praktische Verwaltungsentwicklung erscheinen erfüllt. Zur Klärung der Frage, ob das Organisationslernen unter den besonderen Handlungsbedingungen der öffentlichen Verwaltung zur Optimierung des Verwaltungshandelns geeignet erscheint, wurde zusätzlich eine Expertenbefragung in ausgewählten Kommunalverwaltungen durchgeführt. Im Ergebnis dieser Befragung zeigt sich, dass die Vorstellung von einer lernenden Organisation zur Optimierung des Verwaltungshandelns durchaus auf Interesse stößt, jedoch die Einführungs- und Betriebsbedingungen zur Intensivierung des Organisationslernens noch nicht in allen Behörden gegeben sind und möglicherweise auch nicht in allen Behörden hergestellt werden können, so dass im Ergebnis das Organisationslernen als Option für die Bürokratie zwar Chancen verspricht, jedoch unter Berücksichtigung der Handlungsbedingungen in der öffentlichen Verwaltung differenziert zu beurteilen ist.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Im Zentrum der empirischen Arbeit steht einerseits eine besondere Form der Unternehmensgründung, andererseits eine besondere Form der Kooperation: die partnerschaftliche Existenzgründung. Das Forschungsvorhaben geht dem Ziel nach, Kooperationsprozesse in solchen unternehmerischen Partnerschaften zu explorieren. Um letztendlich eine praktisch nutzbare Grundlage für Maßnahmen zur Förderung beruflicher Selbständigkeit zu gewinnen, werden Merkmale und Rahmenbedingungen erfolgreicher partnerschaftlicher Existenzgründungen aufgezeigt. Die Empirie stützt sich auf qualitative Interviews mit Personen, die erfolgreich im Team ein Unternehmen gegründet haben und führen. In einem ersten Schritt werden anhand der Interviews konkrete alltägliche Kooperationsprozesse präzise beschrieben. Darauf aufbauend zeichnen tiefer gehende qualitative Analysen Entwicklungen auf einer abstrakteren Handlungsebene nach. Das Spektrum der Betrachtung umfasst neben individuellen Entwicklungen der Unternehmensgründer auch Prozesse auf der Teamebene sowie auf unternehmerischer Ebene. Zur Exploration der Handlungsprozesse werden die eigenen Ergebnisse durch ausgewählte theoretische Ansätze aus Kognitions- und Sozialpsychologie, aus soziologischer Handlungstheorie und Betriebswirtschaftslehre bereichert. Als relevant auf individueller Ebene erweisen sich insbesondere Prozesse der Identitätsentwicklung hin zu einer unternehmerisch-partnerschaftlichen Identität. Auf der Teamebene sind die Bewahrung und Überwindung von Eigensinn in der Interaktion sowie der Aufbau einer vertrauensvollen Beziehung zentral. Auf Unternehmensebene schließlich spielen Prozesse der Sinnfindung zwischen individuellen Erwerbsentwürfen und ökonomischen Strukturen, die Entstehung von Ordnung sowie Problemlösungsprozesse eine entscheidende Rolle. Insgesamt wird deutlich, dass der Weg in eine partnerschaftliche Selbständigkeit ein vielschichtiger Lernprozess ist, der aus der Praxis heraus entsteht, im Wesentlichen von den Gründern selbst organisiert und von gemeinsamen Reflexionen getragen wird. Diese Erkenntnisse stellen erste Ansatzpunkte dar zur Förderung beruflicher Selbständigkeit in Hochschule und im beruflichen Bildungswesen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Many nonlinear optical microscopy techniques based on the high-intensity nonlinear phenomena were developed recent years. A new technique based on the minimal-invasive in-situ analysis of the specific bound elements in biological samples is described in the present work. The imaging-mode Laser-Induced Breakdown Spectroscopy (LIBS) is proposed as a combination of LIBS, femtosecond laser material processing and microscopy. The Calcium distribution in the peripheral cell wall of the sunflower seedling (Helianthus Annuus L.) stem is studied as a first application of the imaging-mode LIBS. At first, several nonlinear optical microscopy techniques are overviewed. The spatial resolution of the imaging-mode LIBS microscope is discussed basing on the Point-Spread Function (PSF) concept. The primary processes of the Laser-Induced Breakdown (LIB) are overviewed. We consider ionization, breakdown, plasma formation and ablation processes. Water with defined Calcium salt concentration is used as a model of the biological object in the preliminary experiments. The transient LIB spectra are measured and analysed for both nanosecond and femtosecond laser excitation. The experiment on the local Calcium concentration measurements in the peripheral cell wall of the sunflower seedling stem employing nanosecond LIBS shows, that nanosecond laser is not a suitable excitation source for the biological applications. In case of the nanosecond laser the ablation craters have random shape and depth over 20 µm. The analysis of the femtosecond laser ablation craters shows the reproducible circle form. At 3.5 µJ laser pulse energy the diameter of the crater is 4 µm and depth 140 nm for single laser pulse, which results in 1 femtoliter analytical volume. The experimental result of the 2 dimensional and surface sectioning of the bound Calcium concentrations is presented in the work.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Digitales stochastisches Magnetfeld-Sensorarray Stefan Rohrer Im Rahmen eines mehrjährigen Forschungsprojektes, gefördert von der Deutschen Forschungsgesellschaft (DFG), wurden am Institut für Mikroelektronik (IPM) der Universität Kassel digitale Magnetfeldsensoren mit einer Breite bis zu 1 µm entwickelt. Die vorliegende Dissertation stellt ein aus diesem Forschungsprojekt entstandenes Magnetfeld-Sensorarray vor, das speziell dazu entworfen wurde, um digitale Magnetfelder schnell und auf minimaler Fläche mit einer guten räumlichen und zeitlichen Auflösung zu detektieren. Der noch in einem 1,0µm-CMOS-Prozess gefertigte Test-Chip arbeitet bis zu einer Taktfrequenz von 27 MHz bei einem Sensorabstand von 6,75 µm. Damit ist er das derzeit kleinste und schnellste digitale Magnetfeld-Sensorarray in einem Standard-CMOS-Prozess. Konvertiert auf eine 0,09µm-Technologie können Frequenzen bis 1 GHz erreicht werden bei einem Sensorabstand von unter 1 µm. In der Dissertation werden die wichtigsten Ergebnisse des Projekts detailliert beschrieben. Basis des Sensors ist eine rückgekoppelte Inverter-Anordnung. Als magnetfeldsensitives Element dient ein auf dem Hall-Effekt basierender Doppel-Drain-MAGFET, der das Verhalten der Kippschaltung beeinflusst. Aus den digitalen Ausgangsdaten kann die Stärke und die Polarität des Magnetfelds bestimmt werden. Die Gesamtanordnung bildet einen stochastischen Magnetfeld-Sensor. In der Arbeit wird ein Modell für das Kippverhalten der rückgekoppelten Inverter präsentiert. Die Rauscheinflüsse des Sensors werden analysiert und in einem stochastischen Differentialgleichungssystem modelliert. Die Lösung der stochastischen Differentialgleichung zeigt die Entwicklung der Wahrscheinlichkeitsverteilung des Ausgangssignals über die Zeit und welche Einflussfaktoren die Fehlerwahrscheinlichkeit des Sensors beeinflussen. Sie gibt Hinweise darauf, welche Parameter für das Design und Layout eines stochastischen Sensors zu einem optimalen Ergebnis führen. Die auf den theoretischen Berechnungen basierenden Schaltungen und Layout-Komponenten eines digitalen stochastischen Sensors werden in der Arbeit vorgestellt. Aufgrund der technologisch bedingten Prozesstoleranzen ist für jeden Detektor eine eigene kompensierende Kalibrierung erforderlich. Unterschiedliche Realisierungen dafür werden präsentiert und bewertet. Zur genaueren Modellierung wird ein SPICE-Modell aufgestellt und damit für das Kippverhalten des Sensors eine stochastische Differentialgleichung mit SPICE-bestimmten Koeffizienten hergeleitet. Gegenüber den Standard-Magnetfeldsensoren bietet die stochastische digitale Auswertung den Vorteil einer flexiblen Messung. Man kann wählen zwischen schnellen Messungen bei reduzierter Genauigkeit und einer hohen lokalen Auflösung oder einer hohen Genauigkeit bei der Auswertung langsam veränderlicher Magnetfelder im Bereich von unter 1 mT. Die Arbeit präsentiert die Messergebnisse des Testchips. Die gemessene Empfindlichkeit und die Fehlerwahrscheinlichkeit sowie die optimalen Arbeitspunkte und die Kennliniencharakteristik werden dargestellt. Die relative Empfindlichkeit der MAGFETs beträgt 0,0075/T. Die damit erzielbaren Fehlerwahrscheinlichkeiten werden in der Arbeit aufgelistet. Verglichen mit dem theoretischen Modell zeigt das gemessene Kippverhalten der stochastischen Sensoren eine gute Übereinstimmung. Verschiedene Messungen von analogen und digitalen Magnetfeldern bestätigen die Anwendbarkeit des Sensors für schnelle Magnetfeldmessungen bis 27 MHz auch bei kleinen Magnetfeldern unter 1 mT. Die Messungen der Sensorcharakteristik in Abhängigkeit von der Temperatur zeigen, dass die Empfindlichkeit bei sehr tiefen Temperaturen deutlich steigt aufgrund der Abnahme des Rauschens. Eine Zusammenfassung und ein ausführliches Literaturverzeichnis geben einen Überblick über den Stand der Technik.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Verwendung von Aktivkohlen und -koksen stellt eine Alternative zu herkömmlichen Prozessen zur Verminderung der NOx-Emissionen in Rauchgasen dar. An diesen Materialien wird Stickstoffmonoxid adsorbiert und katalytisch zu N2 reduziert. Eine einheitliche Erklärung über die ablaufenden Vorgänge und die Reaktionsmechanismen gibt es noch nicht. Die Ergebnisse der bisher veröffentlichten wissenschaftlichen Arbeiten sind sehr unterschiedlich, wenn nicht sogar widersprüchlich. In dieser Arbeit wird, anhand der Messung von NO-Durchbruchskurven und thermischen Desorptionsspektren, die Adsorption und Reaktion von Stickstoffmonoxid an Aktivkohlen und -koksen in Anwesenheit von Sauerstoff und Wasserdampf untersucht. Zur Durchführung der experimentellen Untersuchungen wird eine Versuchsanlage, bestehend aus einer Vorrichtung zur Gasgemischaufbereitung, einem Festbettreaktor und einer Gasanalytik, konzipiert und aufgebaut. Die Untersuchungen erfolgen bei Temperaturen zwischen 100 und 150 °C. Die NO-, O2- und H2O-Konzentrationen werden anhand der Rauchgaszusammensetzung kohlegefeuerter Kraftwerke gewählt. Die experimentellen Untersuchungen konzentrieren sich auf die Verwendung einer Aktivkohle aus Ölpalmschalen, die in einem Drehrohrreaktor am Institut für Thermische Energietechnik der Universität Kassel hergestellt wurde. Die experimentellen Ergebnisse zeigen, dass während des Prozesses NO-Adsorption, -Reduktion und -Oxidation, NO2-Bildung, -Adsorption und -reduktive Desorption, H2O-Adsorption sowie O2-Vergasung gleichzeitig stattfinden. Bei niedrigen Temperaturen werden die NO2-Bildung und die Adsorption bevorzugt. Die NO-Reduktion läuft über adsorbiertes NO mit CO2- und CO-Bildung. Durch O2-Vergasung werden aktive freie Cf-Plätzen für die NO-Reaktion und -Adsorption gebildet. Wasserdampf wird an der Aktivkohle adsorbiert und belegt aktive Plätze für diese Prozesse. Aus den experimentellen Ergebnissen werden kinetische und Gleichgewichtsparameter der NO-Sorption bestimmt. Ein vereinfachtes mathematisches Modell des Festbettreaktors, das zur Berechnung der NO-Durchbruchskurven bei unterschiedlichen Temperaturen dient, wird aufgestellt.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Es ist bekannt, dass die Dichte eines gelösten Stoffes die Richtung und die Stärke seiner Bewegung im Untergrund entscheidend bestimmen kann. Eine Vielzahl von Untersuchungen hat gezeigt, dass die Verteilung der Durchlässigkeiten eines porösen Mediums diese Dichteffekte verstärken oder abmindern kann. Wie sich dieser gekoppelte Effekt auf die Vermischung zweier Fluide auswirkt, wurde in dieser Arbeit untersucht und dabei das experimentelle sowohl mit dem numerischen als auch mit dem analytischen Modell gekoppelt. Die auf der Störungstheorie basierende stochastische Theorie der macrodispersion wurde in dieser Arbeit für den Fall der transversalen Makodispersion. Für den Fall einer stabilen Schichtung wurde in einem Modelltank (10m x 1.2m x 0.1m) der Universität Kassel eine Serie sorgfältig kontrollierter zweidimensionaler Experimente an einem stochastisch heterogenen Modellaquifer durchgeführt. Es wurden Versuchsreihen mit variierenden Konzentrationsdifferenzen (250 ppm bis 100 000 ppm) und Strömungsgeschwindigkeiten (u = 1 m/ d bis 8 m/d) an drei verschieden anisotrop gepackten porösen Medien mit variierender Varianzen und Korrelationen der lognormal verteilten Permeabilitäten durchgeführt. Die stationäre räumliche Konzentrationsausbreitung der sich ausbreitenden Salzwasserfahne wurde anhand der Leitfähigkeit gemessen und aus der Höhendifferenz des 84- und 16-prozentigen relativen Konzentrationsdurchgang die Dispersion berechnet. Parallel dazu wurde ein numerisches Modell mit dem dichteabhängigen Finite-Elemente-Strömungs- und Transport-Programm SUTRA aufgestellt. Mit dem kalibrierten numerischen Modell wurden Prognosen für mögliche Transportszenarien, Sensitivitätsanalysen und stochastische Simulationen nach der Monte-Carlo-Methode durchgeführt. Die Einstellung der Strömungsgeschwindigkeit erfolgte - sowohl im experimentellen als auch im numerischen Modell - über konstante Druckränder an den Ein- und Auslauftanks. Dabei zeigte sich eine starke Sensitivität der räumlichen Konzentrationsausbreitung hinsichtlich lokaler Druckvariationen. Die Untersuchungen ergaben, dass sich die Konzentrationsfahne mit steigendem Abstand von der Einströmkante wellenförmig einem effektiven Wert annähert, aus dem die Makrodispersivität ermittelt werden kann. Dabei zeigten sich sichtbare nichtergodische Effekte, d.h. starke Abweichungen in den zweiten räumlichen Momenten der Konzentrationsverteilung der deterministischen Experimente von den Erwartungswerten aus der stochastischen Theorie. Die transversale Makrodispersivität stieg proportional zur Varianz und Korrelation der lognormalen Permeabilitätsverteilung und umgekehrt proportional zur Strömungsgeschwindigkeit und Dichtedifferenz zweier Fluide. Aus dem von Welty et al. [2003] mittels Störungstheorie entwickelten dichteabhängigen Makrodispersionstensor konnte in dieser Arbeit die stochastische Formel für die transversale Makrodispersion weiter entwickelt und - sowohl experimentell als auch numerisch - verifiziert werden.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Das Ziel dieser Arbeit war, die Einflüsse von Wurzeln und Rhizodeposition auf den Umsatz von Körnerleguminosenresiduen und damit verknüpfte mikrobielle Prozesse zu untersuchen. In einem integrierten Versuch wurden Ackerbohne (Vicia faba L.), Erbse (Pisum sativum L.) und Weiße Lupine (Lupinus albus L.) untersucht. Der Versuch bestand aus drei Teilen, zwei Gefäß-Experimenten und einem Inkubationsexperiment, in denen ausgehend von einem Gefäß-Experiment derselbe Boden und dasselbe Pflanzenmaterial verwendet wurden. In Experiment I wurde die Stickstoff-Rhizodeposition der Körnerleguminosenarten, definiert als wurzelbürtiger N nach dem Entfernen aller sichtbaren Wurzeln im Boden, gemessen und der Verbleib des Rhizodepositions-N in verschiednenen Bodenpools untersucht. Dazu wurden die Leguminosen in einem Gefäßversuch unter Verwendung einer in situ 15N-Docht-Methode mit einer 15N Harnstofflösung pulsmarkiert. In Experiment II wurde der Umsatz der N-Rhizodeposition der Körnerleguminosen und der Einfluss der Rhizodeposition auf den anschließenden C- und N-Umsatz der Körnerleguminosenresiduen in einem Inkubationsexperiment untersucht. In Experiment III wurde der N-Transfer aus den Körnerleguminosenresiduen einschließlich N-Rhizodeposition in die mikrobielle Biomasse und die Folgefrüchte Weizen (Triticum aestivum L.) und Raps (Brassica napus L.) in einem Gewächshaus-Gefäßversuch ermittelt. Die in situ 15N Docht-Markierungs-Methode wies hohe 15N Wiederfindungsraten von ungefähr 84 Prozent für alle drei Leguminosenarten auf und zeigte eine vergleichsweise homogene 15N Verteilung zwischen verschiedenen Pflanzenteilen zur Reife. Die Wurzeln zeigten deutliche Effekte auf die N-Dynamik nach dem Anbau von Körnerleguminosen. Die Effekte konnten auf die N-Rhizodeposition und deren anschließenden Umsatz, Einflüsse der Rhizodeposition von Körnerleguminosen auf den anschließenden Umsatz ihrer Residuen (Stängel, Blätter, erfassbare Wurzeln) und die Wirkungen nachfolgender Nichtleguminosen auf den Umsatzprozess der Residuen zurückgeführt werden: Die N-Rhizodeposition betrug zur Reife der Pflanzen bezogen auf die Gesamt-N- Aufnahme 13 Prozent bei Ackerbohne und Erbse und 16 Prozent bei Weißer Lupine. Bezogen auf den Residual N nach Ernte der Körner erhöhte sich der relative Anteil auf 35 - 44 Prozent. Die N-Rhizodeposition ist daher ein wesentlicher Pool für die N-Bilanz von Körnerleguminosen und trägt wesentlich zur Erklärung positiver Fruchtfolgeeffekte nach Körnerleguminosen bei. 7 - 21 Prozent des Rhizodepositions-N wurden als Feinwurzeln nach Nasssiebung (200 µm) wiedergefunden. Nur 14 - 18 Prozent des Rhizodepositions-N wurde in der mikrobiellen Biomasse und ein sehr kleiner Anteil von 3 - 7 Prozent in der mineralischen N Fraktion gefunden. 48 bis 72 Prozent der N-Rhizodeposition konnte in keinem der untersuchten Pools nachgewiesen werden. Dieser Teil dürfte als mikrobielle Residualmasse immobilisiert worden sein. Nach 168 Tagen Inkubation wurden 21 bis 27 Prozent des Rhizodepositions-N in den mineralisiert. Der mineralisierte N stammte im wesentlichen aus zwei Pools: Zwischen 30 Prozent und 55 Prozent wurde aus der mikrobiellen Residualmasse mineralisiert und eine kleinere Menge stammte aus der mikrobielle Biomasse. Der Einfluss der Rhizodeposition auf den Umsatz der Residuen war indifferent. Durch Rhizodeposition wurde die C Mineralisierung der Leguminosenresiduen nur in der Lupinenvariante erhöht, wobei der mikrobielle N und die Bildung von mikrobieller Residualmasse aus den Leguminosenresiduen in allen Varianten durch Rhizodepositionseinflüsse erhöht waren. Das Potential des residualen Körnerleguminosen-N für die N Ernährung von Folgefrüchten war gering. Nur 8 - 12 Prozent des residualen N wurden in den Folgenfrüchten Weizen und Raps wiedergefunden. Durch die Berücksichtigung des Rhizodepositions-N war der relative Anteil des Residual-N bezogen auf die Gesamt-N-Aufnahme der Folgefrucht hoch und betrug zwischen 18 und 46 Prozent. Dies lässt auf einen höheren N-Beitrag der Körnerleguminosen schließen als bisher angenommen wurde. Die residuale N-Aufnahme von Weizen von der Blüte bis zur Reife wurde durch den Residual-N gespeist, der zur Blüte in der mikrobiellen Biomasse immobilisiert worden war. Die gesamte Poolgröße, Residual-N in der mikrobiellen Biomasse und in Weizen, veränderte sich von der Blüte bis zur Reife nicht. Jedoch konnte ein Rest von 80 Prozent des Residual-N in keinem der untersuchten Pools nachgewiesen werden und dürfte als mikrobielle Residualmasse immobilisiert worden sein oder ist noch nicht abgebaut worden. Die zwei unterschiedlichen Folgefrüchte - Weizen und Raps - zeigten sehr ähnliche Muster bei der N-Aufnahme, der Residual-N Wiederfindung und bei mikrobiellen Parametern für die Residuen der drei Körnerleguminosenarten. Ein differenzierender Effekt auf den Umsatz der Residuen bzw. auf das Residual-N-Aneignungsvermögen der Folgefrüchte konnte nicht beobachtet werden.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Signaltransduktion in niederen und höheren Zellen gehört zu einem der intensivst beforschten, molekularen Mechanismen. Wie gelangt ein externer Stimulus in die Zelle, bzw. wie wird das entsprechende Signal von der Zelloberfläche in das Zellinnere übertragen? Welche Proteine, die in die Signaltransduktion involviert sind, benötigt die Zelle um auf diesen Stimulus zu reagieren – und wie reagiert die Zelle letztendlich auf dieses extrazelluläre Signal? In den letzten Jahren wurde deutlich, dass diese interaktiven Netzwerke hochkomplex sind und für die molekularbiologische Forschung nur dann einsehbar werden, wenn gezielt Mutanten hergestellt werden, die z.B. Rezeptoren oder interzelluläre Komponenten nicht mehr vorweisen können. Die Erforschung der Signaltransduktionsprozesse ist mittlerweile aus den Laboren der Grundlagenforschung auch in die molekularbiologischen Labors der pharmazeutischen Forschung übertragen worden. Aktuell wurden in den letzten Jahren mehrere Substanzen entwickelt, die z.B. für die Bekämpfung von bösartigen Tumoren geeignet sind, und diese Substanzen zeichnen sich dadurch aus, dass sie Komponenten der Signaltransduktion blockieren, bzw. Botenstoffe der Neoangiogenese aus dem Serum entfernen und so den Tumor „aushungern“. In Dictyostelium discoideum sind bereits zahlreiche Signaltransduktionskomponenten beschrieben worden und es finden sich die bekannten Systeme, wie z.B. Transmembranrezeptoren, G-Proteine oder ras-Proteine, die man aus anderen Organismen kennt wieder. Auch MAP-Kinase-Kaskaden sind vorhanden und verschiedene extrazelluläre Signalstoffe, wie z.B. cAMP, PSF oder CMF sind bekannt und teilweise charakterisiert. Dictyostelium discoideum eignet sich aus diesen Gründen und aus Gründen der biochemischen und zellbiologischen Verfügbarkeit dazu, Prozesse der Signalerkennung und deren Weiterleitung zu den Effektorproteinen zu erforschen. Das Primärziel dieser Arbeit war es, möglichst eine neue Komponente in einem der bereits bekannten Signalwege der Discoidin-Regulation durch Mutagenesen zu zerstören, um diese anschließend beschreiben und charakterisieren zu können.Dazu wurde die sog. REMI-Mutagenese am neu gegründeten Labor der Universität Kassel etabliert und ferner die Zellkulturtechnik von D. discoideum für den Routineeinsatz eingearbeitet. Eine weitere Aufgabe der vorliegenden Arbeit war das Screening bereits bekannter Zellinien, die durch einen auffälligen Phänotyp nach einer Mutagenese isoliert worden waren. Dieses Screening sollte mit Western-blot-Analysen des sog. Discoidin-Proteins durchgeführt werden. Zusätzlich sollten neue Methoden entwickelt werden, die es möglich machen die Interaktionen während des vegetativen Wachstums vom Dictyostelium in Klebsiella-Suspension zu beschreiben.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Arbeit hat zum Ziel, die Beziehungen der Bewohnerinnen und Bewohner ihres neuen Stadtteils zu beobachten und zu erklären. Der Verfasser ist dabei teilnehmender Beobachter, da er seit über acht Jahren als Quartiersarbeiter in diesem Stadtteil tätig ist. Hintergrund der Tätigkeit des Verfassers und seiner Arbeit ist die Kritik an den Trabantenstädten der 1970er Jahre in Deutschland. Im weiteren Verlauf verfolgt die Arbeit einem soziologisch theoretischen Ansatz. Handlungen, Zeichen, Symbole, Konflikte, Distanzen und Prozesse der sozialen Durchmischungen werden in Bezug zu einzelnen Theorem gesehen. Der Handlungsansatz, der Milieuansatz, die Raumtheorien, Integration und Exklusion sind die fünf theoretischen Perspektiven. Diese werden jeweils zunächst auf Grundlage der wissenschaftlichen Literatur dargestellt, um dann einzelne Beobachtungen diesen jeweiligen Rahmen zuzuordnen. Neue Stadtteile sind in den letzten Jahren in Deutschland nicht viele entstanden. Zu viele negative Erfahrungen machten die Städte, die in 60er und 70er Jahren des 20 Jahrhunderts Trabenten- oder Satellitenstädte am Stadtrand errichteten. Die Stadt Freiburg war eine der ersten Städte, die Anfang der 90er Jahre wieder versucht einen neuen urbanen Stadtteil für 10 – 12 000 Einwohner auf der grünen Wiese zu planen und zu bauen. Die Leitfrage war darum, wie kann eine ähnlich problematische Entwicklung, wie sie die vielen anderen Neubaustadtteile genommen haben, im Stadtteil Rieselfeld verhindert werden. Vor diesem Hintergrund beauftragte die Stadt Freiburg ein Konzept zu unterstützen, dass neben dem Bau der Häuser und der Infrastruktur auch die Entsehung des sozialen und kulturellen Lebens fördern sollte. Die Trägerschaft für dieses Projekt „Quartiersaufbau Rieselfeld“ wurde der Kontaktstelle für praxisorientierte Forschung e. V., der Forschungsstelle der Evangelischen Fachhochschule Freiburg für Sozialwesen, für den Zeitraum von 1996 bis 2003 übertragen. Dieses Stadtentwicklungsprojekt war auch Arbeitgeber für den Verfasser dieser Arbeit. In den vorliegenden Text fliesen daher auch viele Alltagserfahrungen und auch biographische Anteile ein. Diese Arbeit will als eine sozialtheoretische Reflektion verstanden werden, die als Rahmen für lokalisierte empirische Beobachtungen dienen soll. Dies gewährleistete die absolute Nähe zu den Geschehnissen vor Ort, die Entwicklung im alltäglichen Leben mit den BewohnerInnen zu erleben, erschwerte aber die Distanz zur Reflexion dieses Prozesses. Aus dieser Nähe entwickelte sich im Lauf der Zeit, die Frage wie eigen sich die Bewohnerinnen und Bewohner ihren Stadtteil an. Dieses Interesse steht quasi über den alltäglichen sozialarbeiterischen Aufgaben und Herausforderungen. Die Hauptthese dieser Arbeit ist, dass sich die Aneignung des neuen Stadtteils durch einen ständigen Machtkampf, der auf den unterschiedlichsten Ebenen ausgetragen wird, vollzieht. Der Kern der Argumentation besteht neben theoretischen Überlegungen aus alltagstypischen Beobachtungen, die der Verfasser du Zusammenfassend orientiert sich die vorliegende Arbeit als machtsoziologischer Versuch an der genau verorteten Lokalisierung ihrer Produzenten, die sich im Laufe der letzten sieben Jahre herausgebildet und räumlich lokalisiert haben.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neuropeptid Y (NPY) ist ein potenter Neurotransmitter im zentralen und peripheren Nervensystem der Mammalia. Es ist an der Regulation einer Vielzahl von physiologischen Prozessen beteiligt und scheint auch im retino-tectalen Transfer des visuellen Systems von Anuren eine zentrale Funktion einzunehmen. Die Retina bildet die erste Funktionseinheit bei der Verarbeitung visuellen Inputs. Für die Weiterverarbeitung sind primär das Tectum opticum (TO) und das Praetectum verantwortlich. Es gilt als wahrscheinlich, dass der praetecto-tectale Transfer durch NPY inhibitorisch moduliert wird und damit wesentlichen Einfluss auf die visuelle Mustererkennung und die Dämpfung der tectalen Erregungsausbreitung hat. Die Applikation von NPY auf die Tectumoberfläche schwächt die anfängliche Erregungswelle visuell evozierter Feldpotenziale stark ab und NPY könnte somit Einfluss auf die Axonendknoten retinaler Ganglienzellen des Typs R2, R3 und auch R4 haben. Es können jedoch keine detaillierten Aussagen gemacht werden welche Neuronen in welchem Umfang daran beteiligt sind. Im Rahmen meiner Arbeit, sollte der Einfluss von NPY auf die Spike-Amplitude und die Spike-Rate retinaler Ganglienzellen R2 und R3 bei Bombina orientalis analysiert werden, da diese den größten Input bei der visuellen Mustererkennung liefern und unterschiedliche Funktionen in diesem neuronalen Netzwerk haben. Hierzu wurden visuell evozierte Aktionspotenziale von R2 und R3 Neuronen im TO von Bombina orientalis abgeleitet und mit Hilfe der Analysesoftware Spike 2 bearbeitet und analysiert. Es konnte nachgewiesen werden, dass die Spike-Amplituden der R2 Neuronen 20 min nach NPY Applikation auf die Tectumoberfläche reduziert werden. Nach einer Erholungsphase 10 min nach Beenden der NPY-Applikation konnte ein Wiederanstieg der Spike-Amplituden gemessen werden, 20 min nach Beenden der NPY-Applikation kam es zu einem Abfall der Spike-Amplituden dessen Ursache unbekannt ist. Ob es ein Artefakt ist oder ob es sich hierbei um einen spezifischen Effekt von R2 Neuronen handelt muss noch geklärt werden. Die Spike-Amplituden der R3 Neuronen waren bereits 10 min nach NPY-Applikation reduziert, ein weitere Abfall der Spike-Amplituden konnte nicht verzeichnet werden. 10 min nach Beenden der NPY-Applikation konnte ein Anstieg der Spike-Amplituden verzeichnet werden, der sich stetig fortsetzte. Bei beiden Neuronentypen wurden 20 min nach Beenden der NPY-Applikation Spike-Amplituden nahe der Ausgangsamplitudenhöhe gemessen. Aufgrund des Verlaufes der R3 Neuronen ist davon auszugehen, dass die Feldpotenziale eher durch R3 Neuronen als durch R2 Neuronen beeinflusst werden, da er dem der Feldpotenziale gleicht. Auch bei der Untersuchung der Spike-Raten konnte eine Beeinflussung durch NPY nachgewiesen werden. Die R2 Neuronen zeigten 10 min nach NPY-Applikation einen Abfall der Spike-Raten der sich nach 20 min weiter fortsetzte. 10 min nach Beenden der NPY-Applikation konnte ein Wiederanstieg der Spike-Raten verzeichnet werden der sich stetig fortsetzte, die Werte blieben jedoch deutlich unter den gemessenen Ausgangswerten ohne eine NPY-Beeinflussung. Bei den R3 Neuronen konnte ein Abfall der Spike-Raten deutlich zeitverzögert nachgewiesen werden. 20 min nach Beenden der NPY-Applikation konnte ein Anstieg der Spike-Rate verzeichnet werden, jedoch gab es keine signifikanten Unterschiede der Spike-Raten zu den Werten ohne NPY-Beeinflussung. Der Vergleich der R2 und R3 Neuronen zeigt, dass bei den der R2 Neuronen ein schnellerer Effekt von NPY nachweisbar ist als die den R3 Neuronen. Aufgrund der von mir nachgewiesene NPY-induzierte Spike-Amplitudenabnahme retinaler R2 und R3 Neuronen muss davon ausgegangen werden, dass die Reduktion der Feldpotential durch NPY eher auf den Einfluss anderer Neuronen als R2 und R3 Neuronen zurückzuführen ist. Weder bei den R2 noch bei den R3 Neuronen konnte eine so schnelle und so starke Beeinflussung der Spike- Amplituden verzeichnet werden. Weiterhin zeigen meine Ergebnisse neuronale Bestätigung der von Funke 2005 beschrieben geringeren Strahlungsintensität sowie der geringeren Glukosemetabolisierung bei der 14C-2-Desoxyglukose Technik. Dies ist in der Form nur auf den Einfluss von R2 und R3 Neuronen zurückzuführen. Die von mir erzielten Ergebnisse stützen die Hypothese, dass NPY den retino-tectalen Signaltransfer inhibitorisch steuert einhergehend mit einer reduzierten Ausschüttung des praetectotectalen Transmitters Glutamat und weisen darauf hin, dass NPY über zwei verschiedene second-messenger vermittelte Prozesse diesen Signaltransfer steuert. Interessant ist in diesem Zusammenhang, dass diese nachhaltige Beeinflussung der visuellen Informationsverarbeitung durch NPY bei Bombina orientalis einem phylogenetisch basalen Vertreter der Anuren nachgewiesen werden konnte. Dies lässt den Schluss zu, dass solche grundlegenden neurochemischen Effekte des retino-tectalen Informationsgefüges evolutionär konserviert sind.