975 resultados para OB STARS
Resumo:
During synaptic transmission, NT-filled synaptic vesicles are released by Ca2+-triggered exocytosis at the active zone. Following exocytosis, SV membrane is immediately re-internalized and synaptic vesicles (SVs) are regenerated by a local recycling mechanism within the presynaptic terminal. It is debated whether an endosomal compartment is involved in this recycling process. In contrast, it is well known from cultured mammalian cells, that endocytic vesicles fuse to the early sorting endosome. The early endosome is a major sorting station of the cell where cargo is send into the degradative pathway to late endosome and lysosome or towards recycling. Each trafficking step is mediated by a certain protein of the Rab family. Rab proteins are small GTPases belonging to the Ras superfamily. They accumulate at their target compartments and have thereby been used as markers for the different endocytic organelles in cultured mammalian cells. Rab5 controls trafficking from the PM to the early endosome and has thereby been used as marker for this compartment. A second marker is based on the specific binding of the FYVE zinc finger protein domain to the lipid PI(3)P that is specifically generated at the early endosomal membrane. This study used the Drosophila NMJ as a model system to investigate the SV recycling process. In particular, three questions were addressed: First, is an endosomal compartment present at the synapse? Second, do SVs recycle through an endosome? Third, is Rab5 involved in SV recycling? We used GFP fusions of Rab5 and 2xFYVE to visualize endosomal compartments at the presynaptic terminal of Drosophila third instar larval NMJs. Furthermore, the endosomes are located within the pool of recycling SVs, labeled with the styryl-dye FM5-95. Using the temperature-sensitive mutation in Dynamin, shibirets, we showed that SV recycling involves trafficking through an intermediate endosomal compartment. In cultured mammalian cells, interfering with Rab5 function by expressing the dominant negative version, Rab5SN causes the fragmentation of the endosome and the accumulation of endocytic vesicles. In contrast, when Rab5 is overexpressed enlarged endosomal compartments were observed. In Drosophila, the endosomal compartment was disrupted when loss of function and dominant negative mutants of Rab5 were expressed. In addition, at the ultrastructural we observed an accumulation of endocytic vesicles in Rab5S43N expressing terminals and enlarged endosomes when Rab5 was overexpressed. Furthermore, interfering with Rab5 function using the dominant negative Rab5S43N caused a decrease in the SV recycling kinetics as shown by FM1-43 experiments. In contrast, overexpression of Rab5 or GFP-Rab5 caused an increase in the FM1-43 internalization rate. Finally, standard electrophysiological techniques were used to measure synaptic function. We found that the Rab5-mediated endosomal SV recycling pathway generates vesicles with a higher fusion efficacy during Ca2+-triggered release, compared to SVs recycled when Rab5 function was impaired. We therefore suggest a model in which the endosome serves as organelle to control the SV fusion efficacy and thereby the synaptic strength. Since changes in the synaptic strength are occuring during learning and memory processes, controlling endosomal SV recycling might be a new molecular mechanism involved in learning and memory.
Resumo:
Die Arbeit analysiert die Gründe, die erst zur Golfkrise führten und dann zum darauf folgenden Golfkrieg. Es geht diesbezüglich darum festzustellen, ob die damalige US Regierung unter George Bush, die Invasion Kuwaits zum Ausbau der US-amerikanischen Hegemonie nicht nur in der Golfregion ausnutzte, sondern ob sie die Invasion begünstigte oder sogar provozierte, um als Hegemon in den internationalen Beziehungen herrschen zu können. Aus Sicht der internationalen Mächte Konstellation ergab sich 1990, nach dem Fall der Berliner Mauer (1989) und letztendlich mit der Disintegration der Sowjet Union 1991, für die USA die Gelegenheit ohne großes realpolitisches Risiko einen Krieg in einer Region zu entfachen, mit dem sie als Sieger sich die Rohstoffe (Ö l, 2/3 der bekannten Welt Ö lreserven, ect) der Golfregion aneignen könnten. Ferner würde eine Dominanz über diese Region, die als geostrategisch äuß erst wichtig gilt ihren Status als Hegemon weiter ausbauen. Um die Entwicklung der US Hegemonie zu eruieren werden kurz weitere Stationen, nach dem Golfkrieg 1991, durchleuchtet: wie z.B. der Kosovo-Krieg 1999, der 11.9.2001, der Afghanistan Krieg 2001 & der 3. Golfkrieg der USA 2003. Theoretisch wird vor allem die Hegemonietheorie auf ihre Stärken und ggf. Schwächen, in Bezug auf den 2. Golfkrieg untersucht, um zu sehen ob sie nicht nur eine Erklärung für den Krieg abgeben kann, sondern auch ob sie den weiteren Verlauf der US Auß enpolitik eruieren kann. Der empirische Teil besteht größt enteils aus der diplomatischen Geschichte zwischen den Hauptakteuren Irak, USA, Kuwait, ect. Ö konomische Aspekte kommen vor allem bei der Analyse über die Auswirkung der damaligen (US) Rezession von 1990 zu Geltung und in wiefern diese die Golfkrise und den drauf folgenden Krieg beeinfluß ten. Gegen Ende der Arbeit werden die theoretischen und die empirischen Daten nochmals auf ihre Koherenz untersucht, um ein in sich geschlossenes Gesamtbild des 2. Golfkriegs und die darauf folgende US Auß enpolitik abzugeben.
Resumo:
Die in dieser Arbeit durchgeführten Untersuchungen zeigen, daß es möglich ist, komplexe thermische Systeme, unter Verwendung der thermisch-, elektrischen Analogien, mit PSpice zu simulieren. Im Mittelpunkt der Untersuchungen standen hierbei Strangkühlkörper zur Kühlung von elektronischen Bauelementen. Es konnte gezeigt werden,daß alle Wärmeübertragungsarten, (Wärmeleitung, Konvektion und Wärmestrahlung) in der Simulation berücksichtigt werden können. Für die Berechnung der Konvektion wurden verschiedene Methoden hergeleitet. Diese gelten zum einen für verschiedene Kühlkörpergeometrien, wie z.B. ebene Flächen und Kühlrippenzwischenräume, andererseits unterscheiden sie sich, je nachdem, ob freie oder erzwungene Konvektion betrachtet wird. Für die Wärmestrahlung zwischen den Kühlrippen wurden verschiedenen Berechnungsmethoden entwickelt. Für die Simulation mit PSpice wurde die Berechnung der Wärmestrahlung zwischen den Kühlrippen vereinfacht. Es konnte gezeigt werden, daß die Fehler, die durch die Vereinfachung entstehen, vernachlässigbar klein sind. Für das thermische Verhalten einer zu kühlenden Wärmequelle wurde ein allgemeines Modell entworfen. Zur Bestimmung der Modellparameter wurden verschiedene Meßverfahren entwickelt. Für eine im Fachgebiet Elektromechanik entwickelte Wärmequelle zum Test von Kühlvorrichtungen wurde mit Hilfe dieser Meßverfahren eine Parameterbestimmung durchgeführt. Die Erstellung des thermischen Modells eines Kühlkörpers für die Simulation in PSpice erfordert die Analyse der Kühlkörpergeometrie. Damit diese Analyse weitestgehend automatisiert werden kann, wurden verschiedene Algorithmen unter Matlab entwickelt. Es wurde ein Algorithmus entwickelt, der es ermöglicht, den Kühlkörper in Elementarzellen zu zerlegen, die für die Erstellung des Simulationsmodells benötigt werden. Desweiteren ist es für die Simulation notwendig zu wissen, welche der Elementarzellen am Rand des Kühlkörpers liegen, welche der Elementarzellen an einem Kühlrippenzwischenraum liegen und welche Kühlkörperkanten schräg verlaufen. Auch zur Lösung dieser Aufgaben wurden verschiedene Algorithmen entwickelt. Diese Algorithmen wurden zu einem Programm zusammengefaßt, das es gestattet, unterschiedliche Strangkühlkörper zu simulieren und die Simulationsergebnisse in Form der Temperaturverteilung auf der Montagefläche des Kühlkörpers grafisch darzustellen. Es können stationäre und transiente Simulationen durchgeführt werden. Desweiteren kann der thermische Widerstand des Kühlkörpers RthK als Funktion der Verlustleistung der Wärmequelle dargestellt werden. Zur Verifikation der Simulationsergebnisse wurden Temperaturmessungen an Kühlkörpern durchgeführt und mit den Simulationsergebnissen verglichen. Diese Vergleiche zeigen, daß die Abweichungen im Bereich der Streuung der Temperaturmessung liegen. Das hier entwickelte Verfahren zur thermischen Simulation von Strangkühlkörpern kann somit als gut bewertet werden.
Resumo:
Die Privatisierung im Hochschulwesen ist eine neue internationale Tendenz, die in der Welt in den letzten 25 Jahren zu umfangreichen wissenschaftlichen Diskussionen zwischen den Experten dieses Gebietes geführt hat. Die private Hochschulbildung erstreckt sich über ein großes Feld der verschiedenen Studiengänge. Ihre Ziele und Aufgaben sowie ihre Bedeutung unterscheiden sich von Staat zu Staat. Ebenso ist die private Hochschulbildung unterschiedlich aufgebaut hinsichtlich ihrer Größe, Finanzierung usw. Die Errichtung einiger privater Hochschulen in Ägypten beeinflusste ebenfalls die wissenschaftliche Diskussion zwischen den Experten bis heute. Um die ägyptische Erfahrung in diesem Gebiet beurteilen zu können, wurde die deutsche Situation vergleichend betrachtet. Das Ziel der Dissertation ist die Beschreibung und Analyse des aktuellen Standes der Entwicklung des privaten Hochschulwesens in Ägypten und in Deutschland, um Ähnlichkeiten und Unterschiede herauszuarbeiten, Nachteile und Vorteile der Entwicklung in beiden Ländern zu bewerten sowie Vorschläge zur Verbesserung der Lage zu machen. Als Untersuchungsmethode wurde die Fallstudie benutzt, dabei wurden jeweils fünf repräsentative Hochschulen ausgewählt. Sie unterschieden sich in den Studienangeboten, der regionalen Lage, der Größe, der Hochschulart, der fachlichen Ausrichtung und dem Gründungsdatum. Das Thema wurde in zwei Teilen behandelt, in einem theoretischen und in einem praktischen Teil. Im theoretischen Teil werden die Geschichte des Hochschulwesens allgemein und seine Entwicklung, Ziele und Aufgaben sowie die gegenwärtige Situation behandelt. In diesem Kontext werden auch die Bedeutung der privaten Hochschulen, ihre Entstehung und Entwicklung, ihre Ziele und Aufgaben, ihre Finanzierung und ihre gesetzliche Lage untersucht; die ausgewählten privaten Hochschulen werden detailliert beschrieben. Der praktische Teil dieser Untersuchung erfolgte vorwiegend in Form von Befragungen an den ausgewählten privaten Hochschulen. Die wichtigsten behandelten Bereiche der Befragungen waren: - Beziehungen zwischen Staat und Hochschule, - Ziel und Aufgaben der Leistungsbewertung, - Finanzierung, - Auswahl der Studienbewerber, - Lehrkörper, - Lehrpläne und -programme. Ergebnisse: Die privaten Hochschulen in Ägypten konnten bis zum heutigen Tag ihre Ziele hinsichtlich der Lehre und der Forschung nicht erreichen. Aufgrund der häufigen Veränderungen bei den staatlichen Rahmenbedingungen wurde die angestrebte Flexibilität nicht erreicht. Zusätzlich leiden die neugegründeten privaten Hochschulen unter der mangelhaften Finanzierung, da sie sich vorwiegend aus Studiengebühren tragen. Deshalb leisten sie keinen Beitrag für die Gesamtfinanzierung des ägyptischen Hochschulsektors. Eine Ausnahme stellt die Französische Universität in Kairo dar. Die deutschen privaten Hochschulen haben ihre Ziele hinsichtlich der Lehre und der Forschung zu einem großen Anteil erreicht. Dies erfolgte vor allem durch eine größere Flexibilität, eine bessere finanzielle Ausstattung sowie zusätzliche unterschiedliche Quellen der Finanzierung. Der Beitrag einiger privater Hochschulen an der Gesamtfinanzierung des deutschen Hochschulwesens ist groß. Generell beruht die Qualität des privaten Hochschulwesens auf der Bildungsphilosophie sowie der allgemeinen Politik des Staates und darauf, wie weit den Anforderungen der Gesellschaft entsprochen wird und ob ein Beitrag zu Entwicklung des Hochschulwesens geleistet wird. Weiterhin ist deren Erfolg von einer ausreichenden Finanzierung abhängig.
Resumo:
Eine Studienreise führte den Autor im März 2006 zu sieben englischen Universitäten, um der Frage nachzugehen, ob die Integration von Bibliothek und Hochschulrechenzentrum (sowie weiterer Einrichtungen) ein "Silver bullet oder cul-de-sac" ist. Nach intensiven Diskussionen mit britischen Kollegen, der Inaugenscheinnahme der Einrichtungen und Auswertung der Sekundärliteratur zielt der folgende Beitrag auf eine Bewertung aus deutscher Sicht.
Resumo:
Eine Studienreise führte den Autor im März 2006 zu sieben englischen Universitäten, um der Frage nachzugehen, ob die Integration von Bibliothek und Hochschulrechenzentrum (sowie weiterer Einrichtungen) ein "Silver bullet oder cul-de-sac" ist. Nach intensiven Diskussionen mit britischen Kollegen, der Inaugenscheinnahme der Einrichtungen und Auswertung der Sekundärliteratur zielt der folgende Beitrag auf eine Bewertung aus deutscher Sicht.
Resumo:
Die Arbeit behandelt den Vorschlag für eine EU-Verordnung KOM/2000/7/final, 2000/0212(COD) des europäischen Parlaments und des Rates von der Kommission der Europäischen Gemeinschaften als Grundlage einer Marktöffnungsverordnung und welche Veränderungen sich dadurch in Deutschland einstellen werden. Ausschreibungen von Verkehrsleistungen werden zunehmen. Die Ausschreibungsarten werden sich in ländlichen Regionen von denen in Verkehrszentren unterscheiden. In der Region werden sich Bedarfslösungen stärker durchsetzen. Kürzungen von Verkehrsleistungen werden hier stärker ausfallen als in den Zentren und damit zu einem kleineren Leistungsvolumen führen. Aufgrund des geringen Leistungsumfangs gibt es weniger Interessenten. Bei Standardausschreibungen werden deshalb auch häufig die Varianten der beschränkten oder die freihändige Vergabe gewählt. Funktionale Ausschreibungen haben nur eine untergeordnete Bedeutung. In den Verkehrszentren sind die Lose größer und damit für viele Anbieter interessant. Die Verkehrszusatzleistungen sind zudem komplexer. Standardausschreibungen in öffentlicher Vergabeart werden sich hier vermutlich als Norm durchsetzen. Die VOL/A wird sicherlich ihre Bedeutung und ihren dafür notwendigen Regelungsumfang in Deutschland als deutsches oder als europäisches Recht behalten. Ob der empfehlende Charakter der DIN EN 13816 Norm „ÖPNV: Definition, Festlegung von Leistungszielen und Messung der Servicequalität“ erhalten werden kann und nicht als Steuerungselement zur Standardisierung im ÖPNV beitragen wird, ist dabei zu bezweifeln. Durch diese Wettbewerbspflicht wird der Aufgabenträger zum Besteller von Verkehrsleistungen. Damit geht die Verkehrsplanung in die Verantwortung des Aufgabenträgers über und gerät stärker in den Einflussbereich der Politik. Die strategisch abstrakte und die konkrete Verkehrsplanung wachsen für den Normfall der Standardausschreibung zusammen. Die Hoffnung auf eine bessere Netzintegration und eine Standardisierung des ÖPNV Angebots und der ÖPNV Qualität entsteht. Es entwickelt sich dadurch aber auch die Gefahr der Abhängigkeit des Nahverkehrsangebots von der derzeitigen Haushaltslage oder der Interessenlage der Politik. Kontinuität in Angebot und Qualität werden zu erklärten Planungszielen. Der Verkehrsplaner auf der Bestellerseite muss die Planung in Ausschreibungsunterlagen umsetzen. Dies erfordert erweiterte Kompetenzen in den Bereichen Betriebswirtschaft, Logistik, Jura, Informatik und Führungskompetenzen. Ausbildende Institutionen müssen darauf bereits im Vorfeld der Umsetzung reagieren. Durch die zeitliche Verzögerung der Umsetzung der Planung durch die Ausschreibungsschritte sind in der Verkehrsplanung längere Planungsvorlaufzeiten einzukalkulieren. Vorausschauender zu planen, wird dabei wichtiger. Auch eventuelle Fehler in der Planung sind nicht mehr so einfach zu korrigieren. Durch den gestiegenen Einsatz von Technologien in den Fahrzeugen besteht für den Verkehrsplaner dafür häufiger die Möglichkeit, Planungsänderungen auf ihre Wirksamkeit im Hinblick auf Attraktivität für den Fahrgast anhand von den ermittelten Fahrgastzahlen zu kontrollieren. Dasselbe gilt auch für Marketing- und Vertriebsmaßnahmen, wie für die Tarifpolitik. Die Zahlen stehen nicht nur für diese Rückkopplung zur Verfügung, sondern dienen auch als Planungsgrundlage für zukünftige Maßnahmen. Dem Planer stehen konkretere Zahlen für die Planung zur Verfügung. Ein Aspekt, der aufgrund der Sanktionsmaßnahmen bei Ausschreibungen an Bedeutung gewinnen wird, ist die Möglichkeit, Qualität von Verkehrsleistungen möglichst objektiv beurteilen zu können. Praxisrelevante Auswirkungen auf die Verkehrsplanung des öffentlichen Personennahverkehrs ergeben sich hauptsächlich durch die gestiegene Komplexität in der Planung selbst und den dadurch unverzichtbaren gewordenen Einsatz von Computerunterstützung. Die Umsetzung in Ausschreibungsunterlagen der Planung und die Kontrolle stellen neue Elemente im Aufgabenbereich des Verkehrsplaners dar und erfordern damit breiter ausgelegte Kernkompetenzen. Es werden mehr Verkehrsplaner mit breiterer Ausbildung benötigt werden. Diese Arbeit hat aufgezeigt, dass sich mit der Integration des Ausschreibungsgedankens in den Ablauf der Verkehrsplanung eine sprunghafte Entwicklung in der Planungstätigkeit ergeben wird. Aufgrund der in Zukunft steigenden Qualität und Quantität der Planungsgrundlagen und der ebenfalls gestiegenen Ansprüche an die Bewertungsparameter ergeben sich Veränderungen und neue Anforderungen auf diesem Gebiet, die in erster Linie für die Hochschulen und andere ausbildende Einrichtungen, aber auch für die Verkehrsplanung unterstützende Industrie.
Resumo:
Neuropeptid Y (NPY) ist ein potenter Neurotransmitter im zentralen und peripheren Nervensystem der Mammalia. Es ist an der Regulation einer Vielzahl von physiologischen Prozessen beteiligt und scheint auch im retino-tectalen Transfer des visuellen Systems von Anuren eine zentrale Funktion einzunehmen. Die Retina bildet die erste Funktionseinheit bei der Verarbeitung visuellen Inputs. Für die Weiterverarbeitung sind primär das Tectum opticum (TO) und das Praetectum verantwortlich. Es gilt als wahrscheinlich, dass der praetecto-tectale Transfer durch NPY inhibitorisch moduliert wird und damit wesentlichen Einfluss auf die visuelle Mustererkennung und die Dämpfung der tectalen Erregungsausbreitung hat. Die Applikation von NPY auf die Tectumoberfläche schwächt die anfängliche Erregungswelle visuell evozierter Feldpotenziale stark ab und NPY könnte somit Einfluss auf die Axonendknoten retinaler Ganglienzellen des Typs R2, R3 und auch R4 haben. Es können jedoch keine detaillierten Aussagen gemacht werden welche Neuronen in welchem Umfang daran beteiligt sind. Im Rahmen meiner Arbeit, sollte der Einfluss von NPY auf die Spike-Amplitude und die Spike-Rate retinaler Ganglienzellen R2 und R3 bei Bombina orientalis analysiert werden, da diese den größten Input bei der visuellen Mustererkennung liefern und unterschiedliche Funktionen in diesem neuronalen Netzwerk haben. Hierzu wurden visuell evozierte Aktionspotenziale von R2 und R3 Neuronen im TO von Bombina orientalis abgeleitet und mit Hilfe der Analysesoftware Spike 2 bearbeitet und analysiert. Es konnte nachgewiesen werden, dass die Spike-Amplituden der R2 Neuronen 20 min nach NPY Applikation auf die Tectumoberfläche reduziert werden. Nach einer Erholungsphase 10 min nach Beenden der NPY-Applikation konnte ein Wiederanstieg der Spike-Amplituden gemessen werden, 20 min nach Beenden der NPY-Applikation kam es zu einem Abfall der Spike-Amplituden dessen Ursache unbekannt ist. Ob es ein Artefakt ist oder ob es sich hierbei um einen spezifischen Effekt von R2 Neuronen handelt muss noch geklärt werden. Die Spike-Amplituden der R3 Neuronen waren bereits 10 min nach NPY-Applikation reduziert, ein weitere Abfall der Spike-Amplituden konnte nicht verzeichnet werden. 10 min nach Beenden der NPY-Applikation konnte ein Anstieg der Spike-Amplituden verzeichnet werden, der sich stetig fortsetzte. Bei beiden Neuronentypen wurden 20 min nach Beenden der NPY-Applikation Spike-Amplituden nahe der Ausgangsamplitudenhöhe gemessen. Aufgrund des Verlaufes der R3 Neuronen ist davon auszugehen, dass die Feldpotenziale eher durch R3 Neuronen als durch R2 Neuronen beeinflusst werden, da er dem der Feldpotenziale gleicht. Auch bei der Untersuchung der Spike-Raten konnte eine Beeinflussung durch NPY nachgewiesen werden. Die R2 Neuronen zeigten 10 min nach NPY-Applikation einen Abfall der Spike-Raten der sich nach 20 min weiter fortsetzte. 10 min nach Beenden der NPY-Applikation konnte ein Wiederanstieg der Spike-Raten verzeichnet werden der sich stetig fortsetzte, die Werte blieben jedoch deutlich unter den gemessenen Ausgangswerten ohne eine NPY-Beeinflussung. Bei den R3 Neuronen konnte ein Abfall der Spike-Raten deutlich zeitverzögert nachgewiesen werden. 20 min nach Beenden der NPY-Applikation konnte ein Anstieg der Spike-Rate verzeichnet werden, jedoch gab es keine signifikanten Unterschiede der Spike-Raten zu den Werten ohne NPY-Beeinflussung. Der Vergleich der R2 und R3 Neuronen zeigt, dass bei den der R2 Neuronen ein schnellerer Effekt von NPY nachweisbar ist als die den R3 Neuronen. Aufgrund der von mir nachgewiesene NPY-induzierte Spike-Amplitudenabnahme retinaler R2 und R3 Neuronen muss davon ausgegangen werden, dass die Reduktion der Feldpotential durch NPY eher auf den Einfluss anderer Neuronen als R2 und R3 Neuronen zurückzuführen ist. Weder bei den R2 noch bei den R3 Neuronen konnte eine so schnelle und so starke Beeinflussung der Spike- Amplituden verzeichnet werden. Weiterhin zeigen meine Ergebnisse neuronale Bestätigung der von Funke 2005 beschrieben geringeren Strahlungsintensität sowie der geringeren Glukosemetabolisierung bei der 14C-2-Desoxyglukose Technik. Dies ist in der Form nur auf den Einfluss von R2 und R3 Neuronen zurückzuführen. Die von mir erzielten Ergebnisse stützen die Hypothese, dass NPY den retino-tectalen Signaltransfer inhibitorisch steuert einhergehend mit einer reduzierten Ausschüttung des praetectotectalen Transmitters Glutamat und weisen darauf hin, dass NPY über zwei verschiedene second-messenger vermittelte Prozesse diesen Signaltransfer steuert. Interessant ist in diesem Zusammenhang, dass diese nachhaltige Beeinflussung der visuellen Informationsverarbeitung durch NPY bei Bombina orientalis einem phylogenetisch basalen Vertreter der Anuren nachgewiesen werden konnte. Dies lässt den Schluss zu, dass solche grundlegenden neurochemischen Effekte des retino-tectalen Informationsgefüges evolutionär konserviert sind.
Resumo:
Die Polymerisation von α-Olefinen mit Derivaten von Gruppe-4-Metallocenen ist von großem technologischen Interesse. In den letzten Jahren hat sich bei der Suche nach metallocenalternativen Präkatalysatoren u.a. aufgrund der theoretischen Arbeiten von Ziegler gezeigt, dass Di(amido)-Chelatkomplexe mit Gruppe-4-Metallen vielversprechende Spezies für die α-Olefinpolymerisation darstellen. Im Rahmen der vorliegenden Arbeit sollten die stereoelektronischen Eigenschaften solcher Komplexe durch Arylgruppen mit sterisch anspruchsvollen Alkylsubstituenten beeinflusst werden. Weitere interessante Eigenschaften sollten durch die die Stickstoffatome verbrückende Ferroceneinheit erzielt werden, da diese als molekulares Kugellager und redoxaktive Schaltereinheit fungieren kann. Die Di(arylamino)ferrocenligandvorstufen Fe[(C5H4)NHPh]2, Fe[(C5H4)NH(2,6-C6H3Me2)]2 und Fe[(C5H4)NH(2,4,6-i-Pr3C6H2)]2 konnten durch Hartwig-Buchwald-artige Kreuzkupplung von 1,1´-Diaminoferrocen mit dem jeweiligen Arylbromid erhalten werden. Dagegen misslangen über diese Syntheseroute zahlreiche Versuche zur Synthese von Derivaten mit Substituenten in meta-Position des Arylringes. Die Darstellung der Titan- und Zirkoniumchelatkomplexe gelang durch Metathesereaktion der Di(arylamino)ferrocene mit M(NMe2)4 bzw. M(CH2Ph)4 (M = Ti, Zr), die unter Eliminierung von 2 Äquivalenten HNMe2 bzw. Toluol ablaufen. Dabei zeigte sich, dass bei sterisch anspruchsvollen Di(arylamino)ferrocenligandsystemen keine Metathesereaktion mit Ti(NMe2)4 möglich ist, was auch für analoge Reaktionen mit Ti(CH2Ph)4 zu erwarten ist. Ganz anders sind dagegen die Verhältnisse in der Zirkoniumchemie. Hier konnten durch Umsetzung von Fe[(C5H4)NH(2,4,6-i-Pr3C6H2)]2 mit Zr(NMe2)4 bzw. Zr(CH2Ph)4 die Komplexe [{Fe[C5H4(NC6H2-2,4,6-i-Pr3)]2}Zr(NMe2)2] und [{Fe[C5H4(NC6H2-2,4,6-i-Pr3)]2}Zr(CH2Ph)2] dargestellt werden. Hier findet sich eine senkrechte Anordnung der Arylringe zur Chelatringebene, die die nach Ziegler günstige Orbitalüberlappung ermöglicht, die zu einer besonders hohen katalytischen Aktivität dieser Komplexe in der Ethylenpolymerisation führen sollte. Nach üblicher Aktivierung zeigen diese Komplexe jedoch nur niedrige Aktivitäten in der Ethylenpolymerisation. Ob strukturelle Parameter für dieses Ergebnis verantwortlich sind, oder sogar Defizite im Ziegler-Modell vorliegen, sollte Gegenstand zukünftiger Untersuchungen sein.
Resumo:
Der Aufbau Lernender Organisationen ist eine notwendige Antwort auf die zentrale Herausforderung am Ausgang des 20. Jahrhunderts: Unser aller Überleben wird davon abhängen, ob wir den Wandel von der belehrten zur lernenden Gesellschaft schaffen, den Wandel von der bürokratischen Verwaltungsgesellschaft zur offenen Gestaltungsgemeinschaft. Aufgrund der wachsenden Komplexität und des schnelle Wandels sind bürokratische Organisationen alten Typs überfordert, rechtzeitig Antworten zu finden, die der Vielfalt der Problemstellungen gerecht werden. Deshalb müssen sie sich grundlegend wandeln oder sie werden untergehen. Die Schlüsselfrage dabei lautet: Wie können wir die brachliegenden kreativen Ressourcen von Einzelnen und Gruppen erschließen und unsere Organisationen so umbauen, daß notwendiger Wandel nicht Widerstand hervorruft, sondern zu einem Bedürfnis aller wird? Eine vielversprechende Antwort auf diese Frage bietet das hierzulande fast unbekannte Instrument der Zukunftskonferenz.
Resumo:
Am Beginn des 21. Jahrhundert gilt die ökologische Krise nach wie vor als ein existenzgefährdendes Problem der Menschheit. Schelling war vor nahezu 200 Jahren der erste und in dieser Entschiedenheit der einzige Denker, der auf die Bedrohung aufmerksam gemacht hat, die von einer Absolutsetzung der menschlichen Subjektivität ausgeht. Es ist das Ziel der genannten Schrift, Grundidee und -struktur der Naturphilosophie Schellings zu analysieren und die Überwindungsmöglichkeit der ökologischen Krise im Ausgang seiner Naturphilosophie zu finden. Mit Schellings Konzept der Natur als Subjekt könnte die Frage nach der Überwindungsmöglichkeit der ökologischen Krise und dem von der Philosophie hier zu leistenden Beitrag präzisiert werden. Deshalb ist das Hauptanliegen dieser Untersuchung, ob Schellings Konzept eine Alternative zu unserem heutigen Naturverständnis sein kann. Angesichts dieser neuen Fragestellung und der mit ihr verbundenen Aufgabe, einen prinzipiell anderen Begriff von Natur zu gewinnen, sind seine frühen naturphilosophischen Schriften für die in der Arbeit anvisierte Fragestellung besonders aufschlussreich und dienen daher auch als Quelle und Grundlage für die folgende Untersuchung. Die genannte Schrift gliedert sich in vier Kapitel. Im ersten Kapitel wird das Absolute als Zentralprinzip der Schellingschen Philosophie erörtert. Die Kontinuität seiner ganzen Philosophie beruht auf dem Prinzip des Absoluten. Im zweiten Kapitel werden die Anfänge der Schellingschen Naturphilosophie untersucht. Zuerst wird Kants Kritik der Urteilskraft als Vorstudien zu Schellings Begriff einer sich selbst organisierenden und hervorbringenden Natur herausgearbeitet. Und dann wird dargelegt, wie Schelling seine Naturkonzeption in der Auseinandersetzung mit Fichte aus grundsätzlichen philosophischen Überlegungen ableitet. Im dritten Kapitel stehen Grundidee und -struktur der früheren Naturphilosophie Schellings im Zentrum der Analyse. Vor allem setze ich mich unter Berücksichtigung seiner organisch-ganzheitlichen Naturauffassung mit dem Verständnis von Natur als Subjekt und Produktivität ausführlich auseinander, um die Überwindungsmöglichkeit der ökologischen Krise zu bedenken. Schellings Einwand gegen die mechanistische Naturauffassung erklärt sich aus seinem Begriff der Natur als Subjekt. Dieser Begriff hängt unmittelbar mit der Idee der Natur als Organismus zusammen. Die Natur ist ein sich selbst organisierendes Ganzes und ihre dynamische Enzwicklung vollzieht sich durch ihre eigenen Potenzen. Das vierte Kapitel setzt sich mit der Kernfrage auseinander, welche Bedeutung Schellings Naturphilosophie für die Überwindung der ökologischen Krise hat und wie die vermeintliche Aktualität seiner Naturphilosophie zu erklären ist. Hier wird Schellings Naturphilosophie im Sinne eines Rezeptes gegen die ökologische Krise als der Versuch der Begründung eines anderen Naturbegriffs und einer neuen Natur-Ethik interpretiert.
Resumo:
In der vorliegenden Arbeit wird ein am Strengths-Modell orientiertes Case Management-Projekt zur Prozess- und Ergebnisoptimierung der bereits bestehenden ambulanten gerontopsychiatrischen Versorgungsstruktur untersucht. Dazu arbeitete eine Krankenpflegerin mit psychiatrischer Fachausbildung in einer Berliner Sozialstation auf Basis einer professionellen Beziehung für 4-6 Wochen bei Klientinnen mit gerontopsychiatrischen Problemlagen, erstellte ein Assessment, leistete notwendige Unterstützung zunächst selbst, vermittelte gestützt auf die eigenen Erfahrungen weiterführende Dienste, leitete diese Dienste an, zog sich dann aus dem direkten Kontakt mit den Klientinnen zurück und blieb beratend für die weiterführenden Dienste verfügbar. Zur Untersuchung des Projekts wurden qualitative und quantitative Verfahren eingesetzt. Zur Beschreibung der Inhalte wurden die für jede Klientin verfasste Dokumentation und die Ergebnisse von grob strukturierten Interviews mit der Case Managerin, angelehnt an eine reduzierte Form der Methode Grounded Theory, in einem iterativen Prozess analysiert. In einem zweiten Schritt wurde dann untersucht, inwieweit die einzelnen Arbeitsinhalte des Case Managements die sozial-räumlichdingliche Umweltanpassung und Proaktivität der Klientinnen unterstützten. Die Wirkungen des Projektes auf Kognition, Aktivitäten des täglichen Lebens (ADL), Instrumentelle Aktivitäten des täglichen Lebens (IADL), Stimmung sowie soziales und störendes Verhalten wurden mittels eines standardisierten Fragebogens mit einem quasi-experimentellen prospektiven Untersuchungsdesign analysiert. Zur Analyse der subjektiven Wirkung des Projektes auf Angehörige wurden in den Ergebnissen von grob strukturierten Interviews mittels eines iterativen Prozesses Themen identifiziert. Die Klientinnen (n=11) erhielten durchschnittlich 23 Stunden Case Management. Neben den typischen Case Management-Aufgaben führte die Case Managerin, basierend auf den Gewohnheiten, Interessen und Selbsteinschätzungen der Klientinnen, therapeutische und pflegerische Maßnahmen durch und unterstützte dabei die sozial-dinglichräumliche Umweltanpassung und Proaktivität der Klientinnen. Zusätzlich wurden Hauspflegerinnen von der Case Managerin individuell in der Wohnung von Klientinnen hinsichtlich der Kommunikation mit und Unterstützung der Proaktivität von Klientinnen angeleitet. Die Hauspflegerinnen führten die von der Case Managerin eingeleiteten Maßnahmen erfolgreich fort. Bei den Klientinnen zeigten sich signifikante Verbesserungen in Gedächtnis, Stimmung, IADL-Funktionen und Sozialverhalten, aber nicht in ADL-Funktionen und störendem Verhalten. Diese Verbesserungen wurden subjektiv von den Angehörigen (n=7) bestätigt. Zusätzlich empfanden Angehörige eine zeitliche aber keine psychische Entlastung. Mit diesem Projekt wurde gezeigt, dass ein zeitlich begrenztes klientenzentriertes Case Management kognitive, soziale und emotionale Funktionen von gerontopsychiatrisch Erkrankten verbessert, Angehörige zeitlich entlastet und dass Hauspflegerinnen bei entsprechender Anleitung die vom Case Management eingeleiteten Maßnahmen fortführen können. In Folgestudien mit größerem Umfang sollten diese Ergebnisse überprüft werden um dann zu entscheiden, ob dieser Ansatz geeignet ist, die ambulante gerontopsychiatrische Versorgung gemeindenah zu verbessern.
Resumo:
Aus der Einleitung: "Der Beitrag prüft kritisch die Entwicklung zum Stand der Professionalisierung der Handlungsfelder der kindheitsbezogenen Pädagogik. Fokussiert wird dabei die Frage, ob die vorliegenden empirischen Befunde eine Akademisierung des ErzieherInnenberufs beziehungsweise des pädagogischen Personals in Kindertageseinrichtungen stützen (1.). Anschließend, nach einem kurzen Rekurs auf die bisherige ErzieherInnenausbildung (2.), werden Grundfragen der Akademisierung der Ausbildung für die Pädagogik der Kindheit diskutiert (3.) und die bisher erkennbaren Modelle der Implementierung von Studienprogrammen der 'Pädagogik der Kindheit' an Universitäten vorgestellt (4.). Abschließend werden die Fallstricke und Chancen einer 'Akademisierung' der Qualifizierungen für diejenigen erörtert, die ein berufliches Engagement in Handlungsfeldern der Pädagogik der Kindheit anstreben (5.). Quer zur Kapitelstruktur wird in dem Beitrag auch der Frage nachgegangen, ob es in den gegenwärtigen Diskussionen tatsächlich um eine Akademisierung der ErzieherInnenausbildung geht oder ob nicht vielmehr der Einstieg in eine über unterschiedliche teildisziplinäre Zugänge der Erziehungswissenschaft ausgestaltete Implementierung von Studiengängen und -programmen der akademischen Qualifizierung für Tätigkeiten in Kindertageseinrichtungen – und darüber hinaus die Verfachlichung des Handlungsfeldes der Kindertageseinrichtungen insgesamt – sowie für andere Felder der Pädagogik der Kindheit angestrebt wird. Angesprochen wird zudem auch die Frage nach einer Neuschneidung bisheriger Studiengänge im Sinne einer einheitlichen Qualifizierung für die Handlungsfelder der Elementar- und Primarpädagogik."
Resumo:
Mit einer Virtuellen Organisation können Flexibilität, Schnelligkeit, Innovationsfähigkeit, Internationalität, Qualität und Effizienz erreicht werden. All dies sind Anforderungen, die Bildungsanbieter heutzutage zwingend erfüllen müssen, um im Wettbewerb bestehen zu können. Die Arbeit geht daher der Frage nach, ob die Virtuelle Organisation eine sinnvolle Organisationsvariante für Bildungsanbieter sein kann bzw. welches Ausmaß an Virtualität sinnvoll sein kann: Der Bildungsanbieter als Netzwerk aus einer koordinierenden Programmzentrale und spezialisierten Anbietern von Lehrleistungen, die situativ in den Bildungsbetrieb einbezogen werden? Im Fokus der Untersuchung steht die Managementausbildung, die angeboten wird von Institutionen des tertiären Bildungssektors und Anbietern berufsbezogener Weiterbildung. Zur Beantwortung der Kernfrage werden zunächst Kriterien erarbeitet, die beschreiben, wann eine Virtuelle Organisation generell Sinn macht. Diese beziehen sich in erster Linie auf die Eigenschaften des von der Organisation hergestellten Produktes. Daher wird im nächsten Schritt eine Produktstruktur für die Managementausbildung hergeleitet, die später mit den Eignungskriterien für die Virtuelle Organisation abgeglichen werden kann. Die Soll-Produktstruktur für die Managementausbildung wird basierend auf dem typischen Karriereverlauf einer Fach- und Führungskraft entwickelt. Ergebnis ist eine Differenzierung des Gesamtkonstrukts Managementausbildung in die Produkte Grundlagenstudium, Vertiefungsstudium und Weiterbildung. Die Eigenschaften der Managementausbildungsprodukte werden untersucht und den Eignungskriterien der Virtuellen Organisation gegenüber gestellt, um so zu einer Aussage über die Virtualisierungsfähigkeit der einzelnen Produkte zu gelangen. Abschließend wird für jedes Produkt der Managementausbildung eine Virtualisierungsvision entwickelt und die Implikationen für die verschiedenen Anbieter von Managementausbildung werden aufgezeigt.
Resumo:
Zusammenfassung (deutsch) Seit den 1980iger Jahren wächst die Bedeutung der sog. Bildschaffenden Methoden für die Bestimmung der Qualität ökologischer Produkte. Zu diesen Methoden gehört die Biokristallisation, Steigbild und Rundfilter-Chromatographie. Die Ergebnisse dieser Methoden sind Bilder, die anhand definierter Kriterien ausgewertet werden. Bei der Biokristallisation sind es mehr oder weniger geordnete Kristallisationen auf einer Glasplatte, bei dem Steigbild zweidimensionale Strukturen auf Chromatographiepapier. In der Vergangenheit wurden die Bilder von Spezialisten ausgewertet, die nach einer längeren Schulung produktspezifische Kriterien entwickelt hatten. Im Gegensatz zur Dünnschicht-Chromatographie, wo der einzelne Stoff von der Matrix separiert wird, ist das Ziel beim Steigbild, Strukturen der möglichst ganzen Probe zu erzeugen. Die Methode wurde von Kolisko in den 1929iger Jahren entwickelt, wobei eine Kombination aus Chromatographieprozess und Metallkomplexreaktionen genutzt wurde. Die Firma WALA entwickelte die Methode für die Kontrolle ihrer Produkte und setze Silbernitrat und Eisensulfat ein. Bisher wurde die Methode qualitativ beschreibend ausgewertet, wobei einzelne Bildelemente und deren Interaktion beschrieben wurden. Deshalb musste für die vorliegende Arbeit Auswertungsmethoden entwickelt werden, mit denen auch eine statistische Bearbeitung der Ergebnisse möglich ist (nominale Unterscheidung von proben anhand der Bilder). Die Methode wurde bisher in einer Reihe von Studien eingesetzt (u.a. die Unterscheidung von Produktionsweisen). Obwohl die Bilder nur qualitativ ausgewertet wurden, konnten geschulte Prüfpersonen Proben aus verschiedenen Anbausystemen anhand der Bilder trennen. Die Ergebnisse wurden aber nicht so dokumentiert, dass sie den Erfordernissen internationaler Standardnormen für Laboratorien genügten. Deshalb mussten für diese Arbeit zunächst die Prozeduren dokumentiert und eine systematische Untersuchung zu den Einflussgrößen durchgeführt werden. Dazu wurde die visuelle Bildauswertung entwickelt und standardisiert. Die visuelle Bildauswertung basiert auf morphologischen Kriterien der Bilder von den untersuchten Weizen- und Möhrenproben. Ein Panel aus geschulten Personen entwickelte dann die Kriterien und legte sie anhand von Referenzbildern fest. Die Bilder der vorliegenden Arbeit wurden mit der einfach beschreibenden Prüfung ausgewertet, wie sie aus der sensorischen Prüfung von Lebensmitteln übernommen werden konnte. Mit geschulten und ungeschulten Prüfpersonen wurden Weizenproben und verschiedene Möhrensäfte mit der sog. Dreiecksprüfung ausgewertet (von ISO 4120). Alle Laborprozeduren wurden dokumentiert. Mit der Anwendung dieser Prozeduren wurden Vergleichsversuche mit Laboren in Dänemark und Holland (BRAD, LBI) durchgeführt. Die Ergebnisse waren sowohl für Weizen- als auch für Möhrenproben vergleichbar, wobei alle drei Labore zwischen jeweils zwei Proben unterscheiden konnten. Die systematische Untersuchung zu den Einflussgrößen zeigte, dass das Unterscheidungsvermögen der Methode vor allem von den klimatischen Bedingungen während der Steigphasen beeinflusst wird. Auch die Präkonditionierung der Papiere hat einen großen Einfluss, während die Wasserqualität (ultra-filtriert, de-ionisiert, destilliert) eine untergeordnete Bedeutung hat. Für Weizen- und Möhrenproben wurde sowohl die Wiederholbarkeit als auch die Reproduzierbarkeit getestet. Die Unterschiede in den Bildern der verschiedenen Proben waren dabei immer größer als die Variation durch Proben- und Bildwiederholung und das Labor. Die so charakterisierte Methode wurde auf kodierte Proben von definierten Feldversuchen und auf Marktproben (Paarvergleich von Anbausystemen ökologisch und konventionell) angewandt, wobei als Ergebnis mehr als 90% der Proben mit der einfach beschreibenden Prüfung anhand der Bilder unterschieden werden konnten. Die Auswertung mit der Dreiecksprüfung zeigte, dass sowohl Sorten und Verarbeitungsschritte (Saft) als auch Anbauweisen signifikant getrennt wurden. Darüber hinaus wurde die Methode auch erfolgreich auf Apfelproben angewandt. Weitere Untersuchungen müssen zeigen, ob sich das Potential der Methode, verschiedene Fragen wie die Authentizitätsprüfung von Lebensmitteln verifizieren lassen.