269 resultados para Weg zur Architektur
em Universitätsbibliothek Kassel, Universität Kassel, Germany
Resumo:
In der vorliegenden Arbeit wird nach Wegen zur Steigerung der Effektivität von Implementationsprozessen umfassender IT-Anwendungen in großen Kommunalverwaltungen gesucht, da nach vorliegenden Schätzungen allenfalls 10 % der großen IT-Projekte der öffentlichen Verwaltungen zielkonform und erfolgreich umgesetzt werden. Analysen zeigen, dass die in solchen Prozessen auftretenden Interdependenzen von Technologie, Organisation und Mensch oft nicht angemessen berücksichtigt wurden. Die zentrale Fragestellung der vorliegenden Untersuchung lautet daher, ob ein IT-Labor mit einer vorgelagerten ablauforganisatorischen Prozessoptimierung im Sinne eines funktionalen Wirksamkeitstests mit einer ganzheitlichen Betrachtung von technologischen, organisatorischen und sozial-humanen Wirkungsfaktoren bei intensiver Einbeziehung von eigenem Personal der Anwendungsorganisation den Implementierungserfolg größerer IT-Vorhaben erhöhen kann. Als methodischer Ansatz wurde eine Fallstudie gewählt (Implementierung von eAkten und SOA). Der Implementierungsverlauf ist methodisch in eine vorgelagerte ablauforganisatorische Prozessoptimierung und in eine nachgelagerte informationstechnologische Umsetzungsphase (sog. IT-Labor) gegliedert. Die Fallstudie legt den Schluss nahe, dass ein IT-Labor mit einer vorgelagerten ablauforganisatorischen Prozessanalyse zum Erfolg der Implementation wesentlich beitragen kann. Zudem zeigte sich, dass eine serviceorientierte Architektur zur prozessorientierten ganzheitlichen technologischen Systemgestaltung die Integration vorhandener IT-Anwendungen fördern kann. Die beschriebene IT-Laborstrategie kann im Ergebnis als ein erprobter Weg zur erfolgreichen Implementierung komplexer IT-Vorhaben empfohlen werden. Aufgrund der Analyse können einige kritische Erfolgsfaktoren für einen späteren Produktivbetrieb identifiziert werden: - Eigene Personalressourcen mit den zugehörigen Lernprozessen sind unverzichtbar, - In diesem Kontext sind auch die zugehörigen organisatorischen und technologischen Voraussetzungen zu schaffen, - Eventuell auftretende Qualifikationsdefizite der Anwender können in Zusammenarbeit mit externen Unternehmen und IT-Dienstleistern im Verbund mit den eigenen Projektmitgliedern zeitnah kompensiert werden. Die angewandte Implementierungs-Methodik ist auf solche Fälle übertragbar, in denen eine Gebietskörperschaft ab der Aufgabenstruktur einer großen kreisfreien Stadt mit heterogenen und dezentralen IT- und Organisationsstrukturen unterschiedliche Fachverfahren in einem komplexen Verwaltungssystem ganzheitlich und prozessorientiert zusammenführen möchte. Grenzen können sich somit aus der Größe einer Gebietskörperschaft, dem konkreten Aufgabenprofil sowie der finanziellen Leistungsfähigkeit ergeben. Eine Transferfähigkeit unter sozialen Gesichtspunkten setzt voraus, dass neben externem Personal qualifiziertes internes Personal mit Fachwissen und Querschnitts-Know-How bereitgestellt wird. Räumlich und zeitlich setzt die Verallgemeinerungsfähigkeit eine analoge politische und administrative Struktur mit einem entsprechenden Entwicklungsstand voraus. Mit den Ergebnissen der vorliegenden Untersuchung können Behördenleiter, IT-Verantwortliche und Beratungsunternehmen künftig in vergleichbaren Fällen eine effektivere Implementierungsmethode wählen. In der weiteren verwaltungswissenschaftlichen Forschung auf diesem Gebiet können auf der Basis der vorgenommenen Untersuchung konkrete Erfahrungen zur IT-Implementierung erhoben und bewertet werden, um weitere Effektivitätsreserven zu identifizieren.
Resumo:
Auf die Herausforderungen der Internationalisierung antworten die deutschen Hochschulen mit verstärkten Bemühungen zur Integration ausländischer Studierender. Damit ist der sozialwissenschaftlich nicht unumstrittene Integrationsdiskurs der Ausländerpolitik auf dem Campus angekommen. Gleichzeitig stehen transkulturelle Begriffe immer mehr im Fokus der aktuellen sozial-, kultur- und erziehungswissenschaftlichen Diskurse. Auf der Grundlage von Erfahrungen aus einem PROFIN-Projekt an der Universität Kassel setzt sich der Artikel damit auseinander, welche Potentiale eine Internationalisierung aus der Perspektive dieser Diskurse für eine innovative Entwicklung von Lehre und Forschung im internationalen Kontext bietet.
Resumo:
In now-a-days semiconductor and MEMS technologies the photolithography is the working horse for fabrication of functional devices. The conventional way (so called Top-Down approach) of microstructuring starts with photolithography, followed by patterning the structures using etching, especially dry etching. The requirements for smaller and hence faster devices lead to decrease of the feature size to the range of several nanometers. However, the production of devices in this scale range needs photolithography equipment, which must overcome the diffraction limit. Therefore, new photolithography techniques have been recently developed, but they are rather expensive and restricted to plane surfaces. Recently a new route has been presented - so-called Bottom-Up approach - where from a single atom or a molecule it is possible to obtain functional devices. This creates new field - Nanotechnology - where one speaks about structures with dimensions 1 - 100 nm, and which has the possibility to replace the conventional photolithography concerning its integral part - the self-assembly. However, this technique requires additional and special equipment and therefore is not yet widely applicable. This work presents a general scheme for the fabrication of silicon and silicon dioxide structures with lateral dimensions of less than 100 nm that avoids high-resolution photolithography processes. For the self-aligned formation of extremely small openings in silicon dioxide layers at in depth sharpened surface structures, the angle dependent etching rate distribution of silicon dioxide against plasma etching with a fluorocarbon gas (CHF3) was exploited. Subsequent anisotropic plasma etching of the silicon substrate material through the perforated silicon dioxide masking layer results in high aspect ratio trenches of approximately the same lateral dimensions. The latter can be reduced and precisely adjusted between 0 and 200 nm by thermal oxidation of the silicon structures owing to the volume expansion of silicon during the oxidation. On the basis of this a technology for the fabrication of SNOM calibration standards is presented. Additionally so-formed trenches were used as a template for CVD deposition of diamond resulting in high aspect ratio diamond knife. A lithography-free method for production of periodic and nonperiodic surface structures using the angular dependence of the etching rate is also presented. It combines the self-assembly of masking particles with the conventional plasma etching techniques known from microelectromechanical system technology. The method is generally applicable to bulk as well as layered materials. In this work, layers of glass spheres of different diameters were assembled on the sample surface forming a mask against plasma etching. Silicon surface structures with periodicity of 500 nm and feature dimensions of 20 nm were produced in this way. Thermal oxidation of the so structured silicon substrate offers the capability to vary the fill factor of the periodic structure owing to the volume expansion during oxidation but also to define silicon dioxide surface structures by selective plasma etching. Similar structures can be simply obtained by structuring silicon dioxide layers on silicon. The method offers a simple route for bridging the Nano- and Microtechnology and moreover, an uncomplicated way for photonic crystal fabrication.
Resumo:
Die in den letzten 20 Jahren zu beobachtende Gesundheitswelle und die steigende Nachfrage nach gesundheitsbezogenen Bildungsangeboten steht eine immer noch in den Anfaengen steckende theoretisch-konzeptionelle Reflexion und Absicherung gegenüber. Im pädagogischen Handlungsfeld ist eine grundsätzliche Auseinandersetzung mit der Gesundheitbildung dringend erforderlich. Dieses Unterfangen wird nicht gerade dadurch erleichtert, dass sich das allgemeine Bewusstsein von Gesundheit und Krankheit in den letzten Jahren stark gewandelt hat. Immer mehr gewinnt die Einsicht an Bedeutung, dass selten eine Einflussgröße allein, sondern mehrere Faktoren und ihr Zusammenwirken zu Erkrankungen führen. Auf diesen Sachverhalt hat bereits 1946 die Weltgesundheitsorganisation (WHO) verwiesen, indem sie Gesundheit als Zustand des körperlichen, seelischen und sozialen Wohlbefindens und nicht nur als das Freisein von Krankheit und Gebrechen definiert. Eine Gesundheitsbildung, die dies berücksichtigt, ist vorrangig auf Gesundheit und den Prozess zwischen Gesundheit und Krankheit ausgerichtet. Sie bezieht Gefährdungen mit ein, die aus den sozialen und ökologischen Gegebenheiten erwachsen und verfolgt das Ziel, jedem Menschen seinen eigenen, besonderen Weg zur Gesundheit zu ermöglichen und ihn zur Wahrnehmung seiner Interessen im persönlichen und gesellschaftlichen Umfeld zu befähigen. Angebote, Didaktik und Methoden einer so verstandenen, integrativen Gesundheitsbildung an der VHS sollen deshalb darauf ausgerichtet sein, soziales und partizipatorisches Lernen zu initiieren, Zusammenhänge zu erschließen und die Kompetenz und Autonomie der Teilnehmer/innen zu fördern. Schließlich sollen Chancen und Grenzen einer Professionalisierung innerhalb der Gesundheitsbildung exemplarisch am Beispiel eines Lehrgangs für GesundheitsbildnerInnen verdeutlicht werden. Das Interesse am Thema entstand durch die langjährige Kursleitertätigkeit am Fachbereich Gesundheit und Umwelt des Bildungszentrums in Nürnberg. Auch die Zusammenarbeit mit dem Bayerischen Volkshochschulverband, die in der Gestaltung und Durchführung von Qualifizierungslehrgängen zum Gesundheitsbildner bestand, ermöglichten die Sammlung von vielen Hintergrundinformationen, die wesentlich für die vorliegende Arbeit waren. Für die Ermöglichung der Auseinandersetzung mit der vorliegenden Thematik und den damit verbundenen Erfahrungen möchte ich meinen besonderen Dank Marco Bielser, Fachbereichsleiter am BZ Nürnberg und den Herren Prof. Dr. Dr. Rolf Schwendter und Prof. Dr. Werner Thole für die wohlwollende Unterstützung aussprechen.
Resumo:
Das Thema dieser Arbeit ist die philosophischgeschichliche Darlegung des Selbstfindungsprozesses des lateinamerikanischen Denkens. Es wird die enge Verknüpfung dieses Denkens mit der Kultur aufgezeigt, in der es entstand und die sich in deren Mythen und Traditionen widerspiegelt. Durch diese kulturgeschichtlichen Betrachtungen soll der Leser zum Verständnis der lateinamerikanischen Autoren und zu deren zentralen Themen hingeführt werden. Die Erfahrung hat die lateinamerikanischen Denker gelehrt, dass sie die Begriffswelt Europas nicht identisch in ihre Lebenswelt übernehmen können, sonder dass sie diese umbilden müssen. Die Widersprüche zwischen den Bezugspunkten ihres Denkens, der westlichen Rationalität und der eigenen Realität empfinden sie als Inauthentizität. Das Bewusstsein von der Notwendigkeit eines Neuanfangs, des Befindens an einem Nullpunkt, kennzeichnet die Philosophie Lateinamerikas. Nicht der Besitz eines Wissens in festen Begriffen, sondern die Suche nach Offenheit charakterisiert diese Denken. Offenheit ist ihr zentraler Begriff, der ihren Weg zur Authentizität beschreibt. Authentizität ist hier nicht eine Eigenschaft des Menschen, die er aus sich selbst entwickelt. Sie ist auch nicht rein vom Erkennen des faktischen Seins deduzierbar. Authentizität ist ein Ziel, das nur gemeinsam mit den anderen, in einer durch die Gemeinsamkeit geschaffenen Kultur erreicht werden kann. Die Authentizität eines Denkens kann nur aus einer kulturellen Gemeinschaft erwachsen. In Lateinamerika erfolgt die Orientierung an der Gemeinschaft und deren Lebensgesetzen. Freiheit bedeutet hier diese Lebensgesetze aufzufinden und sie mit derGemeinschaft zu realizieren, also eine Verpfichtung auf die eigene Authentizität. Diese Philosophie sucht die Utopie, die Vergangenheit und Zukunft verbindet. Sie hat die Kraft der Transformation und setzt neue Intentionen, die unser Bild der Realität verändern. Sie bietet die Möglichkeit zu einem Denken das über die eine Rationalität hinausgeht. Durch ihre Ziele wird sie zum Teil der interkulturellen Philosophie.
Resumo:
Die Paket- und Expressdienste, als Teil logistischer Distributionssysteme, sind bedeutende Bestandteile unseres Wirtschaftssystems geworden. Nach der erfolgreichen Einführungsphase der Express- und Paketdienstleistung auf dem westeuropäischen Markt, Mitte der 1980-er, entwickelte er sich rasant bis zum Ende der 1990-er, mit teilweise zweistelligen Wachstumsraten. Doch nach Jahren des Booms sind die Paket- und Expressdienstleister im neuen Jahrhundert in einen Zeitabschnitt mit gedämpften Wachstumssteigerungen übergegangen. Der Markt zeichnet sich aus, durch immer kürzer werdende Laufzeiten, bei permanent sinkenden Preisen. Viele Anzeichen deuten darauf hin, dass sich die KEP-Branche auf dem Weg zur Marktreife befindet. Aufgrund dieser Entwicklungen, sind die Anbieter von Paket- und Expressdienstleistungen zunehmend gefordert, ihre Produkte auf Kundenorientierung zu überprüfen, sowie ihre Bindung zum Kunden in den Fokus zu stellen. Darin liegt der Ansatz der Dissertation. Mittels einer empirischen Erhebung wurden Kundenzufriedenheit, Kundenerwartungen und die daraus entstandene Kundenbindung der Verlader, den Einschätzungen der Paket- und Expressdienstleister gegenübergestellt. Die Marktstudie war offen für alle Nutzer und Anbieter von Paket- und Expressdienstleistungen. Die Arbeit lässt sich in drei grössere Themenbereiche unterteilen. Im ersten Themenbereich werden zunächst Grundlagen der Themen Logistik, Kundenzufriedenheit und Kundenbindung geschaffen. Für die Ermittlung der Kundenbindung wurde die Kundenzufriedenheit als wesentliche Determinante gewählt. Der zweite Themenbereich geht auf die aktuellen Probleme der Paket- und Expressdienstleister ein und erläutert, warum sich die Anbieter von Paket- und Expressdienstleistung verstärkt auf den Kunden ausrichten müssen. Im dritten Teil erfolgt die Herleitung der Thesen sowie die Darstellung der empirischen Ergebnisse. Den Abschluss dieses Abschnitts stellt dann die Verifizierung der Thesen, sowie die Erarbeitung von Handlungsempfehlungen auf der Grundlage der gewonnenen Erkenntnisse dar. Mit der Arbeit sollten im Markt für Paket- und Expressdienstleistung folgende Erkenntnislücken geschlossen werden: Zunächst wurde geklärt, wie Anbieter auf die veränderten Produktanforderungen der Kunden reagiert haben und in welchem Umfang die Nachfrager diese bereits nutzen. Ein weiterer zentraler Bereich klärt, wie zufrieden die Kunden dieses Segments mit ihren Dienstleistern sind und wie zufrieden die Anbieter ihre Kunden einschätzen. Außerdem weist die Marktanalyse auf der Grundlage der ermittelten Kundenzufriedenheit auf, wie hoch die Kundenbindung in diesem Markt ist. Der abschliessende Teil der Arbeit zeigt dann auf, aus welchen Gründen sich Kunden für oder gegen einen Dienstleister entscheiden und wo Kunden und Anbieter die grössten Potentiale sehen, die Geschäftsbeziehungen langfristig vertiefend auszubauen.
Resumo:
ZUSAMMENFASSUNG: Das Phosphorylierungsmuster eines Proteins ist kein statischer Zustand, sondern vielmehr ein dynamischer Status, den es in der modernen funktionellen (Phospho-) Proteomik und Analytik abzubilden gilt. Klassischerweise erfolgt der Nachweis der Proteinphosphorylierung auf Peptid-Ebene mittels MS/MS Sequenzierung. Diese Standardmethode der shotgun Phosphoproteomanalytik vernachlässigt jedoch wegen den in LC MS/MS Analysen oftmals schwer detektierbaren Phosphopeptiden gerade den variablen und oftmals nur geringen Phosphorylierungsgrad vieler Phosphorylierungsstellen (P-Stellen). Mittels phosphospezifischer Anreicherungsstrategien und MS/MS Sequenzierung konnten an der Modellkinase PKA-Cα nach rekombinanter Expression in E. coli insgesamt acht P-Stellen identifiziert werden. Der Phosphorylierungsgrad wurde in Kooperation mit Dr. J. Seidler über quantitative Signalintensitätsmessungen bestimmt und zeigte eine nahezu vollständige Phosphorylierung von pS10, pS139, pT197 und pS338, während der Phosphorylierungsgrad für pS34, pS53, pS65 und pS259 zwischen <5 und 45 % variierte. Neben der Quantifizierung der P-Stellen wurde auch das Auftreten und die Verteilung definierter Phosphoformen der PKA-Cα untersucht und deren Abhängigkeit von der primären Aminosäureabfolge, dem Auftreten von zusätzlichen Modifikationen sowie den gewählten Expressions- und Reinigungsbedingungen aufgezeigt. Endogene, aus Säugergewebe isolierte PKA-Cα wies nur eine einzige Phosphoform mit den P-Stellen pT197 und pS338 auf. Auch in vitro autophosphorylierte rekombinante PKA-Cα, die zuvor dephosphoryliert worden war, wies eine zweifach modifizierte Phosphoform auf. Im Vergleich zum endogenen Protein ließ sich dieses Protein an S10 und S338 exzessiv phosphorylieren, wohingegen an T197 keine Autophosphorylierung nachzuweisen war. Das Ausbleiben weiterer Phosphorylierungen stellt in Frage, ob die Hyperphosphorylierung in E. coli ausschließlich auf Autophosphorylierungsprozessen beruht, was anhand einer nicht phosphorylierten, katalytisch inaktiven Variante von PKA-Cα (PKA-Cα K72H) vermutet wurde. Im Hinblick auf die funktionellen P-Stellen pT197 und pS338 erfordert diese Entdeckung sowie der unabhängige Nachweis, dass zellfrei exprimierte PKA-Cα nur an S338 phosphoryliert ist, eine Modifizierung des sequenziellen Vorhersagemodells, wonach die Phosphorylierung an T197 eine zwingende Voraussetzung für die nachfolgende Phosphorylierung an S338 ist. Ferner konnte über phosphomimetische Mutagenese die Funktionalität der Phosphorylierung an S53 innerhalb der glycinreichen Schleife der PKA-Cα und somit ein potenzieller Weg zur Regulation der enzymatischen Aktivität gezeigt werden. Ein weiterer möglicher upstream Regulator von PKA-Cα ist die Proteinphosphatase 5, die in der Lage war, die bislang als phosphatasestabil beschriebene P Stelle pT197 in vitro zu dephosphorylieren. Die vorliegende Arbeit zeigt, dass der Phosphorylierungszustand eines Proteins von zahlreichen internen und externen Faktoren abhängt – eine Tatsache, die gerade für rekombinante Proteine, insbesondere enzymatisch aktive Kinasen, oft vernachlässigt wurde. Daher müssen auch in der shotgun Phosphoproteomanalytik P-Stellen nicht mehr nur identifiziert und quantifiziert werden, sondern die resultierenden Proteinphosphoformen differenziert auch in ihrem physiologischen Kontext beschrieben werden.
Resumo:
Für den Studienerfolg ausländischer Studierender sind zwei Aspekte von zentraler Bedeutung: Die weitere Vertiefung der Deutschkenntnisse und der Aufbau sozialer Netzwerke. An dieser Stelle setzt der Gedanke des Integrationsportfolios an. Auf der Grundlage von Erfahrungen aus einem PROFIN-Projekt an der Universität Kassel beschreibt der Artikel zunächst erfolgreich erprobte Aufgaben und setzt sich abschließend kritisch mit den Zielen, Möglichkeiten und Grenzen von Integrationsportfolios im Deutschunterricht auseinander.
Resumo:
Internationalisierungsstrategien und -massnahmen an (deutschen) Hochschulen sind zumeist noch vom traditionellen herderschen Verständnis homogener Kulturen und damit von (kultureller) Abgrenzung, eigener Dominanz sowie den Defiziten der “Anderen“ geprägt. Die vielfältigen kulturellen, sprachlichen und fachlichen Ressourcen können dadurch bisher kaum bis gar nicht für innovative Lern- und Arbeitsprozesse fruchtbar gemacht werden. Transkulturelle Bildung bietet hingegen Chancen für Innovationen gerade zur Internationalisierung der Hochschulen. Der Beitrag formuliert dazu konzeptionelle Eckpunkte Transkultureller Bildung auf dem Weg zur dialogischen Öffnung von Hochschulen.
Resumo:
Punktförmig messende optische Sensoren zum Erfassen von Oberflächentopografien im Nanometerbereich werden in der Forschung und Industrie benötigt. Dennoch ist die Auswahl unterschiedlicher Technologien und kommerziell verfügbarer Sensoren gering. In dieser Dissertationsschrift werden die wesentlichen Aspekte eines Messsystems untersucht das über das Potenzial verfügt, zu den künftigen Standardmessmethoden zu gehören. Das Messprinzip beruht auf einem Common-Path-Interferometer. In einer mikrooptischen Sonde wird das Laserlicht auf die zu untersuchende Oberfläche gerichtet. Das vom Messobjekt reflektierte Licht interferiert sondenintern mit einem Referenzreflex. Die kompakte Bauweise bewirkt kurze optische Wege und eine gewisse Robustheit gegen Störeinflüsse. Die Abstandsinformation wird durch eine mechanische Oszillation in eine Phasenmodulation überführt. Die Phasenmodulation ermöglicht eine robuste Auswertung des Interferenzsignals, auch wenn eine zusätzliche Amplitudenmodulation vorhanden ist. Dies bietet den Vorteil, unterschiedlich geartete Oberflächen messen zu können, z. B. raue, teilweise transparente und geneigte Oberflächen. Es können wiederholbar Messungen mit einer Standardabweichung unter einem Nanometer erzielt werden. Die beschriebene mechanische Oszillation wird durch ein periodisches elektrisches Signal an einem piezoelektrischen Aktor hervorgerufen, der in einem Biegebalken integriert ist. Die Bauform des Balkens gestattet eine Hybridisierung von optischen und mechanischen Komponenten zu einer Einheit, welche den Weg zur weiteren Miniaturisierung aufzeigt. Im Rahmen dieser Arbeit konnte so u. a. eine Sonde mit einer Bauhöhe unter 10 mm gefertigt werden. Durch eine zweite optische Wellenlänge lässt sich der eingeschränkte Eindeutigkeitsbereich des Laserinterferometers nachweislich vergrößern. Die hierfür eingesetzte Methode, die Stand der Technik ist, konnte erfolgreich problemspezifisch angepasst werden. Um das volle Potenzial des Sensors nutzen zu können, wurden zudem zahlreiche Algorithmen entworfen und erfolgreich getestet. Anhand von hier dokumentierten Messergebnissen können die Möglichkeiten, als auch die Schwächen des Messsystems abgeschätzt werden.
Resumo:
Die Wechselwirkungen zwischen Biomolekülen spielen eine zentrale Rolle in der biochemischen und pharmazeutischen Forschung. In der biomolekularen Interaktionsanalyse sind dabei Biosensoren auf Basis des Oberflächenplasmonresonanzeffekts (SPR-Effekt) weitverbreitet. Seit Einführung der ersten kommerziellen SPR-Biosensoren Anfang der 1990er Jahre wurden verschiedenste Messanordnungen sowie Materialsysteme mit dem Ziel einer möglichst hohen Empfindlichkeit getestet. Eine Möglichkeit zur Steigerung der Empfindlichkeit klassischer SPR-Systeme bieten sogenannte magneto-optische SPR-Biosensoren (MOSPR-Biosensoren). Grundlage der Empfindlichkeitssteigerung ist die gleichzeitige Messung des SPR-Effekts und des transversalen magneto-optischen KERR-Effekts (tMOKE). Bisherige Untersuchungen haben sich meist auf den Einfluss der Magnetisierung freier ferromagnetischer Schichten beschränkt. Im Rahmen dieser Arbeit wurden erstmals austauschverschobene Dünnschichtsysteme (EB-Systeme), eine Kombination aus Ferromagnet und Antiferromagnet, hinsichtlich ihrer Eignung für SPR- und MOSPR-basierte biosensorische Anwendungen untersucht. Aufgrund der remanenten Magnetisierung der ferromagnetischen Schicht und ihrer magnetischen Strukturierbarkeit sind EB-Systeme eine hochinteressante Plattform zur Realisierung neuer Biosensorkonzepte. Zur Reduzierung der stark dämpfendenden Wirkung magnetischer Materialien wurde das hier betrachtete IrMn/Co EB-System zwischen zwei Goldschichten eingebettet. Eine Gegenüberstellung optimierter Au/ IrMn/Co/Au-Systeme mit einem reinen Au-System, wie es typischerweise in kommerziellen SPR-basierten Biosensoren eingesetzt wird, demonstriert, dass mit den entwickelten EB-Systemen vergleichbare Empfindlichkeiten in SPR-Sensor-Anwendungen erreicht werden können. Die magneto-optische Aktivität der untersuchten Dünnschichtsysteme liegt im Bereich der Literaturwerte für Au/Co/Au-Systeme, mit denen erhöhte Empfindlichkeiten gegenüber Standard-SPR-Biosensoren realisiert wurden. Auf Grundlage magnetisch strukturierter Au/IrMn/Co/Au-Systeme wurden neue Biosensorkonzepte entwickelt und getestet. Erste Experimente belegen, dass mit diesen Schichtsystemen eine gleichzeitige Detektion der magnetisierungsabhängigen Reflektivitäten in ortsauflösenden MOSPR-Messungen möglich ist. Eine solche Messanordnung profitiert von der erhöhten Empfindlichkeit MOSPR-basierter Biosensoren, hohen Messgeschwindigkeiten und einem verbesserten Signal-Rausch-Verhältnis. Weiterhin wurde der domänenwandassistierte Transport (DOWMAT) superparamagnetischer Partikel über der Oberfläche eines exemplarischen EB-Systems, zur Sensorintegration von Misch-, Reinigungs- und Aufkonzentrationsfunktionen erfolgreich getestet. Die Ergebnisse demonstrieren, dass ein Transport von Partikelreihen mit hohen Geschwindigkeiten bei moderaten externen Magnetfeldern über den entwickelten Schichtsystemen möglich ist. Die Agglomeration der Partikel wird dabei intrinsisch vermieden. Diese Beobachtungen verdeutlichen die Vorzüge des DOWMAT-Mechanismus für biosensorische Anwendungen. Die präsentierten Untersuchungen bilden die Grundlage auf dem Weg zur Umsetzung neuer vielversprechender Biosensorkonzepte, die eine Schlüsselfunktion in der medizinischen point-of-care-Diagnostik bei der Detektion kleinster Konzentrationen krankheitsrelevanter Biomarker einnehmen können.
Resumo:
ZUSAMMENFASSUNG Von der „Chaosgruppe“ zur lernenden Organisation. Fallstudien zur Induzierung und Verbreitung von Innovation in ländlichen Kleinorganisationen im Buruli (Zentral-Uganda). Die oft fehlende Nachhaltigkeit landwirtschaftlicher Projekte in Afrika allgemein und in Buruli (Zentral-Uganda) insbesondere gab den Anstoß zu der Forschung, die der vorliegenden Dissertation zugrunde liegt. Ein häufiger Grund für das Scheitern von Projekten ist, dass die lokale Bevölkerung die landwirtschaftliche Innovation als Risiko für die Ernährungssicherheit der Familie betrachtet. Die vorliegende Arbeit ist daher ein Beitrag zur Suche nach einem Weg zur Nachhaltigkeit, der dieser Tatsache Rechnung trägt. Als Forschungsmethode wurden die Gruppendiskussion und die Beobachtung mit den beiden Varianten „teilnehmender Beobachter“ und „beobachtender Teilnehmer“ gemäß Lamnek(1995b) angewendet. Es stellte sich heraus, dass die ablehnende Haltung der Zielbevölkerung landwirtschaftlicher Innovation gegenüber durch finanzielle Anreize, Seminare oder die Überzeugungskunst von Mitarbeitern der Entwicklungsorganisationen kaum behoben werden kann, sondern nur durch den Einbezug der Menschen in einen von ihnen selbst gesteuerten Risikomanagementprozess. Die Prozessberatung von Schein (2000) und die nichtdirektive Beratung von Rogers (2010) haben sich im Rahmen unserer Untersuchung für die Motivierung der Bevölkerung für eine risikobewusste Entwicklungsinitiative von großem Nutzen erwiesen ebenso wie für die Beschreibung dieses Prozesses in der vorliegenden Studie. Die untersuchten Gruppen wurden durch diesen innovativen Ansatz der Entwicklungsberatung in die Lage versetzt, das Risiko von Innovation zu analysieren, zu bewerten und zu minimieren, ihre Zukunft selbst in die Hand zu nehmen und in einem sozialen, ökonomischen und physischen Umfeld zu gestalten sowie auf Veränderungen im Laufe der Umsetzung angemessen zu reagieren. Der Erwerb dieser Fähigkeit setzte eine Umwandlung einfacher Bauerngruppen ohne erkennbare Strukturen in strukturierte und organisierte Gruppen voraus, die einer lernenden Organisation im ländlichen Raum entsprechen. Diese Transformation bedarf als erstes eines Zugangs zur Information und einer zielorientierten Kommunikation. Die Umwandlung der Arbeitsgruppe zu einer lernenden Bauernorganisation förderte die Nachhaltigkeit des Gemüseanbauprojekts und das Risikomanagement und wurde so zu einem konkreten, von der Umwelt wahrgenommenen Beispiel für die Zweckmäßigkeit des oben beschriebenen Forschungsansatzes. Die Herausbildung einer lernenden Organisation ist dabei nicht Mittel zum Zweck, sondern ist selbst das zu erreichende Ziel. Die Beobachtung, Begleitung und Analyse dieses Umwandlungsprozesses erfordert einen multidisziplinären Ansatz. In diesem Fall flossen agrarwissenschaftliche, soziologische, linguistische und anthropologische Perspektiven in die partnerschaftlich ausgerichtete Forschung ein. Von der Entwicklungspolitik erfordert dieser Ansatz einen neuen Weg, der auf der Partnerschaft mit den Betroffenen und auf einer Entemotionalisierung des Entwicklungsvorhabens basiert und eine gegenseitige Wertschätzung zwischen den Akteuren voraussetzt. In diesem Prozess entwickelt sich im Laufe der Zeit die „lernende“ Bauernorganisation auch zu einer „lehrenden“ Organisation und wird dadurch eine Quelle der Inspiration für die Gesamtgesellschaft. Die Nachhaltigkeit von ländlichen Entwicklungsprojekten wird damit maßgeblich verbessert.
Resumo:
Sowohl die Ressourcenproblematik als auch die drohenden Ausmaße der Klimaänderung lassen einen Umstieg auf andere Energiequellen langfristig unausweichlich erscheinen und mittelfristig als dringend geboten. Unabhängig von der Frage, auf welchem Niveau sich der Energiebedarf stabilisieren lässt, bleibt dabei zu klären, welche Möglichkeiten sich aus technischer und wirtschaftlicher Sicht in Zukunft zur Deckung unseres Energiebedarfs anbieten. Eine aussichtsreiche Option besteht in der Nutzung regenerativer Energien in ihrer ganzen Vielfalt. Die Arbeit "Szenarien zur zukünftigen Stromversorgung, kostenoptimierte Variationen zur Versorgung Europas und seiner Nachbarn mit Strom aus erneuerbaren Energien" konzentriert sich mit der Stromversorgung auf einen Teilaspekt der Energieversorgung, der zunehmend an Wichtigkeit gewinnt und als ein Schlüssel zur nachhaltigen Energieversorgung interpretiert werden kann. Die Stromversorgung ist heute weltweit für etwa die Hälfte des anthropogenen CO2-Ausstoßes verantwortlich. In dieser Arbeit wurden anhand verschiedener Szenarien Möglichkeiten einer weitgehend CO2–neutralen Stromversorgung für Europa und seine nähere Umgebung untersucht, wobei das Szenariogebiet etwa 1,1 Mrd. Einwohner und einen Stromverbrauch von knapp 4000 TWh/a umfasst. Dabei wurde untersucht, wie die Stromversorgung aufgebaut sein sollte, damit sie möglichst kostengünstig verwirklicht werden kann. Diese Frage wurde beispielsweise für Szenarien untersucht, in denen ausschließlich heute marktverfügbare Techniken berücksichtigt wurden. Auch der Einfluss der Nutzung einiger neuer Technologien, die bisher noch in Entwicklung sind, auf die optimale Gestaltung der Stromversorgung, wurde anhand einiger Beispiele untersucht. Die Konzeption der zukünftigen Stromversorgung sollte dabei nach Möglichkeit objektiven Kriterien gehorchen, die auch die Vergleichbarkeit verschiedener Versorgungsansätze gewährleisten. Dafür wurde ein Optimierungsansatz gewählt, mit dessen Hilfe sowohl bei der Konfiguration als auch beim rechnerischen Betrieb des Stromversorgungssystems weitgehend auf subjektive Entscheidungsprozesse verzichtet werden kann. Die Optimierung hatte zum Ziel, für die definierte möglichst realitätsnahe Versorgungsaufgabe den idealen Kraftwerks- und Leitungspark zu bestimmen, der eine kostenoptimale Stromversorgung gewährleistet. Als Erzeugungsoptionen werden dabei u.a. die Nutzung Regenerativer Energien durch Wasserkraftwerke, Windenergiekonverter, Fallwindkraftwerke, Biomassekraftwerke sowie solare und geothermische Kraftwerke berücksichtigt. Abhängig von den gewählten Randbedingungen ergaben sich dabei unterschiedliche Szenarien. Das Ziel der Arbeit war, mit Hilfe unterschiedlicher Szenarien eine breite Basis als Entscheidungsgrundlage für zukünftige politische Weichenstellungen zu schaffen. Die Szenarien zeigen Optionen für eine zukünftige Gestaltung der Stromversorgung auf, machen Auswirkungen verschiedener – auch politischer – Rahmenbedingungen deutlich und stellen so die geforderte Entscheidungsgrundlage bereit. Als Grundlage für die Erstellung der Szenarien mussten die verschiedenen Potentiale erneuerbarer Energien in hoher zeitlicher und räumlicher Auflösung ermittelt werden, mit denen es erstmals möglich war, die Fragen einer großräumigen regenerativen Stromversorgung ohne ungesicherte Annahmen anhand einer verlässlichen Datengrundlage anzugehen. Auch die Charakteristika der verschiedensten Energiewandlungs- und Transportsysteme mussten studiert werden und sind wie deren Kosten und die verschiedenen Potentiale in der vorliegenden Arbeit ausführlich diskutiert. Als Ausgangsszenario und Bezugspunkt dient ein konservatives Grundszenario. Hierbei handelt es sich um ein Szenario für eine Stromversorgung unter ausschließlicher Nutzung erneuerbarer Energien, die wiederum ausschließlich auf heute bereits entwickelte Technologien zurückgreift und dabei für alle Komponenten die heutigen Kosten zugrundelegt. Dieses Grundszenario ist dementsprechend auch als eine Art konservative Worst-Case-Abschätzung für unsere Zukunftsoptionen bei der regenerativen Stromversorgung zu verstehen. Als Ergebnis der Optimierung basiert die Stromversorgung beim Grundszenario zum größten Teil auf der Stromproduktion aus Windkraft. Biomasse und schon heute bestehende Wasserkraft übernehmen den überwiegenden Teil der Backup-Aufgaben innerhalb des – mit leistungsstarker HGÜ (Hochspannungs–Gleichstrom–Übertragung) verknüpften – Stromversorgungsgebiets. Die Stromgestehungskosten liegen mit 4,65 €ct / kWh sehr nahe am heute Üblichen. Sie liegen niedriger als die heutigen Preisen an der Strombörse. In allen Szenarien – außer relativ teuren, restriktiv ”dezentralen” unter Ausschluss großräumig länderübergreifenden Stromtransports – spielt der Stromtransport eine wichtige Rolle. Er wird genutzt, um Ausgleichseffekte bei der dargebotsabhängigen Stromproduktion aus erneuerbaren Quellen zu realisieren, gute kostengünstige Potentiale nutzbar zu machen und um die Speicherwasserkraft sowie die dezentral genutzte Biomasse mit ihrer Speicherfähigkeit für großräumige Backup-Aufgaben zu erschließen. Damit erweist sich der Stromtransport als einer der Schlüssel zu einer kostengünstigen Stromversorgung. Dies wiederum kann als Handlungsempfehlung bei politischen Weichenstellungen interpretiert werden, die demnach gezielt auf internationale Kooperation im Bereich der Nutzung erneuerbarer Energien setzen und insbesondere den großräumigen Stromtransport mit einbeziehen sollten. Die Szenarien stellen detaillierte und verlässliche Grundlagen für wichtige politische und technologische Zukunftsentscheidungen zur Verfügung. Sie zeigen, dass bei internationaler Kooperation selbst bei konservativen Annahmen eine rein regenerative Stromversorgung möglich ist, die wirtschaftlich ohne Probleme zu realisieren wäre und verweisen den Handlungsbedarf in den Bereich der Politik. Eine wesentliche Aufgabe der Politik läge darin, die internationale Kooperation zu organisieren und Instrumente für eine Umgestaltung der Stromversorgung zu entwickeln. Dabei kann davon ausgegangen werden, dass nicht nur ein sinnvoller Weg zu einer CO2–neutralen Stromversorgung beschritten würde, sondern sich darüber hinaus ausgezeichnete Entwicklungsperspektiven für die ärmeren Nachbarstaaten der EU und Europas eröffnen.
Resumo:
Thermoaktive Bauteilsysteme sind Bauteile, die als Teil der Raumumschließungsflächen über ein integriertes Rohrsystem mit einem Heiz- oder Kühlmedium beaufschlagt werden können und so die Beheizung oder Kühlung des Raumes ermöglichen. Die Konstruktionenvielfalt reicht nach diesem Verständnis von Heiz, bzw. Kühldecken über Geschoßtrenndecken mit kern-integrierten Rohren bis hin zu den Fußbodenheizungen. Die darin enthaltenen extrem trägen Systeme werden bewußt eingesetzt, um Energieangebot und Raumenergiebedarf unter dem Aspekt der rationellen Energieanwendung zeitlich zu entkoppeln, z. B. aktive Bauteilkühlung in der Nacht, passive Raumkühlung über das kühle Bauteil am Tage. Gebäude- und Anlagenkonzepte, die träge reagierende thermoaktive Bauteilsysteme vorsehen, setzen im kompetenten und verantwortungsvollen Planungsprozeß den Einsatz moderner Gebäudesimulationswerkzeuge voraus, um fundierte Aussagen über Behaglichkeit und Energiebedarf treffen zu können. Die thermoaktiven Bauteilsysteme werden innerhalb dieser Werkzeuge durch Berechnungskomponenten repräsentiert, die auf mathematisch-physikalischen Modellen basieren und zur Lösung des bauteilimmanenten mehrdimensionalen instationären Wärmeleitungsproblems dienen. Bisher standen hierfür zwei unterschiedliche prinzipielle Vorgehensweisen zur Lösung zur Verfügung, die der physikalischen Modellbildung entstammen und Grenzen bzgl. abbildbarer Geometrie oder Rechengeschwindigkeit setzen. Die vorliegende Arbeit dokumentiert eine neue Herangehensweise, die als experimentelle Modellbildung bezeichnet wird. Über den Weg der Systemidentifikation können aus experimentell ermittelten Datenreihen die Parameter für ein kompaktes Black-Box-Modell bestimmt werden, das das Eingangs-Ausgangsverhalten des zugehörigen beliebig aufgebauten thermoaktiven Bauteils mit hinreichender Genauigkeit widergibt. Die Meßdatenreihen lassen sich über hochgenaue Berechnungen generieren, die auf Grund ihrer Detailtreue für den unmittelbaren Einsatz in der Gebäudesimulation ungeeignet wären. Die Anwendung der Systemidentifikation auf das zweidimensionale Wärmeleitungsproblem und der Nachweis ihrer Eignung wird an Hand von sechs sehr unterschiedlichen Aufbauten thermoaktiver Bauteilsysteme durchgeführt und bestätigt sehr geringe Temperatur- und Energiebilanzfehler. Vergleiche zwischen via Systemidentifikation ermittelten Black-Box-Modellen und physikalischen Modellen für zwei Fußbodenkonstruktionen zeigen, daß erstgenannte auch als Referenz für Genauigkeitsabschätzungen herangezogen werden können. Die Praktikabilität des neuen Modellierungsansatzes wird an Fallstudien demonstriert, die Ganzjahressimulationen unter Bauteil- und Betriebsvariationen an einem exemplarischen Büroraum betreffen. Dazu erfolgt die Integration des Black-Box-Modells in das kommerzielle Gebäude- und Anlagensimulationsprogramm CARNOT. Die akzeptablen Rechenzeiten für ein Einzonen-Gebäudemodell in Verbindung mit den hohen Genauigkeiten bescheinigen die Eignung der neuen Modellierungsweise.