993 resultados para transfert de technologie
Resumo:
In now-a-days semiconductor and MEMS technologies the photolithography is the working horse for fabrication of functional devices. The conventional way (so called Top-Down approach) of microstructuring starts with photolithography, followed by patterning the structures using etching, especially dry etching. The requirements for smaller and hence faster devices lead to decrease of the feature size to the range of several nanometers. However, the production of devices in this scale range needs photolithography equipment, which must overcome the diffraction limit. Therefore, new photolithography techniques have been recently developed, but they are rather expensive and restricted to plane surfaces. Recently a new route has been presented - so-called Bottom-Up approach - where from a single atom or a molecule it is possible to obtain functional devices. This creates new field - Nanotechnology - where one speaks about structures with dimensions 1 - 100 nm, and which has the possibility to replace the conventional photolithography concerning its integral part - the self-assembly. However, this technique requires additional and special equipment and therefore is not yet widely applicable. This work presents a general scheme for the fabrication of silicon and silicon dioxide structures with lateral dimensions of less than 100 nm that avoids high-resolution photolithography processes. For the self-aligned formation of extremely small openings in silicon dioxide layers at in depth sharpened surface structures, the angle dependent etching rate distribution of silicon dioxide against plasma etching with a fluorocarbon gas (CHF3) was exploited. Subsequent anisotropic plasma etching of the silicon substrate material through the perforated silicon dioxide masking layer results in high aspect ratio trenches of approximately the same lateral dimensions. The latter can be reduced and precisely adjusted between 0 and 200 nm by thermal oxidation of the silicon structures owing to the volume expansion of silicon during the oxidation. On the basis of this a technology for the fabrication of SNOM calibration standards is presented. Additionally so-formed trenches were used as a template for CVD deposition of diamond resulting in high aspect ratio diamond knife. A lithography-free method for production of periodic and nonperiodic surface structures using the angular dependence of the etching rate is also presented. It combines the self-assembly of masking particles with the conventional plasma etching techniques known from microelectromechanical system technology. The method is generally applicable to bulk as well as layered materials. In this work, layers of glass spheres of different diameters were assembled on the sample surface forming a mask against plasma etching. Silicon surface structures with periodicity of 500 nm and feature dimensions of 20 nm were produced in this way. Thermal oxidation of the so structured silicon substrate offers the capability to vary the fill factor of the periodic structure owing to the volume expansion during oxidation but also to define silicon dioxide surface structures by selective plasma etching. Similar structures can be simply obtained by structuring silicon dioxide layers on silicon. The method offers a simple route for bridging the Nano- and Microtechnology and moreover, an uncomplicated way for photonic crystal fabrication.
Resumo:
Digitales stochastisches Magnetfeld-Sensorarray Stefan Rohrer Im Rahmen eines mehrjährigen Forschungsprojektes, gefördert von der Deutschen Forschungsgesellschaft (DFG), wurden am Institut für Mikroelektronik (IPM) der Universität Kassel digitale Magnetfeldsensoren mit einer Breite bis zu 1 µm entwickelt. Die vorliegende Dissertation stellt ein aus diesem Forschungsprojekt entstandenes Magnetfeld-Sensorarray vor, das speziell dazu entworfen wurde, um digitale Magnetfelder schnell und auf minimaler Fläche mit einer guten räumlichen und zeitlichen Auflösung zu detektieren. Der noch in einem 1,0µm-CMOS-Prozess gefertigte Test-Chip arbeitet bis zu einer Taktfrequenz von 27 MHz bei einem Sensorabstand von 6,75 µm. Damit ist er das derzeit kleinste und schnellste digitale Magnetfeld-Sensorarray in einem Standard-CMOS-Prozess. Konvertiert auf eine 0,09µm-Technologie können Frequenzen bis 1 GHz erreicht werden bei einem Sensorabstand von unter 1 µm. In der Dissertation werden die wichtigsten Ergebnisse des Projekts detailliert beschrieben. Basis des Sensors ist eine rückgekoppelte Inverter-Anordnung. Als magnetfeldsensitives Element dient ein auf dem Hall-Effekt basierender Doppel-Drain-MAGFET, der das Verhalten der Kippschaltung beeinflusst. Aus den digitalen Ausgangsdaten kann die Stärke und die Polarität des Magnetfelds bestimmt werden. Die Gesamtanordnung bildet einen stochastischen Magnetfeld-Sensor. In der Arbeit wird ein Modell für das Kippverhalten der rückgekoppelten Inverter präsentiert. Die Rauscheinflüsse des Sensors werden analysiert und in einem stochastischen Differentialgleichungssystem modelliert. Die Lösung der stochastischen Differentialgleichung zeigt die Entwicklung der Wahrscheinlichkeitsverteilung des Ausgangssignals über die Zeit und welche Einflussfaktoren die Fehlerwahrscheinlichkeit des Sensors beeinflussen. Sie gibt Hinweise darauf, welche Parameter für das Design und Layout eines stochastischen Sensors zu einem optimalen Ergebnis führen. Die auf den theoretischen Berechnungen basierenden Schaltungen und Layout-Komponenten eines digitalen stochastischen Sensors werden in der Arbeit vorgestellt. Aufgrund der technologisch bedingten Prozesstoleranzen ist für jeden Detektor eine eigene kompensierende Kalibrierung erforderlich. Unterschiedliche Realisierungen dafür werden präsentiert und bewertet. Zur genaueren Modellierung wird ein SPICE-Modell aufgestellt und damit für das Kippverhalten des Sensors eine stochastische Differentialgleichung mit SPICE-bestimmten Koeffizienten hergeleitet. Gegenüber den Standard-Magnetfeldsensoren bietet die stochastische digitale Auswertung den Vorteil einer flexiblen Messung. Man kann wählen zwischen schnellen Messungen bei reduzierter Genauigkeit und einer hohen lokalen Auflösung oder einer hohen Genauigkeit bei der Auswertung langsam veränderlicher Magnetfelder im Bereich von unter 1 mT. Die Arbeit präsentiert die Messergebnisse des Testchips. Die gemessene Empfindlichkeit und die Fehlerwahrscheinlichkeit sowie die optimalen Arbeitspunkte und die Kennliniencharakteristik werden dargestellt. Die relative Empfindlichkeit der MAGFETs beträgt 0,0075/T. Die damit erzielbaren Fehlerwahrscheinlichkeiten werden in der Arbeit aufgelistet. Verglichen mit dem theoretischen Modell zeigt das gemessene Kippverhalten der stochastischen Sensoren eine gute Übereinstimmung. Verschiedene Messungen von analogen und digitalen Magnetfeldern bestätigen die Anwendbarkeit des Sensors für schnelle Magnetfeldmessungen bis 27 MHz auch bei kleinen Magnetfeldern unter 1 mT. Die Messungen der Sensorcharakteristik in Abhängigkeit von der Temperatur zeigen, dass die Empfindlichkeit bei sehr tiefen Temperaturen deutlich steigt aufgrund der Abnahme des Rauschens. Eine Zusammenfassung und ein ausführliches Literaturverzeichnis geben einen Überblick über den Stand der Technik.
Resumo:
Diese Arbeit befasst sich mit der Innovations- und Globalisierungspolitik in kleinen Transformationsländern am Beispiel Mazedoniens; diese wurde mit der Lage in Slowenien verglichen, einem Land von ungefähr gleicher Größe und mit gemeinsamer Vergangenheit als Teilrepublik der Jugoslawischen Föderation, aber mit einem wesentlich höheren ökonomischen Entwicklungsstand. Innovation wird dabei verstanden als „Herstellung, Anpassung und Ausnutzung von Neuerungen“, und sie wird durch das Umfeld, in dem sie stattfindet, beeinflusst. Anpassung und Ausnutzung sind gerade für kleine Transformationsländer von erheblicher Bedeutung, da ihre Fähigkeit zu Herstellung von Neuerungen sehr begrenzt sind. Die Rolle der Innovationspolitik besteht hierbei darin, institutionelle und organisationelle Regulierungen einzuführen, die ein günstiges Umfeld sowohl für Innovationen als auch für die Entwicklung eines nationalen Innovationssystems schaffen. Die Rolle der Politik besteht also nicht in der Innovation als solcher, sondern in der Herstellung der notwendigen Bedingungen für die Industrie und die Forschungseinrichtungen dahingehend zu schaffen, dass sie ihr Wissen, ihre Fertigkeiten und ihre praktischen Erfahrungen für innovative Tätigkeiten einsetzen können. Auf der einen Seite gibt es Institutionen und Organisationen, ohne die die Unternehmen rückständig und wenig leistungsstark wären (etwa das Patentamt oder Institutionen höherer Bildung), und auf der anderen Seite gibt es Institutionen und Organisationen, welche die Unternehmen dabei unterstützen, dass sie ihre Tätigkeit weiter unterstützen (z.B. durch Technologietransfer-Zentren und Netzwerke). Die Leistungen dieser Institutionen und Organisationen sind von großer Bedeutung für die nationalen Innovationssysteme und sollten ihrerseits durch Innovationspolitik unterstützt werden; dies bedeutet jedoch nicht, dass diese Leistungen vom Staat bereitgestellt werden, vielmehr sollte die Wirtschaftspolitik Möglichkeiten für die öffentlich/private oder sogar rein private Bereitstellung solcher Leistungen in Erwägung ziehen; dies würde nicht nur die Kosten für den Staat senken, sondern auch die Effizienz bei der Erstellung dieser Leistungen steigern. Die Arbeit kommt zu dem Schluss, dass das größte Problem der Innovationspolitik in Mazedonien darin besteht, dass es sie gar nicht gibt, und zwar nicht als Folge einer bewussten Entscheidung darüber. Tatsächlich müssen Ressourcen und Zeit für die Schaffung eines nationalen Innovationssystems eingesetzt werden mit Hilfe einer Politik, die sich auf die wesentlichen Umrisse konzentriert, wobei die Nachfrage nach Technologie im Unternehmensbereich gesteigert wird und das Wissen und das Informationsangebot restrukturiert wird. Dieses System muss offen sein, unter beständigem Verbesserungsdruck stehen und fähig sein, sich an Veränderungen anzupassen. Damit eine solche Politik erfolgreich ist, muss es einen Konsens darüber zwischen allen beteiligten Akteuren geben und darüber hinaus auch eine Kohärenz zwischen den verschiedenen politischen Institutionen. Das ist deswegen wichtig, weil der Innovationsprozess komplex ist und verschiedene Politikbereiche berührt. Ziel sollte die Schaffung eines Systems sein, das einerseits auf Autonomie und Kooperation aufbaut, andererseits aber auch Wettbewerb zwischen den beteiligten Institutionen und Organisationen fördert. Eine wichtige Bedingung für ein positives Investitionsklima im Bereich der Innovation ist die Erreichung von makroökonomischer Stabilität. Die gegenwärtige Situation ist gekennzeichnet durch Instabilität des Rechtswesens, durch Korruption und Probleme des Vertragsschutzes, die sowohl ausländische als auch inländische Akteure davon abhält, sich in wirtschaftlichen Aktivitäten in Mazedonien zu engagieren. Bei der Suche nach einem Ausweg aus diesen Problemen ist es wichtig für Mazedonien, von anderen Ländern wie Slowenien zu lernen, die ähnliche Probleme haben, aber auch schon Erfahrungen in der Problemlösung. Man muss dabei beachten, dass der Entwicklungsstand, das wirtschaftliche und das politische Umfeld in beiden Vergleichsländern sich erheblich unterscheiden, so dass die Lektionen, die Mazedonien von Slowenien lernen könnte, nicht direkt übertragen und kopiert werden können, sondern entsprechend angepasst werden müssen. Die vorliegende Arbeit liefert Einsichten in die Probleme der Innovationspolitik in Transformationsländern und liefert daher sowohl einen Anreiz als auch eine Quelle von Informationen für künftige Analysen der wirtschaftlichen Bedingungen und vor allem Innovationspolitik in Transformationsländern.
Resumo:
Bei Biolebensmitteln (gemäss deutschsprachiger gesetzlicher Regel gilt: Bio=Öko) stellt die gesetzlich vorgeschriebene Zertifizierung auf allen Stufen die Bioqualität der Produkte sicher. "Lässt sich Bio messen?", ist jedoch eine alte und immer noch aktuelle Frage. Der folgende Artikel gibt dafür neue Antworten und zeigt auf, wie mit klassischen und komplementären Methoden Aussagen über die Bioqualität der Lebensmittel gemacht werden können.
Resumo:
Der Beitrag beschäftigt sich mit technischen und rechtlichen Aspekten der Nutzung von Softwareagenten-Technologie im elektronischen Vergabeverfahren. Vermittelt wird ein Überblick über die Bedeutung der elektronischen Vergabe und die bestehenden rechtlichen Rahmenbedingungen (I.). Wesentliche Charakteristika und Fähigkeiten von Softwareagenten werden beschrieben. Aufgezeigt wird, dass sich das elektronische Vergabeverfahren in besonderer Weise für den Einsatz von Softwareagenten-Technologie eignet. Dies wird anhand eines Praxismodells für die agentenbasierte elektronische Vergabe illustriert (II.). Dargestellt wird, auf welche Weise die bestehenden vergaberechtlichen Anforderungen bei der Gestaltung agentenbasierter Vergabesysteme angemessen berücksichtigt werden können (III.). Ein Fazit und Ausblick schließt den Beitrag ab (IV.).
Resumo:
Ziel der vorliegenden Arbeit ist das Studium des Einflusses mineralischer Stoffe bei dem Vergasungsprozess von Biomasse um Grundlagen zur Verbesserung der Technologie mit experimentellen Methoden zu schaffen. Als Katalysator wird der mineralische Anteil oder Asche, Dolomit und Braunkohlenkoks den Kaffeeschalen, Ölpalmschalen oder Buchenholz zu gemischt. Als Vergasungsmittel wird Wasserdampf benutzt. Als experimentellen Anlagen werden eine Thermowaage und ein Drehrohrreaktor eingesetzt. Zur Vergasung im Drehrohrreaktor wurden Versuche mit Gemischen aus Dolomit und Buchenholz durchgeführt. Variierte Versuchsparameter waren der Massestrom, die Wasserdampfkonzentration, die Temperatur, der Kalzinierungsgrad des Dolomits, die Kontaktzeit zwischen Gas und Partikeln und die Verweilzeit. Durch die Variation des Massestroms wurden unterschiedliche Schütthöhen erreicht, wodurch das Verhältnis zwischen aktiver und passiver Zone in der Schüttung verändert wird. Die Prozessvariablen wurden so eingestellt, dass längs der Reaktorlänge als Bewegungsformen Stürzen, Stürzen-Gleiten und diskontinuierliches Gleiten auftreten. Zur Variation der Kontaktzeit zwischen den Partikeln und der Gas-Atmosphäre wurde ein Einbau mit sechs ebenen Wendeblechen durchgeführt. Die Ergebnisse der Versuche belegen, dass der katalytische Einfluss des Dolomits einen bedeutenden Effekt bei der Verminderung der Teerbeladung der Produkte hat. Die Wendebleche führten zu einer Steigerung der Gaserzeugung unter bedeutender Verminderung des Teergehalts, besonders in Anwesenheit von Dolomit. In der gegenwärtigen Untersuchung wurde die neuronale Netz-Methode benutzt, um die Beziehungen zwischen den Variabeln, die den Prozess beeinflussen, zu analysieren.
Resumo:
Die Technologie dienstorientierter Architekturen (Service-oriented Architectures, kurz SOA) weckt große Visionen auf Seiten der Industrie wie auch der Forschung. Sie hat sich als derzeit ideale Lösung für Umgebungen, in denen sich die Anforderungen an die IT-Bedürfnisse rapide ändern, erwiesen. Heutige IT-Systeme müssen Managementaufgaben wie Softwareinstallation, -anpassung oder -austausch erlauben, ohne dabei den laufenden Betrieb wesentlich zu stören. Die dafür nötige Flexibilität bieten dienstorientierte Architekturen, in denen Softwarekomponenten in Form von Diensten zur Verfügung stehen. Ein Dienst bietet über seine Schnittstelle lokalen wie entfernten Applikationen einen Zugang zu seiner Funktionalität. Wir betrachten im Folgenden nur solche dienstorientierte Architekturen, in denen Dienste zur Laufzeit dynamisch entdeckt, gebunden, komponiert, verhandelt und adaptiert werden können. Eine Applikation kann mit unterschiedlichen Diensten arbeiten, wenn beispielsweise Dienste ausfallen oder ein neuer Dienst die Anforderungen der Applikation besser erfüllt. Eine unserer Grundvoraussetzungen lautet somit, dass sowohl das Dienstangebot als auch die Nachfrageseite variabel sind. Dienstorientierte Architekturen haben besonderes Gewicht in der Implementierung von Geschäftsprozessen. Im Rahmen des Paradigmas Enterprise Integration Architecture werden einzelne Arbeitsschritte als Dienste implementiert und ein Geschäftsprozess als Workflow von Diensten ausgeführt. Eine solche Dienstkomposition wird auch Orchestration genannt. Insbesondere für die so genannte B2B-Integration (Business-to-Business) sind Dienste das probate Mittel, um die Kommunikation über die Unternehmensgrenzen hinaus zu unterstützen. Dienste werden hier in der Regel als Web Services realisiert, welche vermöge BPEL4WS orchestriert werden. Der XML-basierte Nachrichtenverkehr und das http-Protokoll sorgen für eine Verträglichkeit zwischen heterogenen Systemen und eine Transparenz des Nachrichtenverkehrs. Anbieter dieser Dienste versprechen sich einen hohen Nutzen durch ihre öffentlichen Dienste. Zum einen hofft man auf eine vermehrte Einbindung ihrer Dienste in Softwareprozesse. Zum anderen setzt man auf das Entwickeln neuer Software auf Basis ihrer Dienste. In der Zukunft werden hunderte solcher Dienste verfügbar sein und es wird schwer für den Entwickler passende Dienstangebote zu finden. Das Projekt ADDO hat in diesem Umfeld wichtige Ergebnisse erzielt. Im Laufe des Projektes wurde erreicht, dass der Einsatz semantischer Spezifikationen es ermöglicht, Dienste sowohl im Hinblick auf ihre funktionalen als auch ihre nicht-funktionalen Eigenschaften, insbesondere die Dienstgüte, automatisch zu sichten und an Dienstaggregate zu binden [15]. Dazu wurden Ontologie-Schemata [10, 16], Abgleichalgorithmen [16, 9] und Werkzeuge entwickelt und als Framework implementiert [16]. Der in diesem Rahmen entwickelte Abgleichalgorithmus für Dienstgüte beherrscht die automatische Aushandlung von Verträgen für die Dienstnutzung, um etwa kostenpflichtige Dienste zur Dienstnutzung einzubinden. ADDO liefert einen Ansatz, Schablonen für Dienstaggregate in BPEL4WS zu erstellen, die zur Laufzeit automatisch verwaltet werden. Das Vorgehen konnte seine Effektivität beim internationalen Wettbewerb Web Service Challenge 2006 in San Francisco unter Beweis stellen: Der für ADDO entwickelte Algorithmus zur semantischen Dienstkomposition erreichte den ersten Platz. Der Algorithmus erlaubt es, unter einer sehr großenMenge angebotener Dienste eine geeignete Auswahl zu treffen, diese Dienste zu Dienstaggregaten zusammenzufassen und damit die Funktionalität eines vorgegebenen gesuchten Dienstes zu leisten. Weitere Ergebnisse des Projektes ADDO wurden auf internationalen Workshops und Konferenzen veröffentlicht. [12, 11]
Resumo:
Die ubiquitäre Datenverarbeitung ist ein attraktives Forschungsgebiet des vergangenen und aktuellen Jahrzehnts. Es handelt von unaufdringlicher Unterstützung von Menschen in ihren alltäglichen Aufgaben durch Rechner. Diese Unterstützung wird durch die Allgegenwärtigkeit von Rechnern ermöglicht die sich spontan zu verteilten Kommunikationsnetzwerken zusammen finden, um Informationen auszutauschen und zu verarbeiten. Umgebende Intelligenz ist eine Anwendung der ubiquitären Datenverarbeitung und eine strategische Forschungsrichtung der Information Society Technology der Europäischen Union. Das Ziel der umbebenden Intelligenz ist komfortableres und sichereres Leben. Verteilte Kommunikationsnetzwerke für die ubiquitäre Datenverarbeitung charakterisieren sich durch Heterogenität der verwendeten Rechner. Diese reichen von Kleinstrechnern, eingebettet in Gegenstände des täglichen Gebrauchs, bis hin zu leistungsfähigen Großrechnern. Die Rechner verbinden sich spontan über kabellose Netzwerktechnologien wie wireless local area networks (WLAN), Bluetooth, oder UMTS. Die Heterogenität verkompliziert die Entwicklung und den Aufbau von verteilten Kommunikationsnetzwerken. Middleware ist eine Software Technologie um Komplexität durch Abstraktion zu einer homogenen Schicht zu reduzieren. Middleware bietet eine einheitliche Sicht auf die durch sie abstrahierten Ressourcen, Funktionalitäten, und Rechner. Verteilte Kommunikationsnetzwerke für die ubiquitäre Datenverarbeitung sind durch die spontane Verbindung von Rechnern gekennzeichnet. Klassische Middleware geht davon aus, dass Rechner dauerhaft miteinander in Kommunikationsbeziehungen stehen. Das Konzept der dienstorienterten Architektur ermöglicht die Entwicklung von Middleware die auch spontane Verbindungen zwischen Rechnern erlaubt. Die Funktionalität von Middleware ist dabei durch Dienste realisiert, die unabhängige Software-Einheiten darstellen. Das Wireless World Research Forum beschreibt Dienste die zukünftige Middleware beinhalten sollte. Diese Dienste werden von einer Ausführungsumgebung beherbergt. Jedoch gibt es noch keine Definitionen wie sich eine solche Ausführungsumgebung ausprägen und welchen Funktionsumfang sie haben muss. Diese Arbeit trägt zu Aspekten der Middleware-Entwicklung für verteilte Kommunikationsnetzwerke in der ubiquitären Datenverarbeitung bei. Der Schwerpunkt liegt auf Middleware und Grundlagentechnologien. Die Beiträge liegen als Konzepte und Ideen für die Entwicklung von Middleware vor. Sie decken die Bereiche Dienstfindung, Dienstaktualisierung, sowie Verträge zwischen Diensten ab. Sie sind in einem Rahmenwerk bereit gestellt, welches auf die Entwicklung von Middleware optimiert ist. Dieses Rahmenwerk, Framework for Applications in Mobile Environments (FAME²) genannt, beinhaltet Richtlinien, eine Definition einer Ausführungsumgebung, sowie Unterstützung für verschiedene Zugriffskontrollmechanismen um Middleware vor unerlaubter Benutzung zu schützen. Das Leistungsspektrum der Ausführungsumgebung von FAME² umfasst: • minimale Ressourcenbenutzung, um auch auf Rechnern mit wenigen Ressourcen, wie z.B. Mobiltelefone und Kleinstrechnern, nutzbar zu sein • Unterstützung für die Anpassung von Middleware durch Änderung der enthaltenen Dienste während die Middleware ausgeführt wird • eine offene Schnittstelle um praktisch jede existierende Lösung für das Finden von Diensten zu verwenden • und eine Möglichkeit der Aktualisierung von Diensten zu deren Laufzeit um damit Fehlerbereinigende, optimierende, und anpassende Wartungsarbeiten an Diensten durchführen zu können Eine begleitende Arbeit ist das Extensible Constraint Framework (ECF), welches Design by Contract (DbC) im Rahmen von FAME² nutzbar macht. DbC ist eine Technologie um Verträge zwischen Diensten zu formulieren und damit die Qualität von Software zu erhöhen. ECF erlaubt das aushandeln sowie die Optimierung von solchen Verträgen.
Resumo:
Im Rahmen der Fallstudie Harz sollte an der Schnittstelle zwischen Grundlagenforschung und angewandter Forschung ein Beitrag zur Klärung der Frage geleistet werden, inwieweit zwei Zuläufe der Sösetalsperre im Westharz versauert bzw. versauerungsgefährdet sind; aus diesem Stausee wird Trinkwasser für mehrere Gemeinden in Norddeutschland gewonnen. Die Belastung des fast vollständig bewaldeten Einzugsgebiets der Sösetalsperre mit luftbürtigen Schadstoffen (Saurer Regen) zählte zu den höchsten in Mitteleuropa. An jeweils drei Untersuchungsstellen der beiden Bäche Alte Riefensbeek (R1 bis R3) und Große Söse (S1 bis S3) wurden zwischen März 1987 und November 1988 Proben aus Moospolstern und dem hyporheischen Interstitial entnommen und physikalisch, chemisch und biologisch untersucht. Ergänzend wurden Wasserproben zwischen März 1986 und Oktober 1991 sowie vom April 1998 ebenso wie qualitative Fänge von Makroinvertebraten zwischen November 1986 und Juli 1990 sowie vom April 1998 ausgewertet. Die Analyse der tierischen Besiedlung der Moos- und Interstitialproben beschränkte sich auf die taxonomischen Gruppen Turbellaria (Strudelwürmer), Mollusca (Weichtiere), Amphipoda (Flohkrebse), Ephemeroptera (Eintagsfliegen), Plecoptera (Steinfliegen), Heteroptera (Wanzen), Megaloptera (Schlammfliegen), Coleoptera (Käfer), Trichoptera (Köcherfliegen) und Diptera (Zweiflügler). Der Grundsatz, daß normalverteilte und nicht normalverteilte Daten statistisch unterschiedlich behandelt werden müssen, wurde konsequent angewandt. Am Beispiel der Choriotopstruktur wurde gezeigt, daß die Auswahl des Analyseverfahrens das Ergebnis der ökologischen Interpretation multivariater statistischer Auswertung beeinflußt. Die Daten der Korngrößen-Verteilung wurden vergleichend einer univariaten und einer multivariaten statistischen Analyse unterworfen. Mit dem univariaten Verfahren wurden die Gradienten der ökologisch relevanten Korngrößen-Parameter eher erkannt als mit dem multivariaten Verfahren. Die Auswirkungen von Gewässerversauerung sowie anderer Umweltfaktoren (insgesamt 42 Faktoren) auf die Lebensgemeinschaften wurden anhand der Parameter Artenzahl, Besiedlungsdichte, Körpergröße und Biomasse untersucht. Abundanz, Biomasse und Körpergröße sowie die Umweltfaktoren wurden auf einem horizontalen Gradienten, d.h. im Längslauf der Bäche, und auf einem vertikalen Gradienten, d.h. fließende Welle / Bryorheon / Benthon versus Hyporheon, untersucht. Es wurde ein terminologisches System für die Kompartimente in der Fließgewässer-Aue vorgeschlagen, das in sich einheitlich ist. Es wurde ein neuer Moos-Vitalitätsindex für die Moospolster vorgestellt. Es wurden Bestimmungsschlüssel für die Larven der Chloroperlidae (Steinfliegen-Familie) und der Empididae (Tanzfliegen) in den beiden Harzbächen entwickelt. Die untersuchten Bachstrecken waren frei von Abwasserbelastung. An zwei Stellen wurde Wasser für einen Forellenteich ausgeleitet. Abgesehen von zwei meterhohen Abstürzen in der Großen Söse waren wasserbauliche Veränderungen ohne große Bedeutung. Das Abfluß-Regime war insofern nicht mehr natürlich, als beide Bäche in das System der bergbaulichen Bewässerungsgräben des Oberharzes eingebunden sind. Die Söse hatte ein F-nivopluviales Abfluß-Regime, der abflußreichste Doppelmonat war der März / April, die Unregelmäßigkeit des Abfluß-Regimes war sehr hoch, die Vorhersagbarkeit sehr niedrig, die monatlichen Abfluß-Maxima wiesen eine sehr geringe Konstanz auf. Der Zeitraum der biologischen Probenahme wurde von überdurchschnittlich vielen Tagen mit mäßig erhöhten Abflüssen geprägt, sehr große Hochwasser-Wellen fehlten aber. Die Abfluß-Dynamik wurde statistisch beschrieben. Das hydraulische Regime wurde anhand der Meßgrößen Fließgeschwindigkeit, Fließkraft und FROUDE-Zahl dargestellt. Der Zusammenhang zwischen Abfluß und Fließgeschwindigkeit auf der einen Seite und der Korngrößen-Verteilung auf der anderen Seite wurde statistisch untersucht, ebenfalls zwischen dem Abfluß und dem Kohlenstoff- und Stickstoff-Gehalt der Feinstpartikel sowie dem Wasserchemismus. In den Phasen ohne Hochwasser hatte das Hyporheal die Funktion einer Senke für Feinstkörner. Das Bachbett der Alten Riefensbeek war stabiler als das der Großen Söse. Insgesamt gesehen war das hyporheische Sediment in den quellnahen Abschnitten grobkörniger und auf den quellfernen Strecken feinkörniger. Der prozentuale Anteil der Feinstkörner im Hyporheal und Benthal nahm aber im Längslauf der Bäche ab. Dies ist ungewöhnlich, konnte aber nicht plausibel mit geologischen und hydrologischen Meßgrößen erklärt werden. Beide Bäche waren sommerkalt. Der Einfluß der Wassertemperatur auf die Larvalentwicklung wurde beispielhaft an den Taxa Baetis spp. und Leuctra gr. inermis untersucht. Es gab eine Tendenz, daß der Kohlenstoff- und Stickstoff-Gehalt der Feinstpartikel vom Benthal in das Hyporheal anstieg. Dies war ein weiterer Hinweis darauf, daß das Hyporheal die Funktion einer Senke und Vorratskammer für Nährstoffe hat. Der Zusammenhang zwischen partikulärer und gelöster Kohlenstoff-Fraktion wurde diskutiert. Im Hyporheon war die Nitrifikation nicht stärker als in der fließenden Welle. Es gab Hinweise, daß die sauren pH-Werte in der Großen Söse die Nitrifikation hemmten. Die Valenzen der Moos- und Tier-Taxa bezüglich Fließgeschwindigkeit, pH-Wert, Alkalinität sowie der Gehalte von Sauerstoff, Calcium, Magnesium, Kalium und Natrium wurden zusammengestellt. Das hyporheische Sediment war sehr grob und hatte eine hohe Porosität. Der Austausch zwischen fließender Welle und hyporheischem Wasser konnte deshalb sehr schnell erfolgen, es gab keine intergranulare Sprungschicht, die physikalischen und chemischen Tiefengradienten waren in den meisten Fällen gar nicht ausgeprägt oder nur sehr flach. Die Wassertemperatur des Freiwassers unterschied sich nicht signifikant von derjenigen im hyporheischen Wasser. Es gab -- von wenigen Ausnahmen bei pH-Wert, Leitfähigkeit und Sauerstoffgehalt abgesehen -- keine signifikanten Unterschiede zwischen dem Wasserchemismus der fließenden Welle und dem des Hyporheals. Die physikalischen und chemischen Voraussetzungen für die Refugialfunktion des Hyporheons waren deshalb für versauerungsempfindliche Taxa nicht gegeben. In der Tiefenverteilung der untersuchten Tiergruppen im Hyporheal lag das Maximum der Abundanz bzw. Biomasse häufiger in 10 cm als in 30 cm Tiefe. Daraus läßt sich aber keine allgemeine Gesetzmäßigkeit ableiten. Es wurde durchgehend die Definition angewendet, daß die Gewässerversauerung durch den Verlust an Pufferkapazität charakterisiert ist. Saure Gewässer können, müssen aber nicht versauert sein; versauerte Gewässer können, müssen aber nicht saures Wasser haben. Maßstab für das Pufferungsvermögen eines Gewässers ist nicht der pH-Wert, sondern sind die Alkalinität und andere chemische Versauerungsparameter. Der pH-Wert war auch operativ nicht als Indikator für Gewässerversauerung anwendbar. Die chemische Qualität des Bachwassers der Großen Söse entsprach aufgrund der Versauerung nicht den umweltrechtlichen Vorgaben bezüglich der Parameter pH-Wert, Aluminium, Eisen und Mangan, bzgl. Zink galt dies nur an S1. In der Alten Riefensbeek genügte das Hyporheal-Wasser in 30 cm Tiefe an R2 bzgl. des Sauerstoff-Gehalts nicht den umweltrechtlichen Anforderungen. Nur im Freiwasser an R1 genügten die Ammonium-Werte den Vorgaben der EG-Fischgewässer-Richtlinie, der Grenzwert wurde an allen anderen Meßstellen und Entnahmetiefen überschritten. Das BSB-Regime in allen Entnahmetiefen an R2, im Freiwasser an R3 und S1, im Hyporheal an R1 sowie in 30 cm Tiefe an R3 genügte nicht den Anforderungen der Fischgewässer-Richtlinie. Der Grenzwert für Gesamt-Phosphor wurde an S3 überschritten. In der Großen Söse war der Aluminium-Gehalt so hoch, daß anorganisches und organisches Aluminium unterschieden werden konnten. Besonders hohe Gehalte an toxischem anorganischen Aluminium wurden an Tagen mit Spitzen-Abflüssen und Versauerungsschüben gemessen. Erst die Ermittlung verschiedener chemischer Versauerungsparameter zeigte, daß auch die alkalischen Probestellen R2 und R3 mindestens versauerungsempfindlich waren. Die Messung bzw. Berechnung von chemischen Versauerungsparametern sollte deshalb zum Routineprogramm bei der Untersuchung von Gewässerversauerung gehören. Zu Beginn des Untersuchungsprogramms war angenommen worden, daß die mittleren und unteren Abschnitte der Alten Riefensbeek unversauert sind. Dieser Ansatz des Untersuchungsprogramms, einen unversauerten Referenzbach (Alte Riefensbeek) mit einem versauerten Bach (Große Söse) zu vergleichen, mußte nach der Berechnung von chemischen Versauerungsindikatoren sowie der Analyse der Abundanz- und Biomasse-Werte modifiziert werden. Es gab einen Versauerungsgradienten entlang der Probestellen: R1 (unversauert) R2 und R3 (versauerungsempfindlich bis episodisch leicht versauert) S2 und S3 (dauerhaft versauert) S1 (dauerhaft stark versauert). An S1 war das Hydrogencarbonat-Puffersystem vollständig, an S2 und S3 zeitweise ausgefallen. Die Versauerungslage an R2 und R3 war also schlechter als vorausgesehen. Unterschiede im Versauerungsgrad zwischen den Meßstellen waren nicht so sehr in unterschiedlichen Eintragsraten von versauernden Stoffen aus der Luft begründet, sondern in unterschiedlichen Grundgesteinen mit unterschiedlichem Puffervermögen. Der Anteil der verschiedenen sauren Anionen an der Versauerung wurde untersucht, die chemischen Versauerungsmechanismen wurden mit Hilfe von Ionenbilanzen und verschiedenen Versauerungsquotienten analysiert. Die beiden untersuchten Bäche waren von anthropogener Versauerung betroffen. Dabei spielte die Schwefel-Deposition (Sulfat) eine größere Rolle als die Stickstoff-Deposition (Nitrat). Die Probestelle S1 war immer schon in unbekanntem Maß natürlich sauer. Dieser natürlich saure Zustand wurde von der hinzugekommenen anthropogenen Versauerung bei weitem überragt. Die wenigen gewässerökologischen Daten, die im Wassereinzugsgebiet der Söse vor 1986 gewonnen wurden, deuten darauf hin, daß die Versauerung in den 70er und in der ersten Hälfte der 80er Jahre vom Boden und Gestein in die Bäche durchgeschlagen war. Dieser Versauerungsprozeß begann vermutlich vor 1973 in den Quellen auf dem Acker-Bruchberg und bewegte sich im Laufe der Jahre immer weiter talwärts in Richtung Trinkwasser-Talsperre. Der Mangel an (historischen) freilandökologischen Grundlagendaten war nicht nur im Untersuchungsgebiet, sondern ist allgemein in der Versauerungsforschung ein Problem. Wenn sich das Vorkommen von nah verwandten Arten (weitgehend) ausschließt, kann dies an der Versauerung liegen, z.B. war die Alte Riefensbeek ein Gammarus-Bach, die Große Söse ein Niphargus-Bach; dieses muß aber nicht an der Versauerung liegen, z.B. fehlte Habroleptoides confusa im Hyporheos an R3, Habrophlebia lauta hatte dagegen ihr Abundanz- und Biomasse-Maximum an R3. Zugleich lag das Maximum des prozentualen Anteils von Grobsand an R3, eine mögliche Ursache für diese interspezifische Konkurrenz. Die biologische Indikation von Gewässerversauerung mit Hilfe der Säurezustandsklassen funktionierte nicht in den beiden Harzbächen. Es wurde deshalb ein biologischer Versauerungsindex vorgeschlagen; dieser wurde nicht am pH-Wert kalibriert, sondern an der chemischen Versauerungslage, gekennzeichnet durch die Alkalinität und andere chemische Meßgrößen der Versauerung. Dafür wurden aufgrund der qualitativen und quantitativen Daten die häufigeren Taxa in die vier Klassen deutlich versauerungsempfindlich, mäßig versauerungsempfindlich, mäßig versauerungstolerant und deutlich versauerungstolerant eingeteilt. Es reicht nicht aus, die biologischen Folgen von Gewässerversauerung sowie Veränderungen in der Nährstoff-Verfügbarkeit und im sonstigen Wasserchemismus nur anhand der Artenzahl oder des Artenspektrums abzuschätzen. Vielmehr müssen quantitative Methoden wie die Ermittlung der Abundanzen angewandt werden, um anthropogene und natürliche Störungen des Ökosystems zu erfassen. Es wurde eine Strategie für die behördliche Gewässergüteüberwachung von Bachoberläufen vorgeschlagen, die flächendeckend die Versauerungsgefährdung erfassen kann. Die Auswirkungen der zeitlichen Dynamik des Versauerungschemismus wurden am Beispiel des versauerungsempfindlichen Taxons Baetis spp. (Eintagsfliegen) dargestellt. An S2 und S3 kam es zu starken Versauerungsschüben. Baetis konnte sich nicht ganzjährig halten, sondern nur in versauerungsarmen Phasen im Sommer und im Herbst; es gab einen Besiedlungskreislauf aus Ausrottungs- und Wiederbesiedlungsphasen. Die temporäre Population von Baetis an S2 und S3 bestand nur aus ersten Larvenstadien. Die Probestellen wurden auf horizontalen Gradienten der Umweltfaktoren angeordnet. Bei einigen Parametern gab es keinen Gradienten (z.B. Sauerstoff-Gehalt), bei anderen Parametern waren die Meßstellen auf sehr flachen Gradienten angeordnet (z.B. C:N-Quotient der Feinstkörner), bei den restlichen Meßgrößen waren die Gradienten sehr deutlich (z.B. Alkalinität). Bei den Längsgradienten von Abundanz und Biomasse waren alle Möglichkeiten vertreten: Zunahme (z.B. Leuctra pseudosignifera), Abnahme (z.B. Gammarus pulex), Maximum an der mittleren Probestelle (z.B. Leuctra pseudocingulata) und kein signifikanter Trend (z.B. Nemoura spp.). Abundanz und Biomasse zahlreicher taxonomischer Einheiten hatten ihr Maximum im Längslauf an den quellnächsten Probestellen R1 und S1, z.B. Protonemura spp. und Plectrocnemia spp. Die Lebensgemeinschaften an R1 und S1 waren allerdings völlig unterschiedlich zusammengesetzt. Die häufig vertretene Annahme, versauerte Gewässer seien biologisch tot, ist falsch. Unter Anwendung des 3. biozönotischen Grundprinzips wurde das Maximum von Abundanz und Biomasse in den quellnahen Abschnitten mit dem eustatistischen (stabilen) Regime von Wassertemperatur, Abfluß und Protonen-Gehalt, in der Alten Riefensbeek auch von Alkalinität und ALMER-Relation erklärt. Aufgrund der natürlichen und anthropogenen Störungen war im Längslauf der untersuchten Bäche keine natürliche biozönotische Gliederung des Artenbestands erkennbar. Die Korrelationsberechnungen zwischen den Umweltfaktoren und der Taxazahl ergaben, daß in erster Linie versauerungsrelevante Parameter -- Gehalte saurer Anionen, basischer Kationen und von Metallen, Alkalinität usw. -- die höchsten Korrelationskoeffizienten mit der Taxa-Zahl hatten; unter den natürlichen Meßgrößen zählten nur die Gehalte von DOC und TIC sowie der Anteil der Sande zu der Gruppe mit den höchsten Korrelationskoeffizienten. Die Korrelationsberechnungen zwischen den Umweltfaktoren und den Abundanzen ergab dagegen, daß die quantitative Zusammensetzung der Lebensgemeinschaft nicht nur durch die anthropogene Gewässerversauerung, sondern mindestens genauso durch einige natürliche Meßgrößen beeinflußt wurde. Es gab in den Harzbächen keinen ökologischen Superfaktor, der die quantitative Zusammensetzung der Lebensgemeinschaft überwiegend bestimmte. Auch die Meßgrößen der anthropogenen Gewässerversauerung waren nicht solch ein Superfaktor. Einen ähnlich hohen Einfluß auf die quantitative Zusammensetzung der Lebensgemeinschaft hatten die geologisch bestimmten Umweltfaktoren Leitfähigkeit und TIC-Gehalt, der von der Landnutzung bestimmte DOC-Gehalt sowie der Chlorid-Gehalt, der geologisch, möglicherweise aber auch durch den Eintrag von Straßensalz bestimmt wird. Die Mischung von anthropogenen und natürlichen Faktoren wurde in einem Modell der Wirkung von abiotischen Faktoren auf Bryorheos und Hyporheos dargestellt. Als Beispiel für die zeitliche Nutzung ökologischer Nischen wurde die Verteilung der Larven und Adulten der Dryopidae (Hakenkäfer) im Hyporheos und Bryorheos untersucht. Die Larven wurden vorzugsweise im Hyporheon, die Adulten im Bryorheon angetroffen. Die untersuchten Taxa wurden in die Varianten bryorheobiont, bryorheophil, bryorheotolerant, bryorheoxen und bryorheophob bzw. hyporheobiont, hyporheophil, hyporheotolerant, hyporheoxen und hyporheophob eingeteilt, um ihre räumliche Nutzung ökologischer Nischen zu beschreiben. Die gängige Lehrmeinung, daß das Hyporheon die Kinderstube benthaler Makroinvertebraten ist, konnte für zahlreiche Taxa bestätigt werden (z.B. Habrophlebia lauta). Für die bryorheophilen Taxa (z.B. Gammarus pulex und Baetis spp.) trifft diese Lehrmeinung in den beiden Harzbächen nicht zu. Vielmehr übernimmt das Bryorheon die Funktion einer Kinderstube. Die Larven von Plectrocnemia conspersa / geniculata sowie von Baetis spp. und Amphinemura spp. / Protonemura spp. neben Gammarus pulex zeigten eine Habitatbindung, die erstgenannte Gattung an das Hyporheal, die letztgenannten 3 Taxa an untergetauchte Moospolster (Bryorheal). Die Idee von der Funktion des Hyporheals als Kinderstube der Larven und Jungtiere, als Schutzraum gegen die Verdriftung durch Strömung und vor Fraßdruck durch Räuber sowie als Ort hohen Nahrungsangebots mußte für die letztgenannten 3 Taxa abgelehnt werden. Für sie übernahm das Bryorheal diese Aufgaben. Zwar waren die beiden Bäche oligotroph und die Nahrungsqualität der Feinstkörner im Hyporheal war niedrig. Die Abundanz- und Biomasse-Werte im Bryorheos und Hyporheos gehörten aber zu den weltweit höchsten. Es wurde das Paradoxon diskutiert, daß im Hyporheon der beiden Bäche Diatomeen-Rasen gefunden wurden, obwohl das Hyporheon lichtlos sein soll. Das Hyporheon wurde als ein Ökoton zwischen Benthon / Rheon und Stygon angesehen. Es wurden vier Haupttypen des Hyporheons beschrieben. Wegen des sehr unterschiedlichen Charakters des Hyporheons in verschiedenen Fließgewässern gibt es keinen einheitlichen Satz von abiotischen und biotischen Faktoren, mit denen das Hyporheon vom Benthon und Stygon abgegrenzt werden kann. In den beiden Harzbächen ähnelte das Hyporheon mehr dem Benthon als dem Stygon. Es konnte nicht anhand der chemischen Meßgrößen vom Benthon abgegrenzt werden, sondern anhand der physikalischen Meßgrößen Trübung und der Anteile von Feinsand und Schluffe/Tone sowie anhand der biologischen Parameter Summen-Abundanz und Summen-Biomasse. Aus der Typologie des Hyporheons folgt, daß ein bestimmtes Hyporheon nicht alle in der Literatur beschriebenen Funktionen innerhalb der Fließgewässer-Aue übernehmen kann. Es wurde ein Schema entwickelt, mit dem sich die optimale Liste der Parameter für die Untersuchung eines bestimmten Hyporheons auswählen läßt. Der Tendenz in der Fließgewässer-Ökologie, immer neue Konzepte zu entwickeln, die allgemeingültig sein sollen, wurde das Konzept vom individuellen Charakter von Fließgewässer-Ökosystemen entgegengestellt.
Resumo:
Unternehmen konkurrieren in einem globalen Wettbewerb um den Transfer neuer Technologien in erfolgreiche Geschäftsmodelle. Aus diesem Grund stehen sie zunehmend der Herausforderung gegenüber, technologische Potenziale frühzeitig zu identifizieren, zu bewerten und Strategien für das Erschließen dieser Potenziale zu entwickeln. Dies ist zentraler Gegenstand der Vorausschau und Planung neuer Technologiepfade. In der vorliegenden Arbeit wird gemeinsam mit vier Unternehmen ein Leitfaden für die Strategiefindung, Entwicklung und Kommerzialisierung neu aufkommender Technologien entwickelt und angewendet. Den Ausgangspunkt der Arbeit bildet eine systematische Aufarbeitung des Forschungsstandes der Vorausschau und Planung neuer Technologien. Anschließend wird ein Beschreibungsmodell der Entstehung neuer Technologiepfade in technologiebasierten Innovationssystemen entwickelt. Auf Basis dieses Modells werden unterschiedliche Kategorien von Einflussfaktoren definiert, die als Analyserahmen für die neu entstehende Technologie dienen. Auf Basis der in der Literatur dokumentierten Abläufe, Teamstrukturen und Methoden (z.B. Roadmaps, Szenarien, Datenbankanalysen) wird ein sechsstufiger Ansatz für die Durchführung der Vorausschau und Planung neuer Technologiepfade konzipiert. Dieser Ansatz wird in vier Firmen für die Vorausschau und Planung neuer Technologien angewendet. Die untersuchten Technologien lassen sich den Feldern Biotechnologie, Nanotechnologie, Umwelttechnologie und Sensorik zuordnen. Zentrales Ergebnis der Arbeit ist ein entsprechend der Erfahrungen in den Unternehmen angepasster Ansatz für die Vorausschau und Planung neuer Technologiepfade. Dieser Ansatz ist in Abhängigkeit von Unternehmens- und Technologiecharakteristika für die weitere Anwendung konkretisiert. Dabei finden die zu beteiligenden Organisationseinheiten, zu betrachtende Einflussfaktoren sowie anwendbare Methoden besondere Berücksichtigung. Die Arbeit richtet sich an Personen in Führungspositionen im Bereich des strategischen Technologiemanagements sowie der Forschung und Entwicklung in Unternehmen, die Strategien für neu aufkommende Technologien entwickeln. Weiterhin sind die Ergebnisse der Arbeit für Wissenschaftler auf dem Gebiet der Methoden zur Vorausschau und Strategieentwicklung für neue Technologien von Interesse.
Resumo:
Die Bergregionen Japans leiden am Niedergang der regionalen Wirtschaft, des Sozialsystems und der Kultur. Dies wird im Zusammenhang mit dem Rückgang von Produktion und Verbrauch regionaler Ressourcen gesehen, der seit der Modernisierung und Globalisierung einsetzte. Durch das Sammeln und die Produktion von Ressourcen in der Landschaft und die Fertigung regionaler Produkte wird von den Bewohnern der Bergdörfer auch die Landschaft gepflegt. Seit die Nutzung von Ressourcen aus den Bergen allmählich aufgegeben wird, erobert sich die Wildnis den vom Menschen geprägten Lebensraum zurück. Sowohl in Mitteleuropa als auch in Japan gibt es Bewohner in Bergregionen, die weiterhin in ihrer Heimat bleiben möchten. Sie geben sich viel Mühe und betreiben großen Aufwand, ihre Landschaft zu pflegen und von ihr zu leben, was oft genug schwer fällt. Im Kontext der Rationalisierung der Moderne mögen sich ihre Beweggründe, trotzdem nicht fortzuziehen und auszuharren, als irrational ausmachen. Auf der anderen Seite stößt ihre kommunikative Lebensweise auch auf Sympathie und Bewunderung, und ihrer Arbeit für die Erhaltung der Landschaft wird eine gewisse Wertschätzung entgegengebracht. In dieser Forschungsarbeit wird die Hypothese aufgestellt, dass Landschaft, Produzent, Produkt und Verbraucher bei regionaler Ressourcennutzung über zwei Bedeutungsebenen der Ästhetik, nämlich durch „Kohärenz“ und „Sympathie“ miteinander verbunden sind. Es ist heute in der Regionalplanung erforderlich, die Themen mit regionaler Landschaft, Kultur, Sozialsystem und Wirtschaft, die bisher als einzelnen Aufgaben behandelt worden sind, zu bündeln und für die gesamte Entwicklung in eine Richtung zu zielen. Unter diesem Aspekt sind komplexe und sich selbst regulierende Entwicklungsmodelle nützlich, d.h. es ist dabei von Nutzen, dass Bürger sich selbst und ihrer Region bewusst werden und sie sich Raum für Entwicklung schaffen. Eine „Ästhetische Praxis“ kann dabei Produzenten untereinander und mit ihren Kunden in der Region mit „Sympathie“ aneinander binden, was zum Austausch und zur Weitergabe von Wissen über die regionale Natur mit ihren Ressourcen, die Naturanschauung und die innere Einstellung gegenüber der Produktion, auch über die Generationen hinweg, nützlich ist. Durch die „Sympathie“ zueinander erhöht sich auch die „Kohärenz“ in einer Region, werden die verschiedenen Interessensgruppen zusammengeführt, Gemeinsamkeiten erkannt und die Bindung an den Ort gestärkt.
Resumo:
Angesichts der Geschichte der Entwicklungspolitik, ist diese Arbeit darauf ausgerichtet, einige Beobachtungen in Bezug auf die so genannte Entwicklung hervorzuheben; insbesondere auf die andauernde prekäre Situation und Armut in ländlichen afrikanischen Gebieten. Armut ist nach Amartya SEN – weiter präzisiert von J.L. Dubois – die Deprivation von „Fähigkeiten“, die Individuen und lokale Gemeinschaften zu ausgeschlossenen und vergessenen Akteuren des Systems machen. Das nennt Paulo Freire, das Menschen zu „Objekten“ gemacht werden. Es rechtfertigt die starke Annahme, die in dieser Studie getroffen wird, dass vielmehr die Menschen als „Subjekte“ ihrer Veränderung und Entwicklung im Mittelpunkt stehen. Die Arbeit zeigt und erklärt in historischer Chronologie, wie die Entwicklungspolitiken und unterschiedliche Beteiligte auf allen Ebenen diese Situation verursachen. Trotz alledem bleiben die Individuen und lokalen Gemeinschaften, die in Symbiose mit ihrer natürlichen Umwelt leben, die reich an verschiedenen Ressourcen und Potentialen ist, als Reaktion darauf und gleichzeitig als Überlebensstrategie zutiefst verbunden mit dem, was sie vor Ort haben, womit sie eine tiefere und intensive Beziehung besitzen, wenn man von ihrer Geschichte, ihrer Kultur und der Handlungslogik ausgeht. Für externe Akteure, die sie über das vorhandene System dominieren und beeinflussen bleiben sie „Objekte“, aber in der Vielzahl ihrer endogenen Initiativen, zeigen sie die Fähigkeit und Substanz, die beweisen, dass sie auf ihrer Ebene das eigentliche Subjekt sind, die dynamischen Akteure. Aber isolierte Initiativen auf spezifische reale Bedürfnisse bei gleichzeitiger Dominierung durch das System mit seiner Marktlogik, führt dies langfristig nur zu dem Zirkulus Vitiosus der Armut. Daher ist eine ganzheitliche Sicht entscheidend für nachhaltige Entwicklung und für die notwendige Veränderung. Es geht nicht nur um die Veränderung des Systems und die Wahl politischer Maßnahmen, sondern genau genommen um das Verhalten der Akteure auf allen Ebenen und die Art der Beziehungen zwischen ihnen allen. Es ist eine Frage des erneuten Überdenkens des Entwicklungspfades, der andere Logik, Visionen, Interessen und Strategien aller Beteiligten, unserer so genannten Akteure einschließt. Ob dies von endogenen Initiativen oder neuen gemeinsamen Projekten ausgeht: man wird in einen Prozess kollektiven Lernens eintreten, den Paul Singer und Clarita Müller-Plantenberg erläutern und entwickeln in dem Konzept der Inkubation und Solidarischen Ökonomie, die Eigeninitiative, Selbstbestimmung und Selbstverwaltung von lokalen Gemeinschaften und die Öffnung für eine Neu-Konzeptualisierung und Institutionalisierung einschließt. So ein Prozess ist nur mit einem interdisziplinären Rahmen möglich. Dieser Rahmen soll auf einer zusätzlicher Kommunikation zwischen den Akteuren und Sozialwissenschaften beruhen und mit jenen, die auf dem Feld der Technologie arbeiten. So können dann technische „Experten“ angesichts eines technischen Projektfehlers, der aufgrund von bestimmten sozialen und kulturellen Realitäten zustande kam sagen, „es ist kein Scheitern ; es war ein Schritt innerhalb eines Lernprozesse der in die technischen Projekte und Studien einbezogen werden muss“. Wir haben das Energiethema gewählt; und insbesondere, Energie für eine nachhaltige ländliche Entwicklung in Subsahara-Afrika, um den Weg von der Theorie in die Praxis zu illustrieren und experimentell auszuprobieren, den Weg von den Beobachtungen zu der Veränderung, wobei Fragen, Annahmen, Strategien und konkrete Aktionen für den Wandel behandelt werden. Wir nennen unseren experimentellen Weg: DRIEE, das heißt auf Deutsch Ländliche Entwicklung und Inkubation von Energieunternehmen. Dabei gehen wir davon aus, dass: - Energie im Allgemeinen auf der internationalen Ebene fast gleichbedeutend mit Elektrizität ist. Heute bestehen die wichtigsten Bedürfnisse nach Energie dort wo die agro-pastorale Produktion, das Kochen, die Nahrungsmittelkonservierung und Verarbeitung …etc. stattfindet. - Diese ländliche Bevölkerung zu etwa 80% der nationalen Wirtschaft ausmacht. Dass sie gleichzeitig aber nur zu weniger als 5% der Energieproduktion Zugang hat, was oft auf Licht reduziert ist und nicht einmal ihrer Produktion zugute kommen kann. - Die Projekte für Energie und Elektrizität vor allem auf die Technologischen Fragen konzentriert sind und weniger auf die Bedürfnisse. Fast die Gesamtheit der Fonds für Energie wird in Bezug auf die Investitionen Infrastruktur der Produktion und Verteilung durch die konventionellen zentralisierten Netze geplant. Angesichts dieser Analysen gehen die in dieser Arbeit vorgenommenen Studien in Gambia und Kamerun von Bestandsaufnahmen und / oder beschreibenden regionalen Analysen aus: - von Bedürfnissen, von Praktiken und lokalen Initiativen von Fragen der Energie, für einzelne Professionen, Haushalte, Gruppen, spezifische Gruppen, wie Frauen, ländliche Gemeinden mit ihren spezifischen Charakteristika. - Von Potentialen: natürliche lokale Energieressourcen, soziokulturelle Ressourcen – so z.B. die empirisch feststellbaren menschliche Ressourcen wie endogenes Wissen und praktische organisatorische Fähigkeiten gegenüber den Problemen der Energie. Dieser experimentelle Schritt von Handlungsforschung (DRIEE) in Kamerun führte zu der Gründung einer Organisation, über die und mit der wir die Logik der Inkubation und Solidarischen Ökonomie einführen. Das ist FERDEDSI, das heißt auf Deutsch „Forum für Erneuerbare Energie – Nachhaltige Entwicklung und Internationale Solidarität“. Zunächst war dies eine Energiegenossenschaft und dann (im Prozess) wurde es zu einer institutionellen Nische von mehreren Mikro Initiativen in ländlichen Gebieten. FERDEDSI ist ein Prozess der Inkubation und ein Inkubator ist also gleichzeitig ein inkubiertes Energieunternehmen aber auch ein Inkubator für lokale Organisationen. Die ersten Aktionen finden in den Departments von Noun und Ménoua in der westlichen Provinz von Kamerun statt. Während der Forschungsperiode findet akademische Austausch statt (Nord-Süd und Süd-Süd), diese ist dabei zu formalen Partnerschaften zu werden, nicht nur zwischen Universitäten sondern genauer lokale Organisationen und Universitäten. Dieser letzte Typ von Partnerschaften, die die solidarische Ökonomie ausmachen ist auch eine Innovation des Prozesses für die afrikanischen Fälle, die dem Beispiel dessen, was in Lateinamerika geschieht, folgen. So kommt es zu gegenseitiger sinnvoller Ausbildung in den internationalen Arbeitsgruppen und Seminaren der Universität.
Resumo:
Weltweit leben mehr als 2 Milliarden Menschen in ländlichen Gebieten. Als Konzept für die elektrische Energieversorgung solcher Gebiete kommen dezentrale elektrische Energieversorgungseinheiten zum Einsatz, die lokal verfügbare erneuerbare Ressourcen nutzen. Stand der Technik bilden Einheiten, die auf PV-Diesel-Batterie System basieren. Die verwendeten Versorgungsskonzepte in Hybridsystemen sind durch den Einsatz von Batterien als Energiespeicher meist wenig zuverlässig und teuer. Diese Energiespeicher sind sehr aufwendig zu überwachen und schwerig zu entsorgen. Den Schwerpunkt dieser Arbeit bildet die Entwicklung eines neuen Hybridsystems mit einem Wasserreservoir als Energiespeicher. Dieses Konzept eignet sich für Bergregionen in Entwicklungsländern wie Nepal, wo z.B. neben der solaren Strahlung kleine Flüsse in großer Anzahl vorhanden sind. Das Hybridsystem verfügt über einen Synchrongenerator, der die Netzgrößen Frequenz und Spannung vorgibt und zusätzlich unterstützen PV und Windkraftanlage die Versorgung. Die Wasserkraftanlage soll den Anteil der erneuerbaren Energienutzung erhöhen. Die Erweiterung des Systems um ein Dieselaggregat soll die Zuverlässigkeit der Versorgung erhöhen. Das Hybridsystem inkl. der Batterien wird modelliert und simuliert. Anschließend werden die Simulations- und Messergebnisse verglichen, um eine Validierung des Modells zu erreichen. Die Regelungsstruktur ist aufgrund der hohen Anzahl an Systemen und Parametern sehr komplex. Sie wird mit dem Simulationstool Matlab/Simulink nachgebildet. Das Verhalten des Gesamtsystems wird unter verschiedene Lasten und unterschiedlichen meteorologischen Gegebenheiten untersucht. Ein weiterer Schwerpunkt dieser Arbeit ist die Entwicklung einer modularen Energiemanagementeinheit, die auf Basis der erneuerbaren Energieversorgung aufgebaut wird. Dabei stellt die Netzfrequenz eine wichtige Eingangsgröße für die Regelung dar. Sie gibt über die Wirkleistungsstatik die Leistungsänderung im Netz wider. Über diese Angabe und die meteorologischen Daten kann eine optimale wirtschaftliche Aufteilung der Energieversorgung berechnet und eine zuverlässige Versorgung gewährleistet werden. Abschließend wurde die entwickelte Energiemanagementeinheit hardwaretechnisch aufgebaut, sowie Sensoren, Anzeige- und Eingabeeinheit in die Hardware integriert. Die Algorithmen werden in einer höheren Programmiersprache umgesetzt. Die Simulationen unter verschiedenen meteorologischen und netztechnischen Gegebenheiten mit dem entwickelten Model eines Hybridsystems für die elektrische Energieversorgung haben gezeigt, dass das verwendete Konzept mit einem Wasserreservoir als Energiespeicher ökologisch und ökonomisch eine geeignete Lösung für Entwicklungsländer sein kann. Die hardwaretechnische Umsetzung des entwickelten Modells einer Energiemanagementeinheit hat seine sichere Funktion bei der praktischen Anwendung in einem Hybridsystem bestätigen können.