980 resultados para Ziel der Geschichte
Resumo:
Ziel der vorliegenden Arbeit war es, Lebensmittelqualität am Beispiel von Speisequark aus hofeigener und industrieller Verarbeitung mit natur- und kulturwissenschaftlichen Methoden zu erfassen bzw. zu betrachten. Das Neue dieser interdisziplinären Arbeit lag in der Entwicklung von Verbindungen zwischen hedonischen/sensorischen, ökologischen und kulturellen Qualitäten von Speisequark. Im zweiten Teil der Arbeit wurde eine sensorische Schulung für die hofeigene Milchverarbeitung entwickelt und erprobt, um die Ergebnisse dieser Arbeit in die Praxis umzusetzen. Zuerst musste ein theoretischer Ansatz entwickelt werden, der die Esshandlungen der Verbraucher als Integrationsmoment von objektiven, subjektiven und sozial-kulturellen Qualitäten betrachtet. Bei diesem handlungstheoretischen Ansatz galt es, die Trennung zwischen objektiven und subjektiven Qualitäten zu überwinden, indem über Esshandlungen der Verbraucher integrierte Verbindungen zwischen hedonischen/sensorischen, ökologischen und kulturellen Qualitäten am Beispiel von Speisequark entwickelt wurden. Als empirische Grundlage wurde erstens die sensorische Qualität mit Profilprüfungen erfasst. Zweitens wurde die ökologische Qualität mit einer Verbraucherumfrage und Conjoint-Analyse und drittens die kulturelle Qualität mit einer semiotischen Analyse betrachtet. Die diskursiven Begründungen des Esshandelns, die in ermittelnden Gruppendiskussionen qualitativ erhoben wurden, zeigten deutlich, dass diese drei Qualitäten des Hofquarks untrennbar miteinander verbunden sind. Der komplexe Begriff authentisch, mit dem die Verbraucher Hofquark charakterisierten, beinhaltete vor allem den Geschmack, aber auch die damit verbundene handwerkliche Herstellungsweise, die Verpackung, die regionale Herkunft und die ökologische Anbauweise. Hofquark ist aus Verbrauchersicht ein gutes Lebensmittel, das seine besondere Bedeutung (kulturellen Wert) auch dadurch erhält, was es nicht ist, nämlich ein industrielles Molkereiprodukt. Der neue natur- und kulturwissenschaftliche Ansatz dieser Arbeit stellt gleichzeitig ein Plädoyer für eine mehrdimensionale Qualitätsbetrachtung von Lebensmitteln dar. Aus interdisziplinärer Sicht besteht hierzu noch ein großer Forschungsbedarf.
Resumo:
Ziel der vorliegenden Arbeit ist das Studium des Einflusses mineralischer Stoffe bei dem Vergasungsprozess von Biomasse um Grundlagen zur Verbesserung der Technologie mit experimentellen Methoden zu schaffen. Als Katalysator wird der mineralische Anteil oder Asche, Dolomit und Braunkohlenkoks den Kaffeeschalen, Ölpalmschalen oder Buchenholz zu gemischt. Als Vergasungsmittel wird Wasserdampf benutzt. Als experimentellen Anlagen werden eine Thermowaage und ein Drehrohrreaktor eingesetzt. Zur Vergasung im Drehrohrreaktor wurden Versuche mit Gemischen aus Dolomit und Buchenholz durchgeführt. Variierte Versuchsparameter waren der Massestrom, die Wasserdampfkonzentration, die Temperatur, der Kalzinierungsgrad des Dolomits, die Kontaktzeit zwischen Gas und Partikeln und die Verweilzeit. Durch die Variation des Massestroms wurden unterschiedliche Schütthöhen erreicht, wodurch das Verhältnis zwischen aktiver und passiver Zone in der Schüttung verändert wird. Die Prozessvariablen wurden so eingestellt, dass längs der Reaktorlänge als Bewegungsformen Stürzen, Stürzen-Gleiten und diskontinuierliches Gleiten auftreten. Zur Variation der Kontaktzeit zwischen den Partikeln und der Gas-Atmosphäre wurde ein Einbau mit sechs ebenen Wendeblechen durchgeführt. Die Ergebnisse der Versuche belegen, dass der katalytische Einfluss des Dolomits einen bedeutenden Effekt bei der Verminderung der Teerbeladung der Produkte hat. Die Wendebleche führten zu einer Steigerung der Gaserzeugung unter bedeutender Verminderung des Teergehalts, besonders in Anwesenheit von Dolomit. In der gegenwärtigen Untersuchung wurde die neuronale Netz-Methode benutzt, um die Beziehungen zwischen den Variabeln, die den Prozess beeinflussen, zu analysieren.
Resumo:
Am Beginn des 21. Jahrhundert gilt die ökologische Krise nach wie vor als ein existenzgefährdendes Problem der Menschheit. Schelling war vor nahezu 200 Jahren der erste und in dieser Entschiedenheit der einzige Denker, der auf die Bedrohung aufmerksam gemacht hat, die von einer Absolutsetzung der menschlichen Subjektivität ausgeht. Es ist das Ziel der genannten Schrift, Grundidee und -struktur der Naturphilosophie Schellings zu analysieren und die Überwindungsmöglichkeit der ökologischen Krise im Ausgang seiner Naturphilosophie zu finden. Mit Schellings Konzept der Natur als Subjekt könnte die Frage nach der Überwindungsmöglichkeit der ökologischen Krise und dem von der Philosophie hier zu leistenden Beitrag präzisiert werden. Deshalb ist das Hauptanliegen dieser Untersuchung, ob Schellings Konzept eine Alternative zu unserem heutigen Naturverständnis sein kann. Angesichts dieser neuen Fragestellung und der mit ihr verbundenen Aufgabe, einen prinzipiell anderen Begriff von Natur zu gewinnen, sind seine frühen naturphilosophischen Schriften für die in der Arbeit anvisierte Fragestellung besonders aufschlussreich und dienen daher auch als Quelle und Grundlage für die folgende Untersuchung. Die genannte Schrift gliedert sich in vier Kapitel. Im ersten Kapitel wird das Absolute als Zentralprinzip der Schellingschen Philosophie erörtert. Die Kontinuität seiner ganzen Philosophie beruht auf dem Prinzip des Absoluten. Im zweiten Kapitel werden die Anfänge der Schellingschen Naturphilosophie untersucht. Zuerst wird Kants Kritik der Urteilskraft als Vorstudien zu Schellings Begriff einer sich selbst organisierenden und hervorbringenden Natur herausgearbeitet. Und dann wird dargelegt, wie Schelling seine Naturkonzeption in der Auseinandersetzung mit Fichte aus grundsätzlichen philosophischen Überlegungen ableitet. Im dritten Kapitel stehen Grundidee und -struktur der früheren Naturphilosophie Schellings im Zentrum der Analyse. Vor allem setze ich mich unter Berücksichtigung seiner organisch-ganzheitlichen Naturauffassung mit dem Verständnis von Natur als Subjekt und Produktivität ausführlich auseinander, um die Überwindungsmöglichkeit der ökologischen Krise zu bedenken. Schellings Einwand gegen die mechanistische Naturauffassung erklärt sich aus seinem Begriff der Natur als Subjekt. Dieser Begriff hängt unmittelbar mit der Idee der Natur als Organismus zusammen. Die Natur ist ein sich selbst organisierendes Ganzes und ihre dynamische Enzwicklung vollzieht sich durch ihre eigenen Potenzen. Das vierte Kapitel setzt sich mit der Kernfrage auseinander, welche Bedeutung Schellings Naturphilosophie für die Überwindung der ökologischen Krise hat und wie die vermeintliche Aktualität seiner Naturphilosophie zu erklären ist. Hier wird Schellings Naturphilosophie im Sinne eines Rezeptes gegen die ökologische Krise als der Versuch der Begründung eines anderen Naturbegriffs und einer neuen Natur-Ethik interpretiert.
Resumo:
Das Ziel der vorliegenden Arbeit war die Synthese und Charakterisierung von donor-funktionalisierten Spiro-Perylencarboximiden, welche für den Einsatz in optoelektronischen Bauelementen wie z.B. organischen Phototransistoren, Feldeffekttransistoren oder Solarzellen vorgesehen sind. Die donorfunktionalisierten Spiro-Perylencarboximide stellen kovalent gebundene Donor-Akzeptor-Verbindungen dar, die unter geeigneter Belichtung einen ladungsgetrennten Zustand bilden können. Die Verbindungen wurden aus unterschiedlichen Spiroamin- und Perylenanhydrid-Edukten synthetisiert, die im Baukastenprinzip zu den entsprechenden Zielverbindungen umgesetzt wurden. Mittels unterschiedlicher Charakterisierungsmethoden (z.B. DSC, TGA, CV, Absorptions- und Fluoreszenzmessungen) wurden die Eigenschaften der neuartigen Zielverbindungen untersucht. Im Rahmen der Arbeit wurden vier neue Spiroamin-Edukte erstmalig synthetisiert und charakterisiert. Sie wurden durch Reduktion aus den bisher noch nicht beschriebenen Nitroverbindungen bzw. mittels Pd-katalysierter Kreuzkupplung (Hartwig-Buchwald-Reaktion) aus einer halogenierten Spiroverbindung erhalten. Als Perylenanhydrid-Edukt wurde erstmals eine perfluorierte Perylenanhydrid-Imid-Verbindung hergestellt. Aus den Spiroamin- und Perylenanhydrid-Edukten wurden insgesamt neun neue, donorfunktionalisierte Spiro-Perylencarboximide synthetisiert. Zusätzlich wurden sechs neuartige Spiro-Perylencarboximide ohne Diphenylamin-Donor hergestellt, die als Vergleichsverbindungen dienten. Die donorfunktionalisierten Spiro-Perylencarboximide besitzen eine Absorption im UV- und sichtbaren Spektralbereich, wobei hohe Extinktionskoeffizienten erreicht werden. Die Verbindungen zeigen in verdünnter Lösung (sowohl in polaren als auch in unpolaren Lösungsmitteln) eine Fluoreszenzquantenausbeute unter 1 %, was auf einen effizienten Ladungstransfer zurückzuführen ist. Alle donorfunktionalisierten Spiro-Perylencarboximide zeigen in den CV-Messungen reversibles Verhalten. Mittels CV-Messungen und optischer Methode konnten die HOMO- und LUMO-Lagen der jeweiligen Molekülhälften berechnet und das Fluoreszenzverhalten der Verbindungen erklärt werden. Ebenso konnten die Auswirkungen von unterschiedlichen Substituenten auf die jeweiligen HOMO-/LUMO-Lagen näher untersucht werden. Die durchgeführten DSC- und TGA-Untersuchungen zeigen hohe morphologische und thermische Stabilität der Verbindungen, wobei Glasübergangstemperaturen > 211 °C, Schmelztemperaturen > 388 °C und Zersetzungstemperaturen > 453 °C gemessen wurden. Diese Werte sind höher als die bisher in der Literatur für ähnliche spiroverknüpfte Verbindungen berichteten. Als besonders interessant haben sich die unsymmetrischen donorfunktionalisierten Spiro-Perylencarboximide herausgestellt. Sie zeigen hohe Löslichkeit in gängigen Lösungsmitteln, sind bis zu einer Molmasse < 1227 g/mol aufdampfbar und bilden stabile, amorphe Schichten.
Resumo:
Die ubiquitäre Datenverarbeitung ist ein attraktives Forschungsgebiet des vergangenen und aktuellen Jahrzehnts. Es handelt von unaufdringlicher Unterstützung von Menschen in ihren alltäglichen Aufgaben durch Rechner. Diese Unterstützung wird durch die Allgegenwärtigkeit von Rechnern ermöglicht die sich spontan zu verteilten Kommunikationsnetzwerken zusammen finden, um Informationen auszutauschen und zu verarbeiten. Umgebende Intelligenz ist eine Anwendung der ubiquitären Datenverarbeitung und eine strategische Forschungsrichtung der Information Society Technology der Europäischen Union. Das Ziel der umbebenden Intelligenz ist komfortableres und sichereres Leben. Verteilte Kommunikationsnetzwerke für die ubiquitäre Datenverarbeitung charakterisieren sich durch Heterogenität der verwendeten Rechner. Diese reichen von Kleinstrechnern, eingebettet in Gegenstände des täglichen Gebrauchs, bis hin zu leistungsfähigen Großrechnern. Die Rechner verbinden sich spontan über kabellose Netzwerktechnologien wie wireless local area networks (WLAN), Bluetooth, oder UMTS. Die Heterogenität verkompliziert die Entwicklung und den Aufbau von verteilten Kommunikationsnetzwerken. Middleware ist eine Software Technologie um Komplexität durch Abstraktion zu einer homogenen Schicht zu reduzieren. Middleware bietet eine einheitliche Sicht auf die durch sie abstrahierten Ressourcen, Funktionalitäten, und Rechner. Verteilte Kommunikationsnetzwerke für die ubiquitäre Datenverarbeitung sind durch die spontane Verbindung von Rechnern gekennzeichnet. Klassische Middleware geht davon aus, dass Rechner dauerhaft miteinander in Kommunikationsbeziehungen stehen. Das Konzept der dienstorienterten Architektur ermöglicht die Entwicklung von Middleware die auch spontane Verbindungen zwischen Rechnern erlaubt. Die Funktionalität von Middleware ist dabei durch Dienste realisiert, die unabhängige Software-Einheiten darstellen. Das Wireless World Research Forum beschreibt Dienste die zukünftige Middleware beinhalten sollte. Diese Dienste werden von einer Ausführungsumgebung beherbergt. Jedoch gibt es noch keine Definitionen wie sich eine solche Ausführungsumgebung ausprägen und welchen Funktionsumfang sie haben muss. Diese Arbeit trägt zu Aspekten der Middleware-Entwicklung für verteilte Kommunikationsnetzwerke in der ubiquitären Datenverarbeitung bei. Der Schwerpunkt liegt auf Middleware und Grundlagentechnologien. Die Beiträge liegen als Konzepte und Ideen für die Entwicklung von Middleware vor. Sie decken die Bereiche Dienstfindung, Dienstaktualisierung, sowie Verträge zwischen Diensten ab. Sie sind in einem Rahmenwerk bereit gestellt, welches auf die Entwicklung von Middleware optimiert ist. Dieses Rahmenwerk, Framework for Applications in Mobile Environments (FAME²) genannt, beinhaltet Richtlinien, eine Definition einer Ausführungsumgebung, sowie Unterstützung für verschiedene Zugriffskontrollmechanismen um Middleware vor unerlaubter Benutzung zu schützen. Das Leistungsspektrum der Ausführungsumgebung von FAME² umfasst: • minimale Ressourcenbenutzung, um auch auf Rechnern mit wenigen Ressourcen, wie z.B. Mobiltelefone und Kleinstrechnern, nutzbar zu sein • Unterstützung für die Anpassung von Middleware durch Änderung der enthaltenen Dienste während die Middleware ausgeführt wird • eine offene Schnittstelle um praktisch jede existierende Lösung für das Finden von Diensten zu verwenden • und eine Möglichkeit der Aktualisierung von Diensten zu deren Laufzeit um damit Fehlerbereinigende, optimierende, und anpassende Wartungsarbeiten an Diensten durchführen zu können Eine begleitende Arbeit ist das Extensible Constraint Framework (ECF), welches Design by Contract (DbC) im Rahmen von FAME² nutzbar macht. DbC ist eine Technologie um Verträge zwischen Diensten zu formulieren und damit die Qualität von Software zu erhöhen. ECF erlaubt das aushandeln sowie die Optimierung von solchen Verträgen.
Resumo:
Objektorientierte Modellierung (OOM) im Unterricht ist immer noch ein breit diskutiertes Thema - in der Didaktik akzeptiert und gewünscht, von der Praxis oft als unnötiger Overhead oder als schlicht zu komplex empfunden. Ich werde in dieser Arbeit zeigen, wie ein Unterrichtskonzept aufgebaut sein kann, das die lerntheoretischen Vorteile der OOM nutzt und dabei die berichteten Schwierigkeiten größtenteils vermeidet. Ausgehend von den in der Literatur dokumentierten Konzepten zur OOM und ihren Kritikpunkten habe ich ein Unterrichtskonzept entwickelt, das aus Erkenntnissen der Lernpsychologie, allgemeiner Didaktik, Fachdidaktik und auch der Softwaretechnik Unterrichtsmethoden herleitet, um den berichteten Schwierigkeiten wie z.B. dem "Lernen auf Vorrat" zu begegnen. Mein Konzept folgt vier Leitideen: models first, strictly objects first, Nachvollziehbarkeit und Ausführbarkeit. Die strikte Umsetzung dieser Ideen führte zu einem Unterrichtskonzept, das einerseits von Beginn an das Ziel der Modellierung berücksichtigt und oft von der dynamischen Sicht des Problems ausgeht. Da es weitgehend auf der grafischen Modellierungsebene verbleibt, werden viele Probleme eines Programmierkurses vermieden und dennoch entstehen als Ergebnis der Modellierung ausführbare Programme.
Resumo:
Die Verordnung des Europäischen Rates (EC) 834/2007 erkennt das Recht des Konsumenten auf eine Entscheidung basierend auf vollständiger Information bezüglich der enthaltenen Zutaten im Produkt und deren Herkunft (Qualität der Verarbeitung). Die primäre Kennzeichnungsverordnung betont „organische“ Produktionsstandards ebenso wie die Notwendigkeit zur Kontrolle und Aufsicht. Jedoch ist zurzeit keine validierte Methode zur analytischen Diskriminierung zwischen „organischer“ und „konventioneller“ Herkunft von angebotenen Lebensmitteln verfügbar. Das Ziel der Dissertationsarbeit war die Überprüfung der Möglichkeit mit ausgewählten analytischen und holistischen Methoden zwischen organisch und konventionell angebautem Weizen objektiv zu unterscheiden. Dies beinhaltete die Bestimmung des Gesamtstickstoff (Protein) nach Dumas, zweidimensionale Fluoreszenzdifferenz Gelelektrophorese (2D DIGE) und die Kupferchloridkristallisation. Zusätzlich wurde die Anzahl der Körner pro Ähre (Kornzahl) bestimmt. Alle Bestimmungen wurden an rückverfolgbaren in den Jahren 2005 – 2007 in Belgien gesammelten Proben des Winterweizen (Triticum aestivum L. cv. Cubus) durchgeführt. Statistisch signifikante (p < 0.05) Unterschiede wurden innerhalb der untersuchten Probengruppen sowohl in der Kornzahl, dem Gesamtsticksoff (Eiweißgehalt), als auch in der Gesamtausbeute gefunden, wobei in den meisten Fällen die konventionellen Proben höhere Kornzahlen und Gesamtsticksoff (Eiweißgehalte) aufwiesen. Eine mit der 2D DIGE kompatible Probenvorbereitungsmethode für Winterweizen wurde entwickelt und auf einen internen Winterweizenstandard sowie die entsprechenden Proben angewendet. Die organischen Proben waren im Vergleich mit den konventionellen Gegenstücken in allen Fällen durch eine kleinere Anzahl von signifikant (p < 0.05) stärker exprimierten Proteinspots gekennzeichnet. Gewisse Tendenzen in Richtung der Bevorzugung bestimmter Regionen von stärker ausgeprägten Proteinspots auf aufeinanderfolgenden 2D Abbildungen in Abhängigkeit von der landwirtschaftlichen Methode konnten zwar beobachtet werden, jedoch konnte kein universelles Markerprotein zur Unterscheidung von konventionell und biologisch angebautem Winterweizen identifiziert werden. Die rechnergestützte Verarbeitung der digitalisierten Kristallisierungsbilder mittels multivariater statistischer Analyse und der Regression partieller kleinster Quadrate ermöglichte eine 100%ig korrekte Vorhersage der landwirtschaftlichen Methode unbekannter Proben sowie der Beschreibung der Kristallisierungsbilder. Diese Vorhersage bezieht sich nur auf den hier verwendeten Datensatz (Proben einer Sorte von drei Standorten über zwei Jahre) und kann nicht ohne weiteres übertragen (generalisiert) werden. Die Ergebnisse deuten an, dass die Quantifizierung der beschriebenen Parameter ein hohes Potential zur Lösung der gestellten Aufgabe besitzt.
Resumo:
Der Aufsatz behandelt das methodologische Prinzip der Viabilität, das ein Prinzip der sprachhistorischen Adäquatheit darstellt. Nach diesem Prinzip muss jede linguistische Beschreibung (bzw. Erklärung) mit der Beschreibung (bzw. Erklärung) der Geschichte des zu beschreibenden (bzw. zu erklärenden) Phänomens konform sein. Bezogen auf grammatische Strukturen: Die Beschreibung (bzw. Erklärung) einer aktuellen Struktur ist viabel, wenn sie sich in die Beschreibung (bzw. Erklärung) der Geschichte der Struktur fügt. Exemplifiziert wird das Prinzip an der Serialisierung im Verbalkomplex.
Resumo:
Angesichts der Geschichte der Entwicklungspolitik, ist diese Arbeit darauf ausgerichtet, einige Beobachtungen in Bezug auf die so genannte Entwicklung hervorzuheben; insbesondere auf die andauernde prekäre Situation und Armut in ländlichen afrikanischen Gebieten. Armut ist nach Amartya SEN – weiter präzisiert von J.L. Dubois – die Deprivation von „Fähigkeiten“, die Individuen und lokale Gemeinschaften zu ausgeschlossenen und vergessenen Akteuren des Systems machen. Das nennt Paulo Freire, das Menschen zu „Objekten“ gemacht werden. Es rechtfertigt die starke Annahme, die in dieser Studie getroffen wird, dass vielmehr die Menschen als „Subjekte“ ihrer Veränderung und Entwicklung im Mittelpunkt stehen. Die Arbeit zeigt und erklärt in historischer Chronologie, wie die Entwicklungspolitiken und unterschiedliche Beteiligte auf allen Ebenen diese Situation verursachen. Trotz alledem bleiben die Individuen und lokalen Gemeinschaften, die in Symbiose mit ihrer natürlichen Umwelt leben, die reich an verschiedenen Ressourcen und Potentialen ist, als Reaktion darauf und gleichzeitig als Überlebensstrategie zutiefst verbunden mit dem, was sie vor Ort haben, womit sie eine tiefere und intensive Beziehung besitzen, wenn man von ihrer Geschichte, ihrer Kultur und der Handlungslogik ausgeht. Für externe Akteure, die sie über das vorhandene System dominieren und beeinflussen bleiben sie „Objekte“, aber in der Vielzahl ihrer endogenen Initiativen, zeigen sie die Fähigkeit und Substanz, die beweisen, dass sie auf ihrer Ebene das eigentliche Subjekt sind, die dynamischen Akteure. Aber isolierte Initiativen auf spezifische reale Bedürfnisse bei gleichzeitiger Dominierung durch das System mit seiner Marktlogik, führt dies langfristig nur zu dem Zirkulus Vitiosus der Armut. Daher ist eine ganzheitliche Sicht entscheidend für nachhaltige Entwicklung und für die notwendige Veränderung. Es geht nicht nur um die Veränderung des Systems und die Wahl politischer Maßnahmen, sondern genau genommen um das Verhalten der Akteure auf allen Ebenen und die Art der Beziehungen zwischen ihnen allen. Es ist eine Frage des erneuten Überdenkens des Entwicklungspfades, der andere Logik, Visionen, Interessen und Strategien aller Beteiligten, unserer so genannten Akteure einschließt. Ob dies von endogenen Initiativen oder neuen gemeinsamen Projekten ausgeht: man wird in einen Prozess kollektiven Lernens eintreten, den Paul Singer und Clarita Müller-Plantenberg erläutern und entwickeln in dem Konzept der Inkubation und Solidarischen Ökonomie, die Eigeninitiative, Selbstbestimmung und Selbstverwaltung von lokalen Gemeinschaften und die Öffnung für eine Neu-Konzeptualisierung und Institutionalisierung einschließt. So ein Prozess ist nur mit einem interdisziplinären Rahmen möglich. Dieser Rahmen soll auf einer zusätzlicher Kommunikation zwischen den Akteuren und Sozialwissenschaften beruhen und mit jenen, die auf dem Feld der Technologie arbeiten. So können dann technische „Experten“ angesichts eines technischen Projektfehlers, der aufgrund von bestimmten sozialen und kulturellen Realitäten zustande kam sagen, „es ist kein Scheitern ; es war ein Schritt innerhalb eines Lernprozesse der in die technischen Projekte und Studien einbezogen werden muss“. Wir haben das Energiethema gewählt; und insbesondere, Energie für eine nachhaltige ländliche Entwicklung in Subsahara-Afrika, um den Weg von der Theorie in die Praxis zu illustrieren und experimentell auszuprobieren, den Weg von den Beobachtungen zu der Veränderung, wobei Fragen, Annahmen, Strategien und konkrete Aktionen für den Wandel behandelt werden. Wir nennen unseren experimentellen Weg: DRIEE, das heißt auf Deutsch Ländliche Entwicklung und Inkubation von Energieunternehmen. Dabei gehen wir davon aus, dass: - Energie im Allgemeinen auf der internationalen Ebene fast gleichbedeutend mit Elektrizität ist. Heute bestehen die wichtigsten Bedürfnisse nach Energie dort wo die agro-pastorale Produktion, das Kochen, die Nahrungsmittelkonservierung und Verarbeitung …etc. stattfindet. - Diese ländliche Bevölkerung zu etwa 80% der nationalen Wirtschaft ausmacht. Dass sie gleichzeitig aber nur zu weniger als 5% der Energieproduktion Zugang hat, was oft auf Licht reduziert ist und nicht einmal ihrer Produktion zugute kommen kann. - Die Projekte für Energie und Elektrizität vor allem auf die Technologischen Fragen konzentriert sind und weniger auf die Bedürfnisse. Fast die Gesamtheit der Fonds für Energie wird in Bezug auf die Investitionen Infrastruktur der Produktion und Verteilung durch die konventionellen zentralisierten Netze geplant. Angesichts dieser Analysen gehen die in dieser Arbeit vorgenommenen Studien in Gambia und Kamerun von Bestandsaufnahmen und / oder beschreibenden regionalen Analysen aus: - von Bedürfnissen, von Praktiken und lokalen Initiativen von Fragen der Energie, für einzelne Professionen, Haushalte, Gruppen, spezifische Gruppen, wie Frauen, ländliche Gemeinden mit ihren spezifischen Charakteristika. - Von Potentialen: natürliche lokale Energieressourcen, soziokulturelle Ressourcen – so z.B. die empirisch feststellbaren menschliche Ressourcen wie endogenes Wissen und praktische organisatorische Fähigkeiten gegenüber den Problemen der Energie. Dieser experimentelle Schritt von Handlungsforschung (DRIEE) in Kamerun führte zu der Gründung einer Organisation, über die und mit der wir die Logik der Inkubation und Solidarischen Ökonomie einführen. Das ist FERDEDSI, das heißt auf Deutsch „Forum für Erneuerbare Energie – Nachhaltige Entwicklung und Internationale Solidarität“. Zunächst war dies eine Energiegenossenschaft und dann (im Prozess) wurde es zu einer institutionellen Nische von mehreren Mikro Initiativen in ländlichen Gebieten. FERDEDSI ist ein Prozess der Inkubation und ein Inkubator ist also gleichzeitig ein inkubiertes Energieunternehmen aber auch ein Inkubator für lokale Organisationen. Die ersten Aktionen finden in den Departments von Noun und Ménoua in der westlichen Provinz von Kamerun statt. Während der Forschungsperiode findet akademische Austausch statt (Nord-Süd und Süd-Süd), diese ist dabei zu formalen Partnerschaften zu werden, nicht nur zwischen Universitäten sondern genauer lokale Organisationen und Universitäten. Dieser letzte Typ von Partnerschaften, die die solidarische Ökonomie ausmachen ist auch eine Innovation des Prozesses für die afrikanischen Fälle, die dem Beispiel dessen, was in Lateinamerika geschieht, folgen. So kommt es zu gegenseitiger sinnvoller Ausbildung in den internationalen Arbeitsgruppen und Seminaren der Universität.
Resumo:
The oil price rises more and more, and the world energy consumption is projected to expand by 50 percent from 2005 to 2030. Nowadays intensive research is focused on the development of alternative energies. Among them, there are dye-sensitized nanocrystalline solar cells (DSSCs) “the third generation solar cells”. The latter have gained attention during the last decade and are currently subject of intense research in the framework of renewable energies as a low-cost photovoltaic. At present DSSCs with ruthenium based dyes exhibit highest efficiencies (ca 11%). The objective of the present work is to fabricate, characterize and improve the performance of DSSCs based on metal free dyes as sensitizers, especially on perylene derivatives. The work begins by a general introduction to the photovoltaics and dye-sensitized solar cells, such as the operating principles and the characteristics of the DSSCs. Chapter 2 and 3 discuss the state of the art of sensitizers used in DSSCs, present the compounds used as sensitizer in the present work and illustrate practical issues of experimental techniques and device preparation. A comparative study of electrolyte-DSSCs based on P1, P4, P7, P8, P9, and P10 are presented in chapter 4. Experimental results show that the dye structure plays a crucial role in the performance of the devices. The dye based on the spiro-concept (bipolar spiro compound) exhibited a higher efficiency than the non-spiro compounds. The presence of tert-butylpyridine as additive in the electrolyte was found to increase the open circuit voltage and simultaneously decrease the efficiency. The presence of lithium ions in the electrolyte increases both output current and the efficiency. The sensitivity of the dye to cations contained in the electrolyte was investigated in the chapter 5. FT-IR and UV-Vis were used to investigate the in-situ coordination of the cation to the adsorbed dye in the working devices. The open-circuit voltage was found to depend on the number of coordination sites in the dye. P1 with most coordination sites has shown the lowest potential drop, opposite to P7, which is less sensitive to cations in the working cells. A strategy to improve the dye adsorption onto the TiO2 surface, and thus the light harvesting efficiency of the photoanode by UV treatment, is presented in chapter 6. The treatment of the TiO2 film with UV light generates hydroxyl groups and renders the TiO2 surface more and more hydrophilic. The treated TiO2 surface reacts readily with the acid anhydride group of the dye that acts as an anchoring group and improves the dye adsorption. The short-circuit current density and the efficiency of the electrolyte-based dye cells was considerably improved by the UV treatment of the TiO2 film. Solid-state dye-sensitized solar cells (SSDs) based on spiro-MeOTAD (used as hole transport material) are studied in chapter 7. The efficiency of SSDs was globally found to be lower than that of electrolyte-based solar cells. That was due to poor pore filling of the dye-loaded TiO2 film by the spin-coated spiro-MeOTAD and to the significantly slower charge transport in the spiro-MeOTAD compared to the electrolyte redox mediator. However, the presence of the donor moieties in P1 that are structurally similar to spiro-MeOTAD was found to improve the wettability of the P1-loaded TiO2 film. As a consequence the performance of the P1-based solid-state cells is better compared to the cells based on non-spiro compounds.
Resumo:
Die Bedeutung des Dienstgüte-Managements (SLM) im Bereich von Unternehmensanwendungen steigt mit der zunehmenden Kritikalität von IT-gestützten Prozessen für den Erfolg einzelner Unternehmen. Traditionell werden zur Implementierung eines wirksamen SLMs Monitoringprozesse in hierarchischen Managementumgebungen etabliert, die einen Administrator bei der notwendigen Rekonfiguration von Systemen unterstützen. Auf aktuelle, hochdynamische Softwarearchitekturen sind diese hierarchischen Ansätze jedoch nur sehr eingeschränkt anwendbar. Ein Beispiel dafür sind dienstorientierte Architekturen (SOA), bei denen die Geschäftsfunktionalität durch das Zusammenspiel einzelner, voneinander unabhängiger Dienste auf Basis deskriptiver Workflow-Beschreibungen modelliert wird. Dadurch ergibt sich eine hohe Laufzeitdynamik der gesamten Architektur. Für das SLM ist insbesondere die dezentrale Struktur einer SOA mit unterschiedlichen administrativen Zuständigkeiten für einzelne Teilsysteme problematisch, da regelnde Eingriffe zum einen durch die Kapselung der Implementierung einzelner Dienste und zum anderen durch das Fehlen einer zentralen Kontrollinstanz nur sehr eingeschränkt möglich sind. Die vorliegende Arbeit definiert die Architektur eines SLM-Systems für SOA-Umgebungen, in dem autonome Management-Komponenten kooperieren, um übergeordnete Dienstgüteziele zu erfüllen: Mithilfe von Selbst-Management-Technologien wird zunächst eine Automatisierung des Dienstgüte-Managements auf Ebene einzelner Dienste erreicht. Die autonomen Management-Komponenten dieser Dienste können dann mithilfe von Selbstorganisationsmechanismen übergreifende Ziele zur Optimierung von Dienstgüteverhalten und Ressourcennutzung verfolgen. Für das SLM auf Ebene von SOA Workflows müssen temporär dienstübergreifende Kooperationen zur Erfüllung von Dienstgüteanforderungen etabliert werden, die sich damit auch über mehrere administrative Domänen erstrecken können. Eine solche zeitlich begrenzte Kooperation autonomer Teilsysteme kann sinnvoll nur dezentral erfolgen, da die jeweiligen Kooperationspartner im Vorfeld nicht bekannt sind und – je nach Lebensdauer einzelner Workflows – zur Laufzeit beteiligte Komponenten ausgetauscht werden können. In der Arbeit wird ein Verfahren zur Koordination autonomer Management-Komponenten mit dem Ziel der Optimierung von Antwortzeiten auf Workflow-Ebene entwickelt: Management-Komponenten können durch Übertragung von Antwortzeitanteilen untereinander ihre individuellen Ziele straffen oder lockern, ohne dass das Gesamtantwortzeitziel dadurch verändert wird. Die Übertragung von Antwortzeitanteilen wird mithilfe eines Auktionsverfahrens realisiert. Technische Grundlage der Kooperation bildet ein Gruppenkommunikationsmechanismus. Weiterhin werden in Bezug auf die Nutzung geteilter, virtualisierter Ressourcen konkurrierende Dienste entsprechend geschäftlicher Ziele priorisiert. Im Rahmen der praktischen Umsetzung wird die Realisierung zentraler Architekturelemente und der entwickelten Verfahren zur Selbstorganisation beispielhaft für das SLM konkreter Komponenten vorgestellt. Zur Untersuchung der Management-Kooperation in größeren Szenarien wird ein hybrider Simulationsansatz verwendet. Im Rahmen der Evaluation werden Untersuchungen zur Skalierbarkeit des Ansatzes durchgeführt. Schwerpunkt ist hierbei die Betrachtung eines Systems aus kooperierenden Management-Komponenten, insbesondere im Hinblick auf den Kommunikationsaufwand. Die Evaluation zeigt, dass ein dienstübergreifendes, autonomes Performance-Management in SOA-Umgebungen möglich ist. Die Ergebnisse legen nahe, dass der entwickelte Ansatz auch in großen Umgebungen erfolgreich angewendet werden kann.
Resumo:
Die Erforschung posttranslationaler Veränderungen von Chromatin-Komponenten stellt einen wichtigen Pfeiler der Epigenetik dar. Epigenetische Mechanismen verändern die Aussagekraft der DNA-Sequenz und entscheiden somit beispielsweise über die Aktivierung oder Stilllegung von Genen. Ein häufiges Ziel der Stilllegung sind springende genetische Elemente, die ansonsten zur Destabilisierung des Genoms führen können. Im Rahmen dieser Arbeit wurden zwei unterschiedliche Stilllegungsmechanismen der Transpo-sons DIRS-1 und Skipper aus Dictyostelium discoideum untersucht. Dabei konnte gezeigt werden, auf welche Weise die RNA-Interferenz (RNAi) zur Zerstörung des DIRS-1 Transkripts führt und dass die Ursache dafür in der Promotor-Aktivität des Elements selbst liegt. Eine überraschende Erkenntnis konnte auch für das zweite Element gewonnen werden. Experimente legen nahe, dass die in der kodierenden Skipper-Sequenz gefundene Chromo-Domäne zu einer gezielten Integration des Elements in bereits stillgelegte heterochromatische Bereiche führt. Diese zeichnen sich vor allem durch eine spezielle posttranslationale Histon-Modifikation, der Methylierung von Lysin 9 des Histons H3 (H3K9), aus. Während zu der Methylierung von H3K9 bereits Arbeiten erschienen sind, war ein Großteil der anderen in Dictyostelium discoideum kodierten Histon-Modifikationen bislang unbekannt. Mit Hilfe der Massenspektrometrie konnte erstmalig eine umfassende Karte der veränderten Aminosäuren erstellt werden. Dabei konnten neue, bislang für keinen Organismus beschriebene Modifikationsziele identifiziert werden. Weitere lassen durch einen Vergleich mit Modellorganismen wie Hefe und Fruchtfliege Schlüsse auf die Evolution des Histon-Codes zu. Die erstellte Karte kann in Zukunft Forschern als Grundlage dienen, um weitergehende Fragestellungen in Bezug auf die Funktionen der hier vorgestellten Modifikationen zu erforschen. Ein weiteres Ergebnis dieser Arbeit stellt die Charakterisierung posttranslationaler Veränderungen des an H3K9 bindenden Heterochromatin-Proteins 1 (HP1) dar. Neben einer ersten Analyse der in Dictyostelium discoideum vorhandenen Modifikationen der beiden Homologe HcpA und HcpB, wurde auch die Funktion der in der Chromoshadow-Domäne lokalisierten Acetylierung erforscht. Hierbei konnte gezeigt werden, dass ein Fehlen des veränderten Lysins zu einem deutlichen Phänotyp in der Sporenform und im Wachstum der Zellen führt. Als Ursache dafür konnte eine Veränderung in der Fähigkeit zur Gen-Stilllegung durch das mutierte HP1-Protein nachgewiesen werden. Dies gelang mit Hilfe eines dafür etablierten Reporters auf Basis des Gal4/UAS-Systems aus der Fruchtfliege und beweist erstmalig die Funktion einer Acetylierung der HP1-Proteine.
Resumo:
Die Arbeit beschäftigt sich mit didaktischen Aspekten einer neuen Aufgabenkultur und mit ihrem Kern, den Modellierungsaufgaben. Im ersten Teil der Dissertation wird ein Überblick über ausgewählte Theorien und empirische Ergebnisse aus den Bereichen Lehr-Lernforschung, Problemlöseforschung, kognitive Psychologie sowie Allgemeindidaktik und den Fachdidaktiken gegeben. Es zeigt sich, dass Schüler-Schwierigkeiten und Schüler-Strategien eine bedeutende Rolle für den Lernprozess spielen, jedoch bei den Modellierungsaufgaben nicht ausreichend erforscht sind. Ziel der vorliegenden Arbeit ist es, Schüler-Schwierigkeiten und -Strategien bei der Bearbeitung von Modellierungsaufgaben empirisch zu erfassen, mit kognitiven Lern- und Problemlösetheorien zu verbinden und erste Bausteine einer Didaktik der Aufgabenkultur zu entwerfen. Drei zentrale Fragestellungen sind dabei: 1. Welche Schwierigkeiten haben Schüler beim Bearbeiten von Modellierungsaufgaben? 2. Welche Strategien wenden sie bei der Aufgabenbearbeitung an? 3. Welche didaktischen Konsequenzen können aufgrund der Antworten auf die erste und zweite Frage für die Didaktik der neuen Aufgabenkultur gezogen werden? Die Analyse der Bearbeitung von drei Modellierungsaufgaben durch vier Neuntklässler unterschiedlicher Kompetenzstufen (12 Fälle) mit Hilfe der Grounded Theory erfolgte hypothesenorientiert und erbrachte folgende Ergebnisse: Die Schüler-Schwierigkeiten bei der Bearbeitung der Modellierungsaufgaben lassen sich in drei Tätigkeitsbereiche aufschlüsseln: (1) die Aufgabe lesen und verstehen, (2) den Zusammenhang zwischen Gegebenheiten der Situation und mathematischer Lösungsstruktur verstehen sowie (3) Umformung mathematischer Strukturen, Ausführung der Rechenoperationen und Interpretieren der Ergebnisse. In den genannten Tätigkeitsbereichen wurden jeweils erfolgversprechende Strategien wie z.B. die Organisationsstrategie „Zeichnen und Beschriften einer Skizze“, die kooperative Strategie „Wechsel zwischen individueller Konstruktion und kooperativer Ko-Konstruktion“ oder die metakognitive Strategie „Planung“ identifiziert und ihre Ausführung dokumentiert. Aus den empirischen Analysen lässt sich eine Reihe von wichtigen Stichpunkten nennen, die einen bedeutsamen Bestandteil der Didaktik einer neuen Aufgabenkultur bilden. Wichtige Stichworte dazu sind die Einbettung der Aufgaben in Lernumgebungen, der Einbezug kooperativer Strategien, ein neues Verständnis von Lehrerinterventionen, das Diagnose und lernbegleitende Unterstützung stärker akzentuiert, Selbstregulierung und Individualisierung, Problem- und Lernprozessorientierung im Unterricht. Wird der letzte Punkt genau analysiert, zeigt sich, dass es zur erfolgreichen Lernprozessgestaltung notwendig ist, längerfristig die Zielperspektive, unter der die Schüler Aufgaben bearbeiten, zu verändern. Beim Bearbeiten der Aufgaben sollen Schülerhandlungen, statt sich nur auf die Lösung einer Aufgabe zu beschränken, auf den individuellen Erwerb von Wissen, Kompetenzen und Strategien ausgerichtet werden (Prozess-Ergebnis-Orientierung). Erreicht werden soll die Prozess-Ergebnis-Orientierung durch eine bessere strategische Durcharbeitung des Unterrichts, der gleichermaßen das Ausschöpfen des Potentials für die Selbststeuerung des Lernens bei den Schülern sowie die dafür notwendige Weiterentwicklung des diagnostischen und unterstützenden Handelns von Lehrerinnen und Lehrern betont.