998 resultados para Analytische Methoden


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die vorliegende Arbeit macht Vorschläge zur Einbindung der Öffentlichkeit in Planungsbestrebungen vor Ort, wobei vor allem Methoden empirischer Sozialforschung und deren Anwendbarkeit in landschaftsplanerischen Vorhaben näher betrachtet werden. Hiermit finden insbesondere Wertezuweisungen durch die Bürger stärkere Berücksichtigung. Es wird angenommen, dass, um eine zukunftsweisende Landschaftsplanung zu etablieren, Planer und Fachleute lernen müssen, wie die lokale Bevölkerung ihre Umwelt wahrnimmt und empfindet und welche Ideen sie für die zukünftige Entwicklung der Landschaft haben. Als empirische Grundlage werden Fallstudien aus Bad Soden am Taunus, Hamburg-Wilhelmsburg und Kassel-Rothenditmold präsentiert und verglichen. Rothenditmold und Wilhelmsburg zeichnen sich durch hohe Einwohneranteile mit Migrationshintergrund aus, weisen relativ hohe Arbeitslosenquoten auf und sind als soziale Brennpunkte bekannt – zumindest für Außenstehende. Beide Stadtteile versuchen ihr Image aufzuwerten. In Wilhelmsburg wird dieses Vorhaben in die großräumigen Veränderungen eingebunden, die von verschiedenen Hamburger Großprojekten ausstrahlen. In Rothenditmold ist vor allem Eigeninitiative durch den Stadtteil selbst gefragt. In Bad Soden gibt es ebenfalls viele Menschen mit ausländischen Wurzeln. Sie gehören allerdings mehrheitlich der gesellschaftlichen Mittel- und Oberschicht an. Bad Soden verfügt über ein insgesamt positives Image, das aller kulturellen Veränderungen zum Trotz beibehalten werden soll. Entsprechende Initiativen gehen hier ebenfalls von der Gemeinde selbst aus. An allen Standorten hat es drastische Landschaftsveränderungen und speziell deren Erscheinung gegeben. Bad Soden und Wilhelmsburg haben dabei Teile ihres vormals ländlichen Charakters zu bewahren, während in Rothenditmold vor allem Zeugnisse aus der Zeit der Industrialisierung erhalten sind und den Ort prägen. Die Landschaften haben jeweils ihre einzigartigen Erscheinungen. Zumindest Teile der Landschaften ermöglichen eine Identifikation, sind attraktiv und liefern gute Erholungsmöglichkeiten. Um diese Qualitäten zu bewahren, müssen sie entsprechend gepflegt und weiter entwickelt werden. Dazu sind die Interessen und Wünsche der Bewohner zu ermitteln und in Planungen einzuarbeiten. Die Arbeit strebt einen Beitrag zur Lebensraumentwicklung für und mit Menschen an, die mittels ausgewählter Methoden der empirischen Sozialforschung eingebunden werden. Dabei wird gezeigt, dass die vorgestellten und erprobten Methoden sinnvoll in Projekte der Landschaftsplanung eingebunden werden können. Mit ihnen können ergänzende Erkenntnisse zum jeweiligen Landschaftsraum gewonnen werden, da sie helfen, die kollektive Wahrnehmung der Landschaft durch die Bevölkerung zu erfassen, um sie anschließend in Planungsentwürfe einbinden zu können. Mit der Untersuchung wird in den drei vorgestellten Fallstudien exemplarisch erfasst, welche Elemente der Landschaft für die Bewohner von besonderer Bedeutung sind. Darüber hinaus lernen Planer, welche Methoden zur Ermittlung emotionaler Landschaftswerte verfügbar sind und auf welcher Ebene der Landschaftsplanung sowie bei welchen Zielgruppen sie eingesetzt werden können. Durch die Verknüpfung landschaftsplanerischer Erfassungsmethoden mit Methoden der empirischen Sozialwissenschaft (Fragebogen, Interviews, „Spaziergangsinterviews“, gemeinsame Erarbeitung von Projekten bis zur Umsetzung) sowie der Möglichkeit zur Rückkoppelung landschaftsplaneri-scher Entwürfe mit der Bevölkerung wird eine Optimierung dieser Entwürfe sowohl im Sinne der Planer als auch im Sinne der Bürger erreicht. Zusätzlich wird die Wahrnehmung teilnehmender Bevölkerung für ihre Umwelt geschärft, da sie aufgefordert wird, sich mit ihrer Lebensumgebung bewusst auseinander zu setzen. Die Ergebnisse dieser Untersuchung sind Beitrag und Beleg zu der Annahme, dass ergänzende Methoden in der Landschaftsplanung zur stärkeren Interessenberücksichtigung der von Planung betroffenen Menschen benötigt werden. Zudem zeigen die Studien auf, wie man dem planungsethischen Anspruch, die Öffentlichkeit einzubeziehen, näher kommt. Resultat sind eine bessere Bewertung und Akzeptanz der Planungen und das nicht nur aus landschaftsplanerisch-fachlicher Sicht. Landschaftsplaner sollten ein Interesse daran haben, dass ihre Entwürfe ernst genommen und akzeptiert werden. Das schaffen sie, wenn sie der Bevölkerung nicht etwas aufplanen, sondern ihnen entsprechende Einflussmöglichkeiten bieten und Landschaft mit ihnen gemeinsam entwickeln.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In der Dissertation wird der Frage nachgegangen, welche globalen bildungspolitischen Maßnahmen erforderlich sind, um auch bislang exkludierten Menschen den Kompetenzerwerb zu ermöglichen, der benötigt wird, eine positive User Experience in benutzergenerierten, digitalen Lernumgebungen auszubilden, damit sie an der modernen Weltgesellschaft selbstbestimmt teilhaben können. Zu diesem Zweck wurden Castells ‘Netzwerkgesellschaft’ und Csikszentmihalys ‘Theorie der optimalen Erfahrung’ als analytische Grundlagen zur Einordnung der sozialen Netzwerk-Aktivitäten herangezogen. Dies ermöglichte es, unter Rückgriff auf aktuelle Lerntheorien, Kompetenzdebatten, ökonomische Analysen des Bildungssystems und User Experience-Forschungen, einige individuelle und gesamtgesellschaftliche Voraussetzungen abzuleiten, um in der Netzwerkgesellschaft konstruktiv überleben zu können. Mit Blick auf unterschiedliche sozio-kulturelle Bedingungen für persönlichen Flow im ‘space of flows’ liessen sich schließlich differenzierte Flow-Kriterien entwickeln, die als Grundlage für die Operationalisierung im Rahmen einer Real-Time Delphi (RTD)-Studie mit einem internationalen Expertinnen-Panel dienen konnten. Ziel war es, bildungspolitische Ansatzpunkte zu finden, den bislang Exkludierten bis zum Jahre 2020 erste Rahmenbedingungen zu bieten, damit sie potentiell teilhaben können an der Gestaltung der zukünftigen Netzwerkgesellschaft. Das Ergebnis der Expertinnen-Befragung wurde unter Rückgriff auf aktuelle Global und Educational Governance-Studien und das Einflusspotenzial der Zivilgesellschaft auf den Digital Divide reflektiert. Vor diesem Hintergrund konnten abschließend vier bildungspolitische Verlaufsszenarien entworfen werden, die es ermöglichen könnten, bis 2020 die Kluft zu den global Exkludierten wenigstens etwas zu schließen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In der vorliegenden Arbeit wurde eine LC-IRMS Methode zur aminozucker-spezifischen δ13C-Analyse in Pflanzenmaterialien optimiert und etabliert, um die Bildung und den Umsatz von mikrobiellen Residuen in Boden- und Pflanzenmaterialien mit hoher Genauigkeit erfassen zu können. Weiterhin wurde mit der etablierten Methode ein Pilzwachstumsexperiment durchgeführt. Der Fokus dieser Arbeit lag jedoch auf der Methodenentwicklung. Ziel des ersten Artikels war es eine HPLC-Umkehrphasen-Methode zur simultanen Bestimmung von Muraminsäure, Mannosamin, Galaktosamin und Glucosamin so hingehend zu verbessern, dass an verschieden HPLC-Systemen zuverlässige Ergebnisse für alle vier Aminozucker in Boden- und Pflanzenhydrolysaten erhalten werden. Dafür wurde zunächst die mobile Phase optimiert. So wurde der Tetrahydrofurananteil erhöht, was kürzere Retentionszeiten und eine bessere Trennung zwischen Muraminsäure und Mannosamin zur Folge hatte. Weiterhin wurde ein höheres Signal durch das Herabsetzen der Extinktionswellenlänge und der Anpassung der OPA-Derivatisierungsreaktionszeit erzielt. Nach Optimierung der genannten Parameter erfolgte die Validierung der Methode. Für Muraminsäure wurde eine Bestimmungsgrenze (LOQ) von 0,5 µmol l-1 was 0,13 µg ml -1 entspricht und für die drei anderen Aminozucker 5,0 µmol l-1 (entspricht 0,90 µg ml)erhalten. Weiterhin wurden Wasser und Phosphatpuffer als Probenlösungsmittel getestet, um den Einfluss des pH-Wertes auf die OPA-Reaktion zu testen. Zur aminozucker-spezifischen δ13C–Analyse am IRMS ist eine HPLC-Methode mit einer kohlenstofffreien mobilen Phase notwendig, andernfalls kann aufgrund des hohen Hintergrundrauschens kein vernünftiges Signal mehr detektiert werden. Da die im ersten Artikel beschriebene Umkehrphasenmethode einen kohlenstoffhaltigen Eluenten enthält, musste eine ebenso zuverlässige Methode, die jedoch keine organische Lösungsmittel benötigt, getestet und mit der schon etablierten Methode verglichen werden. Es gibt eine Reihe von HPLC-Methoden, die ohne organische Lösungsmittel auskommen, wie z. B. (1) Hochleistungsanionenaustauschchromatographie (HPAEC), (2) Hochleistungskationenaustauschchromatographie (HPCEC) und (3) die Hochleistungsanionenausschlusschromatographie (HPEXC). Ziele des zweiten Artikels waren (1) eine zuverlässige Purifikations- und Konzentrierungsmethode für Aminozucker in HCl-Hydrolysaten und (2) eine optimale HPLC-Methode zu finden. Es wurden fünf Aufarbeitungsmethoden zur Purifikation und Konzentrierung der Probenhydrolysate und vier HPLC-Methoden getestet. Schlussfolgernd kann zusammengefasst werden, dass für Detektoren mit geringer Empfindlichkeit (z.B. IRMS) eine Konzentrierung und Purifikation insbesondere von Muraminsäure über ein Kationenaustauscherharz sinnvoll ist. Eine Basislinientrennung für alle Aminozucker war nur mit der HPAEC möglich. Da mit dieser Methode gute Validierungsdaten erzielt wurden und die Aminozuckergehalte mit der Umkehrphasenmethode vergleichbar waren, stellt die HPAEC die Methode der Wahl zur aminozucker-spezifischen δ13C–Analyse am IRMS dar. Der dritte Artikel befasst sich mit der Optimierung der aminozucker-spezifischen δ13C–Analyse mittels HPAEC-IRMS in Pflanzenhydrolysaten sowie mit der Bestimmung des Umsatzes von saprotrophen Pilzen in verschieden Substraten. Die in der Literatur beschriebene HPAEC-IRMS- Methode ist für die aminozucker-spezifische δ13C–Analyse in Bodenhydrolysaten jedoch nicht in Pflanzenhydrolysaten geeignet. In Pflanzenhydrolysaten wird der Glucosaminpeak von Peaks aus der Matrix interferiert. Folglich war das erste Ziel dieses Artikels, die Methode so zu optimieren, dass eine aminozucker-spezifische δ13C–Analyse in Pflanzenhydrolysaten möglich ist. Weiterhin sollten mit der optimierten HPAEC-IRMS-Methode die Bildung und der Umsatz von saprotrophen Pilzen bestimmt werden. Durch Erhöhung der Säulentemperatur und durch Herabsetzung der NaOH-Konzentration konnte eine Basislinientrennung erzielt werden. Die Validierungsparameter waren gut und die bestimmten Aminozuckergehalte waren mit der Umkehrphasen-HPLC-Methode vergleichbar. Zur Bestimmung der Bildung und des Umsatzes von saprotrophen Pilzen auf verschiedenen Substraten wurden Lentinula edodes P., Pleurotus ostreatus K. und Pleurotus citrinopileatus S. auf Mais-Holz- und auf Weizen-Holz-Substrat für vier Wochen bei 24 °C kultiviert. Dieser Pilzwachstumsversuch zeigte, dass 80% des neu gebildeten pilzlichen Glucusamins maisbürtig und nicht holzbürtig waren. Weiterhin wurde der bevorzugte Abbau von Maissubstrat im Vergleich zu Weizensubstrat an diesem Versuch verdeutlicht. Außerdem lassen die Ergebnisse darauf schließen, dass die beobachtete zunehmende δ13C Anreicherung in dem neu gebildeten pilzlichen Glucosamin während der vier Wochen auf die Inkorporation des angereichten 13C aus dem Substrat und eher weniger auf kinetische Isotopeneffekte zurückzuführen ist.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Diese Arbeit befasst sich mit der Modellbildung mechatronischer Systeme mit Reibung. Geeignete dynamische Modelle sind die Grundlage für verschiedenste Aufgabenstellungen. Sind dynamische Prozessmodelle verfügbar, so können leistungsfähige modellbasierte Entwurfsmethoden angewendet werden sowie modellbasierte Anwendungen entwickelt werden. Allerdings ist der Aufwand für die Modellbildung ein beschränkender Faktor für eine weite Verbreitung modellbasierter Applikationen in der Praxis. Eine Automatisierung des Modellbildungsprozesses ist deshalb von großem Interesse. Die vorliegende Arbeit stellt für die Klasse „mechatronischer Systeme mit Reibung“ drei Modellierungsmethoden vor: semi-physikalische Modellierung, Sliding-Mode-Beobachter-basierte Modellierung und empirische Modellierung mit einem stückweise affinen (PWA) Modellansatz. Zum Ersten wird die semi-physikalische Modellierung behandelt. Gegenüber anderen Verfahren, die häufig umfangreiche Vorkenntnisse und aufwändige Experimente erfordern, haben diese neuen Verfahren den Vorteil, dass die Modellierung von Systemen mit Reibung selbst bei begrenzten Vorkenntnissen und minimalem Experimentaufwand automatisiert werden kann. Zum Zweiten wird ein neuer Ansatz zur Reibkraftrekonstruktion und Reibmodellierung mittels Sliding-Mode-Beobachter präsentiert. Durch Verwendung des vorgestellten Sliding-Mode- Beobachters, der basierend auf einem einfachen linearen Zustandsraummodell entworfen wird, lässt sich die Reibung datengetrieben aus den Ein-/Ausgangsmessdaten (im offenen Regelkreis) rekonstruieren und modellieren. Im Vergleich zu anderen Reibmodellierungsmethoden, die häufig umfangreiche Vorkenntnisse und aufwändige Messungen im geschlossenen Regelkreis erfordern, haben diese neuen Verfahren den Vorteil, dass die Modellierung von Systemen mit Reibung selbst bei begrenzten Vorkenntnissen und minimalem Experimentaufwand weitgehend automatisiert werden kann. Zum Dritten wird ein PWA-Modellierungsansatz mit einer clusterungsbasierten Identifikationsmethode für Systeme mit Reibung vorgestellt. In dieser Methode werden die Merkmale in Hinblick auf Reibeffekte ausgewählt. Und zwar wird der klassische c-Means-Algorithmus verwendet, welcher bedienfreundlich, effizient und geeignet für große und reale Datensätze ist. Im Gegensatz zu anderen Methoden sind bei dieser Methode nur wenige Entwurfsparameter einzustellen und sie ist für reale Systeme mit Reibung einfach anwendbar. Eine weitere Neuheit der vorgestellten PWA-Methode liegt darin, dass die Kombination der Clustervaliditätsmaße und Modellprädiktionsfehler zur Festlegung der Anzahl der Teilmodelle benutzt wird. Weiterhin optimiert die vorgestellte Methode die Parameter der lokalen Teilmodelle mit der OE (Output-Fehler)-Schätzmethode. Als Anwendungsbeispiele werden Drosselklappen, Drallklappen und AGR-Ventile (Abgasrückführventil) im Dieselfahrzeug betrachtet und die erzeugten Modelle werden in der industriellen HiL-Simulation eingesetzt. Aufgrund der Effizienz und Effektivität der Modellierungsmethoden sind die vorgestellten Methoden direkt in der automobilen Praxis einsetzbar.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In dieser Arbeit ist die zentrale Frage, warum dicistronische mRNAs, eine für Eukaryoten untypische Organisation, existieren und wie die Translation des zweiten offenen Leserasters initiiert wird. In sieben von neun anfänglich ausgewählten Genkassetten werden tatsächlich nur dicistronische und keine monocistronischen Transkripte gebildet. Im Laufe der Evolution scheint diese Organisation nicht immer erhalten zu bleiben - es finden sich Hinweise für einen operonartigen Aufbau. Nach Transformation mit einem dicistronischen Reporterkonstrukt und in in vitro Translations-Assays weisen die beiden Genkassetten CG31311 und CG33009 eine interne ribosomale Eintrittstelle (IRES) auf, welche die Translation des zweiten Cistrons einleiten kann. Diese beiden IRESs lassen sich in einen Bereich von unter 100 nt eingrenzen. Die Funktionalität der beiden nachgewiesenen IRESs konnte in vivo in der männlichen Keimbahn von Drosophila bestätigt werden, nachdem das Vorhandensein von kryptischen Promotoren in diesen Bereichen ausgeschlossen wurde. Die anderen fünf Genkassetten hingegen zeigen keine IRES-Aktivität und nutzen wahrscheinlich alternative Methoden wie das leaky scanning oder ribosomal shunting zur Translation des zweiten Cistrons. In weiterführenden Analysen wurden sehr komplexe Expressionsmuster beobachtet, die nicht offensichtlich mit der beschriebenen mRNA Organisation in Einklang zu bringen sind. Bei der Genkassette CG33009 zum Beispiel wird das erste Protein während der gesamten Spermatogenese in den Keimzellen synthetisiert, wohingegen das zweite IRES-abhängig translatierte Protein in den die Keimzellen umschließenden Cystenzellen und zusätzlich in den elongierten Spermatiden auftritt. Diese zusätzliche Expression könnte auf Transportprozessen oder Neusynthese beruhen. Die Cystenzell-spezische Expression eines Fusionskonstruktes führte jedoch nicht zum Nachweis des Fusionsproteins in den Keimzellen. Somit ist eine durch die IRES-vermittelte Neusynthese in den elongierten Spermatiden wahrscheinlicher. Ein Verlust dieses IRES-abhängig translatierten Proteins in den Cystenzellen bringt die Spermatogenese zum Erliegen und belegt somit dessen essentielle Funktion. Bei der Genkassette CG31311 kommt es auch zu einer bemerkenswerten Auffälligkeit in der Expression. Während im Hodengewebe große Mengen an Transkript vorhanden sind, die aber nicht zu nachweisbaren Mengen an Protein führen, lässt sich in den Ommatidien ein differenziertes Expressionsmuster für beide Proteine dokumentieren, obwohl die Transkriptmenge hier unterhalb der Nachweisgrenze liegt. Diese Beobachtung suggeriert eine drastische Kontrolle auf Translationsebene, die für das Hodengewebe zum Beispiel in einer Verzögerung der Translation bis nach der Befruchtung bestehen könnte (paternale mRNA). Erste Ansätze zeigen die Interaktion der IRES von CG33009 mit RNA-bindenden Proteinen, potentiellen ITAFs (IRES trans-acting factors), deren Bindung sequenzspezisch erfolgt. In weiteren Experimenten wäre zu testen, ob die hier identifizierten IRESs mit den gleichen oder mit unterschiedlichen Proteinen interagieren.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Untersuchung des dynamischen aeroelastischen Stabilitätsverhaltens von Flugzeugen erfordert sehr komplexe Rechenmodelle, welche die wesentlichen elastomechanischen und instationären aerodynamischen Eigenschaften der Konstruktion wiedergeben sollen. Bei der Modellbildung müssen einerseits Vereinfachungen und Idealisierungen im Rahmen der Anwendung der Finite Elemente Methode und der aerodynamischen Theorie vorgenommen werden, deren Auswirkungen auf das Simulationsergebnis zu bewerten sind. Andererseits können die strukturdynamischen Kenngrößen durch den Standschwingungsversuch identifiziert werden, wobei die Ergebnisse Messungenauigkeiten enthalten. Für eine robuste Flatteruntersuchung müssen die identifizierten Unwägbarkeiten in allen Prozessschritten über die Festlegung von unteren und oberen Schranken konservativ ermittelt werden, um für alle Flugzustände eine ausreichende Flatterstabilität sicherzustellen. Zu diesem Zweck wird in der vorliegenden Arbeit ein Rechenverfahren entwickelt, welches die klassische Flatteranalyse mit den Methoden der Fuzzy- und Intervallarithmetik verbindet. Dabei werden die Flatterbewegungsgleichungen als parameterabhängiges nichtlineares Eigenwertproblem formuliert. Die Änderung der komplexen Eigenlösung infolge eines veränderlichen Einflussparameters wird mit der Methode der numerischen Fortsetzung ausgehend von der nominalen Startlösung verfolgt. Ein modifizierter Newton-Iterations-Algorithmus kommt zur Anwendung. Als Ergebnis liegen die berechneten aeroelastischen Dämpfungs- und Frequenzverläufe in Abhängigkeit von der Fluggeschwindigkeit mit Unschärfebändern vor.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Diese Arbeit thematisiert die optimierte Darstellung von organischen Mikro- und Nanodrähten, Untersuchungen bezüglich deren molekularen Aufbaus und die anwendungsorientierte Charakterisierung der Eigenschaften. Mikro- und Nanodrähte haben in den letzten Jahren im Zuge der Miniaturisierung von Technologien an weitreichendem Interesse gewonnen. Solche eindimensionalen Strukturen, deren Durchmesser im Bereich weniger zehn Nanometer bis zu einigen wenigen Mikrometern liegt, sind Gegenstand intensiver Forschung. Neben anorganischen Ausgangssubstanzen zur Erzeugung von Mikro- und Nanodrähten haben organische Funktionsmaterialien aufgrund ihrer einfachen und kostengünstigen Verarbeitbarkeit sowie ihrer interessanten elektrischen und optischen Eigenschaften an Bedeutung gewonnen. Eine wichtige Materialklasse ist in diesem Zusammenhang die Verbindungsklasse der n-halbleitenden Perylentetracarbonsäurediimide (kurz Perylendiimide). Dem erfolgreichen Einsatz von eindimensionalen Strukturen als miniaturisierte Bausteine geht die optimierte und kontrollierte Herstellung voraus. Im Rahmen der Doktorarbeit wurde die neue Methode der Drahterzeugung „Trocknen unter Lösungsmittelatmosphäre“ entwickelt, welche auf Selbstassemblierung der Substanzmoleküle aus Lösung basiert und unter dem Einfluss von Lösungsmitteldampf direkt auf einem vorgegebenen Substrat stattfindet. Im Gegensatz zu literaturbekannten Methoden ist kein Transfer der Drähte aus einem Reaktionsgefäß nötig und damit verbundene Beschädigungen der Strukturen werden vermieden. Während herkömmliche Methoden in einer unkontrolliert großen Menge von ineinander verwundenen Drähten resultieren, erlaubt die substratbasierte Technik die Bildung voneinander separierter Einzelfasern und somit beispielsweise den Einsatz in Einzelstrukturbauteilen. Die erhaltenen Fasern sind morphologisch sehr gleichmäßig und weisen bei Längen von bis zu 5 mm bemerkenswert hohe Aspektverhältnisse von über 10000 auf. Darüber hinaus kann durch das direkte Drahtwachstum auf dem Substrat über den Einsatz von vorstrukturierten Oberflächen und Wachstumsmasken gerichtetes, lokal beschränktes Drahtwachstum erzielt werden und damit aktive Kontrolle auf Richtung und Wachstumsbereich der makroskopisch nicht handhabbaren Objekte ausgeübt werden. Um das Drahtwachstum auch hinsichtlich der Materialauswahl, d. h. der eingesetzten Ausgangsmaterialien zur Drahterzeugung und somit der resultierenden Eigenschaften der gebildeten Strukturen aktiv kontrollieren zu können, wird der Einfluss unterschiedlicher Parameter auf die Morphologie der Selbstassemblierungsprodukte am Beispiel unterschiedlicher Derivate betrachtet. So stellt sich zum einen die Art der eingesetzten Lösungsmittel in flüssiger und gasförmiger Phase beim Trocknen unter Lösungsmittelatmosphäre als wichtiger Faktor heraus. Beide Lösungsmittel dienen als Interaktionspartner für die Moleküle des funktionellen Drahtmaterials im Selbstassemblierungsprozess. Spezifische Wechselwirkungen zwischen Perylendiimid-Molekülen untereinander und mit Lösungsmittel-Molekülen bestimmen dabei die äußere Form der erhaltenen Strukturen. Ein weiterer wichtiger Faktor ist die Molekülstruktur des verwendeten funktionellen Perylendiimids. Es wird der Einfluss einer Bay-Substitution bzw. einer unsymmetrischen Imid-Substitution auf die Morphologie der erhaltenen Strukturen herausgestellt. Für das detaillierte Verständnis des Zusammenhanges zwischen Molekülstruktur und nötigen Wachstumsbedingungen für die Bildung von eindimensionalen Strukturen zum einen, aber auch die resultierenden Eigenschaften der erhaltenen Aggregationsprodukte zum anderen, sind Informationen über den molekularen Aufbau von großer Bedeutung. Im Rahmen der Doktorarbeit konnte ein molekular hoch geordneter, kristalliner Aufbau der Drähte nachgewiesen werden. Durch Kombination unterschiedlicher Messmethoden ist es gelungen, die molekulare Anordnung in Strukturen aus einem Spirobifluoren-substituierten Derivat in Form einer verkippten Molekülstapelung entlang der Drahtlängsrichtung zu bestimmen. Um mögliche Anwendungsbereiche der erzeugten Drähte aufzuzeigen, wurden diese hinsichtlich ihrer elektrischen und optischen Eigenschaften analysiert. Neben dem potentiellen Einsatz im Bereich von Filteranwendungen und Sensoren, sind vor allem die halbleitenden und optisch wellenleitenden Eigenschaften hervorzuheben. Es konnten organische Transistoren auf der Basis von Einzeldrähten mit im Vergleich zu Dünnschichtbauteilen erhöhten Ladungsträgerbeweglichkeiten präpariert werden. Darüber hinaus wurden die erzeugten eindimensionalen Strukturen als aktive optische Wellenleiter charakterisiert. Die im Rahmen der Dissertation erarbeiteten Kenntnisse bezüglich der Bildung von eindimensionalen Strukturen durch Selbstassemblierung, des Drahtaufbaus und erster anwendungsorientierter Charakterisierung stellen eine Basis zur Weiterentwicklung solcher miniaturisierter Bausteine für unterschiedlichste Anwendungen dar. Die neu entwickelte Methode des Trocknens unter Lösungsmittelatmosphäre ist nicht auf den Einsatz von Perylendiimiden beschränkt, sondern kann auf andere Substanzklassen ausgeweitet werden. Dies eröffnet breite Möglichkeiten der Materialauswahl und somit der Einsatzmöglichkeiten der erhaltenen Strukturen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In der vorliegenden Dissertation wurden kreuzkonjugierte organische Verbindungen basierend auf Diazafluorenmethyliden- sowie Dipyridylmethyliden-Bausteinen synthetisiert, die zum einen photoredoxaktive Metallfragmente komplexieren können und zum anderen erweiterte π-konjugierte Pfade auf der Grundlage von Alkineinheiten ermöglichen. Das kreuzkonjugierte Motiv wurde über die Kupplung von Alkineinheiten an halogenierte Methyliden-Einheiten, den so genannten Dibromolefinen, zugänglich gemacht. Zur Synthese von Dibromolefinen wurden verschiedene Methoden untersucht. Literaturbekannte Methoden wie die Wittig-Reaktion und ihre Modifikationen sowie die Corey-Fuchs-Reaktion konnten für die Diazafluoreneinheit nicht erfolgreich angewendet werden. Bei einer mikrowellenunterstützten Reaktion konnte sowohl ausgehend von Diazafluoren-9-on als auch von Di-2-pyridylketon eine Dibromolefinierung (55 % und 65 %) erreicht werden. Die Eignung der Mikrowellenstrahlung für Dibromolefinierungsreaktionen nach Corey und Fuchs wurde weiterhin an verschiedenen Aldehyden und Ketonen untersucht. In den meisten Fällen konnten gute bis sehr gute Ergebnisse erzielt werden. Durch die erfolgreiche Synthese von Dibromolefinen über Mikrowellensynthese wurde die Realisierung von diversen π-konjugierten Systemen möglich. Dies erfolgte exemplarisch durch die Kupplung der Alkine 5-Ethinyl-2,2’-bipyridin, 1-(Ferrocenylethinyl)-4-(ethinyl)benzol, Tri(tolyl)propin sowie der TIPS- und TMS-Acetylene. Neben der Vielfalt an Möglichkeiten zur Funktionalisierung von Dipyridyl- und Diazafluorenbausteinen zeigte sich zudem, dass sogar räumlich anspruchsvolle Verbindungen wie die geminale angeordneten voluminösen Tri(tolyl)propinyl-Substituenten an der Doppelbindung erfolgreich synthetisiert werden können. Die Koordinationseigenschaften der neu synthetisierten Verbindungen konnten durch Umsetzungen der Diazafluoren- und Dipyridylverbindungen mit PdCl2 und [RuCl2(bpy)2] erfolgreich gezeigt werden. Im Hinblick auf die Herstellung von Funktionsmaterialien eignen sich die Endiin-Strukturmotive aufgrund von diversen Variationsmöglichkeiten wie Koordination von Übergangsmetallen sowie Funktionalisierung der Peripherie gut. Dadurch können die elektronischen Eigenschaften wie die Absorption oder elektrochemische Potentiale der Verbindungen modifiziert werden. Die UV/Vis-Spektren der neu synthetisierten Verbindungen zeigen, dass Absorptionen in längerwelligen Bereichen durch Verlängerung des Konjugationspfades gesteuert werden können. Zudem lassen sich weitere photophysikalische Eigenschaften wie MC-, LC-, LMCT- oder MLCT-Übergänge durch Koordination von Metallen generieren. Die elektrochemischen Potentiale der Dipyridyl- und Diazafluorenbausteine konnten durch Anbindung von verschiedenen Substituenten beeinflusst werden. Es zeigte sich, dass sich die Reduktionswellen im Vergleich zu denen der Ketone zu niedrigeren Potentialen verschieben, wenn Alkine an die Dipyridylmethyliden- und Diazafluorenmethyliden-Bausteine geknüpft wurden. Zudem konnte beobachtet werden, dass die Signale nicht immer reversibel sind. Insbesondere die Dipyridylverbindungen zeichneten sich durch irreversible Reduktionswellen aus. Die Realisierung von π-konjugierten Systemen gelang auch mit cyclischen kohlenstoffbasierten Verbindungen. Über das separat synthetisierte 2,2’-Diethinyltolan konnte eine cyclische Verbindung, ein dehydroannulen-radialenisches System, erfolgreich hergestellt werden. Die Koordination von redoxaktiven Metallzentren wie [Ru(bpy)2] konnte für diese Verbindung ebenfalls erfolgreich gezeigt werden. Die elektronische Wechselwirkung zwischen dem Metallzentrum und dem dehydroannulenischen System könnte sowohl über theoretische Methoden (zeitabhängige Dichtefunktionaltheorie) als auch experimentell wie z. B. über transiente Absorptionsspektroskopie untersucht werden. Diese zukünftig durchzuführenden Untersuchungen können Aufschluss über die Ladungstransferraten und -dauer geben. Im Hinblick auf die Realisierung von Modellverbindungen für molekulare Drähte wurden lineare Systeme basierend auf der Diazafluoreneinheit synthetisiert. Zur Synthese von derartigen Systemen war es zunächst notwendig, die Dibromolefine unsymmetrisch zu alkinylieren. Die unsymmetrische Substitution gestaltete sich als Herausforderung, da eine Einfachkupplung mit einem Acetylen nicht möglich war. In den meisten Fällen wurden zweifach substituierte Spezies mit den identischen Alkinen erhalten. Die besten Ausbeuten konnten durch die konsekutive Zugabe von TIPS-Acetylen und darauffolgend TMS-Acetylen in die Reaktionsmischung erhalten werden. Offenbar spielt der räumliche Anspruch des Erstsubstituenten in diesem Zusammenhang eine Rolle. Die selektive Entschützung der unterschiedlich silylierten Verbindungen erfolgte mit K2CO3 in MeOH/THF (1:1). Die oxidative Homokupplungsreaktion erfolgte ohne Isolierung der entschützten Spezies, da diese instabil ist und zur Polymerisation neigt. Aufgrund der Instabilität der entschützten Spezies sowie möglichen Nebenreaktionen waren die Ausbeuten sowohl bei der TIPS-geschützten Verbindung als auch bei der TTP-geschützten Verbindung gering. Versuche, lineare Systeme von dipyridylbasierten Verbindungen zu erhalten, schlugen fehl. Die π-konjugierten Systeme lassen aufgrund der effektiven Überlappung der beteiligten π-Orbitale hohe Ladungsträgermobilitäten vermuten. Die im Rahmen dieser Arbeit synthetisierten Verbindungen könnten mit Schwefelverbindungen die Anbindung an Elektroden zulassen, worüber die Leitfähigkeiten der Verbindungen gemessen werden könnten.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Im Rahmen der vorliegenden Arbeit werden mikroanalytische Verfahren zur Untersuchung der verschiedenen Aspekte der Rissinitiierung und –Ausbreitung unter zyklischer Belastung angewendet und gekoppelt, um somit die Informationstiefe durch Korrelation der Ergebnisse zu vergrößern. Die eingesetzten mikroanalytischen Verfahren werden auf verschiedene polykristalline Werkstoffe mit kubisch-raumzentrierter und kubisch-flächenzentierter Gitterstruktur angewendet. Dabei steht der Einfluss der Mikrostruktur auf die Ausbreitung von Ermüdungsrissen in diesen Werkstoffen im Vordergrund. Die im Rahmen dieser Arbeit untersuchten mikrostrukturellen Größen hinsichtlich der Rissinitiierung und -ausbreitung sind die Phasenverteilung, die Korngröße und –Orientierung, die plastische Verformung infolge von Versetzungsbewegungen und die lokale Beanspruchung. Die Methode der Beugung rückgestreuter Elektronen (EBSD) im Rasterelektronenmikroskop steht dabei im Vordergrund der Untersuchungen der mikrostrukturellen Größen. Zu dieser Methode werden Bildkorrelationsverfahren in ihrer Anwendung untersucht, um lokale Verformungen im Bereich der Rissspitze mikrostrukturell kurzer Risse zu erfassen. Die Kopplung der Verfahren liefert ein vertieftes Verständnis der Schädigungsprozesse bei Ermüdungsbelastung an der Oberfläche. Neben der Untersuchung oberflächenbasierter Aspekte bei der Initiierung und Ausbreitung mikro-strukturell kurzer Risse werden volumenbasierte Methoden in Form mikrocomputertomographischer Verfahren eingesetzt, um das Ausbreitungsverhalten nicht nur an der Oberfläche zu untersuchen, sondern auch zusätzlich in Tiefenrichtung. In diesem Zusammenhang werden in-situ Versuche mit hochbrillianter Röntgenstrahlung am Synchrotron SPring-8 vorgestellt und mittels Methoden der Volumenkorrelation ausgewertet. Die Kopplung der Ergebnisse aus den einzelnen analytischen Verfahren liefert ein Betrag zur Ursachenfindung von Rissinitiierung und –Ausbreitung auf mikrostruktureller Ebene sowohl für oberflächen- als auch volumenbehafte Aspekte.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ziel dieser Arbeit ist es, die Methode der theologischen Gespräche mit Schülern auch außerhalb einer künstlich geschaffenen Unterrichtssituation anzuwenden und im besten Fall in das normale Unterrichtsgeschehen einfließen zu lassen. Dies soll dazu führen, dass diese Methode ihren experimentellen Charakter ein Stück weit verliert und wie oft von teilnehmenden Religionslehrern angemerkt, von nun an einen Platz im regulären Unterricht haben werde. Die Ziele solcher Gespräche, die in einem späteren Punkt explizit erläutert werden, sollen geringfügig modifiziert werden, so dass man sie erfolgreich von Kleingruppen auf Großgruppen übertragen kann. Gleichzeitig soll dabei jedoch auch weiterhin der Lehrplan berücksichtigt werden, den es im regulären Unterricht einzuhalten gilt. Es soll gezeigt werden, dass auch oder vor allem unter den Richtlinien des Lehrplans vorgegebene Inhalte und Kompetenzen mit dem theologischen Gespräch vereinbar sind. Um die Lehrziele optimal erfüllen zu können, werden einige ausgewählte Methoden, die vorrangig in den theologischen Gesprächen genutzt werden, analysiert und auf ihre Tauglichkeit in Klein-, vor allem aber in Großgruppen hin untersucht. Es soll jedoch nicht nur eine Bewertung dieser Methoden vorgenommen werden, sondern zusätzlich sollen bisherige Erfahrungen miteinfließen und damit das Bild unterschiedlicher Möglichkeiten in theologischen Gesprächen abrunden. Unter anderem werden zur Verdeutlichung Transkripte genutzt, um Unterschiede in der Dynamik der verschiedenen Gruppen am Praxisbeispiel zu verdeutlichen. Die Erfahrungen und Reflexionen des unternommenen qualitativen Vergleichs werden anschließend in Form von persönlichen Hinweisen im letzten Abschnitt ergänzt und zusammengefasst. Ziel dieser Hinweise ist es, Lehrkräften praktische Hilfen an die Hand zu geben, die sich der Aufgabe der theologischen Gespräche im regulären Unterricht in einer Großgruppe stellen möchten.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Im Rahmen der Dichtefunktionaltheorie wurden Orbitalfunktionale wie z.B. B3LYP entwickelt. Diese lassen sich mit der „optimized effective potential“ – Methode selbstkonsistent auswerten. Während sie früher nur im 1D-Fall genau berechnet werden konnte, entwickelten Kümmel und Perdew eine Methode, bei der das OEP-Problem unter Verwendung einer Differentialgleichung selbstkonsistent gelöst werden kann. In dieser Arbeit wird ein Finite-Elemente-Mehrgitter-Verfahren verwendet, um die entstehenden Gleichungen zu lösen und damit Energien, Dichten und Ionisationsenergien für Atome und zweiatomige Moleküle zu berechnen. Als Orbitalfunktional wird dabei der „exakte Austausch“ verwendet; das Programm ist aber leicht auf jedes beliebige Funktional erweiterbar. Für das Be-Atom ließ sich mit 8.Ordnung –FEM die Gesamtenergien etwa um 2 Größenordnungen genauer berechnen als der Finite-Differenzen-Code von Makmal et al. Für die Eigenwerte und die Eigenschaften der Atome N und Ne wurde die Genauigkeit anderer numerischer Methoden erreicht. Die Rechenzeit wuchs erwartungsgemäß linear mit der Punktzahl. Trotz recht langsamer scf-Konvergenz wurden für das Molekül LiH Genauigkeiten wie bei FD und bei HF um 2-3 Größenordnungen bessere als mit Basismethoden erzielt. Damit zeigt sich, dass auf diese Weise benchmark-Rechnungen durchgeführt werden können. Diese dürften wegen der schnellen Konvergenz über der Punktzahl und dem geringen Zeitaufwand auch auf schwerere Systeme ausweitbar sein.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A large class of special functions are solutions of systems of linear difference and differential equations with polynomial coefficients. For a given function, these equations considered as operator polynomials generate a left ideal in a noncommutative algebra called Ore algebra. This ideal with finitely many conditions characterizes the function uniquely so that Gröbner basis techniques can be applied. Many problems related to special functions which can be described by such ideals can be solved by performing elimination of appropriate noncommutative variables in these ideals. In this work, we mainly achieve the following: 1. We give an overview of the theoretical algebraic background as well as the algorithmic aspects of different methods using noncommutative Gröbner elimination techniques in Ore algebras in order to solve problems related to special functions. 2. We describe in detail algorithms which are based on Gröbner elimination techniques and perform the creative telescoping method for sums and integrals of special functions. 3. We investigate and compare these algorithms by illustrative examples which are performed by the computer algebra system Maple. This investigation has the objective to test how far noncommutative Gröbner elimination techniques may be efficiently applied to perform creative telescoping.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Seit der Entdeckung der Methyltransferase 2 als hoch konserviertes und weit verbreitetes Enzym sind zahlreiche Versuche zur vollständigen Charakterisierung erfolgt. Dabei ist die biologische Funktion des Proteins ein permanent umstrittener Punkt. In dieser Arbeit wird dnmA als sensitiver Oszillator bezüglich des Zellzyklus und weiterer Einflüsse gezeigt. Insgesamt liegt der Hauptfokus auf der Untersuchung der in vivo Charakterisierung des Gens, der endogenen subzellulären Verteilung, sowie der physiologischen Aufgaben des Proteins in vivo in D. discoideum. Um Hinweise auf Signalwege in vivo zu erhalten, in denen DnmA beteiligt ist, war es zunächst notwendig, eine detaillierte Analyse des Gens anzufertigen. Mit molekularbiologisch äußerst sensitiven Methoden, wie beispielsweise Chromatin‐IP oder qRT‐PCR, konnte ein vollständiges Expressionsprofil über den Zell‐ und Lebenszyklus von D. discoideum angelegt werden. Besonders interessant sind dabei die Ergebnisse eines ursprünglichen Wildtypstammes (NC4), dessen dnmA‐Expressionsprofil quantitativ von anderen Wildtypstämmen abweicht. Auch auf Proteinebene konnten Zellzyklus‐abhängige Effekte von DnmA bestimmt werden. Durch mikroskopische Untersuchungen von verschiedenen DnmA‐GFP‐Stämmen wurden Lokalisationsänderungen während der Mitose gezeigt. Weiterhin wurde ein DnmA‐GFP‐Konstrukt unter der Kontrolle des endogenen Promotors generiert, wodurch das Protein in der Entwicklung eindeutig als Zelltypus spezifisches Protein, nämlich als Präsporen‐ bzw. Sporenspezifisches Protein, identifiziert werden konnte. Für die in vivo Analyse der katalytischen Aktivität des Enzyms konnten nun die Erkenntnisse aus der Charakterisierung des Gens bzw. Proteins berücksichtigt werden, um in vivo Substratkandidaten zu testen. Es zeigte sich, dass von allen bisherigen Substrat Kandidaten lediglich die tRNA^Asp als in vivo Substrat bestätigt werden konnte. Als besondere Erkenntnis konnte hierbei ein quantitativer Unterschied des Methylierungslevels zwischen verschiedenen Wildtypstämmen detektiert werden. Weiterhin wurde die Methylierung sowie Bindung an einen DNA‐Substratkandidaten ermittelt. Es konnte gezeigt werden, dass DnmA äußerst sequenzspezifisch mit Abschnitten des Retrotransposons DIRS‐1 in vivo eine Bindung eingeht. Auch für den Substrakandidaten snRNA‐U2 konnte eine stabile in vitro Komplexbildung zwischen U2 und hDnmt2 gezeigt werden. Insgesamt erfolgte auf Basis der ermittelten Expressionsdaten eine erneute Charakterisierung der Aktivität des Enzyms und der Substrate in vivo und in vitro.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Einhergehend mit der Entwicklung und zunehmenden Verfügbarkeit des Internets hat sich die Art der Informationsbereitstellung und der Informationsbeschaffung deutlich geändert. Die einstmalige Trennung zwischen Publizist und Konsument wird durch kollaborative Anwendungen des sogenannten Web 2.0 aufgehoben, wo jeder Teilnehmer gleichsam Informationen bereitstellen und konsumieren kann. Zudem können Einträge anderer Teilnehmer erweitert, kommentiert oder diskutiert werden. Mit dem Social Web treten schließlich die sozialen Beziehungen und Interaktionen der Teilnehmer in den Vordergrund. Dank mobiler Endgeräte können zu jeder Zeit und an nahezu jedem Ort Nachrichten verschickt und gelesen werden, neue Bekannschaften gemacht oder der aktuelle Status dem virtuellen Freundeskreis mitgeteilt werden. Mit jeder Aktivität innerhalb einer solchen Applikation setzt sich ein Teilnehmer in Beziehung zu Datenobjekten und/oder anderen Teilnehmern. Dies kann explizit geschehen, indem z.B. ein Artikel geschrieben wird und per E-Mail an Freunde verschickt wird. Beziehungen zwischen Datenobjekten und Nutzern fallen aber auch implizit an, wenn z.B. die Profilseite eines anderen Teilnehmers aufgerufen wird oder wenn verschiedene Teilnehmer einen Artikel ähnlich bewerten. Im Rahmen dieser Arbeit wird ein formaler Ansatz zur Analyse und Nutzbarmachung von Beziehungsstrukturen entwickelt, welcher auf solchen expliziten und impliziten Datenspuren aufbaut. In einem ersten Teil widmet sich diese Arbeit der Analyse von Beziehungen zwischen Nutzern in Applikationen des Social Web unter Anwendung von Methoden der sozialen Netzwerkanalyse. Innerhalb einer typischen sozialen Webanwendung haben Nutzer verschiedene Möglichkeiten zu interagieren. Aus jedem Interaktionsmuster werden Beziehungsstrukturen zwischen Nutzern abgeleitet. Der Vorteil der impliziten Nutzer-Interaktionen besteht darin, dass diese häufig vorkommen und quasi nebenbei im Betrieb des Systems abfallen. Jedoch ist anzunehmen, dass eine explizit angegebene Freundschaftsbeziehung eine stärkere Aussagekraft hat, als entsprechende implizite Interaktionen. Ein erster Schwerpunkt dieser Arbeit ist entsprechend der Vergleich verschiedener Beziehungsstrukturen innerhalb einer sozialen Webanwendung. Der zweite Teil dieser Arbeit widmet sich der Analyse eines der weit verbreitetsten Profil-Attributen von Nutzern in sozialen Webanwendungen, dem Vornamen. Hierbei finden die im ersten Teil vorgestellten Verfahren und Analysen Anwendung, d.h. es werden Beziehungsnetzwerke für Namen aus Daten von sozialen Webanwendungen gewonnen und mit Methoden der sozialen Netzwerkanalyse untersucht. Mithilfe externer Beschreibungen von Vornamen werden semantische Ähnlichkeiten zwischen Namen bestimmt und mit jeweiligen strukturellen Ähnlichkeiten in den verschiedenen Beziehungsnetzwerken verglichen. Die Bestimmung von ähnlichen Namen entspricht in einer praktischen Anwendung der Suche von werdenden Eltern nach einem passenden Vornamen. Die Ergebnisse zu der Analyse von Namensbeziehungen sind die Grundlage für die Implementierung der Namenssuchmaschine Nameling, welche im Rahmen dieser Arbeit entwickelt wurde. Mehr als 35.000 Nutzer griffen innerhalb der ersten sechs Monate nach Inbetriebnahme auf Nameling zu. Die hierbei anfallenden Nutzungsdaten wiederum geben Aufschluss über individuelle Vornamenspräferenzen der Anwender. Im Rahmen dieser Arbeit werden diese Nutzungsdaten vorgestellt und zur Bestimmung sowie Bewertung von personalisierten Vornamensempfehlungen verwendet. Abschließend werden Ansätze zur Diversifizierung von personalisierten Vornamensempfehlungen vorgestellt, welche statische Beziehungsnetzwerke für Namen mit den individuellen Nutzungsdaten verknüpft.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In dieser Dissertation werden Methoden zur optimalen Aufgabenverteilung in Multirobotersystemen (engl. Multi-Robot Task Allocation – MRTA) zur Inspektion von Industrieanlagen untersucht. MRTA umfasst die Verteilung und Ablaufplanung von Aufgaben für eine Gruppe von Robotern unter Berücksichtigung von operativen Randbedingungen mit dem Ziel, die Gesamteinsatzkosten zu minimieren. Dank zunehmendem technischen Fortschritt und sinkenden Technologiekosten ist das Interesse an mobilen Robotern für den Industrieeinsatz in den letzten Jahren stark gestiegen. Viele Arbeiten konzentrieren sich auf Probleme der Mobilität wie Selbstlokalisierung und Kartierung, aber nur wenige Arbeiten untersuchen die optimale Aufgabenverteilung. Da sich mit einer guten Aufgabenverteilung eine effizientere Planung erreichen lässt (z. B. niedrigere Kosten, kürzere Ausführungszeit), ist das Ziel dieser Arbeit die Entwicklung von Lösungsmethoden für das aus Inspektionsaufgaben mit Einzel- und Zweiroboteraufgaben folgende Such-/Optimierungsproblem. Ein neuartiger hybrider Genetischer Algorithmus wird vorgestellt, der einen teilbevölkerungbasierten Genetischen Algorithmus zur globalen Optimierung mit lokalen Suchheuristiken kombiniert. Zur Beschleunigung dieses Algorithmus werden auf die fittesten Individuen einer Generation lokale Suchoperatoren angewendet. Der vorgestellte Algorithmus verteilt die Aufgaben nicht nur einfach und legt den Ablauf fest, sondern er bildet auch temporäre Roboterverbünde für Zweiroboteraufgaben, wodurch räumliche und zeitliche Randbedingungen entstehen. Vier alternative Kodierungsstrategien werden für den vorgestellten Algorithmus entworfen: Teilaufgabenbasierte Kodierung: Hierdurch werden alle möglichen Lösungen abgedeckt, allerdings ist der Suchraum sehr groß. Aufgabenbasierte Kodierung: Zwei Möglichkeiten zur Zuweisung von Zweiroboteraufgaben wurden implementiert, um die Effizienz des Algorithmus zu steigern. Gruppierungsbasierte Kodierung: Zeitliche Randbedingungen zur Gruppierung von Aufgaben werden vorgestellt, um gute Lösungen innerhalb einer kleinen Anzahl von Generationen zu erhalten. Zwei Umsetzungsvarianten werden vorgestellt. Dekompositionsbasierte Kodierung: Drei geometrische Zerlegungen wurden entworfen, die Informationen über die räumliche Anordnung ausnutzen, um Probleme zu lösen, die Inspektionsgebiete mit rechteckigen Geometrien aufweisen. In Simulationsstudien wird die Leistungsfähigkeit der verschiedenen hybriden Genetischen Algorithmen untersucht. Dazu wurde die Inspektion von Tanklagern einer Erdölraffinerie mit einer Gruppe homogener Inspektionsroboter als Anwendungsfall gewählt. Die Simulationen zeigen, dass Kodierungsstrategien, die auf der geometrischen Zerlegung basieren, bei einer kleinen Anzahl an Generationen eine bessere Lösung finden können als die anderen untersuchten Strategien. Diese Arbeit beschäftigt sich mit Einzel- und Zweiroboteraufgaben, die entweder von einem einzelnen mobilen Roboter erledigt werden können oder die Zusammenarbeit von zwei Robotern erfordern. Eine Erweiterung des entwickelten Algorithmus zur Behandlung von Aufgaben, die mehr als zwei Roboter erfordern, ist möglich, würde aber die Komplexität der Optimierungsaufgabe deutlich vergrößern.