978 resultados para performative Arbeit
Resumo:
Vor dem Hintergund der Integration des wissensbasierten Managementsystems Precision Farming in den Ökologischen Landbau wurde die Umsetzung bestehender sowie neu zu entwickelnder Strategien evaluiert und diskutiert. Mit Blick auf eine im Precision Farming maßgebende kosteneffiziente Ertragserfassung der im Ökologischen Landbau flächenrelevanten Leguminosen-Grasgemenge wurden in zwei weiteren Beiträgen die Schätzgüten von Ultraschall- und Spektralsensorik in singulärer und kombinierter Anwendung analysiert. Das Ziel des Precision Farming, ein angepasstes Management bezogen auf die flächeninterne Variabilität der Standorte umzusetzen, und damit einer Reduzierung von Betriebsmitteln, Energie, Arbeit und Umwelteffekten bei gleichzeitiger Effektivitätssteigerung und einer ökonomischen Optimierung zu erreichen, deckt sich mit wesentlichen Bestrebungen im Ökogischen Landbau. Es sind vorrangig Maßnahmen zur Erfassung der Variabilität von Standortfaktoren wie Geländerelief, Bodenbeprobung und scheinbare elektrische Leitfähigkeit sowie der Ertragserfassung über Mähdrescher, die direkt im Ökologischen Landbau Anwendung finden können. Dagegen sind dynamisch angepasste Applikationen zur Düngung, im Pflanzenschutz und zur Beseitigung von Unkräutern aufgrund komplexer Interaktionen und eines eher passiven Charakters dieser Maßnahmen im Ökologischen Landbau nur bei Veränderung der Applikationsmodelle und unter Einbindung weiterer dynamischer Daten umsetzbar. Beispiele hiefür sind einzubeziehende Mineralisierungsprozesse im Boden und organischem Dünger bei der Düngemengenberechnung, schwer ortsspezifisch zuzuordnende präventive Maßnamen im Pflanzenschutz sowie Einflüsse auf bodenmikrobiologische Prozesse bei Hack- oder Striegelgängen. Die indirekten Regulationsmechanismen des Ökologischen Landbaus begrenzen daher die bisher eher auf eine direkte Wirkung ausgelegten dynamisch angepassten Applikationen des konventionellen Precision Farming. Ergänzend sind innovative neue Strategien denkbar, von denen die qualitätsbezogene Ernte, der Einsatz hochsensibler Sensoren zur Früherkennung von Pflanzenkrankheiten oder die gezielte teilflächen- und naturschutzorientierte Bewirtschaftung exemplarisch in der Arbeit vorgestellt werden. Für die häufig große Flächenanteile umfassenden Leguminosen-Grasgemenge wurden für eine kostengünstige und flexibel einsetzbare Ertragserfassung die Ultraschalldistanzmessung zur Charakterisierung der Bestandeshöhe sowie verschiedene spektrale Vegetationsindices als Schätzindikatoren analysiert. Die Vegetationsindices wurden aus hyperspektralen Daten nach publizierten Gleichungen errechnet sowie als „Normalized Difference Spectral Index“ (NDSI) stufenweise aus allen möglichen Wellenlängenkombinationen ermittelt. Die Analyse erfolgte für Ultraschall und Vegetationsindices in alleiniger und in kombinierter Anwendung, um mögliche kompensatorische Effekte zu nutzen. In alleiniger Anwendung erreichte die Ultraschallbestandeshöhe durchweg bessere Schätzgüten, als alle einzelnen Vegetationsindices. Bei den letztgenannten erreichten insbesondere auf Wasserabsorptionsbanden basierende Vegetationsindices eine höhere Schätzgenauigkeit als traditionelle Rot/Infrarot-Indices. Die Kombination beider Sensorda-ten ließ eine weitere Steigerung der Schätzgüte erkennen, insbesondere bei bestandesspezifischer Kalibration. Hierbei kompensieren die Vegetationsindices Fehlschätzungen der Höhenmessung bei diskontinuierlichen Bestandesdichtenänderungen entlang des Höhengradienten, wie sie beim Ährenschieben oder durch einzelne hochwachsende Arten verursacht werden. Die Kombination der Ultraschallbestandeshöhe mit Vegetationsindices weist das Potential zur Entwicklung kostengünstiger Ertragssensoren für Leguminosen-Grasgemenge auf. Weitere Untersuchungen mit hyperspektralen Vegetationsindices anderer Berechnungstrukturen sowie die Einbindung von mehr als zwei Wellenlängen sind hinsichtlich der Entwicklung höherer Schätzgüten notwendig. Ebenso gilt es, Kalibrierungen und Validationen der Sensorkombination im artenreichen Grasland durchzuführen. Die Ertragserfassung in den Leguminosen-Grasgemengen stellt einen wichtigen Beitrag zur Erstellung einer Ertragshistorie in den vielfältigen Fruchtfolgen des Ökologischen Landbaus dar und ermöglicht eine verbesserte Einschätzung von Produktionspotenzialen und Defizitarealen für ein standortangepasstes Management.
Resumo:
Die tropischen Anden sind eines der artenreichsten Gebiete der Erde. Fast die Hälfte der 45.000 in diesem Gebiet vorkommenden Gefäßpflanzenarten sind in den Anden endemisch (Myers et al. 2000). Die Gattung Fosterella (Bromeliaceae) ist eine den Anden zugeordnete Pflanzengruppe, denn die meisten ihrer 31 Arten kommen in den Anden vor. Achtzehn Arten sind kleinräumige Endemiten. Fosterella hat damit Modellcharakter für diese Region. In der vorliegenden Arbeit wurde die Evolution der Gattung in Raum und Zeit mithilfe der vergleichenden Sequenzierung von sechs plastidären Loci (atpB-rbcL, matK, psbB-psbH, rpl32-trnL, rps16-trnK, rps16-Intron) und einem nukleären Marker (PHYC) untersucht. Es wurden über 90 Akzessionen von 24 Fosterella-Arten untersucht. Mit 5,6 % informativer Merkmale innerhalb der Gattung war rpl32-trnL der informativste Chloroplastenmarker. Es wurden mit den kombinierten Sequenzdaten eine Maximum Parsimony-, eine Maximum Likelihood- und eine Bayes´sche Analyse berechnet. Weiterhin wurden biogeographische und ultrametrische Untersuchungen durchgeführt. Die 6-Locus-Phylogenie zeigt eine Aufteilung der monophyletischen Gattung Fosterella in sechs Gruppen, von denen vier – die penduliflora-, weddelliana-, weberbaueri- und micrantha-Gruppe - klar monophyletisch und gut gestützt sind. Die albicans- und die rusbyi-Gruppe bilden hingegen einen Komplex. Ultrametrische Analysen legen ein Alter der Gattung von ca. 9,6 Mio. Jahren nahe. Der geographische Ursprung von Fosterella befindet sich nach den vorliegenden biogeographischen Analysen in den Anden und nach der Biom-Analyse zu gleicher Wahrscheinlichkeit entweder in andinen Trockenwäldern (seasonally dry tropical forests, SDTFs) oder in azonalen Standorten des amazonischen Tieflands östlich der Anden. Es gab mehrere Ausbreitungsereignisse, von denen die beiden Fernausbreitungsereignisse nach Mittelamerika (F. micrantha) und in das zentrale Amazonasgebiet (F. batistana) die auffälligsten sind. Die feuchten Bergregenwälder (Yungas) der Anden wurden offenbar mehrfach unabhängig von Fosterella-Arten besiedelt. Insgesamt wurden elf nukleäre Marker (XDH, GS, RPB2, MS, ADH, MS, GLO/PI, CHS, FLO/LFY, NIAi3 und PHYC) auf ihre Anwendbarkeit für molekularsystematische Studien in Fosterella getestet. Davon konnten acht Marker erfolgreich mithilfe einer PCR amplifiziert werden. Die Fragmentgrößen lagen zwischen 350 bp und 1.500 bp. Nur für drei Loci (FLO/LFY, NIAi3 und PHYC) konnten lesbare DNA-Sequenzen in Fosterella erzeugt werden. FLO/LFY zeigte nur 1,5 % Variabilität innerhalb der Gattung. Der NIA-Locus erzeugte bei der Amplifikation mehrere Fragmente, die separat voneinander sequenziert wurden. Der Locus PHYC konnte hingegen aufgrund der guten Amplifizier- und Sequenzierbarkeit für das gesamte Probenset sequenziert werden. Dieser Marker zeigte eine Variabilität innerhalb der Gattung von 10,2 %, davon waren 6,8 % informativ. In der Phylogenie basierend auf PHYC ist Fosterella klar monophyletisch, innerhalb der Gattung zeigt sich jedoch an der Basis eine unaufgelöste Polytomie. Es lassen sich neun mehr oder weniger gut gestützte Artengruppen definieren – rusbyi-, villosula-, albicans-, weddelliana-, penduliflora-, weberbaueri-, micrantha-, robertreadii- und spectabilis-Gruppe - die sich in ihrer Zusammensetzung mit Ausnahme der weddelliana-Gruppe von den nach Chloroplastendaten definierten Gruppen unterscheiden. Viele Arten sind para- oder polyphyletisch, so z. B. F. albicans, F. penduliflora und F. rusbyi. Bei den beiden erstgenannten Arten weisen die unterschiedlichen Stellungen in Chloroplasten- und Kernphylogenie auf Hybridisierungsereignisse hin.
Resumo:
In the vision of Mark Weiser on ubiquitous computing, computers are disappearing from the focus of the users and are seamlessly interacting with other computers and users in order to provide information and services. This shift of computers away from direct computer interaction requires another way of applications to interact without bothering the user. Context is the information which can be used to characterize the situation of persons, locations, or other objects relevant for the applications. Context-aware applications are capable of monitoring and exploiting knowledge about external operating conditions. These applications can adapt their behaviour based on the retrieved information and thus to replace (at least a certain amount) the missing user interactions. Context awareness can be assumed to be an important ingredient for applications in ubiquitous computing environments. However, context management in ubiquitous computing environments must reflect the specific characteristics of these environments, for example distribution, mobility, resource-constrained devices, and heterogeneity of context sources. Modern mobile devices are equipped with fast processors, sufficient memory, and with several sensors, like Global Positioning System (GPS) sensor, light sensor, or accelerometer. Since many applications in ubiquitous computing environments can exploit context information for enhancing their service to the user, these devices are highly useful for context-aware applications in ubiquitous computing environments. Additionally, context reasoners and external context providers can be incorporated. It is possible that several context sensors, reasoners and context providers offer the same type of information. However, the information providers can differ in quality levels (e.g. accuracy), representations (e.g. position represented in coordinates and as an address) of the offered information, and costs (like battery consumption) for providing the information. In order to simplify the development of context-aware applications, the developers should be able to transparently access context information without bothering with underlying context accessing techniques and distribution aspects. They should rather be able to express which kind of information they require, which quality criteria this information should fulfil, and how much the provision of this information should cost (not only monetary cost but also energy or performance usage). For this purpose, application developers as well as developers of context providers need a common language and vocabulary to specify which information they require respectively they provide. These descriptions respectively criteria have to be matched. For a matching of these descriptions, it is likely that a transformation of the provided information is needed to fulfil the criteria of the context-aware application. As it is possible that more than one provider fulfils the criteria, a selection process is required. In this process the system has to trade off the provided quality of context and required costs of the context provider against the quality of context requested by the context consumer. This selection allows to turn on context sources only if required. Explicitly selecting context services and thereby dynamically activating and deactivating the local context provider has the advantage that also the resource consumption is reduced as especially unused context sensors are deactivated. One promising solution is a middleware providing appropriate support in consideration of the principles of service-oriented computing like loose coupling, abstraction, reusability, or discoverability of context providers. This allows us to abstract context sensors, context reasoners and also external context providers as context services. In this thesis we present our solution consisting of a context model and ontology, a context offer and query language, a comprehensive matching and mediation process and a selection service. Especially the matching and mediation process and the selection service differ from the existing works. The matching and mediation process allows an autonomous establishment of mediation processes in order to transfer information from an offered representation into a requested representation. In difference to other approaches, the selection service selects not only a service for a service request, it rather selects a set of services in order to fulfil all requests which also facilitates the sharing of services. The approach is extensively reviewed regarding the different requirements and a set of demonstrators shows its usability in real-world scenarios.
Resumo:
Bei der Rückführung von Kurzumtriebsplantagen (KUP) in konventionelle landwirtschaftliche Nutzung erfolgt zur Saatbettvorbereitung für die Folgekulturen eine intensive Bodenbearbeitung, um Wurzeln und Erntereste zu zerkleinern und in den Boden einzuarbeiten. Dies erhöht einerseits die Mineralisierung der unter KUP akkumulierten organischen Bodensubstanz (OBS), andererseits werden dem Boden hohe Mengen an Kohlenstoff (C) mit den Ernteresten zugeführt. In dieser Arbeit wurde an den Standorten Georgenhof Pappel, Georgenhof Weide und Wachtum Pappel in einem Feldversuch untersucht, wie sich unterschiedliche Bodenbearbeitungstiefen von 5, 15 und 30 cm während der Rückführung der langjährig bewirtschafteten KUPs in Acker- und Grünlandnutzung auf die C-Dynamik im Boden auswirken. Im Mittelpunkt stand dabei die Überprüfung der Annahme, ob durch eine reduzierte Bodenbearbeitung und eine nachfolgende Grünlandnutzung die Mineralisierung der OBS gemindert werden kann. Die nach der letzten Holzernte auf den Flächen verbliebenen und in den Boden eingearbeiteten oberirdischen Erntereste führten dem Boden, neben der in der zerkleinerten Wurzelbiomasse gespeicherten C-Menge von 1-9 t C ha-1, zusätzlich zwischen 12 und 17 t C ha-1 zu. Der Anstieg der freien, leichten organischen Fraktion des Bodens direkt nach dem Umbruch der Flächen sowie im Zuge der Bodenbearbeitung verfügbar gewordene leicht abbaubare organische Verbindungen, steigerten die mikrobielle Aktivität. Dies führte trotz der intensiven Bodenbearbeitung zu einer Erhöhung des mit Makroaggregaten assoziierten C nach dem Fräsen der Flächen. Die erneute Bodenbearbeitung der Ackerparzellen ein Jahr nach dem Umbruch führte an allen Standorten und in allen Bearbeitungstiefen durch die Zerstörung von Makroaggregaten jedoch zu einer Abnahme des C in dieser Fraktion. Demgegenüber zeigte sich durch die ausbleibende Bodenbearbeitung unter Grünlandnutzung auf beiden Flächen am Georgenhof eine bessere Stabilisierung des C in den Makroaggregaten. Am Standort Wachtum nahm der C in der Makroaggregatfraktion auch unter Grünland ab, da die Aggregierung und somit auch die physikalische Stabilisierung der organischen Substanz in diesem sandigeren Boden gering ist. Dies spiegelte sich in Verlusten von 10% in der leichten organischen Fraktion wider. Die mikrobielle Biomasse nahm innerhalb eines Jahres an allen Standorten ab, verursacht durch die abnehmende Verfügbarkeit der organischen Substanz, was sich in gesunkenen Cmik/Corg Verhältnisse niederschlug. Dennoch hat ein Jahr nach dem Umbruch der KUPs die in den Ernteresten gespeicherte C Menge auf allen Flächen im Zuge des fortschreitenden mikrobiellen Abbaus um bis zu 23 t C ha-1 abgenommen. Da sich keine Änderung in der Gesamtkohlenstoffmenge des Mineralbodens feststellen ließ, wurden mögliche Mineralisationsverluste der OBS durch Abbauprodukte der Erntereste ausgeglichen. Am Standort Georgenhof Weide zeigte sich dabei in den tiefen Fräsvarianten eine geringere Abnahme der in den Ernteresten gespeicherten C-Menge gegenüber den flachen Fräsvarianten. Ebenso deutete ein höheres C/N Verhältnis der Erntereste unter Grünland gegenüber Ackernutzung auf allen drei Flächen auf einen verlangsamten Abbau der Erntereste hin. In einem Inkubationsversuch im Labor wurde das hohe N-Immobilisierungspotential der eingearbeiteten Kronen- und Wurzelreste insbesondere zu Abbaubeginn der Erntereste nachgewiesen. Eine ansteigende N-Immobilisierung nach einer zusätzlichen N-Gabe deutete an, dass eine N-Düngung im Feld möglicherweise erst nach Abbau der leicht verfügbaren Verbindungen der Erntereste empfehlenswert ist. Höhere Ergosterol/Cmik Verhältnisse nach Einarbeitung der Erntereste zeigten den gestiegenen Anteil an saprotrophen Pilzen in der mikrobiellen Gemeinschaft an. Ein Jahr nach der Rückführung der KUPs in landwirtschaftliche Nutzung deuteten die C-Verluste aus den labilen Bodenfraktionen erste Verluste des organischen Kohlenstoffs des Mineralbodens an. Allerdings ließ sich noch kein eindeutiger Einfluss der unterschiedlichen Frästiefen oder Nachnutzungen auf die C-Fraktionen im Mineralboden feststellen, so dass sich im Hinblick auf die anfangs gestellte Annahme einer verringerten C-Mineralisierung durch eine reduzierte Bodenbearbeitung noch keine Aussage treffen lässt.
Resumo:
In dieser Arbeit wurde ein gemischt-ganzzahliges lineares Einsatzoptimierungsmodell für Kraftwerke und Speicher aufgebaut und für die Untersuchung der Energieversorgung Deutschlands im Jahre 2050 gemäß den Leitstudie-Szenarien 2050 A und 2050 C ([Nitsch und Andere, 2012]) verwendet, in denen erneuerbare Energien einen Anteil von über 85 % an der Stromerzeugung haben und die Wind- und Solarenergie starke Schwankungen der durch steuerbare Kraftwerke und Speicher zu deckenden residualen Stromnachfrage (Residuallast) verursachen. In Szenario 2050 A sind 67 TWh Wasserstoff, die elektrolytisch aus erneuerbarem Strom zu erzeugen sind, für den Verkehr vorgesehen. In Szenario 2050 C ist kein Wasserstoff für den Verkehr vorgesehen und die effizientere Elektromobilität hat einen Anteil von 100% am Individualverkehr. Daher wird weniger erneuerbarer Strom zur Erreichung desselben erneuerbaren Anteils im Verkehrssektor benötigt. Da desweiteren Elektrofahrzeuge Lastmanagementpotentiale bieten, weisen die Residuallasten der Szenarien eine unterschiedliche zeitliche Charakteristik und Jahressumme auf. Der Schwerpunkt der Betrachtung lag auf der Ermittlung der Auslastung und Fahrweise des in den Szenarien unterstellten ’Kraftwerks’-parks bestehend aus Kraftwerken zur reinen Stromerzeugung, Kraft-Wärme-Kopplungskraftwerken, die mit Wärmespeichern, elektrischen Heizstäben und Gas-Backupkesseln ausgestattet sind, Stromspeichern und Wärmepumpen, die durch Wärmespeicher zum Lastmanagment eingesetzt werden können. Der Fahrplan dieser Komponenten wurde auf minimale variable Gesamtkosten der Strom- und Wärmeerzeugung über einen Planungshorizont von jeweils vier Tagen hin optimiert. Das Optimierungsproblem wurde mit dem linearen Branch-and-Cut-Solver der software CPLEX gelöst. Mittels sogenannter rollierender Planung wurde durch Zusammensetzen der Planungsergebnisse für überlappende Planungsperioden der Kraftwerks- und Speichereinsatz für die kompletten Szenariojahre erhalten. Es wurde gezeigt, dass der KWK-Anteil an der Wärmelastdeckung gering ist. Dies wurde begründet durch die zeitliche Struktur der Stromresiduallast, die wärmeseitige Dimensionierung der Anlagen und die Tatsache, dass nur eine kurzfristige Speicherung von Wärme vorgesehen war. Die wärmeseitige Dimensionierung der KWK stellte eine Begrenzung des Deckungsanteils dar, da im Winter bei hoher Stromresiduallast nur wenig freie Leistung zur Beladung der Speicher zur Verfügung stand. In den Berechnungen für das Szenario 2050 A und C lag der mittlere Deckungsanteil der KWK an der Wärmenachfrage von ca. 100 TWh_th bei 40 bzw. 60 %, obwohl die Auslegung der KWK einen theoretischen Anteil von über 97 % an der Wärmelastdeckung erlaubt hätte, gäbe es die Beschränkungen durch die Stromseite nicht. Desweiteren wurde die CO2-Vermeidungswirkung der KWK-Wärmespeicher und des Lastmanagements mit Wärmepumpen untersucht. In Szenario 2050 A ergab sich keine signifikante CO2-Vermeidungswirkung der KWK-Wärmespeicher, in Szenario 2050 C hingegen ergab sich eine geringe aber signifikante CO2-Einsparung in Höhe von 1,6 % der Gesamtemissionen der Stromerzeugung und KWK-gebundenen Wärmeversorgung. Das Lastmanagement mit Wärmepumpen vermied Emissionen von 110 Tausend Tonnen CO2 (0,4 % der Gesamtemissionen) in Szenario A und 213 Tausend Tonnen in Szenario C (0,8 % der Gesamtemissionen). Es wurden darüber hinaus Betrachtungen zur Konkurrenz zwischen solarthermischer Nahwärme und KWK bei Einspeisung in dieselben Wärmenetze vorgenommen. Eine weitere Einschränkung der KWK-Erzeugung durch den Einspeisevorrang der Solarthermie wurde festgestellt. Ferner wurde eine untere Grenze von 6,5 bzw. 8,8 TWh_th für die in den Szenarien mindestens benötigte Wasserstoff-Speicherkapazität ermittelt. Die Ergebnisse dieser Arbeit legen nahe, das technisch-ökonomische Potential von Langzeitwärmespeichern für eine bessere Integration von KWK ins System zu ermitteln bzw. generell nach geeigneteren Wärmesektorszenarien zu suchen, da deutlich wurde, dass für die öffentliche Wärmeversorgung die KWK in Kombination mit Kurzzeitwärmespeicherung, Gaskesseln und elektrischen Heizern keine sehr effektive CO2 -Reduktion in den Szenarien erreicht. Es sollte dabei z.B. untersucht werden, ob ein multivalentes System aus KWK, Wärmespeichern und Wärmepumpen eine ökonomisch darstellbare Alternative sein könnte und im Anschluss eine Betrachtung der optimalen Anteile von KWK, Wärmepumpen und Solarthermie im Wärmemarkt vorgenommen werden.
Resumo:
Diese Arbeit thematisiert die optimierte Darstellung von organischen Mikro- und Nanodrähten, Untersuchungen bezüglich deren molekularen Aufbaus und die anwendungsorientierte Charakterisierung der Eigenschaften. Mikro- und Nanodrähte haben in den letzten Jahren im Zuge der Miniaturisierung von Technologien an weitreichendem Interesse gewonnen. Solche eindimensionalen Strukturen, deren Durchmesser im Bereich weniger zehn Nanometer bis zu einigen wenigen Mikrometern liegt, sind Gegenstand intensiver Forschung. Neben anorganischen Ausgangssubstanzen zur Erzeugung von Mikro- und Nanodrähten haben organische Funktionsmaterialien aufgrund ihrer einfachen und kostengünstigen Verarbeitbarkeit sowie ihrer interessanten elektrischen und optischen Eigenschaften an Bedeutung gewonnen. Eine wichtige Materialklasse ist in diesem Zusammenhang die Verbindungsklasse der n-halbleitenden Perylentetracarbonsäurediimide (kurz Perylendiimide). Dem erfolgreichen Einsatz von eindimensionalen Strukturen als miniaturisierte Bausteine geht die optimierte und kontrollierte Herstellung voraus. Im Rahmen der Doktorarbeit wurde die neue Methode der Drahterzeugung „Trocknen unter Lösungsmittelatmosphäre“ entwickelt, welche auf Selbstassemblierung der Substanzmoleküle aus Lösung basiert und unter dem Einfluss von Lösungsmitteldampf direkt auf einem vorgegebenen Substrat stattfindet. Im Gegensatz zu literaturbekannten Methoden ist kein Transfer der Drähte aus einem Reaktionsgefäß nötig und damit verbundene Beschädigungen der Strukturen werden vermieden. Während herkömmliche Methoden in einer unkontrolliert großen Menge von ineinander verwundenen Drähten resultieren, erlaubt die substratbasierte Technik die Bildung voneinander separierter Einzelfasern und somit beispielsweise den Einsatz in Einzelstrukturbauteilen. Die erhaltenen Fasern sind morphologisch sehr gleichmäßig und weisen bei Längen von bis zu 5 mm bemerkenswert hohe Aspektverhältnisse von über 10000 auf. Darüber hinaus kann durch das direkte Drahtwachstum auf dem Substrat über den Einsatz von vorstrukturierten Oberflächen und Wachstumsmasken gerichtetes, lokal beschränktes Drahtwachstum erzielt werden und damit aktive Kontrolle auf Richtung und Wachstumsbereich der makroskopisch nicht handhabbaren Objekte ausgeübt werden. Um das Drahtwachstum auch hinsichtlich der Materialauswahl, d. h. der eingesetzten Ausgangsmaterialien zur Drahterzeugung und somit der resultierenden Eigenschaften der gebildeten Strukturen aktiv kontrollieren zu können, wird der Einfluss unterschiedlicher Parameter auf die Morphologie der Selbstassemblierungsprodukte am Beispiel unterschiedlicher Derivate betrachtet. So stellt sich zum einen die Art der eingesetzten Lösungsmittel in flüssiger und gasförmiger Phase beim Trocknen unter Lösungsmittelatmosphäre als wichtiger Faktor heraus. Beide Lösungsmittel dienen als Interaktionspartner für die Moleküle des funktionellen Drahtmaterials im Selbstassemblierungsprozess. Spezifische Wechselwirkungen zwischen Perylendiimid-Molekülen untereinander und mit Lösungsmittel-Molekülen bestimmen dabei die äußere Form der erhaltenen Strukturen. Ein weiterer wichtiger Faktor ist die Molekülstruktur des verwendeten funktionellen Perylendiimids. Es wird der Einfluss einer Bay-Substitution bzw. einer unsymmetrischen Imid-Substitution auf die Morphologie der erhaltenen Strukturen herausgestellt. Für das detaillierte Verständnis des Zusammenhanges zwischen Molekülstruktur und nötigen Wachstumsbedingungen für die Bildung von eindimensionalen Strukturen zum einen, aber auch die resultierenden Eigenschaften der erhaltenen Aggregationsprodukte zum anderen, sind Informationen über den molekularen Aufbau von großer Bedeutung. Im Rahmen der Doktorarbeit konnte ein molekular hoch geordneter, kristalliner Aufbau der Drähte nachgewiesen werden. Durch Kombination unterschiedlicher Messmethoden ist es gelungen, die molekulare Anordnung in Strukturen aus einem Spirobifluoren-substituierten Derivat in Form einer verkippten Molekülstapelung entlang der Drahtlängsrichtung zu bestimmen. Um mögliche Anwendungsbereiche der erzeugten Drähte aufzuzeigen, wurden diese hinsichtlich ihrer elektrischen und optischen Eigenschaften analysiert. Neben dem potentiellen Einsatz im Bereich von Filteranwendungen und Sensoren, sind vor allem die halbleitenden und optisch wellenleitenden Eigenschaften hervorzuheben. Es konnten organische Transistoren auf der Basis von Einzeldrähten mit im Vergleich zu Dünnschichtbauteilen erhöhten Ladungsträgerbeweglichkeiten präpariert werden. Darüber hinaus wurden die erzeugten eindimensionalen Strukturen als aktive optische Wellenleiter charakterisiert. Die im Rahmen der Dissertation erarbeiteten Kenntnisse bezüglich der Bildung von eindimensionalen Strukturen durch Selbstassemblierung, des Drahtaufbaus und erster anwendungsorientierter Charakterisierung stellen eine Basis zur Weiterentwicklung solcher miniaturisierter Bausteine für unterschiedlichste Anwendungen dar. Die neu entwickelte Methode des Trocknens unter Lösungsmittelatmosphäre ist nicht auf den Einsatz von Perylendiimiden beschränkt, sondern kann auf andere Substanzklassen ausgeweitet werden. Dies eröffnet breite Möglichkeiten der Materialauswahl und somit der Einsatzmöglichkeiten der erhaltenen Strukturen.
Resumo:
Die Arbeit behandelt im Rahmen eines induktiven Ansatzes die Problematik aktueller kommunalpolitischer Zielkonflikte im Umgang mit Baudenkmalen in Deutschland. Dabei wird das Politikfeld Denkmalschutz in seiner kulturell-politischen Mehrdimensionalität unter der Ausgangsfrage untersucht, wie Entscheidungsprozesse verlaufen, bei denen entwicklungsbezogene Interessen und Belange des Denkmalschutzes eine besondere Rolle spielen. Vier Beispielfälle bilden den empirischen Kern der Untersuchung: Ein ortsbildprägendes und architektonisch qualitätsvolles Industriedenkmal wandelt sich mittels staatlicher Förderung zu einer Brachfläche; der Umgebungsschutz eines Gartendenkmals von Weltrang muss den Bedürfnissen des kommerzialisierten Fußballsports den Vortritt lassen; ein historisches Lichtspieltheater wird trotz Massenprotesten von Bürgern zu einem Buchladen umgebaut; eine freistehende Gründerzeitvilla wird unter der Maßgabe maximaler Verkaufsflächengröße durch ein Einkaufszentrum eingehaust. Aufbauend auf einer Analyse der jeweiligen Entscheidungsprozesse werden die Spezifika politischer Auseinandersetzungen um Denkmale fallübergreifend herausgearbeitet. Das Untersuchungsprinzip entspricht einem explorativen Verfahren, wobei der argumentative Austausch als empirischer Schlüssel zu sprachlich materialisierten Deutungsangeboten von Akteuren einen Schwerpunkt der Untersuchung bildet. In der Gegenüberstellung diskursiver Prozesse wird untersucht, wie Deutungsangebote im politischen Prozess entstehen, sich verändern und diskursiv vermittelt werden. Im Mittelpunkt steht der Einblick in das Zusammenspiel empirisch bestimmter Einflussgrößen. Dabei kristallisieren sich mehrere Thesen heraus, die das kulturelle Verständnis, die Rolle des institutionellen Kontextes und die politische Aushandlung als Prozess betreffen. Es wird aufgezeigt, weshalb die Kluft zwischen dem elitären Erhaltungsinteresse der Fachwelt und dem Denkmalverständnis des „Durchschnittsbürgers" als notwendige Triebfeder der denkmalpflegerischen Vermittlungsarbeit und für eine kreative Auseinandersetzung mit dem Denkmal ebenso wie der hoheitliche Denkmalschutz unverzichtbar bleibt.
Resumo:
In der vorliegenden Arbeit wurde die Biofilmbildung bei einem klinischen Isolat von Enterococcus faecalis untersucht. Der Prozess der Biofilmbildung ist in mehrere Abschnitte unterteilt und beinhaltet zu Beginn eine Anhaftung von Zellen an Oberflächen. Dieser adhäsive Schritt wird unter anderem durch Pili vermittelt. Pili bei Grampositiven Mikroorganismen sind kovalent mit der Zellwand verknüpfte Proteinstrukturen, die eine Anheftung an biotische und abiotische Oberflächen sowie den Zell-Zell-Kontakt vermitteln. Bei den Analysen dieser Doktorarbeit lag ein besonderes Interesse bei eben diesen Pili, die für Enterococcus faecalis die Namen Ebp (endocarditis and biofilm associated pili) und Bee (biofilm enhancer in enterococci) tragen. Codiert werden sie durch die entsprechenden ebp-/bee-Loci, deren Aufbau unter den Grampositiven Mikroorganismen hochkonserviert ist. Die Loci bestehen aus Pilusuntereinheiten-codierenden Genen und colokalisierten Pilus-spezifischen Sortase Genen. Während in der Regel drei verschiedene Pilusuntereinheiten vorliegen, kann die Anzahl der Sortasen zwischen einer und zwei variieren. Bei den Experimenten wurde neben einer Komplementationsstudie zu einer Bee-Pilus Defekt-Mutante (1.10.16) das Hauptaugenmerk auf die Analyse des zweiten Pilus (Ebp) gelegt, um die Pilisituation bei Isolat 1.10 im Detail darzustellen Zusätzlich sollten weitere Oberflächenassoziierte Proteinstrukturen bei Isolat 1.10 detektiert werden, die gegebenenfalls an der Biofilmbildung beteiligt sind. Weitere Versuche zur Charakterisierung des Bee-Pilus wurden im Laufe dieser Arbeit durchgeführt, blieben jedoch bisher erfolglos. Die Biofilm-/Pilus-Defekt-Mutante 1.10.16 zeigte aufgrund einer Punktmutation (Pm) in der Pilus-spezifischen Sortase 1 des bee-Locus eine geschwächte Fähigkeit zur Anheftung an abiotische Oberflächen, sowie das Fehlen der Bee2 Untereinheit im Pilus. Nach Komplementation der Mutante (1.10.16K) mit dem Wildtyp-srt1 Gen, wurde die starke Biofilmbildungsfähigkeit zurück erlangt. Die Experimente zeigten, dass der Pilus-Defekt auf die Pm im srt1 Gen zurückzuführen war und der Bee-Pilus in Stamm 1.10.16K wieder korrekt gebildet wurde. Zu sehen war dies in Rasterelektronenmikroskopischen Aufnahmen und ebenfalls im massenspektrometrischen Nachweis aller 3 Pilusuntereinheiten im Bee-Pilus charakteristischen High-Molecular-Weight Komplex (~ 250 kDa). Durch Sequenzierungen konnte gezeigt werden, dass zwei Gene des ebp-Locus (ebpR und ebpC) bei Isolat 1.10 durch die Insertion von IS-Elementen IS1062 und IS6770 inaktiviert wurden. Der proteinbiochemische Nachweis über Pilusspezifische Antikörper gegen die Untereinheiten des Ebp-Pilus verlief negativ. Zusätzlich konnte gezeigt werden, dass die mRNA der beiden inaktivierten Gene nicht gebildet wurde. Dies führte folglich zum vollständigen Verlust des Ebp-Pilus bei Isolat 1.10. Zusammen mit den Ergebnissen der Komplementation konnte somit der große Einfluss mindestens eines intakten Pilus auf die Biofilmbildung gezeigt werden. Sind beide Pili durch Insertionen bzw. Mutationen inaktiviert, kommt es zu einer deutlichen Abnahme der Biofilmbildungsstärke. Dass trotzdem noch ein Biofilm gebildet wurde, zeigt den multifaktoriellen Zusammenhang bzw. Einfluss im Biofilmbildungsprozess. Über das gezielte Markieren von Oberflächenproteinen intakter Zellen mittels der Oberflächenbiotinylierung, konnten in der SDS-PAGE Unterschiede im Bandenmuster im Vergleich zur unbehandelten Probe erkannt werden. Die massenspektrometrische Identifikation dieser Proteine erfolgte bisher nicht, jedoch sind diese vorläufigen Ergebnisse vielversprechender Natur für die Identifikation und Aufklärung der Oberflächenproteinsituation bei Isolat 1.10.
Resumo:
Die bereits seit einigen Jahren stark in der wissenschaftlichen Literatur diskutierte RFID-Technologie ermöglicht es, Informationen (echt-)zeitnah, detailliert und mit einer höheren Objektivität bereitzustellen. Der Fokus vieler Arbeiten lag dabei vor allem auf RFID-spezifischen Einsatzmöglichkeiten in den Bereichen des Supply Chain- und des Customer Relationship Managements. Aber auch für ein modernes Controlling bzw. für die Managementunterstützung sind Innovationen in der Informationstechnik – hier die Besonderheiten und Eigenschaften von RFID-Daten – von sehr hoher Bedeutung. Dieses Forschungsfeld hat bisher jedoch kaum Beachtung gefunden. Mit der vorliegenden Dissertationsschrift wird versucht, diese Forschungslücke sowohl konzeptionell als auch empirisch zu schließen. Sie gliedert sich zu diesem Zweck in vier Kapitel. Nach einer Einleitung werden im zweiten Kapitel die konzeptionellen Grundlagen geschaffen. Dazu werden verschiedene Controllingkonzeptionen vorgestellt und anhand ausgewählter Kriterien dahingehend überprüft, ob diese dazu geeignet sind, die RFID-Nutzenpotenziale im Controlling darzustellen. Der kontributionsorientierte Ansatz nach Link erweist sich hierbei als zweckmäßiger Controllingansatz. Im zweiten Grundlagenkapitel werden u. a. die Funktionsweise sowie verschiedene Vorteile der RFID-Technologie vorgestellt. Im Hauptkapitel wird zunächst der Stand der Controllingforschung in Bezug auf RFID sowie dessen Einordnung in das Controlling gezeigt. Im Anschluss daran folgt die Arbeit dem systematischen Aufbau des kontributionsorientierten Ansatzes wie folgt: - Harmonisation: RFID auf der Ebene der Unternehmensleitung - Harmonisationsunterstützung: RFID auf der Ebene des Controlling • RFID-Einfluss auf das Zielsystem: Sachziele, Formalziele und Sozialziele • RFID und Vorsteuerung • Der RFID-Beitrag zur Umsetzung der Controllingprinzipien: Entscheidungsfundierung, Koordinationsentlastung und Entscheidungsreflexion Da mit dem RFID-Beitrag zur Vorsteuerung die „Kernleistung“ eines modernen Controlling behandelt wurde, besitzt dieser Punkt eine besonders hohe Relevanz. Den Abschluss der Dissertationsschrift bildet eine empirische Untersuchung (Kapitel vier) zum Status Quo der Nutzung von RFID-Daten bzw. -Informationen im Controlling. Darüber hinaus wurden mögliche Problemfelder der RFID-Nutzung im Controlling respektive der Managementunterstützung offengelegt. Die Diskrepanz zwischen den im theoretischen Teil der Arbeit herausgearbeiteten vielfältigen Nutzenpotenzialen von RFID im Controlling und der tatsächlichen Nutzung von RFID-Daten im Controlling deutscher Unternehmen ist dabei ein wesentliches Ergebnis. Die Arbeit schließt mit einer Zusammenfassung der Ergebnisse und einem Ausblick auf den weiteren Forschungsbedarf (Kapitel fünf) ab.
Resumo:
To study the behaviour of beam-to-column composite connection more sophisticated finite element models is required, since component model has some severe limitations. In this research a generic finite element model for composite beam-to-column joint with welded connections is developed using current state of the art local modelling. Applying mechanically consistent scaling method, it can provide the constitutive relationship for a plane rectangular macro element with beam-type boundaries. Then, this defined macro element, which preserves local behaviour and allows for the transfer of five independent states between local and global models, can be implemented in high-accuracy frame analysis with the possibility of limit state checks. In order that macro element for scaling method can be used in practical manner, a generic geometry program as a new idea proposed in this study is also developed for this finite element model. With generic programming a set of global geometric variables can be input to generate a specific instance of the connection without much effort. The proposed finite element model generated by this generic programming is validated against testing results from University of Kaiserslautern. Finally, two illustrative examples for applying this macro element approach are presented. In the first example how to obtain the constitutive relationships of macro element is demonstrated. With certain assumptions for typical composite frame the constitutive relationships can be represented by bilinear laws for the macro bending and shear states that are then coupled by a two-dimensional surface law with yield and failure surfaces. In second example a scaling concept that combines sophisticated local models with a frame analysis using a macro element approach is presented as a practical application of this numerical model.
Resumo:
Die stationäre Altenpflege ist ein Arbeitsbereich, der sich in unterschiedlicher Hinsicht für berufspädagogische Untersuchungen anbietet: Er gewinnt angesichts der demografischen Entwicklung an Bedeutung, ist jedoch gleichzeitig durch spezifische und durchaus problematische Arbeits- und Lernarbeitsbedingungen gekennzeichnet. In dieser Dissertation wird der Frage nachgegangen, wie pflegerische Kompetenzen im Prozess der Arbeit erworben werden können. Ausgehend von dem breit belegten Befund, dass Pflegeexpertise nicht nur über Wissenserwerb, sondern in erheblichem Maße auch durch Arbeitserfahrung entwickelt wird, geht es in dieser Untersuchung darum, welche Lernpotenziale die Arbeit in der Altenpflege bietet und wie die dort beschäftigten Personen sie nutzen.
Resumo:
Die thermische Verarbeitung von Lebensmitteln beeinflusst deren Qualität und ernährungsphysiologischen Eigenschaften. Im Haushalt ist die Überwachung der Temperatur innerhalb des Lebensmittels sehr schwierig. Zudem ist das Wissen über optimale Temperatur- und Zeitparameter für die verschiedenen Speisen oft unzureichend. Die optimale Steuerung der thermischen Zubereitung ist maßgeblich abhängig von der Art des Lebensmittels und der äußeren und inneren Temperatureinwirkung während des Garvorgangs. Das Ziel der Arbeiten war die Entwicklung eines automatischen Backofens, der in der Lage ist, die Art des Lebensmittels zu erkennen und die Temperatur im Inneren des Lebensmittels während des Backens zu errechnen. Die für die Temperaturberechnung benötigten Daten wurden mit mehreren Sensoren erfasst. Hierzu kam ein Infrarotthermometer, ein Infrarotabstandssensor, eine Kamera, ein Temperatursensor und ein Lambdasonde innerhalb des Ofens zum Einsatz. Ferner wurden eine Wägezelle, ein Strom- sowie Spannungs-Sensor und ein Temperatursensor außerhalb des Ofens genutzt. Die während der Aufheizphase aufgenommen Datensätze ermöglichten das Training mehrerer künstlicher neuronaler Netze, die die verschiedenen Lebensmittel in die entsprechenden Kategorien einordnen konnten, um so das optimale Backprogram auszuwählen. Zur Abschätzung der thermische Diffusivität der Nahrung, die von der Zusammensetzung (Kohlenhydrate, Fett, Protein, Wasser) abhängt, wurden mehrere künstliche neuronale Netze trainiert. Mit Ausnahme des Fettanteils der Lebensmittel konnten alle Komponenten durch verschiedene KNNs mit einem Maximum von 8 versteckten Neuronen ausreichend genau abgeschätzt werden um auf deren Grundlage die Temperatur im inneren des Lebensmittels zu berechnen. Die durchgeführte Arbeit zeigt, dass mit Hilfe verschiedenster Sensoren zur direkten beziehungsweise indirekten Messung der äußeren Eigenschaften der Lebensmittel sowie KNNs für die Kategorisierung und Abschätzung der Lebensmittelzusammensetzung die automatische Erkennung und Berechnung der inneren Temperatur von verschiedensten Lebensmitteln möglich ist.
Resumo:
Diese wissenschaftliche Examensarbeit beschäftigt sich mit der Frage, welche Rolle die Intuition beim Mathematischen Modellieren spielt. Da bisher kaum Erkenntnisse zu diesem Thema in der Welt der Mathematik existieren, findet hierzu eine empirische Annäherung in Form von Befragungen, Beobachtungen und Interviews von einer Gruppe von Schülern und Schülerinnen an einer Schule statt. Der erste theoretische Ausarbeitungsteil wird die Frage beantworten, was unter Intuition zu verstehen ist und wie dieser Begriff einzuordnen ist. Im zweiten Theorieteil wird das Mathematische Modellieren erklärt. Hierzu wird ein kurzer Überblick über die Aspekte der Begriffserklärung, des Prozesses und der Entwicklung von Aufgaben beim Mathematischen Modellieren gegeben. Dies soll dazu führen, dass sich der Leser/ die Leserin unter dem Mathematischen Modellieren und deren Bedeutung in der Welt der Mathematik etwas vorstellen kann. Im dritten Theorieteil werden die bisherigen empirischen Erkenntnisse im Bereich der Mathematik und der Intuition vorgestellt. Seitens des Mathematischen Modellierens kann lediglich auf eine empirische Quelle eingegangen werden, da die Intuition in diesem Bereich bisher kaum untersucht wurde. Im zweiten Kapitel dieser Arbeit werden die methodologischen und methodischen Grundlagen der empirischen Annäherung dargestellt. Innerhalb dieses Kapitels sind auch die von mir entwickelten und eingesetzten Fragebögen, die Fragen des Leitfadeninterviews und die Modellierungs-aufgaben samt ihrer stoffdidaktischen Analyse zu finden. Des Weiteren befindet sich hier der Zeitplan der Untersuchung und die Darstellung über die von mir verwendeten Auswertungsmethoden der empirischen Annäherung. Das dritte Kapitel gibt einen Überblick über meine gewonnenen Ergebnis-se und geht speziell auf die von mir aufgestellten Hypothesengenerierungen ein. Des Weiteren wird an Hand eines Fallbeispieles mein Vorgehen bei der Datenauswertung exemplarisch und detailliert erläutert. Im letzten Kapitel dieser wissenschaftlichen Examensarbeit findet eine Zusammenfassung aller wichtigen Erkenntnisse statt. Hier wird auch erklärt, ob Intuition beim Mathematischen Modellieren erkennbar ist oder nicht. Wenn ja, welche Rolle die Intuition beim Mathematischen Modellieren spielt und wie sich die Intuition beim Mathematischen Modellieren erkennen lässt. Darüber hinaus werden Perspektiven für eine mögliche vertiefende Untersuchung aufgezeigt.
Resumo:
In der vorliegenden Dissertation werden Systeme von parallel arbeitenden und miteinander kommunizierenden Restart-Automaten (engl.: systems of parallel communicating restarting automata; abgekürzt PCRA-Systeme) vorgestellt und untersucht. Dabei werden zwei bekannte Konzepte aus den Bereichen Formale Sprachen und Automatentheorie miteinander vescrknüpft: das Modell der Restart-Automaten und die sogenannten PC-Systeme (systems of parallel communicating components). Ein PCRA-System besteht aus endlich vielen Restart-Automaten, welche einerseits parallel und unabhängig voneinander lokale Berechnungen durchführen und andererseits miteinander kommunizieren dürfen. Die Kommunikation erfolgt dabei durch ein festgelegtes Kommunikationsprotokoll, das mithilfe von speziellen Kommunikationszuständen realisiert wird. Ein wesentliches Merkmal hinsichtlich der Kommunikationsstruktur in Systemen von miteinander kooperierenden Komponenten ist, ob die Kommunikation zentralisiert oder nichtzentralisiert erfolgt. Während in einer nichtzentralisierten Kommunikationsstruktur jede Komponente mit jeder anderen Komponente kommunizieren darf, findet jegliche Kommunikation innerhalb einer zentralisierten Kommunikationsstruktur ausschließlich mit einer ausgewählten Master-Komponente statt. Eines der wichtigsten Resultate dieser Arbeit zeigt, dass zentralisierte Systeme und nichtzentralisierte Systeme die gleiche Berechnungsstärke besitzen (das ist im Allgemeinen bei PC-Systemen nicht so). Darüber hinaus bewirkt auch die Verwendung von Multicast- oder Broadcast-Kommunikationsansätzen neben Punkt-zu-Punkt-Kommunikationen keine Erhöhung der Berechnungsstärke. Desweiteren wird die Ausdrucksstärke von PCRA-Systemen untersucht und mit der von PC-Systemen von endlichen Automaten und mit der von Mehrkopfautomaten verglichen. PC-Systeme von endlichen Automaten besitzen bekanntermaßen die gleiche Ausdrucksstärke wie Einwegmehrkopfautomaten und bilden eine untere Schranke für die Ausdrucksstärke von PCRA-Systemen mit Einwegkomponenten. Tatsächlich sind PCRA-Systeme auch dann stärker als PC-Systeme von endlichen Automaten, wenn die Komponenten für sich genommen die gleiche Ausdrucksstärke besitzen, also die regulären Sprachen charakterisieren. Für PCRA-Systeme mit Zweiwegekomponenten werden als untere Schranke die Sprachklassen der Zweiwegemehrkopfautomaten im deterministischen und im nichtdeterministischen Fall gezeigt, welche wiederum den bekannten Komplexitätsklassen L (deterministisch logarithmischer Platz) und NL (nichtdeterministisch logarithmischer Platz) entsprechen. Als obere Schranke wird die Klasse der kontextsensitiven Sprachen gezeigt. Außerdem werden Erweiterungen von Restart-Automaten betrachtet (nonforgetting-Eigenschaft, shrinking-Eigenschaft), welche bei einzelnen Komponenten eine Erhöhung der Berechnungsstärke bewirken, in Systemen jedoch deren Stärke nicht erhöhen. Die von PCRA-Systemen charakterisierten Sprachklassen sind unter diversen Sprachoperationen abgeschlossen und einige Sprachklassen sind sogar abstrakte Sprachfamilien (sogenannte AFL's). Abschließend werden für PCRA-Systeme spezifische Probleme auf ihre Entscheidbarkeit hin untersucht. Es wird gezeigt, dass Leerheit, Universalität, Inklusion, Gleichheit und Endlichkeit bereits für Systeme mit zwei Restart-Automaten des schwächsten Typs nicht semientscheidbar sind. Für das Wortproblem wird gezeigt, dass es im deterministischen Fall in quadratischer Zeit und im nichtdeterministischen Fall in exponentieller Zeit entscheidbar ist.
Resumo:
In den bundesweit rund 670 anerkannten Werkstätten für behinderte Menschen (WfbM) arbeiten aktuell über 290 000 Menschen mit Behinderung. Rund ein Viertel dieser Einrichtungen bieten auch landwirtschaftliche oder gartenbauliche Arbeitsplätze (`Grüne WfbM´). Die UN-Behindertenrechtskonvention fordert u. a. eine inklusive Teilhabe der Menschen mit Behinderung am Arbeitsleben in Form von Zugangsmöglichkeiten zu sozialversicherungspflichtiger Beschäftigung auf dem allgemeinen Arbeitsmarkt. Gleichzeitig können arbeitswirtschaftlich immer mehr landwirtschaftliche Betriebe aufgrund wachsender Betriebsgrößen nicht mehr allein durch die Unternehmerfamilie geführt werden. Neben der Zuhilfenahme von Dienstleistungsanbietern ist die Suche nach Fremdarbeitskräften zwangsläufig. Neben dem Bedarf an qualifiziertem Fachpersonal werden auch Arbeitskräfte für einfachere, tägliche Routinearbeiten gesucht. Die vorliegende Arbeit begleitet wissenschaftlich ein vom Bundesministerium für Ernährung, Landwirtschaft und Verbraucherschutz gefördertes bundesweites Modellvorhaben zur Vernetzung `Grüner WfbM´ mit landwirtschaftlichen Betrieben. Forschungsleitende Fragestellungen sind die betrieblichen Interessen und Voraussetzungen aus Sicht der landwirtschaftlichen Betriebe für die Beschäftigung von Menschen mit Behinderung sowie für bilaterale Kooperationen mit diesen Einrichtungen. Anhand von 44 Betriebsinterviews und unter Anwendung einer qualitativen, rechnerbasierten Fallstudienanalyse zeigen die Ergebnisse eine Vielzahl von Möglichkeiten wirtschaftlich tragfähiger Beschäftigung behinderter Menschen auch in Kernproduktionsprozessen. Unabdingbar dafür sind angepasste Sozialtugenden und ausreichende Arbeitsmotivation auf Arbeitnehmerseite sowie eine offen-innovative und sozial geprägte Grundeinstellung auf Betriebsleitungsseite. Betriebe wünschen sich dauerhafte und verlässliche Arbeitsverhältnisse. Praktika oder gar Experimente kommen für sie eher nicht in Frage. Weniger als 10% aller `Grünen WfbM´ kooperieren bilateral mit umliegenden Betrieben. Dort wo keine Kontakte bestehen, sind Vorbehalte seitens der Landwirte hinsichtlich Wettbewerbsverzerrungen durch vermeintliche Sozialsubventionierung bzw. im Wettbewerb um Ressourcen (z.B. Land) gegenüber den Einrichtungen anzutreffen. Kooperationen fördern gegenseitiges Verständnis und sind so auch idealer `Türöffner´ für Beschäftigungsverhältnisse.