1000 resultados para nichtproduktive Prozesse
Resumo:
Die hier zusammengetragenen Aufsätze gehen sämtlich auf Vorträge zurück, die auf der Jahrestagung der „Sektion Sozialpolitik“ der Deutschen Gesellschaft für Soziologie Anfang Oktober 2011 in Kassel präsentiert wurden. Die Tagung hatte zum Ziel, die Entwicklung wohlfahrtsstaatlicher Infrastruktur(en) zum Gegenstand einer historischen, internationalen und sektorvergleichenden Diskussion zu machen und so die Sensibilität der Fachöffentlichkeit für die oben aufgeworfenen Fragen zu erhöhen.
Resumo:
Optische Spektrometer sind bekannte Instrumente für viele Anwendungen in Life Sciences, Produktion und Technik aufgrund ihrer guten Selektivität und Sensitivität zusammen mit ihren berührungslosen Messverfahren. MEMS (engl. Micro-electro-mechanical system)-basierten Spektrometer werden als disruptive Technologie betrachtet, in der miniaturisierte Fabry-Pérot Filter als sehr attraktiv für die optische Kommunikation und 'Smart Personal Environments', einschließlich des medizinischen Anwendungen, zu nennen sind. Das Ziel dieser Arbeit ist, durchstimmbare Filter-Arrays mit kostengünstigen Technologien herzustellen. Materialien und technologische Prozesse, die für die Herstellung der Filter-Arrays benötigt werden, wurden untersucht. Im Rahmen dieser Arbeit, wurden durchstimmbare Fabry Pérot Filter-Arrays für den sichtbaren Spektralbereich untersucht, die als Nano-Spektrometer eingesetzt werden. Darüber hinaus wurde ein Modell der numerischen Simulation vorgestellt, die zur Ermittlung eines optimales geometrisches Designs verwendet wurde, wobei sich das Hauptaugenmerk der Untersuchung auf die Durchbiegung der Filtermembranen aufgrund der mechanischen Verspannung der Schichten richtet. Die geometrische Form und Größe der Filtermembranen zusammen mit der Verbindungsbrücken sind von entscheidender Bedeutung, da sie die Durchbiegung beeinflussen. Lange und schmale Verbindungsbrücken führen zur stärkeren Durchbiegung der Filtermembranen. Dieser Effekt wurde auch bei der Vergrößerung der Durchmesser der Membran beobachtet. Die Filter mit spiralige (engl. curl-bent) Verbindungsbrücken führten zu geringerer Deformation als die mit geraden oder gebogenen Verbindungsbrücken. Durchstimmbare Si3N4/SiO2 DBR-basierende Filter-Arrays wurden erfolgreich hergestellt. Eine Untersuchung über die UV-NIL Polymere, die als Opferschicht und Haltepfosten-Material der Filter verwendet wurden, wurde durchgeführt. Die Polymere sind kompatibel zu dem PECVD-Verfahren, das für die Spiegel-Herstellung verwendet wird. Die laterale Strukturierung der DBR-Spiegel mittels des RIE (engl. Reactive Ion Etching)-Prozesses sowie der Unterätz-Prozess im Sauerstoffplasma zur Entfernung der Opferschicht und zum Erreichen der Luftspalt-Kavität, wurden durchgeführt. Durchstimmbare Filter-Arrays zeigten einen Abstimmbereich von 70 nm bei angelegten Spannungen von weniger als 20 V. Optimierungen bei der Strukturierung von TiO2/SiO2 DBR-basierenden Filtern konnte erzielt werden. Mit der CCP (engl. Capacitively Coupling Plasma)-RIE, wurde eine Ätzrate von 20 nm/min erreicht, wobei Fotolack als Ätzmaske diente. Mit der ICP (engl. Inductively Coupling Plasma)-RIE, wurden die Ätzrate von mehr als 60 nm/min mit einem Verhältniss der Ar/SF6 Gasflüssen von 10/10 sccm und Fotolack als Ätzmasken erzielt. Eine Ätzrate von 80 bis 90 nm/min wurde erreicht, hier diente ITO als Ätzmaske. Ausgezeichnete geätzte Profile wurden durch den Ätzprozess unter Verwendung von 500 W ICP/300 W RF-Leistung und Ar/SF6 Gasflüsse von 20/10 sccm erreicht. Die Ergebnisse dieser Arbeit ermöglichen die Realisierung eines breiten Spektralbereichs der Filter-Arrays im Nano-Spektrometer.
Resumo:
Since 1970 when Sultan Qaboos bin Said Al Said took over power from this father, agriculture in Oman has undergone major transformations as a consequence of rapid population and economic growth. In this process groundwater extraction has dramatically increased to meet domestic and agricultural needs. Recently, the agro-ecosystem of ancient mountain oases of Oman have received greater attention as interest has grown to understand the causes of their often millennia old sustainable productivity. Particularly little is known about the carbon (C) and nutrient turnover in these intensive landuse systems. This is partly due to the difficulties to measure such processes in the often remote fields. To fill the existing gap of knowledge, field studies were conducted in five oases at different altitudes of Al Jabal Al Akhdar, the highest agricultural area in Oman, to determine C and nutrient fluxes as well as nutrient use efficiencies for two different cropping systems as affected by temperature, irrigation, and manure quality. The results of this study indicated that water scarcity as a result of low precipitation and an increase in urban water consumption is a major threat to the sustainability of agriculture in these oases. Optimizing the use of irrigation water is a major challenge for agriculture in these oases, particularly given ever increasing competition for this most limiting resource. Traditionally, farmers of these oases adapt to variation of irrigation water supply by minimizing the growing area of annual crops, leaving these areas uncultivated through drought seasons (Luedeling and Buerkert 2008). In this study, a remarkable reduction in annual crop area was observed in 2009 for all oases. Our results suggested that water scarcity as a result of low precipitation and the increase in urban water consumption cause such changes in land use. The data also underline the intensive C and nutrient turnover in the man-made irrigated agroecosystems and confirmed the importance of the large manure quantities applied continuously to the terraces as a key factor responsible for sustainable soil productivity. To trace the fate of C and plant nutrients that are released from the large amount of manure applied by oasis farmers, more detailed studies under controlled conditions, using isotope signatures, would be needed.
Resumo:
Vor dem Hintergund der Integration des wissensbasierten Managementsystems Precision Farming in den Ökologischen Landbau wurde die Umsetzung bestehender sowie neu zu entwickelnder Strategien evaluiert und diskutiert. Mit Blick auf eine im Precision Farming maßgebende kosteneffiziente Ertragserfassung der im Ökologischen Landbau flächenrelevanten Leguminosen-Grasgemenge wurden in zwei weiteren Beiträgen die Schätzgüten von Ultraschall- und Spektralsensorik in singulärer und kombinierter Anwendung analysiert. Das Ziel des Precision Farming, ein angepasstes Management bezogen auf die flächeninterne Variabilität der Standorte umzusetzen, und damit einer Reduzierung von Betriebsmitteln, Energie, Arbeit und Umwelteffekten bei gleichzeitiger Effektivitätssteigerung und einer ökonomischen Optimierung zu erreichen, deckt sich mit wesentlichen Bestrebungen im Ökogischen Landbau. Es sind vorrangig Maßnahmen zur Erfassung der Variabilität von Standortfaktoren wie Geländerelief, Bodenbeprobung und scheinbare elektrische Leitfähigkeit sowie der Ertragserfassung über Mähdrescher, die direkt im Ökologischen Landbau Anwendung finden können. Dagegen sind dynamisch angepasste Applikationen zur Düngung, im Pflanzenschutz und zur Beseitigung von Unkräutern aufgrund komplexer Interaktionen und eines eher passiven Charakters dieser Maßnahmen im Ökologischen Landbau nur bei Veränderung der Applikationsmodelle und unter Einbindung weiterer dynamischer Daten umsetzbar. Beispiele hiefür sind einzubeziehende Mineralisierungsprozesse im Boden und organischem Dünger bei der Düngemengenberechnung, schwer ortsspezifisch zuzuordnende präventive Maßnamen im Pflanzenschutz sowie Einflüsse auf bodenmikrobiologische Prozesse bei Hack- oder Striegelgängen. Die indirekten Regulationsmechanismen des Ökologischen Landbaus begrenzen daher die bisher eher auf eine direkte Wirkung ausgelegten dynamisch angepassten Applikationen des konventionellen Precision Farming. Ergänzend sind innovative neue Strategien denkbar, von denen die qualitätsbezogene Ernte, der Einsatz hochsensibler Sensoren zur Früherkennung von Pflanzenkrankheiten oder die gezielte teilflächen- und naturschutzorientierte Bewirtschaftung exemplarisch in der Arbeit vorgestellt werden. Für die häufig große Flächenanteile umfassenden Leguminosen-Grasgemenge wurden für eine kostengünstige und flexibel einsetzbare Ertragserfassung die Ultraschalldistanzmessung zur Charakterisierung der Bestandeshöhe sowie verschiedene spektrale Vegetationsindices als Schätzindikatoren analysiert. Die Vegetationsindices wurden aus hyperspektralen Daten nach publizierten Gleichungen errechnet sowie als „Normalized Difference Spectral Index“ (NDSI) stufenweise aus allen möglichen Wellenlängenkombinationen ermittelt. Die Analyse erfolgte für Ultraschall und Vegetationsindices in alleiniger und in kombinierter Anwendung, um mögliche kompensatorische Effekte zu nutzen. In alleiniger Anwendung erreichte die Ultraschallbestandeshöhe durchweg bessere Schätzgüten, als alle einzelnen Vegetationsindices. Bei den letztgenannten erreichten insbesondere auf Wasserabsorptionsbanden basierende Vegetationsindices eine höhere Schätzgenauigkeit als traditionelle Rot/Infrarot-Indices. Die Kombination beider Sensorda-ten ließ eine weitere Steigerung der Schätzgüte erkennen, insbesondere bei bestandesspezifischer Kalibration. Hierbei kompensieren die Vegetationsindices Fehlschätzungen der Höhenmessung bei diskontinuierlichen Bestandesdichtenänderungen entlang des Höhengradienten, wie sie beim Ährenschieben oder durch einzelne hochwachsende Arten verursacht werden. Die Kombination der Ultraschallbestandeshöhe mit Vegetationsindices weist das Potential zur Entwicklung kostengünstiger Ertragssensoren für Leguminosen-Grasgemenge auf. Weitere Untersuchungen mit hyperspektralen Vegetationsindices anderer Berechnungstrukturen sowie die Einbindung von mehr als zwei Wellenlängen sind hinsichtlich der Entwicklung höherer Schätzgüten notwendig. Ebenso gilt es, Kalibrierungen und Validationen der Sensorkombination im artenreichen Grasland durchzuführen. Die Ertragserfassung in den Leguminosen-Grasgemengen stellt einen wichtigen Beitrag zur Erstellung einer Ertragshistorie in den vielfältigen Fruchtfolgen des Ökologischen Landbaus dar und ermöglicht eine verbesserte Einschätzung von Produktionspotenzialen und Defizitarealen für ein standortangepasstes Management.
Resumo:
Mit der vorliegenden Arbeit soll ein Beitrag zu einer (empirisch) gehaltvollen Mikrofundierung des Innovationsgeschehens im Rahmen einer evolutorischen Perspektive geleistet werden. Der verhaltensbezogene Schwerpunkt ist dabei, in unterschiedlichem Ausmaß, auf das Akteurs- und Innovationsmodell von Herbert Simon bzw. der Carnegie-School ausgerichtet und ergänzt, spezifiziert und erweitert dieses unter anderem um vertiefende Befunde der Kreativitäts- und Kognitionsforschung bzw. der Psychologie und der Vertrauensforschung sowie auch der modernen Innovationsforschung. zudem Bezug auf einen gesellschaftlich und ökonomisch relevanten Gegenstandsbereich der Innovation, die Umweltinnovation. Die Arbeit ist sowohl konzeptionell als auch empirisch ausgerichtet, zudem findet die Methode der Computersimulation in Form zweier Multi-Agentensysteme Anwendung. Als zusammenfassendes Ergebnis lässt sich im Allgemeinen festhalten, dass Innovationen als hochprekäre Prozesse anzusehen sind, welche auf einer Verbindung von spezifischen Akteursmerkmalen, Akteurskonstellationen und Umfeldbedingungen beruhen, Iterationsschleifen unterliegen (u.a. durch Lernen, Rückkoppelungen und Aufbau von Vertrauen) und Teil eines umfassenderen Handlungs- sowie (im Falle von Unternehmen) Organisationskontextes sind. Das Akteurshandeln und die Interaktion von Akteuren sind dabei Ausgangspunkt für Emergenzen auf der Meso- und der Makroebene. Die Ergebnisse der Analysen der in dieser Arbeit enthaltenen fünf Fachbeiträge zeigen im Speziellen, dass der Ansatz von Herbert Simon bzw. der Carnegie-School eine geeignete theoretische Grundlage zur Erfassung einer prozessorientierten Mikrofundierung des Gegenstandsbereichs der Innovation darstellt und – bei geeigneter Ergänzung und Adaption an den jeweiligen Erkenntnisgegenstand – eine differenzierte Betrachtung unterschiedlicher Arten von Innovationsprozessen und deren akteursbasierten Grundlagen sowohl auf der individuellen Ebene als auch auf Ebene von Unternehmen ermöglicht. Zudem wird deutlich, dass der Ansatz von Herbert Simon bzw. der Carnegie-School mit dem Initiationsmodell einen zusätzlichen Aspekt in die Diskussion einbringt, welcher bislang wenig Aufmerksamkeit fand, jedoch konstitutiv für eine ökonomische Perspektive ist: die Analyse der Bestimmungsgrößen (und des Prozesses) der Entscheidung zur Innovation. Denn auch wenn das Verständnis der Prozesse bzw. der Determinanten der Erstellung, Umsetzung und Diffusion von Innovationen von grundlegender Bedeutung ist, ist letztendlich die Frage, warum und unter welchen Umständen Akteure sich für Innovationen entscheiden, ein zentraler Kernbereich einer ökonomischen Betrachtung. Die Ergebnisse der Arbeit sind auch für die praktische Wirtschaftspolitik von Bedeutung, insbesondere mit Blick auf Innovationsprozesse und Umweltwirkungen.
Resumo:
Seit Anfang der 1990er Jahre wird Schulen mit dem Ziel der Qualitätsentwicklung größere Autonomie zugesprochen, um somit auch verstärkt lokalen und regionalen Anforderungen und Gegebenheiten gerecht zu werden (Rahm & Schröck, 2007). Die Profilierung als Partnerschule des Leistungssports (PdL) ist Ausdruck einer solchen Schulentwicklung (Fessler, 2010). Die PdL sind die federführenden Schulen im hessischen Landesprogramm „Talentsuche – Talentförderung“ und haben die Aufgabe, die Athleten bei der Bewältigung der Doppelbelastung durch Schule und Leistungssport zu unterstützen (Scheid, Eppinger & Adolph, 2007). Das Landesprogramm enthält verbindliche Vorgaben zur Struktur und Umsetzung der PdL (HKM & LSB Hessen, 2006). Diese werden jedoch auf Grund der unterschiedlichen Kontexte und individuellen Entscheidungen der Funktionsträger und Akteure auf der einzel-schulischen Ebene interpretiert und den jeweiligen Bedingungen angepasst. Dies führt zu unterschiedlichen Vor-Ort-Lösungen der schulischen Profilierung (Fend, 2008). Die Studie geht drei übergeordneten Fragestellungen nach: 1. Gelingt es den Partnerschulen die leistungssportlich ambitionierte Schülerinnen und Schüler zu fördern, pädagogisch zu unterstützen und die schulische Ausbildung zu gewährleisten? 2. Welche Bedeutung haben die Bereiche und Dimensionen der Schulqualität für die Partnerschulen im Hinblick auf eine effektive Verbindung von schulischer Ausbildung und leistungssportlicher Entwicklung? 3. Welche Besonderheiten und Unterschiede lassen sich zwischen den untersuchten Schulen feststellen? Die in zwei Phasen gegliederte Untersuchung zielt mit seinem qualitativen Vorgehen auf die Evaluation solcher individuellen Schulprofile und die Identifizierung der Bedingungen und Prozesse der Vernetzung von Schule und Leistungssport. Mittels Fragebögen und Schulprogrammanalysen (Phase 1 – Bestanderhebung an allen 27 PdL) sowie leitfadengestützter Interviews an sechs ausgewählten Standorten (Phase 2 – Qualitätsanalyse) werden die bedeutenden Bereiche der Qualitätsentwicklung herausgearbeitet und inhaltsanalytisch nach Mayring (2010) ausgewertet. Als wichtige Ergebnisse der Evaluation der Entwicklung des Schulprofils Partnerschule des Leistungssports kann u.a. festgestellt werden, dass 1. es allen Schulen weitestgehend gelingt die Nachwuchsathleten pädagogisch verant-wortungsbewusst zu fördern, sich jedoch einzelne Sportschüler auch dazu kritisch äußern. 2. die Bedeutung der Qualitätsbereiche zwischen den Schulen variiert; die Schulleitung im Prozess der Profilierung eine der wichtigsten Rollen einnimmt und die besondere Aufgabe für sie darin besteht – im Sinne von governance – unterschiedliche Ansichten und Einstellungen der Akteure zu reflektieren, zu kommunizieren und zu koordinieren. 3. an Schulen mit einer betont leistungssportlichen Ausrichtung vermehrt Konflikte auftreten können und mit Blick auf die Sportschüler die Gefahr besteht, dass an diesen Schulen nicht immer das Ziel der Mündigkeit erreicht wird.
Resumo:
Die soziale Waldamöbe Dictystelium discoideum ist ein etablierter Modellorganismus zur Erforschung grundlegender zellbiologischer Prozesse. Innerhalb der letzten Jahre konnte dabei insbesondere das Wissen zum Lipidmetabolismus umfassend erweitert werden. In diesem Zusammenhang spielt besonders eine Enzymgruppe eine wichtige Rolle: die LC/VLC-Acyl-CoA-Synthetasen. Diese übernehmen dabei die Aufgabe Fettsäuren zu aktivieren, um sie so dem Zellmetabolismus überhaupt erst zugänglich zu machen. D. discoideum verfügt über insgesamt vier dieser Enzyme: FcsA, FcsB, FcsC und das Bubblegum-Enzym Acsbg1. Während die FcsA und FcsB bereits in vorangegangenen Arbeiten untersucht wurden, werden die FcsC und die Acsbg1 in dieser Arbeit erstmals biologisch charakterisiert. Untersuchungen zur subzellulären Lokalisation der Proteine zeigen, dass die meisten LC/VLC-Acyl-CoA-Synthetase auf Endosomen und im Cytoplasma gefunden werden können (FcsA, FcsC und Acsbg1), während die FcsB als Transmembranprotein über das ER zu den Peroxisomen transportiert wird. Die Acsbg1 akkumuliert dabei zusätzlich an der Plasmamembran. Funktionell konnte gezeigt werden, dass neben der FcsA auch die Acsbg1 an der Bereitstellung von Acyl-CoA für Triacylglyceridsynthese beteiligt ist. Dabei besitzt die FcsA die Hauptenzymaktivität und kompensiert den Verlust der Acsbg1 in acsbg1- Zellen. In fcsA-/acsbg1- Zellen dagegen kommt der Verlust der Acsbg1 durch eine zusätzliche Verringerung des TAG-Gehaltes der Doppel-KOs im Vergleich zu fcsA- Zellen zum tragen. Alle vier Enzyme beeinflussen die Phagozytose. Dabei zeigen fcsA- und fcsC- Zellen eine gesteigerte Phagozytose in Gegenwart von der gesättigten Fettsäure Palmitinsäure im Kulturmedium. Auch der knockout der Acsbg1 wirkt sich positiv auf die Phagozytoserate aus, jedoch kommt auch nur dieser zum tragen, wenn neben der Acsbg1 auch die FcsA ausgeschaltet wird. Die FcsB dagegen zeigt eine dramatische Reduktion der Partikelaufnahme in nicht Fettsäure gefütterten Zellen. Durch die Zugabe einer exogenen Fettsäure kann dieser Effekt nicht kompensiert werden. Auch der zusätzliche Verlust der FcsA-Enzymaktivität verändert dieses Verhalten in Palmitinsäure inkubierten Zellen nicht. In fcsA-/fcsB- konnte zudem ein Defekt beim Abbau von Triacylglyceriden gefunden werden. Dieser Defekt liefert erste Hinweise für ein Modell, das den Abbau von LD gespeicherten Lipiden durch Autophagozytose in D. discoideum beschreibt. Peroxisomen sind wichtige Organellen für die Detoxifikation und die Oxidation von Fettsäuren. Durch das Ausschalten der Acaa1, der Thiolase, die den letzten Schritt der β-Oxidation in Peroxisomen katalysiert, zeigte sich ein verlangsamter Triacylglycerol-Abbau sowie eine verringerte Degradation des Etherlipids UKL und von Sterolestern, was auf eine Beteiligung der Peroxisomen beim Abbau von langkettigen Fettsäuren schließen lässt. Bei dem Versuch durch das Ausschalten des pex19-Gens eine Zelllinie zu generieren, die keine Peroxisomen besitzt, wurde die Organelle überraschender Weise, wenn auch mit einer vom Wildtyp abweichenden Morphologie, weiterhin vorgefunden. Dieser Befund korrelierte mit dem Resultat, dass trotzdem das pex19-Gen erfolgreich unterbrochen wurde, dennoch eine intakte Kopie des Gens nachgewiesen werden konnte. Dementsprechend sollte die erschaffene pex19- Zelllinie als knockdown und nicht als knockout gewertet werden. Der pex19 knockdown zeigte beim Abbau von Triacylglyceriden eine ähnliche Verlangsamung wie acaa1- Zellen. Zusätzlich wurde eine Verringerung der Synthese des Etherlipids UKL beobachtet, was darauf hindeutet, dass dieses Lipid im Peroxisom gebildet wird. Auch die Phagozytose und das Wachstum auf Bakterienrasen waren im pex19 knockdown dramatisch reduziert. Durch die Überexpression von Pex19-GFP im knockdown Hintergrund konnten die physiologischen Defekte in den meisten so generierten Zelllinien ausgeglichen werden. Lipid Droplets sind Organellen, die in Eukaryoten und Prokaryoten als Speicher für Neutralfette dienen und ebenfalls als Ort der Lipidsynthese fungieren. Um diese Aufgaben erfüllen zu können, besitzen sie auf ihrer Oberfläche Proteine, die für die Regulierung dieser Prozesse notwendig sind. Durch die weiterführende Analyse von Kandidatenproteinen, die durch eine proteomische Analyse von aufgereinigten LDs identifiziert wurden, konnte für vier weitere Proteine (Plsc1, Net4, Lip5 und Nsdhl) die LD-Assoziation durch GFP-Fusionsproteine bestätigt werden. Bei der Charakterisierung von plsc1 knockouts zeigte sich eine verminderte Fähigkeit beim Wachstum auf Bakterienrasen sowie eine erhöhte Phagozytoserate in Gegenwart einer exogenen Fettsäure, was auf eine Involvierung des Proteins in die Phospholipidsynthese hindeutet. Die bisher einzige identifizierte LD-assoziierte Lipase Lip5 nimmt nur eine untergeordnete Rolle bei der Hydrolyse von Triacylglycerolen und Sterolestern ein, da in KO-Mutanten nur ein milder Defekt beim Abbau beider Substanzen beobachtet werden konnte. Die LD-Lokalisation von Net4 ist evolutionär konserviert und kann nicht nur in D. discoideum beobachtet werden, sondern auch in humanen Zellen. Welche Funktion das Protein auf der LD-Oberfläche ausübt, konnte nicht geklärt werden. Allerdings kann ein direkter Einfluss auf den TAG- und Sterolaufbau ausgeschlossen werden. LDs stehen in engem Kontakt mit anderen Organellen, die in den Lipidmetabolismus involviert sind, wie mit den Mitochondrien oder dem ER. Durch Perilipin-Hybridproteine können künstliche, stabile Verbindungen zwischen LDs und diesen Organellen hergestellt werden. Dabei zeigte Perilipin ein sehr starkes Targeting-Potenzial, durch welches es notwendig war, als zweite Hybridhälfte ein Transmembranprotein zu wählen. Die Analyse eines Hybrids, das eine dauerhafte Verbindung von LDs und dem ER herstellt, wies dabeieine Reduktion der LD-Größe auf, wobei der Gesamt-TAG-Gehalt der Zellen unbeeinflusst blieb. Durch die starke Affinität von Perilipin für die Assoziation an LDs konnten durch die Generierung von Hybriden andere Proteine an die LD-Oberfläche dirigiert werden. Auf diese Weise konnte erfolgreich die LC-Acyl-CoA-Synthetase FcsA auf das LD transplantiert werden.
Resumo:
Im Rahmen der Organischen Optoelektronik wird der Weg vom Molekül zum Bauteil als Wertschöpfungskette verstanden, deren Kernziele wissenschaftlicher Erkenntnisfortschritt und Produktanwendungen sind. Eine besonders vielversprechende Möglichkeit diese Entwicklung auch in Zukunft erfolgreich und innovativ fortführen zu können, eröffnet sich durch das Einbeziehen magnetosensitiver Prozesse. Spinzustände werden als zusätzliche Regelgröße verstanden, die es erlauben, optoelektronische Abläufe zu optimieren und neuartige Funktionen zu generieren. Dieses Konzept integriert die Vorteile sowie das Potential der Spintronik in die Organische Optoelektronik und hat sich zu einem zukunftsweisenden, neuartigen Forschungsfeld entwickelt. Es wird als Organische Magnetooptoelektronik bezeichnet und beschäftigt sich mit der Wirkung magnetischer Felder auf optisch und elektronisch anregbare Zustände in organischen Halbleitern. Mit den durchgeführten Forschungsaktivitäten ist es gelungen, Organische Feldeffekt-Transistoren (OFETs) als neuartige Plattform zur Untersuchung magnetooptoelektronischer Phänomene in niedermolekularen Halbleitern zu etablieren. Der gezielte Einsatz geeigneter Funktionsmaterialien ermöglicht die Herstellung magnetoresistiver 3-Kontakt-Bauteile, die das Wissenschaftsfeld des Organischen Magnetowiderstands entscheidend erweitern und dessen Anwendungsspektrum vergrößern. Dabei offenbaren OFETs auf Basis der Lochtransportmaterialien Pentacen und TIPS-Pentacen unter Belichtung magnetosensitives Verhalten, das erlaubt den Organischen Magnetowiderstand optisch ein- und auszuschalten. Auch ohne zusätzliche Belichtung können Magnetfeldeffekte erzielt werden, wenn spezielle Donor- und Akzeptor-Komponenten eingesetzt werden. Aus der ionisierenden Wechselwirkung zwischen Spiro-TTB (Elektronendonor) und HAT-CN (Elektronenakzeptor) resultiert eine so ausgeprägte Magnetosensitivität, dass bereits ultrakleine Magnetfelder den Ladungstransport signifikant beeinflussen. Zudem ist das magnetoresistive Verhalten empfindlich von den Spannungsbedingungen abhängig und das MR-Vorzeichen kann durch die Drainspannung umgepolt werden. Donor- und Akzeptor-Syteme mit nichtionisierender Wechselwirkung erweisen sich ebenfalls als geeignet für die Herstellung magnooptoelektronisch aktiver Bauteile. Sowohl in Spiro-DPPFPy als auch in Spiro-TAD/Spiro-PFPy OFETs zeigen sich im Dunkeln positiver und unter Belichtung negativer Magnetowiderstand. Diese gegensätzlichen MR-Komponenten lassen sich mit der Belichtungsintensität sowie der Magnetfeldstärke systematisch modulieren und es ist das magnetooptoelektronische Schalten des MR-Vorzeichens möglich. Unterschiedliche MR-Komponenten treten auch in ambipolaren Spiro-DPASP-tBu-Phenyl OFETs auf. Deren Drainstrom lässt sich in lochdominierte, elektronendominierte sowie ambipolare Bereiche gliedern, wobei bei unipolarem Ladungstransport positiver und bei ambipolarem negativer Magnetowiderstand vorherrscht. Mit der Betriebsspannung kann zwischen den jeweiligen Transportbereichen und damit dem MR-Vorzeichen geschaltet werden. All diese Facetten des Organischen Magnetowiderstands sind nicht nur Ausdruck des weitreichenden physikalischen Hintergrunds, sondern eröffnen eine vielversprechende Perspektive zur Realisierung multifunktionaler, magnetooptoelektronischer 3-Kontakt-Bauteile auf Basis organischer Halbleiter. Neben dem Nachweis neuartiger magnetoresistiver Phänomene in Organischen Feldeffekt-Transistoren beinhaltet dieses Forschungsprojekt das Ziel, zur Entschlüsselung der zugrundeliegenden Elementarprozesse beizutragen. Dabei ergibt sich folgendes Resümee für die Interpretation der erzielten Magnetfeldeffekte: Unter unipolaren Transportbedingungen wird der Magnetowiderstand durch spinsensitive Bipolaronenbildung versursacht. Im Rahmen dieser Arbeit tragen Bipolaronen signifikant zum Drainstrom bei, wenn im Leitungskanal Gegenladungen vorhanden sind oder dieser aus chemischen Einheiten mit hoher Elektronenaffinitätsdifferenz aufgebaut ist. Weitere MR-Komponenten werden erschlossen, wenn im Transportvolumen simultan positive und negative Ladungsträger vorhanden sind. Deren Interaktion resultiert in Elektron-Loch Paaren, die über ein magnetosensitives Reaktionsverhalten verfügen. Sie werden entweder über Belichtung der OFET-Struktur erzeugt oder bilden sich während des ambipolaren Ladungstransports.
Resumo:
Die laserinduzierte Plasmaspektroskopie (LIPS) ist eine spektrochemische Elementanalyse zur Bestimmung der atomaren Zusammensetzung einer beliebigen Probe. Für die Analyse ist keine spezielle Probenpräparation nötig und kann unter atmosphärischen Bedingungen an Proben in jedem Aggregatzustand durchgeführt werden. Femtosekunden Laserpulse bieten die Vorteile einer präzisen Ablation mit geringem thermischen Schaden sowie einer hohen Reproduzierbarkeit. Damit ist fs-LIPS ein vielversprechendes Werkzeug für die Mikroanalyse technischer Proben, insbesondere zur Untersuchung ihres Ermüdungsverhaltens. Dabei ist interessant, wie sich die initiierten Mikrorisse innerhalb der materialspezifschen Struktur ausbreiten. In der vorliegenden Arbeit sollte daher ein schnelles und einfach zu handhabendes 3D-Rasterabbildungsverfahren zur Untersuchung der Rissausbreitung in TiAl, einer neuen Legierungsklasse, entwickelt werden. Dazu wurde fs-LIPS (30 fs, 785 nm) mit einem modifizierten Mikroskopaufbau (Objektiv: 50x/NA 0.5) kombiniert, welcher eine präzise, automatisierte Probenpositionierung ermöglicht. Spektrochemische Sensitivität und räumliches Auflösungsvermögen wurden in energieabhängigen Einzel- und Multipulsexperimenten untersucht. 10 Laserpulse pro Position mit einer Pulsenergie von je 100 nJ führten in TiAl zum bestmöglichen Kompromiss aus hohem S/N-Verhältnis von 10:1 und kleinen Lochstrukturen mit inneren Durchmessern von 1.4 µm. Die für das Verfahren entscheidende laterale Auflösung, dem minimalen Lochabstand bei konstantem LIPS-Signal, beträgt mit den obigen Parametern 2 µm und ist die bislang höchste bekannte Auflösung einer auf fs-LIPS basierenden Mikro-/Mapping-Analyse im Fernfeld. Fs-LIPS Scans von Teststrukturen sowie Mikrorissen in TiAl demonstrieren eine spektrochemische Sensitivität von 3 %. Scans in Tiefenrichtung erzielen mit denselben Parametern eine axiale Auflösung von 1 µm. Um die spektrochemische Sensitivität von fs-LIPS zu erhöhen und ein besseres Verständnis für die physikalischen Prozesse während der Laserablation zu erhalten, wurde in Pump-Probe-Experimenten untersucht, in wieweit fs-Doppelpulse den laserinduzierten Abtrag sowie die Plasmaemission beeinflussen. Dazu wurden in einem Mach-Zehnder-Interferometer Pulsabstände von 100 fs bis 2 ns realisiert, Gesamtenergie und Intensitätsverhältnis beider Pulse variiert sowie der Einfluss der Materialparameter untersucht. Sowohl das LIPS-Signal als auch die Lochstrukturen zeigen eine Abhängigkeit von der Verzögerungszeit. Diese wurden in vier verschiedene Regimes eingeteilt und den physikalischen Prozessen während der Laserablation zugeordnet: Die Thermalisierung des Elektronensystems für Pulsabstände unter 1 ps, Schmelzprozesse zwischen 1 und 10 ps, der Beginn des Abtrags nach mehreren 10 ps und die Expansion der Plasmawolke nach über 100 ps. Dabei wird das LIPS-Signal effizient verstärkt und bei 800 ps maximal. Die Lochdurchmesser ändern sich als Funktion des Pulsabstands wenig im Vergleich zur Tiefe. Die gesamte Abtragsrate variiert um maximal 50 %, während sich das LIPS-Signal vervielfacht: Für Ti und TiAl typischerweise um das Dreifache, für Al um das 10-fache. Die gemessenen Transienten zeigen eine hohe Reproduzierbarkeit, jedoch kaum eine Energie- bzw. materialspezifische Abhängigkeit. Mit diesen Ergebnissen wurde eine gezielte Optimierung der DP-LIPS-Parameter an Al durchgeführt: Bei einem Pulsabstand von 800 ps und einer Gesamtenergie von 65 nJ (vierfach über der Ablationsschwelle) wurde eine 40-fache Signalerhöhung bei geringerem Rauschen erzielt. Die Lochdurchmesser vergrößerten sich dabei um 44 % auf (650±150) nm, die Lochtiefe um das Doppelte auf (100±15) nm. Damit war es möglich, die spektrochemische Sensitivität von fs-LIPS zu erhöhen und gleichzeitig die hohe räumliche Auflösung aufrecht zu erhalten.
Resumo:
Die Wissenschaft weist im Zuge der Entwicklung von der Industrie- zu einer Wissensgesellschaft einschneidende Veränderungen in der Wissensordnung auf, welche sich bis hin zu einem zunehmenden Verlust der wissenschaftlichen Selbststeuerungsmechanismen bemerkbar machen und einen veränderten Umgang mit dem generierten Wissensschatz erfordern. Nicht nur Änderungen in der Wissensordnung und -produktion stellen die Psychoanalyse vor neue Herausforderungen: In den letzten Jahrzehnten geriet sie als Wissenschaft und Behandlungsverfahren zunehmend in die Kritik und reagierte mit einer konstruktiven Diskussion um ein dem Forschungsgegenstand – die Untersuchung unbewusster Prozesse und Fantasien – adäquates psychoanalytisches Forschungsverständnis. Die Auseinandersetzung mit Forderungen gesellschaftlicher Geldgeber, politischer Vertreter und Interessensgruppen wie auch der wissenschaftlichen Community stellt die Psychoanalyse vor besondere Herausforderungen. Um wissenschaftsexternen wie -internen Gütekriterien zu genügen, ist häufig ein hoher personeller, materieller, finanzieller, methodischer wie organisatorischer Aufwand unabdingbar, wie das Beispiel des psychoanalytischen Forschungsinstitutes Sigmund-Freud-Institut zeigt. Der steigende Aufwand schlägt sich in einer zunehmenden Komplexität des Forschungsprozesses nieder, die unter anderem in den vielschichtigen Fragestellungen und Zielsetzungen, dem vermehrt interdisziplinären, vernetzten Charakter, dem Umgang mit dem umfangreichen, hochspezialisierten Wissen, der Methodenvielfalt, etc. begründet liegt. Um jener Komplexität des Forschungsprozesses gerecht zu werden, ist es zunehmend erforderlich, Wege des Wissensmanagement zu beschreiten. Tools wie z. B. Mapping-Verfahren stellen unterstützende Werkzeuge des Wissensmanagements dar, um den Herausforderungen des Forschungsprozesses zu begegnen. In der vorliegenden Arbeit werden zunächst die veränderten Forschungsbedingungen und ihre Auswirkungen auf die Komplexität des Forschungsprozesses - insbesondere auch des psychoanalytischen Forschungsprozesses - reflektiert. Die mit der wachsenden Komplexität einhergehenden Schwierigkeiten und Herausforderungen werden am Beispiel eines interdisziplinär ausgerichteten EU-Forschungsprojektes näher illustriert. Um dieser wachsenden Komplexität psychoanalytischer Forschung erfolgreich zu begegnen, wurden in verschiedenen Forschungsprojekten am Sigmund-Freud-Institut Wissensmanagement-Maßnahmen ergriffen. In der vorliegenden Arbeit wird daher in einem zweiten Teil zunächst auf theoretische Aspekte des Wissensmanagements eingegangen, die die Grundlage der eingesetzten Wissensmanagement-Instrumente bildeten. Dabei spielen insbesondere psychologische Aspekte des Wissensmanagements eine zentrale Rolle. Zudem werden die konkreten Wissensmanagement-Tools vorgestellt, die in den verschiedenen Forschungsprojekten zum Einsatz kamen, um der wachsenden Komplexität psychoanalytischer Forschung zu begegnen. Abschließend werden die Hauptthesen der vorliegenden Arbeit noch einmal reflektiert und die geschilderten Techniken des Wissensmanagements im Hinblick auf ihre Vor- und Nachteile kritisch diskutiert.
Resumo:
In the past decades since Schumpeter’s influential writings economists have pursued research to examine the role of innovation in certain industries on firm as well as on industry level. Researchers describe innovations as the main trigger of industry dynamics, while policy makers argue that research and education are directly linked to economic growth and welfare. Thus, research and education are an important objective of public policy. Firms and public research are regarded as the main actors which are relevant for the creation of new knowledge. This knowledge is finally brought to the market through innovations. What is more, policy makers support innovations. Both actors, i.e. policy makers and researchers, agree that innovation plays a central role but researchers still neglect the role that public policy plays in the field of industrial dynamics. Therefore, the main objective of this work is to learn more about the interdependencies of innovation, policy and public research in industrial dynamics. The overarching research question of this dissertation asks whether it is possible to analyze patterns of industry evolution – from evolution to co-evolution – based on empirical studies of the role of innovation, policy and public research in industrial dynamics. This work starts with a hypothesis-based investigation of traditional approaches of industrial dynamics. Namely, the testing of a basic assumption of the core models of industrial dynamics and the analysis of the evolutionary patterns – though with an industry which is driven by public policy as example. Subsequently it moves to a more explorative approach, investigating co-evolutionary processes. The underlying questions of the research include the following: Do large firms have an advantage because of their size which is attributable to cost spreading? Do firms that plan to grow have more innovations? What role does public policy play for the evolutionary patterns of an industry? Are the same evolutionary patterns observable as those described in the ILC theories? And is it possible to observe regional co-evolutionary processes of science, innovation and industry evolution? Based on two different empirical contexts – namely the laser and the photovoltaic industry – this dissertation tries to answer these questions and combines an evolutionary approach with a co-evolutionary approach. The first chapter starts with an introduction of the topic and the fields this dissertation is based on. The second chapter provides a new test of the Cohen and Klepper (1996) model of cost spreading, which explains the relationship between innovation, firm size and R&D, at the example of the photovoltaic industry in Germany. First, it is analyzed whether the cost spreading mechanism serves as an explanation for size advantages in this industry. This is related to the assumption that the incentives to invest in R&D increase with the ex-ante output. Furthermore, it is investigated whether firms that plan to grow will have more innovative activities. The results indicate that cost spreading serves as an explanation for size advantages in this industry and, furthermore, growth plans lead to higher amount of innovative activities. What is more, the role public policy plays for industry evolution is not finally analyzed in the field of industrial dynamics. In the case of Germany, the introduction of demand inducing policy instruments stimulated market and industry growth. While this policy immediately accelerated market volume, the effect on industry evolution is more ambiguous. Thus, chapter three analyzes this relationship by considering a model of industry evolution, where demand-inducing policies will be discussed as a possible trigger of development. The findings suggest that these instruments can take the same effect as a technical advance to foster the growth of an industry and its shakeout. The fourth chapter explores the regional co-evolution of firm population size, private-sector patenting and public research in the empirical context of German laser research and manufacturing over more than 40 years from the emergence of the industry to the mid-2000s. The qualitative as well as quantitative evidence is suggestive of a co-evolutionary process of mutual interdependence rather than a unidirectional effect of public research on private-sector activities. Chapter five concludes with a summary, the contribution of this work as well as the implications and an outlook of further possible research.
Resumo:
Since no physical system can ever be completely isolated from its environment, the study of open quantum systems is pivotal to reliably and accurately control complex quantum systems. In practice, reliability of the control field needs to be confirmed via certification of the target evolution while accuracy requires the derivation of high-fidelity control schemes in the presence of decoherence. In the first part of this thesis an algebraic framework is presented that allows to determine the minimal requirements on the unique characterisation of arbitrary unitary gates in open quantum systems, independent on the particular physical implementation of the employed quantum device. To this end, a set of theorems is devised that can be used to assess whether a given set of input states on a quantum channel is sufficient to judge whether a desired unitary gate is realised. This allows to determine the minimal input for such a task, which proves to be, quite remarkably, independent of system size. These results allow to elucidate the fundamental limits regarding certification and tomography of open quantum systems. The combination of these insights with state-of-the-art Monte Carlo process certification techniques permits a significant improvement of the scaling when certifying arbitrary unitary gates. This improvement is not only restricted to quantum information devices where the basic information carrier is the qubit but it also extends to systems where the fundamental informational entities can be of arbitary dimensionality, the so-called qudits. The second part of this thesis concerns the impact of these findings from the point of view of Optimal Control Theory (OCT). OCT for quantum systems utilises concepts from engineering such as feedback and optimisation to engineer constructive and destructive interferences in order to steer a physical process in a desired direction. It turns out that the aforementioned mathematical findings allow to deduce novel optimisation functionals that significantly reduce not only the required memory for numerical control algorithms but also the total CPU time required to obtain a certain fidelity for the optimised process. The thesis concludes by discussing two problems of fundamental interest in quantum information processing from the point of view of optimal control - the preparation of pure states and the implementation of unitary gates in open quantum systems. For both cases specific physical examples are considered: for the former the vibrational cooling of molecules via optical pumping and for the latter a superconducting phase qudit implementation. In particular, it is illustrated how features of the environment can be exploited to reach the desired targets.
Resumo:
Der kundenindividuelle Anlagenbau (z. B. im Bereich Energie-, Kraftwerk- und Umwelttechnik) ist durch ein klassisches Projektgeschäft geprägt und erfordert ein individuelles Projektmanagement in Abhängigkeit von dem zu liefernden Produkt und den jeweiligen kunden- und projektindividuellen Rahmenbedingungen. So steht das Projektmanagement hier vor der Herausforderung, dass Anlagen in Form einer Baustellenfertigung als Unikate realisiert werden müssen, wobei die einzelnen Module häufig an unterschiedlichen Standorten gefertigt und dann unter Beachtung systemtechnischer, konstruktiver, lokaler, logistischer, energetischer, wetterbedingter, zeitlicher und finanzieller Randbedingungen beim Kunden montiert werden müssen. Zudem werden Projekterfahrungen selten über Projekte hinaus weitergereicht, d. h. es erfolgt nur bedingt eine Zusammenführung des Erfahrungswissens, das während der Projektrealisierung anwächst. Zur Risikovermeidung im Projektverlauf und zur Erreichung einer termingerechten Inbetriebnahme sind daher in Erweiterung zu den heutigen Projektmanagementwerkzeugen ergänzende Methoden zur Abschätzung von Projektunsicherheiten und zur Bewertung von Projektplänen, aber auch zur nachhaltige Nutzung von Projektwissen notwendig. Zur Verbesserung des logistikintegrierten Projektmanagements im kundenindividuellen Anlagenbau wurde daher eine Methodik zur projekt- und produktspezifischen Unterstützung des Projektmanagements entwickelt und anhand eines Demonstrators umgesetzt. Statt den Unsicherheiten im Projektverlauf mit zusätzlichen Pufferzeiten zu begegnen, bewertet jetzt eine mit Optimierungs-, Analyse- und Visualisierungsverfahren kombinierte Ablaufsimulation zufällige Einflüsse in den Plänen. Hierdurch wird eine Verbesserung des Risikomanagements in den Projekten erreicht, indem bestehende Unsicherheiten in den Planungsprozessen simuliert und reduziert werden. Um einen transparenten Projektmanagementprozess zu erhalten und auch Erfahrungswissen aus vorangegangenen Projekten einzubinden, lassen sich Referenzprojektpläne unter Berücksichtigung von Restriktionen nutzen, die durch das zu erstellende Produkt, die zu verwendenden Technologien, die zugrundeliegenden Prozesse oder die notwendigen logistischen Ressourcen bedingt sind. Die IT-Architektur der Plattform ist werkzeugneutral, so dass das entwickelte Konzept auf Branchen außerhalb des Anlagenbaus übertragbar ist. Dies haben Vertreter verschiedener Industrieunternehmen des Anlagenbaus aus den Bereichen der Umwelt- und Energietechnik, des Schiffbaus, der Automobilindustrie sowie dem OWL Maschinenbau e.V. bestätigt.
Resumo:
Neben der Verbreitung von gefährlichen Krankheiten sind Insekten für enorme agrarwirtschaftliche Schäden verantwortlich. Ein Großteil der Verhaltensweisen bei Insekten wird über den Geruchssinn gesteuert, der somit einen möglichen Angriffspunkt zur Bekämpfung von Schadinsekten darstellt. Hierzu ist es allerdings nötig, die Mechanismen der olfaktorischen Signalübertragung im Detail zu verstehen. Neben den duftstoffbindenden olfaktorischen Rezeptoren spielt hier auch ein konservierter Korezeptor (Orco) eine entscheidende Rolle. Inwieweit bei diesen Proteinen ionotrope bzw. metabotrope Prozesse involviert sind ist bislang nicht vollständig aufgeklärt. Um weitere Einzelheiten aufzuklären wurden daher Einzelsensillenableitungen am Tabakschwärmer Manduca sexta durchgeführt. Orco-Agonisten und Antagonisten wurden eingesetzt, um die Funktion des Korezeptors besser zu verstehen. Bei dem Einsatz des Orco-Agonisten VUAA1 konnte keine Verstärkung der Pheromonantworten bzw. eine Sensitivierung beobachtet werden, wie im Falle einer ionotropen Signalweiterleitung zu erwarten gewesen wäre. Ein ionotroper Signalweg über den OR/Orco-Komplex in M. sexta ist daher unwahrscheinlich. Der Orco-Antagonist OLC15 beeinflusste die gleichen Parameter wie VUAA1 und konnte die von VUAA1 generierte Spontanaktivität blocken. Daher ist es wahrscheinlich, dass dieser einen spezifischen Orco-Blocker darstellt. Sowohl VUAA1 als auch OLC15 hatten großen Effekt auf die langanhaltende Pheromonantwort, welches die Vermutung nahelegt, dass Orco modulierend auf die Sensitivität der Nervenzelle einwirkt. Von OLC15 abweichende Effekte durch die getesteten Amiloride HMA und MIA auf die Pheromonantwort lassen nicht auf eine spezifische Wirkung dieser Agenzien auf Orco schließen und zusätzliche Wirkorte sind anzunehmen. Um die These eines metabotropen Signalwegs zu überprüfen wurde ebenfalls der G-Protein-Blocker GDP-β-S eingesetzt. Alle Parameter der Pheromonantwort die innerhalb der ersten Millisekunden analysiert wurden wiesen eine Reduktion der Sensitivität auf. Im Gegensatz dazu hatte GDP-β-S keinen Effekt auf die langanhaltende Pheromonantwort. Somit scheint ausschließlich die schnelle Pheromonantwort über einen Ligand-bindenden G-Protein-gesteuerten Rezeptor gesteuert zu werden.
Resumo:
In den letzten Jahrzehnten haben sich makroskalige hydrologische Modelle als wichtige Werkzeuge etabliert um den Zustand der globalen erneuerbaren Süßwasserressourcen flächendeckend bewerten können. Sie werden heutzutage eingesetzt um eine große Bandbreite wissenschaftlicher Fragestellungen zu beantworten, insbesondere hinsichtlich der Auswirkungen anthropogener Einflüsse auf das natürliche Abflussregime oder der Auswirkungen des globalen Wandels und Klimawandels auf die Ressource Wasser. Diese Auswirkungen lassen sich durch verschiedenste wasserbezogene Kenngrößen abschätzen, wie z.B. erneuerbare (Grund-)Wasserressourcen, Hochwasserrisiko, Dürren, Wasserstress und Wasserknappheit. Die Weiterentwicklung makroskaliger hydrologischer Modelle wurde insbesondere durch stetig steigende Rechenkapazitäten begünstigt, aber auch durch die zunehmende Verfügbarkeit von Fernerkundungsdaten und abgeleiteten Datenprodukten, die genutzt werden können, um die Modelle anzutreiben und zu verbessern. Wie alle makro- bis globalskaligen Modellierungsansätze unterliegen makroskalige hydrologische Simulationen erheblichen Unsicherheiten, die (i) auf räumliche Eingabedatensätze, wie z.B. meteorologische Größen oder Landoberflächenparameter, und (ii) im Besonderen auf die (oftmals) vereinfachte Abbildung physikalischer Prozesse im Modell zurückzuführen sind. Angesichts dieser Unsicherheiten ist es unabdingbar, die tatsächliche Anwendbarkeit und Prognosefähigkeit der Modelle unter diversen klimatischen und physiographischen Bedingungen zu überprüfen. Bisher wurden die meisten Evaluierungsstudien jedoch lediglich in wenigen, großen Flusseinzugsgebieten durchgeführt oder fokussierten auf kontinentalen Wasserflüssen. Dies steht im Kontrast zu vielen Anwendungsstudien, deren Analysen und Aussagen auf simulierten Zustandsgrößen und Flüssen in deutlich feinerer räumlicher Auflösung (Gridzelle) basieren. Den Kern der Dissertation bildet eine umfangreiche Evaluierung der generellen Anwendbarkeit des globalen hydrologischen Modells WaterGAP3 für die Simulation von monatlichen Abflussregimen und Niedrig- und Hochwasserabflüssen auf Basis von mehr als 2400 Durchflussmessreihen für den Zeitraum 1958-2010. Die betrachteten Flusseinzugsgebiete repräsentieren ein breites Spektrum klimatischer und physiographischer Bedingungen, die Einzugsgebietsgröße reicht von 3000 bis zu mehreren Millionen Quadratkilometern. Die Modellevaluierung hat dabei zwei Zielsetzungen: Erstens soll die erzielte Modellgüte als Bezugswert dienen gegen den jegliche weiteren Modellverbesserungen verglichen werden können. Zweitens soll eine Methode zur diagnostischen Modellevaluierung entwickelt und getestet werden, die eindeutige Ansatzpunkte zur Modellverbesserung aufzeigen soll, falls die Modellgüte unzureichend ist. Hierzu werden komplementäre Modellgütemaße mit neun Gebietsparametern verknüpft, welche die klimatischen und physiographischen Bedingungen sowie den Grad anthropogener Beeinflussung in den einzelnen Einzugsgebieten quantifizieren. WaterGAP3 erzielt eine mittlere bis hohe Modellgüte für die Simulation von sowohl monatlichen Abflussregimen als auch Niedrig- und Hochwasserabflüssen, jedoch sind für alle betrachteten Modellgütemaße deutliche räumliche Muster erkennbar. Von den neun betrachteten Gebietseigenschaften weisen insbesondere der Ariditätsgrad und die mittlere Gebietsneigung einen starken Einfluss auf die Modellgüte auf. Das Modell tendiert zur Überschätzung des jährlichen Abflussvolumens mit steigender Aridität. Dieses Verhalten ist charakteristisch für makroskalige hydrologische Modelle und ist auf die unzureichende Abbildung von Prozessen der Abflussbildung und –konzentration in wasserlimitierten Gebieten zurückzuführen. In steilen Einzugsgebieten wird eine geringe Modellgüte hinsichtlich der Abbildung von monatlicher Abflussvariabilität und zeitlicher Dynamik festgestellt, die sich auch in der Güte der Niedrig- und Hochwassersimulation widerspiegelt. Diese Beobachtung weist auf notwendige Modellverbesserungen in Bezug auf (i) die Aufteilung des Gesamtabflusses in schnelle und verzögerte Abflusskomponente und (ii) die Berechnung der Fließgeschwindigkeit im Gerinne hin. Die im Rahmen der Dissertation entwickelte Methode zur diagnostischen Modellevaluierung durch Verknüpfung von komplementären Modellgütemaßen und Einzugsgebietseigenschaften wurde exemplarisch am Beispiel des WaterGAP3 Modells erprobt. Die Methode hat sich als effizientes Werkzeug erwiesen, um räumliche Muster in der Modellgüte zu erklären und Defizite in der Modellstruktur zu identifizieren. Die entwickelte Methode ist generell für jedes hydrologische Modell anwendbar. Sie ist jedoch insbesondere für makroskalige Modelle und multi-basin Studien relevant, da sie das Fehlen von feldspezifischen Kenntnissen und gezielten Messkampagnen, auf die üblicherweise in der Einzugsgebietsmodellierung zurückgegriffen wird, teilweise ausgleichen kann.