130 resultados para Prozesskette, hierarchisches Modell, Kosten, Kostenbetrachtung,
Resumo:
Das wohl bekannteste Phänomen der Urteils- und Entscheidungsforschung im Kontext numeri-scher Urteile ist der Ankereffekt. Dieser bezeichnet die Assimilation einer numerischen Schätzung oder Prognose an einen salienten Wert, dem sogenannten Anker, auch unabhängig von dessen inhaltlicher Relevanz. Die Frage nach den Ursachen von Ankereffekten wird bis zum aktuellen Zeitpunkt kontrovers diskutiert. Die Bedeutung eines Erklärungsmodelles, dem sogenannten numerischem Priming, innerhalb dieser Diskussion ist Gegenstand der vorliegenden Arbeit. Im Theorieteil wird zunächst der Ankereffekt, seine inhaltliche Einordnung und seine Relevanz aus theoretischer wie praktischer Sicht diskutiert. Des weiteren werden die gängigen Erklärungsmodelle zum Ankereffekt vorgestellt. Ein Schwerpunkt hierbei liegt auf einer kritischen Auseinandersetzung mit dem Modell der selektiven Zugänglichkeit (Selective Accessibility Model, kurz: SAM), dem wohl prominentesten Modell aus Sicht der momentanen Forschung. Zwei an den Theorieteil anschließende Fragestellungen sind dann der Gegenstand des empirischen Teils der Arbeit. Zum einen soll überprüft werden, ob Ankereffekte im Standardparadigma, wie bisher angenommen, allein auf den Prozessen des SAM basieren oder ob zusätzlich auch numerisches Priming am Zustandekommen des Ankereffektes in diesem Paradigma beteiligt ist. Zum anderen werden Voraussetzungen für das Auftreten von Ankereffekten durch numerisches Priming untersucht, inbesondere die als relevant eingeschätzte Bedeutung der Aufmerksamkeit gegenüber dem Ankerwert. Beide Experimente verwenden neue, im Kontext von Ankereffekten bisher nicht eingesetzte experimentelle Paradigmen. Um die Bedeutung semantischer Prozesse im Zusammenspiel mit numerischen Prozessen zu untersuchen, wird ein so genannter Objektvergleich eingesetzt. Der Stellenwert von Aufmerksamkeit hingegen wird überprüft, in dem die Ankerwerte subliminal, also unterhalb der Wahrnehmungsschwelle, präsentiert werden. Beiden Experimenten ist jeweils eine Voruntersuchung vorangestellt, die notwendige Bedingungen für die entsprechenden Experimente überprüfen. In der abschließenden Diskussion werden die Ergebnisse der beiden Untersuchungen noch einmal zusammengefasst, und deren Implikationen angesichts der bisher vorliegenden Erkenntnisse aus theoretischer wie praktischer Sicht diskutiert. Des weiteren werden mögliche Forschungsfragen und denkbare experimentelle Untersuchungen hierzu skizziert, die an die innerhalb dieser Arbeit vorgelegten Ergebnisse sinnvoll anschließen könnten.
Resumo:
Der Markt für öffentlichen Personennahverkehr (ÖPNV) wird liberalisiert, in die gewachsenen Monopolstrukturen werden Marktmechanismen implementiert. Ziel der neuen ordnungspolitischen Rahmenbedingungen ist die Steigerung der Effizienz des defizitären Verkehrsbereichs, der von kommunalen Verkehrsunternehmen dominiert wird. Diese erbringen als Quasi-Monopolisten traditionell die Verkehrsdurchführung, regelmäßig anfallende Defizite werden von der öffentlichen Hand ausgeglichen. Bedingt durch ihre Leistungsstrukturen sind kommunale Verkehrsunternehmen in einem Wettbewerbsmarkt kaum konkurrenzfähig. Charakteristisch für diesen Unternehmenstyp ist der hohe Grad an vertikal integrierten Wertschöpfungsstufen. Im Gegensatz zu anderen Branchen erbringen kommunale Verkehrsunternehmen die wesentlichen Teile der gesamten ÖPNV-Wertschöpfungskette innerhalb der eigenen Unternehmensgrenzen. An dem hohen vertikalen Integrationsgrad setzt die Untersuchung an. Mit dem von Williamson entwickelten Instrumentarium der Transaktionskostentheorie werden die Leistungsbereiche einer transaktionskostentheoretischen Bewertung unterzogen. Als Alternativen zum institutionellen Arrangement der vertikalen Integration – das als Hierarchie bezeichnet wird – stehen die Arrangements Kooperation und Markt zur Verfügung. Die Bewertung zeigt, welche Leistungsbereiche unter transaktionskostentheoretischen Gesichtspunkten hierarchisch institutionalisiert werden sollten und welche alternativ erbracht werden können. Aus den Ergebnissen werden Strategieempfehlungen abgeleitet, die als Arbeitshypothesen einer anschließenden empirischen Überprüfung unterzogen werden. Die befragten ÖPNV-Experten bewerten somit die Marktfähigkeit der Strategieempfehlungen. Die Untersuchungsergebnisse werden für die Erarbeitung eines alternativen Koordinierungsarrangements für kommunale Verkehrsunternehmen herangezogen. Das Modell basiert auf der Grundlage Strategischer Netzwerke. Kommunale Verkehrsunternehmen nehmen in dem Modell die Rolle des Nukleus ein, der eine Vielzahl von Netzwerkpartnern steuert und für die Erbringung der ÖPNV-Leistungen mit diesen kooperiert.
Resumo:
RNA interference (RNAi) is a recently discovered process, in which double stranded RNA (dsRNA) triggers the homology-dependant degradation of cognate messenger RNA (mRNA). In a search for new components of the RNAi machinery in Dictyostelium, a new gene was identified, which was called helF. HelF is a putative RNA helicase, which shows a high homology to the helicase domain of Dicer, to the helicase domain of Dictyostelium RdRP and to the C. elegans gene drh-1, that codes for a dicer related DExH-box RNA helicase, which is required for RNAi. The aim of the present Ph.D. work was to investigate the role of HelF in PTGS, either induced by RNAi or asRNA. A genomic disruption of the helF gene was performed, which resulted in a distinct mutant morphology in late development. The cellular localization of the protein was elucidated by creating a HelF-GFP fusion protein, which was found to be localized in speckles in the nucleus. The involvement of HelF in the RNAi mechanism was studied. For this purpose, RNAi was induced by transformation of RNAi hairpin constructs against four endogenous genes in wild type and HelF- cells. The silencing efficiency was strongly enhanced in the HelF K.O. strain in comparison with the wild type. One gene, which could not be silenced in the wild type background, was successfully silenced in HelF-. When the helF gene was disrupted in a secondary transformation in a non-silenced strain, the silencing efficiency was strongly improved, a phenomenon named here “retrosilencing”. Transcriptional run-on experiments revealed that the enhanced gene silencing in HelF- was a posttranscriptional event, and that the silencing efficiency depended on the transcription levels of hairpin RNAs. In HelF-, the threshold level of hairpin transcription required for efficient silencing was dramatically lowered. The RNAi-mediated silencing was accompanied by the production of siRNAs; however, their amount did not depend on the level of hairpin transcription. These results indicated that HelF is a natural suppressor of RNAi in Dictyostelium. In contrast, asRNA mediated gene silencing was not enhanced in the HelF K.O, as shown for three tested genes. These results confirmed previous observations (H. Martens and W. Nellen, unpublished) that although similar, RNAi and asRNA mediated gene silencing mechanisms differ in their requirements for specific proteins. In order to characterize the function of the HelF protein on a molecular level and to study its interactions with other RNAi components, in vitro experiments were performed. Besides the DEAH-helicase domain, HelF contains a double-stranded RNA binding domain (dsRBD) at its N-terminus, which showed high similarity to the dsRBD domain of Dicer A from Dictyostelium. The ability of the recombinant dsRBDs from HelF and Dicer A to bind dsRNA was examined and compared. It was shown by gel-shift assays that both HelF-dsRBD and Dicer-dsRBD could bind directly to long dsRNAs. However, HelF-dsRBD bound more efficiently to dsRNA with imperfect matches than to perfect dsRNA. Both dsRBDs bound specifically to a pre-miRNA substrate (pre-let-7). The results suggested that most probably there were two binding sites for the proteins on the pre-miRNA substrate. Moreover, it was shown that HelF-dsRBD and Dicer-dsRBD have siRNA-binding activity. The affinities of the two dsRBDs to the pre-let-7 substrate were also examined by plasmon surface resonance analyses, which revealed a 9-fold higher binding affinity of the Dicer-dsRBD to pre-let-7 compared to that of the HelF-dsRBD. The binding of HelF-dsRBD to the pre-let-7 was impaired in the presence of Mg2+, while the Dicer-dsRBD interaction with pre-let-7 was not influenced by the presence of Mg2+. The results obtained in this thesis can be used to postulate a model for HelF function. In this, HelF acts as a nuclear suppressor of RNAi in wild type cells by recognition and binding of dsRNA substrates. The protein might act as a surveillance system to avoid RNAi initiation by fortuitous dsRNA formation or low abundance of dsRNA trigger. If the protein acts as an RNA helicase, it could unwind fold-back structures in the nucleus and thus lead to decreased RNAi efficiency. A knock-out of HelF would result in initiation of the RNAi pathway even by low levels of dsRNA. The exact molecular function of the protein in the RNAi mechanism still has to be elucidated. RNA interferenz (RNAi) ist ein in jüngster Zeit entdeckter Mechanismus, bei dem doppelsträngige RNA Moleküle (dsRNA) eine Homologie-abhängige Degradation einer verwandten messenger-RNA (mRNA) auslösen. Auf der Suche nach neuen Komponenten der RNAi-Maschinerie in Dictyostelium konnte ein neues Gen (helF) identifiziert werden. HelF ist eine putative RNA-Helikase mit einer hohen Homologie zur Helikasedomäne der bekannten Dicerproteine, der Helikasedomäne der Dictyostelium RdRP und zu dem C. elegans Gen drh-1, welches für eine Dicer-bezogene DExH-box RNA Helikase codiert, die am RNAi-Mechanismus beteiligt ist. Das Ziel dieser Arbeit war es, die Funktion von HelF im Zusammenhang des RNAi oder asRNA induzierten PTGS zu untersuchen. Es wurde eine Unterbrechung des helF-Gens auf genomischer Ebene (K.O.) vorgenommen, was bei den Mutanten zu einer veränderten Morphologie in der späten Entwicklung führte. Die Lokalisation des Proteins in der Zelle konnte mit Hilfe einer GFP-Fusion analysiert werden und kleinen Bereichen innerhalb des Nukleus zugewiesen werden. Im Weiteren wurde der Einfluss von HelF auf den RNAi-Mechanismus untersucht. Zu diesem Zweck wurde RNAi durch Einbringen von RNAi Hairpin-Konstrukten gegen vier endogene Gene im Wiltypstamm und der HelF--Mutante induziert. Im Vergleich zum Wildtypstamm konnte im HelF--Mutantenstamm eine stark erhöhte „Silencing“-Effizienz nachgewiesen werden. Ein Gen, welches nach RNAi Initiation im Wildtypstamm unverändert blieb, konnte im HelF--Mutantenstamm erfolgreich stillgelegt werden. Durch sekundäres Einführen einer Gendisruption im helF-Locus in einen Stamm, in welchem ein Gen nicht stillgelegt werden konnte, wurde die Effizienz des Stilllegens deutlich erhöht. Dieses Phänomen wurde hier erstmals als „Retrosilencing“ beschrieben. Mit Hilfe von transkriptionellen run-on Experimenten konnte belegt werden, dass es sich bei dieser erhöhten Stilllegungseffizienz um ein posttranskriptionelles Ereignis handelte, wobei die Stillegungseffizienz von der Transkriptionsstärke der Hairpin RNAs abhängt. Für die HelF--Mutanten konnte gezeigt werden, dass der Schwellenwert zum Auslösen eines effizienten Stillegens dramatisch abgesenkt war. Obwohl die RNAi-vermittelte Genstilllegung immer mit der Produktion von siRNAs einhergeht, war die Menge der siRNAs nicht abhängig von dem Expressionsniveau des Hairpin-Konstruktes. Diese Ergebnisse legen nahe, dass es sich bei der HelF um einen natürlichen Suppressor des RNAi-Mechanismus in Dictyostelium handelt. Im Gegensatz hierzu war die as-vermittelte Stilllegung von drei untersuchten Genen im HelF-K.O. im Vergleich zum Wildyp unverändert. Diese Ergebnisse bestätigten frühere Beobachtungen (H. Martens und W. Nellen, unveröffentlicht), wonach die Mechanismen für RNAi und asRNA-vermittelte Genstilllegung unterschiedliche spezifische Proteine benötigen. Um die Funktion des HelF-Proteins auf der molekularen Ebene genauer zu charakterisieren und die Interaktion mit anderen RNAi-Komponenten zu untersuchen, wurden in vitro Versuche durchgeführt. Das HelF-Protein enthält, neben der DEAH-Helikase-Domäne eine N-terminale Doppelstrang RNA bindende Domäne (dsRBD) mit einer hohen Ähnlichkeit zu der dsRBD des Dicer A aus Dictyostelium. Die dsRNA-Bindungsaktivität der beiden dsRBDs aus HelF und Dicer A wurde analysiert und verglichen. Es konnte mithilfe von Gel-Retardationsanalysen gezeigt werden, dass sowohl HelF-dsRBD als auch Dicer-dsRBD direkt an lange dsRNAs binden können. Hierbei zeigte sich, dass die HelF-dsRBD eine höhere Affinität zu einem imperfekten RNA-Doppelstrang besitzt, als zu einer perfekt gepaarten dsRNA. Für beide dsRBDs konnte eine spezifische Bindung an ein pre-miRNA Substrat nachgewiesen werden (pre-let-7). Dieses Ergebnis legt nah, dass es zwei Bindestellen für die Proteine auf dem pre-miRNA Substrat gibt. Überdies hinaus konnte gezeigt werden, dass die dsRBDs beider Proteine eine siRNA bindende Aktivität besitzen. Die Affinität beider dsRBDs an das pre-let-7 Substrat wurde weiterhin mit Hilfe der Plasmon Oberflächen Resonanz untersucht. Hierbei konnte eine 9-fach höhere Bindeaffinität der Dicer-dsRBD im Vergleich zur HelF-dsRBD nachgewiesen werden. Während die Bindung der HelF-dsRBD an das pre-let-7 durch die Anwesenheit von Mg2+ beeinträchtigt war, zeigte sich kein Einfluß von Mg2+ auf das Bindeverhalten der Dicer-dsRBD. Mit Hilfe der in dieser Arbeit gewonnen Ergebnisse lässt sich ein Model für die Funktion von HelF postulieren. In diesem Model wirkt HelF durch Erkennen und Binden von dsRNA Substraten als Suppressor von der RNAi im Kern. Das Protein kann als Überwachungsystem gegen eine irrtümliche Auslösung von RNAi wirken, die durch zufällige dsRNA Faltungen oder eine zu geringe Häufigkeit der siRNAs hervorgerufen sein könnte. Falls das Protein eine Helikase-Aktivität besitzt, könnte es rückgefaltete RNA Strukturen im Kern auflösen, was sich in einer verringerten RNAi-Effizienz wiederspiegelt. Durch Ausschalten des helF-Gens würde nach diesem Modell eine erfolgreiche Auslösung von RNAi schon bei sehr geringer Mengen an dsRNA möglich werden. Das Modell erlaubt, die exakte molekulare Funktion des HelF-Proteins im RNAi-Mechanismus weiter zu untersuchen.
Resumo:
Die Maßnahmen zur Förderung der Windenergie in Deutschland haben wichtige Anstöße zur technologischen Weiterentwicklung geliefert und die Grundlagen für den enormen Anlagenzubau geschaffen. Die installierte Windleistung hat heute eine beachtliche Größenordnung erreicht und ein weiteres Wachstum in ähnlichen Dimensionen ist auch für die nächsten Jahre zu erwarten. Die aus Wind erzeugte elektrische Leistung deckt bereits heute in einigen Netzbereichen die Netzlast zu Schwachlastzeiten. Dies zeigt, dass die Windenergie ein nicht mehr zu vernachlässigender Faktor in der elektrischen Energieversorgung geworden ist. Im Rahmen der Kraftwerkseinsatzplanung sind Betrag und Verlauf der Windleistung des folgenden Tages mittlerweile zu wichtigen und zugleich schwierig zu bestimmenden Variablen geworden. Starke Schwankungen und falsche Prognosen der Windstromeinspeisung verursachen zusätzlichen Bedarf an Regel- und Ausgleichsleistung durch die Systemführung. Das im Rahmen dieser Arbeit entwickelte Prognosemodell liefert die zu erwartenden Windleistungen an 16 repräsentativen Windparks bzw. Gruppen von Windparks für bis zu 48 Stunden im Voraus. Aufgrund von prognostizierten Wetterdaten des deutschen Wetterdienstes (DWD) werden die Leistungen der einzelnen Windparks mit Hilfe von künstlichen neuronalen Netzen (KNN) berechnet. Diese Methode hat gegenüber physikalischen Verfahren den Vorteil, dass der komplexe Zusammenhang zwischen Wettergeschehen und Windparkleistung nicht aufwendig analysiert und detailliert mathematisch beschrieben werden muss, sondern anhand von Daten aus der Vergangenheit von den KNN gelernt wird. Das Prognosemodell besteht aus zwei Modulen. Mit dem ersten wird, basierend auf den meteorologischen Vorhersagen des DWD, eine Prognose für den Folgetag erstellt. Das zweite Modul bezieht die online gemessenen Leistungsdaten der repräsentativen Windparks mit ein, um die ursprüngliche Folgetagsprognose zu verbessern und eine sehr genaue Kurzzeitprognose für die nächsten drei bis sechs Stunden zu berechnen. Mit den Ergebnissen der Prognosemodule für die repräsentativen Standorte wird dann über ein Transformationsmodell, dem so genannten Online-Modell, die Gesamteinspeisung in einem größeren Gebiet berechnet. Das Prognoseverfahren hat seine besonderen Vorzüge in der Genauigkeit, den geringen Rechenzeiten und den niedrigen Betriebskosten, da durch die Verwendung des bereits implementierten Online-Modells nur eine geringe Anzahl von Vorhersage- und Messstandorten benötigt wird. Das hier vorgestellte Prognosemodell wurde ursprünglich für die E.ON-Netz GmbH entwickelt und optimiert und ist dort seit Juli 2001 im Einsatz. Es lässt sich jedoch auch leicht an andere Gebiete anpassen. Benötigt werden dazu nur die Messdaten der Leistung ausgewählter repräsentativer Windparks sowie die dazu gehörenden Wettervorhersagen, um die KNN entsprechend zu trainieren.
Resumo:
In dieser Arbeit werden verschiedene Computermodelle, Rechenverfahren und Methoden zur Unterstützung bei der Integration großer Windleistungen in die elektrische Energieversorgung entwickelt. Das Rechenmodell zur Simulation der zeitgleich eingespeisten Windenergie erzeugt Summenganglinien von beliebig zusammengestellten Gruppen von Windenergieanlagen, basierend auf gemessenen Wind- und Leistungsdaten der nahen Vergangenheit. Dieses Modell liefert wichtige Basisdaten für die Analyse der Windenergieeinspeisung auch für zukünftige Szenarien. Für die Untersuchung der Auswirkungen von Windenergieeinspeisungen großräumiger Anlagenverbünde im Gigawattbereich werden verschiedene statistische Analysen und anschauliche Darstellungen erarbeitet. Das im Rahmen dieser Arbeit entwickelte Modell zur Berechnung der aktuell eingespeisten Windenergie aus online gemessenen Leistungsdaten repräsentativer Windparks liefert wertvolle Informationen für die Leistungs- und Frequenzregelung der Netzbetreiber. Die zugehörigen Verfahren zur Ermittlung der repräsentativen Standorte und zur Überprüfung der Repräsentativität bilden die Grundlage für eine genaue Abbildung der Windenergieeinspeisung für größere Versorgungsgebiete, basierend auf nur wenigen Leistungsmessungen an Windparks. Ein weiteres wertvolles Werkzeug für die optimale Einbindung der Windenergie in die elektrische Energieversorgung bilden die Prognosemodelle, die die kurz- bis mittelfristig zu erwartende Windenergieeinspeisung ermitteln. In dieser Arbeit werden, aufbauend auf vorangegangenen Forschungsarbeiten, zwei, auf Künstlich Neuronalen Netzen basierende Modelle vorgestellt, die den zeitlichen Verlauf der zu erwarten Windenergie für Netzregionen und Regelzonen mit Hilfe von gemessenen Leistungsdaten oder prognostizierten meteorologischen Parametern zur Verfügung stellen. Die softwaretechnische Zusammenfassung des Modells zur Berechnung der aktuell eingespeisten Windenergie und der Modelle für die Kurzzeit- und Folgetagsprognose bietet eine attraktive Komplettlösung für die Einbindung der Windenergie in die Leitwarten der Netzbetreiber. Die dabei entwickelten Schnittstellen und die modulare Struktur des Programms ermöglichen eine einfache und schnelle Implementierung in beliebige Systemumgebungen. Basierend auf der Leistungsfähigkeit der Online- und Prognosemodelle werden Betriebsführungsstrategien für zu Clustern im Gigawattbereich zusammengefasste Windparks behandelt, die eine nach ökologischen und betriebswirtschaftlichen Gesichtspunkten sowie nach Aspekten der Versorgungssicherheit optimale Einbindung der geplanten Offshore-Windparks ermöglichen sollen.
Resumo:
Die gegenwärtige Entwicklung der internationalen Klimapolitik verlangt von Deutschland eine Reduktion seiner Treibhausgasemissionen. Wichtigstes Treibhausgas ist Kohlendioxid, das durch die Verbrennung fossiler Energieträger in die Atmosphäre freigesetzt wird. Die Reduktionsziele können prinzipiell durch eine Verminderung der Emissionen sowie durch die Schaffung von Kohlenstoffsenken erreicht werden. Senken beschreiben dabei die biologische Speicherung von Kohlenstoff in Böden und Wäldern. Eine wichtige Einflussgröße auf diese Prozesse stellt die räumliche Dynamik der Landnutzung einer Region dar. In dieser Arbeit wird das Modellsystem HILLS entwickelt und zur Simulation dieser komplexen Wirkbeziehungen im Bundesland Hessen genutzt. Ziel ist es, mit HILLS über eine Analyse des aktuellen Zustands hinaus auch Szenarien über Wege der zukünftigen regionalen Entwicklung von Landnutzung und ihrer Wirkung auf den Kohlenstoffhaushalt bis 2020 zu untersuchen. Für die Abbildung der räumlichen und zeitlichen Dynamik von Landnutzung in Hessen wird das Modell LUCHesse entwickelt. Seine Aufgabe ist die Simulation der relevanten Prozesse auf einem 1 km2 Raster, wobei die Raten der Änderung exogen als Flächentrends auf Ebene der hessischen Landkreise vorgegeben werden. LUCHesse besteht aus Teilmodellen für die Prozesse: (A) Ausbreitung von Siedlungs- und Gewerbefläche, (B) Strukturwandel im Agrarsektor sowie (C) Neuanlage von Waldflächen (Aufforstung). Jedes Teilmodell umfasst Methoden zur Bewertung der Standorteignung der Rasterzellen für unterschiedliche Landnutzungsklassen und zur Zuordnung der Trendvorgaben zu solchen Rasterzellen, die jeweils am besten für eine Landnutzungsklasse geeignet sind. Eine Validierung der Teilmodelle erfolgt anhand von statistischen Daten für den Zeitraum von 1990 bis 2000. Als Ergebnis eines Simulationslaufs werden für diskrete Zeitschritte digitale Karten der Landnutzugsverteilung in Hessen erzeugt. Zur Simulation der Kohlenstoffspeicherung wird eine modifizierte Version des Ökosystemmodells Century entwickelt (GIS-Century). Sie erlaubt einen gesteuerten Simulationslauf in Jahresschritten und unterstützt die Integration des Modells als Komponente in das HILLS Modellsystem. Es werden verschiedene Anwendungsschemata für GIS-Century entwickelt, mit denen die Wirkung der Stilllegung von Ackerflächen, der Aufforstung sowie der Bewirtschaftung bereits bestehender Wälder auf die Kohlenstoffspeicherung untersucht werden kann. Eine Validierung des Modells und der Anwendungsschemata erfolgt anhand von Feld- und Literaturdaten. HILLS implementiert eine sequentielle Kopplung von LUCHesse mit GIS-Century. Die räumliche Kopplung geschieht dabei auf dem 1 km2 Raster, die zeitliche Kopplung über die Einführung eines Landnutzungsvektors, der die Beschreibung der Landnutzungsänderung einer Rasterzelle während des Simulationszeitraums enthält. Außerdem integriert HILLS beide Modelle über ein dienste- und datenbankorientiertes Konzept in ein Geografisches Informationssystem (GIS). Auf diesem Wege können die GIS-Funktionen zur räumlichen Datenhaltung und Datenverarbeitung genutzt werden. Als Anwendung des Modellsystems wird ein Referenzszenario für Hessen mit dem Zeithorizont 2020 berechnet. Das Szenario setzt im Agrarsektor eine Umsetzung der AGENDA 2000 Politik voraus, die in großem Maße zu Stilllegung von Ackerflächen führt, während für den Bereich Siedlung und Gewerbe sowie Aufforstung die aktuellen Trends der Flächenausdehnung fortgeschrieben werden. Mit HILLS ist es nun möglich, die Wirkung dieser Landnutzungsänderungen auf die biologische Kohlenstoffspeicherung zu quantifizieren. Während die Ausdehnung von Siedlungsflächen als Kohlenstoffquelle identifiziert werden kann (37 kt C/a), findet sich die wichtigste Senke in der Bewirtschaftung bestehender Waldflächen (794 kt C/a). Weiterhin führen die Stilllegung von Ackerfläche (26 kt C/a) sowie Aufforstung (29 kt C/a) zu einer zusätzlichen Speicherung von Kohlenstoff. Für die Kohlenstoffspeicherung in Böden zeigen die Simulationsexperimente sehr klar, dass diese Senke nur von beschränkter Dauer ist.
Resumo:
An Schule und Hochschule wird heute vorausgesetzt, dass Lehrkräfte mit Unterrichts- und Massenmedien sachgerecht und kompetent umgehen können. Dargestellt wird ein Modell, das einzelne Elemente einer medienpädagogischen Kompetenz veranschaulicht und Beziehungen der Teilkompetenzen untereinander aufzeigt. Die Kompetenzelemente werden aus theoretisch fundierten Ansätzen der Medienpädagogik abgeleitet und anschließend auf die Fachinhalte des Sports übertragen. Das fachspezifische Modell untergliedert medienpädagogische Kompetenz in aufeinander bezogene Kernbereiche und Basisgrößen und strukturiert so medienspezifische Kenntnisse und Fertigkeiten, die im Rahmen der Sportlehrerausbildung vermittelt werden können. Zur Überprüfung der im Modell konstatierten Zusammenhänge wurde eine schriftliche Befragung (N=147) durchgeführt. Das Erhebungsinstrumentarium enthält Items zur Erfassung personenbezogener Merkmale und Testfragen, mit denen das Niveau der Kompetenzelemente erfasst werden kann. Aus den Daten der Untersuchung lassen sich neben aufschlussreichen Zusammenhängen der Kompetenzbereiche untereinander auch personenbezogene Merkmale ableiten, welche die medienpädagogische Kompetenz im Sport signifikant beeinflussen. Die hochschuldidaktische Umsetzung des Kompetenzmodells wurde im Rahmen einer einjährigen Interventionsstudie (N=74) erprobt und getestet. Zwei auf der Grundlage der Modellüberlegungen konzipierte Seminarveranstaltungen befassen sich mit der Schulung und Verbesserung medienpädagogischer Kompetenz und zeigen beispielhaft auf, wie medienbezogene Themenstellungen in den Theoriebereich des Sportstudiums integriert werden können. Die Ergebnisse der Interventionsstudie bestätigen, dass in den sportwissenschaftlichen Lehrveranstaltungen Elemente medienpädagogischer Kompetenz gezielt geschult und verbessert werden konnten. Zudem lassen sich aus den Untersuchungsdaten begründete Empfehlungen für medienpädagogische Lehrveranstaltungen an der Hochschule ableiten.
Resumo:
Bei frühgeborenen Säuglingen spielt die Thermoregulation zur Aufrechterhaltung einer überlebenswichtigen Körpertemperatur durch Wärmeproduktion, -abgabe bzw. -aufnahme eine entscheidende Rolle. Der Einsatz moderner Inkubatoren soll die körpereigenen Thermoregulatoren unterstützen, und es ist im Hinblick auf verschiedene medizinische Fragestellungen wünschenswert, diesen Prozess modellieren zu können. Wir stellen ein einfaches Modell auf der Basis von partiellen Differentialgleichungen vor und beschreiben detailliert die numerische Simulation mit Hilfe einer Finite-Volumen-Methode. Dazu wird ein zweidimensionales Modell eines Frühgeborenen trianguliert und das Modell diskretisiert. Zahlreiche numerische Resultate zeigen die Qualität unseres Modells.
Resumo:
Sowohl die Ressourcenproblematik als auch die drohenden Ausmaße der Klimaänderung lassen einen Umstieg auf andere Energiequellen langfristig unausweichlich erscheinen und mittelfristig als dringend geboten. Unabhängig von der Frage, auf welchem Niveau sich der Energiebedarf stabilisieren lässt, bleibt dabei zu klären, welche Möglichkeiten sich aus technischer und wirtschaftlicher Sicht in Zukunft zur Deckung unseres Energiebedarfs anbieten. Eine aussichtsreiche Option besteht in der Nutzung regenerativer Energien in ihrer ganzen Vielfalt. Die Arbeit "Szenarien zur zukünftigen Stromversorgung, kostenoptimierte Variationen zur Versorgung Europas und seiner Nachbarn mit Strom aus erneuerbaren Energien" konzentriert sich mit der Stromversorgung auf einen Teilaspekt der Energieversorgung, der zunehmend an Wichtigkeit gewinnt und als ein Schlüssel zur nachhaltigen Energieversorgung interpretiert werden kann. Die Stromversorgung ist heute weltweit für etwa die Hälfte des anthropogenen CO2-Ausstoßes verantwortlich. In dieser Arbeit wurden anhand verschiedener Szenarien Möglichkeiten einer weitgehend CO2–neutralen Stromversorgung für Europa und seine nähere Umgebung untersucht, wobei das Szenariogebiet etwa 1,1 Mrd. Einwohner und einen Stromverbrauch von knapp 4000 TWh/a umfasst. Dabei wurde untersucht, wie die Stromversorgung aufgebaut sein sollte, damit sie möglichst kostengünstig verwirklicht werden kann. Diese Frage wurde beispielsweise für Szenarien untersucht, in denen ausschließlich heute marktverfügbare Techniken berücksichtigt wurden. Auch der Einfluss der Nutzung einiger neuer Technologien, die bisher noch in Entwicklung sind, auf die optimale Gestaltung der Stromversorgung, wurde anhand einiger Beispiele untersucht. Die Konzeption der zukünftigen Stromversorgung sollte dabei nach Möglichkeit objektiven Kriterien gehorchen, die auch die Vergleichbarkeit verschiedener Versorgungsansätze gewährleisten. Dafür wurde ein Optimierungsansatz gewählt, mit dessen Hilfe sowohl bei der Konfiguration als auch beim rechnerischen Betrieb des Stromversorgungssystems weitgehend auf subjektive Entscheidungsprozesse verzichtet werden kann. Die Optimierung hatte zum Ziel, für die definierte möglichst realitätsnahe Versorgungsaufgabe den idealen Kraftwerks- und Leitungspark zu bestimmen, der eine kostenoptimale Stromversorgung gewährleistet. Als Erzeugungsoptionen werden dabei u.a. die Nutzung Regenerativer Energien durch Wasserkraftwerke, Windenergiekonverter, Fallwindkraftwerke, Biomassekraftwerke sowie solare und geothermische Kraftwerke berücksichtigt. Abhängig von den gewählten Randbedingungen ergaben sich dabei unterschiedliche Szenarien. Das Ziel der Arbeit war, mit Hilfe unterschiedlicher Szenarien eine breite Basis als Entscheidungsgrundlage für zukünftige politische Weichenstellungen zu schaffen. Die Szenarien zeigen Optionen für eine zukünftige Gestaltung der Stromversorgung auf, machen Auswirkungen verschiedener – auch politischer – Rahmenbedingungen deutlich und stellen so die geforderte Entscheidungsgrundlage bereit. Als Grundlage für die Erstellung der Szenarien mussten die verschiedenen Potentiale erneuerbarer Energien in hoher zeitlicher und räumlicher Auflösung ermittelt werden, mit denen es erstmals möglich war, die Fragen einer großräumigen regenerativen Stromversorgung ohne ungesicherte Annahmen anhand einer verlässlichen Datengrundlage anzugehen. Auch die Charakteristika der verschiedensten Energiewandlungs- und Transportsysteme mussten studiert werden und sind wie deren Kosten und die verschiedenen Potentiale in der vorliegenden Arbeit ausführlich diskutiert. Als Ausgangsszenario und Bezugspunkt dient ein konservatives Grundszenario. Hierbei handelt es sich um ein Szenario für eine Stromversorgung unter ausschließlicher Nutzung erneuerbarer Energien, die wiederum ausschließlich auf heute bereits entwickelte Technologien zurückgreift und dabei für alle Komponenten die heutigen Kosten zugrundelegt. Dieses Grundszenario ist dementsprechend auch als eine Art konservative Worst-Case-Abschätzung für unsere Zukunftsoptionen bei der regenerativen Stromversorgung zu verstehen. Als Ergebnis der Optimierung basiert die Stromversorgung beim Grundszenario zum größten Teil auf der Stromproduktion aus Windkraft. Biomasse und schon heute bestehende Wasserkraft übernehmen den überwiegenden Teil der Backup-Aufgaben innerhalb des – mit leistungsstarker HGÜ (Hochspannungs–Gleichstrom–Übertragung) verknüpften – Stromversorgungsgebiets. Die Stromgestehungskosten liegen mit 4,65 €ct / kWh sehr nahe am heute Üblichen. Sie liegen niedriger als die heutigen Preisen an der Strombörse. In allen Szenarien – außer relativ teuren, restriktiv ”dezentralen” unter Ausschluss großräumig länderübergreifenden Stromtransports – spielt der Stromtransport eine wichtige Rolle. Er wird genutzt, um Ausgleichseffekte bei der dargebotsabhängigen Stromproduktion aus erneuerbaren Quellen zu realisieren, gute kostengünstige Potentiale nutzbar zu machen und um die Speicherwasserkraft sowie die dezentral genutzte Biomasse mit ihrer Speicherfähigkeit für großräumige Backup-Aufgaben zu erschließen. Damit erweist sich der Stromtransport als einer der Schlüssel zu einer kostengünstigen Stromversorgung. Dies wiederum kann als Handlungsempfehlung bei politischen Weichenstellungen interpretiert werden, die demnach gezielt auf internationale Kooperation im Bereich der Nutzung erneuerbarer Energien setzen und insbesondere den großräumigen Stromtransport mit einbeziehen sollten. Die Szenarien stellen detaillierte und verlässliche Grundlagen für wichtige politische und technologische Zukunftsentscheidungen zur Verfügung. Sie zeigen, dass bei internationaler Kooperation selbst bei konservativen Annahmen eine rein regenerative Stromversorgung möglich ist, die wirtschaftlich ohne Probleme zu realisieren wäre und verweisen den Handlungsbedarf in den Bereich der Politik. Eine wesentliche Aufgabe der Politik läge darin, die internationale Kooperation zu organisieren und Instrumente für eine Umgestaltung der Stromversorgung zu entwickeln. Dabei kann davon ausgegangen werden, dass nicht nur ein sinnvoller Weg zu einer CO2–neutralen Stromversorgung beschritten würde, sondern sich darüber hinaus ausgezeichnete Entwicklungsperspektiven für die ärmeren Nachbarstaaten der EU und Europas eröffnen.
Resumo:
Thermoaktive Bauteilsysteme sind Bauteile, die als Teil der Raumumschließungsflächen über ein integriertes Rohrsystem mit einem Heiz- oder Kühlmedium beaufschlagt werden können und so die Beheizung oder Kühlung des Raumes ermöglichen. Die Konstruktionenvielfalt reicht nach diesem Verständnis von Heiz, bzw. Kühldecken über Geschoßtrenndecken mit kern-integrierten Rohren bis hin zu den Fußbodenheizungen. Die darin enthaltenen extrem trägen Systeme werden bewußt eingesetzt, um Energieangebot und Raumenergiebedarf unter dem Aspekt der rationellen Energieanwendung zeitlich zu entkoppeln, z. B. aktive Bauteilkühlung in der Nacht, passive Raumkühlung über das kühle Bauteil am Tage. Gebäude- und Anlagenkonzepte, die träge reagierende thermoaktive Bauteilsysteme vorsehen, setzen im kompetenten und verantwortungsvollen Planungsprozeß den Einsatz moderner Gebäudesimulationswerkzeuge voraus, um fundierte Aussagen über Behaglichkeit und Energiebedarf treffen zu können. Die thermoaktiven Bauteilsysteme werden innerhalb dieser Werkzeuge durch Berechnungskomponenten repräsentiert, die auf mathematisch-physikalischen Modellen basieren und zur Lösung des bauteilimmanenten mehrdimensionalen instationären Wärmeleitungsproblems dienen. Bisher standen hierfür zwei unterschiedliche prinzipielle Vorgehensweisen zur Lösung zur Verfügung, die der physikalischen Modellbildung entstammen und Grenzen bzgl. abbildbarer Geometrie oder Rechengeschwindigkeit setzen. Die vorliegende Arbeit dokumentiert eine neue Herangehensweise, die als experimentelle Modellbildung bezeichnet wird. Über den Weg der Systemidentifikation können aus experimentell ermittelten Datenreihen die Parameter für ein kompaktes Black-Box-Modell bestimmt werden, das das Eingangs-Ausgangsverhalten des zugehörigen beliebig aufgebauten thermoaktiven Bauteils mit hinreichender Genauigkeit widergibt. Die Meßdatenreihen lassen sich über hochgenaue Berechnungen generieren, die auf Grund ihrer Detailtreue für den unmittelbaren Einsatz in der Gebäudesimulation ungeeignet wären. Die Anwendung der Systemidentifikation auf das zweidimensionale Wärmeleitungsproblem und der Nachweis ihrer Eignung wird an Hand von sechs sehr unterschiedlichen Aufbauten thermoaktiver Bauteilsysteme durchgeführt und bestätigt sehr geringe Temperatur- und Energiebilanzfehler. Vergleiche zwischen via Systemidentifikation ermittelten Black-Box-Modellen und physikalischen Modellen für zwei Fußbodenkonstruktionen zeigen, daß erstgenannte auch als Referenz für Genauigkeitsabschätzungen herangezogen werden können. Die Praktikabilität des neuen Modellierungsansatzes wird an Fallstudien demonstriert, die Ganzjahressimulationen unter Bauteil- und Betriebsvariationen an einem exemplarischen Büroraum betreffen. Dazu erfolgt die Integration des Black-Box-Modells in das kommerzielle Gebäude- und Anlagensimulationsprogramm CARNOT. Die akzeptablen Rechenzeiten für ein Einzonen-Gebäudemodell in Verbindung mit den hohen Genauigkeiten bescheinigen die Eignung der neuen Modellierungsweise.
Resumo:
Bei Meßprojekten in denen Gebäude mit installierter Lüftungsanlage untersucht wurden, stellte man immer wieder ein breite Streuung der Meßwerte, als auch eine oftmals deutliche Abweichung vom vorher ermittelten Heizwärmebedarf der Gebäude fest. Es wird vermutet, daß diese Unterschiede systemspezifische Ursachen haben, ein Nachweis kann aufgrund der geringen Anzahl vorhandener Meßpunkte jedoch nicht geführt werden. Um die Sensitivität verschiedener Randbedingungen auf den Energieverbrauch zu ermitteln, wird im vorliegenden Forschungsprojekt ein Simulationsmodell erstellt. Das thermische Verhalten und die Durchströmung des Gebäudes werden durch ein gekoppeltes Modell abgebildet. Unterschiedliche Lüftungsanlagensysteme werden miteinander verglichen. Auf Basis vorhandener Meßdaten wird ein klimaabhängiges Modell zur Fensterlüftung entwickelt, welches in die Modellbildung der Gebäudedurchströmung mit einfließt. Feuchtegeregelte Abluftanlagen sind in der Lage den mittleren Luftwechsel auf ein hygienisch sinnvollen Wert zu begrenzen. Sie erweisen sich im Hinblick auf die Sensitivität verschiedener Randbedingungen als robuste Systeme. Trotz Einsatz von Lüftungsanlagen kann je nach Betriebszustand insbesondere bei Abluftanlagen keine ausreichende Luftqualität sichergestellt werden. Zukünftige Systeme dürfen das "Lüftungssystem" Fenster nicht vernachlässigen, sondern müssen es in das Gesamtkonzept mit einbeziehen.
Resumo:
Der Beitrag beschreibt die Ein- und Durchführung einer Server-basierten Computerinfrastruktur in einer Universitätsbibliothek. Beschrieben wird das so genannte MetaFrame-DV-Konzept der Universitätsbibliothek Kassel, das das dortige Informationsmanagement in den letzten vier Jahren initiiert, konzipiert und umgesetzt hat. Hierbei werden nunmehr nicht mehr nur Applikationsserver z.B. für das CD-Angebot eingesetzt, sondern sämtliche ca. 200 Mitarbeiter- und Funktionsarbeitsplätze über eine Citrix MetaFrame-Installation serverseitig betreut. Besonderes Augenmerk gilt in diesem Beitrag der Konfiguration, der praktischen Administration und den täglichen Arbeitsbedingungen an den Bibliotheksmitarbeiterarbeitsplätzen.
Resumo:
Landwirtschaft spielt eine zentrale Rolle im Erdsystem. Sie trägt durch die Emission von CO2, CH4 und N2O zum Treibhauseffekt bei, kann Bodendegradation und Eutrophierung verursachen, regionale Wasserkreisläufe verändern und wird außerdem stark vom Klimawandel betroffen sein. Da all diese Prozesse durch die zugrunde liegenden Nährstoff- und Wasserflüsse eng miteinander verknüpft sind, sollten sie in einem konsistenten Modellansatz betrachtet werden. Dennoch haben Datenmangel und ungenügendes Prozessverständnis dies bis vor kurzem auf der globalen Skala verhindert. In dieser Arbeit wird die erste Version eines solchen konsistenten globalen Modellansatzes präsentiert, wobei der Schwerpunkt auf der Simulation landwirtschaftlicher Erträge und den resultierenden N2O-Emissionen liegt. Der Grund für diese Schwerpunktsetzung liegt darin, dass die korrekte Abbildung des Pflanzenwachstums eine essentielle Voraussetzung für die Simulation aller anderen Prozesse ist. Des weiteren sind aktuelle und potentielle landwirtschaftliche Erträge wichtige treibende Kräfte für Landnutzungsänderungen und werden stark vom Klimawandel betroffen sein. Den zweiten Schwerpunkt bildet die Abschätzung landwirtschaftlicher N2O-Emissionen, da bislang kein prozessbasiertes N2O-Modell auf der globalen Skala eingesetzt wurde. Als Grundlage für die globale Modellierung wurde das bestehende Agrarökosystemmodell Daycent gewählt. Neben der Schaffung der Simulationsumgebung wurden zunächst die benötigten globalen Datensätze für Bodenparameter, Klima und landwirtschaftliche Bewirtschaftung zusammengestellt. Da für Pflanzzeitpunkte bislang keine globale Datenbasis zur Verfügung steht, und diese sich mit dem Klimawandel ändern werden, wurde eine Routine zur Berechnung von Pflanzzeitpunkten entwickelt. Die Ergebnisse zeigen eine gute Übereinstimmung mit Anbaukalendern der FAO, die für einige Feldfrüchte und Länder verfügbar sind. Danach wurde das Daycent-Modell für die Ertragsberechnung von Weizen, Reis, Mais, Soja, Hirse, Hülsenfrüchten, Kartoffel, Cassava und Baumwolle parametrisiert und kalibriert. Die Simulationsergebnisse zeigen, dass Daycent die wichtigsten Klima-, Boden- und Bewirtschaftungseffekte auf die Ertragsbildung korrekt abbildet. Berechnete Länderdurchschnitte stimmen gut mit Daten der FAO überein (R2 = 0.66 für Weizen, Reis und Mais; R2 = 0.32 für Soja), und räumliche Ertragsmuster entsprechen weitgehend der beobachteten Verteilung von Feldfrüchten und subnationalen Statistiken. Vor der Modellierung landwirtschaftlicher N2O-Emissionen mit dem Daycent-Modell stand eine statistische Analyse von N2O-und NO-Emissionsmessungen aus natürlichen und landwirtschaftlichen Ökosystemen. Die als signifikant identifizierten Parameter für N2O (Düngemenge, Bodenkohlenstoffgehalt, Boden-pH, Textur, Feldfrucht, Düngersorte) und NO (Düngemenge, Bodenstickstoffgehalt, Klima) entsprechen weitgehend den Ergebnissen einer früheren Analyse. Für Emissionen aus Böden unter natürlicher Vegetation, für die es bislang keine solche statistische Untersuchung gab, haben Bodenkohlenstoffgehalt, Boden-pH, Lagerungsdichte, Drainierung und Vegetationstyp einen signifikanten Einfluss auf die N2O-Emissionen, während NO-Emissionen signifikant von Bodenkohlenstoffgehalt und Vegetationstyp abhängen. Basierend auf den daraus entwickelten statistischen Modellen betragen die globalen Emissionen aus Ackerböden 3.3 Tg N/y für N2O, und 1.4 Tg N/y für NO. Solche statistischen Modelle sind nützlich, um Abschätzungen und Unsicherheitsbereiche von N2O- und NO-Emissionen basierend auf einer Vielzahl von Messungen zu berechnen. Die Dynamik des Bodenstickstoffs, insbesondere beeinflusst durch Pflanzenwachstum, Klimawandel und Landnutzungsänderung, kann allerdings nur durch die Anwendung von prozessorientierten Modellen berücksichtigt werden. Zur Modellierung von N2O-Emissionen mit dem Daycent-Modell wurde zunächst dessen Spurengasmodul durch eine detailliertere Berechnung von Nitrifikation und Denitrifikation und die Berücksichtigung von Frost-Auftau-Emissionen weiterentwickelt. Diese überarbeitete Modellversion wurde dann an N2O-Emissionsmessungen unter verschiedenen Klimaten und Feldfrüchten getestet. Sowohl die Dynamik als auch die Gesamtsummen der N2O-Emissionen werden befriedigend abgebildet, wobei die Modelleffizienz für monatliche Mittelwerte zwischen 0.1 und 0.66 für die meisten Standorte liegt. Basierend auf der überarbeiteten Modellversion wurden die N2O-Emissionen für die zuvor parametrisierten Feldfrüchte berechnet. Emissionsraten und feldfruchtspezifische Unterschiede stimmen weitgehend mit Literaturangaben überein. Düngemittelinduzierte Emissionen, die momentan vom IPCC mit 1.25 +/- 1% der eingesetzten Düngemenge abgeschätzt werden, reichen von 0.77% (Reis) bis 2.76% (Mais). Die Summe der berechneten Emissionen aus landwirtschaftlichen Böden beträgt für die Mitte der 1990er Jahre 2.1 Tg N2O-N/y, was mit den Abschätzungen aus anderen Studien übereinstimmt.
Resumo:
Den Schwerpunkt dieser Dissertation bildet zum einen die Entwicklung eines theoretischen Modells zur Beschreibung des Strukturbildungsprozesses in organisch/anorganischen Doppelschichtsystemen und zum anderen die Untersuchung der Übertragbarkeit dieser theoretisch gewonnenen Ergebnisse auf reale Systeme. Hierzu dienen systematische experimentelle Untersuchungen dieses Phänomens an einem Testsystem. Der Bereich der selbstorganisierenden Systeme ist von hohem wissenschaftlichen Interesse, erlaubt er doch die Realisierung von Strukturen, die nicht den Begrenzungen heutiger Techniken unterliegen, wie etwa der Beugung bei lithographischen Verfahren. Darüber hinaus liefert ein vertieftes Verständnis des Strukturbildungsprozesses auch eine Möglichkeit, im Falle entsprechender technischer Anwendungen Instabilitäten innerhalb der Schichtsysteme zu verhindern und somit einer Degradation der Bauteile entgegenzuwirken. Im theoretischen Teil der Arbeit konnte ein Modell im Rahmen der klassischen Elastizitätstheorie entwickelt werden, mit dessen Hilfe sich die Entstehung der Strukturen in Doppelschichtsystemen verstehen läßt. Der hier gefundene funktionale Zusammenhang zwischen der Periode der Strukturen und dem Verhältnis der Schichtdicken von organischer und anorganischer Schicht, wird durch die experimentellen Ergebnisse sehr gut bestätigt. Die Ergebnisse zeigen, daß es technologisch möglich ist, über die Vorgabe der Schichtdicke in einem Materialsystem die Periodizität der entstehenden Strukturen vorzugeben. Darüber hinaus liefert das vorgestellte Modell eine Stabilitätsbedingung für die Schichtsysteme, die es ermöglicht, zu jedem Zeitpunkt die dominierende Mode zu identifizieren. Ein Schwerpunkt der experimentellen Untersuchungen dieser Arbeit liegt auf der Strukturbildung innerhalb der Schichtsysteme. Das Testsystem wurde durch Aufbringen einer organischen Schicht - eines sog. Molekularen Glases - auf ein Glassubstrat realisiert, als Deckschicht diente eine Siliziumnitrid-Schicht. Es wurden Proben mit variierenden Schichtdicken kontrolliert erwärmt. Sobald die Temperatur des Schichtsystems in der Größenordnung der Glasübergangstemperatur des jeweiligen organischen Materials lag, fand spontan eine Strukturbildung auf Grund einer Spannungsrelaxation statt. Es ließen sich durch die Wahl einer entsprechenden Heizquelle unterschiedliche Strukturen realisieren. Bei Verwendung eines gepulsten Lasers, also einer kreisförmigen Wärmequelle, ordneten sich die Strukturen konzentrisch an, wohingegen sich ihre Ausrichtung bei Verwendung einer flächenhaften Heizplatte statistisch verteilte. Auffällig bei allen Strukturen war eine starke Modulation der Oberfläche. Ferner konnte in der Arbeit gezeigt werden, daß sich durch eine gezielte Veränderung der Spannungsverteilung innerhalb der Schichtsysteme die Ausrichtung der Strukturen (gezielt) manipulieren ließen. Unabhängig davon erlaubte die Variation der Schichtdicken die Realisierung von Strukturen mit einer Periodizität im Bereich von einigen µm bis hinunter zu etwa 200 nm. Die Kontrolle über die Ausrichtung und die Periodizität ist Grundvoraussetzung für eine zukünftige technologische Nutzung des Effektes zur kontrollierten Herstellung von Mikro- bzw. Nanostrukturen. Darüber hinaus konnte ein zunächst von der Strukturbildung unabhängiges Konzept eines aktiven Sensors für die optische Raster-Nahfeld-Mikroskopie vorgestellt werden, das das oben beschriebene System, bestehend aus einem fluoreszierenden Molekularen Glas und einer Siliziumnitrid-Deckschicht, verwendet. Erste theoretische und experimentelle Ergebnisse zeigen das technologische Potential dieses Sensortyps.
Resumo:
A comparison between the charge transport properties in low molecular amorphous thin films of spiro-linked compound and their corresponding parent compound has been demonstrated. The field-effect transistor method is used for extracting physical parameters such as field-effect mobility of charge carriers, ON/OFF ratios, and stability. In addition, phototransistors have been fabricated and demonstrated for the first time by using organic materials. In this case, asymmetrically spiro-linked compounds are used as active materials. The active materials used in this study can be divided into three classes, namely Spiro-linked compounds (symmetrically spiro-linked compounds), the corresponding parent-compounds, and photosensitive spiro-linked compounds (asymmetrically spiro-linked com-pounds). Some of symmetrically spiro-linked compounds used in this study were 2,2',7,7'-Tetrakis-(di-phenylamino)-9,9'-spirobifluorene (Spiro-TAD),2,2',7,7'-Tetrakis-(N,N'-di-p-methylphenylamino)-9,9'-spirobifluorene (Spiro-TTB), 2,2',7,7'-Tetra-(m-tolyl-phenylamino)-9,9'-spirobifluorene (Spiro-TPD), and 2,2Ž,7,7Ž-Tetra-(N-phenyl-1-naphtylamine)-9,9Ž-spirobifluorene (Spiro alpha-NPB). Related parent compounds of the symmetrically spiro-linked compound used in this study were N,N,N',N'-Tetraphenylbenzidine (TAD), N,N,N',N'-Tetrakis(4-methylphenyl)benzidine (TTB), N,N'-Bis(3-methylphenyl)-(1,1'-biphenyl)-4,4'-diamine (TPD), and N,N'-Diphenyl-N,N'-bis(1-naphthyl)-1,1'-biphenyl-4,4'-diamine (alpha-NPB). The photosensitive asymmetrically spiro-linked compounds used in this study were 2,7-bis-(N,N'-diphenylamino)-2',7'-bis(biphenyl-4-yl)-9,9'-spirobifluorene (Spiro-DPSP), and 2,7-bis-(N,N'-diphenylamino)-2',7'-bis(spirobifluorene-2-yl)-9,9'-spirobifluorene (Spiro-DPSP^2). It was found that the field-effect mobilities of charge carriers in thin films of symmetrically spiro-linked compounds and their corresponding parent compounds are in the same order of magnitude (~10^-5 cm^2/Vs). However, the thin films of the parent compounds were easily crystallized after the samples have been exposed in ambient atmosphere and at room temperature for three days. In contrast, the thin films and the transistor characteristics of symmetrically spiro-linked compound did not change significantly after the samples have been stored in ambient atmosphere and at room temperature for several months. Furthermore, temperature dependence of the mobility was analyzed in two models, namely the Arrhenius model and the Gaussian Disorder model. The Arrhenius model tends to give a high value of the prefactor mobility. However, it is difficult to distinguish whether the temperature behaviors of the material under consideration follows the Arrhenius model or the Gaussian Disorder model due to the narrow accessible range of the temperatures. For the first time, phototransistors have been fabricated and demonstrated by using organic materials. In this case, asymmetrically spiro-linked compounds are used as active materials. Intramolecular charge transfer between a bis(diphenylamino)biphenyl unit and a sexiphenyl unit leads to an increase in charge carrier density, providing the amplification effect. The operational responsivity of better than 1 A/W can be obtained for ultraviolet light at 370 nm, making the device interesting for sensor applications. This result offers a new potential application of organic thin film phototransistors as low-light level and low-cost visible blind ultraviolet photodetectors.