109 resultados para Ising Modell
Resumo:
Die in dieser Arbeit durchgeführten Untersuchungen zeigen, daß es möglich ist, komplexe thermische Systeme, unter Verwendung der thermisch-, elektrischen Analogien, mit PSpice zu simulieren. Im Mittelpunkt der Untersuchungen standen hierbei Strangkühlkörper zur Kühlung von elektronischen Bauelementen. Es konnte gezeigt werden,daß alle Wärmeübertragungsarten, (Wärmeleitung, Konvektion und Wärmestrahlung) in der Simulation berücksichtigt werden können. Für die Berechnung der Konvektion wurden verschiedene Methoden hergeleitet. Diese gelten zum einen für verschiedene Kühlkörpergeometrien, wie z.B. ebene Flächen und Kühlrippenzwischenräume, andererseits unterscheiden sie sich, je nachdem, ob freie oder erzwungene Konvektion betrachtet wird. Für die Wärmestrahlung zwischen den Kühlrippen wurden verschiedenen Berechnungsmethoden entwickelt. Für die Simulation mit PSpice wurde die Berechnung der Wärmestrahlung zwischen den Kühlrippen vereinfacht. Es konnte gezeigt werden, daß die Fehler, die durch die Vereinfachung entstehen, vernachlässigbar klein sind. Für das thermische Verhalten einer zu kühlenden Wärmequelle wurde ein allgemeines Modell entworfen. Zur Bestimmung der Modellparameter wurden verschiedene Meßverfahren entwickelt. Für eine im Fachgebiet Elektromechanik entwickelte Wärmequelle zum Test von Kühlvorrichtungen wurde mit Hilfe dieser Meßverfahren eine Parameterbestimmung durchgeführt. Die Erstellung des thermischen Modells eines Kühlkörpers für die Simulation in PSpice erfordert die Analyse der Kühlkörpergeometrie. Damit diese Analyse weitestgehend automatisiert werden kann, wurden verschiedene Algorithmen unter Matlab entwickelt. Es wurde ein Algorithmus entwickelt, der es ermöglicht, den Kühlkörper in Elementarzellen zu zerlegen, die für die Erstellung des Simulationsmodells benötigt werden. Desweiteren ist es für die Simulation notwendig zu wissen, welche der Elementarzellen am Rand des Kühlkörpers liegen, welche der Elementarzellen an einem Kühlrippenzwischenraum liegen und welche Kühlkörperkanten schräg verlaufen. Auch zur Lösung dieser Aufgaben wurden verschiedene Algorithmen entwickelt. Diese Algorithmen wurden zu einem Programm zusammengefaßt, das es gestattet, unterschiedliche Strangkühlkörper zu simulieren und die Simulationsergebnisse in Form der Temperaturverteilung auf der Montagefläche des Kühlkörpers grafisch darzustellen. Es können stationäre und transiente Simulationen durchgeführt werden. Desweiteren kann der thermische Widerstand des Kühlkörpers RthK als Funktion der Verlustleistung der Wärmequelle dargestellt werden. Zur Verifikation der Simulationsergebnisse wurden Temperaturmessungen an Kühlkörpern durchgeführt und mit den Simulationsergebnissen verglichen. Diese Vergleiche zeigen, daß die Abweichungen im Bereich der Streuung der Temperaturmessung liegen. Das hier entwickelte Verfahren zur thermischen Simulation von Strangkühlkörpern kann somit als gut bewertet werden.
Resumo:
Die Verwendung von Aktivkohlen und -koksen stellt eine Alternative zu herkömmlichen Prozessen zur Verminderung der NOx-Emissionen in Rauchgasen dar. An diesen Materialien wird Stickstoffmonoxid adsorbiert und katalytisch zu N2 reduziert. Eine einheitliche Erklärung über die ablaufenden Vorgänge und die Reaktionsmechanismen gibt es noch nicht. Die Ergebnisse der bisher veröffentlichten wissenschaftlichen Arbeiten sind sehr unterschiedlich, wenn nicht sogar widersprüchlich. In dieser Arbeit wird, anhand der Messung von NO-Durchbruchskurven und thermischen Desorptionsspektren, die Adsorption und Reaktion von Stickstoffmonoxid an Aktivkohlen und -koksen in Anwesenheit von Sauerstoff und Wasserdampf untersucht. Zur Durchführung der experimentellen Untersuchungen wird eine Versuchsanlage, bestehend aus einer Vorrichtung zur Gasgemischaufbereitung, einem Festbettreaktor und einer Gasanalytik, konzipiert und aufgebaut. Die Untersuchungen erfolgen bei Temperaturen zwischen 100 und 150 °C. Die NO-, O2- und H2O-Konzentrationen werden anhand der Rauchgaszusammensetzung kohlegefeuerter Kraftwerke gewählt. Die experimentellen Untersuchungen konzentrieren sich auf die Verwendung einer Aktivkohle aus Ölpalmschalen, die in einem Drehrohrreaktor am Institut für Thermische Energietechnik der Universität Kassel hergestellt wurde. Die experimentellen Ergebnisse zeigen, dass während des Prozesses NO-Adsorption, -Reduktion und -Oxidation, NO2-Bildung, -Adsorption und -reduktive Desorption, H2O-Adsorption sowie O2-Vergasung gleichzeitig stattfinden. Bei niedrigen Temperaturen werden die NO2-Bildung und die Adsorption bevorzugt. Die NO-Reduktion läuft über adsorbiertes NO mit CO2- und CO-Bildung. Durch O2-Vergasung werden aktive freie Cf-Plätzen für die NO-Reaktion und -Adsorption gebildet. Wasserdampf wird an der Aktivkohle adsorbiert und belegt aktive Plätze für diese Prozesse. Aus den experimentellen Ergebnissen werden kinetische und Gleichgewichtsparameter der NO-Sorption bestimmt. Ein vereinfachtes mathematisches Modell des Festbettreaktors, das zur Berechnung der NO-Durchbruchskurven bei unterschiedlichen Temperaturen dient, wird aufgestellt.
Resumo:
Es ist bekannt, dass die Dichte eines gelösten Stoffes die Richtung und die Stärke seiner Bewegung im Untergrund entscheidend bestimmen kann. Eine Vielzahl von Untersuchungen hat gezeigt, dass die Verteilung der Durchlässigkeiten eines porösen Mediums diese Dichteffekte verstärken oder abmindern kann. Wie sich dieser gekoppelte Effekt auf die Vermischung zweier Fluide auswirkt, wurde in dieser Arbeit untersucht und dabei das experimentelle sowohl mit dem numerischen als auch mit dem analytischen Modell gekoppelt. Die auf der Störungstheorie basierende stochastische Theorie der macrodispersion wurde in dieser Arbeit für den Fall der transversalen Makodispersion. Für den Fall einer stabilen Schichtung wurde in einem Modelltank (10m x 1.2m x 0.1m) der Universität Kassel eine Serie sorgfältig kontrollierter zweidimensionaler Experimente an einem stochastisch heterogenen Modellaquifer durchgeführt. Es wurden Versuchsreihen mit variierenden Konzentrationsdifferenzen (250 ppm bis 100 000 ppm) und Strömungsgeschwindigkeiten (u = 1 m/ d bis 8 m/d) an drei verschieden anisotrop gepackten porösen Medien mit variierender Varianzen und Korrelationen der lognormal verteilten Permeabilitäten durchgeführt. Die stationäre räumliche Konzentrationsausbreitung der sich ausbreitenden Salzwasserfahne wurde anhand der Leitfähigkeit gemessen und aus der Höhendifferenz des 84- und 16-prozentigen relativen Konzentrationsdurchgang die Dispersion berechnet. Parallel dazu wurde ein numerisches Modell mit dem dichteabhängigen Finite-Elemente-Strömungs- und Transport-Programm SUTRA aufgestellt. Mit dem kalibrierten numerischen Modell wurden Prognosen für mögliche Transportszenarien, Sensitivitätsanalysen und stochastische Simulationen nach der Monte-Carlo-Methode durchgeführt. Die Einstellung der Strömungsgeschwindigkeit erfolgte - sowohl im experimentellen als auch im numerischen Modell - über konstante Druckränder an den Ein- und Auslauftanks. Dabei zeigte sich eine starke Sensitivität der räumlichen Konzentrationsausbreitung hinsichtlich lokaler Druckvariationen. Die Untersuchungen ergaben, dass sich die Konzentrationsfahne mit steigendem Abstand von der Einströmkante wellenförmig einem effektiven Wert annähert, aus dem die Makrodispersivität ermittelt werden kann. Dabei zeigten sich sichtbare nichtergodische Effekte, d.h. starke Abweichungen in den zweiten räumlichen Momenten der Konzentrationsverteilung der deterministischen Experimente von den Erwartungswerten aus der stochastischen Theorie. Die transversale Makrodispersivität stieg proportional zur Varianz und Korrelation der lognormalen Permeabilitätsverteilung und umgekehrt proportional zur Strömungsgeschwindigkeit und Dichtedifferenz zweier Fluide. Aus dem von Welty et al. [2003] mittels Störungstheorie entwickelten dichteabhängigen Makrodispersionstensor konnte in dieser Arbeit die stochastische Formel für die transversale Makrodispersion weiter entwickelt und - sowohl experimentell als auch numerisch - verifiziert werden.
Resumo:
Das Werkstoffverhalten von stahlfaserfreiem bzw. stahlfaserverstärktem Stahlbeton unter biaxialle Druck- Zugbeanspruchung wurde experimentell und theoretisch untersucht. Die Basis der experimentellen Untersuchungen waren zahlreiche Versuche, die in der Vergangenheit an faserfreiem Stahlbetonscheiben zur Bestimmung des Werkstoffverhaltens von gerissenem Stahlbeton im ebenen Spannungszustand durchgeführt wurden. Bei diesen Untersuchungen wurde festgestellt, dass infolge einer Querzugbeanspruchung eine Abminderung der biaxialen Druckfestigkeit entsteht. Unter Berücksichtigung dieser Erkenntnisse sind zur Verbesserung der Werkstoffeigenschaften des Betons, Stahlbetonscheiben aus stahlfaserverstärktem Beton hergestellt worden. Die aus der Literatur bekannten Werkstoffmodelle für Beton sowie Stahlbeton, im ungerissenen und gerissenen Zustand wurden hinsichtlich der in der Vergangenheit ermittelten Materialeigenschaften des Betons bzw. Stahlbetons unter proportionalen sowie nichtproportionalen äußeren Belastungen erklärt und kritisch untersucht. In den frischen Beton wurden Stahlfasern hinzugegeben. Dadurch konnte die Festigkeits- und die Materialsteifigkeitsabminderung infolge Rissbildung, die zur Schädigung des Verbundwerkstoffs Beton führt, reduziert werden. Man konnte sehen, dass der Druckfestigkeitsabminderungsfaktor und insbesondere die zur maximal aufnehmbaren Zylinderdruckfestigkeit gehörende Stauchung, durch Zugabe von Stahlfasern besser begrenzt wird. Die experimentelle Untersuchungen wurden an sechs faserfreien und sieben stahlfaserverstärkten Stahlbetonscheiben unter Druck-Zugbelastung zur Bestimmung des Verhaltens des gerissenen faserfreien und stahlfaserverstärkten Stahlbetons durchgeführt. Die aus eigenen Versuchen ermittelten Materialeigenschaften des Betons, des stahlfaserverstärkten Betons und Stahlbetons im gerissenen Zustand wurden dargelegt und diskutiert. Bei der Rissbildung des quasi- spröden Werkstoffs Beton und dem stahlfaserverstärkten Beton wurde neben dem plastischen Fließen, auch die Abnahme des Elastizitätsmoduls festgestellt. Die Abminderung der aufnehmbaren Festigkeit und der zugehörigen Verzerrung lässt sich nicht mit der klassischen Fließtheorie der Plastizität ohne Modifizierung des Verfestigungsgesetzes erfassen. Es wurden auf elasto-plastischen Werkstoffmodellen basierende konstitutive Beziehungen für den faserfreien sowie den stahlfaserverstärkten Beton vorgeschlagen. Darüber hinaus wurde in der vorliegenden Arbeit eine auf dem elasto-plastischen Werkstoffmodell basierende konstitutive Beziehung für Beton und den stahlfaser-verstärkten Beton im gerissenen Zustand formuliert. Die formulierten Werkstoffmodelle wurden mittels dem in einer modularen Form aufgebauten nichtlinearen Finite Elemente Programm DIANA zu numerischen Untersuchungen an ausgewählten experimentell untersuchten Flächentragwerken, wie scheibenartigen-, plattenartigen- und Schalentragwerken aus faserfreiem sowie stahlfaserverstärktem Beton verwendet. Das entwickelte elasto-plastische Modell ermöglichte durch eine modifizierte effektive Spannungs-Verzerrungs-Beziehung für das Verfestigungsmodell, nicht nur die Erfassung des plastischen Fließens sondern auch die Berücksichtigung der Schädigung der Elastizitätsmodule infolge Mikrorissen sowie Makrorissen im Hauptzugspannungs-Hauptdruckspannungs-Bereich. Es wurde bei den numerischen Untersuchungen zur Ermittlung des Last-Verformungsverhaltens von scheibenartigen, plattenartigen- und Schalentragwerken aus faserfreiem und stahlfaserverstärktem Stahlbeton, im Vergleich mit den aus Versuchen ermittelten Ergebnissen, eine gute Übereinstimmung festgestellt.
Resumo:
In der vorliegenden Arbeit wurde das Wachstum von Silbernanoteilchen auf Magnesiumoxid und dabei insbesondere deren Größen- und Formrelation untersucht. Hierzu wurden Silbernanoteilchen auf ausgedehnten Magnesiumoxidsubstraten sowie auf Magnesiumoxid-Nanowürfeln präpariert. Zur Charakterisierung wurde die optische Spektroskopie, die Rasterkraftmikroskopie und die Transmissionselektronenmikroskopie eingesetzt. Während die Elektronenmikroskopie direkt sehr exakte Daten bezüglich der Größe und Form der Nanoteilchen liefert, kann mit den beiden anderen in dieser Arbeit verwendeten Charakterisierungsmethoden jeweils nur ein Parameter bestimmt werden. So kann man die Größe der Nanoteilchen indirekt mit Hilfe des AFM, durch Messung der Teilchananzahldichte, bestimmen. Bei der Bestimmung der Form mittels optischer Spektroskopie nutzt man aus, dass die spektralen Positionen der Plasmonresonanzen in dem hier verwendeten Größenbereich von etwa 2 - 10~nm nur von der Form aber nicht von der Größe der Teilchen abhängen. Ein wesentliches Ziel dieser Arbeit war es, die Ergebnisse bezüglich der Form und Größe der Nanoteilchen, die mit den unterschiedlichen Messmethoden erhalten worden sind zu vergleichen. Dabei hat sich gezeigt, dass die mit dem AFM und dem TEM bestimmten Größen signifikant voneinander Abweichen. Zur Aufklärung dieser Diskrepanz wurde ein geometrisches Modell aufgestellt und AFM-Bilder von Nanoteilchen simuliert. Bei dem Vergleich von optischer Spektroskopie und Transmissionselektronenmikroskopie wurde eine recht gute Übereinstimmung zwischen den ermittelten Teilchenformen gefunden. Hierfür wurden die gemessenen optischen Spektren mit Modellrechnungen verglichen, woraus man die Relation zwischen Teilchengröße und -form erhielt. Eine Übereinstimmung zwischen den erhaltenen Daten ergibt sich nur, wenn bei der Modellierung der Spektren die Form- und Größenverteilung der Nanoteilchen berücksichtigt wird. Insgesamt hat diese Arbeit gezeigt, dass die Kombination von Rasterkraftmikroskopie und optischer Spektroskopie ein vielseitiges Charakterisierungsverfahren für Nanoteilchen. Die daraus gewonnenen Ergebnisse sind innerhalb gewisser Fehlergrenzen gut mit der Transmissionselektronenmikroskopie vergleichbar.
Resumo:
Cell-cell interactions during embryonic development are crucial in the co-ordination of growth, differentiation and maintenance of many different cell types. To achieve this co-ordination each cell must properly translate signals received from neighbouring cells, into spatially and temporally appropriate developmental responses. A surprisingly limited number of signal pathways are responsible for the differentiation of enormous variety of cell types. As a result, pathways are frequently 'reused' during development. Thus, in mammals the JAK/STAT pathway is required during early embryogenesis, mammary gland formation, hematopoiesis and, finally, plays a pivotal role in immune response. In the canonical way, the JAK/STAT pathway is represented by a transmembrane receptor associated with a Janus kinase (JAK), which upon stimulation by an extra-cellular ligand, phosphorylates itself, the receptor and, finally, the signal transducer and activator of transcription (STAT) molecules. Phosphorylated STATs dimerise and translocate to the nucleus where they activate transcription of target genes. The JAK/STAT pathway has been conserved throughout evolution, and all known components are present in the genome of Drosophila melanogaster. Besides hematopoietic and immunity functions, the pathway is also required during development for processes including embryonic segmentation, tracheal morphogenesis, posterior spiracle formation etc. This study describes Drosophila Ken&Barbie (Ken) as a selective regulator of JAK/STAT signalling. ken mutations identified in a screen for modulators of an eye overgrowth phenotype, caused by over-expression of the pathway ligand unpaired, also interact genetically with the pathway receptor domeless (dome) and the transcription factor stat92E. Over-expression of Ken can phenocopy developmental defects known to be caused by the loss of JAK/STAT signalling. These genetic interactions suggest that Ken may function as a negative regulator of the pathway. Ken has C-terminal Zn-finger domain, presumably for DNA binding, and N-terminal BTB/POZ domain, often found in transcriptional repressors. Using EGFP-fused construct expressed in vivo revealed nuclear accumulation of Ken. Therefore, it is proposed that Ken may act as a suppresser of STAT92E target genes. An in vitro assay, termed SELEX, determined that Ken specifically binds to a DNA sequence, with the essential for DNA recognition core overlapping that of STAT92E. This interesting observation suggests that not all STAT92E sites may also allow Ken binding. Strikingly, when effects of ectopic Ken on the expression of putative JAK/STAT pathway target genes were examined, only a subset of the genes tested, namely vvl, trh and kni, were down-regulated by Ken, whereas some others, such as eve and fj, appeared to be unresponsive. Further analysis of vvl, one of the genes susceptible to ectopic Ken, was undertaken. In the developing hindgut, expression of vvl is JAK/STAT pathway dependent, but remains repressed in the posterior spiracles, despite the stimulation of STAT92E by Upd in their primordia. Importantly, ken is also expressed in the developing posterior spiracles. Strikingly, up-regulation of vvl is observed in these tissues in ken mutant embryos. These imply that while ectopic Ken is sufficient to repress the expression of vvl in the hindgut, endogenous Ken is also necessary to prevent its activation in the posterior spiracles. It is therefore conceivable that ectopic vvl expression in the posterior spiracles of the ken mutants may be the result of de-repression of endogenous STAT92E activity. Another consequence of these observations is a fine balance that must exist between STAT92E and Ken activities. Apparently, endogenous level of Ken is sufficient to repress vvl, but not other, as yet unidentified, JAK/STAT pathway targets, whose presumable activation by STAT92E is required for posterior spiracle development as the embryos mutant for dome, the receptor of the pathway, show severe spiracle defects. These defects are also observed in the embryos mis-expressing Ken. Though it is possible that the posterior spiracle phenotype caused by higher levels of Ken results from a JAK/STAT pathway independent activity, it seems to be more likely that Ken acts in a dosage dependent manner, and extra Ken is able to further antagonise JAK/STAT pathway target genes. While STAT92E binding sites required for target gene expression have been poorly characterised, the existence of genome data allows the prediction of candidate STAT92E sites present in target genes promoters to be attempted. When a 6kb region containing the putative regulatory domains flanking the vvl locus are examined, only a single potential STAT92E binding site located 825bp upstream of the translational start can be detected. Strikingly, this site also includes a perfect Ken binding sequence. Such an in silico observation, though consistent with both Ken DNA binding assay in vitro and regulation of STAT92E target genes in vivo, however, requires further analysis. The JAK/STAT pathway is implicated in a variety of processes during embryonic and larval development as well as in imago. In each case, stimulation of the same transcription factor results in different developmental outcomes. While many potential mechanisms have been proposed and demonstrated to explain such pleiotropy, the present study indicates that Ken may represent another mechanism, with which signal transduction pathways are controlled. Ken selectively down-regulates a subset of potential target genes and so modifies the transcriptional profile generated by activated STAT92E - a mechanism, which may be partially responsible for differences in the morphogenetic processes elicited by JAK/STAT signalling during development.
Resumo:
Die Dissertation beschäftigt sich mit der komparativen Analyse der deutschen und französischen Innovationssysteme. Ausgehend von der evolutorisch-orientierten Innovationsforschung und der Institutionenökonomik werden die Akteure und deren Interaktionen in den jeweiligen institutionellen Rahmenbedingungen in beiden Innovationssystemen untersucht. Die Arbeit beleuchtet dieses Thema aus verschiedenen Perspektiven und zeichnet sich durch ein breites Methodenspektrum aus. Die Grenzen und Defizite des linearen Innovationsmodells werden aufgezeigt und für ein systemisches, interaktives Verständnis der Entstehung von Innovationen plädiert. Dieses interaktive Modell wird auf die Ebene des nationalen Innovationssystems transponiert, und damit wird der konzeptionelle Rahmen für die weitere Analyse geschaffen. Für die Gestaltung der Innovationssysteme wird die Bedeutung der institutionellen Konfigurationen betont, die von den Innovationsakteuren gewählt werden. Hierfür werden jeweils die Fallbeispiele Frankreich und Deutschland ausführlich untersucht und nach der gleichen Systematik empirisch betrachtet und schließlich werden beide Innovationssysteme systematisch verglichen. Dabei wird auch auf die Pfadabhängigkeiten in beiden Innovationssystemen eingegangen, sowie auf die Notwendigkeit der Berücksichtigung kultureller und historischer Eigenarten der verglichenen Länder. Expertengespräche mit deutschen und französischen Experten, ergänzen die zuvor erzielten Ergebnisse der Arbeit: Durch eine interdisziplinäre Herangehensweise werden politikwissenschaftliche und ökonomische Ansätze miteinander verknüpft, sowie kulturelle Eigenarten berücksichtigt, die Innovationssysteme beeinflussen können. In seinen Schlussfolgerungen kommt der Verfasser zu dem Ergebnis, dass „lernende Politik“ über institutionellen Wandel und Wissenstransfer ein wichtiger Faktor bei der Gestaltung hybrider Institutionen und der staatlichen Innovationspolitik von der „Missions- zur Diffusionsorientierung“ hin ist. Die Betrachtung zweier nationaler Systeme sowie deren Einbindung in internationale Kontexte führt zum Ergebnis, dass die Steuerung der Schnittstelle „Forschung-Industrie“, insbesondere die Rolle der Universitäten und Forschungseinrichtungen in heterogenen Kooperationspartnerschaften, über neue forschungs-und technologiepolitische Instrumente über transnationales Lernen von Institutionen geschehen kann. Dieser institutionelle Wandel wird als Lernprozess betrachtet, der im Übergang zur wissensbasierten Wirtschaft als “comparative institutional advantage“ ein wichtiger Faktor bei der Gestaltung der Institutionen und der staatlichen Technologiepolitik ist.
Resumo:
Motiviert durch die Lebenswissenschaften (Life sciences) haben sich Untersuchungen zur Dynamik von Makromolekülen in Lösungen in den vergangenen Jahren zu einem zukunftsweisenden Forschungsgebiet etabliert, dessen Anwendungen von der Biophysik über die physikalische Chemie bis hin zu den Materialwissenschaften reichen. Neben zahlreichen experimentellen Forschungsprogrammen zur räumlichen Struktur und den Transporteigenschaften grosser MolekÄule, wie sie heute praktisch an allen (Synchrotron-) Strahlungsquellen und den Laboren der Biophysik anzutreffen sind, werden gegenwärtig daher auch umfangreiche theoretische Anstrengungen unternommen, um das Diffusionsverhalten von Makromolekülen besser zu erklären. Um neue Wege für eine quantitative Vorhersagen des Translations- und Rotationsverhaltens grosser Moleküle zu erkunden, wurde in dieser Arbeit ein semiphänomenologischer Ansatz verfolgt. Dieser Ansatz erlaubte es, ausgehend von der Hamiltonschen Mechanik des Gesamtsystems 'Molekül + Lösung', eine Mastergleichung für die Phasenraumdichte der Makromoleküle herzuleiten, die den Einfluss der Lösung mittels effektiver Reibungstensoren erfasst. Im Rahmen dieses Ansatzes gelingt es z.B. (i) sowohl den Einfluss der Wechselwirkung zwischen den makromolekularen Gruppen (den sogenannten molekularen beads) und den Lösungsteilchen zu analysieren als auch (ii) die Diffusionseigen schaften für veschiedene thermodynamische Umgebungen zu untersuchen. Ferner gelang es auf der Basis dieser Näherung, die Rotationsbewegung von grossen Molekülen zu beschreiben, die einseitig auf einer Oberfläche festgeheftet sind. Im Vergleich zu den aufwendigen molekulardynamischen (MD) Simulationen grosser Moleküle zeichnet sich die hier dargestellte Methode vor allem durch ihren hohen `Effizienzgewinn' aus, der für komplexe Systeme leicht mehr als fünf Grössenordnungen betragen kann. Dieser Gewinn an Rechenzeit erlaubt bspw. Anwendungen, wie sie mit MD Simulationen wohl auch zukünftig nicht oder nur sehr zögerlich aufgegriffen werden können. Denkbare Anwendungsgebiete dieser Näherung betreffen dabei nicht nur dichte Lösungen, in denen auch die Wechselwirkungen der molekularen beads zu benachbarten Makromolekülen eine Rolle spielt, sondern auch Untersuchungen zu ionischen Flüssigkeiten oder zur Topologie grosser Moleküle.
Resumo:
Die "Einführung in die stochastische Simulation mit Fathom" führt in die Simulation mit der Computersoftware Fathom ein und entstand im Rahmen meines Dissertationsprojekts. Voraussetzung sind elementare Grundkenntnisse in dieser Software, z.B. für die Analyse von eindimensionalen Daten. Die Arbeit basiert auf einer ausführlichen Analyse stochastischer Situationen, die als Zufallsexperimente modelliert werden können. Sie wurde ursprünglich für Studenten der Veranstaltung "Elementare Stochastik" an der Universität Kassel didaktisch aufbereitet. Sie ist aber auch für alle Lehrenden und Lernenden an Schule und Hochschule gedacht, die die stochastische Simulation mit Fathom erlernen wollen. Das Dokument dient dazu, eine systematische Anleitung zum Erstellen eigener Simulationen zu geben. Eine didaktische Hilfestellung bietet dazu das dreigegliederte Simulationskonzept: 1. Festlegen des stochastischen Modell, 2. Erstellen eines Simulationsplans und 3. Realisierung in FATHOM. Verschiedene Simulationsarten werden ausführlich an einem Beispiel vorgestellt und können in Arbeitsumgebungen selbst erzeugt werden. Die Erstellung der Arbeit wurde mit Mitteln des BLK-Projektes Netzwerk Wissenschaftliche Weiterbildung für Lehramtsberufe (NWWL) an der Universität Kassel gefördert.
Resumo:
Das Grünbuch 2006 der Europäischen Kommission "Eine Europäische Strategie für nachhaltige, wettbewerbsfähige und sichere Energie" unterstreicht, dass Europa in ein neues Energie-Zeitalter eingetreten ist. Die vorrangigen Ziele europäischer Energiepolitik müssen Nachhaltigkeit, Wettbewerbsfähigkeit und Versorgungssicherheit sein, wobei sie eine zusammenhängende und logische Menge von Taktiken und Maßnahmen benötigt, um diese Ziele zu erreichen. Die Strommärkte und Verbundnetze Europas bilden das Kernstück unseres Energiesystems und müssen sich weiterentwickeln, um den neuen Anforderungen zu entsprechen. Die europäischen Stromnetze haben die lebenswichtigen Verbindungen zwischen Stromproduzenten und Verbrauchern mit großem Erfolg seit vielen Jahrzehnten gesichert. Die grundlegende Struktur dieser Netze ist entwickelt worden, um die Bedürfnisse großer, überwiegend auf Kohle aufgebauten Herstellungstechnologien zu befriedigen, die sich entfernt von den Verbraucherzentren befinden. Die Energieprobleme, denen Europa jetzt gegenübersteht, ändern die Stromerzeugungslandschaft in zwei Gesichtspunkten: die Notwendigkeit für saubere Kraftwerkstechnologien verbunden mit erheblich verbesserten Wirkungsgraden auf der Verbraucherseite wird es Kunden ermöglichen, mit den Netzen viel interaktiver zu arbeiten; andererseits müssen die zukünftigen europaweiten Stromnetze allen Verbrauchern eine höchst zuverlässige, preiswerte Energiezufuhr bereitstellen, wobei sowohl die Nutzung von großen zentralisierten Kraftwerken als auch kleineren lokalen Energiequellen überall in Europa ausgeschöpft werden müssen. In diesem Zusammenhang wird darauf hingewiesen, dass die Informationen, die in dieser Arbeit dargestellt werden, auf aktuellen Fragen mit großem Einfluss auf die gegenwärtigen technischen und wirtschaftspolitischen Diskussionen basieren. Der Autor hat während der letzten Jahre viele der hier vorgestellten Schlussfolgerungen und Empfehlungen mit Vertretern der Kraftwerksindustrie, Betreibern von Stromnetzen und Versorgungsbetrieben, Forschungsgremien und den Regulierungsstellen diskutiert. Die folgenden Absätze fassen die Hauptergebnisse zusammen: Diese Arbeit definiert das neue Konzept, das auf mehr verbraucherorientierten Netzen basiert, und untersucht die Notwendigkeiten sowie die Vorteile und die Hindernisse für den Übergang auf ein mögliches neues Modell für Europa: die intelligenten Stromnetze basierend auf starker Integration erneuerbarer Quellen und lokalen Kleinkraftwerken. Das neue Modell wird als eine grundlegende Änderung dargestellt, die sich deutlich auf Netzentwurf und -steuerung auswirken wird. Sie fordert ein europäisches Stromnetz mit den folgenden Merkmalen: – Flexibel: es erfüllt die Bedürfnisse der Kunden, indem es auf Änderungen und neue Forderungen eingehen kann – Zugänglich: es gestattet den Verbindungszugang aller Netzbenutzer besonders für erneuerbare Energiequellen und lokale Stromerzeugung mit hohem Wirkungsgrad sowie ohne oder mit niedrigen Kohlendioxidemissionen – Zuverlässig: es verbessert und garantiert die Sicherheit und Qualität der Versorgung mit den Forderungen des digitalen Zeitalters mit Reaktionsmöglichkeiten gegen Gefahren und Unsicherheiten – Wirtschaftlich: es garantiert höchste Wirtschaftlichkeit durch Innovation, effizientes Energiemanagement und liefert „gleiche Ausgangsbedingungen“ für Wettbewerb und Regulierung. Es beinhaltet die neuesten Technologien, um Erfolg zu gewährleisten, während es die Flexibilität behält, sich an weitere Entwicklungen anzupassen und fordert daher ein zuversichtliches Programm für Forschung, Entwicklung und Demonstration, das einen Kurs im Hinblick auf ein Stromversorgungsnetz entwirft, welches die Bedürfnisse der Zukunft Europas befriedigt: – Netztechnologien, die die Stromübertragung verbessern und Energieverluste verringern, werden die Effizienz der Versorgung erhöhen, während neue Leistungselektronik die Versorgungsqualität verbessern wird. Es wird ein Werkzeugkasten erprobter technischer Lösungen geschaffen werden, der schnell und wirtschaftlich eingesetzt werden kann, so dass bestehende Netze Stromeinleitungen von allen Energieressourcen aufnehmen können. – Fortschritte bei Simulationsprogrammen wird die Einführung innovativer Technologien in die praktische Anwendung zum Vorteil sowohl der Kunden als auch der Versorger stark unterstützen. Sie werden das erfolgreiche Anpassen neuer und alter Ausführungen der Netzkomponenten gewährleisten, um die Funktion von Automatisierungs- und Regelungsanordnungen zu garantieren. – Harmonisierung der ordnungspolitischen und kommerziellen Rahmen in Europa, um grenzüberschreitenden Handel von sowohl Energie als auch Netzdienstleistungen zu erleichtern; damit muss eine Vielzahl von Einsatzsituationen gewährleistet werden. Gemeinsame technische Normen und Protokolle müssen eingeführt werden, um offenen Zugang zu gewährleisten und den Einsatz der Ausrüstung eines jeden Herstellers zu ermöglichen. – Entwicklungen in Nachrichtentechnik, Mess- und Handelssystemen werden auf allen Ebenen neue Möglichkeiten eröffnen, auf Grund von Signalen des Marktes frühzeitig technische und kommerzielle Wirkungsgrade zu verbessern. Es wird Unternehmen ermöglichen, innovative Dienstvereinbarungen zu benutzen, um ihre Effizienz zu verbessern und ihre Angebote an Kunden zu vergrößern. Schließlich muss betont werden, dass für einen erfolgreichen Übergang zu einem zukünftigen nachhaltigen Energiesystem alle relevanten Beteiligten involviert werden müssen.
Resumo:
Ausgehend von der Frage, warum Beratungsprozesse scheitern, stellt der Autor sein Modell der Evolutionären Personal- und Organisationsentwicklung (EPOS) dar, das mit der Theorie des Kreativen Feldes, dem Jazzbandmodell der Führung sowie einer evolutionären Perspektive optimierte Personal- und Organisationsentwicklungsprozesse verspricht. Besondere kreative Leistungen, aber auch persönlicher und organisationeller Wandel erweisen sich demnach als Ausdruck besonders gestalteter Anregungsfelder, die der Autor als "Kreative Felder" bezeichnet. Der verbreiteten Steuerungsillusion komplexer Wandelungsprozesse setzt er ein Konzept gemeinsamer Improvisation nach dem Jazzbandmodell der Führung entgegen, das individuelle Entwicklung mit evolutionärer Organisationsentwicklung verbindet und zu neuen Formen des Partizipationsdesigns führt.
Resumo:
Die Polymerisation von α-Olefinen mit Derivaten von Gruppe-4-Metallocenen ist von großem technologischen Interesse. In den letzten Jahren hat sich bei der Suche nach metallocenalternativen Präkatalysatoren u.a. aufgrund der theoretischen Arbeiten von Ziegler gezeigt, dass Di(amido)-Chelatkomplexe mit Gruppe-4-Metallen vielversprechende Spezies für die α-Olefinpolymerisation darstellen. Im Rahmen der vorliegenden Arbeit sollten die stereoelektronischen Eigenschaften solcher Komplexe durch Arylgruppen mit sterisch anspruchsvollen Alkylsubstituenten beeinflusst werden. Weitere interessante Eigenschaften sollten durch die die Stickstoffatome verbrückende Ferroceneinheit erzielt werden, da diese als molekulares Kugellager und redoxaktive Schaltereinheit fungieren kann. Die Di(arylamino)ferrocenligandvorstufen Fe[(C5H4)NHPh]2, Fe[(C5H4)NH(2,6-C6H3Me2)]2 und Fe[(C5H4)NH(2,4,6-i-Pr3C6H2)]2 konnten durch Hartwig-Buchwald-artige Kreuzkupplung von 1,1´-Diaminoferrocen mit dem jeweiligen Arylbromid erhalten werden. Dagegen misslangen über diese Syntheseroute zahlreiche Versuche zur Synthese von Derivaten mit Substituenten in meta-Position des Arylringes. Die Darstellung der Titan- und Zirkoniumchelatkomplexe gelang durch Metathesereaktion der Di(arylamino)ferrocene mit M(NMe2)4 bzw. M(CH2Ph)4 (M = Ti, Zr), die unter Eliminierung von 2 Äquivalenten HNMe2 bzw. Toluol ablaufen. Dabei zeigte sich, dass bei sterisch anspruchsvollen Di(arylamino)ferrocenligandsystemen keine Metathesereaktion mit Ti(NMe2)4 möglich ist, was auch für analoge Reaktionen mit Ti(CH2Ph)4 zu erwarten ist. Ganz anders sind dagegen die Verhältnisse in der Zirkoniumchemie. Hier konnten durch Umsetzung von Fe[(C5H4)NH(2,4,6-i-Pr3C6H2)]2 mit Zr(NMe2)4 bzw. Zr(CH2Ph)4 die Komplexe [{Fe[C5H4(NC6H2-2,4,6-i-Pr3)]2}Zr(NMe2)2] und [{Fe[C5H4(NC6H2-2,4,6-i-Pr3)]2}Zr(CH2Ph)2] dargestellt werden. Hier findet sich eine senkrechte Anordnung der Arylringe zur Chelatringebene, die die nach Ziegler günstige Orbitalüberlappung ermöglicht, die zu einer besonders hohen katalytischen Aktivität dieser Komplexe in der Ethylenpolymerisation führen sollte. Nach üblicher Aktivierung zeigen diese Komplexe jedoch nur niedrige Aktivitäten in der Ethylenpolymerisation. Ob strukturelle Parameter für dieses Ergebnis verantwortlich sind, oder sogar Defizite im Ziegler-Modell vorliegen, sollte Gegenstand zukünftiger Untersuchungen sein.
Resumo:
Physikalische Grundlagenforschung und anwendungsorientierte physikalische Forschung auf den Gebieten nanoskaliger kristalliner und amorpher fester Körper haben in vielfacher Weise eine große Bedeutung. Neben dem Verständnis für die Struktur der Materie und die Wechselwirkung von Objekten von der Größe einiger Atome ist die Erkenntnis über die physikalischen Eigenschaften nanostrukturierter Systeme von hohem Interesse. Diese Forschung eröffnet die Möglichkeit, die mit der Mikroelektronik begonnene Miniaturisierung fortzusetzen und wird darüber hinaus neue Anwendungsfelder eröffnen. Das Erarbeiten der physikalischen Grundlagen der Methoden zur Herstellung und Strukturierung ist dabei zwingend notwendig, da hier Wirkungsprinzipien dominieren, die erst bei Strukturgrößen im Nanometerbereich auftreten oder hinreichend stark ausgeprägt sind. Insbesondere Halbleitermaterialien sind hier von großem Interesse. Die in dieser Arbeit untersuchten Resonatorstrukturen, die auf dem kristallinen Verbindungshalbleitermaterial GaInAsP/InP basieren, erschließen wichtige Anwendungsfelder im Bereich der optischen Datenübertragung sowie der optischen Sensorik. Hergestellt wird das Halbleitermaterial mit der Metallorganischen Gasphasenepitaxie. Die experimentell besimmten Kenngrößen lassen Rückschlüsse auf die Güte der Materialien, die quantenmechanischen Wirkungsprinzipien und die Bauelementcharakteristik zu und führen zu optimal angepassten Kristallstrukturen. Auf Basis dieser optimierten Materialien wurde ein durchstimmbarer Fabry-Perot-Filter hergestellt, der aus einer Kombination aus InP-Membranen und Luftspalten besteht und elektromechanisch aktuiert werden kann. Das GaInAsP dient hierbei als wenige hundert nm dicke Opferschicht, die ätztechnisch hochselektiv beseitigt wird. Die Qualität der Grenzflächen zum InP ist entscheidend für die Qualität der freigeätzten Kavitäten und damit für die mechanische Gesamtstabilität der Struktur. Der in dieser Arbeit beschriebene Filter hat eine Zentralwellenlänge im Bereich von 1550 nm und weist einen Durchstimmbereich von 221 nm auf. Erzielt wurde dieser Wert durch ein konsistentes Modell der wirkenden Verspannungskomponenten und einer optimierten epitaktischen Kontrolle der Verspannungsparameter. Das realisierte Filterbauelement ist vielversprechend für den Einsatz in der optischen Kommunikation im Bereich von WDM (wavelength division multiplexing) Anwendungen. Als weitere Resonatorstrukur wurde ein Asymmetrisch gekoppelter Quantenfilm als optisch aktives Medium, bestehend aus GaInAsP mit variierender Materialkomposition und Verspannung, untersucht, um sein Potential für eine breitbandige Emission zu untersuchen und mit bekannten Modellen zu vergleichen. Als Bauelementdesign wurde eine kantenemittierende Superlumineszenzleuchtdiode gewählt. Das Ergebnis ist eine Emissionskurve von 100 nm, die eine höhere Unabhängigkeit vom Injektionsstrom aufweist als andere bekannte Konzepte. Die quantenmechanischen Wirkungsprinzipien - im wesentlichen die Kopplung der beiden asymmetrischen Potentialtöpfe und die damit verbundene Kopplung der Wellenfunktionen - werden qualitativ diskutiert. Insgesamt bestätigt sich die Eignung des Materials GaInAsP auch für neuartige, qualitativ höchst anspruchsvolle Resonatorstrukturen und die Bedeutung der vorgestellten und untersuchten Resonatorkonzepte. Die vorgestellten Methoden, Materialien und Bauelemente liefern aufgrund ihrer Konzeption und der eingehenden experimentellen Untersuchungen einen Beitrag sowohl zu den zugrunde liegenden mechanischen, optoelektronischen und quantenmechanischen Wirkungsprinzipien der Strukturen, als auch zur Realisierung neuer optoelektronischer Bauelemente.
Resumo:
Die weltweit agierenden sozialen Investitionsfonds haben ihren konzeptionellen Ursprung in dem 1986 erstmals in Bolivien implementierten Sozialen Notstandsfond. Der Fonds hatte die schnelle und fokussierte soziale Abfederung der unter der “Ägide“ der internationalen Finanzorganisationen im bolivianischen Kontext seit 1985 umgesetzten neoliberalen Strukturanpassungsprogramme zum Ziel. Resultierend aus den überwiegend positiven Erfahrungen der ersten Fondsgeneration und der im Verlauf der letzten zwei Dekaden stetigen Weiterentwicklung der nationalen Fondsstruktur kommt dem bolivianischen Modell im Hinblick auf die zukünftige Ausgestaltung von Sozialfondsstrukturen bis heute eine besondere Bedeutung zu. Anhand der verschiedenen bolivianischen Sozialfondsgenerationen fokussiert das vorliegende working paper die Interaktionen und Interdependenzen, die sich innerhalb der internationalen, der nationalen und der lokalen Ebene abzeichnen. So lässt sich im Kontext des bolivianischen Sozialfonds ein beachtlicher Kompetenztransfer zugunsten der internationalen Ebene konstatieren, der durchaus als “Denationalisierung“ der nationalen Sozialpolitik beschrieben werden kann. Gleichzeitig zeigt die vorliegende Untersuchung, dass die nationale Ebene diese Neuverteilung traditionell nationalstaatlicher Verantwortungsbereiche sowohl über Legitimationsgewinne als auch politische Gestaltungsspielräume partiell zu kompensieren vermochte. Mit Blick auf die lokale Ebene dominierten indes klassische top-down-Logiken. Die lokale Ebene trat somit weniger als gestaltender Akteur, denn als passiver Adressat sozialpolitischer Prioritätensetzungen auf.
Resumo:
Die Amöbe Dictyostelium discoideum ist ein genetisch leicht manipulierbarer Organismus und dient als Modell für verschiedene zelluläre Prozesse, wie z.B. der Endocytose. Hierbei konnte vieles über die Funktion von beteiligten Proteinen anhand von Untersuchungen an spezifischen Mutanten gelernt werden. Bei AlyA handelt es sich um D. discoideum spezifisches Lysozym. GFP-modifiziertes AlyA lokalisiert in Phagosomen und in einer neuen Klasse von Vesikeln lysososomaler Enzyme. Über Rescue Mutanten konnte der Phänotyp alyA138 Knockout Mutanten, einer erhöhten Phagocytoserate einhergehend mit einem verbesserten Wachstum auf Bakterienrasen, der gerettet werden. In AlyA Null Zellen wurde eine erhöhte Expression von Gp70, einer lysosomalen Esterase, gefunden. Die Überexpression von Gp70 alleine führt mit geringen Unterschieden zu einem Phänotyp ähnlich der alyA Knockout Mutante. Demzufolge scheinen beide Enzyme eine Funktion in einer gemeinsamen Signalskaskade, ausgehend von der Degradation internalisierter Bakterien hin zu einer erhöhten Phagocytoserate, zu haben. Eine erhöhte Lysozymaktivität in Gp70 Überexprimierern wurde nicht gefunden. Mit H5 konnte mittels Microarray Analysen ein Protein identifiziert werden, welches in den alyA138 Knockout Zellen, jedoch nicht in Gp70 Überexprimierern, verstärkt exprimiert wird. Eine Funktion in einer Signalkette zwischen AlyA und Gp70, wie die erhöhte Expression vermuten lässt, konnte jedoch nicht bestätigt werden. So führt die Überexpression von H5 weder zu einer erhöhten Phagocytoserate noch zu einer verstärkten Expression von Gp70. Mittels der Microarray Analysen konnten weiterhin acht Gene identifiziert werden, die in den beiden Mutanten schwächer exprimiert vorliegen. Knockaout Mutanten zweier dieser Gene, sse346 und ssj758, wurden untersucht. Sse346 Null Zellen zeigen eine erhöhte Phagocytoserate einhergehend mit effizienterem Wachstum auf Bakterienrasen, während das Fehlen von Ssj758 nur zu vergrößerten Plaquedurchmessern führte. Beide proteine haben demnach eine Funktion in der postulierten Signalkaskade. Diese scheint, ausgehend von der Überexpression von Gp70, zweigeteilt zu verlaufen.