985 resultados para Simulationen, Quanten Modelle, Rezonanz-Tunnel Diode


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Scanning Probe Microscopy (SPM) has become of fundamental importance for research in area of micro and nano-technology. The continuous progress in these fields requires ultra sensitive measurements at high speed. The imaging speed limitation of the conventional Tapping Mode SPM is due to the actuation time constant of piezotube feedback loop that keeps the tapping amplitude constant. In order to avoid this limit a deflection sensor and an actuator have to be integrated into the cantilever. In this work has been demonstrated the possibility of realisation of piezoresistive cantilever with an embedded actuator. Piezoresistive detection provides a good alternative to the usual optical laser beam deflection technique. In frames of this thesis has been investigated and modelled the piezoresistive effect in bulk silicon (3D case) for both n- and p-type silicon. Moving towards ultra-sensitive measurements it is necessary to realize ultra-thin piezoresistors, which are well localized to the surface, where the stress magnitude is maximal. New physical effects such as quantum confinement which arise due to the scaling of the piezoresistor thickness was taken into account in order to model the piezoresistive effect and its modification in case of ultra-thin piezoresistor (2D case). The two-dimension character of the electron gas in n-type piezoresistors lead up to decreasing of the piezoresistive coefficients with increasing the degree of electron localisation. Moreover for p-type piezoresistors the predicted values of the piezoresistive coefficients are higher in case of localised holes. Additionally, to the integration of the piezoresistive sensor, actuator integrated into the cantilever is considered as fundamental for realisation of fast SPM imaging. Actuation of the beam is achieved thermally by relying on differences in the coefficients of thermal expansion between aluminum and silicon. In addition the aluminum layer forms the heating micro-resistor, which is able to accept heating impulses with frequency up to one megahertz. Such direct oscillating thermally driven bimorph actuator was studied also with respect to the bimorph actuator efficiency. Higher eigenmodes of the cantilever are used in order to increase the operating frequencies. As a result the scanning speed has been increased due to the decreasing of the actuation time constant. The fundamental limits to force sensitivity that are imposed by piezoresistive deflection sensing technique have been discussed. For imaging in ambient conditions the force sensitivity is limited by the thermo-mechanical cantilever noise. Additional noise sources, connected with the piezoresistive detection are negligible.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Untersuchung von Schichtsystemen für die magneto-optische Datenspeicherung mit Hilfe der Kerr-Mikroskopie Dissertation von Stephan Knappmann, Universität Gh Kassel, 2000 Im Rahmen dieser Arbeit wurde ein modifiziertes Kerr-Mikroskop aufgebaut und für eine neuartige Untersuchungsmethode von gekoppelten magnetischen Schichten angewendet. Damit können Schichtsysteme untersucht werden, bei denen die eine Schicht eine temperaturabhängige Reorientierung der Magnetisierung von in-plane zu senkrecht zeigt. Derartige Schichten sind für zukünftige magnetooptische Speichertechniken interessant, da sie für die magnetisch induzierte Superauflösung (MSR) eingesetzt werden können. Zunächst wurde ein Ganzfeld-Kerr-Mikroskop aufgebaut und durch einen zusätzlichen Strahlengang erweitert. Da die Proben lokal geheizt werden sollten, wurde der Strahl eines Diodenlasers (l = 780 nm) in den Strahlengang eingekoppelt, durch das Mikroskopobjektiv auf die Probe fokussiert und nach der Reflexion vollständig aus dem Strahlengang entfernt. Dies war deshalb wichtig, da Domänenbilder aufgenommen werden sollten, während die Schichten lokal geheizt werden. Mit diesem Aufbau ist es möglich, den magnetooptischen Ausleseprozeß in MSR Systemen mikroskopisch zu simulieren. Dies wurde am Beispiel einer Doppelschicht demonstriert. Dieses Schichtsystem besteht aus einer Speicherschicht mit senkrechter Magnetisierung (TbFeCo) und einer Ausleseschicht mit temperaturabhängiger Reorientierung (GdFeCo). Damit ist dieses Schichtsystem für eine spezielle MSR Technik (CAD-MSR) geeignet. Dabei wird im heißen Bereich des laserinduzierten Temperaturprofils die Information aus der Speicherschicht in die Ausleseschicht kopiert, so daß eine Apertur gebildet wird, die nur von der Temperaturverteilung abhängt. Bei diesem Schichtsystem konnte gezeigt werden, daß sich durch ein Magnetfeld die Aperturwirkung deutlich verbessern läßt. Dieses Ergebnis läßt sich auf alle Schichten übertragen, bei denen die Reorientierung der Magnetisierung durch allmähliche Drehung erfolgt. Die wesentlichen Ergebnisse der Domänenbeobachtungen an der TbFeCo/GdFeCo-Doppelschicht konnten durch Simulationen mit Hilfe eines einfachen Modells bestätigt werden. Ein weiterer Schwerpunkt der Arbeit lag in der Untersuchung von Vielfachschichten. Es wurden Tb/Fe-Vielfachschichten mit einer Modulationswellenlänge von 1,5 - 5 nm durch Kathodenzerstäubung hergestellt und magnetisch charakterisiert. Die natürlichen Domänen-strukturen zeigten eine starke Abhängigkeit von dem Verhältnis der Tb- und Fe-Schichtdicken. Die Erklärung kann durch das Wechselspiel von magnetostatischer Energie EMS und Domänenwandenergie EDW gegeben werden. In der Nähe des Kompensationspunktes ist EMS klein und EDW dominiert. Als Folge bilden sich zirkulare Domänen. Mit der Entfernung vom Kompensationspunkt steigt EMS und es wird eine verzweigte Domänenstruktur favorisiert. Thermomagnetische Schreibexperimente an einer ausgewählten Tb/Fe-Vielfachschicht haben ergeben, daß sich bei kleinen Schreib-Magnetfeldern Subdomänenstrukturen ausbilden können. In der Praxis ist ein solcher Subdomänenzustand unerwünscht, da er zu einem erhöhten Ausleserauschen führen würde. Der Effekt läßt sich durch ein höheres Magnetfeld oder eine höhere Kompensationstemperatur (höhere Tb-Konzentration) vermeiden. Schließlich wurde demonstriert, daß nach kleinen Änderungen mit dem Mikroskop Domänen in longitudinaler Konfiguration abgebildet werden können. Da die Kerr-Drehungen hier kleiner sind als im polaren Fall, mußten verschiedene Verfahren der Bildverarbeitung angewendet werden, um den magnetischen Kontrast zu vergrößern. Neben der bekannten Subtraktion eines Referenzbildes wurde ein neues Verfahren zur weiteren Verbesserung der Domänenbilder angewendet, wobei zwei Referenzbilder mit entgegengesetzter Magnetisierung benötigt werden.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Diese Arbeit umfaßt das elektromechanische Design und die Designoptimierung von weit durchstimmbaren optischen multimembranbasierten Bauelementen, mit vertikal orientierten Kavitäten, basierend auf der Finiten Element Methode (FEM). Ein multimembran InP/Luft Fabry-Pérot optischer Filter wird dargestellt und umfassend analysiert. In dieser Arbeit wird ein systematisches strukturelles Designverfahren dargestellt. Genaue analytische elektromechanischer Modelle für die Bauelemente sind abgeleitet worden. Diese können unschätzbare Werkzeuge sein, um am Anfang der Designphase schnell einen klaren Einblick zur Verfügung zu stellen. Mittels des FEM Programms ist der durch die nicht-lineare Verspannung hervorgerufene versteifende Effekt nachgeforscht und sein Effekt auf die Verlängerung der mechanischen Durchstimmungsstrecke der Bauelemente demonstriert worden. Interessant war auch die Beobachtung, dass die normierte Relation zwischen Ablenkung und Spannung ein unveränderliches Profil hat. Die Deformation der Membranflächen der in dieser Arbeit dargestellten Bauelementformen erwies sich als ein unerwünschter, jedoch manchmal unvermeidbarer Effekt. Es zeigt sich aber, dass die Wahl der Größe der strukturellen Dimensionen den Grad der Membrandeformation im Falle der Aktuation beeinflusst. Diese Arbeit stellt ein elektromechanisches in FEMLAB implementierte quasi-3D Modell, das allgemein für die Modellierung dünner Strukturen angewendet werden kann, dar; und zwar indem man diese als 2D-Objekte betrachtet und die dritte Dimension als eine konstante Größe (z.B. die Schichtdicke) oder eine Größe, welche eine mathematische Funktion ist, annimmt. Diese Annahme verringert drastisch die Berechnungszeit sowie den erforderlichen Arbeitsspeicherbedarf. Weiter ist es für die Nachforschung des Effekts der Skalierung der durchstimmbaren Bauelemente verwendet worden. Eine neuartige Skalierungstechnik wurde abgeleitet und verwendet. Die Ergebnisse belegen, dass das daraus resultierende, skalierte Bauelement fast genau die gleiche mechanische Durchstimmung wie das unskalierte zeigt. Die Einbeziehung des Einflusses von axialen Verspannungen und Gradientenverspannungen in die Berechnungen erforderte die Änderung der Standardimplementierung des 3D Mechanikberechnungsmodus, der mit der benutzten FEM Software geliefert wurde. Die Ergebnisse dieser Studie zeigen einen großen Einfluss der Verspannung auf die Durchstimmungseigenschaften der untersuchten Bauelemente. Ferner stimmten die Ergebnisse der theoretischen Modellrechnung mit den experimentellen Resultaten sehr gut überein.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die in dieser Arbeit durchgeführten Untersuchungen zeigen, daß es möglich ist, komplexe thermische Systeme, unter Verwendung der thermisch-, elektrischen Analogien, mit PSpice zu simulieren. Im Mittelpunkt der Untersuchungen standen hierbei Strangkühlkörper zur Kühlung von elektronischen Bauelementen. Es konnte gezeigt werden,daß alle Wärmeübertragungsarten, (Wärmeleitung, Konvektion und Wärmestrahlung) in der Simulation berücksichtigt werden können. Für die Berechnung der Konvektion wurden verschiedene Methoden hergeleitet. Diese gelten zum einen für verschiedene Kühlkörpergeometrien, wie z.B. ebene Flächen und Kühlrippenzwischenräume, andererseits unterscheiden sie sich, je nachdem, ob freie oder erzwungene Konvektion betrachtet wird. Für die Wärmestrahlung zwischen den Kühlrippen wurden verschiedenen Berechnungsmethoden entwickelt. Für die Simulation mit PSpice wurde die Berechnung der Wärmestrahlung zwischen den Kühlrippen vereinfacht. Es konnte gezeigt werden, daß die Fehler, die durch die Vereinfachung entstehen, vernachlässigbar klein sind. Für das thermische Verhalten einer zu kühlenden Wärmequelle wurde ein allgemeines Modell entworfen. Zur Bestimmung der Modellparameter wurden verschiedene Meßverfahren entwickelt. Für eine im Fachgebiet Elektromechanik entwickelte Wärmequelle zum Test von Kühlvorrichtungen wurde mit Hilfe dieser Meßverfahren eine Parameterbestimmung durchgeführt. Die Erstellung des thermischen Modells eines Kühlkörpers für die Simulation in PSpice erfordert die Analyse der Kühlkörpergeometrie. Damit diese Analyse weitestgehend automatisiert werden kann, wurden verschiedene Algorithmen unter Matlab entwickelt. Es wurde ein Algorithmus entwickelt, der es ermöglicht, den Kühlkörper in Elementarzellen zu zerlegen, die für die Erstellung des Simulationsmodells benötigt werden. Desweiteren ist es für die Simulation notwendig zu wissen, welche der Elementarzellen am Rand des Kühlkörpers liegen, welche der Elementarzellen an einem Kühlrippenzwischenraum liegen und welche Kühlkörperkanten schräg verlaufen. Auch zur Lösung dieser Aufgaben wurden verschiedene Algorithmen entwickelt. Diese Algorithmen wurden zu einem Programm zusammengefaßt, das es gestattet, unterschiedliche Strangkühlkörper zu simulieren und die Simulationsergebnisse in Form der Temperaturverteilung auf der Montagefläche des Kühlkörpers grafisch darzustellen. Es können stationäre und transiente Simulationen durchgeführt werden. Desweiteren kann der thermische Widerstand des Kühlkörpers RthK als Funktion der Verlustleistung der Wärmequelle dargestellt werden. Zur Verifikation der Simulationsergebnisse wurden Temperaturmessungen an Kühlkörpern durchgeführt und mit den Simulationsergebnissen verglichen. Diese Vergleiche zeigen, daß die Abweichungen im Bereich der Streuung der Temperaturmessung liegen. Das hier entwickelte Verfahren zur thermischen Simulation von Strangkühlkörpern kann somit als gut bewertet werden.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Es ist bekannt, dass die Dichte eines gelösten Stoffes die Richtung und die Stärke seiner Bewegung im Untergrund entscheidend bestimmen kann. Eine Vielzahl von Untersuchungen hat gezeigt, dass die Verteilung der Durchlässigkeiten eines porösen Mediums diese Dichteffekte verstärken oder abmindern kann. Wie sich dieser gekoppelte Effekt auf die Vermischung zweier Fluide auswirkt, wurde in dieser Arbeit untersucht und dabei das experimentelle sowohl mit dem numerischen als auch mit dem analytischen Modell gekoppelt. Die auf der Störungstheorie basierende stochastische Theorie der macrodispersion wurde in dieser Arbeit für den Fall der transversalen Makodispersion. Für den Fall einer stabilen Schichtung wurde in einem Modelltank (10m x 1.2m x 0.1m) der Universität Kassel eine Serie sorgfältig kontrollierter zweidimensionaler Experimente an einem stochastisch heterogenen Modellaquifer durchgeführt. Es wurden Versuchsreihen mit variierenden Konzentrationsdifferenzen (250 ppm bis 100 000 ppm) und Strömungsgeschwindigkeiten (u = 1 m/ d bis 8 m/d) an drei verschieden anisotrop gepackten porösen Medien mit variierender Varianzen und Korrelationen der lognormal verteilten Permeabilitäten durchgeführt. Die stationäre räumliche Konzentrationsausbreitung der sich ausbreitenden Salzwasserfahne wurde anhand der Leitfähigkeit gemessen und aus der Höhendifferenz des 84- und 16-prozentigen relativen Konzentrationsdurchgang die Dispersion berechnet. Parallel dazu wurde ein numerisches Modell mit dem dichteabhängigen Finite-Elemente-Strömungs- und Transport-Programm SUTRA aufgestellt. Mit dem kalibrierten numerischen Modell wurden Prognosen für mögliche Transportszenarien, Sensitivitätsanalysen und stochastische Simulationen nach der Monte-Carlo-Methode durchgeführt. Die Einstellung der Strömungsgeschwindigkeit erfolgte - sowohl im experimentellen als auch im numerischen Modell - über konstante Druckränder an den Ein- und Auslauftanks. Dabei zeigte sich eine starke Sensitivität der räumlichen Konzentrationsausbreitung hinsichtlich lokaler Druckvariationen. Die Untersuchungen ergaben, dass sich die Konzentrationsfahne mit steigendem Abstand von der Einströmkante wellenförmig einem effektiven Wert annähert, aus dem die Makrodispersivität ermittelt werden kann. Dabei zeigten sich sichtbare nichtergodische Effekte, d.h. starke Abweichungen in den zweiten räumlichen Momenten der Konzentrationsverteilung der deterministischen Experimente von den Erwartungswerten aus der stochastischen Theorie. Die transversale Makrodispersivität stieg proportional zur Varianz und Korrelation der lognormalen Permeabilitätsverteilung und umgekehrt proportional zur Strömungsgeschwindigkeit und Dichtedifferenz zweier Fluide. Aus dem von Welty et al. [2003] mittels Störungstheorie entwickelten dichteabhängigen Makrodispersionstensor konnte in dieser Arbeit die stochastische Formel für die transversale Makrodispersion weiter entwickelt und - sowohl experimentell als auch numerisch - verifiziert werden.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ausgehend von dem von Friedrich Edding geprägten Begriff der Schlüsselfähigkeit entwickelte Dieter Mertens Anfang der 1970er Jahre sein Konzept der Schlüsselqualifikationen. Damit suchte er Wege, Menschen so zu qualifizieren, dass sie ihnen übertragene berufliche Aufgaben, auch in einem sich rasch verändernden Umfeld, bewältigen können. In der vorliegenden Arbeit wird gezeigt, dass die Rezeption des Begriffs in verschiedenen Bildungsbereichen mit unterschiedlichen Intensitäten und Resultaten verlief. Am folgenreichsten war die Rezeption in der Berufsbildung. Von wenigen skeptischen Stimmen abgesehen, stieß das Konzept der Schlüsselqualifikationen auf positive Zustimmung und mehrere Umsetzungsversuche wurden unternommen. Diese führten allerdings zu einer Verlängerung der Liste der Schlüsselqualifikationen (die ursprünglich von Mertens als abschließbar angedacht war). Ein Konsens, was in der Berufsbildung als Schlüsselqualifikationen zu gelten hat, ist immer noch nicht in Sicht. In den allgemeinbildenden Schulen hingegen fand das Konzept keine große Beachtung. Zwar wurde hin und wieder auf den Begriff zurückgegriffen, um beispielsweise allgemein verbindliche Standards in der Schule zu thematisieren oder neuen Inhalten eine Legitimation zu verschaffen, dennoch griff die Debatte in der Schulpädagogik nicht nachhaltig. Gründe dafür liegen zum einen in der dem Konzept inhärenten berufsvorbereitenden Funktion, die der Idealvorstellung einer zweckfreien Bildung widerspricht, zum anderen in der relativ straffen und zentralisierten Gestaltung der Lehrpläne. Die vorliegende Arbeit setzt sich mit dem Konzept der Schlüsselqualifikationen im Hochschulbereich auseinander. Eine Untersuchung von ca. 130 deutsch- und englischsprachigen Arbeiten, die Schlüsselqualifikationen im Hochschulbereich zum Thema haben, belegt eine sehr große Heterogenität der zugrunde liegenden Vorstellungen und konkreten Modelle. Es wird gezeigt, dass die zwei wichtigsten Ordnungsschemata, die gelegentlich zur Abgrenzung der Schlüsselqualifikationen gegenüber anderen Bildungskomponenten herangezogen werden (nämlich die Taxonomie der Lernziele von Bloom und das Handlungskompetenzmodell von Roth in der Weiterentwicklung von Reetz) mit keinem kohärenten Rahmenwerk, das der Fülle der Modelle von Schlüsselqualifikationen im Hochschulbereich gerecht wäre, aufwarten können. Eine Alternative bietet eine diskursanalytische Perspektive foucaultscher Prägung. Begriffen als eine diskursive Formation, haben Modelle der Schlüsselqualifikationen ihre Gemeinsamkeit nicht in dem vermeintlich gemeinsamen Gegenstand. Demnach sind Schlüsselqualifikationen in der heutigen Hochschuldebatte keine Qualifikationen suis generis, die eine eigene Kategorie bilden, sondern eine Antwort auf die Herausforderungen, die die verschiedenartigen Veränderungen in und um Hochschulen mit sich bringen. Es lassen sich drei Kontexte identifizieren, in denen die Modelle der Schlüsselqualifikationen der Herausforderung zu begegnen versuchen: in der Gesellschaft im Allgemeinen, in der vor-universitären Bildung sowie in der Hochschulbildung und in der Berufswelt. In diesen Kontexten artikulieren die Modelle der Schlüsselqualifikationen verschiedene Dimensionen, um Gesellschafts-, Studier und Beschäftigungsfähigkeit der Studierenden zu fördern. Eine vergleichende Analyse der Debatten und Modelle der Schlüsselqualifikationen in der BRD und in England zeigt, dass diese drei Kontexte in beiden Ländern vorfindbar sind, jedoch deren inhaltliche Vorstellung und konkrete Umsetzung aufgrund der Partikularitäten des jeweiligen Hochschulsystems unterschiedliche Akzentuierungen erfahren. Anders als in der BRD betonen die Modelle der Förderung der Studierfähigkeit in England die Brückenkurse als Hilfestellung bei der Vorbereitung auf das Studium. Das hängt mit den uneinheitlichen Zugangsregelungen zum Hochschulstudium und der hierarchischen Struktur im englischen Hochschulsystem zusammen. Bei der Förderung der Beschäftigungsfähigkeit setzen die Modelle der Schlüsselqualifikationen in Deutschland, wo traditionell ein Hochschulstudium als berufsvorbereitend angesehen wird, den Akzent auf Praxisbezug des Studiums und auf Flexibilität. In England hingegen, wo sich das Studium per se nicht als berufsqualifizierend versteht, rücken die Modelle der Schlüsselqualifikationen den Übergang in den Arbeitsmarkt und das Karrieremanagement - subsumiert unter dem Konzept der employability - in den Vordergrund.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Wenn man die Existenz von physikalischen Mechanismen ignoriert, die für die Struktur hydrologischer Zeitreihen verantwortlich sind, kann das zu falschen Schlussfolgerungen bzgl. des Vorhandenseins möglicher Gedächtnis (memory) -Effekte, d.h. von Persistenz, führen. Die hier vorgelegte Doktorarbeit spürt der niedrigfrequenten klimatischen Variabilität innerhalb den hydrologischen Zyklus nach und bietet auf dieser "Reise" neue Einsichten in die Transformation der charakteristischen Eigenschaften von Zeitreihen mit einem Langzeitgedächtnis. Diese Studie vereint statistische Methoden der Zeitreihenanalyse mit empirisch-basierten Modelltechniken, um operative Modelle zu entwickeln, die in der Lage sind (1) die Dynamik des Abflusses zu modellieren, (2) sein zukünftiges Verhalten zu prognostizieren und (3) die Abflusszeitreihen an unbeobachteten Stellen abzuschätzen. Als solches präsentiert die hier vorgelegte Dissertation eine ausführliche Untersuchung zu den Ursachen der niedrigfrequenten Variabilität von hydrologischen Zeitreihen im deutschen Teil des Elbe-Einzugsgebietes, den Folgen dieser Variabilität und den physikalisch basierten Reaktionen von Oberflächen- und Grundwassermodellen auf die niedrigfrequenten Niederschlags-Eingangsganglinien. Die Doktorarbeit gliedert sich wie folgt: In Kapitel 1 wird als Hintergrundinformation das Hurst Phänomen beschrieben und ein kurzer Rückblick auf diesbezügliche Studien gegeben. Das Kapitel 2 diskutiert den Einfluss der Präsenz von niedrigfrequenten periodischen Zeitreihen auf die Zuverlässigkeit verschiedener Hurst-Parameter-Schätztechniken. Kapitel 3 korreliert die niedrigfrequente Niederschlagsvariabilität mit dem Index der Nord-Atlantischen Ozillations (NAO). Kapitel 4-6 sind auf den deutschen Teil des Elbe-Einzugsgebietes fokussiert. So werden in Kapitel 4 die niedrigfrequenten Variabilitäten der unterschiedlichen hydro-meteorologischen Parameter untersucht und es werden Modelle beschrieben, die die Dynamik dieser Niedrigfrequenzen und deren zukünftiges Verhalten simulieren. Kapitel 5 diskutiert die mögliche Anwendung der Ergebnisse für die charakteristische Skalen und die Verfahren der Analyse der zeitlichen Variabilität auf praktische Fragestellungen im Wasserbau sowie auf die zeitliche Bestimmung des Gebiets-Abflusses an unbeobachteten Stellen. Kapitel 6 verfolgt die Spur der Niedrigfrequenzzyklen im Niederschlag durch die einzelnen Komponenten des hydrologischen Zyklus, nämlich dem Direktabfluss, dem Basisabfluss, der Grundwasserströmung und dem Gebiets-Abfluss durch empirische Modellierung. Die Schlussfolgerungen werden im Kapitel 7 präsentiert. In einem Anhang werden technische Einzelheiten zu den verwendeten statistischen Methoden und die entwickelten Software-Tools beschrieben.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Motiviert durch die Lebenswissenschaften (Life sciences) haben sich Untersuchungen zur Dynamik von Makromolekülen in Lösungen in den vergangenen Jahren zu einem zukunftsweisenden Forschungsgebiet etabliert, dessen Anwendungen von der Biophysik über die physikalische Chemie bis hin zu den Materialwissenschaften reichen. Neben zahlreichen experimentellen Forschungsprogrammen zur räumlichen Struktur und den Transporteigenschaften grosser MolekÄule, wie sie heute praktisch an allen (Synchrotron-) Strahlungsquellen und den Laboren der Biophysik anzutreffen sind, werden gegenwärtig daher auch umfangreiche theoretische Anstrengungen unternommen, um das Diffusionsverhalten von Makromolekülen besser zu erklären. Um neue Wege für eine quantitative Vorhersagen des Translations- und Rotationsverhaltens grosser Moleküle zu erkunden, wurde in dieser Arbeit ein semiphänomenologischer Ansatz verfolgt. Dieser Ansatz erlaubte es, ausgehend von der Hamiltonschen Mechanik des Gesamtsystems 'Molekül + Lösung', eine Mastergleichung für die Phasenraumdichte der Makromoleküle herzuleiten, die den Einfluss der Lösung mittels effektiver Reibungstensoren erfasst. Im Rahmen dieses Ansatzes gelingt es z.B. (i) sowohl den Einfluss der Wechselwirkung zwischen den makromolekularen Gruppen (den sogenannten molekularen beads) und den Lösungsteilchen zu analysieren als auch (ii) die Diffusionseigen schaften für veschiedene thermodynamische Umgebungen zu untersuchen. Ferner gelang es auf der Basis dieser Näherung, die Rotationsbewegung von grossen Molekülen zu beschreiben, die einseitig auf einer Oberfläche festgeheftet sind. Im Vergleich zu den aufwendigen molekulardynamischen (MD) Simulationen grosser Moleküle zeichnet sich die hier dargestellte Methode vor allem durch ihren hohen `Effizienzgewinn' aus, der für komplexe Systeme leicht mehr als fünf Grössenordnungen betragen kann. Dieser Gewinn an Rechenzeit erlaubt bspw. Anwendungen, wie sie mit MD Simulationen wohl auch zukünftig nicht oder nur sehr zögerlich aufgegriffen werden können. Denkbare Anwendungsgebiete dieser Näherung betreffen dabei nicht nur dichte Lösungen, in denen auch die Wechselwirkungen der molekularen beads zu benachbarten Makromolekülen eine Rolle spielt, sondern auch Untersuchungen zu ionischen Flüssigkeiten oder zur Topologie grosser Moleküle.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die "Einführung in die stochastische Simulation mit Fathom" führt in die Simulation mit der Computersoftware Fathom ein und entstand im Rahmen meines Dissertationsprojekts. Voraussetzung sind elementare Grundkenntnisse in dieser Software, z.B. für die Analyse von eindimensionalen Daten. Die Arbeit basiert auf einer ausführlichen Analyse stochastischer Situationen, die als Zufallsexperimente modelliert werden können. Sie wurde ursprünglich für Studenten der Veranstaltung "Elementare Stochastik" an der Universität Kassel didaktisch aufbereitet. Sie ist aber auch für alle Lehrenden und Lernenden an Schule und Hochschule gedacht, die die stochastische Simulation mit Fathom erlernen wollen. Das Dokument dient dazu, eine systematische Anleitung zum Erstellen eigener Simulationen zu geben. Eine didaktische Hilfestellung bietet dazu das dreigegliederte Simulationskonzept: 1. Festlegen des stochastischen Modell, 2. Erstellen eines Simulationsplans und 3. Realisierung in FATHOM. Verschiedene Simulationsarten werden ausführlich an einem Beispiel vorgestellt und können in Arbeitsumgebungen selbst erzeugt werden. Die Erstellung der Arbeit wurde mit Mitteln des BLK-Projektes Netzwerk Wissenschaftliche Weiterbildung für Lehramtsberufe (NWWL) an der Universität Kassel gefördert.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Unterrichtsmaterialien beschreiben einen Unterrichtsvorschlag für einen kontinuierlich computergestützten Stochastikunterricht in der gymnasialen Oberstufe. Verwendet wird die Software Fathom. Die Unterrichtsmaterialien wurden bislang in fünf verschiedenen Kasseler Oberstufenkursen (Jahrgangsstufe 12 bzw. 13) erprobt und dabei jeweils weiter entwickelt. Ausgearbeitet sind drei Unterrichtseinheiten: 1. „Einstieg in die Stochastik mit Simulationen“ 2. Unterrichtseinheit „Binomialverteilung“ 3. Unterrichtseinheit „Testen von Hypothesen“ Zu jeder der drei Unterrichtseinheiten existieren eine didaktische Beschreibung, die Arbeitsmaterialien (Arbeitsblätter, Merkblätter zur Ergebnissicherung, dynamische Lernumgebungen) sowie Musterlösungen zu den Aufgaben. Für alle Aufgaben mit Verwendung der Software Fathom stehen die zugehörigen Fathom-Dateien zur Verfügung. Alle Fathom-Dateien (Lernumgebungen und Musterlösungen der Aufgaben) erhalten Sie als *.zip-Datei zum Download.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Physikalische Grundlagenforschung und anwendungsorientierte physikalische Forschung auf den Gebieten nanoskaliger kristalliner und amorpher fester Körper haben in vielfacher Weise eine große Bedeutung. Neben dem Verständnis für die Struktur der Materie und die Wechselwirkung von Objekten von der Größe einiger Atome ist die Erkenntnis über die physikalischen Eigenschaften nanostrukturierter Systeme von hohem Interesse. Diese Forschung eröffnet die Möglichkeit, die mit der Mikroelektronik begonnene Miniaturisierung fortzusetzen und wird darüber hinaus neue Anwendungsfelder eröffnen. Das Erarbeiten der physikalischen Grundlagen der Methoden zur Herstellung und Strukturierung ist dabei zwingend notwendig, da hier Wirkungsprinzipien dominieren, die erst bei Strukturgrößen im Nanometerbereich auftreten oder hinreichend stark ausgeprägt sind. Insbesondere Halbleitermaterialien sind hier von großem Interesse. Die in dieser Arbeit untersuchten Resonatorstrukturen, die auf dem kristallinen Verbindungshalbleitermaterial GaInAsP/InP basieren, erschließen wichtige Anwendungsfelder im Bereich der optischen Datenübertragung sowie der optischen Sensorik. Hergestellt wird das Halbleitermaterial mit der Metallorganischen Gasphasenepitaxie. Die experimentell besimmten Kenngrößen lassen Rückschlüsse auf die Güte der Materialien, die quantenmechanischen Wirkungsprinzipien und die Bauelementcharakteristik zu und führen zu optimal angepassten Kristallstrukturen. Auf Basis dieser optimierten Materialien wurde ein durchstimmbarer Fabry-Perot-Filter hergestellt, der aus einer Kombination aus InP-Membranen und Luftspalten besteht und elektromechanisch aktuiert werden kann. Das GaInAsP dient hierbei als wenige hundert nm dicke Opferschicht, die ätztechnisch hochselektiv beseitigt wird. Die Qualität der Grenzflächen zum InP ist entscheidend für die Qualität der freigeätzten Kavitäten und damit für die mechanische Gesamtstabilität der Struktur. Der in dieser Arbeit beschriebene Filter hat eine Zentralwellenlänge im Bereich von 1550 nm und weist einen Durchstimmbereich von 221 nm auf. Erzielt wurde dieser Wert durch ein konsistentes Modell der wirkenden Verspannungskomponenten und einer optimierten epitaktischen Kontrolle der Verspannungsparameter. Das realisierte Filterbauelement ist vielversprechend für den Einsatz in der optischen Kommunikation im Bereich von WDM (wavelength division multiplexing) Anwendungen. Als weitere Resonatorstrukur wurde ein Asymmetrisch gekoppelter Quantenfilm als optisch aktives Medium, bestehend aus GaInAsP mit variierender Materialkomposition und Verspannung, untersucht, um sein Potential für eine breitbandige Emission zu untersuchen und mit bekannten Modellen zu vergleichen. Als Bauelementdesign wurde eine kantenemittierende Superlumineszenzleuchtdiode gewählt. Das Ergebnis ist eine Emissionskurve von 100 nm, die eine höhere Unabhängigkeit vom Injektionsstrom aufweist als andere bekannte Konzepte. Die quantenmechanischen Wirkungsprinzipien - im wesentlichen die Kopplung der beiden asymmetrischen Potentialtöpfe und die damit verbundene Kopplung der Wellenfunktionen - werden qualitativ diskutiert. Insgesamt bestätigt sich die Eignung des Materials GaInAsP auch für neuartige, qualitativ höchst anspruchsvolle Resonatorstrukturen und die Bedeutung der vorgestellten und untersuchten Resonatorkonzepte. Die vorgestellten Methoden, Materialien und Bauelemente liefern aufgrund ihrer Konzeption und der eingehenden experimentellen Untersuchungen einen Beitrag sowohl zu den zugrunde liegenden mechanischen, optoelektronischen und quantenmechanischen Wirkungsprinzipien der Strukturen, als auch zur Realisierung neuer optoelektronischer Bauelemente.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neueste Entwicklungen in Technologien für dezentrale Energieversorgungsstrukturen, erneuerbare Energien, Großhandelsenergiemarkt, Mini- und Mikronetze, verteilte Intelligenz, sowie Informations- und Datenübertragungstechnologien werden die zukünftige Energiewelt maßgeblich bestimmen. Die derzeitigen Forschungsbemühungen zur Vernutzung aller dieser Technologien bilden die Voraussetzungen für ein zukünftiges, intelligentes Stromnetz. Dieses neue Konzept gründet sich auf die folgenden Säulen: Die Versorgung erfolgt durch dezentrale Erzeugungsanlagen und nicht mehr durch große zentrale Erzeuger; die Steuerung beeinflusst nicht mehr allein die Versorgung sondern ermöglich eine auch aktive Führung des Bedarf; die Eingabeparameter des Systems sind nicht mehr nur mechanische oder elektrische Kenngrößen sondern auch Preissignale; die erneuerbaren Energieträger sind nicht mehr nur angeschlossen, sondern voll ins Energienetz integriert. Die vorgelegte Arbeit fügt sich in dieses neue Konzept des intelligenten Stromnetz ein. Da das zukünftige Stromnetz dezentral konfiguriert sein wird, ist eine Übergangsphase notwendig. Dieser Übergang benötigt Technologien, die alle diese neue Konzepte in die derzeitigen Stromnetze integrieren können. Diese Arbeit beweist, dass ein Mininetz in einem Netzabschnitt mittlerer Größe als netzschützende Element wirken kann. Hierfür wurde ein neues Energiemanagementsystem für Mininetze – das CMS (englisch: Cluster Management System) – entwickelt. Diese CMS funktioniert als eine von ökonomischorientierte Betriebsoptimierung und wirkt wie eine intelligente Last auf das System ein, reagierend auf Preissignale. Sobald wird durch eine Frequenzsenkung eine Überlastung des Systems bemerkt, ändert das Mininetz sein Verhalten und regelt seine Belastung, um die Stabilisierung des Hauptnetzes zu unterstützen. Die Wirksamkeit und die Realisierbarkeit des einwickelten Konzept wurde mit Hilfe von Simulationen und erfolgreichen Laborversuchen bewiesen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Forschungsarbeit beschäftigt sich schwerpunktmäßig mit der Ausbildung von Bodengewölben über punkt- und linienförmigen Auflagerungen und der Stabilisierung des Gewölbebereiches durch horizontale Bewehrungseinlagen aus Geokunststoffen. Während das Tragverhalten entsprechender Bodengewölbe unter ruhenden Belastungen bereits wissenschaftlich erforscht ist untersucht die Dissertation vornehmlich das Gewölbeverhalten unter nichtruhenden Belastungen. Da die Gewölbemodelle primär im Verkehrswegebau als geokunststoffbewehrte Erdschichten über Pfahlelementen (GEP) ausgeführt werden, ist für die Praxis die Untersuchung der Auswirkung einer nichtruhenden Belastung (Verkehrslast) von besonderer Bedeutung. Methodisch wurden umfangreiche großmaßstäbliche Modellversuche (Maßstab 1:3) zur Gewölbeausbildungen am Pfahlrasterausschnitt sowie am Dammquerschnitt mit Berücksichtigung der Böschungssituation vorgenommen. Die Modellversuche wurden in einer differenzierten numerischen Analyse mit der Methode der finiten Elemente (FEM) verifiziert. Die zyklischen FEM-Modelle basierten dabei auf einem zyklisch-viskoplastischen Stoffansatz. Aufbauend auf den Modellversuchsergebnissen wurden schließlich modifizierte analytische Berechnungsansätze entwickelt. Zusammenfassend kann es bei zyklischen Beanspruchungen im unbewehrten System zu einer Gewölberückbildung und zu erhöhten Systemverformungen kommen. Die Größe der Gewölberückbildung ist abhängig von der Überdeckungshöhe, der Belastungsfrequenz, der Lastzyklenzahl sowie der zyklischen Belastungsamplitude in Relation zur statischen Überlagerungsspannung. Mit abnehmender Höhe, zunehmender Frequenz, zunehmender Zyklenzahl und Belastungsamplitude tritt eine Gewölbereduktion verstärkt ein. Eine erhöhte Primärspannung kann dazu führen, dass die Bodengewölbe überdrückt werden und dadurch gegenüber zyklischer Beanspruchung stabiler sind. Auch bei Anordnung von Bewehrungslagen sind ähnliche Effekte zu beobachten wie im unbewehrten Fall. Mit zunehmender zyklischer Beanspruchung behindern die eingebauten Geokunststoffe allerdings die Ausbildung der Scherfugen, reduzieren dadurch die Setzungen, erhöhen die Lastumlagerung auf die Pfähle und stabilisieren dadurch das System. Aus den Modellversuchen wurde ein vereinfachter Ansatz für die vorhandenen analytischen Berechnungsverfahren in Form eines Gewölbereduktionsfaktors k abgeleitet, mit dem näherungsweise auch für praktische Fälle eine erste Abschätzung der Gewölbereduktion infolge nichtruhender Belastung möglich ist. Ergänzend zu dem Hauptthema der Gewölbeausbildung unter nichtruhenden Lasten unter-sucht die Forschungsarbeit die allgemeine Verwendbarkeit der FEM-Methode zur Berechnung eines GEP-Systems unter ruhender und nichtruhender Belastung, beurteilt die derzeit gültigen Spreizdruckansätze sowie den derzeitigen Verankerungsnachweis für eingelegte Geokunststofflagen und untersucht die Lastabtragung im Geogitter bei dreieckrasterförmiger Lagerung.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Aus der Einleitung: "Der Beitrag prüft kritisch die Entwicklung zum Stand der Professionalisierung der Handlungsfelder der kindheitsbezogenen Pädagogik. Fokussiert wird dabei die Frage, ob die vorliegenden empirischen Befunde eine Akademisierung des ErzieherInnenberufs beziehungsweise des pädagogischen Personals in Kindertageseinrichtungen stützen (1.). Anschließend, nach einem kurzen Rekurs auf die bisherige ErzieherInnenausbildung (2.), werden Grundfragen der Akademisierung der Ausbildung für die Pädagogik der Kindheit diskutiert (3.) und die bisher erkennbaren Modelle der Implementierung von Studienprogrammen der 'Pädagogik der Kindheit' an Universitäten vorgestellt (4.). Abschließend werden die Fallstricke und Chancen einer 'Akademisierung' der Qualifizierungen für diejenigen erörtert, die ein berufliches Engagement in Handlungsfeldern der Pädagogik der Kindheit anstreben (5.). Quer zur Kapitelstruktur wird in dem Beitrag auch der Frage nachgegangen, ob es in den gegenwärtigen Diskussionen tatsächlich um eine Akademisierung der ErzieherInnenausbildung geht oder ob nicht vielmehr der Einstieg in eine über unterschiedliche teildisziplinäre Zugänge der Erziehungswissenschaft ausgestaltete Implementierung von Studiengängen und -programmen der akademischen Qualifizierung für Tätigkeiten in Kindertageseinrichtungen – und darüber hinaus die Verfachlichung des Handlungsfeldes der Kindertageseinrichtungen insgesamt – sowie für andere Felder der Pädagogik der Kindheit angestrebt wird. Angesprochen wird zudem auch die Frage nach einer Neuschneidung bisheriger Studiengänge im Sinne einer einheitlichen Qualifizierung für die Handlungsfelder der Elementar- und Primarpädagogik."