96 resultados para Numerisches Gitter
Resumo:
Die q-Analysis ist eine spezielle Diskretisierung der Analysis auf einem Gitter, welches eine geometrische Folge darstellt, und findet insbesondere in der Quantenphysik eine breite Anwendung, ist aber auch in der Theorie der q-orthogonalen Polynome und speziellen Funktionen von großer Bedeutung. Die betrachteten mathematischen Objekte aus der q-Welt weisen meist eine recht komplizierte Struktur auf und es liegt daher nahe, sie mit Computeralgebrasystemen zu behandeln. In der vorliegenden Dissertation werden Algorithmen für q-holonome Funktionen und q-hypergeometrische Reihen vorgestellt. Alle Algorithmen sind in dem Maple-Package qFPS, welches integraler Bestandteil der Arbeit ist, implementiert. Nachdem in den ersten beiden Kapiteln Grundlagen geschaffen werden, werden im dritten Kapitel Algorithmen präsentiert, mit denen man zu einer q-holonomen Funktion q-holonome Rekursionsgleichungen durch Kenntnis derer q-Shifts aufstellen kann. Operationen mit q-holonomen Rekursionen werden ebenfalls behandelt. Im vierten Kapitel werden effiziente Methoden zur Bestimmung polynomialer, rationaler und q-hypergeometrischer Lösungen von q-holonomen Rekursionen beschrieben. Das fünfte Kapitel beschäftigt sich mit q-hypergeometrischen Potenzreihen bzgl. spezieller Polynombasen. Wir formulieren einen neuen Algorithmus, der zu einer q-holonomen Rekursionsgleichung einer q-hypergeometrischen Reihe mit nichttrivialem Entwicklungspunkt die entsprechende q-holonome Rekursionsgleichung für die Koeffizienten ermittelt. Ferner können wir einen neuen Algorithmus angeben, der umgekehrt zu einer q-holonomen Rekursionsgleichung für die Koeffizienten eine q-holonome Rekursionsgleichung der Reihe bestimmt und der nützlich ist, um q-holonome Rekursionen für bestimmte verallgemeinerte q-hypergeometrische Funktionen aufzustellen. Mit Formulierung des q-Taylorsatzes haben wir schließlich alle Zutaten zusammen, um das Hauptergebnis dieser Arbeit, das q-Analogon des FPS-Algorithmus zu erhalten. Wolfram Koepfs FPS-Algorithmus aus dem Jahre 1992 bestimmt zu einer gegebenen holonomen Funktion die entsprechende hypergeometrische Reihe. Wir erweitern den Algorithmus dahingehend, dass sogar Linearkombinationen q-hypergeometrischer Potenzreihen bestimmt werden können. ________________________________________________________________________________________________________________
Resumo:
In der Anwendung treten häufig Differentialgleichungssysteme auf, deren Komponenten über das Lösen mit einer vorgegeben Genauigkeit hinaus Anforderungen an die, zur Näherung verwendeten, numerischen Verfahren stellen. Die Arbeit widmet sich hierbei den beiden Forderungen 1. Erhaltung der Positivität aller positiven Größen (z.B. Massen, Konzentrationen, Energie) und 2. Erhaltung der Masse in abgeschlossenen Systemen. Ausgehend von einem komplexen ökologischen 2D Modell zur Beschreibung von Algendynamiken in flachen Gewässern auf Grund der verfügbaren Phosphorvorkommen wird ein problemangepasstes Finite-Volumen-Verfahren entwickelt. Den in diesem Rahmen auftauchenden gewöhnlichen Differentialgleichungssystemen wird spezielle Aufmerksamkeit geschenkt. Es werden die bestehenden Begriffe auf eine gemeinsame formale Basis gestellt und die bestehenden Verfahren (Bruggeman und modifizierte Patankar Ansätze) mit Hilfe dieser vereinheitlichten Basis formuliert. Anschließend werden die diesen Ansätzen jeweils eigenen Schwierigkeiten und Einschränkungen (Ordnungsschranke von zwei, Erhaltung der Konservativität nur für Gleichungen mit einfacher Struktur, nicht für steife Systeme geeignet) betrachtet. Danach werden zwei Verfahrensverallgemeinerungen des modifizierten Patankar Euler Verfahrens präsentiert, welche jeweils eine der bestehenden Schwächen aufhebt. 1. Das extrapolierte mod. Pat. Euler Verfahren ermöglicht in Abhängigkeit des zu Grunde liegenden Problems die Erzeugung von Näherungen beliebig hoher Ordnung. 2. Das verallgemeinerte mod. Pat. Euler Verfahren erlaubt den Erhalt der Masse auch für komplexe Strukturen. Anschließend befasst sich die Arbeit mit der Vorstellung des verwendeten FVV, einer angepassten Form der 2D DLR Taucodes. Im weiteren Verlauf werden sämtliche theoretischen Aussagen zu den Verfahren an Hand entsprechend gewählter praktischer Testfälle demonstriert. Abschließend wird die Wirksamkeit des Gesamtverfahrens in seiner Anwendung auf das Algendynamikmodell vorgeführt.
Resumo:
Die vorliegende Arbeit ist Teil eines Verbund-Forschungsprojektes mit dem Ziel, eine Präzisions-Bodenbearbeitung in Abhängigkeit von verschiedenen Bodenparametern sowie dem Bodenbedeckungsgrad zu realisieren. Ziel dieses Teilprojektes war die Bereitstellung einer Online-Messung des Bedeckungsgrades, um die Bearbeitungsintensität während der Feldüberfahrt regeln zu können: Ein Kamerasensor vorne am Schlepper ermittelt die Bodenbedeckung und ein Tiefen-Sollwert wird an das Regelsystem eines Gerätes zur teilfächenspezifischen Bodenbearbeitung ausgegeben. Da unter Feldbedingungen Methoden zur Bedeckungsgradmessung nur relativ zueinander verglichen werden können, wurde zunächst ein Laborvergleich mit wohldefinierten Bodenbedeckungen durchgeführt, um die prinzipiellen Stärken und Schwächen von Bildanalyse sowie zwei visuellen Methoden (Gitterraster-Methode und „Meterstick-Methode“) zu ermitteln: • Eine visuelle Methode, die auf einer begrenzten Anzahl von einfachen Stichprobenbeobachtungen beruht (Gitter), überschätzte den Bedeckungsgrad systematisch, wobei dieser Effekt unter Feldbedingungen vermutlich klein gegenüber der bekannten Schwankungsbreite zwischen Messungen verschiedener Beobachter ist. • Eine visuelle Methode, die auch Größe und Orientierung des Strohs berücksichtigt (Meterstick), lieferte präzise mittlere Messwerte. Diese Methode war die mit Abstand arbeitsaufwändigste. • Nach einer einfachen Korrektur des Abbildungsfehlers des Kameraobjektivs war auch die Bildverarbeitungs-Methode in der Lage, die bekannten tatsächlichen Bedeckungsgrade exakt darzustellen, bei gleichzeitig der geringsten Schwankungsbreite der Messwerte. Die Online-Messung der Bodenbedeckung durch Ernterückstände ist bisher jedoch ungelöst. Obwohl in früheren Untersuchungen Texturmerkmale oder Farbunterschiede erfolgreich genutzt wurden, um den Bedeckungsgrad zu bestimmen, wird eine Bedienperson zur interaktiven Festlegung bestimmter Parameter benötigt. Um den Prototypen eines onlinefähigen Kamerasensors zu entwickeln, wurden geeignete Ausrüstung und Bedingungen zur Bildaufnahme untersucht und verschiedene Auswertealgorithmen mit Hilfe einer wissenschaftlichen Bildanalysesoftware geschrieben und getestet: • Da im Nahinfraroten zwischen ca. 800 und 1400 nm der größte Intensitäts-Kontrast zwischen Stroh und Boden besteht wurde zur Bildaufnahme eine Schwarz-Weiss-CCD-Kamera mit aufgesetztem Infrarotfilter gewählt. Eine Diffusor-Box sorgte für homogene Beleuchtungsbedingungen. • Zwei auf Kantendetektion und automatischer Schwellwertsetzung basierende Versionen („A“ und „B“) eines „klassischen“ Segmentierungsalgorithmus wurden geschrieben. Durch einen iterativen Ansatz konnten geeignete Thresholding-Verfahren abhängig von der Größenordnung der Bodenbedeckung verwendet werden. Die zur Online-Regelung der Bearbeitungstiefe nötige Beschränkung der Prozesslaufzeit auf ca. 1000 ms/Bild konnte eingehalten werden. • Eine alternative automatisierbare Kontrollmethode wurde entwickelt, welche Merkmale der Grauwerthistogramme der Stroh/Boden-Bilder auswertet (Algorithmus „C“). Dieser Ansatz ist nochmals deutlich schneller als eine Bildsegmentierung (ca. 5 – 10 Bilder/s). • Der Sensor wurde an einem Quad montiert und die Bodenbedeckung auf drei Testfeldern untersucht. Zwischen den Messergebnissen eines Algorithmus vom Typ A/B und dem Ansatz C wurde eine Pearson-Korrelation von 0,967 für die Messwertegesamtheit gefunden. • Auf Versuchsparzellen mit definiert aufgebrachten Strohmengen (ein weiteres Teil-projekt) wurden an GPS-referenzierten Punkten Bilder mit dem Sensor aufgenommen und Referenzmessungen mit der visuellen Gitterraster-Methode durchgeführt. Zwischen der Bildverarbeitung (A, B) und dem Gitter ergaben sich befriedigende Pearson-Korrelationen im Bereich von 0,7 – 0,8. Allerdings waren für hohe Bedeckungen die Ergebnisse des Sensors meist signifikant niedrigere als der Mittelwert von drei das Gitter auszählenden Personen. Eine Kontrolle mit Ansatz C ergab, dass die Histogramm-Merkmale der einzelnen Bilder deutlich besser mit den per Bildverarbeitung ermittelten Bedeckungsgraden korrelierten als mit den Gittermessungen. – Insgesamt erwies sich die schnelle Bildverarbeitung als geeignet für den Einsatz als neue Referenzmethode zur Messung der Bodenbedeckung durch Ernterückstände. • Da der Aufbau des Sensors ohne die Diffusor-Box praxisgerechter ist, besteht weiterer Forschungsbedarf in Bezug auf die dann auftretenden Probleme durch stark wechselnde Beleuchtung und Schattenwurf. • In einem letzten Schritt wurde der Kamerasensor erfolgreich in ein bereits entwickeltes System zur teilflächenspezifischen Bodenbearbeitung an der Universität Kiel integriert. Eine Regelung der Arbeitstiefe durch den Kamerasensor war problemlos möglich, allerdings gilt es noch belastbare Kriterien für die Vorgabe von Tiefen-Sollwerten in Abhängigkeit vom Bedeckungsgrad zu entwickeln.
Resumo:
Ein großer Teil der Schäden wie auch der Verluste an Gesundheit und Leben im Erdbebenfall hat mit dem frühzeitigen Versagen von Mauerwerksbauten zu tun. Unbewehrtes Mauerwerk, wie es in vielen Ländern üblich ist, weist naturgemäß einen begrenzten Erdbebenwiderstand auf, da Zugspannungen und Zugkräfte nicht wie bei Stahlbeton- oder Stahlbauten aufgenommen werden können. Aus diesem Grund wurde bereits mit verschiedenen Methoden versucht, die Tragfähigkeit von Mauerwerk im Erdbebenfall zu verbessern. Modernes Mauerwerk kann auch als bewehrtes oder eingefasstes Mauerwerk hergestellt werden. Bei bewehrtem Mauerwerk kann durch die Bewehrung der Widerstand bei Beanspruchung als Scheibe wie als Platte verbessert werden, während durch Einfassung mit Stahlbetonelementen in erster Linie die Scheibentragfähigkeit sowie die Verbindung zu angrenzenden Bauteilen verbessert wird. Eine andere interessante Möglichkeit ist das Aufbringen textiler Mauerwerksverstärkungen oder von hochfesten Lamellen. In dieser Arbeit wird ein ganz anderer Weg beschritten, indem weiche Fugen Spannungsspitzen reduzieren sowie eine höhere Verformbarkeit gewährleiten. Dies ist im Erdbebenfall sehr hilfreich, da die Widerstandfähigkeit eines Bauwerks oder Bauteils letztlich von der Energieaufnahmefähigkeit, also dem Produkt aus Tragfähigkeit und Verformbarkeit bestimmt wird. Wenn also gleichzeitig durch die weichen Fugen keine Schwächung oder sogar eine Tragfähigkeitserhöhung stattfindet, kann der Erdbebenwiderstand gesteigert werden. Im Kern der Dissertation steht die Entwicklung der Baukonstruktion einer Mauerwerkstruktur mit einer neuartigen Ausbildung der Mauerwerksfugen, nämlich Elastomerlager und Epoxydharzkleber anstatt üblichem Dünnbettmörtel. Das Elastomerlager wird zwischen die Steinschichten einer Mauerwerkswand eingefügt und damit verklebt. Die Auswirkung dieses Ansatzes auf das Verhalten der Mauerwerkstruktur wird unter dynamischer und quasi-statischer Last numerisch und experimentell untersucht und dargestellt.
Resumo:
Motivation dieser Arbeit ist die Idee, ein höchst sensitives und selektives Spektroskop, welches gleichzeitig robust ist, auf Basis von Halbleiterlasern zum Einsatz in der Atemgasdiagnostik zu entwickeln. Technische Grundlage ist die Idee, die Probe innerhalb des Laserresonators zu vermessen (sogenannte intra cavity absorption spectroscopy, ICAS). Im speziellen soll durch die Verwendung des relativen Intensitätsrauschens zur Messwertbestimmung und die Verwendung von nur zwei Moden statt der sonst für ICAS verwendeten multimodigen Laser, die Empfindlichkeit erhöht, sowie die Messwerterfassung vereinfacht werden. Die Probe im Laserresonator zu Messen, hat den Vorteil, dass durch die multiple Hin und Rückreflektion die wirksame Pfadlänge durch die Probe vervielfacht wird. Dabei werden Verluste an den Resonatorspiegeln durch die Verstärkung der aktiven Zone des Lasers kompensiert. Außerdem wird durch die Konkurrenz der Moden um die idealerweise homogen verbreiterte Verstärkung im Laser die Empfindlichkeit noch einmal bedeutend erhöht. Schon eine geringe Absorption bei einer bestimmten Wellenlänge wird die Intensität des betroffenen Modes zugunsten der anderen Moden verringern. Die Arbeit beschäftigt sich zum einen mit der spektroskopischen Untersuchung zwei- er für die Atemgasdiagnostik relevanter Stoffe, Aceton und das in der Anästhesie häufig eingesetzte Propofol, um das Umfeld, in dem der Laser Verwendung finden soll, zu beleuchten. Diese Untersuchungen flossen in die Entwicklung des später zum Sensor auszubauenden Lasers ein. Für den Laser wurden in der Telekommunikation übliche, glasfaserbasierte, robuste Standardbauteile wie ein optischer Halbleiterverstärker (semiconductor optical amplifier, SOA), Faserkoppler und FaserBraggGitter verwendet. Die Bauteile wurden charakterisiert. Teilaspekte des Aufbaus wurden mit der Software CAMFR simuliert. Schließlich wurde der Laser als solcher aufgebaut und charakterisiert. Das Ziel der Zweimodigkeit, in einem Intervall von 2 nm durchstimmbar, konnte erreicht werden. An einem vom HeinrichHertzInstitut in Berlin entwickelten zweimodigen Halbleiterlasers wurden Untersuchungen der Idee zur Vereinfachung der Messwerterfassung mittels relativen Intensitätsrauschens (relative intensity noise, RIN) durchgeführt. Als Messgröße stellt das RIN die Amplituden der Intensitätsschwankungen des Lasers gegen die Frequenzen der Intensitätsschwankungen als Rauschspektrum dar. Es konnte nachgewiesen werden, dass das Rauschspektrum charakteristisch für das Oszillationsverhalten des Lasers ist.
Resumo:
In dieser Doktorarbeit wird eine akkurate Methode zur Bestimmung von Grundzustandseigenschaften stark korrelierter Elektronen im Rahmen von Gittermodellen entwickelt und angewandt. In der Dichtematrix-Funktional-Theorie (LDFT, vom englischen lattice density functional theory) ist die Ein-Teilchen-Dichtematrix γ die fundamentale Variable. Auf der Basis eines verallgemeinerten Hohenberg-Kohn-Theorems ergibt sich die Grundzustandsenergie Egs[γgs] = min° E[γ] durch die Minimierung des Energiefunktionals E[γ] bezüglich aller physikalischer bzw. repräsentativer γ. Das Energiefunktional kann in zwei Beiträge aufgeteilt werden: Das Funktional der kinetischen Energie T[γ], dessen lineare Abhängigkeit von γ genau bekannt ist, und das Funktional der Korrelationsenergie W[γ], dessen Abhängigkeit von γ nicht explizit bekannt ist. Das Auffinden präziser Näherungen für W[γ] stellt die tatsächliche Herausforderung dieser These dar. Einem Teil dieser Arbeit liegen vorausgegangene Studien zu Grunde, in denen eine Näherung des Funktionals W[γ] für das Hubbardmodell, basierend auf Skalierungshypothesen und exakten analytischen Ergebnissen für das Dimer, hergeleitet wird. Jedoch ist dieser Ansatz begrenzt auf spin-unabhängige und homogene Systeme. Um den Anwendungsbereich von LDFT zu erweitern, entwickeln wir drei verschiedene Ansätze zur Herleitung von W[γ], die das Studium von Systemen mit gebrochener Symmetrie ermöglichen. Zuerst wird das bisherige Skalierungsfunktional erweitert auf Systeme mit Ladungstransfer. Eine systematische Untersuchung der Abhängigkeit des Funktionals W[γ] von der Ladungsverteilung ergibt ähnliche Skalierungseigenschaften wie für den homogenen Fall. Daraufhin wird eine Erweiterung auf das Hubbardmodell auf bipartiten Gittern hergeleitet und an sowohl endlichen als auch unendlichen Systemen mit repulsiver und attraktiver Wechselwirkung angewandt. Die hohe Genauigkeit dieses Funktionals wird aufgezeigt. Es erweist sich jedoch als schwierig, diesen Ansatz auf komplexere Systeme zu übertragen, da bei der Berechnung von W[γ] das System als ganzes betrachtet wird. Um dieses Problem zu bewältigen, leiten wir eine weitere Näherung basierend auf lokalen Skalierungseigenschaften her. Dieses Funktional ist lokal bezüglich der Gitterplätze formuliert und ist daher anwendbar auf jede Art von geordneten oder ungeordneten Hamiltonoperatoren mit lokalen Wechselwirkungen. Als Anwendungen untersuchen wir den Metall-Isolator-Übergang sowohl im ionischen Hubbardmodell in einer und zwei Dimensionen als auch in eindimensionalen Hubbardketten mit nächsten und übernächsten Nachbarn. Schließlich entwickeln wir ein numerisches Verfahren zur Berechnung von W[γ], basierend auf exakten Diagonalisierungen eines effektiven Vielteilchen-Hamilton-Operators, welcher einen von einem effektiven Medium umgebenen Cluster beschreibt. Dieser effektive Hamiltonoperator hängt von der Dichtematrix γ ab und erlaubt die Herleitung von Näherungen an W[γ], dessen Qualität sich systematisch mit steigender Clustergröße verbessert. Die Formulierung ist spinabhängig und ermöglicht eine direkte Verallgemeinerung auf korrelierte Systeme mit mehreren Orbitalen, wie zum Beispiel auf den spd-Hamilton-Operator. Darüber hinaus berücksichtigt sie die Effekte kurzreichweitiger Ladungs- und Spinfluktuationen in dem Funktional. Für das Hubbardmodell wird die Genauigkeit der Methode durch Vergleich mit Bethe-Ansatz-Resultaten (1D) und Quanten-Monte-Carlo-Simulationen (2D) veranschaulicht. Zum Abschluss wird ein Ausblick auf relevante zukünftige Entwicklungen dieser Theorie gegeben.
Resumo:
Inhalt dieser Arbeit ist ein Verfahren zur numerischen Lösung der zweidimensionalen Flachwassergleichung, welche das Fließverhalten von Gewässern, deren Oberflächenausdehnung wesentlich größer als deren Tiefe ist, modelliert. Diese Gleichung beschreibt die gravitationsbedingte zeitliche Änderung eines gegebenen Anfangszustandes bei Gewässern mit freier Oberfläche. Diese Klasse beinhaltet Probleme wie das Verhalten von Wellen an flachen Stränden oder die Bewegung einer Flutwelle in einem Fluss. Diese Beispiele zeigen deutlich die Notwendigkeit, den Einfluss von Topographie sowie die Behandlung von Nass/Trockenübergängen im Verfahren zu berücksichtigen. In der vorliegenden Dissertation wird ein, in Gebieten mit hinreichender Wasserhöhe, hochgenaues Finite-Volumen-Verfahren zur numerischen Bestimmung des zeitlichen Verlaufs der Lösung der zweidimensionalen Flachwassergleichung aus gegebenen Anfangs- und Randbedingungen auf einem unstrukturierten Gitter vorgestellt, welches in der Lage ist, den Einfluss topographischer Quellterme auf die Strömung zu berücksichtigen, sowie in sogenannten \glqq lake at rest\grqq-stationären Zuständen diesen Einfluss mit den numerischen Flüssen exakt auszubalancieren. Basis des Verfahrens ist ein Finite-Volumen-Ansatz erster Ordnung, welcher durch eine WENO Rekonstruktion unter Verwendung der Methode der kleinsten Quadrate und eine sogenannte Space Time Expansion erweitert wird mit dem Ziel, ein Verfahren beliebig hoher Ordnung zu erhalten. Die im Verfahren auftretenden Riemannprobleme werden mit dem Riemannlöser von Chinnayya, LeRoux und Seguin von 1999 gelöst, welcher die Einflüsse der Topographie auf den Strömungsverlauf mit berücksichtigt. Es wird in der Arbeit bewiesen, dass die Koeffizienten der durch das WENO-Verfahren berechneten Rekonstruktionspolynome die räumlichen Ableitungen der zu rekonstruierenden Funktion mit einem zur Verfahrensordnung passenden Genauigkeitsgrad approximieren. Ebenso wird bewiesen, dass die Koeffizienten des aus der Space Time Expansion resultierenden Polynoms die räumlichen und zeitlichen Ableitungen der Lösung des Anfangswertproblems approximieren. Darüber hinaus wird die wohlbalanciertheit des Verfahrens für beliebig hohe numerische Ordnung bewiesen. Für die Behandlung von Nass/Trockenübergangen wird eine Methode zur Ordnungsreduktion abhängig von Wasserhöhe und Zellgröße vorgeschlagen. Dies ist notwendig, um in der Rechnung negative Werte für die Wasserhöhe, welche als Folge von Oszillationen des Raum-Zeit-Polynoms auftreten können, zu vermeiden. Numerische Ergebnisse die die theoretische Verfahrensordnung bestätigen werden ebenso präsentiert wie Beispiele, welche die hervorragenden Eigenschaften des Gesamtverfahrens in der Berechnung herausfordernder Probleme demonstrieren.
Resumo:
Auf dem Gebiet der Strukturdynamik sind computergestützte Modellvalidierungstechniken inzwischen weit verbreitet. Dabei werden experimentelle Modaldaten, um ein numerisches Modell für weitere Analysen zu korrigieren. Gleichwohl repräsentiert das validierte Modell nur das dynamische Verhalten der getesteten Struktur. In der Realität gibt es wiederum viele Faktoren, die zwangsläufig zu variierenden Ergebnissen von Modaltests führen werden: Sich verändernde Umgebungsbedingungen während eines Tests, leicht unterschiedliche Testaufbauten, ein Test an einer nominell gleichen aber anderen Struktur (z.B. aus der Serienfertigung), etc. Damit eine stochastische Simulation durchgeführt werden kann, muss eine Reihe von Annahmen für die verwendeten Zufallsvariablengetroffen werden. Folglich bedarf es einer inversen Methode, die es ermöglicht ein stochastisches Modell aus experimentellen Modaldaten zu identifizieren. Die Arbeit beschreibt die Entwicklung eines parameter-basierten Ansatzes, um stochastische Simulationsmodelle auf dem Gebiet der Strukturdynamik zu identifizieren. Die entwickelte Methode beruht auf Sensitivitäten erster Ordnung, mit denen Parametermittelwerte und Kovarianzen des numerischen Modells aus stochastischen experimentellen Modaldaten bestimmt werden können.
Resumo:
At the Institute of Structural Engineering of the Faculty of Civil Engineering, Kassel University, series tests of slab-column connection were carried out, subjected to concentrated punching load. The effects of steel fiber content, concrete compressive strength, tension reinforcement ratio, size effect, and yield stress of tension reinforcement were studied by testing a total of six UHPC slabs and one normal strength concrete slab. Based on experimental results; all the tested slabs failed in punching shear as a type of failure, except the UHPC slab without steel fiber which failed due to splitting of concrete cover. The post ultimate load-deformation behavior of UHPC slabs subjected to punching load shows harmonic behavior of three stages; first, drop of load-deflection curve after reaching maximum load, second, resistance of both steel fibers and tension reinforcement, and third, pure tension reinforcement resistance. The first shear crack of UHPC slabs starts to open at a load higher than that of normal strength concrete slabs. Typically, the diameter of the punching cone for UHPC slabs on the tension surface is larger than that of NSC slabs and the location of critical shear crack is far away from the face of the column. The angle of punching cone for NSC slabs is larger than that of UHPC slabs. For UHPC slabs, the critical perimeter is proposed and located at 2.5d from the face of the column. The final shape of the punching cone is completed after the tension reinforcement starts to yield and the column stub starts to penetrate through the slab. A numerical model using Finite Element Analysis (FEA) for UHPC slabs is presented. Also some variables effect on punching shear is demonstrated by a parametric study. A design equation for UHPC slabs under punching load is presented and shown to be applicable for a wide range of parametric variations; in the ranges between 40 mm to 300 mm in slab thickness, 0.1 % to 2.9 % in tension reinforcement ratio, 150 MPa to 250 MPa in compressive strength of concrete and 0.1 % to 2 % steel fiber content. The proposed design equation of UHPC slabs is modified to include HSC and NSC slabs without steel fiber, and it is checked with the test results from earlier researches.
Resumo:
Eine Halbleiterdiode mit externer Kavität wird um eine Messzelle speziell für Gase erweitert. Diese erlaubt Absorptionsmessungen einer exakt definierten Menge von Gas unter kontrollierten Temperatur- und Druckbedingungen. Es werden konzentrationsabhängige Absorptionsmessungen mit Propofol durchgeführt. Als Ergebnis werden effektive Pfadlänge, Bestimmungs- und Nachweisgrenze berechnet und der Beweis erbracht, dass beide im System anschwingenden Moden in Konkurrenz zueinander stehen. Weiterhin wurde eine ausgeprägte Instabilität von Propofol gegenüber einer großen Anzahl von Werkstoffen entdeckt.
Resumo:
Intensive, ultrakurze Laserpulse regen Festkörper in einen Zustand an, in dem die Elektronen hohe Temperaturen erlangen, während das Gitter kalt bleibt. Die heißen Elektronen beeinflussen das sog. Laser-angeregte interatomare Potential bzw. die Potentialenergiefläche, auf der die Ionen sich bewegen. Dieses kann neben anderen ultrakurzen Prozessen zu Änderungen der Phononfrequenzen (phonon softening oder phonon hardening) führen. Viele ultrakurze strukturelle Phänomene in Festkörpern hängen bei hohen Laseranregungen von Änderungen der Phononfrequenzen bei niedrigeren Anregungen ab. Um die Laser-bedingten Änderungen des Phononenspektrums von Festkörpern beschreiben zu können, haben wir ein auf Temperatur-abhängiger Dichtefunktionaltheorie basierendes Verfahren entwickelt. Die dramatischen Änderungen nach einer Laseranregung in der Potentialenergiefläche werden durch die starke Veränderung der Zustandsdichte und der Besetzungen der Elektronen hervorgerufen. Diese Änderungen in der Zustandsdichte und den Besetzungszahlen können wir mit unserer Methode berechnen, um dann damit das Verhalten der Phononen nach einer Laseranregung zu analysieren. Auf diese Art und Weise studierten wir den Einfluss einer Anregung mit einem intensiven, ultrakurzen Laserpuls auf repräsentative Phonon Eigenmoden in Magnesium, Kupfer und Aluminium. Wir stellten dabei in manchen Gitterschwingungen entweder eine Abnahme (softening) und in anderen eine Zunahme (hardening) der Eigenfrequenz fest. Manche Moden zeigten bei Variation der Laseranregungsstärke sogar beide Verhaltensweisen. Das eine Phonon-Eigenmode ein hardening und softening zeigen kann, wird durch das Vorhandensein von van Hove Singularitäten in der elektronischen Zustandsdichte des betrachteten Materials erklärt. Für diesen Fall stellt unser Verfahren zusammen mit der Sommerfeld-Entwicklung die Eigenschaften der Festkörper Vibrationen in Verbindung mit den Laser induzierten Veränderungen in den elektronischen Besetzungen für verschiedene Phonon-eingefrorene Atomkonfigurationen. Auch die absolute Größe des softening und hardening wurde berechnet. Wir nehmen an, dass unsere Theorie Licht in die Effekte der Laseranregung von verschiedenen Materialien bringt. Außerdem studierten wir mit Hilfe von Dichtefunktionaltheorie die strukturellen Material-Eigenschaften, die durch kurze XUV Pulse induziert werden. Warme dichte Materie in Ultrakurzpuls angeregten Magnesium wurde analysiert und verglichen mit den Ergebnissen bei durch Laser Anregung bedingten Änderungen. Unter Verwendung von elektronischer-Temperatur-abhängiger Dichtefunktionaltheorie wurden die Änderungen in den Bindungseigenschaften von warmen dichten Magnesium studiert. Wir stellten dabei beide Effekte, Verstärkung und Abschwächung von Bindungen, bei jeweils verschiedenen Phonon Eigenmoden von Magnesium auf Grund von der Erzeugung von Rumpflöchern und dem Vorhandensein von heißen Elektronen fest. Die zusätzliche Erzeugung von heißen Elektronen führt zu einer Änderung der Bindungscharakteristik, die der Änderung, die durch die bereits vorhandenen Rumpflöcher hervorgerufen wurde, entgegen wirkt. Die thermischen Eigenschaften von Nanostrukturen sind teilweise sehr wichtig für elektronische Bauteile. Wir studierten hier ebenfalls den Effekt einer einzelnen Graphen Lage auf Kupfer. Dazu untersuchten wir mit Dichtefunktionaltheorie die strukturellen- und Schwingungseigenschaften von Graphen auf einem Kupfer Substrat. Wir zeigen, dass die schwache Wechselwirkung zwischen Graphen und Kupfer die Frequenz der aus der Ebene gerichteten akustischen Phonon Eigenmode anhebt und die Entartung zwischen den aus der Ebene gerichteten akustischen und optischen Phononen im K-Punkt des Graphen Spektrums aufhebt. Zusätzlich führten wir ab initio Berechnungen zur inelastischen Streuung eines Helium Atoms mit Graphen auf einem Kuper(111) Substrat durch. Wir berechneten dazu das Leistungsspektrum, das uns eine Idee über die verschiedenen Gitterschwingungen des Graphene-Kuper(111) Systems gibt, die durch die Kollision des Helium Atom angeregt werden. Wir brachten die Positionen der Peaks im Leistungsspektrum mit den Phonon Eigenfrequenzen, die wir aus den statischen Rechnungen erhalten haben, in Beziehung. Unsere Ergebnisse werden auch verglichen mit den Ergebnissen experimenteller Daten zur Helium Streuung an Graphen-Kupfer(111) Oberflächen.
Resumo:
Die Miniaturisierung von konventioneller Labor- und Analysetechnik nimmt eine zentrale Rolle im Bereich der allgemeinen Lebenswissenschaften und medizinischen Diagnostik ein. Neuartige und preiswerte Technologieplattformen wie Lab-on-a-Chip (LOC) oder Mikrototalanalysesysteme (µTAS) versprechen insbesondere im Bereich der Individualmedizin einen hohen gesellschaftlichen Nutzen zur frühzeitigen und nichtinvasiven Diagnose krankheitsspezifischer Indikatoren. Durch den patientennahen Einsatz preiswerter und verlässlicher Mikrochips auf Basis hoher Qualitätsstandards entfallen kostspielige und zeitintensive Zentrallaboranalysen, was gleichzeitig Chancen für den globalen Einsatz - speziell in Schwellen- und Entwicklungsländern - bietet. Die technischen Herausforderungen bei der Realisierung moderner LOC-Systeme sind in der kontrollierten und verlässlichen Handhabung kleinster Flüssigkeitsmengen sowie deren diagnostischem Nachweis begründet. In diesem Kontext wird der erfolgreichen Integration eines fernsteuerbaren Transports von biokompatiblen, magnetischen Mikro- und Nanopartikeln eine Schlüsselrolle zugesprochen. Die Ursache hierfür liegt in der vielfältigen Einsetzbarkeit, die durch die einzigartigen Materialeigenschaften begründet sind. Diese reichen von der beschleunigten, aktiven Durchmischung mikrofluidischer Substanzvolumina über die Steigerung der molekularen Interaktionsrate in Biosensoren bis hin zur Isolation und Aufreinigung von krankheitsspezifischen Indikatoren. In der Literatur beschriebene Ansätze basieren auf der dynamischen Transformation eines makroskopischen, zeitabhängigen externen Magnetfelds in eine mikroskopisch veränderliche potentielle Energielandschaft oberhalb magnetisch strukturierter Substrate, woraus eine gerichtete und fernsteuerbare Partikelbewegung resultiert. Zentrale Kriterien, wie die theoretische Modellierung und experimentelle Charakterisierung der magnetischen Feldlandschaft in räumlicher Nähe zur Oberfläche der strukturierten Substrate sowie die theoretische Beschreibung der Durchmischungseffekte, wurden jedoch bislang nicht näher beleuchtet, obwohl diese essentiell für ein detailliertes Verständnis der zu Grunde liegenden Mechanismen und folglich für einen Markteintritt zukünftiger Geräte sind. Im Rahmen der vorgestellten Arbeit wurde daher ein neuartiger Ansatz zur erfolgreichen Integration eines Konzepts zum fernsteuerbaren Transport magnetischer Partikel zur Anwendung in modernen LOC-Systemen unter Verwendung von magnetisch strukturierten Exchange-Bias (EB) Dünnschichtsystemen verfolgt. Die Ergebnisse zeigen, dass sich das Verfahren der ionenbe-schussinduzierten magnetischen Strukturierung (IBMP) von EB-Systemen zur Herstellung von maßgeschneiderten magnetischen Feldlandschaften (MFL) oberhalb der Substratoberfläche, deren Stärke und räumlicher Verlauf auf Nano- und Mikrometerlängenskalen gezielt über die Veränderung der Materialparameter des EB-Systems via IBMP eingestellt werden kann, eignet. Im Zuge dessen wurden erstmals moderne, experimentelle Verfahrenstechniken (Raster-Hall-Sonden-Mikroskopie und rastermagnetoresistive Mikroskopie) in Kombination mit einem eigens entwickelten theoretischen Modell eingesetzt, um eine Abbildung der MFL in unterschiedlichen Abstandsbereichen zur Substratoberfläche zu realisieren. Basierend auf der quantitativen Kenntnis der MFL wurde ein neuartiges Konzept zum fernsteuerbaren Transport magnetischer Partikel entwickelt, bei dem Partikelgeschwindigkeiten im Bereich von 100 µm/s unter Verwendung von externen Magnetfeldstärken im Bereich weniger Millitesla erzielt werden können, ohne den magnetischen Zustand des Substrats zu modifizieren. Wie aus den Untersuchungen hervorgeht, können zudem die Stärke des externen Magnetfelds, die Stärke und der Gradient der MFL, das magnetfeldinduzierte magnetische Moment der Partikel sowie die Größe und der künstlich veränderliche Abstand der Partikel zur Substratoberfläche als zentrale Einflussgrößen zur quantitativen Modifikation der Partikelgeschwindigkeit genutzt werden. Abschließend wurde erfolgreich ein numerisches Simulationsmodell entwickelt, das die quantitative Studie der aktiven Durchmischung auf Basis des vorgestellten Partikeltransportkonzepts von theoretischer Seite ermöglicht, um so gezielt die geometrischen Gegebenheiten der mikrofluidischen Kanalstrukturen auf einem LOC-System für spezifische Anwendungen anzupassen.
Resumo:
Fifteen cases of viral meningoencephalitis in Colombian cattle were tested by nested PCR analysis for the detection of bovine herpesvirus 5 (BoHV-5). All fatal cases had shown severe neurological signs and had occurred following natural outbreaks of the disease. The neurological infection was histologically characterized by mild to moderate inflammatory changes in the brain and cerebellum, including meningitis, mononuclear perivascular cuffing, gliosis, haemorrhage, and the presence of Gitter cells (macrophages) accompanying large areas of malacia. No intranuclear inclusion bodies were seen in any of the cases. Results from BoHV-5 molecular extraction analyses showed there were five positive cases thus confirming the presence of the virus in Colombia.