4 resultados para location-dependent data query
em ArchiMeD - Elektronische Publikationen der Universität Mainz - Alemanha
Resumo:
Realisierung einer 3D-Kreuzkorrelationsanlage zur Untersuchung von Struktur und Dynamik hochkonzentrierter Kolloide Im Rahmen dieser Arbeit wird eine neuartige 3D-Kreuzkorrelationsanlage zur mehrfachstreufreien Untersuchung des diffusiven Verhaltens hochkonzentrierter kolloidaler Suspensionen vorgestellt. Hierzu werden zwei Lichtstreuexperimente gleichzeitig am gleichen Streuvolumen und mit dem gleichen Streuvektor durchgeführt. Aus der so gewonnenen Kreuzkorrelationsfunktion kann das dynamische Verhalten der Kolloide bestimmt werden. Für die Diffusion der Partikel spielen neben der direkten Wechselwirkung elektroviskoser Effekt und die hydrodynamische Wechselwirkung eine entscheidende Rolle. Insbesondere bei hohen Konzentrationen kann keiner der drei Effekte vernachlässigt werden. Die zu messenden Unterschiede in den Diffusionskoeffizienten sind sehr klein. Daher wurde der experimentelle Aufbau detailliert charakterisiert. Hierbei konnten theoretische Überlegungen hinsichtlich des Nachpulsens und der Totzeit der verwendeten Si-Avalanche-Photodioden überprüft werden. Der Kurzzeitselbstdiffusionskoeffizient hochkonzentrierter geladener kolloidaler Suspensionen wurde gemessen. Um die Daten bei hohen Konzentrationen korrekt zu normieren, wurde der elektroviskose Effekt bei geringen Konzentrationen ausführlich untersucht. Hierbei zeigte sich, dass der elektroviskose Einzelteilcheneffekt zu einer monotonen Abnahme des Diffusionskoeffizienten bei abnehmender Ionenstärke führt. Anhand der volumenbruchabhängigen Daten des Kurzzeitselbstdiffusionskoeffizienten konnte zum ersten Mal gezeigt werden, dass die hydrodynamische Wechselwirkung einen geringeren Einfluss auf die Diffusion hat, falls das direkte Wechselwirkungspotential ein Coulomb-Potential anstelle eines Harte-Kugel-Potentials ist.
Resumo:
Palynologie und Sedimentologie der Interglazialprofile Döttingen, Bonstorf, Munster und Bilshausen Zusammenfassung In der vorliegenden Dissertation wurden vier dem Holstein-Interglazial zugehörige Bohrkerne sowie ein rhumezeitlicher Bohrkern palynologisch und sedimentologisch bearbeitet. Die holsteinzeitlichen Bohrkerne stammen aus Kieselgurlagerstätten der Lüneburger Heide (Bonstorf und Munster) und aus einem Trockenmaar (Döttingen) in der Eifel. Der rhumezeitliche Kern stammt aus der Typlokalität Bilshausen im Harzvorland. Neben Prozentwertdiagrammen werden Pollendichte- und wenn möglich Polleninfluxwerte vorgestellt, die insbesondere für die Lokalitäten Hetendorf/Bonstorf und Munster/Breloh bisher nicht verfügbar waren. Mit dem Profil Döttingen konnte erstmals eine sowohl vollständige als auch nicht innerhalb des klassischen Aufkommens holsteinzeitlicher Fundstellen im norddeutschen Tiefland positionierte Holsteinsequenz aus dem deutschen Mittelgebirge dokumentiert werden. Das erhaltene Pollendiagramm bestätigt die aus den norddeutschen Profilen bekannte holsteintypische Vegetationsabfolge, durch die das Holstein gegenüber anderen Interglazialen wie Holozän, Eem oder Rhume palynologisch definiert ist. Neben der grundsätzlichen Übereinstimmung der Pollensequenz unterscheidet sich das Profil Döttingen aber deutlich im prozentualen Aufkommen der beteiligten Taxa von den norddeutschen Profilen. So wird eine hohe Alnus-Präsenz als Merkmal deutscher Holsteinprofile bestätigt, jedoch ist die, in den norddeutschen Lokalitäten durchhaltend hohe oder dominante Beteiligung von Pinus im deutschen Mittelgebirge nicht vorhanden und muss daher auf die Standortbedingungen Norddeutschlands zurückgeführt werden. Abies dagegen ist im Holstein der Mittelgebirge wesentlich präsenter als im norddeutschen Flachland. Im Profil Döttingen wurden insgesamt 10 Tephralagen gefunden. Auf eine dieser Tephren folgt ein „Birken-Kiefern-Gräser Vorstoß“, der palynostratigraphisch dem älteren „Birken-Kiefern Vorstoß“ in Munster/Breloh entspricht. Als eine Typologie des Holstein kann das in den Profilen Döttingen und Munster bestätigte intraholsteinzeitliche Carpinus-Minimum verstanden werden. An Hand sedimentologischer und palynologischer Befunde aus dem Bohrkern MU 2 muss die Existenz zweier, in der Literatur postulierter, postholsteinzeitlicher, „Nachschwankungen“ in Munster/Breloh in Frage gestellt, wenn nicht abgelehnt werden. In Kern MU 2 fallen palynostratigraphische Grenzen häufig mit Sandeinschaltungen zusammen. Eine dieser Sandeinschaltungen, nämlich unmittelbar vor dem älteren „Birken-Kiefern-Vorstoß“, korreliert in ihrer stratigraphischen Position mit der den „Birken-Kiefern-Gräser-Vorstoß“ im Profil Döttingen einleitenden Tephralage. Es gelang die Dauer des intraholsteinzeitlichen Carpinus Minimums auf etwa 1500±100 Jahre zu bestimmen und eine interne Zweigliederung zu dokumentieren. Im rhumezeitlichen Kern von Bilshausen (BI 1) konnten zahlreiche Störungen nachgewiesen werden. Insbesondere im Teufenbereich des Bilshausener „Birken-Kiefern-Vorstoßes“ deuten diese auf eine möglicherweise verfälschte Überlieferung. Der palynologisch markante „Lindenfall“ von Bilshausen liegt im Bereich einer isoklinalen Schichtenverfaltung. Die in der Literatur im Horizont des „Lindenfalls“ beschriebene „Bilshausentephra“ wurde nicht gefunden. Warvenzählungen an den Kernen MU 1, MU 2 und BI 1 ermöglichten Pollenzonendauern in Holstein- und Rhume-Interglazial zu bestimmen. Dabei wurde mittels den Warvenzählungen, unter zu Hilfenahme von Literaturdaten und von Schätzwerten eine Dauer für das Holstein-Interglazial sensu stricto (Pollenzonen I-XIV) von 15400-17800 Jahren und für das Rhume-Interglazial von wahrscheinlich 22000 Jahren bis maximal 26000 Jahren ermittelt.
Resumo:
Die Verifikation numerischer Modelle ist für die Verbesserung der Quantitativen Niederschlagsvorhersage (QNV) unverzichtbar. Ziel der vorliegenden Arbeit ist die Entwicklung von neuen Methoden zur Verifikation der Niederschlagsvorhersagen aus dem regionalen Modell der MeteoSchweiz (COSMO-aLMo) und des Globalmodells des Europäischen Zentrums für Mittelfristvorhersage (engl.: ECMWF). Zu diesem Zweck wurde ein neuartiger Beobachtungsdatensatz für Deutschland mit stündlicher Auflösung erzeugt und angewandt. Für die Bewertung der Modellvorhersagen wurde das neue Qualitätsmaß „SAL“ entwickelt. Der neuartige, zeitlich und räumlich hoch-aufgelöste Beobachtungsdatensatz für Deutschland wird mit der während MAP (engl.: Mesoscale Alpine Program) entwickelten Disaggregierungsmethode erstellt. Die Idee dabei ist, die zeitlich hohe Auflösung der Radardaten (stündlich) mit der Genauigkeit der Niederschlagsmenge aus Stationsmessungen (im Rahmen der Messfehler) zu kombinieren. Dieser disaggregierte Datensatz bietet neue Möglichkeiten für die quantitative Verifikation der Niederschlagsvorhersage. Erstmalig wurde eine flächendeckende Analyse des Tagesgangs des Niederschlags durchgeführt. Dabei zeigte sich, dass im Winter kein Tagesgang existiert und dies vom COSMO-aLMo gut wiedergegeben wird. Im Sommer dagegen findet sich sowohl im disaggregierten Datensatz als auch im COSMO-aLMo ein deutlicher Tagesgang, wobei der maximale Niederschlag im COSMO-aLMo zu früh zwischen 11-14 UTC im Vergleich zu 15-20 UTC in den Beobachtungen einsetzt und deutlich um das 1.5-fache überschätzt wird. Ein neues Qualitätsmaß wurde entwickelt, da herkömmliche, gitterpunkt-basierte Fehlermaße nicht mehr der Modellentwicklung Rechnung tragen. SAL besteht aus drei unabhängigen Komponenten und basiert auf der Identifikation von Niederschlagsobjekten (schwellwertabhängig) innerhalb eines Gebietes (z.B. eines Flusseinzugsgebietes). Berechnet werden Unterschiede der Niederschlagsfelder zwischen Modell und Beobachtungen hinsichtlich Struktur (S), Amplitude (A) und Ort (L) im Gebiet. SAL wurde anhand idealisierter und realer Beispiele ausführlich getestet. SAL erkennt und bestätigt bekannte Modelldefizite wie das Tagesgang-Problem oder die Simulation zu vieler relativ schwacher Niederschlagsereignisse. Es bietet zusätzlichen Einblick in die Charakteristiken der Fehler, z.B. ob es sich mehr um Fehler in der Amplitude, der Verschiebung eines Niederschlagsfeldes oder der Struktur (z.B. stratiform oder kleinskalig konvektiv) handelt. Mit SAL wurden Tages- und Stundensummen des COSMO-aLMo und des ECMWF-Modells verifiziert. SAL zeigt im statistischen Sinne speziell für stärkere (und damit für die Gesellschaft relevante Niederschlagsereignisse) eine im Vergleich zu schwachen Niederschlägen gute Qualität der Vorhersagen des COSMO-aLMo. Im Vergleich der beiden Modelle konnte gezeigt werden, dass im Globalmodell flächigere Niederschläge und damit größere Objekte vorhergesagt werden. Das COSMO-aLMo zeigt deutlich realistischere Niederschlagsstrukturen. Diese Tatsache ist aufgrund der Auflösung der Modelle nicht überraschend, konnte allerdings nicht mit herkömmlichen Fehlermaßen gezeigt werden. Die im Rahmen dieser Arbeit entwickelten Methoden sind sehr nützlich für die Verifikation der QNV zeitlich und räumlich hoch-aufgelöster Modelle. Die Verwendung des disaggregierten Datensatzes aus Beobachtungen sowie SAL als Qualitätsmaß liefern neue Einblicke in die QNV und lassen angemessenere Aussagen über die Qualität von Niederschlagsvorhersagen zu. Zukünftige Anwendungsmöglichkeiten für SAL gibt es hinsichtlich der Verifikation der neuen Generation von numerischen Wettervorhersagemodellen, die den Lebenszyklus hochreichender konvektiver Zellen explizit simulieren.
Resumo:
In vielen Industriezweigen, zum Beispiel in der Automobilindustrie, werden Digitale Versuchsmodelle (Digital MockUps) eingesetzt, um die Konstruktion und die Funktion eines Produkts am virtuellen Prototypen zu überprüfen. Ein Anwendungsfall ist dabei die Überprüfung von Sicherheitsabständen einzelner Bauteile, die sogenannte Abstandsanalyse. Ingenieure ermitteln dabei für bestimmte Bauteile, ob diese in ihrer Ruhelage sowie während einer Bewegung einen vorgegeben Sicherheitsabstand zu den umgebenden Bauteilen einhalten. Unterschreiten Bauteile den Sicherheitsabstand, so muss deren Form oder Lage verändert werden. Dazu ist es wichtig, die Bereiche der Bauteile, welche den Sicherhabstand verletzen, genau zu kennen. rnrnIn dieser Arbeit präsentieren wir eine Lösung zur Echtzeitberechnung aller den Sicherheitsabstand unterschreitenden Bereiche zwischen zwei geometrischen Objekten. Die Objekte sind dabei jeweils als Menge von Primitiven (z.B. Dreiecken) gegeben. Für jeden Zeitpunkt, in dem eine Transformation auf eines der Objekte angewendet wird, berechnen wir die Menge aller den Sicherheitsabstand unterschreitenden Primitive und bezeichnen diese als die Menge aller toleranzverletzenden Primitive. Wir präsentieren in dieser Arbeit eine ganzheitliche Lösung, welche sich in die folgenden drei großen Themengebiete unterteilen lässt.rnrnIm ersten Teil dieser Arbeit untersuchen wir Algorithmen, die für zwei Dreiecke überprüfen, ob diese toleranzverletzend sind. Hierfür präsentieren wir verschiedene Ansätze für Dreiecks-Dreiecks Toleranztests und zeigen, dass spezielle Toleranztests deutlich performanter sind als bisher verwendete Abstandsberechnungen. Im Fokus unserer Arbeit steht dabei die Entwicklung eines neuartigen Toleranztests, welcher im Dualraum arbeitet. In all unseren Benchmarks zur Berechnung aller toleranzverletzenden Primitive beweist sich unser Ansatz im dualen Raum immer als der Performanteste.rnrnDer zweite Teil dieser Arbeit befasst sich mit Datenstrukturen und Algorithmen zur Echtzeitberechnung aller toleranzverletzenden Primitive zwischen zwei geometrischen Objekten. Wir entwickeln eine kombinierte Datenstruktur, die sich aus einer flachen hierarchischen Datenstruktur und mehreren Uniform Grids zusammensetzt. Um effiziente Laufzeiten zu gewährleisten ist es vor allem wichtig, den geforderten Sicherheitsabstand sinnvoll im Design der Datenstrukturen und der Anfragealgorithmen zu beachten. Wir präsentieren hierzu Lösungen, die die Menge der zu testenden Paare von Primitiven schnell bestimmen. Darüber hinaus entwickeln wir Strategien, wie Primitive als toleranzverletzend erkannt werden können, ohne einen aufwändigen Primitiv-Primitiv Toleranztest zu berechnen. In unseren Benchmarks zeigen wir, dass wir mit unseren Lösungen in der Lage sind, in Echtzeit alle toleranzverletzenden Primitive zwischen zwei komplexen geometrischen Objekten, bestehend aus jeweils vielen hunderttausend Primitiven, zu berechnen. rnrnIm dritten Teil präsentieren wir eine neuartige, speicheroptimierte Datenstruktur zur Verwaltung der Zellinhalte der zuvor verwendeten Uniform Grids. Wir bezeichnen diese Datenstruktur als Shrubs. Bisherige Ansätze zur Speicheroptimierung von Uniform Grids beziehen sich vor allem auf Hashing Methoden. Diese reduzieren aber nicht den Speicherverbrauch der Zellinhalte. In unserem Anwendungsfall haben benachbarte Zellen oft ähnliche Inhalte. Unser Ansatz ist in der Lage, den Speicherbedarf der Zellinhalte eines Uniform Grids, basierend auf den redundanten Zellinhalten, verlustlos auf ein fünftel der bisherigen Größe zu komprimieren und zur Laufzeit zu dekomprimieren.rnrnAbschießend zeigen wir, wie unsere Lösung zur Berechnung aller toleranzverletzenden Primitive Anwendung in der Praxis finden kann. Neben der reinen Abstandsanalyse zeigen wir Anwendungen für verschiedene Problemstellungen der Pfadplanung.