15 resultados para Verifikation


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Sei $N/K$ eine galoissche Zahlkörpererweiterung mit Galoisgruppe $G$, so dass es in $N$ eine Stelle mit voller Zerlegungsgruppe gibt. Die vorliegende Arbeit beschäftigt sich mit Algorithmen, die für das gegebene Fallbeispiel $N/K$, die äquivariante Tamagawazahlvermutung von Burns und Flach für das Paar $(h^0(Spec(N), \mathbb{Z}[G]))$ (numerisch) verifizieren. Grob gesprochen stellt die äquivariante Tamagawazahlvermutung (im Folgenden ETNC) in diesem Spezialfall einen Zusammenhang her zwischen Werten von Artinschen $L$-Reihen zu den absolut irreduziblen Charakteren von $G$ und einer Eulercharakteristik, die man in diesem Fall mit Hilfe einer sogenannten Tatesequenz konstruieren kann. Unter den Voraussetzungen 1. es gibt eine Stelle $v$ von $N$ mit voller Zerlegungsgruppe, 2. jeder irreduzible Charakter $\chi$ von $G$ erfüllt eine der folgenden Bedingungen 2a) $\chi$ ist abelsch, 2b) $\chi(G) \subset \mathbb{Q}$ und $\chi$ ist eine ganzzahlige Linearkombination von induzierten trivialen Charakteren; wird ein Algorithmus entwickelt, der ETNC für jedes Fallbeispiel $N/\mathbb{Q}$ vollständig beweist. Voraussetzung 1. erlaubt es eine Idee von Chinburg ([Chi89]) umzusetzen zur algorithmischen Berechnung von Tatesequenzen. Dabei war es u.a. auch notwendig lokale Fundamentalklassen zu berechnen. Im höchsten zahm verzweigten Fall haben wir hierfür einen Algorithmus entwickelt, der ebenfalls auf den Ideen von Chinburg ([Chi85]) beruht, die auf Arbeiten von Serre [Ser] zurück gehen. Für nicht zahm verzweigte Erweiterungen benutzen wir den von Debeerst ([Deb11]) entwickelten Algorithmus, der ebenfalls auf Serre's Arbeiten beruht. Voraussetzung 2. wird benötigt, um Quotienten aus den $L$-Werten und Regulatoren exakt zu berechnen. Dies gelingt, da wir im Fall von abelschen Charakteren auf die Theorie der zyklotomischen Einheiten zurückgreifen können und im Fall (b) auf die analytische Klassenzahlformel von Zwischenkörpern. Ohne die Voraussetzung 2. liefern die Algorithmen für jedes Fallbeispiel $N/K$ immer noch eine numerische Verifikation bis auf Rechengenauigkeit. Den Algorithmus zur numerischen Verifikation haben wir für $A_4$-Erweiterungen über $\mathbb{Q}$ in das Computeralgebrasystem MAGMA implementiert und für 27 Erweiterungen die äquivariante Tamagawazahlvermutung numerisch verifiziert.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Die Verifikation numerischer Modelle ist für die Verbesserung der Quantitativen Niederschlagsvorhersage (QNV) unverzichtbar. Ziel der vorliegenden Arbeit ist die Entwicklung von neuen Methoden zur Verifikation der Niederschlagsvorhersagen aus dem regionalen Modell der MeteoSchweiz (COSMO-aLMo) und des Globalmodells des Europäischen Zentrums für Mittelfristvorhersage (engl.: ECMWF). Zu diesem Zweck wurde ein neuartiger Beobachtungsdatensatz für Deutschland mit stündlicher Auflösung erzeugt und angewandt. Für die Bewertung der Modellvorhersagen wurde das neue Qualitätsmaß „SAL“ entwickelt. Der neuartige, zeitlich und räumlich hoch-aufgelöste Beobachtungsdatensatz für Deutschland wird mit der während MAP (engl.: Mesoscale Alpine Program) entwickelten Disaggregierungsmethode erstellt. Die Idee dabei ist, die zeitlich hohe Auflösung der Radardaten (stündlich) mit der Genauigkeit der Niederschlagsmenge aus Stationsmessungen (im Rahmen der Messfehler) zu kombinieren. Dieser disaggregierte Datensatz bietet neue Möglichkeiten für die quantitative Verifikation der Niederschlagsvorhersage. Erstmalig wurde eine flächendeckende Analyse des Tagesgangs des Niederschlags durchgeführt. Dabei zeigte sich, dass im Winter kein Tagesgang existiert und dies vom COSMO-aLMo gut wiedergegeben wird. Im Sommer dagegen findet sich sowohl im disaggregierten Datensatz als auch im COSMO-aLMo ein deutlicher Tagesgang, wobei der maximale Niederschlag im COSMO-aLMo zu früh zwischen 11-14 UTC im Vergleich zu 15-20 UTC in den Beobachtungen einsetzt und deutlich um das 1.5-fache überschätzt wird. Ein neues Qualitätsmaß wurde entwickelt, da herkömmliche, gitterpunkt-basierte Fehlermaße nicht mehr der Modellentwicklung Rechnung tragen. SAL besteht aus drei unabhängigen Komponenten und basiert auf der Identifikation von Niederschlagsobjekten (schwellwertabhängig) innerhalb eines Gebietes (z.B. eines Flusseinzugsgebietes). Berechnet werden Unterschiede der Niederschlagsfelder zwischen Modell und Beobachtungen hinsichtlich Struktur (S), Amplitude (A) und Ort (L) im Gebiet. SAL wurde anhand idealisierter und realer Beispiele ausführlich getestet. SAL erkennt und bestätigt bekannte Modelldefizite wie das Tagesgang-Problem oder die Simulation zu vieler relativ schwacher Niederschlagsereignisse. Es bietet zusätzlichen Einblick in die Charakteristiken der Fehler, z.B. ob es sich mehr um Fehler in der Amplitude, der Verschiebung eines Niederschlagsfeldes oder der Struktur (z.B. stratiform oder kleinskalig konvektiv) handelt. Mit SAL wurden Tages- und Stundensummen des COSMO-aLMo und des ECMWF-Modells verifiziert. SAL zeigt im statistischen Sinne speziell für stärkere (und damit für die Gesellschaft relevante Niederschlagsereignisse) eine im Vergleich zu schwachen Niederschlägen gute Qualität der Vorhersagen des COSMO-aLMo. Im Vergleich der beiden Modelle konnte gezeigt werden, dass im Globalmodell flächigere Niederschläge und damit größere Objekte vorhergesagt werden. Das COSMO-aLMo zeigt deutlich realistischere Niederschlagsstrukturen. Diese Tatsache ist aufgrund der Auflösung der Modelle nicht überraschend, konnte allerdings nicht mit herkömmlichen Fehlermaßen gezeigt werden. Die im Rahmen dieser Arbeit entwickelten Methoden sind sehr nützlich für die Verifikation der QNV zeitlich und räumlich hoch-aufgelöster Modelle. Die Verwendung des disaggregierten Datensatzes aus Beobachtungen sowie SAL als Qualitätsmaß liefern neue Einblicke in die QNV und lassen angemessenere Aussagen über die Qualität von Niederschlagsvorhersagen zu. Zukünftige Anwendungsmöglichkeiten für SAL gibt es hinsichtlich der Verifikation der neuen Generation von numerischen Wettervorhersagemodellen, die den Lebenszyklus hochreichender konvektiver Zellen explizit simulieren.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Die Verifikation bewertet die Güte von quantitativen Niederschlagsvorhersagen(QNV) gegenüber Beobachtungen und liefert Hinweise auf systematische Modellfehler. Mit Hilfe der merkmals-bezogenen Technik SAL werden simulierte Niederschlagsverteilungen hinsichtlich (S)truktur, (A)mplitude und (L)ocation analysiert. Seit einigen Jahren werden numerische Wettervorhersagemodelle benutzt, mit Gitterpunktabständen, die es erlauben, hochreichende Konvektion ohne Parametrisierung zu simulieren. Es stellt sich jetzt die Frage, ob diese Modelle bessere Vorhersagen liefern. Der hoch aufgelöste stündliche Beobachtungsdatensatz, der in dieser Arbeit verwendet wird, ist eine Kombination von Radar- und Stationsmessungen. Zum einem wird damit am Beispiel der deutschen COSMO-Modelle gezeigt, dass die Modelle der neuesten Generation eine bessere Simulation des mittleren Tagesgangs aufweisen, wenn auch mit zu geringen Maximum und etwas zu spätem Auftreten. Im Gegensatz dazu liefern die Modelle der alten Generation ein zu starkes Maximum, welches erheblich zu früh auftritt. Zum anderen wird mit dem neuartigen Modell eine bessere Simulation der räumlichen Verteilung des Niederschlags, durch eine deutliche Minimierung der Luv-/Lee Proble-matik, erreicht. Um diese subjektiven Bewertungen zu quantifizieren, wurden tägliche QNVs von vier Modellen für Deutschland in einem Achtjahreszeitraum durch SAL sowie klassischen Maßen untersucht. Die höher aufgelösten Modelle simulieren realistischere Niederschlagsverteilungen(besser in S), aber bei den anderen Komponenten tritt kaum ein Unterschied auf. Ein weiterer Aspekt ist, dass das Modell mit der gröbsten Auf-lösung(ECMWF) durch den RMSE deutlich am besten bewertet wird. Darin zeigt sich das Problem des ‚Double Penalty’. Die Zusammenfassung der drei Komponenten von SAL liefert das Resultat, dass vor allem im Sommer das am feinsten aufgelöste Modell (COSMO-DE) am besten abschneidet. Hauptsächlich kommt das durch eine realistischere Struktur zustande, so dass SAL hilfreiche Informationen liefert und die subjektive Bewertung bestätigt. rnIm Jahr 2007 fanden die Projekte COPS und MAP D-PHASE statt und boten die Möglich-keit, 19 Modelle aus drei Modellkategorien hinsichtlich ihrer Vorhersageleistung in Südwestdeutschland für Akkumulationszeiträume von 6 und 12 Stunden miteinander zu vergleichen. Als Ergebnisse besonders hervorzuheben sind, dass (i) je kleiner der Gitter-punktabstand der Modelle ist, desto realistischer sind die simulierten Niederschlags-verteilungen; (ii) bei der Niederschlagsmenge wird in den hoch aufgelösten Modellen weniger Niederschlag, d.h. meist zu wenig, simuliert und (iii) die Ortskomponente wird von allen Modellen am schlechtesten simuliert. Die Analyse der Vorhersageleistung dieser Modelltypen für konvektive Situationen zeigt deutliche Unterschiede. Bei Hochdrucklagen sind die Modelle ohne Konvektionsparametrisierung nicht in der Lage diese zu simulieren, wohingegen die Modelle mit Konvektionsparametrisierung die richtige Menge, aber zu flächige Strukturen realisieren. Für konvektive Ereignisse im Zusammenhang mit Fronten sind beide Modelltypen in der Lage die Niederschlagsverteilung zu simulieren, wobei die hoch aufgelösten Modelle realistischere Felder liefern. Diese wetterlagenbezogene Unter-suchung wird noch systematischer unter Verwendung der konvektiven Zeitskala durchge-führt. Eine erstmalig für Deutschland erstellte Klimatologie zeigt einen einer Potenzfunktion folgenden Abfall der Häufigkeit dieser Zeitskala zu größeren Werten hin auf. Die SAL Ergebnisse sind für beide Bereiche dramatisch unterschiedlich. Für kleine Werte der konvektiven Zeitskala sind sie gut, dagegen werden bei großen Werten die Struktur sowie die Amplitude deutlich überschätzt. rnFür zeitlich sehr hoch aufgelöste Niederschlagsvorhersagen gewinnt der Einfluss der zeitlichen Fehler immer mehr an Bedeutung. Durch die Optimierung/Minimierung der L Komponente von SAL innerhalb eines Zeitfensters(+/-3h) mit dem Beobachtungszeit-punkt im Zentrum ist es möglich diese zu bestimmen. Es wird gezeigt, dass bei optimalem Zeitversatz die Struktur und Amplitude der QNVs für das COSMO-DE besser werden und damit die grundsätzliche Fähigkeit des Modells die Niederschlagsverteilung realistischer zu simulieren, besser gezeigt werden kann.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Es werden Auslegungsverfahren für vertikale und horizontale bis leicht geneigte Hochleistungs-Schneckenförderer vorgestellt, die eine anwendbare und praxistaugliche Möglichkeit sind, solche Fördergeräte für den täglichen Einsatz im Massengutumschlag auszulegen. Die Verifikation des Auslegungsverfahrens für vertikale Schneckenförderer durch Leistungsmessungen an zwei Referenzanlagen hat gezeigt, dass sich die im industriellen Einsatz befindlichen Anlagen mit guten Ergebnissen durch das Berechnungsverfahren nachrechnen lassen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In this thesis, the possibility of extending the Quantization Condition of Dirac for Magnetic Monopoles to noncommutative space-time is investigated. The three publications that this thesis is based on are all in direct link to this investigation. Noncommutative solitons have been found within certain noncommutative field theories, but it is not known whether they possesses only topological charge or also magnetic charge. This is a consequence of that the noncommutative topological charge need not coincide with the noncommutative magnetic charge, although they are equivalent in the commutative context. The aim of this work is to begin to fill this gap of knowledge. The method of investigation is perturbative and leaves open the question of whether a nonperturbative source for the magnetic monopole can be constructed, although some aspects of such a generalization are indicated. The main result is that while the noncommutative Aharonov-Bohm effect can be formulated in a gauge invariant way, the quantization condition of Dirac is not satisfied in the case of a perturbative source for the point-like magnetic monopole.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die in dieser Arbeit durchgeführten Untersuchungen zeigen, daß es möglich ist, komplexe thermische Systeme, unter Verwendung der thermisch-, elektrischen Analogien, mit PSpice zu simulieren. Im Mittelpunkt der Untersuchungen standen hierbei Strangkühlkörper zur Kühlung von elektronischen Bauelementen. Es konnte gezeigt werden,daß alle Wärmeübertragungsarten, (Wärmeleitung, Konvektion und Wärmestrahlung) in der Simulation berücksichtigt werden können. Für die Berechnung der Konvektion wurden verschiedene Methoden hergeleitet. Diese gelten zum einen für verschiedene Kühlkörpergeometrien, wie z.B. ebene Flächen und Kühlrippenzwischenräume, andererseits unterscheiden sie sich, je nachdem, ob freie oder erzwungene Konvektion betrachtet wird. Für die Wärmestrahlung zwischen den Kühlrippen wurden verschiedenen Berechnungsmethoden entwickelt. Für die Simulation mit PSpice wurde die Berechnung der Wärmestrahlung zwischen den Kühlrippen vereinfacht. Es konnte gezeigt werden, daß die Fehler, die durch die Vereinfachung entstehen, vernachlässigbar klein sind. Für das thermische Verhalten einer zu kühlenden Wärmequelle wurde ein allgemeines Modell entworfen. Zur Bestimmung der Modellparameter wurden verschiedene Meßverfahren entwickelt. Für eine im Fachgebiet Elektromechanik entwickelte Wärmequelle zum Test von Kühlvorrichtungen wurde mit Hilfe dieser Meßverfahren eine Parameterbestimmung durchgeführt. Die Erstellung des thermischen Modells eines Kühlkörpers für die Simulation in PSpice erfordert die Analyse der Kühlkörpergeometrie. Damit diese Analyse weitestgehend automatisiert werden kann, wurden verschiedene Algorithmen unter Matlab entwickelt. Es wurde ein Algorithmus entwickelt, der es ermöglicht, den Kühlkörper in Elementarzellen zu zerlegen, die für die Erstellung des Simulationsmodells benötigt werden. Desweiteren ist es für die Simulation notwendig zu wissen, welche der Elementarzellen am Rand des Kühlkörpers liegen, welche der Elementarzellen an einem Kühlrippenzwischenraum liegen und welche Kühlkörperkanten schräg verlaufen. Auch zur Lösung dieser Aufgaben wurden verschiedene Algorithmen entwickelt. Diese Algorithmen wurden zu einem Programm zusammengefaßt, das es gestattet, unterschiedliche Strangkühlkörper zu simulieren und die Simulationsergebnisse in Form der Temperaturverteilung auf der Montagefläche des Kühlkörpers grafisch darzustellen. Es können stationäre und transiente Simulationen durchgeführt werden. Desweiteren kann der thermische Widerstand des Kühlkörpers RthK als Funktion der Verlustleistung der Wärmequelle dargestellt werden. Zur Verifikation der Simulationsergebnisse wurden Temperaturmessungen an Kühlkörpern durchgeführt und mit den Simulationsergebnissen verglichen. Diese Vergleiche zeigen, daß die Abweichungen im Bereich der Streuung der Temperaturmessung liegen. Das hier entwickelte Verfahren zur thermischen Simulation von Strangkühlkörpern kann somit als gut bewertet werden.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The rapid growth in high data rate communication systems has introduced new high spectral efficient modulation techniques and standards such as LTE-A (long term evolution-advanced) for 4G (4th generation) systems. These techniques have provided a broader bandwidth but introduced high peak-to-average power ratio (PAR) problem at the high power amplifier (HPA) level of the communication system base transceiver station (BTS). To avoid spectral spreading due to high PAR, stringent requirement on linearity is needed which brings the HPA to operate at large back-off power at the expense of power efficiency. Consequently, high power devices are fundamental in HPAs for high linearity and efficiency. Recent development in wide bandgap power devices, in particular AlGaN/GaN HEMT, has offered higher power level with superior linearity-efficiency trade-off in microwaves communication. For cost-effective HPA design to production cycle, rigorous computer aided design (CAD) AlGaN/GaN HEMT models are essential to reflect real response with increasing power level and channel temperature. Therefore, large-size AlGaN/GaN HEMT large-signal electrothermal modeling procedure is proposed. The HEMT structure analysis, characterization, data processing, model extraction and model implementation phases have been covered in this thesis including trapping and self-heating dispersion accounting for nonlinear drain current collapse. The small-signal model is extracted using the 22-element modeling procedure developed in our department. The intrinsic large-signal model is deeply investigated in conjunction with linearity prediction. The accuracy of the nonlinear drain current has been enhanced through several issues such as trapping and self-heating characterization. Also, the HEMT structure thermal profile has been investigated and corresponding thermal resistance has been extracted through thermal simulation and chuck-controlled temperature pulsed I(V) and static DC measurements. Higher-order equivalent thermal model is extracted and implemented in the HEMT large-signal model to accurately estimate instantaneous channel temperature. Moreover, trapping and self-heating transients has been characterized through transient measurements. The obtained time constants are represented by equivalent sub-circuits and integrated in the nonlinear drain current implementation to account for complex communication signals dynamic prediction. The obtained verification of this table-based large-size large-signal electrothermal model implementation has illustrated high accuracy in terms of output power, gain, efficiency and nonlinearity prediction with respect to standard large-signal test signals.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Streulängen beschreiben die s-Wellen-Streuung niederenergetischer Neutronen an Kernen. Solche Streuprozesse laufen nahezu ausschließlich über die starke Wechselwirkung ab. Wegen der Spinabhängigkeit der starken Wechselwirkung werden den Multiplett-Streulängen, d.h. den Streulängen der Gesamtspinzustände J, im Allgemeinen verschiedene Werte zugeordnet. Im Experiment sind die Multiplett-Streuzustände an makroskopischen Proben in der Regel nicht unmittelbar zugänglich. Messbar sind jedoch der polarisationsabhängige und -unabhängige Anteil der Streulänge, welche als inkohärente Streulänge und kohärente Streulänge bezeichnet werden und Linearkombinationen der Multiplettstreulängen sind. Durch komplexe Streulängen lässt sich der für reine Streuprozesse entwickelte Formalismus erweitern: Der Imaginärteil der Streulänge beschreibt dann die Absorption von Projektilen im Target. Sämtliche Reaktionsquerschnitte lassen sich als Funktionen der Streulänge angeben. Verbesserte Messungen der 3He-Streulängen sind für die Entwicklung theoretischer Modelle von Wenig-Nukleonen-Systemen wichtig. Für die Systeme (n,D) und (n,T) wurden in den letzten Jahren u.a. präzise theoretische Vorhersagen für die Multiplett-Streulängen gemacht. Die Übereinstimmung mit den experimentellen Ergebnissen untermauert, dass die theoretischen Unsicherheiten dieser Werte nur etwa 1 Promille betragen. Demgegenüber ist die theoretische Behandlung des n-3He-Systems aufwändiger. Bis zu Beginn der 1980er Jahre wurde eine Reihe von Vorhersagen für die Multiplett-Streulängen gemacht, die auf erfolgreichen Dreinukleon-Potentialmodellen basierten, untereinander aber vollkommen inkompatibel waren. Daneben waren zwei disjunkte Wertepaare für die Multiplett-Streulängen mit den experimentellen Ergebnissen verträglich. Obwohl es begründete Argumente zugunsten eines der Wertepaare gab, bestand die Hoffnung auf eine experimentelle Verifikation durch direkte Messung der inkohärenten Streulänge bereits 1980. Die Bestimmung des Realteils der inkohärenten Streulänge liefert in der Multiplettstreulängenebene eine Gerade, die fast orthogonal zum Band des Realteils der kohärenten Streulänge verläuft. Vermutlich aufgrund der unzureichenden Kenntnis der Realteile hat in den letzten Jahren keine nennenswerte Weiterentwicklung der Modelle für das System n–3He stattgefunden. Diese Arbeit entstand in der Absicht, durch polarisierte und unpolarisierte Experimente an 3He quantitative Fakten zur Beurteilung konkurrierender Vier-Nukleonen-Modelle zu schaffen und somit der theoretischen Arbeit auf diesem Feld einen neuen Impuls zu geben. Eine jüngst veröffentlichte theoretische Arbeit [H. M. Hofmann und G. M. Hale. Phys. Rev. C, 68(021002(R)): 1–4, Apr. 2003] zur spinabhängigen Streulänge des 3He belegt, dass die im Rahmen dieser Arbeit unternommenen Anstrengungen auf reges Interesse stoßen. Durch die Anwendung zweier sehr unterschiedlicher experimenteller Konzepte wurden Präzisionsmessungen der Realteile der kohärenten und inkohärenten Neutronenstreulänge des 3He durchgeführt. Während sich die Methode der Neutroneninterferometrie seit Ende der 1970er Jahre als Standardverfahren zur Messung von spinunabhängigen Streulängen etabliert hat, handelt es sich bei der Messung des pseudomagnetischen Präzessionswinkels am Spinecho-Spektrometer um ein neues experimentelles Verfahren. Wir erhalten aus den Experimenten für die gebundenen kohärenten und inkohärenten Streulängen neue Werte, welche die Unsicherheiten im Falle der kohärenten Streulänge um eine Größenordnung, im Falle der inkohärenten Streulänge sogar um den Faktor 30 reduzieren. Die Kombination dieser Resultate liefert verbesserte Werte der, für die nukleare Wenigkörper-Theorie wichtigen, Singulett- und Triplett-Streulängen. Wir erhalten neue Werte für die kohärenten und inkohärenten Anteile des gebundenen Streuquerschnitts, das für die Neutronenstreuung an der 3He-Quantenflüssigkeit wichtige Verhältnis von inkohärentem und kohärentem Streuquerschnitt und für den freien totalen Streuquerschnitt.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In the present study, pterosaur skull constructions were analysed using a combined approach of finite element analysis (FEA), static investigations as well as applying classical beam theory and lever mechanics. The study concentrates on the operating regime „bite“, where loads are distributed via the dentition or a keratinous rhamphotheca into the skull during jaw occlusion. As a first step, pterosaur tooth constructions were analysed. The different morphologies of the tooth construction determine specific operational ranges, in which the teeth perform best (= greatest resistance against failure). The incomplete enamel-covering of the pterosaur tooth constructions thereby leads to a reduction of strain and stress and to a greater lateral elasticity than for a complete enamel cover. This permits the development of high and lateral compressed tooth constructions. Further stress-absorption occurs in the periodontal membrane, although its mechanical properties can not be clarified unambiguously. A three-dimensionally preserved skull of Anhanguera was chosen as a case-study for the investigation of the skull constructions. CT-scans were made to get information about the internal architecture, supplemented by thin-sections of a rostrum of a second Anhanguera specimen. These showed that the rostrum can be approximated as a double-walled triangular tube with a large central vacuity and an average wall-thickness of the bony layers of about 1 mm. On base of the CT-scans, a stereolithography of the skull of Anhanguera was made on which the jaw adductor and abductor muscles were modelled, permitting to determine muscular forces. The values were used for the lever mechanics, cantilever and space frame analysis. These studies and the FEA show, that the jaw reaction forces are critical for the stability of the skull construction. The large jugal area ventral to the orbita and the inclined occipital region act as buttresses against these loads. In contrast to the orbitotemporal region which is subject to varying loading conditions, the pattern in the rostrum is less complex. Here, mainly bending in dorsal direction and torsion occur. The hollow rostrum leads to a reduction of weight of the skull and to a high bending and torsional resistance. Similar to the Anhanguera skull construction, the skulls of those pterosaur taxa were analysed, from which enough skull material is know to permit a reliable reconstruction. Furthermore, FEA were made from five selected taxa. The comparison of the biomechanical behaviour of the different skull constructions results in major transformational processes: elongation of rostra, inclination of the occipital region, variation of tooth morphology, reduction of the dentition and replacement of teeth by a keratinous hook or rhamphotheca, fusion of naris and antorbital fenestra, and the development of bony and soft-tissue crests. These processes are discussed for their biomechanical effects during bite. Certain optional operational ranges for feeding are assigned to the different skull constructions and previous hypotheses (e.g. skimming) are verified. Using the principle of economisation, these processes help to establish irreversible transformations and to define possible evolutionary pathways. The resulting constructional levels and the structural variations within these levels are interpreted in light of a greater feeding efficiency and reduction of bony mass combined with an increased stability against the various loads. The biomechanical conclusive pathways are used for comparison and verification of recent hypothesis of the phylogenetic systematics of pterosaurs.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Sowohl in der Natur als auch in der Industrie existieren thermisch induzierte Strömungen. Von Interesse für diese Forschungsarbeit sind dabei die Konvektionen im Erdmantel sowie in den Glasschmelzwannen. Der dort stattfindende Materialtransport resultiert aus Unterschieden in der Dichte, der Temperatur und der chemischen Konzentration innerhalb des konvektierenden Materials. Um das Verständnis für die ablaufenden Prozesse zu verbessern, werden von zahlreichen Forschergruppen numerische Modellierungen durchgeführt. Die Verifikation der dafür verwendeten Algorithmen erfolgt meist über die Analyse von Laborexperimenten. Im Vordergrund dieser Forschungsarbeit steht die Entwicklung einer Methode zur Bestimmung der dreidimensionalen Temperaturverteilung für die Untersuchung von thermisch induzierten Strömungen in einem Versuchsbecken. Eine direkte Temperaturmessung im Inneren des Versuchsmaterials bzw. der Glasschmelze beeinflusst allerdings das Strömungsverhalten. Deshalb wird die geodynamisch störungsfrei arbeitende Impedanztomographie verwendet. Die Grundlage dieser Methode bildet der erweiterte Arrhenius-Zusammenhang zwischen Temperatur und spezifischer elektrischer Leitfähigkeit. Während der Laborexperimente wird ein zähflüssiges Polyethylenglykol-Wasser-Gemisch in einem Becken von unten her erhitzt. Die auf diese Weise generierten Strömungen stellen unter Berücksichtigung der Skalierung ein Analogon sowohl zu dem Erdmantel als auch zu den Schmelzwannen dar. Über mehrere Elektroden, die an den Beckenwänden installiert sind, erfolgen die geoelektrischen Messungen. Nach der sich anschließenden dreidimensionalen Inversion der elektrischen Widerstände liegt das Modell mit der Verteilung der spezifischen elektrischen Leitfähigkeit im Inneren des Versuchsbeckens vor. Diese wird mittels der erweiterten Arrhenius-Formel in eine Temperaturverteilung umgerechnet. Zum Nachweis der Eignung dieser Methode für die nichtinvasive Bestimmung der dreidimensionalen Temperaturverteilung wurden mittels mehrerer Thermoelemente an den Beckenwänden zusätzlich direkte Temperaturmessungen durchgeführt und die Werte miteinander verglichen. Im Wesentlichen sind die Innentemperaturen gut rekonstruierbar, wobei die erreichte Messgenauigkeit von der räumlichen und zeitlichen Auflösung der Gleichstromgeoelektrik abhängt.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Bivalve mollusk shells are useful tools for multi-species and multi-proxy paleoenvironmental reconstructions with a high temporal and spatial resolution. Past environmental conditions can be reconstructed from shell growth and stable oxygen and carbon isotope ratios, which present an archive for temperature, freshwater fluxes and primary productivity. The purpose of this thesis is the reconstruction of Holocene climate and environmental variations in the North Pacific with a high spatial and temporal resolution using marine bivalve shells. This thesis focuses on several different Holocene time periods and multiple regions in the North Pacific, including: Japan, Alaska (AK), British Columbia (BC) and Washington State, which are affected by the monsoon, Pacific Decadal Oscillation (PDO) and El Niño/Southern Oscillation (ENSO). Such high-resolution proxy data from the marine realm of mid- and high-latitudes are still rare. Therefore, this study contributes to the optimization and verification of climate models. However, before using bivalves for environmental reconstructions and seasonality studies, life history traits must be well studied to temporally align and interpret the geochemical record. These calibration studies are essential to ascertain the usefulness of selected bivalve species as paleoclimate proxy archives. This work focuses on two bivalve species, the short-lived Saxidomus gigantea and the long-lived Panopea abrupta. Sclerochronology and oxygen isotope ratios of different shell layers of P. abrupta were studied in order to test the reliability of this species as a climate archive. The annual increments are clearly discernable in umbonal shell portions and the increments widths should be measured in these shell portions. A reliable reconstruction of paleotemperatures may only be achieved by exclusively sampling the outer shell layer of multiple contemporaneous specimens. Life history traits (e.g., timing of growth line formation, duration of the growing season and growth rates) and stable isotope ratios of recent S. gigantea from AK and BC were analyzed in detail. Furthermore, a growth-temperature model based on S. gigantea shells from Alaska was established, which provides a better understanding of the hydrological changes related to the Alaska Coastal Current (ACC). This approach allows the independent measurement of water temperature and salinity from variations in the width of lunar daily growth increments of S. gigantea. Temperature explains 70% of the variability in shell growth. The model was calibrated and tested with modern shells and then applied to archaeological specimens. The time period between 988 and 1447 cal yrs BP was characterized by colder (~1-2°C) and much drier (2-5 PSU) summers, and a likely much slower flowing ACC than at present. In contrast, the summers during the time interval of 599-1014 cal yrs BP were colder (up to 3°C) and fresher (1-2 PSU) than today. The Aleutian Low may have been stronger and the ACC was probably flowing faster during this time.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In technical design processes in the automotive industry, digital prototypes rapidly gain importance, because they allow for a detection of design errors in early development stages. The technical design process includes the computation of swept volumes for maintainability analysis and clearance checks. The swept volume is very useful, for example, to identify problem areas where a safety distance might not be kept. With the explicit construction of the swept volume an engineer gets evidence on how the shape of components that come too close have to be modified.rnIn this thesis a concept for the approximation of the outer boundary of a swept volume is developed. For safety reasons, it is essential that the approximation is conservative, i.e., that the swept volume is completely enclosed by the approximation. On the other hand, one wishes to approximate the swept volume as precisely as possible. In this work, we will show, that the one-sided Hausdorff distance is the adequate measure for the error of the approximation, when the intended usage is clearance checks, continuous collision detection and maintainability analysis in CAD. We present two implementations that apply the concept and generate a manifold triangle mesh that approximates the outer boundary of a swept volume. Both algorithms are two-phased: a sweeping phase which generates a conservative voxelization of the swept volume, and the actual mesh generation which is based on restricted Delaunay refinement. This approach ensures a high precision of the approximation while respecting conservativeness.rnThe benchmarks for our test are amongst others real world scenarios that come from the automotive industry.rnFurther, we introduce a method to relate parts of an already computed swept volume boundary to those triangles of the generator, that come closest during the sweep. We use this to verify as well as to colorize meshes resulting from our implementations.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Mineral dust is an important component of the Earth's climate system and provides essential nutrientsrnto oceans and rain forests. During atmospheric transport, dust particles directly and indirectly influencernweather and climate. The strength of dust sources and characteristics of the transport, in turn, mightrnbe subject to climatic changes. Earth system models help for a better understanding of these complexrnmechanisms.rnrnThis thesis applies the global climate model ECHAM5/MESSy Atmospheric Chemistry (EMAC) for simulationsrnof the mineral dust cycle under different climatic conditions. The prerequisite for suitable modelrnresults is the determination of the model setup reproducing the most realistic dust cycle in the recentrnclimate. Simulations with this setup are used to gain new insights into properties of the transatlanticrndust transport from Africa to the Americas and adaptations of the model's climate forcing factors allowrnfor investigations of the impact of climatic changes on the dust cycle.rnrnIn the first part, the most appropriate model setup is determined through a number of sensitivity experiments.rnIt uses the dust emission parametrisation from Tegen et al. 2002 and a spectral resolutionrnof T85, corresponding to a horizontal grid spacing of about 155 km. Coarser resolutions are not able tornaccurately reproduce emissions from important source regions such as the Bodele Depression in Chad orrnthe Taklamakan Desert in Central Asia. Furthermore, the representation of ageing and wet deposition ofrndust particles in the model requires a basic sulphur chemical mechanism. This setup is recommended forrnfuture simulations with EMAC focusing on mineral dust.rnrnOne major branch of the global dust cycle is the long-range transport from the world's largest dustrnsource, the Sahara, across the Atlantic Ocean. Seasonal variations of the main transport pathways to thernAmazon Basin in boreal winter and to the Caribbean during summer are well known and understood,rnand corroborated in this thesis. Both Eulerian and Lagrangian methods give estimates on the typicalrntransport times from the source regions to the deposition on the order of nine to ten days. Previously, arnhuge proportion of the dust transported across the Atlantic Ocean has been attributed to emissions fromrnthe Bodele Depression. However, the contribution of this hot spot to the total transport is very low inrnthe present results, although the overall emissions from this region are comparable. Both model resultsrnand data sets analysed earlier, such as satellite products, involve uncertainties and this controversy aboutrndust transport from the Bodele Depression calls for future investigations and clarification.rnrnAforementioned characteristics of the transatlantic dust transport just slightly change in simulationsrnrepresenting climatic conditions of the Little Ice Age in the middle of the last millennium with meanrnnear-surface cooling of 0.5 to 1 K. However, intensification of the West African summer monsoon duringrnthe Little Ice Age is associated with higher dust emissions from North African source regions and wetterrnconditions in the Sahel. Furthermore, the Indian Monsoon and dust emissions from the Arabian Peninsula,rnwhich are affected by this circulation, are intensified during the Little Ice Age, whereas the annual globalrndust budget is similar in both climate epochs. Simulated dust emission fluxes are particularly influencedrnby the surface parameters. Modifications of the model do not affect those in this thesis, to be able tornascribe all differences in the results to changed forcing factors, such as greenhouse gas concentrations.rnDue to meagre comparison data sets, the verification of results presented here is problematic. Deeperrnknowledge about the dust cycle during the Little Ice Age can be obtained by future simulations, based onrnthis work, and additionally using improved reconstructions of surface parameters. Better evaluation ofrnsuch simulations would be possible by refining the temporal resolution of reconstructed dust depositionrnfluxes from existing ice and marine sediment cores.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Deutsche Unternehmen sehen sich vermehrt der Bedrohung durch Produktpiraterie ausgesetzt. Die Logistik als klassische Querschnittsfunktion kann einen wirkungsvollen Beitrag bei der Bekämpfung der Angriffe von Produktpiraten in der Wertschöpfungskette liefern. Als schlagkräftigste Waffe gegen die Produktpiraterie ergibt sich dabei die Informationslogistik. Durch das Kontrollieren und Verifizieren der Produkte in allen Wertschöpfungs- und Logistikstufen kann das Aufdecken und Verfolgen von Piraterieware gelingen. Hierzu ist ein gezielter Einsatz von kombinierten Erkennungs- und IT-Systemen notwendig. Innovative Authentifizierungssysteme mit RFID-Unterstützung und eine schlagkräftige Umsetzung können Originalprodukte von Plagiaten gesichert unterscheiden und immense Schäden durch Umsatzverluste verhindern.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

PURPOSE The range of patient setup errors in six dimensions detected in clinical routine for cranial as well as for extracranial treatments, were analyzed while performing linear accelerator based stereotactic treatments with frameless patient setup systems. Additionally, the need for re-verification of the patient setup for situations where couch rotations are involved was analyzed for patients treated in the cranial region. METHODS AND MATERIALS A total of 2185 initial (i.e. after pre-positioning the patient with the infrared system but before image guidance) patient setup errors (1705 in the cranial and 480 in the extracranial region) obtained by using ExacTrac (BrainLAB AG, Feldkirchen, Germany) were analyzed. Additionally, the patient setup errors as a function of the couch rotation angle were obtained by analyzing 242 setup errors in the cranial region. Before the couch was rotated, the patient setup error was corrected at couch rotation angle 0° with the aid of image guidance and the six degrees of freedom (6DoF) couch. For both situations attainment rates for two different tolerances (tolerance A: ± 0.5mm, ± 0.5°; tolerance B: ± 1.0 mm, ± 1.0°) were calculated. RESULTS The mean (± one standard deviation) initial patient setup errors for the cranial cases were -0.24 ± 1.21°, -0.23 ± 0.91° and -0.03 ± 1.07° for the pitch, roll and couch rotation axes and 0.10 ± 1.17 mm, 0.10 ± 1.62 mm and 0.11 ± 1.29 mm for the lateral, longitudinal and vertical axes, respectively. Attainment rate (all six axes simultaneously) for tolerance A was 0.6% and 13.1% for tolerance B, respectively. For the extracranial cases the corresponding values were -0.21 ± 0.95°, -0.05 ± 1.08° and -0.14 ± 1.02° for the pitch, roll and couch rotation axes and 0.15 ± 1.77 mm, 0.62 ± 1.94 mm and -0.40 ± 2.15 mm for the lateral, longitudinal and vertical axes. Attainment rate (all six axes simultaneously) for tolerance A was 0.0% and 3.1% for tolerance B, respectively. After initial setup correction and rotation of the couch to treatment position a re-correction has to be performed in 77.4% of all cases to fulfill tolerance A and in 15.6% of all cases to fulfill tolerance B. CONCLUSION The analysis of the data shows that all six axes of a 6DoF couch are used extensively for patient setup in clinical routine. In order to fulfill high patient setup accuracies (e.g. for stereotactic treatments), a 6DoF couch is recommended. Moreover, re-verification of the patient setup after rotating the couch is required in clinical routine.