984 resultados para Prozesskette, hierarchisches Modell, Kosten, Kostenbetrachtung,
Resumo:
Die Verifikation numerischer Modelle ist für die Verbesserung der Quantitativen Niederschlagsvorhersage (QNV) unverzichtbar. Ziel der vorliegenden Arbeit ist die Entwicklung von neuen Methoden zur Verifikation der Niederschlagsvorhersagen aus dem regionalen Modell der MeteoSchweiz (COSMO-aLMo) und des Globalmodells des Europäischen Zentrums für Mittelfristvorhersage (engl.: ECMWF). Zu diesem Zweck wurde ein neuartiger Beobachtungsdatensatz für Deutschland mit stündlicher Auflösung erzeugt und angewandt. Für die Bewertung der Modellvorhersagen wurde das neue Qualitätsmaß „SAL“ entwickelt. Der neuartige, zeitlich und räumlich hoch-aufgelöste Beobachtungsdatensatz für Deutschland wird mit der während MAP (engl.: Mesoscale Alpine Program) entwickelten Disaggregierungsmethode erstellt. Die Idee dabei ist, die zeitlich hohe Auflösung der Radardaten (stündlich) mit der Genauigkeit der Niederschlagsmenge aus Stationsmessungen (im Rahmen der Messfehler) zu kombinieren. Dieser disaggregierte Datensatz bietet neue Möglichkeiten für die quantitative Verifikation der Niederschlagsvorhersage. Erstmalig wurde eine flächendeckende Analyse des Tagesgangs des Niederschlags durchgeführt. Dabei zeigte sich, dass im Winter kein Tagesgang existiert und dies vom COSMO-aLMo gut wiedergegeben wird. Im Sommer dagegen findet sich sowohl im disaggregierten Datensatz als auch im COSMO-aLMo ein deutlicher Tagesgang, wobei der maximale Niederschlag im COSMO-aLMo zu früh zwischen 11-14 UTC im Vergleich zu 15-20 UTC in den Beobachtungen einsetzt und deutlich um das 1.5-fache überschätzt wird. Ein neues Qualitätsmaß wurde entwickelt, da herkömmliche, gitterpunkt-basierte Fehlermaße nicht mehr der Modellentwicklung Rechnung tragen. SAL besteht aus drei unabhängigen Komponenten und basiert auf der Identifikation von Niederschlagsobjekten (schwellwertabhängig) innerhalb eines Gebietes (z.B. eines Flusseinzugsgebietes). Berechnet werden Unterschiede der Niederschlagsfelder zwischen Modell und Beobachtungen hinsichtlich Struktur (S), Amplitude (A) und Ort (L) im Gebiet. SAL wurde anhand idealisierter und realer Beispiele ausführlich getestet. SAL erkennt und bestätigt bekannte Modelldefizite wie das Tagesgang-Problem oder die Simulation zu vieler relativ schwacher Niederschlagsereignisse. Es bietet zusätzlichen Einblick in die Charakteristiken der Fehler, z.B. ob es sich mehr um Fehler in der Amplitude, der Verschiebung eines Niederschlagsfeldes oder der Struktur (z.B. stratiform oder kleinskalig konvektiv) handelt. Mit SAL wurden Tages- und Stundensummen des COSMO-aLMo und des ECMWF-Modells verifiziert. SAL zeigt im statistischen Sinne speziell für stärkere (und damit für die Gesellschaft relevante Niederschlagsereignisse) eine im Vergleich zu schwachen Niederschlägen gute Qualität der Vorhersagen des COSMO-aLMo. Im Vergleich der beiden Modelle konnte gezeigt werden, dass im Globalmodell flächigere Niederschläge und damit größere Objekte vorhergesagt werden. Das COSMO-aLMo zeigt deutlich realistischere Niederschlagsstrukturen. Diese Tatsache ist aufgrund der Auflösung der Modelle nicht überraschend, konnte allerdings nicht mit herkömmlichen Fehlermaßen gezeigt werden. Die im Rahmen dieser Arbeit entwickelten Methoden sind sehr nützlich für die Verifikation der QNV zeitlich und räumlich hoch-aufgelöster Modelle. Die Verwendung des disaggregierten Datensatzes aus Beobachtungen sowie SAL als Qualitätsmaß liefern neue Einblicke in die QNV und lassen angemessenere Aussagen über die Qualität von Niederschlagsvorhersagen zu. Zukünftige Anwendungsmöglichkeiten für SAL gibt es hinsichtlich der Verifikation der neuen Generation von numerischen Wettervorhersagemodellen, die den Lebenszyklus hochreichender konvektiver Zellen explizit simulieren.
Resumo:
In der hier vorliegenden Arbeit wurde am Beispiel der Kraut- und Knollenfäule an Kartoffeln Phytophthora infestans und des Kartoffelkäfers Leptinotarsa decemlineata untersucht, ob durch den Einsatz von Geographischen Informationssystemen (GIS) landwirtschaftliche Schader¬reger¬prognosen für jeden beliebigen Kartoffelschlag in Deutschland erstellt werden können. Um dieses Ziel zu erreichen, wurden die Eingangsparameter (Temperatur und relative Luftfeuchte) der Prognosemodelle für die beiden Schaderreger (SIMLEP1, SIMPHYT1, SIMPHYT3 and SIMBLIGHT1) so aufbereitet, dass Wetterdaten flächendeckend für Deutschland zur Verfügung standen. Bevor jedoch interpoliert werden konnte, wurde eine Regionalisierung von Deutschland in Interpolationszonen durchgeführt und somit Naturräume geschaffen, die einen Vergleich und eine Bewertung der in ihnen liegenden Wetterstationen zulassen. Hierzu wurden die Boden-Klima-Regionen von SCHULZKE und KAULE (2000) modifiziert, an das Wetterstationsnetz angepasst und mit 5 bis 10 km breiten Pufferzonen an der Grenze der Interpolationszonen versehen, um die Wetterstationen so häufig wie möglich verwenden zu können. Für die Interpolation der Wetterdaten wurde das Verfahren der multiplen Regression gewählt, weil dieses im Vergleich zu anderen Verfahren die geringsten Abweichungen zwischen interpolierten und gemessenen Daten aufwies und den technischen Anforderungen am besten entsprach. Für 99 % aller Werte konnten bei der Temperaturberechnung Abweichungen in einem Bereich zwischen -2,5 und 2,5 °C erzielt werden. Bei der Berechnung der relativen Luftfeuchte wurden Abweichungen zwischen -12 und 10 % relativer Luftfeuchte erreicht. Die Mittelwerte der Abweichungen lagen bei der Temperatur bei 0,1 °C und bei der relativen Luftfeuchte bei -1,8 %. Zur Überprüfung der Trefferquoten der Modelle beim Betrieb mit interpolierten Wetterdaten wurden Felderhebungsdaten aus den Jahren 2000 bis 2007 zum Erstauftreten der Kraut- und Knollenfäule sowie des Kartoffelkäfers verwendet. Dabei konnten mit interpolierten Wetterdaten die gleichen und auch höhere Trefferquoten erreicht werden, als mit der bisherigen Berechnungsmethode. Beispielsweise erzielte die Berechnung des Erstauftretens von P. infestans durch das Modell SIMBLIGHT1 mit interpolierten Wetterdaten im Schnitt drei Tage geringere Abweichungen im Vergleich zu den Berechnungen ohne GIS. Um die Auswirkungen interpretieren zu können, die durch Abweichungen der Temperatur und der relativen Luftfeuchte entstanden wurde zusätzlich eine Sensitivitätsanalyse zur Temperatur und relativen Luftfeuchte der verwendeten Prognosemodelle durchgeführt. Die Temperatur hatte bei allen Modellen nur einen geringen Einfluss auf das Prognoseergebnis. Veränderungen der relativen Luftfeuchte haben sich dagegen deutlich stärker ausgewirkt. So lag bei SIMBLIGHT1 die Abweichung durch eine stündliche Veränderung der relativen Luftfeuchte (± 6 %) bei maximal 27 Tagen, wogegen stündliche Veränderungen der Temperatur (± 2 °C) eine Abweichung von maximal 10 Tagen ausmachten. Die Ergebnisse dieser Arbeit zeigen, dass durch die Verwendung von GIS mindestens die gleichen und auch höhere Trefferquoten bei Schaderregerprognosen erzielt werden als mit der bisherigen Verwendung von Daten einer nahegelegenen Wetterstation. Die Ergebnisse stellen einen wesentlichen Fortschritt für die landwirtschaftlichen Schaderregerprognosen dar. Erstmals ist es möglich, bundesweite Prognosen für jeden beliebigen Kartoffelschlag zur Bekämpfung von Schädlingen in der Landwirtschaft bereit zu stellen.
Resumo:
Therapeutisches Drug Monitoring (TDM) ist eine Maßnahme, bei der durch Messung der Medikamentenspiegel im Blut die Dosis ermittelt wird, bei der mit höchster Wahrscheinlichkeit mit Therapieansprechen gerechnet werden kann. Dabei wird angenommen, dass die Konzentrationen im Blut mit denen im Wirkkompartiment korrelieren. Für Antipsychotika wurde gezeigt, dass die Konzentrationen im Blut direkt mit denen im Gehirn korrelieren, die Verteilung zwischen den beiden Kompartimenten ist jedoch für die verschiedenen Antipsychotika sehr unterschiedlich. Die Distribution von Arzneistoffen zwischen Blut und Gehirn wird durch Effluxtransporter in der Blut-Hirn-Schranke kontrolliert. Welche Rolle dabei P-Glykoprotein (P-gp) für die Verteilung von atypischen Antipsychotika spielt und wie die Pharmakokinetik und –dynamik durch diesen Transporter beeinflusst werden, sollte in dieser Arbeit untersucht werden. Für die Messung des neu eingeführten Antipsychotikums Aripiprazol, sowie für seinen aktiven Metaboliten Dehydroaripiprazol, wurde eine hochleistungsflüssigchromatographische (HPLC) Methode mit Säulenschaltung und spektrophotometrischer Detektion etabliert. Die Methode wurde für die Messung von Serumproben schizophrener Patienten eingesetzt, um einen therapeutischen Bereich für Aripiprazol zu ermitteln. Aus der Analyse von 523 Patientenproben wurde herausgefunden, dass Aripiprazol-Serumkonzentrationen von 150 bis 300 ng/ml mit gutem klinischen Ansprechen und einem geringen Risiko für Nebenwirkungen einhergingen. Weiterhin wurde festgestellt, dass die Serumspiegel bei gleichzeitiger Gabe von Inhibitoren und Induktoren der Cytochrom P450 (CYP) Isoenzyme CYP2D6 und CYP3A4 erhöht bzw. gesenkt wurden. Am Modell der P-gp Knockout Maus im Vergleich zu FVB Wildtyp Mäusen wurden Konzentrationsverläufe von Antipsychotika nach i.p. Gabe von Amisulprid, Aripiprazol, Dehydroaripiprazol, Clozapin, Desmethylclozapin, Haloperidol, Olanzapin, Quetiapin, Risperidon und 9-Hydroxyrisperidon sowie der Kontrollsubstanz Domperidon im Gehirn und Blut über 24 Stunden mittels HPLC-Methoden gemessen. Welchen Einfluss eine verminderte Expression von P-gp auf die Pharmakodynamik hat, wurde in zwei Verhaltenstests untersucht. Mit Hilfe des Rotarods wurden motorische Effekte der Arzneistoffe erfasst und mittels Radial Arm Water Maze kognitive Fähigkeiten. Risperidon und sein aktiver Metabolit 9-Hydroxyrisperidon waren die stärksten Substrate von P-gp. 10-fach höhere Konzentrationen im Gehirn der P-gp Knockout Mäuse führten zu 10-fach stärkeren Beeinträchtigungen in den pharmakodynamischen Untersuchungen im Vergleich zu Wildtyp Tieren. Amisulprid, Aripiprazol, Dehydroaripiprazol, Desmethylclozapin und Quetiapin konnten ebenfalls als Substrate von P-gp identifiziert werden. Olanzapin, Haloperidol und Clozapin wurden durch P-gp wenig bzw. nicht in ihrer Pharmakokinetik und –dynamik beeinflusst. Da P-gp von Nagern und Menschen nach derzeitiger Kenntnis in ihren Substrateigenschaften weitgehend übereinstimmen, muss bei einer Behandlung von schizophrenen Patienten mit Antipsychotika, die als Substrate von P-gp identifiziert wurden, davon ausgegangen werden, dass eine Veränderung der Expression oder Aktivität von P-gp, genetisch verursacht oder durch Medikamente bedingt, für das Therapieansprechen oder das Auftreten von Nebenwirkungen bedeutsam sind.
Resumo:
In this thesis a mathematical model was derived that describes the charge and energy transport in semiconductor devices like transistors. Moreover, numerical simulations of these physical processes are performed. In order to accomplish this, methods of theoretical physics, functional analysis, numerical mathematics and computer programming are applied. After an introduction to the status quo of semiconductor device simulation methods and a brief review of historical facts up to now, the attention is shifted to the construction of a model, which serves as the basis of the subsequent derivations in the thesis. Thereby the starting point is an important equation of the theory of dilute gases. From this equation the model equations are derived and specified by means of a series expansion method. This is done in a multi-stage derivation process, which is mainly taken from a scientific paper and which does not constitute the focus of this thesis. In the following phase we specify the mathematical setting and make precise the model assumptions. Thereby we make use of methods of functional analysis. Since the equations we deal with are coupled, we are concerned with a nonstandard problem. In contrary, the theory of scalar elliptic equations is established meanwhile. Subsequently, we are preoccupied with the numerical discretization of the equations. A special finite-element method is used for the discretization. This special approach has to be done in order to make the numerical results appropriate for practical application. By a series of transformations from the discrete model we derive a system of algebraic equations that are eligible for numerical evaluation. Using self-made computer programs we solve the equations to get approximate solutions. These programs are based on new and specialized iteration procedures that are developed and thoroughly tested within the frame of this research work. Due to their importance and their novel status, they are explained and demonstrated in detail. We compare these new iterations with a standard method that is complemented by a feature to fit in the current context. A further innovation is the computation of solutions in three-dimensional domains, which are still rare. Special attention is paid to applicability of the 3D simulation tools. The programs are designed to have justifiable working complexity. The simulation results of some models of contemporary semiconductor devices are shown and detailed comments on the results are given. Eventually, we make a prospect on future development and enhancements of the models and of the algorithms that we used.
Resumo:
Bei der amyotrophen Lateralsklerose 1 (ALS1) handelt es sich um eine altersabhängige Motoneuronenerkrankung, die durch Mutationen im Gen der Cu/Zn-Superoxid Dismutase (hSOD1mut) ausgelöst wird. Die toxischen Eigen¬schaften von hSOD1mut (z. B. Aggregations- oder oxidative Stress-Hypothese) und der Einfluss wildtypischer hSOD1 (hSOD1WT) auf den Krankheitsverlauf sind weithin ungeklärt. Das Ziel dieser Arbeit war es, die Auswirkungen von hSOD1mut-hSOD1WT-Heterodimeren im Vergleich zu mutanten Homodimeren auf die Pathogenese der ALS1 zu untersuchen. Nachdem gezeigt werden konnte, dass es in humanen Zellen in der Tat zu einer Bil¬dung hetero- und homodimerer mutanter hSOD1-Spezies kommt, wurden Dimerfusionsproteine aus zwei hSOD1-Monomeren generiert, die durch einen flexiblen Peptidlinker verbunden und C-terminal mit eGFP markiert waren. Neben hSOD1WT-WT wurden hSOD1mut-mut- und hSOD1mut-WT-Dimere mit vier verschiedenen hSOD1-Mu¬tanten untersucht. Die biochemische Charakterisierung zeigte, dass alle Dimere, die wildtyp-ähnliche hSOD1mut enthielten, eine Dismutaseaktivität aufwiesen. Im Gegensatz dazu war das Homodimer aus zwei metalldefizienten hSOD1G85R inaktiv, wobei interessanterweise hSOD1G85R mit hSOD1WT ein Dismutase-aktives Dimer bilden konnte. Sowohl in Zellkultursystemen als auch in einem C. elegans-Modell bildeten alle mutanten Homodimere vermehrt Aggregate im Vergleich zu den dazugehörigen Heterodimeren. Dieses Aggregationsverhalten korrelierte aber nicht mit der Toxizität der Dimerproteine in Überlebensassays und einer C. elegans Bewe¬gungs¬analyse. In diesen funktionellen Studien assoziierte die Toxizität der dimeren Fusionsproteine mit der enzy¬matischen Aktivität. In Übereinstimmung mit diesen Ergebnissen konnte gezeigt werden, dass hSOD1WT nicht in hSOD1mut-abhängigen Aggregaten vorkommt. Die Ergebnisse dieser Studie sprechen gegen die Aggregation als primäre toxische Eigen¬schaft der hSOD1mut und unterstützen die oxidative Stress-Hypothese. Dis¬mutase-inaktive hSOD1mut können eine untypische Enzymaktivität durch die Heterodimerisierung mit hSODWT erlangen, die auf diese Weise maßgeblich an der Pathogenese der ALS1 beteiligt sein könnte.
Resumo:
Die Arbeit behandelt das Problem der Skalierbarkeit von Reinforcement Lernen auf hochdimensionale und komplexe Aufgabenstellungen. Unter Reinforcement Lernen versteht man dabei eine auf approximativem Dynamischen Programmieren basierende Klasse von Lernverfahren, die speziell Anwendung in der Künstlichen Intelligenz findet und zur autonomen Steuerung simulierter Agenten oder realer Hardwareroboter in dynamischen und unwägbaren Umwelten genutzt werden kann. Dazu wird mittels Regression aus Stichproben eine Funktion bestimmt, die die Lösung einer "Optimalitätsgleichung" (Bellman) ist und aus der sich näherungsweise optimale Entscheidungen ableiten lassen. Eine große Hürde stellt dabei die Dimensionalität des Zustandsraums dar, die häufig hoch und daher traditionellen gitterbasierten Approximationsverfahren wenig zugänglich ist. Das Ziel dieser Arbeit ist es, Reinforcement Lernen durch nichtparametrisierte Funktionsapproximation (genauer, Regularisierungsnetze) auf -- im Prinzip beliebig -- hochdimensionale Probleme anwendbar zu machen. Regularisierungsnetze sind eine Verallgemeinerung von gewöhnlichen Basisfunktionsnetzen, die die gesuchte Lösung durch die Daten parametrisieren, wodurch die explizite Wahl von Knoten/Basisfunktionen entfällt und so bei hochdimensionalen Eingaben der "Fluch der Dimension" umgangen werden kann. Gleichzeitig sind Regularisierungsnetze aber auch lineare Approximatoren, die technisch einfach handhabbar sind und für die die bestehenden Konvergenzaussagen von Reinforcement Lernen Gültigkeit behalten (anders als etwa bei Feed-Forward Neuronalen Netzen). Allen diesen theoretischen Vorteilen gegenüber steht allerdings ein sehr praktisches Problem: der Rechenaufwand bei der Verwendung von Regularisierungsnetzen skaliert von Natur aus wie O(n**3), wobei n die Anzahl der Daten ist. Das ist besonders deswegen problematisch, weil bei Reinforcement Lernen der Lernprozeß online erfolgt -- die Stichproben werden von einem Agenten/Roboter erzeugt, während er mit der Umwelt interagiert. Anpassungen an der Lösung müssen daher sofort und mit wenig Rechenaufwand vorgenommen werden. Der Beitrag dieser Arbeit gliedert sich daher in zwei Teile: Im ersten Teil der Arbeit formulieren wir für Regularisierungsnetze einen effizienten Lernalgorithmus zum Lösen allgemeiner Regressionsaufgaben, der speziell auf die Anforderungen von Online-Lernen zugeschnitten ist. Unser Ansatz basiert auf der Vorgehensweise von Recursive Least-Squares, kann aber mit konstantem Zeitaufwand nicht nur neue Daten sondern auch neue Basisfunktionen in das bestehende Modell einfügen. Ermöglicht wird das durch die "Subset of Regressors" Approximation, wodurch der Kern durch eine stark reduzierte Auswahl von Trainingsdaten approximiert wird, und einer gierigen Auswahlwahlprozedur, die diese Basiselemente direkt aus dem Datenstrom zur Laufzeit selektiert. Im zweiten Teil übertragen wir diesen Algorithmus auf approximative Politik-Evaluation mittels Least-Squares basiertem Temporal-Difference Lernen, und integrieren diesen Baustein in ein Gesamtsystem zum autonomen Lernen von optimalem Verhalten. Insgesamt entwickeln wir ein in hohem Maße dateneffizientes Verfahren, das insbesondere für Lernprobleme aus der Robotik mit kontinuierlichen und hochdimensionalen Zustandsräumen sowie stochastischen Zustandsübergängen geeignet ist. Dabei sind wir nicht auf ein Modell der Umwelt angewiesen, arbeiten weitestgehend unabhängig von der Dimension des Zustandsraums, erzielen Konvergenz bereits mit relativ wenigen Agent-Umwelt Interaktionen, und können dank des effizienten Online-Algorithmus auch im Kontext zeitkritischer Echtzeitanwendungen operieren. Wir demonstrieren die Leistungsfähigkeit unseres Ansatzes anhand von zwei realistischen und komplexen Anwendungsbeispielen: dem Problem RoboCup-Keepaway, sowie der Steuerung eines (simulierten) Oktopus-Tentakels.
Resumo:
Major depression belongs to the most serious and widespread psychiatric disorders in today’s society. There is a great need for the delineation of the underlying molecular mechanisms as well as for the identification of novel targets for its treatment. In this thesis, transgenic mice of the endocannabinoid and the corticotropin-releasing hormone (CRH) system were investigated to determine the putative role of these systems for depression-like phenotypes in mice. In the first part of the thesis, we found that the endocannabinoid system was prominently involved in a brain region-specific and temporally controlled manner in acute as well as in chronic stress processing. Genetic deletion in combination with pharmacological intervention revealed the importance of a fully functional endocannabinoid system for efficient neuroendocrine and behavioral stress coping. Accordingly, cannabinoid type 1 (CB1) receptor-deficient mice displayed several depression-like symptoms and molecular alterations, including “behavioral despair”, stress hormone hypersecretion and decreased glucocorticoid receptor and brain-derived neurotrophic factor expression in the hippocampus. However, the endocannabinoid system was dispensable for the efficacy of currently used antidepressant drugs. To facilitate future endocannabinoid research, a transgenic mouse was generated, which overexpressed the CB1 receptor protein fused to a fluorescent protein. In the second part of the thesis, conditional brain region-specific CRH overexpressing mice were evaluated as a model for pathological chronic CRH hyperactivation. Mutant mice showed aberrant neuroendocrine and behavioral stress coping and hyperarousal due to CRH-induced activation of the noradrenergic system in the brain. Mutant mice appeared to share similarities with naturally occurring endogenous CRH activation in wild-type mice and were sensitive to acute pharmacological blockade of CRH receptor type 1 (CRH-R1). Thus, CRH overexpressing mice serve as an ideal in vivo tool to evaluate the efficacy of novel CRH-R1 antagonists. Together, these findings highlight the potential of transgenic mice for the understanding of certain endo-phenotypes (isolated symptoms) of depression and their molecular correlates.
Resumo:
In this work the numerical coupling of thermal and electric network models with model equations for optoelectronic semiconductor devices is presented. Modified nodal analysis (MNA) is applied to model electric networks. Thermal effects are modeled by an accompanying thermal network. Semiconductor devices are modeled by the energy-transport model, that allows for thermal effects. The energy-transport model is expandend to a model for optoelectronic semiconductor devices. The temperature of the crystal lattice of the semiconductor devices is modeled by the heat flow eqaution. The corresponding heat source term is derived under thermodynamical and phenomenological considerations of energy fluxes. The energy-transport model is coupled directly into the network equations and the heat flow equation for the lattice temperature is coupled directly into the accompanying thermal network. The coupled thermal-electric network-device model results in a system of partial differential-algebraic equations (PDAE). Numerical examples are presented for the coupling of network- and one-dimensional semiconductor equations. Hybridized mixed finite elements are applied for the space discretization of the semiconductor equations. Backward difference formluas are applied for time discretization. Thus, positivity of charge carrier densities and continuity of the current density is guaranteed even for the coupled model.
Resumo:
This thesis is mainly concerned with a model calculation for generalized parton distributions (GPDs). We calculate vectorial- and axial GPDs for the N N and N Delta transition in the framework of a light front quark model. This requires the elaboration of a connection between transition amplitudes and GPDs. We provide the first quark model calculations for N Delta GPDs. The examination of transition amplitudes leads to various model independent consistency relations. These relations are not exactly obeyed by our model calculation since the use of the impulse approximation in the light front quark model leads to a violation of Poincare covariance. We explore the impact of this covariance breaking on the GPDs and form factors which we determine in our model calculation and find large effects. The reference frame dependence of our results which originates from the breaking of Poincare covariance can be eliminated by introducing spurious covariants. We extend this formalism in order to obtain frame independent results from our transition amplitudes.
Resumo:
In this thesis foliation boudinage and related structures have been studied based on field observations and numerical modeling. Foliation boudinage occurs in foliated rocks independent of lithology contrast. The developing structures are called ‘Foliation boudinage structures (FBSs)’ and show evidence for both ductile and brittle deformation. They are recognized in rocks by perturbations in monotonous foliation adjacent to a central discontinuity, mostly filled with vein material. Foliation boudinage structures have been studied in the Çine Massif in SW-Turkey and the Furka Pass-Urseren Zone in central Switzerland. Four common types have been distinguished in the field, named after vein geometries in their boudin necks in sections normal to the boudin axis: lozenge-, crescent-, X- and double crescent- type FBSs. Lozengetype FBSs are symmetric and characterized by lozenge-shaped veins in their boudin neck with two cusps facing opposite sides. A symmetrical pair of flanking folds occurs on the two sides of the vein. Crescent-type FBSs are asymmetric with a single smoothly curved vein in the boudin neck, with vein contacts facing to one side. X- and double crescent- type FBSs are asymmetric. The geometry of the neck veins resembles that of cuspate-lobate structures. The geometry of flanking structures is related to the shape of the veins. The veins are mostly filled with massive quartz in large single crystals, commonly associated with tourmaline, feldspar and biotite and in some cases with chlorite. The dominance of large facetted single quartz crystals and spherulitic chlorite in the veins suggest that the minerals grew into open fluidfilled space. FLAC experiments show that fracture propagation during ductile deformation strongly influences the geometry of developing veins. The cusps of the veins are better developed in the case of propagating fractures. The shape of the boudin neck veins in foliation boudinage depends on the initial orientation and shape of the fracture, the propagation behaviour of the fracture, the geometry of bulk flow, and the stage at which mineral filling takes place. A two dimensional discrete element model was used to study the progressive development of foliation boudinage structures and the behavior of visco-elastic material deformed under pure shear conditions. Discrete elements are defined by particles that are connected by visco-elastic springs. Springs can break. A number of simulations was Abstract vii performed to investigate the effect of material properties (Young’s modulus, viscosity and breaking strength) and anisotropy on the developing structures. The models show the development of boudinage in single layers, multilayers and in anisotropic materials with random mica distribution. During progressive deformation different types of fractures develop from mode I, mode II to the combination of both. Voids develop along extension fractures, at intersections of conjugate shear fractures and in small pull-apart structures along shear fractures. These patterns look similar to the natural examples. Fractures are more localized in the models where the elastic constants are low and the competence contrast is high between the layers. They propagate through layers where the constants are high and the competence contrast is relatively low. Flow localize around these fractures and voids. The patterns similar to symmetric boudinage structures and extensional neck veins (e.g. lozenge type) more commonly develop in the models with lower elastic constants and anisotropy. The patterns similar to asymmetric foliation boudinage structures (e.g. X-type) develop associated with shear fractures in the models where elastic constants and anisotropy of the materials are relatively high. In these models boudin neck veins form commonly at pull-aparts along the shear fractures and at the intersection of fractures.
Resumo:
Der Autor untersucht die Strategien und Konzepte des Göttinger Kulturwissenschaftlers Edmund Ballhaus, der mit seiner Filmarbeit die Entwicklung des wissenschaftlichen Films seit Mitte der achtziger Jahre maßgeblich beeinflußte. Detaillierte Analysen seiner ersten zwölf, in den Jahren 1986 bis 1996 entstandenen Filme verdeutlichen seine Abkehr von überholten inhaltlichen und methodischen Standards und die Entwicklung eines eigenständigen Typus des kulturwissenschaftlichen Films. Dieser rückt den Menschen in den Mittelpunkt der Betrachtung und erteilt den Gefilmten selbst das Wort. Damit wurde sowohl dem klassischen Erklärdokumentarismus des Fernsehens als auch dem distanzierten Dokumentationsstil des Instituts für den Wissenschaftlichen Film (IWF) ein neues Modell gegenübergestellt. Darüber hinaus löste sich Edmund Ballhaus von der traditionellen Arbeitsteilung in Hinblick auf Recherche, Konzeption und Umsetzung und ersetzte sie durch den selbstfilmenden Wissenschaftler, der für alle Arbeitsschritte einer Filmproduktion allein verantwortlich ist. Seine bereits 1987 veröffentlichten Forderungen verwirklichte er nicht nur in seinen Filmen, sondern auch mit der Gründung der Gesellschaft für den kulturwissenschaftlichen Film (GfkF) und der Einrichtung eines Studienganges Visuelle Anthropologie in Göttingen. In die Untersuchung einbezogen wurde eine im Anhang des Buches wiedergegebene Befragung des Filmautors, welche die Analyse um interessante Details sowohl in Hinblick auf die Entstehungsbedingungen einzelner Filme als auch auf seine persönlichen Überzeugungen und Beweggründe ergänzt.
Resumo:
In den letzten Jahrzehnten wurde eine deutliche, anhaltende Veränderung des globalen Klimas beobachtet, die in Zukunft zu einer Erhöhung der durchschnittlichen Oberflächentemperatur, erhöhten Niederschlagsmengen und anderen gravierenden Umweltveränderungen führen wird (IPCC 2001). Der Klimawandel wird in Flüssen sowohl mehr Extremereignisse verursachen als auch das Abflussregime bisher schmelzwasserdominierter Flüsse zu grundwassergespeisten hin ändern; dies gilt insbesondere für den Rhein (MIDDELKOOP et al. 2001). Um die möglichen Auswirkungen dieser Veränderungen auf die genetische Populationsstruktur von Makrozoobenthosorganismen vorhersagen zu können, wurden in den grundwassergespeisten Flüssen Main und Mosel sowie im Rhein Entnahmestellen oberhalb und unterhalb von Staustufen beprobt, die durch kontrastierende Strömungsverhältnisse als Modell für die zu erwartenden Änderungen dienten. Als Untersuchungsobjekt wurden Dreissena polymorpha PALLAS 1771 sowie Dikerogammarus villosus SOWINSKI 1894 herangezogen. Sie zeichnen sich durch hohe Abundanzen aus, sind aber unterschiedlich u.a. hinsichtlich ihrer Besiedlungsstrategie und –historie. Bei beiden Spezies sind die phylogeographischen Hintergründe bekannt; daher wurde auch versucht, die Einwanderungsrouten in der Populationsstruktur nachzuweisen (phylogeographisches Szenario). Dies konkurrierte mit der möglichen Anpassung der Spezies an das Abflussregime des jeweiligen Flusses (Adaptations-Szenario). Die Populationen wurden molekulargenetisch mit Hilfe der AFLP-Methode („Amplified-Fragment Length Polymorphism“) untersucht. Die Ergebnisse zeigen, dass D. polymorpha deutlich durch die Abflussregimes der Flüsse (Schmelz- oder Grundwasserdominanz) beeinflusst wird. Die Allelfrequenzen in Populationen des Rheins sind von denen der beiden grundwassergespeisten Flüsse Main und Mosel deutlich unterscheidbar (Adaptations-Szenario). Jedoch ist kein Unterschied der genetischen Diversitäten zu beobachten; das ist auf die lange Adaptation an ihre jeweiligen Habitate durch die lange Besiedlungsdauer zurückzuführen. Dies ist auch der Grund, warum die Einwanderungsrouten anhand der Populationsstruktur nicht mehr nachzuweisen waren. Die kontrastierenden Strömungsverhältnisse um die Staustufen hatten ebenfalls keine konsistenten Auswirkungen auf die genetische Diversität der Populationen. Diese Ergebnisse zeigen eine hohe phänotypische Plastizität der Spezies und dadurch eine große Anpassungsfähigkeit an wechselnde Umweltbedingungen, die unter anderem für den großen Erfolg dieser Spezies verantwortlich ist. D. villosus wanderte erst vor Kurzem in das Untersuchungsgebiet ein; die Einwanderungsroute war anhand der genetischen Diversität nachvollziehbar (phylogeographisches Szenario); durch die kurze Besiedlungsdauer war eine Adaptation an die divergenten Abflussregime der Flüsse nicht zu erwarten und wurde auch nicht gefunden. Dagegen war ein deutlicher negativer Einfluss von starker Strömung auf die genetische Diversität nachweisbar. Die Ergebnisse weisen darauf hin, dass die zukünftigen Auswirkungen des Klimawandels auf die Strömungsgeschwindigkeit negative Konsequenzen auf die genetische Diversität von D. villosus haben werden, während D. polymorpha hier keine Auswirkungen erkennen lässt. Die Auswirkungen des veränderten Abflussregimes im Rhein sind für D. villosus mit den vorliegenden Daten aufgrund der kurzen Besiedlungsdauer nicht vorhersagbar; D. polymorpha wird durch die Veränderung des Rheins zu einem grundwassergespeisten Fluss zwar einen Wandel in der genetischen Struktur erfahren, aber auch hier keine Einbußen in der genetischen Diversität erleiden.
Resumo:
Für diese Arbeit wurden sechs neue Benzodiazepinderivate, TC07, TC08, TC09, TC10, TC11 und TC12, hergestellt. Diese wurden mittels Radioligandenbindungsassay sowohl auf ihre Bindungseigenschaften für Membranen des Cerebellum, des Hippo-campus und des Cortex der Ratte hin untersucht, als auch für Membranen von HEK293 Zellen, die transient rekombinante GABAA Rezeptoren exprimierten. Zusätz-lich wurden kompetitive in situ Rezeptorautoradiographien an Rattenhirnschnitten mit den Liganden [3H]Ro15-4513 und [3H]R015-1788 durchgeführt. Zusammen ergaben sich aus diesen Experimenten deutliche Hinweise auf eine Selektivität der Verbindun-gen TC07, TC11 und TC12 für a5-Untereinheiten enthaltende GABAA Rezeptoren mit a5-Affinitäten im niedrigen nanomolaren Bereich. In vivo Bindungsexperimente in Ratten, mit [3H]Ro15-1788 als Tracer und TC07 als Kompetitor, ergaben, dass TC07 mehr [3H]Ro15-1788 im Vorderhirn als im Cerebellum verdrängt. Bezog man die regionale Verteilung der a5-Untereinheit des GABAA Rezep-tors im Rattenhirn mit ein – sehr wenige a5-Untereinheiten im Cerebellum, etwa 20 % der GABAA Rezeptor-Untereinheiten im Hippocampus – untermauerten diese Ergeb-nisse die Vermutung, TC07 könne a5-selektiv sein. Diese Daten bestätigten darü-berhinaus, dass TC07 die Blut-Hirn-Schranke passieren kann. Für elektrophysiologische Messungen mit TC07 und TC12 wurden die oben erwähnten transient transfizierten HEK293 Zellen verwendet, welche die GABAA Rezeptor Unte-reinheitenkombination a5b3g2 exprimierten. Das Dosis-Antwort Verhalten ergab keinen signifikanten Effekt für TC12. Die Daten von TC07 dagegen lassen auf einen schwach negativ modulatorischen Effekt schließen, was, zumindest theoretisch, die Möglichkeit eröffnet, TC07 auch als sogenannten cognitive enhancer einzusetzen. Der errechnete Ki-Wert lag in derselben Größenordnung wie der Ki-Wert, der anhand der Bindungsas-saydaten errechnet wurde. Insgesamt rechtfertigen die bisherigen Ergebnisse die radiochemische Markierung mit 18F von drei der sechs getesteten Verbindungen in der Reihenfolge TC07, TC12 und TC11. Des Weiteren wurde [18F]MHMZ, ein potentiell 5-HT2A selektiver Ligand und PET-Tracer einschließlich Vorläufer und Referenzverbindungen, mit hohen Ausbeuten syn-thetisiert (Herth, Debus et al. 2008). Autoradiographieexperimente mit Rattenhirn-schnitten zeigten hervorragende in situ Bindungseigenschaften der neuen Verbindung. Die Daten wiesen eine hohe Selektivität für 5-HT2A Rezeptoren in Verbindung mit einer niedrigen unspezifischen Bindung auf. [18F]MHMZ erfährt in vivo eine schnelle Metabo-lisierung, wobei ein polarer aktiver Metabolit entsteht, welcher vermutlich nicht die Blut-Hirn-Schranke passieren kann. Transversale, sagittale und coronale Kleintier-PET-Bilder des Rattenhirns zeigten eine hohe Anreicherung im frontalen Cortex und im Striatum, während im Cerebellum so gut wie keine Anreicherung festzustellen war. Diese Verteilung deckt sich mit der bekann-ten Verteilung der 5-HT2A Rezeptoren. Die in vivo Anreicherung scheint sich ebenfalls gut mit der Verteilung der in den Autoradiographieexperimenten gemessenen Bindung zu decken. Nach Berechnungen mit dem 4-Parameter Referenzgewebe Modell beträgt das Bindungspotential (BP) für den frontalen Cortex 1,45. Das Cortex zu Cerebellum Verhältnis wurde auf 2,7 nach 30 Minuten Messzeit bestimmt, was bemerkenswert nah an den von Lundkvist et al. für [11C]MDL 100907 publizierten Daten liegt. Abgesehen von der etwas niedrigeren Affinität waren die gemessenen in vitro, in situ und in vivo Daten denen von [3H]MDL 100907 und [11C]MDL 100907 sehr ähnlich, so dass wir ein [18F]Analogon in der Hand haben, das die bessere Selektivität von MDL 100907 verglichen mit Altanserin mit der längeren Halbwertszeit und den besse-ren Eigenschaften für die klinische Routine von 18F verglichen mit 11C verbindet. Die Ergebnisse von [18F]MHMZ rechtfertigenden weitere Experimente, um diesen Liganden für die klinische Routine am Menschen nutzbar zu machen.
Resumo:
In this work, we consider a simple model problem for the electromagnetic exploration of small perfectly conducting objects buried within the lower halfspace of an unbounded two–layered background medium. In possible applications, such as, e.g., humanitarian demining, the two layers would correspond to air and soil. Moving a set of electric devices parallel to the surface of ground to generate a time–harmonic field, the induced field is measured within the same devices. The goal is to retrieve information about buried scatterers from these data. In mathematical terms, we are concerned with the analysis and numerical solution of the inverse scattering problem to reconstruct the number and the positions of a collection of finitely many small perfectly conducting scatterers buried within the lower halfspace of an unbounded two–layered background medium from near field measurements of time–harmonic electromagnetic waves. For this purpose, we first study the corresponding direct scattering problem in detail and derive an asymptotic expansion of the scattered field as the size of the scatterers tends to zero. Then, we use this expansion to justify a noniterative MUSIC–type reconstruction method for the solution of the inverse scattering problem. We propose a numerical implementation of this reconstruction method and provide a series of numerical experiments.
Resumo:
„Risikomaße in der Finanzmathematik“ Der Value-at -Risk (VaR) ist ein Risikomaß, dessen Verwendung von der Bankenaufsicht gefordert wird. Der Vorteil des VaR liegt – als Quantil der Ertrags- oder Verlustverteilung - vor allem in seiner einfachen Interpretierbarkeit. Nachteilig ist, dass der linke Rand der Wahrscheinlichkeitsverteilung nicht beachtet wird. Darüber hinaus ist die Berechnung des VaR schwierig, da Quantile nicht additiv sind. Der größte Nachteil des VaR ist in der fehlenden Subadditivität zu sehen. Deswegen werden Alternativen wie Expected Shortfall untersucht. In dieser Arbeit werden zunächst finanzielle Risikomaße eingeführt und einige ihre grundlegenden Eigenschaften festgehalten. Wir beschäftigen uns mit verschiedenen parametrischen und nichtparametrischen Methoden zur Ermittlung des VaR, unter anderen mit ihren Vorteilen und Nachteilen. Des Weiteren beschäftigen wir uns mit parametrischen und nichtparametrischen Schätzern vom VaR in diskreter Zeit. Wir stellen Portfoliooptimierungsprobleme im Black Scholes Modell mit beschränktem VaR und mit beschränkter Varianz vor. Der Vorteil des erstens Ansatzes gegenüber dem zweiten wird hier erläutert. Wir lösen Nutzenoptimierungsprobleme in Bezug auf das Endvermögen mit beschränktem VaR und mit beschränkter Varianz. VaR sagt nichts über den darüber hinausgehenden Verlust aus, während dieser von Expected Shortfall berücksichtigt wird. Deswegen verwenden wir hier den Expected Shortfall anstelle des von Emmer, Korn und Klüppelberg (2001) betrachteten Risikomaßes VaR für die Optimierung des Portfolios im Black Scholes Modell.