426 resultados para STL-Modelle
Resumo:
In this thesis different approaches for the modeling and simulation of the blood protein fibrinogen are presented. The approaches are meant to systematically connect the multiple time and length scales involved in the dynamics of fibrinogen in solution and at inorganic surfaces. The first part of the thesis will cover simulations of fibrinogen on an all atom level. Simulations of the fibrinogen protomer and dimer are performed in explicit solvent to characterize the dynamics of fibrinogen in solution. These simulations reveal an unexpectedly large and fast bending motion that is facilitated by molecular hinges located in the coiled-coil region of fibrinogen. This behavior is characterized by a bending and a dihedral angle and the distribution of these angles is measured. As a consequence of the atomistic detail of the simulations it is possible to illuminate small scale behavior in the binding pockets of fibrinogen that hints at a previously unknown allosteric effect. In a second step atomistic simulations of the fibrinogen protomer are performed at graphite and mica surfaces to investigate initial adsorption stages. These simulations highlight the different adsorption mechanisms at the hydrophobic graphite surface and the charged, hydrophilic mica surface. It is found that the initial adsorption happens in a preferred orientation on mica. Many effects of practical interest involve aggregates of many fibrinogen molecules. To investigate such systems, time and length scales need to be simulated that are not attainable in atomistic simulations. It is therefore necessary to develop lower resolution models of fibrinogen. This is done in the second part of the thesis. First a systematically coarse grained model is derived and parametrized based on the atomistic simulations of the first part. In this model the fibrinogen molecule is represented by 45 beads instead of nearly 31,000 atoms. The intra-molecular interactions of the beads are modeled as a heterogeneous elastic network while inter-molecular interactions are assumed to be a combination of electrostatic and van der Waals interaction. A method is presented that determines the charges assigned to beads by matching the electrostatic potential in the atomistic simulation. Lastly a phenomenological model is developed that represents fibrinogen by five beads connected by rigid rods with two hinges. This model only captures the large scale dynamics in the atomistic simulations but can shed light on experimental observations of fibrinogen conformations at inorganic surfaces.
Resumo:
Thema dieser Arbeit ist die Entwicklung und Kombination verschiedener numerischer Methoden, sowie deren Anwendung auf Probleme stark korrelierter Elektronensysteme. Solche Materialien zeigen viele interessante physikalische Eigenschaften, wie z.B. Supraleitung und magnetische Ordnung und spielen eine bedeutende Rolle in technischen Anwendungen. Es werden zwei verschiedene Modelle behandelt: das Hubbard-Modell und das Kondo-Gitter-Modell (KLM). In den letzten Jahrzehnten konnten bereits viele Erkenntnisse durch die numerische Lösung dieser Modelle gewonnen werden. Dennoch bleibt der physikalische Ursprung vieler Effekte verborgen. Grund dafür ist die Beschränkung aktueller Methoden auf bestimmte Parameterbereiche. Eine der stärksten Einschränkungen ist das Fehlen effizienter Algorithmen für tiefe Temperaturen.rnrnBasierend auf dem Blankenbecler-Scalapino-Sugar Quanten-Monte-Carlo (BSS-QMC) Algorithmus präsentieren wir eine numerisch exakte Methode, die das Hubbard-Modell und das KLM effizient bei sehr tiefen Temperaturen löst. Diese Methode wird auf den Mott-Übergang im zweidimensionalen Hubbard-Modell angewendet. Im Gegensatz zu früheren Studien können wir einen Mott-Übergang bei endlichen Temperaturen und endlichen Wechselwirkungen klar ausschließen.rnrnAuf der Basis dieses exakten BSS-QMC Algorithmus, haben wir einen Störstellenlöser für die dynamische Molekularfeld Theorie (DMFT) sowie ihre Cluster Erweiterungen (CDMFT) entwickelt. Die DMFT ist die vorherrschende Theorie stark korrelierter Systeme, bei denen übliche Bandstrukturrechnungen versagen. Eine Hauptlimitation ist dabei die Verfügbarkeit effizienter Störstellenlöser für das intrinsische Quantenproblem. Der in dieser Arbeit entwickelte Algorithmus hat das gleiche überlegene Skalierungsverhalten mit der inversen Temperatur wie BSS-QMC. Wir untersuchen den Mott-Übergang im Rahmen der DMFT und analysieren den Einfluss von systematischen Fehlern auf diesen Übergang.rnrnEin weiteres prominentes Thema ist die Vernachlässigung von nicht-lokalen Wechselwirkungen in der DMFT. Hierzu kombinieren wir direkte BSS-QMC Gitterrechnungen mit CDMFT für das halb gefüllte zweidimensionale anisotrope Hubbard Modell, das dotierte Hubbard Modell und das KLM. Die Ergebnisse für die verschiedenen Modelle unterscheiden sich stark: während nicht-lokale Korrelationen eine wichtige Rolle im zweidimensionalen (anisotropen) Modell spielen, ist in der paramagnetischen Phase die Impulsabhängigkeit der Selbstenergie für stark dotierte Systeme und für das KLM deutlich schwächer. Eine bemerkenswerte Erkenntnis ist, dass die Selbstenergie sich durch die nicht-wechselwirkende Dispersion parametrisieren lässt. Die spezielle Struktur der Selbstenergie im Impulsraum kann sehr nützlich für die Klassifizierung von elektronischen Korrelationseffekten sein und öffnet den Weg für die Entwicklung neuer Schemata über die Grenzen der DMFT hinaus.
Resumo:
Analyzing and modeling relationships between the structure of chemical compounds, their physico-chemical properties, and biological or toxic effects in chemical datasets is a challenging task for scientific researchers in the field of cheminformatics. Therefore, (Q)SAR model validation is essential to ensure future model predictivity on unseen compounds. Proper validation is also one of the requirements of regulatory authorities in order to approve its use in real-world scenarios as an alternative testing method. However, at the same time, the question of how to validate a (Q)SAR model is still under discussion. In this work, we empirically compare a k-fold cross-validation with external test set validation. The introduced workflow allows to apply the built and validated models to large amounts of unseen data, and to compare the performance of the different validation approaches. Our experimental results indicate that cross-validation produces (Q)SAR models with higher predictivity than external test set validation and reduces the variance of the results. Statistical validation is important to evaluate the performance of (Q)SAR models, but does not support the user in better understanding the properties of the model or the underlying correlations. We present the 3D molecular viewer CheS-Mapper (Chemical Space Mapper) that arranges compounds in 3D space, such that their spatial proximity reflects their similarity. The user can indirectly determine similarity, by selecting which features to employ in the process. The tool can use and calculate different kinds of features, like structural fragments as well as quantitative chemical descriptors. Comprehensive functionalities including clustering, alignment of compounds according to their 3D structure, and feature highlighting aid the chemist to better understand patterns and regularities and relate the observations to established scientific knowledge. Even though visualization tools for analyzing (Q)SAR information in small molecule datasets exist, integrated visualization methods that allows for the investigation of model validation results are still lacking. We propose visual validation, as an approach for the graphical inspection of (Q)SAR model validation results. New functionalities in CheS-Mapper 2.0 facilitate the analysis of (Q)SAR information and allow the visual validation of (Q)SAR models. The tool enables the comparison of model predictions to the actual activity in feature space. Our approach reveals if the endpoint is modeled too specific or too generic and highlights common properties of misclassified compounds. Moreover, the researcher can use CheS-Mapper to inspect how the (Q)SAR model predicts activity cliffs. The CheS-Mapper software is freely available at http://ches-mapper.org.
Resumo:
In der Archäologie werden elektrische Widerstandsmessungen routinemäßig zur Prospektion von Fundstellen eingesetzt. Die Methode ist kostengünstig, leicht anwendbar und liefert in den meisten Fällen zuverlässige und leicht zu interpretierende Ergebnisse. Dennoch kann die Methode die archäologischen Strukturen in manchen Fällen nur teilweise oder gar nicht abbilden, wenn die bodenphysikalischen und bodenchemischen Eigenschaften des Bodens und der archäologischen Strukturen dies nicht zulassen. Der spezifische elektrische Widerstand wird durch Parameter wie Wassergehalt, Bodenstruktur, Bodenskelett, Bodentextur, Salinität und Bodentemperatur beeinflusst. Manche dieser Parameter, wie z.B. der Wassergehalt und die Bodentemperatur, unterliegen einer saisonalen Veränderung. Die vorliegende Arbeit untersucht den spezifischen elektrischen Widerstand von archäologischen Steinstrukturen und evaluiert die Möglichkeit, auf Grundlage von Geländemessungen und Laboranalysen archäologische Strukturen und Böden als numerische Modelle darzustellen. Dazu wurde eine Kombination von verschiedenen bodenkundlichen, geoarchäologischen und geophysikalischen Methoden verwendet. Um archäologische Strukturen und Bodenprofile als numerische Widerstandsmodelle darstellen zu können, werden Informationen zur Geometrie der Strukturen und ihren elektrischen Widerstandswerten benötigt. Dabei ist die Qualität der Hintergrundinformationen entscheidend für die Genauigkeit des Widerstandsmodells. Die Geometrie der Widerstandsmodelle basiert auf den Ergebnissen von Rammkernsondierungen und archäologische Ausgrabungen. Die an der Ausbildung des elektrischen Widerstands beteiligten Parameter wurden durch die Analyse von Bodenproben gemessen und ermöglichen durch Pedotransfer-Funktion, wie die Rhoades-Formel, die Abschätzung des spezifischen elektrischen Widerstandes des Feinbodens. Um den Einfluss des Bodenskeletts auf den spezifischen elektrischen Widerstand von Bodenprofilen und archäologischen Strukturen zu berechnen, kamen die Perkolationstheorie und die Effective Medium Theory zum Einsatz. Die Genauigkeit und eventuelle Limitierungen der Methoden wurden im Labor durch experimentelle Widerstandsmessungen an ungestörten Bodenproben und synthetischen Materialien überprüft. Die saisonale Veränderung des Wassergehalts im Boden wurde durch numerische Modelle mit der Software HYDRUS simuliert. Die hydraulischen Modelle wurden auf Grundlage der ermittelten bodenkundlichen und archäologischen Stratigraphie erstellt und verwenden die Daten von lokalen Wetterstationen als Eingangsparameter. Durch die Kombination der HYDRUS-Ergebnisse mit den Pedotransfer-Funktionen konnte der Einfluss dieser saisonalen Veränderung auf die Prospektionsergebnisse von elektrischen Widerstandsmethoden berechnet werden. Die Ergebnisse der Modellierungsprozesse wurden mit den Geländemessungen verglichen. Die beste Übereinstimmung zwischen Modellergebnissen und den Prospektionsergebnissen konnte für die Fallstudie bei Katzenbach festgestellt werden. Bei dieser wurden die Modelle auf Grundlage von archäologischen Grabungsergebnissen und detaillierten bodenkundlichen Analysen erstellt. Weitere Fallstudien zeigen, dass elektrische Widerstandsmodelle eingesetzt werden können, um den Einfluss von ungünstigen Prospektionsbedingungen auf die Ergebnisse der elektrischen Widerstandsmessungen abzuschätzen. Diese Informationen unterstützen die Planung und Anwendung der Methoden im Gelände und ermöglichen eine effektivere Interpretation der Prospektionsergebnisse. Die präsentierten Modellierungsansätze benötigen eine weitere Verifizierung durch den Vergleich der Modellierungsergebnisse mit detailliertem geophysikalischem Gelände-Monitoring von archäologischen Fundstellen. Zusätzlich könnten elektrische Widerstandsmessungen an künstlichen Mauerstrukturen unter kontrollierten Bedingungen zur Überprüfung der Modellierungsprozesse genutzt werden.
Resumo:
In dieser Masterarbeit wird die Frage untersucht, ob sich in den mittel- und osteuropäischen EU-Mitgliedsländern der Erweiterungsrunde von 2004 (Estland, Litauen, Polen, Slowakei, Slowenien, Ungarn, Tschechien) in der Befürwortung verschiedener normativer Demokratiemodelle Unterschiede zwischen der jüngsten und den älteren Generationen finden lassen. Diese demokratischen Wertorientierungen spielen für die Persistenz der noch jungen Demokratien eine entscheidende Rolle. Eine Inkongruenz des mehrheitlich favorisierten Demokratiemodells einerseits und der institutionellen Struktur andererseits kann zu Spannungen und Instabilität des politischen Systems führen. Theoretisch werden zwei Demokratiekonzeptionen unterschieden: Das Modell der liberalen Demokratie und das Modell der sozialistischen Demokratie. Dem Sozialisationsansatz folgend, sollte die jüngste Generation ein liberales Demokratiemodell eher und ein sozialistisches Demokratiemodell weniger befürworten als die älteren Generationen. In der empirischen Analyse auf Basis der Daten der sechsten Welle des European Social Survey von 2012 wird zunächst durch konfirmatorische Faktorenanalysen die konzeptuelle Trennung beider Modelle bestätigt. In der Regressionsanalyse wird der Fokus durch die Untersuchung verschiedener Kohorten gelegt, zusätzlich wird für situative Faktoren und mögliche Alterseffekte kontrolliert. Die Ergebnisse der Modellschätzungen zeichnen ein heterogenes Bild. In keinem der untersuchten Länder zeigt sich eine signifikant höhere Zustimmung zum liberalen Demokratiemodell durch die jüngste Generation, wie es der theoretischen Erwartung entsprechen würde. Stattdessen finden sich entweder keine signifikanten Unterschiede zwischen den Generationen oder sogar signifikant niedrigere Zustimmungswerte durch die jüngste Generation. Bei der Befürwortung eines sozialistischen Demokratiemodells entsprechen die Ergebnisse teilweise der theoretischen Erwartung: In einigen Ländern finden sich signifikant niedrigere Zustimmungswerte in der jüngsten Generation.
Targeting neuronal populations by AAV-mediated gene transfer for studying the endocannabinoid system
Resumo:
The cannabinoid type 1 (CB1) receptor is involved in a plethora of physiological functions and heterogeneously expressed on different neuronal populations. Several conditional loss-of-function studies revealed distinct effects of CB1 receptor signaling on glutamatergic and GABAergic neurons, respectively. To gain a comprehensive picture of CB1 receptor-mediated effects, the present study aimed at developing a gain-of-function approach, which complements conditional loss-of-function studies. Therefore, adeno-associated virus (AAV)-mediated gene delivery and Cre-mediated recombination were combined to recreate an innovative method, which ensures region- and cell type-specific transgene expression in the brain. This method was used to overexpress the CB1 receptor in glutamatergic pyramidal neurons of the mouse hippocampus. Enhanced CB1 receptor activity at glutamatergic terminals caused impairment in hippocampus-dependent memory performance. On the other hand, elevated CB1 receptor levels provoked an increased protection against kainic acid-induced seizures and against excitotoxic neuronal cell death. This finding indicates the protective role of CB1 receptor on hippocampal glutamatergic terminals as a molecular stout guard in controlling excessive neuronal network activity. Hence, CB1 receptor on glutamatergic hippocampal neurons may represent a target for novel agents to restrain excitotoxic events and to treat neurodegenerative diseases. Endocannabinoid synthesizing and degrading enzymes tightly regulate endocannabinoid signaling, and thus, represent a promising therapeutic target. To further elucidate the precise function of the 2-AG degrading enzyme monoacylglycerol lipase (MAGL), MAGL was overexpressed specifically in hippocampal pyramidal neurons. This genetic modification resulted in highly increased MAGL activity accompanied by a 50 % decrease in 2-AG levels without affecting the content of arachidonic acid and anandamide. Elevated MAGL protein levels at glutamatergic terminals eliminated depolarization-induced suppression of excitation (DSE), while depolarization-induced suppression of inhibition (DSI) was unchanged. This result indicates that the on-demand availability of the endocannabinoid 2-AG is crucial for short-term plasticity at glutamatergic synapses in the hippocampus. Mice overexpressing MAGL exhibited elevated corticosterone levels under basal conditions and an increase in anxiety-like behavior, but surprisingly, showed no changes in aversive memory formation and in seizure susceptibility. This finding suggests that 2 AG-mediated hippocampal DSE is essential for adapting to aversive situations, but is not required to form aversive memory and to protect against kainic acid-induced seizures. Thus, specific inhibition of MAGL expressed in hippocampal pyramidal neurons may represent a potential treatment strategy for anxiety and stress disorders. Finally, the method of AAV-mediated cell type-specific transgene expression was advanced to allow drug-inducible and reversible transgene expression. Therefore, elements of the tetracycline-controlled gene expression system were incorporated in our “conditional” AAV vector. This approach showed that transgene expression is switched on after drug application and that background activity in the uninduced state was only detectable in scattered cells of the hippocampus. Thus, this AAV vector will proof useful for future research applications and gene therapy approaches.
Resumo:
This thesis assesses the question, whether accounting for non-tradable goods sectors in a calibrated Auerbach-Kotlikoff multi-regional overlapping-generations-model significantly affects this model’s results when simulating the economic impact of demographic change. Non-tradable goods constitute a major part of up to 80 percent of GDP of modern economies. At the same time, multi-regional overlapping-generations-models presented by literature on demographic change so far ignored their existence and counterfactually assumed perfect tradability between model regions. Moreover, this thesis introduces the assumption of an increasing preference share for non-tradable goods of old generations. This fact-based as-sumption is also not part of models in relevant literature. rnThese obvious simplifications of common models vis-à-vis reality notwithstanding, this thesis concludes that differences in results between a model featuring non-tradable goods and a common model with perfect tradability are very small. In other words, the common simplifi-cation of ignoring non-tradable goods is unlikely to lead to significant distortions in model results. rnIn order to ensure that differences in results between the ‘new’ model, featuring both non-tradable and tradable goods, and the common model solely reflect deviations due to the more realistic structure of the ‘new’ model, both models are calibrated to match exactly the same benchmark data and thus do not show deviations in their respective baseline steady states.rnA variation analysis performed in this thesis suggests that differences between the common model and a model with non-tradable goods can theoretically be large, but only if the bench-mark tradable goods sector is assumed to be unrealistically small.rnFinally, this thesis analyzes potential real exchange rate effects of demographic change, which could occur due to regional price differences of non-tradable goods. However, results show that shifts in real exchange rate based on these price differences are negligible.rn
Resumo:
Die vorliegende Dissertation ist eine molekulargenetische Studie an humanem neolithischem Skelettmaterial. Im zentralen Blickpunkt stand die Bestimmung der Variabilität der mitochondrialen Haplogruppen einer frühneolithischen Stichprobe aus drei unterschiedlichen Kulturkreisen, welche die Linearbandkeramik (LBK und AVK), die Körös-Kultur und eine Sammelkategorie osteuropäischer spätmeso- und frühneolithischer Kulturen umfasste. Im Vergleich dieser Gruppen untereinander sowie mit Rezentdaten moderner Populationen aus vergleichbaren Gebieten Mittel- und Osteuropas sowie dem Nahen Osten sollten bestehende Modelle und Hypothesen zur Neolithisierung Mitteleuropas geprüft werden. Insgesamt konnte für 43 neolithische Individuen aus 16 Fundorten der reproduzierbare Nachweis endogener DNA erbracht werden. Eine eindeutige Haplogruppenbestimmung konnte durch die Sequenzierung vier überlappender Fragmente der mitochondrialen Hypervariablen Region I sowie durch RFLP-Analyse zusätzlicher charakteristischer Nukleotidpositionen für alle 43 Individuen durchgeführt werden. Die neolithischen Individuen der Linearbandkeramik sowie der Körös-Kultur zeigten eine hohe Diversität an bekannten europäischen Haplogruppen, wohingegen die kleinere Stichprobe aus dem Gebiet Osteuropas eine auffällige Homogenität aufwies. Neben Frequenzunterschieden zur modernen mitteleuropäischen Bevölkerung war innerhalb der LBK/AVK-Stichprobe eine hohe Frequenz der Haplogruppe N1a festzustellen, welche nicht in den beiden anderen neolithischen Stichproben zu finden war und auch in der heutigen Rezentbevölkerung Eurasiens und Nordafrikas nur mit einer durchschnittlichen Frequenz von 0,2% vertreten ist. Innerhalb der Individuen der Körös-Kultur fanden sich zwei Haplotypen, welche heute nicht in Europa bekannt sind, dagegen jedoch in Süd- bzw. Nordostasien gehäuft vorkommen. Die Ergebnisse der aDNA-Analysen bestätigten im Wesentlichen das komplexe Bild der Neolithischen Transition in Mitteleuropa und konnten die, für diesen Raum postulierte, Hypothese der leap frog colonization weitestgehend unterstützen. Auch für den geographischen Vergleichsraum des nördlichen Osteuropa konnten Parallelen zur etablierten Sichtweise der archäologischen Forschung zu diesem Gebiet und den vorliegenden Ergebnissen der aDNA-Analysen aufgezeigt werden. Die zeitlich verzögerte Annahme der neolithischen Lebensweise im waldreichen nördlichen Osteuropa spiegelt sich in der reduzierten Diversität an mtDNA-Haplogruppen wider. Die vorliegende Dissertation konnte nicht nur durch die Ergebnisse der Haplogruppen-Bestimmung, sondern vor allem durch die umfangreichen und elaborierten Reproduktions- und Authentifizierungprotokolle deutlich machen, dass der Nachweis von humaner alter DNA trotz der allgegenwärtigen, methodenimmanenten Kontaminationsgefahr unter streng kontrollierten Bedingungen möglich ist. Gleichermaßen konnte veranschaulicht werden, dass die aDNA-Analyse wertvolle Hinweise auf das genetische status quo einer Population liefern kann, welche nicht bzw. nur in sehr eingeschränkten Maße von rezenten DNA-Daten abgeleitet werden können. Als sekundäres Ergebnis erlaubte der bislang größte vorliegende Datensatz von ~2500 Klonsequenzen zudem einen detaillierten Einblick in Häufigkeiten und Verteilungsmuster von post mortem Sequenzveränderungen. Es konnten für den mitochondrialen Bereich der Nukleotidpositionen 15997-16409 so genannte hot bzw. cold spots definiert werden, welche für die Auswertung und Interpretation von zukünftigen Sequenzierungen der Hypervariablen Region I des mt-Genoms von entscheidender Bedeutung sein werden.
Resumo:
Klimamontoring benötigt eine operative, raum-zeitliche Analyse der Klimavariabilität. Mit dieser Zielsetzung, funktionsbereite Karten regelmäßig zu erstellen, ist es hilfreich auf einen Blick, die räumliche Variabilität der Klimaelemente in der zeitlichen Veränderungen darzustellen. Für aktuelle und kürzlich vergangene Jahre entwickelte der Deutsche Wetterdienst ein Standardverfahren zur Erstellung solcher Karten. Die Methode zur Erstellung solcher Karten variiert für die verschiedenen Klimaelemente bedingt durch die Datengrundlage, die natürliche Variabilität und der Verfügbarkeit der in-situ Daten.rnIm Rahmen der Analyse der raum-zeitlichen Variabilität innerhalb dieser Dissertation werden verschiedene Interpolationsverfahren auf die Mitteltemperatur der fünf Dekaden der Jahre 1951-2000 für ein relativ großes Gebiet, der Region VI der Weltorganisation für Meteorologie (Europa und Naher Osten) angewendet. Die Region deckt ein relativ heterogenes Arbeitsgebiet von Grönland im Nordwesten bis Syrien im Südosten hinsichtlich der Klimatologie ab.rnDas zentrale Ziel der Dissertation ist eine Methode zur räumlichen Interpolation der mittleren Dekadentemperaturwerte für die Region VI zu entwickeln. Diese Methode soll in Zukunft für die operative monatliche Klimakartenerstellung geeignet sein. Diese einheitliche Methode soll auf andere Klimaelemente übertragbar und mit der entsprechenden Software überall anwendbar sein. Zwei zentrale Datenbanken werden im Rahmen dieser Dissertation verwendet: So genannte CLIMAT-Daten über dem Land und Schiffsdaten über dem Meer.rnIm Grunde wird die Übertragung der Punktwerte der Temperatur per räumlicher Interpolation auf die Fläche in drei Schritten vollzogen. Der erste Schritt beinhaltet eine multiple Regression zur Reduktion der Stationswerte mit den vier Einflussgrößen der Geographischen Breite, der Höhe über Normalnull, der Jahrestemperaturamplitude und der thermischen Kontinentalität auf ein einheitliches Niveau. Im zweiten Schritt werden die reduzierten Temperaturwerte, so genannte Residuen, mit der Interpolationsmethode der Radialen Basis Funktionen aus der Gruppe der Neuronalen Netzwerk Modelle (NNM) interpoliert. Im letzten Schritt werden die interpolierten Temperaturraster mit der Umkehrung der multiplen Regression aus Schritt eins mit Hilfe der vier Einflussgrößen auf ihr ursprüngliches Niveau hochgerechnet.rnFür alle Stationswerte wird die Differenz zwischen geschätzten Wert aus der Interpolation und dem wahren gemessenen Wert berechnet und durch die geostatistische Kenngröße des Root Mean Square Errors (RMSE) wiedergegeben. Der zentrale Vorteil ist die wertegetreue Wiedergabe, die fehlende Generalisierung und die Vermeidung von Interpolationsinseln. Das entwickelte Verfahren ist auf andere Klimaelemente wie Niederschlag, Schneedeckenhöhe oder Sonnenscheindauer übertragbar.
Resumo:
In questo elaborato sono state messe a confronto differenti procedure per la creazione di file in formato STL a partire da dati tomografici. Questo tipo di formato di dati è attualmente molto richiesto in quanto è adottato dalle stampanti 3D. I tre software presi in analisi, nello specifico, sono: DEVIDE, un programma open source, compatibile sia con Windows che con Linux, sviluppato presso la Delft University of Technology, nei Paesi Bassi; Imagej, un programma informatico di elaborazione digitale delle immagini, accessibile a tutti, basato su Sun-Java e sviluppato dal National Institutes of Health negli Stati Uniti; e infine VGStudioMax, un software sviluppato in Germania dalla VolumeGraphics GmbH. Un confronto diretto di questi software ha portato ad evidenziare i pregi ed i difetti d’ognuno di questi programmi, prendendo come criteri svariati fattori, tra cui la possibilità di scelta di uno o più soglie per i livelli di grigio, la velocità di esecuzione, il fatto che sia open-source o meno, ecc. I risultati ottenuti tramite l’utilizzo di slice filtrate riguardanti una Cera Anatomica e un Feticcio Africano, sono stati molto soddisfacenti, in quanto hanno permesso la realizzazione di modelli virtuali 3D di entrambi i reperti nel formato richiesto.
Resumo:
Im Rahmen der aktuellen Diskussion über die effektive Messung operationeller Risiken auf der Basis interner Modelle hat vor allem der Loss Distribution Approach in der Literatur be-sondere Beachtung gefunden. Dieser Ansatz hat seine Wurzeln in einem traditionellen Ansatz der Versicherungsmathematik, der kollektiven Risikotheorie. Die vorliegende Ausarbeitung stellt daher die kollektive Risikotheorie in ihren Grundelemen-ten dar, stellt die Verbindung zur Modellierung operationeller Risiken her und gibt einen Überblick über aktuelle Entwicklungen im Rahmen des Loss Distribution Approach.