971 resultados para MONTE-CARLO SIMULATION
Resumo:
The problem of uncertainty propagation in composite laminate structures is studied. An approach based on the optimal design of composite structures to achieve a target reliability level is proposed. Using the Uniform Design Method (UDM), a set of design points is generated over a design domain centred at mean values of random variables, aimed at studying the space variability. The most critical Tsai number, the structural reliability index and the sensitivities are obtained for each UDM design point, using the maximum load obtained from optimal design search. Using the UDM design points as input/output patterns, an Artificial Neural Network (ANN) is developed based on supervised evolutionary learning. Finally, using the developed ANN a Monte Carlo simulation procedure is implemented and the variability of the structural response based on global sensitivity analysis (GSA) is studied. The GSA is based on the first order Sobol indices and relative sensitivities. An appropriate GSA algorithm aiming to obtain Sobol indices is proposed. The most important sources of uncertainty are identified.
Resumo:
Trabalho de Projeto para obtenção do grau de Mestre em Engenharia Civil
Resumo:
An approach for the analysis of uncertainty propagation in reliability-based design optimization of composite laminate structures is presented. Using the Uniform Design Method (UDM), a set of design points is generated over a domain centered on the mean reference values of the random variables. A methodology based on inverse optimal design of composite structures to achieve a specified reliability level is proposed, and the corresponding maximum load is outlined as a function of ply angle. Using the generated UDM design points as input/output patterns, an Artificial Neural Network (ANN) is developed based on an evolutionary learning process. Then, a Monte Carlo simulation using ANN development is performed to simulate the behavior of the critical Tsai number, structural reliability index, and their relative sensitivities as a function of the ply angle of laminates. The results are generated for uniformly distributed random variables on a domain centered on mean values. The statistical analysis of the results enables the study of the variability of the reliability index and its sensitivity relative to the ply angle. Numerical examples showing the utility of the approach for robust design of angle-ply laminates are presented.
Resumo:
O trabalho apresentado centra-se na determinação dos custos de construção de condutas de pequenos e médios diâmetros em Polietileno de Alta Densidade (PEAD) para saneamento básico, tendo como base a metodologia descrita no livro Custos de Construção e Exploração – Volume 9 da série Gestão de Sistemas de Saneamento Básico, de Lencastre et al. (1994). Esta metodologia descrita no livro já referenciado, nos procedimentos de gestão de obra, e para tal foram estimados custos unitários de diversos conjuntos de trabalhos. Conforme Lencastre et al (1994), “esses conjuntos são referentes a movimentos de terras, tubagens, acessórios e respetivos órgãos de manobra, pavimentações e estaleiro, estando englobado na parte do estaleiro trabalhos acessórios correspondentes à obra.” Os custos foram obtidos analisando vários orçamentos de obras de saneamento, resultantes de concursos públicos de empreitadas recentemente realizados. Com vista a tornar a utilização desta metodologia numa ferramenta eficaz, foram organizadas folhas de cálculo que possibilitam obter estimativas realistas dos custos de execução de determinada obra em fases anteriores ao desenvolvimento do projeto, designadamente numa fase de preparação do plano diretor de um sistema ou numa fase de elaboração de estudos de viabilidade económico-financeiros, isto é, mesmo antes de existir qualquer pré-dimensionamento dos elementos do sistema. Outra técnica implementada para avaliar os dados de entrada foi a “Análise Robusta de Dados”, Pestana (1992). Esta metodologia permitiu analisar os dados mais detalhadamente antes de se formularem hipóteses para desenvolverem a análise de risco. A ideia principal é o exame bastante flexível dos dados, frequentemente antes mesmo de os comparar a um modelo probabilístico. Assim, e para um largo conjunto de dados, esta técnica possibilitou analisar a disparidade dos valores encontrados para os diversos trabalhos referenciados anteriormente. Com os dados recolhidos, e após o seu tratamento, passou-se à aplicação de uma metodologia de Análise de Risco, através da Simulação de Monte Carlo. Esta análise de risco é feita com recurso a uma ferramenta informática da Palisade, o @Risk, disponível no Departamento de Engenharia Civil. Esta técnica de análise quantitativa de risco permite traduzir a incerteza dos dados de entrada, representada através de distribuições probabilísticas que o software disponibiliza. Assim, para por em prática esta metodologia, recorreu-se às folhas de cálculo que foram realizadas seguindo a abordagem proposta em Lencastre et al (1994). A elaboração e a análise dessas estimativas poderão conduzir à tomada de decisões sobre a viabilidade da ou das obras a realizar, nomeadamente no que diz respeito aos aspetos económicos, permitindo uma análise de decisão fundamentada quanto à realização dos investimentos.
Resumo:
Most of distributed generation and smart grid research works are dedicated to network operation parameters studies, reliability, etc. However, many of these works normally uses traditional test systems, for instance, IEEE test systems. This paper proposes voltage magnitude and reliability studies in presence of fault conditions, considering realistic conditions found in countries like Brazil. The methodology considers a hybrid method of fuzzy set and Monte Carlo simulation based on the fuzzy-probabilistic models and a remedial action algorithm which is based on optimal power flow. To illustrate the application of the proposed method, the paper includes a case study that considers a real 12-bus sub-transmission network.
Resumo:
Background: Lung cancer (LC) is the leading cause of cancer death in the developed world. Most cancers are associated with tobacco smoking. A primary hope for reducing lung cancer has been prevention of smoking and successful smoking cessation programs. To date, these programs have not been as successful as anticipated. Objective: The aim of the current study was to evaluate whether lung cancer screening combining low dose computed tomography with autofluorescence bronchoscopy (combined CT & AFB) is superior to CT or AFB screening alone in improving lung cancer specific survival. In addition, the extent of improvement and ideal conditions for combined CT & AFB screening were evaluated. Methods: We applied decision analysis and Monte Carlo simulation modeling using TreeAge Software to evaluate our study aims. Histology- and stage specific probabilities of lung cancer 5-year survival proportions were taken from Surveillance and Epidemiologic End Results (SEER) Registry data. Screeningassociated data was taken from the US NCI Prostate, Lung, Colorectal and Ovarian Cancer Screening Trial (PLCO), National Lung Screening Trial (NLST), and US NCI Lung Screening Study (LSS), other relevant published data and expert opinion. Results: Decision Analysis - Combined CT and AFB was the best approach at Improving 5-year survival (Overall Expected Survival (OES) in the entire screened population was 0.9863) and in lung cancer patients only (Lung Cancer Specific Expected Survival (LOSES) was 0.3256). Combined screening was slightly better than CT screening alone (OES = 0.9859; LCSES = 0.2966), and substantially better than AFB screening alone (OES = 0.9842; LCSES = 0.2124), which was considerably better than no screening (OES = 0.9829; LCSES = 0.1445). Monte Carlo simulation modeling revealed that expected survival in the screened population and lung cancer patients is highest when screened using CT and combined CT and AFB. CT alone and combined screening was substantially better than AFB screening alone or no screening. For LCSES, combined CT and AFB screening is significantly better than CT alone (0.3126 vs. 0.2938, p< 0.0001). Conclusions: Overall, these analyses suggest that combined CT and AFB is slightly better than CT alone at improving lung cancer survival, and both approaches are substantially better than AFB screening alone or no screening.
Resumo:
Euclidean distance matrix analysis (EDMA) methods are used to distinguish whether or not significant difference exists between conformational samples of antibody complementarity determining region (CDR) loops, isolated LI loop and LI in three-loop assembly (LI, L3 and H3) obtained from Monte Carlo simulation. After the significant difference is detected, the specific inter-Ca distance which contributes to the difference is identified using EDMA.The estimated and improved mean forms of the conformational samples of isolated LI loop and LI loop in three-loop assembly, CDR loops of antibody binding site, are described using EDMA and distance geometry (DGEOM). To the best of our knowledge, it is the first time the EDMA methods are used to analyze conformational samples of molecules obtained from Monte Carlo simulations. Therefore, validations of the EDMA methods using both positive control and negative control tests for the conformational samples of isolated LI loop and LI in three-loop assembly must be done. The EDMA-I bootstrap null hypothesis tests showed false positive results for the comparison of six samples of the isolated LI loop and true positive results for comparison of conformational samples of isolated LI loop and LI in three-loop assembly. The bootstrap confidence interval tests revealed true negative results for comparisons of six samples of the isolated LI loop, and false negative results for the conformational comparisons between isolated LI loop and LI in three-loop assembly. Different conformational sample sizes are further explored by combining the samples of isolated LI loop to increase the sample size, or by clustering the sample using self-organizing map (SOM) to narrow the conformational distribution of the samples being comparedmolecular conformations. However, there is no improvement made for both bootstrap null hypothesis and confidence interval tests. These results show that more work is required before EDMA methods can be used reliably as a method for comparison of samples obtained by Monte Carlo simulations.
Resumo:
La tâche de maintenance ainsi que la compréhension des programmes orientés objet (OO) deviennent de plus en plus coûteuses. L’analyse des liens de dépendance peut être une solution pour faciliter ces tâches d’ingénierie. Cependant, analyser les liens de dépendance est une tâche à la fois importante et difficile. Nous proposons une approche pour l'étude des liens de dépendance internes pour des programmes OO, dans un cadre probabiliste, où les entrées du programme peuvent être modélisées comme un vecteur aléatoire, ou comme une chaîne de Markov. Dans ce cadre, les métriques de couplage deviennent des variables aléatoires dont les distributions de probabilité peuvent être étudiées en utilisant les techniques de simulation Monte-Carlo. Les distributions obtenues constituent un point d’entrée pour comprendre les liens de dépendance internes entre les éléments du programme, ainsi que leur comportement général. Ce travail est valable dans le cas où les valeurs prises par la métrique dépendent des entrées du programme et que ces entrées ne sont pas fixées à priori. Nous illustrons notre approche par deux études de cas.
Resumo:
Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
L’exposition prolongée par inhalation à des poussières de taille respirable contenant de la silice cristalline est reconnue pour causer des maladies respiratoires dont le cancer du poumon et la silicose. De nombreuses études ont relevé la surexposition des travailleurs de la construction à la silice cristalline, puisque ce composé est présent dans de nombreux matériaux utilisés sur les chantiers. L’évaluation de l’exposition à la silice cristalline dans cette industrie constitue un défi en raison de la multitude de conditions de travail et de la nature éphémère des chantiers. Afin de mieux cerner cette problématique, une banque de données d’exposition professionnelle compilée à partir de la littérature a été réalisée par une équipe de l’Université de Montréal et de l’IRSST, et constitue le point de départ de ce travail. Les données présentes dans la banque ont été divisées en fonction de la stratégie d’échantillonnage, résultant en deux analyses complémentaires ayant pour objectif d’estimer les niveaux d’exposition sur le quart de travail en fonction du titre d’emploi, et selon la nature de la tâche exécutée. La méthode de Monte Carlo a été utilisée pour recréer les échantillons provenant de données rapportées sous forme de paramètres de synthèse. Des modèles Tobit comprenant les variables de titre d’emploi, tâche exécutée, durée, année et stratégie d’échantillonnage, type de projet, secteur d’activité, environnement et moyens de maîtrise ont été développés et interprétés par inférence multimodèle. L’analyse basée sur le quart de travail a été réalisée à partir de 1346 données d’exposition couvrant 11 catégories de titre d’emploi. Le modèle contenant toutes les variables a expliqué 22% de la variabilité des mesures et la durée, l’année et la stratégie d’échantillonnage étaient d’importants prédicteurs de l’exposition. Les chantiers de génie civil et les projets de nouvelle construction étaient associés à des expositions plus faibles, alors que l’utilisation de moyens de maîtrise diminuait les concentrations de 18% à l’extérieur et de 24% à l’intérieur. Les moyennes géométriques les plus élevées prédites pour l’année 1999 sur 8 heures étaient retrouvées chez les foreurs (0.214 mg/m3), les travailleurs souterrains (0.191 mg/m3), les couvreurs (0.146 mg/m3) et les cimentiers-applicateurs (0.125 mg/m3). 1566 mesures réparties en 27 catégories de tâches étaient contenues dans la seconde analyse. Le modèle contenant toutes les variables a expliqué 59% des niveaux d’exposition, et l’ensemble des variables contextuelles étaient fortement prédictives. Les moyennes géométriques prédites pour l’année 1998 et selon la durée médiane par tâche dans la banque de données étaient plus élevées lors du bouchardage du béton (1.446 mg/m3), du cassage de pièces de maçonnerie avec autres outils (0.354 mg/m3), du décapage au jet de sable (0.349 mg/m3) et du meulage de joints de brique (0.200 mg/m3). Une diminution importante des concentrations a été observée avec les systèmes d’arrosage (-80%) et d’aspiration des poussières (-64%) intégrés aux outils. L’analyse en fonction des titres d’emploi a montré une surexposition généralisée à la valeur guide de l’ACGIH et à la norme québécoise, indiquant un risque à long terme de maladies professionnelles chez ces travailleurs. Les résultats obtenus pour l’évaluation en fonction de la tâche exécutée montrent que cette stratégie permet une meilleure caractérisation des facteurs associés à l’exposition et ainsi de mieux cibler les priorités d’intervention pour contrôler les niveaux d’exposition à la silice cristalline sur les chantiers de construction durant un quart de travail.
Resumo:
Les modèles pharmacocinétiques à base physiologique (PBPK) permettent de simuler la dose interne de substances chimiques sur la base de paramètres spécifiques à l’espèce et à la substance. Les modèles de relation quantitative structure-propriété (QSPR) existants permettent d’estimer les paramètres spécifiques au produit (coefficients de partage (PC) et constantes de métabolisme) mais leur domaine d’application est limité par leur manque de considération de la variabilité de leurs paramètres d’entrée ainsi que par leur domaine d’application restreint (c. à d., substances contenant CH3, CH2, CH, C, C=C, H, Cl, F, Br, cycle benzénique et H sur le cycle benzénique). L’objectif de cette étude est de développer de nouvelles connaissances et des outils afin d’élargir le domaine d’application des modèles QSPR-PBPK pour prédire la toxicocinétique de substances organiques inhalées chez l’humain. D’abord, un algorithme mécaniste unifié a été développé à partir de modèles existants pour prédire les PC de 142 médicaments et polluants environnementaux aux niveaux macro (tissu et sang) et micro (cellule et fluides biologiques) à partir de la composition du tissu et du sang et de propriétés physicochimiques. L’algorithme résultant a été appliqué pour prédire les PC tissu:sang, tissu:plasma et tissu:air du muscle (n = 174), du foie (n = 139) et du tissu adipeux (n = 141) du rat pour des médicaments acides, basiques et neutres ainsi que pour des cétones, esters d’acétate, éthers, alcools, hydrocarbures aliphatiques et aromatiques. Un modèle de relation quantitative propriété-propriété (QPPR) a été développé pour la clairance intrinsèque (CLint) in vivo (calculée comme le ratio du Vmax (μmol/h/kg poids de rat) sur le Km (μM)), de substrats du CYP2E1 (n = 26) en fonction du PC n octanol:eau, du PC sang:eau et du potentiel d’ionisation). Les prédictions du QPPR, représentées par les limites inférieures et supérieures de l’intervalle de confiance à 95% à la moyenne, furent ensuite intégrées dans un modèle PBPK humain. Subséquemment, l’algorithme de PC et le QPPR pour la CLint furent intégrés avec des modèles QSPR pour les PC hémoglobine:eau et huile:air pour simuler la pharmacocinétique et la dosimétrie cellulaire d’inhalation de composés organiques volatiles (COV) (benzène, 1,2-dichloroéthane, dichlorométhane, m-xylène, toluène, styrène, 1,1,1 trichloroéthane et 1,2,4 trimethylbenzène) avec un modèle PBPK chez le rat. Finalement, la variabilité de paramètres de composition des tissus et du sang de l’algorithme pour les PC tissu:air chez le rat et sang:air chez l’humain a été caractérisée par des simulations Monte Carlo par chaîne de Markov (MCMC). Les distributions résultantes ont été utilisées pour conduire des simulations Monte Carlo pour prédire des PC tissu:sang et sang:air. Les distributions de PC, avec celles des paramètres physiologiques et du contenu en cytochrome P450 CYP2E1, ont été incorporées dans un modèle PBPK pour caractériser la variabilité de la toxicocinétique sanguine de quatre COV (benzène, chloroforme, styrène et trichloroéthylène) par simulation Monte Carlo. Globalement, les approches quantitatives mises en œuvre pour les PC et la CLint dans cette étude ont permis l’utilisation de descripteurs moléculaires génériques plutôt que de fragments moléculaires spécifiques pour prédire la pharmacocinétique de substances organiques chez l’humain. La présente étude a, pour la première fois, caractérisé la variabilité des paramètres biologiques des algorithmes de PC pour étendre l’aptitude des modèles PBPK à prédire les distributions, pour la population, de doses internes de substances organiques avant de faire des tests chez l’animal ou l’humain.
Resumo:
In a recent paper [Phys. Rev. B 50, 3477 (1994)], P. Fratzl and O. Penrose present the results of the Monte Carlo simulation of the spinodal decomposition problem (phase separation) using the vacancy dynamics mechanism. They observe that the t1/3 growth regime is reached faster than when using the standard Kawasaki dynamics. In this Comment we provide a simple explanation for the phenomenon based on the role of interface diffusion, which they claim is irrelevant for the observed behavior.
Resumo:
Am Institut für Mikrostrukturtechnologie und Analytik wurde eine neue Technik entwickelt, die neue Anwendungen und Methoden der Mikro- und Nanostrukturierung auf Basis eines neuen Verfahrens erschlossen hat. NANOJET führt über die passive Rastersondenmikroskopie hinaus zu einem vielseitigen, aktiven Bearbeitungswerkzeug auf der Mikro- und Nanometerskala. NANOJET (NANOstructuring Downstream PlasmaJET) ist eine aktive Rasterkraft-Mikroskopie-Sonde. Radikale (chemisch aktive Teilchen, die ein ungepaartes Valenzelektron besitzen) strömen aus dem Ende einer ultradünnen, hohlen Rasterkraftmikroskop-Spitze. Dadurch wird es möglich, über die übliche passive Abtastung einer Probenoberfläche hinausgehend, diese simultan und in-situ durch chemische Reaktionen zu verändern. Die Abtragung von Material wird durch eine chemische Ätzreaktion erreicht. In dieser Arbeit wurde zum größten Teil Photoresist als Substrat für die Ätzexperimente verwendet. Für das Ätzen des Resists wurden die Atome des Fluors und des Sauerstoffs im Grundzustand als verantwortlich identifiziert. Durch Experimente und durch Ergänzung von Literaturdaten wurde die Annahme bestätigt, dass Sauerstoffradikale mit Unterstützung von Fluorradikalen für die hohen erzielten Ätzraten verantwortlich sind. Die Beimischung von Fluor in einem Sauerstoffplasma führt zu einer Verringerung der Aktivierungsenergie für die Ätzreaktion gegenüber Verwendung reinen Sauerstoffs. In weiterer Folge wurde ein Strukturierungsverfahren dargestellt. Hierbei wurden "geformte Kapillaren" (mikrostrukturierte Aperturen) eingesetzt. Die Herstellung der Aperturen erfolgte durch einen elektrochemischen Ätzstop-Prozess. Die typische Größe der unter Verwendung der "geformten Kapillaren" geätzten Strukturen entsprach den Kapillarenöffnungen. Es wurde ein Monte-Carlo Simulationsprogramm entwickelt, welches den Transport der reaktiven Teilchen in der langen Transportröhre simulierte. Es wurde sowohl die Transmission der Teilchen in der Transportröhre und der Kapillare als auch ihre Winkelverteilung nach dem Verlassen der Kapillare berechnet. Das Aspektverhältnis der Röhren hat dabei einen sehr starken Einfluss. Mit einem steigenden Aspektverhältnis nahm die Transmission exponentiell ab. Die geschaffene experimentelle Infrastruktur wurde genutzt, um auch biologische Objekte zu behandeln und zu untersuchen. Hierfür wurde eine neue Methodik entwickelt, die eine dreidimensionale Darstellung des Zellinneren erlaubt. Dies wurde durch die kontrollierte Abtragung von Material aus der Zellmembran durchgeführt. Die Abtragung der Zellmembran erfolgte mittels Sauerstoffradikalen, die durch eine hohle Spitze lokalisiert zum Ort der Reaktion transportiert wurden. Ein piezoresistiver Cantilever diente als Sensor in dem zur Bildgebung eingesetzten RKM. Das entwickelte Verfahren ermöglicht es nun erstmals, schonend Zellen zu öffnen und die innen liegenden Organellen weiter zu untersuchen. Als Nachweis für weitere Verwendungsmöglichkeiten des NANOJET-Verfahrens wurde auch Knochenmaterial behandelt. Die Ergebnisse dieser Experimente zeigen klar, dass das Verfahren für vielfältige biologische Materialien verwendbar ist und somit nun ein weiter Anwendungskreis in der Biologie und Medizin offen steht.
Resumo:
Es ist bekannt, dass die Dichte eines gelösten Stoffes die Richtung und die Stärke seiner Bewegung im Untergrund entscheidend bestimmen kann. Eine Vielzahl von Untersuchungen hat gezeigt, dass die Verteilung der Durchlässigkeiten eines porösen Mediums diese Dichteffekte verstärken oder abmindern kann. Wie sich dieser gekoppelte Effekt auf die Vermischung zweier Fluide auswirkt, wurde in dieser Arbeit untersucht und dabei das experimentelle sowohl mit dem numerischen als auch mit dem analytischen Modell gekoppelt. Die auf der Störungstheorie basierende stochastische Theorie der macrodispersion wurde in dieser Arbeit für den Fall der transversalen Makodispersion. Für den Fall einer stabilen Schichtung wurde in einem Modelltank (10m x 1.2m x 0.1m) der Universität Kassel eine Serie sorgfältig kontrollierter zweidimensionaler Experimente an einem stochastisch heterogenen Modellaquifer durchgeführt. Es wurden Versuchsreihen mit variierenden Konzentrationsdifferenzen (250 ppm bis 100 000 ppm) und Strömungsgeschwindigkeiten (u = 1 m/ d bis 8 m/d) an drei verschieden anisotrop gepackten porösen Medien mit variierender Varianzen und Korrelationen der lognormal verteilten Permeabilitäten durchgeführt. Die stationäre räumliche Konzentrationsausbreitung der sich ausbreitenden Salzwasserfahne wurde anhand der Leitfähigkeit gemessen und aus der Höhendifferenz des 84- und 16-prozentigen relativen Konzentrationsdurchgang die Dispersion berechnet. Parallel dazu wurde ein numerisches Modell mit dem dichteabhängigen Finite-Elemente-Strömungs- und Transport-Programm SUTRA aufgestellt. Mit dem kalibrierten numerischen Modell wurden Prognosen für mögliche Transportszenarien, Sensitivitätsanalysen und stochastische Simulationen nach der Monte-Carlo-Methode durchgeführt. Die Einstellung der Strömungsgeschwindigkeit erfolgte - sowohl im experimentellen als auch im numerischen Modell - über konstante Druckränder an den Ein- und Auslauftanks. Dabei zeigte sich eine starke Sensitivität der räumlichen Konzentrationsausbreitung hinsichtlich lokaler Druckvariationen. Die Untersuchungen ergaben, dass sich die Konzentrationsfahne mit steigendem Abstand von der Einströmkante wellenförmig einem effektiven Wert annähert, aus dem die Makrodispersivität ermittelt werden kann. Dabei zeigten sich sichtbare nichtergodische Effekte, d.h. starke Abweichungen in den zweiten räumlichen Momenten der Konzentrationsverteilung der deterministischen Experimente von den Erwartungswerten aus der stochastischen Theorie. Die transversale Makrodispersivität stieg proportional zur Varianz und Korrelation der lognormalen Permeabilitätsverteilung und umgekehrt proportional zur Strömungsgeschwindigkeit und Dichtedifferenz zweier Fluide. Aus dem von Welty et al. [2003] mittels Störungstheorie entwickelten dichteabhängigen Makrodispersionstensor konnte in dieser Arbeit die stochastische Formel für die transversale Makrodispersion weiter entwickelt und - sowohl experimentell als auch numerisch - verifiziert werden.
Resumo:
Im Zuge der Novellierung der Gasnetzzugangsverordnung sowie des Erneuerbare-Energien-Gesetzes entwickelte sich die Einspeisung von Biomethan in das Erdgasnetz als alternative Investitionsmöglichkeit der Erneuerbare-Energien-Branche. Als problematisch erweist sich dabei die Identifikation und Strukturierung einzelner Risikofaktoren zu einem Risikobereich, sowie die anschließende Quantifizierung dieser Risikofaktoren innerhalb eines Risikoportfolios. Darüber hinaus besteht die Schwierigkeit, diese Risikofaktoren in einem cashflowbasierten und den Ansprüchen der Investoren gewachsenem Risikomodell abzubilden. Zusätzlich müssen dabei Wechselwirkungen zwischen einzelnen Risikofaktoren berücksichtigt werden. Aus diesem Grund verfolgt die Dissertation das Ziel, die Risikosituation eines Biomethanprojektes anhand aggregierter und isolierter Risikosimulationen zu analysieren. Im Rahmen einer Diskussion werden Strategien und Instrumente zur Risikosteuerung angesprochen sowie die Implementierungsfähigkeit des Risikomodells in das Risikomanagementsystem von Investoren. Die Risikomaße zur Beschreibung der Risikoauswirkung betrachten die Shortfälle einer Verteilung. Dabei beziehen sich diese auf die geplanten Ausschüttungen sowie interne Verzinsungsansprüche der Investoren und die von Kreditinstituten geforderte minimale Schuldendienstdeckungsrate. Im Hinblick auf die Risikotragfähigkeit werden liquiditätsorientierte Kennzahlen hinzugezogen. Investoren interessieren sich vor dem Hintergrund einer gezielten Risikosteuerung hauptsächlich für den gefahrvollsten Risikobereich und innerhalb dessen für den Risikofaktor, der die größten Risikoauswirkungen hervorruft. Zudem spielt der Zeitpunkt maximaler Risikoauswirkung eine große Rolle. Als Kernaussage dieser Arbeit wird festgestellt, dass in den meisten Fällen die Aussagefähigkeit aggregierter Risikosimulationen durch Überlagerungseffekte negativ beeinträchtigt wird. Erst durch isoliert durchgeführte Risikoanalysen können diese Effekte eliminiert werden. Besonders auffällig gestalten sich dabei die Ergebnisse der isoliert durchgeführten Risikoanalyse des Risikobereichs »Politik«. So verursacht dieser im Vergleich zu den übrigen Risikobereichen, wie »Infrastruktur«, »Rohstoffe«, »Absatzmarkt« und »Finanzmarkt«, die geringsten Wahrscheinlichkeiten avisierte Planwerte der Investoren zu unterschreiten. Kommt es jedoch zu einer solchen Planwert-Unterschreitung, nehmen die damit verbundenen Risikoauswirkungen eine überraschende Position im Risikoranking der Investoren ein. Hinsichtlich der Aussagefähigkeit des Risikomodells wird deutlich, dass spezifische Risikosichtweisen der Investoren ausschlaggebend dafür sind, welche Strategien und Instrumente zur Risikosenkung umgesetzt werden. Darüber hinaus wird festgestellt, dass die Grenzen des Risikomodells in der Validität der Expertenmeinungen und dem Auffinden einer Optimallösung zu suchen sind.