963 resultados para Monte-Carlo Simulation Method
Resumo:
This study examined the independent effect of skewness and kurtosis on the robustness of the linear mixed model (LMM), with the Kenward-Roger (KR) procedure, when group distributions are different, sample sizes are small, and sphericity cannot be assumed. Methods: A Monte Carlo simulation study considering a split-plot design involving three groups and four repeated measures was performed. Results: The results showed that when group distributions are different, the effect of skewness on KR robustness is greater than that of kurtosis for the corresponding values. Furthermore, the pairings of skewness and kurtosis with group size were found to be relevant variables when applying this procedure. Conclusions: With sample sizes of 45 and 60, KR is a suitable option for analyzing data when the distributions are: (a) mesokurtic and not highly or extremely skewed, and (b) symmetric with different degrees of kurtosis. With total sample sizes of 30, it is adequate when group sizes are equal and the distributions are: (a) mesokurtic and slightly or moderately skewed, and sphericity is assumed; and (b) symmetric with a moderate or high/extreme violation of kurtosis. Alternative analyses should be considered when the distributions are highly or extremely skewed and samples sizes are small.
Resumo:
Occupational hygiene practitioners typically assess the risk posed by occupational exposure by comparing exposure measurements to regulatory occupational exposure limits (OELs). In most jurisdictions, OELs are only available for exposure by the inhalation pathway. Skin notations are used to indicate substances for which dermal exposure may lead to health effects. However, these notations are either present or absent and provide no indication of acceptable levels of exposure. Furthermore, the methodology and framework for assigning skin notation differ widely across jurisdictions resulting in inconsistencies in the substances that carry notations. The UPERCUT tool was developed in response to these limitations. It helps occupational health stakeholders to assess the hazard associated with dermal exposure to chemicals. UPERCUT integrates dermal quantitative structure-activity relationships (QSARs) and toxicological data to provide users with a skin hazard index called the dermal hazard ratio (DHR) for the substance and scenario of interest. The DHR is the ratio between the estimated 'received' dose and the 'acceptable' dose. The 'received' dose is estimated using physico-chemical data and information on the exposure scenario provided by the user (body parts exposure and exposure duration), and the 'acceptable' dose is estimated using inhalation OELs and toxicological data. The uncertainty surrounding the DHR is estimated with Monte Carlo simulation. Additional information on the selected substances includes intrinsic skin permeation potential of the substance and the existence of skin notations. UPERCUT is the only available tool that estimates the absorbed dose and compares this to an acceptable dose. In the absence of dermal OELs it provides a systematic and simple approach for screening dermal exposure scenarios for 1686 substances.
Resumo:
This paper analyses the impact of using different correlation assumptions between lines of business when estimating the risk-based capital reserve, the Solvency Capital Requirement -SCR-, under Solvency II regulations. A case study is presented and the SCR is calculated according to the Standard Model approach. Alternatively, the requirement is then calculated using an Internal Model based on a Monte Carlo simulation of the net underwriting result at a one-year horizon, with copulas being used to model the dependence between lines of business. To address the impact of these model assumptions on the SCR we conduct a sensitivity analysis. We examine changes in the correlation matrix between lines of business and address the choice of copulas. Drawing on aggregate historical data from the Spanish non-life insurance market between 2000 and 2009, we conclude that modifications of the correlation and dependence assumptions have a significant impact on SCR estimation.
Resumo:
Pitkäaikaisten rakennusurakoiden tarjouslaskennassa on ennakoitava hintojen muutoksia useiden vuosien päähän, kun tarjoukset on tehtävä kiinteillä hinnoilla. Kustannusten ennakointi ja hintariskienhallinta on kriittinen tekijä rakennusalan yrityksen kilpailukyvylle. Tämän tutkielman tavoitteena on kehittää YIT Rakennus Oy:n Infrapalveluille toimintamalli ja työkalu, joiden avulla hintariskejä voidaan hallita tarjouslaskennassa sekä hankintatoimessa. Ratkaisuksi kehitettiin kustannusten ennakointi -malli, jossa panosryhmien hintojen kehitystä ennustetaan asiantuntijaryhmissä säännöllisesti. Kustannusten ennakointi -mallin käyttöönotto vaatii ennustettavien panosryhmien määrittelyä. Lisäksi on nimettävä asiantuntijaryhmä sekä valittava aikajänne, jolle ennuste tehdään. Ennusteisiin sisältyvä epävarmuus saadaan esiin Monte Carlo simulaatiolla, ja urakan hintariskiä voidaan siten arvioida todennäköisyysjakaumien ja herkkyysanalyysin avulla. Valmiita ennusteita hyödynnetään tarjouslaskennassa sekä hankintatoimessa taktiikoiden ja strategioiden valinnassa.
Resumo:
The ellipticines constitute a broad class of molecules with antitumor activity. In the present work we analyzed the structure and properties of a series of ellipticine derivatives in the gas phase and in solution using quantum mechanical and Monte Carlo methods. The results showed a good correlation between the solvation energies in water obtained with the continuum model and the Monte Carlo simulation. Molecular descriptors were considered in the development of QSAR models using the DNA association constant (log Kapp) as biological data. The results showed that the DNA binding is dominated by electronic parameters, with small contributions from the molecular volume and area.
Resumo:
The most widespread literature for the evaluation of uncertainty - GUM and Eurachem - does not describe explicitly how to deal with uncertainty of the concentration coming from non-linear calibration curves. This work had the objective of describing and validating a methodology, as recommended by the recent GUM Supplement approach, to evaluate the uncertainty through polynomial models of the second order. In the uncertainty determination of the concentration of benzatone (C) by chromatography, it is observed that the uncertainty of measurement between the methodology proposed and Monte Carlo Simulation, does not diverge by more than 0.0005 unit, thus validating the model proposed for one significant digit.
Resumo:
This dissertation is based on 5 articles which deal with reaction mechanisms of the following selected industrially important organic reactions: 1. dehydrocyclization of n-butylbenzene to produce naphthalene 2. dehydrocyclization of 1-(p-tolyl)-2-methylbutane (MB) to produce 2,6-dimethylnaphthalene 3. esterification of neopentyl glycol (NPG) with different carboxylic acids to produce monoesters 4. skeletal isomerization of 1-pentene to produce 2-methyl-1-butene and 2-methyl-2-butene The results of initial- and integral-rate experiments of n-butylbenzene dehydrocyclization over selfmade chromia/alumina catalyst were applied when investigating reaction 2. Reaction 2 was performed using commercial chromia/alumina of different acidity, platina on silica and vanadium/calcium/alumina as catalysts. On all catalysts used for the dehydrocyclization, major reactions were fragmentation of MB and 1-(p-tolyl)-2-methylbutenes (MBes), dehydrogenation of MB, double bond transfer, hydrogenation and 1,6-cyclization of MBes. Minor reactions were 1,5-cyclization of MBes and methyl group fragmentation of 1,6- cyclization products. Esterification reactions of NPG were performed using three different carboxylic acids: propionic, isobutyric and 2-ethylhexanoic acid. Commercial heterogeneous gellular (Dowex 50WX2), macroreticular (Amberlyst 15) type resins and homogeneous para-toluene sulfonic acid were used as catalysts. At first NPG reacted with carboxylic acids to form corresponding monoester and water. Then monoester esterified with carboxylic acid to form corresponding diester. In disproportionation reaction two monoester molecules formed NPG and corresponding diester. All these three reactions can attain equilibrium. Concerning esterification, water was removed from the reactor in order to prevent backward reaction. Skeletal isomerization experiments of 1-pentene were performed over HZSM-22 catalyst. Isomerization reactions of three different kind were detected: double bond, cis-trans and skeletal isomerization. Minor side reaction were dimerization and fragmentation. Monomolecular and bimolecular reaction mechanisms for skeletal isomerization explained experimental results almost equally well. Pseudohomogeneous kinetic parameters of reactions 1 and 2 were estimated by usual least squares fitting. Concerning reactions 3 and 4 kinetic parameters were estimated by the leastsquares method, but also the possible cross-correlation and identifiability of parameters were determined using Markov chain Monte Carlo (MCMC) method. Finally using MCMC method, the estimation of model parameters and predictions were performed according to the Bayesian paradigm. According to the fitting results suggested reaction mechanisms explained experimental results rather well. When the possible cross-correlation and identifiability of parameters (Reactions 3 and 4) were determined using MCMC method, the parameters identified well, and no pathological cross-correlation could be seen between any parameter pair.
Resumo:
Kasvihuonekaasupäästöjen vähentämiseksi ja uusiutuvan energian käytön lisäämiseksi EU:ssa on säädetty direktiivi uusiutuvan energian käytön edistämisestä(RES-direktiivi). Direktiivissä annetaan ohjeet biopolttoaineiden ja bionesteiden kasvihuonekaasuvaikutusten laskemiseen. Tämän työn tarkoituksena oli selvittää, täyttääkö hakkuutähteistä valmistettu pyrolyysiöljy RES-direktiivin asettamat määrälliset vaatimukset kasvihuonekaasujen päästövähennykselle silloin, kun pyrolyysiöljyllä korvataan raskasta polttoöljyä lämmöntuotannossa. Laskenta suorittiin direktiivin ohjeiden mukaan. Lisäksi työssä pohdittiin laskentamenetelmän soveltuvuutta pyrolyysiöljyn ilmastovaikutusten arviointiin yleisesti. Laskennassa huomioitiin raaka-aineen tuotannosta, jalostuksesta sekä kuljetuksesta ja jakelusta aiheutuvat kasvihuonekaasupäästöt. Päästöt laskettiin ensin oletusarvoilla, jonka jälkeen suoritettiin todennäköisyyspohjainen herkkyystarkastelu valituille parametreille. Herkkyystarkastelun tuloksista huomattiin, että päästövähennys riippuu pääasiassa kahdesta tekijästä: maaperän hiilitaseen muutoksesta aiheutuvista päästöistä ja pyrolyysiprosessin tarvitseman lämmön tuotantoon käytetyistä polttoaineista. Eniten tuloksiin vaikutti kuitenkin se, oletettiinko pyrolysaattori ja kattila tarkastelussa erillisiksi yksiköiksi (tapaus 1) vai kokonaisuudeksi (tapaus 2). Tulosten perusteella näyttää siltä, että pyrolyysiöljyn käyttö lämmöntuotannossa raskaan polttoöljyn sijasta johtaa päästövähennyksiin. Saatuja tuloksia ei kuitenkaan voida pitää ennusteina pyrolyysiöljyn todellisista ilmastovaikutuksista, koska elinkaariarviointiin liittyy monia epävarmuuksia. RES-direktiivin laskentaohjeet esimerkiksi järjestelmärajausten muodostamisesta ja päästöjen kohdentamisesta ovat epätarkat. Tästä syystä direktiiviä on mahdollista tulkita usealla eri tavalla, jolloin toisistaan poikkeavat tulokset voivat silti olla kaikki direktiivin mukaisesti laskettuja. Jotta liika tulkinnanvaraisuus ei aiheuttaisi ongelmia, olisi RES-direktiivin laskentaohjetta hyvä tarkentaa.
Resumo:
Background: Lung cancer (LC) is the leading cause of cancer death in the developed world. Most cancers are associated with tobacco smoking. A primary hope for reducing lung cancer has been prevention of smoking and successful smoking cessation programs. To date, these programs have not been as successful as anticipated. Objective: The aim of the current study was to evaluate whether lung cancer screening combining low dose computed tomography with autofluorescence bronchoscopy (combined CT & AFB) is superior to CT or AFB screening alone in improving lung cancer specific survival. In addition, the extent of improvement and ideal conditions for combined CT & AFB screening were evaluated. Methods: We applied decision analysis and Monte Carlo simulation modeling using TreeAge Software to evaluate our study aims. Histology- and stage specific probabilities of lung cancer 5-year survival proportions were taken from Surveillance and Epidemiologic End Results (SEER) Registry data. Screeningassociated data was taken from the US NCI Prostate, Lung, Colorectal and Ovarian Cancer Screening Trial (PLCO), National Lung Screening Trial (NLST), and US NCI Lung Screening Study (LSS), other relevant published data and expert opinion. Results: Decision Analysis - Combined CT and AFB was the best approach at Improving 5-year survival (Overall Expected Survival (OES) in the entire screened population was 0.9863) and in lung cancer patients only (Lung Cancer Specific Expected Survival (LOSES) was 0.3256). Combined screening was slightly better than CT screening alone (OES = 0.9859; LCSES = 0.2966), and substantially better than AFB screening alone (OES = 0.9842; LCSES = 0.2124), which was considerably better than no screening (OES = 0.9829; LCSES = 0.1445). Monte Carlo simulation modeling revealed that expected survival in the screened population and lung cancer patients is highest when screened using CT and combined CT and AFB. CT alone and combined screening was substantially better than AFB screening alone or no screening. For LCSES, combined CT and AFB screening is significantly better than CT alone (0.3126 vs. 0.2938, p< 0.0001). Conclusions: Overall, these analyses suggest that combined CT and AFB is slightly better than CT alone at improving lung cancer survival, and both approaches are substantially better than AFB screening alone or no screening.
Resumo:
La tâche de maintenance ainsi que la compréhension des programmes orientés objet (OO) deviennent de plus en plus coûteuses. L’analyse des liens de dépendance peut être une solution pour faciliter ces tâches d’ingénierie. Cependant, analyser les liens de dépendance est une tâche à la fois importante et difficile. Nous proposons une approche pour l'étude des liens de dépendance internes pour des programmes OO, dans un cadre probabiliste, où les entrées du programme peuvent être modélisées comme un vecteur aléatoire, ou comme une chaîne de Markov. Dans ce cadre, les métriques de couplage deviennent des variables aléatoires dont les distributions de probabilité peuvent être étudiées en utilisant les techniques de simulation Monte-Carlo. Les distributions obtenues constituent un point d’entrée pour comprendre les liens de dépendance internes entre les éléments du programme, ainsi que leur comportement général. Ce travail est valable dans le cas où les valeurs prises par la métrique dépendent des entrées du programme et que ces entrées ne sont pas fixées à priori. Nous illustrons notre approche par deux études de cas.
Resumo:
Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
L’exposition prolongée par inhalation à des poussières de taille respirable contenant de la silice cristalline est reconnue pour causer des maladies respiratoires dont le cancer du poumon et la silicose. De nombreuses études ont relevé la surexposition des travailleurs de la construction à la silice cristalline, puisque ce composé est présent dans de nombreux matériaux utilisés sur les chantiers. L’évaluation de l’exposition à la silice cristalline dans cette industrie constitue un défi en raison de la multitude de conditions de travail et de la nature éphémère des chantiers. Afin de mieux cerner cette problématique, une banque de données d’exposition professionnelle compilée à partir de la littérature a été réalisée par une équipe de l’Université de Montréal et de l’IRSST, et constitue le point de départ de ce travail. Les données présentes dans la banque ont été divisées en fonction de la stratégie d’échantillonnage, résultant en deux analyses complémentaires ayant pour objectif d’estimer les niveaux d’exposition sur le quart de travail en fonction du titre d’emploi, et selon la nature de la tâche exécutée. La méthode de Monte Carlo a été utilisée pour recréer les échantillons provenant de données rapportées sous forme de paramètres de synthèse. Des modèles Tobit comprenant les variables de titre d’emploi, tâche exécutée, durée, année et stratégie d’échantillonnage, type de projet, secteur d’activité, environnement et moyens de maîtrise ont été développés et interprétés par inférence multimodèle. L’analyse basée sur le quart de travail a été réalisée à partir de 1346 données d’exposition couvrant 11 catégories de titre d’emploi. Le modèle contenant toutes les variables a expliqué 22% de la variabilité des mesures et la durée, l’année et la stratégie d’échantillonnage étaient d’importants prédicteurs de l’exposition. Les chantiers de génie civil et les projets de nouvelle construction étaient associés à des expositions plus faibles, alors que l’utilisation de moyens de maîtrise diminuait les concentrations de 18% à l’extérieur et de 24% à l’intérieur. Les moyennes géométriques les plus élevées prédites pour l’année 1999 sur 8 heures étaient retrouvées chez les foreurs (0.214 mg/m3), les travailleurs souterrains (0.191 mg/m3), les couvreurs (0.146 mg/m3) et les cimentiers-applicateurs (0.125 mg/m3). 1566 mesures réparties en 27 catégories de tâches étaient contenues dans la seconde analyse. Le modèle contenant toutes les variables a expliqué 59% des niveaux d’exposition, et l’ensemble des variables contextuelles étaient fortement prédictives. Les moyennes géométriques prédites pour l’année 1998 et selon la durée médiane par tâche dans la banque de données étaient plus élevées lors du bouchardage du béton (1.446 mg/m3), du cassage de pièces de maçonnerie avec autres outils (0.354 mg/m3), du décapage au jet de sable (0.349 mg/m3) et du meulage de joints de brique (0.200 mg/m3). Une diminution importante des concentrations a été observée avec les systèmes d’arrosage (-80%) et d’aspiration des poussières (-64%) intégrés aux outils. L’analyse en fonction des titres d’emploi a montré une surexposition généralisée à la valeur guide de l’ACGIH et à la norme québécoise, indiquant un risque à long terme de maladies professionnelles chez ces travailleurs. Les résultats obtenus pour l’évaluation en fonction de la tâche exécutée montrent que cette stratégie permet une meilleure caractérisation des facteurs associés à l’exposition et ainsi de mieux cibler les priorités d’intervention pour contrôler les niveaux d’exposition à la silice cristalline sur les chantiers de construction durant un quart de travail.
Resumo:
Les modèles pharmacocinétiques à base physiologique (PBPK) permettent de simuler la dose interne de substances chimiques sur la base de paramètres spécifiques à l’espèce et à la substance. Les modèles de relation quantitative structure-propriété (QSPR) existants permettent d’estimer les paramètres spécifiques au produit (coefficients de partage (PC) et constantes de métabolisme) mais leur domaine d’application est limité par leur manque de considération de la variabilité de leurs paramètres d’entrée ainsi que par leur domaine d’application restreint (c. à d., substances contenant CH3, CH2, CH, C, C=C, H, Cl, F, Br, cycle benzénique et H sur le cycle benzénique). L’objectif de cette étude est de développer de nouvelles connaissances et des outils afin d’élargir le domaine d’application des modèles QSPR-PBPK pour prédire la toxicocinétique de substances organiques inhalées chez l’humain. D’abord, un algorithme mécaniste unifié a été développé à partir de modèles existants pour prédire les PC de 142 médicaments et polluants environnementaux aux niveaux macro (tissu et sang) et micro (cellule et fluides biologiques) à partir de la composition du tissu et du sang et de propriétés physicochimiques. L’algorithme résultant a été appliqué pour prédire les PC tissu:sang, tissu:plasma et tissu:air du muscle (n = 174), du foie (n = 139) et du tissu adipeux (n = 141) du rat pour des médicaments acides, basiques et neutres ainsi que pour des cétones, esters d’acétate, éthers, alcools, hydrocarbures aliphatiques et aromatiques. Un modèle de relation quantitative propriété-propriété (QPPR) a été développé pour la clairance intrinsèque (CLint) in vivo (calculée comme le ratio du Vmax (μmol/h/kg poids de rat) sur le Km (μM)), de substrats du CYP2E1 (n = 26) en fonction du PC n octanol:eau, du PC sang:eau et du potentiel d’ionisation). Les prédictions du QPPR, représentées par les limites inférieures et supérieures de l’intervalle de confiance à 95% à la moyenne, furent ensuite intégrées dans un modèle PBPK humain. Subséquemment, l’algorithme de PC et le QPPR pour la CLint furent intégrés avec des modèles QSPR pour les PC hémoglobine:eau et huile:air pour simuler la pharmacocinétique et la dosimétrie cellulaire d’inhalation de composés organiques volatiles (COV) (benzène, 1,2-dichloroéthane, dichlorométhane, m-xylène, toluène, styrène, 1,1,1 trichloroéthane et 1,2,4 trimethylbenzène) avec un modèle PBPK chez le rat. Finalement, la variabilité de paramètres de composition des tissus et du sang de l’algorithme pour les PC tissu:air chez le rat et sang:air chez l’humain a été caractérisée par des simulations Monte Carlo par chaîne de Markov (MCMC). Les distributions résultantes ont été utilisées pour conduire des simulations Monte Carlo pour prédire des PC tissu:sang et sang:air. Les distributions de PC, avec celles des paramètres physiologiques et du contenu en cytochrome P450 CYP2E1, ont été incorporées dans un modèle PBPK pour caractériser la variabilité de la toxicocinétique sanguine de quatre COV (benzène, chloroforme, styrène et trichloroéthylène) par simulation Monte Carlo. Globalement, les approches quantitatives mises en œuvre pour les PC et la CLint dans cette étude ont permis l’utilisation de descripteurs moléculaires génériques plutôt que de fragments moléculaires spécifiques pour prédire la pharmacocinétique de substances organiques chez l’humain. La présente étude a, pour la première fois, caractérisé la variabilité des paramètres biologiques des algorithmes de PC pour étendre l’aptitude des modèles PBPK à prédire les distributions, pour la population, de doses internes de substances organiques avant de faire des tests chez l’animal ou l’humain.
Resumo:
In a recent paper [Phys. Rev. B 50, 3477 (1994)], P. Fratzl and O. Penrose present the results of the Monte Carlo simulation of the spinodal decomposition problem (phase separation) using the vacancy dynamics mechanism. They observe that the t1/3 growth regime is reached faster than when using the standard Kawasaki dynamics. In this Comment we provide a simple explanation for the phenomenon based on the role of interface diffusion, which they claim is irrelevant for the observed behavior.
Resumo:
Es ist bekannt, dass die Dichte eines gelösten Stoffes die Richtung und die Stärke seiner Bewegung im Untergrund entscheidend bestimmen kann. Eine Vielzahl von Untersuchungen hat gezeigt, dass die Verteilung der Durchlässigkeiten eines porösen Mediums diese Dichteffekte verstärken oder abmindern kann. Wie sich dieser gekoppelte Effekt auf die Vermischung zweier Fluide auswirkt, wurde in dieser Arbeit untersucht und dabei das experimentelle sowohl mit dem numerischen als auch mit dem analytischen Modell gekoppelt. Die auf der Störungstheorie basierende stochastische Theorie der macrodispersion wurde in dieser Arbeit für den Fall der transversalen Makodispersion. Für den Fall einer stabilen Schichtung wurde in einem Modelltank (10m x 1.2m x 0.1m) der Universität Kassel eine Serie sorgfältig kontrollierter zweidimensionaler Experimente an einem stochastisch heterogenen Modellaquifer durchgeführt. Es wurden Versuchsreihen mit variierenden Konzentrationsdifferenzen (250 ppm bis 100 000 ppm) und Strömungsgeschwindigkeiten (u = 1 m/ d bis 8 m/d) an drei verschieden anisotrop gepackten porösen Medien mit variierender Varianzen und Korrelationen der lognormal verteilten Permeabilitäten durchgeführt. Die stationäre räumliche Konzentrationsausbreitung der sich ausbreitenden Salzwasserfahne wurde anhand der Leitfähigkeit gemessen und aus der Höhendifferenz des 84- und 16-prozentigen relativen Konzentrationsdurchgang die Dispersion berechnet. Parallel dazu wurde ein numerisches Modell mit dem dichteabhängigen Finite-Elemente-Strömungs- und Transport-Programm SUTRA aufgestellt. Mit dem kalibrierten numerischen Modell wurden Prognosen für mögliche Transportszenarien, Sensitivitätsanalysen und stochastische Simulationen nach der Monte-Carlo-Methode durchgeführt. Die Einstellung der Strömungsgeschwindigkeit erfolgte - sowohl im experimentellen als auch im numerischen Modell - über konstante Druckränder an den Ein- und Auslauftanks. Dabei zeigte sich eine starke Sensitivität der räumlichen Konzentrationsausbreitung hinsichtlich lokaler Druckvariationen. Die Untersuchungen ergaben, dass sich die Konzentrationsfahne mit steigendem Abstand von der Einströmkante wellenförmig einem effektiven Wert annähert, aus dem die Makrodispersivität ermittelt werden kann. Dabei zeigten sich sichtbare nichtergodische Effekte, d.h. starke Abweichungen in den zweiten räumlichen Momenten der Konzentrationsverteilung der deterministischen Experimente von den Erwartungswerten aus der stochastischen Theorie. Die transversale Makrodispersivität stieg proportional zur Varianz und Korrelation der lognormalen Permeabilitätsverteilung und umgekehrt proportional zur Strömungsgeschwindigkeit und Dichtedifferenz zweier Fluide. Aus dem von Welty et al. [2003] mittels Störungstheorie entwickelten dichteabhängigen Makrodispersionstensor konnte in dieser Arbeit die stochastische Formel für die transversale Makrodispersion weiter entwickelt und - sowohl experimentell als auch numerisch - verifiziert werden.