990 resultados para Simulations Monte Carlo de la chimie de trajectoires


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Auf dem Gebiet der Strukturdynamik sind computergestützte Modellvalidierungstechniken inzwischen weit verbreitet. Dabei werden experimentelle Modaldaten, um ein numerisches Modell für weitere Analysen zu korrigieren. Gleichwohl repräsentiert das validierte Modell nur das dynamische Verhalten der getesteten Struktur. In der Realität gibt es wiederum viele Faktoren, die zwangsläufig zu variierenden Ergebnissen von Modaltests führen werden: Sich verändernde Umgebungsbedingungen während eines Tests, leicht unterschiedliche Testaufbauten, ein Test an einer nominell gleichen aber anderen Struktur (z.B. aus der Serienfertigung), etc. Damit eine stochastische Simulation durchgeführt werden kann, muss eine Reihe von Annahmen für die verwendeten Zufallsvariablengetroffen werden. Folglich bedarf es einer inversen Methode, die es ermöglicht ein stochastisches Modell aus experimentellen Modaldaten zu identifizieren. Die Arbeit beschreibt die Entwicklung eines parameter-basierten Ansatzes, um stochastische Simulationsmodelle auf dem Gebiet der Strukturdynamik zu identifizieren. Die entwickelte Methode beruht auf Sensitivitäten erster Ordnung, mit denen Parametermittelwerte und Kovarianzen des numerischen Modells aus stochastischen experimentellen Modaldaten bestimmt werden können.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A problem in the archaeometric classification of Catalan Renaissance pottery is the fact, that the clay supply of the pottery workshops was centrally organized by guilds, and therefore usually all potters of a single production centre produced chemically similar ceramics. However, analysing the glazes of the ware usually a large number of inclusions in the glaze is found, which reveal technological differences between single workshops. These inclusions have been used by the potters in order to opacify the transparent glaze and to achieve a white background for further decoration. In order to distinguish different technological preparation procedures of the single workshops, at a Scanning Electron Microscope the chemical composition of those inclusions as well as their size in the two-dimensional cut is recorded. Based on the latter, a frequency distribution of the apparent diameters is estimated for each sample and type of inclusion. Following an approach by S.D. Wicksell (1925), it is principally possible to transform the distributions of the apparent 2D-diameters back to those of the true three-dimensional bodies. The applicability of this approach and its practical problems are examined using different ways of kernel density estimation and Monte-Carlo tests of the methodology. Finally, it is tested in how far the obtained frequency distributions can be used to classify the pottery

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The R-package “compositions”is a tool for advanced compositional analysis. Its basic functionality has seen some conceptual improvement, containing now some facilities to work with and represent ilr bases built from balances, and an elaborated subsys- tem for dealing with several kinds of irregular data: (rounded or structural) zeroes, incomplete observations and outliers. The general approach to these irregularities is based on subcompositions: for an irregular datum, one can distinguish a “regular” sub- composition (where all parts are actually observed and the datum behaves typically) and a “problematic” subcomposition (with those unobserved, zero or rounded parts, or else where the datum shows an erratic or atypical behaviour). Systematic classification schemes are proposed for both outliers and missing values (including zeros) focusing on the nature of irregularities in the datum subcomposition(s). To compute statistics with values missing at random and structural zeros, a projection approach is implemented: a given datum contributes to the estimation of the desired parameters only on the subcompositon where it was observed. For data sets with values below the detection limit, two different approaches are provided: the well-known imputation technique, and also the projection approach. To compute statistics in the presence of outliers, robust statistics are adapted to the characteristics of compositional data, based on the minimum covariance determinant approach. The outlier classification is based on four different models of outlier occur- rence and Monte-Carlo-based tests for their characterization. Furthermore the package provides special plots helping to understand the nature of outliers in the dataset. Keywords: coda-dendrogram, lost values, MAR, missing data, MCD estimator, robustness, rounded zeros

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The Hardy-Weinberg law, formulated about 100 years ago, states that under certain assumptions, the three genotypes AA, AB and BB at a bi-allelic locus are expected to occur in the proportions p2, 2pq, and q2 respectively, where p is the allele frequency of A, and q = 1-p. There are many statistical tests being used to check whether empirical marker data obeys the Hardy-Weinberg principle. Among these are the classical xi-square test (with or without continuity correction), the likelihood ratio test, Fisher's Exact test, and exact tests in combination with Monte Carlo and Markov Chain algorithms. Tests for Hardy-Weinberg equilibrium (HWE) are numerical in nature, requiring the computation of a test statistic and a p-value. There is however, ample space for the use of graphics in HWE tests, in particular for the ternary plot. Nowadays, many genetical studies are using genetical markers known as Single Nucleotide Polymorphisms (SNPs). SNP data comes in the form of counts, but from the counts one typically computes genotype frequencies and allele frequencies. These frequencies satisfy the unit-sum constraint, and their analysis therefore falls within the realm of compositional data analysis (Aitchison, 1986). SNPs are usually bi-allelic, which implies that the genotype frequencies can be adequately represented in a ternary plot. Compositions that are in exact HWE describe a parabola in the ternary plot. Compositions for which HWE cannot be rejected in a statistical test are typically “close" to the parabola, whereas compositions that differ significantly from HWE are “far". By rewriting the statistics used to test for HWE in terms of heterozygote frequencies, acceptance regions for HWE can be obtained that can be depicted in the ternary plot. This way, compositions can be tested for HWE purely on the basis of their position in the ternary plot (Graffelman & Morales, 2008). This leads to nice graphical representations where large numbers of SNPs can be tested for HWE in a single graph. Several examples of graphical tests for HWE (implemented in R software), will be shown, using SNP data from different human populations

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Este estudio analiza el efecto del uso de Internet sobre el ingreso laboral, eliminado el problema de endogeneidad que existe por motivos de selección. También se analizan los efectos seg un el lugar de acceso y las actividades realizadas en Internet. Para esto se utiliza Propensity Score Matching, tomando información para Colombia entre el año 2009 a 2011. Los resultados muestran que existe un efecto positivo, significativo y heterogéneo entre trabajadores asalariados y cuenta propia, siendo los últimos los más beneficiados. Con respecto al lugar de uso se encuentra un impacto positivo del uso del Internet en el trabajo y/o en el hogar, con una mayor magnitud en el primer sitio de acceso. Para el tema del manejo del Internet, no se encuentra efecto cuando se utiliza en actividades de entretenimiento, pero si cuando se usa en tareas educativas diariamente. Esto siguiere que usar este servicio aumenta la productividad y el capital humano, lo que se transforma en un incremento en los ingresos. Por tanto, se encuentra que el lugar de uso es una señal informativa para el mercado laboral, mientras que el impacto del manejo de esta herramienta depende de la frecuencia con que se realicen las actividades.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Valorar activos financieros cuando el mundo no es tan normal como asumen muchos modelos financieros exige un método flexible para operar con diversas distribuciones, el cual, adicionalmente, pueda incorporar discontinuidades como las que se dan en procesos estocásticos de salto. El método Monte Carlo cumple con esos requisitos, además de generar una buena aproximación y ser eficiente, lo cual lo convierte en el más adecuado para aquellos casos en los cuales no se cumple el supuesto de normalidad. Este artículo explica como se aplica este método para la valoración de activos financieros, particularmente opciones financieras, cuando el activo subyacente sigue un proceso de volatilidad estocástica o de salto-difusión.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Los métodos disponibles para realizar análisis de descomposición que se pueden aplicar cuando los datos son completamente observados, no son válidos cuando la variable de interés es censurada. Esto puede explicar la escasez de este tipo de ejercicios considerando variables de duración, las cuales se observan usualmente bajo censura. Este documento propone un método del tipo Oaxaca-Blinder para descomponer diferencias en la media en el contexto de datos censurados. La validez de dicho método radica en la identificación y estimación de la distribución conjunta de la variable de duración y un conjunto de covariables. Adicionalmente, se propone un método más general que permite descomponer otros funcionales de interés como la mediana o el coeficiente de Gini, el cual se basa en la especificación de la función de distribución condicional de la variable de duración dado un conjunto de covariables. Con el fin de evaluar el desempeño de dichos métodos, se realizan experimentos tipo Monte Carlo. Finalmente, los métodos propuestos son aplicados para analizar las brechas de género en diferentes características de la duración del desempleo en España, tales como la duración media, la probabilidad de ser desempleado de largo plazo y el coeficiente de Gini. Los resultados obtenidos permiten concluir que los factores diferentes a las características observables, tales como capital humano o estructura del hogar, juegan un papel primordial para explicar dichas brechas.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Monográfico con el título: 'Aportaciones de las nuevas tecnologías a la investigación educativa'. Resumen basado en el de la publicación

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Resumen tomado de la publicaci??n

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Este trabajo hace una reflexión acerca de El monte, obra de la autora cubana Lydia Cabrera, publicada en 1954. Se trata de un texto de gran importancia para el folklor y la tradición oral del pueblo cubano, muy en especial para la cultura afrocubana, pues la autora rescató, de los últimos descendientes de los negros de nación, el caudal de leyendas, tradiciones, creencias, magia y supersticiones que estos hombres y mujeres conservaban de la lejana África. Debido a la cuantiosa y diversa información que nos ofrece el libro, es que éste ha sido concebido como texto híbrido, polifónico y heterogéneo que, en correspondencia con sus múltiples facetas escriturarias, ofrece múltiples posibilidades de lecturas. Ante esta disyuntiva, hemos optado por escoger dos entre las numerosas lecturas, la literaria y la de la memoria. En cuanto a la literatura, el trabajo analiza el valor de la obra a partir de los contextos de elaboración y recepción. Lydia elabora el texto como narradora ficcionalizada, cuya voluntad es narrar, hacer grato lo que cuenta, interpretar, dar sentido a los testimonios que ha escuchado de sus informantes, y de la misma forma pueden ser recibidos éstos: tanto el lector familiarizado con los temas como el ajeno a ellos, leen el texto como una ficción que tiene su referente en fenómenos culturales. Por otra parte, al ahondar en la memoria de sus informantes, L. Cabrera se percata de la existencia de una serie de núcleos de resistencia, de ordenamientos secretos que reproducen creencias, tradiciones que datan de la época colonial y se mantienen hasta nuestros días; ellas son las casas- templos en el caso de la Regla de Ocha o Santería y la Regla Conga o de Palo Monte y la Sociedad Secreta Abakuá. Para anoticiarnos de estas instituciones, la escritora explora, en su propio beneficio, tres de las propiedades de la memoria, (variabilidad, selectividad y significación), que le dan sentido a lo escrito. Al finalizar su recorrido por este mundo mágico de los negros, la investigadora nos revela su vinculación espiritual con el objeto de su investigación y su viaje se nos presenta como una verdadera travesía transcultural.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El objetivo principal de este estudio, es la construcción de un modelo financiero probabilístico que nos ayude a encontrar la probabilidad de éxito de un proyecto de una empresa que preste servicios de factoring, como parte del análisis y gestión del riesgo. La tesis consta de seis capítulos en los que se estudiaron distintos tópicos que son parte del estudio. En el capítulo uno se analiza lo referente al factoring como fuente de financiamiento, sus conceptos, naturaleza jurídica, interventores, ventajas y desventajas, entre otros. En el capítulo dos se hace referencia al análisis y gestión de riesgos en la implementación de la entidad que preste servicios de factoring, indicando básicamente cual es el proceso de gestión, identificación de los riesgos, análisis cualitativo y cuantitativo del riesgo, etc. En el capítulo tres se realiza una descripción del proyecto, haciendo referencia al alcance, información financiera, variables del proyecto y proyecciones. Posteriormente, en el capítulo cuatro se realiza la modelación probabilística para el análisis de riesgo del proyecto utilizando la simulación Monte Carlo. En el capítulo seis se analizan los resultados obtenidos con la modelación probabilística y se realiza un análisis de sensibilidad. Por último, se presenta las conclusiones y recomendaciones que han resultado del estudio.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A methodology for discovering the mechanisms and dynamics of protein clustering on solid surfaces is presented. In situ atomic force microscopy images are quantitatively compared to Monte Carlo simulations using cluster statistics to differentiate various models. We study lysozyme adsorption on mica as a model system and find that all surface-supported clusters are mobile, not just the monomers, with diffusion constant inversely related to cluster size. The surface monomer diffusion constant is measured to be D1∼9×10-16  cm2 s-1, such a low value being difficult to measure using other techniques.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Despite its relevance to a wide range of technological and fundamental areas, a quantitative understanding of protein surface clustering dynamics is often lacking. In inorganic crystal growth, surface clustering of adatoms is well described by diffusion-aggregation models. In such models, the statistical properties of the aggregate arrays often reveal the molecular scale aggregation processes. We investigate the potential of these theories to reveal hitherto hidden facets of protein clustering by carrying out concomitant observations of lysozyme adsorption onto mica surfaces, using atomic force microscopy. and Monte Carlo simulations of cluster nucleation and growth. We find that lysozyme clusters diffuse across the substrate at a rate that varies inversely with size. This result suggests which molecular scale mechanisms are responsible for the mobility of the proteins on the substrate. In addition the surface diffusion coefficient of the monomer can also be extracted from the comparison between experiments and simulations. While concentrating on a model system of lysozyme-on-mica, this 'proof of concept' study successfully demonstrates the potential of our approach to understand and influence more biomedically applicable protein-substrate couples.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Water quality models generally require a relatively large number of parameters to define their functional relationships, and since prior information on parameter values is limited, these are commonly defined by fitting the model to observed data. In this paper, the identifiability of water quality parameters and the associated uncertainty in model simulations are investigated. A modification to the water quality model `Quality Simulation Along River Systems' is presented in which an improved flow component is used within the existing water quality model framework. The performance of the model is evaluated in an application to the Bedford Ouse river, UK, using a Monte-Carlo analysis toolbox. The essential framework of the model proved to be sound, and calibration and validation performance was generally good. However some supposedly important water quality parameters associated with algal activity were found to be completely insensitive, and hence non-identifiable, within the model structure, while others (nitrification and sedimentation) had optimum values at or close to zero, indicating that those processes were not detectable from the data set examined. (C) 2003 Elsevier Science B.V. All rights reserved.