955 resultados para Simulations Monte Carlo de la chimie de trajectoires
Resumo:
1. Realizar un estudio exhaustivo del Análisis Discriminante para evaluar su robustez con el fin de hacer las pertinentes recomendaciones al psicólogo aplicado; 2. Determinar criterios estadísticos que ayuden a las interpretaciones heurísticas de los coeficientes más relevantes, para la evaluación de las contribuciones de las variables a las funciones discriminantes. Primera investigación: Se trabajó con un diseño factorial 4x2x3x2x2 lo que supone 96 condiciones experimentales. Las cinco variables eran: a. Normalidad de las variables, b. Varianza de los grupos, c. Número de variables, d. Número de grupos, 5. Número de sujetos en cada grupo. Variable Dependiente: Para cada una de las 200 replicaciones Monte Carlo se obtuvieron las lambdas de Wilks, las V de Bartlett y su probabilidad asociada, como índice de la significación de criterio discriminante. Segunda investigación: Para esta investigación se replicó el diseño de la primera investigación, es decir, las 96 condiciones experimentales con todos los factores, otorgando ahora el perfil de diferencias grupales siguiente para las condiciones con tres grupos y para las condiciones con seis grupos. Se mantuvieron constantes las correlaciones entre las variables e iguales a las de la primera investigación, 0,70. El valor de los parámetros fue obtenido mediante el programa DISCRIMINANT del SPSS/PC+. Hardware: El trabajo de simulación se llevó a cabo con ocho ordenadores personales clónicos PC:PENTIUM/100 Mhz., con 16 MB de RAM. Software: Los procedimientos necesarios para la investigación fueron realizados en el lenguaje de programación GAUSS 386i, versión 3.1 (Aptech Systems, 1994). 1. Los métodos de simulación y concretamente, el método de muestreo bootstrap, son de gran utilidad para los estudios de robustez de las técnicas estadísticas, así como en los de inferencia estadística: cálculo de intervalos de confianza; 2. El Análisis Discriminante es una técnica robusta, siempre y cuando se cumpla la condición de homogeneidad de las varianzas; 3. El Análisis Discriminante no es robusto ante problemas de heterogeneidad en las siguientes condiciones: Con seis o menos variables,cuando los tamaños grupales son diferentes. Para tamaños iguales, si además se presenta una alteración conjunta de asimetría y apuntamiento; 4. Cuando la violación del supuesto de homogeneidad viene provocada porque la varianza mayor la presenta el grupo con menos sujetos la técnica se vuelve demasiado liberal, es decir, se produce un alto grado de error tipo I; 5. Los coeficientes de estructura son más estables e insesgados que los típicos; 6. Es posible determinar los intervalos confidenciales de los coeficientes de estructura mediante el procedimiento sugerido por Dalgleish (1994). 1. El Análisis Discriminante se puede utilizar siempre que se cumpla la condición de Homogeneidad de varianzas. Es por tanto, absolutamente necesario comprobar antes de realizar un Análisis Discriminante este principio, lo cual se puede llevar a cabo a través de cualquiera de los estadísticos pertinentes y, en especial, la prueba de Box; 2. Ante la heterogeneidad de varianzas si el número de variables independientes es seis o inferior, deberá tenerse en cuenta que el número de sujetos debe ser igual en todos los grupos y que las variables no presenten alteraciones conjuntas de asimetría y apuntamiento,por lo que, como paso previo deberá comprobarse la distribución de las variables y detectar si se presenta esta alteración. En cualquier otra condición, y ante la presencia de heterogeneidad de varianzas no se puede utilizar la técnica. Cuando el número de variables predictoras sea nueve o más, podrá utilizarse la técnica siempre, a excepción de diferentes tamaños grupales y no normalidad de las variables. El investigador aplicado deberá conocer la posibilidad que proponemos de apoyatura estadística para la toma de decisiones.
Resumo:
El presente trabajo intenta estimar si las empresas emplean estratégicamente la deuda para limitar la entrada de potenciales rivales. Mediante la metodología de Método Generalizado de Momentos (GMM) se evalúa el efecto que tienen los activos específicos, la cuota de mercado y el tamaño, como proxies de las rentas del mercado, y las barreras de entrada sobre los niveles de endeudamiento, a nivel de empresa para Colombia, durante 1995-2003. Se encuentra que las empresas utilizan los activos específicos para limitar la entrada al mercado y que el endeudamiento decrece a medida que las empresas aumentan su cuota en el mercado
Resumo:
El conocimiento de la distribución de probabilidad de los retornos de la tasa de cambio y la medición de las área extremas son tópicos en la literatura de finanzas que han sido analizados por procedimientos de estimación paramétricos y no paramétricos. Sin embargo, un conflicto de robustez surge debido a que estas series de tiempo son leptocúrticas. Más aún, se ha observado que en varias economías en desarrollo la fase inicial del régimen flexible de tasa de cambio ha presentado volatilidad alta. En esta investigación se cubren dos objetivos: primero, parametrizar varias clases de distribuciones que permitan tener una nueva descripción del proceso generador de la tasa de cambio durante el régimen flexible. Segundo, cuantificar el área extrema a través del estimador de Hill. Está estrategia requiere que el número de observaciones extremas sea conocido. Así basado en la teoría de estadísticas de orden se implementa una regla de decisión encontrada por simulación de Monte Carlo bajo varias distribuciones. El modelo de decisión es formulado de tal manera que el error cuadrado medio es minimizado.
Resumo:
Esta tesis contribuye, te??rica y emp??ricamente, a entender hasta qu?? punto el problema de endogeneidad, uno de los principales problemas observado frecuentemente en los procesos de producci??n educativos, afecta a la estimaci??n de la eficiencia t??cnica mediante el An??lisis Envolvente de Datos (DEA). Asimismo, esta investigaci??n combina ideas de la literatura de evaluaci??n de impacto con las t??cnicas de medici??n de eficiencia no param??tricas con el fin de aportar potenciales soluciones para hacer frente a este problema en aplicaciones emp??ricas educativas y obtener as?? estimaciones de la eficiencia m??s precisas. El cap??tulo 1 analiza te??ricamente en qu?? medida la presencia de endogeneidad en el proceso de producci??n puede afectar a las estimaciones DEA en muestras finitas, de modo que los investigadores que aplican esta t??cnica conozcan la precisi??n de sus estimaciones. Para ello, en primer lugar se ilustra desde un punto de vista conceptual el problema de la endogeneidad y sus implicaciones en la estimaci??n de la eficiencia. En segundo lugar, utilizando datos generados en un experimento de Monte Carlo se eval??a c??mo diferentes niveles de endogeneidad positiva y negativa pueden afectar al desempe??o de DEA. A pesar de que DEA es robusto a la presencia de endogeneidad negativa, la existencia de una endogeneidad positiva y significativa perjudica gravemente el desempe??o de DEA. A partir de los resultados hallados previamente, la siguiente pregunta que surge es ??c??mo hacer frente a este problema en una aplicaci??n emp??rica cuando se sospecha de la presencia de este tipo de endogeneidad? Esto implica responder dos cuestiones, c??mo identificar el problema y c??mo enfrentarlo. A partir de las simulaciones de Monte Carlo se propone un m??todo heur??stico sencillo que permite identificar correctamente la presencia de inputs end??genos en todos los escenarios simulados. Adem??s, a partir de la t??cnica de Variables Instrumentales (VI) ampliamente utilizada en econometr??a, se ofrece una nueva estrategia que aborda efectivamente el problema de endogeneidad en la estimaci??n de la eficiencia t??cnica, el instrumental Input DEA Adicionalmente a este ejercicio te??rico. Los cap??tulos 2 y 3 proporcionan evidencia de dos aplicaciones emp??ricas en el que el problema de endogeneidad est?? presente. En el cap??tulo 2 se aplican las estrategias propuestas en el cap??tulo 1 a datos de colegios p??blicos de Educaci??n Secundaria en Uruguay. tilizando el m??todo heur??stico, se detecta que el nivel socio-econ??mico medio de los colegios est?? alta y positivamente relacionado con la eficiencia t??cnica de los mismos, y por lo tanto se aplica la estrategia II-DEA para estimar la eficiencia t??cnica de los colegios controlando por endogeneidad. En el cap??tulo 3, tomando nuevamente ideas de la literatura de evaluaci??n de impacto, se utilizan datos de un experimento natural en las escuelas de educaci??n primaria en Espa??a para estimar la eficiencia de los maestros. Seg??n la asignaci??n aleatoria de los estudiantes a las clases en los colegios, se explota la variaci??n ex??gena de la eficiencia t??cnica entre los maestros para evaluar su desempe??o. Esta estrategia permite obtener una medida objetiva del verdadero efecto del maestro sobre los logros de los estudiantes y explorar los principales factores que explican la eficiencia de los docentes. M??s all?? de los resultados concretos de cada contexto educativo analizado (que se discuten en cada cap??tulo), ambos an??lisis proporcionan evidencia robusta de que el tomar o no en consideraci??n el problema de endogeneidad conduce a resultados radicalmente diferentes en t??rminos de las recomendaciones de pol??tica educativa p??blica para mejorar la calidad de la ense??anza.
Resumo:
La implementació de la Directiva Europea 91/271/CEE referent a tractament d'aigües residuals urbanes va promoure la construcció de noves instal·lacions al mateix temps que la introducció de noves tecnologies per tractar nutrients en àrees designades com a sensibles. Tant el disseny d'aquestes noves infraestructures com el redisseny de les ja existents es va portar a terme a partir d'aproximacions basades fonamentalment en objectius econòmics degut a la necessitat d'acabar les obres en un període de temps relativament curt. Aquests estudis estaven basats en coneixement heurístic o correlacions numèriques provinents de models determinístics simplificats. Així doncs, moltes de les estacions depuradores d'aigües residuals (EDARs) resultants van estar caracteritzades per una manca de robustesa i flexibilitat, poca controlabilitat, amb freqüents problemes microbiològics de separació de sòlids en el decantador secundari, elevats costos d'operació i eliminació parcial de nutrients allunyant-les de l'òptim de funcionament. Molts d'aquestes problemes van sorgir degut a un disseny inadequat, de manera que la comunitat científica es va adonar de la importància de les etapes inicials de disseny conceptual. Precisament per aquesta raó, els mètodes tradicionals de disseny han d'evolucionar cap a sistemes d'avaluació mes complexos, que tinguin en compte múltiples objectius, assegurant així un millor funcionament de la planta. Tot i la importància del disseny conceptual tenint en compte múltiples objectius, encara hi ha un buit important en la literatura científica tractant aquest camp d'investigació. L'objectiu que persegueix aquesta tesi és el de desenvolupar un mètode de disseny conceptual d'EDARs considerant múltiples objectius, de manera que serveixi d'eina de suport a la presa de decisions al seleccionar la millor alternativa entre diferents opcions de disseny. Aquest treball de recerca contribueix amb un mètode de disseny modular i evolutiu que combina diferent tècniques com: el procés de decisió jeràrquic, anàlisi multicriteri, optimació preliminar multiobjectiu basada en anàlisi de sensibilitat, tècniques d'extracció de coneixement i mineria de dades, anàlisi multivariant i anàlisi d'incertesa a partir de simulacions de Monte Carlo. Això s'ha aconseguit subdividint el mètode de disseny desenvolupat en aquesta tesis en quatre blocs principals: (1) generació jeràrquica i anàlisi multicriteri d'alternatives, (2) anàlisi de decisions crítiques, (3) anàlisi multivariant i (4) anàlisi d'incertesa. El primer dels blocs combina un procés de decisió jeràrquic amb anàlisi multicriteri. El procés de decisió jeràrquic subdivideix el disseny conceptual en una sèrie de qüestions mes fàcilment analitzables i avaluables mentre que l'anàlisi multicriteri permet la consideració de diferent objectius al mateix temps. D'aquesta manera es redueix el nombre d'alternatives a avaluar i fa que el futur disseny i operació de la planta estigui influenciat per aspectes ambientals, econòmics, tècnics i legals. Finalment aquest bloc inclou una anàlisi de sensibilitat dels pesos que proporciona informació de com varien les diferents alternatives al mateix temps que canvia la importància relativa del objectius de disseny. El segon bloc engloba tècniques d'anàlisi de sensibilitat, optimització preliminar multiobjectiu i extracció de coneixement per donar suport al disseny conceptual d'EDAR, seleccionant la millor alternativa un cop s'han identificat decisions crítiques. Les decisions crítiques són aquelles en les que s'ha de seleccionar entre alternatives que compleixen de forma similar els objectius de disseny però amb diferents implicacions pel que respecte a la futura estructura i operació de la planta. Aquest tipus d'anàlisi proporciona una visió més àmplia de l'espai de disseny i permet identificar direccions desitjables (o indesitjables) cap on el procés de disseny pot derivar. El tercer bloc de la tesi proporciona l'anàlisi multivariant de les matrius multicriteri obtingudes durant l'avaluació de les alternatives de disseny. Específicament, les tècniques utilitzades en aquest treball de recerca engloben: 1) anàlisi de conglomerats, 2) anàlisi de components principals/anàlisi factorial i 3) anàlisi discriminant. Com a resultat és possible un millor accés a les dades per realitzar la selecció de les alternatives, proporcionant més informació per a una avaluació mes efectiva, i finalment incrementant el coneixement del procés d'avaluació de les alternatives de disseny generades. En el quart i últim bloc desenvolupat en aquesta tesi, les diferents alternatives de disseny són avaluades amb incertesa. L'objectiu d'aquest bloc és el d'estudiar el canvi en la presa de decisions quan una alternativa és avaluada incloent o no incertesa en els paràmetres dels models que descriuen el seu comportament. La incertesa en el paràmetres del model s'introdueix a partir de funcions de probabilitat. Desprès es porten a terme simulacions Monte Carlo, on d'aquestes distribucions se n'extrauen números aleatoris que es subsisteixen pels paràmetres del model i permeten estudiar com la incertesa es propaga a través del model. Així és possible analitzar la variació en l'acompliment global dels objectius de disseny per a cada una de les alternatives, quines són les contribucions en aquesta variació que hi tenen els aspectes ambientals, legals, econòmics i tècnics, i finalment el canvi en la selecció d'alternatives quan hi ha una variació de la importància relativa dels objectius de disseny. En comparació amb les aproximacions tradicionals de disseny, el mètode desenvolupat en aquesta tesi adreça problemes de disseny/redisseny tenint en compte múltiples objectius i múltiples criteris. Al mateix temps, el procés de presa de decisions mostra de forma objectiva, transparent i sistemàtica el perquè una alternativa és seleccionada en front de les altres, proporcionant l'opció que més bé acompleix els objectius marcats, mostrant els punts forts i febles, les principals correlacions entre objectius i alternatives, i finalment tenint en compte la possible incertesa inherent en els paràmetres del model que es fan servir durant les anàlisis. Les possibilitats del mètode desenvolupat es demostren en aquesta tesi a partir de diferents casos d'estudi: selecció del tipus d'eliminació biològica de nitrogen (cas d'estudi # 1), optimització d'una estratègia de control (cas d'estudi # 2), redisseny d'una planta per aconseguir eliminació simultània de carboni, nitrogen i fòsfor (cas d'estudi # 3) i finalment anàlisi d'estratègies control a nivell de planta (casos d'estudi # 4 i # 5).
Resumo:
The main objective pursued in this thesis targets the development and systematization of a methodology that allows addressing management problems in the dynamic operation of Urban Wastewater Systems. The proposed methodology will suggest operational strategies that can improve the overall performance of the system under certain problematic situations through a model-based approach. The proposed methodology has three main steps: The first step includes the characterization and modeling of the case-study, the definition of scenarios, the evaluation criteria and the operational settings that can be manipulated to improve the system’s performance. In the second step, Monte Carlo simulations are launched to evaluate how the system performs for a wide range of operational settings combinations, and a global sensitivity analysis is conducted to rank the most influential operational settings. Finally, the third step consists on a screening methodology applying a multi-criteria analysis to select the best combinations of operational settings.
Resumo:
Con el objetivo de diseñar y elaborar un modelo que permita identificar los riesgos financieros en un proyecto de inversión, que contribuya a la toma de decisiones en el sector de la administración aeroportuaria se ha realizado la presente investigación sobre la relación entre el riesgo y la rentabilidad de un proyecto de inversión y las características del negocio aeroportuario, de tal manera que se pueda plantear un modelo financiero que optimice la toma de decisiones bajo los escenarios de riesgo en que están involucrados los proyectos. A partir de la construcción del tradicional modelo financiero determinístico se han evaluado las variables críticas que deben considerarse al momento construir un modelo aleatorio, para que, a través de la determinación de las distribuciones de probabilidades que las caracterizan, proyectar la influencia de la variabilidad que pueden tomar sus valores a lo largo del tiempo en los resultados financieros que se evalúan antes de tomar las decisiones de inversión. Con la utilización del software CrystalBall se han generado simulaciones de Monte Carlo que han dado como resultado distribuciones probabilísticas de variables de salidalas cuales se han comparado con los valores del modelo determinístico para tener la debida certeza razonable sobre la posibilidad de obtener los resultados esperados.
Resumo:
Systems of two-dimensional hard ellipses of varying aspect ratios and packing fractions are studied by Monte Carlo simulations in the generalised canonical ensemble. From this microscopic model, we extract a coarse-grained macroscopic Landau-de Gennes free energy as a function of packing fraction and orientational order parameter. We separate the free energy into the ideal orientational entropy of non-interacting two-dimensional spins and an excess free energy associated with excluded volume interactions. We further explore the isotropic-nematic phase transition using our empirical expression for the free energy and find that the nature of the phase transition is continuous for the aspect ratios we studied.
Resumo:
The structure of a ferrofluid under the influence of an external magnetic field is expected to become anisotropic due to the alignment of the dipoles into the direction of the external field, and subsequently to the formation of particle chains due to the attractive head to tail orientations of the ferrofluid particles. Knowledge about the structure of a colloidal ferrofluid can be inferred from scattering data via the measurement of structure factors. We have used molecular-dynamics simulations to investigate the structure of both monodispersed and polydispersed ferrofluids. The results for the isotropic structure factor for monodispersed samples are similar to previous data by Camp and Patey that were obtained using an alternative Monte Carlo simulation technique, but in a different parameter region. Here we look in addition at bidispersed samples and compute the anisotropic structure factor by projecting the q vector onto the XY and XZ planes separately, when the magnetic field was applied along the z axis. We observe that the XY- plane structure factor as well as the pair distribution functions are quite different from those obtained for the XZ plane. Further, the two- dimensional structure factor patterns are investigated for both monodispersed and bidispersed samples under different conditions. In addition, we look at the scaling exponents of structure factors. Our results should be of value to interpret scattering data on ferrofluids obtained under the influence of an external field.
Resumo:
This paper shows that radiometer channel radiances for cloudy atmospheric conditions can be simulated with an optimised frequency grid derived under clear-sky conditions. A new clear-sky optimised grid is derived for AVHRR channel 5 ð12 m m, 833 cm �1 Þ. For HIRS channel 11 ð7:33 m m, 1364 cm �1 Þ and AVHRR channel 5, radiative transfer simulations using an optimised frequency grid are compared with simulations using a reference grid, where the optimised grid has roughly 100–1000 times less frequencies than the full grid. The root mean square error between the optimised and the reference simulation is found to be less than 0.3 K for both comparisons, with the magnitude of the bias less than 0.03 K. The simulations have been carried out with the radiative transfer model Atmospheric Radiative Transfer Simulator (ARTS), version 2, using a backward Monte Carlo module for the treatment of clouds. With this module, the optimised simulations are more than 10 times faster than the reference simulations. Although the number of photons is the same, the smaller number of frequencies reduces the overhead for preparing the optical properties for each frequency. With deterministic scattering solvers, the relative decrease in runtime would be even more. The results allow for new radiative transfer applications, such as the development of new retrievals, because it becomes much quicker to carry out a large number of simulations. The conclusions are applicable to any downlooking infrared radiometer.
Resumo:
The advent of the Auger Engineering Radio Array (AERA) necessitates the development of a powerful framework for the analysis of radio measurements of cosmic ray air showers. As AERA performs ""radio-hybrid"" measurements of air shower radio emission in coincidence with the surface particle detectors and fluorescence telescopes of the Pierre Auger Observatory, the radio analysis functionality had to be incorporated in the existing hybrid analysis solutions for fluorescence and surface detector data. This goal has been achieved in a natural way by extending the existing Auger Offline software framework with radio functionality. In this article, we lay out the design, highlights and features of the radio extension implemented in the Auger Offline framework. Its functionality has achieved a high degree of sophistication and offers advanced features such as vectorial reconstruction of the electric field, advanced signal processing algorithms, a transparent and efficient handling of FFTs, a very detailed simulation of detector effects, and the read-in of multiple data formats including data from various radio simulation codes. The source code of this radio functionality can be made available to interested parties on request. (C) 2011 Elsevier B.V. All rights reserved.
Resumo:
The new technique for automatic search of the order parameters and critical properties is applied to several well-know physical systems, testing the efficiency of such a procedure, in order to apply it for complex systems in general. The automatic-search method is combined with Monte Carlo simulations, which makes use of a given dynamical rule for the time evolution of the system. In the problems inves¬tigated, the Metropolis and Glauber dynamics produced essentially equivalent results. We present a brief introduction to critical phenomena and phase transitions. We describe the automatic-search method and discuss some previous works, where the method has been applied successfully. We apply the method for the ferromagnetic fsing model, computing the critical fron¬tiers and the magnetization exponent (3 for several geometric lattices. We also apply the method for the site-diluted ferromagnetic Ising model on a square lattice, computing its critical frontier, as well as the magnetization exponent f3 and the susceptibility exponent 7. We verify that the universality class of the system remains unchanged when the site dilution is introduced. We study the problem of long-range bond percolation in a diluted linear chain and discuss the non-extensivity questions inherent to long-range-interaction systems. Finally we present our conclusions and possible extensions of this work
Resumo:
Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq)
Resumo:
The inclusive production cross sections for forward jets, as well for jets in dijet events with at least one jet emitted at central and the other at forward pseudorapidities, are measured in the range of transverse momenta p(T) = 35-150 GeV/c in proton-proton collisions at root s = 7 TeV by the CMS experiment at the LHC. Forward jets are measured within pseudorapidities 3.2<|eta|<4.7, and central jets within the |eta|<2.8 range. The double differential cross sections with respect to pt and eta are compared to predictions from three approaches in perturbative quantum chromodynamics: (i) next-to-leading-order calculations obtained with and without matching to parton-shower Monte Carlo simulations, (ii) PYTHIA and HERWIG parton-shower event generators with different tunes of parameters, and (iii) CASCADE and HEJ models, including different non-collinear corrections to standard single-parton radiation. The single-jet inclusive forward jet spectrum is well described by all models, but not all predictions are consistent with the spectra observed for the forward-central dijet events.
Resumo:
Monte Carlo simulation results for pure liquid acetone and water-acetone mixtures calculated in the isothermal and isobaric (NPT) ensemble at T=298K and p=1.0atm are presented. The TIP4P model was used for water and optimized potential for liquid simulation (OPLS) force field parameters used for acetone. The results obtained for the average configurational energy as a function of the mole fraction are in good accord with experimental data. Energy partitioning and co-ordination numbers results calculated for equimolar water-acetone solution are compared to similar data obtained for other water-organic liquid mixtures. These results show an increase in water-water interaction energy and co-ordination numbers when the interaction between water and organic liquid molecules decrease. Distribution functions for pure liquid acetone and water-acetone mixtures are presented. Dipole-dipole angular correlation functions obtained for pure liquid acetone show a predominance of dimers with parallel alignment of dipole moments. Radial distribution functions from water-acetone interaction show characteristic features of hydrogen bonded liquids. Radial and angular distribution functions for water-water correlation calculated in pure water and in equimolar water-acetone mixture are compared, showing very similar features in both systems. (C) 1999 Elsevier B.V. B.V. All rights reserved.