34 resultados para OPACITY CALCULATIONS
Resumo:
The magnetic structure of the edge-sharing cuprate compound Li2CuO2 has been investigated with highly correlated ab initio electronic structure calculations. The first- and second-neighbor in-chain magnetic interactions are calculated to be 142 and -22 K, respectively. The ratio between the two parameters is smaller than suggested previously in the literature. The interchain interactions are antiferromagnetic in nature and of the order of a few K only. Monte Carlo simulations using the ab initio parameters to define the spin model Hamiltonian result in a Nel temperature in good agreement with experiment. Spin population analysis situates the magnetic moment on the copper and oxygen ions between the completely localized picture derived from experiment and the more delocalized picture based on local-density calculations.
Resumo:
The magnetic coupling constant of selected cuprate superconductor parent compounds has been determined by means of embedded cluster model and periodic calculations carried out at the same level of theory. The agreement between both approaches validates the cluster model. This model is subsequently employed in state-of-the-art configuration interaction calculations aimed to obtain accurate values of the magnetic coupling constant and hopping integral for a series of superconducting cuprates. Likewise, a systematic study of the performance of different ab initio explicitly correlated wave function methods and of several density functional approaches is presented. The accurate determination of the parameters of the t-J Hamiltonian has several consequences. First, it suggests that the appearance of high-Tc superconductivity in existing monolayered cuprates occurs with J/t in the 0.20¿0.35 regime. Second, J/t=0.20 is predicted to be the threshold for the existence of superconductivity and, third, a simple and accurate relationship between the critical temperatures at optimum doping and these parameters is found. However, this quantitative electronic structure versus Tc relationship is only found when both J and t are obtained at the most accurate level of theory.
Resumo:
The observation of coherent tunnelling in Cu2+ - and Ag2+ -doped MgO and CaO:Cu2+ was a crucial discovery in the realm of the Jahn-Teller (JT) effect. The main reasons favoring this dynamic behavior are now clarified through ab initio calculations on Cu2+ - and Ag2+ -doped cubic oxides. Small JT distortions and an unexpected low anharmonicity of the eg JT mode are behind energy barriers smaller than 25 cm-1 derived through CASPT2 calculations for Cu2+ - and Ag2+ -doped MgO and CaO:Cu2+ . The low anharmonicity is shown to come from a strong vibrational coupling of MO610- units (M=Cu,Ag) to the host lattice. The average distance between the d9 impurity and ligands is found to vary significantly on passing from MgO to SrO following to a good extent the lattice parameter.
Resumo:
Ma (1996) studied the random order mechanism, a matching mechanism suggested by Roth and Vande Vate (1990) for marriage markets. By means of an example he showed that the random order mechanism does not always reach all stable matchings. Although Ma's (1996) result is true, we show that the probability distribution he presented - and therefore the proof of his Claim 2 - is not correct. The mistake in the calculations by Ma (1996) is due to the fact that even though the example looks very symmetric, some of the calculations are not as ''symmetric.''
Resumo:
The paper is divided into four sections. The first offers a critical assessment of explanations of both rationalist and constructivist approaches currently dominating European studies and assesses the notion of path dependence. The second and third sections analyse the role of both material interests and polity ideas in EU enlargement to Turkey, and conclude that explanations exclusively based on either strategic calculations or values and identities have significant shortcomings. The fourth section examines the institutional path of Turkey's candidacy to show how the course of action begun at Helsinki restricted the range of possible and legitimate options three years later in Copenhagen.
Resumo:
Estudio elaborado a partir de una estancia en el Karolinska University Hospital, Suecia, entre marzo y junio del 2006. En la radioterapia estereotáxica extracraneal (SBRT) de tumores de pulmón existen principalmente dos problemas en el cálculo de la dosis con los sistemas de planificación disponibles: la precisión limitada de los algoritmos de cálculo en presencia de tejidos con densidades muy diferentes y los movimientos debidos a la respiración del paciente durante el tratamiento. El objetivo de este trabajo ha sido llevar a cabo la simulación con el código Monte Carlo PENELOPE de la distribución de dosis en tumores de pulmón en casos representativos de tratamientos con SBRT teniendo en cuenta los movimientos respiratorios y su comparación con los resultados de varios planificadores. Se han estudiado casos representativos de tratamientos de SBRT en el Karolinska University Hospital. Los haces de radiación se han simulado mediante el código PENELOPE y se han usado para la obtención de los resultados MC de perfiles de dosis. Los resultados obtenidos para el caso estático (sin movimiento respiratorio ) ponen de manifiesto que, en comparación con la MC, la dosis (Gy/MU) calculada por los planificadores en el tumor tiene una precisión del 2-3%. En la zona de interfase entre tumor y tejido pulmonar los planificadores basados en el algoritmo PB sobrestiman la dosis en un 10%, mientras que el algoritmo CC la subestima en un 3-4%. Los resultados de la simulación mediante MC de los movimientos respiratorios indican que los resultados de los planificadores son suficientemente precisos en el tumor, aunque en la interfase hay una mayor subestimación de la dosis en comparación con el caso estático. Estos resultados son compatibles con la experiencia clínica adquirida durante 15 años en el Karolinska University Hospital. Los resultados se han publicado en la revista Acta Oncologica.
Resumo:
La tecnologia GPGPU permet paral∙lelitzar càlculs executant operacions aritmètiques en els múltiples processadors de que disposen els xips gràfics. S'ha fet servir l'entorn de desenvolupament CUDA de la companyia NVIDIA, que actualment és la solució GPGPU més avançada del mercat. L'algorisme de neuroimatge implementat pertany a un estudi VBM desenvolupat amb l'eina SPM. Es tracta concretament del procés de segmentació d'imatges de ressonància magnètica cerebrals, en els diferents teixits dels quals es composa el cervell: matèria blanca, matèria grisa i líquid cefaloraquidi. S'han implementat models en els llenguatges Matlab, C i CUDA, i s'ha fet un estudi comparatiu per plataformes hardware diferents.
Resumo:
Treball de recerca realitzat per una alumna d'ensenyament secundari i guardonat amb un Premi CIRIT per fomentar l'esperit científic del Jovent l'any 2009. L’albedo lunar i els satèl•lits és un treball que relaciona l’enginyeria aeroespacial amb l’astronomia. El seu objectiu principal investigar si l’albedo lunar, els rajos de sol reflectits a la superfície lunar, pot modificar significativament la temperatura de les plaques solars d’un satèl•lit artificial que orbiti la Lluna i, en conseqüència, afectar-ne el rendiment. El segon objectiu del treball és calcular si seria possible fer un mapa d’albedo lunar, a partir de la temperatura d’un satèl•lit en òrbita al voltant de la Lluna, que permetria conèixer amb més precisió la composició de la superfície lunar. Després d’adquirir els fonaments teòrics necessaris per a realitzar el treball, del procés per a trobar la manera de dur a terme els càlculs i d’efectuar els càlculs en si, les conclusions del treball són que l’albedo lunar causa un augment de temperatura en els satèl•lits prou significatiu per afectar-ne el rendiment; i que amb les temperatures enregistrades per un satèl•lit en òrbita al voltant de la Lluna es podria crear un mapa d’albedo. Aquesta recerca ha estat feta per suggeriment i sota la supervisió del CTAE (Centre de Tecnologia Aeroespacial) per analitzar si els resultats són aplicables al satèl•lit que s’enviarà a la Lluna, Lunar Mission BW1.
Resumo:
Sir James Lighthill proposed in 1992 that acoustic streaming occurs in the inner ear, as part of the cochlear amplifier mechanism. Here we hypothesize that some of the most ancient organisms use acoustic streaming not only for self-propulsion but also to enhance their nutrient uptake. We focus on a motile strain of Synechococcus, a yanobacteria whose mechanism for self-propulsion is not known. Molecular motors could work like piezoelectric transducers acting on the crystalline structure surrounding the outer cell membrane. Our calculations show that a traveling surface acoustic wave (SAW)could account for the observed velocities. These SAW waves will also produce a non-negligible Stokes layer surrounding the cell: motion within this region being essentially chaotic. Therefore, an AS mechanism would be biologically advantageous, enhancing localized diffusion processes and consequently, chemical reactions. We believe that acoustic streaming, produced by nanometer scale membrane vibrations could be widespread in cell biology. Other possible instances are yeast cells and erythrocytes. Flows generated by acoustic streaming may also be produced by silica coated diatoms along their raphe. We note that microelectromechanical (MEMS) acoustic streaming devices were first introduced in the 1990’s. Nature may have preceded this invention by 2.7 Gyr.
Resumo:
Amb la finalitat de millorar l’autosuficiència hídrica del monestir budista del Garraf Sakya Tashi Ling, es fa una avaluació de l’estat dels recursos hídrics d’aquest sistema, així com els seus usos i punts de consum. L’avaluació s’ha realitzat mitjançant la integració i ús de paràmetres mediambientals, hídrics i arquitectònics. Amb l’estimació d’entrades i consums d’aigua, juntament amb els càlculs realitzats, s’ha diagnosticat l’estat actual del sistema. Mitjançant la realització d’un inventari dels diferents equipaments i dispositius instal·lats en els punts de consum d’aigua, s’han detectat mancances en la eficiència hídrica com l’escassa implementació de dispositius d’estalvi hídric o la inexistent captació de les aigües pluvials. El diagnòstic de les mancances ha orientat les propostes de millora aplicables al sistema. Aquestes incideixen principalment en la millora de l’estalvi d’aigua amb la instal·lació de dispositius estalviadors i en la captació d’aigües pluvials mitjançant una xarxa de recollida, emmagatzematge i distribució.
Resumo:
En el entorno actual, diversas ramas de las ciencias, tienen la necesidad de auxiliarse de la computación de altas prestaciones para la obtención de resultados a relativamente corto plazo. Ello es debido fundamentalmente, al alto volumen de información que necesita ser procesada y también al costo computacional que demandan dichos cálculos. El beneficio al realizar este procesamiento de manera distribuida y paralela, logra acortar los tiempos de espera en la obtención de los resultados y de esta forma posibilita una toma decisiones con mayor anticipación. Para soportar ello, existen fundamentalmente dos modelos de programación ampliamente extendidos: el modelo de paso de mensajes a través de librerías basadas en el estándar MPI, y el de memoria compartida con la utilización de OpenMP. Las aplicaciones híbridas son aquellas que combinan ambos modelos con el fin de aprovechar en cada caso, las potencialidades específicas del paralelismo en cada uno. Lamentablemente, la práctica ha demostrado que la utilización de esta combinación de modelos, no garantiza necesariamente una mejoría en el comportamiento de las aplicaciones. Por lo tanto, un análisis de los factores que influyen en el rendimiento de las mismas, nos beneficiaría a la hora de implementarlas pero también, sería un primer paso con el fin de llegar a predecir su comportamiento. Adicionalmente, supondría una vía para determinar que parámetros de la aplicación modificar con el fin de mejorar su rendimiento. En el trabajo actual nos proponemos definir una metodología para la identificación de factores de rendimiento en aplicaciones híbridas y en congruencia, la identificación de algunos factores que influyen en el rendimiento de las mismas.
Resumo:
Report for the scientific sojourn at the the Philipps-Universität Marburg, Germany, from september to december 2007. For the first, we employed the Energy-Decomposition Analysis (EDA) to investigate aromaticity on Fischer carbenes as it is related through all the reaction mechanisms studied in my PhD thesis. This powerful tool, compared with other well-known aromaticity indices in the literature like NICS, is useful not only for quantitative results but also to measure the degree of conjugation or hyperconjugation in molecules. Our results showed for the annelated benzenoid systems studied here, that electron density is more concentrated on the outer rings than in the central one. The strain-induced bond localization plays a major role as a driven force to keep the more substituted ring as the less aromatic. The discussion presented in this work was contrasted at different levels of theory to calibrate the method and ensure the consistency of our results. We think these conclusions can also be extended to arene chemistry for explaining aromaticity and regioselectivity reactions found in those systems.In the second work, we have employed the Turbomole program package and density-functionals of the best performance in the state of art, to explore reaction mechanisms in the noble gas chemistry. Particularly, we were interested in compounds of the form H--Ng--Ng--F (where Ng (Noble Gas) = Ar, Kr and Xe) and we investigated the relative stability of these species. Our quantum chemical calculations predict that the dixenon compound HXeXeF has an activation barrier for decomposition of 11 kcal/mol which should be large enough to identify the molecule in a low-temperature matrix. The other noble gases present lower activation barriers and therefore are more labile and difficult to be observable systems experimentally.
Resumo:
Report for the scientific sojourn at the University of Reading, United Kingdom, from January until May 2008. The main objectives have been firstly to infer population structure and parameters in demographic models using a total of 13 microsatellite loci for genotyping approximately 30 individuals per population in 10 Palinurus elephas populations both from Mediterranean and Atlantic waters. Secondly, developing statistical methods to identify discrepant loci, possibly under selection and implement those methods using the R software environment. It is important to consider that the calculation of the probability distribution of the demographic and mutational parameters for a full genetic data set is numerically difficult for complex demographic history (Stephens 2003). The Approximate Bayesian Computation (ABC), based on summary statistics to infer posterior distributions of variable parameters without explicit likelihood calculations, can surmount this difficulty. This would allow to gather information on different demographic prior values (i.e. effective population sizes, migration rate, microsatellite mutation rate, mutational processes) and assay the sensitivity of inferences to demographic priors by assuming different priors.