956 resultados para Non-local schemes
Resumo:
Computational material science with the Density Functional Theory (DFT) has recently gained a method for describing, for the first time the non local bonding i.e., van der Waals (vdW) bonding. The newly proposed van der Waals-Density Functional (vdW-DF) is employed here to address the role of non local interactions in the case of H2 adsorption on Ru(0001) surface. The later vdW-DF2 implementation with the DFT code VASP (Vienna Ab-initio Simulation Package) is used in this study. The motivation for studying H2 adsorption on ruthenium surface arose from the interest to hydrogenation processes. Potential energy surface (PES) plots are created for adsorption sites top, bridge, fcc and hcp, employing the vdW-DF2 functional. The vdW-DF yields 0.1 eV - 0.2 eV higher barriers for the dissociation of the H2 molecule; the vdW-DF seems to bind the H2 molecule more tightly together. Furthermore, at the top site, which is found to be the most reactive, the vdW functional suggests no entrance barrier or in any case smaller than 0.05 eV, whereas the corresponding calculation without the vdW-DF does. Ruthenium and H2 are found to have the opposite behaviors with the vdW-DF; Ru lattice constants are overestimated while H2 bond length is shorter. Also evaluation of the CPU time demand of the vdW-DF2 is done from the PES data. From top to fcc sites the vdW-DF computational time demand is larger by 4.77 % to 20.09 %, while at the hcp site it is slightly smaller. Also the behavior of a few exchange correlation functionals is investigated along addressing the role of vdW-DF. Behavior of the different functionals is not consistent between the Ru lattice constants and H2 bond lengths. It is thus difficult to determine the quality of a particular exchange correlation functional by comparing equilibrium separations of the different elements. By comparing PESs it would be computationally highly consuming.
Resumo:
Le Mali est devenu un milieu attractif pour les essais cliniques. Cependant, le cadre de réglementation pour leur surveillance y est très limité. Le pays manque de l’expertise, de l’infrastructure et des ressources nécessaires pour mettre en œuvre pleinement la régulation. Ceci représente un risque pour la sécurité des sujets de recherche et l’intégrité des résultats scientifiques. Il ne permet pas non plus de s’aligner sur les normes internationales en vigueur, telles que la déclaration d’Helsinki, les directives éthiques internationales du Conseil des organisations internationales des sciences médicales (CIOMS) ou les réglementations de pays industrialisés comme les États-Unis, le Canada ou l’Union Européenne. Pour améliorer la situation, la présente étude vise à comprendre les enjeux de la régulation des essais cliniques au Mali afin de suggérer des pistes de solutions et des recommandations. L’étude a été réalisée à l’aide de méthodes qualitatives, soit l’examen de documents officiels et des entrevues semi-dirigées avec les principaux acteurs impliqués dans les essais cliniques. La théorie néo-institutionnelle a servi de toile de fond à l’analyse des données. L’approche néo-institutionnelle consiste à expliquer l’influence de l’environnement sur les organisations. Selon cette approche, l’environnement s’assimile à des champs organisationnels incluant les connexions locales ou non, les liens horizontaux et verticaux, les influences culturelles et politiques ainsi que les échanges techniques. Les résultats présentés dans un premier article montrent l’existence de nombreux enjeux reflétant la carence du système de régulation au Mali. La coexistence de quatre scénarios d’approbation des essais cliniques illustre bien l’inconsistance des mécanismes. Tout comme l’absence d’inspection, l’inconsistance des mécanismes traduit également l’intervention limitée des pouvoirs publics dans la surveillance réglementaire. Ces enjeux résultent d’une double influence subie par les autorités réglementaires et les comités d’éthique. Ceux-ci sont, d’une part, influencés par l’environnement institutionnel sous pressions réglementaires, cognitives et normatives. D’autre part, les pouvoirs publics subissent l’influence des chercheurs qui opèrent comme des entrepreneurs institutionnels en occupant un rôle central dans le champ de la régulation. Dans un second article, l’étude propose une analyse détaillée des facteurs influençant la régulation des essais cliniques. Ces facteurs sont synthétisés en cinq groupes répartis entre deux sphères d’influence. L’analyse montre combien ces facteurs influencent négativement la régulation, notamment : 1) la structuration inachevée du champ de régulation due à un faible degré d’interactions, une absence de structure de coordination, d’informations mutuelles et de conscience dans la constitution des interdépendances; et 2) les positions relatives des acteurs impliqués dans la construction du champ de régulation se manifestant par une faible autorité des pouvoirs publics et l’ascendance des groupes de recherche. Enfin, dans un troisième article nous proposons quelques mécanismes qui, s’ils sont mis en œuvre, pourraient améliorer la régulation des essais cliniques au Mali. Ces mécanismes sont présentés, en référence au cadre théorique, sous trois types de vecteurs d’influence, notamment réglementaires, normatifs et cognitifs-culturels. En guise de conclusion, l’étude envoie un signal fort pour la nécessité d’une régulation appropriée des essais cliniques au Mali. Elle montre que la plupart des problèmes de fond en matière de régulation relèvent d’un besoin de restructuration du champ organisationnel et de renforcement de la position des pouvoirs publics.
Resumo:
Avec la mise en place dans les dernières années d'une grappe d'ordinateurs (CALYS) dédiés aux calculs de modèles stellaires pour notre groupe de recherche, il nous est désormais possible d'exploiter à leur plein potentiel les modèles d'atmosphères hors équilibre thermodynamique local (HETL) en y incluant des éléments métalliques. Ce type de modèles, plutôt exigeant en temps de calcul, est toutefois essentiel pour analyser correctement les spectres d'étoiles chaudes comme les sous-naines de type O (sdO). Les travaux effectués dans le cadre de cette thèse ont comme point commun l'utilisation de tels modèles d'atmosphères pour faire l'analyse spectroscopique d'étoiles sous-naines chaudes dans des contextes variés. Le coeur de cette thèse porte sur Bd+28 4211, une étoile standard de type sdO très chaude, dans laquelle le problème des raies de Balmer, qui empêche de reproduire ces dernières avec une unique, et réaliste, combinaison de paramètres atmosphériques, est bien présent. Dans un premier temps nous présentons une analyse approfondie de son spectre ultraviolet (UV). Cela nous permet de déterminer les abondances de métaux dans l'atmosphère de l'étoile et de contraindre sa température effective et sa gravité de surface. Par la suite, ces résultats servent de point de départ à l'analyse du spectre optique de l'étoile, dans lequel le problème des raies de Balmer se fait sentir. Cette analyse nous permet de conclure que l'inclusion des abondances métalliques propres à l'étoile dans les modèles d'atmosphères HETL n'est pas suffisant pour surmonter le problème des raies de Balmer. Toutefois, en y incluant des abondances dix fois solaires, nous arrivons à reproduire correctement les raies de Balmer et d'hélium présentes dans les spectres visibles lors d'un ajustement de paramètres. De plus, les paramètres résultants concordent avec ceux indiqués par le spectre UV. Nous concluons que des sources d'opacité encore inconnues ou mal modélisées sont à la source de ce problème endémique aux étoiles chaudes. Par la suite nous faisons une étude spectroscopique de Feige 48, une étoile de type sdB pulsante particulièrement importante. Nous arrivons à reproduire très bien le spectre visible de cette étoile, incluant les nombreuses raies métalliques qui s'y trouvent. Les paramètres fondamentaux obtenus pour Feige 48 corroborent ceux déjà présents dans la littérature, qui ont été obtenus avec des types de modèles d'atmosphères moins sophistiqués, ce qui implique que les effets HETL couplés à la présence de métaux ne sont pas importants dans l'atmosphère de cette étoile particulière. Nous pouvons donc affirmer que les paramètres de cette étoile sont fiables et peuvent servir de base à une future étude astérosismologique quantitative. Finalement, 38 étoiles sous-naines chaudes appartenant à l'amas globulaire omega Centauri ont été analysées afin de déterminer, outre leur température et gravité de surface, leurs abondances d'hélium et de carbone. Nous montrons qu'il existe une corrélation entre les abondances photosphériques de ces deux éléments. Nous trouvons aussi des différences entre les étoiles riches en hélium de l'amas du celles du champ. Dans leur ensemble, nos résultats remettent en question notre compréhension du mécanisme de formation des sous-naines riches en hélium.
Resumo:
La présente thèse porte sur les calculs utilisant la théorie de la fonctionnelle de la densité (DFT) pour simuler des systèmes dans lesquels les effets à longue portée sont importants. Une emphase particulière est mise sur les calculs des énergies d’excitations, tout particulièrement dans le cadre des applications photovoltaïques. Cette thèse aborde ces calculs sous deux angles. Tout d’abord, des outils DFT déjà bien établis seront utilisés pour simuler des systèmes d’intérêt expérimental. Par la suite, la théorie sous-jacente à la DFT sera explorée, ses limites seront identifiées et de nouveaux développements théoriques remédiant à ceux-ci seront proposés. Ainsi, dans la première partie de cette thèse, des calculs numériques utilisant la DFT et la théorie de la fonctionnelle de la densité dépendante du temps (TDDFT) telles qu’implémentées dans le logiciel Gaussian [1] sont faits avec des fonctionnelles courantes sur des molécules et des polymères d’intérêt expérimental. En particulier, le projet présenté dans le chapitre 2 explore l’utilisation de chaînes latérales pour optimiser les propriétés électroniques de polymères déjà couramment utilisés en photovoltaïque organique. Les résultats obtenus montrent qu’un choix judicieux de chaînes latérales permet de contrôler les propriétés électroniques de ces polymères et d’augmenter l’efficacité des cellules photovoltaïques les utilisant. Par la suite, le projet présenté dans le chapitre 3 utilise la TDDFT pour explorer les propriétés optiques de deux polymères, le poly-3-hexyl-thiophène (P3HT) et le poly-3-hexyl- sélénophène (P3HS), ainsi que leur mélange, dans le but d’appuyer les observations expérimentales indiquant la formation d’exciplexe dans ces derniers. Les calculs numériques effectués dans la première partie de cette thèse permettent de tirer plusieurs conclusions intéressantes, mais mettent également en évidence certaines limites de la DFT et de la TDDFT pour le traitement des états excités, dues au traitement approximatif de l’interaction coulombienne à longue portée. Ainsi, la deuxième partie de cette thèse revient aux fondements théoriques de la DFT. Plus précisément, dans le chapitre 4, une série de fonctionnelles modélisant plus précisément l’interaction coulombienne à longue portée grâce à une approche non-locale est élaborée. Ces fonctionnelles sont basées sur la WDA (weighted density approximation), qui est modifiée afin d’imposer plusieurs conditions exactes qui devraient être satisfaites par le trou d’échange. Ces fonctionnelles sont ensuite implémentées dans le logiciel Gaussian [1] et leurs performances sont évaluées grâce à des tests effectués sur une série de molécules et d’atomes. Les résultats obtenus indiquent que plusieurs de ces fonctionnelles donnent de meilleurs résultats que la WDA. De plus, ils permettrent de discuter de l’importance relative de satisfaire chacune des conditions exactes.
Resumo:
Scalar-flux budgets have been obtained from large-eddy simulations (LESs) of the cumulus-capped boundary layer. Parametrizations of the terms in the budgets are discussed, and two parametrizations for the transport term in the cloud layer are proposed. It is shown that these lead to two models for scalar transports by shallow cumulus convection. One is equivalent to the subsidence detrainment form of convective tendencies obtained from mass-flux parametrizations of cumulus convection. The second is a flux-gradient relationship that is similar in form to the non-local parametrizations of turbulent transports in the dry-convective boundary layer. Using the fluxes of liquid-water potential temperature and total water content from the LES, it is shown that both models are reasonable diagnostic relations between fluxes and the vertical gradients of the mean fields. The LESs used in this study are for steady-state convection and it is possible to treat the fluxes of conserved thermodynamic variables as independent, and ignore the effects of condensation. It is argued that a parametrization of cumulus transports in a model of the cumulus-capped boundary layer should also include an explicit representation of condensation. A simple parametrization of the liquid-water flux in terms of conserved variables is also derived.
Resumo:
Observations suggest a possible link between the Atlantic Multidecadal Oscillation (AMO) and El Nino Southern Oscillation (ENSO) variability, with the warm AMO phase being related to weaker ENSO variability. A coupled ocean-atmosphere model is used to investigate this relationship and to elucidate mechanisms responsible for it. Anomalous sea surface temperatures (SSTs) associated with the positive AMO lead to change in the basic state in the tropical Pacific Ocean. This basic state change is associated with a deepened thermocline and reduced vertical stratification of the equatorial Pacific ocean, which in turn leads to weakened ENSO variability. We suggest a role for an atmospheric bridge that rapidly conveys the influence of the Atlantic Ocean to the tropical Pacific. The results suggest a non-local mechanism for changes in ENSO statistics and imply that anomalous Atlantic ocean SSTs can modulate both mean climate and climate variability over the Pacific.
Resumo:
We consider a non-local version of the NJL model, based on a separable quark-quark interaction. The interaction is extended to include terms that bind vector and axial-vector mesons. The non-locality means that no further regulator is required. Moreover the model is able to confine the quarks by generating a quark propagator without poles at real energies. Working in the ladder approximation, we calculate amplitudes in Euclidean space and discuss features of their continuation to Minkowski energies. Conserved currents are constructed and we demonstrate their consistency with various Ward identities. Various meson masses are calculated, along with their strong and electromagnetic decay amplitudes. We also calculate the electromagnetic form factor of the pion, as well as form factors associated with the processes γγ* → π0 and ω → π0γ*. The results are found to lead to a satisfactory phenomenology and lend some dynamical support to the idea of vector-meson dominance.
The TAMORA algorithm: satellite rainfall estimates over West Africa using multi-spectral SEVIRI data
Resumo:
A multi-spectral rainfall estimation algorithm has been developed for the Sahel region of West Africa with the purpose of producing accumulated rainfall estimates for drought monitoring and food security. Radar data were used to calibrate multi-channel SEVIRI data from MSG, and a probability of rainfall at several different rain-rates was established for each combination of SEVIRI radiances. Radar calibrations from both Europe (the SatPrecip algorithm) and Niger (TAMORA algorithm) were used. 10 day estimates were accumulated from SatPrecip and TAMORA and compared with kriged gauge data and TAMSAT satellite rainfall estimates over West Africa. SatPrecip was found to produce large overestimates for the region, probably because of its non-local calibration. TAMORA was negatively biased for areas of West Africa with relatively high rainfall, but its skill was comparable to TAMSAT for the low-rainfall region climatologically similar to its calibration area around Niamey. These results confirm the high importance of local calibration for satellite-derived rainfall estimates. As TAMORA shows no improvement in skill over TAMSAT for dekadal estimates, the extra cloud-microphysical information provided by multi-spectral data may not be useful in determining rainfall accumulations at a ten day timescale. Work is ongoing to determine whether it shows improved accuracy at shorter timescales.
Resumo:
We explore the potential for making statistical decadal predictions of sea surface temperatures (SSTs) in a perfect model analysis, with a focus on the Atlantic basin. Various statistical methods (Lagged correlations, Linear Inverse Modelling and Constructed Analogue) are found to have significant skill in predicting the internal variability of Atlantic SSTs for up to a decade ahead in control integrations of two different global climate models (GCMs), namely HadCM3 and HadGEM1. Statistical methods which consider non-local information tend to perform best, but which is the most successful statistical method depends on the region considered, GCM data used and prediction lead time. However, the Constructed Analogue method tends to have the highest skill at longer lead times. Importantly, the regions of greatest prediction skill can be very different to regions identified as potentially predictable from variance explained arguments. This finding suggests that significant local decadal variability is not necessarily a prerequisite for skillful decadal predictions, and that the statistical methods are capturing some of the dynamics of low-frequency SST evolution. In particular, using data from HadGEM1, significant skill at lead times of 6–10 years is found in the tropical North Atlantic, a region with relatively little decadal variability compared to interannual variability. This skill appears to come from reconstructing the SSTs in the far north Atlantic, suggesting that the more northern latitudes are optimal for SST observations to improve predictions. We additionally explore whether adding sub-surface temperature data improves these decadal statistical predictions, and find that, again, it depends on the region, prediction lead time and GCM data used. Overall, we argue that the estimated prediction skill motivates the further development of statistical decadal predictions of SSTs as a benchmark for current and future GCM-based decadal climate predictions.
Resumo:
In this paper we consider one-dimensional diffusions with constant coefficients in a finite interval with jump boundary and a certain deterministic jump distribution. We use coupling methods in order to identify the spectral gap in the case of a large drift and prove that there is a threshold drift above which the bottom of the spectrum no longer depends on the drift. As a corollary to our result we are able to answer two questions concerning elliptic eigenvalue problems with non-local boundary conditions formulated previously by Iddo Ben-Ari and Ross Pinsky.
Resumo:
Neural field models describe the coarse-grained activity of populations of interacting neurons. Because of the laminar structure of real cortical tissue they are often studied in two spatial dimensions, where they are well known to generate rich patterns of spatiotemporal activity. Such patterns have been interpreted in a variety of contexts ranging from the understanding of visual hallucinations to the generation of electroencephalographic signals. Typical patterns include localized solutions in the form of traveling spots, as well as intricate labyrinthine structures. These patterns are naturally defined by the interface between low and high states of neural activity. Here we derive the equations of motion for such interfaces and show, for a Heaviside firing rate, that the normal velocity of an interface is given in terms of a non-local Biot-Savart type interaction over the boundaries of the high activity regions. This exact, but dimensionally reduced, system of equations is solved numerically and shown to be in excellent agreement with the full nonlinear integral equation defining the neural field. We develop a linear stability analysis for the interface dynamics that allows us to understand the mechanisms of pattern formation that arise from instabilities of spots, rings, stripes and fronts. We further show how to analyze neural field models with linear adaptation currents, and determine the conditions for the dynamic instability of spots that can give rise to breathers and traveling waves.
Resumo:
We study the degree to which Kraichnan–Leith–Batchelor (KLB) phenomenology describes two-dimensional energy cascades in α turbulence, governed by ∂θ/∂t+J(ψ,θ)=ν∇2θ+f, where θ=(−Δ)α/2ψ is generalized vorticity, and ψ^(k)=k−αθ^(k) in Fourier space. These models differ in spectral non-locality, and include surface quasigeostrophic flow (α=1), regular two-dimensional flow (α=2) and rotating shallow flow (α=3), which is the isotropic limit of a mantle convection model. We re-examine arguments for dual inverse energy and direct enstrophy cascades, including Fjørtoft analysis, which we extend to general α, and point out their limitations. Using an α-dependent eddy-damped quasinormal Markovian (EDQNM) closure, we seek self-similar inertial range solutions and study their characteristics. Our present focus is not on coherent structures, which the EDQNM filters out, but on any self-similar and approximately Gaussian turbulent component that may exist in the flow and be described by KLB phenomenology. For this, the EDQNM is an appropriate tool. Non-local triads contribute increasingly to the energy flux as α increases. More importantly, the energy cascade is downscale in the self-similar inertial range for 2.5<α<10. At α=2.5 and α=10, the KLB spectra correspond, respectively, to enstrophy and energy equipartition, and the triad energy transfers and flux vanish identically. Eddy turnover time and strain rate arguments suggest the inverse energy cascade should obey KLB phenomenology and be self-similar for α<4. However, downscale energy flux in the EDQNM self-similar inertial range for α>2.5 leads us to predict that any inverse cascade for α≥2.5 will not exhibit KLB phenomenology, and specifically the KLB energy spectrum. Numerical simulations confirm this: the inverse cascade energy spectrum for α≥2.5 is significantly steeper than the KLB prediction, while for α<2.5 we obtain the KLB spectrum.
Resumo:
The role of atmospheric general circulation model (AGCM) horizontal resolution in representing the global energy budget and hydrological cycle is assessed, with the aim of improving the understanding of model uncertainties in simulating the hydrological cycle. We use two AGCMs from the UK Met Office Hadley Centre: HadGEM1-A at resolutions ranging from 270 to 60 km, and HadGEM3-A ranging from 135 to 25 km. The models exhibit a stable hydrological cycle, although too intense compared to reanalyses and observations. This over-intensity is explained by excess surface shortwave radiation, a common error in general circulation models (GCMs). This result is insensitive to resolution. However, as resolution is increased, precipitation decreases over the ocean and increases over the land. This is associated with an increase in atmospheric moisture transport from ocean to land, which changes the partitioning of moisture fluxes that contribute to precipitation over land from less local to more non-local moisture sources. The results start to converge at 60-km resolution, which underlines the excessive reliance of the mean hydrological cycle on physical parametrization (local unresolved processes) versus model dynamics (large-scale resolved processes) in coarser HadGEM1 and HadGEM3 GCMs. This finding may be valid for other GCMs, showing the necessity to analyze other chains of GCMs that may become available in the future with such a range of horizontal resolutions. Our finding supports the hypothesis that heterogeneity in model parametrization is one of the underlying causes of model disagreement in the Coupled Model Intercomparison Project (CMIP) exercises.
Resumo:
As weather and climate models move toward higher resolution, there is growing excitement about potential future improvements in the understanding and prediction of atmospheric convection and its interaction with larger-scale phenomena. A meeting in January 2013 in Dartington, Devon was convened to address the best way to maximise these improvements, specifically in a UK context but with international relevance. Specific recommendations included increased convective-scale observations, high-resolution virtual laboratories, and a system of parameterization test beds with a range of complexities. The main recommendation was to facilitate the development of physically based convective parameterizations that are scale-aware, non-local, non-equilibrium, and stochastic.
Resumo:
One of the prerequisites for achieving skill in decadal climate prediction is to initialize and predict the circulation in the Atlantic Ocean successfully. The RAPID array measures the Atlantic Meridional Overturning Circulation (MOC) at 26°N. Here we develop a method to include these observations in the Met Office Decadal Prediction System (DePreSys). The proposed method uses covariances of overturning transport anomalies at 26°N with ocean temperature and salinity anomalies throughout the ocean to create the density structure necessary to reproduce the observed transport anomaly. Assimilating transport alone in this way effectively reproduces the observed transport anomalies at 26°N and is better than using basin-wide temperature and salinity observations alone. However, when the transport observations are combined with in situ temperature and salinity observations in the analysis, the transport is not currently reproduced so well. The reasons for this are investigated using pseudo-observations in a twin experiment framework. Sensitivity experiments show that the MOC on monthly time-scales, at least in the HadCM3 model, is modulated by a mechanism where non-local density anomalies appear to be more important for transport variability at 26°N than local density gradients.