961 resultados para Calculs DFT


Relevância:

10.00% 10.00%

Publicador:

Resumo:

The performances of two parametrized functionals (namely B3LYP and B2PYLP) have been compared with those of two non-parametrized functionals (PBE0 and PBE0-DH) on a relatively large benchmark set when three different types of dispersion corrections are applied [namely the D2, D3 and D3(BJ) models]. Globally, the MAD computed using non-parametrized functionals decreases when adding dispersion terms although the accuracy not necessarily increases with the complexity of the model of dispersion correction used. In particular, the D2 correction is found to improve the performances of both PBE0 and PBE0-DH, while no systematic improvement is observed going from D2 to D3 or D3(BJ) corrections. Indeed when including dispersion, the number of sets for which PBE0-DH is the best performing functional decreases at the benefit of B2PLYP. Overall, our results clearly show that inclusion of dispersion corrections is more beneficial to parametrized double-hybrid functionals than to non-parametrized ones. The same conclusions globally hold for the corresponding global hybrids, showing that the marriage between non-parametrized functionals and empirical corrections may be a difficult deal.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Long-range non-covalent interactions play a key role in the chemistry of natural polyphenols. We have previously proposed a description of supramolecular polyphenol complexes by the B3P86 density functional coupled with some corrections for dispersion. We couple here the B3P86 functional with the D3 correction for dispersion, assessing systematically the accuracy of the new B3P86-D3 model using for that the well-known S66, HB23, NCCE31, and S12L datasets for non-covalent interactions. Furthermore, the association energies of these complexes were carefully compared to those obtained by other dispersion-corrected functionals, such as B(3)LYP-D3, BP86-D3 or B3P86-NL. Finally, this set of models were also applied to a database composed of seven non-covalent polyphenol complexes of the most interest.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Predicting accurate bond length alternations (BLAs) in long conjugated oligomers has been a significant challenge for electronic-structure methods for many decades, made particularly important by the close relationships between BLA and the rich optoelectronic properties of π-delocalized systems. Here, we test the accuracy of recently developed, and increasingly popular, double hybrid (DH) functionals, positioned at the top of Jacobs Ladder of DFT methods of increasing sophistication, computational cost, and accuracy, due to incorporation of MP2 correlation energy. Our test systems comprise oligomeric series of polyacetylene, polymethineimine, and polysilaacetylene up to six units long. MP2 calculations reveal a pronounced shift in BLAs between the 6-31G(d) basis set used in many studies of BLA to date and the larger cc-pVTZ basis set, but only modest shifts between cc-pVTZ and aug-cc-pVQZ results. We hence perform new reference CCSD(T)/cc-pVTZ calculations for all three series of oligomers against which we assess the performance of several families of DH functionals based on BLYP, PBE, and TPSS, along with lower-rung relatives including global- and range-separated hybrids. Our results show that DH functionals systematically improve the accuracy of BLAs relative to single hybrid functionals. xDH-PBE0 (N4 scaling using SOS-MP2) emerges as a DH functional rivaling the BLA accuracy of SCS-MP2 (N5 scaling), which was found to offer the best compromise between computational cost and accuracy the last time the BLA accuracy of DFT- and wave function-based methods was systematically investigated. Interestingly, xDH-PBE0 (XYG3), which differs to other DHs in that its MP2 term uses PBE0 (B3LYP) orbitals that are not self-consistent with the DH functional, is an outlier of trends of decreasing average BLA errors with increasing fractions of MP2 correlation and HF exchange.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

New materials for OLED applications with low singlet–triplet energy splitting have been recently synthesized in order to allow for the conversion of triplet into singlet excitons (emitting light) via a Thermally Activated Delayed Fluorescence (TADF) process, which involves excited-states with a non-negligible amount of Charge-Transfer (CT). The accurate modeling of these states with Time-Dependent Density Functional Theory (TD-DFT), the most used method so far because of the favorable trade-off between accuracy and computational cost, is however particularly challenging. We carefully address this issue here by considering materials with small (high) singlet–triplet gap acting as emitter (host) in OLEDs and by comparing the accuracy of TD-DFT and the corresponding Tamm-Dancoff Approximation (TDA), which is found to greatly reduce error bars with respect to experiments thanks to better estimates for the lowest singlet–triplet transition. Finally, we quantitatively correlate the singlet–triplet splitting values with the extent of CT, using for it a simple metric extracted from calculations with double-hybrid functionals, that might be applied in further molecular engineering studies.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

It is suggested here that the ultimate accuracy of DFT methods arises from the type of hybridization scheme followed. This idea can be cast into a mathematical formulation utilizing an integrand connecting the noninteracting and the interacting particle system. We consider two previously developed models for it, dubbed as HYB0 and QIDH, and assess a large number of exchange-correlation functionals against the AE6, G2/148, and S22 reference data sets. An interesting consequence of these hybridization schemes is that the error bars, including the standard deviation, are found to markedly decrease with respect to the density-based (nonhybrid) case. This improvement is substantially better than variations due to the underlying density functional used. We thus finally hypothesize about the universal character of the HYB0 and QIDH models.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le nettoyage des systèmes de Chauffage, Ventilation et Climatisation de l’Air est important pour assurer une bonne qualité d’air intérieur. Le déclenchement de leur nettoyage est basé sur une inspection visuelle qui ne tient pas compte du contenu en moisissures, lesquelles ont des effets sur le système respiratoire. Cette recherche vise à proposer une méthode d’évaluation du contenu en moisissures afin d’aider les gestionnaires d’immeuble. Cinq générations de poussières ont été effectuées pour simuler un conduit de ventilation. Une cassette modifiée 37 mm et un filtre CPV pré-pesés ont utilisés pour collecter les poussières déposées avec une pompe calibrée à 15L/min. Les pourcentages de collecte des cassettes et des filtres ont été calculés pour 54 échantillons. Dix générations supplémentaires de poussières ont été effectuées concomitamment avec la génération de spores. Soixante échantillons ont été analysés selon quatre méthodes : culture, comptage direct des spores par microscopie (CDSM), dosage de β-N-acétylhexosaminidase (NAHA), 18S-q-PCR. La limite de détection (LD), la réplicabilité, la répétabilité, le nombre de spores et le coefficient de corrélation (r) ont été déterminés. Les récupérations de poussières étaient supérieures à 84%. Selon la méthode analytique, les concentrations médianes de spores/100 cm² allaient de 10 000 à 815 000. Les LD variaient dépendamment de la méthode de 120 à 218 000 spores/100 cm² et r de -0,08 à 0,83. La réplicabilité et la répétabilité étaient de 1% et 1% pour PCR; 5% et 10% pour CDSM; 6% et 15% pour NAHA; 12% et 11% pour culture. La méthode de collecte a démontré une excellente efficacité de récupération. La PCR est la méthode analytique recommandée pour l’évaluation fongique des systèmes de ventilation. Une validation terrain est en cours.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La distance de Kendall-τ compte le nombre de paires en désaccord entre deux permuta- tions. La distance d’une permutation à un ensemble est simplement la somme des dis- tances entre cette permutation et les permutations de l’ensemble. À partir d’un ensemble donné de permutations, notre but est de trouver la permutation, appelée médiane, qui minimise cette distance à l’ensemble. Le problème de la médiane de permutations sous la distance de Kendall-τ, trouve son application en bio-informatique, en science politique, en télécommunication et en optimisation. Ce problème d’apparence simple est prouvé difficile à résoudre. Dans ce mémoire, nous présentons plusieurs approches pour résoudre le problème, pour trouver une bonne solution approximative, pour le séparer en classes caractéristiques, pour mieux com- prendre sa compléxité, pour réduire l’espace de recheche et pour accélérer les calculs. Nous présentons aussi, vers la fin du mémoire, une généralisation de ce problème et nous l’étudions avec ces mêmes approches. La majorité du travail de ce mémoire se situe dans les trois articles qui le composent et est complémenté par deux chapitres servant à les lier.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce texte a pour but de monter que l’efficience telle qu’utilisée par les économistes dans le cadre de recommandations de politiques publiques suppose toujours l’adoption de certains critères moraux. Je voudrai d’abord montrer que les recommandations des économistes en matière de politiques publiques ont déjà été identifiées aux recommandations de l’utilitarisme. Plusieurs économistes ont voulu abstraire leur science de toute discussion morale au XXe siècle. Cette séparation entre faits et valeur s’est soldée par l’apparition de l’efficience de Pareto, grandement utilisée dans le cadre de l’économie du bien-être. Cependant, cette utilisation de l’efficience suppose à la fois qu’il est moralement désirable d’améliorer le bien-être des individus et que ce bien-être peut être évalué en termes de satisfaction des préférences, ce qui constitue un jugement de nature éthique et morale qui ne peut être fait seulement à partir de faits scientifiques. L’efficience ne peut plutôt être utilisée de manière non moralement discutable seulement si l’on examine au préalable les objectifs sociaux que l’utilisation de cette mesure présuppose. D’un point de vue scientifique, l’économiste qui veut utiliser une mesure d’efficience doit donc toujours prendre pour acquis les éléments normatifs qui sont intégrés aux calculs d’efficience. La discussion concernant la pertinence de ces objectifs sociaux ainsi que l’importance relative de chacun des objectifs sociaux est une discussion portant avant tout sur des questions morales qui ne sont pas du domaine des sciences économiques.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Introduction : La néphro-urétérectomie radicale (NUR) représente le traitement primaire pour les patients atteints d’une tumeur des voies excrétrices supérieures (TVES) non métastatique. Une approche ouverte ou laparoscopique peut être considérée. Malgré la présence de plusieurs études comparant les résultats périopératoires et oncologiques entre ces deux approches, aucunes études se basent sur une cohorte populationnelle. Objectif : Notre but est d’évaluer la morbidité péri-opératoire entre la NUR ouverte et laparoscopique en utilisant une cohorte populationnelle. Méthode : Nous avons utilisé la base de donnée Nationwide Inpatient Sample (NIS) pour identifier tous les patients atteints d’une TVES non métastatique, traités par NUR ouverte ou laparoscopique, entre 1998 et 2009. Au total, 7401 (90,8%) et 754 (9,2%) patients ont subi une NUR ouverte et laparoscopique, respectivement. Dans le but de contrôler les différences inhérentes entre les deux groupes, nous avons utilisé une analyse par appariement sur les scores de propension. Ainsi, 3016 (80%) patients avec NUR ouverte étaient appariés à 754 (20%) patients avec NUR laparoscopique. Intervention : Tous les patients ont subi une NUR. Mesures : Les taux de complications intra-opératoires et post-opératoires, de transfusions sanguines, d’hospitalisation prolongée et de mortalité intrahospitalière ont été mesurés. Des analyses de régression logistique on été utilisées pour notre cohorte, après appariement sur les scores de propension. Résultats et Limitations : Pour les patients traités par approche ouverte vs. laparoscopique, les taux suivants furent calculés : transfusions sanguines : 15 vs. 10% (p<0,001); complications intra-opératoires : 4,7 vs. 2,1% (p=0,002); complications post-opératoires : 17 vs. 15% (p=0,24); durée d’hospitalisation prolongée (≥ 5 jours) : 47 vs. 28% (p<0,001); mortalité intra-hospitalière 1,3 vs. 0,7% (p=0,12). Sur les analyses par régression logistique, les patients ayant été traités par NUR laparoscopique avaient moins de chance de recevoir une transfusion sanguine (odds ratio [OR]: 0,6, p<0,001), de subir une complication intra-opératoire (OR: 0,4, p=0,002), et d’avoir une durée prolongée d’hospitalisation (OR: 0,4, p<0,001). Globalement les taux de complications postopératoires étaient équivalents. Toutefois, l’approche laparoscopique était associée à moins de complications pulmonaires (OR: 0,4, p=0,007). Cette étude est limitée par sa nature rétrospective. Conclusion: Après ajustement de potentiels biais de sélection, la NUR par approche laparoscopique est associée à moins de complications intraopératoires et péri-opératoires comparée à la NUR par approche ouverte.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Selon la philosophie de Katz et Sarnak, la distribution des zéros des fonctions $L$ est prédite par le comportement des valeurs propres de matrices aléatoires. En particulier, le comportement des zéros près du point central révèle le type de symétrie de la famille de fonctions $L$. Une fois la symétrie identifiée, la philosophie de Katz et Sarnak conjecture que plusieurs statistiques associées aux zéros seront modélisées par les valeurs propres de matrices aléatoires du groupe correspondant. Ce mémoire étudiera la distribution des zéros près du point central de la famille des courbes elliptiques sur $\mathbb{Q}[i]$. Brumer a effectué ces calculs en 1992 sur la famille de courbes elliptiques sur $\mathbb{Q}$. Les nouvelles problématiques reliées à la généralisation de ses travaux vers un corps de nombres seront mises en évidence

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce mémoire présente une recherche détaillée et une analyse des étoiles naines blanches hybrides chimiquement stratifiées dans le Sloan Digital Sky Survey (SDSS). Une seule étoile stratifiée, PG 1305-017, était connue avant notre recherche. L'objectif principal est de confirmer l'existence de plusieurs nouvelles étoiles stratifiées. Pour ce faire, il a fallu dans un premier temps développer une nouvelle génération de modèles d'atmosphère à partir de ceux de Bergeron et al. (1991) et Tremblay & Bergeron (2009). Nous y avons ajouté l'opacité de toutes les raies d'hélium et les calculs nécessaires pour tenir compte de la stratification chimique de l'atmosphère, où une mince quantité d’hydrogène flotte en équilibre diffusif au-dessus d’une enveloppe massive d’hélium. En parallèle, nous avons aussi calculé des modèles standards, chimiquement homogènes. Ensuite, nous avons sélectionné des naines blanches chaudes (Teff > 30,000 K) de type spectral hybride (traces d'hélium et d'hydrogène) parmi les ~38,000 naines blanches répertoriées dans le SDSS. Un total de 52 spectres d'étoile a été retenu dans notre échantillon final. La technique spectroscopique, c'est-à-dire l'ajustement des raies spectrales des modèles sur un spectre observé, a été appliquée à toutes les étoiles de notre échantillon. Nous avons ainsi mesuré la température effective, la gravité de surface et la composition chimique de l'atmosphère de ces étoiles. Par l'ajustement simultané de modèles stratifiés et homogènes, nous avons aussi pu déterminer si les étoiles étaient stratifiées ou non. Nous identifions ainsi 14 naines blanches stratifiées. Nous tirons de ces résultats plusieurs conclusions sur les processus physiques expliquant la présence d'hélium dans l'atmosphère.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The dual problems of sustaining the fast growth of human society and preserving the environment for future generations urge us to shift our focus from exploiting fossil oils to researching and developing more affordable, reliable and clean energy sources. Human beings had a long history that depended on meeting our energy demands with plant biomass, and the modern biorefinery technologies realize the effective conversion of biomass to production of transportation fuels, bulk and fine chemicals so to alleviate our reliance on fossil fuel resources of declining supply. With the aim of replacing as much non-renewable carbon from fossil oils with renewable carbon from biomass as possible, innovative R&D activities must strive to enhance the current biorefinery process and secure our energy future. Much of my Ph.D. research effort is centered on the study of electrocatalytic conversion of biomass-derived compounds to produce value-added chemicals, biofuels and electrical energy on model electrocatalysts in AEM/PEM-based continuous flow electrolysis cell and fuel cell reactors. High electricity generation performance was obtained when glycerol or crude glycerol was employed as fuels in AEMFCs. The study on selective electrocatalytic oxidation of glycerol shows an electrode potential-regulated product distribution where tartronate and mesoxalate can be selectively produced with electrode potential switch. This finding then led to the development of AEMFCs with selective production of valuable tartronate or mesoxalate with high selectivity and yield and cogeneration of electricity. Reaction mechanisms of electrocatalytic oxidation of ethylene glycol and 1,2-propanediol were further elucidated by means of an on-line sample collection technique and DFT modeling. Besides electro-oxidation of biorenewable alcohols to chemicals and electricity, electrocatalytic reduction of keto acids (e.g. levulinic acid) was also studied for upgrading biomass-based feedstock to biofuels while achieving renewable electricity storage. Meanwhile, ORR that is often coupled in AEMFCs on the cathode was investigated on non-PGM electrocatalyst with comparable activity to commercial Pt/C. The electro-biorefinery process could be coupled with traditional biorefinery operation and will play a significant role in our energy and chemical landscape.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Many types of materials at nanoscale are currently being used in everyday life. The production and use of such products based on engineered nanomaterials have raised concerns of the possible risks and hazards associated with these nanomaterials. In order to evaluate and gain a better understanding of their effects on living organisms, we have performed first-principles quantum mechanical calculations and molecular dynamics simulations. Specifically, we will investigate the interaction of nanomaterials including semiconducting quantum dots and metallic nanoparticles with various biological molecules, such as dopamine, DNA nucleobases and lipid membranes. Firstly, interactions of semiconducting CdSe/CdS quantum dots (QDs) with the dopamine and the DNA nucleobase molecules are investigated using similar quantum mechanical approach to the one used for the metallic nanoparticles. A variety of interaction sites are explored. Our results show that small-sized Cd4Se4 and Cd4S4 QDs interact strongly with the DNA nucleobase if a DNA nucleobase has the amide or hydroxyl chemical group. These results indicate that these QDs are suitable for detecting subcellular structures, as also reported by experiments. The next two chapters describe a preparation required for the simulation of nanoparticles interacting with membranes leading to accurate structure models for the membranes. We develop a method for the molecular crystalline structure prediction of 1,2-Dimyristoyl-sn-glycero-3-phosphorylcholine (DMPC), 1,2-Dimyristoyl-sn-glycero-3-phosphorylethanolamine (DMPE) and cyclic di-amino acid peptide using first-principles methods. Since an accurate determination of the structure of an organic crystal is usually an extremely difficult task due to availability of the large number of its conformers, we propose a new computational scheme by applying knowledge of symmetry, structural chemistry and chemical bonding to reduce the sampling size of the conformation space. The interaction of metal nanoparticles with cell membranes is finally carried out by molecular dynamics simulations, and the results are reported in the last chapter. A new force field is developed which accurately describes the interaction forces between the clusters representing small-sized metal nanoparticles and the lipid bilayer molecules. The permeation of nanoparticles into the cell membrane is analyzed together with the RMSD values of the membrane modeled by a lipid bilayer. The simulation results suggest that the AgNPs could cause the same amount of deformation as the AuNPs for the dysfunction of the membrane.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le nettoyage des systèmes de Chauffage, Ventilation et Climatisation de l’Air est important pour assurer une bonne qualité d’air intérieur. Le déclenchement de leur nettoyage est basé sur une inspection visuelle qui ne tient pas compte du contenu en moisissures, lesquelles ont des effets sur le système respiratoire. Cette recherche vise à proposer une méthode d’évaluation du contenu en moisissures afin d’aider les gestionnaires d’immeuble. Cinq générations de poussières ont été effectuées pour simuler un conduit de ventilation. Une cassette modifiée 37 mm et un filtre CPV pré-pesés ont utilisés pour collecter les poussières déposées avec une pompe calibrée à 15L/min. Les pourcentages de collecte des cassettes et des filtres ont été calculés pour 54 échantillons. Dix générations supplémentaires de poussières ont été effectuées concomitamment avec la génération de spores. Soixante échantillons ont été analysés selon quatre méthodes : culture, comptage direct des spores par microscopie (CDSM), dosage de β-N-acétylhexosaminidase (NAHA), 18S-q-PCR. La limite de détection (LD), la réplicabilité, la répétabilité, le nombre de spores et le coefficient de corrélation (r) ont été déterminés. Les récupérations de poussières étaient supérieures à 84%. Selon la méthode analytique, les concentrations médianes de spores/100 cm² allaient de 10 000 à 815 000. Les LD variaient dépendamment de la méthode de 120 à 218 000 spores/100 cm² et r de -0,08 à 0,83. La réplicabilité et la répétabilité étaient de 1% et 1% pour PCR; 5% et 10% pour CDSM; 6% et 15% pour NAHA; 12% et 11% pour culture. La méthode de collecte a démontré une excellente efficacité de récupération. La PCR est la méthode analytique recommandée pour l’évaluation fongique des systèmes de ventilation. Une validation terrain est en cours.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La distance de Kendall-τ compte le nombre de paires en désaccord entre deux permuta- tions. La distance d’une permutation à un ensemble est simplement la somme des dis- tances entre cette permutation et les permutations de l’ensemble. À partir d’un ensemble donné de permutations, notre but est de trouver la permutation, appelée médiane, qui minimise cette distance à l’ensemble. Le problème de la médiane de permutations sous la distance de Kendall-τ, trouve son application en bio-informatique, en science politique, en télécommunication et en optimisation. Ce problème d’apparence simple est prouvé difficile à résoudre. Dans ce mémoire, nous présentons plusieurs approches pour résoudre le problème, pour trouver une bonne solution approximative, pour le séparer en classes caractéristiques, pour mieux com- prendre sa compléxité, pour réduire l’espace de recheche et pour accélérer les calculs. Nous présentons aussi, vers la fin du mémoire, une généralisation de ce problème et nous l’étudions avec ces mêmes approches. La majorité du travail de ce mémoire se situe dans les trois articles qui le composent et est complémenté par deux chapitres servant à les lier.