961 resultados para Calculs DFT
Resumo:
Cette thèse présente une étude dans divers domaines de l'informatique théorique de modèles de calculs combinant automates finis et contraintes arithmétiques. Nous nous intéressons aux questions de décidabilité, d'expressivité et de clôture, tout en ouvrant l'étude à la complexité, la logique, l'algèbre et aux applications. Cette étude est présentée au travers de quatre articles de recherche. Le premier article, Affine Parikh Automata, poursuit l'étude de Klaedtke et Ruess des automates de Parikh et en définit des généralisations et restrictions. L'automate de Parikh est un point de départ de cette thèse; nous montrons que ce modèle de calcul est équivalent à l'automate contraint que nous définissons comme un automate qui n'accepte un mot que si le nombre de fois que chaque transition est empruntée répond à une contrainte arithmétique. Ce modèle est naturellement étendu à l'automate de Parikh affine qui effectue une opération affine sur un ensemble de registres lors du franchissement d'une transition. Nous étudions aussi l'automate de Parikh sur lettres: un automate qui n'accepte un mot que si le nombre de fois que chaque lettre y apparaît répond à une contrainte arithmétique. Le deuxième article, Bounded Parikh Automata, étudie les langages bornés des automates de Parikh. Un langage est borné s'il existe des mots w_1, w_2, ..., w_k tels que chaque mot du langage peut s'écrire w_1...w_1w_2...w_2...w_k...w_k. Ces langages sont importants dans des domaines applicatifs et présentent usuellement de bonnes propriétés théoriques. Nous montrons que dans le contexte des langages bornés, le déterminisme n'influence pas l'expressivité des automates de Parikh. Le troisième article, Unambiguous Constrained Automata, introduit les automates contraints non ambigus, c'est-à-dire pour lesquels il n'existe qu'un chemin acceptant par mot reconnu par l'automate. Nous montrons qu'il s'agit d'un modèle combinant une meilleure expressivité et de meilleures propriétés de clôture que l'automate contraint déterministe. Le problème de déterminer si le langage d'un automate contraint non ambigu est régulier est montré décidable. Le quatrième article, Algebra and Complexity Meet Contrained Automata, présente une étude des représentations algébriques qu'admettent les automates contraints et les automates de Parikh affines. Nous déduisons de ces caractérisations des résultats d'expressivité et de complexité. Nous montrons aussi que certaines hypothèses classiques en complexité computationelle sont reliées à des résultats de séparation et de non clôture dans les automates de Parikh affines. La thèse est conclue par une ouverture à un possible approfondissement, au travers d'un certain nombre de problèmes ouverts.
Resumo:
L’avancée des infrastructures informatiques a permis l’émergence de la modélisation moléculaire. À cet effet, une multitude de modèles mathématiques sont aujourd’hui disponibles pour simuler différents systèmes chimiques. À l’aide de la modélisation moléculaire, différents types d’interactions chimiques ont été observés. À partir des systèmes les plus simples permettant l’utilisation de modèles quantiques rigoureux, une série d’approximations a été considérée pour rendre envisageable la simulation de systèmes moléculaires de plus en plus complexes. En premier lieu, la théorie de la fonctionnelle de densité dépendante du temps a été utilisée pour simuler les énergies d’excitation de molécules photoactives. De manière similaire, la DFT indépendante du temps a permis la simulation du pont hydrogène intramoléculaire de structures analogues au 1,3,5-triazapentadiène et la rationalisation de la stabilité des états de transition. Par la suite, la dynamique moléculaire et la mécanique moléculaire ont permis de simuler les interactions d’un trimère d’acide cholique et d’un pyrène dans différents solvants. Cette même méthodologie a été utilisée pour simuler les interactions d’un rotaxane-parapluie à l’interface d’un système biphasique. Finalement, l’arrimage moléculaire et les fonctions de score ont été utilisés pour simuler les interactions intermoléculaires entre une protéine et des milliers de candidats moléculaires. Les résultats ont permis de mettre en place une stratégie de développement d’un nouvel inhibiteur enzymatique.
Resumo:
Réalisé en majeure partie sous la tutelle de feu le Professeur Paul Arminjon. Après sa disparition, le Docteur Aziz Madrane a pris la relève de la direction de mes travaux.
Resumo:
Dans cette thèse, nous présentons une nouvelle méthode smoothed particle hydrodynamics (SPH) pour la résolution des équations de Navier-Stokes incompressibles, même en présence des forces singulières. Les termes de sources singulières sont traités d'une manière similaire à celle que l'on retrouve dans la méthode Immersed Boundary (IB) de Peskin (2002) ou de la méthode régularisée de Stokeslets (Cortez, 2001). Dans notre schéma numérique, nous mettons en oeuvre une méthode de projection sans pression de second ordre inspirée de Kim et Moin (1985). Ce schéma évite complètement les difficultés qui peuvent être rencontrées avec la prescription des conditions aux frontières de Neumann sur la pression. Nous présentons deux variantes de cette approche: l'une, Lagrangienne, qui est communément utilisée et l'autre, Eulerienne, car nous considérons simplement que les particules SPH sont des points de quadrature où les propriétés du fluide sont calculées, donc, ces points peuvent être laissés fixes dans le temps. Notre méthode SPH est d'abord testée à la résolution du problème de Poiseuille bidimensionnel entre deux plaques infinies et nous effectuons une analyse détaillée de l'erreur des calculs. Pour ce problème, les résultats sont similaires autant lorsque les particules SPH sont libres de se déplacer que lorsqu'elles sont fixes. Nous traitons, par ailleurs, du problème de la dynamique d'une membrane immergée dans un fluide visqueux et incompressible avec notre méthode SPH. La membrane est représentée par une spline cubique le long de laquelle la tension présente dans la membrane est calculée et transmise au fluide environnant. Les équations de Navier-Stokes, avec une force singulière issue de la membrane sont ensuite résolues pour déterminer la vitesse du fluide dans lequel est immergée la membrane. La vitesse du fluide, ainsi obtenue, est interpolée sur l'interface, afin de déterminer son déplacement. Nous discutons des avantages à maintenir les particules SPH fixes au lieu de les laisser libres de se déplacer. Nous appliquons ensuite notre méthode SPH à la simulation des écoulements confinés des solutions de polymères non dilués avec une interaction hydrodynamique et des forces d'exclusion de volume. Le point de départ de l'algorithme est le système couplé des équations de Langevin pour les polymères et le solvant (CLEPS) (voir par exemple Oono et Freed (1981) et Öttinger et Rabin (1989)) décrivant, dans le cas présent, les dynamiques microscopiques d'une solution de polymère en écoulement avec une représentation bille-ressort des macromolécules. Des tests numériques de certains écoulements dans des canaux bidimensionnels révèlent que l'utilisation de la méthode de projection d'ordre deux couplée à des points de quadrature SPH fixes conduit à un ordre de convergence de la vitesse qui est de deux et à une convergence d'ordre sensiblement égale à deux pour la pression, pourvu que la solution soit suffisamment lisse. Dans le cas des calculs à grandes échelles pour les altères et pour les chaînes de bille-ressort, un choix approprié du nombre de particules SPH en fonction du nombre des billes N permet, en l'absence des forces d'exclusion de volume, de montrer que le coût de notre algorithme est d'ordre O(N). Enfin, nous amorçons des calculs tridimensionnels avec notre modèle SPH. Dans cette optique, nous résolvons le problème de l'écoulement de Poiseuille tridimensionnel entre deux plaques parallèles infinies et le problème de l'écoulement de Poiseuille dans une conduite rectangulaire infiniment longue. De plus, nous simulons en dimension trois des écoulements confinés entre deux plaques infinies des solutions de polymères non diluées avec une interaction hydrodynamique et des forces d'exclusion de volume.
Resumo:
L'interface cerveau-ordinateur (ICO) décode les signaux électriques du cerveau requise par l’électroencéphalographie et transforme ces signaux en commande pour contrôler un appareil ou un logiciel. Un nombre limité de tâches mentales ont été détectés et classifier par différents groupes de recherche. D’autres types de contrôle, par exemple l’exécution d'un mouvement du pied, réel ou imaginaire, peut modifier les ondes cérébrales du cortex moteur. Nous avons utilisé un ICO pour déterminer si nous pouvions faire une classification entre la navigation de type marche avant et arrière, en temps réel et en temps différé, en utilisant différentes méthodes. Dix personnes en bonne santé ont participé à l’expérience sur les ICO dans un tunnel virtuel. L’expérience fut a était divisé en deux séances (48 min chaque). Chaque séance comprenait 320 essais. On a demandé au sujets d’imaginer un déplacement avant ou arrière dans le tunnel virtuel de façon aléatoire d’après une commande écrite sur l'écran. Les essais ont été menés avec feedback. Trois électrodes ont été montées sur le scalp, vis-à-vis du cortex moteur. Durant la 1re séance, la classification des deux taches (navigation avant et arrière) a été réalisée par les méthodes de puissance de bande, de représentation temporel-fréquence, des modèles autorégressifs et des rapports d’asymétrie du rythme β avec classificateurs d’analyse discriminante linéaire et SVM. Les seuils ont été calculés en temps différé pour former des signaux de contrôle qui ont été utilisés en temps réel durant la 2e séance afin d’initier, par les ondes cérébrales de l'utilisateur, le déplacement du tunnel virtuel dans le sens demandé. Après 96 min d'entrainement, la méthode « online biofeedback » de la puissance de bande a atteint une précision de classification moyenne de 76 %, et la classification en temps différé avec les rapports d’asymétrie et puissance de bande, a atteint une précision de classification d’environ 80 %.
Resumo:
Le parasite Varroa destructor provoque depuis plus de 30 ans la perte de nombreuses colonies à travers le monde. L’utilisation d’acaricides de synthèse s’est avérée inefficace au Canada et ailleurs dans le monde à la suite de la sélection de varroas résistants. Dans ce contexte, il est devenu impératif de trouver de nouveaux moyens pour contrôler cette peste apicole. Ce travail original de recherche a pour but de déterminer les paramètres fondamentaux d’une lutte intégrée contre la varroase fondée sur l’utilisation périodique de différents pesticides organiques (l’acide oxalique, l’acide formique et le thymol) associée à des seuils d’interventions. Les seuils d’intervention ont été déterminés à l’aide de régressions linéaires entre les taux de parasitisme par V. destructor et la formance zootechnique des colonies d’abeilles mellifères (production de miel et force des colonies). Un total de 154 colonies d’abeilles du Centre de recherche en sciences animales de Deschambault (CRSAD) ont été suivies de septembre 2005 à septembre 2006. Les seuils calculés et proposés à la suite de cette recherche sont de 2 varroas par jour (chute naturelle) au début mai, 10 varroas par jour à la fin juillet et de 9 varroas par jour au début septembre. L’efficacité des traitements organiques avec l’acide oxalique (AO), l’acide formique (AF) et le thymol a été vérifiée en mai (avant la première miellée) en juillet (entre deux miellées), en septembre (après la miellée et pendant le nourrissage des colonies) et en novembre (avant l’hivernage). L’acide oxalique a été appliqué en utilisant la méthode d’égouttement (4% d’AO p/v dans un sirop de sucrose 1 :1 p/v). L’acide formique a été appliquée sous forme de MiteAwayII™ (tampon commercial imbibé d’AF 65% v/v placé sur le dessus des cadres à couvain), Mitewipe (tampons Dri-Loc™ 10/15cm imbibés de 35 mL d’AF 65% v/v placés sur le dessus des cadres à couvain) ou Flash (AF 65% coulé directement sur le plateau inférieur d’une colonie, 2 mL par cadre avec abeilles). Le thymol a été appliqué sous forme d’Apiguard™ (gélose contenant 25% de thymol p/v placée sur le dessus des cadres à couvain). Les essais d’efficacité ont été réalisés de 2006 à 2008 sur un total de 170 colonies (98 appartenant au CRSAD et 72 appartenant au privé). Les résultats montrent que les traitements de printemps testés ont une faible efficacité pour le contrôle des varroas qui sont en pleine croissance durant cette période. Un traitement avec l’AF à la mi-été permet de réduire les taux de parasites sous le seuil en septembre mais il y a risque de contaminer la récolte de miel avec des résidus d’AF. Les traitements en septembre avec le MiteAwayII™ suivis par un traitement à l’acide oxalique en novembre (5 mL par égouttement entre chaque cadre avec abeilles, 4% d’AO p/v dans un sirop de sucrose 1 :1 p/v) sont les plus efficaces : ils réduisent les niveaux de varroase sous le seuil de 2 varroas par jour au printemps. Nos résultats montrent également que les traitements réalisés tôt en septembre sont plus efficaces et produisent des colonies plus fortes au printemps comparativement à un traitement réalisé un mois plus tard en octobre. En conclusion, ce travail de recherche démontre qu’il est possible de contenir le développement de la varroase dans les ruchers au Québec en utilisant une méthode de lutte intégrée basée sur une combinaison d’applications d’acaricides organiques associée à des seuils d’intervention.
Resumo:
Problématique : La majorité des études publiées sur la réhabilitation par mise en charge immédiate de deux implants non jumelés avec une prothèse totale mandibulaire de recouvrement n’ont rapporté que des mesures cliniques objectives et très peu ont évalué les mesures centrées sur le patient, et ce, avec des erreurs de mesure. Aucune étude n’a évalué les attentes des patients vis-à-vis d'un tel protocole. Objectifs : Évaluer les attentes, le niveau de satisfaction ainsi que la qualité de vie reliée à la santé bucco-dentaire des édentés complets suite à un protocole de mise en charge immédiate. Méthodologie : Cet essai clinique de phase 1 utilise un design pré-post afin d’évaluer les mesures centrées sur le patient. Dix-huit individus, complètement édentés et âgés en moyenne de 62,39 ± 7,65 ans, ont reçu une prothèse totale mandibulaire de recouvrement sur deux implants non jumelés suite à un protocole de mise en charge immédiate, conjointement à une prothèse totale conventionnelle maxillaire. Un instrument adapté pour mesurer leurs attentes à l’aide d’échelles visuelles analogues, le questionnaire « McGill Denture Satisfaction Instrument » ainsi que le questionnaire OHIP-20 ont été remis aux patients avant de procéder aux traitements (T0), ainsi qu’aux rendez-vous de suivi à 2 semaines (T1), 1 mois (T2) et 4 mois (T3). De plus, l’inventaire de personnalité révisé (NÉO PI-R) ainsi qu’un questionnaire sociodémographique ont été remplis par les participants. Les « change scores » ont été calculés puis des tests non paramétriques et des analyses de variances en mesures répétées suivies de comparaisons par paires ont été utilisés afin d’analyser les données recueillies. La taille d’effet a été estimée. Résultats : Les participants avaient différentes attentes par rapport à la mise en charge immédiate. Certains s’attendaient à un effet positif à court terme par rapport à leur apparence esthétique (83,3 %) et à leur vie sociale (55,7 %), alors que d’autres avaient des craintes envers leur confort (5,6 %), leur habileté à mastiquer (11,1 %) et à nettoyer leur prothèse inférieure (11,1 %). À 4 mois, le protocole de mise en charge immédiate avait rencontré la majorité des attentes des patients par rapport à l’esthétique (94.4 %), la mastication (83.3 %), la phonétique (61.1 %), le confort (94.4 %), l’hygiène (88.9 %) et leur vie sociale (88.9 %). Une amélioration statistiquement significative de la satisfaction en générale, du confort, de l’esthétique, de la stabilité de la prothèse inférieure et de l’habileté à mastiquer a été notée à 2 semaines (p<0,001). Également, les comparaisons par paires ont révélé une diminution statistiquement significative du score total de l’OHIP-20 (p < 0,001) de même que la majorité des domaines de l’OHIP (p < 0.01), sauf pour l’handicap social qui n’a diminué significativement qu’après 1 mois (p = 0.01). Ces changements (pour la satisfaction et la qualité de vie) sont restés stables au cours des suivis subséquents. Indépendamment des traits de personnalité et des variables sociodémographiques, le protocole immédiat a satisfait 94,4 % des participants et a amélioré leur qualité de vie avec une large magnitude d’effet (d = 1.9; p < 0.001). Bien que deux patients aient perdu des implants au cours du traitement, 100 % des participants étaient d’accord pour recommander cette procédure à leurs pairs. Conclusions: Le protocole de mise en charge immédiate semble satisfaire les patients quelles que soient leurs attentes. Le protocole MCI peut améliorer, à court terme, la qualité de vie des patients totalement édentés. Les résultats prometteurs de la phase 1 devraient être corroborés lors de la 2e phase de cette étude.
Resumo:
Le présent travail de recherche analyse l’acte d’achat et fait une brèche dans la relation mystérieuse que nous développons avec les biens de consommation. En microéconomie et en sociologie de la consommation, on considère que le consommateur fait des choix rationnels, et ce à travers un processus d’achat (Langlois, 2002). Ce processus est divisé en cinq étapes : la reconnaissance du problème, la recherche d’informations, l’évaluation des alternatives en concurrence, le choix et l’analyse post-achat (Brée, 2004). Bien que l’étape du choix soit certainement l’étape charnière du processus, car elle détermine le choix final menant à l’achat, elle est souvent comprise comme l’aboutissement de calculs préalables et non comme un moment régi par ses propres dynamiques. Le paradigme dominant en matière de choix, la théorie du choix rationnel, avance que nous formulons nos choix en recourant à des calculs d’utilité. Nous évaluons rationnellement les options afin d’optimiser notre situation en sélectionnant le choix qui nous rapporte le plus en nous coûtant le moins (Abell, 1991). Par contre, certains critiques de la théorie du choix rationnel allèguent que la multiplicité de choix encouragée par notre société engendre un stress lors de l’achat qui embrouille le jugement menant au choix. Cela invite à considérer la singularité du moment menant au choix. Que se passe-t-il chez le consommateur lorsqu’il est mis en présence d’un objet? En vérité, les disciplines qui s’intéressent au comportement du consommateur éludent la présence de l’objet comme forme d’influence sur le jugement. Dans le cadre de cette recherche, nous entendons par la mise en présence le moment où un individu est en présence d’un objet spécifique ou d’une représentation d’un objet. Lorsque mis en présence de l’objet, le consommateur fera un jugement qui sera potentiellement relatif aux sensations de beauté (Hutcheson, 1991) et aux émotions provoquées par un objet spécifique. Ainsi, les sens « externes » (la vue, l’ouïe, l’odorat, le goût, le toucher) stimulent un sens « esthétique » : le sens interne de la beauté (Hutcheson, 1991). De plus, il peut survenir, en consommation, lors de la mise en présence que l’émotion prenne la forme d’un jugement (Nussbaum, 2001). On définit les émotions comme un état affectif situationnel dirigé vers une chose (Desmet, 2002). C’est ainsi que la recherche s’est articulé autour de l’hypothèse suivante : de quelle manière la mise en présence influence le jugement du consommateur pendant le processus d’achat? Nous avons mené une enquête inspirée d’une approche qualitative auprès de consommateurs dont les résultats sont ici exposés et discutés. L’enquête tente dans un premier temps de cerner l’impact de la mise en présence dans le processus d’achat. Puis, le récit de magasinage de quatre participants est analysé à l’aide d’éléments tels les critères de choix, les facteurs, les influences et les contraintes. L’enquête montre notamment que la mise en présence intervient et modifie le jugement du consommateur. L’analyse des entretiens met en avant une tendance chez nos participants à la scénarisation tout au long du processus d’achat et particulièrement lors des moments de mise en présence. Nous avons observé que les moments de mise en présence alimentent le scénario imaginé par le consommateur et lui permet de créer des scénarios de vie future en interaction avec certains biens de consommation.
Resumo:
Le code source de la libraire développée accompagne ce dépôt dans l'état où il était à ce moment. Il est possible de trouver une version plus à jour sur github (http://github.com/abergeron).
Resumo:
CONTEXTE : La mortalité infantile a diminué au Canada depuis les années 1990 et 2000 mais nous ignorons si toutes les classes socioéconomiques ont bénéficié également de ce progrès. OBJECTIFS : La présente étude portait sur les différences entre les taux de mortalité néonatale et postnéonatale et de mort subite du nourrisson entre les différents quintiles de revenu des quartiers au Canada de 1991 à 2005. MÉTHODES : Le fichier couplé des naissances vivantes et des décès infantiles au Canada a été utilisé à l’exclusion des naissances survenues en Ontario, au Yukon, dans les Territoires du Nord-ouest et au Nunavut. Les taux de mortalité néonatale et postnéonatale et de mort subite du nourrisson ont été calculé par quintile de revenu des quartiers et par période (1991-1995, 1996-2000, 2001-2005). Les rapports de risque (RR) ont été calculés par quintile de revenu et période avec ajustement pour la province de résidence, l’âge de la mère, la parité, le sexe du nourrisson et les naissances multiples. RÉSULTATS : En zone urbaine, pour toute la période étudiée (1991- 2005), le quintile de revenu le plus pauvre avait un risque plus élevé de mortalité néonatale (RR ajusté 1,24; IC 95% 1,15-1,34), de mortalité postnéonatale (RR ajusté 1,58; IC 95% 1,41-1,76) et de mort subite du nourrisson (RR ajusté 1,83; IC 95% 1,49-2,26) par rapport au quintile le plus riche. Les taux de mortalité post néonatale et de mort subite du nourrisson ont décliné respectivement de 37 % et de 57 % de 1991- 1995 à 2001-2005 alors que le taux de mortalité néonatale n’a pas changé de façon significative. Cette diminution de la mortalité postnéonatale et de la mort subite du nourrisson a été observée dans tous les quintiles de revenu. CONCLUSION : Malgré une diminution de la mortalité postnéonatale et du syndrome de mort subite du nourrisson dans tous les quintiles de revenu, les inégalités subsistent au Canada. Ce résultat démontre le besoin de stratégies efficaces de promotion de la santé visant spécifiquement les populations vulnérables. MOTS CLÉS : mort subite du nourrisson; mortalité infantile; statut socioéconomique
Resumo:
En radiothérapie, la tomodensitométrie (CT) fournit l’information anatomique du patient utile au calcul de dose durant la planification de traitement. Afin de considérer la composition hétérogène des tissus, des techniques de calcul telles que la méthode Monte Carlo sont nécessaires pour calculer la dose de manière exacte. L’importation des images CT dans un tel calcul exige que chaque voxel exprimé en unité Hounsfield (HU) soit converti en une valeur physique telle que la densité électronique (ED). Cette conversion est habituellement effectuée à l’aide d’une courbe d’étalonnage HU-ED. Une anomalie ou artefact qui apparaît dans une image CT avant l’étalonnage est susceptible d’assigner un mauvais tissu à un voxel. Ces erreurs peuvent causer une perte cruciale de fiabilité du calcul de dose. Ce travail vise à attribuer une valeur exacte aux voxels d’images CT afin d’assurer la fiabilité des calculs de dose durant la planification de traitement en radiothérapie. Pour y parvenir, une étude est réalisée sur les artefacts qui sont reproduits par simulation Monte Carlo. Pour réduire le temps de calcul, les simulations sont parallélisées et transposées sur un superordinateur. Une étude de sensibilité des nombres HU en présence d’artefacts est ensuite réalisée par une analyse statistique des histogrammes. À l’origine de nombreux artefacts, le durcissement de faisceau est étudié davantage. Une revue sur l’état de l’art en matière de correction du durcissement de faisceau est présentée suivi d’une démonstration explicite d’une correction empirique.
Resumo:
La maladie de Crohn (MC) pédiatrique a des conséquences majeures sur la qualité de vie des patients atteints (troubles de croissance, absentéisme scolaire, etc). L’étiologie de la MC est inconnue. La théorie de l’hygiène (TH) stipule que les conditions de vie sanitaires des pays industrialisés préviennent l’exposition antigénique et empêchent le développement de la tolérance immunitaire chez les enfants. Ceci mènerait à une réaction excessive du système immunitaire lors d’expositions subséquentes et engendrerait le développement de maladies inflammatoires chroniques telles la MC. Objectif: Analyser l’association entre la fréquence, la temporalité et le type d’infections infantiles (indicateurs d’environnements pourvus d’antigènes) et le risque de MC pédiatrique. Une étude cas-témoin fût réalisée, les cas de MC provenant d’un centre hospitalier tertiaire montréalais. Les témoins, provenant des registres de la Régie d’assurance maladie du Québec (RAMQ), furent appariés aux cas selon leur âge, sexe et lieu de résidence. L’exposition aux infections fût déterminée grâce aux codes de diagnostic ICD-9 inscrits dans la base de données de la RAMQ. Un modèle de régression logistique conditionnelle fût construit afin d’analyser l’association entre infections et MC. Des ratios de cotes (RC) et intervalles de confiance à 95% (IC 95%) furent calculés. Résultats: 409 cas et 1621 témoins furent recrutés. Les résultats de l’analyse suggèrent un effet protecteur des infections infantiles sur le risque de MC (RC: 0,67 [IC: 0,48-0,93], p=0,018), plus particulièrement au cours des 5 premières années de vie (RC: 0.74 [IC: 0,57-0,96], p=0,025). Les infections rénales et urinaires, ainsi que les infections des voies orales et du système nerveux central (virale), semblent particulièrement associées à l’effet protecteur. Les résultats de l’étude appuient la théorie de l’hygiène: l’exposition aux infections infantiles pourrait réduire le risque de MC pédiatrique.
Resumo:
Ce mémoire analyse l’espérance du temps de fixation conditionnellement à ce qu’elle se produise et la probabilité de fixation d’un nouvel allèle mutant dans des populations soumises à différents phénomènes biologiques en uti- lisant l’approche des processus ancestraux. Tout d’abord, l’article de Tajima (1990) est analysé et les différentes preuves y étant manquantes ou incomplètes sont détaillées, dans le but de se familiariser avec les calculs du temps de fixa- tion. L’étude de cet article permet aussi de démontrer l’importance du temps de fixation sur certains phénomènes biologiques. Par la suite, l’effet de la sé- lection naturelle est introduit au modèle. L’article de Mano (2009) cite un ré- sultat intéressant quant à l’espérance du temps de fixation conditionnellement à ce que celle-ci survienne qui utilise une approximation par un processus de diffusion. Une nouvelle méthode utilisant le processus ancestral est présentée afin d’arriver à une bonne approximation de ce résultat. Des simulations sont faites afin de vérifier l’exactitude de la nouvelle approche. Finalement, un mo- dèle soumis à la conversion génique est analysé, puisque ce phénomène, en présence de biais, a un effet similaire à celui de la sélection. Nous obtenons finalement un résultat analytique pour la probabilité de fixation d’un nouveau mutant dans la population. Enfin, des simulations sont faites afin de détermi- nerlaprobabilitédefixationainsiqueletempsdefixationconditionnellorsque les taux sont trop grands pour pouvoir les calculer analytiquement.
Resumo:
Résumé: Dans le but de préparer des complexes de Zr pour la catalyse homogène de la polymérisation des lactides et de l’hydroamination des olefines, l’elaboration et l’optimisation d’une méthode systématique et efficace de synthèse des ligands dikétimines ayant différents substituants alkyles (R) à la position N,N’ a été realisée. Des dikétimines (nacnacRH) symétriques ont été obtenus avec une pureté de plus de 95 % et un rendement de 65 % lorsque R = Me et des rendements allant de 80 à 95 % lorsque le groupe R = n-Pr, i-Pr, i-Bu, Bu, Cy et (+)-CH(Me)Ph. La synthèse des dikétimines ayant des substituants N-alkyls différents, dite asymétriques, donne toujours un mélange statistique de trois ligands: nacnacR,R’H, nacnacR,RH et nacnacR’,R’H qui n’ont pu être separés. Seuls les dikétimines asymétriques avec un substituant N-alkyl et un autre N-aryl (nacnacR,ArH) ont été obtenus avec des rendements plus élevés que celui du mélange statistique. Par la suite, la complexation de ces ligands bidentés au Zr, la caractérisation de ces complexes et l’investigation de la réactivité ont été étudiés. Les complexes de Zr de type (nacnacR)2ZrCl2 ont été obtenus par deux voies de synthèse principales: la première consiste à traiter le sel de lithium du ligand avec le ZrCl4. La seconde est la réaction du ligand avec les complexes neutres d’alkyl-zirconium(IV) par protonation de l'alkyle coordonné. En solution, les complexes obtenus de (nacnacR)2ZrX2 possèdent un comportement dynamique via un « Bailar-twist » et les paramètres d'activation de cette isomérisation ont été calculés. Le complexe octaèdrique (nacnacBn)2ZrCl2 n'est pas réactif dans la carbozirconation et son alkylation n'était pas possible par l’échange des chlorures avec les alkyles. L’analogue diméthylé (nacnacBn)2ZrMe2 peut être préparé par alkylation du ZrCl4 avant la complexation du ligand. On a également observé que ce dernier n’est pas réactif dans la carbozirconation. L‘analogue diéthoxyde (nacnacBn)2Zr(OEt)2 est obtenu par échange des diméthyles avec les éthoxydes. La polymérisation du lactide avec celui-ci en tant que précurseur est relativement lente et ne peut être effectuée que dans le monomère fondu. Par conséquent, pour résoudre les problèmes rencontrés avec les complexes de zirconium (dikétiminates non-pontés), un ligand dikétimines pontés par le diaminocyclohexane, (±)-C6H10(nacnacXylH)2, LH2, (Xyl = 2,6-diméthylphényle) a été préparé. La complexation de ce ligand tetradenté au metal a été réalisée par deux voies de synthèse; la première est la réaction du sel de lithium de ce ligand avec le ZrCl4(THF)2. La deuxième est la déprotonation du ligand neutre avec le Zr(NMe2)4 et l’élimination du diméthylamine. Des complexes du type: (±)-C6H10(nacnacXylH)2ZrX2 avec X = Cl, NMe2 ont été obtenus. Les ligands de chlorure sont dans ce cas facilement remplaçables par des éthoxydes ou des méthyles. On a observé l’activité la plus élevée jamais observée pour un complexe d’un métal du groupe 4 avec le complexe de (±)-C6H10(nacnacXylH)2Zr(OEt)2 dans la polymérisation de lactide. L'étude cinétique a montré que la loi de vitesse est du premier ordre en catalyseur et en monomère et la constante de vitesse est k = 14 (1) L mol-1 s-1. L'analyse des polymères a montré l’obtention de masses moléculaires faibles et l’abscence de stéréocontrôle. La réaction de (±)-C6H10(nacnacXylH)2ZrCl2 avec le triflate d’argent donne le (±)-C6H10(nacnacXylH)2Zr(OTf)2. Le complexe bis-triflate obtenu possède une activité catalytique elevée pour les additions du type aza-Michael. L’utilisation du R,R-C6H10(nacnacXylH)2Zr(OTf)2 énantiopur comme catalyseur, dans les additions du type aza-Michael asymétriques donne le produit desiré avec un excès énantiomérique de 19%.
Resumo:
La présente thèse porte sur les limites de la théorie de la fonctionnelle de la densité et les moyens de surmonter celles-ci. Ces limites sont explorées dans le contexte d'une implémentation traditionnelle utilisant une base d'ondes planes. Dans un premier temps, les limites dans la taille des systèmes pouvant être simulés sont observées. Des méthodes de pointe pour surmonter ces dernières sont ensuite utilisées pour simuler des systèmes de taille nanométrique. En particulier, le greffage de molécules de bromophényle sur les nanotubes de carbone est étudié avec ces méthodes, étant donné l'impact substantiel que pourrait avoir une meilleure compréhension de ce procédé sur l'industrie de l'électronique. Dans un deuxième temps, les limites de précision de la théorie de la fonctionnelle de la densité sont explorées. Tout d'abord, une étude quantitative de l'incertitude de cette méthode pour le couplage électron-phonon est effectuée et révèle que celle-ci est substantiellement plus élevée que celle présumée dans la littérature. L'incertitude sur le couplage électron-phonon est ensuite explorée dans le cadre de la méthode G0W0 et cette dernière se révèle être une alternative substantiellement plus précise. Cette méthode présentant toutefois de sévères limitations dans la taille des systèmes traitables, différents moyens théoriques pour surmonter ces dernières sont développés et présentés dans cette thèse. La performance et la précision accrues de l'implémentation résultante laissent présager de nouvelles possibilités dans l'étude et la conception de certaines catégories de matériaux, dont les supraconducteurs, les polymères utiles en photovoltaïque organique, les semi-conducteurs, etc.