52 resultados para Électrons corrélés
em Université de Montréal, Canada
Resumo:
La présente thèse traite de la description de systèmes complexes, notamment des polymères et des cuprates, par la théorie de la fonctionnelle de la densité. En premier lieu, la théorie de la fonctionnelle de la densité ainsi que différentes fonctionnelles utilisées pour simuler les matériaux à l’étude sont présentées. Plus spécifiquement, les fonctionnelles LDA et GGA sont décrites et leurs limites sont exposées. De plus, le modèle de Hubbard ainsi que la fonctionnelle LDA+U qui en découle sont abordés dans ce chapitre afin de permettre la simulation des propriétés de matériaux à forte corrélation électronique. Par la suite, les résultats obtenus sur les polymères sont résumés par deux articles. Le premier traite de la variation de la bande interdite entre les polymères pontés et leurs homologues non pontés. Le second se penche sur l’étude de polymères à faible largeur de bande interdite. Dans ce dernier, il sera démontré qu’une fonctionnelle hybride, contenant de l’échange exact, est nécessaire afin de décrire les propriétés électroniques des systèmes à l’étude. Finalement, le dernier chapitre est consacré à l’étude des cuprates supraconducteurs. La LDA+U pouvant rendre compte de la forte localisation dans les orbitales 3d des atomes de cuivre, une étude de l’impact de cette fonctionnelle sur les propriétés électroniques est effectuée. Un dernier article investiguant différents ordres magnétiques dans le La2CuO4 dopé termine le dernier chapitre. On trouve aussi, en annexe, un complément d’information pour le second article et une description de la théorie de la supraconductivité de Bardeen, Cooper et Schrieffer.
Resumo:
Le présent mémoire traite de la description du LaOFeAs, le premier matériau découvert de la famille des pnictures de fer, par la théorie de la fonctionnelle de la densité (DFT). Plus particulièrement, nous allons exposer l’état actuel de la recherche concernant ce matériau avant d’introduire rapidement la DFT. Ensuite, nous allons regarder comment se comparent les paramètres structuraux que nous allons calculer sous différentes phases par rapport aux résultats expérimentaux et avec les autres calculs DFT dans la littérature. Nous allons aussi étudier en détails la structure électronique du matériau sous ses différentes phases magnétiques et structurales. Nous emploierons donc les outils normalement utilisés pour mieux comprendre la structure électronique : structures de bandes, densités d’états, surfaces de Fermi, nesting au niveau de Fermi. Nous tirerons profit de la théorie des groupes afin de trouver les modes phononiques permis par la symétrie de notre cristal. De plus, nous étudierons le couplage électrons-phonons pour quelques modes. Enfin, nous regarderons l’effet de différentes fonctionnelles sur nos résultats pour voir à quel point ceux-ci sont sensibles à ce choix. Ainsi, nous utiliserons la LDA et la PBE, mais aussi la LDA+U et la PBE+U.
Resumo:
Ce mémoire porte sur l’étude des maxima de champs gaussiens. Plus précisément, l’étude portera sur la convergence en loi, la convergence du premier ordre et la convergence du deuxième ordre du maximum d’une collection de variables aléatoires gaussiennes. Les modèles de champs gaussiens présentés sont le modèle i.i.d., le modèle hiérarchique et le champ libre gaussien. Ces champs gaussiens diffèrent par le degré de corrélation entre les variables aléatoires. Le résultat principal de ce mémoire sera que la convergence en probabilité du premier ordre du maximum est la même pour les trois modèles. Quelques résultats de simulations seront présentés afin de corroborer les résultats théoriques obtenus.
Resumo:
Cette thèse traite de la structure électronique de supraconducteurs telle que déterminée par la théorie de la fonctionnelle de la densité. Une brève explication de cette théorie est faite dans l’introduction. Le modèle de Hubbard est présenté pour pallier à des problèmes de cette théorie face à certains matériaux, dont les cuprates. L’union de deux théories donne la DFT+U, une méthode permettant de bien représenter certains systèmes ayant des électrons fortement corrélés. Par la suite, un article traitant du couplage électron- phonon dans le supraconducteur NbC1−xNx est présenté. Les résultats illustrent bien le rôle de la surface de Fermi dans le mécanisme d’appariement électronique menant à la supraconductivité. Grâce à ces résultats, un modèle est développé qui permet d’expliquer comment la température de transition critique est influencée par le changement des fré- quences de vibration du cristal. Ensuite, des résultats de calcul d’oscillations quantiques obtenus par une analyse approfondie de surfaces de Fermi, permettant une comparaison directe avec des données expérimentales, sont présentés dans deux articles. Le premier traite d’un matériau dans la famille des pnictures de fer, le LaFe2P2. L’absence de su- praconductivité dans ce matériau s’explique par la différence entre sa surface de Fermi obtenue et celle du supraconducteur BaFe2As2. Le second article traite du matériau à fermions lourds, le YbCoIn5. Pour ce faire, une nouvelle méthode efficace de calcul des fréquences de Haas-van Alphen est développée. Finalement, un dernier article traitant du cuprate supraconducteur à haute température critique YBa2Cu3O6.5 est présenté. À l’aide de la DFT+U, le rôle de plusieurs ordres magnétiques sur la surface de Fermi est étudié. Ces résultats permettent de mieux comprendre les mesures d’oscillations quan- tiques mesurées dans ce matériau.
Resumo:
This paper addresses the question of whether R&D should be carried out by an independent research unit or be produced in-house by the firm marketing the innovation. We define two organizational structures. In an integrated structure, the firm that markets the innovation also carries out and finances research leading to the innovation. In an independent structure, the firm that markets the innovation buys it from an independent research unit which is financed externally. We compare the two structures under the assumption that the research unit has some private information about the real cost of developing the new product. When development costs are negatively correlated with revenues from the innovation, the integrated structure dominates. The independent structure dominates in the opposite case.
Resumo:
Introduction : L’hypophosphatémie survient couramment après hépatectomie partielle. La régénération du foie était l’explication initiale. Cependant, les pertes rénales de phosphate observées récemment suggèrent que l’hypophosphatémie est probablement d’origine rénale. Nous avons donc mesuré la fraction d’excrétion urinaire de phosphate (FePO4) après hépatectomie partielle et nous avons étudié le rôle de la parathormone (PTH) et des phosphatonines dans cette hypophosphatémie. Méthodes : Les taux sériques de phosphate, de calcium ionisé, de PTH intacte, de « fibroblast growth factor- 23 » (FGF-23) intact et carboxyle-terminal, de FGF-7, de la « frizzled-related protein-4 » (FRP-4) et de HCO3- ainsi que le pH et la FePO4 ont été mesurés avant la chirurgie et aux jours postopératoires (po) 1, 2, 3, 5 et 7, chez 18 patients ayant subi une résection hépatique partielle. Résultats : Le phosphate sérique était à son plus bas niveau (0,66 ± 0,33 mmol/l; p < 0,001) au jour po 2. La FePO4 culminait à 25,07 ± 2,26 % au jour po 1 (p < 0,05) et était associée avec le taux de la parathormone intacte (r = 0,65; p = 0,006). Le calcium ionisé sérique diminuait à 1,1 ± 0,01 mmol/l, (p < 0,01) en même temps que la parathormone intacte s’élevait à 8,8 ± 0,9 pmol/l, (p < 0,01) au jour po 1; ces deux paramètres étaient inversement corrélés (r = -0,062; p = 0,016). Le FGF-23 intact atteignait son plus bas niveau à 7,8 ± 6,9 pg/ml (p < 0,001), au jour po 3; les valeurs de FGF-23 étaient corrélées avec la diminution du phosphate sérique aux jours po 0, 3, 5 et 7 (p < 0,001). Le FGF-23 carboxyle-terminal, le FGF-7 et la FRP-4 n’étaient pas reliés au phosphate sérique ni à la FePO4. Conclusion : L’hypophosphatémie observée après résection hépatique partielle est liée à une augmentation de la FePO4 qui est sans aucune relation avec les FGF-23 intact ou carboxyle-terminal, le FGF-7 et la FRP-4. La PTH intacte était associée avec la FePO4 uniquement au jour po 1. L’hypophosphatémie après résection hépatique est secondaire à d’autres facteurs non encore identifiés.
Resumo:
Les complexes de la famille des ansa-chromocènes sont relativement peu nombreux, mais ils ont tout de même démontré des réactivités intéressantes comme la possibilité de coordonner une molécule de monoxyde de carbone au centre métallique sans être sous pression constante de gaz, ce qui n’est pas le cas pour l’homologue chromocène. L’ansa-chromocène le plus surprenant est sans doute le Me2Si(C5Me4)2Cr, car il est le seul qui ne comporte pas de ligand autre que celui de type ansa. Cependant, ce composé a été obtenu sans que le mécanisme de la réaction ne soit compris et prouvé, seul un mécanisme proposé a été publié. Au cours de cette étude, le mécanisme proposé a tout d’abord été infirmé grâce à de nombreuses expériences qui ont mené à l’élaboration d’un nouveau mécanisme. Par la suite, la réactivité du Me2Si(C5Me4)2Cr a été approfondie en le faisant réagir avec divers réactifs. Aucun produit d’addition oxydante n’a été isolé, mais la réaction avec l’isonitrile forme un complexe asymétrique avec deux isonitriles coordonnés. La détermination du moment magnétique du composé Me2Si(C5Me4)2Cr confirme la présence de deux électrons non-pairés à la température de la pièce et évoque la possibilité d’une transition à S=2 à température plus élevée. La synthèse de nouveaux complexes de type ansachromocène insaturé a été tentée avec d’autres ligands ansa, et la réaction avec [C2H4(C9H6)2]Li2 mène à un complexe dimérique avec des ligands indényles pontés.
Resumo:
L’objectif principal de ce mémoire consiste à déterminer s’il existe une association entre la détresse psychologique et les problèmes cardiovasculaires chez les travailleurs, suite à l’influence de certains facteurs professionnels. Les données proviennent de l’Enquête sur la santé dans les communautés canadiennes (cycle 3.1 de l’ESCC), menée par Statistique Canada en 2005. Notre échantillon est composé de 15 394 canadiens et canadiennes en emploi de 15 ans et plus, représentatif sur le plan de l’âge, du genre et de la distribution géographique du lieu de résidence. Les analyses de régressions logistiques montrent que quatre facteurs professionnels présentent une association significative avec la détresse psychologique : les demandes psychologiques, la menace de perdre son emploi, le soutien social au travail, la satisfaction au travail. Puis, trois facteurs s’avèrent être reliés au développement de problèmes cardiovasculaires, soit l’utilisation des compétences, la satisfaction au travail ainsi que le nombre d’heures travaillées. Les analyses de variances multiples (MANOVA) révèlent que la détresse psychologique est associée aux problèmes cardiovasculaires et que ces deux problèmes de santé peuvent se retrouver en situation de comorbidité. Selon les résultats, on observe que cinq facteurs sont significativement corrélés à la présence de détresse psychologique en même qu’un problème cardiovasculaire : les demandes psychologiques, la menace de perdre son emploi, le soutien social au travail, la satisfaction au travail ainsi que le nombre d’heures travaillées. Par ailleurs, l’utilisation des compétences, l’autonomie décisionnelle et les exigences physiques de travail ne sont pas significativement associés à la détresse psychologique et à la présence de problèmes cardiovasculaires.
Resumo:
Ce travail de maîtrise a mené à la rédaction d'un article (Physical Review A 80, 062319 (2009)).
Resumo:
La dernière décennie a connu un intérêt croissant pour les problèmes posés par les variables instrumentales faibles dans la littérature économétrique, c’est-à-dire les situations où les variables instrumentales sont faiblement corrélées avec la variable à instrumenter. En effet, il est bien connu que lorsque les instruments sont faibles, les distributions des statistiques de Student, de Wald, du ratio de vraisemblance et du multiplicateur de Lagrange ne sont plus standard et dépendent souvent de paramètres de nuisance. Plusieurs études empiriques portant notamment sur les modèles de rendements à l’éducation [Angrist et Krueger (1991, 1995), Angrist et al. (1999), Bound et al. (1995), Dufour et Taamouti (2007)] et d’évaluation des actifs financiers (C-CAPM) [Hansen et Singleton (1982,1983), Stock et Wright (2000)], où les variables instrumentales sont faiblement corrélées avec la variable à instrumenter, ont montré que l’utilisation de ces statistiques conduit souvent à des résultats peu fiables. Un remède à ce problème est l’utilisation de tests robustes à l’identification [Anderson et Rubin (1949), Moreira (2002), Kleibergen (2003), Dufour et Taamouti (2007)]. Cependant, il n’existe aucune littérature économétrique sur la qualité des procédures robustes à l’identification lorsque les instruments disponibles sont endogènes ou à la fois endogènes et faibles. Cela soulève la question de savoir ce qui arrive aux procédures d’inférence robustes à l’identification lorsque certaines variables instrumentales supposées exogènes ne le sont pas effectivement. Plus précisément, qu’arrive-t-il si une variable instrumentale invalide est ajoutée à un ensemble d’instruments valides? Ces procédures se comportent-elles différemment? Et si l’endogénéité des variables instrumentales pose des difficultés majeures à l’inférence statistique, peut-on proposer des procédures de tests qui sélectionnent les instruments lorsqu’ils sont à la fois forts et valides? Est-il possible de proposer les proédures de sélection d’instruments qui demeurent valides même en présence d’identification faible? Cette thèse se focalise sur les modèles structurels (modèles à équations simultanées) et apporte des réponses à ces questions à travers quatre essais. Le premier essai est publié dans Journal of Statistical Planning and Inference 138 (2008) 2649 – 2661. Dans cet essai, nous analysons les effets de l’endogénéité des instruments sur deux statistiques de test robustes à l’identification: la statistique d’Anderson et Rubin (AR, 1949) et la statistique de Kleibergen (K, 2003), avec ou sans instruments faibles. D’abord, lorsque le paramètre qui contrôle l’endogénéité des instruments est fixe (ne dépend pas de la taille de l’échantillon), nous montrons que toutes ces procédures sont en général convergentes contre la présence d’instruments invalides (c’est-à-dire détectent la présence d’instruments invalides) indépendamment de leur qualité (forts ou faibles). Nous décrivons aussi des cas où cette convergence peut ne pas tenir, mais la distribution asymptotique est modifiée d’une manière qui pourrait conduire à des distorsions de niveau même pour de grands échantillons. Ceci inclut, en particulier, les cas où l’estimateur des double moindres carrés demeure convergent, mais les tests sont asymptotiquement invalides. Ensuite, lorsque les instruments sont localement exogènes (c’est-à-dire le paramètre d’endogénéité converge vers zéro lorsque la taille de l’échantillon augmente), nous montrons que ces tests convergent vers des distributions chi-carré non centrées, que les instruments soient forts ou faibles. Nous caractérisons aussi les situations où le paramètre de non centralité est nul et la distribution asymptotique des statistiques demeure la même que dans le cas des instruments valides (malgré la présence des instruments invalides). Le deuxième essai étudie l’impact des instruments faibles sur les tests de spécification du type Durbin-Wu-Hausman (DWH) ainsi que le test de Revankar et Hartley (1973). Nous proposons une analyse en petit et grand échantillon de la distribution de ces tests sous l’hypothèse nulle (niveau) et l’alternative (puissance), incluant les cas où l’identification est déficiente ou faible (instruments faibles). Notre analyse en petit échantillon founit plusieurs perspectives ainsi que des extensions des précédentes procédures. En effet, la caractérisation de la distribution de ces statistiques en petit échantillon permet la construction des tests de Monte Carlo exacts pour l’exogénéité même avec les erreurs non Gaussiens. Nous montrons que ces tests sont typiquement robustes aux intruments faibles (le niveau est contrôlé). De plus, nous fournissons une caractérisation de la puissance des tests, qui exhibe clairement les facteurs qui déterminent la puissance. Nous montrons que les tests n’ont pas de puissance lorsque tous les instruments sont faibles [similaire à Guggenberger(2008)]. Cependant, la puissance existe tant qu’au moins un seul instruments est fort. La conclusion de Guggenberger (2008) concerne le cas où tous les instruments sont faibles (un cas d’intérêt mineur en pratique). Notre théorie asymptotique sous les hypothèses affaiblies confirme la théorie en échantillon fini. Par ailleurs, nous présentons une analyse de Monte Carlo indiquant que: (1) l’estimateur des moindres carrés ordinaires est plus efficace que celui des doubles moindres carrés lorsque les instruments sont faibles et l’endogenéité modérée [conclusion similaire à celle de Kiviet and Niemczyk (2007)]; (2) les estimateurs pré-test basés sur les tests d’exogenété ont une excellente performance par rapport aux doubles moindres carrés. Ceci suggère que la méthode des variables instrumentales ne devrait être appliquée que si l’on a la certitude d’avoir des instruments forts. Donc, les conclusions de Guggenberger (2008) sont mitigées et pourraient être trompeuses. Nous illustrons nos résultats théoriques à travers des expériences de simulation et deux applications empiriques: la relation entre le taux d’ouverture et la croissance économique et le problème bien connu du rendement à l’éducation. Le troisième essai étend le test d’exogénéité du type Wald proposé par Dufour (1987) aux cas où les erreurs de la régression ont une distribution non-normale. Nous proposons une nouvelle version du précédent test qui est valide même en présence d’erreurs non-Gaussiens. Contrairement aux procédures de test d’exogénéité usuelles (tests de Durbin-Wu-Hausman et de Rvankar- Hartley), le test de Wald permet de résoudre un problème courant dans les travaux empiriques qui consiste à tester l’exogénéité partielle d’un sous ensemble de variables. Nous proposons deux nouveaux estimateurs pré-test basés sur le test de Wald qui performent mieux (en terme d’erreur quadratique moyenne) que l’estimateur IV usuel lorsque les variables instrumentales sont faibles et l’endogénéité modérée. Nous montrons également que ce test peut servir de procédure de sélection de variables instrumentales. Nous illustrons les résultats théoriques par deux applications empiriques: le modèle bien connu d’équation du salaire [Angist et Krueger (1991, 1999)] et les rendements d’échelle [Nerlove (1963)]. Nos résultats suggèrent que l’éducation de la mère expliquerait le décrochage de son fils, que l’output est une variable endogène dans l’estimation du coût de la firme et que le prix du fuel en est un instrument valide pour l’output. Le quatrième essai résout deux problèmes très importants dans la littérature économétrique. D’abord, bien que le test de Wald initial ou étendu permette de construire les régions de confiance et de tester les restrictions linéaires sur les covariances, il suppose que les paramètres du modèle sont identifiés. Lorsque l’identification est faible (instruments faiblement corrélés avec la variable à instrumenter), ce test n’est en général plus valide. Cet essai développe une procédure d’inférence robuste à l’identification (instruments faibles) qui permet de construire des régions de confiance pour la matrices de covariances entre les erreurs de la régression et les variables explicatives (possiblement endogènes). Nous fournissons les expressions analytiques des régions de confiance et caractérisons les conditions nécessaires et suffisantes sous lesquelles ils sont bornés. La procédure proposée demeure valide même pour de petits échantillons et elle est aussi asymptotiquement robuste à l’hétéroscédasticité et l’autocorrélation des erreurs. Ensuite, les résultats sont utilisés pour développer les tests d’exogénéité partielle robustes à l’identification. Les simulations Monte Carlo indiquent que ces tests contrôlent le niveau et ont de la puissance même si les instruments sont faibles. Ceci nous permet de proposer une procédure valide de sélection de variables instrumentales même s’il y a un problème d’identification. La procédure de sélection des instruments est basée sur deux nouveaux estimateurs pré-test qui combinent l’estimateur IV usuel et les estimateurs IV partiels. Nos simulations montrent que: (1) tout comme l’estimateur des moindres carrés ordinaires, les estimateurs IV partiels sont plus efficaces que l’estimateur IV usuel lorsque les instruments sont faibles et l’endogénéité modérée; (2) les estimateurs pré-test ont globalement une excellente performance comparés à l’estimateur IV usuel. Nous illustrons nos résultats théoriques par deux applications empiriques: la relation entre le taux d’ouverture et la croissance économique et le modèle de rendements à l’éducation. Dans la première application, les études antérieures ont conclu que les instruments n’étaient pas trop faibles [Dufour et Taamouti (2007)] alors qu’ils le sont fortement dans la seconde [Bound (1995), Doko et Dufour (2009)]. Conformément à nos résultats théoriques, nous trouvons les régions de confiance non bornées pour la covariance dans le cas où les instruments sont assez faibles.
Resumo:
La neurogenèse persiste à l’âge adulte dans deux régions du système nerveux central (SNC) des mammifères : la zone sous-ventriculaire (SVZ) du cerveau antérieur et la zone sous-granulaire (SGZ) de l’hippocampe. Cette neurogenèse est possible grâce à la capacité de prolifération des cellules souches présentes dans les niches de la SVZ et la SGZ, mais en vieillissant, le cerveau subit une diminution dramatique du nombre de cellules souches neurales adultes (CSNa), une diminution de la prolifération cellulaire et une altération des niches de neurogenèse. Cependant, une importante question reste sans réponse : comment la perte tardive des CSNa est temporellement reliée aux changements de l’activité de prolifération et de la structure de la principale niche de neurogenèse (la SVZ)? Afin d’avoir un aperçu sur les événements initiaux, nous avons examiné les changements des CSNa et de leur niche dans la SVZ entre le jeune âge et l’âge moyen. La niche de la SVZ des souris d’âge moyen (12 mois) subit une réduction de l’expression des marqueurs de plusieurs sous-populations de précurseurs neuraux en comparaison avec les souris jeunes adultes (2 mois). Anatomiquement, cela est associé avec des anomalies cytologiques, incluant une atrophie générale de la SVZ, une perte de la couche de cellules sousépendymaires par endroit et l’accumulation de gouttelettes lipidiques de grande taille dans l’épendyme. Fonctionnellement, ces changements sont corrélés avec une diminution de l’activité de la SVZ et une réduction du nombre de nouveaux neurones arrivant aux bulbes olfactifs. Pour déterminer si les CSNa de la SVZ ont subi des changements visibles, nous avons évalué les paramètres clés des CSNa in vivo et in vitro. La culture cellulaire montre qu’un nombre équivalent de CSNa ayant la capacité de former des neurosphères peut être isolé du cerveau du jeune adulte et d’âge moyen. Cependant, à l’âge moyen, les précurseurs neuraux semblent moins sensibles aux facteurs de croissance durant leur différenciation in vitro. Les CSNa donnent des signes de latence in vivo puisque leur capacité d’incorporation et de rétention du BrdU diminue. Ensemble, ces données démontrent que, tôt dans le processus du vieillissement, les CSNa et leur niche dans la SVZ subissent des changements significatifs, et suggèrent que la perte de CSNa liée au vieillissement est secondaire à ces événements.
Resumo:
Cette thèse décrit la synthèse, la caractérisation, les réactivités, et les propriétés physiques de complexes divalents et trivalents de Ni formés à partir de nouveaux ligands «pincer» de type POCN. Les ligands POCN de type amine sont préparés d’une façon simple et efficace via l’amination réductrice de 3-hydroxybenzaldéhyde avec NaBH4 et plusieurs amines, suivie par la phosphination de l’amino alcool résultant pour installer la fonction phosphinite (OPR2); le ligand POCN de type imine 1,3-(i-Pr)2PC6H4C(H)=N(CH2Ph) est préparé de façon similaire en faisant usage de PhCH2NH2 en l’absence de NaBH4. La réaction de ces ligands «pincer» de type POCN avec NiBr2(CH3CN)x en présence d’une base résulte en un bon rendement de la cyclométalation du lien C-H situé en ortho aux fonctions amine et phosphinite. Il fut découvert que la base est essentielle pour la propreté et le haut rendement de la formation des complexes «pincer» désirés. Nous avons préparé des complexes «pincer» plan- carrés de type POCN, (POCNRR΄)NiBr, possédant des fonctions amines secondaires et tertiaires qui démontrent des réactivités différentes selon les substituants R et R΄. Par exemple, les complexes possédant des fonctions amines tertiaires ArCH2NR2 (NR2= NMe2, NEt2, and morpholinyl) démontrent des propriétés rédox intéressantes et pourraient être convertis en leurs analogues trivalents (POCNR2)NiBr2 lorsque réagis avec Br2 ou N-bromosuccinimide (NBS). Les complexes trivalents paramagnétiques à 17 électrons adoptent une géométrie de type plan-carré déformée, les atomes de Br occupant les positions axiale et équatoriale. Les analyses «DSC» et «TGA» des ces composés ont démontré qu’ils sont thermiquement stables jusqu’à ~170 °C; tandis que la spectroscopie d’absorption en solution a démontré qu’ils se décomposent thermiquement à beaucoup plus basse température pour regénérer les complexes divalents ne possédant qu’un seul Br; l’encombrement stérique des substitutants amines accélère cette route de décomposition de façon significative. Les analogues NMe2 et N(morpholinyl) de ces espèces de NiIII sont actifs pour catalyser la réaction d’addition de Kharasch, de CX4 à des oléfines telles que le styrène, tandis qu’il fut découvert que l’analogue le moins thermiquement stable (POCNEt2)Ni est complètement inerte pour catalyser cette réaction. Les complexes (POCNRH)NiBr possédant des fonctions amines secondaires permettent l’accès à des fonctions amines substituées de façon non symétrique via leur réaction avec des halogénures d’alkyle. Un autre avantage important de ces complexes réside dans la possibilité de déprotonation pour préparer des complexes POCN de type amide. De telles tentatives pour déprotoner les fonctions NRH nous ont permis de préparer des espèces dimériques possédant des ligands amides pontants. La nature dimérique des ces complexes [P,C,N,N-(2,6-(i-Pr)2PC6H3CH2NR)Ni]2 (R= PhCH2 et Ph) fut établie par des études de diffraction des rayons-X qui ont démontré différentes géométries pour les cœurs Ni2N2 selon le substituant N : l’analogue (PhCH2)N possède une orientation syn des substitutants benzyles et un arrangement ressemblant à celui du cyclobutane du Ni et des atomes d’azote, tandis que l’analogue PhN adopte un arrangement de type diamant quasi-planaire des atomes du Ni et des atomes d’azote et une orientation anti des substituants phényles. Les espèces dimériques ne se dissocient pas en présence d’alcools, mais elles promouvoient l’alcoolyse catalytique de l’acrylonitrile. De façon intéressante, les rendements de ces réactions sont plus élevés avec les alcools possédant des fonctions O-H plus acides, avec un nombre de «turnover» catalytique pouvant atteindre 2000 dans le cas de m-cresol. Nous croyons que ces réactions d’alcoolyse procèdent par activation hétérolytique de l’alcool par l’espèce dimérique via des liaisons hydrogènes avec une ou deux des fonctions amides du dimère. Les espèces dimériques de Ni (II) s’oxydent facilement électrochimiquement et par reaction avec NBS ou Br2. De façon surprenante, l’oxydation chimique mène à l’isolation de nouveaux produits monomériques dans lesquels le centre métallique et le ligand sont oxydés. Le mécanisme d’oxydation fut aussi investigué par RMN, «UV-vis-NIR», «DFT» et spectroélectrochimie.
Resumo:
Introduction: Le gène O6-méthylguanine-ADN méthyltransferase (MGMT) code pour une enzyme spécifique réparatrice de l’ADN qui protège les cellules de la toxicité des agents alkylants. Ainsi, l’activité du MGMT est un mécanisme majeur de résistance aux agents alkylants. Il a été démontré qu’une diminution de l’expression du gène MGMT par une hyperméthylation du promoteur résulte en une amélioration de la survie chez les patients avec certains types de tumeurs qui sont traitées avec des agents chimiothérapeuthique alkylants. Objectifs: Déterminer la prévalence de la méthylation du gène MGMT chez des patients avec des cancers épidermoïdes localement avancés de la sphère ORL traités avec chimioradiothérapie et évaluer l’impact de cette méthylation sur la survie. Méthodes: Sur 428 patients consécutifs, traités avec chimioradiothérapie à notre institution et suivis pour un période médiane de 37 mois, 199 spécimens chirurgicaux paraffinés ont été récupérés. L’ADN était extrait et modifié par le traitement au bisulfite. Une réaction en chaîne de la polymérase, spécifique à la méthylation était entreprise pour évaluer l’état de méthylation du promoteur du gène du MGMT. Les résultats de laboratoire étaient corrélés avec la réponse clinique. L’analyse statistique était exécutée à l’aide du test de Fisher pour les données catégoriques et à l’aide des courbes de Kaplan-Meier pour les échecs au traitement. Résultats : Des 199 extraits d’ADN initiaux, 173 (87%) étaient modifiés au bisulfite avec succès. Des ces spécimens modifiés, 71 (41%) ont démontré une hyperméthylation du MGMT. Pour les cas de méthylation et nonméthylation du MGMT, les caractéristiques des patients n’étaient pas significativement différentes. Les taux de réponse étaient 71 et 73% (p=NS) respectivement. Le contrôle locorégional était respectivement 87 et 77% (p=0.26), la survie sans maladie était 80 et 60% (p=0.38), la survie sans métastase à distance était 92 et 78% (p=0.08) et la survie globale était 64 et 62% (p=0.99) à 3 ans. Conclusions : L’état de méthylation du MGMT est fortement prévalent (41%) et semble avoir un possible impact bénéfique sur la survie quand la chimioradiothérapie est administrée aux patients avec des stades avancés de cancers tête et cou.
Resumo:
Cette thèse est composée de trois essais en économie forestière. Les deux premiers s'intéressent à la fixation de la redevance optimale à laquelle fait face le propriétaire d'une ressource forestière dans un contexte d'information asymétrique. Le troisième analyse l'impact à long terme du recyclage sur la surface de terre affectée à la forêt. La gestion des ressources forestières implique souvent la délégation des droits de coupe par le propriétaire forestier à une entreprise exploitante. Cette délégation prend la forme d'un contrat de concession par lequel le propriétaire forestier octroie les droits d'exploitation aux compagnies forestières, en contrepartie d'une redevance (transfert monétaire). L'octroie des droits d'exploitation s'effectue généralement sous plusieurs modes, dont les plus répandus sont les appels d'offres publics et les contrats de gré à gré, où le propriétaire forestier et la firme exploitante spécifient entre autres la redevance dans les clauses d'exploitation de la forêt. Pour déterminer le mécanisme optimal (choix de la firme, âge de coupe et redevance), le propriétaire forestier a idéalement besoin de connaître les coûts de coupe et de reboisement. Or en réalité, les firmes sont mieux informées sur leurs coûts que le propriétaire forestier. Dans ce contexte d'information asymétrique, le mécanisme optimal doit donc prendre en considération des contraintes informationnelles. Les deux premiers essais caractérisent, sous ces conditions, l'âge de coupe optimal (la rotation optimale) et la redevance optimale. Le premier essai examine le contrat optimal quand le propriétaire forestier cède les droits de coupes à une firme par un accord de gré à gré ou par une procédure d'appel d'offre public au second prix. L'analyse du problème est menée premièrement dans un contexte statique, dans le sens que les coûts de coupe sont parfaitement corrélés dans le temps, puis dans un contexte dynamique, où les coûts sont indépendants dans le temps. L'examen en statique et en dynamique montre que la rotation optimale va satisfaire une version modifiée de la règle de Faustmann qui prévaudrait en information symétrique. Cette modification est nécessaire afin d'inciter la firme à révéler ses vrais coûts. Dans le cas statique, il en résulte que la rotation optimale est plus élevée en information asymétrique qu'en situation de pleine information. Nous montrons également comment le seuil maximal de coût de coupe peut être endogénéisé, afin de permettre au propriétaire d'accroître son profit espéré en s'assurant que les forêts non profitables ne seront pas exploitées. Nous comparons ensuite la redevance optimale en information asymétrique et symétrique. Les redevances forestières dans un arrangement de gré à gré étant généralement, en pratique, une fonction linéaire du volume de bois, nous dérivons le contrat optimal en imposant une telle forme de redevance et nous caractérisons la perte en terme de profit espéré qui résulte de l'utilisation de ce type de contrat plutôt que du contrat non linéaire plus général. Finalement, toujours dans le contexte statique, nous montrons à travers un mécanisme optimal d'enchère au second prix qu'en introduisant ainsi la compétition entre les firmes le propriétaire forestier augmente son profit espéré. Les résultats obtenus dans le contexte dynamique diffèrent pour la plupart de ceux obtenus dans le cas statique. Nous montrons que le contrat optimal prévoit alors que chaque type de firme, incluant celle ayant le coût le plus élevé, obtient une rente strictement positive, laquelle augmente dans le temps. Ceci est nécessaire pour obtenir la révélation à moindre coût à la période courante du véritable type de la firme. Comme implication, la rotation optimale s'accroît aussi dans le temps. Finalement, nous montrons qu'il y a distorsion en asymétrique d'information par rapport à l'optimum de pleine information même pour le coût le plus bas (la réalisation la plus favorable). La concurrence introduite dans le premier essai sous forme d'enchère au second prix suppose que chaque firme connaît exactement son propre coût de coupe. Dans le deuxième essai nous relâchons cette hypothèse. En réalité, ni le propriétaire forestier ni les firmes ne connaissent avec précision les coûts de coupe. Chaque firme observe de manière privée un signal sur son coût. Par exemple chaque firme est autorisée à visiter un lot pour avoir une estimation (signal) de son coût de coupe. Cependant cette évaluation est approximative. Ainsi, le coût de chaque firme va dépendre des estimations (signaux) d'autres firmes participantes. Nous sommes en présence d'un mécanisme à valeurs interdépendantes. Dans ce contexte, la valeur d'une allocation dépend des signaux de toutes les firmes. Le mécanisme optimal (attribution des droits d'exploitation, redevance et âge de coupe) est exploré. Nous déterminons les conditions sous lesquelles le mécanisme optimal peut être implémenté par une enchère au second prix et dérivons la rotation optimale et le prix de réserve dans le contexte de ce type d'enchère. Le troisième essai de la thèse analyse l'impact à long terme du recyclage sur la surface de terre affectée à la forêt. L'un des principaux arguments qui milite en faveur du recours au recyclage est que cela entraînerait une réduction de la coupe de bois, épargnant ainsi des arbres. L'objectif est donc d'aboutir à un nombre d'arbres plus important qu'en l'absence de recyclage. L'idée d'accroître le stock d'arbre tient au fait que les forêts génèrent des externalités: elles créent un flux de services récréatifs, freinent l'érosion des sols et des rives des cours d'eau et absorbent du dioxyde de carbone présent dans l'atmosphère. Étant donné la présence d'externalités, l'équilibre des marchés résulterait en un nombre d'arbre insuffisant, justifiant donc la mise en oeuvre de politiques visant à l'accroître. Le but de ce troisième essai est de voir dans quelle mesure la promotion du recyclage est un instrument approprié pour atteindre un tel objectif. En d'autres mots, comment le recyclage affecte-t-il à long terme la surface de terre en forêt et l'âge de coupe? Nous étudions cette question en spécifiant un modèle dynamique d'allocation d'un terrain donné, par un propriétaire forestier privé, entre la forêt et une utilisation alternative du terrain, comme l'agriculture. Une fois les arbres coupés, il décide d'une nouvelle allocation du terrain. Il le fait indéfiniment comme dans le cadre du modèle de Faustmann. Le bois coupé est transformé en produit final qui est en partie recyclé comme substitut du bois original. Ainsi, les outputs passés affectent le prix courant. Nous montrons que, paradoxalement, un accroissement du taux de recyclage réduira à long terme la surface forestière et donc diminuera le nombre d'arbres plantés. Par contre l'âge de coupe optimal va s'accroître. L'effet net sur le volume de bois offert sur le marché est ambigu. Le principal message cependant est qu'à long terme le recyclage va résulter en une surface en forêt plus petite et non plus grande. Donc, si le but est d'accroître la surface en forêt, il pourrait être préférable de faire appel à d'autres types d'instruments de politique que celui d'encourager le recyclage.
Resumo:
Dans l’hémiparésie consécutive à un AVC, une coactivation anormale des extenseurs du genou et de la cheville est souvent observée à la jambe atteinte lorsque la personne tente de bouger ou encore lors de la marche. Les mécanismes sous-jacents à cette coactivation sont mal compris. Bien que l’AVC entraîne une lésion supraspinale, des évidences démontrent le dysfonctionnement de certains circuits spinaux dans l’hémiparésie. Ce projet de doctorat visait à évaluer : 1) l’excitabilité des circuits spinaux intersegmentaires projetant des extenseurs du genou aux extenseurs de la cheville et 2) si un éventuel dysfonctionnement de ces circuits dans l’hémiparésie est associé à une coactivation anormale des extenseurs du genou et de la cheville lors de contractions statiques et au cours de la marche. La première étude compare la modulation de l’activité réflexe du soléaire suite à la stimulation du nerf fémoral entre des sujets hémiparétiques et sains. Une augmentation de la facilitation hétéronyme de courte latence et une diminution de l’inhibition ultérieure du réflexe H du soléaire ont été observées chez les sujets hémiparétiques. Ces résultats démontrent un dysfonctionnement des circuits intersegmentaires propriospinaux liant le quadriceps au soléaire suite à l’AVC. La deuxième étude démontre que ces changements dans la modulation hétéronyme des sujets hémiparétiques, évaluée au moyen de la méthode complexe basée sur l’activité réflexe du soléaire, sont similaires à ceux observés lorsque la modulation est évaluée en utilisant une méthode plus simple, soit celle de l’activité volontaire du soléaire. De plus, la modulation hétéronyme évaluée par les deux méthodes est corrélée avec l’atteinte motrice à la jambe parétique. La troisième étude a permis de quantifier une augmentation de la coactivation entre les extenseurs du genou et de la cheville lors de contractions volontaires statiques chez des personnes hémiparétiques par rapport à des personnes saines. De plus, le niveau accru de la coactivation involontaire des extenseurs de la cheville lors de l’activation volontaire des extenseurs du genou s’avère corrélé avec la modulation intersegmentaire du côté parétique. La quatrième étude a utilisé un indice temporel, soit l’intervalle entre les pics d’activation électromyographique (PAI), et un indice d’amplitude de coactivation (CAI) pour quantifier une augmentation de la coactivation entre les extenseurs du genou et de la cheville lors de la marche chez des personnes hémiparétiques par rapport à des personnes saines. Ces indices sont corrélés, pour certains groupes musculaires, avec la modulation intersegmentaire modifiée du côté parétique. Finalement, des résultats préliminaires montrent que la vibration mécanique du tendon rotulien (80 Hz) réduit la facilitation intersegmentaire accrue des sujets hémiparétiques. Ce projet doctoral a permis de mettre en lumière un dysfonctionnement de circuits spinaux liant le quadriceps et le soléaire dans l’hémiparésie consécutive à un AVC. Ce changement dans les mécanismes neurophysiologiques de la moelle épinière est corrélé avec des changements fonctionnels. Ainsi, ce dysfonctionnement pourrait contribuer à la coactivation involontaire entre les extenseurs du genou et de la cheville qui fait partie intégrante de la synergie pathologique en extension souvent rencontrée à la jambe parétique lors d’efforts en statique et pendant la marche. Finalement, une étude préliminaire suggère que la vibration mécanique serait une modalité sensorielle prometteuse pour réguler l’hyperexcitabilité des circuits spinaux qui contribuerait aux atteintes motrices chez les personnes hémiparétiques.