158 resultados para Rendements quantiques
Resumo:
Mesures effectuées dans le laboratoire de caractérisation optique des semi-conducteurs du Prof. Richard Leonelli du département de physique de l'université de Montréal. Les nanofils d'InGaN/GaN ont été fournis par le groupe du Prof. Zetian Mi du département de génie électrique et informatique de l'université McGill.
Resumo:
Cette thèse, composée de quatre articles scientifiques, porte sur les méthodes numériques atomistiques et leur application à des systèmes semi-conducteurs nanostructurés. Nous introduisons les méthodes accélérées conçues pour traiter les événements activés, faisant un survol des développements du domaine. Suit notre premier article, qui traite en détail de la technique d'activation-relaxation cinétique (ART-cinétique), un algorithme Monte Carlo cinétique hors-réseau autodidacte basé sur la technique de l'activation-relaxation nouveau (ARTn), dont le développement ouvre la voie au traitement exact des interactions élastiques tout en permettant la simulation de matériaux sur des plages de temps pouvant atteindre la seconde. Ce développement algorithmique, combiné à des données expérimentales récentes, ouvre la voie au second article. On y explique le relâchement de chaleur par le silicium cristallin suite à son implantation ionique avec des ions de Si à 3 keV. Grâce à nos simulations par ART-cinétique et l'analyse de données obtenues par nanocalorimétrie, nous montrons que la relaxation est décrite par un nouveau modèle en deux temps: "réinitialiser et relaxer" ("Replenish-and-Relax"). Ce modèle, assez général, peut potentiellement expliquer la relaxation dans d'autres matériaux désordonnés. Par la suite, nous poussons l'analyse plus loin. Le troisième article offre une analyse poussée des mécanismes atomistiques responsables de la relaxation lors du recuit. Nous montrons que les interactions élastiques entre des défauts ponctuels et des petits complexes de défauts contrôlent la relaxation, en net contraste avec la littérature qui postule que des "poches amorphes" jouent ce rôle. Nous étudions aussi certains sous-aspects de la croissance de boîtes quantiques de Ge sur Si (001). En effet, après une courte mise en contexte et une introduction méthodologique supplémentaire, le quatrième article décrit la structure de la couche de mouillage lors du dépôt de Ge sur Si (001) à l'aide d'une implémentation QM/MM du code BigDFT-ART. Nous caractérisons la structure de la reconstruction 2xN de la surface et abaissons le seuil de la température nécessaire pour la diffusion du Ge en sous-couche prédit théoriquement par plus de 100 K.
Resumo:
Résumé: Dans le but de préparer des complexes de Zr pour la catalyse homogène de la polymérisation des lactides et de l’hydroamination des olefines, l’elaboration et l’optimisation d’une méthode systématique et efficace de synthèse des ligands dikétimines ayant différents substituants alkyles (R) à la position N,N’ a été realisée. Des dikétimines (nacnacRH) symétriques ont été obtenus avec une pureté de plus de 95 % et un rendement de 65 % lorsque R = Me et des rendements allant de 80 à 95 % lorsque le groupe R = n-Pr, i-Pr, i-Bu, Bu, Cy et (+)-CH(Me)Ph. La synthèse des dikétimines ayant des substituants N-alkyls différents, dite asymétriques, donne toujours un mélange statistique de trois ligands: nacnacR,R’H, nacnacR,RH et nacnacR’,R’H qui n’ont pu être separés. Seuls les dikétimines asymétriques avec un substituant N-alkyl et un autre N-aryl (nacnacR,ArH) ont été obtenus avec des rendements plus élevés que celui du mélange statistique. Par la suite, la complexation de ces ligands bidentés au Zr, la caractérisation de ces complexes et l’investigation de la réactivité ont été étudiés. Les complexes de Zr de type (nacnacR)2ZrCl2 ont été obtenus par deux voies de synthèse principales: la première consiste à traiter le sel de lithium du ligand avec le ZrCl4. La seconde est la réaction du ligand avec les complexes neutres d’alkyl-zirconium(IV) par protonation de l'alkyle coordonné. En solution, les complexes obtenus de (nacnacR)2ZrX2 possèdent un comportement dynamique via un « Bailar-twist » et les paramètres d'activation de cette isomérisation ont été calculés. Le complexe octaèdrique (nacnacBn)2ZrCl2 n'est pas réactif dans la carbozirconation et son alkylation n'était pas possible par l’échange des chlorures avec les alkyles. L’analogue diméthylé (nacnacBn)2ZrMe2 peut être préparé par alkylation du ZrCl4 avant la complexation du ligand. On a également observé que ce dernier n’est pas réactif dans la carbozirconation. L‘analogue diéthoxyde (nacnacBn)2Zr(OEt)2 est obtenu par échange des diméthyles avec les éthoxydes. La polymérisation du lactide avec celui-ci en tant que précurseur est relativement lente et ne peut être effectuée que dans le monomère fondu. Par conséquent, pour résoudre les problèmes rencontrés avec les complexes de zirconium (dikétiminates non-pontés), un ligand dikétimines pontés par le diaminocyclohexane, (±)-C6H10(nacnacXylH)2, LH2, (Xyl = 2,6-diméthylphényle) a été préparé. La complexation de ce ligand tetradenté au metal a été réalisée par deux voies de synthèse; la première est la réaction du sel de lithium de ce ligand avec le ZrCl4(THF)2. La deuxième est la déprotonation du ligand neutre avec le Zr(NMe2)4 et l’élimination du diméthylamine. Des complexes du type: (±)-C6H10(nacnacXylH)2ZrX2 avec X = Cl, NMe2 ont été obtenus. Les ligands de chlorure sont dans ce cas facilement remplaçables par des éthoxydes ou des méthyles. On a observé l’activité la plus élevée jamais observée pour un complexe d’un métal du groupe 4 avec le complexe de (±)-C6H10(nacnacXylH)2Zr(OEt)2 dans la polymérisation de lactide. L'étude cinétique a montré que la loi de vitesse est du premier ordre en catalyseur et en monomère et la constante de vitesse est k = 14 (1) L mol-1 s-1. L'analyse des polymères a montré l’obtention de masses moléculaires faibles et l’abscence de stéréocontrôle. La réaction de (±)-C6H10(nacnacXylH)2ZrCl2 avec le triflate d’argent donne le (±)-C6H10(nacnacXylH)2Zr(OTf)2. Le complexe bis-triflate obtenu possède une activité catalytique elevée pour les additions du type aza-Michael. L’utilisation du R,R-C6H10(nacnacXylH)2Zr(OTf)2 énantiopur comme catalyseur, dans les additions du type aza-Michael asymétriques donne le produit desiré avec un excès énantiomérique de 19%.
Resumo:
Il existe un lien étroit entre la structure tridimensionnelle et la fonction cellulaire de l’ARN. Il est donc essentiel d’effectuer des études structurales de molécules d’ARN telles que les riborégulateurs afin de mieux caractériser leurs mécanismes d’action. Une technique de choix, permettant d’obtenir de l’information structurale sur les molécules d’ARN est la spectroscopie RMN. Cette technique est toutefois limitée par deux difficultés majeures. Premièrement, la préparation d’une quantité d’ARN nécessaire à ce type d’étude est un processus long et ardu. Afin de résoudre ce problème, notre laboratoire a développé une technique rapide de purification des ARN par affinité, utilisant une étiquette ARiBo. La deuxième difficulté provient du grand recouvrement des signaux présents sur les spectres RMN de molécules d’ARN. Ce recouvrement est proportionnel à la taille de la molécule étudiée, rendant la détermination de structures d’ARN de plus de 15 kDa extrêmement complexe. La solution émergeante à ce problème est le marquage isotopique spécifique des ARN. Cependant, les protocoles élaborées jusqu’à maintenant sont très coûteux, requièrent plusieurs semaines de manipulation en laboratoire et procurent de faibles rendements. Ce mémoire présente une nouvelle stratégie de marquage isotopique spécifique d’ARN fonctionnels basée sur la purification par affinité ARiBo. Cette approche comprend la séparation et la purification de nucléotides marqués, une ligation enzymatique sur support solide, ainsi que la purification d’ARN par affinité sans restriction de séquence. La nouvelle stratégie développée permet un marquage isotopique rapide et efficace d’ARN fonctionnels et devrait faciliter la détermination de structures d’ARN de grandes tailles par spectroscopie RMN.
Resumo:
Cette thèse traite de la structure électronique de supraconducteurs telle que déterminée par la théorie de la fonctionnelle de la densité. Une brève explication de cette théorie est faite dans l’introduction. Le modèle de Hubbard est présenté pour pallier à des problèmes de cette théorie face à certains matériaux, dont les cuprates. L’union de deux théories donne la DFT+U, une méthode permettant de bien représenter certains systèmes ayant des électrons fortement corrélés. Par la suite, un article traitant du couplage électron- phonon dans le supraconducteur NbC1−xNx est présenté. Les résultats illustrent bien le rôle de la surface de Fermi dans le mécanisme d’appariement électronique menant à la supraconductivité. Grâce à ces résultats, un modèle est développé qui permet d’expliquer comment la température de transition critique est influencée par le changement des fré- quences de vibration du cristal. Ensuite, des résultats de calcul d’oscillations quantiques obtenus par une analyse approfondie de surfaces de Fermi, permettant une comparaison directe avec des données expérimentales, sont présentés dans deux articles. Le premier traite d’un matériau dans la famille des pnictures de fer, le LaFe2P2. L’absence de su- praconductivité dans ce matériau s’explique par la différence entre sa surface de Fermi obtenue et celle du supraconducteur BaFe2As2. Le second article traite du matériau à fermions lourds, le YbCoIn5. Pour ce faire, une nouvelle méthode efficace de calcul des fréquences de Haas-van Alphen est développée. Finalement, un dernier article traitant du cuprate supraconducteur à haute température critique YBa2Cu3O6.5 est présenté. À l’aide de la DFT+U, le rôle de plusieurs ordres magnétiques sur la surface de Fermi est étudié. Ces résultats permettent de mieux comprendre les mesures d’oscillations quan- tiques mesurées dans ce matériau.
Resumo:
Une compréhension profonde de la séparation de charge à l’hétérojonction de semi-con- ducteurs organiques est nécessaire pour le développement de diodes photovoltaïques organiques plus efficaces, ce qui serait une grande avancée pour répondre aux besoins mondiaux en énergie durable. L’objectif de cette thèse est de décrire les processus impliqués dans la séparation de charges à hétérojonctions de semi-conducteurs organiques, en prenant en exemple le cas particulier du PCDTBT: PCBM. Nous sondons les excitations d’interface à l’aide de méthodes spectroscopiques résolues en temps couvrant des échelles de temps de 100 femto- secondes à 1 milliseconde. Ces principales méthodes spectroscopiques sont la spectroscopie Raman stimulée femtoseconde, la fluorescence résolue en temps et l’absorption transitoire. Nos résultats montrent clairement que le transfert de charge du PCDTBT au PCBM a lieu avant que l’exciton ne soit relaxé et localisé, un fait expérimental irréconciliable avec la théorie de Marcus semi-classique. La paire de charges qui est créée se divise en deux catégories : les paires de polarons géminales non piégées et les paires profondément piégées. Les premiers se relaxent rapidement vers l’exciton à transfert de charge, qui se recombine radiativement avec une constante de temps de 1– 2 nanoseconde, alors que les seconds se relaxent sur de plus longues échelles de temps via l’effet tunnel. Notre modèle photophysique quantitatif démontre que 2 % de l’excitation créée ne peut jamais se dissocier en porteurs de charge libre, un chiffre qui est en accord avec les rendements élevés rapportés pour ce type de système.
Resumo:
La vectorisation des médicaments est une approche très prometteuse tant sur le plan médical qu’économique pour la livraison des substances actives ayant une faible biodisponibilité. Dans ce contexte, les polymères en étoile et les dendrimères, macromolécules symétriques et branchées, semblent être les solutions de vectorisation les plus attrayantes. En effet, ces structures peuvent combiner efficacement une stabilité élevée dans les milieux biologiques à une capacité d’encapsulation des principes actifs. Grâce à leur architecture bien définie, ils permettent d’atteindre un très haut niveau de reproductibilité de résultats, tout en évitant le problème de polydispersité. Bien que des nombreuses structures dendritiques aient été proposées ces dernières années, il est cependant à noter que la conception de nouveaux nanovecteurs dendritiques efficaces est toujours d’actualité. Ceci s’explique par des nombreuses raisons telles que celles liées à la biocompatibilité, l’efficacité d’encapsulation des agents thérapeutiques, ainsi que par des raisons économiques. Dans ce projet, de nouvelles macromolécules branchées biocompatibles ont été conçues, synthétisées et évaluées. Pour augmenter leur efficacité en tant qu’agents d’encapsulations des principes actifs hydrophobes, les structures de ces macromolécules incluent un coeur central hydrophobe à base de porphyrine, décanediol ou trioléine modifié et, également, une couche externe hydrophile à base d’acide succinique et de polyéthylène glycol. Le choix des éléments structuraux de futures dendrimères a été basé sur les données de biocompatibilité, les résultats de nos travaux de synthèse préliminaires, ainsi que les résultats de simulation in silico réalisée par une méthode de mécanique moléculaire. Ces travaux ont permis de choisir des composés les plus prometteurs pour former efficacement et d’une manière bien contrôlable des macromolécules polyesters. Ils ont aussi permis d’évaluer au préalable la capacité de futurs dendrimères de capter une molécule médicamenteuse (itraconazole). Durant cette étape, plusieurs nouveaux composés intermédiaires ont été obtenus. L’optimisation des conditions menant à des rendements réactionnels élevés a été réalisée. En se basant sur les travaux préliminaires, l’assemblage de nouveaux dendrimères de première et de deuxième génération a été effectué, en utilisant les approches de synthèse divergente et convergente. La structure de nouveaux composés a été prouvée par les techniques RMN du proton et du carbone 13C, spectroscopie FTIR, UV-Vis, analyse élémentaire, spectrométrie de masse et GPC. La biocompatibilité de produits a été évaluée par les tests de cytotoxicité avec le MTT sur les macrophages murins RAW-262.7. La capacité d’encapsuler les principes actifs hydrophobes a été étudiée par les tests avec l’itraconazole, un antifongique puissant mais peu biodisponible. La taille de nanoparticules formées dans les solutions aqueuses a été mesurée par la technique DLS. Ces mesures ont montré que toutes les structures dendritiques ont tendance à former des micelles, ce qui exclue leurs applications en tant que nanocapsules unimoléculaires. L’activité antifongique des formulations d’itraconazole encapsulé avec les dendrimères a été étudiée sur une espèce d’un champignon pathogène Candida albicans. Ces tests ont permis de conclure que pour assurer l’efficacité du traitement, un meilleur contrôle sur le relargage du principe actif était nécessaire.
Resumo:
Nous introduisons un nouveau modèle de la communication à deux parties dans lequel nous nous intéressons au temps que prennent deux participants à effectuer une tâche à travers un canal avec délai d. Nous établissons quelques bornes supérieures et inférieures et comparons ce nouveau modèle aux modèles de communication classiques et quantiques étudiés dans la littérature. Nous montrons que la complexité de la communication d’une fonction sur un canal avec délai est bornée supérieurement par sa complexité de la communication modulo un facteur multiplicatif d/ lg d. Nous présentons ensuite quelques exemples de fonctions pour lesquelles une stratégie astucieuse se servant du temps mort confère un avantage sur une implémentation naïve d’un protocole de communication optimal en terme de complexité de la communication. Finalement, nous montrons qu’un canal avec délai permet de réaliser un échange de bit cryptographique, mais que, par lui-même, est insuffisant pour réaliser la primitive cryptographique de transfert équivoque.
Resumo:
Cette thèse de doctorat consiste en trois chapitres qui traitent des sujets de choix de portefeuilles de grande taille, et de mesure de risque. Le premier chapitre traite du problème d’erreur d’estimation dans les portefeuilles de grande taille, et utilise le cadre d'analyse moyenne-variance. Le second chapitre explore l'importance du risque de devise pour les portefeuilles d'actifs domestiques, et étudie les liens entre la stabilité des poids de portefeuille de grande taille et le risque de devise. Pour finir, sous l'hypothèse que le preneur de décision est pessimiste, le troisième chapitre dérive la prime de risque, une mesure du pessimisme, et propose une méthodologie pour estimer les mesures dérivées. Le premier chapitre améliore le choix optimal de portefeuille dans le cadre du principe moyenne-variance de Markowitz (1952). Ceci est motivé par les résultats très décevants obtenus, lorsque la moyenne et la variance sont remplacées par leurs estimations empiriques. Ce problème est amplifié lorsque le nombre d’actifs est grand et que la matrice de covariance empirique est singulière ou presque singulière. Dans ce chapitre, nous examinons quatre techniques de régularisation pour stabiliser l’inverse de la matrice de covariance: le ridge, spectral cut-off, Landweber-Fridman et LARS Lasso. Ces méthodes font chacune intervenir un paramètre d’ajustement, qui doit être sélectionné. La contribution principale de cette partie, est de dériver une méthode basée uniquement sur les données pour sélectionner le paramètre de régularisation de manière optimale, i.e. pour minimiser la perte espérée d’utilité. Précisément, un critère de validation croisée qui prend une même forme pour les quatre méthodes de régularisation est dérivé. Les règles régularisées obtenues sont alors comparées à la règle utilisant directement les données et à la stratégie naïve 1/N, selon leur perte espérée d’utilité et leur ratio de Sharpe. Ces performances sont mesurée dans l’échantillon (in-sample) et hors-échantillon (out-of-sample) en considérant différentes tailles d’échantillon et nombre d’actifs. Des simulations et de l’illustration empirique menées, il ressort principalement que la régularisation de la matrice de covariance améliore de manière significative la règle de Markowitz basée sur les données, et donne de meilleurs résultats que le portefeuille naïf, surtout dans les cas le problème d’erreur d’estimation est très sévère. Dans le second chapitre, nous investiguons dans quelle mesure, les portefeuilles optimaux et stables d'actifs domestiques, peuvent réduire ou éliminer le risque de devise. Pour cela nous utilisons des rendements mensuelles de 48 industries américaines, au cours de la période 1976-2008. Pour résoudre les problèmes d'instabilité inhérents aux portefeuilles de grandes tailles, nous adoptons la méthode de régularisation spectral cut-off. Ceci aboutit à une famille de portefeuilles optimaux et stables, en permettant aux investisseurs de choisir différents pourcentages des composantes principales (ou dégrées de stabilité). Nos tests empiriques sont basés sur un modèle International d'évaluation d'actifs financiers (IAPM). Dans ce modèle, le risque de devise est décomposé en deux facteurs représentant les devises des pays industrialisés d'une part, et celles des pays émergents d'autres part. Nos résultats indiquent que le risque de devise est primé et varie à travers le temps pour les portefeuilles stables de risque minimum. De plus ces stratégies conduisent à une réduction significative de l'exposition au risque de change, tandis que la contribution de la prime risque de change reste en moyenne inchangée. Les poids de portefeuille optimaux sont une alternative aux poids de capitalisation boursière. Par conséquent ce chapitre complète la littérature selon laquelle la prime de risque est importante au niveau de l'industrie et au niveau national dans la plupart des pays. Dans le dernier chapitre, nous dérivons une mesure de la prime de risque pour des préférences dépendent du rang et proposons une mesure du degré de pessimisme, étant donné une fonction de distorsion. Les mesures introduites généralisent la mesure de prime de risque dérivée dans le cadre de la théorie de l'utilité espérée, qui est fréquemment violée aussi bien dans des situations expérimentales que dans des situations réelles. Dans la grande famille des préférences considérées, une attention particulière est accordée à la CVaR (valeur à risque conditionnelle). Cette dernière mesure de risque est de plus en plus utilisée pour la construction de portefeuilles et est préconisée pour compléter la VaR (valeur à risque) utilisée depuis 1996 par le comité de Bâle. De plus, nous fournissons le cadre statistique nécessaire pour faire de l’inférence sur les mesures proposées. Pour finir, les propriétés des estimateurs proposés sont évaluées à travers une étude Monte-Carlo, et une illustration empirique en utilisant les rendements journaliers du marché boursier américain sur de la période 2000-2011.
Resumo:
Dans ce mémoire, nous nous pencherons tout particulièrement sur une primitive cryptographique connue sous le nom de partage de secret. Nous explorerons autant le domaine classique que le domaine quantique de ces primitives, couronnant notre étude par la présentation d’un nouveau protocole de partage de secret quantique nécessitant un nombre minimal de parts quantiques c.-à-d. une seule part quantique par participant. L’ouverture de notre étude se fera par la présentation dans le chapitre préliminaire d’un survol des notions mathématiques sous-jacentes à la théorie de l’information quantique ayant pour but primaire d’établir la notation utilisée dans ce manuscrit, ainsi que la présentation d’un précis des propriétés mathématique de l’état de Greenberger-Horne-Zeilinger (GHZ) fréquemment utilisé dans les domaines quantiques de la cryptographie et des jeux de la communication. Mais, comme nous l’avons mentionné plus haut, c’est le domaine cryptographique qui restera le point focal de cette étude. Dans le second chapitre, nous nous intéresserons à la théorie des codes correcteurs d’erreurs classiques et quantiques qui seront à leur tour d’extrême importances lors de l’introduction de la théorie quantique du partage de secret dans le chapitre suivant. Dans la première partie du troisième chapitre, nous nous concentrerons sur le domaine classique du partage de secret en présentant un cadre théorique général portant sur la construction de ces primitives illustrant tout au long les concepts introduits par des exemples présentés pour leurs intérêts autant historiques que pédagogiques. Ceci préparera le chemin pour notre exposé sur la théorie quantique du partage de secret qui sera le focus de la seconde partie de ce même chapitre. Nous présenterons alors les théorèmes et définitions les plus généraux connus à date portant sur la construction de ces primitives en portant un intérêt particulier au partage quantique à seuil. Nous montrerons le lien étroit entre la théorie quantique des codes correcteurs d’erreurs et celle du partage de secret. Ce lien est si étroit que l’on considère les codes correcteurs d’erreurs quantiques étaient de plus proches analogues aux partages de secrets quantiques que ne leur étaient les codes de partage de secrets classiques. Finalement, nous présenterons un de nos trois résultats parus dans A. Broadbent, P.-R. Chouha, A. Tapp (2009); un protocole sécuritaire et minimal de partage de secret quantique a seuil (les deux autres résultats dont nous traiterons pas ici portent sur la complexité de la communication et sur la simulation classique de l’état de GHZ).
Resumo:
Thèse réalisée en cotutelle avec Michèle Prévost (Ph.D), Professeure titulaire au département des génies civil, géologique et des mines de l'École Polytechnique de Montréal.
Resumo:
Ce mémoire, composé d'un article en collaboration avec Monsieur Luc Vinet et Vincent X. Genest, est la suite du travail effectué sur les systèmes quantiques super-intégrables définis par des Hamiltoniens de type Dunkl. Plus particulièrement, ce mémoire vise l'analyse du problème de Coulomb-Dunkl dans le plan qui est une généralisation du système quantique de l'atome d'hydrogène impliquant des opérateurs de réflexion sur les variables x et y. Le modèle est défini par un potentiel en 1/r. Nous avons tout d'abord remarqué que l'Hamiltonien est séparable en coordonnées polaires et que les fonctions d'onde s'écrivent en termes de produits de polynômes de Laguerre généralisés et des harmoniques de Dunkl sur le cercle. L'algèbre générée par les opérateurs de symétrie nous a également permis de confirmer le caractère maximalement super-intégrable du problème de Coulomb-Dunkl. Nous avons aussi pu écrire explicitement les représentations de cette même algèbre. Nous avons finalement trouvé le spectre de l'énergie de manière algébrique.
Resumo:
Le but de cette étude est de comprendre l’effet d’une irrigation par les eaux usées et /ou de la fertilisation par les engrais chimiques sur la productivité aérienne et souterraine d’une plantation de saule Salix miyabeana SX67 en CICR dans un contexte de filtre végétal. Nous avons d’une part évalué l’impact de diverses doses d’eau usées et/ou de la fertilisation minérale sur les rendements en biomasse ligneuse d’une culture de saules au cours d’un cycle de croissance de deux ans. D’autre part et pour la même période nous avons comparé le développement racinaire (biomasse, morphologie et distribution dans le sol) suite aux divers traitements. Les résultats ont montré qu’au terme de deux ans de croissance, les traitements par les eaux usées aussi bien que celle par les engrais a permis l’augmentation des rendements de la biomasse aérienne de notre culture de saules avec un effet plus prononcé suite au traitements des eaux usées qu’à celui du fertilisant chimique. Nous avons mesuré des productivités en biomasse aussi élevées que 39,4 Mg ha-1 et 54,7 Mg ha-1 et ce pour les parcelles qui ont reçu la plus grande quantité d'eaux usées, respectivement pour les saules non fertilisé et fertilisé (D3-NF et D3-F). La majeure partie du système racinaire était en superficie avec 92-96% des racines (racine fine et racine grosse) concentrées dans les premiers 40 cm de sol et nous avons trouvé que la biomasse des racines fines était comprise entre 1,01 et 1,99 Mg ha-1. Généralement la fertilisation chimique n’a pas eu d’effet sur les rendements en biomasse des racines totales et/ou fines. Bien que l’irrigation par les eaux usées ait entraîné une réduction statistiquement significative de la biomasse racinaire, néanmoins cette réduction n'était pas linéaire (avec une réduction de la biomasse de D0 à D1, une augmentation de D1 à D2 pour réduire de nouveau de D2 à D3). Cette tendance porte à penser qu'au-delà d'une certaine quantité d'eau et de nutriments (suite à l’irrigation par les eaux usées), le développement du système racinaire des saules est affecté négativement, et bien que la biomasse aérienne soit restée élevée sous le traitement D3, nous pensons que le développement de la plante a été quelque peu déséquilibré. Aucun changement significatif n'a été constaté dans les traits morphologiques liés à l'irrigation par les eaux usées.
Resumo:
Le présent mémoire décrit le développement d’une méthode de synthèse des hélicènes catalysée par la lumière visible. Les conditions pour la formation de [5]hélicène ont été établies par une optimisation du photocatalyseur, du solvant, du système d’oxydation et du temps réactionnel. Suite aux études mécanistiques préliminaires, un mécanisme oxydatif est proposé. Les conditions optimisées ont été appliquées à la synthèse de [6]hélicènes pour laquelle la régiosélectivité a été améliorée en ajoutant des substituants sur la colonne hélicale. La synthèse de thiohélicènes a aussi été testée en utilisant les mêmes conditions sous irradiation par la lumière visible. La méthode a été inefficace pour la formation de benzodithiophènes et de naphtothiophènes, par contre elle permet la formation du phenanthro[3,4-b]thiophène avec un rendement acceptable. En prolongeant la surface-π de la colonne hélicale, le pyrène a été fusionné aux motifs de [4]- et [5]hélicène. Trois dérivés de pyrène-hélicène ont été synthétisés en utilisant les conditions optimisées pour la photocyclisation et leurs caractéristiques physiques ont été étudiées. La méthode de cyclisation sous l’action de la lumière visible a aussi été étudiée en flux continu. Une optimisation du montage expérimental ainsi que de la source lumineuse a été effectuée et les meilleures conditions ont été appliquées à la formation de [5]hélicène et des trois dérivés du pyrène-hélicène. Une amélioration ou conservation des rendements a été observée pour la plupart des produits formés en flux continu comparativement à la synthèse en batch. La concentration de la réaction a aussi été conservée et le temps réactionnel a été réduit par un facteur de dix toujours en comparaison avec la synthèse en batch.
Resumo:
Le 21e siècle est le berceau d’une conscientisation grandissante sur les impacts environnementaux des processus utilisés pour synthétiser des molécules cibles. Parmi les avancées qui ont marqué ces dernières décennies, il est également question de réduction de déchets, de conservation de l’énergie et de durabilité des innovations. Ces aspects constituent les lignes directrices de la chimie verte. De ce fait, il est impératif de développer des stratégies de synthèse dont les impacts environnementaux sont bénins. Dans ce mémoire nous présentons la synthèse, la caractérisation et l’étude des propriétés catalytiques en milieu aqueux d’un ligand composé d’une unité -cyclodextrine native, d’une unité imidazolium et d’une chaine alkyle à 12 carbones. Ce ligand hybride s’auto-assemble dans l’eau sous forme de micelles, permettant ainsi d’effectuer en sa présence des couplages de Suzuki-Miyaura dans l’eau, avec de bons rendements. La fonctionnalisation de la face primaire de la -cyclodextrine par un noyau alkyl-imidazolium, précurseur de ligand de type carbène N-hétérocyclique, a permis le développement d’un système catalytique vert et hautement recyclable. Dans un deuxième temps, nous présentons l’utilisation du même ligand hybride dans des couplages de Heck dans l’eau, démontrant ainsi la versatilité du ligand.