12 resultados para Linear optics in Quantum dots
em Université de Montréal, Canada
Resumo:
Les nanoparticules (NPs) sont définies comme des particules ayant au moins une dimension comprise entre 1 à 100 nanomètres. Plusieurs études in vitro et in vivo indiquent que les NPs pourraient constituer un risque potentiel pour la santé des personnes les synthétisant ou les manipulant lors de leur incorporation dans d’autres matériaux. La nanotoxicologie est un domaine de recherche émergeant. Les propriétés physico-chimiques particulières des NPs sont responsables d’interférences non spécifiques entre les nanomatériaux et certains des composants des essais in vitro pouvant mener à de faux résultats. L’inhalation a été identifiée comme une voie d’exposition présentant un risque important de toxicité. Dans le cadre de ce projet, nous avons utilisé la lignée de cellules épithéliales alvéolaires humaines, A549. Nous avons étudié chez cette lignée les conséquences de l’exposition aux points quantiques (PQs), NPs d’intérêt pour leurs applications potentielles en médecine (nanovecteur ou nanosonde). La mise au point des conditions expérimentales (interférence entre l’essai LDH et le milieu de culture) a permis de valider les essais de cytotoxicité MTS et LDH en présence des PQs. Nous avons montré que les PQs présentaient une cytotoxicité à court et long terme, et nous avons par la suite étudié un des mécanismes de toxicité potentielle, la mesure du cadmium (Cd2+) libéré des PQs. Nous avons déterminé que la mesure du Cd2+ comportait plusieurs interférences qui invalident cet essai. En conclusion, notre étude a permis d’identifier des interférences qui remettent en question plusieurs conclusions d’études publiées qui n’ont pas vérifié l’existence de telles interférences.
Resumo:
Ce mémoire porte sur les mécanismes de relaxation et de fuite des excitons dans des systèmes de boîtes quantiques(BQs) d’InAs/InP. Les systèmes sont composés d’un sub- strat volumique d’InP, appelé matrice (M), d’un puits quantique d’InAs, nommé couche de mouillage (CM), et des familles de BQs d’InAs. La distinction entre les familles est faite par le nombre de monocouche d’épaisseur des boîtes qui sont beaucoup plus larges que hautes. Une revue de littérature retrace les principaux mécanismes de relaxation et de fuite des excitons dans les systèmes. Ensuite, différents modèles portant sur la fuite thermique des excitons des BQs sont comparés. Les types de caractérisations déjà produites et les spécifications des croissances des échantillons sont présentés. L’approche adoptée pour ce mémoire a été de caractériser temporellement la dynamique des BQs avec des mesures d’absorbtion transitoire et de photoluminescence résolue en temps (PLRT) par addition de fréquences. L’expérience d’absorption transitoire n’a pas fait ressortir de résultats très probants, mais elle est expliquée en détails. Les mesures de PLRT ont permis de suivre en température le temps de vie effectif des excitons dans des familles de BQs. Ensuite, avec un modèle de bilan détaillé, qui a été bien explicité, il a été possible d’identifier le rôle de la M et de la CM dans la relaxation et la fuite des excitons dans les BQs. Les ajustements montrent plus précisément que la fuite de porteurs dans les BQs se fait sous la forme de paires d’électrons-trous corrélées.
Resumo:
Cette thèse, composée de quatre articles scientifiques, porte sur les méthodes numériques atomistiques et leur application à des systèmes semi-conducteurs nanostructurés. Nous introduisons les méthodes accélérées conçues pour traiter les événements activés, faisant un survol des développements du domaine. Suit notre premier article, qui traite en détail de la technique d'activation-relaxation cinétique (ART-cinétique), un algorithme Monte Carlo cinétique hors-réseau autodidacte basé sur la technique de l'activation-relaxation nouveau (ARTn), dont le développement ouvre la voie au traitement exact des interactions élastiques tout en permettant la simulation de matériaux sur des plages de temps pouvant atteindre la seconde. Ce développement algorithmique, combiné à des données expérimentales récentes, ouvre la voie au second article. On y explique le relâchement de chaleur par le silicium cristallin suite à son implantation ionique avec des ions de Si à 3 keV. Grâce à nos simulations par ART-cinétique et l'analyse de données obtenues par nanocalorimétrie, nous montrons que la relaxation est décrite par un nouveau modèle en deux temps: "réinitialiser et relaxer" ("Replenish-and-Relax"). Ce modèle, assez général, peut potentiellement expliquer la relaxation dans d'autres matériaux désordonnés. Par la suite, nous poussons l'analyse plus loin. Le troisième article offre une analyse poussée des mécanismes atomistiques responsables de la relaxation lors du recuit. Nous montrons que les interactions élastiques entre des défauts ponctuels et des petits complexes de défauts contrôlent la relaxation, en net contraste avec la littérature qui postule que des "poches amorphes" jouent ce rôle. Nous étudions aussi certains sous-aspects de la croissance de boîtes quantiques de Ge sur Si (001). En effet, après une courte mise en contexte et une introduction méthodologique supplémentaire, le quatrième article décrit la structure de la couche de mouillage lors du dépôt de Ge sur Si (001) à l'aide d'une implémentation QM/MM du code BigDFT-ART. Nous caractérisons la structure de la reconstruction 2xN de la surface et abaissons le seuil de la température nécessaire pour la diffusion du Ge en sous-couche prédit théoriquement par plus de 100 K.
Resumo:
La compréhension des interrelations entre la microstructure et les processus électroniques dans les polymères semi-conducteurs est d’une importance primordiale pour leur utilisation dans des hétérostructures volumiques. Dans cette thèse de doctorat, deux systémes diffèrents sont étudiés ; chacun de ces systèmes représente une approche diffèrente pour optimiser les matériaux en termes de leur microstructure et de leur capacité à se mettre en ordre au niveau moléculaire. Dans le premier système, j’ai effectué une analyse complète des principes de fonctionnement d’une cellule photovoltaïque hybride à base des nanocristaux d’oxyde de zinc (ZnO) et du poly (3-hexylthiophène) (P3HT) par absorption photoinduite en régime quasi-stationnaire (PIA) et la spectroscopie PIA en pompage modulé dépendant de la fréquence. L’interface entre le donneur (le polymère P3HT) et l’accepteur (les nanoparticules de ZnO), où la génération de charges se produit, joue un rôle important dans la performance des cellules photovoltaïques hybrides. Pour améliorer le mécanisme de génération de charges du P3H: ZnO, il est indispensable de modifier l’interface entre ses constituants. Nous avons démontré que la modification d’interface moléculaire avec cis-bis (4, 40 - dicarboxy-2, 20bipyridine) ruthénium (II) (N3-dye) et a-Sexithiophen-2 yl-phosphonique (6TP) a améliorée le photocourant et la performance dans les cellules P3HT: ZnO. Le 6TP et le N3 s’attachent à l’interface du ZnO, en augmentant ainsi l’aire effective de la surface donneur :accepteur, ce qui contribue à une séparation de charge accrue. De plus, le 6TP et le N3 réduisent la densité de pièges dans le ZnO, ce qui réduit le taux de recombinaison des paires de charges. Dans la deuxième partie, jai introduit une matrice hôte polymérique de polystyréne à masse molaire ulra-élevée, qui se comporte comme un solide pour piéger et protéger une solution de poly [2-méthoxy, 5- (2´-éthyl-hexoxy) -1,4-phénylènevinylène- PPV] (MEHPPV) pour utilisation dans des dispositifs optoèlectroniques quantiques. Des travaux antérieurs ont montré que MEH-PPV en solution subit une transition de conformation, d’une conformation enroulé à haute température (phase bleue) à une conformation de chaîne étendue à basse température (phase rouge). La conformation de la chaîne étendue de la solution MEH-PPV favorise les caractéristiques nécessaires à l’amélioration des dispositifs optoélectroniques quantiques, mais la solution ne peut pas être incorporées dans le dispositif. J’ai démontré que la caractéristique de la phase rouge du MEH-PPV en solution se maintient dans une matrice hôte polymérique de polystyrène transformé de masse molaire très élevée, qui se comporte comme un solide (gel de MEH-PPV/UHMW PS), par le biais de la spectroscopie de photoluminescence (PL) dépendant de la température (de 290K à 80 K). La phase rouge du gel MEH-PPV/UHMW PS se manifeste par des largeurs de raie étroites et une intensité augmentée de la transition 0-0 de la progression vibronique dans le spectre de PL ainsi qu’un petit décalage de Stokes entre la PL et le spectre d’absorption à basse température. Ces approches démontrent que la manipulation de la microstructure et des propriétés électroniques des polymères semi-conducteurs ont un impact direct sur la performance de dispositifs pour leurs développements technologiques continus.
Resumo:
In an economy where cash can be stored costlessly (in nominal terms), the nominal interest rate is bounded below by zero. This paper derives the implications of this nonnegativity constraint for the term structure and shows that it induces a nonlinear and convex relation between short- and long-term interest rates. As a result, the long-term rate responds asymmetrically to changes in the short-term rate, and by less than predicted by a benchmark linear model. In particular, a decrease in the short-term rate leads to a decrease in the long-term rate that is smaller in magnitude than the increase in the long-term rate associated with an increase in the short-term rate of the same size. Up to the extent that monetary policy acts by affecting long-term rates through the term structure, its power is considerably reduced at low interest rates. The empirical predictions of the model are examined using data from Japan.
Resumo:
Cette thèse comprend deux parties distinctes, dans lesquelles seront décrits tout d’abord, le développement d’un procédé multicatalytique en un seul pot d’une réaction de méthylénation suivie d’un couplage de Heck, puis dans un second temps, une étude vers la synthèse de l’Hodgsonox. Le premier thème de la thèse correspond à la mise en place d’un procédé en un seul pot, basé sur la méthodologie de méthylénation catalysée par un métal de transition, développée au sein du groupe du Pr. Lebel, et sur des couplages de Heck. Différentes études de compatibilité des réactifs mis en présence sont abordées, ainsi que le choix des conditions optimales (Pd(OAc)2 et P(o-tol)3) pour la réalisation d’un tel système qui ne requiert aucun isolement du produit intermédiaire. Il a été démontré que la présence de triphénylphosphine en excès inhibe la réaction de couplage de Heck, ce qui a finalement orienté notre choix vers les sels de cuivre pour la catalyse de la réaction de méthylénation. Le tandem séquentiel a ensuite été appliqué à la synthèse de divers stilbènes, notamment des composés dérivés du Resvératrol, molécule d’intérêt thérapeutique pour les maladies cardiovasculaires, et à la synthèse d’indanes substitués, avec un couplage intramoléculaire, avec de bons rendements. La deuxième partie de cette thèse traite de l’étude menée vers la synthèse de l’Hodgsonox. Cette molécule correspond à une nouvelle classe de sesquiterpènes tricycliques, comportant un dihydropyrane doté d’une fonction éther diallylique. Cette molécule représente un défi synthétique pour le groupe du Pr. Lebel, qui envisage de synthétiser les deux doubles liaisons terminales au moyen de la méthodologie de méthylénation développée au sein du groupe. L’Hodgsonox, dont la biosynthèse utilise la voie MEP, a un potentiel insecticide pour la croissance de la larve de la mouche verte d’Australie, Lucilia cuprina. La synthèse envisagée au cours de ces travaux est basée sur la formation préalable d’un cycle à 5 chaînons, comportant 3 centres stéréogéniques, puis sur la cyclisation du cycle pyranique au moyen d’une réaction d’insertion dans un lien O H. Un dédoublement cinétique dynamique sur une δ butyrolactone substituée permet de fixer la stéréochimie relative de deux centres chiraux dès la première étape. Le cycle à 5 chaînons est ensuite formé par métathèse après 6 étapes avec un rendement de 37%. Une addition conjuguée suivie d’une réaction de Saegusa et d’une réaction d’hydrosilylation introduit le groupement isopropyle de manière syn. Après mise en place d’un groupement céto-ester, un transfert de groupement diazonium permet de préparer le précurseur pour la réaction d’insertion dans un lien O-H. Le bicycle correspondant à la structure de base de l’Hodgsonox a été préparé au moyen de 16 étapes linéaires avec un rendement global de 12%.
Resumo:
Vers la fin du 19ème siècle, le moine et réformateur hindou Swami Vivekananda affirma que la science moderne convergeait vers l'Advaita Vedanta, un important courant philosophique et religieux de l'hindouisme. Au cours des décennies suivantes, suite aux apports scientifiques révolutionnaires de la théorie de la relativité d'Einstein et de la physique quantique, un nombre croissant d'auteurs soutenaient que d'importants "parallèles" pouvaient être tracés entre l'Advaita Vedanta et la physique moderne. Encore aujourd'hui, de tels rapprochements sont faits, particulièrement en relation avec la physique quantique. Cette thèse examine de manière critique ces rapprochements à travers l'étude comparative détaillée de deux concepts: le concept d'akasa dans l'Advaita Vedanta et celui de vide en physique quantique. L'énoncé examiné est celui selon lequel ces deux concepts pointeraient vers une même réalité: un substratum omniprésent et subtil duquel émergent et auquel retournent ultimement les divers constituants de l'univers. Sur la base de cette étude comparative, la thèse argumente que des comparaisons de nature conceptuelle favorisent rarement la mise en place d'un véritable dialogue entre l'Advaita Vedanta et la physique moderne. Une autre voie d'approche serait de prendre en considération les limites épistémologiques respectivement rencontrées par ces disciplines dans leur approche du "réel-en-soi" ou de la "réalité ultime." Une attention particulière sera portée sur l'épistémologie et le problème de la nature de la réalité dans l'Advaita Vedanta, ainsi que sur le réalisme scientifique et les implications philosophiques de la non-séparabilité en physique quantique.
Resumo:
L'approximation adiabatique en mécanique quantique stipule que si un système quantique évolue assez lentement, alors il demeurera dans le même état propre. Récemment, une faille dans l'application de l'approximation adiabatique a été découverte. Les limites du théorème seront expliquées lors de sa dérivation. Ce mémoire à pour but d'optimiser la probabilité de se maintenir dans le même état propre connaissant le système initial, final et le temps d'évolution total. Cette contrainte sur le temps empêche le système d'être assez lent pour être adiabatique. Pour solutionner ce problème, une méthode variationnelle est utilisée. Cette méthode suppose connaître l'évolution optimale et y ajoute une petite variation. Par après, nous insérons cette variation dans l'équation de la probabilité d'être adiabatique et développons en série. Puisque la série est développée autour d'un optimum, le terme d'ordre un doit nécessairement être nul. Ceci devrait nous donner un critère sur l'évolution la plus adiabatique possible et permettre de la déterminer. Les systèmes quantiques dépendants du temps sont très complexes. Ainsi, nous commencerons par les systèmes ayant des énergies propres indépendantes du temps. Puis, les systèmes sans contrainte et avec des fonctions d'onde initiale et finale libres seront étudiés.
Resumo:
Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
Le but de cette thèse est d’expliquer la délinquance prolifique de certains délinquants. Nous avançons la thèse que la délinquance prolifique s’explique par la formation plus fréquente de situations criminogènes. Ces situations réfèrent au moment où un délinquant entre en interaction avec une opportunité criminelle dans un contexte favorable au crime. Plus exactement, il s’agit du moment où le délinquant fait face à cette opportunité, mais où le crime n’a pas encore été commis. La formation de situations criminogènes est facilitée par l’interaction et l’interdépendance de trois éléments : la propension à la délinquance de la personne, son entourage criminalisé et son style de vie. Ainsi, la délinquance prolifique ne pourrait être expliquée adéquatement sans tenir compte de l’interaction entre le risque individuel et le risque contextuel. L’objectif général de la présente thèse est de faire la démonstration de l’importance d’une modélisation interactionnelle entre le risque individuel et le risque contextuel afin d’expliquer la délinquance plus prolifique de certains contrevenants. Pour ce faire, 155 contrevenants placés sous la responsabilité de deux établissements des Services correctionnels du Québec et de quatre centres jeunesse du Québec ont complété un protocole d’évaluation par questionnaires auto-administrés. Dans un premier temps (chapitre trois), nous avons décrit et comparé la nature de la délinquance autorévélée des contrevenants de notre échantillon. Ce premier chapitre de résultats a permis de mettre en valeur le fait que ce bassin de contrevenants est similaire à d’autres échantillons de délinquants en ce qui a trait à la nature de leur délinquance, plus particulièrement, au volume, à la variété et à la gravité de leurs crimes. En effet, la majorité des participants rapportent un volume faible de crimes contre la personne et contre les biens alors qu’un petit groupe se démarque par un lambda très élevé (13,1 % des délinquants de l’échantillon sont responsables de 60,3% de tous les crimes rapportés). Environ quatre délinquants sur cinq rapportent avoir commis au moins un crime contre la personne et un crime contre les biens. De plus, plus de 50% de ces derniers rapportent dans au moins quatre sous-catégories. Finalement, bien que les délinquants de notre échantillon aient un IGC (indice de gravité de la criminalité) moyen relativement faible (médiane = 77), près de 40% des contrevenants rapportent avoir commis au moins un des deux crimes les plus graves recensés dans cette étude (décharger une arme et vol qualifié). Le second objectif spécifique était d’explorer, au chapitre quatre, l’interaction entre les caractéristiques personnelles, l’entourage et le style de vie des délinquants dans la formation de situations criminogènes. Les personnes ayant une propension à la délinquance plus élevée semblent avoir tendance à être davantage entourées de personnes criminalisées et à avoir un style de vie plus oisif. L’entourage criminalisé semble également influencer le style de vie de ces délinquants. Ainsi, l’interdépendance entre ces trois éléments facilite la formation plus fréquente de situations criminogènes et crée une conjoncture propice à l’émergence de la délinquance prolifique. Le dernier objectif spécifique de la thèse, qui a été couvert dans le chapitre cinq, était d’analyser l’impact de la formation de situations criminogènes sur la nature de la délinquance. Les analyses de régression linéaires multiples et les arbres de régression ont permis de souligner la contribution des caractéristiques personnelles, de l’entourage et du style de vie dans l’explication de la nature de la délinquance. D’un côté, les analyses de régression (modèles additifs) suggèrent que l’ensemble des éléments favorisant la formation de situations criminogènes apporte une contribution unique à l’explication de la délinquance. D’un autre côté, les arbres de régression nous ont permis de mieux comprendre l’interaction entre les éléments dans l’explication de la délinquance prolifique. En effet, un positionnement plus faible sur certains éléments peut être compensé par un positionnement plus élevé sur d’autres. De plus, l’accumulation d’éléments favorisant la formation de situations criminogènes ne se fait pas de façon linéaire. Ces conclusions sont appuyées sur des proportions de variance expliquée plus élevées que celles des régressions linéaires multiples. En conclusion, mettre l’accent que sur un seul élément (la personne et sa propension à la délinquance ou le contexte et ses opportunités) ou leur combinaison de façon simplement additive ne permet pas de rendre justice à la complexité de l’émergence de la délinquance prolifique. En mettant à l’épreuve empiriquement cette idée généralement admise, cette thèse permet donc de souligner l’importance de considérer l’interaction entre le risque individuel et le risque contextuel dans l’explication de la délinquance prolifique.
Resumo:
L'objectif du présent mémoire vise à présenter des modèles de séries chronologiques multivariés impliquant des vecteurs aléatoires dont chaque composante est non-négative. Nous considérons les modèles vMEM (modèles vectoriels et multiplicatifs avec erreurs non-négatives) présentés par Cipollini, Engle et Gallo (2006) et Cipollini et Gallo (2010). Ces modèles représentent une généralisation au cas multivarié des modèles MEM introduits par Engle (2002). Ces modèles trouvent notamment des applications avec les séries chronologiques financières. Les modèles vMEM permettent de modéliser des séries chronologiques impliquant des volumes d'actif, des durées, des variances conditionnelles, pour ne citer que ces applications. Il est également possible de faire une modélisation conjointe et d'étudier les dynamiques présentes entre les séries chronologiques formant le système étudié. Afin de modéliser des séries chronologiques multivariées à composantes non-négatives, plusieurs spécifications du terme d'erreur vectoriel ont été proposées dans la littérature. Une première approche consiste à considérer l'utilisation de vecteurs aléatoires dont la distribution du terme d'erreur est telle que chaque composante est non-négative. Cependant, trouver une distribution multivariée suffisamment souple définie sur le support positif est plutôt difficile, au moins avec les applications citées précédemment. Comme indiqué par Cipollini, Engle et Gallo (2006), un candidat possible est une distribution gamma multivariée, qui impose cependant des restrictions sévères sur les corrélations contemporaines entre les variables. Compte tenu que les possibilités sont limitées, une approche possible est d'utiliser la théorie des copules. Ainsi, selon cette approche, des distributions marginales (ou marges) peuvent être spécifiées, dont les distributions en cause ont des supports non-négatifs, et une fonction de copule permet de tenir compte de la dépendance entre les composantes. Une technique d'estimation possible est la méthode du maximum de vraisemblance. Une approche alternative est la méthode des moments généralisés (GMM). Cette dernière méthode présente l'avantage d'être semi-paramétrique dans le sens que contrairement à l'approche imposant une loi multivariée, il n'est pas nécessaire de spécifier une distribution multivariée pour le terme d'erreur. De manière générale, l'estimation des modèles vMEM est compliquée. Les algorithmes existants doivent tenir compte du grand nombre de paramètres et de la nature élaborée de la fonction de vraisemblance. Dans le cas de l'estimation par la méthode GMM, le système à résoudre nécessite également l'utilisation de solveurs pour systèmes non-linéaires. Dans ce mémoire, beaucoup d'énergies ont été consacrées à l'élaboration de code informatique (dans le langage R) pour estimer les différents paramètres du modèle. Dans le premier chapitre, nous définissons les processus stationnaires, les processus autorégressifs, les processus autorégressifs conditionnellement hétéroscédastiques (ARCH) et les processus ARCH généralisés (GARCH). Nous présentons aussi les modèles de durées ACD et les modèles MEM. Dans le deuxième chapitre, nous présentons la théorie des copules nécessaire pour notre travail, dans le cadre des modèles vectoriels et multiplicatifs avec erreurs non-négatives vMEM. Nous discutons également des méthodes possibles d'estimation. Dans le troisième chapitre, nous discutons les résultats des simulations pour plusieurs méthodes d'estimation. Dans le dernier chapitre, des applications sur des séries financières sont présentées. Le code R est fourni dans une annexe. Une conclusion complète ce mémoire.
Resumo:
Réalisé en cotutelle avec l'Université Paris-Diderot.