994 resultados para Propriétés fréquentielles


Relevância:

10.00% 10.00%

Publicador:

Resumo:

La révision du code est un procédé essentiel quelque soit la maturité d'un projet; elle cherche à évaluer la contribution apportée par le code soumis par les développeurs. En principe, la révision du code améliore la qualité des changements de code (patches) avant qu'ils ne soient validés dans le repertoire maître du projet. En pratique, l'exécution de ce procédé n'exclu pas la possibilité que certains bugs passent inaperçus. Dans ce document, nous présentons une étude empirique enquétant la révision du code d'un grand projet open source. Nous investissons les relations entre les inspections des reviewers et les facteurs, sur les plans personnel et temporel, qui pourraient affecter la qualité de telles inspections.Premiérement, nous relatons une étude quantitative dans laquelle nous utilisons l'algorithme SSZ pour détecter les modifications et les changements de code favorisant la création de bogues (bug-inducing changes) que nous avons lié avec l'information contenue dans les révisions de code (code review information) extraites du systéme de traçage des erreurs (issue tracking system). Nous avons découvert que les raisons pour lesquelles les réviseurs manquent certains bogues était corrélées autant à leurs caractéristiques personnelles qu'aux propriétés techniques des corrections en cours de revue. Ensuite, nous relatons une étude qualitative invitant les développeurs de chez Mozilla à nous donner leur opinion concernant les attributs favorables à la bonne formulation d'une révision de code. Les résultats de notre sondage suggèrent que les développeurs considèrent les aspects techniques (taille de la correction, nombre de chunks et de modules) autant que les caractéristiques personnelles (l'expérience et review queue) comme des facteurs influant fortement la qualité des revues de code.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La réaction de macrocyclisation est une transformation fondamentale en chimie organique de synthèse. Le principal défi associcé à la formation de macrocycles est la compétition inhérente avec la réaction d’oligomérisation qui mène à la formation de sousproduits indésirables. De plus, l’utilisation de conditions de dilutions élevées qui sont nécessaires afin d’obtenir une cyclisation “sélective”, sont souvent décourageantes pour les applications à l’échelle industrielle. Malgré cet intérêt pour les macrocycles, la recherche visant à développer des stratégies environnementalement bénignes, qui permettent d’utiliser des concentrations normales pour leur synthèse, sont encore rares. Cette thèse décrit le développement d’une nouvelle approche générale visant à améliorer l’efficacité des réactions de macrocyclisation en utilisant le contrôle des effets de dilution. Une stratégie de “séparation de phase” qui permet de réaliser des réactions à des concentrations plus élevées a été developpée. Elle se base sur un mélange de solvant aggrégé contrôlé par les propriétés du poly(éthylène glycol) (PEG). Des études de tension de surface, spectroscopie UV et tagging chimique ont été réalisées afin d’élucider le mécanisme de “séparation de phase”. Il est proposé que celui-ci fonctionne par diffusion lente du substrat organique vers la phase ou le catalyseur est actif. La nature du polymère co-solvant joue donc un rôle crutial dans le contrôle de l’aggrégation et de la catalyse La stratégie de “séparation de phase” a initiallement été étudiée en utilisant le couplage oxidatif d’alcynes de type Glaser-Hay co-catalysé par un complexe de cuivre et de nickel puis a été transposée à la chimie en flux continu. Elle fut ensuite appliquée à la cycloaddition d’alcynes et d’azotures catalysée par un complexe de cuivre en “batch” ainsi qu’en flux continu.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La construction modulaire est une stratégie émergente qui permet la fabrication de matériaux ordonnés à l’échelle atomique. Elle consiste en l’association programmée de sous-unités moléculaires via des sites réactifs judicieusement sélectionnés. L’application de cette stratégie a d’ores et déjà produit des matériaux aux propriétés remarquables, notamment les réseaux organiques covalents, dans lesquels des atomes de carbone et d’autres éléments légers sont liés de manière covalente. Bien que des matériaux assemblés par des interactions non-covalentes puissent être préparés sous la forme de monocristaux macroscopiques de cette façon, ceci n’était pas possible dans le cas des réseaux organiques covalents. Afin de pallier cette lacune, nous avons choisi d’étudier des réactions de polymérisation réversibles ayant lieu par un mécanisme d’addition. En effet, l’hypothèse de départ de cette thèse suppose qu’un tel processus émule le phénomène de cristallisation classique – régi par des interactions non-covalentes – et favorise la formation de monocristaux de dimensions importantes. Pour tester la validité de cette hypothèse, nous avons choisi d’étudier la polymérisation des composés polynitroso aromatiques puisque la dimérisation des nitrosoarènes est réversible et procède par addition. Dans un premier temps, nous avons revu en profondeur la littérature portant sur la dimérisation des nitrosoarènes. À partir des données alors recueillies, nous avons conçu, dans un deuxième temps, une série de composés polynitroso ayant le potentiel de former des réseaux organiques covalents bi- et tridimensionnels. Les paramètres thermodynamiques propres à leur polymérisation ont pu être estimés grâce à l’étude de composés mononitroso modèles. Dans un troisième temps, nous avons synthétisé les divers composés polynitroso visés par notre étude. Pour y parvenir, nous avons eu à développer une nouvelle méthodologie de synthèse des poly(N-arylhydroxylamines) – les précurseurs directs aux composés polynitroso. Dans un quatrième temps, nous avons étudié la polymérisation des composés polynitroso. En dépit de difficultés d’ordre pratique causées par la polymérisation spontanée de ces composés, nous avons pu identifier les conditions propices à leur polymérisation en réseaux organiques covalents hautement cristallins. Plusieurs nouveaux réseaux covalents tridimensionnels ont ainsi été produits sous la forme de monocristaux de dimensions variant entre 30 µm et 500 µm, confirmant la validité de notre hypothèse de départ. Il a par conséquent été possible de résoudre la structure de ces cristaux par diffraction de rayons X sur monocristal, ce qui n’avait jamais été possible dans le passé pour ce genre de matériau. Ces cristaux sont remarquablement uniformes et les polymères qui les composent ont des masses moléculaires extrêmement élevées (1014-1017 g/mol). Toutefois, la polymérisation de la majorité des composés polynitroso étudiés a plutôt conduit à des solides amorphes ou à des solides cristallins constitués de la forme monomérique de ces composés. D’autres composés nitroso modèles ont alors été préparés afin d’expliquer ce comportement, et des hypothèses ont été émises à partir des données alors recueillies. Enfin, les structures de plusieurs composés polynitroso ayant cristallisés sous une forme monomérique ont été analysés en détails par diffraction des rayons X. Notre stratégie, qui consiste en l’utilisation de monomères ayant la capacité de polymériser spontanément par un processus d’addition réversible, semble donc prometteuse pour obtenir de nouveaux réseaux covalents monocristallins à partir de composés polynitroso ou d’autres monomères de nature similaire. De plus, les résultats présentés au cours de cette thèse établissent un lien entre la science des polymères et la chimie supramoléculaire, en illustrant comment des structures ordonnées, covalentes ou non covalentes, peuvent toutes deux être construites de façon prévisible.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le cancer du pancréas est l’un des plus chimiorésistants, avec un taux de survie sur 5 ans inférieur à 5%. La chimiorésistance pourrait être due à la présence de cellules initiatrices de tumeur (TICs), une petite sous-population des cellules tumorales possédant la capacité de régénérer une nouvelle tumeur. Il a été démontré que la metformine cible les TICs par un mécanisme non élucidé. Il est connu que la metformine affecte le métabolisme du carbone. Il a également été démontré que le métabolisme du carbone, plus précisément la glycine décarboxylase (GLDC), est à la fois nécessaire et suffisant à l’acquisition de propriétés d’initiation tumorale. Nous proposons que la metformine cible les cellules initiatrices de tumeur en affectant le métabolisme du carbone. Nous avons utilisé des lignées cellulaires dérivées d’un modèle murin de cancer du pancréas pour comparer l’expression génique de lésions bénignes versus malignes. Les cellules malignes surexpriment Gldc. La metformine diminue l’expression de Gldc, et la surexpression de Gldc diminue la sensibilité à la metformine dans un essai de sphères tumorales. La metformine induit une augmentation du ratio NADP+/NADPH, et la surexpression de Gldc empêche cette augmentation. Nous proposons que la metformine diminue l’expression de Gldc, ce qui cause une diminution du flux du métabolisme du carbone, et donc une diminution de la production de NADPH par ce dernier. L’augmentation du ratio NADP+/NADPH inhibe la synthèse des acides gras et la régénération de la glutathione, ce qui pourrait expliquer la diminution de la formation de sphères tumorales sous traitement metformine.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La théorie de l'information quantique s'est développée à une vitesse fulgurante au cours des vingt dernières années, avec des analogues et extensions des théorèmes de codage de source et de codage sur canal bruité pour la communication unidirectionnelle. Pour la communication interactive, un analogue quantique de la complexité de la communication a été développé, pour lequel les protocoles quantiques peuvent performer exponentiellement mieux que les meilleurs protocoles classiques pour certaines tâches classiques. Cependant, l'information quantique est beaucoup plus sensible au bruit que l'information classique. Il est donc impératif d'utiliser les ressources quantiques à leur plein potentiel. Dans cette thèse, nous étudions les protocoles quantiques interactifs du point de vue de la théorie de l'information et étudions les analogues du codage de source et du codage sur canal bruité. Le cadre considéré est celui de la complexité de la communication: Alice et Bob veulent faire un calcul quantique biparti tout en minimisant la quantité de communication échangée, sans égard au coût des calculs locaux. Nos résultats sont séparés en trois chapitres distincts, qui sont organisés de sorte à ce que chacun puisse être lu indépendamment. Étant donné le rôle central qu'elle occupe dans le contexte de la compression interactive, un chapitre est dédié à l'étude de la tâche de la redistribution d'état quantique. Nous prouvons des bornes inférieures sur les coûts de communication nécessaires dans un contexte interactif. Nous prouvons également des bornes atteignables avec un seul message, dans un contexte d'usage unique. Dans un chapitre subséquent, nous définissons une nouvelle notion de complexité de l'information quantique. Celle-ci caractérise la quantité d'information, plutôt que de communication, qu'Alice et Bob doivent échanger pour calculer une tâche bipartie. Nous prouvons beaucoup de propriétés structurelles pour cette quantité, et nous lui donnons une interprétation opérationnelle en tant que complexité de la communication quantique amortie. Dans le cas particulier d'entrées classiques, nous donnons une autre caractérisation permettant de quantifier le coût encouru par un protocole quantique qui oublie de l'information classique. Deux applications sont présentées: le premier résultat général de somme directe pour la complexité de la communication quantique à plus d'une ronde, ainsi qu'une borne optimale, à un terme polylogarithmique près, pour la complexité de la communication quantique avec un nombre de rondes limité pour la fonction « ensembles disjoints ». Dans un chapitre final, nous initions l'étude de la capacité interactive quantique pour les canaux bruités. Étant donné que les techniques pour distribuer de l'intrication sont bien étudiées, nous nous concentrons sur un modèle avec intrication préalable parfaite et communication classique bruitée. Nous démontrons que dans le cadre plus ardu des erreurs adversarielles, nous pouvons tolérer un taux d'erreur maximal de une demie moins epsilon, avec epsilon plus grand que zéro arbitrairement petit, et ce avec un taux de communication positif. Il s'ensuit que les canaux avec bruit aléatoire ayant une capacité positive pour la transmission unidirectionnelle ont une capacité positive pour la communication interactive quantique. Nous concluons avec une discussion de nos résultats et des directions futures pour ce programme de recherche sur une théorie de l'information quantique interactive.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les azasulfurylpeptides sont des mimes peptidiques auxquels le carbone en position alpha et le carbonyle d’un acide aminé sont respectivement remplacés par un atome d’azote et un groupement sulfonyle (SO2). Le but premier de ce projet a été de développer une nouvelle méthode de synthèse de ces motifs, également appelés N-aminosulfamides. À cette fin, l’utilisation de sulfamidates de 4-nitrophénol s’est avérée importante dans la synthèse des azasulfuryltripeptides, permettant le couplage d’hydrazides avec l’aide d’irradiation aux micro-ondes (Chapitre 2). Par la suite, en quantité stoechiométrique d’une base et d’un halogénure d’alkyle, les azasulfurylglycines (AsG) formés peuvent être chimiosélectivement alkylés afin d’y insérer diverses chaînes latérales. Les propriétés conformationnelles des N-aminosulfamides à l’état solide ont été élucidées grâce à des études cristallographiques par rayons X : elles possèdent une structure tétraédrique autour de l’atome de soufre, des traits caractéristiques des azapeptides et des sulfonamides, ainsi que du potentiel à favoriser la formation de tours gamma (Chapitre 3). Après le développement d’une méthode de synthèse des N-aminosulfamides en solution, une approche combinatoire sur support solide a également été élaborée sur la résine amide de Rink afin de faciliter la génération d’une librairie d’azasulfurylpeptides. Cette étude a été réalisée en employant le growth hormone releasing peptide 6 (GHRP-6, His-D-Trp-Ala-Trp-D-Phe-Lys-NH2). Ce dernier est un hexapeptide possédant une affinité pour deux récepteurs, le growth hormone secretagogue receptor 1a (GHS-R1a) et le récepteur cluster of differenciation 36 (CD36). Une affinité sélective envers le récepteur CD36 confère des propriétés thérapeutiques dans le traitement de la dégénérescence maculaire liée à l’âge (DMLA). Six analogues d’azasulfurylpeptides de GHRP-6 utilisés comme ligands du CD36 ont été synthétisés sur support solide, mettant en évidence le remplacement du tryptophane à la position 4 de GHRP-6 (Chapitre 4). Les analogues de GHRP-6 ont été ensuite analysés pour leur capacité à moduler les effets de la fonction et de la cascade de signalisation des ligands spécifiques au Toll-like receptor 2 (TLR2), en collaboration avec le Professeur Huy Ong du département de Pharmacologie à la Faculté de Pharmacie de l’Université de Montréal. Le complexe TLR2-TLR6 est reconnu pour être co-exprimé et modulé par CD36. En se liant au CD36, certains ligands de GHRP-6 ont eu un effet sur la signalisation du TLR2. Par exemple, les azasulfurylpeptides [AsF(4-F)4]- et [AsF(4-MeO)4]-GHRP-6 ont démontré une capacité à empêcher la surproduction du monoxyde d’azote (NO), un sous-produit réactif formé suite à l’induction d’un signal dans les macrophages par des ligands spécifiques liés au TLR2, tel le fibroblast-stimulating lipopeptide 1 (R-FSL-1) et l’acide lipotéichoïque (LTA). En addition, la sécrétion du tumor necrosis factor alpha (TNFa) et du monocyte chemoattractant protein 1 (MCP-1), ainsi que l’activation du nuclear factor kappa-light-chain-enhancer of activated B cells (NF-kB), ont été réduites. Ces résultats démontrent le potentiel de ces azasulfurylpeptides à pouvoir réguler le rôle du TLR2 qui déclenche des réponses inflammatoires et immunitaires innées (Perspectives). Finalement, le potentiel des azasulfurylpeptides d’inhiber des métallo-bêta-lactamases, tels le New-Delhi Metallo-bêta-lactamase 1 (NDM-1), IMP-1 et le Verona Integron-encoded Metallo-bêta-lactamase 2 (VIM-2), a été étudié en collaboration avec le Professeur James Spencer de l’Université de Bristol (Royaumes-Unis). Certains analogues ont été des inhibiteurs micromolaires du IMP-1 (Perspectives). Ces nouvelles voies de synthèse des azasulfurylpeptides en solution et sur support solide devraient donc permettre leur utilisation dans des études de relations structure-activité avec différents peptides biologiquement actifs. En plus d'expandre l'application des azasulfurylpeptides comme inhibiteurs d'enzymes, cette thèse a révélé le potentiel de ces N-aminosulfamides à mimer les structures secondaires peptidiques, tels que les tours gamma. À cet égard, l’application des azasulfurylpeptides a été démontrée par la synthèse de ligands du CD36 présentant des effets modulateurs sur le TLR2. Compte tenu de leur synthèse efficace et de leur potentiel en tant qu’inhibiteurs, les azasulfurylpeptides devraient trouver une large utilisation dans les sciences de peptides pour des applications dans la médecine et de la chimie biologique.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les nanotechnologies appliquées aux sciences pharmaceutiques ont pour but d’améliorer l’administration de molécules actives par l’intermédiaire de transporteurs nanométriques. Parmi les différents types de véhicules proposés pour atteindre ce but, on retrouve les nanoparticules polymériques (NP) constituées de copolymères “en bloc”. Ces copolymères permettent à la fois l’encapsulation de molécules actives et confèrent à la particule certaines propriétés de surface (dont l’hydrophilicité) nécessaires à ses interactions avec les milieux biologiques. L’architecture retenue pour ces copolymères est une structure constituée le plus fréquemment de blocs hydrophiles de poly(éthylène glycol) (PEG) associés de façon linéaire à des blocs hydrophobes de type polyesters. Le PEG est le polymère de choix pour conférer une couronne hydrophile aux NPs et son l’efficacité est directement liée à son organisation et sa densité de surface. Néanmoins, malgré les succès limités en clinique de ces copolymères linéaires, peu de travaux se sont attardés à explorer les effets sur la structure des NPs d’architectures alternatives, tels que les copolymères en peigne ou en brosse. Durant ce travail, plusieurs stratégies ont été mises au point pour la synthèse de copolymères en peigne, possédant un squelette polymérique polyesters-co-éther et des chaines de PEG liées sur les groupes pendants disponibles (groupement hydroxyle ou alcyne). Dans la première partie de ce travail, des réactions d’estérification par acylation et de couplage sur des groupes pendants alcool ont permis le greffage de chaîne de PEG. Cette méthode génère des copolymères en peigne (PEG-g-PLA) possédant de 5 à 50% en poids de PEG, en faisant varier le nombre de chaînes branchées sur un squelette de poly(lactique) (PLA). Les propriétés structurales des NPs produites ont été étudiées par DLS, mesure de charge et MET. Une transition critique se situant autour de 15% de PEG (poids/poids) est observée avec un changement de morphologie, d’une particule solide à une particule molle (“nanoagrégat polymére”). La méthode de greffage ainsi que l’addition probable de chaine de PEG en bout de chaîne principale semblent également avoir un rôle dans les changements observés. L’organisation des chaînes de PEG-g-PLA à la surface a été étudiée par RMN et XPS, méthodes permettant de quantifier la densité de surface en chaînes de PEG. Ainsi deux propriétés clés que sont la résistance à l’agrégation en conditions saline ainsi que la résistance à la liaison aux protéines (étudiée par isothermes d’adsorption et microcalorimétrie) ont été reliées à la densité de surface de PEG et à l’architecture des polymères. Dans une seconde partie de ce travail, le greffage des chaînes de PEG a été réalisé de façon directe par cyclo-adition catalysée par le cuivre de mPEG-N3 sur les groupes pendants alcyne. Cette nouvelle stratégie a été pensée dans le but de comprendre la contribution possible des chaines de PEG greffées à l’extrémité de la chaine de PLA. Cette librairie de PEG-g-PLA, en plus d’être composée de PEG-g-PLA avec différentes densités de greffage, comporte des PEG-g-PLA avec des PEG de différent poids moléculaire (750, 2000 et 5000). Les chaines de PEG sont seulement greffées sur les groupes pendants. Les NPs ont été produites par différentes méthodes de nanoprécipitation, incluant la nanoprécipitation « flash » et une méthode en microfluidique. Plusieurs variables de formulation telles que la concentration du polymère et la vitesse de mélange ont été étudiées afin d’observer leur effet sur les caractéristiques structurales et de surface des NPs. Les tailles et les potentiels de charges sont peu affectés par le contenu en PEG (% poids/poids) et la longueur des chaînes de PEG. Les images de MET montrent des objets sphériques solides et l'on n’observe pas d’objets de type agrégat polymériques, malgré des contenus en PEG comparable à la première bibliothèque de polymère. Une explication possible est l’absence sur ces copolymères en peigne de chaine de PEG greffée en bout de la chaîne principale. Comme attendu, les tailles diminuent avec la concentration du polymère dans la phase organique et avec la diminution du temps de mélange des deux phases, pour les différentes méthodes de préparation. Finalement, la densité de surface des chaînes de PEG a été quantifiée par RMN du proton et XPS et ne dépendent pas de la méthode de préparation. Dans la troisième partie de ce travail, nous avons étudié le rôle de l’architecture du polymère sur les propriétés d’encapsulation et de libération de la curcumine. La curcumine a été choisie comme modèle dans le but de développer une plateforme de livraison de molécules actives pour traiter les maladies du système nerveux central impliquant le stress oxydatif. Les NPs chargées en curcumine, montrent la même transition de taille et de morphologie lorsque le contenu en PEG dépasse 15% (poids/poids). Le taux de chargement en molécule active, l’efficacité de changement et les cinétiques de libérations ainsi que les coefficients de diffusion de la curcumine montrent une dépendance à l’architecture des polymères. Les NPs ne présentent pas de toxicité et n’induisent pas de stress oxydatif lorsque testés in vitro sur une lignée cellulaire neuronale. En revanche, les NPs chargées en curcumine préviennent le stress oxydatif induit dans ces cellules neuronales. La magnitude de cet effet est reliée à l’architecture du polymère et à l’organisation de la NP. En résumé, ce travail a permis de mettre en évidence quelques propriétés intéressantes des copolymères en peigne et la relation intime entre l’architecture des polymères et les propriétés physico-chimiques des NPs. De plus les résultats obtenus permettent de proposer de nouvelles approches pour le design des nanotransporteurs polymériques de molécules actives.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La modélisation géométrique est importante autant en infographie qu'en ingénierie. Notre capacité à représenter l'information géométrique fixe les limites et la facilité avec laquelle on manipule les objets 3D. Une de ces représentations géométriques est le maillage volumique, formé de polyèdres assemblés de sorte à approcher une forme désirée. Certaines applications, tels que le placage de textures et le remaillage, ont avantage à déformer le maillage vers un domaine plus régulier pour faciliter le traitement. On dit qu'une déformation est \emph{quasi-conforme} si elle borne la distorsion. Cette thèse porte sur l’étude et le développement d'algorithmes de déformation quasi-conforme de maillages volumiques. Nous étudions ces types de déformations parce qu’elles offrent de bonnes propriétés de préservation de l’aspect local d’un solide et qu’elles ont été peu étudiées dans le contexte de l’informatique graphique, contrairement à leurs pendants 2D. Cette recherche tente de généraliser aux volumes des concepts bien maitrisés pour la déformation de surfaces. Premièrement, nous présentons une approche linéaire de la quasi-conformité. Nous développons une méthode déformant l’objet vers son domaine paramétrique par une méthode des moindres carrés linéaires. Cette méthode est simple d'implémentation et rapide d'exécution, mais n'est qu'une approximation de la quasi-conformité car elle ne borne pas la distorsion. Deuxièmement, nous remédions à ce problème par une approche non linéaire basée sur les positions des sommets. Nous développons une technique déformant le domaine paramétrique vers le solide par une méthode des moindres carrés non linéaires. La non-linéarité permet l’inclusion de contraintes garantissant l’injectivité de la déformation. De plus, la déformation du domaine paramétrique au lieu de l’objet lui-même permet l’utilisation de domaines plus généraux. Troisièmement, nous présentons une approche non linéaire basée sur les angles dièdres. Cette méthode définit la déformation du solide par les angles dièdres au lieu des positions des sommets du maillage. Ce changement de variables permet une expression naturelle des bornes de distorsion de la déformation. Nous présentons quelques applications de cette nouvelle approche dont la paramétrisation, l'interpolation, l'optimisation et la compression de maillages tétraédriques.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le but de cette thèse était d’étudier la dynamique de croissance par pulvérisation par plasma RF magnétron des couches minces à base d’oxyde de zinc destinées à des applications électroniques, optoélectroniques et photoniques de pointe. Dans ce contexte, nous avons mis au point plusieurs diagnostics permettant de caractériser les espèces neutres et chargées dans ce type de plasmas, notamment la sonde électrostatique, la spectroscopie optique d’émission et d’absorption, ainsi que la spectrométrie de masse. Par la suite, nous avons tenté de corréler certaines caractéristiques physiques de croissance des couches de ZnO, en particulier la vitesse de dépôt, aux propriétés fondamentales du plasma. Nos résultats ont montré que l’éjection d’atomes de Zn, In et O au cours de la pulvérisation RF magnétron de cibles de Zn, ZnO et In2O3 n’influence que très peu la densité d’ions positifs (et donc la densité d’électrons en supposant la quasi-neutralité) ainsi que la fonction de distribution en énergie des électrons (populations de basse et haute énergie). Cependant, le rapport entre la densité d’atomes d’argon métastables (3P2) sur la densité électronique décroît lorsque la densité d’atomes de Zn augmente, un effet pouvant être attribué à l’ionisation des atomes de Zn par effet Penning. De plus, dans les conditions opératoires étudiées (plasmas de basse pression, < 100 mTorr), la thermalisation des atomes pulvérisés par collisions avec les atomes en phase gazeuse demeure incomplète. Nous avons montré que l’une des conséquences de ce résultat est la présence d’ions Zn+ suprathermiques près du substrat. Finalement, nous avons corrélé la quantité d’atomes de Zn pulvérisés déterminée par spectroscopie d’émission avec la vitesse de dépôt d’une couche mince de ZnO mesurée par ellipsométrie spectroscopique. Ces travaux ont permis de mettre en évidence que ce sont majoritairement les atomes de Zn (et non les espèces excitées et/ou ioniques) qui gouvernent la dynamique de croissance par pulvérisation RF magnétron des couches minces de ZnO.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’époque où il n'existait qu'un choix restreint de modes de paiement est à présent révolue. En effet, de l'apparition de la monnaie fiduciaire aux trente glorieuses, ils n’avaient que très peu évolué. Or, depuis quelques décennies, nous assistons à l’apparition de nombreux moyens de paiement, tous plus différents les uns des autres. Notre présente étude a non seulement pour objectif d’en confronter les principaux en vue d’identifier le plus adéquat face à une situation donnée, mais aussi et surtout de discuter de l’anonymat que ces derniers procurent ou non. Pour ce faire, nous avons d’abord présenté chacun de ces moyens tout en en définissant les fonctionnements et les technologies. Par la suite, une comparaison par l'entremise d'une analyse indépendante a été réalisée sur la base d’éléments précis tels que la protection de la vie privée ou encore les propriétés ACID. Des critères omme la confiance des utilisateurs (sécurité) et les attentes qu'ont les institutions financières vis-à-vis de ces derniers ont aussi été considérés. Et enfin, trois méthodes de paiement qui sont en réalité des approches-solutions pour pallier aux problèmes liés à l’anonymat que présentent certains principaux moyens de paiement connus, ont été présentées à leur tour. Ainsi, le premier système de paiement proposé est axé sur les comptes bancaires anonymes, tandis que le second est, lui inspiré du système des jetons; Si bien qu’une combinaison de ces deux approches a conduit à une troisième, afin d’en regrouper les avantages.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans ce mémoire, nous examinons certaines propriétés des représentations distribuées de mots et nous proposons une technique pour élargir le vocabulaire des systèmes de traduction automatique neurale. En premier lieu, nous considérons un problème de résolution d'analogies bien connu et examinons l'effet de poids adaptés à la position, le choix de la fonction de combinaison et l'impact de l'apprentissage supervisé. Nous enchaînons en montrant que des représentations distribuées simples basées sur la traduction peuvent atteindre ou dépasser l'état de l'art sur le test de détection de synonymes TOEFL et sur le récent étalon-or SimLex-999. Finalament, motivé par d'impressionnants résultats obtenus avec des représentations distribuées issues de systèmes de traduction neurale à petit vocabulaire (30 000 mots), nous présentons une approche compatible à l'utilisation de cartes graphiques pour augmenter la taille du vocabulaire par plus d'un ordre de magnitude. Bien qu'originalement développée seulement pour obtenir les représentations distribuées, nous montrons que cette technique fonctionne plutôt bien sur des tâches de traduction, en particulier de l'anglais vers le français (WMT'14).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les cyanobactéries ont une place très importante dans les écosystèmes aquatiques et un nombre important d’espèces considéré comme nuisible de par leur production de métabolites toxiques. Ces cyanotoxines possèdent des propriétés très variées et ont souvent été associées à des épisodes d’empoisonnement. L’augmentation des épisodes d’efflorescence d’origine cyanobactériennes et le potentiel qu’ils augmentent avec les changements climatiques a renchéri l’intérêt de l’étude des cyanobactéries et de leurs toxines. Considérant la complexité chimique des cyanotoxines, le développement de méthodes de détection simples, sensibles et rapides est toujours considéré comme étant un défi analytique. Considérant ces défis, le développement de nouvelles approches analytiques pour la détection de cyanotoxines dans l’eau et les poissons ayant été contaminés par des efflorescences cyanobactériennes nuisibles a été proposé. Une première approche consiste en l’utilisation d’une extraction sur phase solide en ligne couplée à une chromatographie liquide et à une détection en spectrométrie de masse en tandem (SPE-LC-MS/MS) permettant l’analyse de six analogues de microcystines (MC), de l’anatoxine (ANA-a) et de la cylindrospermopsine (CYN). La méthode permet une analyse simple et rapide et ainsi que la séparation chromatographique d’ANA-a et de son interférence isobare, la phénylalanine. Les limites de détection obtenues se trouvaient entre 0,01 et 0,02 μg L-1 et des concentrations retrouvées dans des eaux de lacs du Québec se trouvaient entre 0,024 et 36 μg L-1. Une deuxième méthode a permis l’analyse du b-N-méthylamino-L-alanine (BMAA), d’ANA-a, de CYN et de la saxitoxine (STX) dans les eaux de lac contaminés. L’analyse de deux isomères de conformation du BMAA a été effectuée afin d’améliorer la sélectivité de la détection. L’utilisation d’une SPE manuelle permet la purification et préconcentration des échantillons et une dérivatisation à base de chlorure de dansyle permet une chromatographie simplifiée. L’analyse effectuée par LC couplée à la spectrométrie de masse à haute résolution (HRMS) et des limites de détections ont été obtenues entre 0,007 et 0,01 µg L-1. Des échantillons réels ont été analysés avec des concentrations entre 0,01 et 0,3 µg L-1 permettant ainsi la confirmation de la présence du BMAA dans les efflorescences de cyanobactéries au Québec. Un deuxième volet du projet consiste en l’utilisation d’une technologie d’introduction d’échantillon permettant des analyses ultra-rapides (< 15 secondes/échantillons) sans étape chromatographique, la désorption thermique à diode laser (LDTD) couplée à l’ionisation chimique à pression atmosphérique (APCI) et à la spectrométrie de masse (MS). Un premier projet consiste en l’analyse des MC totales par l’intermédiaire d’une oxydation de Lemieux permettant un bris de la molécule et obtenant une fraction commune aux multiples congénères existants des MC. Cette fraction, le MMPB, est analysée, après une extraction liquide-liquide, par LDTD-APCI-MS/MS. Une limite de détection de 0,2 µg L-1 a été obtenue et des concentrations entre 1 et 425 µg L-1 ont été trouvées dans des échantillons d’eau de lac contaminés du Québec. De plus, une analyse en parallèle avec des étalons pour divers congénères des MC a permis de suggérer la possible présence de congénères ou d’isomères non détectés. Un deuxième projet consiste en l’analyse directe d’ANA-a par LDTD-APCI-HRMS pour résoudre son interférence isobare, la phénylalanine, grâce à la détection à haute résolution. La LDTD n’offre pas de séparation chromatographique et l’utilisation de la HRMS permet de distinguer les signaux d’ANA-a de ceux de la phénylalanine. Une limite de détection de 0,2 µg L-1 a été obtenue et la méthode a été appliquée sur des échantillons réels d’eau avec un échantillon positif en ANA-a avec une concentration de 0,21 µg L-1. Finalement, à l’aide de la LDTD-APCI-HRMS, l’analyse des MC totales a été adaptée pour la chair de poisson afin de déterminer la fraction libre et liée des MC et comparer les résultats avec des analyses conventionnelles. L’utilisation d’une digestion par hydroxyde de sodium précédant l’oxydation de Lemieux suivi d’une purification par SPE a permis d’obtenir une limite de détection de 2,7 µg kg-1. Des échantillons de poissons contaminés ont été analysés, on a retrouvé des concentrations en MC totales de 2,9 et 13,2 µg kg-1 comparativement aux analyses usuelles qui avaient démontré un seul échantillon positif à 2 µg kg-1, indiquant la possible présence de MC non détectés en utilisant les méthodes conventionnelles.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les solvants industriels, utilisés dans un grand nombre de secteurs économiques, constituent une préoccupation majeure pour les responsables de la santé et de la sécurité du travail. Leurs propriétés irritantes, leurs effets toxiques sur le système nerveux et les appareils d’épuration (reins, foie), leur rôle dans la pollution ou leur risque d’explosion ou d’incendie sont bien connus. Cet ouvrage fait le point sur la prévention des risques professionnels associés aux solvants, notamment avec l’introduction des méthodes de substitution, solvants de remplacement et procédés de rechange. Après un rappel des effets sanitaires et environnementaux des grandes familles de solvants, de leurs utilisations et de leurs caractéristiques physicochimiques, les auteurs exposent et analysent les nouveaux outils envisageables en matière de sûreté d’utilisation des produits solvants, et de substitution en général, pour se concentrer ensuite sur les procédés de ventilation, la protection des personnes exposées et la prévention des risques d’inflammabilité des solvants en milieu de travail. Enfin, plusieurs éléments pratiques complètent cet ouvrage, portant sur les fiches de données de sécurité et autres sources d’information pour l’entreprise. Par son apport d’informations théoriques et pratiques ainsi que ses analyses méthodiques, cet ouvrage représente un texte de référence parfaitement adapté aux attentes des médecins du travail, hygiénistes et de tout professionnel impliqué dans la prévention des accidents et la protection de l’environnement.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le cancer du sein est le cancer le plus fréquent chez la femme. Il demeure la cause de mortalité la plus importante chez les femmes âgées entre 35 et 55 ans. Au Canada, plus de 20 000 nouveaux cas sont diagnostiqués chaque année. Les études scientifiques démontrent que l'espérance de vie est étroitement liée à la précocité du diagnostic. Les moyens de diagnostic actuels comme la mammographie, l'échographie et la biopsie comportent certaines limitations. Par exemple, la mammographie permet de diagnostiquer la présence d’une masse suspecte dans le sein, mais ne peut en déterminer la nature (bénigne ou maligne). Les techniques d’imagerie complémentaires comme l'échographie ou l'imagerie par résonance magnétique (IRM) sont alors utilisées en complément, mais elles sont limitées quant à la sensibilité et la spécificité de leur diagnostic, principalement chez les jeunes femmes (< 50 ans) ou celles ayant un parenchyme dense. Par conséquent, nombreuses sont celles qui doivent subir une biopsie alors que leur lésions sont bénignes. Quelques voies de recherche sont privilégiées depuis peu pour réduire l`incertitude du diagnostic par imagerie ultrasonore. Dans ce contexte, l’élastographie dynamique est prometteuse. Cette technique est inspirée du geste médical de palpation et est basée sur la détermination de la rigidité des tissus, sachant que les lésions en général sont plus rigides que le tissu sain environnant. Le principe de cette technique est de générer des ondes de cisaillement et d'en étudier la propagation de ces ondes afin de remonter aux propriétés mécaniques du milieu via un problème inverse préétabli. Cette thèse vise le développement d'une nouvelle méthode d'élastographie dynamique pour le dépistage précoce des lésions mammaires. L'un des principaux problèmes des techniques d'élastographie dynamiques en utilisant la force de radiation est la forte atténuation des ondes de cisaillement. Après quelques longueurs d'onde de propagation, les amplitudes de déplacement diminuent considérablement et leur suivi devient difficile voir impossible. Ce problème affecte grandement la caractérisation des tissus biologiques. En outre, ces techniques ne donnent que l'information sur l'élasticité tandis que des études récentes montrent que certaines lésions bénignes ont les mêmes élasticités que des lésions malignes ce qui affecte la spécificité de ces techniques et motive la quantification de d'autres paramètres mécaniques (e.g.la viscosité). Le premier objectif de cette thèse consiste à optimiser la pression de radiation acoustique afin de rehausser l'amplitude des déplacements générés. Pour ce faire, un modèle analytique de prédiction de la fréquence de génération de la force de radiation a été développé. Une fois validé in vitro, ce modèle a servi pour la prédiction des fréquences optimales pour la génération de la force de radiation dans d'autres expérimentations in vitro et ex vivo sur des échantillons de tissu mammaire obtenus après mastectomie totale. Dans la continuité de ces travaux, un prototype de sonde ultrasonore conçu pour la génération d'un type spécifique d'ondes de cisaillement appelé ''onde de torsion'' a été développé. Le but est d'utiliser la force de radiation optimisée afin de générer des ondes de cisaillement adaptatives, et de monter leur utilité dans l'amélioration de l'amplitude des déplacements. Contrairement aux techniques élastographiques classiques, ce prototype permet la génération des ondes de cisaillement selon des parcours adaptatifs (e.g. circulaire, elliptique,…etc.) dépendamment de la forme de la lésion. L’optimisation des dépôts énergétiques induit une meilleure réponse mécanique du tissu et améliore le rapport signal sur bruit pour une meilleure quantification des paramètres viscoélastiques. Il est aussi question de consolider davantage les travaux de recherches antérieurs par un appui expérimental, et de prouver que ce type particulier d'onde de torsion peut mettre en résonance des structures. Ce phénomène de résonance des structures permet de rehausser davantage le contraste de déplacement entre les masses suspectes et le milieu environnant pour une meilleure détection. Enfin, dans le cadre de la quantification des paramètres viscoélastiques des tissus, la dernière étape consiste à développer un modèle inverse basé sur la propagation des ondes de cisaillement adaptatives pour l'estimation des paramètres viscoélastiques. L'estimation des paramètres viscoélastiques se fait via la résolution d'un problème inverse intégré dans un modèle numérique éléments finis. La robustesse de ce modèle a été étudiée afin de déterminer ces limites d'utilisation. Les résultats obtenus par ce modèle sont comparés à d'autres résultats (mêmes échantillons) obtenus par des méthodes de référence (e.g. Rheospectris) afin d'estimer la précision de la méthode développée. La quantification des paramètres mécaniques des lésions permet d'améliorer la sensibilité et la spécificité du diagnostic. La caractérisation tissulaire permet aussi une meilleure identification du type de lésion (malin ou bénin) ainsi que son évolution. Cette technique aide grandement les cliniciens dans le choix et la planification d'une prise en charge adaptée.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Au cours de la grossesse et dans les premières années de vie de l’enfant, plusieurs facteurs externes, tels que le stress maternel ou le lien maternel, peuvent interférer avec son développement et avoir des conséquences à court et à long terme. Bien que le stress maternel périnatal ait souvent été étudié, plusieurs facteurs pré et postnataux potentiellement confondants (comme le stress paternel, la dépression, la prise d’antidépresseurs, etc.) n’ont pas systématiquement été pris en compte. Comparativement à l’attachement de l’enfant (à sa mère), moins de recherches se sont intéressées au lien maternel, en particulier chez des femmes ayant un diagnostic de dépression et/ou d’anxiété et exposées à des antidépresseurs. Notre thèse visait donc à étudier ces deux facteurs et leur association avec le développement du jeune enfant âgé d’un an, dans un contexte où la santé mentale maternelle (présence ou non de troubles psychologiques) et de traitements pharmacologiques associés étaient aussi considérés. Afin d’améliorer le dépistage de retards développementaux, nous avons également évalué l’administration au téléphone de deux instruments de pré-dépistage et dépistage actuellement utilisés. Notre thèse était constituée de quatre phases dont les objectifs étaient: la détermination des propriétés psychométriques de l’échelle de stress perçu de quatre items (en français et en anglais) au sein de la population de femmes enceintes (première étude); évaluer l’effet du stress maternel prénatal et parental postnatal sur le développement de l’enfant âgé d’un an (deuxième étude); estimer l’association entre le lien maternel et le développement de l’enfant âgé d’un an, en stratifiant sur la prise maternelle d’antidépresseurs (troisième étude); et évaluer l’administration au téléphone du ″Ages and Stages Questionnaire″ (ASQ, version de 12 mois) et du ″Revised Pre-screening Denver Questionnaire″(R-PDQ, version de 9-24 mois),deux questionnaires utilisés pour le pré-dépistage et le dépistage du développement infantile (quatrième étude). Ce projet faisait partie d’une plus grande étude, nommée le projet OTIS (The″Organization of Teratology Information Specialists″ Antidepressant in Pregnancy cohort study), qui visait à évaluer l’impact de l’arrêt versus la continuation de la prise d’antidépresseurs au cours de la grossesse sur les comportements maternels et sur le développement de l’enfant âgé de un à trois ans. Ainsi, entre 2006 et 2010, la cohorte prospective OTIS de femmes enceintes a été construite et suivie jusqu’à trois ans postpartum. À partir de 2008, l’évaluation du stress et du lien maternel (thématiques de ce projet de thèse) a été incorporée au projet initial. Aussi, à partir de là, toute femme nouvellement recrutée pour la cohorte OTIS pouvait faire partie des études de cette thèse. Notre population source était composée des femmes enceintes ayant eu recours à un service nord-américain d’information sur les tératogènes ou ayant été suivies à la clinique d'obstétrique et de gynécologie du CHU Ste Justine. Pour être admissibles, les femmes devaient 1) être âgées d’au moins 18 ans, 2) être enceinte d’au maximum 14 semaines (le début de la grossesse étant défini comme étant le premier jour des dernières règles); 3) être exposées à un antidépresseur depuis au moins le premier jour de grossesse (pour le groupe exposé à un antidépresseur), 4) savoir lire et comprendre l’anglais ou le français. Pour les études deux, trois et quatre, les femmes devaient habiter dans un rayon de 250 km autour de Montréal pour recevoir notre visite à domicile, nécessaire à l’évaluation psychométrique du développement infantile. Les pères des enfants ont été recrutés à deux mois postpartum pour évaluer leur stress. Les données ont été collectées par entrevue téléphonique, auto-administration de questionnaires, et évaluation psychométrique du développement infantile. Dans le cadre de cette thèse, les femmes étaient suivies depuis le premier trimestre de grossesse jusqu’à un an postpartum. Les résultats de nos travaux démontrent que le recours à l’échelle de stress perçu de quatre items est une mesure fiable et valide pour mesurer le stress au cours de la grossesse (en recherche ou en clinique). Ensuite, le stress postnatal maternel et paternel serait défavorable au développement moteur et socio-émotionnel de l’enfant d’un an, respectivement. Par contre le stress maternel prénatal favoriserait le développement moteur. Un lien maternel optimal est associé à un meilleur développement socio-émotionnel à un an chez l’enfant, en particulier pour les femmes exposées à des antidépresseurs. Enfin, l’administration au téléphone de l’ASQ et des sous-échelles de langage, de motricité fine et motricité globale du R-PDQ serait une alternative possible au mode auto-administré pour dépister et pré-dépister les retards de développement chez les enfants.