20 resultados para Réaction de Garegg-Samuelsson


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ce projet de travail est divisé en deux études principales: (a) l’influence des certains additifs organiques sur la consommation d’énergie et la pureté du métal de zinc déposé dans le processus d’extraction électrolytique, et (b) l’électrodéposition des alliages binaires et ternaires de Fe-Mo et Fe-Mo-P sur des substrats d’acier doux afin d’agir comme cathodes pour la production de chlorate. (a) Parmi les sept différents additifs organiques examinés, les sels des liquides ioniques ont réussi à augmenter le rendement du courant jusqu’à 95,1% comparé à 88,7% qui a obtenu à partir de l’électrolyte standard en présence des ions de Sb3+. La réduction maximale de la consommation d’énergie de ~173 kWh tonne-1 a été obtenue en ajoutant de 3 mg dm-3 du chlorure de 1-butyl-3-méthylimidazolium dans le même électrolyte. La teneur en plomb dans le dépôt de zinc est réduite de 26,5 ppm à 5,1-5,6 ppm en utilisant les sels des liquides ioniques. (b) Des différents binaires Fe-Mo et ternaires Fe-Mo-P alliages ont été électrodéposés sur des substrats d’acier doux. Les alliages préparés ont une tenure en Mo entre 21-47 at.% et une tenure en P de 0 à 16 at.%. L’activité électrocatalytique de ces alliages vers la réaction de dégagement d’hydrogène (RDH) a été étudiée dans des solutions de chlorure de sodium. La réduction maximale de la surtension de RDH de ~313 mV a été obtenue par l’alliage ternaire préparé Fe54Mo30P16 par rapport à celle obtenue pour l’acier doux. La rugosité de surface et l’activité intrinsèque des revêtements de Fe-Mo-P peuvent être l’origine du comportement prometteur de ces électrocatalyseurs vers la RDH.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Notre mémoire est dans l’entre-lieu de deux champs de recherche : les pratiques alimentaires religieuses extraites de leur contexte et la définition de l’identité en lien avec ces pratiques ou en réaction à l’introduction de celles-ci en terre d’accueil. Nous avons étudié la viande halal, un objet à forte charge symbolique, en interrogeant des informateurs musulmans pratiquants installés dans la province de Québec et des Québécois dits de souche pour comprendre leurs perceptions de cet objet et son aménagement dans leur vie quotidienne et dans l’espace public.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans la région de Trois-Rivières (Québec, Canada), plus de 1 000 bâtiments résidentiels et commerciaux montrent de graves problèmes de détérioration du béton. Les problèmes de détérioration sont liés à l’oxydation des sulfures de fer incorporés dans le granulat utilisé pour la confection du béton. Ce projet de doctorat vise à mieux comprendre les mécanismes responsables de la détérioration de béton incorporant des granulats contenant des sulfures de fer, et ce afin de développer une méthodologie pour évaluer efficacement la réactivité potentielle de ce type de granulats. Un examen pétrographique détaillé de carottes de béton extraites de fondations résidentielles montrant différents degré d’endommagement a été réalisé. Le granulat problématique contenant des sulfures de fer a été identifié comme un gabbro à hypersthène incorporant différentes proportions (selon les différentes localisations dans les deux carrières d’origine) de pyrrhotite, pyrite, chalcopyrite et pentlandite. Les produits de réaction secondaires observés dans les échantillons dégradés comprennent des formes minérales de "rouille", gypse, ettringite et thaumasite. Ces observations ont permis de déterminer qu’en présence d’eau et d’oxygène, la pyrrhotite s’oxyde pour former des oxyhydroxides de fer et de l’acide sulfurique qui provoquent une attaque aux sulfates dans le béton. Tout d’abord, la fiabilité de l’approche chimique proposée dans la norme européenne NF EN 12 620, qui consiste à mesurer la teneur en soufre total (ST,% en masse) dans le granulat pour détecter la présence (ou non) de sulfures de fer, a été évaluée de façon critique. Environ 50% (21/43) des granulats testés, représentant une variété de types de roches/lithologies, a montré une ST > 0,10%, montrant qu’une proportion importante de types de roches ne contient pas une quantité notable de sulfure, qui, pour la plupart d’entre eux, sont susceptibles d’être inoffensifs dans le béton. Ces types de roches/granulats nécessiteraient toutefois d’autres tests pour identifier la présence potentielle de pyrrhotite compte tenu de la limite de ST de 0,10 % proposée dans les normes européennes. Basé sur une revue exhaustive de la littérature et de nombreuses analyses de laboratoire, un test accéléré d’expansion sur barres de mortier divisé en deux phases a ensuite été développé pour reproduire, en laboratoire, les mécanismes de détérioration observés à Trois-Rivières. Le test consiste en un conditionnement de 90 jours à 80°C/80% RH, avec 2 cycles de mouillage de trois heures chacun, par semaine, dans une solution d’hypochlorite de sodium (eau de javel) à 6% (Phase I), suivi d’une période pouvant atteindre 90 jours de conditionnement à 4°C/100 % HR (Phase II). Les granulats ayant un potentiel d’oxydation ont présenté une expansion de 0,10 % au cours de la Phase I, tandis que la formation potentielle de thaumasite est détectée par le regain rapide de l’expansion suivi par la destruction des échantillons durant la Phase II. Un test de consommation d’oxygène a également été modifié à partir d’un test de Drainage Minier Acide, afin d’évaluer quantitativement le potentiel d’oxydation des sulfures de fer incorporés dans les granulats à béton. Cette technique mesure le taux de consommation d’oxygène dans la partie supérieure d’un cylindre fermé contenant une couche de matériau compacté afin de déterminer son potentiel d’oxydation. Des paramètres optimisés pour évaluer le potentiel d’oxydation des granulats comprennent une taille de particule inférieure à 150 μm, saturation à 40 %, un rapport de 10 cm d’épaisseur de granulat par 10 cm de dégagement et trois heures d’essai à 22ᵒC. Les résultats obtenus montrent que le test est capable de discriminer les granulats contenant des sulfures de fer des granulats de contrôle (sans sulfures de fer) avec un seuil limite fixé à 5% d’oxygène consommé. Finalement, un protocole d’évaluation capable d’estimer les effets néfastes potentiels des granulats à béton incorporant des sulfures de fer a été proposé. Le protocole est divisé en 3 grandes phases: (1) mesure de la teneur en soufre total, (2) évaluation de la consommation d’oxygène, et (3) un test accéléré d’expansion sur barres de mortier. Des limites provisoires sont proposées pour chaque phase du protocole, qui doivent être encore validées par la mise à l’essai d’un plus large éventail de granulats.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dans un article publié en 1982, Danièle Hervieu-Léger établissait un rapprochement signi-ficatif entre l’idéologie apocalyptique née dans l’Antiquité avec l’apparition de la pensée juive et l’idéologie écologiste née dans les années 1970 en réaction à la crise environne-mentale. Selon cette auteure, il existerait une affinité élective entre l’idéologie apocalyp-tique religieuse, judéo-chrétienne, et l’idéologie apocalyptique sécularisée incorporée à l’idéologie écologiste. Bien plus qu’à un simple « catastrophisme » ambiant, l’idéologie écologiste obéirait donc à des schémas eschatologiques issus de l’imaginaire religieux occidental. Nous avons voulu vérifier si cette piste d’analyse était encore féconde. Pour ce faire, nous avons d’abord construit un idéal-type de l’idéologie apocalyptique nous permettant d’identifier les similitudes, mais aussi les différences fondamentales distinguant l’idéologie apocalyptique religieuse de l’idéologie apocalyptique sécularisée. En nous ba-sant sur la littérature spécialisée, nous avons découvert que les quatre caractéristiques centrales de cet idéal-type peuvent être : (1) l’idée de la fin du monde imminente, (2) la croyance en la détermination suprahumaine de l’histoire, (3) la conviction de l’urgence d’agir et (4) la division du monde en deux camps opposés (les bons et les mauvais). Ensuite, pour vérifier la présence cette hypothétique « apocalypse verte » dans l’imaginaire collectif, nous avons choisi un échantillon de la pensée écologiste nous per-mettant de noter l’influence de l’idéologie apocalyptique. Nous avons enfin procédé à une analyse de contenu de la dernière version du bestseller écologiste Earth in the Balance d’Al Gore, initialement paru en 1993 et réédité en français en 2007 sous le titre d’Urgence Planète Terre. Mots-clés : écologisme, apocalypse, idéologie, religion séculière, environnement.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ma thèse s’intéresse aux politiques de santé conçues pour encourager l’offre de services de santé. L’accessibilité aux services de santé est un problème majeur qui mine le système de santé de la plupart des pays industrialisés. Au Québec, le temps médian d’attente entre une recommandation du médecin généraliste et un rendez-vous avec un médecin spécialiste était de 7,3 semaines en 2012, contre 2,9 semaines en 1993, et ceci malgré l’augmentation du nombre dedecins sur cette même période. Pour les décideurs politiques observant l’augmentation du temps d’attente pour des soins de santé, il est important de comprendre la structure de l’offre de travail des médecins et comment celle-ci affecte l’offre des services de santé. Dans ce contexte, je considère deux principales politiques. En premier lieu, j’estime comment les médecins réagissent aux incitatifs monétaires et j’utilise les paramètres estimés pour examiner comment les politiques de compensation peuvent être utilisées pour déterminer l’offre de services de santé de court terme. En second lieu, j’examine comment la productivité des médecins est affectée par leur expérience, à travers le mécanisme du "learning-by-doing", et j’utilise les paramètres estimés pour trouver le nombre dedecins inexpérimentés que l’on doit recruter pour remplacer un médecin expérimenté qui va à la retraite afin de garder l’offre des services de santé constant. Ma thèse développe et applique des méthodes économique et statistique afin de mesurer la réaction des médecins face aux incitatifs monétaires et estimer leur profil de productivité (en mesurant la variation de la productivité des médecins tout le long de leur carrière) en utilisant à la fois des données de panel sur les médecins québécois, provenant d’enquêtes et de l’administration. Les données contiennent des informations sur l’offre de travail de chaque médecin, les différents types de services offerts ainsi que leurs prix. Ces données couvrent une période pendant laquelle le gouvernement du Québec a changé les prix relatifs des services de santé. J’ai utilisé une approche basée sur la modélisation pour développer et estimer un modèle structurel d’offre de travail en permettant au médecin d’être multitâche. Dans mon modèle les médecins choisissent le nombre d’heures travaillées ainsi que l’allocation de ces heures à travers les différents services offerts, de plus les prix des services leurs sont imposés par le gouvernement. Le modèle génère une équation de revenu qui dépend des heures travaillées et d’un indice de prix représentant le rendement marginal des heures travaillées lorsque celles-ci sont allouées de façon optimale à travers les différents services. L’indice de prix dépend des prix des services offerts et des paramètres de la technologie de production des services qui déterminent comment les médecins réagissent aux changements des prix relatifs. J’ai appliqué le modèle aux données de panel sur la rémunération des médecins au Québec fusionnées à celles sur l’utilisation du temps de ces mêmes médecins. J’utilise le modèle pour examiner deux dimensions de l’offre des services de santé. En premierlieu, j’analyse l’utilisation des incitatifs monétaires pour amener les médecins à modifier leur production des différents services. Bien que les études antérieures ont souvent cherché à comparer le comportement des médecins à travers les différents systèmes de compensation,il y a relativement peu d’informations sur comment les médecins réagissent aux changementsdes prix des services de santé. Des débats actuels dans les milieux de politiques de santé au Canada se sont intéressés à l’importance des effets de revenu dans la détermination de la réponse des médecins face à l’augmentation des prix des services de santé. Mon travail contribue à alimenter ce débat en identifiant et en estimant les effets de substitution et de revenu résultant des changements des prix relatifs des services de santé. En second lieu, j’analyse comment l’expérience affecte la productivité des médecins. Cela a une importante implication sur le recrutement des médecins afin de satisfaire la demande croissante due à une population vieillissante, en particulier lorsque les médecins les plus expérimentés (les plus productifs) vont à la retraite. Dans le premier essai, j’ai estimé la fonction de revenu conditionnellement aux heures travaillées, en utilisant la méthode des variables instrumentales afin de contrôler pour une éventuelle endogeneité des heures travaillées. Comme instruments j’ai utilisé les variables indicatrices des âges des médecins, le taux marginal de taxation, le rendement sur le marché boursier, le carré et le cube de ce rendement. Je montre que cela donne la borne inférieure de l’élasticité-prix direct, permettant ainsi de tester si les médecins réagissent aux incitatifs monétaires. Les résultats montrent que les bornes inférieures des élasticités-prix de l’offre de services sont significativement positives, suggérant que les médecins répondent aux incitatifs. Un changement des prix relatifs conduit les médecins à allouer plus d’heures de travail au service dont le prix a augmenté. Dans le deuxième essai, j’estime le modèle en entier, de façon inconditionnelle aux heures travaillées, en analysant les variations des heures travaillées par les médecins, le volume des services offerts et le revenu des médecins. Pour ce faire, j’ai utilisé l’estimateur de la méthode des moments simulés. Les résultats montrent que les élasticités-prix direct de substitution sont élevées et significativement positives, représentant une tendance des médecins à accroitre le volume du service dont le prix a connu la plus forte augmentation. Les élasticitésprix croisées de substitution sont également élevées mais négatives. Par ailleurs, il existe un effet de revenu associé à l’augmentation des tarifs. J’ai utilisé les paramètres estimés du modèle structurel pour simuler une hausse générale de prix des services de 32%. Les résultats montrent que les médecins devraient réduire le nombre total d’heures travaillées (élasticité moyenne de -0,02) ainsi que les heures cliniques travaillées (élasticité moyenne de -0.07). Ils devraient aussi réduire le volume de services offerts (élasticité moyenne de -0.05). Troisièmement, j’ai exploité le lien naturel existant entre le revenu d’un médecin payé à l’acte et sa productivité afin d’établir le profil de productivité des médecins. Pour ce faire, j’ai modifié la spécification du modèle pour prendre en compte la relation entre la productivité d’un médecin et son expérience. J’estime l’équation de revenu en utilisant des données de panel asymétrique et en corrigeant le caractère non-aléatoire des observations manquantes à l’aide d’un modèle de sélection. Les résultats suggèrent que le profil de productivité est une fonction croissante et concave de l’expérience. Par ailleurs, ce profil est robuste à l’utilisation de l’expérience effective (la quantité de service produit) comme variable de contrôle et aussi à la suppression d’hypothèse paramétrique. De plus, si l’expérience du médecin augmente d’une année, il augmente la production de services de 1003 dollar CAN. J’ai utilisé les paramètres estimés du modèle pour calculer le ratio de remplacement : le nombre dedecins inexpérimentés qu’il faut pour remplacer un médecin expérimenté. Ce ratio de remplacement est de 1,2.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’effet du climat sur la croissance de la végétation est depuis longtemps un fait acquis. Les changements climatiques globaux ont entrainé une augmentation des efforts de recherche sur l’impact de ces changements en milieux naturels, à la fois en termes de distribution et d’abondance des espèces, mais également à travers l’étude des rendements des espèces commerciales. La présente étude vise à déterminer, à travers l’utilisation de relevés dendrochronologiques, les effets de variables climatiques sur la croissance de l’épinette noire et du sapin baumier à l’échelle de la forêt boréale du Québec. Le but est d’identifier les principaux modificateurs climatiques responsables de la croissance des peuplements boréaux en fonction de leur âge et de leur localisation. Se focalisant sur un modèle non-linéaire des moindres carrés incorporant les modificateurs climatiques et un modificateur d’âge, la modélisation de la croissance en surface terrière en fonction de ces critères a permis de détecter des différences entre le sapin baumier et l’épinette noire. Les résultats montrent que les deux espèces réagissent surtout à la longueur de la saison de croissance et aux températures estivales maximales. L’épinette noire semble également plus sensible aux conditions de sécheresse. Les modèles basés sur l’âge ainsi que sur la localisation le long d’un gradient nord-sud révèlent quelques différences, notamment concernant la réaction plus prononcée des jeunes peuplements au climat, en particulier aux températures, tandis que les vieux peuplements sont sensibles au rayonnement solaire. L’étude démontre tout de même une relative indépendance de l’épinette vis-à-vis du gradient latitudinal, à l’inverse du sapin. Les résultats permettent de discuter des modifications de productivité de ces espèces liées à l’allongement de la saison de croissance (gain pour les deux essences) et aux températures croissantes en conjonction avec les précipitations (perte due à la sécheresse pour l’épinette), dans un contexte de changements climatiques.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les anodes de carbone sont des éléments consommables servant d’électrode dans la réaction électrochimique d’une cuve Hall-Héroult. Ces dernières sont produites massivement via une chaine de production dont la mise en forme est une des étapes critiques puisqu’elle définit une partie de leur qualité. Le procédé de mise en forme actuel n’est pas pleinement optimisé. Des gradients de densité importants à l’intérieur des anodes diminuent leur performance dans les cuves d’électrolyse. Encore aujourd’hui, les anodes de carbone sont produites avec comme seuls critères de qualité leur densité globale et leurs propriétés mécaniques finales. La manufacture d’anodes est optimisée de façon empirique directement sur la chaine de production. Cependant, la qualité d’une anode se résume en une conductivité électrique uniforme afin de minimiser les concentrations de courant qui ont plusieurs effets néfastes sur leur performance et sur les coûts de production d’aluminium. Cette thèse est basée sur l’hypothèse que la conductivité électrique de l’anode n’est influencée que par sa densité considérant une composition chimique uniforme. L’objectif est de caractériser les paramètres d’un modèle afin de nourrir une loi constitutive qui permettra de modéliser la mise en forme des blocs anodiques. L’utilisation de la modélisation numérique permet d’analyser le comportement de la pâte lors de sa mise en forme. Ainsi, il devient possible de prédire les gradients de densité à l’intérieur des anodes et d’optimiser les paramètres de mise en forme pour en améliorer leur qualité. Le modèle sélectionné est basé sur les propriétés mécaniques et tribologiques réelles de la pâte. La thèse débute avec une étude comportementale qui a pour objectif d’améliorer la compréhension des comportements constitutifs de la pâte observés lors d’essais de pressage préliminaires. Cette étude est basée sur des essais de pressage de pâte de carbone chaude produite dans un moule rigide et sur des essais de pressage d’agrégats secs à l’intérieur du même moule instrumenté d’un piézoélectrique permettant d’enregistrer les émissions acoustiques. Cette analyse a précédé la caractérisation des propriétés de la pâte afin de mieux interpréter son comportement mécanique étant donné la nature complexe de ce matériau carboné dont les propriétés mécaniques sont évolutives en fonction de la masse volumique. Un premier montage expérimental a été spécifiquement développé afin de caractériser le module de Young et le coefficient de Poisson de la pâte. Ce même montage a également servi dans la caractérisation de la viscosité (comportement temporel) de la pâte. Il n’existe aucun essai adapté pour caractériser ces propriétés pour ce type de matériau chauffé à 150°C. Un moule à paroi déformable instrumenté de jauges de déformation a été utilisé pour réaliser les essais. Un second montage a été développé pour caractériser les coefficients de friction statique et cinétique de la pâte aussi chauffée à 150°C. Le modèle a été exploité afin de caractériser les propriétés mécaniques de la pâte par identification inverse et pour simuler la mise en forme d’anodes de laboratoire. Les propriétés mécaniques de la pâte obtenues par la caractérisation expérimentale ont été comparées à celles obtenues par la méthode d’identification inverse. Les cartographies tirées des simulations ont également été comparées aux cartographies des anodes pressées en laboratoire. La tomodensitométrie a été utilisée pour produire ces dernières cartographies de densité. Les résultats des simulations confirment qu’il y a un potentiel majeur à l’utilisation de la modélisation numérique comme outil d’optimisation du procédé de mise en forme de la pâte de carbone. La modélisation numérique permet d’évaluer l’influence de chacun des paramètres de mise en forme sans interrompre la production et/ou d’implanter des changements coûteux dans la ligne de production. Cet outil permet donc d’explorer des avenues telles la modulation des paramètres fréquentiels, la modification de la distribution initiale de la pâte dans le moule, la possibilité de mouler l’anode inversée (upside down), etc. afin d’optimiser le processus de mise en forme et d’augmenter la qualité des anodes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’ingénierie des biomatériaux a connu un essor prodigieux ces dernières décennies passant de matériaux simples à des structures plus complexes, particulièrement dans le domaine cardiovasculaire. Cette évolution découle de la nécessité des biomatériaux de permettre la synergie de différentes propriétés, dépendantes de leurs fonctions, qui ne sont pas forcément toutes compatibles. Historiquement, les premiers matériaux utilisés dans la conception de dispositifs médicaux étaient ceux présentant le meilleur compromis entre les propriétés physico-chimiques, mécaniques et biologiques que nécessitait leur application. Cependant, il se peut qu’un tel dispositif possède les bonnes propriétés physico-chimiques ou mécaniques, mais que sa biocompatibilité soit insuffisante induisant ainsi des complications cliniques. Afin d’améliorer ces propriétés biologiques tout en conservant les propriétés de volume du matériau, une solution est d’en modifier la surface. L’utilisation d’un revêtement permet alors de moduler la réponse biologique à l’interface biomatériau-hôte et de diminuer les effets indésirables. Ces revêtements sont optimisés selon deux critères principaux : la réponse biologique et la réponse mécanique. Pour la réponse biologique, les deux approches principales sont de mettre au point des revêtements proactifs qui engendrent l’adhérence, la prolifération ou la migration cellulaire, ou passifs, qui, principalement, sont inertes et empêchent l’adhérence de composés biologiques. Dans certains cas, il est intéressant de pouvoir favoriser certaines cellules et d’en limiter d’autres, par exemple pour lutter contre la resténose, principalement due à la prolifération incontrôlée de cellules musculaires lisses qui conduit à une nouvelle obstruction de l’artère, suite à la pose d’un stent. La recherche sur les revêtements de stents vise, alors, à limiter la prolifération de ces cellules tout en facilitant la ré-endothélialisation, c’est-à-dire en permettant l’adhérence et la prolifération de cellules endothéliales. Dans d’autres cas, il est intéressant d’obtenir des surfaces limitant toute adhérence cellulaire, comme pour l’utilisation de cathéter. Selon leur fonction, les cathéters doivent empêcher l’adhérence cellulaire, en particulier celle des bactéries provoquant des infections, et être hémocompatibles, principalement dans le domaine vasculaire. Il a été démontré lors d’études précédentes qu’un copolymère à base de dextrane et de poly(méthacrylate de butyle) (PBMA) répondait aux problématiques liées à la resténose et qu’il possédait, de plus, une bonne élasticité, propriété mécanique importante due à la déformation que subit le stent lors de son déploiement. L’approche de ce projet était d’utiliser ce copolymère comme revêtement de stents et d’en améliorer l’adhérence à la surface en formant des liens covalents avec la surface. Pour ce faire, cela nécessitait l’activation de la partie dextrane du copolymère afin de pouvoir le greffer à la surface aminée. Il était important de vérifier pour chaque étape l’influence des modifications effectuées sur les propriétés biologiques et mécaniques des matériaux obtenus, mais aussi d’un point de vue de la chimie, l’influence que cette modification pouvait induire sur la réaction de copolymérisation. Dans un premier temps, seul le dextrane est considéré et est modifié par oxydation et carboxyméthylation puis greffé à des surfaces fluorocarbonées aminées. L’analyse physico-chimique des polymères de dextrane modifiés et de leur greffage permet de choisir une voie de modification préférentielle qui n’empêchera pas ultérieurement la copolymérisation. La carboxyméthylation permet ainsi d’obtenir un meilleur recouvrement de la surface tout en conservant la structure polysaccharidique du dextrane. Le greffage du dextrane carboxyméthylé (CMD) est ensuite optimisé selon différents degrés de modification, tenant compte aussi de l’influence que ces modifications peuvent induire sur les propriétés biologiques. Finalement, les CMD précédemment étudiés, avec des propriétés biologiques définies, sont copolymérisés avec des monomères de méthacrylate de butyle (BMA). Les copolymères ainsi obtenus ont été ensuite caractérisés par des analyses physico-chimiques, biologiques et mécaniques. Des essais préliminaires ont montrés que les films de copolymères étaient anti-adhérents vis-à-vis des cellules, ce qui a permis de trouver de nouvelles applications au projet. Les propriétés élastiques et anti-adhérentes présentées par les films de copolymères CMD-co-PBMA, les rendent particulièrement intéressants pour des applications comme revêtements de cathéters.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La transplantation de cellules souches hématopoïétiques (CSH) constitue une avenue thérapeutique potentiellement curative pour plusieurs cancers hématologiques comme la leucémie. L’utilisation d’une thérapie immunosuppressive pour prévenir la maladie du greffon contre l’hôte (GvHD) est un déterminant majeur du succès de la greffe. Malgré tout, cette complication survient chez 25 à 50% des transplantés et est une cause majeure de mortalité. L’optimisation du régime d’immunosuppression est un facteur facilement modifiable qui pourrait améliorer le pronostic des patients. Particulièrement, les polymorphismes du génome du donneur ou du receveur dans les voies pharmacogénomiques des immunosuppresseurs pourraient influencer l’exposition et l’action de ces médicaments, de même que le pronostic du patient. Le profilage de 20 pharmacogènes prioritaires chez des paires de donneurs-receveurs en greffe de CSH a permis d’identifier des variations génétiques liées au risque de la GvHD aiguë. Principalement, le statut génétique du receveur pour les protéines ABCC1 et ABCC2, impliquées dans le transport du méthotrexate (MTX), ainsi que des cibles moléculaires de ce médicament (ATIC et MTHFR) ont été associées au risque de GvHD aiguë. Similairement, le NFATc1, codant pour une cible moléculaire de la cyclosporine, augmentait lui aussi le risque de la maladie. Les porteurs de deux génotypes à risque et plus étaient particulièrement prédisposés à développer cette complication. Par surcroît, le statut génétique du donneur influençait également le pronostic du receveur après la greffe. Entre autres, des allèles protecteurs ont été identifiés dans les voies liées au transport (SLC19A1) et à l’action du MTX (DHFR). Inversement, NFATc2 a été associé à une augmentation du risque de GvHD aiguë. Afin de mieux comprendre les associations observées entre ces marqueurs génétiques et le risque de GvHD aiguë, une étude prospective innovante est en cours chez des greffés de CSH. Cette étude permettra d’étudier comment la génétique du patient ou du donneur peut influencer la pharmacocinétique et la pharmacodynamie des immunosuppresseurs, de même que leurs liens avec la GvHD aiguë. Ces paramètres sont quantifiés grâce à des approches analytiques que nous avons mises au point afin de répondre aux besoins spécifiques et uniques de cette étude. Les approches proposées dans cette thèse sont complémentaires aux méthodes classiques de suivi des immunosuppresseurs et pourraient aider à optimiser la pharmacothérapie du patient. Une meilleure identification des patients à haut risque de GvHD aiguë avant la greffe, basée sur des marqueurs pharmacogénomiques identitaires, pourrait guider le choix de la prophylaxie immunosuppressive, et ainsi améliorer l’issue clinique de la greffe.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse présente la découverte de nouveaux inhibiteurs de l’amidotransférase ARNt-dépendante (AdT), et résume les connaissances récentes sur la biosynthèse du Gln-ARNtGln et de l’Asn-ARNtAsn par la voie indirecte chez la bactérie Helicobacter pylori. Dans le cytoplasme des eucaryotes, vingt acides aminés sont liés à leur ARNt correspondant par vingt aminoacyl-ARNt synthétases (aaRSs). Ces enzymes sont très spécifiques, et leur fonction est importante pour le décodage correct du code génétique. Cependant, la plupart des bactéries, dont H. pylori, sont dépourvues d’asparaginyl-ARNt synthétase et/ou de glutaminyl-ARNt synthétase. Pour former le Gln-ARNtGln, H. pylori utilise une GluRS noncanonique nommée GluRS2 qui glutamyle spécifiquement l’ARNtGln ; ensuite, une AdT trimérique, la GatCAB corrige le Glu-ARNtGln mésapparié en le transamidant pour former le Gln-ARNtGln, qui lira correctement les codons glutamine pendant la biosynthèse des protéines sur les ribosomes. La formation de l’Asn-ARNtAsn est similaire à celle du Gln-ARNtGln, et utilise la même GatCAB et une AspRS non-discriminatrice. Depuis des années 2000, la GatCAB est considérée comme une cible prometteuse pour le développement de nouveaux antibiotiques, puisqu’elle est absente du cytoplasme de l’être humain, et qu’elle est encodée dans le génome de plusieurs bactéries pathogènes. Dans le chapitre 3, nous présentons la découverte par la technique du « phage display » de peptides cycliques riches en tryptophane et en proline, et qui inhibent l’activité de la GatCAB de H. pylori. Les peptides P10 (CMPVWKPDC) et P9 (CSAHNWPNC) inhibent cette enzyme de façon compétitive par rapport au substrat Glu-ARNtGln. Leur constante d’inhibition (Ki) est 126 μM pour P10, et 392 μM pour P9. Des modèles moléculaires ont montré qu’ils lient le site actif de la réaction de transmidation catalysée par la GatCAB, grâce à la formation d’une interaction π-π entre le résidu Trp de ces peptides et le résidu Tyr81 de la sous-unité GatB, comme fait le A76 3’-terminal de l’ARNt. Dans une autre étude concernant des petits composés contenant un groupe sulfone, et qui mimiquent l’intermédiaire de la réaction de transamidation, nous avons identifié des composés qui inhibent la GatCAB de H. pylori de façon compétitive par rapport au substrat Glu-ARNtGln. Cinq fois plus petits que les peptides cycliques mentionnés plus haut, ces composés inhibent l’activité de la GatCAB avec des Ki de 139 μM pour le composé 7, et de 214 μM pour le composé 4. Ces inhibiteurs de GatCAB pourraient être utiles pour des études mécanistiques, et pourraient être des molécules de base pour le développement de nouvelles classes d’antibiotiques contre des infections causées par H. pylori.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Face à la diminution des ressources énergétiques et à l’augmentation de la pollution des énergies fossiles, de très nombreuses recherches sont actuellement menées pour produire de l’énergie propre et durable et pour réduire l’utilisation des sources d’énergies fossiles caractérisées par leur production intrinsèque des gaz à effet de serre. La pile à combustible à membrane échangeuse de protons (PEMFC) est une technologie qui prend de plus en plus d’ampleur pour produire l’énergie qui s’inscrit dans un contexte de développement durable. La PEMFC est un dispositif électrochimique qui fonctionne selon le principe inverse de l’électrolyse de l’eau. Elle convertit l’énergie de la réaction chimique entre l’hydrogène et l’oxygène (ou l’air) en puissance électrique, chaleur et eau; son seul rejet dans l’atmosphère est de la vapeur d’eau. Une pile de type PEMFC est constituée d’un empilement Électrode-Membrane-Électrode (EME) où la membrane consiste en un électrolyte polymère solide séparant les deux électrodes (l’anode et la cathode). Cet ensemble est intégré entre deux plaques bipolaires (BP) qui permettent de collecter le courant électrique et de distribuer les gaz grâce à des chemins de circulation gravés sur chacune de ses deux faces. La plupart des recherches focalisent sur la PEMFC afin d’améliorer ses performances électriques et sa durabilité et aussi de réduire son coût de production. Ces recherches portent sur le développement et la caractérisation des divers éléments de ce type de pile; y compris les éléments les plus coûteux et les plus massifs, tels que les plaques bipolaires. La conception de ces plaques doit tenir compte de plusieurs paramètres : elles doivent posséder une bonne perméabilité aux gaz et doivent combiner les propriétés de résistance mécanique, de stabilité chimique et thermique ainsi qu’une conductivité électrique élevée. Elles doivent aussi permettre d’évacuer adéquatement la chaleur générée dans le cœur de la cellule. Les plaques bipolaires métalliques sont pénalisées par leur faible résistance à la corrosion et celles en graphite sont fragiles et leur coût de fabrication est élevé (dû aux phases d’usinage des canaux de cheminement des gaz). C’est pourquoi de nombreuses recherches sont orientées vers le développement d’un nouveau concept de plaques bipolaires. La voie la plus prometteuse est de remplacer les matériaux métalliques et le graphite par des composites à matrice polymère. Les plaques bipolaires composites apparaissent attrayantes en raison de leur facilité de mise en œuvre et leur faible coût de production mais nécessitent une amélioration de leurs propriétés électriques et mécaniques, d’où l’objectif principal de cette thèse dans laquelle on propose: i) un matériau nanocomposite développé par extrusion bi-vis qui est à base de polymères chargés d’additifs solides conducteurs, incluant des nanotubes de carbone. ii) fabriquer un prototype de plaque bipolaire à partir de ces matériaux en utilisant le procédé de compression à chaud avec un refroidissement contrôlé. Dans ce projet, deux polymères thermoplastiques ont été utilisés, le polyfluorure de vinylidène (PVDF) et le polyéthylène téréphtalate (PET). Les charges électriquement conductrices sélectionnées sont: le noir de carbone, le graphite et les nanotubes de carbones. La combinaison de ces charges conductrices a été aussi étudiée visant à obtenir des formulations optimisées. La conductivité électrique à travers l’épaisseur des échantillons développés ainsi que leurs propriétés mécaniques ont été soigneusement caractérisées. Les résultats ont montré que non seulement la combinaison entre les charges conductrices influence les propriétés électriques et mécaniques des prototypes développés, mais aussi la distribution de ces charges (qui de son côté dépend de leur nature, leur taille et leurs propriétés de surface), avait aidé à améliorer les propriétés visées. Il a été observé que le traitement de surface des nanotubes de carbone avait aidé à l’amélioration de la conductivité électrique et la résistance mécanique des prototypes. Le taux de cristallinité généré durant le procédé de moulage par compression des prototypes de plaques bipolaires ainsi que la cinétique de cristallisation jouent un rôle important pour l’optimisation des propriétés électriques et mécaniques visées.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La carbonatation minérale dans les résidus miniers est un moyen sûr et permanent de séquestrer le CO2 atmosphérique. C’est un processus naturel et passif qui ne nécessite aucun traitement particulier et donc avantageux d’un point de vue économique. Bien que la quantité de CO2 qu’il soit possible de séquestrer selon ce processus est faible à l’échelle globale, dans le cadre d’un marché du carbone, les entreprises minières pourraient obtenir des crédits et ainsi revaloriser leurs résidus. À l’heure actuelle, il y a peu d’informations pour quantifier le potentiel de séquestration du CO2 de façon naturelle et passive dans les piles de résidus miniers. Il est donc nécessaire d’étudier le phénomène pour comprendre comment évolue la réaction à travers le temps et estimer la quantité de CO2 qui peut être séquestrée naturellement dans les piles de résidus. Plusieurs travaux de recherche se sont intéressés aux résidus miniers de Thetford Mines (Québec, Canada), avec une approche principalement expérimentale en laboratoire. Ces travaux ont permis d’améliorer la compréhension du processus de carbonatation, mais ils nécessitent une validation à plus grande échelle sous des conditions atmosphériques réelles. L’objectif général de cette étude est de quantifier le processus de carbonatation minérale des résidus miniers sous des conditions naturelles, afin d’estimer la quantité de CO2 pouvant être piégée par ce processus. La méthodologie utilisée repose sur la construction de deux parcelles expérimentales de résidus miniers situées dans l’enceinte de la mine Black Lake (Thetford Mines). Les résidus miniers sont principalement constitués de grains et de fibres de chrysotile et lizardite mal triés, avec de petites quantités d’antigorite, de brucite et de magnétite. Des observations spatiales et temporelles ont été effectuées dans les parcelles concernant la composition et la pression des gaz, la température des résidus, la teneur en eau volumique, la composition minérale des résidus ainsi que la chimie de l’eau des précipitations et des lixiviats provenant des parcelles. Ces travaux ont permis d’observer un appauvrissement notable du CO2 dans les gaz des parcelles (< 50 ppm) ainsi que la précipitation d’hydromagnésite dans les résidus, ce qui suggère que la carbonatation minérale naturelle et passive est un processus potentiellement important dans les résidus miniers. Après 4 ans d’observations, le taux de séquestration du CO2 dans les parcelles expérimentales a été estimé entre 3,5 et 4 kg/m3/an. Ces observations ont permis de développer un modèle conceptuel de la carbonatation minérale naturelle et passive dans les parcelles expérimentales. Dans ce modèle conceptuel, le CO2 atmosphérique (~ 400 ppm) se dissout dans l’eau hygroscopique contenue dans les parcelles, où l’altération des silicates de magnésium forme des carbonates de magnésium. La saturation en eau dans les cellules est relativement stable dans le temps et varie entre 0,4 et 0,65, ce qui est plus élevé que les valeurs de saturation optimales proposées dans la littérature, réduisant ainsi le transport de CO2 dans la zone non saturée. Les concentrations de CO2 en phase gazeuse, ainsi que des mesures de la vitesse d’écoulement du gaz dans les cellules suggèrent que la réaction est plus active près de la surface et que la diffusion du CO2 est le mécanisme de transport dominant dans les résidus. Un modèle numérique a été utilisé pour simuler ces processus couplés et valider le modèle conceptuel avec les observations de terrain. Le modèle de transport réactif multiphase et multicomposant MIN3P a été utilisé pour réaliser des simulations en 1D qui comprennent l’infiltration d’eau à travers le milieu partiellement saturé, la diffusion du gaz, et le transport de masse réactif par advection et dispersion. Même si les écoulements et le contenu du lixivat simulés sont assez proches des observations de terrain, le taux de séquestration simulé est 22 fois plus faible que celui mesuré. Dans les simulations, les carbonates précipitent principalement dans la partie supérieure de la parcelle, près de la surface, alors qu’ils ont été observés dans toute la parcelle. Cette différence importante pourrait être expliquée par un apport insuffisant de CO2 dans la parcelle, qui serait le facteur limitant la carbonatation. En effet, l’advection des gaz n’a pas été considérée dans les simulations et seule la diffusion moléculaire a été simulée. En effet, la mobilité des gaz engendrée par les fluctuations de pression barométrique et l’infiltration de l’eau, ainsi que l’effet du vent doivent jouer un rôle conséquent pour alimenter les parcelles en CO2.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La scoliose est la pathologie déformante du rachis la plus courante de l’adolescence. Dans 80 % des cas, elle est idiopathique, signifiant qu’aucune cause n’a été associée. Les scolioses idiopathiques répondent à un modèle multifactoriel incluant des facteurs génétiques, environnementaux, neurologiques, hormonaux, biomécaniques et de croissance squelettique. Comme hypothèse neurologique, une anomalie vestibulaire provoquerait une asymétrie d’activation des voies vestibulospinales et des muscles paravertébraux commandés par cette voie, engendrant la déformation scoliotique. Certains modèles animaux permettent de reproduire ce mécanisme. De plus, des anomalies liées au système vestibulaire, comme des troubles de l’équilibre, sont observées chez les patients avec une scoliose. La stimulation vestibulaire galvanique permet d’explorer le contrôle sensorimoteur de l’équilibre puisqu’elle permet d’altérer les afférences vestibulaires. L’objectif de cette thèse est d’explorer le contrôle sensorimoteur en évaluant la réaction posturale provoquée par cette stimulation chez les patients et les participants contrôle. Dans la première étude, les patients sont plus déstabilisés que les contrôles et il n’y a pas de lien entre l’ampleur de l’instabilité et la sévérité de la scoliose. Dans la deuxième étude, à l’aide d’un modèle neuromécanique, un poids plus grand aux signaux vestibulaires a été attribué aux patients. Dans la troisième étude, un problème sensorimoteur est également observé chez les jeunes adultes ayant une scoliose, excluant ainsi que le problème soit dû à la maturation du système nerveux. Dans une étude subséquente, des patients opérés pour réduire leur déformation du rachis, montrent également une réaction posturale de plus grande amplitude à la stimulation comparativement à des participants contrôle. Ces résultats suggèrent que l’anomalie sensorimotrice ne serait pas secondaire à la déformation. Finalement, un algorithme a été développé pour identifier les patients ayant un problème sensorimoteur. Les patients montrant un contrôle sensorimoteur anormal ont également une réponse vestibulomotrice plus grande et attribuent plus de poids aux informations vestibulaires. Globalement, les résultats de cette thèse montrent qu’un déficit sensorimoteur expliquerait l’apparition de la scoliose mais pas sa progression. Le dysfonctionnement sensorimoteur n’est pas présent chez tous les patients. L’algorithme permettant une classification de la performance sensorimotrice pourrait être utile pour de futures études cliniques.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Les travaux effectués au cours de ce mémoire ont permis de développer une alternative aux vaccins présentement utilisés contre le virus de l’influenza. Nous avons utilisé la nucléoprotéine (NP) de l’influenza comme base vaccinale puisque cette protéine est conservée chez les souches d’influenza A et qu’elle possède un potentiel de protection croisée. Nous avons montré que la multimérisation de la NP grâce à un gabarit d’ARN permet d’augmenter son immunogenicité. Cette multimérisation en pseudo-nucléoparticule virale (NLP) a augmenté la réponse humorale et cellulaire spécifique à NP et l’ajout d’un adjuvant (PAL) a permis d’amplifier davantage la réponse humorale contre NP. Une dose du vaccin candidat NLP-PAL n’a pas réussi à protéger des souris contre une infection létale avec une souche homotypique d’influenza. Cependant, des résultats avec un régime de deux immunisations montrent des résultats encourageants qui permettent d’espérer une protection envers une infection virale.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Cette thèse défend les mérites d’une lecture cyborgienne de l’oeuvre de science-fiction de Frank Herbert, Dune, où la vision particulière des sciences et technologies nous permet d’interpréter plusieurs personnages en tant que réitération Nouvelle Vague du cyborg. Publié en 1965, Dune introduit des personnages féminins atypiques pour cette époque compte tenu de leurs attributs tels qu’une capacité intellectuelle accrue, une imposante puissance de combat et une immunité manifeste contre la faiblesse émotionnelle. Cependant, le roman reste ambivalent en ce qui concerne ces femmes : en dépit de leurs qualités admirables, elles sont d’autre part caractérisées par des stéréotypes régressifs, exposants une sexualité instinctive, qui les confinent tout au mieux aux rôles de mère, maitresse ou épouse. Finalement, dans le roman, elles finissent par jouer le rôle du méchant. Cette caractérisation se rapproche beaucoup de celle du cyborg femelle qui est d’usage courant dans les productions de science fiction pour le grand public des décennies plus récentes. Par conséquent, cette thèse défend qu’une lecture cyborgienne de Dune complète et accroisse une analyse sexospécifique, car cette approche comporte une théorisation essentielle des réactions à l’égard de la technologie qui, selon Evans, sont entretissées dans la réaction patriarcale de ce roman à l’égard des femmes. Bien que ces créatures fictives ne soient pas encore communes à l’époque de la rédaction de Dune, Jessica et certains autres personnages du roman peuvent néanmoins être considérés comme exemples primitifs des cyborgs, parce qu’ils incarnent la science et la technologie de leur culture et qu’ils possèdent d’autres éléments typiques du cyborg. L’hypothèse propose que la représentation des femmes dans Dune ne découle pas seulement de l’attrait pour le chauvinisme ou la misogynie, mais qu’elle est en fait grandement influencée par la peur de la technologie qui est transposée sur la femme comme c’est couramment le cas dans la littérature cyborg subséquente. Ainsi, ce roman annonce le futur sous-genre cyborg de la science-fiction.