26 resultados para make energy use more effective
em Université de Montréal, Canada
Resumo:
Problématique : La pénurie d’organes qui sévit actuellement en transplantation rénale incite les chercheurs et les équipes de transplantation à trouver de nouveaux moyens afin d’en améliorer l’efficacité. Le Groupe de recherche transdisciplinaire sur les prédicteurs du risque immunologique du FRSQ travaille actuellement à mettre en place de nouveaux outils facilitant la quantification du risque immunologique global (RIG) de rejet de chaque receveur en attente d’une transplantation rénale. Le calcul du RIG s’effectuerait en fonction de facteurs scientifiques et quantifiables, soit le biologique, l’immunologique, le clinique et le psychosocial. La détermination précise du RIG pourrait faciliter la personnalisation du traitement immunosuppresseur, mais risquerait aussi d’entraîner des changements à l’actuelle méthode de sélection des patients en vue d’une transplantation. Cette sélection se baserait alors sur des critères quantifiables et scientifiques. L’utilisation de cette méthode de sélection possède plusieurs avantages, dont celui d’améliorer l’efficacité de la transplantation et de personnaliser la thérapie immunosuppressive. Malgré tout, cette approche soulève plusieurs questionnements éthiques à explorer chez les différents intervenants œuvrant en transplantation rénale quant à sa bonne utilisation. Buts de l’étude : Cette recherche vise à étudier les perceptions de néphrologues transplanteurs et référents de la province de Québec face à l’utilisation d’une méthode de sélection des patients basée sur des critères scientifiques et quantifiables issus de la médecine personnalisée. Les résultats pourront contribuer à déterminer la bonne utilisation de cette méthode et à étudier le lien de plus en plus fort entre science et médecine. Méthodes : Des entretiens semi-dirigés combinant l’emploi de courtes vignettes cliniques ont été effectués auprès de 22 néphrologues québécois (transplanteurs et référents) entre juin 2007 à juillet 2008. Le contenu des entretiens fut analysé qualitativement selon la méthode d’analyse de Miles et Huberman. Résultats : Les résultats démontrent une acceptation généralisée de cette approche. La connaissance du RIG pour chaque patient peut améliorer le traitement et la prise en charge post-greffe. Son efficacité serait supérieure à la méthode actuelle. Par contre, la possible exclusion de patients pose un important problème éthique. Cette nouvelle approche doit toutefois être validée scientifiquement et accorder une place au jugement clinique. Conclusions : La médecine personnalisée en transplantation devrait viser le meilleur intérêt du patient. Malgré l’utilisation de données scientifiques et quantifiables dans le calcul du RIG, le jugement clinique doit demeurer en place afin d’aider le médecin à prendre une décision fondée sur les données médicales, son expertise et sa connaissance du patient. Une réflexion éthique approfondie s’avère nécessaire quant à l’exclusion possible de patients et à la résolution de la tension entre l’équité et l’efficacité en transplantation rénale.
Resumo:
Le présent projet vise à documenter la nécessité d’augmenter notre connaissance de la présence des contaminants organiques tels que les médicaments dans l’environnement et d’évaluer leur devenir environnemental. On a étudié la présence de composés pharmaceutiques dans différents échantillons d'eau. On a focalisé nos efforts spécialement sur les échantillons d'eau de l'usine d'épuration de la Ville de Montréal et ses effluents, les eaux de surface avoisinantes et l’eau du robinet dans la région de Montréal. Pour ce faire, on a tout d’abord développé deux méthodes analytiques automatisées basées sur la chromatographie liquide avec extraction en phase solide (SPE) couplée à la chromatographie liquide couplée à la spectrométrie de masse en tandem (LC-MS/MS). On a également étudié les performances des trois techniques d'ionisation à pression atmosphérique (API), pour ensuite les utiliser dans la méthode analytique développée. On a démontré que l'ionisation par électronébulisation (ESI) est une méthode d'ionisation plus efficace pour l'analyse des contaminants pharmaceutiques dans des échantillons de matrices très complexes comme les eaux usées. Une première méthode analytique SPE couplée à la LC-MS/MS a été développée et validée pour l'étude des échantillons complexes provenant de l'usine d'épuration de la Ville de Montréal et des eaux de surface près de l'usine. Cinq médicaments de prescription ont été étudiés: le bézafibrate (un régulateur de lipides), le cyclophosphamide et le méthotrexate (deux agents anticancéreux), l'orlistat (un agent anti-obésité) et l’énalapril (utilisé dans le traitement de l'hypertension). La plupart de ces drogues sont excrétées par le corps humain et rejetées dans les eaux usées domestiques en faisant par la suite leur chemin vers les usines municipales de traitement des eaux usées. On a pu démontrer qu'il y a un faible taux d’élimination à l'usine d'épuration pour le bézafibrate et l'énalapril. Ces deux composés ont aussi été détectés dans les eaux de surface sur un site à proximité immédiate de la décharge de l’effluent de la station d'épuration. i En observant la nécessité de l'amélioration des limites de détection de la première méthode analytique, une deuxième méthode a été développée. Pour la deuxième méthode, un total de 14 contaminants organiques, incluant trois agents anti-infectieux (clarithromycin, sulfaméthoxazole et triméthoprime), un anticonvulsant (carbamazépine) et son produit de dégradation (10,11-dihydrocarbamazépine), l'agent antihypertensif (enalapril), deux antinéoplastiques utilisés en chimiothérapie (cyclophosphamide et méthotrexate), des herbicides (atrazine, cyanazine, et simazine) et deux produits de transformation de l’atrazine (deséthylatrazine et déisopropylatrazine) ainsi qu’un agent antiseptique (triclocarban). Ces produits ont été quantifiés dans les eaux de surface ainsi que dans l’eau du robinet. L'amélioration des limites de détection pour cette méthode a été possible grâce à la charge d'un volume d'échantillon supérieur à celui utilisé dans la première méthode (10 mL vs 1 mL). D'autres techniques de confirmation, telles que les spectres des ions produits utilisant une pente d’énergie de collision inverse dans un spectromètre de masse à triple quadripôle et la mesure des masses exactes par spectrométrie de masse à temps d’envol, ont été explorées. L'utilisation d'un analyseur de masse à temps d’envol a permis la confirmation de 6 des 14 analytes. Finalement, étant donné leur haute toxicité et pour évaluer leur persistance et leur transformation au niveau du traitement des eaux potables, la cinétique d'oxydation du cyclophosphamide et de méthotrexate avec l'ozone moléculaire et des radicaux OH a été étudiée. Les constantes de dégradation avec l'ozone moléculaire ont été calculées et la qualité de l'eau après traitement a pu être évaluée. Le rendement du processus d'ozonation a été amélioré pour la cyclophosphamide dans les eaux naturelles, en raison de la combinaison de réactions directes et indirectes. Cette étude a montré que l'ozone est très efficace pour oxyder le méthotrexate mais que le cyclophosphamide serait trop lent à s’oxyder pour un traitement efficace aux conditions usuelles de traitement de l’eau potable.
Resumo:
Ce projet de maîtrise se consacre à l’apprentissage des prépositions espagnoles chez les élèves francophones. L’identification et l’analyse des erreurs les plus fréquentes dans l’usage des prépositions par des francophones nous permettrons d’élaborer des exercices pratiques qui rendraient leur apprentissage moins difficile. Nous croyons que la difficulté dans l’utilisation des prépositions chez les étudiants réside en partie dans le fait de ne pas connaître leur emploi exact. Nous commencerons donc par présenter l’emploi des principales prépositions en espagnol à partir du Manual de la Nueva gramática de la lengua española et d’autres études. L’enseignement de la grammaire dans les cours d’espagnol comme langue étrangère (ELE) au Québec suit les règles établies par le Cadre européen commun et le Plan curricular de l’Institut Cervantès. Les étudiants développent leur compétence grammaticale de manière inductive; ils sont amenés à comprendre les règles par eux-mêmes et à créer leurs propres hypothèses qu’ils confirment ou réfutent après grâce à quelques explications formelles de l’enseignant et des exercices de pratique. Par contre, cette tendance à laisser l’apprentissage de la grammaire entre les mains des étudiants peut aussi amener à la fossilisation de leurs erreurs si les explications et la pratique ne sont pas suffisantes. Les erreurs sont perçues comme un point de départ pour comprendre où résident les difficultés des étudiants et permettent aux enseignants d’apporter les changements nécessaires à leurs méthodes d’enseignement. Notre révision de quelques investigations réalisées avec la méthode de l’analyse des erreurs, nous permet de cerner les raisons pour lesquelles les francophones commettent autant d’erreurs dans l’utilisation des prépositions espagnoles. Notre analyse de l’enseignement et de la pratique des prépositions dans trois manuels qui s’utilisent actuellement dans les cégeps et les universités du Québec nous permet de voir que les prépositions ne se pratiquent pas assez, surtout au niveau intermédiaire. Nous proposons donc des exercices pratiques qui permettront aux étudiants de pratiquer les prépositions de manière plus efficace.
Resumo:
L’objet de la présente thèse est la lutte contre la pauvreté. Elle cherche à identifier les conditions favorisant la sortie de la pauvreté dans un territoire urbain, ici le quartier de la Petite-Patrie. par une approche territoriale intégrée. S’inscrivant dans la mouvance des multiples initiatives de lutte contre la pauvreté et l’exclusion au Québec, le postulat qui fonde cette recherche est le suivant : la lutte contre la pauvreté par l’approche territoriale intégrée permet : 1) d’instaurer des conditions favorisant la sortie de la pauvreté et 2) de renverser les processus qui mènent à l’appauvrissement des personnes et, du même coup, d’améliorer les conditions et la qualité de vie de celles-ci dans un territoire particulier. Les résultats de cette recherche permettent : 1) de contribuer à la compréhension des dynamiques de lutte contre la pauvreté grâce à une approche considérant les acteurs agissant dans un territoire et, 2) d’éclairer les différents niveaux de conception et de mise en œuvre des politiques et des stratégies d’action, tant au niveau de l’État que de la société civile, sachant que les dispositifs d’intervention intégrés se créent à l’interface des initiatives locales ou régionales et des nouvelles formes de politiques publiques en matière de lutte contre la pauvreté. Les grandes conclusions qui émergent de cette recherche sont au nombre de trois : 1) Si la multidimentionnalité de la pauvreté est acceptée par plusieurs auteurs, on ne peut pas parler d’une seule pauvreté, mais de diverses pauvretés. Les visages de la pauvreté dans le territoire de La Petite-Patrie témoignent de cette diversité des pauvretés, et appellent une variété de stratégies d’action ; 2) Les personnes en situation de pauvreté, en fonction de leurs capacités d’agir, peuvent être appréhendées selon un double profil qui structure de façon importante leur processus de sortie de la pauvreté : le premier groupe rassemble les personnes en situation de pauvreté qui ont des initiatives découlant de leurs capacités d’agir, et le second groupe qui réunit les personnes en situation de pauvreté dont la capacité d’initiative est altérée, apparemment de façon durable, par leurs conditions de vie. Toute stratégie publique de sortie de la pauvreté dans un espace donné devrait alors considérer cette dimension relative aux capacités de rapprochement des individus et des ressources pour soutenir le développement d’une stratégie territoriale intégrée de lutte à la pauvreté plus efficace pour les personnes dont le processus de désaffiliation est plus avancé; 3) Les acteurs de lutte contre la pauvreté dans un territoire, pour réunir les conditions d’une action intégrée et mettre en place des conditions favorables de lutte contre la pauvreté, doivent s’appuyer sur la concertation, les alliances intersectorielles, le leadership inclusif et concerté, les passerelles formelles et fonctionnelles entre acteurs institutionnels, et sur une démarche hybride (emploi et défense des droits) qui constituent des ingrédients fondamentaux pour toute action ou intervention en faveur des personnes en situation de pauvreté vivant dans un cadre territorial défini et accepté par l’ensemble des acteurs locaux. Ce caractère hybride de la démarche permet d’agir de façon différenciée sur les deux groupes de la population. L’intégration est donc avant tout stratégique, c’est-à-dire fondée sur l’articulation d’une pluralité de logique d’action.
Resumo:
Plusieurs problèmes liés à l'utilisation de substances et méthodes interdites de dopage dans les sports posent de grands défis à la gouvernance antidopage. Afin de lutter contre le dopage, certains pays ont mis en oeuvre des cadres juridiques basés exclusivement sur le droit pénal tandis que d'autres pays ont plutôt misé sur des mécanismes et organismes spécialisés trouvant fondement en droit privé ou sur un régime hybride de droit public et privé. Ces différentes approches réglementaires ont pour conséquence de faire en sorte qu’il est très difficile de lutter efficacement contre le dopage dans les sports, notamment parce que leur exécution requiert un degré de collaboration internationale et une participation concertée des autorités publiques qui est difficile à mettre en place. À l’heure actuelle, on peut par exemple observer que les États n’arrivent pas à contrer efficacement la participation des syndicats et organisations transnationales liés au crime organisé dans le marché du dopage, ni à éliminer des substances et méthodes de dopage interdites par la réglementation. Par ailleurs, la gouvernance antidopage basée sur les règles prescrites par l’Agence mondiale antidopage prévoit des règles et des normes distinctes de dopage distinguant entre deux catégories de personnes, les athlètes et les autres, plaçant ainsi les premiers dans une position désavantageuse. Par exemple, le standard de responsabilité stricte sans faute ou négligence imposé aux athlètes exige moins que la preuve hors de tout doute raisonnable et permet l'utilisation de preuves circonstancielles pour établir la violation des règles antidopages. S'appliquant pour prouver le dopage, ce standard mine le principe de la présomption d'innocence et le principe suivant lequel une personne ne devrait pas se voir imposer une peine sans loi. D’ailleurs, le nouveau Code de 2015 de l’Agence attribuera aux organisations nationales antidopage (ONADs) des pouvoirs d'enquête et de collecte de renseignements et ajoutera de nouvelles catégories de dopage non-analytiques, réduisant encore plus les droits des athlètes. Dans cette thèse, nous discutons plus particulièrement du régime réglementaire de l’Agence et fondé sur le droit privé parce qu’il ne parvient pas à répondre aux besoins actuels de gouvernance mondiale antidopage. Nous préconisons donc l’adoption d’une nouvelle approche de gouvernance antidopage où la nature publique et pénale mondiale du dopage est clairement reconnue. Cette reconnaissance combiné avec un modèle de gouvernance adapté basé sur une approche pluraliste du droit administratif global produira une réglementation et une administration antidopage mieux acceptée chez les athlètes et plus efficace sur le plan des résultats. Le nouveau modèle de gouvernance que nous proposons nécessitera toutefois que tous les acteurs étatiques et non-étatiques ajustent leur cadre de gouvernance en tenant compte de cette nouvelle approche, et ce, afin de confronter les défis actuels et de régler de manière plus satisfaisante les problèmes liés à la gouvernance mondiale du dopage dans les sports.
Resumo:
La documentation sur les pratiques parentales suggère qu’afin de favoriser le développement optimal des enfants, les parents devraient utiliser des pratiques qui sont structurantes et qui soutiennent leur autonomie (Grolnick & Pomerantz, 2009). Dans certaines situations, par exemple lorsqu’un enfant enfreint une règle, il peut toutefois sembler difficile pour les parents d’adopter des stratégies parentales qui allient ces deux dimensions. Qui plus est, peu d’études se sont penchées sur la façon dont les parents peuvent renforcer la structure tout en tenant simultanément compte des besoins et de l’individualité des enfants. L’objectif de cette thèse est d’évaluer l’impact de trois stratégies visant à renforcer les règles (répéter la règle, donner une punition ou avoir recours à une conséquence logique) variant quant à leurs niveaux de structure et de soutien à l’autonomie, et de vérifier leurs effets lorsqu’elles sont employées au sein d’un climat interpersonnel soutenant l’autonomie ou d’un climat interpersonnel contrôlant. Le premier article s’intéresse à l’impact conjoint des stratégies visant à renforcer les règles et du climat interpersonnel sur des indicateurs de conformité et d’intériorisation rapportés par 221 enfants et leurs mères. Les résultats montrent que les mères considèrent les conséquences logiques utilisées dans un climat qui soutient l’autonomie comme étant les pratiques les plus efficaces et les plus acceptables (effet interactif). Les enfants pensent aussi qu’un climat interpersonnel qui soutient l’autonomie est plus efficace et plus acceptable qu’un climat interpersonnel contrôlant. De plus, les résultats suggèrent que les enfants considèrent les conséquences logiques comme des pratiques aussi efficaces, mais plus acceptables que les punitions. Le fait de répéter la règle est jugé comme étant acceptable, mais peu efficace comparativement aux autres stratégies. Pour les enfants, les résultats montrent qu’il n’y a pas d’interaction entre les stratégies visant à renforcer les règles et le climat interpersonnel. Le second article vise à documenter les réactions émotionnelles potentielles des mêmes enfants (N = 221) face aux trois stratégies visant à renforcer les règles et aux climats interpersonnels. Quatre émotions déterminantes dans le processus d’intériorisation sont étudiées, soit la colère, la tristesse, la culpabilité et la honte. Les résultats montrent d’abord qu’un climat interpersonnel contrôlant amènerait les enfants à vivre plus de colère, de tristesse et de honte qu’un climat soutenant l’autonomie. Par contre, les enfants rapportent autant de culpabilité au sein des deux climats interpersonnels. Les résultats suggèrent également que les punitions susciteraient plus de tristesse, de culpabilité et de colère que les conséquences logiques, que les conséquences logiques feraient vivre aux enfants plus de tristesse et de culpabilité que répéter la règle et que les punitions amèneraient les enfants à vivre davantage de honte que répéter la règle. Finalement, les résultats suggèrent que les effets des stratégies visant à renforcer les règles et du climat interpersonnel sont additifs; il n’y a pas d’interaction entre ces deux facteurs. Les contributions théoriques de cette thèse à la documentation sur les pratiques parentales et le développement des enfants, de même que ses implications pratiques pour les parents dans la socialisation des enfants sont discutées.
Resumo:
Rapport de stage présenté à la Faculté des arts et des sciences en vue de l’obtention du grade de Maîtrise en criminologie option analyse
Resumo:
Problèmes d'approvisionnement et de consommation d'énergie, de démographie et d’urbanisation, la conservation du patrimoine bâti se trouve, en ce début de 21e siècle, face à de nombreux défis. Cela d'autant plus que la façon de percevoir le patrimoine bâti a considérablement évolué depuis le début du 20e siècle (chapitre 1) changeant ainsi les raisons qui mènent à l'appropriation d'un bâtiment patrimonial. Face à l'importance accordée aujourd'hui à l'énergie en général et plus particulièrement à celle consommée par les bâtiments (chapitre 2), comment les enjeux liés à la conservation patrimoniale et ceux liés à l'énergie - via son utilisation et sa production - se confrontent-ils ? Si selon les principes du développement durable (chapitre 3) la conservation du patrimoine bâti associée à une gestion efficace de ses besoins énergétiques semble apparaître comme une évidence, qu’en est-il dans la pratique ? Comment les professionnels du patrimoine bâti intègrent-ils les aspects de l'énergie consommée par les bâtiments ? Comment envisagent-ils l'installation et l'utilisation d'énergies renouvelables dans les bâtiments patrimoniaux ? Afin de trouver des réponses issues de la réalité de la pratique patrimoniale québécoise, ce mémoire - en se limitant à des professionnels avec une formation d'architecte (chapitre 4) - cherche à évaluer, d'une part, dans quelle mesure les chartes et lois appliquées au Québec considèrent les questions énergétiques (chapitre 5) et, d'autre part, à définir l'état d'esprit avec lequel les professionnels de la conservation du patrimoine bâti au Québec approchent, dans leur pratique, les questions liées à l'énergie consommée ainsi que l'utilisation d'énergies renouvelables (chapitre 6).
Resumo:
RÉSUMÉ - Les images satellitales multispectrales, notamment celles à haute résolution spatiale (plus fine que 30 m au sol), représentent une source d’information inestimable pour la prise de décision dans divers domaines liés à la gestion des ressources naturelles, à la préservation de l’environnement ou à l’aménagement et la gestion des centres urbains. Les échelles d’étude peuvent aller du local (résolutions plus fines que 5 m) à des échelles régionales (résolutions plus grossières que 5 m). Ces images caractérisent la variation de la réflectance des objets dans le spectre qui est l’information clé pour un grand nombre d’applications de ces données. Or, les mesures des capteurs satellitaux sont aussi affectées par des facteurs « parasites » liés aux conditions d’éclairement et d’observation, à l’atmosphère, à la topographie et aux propriétés des capteurs. Deux questions nous ont préoccupé dans cette recherche. Quelle est la meilleure approche pour restituer les réflectances au sol à partir des valeurs numériques enregistrées par les capteurs tenant compte des ces facteurs parasites ? Cette restitution est-elle la condition sine qua non pour extraire une information fiable des images en fonction des problématiques propres aux différents domaines d’application des images (cartographie du territoire, monitoring de l’environnement, suivi des changements du paysage, inventaires des ressources, etc.) ? Les recherches effectuées les 30 dernières années ont abouti à une série de techniques de correction des données des effets des facteurs parasites dont certaines permettent de restituer les réflectances au sol. Plusieurs questions sont cependant encore en suspens et d’autres nécessitent des approfondissements afin, d’une part d’améliorer la précision des résultats et d’autre part, de rendre ces techniques plus versatiles en les adaptant à un plus large éventail de conditions d’acquisition des données. Nous pouvons en mentionner quelques unes : - Comment prendre en compte des caractéristiques atmosphériques (notamment des particules d’aérosol) adaptées à des conditions locales et régionales et ne pas se fier à des modèles par défaut qui indiquent des tendances spatiotemporelles à long terme mais s’ajustent mal à des observations instantanées et restreintes spatialement ? - Comment tenir compte des effets de « contamination » du signal provenant de l’objet visé par le capteur par les signaux provenant des objets environnant (effet d’adjacence) ? ce phénomène devient très important pour des images de résolution plus fine que 5 m; - Quels sont les effets des angles de visée des capteurs hors nadir qui sont de plus en plus présents puisqu’ils offrent une meilleure résolution temporelle et la possibilité d’obtenir des couples d’images stéréoscopiques ? - Comment augmenter l’efficacité des techniques de traitement et d’analyse automatique des images multispectrales à des terrains accidentés et montagneux tenant compte des effets multiples du relief topographique sur le signal capté à distance ? D’autre part, malgré les nombreuses démonstrations par des chercheurs que l’information extraite des images satellitales peut être altérée à cause des tous ces facteurs parasites, force est de constater aujourd’hui que les corrections radiométriques demeurent peu utilisées sur une base routinière tel qu’est le cas pour les corrections géométriques. Pour ces dernières, les logiciels commerciaux de télédétection possèdent des algorithmes versatiles, puissants et à la portée des utilisateurs. Les algorithmes des corrections radiométriques, lorsqu’ils sont proposés, demeurent des boîtes noires peu flexibles nécessitant la plupart de temps des utilisateurs experts en la matière. Les objectifs que nous nous sommes fixés dans cette recherche sont les suivants : 1) Développer un logiciel de restitution des réflectances au sol tenant compte des questions posées ci-haut. Ce logiciel devait être suffisamment modulaire pour pouvoir le bonifier, l’améliorer et l’adapter à diverses problématiques d’application d’images satellitales; et 2) Appliquer ce logiciel dans différents contextes (urbain, agricole, forestier) et analyser les résultats obtenus afin d’évaluer le gain en précision de l’information extraite par des images satellitales transformées en images des réflectances au sol et par conséquent la nécessité d’opérer ainsi peu importe la problématique de l’application. Ainsi, à travers cette recherche, nous avons réalisé un outil de restitution de la réflectance au sol (la nouvelle version du logiciel REFLECT). Ce logiciel est basé sur la formulation (et les routines) du code 6S (Seconde Simulation du Signal Satellitaire dans le Spectre Solaire) et sur la méthode des cibles obscures pour l’estimation de l’épaisseur optique des aérosols (aerosol optical depth, AOD), qui est le facteur le plus difficile à corriger. Des améliorations substantielles ont été apportées aux modèles existants. Ces améliorations concernent essentiellement les propriétés des aérosols (intégration d’un modèle plus récent, amélioration de la recherche des cibles obscures pour l’estimation de l’AOD), la prise en compte de l’effet d’adjacence à l’aide d’un modèle de réflexion spéculaire, la prise en compte de la majorité des capteurs multispectraux à haute résolution (Landsat TM et ETM+, tous les HR de SPOT 1 à 5, EO-1 ALI et ASTER) et à très haute résolution (QuickBird et Ikonos) utilisés actuellement et la correction des effets topographiques l’aide d’un modèle qui sépare les composantes directe et diffuse du rayonnement solaire et qui s’adapte également à la canopée forestière. Les travaux de validation ont montré que la restitution de la réflectance au sol par REFLECT se fait avec une précision de l’ordre de ±0.01 unités de réflectance (pour les bandes spectrales du visible, PIR et MIR), même dans le cas d’une surface à topographie variable. Ce logiciel a permis de montrer, à travers des simulations de réflectances apparentes à quel point les facteurs parasites influant les valeurs numériques des images pouvaient modifier le signal utile qui est la réflectance au sol (erreurs de 10 à plus de 50%). REFLECT a également été utilisé pour voir l’importance de l’utilisation des réflectances au sol plutôt que les valeurs numériques brutes pour diverses applications courantes de la télédétection dans les domaines des classifications, du suivi des changements, de l’agriculture et de la foresterie. Dans la majorité des applications (suivi des changements par images multi-dates, utilisation d’indices de végétation, estimation de paramètres biophysiques, …), la correction des images est une opération cruciale pour obtenir des résultats fiables. D’un point de vue informatique, le logiciel REFLECT se présente comme une série de menus simples d’utilisation correspondant aux différentes étapes de saisie des intrants de la scène, calcul des transmittances gazeuses, estimation de l’AOD par la méthode des cibles obscures et enfin, l’application des corrections radiométriques à l’image, notamment par l’option rapide qui permet de traiter une image de 5000 par 5000 pixels en 15 minutes environ. Cette recherche ouvre une série de pistes pour d’autres améliorations des modèles et méthodes liés au domaine des corrections radiométriques, notamment en ce qui concerne l’intégration de la FDRB (fonction de distribution de la réflectance bidirectionnelle) dans la formulation, la prise en compte des nuages translucides à l’aide de la modélisation de la diffusion non sélective et l’automatisation de la méthode des pentes équivalentes proposée pour les corrections topographiques.
Resumo:
Cette thèse constitue à la fois un apport de nature clinique et technologique dans l’approche diagnostique du glaucome. Plus précisément, nous nous proposons d’étudier une nouvelle façon de détecter le glaucome par la mesure de l’asymétrie du rapport de la surface de l’anneau neurorétinien et de la surface de la papille ou du disque optique ou rim to disc area asymmetry ratio (RADAAR). Pour atteindre cet objectif, nous avons recours à une base de données composée d’une population subdivisée en 4 différents groupes de diagnostic (normal, glaucome possible, glaucome probable et glaucome définitif). Les mesures du RADAAR sont calculées de différentes façons à partir des paramètres stéréométriques de la tête du nerf optique des sujets, produits par la microscopie confocale à balayage laser (Heidelberg Retina Tomograph (HRT) (Heidelberg Engineering, Germany)). Nous procédons à une analyse de données grâce au logiciel SPSS où nous mettons en exergue la distribution du RADAAR dans les différentes populations, sa validité et son utilité dans le dépistage du glaucome. Nous enrôlons donc 523 sujets dans cette étude avec 82 sujets atteints de glaucome définitif. La moyenne d’âge est de 62 ans. Il y a plus de femmes que d’hommes et plus de Caucasiens que d’Africains Caribéens. Nous trouvons que la distribution de la mesure du RADAAR est différente des sujets d’un groupe de diagnostic à l’autre. En termes de performance, la sensibilité de la mesure du RADAAR est très basse c'est-à-dire que sa capacité de détecter la maladie est basse. En revanche la mesure du RADAAR est plus spécifique c'est-à-dire que sa capacité d’identifier les sujets exempts de la maladie est plus grande. Elle tendrait à être aussi plus performante chez les Africains Caribéens que chez les Caucasiens. De même, elle serait plus sensible chez les hommes que chez les femmes. La mesure du RADAAR est utile si on l’associe à une autre méthode de diagnostic comme l’analyse de Régression de Moorfields (MRA) incluse dans le logiciel du HRT3 spécialement lors de la détection du glaucome dans la population à haut risque. En définitive, nous déterminons que la mesure du RADAAR se veut un outil d’aide au diagnostic. Elle est particulièrement intéressante dans le contexte de dépistage de glaucome.
Resumo:
L'entraînement par intervalles à haute intensité est plus efficace que l'entraînement continu d’intensité modérée pour améliorer la consommation maximale d’oxygène (VO2max) et le profil métabolique des patients coronariens. Cependant, il n’y a pas de publications pour appuyer la prescription d’un type d’exercice intermittent (HIIE) spécifique dans cette population. Nous avons donc comparé les réponses aiguës cardio-pulmonaires de quatre sessions différentes d’exercice intermittent dans le but d’identifier l’exercice optimal chez les patients coronariens. De manière randomisée, les sujets participaient aux sessions d’HIIE, toutes avec des phases d’exercice à 100% de la puissance maximale aérobie (PMA), mais qui variaient selon la durée des phases d’exercice et de récupération (15s ou 1 min) et la nature de la récupération (0% de la PMA ou 50% de la PMA). Chaque session était réalisée sous forme de temps limite et l’exercice était interrompu après 35 minutes. En considérant l’effort perçu, le confort du patient et le temps passé au-dessus de 80% de VO2max, nous avons trouvé que l’exercice optimal consistait à alterner des courtes phases d’exercice de 15s à 100% de la PMA avec des phases de 15s de récupération passive. Ensuite, nous avons comparé les réponses physiologiques de l’HIIE optimisé avec un exercice continu d’intensité modérée (MICE) iso-calorique chez des patients coronariens. En considérant les réponses physiologiques, l’aspect sécuritaire (aucune élévation de Troponin T) et l’effort perçu, le protocole HIIE est apparu mieux toléré et plus efficace chez ces coronariens. Finalement, une simple session d’HIIE n’induit pas d’effets délétères sur la paroi vasculaire, comme démontré avec l’analyse des microparticules endothéliales. En conclusion, l’exercice intermittent à haute intensité est un mode d'entraînement prometteur pour les patients coronariens stables qui devrait faire l’objet d’autres études expérimentales en particulier pour les patients coronariens ischémiques.
Resumo:
Bien que les champignons soient régulièrement utilisés comme modèle d'étude des systèmes eucaryotes, leurs relations phylogénétiques soulèvent encore des questions controversées. Parmi celles-ci, la classification des zygomycètes reste inconsistante. Ils sont potentiellement paraphylétiques, i.e. regroupent de lignées fongiques non directement affiliées. La position phylogénétique du genre Schizosaccharomyces est aussi controversée: appartient-il aux Taphrinomycotina (précédemment connus comme archiascomycetes) comme prédit par l'analyse de gènes nucléaires, ou est-il plutôt relié aux Saccharomycotina (levures bourgeonnantes) tel que le suggère la phylogénie mitochondriale? Une autre question concerne la position phylogénétique des nucléariides, un groupe d'eucaryotes amiboïdes que l'on suppose étroitement relié aux champignons. Des analyses multi-gènes réalisées antérieurement n'ont pu conclure, étant donné le choix d'un nombre réduit de taxons et l'utilisation de six gènes nucléaires seulement. Nous avons abordé ces questions par le biais d'inférences phylogénétiques et tests statistiques appliqués à des assemblages de données phylogénomiques nucléaires et mitochondriales. D'après nos résultats, les zygomycètes sont paraphylétiques (Chapitre 2) bien que le signal phylogénétique issu du jeu de données mitochondriales disponibles est insuffisant pour résoudre l'ordre de cet embranchement avec une confiance statistique significative. Dans le Chapitre 3, nous montrons à l'aide d'un jeu de données nucléaires important (plus de cent protéines) et avec supports statistiques concluants, que le genre Schizosaccharomyces appartient aux Taphrinomycotina. De plus, nous démontrons que le regroupement conflictuel des Schizosaccharomyces avec les Saccharomycotina, venant des données mitochondriales, est le résultat d'un type d'erreur phylogénétique connu: l'attraction des longues branches (ALB), un artéfact menant au regroupement d'espèces dont le taux d'évolution rapide n'est pas représentatif de leur véritable position dans l'arbre phylogénétique. Dans le Chapitre 4, en utilisant encore un important jeu de données nucléaires, nous démontrons avec support statistique significatif que les nucleariides constituent le groupe lié de plus près aux champignons. Nous confirmons aussi la paraphylie des zygomycètes traditionnels tel que suggéré précédemment, avec support statistique significatif, bien que ne pouvant placer tous les membres du groupe avec confiance. Nos résultats remettent en cause des aspects d'une récente reclassification taxonomique des zygomycètes et de leurs voisins, les chytridiomycètes. Contrer ou minimiser les artéfacts phylogénétiques telle l'attraction des longues branches (ALB) constitue une question récurrente majeure. Dans ce sens, nous avons développé une nouvelle méthode (Chapitre 5) qui identifie et élimine dans une séquence les sites présentant une grande variation du taux d'évolution (sites fortement hétérotaches - sites HH); ces sites sont connus comme contribuant significativement au phénomène d'ALB. Notre méthode est basée sur un test de rapport de vraisemblance (likelihood ratio test, LRT). Deux jeux de données publiés précédemment sont utilisés pour démontrer que le retrait graduel des sites HH chez les espèces à évolution accélérée (sensibles à l'ALB) augmente significativement le support pour la topologie « vraie » attendue, et ce, de façon plus efficace comparée à d'autres méthodes publiées de retrait de sites de séquences. Néanmoins, et de façon générale, la manipulation de données préalable à l'analyse est loin d’être idéale. Les développements futurs devront viser l'intégration de l'identification et la pondération des sites HH au processus d'inférence phylogénétique lui-même.
Resumo:
Réalisé en collaboration avec l'équipe de l'Unité de jour de diabète de l'Hôtel-Dieu du CHUM: Hortensia Mircescu M.D., Françoise Desrochers, Michelle Messier et Stéphanie Chanel Lefort.
Resumo:
Les antibiotiques aminoglycosidiques sont des agents bactéricides de grande valeur et d’efficacité à large spectre contre les pathogènes Gram-positifs et Gram-négatifs, dont plusieurs membres naturels et semisynthétiques sont importants dans l’histoire clinique depuis 1950. Des travaux crystallographiques sur le ribosome, récompensés par le prix Nobel, ont démontré comment leurs diverses structures polyaminées sont adaptées pour cibler une hélice d’ARN dans le centre de codage de la sous-unité 30S du ribosome bactérien. Leur interférence avec l’affinité et la cinétique des étapes de sélection et vérification des tARN induit la synthèse de protéines à basse fidélité, et l’inhibition de la translocation, établissant un cercle vicieux d’accumulation d’antibiotique et de stress sur la membrane. En réponse à ces pressions, les pathogènes bactériens ont évolué et disséminé une panoplie de mécanismes de résistance enzymatiques et d’expulsion : tels que les N acétyltransférases, les O phosphotransférases et les O nucleotidyltransférases qui ciblent les groupements hydroxyle et amino sur le coeur des aminoglycosides; des méthyl-transférases, qui ciblent le site de liaison ribosomale; et des pompes d’expulsion actives pour l’élimination sélective des aminoglycosides, qui sont utilisés par les souches Gram-négatives. Les pathogènes les plus problématiques, qui présentent aujourd’hui une forte résilience envers la majorité des classes d’antibiotiques sur le bord de la pan-résistance ont été nommés des bactéries ESKAPE, une mnémonique pour Enterococcus faecium, Staphylococcus aureus, Klebsiella pneumoniae, Acinetobacter baumannii, Pseudomonas aeruginosa et Enterobacteriaceae. La distribution globale des souches avec des mécanismes de résistance envers les standards cliniques aminoglycosides, tels que la tobramycine, l’amikacine et la gentamicine, est comprise entre 20 et 60% des isolées cliniques. Ainsi, les aminoglycosides du type 4,6-disubstitués-2-deoxystreptamine sont inadéquats comme thérapies anti-infectieuses à large spectre. Cependant, la famille des aminoglycosides 4,5-disubstitués, incluant la butirosine, la neomycine et la paromomycine, dont la structure plus complexe, pourrait constituter une alternative. Des collègues dans le groupe Hanessian et collaborateurs d’Achaogen Inc. ont démontré que certains analogues de la paraomomycine et neomycine, modifiés par désoxygénation sur les positions 3’ et 4’, et par substitution avec la chaîne N1-α-hydroxy-γ-aminobutyramide (HABA) provenant de la butirosine, pourrait produire des antibiotiques très prometteurs. Le Chapitre 4 de cette dissertation présente la conception et le développement d’une stratégie semi-synthétique pour produire des nouveaux aminoglycosides améliorés du type 4,5 disubstitués, inspiré par des modifications biosynthétiques de la sisomicine, qui frustrent les mécanismes de résistance bactérienne distribuées globalement. Cette voie de synthèse dépend d’une réaction d’hydrogénolyse de type Tsuji catalysée par palladium, d’abord développée sur des modèles monosaccharides puis subséquemment appliquée pour générer un ensemble d’aminoglycosides hybrides entre la neomycine et la sisomicine. Les études structure-activité des divers analogues de cette nouvelle classe ont été évaluées sur une gamme de 26 souches bactériennes exprimant des mécanismes de résistance enzymatique et d’expulsion qui englobe l’ensemble des pathogènes ESKAPE. Deux des antibiotiques hybrides ont une couverture antibacterienne excellente, et cette étude a mis en évidence des candidats prometteurs pour le développement préclinique. La thérapie avec les antibiotiques aminoglycosidiques est toujours associée à une probabilité de complications néphrotoxiques. Le potentiel de toxicité de chaque aminoglycoside peut être largement corrélé avec le nombre de groupements amino et de désoxygénations. Une hypothèse de longue date dans le domaine indique que les interactions principales sont effectuées par des sels des groupements ammonium, donc l’ajustement des paramètres de pKa pourrait provoquer une dissociation plus rapide avec leurs cibles, une clairance plus efficace et globalement des analogues moins néphrotoxiques. Le Chapitre 5 de cette dissertation présente la conception et la synthèse asymétrique de chaînes N1 HABA β substitutées par mono- et bis-fluoration. Des chaînes qui possèdent des γ-N pKa dans l’intervalle entre 10 et 7.5 ont été appliquées sur une neomycine tétra-désoxygénée pour produire des antibiotiques avancés. Malgré la réduction considérable du γ N pKa, le large spectre bactéricide n’a pas été significativement affecté pour les analogues fluorés isosteriques. De plus, des études structure-toxicité évaluées avec une analyse d’apoptose propriétaire d’Achaogen ont démontré que la nouvelle chaîne β,β difluoro-N1-HABA est moins nocive sur un modèle de cellules de rein humain HK2 et elle est prometteuse pour le développement d’antibiotiques du type neomycine avec des propriétés thérapeutiques améliorées. Le chapitre final de cette dissertation présente la proposition et validation d’une synthèse biomimétique par assemblage spontané du aminoglycoside 66-40C, un dimère C2 symétrique bis-imine macrocyclique à 16 membres. La structure proposée du macrocycle a été affinée par spectroscopie nucléaire à un système trans,trans-bis-azadiène anti-parallèle. Des calculs indiquent que l’effet anomérique de la liaison α glycosidique entre les anneaux A et B fournit la pré-organisation pour le monomère 6’ aldéhydo sisomicine et favorise le produit macrocyclique observé. L’assemblage spontané dans l’eau a été étudié par la dimérisation de trois divers analogues et par des expériences d’entre croisement qui ont démontré la généralité et la stabilité du motif macrocyclique de l'aminoglycoside 66-40C.
Resumo:
L’immunothérapie tumorale à médiation cellulaire est un traitement qui utilise le système immunitaire des patients afin d’induire une réponse des lymphocytes T CD8+ (T CD8+) contre la tumeur. Cette réponse est produite suite à la reconnaissance des antigènes par les T CD8+. Ces cibles sont appelées antigènes tumoraux (TAA) et définies comme des protéines exprimées par les cellules cancéreuses mais absentes des tissus normaux. Par une approche bio-informatique, notre laboratoire a identifié Dickkopf-1 (DKK1), une protéine inhibitrice de la voie de Wnt, comme un TAA potentiel. Une immunothérapie à médiation cellulaire efficace requiert l’identification de TAA candidats pertinents. Le traitement de patients par immunothérapie pourrait également être améliorées par l’augmentation de la puissance d’action anti-tumorale ainsi que la persistante des T CD8+ spécifiques aux TAA. Ce projet de doctorat se divise en deux parties : 1- La caractérisation de l’expression de DKK1 dans les cancers communs et la détermination de son immunogénicité afin de valider sa candidature comme TAA. 2- La reprogrammation des T CD8+, de patients atteints d’un cancer commun, vers un phénotype moins différentié afin d’augmenter leur potentiel anti-tumoral et leur persistance. Dans le premier objectif, nous avons caractérisé l’expression de DKK1 dans le cancer du sein et dans d’autres cancers communs. Le profil d’expression de DKK1 a été étudié par RT-PCR et par ELISA dans plusieurs lignées cellulaires de cancer et dans les tissus normaux. L’expression de DKK1 a aussi été étudiée dans des échantillons cliniques provenant de cancers du sein, du poumon et du rein. Trente pourcents (30%) des tumeurs provenant d’un cancer du sein exprimaient DKK1. La moitié des tumeurs DKK1(+) était triple négative, donc pas de récepteurs d’œstrogène et de progestérone et était Her-2/neu(-) (ces patientes ont des possibilités de traitements très restreintes). De plus, 50% des échantillons cliniques de tumeurs du poumon et 30% des tumeurs de rein exprimaient DKK1. Les observations effectuées dans le cancer du poumon ont été, par la suite, corroborées par d'autres groupes qui ont montré une corrélation entre l'expression de DKK1 et un mauvais pronostic. Après avoir confirmée l’expression de DKK1 dans les cancers communs, justifiant ainsi sa candidature comme TAA, nous avons évalué l’immunogénicité de DKK1. Pour ce faire, nous avons effectué des stimulations in vitro de cellules mononucléées du sang périphérique (PBMC) de patient(e)s atteint(e)s d’un cancer du sein ou du poumon avec des peptides dérivés de DKK1 pouvant être présentés par les complexes majeurs d’histocompatibilité (CMH) HLA-A*0201. Des clones de T CD8+ reconnaissant un peptide de DKK1 ont été identifiés et isolés. Par essai multiplex et cytométrie de flux intracellulaire, la polyfonctionnalité d’un ces clones T CD8+ spécifiques à DKK1 a été étudiée et a révélée un profil effecteur, renforçant ainsi la candidature de DKK1 comme TAA. Dans l’ensemble, les résultats obtenus dans cette première partie de thèse suggèrent une possible utilisation de DKK1 en immunothérapie contre les cancers communs, attribuable à son expression dans ces cancers et la possibilité de faire proliférer des T CD8+ effecteurs spécifiques à DKK1 à partir de sang de patients. Dans la seconde partie de cette thèse, je décrirai la manipulation in vitro des T CD8+ de patients atteints d’un cancer commun, afin d’augmenter la force et la durée de leurs fonctions anti-tumorales. Il a été démontré que des lymphocytes moins différentiés sont capables d’une réponse immunologique plus efficace et durable. Nous avons basé ce projet sur l’utilisation d’un inhibiteur pharmacologique de la GSK-3, pour activer de la voie de Wnt chez les T CD8+ et ainsi leur conférer un phénotype moins différentié, partageant des caractéristiques de la cellule naïve et de la cellule mémoire. Des cultures de T CD8+, spécifiques à des antigènes viraux, en présence de l’inhibiteur ont permis d’augmenter la sécrétion d’interféron (IFN)- et leur activité cytotoxique. Ces résultats indiquent un effet de l’activation de la voie de Wnt sur la fonction des T CD8+. Ces observations sont rapportées pour la première fois chez les T CD8+ humains et suggèrent une nouvelle stratégie, applicables à l’immunothérapie du cancer, afin de prolonger la persistance des cellules ainsi que leur activité anti-tumorale. En conclusion, ces travaux de recherche ont mené à la réalisation d’une étape très importante dans la validation de la candidature de DKK1 comme TAA pour les cancers communs, soit la démonstration de son expression dans ces cancers et son absence dans les tissus normaux dérivés d’organes importants. Ces travaux ont également mené à la démonstration de l’immunogénicité de DKK1, par l’identification d’un peptide de DKK1 reconnu par les T CD8+. De plus, l’étude de la polyfonctionnalité des T CD8+ spécifiques à DKK1 a révélée un profil effecteur favorable pour l’obtention d’une réponse anti-tumorale efficace. Ces découvertes pourraient servir à l’élaboration d’une stratégie d’immunothérapie à médiation cellulaire pour les cancers communs. Pour sa part, l’étude phénotypique et fonctionnelle de la modulation de la voie de Wnt dans les T CD8+ a donné lieu à l’observation d’un phénotype encore jamais rapporté chez l’humain, conférant aux T CD8+ un aspect moins différentié avec des caractéristiques propre à un phénotype mémoire. Ces résultats sont pertinents dans l’amélioration de l’immunothérapie du cancer, passant par l’augmentation de la persistance des lymphocytes. En résumé, les résultats présentés dans cette thèse de doctorat fournissent des évidences indéniables quant à la validation de DKK1 comme TAA pour une immunothérapie à médiation cellulaire des cancers communs. Ces résultats fournissent également des preuves quant à la pertinence de la reprogrammation des T CD8+ par l’activation de la voie de la voie de Wnt, afin de générer des lymphocytes médiateurs plus efficaces pour ce type de thérapie.