650 resultados para Restauration rapide
Resumo:
RÉSUMÉ - Les images satellitales multispectrales, notamment celles à haute résolution spatiale (plus fine que 30 m au sol), représentent une source d’information inestimable pour la prise de décision dans divers domaines liés à la gestion des ressources naturelles, à la préservation de l’environnement ou à l’aménagement et la gestion des centres urbains. Les échelles d’étude peuvent aller du local (résolutions plus fines que 5 m) à des échelles régionales (résolutions plus grossières que 5 m). Ces images caractérisent la variation de la réflectance des objets dans le spectre qui est l’information clé pour un grand nombre d’applications de ces données. Or, les mesures des capteurs satellitaux sont aussi affectées par des facteurs « parasites » liés aux conditions d’éclairement et d’observation, à l’atmosphère, à la topographie et aux propriétés des capteurs. Deux questions nous ont préoccupé dans cette recherche. Quelle est la meilleure approche pour restituer les réflectances au sol à partir des valeurs numériques enregistrées par les capteurs tenant compte des ces facteurs parasites ? Cette restitution est-elle la condition sine qua non pour extraire une information fiable des images en fonction des problématiques propres aux différents domaines d’application des images (cartographie du territoire, monitoring de l’environnement, suivi des changements du paysage, inventaires des ressources, etc.) ? Les recherches effectuées les 30 dernières années ont abouti à une série de techniques de correction des données des effets des facteurs parasites dont certaines permettent de restituer les réflectances au sol. Plusieurs questions sont cependant encore en suspens et d’autres nécessitent des approfondissements afin, d’une part d’améliorer la précision des résultats et d’autre part, de rendre ces techniques plus versatiles en les adaptant à un plus large éventail de conditions d’acquisition des données. Nous pouvons en mentionner quelques unes : - Comment prendre en compte des caractéristiques atmosphériques (notamment des particules d’aérosol) adaptées à des conditions locales et régionales et ne pas se fier à des modèles par défaut qui indiquent des tendances spatiotemporelles à long terme mais s’ajustent mal à des observations instantanées et restreintes spatialement ? - Comment tenir compte des effets de « contamination » du signal provenant de l’objet visé par le capteur par les signaux provenant des objets environnant (effet d’adjacence) ? ce phénomène devient très important pour des images de résolution plus fine que 5 m; - Quels sont les effets des angles de visée des capteurs hors nadir qui sont de plus en plus présents puisqu’ils offrent une meilleure résolution temporelle et la possibilité d’obtenir des couples d’images stéréoscopiques ? - Comment augmenter l’efficacité des techniques de traitement et d’analyse automatique des images multispectrales à des terrains accidentés et montagneux tenant compte des effets multiples du relief topographique sur le signal capté à distance ? D’autre part, malgré les nombreuses démonstrations par des chercheurs que l’information extraite des images satellitales peut être altérée à cause des tous ces facteurs parasites, force est de constater aujourd’hui que les corrections radiométriques demeurent peu utilisées sur une base routinière tel qu’est le cas pour les corrections géométriques. Pour ces dernières, les logiciels commerciaux de télédétection possèdent des algorithmes versatiles, puissants et à la portée des utilisateurs. Les algorithmes des corrections radiométriques, lorsqu’ils sont proposés, demeurent des boîtes noires peu flexibles nécessitant la plupart de temps des utilisateurs experts en la matière. Les objectifs que nous nous sommes fixés dans cette recherche sont les suivants : 1) Développer un logiciel de restitution des réflectances au sol tenant compte des questions posées ci-haut. Ce logiciel devait être suffisamment modulaire pour pouvoir le bonifier, l’améliorer et l’adapter à diverses problématiques d’application d’images satellitales; et 2) Appliquer ce logiciel dans différents contextes (urbain, agricole, forestier) et analyser les résultats obtenus afin d’évaluer le gain en précision de l’information extraite par des images satellitales transformées en images des réflectances au sol et par conséquent la nécessité d’opérer ainsi peu importe la problématique de l’application. Ainsi, à travers cette recherche, nous avons réalisé un outil de restitution de la réflectance au sol (la nouvelle version du logiciel REFLECT). Ce logiciel est basé sur la formulation (et les routines) du code 6S (Seconde Simulation du Signal Satellitaire dans le Spectre Solaire) et sur la méthode des cibles obscures pour l’estimation de l’épaisseur optique des aérosols (aerosol optical depth, AOD), qui est le facteur le plus difficile à corriger. Des améliorations substantielles ont été apportées aux modèles existants. Ces améliorations concernent essentiellement les propriétés des aérosols (intégration d’un modèle plus récent, amélioration de la recherche des cibles obscures pour l’estimation de l’AOD), la prise en compte de l’effet d’adjacence à l’aide d’un modèle de réflexion spéculaire, la prise en compte de la majorité des capteurs multispectraux à haute résolution (Landsat TM et ETM+, tous les HR de SPOT 1 à 5, EO-1 ALI et ASTER) et à très haute résolution (QuickBird et Ikonos) utilisés actuellement et la correction des effets topographiques l’aide d’un modèle qui sépare les composantes directe et diffuse du rayonnement solaire et qui s’adapte également à la canopée forestière. Les travaux de validation ont montré que la restitution de la réflectance au sol par REFLECT se fait avec une précision de l’ordre de ±0.01 unités de réflectance (pour les bandes spectrales du visible, PIR et MIR), même dans le cas d’une surface à topographie variable. Ce logiciel a permis de montrer, à travers des simulations de réflectances apparentes à quel point les facteurs parasites influant les valeurs numériques des images pouvaient modifier le signal utile qui est la réflectance au sol (erreurs de 10 à plus de 50%). REFLECT a également été utilisé pour voir l’importance de l’utilisation des réflectances au sol plutôt que les valeurs numériques brutes pour diverses applications courantes de la télédétection dans les domaines des classifications, du suivi des changements, de l’agriculture et de la foresterie. Dans la majorité des applications (suivi des changements par images multi-dates, utilisation d’indices de végétation, estimation de paramètres biophysiques, …), la correction des images est une opération cruciale pour obtenir des résultats fiables. D’un point de vue informatique, le logiciel REFLECT se présente comme une série de menus simples d’utilisation correspondant aux différentes étapes de saisie des intrants de la scène, calcul des transmittances gazeuses, estimation de l’AOD par la méthode des cibles obscures et enfin, l’application des corrections radiométriques à l’image, notamment par l’option rapide qui permet de traiter une image de 5000 par 5000 pixels en 15 minutes environ. Cette recherche ouvre une série de pistes pour d’autres améliorations des modèles et méthodes liés au domaine des corrections radiométriques, notamment en ce qui concerne l’intégration de la FDRB (fonction de distribution de la réflectance bidirectionnelle) dans la formulation, la prise en compte des nuages translucides à l’aide de la modélisation de la diffusion non sélective et l’automatisation de la méthode des pentes équivalentes proposée pour les corrections topographiques.
Resumo:
Le cancer est la principale cause de mortalité au Canada. Les taxanes (e.g. le paclitaxel et le docétaxel (DCTX)) constituent des remèdes efficaces contre une série de tumeurs solides telles que les cancers du sein, du poumon et de l’ovaire. Par ailleurs, des acides nucléiques (e.g. les oligonucléotides antisens (AON) ou les petits ARN interférents (siRNAs)), capables de supprimer sélectivement certains oncogènes impliqués dans la carcinogénèse, sont actuellement étudiés pour traiter une large gamme de cancers. Bien que l’activité des taxanes et des acides nucléiques soit bien établie sur des modèles humains et/ou animaux, plusieurs aspects physico-chimiques et cliniques restent encore à améliorer. Leur solubilité limitée (pour les taxanes), leur dégradation rapide dans le sang (pour les acides nucléiques), leur élimination précoce, leur absence de sélectivité et leur toxicité envers les tissus sains sont les principaux facteurs limitant leur efficacité. C’est pourquoi de nombreux efforts ont porté sur l’élaboration de systèmes de vectorisation ciblés à base de polymères, dans le but de surmonter les problèmes associés aux thérapies actuelles. Dans cette thèse, deux types de micelles polymères ont été développés pour la vectorisation de DCTX et d’acides nucléiques. D’une part, des micelles de poly(oxyde d’éthylène)-bloc-poly(oxyde de butylène/styrène) ont été étudiées pour la première fois pour solubiliser le DCTX et le protéger de l’hydrolyse. Ces polymères se sont révélés moins toxiques que le surfactant utilisé commercialement pour solubiliser le DCTX (i.e. polysorbate 80) et ont permis une libération prolongée du principe actif. D’autre part, deux systèmes différents de micelles polyioniques (PICM) ont été mis au point pour la vectorisation d’acides nucléiques. De nouveaux conjugués de poly(éthylène glycol) (PEG)-oligonucléotide ont été proposés pour la protection et la libération contrôlée d’AON. Lorsque ces conjugués ont été formulés avec des dendrimères de poly(amidoamine) (PAMAM), des complexes de taille homogène ont été obtenus. Ces PICM ont permis de prolonger la libération de l’AON et de le protéger efficacement contre la dégradation enzymatique. De plus, des polymères de poly(oxyde d’éthylène)-bloc-poly(méthacrylate de propyle-co-acide méthacrylique) ont été incorporés afin de conférer des propriétés acido-sensibles aux PICM. Dans ces micelles, formées de ce dernier polymère formulé avec le dendrimère PAMAM, des oligonucléotides (AON et siRNA) ciblant l’oncogène Bcl-2 ont été encapsulés. L’internalisation cellulaire fut assurée par un fragment d’anticorps monoclonal (Fab’) situé à l’extrémité de la couronne de PEG. Après l’internalisation cellulaire et la protonation des unités d’acide méthacrylique sous l’effet de l’acidification des endosomes, les micelles se sont affranchies de leur couronne. Elles ont ainsi exposé leur cœur composé d’acide nucléique et de dendrimère PAMAM, qui possède une charge positive et des propriétés endosomolytiques. En effet, ces PICM acido-sensibles ciblées ont permis d’augmenter la biodisponibilité des acides nucléiques vectorisés et se sont avérées plus efficaces pour silencer l’oncoprotéine Bcl-2 que les micelles non ciblées ou que le dendrimère de PAMAM commercial seul. Finalement, les nanovecteurs polymères présentés dans cette thèse se révèlent être des systèmes prometteurs pour la vectorisation des anticancéreux et des acides nucléiques.
Resumo:
La 1-β-D-arabinofuranosylcytosine (ara-C) demeure l’agent anticancéreux principalement utilisé dans le traitement de la leucémie myéloblastique aiguë (LMA), malgré sa dégradation et son élimination rapide après une administration parentérale. Son encapsulation dans des vecteurs pharmaceutiques, majoritairement des liposomes, a permis de surmonter ces inconvénients. L’objectif général de ce projet de doctorat était de développer deux systèmes à libération prolongée, à base de phospholipides, de cholestérol et de poly(éthylène glycol) (PEG) afin d’encapsuler l’ara-C et ultimement, d’améliorer son efficacité dans le traitement de la LMA. Des Sphérulites® (vésicules multilamellaires d’un type particulier) ont d’abord été étudiées pour leur forte capacité d’encapsulation, due à leur mode de préparation. Par la suite, une formulation liposomale capable, d’une part de cibler spécifiquement les cellules leucémiques et, d’autre part, de promouvoir la libération intracellulaire de l’ara-C grâce à sa sensibilité au pH, a été mise au point. Les deux formulations se devaient d’avoir un faible diamètre, une stabilité en présence de fluides biologiques et des temps de circulation prolongés chez l’animal. Une préparation de Sphérulites®, composée de Phospholipon 90G, de Solutol HS15 et de cholestérol, a permis d’obtenir des vésicules de 300 nm de diamètre. Un dérivé lipidique de PEG a pu être fixé à leur surface, sans modifier la disposition concentrique des lamelles, ni changer leur stabilité. Les Sphérulites® PEGylées ont été chargées d’ara-C et injectées chez le rat par la voie intraveineuse. Elles ont démontré des temps de circulation significativement prolongés comparativement aux Sphérulites® sans PEG. Cependant, l’ara-C s’est retrouvée éliminée de la circulation sanguine très rapidement, révélant une libération précoce du principe actif à partir de ces vésicules. Les liposomes sensibles au pH (~150 nm) ont été obtenus suite à l’insertion d’un copolymère à base de dioctadécyle, de N-isopropylacrylamide (NIPAM) et d’acide méthacrylique. L’anticorps anti-CD33, soit complet soit son fragment Fab’, a été fixé à la surface des liposomes afin de cibler les cellules leucémiques. Les essais in vitro ont démontré la spécificité de la formulation pour différentes cellules leucémiques (CD33+), sa stabilité en présence de protéines plasmatiques et la libération intracellulaire d’un marqueur fluorescent et de l’ara-C. Enfin, des études menées chez la souris saine et immunodéprimée inoculée de cellules HL60 ont montré que la formulation exposant le fragment Fab’ possédait un profil pharmacocinétique et une biodistribution semblables à ceux des liposomes contrôles non-ciblés. L’encapsulation de l’ara-C a permis d’améliorer grandement ses temps de circulation après une administration intraveineuse. Cependant, bien que les immunoliposomes ont permis de prolonger la survie des souris leucémiques comparativement à l’ara-C libre, l’addition du polymère sensible au pH n’a pas permis d’apporter de réel avantage à la formulation lorsque administrée in vivo. Les résultats obtenus dans ce travail de thèse ont, dans un premier temps, mis en évidence que les Sphérulites® pourraient s’avérer utiles dans la vectorisation d’agents anticancéreux si leur capacité à retenir le principe actif in vivo était améliorée. Dans un second temps, les données présentées avec les immunoliposomes suggèrent qu’ils pourraient apporter un bénéfice notable dans le traitement de la LMA.
Resumo:
Cette recherche porte sur le financement public de l’enseignement supérieur au Pérou et ses impacts dans une perspective longitudinale couvant la période 1993-2003. Cette période est importante parce qu’elle a été témoin, dans ce pays, de changements majeurs aux plans du financement public et de la configuration du système d’enseignement supérieur. La recherche consiste principalement dans des analyses secondaires de données pertinentes publiées par des organismes nationaux et internationaux. Les analyses sont structurées à partir d’un schéma d’inputs et outputs. On considère comme inputs les ressources financières et les ressources humaines, lesquelles comprennent les professeurs et les étudiants, et comme outputs les taux de diplomation (efficacité interne) et la demande de diplômés par le marché du travail (efficacité externe). La théorie de la dépendance de ressources sert de cadre pour interpréter les rapports entre le financement public et ses incidences sur les réponses institutionnels et ses conséquences. Dans la période retenue, le financement du secteur public a décru de 32% en raison d’un désengagement progressif de l’État. Une conséquence majeure de la diminution du financement public a été la croissance rapide du secteur privé de l’enseignement supérieur. En effet, alors qu’en 1993 il y avait 24 institutions privées d’enseignement supérieur, il y en avait, en 2003, 46 institutions. La baisse du financement public et la croissance du secteur privé d’enseignement supérieur ont eu des incidences sur la sélectivité des étudiants, sur le statut des professeurs, sur l’implication des universités en recherche et sur les taux de diplomation. Le taux de sélectivité dans le secteur public a augmenté entre 1993 et 2003, alors que ce taux a diminué, dans la même période, dans le secteur privé. Ainsi, le secteur public répond à la diminution du financement en restreignant l’accès à l’enseignement supérieur. Le secteur privé, par contre, diminue sa sélectivité compensant ainsi l’augmentation de la sélectivité dans le secteur public et, par le fait même, augmente sa part de marché. Également, tant dans le secteur public que dans le secteur privé, les professeurs sont engagés principalement sur une base temporaire, ce qui se traduit, particulièrement dans le secteur privé, dans un moindre engagement institutionnel. Enfin, les universités publiques et privées du Pérou font peu de recherche, car elles favorisent, pour balancer leurs budgets, la consultation et les contrats au détriment de la recherche fondamentale. Paradoxalement, alors que, dans le secteur privé, les taux de sélectivité des étudiants diminuent, leurs taux de diplomation augmentent plus que dans le secteur public. Enfin, les formations avec plus d’étudiants inscrits, tant dans le secteur public que privé, sont les moins coûteuses en infrastructure et équipements. Dès lors, la pertinence de la production universitaire devient problématique. Cette recherche révèle que les organisations universitaires, face à un environnement où les ressources financières deviennent de plus en plus rares, développent des stratégies de survie qui peuvent avoir des incidences sur la qualité et la pertinence de l’enseignement supérieur.
Resumo:
Le diabète insipide néphrogénique (DIN) autosomal peut être causé par les mutations du gène codant pour le canal à eau aquaporine-2 (AQP2). Un modèle couramment utilisé pour l’étude des protéines membranaires telle l’AQP2 est l’expression hétérologue dans les ovocytes de Xenopus laevis. Malheureusement, les techniques déjà existantes de purification de membranes plasmiques sont soit trop longues, trop difficiles ou demandent trop de matériel, ne permettent pas l’analyse adéquate du ciblage des formes sauvage comme mutantes, un élément crucial de ce type d’étude. Nous avons donc dans un premier temps mis au point une technique rapide et efficace de purification de membranes plasmiques qui combine la digestion partielle de la membrane vitelline, sa polymérisation à la membrane plasmique suivi de centrifugations à basse vitesse pour récolter les membranes purifiées. Nous avons utilisé cette technique dans l’étude de deux nouveaux cas familiaux de patients hétérozygotes possédant les mutations V24A et R187C dans un cas et K228E et R187C dans le second cas. Pour chaque mutation, nous avons analysé autant les éléments de fonctionnalité que les paramètres d’expression des protéines mutantes. Les expériences de perméabilité membranaire démontrent que les ovocytes exprimant AQP2-V24A (Pf = 16.3 ± 3.5 x 10-4 cm/s, 10 ng) et AQP2- K228E (Pf = 19.9 ± 7.0 x 10-4 cm/s, 10 ng) ont des activités similaires à celle exprimant la forme native (Pf = 14.4 ± 5.5 x 10-4 cm/s, 1 ng), tandis que AQP2- R187C (Pf = 2.6 ± 0.6 x 10-4 cm/s, 10 ng) ne semble avoir aucune activité comme ce qui est observé chez les ovocytes non-injectés (Pf = 2.8 ± 1.0 x 10-4 cm/s). Les études de co-expression ont démontré un effet d’additivité lorsque AQP2-V24A et -K228E sont injectées avec la forme native et un effet s’apparentant à la dominance négative lorsque AQP2-R187C est injecté avec la forme native, avec AQP2-V24A ou avec –K228E. Les résultats obtenus par immunobuvardage représente bien ce qui a été démontré précédemment, on remarque la présence des mutations K228E, V24A et la forme sauvage à la membrane plasmique, contrairement à la mutation R187C. Cependant, lorsque les mutations sont exprimées dans des cellules mIMCD-3, il n’y a qu’une faible expression à la membrane de la forme –K228E et une absence totale des formes –V24A et –R187C à la membrane plasmique, contrairement à la forme native. Les résultats de nos études démontrent que tout dépendant du système d’expression les formes –K228E et –V24A peuvent être utiles dans l’étude des problèmes d’adressage à la membrane à l’aide de chaperonne chimique. De plus, la forme –R187C démontre des difficultés d’adressage qui devront être étudiées afin de mieux comprendre la synthèse des formes natives.
Resumo:
Au Canada et au Québec, au cours des années 2000, la migration des travailleurs qualifiés originaires d’Amérique du Sud a connu une croissance très rapide. Pourtant, ce flux migratoire et sa composante féminine ne semblent pas avoir fait l’objet d’une lecture sociologique. Ce travail vise à combler quelques lacunes dans ce domaine des connaissances, en examinant le processus d’intégration économique d’immigrantes d’origine sud-américaine arrivées durant cette décennie. L’étude comprend l’analyse de 16 cas de femmes originaires de divers pays d’Amérique du Sud qui ont un diplôme universitaire ou l’équivalent, qui avaient déjà une expérience de travail dans leur pays d’origine et qui possèdent une bonne maîtrise de la langue française. Les questions qui guident cette recherche dépassent l’aspect statistique ou sociodémographique d’un groupe non étudié dans le contexte canadien. Le but principal de ce mémoire consiste à examiner l’importance d’une variété de ressources culturelles et symboliques qui sont déployées tout au long du processus d’intégration socioéconomique par des immigrantes sud-américaines de la catégorie des « travailleurs qualifiés » dans le contexte montréalais. Dans ce but, l’étude analyse comment les ressources acquises dans la société d’origine ont des impacts sur le parcours professionnel de ces femmes, en leur permettant de définir des stratégies d’intégration sur le marché du travail dans la société réceptrice. L’analyse se déploie à partir de la problématisation des facteurs construits socioculturellement comme catégories de structuration et de hiérarchisation qui, selon le contexte, définissent la position sociale et qui, à travers l’expérience, expliquent la position situationnelle des immigrantes sud-américaines. L’accès, l’utilisation et la mobilisation des ressources pour définir des stratégies d’intégration socioprofessionnelle sont analysés à partir de quatre axes : l’expérience, la dimension intersubjective, le contexte institutionnel et organisationnel, et finalement, la dimension représentationnelle.
Resumo:
Il est reconnu que le benzène, le toluène, l’éthylbenzène et les isomères du xylène, composés organiques volatils (COVs) communément désignés BTEX, produisent des effets nocifs sur la santé humaine et sur les végétaux dépendamment de la durée et des niveaux d’exposition. Le benzène en particulier est classé cancérogène et une exposition à des concentrations supérieures à 64 g/m3 de benzène peut être fatale en 5–10 minutes. Par conséquent, la mesure en temps réel des BTEX dans l’air ambiant est essentielle pour détecter rapidement un danger associé à leur émission dans l’air et pour estimer les risques potentiels pour les êtres vivants et pour l’environnement. Dans cette thèse, une méthode d’analyse en temps réel des BTEX dans l’air ambiant a été développée et validée. La méthode est basée sur la technique d’échantillonnage direct de l’air couplée avec la spectrométrie de masse en tandem utilisant une source d’ionisation chimique à pression atmosphérique (APCI-MS/MS directe). La validation analytique a démontré la sensibilité (limite de détection LDM 1–2 μg/m3), la précision (coefficient de variation CV < 10%), l’exactitude (exactitude > 95%) et la sélectivité de la méthode. Des échantillons d’air ambiant provenant d’un site d’enfouissement de déchets industriels et de divers garages d’entretien automobile ont été analysés par la méthode développée. La comparaison des résultats avec ceux obtenus par la technique de chromatographie gazeuse on-line couplée avec un détecteur à ionisation de flamme (GC-FID) a donné des résultats similaires. La capacité de la méthode pour l’évaluation rapide des risques potentiels associés à une exposition aux BTEX a été prouvée à travers une étude de terrain avec analyse de risque pour la santé des travailleurs dans trois garages d’entretien automobile et par des expériences sous atmosphères simulées. Les concentrations mesurées dans l’air ambiant des garages étaient de 8,9–25 µg/m3 pour le benzène, 119–1156 µg/m3 pour le toluène, 9–70 µg/m3 pour l’éthylbenzène et 45–347 µg/m3 pour les xylènes. Une dose quotidienne environnementale totale entre 1,46 10-3 et 2,52 10-3 mg/kg/jour a été déterminée pour le benzène. Le risque de cancer lié à l’exposition environnementale totale au benzène estimé pour les travailleurs étudiés se situait entre 1,1 10-5 et 1,8 10-5. Une nouvelle méthode APCI-MS/MS a été également développée et validée pour l’analyse directe de l’octaméthylcyclotétrasiloxane (D4) et le décaméthylcyclopentasiloxane (D5) dans l’air et les biogaz. Le D4 et le D5 sont des siloxanes cycliques volatils largement utilisés comme solvants dans les processus industriels et les produits de consommation à la place des COVs précurseurs d’ozone troposphérique tels que les BTEX. Leur présence ubiquitaire dans les échantillons d’air ambiant, due à l’utilisation massive, suscite un besoin d’études de toxicité. De telles études requièrent des analyses qualitatives et quantitatives de traces de ces composés. Par ailleurs, la présence de traces de ces substances dans un biogaz entrave son utilisation comme source d’énergie renouvelable en causant des dommages coûteux à l’équipement. L’analyse des siloxanes dans un biogaz s’avère donc essentielle pour déterminer si le biogaz nécessite une purification avant son utilisation pour la production d’énergie. La méthode développée dans cette étude possède une bonne sensibilité (LDM 4–6 μg/m3), une bonne précision (CV < 10%), une bonne exactitude (> 93%) et une grande sélectivité. Il a été également démontré qu’en utilisant cette méthode avec l’hexaméthyl-d18-disiloxane comme étalon interne, la détection et la quantification du D4 et du D5 dans des échantillons réels de biogaz peuvent être accomplies avec une meilleure sensibilité (LDM ~ 2 μg/m3), une grande précision (CV < 5%) et une grande exactitude (> 97%). Une variété d’échantillons de biogaz prélevés au site d’enfouissement sanitaire du Complexe Environnemental de Saint-Michel à Montréal a été analysée avec succès par cette nouvelle méthode. Les concentrations mesurées étaient de 131–1275 µg/m3 pour le D4 et 250–6226 µg/m3 pour le D5. Ces résultats représentent les premières données rapportées dans la littérature sur la concentration des siloxanes D4 et D5 dans les biogaz d’enfouissement en fonction de l’âge des déchets.
Resumo:
L'un des modèles d'apprentissage non-supervisé générant le plus de recherche active est la machine de Boltzmann --- en particulier la machine de Boltzmann restreinte, ou RBM. Un aspect important de l'entraînement ainsi que l'exploitation d'un tel modèle est la prise d'échantillons. Deux développements récents, la divergence contrastive persistante rapide (FPCD) et le herding, visent à améliorer cet aspect, se concentrant principalement sur le processus d'apprentissage en tant que tel. Notamment, le herding renonce à obtenir un estimé précis des paramètres de la RBM, définissant plutôt une distribution par un système dynamique guidé par les exemples d'entraînement. Nous généralisons ces idées afin d'obtenir des algorithmes permettant d'exploiter la distribution de probabilités définie par une RBM pré-entraînée, par tirage d'échantillons qui en sont représentatifs, et ce sans que l'ensemble d'entraînement ne soit nécessaire. Nous présentons trois méthodes: la pénalisation d'échantillon (basée sur une intuition théorique) ainsi que la FPCD et le herding utilisant des statistiques constantes pour la phase positive. Ces méthodes définissent des systèmes dynamiques produisant des échantillons ayant les statistiques voulues et nous les évaluons à l'aide d'une méthode d'estimation de densité non-paramétrique. Nous montrons que ces méthodes mixent substantiellement mieux que la méthode conventionnelle, l'échantillonnage de Gibbs.
Resumo:
Les évènements moléculaires en amont et en aval de la petite GTPase Rac1 menant à la migration cellulaire sont encore mal compris. La première partie du projet consiste à utiliser une approche protéomique non-biaisée pour tenter d’identifier les partenaires de Rac. Pour ce faire, nous avons développé une méthode de purification efficace et rapide de manière à maintenir les complexes protéiques transitoires intacts. Dans un deuxième temps, nous avons identifié des sites de phosphorylation sur la RacGEF atypique Dock5 en aval des intégrines. Afin de mieux comprendre le rôle de la phosphorylation de cette protéine, nous avons criblé une banque de kinases ce qui nous a permis d’identifier 14 kinases pouvant phosphoryler la région PXXP de Dock5. D’après nos résultats, ceci aurait comme effet de diminuer l’interaction entre Dock5 et ses partenaires contenant des domaines SH3. Ainsi, la phosphorylation de Dock5 régulerait la formation de complexes et le recrutement de Dock5 par des protéines adaptatrices.
Resumo:
L’encéphalopathie hépatique (EH) se développe chez les patients atteints d’une maladie du foie et se caractérise par de nombreuses anomalies neuropsychiatriques. L’insuffisance hépatique aiguë (IHA) se caractérise par une perte progressive de l’état de conscience, par une augmentation rapide de l’œdème cérébral et une augmentation de la pression intracrânienne entraînant une herniation cérébrale et la mort. Plusieurs facteurs sont responsables du développement de l’EH mais depuis une centaine d’années, l’hyperammonémie qui peut atteindre des concentrations de l’ordre de plusieurs millimolaires chez les patients atteints d’IHA aux stades de coma est considérée comme un facteur crucial dans la pathogenèse de l’EH. La présente thèse comprend 4 articles suggérant l’implication de nouveaux mécanismes pathogéniques dans le développement de l’EH et de l’œdème cérébral associés à l’IHA et tente d’expliquer l’effet thérapeutique de l’hypothermie et de la minocycline dans la prévention de l’EH et de l’œdème cérébral: 1. L’IHA induite par dévascularisation hépatique chez le rat se caractérise par une augmentation de la production de cytokines pro-inflammatoires cérébrales (IL-6, IL-1, TNF-). Cette observation constitue la première évidence directe que des mécanismes neuro-inflammatoires jouent une rôle dans la pathogenèse de l’EH et de l’œdème cérébral associés à l’IHA (Chapitre 2.1, articles 1 et 2). 2. L’activation de la microglie telle que mesurée par l’expression de marqueurs spécifiques (OX42, OX-6) coïncide avec le développement de l’encéphalopathie (stade coma) et de l’œdème cérébral et s’accompagne d’une production accrue de cytokines pro-inflammatoires cérébrales (Chapitre 2.1, article 1 et 2). 3. Un stress oxydatif/nitrosatif causé par une augmentation de l’expression de l’oxyde nitrique synthétase et une augmentation de la synthèse d’oxyde nitrique cérébral participe à la pathogénèse des complications neurologiques de l’IHA (Chapitre 2.3, articles 3 et 4). 4. Des traitements anti-inflammatoires tels que l’hypothermie et la minocycline peuvent constituer de nouvelles approches thérapeutiques chez les patients atteints d’IHA (Chapitre 2.1, article 1; Chapitre 2.2, article 2). 5. Les effets bénéfiques de l’hypothermie et de la minocycline sur les complications neurologiques de l’IHA expérimentale s’expliquent, en partie, par une diminution du stress oxydatif/nitrosatif (Chapitre 2.3, article 3; Chapitre 2.4, article 4).
Resumo:
Le présent mémoire comprend un survol des principales méthodes de rendu en demi-tons, de l’analog screening à la recherche binaire directe en passant par l’ordered dither, avec une attention particulière pour la diffusion d’erreur. Ces méthodes seront comparées dans la perspective moderne de la sensibilité à la structure. Une nouvelle méthode de rendu en demi-tons par diffusion d’erreur est présentée et soumise à diverses évaluations. La méthode proposée se veut originale, simple, autant à même de préserver le caractère structurel des images que la méthode à l’état de l’art, et plus rapide que cette dernière par deux à trois ordres de magnitude. D’abord, l’image est décomposée en fréquences locales caractéristiques. Puis, le comportement de base de la méthode proposée est donné. Ensuite, un ensemble minutieusement choisi de paramètres permet de modifier ce comportement de façon à épouser les différents caractères fréquentiels locaux. Finalement, une calibration détermine les bons paramètres à associer à chaque fréquence possible. Une fois l’algorithme assemblé, toute image peut être traitée très rapidement : chaque pixel est attaché à une fréquence propre, cette fréquence sert d’indice pour la table de calibration, les paramètres de diffusion appropriés sont récupérés, et la couleur de sortie déterminée pour le pixel contribue en espérance à souligner la structure dont il fait partie.
Resumo:
L’utilisation continue de corticostéroïdes inhalés est reconnue pour réduire le nombre d’hospitalisations, la morbidité ainsi que les décès liés à l’asthme. Cependant, l’observance à cette médication chez les enfants asthmatiques demeure sous-optimale. Objectif : L’objectif général de ce mémoire de maîtrise est d’identifier les déterminants de l’observance aux corticostéroïdes inhalés durant les 28 jours suivant une visite médicale d’urgence en raison d’une une exacerbation d’asthme. Méthodologie : Il s’agit d’une analyse de données secondaires provenant d’un essai randomisé conduit auprès de patients se présentant dans un département d’urgence pour une exacerbation d’asthme. L’utilisation de corticostéroïdes inhalés au cours des 28 jours suivant la visite à l’urgence a été mesurée à l’aide de compteurs de doses électroniques. Résultats : Deux cent onze enfants ont été inclus dans les analyses et 76,8% étaient âgés de moins de 7 ans. L’observance moyenne au cours des 28 jours suivant la visite à l’urgence était de 62% (±29%). Les déterminants associés à une meilleure observance étaient une durée de traitement prescrite plus courte, une scolarité maternelle universitaire, une plus grande consommation de médication de soulagement rapide, une crise d’asthme plus sévère, un plus jeune âge de l’enfant et être Caucasien. Conclusion : Cette étude se distingue par le fait qu’elle inclut une large proportion d’enfants d’âge préscolaire, une population d’asthmatiques sous-représentée dans la littérature médicale malgré sa morbidité élevée. Une prescription de corticostéroïdes inhalés de courte durée s’est avérée être le meilleur prédicteur d’une bonne observance et témoigne d’une pratique en milieu hospitalier qui va à l’encontre des lignes directrices en matière de gestion de l’asthme.
Resumo:
Problématique : L’arrivée des tests de pharmacogénétique a été annoncée dans les médias et la littérature scientifique telle une révolution, un tournant vers la médecine personnalisée. En réalité, cette révolution se fait toujours attendre. Plusieurs barrières législatives, scientifiques, professionnelles et éthiques sont décrites dans la littérature comme étant la cause du délai de la translation des tests de pharmacogénétique, du laboratoire vers la clinique. Cet optimisme quant à l’arrivée de la pharmacogénétique et ces barrières existent-elles au Québec? Quel est le contexte de translation des tests de pharmacogénétique au Québec? Actuellement, il n’existe aucune donnée sur ces questions. Il est pourtant essentiel de les évaluer. Alors que les attentes et les pressions pour l’intégration rapide de technologies génétiques sont de plus en plus élevées sur le système de santé québécois, l’absence de planification et de mécanisme de translation de ces technologies font craindre une translation et une utilisation inadéquates. Objectifs : Un premier objectif est d’éclairer et d’enrichir sur les conditions d’utilisation et de translation ainsi que sur les enjeux associés aux tests de pharmacogénétique dans le contexte québécois. Un deuxième objectif est de cerner ce qui est véhiculé sur la PGt dans différentes sources, dont les médias. Il ne s’agit pas d’évaluer si la pharmacogénétique devrait être intégrée dans la clinique, mais de mettre en perspective les espoirs véhiculés et la réalité du terrain. Ceci afin d’orienter la réflexion quant au développement de mécanismes de translation efficients et de politiques associées. Méthodologie : L’analyse des discours de plusieurs sources documentaires (n=167) du Québec et du Canada (1990-2005) et d’entretiens avec des experts québécois (n=19) a été effectuée. Quatre thèmes ont été analysés : 1) le positionnement et les perceptions envers la pharmacogénétique; 2) les avantages et les risques reliés à son utilisation; 3) les rôles et les tensions entre professionnels; 4) les barrières et les solutions de translation. Résultats : L’analyse des représentations véhiculées sur la pharmacogénétique dans les sources documentaires se cristallise autour de deux pôles. Les représentations optimistes qui révèlent une fascination envers la médecine personnalisée, créant des attentes (« Génohype ») en regard de l’arrivée de la pharmacogénétique dans la clinique. Les représentations pessimistes qui révèlent un scepticisme (« Génomythe ») envers l’arrivée de la pharmacogénétique et qui semblent imprégnés par l’historique des représentations médiatiques négatives de la génétique. Quant à l’analyse des entretiens, celle-ci a permis de mettre en lumière le contexte actuel du terrain d’accueil. En effet, selon les experts interviewés, ce contexte comporte des déficiences législatives et un dysfonctionnement organisationnel qui font en sorte que l’utilisation des tests de pharmacogénétique est limitée, fragmentée et non standardisée. S’ajoute à ceci, le manque de données probantes et de dialogue entre des acteurs mal ou peu informés, la résistance et la crainte de certains professionnels. Discussion : Plusieurs changements dans la réglementation des systèmes d’innovation ainsi que dans le contexte d’accueil seront nécessaires pour rendre accessibles les tests de pharmacogénétique dans la pratique clinique courante. Des mécanismes facilitateurs de la translation des technologies et des facteurs clés de réussite sont proposés. Enfin, quelques initiatives phares sont suggérées. Conclusion : Des efforts au niveau international, national, provincial et local sont indispensables afin de résoudre les nombreux obstacles de la translation des tests de pharmacogénétique au Québec et ainsi planifier l’avenir le plus efficacement et sûrement possible.
Resumo:
Fond : Le substrat de fibrillation auriculaire (FA) vagale et celui secondaire à remodelage par tachycardie auriculaire (RTA) partagent beaucoup des caractéristiques : période réfractaire efficace (PRE) réduite, hétérogénéité accrue de PRE et quelques mécanismes moléculaires communs. Cette étude a comparé les 2 substrats à une abréviation comparable de PRE. Méthodes : Chez chacun de 6 chiens de groupe de stimulation vagal (SV), les paramètres de stimulation cervicale bilatérale de nerves vagaux ont été ajustés pour produire la même PRE moyenne (calculé à 8 sites des oreillettes gauche et droite) avec 6 chiens de groupe de RTA assorti à sexe et poids. Des paramètres électrophysiologiques, la durée moyenne de la fibrillation auriculaire (DAF) et les fréquences dominantes (FD) locales ont étés calculés. Résultats : En dépit des PREs assorties (SV: 80±12msec contre RTA: 79±12msec) la DAF était plus longue (*), l’hétérogénéité de conduction était plus élevée (*), la FD était plus rapide (*) et la variabilité de FD plus grande (*) chez les chiens SV. Les zones de maximum FD qui reflètent les zones d’origine de FA étaient à côté de ganglions autonomes chez les chiens SV. Conclusions : Pour un PRE atriale comparable, la FA secondaire à SV est plus rapide et plus persistante que la FA avec un substrat de RTA. Ces résultats sont consistants avec des modèles de travail suggérant que l'hyperpolarisation SV-induite contribue de façon important à la stabilisation et à l'accélération des rotors qui maintiennent la FA. La similitude de la distribution de FD du groupe vagal avec la distribution des lésions d’ablation après cartographie des électrogrammes atriales fragmentés suggère des nouvelles techniques d’ablation. La distribution des FD entre le SV et le RTA fournit de nouvelles idées au sujet de possible rémodelage neuroreceptorial et indique des différences importantes entre ces substrats de FA superficiellement semblables.
Resumo:
Des études présentées dans cette thèse ont permis de démontrer que le gène du groupe Polycomb (PcG) Bmi1 est essentiel à l’auto-renouvellement des progéniteurs rétiniens immatures et pour le développement rétinien après la naissance. Ce travail illustre chez l’embryon que Bmi1 est hautement enrichie dans une sous-population de progéniteurs rétiniens exprimant le marqueur de surface SSEA-1 et différents marqueurs de cellules souches. À tous les stades de développement analysés, l’absence de Bmi1 résulte en une diminution de la prolifération et de l’auto-renouvellement des progéniteurs immatures. Pour mieux comprendre la cascade moléculaire en absence de Bmi1, nous avons inactivé p53 dans les colonies Bmi1-/-. Cette inactivation a permis une restauration partielle du potentiel d’auto-renouvellement. De plus, en absence de Bmi1, la prolifération et la maintenance de la population de progéniteurs rétiniens immatures localisés dans le corps ciliaire sont aussi affectées après la naissance. Bmi1 permet donc de distinguer les progéniteurs immatures de la population principale de progéniteurs, et est requis pour le développement normal de la rétine. Nous avons également démontré que l’oncogène Bmi1 est requis dans les neurones pour empêcher l’apoptose et l’induction d’un programme de vieillissement prématuré, causé par une baisse des défenses anti-oxydantes. Nous avons observé dans les neurones Bmi1-/- une augmentation des niveaux de p53, de la concentration des ROS et de la sensibilité aux agents neurotoxiques. Nous avons démontré ainsi que Bmi1 contrôle les défenses anti-oxydantes dans les neurones en réprimant l’activité pro-oxydante de p53. Dans les neurones Bmi1-/-, p53 provoque la répression des gènes anti-oxydants, induisant une augmentation des niveaux de ROS. Ces résultats démontrent pour la première fois que Bmi1 joue un rôle critique dans la survie et le processus de vieillissement neuronal.