995 resultados para Potentiel membranaire de repos
Resumo:
OBJECTIFS: La libération de dopamine par les afférences à sérotonine (5-HT) du striatum constitue un déterminant pré-synaptique important des dyskinésies induites par la L-Dopa (DILs), un effet délétère du traitement pharmacologique de la maladie de Parkinson. En effet, les axones 5-HT seraient en mesure de libérer de façon non-physiologique de la dopamine lorsque la L-Dopa est administrée au patient, contribuant ainsi à l’expression des DILs. Certaines afférences striatales 5-HT contiennent un transporteur vésiculaire du glutamate (VGluT3) et nous croyons que sa présence puisse avoir un effet synergique sur la libération de dopamine. L’objectif général de ce mémoire est donc d’évaluer la quantité de VGluT3 présent au sein des axones 5-HT et de mesurer son implication dans l’expression des DILs. MÉTHODES : Dix-huit souris C57/Bl6 ont été séparées en trois groupes expérimentaux. Douze souris ont reçu une injection intracérébrale de 6- hydroxydopamine (6-OHDA) dans le faisceau prosencéphalique médian afin de léser les afférences dopaminergiques du striatum. Six souris lésées ont reçu des injections systémiques de L-Dopa (12 jours, 1 fois/jour). Six autres souris ont reçu une injection intracérébrale du véhicule afin de servir de contrôle. La sévérité des mouvements involontaires anormaux induits par la L-Dopa (équivalent des dyskinésies) a été quantifiée selon une échelle reconnue. Un double marquage en immunofluorescence pour le transporteur membranaire de la 5-HT (SERT) et le VGluT3 a permis d’évaluer la densité des varicosités SERT+ et SERT+/VGluT3+ dans le striatum dorsal et de comparer ces données entre les trois groupes expérimentaux. RÉSULTATS: Chez les trois groupes de souris, un faible pourcentage des varicosités axonales 5-HT sont également VGluT3+. Ces varicosités doublement marquées sont souvent retrouvées sur une même branche axonale. Aucune différence significative n’a été observée entre les trois groupes expérimentaux en ce qui a trait à la proportion de varicosités SERT+ qui contiennent le VGluT3+. CONCLUSION: Nos données expérimentales ne nous permettent pas de conclure que la densité des varicosités axonales SERT+ ou SERT+/VGluT3+ au sein du striatum dorsal varie en fonction de la sévérité des mouvements involontaires anormaux induits par l’administration de L-Dopa.
Resumo:
Cette thèse s’inscrit dans le contexte d’une optimisation industrielle et économique des éléments de structure en BFUP permettant d’en garantir la ductilité au niveau structural, tout en ajustant la quantité de fibres et en optimisant le mode de fabrication. Le modèle développé décrit explicitement la participation du renfort fibré en traction au niveau local, en enchaînant une phase de comportement écrouissante suivie d’une phase adoucissante. La loi de comportement est fonction de la densité, de l’orientation des fibres vis-à-vis des directions principales de traction, de leur élancement et d’autres paramètres matériaux usuels liés aux fibres, à la matrice cimentaire et à leur interaction. L’orientation des fibres est prise en compte à partir d’une loi de probabilité normale à une ou deux variables permettant de reproduire n’importe quelle orientation obtenue à partir d’un calcul représentatif de la mise en oeuvre du BFUP frais ou renseignée par analyse expérimentale sur prototype. Enfin, le modèle reproduit la fissuration des BFUP sur le principe des modèles de fissures diffuses et tournantes. La loi de comportement est intégrée au sein d’un logiciel de calcul de structure par éléments finis, permettant de l’utiliser comme un outil prédictif de la fiabilité et de la ductilité globale d’éléments en BFUP. Deux campagnes expérimentales ont été effectuées, une à l’Université Laval de Québec et l’autre à l’Ifsttar, Marne-la-Vallée. La première permet de valider la capacité du modèle reproduire le comportement global sous des sollicitations typiques de traction et de flexion dans des éléments structurels simples pour lesquels l’orientation préférentielle des fibres a été renseignée par tomographie. La seconde campagne expérimentale démontre les capacités du modèle dans une démarche d’optimisation, pour la fabrication de plaques nervurées relativement complexes et présentant un intérêt industriel potentiel pour lesquels différentes modalités de fabrication et des BFUP plus ou moins fibrés ont été envisagés. Le contrôle de la répartition et de l’orientation des fibres a été réalisé à partir d’essais mécaniques sur prélèvements. Les prévisions du modèle ont été confrontées au comportement structurel global et à la ductilité mis en évidence expérimentalement. Le modèle a ainsi pu être qualifié vis-à-vis des méthodes analytiques usuelles de l’ingénierie, en prenant en compte la variabilité statistique. Des pistes d’amélioration et de complément de développement ont été identifiées.
Resumo:
Avec l’ère industrielle sont venus les polluants environnementaux. Ils sont de plus en plus pointés du doigt pour une variété d’effets indésirables en particulier pour leur potentiel à affecter la santé humaine. Les pesticides font partie de ces polluants et leurs usages ne font que croître depuis une vingtaine d’années. Ces produits qui servent à améliorer la production agricole en éliminant les pestes qui ravagent les récoltes sont souvent peu étudiés à long terme avant d’être homologués. L’effet perturbateur au niveau cellulaire et les effets à long terme de ces pesticides sont peu connus. Pour ce projet de maîtrise, nous avons observé l’effet de deux pesticides, l’imidaclopride et l’acide 2-methyl-4-chlorophenoxyacetic (MCPA), sur les voies de signalisation du récepteur à la dioxine (AhR) et du récepteur aux androgènes (AR). L’imidaclopride est un insecticide de la famille des néonicotinoïdes, une classe de plus en plus utilisée. Ce pesticide est surtout connu pour être en lien avec le déclin des colonies d’abeilles depuis une décennie. Le MCPA est un des herbicides les plus utilisés au Québec, il est persistant et souvent retrouvé dans les eaux de la province. Nous avons traité des cellules du cancer du sein et des cellules du cancer de la prostate avec ces pesticides et nous avons vérifié si leur présence perturbait les deux voies de signalisation cellulaire à l’étude. Le récepteur AhR est un facteur de transcription activé par un ligand. Le TCDD, une dioxine, est le meilleur ligand exogène connu à ce jour de ce récepteur. Par contre, ses ligands naturels, des dérivés du tryptophane ou des facteurs de virulence de bactéries, l’activent de façon beaucoup moins forte. Lors de l’activation de la voie AhR, les gènes CYP1A1 et CYP1B1 sont transcrits et codent pour des enzymes du cytochrome P450 qui transforment les ligands en produits plus facilement éliminables. Dans un contexte où de l’œstradiol (E2) est présent dans les cellules, il y a une interaction croisée entre le récepteur à l’œstrogène (ER) et le récepteur AhR, qui fait en sorte que l’expression de CYP1A1 est réprimée. Cela se traduit en un ratio d’enzyme CYP1A1 à CYP1B1 différent qui pourrait augmenter la possibilité d’une accumulation de métabolites génotoxiques. En effet, CYP1B1 hydroxyle le ligand d’AhR mais aussi l’œstradiol en 4-hydroxyœstradiol (4-OHE), dont l’accumulation peut amener des mutations dans l’ADN alors que l’enzyme CYP1A1 l’hydroxyle en 2-hydroxyœstradiol (2-OHE), qui n’as aucun effet néfaste répertorié sur la cellule. Dans les cellules du cancer du sein, le MCPA appliqué en champs induisait fortement l’expression de CYP1B1 comparable à l’échantillon traité au témoin positif (TCDD), alors que CYP1A1 l’était que très légèrement par rapport au témoin non-traité. Au niveau protéique, CYP1A1 n’était qu’exprimée dans le témoin positif (TCDD) et ce, en quantité moindre lorsqu’il y avait présence d’œstradiol. CYP1B1 était fortement exprimée dans l’échantillon de TCDD, ce qui était attendu, mais aussi dans tous les échantillons traités au MCPA de NuFarm. Ces effets ne sont pas notés avec l’ingrédient actif du MCPA. La présence d’un ou plusieurs autres produits ajoutés dans le MCPA de la compagnie NuFarm en combinaison avec l’ingrédient actif pourrait activer la voie de signalisation d’AhR et causer ce débalancement dans l’expression des gènes CYP1A1 et CYP1B1. Nos résultats indiquent que plusieurs concentrations de l’ingrédient actif de l’imidaclopride ne perturbe pas les voies cellulaires d’AhR ni AR, alors que, le MCPA perturbe ces deux voies cellulaires. Par contre, c’est seulement celui produit par la compagnie NuFarm qui est utilisé en champs. Cette formulation appliquée en terrain agricole inclut l’ingrédient actif ainsi que les antigels, les surfactants et les adjuvants qui permettent au produit d’être plus efficace. L’ingrédient actif du MCPA seul n’affectait pas les deux voies. Le récepteur aux androgènes (AR) est aussi un facteur de transcription qui se lie à l’ADN afin de réguler l’expression des gènes et il est particulièrement important pour le développement et le maintien du phénotype masculin. Depuis une vingtaine d’années, des problèmes de baisse de libido et de fertilité s’accentuent dans notre société et semblent être reliés à la baisse de testostérone des hommes (Travison et al. 2007). Cette molécule est d’ailleurs un des deux ligands du récepteur AR, le deuxième étant la 5-dihydrotestostérone (DHT). Le facteur environnemental plutôt que le mode de vie semble être un facteur déterminant dans l’étude qui portait sur ce déclin. Les pesticides ont déjà été soupçonnés pour avoir un potentiel anti-androgénique, mais aucune étude ne fait un lien de causalité direct. Dans le projet de maitrise présenté dans ce document, l’expression des gènes marqueurs PSA (antigène spécifique de la prostate) et PCA3 (antigène du cancer de la prostate) a été quantifiée pour savoir si les pesticides ont un effet perturbateur sur la voie du récepteur AR. Dans les cellules du cancer de la prostate, l’expression de PSA et PCA3 était semblable au non-traité dans l’échantillon traité au MCPA (NuFarm), et ce, même après l’ajout de DHT, qui active l’expression de ces deux gènes. Cette fois-ci, l’ingrédient actif seul faisait en sorte que les deux gènes marqueurs étaient moins exprimés lors de l’ajout de la DHT, par rapport au témoin. Il semblerait que l’ingrédient actif est à la base de ce changement d’expression de nos gènes marqueurs. Donc, le MCPA pourrait avoir un effet anti-androgénique dans les cellules du cancer de la prostate. Donc, le MCPA est un pesticide qui affecte les voies de signalisation cellulaires AhR et AR. Il est particulier de noter que le pesticide appliqué en champ perturbe nettement plus les voies cellulaires. Il sera important de continuer à étudier les effets des pesticides sur l’homme au niveau cellulaire et de comprendre comment ils pourraient contribuer au développement du cancer.
Resumo:
Les produits forestiers non ligneux (PFNL) rassemblent toutes exploitations sous couvert forestier. Ils excluent les produits issus de la fibre de bois et des produits de la faune. Le bleuet sauvage est un bon exemple de PFNL. Ces produits sont abondants au Québec. Le bleuet est un exemple de PFNL bien établi avec un niveau de commercialisation structurée de produits frais et de transformation. Au contraire, le marché des champignons forestiers tarde à se développer. À titre de produit agroforestier, les PFNL procurent des biens et services bénéfiques aux communautés productrices. La distribution des PFNL varie en fonction de facteurs géophysiques et bioclimatiques. Dans certaines régions du Québec, des groupes s'efforcent de développer des outils d’analyse et de modélisation spatiale conséquents. La géomatique procure des solutions pratiques pour l’identification et le suivi des PFNL. Entre autres, elle opère des données géospatiales spécialisées sur des systèmes d'information géographique (SIG). Ce projet de maîtrise repose sur la mise en place d’un portail participatif d’information géographique web. Il s'adresse à un large panel d’utilisateurs, notamment aux intervenants impliqués dans le développement durable des PFNL. Il offre la possibilité de visualiser et de manipuler des données spécialisées au cas des PFNL. Il propose de localiser les sites à fort potentiel de présence. Il cherche à intégrer des outils de validation de ces sites. Il tend aussi à procurer des outils qui accompagnent la production des utilisateurs. Le portail introduit des applications d’édition, d’analyse et de modélisations spatiales exclusives à la thématique des PFNL. Il abrite des couches de données interactives et interopérables. L'évaluation du portail passe par l’efficacité de ses applications et la convivialité de ses composantes. Ce rapport décrit et fait la démonstration de chacune d'elle.
Resumo:
L’augmentation des chaleurs estivales jumelée à l’augmentation des fréquences de smog affectera la santé publique. Le phénomène des îlots de chaleur urbain apporte son lot d’impacts environnementaux, sociaux et économiques partout à travers le monde. La perte de biodiversité, les maladies pulmonaires, la pauvreté et contamination des sols, les dépenses astronomiques liées aux traitements des eaux pluviales obligent les acteurs du territoire à trouver des mesures d’atténuation plus durable et impactant. Dans la foulée, le verdissement sous l’approche de l’arbre apparait comme une des stratégies les plus douces et simples à mettre en œuvre. Les bénéfices encourus par ces grands êtres vivants que sont les arbres peuvent aussi jouer à la fois sur l’économie, l’environnement et la santé. D’où l’engouement des métropoles à verdir leur espace urbain : parc, corridor forestier, îlot de verdure, etc. Alors que certaines villes visent à augmenter leur indice de canopée, d’autres espèrent seulement procurer de meilleures conditions de vie à leur masse citoyenne. Dans les grandes villes et les régions occidentales, dont au Québec et à Montréal, le verdissement demeure un terme récent et méconnu. L’objectif du document est de recommander des méthodes d’actions de verdissement à l’échelle des parcs industriels montréalais. Celui de l’arrondissement d’Anjou a été choisi comme étude de cas. Les conclusions de l’analyse permettent de réaliser qu’un projet de plantation d’arbres en milieu industriel se déroule en 2 phases et 10 étapes. En tenant compte du diagnostic territorial réalisé en amont, les acteurs du territoire ciblent des enjeux afin d’établir des situations gagnantes aux projets de verdissement. Cette démarche vise à insuffler un nouveau visage aux parcs industriels montréalais. Les territoires industriels ont trop longtemps été des lieux ingrats, sous-utilisés et dépourvus d’arbres, toutefois ils témoignent d’un immense potentiel de verdissement. D’où la raison d’y accorder une importance. Pour faire face à ce changement de vision, les élus, les énarques et les acteurs du territoire montréalais doivent miser : sur le développement d’une cohérence des politiques sectorielles, sur le renforcement des règlements d’urbanismes, sur une réelle lutte aux ICU et à l’atteinte des objectifs du Plan d’action canopée, sur la création d’incitatifs économiques favorables, sur le développement des capacités et enfin sur le réseautage des citoyens ainsi que sur le réseautage des adeptes de l’aménagement durable.
Resumo:
L'imagerie par tomographie optique diffuse requiert de modéliser la propagation de la lumière dans un tissu biologique pour une configuration optique et géométrique donnée. On appelle cela le problème direct. Une nouvelle approche basée sur la méthode des différences finies pour modéliser numériquement via l'équation de la diffusion (ED) la propagation de la lumière dans le domaine temporel dans un milieu inhomogène 3D avec frontières irrégulières est développée pour le cas de l'imagerie intrinsèque, c'est-à-dire l'imagerie des paramètres optiques d'absorption et de diffusion d'un tissu. Les éléments finis, lourds en calculs, car utilisant des maillages non structurés, sont généralement préférés, car les différences finies ne permettent pas de prendre en compte simplement des frontières irrégulières. L'utilisation de la méthode de blocking-off ainsi que d'un filtre de Sobel en 3D peuvent en principe permettre de surmonter ces difficultés et d'obtenir des équations rapides à résoudre numériquement avec les différences finies. Un algorithme est développé dans le présent ouvrage pour implanter cette approche et l'appliquer dans divers cas puis de la valider en comparant les résultats obtenus à ceux de simulations Monte-Carlo qui servent de référence. L'objectif ultime du projet est de pouvoir imager en trois dimensions un petit animal, c'est pourquoi le modèle de propagation est au coeur de l'algorithme de reconstruction d'images. L'obtention d'images requière la résolution d'un problème inverse de grandes dimensions et l'algorithme est basé sur une fonction objective que l'on minimise de façon itérative à l'aide d'une méthode basée sur le gradient. La fonction objective mesure l'écart entre les mesures expérimentales faites sur le sujet et les prédictions de celles-ci obtenues du modèle de propagation. Une des difficultés dans ce type d'algorithme est l'obtention du gradient. Ceci est fait à l'aide de variables auxiliaire (ou adjointes). Le but est de développer et de combiner des méthodes qui permettent à l'algorithme de converger le plus rapidement possible pour obtenir les propriétés optiques les plus fidèles possible à la réalité capable d'exploiter la dépendance temporelle des mesures résolues en temps, qui fournissent plus d'informations tout autre type de mesure en TOD. Des résultats illustrant la reconstruction d'un milieu complexe comme une souris sont présentés pour démontrer le potentiel de notre approche.
Resumo:
Les recherches démontrent que les arts plastiques à l’école apportent des bénéfices culturels et psychocognitifs majeurs aux enfants (National Endowment for the Arts, 2012; Hoffmann Davis, 2005, 2008; Karkou et Glasman, 2004; Sylwester, 1998; Goetz Zwirn et Graham, 2005; Greene, 1995). Mais en général, plus les garçons avancent en âge au primaire, plus ils éprouvent de difficultés et démontrent un intérêt moindre que celui des filles pour les arts plastiques à l’école. Au secondaire, l’écart ne fait que s’accentuer (Savoie, Grenon et St-Pierre, 2010, 2012; Octobre, 2004; Dumais, 2002; Blaikie, Schönau et Steers, 2003). Même s’ils ne peuvent garantir la réussite de leurs élèves, les enseignants ont une influence considérable sur des variables qui affectent les apprentissages telles que le choix de matériaux didactiques, des environnements éducationnels et la variable qui nous intéresse particulièrement : La prise en compte des comportements des élèves en lien avec leurs styles cognitifs. Pour mieux les aider, notre recherche veut saisir les liens potentiels qui pourraient exister entre les styles cognitifs des individus créateurs et leurs préférences sur le plan de l’expression graphique, plus spécifiquement au regard du langage plastique. En d’autres mots, nous souhaitons fournir des marqueurs utiles à la différenciation pédagogique adaptée aux styles cognitifs (Baron-Cohen, 2005) des filles et des garçons en classe d’art. Nous empruntons des concepts délimités et mesurables qui constituent notre cadre de référence et proviennent des domaines de la psychologie cognitive et de l’enseignement des arts visuels. Notre recherche se fait auprès d’artistes professionnels et d’étudiants adultes en arts visuels, tous genres confondus. Nous mesurons chez eux, dans un premier temps, leurs styles cognitifs à l’aide du test RMET de Baron-Cohen (Ibid.). En rapport avec ces styles, nous tentons ensuite de dégager des marqueurs dans la démarche et les productions artistiques des individus. En d’autres mots, notre étude vise essentiellement à procurer des indicateurs fiables, aux chercheurs et aux enseignants en arts, quant au lien potentiel entre les styles cognitifs et le langage plastique. Ces précieux indicateurs pourront ensuite leur servir, entre autres, à la construction de modèles pédagogiques, d’environnements éducationnels ou d’activités adaptées aux styles des élèves masculins comme féminins. Au plan méthodologique, notre recherche adopte une approche quantitative, pragmatique, quasi expérimentale et exploratoire (Lefrancois, 1997; Kothari, 2004; Grawitz, 1988; Larose, Bédard, Couturier, Grenon, Lavoie, Lebrun, Morin, Savard et Theis, 2011). Notre mode d’analyse se base sur la vérification de faits observables et sur une prise de décision scientifique se servant de techniques statistiques inférentielles (Saporta, 2011; Field, 2009). Notre approche s’appuie donc sur une variable dépendante liée au style cognitif des participants et sur une vingtaine de variables indépendantes liées au langage plastique. Nos résultats démontrent qu’au moins un indicateur de style cognitif ressort significativement dans le langage plastique, soit la variation chromatique. Suite à notre question : Dans les éléments de langage plastique des créateurs en arts visuels, peut-on observer des indicateurs de styles cognitifs? La réponse s’est avérée positive et fiable sur au moins une variable : la couleur. En effet, suite à nos analyses statistiques inférentielles, la variation chromatique est ressorti comme un indicateur très significatif de style cognitif et celui qui ressort le plus de nos résultats. Nous avons clairement mesuré que les individus qui décodent moins bien les émotions chez les autres démontrent une préférence pour des variations de couleurs plutôt monochromes, alors que les individus plutôt empathiques démontrent une préférence pour des univers surtout multichromes. Nous avons mesuré une forte habileté à reconnaitre et à discriminer les émotions, autant chez nos artistes professionnels que chez nos sujets étudiants universitaires. D’autres variables analysées, comme le genre, l’éducation ou l’âge ne se sont pas avérées des indicateurs fiables de styles cognitifs particuliers.
Resumo:
L’objectif de cet essai est d’analyser l’applicabilité de différentes mesures réglementaires pour favoriser les changements de comportements citoyens en gestion des matières résiduelles, plus particulièrement afin de réduire l’élimination de ces matières. La prise de conscience de plus en plus généralisée à l’égard des enjeux environnementaux ne se reflète en effet pas toujours dans les comportements et actions citoyennes au quotidien et nombreux sont les facteurs qui freinent l’action environnementale. Cette situation se répercute également dans la manière dont les ménages, dans leur vie quotidienne, gèrent leurs matières résiduelles. La gestion de ces matières, dont une partie est destinée à l’élimination, soulève différents enjeux environnementaux, sociaux et économiques. Par ailleurs, parmi ce flot de matières, une quantité importante possède le potentiel d’être mise en valeur, ce qui est possible si ceux qui en ont la responsabilité à un moment ou à un autre, dont les citoyens, posent les bons gestes. Les pouvoirs publics provinciaux et municipaux peuvent utiliser trois principales approches afin de favoriser les bons comportements à cet égard. L’une d’entre elles consiste en l’utilisation de mesures législatives et réglementaires. Ces mesures, étudiées pour différents cas nord-américains, sont applicables en tenant compte des compétences provinciales et municipales. Couplées avec l’approche volontaire ou avec des instruments économiques, elles favorisent la performance des états, provinces ou municipalités qui les ont implantées sur leur territoire. Elles peuvent aussi appuyer sur certains leviers à l’action citoyenne, mais les comportements humains étant extrêmement complexes, ces mesures ne peuvent assurer, à elles seules, un changement rapide et durable des comportements. Les différentes approches, utilisées de façon complémentaire, sont plus à même d’entrainer ce changement. Pour assurer une participation maximale à la gestion des matières résiduelles, faciliter, encourager les bons comportements et favoriser l’engagement est essentiel. La réglementation à elle seule contribue peu à ces facteurs. Néanmoins, si elle s’accompagne d’un message fort, elle contribue à créer un sentiment de devoir partagé avec ses semblables et le sentiment d’une réelle adhésion et volonté politique. Pour une efficacité optimale des mesures en place, c’est l’ensemble des acteurs et générateurs de matières résiduelles qui doivent prendre leur rôle au sérieux, et non uniquement le citoyen. La mise en place de mesures favorisant des changements en amont de la problématique est aussi essentielle, bien que cet aspect ne soit pas élaboré en profondeur considérant les limites de cet essai.
Resumo:
De par leurs activités, les aéroports engendrent des impacts environnementaux non négligeables. Un des moyens utilisés pour diminuer leurs impacts environnementaux et sociaux est de réévaluer les exigences dans les appels d’offres et contrats lors de l’acquisition d’un bien ou d’un service pour y intégrer des clauses liées au développement durable. L’approvisionnement responsable est récent en milieu aéroportuaire et possède beaucoup de potentiel compte tenu de l’ampleur et de la diversité des achats qui y sont effectués. Afin de permettre une amélioration continue dans ce domaine, des lignes directrices pour l’élaboration d’un plan d’action d’approvisionnement responsable sont développées. Pour ce faire, un portrait de la situation du développement durable, et plus particulièrement de l’approvisionnement responsable, effectué en analysant le cas de différents aéroports, notamment celui d’Aéroports de Montréal, indique que la responsabilité sociétale d’entreprise est de plus en plus présente et qu’ils sont donc plus conscients de l’importance de connaitre leurs diverses parties prenantes. En ayant connaissance de ses forces et faiblesses en développement durable, grâce à une évaluation BNQ 21000, un plan d’action d’approvisionnement responsable adapté à la réalité d’Aéroports de Montréal est élaboré. Pour ce faire, trois stratégies sont retenues : promouvoir les pratiques d'approvisionnement responsable, favoriser l’implantation de nouvelles pratiques et responsabiliser l'entièreté de la chaîne d'approvisionnement. La première orientation vise principalement à augmenter la communication des efforts et progrès accomplis, la deuxième consiste à apporter quelques ajustements organisationnels pour optimiser les possibilités et la troisième permet d’influencer les fournisseurs à considérer l’approvisionnement responsable dans leur gestion. Néanmoins, certaines pratiques recensées et jugées applicables au sein d’Aéroports de Montréal requièrent plus de temps ou de ressources que sur une période de cinq ans. Ainsi, une stratégie à plus long terme est nécessaire pour assurer une amélioration continue dans le temps. Pour ce faire, il est recommandé de constituer un comité d’approvisionnement responsable pour favoriser une multidisciplinarité et une progression plus rapide. Des pratiques telles que le calcul de coût de propriété, les audits des fournisseurs et de la sensibilisation dans le but de favoriser une plus grande collaboration, nécessitent d’être planifiées dans la stratégie pour optimiser leur implantation avec succès. Le plan d’action intègre les ressources humaines et financières devant être mobilisées afin de préparer les différents départements à la mise en œuvre des pratiques d’approvisionnement proposées.
Resumo:
Résumé : En raison de sa grande étendue, le Nord canadien présente plusieurs défis logistiques pour une exploitation rentable de ses ressources minérales. La TéléCartographie Prédictive (TCP) vise à faciliter la localisation de gisements en produisant des cartes du potentiel géologique. Des données altimétriques sont nécessaires pour générer ces cartes. Or, celles actuellement disponibles au nord du 60e parallèle ne sont pas optimales principalement parce qu’elles sont dérivés de courbes à équidistance variable et avec une valeur au mètre. Parallèlement, il est essentiel de connaître l'exactitude verticale des données altimétriques pour être en mesure de les utiliser adéquatement, en considérant les contraintes liées à son exactitude. Le projet présenté vise à aborder ces deux problématiques afin d'améliorer la qualité des données altimétriques et contribuer à raffiner la cartographie prédictive réalisée par TCP dans le Nord canadien, pour une zone d’étude située au Territoire du Nord-Ouest. Le premier objectif était de produire des points de contrôles permettant une évaluation précise de l'exactitude verticale des données altimétriques. Le second objectif était de produire un modèle altimétrique amélioré pour la zone d'étude. Le mémoire présente d'abord une méthode de filtrage pour des données Global Land and Surface Altimetry Data (GLA14) de la mission ICESat (Ice, Cloud and land Elevation SATellite). Le filtrage est basé sur l'application d'une série d'indicateurs calculés à partir d’informations disponibles dans les données GLA14 et des conditions du terrain. Ces indicateurs permettent d'éliminer les points d'élévation potentiellement contaminés. Les points sont donc filtrés en fonction de la qualité de l’attitude calculée, de la saturation du signal, du bruit d'équipement, des conditions atmosphériques, de la pente et du nombre d'échos. Ensuite, le document décrit une méthode de production de Modèles Numériques de Surfaces (MNS) améliorés, par stéréoradargrammétrie (SRG) avec Radarsat-2 (RS-2). La première partie de la méthodologie adoptée consiste à faire la stéréorestitution des MNS à partir de paires d'images RS-2, sans point de contrôle. L'exactitude des MNS préliminaires ainsi produits est calculée à partir des points de contrôles issus du filtrage des données GLA14 et analysée en fonction des combinaisons d’angles d'incidences utilisées pour la stéréorestitution. Ensuite, des sélections de MNS préliminaires sont assemblées afin de produire 5 MNS couvrant chacun la zone d'étude en totalité. Ces MNS sont analysés afin d'identifier la sélection optimale pour la zone d'intérêt. Les indicateurs sélectionnés pour la méthode de filtrage ont pu être validés comme performant et complémentaires, à l’exception de l’indicateur basé sur le ratio signal/bruit puisqu’il était redondant avec l’indicateur basé sur le gain. Autrement, chaque indicateur a permis de filtrer des points de manière exclusive. La méthode de filtrage a permis de réduire de 19% l'erreur quadratique moyenne sur l'élévation, lorsque que comparée aux Données d'Élévation Numérique du Canada (DNEC). Malgré un taux de rejet de 69% suite au filtrage, la densité initiale des données GLA14 a permis de conserver une distribution spatiale homogène. À partir des 136 MNS préliminaires analysés, aucune combinaison d’angles d’incidences des images RS-2 acquises n’a pu être identifiée comme étant idéale pour la SRG, en raison de la grande variabilité des exactitudes verticales. Par contre, l'analyse a indiqué que les images devraient idéalement être acquises à des températures en dessous de 0°C, pour minimiser les disparités radiométriques entre les scènes. Les résultats ont aussi confirmé que la pente est le principal facteur d’influence sur l’exactitude de MNS produits par SRG. La meilleure exactitude verticale, soit 4 m, a été atteinte par l’assemblage de configurations de même direction de visées. Par contre, les configurations de visées opposées, en plus de produire une exactitude du même ordre (5 m), ont permis de réduire le nombre d’images utilisées de 30%, par rapport au nombre d'images acquises initialement. Par conséquent, l'utilisation d'images de visées opposées pourrait permettre d’augmenter l’efficacité de réalisation de projets de SRG en diminuant la période d’acquisition. Les données altimétriques produites pourraient à leur tour contribuer à améliorer les résultats de la TCP, et augmenter la performance de l’industrie minière canadienne et finalement, améliorer la qualité de vie des citoyens du Nord du Canada.
Resumo:
L’objectif de cet essai est de déterminer comment la mobilité des citoyens de la Ville de Sherbrooke pourrait être transformée pour réduire la dépendance aux combustibles fossiles tout en améliorant le potentiel de résilience urbaine de sa communauté. La résilience urbaine est un concept gagnant en popularité dans le discours qui accompagne le développement durable. Elle permet aux sociétés de mieux s’adapter et se transformer face aux crises qu’elles sont vouées à vivre dans un contexte environnemental, social et économique changeant. La poursuite d’une résilience urbaine plus forte est d’autant plus pertinente face aux enjeux énergétiques et climatiques pressants. La récolte de pistes de solution menant à une plus faible dépendance au pétrole par l’expérimentation d’une approche participative conviant des parties prenantes intéressées par les transports urbains de Sherbrooke est un sous-objectif de l’essai. Les méthodes de planification participative sont d’ailleurs réputées pour favoriser la mise en œuvre de projets au sein des communautés par l’engagement citoyen qu’elles suscitent, en plus d’adopter une approche plus systémique face aux problématiques environnementales. L’analyse des pistes de solutions récoltées démontre que la résilience urbaine de Sherbrooke peut être revitalisée via la mise en œuvre conjointe de celles-ci. Effectivement, l’idée de développer un système de transport collectif basé sur des énergies alternatives au pétrole complète les trois autres pistes de solution. Ces dernières étant de mettre en place des mesures incitatives au sein des organisations sherbrookoises pour la promotion du transport actif chez les employés, de prioriser la marche et le vélo sur l’ensemble des rues de la ville et de densifier l’aménagement urbain au profit des transports actifs et des commerces de proximité. Trois grandes recommandations peuvent donc être faites pour la communauté sherbrookoise afin de faciliter la mise en œuvre de ces solutions et augmenter son potentiel de résilience urbaine. Premièrement, la Ville de Sherbrooke pourrait mettre en place un programme de soutien à la création d’éco-quartiers afin de faciliter la priorisation des transports actifs et la densification urbaine. Deuxièmement, les décideurs sont invités à utiliser davantage des approches de planification participative au sein de leurs processus décisionnels afin d’adopter une approche plus systémique et prendre plus en considération les opinions citoyennes. Finalement, la ville pourrait joindre le mouvement « vélosympathique » de Vélo Québec et récompenser les organisations sherbrookoises qui mettent en place des incitatifs pour encourager le transport actif chez leurs employés.
Resumo:
Résumé : Face à l’accroissement de la résolution spatiale des capteurs optiques satellitaires, de nouvelles stratégies doivent être développées pour classifier les images de télédétection. En effet, l’abondance de détails dans ces images diminue fortement l’efficacité des classifications spectrales; de nombreuses méthodes de classification texturale, notamment les approches statistiques, ne sont plus adaptées. À l’inverse, les approches structurelles offrent une ouverture intéressante : ces approches orientées objet consistent à étudier la structure de l’image pour en interpréter le sens. Un algorithme de ce type est proposé dans la première partie de cette thèse. Reposant sur la détection et l’analyse de points-clés (KPC : KeyPoint-based Classification), il offre une solution efficace au problème de la classification d’images à très haute résolution spatiale. Les classifications effectuées sur les données montrent en particulier sa capacité à différencier des textures visuellement similaires. Par ailleurs, il a été montré dans la littérature que la fusion évidentielle, reposant sur la théorie de Dempster-Shafer, est tout à fait adaptée aux images de télédétection en raison de son aptitude à intégrer des concepts tels que l’ambiguïté et l’incertitude. Peu d’études ont en revanche été menées sur l’application de cette théorie à des données texturales complexes telles que celles issues de classifications structurelles. La seconde partie de cette thèse vise à combler ce manque, en s’intéressant à la fusion de classifications KPC multi-échelle par la théorie de Dempster-Shafer. Les tests menés montrent que cette approche multi-échelle permet d’améliorer la classification finale dans le cas où l’image initiale est de faible qualité. De plus, l’étude effectuée met en évidence le potentiel d’amélioration apporté par l’estimation de la fiabilité des classifications intermédiaires, et fournit des pistes pour mener ces estimations.
Resumo:
Le trouble neurocognitif dû à la maladie d’Alzheimer (TNMA) constitue un enjeu de santé publique incontournable en raison de son incidence et de ses conséquences désastreuses. En plus des atteintes cognitives et fonctionnelles qu'il engendre chez la personne qui en est atteinte, la TNMA implique la présence de symptômes psychologiques et comportementaux comme la dépression. Les quelques études qui ont tenté une intervention non pharmacologique ont essentiellement mesuré les changements comportementaux ou cognitifs, laissant peu de place au vécu émotionnel. De plus, les rares études qui ont inclus l’exploration des affects ont obtenu des résultats peu concluants, mais possiblement explicables par des lacunes méthodologiques. Le premier article de cette thèse comprend un survol de la littérature et la proposition d’un nouveau modèle de psychothérapie afin de traiter les symptômes dépressifs chez les personnes atteintes d’un TNMA. Inspiré de l’adaptation de Brierley et al. (2003) de la psychothérapie psychodynamique interpersonnelle pour les personnes atteintes d’un TNMA et de symptômes dépressifs, notre modèle tient compte des nouvelles connaissances sur la mémoire implicite, relativement préservée chez la personne atteinte d’un TNMA, et inclus un nombre de séances plus élevé (15 semaines) que dans la plupart des études documentées jusqu’à maintenant. Un devis expérimental à cas uniques (n = 4) combiné à un dispositif par lignes de base multiple a été adopté pour évaluer l’efficacité de ce modèle. L’évaluation des effets de l’intervention comprenait la Dementia Mood Assessment Scale (DMAS), la Cornell Scale for Depression in Dementia (CSDD) et le Dementia Quality Of Life (DQOL). Aussi, dans le but d’obtenir une mesure continue, les participantes ont évalué leur humeur et leur intérêt chaque semaine pendant l’étude. La DMAS et la CSDD ont aussi été complétées par un proche. Le deuxième article présente une étude exploratoire visant à mesurer le potentiel clinique du modèle proposé pour une participante. Le profil des trois autres participantes sont présentés dans la transition de cette thèse pour compléter le travail de recherche visant à mesurer les effets cliniques du modèle proposé. Bien que les résultats des différents suivis aient démontré une variabilité importante, il est possible de conclure qu’une amélioration significative à au moins une mesure clinique des symptômes de la dépression a été observée pour la majorité des participantes. Cette amélioration clinique a aussi été confirmée par les proches aidants. Enfin, malgré les limites de l’étude, celle-ci suggère que le modèle de psychothérapie psychodynamique interpersonnelle que nous proposons présente un certain potentiel d’efficacité thérapeutique avec une clientèle atteinte d’un TNMA et de symptômes dépressifs. La discussion générale de la thèse s’inspire des résultats de celle-ci afin de proposer de nouvelles adaptations, ainsi que des pistes de recherche futures devant permettre d’en mesurer l’efficacité.
Resumo:
Les peptides et les protéines font partie intégrante de l’arsenal dont l’évolution a pourvu les êtres vivants. Plusieurs fonctions essentielles d’un organisme, tel le transport ionique, dépendent d’ailleurs de leur implication. Les protéines-canal sont ubiquitaires chez tous les êtres vivants et pourtant, plusieurs questions non résolues sont soulevées quand on pense à leur mécanisme d’action et plus précisément à la relation qui existe entre leur structure et leur activité. Puisque l’étude des protéines-canal s’avère très complexe et laborieuse, plusieurs ont cherché à les étudier indirectement en développant, par exemple, des modèles synthétiques. Ce mémoire présente une catégorie unique de peptides développés par le groupe Voyer et constitués exclusivement de leucines et de 21-couronne-7-L-phénylalanines. La structure du peptide a été conçue spécialement pour qu’il puisse effectuer du transport ionique membranaire et servir de modèle dans l’étude des protéines-canal. Le peptide a été caractérisé de façon exhaustive au cours des vingt dernières années et les études ont bien établi sa conformation et démontré sa capacité à effectuer du transport membranaire sans, toutefois, lever le voile sur le mécanisme par lequel il opère. Afin d’y voir plus clair et d’en apprendre davantage sur leur mécanisme d’action, les travaux qui sont décrits dans les pages suivantes portent sur la caractérisation par dichroïsme circulaire orienté de la structure et de la topologie membranaire des peptides du groupe Voyer.
Resumo:
Résumé : Malgré le nombre croissant de capteurs dans les domaines de la chimie et la biologie, il reste encore à étudier en profondeur la complexité des interactions entre les différentes molécules présentes lors d’une détection à l’interface solide-liquide. Dans ce cadre, il est de tout intérêt de croiser différentes méthodes de détection afin d’obtenir des informations complémentaires. Le principal objectif de cette étude est de dimensionner, fabriquer et caractériser un détecteur optique intégré sur verre basé sur la résonance plasmonique de surface, destiné à terme à être combiné avec d’autres techniques de détection, dont un microcalorimètre. La résonance plasmonique de surface est une technique reconnue pour sa sensibilité adaptée à la détection de surface, qui a l’avantage d’être sans marquage et permet de fournir un suivi en temps réel de la cinétique d’une réaction. L’avantage principal de ce capteur est qu’il a été dimensionné pour une large gamme d’indice de réfraction de l’analyte, allant de 1,33 à 1,48. Ces valeurs correspondent à la plupart des entités biologiques associées à leurs couches d’accroche dont les matrices de polymères, présentés dans ce travail. Étant donné que beaucoup d’études biologiques nécessitent la comparaison de la mesure à une référence ou à une autre mesure, le second objectif du projet est d’étudier le potentiel du système SPR intégré sur verre pour la détection multi-analyte. Les trois premiers chapitres se concentrent sur l’objectif principal du projet. Le dimensionnement du dispositif est ainsi présenté, basé sur deux modélisations différentes, associées à plusieurs outils de calcul analytique et numérique. La première modélisation, basée sur l’approximation des interactions faibles, permet d’obtenir la plupart des informations nécessaires au dimensionnement du dispositif. La seconde modélisation, sans approximation, permet de valider le premier modèle approché et de compléter et affiner le dimensionnement. Le procédé de fabrication de la puce optique sur verre est ensuite décrit, ainsi que les instruments et protocoles de caractérisation. Un dispositif est obtenu présentant des sensibilités volumiques entre 1000 nm/RIU et 6000 nm/RIU suivant l’indice de réfraction de l’analyte. L’intégration 3D du guide grâce à son enterrage sélectif dans le verre confère au dispositif une grande compacité, le rendant adapté à la cointégration avec un microcalorimètre en particulier. Le dernier chapitre de la thèse présente l’étude de plusieurs techniques de multiplexage spectral adaptées à un système SPR intégré, exploitant en particulier la technologie sur verre. L’objectif est de fournir au moins deux détections simultanées. Dans ce cadre, plusieurs solutions sont proposées et les dispositifs associés sont dimensionnés, fabriqués et testés.