52 resultados para Bases de données du NCBI

em Savoirs UdeS : plateforme de diffusion de la production intellectuelle de l’Université de Sherbrooke - Canada


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le nématode doré, Globodera rostochiensis, est un nématode phytoparasite qui peut infecter des plantes agricoles telles la pomme de terre, la tomate et l’aubergine. En raison des pertes de rendement considérables associées à cet organisme, il est justifiable de quarantaine dans plusieurs pays, dont le Canada. Les kystes du nématode doré protègent les œufs qu’ils contiennent, leur permettant de survivre (en état de dormance) jusqu’à 20 ans dans le sol. L’éclosion des œufs n’aura lieu qu’en présence d’exsudats racinaires d’une plante hôte compatible à proximité. Malheureusement, très peu de connaissances sont disponibles sur les mécanismes moléculaires liés à cette étape-clé du cycle vital du nématode doré. Dans cet ouvrage, nous avons utilisé la technique RNA-seq pour séquencer tous les ARNm d’un échantillon de kystes du nématode doré afin d’assembler un transcriptome de novo (sans référence) et d’identifier des gènes jouant un rôle dans les mécanismes de survie et d’éclosion. Cette méthode nous a permis de constater que les processus d’éclosion et de parasitisme sont étroitement reliés. Plusieurs effecteurs impliqués dans le mouvement vers la plante hôte et la pénétration de la racine sont induits dès que le kyste est hydraté (avant même le déclenchement de l’éclosion). Avec l’aide du génome de référence du nématode doré, nous avons pu constater que la majorité des transcrits du transcriptome ne provenaient pas du nématode doré. En effet, les kystes échantillonnés au champ peuvent contenir des contaminants (bactéries, champignons, etc.) sur leur paroi et même à l’intérieur du kyste. Ces contaminants seront donc séquencés et assemblés avec le transcriptome de novo. Ces transcrits augmentent la taille du transcriptome et induisent des erreurs lors des analyses post-assemblages. Les méthodes de décontamination actuelles utilisent des alignements sur des bases de données d’organismes connus pour identifier ces séquences provenant de contaminants. Ces méthodes sont efficaces lorsque le ou les contaminants sont connus (possède un génome de référence) comme la contamination humaine. Par contre, lorsque le ou les contaminants sont inconnus, ces méthodes deviennent insuffisantes pour produire un transcriptome décontaminé de qualité. Nous avons donc conçu une méthode qui utilise un algorithme de regroupement hiérarchique des séquences. Cette méthode produit, de façon récursive, des sous-groupes de séquences homogènes en fonction des patrons fréquents présents dans les séquences. Une fois les groupes créés, ils sont étiquetés comme contaminants ou non en fonction des résultats d’alignements du sous-groupe. Les séquences ambiguës ayant aucun ou plusieurs alignements différents sont donc facilement classées en fonction de l’étiquette de leur groupe. Notre méthode a été efficace pour décontaminer le transcriptome du nématode doré ainsi que d’autres cas de contamination. Cette méthode fonctionne pour décontaminer un transcriptome, mais nous avons aussi démontré qu’elle a le potentiel de décontaminer de courtes séquences brutes. Décontaminer directement les séquences brutes serait la méthode de décontamination optimale, car elle minimiserait les erreurs d’assemblage.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le caribou de Peary est l’unité désignable du caribou la plus septentrionale ; sa population a chuté d’environ 70% au cours des trois dernières générations. Le Comité sur la situation des espèces en péril au Canada (COSEPAC) identifie les conditions difficiles d’accès à la nourriture à travers le couvert nival comme le facteur le plus influant contribuant à ce déclin. Cette étude se concentre sur l’établissement d’un outil spatial de caractérisation des conditions nivales pour l’accès à la nourriture du caribou de Peary dans le Nord canadien, utilisant des simulations du couvert nival générées avec le logiciel suisse SNOWPACK à partir des données du Modèle Régional Climatique Canadien. Le cycle de vie du caribou de Peary a été divisé en trois périodes critiques : la période de mise bas et de migration printanière (avril – juin), celle d’abondance de nourriture et de rut (juillet – octobre) et celle de migration automnale et de survie des jeunes caribous (novembre – mars). Les conditions nivales sont analysées et les simulations du couvert nival comparées aux comptes insulaires de caribous de Peary pour identifier un paramètre nival qui agirait comme prédicateur des conditions d’accès à la nourriture et expliquerait les fluctuations des comptes de caribous. Cette analyse conclue que ces comptes sont affectés par des densités de neige au-dessus de 300 kg/m³. Un outil logiciel cartographiant à une échelle régionale (dans l’archipel arctique canadien) les conditions d’accès à la nourriture possiblement favorables et non favorables basées sur la neige est proposé. Des exemples spécifiques de sorties sont données pour montrer l’utilité de l’outil, en cartographiant les pixels selon l’épaisseur cumulée de neige au-dessus de densités de 300 kg/m³, où des épaisseurs cumulées au-dessus de 7000 cm par hiver sont considérées comme non favorables pour le caribou de Peary.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Résumé: Problématique : En réponse à la prévalence accrue de la maladie du diabète et au fardeau économique important que représente cette maladie sur le système de santé international, des programmes incitatifs pour les maladies chroniques furent instaurés à travers le monde. Ces programmes visent à inciter les médecins à appliquer les lignes directrices chez leurs patients avec besoin complexe en vue d’améliorer la santé des patients et par la suite deduire les coûts incombés par le système de santé. Les programmes incitatifs étant nombreux et différents d’un pays à l’autre, les études actuelles ne semblent pas s’entendre sur les répercussions de tels programmes sur la santé des patients atteints de diabète. L’objectif de cette étude est d’évaluer les retombées d’un incitatif financier sur le contrôle glycémique de la population atteinte de diabète du Nouveau-Brunswick, au Canada. Méthodes : Cette étude transversale répétée et de cohorte a été menée grâce à des bases de données administratives du Nouveau-Brunswick contenant des données sur dix ans pour 83 580 patients adultes atteints de diabète et 583 médecins de famille éligibles. La santé des patients a été évaluée au niveau du contrôle glycémique, en mesurant les valeurs moyennes d’A1C annuelles à l’aide de régressions linéaires multivariées. Afin d’évaluer si les médecins changeaient leur pratique avec l’implantation du programme incitatif, nous regardions au niveau de la probabilité de recours annuel à au moins deux tests d’A1C en utilisant des régressions logistiques multivariées. Résultats : La probabilité de recours annuel à au moins deux tests d’A1C était plus élevée dans quatre sous-groupes étudiés : les patients nouvellement diagnostiqués après l’implantation du programme avaient des cotes plus élevées comparées aux nouveaux patients avant l’implantation du programme (OR=1.23 [1.18-1.28]); les patients pour lesquels un médecin avait réclamé l’incitatif comparés aux patients pour lesquels aucun médecin n’avait réclamé l’incitatif (OR=2.73 [2.64-2.81]); les patients pour lesquels un médecin avait réclamé l’incitatif avaient des cotes plus élevées après l’implantation du programme comparé à avant (OR=1.89 [1.80-1.98]); et finalement, les patients suivis par un médecin de famille qui a déjà réclamé l’incitatif avaient des cotes 24% plus élevées (OR=1.24 [1.15-1.34]). Il n’y avait pas de différence dans les valeurs d’A1C annuelles entre les 4 sous-groupes étudiés. Conclusion : L’implantation du programme incitatif a démontré que les médecins ont une meilleure probabilité de prescrire au moins deux tests d’A1C, ce qui suggère une meilleure prise en charge des patients. Cependant, le manque de changement au niveau du contrôle glycémique du patient suggère que l’étude des répercussions de l’incitatif devra être poursuivie afin de voir si elle mène à une amélioration d’issues cliniques chez les patients.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le Régime des Prêts et bourses donne lieu à de nombreuses révisions annuellement par un grand nombre de candidats désireux d'obtenir plus du Gouvernement. Ces nombreuses demandes de révision sont parfois incomplètes, injustifiées, mal documentées et, parfois, elles ne sont même pas présentées, faute d'information. Le projet «Un système expert pour les Prêts et Bourses» tente de résoudre une partie du problème en offrant aux candidats et aux conseillers en milieux scolaires un outil qui permettrait à tous de pouvoir déterminer, facilement et exactement, le montant d'aide espéré. De plus, le prototype présenté explique au candidat les démarches à suivre et les documents nécessaires à une demande de révision si les résultats de son analyse ne correspondent pas avec ceux emmagasinés à Québec. Le prototype utilise les plus récents développements dans le domaine des logiciels commercial sur micro-ordinateurs dans les domaines suivants: bases de données et systèmes experts. Grâce à un mariage de programmation conventionnelle et de règles d'expertise, le système permet de définir rapidement la situation d'un candidat et de lui indiquer exactement ce à quoi il peut s'attendre du gouvernement. Le prototype a atteint ses objectifs principaux et il est fonctionnel. Son sort, en fonction des perfectionnements qu'il nécessite, est maintenant lié aux développements technologiques dans le domaine du matériel et du logiciel. La volonté des intervenants du milieu à mettre à la disposition des candidats un système avant-gardiste, première pierre d'un ensemble intégré de gestion des Prêts et Bourses, influencera aussi son utilisation future. Chose certaine, il est maintenant pensable de mettre au point des applications pratiques relativement complexes grâce à la technologie des systèmes experts et des bases de données et ce, sur micro-ordinateurs.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Le contrôle de la pollution environnementale provoquée par les humains et ses influences sur les activités économiques est un sujet de plus en plus populaire depuis les années 80. Beaucoup de chercheurs s’y intéressent afin de trouver les effets de la politique environnementale sur les activités économiques. Ce mémoire a donc pour but d’étudier et d’analyser le Programme canadien de lutte contre les pluies acides (PCLCPA), né en 1985 pour contrôler les pluies acides dans les provinces de l’Est du Canada, qui est l’endroit le plus endommagé par les pluies acides. L’Effet de havre de pollution est la théorie sur laquelle nous nous sommes appuyés dans notre recherche. Nous avons supposé au préalable que le PCLCPA crée un effet positif sur les importations interprovinciales dans les provinces de l’Est du Canada, dans les secteurs industriels qui sont les plus polluants et qui sont classés selon quatre indicateurs d’intensité. Pour vérifier la robustesse des résultats, les importations internationales ainsi que les exportations interprovinciales et internationales sont retenues. En employant la méthode de triple-différence, nos résultats montrent que le PCLCPA n’a pas un effet significatif sur les flux commerciaux canadiens. Les raisons principales pour expliquer un tel résultat portent sur, premièrement, la qualité insuffisante des bases de données; deuxièmement, la structure régionale de l’économie canadienne, qui est la cause majeure de l’échange interprovincial et international canadien, et non le PCLCPA; troisièmement, l’Accord de Libre-Échange entre le Canada et les États-Unis (ALE) a un impact possible sur le commerce international du Canada (avec des conséquences pour le commerce interprovincial également).

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’échocardiographie et l’imagerie par résonance magnétique sont toutes deux des techniques non invasives utilisées en clinique afin de diagnostiquer ou faire le suivi de maladies cardiaques. La première mesure un délai entre l’émission et la réception d’ultrasons traversant le corps, tandis que l’autre mesure un signal électromagnétique généré par des protons d’hydrogène présents dans le corps humain. Les résultats des acquisitions de ces deux modalités d’imagerie sont fondamentalement différents, mais contiennent dans les deux cas de l’information sur les structures du coeur humain. La segmentation du ventricule gauche consiste à délimiter les parois internes du muscle cardiaque, le myocarde, afin d’en calculer différentes métriques cliniques utiles au diagnostic et au suivi de différentes maladies cardiaques, telle la quantité de sang qui circule à chaque battement de coeur. Suite à un infarctus ou autre condition, les performances ainsi que la forme du coeur en sont affectées. L’imagerie du ventricule gauche est utilisée afin d’aider les cardiologues à poser les bons diagnostics. Cependant, dessiner les tracés manuels du ventricule gauche requiert un temps non négligeable aux cardiologues experts, d’où l’intérêt pour une méthode de segmentation automatisée fiable et rapide. Ce mémoire porte sur la segmentation du ventricule gauche. La plupart des méthodes existantes sont spécifiques à une seule modalité d’imagerie. Celle proposée dans ce document permet de traiter rapidement des acquisitions provenant de deux modalités avec une précision de segmentation équivalente au tracé manuel d’un expert. Pour y parvenir, elle opère dans un espace anatomique, induisant ainsi une forme a priori implicite. L’algorithme de Graph Cut, combiné avec des stratégies telles les cartes probabilistes et les enveloppes convexes régionales, parvient à générer des résultats qui équivalent (ou qui, pour la majorité des cas, surpassent) l’état de l’art ii Sommaire au moment de la rédaction de ce mémoire. La performance de la méthode proposée, quant à l’état de l’art, a été démontrée lors d’un concours international. Elle est également validée exhaustivement via trois bases de données complètes en se comparant aux tracés manuels de deux experts et des tracés automatisés du logiciel Syngovia. Cette recherche est un projet collaboratif avec l’Université de Bourgogne, en France.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Les récepteurs couplés aux protéines G (RCPG) représentent la famille de récepteurs membranaires la plus étendue. Présentement, 30% des médicaments disponibles sur le marché agissent sur plus ou moins 4% des RCPG connus. Cela indique qu’il existe encore une multitude de RCPG à explorer, qui pourraient démontrer un potentiel thérapeutique intéressant pour des pathologies encore sans traitement disponible. La douleur chronique, qui affecte 1 canadien sur 5, fait partie de ces affections pour lesquelles les thérapies sont faiblement efficaces. Dans le but éventuel de pallier à ce problème, le projet de ce mémoire consistait à mieux comprendre les mécanismes régissant l’adressage membranaire du récepteur de la neurotensine de type 2 (NTS2), un RCPG dont l’activation induit des effets analgésiques puissants de type non opioïdergique. Des données du laboratoire ayant révélé une interaction entre la 3e boucle intracellulaire de NTS2 et la sécrétogranine III (SgIII), une protéine résidente de la voie de sécrétion régulée, notre objectif était de caractériser le rôle de SgIII dans la fonctionnalité du récepteur NTS2. Pour ce faire, l’interaction entre les deux protéines a d’abord été vérifiée par co-immunoprécipitation, GST pull down, essais de colocalisation subcellulaire et par FRET. Nous avons également utilisé un outil d’interférence à l’ARN (DsiRNA) pour invalider la protéine SgIII dans un modèle cellulaire neuronal et chez l’animal. Des essais de radioliaison sur le modèle cellulaire ont révélé une diminution de l’adressage de NTS2 à la membrane plasmique lorsque SgIII était supprimée. De la même façon, une invalidation de SgIII chez le rat inhibe les effets analgésiques d’un agoniste NTS2-sélectif (JMV-431), qui sont normalement observés dans le test de retrait de la queue (douleur aiguë). Nous avons cependant identifié que des stimulations au KCl, à la capsaïcine et à la neurotensine induisaient plutôt une insertion du récepteur à la membrane dans les cellules neuronales. Puisque l’interaction entre SgIII et la 3e boucle intracellulaire du récepteur NTS2 est peu probable selon un système de sécrétion classique, un modèle hypothétique de transition dans les corps multi-vésiculaires a été vérifié. Ainsi, la présence de NTS2 et de SgIII a été révélée dans des préparations exosomales de DRG F11, en plus d’une transférabilité du récepteur par le milieu extracellulaire. En somme, ces résultats démontrent la dépendance du récepteur NTS2 envers SgIII et la voie de sécrétion régulée, en plus d’identifier certains facteurs pouvant augmenter son expression à la surface cellulaire. Le projet contribue ainsi à ouvrir la voie vers des approches pour potentialiser les propriétés de NTS2 in vivo¸ en plus d’une piste d’explication concernant le trafic intracellulaire du récepteur.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Comprendre de quelle façon les populations animales répondent aux conditions qui prévalent dans leur environnement revêt une grande importance. Les conditions climatiques et météorologiques sont une source importante de variabilité dans l'environnement et celles-ci ont des répercussions sur les espèces sauvages, en affectant leur physiologie, leur comportement et leurs ressources. Les ongulés alpins et nordiques font face à une succession annuelle de conditions environnementales favorables et défavorables, entraînant chez ceux-ci d'importants changements de masse saisonniers. Chez ces grands herbivores, la masse est importante puisqu'elle est positivement corrélée à la survie et à la reproduction. C'est pourquoi il est essentiel d'investiguer les paramètres affectant les changements de masse saisonniers. L'objectif principal de ma maîtrise était donc d'identifier et de mieux comprendre l'effet des conditions climatiques et météorologiques sur les changements de masse estivaux et hivernaux d'un ongulé alpin: le mouflon d'Amérique (Ovis canadensis). Pour atteindre cet objectif, j'ai utilisé les données du suivi à long terme de la population de mouflons de Ram Mountain, Alberta. Les mesures de masse répétées prises lors des captures permettent d'estimer la masse printanière et automnale des individus, ainsi que leur gain de masse estival et leur changement de masse hivernal. En affectant les coûts énergétiques de la thermorégulation et des déplacements et en influençant la végétation, les conditions climatiques et météorologiques peuvent avoir d'importantes conséquences sur les changements de masse des ongulés alpins. La température, les précipitations et un indice de climat global (le «Pacific Decadal Oscillation»; PDO) ont donc été utilisés afin de caractériser les conditions environnementales et d'investiguer les effets de ces variables sur les changements de masse saisonniers des individus de différentes classes d'âge et de sexe. Des températures froides au printemps ont engendré de plus grands gains de masse estivaux. Des printemps froids peuvent ralentir la maturation des plantes, engendrant une plus grande période où il est possible de s'alimenter de jeunes plantes nutritives, ce qui explique probablement cet effet positif des printemps froids. Cet effet doit toutefois être nuancé puisque les changements de masse hivernaux étaient également influencés par la température printanière, avec des printemps chauds menant à de plus faibles pertes de masse. Il semble que cet effet était dû à une apparition hâtive de la végétation, menant à une prise de masse des mouflons avant qu'ils ne soient capturés au printemps. Cela suggère qu'en affectant la disponibilité et la qualité de la végétation, les conditions printanières ont des répercussions à la fois sur le gain de masse estival, mais également sur les changements de masse hivernaux des mouflons. Le PDO au printemps a un effet positif important sur le gain de masse des adultes mâles lorsque la densité est faible. Des températures chaudes à l'automne engendrent de plus grands gains de masse pendant l'hiver chez les agneaux mâles (la plupart des agneaux gagnent de la masse l'hiver), potentiellement en augmentant la période possible de prise de masse pour ces jeunes individus. Les femelles de deux ans et les mâles adultes ont perdu plus de masse lors d'hivers avec beaucoup de précipitations et des températures froides, respectivement. Finalement, ce projet de recherche a permis d'identifier les variables climatiques et météorologiques clés affectant les changements de masse saisonniers d'un ongulé alpin. Cette étude a également mis en évidence des effets du PDO sur les changements de masse saisonniers, soulignant que de tels indices peuvent s'avérer utiles afin de les mettre en lien avec la variation phénotypique chez les espèces sauvages, et ce sans qu'il n'y ait nécessairement de fortes corrélations entre ces indices et les variables météorologiques locales.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Résumé : Les réanimateurs ont recours à des interventions à la fois médicales et chirurgicales en contexte de choc traumatique. Le rôle des vasopresseurs dans cette prise en charge est controversé. Alors que les lignes directrices américaines considèrent que les vasopresseurs sont contre-indiqués, certains experts européens en encouragent l’utilisation pour diminuer le recours aux liquides intraveineux. Avant d’élaborer un essai clinique, il importe de comprendre la pratique actuelle à laquelle se comparera une intervention expérimentale, ainsi que de connaître le niveau d’incertitude dans la littérature entourant la question de recherche. Le Chapitre 2 de ce travail présente une étude observationnelle effectuée dans un centre régional de traumatologie québécois. Cette étude documente les pratiques de réanimation adoptées par les équipes de traumatologie en 2013, particulièrement le recours aux liquides intraveineux et aux vasopresseurs. Les résultats démontrent que les vasopresseurs ont été utilisés chez plus de 40% des patients, particulièrement les victimes de traumatismes crâniens (RC 10.2, IC 95% 2.7-38.5). De plus, les vasopresseurs ont été administrés dans les phases précoces de la réanimation, soit avant l’administration d’un volume important de liquides. Le Chapitre 3 présente une revue systématique portant sur l’utilisation précoce de vasopresseurs en traumatologie. Les bases de données MEDLINE, EMBASE, CENTRAL et ClinicalTrials.gov ont été interrogées, ainsi que les abrégés présentés dans les conférences majeures en traumatologie depuis 2005. La sélection des études et l’extraction des données ont été effectuées en duplicata. Aucune donnée interprétable n’a pu être extraite des études observationnelles et le seul essai clinique identifié n’avait pas une puissance suffisante (RR de mortalité avec vasopresseurs 1.24, IC 95 % 0.64-2.43). Cette synthèse met en lumière l’incertitude scientifique sur le rôle des vasopresseurs en traumatologie. Les vasopresseurs ont des bénéfices potentiels importants, puisqu’ils permettent entre autres de supporter étroitement l’hémodynamie des patients. En revanche, ils présentent aussi un fort potentiel de dangerosité. Ils sont utilisés fréquemment, malgré l’absence de données sur leurs risques et bénéfices. Ces trouvailles établissent clairement la pertinence clinique et le bien-fondé éthique d’un essai clinique sur le rôle des vasopresseurs dans la prise en charge précoce des victimes de traumatismes.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Objectif principal: Vérifier dans quelle mesure la détresse psychologique est associée à l’expérience de soins des patients avec multimorbidité. Objectifs spécifiques : (a) décrire l’expérience de soins des patients avec ou sans multimorbidité, (b) décrire l’expérience de soins des patients avec ou sans détresse psychologique, (c) explorer l'effet modérateur de la détresse psychologique sur l'expérience de soins des patients avec multimorbidité. Devis : Étude corrélationnelle descriptive basée sur une analyse secondaire des données du deu-xième temps de mesure du programme PRÉCISE, une étude de cohorte portant sur l’effet des soins de première ligne sur la santé dans trois régions du Québec. Échantillon : 1511 utilisateurs de soins de première ligne formant la cohorte populationnelle de PRÉCISE (59,8 % de femmes, 24,2 % avec multimorbidité, 40,8 % avec détresse psychologique.) Résultats : Les individus avec multimorbidité ont une moins bonne perception de la conti-nuité informationnelle (p<0,01), mais tendent à avoir une meilleure perception de l’accessibilité que ceux sans multimorbidité (p=0,07). En ajustant pour le sexe et l’âge, la multimorbidité est associée à la continuité informationnelle (B=-0,66, IC -0,87, -0,45, p<0,01). Les individus avec détresse psychologique perçoivent plus négativement l’accessibilité organisationnelle que ceux sans détresse psychologique (p<0,01), et leur per-ception de la continuité informationnelle (p<0,01) est également moins bonne. En ajustant pour l’âge, la détresse psychologique est associée à une moins bonne perception de l’accessibilité organisationnelle (B=-0,16, IC -0,25, -0,05, p<0,01). En ajustant pour le sexe et l’âge, la détresse psychologique est associée à une moins bonne perception de la conti-nuité informationnelle (B=-0,74, IC -0,91, -0,57, p<0,01). Aucun rôle modérateur de la détresse psychologique n’a pu être identifié. Discussion : Les patients avec détresse psy-chologique ont une moins bonne perception de leur expérience de soins que ceux sans cette caractéristique, et ceux avec multimorbidité ont une moins bonne perception de la continuité informationnelle, mais une meilleure perception d’accessibilité organisationnelle. Les faibles écarts observés entre les groupes quant à l’expérience de soins incitent à la prudence dans l’interprétation puisqu’elles ne reflètent pas nécessairement une différence significative sur le plan clinique entre les groupes. Conclusion : Cette étude illustre certaines pistes à explorer en lien avec les distinctions entre les utilisateurs ayant certaines caractéristiques de vulnérabilité quand vient le moment de sonder leur expérience de soins, particulièrement en ce qui concerne les patients avec une composante de détresse psychologique.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Résumé : En raison de sa grande étendue, le Nord canadien présente plusieurs défis logistiques pour une exploitation rentable de ses ressources minérales. La TéléCartographie Prédictive (TCP) vise à faciliter la localisation de gisements en produisant des cartes du potentiel géologique. Des données altimétriques sont nécessaires pour générer ces cartes. Or, celles actuellement disponibles au nord du 60e parallèle ne sont pas optimales principalement parce qu’elles sont dérivés de courbes à équidistance variable et avec une valeur au mètre. Parallèlement, il est essentiel de connaître l'exactitude verticale des données altimétriques pour être en mesure de les utiliser adéquatement, en considérant les contraintes liées à son exactitude. Le projet présenté vise à aborder ces deux problématiques afin d'améliorer la qualité des données altimétriques et contribuer à raffiner la cartographie prédictive réalisée par TCP dans le Nord canadien, pour une zone d’étude située au Territoire du Nord-Ouest. Le premier objectif était de produire des points de contrôles permettant une évaluation précise de l'exactitude verticale des données altimétriques. Le second objectif était de produire un modèle altimétrique amélioré pour la zone d'étude. Le mémoire présente d'abord une méthode de filtrage pour des données Global Land and Surface Altimetry Data (GLA14) de la mission ICESat (Ice, Cloud and land Elevation SATellite). Le filtrage est basé sur l'application d'une série d'indicateurs calculés à partir d’informations disponibles dans les données GLA14 et des conditions du terrain. Ces indicateurs permettent d'éliminer les points d'élévation potentiellement contaminés. Les points sont donc filtrés en fonction de la qualité de l’attitude calculée, de la saturation du signal, du bruit d'équipement, des conditions atmosphériques, de la pente et du nombre d'échos. Ensuite, le document décrit une méthode de production de Modèles Numériques de Surfaces (MNS) améliorés, par stéréoradargrammétrie (SRG) avec Radarsat-2 (RS-2). La première partie de la méthodologie adoptée consiste à faire la stéréorestitution des MNS à partir de paires d'images RS-2, sans point de contrôle. L'exactitude des MNS préliminaires ainsi produits est calculée à partir des points de contrôles issus du filtrage des données GLA14 et analysée en fonction des combinaisons d’angles d'incidences utilisées pour la stéréorestitution. Ensuite, des sélections de MNS préliminaires sont assemblées afin de produire 5 MNS couvrant chacun la zone d'étude en totalité. Ces MNS sont analysés afin d'identifier la sélection optimale pour la zone d'intérêt. Les indicateurs sélectionnés pour la méthode de filtrage ont pu être validés comme performant et complémentaires, à l’exception de l’indicateur basé sur le ratio signal/bruit puisqu’il était redondant avec l’indicateur basé sur le gain. Autrement, chaque indicateur a permis de filtrer des points de manière exclusive. La méthode de filtrage a permis deduire de 19% l'erreur quadratique moyenne sur l'élévation, lorsque que comparée aux Données d'Élévation Numérique du Canada (DNEC). Malgré un taux de rejet de 69% suite au filtrage, la densité initiale des données GLA14 a permis de conserver une distribution spatiale homogène. À partir des 136 MNS préliminaires analysés, aucune combinaison d’angles d’incidences des images RS-2 acquises n’a pu être identifiée comme étant idéale pour la SRG, en raison de la grande variabilité des exactitudes verticales. Par contre, l'analyse a indiqué que les images devraient idéalement être acquises à des températures en dessous de 0°C, pour minimiser les disparités radiométriques entre les scènes. Les résultats ont aussi confirmé que la pente est le principal facteur d’influence sur l’exactitude de MNS produits par SRG. La meilleure exactitude verticale, soit 4 m, a été atteinte par l’assemblage de configurations de même direction de visées. Par contre, les configurations de visées opposées, en plus de produire une exactitude du même ordre (5 m), ont permis deduire le nombre d’images utilisées de 30%, par rapport au nombre d'images acquises initialement. Par conséquent, l'utilisation d'images de visées opposées pourrait permettre d’augmenter l’efficacité de réalisation de projets de SRG en diminuant la période d’acquisition. Les données altimétriques produites pourraient à leur tour contribuer à améliorer les résultats de la TCP, et augmenter la performance de l’industrie minière canadienne et finalement, améliorer la qualité de vie des citoyens du Nord du Canada.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Depuis quelques décennies, la consultation en contexte organisationnel constitue une pratique professionnelle importante. L’efficacité de la consultation est l’un des enjeux de la pratique tant pour les clients que pour les consultants. Certains auteurs ont développé des modèles pour comprendre le processus de consultation et ses composantes. La documentation sur l’efficacité de la consultation fait ressortir la contribution de la relation client-consultant comme facteur explicatif. Toutefois, peu d’études se sont penchées sur le lien statistique entre la relation client-consultant et l’efficacité de la consultation comme pratique globale. Cette recherche s’intéresse à la relation client-consultant telle qu’exprimée par ses activités (variable indépendante) et à leurs portées sur l’efficacité de la consultation organisationnelle (variable dépendante) telle qu’évaluée par des clients. Les bases théoriques et empiriques en contextes clinique et organisationnel portent à croire qu’il existe une relation positive significative entre ces deux variables. Ainsi, pour cette étude, une hypothèse est posée : les activités de la relation client-consultant sont en relation de façon positive avec l’efficacité de la consultation telle qu’évaluée par le client. Cette étude a été menée auprès de 88 clients. Les données utilisées pour cette étude ont été recueillies en un seul temps de mesure avec deux instruments combinés dans le questionnaire CERCC-CL édité sur Internet, via Survey Monkey, et crypté pour assurer la sécurité et la confidentialité des données. Les résultats révèlent que la relation se décline en quatre dimensions : 1) entente professionnelle; 2) réciprocité; 3) soutien du consultant et 4) compatibilité personnelle. L’hypothèse est en grande partie corroborée; trois dimensions de la relation, soit (1) entente professionnelle, (2) réciprocité et (4) compatibilité personnelle, influencent la qualité d’une démarche de consultation, l’un des deux critères de l’efficacité et l’efficacité de la consultation dans sa globalité. La compatibilité personnelle (4) influence les résultats à valeur ajoutée, le second critère de l’efficacité. Le score global de la relation client-consultant permet de prédire de façon significative les deux facteurs d’efficacité de la consultation et l’efficacité globale. L’ensemble de ces résultats apporte un premier éclairage sur la contribution potentielle de deux nouveaux questionnaires permettant au client et au consultant de s’évaluer en cours de processus ou à la fin de celui-ci. Les résultats contribuent surtout à la considération et à une meilleure compréhension de l’importance de la relation client-consultant pour expliquer l’efficacité d’une intervention. La relation client-consultant selon la perspective du client, principal acteur à satisfaire, favorise une vision positive du mandat. Pour le consultant, cette étude fait valoir l’importance de miser et de parfaire ses habiletés relationnelles indépendamment de son domaine d’expertise s’il veut être efficace dans sa pratique de la consultation.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

La municipalité de Weedon, en Estrie, a récemment acquis un terrain vacant à proximité du village. La municipalité désire un développement intégrant le concept de développement durable dans le plan d’aménagement du terrain et dans la construction des infrastructures. L’objectif général de ce travail est de recommander à la municipalité de Weedon des moyens pour adapter l’écoquartier aux caractéristiques hydrographiques et biophysiques du milieu. Premièrement, le milieu biophysique et hydrographique est caractérisé grâce à l’analyse de données géospatiales et par photointerprétation de photographies aériennes. Le potentiel de développement est analysé grâce à l’outil ArcGIS afin de déterminer les zones propices à l’urbanisation ainsi que les zones à exclure. Il est recommandé de concentrer le développement du site dans la zone n’ayant aucune contrainte et de limiter la densité des habitations dans les espaces présentant des contraintes. Selon ces suggestions, il sera possible de développer environ 40 bâtiments sur le site. Deuxièmement, les systèmes de gestion des eaux usées (le système septique individuel, le système décentralisé et le système centralisé) sont décrits en fonction de leurs avantages, de leurs inconvénients et de leurs limites. Ces points sont ensuite comparés et la création d’un arbre de décision permet de recommander le système le mieux adapté au milieu. Les zones avec contraintes de développement devraient utiliser des systèmes de traitement septiques. Pour ce qui est de la zone sans contraintes, le système de traitement septique est recommandé uniquement si la densité est égale ou inférieure à 5 unités d’habitations par hectare. Si la densité désirée par la municipalité est plus élevée pour cette zone, le raccordement au système de traitement centralisé est recommandé. Troisièmement, les mesures de gestion des eaux pluviales sont présentées selon différentes caractéristiques adaptées au site. Leur recommandation est basée sur une analyse multicritère pondérée. Les pratiques de gestion optimales qui devraient être utilisées conjointement sur le site sont la collecte et la réutilisation de l’eau de pluie pour la gestion sur le site, la noue engazonnée avec drain pour la gestion en réseau et le marais artificiel pour la gestion en fin de réseau. Les recommandations présentées dans ce travail visent à privilégier des modes de développement alternatifs à l’urbanisation classique afin d’établir les bases pour le développement d’un quartier durable à Weedon.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

Le rôle central du phytoplancton à la base de la chaîne trophique aquatique motive une compréhension étayée des facteurs pouvant faire varier les populations et la composition des populations de phytoplancton. Cette compréhension est d'autant plus importante dans le contexte actuel, puisque nous savons que l'humain influence le climat et les milieux aquatiques par sa présence et ses activités. Nous tentons donc, dans notre étude, de déterminer les variables environnementales importantes qui dictent les changements de taille et de composition de la communauté de phytoplancton à l'échelle d'un lac et d'en déduire les niches réalisées des différentes espèces du lac. L'utilisation d'une station mobile de manière verticale dans le lac Montjoie (Saint-Denis-de-Brompton) a permis de collecter des données in situ à haute fréquence et résolution temporelle caractérisant la colonne d'eau. Combinée à ces mesures, une banque de données sur l'abondance de différentes catégories de phytoplancton a été créée à l'aide d'un cytomètre en flux imageur (IFCB) et d'un programme de reconnaissance d'images qui lui est associé. En combinant ces données nous avons déterminé que la température moyenne au-dessus de la thermocline et que la profondeur limite de chlorophylle (2 écarts-types sous le maximum de chlorophylle) étaient les 2 variables (parmi les variables mesurées) les plus appropriées pour déterminer les niches réalisées de nos catégories de phytoplancton. À l'aide de ces 2 variables, nous avons pu déterminer les niches réalisées d'une trentaine de catégories présentes dans notre lac. Les niches ont été déterminées à la fois sur les données d'abondance et sur les données de taux de croissance nette à l'aide de deux méthodes différentes, soit l'analyse canonique des correspondances (CCA) et la maximisation de l'entropie d'information (MaxEnt). Ce sont finalement les niches déterminées avec les taux de croissance nette qui sont les plus pertinentes. Les deux méthodes ont donné des résultats semblables, mais c'est MaxEnt qui est la plus versatile pour l'ajout de nouvelles variables explicatives et c'est donc celle-ci que nous privilégierons dans le futur.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

L’objectif essentiel de cette thèse est de développer un système industriel de réfrigération ou de climatisation qui permet la conversion du potentiel de l’énergie solaire en production du froid. Ce système de réfrigération est basé sur la technologie de l’éjecto-compression qui propose la compression thermique comme alternative économique à la compression mécanique coûteuse. Le sous-système de réfrigération utilise un appareil statique fiable appelé éjecteur actionné seulement par la chaleur utile qui provient de l’énergie solaire. Il est combiné à une boucle solaire composée entre autres de capteurs solaires cylindro-paraboliques à concentration. Cette combinaison a pour objectif d’atteindre des efficacités énergétiques et exergétiques globales importantes. Le stockage thermique n’est pas considéré dans ce travail de thèse mais sera intégré au système dans des perspectives futures. En première étape, un nouveau modèle numérique et thermodynamique d’un éjecteur monophasique a été développé. Ce modèle de design applique les conditions d’entrée des fluides (pression, température et vitesse) et leur débit. Il suppose que le mélange se fait à pression constante et que l’écoulement est subsonique à l’entrée du diffuseur. Il utilise un fluide réel (R141b) et la pression de sortie est imposée. D’autre part, il intègre deux innovations importantes : il utilise l'efficacité polytropique constante (plutôt que des efficacités isentropiques constantes utilisées souvent dans la littérature) et n’impose pas une valeur fixe de l'efficacité du mélange, mais la détermine à partir des conditions d'écoulement calculées. L’efficacité polytropique constante est utilisée afin de quantifier les irréversibilités au cours des procédés d’accélérations et de décélération comme dans les turbomachines. La validation du modèle numérique de design a été effectuée à l’aide d’une étude expérimentale présente dans la littérature. La seconde étape a pour but de proposer un modèle numérique basé sur des données expérimentales de la littérature et compatible à TRNSYS et un autre modèle numérique EES destinés respectivement au capteur solaire cylindro-parabolique et au sous-système de réfrigération à éjecteur. En définitive et après avoir développé les modèles numériques et thermodynamiques, une autre étude a proposé un modèle pour le système de réfrigération solaire à éjecteur intégrant ceux de ses composantes. Plusieurs études paramétriques ont été entreprises afin d’évaluer les effets de certains paramètres (surchauffe du réfrigérant, débit calorifique du caloporteur et rayonnement solaire) sur sa performance. La méthodologie proposée est basée sur les lois de la thermodynamique classique et sur les relations de la thermodynamique aux dimensions finies. De nouvelles analyses exergétiques basées sur le concept de l’exergie de transit ont permis l'évaluation de deux indicateurs thermodynamiquement importants : l’exergie produite et l’exergie consommée dont le rapport exprime l’efficacité exergétique intrinsèque. Les résultats obtenus à partir des études appliquées à l’éjecteur et au système global montrent que le calcul traditionnel de l’efficacité exergétique selon Grassmann n’est désormais pas un critère pertinent pour l'évaluation de la performance thermodynamique des éjecteurs pour les systèmes de réfrigération.