29 resultados para géomorphologie, glacier, Haute-Savoie
em Université de Montréal, Canada
Resumo:
Rapport de recherche
Resumo:
Rapport de recherche
Resumo:
Rapport de recherche
Resumo:
L’exercice d’allocation de ressources en santé, relevant du Ministère de la santé, se voit fortement influencé autant par les besoins variés de la population que par les exigences des intervenants en santé. Quel rôle ces différents intérêts peuvent-ils jouer dans l’intégration de nouvelles technologies dans la distribution des soins de santé ? La pharmacogénomique, branche émergente de la pharmacologie intégrant les données issues du projet génome humain au processus de développement du médicament, est perçue comme une technologie qui permettrait de personnaliser la médecine. Son intégration aux processus de développement ou de prescription de médicaments promet de minimiser l’apparition d’effets secondaires néfastes découlant de la prise de médicaments. Serait-il alors judicieux pour le gouvernement du Québec, considérant la conjoncture actuelle d’allocation de ressources, d’investir dans la pharmacogénomique en tant que nouvel outil de développement du médicament ou nouveau mode pronostic de médication pour sa population ? Nous aborderons cette question à l’aide de critères de sélection dictés par Caulfield et ses collaborateurs (2001)[1] pour évaluer la pertinence de l’investissement public dans la mise sur pied d’un test génétique, soit l’acceptabilité, l’utilité, la non-malfaisance et la présence d’un bénéfice clair – à coût raisonnable – pour la population. La génomique avoisinant la génétique, ces facteurs s’avèrent applicables dans notre discussion.
Resumo:
La réalisation de dispositifs à des dimensions sous-micrométriques et nanométriques demande une maîtrise parfaite des procédés de fabrication, notamment ceux de gravure. La réalisation des ces dispositifs est complexe et les exigences en termes de qualité et de géométrie des profils de gravure imposent de choisir les conditions opératoires les mieux adaptées. Les simulations de l'évolution spatio-temporelle des profils de gravure que nous proposons dans cette thèse s'inscrivent parfaitement dans ce contexte. Le simulateur que nous avons réalisé offre la possibilité de mieux comprendre les processus qui entrent en jeu lors de la gravure par plasma de profils dans divers matériaux. Il permet de tester l'influence des paramètres du plasma sur la forme du profil et donc de déterminer les conditions opératoires optimales. La mise au point de ce simulateur s'appuie sur les concepts fondamentaux qui gouvernent la gravure par plasma. À partir de l'état des lieux des différentes approches numériques pouvant être utilisées, nous avons élaboré un algorithme stable et adaptable permettant de mettre en évidence l'importance de certains paramètres clés pour la réalisation de profils de gravure par un plasma à haute densité et à basse pression. Les capacités de cet algorithme ont été testées en étudiant d'une part la pulvérisation de Si dans un plasma d'argon et d'autre part, la gravure chimique assistée par les ions de SiO2/Si dans un plasma de chlore. Grâce aux comparaisons entre profils simulés et expérimentaux, nous avons montré l'importance du choix de certains paramètres, comme la nature du gaz utilisé et la pression du plasma, la forme initiale du masque, la sélectivité masque/matériau, le rapport de flux neutre/ion, etc. Nous avons aussi lié ces paramètres à la formation de défauts dans les profils, par exemple celle de facettes sur le masque, de parois concaves, et de micro-tranchées. Enfin, nous avons montré que le phénomène de redépôt des atomes pulvérisés entre en compétition avec la charge électrique de surface pour expliquer la formation de profils en V dans le Pt pulvérisé par un plasma d'argon.
Resumo:
RÉSUMÉ - Les images satellitales multispectrales, notamment celles à haute résolution spatiale (plus fine que 30 m au sol), représentent une source d’information inestimable pour la prise de décision dans divers domaines liés à la gestion des ressources naturelles, à la préservation de l’environnement ou à l’aménagement et la gestion des centres urbains. Les échelles d’étude peuvent aller du local (résolutions plus fines que 5 m) à des échelles régionales (résolutions plus grossières que 5 m). Ces images caractérisent la variation de la réflectance des objets dans le spectre qui est l’information clé pour un grand nombre d’applications de ces données. Or, les mesures des capteurs satellitaux sont aussi affectées par des facteurs « parasites » liés aux conditions d’éclairement et d’observation, à l’atmosphère, à la topographie et aux propriétés des capteurs. Deux questions nous ont préoccupé dans cette recherche. Quelle est la meilleure approche pour restituer les réflectances au sol à partir des valeurs numériques enregistrées par les capteurs tenant compte des ces facteurs parasites ? Cette restitution est-elle la condition sine qua non pour extraire une information fiable des images en fonction des problématiques propres aux différents domaines d’application des images (cartographie du territoire, monitoring de l’environnement, suivi des changements du paysage, inventaires des ressources, etc.) ? Les recherches effectuées les 30 dernières années ont abouti à une série de techniques de correction des données des effets des facteurs parasites dont certaines permettent de restituer les réflectances au sol. Plusieurs questions sont cependant encore en suspens et d’autres nécessitent des approfondissements afin, d’une part d’améliorer la précision des résultats et d’autre part, de rendre ces techniques plus versatiles en les adaptant à un plus large éventail de conditions d’acquisition des données. Nous pouvons en mentionner quelques unes : - Comment prendre en compte des caractéristiques atmosphériques (notamment des particules d’aérosol) adaptées à des conditions locales et régionales et ne pas se fier à des modèles par défaut qui indiquent des tendances spatiotemporelles à long terme mais s’ajustent mal à des observations instantanées et restreintes spatialement ? - Comment tenir compte des effets de « contamination » du signal provenant de l’objet visé par le capteur par les signaux provenant des objets environnant (effet d’adjacence) ? ce phénomène devient très important pour des images de résolution plus fine que 5 m; - Quels sont les effets des angles de visée des capteurs hors nadir qui sont de plus en plus présents puisqu’ils offrent une meilleure résolution temporelle et la possibilité d’obtenir des couples d’images stéréoscopiques ? - Comment augmenter l’efficacité des techniques de traitement et d’analyse automatique des images multispectrales à des terrains accidentés et montagneux tenant compte des effets multiples du relief topographique sur le signal capté à distance ? D’autre part, malgré les nombreuses démonstrations par des chercheurs que l’information extraite des images satellitales peut être altérée à cause des tous ces facteurs parasites, force est de constater aujourd’hui que les corrections radiométriques demeurent peu utilisées sur une base routinière tel qu’est le cas pour les corrections géométriques. Pour ces dernières, les logiciels commerciaux de télédétection possèdent des algorithmes versatiles, puissants et à la portée des utilisateurs. Les algorithmes des corrections radiométriques, lorsqu’ils sont proposés, demeurent des boîtes noires peu flexibles nécessitant la plupart de temps des utilisateurs experts en la matière. Les objectifs que nous nous sommes fixés dans cette recherche sont les suivants : 1) Développer un logiciel de restitution des réflectances au sol tenant compte des questions posées ci-haut. Ce logiciel devait être suffisamment modulaire pour pouvoir le bonifier, l’améliorer et l’adapter à diverses problématiques d’application d’images satellitales; et 2) Appliquer ce logiciel dans différents contextes (urbain, agricole, forestier) et analyser les résultats obtenus afin d’évaluer le gain en précision de l’information extraite par des images satellitales transformées en images des réflectances au sol et par conséquent la nécessité d’opérer ainsi peu importe la problématique de l’application. Ainsi, à travers cette recherche, nous avons réalisé un outil de restitution de la réflectance au sol (la nouvelle version du logiciel REFLECT). Ce logiciel est basé sur la formulation (et les routines) du code 6S (Seconde Simulation du Signal Satellitaire dans le Spectre Solaire) et sur la méthode des cibles obscures pour l’estimation de l’épaisseur optique des aérosols (aerosol optical depth, AOD), qui est le facteur le plus difficile à corriger. Des améliorations substantielles ont été apportées aux modèles existants. Ces améliorations concernent essentiellement les propriétés des aérosols (intégration d’un modèle plus récent, amélioration de la recherche des cibles obscures pour l’estimation de l’AOD), la prise en compte de l’effet d’adjacence à l’aide d’un modèle de réflexion spéculaire, la prise en compte de la majorité des capteurs multispectraux à haute résolution (Landsat TM et ETM+, tous les HR de SPOT 1 à 5, EO-1 ALI et ASTER) et à très haute résolution (QuickBird et Ikonos) utilisés actuellement et la correction des effets topographiques l’aide d’un modèle qui sépare les composantes directe et diffuse du rayonnement solaire et qui s’adapte également à la canopée forestière. Les travaux de validation ont montré que la restitution de la réflectance au sol par REFLECT se fait avec une précision de l’ordre de ±0.01 unités de réflectance (pour les bandes spectrales du visible, PIR et MIR), même dans le cas d’une surface à topographie variable. Ce logiciel a permis de montrer, à travers des simulations de réflectances apparentes à quel point les facteurs parasites influant les valeurs numériques des images pouvaient modifier le signal utile qui est la réflectance au sol (erreurs de 10 à plus de 50%). REFLECT a également été utilisé pour voir l’importance de l’utilisation des réflectances au sol plutôt que les valeurs numériques brutes pour diverses applications courantes de la télédétection dans les domaines des classifications, du suivi des changements, de l’agriculture et de la foresterie. Dans la majorité des applications (suivi des changements par images multi-dates, utilisation d’indices de végétation, estimation de paramètres biophysiques, …), la correction des images est une opération cruciale pour obtenir des résultats fiables. D’un point de vue informatique, le logiciel REFLECT se présente comme une série de menus simples d’utilisation correspondant aux différentes étapes de saisie des intrants de la scène, calcul des transmittances gazeuses, estimation de l’AOD par la méthode des cibles obscures et enfin, l’application des corrections radiométriques à l’image, notamment par l’option rapide qui permet de traiter une image de 5000 par 5000 pixels en 15 minutes environ. Cette recherche ouvre une série de pistes pour d’autres améliorations des modèles et méthodes liés au domaine des corrections radiométriques, notamment en ce qui concerne l’intégration de la FDRB (fonction de distribution de la réflectance bidirectionnelle) dans la formulation, la prise en compte des nuages translucides à l’aide de la modélisation de la diffusion non sélective et l’automatisation de la méthode des pentes équivalentes proposée pour les corrections topographiques.
Resumo:
L’agrégation érythrocytaire est le principal facteur responsable des propriétés non newtoniennes sanguines pour des conditions d’écoulement à faible cisaillement. Lorsque les globules rouges s’agrègent, ils forment des rouleaux et des structures tridimensionnelles enchevêtrées qui font passer la viscosité sanguine de quelques mPa.s à une centaine de mPa.s. Cette organisation microstructurale érythrocytaire est maintenue par des liens inter-globulaires de faible énergie, lesquels sont brisés par une augmentation du cisaillement. Ces propriétés macroscopiques sont bien connues. Toutefois, les liens étiologiques entre ces propriétés rhéologiques générales et leurs effets pathophysiologiques demeurent difficiles à évaluer in vivo puisque les propriétés sanguines sont dynamiques et fortement tributaires des conditions d’écoulement. Ainsi, à partir de propriétés rhéologiques mesurées in vitro dans des conditions contrôlées, il devient difficile d’extrapoler leurs valeurs dans un environnement physiologique. Or, les thrombophlébites se développent systématiquement en des loci particuliers du système cardiovasculaire. D’autre part, plusieurs études cliniques ont établi que des conditions hémorhéologiques perturbées constituent des facteurs de risque de thrombose veineuse mais leurs contributions étiologiques demeurent hypothétiques ou corrélatives. En conséquence, un outil de caractérisation hémorhéologique applicable in vivo et in situ devrait permettre de mieux cerner et comprendre ces implications. Les ultrasons, qui se propagent dans les tissus biologiques, sont sensibles à l’agrégation érythrocytaire. De nature non invasive, l’imagerie ultrasonore permet de caractériser in vivo et in situ la microstructure sanguine dans des conditions d’écoulements physiologiques. Les signaux ultrasonores rétrodiffusés portent une information sur la microstructure sanguine reflétant directement les perturbations hémorhéologiques locales. Une cartographie in vivo de l’agrégation érythrocytaire, unique aux ultrasons, devrait permettre d’investiguer les implications étiologiques de l’hémorhéologie dans la maladie thrombotique vasculaire. Cette thèse complète une série de travaux effectués au Laboratoire de Biorhéologie et d’Ultrasonographie Médicale (LBUM) du centre de recherche du Centre hospitalier de l’Université de Montréal portant sur la rétrodiffusion ultrasonore érythrocytaire et menant à une application in vivo de la méthode. Elle se situe à la suite de travaux de modélisation qui ont mis en évidence la pertinence d’un modèle particulaire tenant compte de la densité des globules rouges, de la section de rétrodiffusion unitaire d’un globule et du facteur de structure. Ce modèle permet d’établir le lien entre la microstructure sanguine et le spectre fréquentiel du coefficient de rétrodiffusion ultrasonore. Une approximation au second ordre en fréquence du facteur de structure est proposée dans ces travaux pour décrire la microstructure sanguine. Cette approche est tout d’abord présentée et validée dans un champ d’écoulement cisaillé homogène. Une extension de la méthode en 2D permet ensuite la cartographie des propriétés structurelles sanguines en écoulement tubulaire par des images paramétriques qui mettent en évidence le caractère temporel de l’agrégation et la sensibilité ultrasonore à ces phénomènes. Une extrapolation menant à une relation entre la taille des agrégats érythrocytaires et la viscosité sanguine permet l’établissement de cartes de viscosité locales. Enfin, il est démontré, à l’aide d’un modèle animal, qu’une augmentation subite de l’agrégation érythrocytaire provoque la formation d’un thrombus veineux. Le niveau d’agrégation, la présence du thrombus et les variations du débit ont été caractérisés, dans cette étude, par imagerie ultrasonore. Nos résultats suggèrent que des paramètres hémorhéologiques, préférablement mesurés in vivo et in situ, devraient faire partie du profil de risque thrombotique.
Resumo:
L'entraînement par intervalles à haute intensité est plus efficace que l'entraînement continu d’intensité modérée pour améliorer la consommation maximale d’oxygène (VO2max) et le profil métabolique des patients coronariens. Cependant, il n’y a pas de publications pour appuyer la prescription d’un type d’exercice intermittent (HIIE) spécifique dans cette population. Nous avons donc comparé les réponses aiguës cardio-pulmonaires de quatre sessions différentes d’exercice intermittent dans le but d’identifier l’exercice optimal chez les patients coronariens. De manière randomisée, les sujets participaient aux sessions d’HIIE, toutes avec des phases d’exercice à 100% de la puissance maximale aérobie (PMA), mais qui variaient selon la durée des phases d’exercice et de récupération (15s ou 1 min) et la nature de la récupération (0% de la PMA ou 50% de la PMA). Chaque session était réalisée sous forme de temps limite et l’exercice était interrompu après 35 minutes. En considérant l’effort perçu, le confort du patient et le temps passé au-dessus de 80% de VO2max, nous avons trouvé que l’exercice optimal consistait à alterner des courtes phases d’exercice de 15s à 100% de la PMA avec des phases de 15s de récupération passive. Ensuite, nous avons comparé les réponses physiologiques de l’HIIE optimisé avec un exercice continu d’intensité modérée (MICE) iso-calorique chez des patients coronariens. En considérant les réponses physiologiques, l’aspect sécuritaire (aucune élévation de Troponin T) et l’effort perçu, le protocole HIIE est apparu mieux toléré et plus efficace chez ces coronariens. Finalement, une simple session d’HIIE n’induit pas d’effets délétères sur la paroi vasculaire, comme démontré avec l’analyse des microparticules endothéliales. En conclusion, l’exercice intermittent à haute intensité est un mode d'entraînement prometteur pour les patients coronariens stables qui devrait faire l’objet d’autres études expérimentales en particulier pour les patients coronariens ischémiques.
Resumo:
La présente thèse traite de la description de systèmes complexes, notamment des polymères et des cuprates, par la théorie de la fonctionnelle de la densité. En premier lieu, la théorie de la fonctionnelle de la densité ainsi que différentes fonctionnelles utilisées pour simuler les matériaux à l’étude sont présentées. Plus spécifiquement, les fonctionnelles LDA et GGA sont décrites et leurs limites sont exposées. De plus, le modèle de Hubbard ainsi que la fonctionnelle LDA+U qui en découle sont abordés dans ce chapitre afin de permettre la simulation des propriétés de matériaux à forte corrélation électronique. Par la suite, les résultats obtenus sur les polymères sont résumés par deux articles. Le premier traite de la variation de la bande interdite entre les polymères pontés et leurs homologues non pontés. Le second se penche sur l’étude de polymères à faible largeur de bande interdite. Dans ce dernier, il sera démontré qu’une fonctionnelle hybride, contenant de l’échange exact, est nécessaire afin de décrire les propriétés électroniques des systèmes à l’étude. Finalement, le dernier chapitre est consacré à l’étude des cuprates supraconducteurs. La LDA+U pouvant rendre compte de la forte localisation dans les orbitales 3d des atomes de cuivre, une étude de l’impact de cette fonctionnelle sur les propriétés électroniques est effectuée. Un dernier article investiguant différents ordres magnétiques dans le La2CuO4 dopé termine le dernier chapitre. On trouve aussi, en annexe, un complément d’information pour le second article et une description de la théorie de la supraconductivité de Bardeen, Cooper et Schrieffer.
Resumo:
Affiche de projet terminal, baccalauréat en Urbanisme. Institut d'urbanisme, Université de Montréal.
Resumo:
Le mécanisme menant à des déformations structurales suivant le bombardement d'échantillons de a-Si d'un faisceau d'ions lourds et rapides est sujet de controverses. Nous nous sommes penchés sur l'hypothèse de la formation d'une zone liquide causée par la déposition d'énergie des ions incidents dans le contexte de la théorie du pic thermique. Des échantillons de silicium amorphe furent préparés dans le but d'observer les indices d'une transition de phase l-Si/a-Si suivant la déposition locale d'énergie sur le parcours d'un ion lourd énergétique dans le a-Si. Les échantillons furent implantés d'impuretés de Cu ou d'Ag avant d'être exposés à un faisceau d'ions Ag12+ de 70 MeV. L'utilisation de l'analyse GISAXS est projetée afin d'observer une concentration locale d'impuretés suivant leur ségrégation sur la trace de l'ion. Des masques d'implantation nanométriques d'oxide d'aluminium ont été fabriqués afin d'augmenter la sensibilité de l'analyse GISAXS et une méthode d'alignement de ces masques selon la direction du faisceau fut développée. Le bombardement d'échantillons au travers de ces masques a donné lieu à un réseau de sites d'impacts isolés presque équidistants.
Resumo:
L’optimisation de l’exercice par intervalles de haute intensité (EIHI) chez les patients insuffisants cardiaques (IC) n’a jamais été étudiée auparavant. Nous avons comparé les réponses cardio-pulmonaires aiguës lors de 4 différents EIHI dans le but de trouver le protocole optimisé chez les patients IC. Les patients IC étaient aléatoirement alloués à 4 sessions d’EIHI. Chaque phase d’exercice était à une intensité de 100% de la puissance aérobie maximale (PAM), mais de différentes durées (30s ou 90s) et de type de récupération (passive ou active). Chaque protocole d’EIHI durait un maximum de 30 minutes ou jusqu’à épuisement. Considérant le temps total d’exercice, l’adhérence, une perception d’effort moins élevée, le confort du patient ainsi que des temps similaires passés à un haut pourcentage du VO2pic, le mode avec intervalles courts (30s) et récupération passive s’est avéré être le protocole d’EIHI optimisé chez ces patients. Suite à cette étude, nous avons voulu comparer les réponses cardio-pulmonaires aiguës d’un exercice continu d’intensité modéré (ECIM) par rapport à celles de l’EIHI optimisé de dépense énergétique équivalente chez les patients IC. L’objectif de cette étude était de comparer les réponses cardio-pulmonaires, l’adhérence, la perception de l’effort, l’inflammation et les biomarqueurs cardiaques. Comparativement à l’ECIM, l’adhérence, l’efficience et la tolérance étaient plus élevées lors de l’EIHI optimisé chez les patients IC tout en produisant un stimulus physiologique important. L’EIHI n’a causé aucune arythmie significative ou d’effets délétères sur l’inflammation (CRP), le BNP et la nécrose myocardique (C-TnT) chez les patients IC. L’EIHI semble être un mode d’exercice prometteur et devrait être considéré lors de la réadaptation cardiaque chez les patients IC.
Resumo:
Les patients atteints de la maladie de Tangier présentent des niveaux très bas de lipoprotéines de haute densité (HDL), un facteur de risque pour le développement des maladies cardiovasculaires. In vivo, les HDL ont un effet protecteur important contre l’athérosclérose puisqu’elles effectuèrent le transport à rebours du cholestérol des tissus périphériques vers le foie. Or, la maladie de Tangier est causée par des mutations dans le gène du transporteur « ATP-binding cassette A1 » (ABCA1). Le modèle actuel stipule que ce transporteur assure la lipidation de l’apolipoprotéine A-I (apoA-I), la composante protéique majeure des HDL, pour former des particules HDL naissantes discoïdales. Un défaut dans la lipidation de l’apoA-I par l’ABCA1 abolit la biogénèse des HDL. Nous avons voulu étudier les sites d’interaction de l’ABCA1 avec son ligand (l’apoA-I), les voies de biogénèse impliquées, et l’implication des pré-β-HDL dans l’efflux du cholestérol par la voie de l’ABCA1. D’abord, nous avons utilisé un système de culture cellulaire (fibroblastes humaines et BHK-ABCA1-inductible) afin de déterminer les sites de liaison cellulaires de l’apoA-I, leurs localisations et l’implication de l’ABCA1. Nous avons trouvé que la majorité de l’apoA-I n’est pas associée à l’ABCA1 et, deux tiers de cet apoA-I, était à la membrane plasmique. Ensuite, Une étude plus détaillée examinait les voies de lipidation de l’apoA-I, soit au niveau de la membrane plasmique (MP), soit aux compartiments intracellulaires (CICs). Nous avons montré que la lipidation de l’apoA-I a lieu aux deux niveaux (MP et CICs) selon deux voies différentes cinétiquement. Finalement, nous avons montré que les pré-β-HDL effluent aussi (efficacement que l’apoA-I) le cholestérol par la voie de l’ABCA1. Ces observations réunies démontrent que 1) la majorité de l’apoA-I s’est trouvé non-associée à l’ABCA1; 2) deux tiers de l’apoA-I s’associent a la membrane plasmique; 3) la lipidation de l’apoA-I se fait en partie à la membrane plasmique et, par la voie de retro-endocytose du complexe apoA-I/ABCA1.
Resumo:
La présente recherche collaborative vise à étudier les pratiques de lecture à haute voix d’enseignantes expertes et leur influence sur le développement de l’habileté des élèves du préscolaire à faire des inférences. Plus précisément, nous décrivons les interventions, lors des lectures à haute voix, de quatre enseignantes expertes que nous avons formées pour travailler la compréhension inférentielle et les comparons à celles de deux enseignantes expertes non formées (objectif 1). Puis, nous examinons l’influence de leurs pratiques de lecture à haute voix sur le développement de l’habileté à faire des inférences de leurs élèves (n=92) (objectif 2). Enfin, nous nous intéressons, à titre exploratoire, au potentiel de la recherche collaborative comme voie de développement professionnel des enseignants (objectif 3). Afin d’atteindre nos objectifs, nous avons observé les enseignantes à quatre reprises, lors de lectures d’albums de littérature de jeunesse. Les données obtenues à partir de ces pratiques observées ont été complétées par celles issues des pratiques déclarées des enseignantes pour toute la durée de la recherche (neuf semaines). De plus, nous avons évalué l’habileté à réaliser des inférences des élèves de ces six enseignantes à deux reprises, au début et à la fin de la recherche. Finalement, les enseignantes ont rempli deux questionnaires écrits sur l’impact de cette recherche sur leurs pratiques, l’un à la fin de la recherche et l’autre deux ans après celle-ci. Nos résultats indiquent que si toutes les enseignantes travaillaient les inférences, il existe cependant des différences notables dans leur façon de mener ce travail. Trois des enseignantes formées (enseignantes 1, 2 et 3) ont majoritairement privilégié la co-élaboration du sens des épisodes implicites et se sont montrées très efficaces pour soutenir leurs élèves dans ce travail de construction du sens. L’autre enseignante formée (enseignante 4), en raison d’une appropriation difficile du contenu de la formation, n’est pas parvenue à offrir à ses élèves un étayage adéquat, malgré ses nombreuses tentatives pour les amener à faire des inférences. Les enseignantes non formées (enseignantes 5 et 6) ont, quant à elles, misé plus fréquemment sur la transmission du sens des épisodes implicites et ont également soutenu moins efficacement leurs élèves dans l’élaboration du sens. Ces différences dans la façon de travailler les inférences se sont répercutées sur la progression des élèves entre le début et la fin de la recherche. Ceux des enseignantes 1, 2 et 3 obtiennent des résultats significativement supérieurs à ceux des trois autres enseignantes. Ainsi, il ne suffit pas de travailler les inférences lors des lectures à haute voix pour assurer la progression des élèves. D’autres facteurs revêtent aussi une grande importance : le choix d’oeuvres de qualité, l’engagement des élèves dans les discussions pour co-élaborer le sens et l’étayage adéquat de l’enseignant. Enfin, il semblerait que l’activité réflexive suscitée lors d’une participation à une recherche collaborative et le soutien offert par l’étudiante-chercheuse aient donné aux enseignantes la possibilité d’apporter des changements durables dans leurs pratiques. En ce sens, la recherche collaborative paraît être une voie prometteuse pour contribuer au développement professionnel des enseignants.
Resumo:
Le Ministère des Ressources Naturelles et de la Faune (MRNF) a mandaté la compagnie de géomatique SYNETIX inc. de Montréal et le laboratoire de télédétection de l’Université de Montréal dans le but de développer une application dédiée à la détection automatique et la mise à jour du réseau routier des cartes topographiques à l’échelle 1 : 20 000 à partir de l’imagerie optique à haute résolution spatiale. À cette fin, les mandataires ont entrepris l’adaptation du progiciel SIGMA0 qu’ils avaient conjointement développé pour la mise à jour cartographique à partir d’images satellitales de résolution d’environ 5 mètres. Le produit dérivé de SIGMA0 fut un module nommé SIGMA-ROUTES dont le principe de détection des routes repose sur le balayage d’un filtre le long des vecteurs routiers de la cartographie existante. Les réponses du filtre sur des images couleurs à très haute résolution d’une grande complexité radiométrique (photographies aériennes) conduisent à l’assignation d’étiquettes selon l’état intact, suspect, disparu ou nouveau aux segments routiers repérés. L’objectif général de ce projet est d’évaluer la justesse de l’assignation des statuts ou états en quantifiant le rendement sur la base des distances totales détectées en conformité avec la référence ainsi qu’en procédant à une analyse spatiale des incohérences. La séquence des essais cible d’abord l’effet de la résolution sur le taux de conformité et dans un second temps, les gains escomptés par une succession de traitements de rehaussement destinée à rendre ces images plus propices à l’extraction du réseau routier. La démarche globale implique d’abord la caractérisation d’un site d’essai dans la région de Sherbrooke comportant 40 km de routes de diverses catégories allant du sentier boisé au large collecteur sur une superficie de 2,8 km2. Une carte de vérité terrain des voies de communication nous a permis d’établir des données de référence issues d’une détection visuelle à laquelle sont confrontés les résultats de détection de SIGMA-ROUTES. Nos résultats confirment que la complexité radiométrique des images à haute résolution en milieu urbain bénéficie des prétraitements telles que la segmentation et la compensation d’histogramme uniformisant les surfaces routières. On constate aussi que les performances présentent une hypersensibilité aux variations de résolution alors que le passage entre nos trois résolutions (84, 168 et 210 cm) altère le taux de détection de pratiquement 15% sur les distances totales en concordance avec la référence et segmente spatialement de longs vecteurs intacts en plusieurs portions alternant entre les statuts intact, suspect et disparu. La détection des routes existantes en conformité avec la référence a atteint 78% avec notre plus efficace combinaison de résolution et de prétraitements d’images. Des problèmes chroniques de détection ont été repérés dont la présence de plusieurs segments sans assignation et ignorés du processus. Il y a aussi une surestimation de fausses détections assignées suspectes alors qu’elles devraient être identifiées intactes. Nous estimons, sur la base des mesures linéaires et des analyses spatiales des détections que l’assignation du statut intact devrait atteindre 90% de conformité avec la référence après divers ajustements à l’algorithme. La détection des nouvelles routes fut un échec sans égard à la résolution ou au rehaussement d’image. La recherche des nouveaux segments qui s’appuie sur le repérage de points potentiels de début de nouvelles routes en connexion avec les routes existantes génère un emballement de fausses détections navigant entre les entités non-routières. En lien avec ces incohérences, nous avons isolé de nombreuses fausses détections de nouvelles routes générées parallèlement aux routes préalablement assignées intactes. Finalement, nous suggérons une procédure mettant à profit certaines images rehaussées tout en intégrant l’intervention humaine à quelques phases charnières du processus.