22 resultados para Synthèse d’images
Resumo:
Nous avons dirigé cet essai sur la conception et le développement d’un dispositif de formation en ligne, selon une approche par compétences au collégial, dans le cadre du cours crédité Éclairages et rendus 2 du programme Techniques d’animation 3D et synthèse d’images. Nous avons commencé en présentant le programme Techniques d’animation 3D et synthèse d’images du Cégep Limoilou, le cours Éclairages et rendus 2 et l’épreuve synthèse de programme (ESP) qui se rattache au programme. Nous avons également défini l’utilisation actuelle des technologies de l’information et de la communication (TIC) et des environnements numériques d’apprentissage (ENA) dans le programme et nous avons déterminé les modalités de cours au collégial. Ensuite, en l’absence de formation en ligne au Cégep Limoilou, nous avons exposé les raisons qui nous ont mené à concevoir et à développer un dispositif de formation en ligne pour le cours Éclairages et rendus 2. Nous avons identifié les problèmes, entre autres reliés aux politiques institutionnelles, à la convention collective et au manque de disponibilité des locaux. Ce manque de disponibilité des locaux limite le temps de pratique des étudiantes et étudiants, limite l’accessibilité aux logiciels et nuit à l’implantation de l’alternance travail-études (ATE) dans le programme Techniques d’animation 3D et synthèse d’images. La conception d’un dispositif de formation en ligne pour le cours Éclairages et rendus 2 permettrait de libérer des heures de laboratoire et faciliterait le processus d’adhésion à l’ATE. À partir de l’objectif général, nous avons construit le cadre de référence permettant de positionner les fondements de cet essai. Nous avons débuté en démystifiant la formation à distance et en définissant le concept d’ingénierie pédagogique, particulièrement le modèle ADDIE. Ensuite, nous avons clarifié la nature et les caractéristiques des ENA et défini l’approche par compétences. Nous avons terminé en définissant les objectifs spécifiques. L’approche méthodologique retenue dans le cadre de cet essai est une approche qualitative. Nous avons choisi une posture interprétative en accordant de l’importance à la compréhension et l’interprétation des résultats (Fortin, 2010). Cet essai est basé sur une recherche développement qui s’inscrit dans le pôle de l’innovation visant à développer du matériel technopédagogique. Les résultats démontrent que les étudiantes et les étudiants ont apprécié le dispositif d’apprentissage. L’ENA s’est avéré un outil familier pour les étudiantes et les étudiants, car ils utilisent quotidiennement l’ordinateur dans leurs fonctions de travail. L’expérimentation du dispositif a permis de recueillir des résultats qui ont été compilés, analysés et comparés dans le but d’améliorer le dispositif de formation en ligne. Nous avons corroboré les données à l’aide de deux méthodes de collecte de données, soit le journal du chercheur et le questionnaire à questions ouvertes et fermées. Pour les pistes futures, il serait intéressant de valider le dispositif de formation en ligne auprès d’un plus grand échantillon en ne se limitant pas uniquement à des étudiantes ou étudiants du programme de Techniques d’animation 3D et synthèse d’images. Il serait également intéressant de mettre en place un dispositif couvrant l’ensemble des 15 semaines de la session et de faire une mise à l’essai à plus d’une reprise. Enfin, une avenue intéressante serait de concevoir un dispositif plus universel et adapté à d’autres cours du programme et à d’autres programmes de formation collégiale et universitaire pouvant servir de guide plus général à la création d’une formation en ligne adaptée à une approche par compétences.
Resumo:
L’ionomycine est un ionophore produit par la bactérie gram-positive streptomyces conglobatus. Sa synthèse représente un défi, car il possède plusieurs centres chiraux dans un motif polypropylène. De plus, la grande densité d’oxygène sur celui-ci oblige l’utilisation de plusieurs protections orthogonales. Notre stratégie divise l’ionomycine en quatre fragments, trois possédant le motif polypropylène, ainsi qu’un quatrième, bis-tétrahydrofuranne. Les trois premiers sont synthétisés en utilisant une méthodologie puissante développée dans le laboratoire du Pr Spino, qui utilise l’addition d’alkylcyanocuprates sur les carbonates allyliques dérivés de la menthone. Celle-ci permet l’introduction d’une unité propylène, avec un excellent contrôle du centre chiral introduit. Cette méthode est utilisée de manière itérative, afin d’introduire plusieurs unités propylènes. De plus, notre stratégie est hautement convergente, puisque des intermédiaires des fragments plus courts servent de produit de départ pour la synthèse des fragments plus longs. Le dernier fragment, bis-tétrahydrofuranne, a été fabriqué à partir de l’acétate de géranyle, par une polycyclisation d’un diépoxyde chiral, les époxydes ayant été introduits par une époxydation de Shi. Cette synthèse, si complétée, serait la plus courte publiée, avec 24 étapes pour la séquence linéaire la plus longue (51 au total).
Resumo:
Résumé : En raison de sa grande étendue, le Nord canadien présente plusieurs défis logistiques pour une exploitation rentable de ses ressources minérales. La TéléCartographie Prédictive (TCP) vise à faciliter la localisation de gisements en produisant des cartes du potentiel géologique. Des données altimétriques sont nécessaires pour générer ces cartes. Or, celles actuellement disponibles au nord du 60e parallèle ne sont pas optimales principalement parce qu’elles sont dérivés de courbes à équidistance variable et avec une valeur au mètre. Parallèlement, il est essentiel de connaître l'exactitude verticale des données altimétriques pour être en mesure de les utiliser adéquatement, en considérant les contraintes liées à son exactitude. Le projet présenté vise à aborder ces deux problématiques afin d'améliorer la qualité des données altimétriques et contribuer à raffiner la cartographie prédictive réalisée par TCP dans le Nord canadien, pour une zone d’étude située au Territoire du Nord-Ouest. Le premier objectif était de produire des points de contrôles permettant une évaluation précise de l'exactitude verticale des données altimétriques. Le second objectif était de produire un modèle altimétrique amélioré pour la zone d'étude. Le mémoire présente d'abord une méthode de filtrage pour des données Global Land and Surface Altimetry Data (GLA14) de la mission ICESat (Ice, Cloud and land Elevation SATellite). Le filtrage est basé sur l'application d'une série d'indicateurs calculés à partir d’informations disponibles dans les données GLA14 et des conditions du terrain. Ces indicateurs permettent d'éliminer les points d'élévation potentiellement contaminés. Les points sont donc filtrés en fonction de la qualité de l’attitude calculée, de la saturation du signal, du bruit d'équipement, des conditions atmosphériques, de la pente et du nombre d'échos. Ensuite, le document décrit une méthode de production de Modèles Numériques de Surfaces (MNS) améliorés, par stéréoradargrammétrie (SRG) avec Radarsat-2 (RS-2). La première partie de la méthodologie adoptée consiste à faire la stéréorestitution des MNS à partir de paires d'images RS-2, sans point de contrôle. L'exactitude des MNS préliminaires ainsi produits est calculée à partir des points de contrôles issus du filtrage des données GLA14 et analysée en fonction des combinaisons d’angles d'incidences utilisées pour la stéréorestitution. Ensuite, des sélections de MNS préliminaires sont assemblées afin de produire 5 MNS couvrant chacun la zone d'étude en totalité. Ces MNS sont analysés afin d'identifier la sélection optimale pour la zone d'intérêt. Les indicateurs sélectionnés pour la méthode de filtrage ont pu être validés comme performant et complémentaires, à l’exception de l’indicateur basé sur le ratio signal/bruit puisqu’il était redondant avec l’indicateur basé sur le gain. Autrement, chaque indicateur a permis de filtrer des points de manière exclusive. La méthode de filtrage a permis de réduire de 19% l'erreur quadratique moyenne sur l'élévation, lorsque que comparée aux Données d'Élévation Numérique du Canada (DNEC). Malgré un taux de rejet de 69% suite au filtrage, la densité initiale des données GLA14 a permis de conserver une distribution spatiale homogène. À partir des 136 MNS préliminaires analysés, aucune combinaison d’angles d’incidences des images RS-2 acquises n’a pu être identifiée comme étant idéale pour la SRG, en raison de la grande variabilité des exactitudes verticales. Par contre, l'analyse a indiqué que les images devraient idéalement être acquises à des températures en dessous de 0°C, pour minimiser les disparités radiométriques entre les scènes. Les résultats ont aussi confirmé que la pente est le principal facteur d’influence sur l’exactitude de MNS produits par SRG. La meilleure exactitude verticale, soit 4 m, a été atteinte par l’assemblage de configurations de même direction de visées. Par contre, les configurations de visées opposées, en plus de produire une exactitude du même ordre (5 m), ont permis de réduire le nombre d’images utilisées de 30%, par rapport au nombre d'images acquises initialement. Par conséquent, l'utilisation d'images de visées opposées pourrait permettre d’augmenter l’efficacité de réalisation de projets de SRG en diminuant la période d’acquisition. Les données altimétriques produites pourraient à leur tour contribuer à améliorer les résultats de la TCP, et augmenter la performance de l’industrie minière canadienne et finalement, améliorer la qualité de vie des citoyens du Nord du Canada.
Resumo:
Le marché des accumulateurs lithium-ion est en expansion. Cette croissance repose partiellement sur la multiplication des niches d’utilisation et l’amélioration constante de leurs performances. En raison de leur durabilité exceptionnelle, de leur faible coût, de leur haute densité de puissance et de leur fiabilité, les anodes basées sur les titanates de lithium, et plus particulièrement le spinelle Li4Ti5O12, présentent une alternative d’intérêt aux matériaux classiques d’anodes en carbone pour de multiples applications. Leur utilisation sous forme de nanomatériaux permet d’augmenter significativement la puissance disponible par unité de poids. Ces nanomatériaux ne sont typiquement pas contraints dans une direction particulière (nanofils, nanoplaquettes), car ces formes impliquent une tension de surface plus importante et requièrent donc généralement un mécanisme de synthèse dédié. Or, ces nanostructures permettent des réductions supplémentaires dans les dimensions caractéristiques de diffusion et de conduction, maximisant ainsi la puissance disponible, tout en affectant les propriétés habituellement intrinsèques des matériaux. Par ailleurs, les réacteurs continus reposant sur la technologie du plasma thermique inductif constituent une voie de synthèse démontrée afin de générer des volumes importants de matériaux nanostructurés. Il s’avère donc pertinent d’évaluer leur potentiel dans la production de titanates de lithium nanostructurés. La pureté des titanates de lithium est difficile à jauger. Les techniques de quantification habituelles reposent sur la fluorescence ou la diffraction en rayons X, auxquelles le lithium élémentaire se prête peu ou pas. Afin de quantifier les nombreuses phases (Li4Ti5O12, Li2Ti3O7, Li2TiO3, TiO2, Li2CO3) identifiées dans les échantillons produits par plasma, un raffinement de Rietveld fut développé et validé. La présence de γ-Li2TiO3 fut identifiée, et la calorimétrie en balayage différentiel fut explorée comme outil permettant d’identifier et de quantifier la présence de β-Li2TiO3. Différentes proportions entre les phases produites et différents types de morphologies furent observés en fonction des conditions d’opération du plasma. Ainsi, des conditions de trempe réductrice et d’ensemencement en Li4Ti5O12 nanométrique semblent favoriser l’émergence de nanomorphologies en nanofils (associés à Li4Ti5O12) et en nanoplaquette (associées à Li2TiO3). De plus, l’ensemencement et les recuits augmentèrent significativement le rendement en la phase spinelle Li4Ti5O12 recherchée. Les recuits sur les poudres synthétisées par plasma indiquèrent que la décomposition du Li2Ti3O7 produit du Li4Ti5O12, du Li2TiO3 et du TiO2 (rutile). Afin d’approfondir l’investigation de ces réactions de décomposition, les paramètres cristallins du Li2Ti3O7 et du γ-Li2TiO3 furent définis à haute température. Des mesures continues en diffraction en rayon X à haute température furent réalisées lors de recuits de poudres synthétisées par plasma, ainsi que sur des mélanges de TiO2 anatase et de Li2CO3. Celles-ci indiquent la production d’un intermédiaire Li2Ti3O7 à partir de l’anatase et du carbonate, sa décomposition en Li4Ti5O12 et TiO2 (rutile) sur toute la plage de température étudiée, et en Li2TiO3 et TiO2 (rutile) à des températures inférieures à 700°C.
Resumo:
La mise en oeuvre de l’approche par compétences (APC) dans les programmes de formation au Québec a suscité un lot de changements dans les pratiques d’enseignement et d’évaluation durant les deux dernières décennies. Cette approche a occasionné un renouvellement des programmes d’études. Maintenant, les programmes d’études ciblent le développement des compétences. Le renouveau de l’enseignement est accompagné par la modification de certains articles du Règlement sur le régime des études collégiales (RREC), on y ajoute une nouvelle exigence de sanction des études pour les programmes collégiaux. Chacun des programmes d’études collégiales doit désormais mettre en place une activité synthèse d’évaluation des apprentissages. Cette activité doit se situer à la fin du parcours de formation et témoigner de l’intégration des compétences et des apprentissages essentiels réalisés dans l’ensemble du programme d’études. L’épreuve synthèse de programme (ÉSP) est sous la responsabilité des collèges et elle est encadrée par la politique institutionnelle d’évaluation des apprentissages (PIEA) de chaque établissement. Cette imposition ministérielle est toutefois peu documentée et laisse une grande latitude aux programmes d’études quant aux choix de la stratégie, aux modalités de passation et d’évaluation. Ceci amène le programme Technologie de radio-oncologie du collège Ahuntsic à se questionner sur la validité de leur ÉSP. Cette recherche porte sur le thème de l’ÉSP d’études collégiales. La problématique s’articule autour du fait qu’il est possible de créer une ÉSP qui s’appuie sur les principes de l’évaluation certificative des apprentissages, mais qui ne permet pas d’attester de l’atteinte des compétences de l’ensemble du programme d’études. Par conséquent, le premier objectif de cette recherche vise l’expérimentation d’un outil de validation de l’ÉSP. Le deuxième objectif consiste à analyser les résultats d’expérimentation et de bonifier l’outil de validation au regard des commentaires des participantes et des participants. Dans le cadre du présent essai, un outil de validation de l’ÉSP a été mis au point et mis à l’essai à travers une recherche-expérimentation, qui repose sur une approche méthodologique qualitative et une posture épistémologique de recherche. L’outil de validation de l’ÉSP est inspiré des travaux du Pôle de l’Est (1996). Il propose une série de questions regroupées selon cinq thématiques pour que les enseignantes et les enseignants du cours porteur de l’ÉSP puissent poser un diagnostic sur l’ÉSP de leur programme d’études. Chaque thématique est accompagnée d’une grille d’évaluation à échelle descriptive pour faciliter la réflexion sur les forces, les limites et reconnaître les correctifs devant être apportés à l’ÉSP. Un plan de travail est également suggéré, facilitant ainsi les travaux à entrevoir pour assurer l’amélioration de l’ÉSP. L’expérimentation de l’outil de validation de l’ÉSP par quatre équipes enseignantes a permis de recueillir des résultats à partir des réponses à un questionnaire électronique et à une entrevue téléphonique semi-dirigée, ceci en tenant compte des considérations éthiques. Ces résultats ont été analysés, compilés et comparés pour aider à concevoir une version finale de l’outil de validation de l’ÉSP. La version finale de l’outil de validation de l’ÉSP intègre les propositions d’amélioration émises par les quatre équipes d’enseignantes et d’enseignants qui ont accepté d’expérimenter l’outil. La triangulation des méthodes de collecte de données a été utilisée afin d’assurer la rigueur des travaux. Les commentaires tels que l’ajout d’une piste de réflexion concernant la charge de travail associé à la réalisation de l’ÉSP, l’ajout d’une définition concernant une caractéristique de l’évaluation certificative ainsi que la correction de deux critères d’évaluation inscrits dans la grille d’évaluation à échelle descriptive, ont favorisé la conception d’un outil de validation de l’ÉSP qui répond davantage aux besoins des programmes d’études collégiales. Les résultats obtenus portent à croire que l’outil de validation de l’ÉSP est complet et utile. Il peut être utilisé autant par les programmes préuniversitaires que les programmes techniques. Bien qu’il propose une démarche simple, il nécessite une concertation en équipe programme et il peut s’avérer aidant que cette démarche soit soutenue par une conseillère ou un conseiller pédagogique. De cette recherche-expérimentation sont ressorties des pistes de recherches future notamment la conception d’un outil de validation pour les épreuves terminales de cours. De plus, une connaissance plus approfondie des notions concernant l’évaluation certificative peut soulever également des questionnements concernant les différentes stratégies d’évaluation à envisager dans le cadre d’une ÉSP.
Resumo:
La catalyse est à la base de la fabrication de médicaments, de produits textiles, d‘engrais, des pots d’échappement, et une multitude d’autres applications de notre quotidien. En effet, dans les pays industrialisés jusqu’à 80% des produits manufacturés utilisés au quotidien ont nécessité au moins une étape de catalyse lors de leur fabrication. Outre être actif, il est primordial pour un catalyseur performant d’être résistant à la désactivation qui se traduit par la perte d’activité ou de sélectivité d’un catalyseur au cours du temps. La synthèse d’un matériau multifonctionnel permet de répondre à ces différents critères. L’objectif d’un design intelligent de matériaux est de mener à des effets synergiques de chacune des composantes. Pour un catalyseur, en plus d’être actif et sélectif pour le produit désiré, il faut en plus qu’il soit durable, stable dans le temps, et permette d’être réutilisable. L’objectif de ce projet est de faire une synthèse originale, simple et reproductible d’un catalyseur actif et résistant à la désactivation. De base, un catalyseur se compose d’un support et d’un matériau actif. La nature, la morphologie et l’agencement de ces derniers dictent le comportement chimique du catalyseur final. Comme matériau actif, les nanoparticules d’or sont très prisées en raison de leur potentiel de catalyse élevée pour de nombreuses réactions. Cependant, aux températures de fonctionnement de la catalyse, les nanoparticules d’or ont tendance à se désactiver par coalescence. Pour remédier à cela, il est possible de déposer une couche de silice mésoporeuse afin de protéger les NPs d’or des rudes conditions de réaction tout en étant perméables aux espèces réactives. Plusieurs types de matériaux peuvent servir de support aux nanoparticules d’or. À ce titre, les particules d’oxydes de fer magnétiques telles que la magnétite (Fe[indice inférieur 3]O[indice inférieur 4]) sont intéressantes pour leur potentiel hyperthermique, phénomène par lequel des nanoparticules (NPs) magnétiques transforment de l’énergie électromagnétique provenant d’un champ externe haute fréquence en chaleur, créant ainsi des nano-fours. Une première couche de silice est utilisée comme matrice de greffage afin de fixer les nanoparticules d’or sur la magnétite. La structure visée est illustrée à la Figure ci-dessous. Figure 1 Structure du catalyseur de Fe2O4@SiO2-Au-SiO2m (Ge, Zhang, Zhang, & Yin, 2008) Plusieurs avenues d’assemblage et de synthèse sont explorées pour chacune des composantes de la structure visée. Les avantages et inconvénients ainsi que des mécanismes sont proposés pour chaque voie de synthèse. Le matériau est utilisé comme catalyseur pour la réaction de réduction du 4-Nitrophénol par du NaBH4. Pour ce qui est de la synthèse de magnétite par voie solvothermique, il a été démontré qu’il était important d’être dans un milieu sous pression puisque l’étape limitante de la réaction est la solubilité des particules de magnétites dans le milieu. Cela est en accord avec le principe de mûrissement d’Ostwald selon lequel les petites particules ont tendance à se dissoudre dans le milieu et précipiter à la surface des plus grosses particules de façon à diminuer l’énergie interfaciale. Cette synthèse a été reproduite avec succès et a mené à la production de nanoparticules de Fe[indice inférieur 3]O[indice inférieur 4] sphériques creuses d’une taille de 150 [plus ou moins] 30nm. Ces sphères creuses ont été recouvertes d’une couche de silice dense par une méthode de Stöber modifiée. Le recouvrement forme des amas de particules et est non uniforme en raison de la présence de poly(éthlyène glycol) à la sur face de la magnétite, un adjuvant présent lors de sa synthèse afin d’améliorer la dispersion de la magnétite. La synthèse et le greffage d’AuNPs sont bien maîtrisés : les AuNPs ont une taille de 17 [plus ou moins] 6nm et la quantité d’or greffé est assez élevée. Ultimement, une méthode de greffage alternative tel que le greffage par croissance in situ de nanoparticules d’or pourrait être emprunté afin d’obtenir des particules plus petites. Pour ce qui est de la formation d’une couche de silice mésoporeuse, la méthode par calcination est une meilleure option que par gravure chimique en raison de sa sélectivité envers la couche externe de silice plus élevée ainsi que la formation apparente de pores.
Resumo:
Dans un premier chapitre, nous décrivons un modèle de formation d’image affichée sur un écran en revenant sur les concepts que sont la lumière, la géométrie et l’optique. Nous détaillons ensuite les différentes techniques d’affichage stéréoscopique utilisées à l’heure actuelle, en parcourant la stéréoscopie, l’autostéréoscopie et plus particulièrement le principe d’imagerie intégrale. Le deuxième chapitre introduit un nouveau modèle de formation d’image stéréoscopique. Ce dernier nous permet d’observer deux images d’une paire stéréoscopique soumises à des éventuelles transformations et à l’effet d’une ou de plusieurs optiques particulières, pour reproduire la perception de trois dimensions. Nous abordons l’aspect unificateur de ce modèle. En effet il permet de décrire et d’expliquer de nombreuses techniques d’affichage stéréoscopique existantes. Enfin, dans un troisième chapitre nous discutons d’une méthode particulière de création de paires d’images stéréoscopiques à l’aide d’un champ lumineux.
Resumo:
Depuis que l’industrie chimique vise à rejeter de moins en moins de gaz à effet de serre, cette dernière cherche à revaloriser les différents gaz à effet de serre tel que le dioxyde de carbone. Une des techniques est de combiner le dioxyde de carbone avec de l’ammoniac pour synthétiser l’urée qui pourrait par la suite être utilisé soit directement ou soit comme intermédiaire, pour la synthèse catalytique du diméthyle carbonate (DMC). Le DMC est à la base de plusieurs applications industrielles telles que la synthèse des polymères (les polycarbonates), les réactions de trans-estérification menant à d’autres carbonates comme le diphénylcarbonate et comme agent de méthylation ou d’alkylation. Plusieurs articles provenant de la littérature scientifique rapportent que le DMC peut être utilisé comme additif oxygéné dans les carburants tels l’essence [1]. Le but de ce projet est de déterminer la viabilité industrielle de la production de DMC par la méthylation de l’urée en premier lieu en méthyle carbamate puis en DMC. La première étape de ce projet reposera donc dans un premier temps sur la confirmation des résultats rapportés au sein de la littérature ouverte pour par la suite faire une étude de l’impact des différents types de catalyseurs et des conditions expérimentales sur le rendement de la réaction. Une fois que le montage batch sera optimisé, ce dernier sera modifié pour opérer en continu. Cette modification a pour but d’augmenter le rendement et la sélectivité pour éventuellement de l’adapter industriellement. Selon la littérature, les rendements anticipés pour la réaction batch sont d’environ 30 % [2] et pour un système en continu de plus de 50 %.
Resumo:
Résumé : Face à l’accroissement de la résolution spatiale des capteurs optiques satellitaires, de nouvelles stratégies doivent être développées pour classifier les images de télédétection. En effet, l’abondance de détails dans ces images diminue fortement l’efficacité des classifications spectrales; de nombreuses méthodes de classification texturale, notamment les approches statistiques, ne sont plus adaptées. À l’inverse, les approches structurelles offrent une ouverture intéressante : ces approches orientées objet consistent à étudier la structure de l’image pour en interpréter le sens. Un algorithme de ce type est proposé dans la première partie de cette thèse. Reposant sur la détection et l’analyse de points-clés (KPC : KeyPoint-based Classification), il offre une solution efficace au problème de la classification d’images à très haute résolution spatiale. Les classifications effectuées sur les données montrent en particulier sa capacité à différencier des textures visuellement similaires. Par ailleurs, il a été montré dans la littérature que la fusion évidentielle, reposant sur la théorie de Dempster-Shafer, est tout à fait adaptée aux images de télédétection en raison de son aptitude à intégrer des concepts tels que l’ambiguïté et l’incertitude. Peu d’études ont en revanche été menées sur l’application de cette théorie à des données texturales complexes telles que celles issues de classifications structurelles. La seconde partie de cette thèse vise à combler ce manque, en s’intéressant à la fusion de classifications KPC multi-échelle par la théorie de Dempster-Shafer. Les tests menés montrent que cette approche multi-échelle permet d’améliorer la classification finale dans le cas où l’image initiale est de faible qualité. De plus, l’étude effectuée met en évidence le potentiel d’amélioration apporté par l’estimation de la fiabilité des classifications intermédiaires, et fournit des pistes pour mener ces estimations.
Resumo:
Abstract : Images acquired from unmanned aerial vehicles (UAVs) can provide data with unprecedented spatial and temporal resolution for three-dimensional (3D) modeling. Solutions developed for this purpose are mainly operating based on photogrammetry concepts, namely UAV-Photogrammetry Systems (UAV-PS). Such systems are used in applications where both geospatial and visual information of the environment is required. These applications include, but are not limited to, natural resource management such as precision agriculture, military and police-related services such as traffic-law enforcement, precision engineering such as infrastructure inspection, and health services such as epidemic emergency management. UAV-photogrammetry systems can be differentiated based on their spatial characteristics in terms of accuracy and resolution. That is some applications, such as precision engineering, require high-resolution and high-accuracy information of the environment (e.g. 3D modeling with less than one centimeter accuracy and resolution). In other applications, lower levels of accuracy might be sufficient, (e.g. wildlife management needing few decimeters of resolution). However, even in those applications, the specific characteristics of UAV-PSs should be well considered in the steps of both system development and application in order to yield satisfying results. In this regard, this thesis presents a comprehensive review of the applications of unmanned aerial imagery, where the objective was to determine the challenges that remote-sensing applications of UAV systems currently face. This review also allowed recognizing the specific characteristics and requirements of UAV-PSs, which are mostly ignored or not thoroughly assessed in recent studies. Accordingly, the focus of the first part of this thesis is on exploring the methodological and experimental aspects of implementing a UAV-PS. The developed system was extensively evaluated for precise modeling of an open-pit gravel mine and performing volumetric-change measurements. This application was selected for two main reasons. Firstly, this case study provided a challenging environment for 3D modeling, in terms of scale changes, terrain relief variations as well as structure and texture diversities. Secondly, open-pit-mine monitoring demands high levels of accuracy, which justifies our efforts to improve the developed UAV-PS to its maximum capacities. The hardware of the system consisted of an electric-powered helicopter, a high-resolution digital camera, and an inertial navigation system. The software of the system included the in-house programs specifically designed for camera calibration, platform calibration, system integration, onboard data acquisition, flight planning and ground control point (GCP) detection. The detailed features of the system are discussed in the thesis, and solutions are proposed in order to enhance the system and its photogrammetric outputs. The accuracy of the results was evaluated under various mapping conditions, including direct georeferencing and indirect georeferencing with different numbers, distributions and types of ground control points. Additionally, the effects of imaging configuration and network stability on modeling accuracy were assessed. The second part of this thesis concentrates on improving the techniques of sparse and dense reconstruction. The proposed solutions are alternatives to traditional aerial photogrammetry techniques, properly adapted to specific characteristics of unmanned, low-altitude imagery. Firstly, a method was developed for robust sparse matching and epipolar-geometry estimation. The main achievement of this method was its capacity to handle a very high percentage of outliers (errors among corresponding points) with remarkable computational efficiency (compared to the state-of-the-art techniques). Secondly, a block bundle adjustment (BBA) strategy was proposed based on the integration of intrinsic camera calibration parameters as pseudo-observations to Gauss-Helmert model. The principal advantage of this strategy was controlling the adverse effect of unstable imaging networks and noisy image observations on the accuracy of self-calibration. The sparse implementation of this strategy was also performed, which allowed its application to data sets containing a lot of tie points. Finally, the concepts of intrinsic curves were revisited for dense stereo matching. The proposed technique could achieve a high level of accuracy and efficiency by searching only through a small fraction of the whole disparity search space as well as internally handling occlusions and matching ambiguities. These photogrammetric solutions were extensively tested using synthetic data, close-range images and the images acquired from the gravel-pit mine. Achieving absolute 3D mapping accuracy of 11±7 mm illustrated the success of this system for high-precision modeling of the environment.
Resumo:
Cette recherche porte sur le thème de l’accompagnement du développement de l’identité professionnelle pour le nouveau personnel enseignant en techniques humaines. Plus précisément, nous voulons mesurer l’impact d’un projet novateur, soit la création d’un groupe de soutien en période d’insertion professionnelle. La problématique s’articule principalement autour du fait que, dans les trois techniques humaines ciblées, les nouveaux professeurs et professeures sont embauchés d’abord et avant tout pour leurs compétences disciplinaires. À leur arrivée au collégial, leur emploi est précaire et leurs tâches morcelées. Malgré le fait qu’ils débutent dans un état d’urgence, cette transition professionnelle semble être laissée pour compte ainsi que le soutien psychologique. Ce contexte, qui favorise l’isolement, influence parfois la motivation à s’engager dans leur deuxième carrière. Au cégep de Sainte-Foy, il n’existe pas de mentorat départemental ni d’accompagnement spécifique. Seul le programme d’accueil et d’intégration offre une série d’activités obligatoires. Le cadre de référence présente deux classifications des besoins du nouveau personnel enseignant au collégial au regard des travaux de Raymond (2001) et Caplan, Clough, Ellis et Muncey (2009). La recension des écrits nous a également permis de distinguer l’insertion, l’identité et le développement professionnels. Les différents dispositifs d’insertion pédagogique des nouveaux enseignants ont également fait l’objet d’une recherche documentaire. Ces assises théoriques ont guidé le choix du développement de notre groupe de soutien sous l’angle d’une communauté d’apprentissage favorisant l’interaction entre pairs. Cet essai poursuit trois objectifs : 1) concevoir le processus d’accompagnement et la trousse éducative pour le groupe de soutien, 2) valider le processus d’accompagnement et la trousse éducative auprès d’un groupe de nouveaux professeurs et professeures provenant des trois techniques humaines et 3) analyser le point de vue de professeurs et professeures par rapport au processus d’accompagnement et à la trousse éducative proposés. Nos objectifs de recherche nécessitaient une méthodologie appropriée. Celleci repose sur une approche méthodologique qualitative, une posture épistémologique interprétative et une recherche de type recherche développement. Dix participantes ont pris part au processus d’accompagnement proposé soit : des entrevues individuelles semi-dirigées et des rencontres de groupe. Les données ont été recueillies grâce à des entrevues semi-dirigées, des rencontres de groupe de discussion, des autoévaluations des participantes ainsi qu’un questionnaire d’évaluation finale. La triangulation des méthodes de collecte de données a été utilisée afin d’assurer la rigueur de nos travaux. L’analyse de contenu s’est faite par l’entremise du logiciel Transana qui a aidé à la transcription des enregistrements, au codage et à la production de rapports synthèse. La dimension éthique a été au coeur de nos préoccupations et nous avons d’ailleurs pris plusieurs précautions à cet effet. Les données obtenues nous ont permis de répondre à notre question de recherche en démontrant que la création du groupe de soutien a eu des retombées positives sur le nouveau personnel enseignant en techniques humaines. Ce nouveau dispositif d’accompagnement a permis de raffiner la classification des besoins de notre cadre de référence. Les catégories émergentes ont révélé des spécificités propres à la deuxième carrière. La formule du groupe de soutien telle que mise à l’essai a, pour sa part, été fortement appréciée des participantes autant pour son fonctionnement que pour son contenu. L’ensemble de ce processus a bonifié la représentation de l’identité professionnelle de Gohier et al. (2001). Les données obtenues nous ont également permis de valider notre cadre d’intervention et de dégager des éléments favorisant la transférabilité des résultats obtenus. Nous pensons d’ailleurs que le groupe de soutien constitue une avenue pertinente et essentielle au sein de la communauté collégiale.
Resumo:
La présente étude vise à définir le processus de transaction, des différentes composantes des coûts de transaction, et des différents moyens pour les mesurer. Plus particulièrement, cette étude porte sur l'utilité de l'évaluation des gestionnaires de portefeuille de l'Université de Sherbrooke par rapport aux coûts de transaction calculés par Abel Noser. Abel Noser est une firme de consultant de New York qui se spécialise dans l'évaluation des fonds de pension. Ils ont mesuré durant deux périodes, les commissions et l'impact de marché subi par des courtiers utilisés par les gestionnaires. L'objectif principal, voulait examiner s'il y avait eu une différence au niveau de l'impact de marché subi par les courtiers pour les deux périodes. Vu que les courtiers n'ont pas été avertis qu'ils étaient mesurés, on ne devrait pas trouver de différence significative. Par contre, s'il y a une différence entre les deux périodes, alors que les courtiers n'étaient pas informés, on pourra conclure que la mesure d'Abel Noser donne des résultats aléatoires puisque les courtiers ne sont pas sensés avoir cherché à contourner le système. La synthèse des résultats de la première hypothèse n'a pas permis de vérifier la validité de la mesure d'Abel Noser. Par contre, quand on se réfère aux critiques faites par plusieurs auteurs, la mesure d'Abel Noser peut porter à confusion. En conclusion, cette étude ne recommande donc pas au comité de retraite de l'Université de Sherbrooke d'utiliser les services d'Abel Noser.
Resumo:
Ce mémoire présente les résultats d'une recherche effectuée à l'Université de Sherbrooke, au Québec. Il porte sur la détermination des critères associés aux résultats d'un cours d'introduction à la comptabilité financière de niveau universitaire. Il n'existe pas, à notre connaissance, des études publiées sur ce sujet au Québec. Le modèle général présente les acquis tant sociodémographiques qu'académiques comme facteurs influençant le comportement des étudiants dans un processus d'apprentissage, lequel comportement finalement influencera le résultat. Une synthèse des recherches antérieures a été présentée à l'intérieur de ce modèle général, ce qui n'avait pas été fait dans les études publiées sur le sujet. Appuyé par ces études antérieures, nous voulons dégager tous les facteurs qui pourraient être associés à la performance des étudiants. Ainsi, nous retrouvons un nombre important de variables dans cette étude. Aucune des études antérieures n'a utilisé toutes les variables que nous avons testées dans celle-ci. Les données ont été recueillies à l'aide d'un questionnaire. Les renseignements qu'on y retrouvent ont trait aux variables étudiées pour la recherche. Un nombre de 46 étudiants, sur un total de 50 inscrits sur la liste du professeur, ont répondu au questionnaire. L'analyse statistique montre que la moyenne des cours de mathématique 103, 203 et 105 au niveau collégial a un lien significatif avec les trois mesures de performance, soit l'intra, l'examen final et la note globale. Plus l'étudiant a de bonnes notes en mathématique meilleure est sa performance à chacun des examens. Les résultats montrent que l'âge a un lien négatif mais significatif à deux mesures de performance, soit l'examen final et la note globale, que le suivi antérieur de cours de comptabilité et la moyenne cumulative au cégep ont un lien positif et significatif avec la note globale. Ces résultats vont, en partie, dans le même sens que l'étude de Eskew et Faley (1988) qui montrait que le suivi antérieur de cours de comptabilité, la moyenne cumulative et le nombre de crédits complétés en mathématique avaient un lien positif et significatif avec la performance des étudiants ans le cours d'introduction à la comptabilité financière. Les résultats actuels devraient inciter les aides pédagogiques des cégeps à mieux informer les étudiants, qui souhaitent poursuivre au BAA, des pièges concernant le temps à consacrer aux études parce qu'ils ont déjà suivi un ou plusieurs cours de comptabilité. La recherche nous indique que la note des petits tests incluse dans la note globale pourrait être prise en considération dans une prochaine étude. De plus, notre étude s'est vue limitée à la seule classe disponible concernant le cours d'Introduction à la comptabilité financière.
Resumo:
La supervision professionnelle des intervenants est une pratique dont on ne connaît pas vraiment l'ampleur, ni les effets. Cet essai présente une synthèse de la réflexion de l'auteur tirée des écrits recensés sur le sujet et de son expérience professionnelle. Les résultats d'une recherche sur la supervision professionnelle d'intervenants directs qui travaillent avec des personnes en difficulté viennent enrichir et compléter cette réflexion. La supervision professionnelle offerte aux intervenants afin de les aider à conjuguer efficacement avec les exigences de leur travail est une activité essentielle au sein d'un organisme. Trois fonctions lui sont habituellement rattachées: administrative, éducative et de soutien. L'interaction entre ces trois fonctions rend la tâche complexe au cadre intermédiaire qui assure habituellement cet encadrement. De plus, le niveau de formation des intervenants peut être un facteur important dans l'appréciation que se font les employés de la supervision qu'ils reçoivent. Les résultats de l'étude démontrent que, de façon générale, les supervisés sont peu satisfaits de leur supervision et semblent en retirer peu d'effets bénéfiques. De plus, le fait d'être supervisé par leur supérieur hiérarchique et le niveau de formation ont peu d'effets sur la perception de la supervision.
Resumo:
La présente étude tend à vérifier s'il y a concordance ou non entre l'évolution du jugement moral général par rapport au jugement moral sexuel. Une brève revue de littérature de la pensée grecque à nos jours, ainsi qu'une traduction du sens du "moral" à travers les valeurs nous permet de nous situer au coeur de notre recherche. En première partie, il est présenté une synthèse des théories de Jean Piaget, Lawrence Kohlberg et Erik H. Erikson sur le jugement moral ainsi qu'un regard sur le développement psycho-sexuel afin de bien situer toutes les données sur lesquelles s'établira l'expérimentation dont il est fait état en deuxième partie. L'expérimentation sur le niveau du jugement moral général par rapport au jugement moral sexuel a été réalisée selon l'approche que Lawrence Kohlberg a développée en utilisant un nouvel instrument qui s'intitule: "Opinionnaire sur certains thèmes de relations humaines". Cette expérimentation fut réalisée auprès de 165 adolescents de secondaire 111, à l'intérieur des cadres d'une école polyvalente. Les données suivantes ont été observées : - le sexe (garçons - filles) - les secteurs (régulier - professionnel) - les âges (14 - 15 - 16 ans) - les strates sociales (pauvre - moyen - riche) - le tissu familial (couple uni - famille monoparentale - famille d'accueil). Les résultats de cette recherche indiquent qu'il n'y a aucune différence entre le jugement moral général et le jugement moral sexuel par rapport aux données énoncées ci-haut. Cependant, certaines différences ont été observées entre les secteurs et entre les 14 et 15-16 ans, ainsi qu'entre les riches et les moyens-pauvres. Des éléments intéressants sont ressortis de cette observation, tels que: - Les étudiants plus favorisés pécuniérement et socialement ont un niveau de jugement moral général et de jugement moral sexuel plus élevé que les autres. - Les étudiants de 14 ans présentent également un niveau de jugement moral général et de jugement moral sexuel plus élevé que ceux de 15 et 16 ans. Comme conclusion, nous croyons que la recherche ayant trait au jugement moral général par rapport au jugement moral sexuel est actuellement dépassée et qu'il y aurait lieu de s'intéresser à d'autres aspects comme, par exemple, les angles d'entrée et de sortie pour l'évolution d'un stade vers un autre.