25 resultados para Erreurs conceptuelles
Resumo:
Cet essai s’oriente sur la conception d’un dispositif numérique d’apprentissage (DNA) agissant comme outil pédagogique complémentaire à ce qui est déjà vu en classe et en laboratoire de science en quatrième secondaire lorsque les enseignantes et les enseignants abordent les concepts vus en électricité. Il vise à améliorer les apprentissages faits en matière d’électricité des élèves en science de quatrième secondaire à l’école du Coteau à Mascouche.
Resumo:
L’acquisition de l’anglais comme langue seconde est faite pour diverses raisons et atteinte par plusieurs moyens. Au Québec, il est enseigné obligatoirement dans les écoles primaires et secondaires ainsi que dans les institutions collégiales. L’approche privilégiée dans tous les cours d’anglais, langue seconde aux niveaux primaire et secondaire, est l’approche communicative. Cependant, bien que le programme de formation doive être respecté dans toutes les écoles de la province, les étudiantes et étudiants ne commencent pas leurs études collégiales avec le même niveau de compétences en anglais. En fait, quatre niveaux d’anglais langue, seconde, sont offerts, permettant à ceux et celles qui sont plus faibles de suivre des cours d’anglais, langue seconde, adaptés à leur niveau de compétence. L’approche communicative vise l’apprentissage d’une langue de la même manière dont on apprend sa langue maternelle. On croit qu’en plaçant les étudiantes et étudiants dans des situations de communication avec leurs pairs, ils se rendent compte de leurs propres erreurs et s’autocorrigent tout au long du cours. Cependant, bien que cette façon d’apprendre soit efficace pour un certain nombre d’étudiantes et d’étudiants, des statistiques démontrent qu’entre 20 % et 25 % d’étudiantes et d’étudiants sont incapables de réussir l’anglais de base au niveau collégial. Or, cette recherche s’est basée sur la prémisse que pour plusieurs étudiantes et étudiants, l’approche communicative au détriment des approches favorisant un enseignement explicite n’est pas suffisante pour apprendre l’anglais adéquatement. Ainsi, nous avons exploré la conception de cartes conceptuelles pour soutenir un enseignement explicite et favoriser un apprentissage significatif, plus précisément des temps de verbes de base visés dans le cours d’anglais de base, soit le Niveau I. Notre recherche-développement se fonde sur un cadre de référence contenant quatre principaux éléments. Premièrement, nous avons examiné deux courants actuels en éducation au Québec, soit l’approche par compétence implantée dans toutes les écoles primaire et secondaire ainsi qu’au niveau collégial, puis l’approche communicative qui est utilisée dans les cours d’anglais langue seconde. En deuxième lieu, nous avons présenté une recension des écrits relatifs à un enseignement explicite et enfin, en troisième lieu, une recension des écrits relatifs à un apprentissage significatif. Finalement, notre cadre de référence porte sur l’usage de cartes conceptuelles en enseignement. Notre méthodologie s’est inscrite dans un devis de recherche-développement qui est qualitative et interprétative. En se basant sur un modèle de Loiselle et Harvey (2001, 2007), notre processus de conception, de mise à l’essai et de validation a été noté dans un journal de bord. La mise à l’essai a été réalisée dans deux classes de niveau de base en anglais, langue seconde, dans un cégep francophone de la région de Québec. Cette étape a été suivie par une validation par voie d’entrevues individuelles et de groupes de discussion auprès d’expertes et d’experts et auprès d’étudiantes et d’étudiants. Les résultats de notre recherche-développement proviennent de constats à la suite d’un examen de notre journal de bord et des commentaires reçus lors de la validation. Principalement, nous avons remarqué un intérêt de la part d’autres enseignantes et enseignants à trouver des façons complémentaires d’enseigner explicitement les temps de verbes de base. De plus, un certain nombre d’étudiantes et d’étudiants ont soutenu avoir appris de façon plus significative des temps de verbes grâce aux cartes conceptuelles. Cette première exploration d’usage de cartes conceptuelles nous a permis de tirer des conclusions positives, mais il est à noter que notre recherche a été limitée en temps et en nombre de participantes et participants. Nous croyons qu’il serait pertinent de continuer à explorer l’usage des cartes conceptuelles pour un enseignement explicite et un apprentissage significatif dans les cours d’anglais langue seconde en faisant des mises à l’essai et des validations plus systématiques.
Resumo:
Résumé : Ce document examine l'effet de la dette publique et du développement monétaire étranger (taux de change et taux d'intérêt étranger) sur la demande de monnaie de long-terme. Le déficit budgétaire est utilisé comme mesure de la dette publique. Cette étude est menée sur cinq pays industrialisés: le Canada, les États-Unis, l'Allemagne, le Royaume-Uni et la France. Le modèle multivarié de cointégration de Johansen & Juselius (1990) est utilisé pour établir le lien entre ces trois variables et la demande de monnaie. Ce modèle examine indirectement deux effets: les effets du déficit budgétaire sur le taux d'intérêt et du développement monétaire étranger sur le taux d'intérêt, à travers la demande de monnaie. L'évidence d'une relation de cointégration entre la demande de monnaie et les dites variables est vérifiée pour la plupart de ces pays. Le test d'exclusion des variables de la relation de long-terme nous révèle que toutes ces variables entrent de façon significative dans la relation de cointégration. Ces résultats suggèrent donc aux autorités monétaires, l'importance de tenir compte à la fois du déficit bugétaire et du développement monétaire étranger dans la formulation de la politique monétaire.||Abstract : This paper examines the impact of both public debt and foreign monetary developments (exchange rate and interest rate) on the long-run money demand. The budget déficit is used as a measure of public debt. Five industrial countries are considered, Canada, the United States, Germany, the United Kingdom and France. The multivariate cointegration model of Johansen & Juselius (1990) is used to establish the relationship between this tree variables and the money demand. This model indirectly examines two effects, the effect of budget déficits on interest rates and the effect of foreign monetary developments on the interest rates, both through money demand. Evidence of long-run relationship between the money demand and the defined variables are found for almost every country. The long-run exclusion test shows that ail these variables significantly enter into the cointegration relation. This suggests that, in formulating monetary policies, policy makers should take into account the influence of both budget déficit and foreign monetary developments on the money demand.
Resumo:
Résumé : L'imagerie par résonance magnétique pondérée en diffusion est une modalité unique sensible aux mouvements microscopiques des molécules d'eau dans les tissus biologiques. Il est possible d'utiliser les caractéristiques de ce mouvement pour inférer la structure macroscopique des faisceaux de la matière blanche du cerveau. La technique, appelée tractographie, est devenue l'outil de choix pour étudier cette structure de façon non invasive. Par exemple, la tractographie est utilisée en planification neurochirurgicale et pour le suivi du développement de maladies neurodégénératives. Dans cette thèse, nous exposons certains des biais introduits lors de reconstructions par tractographie, et des méthodes sont proposées pour les réduire. D'abord, nous utilisons des connaissances anatomiques a priori pour orienter la reconstruction. Ainsi, nous montrons que l'information anatomique sur la nature des tissus permet d'estimer des faisceaux anatomiquement plausibles et de réduire les biais dans l'estimation de structures complexes de la matière blanche. Ensuite, nous utilisons des connaissances microstructurelles a priori dans la reconstruction, afin de permettre à la tractographie de suivre le mouvement des molécules d'eau non seulement le long des faisceaux, mais aussi dans des milieux microstructurels spécifiques. La tractographie peut ainsi distinguer différents faisceaux, réduire les erreurs de reconstruction et permettre l'étude de la microstructure le long de la matière blanche. Somme toute, nous montrons que l'utilisation de connaissances anatomiques et microstructurelles a priori, en tractographie, augmente l'exactitude des reconstructions de la matière blanche du cerveau.
Resumo:
Problématique Les réformes du système québécois de la santé et des services sociaux débutées en 2003 visent à le transformer en profondeur. La mise en œuvre de réseaux intégrés de services destinés aux personnes âgées en perte d’autonomie fonctionnelle s’inscrit dans ce mouvement de réformes. L’intégration des services nécessite toutefois des changements importants dans les modalités de régulation des systèmes sociosanitaires afin d’être en mesure d’assurer une meilleure réponse aux problèmes multidimensionnels et chroniques des personnes âgées en perte d’autonomie fonctionnelle vivant à domicile. La standardisation des pratiques professionnelles vise ainsi à réguler l’action des multiples acteurs et organisations concernés par la prise en charge des problèmes sociosanitaires. Nous avons analysé le contexte politique dans lequel s’inscrit ce mouvement de standardisation au moyen de deux logiques de performance. La première, la logique managériale, correspond à l’adoption par l’État social de principes néolibéraux s’inscrivant dans la nouvelle gestion publique. La deuxième logique, dite clinique, est construite autour de la standardisation des pratiques professionnelles par l’entremise des pratiques fondées sur des résultats probants. L’arrimage parfois complémentaire et parfois contradictoire entre ces deux logiques rend le débat sur la standardisation des professions particulièrement complexe, particulièrement dans les métiers relationnels comme le travail social (TS). Pour ses promoteurs, la standardisation fait en sorte de rendre le travail social plus scientifique et plus rationnel ce qui constitue un gage de qualité, d’efficacité et d’efficience. Pour ses détracteurs, la standardisation se présente comme une menace à l’autonomie des TS. Elle est considérée comme une attaque contre le praticien réflexif autonome qui n’est pas conciliable avec les fondements de la profession. Ainsi la compréhension du rapport des TS à la standardisation constitue un enjeu particulièrement important non seulement pour soutenir la mise en œuvre de réseaux de services intégrés destinés aux personnes âgées (RSIPA), mais aussi pour comprendre l’évolution en cours du travail social. L’usage d’outils cliniques standardisés s’accompagne de plusieurs formes de standardisations, soit des standards de conception, des standards terminologiques, des standards de performance et des standards procéduraux. Objectifs L’objectif général de cette thèse est de comprendre le rapport des TS aux différentes dimensions de la standardisation de leur pratique professionnelle en contexte de RSIPA. Plus spécifiquement, nous voulons : 1) Décrire les formes de standardisation émergentes en contexte de RSIPA; 2) Dégager les éléments de contexte et les caractéristiques perçues des outils standardisés qui influent sur leur appropriation par les TS; 3) Élucider la participation des TS au processus de régulation des pratiques professionnelles; et 4) Repérer les composantes des outils standardisés qui agissent comme des conditions structurantes de la pratique et celles qui se caractérisent par leur adaptabilité. Cadre théorique Cette thèse s’appuie sur deux perspectives théoriques complémentaires. La première, la théorie de la régulation sociale (Reynaud, 1997) nous permet d’analyser la standardisation comme un processus de régulation, afin de mettre à jour les ensembles de règles avec lesquelles les TS doivent composer ainsi que les adaptations et la part de jeu stratégique que l’on retrouve dans l’usage de ces règles. Notre deuxième perspective théorique, la sociologie des usages (Vedel, 1994), que nous en avons adaptée en appui sur la composition technique de Nélisse (1998) s’intéresse à l’activité sociale des acteurs relativement à leur utilisation des technologies. L’analyse des usages dans un contexte donné permet de comprendre de quelle manière les formes de standardisation qui accompagnent l’usage des outils cliniques standardisés peuvent potentiellement structurer la pratique professionnelle des TS, soit en la soutenant, soit en l’entravant. Méthodologie Cette thèse s’appuie sur une méthodologie qualitative, compréhensive et exploratoire. En appuie sur les principes de l’ergonomie cognitive (Falzon, 2004), nous avons examiné les prescriptions relatives aux usages des outils cliniques avec les usages de ces outils standardisés dans l’activité des intervenantes sociales (IS) formées en travail social. Nous avons opté pour une étude de cas multiples imbriquée comportant deux cas, en l’occurrence les équipes de programme perte d’autonomie liée au vieillissement (PALV), dans deux Centres de santé et de services sociaux (CSSS) où ont été implantés des réseaux de services intégrés destinés aux personnes âgées. Dans le premier, la mise en œuvre des RSIPA était à ses débuts alors que dans le deuxième, l’implantation était plus ancienne. Dans chacun des cas, quatre IS ont été recrutées. Nous avons triangulé quatre collectes de données distinctes et complémentaires soit une collecte de type documentaire pour chacun des deux cas. Avec chacune des IS, nous avons effectué trois jours d’observations directes de leur activité; un entretien compréhensif sur le sens général de la standardisation dans leur pratique; un entretien de type explicitation portant sur leur usage de l’outil d’évaluation multiclientèle (OEMC) dans un contexte particulier et un entretien compréhensif rétrospectif. Nous avons progressivement condensé et codé nos données en nous appuyant sur une stratégie de codage mixte. Les formes de standardisation émergentes en contexte de RSIPA Le rapport des IS aux outils standardisés comporte deux valences. La valence positive se manifeste lorsque les outils standardisés peuvent soutenir l’exercice du jugement professionnel des IS tout en préservant leur autonomie décisionnelle concernant les actions à mener dans leurs activités. Ainsi les IS ne manifestent pas de résistance particulièrement significatives par rapport aux formes de standardisation procédurales, conceptuelles et terminologiques qui accompagnent le modèle d’intégration de services implanté dans les deux CSSS à l’étude parce que globalement, ces formes de standardisation laissent une marge d’autonomie suffisante pour adapter les règles afin de répondre aux contingences cliniques propres aux situations singulières avec lesquelles elles doivent composer dans leur pratique. Nous avons cependant constaté que le mouvement de standardisation qui accompagne la mise en œuvre des RSIPA a été nettement érodé par un mouvement de standardisation des résultats qui découle de la logique de performance managériale notamment en contexte de reddition de compte. Ce dernier mouvement a en effet engendré des distorsions dans le premier. En ce sens, la standardisation des résultats se présente comme une contrainte sensiblement plus forte sur activité des IS que la standardisation procédurale associée à l’usage des outils standardisés RSIPA. La participation des TS au processus de régulation des pratiques professionnelles Nos résultats montrent une adhésion de principe des IS à la régulation de contrôle. Cette adhésion s’explique par la nature même des règles qui encadrent leur activité prudentielle. Puisque ces règles générales nécessitent d’être constamment interprétées à la lumière du jugement professionnel en jeu dans chacune des situations cliniques singulières, l’activité routinière des IS vise moins à les contourner qu’à les adapter dans les limites prévues dans l’espace de jeu autorisé. En ce sens, ce n’est que dans certaines circonstances que les IS expriment une résistance par rapport à la régulation de contrôle interne à leur organisation. C’est plutôt par rapport aux contraintes engendrées par certaines formes de régulation de contrôle externe que s’exprime cette résistance parce que ces dernières sont en mesure de peser significativement sur la régulation de l’activité des IS. Ainsi, la logique de performance managériale qui s’exerce à travers la reddition de comptes a pour effet d’entacher la portée des sources traditionnelles de régulation et de modifier les rapports de force entre les acteurs au sein des CSSS. En outre, la capacité régulatrice de certaines instances externes, comme l’hôpital, des mécanismes de plaintes utilisés par les usagers ou de certification de la qualité, est renforcée par le fait que ces instances sont médiatrices de formes de régulation de contrôle externe, comme la logique de performance managériale ou par des effets de médiatisation. Tous les acteurs de la hiérarchie en viennent ainsi à composer avec les régulations de contrôle pour répondre aux contraintes qui s’exercent sur eux ce qui se traduit dans un processus réflexif de régulation marqué par le jeu des uns et des autres, par des micro-déviances, ainsi que par des arrangements locaux. Étant donné que la régulation de contrôle autorise une marge d’autonomie importante, la régulation autonome paraît d’une certaine manière moins prégnante, voire moins nécessaire pour réguler l’activité des IS. Les formes de régulation autonome que nous avons mise à jour se déclinent en deux espaces d’autonomie distincts que les IS veulent préserver. Le premier, l’espace d’autonomie professionnelle a pour objet la capacité d’action générale des IS dans leur activité professionnelle et est donc transversal à l’ensemble de leur activité. Le second, l’espace d’autonomie de la singularité clinique, porte sur la marge d’autonomie des IS au regard de leur activité d’intervention auprès des usagers. Cet espace constitue une sorte de non-lieu normatif, non pas parce qu’aucune règle n’y régule les actions, mais bien parce que les règles qui y jouent se situent en partie en dehors du champ d’influence de l’ensemble des forces de standardisation agissant sur l’activité des IS. La régulation conjointe apparaît lorsque la négociation prend place à l’extérieur des limites de l’espace de jeu autorisé par les règles existantes ou que, au terme de la négociation, ces limites sont modifiées. La majorité des compromis observés ne se traduisent pas forcément sous une forme écrite et contractuelle. Certains d’entre eux se présentent comme une adaptation locale et circonstanciée et prennent la forme de régulations conjointes ad hoc alors que d’autres, les régulations conjointes institutionnalisées, s’inscrivent davantage dans la durée. Ces dernières se manifestent autour de situations cliniques pour lesquelles les règles existantes s’avèrent insuffisantes à réguler l’activité. Dans ces conditions, les négociations entre les acteurs visent à redéfinir les nouvelles limites de l’espace de jeu. Ce processus est alimenté par le cumul jurisprudentiel de chacune des situations singulières collectivisées. Les règles ainsi produites ne s’inscrivent jamais de manière dyschronique par rapport aux aspects de l’activité des IS qu’elles doivent réguler, ce qui tend à renforcer le caractère pérenne de leur capacité régulatrice. Le caractère habilitant et contraignant des dispositifs informatiques Il est difficile de comprendre la capacité régulatrice d’un dispositif informatique comme la plateforme RSIPA que l’on retrouve en PALV, en examinant uniquement ses paramètres de conception. L’analyse de ses usages en contexte s’avère indispensable. Des dispositifs informatiques comme le RSIPA possèdent la capacité d’inscrire l’intervention clinique dans un ensemble de procédures sous-jacentes, qui peuvent être plus ou moins explicites, mais qui ont la capacité d’engendrer une certaine standardisation des activités, qui peut être simultanément procédurale, terminologique et conceptuelle. Ces dispositifs informatiques détiennent ainsi la capacité d’opérer une médiation des régulations de contrôle dont ils sont porteurs. Bien qu’ils limitent l’espace de jeu clandestin, ces dispositifs ne sont pas en mesure d’enrayer complètement la capacité des IS à jouer avec les règles, notamment parce qu’ils se prêtent à des tricheries de leur part. Néanmoins, la capacité de ces plateformes informatiques à se comporter comme des instances de visualisation de l’activité peut réduire la capacité des IS à jouer et à déjouer les règles. Or, ces formes de déviance leur permettent de composer avec l’ensemble des contingences auxquelles elles sont confrontées dans leur pratique professionnelle. Cette bivalence dans l’usage de ces dispositifs informatiques soulève des enjeux relativement à leur conception afin de favoriser les meilleurs arrimages possible entre leurs fonctions cliniques et administratives.
Resumo:
Le nématode doré, Globodera rostochiensis, est un nématode phytoparasite qui peut infecter des plantes agricoles telles la pomme de terre, la tomate et l’aubergine. En raison des pertes de rendement considérables associées à cet organisme, il est justifiable de quarantaine dans plusieurs pays, dont le Canada. Les kystes du nématode doré protègent les œufs qu’ils contiennent, leur permettant de survivre (en état de dormance) jusqu’à 20 ans dans le sol. L’éclosion des œufs n’aura lieu qu’en présence d’exsudats racinaires d’une plante hôte compatible à proximité. Malheureusement, très peu de connaissances sont disponibles sur les mécanismes moléculaires liés à cette étape-clé du cycle vital du nématode doré. Dans cet ouvrage, nous avons utilisé la technique RNA-seq pour séquencer tous les ARNm d’un échantillon de kystes du nématode doré afin d’assembler un transcriptome de novo (sans référence) et d’identifier des gènes jouant un rôle dans les mécanismes de survie et d’éclosion. Cette méthode nous a permis de constater que les processus d’éclosion et de parasitisme sont étroitement reliés. Plusieurs effecteurs impliqués dans le mouvement vers la plante hôte et la pénétration de la racine sont induits dès que le kyste est hydraté (avant même le déclenchement de l’éclosion). Avec l’aide du génome de référence du nématode doré, nous avons pu constater que la majorité des transcrits du transcriptome ne provenaient pas du nématode doré. En effet, les kystes échantillonnés au champ peuvent contenir des contaminants (bactéries, champignons, etc.) sur leur paroi et même à l’intérieur du kyste. Ces contaminants seront donc séquencés et assemblés avec le transcriptome de novo. Ces transcrits augmentent la taille du transcriptome et induisent des erreurs lors des analyses post-assemblages. Les méthodes de décontamination actuelles utilisent des alignements sur des bases de données d’organismes connus pour identifier ces séquences provenant de contaminants. Ces méthodes sont efficaces lorsque le ou les contaminants sont connus (possède un génome de référence) comme la contamination humaine. Par contre, lorsque le ou les contaminants sont inconnus, ces méthodes deviennent insuffisantes pour produire un transcriptome décontaminé de qualité. Nous avons donc conçu une méthode qui utilise un algorithme de regroupement hiérarchique des séquences. Cette méthode produit, de façon récursive, des sous-groupes de séquences homogènes en fonction des patrons fréquents présents dans les séquences. Une fois les groupes créés, ils sont étiquetés comme contaminants ou non en fonction des résultats d’alignements du sous-groupe. Les séquences ambiguës ayant aucun ou plusieurs alignements différents sont donc facilement classées en fonction de l’étiquette de leur groupe. Notre méthode a été efficace pour décontaminer le transcriptome du nématode doré ainsi que d’autres cas de contamination. Cette méthode fonctionne pour décontaminer un transcriptome, mais nous avons aussi démontré qu’elle a le potentiel de décontaminer de courtes séquences brutes. Décontaminer directement les séquences brutes serait la méthode de décontamination optimale, car elle minimiserait les erreurs d’assemblage.
Resumo:
De nos jours, la communication écrite joue un rôle primordial pour tout individu qui désire se faire une place dans la société tant sur le plan personnel que socioprofessionnel. Chez les apprenants sourds, le passage à l’écrit du français de la majorité représente un grand défi et leurs phrases contiennent souvent des erreurs de syntaxe. Par exemple, les apprenants sourds auraient tendance à reproduire à l’écrit la syntaxe de la LSQ croyant que les règles de la grammaire de la phrase sont identiques. Dans cet essai, nous nous interrogeons sur les stratégies à adopter pour amener des adultes sourds gestuels à effectuer un transfert efficace de l’oral signé vers le français écrit. Pour ce faire, une situation d’apprentissage (S.A) destinée aux apprenants sourds de niveau présecondaire a été élaborée. Basée sur l’enseignement stratégique et la grammaire de la phrase de base, cette S.A exploite d’abord les bases du fonctionnement de la langue des signes québécoise (LSQ) pour ensuite introduire les notions de la phrase de base et de ses constituants selon la grammaire rénovée. Cette S.A a ensuite été soumise pour validation et rétroaction à la conseillère pédagogique du Centre d’éducation aux adultes où nous travaillons. Ses commentaires, conjugués aux observations notées lors de la mise à l’essai auprès de trois apprenants, ont permis de prendre conscience des forces de cette S.A et d’apporter des ajustements visant à optimiser l’efficacité des différentes activités d’apprentissage.
Resumo:
Abstract : Images acquired from unmanned aerial vehicles (UAVs) can provide data with unprecedented spatial and temporal resolution for three-dimensional (3D) modeling. Solutions developed for this purpose are mainly operating based on photogrammetry concepts, namely UAV-Photogrammetry Systems (UAV-PS). Such systems are used in applications where both geospatial and visual information of the environment is required. These applications include, but are not limited to, natural resource management such as precision agriculture, military and police-related services such as traffic-law enforcement, precision engineering such as infrastructure inspection, and health services such as epidemic emergency management. UAV-photogrammetry systems can be differentiated based on their spatial characteristics in terms of accuracy and resolution. That is some applications, such as precision engineering, require high-resolution and high-accuracy information of the environment (e.g. 3D modeling with less than one centimeter accuracy and resolution). In other applications, lower levels of accuracy might be sufficient, (e.g. wildlife management needing few decimeters of resolution). However, even in those applications, the specific characteristics of UAV-PSs should be well considered in the steps of both system development and application in order to yield satisfying results. In this regard, this thesis presents a comprehensive review of the applications of unmanned aerial imagery, where the objective was to determine the challenges that remote-sensing applications of UAV systems currently face. This review also allowed recognizing the specific characteristics and requirements of UAV-PSs, which are mostly ignored or not thoroughly assessed in recent studies. Accordingly, the focus of the first part of this thesis is on exploring the methodological and experimental aspects of implementing a UAV-PS. The developed system was extensively evaluated for precise modeling of an open-pit gravel mine and performing volumetric-change measurements. This application was selected for two main reasons. Firstly, this case study provided a challenging environment for 3D modeling, in terms of scale changes, terrain relief variations as well as structure and texture diversities. Secondly, open-pit-mine monitoring demands high levels of accuracy, which justifies our efforts to improve the developed UAV-PS to its maximum capacities. The hardware of the system consisted of an electric-powered helicopter, a high-resolution digital camera, and an inertial navigation system. The software of the system included the in-house programs specifically designed for camera calibration, platform calibration, system integration, onboard data acquisition, flight planning and ground control point (GCP) detection. The detailed features of the system are discussed in the thesis, and solutions are proposed in order to enhance the system and its photogrammetric outputs. The accuracy of the results was evaluated under various mapping conditions, including direct georeferencing and indirect georeferencing with different numbers, distributions and types of ground control points. Additionally, the effects of imaging configuration and network stability on modeling accuracy were assessed. The second part of this thesis concentrates on improving the techniques of sparse and dense reconstruction. The proposed solutions are alternatives to traditional aerial photogrammetry techniques, properly adapted to specific characteristics of unmanned, low-altitude imagery. Firstly, a method was developed for robust sparse matching and epipolar-geometry estimation. The main achievement of this method was its capacity to handle a very high percentage of outliers (errors among corresponding points) with remarkable computational efficiency (compared to the state-of-the-art techniques). Secondly, a block bundle adjustment (BBA) strategy was proposed based on the integration of intrinsic camera calibration parameters as pseudo-observations to Gauss-Helmert model. The principal advantage of this strategy was controlling the adverse effect of unstable imaging networks and noisy image observations on the accuracy of self-calibration. The sparse implementation of this strategy was also performed, which allowed its application to data sets containing a lot of tie points. Finally, the concepts of intrinsic curves were revisited for dense stereo matching. The proposed technique could achieve a high level of accuracy and efficiency by searching only through a small fraction of the whole disparity search space as well as internally handling occlusions and matching ambiguities. These photogrammetric solutions were extensively tested using synthetic data, close-range images and the images acquired from the gravel-pit mine. Achieving absolute 3D mapping accuracy of 11±7 mm illustrated the success of this system for high-precision modeling of the environment.
Resumo:
Abstract: Students who are actively involved in the learning process tend to develop deeper knowledge than those in traditional lecture classrooms (Beatty, 2007; Crouch & Mazur, 2001; Hake, 1998; Richardson, 2003). An instructional strategy that promotes active involvement is Peer Instruction. This strategy encourages student engagement by asking them to respond to conceptual multiple-choice questions intermittently throughout the lecture. These questions can be responded to by using an electronic hand-held device commonly known as a clicker that enables students’ responses to be displayed on a screen. When clickers are not available, a show of hands or other means can be used. The literature suggests that the impact on student learning is the same, whether the teacher uses clickers or simply asks students to raise their hand or use flashcards when responding to the questions (Lasry, 2007). This critical analysis argues that using clickers to respond to these in-class conceptual multiple-choice questions as opposed to using a show of hands leads to deeper conceptual understanding, better performance on tests, and greater overall enjoyment during class.||Résumé: Les étudiants qui sont activement impliqués dans le processus d'apprentissage ont tendance à développer des connaissances plus approfondies que lors de cours traditionnels (Beatty, 2007; Crouch & Mazur, 2001; Hake, 1998; Richardson, 2003). Une stratégie d'enseignement qui favorise la participation active est l’apprentissage par les pairs. Cette stratégie d’enseignement encourage l'engagement des élèves en leur demandant de répondre à des questions à choix multiples conceptuelles à plusieurs reprises durant le déroulement du cours. Ces questions peuvent être répondues à l'aide d'un appareil portatif électronique (un « clicker ») qui permet d’afficher de façon anonyme les réponses des élèves sur un écran. Si les clickers ne sont pas disponibles, les étudiants peuvent aussi répondre aux questions en levant la main. La littérature suggère que la méthode utilisée n’a pas d’impact sur l'apprentissage des élèves, que l'enseignant utilise des clickers, des flashcards ou qu’il demande simplement aux élèves de lever la main pour répondre aux questions (Lasry, 2007). Cette analyse critique fait valoir que l'utilisation de clickers pour répondre à ces questions à choix multiples conceptuelles en classe, plutôt que de faire lever la main aux étudiants, résulte en une compréhension conceptuelle plus approfondie, une meilleure performance aux examens et plus de plaisir pendant les cours.
Resumo:
Plusieurs collèges compilent à chaque session les taux d'abandon, d'échec et de changement de programme de leurs étudiants. Bien que certains facteurs et causes d'échec, d'abandon ou de changement de programme aient pu être relevés, ces compilations statistiques ne s'avèrent guère utiles aux professionnels des services de consultation. Ces données permettent de constater les faits. Une analyse plus en détail nous permettant d'identifier les sources du problème serait beaucoup plus utile. En plus des étudiants qui échouent, abandonnent des cours ou changent de programme, que dire de ceux qui ont fixé trop rapidement ou de façon trop rigide leur choix vocationnel et de ceux qui se maintiennent dans un état d'indécision chronique au niveau de leur choix vocationnel ? Comment entreprendre des actions préventives à l'égard de ces phénomènes du cheminement scolaire des étudiants ? Nous identifions comme étant une des sources de ces phénomènes la maturité vocationnelle du jeune adulte, puisque c'est celle-ci qui influencera la qualité de ses choix et son adaptation professionnelle (Super; voir Laflamme et Petit, 1973). En effet, le jeune adulte doit être en mesure d'évaluer les motifs et les conséquences des gestes qu'il pose en fonction de la réalisation de son projet vocationnel, pour contrôler son cheminement scolaire. Or nous constatons, que même si les jeunes adultes semblent préoccupés par la question de leur orientation, bon nombre d'entre eux ne manifestent pas l'intérêt de prendre en charge leur démarche d'orientation. Plusieurs semblent s'occuper de cette question à la dernière minute, par exemple, juste avant les dates limites des demandes d'admission pour l'entrée au collège ou à l'université. D'autres semblent procéder par essais et erreurs sans nécessairement être conscients des valeurs, buts, ambitions qui les poussent à poser ces choix successifs (nouveaux programmes) parfois peu satisfaisants. Certains refuseront même de poser des choix reléguant au hasard ce qui arrivera d'eux. Tous ces faits et impressions tirés de notre expérience nous font penser que le jeune adulte ne semble pas s'impliquer personnellement dans les actes qu'il pose. Il ne semble pas croire qu'il a du pouvoir sur sa vie et qu'il peut prendre en charge les évènements qui l'entourent, particulièrement ici, son cheminement scolaire et sa démarche d'orientation. Il laisse plutôt l'environnement exercer un contrôle sur lui, ce qui a pour effet, croyons-nous, de le rendre passif quant à son cheminement scolaire et à sa démarche d'orientation. Il semble y avoir une contradiction: le jeune adulte est préoccupé par la question de son orientation mais ne semble pas motivé à investir beaucoup d'énergie pour son développement vocationnel. Il ne se prend pas en charge, il ne passe pas à l'action claire et manifeste. A l'observation de ces comportements, il nous apparaît alors que beaucoup de jeunes adultes ne sont pas réellement en possession de leur projet vocationnel. C'est là justement qu'il nous faut vérifier si le jeune adulte de niveau collégial a atteint une certaine maturité vocationnelle. Nous tenterons donc de voir comment se situe le jeune adulte du niveau collégial dans son développement vocationnel et ce, par rapport aux théories existantes et comment mesurer son niveau de maturité vocationnelle. Pour ce faire nous effectuerons, dans un premier temps, une revue de la littérature scientifique en ce qui a trait à la notion de maturité vocationnelle; puis nous effectuerons une revue et une critique des travaux antérieurs sur la mesure et l'évaluation de la maturité vocationnelle. Cette dernière étape vous permettra de déterminer quel instrument serait le plus adéquat pour mesurer la maturité vocationnelle du jeune adulte de niveau collégial.
Resumo:
Des précisions méritent d’être apportées au début de ce rapport pour éclairer certains choix que nous avons faits dans notre démarche de rédaction ainsi que le contexte dans lequel se sont effectués nos travaux. D’abord, nous avons pris deux décisions en ce qui concerne la féminisation du texte. Premièrement, nous avons opté pour l’utilisation des termes génériques dans la définition du cadre conceptuel. Par ailleurs, nous avons utilisé le féminin pour parler des enseignantes et des sujets impliqués dans la recherche pour représenter fidèlement la réalité. Nous avons par la suite décidé d’utiliser le féminin dans toutes les autres parties du rapport. D’autre part, tous les prénoms des sujets et des enfants impliqués dans la recherche ont été remplacés par des pseudonymes pour conserver leur anonymat. Nous avons aussi choisi de présenter les extraits issus de nos données de recherche tels quels, pour qu’ils soient le plus fidèles possibles. Par contre, nous nous sommes permis de corriger les erreurs d’orthographe par respect pour la langue française. De plus, pour éviter d’alourdir la lecture du cinquième chapitre, nous mentionnons les références des extraits qui appuient nos affirmations sans en rapporter le texte. De même, il nous est arrivé de faire ce choix à quelques reprises dans le sixième chapitre, lorsque les extraits nous paraissaient trop longs ou que la reproduction fidèle des verbalisations aurait rendu la lecture fastidieuse. La rédaction du rapport est le fruit d’un travail d’équipe soutenu. Par contre, pour des raisons d’efficacité, nous avons partagé l’analyse des données. De ce fait, certaines parties du rapport, notamment dans les chapitres cinq et six ont été rédigées individuellement. Aussi, des styles d’écriture différents peuvent être observés dans ces deux chapitres car nous avons tenu à les respecter. Par contre, chacune des chercheures a soumis ses textes à l’équipe qui les a critiqués et bonifiés. Finalement, il faut mentionner que le présent document est issu d’une double démarche : celle d’une équipe de travail subventionnée dans le cadre du Programme d’aide à la recherche sur l’enseignement et l’apprentissage du Ministère de l’éducation du Québec, et celle d’étudiantes dans le Programme de maîtrise en sciences de l’éducation donné par l’Université de Sherbrooke. Ainsi nous avons pu bénéficier de plus d’un support : support financier, support institutionnel et support méthodologique. À notre avis, la recette est bonne.
Resumo:
[…] Cette étude débute par l'exposé des conditions spécifiques aux déficients auditifs pour l'acquisition du langage et par la présentation de nos hypothèses (Chapitre 1). Nous faisons ensuite un rappel des études antérieures et nous envisageons les implications méthodologiques de nos hypothèses (Chapitre 2). Nous présentons ensuite notre méthodologie pour le recueil et l'analyse des données (Chapitre 3). Étant données toutes les variables pouvant intervenir (émotivité des sujets, intelligence, facilité d'élocution, milieu familial...) nous vérifions l'homogénéité des corpus. Nous débutons par une analyse statistique permettant de donner les «mesures» des corpus : quantité de discours produit, complexité de ce discours, homogénéité entre les deux groupes linguistiques concernés... (Chapitre 4) Ensuite, nous observons la construction progressive des énoncés, ce qui est l'apanage de l'oral; cela implique donc l'étude de la construction du sens et de la forme grâce à des hésitations, des répétitions et des reprises; là aussi, il faut établir s'il y a homogénéité entre les sujets (Chapitre 5). Pour l'analyse «théorique» des corpus, nous privilégions la théorie des opérations énonciatives élaborée par Antoine Culioli, car elle présente l'avantage de lier un bon nombre de fonctionnements et de manifestations linguistiques, tels que la syntaxe, la sémantique et la morphologie. Nous présentons les grandes lignes de cette théorie dans le Chapitre 6. Nous nous intéressons alors à la façon dont nos sujets procèdent pour mettre en place le thème de leur énoncé. Cet aspect de l'étude concerne donc une dimension sémantique dans les corpus. Nous nous intéressons plus particulièrement aux structures utilisées pour la thématisation, ce qui nous amène à faire le lien avec la syntaxe (Chapitre 7). Enfin, nous nous intéressons au caractère homogène des «erreurs» et aux fonctionnements de la langue utilisée dans les corpus. Nous nous concentrons alors plus précisément sur les repérages effectués par les locuteurs afin de rendre leur discours référentiel (Chapitre 8) […]
Resumo:
L'Amérique latine se caractérise comme une région ayant la pire répartition de la richesse et le Mexique n'y fait pas exception. Malgré que la dernière décennie lui ait apporté la stabilisation économique et la libéralisation des échanges commerciaux, l'écart entre les riches et les pauvres continue de croître. Pour certains experts, la cause principale de cette situation réside dans les effets de la mondialisation. Bien qu'ils contribuent à déstabiliser les économies locales, d'autres éléments présents au Mexique menacent autant le développement durable des communautés mexicaines. Notons la fragilité des démocraties, la faiblesse des institutions financières, les histoires de corruption et de trafic de drogue, l'exclusion sociale et la dégradation de l'environnement. Plusieurs programmes de développement socioéconomiques ont été mis en place par différents gouvernements mexicains. Que ce soit, des programmes en matière de santé et d'éducation, des programmes alimentaires et agricoles ou de construction d'infrastructures, ils visent essentiellement à réduire la pauvreté en milieux ruraux. Les problèmes sociaux en zones urbaines ne font pas partie des priorités actuelles de l'agenda politique du gouvernement fédéral. Les communautés urbaines doivent donc se tourner vers d'autres moyens pour assurer leur développement et, la micro-finance est l'une des solutions qui a depuis longtemps fait ses preuves en matière de mobilisation des populations hasardeuses. En effet, elle permet aux populations exclues des systèmes financiers traditionnels d'avoir un plus grand contrôle de leur avenir par l'auto emploi et par le développement endogène de leur communauté. Elle introduit donc une dynamique d'autonomie et vise des changements économiques et sociaux à long terme. Par contre, une des plus grandes erreurs commises est pourtant de prétendre que la micro-finance est le remède de toutes les calamités. Les besoins des populations moins nanties en zones urbaines ne se limitent pas aux besoins de financement. Les pauvres ont également besoin de logements salubres, d'eau potable, d'électricité, de soins de santé, d'écoles et d'infrastructure, ce en quoi tout être humain est en droit de posséder. De plus, le développement durable n'est pas qu'une question de solution aux problèmes de pauvreté, il concerne également tous les citadins. Lorsque l'on parle de qualité de vie, on parle également d'emplois disponibles, de revitalisation de quartiers, d'aménagement d'espaces verts, de construction de centres sportifs et culturels, pour en nommer que quelques-uns. En l'absence de volonté ou de moyens politiques en la matière, la coopérative d'épargne et de crédit peut-elle être un levier de développement local pour une communauté urbaine mexicaine? C'est la question à laquelle je me suis attardée ces derniers mois, en analysant le contexte socio-économique de la ville de Querétaro au Mexique. Pour ce faire, j'ai exécuté d'abord une intervention dans une importante coopérative d'épargne et de crédit et je me suis ensuite documentée à travers des entrevues formelles et informelles, des observations, des conférences diverses et la littérature locale et internationale. Après avoir présenté, dans le premier chapitre, le contexte socio-politico-économique du Mexique et en particulier celui de la municipalité de Querétaro, je décris, au chapitre 2, les différents problèmes que vivent au quotidien les citadins. Le chapitre 3 est consacré à l'environnement et aux ressources qu'offrent les coopératives mexicaines d'épargne et de crédit: leur importance, les principes, la législation, les forces et les faiblesses, les menaces et les opportunités, etc. Le chapitre suivant définit le développement local en zone urbaine, ses principes, le processus qui l'accompagne, les acteurs impliqués et la finalité. Enfin le chapitre 5 nous amène au coeur même de la réflexion, c'est-à-dire évaluer si la coopérative d'épargne et de crédit possède le potentiel nécessaire pour être un acteur important de développement local en zones urbaines mexicaines.
Resumo:
La maitrise de la langue écrite dans les disciplines scolaires représente un indice prédictif de la réussite scolaire. Bien que, au secondaire, la compétence à communiquer de façon appropriée constitue une compétence transversale à développer dans tout le cursus scolaire, l’idée de transversalité est mise en question, car chaque discipline possède ses particularités langagières, lesquelles doivent être enseignées dans les contextes de production-réception spécifiques aux domaines d’apprentissage. Cette recherche en didactique de l’écrit et des sciences visait à dégager les caractéristiques langagières propres à la rédaction d’un rapport de laboratoire. Une grille d’analyse a été utilisée pour relever les occurrences d’unités linguistiques dans un corpus d’observation composé de 62 rapports de laboratoire d’élèves de 4e secondaire en sciences et technologies de l’environnement. Les résultats montrent que le rapport de laboratoire comporte des unités linguistiques de fréquentes à rares selon l’intention du scripteur dans les différentes parties du rapport (but, hypothèse, etc.) et que les erreurs commises par les élèves se rapportent aux conventions, à la précision et à l’orthographe. Du matériel pédagogique a été conçu à la lumière de ces observations afin d’outiller les enseignants de sciences pour qu’ils puissent mieux expliciter les conventions propres à la rédaction de ce type d’écrit.
Resumo:
Abstract : Many individuals that had a stroke have motor impairments such as timing deficits that hinder their ability to complete daily activities like getting dressed. Robotic rehabilitation is an increasingly popular therapeutic avenue in order to improve motor recovery among this population. Yet, most studies have focused on improving the spatial aspect of movement (e.g. reaching), and not the temporal one (e.g. timing). Hence, the main aim of this study was to compare two types of robotic rehabilitation on the immediate improvement of timing accuracy: haptic guidance (HG), which consists of guiding the person to make the correct movement, and thus decreasing his or her movement errors, and error amplification (EA), which consists of increasing the person’s movement errors. The secondary objective consisted of exploring whether the side of the stroke lesion had an effect on timing accuracy following HG and EA training. Thirty-four persons that had a stroke (average age 67 ± 7 years) participated in a single training session of a timing-based task (simulated pinball-like task), where they had to activate a robot at the correct moment to successfully hit targets that were presented a random on a computer screen. Participants were randomly divided into two groups, receiving either HG or EA. During the same session, a baseline phase and a retention phase were given before and after each training, and these phases were compared in order to evaluate and compare the immediate impact of HG and EA on movement timing accuracy. The results showed that HG helped improve the immediate timing accuracy (p=0.03), but not EA (p=0.45). After comparing both trainings, HG was revealed to be superior to EA at improving timing (p=0.04). Furthermore, a significant correlation was found between the side of stroke lesion and the change in timing accuracy following EA (r[subscript pb]=0.7, p=0.001), but not HG (r[subscript pb]=0.18, p=0.24). In other words, a deterioration in timing accuracy was found for participants with a lesion in the left hemisphere that had trained with EA. On the other hand, for the participants having a right-sided stroke lesion, an improvement in timing accuracy was noted following EA. In sum, it seems that HG helps improve the immediate timing accuracy for individuals that had a stroke. Still, the side of the stroke lesion seems to play a part in the participants’ response to training. This remains to be further explored, in addition to the impact of providing more training sessions in order to assess any long-term benefits of HG or EA.