869 resultados para Error correction
Resumo:
Différentes études ont montré que le niveau des futurs enseignants, issus des écoles publiques, en français langue étrangère (FLE) en Égypte est assez faible. Ceux-ci font un grand nombre d’erreurs répétitives à l’oral. Quoique ce manque de précision langagière puisse être dû à plusieurs facteurs, il appert que la rétroaction soit une des variables contribuant à ce phénomène (comme le nombre d’étudiants en classe, la durée du cours, l’âge et la motivation des étudiants, les méthodes d’enseignement, etc.). La rétroaction corrective est généralement définie comme toute correction explicite ou implicite de la part de l’enseignant indiquant que la production de l’apprenant est erronée. Elle est considérée comme indispensable dans les classes de langues secondes (LS) (Shmidt, 1983, 2001 ; Long, 1991, 1996 ; Lightbown, 1998). Pour ces raisons, cette étude porte sur la rétroaction corrective et, plus spécifiquement, sur les croyances des enseignants et des apprenants quant à celle-ci, ainsi qu’à son utilisation dans les classes de FLE en Égypte. Les recherches antérieures indiquent que les croyances des enseignants quant à l’acte d’enseigner influencent leurs pratiques en classe, que les croyances des apprenants influencent leur motivation, leur niveau et leurs efforts déployés pour l’apprentissage de la langue, et qu’une divergence entre les croyances des professeurs et celles des apprenants peut entraîner des effets négatifs sur l’apprentissage de la langue cible, ce qui indique ainsi qu’il est de grande importance d’explorer les croyances. Ainsi, la présente étude vise à explorer les croyances des professeurs égyptiens et celles de leurs étudiants en ce qui a trait à la rétroaction corrective à l’oral, la différence entre ces croyances, et l’identification des pratiques réelles des professeurs afin de décrire à quel point celles-ci reflètent les croyances exprimées. Pour ce faire, un questionnaire a été administré à 175 étudiants et 25 professeurs appartenant à trois universités égyptiennes afin de déterminer leurs croyances déclarées. Des entrevues semi-dirigées et des observations directes ont été réalisées auprès de neuf des 25 professeurs participants pour mieux déterminer leurs croyances et leurs pratiques rétroactives. Les résultats obtenus ont révélé qu’il existe des divergences importantes entre les croyances des professeurs et celles des étudiants, d’un côté, et entre les croyances des professeurs et leur pratique, de l’autre côté. Par exemple, la plupart des étudiants ont déclaré leur opposition à l’utilisation de la reformulation alors que presque la moitié des professeurs ont indiqué être en faveur de cette même technique. Les professeurs ont indiqué que leur choix de techniques rétroactives dépend du type d’erreurs et qu’ils préfèrent inciter les apprenants à s’auto corriger. Cependant, ces mêmes professeurs ont utilisé la reformulation pour corriger la majorité des erreurs de leurs apprenants, quelle que soit leur nature. Nous parvenons ainsi à la conclusion que l’utilisation de la reformulation, qui fait l’objet d’une divergence au niveau des croyances, pourrait être à l’origine du manque de précision langagière rapporté par les chercheurs.
Resumo:
Cette recherche vise à décrire 1) les erreurs lexicales commises en production écrite par des élèves francophones de 3e secondaire et 2) le rapport à l’erreur lexicale d’enseignants de français (conception de l’erreur lexicale, pratiques d’évaluation du vocabulaire en production écrite, modes de rétroaction aux erreurs lexicales). Le premier volet de la recherche consiste en une analyse d’erreurs à trois niveaux : 1) une description linguistique des erreurs à l’aide d’une typologie, 2) une évaluation de la gravité des erreurs et 3) une explication de leurs sources possibles. Le corpus analysé est constitué de 300 textes rédigés en classe de français par des élèves de 3e secondaire. L’analyse a révélé 1144 erreurs lexicales. Les plus fréquentes sont les problèmes sémantiques (30%), les erreurs liées aux propriétés morphosyntaxiques des unités lexicales (21%) et l’utilisation de termes familiers (17%). Cette répartition démontre que la moitié des erreurs lexicales sont attribuables à une méconnaissance de propriétés des mots autres que le sens et la forme. L’évaluation de la gravité des erreurs repose sur trois critères : leur acceptation linguistique selon les dictionnaires, leur impact sur la compréhension et leur degré d’intégration à l’usage. Les problèmes liés aux registres de langue sont généralement ceux qui sont considérés comme les moins graves et les erreurs sémantiques représentent la quasi-totalité des erreurs graves. Le troisième axe d’analyse concerne la source des erreurs et fait ressortir trois sources principales : l’influence de la langue orale, la proximité sémantique et la parenté formelle entre le mot utilisé et celui visé. Le second volet de la thèse concerne le rapport des enseignants de français à l’erreur lexicale et repose sur l’analyse de 224 rédactions corrigées ainsi que sur une série de huit entrevues menées avec des enseignants de 3e secondaire. Lors de la correction, les enseignants relèvent surtout les erreurs orthographiques ainsi que celles relevant des propriétés morphosyntaxiques des mots (genre, invariabilité, régime), qu’ils classent parmi les erreurs de grammaire. Les erreurs plus purement lexicales, c’est-à-dire les erreurs sémantiques, l’emploi de termes familiers et les erreurs de collocation, demeurent peu relevées, et les annotations des enseignants concernant ces types d’erreurs sont vagues et peu systématiques, donnant peu de pistes aux élèves pour la correction. L’évaluation du vocabulaire en production écrite est toujours soumise à une appréciation qualitative, qui repose sur l’impression générale des enseignants plutôt que sur des critères précis, le seul indicateur clair étant la répétition. Les explications des enseignants concernant les erreurs lexicales reposent beaucoup sur l’intuition, ce qui témoigne de certaines lacunes dans leur formation en lien avec le vocabulaire. Les enseignants admettent enseigner très peu le vocabulaire en classe au secondaire et expliquent ce choix par le manque de temps et d’outils adéquats. L’enseignement du vocabulaire est toujours subordonné à des tâches d’écriture ou de lecture et vise davantage l’acquisition de mots précis que le développement d’une réelle compétence lexicale.
Resumo:
Les logiciels de correction grammaticale commettent parfois des détections illégitimes (fausses alertes), que nous appelons ici surdétections. La présente étude décrit les expériences de mise au point d’un système créé pour identifier et mettre en sourdine les surdétections produites par le correcteur du français conçu par la société Druide informatique. Plusieurs classificateurs ont été entraînés de manière supervisée sur 14 types de détections faites par le correcteur, en employant des traits couvrant di-verses informations linguistiques (dépendances et catégories syntaxiques, exploration du contexte des mots, etc.) extraites de phrases avec et sans surdétections. Huit des 14 classificateurs développés sont maintenant intégrés à la nouvelle version d’un correcteur commercial très populaire. Nos expériences ont aussi montré que les modèles de langue probabilistes, les SVM et la désambiguïsation sémantique améliorent la qualité de ces classificateurs. Ce travail est un exemple réussi de déploiement d’une approche d’apprentissage machine au service d’une application langagière grand public robuste.
Resumo:
Les gènes sont les parties du génome qui codent pour les protéines. Les gènes d’une ou plusieurs espèces peuvent être regroupés en "familles", en fonction de leur similarité de séquence. Cependant, pour connaître les relations fonctionnelles entre ces copies de gènes, la similarité de séquence ne suffit pas. Pour cela, il est important d’étudier l’évolution d’une famille par duplications et pertes afin de pouvoir distinguer entre gènes orthologues, des copies ayant évolué par spéciation et susceptibles d’avoir conservé une fonction commune, et gènes paralogues, des copies ayant évolué par duplication qui ont probablement développé des nouvelles fonctions. Étant donnée une famille de gènes présents dans n espèces différentes, un arbre de gènes (obtenu par une méthode phylogénétique classique), et un arbre phylogénétique pour les n espèces, la "réconciliation" est l’approche la plus courante permettant d’inférer une histoire d’évolution de cette famille par duplications, spéciations et pertes. Le degré de confiance accordé à l’histoire inférée est directement relié au degré de confiance accordé à l’arbre de gènes lui-même. Il est donc important de disposer d’une méthode préliminaire de correction d’arbres de gènes. Ce travail introduit une méthodologie permettant de "corriger" un arbre de gènes : supprimer le minimum de feuilles "mal placées" afin d’obtenir un arbre dont les sommets de duplications (inférés par la réconciliation) sont tous des sommets de "duplications apparentes" et obtenir ainsi un arbre de gènes en "accord" avec la phylogénie des espèces. J’introduis un algorithme exact pour des arbres d’une certaine classe, et une heuristique pour le cas général.
Resumo:
Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
La recherche de nouvelles voies de correction de la scoliose idiopathique a une longue histoire. Le traitement conventionnel de la scoliose idiopathique est présenté par le port du corset ou par la correction opératoire de la déformation. Depuis leur introduction, les deux méthodes ont prouvé leur efficacité. Cependant, malgré des caractéristiques positives évidentes, ces méthodes peuvent causer un nombre important d'effets indésirables sur la santé du patient. Les techniques sans fusion pour le traitement de la scoliose semblent être une alternative perspective de traitement traditionnel, car ils apportent moins de risques et des complications chirurgicales que les méthodes conventionnelles avec la conservation de la mobilité du disque intravertébral. Cependant, l'utilisation de techniques mentionnées exige une connaissance profonde de la modulation de croissance vertébrale. L'objectif principal de la présente étude est d'estimer le potentiel d'agrafes à l’AMF de moduler la croissance des vertèbres porcines en mesurant la croissance osseuse sur la plaque de croissance de vertèbres instrumentées en comparaison avec le groupe contrôle. La méthode est basée sur la loi de Hueter-Volkmann. Nous avons choisi NiTi agrafes à l’AMF pour notre étude et les porcs de race Landrace comme un animal expérimental. Les agrafes ont été insérés sur 5 niveaux thoracique de T6 à T11. En outre, les radiographies ont été prises toutes les 2 semaines. La présence d'agrafes en alliage à mémoire de forme a produit la création de courbes scoliotiques significatives dans 4 de 6 animaux chargés et le ralentissement considérable de la croissance osseuse (jusqu'à 35,4%) comparativement aux groupes contrôle et sham. L'étude a démontré in vivo le potentiel d'agrafes en alliage à mémoire de formes de moduler la croissance des vertèbres en créant des courbes scoliotiques sur les radiographies et en ralentissant le taux de croissance sur les plaques de croissance instrumenté. La position précise de l'agrafe est essentielle pour la modulation de croissance osseuse et le développement de la scoliose expérimentale.
Resumo:
Rapport de recherche présenté à la Faculté des arts et des sciences en vue de l'obtenion du grade de Maîtrise en sciences économiques.
Resumo:
Les données provenant de l'échantillonnage fin d'un processus continu (champ aléatoire) peuvent être représentées sous forme d'images. Un test statistique permettant de détecter une différence entre deux images peut être vu comme un ensemble de tests où chaque pixel est comparé au pixel correspondant de l'autre image. On utilise alors une méthode de contrôle de l'erreur de type I au niveau de l'ensemble de tests, comme la correction de Bonferroni ou le contrôle du taux de faux-positifs (FDR). Des méthodes d'analyse de données ont été développées en imagerie médicale, principalement par Keith Worsley, utilisant la géométrie des champs aléatoires afin de construire un test statistique global sur une image entière. Il s'agit d'utiliser l'espérance de la caractéristique d'Euler de l'ensemble d'excursion du champ aléatoire sous-jacent à l'échantillon au-delà d'un seuil donné, pour déterminer la probabilité que le champ aléatoire dépasse ce même seuil sous l'hypothèse nulle (inférence topologique). Nous exposons quelques notions portant sur les champs aléatoires, en particulier l'isotropie (la fonction de covariance entre deux points du champ dépend seulement de la distance qui les sépare). Nous discutons de deux méthodes pour l'analyse des champs anisotropes. La première consiste à déformer le champ puis à utiliser les volumes intrinsèques et les compacités de la caractéristique d'Euler. La seconde utilise plutôt les courbures de Lipschitz-Killing. Nous faisons ensuite une étude de niveau et de puissance de l'inférence topologique en comparaison avec la correction de Bonferroni. Finalement, nous utilisons l'inférence topologique pour décrire l'évolution du changement climatique sur le territoire du Québec entre 1991 et 2100, en utilisant des données de température simulées et publiées par l'Équipe Simulations climatiques d'Ouranos selon le modèle régional canadien du climat.
Resumo:
Introduction: La correction de la Classe II avec un appareil myofonctionnel est un traitement commun chez les patients en croissance. Le Twin Block et le correcteur de Classe II fixe (CCF) sont des appareils populaires et plusieurs publications scientifiques ont décrit leurs effets sur les tissus orofaciaux. Plusieurs articles rapportent les changements de l’électromyographie des muscles de la mastication durant le traitement avec un Twin Block, mais peu d’articles ont étudié ces changements avec un CCF. Comme le Twin Block et le CCF ont des biomécaniques différentes, leur influence sur les muscles est possiblement différente. Objectifs: Évaluer les adaptations musculaires suite à un traitement par appareil myofonctionnel : Twin Block et CCF. Matériels et méthodes: Dans une étude cohorte prospective, 24 patients en pic de croissance ont été assignés aléatoirement à un traitement (13 Twin Block; 11 CCF) et l’EMG des muscles masséters et temporaux a été mesurée à 1, 5, 13, 21, 29, 37 semaines. Les muscles ont été mesurés sous trois états: au repos, en occlusion centré (OC) et en contraction volontaire maximal (CVM) Résultats: Les données ont été analysées à l’aide d’un modèle mixte linéaire à mesures répétées et ont été documentées pour chaque muscle selon quatre conditions: i- avec Twin Block en bouche, ii- sans Twin Block en bouche iii- avec CCF en bouche et iv- sans Twin Block comparé au groupe avec CCF. Dans la condition i, des résultats significatifs ont été observés au repos pour le masséter droit et gauche, ainsi que le temporal gauche avec une valeur-p≤0.005. En CVM, la condition i montre aussi des résultats significatifs pour le masséter droit et le temporal gauche avec une valeur-p≤0.05. Les conditions ii et iii ont obtenu des résultats non-significatifs en tout temps. Par contre, lorsque ces deux conditions sont comparées l’une à l’autre (condition iv), des résultats significatifs ont été obtenus en OC pour les temporaux gauche et droit avec une valeur-p=0.005. Conclusions: Avec le Twin Block en bouche, l’EMG augmente au cours du temps en CVM, mais diminue en OC. Par contre, sans le Twin Block en bouche et avec le CCF en bouche, l’EMG ne varie pas. Cependant, le Twin Block et le CCF sont différents au niveau des mesures de l’EMG au cours des neuf mois de traitement. Ceci peut être expliqué par le nivellement graduel de l’occlusion postérieure durant le traitement avec le CCF qui ne se produit pas avec le Twin Block.
Resumo:
La rétroaction corrective (RC) se définit comme étant un indice permettant à l’apprenant de savoir que son utilisation de la L2 est incorrecte (Lightbown et Spada, 2006). Les chercheurs reconnaissent de plus en plus l’importance de la RC à l’écrit (Ferris, 2010). La recherche sur la RC écrite s’est grandement concentrée sur l’évaluation des différentes techniques de RC sans pour autant commencer par comprendre comment les enseignants corrigent les textes écrits de leurs élèves et à quel point ces derniers sont en mesure d’utiliser cette RC pour réviser leurs productions écrites. Cette étude vise à décrire quelles techniques de RC sont utilisées par les enseignants de francisation ainsi que comment les étudiants incorporent cette RC dans leur révision. De plus, elle veut aussi vérifier si les pratiques des enseignants et des étudiants varient selon le type d’erreur corrigée (lexicale, syntaxique et morphologique), la technique utilisée (RC directe, indirecte, combinée) et la compétence des étudiants à l’écrit (faible ou fort). Trois classes de francisation ont participé à cette étude : 3 enseignants et 24 étudiants (12 jugés forts et 12 faibles). Les étudiants ont rédigé un texte qui a été corrigé par les enseignants selon leur méthode habituelle. Puis les étudiants ont réécrit leur texte en incorporant la RC de leur enseignant. Des entrevues ont aussi été réalisées auprès des 3 enseignants et des 24 étudiants. Les résultats indiquent l’efficacité générale de la RC à l’écrit en langue seconde. En outre, cette efficacité varie en fonction de la technique utilisée, des types d’erreurs ainsi que du niveau de l’apprenant. Cette étude démontre que ces trois variables ont un rôle à jouer et que les enseignants devraient varier leur RC lorsqu’ils corrigent.
Resumo:
Notre recherche s’inscrit dans le cadre de l’adoption par le Sénégal de l’approche par compétences avec des pratiques évaluatives favorisant la réussite du plus grand nombre d’élèves. Parmi ces pratiques, figurent celles liées à l’évaluation formative et particulièrement aux rétroactions écrites, pouvant prolonger les activités d’apprentissage (Scallon, 2004; OCDE, 2005) et permettre la maîtrise des acquis. De ce point de vue, nous avons examiné les façons de faire l’évaluation formative de trois enseignants sénégalais du primaire. Le but est de documenter leurs façons de pratiquer la rétroaction écrite avant et après une expérimentation des annotations selon les modèles de Rodet (2000) et de Lebœuf (1999). Dans cette optique, notre recherche puise ses fondements dans les recherches qualitatives liées au paradigme naturaliste (Fortin, 2010; Deslauriers et Kérésit, 1997; Savoie-Zajc et Karsenti, 2011). Plus précisément, nous avons opté pour une recherche-formation au travers de la double démarche que nous avons empruntée. D’une part, l’étude est parcourue par une démarche de recherche qualitative telle que Fortin (2010) la conçoit, et ce, à des fins de compréhension des pratiques de rétroaction écrite des enseignants ciblés. D’autre part, le chercheur suit une démarche de formation en s’appuyant sur les travaux de Galvani (1999) et de Lafortune (2006), avec comme visée l’expérimentation de la pratique des annotations. Comme instruments de collecte, nous avons utilisé l’entrevue individuelle semi-structurée ainsi que deux guides d’entretien, en plus des deux grilles de recueil d’annotations. L’analyse des données a permis de constater que, en amont de l’expérimentation, la rétroaction écrite est constituée essentiellement de signes divers, de notes chiffrées et de commentaires sous forme d’appréciations globales. En aval, elle se compose majoritairement d’annotations à formulations positive et constructive à contenu cognitif, et des commentaires injonctifs, verdictifs et explicatifs. Au final, les enseignants trouvent cette nouvelle façon de faire avantageuse en termes de réussite des élèves mais contraignante au vu de son caractère chronophage. Cette recherche ouvre, entre autres, sur une étude traitant des liens entre annotations et réussite des élèves.
Resumo:
Cette thèse comporte trois articles dont un est publié et deux en préparation. Le sujet central de la thèse porte sur le traitement des valeurs aberrantes représentatives dans deux aspects importants des enquêtes que sont : l’estimation des petits domaines et l’imputation en présence de non-réponse partielle. En ce qui concerne les petits domaines, les estimateurs robustes dans le cadre des modèles au niveau des unités ont été étudiés. Sinha & Rao (2009) proposent une version robuste du meilleur prédicteur linéaire sans biais empirique pour la moyenne des petits domaines. Leur estimateur robuste est de type «plugin», et à la lumière des travaux de Chambers (1986), cet estimateur peut être biaisé dans certaines situations. Chambers et al. (2014) proposent un estimateur corrigé du biais. En outre, un estimateur de l’erreur quadratique moyenne a été associé à ces estimateurs ponctuels. Sinha & Rao (2009) proposent une procédure bootstrap paramétrique pour estimer l’erreur quadratique moyenne. Des méthodes analytiques sont proposées dans Chambers et al. (2014). Cependant, leur validité théorique n’a pas été établie et leurs performances empiriques ne sont pas pleinement satisfaisantes. Ici, nous examinons deux nouvelles approches pour obtenir une version robuste du meilleur prédicteur linéaire sans biais empirique : la première est fondée sur les travaux de Chambers (1986), et la deuxième est basée sur le concept de biais conditionnel comme mesure de l’influence d’une unité de la population. Ces deux classes d’estimateurs robustes des petits domaines incluent également un terme de correction pour le biais. Cependant, ils utilisent tous les deux l’information disponible dans tous les domaines contrairement à celui de Chambers et al. (2014) qui utilise uniquement l’information disponible dans le domaine d’intérêt. Dans certaines situations, un biais non négligeable est possible pour l’estimateur de Sinha & Rao (2009), alors que les estimateurs proposés exhibent un faible biais pour un choix approprié de la fonction d’influence et de la constante de robustesse. Les simulations Monte Carlo sont effectuées, et les comparaisons sont faites entre les estimateurs proposés et ceux de Sinha & Rao (2009) et de Chambers et al. (2014). Les résultats montrent que les estimateurs de Sinha & Rao (2009) et de Chambers et al. (2014) peuvent avoir un biais important, alors que les estimateurs proposés ont une meilleure performance en termes de biais et d’erreur quadratique moyenne. En outre, nous proposons une nouvelle procédure bootstrap pour l’estimation de l’erreur quadratique moyenne des estimateurs robustes des petits domaines. Contrairement aux procédures existantes, nous montrons formellement la validité asymptotique de la méthode bootstrap proposée. Par ailleurs, la méthode proposée est semi-paramétrique, c’est-à-dire, elle n’est pas assujettie à une hypothèse sur les distributions des erreurs ou des effets aléatoires. Ainsi, elle est particulièrement attrayante et plus largement applicable. Nous examinons les performances de notre procédure bootstrap avec les simulations Monte Carlo. Les résultats montrent que notre procédure performe bien et surtout performe mieux que tous les compétiteurs étudiés. Une application de la méthode proposée est illustrée en analysant les données réelles contenant des valeurs aberrantes de Battese, Harter & Fuller (1988). S’agissant de l’imputation en présence de non-réponse partielle, certaines formes d’imputation simple ont été étudiées. L’imputation par la régression déterministe entre les classes, qui inclut l’imputation par le ratio et l’imputation par la moyenne sont souvent utilisées dans les enquêtes. Ces méthodes d’imputation peuvent conduire à des estimateurs imputés biaisés si le modèle d’imputation ou le modèle de non-réponse n’est pas correctement spécifié. Des estimateurs doublement robustes ont été développés dans les années récentes. Ces estimateurs sont sans biais si l’un au moins des modèles d’imputation ou de non-réponse est bien spécifié. Cependant, en présence des valeurs aberrantes, les estimateurs imputés doublement robustes peuvent être très instables. En utilisant le concept de biais conditionnel, nous proposons une version robuste aux valeurs aberrantes de l’estimateur doublement robuste. Les résultats des études par simulations montrent que l’estimateur proposé performe bien pour un choix approprié de la constante de robustesse.
Inference for nonparametric high-frequency estimators with an application to time variation in betas
Resumo:
We consider the problem of conducting inference on nonparametric high-frequency estimators without knowing their asymptotic variances. We prove that a multivariate subsampling method achieves this goal under general conditions that were not previously available in the literature. We suggest a procedure for a data-driven choice of the bandwidth parameters. Our simulation study indicates that the subsampling method is much more robust than the plug-in method based on the asymptotic expression for the variance. Importantly, the subsampling method reliably estimates the variability of the Two Scale estimator even when its parameters are chosen to minimize the finite sample Mean Squared Error; in contrast, the plugin estimator substantially underestimates the sampling uncertainty. By construction, the subsampling method delivers estimates of the variance-covariance matrices that are always positive semi-definite. We use the subsampling method to study the dynamics of financial betas of six stocks on the NYSE. We document significant variation in betas within year 2006, and find that tick data captures more variation in betas than the data sampled at moderate frequencies such as every five or twenty minutes. To capture this variation we estimate a simple dynamic model for betas. The variance estimation is also important for the correction of the errors-in-variables bias in such models. We find that the bias corrections are substantial, and that betas are more persistent than the naive estimators would lead one to believe.