999 resultados para Statistique lexicale
Portrait des difficultés des élèves du secondaire relativement à l’orthographe des formes homophones
Resumo:
Cette recherche descriptive vise à établir un portrait des principales difficultés rencontrées par les élèves du secondaire relativement à l’orthographe des homophones et cela à travers différents angles d’analyse. Nous avons d’abord fait ressortir l’importance des difficultés orthographiques chez les élèves du secondaire québécois et mis en relief la proportion de ces erreurs attribuée à l’orthographe des homophones. À partir des données recueillies par le groupe de recherche Projet grammaire-écriture qui s’est donné comme objectif, dans un premier temps, de recueillir de nombreuses données à travers deux instruments de collecte (une dictée et une production écrite), nous avons tout d’abord relevé les erreurs d’homophonie commises le plus fréquemment par les élèves pour ensuite analyser chacune des formes homophones problématiques en fonction de critères variés tels que leur fréquence lexicale dans la langue française, leur appartenance à une catégorie grammaticale particulière ou encore la structure syntaxique qui les sous-tend. Les erreurs les plus importantes ont fait l’objet d’une observation plus poussée : nous avons établi le pourcentage de graphies correctes versus erronées dans tous les textes des élèves. Finalement, nous avons aussi comparé nos résultats à ceux obtenus par McNicoll et Roy (1984) auprès d’une population de niveau primaire. Les résultats révélés par notre analyse montrent que ce sont principalement les finales verbales en /E/ qui posent problème aux élèves du secondaire, suivies par les formes homophones s’est/c’est/ces/ses et se/ce.
Resumo:
Ce mémoire a pour but de déterminer des nouvelles méthodes de détection de rupture et/ou de tendance. Après une brève introduction théorique sur les splines, plusieurs méthodes de détection de rupture existant déjà dans la littérature seront présentées. Puis, de nouvelles méthodes de détection de rupture qui utilisent les splines et la statistique bayésienne seront présentées. De plus, afin de bien comprendre d’où provient la méthode utilisant la statistique bayésienne, une introduction sur la théorie bayésienne sera présentée. À l’aide de simulations, nous effectuerons une comparaison de la puissance de toutes ces méthodes. Toujours en utilisant des simulations, une analyse plus en profondeur de la nouvelle méthode la plus efficace sera effectuée. Ensuite, celle-ci sera appliquée sur des données réelles. Une brève conclusion fera une récapitulation de ce mémoire.
Resumo:
La traduction automatique statistique est un domaine très en demande et où les machines sont encore loin de produire des résultats de qualité humaine. La principale méthode utilisée est une traduction linéaire segment par segment d'une phrase, ce qui empêche de changer des parties de la phrase déjà traduites. La recherche pour ce mémoire se base sur l'approche utilisée dans Langlais, Patry et Gotti 2007, qui tente de corriger une traduction complétée en modifiant des segments suivant une fonction à optimiser. Dans un premier temps, l'exploration de nouveaux traits comme un modèle de langue inverse et un modèle de collocation amène une nouvelle dimension à la fonction à optimiser. Dans un second temps, l'utilisation de différentes métaheuristiques, comme les algorithmes gloutons et gloutons randomisés permet l'exploration plus en profondeur de l'espace de recherche et permet une plus grande amélioration de la fonction objectif.
Resumo:
La plupart des modèles en statistique classique repose sur une hypothèse sur la distribution des données ou sur une distribution sous-jacente aux données. La validité de cette hypothèse permet de faire de l’inférence, de construire des intervalles de confiance ou encore de tester la fiabilité du modèle. La problématique des tests d’ajustement vise à s’assurer de la conformité ou de la cohérence de l’hypothèse avec les données disponibles. Dans la présente thèse, nous proposons des tests d’ajustement à la loi normale dans le cadre des séries chronologiques univariées et vectorielles. Nous nous sommes limités à une classe de séries chronologiques linéaires, à savoir les modèles autorégressifs à moyenne mobile (ARMA ou VARMA dans le cas vectoriel). Dans un premier temps, au cas univarié, nous proposons une généralisation du travail de Ducharme et Lafaye de Micheaux (2004) dans le cas où la moyenne est inconnue et estimée. Nous avons estimé les paramètres par une méthode rarement utilisée dans la littérature et pourtant asymptotiquement efficace. En effet, nous avons rigoureusement montré que l’estimateur proposé par Brockwell et Davis (1991, section 10.8) converge presque sûrement vers la vraie valeur inconnue du paramètre. De plus, nous fournissons une preuve rigoureuse de l’inversibilité de la matrice des variances et des covariances de la statistique de test à partir de certaines propriétés d’algèbre linéaire. Le résultat s’applique aussi au cas où la moyenne est supposée connue et égale à zéro. Enfin, nous proposons une méthode de sélection de la dimension de la famille d’alternatives de type AIC, et nous étudions les propriétés asymptotiques de cette méthode. L’outil proposé ici est basé sur une famille spécifique de polynômes orthogonaux, à savoir les polynômes de Legendre. Dans un second temps, dans le cas vectoriel, nous proposons un test d’ajustement pour les modèles autorégressifs à moyenne mobile avec une paramétrisation structurée. La paramétrisation structurée permet de réduire le nombre élevé de paramètres dans ces modèles ou encore de tenir compte de certaines contraintes particulières. Ce projet inclut le cas standard d’absence de paramétrisation. Le test que nous proposons s’applique à une famille quelconque de fonctions orthogonales. Nous illustrons cela dans le cas particulier des polynômes de Legendre et d’Hermite. Dans le cas particulier des polynômes d’Hermite, nous montrons que le test obtenu est invariant aux transformations affines et qu’il est en fait une généralisation de nombreux tests existants dans la littérature. Ce projet peut être vu comme une généralisation du premier dans trois directions, notamment le passage de l’univarié au multivarié ; le choix d’une famille quelconque de fonctions orthogonales ; et enfin la possibilité de spécifier des relations ou des contraintes dans la formulation VARMA. Nous avons procédé dans chacun des projets à une étude de simulation afin d’évaluer le niveau et la puissance des tests proposés ainsi que de les comparer aux tests existants. De plus des applications aux données réelles sont fournies. Nous avons appliqué les tests à la prévision de la température moyenne annuelle du globe terrestre (univarié), ainsi qu’aux données relatives au marché du travail canadien (bivarié). Ces travaux ont été exposés à plusieurs congrès (voir par exemple Tagne, Duchesne et Lafaye de Micheaux (2013a, 2013b, 2014) pour plus de détails). Un article basé sur le premier projet est également soumis dans une revue avec comité de lecture (Voir Duchesne, Lafaye de Micheaux et Tagne (2016)).
Resumo:
Ce mémoire est un travail d'analyse du sous-titrage du film de Xavier Dolan "Les Amours Imaginaires". Ce sous-titrage a été réalisé par CMC Video afin de traduire le scénario original du film –qui est en français québécois– en français standard pour la distribution du film en France. Dans la partie introductive du mémoire nous décrivons les caractéristiques de la variété de français parlée au Québec et nous introduisons le film et le cinéaste. Ensuite la partie centrale est une analyse lexicale, morphologique et syntaxique du sous-titrage que nous avons effectuée à l'aide de différents exemples tirés de la transcription parallèle du scénario et des sous-titres correspondants. Nous considérons ce mémoire comme un point de départ du long parcours d'un recherche qui viserait à donner des justifications à la raison pour laquelle les films et les émissions télévisées québécoises sont presque systématiquement doublées ou sous-titrées en France.
Portrait des difficultés des élèves du secondaire relativement à l’orthographe des formes homophones
Resumo:
Cette recherche descriptive vise à établir un portrait des principales difficultés rencontrées par les élèves du secondaire relativement à l’orthographe des homophones et cela à travers différents angles d’analyse. Nous avons d’abord fait ressortir l’importance des difficultés orthographiques chez les élèves du secondaire québécois et mis en relief la proportion de ces erreurs attribuée à l’orthographe des homophones. À partir des données recueillies par le groupe de recherche Projet grammaire-écriture qui s’est donné comme objectif, dans un premier temps, de recueillir de nombreuses données à travers deux instruments de collecte (une dictée et une production écrite), nous avons tout d’abord relevé les erreurs d’homophonie commises le plus fréquemment par les élèves pour ensuite analyser chacune des formes homophones problématiques en fonction de critères variés tels que leur fréquence lexicale dans la langue française, leur appartenance à une catégorie grammaticale particulière ou encore la structure syntaxique qui les sous-tend. Les erreurs les plus importantes ont fait l’objet d’une observation plus poussée : nous avons établi le pourcentage de graphies correctes versus erronées dans tous les textes des élèves. Finalement, nous avons aussi comparé nos résultats à ceux obtenus par McNicoll et Roy (1984) auprès d’une population de niveau primaire. Les résultats révélés par notre analyse montrent que ce sont principalement les finales verbales en /E/ qui posent problème aux élèves du secondaire, suivies par les formes homophones s’est/c’est/ces/ses et se/ce.
Resumo:
Ce mémoire a pour but de déterminer des nouvelles méthodes de détection de rupture et/ou de tendance. Après une brève introduction théorique sur les splines, plusieurs méthodes de détection de rupture existant déjà dans la littérature seront présentées. Puis, de nouvelles méthodes de détection de rupture qui utilisent les splines et la statistique bayésienne seront présentées. De plus, afin de bien comprendre d’où provient la méthode utilisant la statistique bayésienne, une introduction sur la théorie bayésienne sera présentée. À l’aide de simulations, nous effectuerons une comparaison de la puissance de toutes ces méthodes. Toujours en utilisant des simulations, une analyse plus en profondeur de la nouvelle méthode la plus efficace sera effectuée. Ensuite, celle-ci sera appliquée sur des données réelles. Une brève conclusion fera une récapitulation de ce mémoire.
Resumo:
La traduction automatique statistique est un domaine très en demande et où les machines sont encore loin de produire des résultats de qualité humaine. La principale méthode utilisée est une traduction linéaire segment par segment d'une phrase, ce qui empêche de changer des parties de la phrase déjà traduites. La recherche pour ce mémoire se base sur l'approche utilisée dans Langlais, Patry et Gotti 2007, qui tente de corriger une traduction complétée en modifiant des segments suivant une fonction à optimiser. Dans un premier temps, l'exploration de nouveaux traits comme un modèle de langue inverse et un modèle de collocation amène une nouvelle dimension à la fonction à optimiser. Dans un second temps, l'utilisation de différentes métaheuristiques, comme les algorithmes gloutons et gloutons randomisés permet l'exploration plus en profondeur de l'espace de recherche et permet une plus grande amélioration de la fonction objectif.
Resumo:
La plupart des modèles en statistique classique repose sur une hypothèse sur la distribution des données ou sur une distribution sous-jacente aux données. La validité de cette hypothèse permet de faire de l’inférence, de construire des intervalles de confiance ou encore de tester la fiabilité du modèle. La problématique des tests d’ajustement vise à s’assurer de la conformité ou de la cohérence de l’hypothèse avec les données disponibles. Dans la présente thèse, nous proposons des tests d’ajustement à la loi normale dans le cadre des séries chronologiques univariées et vectorielles. Nous nous sommes limités à une classe de séries chronologiques linéaires, à savoir les modèles autorégressifs à moyenne mobile (ARMA ou VARMA dans le cas vectoriel). Dans un premier temps, au cas univarié, nous proposons une généralisation du travail de Ducharme et Lafaye de Micheaux (2004) dans le cas où la moyenne est inconnue et estimée. Nous avons estimé les paramètres par une méthode rarement utilisée dans la littérature et pourtant asymptotiquement efficace. En effet, nous avons rigoureusement montré que l’estimateur proposé par Brockwell et Davis (1991, section 10.8) converge presque sûrement vers la vraie valeur inconnue du paramètre. De plus, nous fournissons une preuve rigoureuse de l’inversibilité de la matrice des variances et des covariances de la statistique de test à partir de certaines propriétés d’algèbre linéaire. Le résultat s’applique aussi au cas où la moyenne est supposée connue et égale à zéro. Enfin, nous proposons une méthode de sélection de la dimension de la famille d’alternatives de type AIC, et nous étudions les propriétés asymptotiques de cette méthode. L’outil proposé ici est basé sur une famille spécifique de polynômes orthogonaux, à savoir les polynômes de Legendre. Dans un second temps, dans le cas vectoriel, nous proposons un test d’ajustement pour les modèles autorégressifs à moyenne mobile avec une paramétrisation structurée. La paramétrisation structurée permet de réduire le nombre élevé de paramètres dans ces modèles ou encore de tenir compte de certaines contraintes particulières. Ce projet inclut le cas standard d’absence de paramétrisation. Le test que nous proposons s’applique à une famille quelconque de fonctions orthogonales. Nous illustrons cela dans le cas particulier des polynômes de Legendre et d’Hermite. Dans le cas particulier des polynômes d’Hermite, nous montrons que le test obtenu est invariant aux transformations affines et qu’il est en fait une généralisation de nombreux tests existants dans la littérature. Ce projet peut être vu comme une généralisation du premier dans trois directions, notamment le passage de l’univarié au multivarié ; le choix d’une famille quelconque de fonctions orthogonales ; et enfin la possibilité de spécifier des relations ou des contraintes dans la formulation VARMA. Nous avons procédé dans chacun des projets à une étude de simulation afin d’évaluer le niveau et la puissance des tests proposés ainsi que de les comparer aux tests existants. De plus des applications aux données réelles sont fournies. Nous avons appliqué les tests à la prévision de la température moyenne annuelle du globe terrestre (univarié), ainsi qu’aux données relatives au marché du travail canadien (bivarié). Ces travaux ont été exposés à plusieurs congrès (voir par exemple Tagne, Duchesne et Lafaye de Micheaux (2013a, 2013b, 2014) pour plus de détails). Un article basé sur le premier projet est également soumis dans une revue avec comité de lecture (Voir Duchesne, Lafaye de Micheaux et Tagne (2016)).
Resumo:
Vol. 31 bound with its Proceedings, v. 3 (310.6 In745 v.3).
Resumo:
Mode of access: Internet.
Resumo:
Mode of access: Internet.
Resumo:
At head of title 1920-1922; Résumé statistique.
Resumo:
At head of title, 1842- : Statistique de la Belgique; 1923-1931, Union Economique Belgo-Luxembourgeoise.
Resumo:
Appendices: I. Actes législatifs. II. Statistique financière. III. Tableau des promotions. IV. Rapports sur les envoirs.