9 resultados para Écriture automatique
em Université Laval Mémoires et thèses électroniques
Resumo:
La mise en registre 3D (opération parfois appelée alignement) est un processus de transformation d’ensembles de données 3D dans un même système de coordonnées afin d’en aligner les éléments communs. Deux ensembles de données alignés ensemble peuvent être les scans partiels des deux vues différentes d’un même objet. Ils peuvent aussi être deux modèles complets, générés à des moments différents, d’un même objet ou de deux objets distincts. En fonction des ensembles de données à traiter, les méthodes d’alignement sont classées en mise en registre rigide ou non-rigide. Dans le cas de la mise en registre rigide, les données sont généralement acquises à partir d’objets rigides. Le processus de mise en registre peut être accompli en trouvant une seule transformation rigide globale (rotation, translation) pour aligner l’ensemble de données source avec l’ensemble de données cible. Toutefois, dans le cas non-rigide, où les données sont acquises à partir d’objets déformables, le processus de mise en registre est plus difficile parce qu’il est important de trouver à la fois une transformation globale et des déformations locales. Dans cette thèse, trois méthodes sont proposées pour résoudre le problème de mise en registre non-rigide entre deux ensembles de données (représentées par des maillages triangulaires) acquises à partir d’objets déformables. La première méthode permet de mettre en registre deux surfaces se chevauchant partiellement. La méthode surmonte les limitations des méthodes antérieures pour trouver une grande déformation globale entre deux surfaces. Cependant, cette méthode est limitée aux petites déformations locales sur la surface afin de valider le descripteur utilisé. La seconde méthode est s’appuie sur le cadre de la première et est appliquée à des données pour lesquelles la déformation entre les deux surfaces est composée à la fois d’une grande déformation globale et de petites déformations locales. La troisième méthode, qui se base sur les deux autres méthodes, est proposée pour la mise en registre d’ensembles de données qui sont plus complexes. Bien que la qualité que elle fournit n’est pas aussi bonne que la seconde méthode, son temps de calcul est accéléré d’environ quatre fois parce que le nombre de paramètres optimisés est réduit de moitié. L’efficacité des trois méthodes repose sur des stratégies via lesquelles les correspondances sont déterminées correctement et le modèle de déformation est exploité judicieusement. Ces méthodes sont mises en oeuvre et comparées avec d’autres méthodes sur diverses données afin d’évaluer leur robustesse pour résoudre le problème de mise en registre non-rigide. Les méthodes proposées sont des solutions prometteuses qui peuvent être appliquées dans des applications telles que la mise en registre non-rigide de vues multiples, la reconstruction 3D dynamique, l’animation 3D ou la recherche de modèles 3D dans des banques de données.
Resumo:
L’augmentation de la croissance des réseaux, des blogs et des utilisateurs des sites d’examen sociaux font d’Internet une énorme source de données, en particulier sur la façon dont les gens pensent, sentent et agissent envers différentes questions. Ces jours-ci, les opinions des gens jouent un rôle important dans la politique, l’industrie, l’éducation, etc. Alors, les gouvernements, les grandes et petites industries, les instituts universitaires, les entreprises et les individus cherchent à étudier des techniques automatiques fin d’extraire les informations dont ils ont besoin dans les larges volumes de données. L’analyse des sentiments est une véritable réponse à ce besoin. Elle est une application de traitement du langage naturel et linguistique informatique qui se compose de techniques de pointe telles que l’apprentissage machine et les modèles de langue pour capturer les évaluations positives, négatives ou neutre, avec ou sans leur force, dans des texte brut. Dans ce mémoire, nous étudions une approche basée sur les cas pour l’analyse des sentiments au niveau des documents. Notre approche basée sur les cas génère un classificateur binaire qui utilise un ensemble de documents classifies, et cinq lexiques de sentiments différents pour extraire la polarité sur les scores correspondants aux commentaires. Puisque l’analyse des sentiments est en soi une tâche dépendante du domaine qui rend le travail difficile et coûteux, nous appliquons une approche «cross domain» en basant notre classificateur sur les six différents domaines au lieu de le limiter à un seul domaine. Pour améliorer la précision de la classification, nous ajoutons la détection de la négation comme une partie de notre algorithme. En outre, pour améliorer la performance de notre approche, quelques modifications innovantes sont appliquées. Il est intéressant de mentionner que notre approche ouvre la voie à nouveaux développements en ajoutant plus de lexiques de sentiment et ensembles de données à l’avenir.
Resumo:
L’un des problèmes importants en apprentissage automatique est de déterminer la complexité du modèle à apprendre. Une trop grande complexité mène au surapprentissage, ce qui correspond à trouver des structures qui n’existent pas réellement dans les données, tandis qu’une trop faible complexité mène au sous-apprentissage, c’est-à-dire que l’expressivité du modèle est insuffisante pour capturer l’ensemble des structures présentes dans les données. Pour certains modèles probabilistes, la complexité du modèle se traduit par l’introduction d’une ou plusieurs variables cachées dont le rôle est d’expliquer le processus génératif des données. Il existe diverses approches permettant d’identifier le nombre approprié de variables cachées d’un modèle. Cette thèse s’intéresse aux méthodes Bayésiennes nonparamétriques permettant de déterminer le nombre de variables cachées à utiliser ainsi que leur dimensionnalité. La popularisation des statistiques Bayésiennes nonparamétriques au sein de la communauté de l’apprentissage automatique est assez récente. Leur principal attrait vient du fait qu’elles offrent des modèles hautement flexibles et dont la complexité s’ajuste proportionnellement à la quantité de données disponibles. Au cours des dernières années, la recherche sur les méthodes d’apprentissage Bayésiennes nonparamétriques a porté sur trois aspects principaux : la construction de nouveaux modèles, le développement d’algorithmes d’inférence et les applications. Cette thèse présente nos contributions à ces trois sujets de recherches dans le contexte d’apprentissage de modèles à variables cachées. Dans un premier temps, nous introduisons le Pitman-Yor process mixture of Gaussians, un modèle permettant l’apprentissage de mélanges infinis de Gaussiennes. Nous présentons aussi un algorithme d’inférence permettant de découvrir les composantes cachées du modèle que nous évaluons sur deux applications concrètes de robotique. Nos résultats démontrent que l’approche proposée surpasse en performance et en flexibilité les approches classiques d’apprentissage. Dans un deuxième temps, nous proposons l’extended cascading Indian buffet process, un modèle servant de distribution de probabilité a priori sur l’espace des graphes dirigés acycliques. Dans le contexte de réseaux Bayésien, ce prior permet d’identifier à la fois la présence de variables cachées et la structure du réseau parmi celles-ci. Un algorithme d’inférence Monte Carlo par chaîne de Markov est utilisé pour l’évaluation sur des problèmes d’identification de structures et d’estimation de densités. Dans un dernier temps, nous proposons le Indian chefs process, un modèle plus général que l’extended cascading Indian buffet process servant à l’apprentissage de graphes et d’ordres. L’avantage du nouveau modèle est qu’il admet les connections entres les variables observables et qu’il prend en compte l’ordre des variables. Nous présentons un algorithme d’inférence Monte Carlo par chaîne de Markov avec saut réversible permettant l’apprentissage conjoint de graphes et d’ordres. L’évaluation est faite sur des problèmes d’estimations de densité et de test d’indépendance. Ce modèle est le premier modèle Bayésien nonparamétrique permettant d’apprendre des réseaux Bayésiens disposant d’une structure complètement arbitraire.
Resumo:
Pour rester compétitives, les entreprises forestières cherchent à contrôler leurs coûts d’approvisionnement. Les abatteuses-façonneuses sont pourvues d’ordinateurs embarqués qui permettent le contrôle et l’automatisation de certaines fonctions. Or, ces technologies ne sont pas couramment utilisées et sont dans le meilleur des cas sous-utilisées. Tandis que l’industrie manifeste un intérêt grandissant pour l’utilisation de ces ordinateurs, peu de travaux de recherche ont porté sur l’apport en productivité et en conformité aux spécifications de façonnage découlant de l’usage de ces systèmes. L’objectif de l’étude était de mesurer les impacts des trois degrés d’automatisation (manuel, semi-automatique et automatique) sur la productivité (m3/hmp) et le taux de conformité des longueurs et des diamètre d’écimage des billes façonnées (%). La collecte de données s’est déroulée dans les secteurs de récolte de Produits forestiers résolu au nord du Lac St-Jean entre les mois de janvier et d’août 2015. Un dispositif en blocs complets a été mis en place pour chacun des cinq opérateurs ayant participé à l’étude. Un seuil de 5 % a été employé pour la réalisation de l’analyse des variances, après la réalisation de contrastes. Un seul cas a présenté un écart significatif de productivité attribuable au changement du degré d’automatisation employé, tandis qu’aucune différence significative n’a été détectée pour la conformité des diamètres d’écimage; des tendances ont toutefois été constatées. Les conformités de longueur obtenues par deux opérateurs ont présenté des écarts significatifs. Ceux-ci opérant sur deux équipements distincts, cela laisse entrevoir l’impact que peut aussi avoir l’opérateur sur le taux de conformité des longueurs.
Resumo:
Les logiciels actuels sont de grandes tailles, complexes et critiques. Le besoin de qualité exige beaucoup de tests, ce qui consomme de grandes quantités de ressources durant le développement et la maintenance de ces systèmes. Différentes techniques permettent de réduire les coûts liés aux activités de test. Notre travail s’inscrit dans ce cadre, est a pour objectif d’orienter l’effort de test vers les composants logiciels les plus à risque à l’aide de certains attributs du code source. À travers plusieurs démarches empiriques menées sur de grands logiciels open source, développés avec la technologie orientée objet, nous avons identifié et étudié les métriques qui caractérisent l’effort de test unitaire sous certains angles. Nous avons aussi étudié les liens entre cet effort de test et les métriques des classes logicielles en incluant les indicateurs de qualité. Les indicateurs de qualité sont une métrique synthétique, que nous avons introduite dans nos travaux antérieurs, qui capture le flux de contrôle ainsi que différentes caractéristiques du logiciel. Nous avons exploré plusieurs techniques permettant d’orienter l’effort de test vers des composants à risque à partir de ces attributs de code source, en utilisant des algorithmes d’apprentissage automatique. En regroupant les métriques logicielles en familles, nous avons proposé une approche basée sur l’analyse du risque des classes logicielles. Les résultats que nous avons obtenus montrent les liens entre l’effort de test unitaire et les attributs de code source incluant les indicateurs de qualité, et suggèrent la possibilité d’orienter l’effort de test à l’aide des métriques.
Resumo:
L’imagerie hyperspectrale (HSI) fournit de l’information spatiale et spectrale concernant l’émissivité de la surface des matériaux, ce qui peut être utilisée pour l’identification des minéraux. Pour cela, un matériel de référence ou endmember, qui en minéralogie est la forme la plus pure d’un minéral, est nécessaire. L’objectif principal de ce projet est l’identification des minéraux par imagerie hyperspectrale. Les informations de l’imagerie hyperspectrale ont été enregistrées à partir de l’énergie réfléchie de la surface du minéral. L’énergie solaire est la source d’énergie dans l’imagerie hyperspectrale de télédétection, alors qu’un élément chauffant est la source d’énergie utilisée dans les expériences de laboratoire. Dans la première étape de ce travail, les signatures spectrales des minéraux purs sont obtenues avec la caméra hyperspectrale, qui mesure le rayonnement réfléchi par la surface des minéraux. Dans ce projet, deux séries d’expériences ont été menées dans différentes plages de longueurs d’onde (0,4 à 1 µm et 7,7 à 11,8 µm). Dans la deuxième partie de ce projet, les signatures spectrales obtenues des échantillons individuels sont comparées avec des signatures spectrales de la bibliothèque hyperspectrale de l’ASTER. Dans la troisième partie, trois méthodes différentes de classification hyperspectrale sont considérées pour la classification. Spectral Angle Mapper (SAM), Spectral Information Divergence (SID), et Intercorrélation normalisée (NCC). Enfin, un système d’apprentissage automatique, Extreme Learning Machine (ELM), est utilisé pour identifier les minéraux. Deux types d’échantillons ont été utilisés dans ce projet. Le système d’ELM est divisé en deux parties, la phase d’entraînement et la phase de test du système. Dans la phase d’entraînement, la signature d’un seul échantillon minéral est entrée dans le système, et dans la phase du test, les signatures spectrales des différents minéraux, qui sont entrées dans la phase d’entraînement, sont comparées par rapport à des échantillons de minéraux mixtes afin de les identifier.
Resumo:
Cette thèse a pour point de départ le désir d’éduquer de Spinoza et pour point d’arrivée sa conception originale d’une éducation au perfectionnement de la raison qui s’accomplit par la compréhension de son conatus, le désir ou l’idée de l’affection du corps qui le rattache à sa cause. Cet ancrage de l’éducation dans la compréhension de notre essence désirante permet notamment de résoudre le paradoxe d’une vocation d’« éducateur » pour Spinoza, sachant que son but est de développer l’autonomie rationnelle (la liberté), mais que les moyens à sa disposition pour y parvenir relèvent de l’extériorité (parole, écriture). L’hypothèse que nous avons défendue est que Spinoza a fondé sa conception de l’éducation dans l’Éthique sur une idée originale de l’éternité du fait qu’elle était corrélée avec la jouissance infinie de l’exister et pouvait être découverte en soi-même par tout être humain. Or, pour communiquer cette idée, Spinoza devait repenser l’éducation et régler la difficulté qu’ont les hommes à concevoir leur idée de l’éternité. Ce qu’il fit en l’identifiant au conatus, c’est-à-dire, en appliquant cette idée de l’éternité à la fois à l’esprit et au corps. Selon nous, cette découverte fut aussi la cause de l’inachèvement du TRE, ce qui nous a conduit à réfuter l’hypothèse de Deleuze. En effet, elle a donné lieu à des modifications importantes dans sa conception de la nature de l’esprit, du désir et des affects, de la puissance, de l’activité ou de la passivité de l’esprit, de sa façon de connaître et de guérir. En éduquant, Spinoza a voulu donner aux hommes la connaissance nécessaire pour garder leur esprit actif et parvenir au troisième genre de connaissance. Ce qui, de l’avis de Rabenort, Misrahi, Ravven et de nous-mêmes, est un grand apport à l’éducation : Spinoza peut servir de fondement aux éducateurs contemporains par sa perspective holiste (moniste), sa reconnaissance de l’importance du corps, des affects et de la connaissance de soi, et son insistance sur l’autonomisation, qu’il oppose dans le TTP à la transmission d’une autorité par l’imagination. La philosophie de Spinoza a l’avantage d’avoir compris la nature de l’esprit, sa façon de connaître, les conditions nécessaires pour qu’il puisse former des idées adéquates et se concevoir dans une perspective de perfectionnement intellectuel. Notre tableau, en annexe, met en lumière les modifications des concepts relatifs à l’éducation du désir dans l’histoire de la civilisation occidentale.
Resumo:
Afin de comprendre et d’expliquer le malaise actuel vis-à-vis de l’enseignement de la poésie au secondaire, la thèse remonte à la publication du Rapport Parent (1963-1966), document fondateur de l’école québécoise moderne, et à la création du ministère de l’Éducation du Québec (1964) pour suivre, à travers les documents, l’histoire de l’enseignement de la poésie au secondaire au cours des 50 dernières années. Cette période se divise en trois grandes étapes : une révolution en éducation marquée par la publication du Rapport Parent et de deux programmes; le retour aux sources amorcé par L’école québécoise qui verra deux programmes et deux séries de manuels scolaires; la réforme articulée autour de L’école, tout un programme dont les programmes et les manuels sont actuellement en vigueur. C’est à travers ces trois types de documents (documents d’orientation, programmes d’enseignement et manuels scolaires) que je retracerai le parcours de l’enseignement de la poésie à l’école secondaire avec comme toile de fond les grands courants qui ont marqué l’éducation et l’enseignement du français au Québec depuis les années 1960. L’enseignement de la poésie ne peut se détacher du contexte dans lequel il se fait. Ce contexte comprend diverses facettes qui lui sont internes et d’autres qui lui sont externes. Les facettes externes dans ce travail sont la vision de la culture et de l’enseignement ainsi que la place faite à la littérature et à la poésie. L’idée de culture a beaucoup évolué depuis 50 ans. Le Rapport Parent abandonne la vision traditionnelle de la culture au profit d’une vision plus large qui englobe l’ensemble des activités humaines. Nuancée et actualisée, cette vision large de la culture restera la référence. La littérature qui détenait une place importante dans la culture traditionnelle perd ainsi de l’influence. Sa place et son importance, malgré les discours qui la valorisent, vont diminuer jusqu’à ne devenir qu’un adjuvant à l’enseignement de la technique de la langue et des types de textes. L’évolution de l’enseignement transformera la classe traditionnelle bien ordonnée sous l’autorité du maitre en lieu qui doit permettre à l’élève de construire ses connaissances. Les éléments reliés directement à l’enseignement de la poésie comprennent les programmes, les manuels, l’enseignement de la lecture et de l’écriture et le travail du professeur et de l’élève. Les programmes subiront d’importantes modifications. Le programme-cadre de 1969 marque la fin des programmes à visées littéraires. Le seul vrai but des programmes depuis, c’est de parfaire l’apprentissage technique de la langue. Le programme de 1980 marque l’abandon des genres littéraires comme base de l’enseignement des textes au profit de la notion de discours. Comme le discours poétique n’y apparait pas, la poésie peine à se trouver une place. Les programmes de 1995 et de la réforme optent pour les types de textes plutôt que les discours, mais la poésie n’entre pas dans cette typologie. La place de la poésie en lecture et en écriture est variable selon les époques. Sur un même pied que les autres types de textes dans le programme-cadre, elle apparait seulement en lecture dans le programme de 1980. Les programmes subséquents lui redonneront une place en écriture. Depuis 1980, elle reste un genre marginal qui souvent ne sert qu’à illustrer des notions utiles aux discours ou types de textes utilisés par le programme. La relation professeur/élève s’est considérablement modifiée au cours de cette période. De maitre, le professeur est devenu guide et médiateur. L’élève évolue en sens inverse : de passif récepteur de la connaissance, il devient responsable de construire ses connaissances. Le professeur, compte tenu du peu de place qu’occupe la poésie dans les programmes et du fait qu’elle ne fait pas partie de la typologie des textes adoptée par ceux-ci, ne peut compter que sur ses connaissances pour en assurer un enseignement valable. Les manuels accompagnent les programmes sauf pour le programme-cadre. Depuis 1980, les manuels de français ont une visée autoéducative parce qu’ils s’adressent directement à l’étudiant. Ils se présentent comme des préparations de cours que l’élève n’a qu’à suivre pour acquérir les connaissances au programme. La place de la poésie en lecture et en écriture y est variable selon les époques et les manuels.
Resumo:
Cette recherche vise à décrire les liens entre les représentations des enfants dans deux systèmes d’écriture: alphabétique et consonantique. Cette étude transversale est déployée auprès de 60 enfants libanais âgés entre 4 et 6 ans. Les écritures des enfants autour de huit mots sont récoltées en français et en arabe. Les résultats ne montrent aucune différence significative entre les deux systèmes d’écriture aux âges de 4 et 5 ans. C’est à l’âge de 6 ans que des différences significatives se présentent entre les deux langues. Les résultats montrent une différence significative des écritures en fonction de l’âge. Ces résultats soutiennent l’hypothèse développementale d’une structuration unique inductive quant aux codes alphabétique français et consonantique arabe. Cette structuration se distingue pour chacune des langues lors de l’entrée formelle dans l’écrit. Descripteurs: 1- émergence, 2- littératie, 3- écriture provisoire, 4- français, 5- arabe