427 resultados para Erreurs conceptuelles
Resumo:
On s’intéresse ici aux erreurs de modélisation liées à l’usage de modèles de flammelette sous-maille en combustion turbulente non prémélangée. Le but de cette thèse est de développer une stratégie d’estimation d’erreur a posteriori pour déterminer le meilleur modèle parmi une hiérarchie, à un coût numérique similaire à l’utilisation de ces mêmes modèles. Dans un premier temps, une stratégie faisant appel à un estimateur basé sur les résidus pondérés est développée et testée sur un système d’équations d’advection-diffusion-réaction. Dans un deuxième temps, on teste la méthodologie d’estimation d’erreur sur un autre système d’équations, où des effets d’extinction et de réallumage sont ajoutés. Lorsqu’il n’y a pas d’advection, une analyse asymptotique rigoureuse montre l’existence de plusieurs régimes de combustion déjà observés dans les simulations numériques. Nous obtenons une approximation des paramètres de réallumage et d’extinction avec la courbe en «S», un graphe de la température maximale de la flamme en fonction du nombre de Damköhler, composée de trois branches et d’une double courbure. En ajoutant des effets advectifs, on obtient également une courbe en «S» correspondant aux régimes de combustion déjà identifiés. Nous comparons les erreurs de modélisation liées aux approximations asymptotiques dans les deux régimes stables et établissons une nouvelle hiérarchie des modèles en fonction du régime de combustion. Ces erreurs sont comparées aux estimations données par la stratégie d’estimation d’erreur. Si un seul régime stable de combustion existe, l’estimateur d’erreur l’identifie correctement ; si plus d’un régime est possible, on obtient une fac˛on systématique de choisir un régime. Pour les régimes où plus d’un modèle est approprié, la hiérarchie prédite par l’estimateur est correcte.
Resumo:
Différentes études ont montré que le niveau des futurs enseignants, issus des écoles publiques, en français langue étrangère (FLE) en Égypte est assez faible. Ceux-ci font un grand nombre d’erreurs répétitives à l’oral. Quoique ce manque de précision langagière puisse être dû à plusieurs facteurs, il appert que la rétroaction soit une des variables contribuant à ce phénomène (comme le nombre d’étudiants en classe, la durée du cours, l’âge et la motivation des étudiants, les méthodes d’enseignement, etc.). La rétroaction corrective est généralement définie comme toute correction explicite ou implicite de la part de l’enseignant indiquant que la production de l’apprenant est erronée. Elle est considérée comme indispensable dans les classes de langues secondes (LS) (Shmidt, 1983, 2001 ; Long, 1991, 1996 ; Lightbown, 1998). Pour ces raisons, cette étude porte sur la rétroaction corrective et, plus spécifiquement, sur les croyances des enseignants et des apprenants quant à celle-ci, ainsi qu’à son utilisation dans les classes de FLE en Égypte. Les recherches antérieures indiquent que les croyances des enseignants quant à l’acte d’enseigner influencent leurs pratiques en classe, que les croyances des apprenants influencent leur motivation, leur niveau et leurs efforts déployés pour l’apprentissage de la langue, et qu’une divergence entre les croyances des professeurs et celles des apprenants peut entraîner des effets négatifs sur l’apprentissage de la langue cible, ce qui indique ainsi qu’il est de grande importance d’explorer les croyances. Ainsi, la présente étude vise à explorer les croyances des professeurs égyptiens et celles de leurs étudiants en ce qui a trait à la rétroaction corrective à l’oral, la différence entre ces croyances, et l’identification des pratiques réelles des professeurs afin de décrire à quel point celles-ci reflètent les croyances exprimées. Pour ce faire, un questionnaire a été administré à 175 étudiants et 25 professeurs appartenant à trois universités égyptiennes afin de déterminer leurs croyances déclarées. Des entrevues semi-dirigées et des observations directes ont été réalisées auprès de neuf des 25 professeurs participants pour mieux déterminer leurs croyances et leurs pratiques rétroactives. Les résultats obtenus ont révélé qu’il existe des divergences importantes entre les croyances des professeurs et celles des étudiants, d’un côté, et entre les croyances des professeurs et leur pratique, de l’autre côté. Par exemple, la plupart des étudiants ont déclaré leur opposition à l’utilisation de la reformulation alors que presque la moitié des professeurs ont indiqué être en faveur de cette même technique. Les professeurs ont indiqué que leur choix de techniques rétroactives dépend du type d’erreurs et qu’ils préfèrent inciter les apprenants à s’auto corriger. Cependant, ces mêmes professeurs ont utilisé la reformulation pour corriger la majorité des erreurs de leurs apprenants, quelle que soit leur nature. Nous parvenons ainsi à la conclusion que l’utilisation de la reformulation, qui fait l’objet d’une divergence au niveau des croyances, pourrait être à l’origine du manque de précision langagière rapporté par les chercheurs.
Resumo:
La transformation de modèles consiste à transformer un modèle source en un modèle cible conformément à des méta-modèles source et cible. Nous distinguons deux types de transformations. La première est exogène où les méta-modèles source et cible représentent des formalismes différents et où tous les éléments du modèle source sont transformés. Quand elle concerne un même formalisme, la transformation est endogène. Ce type de transformation nécessite généralement deux étapes : l’identification des éléments du modèle source à transformer, puis la transformation de ces éléments. Dans le cadre de cette thèse, nous proposons trois principales contributions liées à ces problèmes de transformation. La première contribution est l’automatisation des transformations des modèles. Nous proposons de considérer le problème de transformation comme un problème d'optimisation combinatoire où un modèle cible peut être automatiquement généré à partir d'un nombre réduit d'exemples de transformations. Cette première contribution peut être appliquée aux transformations exogènes ou endogènes (après la détection des éléments à transformer). La deuxième contribution est liée à la transformation endogène où les éléments à transformer du modèle source doivent être détectés. Nous proposons une approche pour la détection des défauts de conception comme étape préalable au refactoring. Cette approche est inspirée du principe de la détection des virus par le système immunitaire humain, appelée sélection négative. L’idée consiste à utiliser de bonnes pratiques d’implémentation pour détecter les parties du code à risque. La troisième contribution vise à tester un mécanisme de transformation en utilisant une fonction oracle pour détecter les erreurs. Nous avons adapté le mécanisme de sélection négative qui consiste à considérer comme une erreur toute déviation entre les traces de transformation à évaluer et une base d’exemples contenant des traces de transformation de bonne qualité. La fonction oracle calcule cette dissimilarité et les erreurs sont ordonnées selon ce score. Les différentes contributions ont été évaluées sur d’importants projets et les résultats obtenus montrent leurs efficacités.
Resumo:
Comment comprendre les dynamiques qui sous-tendent les changements des organisations? Le changement organisationnel fait partie de la réalité quotidienne des organisations et, comme en témoigne une vaste littérature, le sujet a été abordé à partir de diverses perspectives conceptuelles. Toutefois, plusieurs questions fondamentales demeurent quant à la façon dont le changement organisationnel est accompli (Tsoukas & Chia, 2002; Chia, 1999). Je suggère que la clé pour répondre à ces questions se trouve dans l’étude de la communication. Cependant, le rôle de la communication dans la production du changement reste peu exploré dans les conceptualisations actuelles sur le sujet. Ainsi, l’objectif principal de cette thèse est de décrire la façon dont le changement émerge dans la communication, en d’autres termes, comment il est accompli à partir des interactions. Dans cette recherche, je propose que la compréhension du changement passe par une vision de la communication comme un processus constant dans lequel les réalités sont créées, négociées et transformées de manière interactive. Cette conception est fondée sur a plurified view of interactions (Cooren, Fox, Robichaud & Talih, 2005; Cooren 2010) qui prend en considération la contribution d’êtres appartenant à diverses ontologies (e.g., ordinateurs, règlements, principes, émotions, règles, c.) dans l’action. En mobilisant cette vision de la communication, j’ai étudié les changements qui ont eu lieu à Koumbit — une organisation à but non lucratif basée à Montréal qui œuvre dans le domaine des technologies de l’information. L’observation, les entrevues ainsi que la révision de documents officiels ont été les techniques choisies pour cueillir les données. Ma recherche m’a permis de déterminer que le changement organisationnel est un processus progressif qui se matérialise d’interaction en interaction. C’est en composant et en recomposant des ensembles d’associations que se crée une différence dans l’état des choses. Si bien les interactions sont accomplies dans le ici et le maintenant, leur caractère hybride leur permet de rendre compte de ce que l’organisation a été et de ce qu’elle sera. Cette étude suggère que, d’un point de vue communicationnel, les mécanismes à partir desquels le changement organisationnel est accompli n sont pas aussi différents de ceux qui produisent les processus organisants (organizing).
Resumo:
L’objectif était d’évaluer l’influence de la mémoire mélodique sur le chant des personnes souffrant d’amusie congénitale. Onze « amusiques » et 11 contrôles appariés ont chanté une chanson familière sur les paroles originales ainsi que sur la syllabe /la/. Les participants ont d’abord chanté la mélodie de mémoire et ensuite, ils ont imité la mélodie après et à l’unisson avec un modèle enregistré préalablement. Les résultats ont illustré que les amusiques ont amélioré leur performance en chantant par imitation (soit après, soit à l’unisson avec le modèle). Ceux qui présentaient une difficulté plus importante de la mémoire ont profité davantage du modèle, particulièrement lorsqu’ils chantaient sur la syllabe /la/. Ces résultats suggèrent qu’une mémoire faible pourrait être une cause des difficultés en chant. De plus, cette étude illustre que le chant par imitation semble être une méthode à privilégier pour améliorer la performance chantée.
Resumo:
Cette thèse contribue à une théorie générale de la conception du projet. S’inscrivant dans une demande marquée par les enjeux du développement durable, l’objectif principal de cette recherche est la contribution d’un modèle théorique de la conception permettant de mieux situer l’utilisation des outils et des normes d’évaluation de la durabilité d’un projet. Les principes fondamentaux de ces instruments normatifs sont analysés selon quatre dimensions : ontologique, méthodologique, épistémologique et téléologique. Les indicateurs de certains effets contre-productifs reliés, en particulier, à la mise en compte de ces normes confirment la nécessité d’une théorie du jugement qualitatif. Notre hypothèse principale prend appui sur le cadre conceptuel offert par la notion de « principe de précaution » dont les premières formulations remontent du début des années 1970, et qui avaient précisément pour objectif de remédier aux défaillances des outils et méthodes d’évaluation scientifique traditionnelles. La thèse est divisée en cinq parties. Commençant par une revue historique des modèles classiques des théories de la conception (design thinking) elle se concentre sur l’évolution des modalités de prise en compte de la durabilité. Dans cette perspective, on constate que les théories de la « conception verte » (green design) datant du début des années 1960 ou encore, les théories de la « conception écologique » (ecological design) datant des années 1970 et 1980, ont finalement convergé avec les récentes théories de la «conception durable» (sustainable design) à partir du début des années 1990. Les différentes approches du « principe de précaution » sont ensuite examinées sous l’angle de la question de la durabilité du projet. Les standards d’évaluation des risques sont comparés aux approches utilisant le principe de précaution, révélant certaines limites lors de la conception d’un projet. Un premier modèle théorique de la conception intégrant les principales dimensions du principe de précaution est ainsi esquissé. Ce modèle propose une vision globale permettant de juger un projet intégrant des principes de développement durable et se présente comme une alternative aux approches traditionnelles d’évaluation des risques, à la fois déterministes et instrumentales. L’hypothèse du principe de précaution est dès lors proposée et examinée dans le contexte spécifique du projet architectural. Cette exploration débute par une présentation de la notion classique de «prudence» telle qu’elle fut historiquement utilisée pour guider le jugement architectural. Qu’en est-il par conséquent des défis présentés par le jugement des projets d’architecture dans la montée en puissance des méthodes d’évaluation standardisées (ex. Leadership Energy and Environmental Design; LEED) ? La thèse propose une réinterprétation de la théorie de la conception telle que proposée par Donald A. Schön comme une façon de prendre en compte les outils d’évaluation tels que LEED. Cet exercice révèle cependant un obstacle épistémologique qui devra être pris en compte dans une reformulation du modèle. En accord avec l’épistémologie constructiviste, un nouveau modèle théorique est alors confronté à l’étude et l’illustration de trois concours d'architecture canadienne contemporains ayant adopté la méthode d'évaluation de la durabilité normalisée par LEED. Une série préliminaire de «tensions» est identifiée dans le processus de la conception et du jugement des projets. Ces tensions sont ensuite catégorisées dans leurs homologues conceptuels, construits à l’intersection du principe de précaution et des théories de la conception. Ces tensions se divisent en quatre catégories : (1) conceptualisation - analogique/logique; (2) incertitude - épistémologique/méthodologique; (3) comparabilité - interprétation/analytique, et (4) proposition - universalité/ pertinence contextuelle. Ces tensions conceptuelles sont considérées comme autant de vecteurs entrant en corrélation avec le modèle théorique qu’elles contribuent à enrichir sans pour autant constituer des validations au sens positiviste du terme. Ces confrontations au réel permettent de mieux définir l’obstacle épistémologique identifié précédemment. Cette thèse met donc en évidence les impacts généralement sous-estimés, des normalisations environnementales sur le processus de conception et de jugement des projets. Elle prend pour exemple, de façon non restrictive, l’examen de concours d'architecture canadiens pour bâtiments publics. La conclusion souligne la nécessité d'une nouvelle forme de « prudence réflexive » ainsi qu’une utilisation plus critique des outils actuels d’évaluation de la durabilité. Elle appelle une instrumentalisation fondée sur l'intégration globale, plutôt que sur l'opposition des approches environnementales.
Resumo:
Cette recherche vise à décrire 1) les erreurs lexicales commises en production écrite par des élèves francophones de 3e secondaire et 2) le rapport à l’erreur lexicale d’enseignants de français (conception de l’erreur lexicale, pratiques d’évaluation du vocabulaire en production écrite, modes de rétroaction aux erreurs lexicales). Le premier volet de la recherche consiste en une analyse d’erreurs à trois niveaux : 1) une description linguistique des erreurs à l’aide d’une typologie, 2) une évaluation de la gravité des erreurs et 3) une explication de leurs sources possibles. Le corpus analysé est constitué de 300 textes rédigés en classe de français par des élèves de 3e secondaire. L’analyse a révélé 1144 erreurs lexicales. Les plus fréquentes sont les problèmes sémantiques (30%), les erreurs liées aux propriétés morphosyntaxiques des unités lexicales (21%) et l’utilisation de termes familiers (17%). Cette répartition démontre que la moitié des erreurs lexicales sont attribuables à une méconnaissance de propriétés des mots autres que le sens et la forme. L’évaluation de la gravité des erreurs repose sur trois critères : leur acceptation linguistique selon les dictionnaires, leur impact sur la compréhension et leur degré d’intégration à l’usage. Les problèmes liés aux registres de langue sont généralement ceux qui sont considérés comme les moins graves et les erreurs sémantiques représentent la quasi-totalité des erreurs graves. Le troisième axe d’analyse concerne la source des erreurs et fait ressortir trois sources principales : l’influence de la langue orale, la proximité sémantique et la parenté formelle entre le mot utilisé et celui visé. Le second volet de la thèse concerne le rapport des enseignants de français à l’erreur lexicale et repose sur l’analyse de 224 rédactions corrigées ainsi que sur une série de huit entrevues menées avec des enseignants de 3e secondaire. Lors de la correction, les enseignants relèvent surtout les erreurs orthographiques ainsi que celles relevant des propriétés morphosyntaxiques des mots (genre, invariabilité, régime), qu’ils classent parmi les erreurs de grammaire. Les erreurs plus purement lexicales, c’est-à-dire les erreurs sémantiques, l’emploi de termes familiers et les erreurs de collocation, demeurent peu relevées, et les annotations des enseignants concernant ces types d’erreurs sont vagues et peu systématiques, donnant peu de pistes aux élèves pour la correction. L’évaluation du vocabulaire en production écrite est toujours soumise à une appréciation qualitative, qui repose sur l’impression générale des enseignants plutôt que sur des critères précis, le seul indicateur clair étant la répétition. Les explications des enseignants concernant les erreurs lexicales reposent beaucoup sur l’intuition, ce qui témoigne de certaines lacunes dans leur formation en lien avec le vocabulaire. Les enseignants admettent enseigner très peu le vocabulaire en classe au secondaire et expliquent ce choix par le manque de temps et d’outils adéquats. L’enseignement du vocabulaire est toujours subordonné à des tâches d’écriture ou de lecture et vise davantage l’acquisition de mots précis que le développement d’une réelle compétence lexicale.
Resumo:
La mesure du déjettement du tronc est un élément important pour évaluer la posture en ce qui a trait à la scoliose idiopathique. Cependant, il y a peu d'informations quant à sa mesure et les associations entre le déjettement du tronc et d'autres indicateurs ou facteurs pertinents. Les objectifs de cette étude sont : 1) d’évaluer la validité et la fiabilité de test-retest du fil à plomb pour mesurer le déjettement du tronc de C7 à S1 chez les personnes atteintes de scoliose idiopathique; et 2) d'étudier l'association entre le déjettement du tronc et les facteurs suivants : la douleur, l’angle de Cobb, le type de scoliose, la santé mentale et l’image de soi chez les personnes atteintes de scoliose idiopathique. Nous avons recruté 55 sujets âgés de 10 à 21 ans atteints de scoliose idiopathique (angle de Cobb : 15º à 60º) de la clinique de scoliose dans un hôpital pédiatrique de soins tertiaires. Le déjettement a été mesuré directement sur les sujets à deux reprises par la même physiothérapeute de même que sur les radiographies prises ce jour-là. Deux mesures ont été prises à chaque fois : une les pieds joints (FT) et l’autre en écartant les pieds (FA). Les sujets ont répondu au questionnaire adressé au patient de la Scoliosis Research Society-22, qui traite de la douleur, de l'image de soi et de la santé mentale. Le type de scoliose et l'angle de Cobb ont été mesurés sur les radiographies prises ce jour-là. Nous avons utilisé la théorie de la généralisabilité pour calculer la fidélité de test-retest pour les mesures FT et FA, en rapportant les coefficients de fiabilité (f) et les erreurs types de mesure (SEM). La validité de la mesure du fil à plomb a été calculée en comparant les mesures prises directement sur les radiographies en utilisant le coefficient de corrélation de Pearson. Les corrélations de Pearson ont été calculées entre le déjettement du tronc et la douleur, l'angle de Cobb, l'image de soi et la santé mentale. Les corrélations de Spearman ont été calculées entre le déjettement du tronc et le type de scoliose. Nous avons ensuite utilisé des modèles de régression linéaire multiple pour déterminer les associations entre ces variables. Nos résultats indiquent que les mesures de déjettement du tronc en utilisant un fil à plomb ont une forte corrélation (r = 0,87) avec la mesure obtenue par radiographie. La mesure du déjettement du tronc en utilisant un fil à plomb a démontré une excellente fidélité de test-retest (f: 0,98 pour la mesure FT et 0,99 pour la mesure FA) et les SEM étaient de 2,0 mm pour la mesure FT et 1,8 mm pour la mesure FA. Le déjettement du tronc est corrélé positivement avec l'angle de Cobb (r = 0,32, p = 0,02), mais il n'est pas corrélé à la douleur, la santé mentale, l'image de soi ou le type de scoliose. Les conclusions de notre étude ont montré que la mesure clinique du déjettement du tronc en utilisant un fil à plomb est une méthode fiable et valide et que le déjettement du tronc est associé à l'angle de Cobb. Une étude longitudinale est nécessaire pour déterminer si le déjettement du tronc est un indicateur pronostique de la progression de la scoliose. Mots-clés: la scoliose idiopathique, le déjettement du tronc, fil à plomb, posture, déplacement latéral du tronc
Resumo:
L’explosion du nombre de séquences permet à la phylogénomique, c’est-à-dire l’étude des liens de parenté entre espèces à partir de grands alignements multi-gènes, de prendre son essor. C’est incontestablement un moyen de pallier aux erreurs stochastiques des phylogénies simple gène, mais de nombreux problèmes demeurent malgré les progrès réalisés dans la modélisation du processus évolutif. Dans cette thèse, nous nous attachons à caractériser certains aspects du mauvais ajustement du modèle aux données, et à étudier leur impact sur l’exactitude de l’inférence. Contrairement à l’hétérotachie, la variation au cours du temps du processus de substitution en acides aminés a reçu peu d’attention jusqu’alors. Non seulement nous montrons que cette hétérogénéité est largement répandue chez les animaux, mais aussi que son existence peut nuire à la qualité de l’inférence phylogénomique. Ainsi en l’absence d’un modèle adéquat, la suppression des colonnes hétérogènes, mal gérées par le modèle, peut faire disparaître un artéfact de reconstruction. Dans un cadre phylogénomique, les techniques de séquençage utilisées impliquent souvent que tous les gènes ne sont pas présents pour toutes les espèces. La controverse sur l’impact de la quantité de cellules vides a récemment été réactualisée, mais la majorité des études sur les données manquantes sont faites sur de petits jeux de séquences simulées. Nous nous sommes donc intéressés à quantifier cet impact dans le cas d’un large alignement de données réelles. Pour un taux raisonnable de données manquantes, il appert que l’incomplétude de l’alignement affecte moins l’exactitude de l’inférence que le choix du modèle. Au contraire, l’ajout d’une séquence incomplète mais qui casse une longue branche peut restaurer, au moins partiellement, une phylogénie erronée. Comme les violations de modèle constituent toujours la limitation majeure dans l’exactitude de l’inférence phylogénétique, l’amélioration de l’échantillonnage des espèces et des gènes reste une alternative utile en l’absence d’un modèle adéquat. Nous avons donc développé un logiciel de sélection de séquences qui construit des jeux de données reproductibles, en se basant sur la quantité de données présentes, la vitesse d’évolution et les biais de composition. Lors de cette étude nous avons montré que l’expertise humaine apporte pour l’instant encore un savoir incontournable. Les différentes analyses réalisées pour cette thèse concluent à l’importance primordiale du modèle évolutif.
Resumo:
La problématique de l’observance de la biosécurité est présente dans tous les types de production. Il est essentiel de définir des stratégies pour améliorer l’application des mesures de biosécurité. Cette étude décrit l’application des mesures de biosécurité à l’entrée et à la sortie de 24 bâtiments d’élevages avicoles au Québec, Canada. L’effet des audits et de caméras visibles sur l’observance a été étudié, de même que les déterminants de l’observance. De plus, la relation entre l’observance et les profils de personnalité, l’expérience et l’éducation a été décrite. L’application des mesures de biosécurité a été évaluée à l’aide de caméras cachées. L’observance à court terme (deux premières semaines) et à moyen terme (six mois plus tard) a été déterminée. Basés sur les résultats du groupe contrôle, 44 différentes erreurs lors de l’application des mesures de biosécurité ont été observées à l’entrée et la sortie des bâtiments. La plupart étaient reliées à la délimitation des zones (propre versus contaminée). La nature et la fréquence des erreurs suggèrent un manque de compréhension des principes associés aux mesures de biosécurité. Le visionnement des vidéos a révélé 3055 visites par 277 individus différents (136 employés, 123 visiteurs, 3 superviseurs et 15 éleveurs). Les résultats ont démontré que les audits n’avaient pas d’impact sur l’observance des employés. Les caméras visibles ont eu un impact, à court terme, sur le port de bottes et le respect des zones durant la visite. Par contre, six mois plus tard, l’observance avait significativement diminué, au point de ne plus être statistiquement plus élevée que le groupe contrôle. La durée et le moment de la visite, la présence de l’éleveur ou d’un observateur, la conception de l’entrée, le nombre de bâtiments, le nombre de mesures de biosécurité exigé, le type de bottes, le genre et être membre de la famille de l’éleveur étaient significativement associés à l’observance de certaines mesures. Finalement, trois traits de la personnalité étaient associés à l’observance: responsabilité, orienté vers l’action et complexité, de même que le nombre d’années d’expérience et le niveau d’éducation. Il est nécessaire d’améliorer la formation en matière de biosécurité en fournissant du matériel de formation à tous les intervenants qui démontrent pourquoi et comment appliquer les mesures de biosécurité. La formation continue devrait également aborder les problématiques reliées aux caractéristiques de visites et de fermes. Améliorer la conception des entrées de bâtiments devrait contribuer à augmenter et à maintenir l’observance. L’identification de traits de personnalité associés à l’observance peut avoir des implications sur la sélection des candidats à l’embauche ou sur l’attribution de tâches et sur la planification des programmes de formation.
Resumo:
L’Adversus nationes est un texte polémique où l’auteur, Arnobe de Sicca, défend le christianisme en plus d’attaquer le paganisme. Nous y retrouvons les principales accusations lancées contre le christianisme ainsi que les attaques des intellectuels chrétiens contre les païens. Il s’agit de l’un des derniers textes apologétiques rédigé avant la paix de Milan (311). Arnobe y explique l’importance de s’éloigner des erreurs du paganisme et d’adhérer au christianisme dans le but de sauver son âme. Bien qu’il ne s’agisse pas d’une œuvre à caractère historique, Arnobe fournit, pour étayer son argumentation, plusieurs indices sur sa conception de l’histoire romaine. L’Adversus nationes, qui n’est pas traduit intégralement en français à ce jour, n’a pas été très souvent étudié du point de vue de l’interprétation de l’histoire. Une telle étude permet de comprendre la pensée de son auteur sur Rome, son histoire et ses périodes politiques. La première partie de ce mémoire présentera une petite biographie d’Arnobe ainsi qu’un survol du contexte historique dans lequel il vivait. Puis, les principales caractéristiques de l’histoire rhétorique seront exposées au deuxième chapitre. La seconde partie du mémoire traitera de l’analyse de passages de l’Adversus nationes. Le troisième chapitre sera consacré aux grands personnages romains. Le quatrième chapitre traitera de la providence divine dans l’histoire romaine. Finalement, le cinquième chapitre cherchera à retrouver les sources d’Arnobe lorsqu’il traite d’évènements historiques importants. Ce mémoire offre, comme conclusions, une nouvelle hypothèse concernant la datation du livre 1 de l’Adversus nationes et une nouvelle influence concernant certains récits historiques rapportés par Arnobe.
Resumo:
Le présent travail est encadré dans le domaine de la linguistique appliquée de l'espagnol comme langue étrangère (ELE), et plus spécifiquement dans l'enseignement du genre grammatical en ELE. Notre intérêt en tant que enseignants c’est de pouvoir établir une méthode fiable selon les critères du Plan curricular de l'Institut Cervantès et la technique du consciousness-raising, ainsi que élaborer des activités destinées à l'enseignement du genre grammatical dans la classe d’ELE. L'enseignement d'ELE au Québec suit les mêmes méthodes qu'en Europe. En ce qui concerne l'enseignement du genre grammatical, les études consultées ratifient le manque d'instruction pertinente à propos du genre grammatical, ainsi que la difficulté dans la concordance même dans des niveaux avancés. Cependant, l'analyse de manuels d'ELE utilisés dans les diverses institutions de Montréal permet de conclure que ceux-ci ne suivent pas les règles établies par le Plan curricular en ce qui concerne l'enseignement du genre. Pour vérifier ces faits un travail de champ a été mis en place avec 84 étudiants et étudiantes de six institutions de Montréal pendant deux mois et deux semaines. Les résultats de la recherche et l'analyse d'erreurs nous montrent qu’il y a des problèmes avec le genre grammatical chez les étudiants de niveau intermédiaire et que les erreurs ne disparaissent pas avec les activités de renfort créées. Il est donc nécessaire d’adopter une méthode plus appropriée à l'apprentissage du genre grammatical dans une classe d’ELE et la présence du professeur pour la présenter. En effet, l'exécution d'activités créées n'est pas suffisant, car bien que les résultats montrent un léger progrès dans le cas du groupe B, ou d’expérience, en comparaison au groupe A, ou de control, on a constaté qu’une instruction formelle aurait entrainé un meilleur et plus complet apprentissage du genre grammatical dans le cas de nos étudiants; de là la nécessité d'établir une méthode fiable pour son enseignement.
Resumo:
Recherche réalisée en cotutelle - Université de Montréal/EHHESS (Paris)
Resumo:
L’asymétrie de mise en charge (MEC) lors du passage assis à debout (PAD) chez les personnes hémiparétiques est une observation clinique connue mais peu expliquée. Ce projet visait donc le développement de connaissances sur les facteurs explicatifs de l’asymétrie de MEC chez cette clientèle en s’intéressant plus spécifiquement au lien entre la distribution des efforts aux genoux lors du PAD et l’asymétrie de MEC observée ainsi qu’à la perception de ces deux éléments lors de cette tâche. Ainsi, les objectifs généraux étaient de : 1) déterminer si l’exécution spontanée asymétrique du PAD des sujets hémiparétiques est expliquée par une distribution des efforts symétriques aux genoux en quantifiant ces efforts par le Taux d’utilisation musculaire électromyographique (TUMEMG) et, 2) déterminer si les individus hémiparétiques sont conscients des stratégies motrices qu’ils utilisent en évaluant leurs perceptions de MEC et d’efforts aux genoux durant le PAD. La première étude a évalué la capacité des personnes hémiparétiques à percevoir leur distribution de MEC aux membres inférieurs lors du PAD. Par rapport aux participants sains, leur distribution de MEC fut davantage asymétrique et leurs erreurs de perception plus élevées. La deuxième étude a quantifié la distribution des efforts aux genoux chez les sujets sains et hémiparétiques lors du PAD spontané. Les deux groupes ont montré une association entre leur distribution de MEC et leur distribution d’effort. Toutefois, la relation était plus faible chez les patients. Le classement des participants hémiparétiques en sous-groupes selon leur degré d’asymétrie de force maximale des extenseurs des genoux (faible, modéré, sévère) a révélé une similarité des efforts aux genoux parétique et non parétique chez le groupe ayant une atteinte sévère. La troisième étude a déterminé si la perception de la distribution des efforts aux genoux des sujets hémiparétiques était reliée à leur distribution réelle d’effort mesurée lors de PAD exécutés dans différentes positions de pieds. En plus d’être incapables de percevoir les changements de distribution d’effort induits par les différentes positions de pieds, leurs erreurs de perception d’effort furent plus élevées que celles de MEC. Par le biais du test fonctionnel assis-debout de cinq répétitions, la dernière étude a déterminé l’influence du nombre de répétitions du PAD sur les distributions de MEC et d’efforts aux genoux chez les sujets sains et hémiparétiques. Contrairement aux contrôles, les distributions des sujets hémiparétiques furent plus asymétriques à la première répétition du test fonctionnel que lors de l’exécution spontanée unique du PAD. En somme, les résultats de cette thèse ont démontré que la distribution des efforts aux genoux doit être considérée parmi les facteurs explicatifs de l’asymétrie de MEC des individus hémiparétiques lors du PAD et qu’il y a un besoin de mieux documenter la perception des personnes hémiparétiques lorsqu’elles exécutent des tâches fonctionnelles.
Resumo:
L’intégrité de notre système sensorimoteur est essentielle aux interactions adéquates avec notre environnement. Dans la maladie de Parkinson (MP), l’efficacité des interactions quotidiennes entre le corps et l’environnement est fréquemment réduite et diminue la qualité de vie. La MP est une maladie neurodégénérative résultant prioritairement d’une perte neuronale dopaminergique dans les ganglions de la base (GB). Cette dégénérescence altère le fonctionnement normal de la circuiterie associant les GB au cortex cérébral. L’administration de médications dopaminergiques permet d’améliorer les principaux symptômes cliniques moteurs de la MP. Cette thèse porte sur les rôles des GB dans les processus de traitement et d’intégration des informations sensorielles visuelle et proprioceptive et dans les mécanismes d’adaptation visuomotrice. Elle s’intéresse également à l’influence de la médication dopaminergique sur ces fonctions sensorimotrices. Nous avons réalisé trois études comportementales, utilisant l’atteinte manuelle tridimensionnelle comme modèle expérimental. Dans chacune de ces études, nous avons comparé la performance de personnes âgées en santé à celle de personnes souffrant de la MP avec et sans leur médication antiparkinsonienne quotidienne. Ces trois études ont été réalisées à l’aide d’un système d’analyse de mouvement et une station de réalité virtuelle. Dans la première étude, nous avons évalué si les GB sont prioritairement impliqués dans l’intégration sensorimotrice ou le traitement des informations proprioceptives. Pour se faire, nous avons testé la capacité des patients MP à effectuer des atteintes manuelles tridimensionnelles précises dans quatre conditions variant la nature des informations sensorielles (visuelles et/ou proprioceptives) définissant la position de la main et de la cible. Les patients MP ont effectué, en moyenne, de plus grandes erreurs spatiales que les personnes en santé uniquement lorsque les informations proprioceptives étaient la seule source d’information sensorielle disponible. De plus, ces imprécisions spatiales étaient significativement plus grandes que celles des personnes en santé, seulement lorsque les patients étaient testés dans la condition médicamentée. La deuxième étude présentée dans cette thèse a permis de démontrer que les imprécisions spatiales des patients MP dans les conditions proprioceptives étaient le résultat de déficits dans l’utilisation en temps réel des informations proprioceptives pour guider les mouvements. Dans la troisième étude, nous avons évalué si les GB sont prioritairement impliqués dans les mécanismes d’adaptation visuomotrice explicite ou implicite. Pour se faire, nous avons testé les capacités adaptatives des patients MP dans deux tâches variant le décours temporel de l’application d’une perturbation visuomotrice tridimensionnelle. Dans la tâche explicite, la perturbation était introduite soudainement, produisant de grandes erreurs détectées consciemment. Dans la condition implicite, la perturbation était introduite graduellement ce qui engendrait de petites erreurs non détectables. Les résultats montrent que les patients MP dans les conditions médicamentée et non médicamentée présentent des déficits adaptatifs uniquement dans la tâche explicite. Dans l’ensemble, les résultats expérimentaux présentés dans cette thèse montrent que la médication dopaminergique n’améliore pas le traitement des afférences proprioceptives et l’adaptation visuomotrice des personnes souffrant de la MP. Ces observations suggèrent que les dysfonctions dans les circuits dopaminergiques dans les GB ne sont pas les seules responsables des déficits observés dans ces fonctions sensorimotrices.