681 resultados para modélisation de l’expérience de l’apprenant
Resumo:
A partir de l’expérience gabonaise, cet article étudie la façon dont les injonctions internationales de « bonne gouvernance » se traduisent dans l’évolution de l’organisation et du fonctionnement du système de santé dans un pays en développement. Dans un premier temps, les termes de « gouvernance » et de « bonne gouvernance » sont définis sous en angle critique. Ensuite nous présentons l’influence de la thématique « gouvernance » dans l’évolution des discours et des politiques officielles de santé au Gabon. Enfin nous cherchons à montrer la déconnexion entre les discours et les réformes. La conclusion tire des enseignements concernant la pertinence de l’argumentaire de « bonne gouvernance ».
Resumo:
RÉSUMÉ DE LA RECHERCHE Le conflit armé en Colombie est le troisième conflit le plus long du monde, après le problème entre la Palestine et l’Israël et celui entre l’Inde et le Pakistan. La violence organisée qui caractérise ce conflit a des conséquences sur le plan individuel (souffrance psychologique, etc.) et sur le plan collectif (démobilisation sociale par la terreur, modification de la pensée critique, augmentation de la violence commune). Cette violence a poussé des milliers de Colombiens à l’exil. Certaines de ces personnes arrivent au Québec en tant que réfugiés. La présente étude décrit et analyse les effets de la violence organisée subie en Colombie par ces personnes. Elle fait le lien entre ces conséquences et le processus d’intégration des refugiés colombiens dans une région du Québec, la Haute-Yamaska. Le principal objectif de ce mémoire est de répondre à cette question : selon l’expérience des immigrants réfugiés colombiens victimes de violence organisée, quels sont les effets de cette violence sur leur vie actuelle au Québec? Douze récits d’expériences ont été recueillis et analysés à partir d’entrevues semi dirigées auprès des refugiés colombiens. Les résultats de cette étude montrent la nécessité, pour les réfugiés, d’un travail d’élaboration autour de leur propre identité à travers l’expérience vécue; la présence du retrait et de l’isolement comme mécanismes de protection qui se manifestent en terre d’accueil; la reproduction, par un groupe minoritaire, de certains des comportements qui sont jugés violents en terre d’accueil et qui dans le contexte de la terre d’origine avaient un autre sens. Cette différence de sens est accompagnée d’une tolérance différente à la violence dans un groupe de réfugiés et la société d’accueil. L’attitude personnelle positive face aux difficultés ainsi que le soutien du réseau familial ou des nouveaux amis sont des facilitateurs de l’intégration. Finalement, on constate que les effets d’un deuil prolongé freinent l’investissement affectif et personnel en terre d’accueil.
Resumo:
Au Québec, près de 25 000 personnes, principalement des aînés, sont touchées par la maladie de Parkinson (MP), la majorité étant soignée par leur conjoint. Au stade modéré, la MP altère la santé et la qualité de vie de ces couples. Ce stade est propice à la mise en place d’interventions dyadiques, car les couples expérimentent des pertes croissantes, nécessitant plusieurs ajustements. Néanmoins, aucune étude n’avait encore examiné leurs besoins d’intervention lors de cette transition et peu d’interventions pour les soutenir ont fait l’objet d’études évaluatives. Avec comme cadre de référence la théorie de l’expérience de transition de Meleis et al. (2000) et l’approche systémique de Wright et Leahey (2009), cette étude visait à développer, mettre à l’essai et évaluer une intervention auprès de couples âgés vivant avec la MP au stade modéré. À cette fin, un devis qualitatif et une approche participative ont été privilégiés. L’élaboration et l’évaluation de l’intervention s’appuient sur le cadre méthodologique d’Intervention Mapping de Bartholomew et al. (2006) et sur les écrits de Miles et Huberman (2003). L’étude s’est déroulée dans une clinique ambulatoire spécialisée dans la MP. Dix couples et quatre intervenants ont collaboré à la conceptualisation de l’intervention. Trois nouveaux couples en ont fait l’expérimentation et l’évaluation. L’intervention dyadique compte sept rencontres de 90 minutes, aux deux semaines. Les principaux thèmes, les méthodes et les stratégies d’intervention sont basés sur les besoins et les objectifs des dyades ainsi que sur des théories et des écrits empiriques. L’intervention est orientée vers les préoccupations des dyades, la promotion de la santé, la résolution de problèmes, l’accès aux ressources, la communication et l’ajustement des rôles. Les résultats de l’étude ont montré la faisabilité, l’acceptabilité et l’utilité de l’intervention. Les principales améliorations notées par les dyades sont l’adoption de comportements de santé, la recherche de solutions ajustées aux situations rencontrées et profitables aux deux partenaires, la capacité de faire appel à des services et l’accroissement des sentiments de maîtrise, de soutien mutuel, de plaisir et d’espoir. Cette étude fournit des pistes aux infirmières, engagées dans différents champs de pratique, pour développer et évaluer des interventions dyadiques écologiquement et théoriquement fondées.
Resumo:
La pratique physique a longtemps été perçue comme le déterminant premier de l’apprentissage du mouvement. Souvent exprimée par l’expression « Vingt fois sur le métier remettez votre ouvrage», cette idée se base sur l’observation qu’une grande quantité de pratique est nécessaire pour maîtriser un geste technique complexe. Bien que l’importance de la pratique physique pour l’apprentissage du mouvement demeure indéniable, il a récemment été démontré que les changements neurobiologiques qui constituent les bases de la mémoire prennent place après la pratique. Ces changements, regroupés sous le terme « consolidation », sont essentiels à la mise en mémoire des habiletés motrices. L’objectif de cette thèse est de définir les processus de consolidation en identifiant certains facteurs qui influencent la consolidation d’une habileté motrice. À l’aide d’une tâche d’adaptation visuomotrice comportant deux niveaux de difficulté, nous avons démontré qu’une bonne performance doit être atteinte au cours de la séance de pratique pour enclencher certains processus de consolidation. De plus, nos résultats indiquent que l’évaluation subjective que l’apprenant fait de sa propre performance peut moduler la consolidation. Finalement, nous avons démontré que l’apprentissage par observation peut enclencher certains processus de consolidation, indiquant que la consolidation n’est pas exclusive à la pratique physique. Dans l’ensemble, les résultats des études expérimentales présentées dans cette thèse montrent que la consolidation regroupe plusieurs processus distincts jouant chacun un rôle important pour l’apprentissage du mouvement. Les éducateurs physiques, les entraineurs sportifs et les spécialistes de la réadaptation physique devraient donc planifier des entrainements favorisant non seulement l’acquisition de gestes moteurs mais également leur consolidation.
Resumo:
Avec les avancements de la technologie de l'information, les données temporelles économiques et financières sont de plus en plus disponibles. Par contre, si les techniques standard de l'analyse des séries temporelles sont utilisées, une grande quantité d'information est accompagnée du problème de dimensionnalité. Puisque la majorité des séries d'intérêt sont hautement corrélées, leur dimension peut être réduite en utilisant l'analyse factorielle. Cette technique est de plus en plus populaire en sciences économiques depuis les années 90. Étant donnée la disponibilité des données et des avancements computationnels, plusieurs nouvelles questions se posent. Quels sont les effets et la transmission des chocs structurels dans un environnement riche en données? Est-ce que l'information contenue dans un grand ensemble d'indicateurs économiques peut aider à mieux identifier les chocs de politique monétaire, à l'égard des problèmes rencontrés dans les applications utilisant des modèles standards? Peut-on identifier les chocs financiers et mesurer leurs effets sur l'économie réelle? Peut-on améliorer la méthode factorielle existante et y incorporer une autre technique de réduction de dimension comme l'analyse VARMA? Est-ce que cela produit de meilleures prévisions des grands agrégats macroéconomiques et aide au niveau de l'analyse par fonctions de réponse impulsionnelles? Finalement, est-ce qu'on peut appliquer l'analyse factorielle au niveau des paramètres aléatoires? Par exemple, est-ce qu'il existe seulement un petit nombre de sources de l'instabilité temporelle des coefficients dans les modèles macroéconomiques empiriques? Ma thèse, en utilisant l'analyse factorielle structurelle et la modélisation VARMA, répond à ces questions à travers cinq articles. Les deux premiers chapitres étudient les effets des chocs monétaire et financier dans un environnement riche en données. Le troisième article propose une nouvelle méthode en combinant les modèles à facteurs et VARMA. Cette approche est appliquée dans le quatrième article pour mesurer les effets des chocs de crédit au Canada. La contribution du dernier chapitre est d'imposer la structure à facteurs sur les paramètres variant dans le temps et de montrer qu'il existe un petit nombre de sources de cette instabilité. Le premier article analyse la transmission de la politique monétaire au Canada en utilisant le modèle vectoriel autorégressif augmenté par facteurs (FAVAR). Les études antérieures basées sur les modèles VAR ont trouvé plusieurs anomalies empiriques suite à un choc de la politique monétaire. Nous estimons le modèle FAVAR en utilisant un grand nombre de séries macroéconomiques mensuelles et trimestrielles. Nous trouvons que l'information contenue dans les facteurs est importante pour bien identifier la transmission de la politique monétaire et elle aide à corriger les anomalies empiriques standards. Finalement, le cadre d'analyse FAVAR permet d'obtenir les fonctions de réponse impulsionnelles pour tous les indicateurs dans l'ensemble de données, produisant ainsi l'analyse la plus complète à ce jour des effets de la politique monétaire au Canada. Motivée par la dernière crise économique, la recherche sur le rôle du secteur financier a repris de l'importance. Dans le deuxième article nous examinons les effets et la propagation des chocs de crédit sur l'économie réelle en utilisant un grand ensemble d'indicateurs économiques et financiers dans le cadre d'un modèle à facteurs structurel. Nous trouvons qu'un choc de crédit augmente immédiatement les diffusions de crédit (credit spreads), diminue la valeur des bons de Trésor et cause une récession. Ces chocs ont un effet important sur des mesures d'activité réelle, indices de prix, indicateurs avancés et financiers. Contrairement aux autres études, notre procédure d'identification du choc structurel ne requiert pas de restrictions temporelles entre facteurs financiers et macroéconomiques. De plus, elle donne une interprétation des facteurs sans restreindre l'estimation de ceux-ci. Dans le troisième article nous étudions la relation entre les représentations VARMA et factorielle des processus vectoriels stochastiques, et proposons une nouvelle classe de modèles VARMA augmentés par facteurs (FAVARMA). Notre point de départ est de constater qu'en général les séries multivariées et facteurs associés ne peuvent simultanément suivre un processus VAR d'ordre fini. Nous montrons que le processus dynamique des facteurs, extraits comme combinaison linéaire des variables observées, est en général un VARMA et non pas un VAR comme c'est supposé ailleurs dans la littérature. Deuxièmement, nous montrons que même si les facteurs suivent un VAR d'ordre fini, cela implique une représentation VARMA pour les séries observées. Alors, nous proposons le cadre d'analyse FAVARMA combinant ces deux méthodes de réduction du nombre de paramètres. Le modèle est appliqué dans deux exercices de prévision en utilisant des données américaines et canadiennes de Boivin, Giannoni et Stevanovic (2010, 2009) respectivement. Les résultats montrent que la partie VARMA aide à mieux prévoir les importants agrégats macroéconomiques relativement aux modèles standards. Finalement, nous estimons les effets de choc monétaire en utilisant les données et le schéma d'identification de Bernanke, Boivin et Eliasz (2005). Notre modèle FAVARMA(2,1) avec six facteurs donne les résultats cohérents et précis des effets et de la transmission monétaire aux États-Unis. Contrairement au modèle FAVAR employé dans l'étude ultérieure où 510 coefficients VAR devaient être estimés, nous produisons les résultats semblables avec seulement 84 paramètres du processus dynamique des facteurs. L'objectif du quatrième article est d'identifier et mesurer les effets des chocs de crédit au Canada dans un environnement riche en données et en utilisant le modèle FAVARMA structurel. Dans le cadre théorique de l'accélérateur financier développé par Bernanke, Gertler et Gilchrist (1999), nous approximons la prime de financement extérieur par les credit spreads. D'un côté, nous trouvons qu'une augmentation non-anticipée de la prime de financement extérieur aux États-Unis génère une récession significative et persistante au Canada, accompagnée d'une hausse immédiate des credit spreads et taux d'intérêt canadiens. La composante commune semble capturer les dimensions importantes des fluctuations cycliques de l'économie canadienne. L'analyse par décomposition de la variance révèle que ce choc de crédit a un effet important sur différents secteurs d'activité réelle, indices de prix, indicateurs avancés et credit spreads. De l'autre côté, une hausse inattendue de la prime canadienne de financement extérieur ne cause pas d'effet significatif au Canada. Nous montrons que les effets des chocs de crédit au Canada sont essentiellement causés par les conditions globales, approximées ici par le marché américain. Finalement, étant donnée la procédure d'identification des chocs structurels, nous trouvons des facteurs interprétables économiquement. Le comportement des agents et de l'environnement économiques peut varier à travers le temps (ex. changements de stratégies de la politique monétaire, volatilité de chocs) induisant de l'instabilité des paramètres dans les modèles en forme réduite. Les modèles à paramètres variant dans le temps (TVP) standards supposent traditionnellement les processus stochastiques indépendants pour tous les TVPs. Dans cet article nous montrons que le nombre de sources de variabilité temporelle des coefficients est probablement très petit, et nous produisons la première évidence empirique connue dans les modèles macroéconomiques empiriques. L'approche Factor-TVP, proposée dans Stevanovic (2010), est appliquée dans le cadre d'un modèle VAR standard avec coefficients aléatoires (TVP-VAR). Nous trouvons qu'un seul facteur explique la majorité de la variabilité des coefficients VAR, tandis que les paramètres de la volatilité des chocs varient d'une façon indépendante. Le facteur commun est positivement corrélé avec le taux de chômage. La même analyse est faite avec les données incluant la récente crise financière. La procédure suggère maintenant deux facteurs et le comportement des coefficients présente un changement important depuis 2007. Finalement, la méthode est appliquée à un modèle TVP-FAVAR. Nous trouvons que seulement 5 facteurs dynamiques gouvernent l'instabilité temporelle dans presque 700 coefficients.
Resumo:
L’objectif principal de cette thèse était de quantifier et comparer l’effort requis pour reconnaître la parole dans le bruit chez les jeunes adultes et les personnes aînées ayant une audition normale et une acuité visuelle normale (avec ou sans lentille de correction de la vue). L’effort associé à la perception de la parole est lié aux ressources attentionnelles et cognitives requises pour comprendre la parole. La première étude (Expérience 1) avait pour but d’évaluer l’effort associé à la reconnaissance auditive de la parole (entendre un locuteur), tandis que la deuxième étude (Expérience 2) avait comme but d’évaluer l’effort associé à la reconnaissance auditivo-visuelle de la parole (entendre et voir le visage d’un locuteur). L’effort fut mesuré de deux façons différentes. D’abord par une approche comportementale faisant appel à un paradigme expérimental nommé double tâche. Il s’agissait d’une tâche de reconnaissance de mot jumelée à une tâche de reconnaissance de patrons vibro-tactiles. De plus, l’effort fut quantifié à l’aide d’un questionnaire demandant aux participants de coter l’effort associé aux tâches comportementales. Les deux mesures d’effort furent utilisées dans deux conditions expérimentales différentes : 1) niveau équivalent – c'est-à-dire lorsque le niveau du bruit masquant la parole était le même pour tous les participants et, 2) performance équivalente – c'est-à-dire lorsque le niveau du bruit fut ajusté afin que les performances à la tâche de reconnaissance de mots soient identiques pour les deux groupes de participant. Les niveaux de performance obtenus pour la tâche vibro-tactile ont révélé que les personnes aînées fournissent plus d’effort que les jeunes adultes pour les deux conditions expérimentales, et ce, quelle que soit la modalité perceptuelle dans laquelle les stimuli de la parole sont présentés (c.-à.-d., auditive seulement ou auditivo-visuelle). Globalement, le ‘coût’ associé aux performances de la tâche vibro-tactile était au plus élevé pour les personnes aînées lorsque la parole était présentée en modalité auditivo-visuelle. Alors que les indices visuels peuvent améliorer la reconnaissance auditivo-visuelle de la parole, nos résultats suggèrent qu’ils peuvent aussi créer une charge additionnelle sur les ressources utilisées pour traiter l’information. Cette charge additionnelle a des conséquences néfastes sur les performances aux tâches de reconnaissance de mots et de patrons vibro-tactiles lorsque celles-ci sont effectuées sous des conditions de double tâche. Conformément aux études antérieures, les coefficients de corrélations effectuées à partir des données de l’Expérience 1 et de l’Expérience 2 soutiennent la notion que les mesures comportementales de double tâche et les réponses aux questionnaires évaluent différentes dimensions de l’effort associé à la reconnaissance de la parole. Comme l’effort associé à la perception de la parole repose sur des facteurs auditifs et cognitifs, une troisième étude fut complétée afin d’explorer si la mémoire auditive de travail contribue à expliquer la variance dans les données portant sur l’effort associé à la perception de la parole. De plus, ces analyses ont permis de comparer les patrons de réponses obtenues pour ces deux facteurs après des jeunes adultes et des personnes aînées. Pour les jeunes adultes, les résultats d’une analyse de régression séquentielle ont démontré qu’une mesure de la capacité auditive (taille de l’empan) était reliée à l’effort, tandis qu’une mesure du traitement auditif (rappel alphabétique) était reliée à la précision avec laquelle les mots étaient reconnus lorsqu’ils étaient présentés sous les conditions de double tâche. Cependant, ces mêmes relations n’étaient pas présentes dans les données obtenues pour le groupe de personnes aînées ni dans les données obtenues lorsque les tâches de reconnaissance de la parole étaient effectuées en modalité auditivo-visuelle. D’autres études sont nécessaires pour identifier les facteurs cognitifs qui sous-tendent l’effort associé à la perception de la parole, et ce, particulièrement chez les personnes aînées.
Resumo:
La conception de systèmes hétérogènes exige deux étapes importantes, à savoir : la modélisation et la simulation. Habituellement, des simulateurs sont reliés et synchronisés en employant un bus de co-simulation. Les approches courantes ont beaucoup d’inconvénients : elles ne sont pas toujours adaptées aux environnements distribués, le temps d’exécution de simulation peut être très décevant, et chaque simulateur a son propre noyau de simulation. Nous proposons une nouvelle approche qui consiste au développement d’un simulateur compilé multi-langage où chaque modèle peut être décrit en employant différents langages de modélisation tel que SystemC, ESyS.Net ou autres. Chaque modèle contient généralement des modules et des moyens de communications entre eux. Les modules décrivent des fonctionnalités propres à un système souhaité. Leur description est réalisée en utilisant la programmation orientée objet et peut être décrite en utilisant une syntaxe que l’utilisateur aura choisie. Nous proposons ainsi une séparation entre le langage de modélisation et la simulation. Les modèles sont transformés en une même représentation interne qui pourrait être vue comme ensemble d’objets. Notre environnement compile les objets internes en produisant un code unifié au lieu d’utiliser plusieurs langages de modélisation qui ajoutent beaucoup de mécanismes de communications et des informations supplémentaires. Les optimisations peuvent inclure différents mécanismes tels que le regroupement des processus en un seul processus séquentiel tout en respectant la sémantique des modèles. Nous utiliserons deux niveaux d’abstraction soit le « register transfer level » (RTL) et le « transaction level modeling » (TLM). Le RTL permet une modélisation à bas niveau d’abstraction et la communication entre les modules se fait à l’aide de signaux et des signalisations. Le TLM est une modélisation d’une communication transactionnelle à un plus haut niveau d’abstraction. Notre objectif est de supporter ces deux types de simulation, mais en laissant à l’usager le choix du langage de modélisation. De même, nous proposons d’utiliser un seul noyau au lieu de plusieurs et d’enlever le bus de co-simulation pour accélérer le temps de simulation.
Resumo:
L’explosion du nombre de séquences permet à la phylogénomique, c’est-à-dire l’étude des liens de parenté entre espèces à partir de grands alignements multi-gènes, de prendre son essor. C’est incontestablement un moyen de pallier aux erreurs stochastiques des phylogénies simple gène, mais de nombreux problèmes demeurent malgré les progrès réalisés dans la modélisation du processus évolutif. Dans cette thèse, nous nous attachons à caractériser certains aspects du mauvais ajustement du modèle aux données, et à étudier leur impact sur l’exactitude de l’inférence. Contrairement à l’hétérotachie, la variation au cours du temps du processus de substitution en acides aminés a reçu peu d’attention jusqu’alors. Non seulement nous montrons que cette hétérogénéité est largement répandue chez les animaux, mais aussi que son existence peut nuire à la qualité de l’inférence phylogénomique. Ainsi en l’absence d’un modèle adéquat, la suppression des colonnes hétérogènes, mal gérées par le modèle, peut faire disparaître un artéfact de reconstruction. Dans un cadre phylogénomique, les techniques de séquençage utilisées impliquent souvent que tous les gènes ne sont pas présents pour toutes les espèces. La controverse sur l’impact de la quantité de cellules vides a récemment été réactualisée, mais la majorité des études sur les données manquantes sont faites sur de petits jeux de séquences simulées. Nous nous sommes donc intéressés à quantifier cet impact dans le cas d’un large alignement de données réelles. Pour un taux raisonnable de données manquantes, il appert que l’incomplétude de l’alignement affecte moins l’exactitude de l’inférence que le choix du modèle. Au contraire, l’ajout d’une séquence incomplète mais qui casse une longue branche peut restaurer, au moins partiellement, une phylogénie erronée. Comme les violations de modèle constituent toujours la limitation majeure dans l’exactitude de l’inférence phylogénétique, l’amélioration de l’échantillonnage des espèces et des gènes reste une alternative utile en l’absence d’un modèle adéquat. Nous avons donc développé un logiciel de sélection de séquences qui construit des jeux de données reproductibles, en se basant sur la quantité de données présentes, la vitesse d’évolution et les biais de composition. Lors de cette étude nous avons montré que l’expertise humaine apporte pour l’instant encore un savoir incontournable. Les différentes analyses réalisées pour cette thèse concluent à l’importance primordiale du modèle évolutif.
Resumo:
La présente étude s’intéresse aux mécanismes neuronaux qui sous-tendent la rétention en mémoire à court terme auditive (MCTA) en utilisant la technique des potentiels reliés aux événements (PRE). Dans l’Expérience 1, nous avons isolé une composante de PRE, nommée SAN pour « sustained anterior negativity ». La SAN augmentait en amplitude négative plus le nombre de sons à maintenir en MCTA augmentait. Cet effet de charge était présent, bien que la durée totale des stimuli restait la même entre les conditions. L’effet de charge observé par la SAN dans l’Expérience 1 disparaissait dans l’Expérience 2, où les mêmes sons étaient utilisés, mais où la mémorisation de ceux-ci n’était plus requise. Finalement, dans l’Expérience 3, la tâche de MCTA a été effectuée avec et sans suppression articulatoire durant l'intervalle de rétention. L’effet de charge trouvé dans l’Expérience 1 était de nouveau observé, lorsque les participants faisaient la tâche de suppression articulatoire ou non. Ces résultats suggèrent que la SAN reflète l'activité nécessaire pour le maintien des objets acoustiques dans un système de MCTA qui serait distinct de la répétition phonologique.
Resumo:
In the current contemporary Chinese context, still caught up with a governmental censorship of the media productions as well as information circulation, creators must find diverse ways to express themselves freely. Several styles of cinemas cohabit in this country hustled by political ideologies. Two main categories are divided, opposed and intermingled, the “mainstream” cinema and the “independent” cinema. It is via the medium of cinema and more particularly that of the present generation of Chinese directors that will be highlighted the emergence of new creative subjectivities. These subjectivities are in a constant dance with the State in the reaching of professional achievement while maintaining the status of artistic independence. The author will look into the evolution of the notion of Chinese identity from the 1990s until today. Rising from an opposition between tradition and modernism, the formation of new subjectivities is founded on a constant negotiation with the imposing forces of globalization but also in relation with the Chinese State. One currently speaks about an easing of communist rigidity and even the emergence of neoliberal tendencies. This would lead to the creation of a Chinese identity, brought up to date in tune with the assertion of individual desires at the expense of the community. The collective experiment is set aside to make room for the subjectivity of creative individuals, who create while positioning themselves as a unit in interrelationship with society.
Resumo:
La tumeur des cellules de la granulosa (GCT) représente 5% des cas de cancers ovariens chez la femme. Bien que considérées comme peu malignes, la mort survient dans 80% des cas suite à une recrudescence de la maladie. En dépit de ces statistiques sinistres, peu d’études ont été portées sur ce type de cancer. Le premier objectif de cette étude consistait à élucider les mécanismes moléculaires causant les GCT en démontrant l’implication de la voie de signalisation PI3K/AKT dans leur étiologie. Pour ce faire, nous avons employé la technologie Cre-Lox afin de cibler le gène Pten (antagoniste de cette voie) spécifiquement dans les cellules de la granulosa chez la souris. Ces souris (Ptenflox/flox;Amhr2cre/+) ont occasionnellement développé des GCT, soutenant notre hypothèse de l’importance de la voie PI3K/AKT dans leur étiologie. La voie WNT/CTNNB1 est une autre voie de signalisation qui a récemment été impliquée dans le développement des GCT. Dans le cadre de ce projet, nous avons également testé l’existence possible d’une synergie fonctionnelle entre les voies WNT/CTNNB1 et PI3K/AKT dans le développement de la maladie. Pour ce faire, nous avons créé le modèle transgénique Ptenflox/flox;Ctnnb1flox(ex3)/+;Amhr2cre/+, chez lequel les cellules de la granulosa présentant non seulement une désinhibition de la voie PI3K/AKT, mais aussi une suractivation de la voie WNT/CTNNB1. Tel que prédit, les souris Ptenflox/flox;Ctnnb1flox(ex3)/+;Amhr2cre/+ ont développé une forme de GCT beaucoup plus agressive que celle observée chez les femelles Ptenflox/flox;Amhr2cre/+. Spécifiquement, le développement des tumeurs se déclenchait plus tôt, leur croissance était beaucoup plus rapide, nous avons pu observer des métastases pulmonaires et la dissémination des cellules tumorales dans la cavité péritonéale, et la maladie était invariablement fatale avant l’âge de 8 semaines. Le modèle Ptenflox/flox;Ctnnb1flox (ex3)/+;Amhr2cre/+ a donc servi à démontrer l'existence d'une synergie entre les voies WNT/CTNNB1 et PI3K/AKT dans le développement de la GCT. De façon inattendue, les souris Ptenflox/flox;Amhr2cre/+ ont aussi présenté un phénotype de sous-fertilité qui n’était pas d’origine ovarienne. Il a récemment été démontré que la souche Amhr2cre dirige l’expression de Cre non seulement aux cellules de la granulosa, mais aussi au stroma utérin et au myomètre. Le second objectif de ce travail était donc de démontrer si et comment le phénotype d’infertilité chez les souris Ptenflox/flox;Amhr2cre/+ pouvait découler d’un défaut utérin. Lors de l'implantation, les cellules du stroma utérin se différencient en cellules déciduelles pour former la décidua maternelle (DM), qui se régresse ensuite par apoptose afin de faciliter l’invasion des cellules trophoblastiques. De plus, la DM, en collaboration avec le tissu foetal, recrute des uNKs dont le rôle est de remodeler les artères spiralées pour augmenter l’apport sanguin maternel vers le foetus en développement. Nous avons pu démontrer que l'utérus des femelles gestantes Ptenflox/flox;Amhr2cre/+ présentait une DM anormalement résistante à l'apoptose, moins de uNKs et des artères spiralées non-remodelées. Par conséquent, l’invasion des cellules du trophoblaste était restreinte, compromettant le développement et la survie de l'embryon. Nous avons donc établi pour la première fois l’importance de Pten lors de la décidualisation et de l’invasion du trophoblaste.
Resumo:
Cette thèse examine en profondeur la nature et l’application du concept de genre en jeu vidéo. Elle se divise en trois parties. La première fait l’inventaire des théories des genres en littérature et en études cinématographiques. Les propriétés essentielles du genre comme concept sont identifiées : il s’agit d’une catégorisation intuitive et irraisonnée, de nature discursive, qui découle d’un consensus culturel commun plutôt que de systèmes théoriques, et qui repose sur les notions de tradition, d’innovation et d’hybridité. Dans la deuxième partie, ces constats sont appliqués au cas du genre vidéoludique. Quelques typologies sont décortiquées pour montrer l’impossibilité d’une classification autoritaire. Un modèle du développement des genres est avancé, lequel s’appuie sur trois modalités : l’imitation, la réitération et l’innovation. Par l’examen de l’histoire du genre du first-person shooter, la conception traditionnelle du genre vidéoludique basée sur des mécanismes formels est remplacée par une nouvelle définition centrée sur l’expérience du joueur. La troisième partie développe l’expérience comme concept théorique et la place au centre d’une nouvelle conception du genre, la pragmatique des effets génériques. Dans cette optique, tout objet est une suite d’amorces génériques, d’effets en puissance qui peuvent se réaliser pourvu que le joueur dispose des compétences génériques nécessaires pour les reconnaître. Cette nouvelle approche est démontrée à travers une étude approfondie d’un genre vidéoludique : le survival horror. Cette étude de cas témoigne de l’applicabilité plus large de la pragmatique des effets génériques, et de la récursivité des questions de genre entre le jeu vidéo, la littérature et le cinéma.
Resumo:
L’œuvre de JMG Le Clézio se caractérise par sa perpétuelle évolution. Elle échappe aux classifications génériques et maintient son statut subversif et indépendant. L’écriture de cet écrivain traduit les diverses influences qui l’ont marqué, les problèmes auxquels il fait face et la thématique majeure dans laquelle il inscrit son œuvre. À travers l’étude de La quarantaine, paru en 1995, nous essayerons lors du premier chapitre de comprendre comment Le Clézio réinvente son écriture pour remédier au problème de l’impureté du langage qui caractérisait son œuvre d’avant les années quatre-vingts. Dans le deuxième chapitre, nous analyserons les thématiques littéraire, familiale et historique qui font de cet ouvrage un roman de filiation. La quarantaine insiste sur l’importance de l’altérité traditionnelle et non occidentale en tant que facteur dans ce changement romanesque, et dont le mode de vie réfléchit différemment le problème de l’identité chez l’individu occidental. Dans le troisième chapitre, nous aborderons la question des enjeux de l’identité à travers l’expérience initiatique à laquelle se livre le protagoniste de La quarantaine en quête d’un devenir identitaire, d’une émancipation qui réconcilie l’individu moderne avec soi-même.
Resumo:
Plusieurs études ont confirmé que certains traits de personnalité des enfants et certaines attitudes et pratiques éducatives de leurs parents constituaient des prédicteurs des comportements perturbateurs à l’adolescence. Toutefois, la majorité des recherches ont adopté un modèle postulant des relations directes et indépendantes entre ces facteurs de risque et des comportements perturbateurs. Le modèle transactionnel est plus réaliste parce qu’il postule des relations bidirectionnelles à travers le temps entre ces deux facteurs de risque. Cette étude visait à vérifier l’existence de relations bidirectionnelles entre les traits de personnalité des enfants et les attitudes parentales de leur mère mesurés à deux reprises durant l’enfance (à 6 et 7 ans), pour ensuite vérifier si les comportements perturbateurs des enfants mesurés à l’adolescence (15 ans) pouvaient être prédits par les traits de personnalité et les attitudes parentales. Les données utilisées proviennent d’une étude longitudinale prospective de 1000 garçons et 1000 filles évalués à plusieurs reprises de la maternelle à l’adolescence. Six traits de personnalité des enfants et deux attitudes parentales ont été évalués par les mères à 6 et 7 ans, alors que les diagnostics de troubles perturbateurs (trouble des conduites, trouble oppositionnel avec provocation, trouble de déficit de l’attention/hyperactivité) ont été évalués par les adolescents et les mères à 15 ans. Afin de tester les hypothèses de recherche, des analyses de cheminement (« path analysis ») multi-groupes basées sur la modélisation par équations structurales ont été utilisées. Les résultats ont confirmé la présence de relations bidirectionnelles entre les traits de personnalité de l’enfant et les attitudes parentales durant l’enfance. Toutefois, peu de relations étaient significatives et celles qui l’étaient étaient de faible magnitude. Les modèles multi-groupes ont par ailleurs confirmé la présence de relations bidirectionnelles différentes selon le sexe. En ce qui concerne la prédiction des comportements perturbateurs, de façon générale, surtout les traits de personnalité et les attitudes parentales à 6 ans (plutôt qu’à 7 ans) ont permis de les prédire. Néanmoins, peu de relations prédictives se sont avérées significatives. En somme, cette étude est une des rares à avoir démontré la présence de relations bidirectionnelles entre la personnalité de l’enfant et les attitudes parentales avec des données longitudinales. Ces résultats pourraient avoir des implications théoriques pour les modèles explicatifs des comportements perturbateurs, de même que des implications pratiques pour le dépistage des enfants à risque.
Resumo:
La problématique de l’observance de la biosécurité est présente dans tous les types de production. Il est essentiel de définir des stratégies pour améliorer l’application des mesures de biosécurité. Cette étude décrit l’application des mesures de biosécurité à l’entrée et à la sortie de 24 bâtiments d’élevages avicoles au Québec, Canada. L’effet des audits et de caméras visibles sur l’observance a été étudié, de même que les déterminants de l’observance. De plus, la relation entre l’observance et les profils de personnalité, l’expérience et l’éducation a été décrite. L’application des mesures de biosécurité a été évaluée à l’aide de caméras cachées. L’observance à court terme (deux premières semaines) et à moyen terme (six mois plus tard) a été déterminée. Basés sur les résultats du groupe contrôle, 44 différentes erreurs lors de l’application des mesures de biosécurité ont été observées à l’entrée et la sortie des bâtiments. La plupart étaient reliées à la délimitation des zones (propre versus contaminée). La nature et la fréquence des erreurs suggèrent un manque de compréhension des principes associés aux mesures de biosécurité. Le visionnement des vidéos a révélé 3055 visites par 277 individus différents (136 employés, 123 visiteurs, 3 superviseurs et 15 éleveurs). Les résultats ont démontré que les audits n’avaient pas d’impact sur l’observance des employés. Les caméras visibles ont eu un impact, à court terme, sur le port de bottes et le respect des zones durant la visite. Par contre, six mois plus tard, l’observance avait significativement diminué, au point de ne plus être statistiquement plus élevée que le groupe contrôle. La durée et le moment de la visite, la présence de l’éleveur ou d’un observateur, la conception de l’entrée, le nombre de bâtiments, le nombre de mesures de biosécurité exigé, le type de bottes, le genre et être membre de la famille de l’éleveur étaient significativement associés à l’observance de certaines mesures. Finalement, trois traits de la personnalité étaient associés à l’observance: responsabilité, orienté vers l’action et complexité, de même que le nombre d’années d’expérience et le niveau d’éducation. Il est nécessaire d’améliorer la formation en matière de biosécurité en fournissant du matériel de formation à tous les intervenants qui démontrent pourquoi et comment appliquer les mesures de biosécurité. La formation continue devrait également aborder les problématiques reliées aux caractéristiques de visites et de fermes. Améliorer la conception des entrées de bâtiments devrait contribuer à augmenter et à maintenir l’observance. L’identification de traits de personnalité associés à l’observance peut avoir des implications sur la sélection des candidats à l’embauche ou sur l’attribution de tâches et sur la planification des programmes de formation.