212 resultados para Sols--Essais
Resumo:
La scoliose idiopathique de l’adolescence (SIA) est une pathologie de cause inconnue impliquant une déformation tridimensionnelle de la colonne vertébrale et de la cage thoracique. Cette pathologie affecte, entre autres, les vertèbres ainsi que les muscles paraspinaux. Ces composantes de la colonne vertébrale jouent un rôle important lors de la marche. Dix sujets témoins et neuf sujets SIA ont effectué dix essais de marche à vitesse normale sur un corridor de marche de dix mètres dans lequel était inséré deux plates-formes de force. De plus, un système de huit caméras (VICON) a permis de calculer les coordonnées tridimensionnelles des 30 marqueurs utilisés afin d’analyser la cinématique des sujets. Les variables faisant l’objet de cette étude sont les amplitudes totales, minimales et maximales des rotations des ceintures pelvienne et scapulaire dans les plans transverse et frontal de même que les coefficients de corrélation et de variation de ces segments. Des tests de Student ont été utilisés pour l’analyse statistique. Malgré le fait qu’aucune différence significative n’a été observée, dans aucun des plans, entre les amplitudes des rotations des ceintures pelvienne et scapulaire entre les groupes témoin et SIA, une différence significative en ce qui a trait aux minimums de rotations pelviennes et scapulaires, dans le plan transverse, a été observée. Cette différence suggère une asymétrie dans les rotations effectuées par ces segments à la marche à vitesse naturelle chez une population atteinte de SIA.
Resumo:
Le principal objectif de ce mémoire est l’étude de l’inscription de la maternité dans L’empreinte de l’ange, La virevolte et Prodige de Nancy Huston. Les trois romans précités constituent mon corpus de base. Néanmoins, des allusions à d’autres écrits de l’auteure, notamment à Journal de la création, donneront une plus grande profondeur à l’analyse, car on ne peut ni écarter les traces du thème de la maternité dans ses autres textes ni mésestimer l’influence de l’expérience de l’auteure sur son œuvre. Dans la foulée de la réflexion féministe contemporaine sur la maternité et faisant recours, selon le besoin, à la Nouvelle Histoire et à la psychanalyse, pour éclairer le contexte sociohistorique et le non-dit des textes, nous essaierons de dégager la singularité de l’écriture hustonienne en ce qui concerne ses idées sur la maternité. En effet, Nancy Huston s’inscrit dans la lignée d’écrivaines qui ont contribué à redéfinir l’identité féminine dans la fiction contemporaine en esquissant, à travers ses romans et essais, une multiplicité d’expériences féminines, toutes différentes, bien que plus ou moins soumises aux valeurs sociales dont l’auteure mesure la force. Nous abordons notre analyse par une mise en contexte historique, culturelle et éthique de la maternité. En effet, comme le thème de la maternité est omniprésent dans le discours social passé et contemporain, il est intéressent de voir comment Nancy Huston compose avec les stéréotypes traditionnellement attribués à la mère en suivant les enjeux, les conséquences et les variations de la maternité dans les œuvres à l’étude. Suivront à la mise en contexte historique et théorique les chapitres destinés à l’analyse des œuvres. Le deuxième chapitre portera sur L’empreinte de l’ange dévoilant les perplexités qui naissent d’une maternité non désirée et ombragée par les séquelles d’un passé tragique. Le troisième chapitre, consacré à l’analyse de La virevolte, s’articule autour de la tension entre la création et la procréation. Enfin, le quatrième et dernier chapitre aborde la maternité dans Prodige, roman où il est surtout question du lien entre emprise maternelle et construction de l’identité de la fille. À travers cette analyse, nous verrons comment Nancy Huston déconstruit le lieu commun voulant que la mère soit cet être idéalisé, privé de passions professionnelles et de pulsions artistiques, se dédiant uniquement à la protection et aux soins de l’enfant pour représenter plutôt des mères animées par des sentiments contradictoires, des mères qui se positionnent avant tout comme femmes sans inhiber leurs élans, leurs passions ni leurs tourments.
Resumo:
Ayant recours aux théories de l’intertextualité et de la citation telles que développées par Genette, Compagnon et Morawski, ce mémoire met en relation deux corpus distincts mais complémentaires : les principaux essais d’Hubert Aquin, de Gaston Miron et des collaborateurs de la revue Parti pris sont analysés comme réécriture des textes (ou réélaboration des idées) d’Aimé Césaire, de Frantz Fanon et d’Albert Memmi, figures dominantes du discours de la décolonisation francophone. L’approche adoptée vise à mettre en lumière les bases sur lesquelles les intellectuels québécois tâchèrent de justifier leur réutilisation du discours de la décolonisation. Elle permet aussi d’observer dans quelle mesure ce discours orienta la réflexion entourant la redéfinition du nationalisme au Québec, en plus de faciliter sa diffusion. Articulé autour de trois grands axes – l’identité culturelle, les conflits linguistiques ainsi que le rôle de la littérature et de l’écrivain dans le combat pour l’émancipation nationale –, ce mémoire démontre que l'établissement d'un tel partenariat symbolique a été d'un grand apport quant à l'appartenance du Québec à la francophonie.
Resumo:
Trois expériences ont été menées dans le but de déterminer quels codes sous-tendant la représentation de l’organisation spatiale des composantes des formes complexes contribuent aux discriminations d’objets complexes. Les trois expériences ont utilisé une tâche d’appariement simultané d’objets complexes. Aux essais négatifs, les objets pouvaient avoir des différences catégorielles de configuration, des différences métriques de configuration, des différences métriques de configuration et du rôle des parties ou des différences du rôle des parties seulement. La distance angulaire 2D ou 3D entre les stimuli pouvait varier. À l’expérience 1, les stimuli étaient présentés avec stéréoscopie et avaient une surface avec un gradient de texture de haut contraste. L’expérience 2 constitue une réplication de l’expérience 1 hormis pour l’utilisation de stimuli dont le contraste était réduit. Le but de cette manipulation était de vérifier si les résultats de l’expérience 1 sont répliqués avec une tâche dont le niveau de difficulté est plus élevé. Les stimuli de la troisième expérience avaient une surface gris mat et étaient présentés sans stéréoscopie. Les trois expériences ont montré que des codes catégoriel et pertinent aux rôles des parties contribuent à la discrimination d’objets complexes. Toutefois, ces codes sont dépendants aux orientations 2D et 3D, et ce, peu importe la richesse de l’information de profondeur présente dans les stimuli. De plus, nos résultats démontrent une plus grande sensibilité aux différences catégorielles de configuration qu’aux différences métriques. Enfin, un code métrique contribue également aux discriminations. Toutefois, la contribution de ce code disparaît lorsque la quantité d’information de profondeur est réduite.
Resumo:
La dernière décennie a connu un intérêt croissant pour les problèmes posés par les variables instrumentales faibles dans la littérature économétrique, c’est-à-dire les situations où les variables instrumentales sont faiblement corrélées avec la variable à instrumenter. En effet, il est bien connu que lorsque les instruments sont faibles, les distributions des statistiques de Student, de Wald, du ratio de vraisemblance et du multiplicateur de Lagrange ne sont plus standard et dépendent souvent de paramètres de nuisance. Plusieurs études empiriques portant notamment sur les modèles de rendements à l’éducation [Angrist et Krueger (1991, 1995), Angrist et al. (1999), Bound et al. (1995), Dufour et Taamouti (2007)] et d’évaluation des actifs financiers (C-CAPM) [Hansen et Singleton (1982,1983), Stock et Wright (2000)], où les variables instrumentales sont faiblement corrélées avec la variable à instrumenter, ont montré que l’utilisation de ces statistiques conduit souvent à des résultats peu fiables. Un remède à ce problème est l’utilisation de tests robustes à l’identification [Anderson et Rubin (1949), Moreira (2002), Kleibergen (2003), Dufour et Taamouti (2007)]. Cependant, il n’existe aucune littérature économétrique sur la qualité des procédures robustes à l’identification lorsque les instruments disponibles sont endogènes ou à la fois endogènes et faibles. Cela soulève la question de savoir ce qui arrive aux procédures d’inférence robustes à l’identification lorsque certaines variables instrumentales supposées exogènes ne le sont pas effectivement. Plus précisément, qu’arrive-t-il si une variable instrumentale invalide est ajoutée à un ensemble d’instruments valides? Ces procédures se comportent-elles différemment? Et si l’endogénéité des variables instrumentales pose des difficultés majeures à l’inférence statistique, peut-on proposer des procédures de tests qui sélectionnent les instruments lorsqu’ils sont à la fois forts et valides? Est-il possible de proposer les proédures de sélection d’instruments qui demeurent valides même en présence d’identification faible? Cette thèse se focalise sur les modèles structurels (modèles à équations simultanées) et apporte des réponses à ces questions à travers quatre essais. Le premier essai est publié dans Journal of Statistical Planning and Inference 138 (2008) 2649 – 2661. Dans cet essai, nous analysons les effets de l’endogénéité des instruments sur deux statistiques de test robustes à l’identification: la statistique d’Anderson et Rubin (AR, 1949) et la statistique de Kleibergen (K, 2003), avec ou sans instruments faibles. D’abord, lorsque le paramètre qui contrôle l’endogénéité des instruments est fixe (ne dépend pas de la taille de l’échantillon), nous montrons que toutes ces procédures sont en général convergentes contre la présence d’instruments invalides (c’est-à-dire détectent la présence d’instruments invalides) indépendamment de leur qualité (forts ou faibles). Nous décrivons aussi des cas où cette convergence peut ne pas tenir, mais la distribution asymptotique est modifiée d’une manière qui pourrait conduire à des distorsions de niveau même pour de grands échantillons. Ceci inclut, en particulier, les cas où l’estimateur des double moindres carrés demeure convergent, mais les tests sont asymptotiquement invalides. Ensuite, lorsque les instruments sont localement exogènes (c’est-à-dire le paramètre d’endogénéité converge vers zéro lorsque la taille de l’échantillon augmente), nous montrons que ces tests convergent vers des distributions chi-carré non centrées, que les instruments soient forts ou faibles. Nous caractérisons aussi les situations où le paramètre de non centralité est nul et la distribution asymptotique des statistiques demeure la même que dans le cas des instruments valides (malgré la présence des instruments invalides). Le deuxième essai étudie l’impact des instruments faibles sur les tests de spécification du type Durbin-Wu-Hausman (DWH) ainsi que le test de Revankar et Hartley (1973). Nous proposons une analyse en petit et grand échantillon de la distribution de ces tests sous l’hypothèse nulle (niveau) et l’alternative (puissance), incluant les cas où l’identification est déficiente ou faible (instruments faibles). Notre analyse en petit échantillon founit plusieurs perspectives ainsi que des extensions des précédentes procédures. En effet, la caractérisation de la distribution de ces statistiques en petit échantillon permet la construction des tests de Monte Carlo exacts pour l’exogénéité même avec les erreurs non Gaussiens. Nous montrons que ces tests sont typiquement robustes aux intruments faibles (le niveau est contrôlé). De plus, nous fournissons une caractérisation de la puissance des tests, qui exhibe clairement les facteurs qui déterminent la puissance. Nous montrons que les tests n’ont pas de puissance lorsque tous les instruments sont faibles [similaire à Guggenberger(2008)]. Cependant, la puissance existe tant qu’au moins un seul instruments est fort. La conclusion de Guggenberger (2008) concerne le cas où tous les instruments sont faibles (un cas d’intérêt mineur en pratique). Notre théorie asymptotique sous les hypothèses affaiblies confirme la théorie en échantillon fini. Par ailleurs, nous présentons une analyse de Monte Carlo indiquant que: (1) l’estimateur des moindres carrés ordinaires est plus efficace que celui des doubles moindres carrés lorsque les instruments sont faibles et l’endogenéité modérée [conclusion similaire à celle de Kiviet and Niemczyk (2007)]; (2) les estimateurs pré-test basés sur les tests d’exogenété ont une excellente performance par rapport aux doubles moindres carrés. Ceci suggère que la méthode des variables instrumentales ne devrait être appliquée que si l’on a la certitude d’avoir des instruments forts. Donc, les conclusions de Guggenberger (2008) sont mitigées et pourraient être trompeuses. Nous illustrons nos résultats théoriques à travers des expériences de simulation et deux applications empiriques: la relation entre le taux d’ouverture et la croissance économique et le problème bien connu du rendement à l’éducation. Le troisième essai étend le test d’exogénéité du type Wald proposé par Dufour (1987) aux cas où les erreurs de la régression ont une distribution non-normale. Nous proposons une nouvelle version du précédent test qui est valide même en présence d’erreurs non-Gaussiens. Contrairement aux procédures de test d’exogénéité usuelles (tests de Durbin-Wu-Hausman et de Rvankar- Hartley), le test de Wald permet de résoudre un problème courant dans les travaux empiriques qui consiste à tester l’exogénéité partielle d’un sous ensemble de variables. Nous proposons deux nouveaux estimateurs pré-test basés sur le test de Wald qui performent mieux (en terme d’erreur quadratique moyenne) que l’estimateur IV usuel lorsque les variables instrumentales sont faibles et l’endogénéité modérée. Nous montrons également que ce test peut servir de procédure de sélection de variables instrumentales. Nous illustrons les résultats théoriques par deux applications empiriques: le modèle bien connu d’équation du salaire [Angist et Krueger (1991, 1999)] et les rendements d’échelle [Nerlove (1963)]. Nos résultats suggèrent que l’éducation de la mère expliquerait le décrochage de son fils, que l’output est une variable endogène dans l’estimation du coût de la firme et que le prix du fuel en est un instrument valide pour l’output. Le quatrième essai résout deux problèmes très importants dans la littérature économétrique. D’abord, bien que le test de Wald initial ou étendu permette de construire les régions de confiance et de tester les restrictions linéaires sur les covariances, il suppose que les paramètres du modèle sont identifiés. Lorsque l’identification est faible (instruments faiblement corrélés avec la variable à instrumenter), ce test n’est en général plus valide. Cet essai développe une procédure d’inférence robuste à l’identification (instruments faibles) qui permet de construire des régions de confiance pour la matrices de covariances entre les erreurs de la régression et les variables explicatives (possiblement endogènes). Nous fournissons les expressions analytiques des régions de confiance et caractérisons les conditions nécessaires et suffisantes sous lesquelles ils sont bornés. La procédure proposée demeure valide même pour de petits échantillons et elle est aussi asymptotiquement robuste à l’hétéroscédasticité et l’autocorrélation des erreurs. Ensuite, les résultats sont utilisés pour développer les tests d’exogénéité partielle robustes à l’identification. Les simulations Monte Carlo indiquent que ces tests contrôlent le niveau et ont de la puissance même si les instruments sont faibles. Ceci nous permet de proposer une procédure valide de sélection de variables instrumentales même s’il y a un problème d’identification. La procédure de sélection des instruments est basée sur deux nouveaux estimateurs pré-test qui combinent l’estimateur IV usuel et les estimateurs IV partiels. Nos simulations montrent que: (1) tout comme l’estimateur des moindres carrés ordinaires, les estimateurs IV partiels sont plus efficaces que l’estimateur IV usuel lorsque les instruments sont faibles et l’endogénéité modérée; (2) les estimateurs pré-test ont globalement une excellente performance comparés à l’estimateur IV usuel. Nous illustrons nos résultats théoriques par deux applications empiriques: la relation entre le taux d’ouverture et la croissance économique et le modèle de rendements à l’éducation. Dans la première application, les études antérieures ont conclu que les instruments n’étaient pas trop faibles [Dufour et Taamouti (2007)] alors qu’ils le sont fortement dans la seconde [Bound (1995), Doko et Dufour (2009)]. Conformément à nos résultats théoriques, nous trouvons les régions de confiance non bornées pour la covariance dans le cas où les instruments sont assez faibles.
Resumo:
L’objectif de notre recherche est l’exploration et l’étude de la question de l’instrumentation informatique des projets de reconstitution archéologiques en architecture monumentale dans le but de proposer de nouveaux moyens. La recherche a pour point de départ une question, à savoir : « Comment, et avec quels moyens informatiques, les projets de reconstitution architecturale pourraient-ils être menés en archéologie? ». Cette question a nécessité, en premier lieu, une étude des différentes approches de restitution qui ont été mises à contribution pour des projets de reconstitution archéologiques, et ceci, à ses différentes phases. Il s’agit de comprendre l’évolution des différentes méthodologies d’approche (épistémologiquement) que les acteurs de ce domaine ont adoptées afin de mettre à contribution les technologies d’information et de communication (TIC) dans le domaine du patrimoine bâti. Cette étude nous a permis de dégager deux principales avenues: une première qui vise exclusivement la « représentation » des résultats des projets et une seconde qui vise la modélisation de ce processus dans le but d’assister l’archéologue dans les différentes phases du projet. Nous démontrons que c’est la deuxième approche qui permet la combinaison et met à la disposition des archéologues une meilleure exploitation des possibilités que l’outil informatique peut et pourra présenter. Cette partie permet de démontrer la nature systémique et complexe de la mise à contribution des TICs dans le domaine de la restitution archéologique. La multitude des acteurs, des conditions techniques, culturelles et autres, des moyens utilisés ainsi que la variété des objectifs envisagés dans les projets de reconstitution archéologiques poussent à explorer une nouvelle approche qui tient compte de cette complexité. Pour atteindre notre objectif de recherche, la poursuite de l’étude de la nature de la démarche archéologique s’impose. Il s’agit de comprendre les liens et les interrelations qui s’établissent entre les différentes unités techniques et intellectuelles en jeu ainsi que les différents modes de réflexions présents dans les projets de reconstitution archéologique du patrimoine bâti. Cette étude met en évidence le rapport direct entre le caractère subjectif de la démarche avec la grande variabilité des approches et des raisonnements mis en œuvre. La recherche est alors exploratoire et propositionnelle pour confronter notamment le caractère systémique et complexe de l’expérience concrète et à travers les publications savantes, les éléments de la réalité connaissable. L’étude des raisonnements archéologiques à travers les publications savantes nous permet de proposer une première typologie de raisonnements étudiés. Chacune de ces typologies reflète une méthodologie d’approche basée sur une organisation d’actions qui peut être consignée dans un ensemble de modules de raisonnements. Cette recherche fait ressortir, des phénomènes et des processus observés, un modèle qui représente les interrelations et les interactions ainsi que les produits spécifiques de ces liaisons complexes. Ce modèle témoigne d’un processus récursif, par essais et erreurs, au cours duquel l’acteur « expérimente » successivement, en fonction des objectifs de l’entreprise et à travers des modules de raisonnements choisis, plusieurs réponses aux questions qui se posent à lui, au titre de la définition du corpus, de la description, de la structuration, de l’interprétation et de la validation des résultats, jusqu’à ce que cette dernière lui paraisse satisfaire aux objectifs de départ. Le modèle établi est validé à travers l’étude de cas du VIIème pylône du temple de Karnak en Égypte. Les résultats obtenus montrent que les modules de raisonnements représentent une solution intéressante pour assister les archéologues dans les projets de reconstitution archéologiques. Ces modules offrent une multiplicité de combinaisons des actions et avantagent ainsi une diversité d’approches et de raisonnements pouvant être mis à contribution pour ces projets tout en maintenant la nature évolutive du système global.
Resumo:
Résumé La prédominance de l'obésité qui touche les enfants et les adultes a augmenté dans le monde entier ces dernières décennies. Les différentes études épidémiologiques ont prouvé que l'obésité est devenue une préoccupation profonde de santé aux États-Unis et au Canada. Il a été montré que l'obésité a beaucoup d’effets sur la santé ainsi il serait important de trouver différentes causes pour le gain de poids. Il est clair que l'obésité soit la condition de multiples facteurs et implique des éléments génétiques et environnementaux. Nous nous concentrons sur les facteurs diététiques et particulièrement le fructose où sa consommation a parallèlement augmenté avec l'augmentation du taux d'obésité. La forme principale du fructose est le sirop de maïs à haute teneur en fructose (HFCS) qui est employé en tant qu'édulcorant primordial dans la plupart des boissons et nourritures en Amérique du Nord. Il a été suggéré que la prise du fructose serait probablement un facteur qui contribue à l’augmentation de la prédominance de l'obésité. L'objectif de cette étude était d'évaluer s'il y a un rapport entre la consommation du fructose et le risque d'obésité. Nous avons travaillé sur deux bases de données des nations Cree et Inuit. Nous avons eu un groupe de 522 adultes Cree, (263 femmes et 259 hommes) dans deux groupes d'âge : les personnes entre 20 et 40 ans, et les personnes de 40 à 60 ans. Nous les avons classés par catégorie en quatre groupes d'indice de masse corporelle (IMC). L'outil de collecte de données était un rappel de 24 heures. En revanche, pour la base de données d'Inuit nous avons eu 550 adultes (301 femmes et 249 hommes) dans deux groupes d'âge semblables à ceux du Cree et avec 3 catégories d’indice de masse corporelle. Les données dans la base d'Inuit ont été recueillies au moyen de deux rappels de 24 heures. Nous avons extrait la quantité de fructose par 100 grammes de nourriture consommés par ces deux populations et nous avons créé des données de composition en nourriture pour les deux. Nous avons pu également déterminer les sources principales du fructose pour ces populations. Aucun rapport entre la consommation du fructose et l’augmentation de l’indice de masse corporelle parmi les adultes de Cree et d'Inuit n’a été détecté. Nous avons considéré l’apport énergétique comme facteur confondant potentiel et après ajustement, nous avons constaté que l'indice de masse corporelle a été associé à l’apport énergétique total et non pas à la consommation du fructose. Puisque dans les études qui ont trouvé une association entre la consommation de fructose et l’obésité, le niveau de la consommation de fructose était supérieure à 50 grammes par jour et comme dans cette étude ce niveau était inférieur à cette limite (entre 20.6 et 45.4 g/jour), nous proposons que des effets negatifs du fructose sur la masse corporelle pourraient être testés dans des populations à plus haute consommation. Les essais cliniques randomisés et éventuelles études cohortes avec différents niveaux de consommation de fructose suivis à long terme pourraient aussi être utiles. Mots clés : fructose, sirop de maïs à haute teneur en fructose (HFCS), obésité et poids excessif
Resumo:
Lors d’une tâche de pointage manuel, la présence de corrections rapides, adaptées, automatiques et même réflexes (Franklin et Wolpert, 2008) suite à une perturbation par saut de curseur a pu être observée dans de nombreuses études. Ici, nous avons souhaité déterminer si ces corrections étaient purement réflexes où si elles étaient amorcées seulement lorsque la perturbation mettait en péril l’atteinte de la cible ; ces corrections ont-elles aussi un aspect fonctionnel ? Dans une première expérience nous avons fait varier la taille des cibles (5 ou 30 mm de diamètre) et des sauts du curseur (5, 15 ou 25 mm) de manière à obtenir certaines combinaisons où la cible pourrait être atteinte sans qu’aucune correction du mouvement pour contrecarrer l’effet du saut du curseur ne soit nécessaire. Des corrections réduisant l’erreur d’environ 65% ont été observées dans toutes les conditions. Dans une seconde expérience, les participants devaient atteindre une très grande cible (arc de 30°) et un saut de curseur de 15 mm était introduit pour certains essais peu de temps après l’amorce du mouvement. Les participants ont modifié leur mouvement dans le sens opposé à celui de la perturbation, et cela même s’ils n’avaient pas détecté consciemment le saut. Cependant, ces corrections étaient moins rapides et plus petites (42% de l’amplitude du saut de curseur) que celles observées lors de la première expérience. Nos résultats supportent le fait que l’amorce des corrections pour des erreurs de trajectoire induites expérimentalement soit de nature réflexe. Un deuxième processus serait alors responsable du déroulement de ces corrections ; ce deuxième processus est basé, entre autres, sur les caractéristiques de la cible.
Resumo:
Le phénomène de Clignement Attentionnel (Attentional Blink, AB), fait référence à une diminution transitoire du rapport exact d’une deuxième cible (C2) si celle-ci est présentée trop tôt après une première cible (C1) lors d’une présentation visuelle sérielle rapide (rapid serial visual presentation, RSVP), et ce, quand les deux cibles doivent être rapportées. Cette étude a examiné l’existence possible d’asymétries hémisphèriques dans le traitement attentionnel ainsi que l’éventualité que la présentation de cibles à deux hémisphères différents puisse diminuer le AB chez des participants neurologiquement sains et l’abolir dans le cas d’un patient callosotomisé. Pour ce faire, nous avons employé un paradigme modifié du AB dans lequel les cibles pouvaient apparaître dans n’importe quelle de quatre RSVP, une dans chaque quadrant du champ visuel, pour permettre des essais dans lesquels les deux cibles puissent être présentées au même hémisphère et d’autres où chaque cible était présentée à un hémisphère différent. Bien que nous n’ayons trouvé aucune diminution de l’effet AB lors de présentation inter-hémisphérique, dans les deux populations à l’étude, le taux de bonnes réponses globales à la deuxième cible était plus élevé quand les cibles étaient présentées à des hémisphères différents. Nous avons également trouvé un avantage de l’hémisphère gauche chez le patient callosotomisé.
Resumo:
Le dogme voulant que les récepteurs couplés aux protéines G (GPCRs) activent des voies de signalisation seulement lorsqu’ils sont localisés à la membrane plasmatique, a récemment été remis en question. Des données récentes indiquent que certains GPCRs peuvent également induire une réponse intracellulaire à partir des compartiments intracellulaires dont le noyau. Les récepteurs activés par la protéase (PAR) sont des membres de la famille GPCR. Les PARs sont activés par le clivage de la partie N–terminale du récepteur ce qui permet au ligand attaché sur le récepteur de se lier à sa poche réceptrice. Quatre PARs ont été décrits : PAR1, PAR2, PAR3 et PAR4. PAR2 peut susciter des effets mitogéniques et participer aux processus comme l’angiogenèse et l'inflammation. Alors que beaucoup d'effets intracellulaires de PAR2 peuvent être expliqués lorsqu’il est localisé à la membrane plasmatique, une fonction intracrine de PAR2 a aussi été proposée. Pourtant les mécanismes par lesquels PAR2 peut provoquer l’expression de gènes ciblés sont toujours inconnus. Le but de notre étude était de vérifier l’existence d’une population nucléaire de PAR2. Nous avons également émis l’hypothèse que les voies activées par l’activation de PAR2 dépendent de sa localization cellulaire. En utilisant des techniques de microscopie confocale et de "Western Blot" nous avons démontré la présence d’une population nucléaire de PAR2. À la suite de la stimulation de PAR2, nous avons observé une augmentation de la translocation du récepteur de la membrane plasmatique au noyau. En utilisant la technique de "RT – PCR", nous avons observé des rôles différents de PAR2 à la surface de la cellule et du noyau dans l’initiation de l’expression des gènes. Afin d’identifier les mécanismes responsables de la translocation nucléaire de PAR2, nous avons évalué l’implication des membres de la famille de "Sorting Nexins (SNX)" dans la translocation nucléaire de PAR2. "Sorting Nexins" est un groupe de protéines avec des fonctions de transport bien établies. SNX1 et SNX2 ont été identifiés comme responsables du transfert de PAR1 vers les lysosomes. SNX11 n'a pas encore été étudié et nous avons émis l’hypothèse qu'il pourrait être un autre membre de la famille des SNX impliqué dans la signalisation de PAR2. Pour ce faire, nous avons développé des "knockdowns" stables pour SNX1, SNX2 et SNX11 dans les cellules HEK293. En utilisant les essais d’immunofluorescence, "Western Blot" et de cytométrie en flux, nous avons déterminé que tous les trois membres du groupe SNX sont des partenaires d'interaction de PAR2. Toutefois, seul SNX11 se co-localise avec son partenaire au noyau et est responsable de sa translocation nucléaire. Les expériences de "RT - PCR" sur les lignées de cellule de SNXs "knockdowns" ont démontré que la fonction de PAR2 nucléaire dépend surtout de SNX11; néanmoins SNX1 et SNX2 peuvent aussi l’influencer, suggérant qu'ils font aussi partie du réseau signalétique de PAR2. En conclusion, PAR2 est déplacé de la membrane plasmatique à la membrane nucléaire après sa stimulation avec un agoniste. La translocation nucléaire de PAR2 par un mécanisme impliquant SNX11, initie des effets intracellulaires différents de sa signalisation membranaire. Mots clés : récepteurs couplés à la protéine G, “Sorting Nexins”, récepteurs activés par la protéase, translocation nucléaire, membrane nucléaire, signal nucléaire.
Resumo:
Ce mémoire prend comme point de départ le paradoxe central qui marque l’écriture de Pierre Perrault : le fait qu’en dehors de son travail cinématographique, il écrit des textes littéraires alors qu’il refuse à la fois le statut d’écrivain et la catégorie même de « littérature ». L’analyse du discours des poèmes du recueil Gélivures et des essais du recueil De la parole aux actes permet de montrer que Perrault arrive, grâce à tout un imaginaire de la parole, à écrire en se dégageant symboliquement de la littérature, dont il critique la volonté de conquête. Ce mémoire fait appel à une critique où la réflexion sur la langue joue un grand rôle, à la croisée de l’histoire et du social. Le premier chapitre traite de ce que signifie la parole chez Perrault et de ce qu’elle implique. Sont abordés en particulier le champ sémantique qui entoure ce motif omniprésent dans son œuvre ainsi que les rapprochements métaphoriques entre parole, mémoire et identités. Le deuxième chapitre porte sur les manifestations plus directes de la parole, soit le don que fait Perrault de la parole à travers son œuvre. Sont étudiés l’intertextualité, la mise en page et le travail de la citation. La volonté de prise de parole de Perrault lui-même est étudiée au dernier chapitre. Son écriture est alors envisagée comme un combat pour la défense d’une parole qui est d’ailleurs étroitement liée à sa quête identitaire, laquelle inspire un style foncièrement polémique et la recherche d’une énonciation qu’on pourrait qualifier de performative.
Resumo:
Résumé en français Objectifs : Ce mémoire propose d’explorer l’assiduité aux interventions psychosociales chez les personnes atteintes de troubles psychotiques en répondant à trois questions : 1- Quels sont les facteurs influençant l’assiduité aux interventions psychosociales pour une clientèle atteinte de troubles psychotiques? 2- Sont-ils comparables aux facteurs influençant l’observance à la médication? 3- Quel est le taux d’abandon des interventions psychosociales et quels sont les facteurs qui font varier ce taux? Méthodes : Cette étude a permis de faire la synthèse des facteurs influençant l’observance à la médication à partir des revues systématiques publiées sur le sujet, et d’établir les facteurs influençant l’assiduité aux interventions psychosociales à partir des raisons d’abandon citées dans les essais cliniques randomisés publiés. Une méta-analyse a permis de combiner les essais cliniques rapportant les abandons et ainsi d’en établir un taux. Résultats : Nous avons répertorié 92 essais cliniques randomisés sur les interventions psychosociales avec les personnes atteintes de troubles psychotiques. De ce nombre, 43 ont permis de répertorier les raisons d’abandon. Les raisons d’abandon s’avèrent principalement liées à la maladie et liées à l’accessibilité, la continuité et la qualité des soins et services. Un taux d’abandon de 13% a été obtenu à partir de l’agrégation de 74 études dans la méta-analyse. Des facteurs faisant varier ce taux ont été identifiés. Conclusion : Plusieurs facteurs (personnels, lié aux traitements, sociaux) influençant l’assiduité aux interventions psychosociales chez les personnes atteintes de troubles psychotiques ont été identifiés. De plus, le faible taux d’abandon obtenu démontre bien la faisabilité clinique de ce type d’intervention. S’ajoutant à l’efficacité déjà bien démontrée de certaines modalités d’intervention psychosociales, le taux d’assiduité à ces mêmes modalités constitue un argument supplémentaire pour en assurer la disponibilité aux personnes atteintes d’un trouble psychotique.
Resumo:
Le transporteur de Na+/ acide monocarboxylique sensible à l’ibuprofène (SMCT1) est exprimé dans la membrane apicale de plusieurs épithélia. Son rôle physiologique dans la glande thyroïde reste cependant obscur mais on présume qu’il pourrait agir comme un transporteur apical d’iode nécessaire pour la synthèse des hormones thyroïdiennes. Récemment, on a montré que SMCT1 possède un courant de fuite anionique sensible à [Na+]e qui permettrait de transporter l’iode de façon électrogénique. Cependant, un efflux d’iode sensible à l’ibuprofène, mais indépendant de la [Na+]e a été aussi observé sur des cultures primaires des thyrocytes porcins, suggérant un autre mécanisme de transport d’iode par SMCT1. Ce travail vise à comprendre les caractéristiques de ce genre de transport en utilisant comme modèle d’expression les ovocytes de Xenopus laevis. Les résultats obtenus des essais de captation d’iode radioactif montrent que SMCT1 présente un transport d’iode sensible à l’ibuprofène de l’ordre de 30nmol/ovocyte/h. Si ce transport est non saturable en iode (0-100 mM), il nécessite du Na+ dans la solution externe. En effet, le remplacement du Na+ extracellulaire par le NMDG inhibe complètement le transport. En outre, on s’est intéressé à exclure la possibilité de différents artefacts. En ayant trouvé que la grande majorité de l’iode radioactif se trouve dans la partie soluble de l’ovocyte, on exclut une liaison non spécifique de l’iode à la membrane cellulaire. Cependant, une bonne proportion de l’iode transporté pourrait être liée à des protéines à l’intérieur de l`ovocyte. En effet, on observe une réduction du transport d’iode dans les ovocytes exprimant SMCT1 de 81,6 ± 2 % en présence de 2 % BSA dans la solution extracellulaire. Également, on écarte la possibilité que le transport d’iode soit le résultat de la surexpression de protéines de transport endogènes dont les canaux chlore. Le transport d’iode semble spécifique à l’expression de SMCT1 et de manière intéressante à l’expression d’un autre transporteur de monocarboxylates, MCT1. L’analyse de l’ensemble des essais, y compris le fait que l’amplitude du transport observé est 20 fois plus grande que celle du courant de fuite nous mène à proposer que SMCT1 puisse transporter l’iode de façon électroneutre. Cependant, le mécanisme par lequel ceci est accompli n’est pas évident à identifier. L’utilisation d’un autre modèle cellulaire serait surement utile pour répondre à cette question.