990 resultados para Paul-Deuxième Épître aux Corinthiens
Resumo:
Dans cette thèse, nous analysons les propriétés géométriques des surfaces obtenues des solutions classiques des modèles sigma bosoniques et supersymétriques en deux dimensions ayant pour espace cible des variétés grassmanniennes G(m,n). Plus particulièrement, nous considérons la métrique, les formes fondamentales et la courbure gaussienne induites par ces surfaces naturellement plongées dans l'algèbre de Lie su(n). Le premier chapitre présente des outils préliminaires pour comprendre les éléments des chapitres suivants. Nous y présentons les théories de jauge non-abéliennes et les modèles sigma grassmanniens bosoniques ainsi que supersymétriques. Nous nous intéressons aussi à la construction de surfaces dans l'algèbre de Lie su(n) à partir des solutions des modèles sigma bosoniques. Les trois prochains chapitres, formant cette thèse, présentent les contraintes devant être imposées sur les solutions de ces modèles afin d'obtenir des surfaces à courbure gaussienne constante. Ces contraintes permettent d'obtenir une classification des solutions en fonction des valeurs possibles de la courbure. Les chapitres 2 et 3 de cette thèse présentent une analyse de ces surfaces et de leurs solutions classiques pour les modèles sigma grassmanniens bosoniques. Le quatrième consiste en une analyse analogue pour une extension supersymétrique N=2 des modèles sigma bosoniques G(1,n)=CP^(n-1) incluant quelques résultats sur les modèles grassmanniens. Dans le deuxième chapitre, nous étudions les propriétés géométriques des surfaces associées aux solutions holomorphes des modèles sigma grassmanniens bosoniques. Nous donnons une classification complète de ces solutions à courbure gaussienne constante pour les modèles G(2,n) pour n=3,4,5. De plus, nous établissons deux conjectures sur les valeurs constantes possibles de la courbure gaussienne pour G(m,n). Nous donnons aussi des éléments de preuve de ces conjectures en nous appuyant sur les immersions et les coordonnées de Plücker ainsi que la séquence de Veronese. Ces résultats sont publiés dans la revue Journal of Geometry and Physics. Le troisième chapitre présente une analyse des surfaces à courbure gaussienne constante associées aux solutions non-holomorphes des modèles sigma grassmanniens bosoniques. Ce travail généralise les résultats du premier article et donne un algorithme systématique pour l'obtention de telles surfaces issues des solutions connues des modèles. Ces résultats sont publiés dans la revue Journal of Geometry and Physics. Dans le dernier chapitre, nous considérons une extension supersymétrique N=2 du modèle sigma bosonique ayant pour espace cible G(1,n)=CP^(n-1). Ce chapitre décrit la géométrie des surfaces obtenues des solutions du modèle et démontre, dans le cas holomorphe, qu'elles ont une courbure gaussienne constante si et seulement si la solution holomorphe consiste en une généralisation de la séquence de Veronese. De plus, en utilisant une version invariante de jauge du modèle en termes de projecteurs orthogonaux, nous obtenons des solutions non-holomorphes et étudions la géométrie des surfaces associées à ces nouvelles solutions. Ces résultats sont soumis dans la revue Communications in Mathematical Physics.
Resumo:
La présente recherche traite des conflits d’aménagement pouvant être décelés dans les cuisines domiciliaires modernes. L’ajout d’objets mécanisés au rituel alimentaire quotidien a su changer la dynamique du lieu. En effet, l’architecture des cuisines modernes en Occident présente de grandes contradictions. Basées sur des standards architecturaux, les cuisines modulaires ne reflètent pas la variété et l’unicité des aliments auxquels les cuisines sont dédiées. Les cuisines devraient être le miroir de la vivacité naturelle des aliments et des échanges humains que la nourriture génère à travers le plaisir et le partage. Dans l’espoir de proposer des outils afin de rééquilibrer la dynamique de cette pièce, un cadre théorique basé sur les théories architecturales de l’architecte et mathématicien anglais Christopher Alexander a été établi. Supportant la présente recherche, ces théories architecturales s’inspirent de la structure et de la composition des choses de la nature et des monuments anciens afin d’établir des balises d’aménagement simples et équilibrées (qualité de vie, patterns, configuration des événements, configurations de l’espace, ...). Ces théories ont aidé à concevoir une formule d’ateliers participatifs qui visent à outiller les occupants, qui sont très souvent des non-professionnels du domaine de l’architecture et du design. Ces ateliers proposent un cheminement bien encadré qui permet aux participants de retravailler leur espace de cuisine respectif selon leurs goûts et leurs besoins. En fournissant un plan de l’étage où se situe la cuisine, quelques crayons, règles et autres matériel de dessin, les participants ont pour tâche de réaménager leur cuisine en un espace de cuisine idéal. La deuxième étape, qui elle se réalise en équipe avec tous les occupants participants de la demeure, consiste à réduire l’ampleur des changements afin d’arriver à un résultat réaliste. L’enthousiasme noté tout au long de ce processus a ainsi permis de confirmer que les non-professionnels du domaine de l’architecture et du design peuvent développer un intérêt marqué pour l’amélioration de leurs interactions quotidiennes, avec l’espace et entre les occupants, lorsque bien accompagnés dans cette tâche. Grâce aux propos et aux plans recueillis durant les séances d’ateliers participatifs ainsi qu’à l’analyse de ces données, une série d’interprétations ont émergé. Les données ont notamment démontrées l’influence positive de l’utilisation des patterns d’Alexander. L’analyse permet, en outre, de noter les tendances d’aménagement ayant émergé de l’utilisation des patterns dans les espaces de cuisine : définitivement, les cuisines se sont transformées en espace de vie partagé et polyvalent. Finalement, la présente recherche se conclut grâce à une série de recommandations qui traitent de la structure des cuisines, des ateliers participatifs et des patterns. Tout d’abord, l’impact de ces notions sur les espaces retravaillés par les participants est impressionnant. Les espaces sont bien organisés, vastes et, surtout, reflètent les occupants qui y vivent au quotidien. De plus, ayant démontré la facilité d’utilisation et la polyvalence des patterns, il a été jugé que certains aspects devraient être améliorés tels que l’actualisation de certains patterns, le prolongement du processus d’ateliers, le perfectionnement de la méthode et la diffusion des résultats.
Resumo:
L’insuffisance rénale chronique (IRC) est un problème majeur fréquemment rencontré chez les greffés cardiaques. Les inhibiteurs de la calcineurine, pierre angulaire de l’immunosuppression en transplantation d’organes solides, sont considérés comme une des principales causes de dysfonction rénale postgreffe. Plusieurs autres éléments tels que les caractéristiques démographiques, cliniques et génétiques du receveur contribuent également au phénomène, mais il demeure plutôt difficile de déterminer quels sont les patients les plus à risque de développer une IRC après la transplantation. Ainsi, la découverte de nouveaux marqueurs génétiques de dysfonction rénale pourrait un jour mener à l’individualisation de la thérapie immunosuppressive selon le profil génétique de chaque patient. Or, on ne connaît pas les opinions des greffés à l’égard des tests pharmacogénomiques et l’on ne sait pas si celles-ci diffèrent des opinions exprimées par les individus en bonne santé. Cette thèse de doctorat a donc pour objectifs : 1- De décrire l’évolution de la fonction rénale à très long terme après la transplantation et d’identifier les marqueurs démographiques et phénotypiques associés à l’IRC postgreffe cardiaque; 2- D’identifier les marqueurs génétiques associés à la néphrotoxicité induite par les inhibiteurs de la calcineurine; 3- D’évaluer et de comparer les attitudes des patients et des individus en bonne santé par rapport à l’intégration clinique potentielle des marqueurs pharmacogénomiques. Trois projets ont été réalisés pour répondre à ces questions. Le premier repose sur une analyse rétrospective de l’évolution de la fonction rénale chez les patients greffés au sein de notre établissement entre 1983 et 2008. Nous y avons découvert que le déclin de la fonction rénale se poursuit jusqu’à 20 ans après la transplantation cardiaque et que les facteurs de risque d’IRC incluent entre autres l’âge avancé, le sexe féminin, la dysfonction rénale prégreffe, l’hypertension, l’hyperglycémie et l’utilisation de la prednisone. Le deuxième projet est une étude pharmacogénomique s’intéressant aux déterminants génétiques de la néphrotoxicité induite par les inhibiteurs de la calcineurine. Elle nous a permis d’illustrer pour la première fois qu’un polymorphisme génétique lié à PRKCB (gène codant pour la protéine kinase C-β) est associé avec la fonction rénale des patients greffés cardiaques, alors que cela n’est probablement pas le cas pour les polymorphismes de TGFB1 (gène codant pour le transforming growth factor-β1). La troisième section de cette thèse rapporte les résultats d’un questionnaire dont le but était de comparer les attitudes envers les tests pharmacogénomiques parmi un groupe de personnes en bonne santé, de patients greffés cardiaques et de patients souffrant d’insuffisance cardiaque. Cette étude a démontré que, bien que l’enthousiasme pour la pharmacogénomique soit partagé par tous ces individus, les craintes liées à la confidentialité et aux répercussions potentielles sur l’emploi et les assurances sont plus prononcées chez les personnes en bonne santé. En résumé, les travaux issus de cette thèse ont révélé que l’identification précoce des patients greffés cardiaques les plus susceptibles de présenter une détérioration de la fonction rénale ainsi que l’adoption d’une approche thérapeutique individualisée reposant notamment sur les applications cliniques de la pharmacogénomique pourraient éventuellement permettre de freiner cette complication postgreffe.
Resumo:
Pour respecter les droits d’auteur, la version électronique de ce mémoire a été dépouillée de ses documents visuels. La version intégrale du mémoire a été déposée au Service de la gestion des documents et des archives de l'Université de Montréal
Resumo:
Cette thèse a pour objectif de comparer les expressions émotionnelles évoquées par la musique, la voix (expressions non-linguistiques) et le visage sur les plans comportemental et neuronal. Plus précisément, le but est de bénéficier de l’indéniable pouvoir émotionnel de la musique afin de raffiner notre compréhension des théories et des modèles actuels associés au traitement émotionnel. Qui plus est, il est possible que cette disposition surprenante de la musique pour évoquer des émotions soit issue de sa capacité à s’immiscer dans les circuits neuronaux dédiés à la voix, bien que les évidences à cet effet demeurent éparses pour le moment. Une telle comparaison peut potentiellement permettre d’élucider, en partie, la nature des émotions musicales. Pour ce faire, différentes études ont été réalisées et sont ici présentées dans deux articles distincts. Les études présentées dans le premier article ont comparé, sur le plan comportemental, les effets d’expressions émotionnelles sur la mémoire entre les domaines musical et vocal (non-linguistique). Les résultats ont révélé un avantage systématique en mémoire pour la peur dans les deux domaines. Aussi, une corrélation dans la performance individuelle en mémoire a été trouvée entre les expressions de peur musicales et vocales. Ces résultats sont donc cohérents avec l’hypothèse d’un traitement perceptif similaire entre la musique et la voix. Dans le deuxième article, les corrélats neuronaux associés à la perception d’expressions émotionnelles évoquées par la musique, la voix et le visage ont été directement comparés en imagerie par résonnance magnétique fonctionnelle (IRMf). Une augmentation significative du signal « Blood Oxygen Level Dependent » (BOLD) a été trouvée dans l’amygdale (et à l’insula postérieure) en réponse à la peur, parmi l’ensemble des domaines et des modalités à l’étude. Une corrélation dans la réponse BOLD individuelle de l’amygdale, entre le traitement musical et vocal, a aussi été mise en évidence, suggérant à nouveau des similarités entre les deux domaines. En outre, des régions spécifiques à chaque domaine ont été relevées. Notamment, le gyrus fusiforme (FG/FFA) pour les expressions du visage, le sulcus temporal supérieur (STS) pour les expressions vocales ainsi qu’une portion antérieure du gyrus temporal supérieur (STG) particulièrement sensible aux expressions musicales (peur et joie), dont la réponse s’est avérée modulée par l’intensité des stimuli. Mis ensemble, ces résultats révèlent des similarités mais aussi des différences dans le traitement d’expressions émotionnelles véhiculées par les modalités visuelle et auditive, de même que différents domaines dans la modalité auditive (musique et voix). Plus particulièrement, il appert que les expressions musicales et vocales partagent d’étroites similarités surtout en ce qui a trait au traitement de la peur. Ces données s’ajoutent aux connaissances actuelles quant au pouvoir émotionnel de la musique et contribuent à élucider les mécanismes perceptuels sous-jacents au traitement des émotions musicales. Par conséquent, ces résultats donnent aussi un appui important à l’utilisation de la musique dans l’étude des émotions qui pourra éventuellement contribuer au développement de potentielles interventions auprès de populations psychiatriques.
Resumo:
Les textes des jeunes intellectuels de Parti pris, élaborés autour de l'agonistique et du polémique, théâtre de violence et de luttes entre classes et entre valeurs à l'intérieur du champ social, représentent un cas singulier de la parole pamphlétaire québécoise circonscrite au contexte des années 1960. La présente étude veut questionner la fortune critique des textes pamphlétaires de Parti pris au Québec en mettant au jour les stratégies d'ordre rhétorique et discursif qu'ils recèlent. La visée politique révolutionnaire mise de l'avant par la revue est certainement celle qui a réussi le mieux à regrouper ses membres autour de l'identité québécoise (politique, économique, littéraire, artistique et culturelle). Parmi eux, Paul Chamberland, dont les textes varient de l'éditorial à la poésie, et Pierre Vallières avec son essai autobiographique Nègres blancs d'Amérique, sont peut-être les plus représentatifs de leur époque et des enjeux autour desquels gravitait la génération Parti pris. En faisant appel aux théories sur la parole polémique, à la rhétorique et à la pragmatique, notre recherche vise à éclairer l'articulation de la pensée de Chamberland et de Vallières, de même que la valeur littéraire de leurs oeuvres, voire leurs particularités stylistiques. En plus de dégager un aperçu des principales problématiques abordées par les animateurs de Parti pris, ce mémoire interroge l'intentionnalité qui se profile derrière le discours qui circulait dans la revue et au sein de la génération qui s'en réclamait.
Resumo:
Justification: Le glaucome entraîne une perte progressive de la vision causée par la détérioration du nerf optique. Le glaucome est répandu dans le monde et cause la cécité dans environ sept millions de personnes. Le glaucome touche plus de 400 000 Canadiens et sa prévalence augmente avec le vieillissement de la population.1,2 Il s'agit d'une maladie chronique surnoise dont les symptômes se manifestent uniquement lors des stades avancés et qui peuvent mener à la cécité. Présentement, le seul moyen possible d’arrêter la progression du glaucome au stade initial est de diminuer la pression intra-oculaire (PIO). Les analogues de prostaglandines (APG) topiques sont fréquemment utilisées comme traitement de première ligne. Cependant, la recherche démontre que cette classe de médicaments peut changer certaines propriétés de la cornée, et possiblement influencer la mesure de la PIO.3 Objectif: À déterminer si l'utilisation d'APG affecte les propriétés biomécaniques de la cornée. La conclusion sera basée sur l'analyse intégrée des résultats obtenus de l'analyseur Reichert oculaire Réponse (ORA), la tonométrie par applanation de Goldmann (TAG) et la pachymétrie ultrasonographique. Le deuxième objectif potentiel de cette étude est de déterminer la corrélation, le cas échéant, entre les propriétés biomécaniques de la cornée, l'épaisseur de la cornée centrale (ECC) et la PIO chez les patients subissant un traitement d’APG topique. L'hypothèse principale de cette étude est que l’APG influence les propriétés de la cornée telles que l'épaisseur centrale, l'élasticité et la résistance. Patients et méthodes : Soixante-dix yeux de 35 patients, âgés de 50-85 ans, atteints de glaucome à angle ouvert (GAO) et traités avec APG topique ont été examinés. Seulement les sujets avec une réfraction manifeste entre -6,00 D et +4,25 D ont été inclus. Les critères d'exclusion sont: patients avec n'importe quelle autre maladie de la cornée de l’œil, telles que la dystrophie endothéliale de Fuch’s et kératocône, ou tout antécédent de traumatisme ou d'une chirurgie de la cornée, ainsi que le port de lentilles de contact. Nous avons demandé aux patients atteints du glaucome qui ont des paramètres stables et qui utilisent l’APG dans les deux yeux de cesser l’APG dans l'œil moins affecté par la PIO, et de continuer l’utilisation d’APG dans l'œil contralatéral. Le meilleur œil est défini comme celui avec moins de dommage sur le champ visuel (CV) (déviation moyenne (DM), le moins négatif) ou une PIO maximale historique plus basse si la DM est égale ou encore celui avec plus de dommage sur la tomographie par cohérence optique (TCO, Cirrus, CA) ou la tomographie confocale par balayage laser (HRT, Heidelberg, Allemagne). Toutes les mesures ont été prises avant la cessation d’APG et répétées 6 semaines après l’arrêt. Les patients ont ensuite recommencé l’utilisation d’APG et toutes les mesures ont été répétées encore une fois après une période supplémentaire de 6 semaines. Après commencer ou de changer le traitement du glaucome, le patient doit être vu environ 4-6 semaines plus tard pour évaluer l'efficacité de la goutte.4 Pour cette raison, on été décidé d'utiliser 6 semaines d'intervalle. Toutes les mesures ont été effectuées à l’institut du glaucome de Montréal par le même technicien, avec le même équipement et à la même heure de la journée. L'œil contralatéral a servi comme œil contrôle pour les analyses statistiques. La tonométrie par applanation de Goldmann a été utilisée pour mesurer la PIO, la pachymétrie ultrasonographique pour mesurer l'ECC, et l’ORA pour mesurer les propriétés biomécaniques de la cornée, incluant l'hystérèse cornéenne (HC). L’hypothèse de l'absence d'effet de l'arrêt de l’APG sur les propriétés biomécaniques a été examiné par un modèle linéaire à effets mixtes en utilisant le logiciel statistique R. Les effets aléatoires ont été définies à deux niveaux: le patient (niveau 1) et l'œil de chaque patient (niveau 2). Les effets aléatoires ont été ajoutés au modèle pour tenir compte de la variance intra-individuelle. L’âge a également été inclus dans le modèle comme variable. Les contrastes entre les yeux et les temps ont été estimés en utilisant les valeurs p ajustées pour contrôler les taux d'erreur internes de la famille en utilisant multcomp paquet dans R. Résultats: Une augmentation statistiquement significative due l 'HC a été trouvée entre les visites 1 (sur APG) et 2 (aucun APG) dans les yeux de l'étude, avec une moyenne (±erreur standard) des valeurs de 8,98 ± 0,29 mmHg et 10,35 ± 0,29 mmHg, respectivement, correspondant à une augmentation moyenne de 1,37 ± 0,18 mmHg (p <0,001). Une réduction significative de 1,25 ± 0,18 mmHg (p <0,001) a été observée entre les visites 2 et 3, avec une valeur moyenne HC finale de 9,09 ± 0,29 mmHg. En outre, une différence statistiquement significative entre l’oeil d’étude et le contrôle n'a été observée que lors de la visite 2 (1,01 ± 0,23 mmHg, p <0,001) et non lors des visites 1 et 3. Une augmentation statistiquement significative du facteur de résistance conréen (FRC) a été trouvée entre les visites 1 et 2 dans les yeux de l'étude, avec des valeurs moyennes de 10,23 ± 0,34 mmHg et 11,71 ± 0,34 mmHg, respectivement. Le FRC a ensuite été réduit de 1,90 ± 0,21 mmHg (p <0,001) entre les visites 2 et 3, avec une valeur moyenne FRC finale de 9,81 ± 0,34 mmHg. Une différence statistiquement significative entre l’oeil d’étude et le contrôle n'a été observée que lors de la visite 2 (1,46 ± 0,23 mmHg, p <0,001). Une augmentation statistiquement significative de l'ECC a été trouvée entre les visites 1 et 2 dans les yeux de l'étude, avec des valeurs moyennes de 541,83 ± 7,27 µm et 551,91 ± 7,27 µm, respectivement, ce qui correspond à une augmentation moyenne de 10,09 ± 0,94 µm (p <0,001). L'ECC a ensuite diminué de 9,40 ± 0,94 µm (p <0,001) entre les visites 2 et 3, avec une valeur moyenne finale de 542,51 ± 7,27 µm. Une différence entre l’étude et le contrôle des yeux n'a été enregistré que lors de la visite 2 (11,26 ± 1,79 µm, p <0,001). De même, on a observé une augmentation significative de la PIO entre les visites 1 et 2 dans les yeux de l'étude, avec des valeurs moyennes de 15,37 ± 0,54 mmHg et 18,37 ± 0,54 mmHg, respectivement, ce qui correspond à une augmentation moyenne de 3,0 ± 0,49 mmHg (p <0,001). Une réduction significative de 2,83 ± 0,49 mmHg (p <0,001) a été observée entre les visites 2 et 3, avec une valeur moyenne de la PIO finale de 15,54 ± 0,54 mmHg. L’oeil de contrôle et d’étude ne différaient que lors de la visite 2 (1,91 ± 0,49 mmHg, p <0,001), ce qui confirme l'efficacité du traitement de l’APG. Lors de la visite 1, le biais de la PIO (PIOcc - PIO Goldmann) était similaire dans les deux groupes avec des valeurs moyennes de 4,1 ± 0,54 mmHg dans les yeux de contrôles et de 4,8 ± 0,54 mmHg dans les yeux d’études. Lors de la visite 2, après un lavage de 6 semaines d’APG, le biais de la PIO dans l'œil testé a été réduit à 1,6 ± 0,54 mmHg (p <0,001), ce qui signifie que la sous-estimation de la PIO par TAG était significativement moins dans la visite 2 que de la visite 1. La différence en biais PIO moyenne entre l'étude et le contrôle des yeux lors de la visite 2, en revanche, n'a pas atteint la signification statistique (p = 0,124). On a observé une augmentation peu significative de 1,53 ± 0,60 mmHg (p = 0,055) entre les visites 2 et 3 dans les yeux de l'étude, avec une valeur de polarisation finale de la PIO moyenne de 3,10 ± 0,54 mmHg dans les yeux d'études et de 2,8 ± 0,54 mmHg dans les yeux de contrôles. Nous avons ensuite cherché à déterminer si une faible HC a été associée à un stade de glaucome plus avancé chez nos patients atteints du glaucome à angle ouvert traités avec l’APG. Lorsque l'on considère tous les yeux sur l’APG au moment de la première visite, aucune association n'a été trouvée entre les dommages sur le CV et l'HC. Cependant, si l'on considère seulement les yeux avec un glaucome plus avancé, une corrélation positive significative a été observée entre la DM et l'HC (B = 0,65, p = 0,003). Une HC inférieure a été associé à une valeur de DM de champ visuelle plus négative et donc plus de dommages liés au glaucome. Conclusions : Les prostaglandines topiques affectent les propriétés biomécaniques de la cornée. Ils réduisent l'hystérèse cornéenne, le facteur de résistance cornéen et l'épaisseur centrale de la cornée. On doit tenir compte de ces changements lors de l'évaluation des effets d’APG sur la PIO. Plus de recherche devrait être menées pour confirmer nos résultats. De plus, d’autres études pourraient être réalisées en utilisant des médicaments qui diminuent la PIO sans influencer les propriétés biomécaniques de la cornée ou à l'aide de tonomètre dynamique de Pascal ou similaire qui ne dépend pas des propriétés biomécaniques de la cornée. En ce qui concerne l'interaction entre les dommages de glaucome et l'hystérésis de la cornée, nous pouvons conclure qu' une HC inférieure a été associé à une valeur de DM de CV plus négative. Mots Clés glaucome - analogues de prostaglandines - hystérèse cornéenne – l’épaisseur de la cornée centrale - la pression intraoculaire - propriétés biomécaniques de la cornée.
Resumo:
Objet : Au Québec, comme dans le reste du Canada, le nombre de professionnels en reprise d’étude est en nette augmentation. Parmi ces professionnels, un certain nombre se trouve en situation de transition professionnelle après plusieurs années de travail. L'objectif de cette recherche est de déterminer quels facteurs influent sur les retours aux études de ces professionnels. Méthode : au total, 625 étudiants adultes de la faculté d’éducation permanente de l’Université de Montréal ont reçu une invitation à répondre à un sondage en ligne après avoir informé de leur intérêt pour notre étude. Le sondage en ligne a rendu possible la collection de 170 réponses (taux de réponses de 27,2%) à notre questionnaire de 64 questions. Les informations collectées ont permis la création de diverses variables ainsi que d’indices de confiance, de volonté, de temps, d’information qui ont par la suite été recoupés avec les informations dispositionnelles, situationnelles, institutionnelles et démographiques de notre échantillon. Découvertes : Il apparaît que la confiance, la motivation et le temps sont les facteurs ayant le plus d’impact sur le retour aux études de notre échantillon. Implication : Maintenir la motivation et la confiance semble être la clé pour minimiser l'impact de facteurs défavorables sur les professionnels qui décident de retourner à l'école après leur début de carrière. Originalité et intérêt : Peu d'études ont été réalisées sur la participation de ces professionnels en transition à des programmes de formation universitaire, cette étude exploratoire est un premier pas dans la collecte d’information sur une population méconnue.
Resumo:
Notre thèse a pour objectif de déterminer la nature des liens entre la multiplication des processus de macro-régionalisation, dans un contexte de mondialisation, et le renouvellement des politiques d’aménagement du territoire à travers la mise en place de nouvelles formes de coopération décentralisée entre villes et territoires. Notre projet de recherche cherche ainsi à établir comment la régionalisation permet la mise en place d’une gouvernance à niveaux multiples mettant en relation des acteurs territoriaux, à différents échelons de décision (supranational, national et infranational) dans le but de faire face à la complexité grandissante des problèmes actuels à l’échelle mondiale. Parmi ces projets régionaux qui émergent dans plusieurs parties du monde, nous avons choisi le Partenariat euro-méditerranéen comme cas d'étude en s'intéressant de manière particulière aux projets et programmes de coopération décentralisée et transfrontalière qui se mettent en place autour de la Méditerranée et qui mettent en relation plusieurs villes et régions riveraines. Afin de répondre à ces questions, nous avons décliné notre argumentation en plusieurs axes de réflexion. Un premier axe de réflexion tourne autour de la nature du projet régional euro-méditerranéen et de son implication au niveau des stratégies territoriales principales. Un deuxième axe concerne le contenu et les processus de mise en œuvre des programmes et projets de coopération décentralisée et transfrontalière et leur pertinence au niveau du développement local des territoires du Sud. Un troisième axe s’intéresse au rôle de l’État central en face du développement de ces initiatives qui le contourne. Enfin, un quatrième axe de réflexion concerne l’attitude de l’échelon local par rapport à ces initiatives qui l’interpellent et le sollicitent en tous sens.
Resumo:
En mars 2013, trois cent treize artefacts précolombiens, exposés auparavant dans le musée barcelonais des Suisses Jean-Paul Barbier et Monique Mueller, furent mis en vente chez Sotheby’s à Paris par ce couple de collectionneurs. L’affaire fut l’objet une couverture médiatique internationale lorsque des pays d’Amérique centrale et d’Amérique du Sud, notamment le Pérou, le Mexique et le Guatemala, protestèrent contre la tenue de cette vente, avançant que leur patrimoine culturel national n’est pas à vendre. La question centrale de ce mémoire porte sur le trafic illicite des biens culturels et elle se décline en trois axes, à partir d’une étude de cas : la collection Barbier-Mueller. Les relations complexes entre les musées et les grands collectionneurs sont observées dans le premier chapitre à la lumière des règles déontologiques qui régissent habituellement les institutions, afin de ne pas encourager l’acquisition d’objets impliqués dans des transactions illicites. Dans un deuxième temps, au moyen d’une succincte présentation du marché actuel de l’art mondial, l’influence des maisons de ventes aux enchères sera examinée. Tandis que la provenance des artefacts en vente n’est pas toujours clairement affichée, il est difficile de retracer la lignée des propriétaires ou leur nation d’origine. Or, sachant que la commercialisation illicite des biens culturels se développe à l’intérieur même du marché de l'art régulier, les auteurs parlent alors d’un « marché gris ». Ce mémoire remonte, depuis l’excavation en passant par leur exportation illégale, la chaîne de transactions de ces biens culturels qui aboutissent dans les expositions des plus prestigieuses institutions. Cette recherche aborde en dernier lieu certaines incongruités du marché de l’art en auscultant les particularités des outils fournis par l’UNESCO et l’ICOM, ainsi que la question de l’aliénation, en plus de celle des limites juridiques des pays requérants. Finalement, cette étude présente les oppositions entre le discours officiel et les actions réellement entreprises pour la protection du patrimoine culturel.
Resumo:
Medipix2 (MPX) sont des détecteurs semi-conducteurs au silicium montés sur 256x256 pixels. Chaque pixel a une aire de 55x55μm2. L’aire active d’un détecteur MPX est d’environ 2 cm2. Avec deux modes de détection, un seuil et un temps d’exposition ajustables, leur utilisation peut être optimisée pour une analyse spécifique. Seize de ces détecteurs sont présentement installés dans l’expérience ATLAS (A Toroidal LHC ApparatuS) au CERN (Organisation Européenne pour la Recherche Nucléaire). Ils mesurent en temps réel le champ de radiation dû aux collisions proton-proton, au point d’interaction IP1 (Point d’Interaction 1) du LHC (Grand Collisionneur d’Hadrons). Ces mesures ont divers buts comme par exemple la mesure du champ de neutrons dans la caverne d’ATLAS. Le réseau de détecteurs MPX est complètement indépendant du détecteur ATLAS. Le groupe ATLAS-Montréal s’est intéressé à l’analyse des données récoltées par ces détecteurs pour calculer une valeur de la luminosité du LHC au point de collision des faisceaux, autour duquel est construit le détecteur ATLAS. Cette valeur est déterminée indépendamment de la luminosité mesurée par les divers sous-détecteurs d’ATLAS dédiés spécifiquement à la mesure de la luminosité. Avec l’augmentation de la luminosité du LHC les détecteurs MPX les plus proches du point d’interaction détectent un grand nombre de particules dont les traces sont impossibles à distinguer sur les images ("frames") obtenues, à cause de leur recouvrement. Les paramètres de mesure de certains de ces détecteurs ont été optimisés pour des mesures de luminosité. Une méthode d’analyse des données permet de filtrer les pixels bruyants et de convertir les données des images, qui correspondent à des temps d’exposition propres aux détecteurs MPX, en valeur de luminosité pour chaque LumiBlock. Un LumiBlock est un intervalle de temps de mesure propre au détecteur ATLAS. On a validé les mesures de luminosité premièrement en comparant les résultats obtenus par différents détecteurs MPX, et ensuite en comparant les valeurs de luminosité relevées à celles obtenues par les sous-détecteurs d’ATLAS dédiés spécifiquement à la mesure de la luminosité.
Resumo:
Cette étude s’organise autour d’une articulation : celle entre un médium (la photographie), une ville (Beyrouth), et les événements qui ont marqué son passé récent. Le thème des rapports entre la photographie et l’histoire, avec la pluralité de sens qui le décrit, vient, en arrière-fond de ces questions, délimiter l’horizon de cette étude ; le lien entre voir et savoir, antiquement aux sources de la connaissance historique (Hartog, Loraux), en représente la ligne de fuite. En premier plan, la relation photographique et historienne à l’événement constitue l’objet de cette recherche dont le propos est d’identifier dans la photographie une référence à l’histoire considérée en tant qu’écriture. Concrètement, cet argument se déplie sur deux mouvements. Il exige, dans un premier temps, une série d’analyses théoriques visant à étudier le potentiel de connaissance et le caractère formel de la photographie en qualité de représentation événementielle. En partant des expérimentations des avant-gardes (Lugon, Baqué), jusqu’au jumelage entre la photographie et la presse, il s’agira de montrer la part de lisibilité qui appartient aux narrations photographiques (Barthes, Lavoie). Ensuite, on prendra en considération le travail opéré par l’historien lors de l’opération historiographique visant à produire, autour de l’événement, une représentation historique (de Certeau, Ricœur, Ginzburg). Outre faire ressortir le caractère de visibilité qui appartient à l’écriture historienne, ce passage sera aussi l’occasion de produire une étude comparée de la photographie et de l’histoire (Kracauer) autour de notions ponctuelles, comme celles d’empreinte, d’indice et de témoignage. Le moteur de ce premier mouvement est la notion d’événement. Abordée d’un point de vue phénoménologique (Zarader, Marion, Dastur, Diano), elle nous permettra d’observer la photographie et l’histoire d’après la génétique de leur construction. Finalement, Beyrouth et son histoire façonnées par les images constituent le cadre à l’intérieur duquel s’organise le deuxième mouvement. Les analyses des œuvres de Sophie Ristelhueber (Beyrouth photographies, 1984), Robert Frank (Come again, 1991) et Lamia Joreige (Beyrouth, autopsie d’une ville, 2010) sont conçues comme autant d’espaces dialogiques entre la photographie, l’épistémologie de l’histoire et les événements historiques qu’elles représentent. Le propos est de faire ressortir le basculement qu’elles mettent en scène : de la chronique vers l’écriture d’histoire.
Resumo:
L’avancement en âge est associé à plusieurs modifications cognitives, dont un déclin des capacités à mémoriser et/ou à rappeler les événements vécus personnellement. Il amène parallèlement une augmentation des faux souvenirs, c.-à-d. le rappel d’événements qui ne se sont pas réellement déroulés. Les faux souvenirs peuvent avoir d’importantes répercussions dans la vie quotidienne des personnes âgées et il importe donc de mieux comprendre ce phénomène en vieillissement normal. Des études ont démontré l’importance de la fonction des lobes temporaux médians (FTM)/mémoire et de la fonction des lobes frontaux (FF)/fonctions exécutives dans l’effet de faux souvenirs. Ainsi, la première étude de la thèse visait à valider en français une version adaptée d’une méthode proposée par Glisky, Polster, & Routhieaux (1995), permettant de mesurer ces fonctions cognitives (Chapitre 2). L’analyse factorielle de cette étude démontre que les scores neuropsychologiques associés à la mémoire se regroupent en un facteur, le facteur FTM/mémoire, alors que ceux associés aux fonctions exécutives se regroupent en un deuxième facteur, le facteur FF/fonctions exécutives. Des analyses « bootstrap » effectuées avec 1 000 ré-échantillons démontrent la stabilité des résultats pour la majorité des scores. La deuxième étude de cette thèse visait à éclairer les mécanismes cognitifs (FTM/mémoire et FF/fonctions exécutives) ainsi que théoriques de l’effet de faux souvenirs accru en vieillissement normal (Chapitre 3). La Théorie des Traces Floues (TTF; Brainerd & Reyna, 1990) propose des explications de l’effet de faux souvenirs pour lesquelles la FTM/mémoire semble davantage importante, alors que celles proposées par la Théorie de l’Activation et du Monitorage (TAM; Roediger, Balota, & Watson, 2001) sont davantage reliées à la FF/fonctions exécutives. Les tests neuropsychologiques mesurant la FTM/mémoire ainsi que ceux mesurant la FF/fonctions exécutives ont été administrés à 52 participants âgés (moyenne de 67,81 ans). Basé sur l’étude de validation précédente, un score composite de la FTM/mémoire et un score composite de la FF/fonctions exécutives ont été calculés pour chaque participant. Ces derniers ont d’abord été séparés en deux sous-groupes, un premier au score FTM/mémoire élevé (n = 29, âge moyen de 67,45 ans) et un deuxième au score FTM/mémoire faible (n = 23, âge moyen de 68,26 ans) en s’assurant de contrôler statistiquement plusieurs variables, dont le score de la FF/fonctions exécutives. Enfin, ces participants ont été séparés en deux sous-groupes, un premier au score FF/fonctions exécutives élevé (n = 26, âge moyen 68,08 ans) et un deuxième au score FF/fonctions exécutives faible (n = 25, âge moyen de 67,36 ans), en contrôlant les variables confondantes, dont le score de la FTM/mémoire. Les proportions de vraie et de fausse mémoire (cibles et leurres associatifs) ont été mesurées à l’aide d’un paradigme Deese-Roediger et McDermott (DRM; Deese, 1959; Roediger & McDermott, 1995), avec rappel et reconnaissance jumelée à une procédure « Je me souviens / Je sais » (Tulving, 1985) chez les 52 participants âgés ainsi que chez 22 jeunes (âge moyen de 24,59 ans), apparié pour les années de scolarité. D’abord, afin de tester l’hypothèse de la TTF (Brainerd & Reyna, 1990), ces proportions ont été comparées entre les jeunes adultes et les deux sous-groupes de personnes âgées catégorisées selon le score de la FTM/mémoire. Ensuite, afin de tester l’hypothèse de la TAM (Roediger et al., 2001), ces proportions ont été comparées entre les jeunes adultes et les deux sous-groupes de personnes âgées catégorisées selon le score de la FF/fonctions exécutives. Il s’agit de la première étude qui compare directement ces hypothèses à travers de nombreuses mesures de vraie et de fausse mémoire. Les résultats démontrent que seule la FTM/mémoire modulait l’effet d’âge en vraie mémoire, et de manière quelque peu indirecte, en fausse mémoire et dans la relation entre la vraie et la fausse remémoration. Ensuite, les résultats démontrent que seule la FF/fonctions exécutives jouerait un rôle dans la fausse reconnaissance des leurres associatifs. Par ailleurs, en des effets d’âge sont présents en faux rappel et fausse remémorations de leurres associatifs, entre les jeunes adultes et les personnes âgées au fonctionnement cognitif élevé, peu importe la fonction cognitive étudiée. Ces résultats suggèrent que des facteurs autres que la FTM/mémoire et la FF/fonctions exécutives doivent être identifiés afin d’expliquer la vulnérabilité des personnes âgées aux faux souvenirs. Les résultats de cette thèse sont discutés à la lumière des hypothèses théoriques et cognitives en faux souvenirs (Chapitre 4).
Resumo:
Dans le sillage de la récession mondiale de 2008-09, plusieurs questions ont été soulevées dans la littérature économique sur les effets à court et à long terme de la politique budgétaire sur l’activité économique par rapport à son signe, sa taille et sa durée. Ceux-ci ont des implications importantes pour mieux comprendre les canaux de transmission et l’efficacité des politiques budgétaires, avec la politique monétaire étant poursuivi, ainsi que pour leurs retombées économiques. Cette thèse fait partie de ce regain d’intérêt de la littérature d’examiner comment les changements dans la politique budgétaire affectent l’activité économique. Elle repose alors sur trois essais: les effets macroéconomiques des chocs de dépenses publiques et des recettes fiscales, les résultats macroéconomiques de l’interaction entre les politiques budgétaire et monétaire et le lien entre la politique budgétaire et la répartition des revenus. Le premier chapitre examine les effets des chocs de politique budgétaire (chocs de dépenses publiques et chocs de recettes fiscales) sur l’économie canadienne au cours de la période 1970-2010, en s’appuyant sur la méthode d’identification des restrictions de signe développée par Mountford et Uhlig [2009]. En réponse à la récession mondiale, les autorités fiscales dans les économies avancées, dont le Canada ont généralement mis en oeuvre une approche en deux phases pour la politique budgétaire. Tout d’abord, ils ont introduit des plans de relance sans précédent pour relancer leurs économies. Par exemple, les mesures de relance au Canada, introduites à travers le Plan d’action économique du Canada, ont été projetées à 3.2 pour cent du PIB dans le budget fédéral de 2009 tandis que l’ "American Recovery and Reinvestment Act"(ARRA) a été estimé à 7 pour cent du PIB. Par la suite, ils ont mis en place des plans d’ajustement en vue de réduire la dette publique et en assurer la soutenabilité à long terme. Dans ce contexte, évaluer les effets multiplicateurs de la politique budgétaire est important en vue d’informer sur l'efficacité de telles mesures dans la relance ou non de l'activité économique. Les résultats montrent que les multiplicateurs d'impôt varient entre 0.2 et 0.5, tandis que les multiplicateurs de dépenses varient entre 0.2 et 1.1. Les multiplicateurs des dépenses ont tendance à être plus grand que les multiplicateurs des recettes fiscales au cours des deux dernières décennies. Comme implications de politique économique, ces résultats tendent à suggérer que les ajustements budgétaires par le biais de grandes réductions de dépenses publiques pourraient être plus dommageable pour l'économie que des ajustements budgétaires par la hausse des impôts. Le deuxième chapitre, co-écrit avec Constant Lonkeng Ngouana, estime les effets multiplicateurs des dépenses publiques aux Etats-Unis en fonction du cycle de la politique monétaire. Les chocs de dépenses publiques sont identifiés comme étant des erreurs de prévision du taux de croissance des dépenses publiques à partir des données d'Enquêtes des prévisionnistes professionnels et des informations contenues dans le "Greenbook". L'état de la politique monétaire est déduite à partir de la déviation du taux des fonds fédéraux du taux cible de la Réserve Fédérale, en faisant recours à une fonction lisse de transition. L'application de la méthode des «projections locales» aux données trimestrielles américaines au cours de la période 1965-2012 suggère que les effets multiplicateurs des dépenses fédérales sont sensiblement plus élevées quand la politique monétaire est accommodante que lorsqu'elle ne l'est pas. Les résultats suggèrent aussi que les dépenses fédérales peuvent stimuler ou non la consommation privée, dépendamment du degré d’accommodation de la politique monétaire. Ce dernier résultat réconcilie ainsi, sur la base d’un cadre unifié des résultats autrement contradictoires à première vue dans la littérature. Ces résultats ont d'importantes implications de politique économique. Ils suggèrent globalement que la politique budgétaire est plus efficace lorsqu'on en a le plus besoin (par exemple, lorsque le taux de chômage est élevé), si elle est soutenue par la politique monétaire. Ils ont également des implications pour la normalisation des conditions monétaires dans les pays avancés: la sortie des politiques monétaires non-conventionnelles conduirait à des multiplicateurs de dépenses fédérales beaucoup plus faibles qu'autrement, même si le niveau de chômage restait élevé. Ceci renforce la nécessité d'une calibration prudente du calendrier de sortie des politiques monétaires non-conventionnelles. Le troisième chapitre examine l'impact des mesures d'expansion et de contraction budgétaire sur la distribution des revenus dans un panel de 18 pays d'Amérique latine au cours de la période 1990-2010, avec un accent sur les deniers 40 pour cent. Il explore alors comment ces mesures fiscales ainsi que leur composition affectent la croissance des revenus des dernier 40 pour cent, la croissance de leur part de revenu ainsi que la croissance économique. Les mesures d'expansion et de contraction budgétaire sont identifiées par des périodes au cours desquels il existe une variation significative du déficit primaire corrigé des variations conjoncturelles en pourcentage du PIB. Les résultats montrent qu'en moyenne l'expansion budgétaire par la hausse des dépenses publiques est plus favorable à la croissance des revenus des moins bien-nantis que celle par la baisse des impôts. Ce résultat est principalement soutenu par la hausse des dépenses gouvernementales de consommation courante, les transferts et subventions. En outre ces mesures d’expansion budgétaire sont favorables à la réduction des inégalités car elles permettent d'améliorer la part des revenus des moins bien-nantis tout en réduisant la part des revenus des mieux-nantis de la distribution des revenus. En outre ces mesures d’expansion budgétaire sont favorables à la réduction des inégalités car elles permettent d'améliorer la part des revenus des moins bien-nantis tout en réduisant la part des revenus des mieux-nantis de la distribution des revenus. Cependant, l'expansion budgétaire pourrait soit n'avoir aucun effet sur la croissance économique ou entraver cette dernière à travers la hausse des dépenses en capital. Les résultats relatifs à la contraction budgétaire sont quelque peu mitigés. Parfois, les mesures de contraction budgétaire sont associées à une baisse de la croissance des revenus des moins bien nantis et à une hausse des inégalités, parfois l'impact de ces mesures est non significatif. Par ailleurs, aucune des mesures n’affecte de manière significative la croissance du PIB. Comme implications de politique économique, les pays avec une certaine marge de manœuvre budgétaire pourraient entamer ou continuer à mettre en œuvre des programmes de "filets de sauvetage"--par exemple les programmes de transfert monétaire conditionnel--permettant aux segments vulnérables de la population de faire face à des chocs négatifs et aussi d'améliorer leur conditions de vie. Avec un potentiel de stimuler l'emploi peu qualifié, une relance budgétaire sage par les dépenses publique courantes pourrait également jouer un rôle important pour la réduction des inégalités. Aussi, pour éviter que les dépenses en capital freinent la croissance économique, les projets d'investissements publics efficients devraient être prioritaires dans le processus d'élaboration des politiques. Ce qui passe par la mise en œuvre des projets d'investissement avec une productivité plus élevée capable de générer la croissance économique nécessaire pour réduire les inégalités.
Resumo:
L’aire tegmentaire ventrale (VTA) contient une forte densité de terminaisons neurotensinergiques ainsi que des récepteurs à la surface des neurones dopaminergiques et non-dopaminergiques. Le VTA a été impliqué dans des maladies comme la schizophrénie, les psychoses et l’abus de substance. Les drogues d’abus sont connues pour induire le phénomène de sensibilisation - un processus de facilitation par lequel l’exposition à un stimulus produit une réponse augmentée lors de l’exposition subséquente au même stimulus. La sensibilisation se développe dans le VTA et implique mécanismes dopaminergiques et glutamatergiques. Il a été montré que les antagonistes neurotensinergiques bloquaient le développement de la sensibilisation et certains mécanismes de récompense et ces effets pourraient être médiés indirectement par une modulation de la neurotransmission glutamatergique. Cependant, on connaît peu les mécanismes de modulation de la transmission glutamatergique par la neurotensine (NT) dans le VTA. Le but de la présente thèse était d’étudier la modulation neurotensinergique de la neurotransmission glutamatergique dans les neurones dopaminergiques et non-dopaminergiques du VTA. Pour ce faire, nous avons utilisé la technique du patch clamp dans la cellule entière dans des tranches horizontales du VTA pour étudier les effets de différents agonistes et antagonistes neurotensinergiques. Les neurones ont été identifié comme Ih+ (présumés dopaminergiques) ou Ih- (présumés non-dopaminergiques) selon qu’ils exprimaient ou non un courant cationique activé par l’hyperpolarisation (Ih). Des techniques d’immunocytochimie ont été utilisées pour marquer les neurones et vérifier leur localisation dans le VTA. Dans une première étude nous avons trouvé que la neurotensine indigène (NT1-13) ou son fragment C-terminal, NT8-13, induisait une augmentation comparable des courants postsynaptiques excitateurs glutamatergiques (CPSEs) dans les neurones Ih+ ou Ih- du VTA. L'augmentation induite dans les neurones Ih+ par la NT8-13 a été bloquée par le SR48692, un antagoniste des récepteurs NTS1, et par le SR142948A, un antagoniste des récepteurs NTS1 et NTS2, suggérant que l'augmentation était médiée par l’activation des récepteurs NTS1. Dans les neurones Ih- l'augmentation n’a été bloquée que par le SR142948A indiquant une implication des récepteurs NTS2. Dans une deuxième étude, nous avons testé les effets de la D-Tyr[11]NT (un analogue neurotensinergique ayant différentes affinités de liaison pour les sous-types de récepteurs neurotensinergiques) sur les CPSEs glutamatergiques dans les neurones Ih+ et Ih- en parallèle avec une série d’expériences comportementales utilisant un paradigme de préférence de place conditionnée (PPC) menée dans le laboratoire de Pierre-Paul Rompré. Nous avons constaté que la D-Tyr[11]NT induisaient une inhibition dépendante de la dose dans les neurones Ih+ médiée par l'activation de récepteurs NTS2. En revanche, la D-Tyr[11]NT a produit une augmentation des CPSEs glutamatergiques médiée par des récepteurs NTS1 dans les neurones Ih-. Les résultats des expériences comportementales ont montré que des microinjections bilatérales de D-Tyr[11]NT dans le VTA induisait une PPC bloquée uniquement par la co-injection de SR142948A et SR48692, indiquant un rôle pour les deux types de récepteurs, NTS1 et NTS2. Cette étude nous a permis de conclure que i) la D-Tyr[11]NT agit dans le VTA via des récepteurs NTS1 et NTS2 pour induire un effet de récompense et ii) que cet effet est dû, au moins en partie, à une augmentation de la neurotransmission glutamatergique dans les neurones non-dopaminergiques (Ih-). Dans une troisième étude nous nous sommes intéressés aux effets de la D-Tyr[11]NT sur les réponses isolées médiées par les récepteurs N-méthyl-D-aspartate (NMDA) et acide α-amino-3- hydroxy-5-méthyl-4-isoxazolepropionique (AMPA) dans les neurones du VTA. Nous avons constaté que dans les neurones Ih+ l’amplitude des CPSEs NMDA et AMPA étaient atténuées de la même manière par la D-Tyr[11] NT. Cette modulation des réponses était médiée par les récepteurs NTS1 et NTS2. Au contraire, dans les neurones Ih-, l’amplitude des réponses NMDA et AMPA étaient augmentées en présence de D-Tyr[11]NT et ces effets dépendaient de l’activation des récepteurs NTS1 localisés sur les terminaisons glutamatergiques. Ces résultats fournissent une preuve supplémentaire que le NT exerce une modulation bidirectionnelle sur la neurotransmission glutamatergique dans les neurones du VTA et met en évidence un nouveau type de modulation peptidergique des neurones non-dopaminergiques qui pourrait être impliqué dans la sensibilisation. En conclusion, la modulation neurotensinergique de la neurotransmission glutamatergique dans les neurones dopaminergiques et non-dopaminergiques du VTA se fait en sens opposé soit, respectivement, par une inhibition ou par une excitation. De plus, ces effets sont médiés par différents types de récepteurs neurotensinergiques. En outre, nos études mettent en évidence une modulation peptidergique de la neurotransmission glutamatergique dans le VTA qui pourrait jouer un rôle important dans les mécanismes de lutte contre la toxicomanie.