980 resultados para Stratégies de contrôle du poids
Resumo:
Le récepteur mélanocortine de type 4 (MC4R) est un récepteur couplé aux protéines G impliqué dans la régulation de la prise alimentaire et de l’homéostasie énergétique. Quatre-vingt pour cent des mutants du MC4R reliés à l’obésité morbide précoce (OMP) sont retenus à l’intérieur de la cellule. Le système de contrôle de qualité (SCQ) est probablement responsable de cette rétention, par la reconnaissance d’une conformation inadéquate des mutants. Le rétablissement de l’expression à la surface cellulaire et de la fonctionnalité de ces mutants est donc d’intérêt thérapeutique. Dans cette optique, des composés lipophiles spécifiques pour le MC4R ont été sélectionnés sur la base de leur sélectivité. Nous avons démontré qu’ils agissent à titre de chaperone pharmacologique (CP) en rétablissant l’expression à la surface cellulaire et la fonctionnalité des récepteurs mutants S58C et R165W, et qu’ils favorisent leur N-glycosylation complexe (maturation). Le suivi par BRET du site d’action des CP du MC4R suggère une action en aval de l’interaction calnexine-MC4R. De manière générale, une CP peut avoir un effet différent selon le mutant traité en induisant des conformations distinctes du récepteur plus ou moins aptes à se dissocier du SCQ et à activer la voie de signalisation, et un mutant peut répondre différemment selon la CP utilisée par des différences d’affinité pour le ligand, la CP et les effecteurs. Une meilleure compréhension du mode d’action des CP pourrait aider au développement de nouvelles approches thérapeutiques non seulement pour l’OMP, mais aussi pour d’autres maladies conformationnelles causées par le mauvais repliement de protéines.
Resumo:
Sous l’impulsion de la Loi 83, loi modifiant la Loi sur les services de santé et les services sociaux et d’autres dispositions législatives, sanctionnée en 2005, et fort d’une expérience issue d’une coopération de plus de 30 ans entre les bibliothèques des sciences de la santé de l’Université de Montréal et les bibliothèques de ses hôpitaux affiliés, un consortium est né ayant pour but de regrouper les efforts et augmenter l’offre documentaire pour mieux desservir ses clientèles. Après avoir décrit quelques consortiums canadiens dans le domaine de la santé, les auteurs présentent le nouveau consortium des ressources électroniques du Réseau universitaire intégré de santé de l’Université de Montréal (RUISUM)qui s’est vu confié le mandat de procurer des ressources informationnelles en sciences de la santé ainsi que des services afin de mieux soutenir l’enseignement, la recherche, la formation professionnelle continue et le soutien à la démarche clinique dans les établissements membres. Le territoire desservi par le RUIS de l’Université couvre un bassin de population de 3 millions d’habitants, représente 40% des soins de la santé de la province et s’adresse à plus de 25 000 professionnels de la santé. Dans le respect des stratégies de chaque établissement membre, le consortium du RUISUM a redéfinit le couple produit marché pour se positionner dans le segment des bibliothèques virtuelles. Il met l’accent sur la formation aux compétences informationnelles, sur l’interaction avec le personnel de la bibliothèque et utilise le web comme outil.
Resumo:
L’obésité provient d’un déséquilibre de l’homéostasie énergétique, c’est-à-dire une augmentation des apports caloriques et/ou une diminution des dépenses énergétiques. Plusieurs données, autant anatomiques que physiologiques, démontrent que l’hypothalamus est un régulateur critique de l’appétit et des dépenses énergétiques. En particulier, le noyau paraventriculaire (noyau PV) de l’hypothalamus intègre plusieurs signaux provenant du système nerveux central (SNC) et/ou de la périphérie, afin de contrôler l’homéostasie énergétique via des projections axonales sur les neurones pré-ganglionnaires du système autonome situé dans le troc cérébral et la moelle épinière. Plusieurs facteurs de transcription, impliqués dans le développement du noyau PV, ont été identifiés. Le facteur de transcription SIM1, qui est produit par virtuellement tous les neurones du noyau PV, est requis pour le développement du noyau PV. En effet, lors d’une étude antérieure, nous avons montré que le noyau PV ne se développe pas chez les souris homozygotes pour un allèle nul de Sim1. Ces souris meurent à la naissance, probablement à cause des anomalies du noyau PV. Par contre, les souris hétérozygotes survivent, mais développent une obésité précoce. De façon intéressante, le noyau PV des souris Sim1+/- est hypodéveloppé, contenant 24% moins de cellules. Ces données suggèrent fortement que ces anomalies du développement pourraient perturber le fonctionnement du noyau PV et contribuer au développement du phénotype d’obésité. Dans ce contexte, nous avons entrepris des travaux expérimentaux ayant pour but d’étudier l’impact de l’haploinsuffisance de Sim1 sur : 1) le développement du noyau PV et de ses projections neuronales efférentes; 2) l’homéostasie énergétique; et 3) les voies neuronales physiologiques contrôlant l’homéostasie énergétique chez les souris Sim1+/-. A cette fin, nous avons utilisé : 1) des injections stéréotaxiques combinées à des techniques d’immunohistochimie afin de déterminer l’impact de l’haploinsuffisance de Sim1 sur le développement du noyau PV et de ses projections neuronales efférentes; 2) le paradigme des apports caloriques pairés, afin de déterminer l’impact de l’haploinsuffisance de Sim1 sur l’homéostasie énergétique; et 3) une approche pharmacologique, c’est-à-dire l’administration intra- cérébroventriculaire (i.c.v.) et/ou intra-péritonéale (i.p.) de peptides anorexigènes, la mélanotane II (MTII), la leptine et la cholécystokinine (CCK), afin de déterminer l’impact de l’haploinsuffisance de Sim1 sur les voies neuronales contrôlant l’homéostasie énergétique. Dans un premier temps, nous avons constaté une diminution de 61% et de 65% de l’expression de l’ARN messager (ARNm) de l’ocytocine (Ot) et de l’arginine-vasopressine (Vp), respectivement, chez les embryons Sim1+/- de 18.5 jours (E18.5). De plus, le nombre de cellules produisant l’OT et la VP est apparu diminué de 84% et 41%, respectivement, chez les souris Sim1+/- adultes. L’analyse du marquage axonal rétrograde des efférences du noyau PV vers le tronc cérébral, en particulier ses projections sur le noyau tractus solitaire (NTS) aussi que le noyau dorsal moteur du nerf vague (X) (DMV), a permis de démontrer une diminution de 74% de ces efférences. Cependant, la composition moléculaire de ces projections neuronales reste inconnue. Nos résultats indiquent que l’haploinsuffisance de Sim1 : i) perturbe spécifiquement le développement des cellules produisant l’OT et la VP; et ii) abolit le développement d’une portion importante des projections du noyau PV sur le tronc cérébral, et notamment ses projections sur le NTS et le DMV. Ces observations soulèvent donc la possibilité que ces anomalies du développement du noyau PV contribuent au phénotype d’hyperphagie des souris Sim1+/-. En second lieu, nous avons observé que la croissance pondérale des souris Sim1+/- et des souris Sim1+/+ n’était pas significativement différente lorsque la quantité de calories présentée aux souris Sim1+/- était la même que celle consommée par les souris Sim1+/+. De plus, l’analyse qualitative et quantitative des tissus adipeux blancs et des tissus adipeux bruns n’a démontré aucune différence significative en ce qui a trait à la taille et à la masse de ces tissus chez les deux groupes. Finalement, au terme de ces expériences, les souris Sim1+/--pairées n’étaient pas différentes des souris Sim1+/+ en ce qui a trait à leur insulinémie et leur contenu en triglycérides du foie et des masses adipeuses, alors que tous ces paramètres étaient augmentés chez les souris Sim1+/- nourries ad libitum. Ces résultats laissent croire que l’hyperphagie, et non une diminution des dépenses énergétiques, est la cause principale de l’obésité des souris Sim1+/-. Par conséquent, ces résultats suggèrent que : i) l’haploinsuffisance de Sim1 est associée à une augmentation de l’apport calorique sans toutefois moduler les dépenses énergétiques; ii) l’existence d’au moins deux voies neuronales issues du noyau PV : l’une qui régule la prise alimentaire et l’autre la thermogénèse; et iii) l’haploinsuffisance de Sim1 affecte spécifiquement la voie neuronale qui régule la prise alimentaire. En dernier lieu, nous avons montré que l’injection de MTII, de leptine ainsi que de CCK induit une diminution significative de la consommation calorique des souris des deux génotypes, Sim1+/+ et Sim1+/-. De fait, la consommation calorique cumulative des souris Sim1+/- et Sim1+/+ est diminuée de 37% et de 51%, respectivement, durant les 4 heures suivant l’administration i.p. de MTII comparativement à l’administration d’une solution saline. Lors de l’administration i.c.v. de la leptine, la consommation calorique cumulative des souris Sim1+/- et Sim1+/+ est diminuée de 47% et de 32%, respectivement. Finalement, l’injection i.p. de CCK diminue la consommation calorique des souris Sim1+/- et Sim1+/+ de 52% et de 36%, respectivement. L’ensemble des résultats suggère ici que l’haploinsuffisance de Sim1 diminue l’activité de certaines voies neuronales régulant l’homéostasie énergétique, et particulièrement de celles qui contrôlent la prise alimentaire. En résumé, ces travaux ont montré que l’haploinsuffisance de Sim1 affecte plusieurs processus du développement au sein du noyau PV. Ces anomalies du développement peuvent conduire à des dysfonctions de certains processus physiologiques distincts régulés par le noyau PV, et notamment de la prise alimentaire, et contribuer ainsi au phénotype d’obésité. Les souris hétérozygotes pour le gène Sim1 représentent donc un modèle animal unique, où l’hyperphagie, et non les dépenses énergétiques, est la principale cause de l’obésité. En conséquence, ces souris pourraient représenter un modèle expérimental intéressant pour l’étude des mécanismes cellulaires et moléculaires en contrôle de la prise alimentaire.
Resumo:
Le développement ainsi que l’amélioration des différentes techniques de purification sont des défis importants pour la chimie d’aujourd’hui. Certaines des méthodes actuelles, tel que le greffage d’un réactif sur un support solide permettant d’accéder à un produit pur par simple filtration du milieu, comportent toutefois certains inconvénients. En effet, les propriétés de solubilité de ces polymères rendent la mise en œuvre des réactions plus difficiles. C’est dans ce contexte que le groupe du Pr. Charette a rapporté l’utilisation de réactifs liés à un sel de tétraarylphosphonium (TAP). Ces sels peuvent être solubilisés dans un solvant tel que le dichlorométhane et aisément retirés du milieu réactionnel par précipitation à l’aide d’éther diéthylique (Chapitre 1). L’un des objectifs de cette thèse a donc été lié à la découverte de deux méthodes complémentaires qui, jusqu’à présent, sont considérées comme des méthodes de choix pour la synthèse des sels de TAP fonctionnalisés (Chapitre 2). L’une d’entre elles est utilisée par Soluphase inc., une entreprise qui commercialise ces sels de TAP. L’efficacité des sels en tant que support dans la synthèse de petites molécules a été démontrée lors de la synthèse d’un produit naturel, la (–)-coniine (Chapitre 3). L’isolement des intermédiaires synthétiques instables par simple précipitation à l’aide d’un support de TAP a permis de rendre cette synthèse plus efficace que celle déjà connue. Dans le deuxième volet de cette thèse, plusieurs problèmes reliés à la synthèse de dérivés cyclopropaniques 1,1-disubstitués ont été étudiés. Ces derniers font partie intégrale de plusieurs produits naturels et de médicaments. Cependant, leur formation par une réaction de cyclopropanation d’alcènes utilisant des réactifs diazoïques possédant deux groupements de type accepteur n’est pas tâche facile (Chapitre 4). En effet, cette réaction souffre d’un faible contrôle diastéréosélectif. Par le fait même, très peu de méthodologies de synthèse ont rapporté l’utilisation de ce type de réactifs diazoïques dans des réactions de cyclopropanation stéréosélectives. L’étude du mécanisme de la réaction de cyclopropanation catalysée au Rh(II) a proposé des indices favorisant un modèle ayant des précédents dans la littérature (Chapitre 5). Ces études nous ont mené à la découverte de la «capacité trans-directrice» du groupement amide lors des réactions de cyclopropanation d’oléfines. Nous avons donc utilisé cette propriété afin de résoudre plusieurs problèmes rencontrés dans la littérature. Nous avons montré qu’elle permet l’accès à des dérivés cyclopropaniques possédant deux groupements carboxyliques géminaux avec des sélectivités élevées (Chapitre 6). Ces produits étaient accessibles que par des séquences synthétiques nécessitant plusieurs étapes. De plus, nous avons démontrés que ces nouveaux dérivés cyclopropaniques sont des outils synthétiques fort utiles dans la synthèse de produits naturels d’intérêt biologique. Cette formidable «capacité trans-directrice» du groupement amide nous a permi de résoudre le problème de la synthèse asymétrique de dérivés carboxyliques α-cyano cyclopropaniques (Chapitre 7). De plus, ce projet nous a menées à la découverte de l’effet de divers additif achiraux permettant d’augmenter la sélectivité dans certaines réactions. Cette réaction possède une vaste étendue et l’utilité de ces nouveaux dérivés cyclopropaniques a été démontrée par plusieurs transformations de groupements fonctionnels.
Resumo:
Un certain nombre de théories pédagogiques ont été établies depuis plus de 20 ans. Elles font appel aux réactions de l’apprenant en situation d’apprentissage, mais aucune théorie pédagogique n’a pu décrire complètement un processus d’enseignement en tenant compte de toutes les réactions émotionnelles de l’apprenant. Nous souhaitons intégrer les émotions de l’apprenant dans ces processus d’apprentissage, car elles sont importantes dans les mécanismes d’acquisition de connaissances et dans la mémorisation. Récemment on a vu que le facteur émotionnel est considéré jouer un rôle très important dans les processus cognitifs. Modéliser les réactions émotionnelles d’un apprenant en cours du processus d’apprentissage est une nouveauté pour un Système Tutoriel Intelligent. Pour réaliser notre recherche, nous examinerons les théories pédagogiques qui n’ont pas considéré les émotions de l’apprenant. Jusqu’à maintenant, aucun Système Tutoriel Intelligent destiné à l’enseignement n’a incorporé la notion de facteur émotionnel pour un apprenant humain. Notre premier objectif est d’analyser quelques stratégies pédagogiques et de détecter les composantes émotionnelles qui peuvent y être ou non. Nous cherchons à déterminer dans cette analyse quel type de méthode didactique est utilisé, autrement dit, que fait le tuteur pour prévoir et aider l’apprenant à accomplir sa tâche d’apprentissage dans des conditions optimales. Le deuxième objectif est de proposer l’amélioration de ces méthodes en ajoutant les facteurs émotionnels. On les nommera des « méthodes émotionnelles ». Le dernier objectif vise à expérimenter le modèle d’une théorie pédagogique améliorée en ajoutant les facteurs émotionnels. Dans le cadre de cette recherche nous analyserons un certain nombre de théories pédagogiques, parmi lesquelles les théories de Robert Gagné, Jerome Bruner, Herbert J. Klausmeier et David Merrill, pour chercher à identifier les composantes émotionnelles. Aucune théorie pédagogique n’a mis l’accent sur les émotions au cours du processus d’apprentissage. Ces théories pédagogiques sont développées en tenant compte de plusieurs facteurs externes qui peuvent influencer le processus d’apprentissage. Nous proposons une approche basée sur la prédiction d’émotions qui est liée à de potentielles causes déclenchées par différents facteurs déterminants au cours du processus d’apprentissage. Nous voulons développer une technique qui permette au tuteur de traiter la réaction émotionnelle de l’apprenant à un moment donné au cours de son processus d’apprentissage et de l’inclure dans une méthode pédagogique. Pour atteindre le deuxième objectif de notre recherche, nous utiliserons un module tuteur apprenant basé sur le principe de l’éducation des émotions de l’apprenant, modèle qui vise premièrement sa personnalité et deuxièmement ses connaissances. Si on défini l’apprenant, on peut prédire ses réactions émotionnelles (positives ou négatives) et on peut s’assurer de la bonne disposition de l’apprenant, de sa coopération, sa communication et l’optimisme nécessaires à régler les problèmes émotionnels. Pour atteindre le troisième objectif, nous proposons une technique qui permet au tuteur de résoudre un problème de réaction émotionnelle de l’apprenant à un moment donné du processus d’apprentissage. Nous appliquerons cette technique à une théorie pédagogique. Pour cette première théorie, nous étudierons l’effet produit par certaines stratégies pédagogiques d’un tuteur virtuel au sujet de l’état émotionnel de l’apprenant, et pour ce faire, nous développerons une structure de données en ligne qu’un agent tuteur virtuel peut induire à l’apprenant des émotions positives. Nous analyserons les résultats expérimentaux en utilisant la première théorie et nous les comparerons ensuite avec trois autres théories que nous avons proposées d’étudier. En procédant de la sorte, nous atteindrons le troisième objectif de notre recherche, celui d’expérimenter un modèle d’une théorie pédagogique et de le comparer ensuite avec d’autres théories dans le but de développer ou d’améliorer les méthodes émotionnelles. Nous analyserons les avantages, mais aussi les insuffisances de ces théories par rapport au comportement émotionnel de l’apprenant. En guise de conclusion de cette recherche, nous retiendrons de meilleures théories pédagogiques ou bien nous suggérerons un moyen de les améliorer.
Resumo:
Cette thèse porte sur l’évaluation de la cohérence du réseau conceptuel démontré par des étudiants de niveau collégial inscrits en sciences de la nature. L’évaluation de cette cohérence s’est basée sur l’analyse des tableaux de Burt issus des réponses à des questionnaires à choix multiples, sur l’étude détaillée des indices de discrimination spécifique qui seront décrits plus en détail dans le corps de l’ouvrage et sur l’analyse de séquences vidéos d’étudiants effectuant une expérimentation en contexte réel. Au terme de ce projet, quatre grands axes de recherche ont été exploré. 1) Quelle est la cohérence conceptuelle démontrée en physique newtonienne ? 2) Est-ce que la maîtrise du calcul d’incertitude est corrélée au développement de la pensée logique ou à la maîtrise des mathématiques ? 3) Quelle est la cohérence conceptuelle démontrée dans la quantification de l’incertitude expérimentale ? 4) Quelles sont les procédures concrètement mise en place par des étudiants pour quantifier l’incertitude expérimentale dans un contexte de laboratoire semi-dirigé ? Les principales conclusions qui ressortent pour chacun des axes peuvent se formuler ainsi. 1) Les conceptions erronées les plus répandues ne sont pas solidement ancrées dans un réseau conceptuel rigide. Par exemple, un étudiant réussissant une question sur la troisième loi de Newton (sujet le moins bien réussi du Force Concept Inventory) montre une probabilité à peine supérieure de réussir une autre question sur ce même sujet que les autres participants. De nombreux couples de questions révèlent un indice de discrimination spécifique négatif indiquant une faible cohérence conceptuelle en prétest et une cohérence conceptuelle légèrement améliorée en post-test. 2) Si une petite proportion des étudiants ont montré des carences marquées pour les questions reliées au contrôle des variables et à celles traitant de la relation entre la forme graphique de données expérimentales et un modèle mathématique, la majorité des étudiants peuvent être considérés comme maîtrisant adéquatement ces deux sujets. Toutefois, presque tous les étudiants démontrent une absence de maîtrise des principes sous-jacent à la quantification de l’incertitude expérimentale et de la propagation des incertitudes (ci-après appelé métrologie). Aucune corrélation statistiquement significative n’a été observée entre ces trois domaines, laissant entendre qu’il s’agit d’habiletés cognitives largement indépendantes. Le tableau de Burt a pu mettre en lumière une plus grande cohérence conceptuelle entre les questions de contrôle des variables que n’aurait pu le laisser supposer la matrice des coefficients de corrélation de Pearson. En métrologie, des questions équivalentes n’ont pas fait ressortir une cohérence conceptuelle clairement démontrée. 3) L’analyse d’un questionnaire entièrement dédié à la métrologie laisse entrevoir des conceptions erronées issues des apprentissages effectués dans les cours antérieurs (obstacles didactiques), des conceptions erronées basées sur des modèles intuitifs et une absence de compréhension globale des concepts métrologiques bien que certains concepts paraissent en voie d’acquisition. 4) Lorsque les étudiants sont laissés à eux-mêmes, les mêmes difficultés identifiées par l’analyse du questionnaire du point 3) reviennent ce qui corrobore les résultats obtenus. Cependant, nous avons pu observer d’autres comportements reliés à la mesure en laboratoire qui n’auraient pas pu être évalués par le questionnaire à choix multiples. Des entretiens d’explicitations tenus immédiatement après chaque séance ont permis aux participants de détailler certains aspects de leur méthodologie métrologique, notamment, l’emploi de procédures de répétitions de mesures expérimentales, leurs stratégies pour quantifier l’incertitude et les raisons sous-tendant l’estimation numérique des incertitudes de lecture. L’emploi des algorithmes de propagation des incertitudes a été adéquat dans l’ensemble. De nombreuses conceptions erronées en métrologie semblent résister fortement à l’apprentissage. Notons, entre autres, l’assignation de la résolution d’un appareil de mesure à affichage numérique comme valeur de l’incertitude et l’absence de procédures d’empilement pour diminuer l’incertitude. La conception que la précision d’une valeur numérique ne peut être inférieure à la tolérance d’un appareil semble fermement ancrée.
Resumo:
Au Canada et au Québec, au cours des années 2000, la migration des travailleurs qualifiés originaires d’Amérique du Sud a connu une croissance très rapide. Pourtant, ce flux migratoire et sa composante féminine ne semblent pas avoir fait l’objet d’une lecture sociologique. Ce travail vise à combler quelques lacunes dans ce domaine des connaissances, en examinant le processus d’intégration économique d’immigrantes d’origine sud-américaine arrivées durant cette décennie. L’étude comprend l’analyse de 16 cas de femmes originaires de divers pays d’Amérique du Sud qui ont un diplôme universitaire ou l’équivalent, qui avaient déjà une expérience de travail dans leur pays d’origine et qui possèdent une bonne maîtrise de la langue française. Les questions qui guident cette recherche dépassent l’aspect statistique ou sociodémographique d’un groupe non étudié dans le contexte canadien. Le but principal de ce mémoire consiste à examiner l’importance d’une variété de ressources culturelles et symboliques qui sont déployées tout au long du processus d’intégration socioéconomique par des immigrantes sud-américaines de la catégorie des « travailleurs qualifiés » dans le contexte montréalais. Dans ce but, l’étude analyse comment les ressources acquises dans la société d’origine ont des impacts sur le parcours professionnel de ces femmes, en leur permettant de définir des stratégies d’intégration sur le marché du travail dans la société réceptrice. L’analyse se déploie à partir de la problématisation des facteurs construits socioculturellement comme catégories de structuration et de hiérarchisation qui, selon le contexte, définissent la position sociale et qui, à travers l’expérience, expliquent la position situationnelle des immigrantes sud-américaines. L’accès, l’utilisation et la mobilisation des ressources pour définir des stratégies d’intégration socioprofessionnelle sont analysés à partir de quatre axes : l’expérience, la dimension intersubjective, le contexte institutionnel et organisationnel, et finalement, la dimension représentationnelle.
Resumo:
RÉSUMÉ Les répercussions du sida sur la communauté intellectuelle préfiguraient un changement certain dans l’esthétique littéraire contemporaine. Le témoignage de l’expérience individuelle de l’écrivain, à cet instant de désarroi collectif et de répression sociale à l’égard de la communauté homosexuelle, cherchait à provoquer une reconfiguration de l’espace de l’aveu par la projection du sujet privé dans la sphère publique. Cette posture de mise à nu avait déjà vu le jour dans les écrits féministes des années 70, mais elle a subi dans les années 80 et 90 une transformation importante puisque c’est le sujet masculin qui s’est exposé par la médiation du corps dans le récit de la maladie à l’heure du sida. Les discours de l’intime tentaient de rapprocher les espaces social et littéraire tout en affirmant des formes définies par des éthiques et des esthétiques hétérogènes. La période d’écriture de la maladie, qui clôt l’oeuvre de Guibert, est caractérisée par l’ancrage du contexte social de l’épidémie du sida. Par conséquent, les trois récits qui la fondent, soit À l’ami qui ne m’a pas sauvé la vie (1990), Le protocole compassionnel (1991) et Cytomégalovirus (1992), constituent le triptyque sur lequel s’appuiera ma réflexion, auquel s’ajoute le journal tenu par Guibert depuis son adolescence jusqu’à sa mort, Le mausolée des amants (2001), qui a été publié dix ans après la disparition de l’auteur. Cette oeuvre s’inscrit en partie dans cette mouvance du témoignage de la maladie, qui prend place entre 1987 et 1991, période pendant laquelle l’écrivain sent sa vulnérabilité sur le plan de sa santé. Il est proposé d’étudier à travers ces écrits l’écriture de l’aveu et de la dénonciation, telle qu’elle est pensée chez Guibert. Il s’agira de réfléchir sur les stratégies et les fonctions du témoignage littéraire d’une telle expérience à travers la mise en récit du sujet. Une problématique traverse toutefois cette posture de mise en danger individuelle où la nécessité de se révéler est l’objet d’un non-consensus. Or, cette recherche d’intensité par l’aveu, qui repose sur la maladie, la sexualité et la mort, veut dépasser sa dimension apocalyptique en tentant d’inscrire l’oeuvre dans une éthique sociale. De ce fait, le dévoilement, sur le mode de la dénonciation, s’oriente sur la dimension collective en prenant à partie la société et la communauté.
Resumo:
Plusieurs agents anticancéreux très puissants sont caractérisés par une solubilité aqueuse limitée et une toxicité systémique importante. Cette dernière serait liée d’une part à la solubilisation des agents anticancéreux à l’aide de surfactifs de bas poids moléculaire, connus pour leur toxicité intrinsèque, et d’autre part, par le manque de spécificité tissulaire des anticancéreux. Les vecteurs colloïdaux à base de polymères permettraient de résoudre certains défis liés à la formulation d’agents anticancéreux hydrophobes. D’abord, les polymères peuvent être sélectionnés afin de répondre à des critères précis de compatibilité, de dégradation et d’affinité pour le médicament à formuler. Ensuite, le fait d’encapsuler l’agent anticancéreux dans un vecteur peut améliorer son efficacité thérapeutique en favorisant son accumulation au niveau du tissu cible, i.e. la tumeur, et ainsi limiter sa distribution au niveau des tissus sains. Des travaux antérieurs menés au sein de notre laboratoire ont mené à la mise au point de micelles à base de poly(N-vinyl-pyrrolidone)-bloc-poly(D,L-lactide) (PVP-b-PDLLA) capables de solubiliser des agents anticancéreux faiblement hydrosolubles dont le PTX. Ce dernier est commercialisé sous le nom de Taxol® et formulé à l’aide du Crémophor EL (CrEL), un surfactif de bas poids moléculaire pouvant provoquer, entre autres, des réactions d’hypersensibilité sévères. Bien que les micelles de PVP-b-PDLLA chargées de PTX aient démontré une meilleure tolérance comparée au Taxol®, leur potentiel de ciblage tumoral et leur efficacité thérapeutique étaient similaires à la forme commerciale à doses égales. Ceci était possiblement dû au fait que les micelles étaient rapidement déstabilisées et ne pouvaient retenir leur cargo suite à leur administration intraveineuse. Nous avons donc décidé de poursuivre les travaux avec un autre type de vecteur, soit des nanoparticules, qui possèdent une stabilité intrinsèque supérieure aux micelles. L’objectif principal de cette thèse de doctorat était donc de mettre au point des nanoparticules polymères pour l’administration parentérale d’agents anticancéreux faiblement solubles dans l’eau. Les nanoparticules devaient permettre d’encapsuler des agents anticancéreux hydrophobes et de les libérer de manière contrôlée sur plusieurs jours. De plus, elles devaient démontrer un temps de circulation plasmatique prolongée afin de favoriser l’accumulation passive du médicament encapsulé au niveau de la tumeur. La première partie du travail visait à employer pour la première fois le copolymère amphiphile PVP-b-PDLLA comme émulsifiant dans la préparation de nanoparticules polymères. Ainsi, une méthode de fabrication des nanoparticules par émulsion huile-dans-eau a été appliquée afin de produire des nanoparticules à base de PDLLA de taille inférieure à 250 nm. Grâce aux propriétés lyoprotectrices de la couronne de PVP présente à la surface des nanoparticules, celles-ci pouvaient retrouver leur distribution de taille initiale après lyophilisation et redispersion en milieu aqueux. Deux anticancéreux hydrophobes, soit le PTX et l’étoposide (ETO), ont été encapsulés dans les nanoparticules et libérés de ces dernières de façon contrôlée sur plusieurs jours in vitro. Une procédure de « salting-out » a été appliquée afin d’améliorer le taux d’incorporation de l’ETO initialement faible étant donnée sa solubilité aqueuse légèrement supérieure à celle du PTX. Le second volet des travaux visait à comparer le PVP comme polymère de surface des nanoparticules au PEG, le polymère le plus fréquemment employé à cette fin en vectorisation. Par le biais d’études d’adsorption de protéines, de capture par les macrophages et de biodistribution chez le rat, nous avons établi une corrélation in vitro/in vivo démontrant que le PVP n’était pas un agent de surface aussi efficace que le PEG. Ainsi, malgré la présence du PVP à la surface des nanoparticules de PDLLA, ces dernières étaient rapidement éliminées de la circulation sanguine suite à leur capture par le système des phagocytes mononucléés. Par conséquent, dans le troisième volet de cette thèse, le PEG a été retenu comme agent de surface, tandis que différents polymères biodégradables de la famille des polyesters, certains synthétiques (PDLLA et copolymères d’acide lactique/acide glycolique), d’autres de source naturelle (poly(hydroxyalkanoates)(PHAs)), ont été investiguées comme matériaux formant le cœur des nanoparticules. Il en est ressorti que les propriétés physicochimiques des polyesters avaient un impact majeur sur l’efficacité d’encapsulation du PTX et son profil de libération des nanoparticules in vitro. Contrairement aux PHAs, les polymères synthétiques ont démontré des taux d’incorporation élevés ainsi qu’une libération contrôlée de leur cargo. Des études de pharmacocinétique et de biodistribution ont démontré que les nanoparticules de PDLLA dotées d’une couronne de PEG conféraient un temps de circulation plasmatique prolongé au PTX et favorisaient son accumulation tumorale. Les nanoparticules polymères représentent donc une alternative intéressante au Taxol®.
Resumo:
Les discussions sur l’éthique de la santé mentale se concentrent généralement sur des sujets comme la confidentialité ou les conflits d’intérêt. Certaines formes de thérapie donnent cependant lieu à des situations plus particulières. C’est le cas de la thérapie psychodynamique et des considérations éthiques soulevées par les processus de transfert et de contre-transfert. En raison du peu de recherche sur ce sujet, l’approche de l’analyse documentaire critique, une méthode qualitative, fut sélectionnée. Ce projet vise à établir l’apport de la médecine narrative et plus spécifiquement du concept de représentation pour analyser les aspects éthiques du transfert et du contre-transfert. À cette fin, ces processus sont étudiés en détail et les diverses stratégies proposées aux thérapeutes pour maintenir une relation éthique avec leurs patients sont recensées. Popularisés principalement par Rita Charon, la médecine narrative et ses principaux composants, dont la représentation, sont ensuite présentés. De plus, la mimèsis étant à la base de la représentation, les travaux de Paul Ricœur sur le sujet sont discutés. Le dernier chapitre de ce mémoire, qui constitue la partie analytique du projet, prend la forme d’un exercice inductif évaluant l’apport de la médecine narrative pour analyser les aspects éthiques du transfert et du contre-transfert.
Resumo:
Des études adultes sur l’œdème pulmonaire lésionnel et le Syndrome de Détresse Respiratoire Aiguë ont mené à l’établissement de recommandations sur les stratégies de ventilation mécanique à employer chez ces patients. Cependant, il n’est pas clair si les recommandations adultes sont également bénéfiques pour l’enfant. Objectif Décrire les stratégies de ventilation mécanique employées chez les enfants atteints d’un œdème pulmonaire lésionnel. Méthodes Étude épidémiologique transversale tenue dans 59 unités de Soins Intensifs Pédiatriques de 12 pays en Amérique du Nord et en Europe. Six jours d’étude ont eu lieu entre juin et novembre 2007. Les enfants atteints d’un œdème pulmonaire lésionnel étaient inclus et des données sur la sévérité de leur maladie, les paramètres de ventilation mécanique et les thérapies adjuvantes employées ont été recueillies. Résultats Des 3823 enfants dépistés, 414 (10.8%) avaient un œdème pulmonaire lésionnel et 165 (40%) ont été inclus dans l’étude (124 étaient sous ventilation mécanique conventionnelle, 27 sous ventilation à haute fréquence par oscillation et 14 sous ventilation non invasive). Dans le groupe sous ventilation conventionnelle, 43.5% étaient ventilés avec un mode contrôlé à pression, le volume courant moyen était de 8.3±3.3 ml/kg et l’utilisation de la PEP et FiO2 était hétérogène. Conclusions Cette étude démontre une hétérogénéité dans les stratégies de ventilation mécanique employées chez les enfants souffrant d’un œdème pulmonaire lésionnel. Celle-ci pourrait être en partie reliée à la robustesse des critères diagnostiques actuellement utilisés pour définir l’ALI/SDRA. Une évaluation rigoureuse de ces stratégies est nécessaire pour guider la standardisation des soins et optimiser l’issue de ces patients.
Resumo:
Dans sa thèse, l’auteure analyse la fonction du système judiciaire dans le système juridique selon une double perspective historique et sociologique. Cette approche possède un potentiel euristique important, car elle révèle que la place réservée à la production judiciaire du droit se modifie au gré de la conception que se fait la société de l’origine et de la légitimité du droit. Grâce à la méthodologie proposée par la théorie des systèmes, il est possible d’analyser le phénomène de la montée en puissance des juges dans sa dimension scientifique, en substituant une interprétation sociologique à celle, traditionnelle, formulée par la science politique. Grâce à une réappropriation de la justice par la science juridique, la production judiciaire du droit peut être étudiée dans une perspective systémique. Celle-ci démontre la situation névralgique occupée par la fonction de juger dans le système juridique. Par le biais d’un retour aux sources de la fonction de juger, l’auteur identifie les stratégies empruntées par les titulaires de cette fonction pour maintenir et légitimer leur position dans l’organisation du système juridique. La thèse démontre que le discours judiciaire de la Cour suprême du Canada sur la norme d’indépendance judiciaire homologue la théorie de la place centrale du système judiciaire dans le système juridique. La thèse conclut enfin que des conditions sociologiques sont nécessaires pour assurer l’indépendance judiciaire et garantir la primauté du droit. Ces conditions sont la différenciation sociale, une structure de programme juridique conditionnelle et la limitation de la responsabilité des juges pour l’impact de leurs décisions dans le système social.
Resumo:
Les innovations technologiques pullulent dans le milieu policier depuis quelques années. Devant cette abondance de choix technologiques, et dans une conjoncture de ralentissement économique, la police doit s’assurer de faire une sélection favorisant le meilleur retour sur investissement. L’évaluation des technologies est la meilleure méthode permettant d’atteindre cet objectif. Ce projet de recherche analyse les différentes stratégies d’évaluation des technologies des corps policiers fédéraux et provinciaux du Canada en se basant sur le domaine baromètre de l’identité judiciaire. Cette étude s’appuie sur plusieurs données qualitatives : 1) observation participative à la Sûreté du Québec; 2) entrevues semi-directives (n=11) avec des membres de l’Ontario Provincial Police et de la Gendarmerie Royale du Canada. L’analyse intégrée des données colligées permet de mieux comprendre la dynamique de l’évaluation technologique dans la police. Même si une évolution est perceptible, certaines améliorations pourraient accroître l’efficacité du mini-PTA (Police Technology Assessment) dans un contexte où l’opérationnel et le théorique doivent cohabiter en parfaite harmonie afin de faciliter le travail des utilisateurs. Le mini-PTA est un outil facilitant l’adaptation de l’évaluation des technologies aux réalités régionales, mais ne peut en aucun cas remplacer unilatéralement le PTA fait par les grosses organisations d’évaluation des technologies policières.
Resumo:
Le dévoilement de sa séropositivité représente une préoccupation quotidienne des femmes vivant avec le VIH, complexifié par la stigmatisation. L'état des connaissances demeure très fragmenté : les études révèlent des patterns (à qui les femmes dévoilent et à quelle fréquence), les raisons pour dévoiler ou non, les conséquences positives et négatives ainsi que les facteurs liés au dévoilement, limitant une compréhension globale du phénomène. Inspirée de la toile de fond de Parse (1998, 2003), cette présente étude visait à décrire et à mieux comprendre l'expérience du dévoilement, telle que perçue par des femmes vivant avec le VIH nées au Québec. La méthode phénoménologique a été privilégiée afin de recueillir des données auprès de sept participantes, par la tenue d’une entrevue semi structurée. L’analyse des données a reposé sur deux activités de recherche proposées par van Manen (1997), soit la réflexion et l’écriture, permettant d’identifier les sept thèmes suivants : 1) Se respecter tout en considérant les confidents ; 2) Ressentir l’appréhension; 3) Exercer un contrôle pour assurer une protection; 4) S’engager délibérément dans une démarche de révélation-dissimulation; 5) S’exposer au contexte social stigmatisant empreint d’exclusion; 6) Souffrir intérieurement; 7) Bénéficier des retombées positives de sa décision. Ces thèmes ont contribué à la formulation de l’essence du phénomène étudié soit : vivre l’ambivalence d’une démarche paradoxale de révélation-dissimulation, au cœur d’une souffrance profonde intensifiée par la stigmatisation, tout en s’enrichissant des bienfaits recueillis. Il est permis de croire que ces résultats puissent avoir des retombées positives pour guider la pratique infirmière autour du soutien aux femmes dans leur expérience de dévoilement.
Resumo:
La présente étude vise à décrire les représentations sociales que des jeunes francophones en santé au Nouveau-Brunswick ont à l’égard du diabète. Cette étude découle d’un partenariat, initié entre l’Université de Moncton et divers organismes et collèges communautaires du Nouveau-Brunswick, qui ont identifié l’importance d’intervenir auprès des jeunes francophones en milieu scolaire pour prévenir le diabète. La théorie des représentations sociales est le cadre théorique utilisé pour décrire la vision que les jeunes ont du diabète, de son origine et des facteurs associés à sa prévention. À notre connaissance, cette étude est la première à examiner le concept du diabète chez des adolescents non atteints de diabète. Hypothèse principale: étant donné que l’expérience que les adolescents ont du diabète est limitée à leur environnement social et qu’ils ont de la difficulté à définir les concepts de santé et de maladie, ils ne seront pas capables de décrire le diabète en profondeur. Pour ce faire, des groupes de discussion, incluant une technique d’association libre, ont été réalisés, entre novembre et décembre 2005, auprès d’adolescents de 5e, 8e et 10e année recrutés dans quatre écoles francophones du Nouveau-Brunswick (Districts 1 et 11). Les réponses des élèves aux groupes de discussion et à l’association libre ont été classées dans des catégories et sous-catégories (analyse de contenu), et des tests de Khi-deux et de «Fisher» ont permis de déterminer les différences entre les sexes et les niveaux scolaires. Cent-trente adolescents (70 filles et 60 garçons) de 5e (n=44), 8e (n=46) et 10e année (n=40) ont participé à 19 groupes de discussion. Lors de l’activité d’association libre, les catégories les plus fréquemment mentionnées étaient : sucre (cité par 66% des participants), traitement (48%), nature du diabète (45%), nutrition (41%), sang (38%), complications (18%), manifestations physiologiques (11%), obésité (6%) et activité physique (6%). Aucune différence significative n’a été observée entre les sexes mais les élèves de 10e année ont cité plus fréquemment les catégories «traitement», «sang» et «obésité». Lors des groupes de discussion, les adolescents ont décrit le diabète comme une maladie (13/19 groupes) reliée au sucre (15/19 groupes) et au sang (13/19 groupes). Cependant, seulement quelques groupes ont discuté en profondeur de la nature du diabète (ex.: rôle de l’insuline et pancréas), des types de diabète (types 1 et 2) et des symptômes et des complications. Ils ont aussi cité ce que les gens atteints de diabète devaient faire pour traiter leur diabète (ex.: manger bien: 18 groupes; se piquer: 17 groupes; prendre des pilules: 5 groupes; et faire de l’activité physique: 5 groupes), mais ils n’ont pas discuté des stratégies à entreprendre pour y arriver. Les représentations de l’origine du diabète incluaient l’hérédité et l’âge (13/19 groupes), l’obésité et l’alimentation (12/19 groupes) et l’activité physique (13/19 groupes). Dans la moitié des groupes, les adolescents ont mentionné se sentir à risque de diabète; les filles plus que les garçons. Treize groupes ont fait référence aux comportements observés chez des diabétiques connus, ce qui démontre l’importance de l’environnement social sur les représentations. Les résultats de cette étude appuient l’hypothèse que les adolescents sont limités dans leur description du diabète en matière de définitions, origines et prévention du diabète. Ces résultats fournissent des pistes de réflexion aux professionnels de la santé pour identifier le contenu et les stratégies que devraient contenir les programmes éducatifs en matière de prévention du diabète chez les jeunes.