17 resultados para Cass, Lewis, 1782-1866.
Resumo:
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
Resumo:
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
Resumo:
Problématique: L’hypertension artérielle essentielle, facteur de risque majeur dans le développement des maladies cardiovasculaires, est un trait multigénique complexe dont les connaissances sur le déterminisme génétique nécessitent d’être approfondies. De nombreux loci à trait quantitatif (QTLs); soit des gènes responsables de faire varier la pression artérielle (PA), ont été identifiés chez l’humain et le modèle animal. Cependant, le mystère plane encore sur la façon dont ces gènes fonctionnent ensemble pour réguler la PA. Hypothèse et objectif: Plutôt qu’une addition de QTLs ayant chacun une action infinitésimale sur la PA, une interaction épistatique entre les gènes serait responsable du phénotype hypertendu. Ainsi, l’étude de cette épistasie entre les gènes impliqués, directement ou indirectement, dans l’homéostasie de la PA nous permettrait d’explorer de nouvelles voies de régulation moléculaire en cause dans cette maladie. Méthodes: Via la réalisation de souches congéniques de rats, où un segment chromosomique provenant d’une souche receveuse hypertendue (Dahl Salt Sensitive, SS/Jr) est remplacé par son homologue provenant d’une souche donneuse normotendue (Lewis, LEW), des QTLs peuvent être mis en évidence. Dans ce contexte, la combinaison de QTLs via la création de doubles ou multiples congéniques constitue la première démonstration fonctionnelle des interactions intergéniques. Résultats: Vingt-sept combinaisons au total nous ont menés à l’appréciation d’une modularisation des QTLs. Ces derniers ont été catégorisés selon deux principaux modules épistatiques (EMs) où les QTLs appartenant à un même EM sont épistatiques entre eux et participent à une même voie régulatrice. Les EMs/cascades agissent alors en parallèle pour réguler la PA. Grâce à l’existence de QTLs ayant des effets opposés sur la PA, nous avons pu établir l’ordre hiérarchique entre trois paires de QTLs. Cependant, lorsque cette suite régulatrice ne peut être déterminée, d’autres approches sont nécessaires. Nos travaux nous ont mené à l’identification d’un QTL situé sur le chromosome 16 du rat (C16QTL), appartenant au EM1 et qui révélerait une nouvelle voie de l’homéostasie de la PA. Le gène retinoblastoma-associated protein 140 (Rap140)/family with sequence similarity 208 member A (Fam208a), présentant une mutation non synonyme entre SS/Jr et LEW est le gène candidat le plus plausible pour représenter C16QTL. Celui-ci code pour un facteur de transcription et semblerait influencer l’expression de Solute carrier family 7 (cationic amino acid transporter, y+ system) member 12 (Slc7a12), spécifiquement et significativement sous exprimé dans les reins de la souche congénique portant C16QTL par rapport à la souche SS/Jr. Rap140/Fam208a agirait comme un inhibiteur de la transcription de Slc7a12 menant à une diminution de la pression chez Lewis. Conclusions: L’architecture complexe de la régulation de la PA se dévoile mettant en scène de nouveaux acteurs, pour la plupart inconnus pour leur implication dans la PA. L’étude de la nouvelle voie de signalisation Rap140/Fam208a - Slc7a12 nous permettra d’approfondir nos connaissances quant à l’homéostasie de la pression artérielle et de l’hypertension chez SS/Jr. À long terme, de nouveaux traitements anti-hypertenseurs, ciblant plus d’une voie de régulation à la fois, pourraient voir le jour.
Resumo:
Ce texte examine la croyance largement répandue selon laquelle les humains n'utiliseraient que 10 % de leur cerveau. Le texte comprend quatre parties. Les deux premières parties évaluent l'ampleur du «mythe du 10 %» et en retracent les origines. La troisième partie montre que cette croyance n'est nullement justifiée en passant successivement en revue les connaissances concernant l'anatomie et la physiologie du cerveau, la plasticité cérébrale ainsi que des données sur l'évolution. La dernière partie évoque quelques raisons de la persistance du mythe du 10 %.
Resumo:
Dans ce texte, l’auteur poursuit deux objectifs. Première- ment, il tente de montrer que, désormais, les compétences cognitives priment la classe sociale lorsqu’il s’agit d’obtenir un emploi prestigieux. Pour ce faire, il examine cinq aspects : le statut social et les compétences cognitives, l’effet Flynn, l’interaction entre l’héritabilité et l’environne- mentalité, l’homogamie éducationnelle et la mondialisation. Deuxièmement, l’auteur présente quelques conséquences sociales de cet état de fait aux plans social et éducatif, dont l’idéologie méritocratique.
Resumo:
L'oxygénothérapie hyperbare (OTH) consiste à soumettre un patient à des taux de pression plus élevés que la pression atmosphérique normale et de lui faire respirer 100 % d'oxygène. Cette approche a été mise à l'essai pour le traitement de nombreuses conditions médicales avec succès dans certains cas alors pour d'autres sa validité reste encore à démontrer. Dans le cas de la paralysie cérébrale son utilisation a soulevé de nombreuses controverses et les études conduites jusqu'alors n'ont pas encore convaincu tous les membres de la communauté scientifique et ce, malgré certains effets positifs mis en évidence. Une récente étude qui a montré des améliorations notables chez des enfants atteints de paralysie cérébrale (PC) traités avec de l'air légèrement pressurisé, de même que chez ceux traités avec un protocole standard pour l'oxygénothérapie hyperbare (l'OTH), est invoquée pour nier l'efficacité de l'OTH. Des considérations politiques et économiques, plutôt que purement scientifiques, jouent un rôle important dans cette controverse. Des recherches systématiques supplémentaires sont requises, mais entre-temps, comme les effets thérapeutiques de cette approche semblent plus importants que ceux des thérapies actuellement acceptées dans le traitement de la paralysie cérébrale, les enfants atteints de cette condition ne devraient pas se faire refuser l'accès à l'OTH.
Resumo:
Dans ce texte, nous soumettons à examen la conception de l'autisme avancée par Laurent Mottron dans son ouvrage L'autisme : une autre intelligence (Mottron, 2004). Le texte comprend quatre parties. Dans la première partie, nous présentons le cadre paradigmatique de l'auteur en matière de troubles envahissants et l'emphase mise sur une catégorie qu'il tient pour majoritaire bien que négligée dans la littérature scientifique et dans les réseaux de services : les troubles envahissants du développement sans déficienceintellectuelle (TEDSDI). Il assimile ce groupe à un nouvel autisme dominant. Dans la deuxième partie, nous montronsque souscrire à l'idée de l'autisme comme une autre forme d'intelligence ne permet pas une conceptualisation adéquate des capacités ni des déficits des personnes concernées. La troisième partie, aborde le problème du traitement de l'autisme. À l'encontre des propos de Mottron, nous défendons la pertinence de traiter l'autisme, notamment par I'intervention comportementale intensive (lCI) et l'analyse appliquée du comportement et jugeons sa position anachronique. D'autre part, la prépondérance et quasiexclusivité qu'il accorde à TEACCH comme réponse sociopsycho-pédagogique apparaît injustifiée. La quatrième partie constitue une critique de l'analyse des émotions chez les personnes autistes que fait l'auteur à partir d'écrits autobiographiques, un retour vers l'introspection comme méthode de recherche. En conclusion, nous déplorons le ton général du propos, trop dialectique, notamment dans sa dichotomisation entre autistes et non autistes. Le militantisme de Mottron pour les « autistes » sans déficience intellectuelle déçoit, de même que le débordement idéologique de sa théorie en faveur de la reconnaissance d'une culture autistique.
Resumo:
Un certain nombre de chercheurs (Birch, 1996; Cole, 1995, 1996; De Bergerac, 1998) fondent sur un modèle neurophysiologique leurs arguments en faveur de la delphinothérapie pour traiter divers désordres (DSM-IV) cognitifs et émotifs chez les enfants et les jeunes. Ce modèle recourt à des analogies avec les mécanismes de sonophorèse, d'écholocation et de transmission neurohormonale dans son application thérapeutique. Dans le but de démystifier les éléments pseudo-scientifiques auprès d'un lectorat non spécialisé, cet article critique les postulats et les implications relatifs à ces mécanismes et il conclut à l'absence d'un soutien pertinent et valide concernant ce modèle.
Resumo:
Essai présenté à la Faculté des arts et des sciences en vue de l’obtention du doctorat en psychologie (D.Psy.)
Resumo:
Éditorial portant sur les pratiques controversées de certains psychoéducateurs québécois.
Resumo:
Éditorial en réponse à l'article suivant : Cossette, L. (2014). Science et égalité des sexes ne sont pas inconciliables. Revue de psychoéducation, 43(1), 155-159.
Resumo:
L'EMDR est une thérapie qui a été développée pour traiter les souvenirs traumatiques, puis proposée pour traiter une variété de troubles psychologiques. Ce texte est le premier à recenser en français les études qui ont évalué l'efficacité de cette forme de thérapie. L'efficacité de l'EMDR est d'abord démontrée à l'aide d'études de cas qui comportent des limites importantes. Les études de cas basées sur un protocole expérimental donnent des résultats plus mitigés. Les études contrôlées qui examinent l'efficacité de l'EMDR sont ensuite décrites en fonction du type de contrôle exercé et du type de trouble traité. L'EMDR est aussi efficace que la thérapie cognitivocomportementale pour traiter le trouble de stress posttraumatique, mais pas pour le traitement de la phobie spécifique ni du trouble panique. De plus, les études montrent de façon répétée que l'absence des mouvements oculaires ne modifie pas l'efficacité de l'EMDR. Une analyse des différences et des similitudes entre l'EMDR et l'approche cognitivo-comportementale est présentée. Les caractéristiques pseudo-scientifiques qui ont marquées le développement et la diffusion de l'EMDR sont aussi abordées.
Resumo:
La communication facilitée (CF), une méthode d'assistance impliquant une aide pour faciliter la composition de messages sur un clavier, passe souvent pour la solution privilégiée dans le cas des sujets dont la communication est entravée par de graves problèmes. Trente-cinq études empiriques destinées à valider cette approche sont ici analysées. Deux conclusions s'en dégagent : seuls 6% des sujets manifestent une réelle "capacité" à communiquer dans le cadre de la CF et plus l'échantillon est vaste, moins on constate de réussites; en fait les études impliquant 10 sujets et plus donnent un taux de réussite inférieur à 1%. Malgré ces résultats décevants, les tenants de la CF continuent d'en faire la promotion tout en les attribuant aux résistances des sujets en situation d'évaluation plutôt qu'aux limites de la méthode elle-même. Une telle attitude comporte des enjeux éthiques qui feront l'objet de la discussion. En conclusion, les auteurs font état d'une alternative à la CF pour des individus encore plus handicapés au niveau de la communication.
Resumo:
Éditorial en réponse à un article d'Andrée Quiviger.