834 resultados para limitations of therapy
Resumo:
The purpose of this major research project was to develop a practical tool in the form of a handbook that could facilitate educators’ effective use of technology in primary and junior classrooms. The main goal was to explore the use of iPad devices and applications in the literacy classroom. The study audited available free applications against set criteria and selected only those that promoted 21st-century learning. The researcher used such applications to develop literacy lessons that aligned with curriculum expectations and promoted 21st-century skills and traditional skills alike. The study also created assessment models to evaluate the use of iPads in student work and explored the benefits and limitations of technology usage in student learning.
Resumo:
Le virus de l’hépatite C (VHC) est un problème mondial. La majorité des personnes infectées (70-85%) développent une infection chronique qui cause des complications hépatiques. Le seul régime thérapeutique approuvé pour le VHC est l'interféron alpha (IFN-α). Ce traitement a un taux de réussite de 50-80% selon le génotype de virus et le moment de l'initiation de la thérapie. Les facteurs régissant la réponse au traitement ne sont pas bien définis. Des études antérieures ont suggéré un rôle potentiel de la réponse immunitaire de l'hôte au succès de la thérapie, toutefois, ces résultats sont controversés. Nous avons émis l'hypothèse que la réponse immunitaire de l’hôte sera plus efficace chez les patients qui commencent la thérapie tôt pendant la phase aiguë de l'infection. En revanche, la réponse immunitaire sera épuisée lorsque le traitement est initié pendant la phase chronique. L'objectif principal de ce mémoire est d’étudier les facteurs immunologiques qui régissent la réponse à la thérapie, et de déterminer si la contribution de la réponse immunitaire de l'hôte peut être influencée par la période de l'infection. Nos résultats démontrent l'efficacité de la restauration de la réponse immunitaire spécifique au VHC lorsque la thérapie par l'interféron est initiée tôt. Ceci est démontré par le sauvetage des cellules T efficaces spécifiques au VHC efficace similaires à celles observées chez les individus qui ont résolu spontanément, suggérant ainsi qu'elles jouent un rôle actif dans la réponse au traitement. Toutefois, cette réponse n'a pas été restaurée chez les patients traités au cours de la phase chronique. Ces résultats ont des implications importantes dans la compréhension des mécanismes sous-jacents à la réponse aux traitements actuels et au développement des nouvelles thérapies.
Resumo:
En février, 2009 un rapport de PHRMA (Pharmaceutical Research and Manufacturers of America) confirmait que plus de 300 médicaments pour le traitement des maladies cardiaques étaient en phase d’essais cliniques ou en révision par les agences règlementaires. Malgré cette abondance de nouvelles thérapies cardiovasculaires, le nombre de nouveaux médicaments approuvés chaque année (toutes indications confondues) est en déclin avec seulement 17 et 24 nouveaux médicaments approuvés en 2007 et 2008, respectivement. Seulement 1 médicament sur 5000 sera approuvé après 10 à 15 ans de développement au coût moyen de 800 millions $. De nombreuses initiatives ont été lancées par les agences règlementaires afin d’augmenter le taux de succès lors du développement des nouveaux médicaments mais les résultats tardent. Cette stagnation est attribuée au manque d’efficacité du nouveau médicament dans bien des cas mais les évaluations d’innocuité remportent la palme des causes d’arrêt de développement. Primum non nocere, la maxime d’Hippocrate, père de la médecine, demeure d’actualité en développement préclinique et clinique des médicaments. Environ 3% des médicaments approuvés au cours des 20 dernières années ont, par la suite, été retirés du marché suite à l’identification d’effets adverses. Les effets adverses cardiovasculaires représentent la plus fréquente cause d’arrêt de développement ou de retrait de médicament (27%) suivi par les effets sur le système nerveux. Après avoir défini le contexte des évaluations de pharmacologie de sécurité et l’utilisation des bio-marqueurs, nous avons validé des modèles d’évaluation de l’innocuité des nouveaux médicaments sur les systèmes cardiovasculaires, respiratoires et nerveux. Évoluant parmi les contraintes et les défis des programmes de développements des médicaments, nous avons évalué l’efficacité et l’innocuité de l’oxytocine (OT), un peptide endogène à des fins thérapeutiques. L’OT, une hormone historiquement associée à la reproduction, a démontré la capacité d’induire la différentiation in vitro de lignées cellulaires (P19) mais aussi de cellules souches embryonnaires en cardiomyocytes battants. Ces observations nous ont amené à considérer l’utilisation de l’OT dans le traitement de l’infarctus du myocarde. Afin d’arriver à cet objectif ultime, nous avons d’abord évalué la pharmacocinétique de l’OT dans un modèle de rat anesthésié. Ces études ont mis en évidence des caractéristiques uniques de l’OT dont une courte demi-vie et un profil pharmacocinétique non-linéaire en relation avec la dose administrée. Ensuite, nous avons évalué les effets cardiovasculaires de l’OT sur des animaux sains de différentes espèces. En recherche préclinique, l’utilisation de plusieurs espèces ainsi que de différents états (conscients et anesthésiés) est reconnue comme étant une des meilleures approches afin d’accroître la valeur prédictive des résultats obtenus chez les animaux à la réponse chez l’humain. Des modèles de rats anesthésiés et éveillés, de chiens anesthésiés et éveillés et de singes éveillés avec suivi cardiovasculaire par télémétrie ont été utilisés. L’OT s’est avéré être un agent ayant d’importants effets hémodynamiques présentant une réponse variable selon l’état (anesthésié ou éveillé), la dose, le mode d’administration (bolus ou infusion) et l’espèce utilisée. Ces études nous ont permis d’établir les doses et régimes de traitement n’ayant pas d’effets cardiovasculaires adverses et pouvant être utilisées dans le cadre des études d’efficacité subséquentes. Un modèle porcin d’infarctus du myocarde avec reperfusion a été utilisé afin d’évaluer les effets de l’OT dans le traitement de l’infarctus du myocarde. Dans le cadre d’un projet pilote, l’infusion continue d’OT initiée immédiatement au moment de la reperfusion coronarienne a induit des effets cardiovasculaires adverses chez tous les animaux traités incluant une réduction de la fraction de raccourcissement ventriculaire gauche et une aggravation de la cardiomyopathie dilatée suite à l’infarctus. Considérant ces observations, l’approche thérapeutique fût révisée afin d’éviter le traitement pendant la période d’inflammation aigüe considérée maximale autour du 3ième jour suite à l’ischémie. Lorsqu’initié 8 jours après l’ischémie myocardique, l’infusion d’OT a engendré des effets adverses chez les animaux ayant des niveaux endogènes d’OT élevés. Par ailleurs, aucun effet adverse (amélioration non-significative) ne fût observé chez les animaux ayant un faible niveau endogène d’OT. Chez les animaux du groupe placebo, une tendance à observer une meilleure récupération chez ceux ayant des niveaux endogènes initiaux élevés fût notée. Bien que la taille de la zone ischémique à risque soit comparable à celle rencontrée chez les patients atteints d’infarctus, l’utilisation d’animaux juvéniles et l’absence de maladies coronariennes sont des limitations importantes du modèle porcin utilisé. Le potentiel de l’OT pour le traitement de l’infarctus du myocarde demeure mais nos résultats suggèrent qu’une administration systémique à titre de thérapie de remplacement de l’OT devrait être considérée en fonction du niveau endogène. De plus amples évaluations de la sécurité du traitement avec l’OT dans des modèles animaux d’infarctus du myocarde seront nécessaires avant de considérer l’utilisation d’OT dans une population de patients atteint d’un infarctus du myocarde. En contre partie, les niveaux endogènes d’OT pourraient posséder une valeur pronostique et des études cliniques à cet égard pourraient être d’intérêt.
Resumo:
We study the workings of the factor analysis of high-dimensional data using artificial series generated from a large, multi-sector dynamic stochastic general equilibrium (DSGE) model. The objective is to use the DSGE model as a laboratory that allow us to shed some light on the practical benefits and limitations of using factor analysis techniques on economic data. We explain in what sense the artificial data can be thought of having a factor structure, study the theoretical and finite sample properties of the principal components estimates of the factor space, investigate the substantive reason(s) for the good performance of di¤usion index forecasts, and assess the quality of the factor analysis of highly dissagregated data. In all our exercises, we explain the precise relationship between the factors and the basic macroeconomic shocks postulated by the model.
Resumo:
Dans ma mémoire, j’ai discuté les concepts d’arbitrage comme méthode de résolution d’un litige et par après, je donne un court historique de l’acceptation d’arbitrage au Québec. Le Chapitre I étudie la structure des règlements du R.B.Q., qui est un gendre d’arbitrage obligatoire institutionnelle, et j’inclus les diverses procédures dans ce système d’arbitrage. La sécurité offert par le plan de garantie règle par le R.B.Q. est discuté dans le Chapitre II en autant qu’il est relié avec le system d’arbitrage R.B.Q., y compris la structure du plan et le contenu de la sécurité. Chapitre III parle des recours disponible aux Bénéficiares ainsi que les avantages et désavantages de l’arbitrage sous les Règlements du R.B.Q. Un court étude comparative de quatre autres juridictions est recherché en Chapitre IV, incluant notre voisin, Ontario, les Etats-Unis et on croise dans les juridictions de Royaume Unie et Allemagne. En conclusion, j’établis que notre système d’arbitrage sous le Règlement protéges notre publique plus que d’autres juridictions. Je suggère des améliorations au système, par contre, incluant l’agrandissement du plan de garantie, l’ajout des pouvoirs donnés aux arbitres américains et ensuite d’intègré un système d’arrêt semblable aux Royaumes Unis.
Resumo:
La mammite subclinique est un problème de santé fréquent et coûteux. Les infections intra-mammaires (IIM) sont souvent détectées à l’aide de mesures du comptage des cellules somatiques (CCS). La culture bactériologique du lait est cependant requise afin d’identifier le pathogène en cause. À cause de cette difficulté, pratiquement toutes les recherches sur la mammite subclinique ont été centrées sur la prévalence d’IIM et les facteurs de risque pour l’incidence ou l’élimination des IIM sont peu connus. L’objectif principal de cette thèse était d’identifier les facteurs de risque modifiables associés à l’incidence, l’élimination et la prévalence d’IIM d’importance dans les troupeaux laitiers Canadiens. En premier lieu, une revue systématique de la littérature sur les associations entre pratiques utilisées à la ferme et CCS a été réalisée. Les pratiques de gestion constamment associées au CCS ont été identifiées et différentiées de celles faisant l’objet de rapports anecdotiques. Par la suite, un questionnaire bilingue a été développé, validé, et utilisé afin de mesurer les pratiques de gestion d’un échantillon de 90 troupeaux laitiers canadiens. Afin de valider l’outil, des mesures de répétabilité et de validité des items composant le questionnaire ont été analysées et une évaluation de l’équivalence des versions anglaise et française a été réalisée. Ces analyses ont permis d’identifier des items problématiques qui ont du être recatégorisés, lorsque possible, ou exclus des analyses subséquentes pour assurer une certaine qualité des données. La plupart des troupeaux étudiés utilisaient déjà la désinfection post-traite des trayons et le traitement universel des vaches au tarissement, mais beaucoup des pratiques recommandées n’étaient que peu utilisées. Ensuite, les facteurs de risque modifiables associés à l’incidence, à l’élimination et à la prévalence d’IIM à Staphylococcus aureus ont été investigués de manière longitudinale sur les 90 troupeaux sélectionnés. L’incidence d’IIM semblait être un déterminant plus important de la prévalence d’IIM du troupeau comparativement à l’élimination des IIM. Le port de gants durant la traite, la désinfection pré-traite des trayons, de même qu’une condition adéquate des bouts de trayons démontraient des associations désirables avec les différentes mesures d’IIM. Ces résultats viennent souligner l’importance des procédures de traite pour l’obtention d’une réduction à long-terme de la prévalence d’IIM. Finalement, les facteurs de risque modifiables associés à l’incidence, à l’élimination et à la prévalence d’IIM à staphylocoques coagulase-négatif (SCN) ont été étudiés de manière similaire. Cependant, afin de prendre en considération les limitations de la culture bactériologique du lait pour l’identification des IIM causées par ce groupe de pathogènes, une approche semi-Bayesienne à l’aide de modèles de variable à classe latente a été utilisée. Les estimés non-ajusté de l’incidence, de l’élimination, de la prévalence et des associations avec les expositions apparaissaient tous considérablement biaisés par les imperfections de la procédure diagnostique. Ce biais était en général vers la valeur nulle. Encore une fois, l’incidence d’IIM était le principal déterminant de la prévalence d’IIM des troupeaux. Les litières de sable et de produits du bois, de même que l’accès au pâturage étaient associés à une incidence et une prévalence plus basse de SCN.
Resumo:
Cette thèse se concentre sur ce que j'appelle «l’espace négatif» de la représentation dans la poésie de Stevens comme étant un véritable espace d'engagement politique, une interprétation qui se distingue de la plus grande partie de la critique sur Stevens. En suivant les écrits philosophiques d'Emmanuel Levinas, j'affirme que l'emphase que Stevens place sur la représentation de la représentation elle-même ouvre un espace au-delà des limites rigides de l'identité-ce que Levinas appelle « le je [sujet] semblable », permettant un contact authentique avec « l'Autre» ainsi qu’avec le concept de « l'infini ». Bien que Stevens s’est farouchement opposé à la notion Romantique de la sublime transcendance, c’est-à-dire d'un espace censé exister en dehors des limites de l'imagination humaine, il se concerne néanmoins avec l'exploration d'un espace au-delà de l'identité individuelle. Pour Stevens, cependant, « la transcendance» est toujours, nécessairement, liée par les restrictions reconnues du langage humain et de l'imagination, et donc par la réalité du monde perceptible. Toute « transcendance» qui est recherchée ou atteinte, dans la poésie de Stevens ne devrait donc pas - ma thèse affirme - être entendu dans le sens sublime déterminé auparavant par les Romantiques. Une connexion plus appropriée peut plutôt être faite avec la transcendance concrète et immédiate décrit par Lévinas comme le «face à face ». L’attention que Stevens accordent aux notions concrètes et immédiates est souvent exprimé à travers son attention sur les qualités esthétiques de la langue. Sa poésie a en effet la poésie pour sujet, mais pas dans le sens solipsiste qui lui est souvent attribué. En se concentrant sur le processus actif et créateur inhérent à l'écriture et à la lecture de la poésie, Stevens explore la nature de l'Etre lui-même. Je compare cette exploration dans le travail de Stevens à celle du dessinateur, ou de l'artiste, et dans ma conclusion, je suggère les liens entre l'approche d'enquête de Stevens et celle d’artistes visuels contemporains qui se sont également engagés à la figuration du processus créatif. L’ artiste sud-africain William Kentridge est mon exemple principal , en raison de sa conviction que la méthode est intrinsèquement liée à l'engagement politique et social.
Resumo:
Un objectif principal du génie logiciel est de pouvoir produire des logiciels complexes, de grande taille et fiables en un temps raisonnable. La technologie orientée objet (OO) a fourni de bons concepts et des techniques de modélisation et de programmation qui ont permis de développer des applications complexes tant dans le monde académique que dans le monde industriel. Cette expérience a cependant permis de découvrir les faiblesses du paradigme objet (par exemples, la dispersion de code et le problème de traçabilité). La programmation orientée aspect (OA) apporte une solution simple aux limitations de la programmation OO, telle que le problème des préoccupations transversales. Ces préoccupations transversales se traduisent par la dispersion du même code dans plusieurs modules du système ou l’emmêlement de plusieurs morceaux de code dans un même module. Cette nouvelle méthode de programmer permet d’implémenter chaque problématique indépendamment des autres, puis de les assembler selon des règles bien définies. La programmation OA promet donc une meilleure productivité, une meilleure réutilisation du code et une meilleure adaptation du code aux changements. Très vite, cette nouvelle façon de faire s’est vue s’étendre sur tout le processus de développement de logiciel en ayant pour but de préserver la modularité et la traçabilité, qui sont deux propriétés importantes des logiciels de bonne qualité. Cependant, la technologie OA présente de nombreux défis. Le raisonnement, la spécification, et la vérification des programmes OA présentent des difficultés d’autant plus que ces programmes évoluent dans le temps. Par conséquent, le raisonnement modulaire de ces programmes est requis sinon ils nécessiteraient d’être réexaminés au complet chaque fois qu’un composant est changé ou ajouté. Il est cependant bien connu dans la littérature que le raisonnement modulaire sur les programmes OA est difficile vu que les aspects appliqués changent souvent le comportement de leurs composantes de base [47]. Ces mêmes difficultés sont présentes au niveau des phases de spécification et de vérification du processus de développement des logiciels. Au meilleur de nos connaissances, la spécification modulaire et la vérification modulaire sont faiblement couvertes et constituent un champ de recherche très intéressant. De même, les interactions entre aspects est un sérieux problème dans la communauté des aspects. Pour faire face à ces problèmes, nous avons choisi d’utiliser la théorie des catégories et les techniques des spécifications algébriques. Pour apporter une solution aux problèmes ci-dessus cités, nous avons utilisé les travaux de Wiels [110] et d’autres contributions telles que celles décrites dans le livre [25]. Nous supposons que le système en développement est déjà décomposé en aspects et classes. La première contribution de notre thèse est l’extension des techniques des spécifications algébriques à la notion d’aspect. Deuxièmement, nous avons défini une logique, LA , qui est utilisée dans le corps des spécifications pour décrire le comportement de ces composantes. La troisième contribution consiste en la définition de l’opérateur de tissage qui correspond à la relation d’interconnexion entre les modules d’aspect et les modules de classe. La quatrième contribution concerne le développement d’un mécanisme de prévention qui permet de prévenir les interactions indésirables dans les systèmes orientés aspect.
Resumo:
L’approche cognitive du trouble obsessionnel-compulsif (TOC) propose un lien bidirectionnel entre les émotions et les cognitions. Cependant, même si des études montrent une association entre les émotions et le TOC, aucune étude ne s’est attardée à la relation entre les émotions, les cognitions et les comportements au cours d’une thérapie cognitive. La présente étude a pour but d’examiner la relation entre les processus cognitif, béhavioral et émotionnel au cours d’une thérapie basée sur les inférences (TBI) chez des personnes souffrant du TOC. Plus précisément, nous avons observé comment les émotions et les symptômes du TOC s’influencent et comment ils s’influencent à travers le temps. Les patients ont rempli un journal de bord tout au long du processus thérapeutique, notant (de 0 à 100) des émotions clés, ainsi que les croyances et les comportements ciblés durant la thérapie. Des analyses à mesures répétées ont été utilisées afin de maximiser le potentiel des données longitudinales. Les résultats montrent que l’anxiété, la tristesse et la joie ont des trajectoires similaires aux croyances et aux comportements au cours de la thérapie. Les forces et limites de l’étude sont discutées. Les implications des résultats pour le traitement des émotions et des pensées à différents moments de la thérapie sont aussi discutées.
Resumo:
Au cours des dernières années, des méthodes non-invasives de stimulations permettant de moduler l’excitabilité des neurones suivant des lésions du système nerveux central ont été développées. Ces méthodes sont maintenant couramment utilisées pour étudier l’effet de l’inhibition du cortex contralésionnel sur la récupération motrice à la suite d’un accident vasculocérébral (AVC). Bien que plusieurs de ces études rapportent des résultats prometteurs, les paramètres permettant une récupération optimale demeurent encore inconnus. Chez les patients victimes d'un AVC, il est difficile de débuter les traitements rapidement et d'initier l’inhibition dans les heures suivant la lésion. L'impact de ce délai est toujours inconnu. De plus, aucune étude n’a jusqu’à maintenant évalué l’effet de la durée de l’inhibition sur la récupération du membre parétique. Dans le laboratoire du Dr Numa Dancause, nous avons utilisé un modèle bien établi de lésion ischémique chez le rat pour explorer ces questions. Nos objectifs étaient d’évaluer 1) si une inactivation de l’hémisphère contralésionnel initiée dans les heures qui suivent la lésion peut favoriser la récupération et 2) l’effet de la durée de l’inactivation sur la récupération du membre parétique. Suite à une lésion dans le cortex moteur induite par injections d’un vasoconstricteur, nous avons inactivé l’hémisphère contralésionnel à l’aide d’une pompe osmotique assurant l’infusion continue d’un agoniste du GABA (Muscimol). Dans différents groupes expérimentaux, nous avons inactivé l’hémisphère contralésionnel pour une durée de 3, 7 et 14 jours suivant la lésion. Dans un autre groupe, le Muscimol a été infusé pour 14 jours mais à un débit moindre de façon à pouvoir étudier le lien entre la fonction du membre non-parétique et la récupération du membre parétique. Les données comportementales de ces groupes ont été comparées à celles d’animaux ayant récupéré de façon spontanée d'une lésion similaire. Nos résultats indiquent que l’augmentation de la durée de l’inactivation (de 3 à 14 jours) accélère la récupération du membre parétique. De plus, les deux groupes ayant reçu une inactivation d'une durée de 14 jours ont montré une plus grande récupération fonctionnelle que le groupe n’ayant pas reçu d’inactivation de l’hémisphère contralésionnel, le groupe contrôle. Nos résultats suggèrent donc que l’inactivation de l’hémisphère contralésionnel initiée dans les heures suivant la lésion favorise la récupération du membre parétique. La durée d’inhibition la plus efficace (14 jours) dans notre modèle animal est beaucoup plus longues que celles utilisées jusqu’à maintenant chez l’homme. Bien qu’il soit difficile d’extrapoler la durée idéale à utiliser chez les patients à partir de nos données, nos résultats suggèrent que des traitements de plus longue durée pourraient être bénéfiques. Finalement, un message clair ressort de nos études sur la récupération fonctionnelle après un AVC: dans le développement de traitements basés sur l’inhibition de l’hémisphère contralésionnel, la durée de l’inactivation est un facteur clef à considérer.
Resumo:
Les humains communiquent via différents types de canaux: les mots, la voix, les gestes du corps, des émotions, etc. Pour cette raison, un ordinateur doit percevoir ces divers canaux de communication pour pouvoir interagir intelligemment avec les humains, par exemple en faisant usage de microphones et de webcams. Dans cette thèse, nous nous intéressons à déterminer les émotions humaines à partir d’images ou de vidéo de visages afin d’ensuite utiliser ces informations dans différents domaines d’applications. Ce mémoire débute par une brève introduction à l'apprentissage machine en s’attardant aux modèles et algorithmes que nous avons utilisés tels que les perceptrons multicouches, réseaux de neurones à convolution et autoencodeurs. Elle présente ensuite les résultats de l'application de ces modèles sur plusieurs ensembles de données d'expressions et émotions faciales. Nous nous concentrons sur l'étude des différents types d’autoencodeurs (autoencodeur débruitant, autoencodeur contractant, etc) afin de révéler certaines de leurs limitations, comme la possibilité d'obtenir de la coadaptation entre les filtres ou encore d’obtenir une courbe spectrale trop lisse, et étudions de nouvelles idées pour répondre à ces problèmes. Nous proposons également une nouvelle approche pour surmonter une limite des autoencodeurs traditionnellement entrainés de façon purement non-supervisée, c'est-à-dire sans utiliser aucune connaissance de la tâche que nous voulons finalement résoudre (comme la prévision des étiquettes de classe) en développant un nouveau critère d'apprentissage semi-supervisé qui exploite un faible nombre de données étiquetées en combinaison avec une grande quantité de données non-étiquetées afin d'apprendre une représentation adaptée à la tâche de classification, et d'obtenir une meilleure performance de classification. Finalement, nous décrivons le fonctionnement général de notre système de détection d'émotions et proposons de nouvelles idées pouvant mener à de futurs travaux.
Resumo:
L’hypercholestérolémie familiale (FH) est un désordre lipidique associé aux maladies cardiovasculaires les plus fréquentes. La FH est causée par des mutations dans les gènes LDLR, APOB et PCSK9. Toutefois, chez 20% des patients souffrant de FH, aucune mutation dans ces gènes n'a été détectée et ceci suggère que d’autres gènes seraient à l’origine de la FH. Actuellement, le seul traitement de la FH est une thérapie aux statines. En général les statines sont bien tolérées, cependant, une monothérapie ne permet pas d’atteindre des niveaux thérapeutiques acceptables et dans bien des cas, une thérapie combinée devient nécessaire. De plus, l’intolérance aux statines est présente dans environ 12% des patients. Dans les trois dernières décennies, la survie des patients avec la FH a augmentée de façon notoire mais on observe aussi l’apparition d’une calcification vasculaire sévère chez certains d’entre eux. Il est donc primordial de développer des nouvelles approches thérapeutiques afin de prévenir ces complications tardives. Dans cette thèse doctorat, nous présentons l’étude d’une famille avec un phénotype de FH sévère non causé par des mutations dans les gènes LDLR, APOB et PCSK9. Par des études biochimiques et par séquençage d’ADN utilisant les technologies de nouvelle génération (NextGenSeq), nous avons découvert une mutation dans le gène de l’APOE (Leu167del). Ceci nous permet de proposer le gène codant pour l’APOE comme le 4e locus responsable de la FH (FH4). Par la suite, nous avons effectué deux études de cohortes chez les patients atteints de FH. Premièrement, dans l’étude JUPITER, nous avons démontré que la rosuvastatin augmente les niveaux sanguins de la protéine PCSK9 et ceci limiterait l’efficacité du traitement aux statines. Nous avons aussi étudié l’influence du mutant naturel R46L (perte de fonction de la PCSK9) dans la réponse aux statines. Deuxièmement, nous avons examiné les effets de la perte de fonction de la PCSK9 sur le profil cardiométabolique au sein d’une population pédiatrique. Nous avons déterminé que le génotype de l’APOE est déterminant dans ce profil cardiométabolique. Enfin, nous avons étudié la calcification vasculaire chez les patients atteints de FH. Cette calcification vasculaire progresse de façon indépendante des niveaux de cholestérol sérique et n’est pas associée aux anomalies de l’homéostasie du calcium. En utilisant des modèles murins, nous avons démontré que les souris Ldlr-/- et Tg(Pcsk9) développent des calcifications vasculaires semblables à celles observées chez l’homme. De plus, nous avons confirmé l’implication de la voie de signalisation LRP5/Wnt dans la pathophysiologie de la calcification artérielle. Avec une étude interventionnelle, nous avons trouvé que l’inhibition de l’interleukine 1β (IL-1β) diminue fortement l’apparition de calcifications vasculaire dans notre modèle murin. En conclusion, nos études ont permis l’identification d’un nouveau gène impliqué dans la FH, ont démontré aussi que les statines augmentent les niveaux sériques de PCSK9 et que la perte de fonction de la PCSK9 altère le profil cardiométabolique. Enfin, nous avons établi que la calcification vasculaire représente une complication tardive chez les patients atteints de FH et que, dans notre modèle murin, la calcification vasculaire peut être retardée par l’inhibition d’IL-1β. Ces découvertes peuvent avoir d’importantes répercussions cliniques chez l’humain.
Resumo:
Article
Resumo:
Les enjeux liés aux politiques éducatives ont considérablement changé au cours des dernières décennies. Ces changements sont liés, entre autres, à l’accroissement de l’imputabilité et de la reddition de compte qui est devenue une caractéristique importante des réformes curriculaires et pédagogiques. Les politiques à enjeux élevés exercent une pression énorme sur les districts et les écoles états-unienne afin qu’ils augmentent le rendement des élèves en utilisant des systèmes de conséquences (Hall & Ryan, 2011; Loeb & Strunk, 2007). Ces politiques envoient de puissants messages sur l'importance de certaines matières scolaires au détriment d'autres - circonscrivant les exigences en termes de compétences et de connaissances. La langue maternelle d’enseignement et les mathématiques sont devenues des mesures centrales sur lesquelles reposent l’évaluation et le degré de performance des districts et des écoles. Conséquemment, les administrateurs de districts et les directions d’écoles ont souvent recours à des réformes curriculaires et pédagogiques comme moyen d'augmenter le rendement des élèves dans les matières scolaires visées par ces politiques. Les politiques contraignent les acteurs scolaires de concentrer les ressources sur les programmes curriculaires et les évaluations, le développement professionnel, et la prise de décision pilotée par les données (Anagnostopoulos & Ruthledge, 2007; Honig & Hatch, 2004; Spillane, Diamond, et al., 2002; Weitz White & Rosenbaum, 2008). Cette thèse examine la manière dont les politiques à enjeux élevés opèrent quotidiennement dans les interactions et les pratiques au sein des écoles. Nous analysons plus particulièrement les différents messages provenant de la politique transmis aux acteurs scolaires sur les manières d'apporter des changements substantiels dans le curriculum et l'enseignement. Nous élargissons l’analyse en prenant en compte le rôle des administrateurs de district ainsi que des partenaires universitaires qui façonnent également la manière dont certains aspects des messages provenant des politiques sont transmis, négociés et/ou débattus et d’autres sont ignorés (Coburn & Woulfin, 2012). En utilisant l’analyse de discours, nous examinons le rôle du langage comme constituant et médiateur des interactions sociales entre les acteurs scolaires et d’autres parties prenantes. De telles analyses impliquent une investigation approfondie d’un nombre d’étude de cas limité. Les données utilisées dans cette thèse ont été colligées dans une école primaire états-unienne du mid-West. Cette étude de cas fait partie d’une étude longitudinale de quatre ans qui comprenait huit écoles dans les milieux urbains entre 1999 et 2003 (Distributed Leadership Studies, http://www.distributedleadership.org). La base de données analysée inclut des observations de réunions formelles et des entrevues auprès des administrateurs du district, des partenaires universitaires, de la direction d’école et des enseignants. En plus de l’introduction et de la problématique (chapitre 1) et de discussion et conclusion (chapitre 5), cette thèse comprend un ensemble de trois articles interdépendants. Dans le premier article (chapitre 2), nous effectuons une recension des écrits portant sur le domaine de l’implantation de politiques (policy implementation) et la complexité des relations locales, nationales et internationales dans les systèmes éducatifs. Pour démystifier cette complexité, nous portons une attention particulière à la construction de sens des acteurs scolaires comme étant une dimension clé du processus de mise en œuvre des réformes. Dans le deuxième article (chapitre 3), nous cherchons à comprendre les processus sociaux qui façonnent les réponses stratégiques des acteurs scolaires à l’égard des politiques du district et de l’état et en lien avec la mise en œuvre d’un curriculum prescrit en mathématiques. Plus particulièrement, nous explorons les différentes situations dans lesquelles les acteurs scolaires argumentent au sujet des changements curriculaires et pédagogiques proposés par les administrateurs de district et des partenaires universitaires afin d’augmenter les résultats scolaires en mathématiques dans une école à faible performance. Dans le troisième article (chapitre 4), nous cherchons à démystifier les complexités liées à l’amélioration de l’enseignement dans un environnement de politiques à enjeux élevés. Pour ce faire, nous utilisons l'interaction entre les notions d'agentivité et la structure afin d'analyser la manière dont les conceptions d’imputabilité et les idées qui découlent de l'environnement politique et les activités quotidiennes jouent dans les interactions entre les acteurs scolaires concernant sur l’enseignement de la langue maternelle. Nous explorons trois objectifs spécifiques : 1) la manière dont les politiques à enjeux élevés façonnent les éléments de l’enseignement qui sont reproduits et ceux qui sont transformés au fil du temps ; 2) la manière dont la compréhension des leaders de l’imputabilité façonne les aspects des messages politiques que les acteurs scolaires remarquent à travers les interactions et les conversations et 3) la manière les acteurs scolaires portent une attention particulière à certaines messages au détriment d’autres. Dans le dernier chapitre de cette thèse, nous discutons les forces et les limites de l’analyse secondaire de données qualitatives, les implications des résultats pour le domaine d’études de l’implantation de politiques et les pistes futures de recherches.
Resumo:
L’étude de la sexualité dans le contexte des maladies neurologiques est un domaine émergent qui nous permet de mieux comprendre les corrélats cérébraux et neurocomportementaux de divers aspects de la sexualité. Les changements au sujet de la sexualité sont fréquents à la suite de troubles neurologiques tels que les blessures de la moelle épinière, la sclérose en plaques, l’accident vasculaire cérébral, l'épilepsie et les traumatismes craniocérébraux (TCC). Compte tenu de la complexité de la sexualité après un TCC, celle-ci doit être analysée à partir d'une perspective biopsychosociale qui comprend trois facteurs interdépendants : a) les facteurs neuropsychologiques et psychologiques, b) les variables médicales et physiques, et c) les facteurs relationnels. L’objectif de cette thèse était d’étudier certains éléments de la sexualité auprès de personnes ayant subi un TCC afin de fournir des preuves empiriques pour contribuer à la validation d’une perspective biopsychosociale de la sexualité après un TCC. Trois études quantitatives originales ont été effectuées auprès de personnes ayant subi un TCC léger, modéré ou grave et ayant reçu des services de réadaptation post-TCC, et d’un groupe de témoins en bonne santé, tous vivant dans la communauté. Les groupes étaient comparables en ce qui concerne l’âge, le sexe, le nombre d’années de scolarité, le statut d’emploi et relationnel, et le revenu annuel. Les variables ciblant la sexualité, incluses dans cette thèse, étaient la qualité de vie sexuelle, le comportement sexuel à risque, et la sociosexualité (p. ex., les différences individuelles en ce qui concerne la volonté d’une personne à avoir des relations sexuelles sans engagement). Les variables neuropsychologiques et psychologiques incluaient les fonctions exécutives, la dépression et l’anxiété. Les aspects médicaux et physiques englobaient les symptômes postcommotionnels. Les facteurs relationnels comprenaient les attitudes envers l'infidélité. Les résultats démontrent que par rapport aux témoins en santé, les individus avec un TCC ont montré une diminution de la qualité de vie sexuelle, alors que les groupes étaient comparables sur le plan du comportement sexuel à risque, de la sociosexualité et des attitudes envers l'infidélité. Par ailleurs, les résultats ont montré une différence entre les hommes et les femmes sur le plan de la sociosexualité (p. ex., plus restrictive chez la femme). Chez les personnes ayant subi un TCC, une faible qualité de vie sexuelle était significativement associée à un nombre élevé de symptômes postcommotionnels, un comportement sexuel plus à risque corrélait avec une plus grande fréquence de symptômes dysexécutifs, et une plus faible acceptation de l'infidélité était liée à une sociosexualité moins restrictive. Les résultats de ces trois études soutiennent une perspective biopsychosociale de la sexualité après le TCC. Elles apportent des connaissances nouvelles en ce qui a trait aux domaines de la sexualité qui peuvent être touchés après un TCC, ainsi qu’à certaines variables neuropsychologiques et psychologiques, médicales et physiques, et relationnelles qui sont associées à ces changements. Les implications théoriques, ainsi que pour la pratique clinique et la réadaptation sont discutées. Les limitations des études sont présentées et des recommandations pour la recherche sont proposées. Le modèle biopsychosocial peut être utilisé comme une référence pour guider la recherche future dans ce domaine. D’autres études sur la sexualité et le développement d'interventions multidisciplinaires dans ce domaine pour les personnes TCC sont nécessaires.