218 resultados para Enjeux thérapeutiques


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Ce mémoire décrit et analyse différents types de systèmes d'échange de droits d'émission utilisés dans le cadre de politiques de gestion de la pollution atmosphérique. L'objectif premier est de répertorier des enjeux juridiques étant liés à l'efficacité de ces systèmes. Dans un premier temps, nous nous attardons à la structure et aux mécanismes internes des systèmes d'échange de droits d'émission. Tout d'abord, nous soulignons le fondement théorique de ce type de système. Nous évaluons par la suite la structure et certains litiges liés au système d'échange américain dans le cadre des émissions de dioxyde de soufre. Dans un deuxième temps, nous continuons la description de systèmes en nous attardant plus spécifiquement aux interactions entre les systèmes d'échange de droits d'émission et les autres politiques et règlementations environnementales (incluant d'autres systèmes d'échange d'émission) visant la même problématique environnementale.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Les lésions de la moelle épinière ont un impact significatif sur la qualité de la vie car elles peuvent induire des déficits moteurs (paralysie) et sensoriels. Ces déficits évoluent dans le temps à mesure que le système nerveux central se réorganise, en impliquant des mécanismes physiologiques et neurochimiques encore mal connus. L'ampleur de ces déficits ainsi que le processus de réhabilitation dépendent fortement des voies anatomiques qui ont été altérées dans la moelle épinière. Il est donc crucial de pouvoir attester l'intégrité de la matière blanche après une lésion spinale et évaluer quantitativement l'état fonctionnel des neurones spinaux. Un grand intérêt de l'imagerie par résonance magnétique (IRM) est qu'elle permet d'imager de façon non invasive les propriétés fonctionnelles et anatomiques du système nerveux central. Le premier objectif de ce projet de thèse a été de développer l'IRM de diffusion afin d'évaluer l'intégrité des axones de la matière blanche après une lésion médullaire. Le deuxième objectif a été d'évaluer dans quelle mesure l'IRM fonctionnelle permet de mesurer l'activité des neurones de la moelle épinière. Bien que largement appliquées au cerveau, l'IRM de diffusion et l'IRM fonctionnelle de la moelle épinière sont plus problématiques. Les difficultés associées à l'IRM de la moelle épinière relèvent de sa fine géométrie (environ 1 cm de diamètre chez l'humain), de la présence de mouvements d'origine physiologique (cardiaques et respiratoires) et de la présence d'artefacts de susceptibilité magnétique induits par les inhomogénéités de champ, notamment au niveau des disques intervertébraux et des poumons. L'objectif principal de cette thèse a donc été de développer des méthodes permettant de contourner ces difficultés. Ce développement a notamment reposé sur l'optimisation des paramètres d'acquisition d'images anatomiques, d'images pondérées en diffusion et de données fonctionnelles chez le chat et chez l'humain sur un IRM à 3 Tesla. En outre, diverses stratégies ont été étudiées afin de corriger les distorsions d'images induites par les artefacts de susceptibilité magnétique, et une étude a été menée sur la sensibilité et la spécificité de l'IRM fonctionnelle de la moelle épinière. Les résultats de ces études démontrent la faisabilité d'acquérir des images pondérées en diffusion de haute qualité, et d'évaluer l'intégrité de voies spinales spécifiques après lésion complète et partielle. De plus, l'activité des neurones spinaux a pu être détectée par IRM fonctionnelle chez des chats anesthésiés. Bien qu'encourageants, ces résultats mettent en lumière la nécessité de développer davantage ces nouvelles techniques. L'existence d'un outil de neuroimagerie fiable et robuste, capable de confirmer les paramètres cliniques, permettrait d'améliorer le diagnostic et le pronostic chez les patients atteints de lésions médullaires. Un des enjeux majeurs serait de suivre et de valider l'effet de diverses stratégies thérapeutiques. De telles outils représentent un espoir immense pour nombre de personnes souffrant de traumatismes et de maladies neurodégénératives telles que les lésions de la moelle épinière, les tumeurs spinales, la sclérose en plaques et la sclérose latérale amyotrophique.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Les efforts investis pour diminuer les risques de développer un infarctus du myocarde sont nombreux. Aujourd’hui les médecins prennent connaissance des divers facteurs de risque connus prédisposant aux syndromes coronariens aigus (SCA) dans le but de prendre en charge les patients «à risque» [1]. Bien que le suivi rigoureux et le contrôle de certains facteurs de risque modifiables aient permis une meilleure gestion des cas de SCA, les cas d’infarctus persistent de manière encore trop fréquente dans le monde. Puisque d’importantes études ont démontré que les SCA pouvaient survenir sans même la présence des facteurs de risque conventionnels [2, 3], les chercheurs se sont penchés sur un autre mécanisme potentiellement responsable de l’avènement des SCA : l’inflammation. L’inflammation joue un rôle prépondérant dans l’initiation, la progression et les complications de l’athérosclérose [4, 5] mais aussi dans les situations post-infarctus [6, 7]. Au cours des dernières années, le contrôle du processus inflammatoire est devenu une cible de choix dans la prévention et le traitement des SCA. Cependant, malgré les efforts investis, aucun de ces traitements ne s’est avéré pleinement efficace dans l’atteinte du but ultime visé par une diminution de l’inflammation : la diminution de la mortalité. Le complément est un système complexe reconnu principalement pour son rôle primordial dans l’immunité [2]. Cependant, lorsqu’il est activé de manière inappropriée ou excessive, il peut être à l’origine de nombreux dommages cellulaires caractéristiques de plusieurs pathologies inflammatoires dont font partie les complications de l’athérosclérose et des événements post-infarctus. Le travail effectué dans le cadre de mon doctorat vise à établir les rôles physiopathologiques du complément dans les interactions de l’axe thrombose-inflammation caractéristiques des SCA dans le but ultime d’identifier des cibles thérapeutiques permettant le développement de nouvelles approches pour la prévention et le traitement de ces pathologies. Les principaux résultats obtenus durant mon cursus suggèrent d’abord que la voie alterne du complément peut représenter une cible thérapeutique de choix dans les maladies coronariennes aiguës puisque l’activation terminale du complément semble y être principalement causée par l’activation du cette voie. De faibles niveaux sériques de MBL (mannan-binding lectin) et une activation terminale négligeable du complément caractérisent plutôt la maladie coronarienne stable. En comparant l’activité relative de chacune des voies du complément chez des cohortes de patients traités ou non par un anticorps spécifique à la protéine C5 du complément (pexelizumab), un second volet démontre quant à lui qu’une inhibition de l’activation du C5 n’a pas d’effet bénéfique majeur sur l’inhibition de la formation du complexe sC5b-9 ou sur les événements cliniques subséquents. Par conséquent, nous avons exploré, à l’aide d’un modèle in vitro, les raisons de l’inefficacité du traitement. Les résultats révèlent que le blocage du C5 avec le pexelizumab inhibe la production de l’anaphylatoxine pro-inflammatoire C5a et du complexe terminal du complément sans toutefois avoir d’effet sur l’apoptose des cellules endothéliales produites induite par le sérum des patients atteints de STEMI. Finalement, une autre section stipule que l’atorvastatine diminue l’activation du complément induite par les plaquettes sanguines chez des patients hypercholestérolémiques, mettant en évidence l’importance du rôle de cette statine dans la réduction des effets délétères de l’activation du système du complément médié par les plaquettes. Ensemble, l’étude du rôle spécifique des différentes voies d’activation du complément dans des contextes pathologiques variés, l’analyse des effets d’une inhibition spécifique de la protéine C5 du complément dans la progression des SCA et la mise en évidence des interactions entre l’activation du complément et les plaquettes activées ont contribué au développement d’une meilleure connaissance des rôles physiopathologiques du complément dans la progression de la maladie coronarienne.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La stéatohépatite non alcoolique (NASH) est une pathologie du foie dont l’amplitude et les répercussions sont de plus en plus préoccupantes dans le monde médical ou biomédical. Elle est associée à l’obésité, au syndrome métabolique et au diabète sucré de type II. La recherche de la thérapie optimale pour le NASH est un domaine en plein essor puisqu’aucun traitement n’est suffisamment efficace à ce jour. La présente étude fait le point sur de nouvelles possibilités de traitements qui se sont avérés efficaces pour contrer les différentes lésions métaboliques et cellulaires rencontrées dans un modèle in vivo chez le rat où le NASH est induit par l’ingestion d’une diète riche en gras. Cette étude démontre, tout d’abord, que les traitements durant six semaines avec l’acide ursodéoxycholique (UDCA) et son dérivé le NCX 1000, possédant des propriétés donatrices de monoxyde d’azote, à doses équimolaires, protègent de manière équivalente le foie contre le stress oxydatif, l’hyperinsulinémie, l’inflammation et la fibrose causés par la stéatohépatite. De plus, la combinaison d’une plus faible dose de NCX 1000 avec un antioxydant lipophile tel que la vitamine E offre une protection similaire, particulièrement au niveau des paramètres du stress oxydatif. Par ailleurs, l’étude illustre aussi que la silibinine, composé polyphénolique actif du chardon marie (Silybum marianum) et utilisé en traitement pendant 5 semaines, possède un pouvoir hépatoprotecteur, des propriétés antioxydantes et un effet hypoinsulinémique dans ce modèle de stéatohépatite d’origine nutritionnelle. Le potentiel thérapeutique de ces composés en fait des candidats de choix pour le traitement du NASH qui méritent de faire l’objet d’études cliniques poussées.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L'angiotensine-II (Ang-II), synthétisée à partir de sources extracardiaques et intracardiaques, régule l'homéostasie cardiaque en favorisant des effets mitogéniques et en promouvant la croissance cellulaire résultant d’une altération de l'expression génique. Dans cette étude, nous avons évalué la possibilité que les récepteurs de l'angiotensine-1 (AT1) ou les récepteurs de l'angiotensine-2 (AT2) situés sur l'enveloppe nucléaire régulent l’expression génique des cardiomyocytes. En analysant les noyaux cellulaires retenus des fractions de cœur de rat par immunobuvardage Western, nous avons détecté une co-purification préférentielle des protéines AT1 et AT2 avec un marqueur de la membrane nucléaire (Nup 62), par rapport aux marqueurs de la membrane plasmique (Calpactin I), de l’appareil de Golgi (GRP 78) ou du réticulum endoplasmique (GM130). La microscopie confocale a permis de démontrer la présence des AT1 et AT2 dans les membranes nucléaires. La microinjection de l’Ang-II-FITC sur des cardiomyocytes a provoqué une liaison de préférence aux sites nucléaires. Les enregistrements de transients calciques ont illustré que les AT1 nucléaires régulent le relâchement du Ca2+. L’incubation des ligands spécifiques d’AT1 et d’AT2 avec l’UTP [α32P] a résulté en une synthèse de novo d’ARN (par exemple, 16,9 ± 0,5 cpm/ng ADN contrôle vs 162,4 ± 29,7 cpm/ng ADN-Ang II, 219,4 ± 8,2 cpm/ng ADN L -162313 (AT1) et 126,5 ± 8,7 cpm/ng ADN CGP42112A (AT2), P <0,001). L’incubation des noyaux avec Ang-II augmente de façon significative l’expression de NFκB, une réponse qui est réprimée partiellement par la co-administration de valsartan ou de PD123177. Les expériences dose-réponse avec Ang-II administrée à l'ensemble des noyaux purifiés vs. aux cardiomyocytes seuls a montré une augmentation plus importante dans les niveaux d'ARNm de NFκB avec une affinité de ~ 3 fois plus grande (valeurs d’EC50 = 9 contre 28 pmol/L, respectivement), suggérant un rôle préférentiel nucléaire dans la signalisation. Par conséquent, nous avons conclu que les membranes cardiaques nucléaires possèdent des récepteurs d’Ang-II couplés à des voies de signalisation et à la transcription génique. La signalisation nucléaire pourrait jouer un rôle clé dans les changements de l'expression de gènes cardiaques, entraînant ainsi des implications mécanistiques et thérapeutiques diverses.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Article accepté pour publication dans Les Cahiers de droit 2009 dont le thème spécial est : Dérives et évolutions du droit pénal. Les auteurs ont la permission de diffuser cet article dans Papyrus jusqu’à sa parution dans Les Cahiers de droit.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Cette étude traite de la complexité des enjeux de la mise en lumière urbaine et de sa conception. Le but est de déceler les mécanismes opératoires du projet d’éclairage afin de générer une analyse et une compréhension de ce type d’aménagement. Cette recherche met à jour les enjeux lumineux à différents niveaux comme l’urbanisme, l’environnement, la culture, la communication, la vision et la perception mais aussi au niveau des acteurs et de leurs pratiques sur le terrain. En utilisant une approche qualitative déductive, cette recherche théorique cherche à mieux comprendre les différentes significations du phénomène lumineux : comment dans la réalité terrain ces enjeux de la lumière sont compris, interprétés et traduits au travers de la réalisation des projets et des processus mis en place pour répondre aux besoins d’éclairage ? La pertinence de cette recherche est de questionner les enjeux complexes de la mise en lumière afin de savoir comment concevoir un « bon éclairage ». Comment se déroule un projet d’éclairage de sa conception à sa réalisation ? Quels sont les différents acteurs, leurs modes d’intervention et leurs perceptions du projet d’éclairage ? Le but est de vérifier comment ces enjeux se concrétisent sur le terrain, notamment au travers de l’activité et de l’interprétation des professionnels. Nous souhaitons créer un modèle opératoire qui rende compte des enjeux et du processus de ce type de projet. Modèle qui servira alors de repère pour la compréhension des mécanismes à l’œuvre comme le contexte, les acteurs, les moyens et les finalités des projets. Une étude des recherches théoriques nous permettra de comprendre la polysémie du phénomène lumineux afin d’en déceler la complexité des enjeux et de créer une première interprétation de ce type de projet. Nous déterminerons théoriquement ce que recouvre la notion de « bon éclairage » qui nous permettra de créer une grille analytique pour comparer notre approche avec la réalité sur le terrain. Ces recherches seront ensuite confrontées au recueil des données des études de cas, des stages en urbanisme et en conception lumière, et des interviews de professionnels dans le domaine. Nous confronterons les enjeux définis théoriquement aux collectes de données issues du terrain. Ces données seront collectées à partir de projets réalisés avec les professionnels durant la recherche immersive. La recherche-action nous permettra de collaborer avec les professionnels pour comprendre comment ils sélectionnent, déterminent et répondent aux enjeux des projets d’éclairage. Nous verrons grâce aux entretiens semi-dirigés comment les acteurs perçoivent leurs propres activités et nous interprèterons les données à l’aide de la « théorisation ancrée » pour dégager le sens de leurs discours. Nous analyserons alors les résultats de ces données de manière interprétative afin de déterminer les points convergeant et divergent entre les enjeux théoriques définis en amont et les enjeux définis en aval par la recherche-terrain. Cette comparaison nous permettra de créer une interprétation des enjeux de la mise en lumière urbaine dans toutes leurs complexités, à la fois du point de vue théorique et pratique. Cette recherche qualitative et complexe s’appuie sur une combinaison entre une étude phénoménologique et les méthodologies proposées par la « théorisation ancrée ». Nous procéderons à une combinaison de données issues de la pratique terrain et de la perception de cette pratique par les acteurs de l’éclairage. La recherche d’un « bon éclairage » envisage donc par une nouvelle compréhension l’amélioration des outils de réflexion et des actions des professionnels. En termes de résultat nous souhaitons créer un modèle opératoire de la mise en lumière qui définirait quels sont les différents éléments constitutifs de ces projets, leurs rôles et les relations qu’ils entretiennent entre eux. Modèle qui mettra en relief les éléments qui déterminent la qualité du projet d’éclairage et qui permettra de fournir un outil de compréhension. La contribution de ce travail de recherche est alors de fournir par cette nouvelle compréhension un repère méthodologique et analytique aux professionnels de l’éclairage mais aussi de faire émerger l’importance du phénomène de mise en lumière en suscitant de nouveaux questionnements auprès des activités liées au design industriel, à l’architecture et à l’urbanisme.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Cette thèse porte sur les représentations sociales. Fruit d’un bricolage conceptuel, ces représentations s’inspirent en partie des travaux de Serge Moscovici et de certains auteurs plus contemporains qui s’inscrivent dans son prolongement, dits de l’école française des représentations sociales, ainsi que d’auteurs anglo-saxons qui travaillent à partir de ce concept. Les écrits d’autres chercheurs, dont Stuart Hall, Richard Dyer et Jean-Michel Berthelot, qui adoptent dans des perspectives plus particulièrement liées aux Cultural Studies et à la sociologie ont également aidé à préciser notre façon d’envisager les représentations sociales et d’appréhender leur fonctionnement. Plus précisément, à la suite de Jodelet (1989), nous envisageons les représentations comme des « formes de connaissances socialement élaborées et partagées, ayant une visée pratique et concourant à la construction d’une réalité commune à un ensemble social » (p. 36). Ces représentations possèdent également d’autres particularités. Elles sont, d’après nous, constitutives ainsi que formées par des procédés langagiers qui rendent possibles des opérations. Ce concept nous permet d’étudier les représentations du point de vue de leur effectivité, soit de leur capacité à influencer les significations, à apporter un changement dans la manière d’interpréter une situation et, ce faisant, d’affecter les pratiques et d’induire une différence dans le monde. Ce questionnement au sujet des représentations se déploie sur un terrain qui nous semblait particulièrement riche pour en étudier le fonctionnement, soit celui de la politique qui, par ailleurs, se déroule actuellement dans un contexte de spectacularisation. Présenté comme un brouillage des genres entre divertissement et politique, ce phénomène est également lié à l’avènement de la celebrity politics, à la personnalisation et à l’évaluation, à l’importance prise par le style en politique ainsi qu’à la dramatisation, la fragmentation et la normalisation. Plus précisément, nous étudions les représentations dans un contexte de spectacularisation à partir de trois corpus documentant des événements aussi distincts que les fusions municipales en 2001, la montée en popularité de Mario Dumont et de l’ADQ en 2002 et 2003 ainsi que la série Bunker, le cirque, diffusée à la télévision de Radio-Canada à l’automne 2002. Ces corpus regroupent des textes de sources et de format variés, des textes de loi aux éditoriaux en passant par des dramatiques télévisuelles et des forums électroniques. Nous y avons effectué une analyse itérative et transversale des discours afin de mieux comprendre le fonctionnement des représentations dans un contexte de spectacularisation. Nos analyses ont démontré la variété des procédés et des opérations, telles que l’incontestabilisation, la projection, la localisation, l’amplification, la réduction et l’évaluation, qui permettent de modifier le sens et les enjeux des événements discutés. Les analyses ont également permis d’illustrer que les procédés et les opérations qu’ils rendent possibles balisent les frontières de l’objet et offrent un système classificateur.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Dans un contexte d'instabilité économique, force est de constater que les remises en question du libéralisme économique s'intensifient, mettant ainsi l'accent sur l'importance de la réglementation pour la protection des investisseurs ainsi que l'efficience des marchés financiers. Souvent associés aux conséquences d'un manque d'encadrement, les fonds de couverture représentent des cibles de choix pour ceux qui cherchent à expliquer l'effondrement majeur des marchés, tout en prônant un interventionnisme accru des autorités gouvernementales. Pour mieux comprendre les tenants et aboutissants de cette industrie, la présente étude propose une vue d'ensemble des caractéristiques fondamentales des fonds de couverture, tant sous l'angle de leur structure organisationnelle que de leur encadrement réglementaire. À cet égard, il importe de jauger les principaux enjeux découlant des règles applicables à l'administration d'un fonds, particulièrement sur le plan de la transparence informationnelle et au niveau de la gouvernance interne. Ces deux éléments constituant les pierres angulaires de la présente analyse, notre étude offrira finalement une réflexion sur l'approche réglementaire à privilégier, et ce, en tenant compte des particularités des fonds de couverture. Dans un même ordre d'idées, le rôle des divers intermédiaires professionnels sera abordé afin d'élargir notre compréhension de la question sous étude. L'objet de cette étude n'est pas d'apporter une solution complète et définitive à ces enjeux, mais bien d'offrir des pistes de réflexions pouvant servir de balises à une étude subséquente de la question, laquelle devra par ailleurs tenir compte du rôle assumé par les fonds de couverture ainsi que du statut particulier qu'ils occupent sur les marchés financiers.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Résumé: Au lendemain de la Seconde Guerre Mondiale, la nécessité de moderniser la politique d’immigration américaine fait l’unanimité, la principale loi régissant l’immigration datant de 1924. Cependant, la question des paramètres de la réforme fait naître un débat fortement polarisé. Les défenseurs du statu quo, qui souhaitent maintenir le système des quotas nationaux faisant de l’origine nationale le premier critère d’admission, auront initialement le dessus, comme en fait foi le passage du McCarran-Walter Act en 1952. D’autre part, les partisans d’une libéralisation affirment que cette loi restrictive et discriminatoire va à l’encontre des objectifs de la politique étrangère américaine, particulièrement dans un conflit aussi idéologiquement chargé que la Guerre Froide. Au courant des années cinquante et au début des années soixante, les réformateurs libéraux auront progressivement le dessus dans le débat, si bien qu’une nouvelle loi sera adoptée en 1965. Ce mémoire propose d’aborder cette période de réforme sous l’angle de l’opinion publique. À partir, des sources permettant de prendre le pouls de la société américaine au sujet de la politique d’immigration, il a été possible d’observer une libéralisation progressive de l’opinion publique durant la période. Dans le cadre de ce mémoire, l’interprétation de cette évolution est centrée sur l’influence grandissante des enjeux de la Guerre Froide dans le débat entourant la réforme.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

L’objectif de ce mémoire est de faire un état des lieux des connaissances produites sur les risques environnementaux et la vulnérabilité et appliquer ces connaissances à la ville de Kigali (Rwanda). Après avoir présenté différentes approches, nous avons retenu le cadre d’analyse qui s’inscrit dans l’approche de J.C. Thouret et R.D’Ercole (1996). Cette approche est articulée autour de trois dimensions : enjeux, facteurs de la vulnérabilité et réponses sociales. A travers l’application des éléments pertinents de ces trois dimensions dans le cas de la ville de Kigali, réalisée grâce à une analyse qualitative, centrée sur l’analyse des documents et des entrevues semi-dirigées, voici les principaux résultats que nous avons obtenus: l’analyse des enjeux a révélé que la ville de Kigali est confrontée à plusieurs dommages, parmi lesquels, on peut mentionner les pertes des vies humaines, la démolition des maisons, la contamination des rivières, la prolifération des maladies et la perturbation des besoins de base ( eau potable, électricité, transport) dues aux risques. Cette situation s’explique par la combinaison de plusieurs facteurs dont le relief collinaire, le sol granitique, les pluies violentes, le caractère centrifuge du réseau hydrographique, le sous-dimensionnement des ouvrages d’évacuation et le réseau d’assainissement insuffisant. D’autres facteurs amplifient la vulnérabilité dont l’explosion démographique consécutive à une urbanisation spontanée et inconsciente en zones inondables, l’ensablement des lits des rivières, le vide juridique, les politiques fragmentaires et le dysfonctionnement des acteurs impliqués dans la gestion des risques. Cette situation aurait probablement été améliorée si les réponses sociales étaient efficaces. Or, d’un côté, la faible perception de risque chez les résidants affectés par les risques accélère davantage la vulnérabilité et de l’autre côté, l’intervention significative des CIB n’est pas accompagnée d’actions complémentaires des institutions publiques et des agences internationales.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Problématique : L’arrivée des tests de pharmacogénétique a été annoncée dans les médias et la littérature scientifique telle une révolution, un tournant vers la médecine personnalisée. En réalité, cette révolution se fait toujours attendre. Plusieurs barrières législatives, scientifiques, professionnelles et éthiques sont décrites dans la littérature comme étant la cause du délai de la translation des tests de pharmacogénétique, du laboratoire vers la clinique. Cet optimisme quant à l’arrivée de la pharmacogénétique et ces barrières existent-elles au Québec? Quel est le contexte de translation des tests de pharmacogénétique au Québec? Actuellement, il n’existe aucune donnée sur ces questions. Il est pourtant essentiel de les évaluer. Alors que les attentes et les pressions pour l’intégration rapide de technologies génétiques sont de plus en plus élevées sur le système de santé québécois, l’absence de planification et de mécanisme de translation de ces technologies font craindre une translation et une utilisation inadéquates. Objectifs : Un premier objectif est d’éclairer et d’enrichir sur les conditions d’utilisation et de translation ainsi que sur les enjeux associés aux tests de pharmacogénétique dans le contexte québécois. Un deuxième objectif est de cerner ce qui est véhiculé sur la PGt dans différentes sources, dont les médias. Il ne s’agit pas d’évaluer si la pharmacogénétique devrait être intégrée dans la clinique, mais de mettre en perspective les espoirs véhiculés et la réalité du terrain. Ceci afin d’orienter la réflexion quant au développement de mécanismes de translation efficients et de politiques associées. Méthodologie : L’analyse des discours de plusieurs sources documentaires (n=167) du Québec et du Canada (1990-2005) et d’entretiens avec des experts québécois (n=19) a été effectuée. Quatre thèmes ont été analysés : 1) le positionnement et les perceptions envers la pharmacogénétique; 2) les avantages et les risques reliés à son utilisation; 3) les rôles et les tensions entre professionnels; 4) les barrières et les solutions de translation. Résultats : L’analyse des représentations véhiculées sur la pharmacogénétique dans les sources documentaires se cristallise autour de deux pôles. Les représentations optimistes qui révèlent une fascination envers la médecine personnalisée, créant des attentes (« Génohype ») en regard de l’arrivée de la pharmacogénétique dans la clinique. Les représentations pessimistes qui révèlent un scepticisme (« Génomythe ») envers l’arrivée de la pharmacogénétique et qui semblent imprégnés par l’historique des représentations médiatiques négatives de la génétique. Quant à l’analyse des entretiens, celle-ci a permis de mettre en lumière le contexte actuel du terrain d’accueil. En effet, selon les experts interviewés, ce contexte comporte des déficiences législatives et un dysfonctionnement organisationnel qui font en sorte que l’utilisation des tests de pharmacogénétique est limitée, fragmentée et non standardisée. S’ajoute à ceci, le manque de données probantes et de dialogue entre des acteurs mal ou peu informés, la résistance et la crainte de certains professionnels. Discussion : Plusieurs changements dans la réglementation des systèmes d’innovation ainsi que dans le contexte d’accueil seront nécessaires pour rendre accessibles les tests de pharmacogénétique dans la pratique clinique courante. Des mécanismes facilitateurs de la translation des technologies et des facteurs clés de réussite sont proposés. Enfin, quelques initiatives phares sont suggérées. Conclusion : Des efforts au niveau international, national, provincial et local sont indispensables afin de résoudre les nombreux obstacles de la translation des tests de pharmacogénétique au Québec et ainsi planifier l’avenir le plus efficacement et sûrement possible.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

RÉSUMÉ Forme littéraire développée dès les débuts du IVe siècle, l’hagiographie, plus tard sanctionnée par l’Église catholique romaine, se déploie avec tout le rituel et le décorum requis par le genre institué, dévoilant les modalités du savoir et du croire qui la distingue. Cette forme fixe fut réactivée, contre toute attente, dans une somme étoffée durant la seconde moitié du XXe siècle par le Collège de ‘Pataphysique, aréopage de philosophes, littérateurs et plasticiens, qui n’est pas un conclave d’excentriques, pas davantage qu’un nouvel « isme », mais une institution qui résolument emblématise la Science. Ce réemploi générique de l’hagiographie est caractérisé par une hétérogénéité bien peu canonique s’inscrivant dans une continuité problématique par rapport au sous-texte. Une première traversée du Calendrier inviterait à croire à une entreprise parodique et iconoclaste. La parodie, qui est aussi une imitation, pose un problème de visée. Le second degré de Gérard Genette implique deux grands régimes discursifs : le sérieux (le sérieux proprement dit et le satirique) et le ludique. Ces régimes nous ont été utiles pour arrimer la question de l’humour. Il y a là en somme deux possibilités, soit la parodie sérieuse conduisant à ridiculiser l’hagiographie et le Calendrier des Saints qui seraient sérieusement visés, néantisés, tournés en dérision; soit la parodie ludique, à portée nulle, simple jeu, farce farfelue, « pour rire ». Or, nous avons tenté de démontrer dans ce mémoire que, même s’il y a lieu d’avancer des arguments en faveur de l’un et de l’autre type de parodie, le partage ne fonctionne pas, précisément peut-être parce qu’il est possible de montrer à la fois que c’est sérieux et pas sérieux. Dans un troisième temps, on peut aussi faire la démonstration que le pas-sérieux est sérieux. Les jeux de mots, d’homophonie n’engagent-ils pas le Verbe? L’imitation impossible ne réfléchit-elle pas les imitabile de la Sainte Église? La situation énonciatrice tributaire de l’hagiographie pataphysique est non différentiable d’un souci de didactisme qui place la composante moralisatrice au centre des enjeux discursifs. Elle induit de ce fait des attentes en matière d’ethos consistant à mettre au même diapason une représentation sociale de l’énonciateur et une représentation intradiscursive au ton didactique. Elle adjoint un autre ton, savant celui-là, érudit, qui vient défaire la belle convergence et fait disjoncter la rhétorique du genre. Cette rhétoricité problématique de l’hagiographie pataphysique a été abordée sous l’angle de l’ethos. L’ethos est l’instance de validation par laquelle nous renvoyons non pas au caractère de l’orateur, mais, suivant en cela Dominique Maingueneau, au type de parole engendrée par le discours et qui, en retour, rend ce discours crédible. Que devient cette instance lorsque la visée persuasive du discours est remise en question, que l’ethos se démultiplie de façon hétérogène sans véritablement assurer la cohésion du propos ni garantir sa portée? La parodie posant incidemment un problème de visée, est-ce du côté d’un ethos parodique que se trouve la réponse? Il nous a convenu de mesurer, d’articuler, de déplacer cette postulation. Nous nous sommes saisi, pour les besoins de notre argumentation, d’une discipline historiquement lourde d’investissement théorique, soit la rhétorique. Celle-ci constitue à la fois une méthode de composition d’un discours reposant sur des lieux susceptibles de susciter l’adhésion et l’émulation de l’énonciataire et une méthode d’analyse. Guidé par une définition étendue du texte, traversant les littératures non narrative et narrative, il nous a importé enfin de restituer la pratique cymbaliste à partir d’un corpus qui est resté l’apanage du « seul » pataphysicien. Nous nous sommes ainsi situé dans l’horizon plus global de la réceptivité d’un discours qui évacue l’idéologique, qui jamais ne se laisse saisir tout à fait, ni enferrer par le fétiche du sens au profit des potentialités qu’il recèle, et cela à partir d’axiomes arbitraires soumis à l’unique exigence de cohérence interne.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Ce mémoire a pour objectif d’analyser la nature et l’ampleur des enjeux de sécurité dans l’Arctique contemporain en utilisant les outils offerts par la théorie de la sécurisation de l’École de Copenhague. Cinq secteurs de sécurité – militaire, politique, identitaire, environnemental et économique – et quatre variables – la géographie, l’identité, l’histoire et la politique – sont utilisées pour examiner les perceptions de sécurité, les sécurisations et les comportements stratégiques du Canada et de la Norvège. La 1re hypothèse avancée dans ce mémoire est la suivante : depuis 2005, au Canada et en Norvège, nous sommes en train d’assister à une sécurisation progressive des enjeux non militaires dans l’Arctique - politiques, identitaires, environnementaux et économiques - et les effets entre ces secteurs de sécurité ont d’importantes conséquences sur le secteur militaire, notamment au niveau de la multiplication de projets étatiques pour la plupart essentiellement militaires, ainsi qu’au niveau d’un déclenchement d’une sécurisation de leur intégrité territoriale ou du moins un accroissement de l’insécurité à son égard. La 2e hypothèse avancée est la suivante : les nouvelles perceptions de sécurité et les comportements stratégiques des États de la région engendrent de l’insécurité à l’intérieur des sociétés ainsi qu’une dégradation de la confiance entre les acteurs étatiques. Cela a pour effet d’augmenter la division politique dans l’Arctique et de ralentir toute construction régionale. Nous concluons, sur la base de nos études de cas, qu’au Canada, la souveraineté, la nordicité et l’intégrité territoriale sont perçues comme étant menacées. De plus, les sécurisations dans l’Arctique semblent faire partie d’un renouvellement stratégique global en matière de politique étrangère et de défense. En Norvège, la Russie est considérée comme l’acteur principal du High North et à partir de 2008, la relation russo-norvégienne a subi une sécurisation. Contrairement au Canada, la Norvège préfère le statu quo stratégique dans l’Arctique en privilégiant les trois éléments traditionnels de sa politique de défense et de sécurité - la dissuasion par l’OTAN, la gestion de la Russie par l’assurance, et l’amélioration des relations est-ouest.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Affiche de projet terminal, baccalauréat en Urbanisme. Institut d'urbanisme, Université de Montréal.