1000 resultados para pour-on
Resumo:
L'angiotensine-II (Ang-II), synthétisée à partir de sources extracardiaques et intracardiaques, régule l'homéostasie cardiaque en favorisant des effets mitogéniques et en promouvant la croissance cellulaire résultant d’une altération de l'expression génique. Dans cette étude, nous avons évalué la possibilité que les récepteurs de l'angiotensine-1 (AT1) ou les récepteurs de l'angiotensine-2 (AT2) situés sur l'enveloppe nucléaire régulent l’expression génique des cardiomyocytes. En analysant les noyaux cellulaires retenus des fractions de cœur de rat par immunobuvardage Western, nous avons détecté une co-purification préférentielle des protéines AT1 et AT2 avec un marqueur de la membrane nucléaire (Nup 62), par rapport aux marqueurs de la membrane plasmique (Calpactin I), de l’appareil de Golgi (GRP 78) ou du réticulum endoplasmique (GM130). La microscopie confocale a permis de démontrer la présence des AT1 et AT2 dans les membranes nucléaires. La microinjection de l’Ang-II-FITC sur des cardiomyocytes a provoqué une liaison de préférence aux sites nucléaires. Les enregistrements de transients calciques ont illustré que les AT1 nucléaires régulent le relâchement du Ca2+. L’incubation des ligands spécifiques d’AT1 et d’AT2 avec l’UTP [α32P] a résulté en une synthèse de novo d’ARN (par exemple, 16,9 ± 0,5 cpm/ng ADN contrôle vs 162,4 ± 29,7 cpm/ng ADN-Ang II, 219,4 ± 8,2 cpm/ng ADN L -162313 (AT1) et 126,5 ± 8,7 cpm/ng ADN CGP42112A (AT2), P <0,001). L’incubation des noyaux avec Ang-II augmente de façon significative l’expression de NFκB, une réponse qui est réprimée partiellement par la co-administration de valsartan ou de PD123177. Les expériences dose-réponse avec Ang-II administrée à l'ensemble des noyaux purifiés vs. aux cardiomyocytes seuls a montré une augmentation plus importante dans les niveaux d'ARNm de NFκB avec une affinité de ~ 3 fois plus grande (valeurs d’EC50 = 9 contre 28 pmol/L, respectivement), suggérant un rôle préférentiel nucléaire dans la signalisation. Par conséquent, nous avons conclu que les membranes cardiaques nucléaires possèdent des récepteurs d’Ang-II couplés à des voies de signalisation et à la transcription génique. La signalisation nucléaire pourrait jouer un rôle clé dans les changements de l'expression de gènes cardiaques, entraînant ainsi des implications mécanistiques et thérapeutiques diverses.
Resumo:
L’hypothèse de cette thèse est qu’une pratique collaborative médecins de famille-pharmaciens communautaires (PCMP) où le pharmacien fournit des soins pharmaceutiques avancés avec ajustement posologique d’une statine permettrait aux patients avec une dyslipidémie une réduction plus importante de leur LDL et augmenterait le nombre de patients atteignant leurs cibles lipidiques. Dans une étude clinique contrôlée et randomisée en grappe visant à évaluer une PCMP pour des patients ayant une dyslipidémie (l’étude TEAM), une journée de formation basée sur un protocole de traitement et des outils cliniques a été offerte aux pharmaciens PCMP pour les préparer à fournir des soins pharmaceutiques avancés. Les connaissances des pharmaciens sur les dyslipidémies étaient faibles avant la formation mais se sont améliorées après (moyenne de 45,8% à 88,2%; p < 0,0001). Après la formation, les pharmaciens avaient un haut niveau d’habiletés cliniques théoriques et pratiques. Bref, une journée de formation basée sur un protocole de traitement et des outils cliniques était nécessaire et adéquate pour préparer les pharmaciens à fournir des soins pharmaceutiques avancés à des patients ayant une dyslipidémie dans le contexte d’une étude clinique. Dans l’étude TEAM, 15 grappes de médecins et de pharmaciens (PCMP : 8; soins habituels (SH) : 7) ont suivi pendant un an, 225 patients (PCMP : 108; SH : 117) à risque modéré ou élevé de maladie coronarienne qui débutaient ou étaient déjà traités par une monothérapie avec une statine mais qui n’avaient pas atteint les cibles lipidiques. Au départ, par rapport aux patients SH, les patients PCMP avaient un niveau de LDL plus élevé (3,5 mmol/L vs 3,2 mmol/L) et recevaient moins de statine à puissance élevée (11,1 % vs 39,7 %). Après 12 mois, la différence moyenne du changement de LDL entre les groupes était égale à -0,2 mmol/L (IC95%: -0,3 à -0,1) et -0,04 (IC95%: -0,3 à 0,2), sans ajustement et avec ajustement, respectivement. Le risque relatif d’atteindre les cibles lipidiques était 1,10 (IC95%: 0,95 à 1,26) et 1,16 (1,01 à 1,32), sans ajustement et avec ajustement, respectivement. Les patients PCMP ont eu plus de visites avec un professionnel de la santé et d’analyses de laboratoire et étaient plus enclins à rapporter des changements de style de vie. La PCMP a amélioré l’adhésion aux lignes directrices en augmentant la proportion de patients aux cibles lipidiques. Les données intérimaires de l’étude TEAM (PCMP : 100 patients; SH : 67 patients) ont permis d’évaluer les coûts directs annuels du suivi du pharmacien du groupe PCMP (formation, visites, laboratoire), du médecin (visites, laboratoire) et du traitement hypolipémiant. Le suivi du pharmacien a coûté 404,07$/patient, incluant 320,67$ pour former les pharmaciens. Le coût global incrémental était 421,01$/patient. Une pratique collaborative pour des patients ayant une dyslipidémie engendre un coût raisonnable.
Resumo:
Le thème de la mobilisation totale est au cœur de la réflexion actuelle sur le renouvellement des modes de subjectivation et des manières d’être-ensemble. En arrière-plan, on trouve la question de la compatibilité entre les processus vitaux humains et la modernité, bref, la question de la viabilité du processus de civilisation occidental. Au cœur du diagnostic: l’insuffisance radicale de la fiction de l’homo oeconomicus, modèle de l’individu privé sans liens sociaux et souffrant d’un déficit de sphère. La « communauté qui vient » (Agamben), la « politisation de l’existence » (Lopez Petit) et la création de « sphères régénérées » (Sloterdijk) nomment autant de tentatives pour penser le dépassement de la forme désormais impropre et insensée de l’individualité. Mais comment réaliser ce dépassement? Ou de manière plus précise : quelle traversée pour amener l’individu privé à opérer ce dépassement? Ce doctorat s’organise autour d’une urgence focale : [E]scape. Ce concept suggère un horizon de fuite immanent : il signe une sortie hors de l’individu privé et trace un plan d’idéalité permettant d’effectuer cette sortie. Concrètement, ce concept commande la production d’une série d’analyses théoriques et artistiques portant sur des penseurs contemporains tels que Foucault, Deleuze ou Sloterdijk, l’album Kid A de Radiohead ainsi que sur le cinéma et l’art contemporain chinois (Jia Zhangke, Wong Kar-Wai, Wong Xiaoshuai, Lou Ye, Shu Yong, Huang Rui, Zhang Huan, Zhu Yu, etc.). Ces analyses sont conçues comme autant de passages ou itinéraires de désubjectivation. Elles posent toutes, d’une manière ou d’une autre, le problème du commun et de l’être-ensemble, sur le seuil des non-lieux du capitalisme global. Ces itinéraires se veulent liminaux, c’est-à-dire qu’ils se constituent comme passages sur la ligne d’un dehors et impliquent une mise en jeu éthopoïétique. Sur le plan conceptuel, ils marquent résolument une distance avec le paradigme de la politique identitaire et la critique des représentations interculturelles.
Resumo:
Nous présentons dans cette thèse des théorèmes d’existence pour des systèmes d’équations différentielles non-linéaires d’ordre trois, pour des systèmes d’équa- tions et d’inclusions aux échelles de temps non-linéaires d’ordre un et pour des systèmes d’équations aux échelles de temps non-linéaires d’ordre deux sous cer- taines conditions aux limites. Dans le chapitre trois, nous introduirons une notion de tube-solution pour obtenir des théorèmes d’existence pour des systèmes d’équations différentielles du troisième ordre. Cette nouvelle notion généralise aux systèmes les notions de sous- et sur-solutions pour le problème aux limites de l’équation différentielle du troisième ordre étudiée dans [34]. Dans la dernière section de ce chapitre, nous traitons les systèmes d’ordre trois lorsque f est soumise à une condition de crois- sance de type Wintner-Nagumo. Pour admettre l’existence de solutions d’un tel système, nous aurons recours à la théorie des inclusions différentielles. Ce résultat d’existence généralise de diverses façons un théorème de Grossinho et Minhós [34]. Le chapitre suivant porte sur l’existence de solutions pour deux types de sys- tèmes d’équations aux échelles de temps du premier ordre. Les résultats d’exis- tence pour ces deux problèmes ont été obtenus grâce à des notions de tube-solution adaptées à ces systèmes. Le premier théorème généralise entre autre aux systèmes et à une échelle de temps quelconque, un résultat obtenu pour des équations aux différences finies par Mawhin et Bereanu [9]. Ce résultat permet également d’obte- nir l’existence de solutions pour de nouveaux systèmes dont on ne pouvait obtenir l’existence en utilisant le résultat de Dai et Tisdell [17]. Le deuxième théorème de ce chapitre généralise quant à lui, sous certaines conditions, des résultats de [60]. Le chapitre cinq aborde un nouveau théorème d’existence pour un système d’in- clusions aux échelles de temps du premier ordre. Selon nos recherches, aucun résultat avant celui-ci ne traitait de l’existence de solutions pour des systèmes d’inclusions de ce type. Ainsi, ce chapitre ouvre de nouvelles possibilités dans le domaine des inclusions aux échelles de temps. Notre résultat a été obtenu encore une fois à l’aide d’une hypothèse de tube-solution adaptée au problème. Au chapitre six, nous traitons l’existence de solutions pour des systèmes d’équations aux échelles de temps d’ordre deux. Le premier théorème d’existence que nous obtenons généralise les résultats de [36] étant donné que l’hypothèse que ces auteurs utilisent pour faire la majoration a priori est un cas particulier de notre hypothèse de tube-solution pour ce type de systèmes. Notons également que notre définition de tube-solution généralise aux systèmes les notions de sous- et sur-solutions introduites pour les équations d’ordre deux par [4] et [55]. Ainsi, nous généralisons également des résultats obtenus pour des équations aux échelles de temps d’ordre deux. Finalement, nous proposons un nouveau résultat d’exis- tence pour un système dont le membre droit des équations dépend de la ∆-dérivée de la fonction.
Resumo:
Cette étude traite de la complexité des enjeux de la mise en lumière urbaine et de sa conception. Le but est de déceler les mécanismes opératoires du projet d’éclairage afin de générer une analyse et une compréhension de ce type d’aménagement. Cette recherche met à jour les enjeux lumineux à différents niveaux comme l’urbanisme, l’environnement, la culture, la communication, la vision et la perception mais aussi au niveau des acteurs et de leurs pratiques sur le terrain. En utilisant une approche qualitative déductive, cette recherche théorique cherche à mieux comprendre les différentes significations du phénomène lumineux : comment dans la réalité terrain ces enjeux de la lumière sont compris, interprétés et traduits au travers de la réalisation des projets et des processus mis en place pour répondre aux besoins d’éclairage ? La pertinence de cette recherche est de questionner les enjeux complexes de la mise en lumière afin de savoir comment concevoir un « bon éclairage ». Comment se déroule un projet d’éclairage de sa conception à sa réalisation ? Quels sont les différents acteurs, leurs modes d’intervention et leurs perceptions du projet d’éclairage ? Le but est de vérifier comment ces enjeux se concrétisent sur le terrain, notamment au travers de l’activité et de l’interprétation des professionnels. Nous souhaitons créer un modèle opératoire qui rende compte des enjeux et du processus de ce type de projet. Modèle qui servira alors de repère pour la compréhension des mécanismes à l’œuvre comme le contexte, les acteurs, les moyens et les finalités des projets. Une étude des recherches théoriques nous permettra de comprendre la polysémie du phénomène lumineux afin d’en déceler la complexité des enjeux et de créer une première interprétation de ce type de projet. Nous déterminerons théoriquement ce que recouvre la notion de « bon éclairage » qui nous permettra de créer une grille analytique pour comparer notre approche avec la réalité sur le terrain. Ces recherches seront ensuite confrontées au recueil des données des études de cas, des stages en urbanisme et en conception lumière, et des interviews de professionnels dans le domaine. Nous confronterons les enjeux définis théoriquement aux collectes de données issues du terrain. Ces données seront collectées à partir de projets réalisés avec les professionnels durant la recherche immersive. La recherche-action nous permettra de collaborer avec les professionnels pour comprendre comment ils sélectionnent, déterminent et répondent aux enjeux des projets d’éclairage. Nous verrons grâce aux entretiens semi-dirigés comment les acteurs perçoivent leurs propres activités et nous interprèterons les données à l’aide de la « théorisation ancrée » pour dégager le sens de leurs discours. Nous analyserons alors les résultats de ces données de manière interprétative afin de déterminer les points convergeant et divergent entre les enjeux théoriques définis en amont et les enjeux définis en aval par la recherche-terrain. Cette comparaison nous permettra de créer une interprétation des enjeux de la mise en lumière urbaine dans toutes leurs complexités, à la fois du point de vue théorique et pratique. Cette recherche qualitative et complexe s’appuie sur une combinaison entre une étude phénoménologique et les méthodologies proposées par la « théorisation ancrée ». Nous procéderons à une combinaison de données issues de la pratique terrain et de la perception de cette pratique par les acteurs de l’éclairage. La recherche d’un « bon éclairage » envisage donc par une nouvelle compréhension l’amélioration des outils de réflexion et des actions des professionnels. En termes de résultat nous souhaitons créer un modèle opératoire de la mise en lumière qui définirait quels sont les différents éléments constitutifs de ces projets, leurs rôles et les relations qu’ils entretiennent entre eux. Modèle qui mettra en relief les éléments qui déterminent la qualité du projet d’éclairage et qui permettra de fournir un outil de compréhension. La contribution de ce travail de recherche est alors de fournir par cette nouvelle compréhension un repère méthodologique et analytique aux professionnels de l’éclairage mais aussi de faire émerger l’importance du phénomène de mise en lumière en suscitant de nouveaux questionnements auprès des activités liées au design industriel, à l’architecture et à l’urbanisme.
Resumo:
Cette thèse étudie certains des facteurs liés au développement de l'intérêt pour la politique chez les adolescents à l'aide de trois articles. J'utilise des données provenant d'une enquête par questionnaires, conduite durant trois ans auprès de jeunes Montréalais étudiant au secondaire. Le premier article examine le rôle du réseau social (parents, amis et enseignants) dans le développement de l'intérêt. Je démontre que les parents qui discutent souvent de politique sont plus susceptibles d'avoir des enfants intéressés par la politique et dont l'intérêt se développera. Cependant, le rôle des autres agents de socialisation ne devrait pas être sous-estimé. Les amis ont souvent un effet similaire aux parents lorsqu'il s'agit du changement dans l'intérêt, et les résultats suggèrent que les enseignants, à travers certains cours comme ceux d'histoire, peuvent jouer un rôle civique important. Le deuxième article aborde la question de la causalité entre l'intérêt politique et trois attitudes: le cynisme, l'attachement partisan et le sens du devoir. Il s'agit de voir quel effet la présence de ces attitudes chez les adolescents a sur le développement de leur intérêt politique, et inversement, si l'intérêt a un effet sur le changement dans ces attitudes. Je démontre qu'il existe une relation de réciprocité entre l'intérêt et le cynisme, de même qu'entre l'intérêt et le sens du devoir. Cependant, dans le cas de l'attachement partisan, l'effet est unidirectionnel: le fait d'aimer un parti n'est pas lié à la présence d'intérêt ou de désintérêt politique, alors que cette attitude influence le développement de l'intérêt pour la politique. Le troisième article aborde la question du développement de l'intérêt à l'aide d'entrevues. Treize jeunes ayant répondu aux trois vagues de l'enquête par questionnaires ont été rencontrés et leurs commentaires permettent de répondre à trois questions de recherche: les jeunes ont-ils une image négative de la politique? Les jeunes fuient-ils la controverse? Leurs amis occupent-ils une place prépondérante dans le développement de leur intérêt? Ces jeunes expriment une opinion très nuancée de la politique, de même qu'un goût pour les débats et autres images concrètes de la politique. Par contre, leur intérêt ne se reflète pas dans un engagement soutenu. Enfin, leurs parents sont plus importants que leurs amis lorsqu'il s'agit du développement de leur intérêt pour la politique.
Resumo:
Contexte: L’anhédonie, un état caractérisé par une capacité réduite d’éprouver du plaisir. Des études cliniques récentes montrent qu’un médicament antipsychotique atypique, la quétiapine, est bénéfique pour le traitement de la toxicomanie qui est supposé d’atténuer les symptômes de sevrage associés à l’usage abusif des drogues psychotropes. Le but de la présente étude était d’étudier les effets de l'administration aiguë de quétiapine sur la récompense chez des animaux en état de sevrage après un traitement chronique avec l’amphétamine. Notre hypothese est que la quetiapine va diminuer l’anhedonie causer par le sevrage. Méthodes: Les expériences ont été effectuées avec des rats mâles de la souche Sprague-Dawley entraînés à produire une réponse opérante pour obtenir une courte stimulation électrique au niveau de l'hypothalamus latéral. Des mesures du seuil de récompense ont été déterminées chez différents groupes de rats avant et pendant quatre jours après le traitement avec des doses croissantes (1 à 10 mg/kg, ip toutes les 8 heures) de d-amphétamine sulfate, ou de son véhicule, au moyen de la méthode du déplacement de la courbe. L’effet de deux doses de quétiapine a été testé 24 h après le sevrage chez des animaux traités avec l’amphétamine ou le véhicule. Résultats: Les animaux traités avec l’amphétamine ont montré une augmentation de 25% du seuil de récompense 24 h après la dernière injection, un effet qui a diminué progressivement entre le jour 1 et le jour 4, mais qui est resté significativement plus élevé en comparaison de celui du groupe contrôle. La quétiapine administrée à 2 et 10 mg/kg pendant la phase de sevrage (à 24 h) a produit une augmentation respective de 10 % et 25 % du seuil de recompense; le meme augmentation du seuil a été observe chez les animaux traitées avec le véhicule. Un augmentation de 25 % du seuil de recompense a aussi été observés chez les animaux en état de sevrage à l'amphétamine. Un test avec une faible dose d’amphétamine (1 mg/kg) avant et après le sevrage a révélé une légère tolérance à l’effet amplificateur de cette drogue sur la récompense, un phénomène qui pourrait expliquer l’effet différent de la quétiapine chez les animaux traités avec le véhicule et ceux traités avec l’amphétamine. Conclusions: Ces résultats reproduisent ceux des études précédentes montrant que la quétiapine produit une légère atténuation de la récompense. Ils montrent également que le sevrage à l’amphétamine engendre un léger état d'anhédonie et que dans cet état, une dose élevée de quetiapine et non pas une dose faible accentue l’état émotionnel négatif. Ils suggèrent qu’un traitement à faibles doses de quétiapine des symptômes de sevrage chez le toxicomane devrait ni aggraver ni améliorer son état émotionnel.
Resumo:
Le phénomène de la mort a été et sera toujours présent au sein des sociétés. Bien que la mort soit une étape triste et pénible à vivre, elle n’en demeure pas moins un événement inévitable et bien réel. Cependant, il existe des moyens, comme la pratique des rites, permettant d’atténuer la souffrance causée par un décès. Malgré tout, il n’est pas rare de constater l’absence ou le peu de temps consacré aux rites lors d’un décès en milieu hospitalier (O’Gorman, 1998; Lemieux, 1991; Leonetti, 2004; Hamonet, 1992; Piquet, 1999; Hanus, 1999; Vachon, 2007; Hasendhal, 1998). Les raisons susceptibles d’être à l’origine de cette situation peuvent découler du fait que les progrès de la médecine et des technologies amènent à croire que l’être humain est invulnérable face à la mort et que celle-ci représente un échec vis-à-vis la maladie. Le manque de formation des soignants par rapport à la mort (Leonetti, 2004; Goopy, 2005; Blum, 2006) est aussi à considérer. Finalement, la tendance de certaines sociétés occidentales qui occultent et nient la mort (O’Gorman, 1998; Piquet, 1999; Matzo et al., 2001; MSSS, 2004; Leonetti, 2004; SFAP, 2005; Goopy, 2005) constitue une autre possibilité. Pourtant, offrir la possibilité aux familles de réaliser leurs rites en signe d’amour pour le défunt fait partie de la composante du soin spirituel lequel, est intégré dans les soins infirmiers. À notre connaissance, peu d’études ont exploré les rites dans un contexte de décès en milieu hospitalier, d’où la pertinence de s’y attarder. Ainsi, le but de la recherche consistait à décrire et à comprendre la signification des rites associés au décès de la personne soignée, pour des infirmières œuvrant en milieu hospitalier. Pour ce faire, l’étudiante-chercheuse a réalisé auprès de neufs infirmières, une étude qualitative de type phénoménologique, ayant comme perspective disciplinaire, la philosophie du caring de Watson (1979, 1988, 2006, 2008). L’analyse des verbatim, réalisée selon la méthodologie de Giorgi (1997), a permis d’obtenir 28 sous-thèmes émergeant des six thèmes suivant soit : a) accompagnement empreint de caring; b) respect incontesté de la dignité humaine et du caractère sacré des rites; c) réconfort spirituel des personnes, des familles et du personnel; d) conciliation des croyances culturelles et religieuses; e) mort comme phénomène existentiel; f) barrières face aux rites. Par la suite, a émergé de ces thèmes, l’essence de la signification des rites associés au décès de la personne soignée, pour des infirmières œuvrant en milieu hospitalier. L’essence correspond à : un hommage essentiel envers le défunt et sa famille, en dépit des nombreuses barrières qui freinent sa pratique. Plusieurs thèmes et sous-thèmes corroborent les résultats de quelques études et les propos théoriques de différents auteurs. Toutefois, le caractère inédit de quelques unes de nos conclusions révèle la nature novatrice de la présente recherche. Par conséquent, les résultats de cette étude peuvent sensibiliser les infirmières à comprendre les rites en milieu hospitalier et offrir des pistes d’interventions pouvant contribuer au renouvellement des pratiques de soins offerts en fin de vie. Enfin, accompagner les familles dans leur pratique des rites concourt certainement à promouvoir l’humanisation des soins.
Resumo:
Depuis plusieurs années, la définition des soins palliatifs a été élargie pour inclure toutes les maladies ayant un pronostic réservé. Le Québec s’est doté d’une politique de soins palliatifs dont l’un des principes directeurs est de maintenir les patients dans leur milieu de vie naturel. Alors que présentement environ 10 % de la population nécessitant des soins palliatifs en reçoit, on peut s’attendre à une augmentation des demandes de soins palliatifs à domicile dans les CSSS du Québec. La présente étude a pour but de décrire et comprendre l’expérience de dispenser des soins palliatifs à domicile pour des infirmières travaillant dans un contexte non spécialisé. Une étude qualitative ayant comme perspective disciplinaire la théorie de l’humain-en-devenir de Parse a été réalisée. Des entrevues ont été effectuées auprès de huit infirmières travaillant au maintien à domicile d’un CSSS de la région de Montréal qui font des soins palliatifs dans un contexte non spécialisé. L’analyse des données a été effectuée selon la méthode d’analyse phénoménologique de Giorgi (1997). Les résultats s’articulent autour de trois thèmes qui décrivent l’expérience de dispenser des soins palliatifs à domicile pour des infirmières qui travaillent dans un contexte non spécialisé. Elles accompagnent les patients et leur famille, en s’engageant à donner des soins humains, et développant une relation d’accompagnement avec le patient et ses proches. Elles doivent composer avec les réactions du patient et de sa famille et doivent parfois informer le patient de la progression de son état de santé. De plus, elles se préoccupent de donner des soins de qualité en composant avec la complexité des soins palliatifs à domicile tout en s’assurant de soulager les symptômes des patients et de tenter de développer leur expertise. Finalement, le fait d’être confrontée à la mort permet de cheminer. Ainsi, les infirmières vivent des émotions, reçoivent du soutien, sont touchées personnellement par la mort, éprouvent de la satisfaction envers les soins qu’elles donnent et apprennent personnellement de leur expérience. L’essence du phénomène à l’étude est que lorsque les infirmières font un véritable accompagnement du patient et de sa famille en s’efforçant de donner des soins de qualité, cela crée des conditions permettant qu’un cheminement personnel et professionnel sur la vie et la mort soit effectué par les infirmières.
Resumo:
L’éthique du care est confrontée à un problème qui a des allures de paradoxe: bien que sa politisation paraisse nécessaire, l’éthique du care ne semble pas pouvoir trouver en elle-même les ressources suffisantes à la formulation d’une théorie politique compréhensive. Il ne semble pas exister de théorie politique du care à part entière. Cet article examine la fécondité d’un rapprochement entre éthique du care et théorie néorépublicaine de la non-domination. Le résultat, non négligeable, serait de garantir des formes importantes de protections aux activités de care, mais il cela n’empêcherait pas nécessairement les représentations négatives de ces activités, dont on peut supposer qu’elle est l’un des facteurs de la marginalisation et de la répartition inégale qui les affecte. Pour bloquer ces représentations dégradantes, il faudrait que le care soit discuté et défini dans l’espace public non seulement comme un lieu possible de la domination, mais comme un aspect fondamental et positif de la vie individuelle et collective.
Resumo:
Les agents anti-infectieux sont utilisés pour traiter ou prévenir les infections chez les humains, les animaux, les insectes et les plantes. L’apparition de traces de ces substances dans les eaux usées, les eaux naturelles et même l’eau potable dans plusieurs pays du monde soulève l’inquiétude de la communauté scientifique surtout à cause de leur activité biologique. Le but de ces travaux de recherche a été d’étudier la présence d’anti-infectieux dans les eaux environnementales contaminées (c.-à-d. eaux usées, eaux naturelles et eau potable) ainsi que de développer de nouvelles méthodes analytiques capables de quantifier et confirmer leur présence dans ces matrices. Une méta-analyse sur l’occurrence des anti-infectieux dans les eaux environnementales contaminées a démontré qu’au moins 68 composés et 10 de leurs produits de transformation ont été quantifiés à ce jour. Les concentrations environnementales varient entre 0.1 ng/L et 1 mg/L, selon le composé, la matrice et la source de contamination. D’après cette étude, les effets nuisibles des anti-infectieux sur le biote aquatique sont possibles et ces substances peuvent aussi avoir un effet indirect sur la santé humaine à cause de sa possible contribution à la dissémination de la résistance aux anti-infecteiux chez les bactéries. Les premiers tests préliminaires de développement d’une méthode de détermination des anti-infectieux dans les eaux usées ont montré les difficultés à surmonter lors de l’extraction sur phase solide (SPE) ainsi que l’importance de la sélectivité du détecteur. On a décrit une nouvelle méthode de quantification des anti-infectieux utilisant la SPE en tandem dans le mode manuel et la chromatographie liquide couplée à la spectrométrie de masse en tandem (LC-MS/MS). Les six anti-infectieux ciblés (sulfaméthoxazole, triméthoprime, ciprofloxacin, levofloxacin, clarithromycin et azithromycin) ont été quantifiés à des concentrations entre 39 et 276 ng/L dans les échantillons d’affluent et d’effluent provenant d’une station d’épuration appliquant un traitement primaire et physico- chimique. Les concentrations retrouvées dans les effluents indiquent que la masse moyenne totale de ces substances, déversées hebdomadairement dans le fleuve St. Laurent, était de ~ 2 kg. En vue de réduire le temps total d’analyse et simplifier les manipulations, on a travaillé sur une nouvelle méthode de SPE couplée-LC-MS/MS. Cette méthode a utilisé une technique de permutation de colonnes pour préconcentrer 1.00 mL d’échantillon dans une colonne de SPE couplée. La performance analytique de la méthode a permis la quantification des six anti-infectieux dans les eaux usées municipales et les limites de détection étaient du même ordre de grandeur (13-60 ng/L) que les méthodes basées sur la SPE manuelle. Ensuite, l’application des colonnes de SPE couplée de chromatographie à débit turbulent pour la préconcentration de six anti-infectieux dans les eaux usées a été explorée pour diminuer les effets de matrice. Les résultats obtenus ont indiqué que ces colonnes sont une solution de réchange intéressante aux colonnes de SPE couplée traditionnelles. Finalement, en vue de permettre l’analyse des anti-infectieux dans les eaux de surface et l’eau potable, une méthode SPE couplée-LC-MS/MS utilisant des injections de grand volume (10 mL) a été développée. Le volume de fuite de plusieurs colonnes de SPE couplée a été estimé et la colonne ayant la meilleure rétention a été choisie. Les limites de détection et de confirmation de la méthode ont été entre 1 à 6 ng/L. L’analyse des échantillons réels a démontré que la concentration des trois anti-infectieux ciblés (sulfaméthoxazole, triméthoprime et clarithromycine) était au dessous de la limite de détection de la méthode. La mesure des masses exactes par spectrométrie de masse à temps d’envol et les spectres des ions produits utilisant une pente d’énergie de collision inverse dans un spectromètre de masse à triple quadripôle ont été explorés comme des méthodes de confirmation possibles.
Resumo:
La réalisation de dispositifs à des dimensions sous-micrométriques et nanométriques demande une maîtrise parfaite des procédés de fabrication, notamment ceux de gravure. La réalisation des ces dispositifs est complexe et les exigences en termes de qualité et de géométrie des profils de gravure imposent de choisir les conditions opératoires les mieux adaptées. Les simulations de l'évolution spatio-temporelle des profils de gravure que nous proposons dans cette thèse s'inscrivent parfaitement dans ce contexte. Le simulateur que nous avons réalisé offre la possibilité de mieux comprendre les processus qui entrent en jeu lors de la gravure par plasma de profils dans divers matériaux. Il permet de tester l'influence des paramètres du plasma sur la forme du profil et donc de déterminer les conditions opératoires optimales. La mise au point de ce simulateur s'appuie sur les concepts fondamentaux qui gouvernent la gravure par plasma. À partir de l'état des lieux des différentes approches numériques pouvant être utilisées, nous avons élaboré un algorithme stable et adaptable permettant de mettre en évidence l'importance de certains paramètres clés pour la réalisation de profils de gravure par un plasma à haute densité et à basse pression. Les capacités de cet algorithme ont été testées en étudiant d'une part la pulvérisation de Si dans un plasma d'argon et d'autre part, la gravure chimique assistée par les ions de SiO2/Si dans un plasma de chlore. Grâce aux comparaisons entre profils simulés et expérimentaux, nous avons montré l'importance du choix de certains paramètres, comme la nature du gaz utilisé et la pression du plasma, la forme initiale du masque, la sélectivité masque/matériau, le rapport de flux neutre/ion, etc. Nous avons aussi lié ces paramètres à la formation de défauts dans les profils, par exemple celle de facettes sur le masque, de parois concaves, et de micro-tranchées. Enfin, nous avons montré que le phénomène de redépôt des atomes pulvérisés entre en compétition avec la charge électrique de surface pour expliquer la formation de profils en V dans le Pt pulvérisé par un plasma d'argon.
Resumo:
RÉSUMÉ - Les images satellitales multispectrales, notamment celles à haute résolution spatiale (plus fine que 30 m au sol), représentent une source d’information inestimable pour la prise de décision dans divers domaines liés à la gestion des ressources naturelles, à la préservation de l’environnement ou à l’aménagement et la gestion des centres urbains. Les échelles d’étude peuvent aller du local (résolutions plus fines que 5 m) à des échelles régionales (résolutions plus grossières que 5 m). Ces images caractérisent la variation de la réflectance des objets dans le spectre qui est l’information clé pour un grand nombre d’applications de ces données. Or, les mesures des capteurs satellitaux sont aussi affectées par des facteurs « parasites » liés aux conditions d’éclairement et d’observation, à l’atmosphère, à la topographie et aux propriétés des capteurs. Deux questions nous ont préoccupé dans cette recherche. Quelle est la meilleure approche pour restituer les réflectances au sol à partir des valeurs numériques enregistrées par les capteurs tenant compte des ces facteurs parasites ? Cette restitution est-elle la condition sine qua non pour extraire une information fiable des images en fonction des problématiques propres aux différents domaines d’application des images (cartographie du territoire, monitoring de l’environnement, suivi des changements du paysage, inventaires des ressources, etc.) ? Les recherches effectuées les 30 dernières années ont abouti à une série de techniques de correction des données des effets des facteurs parasites dont certaines permettent de restituer les réflectances au sol. Plusieurs questions sont cependant encore en suspens et d’autres nécessitent des approfondissements afin, d’une part d’améliorer la précision des résultats et d’autre part, de rendre ces techniques plus versatiles en les adaptant à un plus large éventail de conditions d’acquisition des données. Nous pouvons en mentionner quelques unes : - Comment prendre en compte des caractéristiques atmosphériques (notamment des particules d’aérosol) adaptées à des conditions locales et régionales et ne pas se fier à des modèles par défaut qui indiquent des tendances spatiotemporelles à long terme mais s’ajustent mal à des observations instantanées et restreintes spatialement ? - Comment tenir compte des effets de « contamination » du signal provenant de l’objet visé par le capteur par les signaux provenant des objets environnant (effet d’adjacence) ? ce phénomène devient très important pour des images de résolution plus fine que 5 m; - Quels sont les effets des angles de visée des capteurs hors nadir qui sont de plus en plus présents puisqu’ils offrent une meilleure résolution temporelle et la possibilité d’obtenir des couples d’images stéréoscopiques ? - Comment augmenter l’efficacité des techniques de traitement et d’analyse automatique des images multispectrales à des terrains accidentés et montagneux tenant compte des effets multiples du relief topographique sur le signal capté à distance ? D’autre part, malgré les nombreuses démonstrations par des chercheurs que l’information extraite des images satellitales peut être altérée à cause des tous ces facteurs parasites, force est de constater aujourd’hui que les corrections radiométriques demeurent peu utilisées sur une base routinière tel qu’est le cas pour les corrections géométriques. Pour ces dernières, les logiciels commerciaux de télédétection possèdent des algorithmes versatiles, puissants et à la portée des utilisateurs. Les algorithmes des corrections radiométriques, lorsqu’ils sont proposés, demeurent des boîtes noires peu flexibles nécessitant la plupart de temps des utilisateurs experts en la matière. Les objectifs que nous nous sommes fixés dans cette recherche sont les suivants : 1) Développer un logiciel de restitution des réflectances au sol tenant compte des questions posées ci-haut. Ce logiciel devait être suffisamment modulaire pour pouvoir le bonifier, l’améliorer et l’adapter à diverses problématiques d’application d’images satellitales; et 2) Appliquer ce logiciel dans différents contextes (urbain, agricole, forestier) et analyser les résultats obtenus afin d’évaluer le gain en précision de l’information extraite par des images satellitales transformées en images des réflectances au sol et par conséquent la nécessité d’opérer ainsi peu importe la problématique de l’application. Ainsi, à travers cette recherche, nous avons réalisé un outil de restitution de la réflectance au sol (la nouvelle version du logiciel REFLECT). Ce logiciel est basé sur la formulation (et les routines) du code 6S (Seconde Simulation du Signal Satellitaire dans le Spectre Solaire) et sur la méthode des cibles obscures pour l’estimation de l’épaisseur optique des aérosols (aerosol optical depth, AOD), qui est le facteur le plus difficile à corriger. Des améliorations substantielles ont été apportées aux modèles existants. Ces améliorations concernent essentiellement les propriétés des aérosols (intégration d’un modèle plus récent, amélioration de la recherche des cibles obscures pour l’estimation de l’AOD), la prise en compte de l’effet d’adjacence à l’aide d’un modèle de réflexion spéculaire, la prise en compte de la majorité des capteurs multispectraux à haute résolution (Landsat TM et ETM+, tous les HR de SPOT 1 à 5, EO-1 ALI et ASTER) et à très haute résolution (QuickBird et Ikonos) utilisés actuellement et la correction des effets topographiques l’aide d’un modèle qui sépare les composantes directe et diffuse du rayonnement solaire et qui s’adapte également à la canopée forestière. Les travaux de validation ont montré que la restitution de la réflectance au sol par REFLECT se fait avec une précision de l’ordre de ±0.01 unités de réflectance (pour les bandes spectrales du visible, PIR et MIR), même dans le cas d’une surface à topographie variable. Ce logiciel a permis de montrer, à travers des simulations de réflectances apparentes à quel point les facteurs parasites influant les valeurs numériques des images pouvaient modifier le signal utile qui est la réflectance au sol (erreurs de 10 à plus de 50%). REFLECT a également été utilisé pour voir l’importance de l’utilisation des réflectances au sol plutôt que les valeurs numériques brutes pour diverses applications courantes de la télédétection dans les domaines des classifications, du suivi des changements, de l’agriculture et de la foresterie. Dans la majorité des applications (suivi des changements par images multi-dates, utilisation d’indices de végétation, estimation de paramètres biophysiques, …), la correction des images est une opération cruciale pour obtenir des résultats fiables. D’un point de vue informatique, le logiciel REFLECT se présente comme une série de menus simples d’utilisation correspondant aux différentes étapes de saisie des intrants de la scène, calcul des transmittances gazeuses, estimation de l’AOD par la méthode des cibles obscures et enfin, l’application des corrections radiométriques à l’image, notamment par l’option rapide qui permet de traiter une image de 5000 par 5000 pixels en 15 minutes environ. Cette recherche ouvre une série de pistes pour d’autres améliorations des modèles et méthodes liés au domaine des corrections radiométriques, notamment en ce qui concerne l’intégration de la FDRB (fonction de distribution de la réflectance bidirectionnelle) dans la formulation, la prise en compte des nuages translucides à l’aide de la modélisation de la diffusion non sélective et l’automatisation de la méthode des pentes équivalentes proposée pour les corrections topographiques.
Resumo:
Bien que plusieurs chercheurs aient analysé l'influence de divers facteurs sur l'intensité des conflits ethniques, il a été constaté que l'identité ethnique elle-même n'a jamais été correctement examinée. Ce phénomène est essentiellement dû à ce que nous croyons être une classification inexacte des groupes ethniques. Nous proposons une nouvelle méthode de catégorisation pour les identités ethniques présentant que la religion, la langue et la race forment les distinctions les plus précises et nous les classifions alors comme les identités ethniques fondamentales. Subséquemment, une étude comparative de ces identités ethniques a été entreprise avec l'utilisation de deux bases de données différentes: l’ensemble de données Battle Deaths qui est associé avec la base de données sur les conflits armés de l’UCDP/PRIO et la base de données Minorities at Risk. Les résultats, dans leur ensemble, ont indiqué que les identités ethniques avec des attachements émotifs plus intenses mènent à une plus grande intensité de conflit. Les conflits ethniques fondamentaux ont démontré une tendance à mener à des conflits plus intenses que les conflits ethniques non-fondamentaux. De plus, la similitude parmi les groupes ethniques tend à affaiblir l'intensité des conflits. En outre, l'étude a également conclu que plus le nombre d'identités ethnique fondamentales impliquées dans un conflit est grand, plus le conflit sera intense. Cependant, les résultats ne pouvaient pas déterminer une différence conséquente parmi l’influence relative des trois identités ethniques fondamentales.
Resumo:
Ce mémoire tente de présenter la politique allemande de François Mitterrand de 1981 à 1991 à travers le discours public du président français. À cette fin, il présente la position du chef d’État socialiste sur le rôle de l’Allemagne dans la construction de l’unité européenne et dans la politique de défense et de sécurité française, ainsi que sur la question de la réunification allemande. Il tente ensuite de situer la politique allemande de François Mitterrand par rapport à celle du général de Gaulle, et de juger de la valeur du discours public du président français comme source primaire. L’hypothèse principale que nous soutenons est que le président socialiste tente, de 1981 à 1991, de s’appuyer sur la République fédérale d’Allemagne pour atteindre les objectifs de grandeur et d’indépendance fixés pour la France par de Gaulle dans les années 1960. Nous croyons qu’il souhaite d’abord se rapprocher de la RFA pour que celle-ci l’aide à unifier politiquement, économiquement et militairement l’Europe autour du couple franco-allemand. Nous croyons également que Mitterrand veut s’assurer, au début des années 1980, que la RFA restera ancrée solidement au camp occidental et qu’elle ne glissera pas vers le neutralisme, ce qui doit, selon le président français, permettre à la France d’augmenter son niveau de protection face à l’URSS et accroître son indépendance face aux États-Unis. Enfin, nous croyons que le président socialiste ne tente pas d’empêcher la réunification de l’Allemagne, mais qu’il tente d’en ralentir le processus afin de pouvoir mettre en place l’unité européenne au sein de laquelle il souhaite exercer une influence sur l’Allemagne réunifiée, et à partir de laquelle il prévoit développer sa politique d’après-guerre froide. Ces initiatives doivent permettre à la France d’absorber les contrecoups de la réunification allemande et de sauvegarder ses intérêts nationaux. Dans l’ensemble, la politique allemande de François Mitterrand est en continuité avec la politique allemande développée par le général de Gaulle de 1958 à 1964. Les deux hommes cherchent ainsi à s’appuyer sur la RFA pour créer l’unité européenne afin que celle-ci serve de tremplin à la France pour qu’elle atteigne ses objectifs de grandeur et d’indépendance. Enfin, nous croyons que le discours public du président socialiste peut être utilisé comme source primaire car il renferme une quantité importante d’information, mais son utilisation doit se faire avec précaution car comme tous les discours politiques, il vise d’abord et avant tout à convaincre l’opinion publique du bien fondé des politiques avancées.