930 resultados para Donner le temps
Resumo:
La tomographie d’émission par positrons (TEP) est une modalité d’imagerie moléculaire utilisant des radiotraceurs marqués par des isotopes émetteurs de positrons permettant de quantifier et de sonder des processus biologiques et physiologiques. Cette modalité est surtout utilisée actuellement en oncologie, mais elle est aussi utilisée de plus en plus en cardiologie, en neurologie et en pharmacologie. En fait, c’est une modalité qui est intrinsèquement capable d’offrir avec une meilleure sensibilité des informations fonctionnelles sur le métabolisme cellulaire. Les limites de cette modalité sont surtout la faible résolution spatiale et le manque d’exactitude de la quantification. Par ailleurs, afin de dépasser ces limites qui constituent un obstacle pour élargir le champ des applications cliniques de la TEP, les nouveaux systèmes d’acquisition sont équipés d’un grand nombre de petits détecteurs ayant des meilleures performances de détection. La reconstruction de l’image se fait en utilisant les algorithmes stochastiques itératifs mieux adaptés aux acquisitions à faibles statistiques. De ce fait, le temps de reconstruction est devenu trop long pour une utilisation en milieu clinique. Ainsi, pour réduire ce temps, on les données d’acquisition sont compressées et des versions accélérées d’algorithmes stochastiques itératifs qui sont généralement moins exactes sont utilisées. Les performances améliorées par l’augmentation de nombre des détecteurs sont donc limitées par les contraintes de temps de calcul. Afin de sortir de cette boucle et permettre l’utilisation des algorithmes de reconstruction robustes, de nombreux travaux ont été effectués pour accélérer ces algorithmes sur les dispositifs GPU (Graphics Processing Units) de calcul haute performance. Dans ce travail, nous avons rejoint cet effort de la communauté scientifique pour développer et introduire en clinique l’utilisation des algorithmes de reconstruction puissants qui améliorent la résolution spatiale et l’exactitude de la quantification en TEP. Nous avons d’abord travaillé sur le développement des stratégies pour accélérer sur les dispositifs GPU la reconstruction des images TEP à partir des données d’acquisition en mode liste. En fait, le mode liste offre de nombreux avantages par rapport à la reconstruction à partir des sinogrammes, entre autres : il permet d’implanter facilement et avec précision la correction du mouvement et le temps de vol (TOF : Time-Of Flight) pour améliorer l’exactitude de la quantification. Il permet aussi d’utiliser les fonctions de bases spatio-temporelles pour effectuer la reconstruction 4D afin d’estimer les paramètres cinétiques des métabolismes avec exactitude. Cependant, d’une part, l’utilisation de ce mode est très limitée en clinique, et d’autre part, il est surtout utilisé pour estimer la valeur normalisée de captation SUV qui est une grandeur semi-quantitative limitant le caractère fonctionnel de la TEP. Nos contributions sont les suivantes : - Le développement d’une nouvelle stratégie visant à accélérer sur les dispositifs GPU l’algorithme 3D LM-OSEM (List Mode Ordered-Subset Expectation-Maximization), y compris le calcul de la matrice de sensibilité intégrant les facteurs d’atténuation du patient et les coefficients de normalisation des détecteurs. Le temps de calcul obtenu est non seulement compatible avec une utilisation clinique des algorithmes 3D LM-OSEM, mais il permet également d’envisager des reconstructions rapides pour les applications TEP avancées telles que les études dynamiques en temps réel et des reconstructions d’images paramétriques à partir des données d’acquisitions directement. - Le développement et l’implantation sur GPU de l’approche Multigrilles/Multitrames pour accélérer l’algorithme LMEM (List-Mode Expectation-Maximization). L’objectif est de développer une nouvelle stratégie pour accélérer l’algorithme de référence LMEM qui est un algorithme convergent et puissant, mais qui a l’inconvénient de converger très lentement. Les résultats obtenus permettent d’entrevoir des reconstructions en temps quasi-réel que ce soit pour les examens utilisant un grand nombre de données d’acquisition aussi bien que pour les acquisitions dynamiques synchronisées. Par ailleurs, en clinique, la quantification est souvent faite à partir de données d’acquisition en sinogrammes généralement compressés. Mais des travaux antérieurs ont montré que cette approche pour accélérer la reconstruction diminue l’exactitude de la quantification et dégrade la résolution spatiale. Pour cette raison, nous avons parallélisé et implémenté sur GPU l’algorithme AW-LOR-OSEM (Attenuation-Weighted Line-of-Response-OSEM) ; une version de l’algorithme 3D OSEM qui effectue la reconstruction à partir de sinogrammes sans compression de données en intégrant les corrections de l’atténuation et de la normalisation dans les matrices de sensibilité. Nous avons comparé deux approches d’implantation : dans la première, la matrice système (MS) est calculée en temps réel au cours de la reconstruction, tandis que la seconde implantation utilise une MS pré- calculée avec une meilleure exactitude. Les résultats montrent que la première implantation offre une efficacité de calcul environ deux fois meilleure que celle obtenue dans la deuxième implantation. Les temps de reconstruction rapportés sont compatibles avec une utilisation clinique de ces deux stratégies.
Resumo:
Les simulations et figures ont été réalisées avec le logiciel R.
Resumo:
L’utilisation de nanoparticules (NPs) dans divers domaines industriels est de plus en plus fréquente ce qui génère leur propagation dans l’environnement. Selon leur persistance, mobilité, bioaccumulation et toxicité, des risques inconnus pour la santé et pour des écosystèmes peuvent en résulter. En effet, la caractérisation et la quantification sont des défis analytiques très complexes en raison de la nature dynamique (petite taille, grande réactivité et instabilité) des nanomatériaux. L'objectif de cette étude est donc de caractériser par ultracentrifugation analytique (AUC) des nanoparticules polymériques (Allosperse® dites allosphères) qui sont destinées à des fins agricoles. Pour y parvenir, différentes NPs métalliques (argent, quantum dot), oxydes métalliques (dioxyde de titane, oxyde de zinc) et NPs de polystyrène ont d’abord été mesurés par AUC à l’aide des différents systèmes de détection (absorbance, fluorescence et interférence). Dans le cas des allosphères, un grand nombre d'essais préliminaires ont été réalisés afin d'optimiser la vitesse d'ultracentrifugation, le temps d'ultracentrifugation, le nombre de numérisations et la concentration de l'échantillon. Un protocole optimisé a été utilisé pour la détermination du diamètre hydrodynamique (dh) des NPs. Les différentes analyses qui ont été réalisées dans cette étude révèlent que l’AUC permet de déterminer la taille de très petites NPs. Par ailleurs, une étude du comportement de ces allosphères pour des pH entre 4-8, des forces ioniques de 0 à 500 mM, en présence ou absence de matière organique naturelle a été entreprise. Les travaux ont montré que le dH était d’environ 7,0 nm avec de petites augmentations à faible pH, ou à très grande force ionique ou dureté. Ces résultats indiquent la grande stabilité physique et chimique des allosphères qui auront, ainsi, une grande mobilité dans les sols. La diffusion de lumière dynamique et la spectroscopie de corrélation de fluorescence ont été utilisées afin de valider les résultats obtenus par l’AUC.
Resumo:
Pour respecter les droits d’auteur, la version électronique de ce mémoire a été dépouillée de certains documents visuels et audio-visuels. La version intégrale du mémoire a été déposée au Service de la gestion des documents et des archives de l'Université de Montréal
Resumo:
Les algorithmes d'apprentissage profond forment un nouvel ensemble de méthodes puissantes pour l'apprentissage automatique. L'idée est de combiner des couches de facteurs latents en hierarchies. Cela requiert souvent un coût computationel plus elevé et augmente aussi le nombre de paramètres du modèle. Ainsi, l'utilisation de ces méthodes sur des problèmes à plus grande échelle demande de réduire leur coût et aussi d'améliorer leur régularisation et leur optimization. Cette thèse adresse cette question sur ces trois perspectives. Nous étudions tout d'abord le problème de réduire le coût de certains algorithmes profonds. Nous proposons deux méthodes pour entrainer des machines de Boltzmann restreintes et des auto-encodeurs débruitants sur des distributions sparses à haute dimension. Ceci est important pour l'application de ces algorithmes pour le traitement de langues naturelles. Ces deux méthodes (Dauphin et al., 2011; Dauphin and Bengio, 2013) utilisent l'échantillonage par importance pour échantilloner l'objectif de ces modèles. Nous observons que cela réduit significativement le temps d'entrainement. L'accéleration atteint 2 ordres de magnitude sur plusieurs bancs d'essai. Deuxièmement, nous introduisont un puissant régularisateur pour les méthodes profondes. Les résultats expérimentaux démontrent qu'un bon régularisateur est crucial pour obtenir de bonnes performances avec des gros réseaux (Hinton et al., 2012). Dans Rifai et al. (2011), nous proposons un nouveau régularisateur qui combine l'apprentissage non-supervisé et la propagation de tangente (Simard et al., 1992). Cette méthode exploite des principes géometriques et permit au moment de la publication d'atteindre des résultats à l'état de l'art. Finalement, nous considérons le problème d'optimiser des surfaces non-convexes à haute dimensionalité comme celle des réseaux de neurones. Tradionellement, l'abondance de minimum locaux était considéré comme la principale difficulté dans ces problèmes. Dans Dauphin et al. (2014a) nous argumentons à partir de résultats en statistique physique, de la théorie des matrices aléatoires, de la théorie des réseaux de neurones et à partir de résultats expérimentaux qu'une difficulté plus profonde provient de la prolifération de points-selle. Dans ce papier nous proposons aussi une nouvelle méthode pour l'optimisation non-convexe.
Virtual (dis) connectivities : mobile intimacy and presence for women in long distance relationships
Resumo:
Nous vivons dans une époque où la mobilité internationale est une pratique très courante; ainsi, de plus en plus de partenaires doivent maintenir leurs relations à distance. Le phénomène va de pair avec le développement des nouvelles technologies, qui introduisent de nouvelles formes et de pratiques pour maintenir l’intimité. Cela soulève des questions sur les pratiques de connexion (ou déconnexion) lorsque les couples sont séparés par la distance et le temps. Ce mémoire propose d’explorer comment les femmes dans des relations amoureuses à distance utilisent divers modes d’expression (visuels, textuels, oraux et tactiles) ainsi que plusieurs sens à travers de multiples technologies mobiles, qui lui permettent de reconstruire la présence et l’intimité avec l’autre. Inspiré par le new mobilities paradigm (Sheller & Urry, 2006), ainsi que les concepts de mobile intimacy (Hjorth & Lim, 2012; Elliott & Urry, 2010) et la présence imaginée (Chayko, 2002; Elliott & Urry, 2010), je propose les notions de (dé) connectivité virtuelle, le lieu virtuel, ainsi que la présence/absence technologique. Utilisant une approche méthodologique mixte, venant des données d’entrevues semi-dirigées, de l’autoethnographie, de la recherche création et de journaux de bord multimédias, certaines pratiques de contrôle et de surveillance, des formes émergentes de travail, l’immédiateté et la réciprocité émergent dans une époque d’interconnectivité.
Resumo:
INTRODUCTION : L’articulation temporo-mandibulaire (ATM) est un système articulaire excessivement complexe. L'étiologie des désordres temporo-mandibulaires (DTM) est encore incertaine et le lien de cause à effet des traitements orthodontiques en tant que facteur de risque est une question qui a longuement été discutée. Cette étude clinique prospective vise à évaluer les effets à long terme du port continu de coquilles correctrices Invisalign® sur l’ATM et les muscles du complexe facial. MATÉRIELS ET MÉTHODES : L'étude incluait 43 adolescents et adultes âgés entre 13 et 51 ans (25 femmes et 18 hommes). Deux d'entre eux ont été exclus en raison de mauvaise coopération causant l’arrêt du traitement orthodontique. Les effets dans le temps des coquilles sur l'ATM et les muscles du complexe facial ont été évalués en utilisant l’examen du Research Diagnostic Criteria for Temporomandibular Disorders (RDC/TMD). Le nombre de contractions musculaires durant le sommeil a été mesuré objectivement par enregistrements électromyographiques (EMG) et la fréquence de grincement et de serrement des dents à l’éveil a été rapportée subjectivement par les patients à l’aide de questionnaires. Des mesures répétées ont été effectuées aux temps suivants: avant le début du traitement pour les données contrôles (T1), deux semaines (T2), et six mois (T3) après le début du traitement. Les données numériques ont été analysées par l’analyse de variance (ANOVA) en mesures répétées et la méthode de Brunner-Langer, alors que les données nominales ont été évaluées par le test de Cochran-Mantel-Haenszel. Les résultats ont été considérés significatifs si p < 0.05. RÉSULTATS ET DISCUSSION : Le nombre de contractions musculaires par heure (index) durant le sommeil et leur durée moyenne n’ont pas été statistiquement différents entre les trois nuits d’enregistrement EMG (Brunner Langer, p > 0.005). Cependant, 67 % des participants ont rapporté avoir eu du grincement ou du serrement des dents la nuit au T2 et 64 % au T3 comparativement à 39 % au T1, ce qui était une augmentation significative (Cochran-Mantel-Haenszel, p = 0.0112). Quarante-quatre pour cent des patients ont signalé du grincement ou du serrement des dents pendant le jour au T1, tandis qu'un pourcentage nettement plus élevé de 66 % en a rapporté au T2 et 61 % au T3 (Cochran-Mantel-Haenszel, p = 0.0294). Au T1, 12 % des sujets ont indiqué qu'ils se sont réveillés avec une douleur musculaire, comparativement à 29 % au T2, ce qui était une augmentation significative (Cochran-Mantel-Haenszel, p = 0.0347). Au T2, il y avait une réduction significative des mouvements maximaux de la mandibule dans toutes les directions (ANOVA en mesures répétées, p < 0,05). De plus, il y a eu une augmentation significative du nombre de sites douloureux et de l'intensité de la douleur à la palpation de l'ATM et des muscles faciaux avec l'évaluation du RDC/TMD au T2 en comparaison aux T1 et T3 (Brunner Langer, p < 0,05). CONCLUSION : La présente étude n’a révélé aucun effet des coquilles sur l’activité oro-faciale durant le sommeil au fil du temps mesurée objectivement à l’aide des enregistrements EMG, mais une augmentation significative de la fréquence du grincement et du serrement des dents rapportée subjectivement par les patients au moyen des questionnaires aux T2 et T3. Au T2, il y avait une augmentation significative des symptômes de l'ATM et des muscles du complexe oro-facial, mais ces symptômes sont retournés au niveau initial avec le temps.
Resumo:
This dissertation examines gendered fictional dialogue in popular works by D.H. Lawrence, Ernest Hemingway and E.M. Forster, including Howards End (1910), The Sun Also Rises (1926) and Lady Chatterley’s Lover (1928). I apply Judith Halberstam’s notion of female masculinity to direct speech, to explore how speech traits inform modernist literary aesthetics. My introduction frames this discussion in sociolinguistics, Judith Butler’s theory of performativity, M.M. Bakhtin’s discourse theory, and gender studies. It provides an opportunity to establish experimental dialogue techniques, and the manipulation of gendered talk, in transgressive texts including James Joyce’s Ulysses (1922), Virginia Woolf’s Orlando (1928) and Radcyffe Hall’s The Well of Loneliness (1928). The first chapter discusses taboos and dialect in D.H. Lawrence’s fictional dialogue. The second chapter establishes gender subversion as a crucial element in Ernest Hemingway’s dialogue style. The third chapter contrasts Forster’s latently gendered speech with his techniques of dialect emphasis and dialect suppression. Finally, my conclusion discusses gender identity in the poetry of Dorothy Parker and Baroness Elsa von Freytag Loringhoven, and the temporality of gender in “Time Passes” from Virginia Woolf’s To the Lighthouse (1927). New Woman characters like Lady Brett Ashley typified a crucial moment in women’s liberation. They not only subverted stereotypes of womanhood through their dress or sexual freedom, they also adopted/adapted masculine idiom to shock, to rebel against and challenge male dominance. Different speech acts incited fashionable slang, became a political protest symbol or inspired psychoanalytic theory. The intriguing functions of women’s masculine speech in early twentieth century fiction establishes the need to examine additional connections between gender and talk in literary studies.
Resumo:
La précision des critères d’application du principe de subsidiarité et le développement de son contrôle par les institutions politiques constituent un progrès vers un plus grand respect de ce principe ; ces avancées restent néanmoins insuffisantes à en prévenir toute violation. En droit canadien, le problème est similaire, la précision des critères de la clause Paix, Ordre et Bon Gouvernement et de la clause de commerce, si utile qu’elle soit, ne permet pas d’éviter tout conflit de loi. L’étude de la jurisprudence de la Cour de Justice montre ses réticences à procéder à un contrôle allant au-delà de la recherche d’une motivation formelle de la nécessité de l’intervention européenne. Pourtant, la comparaison de la capacité à agir des différents niveaux de gouvernements, capacité à agir évoluant dans le temps, ne peut se faire sans référence au contexte d’application de la norme. La Cour de Justice pourrait comme la Cour Suprême du Canada, expliciter dans ses décisions son appréciation de la capacité à agir de chaque niveau de gouvernement. La subsidiarité éclaire sous un jour nouveau la clause de commerce ou la doctrine de l’intérêt national, jusqu’alors parfois perçues comme permettant un développement constant et unilatéral des compétences fédérales au détriment de celles des provinces. L’efficacité du contrôle du principe de subsidiarité ne dépend pas seulement de la Cour qui le met en œuvre mais peut aussi dépendre des institutions politiques l’ayant saisi, de l’argumentation des requérants en particuliers.
Resumo:
La pratique d’activité physique fait partie intégrante des recommandations médicales pour prévenir et traiter les maladies coronariennes. Suivant un programme d’entraînement structuré, serait-il possible d’améliorer la réponse à l’exercice tout en offrant une protection cardiaque au patient? C’est ce que semblent démontrer certaines études sur le préconditionnement ischémique (PCI) induit par un test d’effort maximal. Les mêmes mécanismes physiologiques induits par le PCI sont également observés lorsqu’un brassard est utilisé pour créer des cycles d’ischémie/reperfusion sur un muscle squelettique. Cette méthode est connue sous l’appellation : préconditionnement ischémique à distance (PCID). À l’autre extrémité du spectre de l’activité physique, des sportifs ont utilisé le PCDI durant leur échauffement afin d’améliorer leurs performances. C’est dans l’objectif d’étudier ces prémisses que se sont construits les projets de recherches suivants. La première étude porte sur les effets du PCID sur des efforts supra maximaux de courte durée. Les sujets (N=16) ont exécuté un test alactique (6 * 6 sec. supra maximales) suivi d’un test lactique (30 secondes supra maximales) sur ergocycle. Les sujets avaient été aléatoirement assignés à une intervention PCID ou à une intervention contrôle (CON) avant d’entreprendre les efforts. La procédure PCID consiste à effectuer quatre cycles d’ischémie de cinq minutes à l’aide d’un brassard insufflé à 50 mm Hg de plus que la pression artérielle systolique sur le bras. Les résultats de ce projet démontrent que l’intervention PCID n’a pas d’effets significatifs sur l’amélioration de performance provenant classiquement du « système anaérobie », malgré une légère hausse de la puissance maximal en faveur du PCID sur le test de Wingate de trente secondes (795 W vs 777 W) et sur le test de force-vitesse de six secondes (856 W vs 847 W). Le deuxième essai clinique avait pour objectif d’étudier les effets du PCID, selon la méthode élaborée dans le premier projet, lors d’un effort modéré de huit minutes (75 % du seuil ventilatoire) et un effort intense de huit minutes (115 % du seuil ventilatoire) sur les cinétiques de consommation d’oxygène. Nos résultats démontrent une accélération significative des cinétiques de consommation d’oxygène lors de l’intervention PCID par rapport au CON aux deux intensités d’effort (valeur de τ1 à effort modéré : 27,2 ± 4,6 secondes par rapport à 33,7 ± 6,2, p < 0,01 et intense : 29,9 ± 4,9 secondes par rapport à 33,5 ± 4,1, p < 0,001) chez les sportifs amateurs (N=15). Cela se traduit par une réduction du déficit d’oxygène en début d’effort et une atteinte plus rapide de l’état stable. Le troisième projet consistait à effectuer une revue systématique et une méta-analyse sur la thématique du préconditionnement ischémique (PCI) induit par un test d’effort chez les patients coronariens utilisant les variables provenant de l’électrocardiogramme et des paramètres d’un test d’effort. Notre recherche bibliographique a identifié 309 articles, dont 34 qui ont été inclus dans la méta-analyse, qui représente un lot de 1 053 patients. Nos analyses statistiques démontrent que dans un effort subséquent, les patients augmentent leur temps avant d’atteindre 1 mm de sous-décalage du segment ST de 91 secondes (p < 0,001); le sous-décalage maximal diminue de 0,38 mm (p < 0,01); le double produit à 1 mm de sous-décalage du segment ST augmente de 1,80 x 103 mm Hg (p < 0,001) et le temps total d’effort augmente de 50 secondes (p < 0,001). Nos projets de recherches ont favorisé l’avancement des connaissances en sciences de l’activité physique quant à l’utilisation d’un brassard comme stimulus au PCID avant un effort physique. Nous avons évalué l’effet du PCID sur différentes voies métaboliques à l’effort pour conclure que la méthode pourrait accélérer les cinétiques de consommation d’oxygène et ainsi réduire la plage du déficit d’oxygène. Nos découvertes apportent donc un éclaircissement quant à l’amélioration des performances de type contre-la-montre étudié par d’autres auteurs. De plus, nous avons établi des paramètres cliniques permettant d’évaluer le PCI induit par un test d’effort chez les patients coronariens.
Resumo:
La naissance avant terme constitue un important problème de santé périnatale partout dans le monde. Chaque année près de 15 millions de bébés naissent prématurément. Notre laboratoire s’intéresse depuis une décennie à la conception et le développement de nouvelles classes thérapeutiques (appelés agents tocolytiques) capables d’inhiber les contractions utérines et prolonger le temps de gestation. Due à son implication directe dans le déclanchement des contractions utérines, la prostaglandine F2α (FP) est devenue notre cible de choix. Le PDC 113.824 et aza-glycinyl-proline sont apparus comme des inhibiteurs allostériques puissants du récepteur de la prostaglandine F2α, capables de prolonger la durée de gestation chez les souris. Le travail réalisé au cours de ce mémoire a pour objectif d’étudier le tour β nécessaire pour la reconnaissance sur le récepteur de la prostaglandine F2α. Dans la conception de mime peptidique sélectif efficace et puissant, le repliement β est un élément structural essentiel pour le maintien ou l’amélioration de l’activité du mime peptidique. Les études conformationelles du PDC113.824 et l’aza-glycinyl-proline montrent que les squelettes centraux de ces mimes peptidiques pourraient adopter essentiellement un tour β de type I ou II`, ce qui suggère l’implication des deux types de tours dans l’activité biologique. La synthèse de mimes peptidiques adoptant le tour β de type I et II` est devenue une stratégie logique dans la recherche de nouveaux agents tocolytiques. Au cours de ces études quatre analogues du PDC113.824 ont été synthétisés, un azabicyclo[5.3.0]alkanone et un dipeptide macrocyclique (mimes du tours β de type I) pour étudier l’implication du tour β type I. Par la suite la synthèse de glycinyl-proline et le D-alaninyl-proline (des mimes du tour β du type II`) a été réalisée afin de valider l’implication du tour β type II` dans la reconnaissance sur le récepteur. Nous avons utilisé une stratégie de synthèse efficace pour obtenir les deux analogues (azabicyclo [5.3.0]alkanone et dipeptides macrocycles) à partir d’un intermédiaire commun, en procédant par une cyclisation transannulaire diastéréosélective du tétra-peptide.
Resumo:
Ce mémoire de maîtrise porte sur une poétique de l’excès dans Orlando de Virginia Woolf et Nightwood de Djuna Barnes comme une stratégie combattant la tendance qu’a le modernisme à dévaloriser l’écriture des femmes comme étant trop ornementale. J’expose comment Ezra Pound, T.S. Eliot, et Wyndham Lewis tentent de récupérer la notion du détail afin d’affirmer une poétique masculin. Je fais appel également aux oeuvres de l’architecte autrichien Adolf Loos qui souligne sa dénonciation de l’ornement comme régressif. Dans Orlando et Nightwood, je considère l’excès associé au corps. Je soutiens que, dans ces textes, les corps dépassent les limites de la représentation moderniste. Je considère aussi comment Orlando et Nightwood font apparaître la narration comme ornement et écrivent excessivement l’histoire et le temps. Pour conclure, je propose une façon de lire l’excès afin de reconceptualiser le potentiel de production de la signification dans des textes modernistes.
Resumo:
Rapport de stage présenté à la Faculté des études supérieures en vue de l’obtention du grade de Maître ès sciences (M. Sc.) en criminologie
Resumo:
Les progrès médicaux, technologiques et scientifiques réalisés au cours des dernières décennies permettent à de nombreux enfants de survivre à la prématurité, à la maladie ou à des traumatismes physiques. Certains survivent avec des problèmes de santé chroniques qui altèrent le fonctionnement de plusieurs organes. Certains doivent composer avec des incapacités physiques ou intellectuelles légères, modérées ou sévères et sont maintenus en situation de dépendance médico technologique dans un contexte où les services d’aide et le soutien à domicile ne répondent pas aux besoins réels des enfants et de leur famille. Ces avancées dans le champ de la santé offrent des choix auparavant inexistants : sauver ou non la vie de l’enfant? Ces nouvelles possibilités imposent aux parents des décisions parfois difficiles qui engagent des valeurs, des croyances et ont d’énormes conséquences pour les acteurs (l’enfant, ses parents, sa famille, les membres de l’équipe soignante et des professionnels), les institutions et toute la société. Ces choix renvoient à des visions des choses et du monde, à différentes conceptions de la vie et de la mort. En nous intéressant à la trajectoire décisionnelle de parents d’enfant atteint d’une condition médicale complexe, nous souhaitions comprendre la façon dont les parents prennent des décisions à propos de leur enfant. Nous voulions également saisir les motifs décisionnels et leur façon d’évoluer avec le temps. La pensée complexe d’Edgar Morin constitue l’assise théorique principale de la recherche. Nous avons réalisé des entretiens semi-dirigés auprès de 25 parents dont 15 mères et 10 pères. Parmi les principaux résultats, notons la multiplicité des types et des objets de décision, l’influence multisystémique des motifs décisionnels et la présence de processus qui se développent au fil de la trajectoire. Les résultats permettent de proposer quelques repères susceptibles d’améliorer l’accompagnement des parents exposés à des décisions complexes à propos de leur enfant gravement malade.
Resumo:
Les changements socioéconomiques des dernières décennies ont profondément transformé le rapport qu’entretient le Québec avec ses professionnels de la santé. En ouvrant le champ à l’accumulation privée du capital dans les années 1990, se met en place au sein de la fonction publique une philosophie politique issue du monde des affaires. Dès lors, le paradigme de la gouvernance investit les hôpitaux, où exerce 65 % de l’effectif infirmier québécois. Des chercheurs ont investigué les contraintes et torts subis par les infirmières consécutivement à la restructuration du système de santé, cependant, peu d’entre eux ont tenu compte des rapports de force et des structures de pouvoir dans lesquels s’enracine le vécu des infirmières. La présente étude a pour but d’explorer les expériences vécues d’infirmières soignantes politiquement engagées qui exercent en centre hospitalier (CH), de rendre compte de l’ordre social existant au sein de cette institution, de décrire la façon dont elles aimeraient idéalement exercer et de répertorier les idées qu’elles ont et les actions qu’elles mettent en place individuellement ou collectivement de façon à favoriser la transformation de l’ordre social et de l’exercice infirmier en CH. Épistémologiquement, notre étude qualitative s’inscrit dans cette idée que la réalité est complexe, mouvante et dépendante de la perception des personnes, proposant une orientation compréhensive et contextualisée de l’action humaine et du politique; c’est ainsi que le point de vue politique des infirmières participantes est pris en compte. L’articulation des expériences vécues, de l’idéal normatif et de l’action politique des participantes est explorée suivant une perspective postmoderniste, praxéologique et dialectique issue de la théorie critique qui réfléchit non seulement sur ce qui est, mais également sur ce qui est souhaitable; une réflexion qui sous certaines conditions s’ouvre sur l’action transformatrice. Les notions de pouvoir, de rapport de force, de résistance et d’émancipation influencent notre analyse. Au terme de cette étude, les résultats indiquent la présence d’une déprofessionnalisation graduelle en faveur d’une technicisation du soin infirmier et d’une dérive autoritaire grandissante au sein des CH s’arrimant au registre sémantique de l’économie de marché à partir des notions d’efficacité, de performance et d’optimisation. Les infirmières soignantes perçues comme des « automates performants » se voient exclues des processus décisionnels, ce qui les prive de leurs libertés de s’exprimer et de se faire critiques devant ce qui a été convenu par ceux qui occupent les hautes hiérarchies du pouvoir hospitalier et qui déterminent à leur place la façon dont s’articule l’exercice infirmier. Le pouvoir disciplinaire hospitalier, par l’entremise de technologies politiques comme la surveillance continue, les représailles et la peur, la technicisation du soin et le temps supplémentaire obligatoire, concourt à la subjectivation des infirmières soignantes, en minimisant l’importance de leur jugement clinique, en affaiblissant la solidarité collective et en mettant au pas l’organisation syndicale, ce qui détournent ces infirmières de la revendication de leurs droits et idéaux d’émancipation les ramenant à une position subalterne. Nos résultats indiquent que les actions politiques que les participantes souhaitent déployer au sein des CH visent l’humanisation des soins et l’autodétermination professionnelle. Toutefois, nombre des actions répertoriées avaient pour finalité fonctionnelle la protection et la survie des infirmières au sein d’un dispositif hospitalier déshumanisant. Certaines infirmières soignantes s’objectent en conscience, déploient des actions de non-coopération individuelles et collectives, font preuve d’actes de désobéissance civile ou souhaitent agir en ce sens pour établir un rapport de force nécessaire à la prise en compte de leurs revendications par une gouvernance hospitalière qui autrement ferait la sourde oreille. Le pouvoir exercé de façon hostile par la gouvernance hospitalière doit à notre avis être contrecarré par une force infirmière collective égale ou supérieure, sans quoi les politiques qui lui sont associées continueront de leur être imposées. Le renouvellement radical de la démocratie hospitalière apparaît comme la finalité centrale vers laquelle doivent s’articuler les actions infirmières collectives qui permettront l’établissement d’un nouveau rapport de force puisque c’est à partir de celle-ci que les infirmières soignantes pourront débattre de l’orientation que doit prendre l’exercice infirmier.