979 resultados para meilleure exécution
Resumo:
Maladies fréquentes, l’asthme touche 8,4% de la population canadienne âgée de 12 ans et plus et la maladie pulmonaire obstructive chronique (MPOC) touche de 5 à 15% de la population âgée entre 35 et 79 ans. L’asthme et la MPOC peuvent coexister chez un patient. Ce phénomène appelé syndrome de chevauchement de l’asthme et de la MPOC (ACOS) toucherait environ 10% à 55% des patients MPOC. Afin de mieux caractériser l’ACOS et les effets indésirables des médicaments utilisés pour traiter la MPOC, deux études ont été mises en place. Une première étude réalisée auprès de pneumologues a permis de décrire les méthodes de diagnostic, de traitement et d’évaluation de la maitrise de l’ACOS dans la pratique clinique. Les pneumologues rapportent que le diagnostic devrait être basé sur les caractéristiques cliniques, les tests de fonction pulmonaire et l'intuition clinique du médecin. De plus, un corticostéroïde inhalé en combinaison et un bronchodilatateur inhalé à longue durée d’action devraient être introduits rapidement dans le plan de traitement. La deuxième étude a permis d’évaluer la fréquence des effets indésirables chez les patients MPOC/ACOS traités avec un bronchodilatateur inhalé à longue durée d’action. Cette étude démontre que les effets indésirables sont fréquents chez les patients MPOC/ACOS et que la sécheresse buccale et la gorge sèche sont les plus rapportés. Ces résultats démontrent que la mise en place de lignes directrices pour l’ACOS ainsi qu’une meilleure connaissance du profil de tolérance des bronchodilatateurs inhalés à longue durée d’action seraient bénéfiques pour les patients
Resumo:
Les tourbières ont contribué à refroidir le climat terrestre pendant l’Holocène en accumulant un réservoir de carbone important. Dans la forêt boréale canadienne, les sols gelés en permanence (pergélisols) sont répandus et ceux-ci sont principalement localisés dans les tourbières où ils forment des plateaux surélevés. Le dégel du pergélisol, causé entre autres par le réchauffement atmosphérique ou d’autres perturbations, provoque l’effondrement des plateaux et la saturation en eau du sol ce qui modifie entre autres le couvert végétal et le cycle du carbone. Les modélisations suggèrent que les latitudes nordiques seront les plus affectées par le réchauffement climatique alors qu’on y observe déjà un recul du couvert du pergélisol. Il est primordial de comprendre comment le dégel du pergélisol affecte la fonction de puits de carbone des tourbières puisque des rétroactions sur le climat sont possibles si une grande quantité de gaz à effet de serre est émise ou séquestrée. J’utilise une chronoséquence représentant le temps depuis le dégel d’un plateau de pergélisol des Territoires du Nord-Ouest pour comprendre les facteurs influençant l’aggradation et la dégradation du pergélisol dans les tourbières et évaluer l’effet du dégel sur l’accumulation de carbone et la préservation du carbone déjà accumulé. Les taux d’accumulation de carbone associés à la présence de pergélisol dans le passé et au présent sont lents, et la tourbe est moins décomposée dans les secteurs ayant été affectés plus longtemps par le pergélisol. En somme, le pergélisol réduit l’accumulation de carbone en surface mais permet une meilleure préservation du carbone déjà accumulé.
Resumo:
Introduction: La ventilation non invasive (VNI) est un outil utilisé en soins intensifs pédiatriques (SIP) pour soutenir la détresse respiratoire aigüe. Un échec survient dans près de 25% des cas et une mauvaise synchronisation patient-ventilateur est un des facteurs impliqués. Le mode de ventilation NAVA (neurally adjusted ventilatory assist) est asservi à la demande ventilatoire du patient. L’objectif de cette étude est d’évaluer la faisabilité et la tolérance des enfants à la VNI NAVA et l’impact de son usage sur la synchronie et la demande respiratoire. Méthode: Étude prospective, physiologique, croisée incluant 13 patients nécessitant une VNI dans les SIP de l’hôpital Ste-Justine entre octobre 2011 et mai 2013. Les patients ont été ventilés successivement en VNI conventionnelle (30 minutes), en VNI NAVA (60 minutes) et en VNI conventionnelle (30 minutes). L’activité électrique du diaphragme (AEdi) et la pression des voies aériennes supérieures ont été enregistrées pour évaluer la synchronie. Résultats: La VNI NAVA est faisable et bien tolérée chez tous les enfants. Un adolescent a demandé l’arrêt précoce de l’étude en raison d’anxiété reliée au masque sans fuite. Les délais inspiratoires et expiratoires étaient significativement plus courts en VNI NAVA comparativement aux périodes de VNI conventionnelle (p< 0.05). Les efforts inefficaces étaient moindres en VNI NAVA (résultats présentés en médiane et interquartiles) : 0% (0 - 0) en VNI NAVA vs 12% (4 - 20) en VNI conventionnelle initiale et 6% (2 - 22) en VNI conventionnelle finale (p< 0.01). Globalement, le temps passé en asynchronie a été réduit à 8% (6 - 10) en VNI NAVA, versus 27% (19 - 56) et 32% (21 - 38) en périodes de VNI conventionnelle initiale et finale, respectivement (p= 0.05). Aucune différence en termes de demande respiratoire n’a été observée. Conclusion: La VNI NAVA est faisable et bien tolérée chez les enfants avec détresse respiratoire aigüe et permet une meilleure synchronisation patient-ventilateur. De plus larges études sont nécessaires pour évaluer l’impact clinique de ces résultats.
Resumo:
Rapport de stage présenté à la Faculté des sciences infirmières en vue de l'obtention du grade de Maître ès sciences (M.Sc.) en sciences infirmières option expertise-conseil en soins infirmiers
Resumo:
Ce mémoire traite de la chimie des complexes pinceurs de nickel (II) cationiques ayant un ligand de type POCOP. Elle se divise en deux parties. La première traite de la synthèse, de la caractérisation et de la réactivité des complexes cationiques pinceurs de Ni(II) de type POCOP (POCOP = 1,3-bis(phosphinitobenzene), où C fait partie d’un cycle benzénique et est lié au métal, et P est un ligand phosphoré aussi lié au métal). Ces complexes ont un ligand acétonitrile coordonné au centre métallique et sont du type [(R-POCOPR’)Ni(NCMe)][OSO2CF3], où R est un substituant du cycle benzénique et R’ est un substituant sur le ligand phosphoré (R’ = iPr: R = H (1), p-Me(2), p-OMe(3), p-CO2Me(4), p-Br(5), m,m-tBu2(6), m-OMe(7), m-CO2Me(8); R’ = t-Bu : R = H (9), p-CO2Me(10)). Les complexes cationiques sont préparés en faisant réagir le dérivé Ni(II) neutre correspondant R-(POCOPR’)Ni-Br avec Ag(OSO2CF3¬) dans l’acétonitrile à température ambiante. L’impact des groupements R et R’ du ligand POCOP sur la structure et sur les propriétées électroniques du complexe a été étudié par spectroscopies RMN, UV-VIS et IR, analyse électrochimique, et diffraction des rayons X. Les valeurs de fréquence du lien C≡N (ν(C≡N)) augmentent avec le caractère électroattracteur du complexe, dans l’ordre 7 < 3 ~ 2 ~ 6 < 1 < 5 ~ 8 < 4 et 9 < 10. Ces résultats sont en accord avec le fait qu’une augmentation du caractère électrophile du centre métallique devrait résulter en une augmentation de la donation σ MeCN→Ni. De plus, les complexes cationiques montrent tous un potentiel d’oxydation Ni(II)/Ni(III) plus élevé que leurs analogues neutres Ni-Br. Ensuite, une étude d’équilibre entre un complexe neutre (R-POCOPR’)NiBr et un complexe cationique [(R-POCOPR’)Ni(NCMe)][OSO2CF3] démontre l’échange facile des ligands MeCN et Br. La deuxième partie de ce mémoire consiste en deux chapitres. Le premier (Chapitre 3) est une étude structurelle permettant une meilleure compréhension du mécanisme d’hydroamination des oléfines activées promue par les complexes présentés au chapitre 1, suivi de tentatives de synthèse de nouveaux composés POCOP cationiques comportant un ligand amine et nitrile, et de déplacement du groupement amine par un groupement nitrile. Le deuxième chapitre (4) décrit la réactivité et la cinétique de la réaction d’hydroamination et d’hydroalkoxylation d’oléfines activées, qui permet ainsi de mieux comprendre l’impact des différentes variables du système (groupements R et R’, température, substrats, solvent, etc.) sur la réactivité catalytique.
Resumo:
Les connaissances scientifiques sur le changement climatique (CC) évoluent rapidement. Toutefois, des incertitudes persistent sur l’étendue de ses conséquences, particulièrement dans les milieux urbains, qui subiront des impacts différents de ceux vécus par les milieux ruraux. Les autorités publiques ont récemment commencé à élaborer des politiques publiques d’adaptation au changement climatique (ACC) qui visent à en limiter les conséquences indésirables. En milieu urbain, la littérature suggère qu’un des outils que devraient privilégier ces politiques est le verdissement. Des auteurs signalent que les actions visant l’ACC peuvent se greffer dans des politiques existantes. L’ACC, comme enjeu public, peut donc être réalisée par l’entremise de sa prise en compte dans les politiques publiques de verdissement. Cette prise en compte devrait affecter le contenu (quoi?) et le pilotage (comment?) des différentes étapes des politiques. Le cas de la politique publique de verdissement de la Ville de Montréal, au Québec, nous a permis d’étudier cette prise en compte. En utilisant un cadre d’analyse des politiques publiques développé par Knoepfel et al. (2015), qui porte entre autres sur la mobilisation des ressources par différents acteurs concernés par ces politiques, nous montrons que cette dernière s’est opérée de quelques façons. Premièrement, il y a eu un changement dans l’argumentaire pour le verdissement, outil qui vise à lutter contre les îlots de chaleur urbains et assurer une meilleure gestion des eaux pluviales. Ensuite, le choix de l’échelle d’agglomération pour la prise en compte de l’ACC a entraîné un changement d’échelle dans la gestion du verdissement. La publication d’un plan d’action majeur de verdissement urbain pour l’agglomération, et dont le leitmotiv est l’ACC, le démontre. Quelques modifications réglementaires et l’inclusion de nouveaux acteurs dans la politique témoignent aussi que la prise en compte a eu lieu. Finalement, le plan d’action fournit un cadre pour la mise en œuvre du verdissement dans les zones les plus vulnérables au CC en plus d’une structure de partage des coûts. Cependant, la mise en oeuvre du verdissement dans une visée d’ACC n'a pas été évaluée dans la présente étude. Nous avons aussi noté que la biodiversité est un enjeu d’importance qui va de pair avec l’ACC dans la politique de verdissement. Il y a donc une prise en compte, partielle, de l’ACC dans la politique publique de verdissement à Montréal (avec certains écueils). Nous arguons que l’enjeu de l’ACC sert peut-être d’argument supplémentaire pour verdir la ville plutôt que d’être un véritable moteur de transformation de la politique de verdissement.
Resumo:
Introduction : La fécondation in vitro est de mieux en mieux connue et en amélioration constante, cependant les taux d’implantation et de grossesse sont encore bas (environ 35% par fécondation in vitro). Un des enjeux de l’amélioration de la fécondation in vitro est le développement embryonnaire et l’implantation. Pour cela, la co-culture des embryons sur un tapis de cellules endométriales maternelles autologues peut être utilisée pour améliorer le développement embryonnaire (taux d’embryon se développant jusqu’à J5 : blastocyste) et l’implantation. L’objectif de l’étude est d’étudier le lien entre la qualité du tapis cellulaire et le développement embryonnaire. Matériel et méthodes : Cette étude est une sous analyse de l’essai clinique randomisé en double aveugle OvoGen, comparant le taux de blastulation et de grossesse dans deux groupes randomisés : le groupe étude, dans lequel les embryons se développent sur un tapis cellulaire endométrial maternel et le groupe contrôle, dans lequel les embryons sont cultivés dans du milieu conventionnel. Nous avons analysé la qualité des tapis cellulaire du groupe étude (confluence des cellules, taux de cellules épithéliales et vitalité des cellules stromales) par rapport au développement embryonnaire et au taux de grossesse. Résultats : 50 tapis de cellules endométriales maternelles et 291 embryons sur les puits ont été analysés de 2012 à 2015 à la clinique ovo (Montréal, Québec). La qualité des embryons n’était pas changée par la qualité des tapis (p=0,65 pour la confluence, p=0,25 pour le taux de glande et p=0,92 pour la viabilité des cellules). En revanche, le taux de grossesse augmentait quand la confluence diminuait (p=0,022) et lorsque la viabilité des cellules stromales augmentait (p=0,001). De plus, la qualité des tapis était dépendante de la date de la biopsie : la biopsie faite à J7 après l’ovulation permettait une meilleure qualité de puits (confluence augmentée, p=0,045, taux de glande augmenté p=0,004 et viabilité stromales augmentée p=0,001) que la biopsie faite à J5 post ovulation. Discussion : Aucune des nombreuses études sur la co-culture ne porte sur la qualité des tapis cellulaire. Il est intéressant de noter que le taux de grossesse augmente avec la diminution de la confluence et l’augmentation de la viabilité des cellules stromales dans les puits contenant les embryons transférés. Comme il a déjà été démontré, (1)le jour de la biopsie endométriale influe sur la qualité du tapis cellulaire en coculture et pour que celui-ci soit de bonne qualité, il faut que l’endomètre soit réceptif (après J19 du cycle). Conclusion : Nous avons montré que la qualité des tapis cellulaires dépendait du jour de la biopsie d’endomètre et que cette qualité pouvait influencer le bénéfice de la co-culture. Il serait intéressant d’étudier la réceptivité de l’endomètre au moment de la biopsie avant utilisation des cellules en co-culture pour optimiser la qualité du tapis cellulaire.
Resumo:
Objectifs. Les objectifs de ce mémoire sont au nombre de deux. Le premier objectif est scindé en deux : l’objectif 1A est d’évaluer l’apport et la validité/fiabilité de l’analyse descriptive des règlements de compte amorcée par Cordeau dans sa thèse de doctorat de 1991 puis d’étendre la portée de cette analyse descriptive de part et d’autre des années 1970-1986. Ceci sera fait afin de voir si les règlements de compte de la période de Cordeau diffèrent de notre ensemble; l’objectif 1B est d’évaluer différents taux afin de voir lesquels nous permettent de mieux comprendre les grandes tendances des règlements de compte et leurs vagues. Enfin, le deuxième objectif est d’utiliser l’analyse de réseau afin de confirmer certains points ressortant de l’analyse descriptive des règlements de comptes et d’analyser la structure sociale du règlement de compte au Québec entre 1953 et 2013. Méthodologie. En faisant appel à Allô Police et plusieurs autres sources médiatiques, nous avons constitué une base de données des règlements de comptes québécois entre de 1953 à 2013. Nos analyses font appel à une approche holistique qui intègre à la fois l’analyse statistique descriptive, les tableaux croisés, l’analyse temporelle et l’analyse de réseau afin de bien cerner la question des règlements de compte. Résultats. Nos principaux résultats sont au nombre de quatre: 1) les grandes tendances qu’avait trouvées Cordeau entre 1970-1986 s’appliquent pour l’ensemble des règlements de compte de 1953 à 2013. Ainsi, peu de variations importantes ont été observées entre nos règlements de compte et ceux de Cordeau ; 2) les taux alternatifs se basant sur la population carcérale ou criminelle ne permettent pas de mieux comprendre les règlements de compte par rapport à un taux basé sur la population générale. Par contre, les proportions proposées par Morselli et al (2008) amènent une meilleure conception des périodes d’effervescences du milieu; 3) les groupes criminels qui sont plus exposés à la violence sont aussi ceux qui ont le plus recours à la violence et; 4) les indépendants occupent une place importante parmi les victimes de règlements de compte et ont donc une place importante dans le milieu criminel. Conclusion. Nos résultats font état du besoin d’intégrer différentes approches théoriques et méthodologiques afin de bien cerner la question complexe qu’est le règlement de compte. Avec les avenues de recherches identifiées à la fin de ce mémoire, nous espérons que la relève sera en mesure de mettre à profit les apprentissages de ce mémoire.
Resumo:
Rapport de stage présenté à la Faculté des études supérieures et postdoctorales en vue de l’obtention du grade Maîtrise ès sciences (M.sc) en sciences infirmières, option formation
Resumo:
Œuvre dédiée à Alioune Camara; merci au Prof. Denis Dougnon de l’Université de Bamako pour le parrainage
Resumo:
Les nouvelles technologies et l’arrivée de l’Internet ont considérablement facilité les échanges transnationaux de données entre les entreprises publiques et/ou privées et également entre les personnes elles-mêmes. Cependant cette révolution numérique n’a pas été sans conséquences sur l’utilisation de nos données personnelles puisque cette abondance de données à la portée de tiers peut conduire à des atteintes : la commercialisation des données personnelles sans le consentement de l’intéressé par des entreprises ou encore la diffusion de sa photographie, de son nom, de son prénom à son insu en sont des exemples. La question qui vient alors se poser est en cas de litige, c’est-à-dire en cas d’atteintes au droit à la protection de nos données personnelles, présentant un ou des éléments d’extranéité, quels tribunaux pouvons-nous saisir ? Et quelle est la loi qui sera applicable ? Les droits québécois, de l’Union européenne, et suisse présentent différents critères de rattachement intéressants et adaptés à des situations prenant place hors et sur internet. Le droit commun de chacun de ces systèmes est envisagé, puis appliqué aux données personnelles dans le cadre d’une situation normale, et ensuite à internet si la situation diffère. La doctrine est également analysée dans la mesure où certaines solutions sont tout à fait intéressantes, et cela notamment sur internet. Un premier chapitre est consacré à la compétence internationale des tribunaux et aux critères de rattachement envisageables en droit commun à savoir notamment : le tribunal de l’État de survenance du préjudice, le tribunal de l’État de la faute ou encore le tribunal du domicile de la victime. Et ceux prévus ou non par la doctrine tels que l’accessibilité et le ciblage par exemple. Les conflits de lois sont étudiés dans un deuxième chapitre avec également l’énumération les différents facteurs de rattachement envisageables en droit commun comme la loi de l’État du préjudice, la loi de l’État de la faute ou encore la loi de l’État favorisant la victime. Et également ceux prévus par la doctrine : la loi de l’État « offrant la meilleure protection des données à caractère personnel » ou encore la loi de l’État où est établi le « maître du fichier ». Le tribunal le plus compétent au regard des principes généraux de droit international privé en cas d’atteintes au droit de la protection des données personnelles hors et sur internet est le tribunal de l’État du domicile de la victime. Et la meilleure loi applicable est la loi de l’État du domicile ou de la résidence principale du demandeur et du défendeur à l’instance, et dans le cas où la situation ne présente pas d’éléments d’extranéité, la meilleure loi est la loi favorisant la victime.
Resumo:
Au cours des vingt dernières années, l’anesthésie régionale est devenue, autant en médecine vétérinaire qu’humaine, un outil essentiel à l’élaboration de protocoles analgésiques péri-opératoires. Parmi l’éventail de techniques mises au point en anesthésie canine, le bloc paravertébral du plexus vertébral (PBPB) et sa version modifiée sont d’un grand intérêt pour toute procédure du membre thoracique, dans sa portion proximale. Toutefois, l’essentiel des données publiées à ce jour provient d’études colorimétriques, sans évaluation clinique, et peu d’information est disponible sur les techniques de localisation nerveuse envisageables à ce site. Notre étude visait à décrire une approche échoguidée du PBPB modifié, puis à caractériser ses paramètres pharmacocinétiques et pharmacodynamiques après administration de lidocaïne (LI) ou lidocaïne adrénalinée (LA). Huit chiens ont été inclus dans un protocole prospectif, randomisé, en aveugle et croisé, réparti sur trois périodes. L’impact pharmacodynamique du bloc effectué avec LI ou LA a été évalué régulièrement pour 180 min suivant son exécution. Le traitement à l’adrénaline n’a pas démontré d’impact significatif (P = 0,845) sur la durée du bloc sensitif, tel qu’évalué par un stimulus douloureux mécanique appliqué aux dermatomes ciblés. À l’opposé, l’atteinte proprioceptive évaluée par la démarche a été trouvée prolongée (P = 0,027) et le bloc moteur mesuré par le pic de force verticale (PVF) au trot sur la plaque de force s’est avéré plus marqué (PVF réduit; P = 0,007) sous LA. À l’arrêt comme au trot, le nadir de la courbe PVF-temps a été trouvé retardé (P < 0,005) et la pente ascendante de retour aux valeurs normales adoucie (P = 0,005). Parallèlement aux évaluations cliniques, des échantillons plasmatiques ont été collectés régulièrement afin de quantifier et décrire le devenir pharmacocinétique de la lidocaïne. Parmi les trois élaborés, un modèle bi-compartimental doté d’une double absorption asynchrone d’ordre zéro a finalement été sélectionné et appliqué aux données expérimentales. Sous LA, la Cmax a été trouvée significativement diminuée (P < 0,001), les phases d’absorption prolongées [P < 0,020 (Dur1) et P < 0,001 (Dur2)] et leurs constantes réduites [P = 0,046(k01) et P < 0,001 (k02)], le tout en concordance avec les effets proprioceptifs et moteurs rapportés. Bien que l’extrapolation du dosage soit maintenant théoriquement envisageable à partir du modèle mis en lumière ici, des études supplémentaires sont encore nécessaires afin d’établir un protocole de PBPB d’intérêt clinique. L’analyse sur plaque de force pourrait alors devenir un outil de choix pour évaluer l’efficacité du bloc dans un cadre expérimental.
Resumo:
La suppléance à la communication (SC) est un moyen qui permet aux personnes qui ne peuvent pas communiquer par la parole de transmettre des informations à leur environnement et d'interagir de manière fonctionnelle avec lui. Le développement de la SC connaît des avancées importantes depuis quelques années, surtout avec l'avènement de nouvelles technologies. Toujours est-il qu'une compréhension plus approfondie des mécanismes qui sous-tendent l'utilisation de la SC reste primordiale. De plus, les relations qui existent entre l'utilisation du langage oral et de symboles graphiques sont peu explorées à ce jour. La présente étude fait partie d'un projet plus large visant donc à mieux explorer la nature des compétences nécessaires à une utilisation optimale de symboles graphiques dans la SC. Ainsi, et afin de mieux comprendre cette relation entre le langage oral et l'utilisation de symboles graphiques aussi bien en production qu'en compréhension, ainsi que pour mieux explorer l'effet d'âge et de genre, nous avons recruté 79 enfants (37 filles et 42 garçons), âgés entre 4;1 ans et 9;11ans, et qui présentent un développement typique du langage. L'étude du développement typique nous permet d'étudier certaines habiletés qui peuvent être difficiles à évaluer chez des enfants présentant des déficits sévères. Les sujets ont été répartis en 3 groupes selon leur âge: groupe 4-5 ans (n=26), groupe 6-7 ans (n=35) et groupe 8-9 ans (n=18). Plusieurs tâches ont été crées; celles-ci comprenaient des tâches de compréhension et de production, avec comme matériel des symboles graphiques, des objets ou des mots, qui étaient répartis au sein d'énoncés formés de trois, quatre, six ou huit éléments. Les résultats montrent tout d'abord deux profils distincts: chez les jeunes enfants, on observe une meilleure performance aux tâches d'interprétation par rapport aux tâches de production. Cependant, cette différence n'est plus évidente pour les groupes des plus âgés, et la distinction principale se situe alors au niveau de la différence de performance entre les tâches orales et les tâches symboliques au profit des premières. Par ailleurs, et conformément aux observations sur le développement du langage oral, la performance des filles est supérieure à celle des garçons à toutes les tâches, et cette différence semble disparaître avec l'âge. Enfin, nos résultats ont permis de montrer une amélioration plus marquée de la maîtrise du langage oral avec l'âge par comparaison à la maîtrise du traitement du symbole graphique. Par contre, l'interprétation et la production semblent être maîtrisées de manière similaire. Notre étude vient appuyer certains résultats rapportés dans la littérature, ainsi qu'élargir les connaissances surtout au niveau des liens qui existent entre la production et l'interprétation orale et symbolique en fonction de l'âge et du genre.
Resumo:
Ce mémoire porte sur les retraductions françaises du XXe siècle d’Al Moqaddima (Les Prolégomènes) (1377) d’Ibn Khaldoun, un traité historique et philosophique du XIVe siècle. La première traduction française, Les Prolégomènes, est réalisée par De Slane entre 1840 et 1863. Elle est suivie de deux retraductions, à savoir Discours sur l’histoire universelle (1967- 1968) réalisée par Vincent-Mansour Monteil, et Le Livre des Exemples I : Autobiographie, La Muqaddima (2002) réalisée par Abdesselam Cheddadi. L’objet de ce mémoire est de mener une analyse contextuelle, paratextuelle et discursive de ces deux retraductions de l’œuvre monumentale d’Ibn Khaldoun, afin de dégager les principaux facteurs déterminant, dans chaque cas, le choix de retraduire. Notre approche théorique s’inscrit dans le contexte récent de remise en cause de ladite « hypothèse de la retraduction » d’Antoine Berman, qui privilégie une analyse textuelle de l’œuvre (re)traduite en négligeant quelque peu l’analyse contextuelle éclairant les conditions de production des retraductions, et en limitant le positionnement du traducteur à sa relation envers la « vérité » du texte source. Ainsi, en retraçant l’histoire des différentes éditions des Prolégomènes au XXe siècle, en exposant le contexte qui entoure les retraductions, et en nous nous attachant aux stratégies discursives déployées par les traducteurs en marge de ces dernières, nous tenons compte des réflexions récentes sur les « causalités multiples » du phénomène de la retraduction, tout en montrant comment la subjectivité du traducteur, ses décisions et ses motivations sont reliées à tous les éléments extratextuels ou contextuels mis en valeur par les théoriciens. Nous montrons par notre analyse que les deux retraductions au corpus sont motivées par des facteurs internes au texte (tels que l’authenticité de leur original, une meilleure connaissance du texte, de la langue et de la culture source, la nécessité de corriger des erreurs dans les traductions antérieures), mais aussi par de nouveaux éléments externes au texte (tels que le changement de normes sociales, littéraires et traductionnelles, l’émergence de nouvelles interprétations du texte, le positionnement idéologique du retraducteur, sa volonté de s’imposer comme une autorité, etc.). La retraduction s’avère donc un phénomène complexe motivé par une combinaison de facteurs, à la fois internes (textuels), externes (contextuels) et personnels, propres au (re)traducteur.
Resumo:
La fraction d’éjection du ventricule gauche est un excellent marqueur de la fonction cardiaque. Plusieurs techniques invasives ou non sont utilisées pour son calcul : l’angiographie, l’échocardiographie, la résonnance magnétique nucléaire cardiaque, le scanner cardiaque, la ventriculographie radioisotopique et l’étude de perfusion myocardique en médecine nucléaire. Plus de 40 ans de publications scientifiques encensent la ventriculographie radioisotopique pour sa rapidité d’exécution, sa disponibilité, son faible coût et sa reproductibilité intra-observateur et inter-observateur. La fraction d’éjection du ventricule gauche a été calculée chez 47 patients à deux reprises, par deux technologues, sur deux acquisitions distinctes selon trois méthodes : manuelle, automatique et semi-automatique. Les méthodes automatique et semi-automatique montrent dans l’ensemble une meilleure reproductibilité, une plus petite erreur standard de mesure et une plus petite différence minimale détectable. La méthode manuelle quant à elle fournit un résultat systématiquement et significativement inférieur aux deux autres méthodes. C’est la seule technique qui a montré une différence significative lors de l’analyse intra-observateur. Son erreur standard de mesure est de 40 à 50 % plus importante qu’avec les autres techniques, tout comme l’est sa différence minimale détectable. Bien que les trois méthodes soient d’excellentes techniques reproductibles pour l’évaluation de la fraction d’éjection du ventricule gauche, les estimations de la fiabilité des méthodes automatique et semi-automatique sont supérieures à celles de la méthode manuelle.