997 resultados para Réparation par excision de base
Resumo:
On évoque souvent des difficultés à interagir socialement chez les enfants ayant une dysphasie. Ces difficultés sont généralement attribuées aux troubles du langage, mais elles pourraient aussi provenir d’un problème à décoder les émotions des autres. Le but de la présente recherche est d’explorer cette voie chez les enfants dysphasiques de 9 à 12 ans. Différents stimuli émotionnels leur ont été présentés sous forme de vidéos ainsi qu’à des enfants d’un groupe contrôle selon cinq conditions : parole non filtrée, parole filtrée, visage dynamique, visage dynamique accompagné de la parole non filtrée, et visage dynamique avec parole filtrée. Les enfants dysphasiques et les enfants du groupe contrôle ne se comportent pas différemment de manière significative en fonction des émotions présentées et des conditions testées. Par contre, un sous-groupe d’enfants ayant une dysphasie mixte commet significativement plus d’erreurs pour l’ensemble de la tâche que le sous-groupe d’enfants sans dysphasie de même âge chronologique. En fait une part seulement des enfants dysphasiques mixtes ont des scores plus faibles. Ces mêmes enfants présentent un QI non verbal faible tandis que leur compréhension du langage est équivalente à celle de leur sous-groupe (enfants dysphasiques mixtes). Malgré ces différences significatives, les scores des enfants dysphasiques mixtes restent relativement élevés et les difficultés observées sont subtiles. Sur le plan clinique, les praticiens (orthophonistes, psychologues, éducateur) devront systématiser l’évaluation des habiletés de décodage des émotions chez l’enfant dysphasique dont les difficultés ne sont pas forcément évidentes dans la vie quotidienne. La recherche devra développer un outil de dépistage sensible aux troubles de décodage émotionnel et des stratégies thérapeutiques adaptées.
Resumo:
Travail d'intégration réalisé dans le cadre du cours PHT-6113.
Resumo:
Les différentes protéines accessoires du VIH-1, l’agent étiologique du SIDA, optimisent la réplication et la propagation du virus in vivo. Parmi ces dernières figure Vpu, l’antagoniste du facteur de restriction nommé Tetherin qui prévient la relâche des particules virales à partir de la surface de cellules infectées. En diminuant son expression de surface, Vpu prévient l’incorporation de ce facteur de restriction dans la particule virale en formation et conséquemment, empêche la formation d’une ancre protéique reliant le virus mature à la membrane plasmique de la cellule infectée. La mécanistique sous-jacente n’était cependant pas connue. Cette présente thèse relate nos travaux exécutés afin d’élucider la dynamique des mécanismes cellulaires responsables de cet antagonisme. Une approche de mutagénèse dirigée a d’abord permis d’identifier deux régions contenant des déterminants de la localisation de Vpu dans le réseau trans-Golgi (RTG), puis de démontrer la relation existante entre cette distribution et l’augmentation de la relâche des particules virales. Des expériences subséquentes de marquage métabolique suivi d’une chasse exécutées dans des systèmes cellulaires où Tetherin est exprimée de façon endogène ont suggéré le caractère dispensable de l’induction par Vpu de la dégradation du facteur de restriction lors de son antagonisme. En revanche, une approche de réexpression de Tetherin conduite en cytométrie en flux, confirmée en microscopie confocale, a mis en évidence une séquestration de Tetherin dans le RTG en présence de Vpu, phénomène qui s’est avéré nécessiter l’interaction entre les deux protéines. L’usage d’un système d’expression de Vpu inductible conjugué à des techniques de cytométrie en flux nous a permis d’apprécier l’effet majeur de Vpu sur la Tetherin néo-synthétisée et plus mineur sur la Tetherin de surface. En présence de Vpu, la séquestration intracellulaire de la Tetherin néo-synthétisée et la légère accélération de l’internalisation naturelle de celle en surface se sont avérées suffisantes à la réduction de son expression globale à la membrane plasmique et ce, à temps pour l’initiation du processus de relâche virale. À la lumière de nos résultats, nous proposons un modèle où la séquestration de la Tetherin néo-synthétisée dans le RTG préviendrait le réapprovisionnement de Tetherin en surface qui, combinée avec l’internalisation naturelle de Tetherin à partir de la membrane plasmique, imposerait l’établissement d’un nouvel équilibre de Tetherin incompatible avec une restriction de la relâche des particules virales. Cette thèse nous a donc permis d’identifier un processus par lequel Vpu augmente la sécrétion de virus matures et établit une base mécanistique nécessaire à la compréhension de la contribution de Vpu à la propagation et à la pathogénèse du virus, ce qui pourrait mener à l’élaboration d’une stratégie visant à contrer l’effet de cette protéine virale.
Resumo:
Malgré l’abondance d’information concernant la dentisterie esthétique, les évidences scientifiques à son sujet sont rarissimes. Ainsi, cette recherche a pour premier but d’accroître ces évidences en faisant la lumière sur les paramètres esthétiques et leur influence auprès de l’appréciation générale du sourire, tel que perçu par des sujets non-experts. Une invitation à répondre à un questionnaire autoadministré anonyme a été envoyée à la communauté de l’Université de Montréal par courrier électronique. 467 personnes ont accepté de répondre au questionnaire, toutefois seulement 263 ont terminé l'opération. L’analyse des données démontre que le seul critère esthétique objectif ayant une influence statistiquement significative sur l’appréciation générale est « l’arrangement des dents » (p = .028). Les dents versées diminuent significativement l’attrait général par rapport à des dents droites (p = .012) ou chevauchées (p = .009). Par contre, en corrélant ces données avec les convictions des sujets, « l’angulation de la médiane dentaire supérieure » ainsi que « l’inclinaison du plan incisif » présentent aussi des différences statistiquement significatives. « L’état d’usure des dents » et leur « position » sont les éléments, parmi le vocabulaire suggéré, les plus importants pour l’attrait du sourire aux yeux des patients. Avec les limitations de cette étude, on peut conclure que (1) « l’arrangement des dents », « l’angulation de la médiane dentaire supérieure » et « l’inclinaison du plan incisif » influencent de manière statistiquement significative l’appréciation générale du sourire. (2) Parmi les critères objectifs étudiés, « l'arrangement des dents » a la plus forte influence sur l’appréciation générale d’un sourire. (3) Une corrélation statistiquement significative entre les deux séquences d’évaluation et la faible variance intrasujet indiquent que l’appréciation générale d’un sourire est une action réflexe basée, entre autres, sur des paramètres morphologiques. Application pratique : Les résultats de cette étude insinuent que les traitements visant à corriger l’alignement, l’usure des dents et ceux visant à blanchir les dents d’un individu sont susceptibles d’augmenter l’attrait de son sourire tel que perçu par des sujets non-experts.
Resumo:
Peu d’études ont exploré l’utilisation du traitement prolongé pour les mammites cliniques et aucune ne portait sur l’utilisation du traitement prolongé à base de ceftiofur pour le traitement des mammites cliniques légères à modérées. L’objectif de cette étude était d’évaluer l’efficacité du traitement intra-mammaire prolongé à base de ceftiofur pour les mammites cliniques légères à modérées, en considérant toutes les bactéries responsables ou seulement Staphylococcus aureus (S. aureus) et les streptocoques. Des vaches laitières (n = 241) de 22 élevages du Québec et de l’Ontario ont été inclues. L’étude a été conçue comme un essai clinique à allocation aléatoire. Pour chaque cas de mammite clinique légère à modérée, 125 mg d’hydrochloride de ceftiofur (Spectramast® LC) a été administré par voie intra-mammaire une fois par jour pour 2 ou 8 jours. Le pourcentage de guérison clinique 21 jours après la fin du traitement était de 89% (n = 98/110 pour chaque groupe, p = 0,95). Les pourcentages de guérison bactériologique 21 jours après la fin du traitement pour les groupes 2 jours et 8 jours étaient 32% (n = 15/47) et 61% (n = 25/41) respectivement pour toutes les bactéries (p < 0,01); 64% (n = 9/14) et 82% (n = 9/11) respectivement pour les streptocoques (p = 0,50); et 0% (n = 0/20) et 47% (n = 9/19) pour S. aureus (p < 0,01). Il n'y avait pas de différence entre les 2 groupes pour les nouvelles infections intra-mammaires (p = 0,30). Le traitement prolongé à base de ceftiofur est un choix raisonnable pour le traitement des mammites cliniques légères à modérées, en particulier causées par S. aureus.
Resumo:
Le sel sodique du carboxyméthylamidon à haute teneur en amylose, HASCA (Amylose 60%-amylopectine 40%), est un polymère hydrophile ionique utilisé pour obtenir des comprimés matriciels à libération prolongée. Il est caractérisé par la formation d'un hydrogel lors de la mise en contact avec le milieu de dissolution. La libération du principe actif (PA) à travers ce polymère est principalement contrôlée par la diffusion fickienne et la relaxation du réseau polymérique. De plus, la solubilité du PA est un facteur qui permet de moduler la libération, cependant, la solubilité d’un médicament dépend de la forme utilisée et du pH. Les bases ou les acides libres présentent une solubilité moins élevée que leurs sels. Nous proposons d’étudier l’effet d’une combinaison entre le sel et la forme acide ou le sel et la forme alcaline dans le même comprimé matriciel d’HASCA. Comme objectif de ce travail, nous étudions l’influence de la nature du polymère sur le profil de libération de PA dans un milieu aqueux en gradient de pH à cause de la nature des matrices à base d’HASCA caractérisées par la présence de groupement carboxyliques, ionisés ou non selon l’acidité du milieu de dissolution. Nous étudions également l’influence de la nature du PA (base libre ou son sel vs acide libre ou son sel) sur le profil de libération, ceci en sélectionnant des PAs modèles représentatifs de chaque catégorie. L’influence de changement de proportions entre la forme libre (acide ou base) et son sel sur le profil de libération est aussi investiguée. Pour ce, des comprimés à base de HASCA avec des proportions différentes de, soit le naproxène acide et le naproxène de sodium (PA acide et son sel), soit la tétracycline et le chlorhydrate de tétracycline (PA alcalin et son sel) ont été utilisés. Ceux-ci sont évalués lors des tests de dissolution dans un milieu simulant le milieu gastro-intestinal, selon les normes de l’USP (spectrophotométrie UV). Nous avons également menés des études de vitesse de dissolution intrinsèque sur les PAs purs, afin de déterminer leur solubilité et vitesse de libération dans les même pH de dissolution étudiés. Nous avons réussit d’obtenir des comprimés matriciels à base de HASCA convenables à être administrés une fois par jour en utilisant une combinaison du naproxène acide et son sel comme PA. Tandis que les résultats ont montré qu’en utilisant la tétracycline et son sel, les temps de libération étaient trop élevés pour permettre la réalisation d’une formulation convenable pour une administration quotidienne unique
Resumo:
Au cours du Sylvicole supérieur (1000-1500 AD), le secteur de l’embouchure du Saguenay aurait été exploité par des groupes Iroquoiens du Saint-Laurent en quête de ressources marines, et plus particulièrement du phoque. Ces groupes provenaient vraisemblablement de la région de Québec où se trouvaient leurs camps de base et auraient ainsi développé une forme d’adaptation aux ressources marines de l’estuaire, faisant d’eux les groupes iroquoiens les plus mobiles de toute la vallée du Saint-Laurent. Dans cette étude, nous proposons que l’exploitation des mammifères marins fût pratiquée en deux temps, d’abord au printemps, lors de courtes périodes par des contignents de chasseurs masculins attirés par le phoque du Groenland et puis en été, par des familles entières profitant de la présence de phoques gris et commun. Les pinnipèdes étaient probablement traqués sur la batture ou sur les glaces et abattus à la hache ou à l’arc et à la flèche. Puisque les résidus alimentaires retrouvés dans les vases de cuisson étaient surtout composés de poissons et de mammifères terrestres, il est supposé que des sous-produits de la chasse au phoque aient été rapportés dans la région de Québec et utilisés comme réserve de nourriture, comme matière première ou comme monnaie d’échange. Nous défendons également l’hypothèse que ces excursions dans l’estuaire n’étaient pas nécessairement liées à la précarité de l’agriculture dans la région de Québec puisque cette pratique aurait été adoptée tardivement, soit après 1300 AD et peut être même à partir de 1400 AD. Les données sont issues de six sites ayant fait l’objet de fouilles répartis sur une bande littorale de 40 km de longueur. Il s’agit des sites Ouellet (DaEk-6), Anse-aux-Pilotes IV (DbEj-7), Cap-de-Bon-Désir (109G), Site archéologique des Basques-de-l’Anse-à-la-Cave (DbEi-5), Pointe-à-Crapaud (DbEi-2) et Escoumins I (DcEi-1).
Resumo:
Le réalisme des images en infographie exige de créer des objets (ou des scènes) de plus en plus complexes, ce qui entraîne des coûts considérables. La modélisation procédurale peut aider à automatiser le processus de création, à simplifier le processus de modification ou à générer de multiples variantes d'une instance d'objet. Cependant même si plusieurs méthodes procédurales existent, aucune méthode unique permet de créer tous les types d'objets complexes, dont en particulier un édifice complet. Les travaux réalisés dans le cadre de cette thèse proposent deux solutions au problème de la modélisation procédurale: une solution au niveau de la géométrie de base, et l’autre sous forme d'un système général adapté à la modélisation des objets complexes. Premièrement, nous présentons le bloc, une nouvelle primitive de modélisation simple et générale, basée sur une forme cubique généralisée. Les blocs sont disposés et connectés entre eux pour constituer la forme de base des objets, à partir de laquelle est extrait un maillage de contrôle pouvant produire des arêtes lisses et vives. La nature volumétrique des blocs permet une spécification simple de la topologie, ainsi que le support des opérations de CSG entre les blocs. La paramétrisation de la surface, héritée des faces des blocs, fournit un soutien pour les textures et les fonctions de déplacements afin d'appliquer des détails de surface. Une variété d'exemples illustrent la généralité des blocs dans des contextes de modélisation à la fois interactive et procédurale. Deuxièmement, nous présentons un nouveau système de modélisation procédurale qui unifie diverses techniques dans un cadre commun. Notre système repose sur le concept de composants pour définir spatialement et sémantiquement divers éléments. À travers une série de déclarations successives exécutées sur un sous-ensemble de composants obtenus à l'aide de requêtes, nous créons un arbre de composants définissant ultimement un objet dont la géométrie est générée à l'aide des blocs. Nous avons appliqué notre concept de modélisation par composants à la génération d'édifices complets, avec intérieurs et extérieurs cohérents. Ce nouveau système s'avère général et bien adapté pour le partionnement des espaces, l'insertion d'ouvertures (portes et fenêtres), l'intégration d'escaliers, la décoration de façades et de murs, l'agencement de meubles, et diverses autres opérations nécessaires lors de la construction d'un édifice complet.
Resumo:
Ces travaux ont été réalisés en collaboration avec le groupe du professeur William Skene.
Resumo:
La version intégrale de ce mémoire est disponible uniquement pour consultation individuelle à la Bibliothèque de musique de l’Université de Montréal (http://www.bib.umontreal.ca/MU).
Resumo:
Cette recherche vise à examiner les relations entre la perception que des membres du personnel enseignant ont des pratiques du leadership transformationnel de la direction d’école, du contexte scolaire et des conditions favorisant leur engagement à implanter le renouveau pédagogique dans leur école. Le schéma conceptuel et le questionnaire qui sous-tendent cette recherche sont une adaptation de ceux élaborés par Yu, Leithwood et Jantzi (2002). Le questionnaire a été complété par 31 membres du personnel enseignant de quatre écoles primaires montréalaises appartenant à des commissions scolaires anglophones et francophones. À partir de ces données, nous avons calculé des moyennes et nous avons comparé les écoles, à l’aide des tests Mann-Whitney, selon leur niveau d’implantation du renouveau pédagogique, leur niveau socioéconomique et la langue de la commission scolaire d’appartenance. De plus, pour compléter nos données quantitatives, nous avons repris quelques citations des entrevues faites auprès des directions de ces écoles que les professeurs du département d’Administration et fondements de l’éducation de l’Université de Montréal, qui font partie du Groupe de recherche sur l’éducation en milieux défavorisés (GRÉMD), ont effectuées dans le cadre d’une autre étude. Les comparaisons des écoles selon leur niveau d’implantation du renouveau pédagogique révèlent que le personnel enseignant des deux écoles en changement se distingue de celui des deux écoles peu engagées dans le changement sur un seul point majeur : il a évalué moins positivement le contexte scolaire, un résultat appuyé par les analyses non paramétriques. Il semble que, dans les écoles qui ont participé à notre étude, le fait de soutenir l’implantation du renouveau pédagogique serait associé à une évaluation plus faible du contexte scolaire ; la culture de l’école et l’environnement étant les conditions les plus touchées. Un autre résultat de cette recherche est le fait que les enseignantes de l’école favorisée ont évalué le contexte scolaire, notamment la culture, l’environnement et les stratégies pour le changement, moins positivement que les enseignantes des écoles défavorisées. Enfin, les comparaisons des écoles en fonction de la langue de la commission scolaire indiquent qu’il n’existe pas de différence significative dans les évaluations faites des trois variables, que les enseignantes travaillent dans une école appartenant à une commission scolaire anglophone ou francophone. Étant donné que l’échantillon d’enseignantes qui a participé à notre étude est modeste, les résultats de cette recherche ne peuvent pas être généralisés, cependant ils pourraient constituer une base pour des recherches ultérieures dans ce domaine.
Resumo:
Le Ministère des Ressources Naturelles et de la Faune (MRNF) a mandaté la compagnie de géomatique SYNETIX inc. de Montréal et le laboratoire de télédétection de l’Université de Montréal dans le but de développer une application dédiée à la détection automatique et la mise à jour du réseau routier des cartes topographiques à l’échelle 1 : 20 000 à partir de l’imagerie optique à haute résolution spatiale. À cette fin, les mandataires ont entrepris l’adaptation du progiciel SIGMA0 qu’ils avaient conjointement développé pour la mise à jour cartographique à partir d’images satellitales de résolution d’environ 5 mètres. Le produit dérivé de SIGMA0 fut un module nommé SIGMA-ROUTES dont le principe de détection des routes repose sur le balayage d’un filtre le long des vecteurs routiers de la cartographie existante. Les réponses du filtre sur des images couleurs à très haute résolution d’une grande complexité radiométrique (photographies aériennes) conduisent à l’assignation d’étiquettes selon l’état intact, suspect, disparu ou nouveau aux segments routiers repérés. L’objectif général de ce projet est d’évaluer la justesse de l’assignation des statuts ou états en quantifiant le rendement sur la base des distances totales détectées en conformité avec la référence ainsi qu’en procédant à une analyse spatiale des incohérences. La séquence des essais cible d’abord l’effet de la résolution sur le taux de conformité et dans un second temps, les gains escomptés par une succession de traitements de rehaussement destinée à rendre ces images plus propices à l’extraction du réseau routier. La démarche globale implique d’abord la caractérisation d’un site d’essai dans la région de Sherbrooke comportant 40 km de routes de diverses catégories allant du sentier boisé au large collecteur sur une superficie de 2,8 km2. Une carte de vérité terrain des voies de communication nous a permis d’établir des données de référence issues d’une détection visuelle à laquelle sont confrontés les résultats de détection de SIGMA-ROUTES. Nos résultats confirment que la complexité radiométrique des images à haute résolution en milieu urbain bénéficie des prétraitements telles que la segmentation et la compensation d’histogramme uniformisant les surfaces routières. On constate aussi que les performances présentent une hypersensibilité aux variations de résolution alors que le passage entre nos trois résolutions (84, 168 et 210 cm) altère le taux de détection de pratiquement 15% sur les distances totales en concordance avec la référence et segmente spatialement de longs vecteurs intacts en plusieurs portions alternant entre les statuts intact, suspect et disparu. La détection des routes existantes en conformité avec la référence a atteint 78% avec notre plus efficace combinaison de résolution et de prétraitements d’images. Des problèmes chroniques de détection ont été repérés dont la présence de plusieurs segments sans assignation et ignorés du processus. Il y a aussi une surestimation de fausses détections assignées suspectes alors qu’elles devraient être identifiées intactes. Nous estimons, sur la base des mesures linéaires et des analyses spatiales des détections que l’assignation du statut intact devrait atteindre 90% de conformité avec la référence après divers ajustements à l’algorithme. La détection des nouvelles routes fut un échec sans égard à la résolution ou au rehaussement d’image. La recherche des nouveaux segments qui s’appuie sur le repérage de points potentiels de début de nouvelles routes en connexion avec les routes existantes génère un emballement de fausses détections navigant entre les entités non-routières. En lien avec ces incohérences, nous avons isolé de nombreuses fausses détections de nouvelles routes générées parallèlement aux routes préalablement assignées intactes. Finalement, nous suggérons une procédure mettant à profit certaines images rehaussées tout en intégrant l’intervention humaine à quelques phases charnières du processus.
Resumo:
Il est avant-tout question, dans ce mémoire, de la modélisation du timbre grâce à des algorithmes d'apprentissage machine. Plus précisément, nous avons essayé de construire un espace de timbre en extrayant des caractéristiques du son à l'aide de machines de Boltzmann convolutionnelles profondes. Nous présentons d'abord un survol de l'apprentissage machine, avec emphase sur les machines de Boltzmann convolutionelles ainsi que les modèles dont elles sont dérivées. Nous présentons aussi un aperçu de la littérature concernant les espaces de timbre, et mettons en évidence quelque-unes de leurs limitations, dont le nombre limité de sons utilisés pour les construire. Pour pallier à ce problème, nous avons mis en place un outil nous permettant de générer des sons à volonté. Le système utilise à sa base des plug-ins qu'on peut combiner et dont on peut changer les paramètres pour créer une gamme virtuellement infinie de sons. Nous l'utilisons pour créer une gigantesque base de donnée de timbres générés aléatoirement constituée de vrais instruments et d'instruments synthétiques. Nous entrainons ensuite les machines de Boltzmann convolutionnelles profondes de façon non-supervisée sur ces timbres, et utilisons l'espace des caractéristiques produites comme espace de timbre. L'espace de timbre ainsi obtenu est meilleur qu'un espace semblable construit à l'aide de MFCC. Il est meilleur dans le sens où la distance entre deux timbres dans cet espace est plus semblable à celle perçue par un humain. Cependant, nous sommes encore loin d'atteindre les mêmes capacités qu'un humain. Nous proposons d'ailleurs quelques pistes d'amélioration pour s'en approcher.
Resumo:
Les cyclopropanes sont des unités qui sont très importantes en raison de leur présence dans de nombreux produits naturels, dans certaines molécules synthétiques ayant une activité biologique, ainsi que dans plusieurs intermédiaires synthétiques. Les travaux décrits dans cet ouvrage portent sur l’halogénocyclopropanation stéréosélective d’alcools allyliques en présence d’un ligand chiral stœchiométrique de type dioxaborolane et de carbénoïdes de zinc substitués dérivés de composés organozinciques et d’haloformes. Nous avons ainsi développé des conditions pour l’iodo-, la chloro- et la fluorocyclopropanation stéréosélective. Une étude mécanistique portant sur la nature des carbénoïdes alpha-chlorés et alpha-bromés a révélé qu’il y a un échange des halogènes portés par ces carbénoïdes. Lors de la chlorocyclopropanation, le carbénoïde le plus réactif (alpha-chloré) réagit de façon prédominante en vertu du principe de Curtin-Hammet. Les iodocyclopropanes énantioenrichis ont pu être fonctionnalisés via une réaction d’échange lithium-iode suivie du traitement avec des électrophiles, ou via une réaction de transmétallation au zinc suivie d’un couplage de Negishi. Ainsi, toute une gamme de cyclopropanes 1,2,3-substitués énantioenrichis a pu être synthétisée. Dans l’optique de développer de nouvelles méthodologies de fonctionnalisation des cyclopropanes, nous nous sommes par la suite tournés vers le couplage croisé de type Hiyama-Denmark des cyclopropylsilanols. Dans cette voie synthétique, le groupement silanol a deux fonctions : il sert de groupement proximal basique lors de la cyclopropanation de Simmons-Smith et il subit la transmétallation au cours du couplage croisé. Dans l’étape du couplage croisé, la nature des ligands liés à l’atome de silicium s’est avérée cruciale au bon déroulement de la réaction. Ainsi, l’échange de ligands avec le diéthyl éthérate de trifluoroborane générant le cyclopropyltrifluorosilane in situ est requis pour obtenir de bons rendements. Le dernier volet de cet ouvrage porte sur la cyclisation d’iodures d’alkyle par substitution aromatique par voie homolytique catalysée par le nickel. Une série de composés de type tétrahydronaphtalène et thiochromane ont été préparés selon cette méthode. Une étude mécanistique a confirmé la nature radicalaire de cette réaction et suggère fortement l’action catalytique du nickel. De plus, des études de spectrométrie RMN DOSY ont montré une association entre le complexe de nickel et le substrat ainsi que la base employés dans cette réaction.
Resumo:
Introduction: L’approche endovasculaire pour la réparation d’anévrysmes aortiques s’associe à une utilisation importante de produit de contraste, qui peut causer une néphropathie induite par le produit de contraste (NIC) en postopératoire. L’hydratation intraveineuse peut réduire l’incidence de NIC, mais quel produit utiliser reste incertain. Nous avons évalué le bicarbonate de sodium, comparé au NaCl 0,9%, pour réduire l’incidence de NIC. Méthode: Nous avons mené une étude prospective, randomisée et contrôlée à double insu chez 34 patients subissant une chirurgie endovasculaire pour anévrysme aortique. Les patients des deux groupes (17 patients par groupe) ont reçu du bicarbonate de sodium ou du NaCl 0,9% à raison de 3 mL/kg/h pour une heure avant l’intervention puis 1 mL/kg/h jusqu’à 6 h après la fin de la chirurgie. Tous les patients ont reçu du N-acétylcystéine. L’objectif principal était l’incidence de NIC, définie comme une élévation de plus de 25% de la créatinine sérique 48 h suivant l’exposition au produit de contraste. Des biomarqueurs précoces de lésion rénale ont été mesurés. Résultats: Une NIC s’est développée chez 1 patient (5,88%) appartenant au groupe bicarbonate, comparé à aucun patient (0%) dans le groupe NaCl 0,9% (P = 0,31). Les biomarqueurs de lésion rénale étaient significativement augmentés dans les deux groupes après l’exposition au produit de contraste. Conclusions: Nous avons démontré un faible taux d’insuffisance rénale suivant une chirurgie endovasculaire aortique, que l’hydratation soit effectuée avec du bicarbonate ou du NaCl 0,9%, malgré une élévation des biomarqueurs de lésion rénale.