495 resultados para Fréquence Cardiaque
Resumo:
Problématique : Les connaissances théoriques et pratiques au sujet de la mise en charge immédiate d’implants non jumelés chez les édentés sont limitées. Objectifs : Cette étude avait pour but de : (1) déterminer le taux de survie implantaire de 2 implants non jumelés supportant une prothèse totale mandibulaire suite à une mise en charge immédiate, (2) évaluer les changements des niveaux osseux et de stabilité implantaire survenus sur ces 2 implants durant une période de 4 mois et les comparer à un implant témoin, et (3) décrire les complications cliniques associées à ce mode de mise en charge. Méthodologie : Chez 18 individus édentés (âge moyen de 62±7 ans), cette étude de phase I avec un design pré/post a évalué les résultats cliniques suivant la mise en charge immédiate (<48 heures) de 2 implants non jumelés par une prothèse totale mandibulaire. À l’aide de radiographies périapicales, de sondages osseux et d’analyses de la fréquence en résonnance, les niveaux osseux péri-implantaires (en mm) et les niveaux de stabilité implantairte (en ISQ) de ces 2 implants insérés dans la région parasymphysaire ont été évalués à la chirurgie (T0) et au suivi de 4 mois (T1). Un implant non submergé et sans mise en charge inséré dans la région de la symphyse mandibulaire a été utilisé comme témoin. Les données ont été analysées avec des modèles mixtes linéaires, la méthode de Tukey ajustée, l’analyse de variance de Friedman et des tests de rang signés de Wilcoxon. Résultats : De T0 à T1, 3 implants mis en charge immédiatement ont échoué chez 2 patients. Le taux de survie implantaire obtenu était donc de 91,7% (33/36) et, par patient, de 88,9% (16/18). Aucun implant témoin n’a échoué. Les changements osseux documentés radiologiquement et par sondage autour des implants mis en charge immédiatement étaient, respectivement, de -0,2 ± 0,3 mm et de -0,5 ± 0,6 mm. Les pertes d’os de support implantaire n’ont pas été démontrées statistiquement différentes entre les implants avec mise en charge immédiate et les témoins. Les niveaux moyens de stabilité implantaire ont augmenté de 5 ISQ indépendamment de la mise en charge. Les niveaux moyens d’ISQ n’ont pas été démontrés statistiquement différents entre les implants avec mise en charge immédiate et les témoins à T0 ou T1. Cinq des 18 patients n’ont expérimenté aucune complication clinique, alors que 9 en ont eu au moins deux. Hormis les échecs implantaires, aucune de ces complications n’a entraîné de changements au protocole. Conclusion : Les résultats à court terme suggèrent que : (1) le taux de survie implantaire suite au protocole immédiat est similaire à ceux rapportés lors d’un protocole de mise en charge conventionnel (2) les changements d’os de support implantaire et de stabilité ne sont pas différents comparativement à ceux d’un implant témoin, (3) un niveau élevé d’expérience clinique et chirurgicale est requis pour effectuer les procédures et pour gérer les complications associées. Ces résultats préliminaires devraient être confirmés dans une étude clinique de phase II.
Resumo:
INTRODUCTION : L’utilisation de la circulation extracorporelle durant la chirurgie cardiaque est associée à des problèmes pulmonaires chez certains patients. L’utilisation d’une pression pulsatile induite par un ballon intra-aortique (BIA) pourrait diminuer la dysfonction endothéliale et la survenue de tels événements. MATÉRIEL ET MÉTHODE : 12 porcs Landrace-Yorkshire ont subi une circulation extracorporelle et ont été divisés en deux groupes et 4 porcs ont servi de contrôles sans CEC. Le premier groupe (n=6) a bénéficié d’un flot pulsatile créé par un BIA en mode interne à 80 battements par minute durant les 90 minutes de l’opération alors que le second groupe (n=6) a subi une CEC standard. Après 60 minutes de reperfusion suivant la CEC, les valeurs hémodynamiques ont été évaluées dont les pressions artérielles, les pressions pulmonaires, l’index cardiaque et la concentration de glucose et de lactate. Les artères pulmonaires sont ensuite montées en chambre d’organe pour évaluer la fonction endothéliale. RÉSULTATS : Les porcs avec pression pulsatile ont tendance à produire moins de lactate sanguin après 60 minutes de reperfusion. Les autres valeurs hémodynamiques sont semblables. Finalement, la relaxation à la bradykinine est significativement meilleure dans le groupe pression pulsatile alors que la relaxation à l’acétylcholine n’est pas significativement différente. CONCLUSION : Ces résultats démontrent que la perfusion pulsatile produite par un BIA protège l’endothélium pulmonaire lors d'une CEC. Cet effet pourrait être dû à une augmentation du flot bronchique qui diminuerait l’ischémie pulmonaire ou à une diminution de la libération de cytokines et de bradykinine qui réduirait les dommages de reperfusion.
Resumo:
Cette thèse avait pour objectif général d’approfondir nos connaissances sur les rêves dysphoriques (mauvais rêves et cauchemars), selon deux axes. Premièrement, nous avons voulu éclaircir les implications méthodologiques reliées aux différentes mesures de la fréquence de rappel de rêves (articles 1 et 2). Deuxièmement, nous avons voulu étudier un aspect encore peu exploré des rêves dysphoriques : leur contenu (article 3). Dans la première étude, nous avons comparé systématiquement différentes méthodes rétrospectives et prospectives utilisées pour mesurer la fréquence des cauchemars et des mauvais rêves chez 411 participants. En plus de reproduire les résultats d’études antérieures selon lesquelles les mesure rétrospectives sous-estiment la fréquence des rêves dysphoriques, nous avons démontré que ces fréquences n’étaient pas affectées de manière différentielle par le format de la mesure prospective (journaux de rêves narratifs ou à choix de réponse). Dans la deuxième étude, nous nous sommes intéressés à la fréquence de rappel onirique en général (i.e. de tous les rêves) auprès d'un échantillon de 358 participants pour approfondir les résultats relatifs à la comparaison entre les deux types de journaux de rêves obtenus dans la première étude. Nos résultats soulignent que la fréquence de rappel obtenue par un journal à choix de réponse est plus élevée que celle obtenue d’un journal narratif, et que le présumé effet d’augmentation de rappel attribué aux mesures prospectives est limité dans le temps. Ces résultats suggèrent que des facteurs motivationnels sont impliqués dans la tenue d’un journal de rêves, et que dans le cas des journaux narratifs, ces facteurs outrepasseraient les facteurs attentionnels favorisant le rappel onirique. Dans la troisième étude, nous avons comparé le contenu de 253 cauchemars et 431 mauvais rêves obtenus prospectivement auprès de 331 participants, offrant ainsi l’une des descriptions de ce type des plus détaillées à ce jour. Nos résultats démontrent que cauchemars et mauvais rêves partagent de nombreuses caractéristiques mais se différencient en plusieurs points : le contenu des cauchemars est davantage caractérisé par des menaces physiques, et celui des mauvais rêves par des menaces psychologiques. De plus, les cauchemars ont plus souvent la peur comme émotion principale, ont une intensité émotionnelle plus forte, se terminent plus souvent de façon négative et sont plus bizarres que les mauvais rêves. Ces différences de contenu entre mauvais rêves et cauchemars suggèrent que ces deux types de rêves sont des manifestations d’un même phénomène variant en termes d’intensité, et que cette intensité est multidimensionnelle. Les résultats de l’étude 3 sont discutés en lien avec différentes théories sur l’étiologie et la fonction des rêves.
Resumo:
Au niveau méthodologique, ce travail innove en combinant plusieurs moyens d'observation complémentaires sur le processus d'écriture et sur le processus de correction. Les observations qualitatives ainsi recueillies sont retranscrites en les combinant selon l'ordre chronologique d'apparition, puis elles sont traitées et analysées sous le logiciel QDA Miner.
Resumo:
Le but de ce projet est d’étudier l’effet des défauts cristallins sur les propriétés optoélectroniques de photodétecteurs fabriqué à partir de « silicium noir », c’est-à-dire du silicium dopé et microstructuré par impulsions laser femtoseconde, ce qui lui donne une apparence noire mate caractéristique. Des échantillons de silicium noir ont été recuits puis implantés avec des ions ayant une énergie de 300 keV (Si+), 1500 keV (Si+) ou 2000 keV (H+). Trois fluences pour chaque énergie d’implantation ont été utilisées (1E11, 1E12, ou 1E13 ions/cm2) ce qui modifie le matériau en ajoutant des défauts cristallins à des profondeurs et concentrations variées. Neuf photodétecteurs ont été réalisés à partir de ces échantillons implantés, en plus d’un détecteur-contrôle (non-implanté). La courbe de courant-tension, la sensibilité spectrale et la réponse en fréquence ont été mesurées pour chaque détecteur afin de les comparer. Les détecteurs ont une relation de courant-tension presque ohmique, mais ceux implantés à plus haute fluence montrent une meilleure rectification. Les implantations ont eu pour effet, en général, d’augmenter la sensibilité des détecteurs. Par exemple, l’efficacité quantique externe passe de (0,069±0,001) % à 900 nm pour le détecteur-contrôle à (26,0±0,5) % pour le détecteur ayant reçu une fluence de 1E12 cm-2 d’ions de silicium de 1500 keV. Avec une tension appliquée de -0,50 V, la sensibilité est améliorée et certains détecteurs montrent un facteur de gain de photocourant supérieur à l’unité, ce qui implique un mécanisme de multiplication (avalanche ou photoconductivité). De même, la fréquence de coupure a été augmentée par l’implantation. Une technique purement optique a été mise à l’essai pour mesurer sans contacts la durée de vie effective des porteurs, dans le but d’observer une réduction de la durée de vie causée par les défauts. Utilisant le principe de la réflexion photo-induite résolue en fréquence, le montage n’a pas réuni toutes les conditions expérimentales nécessaires à la détection du signal.
Resumo:
Les traits quantitatifs complexes sont des caractéristiques mesurables d’organismes vivants qui résultent de l’interaction entre plusieurs gènes et facteurs environnementaux. Les locus génétiques liés à un caractère complexe sont appelés «locus de traits quantitatifs » (QTL). Récemment, en considérant les niveaux d’expression tissulaire de milliers de gènes comme des traits quantitatifs, il est devenu possible de détecter des «QTLs d’expression» (eQTL). Alors que ces derniers ont été considérés comme des phénotypes intermédiaires permettant de mieux comprendre l’architecture biologique des traits complexes, la majorité des études visent encore à identifier une mutation causale dans un seul gène. Cette approche ne peut remporter du succès que dans les situations où le gène incriminé a un effet majeur sur le trait complexe, et ne permet donc pas d’élucider les situations où les traits complexes résultent d’interactions entre divers gènes. Cette thèse propose une approche plus globale pour : 1) tenir compte des multiples interactions possibles entre gènes pour la détection de eQTLs et 2) considérer comment des polymorphismes affectant l’expression de plusieurs gènes au sein de groupes de co-expression pourraient contribuer à des caractères quantitatifs complexes. Nos contributions sont les suivantes : Nous avons développé un outil informatique utilisant des méthodes d’analyse multivariées pour détecter des eQTLs et avons montré que cet outil augmente la sensibilité de détection d’une classe particulière de eQTLs. Sur la base d’analyses de données d’expression de gènes dans des tissus de souris recombinantes consanguines, nous avons montré que certains polymorphismes peuvent affecter l’expression de plusieurs gènes au sein de domaines géniques de co-expression. En combinant des études de détection de eQTLs avec des techniques d’analyse de réseaux de co-expression de gènes dans des souches de souris recombinantes consanguines, nous avons montré qu’un locus génétique pouvait être lié à la fois à l’expression de plusieurs gènes au niveau d’un domaine génique de co-expression et à un trait complexe particulier (c.-à-d. la masse du ventricule cardiaque gauche). Au total, nos études nous ont permis de détecter plusieurs mécanismes par lesquels des polymorphismes génétiques peuvent être liés à l’expression de plusieurs gènes, ces derniers pouvant eux-mêmes être liés à des traits quantitatifs complexes.
Resumo:
Nous développons dans cette thèse, des méthodes de bootstrap pour les données financières de hautes fréquences. Les deux premiers essais focalisent sur les méthodes de bootstrap appliquées à l’approche de "pré-moyennement" et robustes à la présence d’erreurs de microstructure. Le "pré-moyennement" permet de réduire l’influence de l’effet de microstructure avant d’appliquer la volatilité réalisée. En se basant sur cette ap- proche d’estimation de la volatilité intégrée en présence d’erreurs de microstructure, nous développons plusieurs méthodes de bootstrap qui préservent la structure de dépendance et l’hétérogénéité dans la moyenne des données originelles. Le troisième essai développe une méthode de bootstrap sous l’hypothèse de Gaussianité locale des données financières de hautes fréquences. Le premier chapitre est intitulé: "Bootstrap inference for pre-averaged realized volatility based on non-overlapping returns". Nous proposons dans ce chapitre, des méthodes de bootstrap robustes à la présence d’erreurs de microstructure. Particulièrement nous nous sommes focalisés sur la volatilité réalisée utilisant des rendements "pré-moyennés" proposés par Podolskij et Vetter (2009), où les rendements "pré-moyennés" sont construits sur des blocs de rendements à hautes fréquences consécutifs qui ne se chevauchent pas. Le "pré-moyennement" permet de réduire l’influence de l’effet de microstructure avant d’appliquer la volatilité réalisée. Le non-chevauchement des blocs fait que les rendements "pré-moyennés" sont asymptotiquement indépendants, mais possiblement hétéroscédastiques. Ce qui motive l’application du wild bootstrap dans ce contexte. Nous montrons la validité théorique du bootstrap pour construire des intervalles de type percentile et percentile-t. Les simulations Monte Carlo montrent que le bootstrap peut améliorer les propriétés en échantillon fini de l’estimateur de la volatilité intégrée par rapport aux résultats asymptotiques, pourvu que le choix de la variable externe soit fait de façon appropriée. Nous illustrons ces méthodes en utilisant des données financières réelles. Le deuxième chapitre est intitulé : "Bootstrapping pre-averaged realized volatility under market microstructure noise". Nous développons dans ce chapitre une méthode de bootstrap par bloc basée sur l’approche "pré-moyennement" de Jacod et al. (2009), où les rendements "pré-moyennés" sont construits sur des blocs de rendements à haute fréquences consécutifs qui se chevauchent. Le chevauchement des blocs induit une forte dépendance dans la structure des rendements "pré-moyennés". En effet les rendements "pré-moyennés" sont m-dépendant avec m qui croît à une vitesse plus faible que la taille d’échantillon n. Ceci motive l’application d’un bootstrap par bloc spécifique. Nous montrons que le bloc bootstrap suggéré par Bühlmann et Künsch (1995) n’est valide que lorsque la volatilité est constante. Ceci est dû à l’hétérogénéité dans la moyenne des rendements "pré-moyennés" au carré lorsque la volatilité est stochastique. Nous proposons donc une nouvelle procédure de bootstrap qui combine le wild bootstrap et le bootstrap par bloc, de telle sorte que la dépendance sérielle des rendements "pré-moyennés" est préservée à l’intérieur des blocs et la condition d’homogénéité nécessaire pour la validité du bootstrap est respectée. Sous des conditions de taille de bloc, nous montrons que cette méthode est convergente. Les simulations Monte Carlo montrent que le bootstrap améliore les propriétés en échantillon fini de l’estimateur de la volatilité intégrée par rapport aux résultats asymptotiques. Nous illustrons cette méthode en utilisant des données financières réelles. Le troisième chapitre est intitulé: "Bootstrapping realized covolatility measures under local Gaussianity assumption". Dans ce chapitre nous montrons, comment et dans quelle mesure on peut approximer les distributions des estimateurs de mesures de co-volatilité sous l’hypothèse de Gaussianité locale des rendements. En particulier nous proposons une nouvelle méthode de bootstrap sous ces hypothèses. Nous nous sommes focalisés sur la volatilité réalisée et sur le beta réalisé. Nous montrons que la nouvelle méthode de bootstrap appliquée au beta réalisé était capable de répliquer les cummulants au deuxième ordre, tandis qu’il procurait une amélioration au troisième degré lorsqu’elle est appliquée à la volatilité réalisée. Ces résultats améliorent donc les résultats existants dans cette littérature, notamment ceux de Gonçalves et Meddahi (2009) et de Dovonon, Gonçalves et Meddahi (2013). Les simulations Monte Carlo montrent que le bootstrap améliore les propriétés en échantillon fini de l’estimateur de la volatilité intégrée par rapport aux résultats asymptotiques et les résultats de bootstrap existants. Nous illustrons cette méthode en utilisant des données financières réelles.
Resumo:
Contexte : Les médecins spécialistes peuvent participer aux soins ambulatoires des personnes atteintes de maladies chroniques (MCs) et comorbidité comme co-gestionnaire ou consultant selon qu’ils sont responsables ou non du suivi du patient. Il y a un manque d’évidences sur les déterminants et l’impact du type d’implication du médecin spécialiste, ainsi que sur la façon optimale de mesurer la comorbidité pour recueillir ces évidences. Objectifs : 1) déterminer chez les patients atteints de MCs les facteurs associés à la cogestion en spécialité, dont les caractéristiques des organisations de première ligne et la comorbidité; 2) évaluer si le type d’implication du spécialiste influence le recours à l’urgence; 3) identifier et critiquer les méthodes de sélection d’un indice de comorbidité pour la recherche sur l’implication des spécialistes dans le suivi des patients. Méthodologie : 709 adultes (65 +/- 11 ans) atteints de diabète, d’arthrite, de maladie pulmonaire obstructive chronique ou d’insuffisance cardiaque furent recrutés dans 33 cliniques de première ligne. Des enquêtes standardisées ont permis de mesurer les caractéristiques des patients (sociodémographiques, comorbidité et qualité de vie) et des cliniques (modèle, ressources). L’utilisation des services de spécialistes et de l’urgence fut mesurée avec une base de données médico-administratives. Des régressions logistiques multivariées furent utilisées pour modéliser les variables associées à la cogestion et comparer le recours à l’urgence selon le type d’implication du spécialiste. Une revue systématique des études sur l’utilisation des services de spécialistes, ainsi que des revues sur les indices de comorbidité fut réalisée pour identifier les méthodes de sélection d’un indice de comorbidité utilisées et recommandées. Résultats : Le tiers des sujets a utilisé les services de spécialistes, dont 62% pour de la cogestion. La cogestion était associée avec une augmentation de la gravité de la maladie, du niveau d’éducation et du revenu. La cogestion diminuait avec l’âge et la réception de soins dans les cliniques avec infirmière ayant un rôle innovateur. Le recours à l’urgence n’était pas influencé par l’implication du spécialiste, en tant que co-gestionnaire (OR ajusté = 1.06, 95%CI = 0.61-1.85) ou consultant (OR ajusté = 0.97, 95%CI = 0.63-1.50). Le nombre de comorbidités n’était pas associé avec la cogestion, ni l’impact du spécialiste sur le recours à l’urgence. Les revues systématiques ont révélé qu’il n’y avait pas standardisation des procédures recommandées pour sélectionner un indice de comorbidité, mais que 10 critères concernant principalement la justesse et l’applicabilité des instruments de mesure pouvaient être utilisés. Les études sur l’utilisation des services de spécialistes utilisent majoritairement l’indice de Charlson, mais n’en expliquent pas les raisons. Conclusion : L’implication du spécialiste dans le suivi des patients atteints de MCs et de comorbidité pourrait se faire essentiellement à titre de consultant plutôt que de co-gestionnaire. Les organisations avec infirmières ayant un rôle innovateur pourraient réduire le besoin pour la cogestion en spécialité. Une méthode structurée, basée sur des critères standardisés devrait être utilisée pour sélectionner l’indice de comorbidité le plus approprié en recherche sur les services de spécialistes. Les indices incluant la gravité des comorbidités seraient les plus pertinents à utiliser.
Resumo:
La consommation de substances psychoactives débute généralement à l’adolescence. Cette pratique, bien qu’illégale, est répandue à cet âge. Toutefois, elle peut avoir de graves répercussions sur le développement de l’individu. Il est important de mieux connaître les facteurs pouvant influencer sa fréquence d’utilisation afin d’en diminuer les risques. Ce mémoire vise à examiner le rôle des amis déviants et de la pratique d’un sport organisé dans le développement de l’intoxication à l’alcool et la consommation de cannabis à l’adolescence. Plus précisément, l’étude vise à déterminer si la pratique d’un sport organisé a des effets modérateurs sur la relation entre les amis déviants et l’intoxication à l’alcool et la consommation de cannabis. Les analyses ont été réalisées séparément pour l’alcool et le cannabis. L’échantillon utilisé provient de l’étude longitudinale de la Stratégie d’Intervention Agir Autrement et comprend 4219 adolescents. Des régressions probit ont été effectuées. Tel qu’attendu, les résultats montrent que la fréquentation d’amis déviants est associée au risque d’intoxication à l’alcool et de consommation de cannabis. De plus, les résultats ont démontré le rôle modérateur protecteur de la pratique d’un sport organisé pour l’alcool. Un jeune qui a des amis déviants et qui participe à un sport organisé consommerait généralement moins d’alcool qu’un jeune qui a des amis déviants et qui ne participe pas une activité sportive organisée. Les implications de ces résultats pour la recherche sont discutées.
Resumo:
La fibrillation auriculaire, l'arythmie la plus fréquente en clinique, affecte 2.3 millions de patients en Amérique du Nord. Pour en étudier les mécanismes et les thérapies potentielles, des modèles animaux de fibrillation auriculaire ont été développés. La cartographie électrique épicardique à haute densité est une technique expérimentale bien établie pour suivre in vivo l'activité des oreillettes en réponse à une stimulation électrique, à du remodelage, à des arythmies ou à une modulation du système nerveux autonome. Dans les régions qui ne sont pas accessibles par cartographie épicardique, la cartographie endocardique sans contact réalisée à l'aide d'un cathéter en forme de ballon pourrait apporter une description plus complète de l'activité auriculaire. Dans cette étude, une expérience chez le chien a été conçue et analysée. Une reconstruction électro-anatomique, une cartographie épicardique (103 électrodes), une cartographie endocardique sans contact (2048 électrodes virtuelles calculées à partir un cathéter en forme de ballon avec 64 canaux) et des enregistrements endocardiques avec contact direct ont été réalisés simultanément. Les systèmes d'enregistrement ont été également simulés dans un modèle mathématique d'une oreillette droite de chien. Dans les simulations et les expériences (après la suppression du nœud atrio-ventriculaire), des cartes d'activation ont été calculées pendant le rythme sinusal. La repolarisation a été évaluée en mesurant l'aire sous l'onde T auriculaire (ATa) qui est un marqueur de gradient de repolarisation. Les résultats montrent un coefficient de corrélation épicardique-endocardique de 0.8 (expérience) and 0.96 (simulation) entre les cartes d'activation, et un coefficient de corrélation de 0.57 (expérience) and 0.92 (simulation) entre les valeurs de ATa. La cartographie endocardique sans contact apparait comme un instrument expérimental utile pour extraire de l'information en dehors des régions couvertes par les plaques d'enregistrement épicardique.
Resumo:
Plusieurs travaux de recherche ont porté sur la consommation des adolescents. À partir d’une analyse secondaire qualitative de 30 entrevues menées auprès d’adolescents présentant des difficultés de comportements, ce mémoire vise à explorer le discours d’adolescents qui présentent des difficultés de comportements par rapport à leur perception de leur consommation et aux facteurs qui ont pu l’influencer. Le premier chapitre de ce mémoire rend compte de la diversité des facteurs d’influence jouant un rôle dans la consommation de drogue ou d’alcool d’adolescents qui présentent des difficultés de comportements selon la littérature recensée. Dans un premier temps les différents contextes de vie des jeunes sont explorés. L’approche bioécologique a pour avantage de replacer l’adolescent dans son environnement global incluant les différents niveaux d’influence. En outre, les représentations sociales, permettent de mettre en avant la perception des principaux concernés. Le deuxième chapitre consacré à la méthodologie, se base sur une collecte de données qualitatives. Le troisième chapitre expose les résultats de cette recherche qui révèlent que les jeunes participants à cette étude sont en mesure d’identifier des influences dans les différents niveaux, même si le macrosystème n’est pas présent dans leur discours. Sur le plan de la fréquence de consommation, deux profils de consommation se distinguent, l’un concerne les jeunes qui ont commencé à consommer plus tôt et dont la consommation a diminué et ceux qui débuté leur consommation plus tard et dont la consommation a augmenté. Le quatrième chapitre de ce mémoire expose de manière schématique les écrits scientifiques avec le discours des adolescents et identifie également quelques notions clefs qui ressortent du discours des adolescents.
Resumo:
Introduction & Objectifs : Pour assurer l’analgésie postopératoire, l’anesthésiste dispose, en plus des différentes classes de médicaments administrés par voie orale ou intraveineuse, de diverses techniques pour bloquer l’influx nerveux douloureux en administrant les anesthésiques locaux (AL) de manière centrale ou périphérique. La ropivacaïne (ROP), un AL à longue durée d’action, est un médicament de première intention partout dans le monde, en raison de sa grande efficacité et de son faible risque de toxicité. Contrairement à certains pays, la ROP n'est toujours pas indiquée au Canada pour la rachianesthésie (bloc central) en raison d'un manque de données probantes. Jusqu'à présent, les efforts de recherche ont essentiellement porté sur la sécurité ainsi que sur la durée d’action du médicament lorsqu’administré par voie spinale. De plus, les doses optimales de ROP pour l’anesthésie régionale périphérique ne sont pas encore précisément connues. La posologie devrait être adaptée au site d’administration ainsi qu’à l’intensité et la durée du stimulus produit par la chirurgie. Ultimement, cela permettrait aux cliniciens d’identifier le régime optimal en fonction des facteurs démographiques qui pourraient affecter la pharmacocinétique (PK) et la pharmacodynamie (PD) de l’AL (objectif global de ces travaux). Validation de la Méthode Analytique Manuscrit 1 : Une méthode analytique spécifique et sensible permettant de déterminer les concentrations plasmatiques de ROP a d’abord été optimisée et validée. Validation du Biomarqueur Manuscrit 2 : Nous avons ensuite mis au point et évalué la fiabilité d’une méthode quantitative basée sur la mesure du seuil de perception sensorielle (CPT) chez le volontaire sain. Ce test nécessite l’application d’un courant électrique transcutané qui augmente graduellement et qui, selon la fréquence choisie, est capable de stimuler spécifiquement les fibres nerveuses impliquées dans le cheminement de l’influx nerveux douloureux. Les résultats obtenus chez les volontaires sains indiquent que la mesure CPT est fiable, reproductible et permet de suivre l’évolution temporelle du bloc sensitif. Études cliniques Manuscrit 3 : Nous avons ensuite caractérisé, pendant plus de 72 h, l’absorption systémique de la ROP lorsqu’administrée pour un bloc du nerf fémoral chez 19 patients subissant une chirurgie du genou. Le modèle PK populationnel utilisé pour analyser nos résultats comporte une absorption biphasique durant laquelle une fraction de la dose administrée pénètre rapidement (temps d’absorption moyen : 27 min, IC % 19 – 38 min) dans le flux sanguin systémique pendant que l’autre partie, en provenance du site de dépôt, est redistribuée beaucoup plus lentement (demi-vie (T1/2) : 2.6 h, IC % 1.6 – 4.3 h) vers la circulation systémique. Une relation statistiquement significative entre l’âge de nos patients et la redistribution de l’AL suggère que la perméabilité tissulaire est augmentée avec l’âge. Manuscrit 4 : Une analyse PK-PD du comportement sensitif du bloc fémoral (CPT) a été effectuée. Le modèle développé a estimé à 20.2 ± 10.1 mg la quantité de ROP nécessaire au site d’action pour produire 90 % de l’effet maximal (AE90). À 2 X la AE90, le modèle prédit un début d’action de 23.4 ± 12.5 min et une durée de 22.9 ± 5.3 h. Il s’agit de la première étude ayant caractérisé le comportement sensitif d’un bloc nerveux périphérique. Manuscrit 5 : La troisième et dernière étude clinique a été conduite chez les patients qui devaient subir une chirurgie du genou sous rachianesthésie. Tout comme pour le bloc du nerf fémoral, le modèle PK le plus approprié pour nos données suggère que l’absorption systémique de la ROP à partir du liquide céphalo-rachidien est biphasique; c.à.d. une phase initiale (T1/2 : 49 min, IC %: 24 – 77 min) suivie (délai: 18 ± 2 min) d'une phase légèrement plus lente (T1/2 : 66 min, IC %: 36 – 97 min). L’effet maximal a été observé beaucoup plus rapidement, soit aux environs de 12.6 ± 4.9 min, avant de revenir aux valeurs de base 210 ± 55 min suivant l’administration de l’agent. Ces données ont permis d’estimer une AE50 de 7.3 ± 2.3 mg pour l'administration spinale. Conclusion : En somme, ces modèles peuvent être utilisés pour prédire l’évolution temporelle du bloc sensitif de l’anesthésie rachidienne et périphérique (fémorale), et par conséquent, optimiser l’utilisation clinique de la ROP en fonction des besoins des cliniciens, notamment en ce qui a trait à l’âge du patient.
Resumo:
Il existe peu d’études sur les effets physiologiques et pharmacologiques du médicament anesthésiant le plus utilisé chez les anoures, la tricaïne méthanesulfonate, et son utilisation chez la grenouille Xenopus laevis. Notre premier objectif était d’évaluer l’effet de bains d’immersion de 20 minutes de 1 et 2 g/L de tricaïne méthanesulfonate sur la fonction cardiorespiratoire, l’analgésie et les réflexes ainsi que d’étudier la pharmacocinétique. Nos résultats démontrent que des bains de 1 et 2 g/L produisent une anesthésie chirurgicale de 30 et 60 minutes respectivement, sans effet significatif sur le système cardiorespiratoire. À la suite d’une immersion à 2 g/L, on note une demi-vie terminale de 3,9 heures. Cette dose ne produit aucun effet sur l’histologie des tissus 24 heures après l’immersion. Dans une deuxième expérience, nous avons évalué les effets d’une surdose de tricaïne méthanesulfonate en bain d’immersion sur les systèmes cardiorespiratoire et nerveux central grâce à l’électroencéphalographie ainsi que l’effet d’une injection de pentobarbital sodique après 2 heures d’immersion. L’EEG montre un effet dépresseur sur le SNC avec l’utilisation de la tricaïne méthanesulfonate sans voir un arrêt de signal d’EEG sur la période de 2 heures d’enregistrement. Les surdoses à 1 g/L et 3 g/L n’ont pas d’effet significatif sur le rythme cardiaque, et l’injection de pentobarbital suite au bain d’immersion de tricaïne méthanesulfonate est nécessaire pour induire l’euthanasie. Nous avons démontré que le bain de tricaïne méthanesulfonate peut produire une anesthésie de 30 à 60 minutes avec dépression du SNC sans effet cardiovasculaire chez les Xenopus laevis.
Resumo:
La mitochondrie est de plus en plus reconnue pour sa contribution à la dégénerescence musculaire. Les dysfonctions mitochondriales, en plus de causer une défaillance énergétique, contribuent à la signalisation apoptotique, stimule la production de ROS et peuvent induire une surcharge calcique. Ces caractéristiques sont tous reliées à certains types de myopathies. Cette thèse met en lumières comment certaines dysfonctions mitochondriales peuvent intervenir dans la pathogenèse de diverses myopathies. Nous démontrons que les dysfonctions mitochondriales sont impliqués dans l’atrophie dû à la perte d’innervation. Par contre, la désensabilisation de l’ouverture du pore mitochondrial de transition de perméabilité, via ablation génétique de cyclophiline-D, ne prévient ni la signalisation apoptotique mitochondrial ni l’atrophie. Nous avons aussi observé des dysfonctions mitochondriales dans le muscle atteint de dystrophie musculaire de Duchenne qui furent améliorés suite à une transfection de PGC1-α, laquelle résulta aussi en une amélioration de la pathologie. Finalement, nous démontrons que le recyclage de mitochondrie par les voies de mitophagies et de contrôles de la qualité impliquant Parkin et possiblement d’autres voies de signalisation inconnues sont cruciales au recouvrement cardiaqe lors d’un choc septique.
Resumo:
Alors que l’Imagerie par résonance magnétique (IRM) permet d’obtenir un large éventail de données anatomiques et fonctionnelles, les scanneurs cliniques sont généralement restreints à l’utilisation du proton pour leurs images et leurs applications spectroscopiques. Le phosphore jouant un rôle prépondérant dans le métabolisme énergétique, l’utilisation de cet atome en spectroscopie RM présente un énorme avantage dans l’observation du corps humain. Cela représente un certain nombre de déEis techniques à relever dus à la faible concentration de phosphore et sa fréquence de résonance différente. L’objectif de ce projet a été de développer la capacité à réaliser des expériences de spectroscopie phosphore sur un scanneur IRM clinique de 3 Tesla. Nous présentons ici les différentes étapes nécessaires à la conception et la validation d’une antenne IRM syntonisée à la fréquence du phosphore. Nous présentons aussi l’information relative à réalisation de fantômes utilisés dans les tests de validation et la calibration. Finalement, nous présentons les résultats préliminaires d’acquisitions spectroscopiques sur un muscle humain permettant d’identiEier les différents métabolites phosphorylés à haute énergie. Ces résultats s’inscrivent dans un projet de plus grande envergure où les impacts des changements du métabolisme énergétique sont étudiés en relation avec l’âge et les pathologies.